JP7347070B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7347070B2
JP7347070B2 JP2019173593A JP2019173593A JP7347070B2 JP 7347070 B2 JP7347070 B2 JP 7347070B2 JP 2019173593 A JP2019173593 A JP 2019173593A JP 2019173593 A JP2019173593 A JP 2019173593A JP 7347070 B2 JP7347070 B2 JP 7347070B2
Authority
JP
Japan
Prior art keywords
image
area
makeup
user
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173593A
Other languages
English (en)
Other versions
JP2021049087A (ja
Inventor
加奈子 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019173593A priority Critical patent/JP7347070B2/ja
Publication of JP2021049087A publication Critical patent/JP2021049087A/ja
Priority to JP2023143026A priority patent/JP2023164494A/ja
Application granted granted Critical
Publication of JP7347070B2 publication Critical patent/JP7347070B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
現在、ユーザの顔に化粧品を塗布したときの顔の状態をシミュレーションする技術が知られている。例えば、特許文献1には、ユーザの顔画像に化粧品を表すメイクパーツを重畳する技術であって、顔画像に重畳するメイクパーツを目の状態に応じて変化させる技術が記載されている。具体的には、特許文献1には、目閉じ画像に描画されたメイクパーツを目開き画像用に変形し、変形したメイクパーツを目開き画像に重畳する技術が記載されている。
ここで、実際のメイクでは、目の状態の変化に伴う、顔に塗布された化粧品の見え方の変化の仕方は、上瞼の種別によって異なる。例えば、一重瞼の人と二重瞼の人とが目を閉じた状態で同じ領域にアイシャドーを塗布した場合した場合でも、目を開けたときに見えるアイシャドーの塗布領域は一重瞼の人と二重瞼の人とで異なる。この点に関して、特許文献1には、顔画像に重畳するメイクパーツを目の状態に応じて変化させるときに、上瞼の種別を考慮することが記載されている。
国際公開第2018/159231号
しかしながら、特許文献1に記載された方法では、メイクパーツの変化のさせ方が上瞼の種別と合致せず、化粧品が塗布された顔の状態が適切にシミュレーションされない可能性がある。例えば、特許文献1には、一重瞼と奥二重瞼とを区別していないが、一重瞼と奥二重瞼とを区別した方が好ましいとも考えられる。また、特許文献1には、上瞼が一重瞼である場合、目閉じ画像に描画された上瞼メイクパーツを変形せずに目開き画像に重畳することが記載されているが、上瞼メイクパーツを変形した方が好ましいとも考えられる。このため、化粧品が塗布された顔の状態を顔パーツの種別に応じて適切にシミュレーションする技術が望まれている。
本発明は、上記問題に鑑みてなされたものであり、化粧品が塗布された顔の状態を顔パーツの種別に応じて適切にシミュレーションする画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る画像処理装置は、
上瞼閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別する種別判別手段と、
前記上瞼閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する領域決定手段と、を備える。
本発明によれば、化粧品が塗布された顔の状態を顔パーツの種別に応じて適切にシミュレーションすることができる。
本発明の実施形態1に係るメイクシミュレーション装置の外観図 本発明の実施形態1に係る画像処理装置のハードウェア構成を示すブロック図 本発明の実施形態1に係る指示装置のハードウェア構成を示すブロック図 本発明の実施形態1に係るメイクシミュレーション装置の機能的な構成を示すブロック図 本発明の実施形態1に係る画像処理装置をユーザが使用している様子を示す図 本発明の実施形態1に係る画像処理装置が備えるタッチスクリーンに対してユーザが指示装置を用いて操作している様子を示す図 目の付近から検出される各種のラインを示す図 上瞼の種別毎の特徴を示す図であり、(A)は一重瞼の特徴を示す図であり、(B)は二重瞼の特徴を示す図であり、(C)は、奥二重瞼の特徴を示す図 ユーザが目を閉じながら模擬的にメイクする様子を示す図 目開き用メイク領域を示す図であり、(A)は一重瞼用の目開き用メイク領域を示す図であり、(B)は二重瞼用の目開き用メイク領域を示す図であり、(C)は奥二重瞼用の目開き用メイク領域を示す図 本発明の実施形態1に係る画像処理装置が実行する画像表示処理を示すフローチャート 図11における種別判別処理を示すフローチャート 図11における領域決定処理を示すフローチャート 本発明の実施形態2に係る画像処理装置の機能的な構成を示すブロック図
以下、本発明の実施形態について、図面を参照して説明する。なお、図中において、同一又は対応する部分には、同一の符号を付す。
(実施形態1)
まず、図1を参照して、本発明の実施形態1に係るメイクシミュレーション装置100の構成について説明する。メイクシミュレーション装置100は、ユーザが化粧品でメイクした後の状態をコンピュータ上でシミュレーションする装置である。ユーザは、メイクシミュレーション装置100を用いることで、本物の化粧品を用いることなく、気軽にメイクを練習したり、メイク後の状態を事前に確認したりすることができる。
図1に示すように、メイクシミュレーション装置100は、画像処理装置10と、指示装置30とを備える。画像処理装置10は、ユーザの顔が撮像された撮像画像を用いて、メイク後の状態を表す画像をシミュレーションにより生成して表示する装置である。画像処理装置10は、例えば、メイク用のパレットを模した形状を有する。
図2に、画像処理装置10のハードウェア構成を示す。図2に示すように、画像処理装置10は、プロセッサ11と、フラッシュメモリ12と、カメラ13と、第1のタッチスクリーン14と、第2のタッチスクリーン15と、通信インターフェース16とを備える。画像処理装置10が備えるこれらの要素は、例えば、システムバスを介して相互に接続される。
プロセッサ11は、画像処理装置10の全体の動作を制御する。プロセッサ11は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、RTC(Real Time Clock)を備える。フラッシュメモリ12は、各種の情報を記憶する。
カメラ13は、被写体を撮像する。カメラ13は、被写体から射出された光を集光するレンズと、集光した光を受けて被写体の画像を取得するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から電気信号として送られた撮像データをデジタルデータに変換するA/D(Analog/Digital)変換器とを備える。図1に示すように、カメラ13は、第1のタッチスクリーン14の近傍に配置され、第1のタッチスクリーン14を見ながら画像処理装置10を使用しているユーザの顔を撮像する。
第1のタッチスクリーン14と第2のタッチスクリーン15とは、ユーザインターフェースであり、各種の情報をユーザから受け付け、また、各種の情報をユーザに提示する。図1に示すように、第1のタッチスクリーン14は、画像処理装置10の上側の面に配置され、カメラ13の撮像により得られた撮像画像を表示する。第2のタッチスクリーン15は、画像処理装置10の下側の面に配置され、メイクシミュレーションにおいてユーザの顔に仮想的に塗布される化粧品を表現する化粧品画像を表示する。また、第2のタッチスクリーン15は、第2のタッチスクリーン15の表面に対する接触を伴うユーザ操作を受け付ける。
通信インターフェース16は、プロセッサ11による制御のもと、指示装置30を含む外部の装置と通信するモジュールである。通信インターフェース16は、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)等の無線通信、又はUSB(Universal Serial Bus)ケーブル等の有線通信により外部の機器と通信する。
指示装置30は、メイクシミュレーションにおいて化粧品を選択し、選択した化粧品を仮想的に塗布する顔の位置を指示するための装置である。指示装置30は、スティック状の形状を有し、いわゆる化粧筆(化粧ブラシ、メイクブラシ)のように、顔に化粧品を塗布するために用いられる塗布ツールを模した部材である。ユーザは、指示装置30を手で把持し、画像処理装置10に表示された化粧品画像及びユーザの実際の顔を、指示装置30の端部で指し示すようにして使用する。
図3に、指示装置30のハードウェア構成を示す。指示装置30は、プロセッサ31と、フラッシュメモリ32と、圧力センサ33と、通信インターフェース34とを備える。指示装置30が備えるこれらの要素は、例えば、システムバスを介して相互に接続される。
プロセッサ31は、指示装置30の全体の動作を制御する。プロセッサ31は、例えば、CPU、ROM、RAM、RTCを備える。フラッシュメモリ32は、各種の情報を記憶する。圧力センサ33は、指示装置30の端部にかかる圧力を検知する。つまり、圧力センサ33は、指示装置30の端部に対する接触を検知する。圧力センサ33は、静電容量式、歪みゲージ式などの方式で圧力を検知する。通信インターフェース34は、プロセッサ31による制御のもと、画像処理装置10と通信するモジュールである。通信インターフェース34は、例えば、無線LAN、Bluetooth(登録商標)等の無線通信、又はUSBケーブル等の有線通信により画像処理装置10と通信する。
次に、図4を参照して、メイクシミュレーション装置100の機能について説明する。画像処理装置10は、機能的には、撮像部101と、画像取得部102と、表示制御部103と、表示部104と、操作受付部105と、化粧品選択部106と、情報受信部107と、接触位置特定部108と、状態判別部109と、種別判別部110と、領域決定部113と、メイクパーツ生成部114と、メイクパーツ保持部115とを備える。指示装置30は、機能的には、接触検知部301と、情報送信部302とを備える。
画像取得部102は、本発明における画像取得手段の一例である。表示制御部103は、本発明における表示制御手段の一例である。表示部104は、本発明における表示手段の一例である。操作受付部105は、本発明における操作受付手段の一例である。接触位置特定部108は、本発明における接触位置特定手段の一例である。種別判別部110は、本発明における種別判別手段の一例である。領域決定部113は、本発明における領域決定手段の一例である。
撮像部101は、ユーザの顔を含む範囲を撮像し、この範囲を表す撮像画像を生成する。図5に、ユーザがメイクシミュレーション装置100を用いてメイクのシミュレーションをするために、画像処理装置10が備える第1のタッチスクリーン14に向かい合っている様子を示す。撮像部101は、図5において破線で示す視野の内側の範囲、具体的には、第1のタッチスクリーン14に向かい合っているユーザの顔を含む範囲を撮像する。
従って、撮像部101を実現するためのカメラ13の設置位置及び光軸の向きは、第1のタッチスクリーン14に向かい合うユーザの顔がカメラ13の視野に含まれるように調整される。撮像部101は、画像処理装置10がユーザにより使用されている間、継続的に、ユーザの顔を撮像して撮像画像を生成する処理を実行する。撮像部101の機能は、例えば、プロセッサ11とカメラ13とが協働することにより実現される。
画像取得部102は、撮像部101が生成した撮像画像を取得する。この撮像画像は、第1の顔画像と第2の顔画像とのうちのいずれかである。第1の顔画像は、顔パーツが第1の状態であるときに撮像されたユーザの顔画像である。第2の顔画像は、顔パーツが第2の状態であるときに撮像されたユーザの顔画像である。この顔パーツは、例えば、顔に含まれるパーツのうち、状態が大きく変化する顔パーツである。
本実施形態では、メイクが施される目が左目であり、顔パーツは、左目の上瞼である。以下、適宜、左目の上瞼のことを単に上瞼という。第2の状態は、第1の状態とは異なる状態である。例えば、第1の状態が閉状態である場合は第2の状態が開状態であり、第1の状態が開状態である場合は第2の状態が閉状態である。本実施形態では、第1の状態が閉状態であり、第2の状態が開状態である。本実施形態では、第1の顔画像は、ユーザが左目を閉じているときに撮像されたユーザの顔の撮像画像であり、第2の顔画像は、ユーザが左目を開けているときに撮像されたユーザの顔の撮像画像である。以下、適宜、第1の顔画像を目閉じ画像といい、第2の顔画像を目開き画像という。画像取得部102の機能は、例えば、プロセッサ11の機能により実現される。
表示制御部103は、表示部104による画像の表示を制御する。具体的には、表示制御部103は、表示部104が備える第1の表示領域に、画像取得部102により取得された撮像画像を表示する。第1の表示領域は、例えば、第1のタッチスクリーン14に対応する表示領域である。このように、表示制御部103は、ユーザの顔の様子をリアルタイムで表示する。このため、ユーザは、表示部104が備える第1の表示領域に表示された自分の顔画像を鏡に映った顔のように確認しながら、メイクをシミュレーションすることができる。
また、表示制御部103は、表示部104が備える第2の表示領域に、化粧品を表現する化粧品画像を表示する。第2の表示領域は、第1の表示領域とは異なる表示領域であり、例えば、第2のタッチスクリーン15に対応する表示領域である。化粧品画像は、メイクシミュレーションにおいて、ユーザの顔に仮想的に塗布される化粧品を視覚的に表現する画像である。表示制御部103は、図6に示すように、化粧品画像として、複数の化粧品を表現する画像を表示する。なお、図6は、画像処理装置10が備える第2のタッチスクリーン15に対してユーザが指示装置30を用いて操作している様子を示している。
ここで、複数の化粧品のそれぞれは、色、光沢、質感等が少なくとも1つ相違する化粧品である。複数の化粧品を表現する画像は、第2の表示領域内における互いに異なる領域に表示される。ユーザは、化粧品画像を参照して複数の化粧品からメイクシミュレーションを望む化粧品を選択して使用することができる。なお、化粧品画像を示す画像は、フラッシュメモリ12に記憶されている。このように、ユーザの顔を表す撮像画像が第1の表示領域に表示され、化粧品画像が第2の表示領域に表示されることにより、ユーザは、画像処理装置10を化粧品のパレットのように取り扱うことができる。なお、本実施形態では、化粧品はアイシャドーである。表示制御部103の機能は、例えば、プロセッサ11の機能により実現される。
表示部104は、表示制御部103による制御に従って画像を表示する。具体的には、表示部104は、第1の表示領域に第1の顔画像又は第2の顔画像を表示し、第2の表示領域に化粧品画像を表示する。表示部104の機能は、例えば、プロセッサ11と第1のタッチスクリーン14と第2のタッチスクリーン15とが協働することにより実現される。
操作受付部105は、表示部104が第2の表示領域に化粧品画像を表示しているときに、指示装置30を用いた第2の表示領域への接触を伴うユーザ操作を受け付ける。図6に、ユーザが、手に把持した指示装置30の先端部を、第2のタッチスクリーン15の表面に接触させている様子を示す。指示装置30の先端部を第2のタッチスクリーン15の表面に接触させる動作は、化粧用のパレットに収納されている化粧品を化粧筆の先端部に付着させる動作を模擬した動作である。操作受付部105は、例えば、第2の表示領域上における接触位置を示す接触位置情報を化粧品選択部106に送信する。操作受付部105の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。
化粧品選択部106は、操作受付部105が受け付けたユーザ操作に基づいて、メイクシミュレーションで用いる化粧品を選択する。具体的には、化粧品選択部106は、操作受付部105から受信した接触位置情報と、フラッシュメモリ12に記憶されている配置情報とに基づいて、ユーザが選択した化粧品を特定する。配置情報は、第2の表示領域内における各化粧品の配置を示す情報であり、化粧品を表す画像が表示される領域の座標を表す情報である。化粧品選択部106の機能は、例えば、プロセッサ11の機能により実現される。
接触検知部301は、指示装置30の先端部に何らかの物体が接触しているか否かを検知する。接触検知部301は、指示装置30の先端部に加わる圧力を検知し、検知した圧力に基づいて、接触の有無を判別する。例えば、接触検知部301は、接触を検知した場合、接触時間を示す情報である接触情報を情報送信部302に送信する。接触検知部301の機能は、例えば、プロセッサ31と圧力センサ33とが協働することにより実現される。
情報送信部302は、接触検知部301が生成した接触情報を、画像処理装置10に送信する。情報送信部302の機能は、例えば、プロセッサ31と通信インターフェース34とが協働することにより実現される。
情報受信部107は、指示装置30から接触情報を受信する。情報受信部107の機能は、例えば、プロセッサ11と通信インターフェース16とが協働することにより実現される。
接触位置特定部108は、操作受付部105がユーザ操作を受け付けた後、表示部104が第1の顔画像を表示しているときに指示装置30がユーザの顔に接触した場合、第1の顔画像に基づいて、ユーザの顔における指示装置30が接触した接触位置を特定する。接触位置特定部108は、指示装置30の先端部が何らかの物体に接触しているときに、第1の顔画像上において指示装置30がユーザの顔と重なっている場合、指示装置30がユーザの顔に接触したと判別する。
なお、接触位置特定部108は、情報受信部107から供給された接触情報に基づいて、指示装置30の先端部が何らかの物体に接触している期間を特定することができる。また、接触位置特定部108は、指示装置30がユーザの顔に接触している期間に取得された第1の顔画像内における指示装置30の位置から、上記接触位置を特定することができる。接触位置特定部108の機能は、例えば、プロセッサ11の機能により実現される。
状態判別部109は、ユーザの顔の特定の顔パーツの状態を判別する。具体的には、状態判別部109は、ユーザの左目の上瞼の状態が閉状態であるのか開状態であるのか、言い換えれば、画像取得部102により取得された撮像画像が第1の顔画像であるのか第2の顔画像であるのかを判別する。上瞼の状態は、目の状態とも言える。そこで、状態判別部109は、撮像画像におけるユーザの左目が閉じているか開いているかを判別する。目の状態を判別する手法は、適宜、調整することができる。
例えば、状態判別部109は、撮像画像内における顔画像の位置を特定し、顔画像内における左目の近傍の画像である左目画像の位置を特定し、左目画像内に瞳を表す円形の画像があるか否かを判別する。状態判別部109は、円形の画像がないと判別した場合、ユーザの左目の上瞼の状態が閉状態であると判別する。状態判別部109は、円形の画像があると判別した場合、ユーザの左目の上瞼の状態が開状態であると判別する。状態判別部109の機能は、例えば、プロセッサ11の機能により実現される。
種別判別部110は、画像取得部102により取得された第1の顔画像と第2の顔画像とのうちの少なくとも一方に基づいて、ユーザの顔パーツの種別を判別する。具体的には、種別判別部110は、目閉じ画像と目開き画像とのうちの少なくとも一方に基づいて、ユーザの左目の上瞼の種別が一重と二重と奥二重とのいずれであるのかを判別する。なお、上瞼の種別が一重であることは上瞼が一重瞼であることと同義であり、上瞼の種別が二重であることは上瞼が二重瞼であることと同義であり、上瞼の種別が奥二重であることは上瞼が奥二重瞼であることと同義である。本実施形態では、目開き画像から上瞼の種別を判別するものとする。種別判別部110の機能は、例えば、プロセッサ11の機能により実現される。種別判別部110は、ライン検出部111と、ライン判別部112とを備える。ライン検出部111は、本発明におけるライン検出手段の一例である。ライン判別部112は、本発明におけるライン判別手段の一例である。
ライン検出部111は、画像取得部102により取得された第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインを検出する。また、ライン検出部111は、画像取得部102により取得された第2の顔画像から、上瞼と目との境界の粘膜部分を表す第2のラインを検出する。第1のラインと第2のラインとを検出する方法は、適宜、調整することができる。以下、図7を参照して、目開き画像内における左目の周囲の画像から12本のラインを検出し、12本のラインから第1のラインと第2のラインとを特定する方法について説明する。
図7に示すように、目開き画像内における左目の周囲の画像からは、ラインL1-L12の合計12本のラインが検出可能である。なお、図7には、第1のタッチスクリーン14に表示される目開き画像のうち左目の周囲の画像を示している。ラインL1は、眉頭を表すラインである。ラインL2は、眉頭から眉山に向けて延びるラインのうち眉の上側の境界を表すラインである。ラインL3は、眉山から眉尻に向けて延びるラインのうち眉の上側の境界を表すラインである。ラインL4は、眉頭から眉山に向けて延びるラインのうち眉の下側の境界を表すラインである。ラインL5は、眉山から眉尻に向けて延びるラインのうち眉の下側の境界を表すラインである。
ラインL6は、目の上側の境界を表すフレームラインのうち粘膜側のラインである。ラインL6は、第2のラインである。ラインL7は、目の上側の境界を表すフレームラインのうちまつげ側のラインである。ラインL8は、目の下側の境界を表すフレームラインのうち粘膜側のラインである。ラインL9は、目の下側の境界を表すフレームラインのうちまつげ側のラインである。ラインL10は、二重瞼又は奥二重瞼の溝を表すラインである。ラインL10は、第1のラインである。ラインL11は、目頭から目尻に向けて伸びるアイホールと呼ばれるラインのうち上側のラインである。ラインL12は、目頭から目尻に向けて伸びるアイホールと呼ばれるラインのうち下側のラインである。
これらの12本のラインは、例えば、他のラインとの位置関係などを考慮して、検知しやすいラインから順に求めることが好適である。例えば、眉の上側の境界を示すラインであるラインL2と、眉の下側の境界を示すラインであるラインL4とは、比較的容易に検知しやすいと考えられる。また、目の上側の境界を示す2つのラインであるラインL6及びラインL7と、目の下側の境界を示す2つのラインであるラインL8及びラインL9とは、比較的容易に検知しやすいと考えられる。そこで、まず、これらの6本のラインを検知することが好適である。
ここで、ラインL4とラインL7との間の領域で検知される可能性のラインは、ラインL10とラインL11との2本のラインである。このため、この領域に存在するラインのうち上側のラインをラインL11として検知し、この領域に存在するラインのうち下側のラインをラインL10として検知することができる。なお、ラインL10は、二重瞼又は奥二重の溝を表すラインである。このため、一重瞼のユーザの顔を撮像した撮像画像からは、ラインL10は検知されない。ライン検出部111の機能は、例えば、プロセッサ11の機能により実現される。
ライン判別部112は、ライン検出部111により第1のラインが検出されない場合、ユーザの上瞼が一重瞼であると判別する。また、ライン判別部112は、ライン検出部111により第1のラインが検出された場合、ユーザの上瞼が一重瞼でないと判別する。また、ライン判別部112は、ライン検出部111により検出された第1のラインと第2のラインとに基づいて、ユーザの上瞼が一重瞼と二重瞼と奥二重瞼とのうちのいずれであるのかを判別する。
つまり、ライン判別部112は、第1のラインが検出された場合、第1のラインと第2のラインとに基づいて、ユーザの上瞼が二重瞼と奥二重瞼とのうちのいずれであるのかを判別する。具体的には、ライン判別部112は、第1のラインと第2のラインとに挟まれる隙間領域の顔の幅方向における長さが閾値以上である場合、ユーザの上瞼が二重瞼であると判別する。そして、ライン判別部112は、この長さが閾値未満である場合、ユーザの上瞼が奥二重瞼であると判別する。
以下、図8を参照して、隙間領域に基づいて上瞼の種別を判別する方法について説明する。図8(A)は、一重瞼の特徴を示す図である。図8(B)は、二重瞼の特徴を示す図である。図8(C)は、奥二重瞼の特徴を示す図である。
図8(A)に示すように、ユーザの左目の上瞼が一重瞼である場合、第1のラインであるラインL6Aは検出されるが、第2のラインであるラインL10は検出されない。図8(B)に示すように、ユーザの左目の上瞼が二重瞼である場合、第1のラインであるラインL6Bと第2のラインであるラインL10Bとが検出される。また、図8(C)に示すように、ユーザの左目の上瞼が奥二重瞼である場合、第1のラインであるラインL6Cと第2のラインであるラインL10Cとが検出される。なお、ラインL6AとラインL6BとラインL6Cとを総称して適宜ラインL6といい、ラインL10BとラインL10Cとを総称して適宜ラインL10という。ここで、二重瞼と奥二重瞼とでは、ラインL6とラインL10との位置関係が異なり、ラインL6とラインL10との挟まれた領域である隙間領域の形状や大きさが異なる。そこで、ライン判別部112は、この隙間領域の形状や大きさに基づいて、上瞼が二重瞼と奥二重瞼とのいずれであるのかを判別する。
本実施形態では、理解を容易にするため、ラインL6とラインL10とがほぼ重なる部分の領域、言い換えれば、ラインL6とラインL10との距離が極めて短い部分の領域は、隙間領域とは見做さない。つまり、本実施形態では、厳密には、隙間領域は、ラインL6とラインL10とに挟まれた領域のうち、ラインL6とラインL10との距離が閾値以上である領域である。
図8(B)に示すように、上瞼が二重瞼である場合、隙間領域である領域E1は、顔の幅方向に細長く延びた三日月のような形状を有する領域である。領域E1の顔の幅方向における長さ(以下、適宜、単に「長さ」という。)をW1とする。領域E1は、ラインL6B及びラインL10Bの両端同士を結んだときに囲われる領域である。具体的には、領域E1は、ラインL6Bの一端とラインL10Bの一端とを結ぶラインと、ラインL6Bと、ラインL6Bの他端とラインL10Bの他端とを結ぶラインと、ラインL10Bとの4つのラインにより囲まれた領域である。
一方、図8(C)に示すように、上瞼が奥二重瞼である場合、隙間領域である領域E2は、顔の幅方向に一つの頂点が延びた三角形のような形状を有する領域である。領域E2の顔の幅方向における長さをW2とする。領域E2は、ラインL6C及びラインL10Cの両端同士を結んだときに囲われる領域である。具体的には、領域E2は、ラインL6Cの一端とラインL10Cの一端とを結ぶラインと、ラインL6Cと、ラインL6Cの他端とラインL10Cの他端とを結ぶラインと、ラインL10Cとの4つのラインにより囲まれた領域である。ライン判別部112は、検出された隙間領域が、領域E1と領域E2とのいずれと近似するのかを判別することにより、上瞼が二重瞼と奥二重瞼とのいずれであるのかを判別することが好適である。
本実施形態では、領域E1と領域E2とでは、顔の幅方向における長さが大きく異なる点を上瞼の判別に用いる。つまり、ライン判別部112は、隙間領域の長さが予め定められた閾値以上である場合に上瞼が二重瞼であると判別し、隙間領域の長さがこの閾値未満である場合に上瞼が奥二重瞼であると判別する。この閾値は、例えば、目の長さの半分程度の長さである。ライン判別部112の機能は、例えば、プロセッサ11の機能により実現される。
領域決定部113は、表示部104が第1の顔画像を表示しているときにユーザが実行したメイク動作に基づいて、第1の顔画像上における第1のメイク領域を決定する。第1のメイク領域は、第1のメイクパーツが重ねられる領域である。第1のメイクパーツは、擬似的に顔に塗布された化粧品を表す画像であり、第1の顔画像に重ねられる画像である。メイク動作は、ユーザが指示装置30を用いて、擬似的に顔に化粧品を塗布する動作である。領域決定部113は、接触位置特定部108により特定された接触位置に基づいて、第1の顔画像上における第1のメイク領域を決定する。例えば、領域決定部113は、目を閉じたユーザのメイク動作に起因して特定された接触位置に対応する領域を、目閉じ画像上における目閉じ用メイクパーツが重ねられる目閉じ用メイク領域に決定する。
また、領域決定部113は、上記メイク動作と種別判別部110により判別された顔パーツの種別とに基づいて、第2の顔画像上における第2のメイク領域を決定する。第2のメイク領域は、第1のメイク領域とは異なる領域であり、第2のメイクパーツが重ねられる領域である。第2のメイクパーツは、擬似的に顔に塗布された化粧品を表す画像であり、第2の顔画像に重ねられる画像である。例えば、領域決定部113は、目閉じ用メイク領域を顔パーツの種別に応じて変化させた領域を、目開き用メイク領域に決定する。
具体的には、領域決定部113は、種別判別部110によりユーザの上瞼が一重瞼であると判別された場合、第2のメイク領域として第1の大きさを有する領域を決定する。そして、領域決定部113は、種別判別部110によりユーザの上瞼が一重瞼でないと判別された場合、第2のメイク領域として第1の大きさよりも小さい大きさを有する領域を決定する。
より詳細には、領域決定部113は、種別判別部110によりユーザの上瞼が二重瞼であると判別された場合、第2のメイク領域として第1の大きさよりも小さい第2の大きさを有する領域を決定する。そして、領域決定部113は、種別判別部110によりユーザの上瞼が奥二重瞼であると判別された場合、第2のメイク領域として第2の大きさよりも小さい第3の大きさを有する領域を決定する。つまり、目閉じ用メイク領域の大きさが同じでも、目開き用メイク領域の大きさは、一重瞼、二重瞼、奥二重瞼の順に小さくなる。
図9に、ユーザが目を閉じながら模擬的にメイクする様子を示す。図9は、目閉じ画像が取得されているときに検知された接触位置から、目閉じ用メイク領域である領域E3が決定された様子を示している。ここで、領域決定部113は、目閉じ用メイク領域に基づいて、目開き用メイク領域を決定することができる。例えば、領域決定部113は、目閉じ用メイク領域から目に対応する領域を除外した残りの領域を、目開き用メイク領域として決定することができる。
ここで、領域決定部113は、上瞼の種別に応じて、目開き用メイク領域の大きさを調整する。具体的には、領域決定部113は、上瞼が一重瞼であるときに目開き用メイク領域の大きさが最も大きく、上瞼が二重瞼であるときに目開き用メイク領域の大きさが中程度の大きさであり、上瞼が奥二重瞼であるときに目開き用メイク領域の大きさが最も小さくなるように、目開き用メイク領域の大きさを調整する。例えば、領域決定部113は、上瞼が一重瞼であるときの目開き用メイク領域を基準として、目開き用メイク領域の大きさを小さくする。
具体的には、領域決定部113は、図9に示す目閉じ用メイク領域である領域E3から目に対応する領域を除外した残りの領域を、図10(A)に示す一重瞼用目開き用メイク領域である領域E4として決定する。また、領域決定部113は、図10(A)に示す一重瞼用目開き用メイク領域である領域E4を縦方向に縮めた領域を、図10(B)に示す二重瞼用目開き用メイク領域である領域E5として決定する。そして、領域決定部113は、図10(B)に示す二重瞼用目開き用メイク領域である領域E5を縦方向に縮めた領域を、図10(C)に示す奥二重瞼用目開き用メイク領域である領域E6として決定する。
このように、領域決定部113は、領域E4が領域E5よりも大きく、領域E5が領域E6よりも大きくなるように、各領域を決定する。より詳細には、領域決定部113は、領域E4の縦方向における幅が領域E5の縦方向における幅よりも広く、領域E5の縦方向における幅が領域E6の縦方向における幅よりも広くなるように、各領域を決定する。この理由は、上瞼の重なりは、一重瞼が最も浅く、二重瞼が中程度の深さであり、奥二重瞼が最も深いためである。言い換えれば、目を開けたときに隠れる上瞼の領域の広さは、一重瞼が最も狭く、二重瞼が中程度の広さであり、奥二重瞼が最も広いためである。
また、領域決定部113は、上瞼の種別を考慮して、目開き用メイク領域に基づいて、目閉じ用メイク領域を決定することができる。具体的には、領域決定部113は、目開き用メイク領域が同じ大きさである場合、一重瞼の目閉じ用メイク領域が最も小さく、二重瞼の目閉じ用メイク領域が中程度の大きさであり、奥二重瞼の目閉じ用メイク領域が最も大きくなるように、目閉じ用メイク領域を決定する。具体的には、領域決定部113は、目開き用メイク領域を決定する手順と逆の手順により目閉じ用メイク領域を決定することができる。
例えば、領域決定部113は、一重瞼の目閉じ用メイク領域である領域E4に目に対応する領域を追加した領域を、目開き用メイク領域である領域E3として決定する。また、領域決定部113は、二重瞼の目閉じ用メイク領域である領域E5を縦方向に少し伸長した領域に目に対応する領域を追加した領域を、目開き用メイク領域である領域E3として決定する。また、領域決定部113は、奥二重瞼の目閉じ用メイク領域である領域E6を縦方向に更に伸長した領域に目に対応する領域を追加した領域を、目開き用メイク領域である領域E3として決定する。領域決定部113の機能は、例えば、プロセッサ11の機能により実現される。
メイクパーツ生成部114は、第1のメイク領域に重ねるメイクパーツである第1のメイクパーツと、第2のメイク領域に重ねるメイクパーツである第2のメイクパーツとを生成する。メイクパーツ生成部114は、化粧品選択部106により選択された化粧品と領域決定部113により決定された第1のメイク領域とに基づいて、第1のメイクパーツを生成する。また、メイクパーツ生成部114は、化粧品選択部106により選択された化粧品と領域決定部113により決定された第2のメイク領域とに基づいて、第2のメイクパーツを生成する。メイクパーツ生成部114の機能は、例えば、プロセッサ11の機能により実現される。
メイクパーツ保持部115は、メイクパーツ生成部114により生成された第1のメイクパーツと第2のメイクパーツとを保持する。メイクパーツ保持部115に記憶された第1のメイクパーツは、表示制御部103により第1の顔画像に重畳される。また、メイクパーツ保持部115に記憶された第2のメイクパーツは、表示制御部103により第2の顔画像に重畳される。第1の顔画像における第1のメイク領域に第1のメイクパーツが重ねられる加工が施されることにより、第1のメイク画像が生成される。また、第2の顔画像における第2のメイク領域に第2のメイクパーツが重ねられる加工が施されることにより、第2のメイク画像が生成される。メイクパーツ保持部115の機能は、例えば、フラッシュメモリ12の機能により実現される。
次に、図11に示すフローチャートを参照して、画像処理装置10が実行する画像表示処理について説明する。
まず、画像処理装置10が備えるプロセッサ11は、化粧品画像を表示する(ステップS101)。具体的には、プロセッサ11は、第2のタッチスクリーン15に化粧品画像を表示する。プロセッサ11は、ステップS101の処理を完了すると、撮像を開始する(ステップS102)。具体的には、プロセッサ11は、カメラ13に撮像を開始させ、以後、カメラ13から撮像画像を継続的に取得する。
プロセッサ11は、ステップS102の処理を完了すると、撮像画像を表示する(ステップS103)。具体的には、プロセッサ11は、カメラ13から取得した撮像画像を、第1のタッチスクリーン14に表示させる。プロセッサ11は、ステップS103の処理を完了すると、種別判別処理を実行する(ステップS104)。種別判別処理については、図12を参照して、詳細に説明する。
まず、プロセッサ11は、撮像画像が目開き画像であるか否かを判別する(ステップS201)。プロセッサ11は、撮像画像が目開き画像でないと判別すると(ステップS201:NO)、種別判別処理を完了する。プロセッサ11は、撮像画像が目開き画像であると判別すると(ステップS201:YES)、目の座標を検出する(ステップS202)。例えば、プロセッサ11は、撮像画像に含まれる円形の画像を検出し、検出した円形の画像の位置を目の座標として検出する。
プロセッサ11は、ステップS202の処理を完了すると、目の周辺のラインを検出する(ステップS203)。例えば、プロセッサ11は、図7に示す12本のラインを検出する。プロセッサ11は、ステップS203の処理を完了すると、ラインL10が検出されたか否かを判別する(ステップS204)。プロセッサ11は、ラインL10が検出されないと判別すると(ステップS204:NO)、上瞼が一重瞼であると判別する(ステップS205)。
プロセッサ11は、ラインL10が検出されたと判別すると(ステップS204:YES)、隙間領域を特定する(ステップS206)。プロセッサ11は、ステップS206の処理を完了すると、隙間領域の長さが閾値以上であるか否かを判別する(ステップS207)。プロセッサ11は、隙間領域の長さが閾値以上であると判別すると(ステップS207:YES)、上瞼が二重瞼であると判別する(ステップS208)。プロセッサ11は、隙間領域の長さが閾値以上でないと判別すると(ステップS207:NO)、上瞼が奥二重瞼であると判別する(ステップS209)。
プロセッサ11は、ステップS205、ステップS208、ステップS209の処理を完了すると、種別情報を記憶する(ステップS210)。種別情報は、上瞼が一重瞼と二重瞼と奥二重瞼とのいずれであるのかを示す情報であり、フラッシュメモリ12に記憶される。プロセッサ11は、ステップS210の処理を完了すると、種別判別処理を完了する。
プロセッサ11は、ステップS104の処理を完了すると、第2のタッチスクリーン15に指示装置30が接触しているか否かを判別する(ステップS105)。プロセッサ11は、第2のタッチスクリーン15に指示装置30が接触していると判別すると(ステップS105:YES)、化粧品を選択する(ステップS106)。プロセッサ11は、第2のタッチスクリーン15に指示装置30が接触していないと判別した場合(ステップS105:NO)、又は、ステップS106の処理を完了した場合、撮像画像内で指示装置30が顔に接触したか否かを判別する(ステップS107)。
プロセッサ11は、撮像画像内で指示装置30が顔に接触したと判別すると(ステップS107:YES)、接触情報を受信したか否かを判別する(ステップS108)。プロセッサ11は、接触情報を受信したと判別すると(ステップS108:YES)、領域決定処理を実行する(ステップS109)。領域決定処理については、図13を参照して詳細に説明する。
まず、プロセッサ11は、基本メイク領域を決定する(ステップS301)。具体的には、プロセッサ11は、接触位置から基本メイク領域を決定する。プロセッサ11は、ステップS301の処理を完了すると、撮像画像が目閉じ画像であるか否かを判別する(ステップS302)。プロセッサ11は、撮像画像が目閉じ画像であると判別すると(ステップS302:YES)、基本メイク領域を目閉じ用メイク画像に決定する(ステップS303)。
プロセッサ11は、ステップS303の処理を完了すると、ユーザの上瞼が一重瞼であるか否かを判別する(ステップS304)。プロセッサ11は、ユーザの上瞼が一重瞼であると判別すると(ステップS304:YES)、目開きメイク領域として大きめのメイク領域を決定する(ステップS305)。プロセッサ11は、ユーザの上瞼が一重瞼でないと判別すると(ステップS304:NO)、ユーザの上瞼が二重瞼であるか否かを判別する(ステップS306)。
プロセッサ11は、ユーザの上瞼が二重瞼であると判別すると(ステップS306:YES)、目開きメイク領域として中程度のメイク領域を決定する(ステップS307)。プロセッサ11は、ユーザの上瞼が二重瞼でないと判別すると(ステップS306:NO)、目開きメイク領域として小さめのメイク領域を決定する(ステップS308)。
プロセッサ11は、撮像画像が目閉じ画像でないと判別すると(ステップS302:NO)、基本メイク領域を目開き用メイク画像に決定する(ステップS309)。プロセッサ11は、ステップS309の処理を完了すると、ユーザの上瞼が一重瞼であるか否かを判別する(ステップS310)。プロセッサ11は、ユーザの上瞼が一重瞼であると判別すると(ステップS310:YES)、目閉じメイク領域として小さめのメイク領域を決定する(ステップS311)。プロセッサ11は、ユーザの上瞼が一重瞼でないと判別すると(ステップS310:NO)、ユーザの上瞼が二重瞼であるか否かを判別する(ステップS312)。
プロセッサ11は、ユーザの上瞼が二重瞼であると判別すると(ステップS312:YES)、目閉じメイク領域として中程度のメイク領域を決定する(ステップS313)。プロセッサ11は、ユーザの上瞼が二重瞼でないと判別すると(ステップS312:NO)、目閉じメイク領域として大きめのメイク領域を決定する(ステップS314)。
プロセッサ11は、ステップS305、ステップS307、ステップS308、ステップS311、ステップS313、ステップS314の処理を完了すると、領域情報を記憶する(ステップS315)。プロセッサ11は、ステップS315の処理を完了すると、領域決定処理を完了する。
プロセッサ11は、ステップS109の処理を完了すると、目閉じ用メイクパーツと目開き用メイクパーツとを生成する(ステップS110)。プロセッサ11は、撮像画像内で指示装置30が顔に接触していないと判別した場合(ステップS107:NO)、接触情報を受信していないと判別した場合(ステップS108:NO)、又は、ステップS110の処理を完了した場合、撮像画像が目閉じ画像であるか否かを判別する(ステップS111)。
プロセッサ11は、撮像画像が目閉じ画像であると判別すると(ステップS111:YES)、目閉じ用メイク領域に目閉じ用メイクパーツが重ねられた目閉じ用メイク画像を表示する(ステップS112)。プロセッサ11は、撮像画像が目閉じ画像でないと判別すると(ステップS111:NO)、目開き用メイク領域に目開き用メイクパーツが重ねられた目開き用メイク画像を表示する(ステップS113)。プロセッサ11は、ステップS112の処理、又は、ステップS113の処理を完了すると、ステップS103に処理を戻す。
本実施形態によれば、化粧品が塗布された顔の状態を顔パーツの種別に応じて適切にシミュレーションすることができる。本実施形態では、メイク時においてメイク領域が同じ大きさであったとしても、目の状態が変化した場合、目の特徴(上瞼の種別)に応じて適切なメイク領域の大きさが設定されるため、よりリアリティの高いメイクシミュレーションが実現可能である。つまり、本実施形態では、目閉じ用メイク領域と目開き用メイク領域とが、上瞼が一重瞼であるか否かに応じた適切な大きさに設定されるため、メイクシミュレーション中にユーザの目の状態が変化した場合でも、自然なメイク画像の表示が可能である。また、本実施形態によれば、第1のラインの検出により、上瞼が一重瞼であるか否かを容易に検出することができる。
また、本実施形態によれば、目閉じ用メイク領域と目開き用メイク領域とが、上瞼が一重瞼と二重瞼と奥二重瞼とのいずれであるかに応じた適切な大きさに設定されるため、メイクシミュレーション中にユーザの目の状態が変化した場合でも、自然なメイク画像の表示が可能である。また、本実施形態によれば、第1のラインと第2のラインとの検出により、上瞼が一重瞼と二重瞼と奥二重瞼とのいずれであるかを容易に検出することができる。また、本実施形態によれば、第1のラインと第2のラインと間の隙間領域の判定により、上瞼が一重瞼と二重瞼と奥二重瞼とのいずれであるかを容易に検出することができる。また、本実施形態によれば、指示体を用いたメイクシミュレーションが実行可能である。
(実施形態2)
実施形態1では、画像処理装置10と指示装置30とを備えるメイクシミュレーション装置100について説明した。画像処理装置10が単体でメイクシミュレーション装置として機能することもできる。
以下、図14を参照して、本実施形態に係る画像処理装置10の機能について説明する。本実施形態に係る画像処理装置10は、機能的には、情報受信部107と接触位置特定部108とを備えず、塗布操作受付部116を備える。
塗布操作受付部116は、ユーザにより化粧品の模擬的な塗布操作を受け付ける。この塗布操作は、実際のユーザの顔に対する接触動作ではなく、第1のタッチスクリーン14に表示された撮像画像に対する操作である。塗布操作受付部116の機能は、例えば、プロセッサ11と第1のタッチスクリーン14とが協働することにより実現される。
領域決定部113は、塗布操作受付部116により受け付けられた塗布操作に基づいて、第1のメイク領域と第2のメイク領域とを決定する。具体的には、領域決定部113は、塗布操作により指定された撮像画像内における座標を示す情報に基づいて、第1のメイク領域と第2のメイク領域とを決定する。
本実施形態によれば、画像処理装置10単体で、化粧品が塗布された顔の状態を顔パーツの形状に応じて適切にシミュレーションすることができる。
(変形例)
以上、本発明の実施形態を説明したが、本発明を実施するにあたっては、種々の形態による変形及び応用が可能である。
本発明において、上記実施形態において説明した構成、機能、動作のどの部分を採用するのかは任意である。また、本発明において、上述した構成、機能、動作のほか、更なる構成、機能、動作が採用されてもよい。また、上述した実施形態は、適宜、自由に組み合わせることができる。また、上述した実施形態で説明した構成要素の個数は、適宜、調整することができる。また、本発明において採用可能な素材、サイズ、電気的特性などが、上記実施形態において示したものに限定されないことは勿論である。
上記実施形態では、プロセッサ11において、CPUがROMに記憶されたプログラムを実行することによって、各種の処理を実行する例について説明した。本発明において、プロセッサ11の代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、各種の処理を実行してもよい。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。
なお、本発明に係る機能を実現するための構成を予め備えた画像処理装置として提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る画像処理装置として機能させることもできる。すなわち、上記実施形態で例示した画像処理装置10による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る画像処理装置として機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段と、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段と、を備える、
画像処理装置。
(付記2)
前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示手段に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示手段に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させる表示制御手段を更に備える、
付記1に記載の画像処理装置。
(付記3)
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記メイク動作により指定された化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
付記2に記載の画像処理装置。
(付記4)
前記顔パーツは上瞼であり、
前記第1の状態は閉じた状態であり、前記第2の状態は開いた状態であり、
前記種別判別手段は、前記ユーザの上瞼が一重瞼であるか否かを判別し、
前記領域決定手段は、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼でないと判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい大きさを有する領域を決定する、
付記1から3のいずれか1項に記載の画像処理装置。
(付記5)
前記種別判別手段は、
前記画像取得手段により取得された前記第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインを検出するライン検出手段と、
前記ライン検出手段により前記第1のラインが検出されない場合、前記ユーザの上瞼が一重瞼であると判別し、前記ライン検出手段により前記第1のラインが検出された場合、前記ユーザの上瞼が一重瞼でないと判別するライン判別手段と、を備える、
付記4に記載の画像処理装置。
(付記6)
前記種別判別手段は、前記ユーザの上瞼が一重瞼と二重瞼と奥二重瞼とのうちのいずれであるのかを判別し、
前記領域決定手段は、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する、
付記4に記載の画像処理装置。
(付記7)
前記種別判別手段は、
前記画像取得手段により取得された前記第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインと、上瞼と目との境界の粘膜部分を表す第2のラインとを検出するライン検出手段と、
前記ライン検出手段により検出された前記第1のラインと前記第2のラインとに基づいて、前記ユーザの上瞼が一重瞼と二重瞼と奥二重瞼とのうちのいずれであるのかを判別するライン判別手段と、を備える、
付記6に記載の画像処理装置。
(付記8)
前記ライン判別手段は、前記ライン検出手段により前記第1のラインが検出されない場合、前記ユーザの上瞼が一重瞼であると判別し、前記第1のラインと前記第2のラインとに挟まれる隙間領域の顔の幅方向における長さが閾値以上である場合、前記ユーザの上瞼が二重瞼であると判別し、前記長さが前記閾値未満である場合、前記ユーザの上瞼が奥二重瞼であると判別する、
付記7に記載の画像処理装置。
(付記9)
前記表示制御手段は、前記表示手段に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させ、
前記表示手段が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段と、
前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示手段が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段と、を更に備え、
前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
付記2に記載の画像処理装置。
(付記10)
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得し、
前記ユーザの顔画像を表示し、
前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別し、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記顔パーツの形状とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する、
画像処理方法。
(付記11)
コンピュータを、
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段、
前記画像取得手段により取得された前記ユーザの顔画像を表示装置に表示させる表示制御手段、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段、として機能させる、
プログラム。
10…画像処理装置、11…プロセッサ、12…フラッシュメモリ、13…カメラ、14…第1のタッチスクリーン、15…第2のタッチスクリーン、16…通信インターフェース、30…指示装置、31…プロセッサ、32…フラッシュメモリ、33…圧力センサ、34…通信インターフェース、100…メイクシミュレーション装置、101…撮像部、102…画像取得部、103…表示制御部、104…表示部、105…操作受付部、106…化粧品選択部、107…情報受信部、108…接触位置特定部、109…状態判別部、110…種別判別部、111…ライン検出部、112…ライン判別部、113…領域決定部、114…メイクパーツ生成部、115…メイクパーツ保持部、116…塗布操作受付部、301…接触検知部、302…情報送信部、L1,L2,L3,L4,L5,L6,L6A,L6B,L6C,L7,L8,L9,L10,L10B,L10C,L11,L12…ライン、E1,E2,E3,E4,E5,E6…領域

Claims (10)

  1. 上瞼閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
    前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
    前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別する種別判別手段と、
    前記上瞼閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する領域決定手段と、を備える、
    画像処理装置。
  2. 前記種別判別手段は、
    前記画像取得手段により取得された前記第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインを検出するライン検出手段と、
    前記ライン検出手段により前記第1のラインが検出されない場合、前記ユーザの上瞼が一重瞼であると判別し、前記ライン検出手段により前記第1のラインが検出された場合、前記ユーザの上瞼が一重瞼でないと判別するライン判別手段と、を備える、
    請求項に記載の画像処理装置。
  3. 前記ライン検出手段は、前記画像取得手段により取得された前記第2の顔画像から、上瞼と目との境界の粘膜部分を表す第2のラインとを検出
    前記ライン判別手段は、前記ライン検出手段により検出された前記第1のラインと前記第2のラインとに挟まれる隙間領域の顔の幅方向における長さが閾値以上である場合、前記ユーザの上瞼が二重瞼であると判別し、前記長さが前記閾値未満である場合、前記ユーザの上瞼が奥二重瞼であると判別する
    請求項に記載の画像処理装置。
  4. 前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示手段に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示手段に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させる表示制御手段を更に備える、
    請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記表示制御手段は、前記表示手段に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させ、
    前記表示手段が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段と、
    前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示手段が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段と、を更に備え、
    前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記上瞼の形状とに応じた領域を前記第2のメイク領域として決定し、
    前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
    前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
    請求項に記載の画像処理装置。
  6. 顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
    前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
    前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段と、
    前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段と、
    前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示手段に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示手段に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させ、前記表示手段に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させる表示制御手段と、
    前記表示手段が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段と、
    前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示手段が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段と、を備え、
    前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
    前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
    前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
    画像処理装置。
  7. 上瞼閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得し、
    前記ユーザの顔画像を表示し、
    前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別し、
    前記上瞼閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記上瞼種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する
    画像処理方法。
  8. 顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得し、
    前記ユーザの顔画像を表示し、
    前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別し、
    前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、
    前記メイク動作の実行後に前記第1の顔画像を取得した場合、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記第2の顔画像を取得した場合、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させ、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させ、
    前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付け、
    前記ユーザ操作を受け付けた後、前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定し、
    前記第1の顔画像上における前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
    前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
    前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
    画像処理方法。
  9. コンピュータを、
    上瞼閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段、
    前記画像取得手段により取得された前記ユーザの顔画像を表示装置に表示させる表示制御手段、
    前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別する種別判別手段、
    前記上瞼閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する領域決定手段、として機能させる、
    プログラム。
  10. コンピュータを、
    顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段、
    前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段、
    前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段、
    前記画像取得手段により取得された前記ユーザの顔画像を表示装置に表示させ、前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示装置に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示装置に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させ、前記表示装置に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させる表示制御手段と、
    前記表示装置が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段、
    前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示装置が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段、として機能させ、
    前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
    前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
    前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
    プログラム。
JP2019173593A 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム Active JP7347070B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019173593A JP7347070B2 (ja) 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム
JP2023143026A JP2023164494A (ja) 2019-09-24 2023-09-04 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173593A JP7347070B2 (ja) 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023143026A Division JP2023164494A (ja) 2019-09-24 2023-09-04 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021049087A JP2021049087A (ja) 2021-04-01
JP7347070B2 true JP7347070B2 (ja) 2023-09-20

Family

ID=75155096

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019173593A Active JP7347070B2 (ja) 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム
JP2023143026A Pending JP2023164494A (ja) 2019-09-24 2023-09-04 画像処理装置、画像処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023143026A Pending JP2023164494A (ja) 2019-09-24 2023-09-04 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (2) JP7347070B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230062237A (ko) 2021-10-29 2023-05-09 주식회사 엘지에너지솔루션 배터리 측정 데이터의 관리 방법 및 그 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318375A (ja) 2005-05-16 2006-11-24 Matsushita Electric Ind Co Ltd 顔画像検索装置および顔画像検索方法
WO2018159231A1 (ja) 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 メイクシミュレーション装置、方法、及び、非一時的な記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318375A (ja) 2005-05-16 2006-11-24 Matsushita Electric Ind Co Ltd 顔画像検索装置および顔画像検索方法
WO2018159231A1 (ja) 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 メイクシミュレーション装置、方法、及び、非一時的な記憶媒体

Also Published As

Publication number Publication date
JP2023164494A (ja) 2023-11-10
JP2021049087A (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
US10386996B2 (en) Communicating emotional information via avatar animation
US20190018486A1 (en) Augmented mirror
TWI773096B (zh) 妝容處理方法、裝置、電子設備及儲存媒體
US20170319065A1 (en) Information processing device, information processing method, and program
JP2023164494A (ja) 画像処理装置、画像処理方法及びプログラム
CN110457092A (zh) 头像创建用户界面
US20180373330A1 (en) Augmented mirror
WO2017108703A1 (en) Augmented mirror
CN108292448A (zh) 信息处理装置、信息处理方法和程序
RU2643444C2 (ru) Визуализация и точность воспроизведения на основе внимания
US11335090B2 (en) Electronic device and method for providing function by using corneal image in electronic device
KR20210012724A (ko) 아바타를 제공하는 전자 장치 및 그의 동작 방법
JP2024097787A (ja) 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム
CN104969145A (zh) 靶向和按压自然用户输入
US10242253B2 (en) Detection apparatus, detection method, and computer program product
KR102101337B1 (ko) 볼터치 구역의 표시가 가능한 신체 정보 분석 장치
KR20190046592A (ko) 신체 정보 분석 장치 및 얼굴형 모의 방법
KR101719927B1 (ko) 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치
JP7547875B2 (ja) 情報処理装置及びプログラム
De Buyser et al. Exploring the potential of combining smart glasses and consumer-grade EEG/EMG headsets for controlling IoT appliances in the smart home
WO2017108702A1 (en) Augmented mirror
WO2012158801A2 (en) Augmented reality visualization system and method for cosmetic surgery
JP6761407B2 (ja) 身体情報分析装置および顔形診断方法
JP7351165B2 (ja) 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム
CN108629824A (zh) 图像生成方法、装置、电子设备及计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7347070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150