JP7347070B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP7347070B2 JP7347070B2 JP2019173593A JP2019173593A JP7347070B2 JP 7347070 B2 JP7347070 B2 JP 7347070B2 JP 2019173593 A JP2019173593 A JP 2019173593A JP 2019173593 A JP2019173593 A JP 2019173593A JP 7347070 B2 JP7347070 B2 JP 7347070B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- makeup
- user
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
上瞼が閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼が開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別する種別判別手段と、
前記上瞼が閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する領域決定手段と、を備える。
まず、図1を参照して、本発明の実施形態1に係るメイクシミュレーション装置100の構成について説明する。メイクシミュレーション装置100は、ユーザが化粧品でメイクした後の状態をコンピュータ上でシミュレーションする装置である。ユーザは、メイクシミュレーション装置100を用いることで、本物の化粧品を用いることなく、気軽にメイクを練習したり、メイク後の状態を事前に確認したりすることができる。
実施形態1では、画像処理装置10と指示装置30とを備えるメイクシミュレーション装置100について説明した。画像処理装置10が単体でメイクシミュレーション装置として機能することもできる。
以上、本発明の実施形態を説明したが、本発明を実施するにあたっては、種々の形態による変形及び応用が可能である。
(付記1)
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段と、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段と、を備える、
画像処理装置。
(付記2)
前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示手段に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示手段に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させる表示制御手段を更に備える、
付記1に記載の画像処理装置。
(付記3)
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記メイク動作により指定された化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
付記2に記載の画像処理装置。
(付記4)
前記顔パーツは上瞼であり、
前記第1の状態は閉じた状態であり、前記第2の状態は開いた状態であり、
前記種別判別手段は、前記ユーザの上瞼が一重瞼であるか否かを判別し、
前記領域決定手段は、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼でないと判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい大きさを有する領域を決定する、
付記1から3のいずれか1項に記載の画像処理装置。
(付記5)
前記種別判別手段は、
前記画像取得手段により取得された前記第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインを検出するライン検出手段と、
前記ライン検出手段により前記第1のラインが検出されない場合、前記ユーザの上瞼が一重瞼であると判別し、前記ライン検出手段により前記第1のラインが検出された場合、前記ユーザの上瞼が一重瞼でないと判別するライン判別手段と、を備える、
付記4に記載の画像処理装置。
(付記6)
前記種別判別手段は、前記ユーザの上瞼が一重瞼と二重瞼と奥二重瞼とのうちのいずれであるのかを判別し、
前記領域決定手段は、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する、
付記4に記載の画像処理装置。
(付記7)
前記種別判別手段は、
前記画像取得手段により取得された前記第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインと、上瞼と目との境界の粘膜部分を表す第2のラインとを検出するライン検出手段と、
前記ライン検出手段により検出された前記第1のラインと前記第2のラインとに基づいて、前記ユーザの上瞼が一重瞼と二重瞼と奥二重瞼とのうちのいずれであるのかを判別するライン判別手段と、を備える、
付記6に記載の画像処理装置。
(付記8)
前記ライン判別手段は、前記ライン検出手段により前記第1のラインが検出されない場合、前記ユーザの上瞼が一重瞼であると判別し、前記第1のラインと前記第2のラインとに挟まれる隙間領域の顔の幅方向における長さが閾値以上である場合、前記ユーザの上瞼が二重瞼であると判別し、前記長さが前記閾値未満である場合、前記ユーザの上瞼が奥二重瞼であると判別する、
付記7に記載の画像処理装置。
(付記9)
前記表示制御手段は、前記表示手段に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させ、
前記表示手段が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段と、
前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示手段が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段と、を更に備え、
前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
付記2に記載の画像処理装置。
(付記10)
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得し、
前記ユーザの顔画像を表示し、
前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別し、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記顔パーツの形状とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する、
画像処理方法。
(付記11)
コンピュータを、
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段、
前記画像取得手段により取得された前記ユーザの顔画像を表示装置に表示させる表示制御手段、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段、として機能させる、
プログラム。
Claims (10)
- 上瞼が閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼が開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別する種別判別手段と、
前記上瞼が閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する領域決定手段と、を備える、
画像処理装置。 - 前記種別判別手段は、
前記画像取得手段により取得された前記第2の顔画像から、二重瞼又は奥二重瞼の溝を表す第1のラインを検出するライン検出手段と、
前記ライン検出手段により前記第1のラインが検出されない場合、前記ユーザの上瞼が一重瞼であると判別し、前記ライン検出手段により前記第1のラインが検出された場合、前記ユーザの上瞼が一重瞼でないと判別するライン判別手段と、を備える、
請求項1に記載の画像処理装置。 - 前記ライン検出手段は、前記画像取得手段により取得された前記第2の顔画像から、上瞼と目との境界の粘膜部分を表す第2のラインとを検出し、
前記ライン判別手段は、前記ライン検出手段により検出された前記第1のラインと前記第2のラインとに挟まれる隙間領域の顔の幅方向における長さが閾値以上である場合、前記ユーザの上瞼が二重瞼であると判別し、前記長さが前記閾値未満である場合、前記ユーザの上瞼が奥二重瞼であると判別する、
請求項2に記載の画像処理装置。 - 前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示手段に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示手段に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させる表示制御手段を更に備える、
請求項1から3のいずれか1項に記載の画像処理装置。 - 前記表示制御手段は、前記表示手段に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させ、
前記表示手段が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段と、
前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示手段が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段と、を更に備え、
前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記上瞼の形状とに応じた領域を前記第2のメイク領域として決定し、
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
請求項4に記載の画像処理装置。 - 顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記ユーザの顔画像を表示する表示手段と、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段と、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段と、
前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示手段に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示手段に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させ、前記表示手段に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させる表示制御手段と、
前記表示手段が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段と、
前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示手段が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段と、を備え、
前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
画像処理装置。 - 上瞼が閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼が開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得し、
前記ユーザの顔画像を表示し、
前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別し、
前記上瞼が閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する、
画像処理方法。 - 顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得し、
前記ユーザの顔画像を表示し、
前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別し、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、
前記メイク動作の実行後に前記第1の顔画像を取得した場合、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記第2の顔画像を取得した場合、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させ、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させ、
前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付け、
前記ユーザ操作を受け付けた後、前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定し、
前記第1の顔画像上における前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
画像処理方法。 - コンピュータを、
上瞼が閉じた状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記上瞼が開いた状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段、
前記画像取得手段により取得された前記ユーザの顔画像を表示装置に表示させる表示制御手段、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記上瞼の種別を判別する種別判別手段、
前記上瞼が閉じた状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記上瞼の種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定し、前記種別判別手段により前記ユーザの上瞼が一重瞼であると判別された場合、前記第2のメイク領域として第1の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が二重瞼であると判別された場合、前記第2のメイク領域として前記第1の大きさよりも小さい第2の大きさを有する領域を決定し、前記種別判別手段により前記ユーザの上瞼が奥二重瞼であると判別された場合、前記第2のメイク領域として前記第2の大きさよりも小さい第3の大きさを有する領域を決定する領域決定手段、として機能させる、
プログラム。 - コンピュータを、
顔パーツが第1の状態であるときに撮像されたユーザの顔画像である第1の顔画像と前記顔パーツが前記第1の状態とは異なる第2の状態であるときに撮像された前記ユーザの顔画像である第2の顔画像とを取得する画像取得手段、
前記画像取得手段により取得された前記第1の顔画像と前記第2の顔画像とのうちの少なくとも一方に基づいて、前記ユーザの前記顔パーツの種別を判別する種別判別手段、
前記顔パーツが前記第1の状態であるときに前記ユーザが実行したメイク動作に基づいて、前記第1の顔画像上における第1のメイク領域を決定し、前記メイク動作と前記種別判別手段により判別された前記顔パーツの種別とに基づいて、前記第2の顔画像上における、前記第1のメイク領域とは異なる大きさを有する第2のメイク領域を決定する領域決定手段、
前記画像取得手段により取得された前記ユーザの顔画像を表示装置に表示させ、前記メイク動作の実行後に前記画像取得手段が前記第1の顔画像を取得した場合、前記表示装置に、前記第1の顔画像上における前記第1のメイク領域が加工された第1のメイク画像を表示させ、前記メイク動作の実行後に前記画像取得手段が前記第2の顔画像を取得した場合、前記表示装置に、前記第2の顔画像上における前記第2のメイク領域が加工された第2のメイク画像を表示させ、前記表示装置に、前記第1の顔画像又は前記第2の顔画像を第1の表示領域に表示させ、化粧品を表現する化粧品画像を前記第1の表示領域とは異なる第2の表示領域に表示させる表示制御手段と、
前記表示装置が前記第2の表示領域に前記化粧品画像が表示しているときに、指示体を用いた前記第2の表示領域への接触を伴うユーザ操作を受け付ける操作受付手段、
前記操作受付手段が前記ユーザ操作を受け付けた後、前記表示装置が前記第1の顔画像を表示しているときに前記指示体が前記ユーザの顔に接触した場合、前記第1の顔画像に基づいて、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定手段、として機能させ、
前記領域決定手段は、前記第1の顔画像上における前記接触位置特定手段により特定された前記接触位置に応じた領域を前記第1のメイク領域として決定し、前記第2の顔画像上における、前記接触位置と前記顔パーツの形状とに応じた領域を前記第2のメイク領域として決定し、
前記第1のメイク画像は、前記第1の顔画像上における前記第1のメイク領域に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像であり、
前記第2のメイク画像は、前記第2の顔画像上における前記第2のメイク領域に、前記メイクパーツが重ねられた画像である、
プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019173593A JP7347070B2 (ja) | 2019-09-24 | 2019-09-24 | 画像処理装置、画像処理方法及びプログラム |
JP2023143026A JP2023164494A (ja) | 2019-09-24 | 2023-09-04 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019173593A JP7347070B2 (ja) | 2019-09-24 | 2019-09-24 | 画像処理装置、画像処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023143026A Division JP2023164494A (ja) | 2019-09-24 | 2023-09-04 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021049087A JP2021049087A (ja) | 2021-04-01 |
JP7347070B2 true JP7347070B2 (ja) | 2023-09-20 |
Family
ID=75155096
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019173593A Active JP7347070B2 (ja) | 2019-09-24 | 2019-09-24 | 画像処理装置、画像処理方法及びプログラム |
JP2023143026A Pending JP2023164494A (ja) | 2019-09-24 | 2023-09-04 | 画像処理装置、画像処理方法及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023143026A Pending JP2023164494A (ja) | 2019-09-24 | 2023-09-04 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7347070B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230062237A (ko) | 2021-10-29 | 2023-05-09 | 주식회사 엘지에너지솔루션 | 배터리 측정 데이터의 관리 방법 및 그 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318375A (ja) | 2005-05-16 | 2006-11-24 | Matsushita Electric Ind Co Ltd | 顔画像検索装置および顔画像検索方法 |
WO2018159231A1 (ja) | 2017-02-28 | 2018-09-07 | パナソニックIpマネジメント株式会社 | メイクシミュレーション装置、方法、及び、非一時的な記憶媒体 |
-
2019
- 2019-09-24 JP JP2019173593A patent/JP7347070B2/ja active Active
-
2023
- 2023-09-04 JP JP2023143026A patent/JP2023164494A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318375A (ja) | 2005-05-16 | 2006-11-24 | Matsushita Electric Ind Co Ltd | 顔画像検索装置および顔画像検索方法 |
WO2018159231A1 (ja) | 2017-02-28 | 2018-09-07 | パナソニックIpマネジメント株式会社 | メイクシミュレーション装置、方法、及び、非一時的な記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2023164494A (ja) | 2023-11-10 |
JP2021049087A (ja) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10386996B2 (en) | Communicating emotional information via avatar animation | |
US20190018486A1 (en) | Augmented mirror | |
TWI773096B (zh) | 妝容處理方法、裝置、電子設備及儲存媒體 | |
US20170319065A1 (en) | Information processing device, information processing method, and program | |
JP2023164494A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN110457092A (zh) | 头像创建用户界面 | |
US20180373330A1 (en) | Augmented mirror | |
WO2017108703A1 (en) | Augmented mirror | |
CN108292448A (zh) | 信息处理装置、信息处理方法和程序 | |
RU2643444C2 (ru) | Визуализация и точность воспроизведения на основе внимания | |
US11335090B2 (en) | Electronic device and method for providing function by using corneal image in electronic device | |
KR20210012724A (ko) | 아바타를 제공하는 전자 장치 및 그의 동작 방법 | |
JP2024097787A (ja) | 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム | |
CN104969145A (zh) | 靶向和按压自然用户输入 | |
US10242253B2 (en) | Detection apparatus, detection method, and computer program product | |
KR102101337B1 (ko) | 볼터치 구역의 표시가 가능한 신체 정보 분석 장치 | |
KR20190046592A (ko) | 신체 정보 분석 장치 및 얼굴형 모의 방법 | |
KR101719927B1 (ko) | 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치 | |
JP7547875B2 (ja) | 情報処理装置及びプログラム | |
De Buyser et al. | Exploring the potential of combining smart glasses and consumer-grade EEG/EMG headsets for controlling IoT appliances in the smart home | |
WO2017108702A1 (en) | Augmented mirror | |
WO2012158801A2 (en) | Augmented reality visualization system and method for cosmetic surgery | |
JP6761407B2 (ja) | 身体情報分析装置および顔形診断方法 | |
JP7351165B2 (ja) | 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム | |
CN108629824A (zh) | 图像生成方法、装置、电子设备及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7347070 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |