JP2016139382A - 画像処理装置、スタイラス、および画像処理方法 - Google Patents

画像処理装置、スタイラス、および画像処理方法 Download PDF

Info

Publication number
JP2016139382A
JP2016139382A JP2015015363A JP2015015363A JP2016139382A JP 2016139382 A JP2016139382 A JP 2016139382A JP 2015015363 A JP2015015363 A JP 2015015363A JP 2015015363 A JP2015015363 A JP 2015015363A JP 2016139382 A JP2016139382 A JP 2016139382A
Authority
JP
Japan
Prior art keywords
makeup
stylus
image
color
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015015363A
Other languages
English (en)
Other versions
JP6519853B2 (ja
Inventor
冨田 裕人
Hiroto Tomita
裕人 冨田
中村 剛
Takeshi Nakamura
中村  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015015363A priority Critical patent/JP6519853B2/ja
Priority to CN201680004714.7A priority patent/CN107111861B/zh
Priority to PCT/JP2016/000234 priority patent/WO2016121329A1/ja
Priority to US15/003,183 priority patent/US9984281B2/en
Publication of JP2016139382A publication Critical patent/JP2016139382A/ja
Application granted granted Critical
Publication of JP6519853B2 publication Critical patent/JP6519853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】化粧動作によりバーチャル化粧を行う事ができる画像処理装置を提供する。
【解決手段】画像処理装置100は、映像を撮影する撮影部120と、撮影された映像を画面に表示する表示部160と、映像から、映像に含まれる顔の位置を取得する顔位置取得部130と、映像に所定の色の部分が含まれるとき、映像から、当該部分をスタイラスとして検出するスタイラス検出部140と、スタイラスが検出された事を条件として、映像の顔の部分に対し、所定の色に予め対応付けられた化粧画像を重畳する化粧画像重畳部150とを有する。
【選択図】図4

Description

本発明は、画像処理装置、スタイラス、および画像処理方法に係り、特に、顔の撮影映像に化粧画像を重畳させる画像処理装置、スタイラス、および画像処理方法に関する。
従来、顔を撮影した画像に口紅やチーク等の画像を重畳して仮想的に化粧を行う、いわゆるバーチャル化粧の技術が存在する(例えば特許文献1参照)。
特許文献1に記載の技術(以下「従来技術」という)は、顔の撮影画像と、化粧内容の指定を受け付けるための操作領域とを、タッチパネル画面に表示する。そして、従来技術は、画面に対するタッチペン操作に基づいて、顔の撮影画像に化粧画像を重畳する。このような従来技術によれば、化粧を行ったときの顔の状態をシミュレーションして表示する事ができる。
特開2005−92588号公報 国際公開第2013/140776号
ところで、子供が大人の真似をして化粧遊びをする事は、よく知られている。子供によっては、化粧が施された顔を得る事だけでなく、口紅を唇で滑らせるといった大人の化粧動作を真似する事にも、大きな喜びを感じる。そこで、口紅を引く真似をしたときに顔画像に口紅の化粧画像が重畳されるというように、化粧動作(ジェスチャ)によってバーチャル化粧を実現できる事が望まれる。
しかしながら、従来技術は、化粧動作ではなく、画面へのタッチパネル操作によってバーチャル化粧を実現するものである。
本発明の目的は、化粧動作によりバーチャル化粧を行う事ができる画像処理装置、スタイラス、および画像処理方法を提供することである。
本開示の画像処理装置は、映像を撮影する撮影部と、撮影された前記映像を画面に表示する表示部と、前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する。
本開示のスタイラスは、上記画像処理装置に使用されるスタイラスであって、棒状部材であり、前記棒状部材の先端部を含む領域に、前記所定のマーカ色が施されている。
本開示の画像処理方法は、映像を撮影するステップと、撮影された前記映像を画面に表示するステップと、前記映像から、前記映像に含まれる顔の位置を取得するステップと、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する。
本開示によれば、化粧動作によりバーチャル化粧を行う事ができる。
本実施の形態に係る画像処理装置の概要の一例を示す図 本実施の形態における画像の変化の一例を示す図 本実施の形態に係るスタイラスの外観の第1の例を示す図 本実施の形態に係る画像処理装置の構成の一例を示すブロック図 本実施の形態における化粧画像テーブルの内容の一例を示す図 本実施の形態に係る画像処理装置の動作の一例を示すフローチャート 本実施の形態における各種バーチャル化粧の例を示す図 本実施の形態の変形例1に係るスタイラスの外観の一例を示す図 本実施の形態の変形例1における化粧画像テーブルの内容の一例を示す図 本実施の形態の変形例2に係るスタイラスの外観の一例を示す図 本実施の形態の変形例2に係る画像処理装置の動作の一例を示すフローチャート 本実施の形態の変形例2における各種バーチャル化粧の例を示す図 本実施の形態におけるスタイラス登録画面の一例を示す図 本実施の形態におけるジェスチャの定義を説明するための図
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
<装置の概要>
まず、本実施の形態に係る画像処理装置の概要について説明する。
図1は、本実施の形態に係る画像処理装置の概要の一例を示す図である。
図1に示すように、画像処理装置100は、例えば、折り畳み型のコンパクトミラーを模した外形を有する。画像処理装置100は、コンパクトミラーの鏡に相当する部分に、液晶ディスプレイ101を備え、更に、当該液晶ディスプレイ101の近傍に、小型のデジタルカメラ102を備えている。なお、液晶ディスプレイ101は、タッチパネル付きであってもよい。また、デジタルカメラ102は、ステレオ撮影が可能なステレオカメラであってもよい。
画像処理装置100は、スタイラス200とセットで使用される。画像処理装置100およびスタイラス200を使用するユーザ300は、例えば、小学生の女の子である。画像処理装置100は、デジタルカメラ102で撮影された映像を左右反転させて、液晶ディスプレイ101に表示する。ユーザ300は、液晶ディスプレイ101に映し出された自分の顔を見ながら、スタイラス200を口紅やアイシャドウのチップ等の化粧道具に見立てて、大人の化粧を模倣した動作を行う。
画像処理装置100は、ユーザ300が化粧動作を行ったとき、表示する映像のうち、化粧動作の対象となった領域に、化粧画像を重畳する。
図2は、液晶ディスプレイ101に映し出される画像の変化の一例を示す図である。
図2Aに示すように、液晶ディスプレイ101に映し出される画像410には、ユーザの顔411が含まれる。図2Bに示すように、ユーザ300が、スタイラス200の先で唇をなぞる動作をしたとする。すると、図2Cに示すように、画像処理装置100は、唇に化粧画像412を重畳した画像410を生成して表示する。これにより、画像処理装置100は、ユーザ300に対して、本当の化粧を行ったような感覚を与える事ができる。
ところが、このような動作を実現するためには、画像処理装置100は、ユーザ300が化粧動作を行ったときに、これを検出する必要がある。
そこで、画像処理装置100は、デジタルカメラ102により撮影された映像から顔の位置を取得すると共に、かかる映像に所定のマーカ色の部分が含まれるとき、映像から、当該部分をスタイラス200として検出する。これにより、スタイラス200に所定のマーカ色を施しておけば、画像処理装置100は、ユーザ300がスタイラス200を顔に近接させたとき、つまり、化粧動作を行ったときに、これを検出する事ができる。
図3は、スタイラス200の外観の一例を示す図である。
図3に示すように、スタイラス200は、例えば、ペン状の外形を有する棒状部材である。スタイラス200のうち、その先端部を含む領域210には、赤等の所定のマーカ色が施されている。なお、マーカ色は、撮影映像からより検出し易いように、スタイラス200の軸を中心として360度の方向の表面に施されている事が望ましい。マーカ色の領域210は、例えば、棒状部材に塗布された塗料、棒状部材に貼り付けられたシール、あるいは、棒状部材を構成する色付き部材とする事ができる。
画像処理装置100は、所定の単色をマーカ色として検出してもよいし、所定の複数色のそれぞれを異なるマーカ色として検出してもよい。本実施の形態において、画像処理装置100は、所定の複数色のそれぞれを異なるマーカ色として検出するものとする。
<装置の構成>
次に、画像処理装置100の構成について説明する。
図4は、画像処理装置100の構成の一例を示すブロック図である。
図4において、画像処理装置100は、情報格納部110、撮影部120、顔位置取得部130、スタイラス検出部140、化粧画像重畳部150、および表示部160を有する。
情報格納部110は、画像から画像に含まれる人の顔や顔部品を検出するための顔特徴情報と、化粧画像を生成して映像の顔の部分に重畳するための化粧画像テーブルとを、予め格納している。
顔特徴情報は、例えば、多数の顔画像サンプルに基づく学習により生成された、目や唇といった顔部品の形状等の画像特徴や、顔部品の配置や顔の色ヒストグラムといった顔全体の画像特徴を示す情報である。顔部品のそれぞれには、目尻や口角といった、顔特徴点が含まれる。
化粧画像テーブルは、複数の所定のマーカ色について、所定のマーカ色毎に、化粧画像の内容(以下「化粧画像データ」という)を予め記述したテーブルである。なお、本実施の形態において、化粧画像は、唇領域、瞼領域、および頬骨領域等の、化粧の塗布の対象となる連続した領域(以下「対象領域」という)を単位として、生成されるものとする。
図5は、化粧画像テーブルの内容の一例を示す図である。
図5に示すように、化粧画像テーブル510は、マーカ色511に対応付けて、化粧領域512、化粧色513、および化粧濃さ514を記述している。化粧領域512、化粧色513、および化粧濃さ514は、対象領域毎の化粧画像データを構成する。
マーカ色511は、画像処理装置100がスタイラスを示す色として検出の対象とする色を、同一の種別のスタイラスとして認識する色毎に記述したものである。なお、マーカ色511は、ここでは色の名称で表されているが、実際には、RGB(Red, Green, Blue)といった所定の色空間における座標値の範囲等である。すなわち、マーカ色511は、ある程度の幅を有する色範囲である。
化粧領域512は、例えば、口角等の顔特徴点の位置を基準として定義される、化粧画像の領域(つまり、化粧の塗布領域)である。なお、化粧領域512は、ここでは顔の領域の名称で表されているが、実際には、顔特徴点の位置を基準とする空間における座標値や関数等である。
化粧色513は、化粧画像の色である。なお、化粧色513は、ここでは色の名称で表されているが、実際には、RGB(Red, Green, Blue)、HSV(Hue, Saturation, Value)といった所定の色空間における座標値等である。化粧色513は、必ずしも、マーカ色511と同一でなくてもよいが、マーカ色511に近似した色である事が望ましい。これにより、ユーザ300は、所望の色に近い色でのバーチャル化粧を、直感的に行うことができる。
化粧濃さ514は、撮影画像に重畳する際の化粧画像の色の濃度(透明度)である。なお、化粧濃さ514は、ここでは透明度で表されているが、実際には、撮影画像に化粧画像をαブレンド等によって重畳する際の、画素値に対する合成率等の係数である。
すなわち、化粧画像テーブル510に記述された化粧画像データが示す化粧画像は、顔特徴点を基準として予め定められた領域(対象領域)に化粧が塗布されたときの、化粧の状態を表す画像である。また、化粧領域512は、化粧の塗布の対象となる対象領域である。
図4の撮影部120は、例えば、上述のデジタルカメラ102を有し、ユーザ300の顔の映像を撮影する(図1参照)。そして、撮影部120は、撮影した映像を、左右方向に反転させて、顔位置取得部130、スタイラス検出部140、および化粧画像重畳部150へ出力する。
顔位置取得部130は、入力された映像から、逐次、映像に含まれる顔の位置を取得する。より具体的には、顔位置取得部130は、顔特徴情報に基づき、顔あるいは顔部品の画像特徴のパターンマッチングを、映像を構成する画像フレームの各部分に対して行う。これにより、顔位置取得部130は、各画像フレームから、画像フレームに含まれる各顔特徴点の位置を抽出する。そして、顔位置取得部130は、抽出された顔特徴点の位置を示す情報を、スタイラス検出部140および化粧画像重畳部150へ出力する。
スタイラス検出部140は、入力された映像に、化粧画像テーブル510に記述されたマーカ色511(図5参照)のいずれかが含まれるとき、映像から、当該部分をスタイラスとして検出する。マーカ色の部分の検出手法としては、例えば、特許文献2に記載の、色ヒストグラム情報に基づく検出手法を採用する事ができる。
スタイラス検出部140は、化粧画像テーブル510の化粧領域512(図5参照)を参照して、スタイラスをいずれかの対象領域に近接させる化粧動作(図2参照)が行われたか否かを判定する。かかる判定は、入力された情報が示す顔特徴点の位置と、検出されたスタイラスの位置とに基づいて行われる。そして、スタイラス検出部140は、かかる化粧動作が行われた事を条件として、検出されたマーカ色を示す情報を、化粧画像重畳部150へ出力する。
なお、顔部品の位置およびスタイラスの位置とは、それぞれ、映像の2次元空間における位置、実世界の3次元空間における位置、および映像の2次元空間に顔表面との距離方向の空間軸を組み合わせた3次元空間における位置のうち、いずれでもよい。
例えば、デジタルカメラ102がステレオカメラである場合、顔位置取得部130およびスタイラス検出部140は、ステレオ画像間の視差を算出する事により、顔部品あるいはスタイラスの3次元位置を取得する事ができる。また、映像における顔の大きさの平均値およびスタイラスの大きさの平均値が予め取得されているとする。この場合、顔位置取得部130およびスタイラス検出部140は、映像における実際の顔の大きさおよびスタイラスの大きさを検出する事により、顔部品あるいはスタイラスの3次元位置を取得する事ができる。
化粧画像重畳部150は、スタイラスが検出された事を条件として、入力された映像の顔の部分に対し、検出されたマーカ色に予め対応付けられた化粧画像を重畳する。より具体的には、化粧画像重畳部150は、マーカ色を示す情報が入力されたとき、化粧画像テーブル510(図5参照)を参照し、当該マーカ色に対応する化粧画像データを取得する。化粧画像重畳部150は、取得した化粧画像データに基づいて化粧画像を生成し、生成された化粧画像を、入力された映像に重畳する。そして、化粧画像重畳部150は、化粧画像が適宜重畳された映像を、表示部160へ出力する。
表示部160は、例えば、上記液晶ディスプレイ101(図1参照)を有し、入力された、化粧画像が適宜重畳された映像(以下「バーチャル化粧映像」という)を、当該液晶ディスプレイの画面に表示する。
画像処理装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行する事により実現される。
このような構成を有する画像処理装置100は、ユーザ300がスタイラス200を顔に近接させたとき、つまり、化粧動作を行ったとき、これを検出して、対応する化粧画像が重畳されたユーザ300の顔の映像を表示する事ができる。
<装置の動作>
次に、画像処理装置100の動作について説明する。
図6は、画像処理装置100の動作の一例を示すフローチャートである。
ステップS1100において、撮影部120は、映像の撮影を開始する。かかる映像には、ユーザ300の顔やスタイラス200が含まれ得る。なお、画像処理装置100は、以降の各処理を、映像を構成する画像フレーム毎に、順次行う。
ステップS1200において、顔位置取得部130は、画像に顔が含まれる場合、当該画像から、顔特徴点の位置を検出する。
ステップS1300において、スタイラス検出部140は、画像からマーカ色の検出を行い、画像にマーカ色の部分が存在するか否かを判定する。スタイラス検出部140は、画像にマーカ色の部分が存在する場合(S1300:YES)、処理をステップS1400へ進める。また、スタイラス検出部140は、画像にマーカ色の部分が存在しない場合(S1300:NO)、処理を後述のステップS1700へ進める。
ステップS1400において、スタイラス検出部140は、検出されたマーカ色に対応付けられた対象領域(化粧領域512、図5参照)への化粧動作が行われたか否かを判定する。すなわち、スタイラス検出部140は、検出されたマーカ色の部分(スタイラス200)が、対応する対象領域に近接しているか否かを判定する。なお、近接しているとは、例えば、スタイラス200の位置と、顔特徴点の位置により定まる対象領域との距離が、所定の値以下である事である。
スタイラス検出部140は、化粧動作が行われた場合(S1400:YES)、処理をステップS1500へ進める。また、スタイラス検出部140は、化粧動作が行われていない場合(S1400:NO)、処理をステップ後述のS1700へ進める。
なお、スタイラス検出部140は、化粧画像テーブル510(図5参照)に基づき、対象領域毎に、検出の対象となるマーカ色を限定してもよい。この場合、ステップS1300、S1400は、1つの処理とする事ができる。また、スタイラス検出部140は、顔位置取得部130が顔領域を検出する場合、検出された顔領域に限定して、各マーカ色の検出を行ってもよい。
また、ユーザ300は、化粧動作を行うつもりがないにもかかわらず、誤ってスタイラス200を対象領域に近接させてしまう場合もある。したがって、スタイラス検出部140は、スタイラス200が対象領域に近接した状態が、1秒等の所定の時間以上持続したことを条件として、化粧動作が行われたと判定してもよい。
ステップS1500において、化粧画像重畳部150は、検出されたマーカ色に対応付けられた化粧画像が重畳済みか否かを判定する。なお、当該化粧画像は、検出されたマーカ色に対応する化粧画像データ(512〜514、図5参照)により生成される画像である。化粧画像重畳部150は、化粧画像が重畳済みではない場合(S1500:NO)、処理をステップS1600へ進める。また、化粧画像重畳部150は、化粧画像が重畳済みである場合(S1500:YES)、処理を後述のステップS1700へ進める。
ステップS1600において、化粧画像重畳部150は、検出されたマーカ色に対応付けられた化粧画像を生成し、撮影画像への重畳を開始する。すなわち、化粧画像重畳部150は、以降の映像において、化粧画像の重畳を継続する。かかる化粧画像の重畳の継続は、例えば、顔特徴点の最新の位置に基づいて化粧画像を再生成したり、生成された化粧画像を顔特徴点の最新の位置に合わせ込む形で変形する事により行われる。
なお、ユーザ300がスタイラス200の使用を開始してから所望の化粧動作を完了するまでには数秒程度の時間が掛かる。したがって、化粧画像重畳部150は、所定のマーカ色が検出されてから対応する化粧画像の重畳を開始するまでに、数秒程度の時間差を設ける事が望ましい。
ステップS1700において、表示部160は、生成されたバーチャル化粧映像を表示する。なお、バーチャル化粧映像は、化粧画像が重畳されている映像だけではなく、化粧画像が重畳されていない映像をも含む。
ステップS1800において、化粧画像重畳部150は、ユーザ操作等によりバーチャル化粧映像を生成して表示する処理の終了を指示されたか否かを判定する。化粧画像重畳部150は、処理の終了を指示されていない場合(S1800:NO)、処理をステップS1200へ戻し、次の画像フレーム、あるいは、最新の画像フレームに対する処理に移る。また、化粧画像重畳部150は、処理の終了を指示された場合(S1800:YES)、一連の処理を終了する。
このような動作により、画像処理装置100は、ユーザ300がスタイラス200を唇等の対象領域に近接させる化粧動作を行ったとき、当該領域に化粧画像が重畳されたバーチャル化粧映像を、生成して表示する事ができる。
なお、マーカ色の違い(つまりスタイラス200の違い)は、バーチャル化粧映像において、化粧画像の領域や色の違いとなって現れる。
図7は、スタイラス200によるバーチャル化粧映像の違いの例を示す図であり、図2Cに対応するものである。図2Cと対応する部分には同一符号を付し、これについての説明を省略する。
図7Aは、マーカ色が赤のスタイラスを使用した場合の例である。図7Bは、マーカ色がピンクのスタイラスを使用した場合の例である。図7Cは、マーカ色が水色のスタイラスを使用した場合の例である。図7A〜図7Cに示すスタイラス200〜200のマーカ色は、順に、赤、ピンク、水色である。
図7Aに示すように、赤のスタイラス200が用いられた場合、画像処理装置100は、化粧画像テーブル510(図5参照)に基づき、唇部分に赤の化粧画像412を重畳させる。同様に、画像処理装置100は、図7Bに示すように、ピンクのスタイラス200が用いられた場合、唇部分にコーラルピンクの化粧画像412を重畳させる。また、画像処理装置100は、図7Cに示すように、水色のスタイラス200が用いられた場合、唇部分にブルーグレーの化粧画像412を重畳させる。
このように、画像処理装置100は、スタイラス200のマーカ色に応じて、異なる化粧画像をユーザの顔の映像に重畳させる。
<本実施の形態の効果>
以上のように、本実施の形態に係る画像処理装置100は、撮影された映像から、映像に含まれる顔の位置を取得し、映像に所定のマーカ色の部分が含まれるとき、更に当該部分をスタイラスとして検出する。そして、本実施の形態に係る画像処理装置100は、撮影された映像を表示するが、その際に、スタイラスが検出された事を条件として、映像の顔の部分に対し、所定のマーカ色に予め対応付けられた化粧画像を重畳する。これにより、画像処理装置100は、化粧動作によりバーチャル化粧を行う事を可能にする。
また、画像処理装置100は、図5の化粧画像テーブル510に示すように、マーカ色毎に化粧の対象領域を限定している。これにより、画像処理装置100は、スタイラス200毎に定められた対象領域以外の部分にスタイラス200が近接したとしても、かかる部分に対する化粧画像の重畳を行わない。これにより、画像処理装置100は、例えば、バーチャル化粧映像において口紅が誤って瞼に塗布されるといった事態を回避する事ができる。
<変形例1:スタイラス識別手法の他の例>
なお、スタイラス200の識別手法は、上述の例に限定されない。例えば、画像処理装置100は、所定の複数色から成る所定の色配置パターンの部分が含まれるとき、映像から、当該部分を上述のマーカ色として検出してもよい。この場合、色配置パターンをスタイラス200の識別コードとして用いる事ができ、スタイラス200の検出精度の向上が可能になるとともに、識別されるスタイラス200の数を増大させる事ができる。
図8は、色配置パターンを施したスタイラスの外観の一例を示す図であり、図3に対応するものである。
図8に示すように、スタイラス200aには、先端から連続する第1〜第4の領域210〜210のそれぞれに、色が施されている。第1〜第4の領域210〜210の間で、施される色は同一であってもよいし異なっていてもよい。但し、第1〜第4の領域210〜210のうち少なくとも隣り合う領域210の間では、色が異なっている事が望ましい。また、第1〜第4の領域210〜210の少なくとも1つには、これらの色配置パターンに対応付けられた化粧色に近似する色が、塗布されている事が望ましい。
第1〜第4の領域210〜210に施された色の組み合わせおよび順序は、スタイラス200aに施された色配置パターンを構成する。なお、色配置パターンを構成する領域の数は、4つに限定されるものではない。
図9は、色配置パターンをマーカ色として用いる場合の、化粧画像テーブルの内容の一例を示す図であり、図5に対応するものである。図5と対応する部分には同一符号を付し、これについての説明を省略する。
図9に示すように、化粧画像テーブル510aは、化粧領域512、化粧色513、および化粧濃さ514を、色配置パターンであるマーカ色511aに対応付けて記述している。なお、マーカ色511aは、ここでは色配置パターンの絵で表されているが、実際には、所定の色空間における座標値の範囲を、配置順序に沿って記述した情報である。
例えば、スタイラス検出部140は、まず、画像から、第1の領域210(図8参照)に対応する色の領域を探索し、当該領域が検出された場合、その領域の周辺で、第2の領域210に対応する色の領域を探索する。第2の領域210に対応する色の領域が検出された場合、スタイラス検出部140は、更に、その検出された方向の周辺領域で、第3の領域210、第4の領域210と順に探索する。
スタイラス検出部140が、N種類の色を区別して検出可能である場合、図3に示す単色から成るマーカ色のスタイラス200では、N本のスタイラス200を識別可能であり、N種類の化粧画像を使用する事ができる。
これに対し、図8に示すような4つの領域の色配置パターンをマーカ色とするスタイラス200aでは、例えば、N本のスタイラス200を識別可能となり、N種類の化粧画像を使用する事ができる。すなわち、マーカ色として複数色の色配置パターンを採用する事により、画像処理装置100は、種類の豊富な化粧画像を重畳し、バーチャル化粧のバリエーションを広げる事ができる。
更に、マーカ色が複数色の色配置パターンである場合、マーカ色が単色である場に比べて、スタイラス200以外の部分がスタイラス200と誤検出される可能性を低減する事ができる。一方で、マーカ色が複数色の色配置パターンである場合、その一部が手指で隠れる等して、検出漏れとなる可能性が高くなる。
そこで、スタイラス検出部140は、ある画像フレームで検出されたスタイラス200aを、後続の映像において追跡する事が望ましい。かかる追跡は、例えば、スタイラス200aの先端の色や形状等の画像特徴部分を、映像に対する公知のターゲット追跡技術を用いて追跡する事により行われる。この場合、スタラス200aの先端の領域(第1の領域210、図8参照)の色は、所定の1色である事が望ましい。
<変形例2:色決定手法の他の例>
また、化粧画像の色(化粧色)の決定手法は、上述の例に限定されない。画像処理装置100は、例えば、マーカ色とは別にスタイラスに塗布された色に基づいて、化粧画像の色を決定してもよい。
図10は、マーカ色以外の色を施したスタイラスの外観の一例を示す図であり、図3および図8に対応するものである。
図10に示すように、スタイラス200bには、先端から連続する第5および第6の領域210、210のそれぞれに、色が施されている。第6の領域210の色は、1つまたは複数の所定のマーカ色から選択された色である。
第5の領域210に施される色は、上記所定のマーカ色以外の色である事が望ましい。なお、第5の領域210は、例えば、棒状部材に塗布された塗料、棒状部材に貼り付けられたシール、あるいは、棒状部材を構成する色付き部材とする事ができる。また、マーカ色は、緑色等、化粧にあまり用いられず、かつ、顔の色と異なる色である事が望ましい。
このようなスタイラス200bを用いる場合、スタイラス検出部140は、映像のうち、検出された所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる顔の色以外の色を、塗布指定色として検出する。すなわち、スタイラス検出部140は、第5の領域210の色を、塗布指定色として検出する。そして、化粧画像重畳部150は、検出された塗布指定色に近似する色で、化粧画像を生成する。
なお、化粧画像テーブル510(図5参照)は、化粧色513については記述する必要がない。更に、マーカ色を1色とし、対象領域をスタイラス200b毎に限定しない場合、マーカ色毎に化粧画像の内容を予め記述した化粧画像テーブルは、必ずしも必要ない。また、画像処理装置100は、かかるテーブルに代えて、マーカ色と、対象領域毎に化粧色以外の化粧画像データとを記述した、化粧画像テーブルを用いてもよい。
図11は、マーカ色および塗布指定色を塗布したスタイラス200bを用いる場合の、画像処理装置100の動作の一例を示すフローチャートであり、図6に対応するものである。図6と同一部分には同一符号を付し、これについての説明を省略する。
スタイラス検出部140は、画像にマーカ色の部分が存在すると判定されると(S1300:YES)、処理をステップS1310bへ進める。
ステップS1310bにおいて、スタイラス検出部140は、マーカ色の部分の周辺領域で、顔の色以外の色の検出を行い、顔の色以外の色の部分が存在するか否かを判定する。より具体的には、スタイラス検出部140は、例えば、顔位置取得部130が顔領域を検出する場合、検出された顔領域の色ヒストグラム情報に基づいて、肌、唇、目、睫毛、および眉毛部分を含む顔の各部の色を推定する。そして、スタイラス検出部140は、推定された色と異なり、かつ、所定の面積を有する部分の色を、顔の色以外の色として検出する。
例えば、画像に図10に示すスタイラス200bの第5および第6の領域210、210が含まれる場合、第6の領域210がマーカ色であるため、スタイラス検出部140は、第5の領域210の色を検出する。
スタイラス検出部140は、マーカ色の部分の周辺領域に顔の色以外の色の部分が存在する場合(S1310b:YES)、処理をステップS1320bへ進める。また、スタイラス検出部140は、マーカ色の部分の周辺領域に顔の色以外の色の部分が存在しない場合(S1310b:NO)、処理を後述のステップS1410bへ進める。
ステップS1320bにおいて、スタイラス検出部140は、ステップS1310bで検出された色を、塗布指定色として取得する。
なお、スタイラス検出部140は、映像においてマーカ色の部分を追跡し、マーカ色と同じ動きをする色を、上述の顔の色以外の色であると判定してもよい。
ステップS1410bにおいて、スタイラス検出部140は、塗布指定色を取得済みであり、かつ、いずれかの対象領域への化粧動作が行われたか否かを判定する。すなわち、スタイラス検出部140は、検出されたマーカ色の部分(スタイラス200b)が、予め定められた対象領域のいずれかに近接しているか否かを判定する。
スタイラス検出部140は、塗布指定色を取得済みであり、かつ、対象領域への化粧動作が行われた場合(S1410b:YES)、処理をステップS1510bへ進める。この際、スタイラス検出部140は、塗布指定色および化粧動作の対象となった対象領域を示す情報を、上述のマーカ色を示す情報に代えて、化粧画像重畳部150へ出力する。また、スタイラス検出部140は、塗布指定色を取得されていない場合、あるいは、対象領域への化粧動作が行われていない場合(S1410b:NO)、処理をステップS1700へ進める。
ステップS1510bにおいて、化粧画像重畳部150は、入力された情報に基づき、塗布指定色に近似する色の化粧画像が、対象領域に既に重畳されているか否かを判定する。化粧画像重畳部150は、塗布指定色に近似する色の化粧画像が対象領域に重畳されている場合(S1510b:YES)、処理をステップS1700へ進める。また、化粧画像重畳部150は、塗布指定色に近似する色の化粧画像が対象領域に重畳されていない場合(S1510b:NO)、処理をステップS1610bへ進める。
ステップS1610bにおいて、化粧画像重畳部150は、塗布指定色に近似する色の化粧画像を生成し、撮影画像への重畳を開始して、処理をステップS1700へ進める。
より具体的には、化粧画像重畳部150は、例えば、情報格納部110に予め格納された、色空間を分割した複数の分割色空間と、各分割色空間における平均色等の代表色とを示す情報を参照する。そして、化粧画像重畳部150は、塗布指定色が属する分割色空間を特定し、特定された分割色空間の代表色を、化粧画像の化粧色に決定する。
なお、化粧画像重畳部150は、取得された塗布指定色をそのまま化粧色として採用してもよいし、取得された塗布指定色に対して、所定の色変換を行って得られる色を、化粧色として採用してもよい。更に、化粧画像重畳部150は、照明状態等の周囲の環境情報を取得し、取得された情報に基づいて、色変換の内容を決定してもよい。
図12は、スタイラス200bの塗布指定色によるバーチャル化粧映像の違いの例を示す図であり、図2Cおよび図7に対応するものである。図2Cおよび図7と対応する部分には同一符号を付し、これについての説明を省略する。
図12A〜図12Cに示すように、それぞれ異なる塗布指定色が施されたスタイラス200b〜200bのそれぞれを用いて、唇に対して化粧動作が行われたとする。この場合、画像処理装置100は、各スタイラス200bの塗布指定色に近似する色の化粧画像412b〜412bを、化粧動作の対象となった唇領域に重畳させる。
マーカ色に基づいて化粧色を決定する場合、識別可能なマーカ色(色配置パターン)の数に応じて化粧画像の種類が制限されるとともに、マーカ色と化粧色との対応関係を予め登録しておく必要がある。
これに対し、マーカ色に基づいて図10に示すようなスタイラス200bを検出し、検出されたスタイラス200bから塗布指定色を取得する場合、上述の制限はなく、マーカ色と化粧色との対応関係を予め設定しておく必要もない。すなわち、マーカ色と塗布指定色との組み合わせを採用する事により、画像処理装置100は、色の柔軟性に富んだ化粧画像を生成することができ、バーチャル化粧のバリエーションを広げる事ができる。
<その他の変形例>
また、画像処理装置100が行うマーカ色(色配置パターン)と化粧画像との対応付けは、上述の例に限定されない。例えば、化粧領域512および化粧濃さ514は、必ずしも、マーカ色毎に限定されていなくてもよい。これにより、ユーザ300は、1つのスタイラス200で、複数あるいは全ての対象領域へのバーチャル化粧を行う事ができる。
また、画像処理装置100に使用されるスタイラス200の形状、スタイラス200におけるマーカ色および塗布指定色の配置、および、色配置パターンの構成は、上述の例に限定されない。例えば、スタイラス200は、各種化粧品により近い形状や素材であってもよく、例えば、平刷毛状の形状および素材であってもよい。
また、画像処理装置100は、ユーザ300からマーカ色の入力を受け付けてもよい。この場合、スタイラス検出部140は、例えば、バーチャル化粧の実施に先立って、撮影映像からスタイラス200の部分を取得するためのスタイラス登録画面を、液晶ディスプレイ101に表示する。そして、スタイラス検出部140は、スタイラス登録画面を介して取得されたスタイラス200の部分の色を、スタイラス200に付されたマーカ色として取得する。
図13は、スタイラス登録画面の一例を示す図である。
図13に示すように、スタイラス登録画面610は、例えば、デジタルカメラ102の撮影映像611におけるスタイラス200の位置を指定する位置指定画像612を含む。また、スタイラス登録画面610は、撮影映像611において、スタイラス200の位置が位置指定画像612に合うように、スタイラス200を持つことをユーザ300に指示するメッセージ613を含む。
スタイラス検出部140は、予め登録された、スタイラス200の外形やスタイラス200に付されるコードパターンを撮影映像611から検出することにより、位置指定画像612にスタイラス200が合わせられたか否かを判定する。そして、スタイラス検出部140は、位置指定画像612にスタイラス200が合わせられたとき、マーカ色が付される部分(例えばスタイラス200の先端部分)の色を撮影映像611から取得し、取得された色をマーカ色として取得する。
なお、化粧画像重畳部150は、取得された色をそのまま化粧色としてもよいし、取得された色に予め対応付けられた色を化粧色としてもよい。
また、画像処理装置100のスタイラス200の識別には、色情報以外の情報を併用してもよい。例えば、スタイラス検出部140は、スタイラス200にRFID(Radio Frequency Identification)タグが搭載されている場合、RFIDタグからの無線信号が示す情報と、スタイラス200の色情報との組み合わせに基づいて、スタイラス200を識別してもよい。
また、画像処理装置100が行う化粧画像の重畳は、上述の対象領域に制限しなくてもよい。すなわち、画像処理装置100は、顔の全体の各部を、化粧動作の対象として認識してもよい。
この場合において、より実際の化粧に近い感覚をユーザ300に与えたい場合、スタイラス検出部140は、ユーザ300がスタイラス200を顔の表面に接触させたか否かを検出し、スタイラス200が接触した部分を、化粧領域として決定することが望ましい。かかる検出は、例えば、顔の表面の各部の3次元位置と、スタイラス200の先端の3次元位置とを、それぞれ高精度に検出したり、スタイラス200の先端に搭載された押圧センサのセンサ情報を無線で受信する事により、行うことができる。
あるいは、スタイラス検出部140は、更に、対象領域付近におけるスタイラス200(マーカ色の領域)の動きや、対象領域とスタイラス200との更に細かい位置関係を解析して、かかる対象領域に対する化粧動作が行われたか否かを判定してもよい。具体的には、例えば、スタイラス検出部140は、対象領域毎に、所定のスタイラス200の動きのパターン(ジェスチャ)を予め化粧動作として登録しておき、かかるジェスチャを検出することにより、化粧動作の判定を行う。
ジェスチャは、例えば、顔に設定された複数の基準点を用いて定義することができる。
図14は、ジェスチャの定義を説明するための図である。
図14に示すように、顔620には、複数の基準点(621)A〜F、X〜Zが定義されている。基準点の位置は、顔特徴点を基準として定められる。また、化粧の対象領域のそれぞれに、1つまたは複数の基準点が定義されている。
例えば、情報格納部110には、対象領域毎に、1つまたは複数の基準点とスタイラス200との相対位置関係の時間変化を、当該対象領域に対する化粧動作として記述したジェスチャテーブルが、予め格納されている。
例えば、上唇の化粧動作は、基準点A、基準点B(または基準点Bと基準点Dとの中点)、基準点Cの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動き(ユーザ300のジェスチャ)である。また、下唇の化粧動作は、基準点A、基準点F(または基準点Fと基準点Eとの中点)、基準点Cの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動きである。
また、右頬の化粧動作は、基準点Zの周辺でスタイラス200が数回回転するような、スタイラス200の動きである。また顔全体に対するファンデーションの化粧動作は、基準点X、基準点Y、基準点Zの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動きである。
化粧画像重畳部150は、映像から検出されるスタイラス200の位置の時間変化を、ジェスチャテーブルに記述された各化粧動作の内容と比較することにより、各対象領域に対する化粧動作が行われたか否かを判定する。
逆に、画像処理装置100は、単にスタイラス200が顔に近付いた事、あるいは、単にスタイラス200が映像から検出された事を条件として、スタイラス200の種別に予め対応付けられた化粧画像の撮影映像への重畳を開始してもよい。
また、画像処理装置100が、スタイラス200の別により変化させる化粧画像の内容は、上述の例に限定されない。すなわち、化粧画像テーブル510(図5参照)が記述する化粧画像の内容は、マーカ色(色配置パターン)毎に、化粧の光沢等の画像効果や、化粧剤の持ちに相当する化粧画像の持続時間等が異なるものであってもよい。
また、情報格納部110は、インターネット上の所定のサーバ等にアクセスして、化粧画像テーブル510(図5参照)の内容を取得あるいは更新してもよい。情報格納部110は、かかるテーブルの取得あるいは更新を、定期的に、あるいは、ユーザまたはサーバからの指示を受けたタイミングで行う。これにより、画像処理装置100は、スタイラス200の増加や変更に柔軟に対応する事ができるとともに、メイクの流行を反映したバーチャル化粧を、ユーザ300に提供する事ができる。
また、スタイラス検出部140は、化粧を拭き取るための色として予め定められた色が映像に含まれるとき、かかる色の部分を、消しゴムスタイラスとして検出してもよい。そして、スタイラス検出部140は、消しゴムスタイラスを化粧画像が重畳された部分に近接させる動作が行われた事を条件として、当該化粧画像の重畳を終了させてもよい。
また、画像処理装置100が対象とする化粧の概念には、顔全体へのファンデーションの塗布、顔への描画、眼鏡の装着、カラーコンタクトの装着、眉毛や髪の毛への毛染め等を含めてもよい。いずれの場合において、スタイラスは、眼鏡型のプレートやブラシ型の道具等、対応する動作に用いられる道具を模したものである事が望ましい。
また、画像処理装置100が適用される装置は、上述の例に限定されない。画像処理装置100は、例えば、スマートフォン、タブレット型端末、パーソナルコンピュータ、あるいはデジタルカメラ等に適用されてもよい。
また、画像処理装置100の構成の一部は、ネットワーク上のサーバ等に配置される等して、画像処理装置100の構成の他の部分と離隔していてもよい。この場合、これら部分のそれぞれは、互いに通信を行うための通信部を備える必要がある。
<本開示のまとめ>
本開示の画像処理装置は、映像を撮影する撮影部と、撮影された前記映像を画面に表示する表示部と、前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する。
なお、上記画像処理装置において、前記スタイラス検出部は、前記スタイラスの位置を取得し、取得された前記顔の位置および前記スタイラスの位置に基づいて、ユーザが前記スタイラスを前記顔に近接させる化粧動作を行ったか否かを判定し、前記化粧画像重畳部は、前記化粧動作が行われた事を条件として、前記化粧画像を重畳してもよい。
また、上記画像処理装置において、前記化粧画像は、顔特徴点を基準として予め定められた領域に化粧が塗布されたときの前記化粧の状態を表す画像であり、前記顔位置取得部は、前記顔の顔特徴点の位置を取得し、前記化粧画像重畳部は、取得された前記顔特徴点の位置および前記スタイラスの位置に基づき、前記スタイラスを前記領域に近接させる化粧動作が行われた事を条件として、前記化粧画像を重畳してもよい。
また、上記画像処理装置において、前記スタイラス検出部は、前記映像から前記所定のマーカ色の部分を検出し、検出された部分に基づいて前記スタイラスの位置を検出し、検出された前記スタイラスの位置を前記映像において追跡してもよい。
また、上記画像処理装置において、前記スタイラス検出部は、前記映像のうち、検出された前記所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる前記顔の色以外の色を、塗布指定色として検出し、前記化粧画像重畳部は、検出された前記塗布指定色に近似する色で、前記化粧画像を生成してもよい。
また、上記画像処理装置において、前記化粧画像重畳部は、複数の前記所定のマーカ色について、前記所定のマーカ色毎に前記化粧画像の内容を予め記述した化粧情報テーブルを参照して、重畳する前記化粧画像を決定し、前記化粧テーブルが記述する前記化粧画像の内容は、前記所定のマーカ色毎に、前記化粧画像の色、濃さ、および領域の少なくとも1つが異なってもよい。
また、上記画像処理装置において、前記所定のマーカ色は、所定の複数色から成る所定の色配置パターンであってもよい。
本開示のスタイラスは、上記画像処理装置に使用されるスタイラスであって、棒状部材であり、前記棒状部材の先端部を含む領域に前記所定のマーカ色が施されている。
本開示の画像処理方法は、映像を撮影するステップと、撮影された前記映像を画面に表示するステップと、前記映像から、前記映像に含まれる顔の位置を取得するステップと、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する。
本発明は、化粧動作によりバーチャル化粧を行う事ができる画像処理装置、スタイラス、および画像処理方法として有用である。
100 画像処理装置
101 液晶ディスプレイ
102 デジタルカメラ
110 情報格納部
120 撮影部
130 顔位置取得部
140 スタイラス検出部
150 化粧画像重畳部
160 表示部
200、200a、200b スタイラス

Claims (9)

  1. 映像を撮影する撮影部と、
    撮影された前記映像を画面に表示する表示部と、
    前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、
    前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、
    前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する、
    画像処理装置。
  2. 前記スタイラス検出部は、
    前記スタイラスの位置を取得し、取得された前記顔の位置および前記スタイラスの位置に基づいて、ユーザが前記スタイラスを前記顔に近接させる化粧動作を行ったか否かを判定し、
    前記化粧画像重畳部は、
    前記化粧動作が行われた事を条件として、前記化粧画像を重畳する、
    請求項1に記載の画像処理装置。
  3. 前記化粧画像は、顔特徴点を基準として予め定められた領域に化粧が塗布されたときの前記化粧の状態を表す画像であり、
    前記顔位置取得部は、
    前記顔の顔特徴点の位置を取得し、
    前記化粧画像重畳部は、
    取得された前記顔特徴点の位置および前記スタイラスの位置に基づき、前記スタイラスを前記領域に近接させる化粧動作が行われた事を条件として、前記化粧画像を重畳する、
    請求項1に記載の画像処理装置。
  4. 前記スタイラス検出部は、
    前記映像から前記所定のマーカ色の部分を検出し、検出された部分に基づいて前記スタイラスの位置を検出し、検出された前記スタイラスの位置を前記映像において追跡する、
    請求項1に記載の画像処理装置。
  5. 前記スタイラス検出部は、
    前記映像のうち、検出された前記所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる前記顔の色以外の色を、塗布指定色として検出し、
    前記化粧画像重畳部は、
    検出された前記塗布指定色に近似する色で、前記化粧画像を生成する、
    請求項1に記載の画像処理装置。
  6. 前記化粧画像重畳部は、
    複数の前記所定のマーカ色について、前記所定のマーカ色毎に前記化粧画像の内容を予め記述した化粧情報テーブルを参照して、重畳する前記化粧画像を決定し、
    前記化粧テーブルが記述する前記化粧画像の内容は、前記所定のマーカ色毎に、前記化粧画像の色、濃さ、および領域の少なくとも1つが異なる、
    請求項1に記載の画像処理装置。
  7. 前記所定のマーカ色は、所定の複数色から成る所定の色配置パターンである、
    請求項1に記載の画像処理装置。
  8. 請求項1に記載の画像処理装置に使用されるスタイラスであって、
    棒状部材であり、前記棒状部材の先端部を含む領域に前記所定のマーカ色が施された、
    スタイラス。
  9. 映像を撮影するステップと、
    撮影された前記映像を画面に表示するステップと、
    前記映像から、前記映像に含まれる顔の位置を取得するステップと、
    前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、
    前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する、
    画像処理方法。
JP2015015363A 2015-01-29 2015-01-29 画像処理装置、スタイラス、および画像処理方法 Active JP6519853B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015015363A JP6519853B2 (ja) 2015-01-29 2015-01-29 画像処理装置、スタイラス、および画像処理方法
CN201680004714.7A CN107111861B (zh) 2015-01-29 2016-01-19 图像处理装置、触笔以及图像处理方法
PCT/JP2016/000234 WO2016121329A1 (ja) 2015-01-29 2016-01-19 画像処理装置、スタイラス、および画像処理方法
US15/003,183 US9984281B2 (en) 2015-01-29 2016-01-21 Image processing apparatus, stylus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015015363A JP6519853B2 (ja) 2015-01-29 2015-01-29 画像処理装置、スタイラス、および画像処理方法

Publications (2)

Publication Number Publication Date
JP2016139382A true JP2016139382A (ja) 2016-08-04
JP6519853B2 JP6519853B2 (ja) 2019-05-29

Family

ID=56560386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015015363A Active JP6519853B2 (ja) 2015-01-29 2015-01-29 画像処理装置、スタイラス、および画像処理方法

Country Status (1)

Country Link
JP (1) JP6519853B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509508A (ja) * 2008-11-20 2012-04-19 ザ ジレット カンパニー 個人衛生機器、システム、及び方法
US20140016823A1 (en) * 2012-07-12 2014-01-16 Cywee Group Limited Method of virtual makeup achieved by facial tracking
WO2014167831A1 (ja) * 2013-04-08 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509508A (ja) * 2008-11-20 2012-04-19 ザ ジレット カンパニー 個人衛生機器、システム、及び方法
US20140016823A1 (en) * 2012-07-12 2014-01-16 Cywee Group Limited Method of virtual makeup achieved by facial tracking
WO2014167831A1 (ja) * 2013-04-08 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
JP6519853B2 (ja) 2019-05-29

Similar Documents

Publication Publication Date Title
CN107111861B (zh) 图像处理装置、触笔以及图像处理方法
JP6435516B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6375480B2 (ja) メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム
EP3479351B1 (en) System and method for digital makeup mirror
CN110363867B (zh) 虚拟装扮系统、方法、设备及介质
JP5991536B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US20120223956A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
KR20160135652A (ko) 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리
CN108932654B (zh) 一种虚拟试妆指导方法及装置
KR20090098798A (ko) 비디오 이미지들의 시퀀스의 가상 시뮬레이션을 위한 방법 및 디바이스
CA3091717C (en) Method and device for the virtual try-on of garments based on augmented reality with multi-detection
WO2018005884A1 (en) System and method for digital makeup mirror
CN111880709A (zh) 一种展示方法、装置、计算机设备及存储介质
CN115917474A (zh) 在三维环境中呈现化身
JP2018195996A (ja) 画像投影装置、画像投影方法、及び、画像投影プログラム
Kim Dance motion capture and composition using multiple RGB and depth sensors
Borges et al. A virtual makeup augmented reality system
Treepong et al. Makeup creativity enhancement with an augmented reality face makeup system
Milosevic et al. A SmartPen for 3D interaction and sketch-based surface modeling
Yolcu et al. Real time virtual mirror using kinect
JP6485629B2 (ja) 画像処理装置および画像処理方法
JP6519853B2 (ja) 画像処理装置、スタイラス、および画像処理方法
Xu et al. Human body reshaping and its application using multiple RGB-D sensors
WO2021106552A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240070243A1 (en) Authenticating a selective collaborative object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R151 Written notification of patent or utility model registration

Ref document number: 6519853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151