JP6519853B2 - Image processing apparatus, stylus, and image processing method - Google Patents
Image processing apparatus, stylus, and image processing method Download PDFInfo
- Publication number
- JP6519853B2 JP6519853B2 JP2015015363A JP2015015363A JP6519853B2 JP 6519853 B2 JP6519853 B2 JP 6519853B2 JP 2015015363 A JP2015015363 A JP 2015015363A JP 2015015363 A JP2015015363 A JP 2015015363A JP 6519853 B2 JP6519853 B2 JP 6519853B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- makeup
- stylus
- color
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、スタイラス、および画像処理方法に係り、特に、顔の撮影映像に化粧画像を重畳させる画像処理装置、スタイラス、および画像処理方法に関する。 The present invention relates to an image processing apparatus, a stylus, and an image processing method, and more particularly to an image processing apparatus, a stylus, and an image processing method for superposing a makeup image on a photographed image of a face.
従来、顔を撮影した画像に口紅やチーク等の画像を重畳して仮想的に化粧を行う、いわゆるバーチャル化粧の技術が存在する(例えば特許文献1参照)。 Conventionally, there is a so-called virtual makeup technique in which makeup is virtually performed by superimposing an image such as a lipstick or a cheek on an image obtained by capturing a face (see, for example, Patent Document 1).
特許文献1に記載の技術(以下「従来技術」という)は、顔の撮影画像と、化粧内容の指定を受け付けるための操作領域とを、タッチパネル画面に表示する。そして、従来技術は、画面に対するタッチペン操作に基づいて、顔の撮影画像に化粧画像を重畳する。このような従来技術によれば、化粧を行ったときの顔の状態をシミュレーションして表示する事ができる。 The technology described in Patent Document 1 (hereinafter referred to as “conventional technology”) displays a photographed image of a face and an operation area for receiving specification of makeup content on a touch panel screen. And a prior art superimposes a makeup image on the picked-up image of a face based on the touch pen operation with respect to a screen. According to such a conventional technique, it is possible to simulate and display the state of the face when makeup is performed.
ところで、子供が大人の真似をして化粧遊びをする事は、よく知られている。子供によっては、化粧が施された顔を得る事だけでなく、口紅を唇で滑らせるといった大人の化粧動作を真似する事にも、大きな喜びを感じる。そこで、口紅を引く真似をしたときに顔画像に口紅の化粧画像が重畳されるというように、化粧動作(ジェスチャ)によってバーチャル化粧を実現できる事が望まれる。 By the way, it is well known that children play makeup by imitating adults. Some children feel great pleasure not only in getting a face with makeup, but also in imitating adult makeup movements, such as sliding a lipstick on their lips. Therefore, it is desirable that virtual makeup can be realized by a makeup operation (gesture) such that a makeup image of the lipstick is superimposed on the face image when imitating drawing a lipstick.
しかしながら、従来技術は、化粧動作ではなく、画面へのタッチパネル操作によってバーチャル化粧を実現するものである。 However, according to the prior art, virtual makeup is realized not by the makeup operation but by the touch panel operation on the screen.
本発明の目的は、化粧動作によりバーチャル化粧を行う事ができる画像処理装置、スタイラス、および画像処理方法を提供することである。 An object of the present invention is to provide an image processing apparatus, a stylus, and an image processing method capable of performing virtual makeup by a makeup operation.
本開示の画像処理装置は、映像を撮影する撮影部と、撮影された前記映像を画面に表示する表示部と、前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する。 An image processing apparatus according to an embodiment of the present disclosure includes an imaging unit configured to capture an image, a display unit configured to display the captured image on a screen, and a face position acquisition unit configured to acquire the position of a face included in the image from the image. When a portion of a predetermined marker color is included in the image, a stylus detection unit that detects the portion as a stylus from the image, and the face portion of the image on condition that the stylus is detected And a makeup image superposition unit for superposing a makeup image associated with the predetermined marker color in advance.
本開示のスタイラスは、上記画像処理装置に使用されるスタイラスであって、棒状部材であり、前記棒状部材の先端部を含む領域に、前記所定のマーカ色が施されている。 The stylus of the present disclosure is a stylus used in the image processing apparatus, and is a rod-like member, and the predetermined marker color is applied to a region including the tip of the rod-like member.
本開示の画像処理方法は、映像を撮影するステップと、撮影された前記映像を画面に表示するステップと、前記映像から、前記映像に含まれる顔の位置を取得するステップと、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する。 The image processing method according to the present disclosure includes a step of shooting a video, a step of displaying the shot video on a screen, a step of acquiring the position of a face included in the video from the video, and Detecting the portion as a stylus from the image when the portion of the marker color is included, and the predetermined marker color for the portion of the face of the image on condition that the stylus is detected And V. superimposing a makeup image associated with in advance.
本開示によれば、化粧動作によりバーチャル化粧を行う事ができる。 According to the present disclosure, virtual makeup can be performed by the makeup operation.
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
<装置の概要>
まず、本実施の形態に係る画像処理装置の概要について説明する。
<Overview of device>
First, an outline of the image processing apparatus according to the present embodiment will be described.
図1は、本実施の形態に係る画像処理装置の概要の一例を示す図である。 FIG. 1 is a view showing an example of an outline of an image processing apparatus according to the present embodiment.
図1に示すように、画像処理装置100は、例えば、折り畳み型のコンパクトミラーを模した外形を有する。画像処理装置100は、コンパクトミラーの鏡に相当する部分に、液晶ディスプレイ101を備え、更に、当該液晶ディスプレイ101の近傍に、小型のデジタルカメラ102を備えている。なお、液晶ディスプレイ101は、タッチパネル付きであってもよい。また、デジタルカメラ102は、ステレオ撮影が可能なステレオカメラであってもよい。
As shown in FIG. 1, the
画像処理装置100は、スタイラス200とセットで使用される。画像処理装置100およびスタイラス200を使用するユーザ300は、例えば、小学生の女の子である。画像処理装置100は、デジタルカメラ102で撮影された映像を左右反転させて、液晶ディスプレイ101に表示する。ユーザ300は、液晶ディスプレイ101に映し出された自分の顔を見ながら、スタイラス200を口紅やアイシャドウのチップ等の化粧道具に見立てて、大人の化粧を模倣した動作を行う。
The
画像処理装置100は、ユーザ300が化粧動作を行ったとき、表示する映像のうち、化粧動作の対象となった領域に、化粧画像を重畳する。
When the
図2は、液晶ディスプレイ101に映し出される画像の変化の一例を示す図である。
FIG. 2 is a view showing an example of a change of an image displayed on the
図2Aに示すように、液晶ディスプレイ101に映し出される画像410には、ユーザの顔411が含まれる。図2Bに示すように、ユーザ300が、スタイラス200の先で唇をなぞる動作をしたとする。すると、図2Cに示すように、画像処理装置100は、唇に化粧画像412を重畳した画像410を生成して表示する。これにより、画像処理装置100は、ユーザ300に対して、本当の化粧を行ったような感覚を与える事ができる。
As shown in FIG. 2A, the
ところが、このような動作を実現するためには、画像処理装置100は、ユーザ300が化粧動作を行ったときに、これを検出する必要がある。
However, in order to realize such an operation, the
そこで、画像処理装置100は、デジタルカメラ102により撮影された映像から顔の位置を取得すると共に、かかる映像に所定のマーカ色の部分が含まれるとき、映像から、当該部分をスタイラス200として検出する。これにより、スタイラス200に所定のマーカ色を施しておけば、画像処理装置100は、ユーザ300がスタイラス200を顔に近接させたとき、つまり、化粧動作を行ったときに、これを検出する事ができる。
Therefore, the
図3は、スタイラス200の外観の一例を示す図である。
FIG. 3 is a view showing an example of the appearance of the
図3に示すように、スタイラス200は、例えば、ペン状の外形を有する棒状部材である。スタイラス200のうち、その先端部を含む領域210には、赤等の所定のマーカ色が施されている。なお、マーカ色は、撮影映像からより検出し易いように、スタイラス200の軸を中心として360度の方向の表面に施されている事が望ましい。マーカ色の領域210は、例えば、棒状部材に塗布された塗料、棒状部材に貼り付けられたシール、あるいは、棒状部材を構成する色付き部材とする事ができる。
As shown in FIG. 3, the
画像処理装置100は、所定の単色をマーカ色として検出してもよいし、所定の複数色のそれぞれを異なるマーカ色として検出してもよい。本実施の形態において、画像処理装置100は、所定の複数色のそれぞれを異なるマーカ色として検出するものとする。
The
<装置の構成>
次に、画像処理装置100の構成について説明する。
<Device configuration>
Next, the configuration of the
図4は、画像処理装置100の構成の一例を示すブロック図である。
FIG. 4 is a block diagram showing an example of the configuration of the
図4において、画像処理装置100は、情報格納部110、撮影部120、顔位置取得部130、スタイラス検出部140、化粧画像重畳部150、および表示部160を有する。
In FIG. 4, the
情報格納部110は、画像から画像に含まれる人の顔や顔部品を検出するための顔特徴情報と、化粧画像を生成して映像の顔の部分に重畳するための化粧画像テーブルとを、予め格納している。
The
顔特徴情報は、例えば、多数の顔画像サンプルに基づく学習により生成された、目や唇といった顔部品の形状等の画像特徴や、顔部品の配置や顔の色ヒストグラムといった顔全体の画像特徴を示す情報である。顔部品のそれぞれには、目尻や口角といった、顔特徴点が含まれる。 The face feature information includes, for example, image features such as shapes of face parts such as eyes and lips generated by learning based on a large number of face image samples, and image features of the entire face such as arrangement of face parts and color histogram of face It is information to show. Each of the face parts includes face feature points such as the corner of the eye and the corner of the eye.
化粧画像テーブルは、複数の所定のマーカ色について、所定のマーカ色毎に、化粧画像の内容(以下「化粧画像データ」という)を予め記述したテーブルである。なお、本実施の形態において、化粧画像は、唇領域、瞼領域、および頬骨領域等の、化粧の塗布の対象となる連続した領域(以下「対象領域」という)を単位として、生成されるものとする。 The makeup image table is a table in which the contents of the makeup image (hereinafter referred to as "makeup image data") are described in advance for each of a plurality of predetermined marker colors. In the present embodiment, the makeup image is generated in units of continuous areas (hereinafter referred to as “target areas”) to which makeup is applied, such as lip areas, eyebrow areas and cheek bone areas. I assume.
図5は、化粧画像テーブルの内容の一例を示す図である。 FIG. 5 is a view showing an example of the contents of the makeup image table.
図5に示すように、化粧画像テーブル510は、マーカ色511に対応付けて、化粧領域512、化粧色513、および化粧濃さ514を記述している。化粧領域512、化粧色513、および化粧濃さ514は、対象領域毎の化粧画像データを構成する。
As shown in FIG. 5, the makeup image table 510 describes a
マーカ色511は、画像処理装置100がスタイラスを示す色として検出の対象とする色を、同一の種別のスタイラスとして認識する色毎に記述したものである。なお、マーカ色511は、ここでは色の名称で表されているが、実際には、RGB(Red, Green, Blue)といった所定の色空間における座標値の範囲等である。すなわち、マーカ色511は、ある程度の幅を有する色範囲である。
The
化粧領域512は、例えば、口角等の顔特徴点の位置を基準として定義される、化粧画像の領域(つまり、化粧の塗布領域)である。なお、化粧領域512は、ここでは顔の領域の名称で表されているが、実際には、顔特徴点の位置を基準とする空間における座標値や関数等である。
The
化粧色513は、化粧画像の色である。なお、化粧色513は、ここでは色の名称で表されているが、実際には、RGB(Red, Green, Blue)、HSV(Hue, Saturation, Value)といった所定の色空間における座標値等である。化粧色513は、必ずしも、マーカ色511と同一でなくてもよいが、マーカ色511に近似した色である事が望ましい。これにより、ユーザ300は、所望の色に近い色でのバーチャル化粧を、直感的に行うことができる。
The
化粧濃さ514は、撮影画像に重畳する際の化粧画像の色の濃度(透明度)である。なお、化粧濃さ514は、ここでは透明度で表されているが、実際には、撮影画像に化粧画像をαブレンド等によって重畳する際の、画素値に対する合成率等の係数である。
The
すなわち、化粧画像テーブル510に記述された化粧画像データが示す化粧画像は、顔特徴点を基準として予め定められた領域(対象領域)に化粧が塗布されたときの、化粧の状態を表す画像である。また、化粧領域512は、化粧の塗布の対象となる対象領域である。
That is, the makeup image indicated by the makeup image data described in makeup image table 510 is an image representing the state of makeup when makeup is applied to an area (target area) predetermined based on the face feature point. is there. In addition, the
図4の撮影部120は、例えば、上述のデジタルカメラ102を有し、ユーザ300の顔の映像を撮影する(図1参照)。そして、撮影部120は、撮影した映像を、左右方向に反転させて、顔位置取得部130、スタイラス検出部140、および化粧画像重畳部150へ出力する。
The imaging unit 120 in FIG. 4 includes, for example, the above-described
顔位置取得部130は、入力された映像から、逐次、映像に含まれる顔の位置を取得する。より具体的には、顔位置取得部130は、顔特徴情報に基づき、顔あるいは顔部品の画像特徴のパターンマッチングを、映像を構成する画像フレームの各部分に対して行う。これにより、顔位置取得部130は、各画像フレームから、画像フレームに含まれる各顔特徴点の位置を抽出する。そして、顔位置取得部130は、抽出された顔特徴点の位置を示す情報を、スタイラス検出部140および化粧画像重畳部150へ出力する。
The face
スタイラス検出部140は、入力された映像に、化粧画像テーブル510に記述されたマーカ色511(図5参照)のいずれかが含まれるとき、映像から、当該部分をスタイラスとして検出する。マーカ色の部分の検出手法としては、例えば、特許文献2に記載の、色ヒストグラム情報に基づく検出手法を採用する事ができる。
When one of the marker colors 511 (see FIG. 5) described in the makeup image table 510 is included in the input video, the
スタイラス検出部140は、化粧画像テーブル510の化粧領域512(図5参照)を参照して、スタイラスをいずれかの対象領域に近接させる化粧動作(図2参照)が行われたか否かを判定する。かかる判定は、入力された情報が示す顔特徴点の位置と、検出されたスタイラスの位置とに基づいて行われる。そして、スタイラス検出部140は、かかる化粧動作が行われた事を条件として、検出されたマーカ色を示す情報を、化粧画像重畳部150へ出力する。
The
なお、顔部品の位置およびスタイラスの位置とは、それぞれ、映像の2次元空間における位置、実世界の3次元空間における位置、および映像の2次元空間に顔表面との距離方向の空間軸を組み合わせた3次元空間における位置のうち、いずれでもよい。 The position of the face part and the position of the stylus are respectively the position of the image in the two-dimensional space, the position of the real world in the three-dimensional space, and the two-dimensional image of the image in the two-dimensional space Any of the positions in the three-dimensional space may be used.
例えば、デジタルカメラ102がステレオカメラである場合、顔位置取得部130およびスタイラス検出部140は、ステレオ画像間の視差を算出する事により、顔部品あるいはスタイラスの3次元位置を取得する事ができる。また、映像における顔の大きさの平均値およびスタイラスの大きさの平均値が予め取得されているとする。この場合、顔位置取得部130およびスタイラス検出部140は、映像における実際の顔の大きさおよびスタイラスの大きさを検出する事により、顔部品あるいはスタイラスの3次元位置を取得する事ができる。
For example, when the
化粧画像重畳部150は、スタイラスが検出された事を条件として、入力された映像の顔の部分に対し、検出されたマーカ色に予め対応付けられた化粧画像を重畳する。より具体的には、化粧画像重畳部150は、マーカ色を示す情報が入力されたとき、化粧画像テーブル510(図5参照)を参照し、当該マーカ色に対応する化粧画像データを取得する。化粧画像重畳部150は、取得した化粧画像データに基づいて化粧画像を生成し、生成された化粧画像を、入力された映像に重畳する。そして、化粧画像重畳部150は、化粧画像が適宜重畳された映像を、表示部160へ出力する。
Under the condition that the stylus is detected, the makeup
表示部160は、例えば、上記液晶ディスプレイ101(図1参照)を有し、入力された、化粧画像が適宜重畳された映像(以下「バーチャル化粧映像」という)を、当該液晶ディスプレイの画面に表示する。
The
画像処理装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行する事により実現される。
Although not illustrated, the
このような構成を有する画像処理装置100は、ユーザ300がスタイラス200を顔に近接させたとき、つまり、化粧動作を行ったとき、これを検出して、対応する化粧画像が重畳されたユーザ300の顔の映像を表示する事ができる。
When the
<装置の動作>
次に、画像処理装置100の動作について説明する。
<Operation of device>
Next, the operation of the
図6は、画像処理装置100の動作の一例を示すフローチャートである。
FIG. 6 is a flowchart showing an example of the operation of the
ステップS1100において、撮影部120は、映像の撮影を開始する。かかる映像には、ユーザ300の顔やスタイラス200が含まれ得る。なお、画像処理装置100は、以降の各処理を、映像を構成する画像フレーム毎に、順次行う。
In step S1100, the shooting unit 120 starts shooting a video. Such an image may include the face of the
ステップS1200において、顔位置取得部130は、画像に顔が含まれる場合、当該画像から、顔特徴点の位置を検出する。
In step S1200, when the image includes a face, the face
ステップS1300において、スタイラス検出部140は、画像からマーカ色の検出を行い、画像にマーカ色の部分が存在するか否かを判定する。スタイラス検出部140は、画像にマーカ色の部分が存在する場合(S1300:YES)、処理をステップS1400へ進める。また、スタイラス検出部140は、画像にマーカ色の部分が存在しない場合(S1300:NO)、処理を後述のステップS1700へ進める。
In step S1300, the
ステップS1400において、スタイラス検出部140は、検出されたマーカ色に対応付けられた対象領域(化粧領域512、図5参照)への化粧動作が行われたか否かを判定する。すなわち、スタイラス検出部140は、検出されたマーカ色の部分(スタイラス200)が、対応する対象領域に近接しているか否かを判定する。なお、近接しているとは、例えば、スタイラス200の位置と、顔特徴点の位置により定まる対象領域との距離が、所定の値以下である事である。
In step S1400, the
スタイラス検出部140は、化粧動作が行われた場合(S1400:YES)、処理をステップS1500へ進める。また、スタイラス検出部140は、化粧動作が行われていない場合(S1400:NO)、処理をステップ後述のS1700へ進める。
If the makeup operation has been performed (S1400: YES), the
なお、スタイラス検出部140は、化粧画像テーブル510(図5参照)に基づき、対象領域毎に、検出の対象となるマーカ色を限定してもよい。この場合、ステップS1300、S1400は、1つの処理とする事ができる。また、スタイラス検出部140は、顔位置取得部130が顔領域を検出する場合、検出された顔領域に限定して、各マーカ色の検出を行ってもよい。
The
また、ユーザ300は、化粧動作を行うつもりがないにもかかわらず、誤ってスタイラス200を対象領域に近接させてしまう場合もある。したがって、スタイラス検出部140は、スタイラス200が対象領域に近接した状態が、1秒等の所定の時間以上持続したことを条件として、化粧動作が行われたと判定してもよい。
Also, the
ステップS1500において、化粧画像重畳部150は、検出されたマーカ色に対応付けられた化粧画像が重畳済みか否かを判定する。なお、当該化粧画像は、検出されたマーカ色に対応する化粧画像データ(512〜514、図5参照)により生成される画像である。化粧画像重畳部150は、化粧画像が重畳済みではない場合(S1500:NO)、処理をステップS1600へ進める。また、化粧画像重畳部150は、化粧画像が重畳済みである場合(S1500:YES)、処理を後述のステップS1700へ進める。
In step S1500, the makeup
ステップS1600において、化粧画像重畳部150は、検出されたマーカ色に対応付けられた化粧画像を生成し、撮影画像への重畳を開始する。すなわち、化粧画像重畳部150は、以降の映像において、化粧画像の重畳を継続する。かかる化粧画像の重畳の継続は、例えば、顔特徴点の最新の位置に基づいて化粧画像を再生成したり、生成された化粧画像を顔特徴点の最新の位置に合わせ込む形で変形する事により行われる。
In step S1600, the makeup
なお、ユーザ300がスタイラス200の使用を開始してから所望の化粧動作を完了するまでには数秒程度の時間が掛かる。したがって、化粧画像重畳部150は、所定のマーカ色が検出されてから対応する化粧画像の重畳を開始するまでに、数秒程度の時間差を設ける事が望ましい。
It takes a few seconds or so from the
ステップS1700において、表示部160は、生成されたバーチャル化粧映像を表示する。なお、バーチャル化粧映像は、化粧画像が重畳されている映像だけではなく、化粧画像が重畳されていない映像をも含む。
In step S1700, the
ステップS1800において、化粧画像重畳部150は、ユーザ操作等によりバーチャル化粧映像を生成して表示する処理の終了を指示されたか否かを判定する。化粧画像重畳部150は、処理の終了を指示されていない場合(S1800:NO)、処理をステップS1200へ戻し、次の画像フレーム、あるいは、最新の画像フレームに対する処理に移る。また、化粧画像重畳部150は、処理の終了を指示された場合(S1800:YES)、一連の処理を終了する。
In step S1800, makeup
このような動作により、画像処理装置100は、ユーザ300がスタイラス200を唇等の対象領域に近接させる化粧動作を行ったとき、当該領域に化粧画像が重畳されたバーチャル化粧映像を、生成して表示する事ができる。
By such an operation, the
なお、マーカ色の違い(つまりスタイラス200の違い)は、バーチャル化粧映像において、化粧画像の領域や色の違いとなって現れる。 The difference in marker color (that is, the difference in the stylus 200) appears as a difference in the area and color of the makeup image in the virtual makeup image.
図7は、スタイラス200によるバーチャル化粧映像の違いの例を示す図であり、図2Cに対応するものである。図2Cと対応する部分には同一符号を付し、これについての説明を省略する。
FIG. 7 is a view showing an example of the difference between virtual makeup images by the
図7Aは、マーカ色が赤のスタイラスを使用した場合の例である。図7Bは、マーカ色がピンクのスタイラスを使用した場合の例である。図7Cは、マーカ色が水色のスタイラスを使用した場合の例である。図7A〜図7Cに示すスタイラス2001〜2003のマーカ色は、順に、赤、ピンク、水色である。
FIG. 7A is an example in the case of using a stylus whose marker color is red. FIG. 7B is an example in the case of using a stylus whose marker color is pink. FIG. 7C is an example in the case of using a stylus whose marker color is light blue. The marker colors of the
図7Aに示すように、赤のスタイラス2001が用いられた場合、画像処理装置100は、化粧画像テーブル510(図5参照)に基づき、唇部分に赤の化粧画像4121を重畳させる。同様に、画像処理装置100は、図7Bに示すように、ピンクのスタイラス2002が用いられた場合、唇部分にコーラルピンクの化粧画像4122を重畳させる。また、画像処理装置100は、図7Cに示すように、水色のスタイラス2003が用いられた場合、唇部分にブルーグレーの化粧画像4123を重畳させる。
As shown in FIG. 7A, if the
このように、画像処理装置100は、スタイラス200のマーカ色に応じて、異なる化粧画像をユーザの顔の映像に重畳させる。
Thus, the
<本実施の形態の効果>
以上のように、本実施の形態に係る画像処理装置100は、撮影された映像から、映像に含まれる顔の位置を取得し、映像に所定のマーカ色の部分が含まれるとき、更に当該部分をスタイラスとして検出する。そして、本実施の形態に係る画像処理装置100は、撮影された映像を表示するが、その際に、スタイラスが検出された事を条件として、映像の顔の部分に対し、所定のマーカ色に予め対応付けられた化粧画像を重畳する。これにより、画像処理装置100は、化粧動作によりバーチャル化粧を行う事を可能にする。
<Effect of this embodiment>
As described above, the
また、画像処理装置100は、図5の化粧画像テーブル510に示すように、マーカ色毎に化粧の対象領域を限定している。これにより、画像処理装置100は、スタイラス200毎に定められた対象領域以外の部分にスタイラス200が近接したとしても、かかる部分に対する化粧画像の重畳を行わない。これにより、画像処理装置100は、例えば、バーチャル化粧映像において口紅が誤って瞼に塗布されるといった事態を回避する事ができる。
Further, as shown in the makeup image table 510 of FIG. 5, the
<変形例1:スタイラス識別手法の他の例>
なお、スタイラス200の識別手法は、上述の例に限定されない。例えば、画像処理装置100は、所定の複数色から成る所定の色配置パターンの部分が含まれるとき、映像から、当該部分を上述のマーカ色として検出してもよい。この場合、色配置パターンをスタイラス200の識別コードとして用いる事ができ、スタイラス200の検出精度の向上が可能になるとともに、識別されるスタイラス200の数を増大させる事ができる。
<Modification 1: Another Example of Stylus Identification Method>
The identification method of the
図8は、色配置パターンを施したスタイラスの外観の一例を示す図であり、図3に対応するものである。 FIG. 8 is a view showing an example of the appearance of a stylus having a color arrangement pattern, which corresponds to FIG.
図8に示すように、スタイラス200aには、先端から連続する第1〜第4の領域2101〜2104のそれぞれに、色が施されている。第1〜第4の領域2101〜2104の間で、施される色は同一であってもよいし異なっていてもよい。但し、第1〜第4の領域2101〜2104のうち少なくとも隣り合う領域210の間では、色が異なっている事が望ましい。また、第1〜第4の領域2101〜2104の少なくとも1つには、これらの色配置パターンに対応付けられた化粧色に近似する色が、塗布されている事が望ましい。
As shown in FIG. 8, the
第1〜第4の領域2101〜2104に施された色の組み合わせおよび順序は、スタイラス200aに施された色配置パターンを構成する。なお、色配置パターンを構成する領域の数は、4つに限定されるものではない。
The combination and order of the color which has been subjected to the first to fourth regions 210 1-210 4 constitutes a color arrangement pattern applied to the
図9は、色配置パターンをマーカ色として用いる場合の、化粧画像テーブルの内容の一例を示す図であり、図5に対応するものである。図5と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 9 is a view showing an example of the contents of the makeup image table when the color arrangement pattern is used as a marker color, and corresponds to FIG. The parts corresponding to those in FIG. 5 are given the same reference numerals, and the description thereof is omitted.
図9に示すように、化粧画像テーブル510aは、化粧領域512、化粧色513、および化粧濃さ514を、色配置パターンであるマーカ色511aに対応付けて記述している。なお、マーカ色511aは、ここでは色配置パターンの絵で表されているが、実際には、所定の色空間における座標値の範囲を、配置順序に沿って記述した情報である。
As shown in FIG. 9, the makeup image table 510a describes the
例えば、スタイラス検出部140は、まず、画像から、第1の領域2101(図8参照)に対応する色の領域を探索し、当該領域が検出された場合、その領域の周辺で、第2の領域2102に対応する色の領域を探索する。第2の領域2102に対応する色の領域が検出された場合、スタイラス検出部140は、更に、その検出された方向の周辺領域で、第3の領域2103、第4の領域2104と順に探索する。
For example, the
スタイラス検出部140が、N種類の色を区別して検出可能である場合、図3に示す単色から成るマーカ色のスタイラス200では、N本のスタイラス200を識別可能であり、N種類の化粧画像を使用する事ができる。
When the
これに対し、図8に示すような4つの領域の色配置パターンをマーカ色とするスタイラス200aでは、例えば、N4本のスタイラス200を識別可能となり、N4種類の化粧画像を使用する事ができる。すなわち、マーカ色として複数色の色配置パターンを採用する事により、画像処理装置100は、種類の豊富な化粧画像を重畳し、バーチャル化粧のバリエーションを広げる事ができる。
On the other hand, in the
更に、マーカ色が複数色の色配置パターンである場合、マーカ色が単色である場に比べて、スタイラス200以外の部分がスタイラス200と誤検出される可能性を低減する事ができる。一方で、マーカ色が複数色の色配置パターンである場合、その一部が手指で隠れる等して、検出漏れとなる可能性が高くなる。
Furthermore, when the marker color is a color arrangement pattern of a plurality of colors, the possibility that a portion other than the
そこで、スタイラス検出部140は、ある画像フレームで検出されたスタイラス200aを、後続の映像において追跡する事が望ましい。かかる追跡は、例えば、スタイラス200aの先端の色や形状等の画像特徴部分を、映像に対する公知のターゲット追跡技術を用いて追跡する事により行われる。この場合、スタラス200aの先端の領域(第1の領域2101、図8参照)の色は、所定の1色である事が望ましい。
Therefore, it is preferable that the
<変形例2:色決定手法の他の例>
また、化粧画像の色(化粧色)の決定手法は、上述の例に限定されない。画像処理装置100は、例えば、マーカ色とは別にスタイラスに塗布された色に基づいて、化粧画像の色を決定してもよい。
<Modification 2: Another example of color determination method>
Moreover, the determination method of the color (make-up color) of a makeup image is not limited to the above-mentioned example. The
図10は、マーカ色以外の色を施したスタイラスの外観の一例を示す図であり、図3および図8に対応するものである。 FIG. 10 is a view showing an example of the appearance of a stylus having a color other than the marker color, corresponding to FIGS. 3 and 8.
図10に示すように、スタイラス200bには、先端から連続する第5および第6の領域2105、2106のそれぞれに、色が施されている。第6の領域2106の色は、1つまたは複数の所定のマーカ色から選択された色である。
As shown in FIG. 10, the
第5の領域2105に施される色は、上記所定のマーカ色以外の色である事が望ましい。なお、第5の領域2105は、例えば、棒状部材に塗布された塗料、棒状部材に貼り付けられたシール、あるいは、棒状部材を構成する色付き部材とする事ができる。また、マーカ色は、緑色等、化粧にあまり用いられず、かつ、顔の色と異なる色である事が望ましい。
Colors to be applied to the
このようなスタイラス200bを用いる場合、スタイラス検出部140は、映像のうち、検出された所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる顔の色以外の色を、塗布指定色として検出する。すなわち、スタイラス検出部140は、第5の領域2105の色を、塗布指定色として検出する。そして、化粧画像重畳部150は、検出された塗布指定色に近似する色で、化粧画像を生成する。
When using such a
なお、化粧画像テーブル510(図5参照)は、化粧色513については記述する必要がない。更に、マーカ色を1色とし、対象領域をスタイラス200b毎に限定しない場合、マーカ色毎に化粧画像の内容を予め記述した化粧画像テーブルは、必ずしも必要ない。また、画像処理装置100は、かかるテーブルに代えて、マーカ色と、対象領域毎に化粧色以外の化粧画像データとを記述した、化粧画像テーブルを用いてもよい。
The makeup image table 510 (see FIG. 5) does not need to be described for the
図11は、マーカ色および塗布指定色を塗布したスタイラス200bを用いる場合の、画像処理装置100の動作の一例を示すフローチャートであり、図6に対応するものである。図6と同一部分には同一符号を付し、これについての説明を省略する。
FIG. 11 is a flowchart showing an example of the operation of the
スタイラス検出部140は、画像にマーカ色の部分が存在すると判定されると(S1300:YES)、処理をステップS1310bへ進める。
If it is determined that the marker color part is present in the image (S1300: YES), the
ステップS1310bにおいて、スタイラス検出部140は、マーカ色の部分の周辺領域で、顔の色以外の色の検出を行い、顔の色以外の色の部分が存在するか否かを判定する。より具体的には、スタイラス検出部140は、例えば、顔位置取得部130が顔領域を検出する場合、検出された顔領域の色ヒストグラム情報に基づいて、肌、唇、目、睫毛、および眉毛部分を含む顔の各部の色を推定する。そして、スタイラス検出部140は、推定された色と異なり、かつ、所定の面積を有する部分の色を、顔の色以外の色として検出する。
In step S1310b, the
例えば、画像に図10に示すスタイラス200bの第5および第6の領域2105、2106が含まれる場合、第6の領域2106がマーカ色であるため、スタイラス検出部140は、第5の領域2105の色を検出する。
For example, in the case where the image includes the fifth and
スタイラス検出部140は、マーカ色の部分の周辺領域に顔の色以外の色の部分が存在する場合(S1310b:YES)、処理をステップS1320bへ進める。また、スタイラス検出部140は、マーカ色の部分の周辺領域に顔の色以外の色の部分が存在しない場合(S1310b:NO)、処理を後述のステップS1410bへ進める。
The
ステップS1320bにおいて、スタイラス検出部140は、ステップS1310bで検出された色を、塗布指定色として取得する。
In step S1320b, the
なお、スタイラス検出部140は、映像においてマーカ色の部分を追跡し、マーカ色と同じ動きをする色を、上述の顔の色以外の色であると判定してもよい。
The
ステップS1410bにおいて、スタイラス検出部140は、塗布指定色を取得済みであり、かつ、いずれかの対象領域への化粧動作が行われたか否かを判定する。すなわち、スタイラス検出部140は、検出されたマーカ色の部分(スタイラス200b)が、予め定められた対象領域のいずれかに近接しているか否かを判定する。
In step S1410b, the
スタイラス検出部140は、塗布指定色を取得済みであり、かつ、対象領域への化粧動作が行われた場合(S1410b:YES)、処理をステップS1510bへ進める。この際、スタイラス検出部140は、塗布指定色および化粧動作の対象となった対象領域を示す情報を、上述のマーカ色を示す情報に代えて、化粧画像重畳部150へ出力する。また、スタイラス検出部140は、塗布指定色を取得されていない場合、あるいは、対象領域への化粧動作が行われていない場合(S1410b:NO)、処理をステップS1700へ進める。
The
ステップS1510bにおいて、化粧画像重畳部150は、入力された情報に基づき、塗布指定色に近似する色の化粧画像が、対象領域に既に重畳されているか否かを判定する。化粧画像重畳部150は、塗布指定色に近似する色の化粧画像が対象領域に重畳されている場合(S1510b:YES)、処理をステップS1700へ進める。また、化粧画像重畳部150は、塗布指定色に近似する色の化粧画像が対象領域に重畳されていない場合(S1510b:NO)、処理をステップS1610bへ進める。
In step S1510b, the makeup
ステップS1610bにおいて、化粧画像重畳部150は、塗布指定色に近似する色の化粧画像を生成し、撮影画像への重畳を開始して、処理をステップS1700へ進める。
In step S1610b, the makeup
より具体的には、化粧画像重畳部150は、例えば、情報格納部110に予め格納された、色空間を分割した複数の分割色空間と、各分割色空間における平均色等の代表色とを示す情報を参照する。そして、化粧画像重畳部150は、塗布指定色が属する分割色空間を特定し、特定された分割色空間の代表色を、化粧画像の化粧色に決定する。
More specifically, the makeup
なお、化粧画像重畳部150は、取得された塗布指定色をそのまま化粧色として採用してもよいし、取得された塗布指定色に対して、所定の色変換を行って得られる色を、化粧色として採用してもよい。更に、化粧画像重畳部150は、照明状態等の周囲の環境情報を取得し、取得された情報に基づいて、色変換の内容を決定してもよい。
In addition, the makeup
図12は、スタイラス200bの塗布指定色によるバーチャル化粧映像の違いの例を示す図であり、図2Cおよび図7に対応するものである。図2Cおよび図7と対応する部分には同一符号を付し、これについての説明を省略する。
FIG. 12 is a view showing an example of the difference in virtual makeup image depending on the application designation color of the
図12A〜図12Cに示すように、それぞれ異なる塗布指定色が施されたスタイラス200b1〜200b3のそれぞれを用いて、唇に対して化粧動作が行われたとする。この場合、画像処理装置100は、各スタイラス200bの塗布指定色に近似する色の化粧画像412b1〜412b3を、化粧動作の対象となった唇領域に重畳させる。
As shown in FIG 12A~ Figure 12C, by using each of the
マーカ色に基づいて化粧色を決定する場合、識別可能なマーカ色(色配置パターン)の数に応じて化粧画像の種類が制限されるとともに、マーカ色と化粧色との対応関係を予め登録しておく必要がある。 When the cosmetic color is determined based on the marker color, the type of cosmetic image is limited according to the number of distinguishable marker colors (color arrangement patterns), and the correspondence between the marker color and the cosmetic color is registered in advance. Need to be
これに対し、マーカ色に基づいて図10に示すようなスタイラス200bを検出し、検出されたスタイラス200bから塗布指定色を取得する場合、上述の制限はなく、マーカ色と化粧色との対応関係を予め設定しておく必要もない。すなわち、マーカ色と塗布指定色との組み合わせを採用する事により、画像処理装置100は、色の柔軟性に富んだ化粧画像を生成することができ、バーチャル化粧のバリエーションを広げる事ができる。
On the other hand, when the
<その他の変形例>
また、画像処理装置100が行うマーカ色(色配置パターン)と化粧画像との対応付けは、上述の例に限定されない。例えば、化粧領域512および化粧濃さ514は、必ずしも、マーカ色毎に限定されていなくてもよい。これにより、ユーザ300は、1つのスタイラス200で、複数あるいは全ての対象領域へのバーチャル化粧を行う事ができる。
<Other Modifications>
Further, the association between the marker color (color arrangement pattern) and the makeup image performed by the
また、画像処理装置100に使用されるスタイラス200の形状、スタイラス200におけるマーカ色および塗布指定色の配置、および、色配置パターンの構成は、上述の例に限定されない。例えば、スタイラス200は、各種化粧品により近い形状や素材であってもよく、例えば、平刷毛状の形状および素材であってもよい。
Further, the shape of the
また、画像処理装置100は、ユーザ300からマーカ色の入力を受け付けてもよい。この場合、スタイラス検出部140は、例えば、バーチャル化粧の実施に先立って、撮影映像からスタイラス200の部分を取得するためのスタイラス登録画面を、液晶ディスプレイ101に表示する。そして、スタイラス検出部140は、スタイラス登録画面を介して取得されたスタイラス200の部分の色を、スタイラス200に付されたマーカ色として取得する。
The
図13は、スタイラス登録画面の一例を示す図である。 FIG. 13 is a diagram showing an example of a stylus registration screen.
図13に示すように、スタイラス登録画面610は、例えば、デジタルカメラ102の撮影映像611におけるスタイラス200の位置を指定する位置指定画像612を含む。また、スタイラス登録画面610は、撮影映像611において、スタイラス200の位置が位置指定画像612に合うように、スタイラス200を持つことをユーザ300に指示するメッセージ613を含む。
As shown in FIG. 13, the
スタイラス検出部140は、予め登録された、スタイラス200の外形やスタイラス200に付されるコードパターンを撮影映像611から検出することにより、位置指定画像612にスタイラス200が合わせられたか否かを判定する。そして、スタイラス検出部140は、位置指定画像612にスタイラス200が合わせられたとき、マーカ色が付される部分(例えばスタイラス200の先端部分)の色を撮影映像611から取得し、取得された色をマーカ色として取得する。
The
なお、化粧画像重畳部150は、取得された色をそのまま化粧色としてもよいし、取得された色に予め対応付けられた色を化粧色としてもよい。
In addition, the makeup
また、画像処理装置100のスタイラス200の識別には、色情報以外の情報を併用してもよい。例えば、スタイラス検出部140は、スタイラス200にRFID(Radio Frequency Identification)タグが搭載されている場合、RFIDタグからの無線信号が示す情報と、スタイラス200の色情報との組み合わせに基づいて、スタイラス200を識別してもよい。
In addition, information other than color information may be used in combination for identification of the
また、画像処理装置100が行う化粧画像の重畳は、上述の対象領域に制限しなくてもよい。すなわち、画像処理装置100は、顔の全体の各部を、化粧動作の対象として認識してもよい。
Moreover, the superposition of the makeup image performed by the
この場合において、より実際の化粧に近い感覚をユーザ300に与えたい場合、スタイラス検出部140は、ユーザ300がスタイラス200を顔の表面に接触させたか否かを検出し、スタイラス200が接触した部分を、化粧領域として決定することが望ましい。かかる検出は、例えば、顔の表面の各部の3次元位置と、スタイラス200の先端の3次元位置とを、それぞれ高精度に検出したり、スタイラス200の先端に搭載された押圧センサのセンサ情報を無線で受信する事により、行うことができる。
In this case, when it is desired to give the user 300 a feeling closer to actual makeup, the
あるいは、スタイラス検出部140は、更に、対象領域付近におけるスタイラス200(マーカ色の領域)の動きや、対象領域とスタイラス200との更に細かい位置関係を解析して、かかる対象領域に対する化粧動作が行われたか否かを判定してもよい。具体的には、例えば、スタイラス検出部140は、対象領域毎に、所定のスタイラス200の動きのパターン(ジェスチャ)を予め化粧動作として登録しておき、かかるジェスチャを検出することにより、化粧動作の判定を行う。
Alternatively, the
ジェスチャは、例えば、顔に設定された複数の基準点を用いて定義することができる。 The gesture can be defined, for example, using a plurality of reference points set on the face.
図14は、ジェスチャの定義を説明するための図である。 FIG. 14 is a diagram for explaining the definition of a gesture.
図14に示すように、顔620には、複数の基準点(621)A〜F、X〜Zが定義されている。基準点の位置は、顔特徴点を基準として定められる。また、化粧の対象領域のそれぞれに、1つまたは複数の基準点が定義されている。
As shown in FIG. 14, in the
例えば、情報格納部110には、対象領域毎に、1つまたは複数の基準点とスタイラス200との相対位置関係の時間変化を、当該対象領域に対する化粧動作として記述したジェスチャテーブルが、予め格納されている。
For example, the
例えば、上唇の化粧動作は、基準点A、基準点B(または基準点Bと基準点Dとの中点)、基準点Cの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動き(ユーザ300のジェスチャ)である。また、下唇の化粧動作は、基準点A、基準点F(または基準点Fと基準点Eとの中点)、基準点Cの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動きである。
For example, the makeup operation of the upper lip may be performed by the
また、右頬の化粧動作は、基準点Zの周辺でスタイラス200が数回回転するような、スタイラス200の動きである。また顔全体に対するファンデーションの化粧動作は、基準点X、基準点Y、基準点Zの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動きである。
Also, the makeup operation of the right cheek is a movement of the
化粧画像重畳部150は、映像から検出されるスタイラス200の位置の時間変化を、ジェスチャテーブルに記述された各化粧動作の内容と比較することにより、各対象領域に対する化粧動作が行われたか否かを判定する。
Whether the makeup operation has been performed on each target area by comparing the time change of the position of the
逆に、画像処理装置100は、単にスタイラス200が顔に近付いた事、あるいは、単にスタイラス200が映像から検出された事を条件として、スタイラス200の種別に予め対応付けられた化粧画像の撮影映像への重畳を開始してもよい。
On the contrary, the
また、画像処理装置100が、スタイラス200の別により変化させる化粧画像の内容は、上述の例に限定されない。すなわち、化粧画像テーブル510(図5参照)が記述する化粧画像の内容は、マーカ色(色配置パターン)毎に、化粧の光沢等の画像効果や、化粧剤の持ちに相当する化粧画像の持続時間等が異なるものであってもよい。
Moreover, the content of the makeup image which the
また、情報格納部110は、インターネット上の所定のサーバ等にアクセスして、化粧画像テーブル510(図5参照)の内容を取得あるいは更新してもよい。情報格納部110は、かかるテーブルの取得あるいは更新を、定期的に、あるいは、ユーザまたはサーバからの指示を受けたタイミングで行う。これにより、画像処理装置100は、スタイラス200の増加や変更に柔軟に対応する事ができるとともに、メイクの流行を反映したバーチャル化粧を、ユーザ300に提供する事ができる。
Further, the
また、スタイラス検出部140は、化粧を拭き取るための色として予め定められた色が映像に含まれるとき、かかる色の部分を、消しゴムスタイラスとして検出してもよい。そして、スタイラス検出部140は、消しゴムスタイラスを化粧画像が重畳された部分に近接させる動作が行われた事を条件として、当該化粧画像の重畳を終了させてもよい。
Moreover, the
また、画像処理装置100が対象とする化粧の概念には、顔全体へのファンデーションの塗布、顔への描画、眼鏡の装着、カラーコンタクトの装着、眉毛や髪の毛への毛染め等を含めてもよい。いずれの場合において、スタイラスは、眼鏡型のプレートやブラシ型の道具等、対応する動作に用いられる道具を模したものである事が望ましい。
In addition, the concept of makeup targeted by the
また、画像処理装置100が適用される装置は、上述の例に限定されない。画像処理装置100は、例えば、スマートフォン、タブレット型端末、パーソナルコンピュータ、あるいはデジタルカメラ等に適用されてもよい。
Further, the device to which the
また、画像処理装置100の構成の一部は、ネットワーク上のサーバ等に配置される等して、画像処理装置100の構成の他の部分と離隔していてもよい。この場合、これら部分のそれぞれは、互いに通信を行うための通信部を備える必要がある。
In addition, a part of the configuration of the
<本開示のまとめ>
本開示の画像処理装置は、映像を撮影する撮影部と、撮影された前記映像を画面に表示する表示部と、前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する。
<Summary of this disclosure>
An image processing apparatus according to an embodiment of the present disclosure includes an imaging unit configured to capture an image, a display unit configured to display the captured image on a screen, and a face position acquisition unit configured to acquire the position of a face included in the image from the image. When a portion of a predetermined marker color is included in the image, a stylus detection unit that detects the portion as a stylus from the image, and the face portion of the image on condition that the stylus is detected And a makeup image superposition unit for superposing a makeup image associated with the predetermined marker color in advance.
なお、上記画像処理装置において、前記スタイラス検出部は、前記スタイラスの位置を取得し、取得された前記顔の位置および前記スタイラスの位置に基づいて、ユーザが前記スタイラスを前記顔に近接させる化粧動作を行ったか否かを判定し、前記化粧画像重畳部は、前記化粧動作が行われた事を条件として、前記化粧画像を重畳してもよい。 In the image processing apparatus, the stylus detection unit acquires the position of the stylus, and based on the acquired position of the face and the position of the stylus, the user brings the stylus close to the face. The makeup image superimposing unit may superimpose the makeup image on condition that the makeup operation has been performed.
また、上記画像処理装置において、前記化粧画像は、顔特徴点を基準として予め定められた領域に化粧が塗布されたときの前記化粧の状態を表す画像であり、前記顔位置取得部は、前記顔の顔特徴点の位置を取得し、前記化粧画像重畳部は、取得された前記顔特徴点の位置および前記スタイラスの位置に基づき、前記スタイラスを前記領域に近接させる化粧動作が行われた事を条件として、前記化粧画像を重畳してもよい。 Further, in the image processing apparatus, the makeup image is an image representing a state of the makeup when makeup is applied to an area predetermined based on a face feature point, and the face position acquisition unit The position of the face feature point of the face is acquired, and the makeup image superposing unit performs the makeup operation for bringing the stylus close to the area based on the acquired position of the face feature point and the position of the stylus. And the makeup image may be superimposed.
また、上記画像処理装置において、前記スタイラス検出部は、前記映像から前記所定のマーカ色の部分を検出し、検出された部分に基づいて前記スタイラスの位置を検出し、検出された前記スタイラスの位置を前記映像において追跡してもよい。 In the image processing apparatus, the stylus detection unit detects the portion of the predetermined marker color from the image, detects the position of the stylus based on the detected portion, and detects the detected position of the stylus. May be tracked in the video.
また、上記画像処理装置において、前記スタイラス検出部は、前記映像のうち、検出された前記所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる前記顔の色以外の色を、塗布指定色として検出し、前記化粧画像重畳部は、検出された前記塗布指定色に近似する色で、前記化粧画像を生成してもよい。 In the image processing apparatus, the stylus detection unit applies a color other than the color of the face included in the peripheral area from the peripheral area of the part of the detected predetermined marker color in the image. The makeup image may be generated as a color that is detected as a designated color, and the makeup image superposition unit approximates the detected application designation color.
また、上記画像処理装置において、前記化粧画像重畳部は、複数の前記所定のマーカ色について、前記所定のマーカ色毎に前記化粧画像の内容を予め記述した化粧情報テーブルを参照して、重畳する前記化粧画像を決定し、前記化粧テーブルが記述する前記化粧画像の内容は、前記所定のマーカ色毎に、前記化粧画像の色、濃さ、および領域の少なくとも1つが異なってもよい。 In the image processing apparatus, the makeup image superposition unit superimposes a plurality of predetermined marker colors with reference to a makeup information table in which the contents of the makeup image are previously described for each of the predetermined marker colors. The makeup image may be determined, and the contents of the makeup image described by the makeup table may be different in at least one of the color, the density, and the area of the makeup image for each of the predetermined marker colors.
また、上記画像処理装置において、前記所定のマーカ色は、所定の複数色から成る所定の色配置パターンであってもよい。 In the image processing apparatus, the predetermined marker color may be a predetermined color arrangement pattern including a plurality of predetermined colors.
本開示のスタイラスは、上記画像処理装置に使用されるスタイラスであって、棒状部材であり、前記棒状部材の先端部を含む領域に前記所定のマーカ色が施されている。 The stylus of the present disclosure is a stylus used in the image processing apparatus, and is a rod-like member, and the predetermined marker color is applied to a region including the tip of the rod-like member.
本開示の画像処理方法は、映像を撮影するステップと、撮影された前記映像を画面に表示するステップと、前記映像から、前記映像に含まれる顔の位置を取得するステップと、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する。 The image processing method according to the present disclosure includes a step of shooting a video, a step of displaying the shot video on a screen, a step of acquiring the position of a face included in the video from the video, and Detecting the portion as a stylus from the image when the portion of the marker color is included, and the predetermined marker color for the portion of the face of the image on condition that the stylus is detected And V. superimposing a makeup image associated with in advance.
本発明は、化粧動作によりバーチャル化粧を行う事ができる画像処理装置、スタイラス、および画像処理方法として有用である。 The present invention is useful as an image processing apparatus, a stylus, and an image processing method capable of performing virtual makeup by a makeup operation.
100 画像処理装置
101 液晶ディスプレイ
102 デジタルカメラ
110 情報格納部
120 撮影部
130 顔位置取得部
140 スタイラス検出部
150 化粧画像重畳部
160 表示部
200、200a、200b スタイラス
100
Claims (9)
撮影された前記映像を画面に表示する表示部と、
前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、
前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、
前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する、
画像処理装置。 A shooting unit for shooting a video;
A display unit for displaying the photographed image on a screen;
A face position acquisition unit for acquiring the position of the face included in the video from the video;
A stylus detection unit configured to detect the portion as a stylus from the image when the image includes a portion of a predetermined marker color;
And a cosmetic image superimposing unit that superimposes a cosmetic image, which is previously associated with the predetermined marker color, on the face portion of the image, on condition that the stylus is detected.
Image processing device.
前記スタイラスの位置を取得し、取得された前記顔の位置および前記スタイラスの位置に基づいて、ユーザが前記スタイラスを前記顔に近接させる化粧動作を行ったか否かを判定し、
前記化粧画像重畳部は、
前記化粧動作が行われた事を条件として、前記化粧画像を重畳する、
請求項1に記載の画像処理装置。 The stylus detection unit
The position of the stylus is acquired, and based on the acquired position of the face and the position of the stylus, it is determined whether the user has performed a makeup operation to bring the stylus close to the face.
The makeup image superposition unit is
Superimposing the makeup image on condition that the makeup operation has been performed,
The image processing apparatus according to claim 1.
前記顔位置取得部は、
前記顔の顔特徴点の位置を取得し、
前記化粧画像重畳部は、
取得された前記顔特徴点の位置および前記スタイラスの位置に基づき、前記スタイラスを前記領域に近接させる化粧動作が行われた事を条件として、前記化粧画像を重畳する、
請求項1に記載の画像処理装置。 The makeup image is an image representing the state of the makeup when makeup is applied to an area predetermined based on a face feature point,
The face position acquisition unit
Get the position of the face feature point of the face,
The makeup image superposition unit is
The makeup image is superimposed on the condition that a makeup operation for bringing the stylus close to the area is performed based on the acquired position of the face feature point and the position of the stylus.
The image processing apparatus according to claim 1.
前記映像から前記所定のマーカ色の部分を検出し、検出された部分に基づいて前記スタイラスの位置を検出し、検出された前記スタイラスの位置を前記映像において追跡する、
請求項1に記載の画像処理装置。 The stylus detection unit
Detecting a portion of the predetermined marker color from the image, detecting a position of the stylus based on the detected portion, and tracking the position of the detected stylus in the image;
The image processing apparatus according to claim 1.
前記映像のうち、検出された前記所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる前記顔の色以外の色を、塗布指定色として検出し、
前記化粧画像重畳部は、
検出された前記塗布指定色に近似する色で、前記化粧画像を生成する、
請求項1に記載の画像処理装置。 The stylus detection unit
The color other than the color of the face included in the peripheral area is detected as the application designation color from the peripheral area of the detected part of the predetermined marker color in the video.
The makeup image superposition unit is
Generating the makeup image with a color approximating the detected application color;
The image processing apparatus according to claim 1.
複数の前記所定のマーカ色について、前記所定のマーカ色毎に前記化粧画像の内容を予め記述した化粧情報テーブルを参照して、重畳する前記化粧画像を決定し、
前記化粧テーブルが記述する前記化粧画像の内容は、前記所定のマーカ色毎に、前記化粧画像の色、濃さ、および領域の少なくとも1つが異なる、
請求項1に記載の画像処理装置。 The makeup image superposition unit is
For the plurality of predetermined marker colors, the makeup image to be superimposed is determined with reference to a makeup information table in which the contents of the makeup image are described in advance for each of the predetermined marker colors,
The content of the makeup image described by the makeup table differs in at least one of the color, the density, and the area of the makeup image for each of the predetermined marker colors.
The image processing apparatus according to claim 1.
請求項1に記載の画像処理装置。 The predetermined marker color is a predetermined color arrangement pattern consisting of a plurality of predetermined colors.
The image processing apparatus according to claim 1.
棒状部材であり、前記棒状部材の先端部を含む領域に前記所定のマーカ色が施された、
スタイラス。 A stylus used in the image processing apparatus according to claim 1, wherein the stylus is
A rod-like member, wherein the predetermined marker color is applied to a region including the tip of the rod-like member;
stylus.
撮影された前記映像を画面に表示するステップと、
前記映像から、前記映像に含まれる顔の位置を取得するステップと、
前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、
前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する、
画像処理方法。 Step of taking a picture,
Displaying the photographed image on a screen;
Acquiring the position of the face included in the video from the video;
Detecting the portion as a stylus from the image when the image includes a portion of a predetermined marker color;
Superimposing a makeup image previously associated with the predetermined marker color on the face portion of the image, on condition that the stylus is detected.
Image processing method.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015015363A JP6519853B2 (en) | 2015-01-29 | 2015-01-29 | Image processing apparatus, stylus, and image processing method |
PCT/JP2016/000234 WO2016121329A1 (en) | 2015-01-29 | 2016-01-19 | Image processing device, stylus, and image processing method |
CN201680004714.7A CN107111861B (en) | 2015-01-29 | 2016-01-19 | Image processing apparatus, stylus pen, and image processing method |
US15/003,183 US9984281B2 (en) | 2015-01-29 | 2016-01-21 | Image processing apparatus, stylus, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015015363A JP6519853B2 (en) | 2015-01-29 | 2015-01-29 | Image processing apparatus, stylus, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016139382A JP2016139382A (en) | 2016-08-04 |
JP6519853B2 true JP6519853B2 (en) | 2019-05-29 |
Family
ID=56560386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015015363A Active JP6519853B2 (en) | 2015-01-29 | 2015-01-29 | Image processing apparatus, stylus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6519853B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2189198B1 (en) * | 2008-11-20 | 2017-06-21 | Braun GmbH | Personal body care device |
US9224248B2 (en) * | 2012-07-12 | 2015-12-29 | Ulsee Inc. | Method of virtual makeup achieved by facial tracking |
EP2985732B1 (en) * | 2013-04-08 | 2017-08-02 | Panasonic Intellectual Property Corporation of America | Image processing device, image processing method, and program, capable of virtual reproduction of makeup application state |
-
2015
- 2015-01-29 JP JP2015015363A patent/JP6519853B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016139382A (en) | 2016-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107111861B (en) | Image processing apparatus, stylus pen, and image processing method | |
JP6435516B2 (en) | Makeup support device, makeup support method, and makeup support program | |
EP3479351B1 (en) | System and method for digital makeup mirror | |
JP6375480B2 (en) | Makeup support device, makeup support system, makeup support method, and makeup support program | |
CN110363867B (en) | Virtual decorating system, method, device and medium | |
JP5991536B2 (en) | Makeup support device, makeup support method, and makeup support program | |
US20200380594A1 (en) | Virtual try-on system, virtual try-on method, computer program product, and information processing device | |
US20120223956A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US11733769B2 (en) | Presenting avatars in three-dimensional environments | |
KR20090098798A (en) | Method and device for the virtual simulation of a sequence of video images | |
CA3091717C (en) | Method and device for the virtual try-on of garments based on augmented reality with multi-detection | |
WO2018005884A1 (en) | System and method for digital makeup mirror | |
CN111880709A (en) | Display method and device, computer equipment and storage medium | |
KR20120066773A (en) | A method of virtual make-up using mobile device | |
JP2018195996A (en) | Image projection apparatus, image projection method, and image projection program | |
Borges et al. | A virtual makeup augmented reality system | |
Treepong et al. | Makeup creativity enhancement with an augmented reality face makeup system | |
JP2021144582A (en) | Makeup simulation device, makeup simulation method and program | |
KR101719927B1 (en) | Real-time make up mirror simulation apparatus using leap motion | |
JP6519853B2 (en) | Image processing apparatus, stylus, and image processing method | |
JP6485629B2 (en) | Image processing apparatus and image processing method | |
CN113301243B (en) | Image processing method, interaction method, system, device, equipment and storage medium | |
CN111627118A (en) | Scene portrait showing method and device, electronic equipment and storage medium | |
WO2021106552A1 (en) | Information processing device, information processing method, and program | |
JP6078896B2 (en) | Makeup support device and makeup support method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190411 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6519853 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |