JP6519853B2 - Image processing apparatus, stylus, and image processing method - Google Patents

Image processing apparatus, stylus, and image processing method Download PDF

Info

Publication number
JP6519853B2
JP6519853B2 JP2015015363A JP2015015363A JP6519853B2 JP 6519853 B2 JP6519853 B2 JP 6519853B2 JP 2015015363 A JP2015015363 A JP 2015015363A JP 2015015363 A JP2015015363 A JP 2015015363A JP 6519853 B2 JP6519853 B2 JP 6519853B2
Authority
JP
Japan
Prior art keywords
image
makeup
stylus
color
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015015363A
Other languages
Japanese (ja)
Other versions
JP2016139382A (en
Inventor
冨田 裕人
裕人 冨田
中村 剛
中村  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015015363A priority Critical patent/JP6519853B2/en
Priority to PCT/JP2016/000234 priority patent/WO2016121329A1/en
Priority to CN201680004714.7A priority patent/CN107111861B/en
Priority to US15/003,183 priority patent/US9984281B2/en
Publication of JP2016139382A publication Critical patent/JP2016139382A/en
Application granted granted Critical
Publication of JP6519853B2 publication Critical patent/JP6519853B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、スタイラス、および画像処理方法に係り、特に、顔の撮影映像に化粧画像を重畳させる画像処理装置、スタイラス、および画像処理方法に関する。   The present invention relates to an image processing apparatus, a stylus, and an image processing method, and more particularly to an image processing apparatus, a stylus, and an image processing method for superposing a makeup image on a photographed image of a face.

従来、顔を撮影した画像に口紅やチーク等の画像を重畳して仮想的に化粧を行う、いわゆるバーチャル化粧の技術が存在する(例えば特許文献1参照)。   Conventionally, there is a so-called virtual makeup technique in which makeup is virtually performed by superimposing an image such as a lipstick or a cheek on an image obtained by capturing a face (see, for example, Patent Document 1).

特許文献1に記載の技術(以下「従来技術」という)は、顔の撮影画像と、化粧内容の指定を受け付けるための操作領域とを、タッチパネル画面に表示する。そして、従来技術は、画面に対するタッチペン操作に基づいて、顔の撮影画像に化粧画像を重畳する。このような従来技術によれば、化粧を行ったときの顔の状態をシミュレーションして表示する事ができる。   The technology described in Patent Document 1 (hereinafter referred to as “conventional technology”) displays a photographed image of a face and an operation area for receiving specification of makeup content on a touch panel screen. And a prior art superimposes a makeup image on the picked-up image of a face based on the touch pen operation with respect to a screen. According to such a conventional technique, it is possible to simulate and display the state of the face when makeup is performed.

特開2005−92588号公報JP 2005-92588 A 国際公開第2013/140776号International Publication No. 2013/140776

ところで、子供が大人の真似をして化粧遊びをする事は、よく知られている。子供によっては、化粧が施された顔を得る事だけでなく、口紅を唇で滑らせるといった大人の化粧動作を真似する事にも、大きな喜びを感じる。そこで、口紅を引く真似をしたときに顔画像に口紅の化粧画像が重畳されるというように、化粧動作(ジェスチャ)によってバーチャル化粧を実現できる事が望まれる。   By the way, it is well known that children play makeup by imitating adults. Some children feel great pleasure not only in getting a face with makeup, but also in imitating adult makeup movements, such as sliding a lipstick on their lips. Therefore, it is desirable that virtual makeup can be realized by a makeup operation (gesture) such that a makeup image of the lipstick is superimposed on the face image when imitating drawing a lipstick.

しかしながら、従来技術は、化粧動作ではなく、画面へのタッチパネル操作によってバーチャル化粧を実現するものである。   However, according to the prior art, virtual makeup is realized not by the makeup operation but by the touch panel operation on the screen.

本発明の目的は、化粧動作によりバーチャル化粧を行う事ができる画像処理装置、スタイラス、および画像処理方法を提供することである。   An object of the present invention is to provide an image processing apparatus, a stylus, and an image processing method capable of performing virtual makeup by a makeup operation.

本開示の画像処理装置は、映像を撮影する撮影部と、撮影された前記映像を画面に表示する表示部と、前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する。   An image processing apparatus according to an embodiment of the present disclosure includes an imaging unit configured to capture an image, a display unit configured to display the captured image on a screen, and a face position acquisition unit configured to acquire the position of a face included in the image from the image. When a portion of a predetermined marker color is included in the image, a stylus detection unit that detects the portion as a stylus from the image, and the face portion of the image on condition that the stylus is detected And a makeup image superposition unit for superposing a makeup image associated with the predetermined marker color in advance.

本開示のスタイラスは、上記画像処理装置に使用されるスタイラスであって、棒状部材であり、前記棒状部材の先端部を含む領域に、前記所定のマーカ色が施されている。   The stylus of the present disclosure is a stylus used in the image processing apparatus, and is a rod-like member, and the predetermined marker color is applied to a region including the tip of the rod-like member.

本開示の画像処理方法は、映像を撮影するステップと、撮影された前記映像を画面に表示するステップと、前記映像から、前記映像に含まれる顔の位置を取得するステップと、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する。   The image processing method according to the present disclosure includes a step of shooting a video, a step of displaying the shot video on a screen, a step of acquiring the position of a face included in the video from the video, and Detecting the portion as a stylus from the image when the portion of the marker color is included, and the predetermined marker color for the portion of the face of the image on condition that the stylus is detected And V. superimposing a makeup image associated with in advance.

本開示によれば、化粧動作によりバーチャル化粧を行う事ができる。   According to the present disclosure, virtual makeup can be performed by the makeup operation.

本実施の形態に係る画像処理装置の概要の一例を示す図A diagram showing an example of an outline of an image processing apparatus according to the present embodiment 本実施の形態における画像の変化の一例を示す図The figure which shows an example of the change of the image in this Embodiment 本実施の形態に係るスタイラスの外観の第1の例を示す図A diagram showing a first example of the appearance of a stylus according to the present embodiment 本実施の形態に係る画像処理装置の構成の一例を示すブロック図Block diagram showing an example of the configuration of the image processing apparatus according to the present embodiment 本実施の形態における化粧画像テーブルの内容の一例を示す図A diagram showing an example of the contents of a makeup image table in the present embodiment 本実施の形態に係る画像処理装置の動作の一例を示すフローチャートFlowchart showing an example of the operation of the image processing apparatus according to the present embodiment 本実施の形態における各種バーチャル化粧の例を示す図A figure showing an example of various virtual makeup in this embodiment 本実施の形態の変形例1に係るスタイラスの外観の一例を示す図The figure which shows an example of the external appearance of the stylus which concerns on the modification 1 of this Embodiment 本実施の形態の変形例1における化粧画像テーブルの内容の一例を示す図A figure showing an example of contents of a makeup image table in modification 1 of this embodiment 本実施の形態の変形例2に係るスタイラスの外観の一例を示す図The figure which shows an example of the external appearance of the stylus which concerns on the modification 2 of this Embodiment 本実施の形態の変形例2に係る画像処理装置の動作の一例を示すフローチャートA flowchart showing an example of the operation of the image processing apparatus according to the second modification of the present embodiment 本実施の形態の変形例2における各種バーチャル化粧の例を示す図A figure showing an example of various virtual makeup in modification 2 of this embodiment 本実施の形態におけるスタイラス登録画面の一例を示す図A diagram showing an example of a stylus registration screen in the present embodiment 本実施の形態におけるジェスチャの定義を説明するための図A diagram for explaining the definition of a gesture in the present embodiment

以下、本発明の一実施の形態について、図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

<装置の概要>
まず、本実施の形態に係る画像処理装置の概要について説明する。
<Overview of device>
First, an outline of the image processing apparatus according to the present embodiment will be described.

図1は、本実施の形態に係る画像処理装置の概要の一例を示す図である。   FIG. 1 is a view showing an example of an outline of an image processing apparatus according to the present embodiment.

図1に示すように、画像処理装置100は、例えば、折り畳み型のコンパクトミラーを模した外形を有する。画像処理装置100は、コンパクトミラーの鏡に相当する部分に、液晶ディスプレイ101を備え、更に、当該液晶ディスプレイ101の近傍に、小型のデジタルカメラ102を備えている。なお、液晶ディスプレイ101は、タッチパネル付きであってもよい。また、デジタルカメラ102は、ステレオ撮影が可能なステレオカメラであってもよい。   As shown in FIG. 1, the image processing apparatus 100 has, for example, an outer shape that simulates a folding-type compact mirror. The image processing apparatus 100 includes a liquid crystal display 101 in a portion corresponding to a mirror of a compact mirror, and further includes a small digital camera 102 in the vicinity of the liquid crystal display 101. The liquid crystal display 101 may have a touch panel. The digital camera 102 may also be a stereo camera capable of stereo photography.

画像処理装置100は、スタイラス200とセットで使用される。画像処理装置100およびスタイラス200を使用するユーザ300は、例えば、小学生の女の子である。画像処理装置100は、デジタルカメラ102で撮影された映像を左右反転させて、液晶ディスプレイ101に表示する。ユーザ300は、液晶ディスプレイ101に映し出された自分の顔を見ながら、スタイラス200を口紅やアイシャドウのチップ等の化粧道具に見立てて、大人の化粧を模倣した動作を行う。   The image processing apparatus 100 is used in combination with the stylus 200. The user 300 using the image processing apparatus 100 and the stylus 200 is, for example, a primary school girl. The image processing apparatus 100 horizontally flips an image captured by the digital camera 102 and displays the image on the liquid crystal display 101. The user 300 looks like a makeup tool such as a tip of a lipstick or an eye shadow and performs an operation imitating adult makeup while looking at his face projected on the liquid crystal display 101.

画像処理装置100は、ユーザ300が化粧動作を行ったとき、表示する映像のうち、化粧動作の対象となった領域に、化粧画像を重畳する。   When the user 300 performs the makeup operation, the image processing apparatus 100 superimposes the makeup image on the area of the image to be displayed, which is the target of the makeup operation.

図2は、液晶ディスプレイ101に映し出される画像の変化の一例を示す図である。   FIG. 2 is a view showing an example of a change of an image displayed on the liquid crystal display 101. As shown in FIG.

図2Aに示すように、液晶ディスプレイ101に映し出される画像410には、ユーザの顔411が含まれる。図2Bに示すように、ユーザ300が、スタイラス200の先で唇をなぞる動作をしたとする。すると、図2Cに示すように、画像処理装置100は、唇に化粧画像412を重畳した画像410を生成して表示する。これにより、画像処理装置100は、ユーザ300に対して、本当の化粧を行ったような感覚を与える事ができる。   As shown in FIG. 2A, the image 410 displayed on the liquid crystal display 101 includes the face 411 of the user. As shown in FIG. 2B, it is assumed that the user 300 performs an operation of tracing the lips with the tip of the stylus 200. Then, as shown in FIG. 2C, the image processing apparatus 100 generates and displays an image 410 in which the makeup image 412 is superimposed on the lips. As a result, the image processing apparatus 100 can give the user 300 a feeling that he or she did the real makeup.

ところが、このような動作を実現するためには、画像処理装置100は、ユーザ300が化粧動作を行ったときに、これを検出する必要がある。   However, in order to realize such an operation, the image processing apparatus 100 needs to detect this when the user 300 performs the makeup operation.

そこで、画像処理装置100は、デジタルカメラ102により撮影された映像から顔の位置を取得すると共に、かかる映像に所定のマーカ色の部分が含まれるとき、映像から、当該部分をスタイラス200として検出する。これにより、スタイラス200に所定のマーカ色を施しておけば、画像処理装置100は、ユーザ300がスタイラス200を顔に近接させたとき、つまり、化粧動作を行ったときに、これを検出する事ができる。   Therefore, the image processing apparatus 100 acquires the position of the face from the image captured by the digital camera 102, and when the image includes a portion of a predetermined marker color, detects the portion as the stylus 200 from the image. . Thereby, if a predetermined marker color is given to the stylus 200, the image processing apparatus 100 detects that when the user 300 brings the stylus 200 close to the face, that is, when the makeup operation is performed. Can.

図3は、スタイラス200の外観の一例を示す図である。   FIG. 3 is a view showing an example of the appearance of the stylus 200. As shown in FIG.

図3に示すように、スタイラス200は、例えば、ペン状の外形を有する棒状部材である。スタイラス200のうち、その先端部を含む領域210には、赤等の所定のマーカ色が施されている。なお、マーカ色は、撮影映像からより検出し易いように、スタイラス200の軸を中心として360度の方向の表面に施されている事が望ましい。マーカ色の領域210は、例えば、棒状部材に塗布された塗料、棒状部材に貼り付けられたシール、あるいは、棒状部材を構成する色付き部材とする事ができる。   As shown in FIG. 3, the stylus 200 is, for example, a rod-like member having a pen-like outer shape. A predetermined marker color such as red is given to the area 210 including the tip of the stylus 200. The marker color is preferably applied to the surface in the direction of 360 degrees around the axis of the stylus 200 so that it is easier to detect from the captured image. The marker color area 210 can be, for example, a paint applied to a rod-like member, a seal attached to the rod-like member, or a colored member constituting the rod-like member.

画像処理装置100は、所定の単色をマーカ色として検出してもよいし、所定の複数色のそれぞれを異なるマーカ色として検出してもよい。本実施の形態において、画像処理装置100は、所定の複数色のそれぞれを異なるマーカ色として検出するものとする。   The image processing apparatus 100 may detect a predetermined single color as a marker color, or may detect each of a plurality of predetermined colors as different marker colors. In the present embodiment, the image processing apparatus 100 detects each of a plurality of predetermined colors as different marker colors.

<装置の構成>
次に、画像処理装置100の構成について説明する。
<Device configuration>
Next, the configuration of the image processing apparatus 100 will be described.

図4は、画像処理装置100の構成の一例を示すブロック図である。   FIG. 4 is a block diagram showing an example of the configuration of the image processing apparatus 100. As shown in FIG.

図4において、画像処理装置100は、情報格納部110、撮影部120、顔位置取得部130、スタイラス検出部140、化粧画像重畳部150、および表示部160を有する。   In FIG. 4, the image processing apparatus 100 includes an information storage unit 110, an imaging unit 120, a face position acquisition unit 130, a stylus detection unit 140, a makeup image superposition unit 150, and a display unit 160.

情報格納部110は、画像から画像に含まれる人の顔や顔部品を検出するための顔特徴情報と、化粧画像を生成して映像の顔の部分に重畳するための化粧画像テーブルとを、予め格納している。   The information storage unit 110 includes face feature information for detecting a person's face and face parts included in the image from the image, and a makeup image table for generating a makeup image and superimposing it on the face portion of the video. It is stored in advance.

顔特徴情報は、例えば、多数の顔画像サンプルに基づく学習により生成された、目や唇といった顔部品の形状等の画像特徴や、顔部品の配置や顔の色ヒストグラムといった顔全体の画像特徴を示す情報である。顔部品のそれぞれには、目尻や口角といった、顔特徴点が含まれる。   The face feature information includes, for example, image features such as shapes of face parts such as eyes and lips generated by learning based on a large number of face image samples, and image features of the entire face such as arrangement of face parts and color histogram of face It is information to show. Each of the face parts includes face feature points such as the corner of the eye and the corner of the eye.

化粧画像テーブルは、複数の所定のマーカ色について、所定のマーカ色毎に、化粧画像の内容(以下「化粧画像データ」という)を予め記述したテーブルである。なお、本実施の形態において、化粧画像は、唇領域、瞼領域、および頬骨領域等の、化粧の塗布の対象となる連続した領域(以下「対象領域」という)を単位として、生成されるものとする。   The makeup image table is a table in which the contents of the makeup image (hereinafter referred to as "makeup image data") are described in advance for each of a plurality of predetermined marker colors. In the present embodiment, the makeup image is generated in units of continuous areas (hereinafter referred to as “target areas”) to which makeup is applied, such as lip areas, eyebrow areas and cheek bone areas. I assume.

図5は、化粧画像テーブルの内容の一例を示す図である。   FIG. 5 is a view showing an example of the contents of the makeup image table.

図5に示すように、化粧画像テーブル510は、マーカ色511に対応付けて、化粧領域512、化粧色513、および化粧濃さ514を記述している。化粧領域512、化粧色513、および化粧濃さ514は、対象領域毎の化粧画像データを構成する。   As shown in FIG. 5, the makeup image table 510 describes a makeup area 512, a makeup color 513, and a makeup density 514 in association with the marker color 511. The makeup area 512, the makeup color 513, and the makeup density 514 constitute makeup image data for each target area.

マーカ色511は、画像処理装置100がスタイラスを示す色として検出の対象とする色を、同一の種別のスタイラスとして認識する色毎に記述したものである。なお、マーカ色511は、ここでは色の名称で表されているが、実際には、RGB(Red, Green, Blue)といった所定の色空間における座標値の範囲等である。すなわち、マーカ色511は、ある程度の幅を有する色範囲である。   The marker color 511 describes the color to be detected as the color representing the stylus by the image processing apparatus 100 for each color that is recognized as the stylus of the same type. Although the marker color 511 is represented by the name of the color here, it is actually a range of coordinate values in a predetermined color space such as RGB (Red, Green, Blue). That is, the marker color 511 is a color range having a certain width.

化粧領域512は、例えば、口角等の顔特徴点の位置を基準として定義される、化粧画像の領域(つまり、化粧の塗布領域)である。なお、化粧領域512は、ここでは顔の領域の名称で表されているが、実際には、顔特徴点の位置を基準とする空間における座標値や関数等である。   The makeup area 512 is, for example, an area of a makeup image (that is, a makeup application area) defined based on the position of a face feature point such as a corner of the mouth. Although the makeup area 512 is represented here by the name of the area of the face, in actuality, it is a coordinate value, a function or the like in the space based on the position of the face feature point.

化粧色513は、化粧画像の色である。なお、化粧色513は、ここでは色の名称で表されているが、実際には、RGB(Red, Green, Blue)、HSV(Hue, Saturation, Value)といった所定の色空間における座標値等である。化粧色513は、必ずしも、マーカ色511と同一でなくてもよいが、マーカ色511に近似した色である事が望ましい。これにより、ユーザ300は、所望の色に近い色でのバーチャル化粧を、直感的に行うことができる。   The makeup color 513 is the color of the makeup image. In addition, although the makeup color 513 is represented by the name of color here, it is actually a coordinate value in a predetermined color space such as RGB (Red, Green, Blue), HSV (Hue, Saturation, Value), etc. is there. The makeup color 513 does not necessarily have to be the same as the marker color 511, but it is desirable that the makeup color 513 be a color close to the marker color 511. Thus, the user 300 can intuitively perform virtual makeup in a color close to the desired color.

化粧濃さ514は、撮影画像に重畳する際の化粧画像の色の濃度(透明度)である。なお、化粧濃さ514は、ここでは透明度で表されているが、実際には、撮影画像に化粧画像をαブレンド等によって重畳する際の、画素値に対する合成率等の係数である。   The makeup density 514 is the density (transparency) of the color of the makeup image when superimposed on the photographed image. Although the cosmetic density 514 is expressed here as the transparency, it is actually a coefficient such as a composition ratio with respect to the pixel value when superposing the cosmetic image on the photographed image by α blending or the like.

すなわち、化粧画像テーブル510に記述された化粧画像データが示す化粧画像は、顔特徴点を基準として予め定められた領域(対象領域)に化粧が塗布されたときの、化粧の状態を表す画像である。また、化粧領域512は、化粧の塗布の対象となる対象領域である。   That is, the makeup image indicated by the makeup image data described in makeup image table 510 is an image representing the state of makeup when makeup is applied to an area (target area) predetermined based on the face feature point. is there. In addition, the makeup area 512 is a target area to which makeup is applied.

図4の撮影部120は、例えば、上述のデジタルカメラ102を有し、ユーザ300の顔の映像を撮影する(図1参照)。そして、撮影部120は、撮影した映像を、左右方向に反転させて、顔位置取得部130、スタイラス検出部140、および化粧画像重畳部150へ出力する。   The imaging unit 120 in FIG. 4 includes, for example, the above-described digital camera 102, and captures an image of the face of the user 300 (see FIG. 1). Then, the imaging unit 120 reverses the captured video in the left-right direction, and outputs the image to the face position acquisition unit 130, the stylus detection unit 140, and the makeup image superposition unit 150.

顔位置取得部130は、入力された映像から、逐次、映像に含まれる顔の位置を取得する。より具体的には、顔位置取得部130は、顔特徴情報に基づき、顔あるいは顔部品の画像特徴のパターンマッチングを、映像を構成する画像フレームの各部分に対して行う。これにより、顔位置取得部130は、各画像フレームから、画像フレームに含まれる各顔特徴点の位置を抽出する。そして、顔位置取得部130は、抽出された顔特徴点の位置を示す情報を、スタイラス検出部140および化粧画像重畳部150へ出力する。   The face position acquisition unit 130 sequentially acquires the position of the face included in the video from the input video. More specifically, the face position acquisition unit 130 performs pattern matching of an image feature of a face or a face part on each portion of an image frame constituting a video based on face feature information. Thereby, the face position acquisition unit 130 extracts the position of each face feature point included in the image frame from each image frame. Then, the face position acquisition unit 130 outputs information indicating the position of the extracted face feature point to the stylus detection unit 140 and the makeup image superposition unit 150.

スタイラス検出部140は、入力された映像に、化粧画像テーブル510に記述されたマーカ色511(図5参照)のいずれかが含まれるとき、映像から、当該部分をスタイラスとして検出する。マーカ色の部分の検出手法としては、例えば、特許文献2に記載の、色ヒストグラム情報に基づく検出手法を採用する事ができる。   When one of the marker colors 511 (see FIG. 5) described in the makeup image table 510 is included in the input video, the stylus detection unit 140 detects the portion as a stylus from the video. As a detection method of the marker color part, for example, a detection method based on color histogram information described in Patent Document 2 can be adopted.

スタイラス検出部140は、化粧画像テーブル510の化粧領域512(図5参照)を参照して、スタイラスをいずれかの対象領域に近接させる化粧動作(図2参照)が行われたか否かを判定する。かかる判定は、入力された情報が示す顔特徴点の位置と、検出されたスタイラスの位置とに基づいて行われる。そして、スタイラス検出部140は、かかる化粧動作が行われた事を条件として、検出されたマーカ色を示す情報を、化粧画像重畳部150へ出力する。   The stylus detection unit 140 refers to the makeup area 512 (see FIG. 5) of the makeup image table 510 to determine whether a makeup operation (see FIG. 2) for bringing the stylus close to any target area has been performed. . Such determination is performed based on the position of the face feature point indicated by the input information and the position of the detected stylus. Then, the stylus detection unit 140 outputs information indicating the detected marker color to the makeup image superposition unit 150, on the condition that the makeup operation has been performed.

なお、顔部品の位置およびスタイラスの位置とは、それぞれ、映像の2次元空間における位置、実世界の3次元空間における位置、および映像の2次元空間に顔表面との距離方向の空間軸を組み合わせた3次元空間における位置のうち、いずれでもよい。   The position of the face part and the position of the stylus are respectively the position of the image in the two-dimensional space, the position of the real world in the three-dimensional space, and the two-dimensional image of the image in the two-dimensional space Any of the positions in the three-dimensional space may be used.

例えば、デジタルカメラ102がステレオカメラである場合、顔位置取得部130およびスタイラス検出部140は、ステレオ画像間の視差を算出する事により、顔部品あるいはスタイラスの3次元位置を取得する事ができる。また、映像における顔の大きさの平均値およびスタイラスの大きさの平均値が予め取得されているとする。この場合、顔位置取得部130およびスタイラス検出部140は、映像における実際の顔の大きさおよびスタイラスの大きさを検出する事により、顔部品あるいはスタイラスの3次元位置を取得する事ができる。   For example, when the digital camera 102 is a stereo camera, the face position acquisition unit 130 and the stylus detection unit 140 can acquire the three-dimensional position of a face part or a stylus by calculating the parallax between stereo images. Further, it is assumed that the average value of the size of the face and the average value of the size of the stylus in the image are obtained in advance. In this case, the face position acquisition unit 130 and the stylus detection unit 140 can acquire the three-dimensional position of the face part or the stylus by detecting the actual size of the face and the size of the stylus in the image.

化粧画像重畳部150は、スタイラスが検出された事を条件として、入力された映像の顔の部分に対し、検出されたマーカ色に予め対応付けられた化粧画像を重畳する。より具体的には、化粧画像重畳部150は、マーカ色を示す情報が入力されたとき、化粧画像テーブル510(図5参照)を参照し、当該マーカ色に対応する化粧画像データを取得する。化粧画像重畳部150は、取得した化粧画像データに基づいて化粧画像を生成し、生成された化粧画像を、入力された映像に重畳する。そして、化粧画像重畳部150は、化粧画像が適宜重畳された映像を、表示部160へ出力する。   Under the condition that the stylus is detected, the makeup image superposition unit 150 superimposes a makeup image, which is associated in advance with the detected marker color, on the face portion of the input image. More specifically, when the information indicating the marker color is input, the makeup image superposition unit 150 refers to the makeup image table 510 (see FIG. 5) and acquires makeup image data corresponding to the marker color. The makeup image superimposing unit 150 generates a makeup image based on the acquired makeup image data, and superimposes the generated makeup image on the input video. Then, the makeup image superposition unit 150 outputs, to the display unit 160, an image on which the makeup image is appropriately superimposed.

表示部160は、例えば、上記液晶ディスプレイ101(図1参照)を有し、入力された、化粧画像が適宜重畳された映像(以下「バーチャル化粧映像」という)を、当該液晶ディスプレイの画面に表示する。   The display unit 160 has, for example, the liquid crystal display 101 (see FIG. 1), and displays an input image (hereinafter referred to as “virtual makeup image”) on which the makeup image is appropriately superimposed on the screen of the liquid crystal display. Do.

画像処理装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行する事により実現される。   Although not illustrated, the image processing apparatus 100 includes, for example, a central processing unit (CPU), a storage medium such as a ROM (Read Only Memory) storing a control program, and a working memory such as a RAM (Random Access Memory). In this case, the functions of the above-described units are realized by the CPU executing a control program.

このような構成を有する画像処理装置100は、ユーザ300がスタイラス200を顔に近接させたとき、つまり、化粧動作を行ったとき、これを検出して、対応する化粧画像が重畳されたユーザ300の顔の映像を表示する事ができる。   When the user 300 brings the stylus 200 close to the face, that is, when the makeup operation is performed, the image processing apparatus 100 having such a configuration detects this and the user 300 on which the corresponding makeup image is superimposed. You can display the image of the face of.

<装置の動作>
次に、画像処理装置100の動作について説明する。
<Operation of device>
Next, the operation of the image processing apparatus 100 will be described.

図6は、画像処理装置100の動作の一例を示すフローチャートである。   FIG. 6 is a flowchart showing an example of the operation of the image processing apparatus 100.

ステップS1100において、撮影部120は、映像の撮影を開始する。かかる映像には、ユーザ300の顔やスタイラス200が含まれ得る。なお、画像処理装置100は、以降の各処理を、映像を構成する画像フレーム毎に、順次行う。   In step S1100, the shooting unit 120 starts shooting a video. Such an image may include the face of the user 300 and the stylus 200. Note that the image processing apparatus 100 sequentially performs each of the subsequent processes for each image frame that constitutes a video.

ステップS1200において、顔位置取得部130は、画像に顔が含まれる場合、当該画像から、顔特徴点の位置を検出する。   In step S1200, when the image includes a face, the face position acquisition unit 130 detects the position of the face feature point from the image.

ステップS1300において、スタイラス検出部140は、画像からマーカ色の検出を行い、画像にマーカ色の部分が存在するか否かを判定する。スタイラス検出部140は、画像にマーカ色の部分が存在する場合(S1300:YES)、処理をステップS1400へ進める。また、スタイラス検出部140は、画像にマーカ色の部分が存在しない場合(S1300:NO)、処理を後述のステップS1700へ進める。   In step S1300, the stylus detection unit 140 detects a marker color from the image, and determines whether or not there is a marker color part in the image. The stylus detection unit 140 advances the process to step S1400 when the marker color portion is present in the image (S1300: YES). Further, when the marker color portion does not exist in the image (S1300: NO), the stylus detection unit 140 advances the process to step S1700 described later.

ステップS1400において、スタイラス検出部140は、検出されたマーカ色に対応付けられた対象領域(化粧領域512、図5参照)への化粧動作が行われたか否かを判定する。すなわち、スタイラス検出部140は、検出されたマーカ色の部分(スタイラス200)が、対応する対象領域に近接しているか否かを判定する。なお、近接しているとは、例えば、スタイラス200の位置と、顔特徴点の位置により定まる対象領域との距離が、所定の値以下である事である。   In step S1400, the stylus detection unit 140 determines whether a makeup operation has been performed on the target area (makeup area 512, see FIG. 5) associated with the detected marker color. That is, the stylus detection unit 140 determines whether or not the detected marker color portion (stylus 200) is close to the corresponding target area. Note that proximity means that, for example, the distance between the position of the stylus 200 and the target area determined by the position of the face feature point is equal to or less than a predetermined value.

スタイラス検出部140は、化粧動作が行われた場合(S1400:YES)、処理をステップS1500へ進める。また、スタイラス検出部140は、化粧動作が行われていない場合(S1400:NO)、処理をステップ後述のS1700へ進める。   If the makeup operation has been performed (S1400: YES), the stylus detection unit 140 advances the process to step S1500. Further, when the makeup operation is not performed (S1400: NO), the stylus detection unit 140 advances the process to S1700 which will be described later.

なお、スタイラス検出部140は、化粧画像テーブル510(図5参照)に基づき、対象領域毎に、検出の対象となるマーカ色を限定してもよい。この場合、ステップS1300、S1400は、1つの処理とする事ができる。また、スタイラス検出部140は、顔位置取得部130が顔領域を検出する場合、検出された顔領域に限定して、各マーカ色の検出を行ってもよい。   The stylus detection unit 140 may limit the marker color to be detected for each target area based on the makeup image table 510 (see FIG. 5). In this case, steps S1300 and S1400 can be one process. In addition, when the face position acquisition unit 130 detects a face area, the stylus detection unit 140 may detect each marker color limited to the detected face area.

また、ユーザ300は、化粧動作を行うつもりがないにもかかわらず、誤ってスタイラス200を対象領域に近接させてしまう場合もある。したがって、スタイラス検出部140は、スタイラス200が対象領域に近接した状態が、1秒等の所定の時間以上持続したことを条件として、化粧動作が行われたと判定してもよい。   Also, the user 300 may erroneously bring the stylus 200 close to the target area even though the user 300 does not intend to perform the makeup operation. Therefore, the stylus detection unit 140 may determine that the makeup operation has been performed on the condition that the state in which the stylus 200 is in proximity to the target area lasts for a predetermined time such as one second or more.

ステップS1500において、化粧画像重畳部150は、検出されたマーカ色に対応付けられた化粧画像が重畳済みか否かを判定する。なお、当該化粧画像は、検出されたマーカ色に対応する化粧画像データ(512〜514、図5参照)により生成される画像である。化粧画像重畳部150は、化粧画像が重畳済みではない場合(S1500:NO)、処理をステップS1600へ進める。また、化粧画像重畳部150は、化粧画像が重畳済みである場合(S1500:YES)、処理を後述のステップS1700へ進める。   In step S1500, the makeup image superposition unit 150 determines whether or not the makeup image associated with the detected marker color has been superimposed. The makeup image is an image generated by makeup image data (512 to 514, see FIG. 5) corresponding to the detected marker color. If the makeup image has not been superimposed (S1500: NO), makeup image superposition unit 150 advances the process to step S1600. In addition, when the makeup image has been superimposed (S1500: YES), the makeup image superposition unit 150 advances the process to step S1700 described later.

ステップS1600において、化粧画像重畳部150は、検出されたマーカ色に対応付けられた化粧画像を生成し、撮影画像への重畳を開始する。すなわち、化粧画像重畳部150は、以降の映像において、化粧画像の重畳を継続する。かかる化粧画像の重畳の継続は、例えば、顔特徴点の最新の位置に基づいて化粧画像を再生成したり、生成された化粧画像を顔特徴点の最新の位置に合わせ込む形で変形する事により行われる。   In step S1600, the makeup image superposition unit 150 generates a makeup image associated with the detected marker color, and starts superposition on the photographed image. That is, the makeup image superposition unit 150 continues the superposition of the makeup image in the subsequent images. The continuation of the superposition of the makeup image may be, for example, regenerating the makeup image based on the latest position of the face feature point or deforming the generated makeup image so as to fit the latest position of the face feature point. It is done by

なお、ユーザ300がスタイラス200の使用を開始してから所望の化粧動作を完了するまでには数秒程度の時間が掛かる。したがって、化粧画像重畳部150は、所定のマーカ色が検出されてから対応する化粧画像の重畳を開始するまでに、数秒程度の時間差を設ける事が望ましい。   It takes a few seconds or so from the user 300 starting using the stylus 200 to completing the desired makeup operation. Therefore, it is preferable that the makeup image superimposing unit 150 provide a time difference of about several seconds after detection of a predetermined marker color until start of superimposing the corresponding makeup image.

ステップS1700において、表示部160は、生成されたバーチャル化粧映像を表示する。なお、バーチャル化粧映像は、化粧画像が重畳されている映像だけではなく、化粧画像が重畳されていない映像をも含む。   In step S1700, the display unit 160 displays the generated virtual makeup image. The virtual makeup image includes not only an image on which a makeup image is superimposed but also an image on which a makeup image is not superimposed.

ステップS1800において、化粧画像重畳部150は、ユーザ操作等によりバーチャル化粧映像を生成して表示する処理の終了を指示されたか否かを判定する。化粧画像重畳部150は、処理の終了を指示されていない場合(S1800:NO)、処理をステップS1200へ戻し、次の画像フレーム、あるいは、最新の画像フレームに対する処理に移る。また、化粧画像重畳部150は、処理の終了を指示された場合(S1800:YES)、一連の処理を終了する。   In step S1800, makeup image superimposing unit 150 determines whether an instruction to end the process of generating and displaying a virtual makeup image has been issued by a user operation or the like. If the makeup image superimposing unit 150 is not instructed to finish the process (S1800: NO), the process returns to step S1200, and shifts to the process for the next image frame or the latest image frame. Further, when an instruction to end the process is given (S1800: YES), the makeup image superposition unit 150 ends the series of processes.

このような動作により、画像処理装置100は、ユーザ300がスタイラス200を唇等の対象領域に近接させる化粧動作を行ったとき、当該領域に化粧画像が重畳されたバーチャル化粧映像を、生成して表示する事ができる。   By such an operation, the image processing apparatus 100 generates a virtual makeup image in which a makeup image is superimposed on the area when the user 300 performs a makeup operation to make the stylus 200 approach the target area such as a lip. It can be displayed.

なお、マーカ色の違い(つまりスタイラス200の違い)は、バーチャル化粧映像において、化粧画像の領域や色の違いとなって現れる。   The difference in marker color (that is, the difference in the stylus 200) appears as a difference in the area and color of the makeup image in the virtual makeup image.

図7は、スタイラス200によるバーチャル化粧映像の違いの例を示す図であり、図2Cに対応するものである。図2Cと対応する部分には同一符号を付し、これについての説明を省略する。   FIG. 7 is a view showing an example of the difference between virtual makeup images by the stylus 200, and corresponds to FIG. 2C. The parts corresponding to those in FIG. 2C are assigned the same reference numerals and descriptions thereof will be omitted.

図7Aは、マーカ色が赤のスタイラスを使用した場合の例である。図7Bは、マーカ色がピンクのスタイラスを使用した場合の例である。図7Cは、マーカ色が水色のスタイラスを使用した場合の例である。図7A〜図7Cに示すスタイラス200〜200のマーカ色は、順に、赤、ピンク、水色である。 FIG. 7A is an example in the case of using a stylus whose marker color is red. FIG. 7B is an example in the case of using a stylus whose marker color is pink. FIG. 7C is an example in the case of using a stylus whose marker color is light blue. The marker colors of the styluses 200 1 to 200 3 shown in FIGS. 7A to 7C are red, pink, and light blue in order.

図7Aに示すように、赤のスタイラス200が用いられた場合、画像処理装置100は、化粧画像テーブル510(図5参照)に基づき、唇部分に赤の化粧画像412を重畳させる。同様に、画像処理装置100は、図7Bに示すように、ピンクのスタイラス200が用いられた場合、唇部分にコーラルピンクの化粧画像412を重畳させる。また、画像処理装置100は、図7Cに示すように、水色のスタイラス200が用いられた場合、唇部分にブルーグレーの化粧画像412を重畳させる。 As shown in FIG. 7A, if the stylus 200 1 Red is used, the image processing apparatus 100, based on the makeup image table 510 (see FIG. 5), the lips partial superposing decorative image 412 1 red. Similarly, the image processing apparatus 100 includes, as shown in FIG. 7B, when the pink stylus 200 2 was used, to superimpose coral pink makeup image 412 2 lips portions. The image processing apparatus 100 includes, as shown in FIG. 7C, if a light blue stylus 200 3 were used, to superimpose the decorative image 412 3 blue gray lips portions.

このように、画像処理装置100は、スタイラス200のマーカ色に応じて、異なる化粧画像をユーザの顔の映像に重畳させる。   Thus, the image processing apparatus 100 causes different makeup images to be superimposed on the image of the user's face according to the marker color of the stylus 200.

<本実施の形態の効果>
以上のように、本実施の形態に係る画像処理装置100は、撮影された映像から、映像に含まれる顔の位置を取得し、映像に所定のマーカ色の部分が含まれるとき、更に当該部分をスタイラスとして検出する。そして、本実施の形態に係る画像処理装置100は、撮影された映像を表示するが、その際に、スタイラスが検出された事を条件として、映像の顔の部分に対し、所定のマーカ色に予め対応付けられた化粧画像を重畳する。これにより、画像処理装置100は、化粧動作によりバーチャル化粧を行う事を可能にする。
<Effect of this embodiment>
As described above, the image processing apparatus 100 according to the present embodiment obtains the position of the face included in the video from the captured video, and when the video includes a portion of a predetermined marker color, the portion Is detected as a stylus. Then, the image processing apparatus 100 according to the present embodiment displays the captured video, but at that time, on the condition that the stylus is detected, a predetermined marker color is applied to the face portion of the video. The makeup image associated in advance is superimposed. Thus, the image processing apparatus 100 can perform virtual makeup by the makeup operation.

また、画像処理装置100は、図5の化粧画像テーブル510に示すように、マーカ色毎に化粧の対象領域を限定している。これにより、画像処理装置100は、スタイラス200毎に定められた対象領域以外の部分にスタイラス200が近接したとしても、かかる部分に対する化粧画像の重畳を行わない。これにより、画像処理装置100は、例えば、バーチャル化粧映像において口紅が誤って瞼に塗布されるといった事態を回避する事ができる。   Further, as shown in the makeup image table 510 of FIG. 5, the image processing apparatus 100 limits the makeup target area for each marker color. As a result, even if the stylus 200 approaches a portion other than the target area defined for each of the stylus 200, the image processing apparatus 100 does not superimpose the cosmetic image on the portion. Thus, the image processing apparatus 100 can avoid, for example, a situation where a lipstick is accidentally applied to the eyelid in a virtual makeup image.

<変形例1:スタイラス識別手法の他の例>
なお、スタイラス200の識別手法は、上述の例に限定されない。例えば、画像処理装置100は、所定の複数色から成る所定の色配置パターンの部分が含まれるとき、映像から、当該部分を上述のマーカ色として検出してもよい。この場合、色配置パターンをスタイラス200の識別コードとして用いる事ができ、スタイラス200の検出精度の向上が可能になるとともに、識別されるスタイラス200の数を増大させる事ができる。
<Modification 1: Another Example of Stylus Identification Method>
The identification method of the stylus 200 is not limited to the above-described example. For example, when the image processing apparatus 100 includes a portion of a predetermined color arrangement pattern of a plurality of predetermined colors, the portion may be detected as the above-described marker color from the image. In this case, the color arrangement pattern can be used as the identification code of the stylus 200, and the detection accuracy of the stylus 200 can be improved, and the number of the stylus 200 identified can be increased.

図8は、色配置パターンを施したスタイラスの外観の一例を示す図であり、図3に対応するものである。   FIG. 8 is a view showing an example of the appearance of a stylus having a color arrangement pattern, which corresponds to FIG.

図8に示すように、スタイラス200aには、先端から連続する第1〜第4の領域210〜210のそれぞれに、色が施されている。第1〜第4の領域210〜210の間で、施される色は同一であってもよいし異なっていてもよい。但し、第1〜第4の領域210〜210のうち少なくとも隣り合う領域210の間では、色が異なっている事が望ましい。また、第1〜第4の領域210〜210の少なくとも1つには、これらの色配置パターンに対応付けられた化粧色に近似する色が、塗布されている事が望ましい。 As shown in FIG. 8, the stylus 200a are each of the first to fourth regions 210 1-210 4 which is continuous from the distal end, the color is applied. Between the first to fourth regions 210 1-210 4, the color to be applied may be different or may be identical. However, between the first to fourth regions 210 1-210 least adjacent region 210 of the four, it is desirable that the color is different. The color that approximates to the first to at least in part of the fourth region 210 1-210 4 cosmetic colors associated with these colors arrangement pattern, it is desirable that coated.

第1〜第4の領域210〜210に施された色の組み合わせおよび順序は、スタイラス200aに施された色配置パターンを構成する。なお、色配置パターンを構成する領域の数は、4つに限定されるものではない。 The combination and order of the color which has been subjected to the first to fourth regions 210 1-210 4 constitutes a color arrangement pattern applied to the stylus 200a. The number of areas constituting the color arrangement pattern is not limited to four.

図9は、色配置パターンをマーカ色として用いる場合の、化粧画像テーブルの内容の一例を示す図であり、図5に対応するものである。図5と対応する部分には同一符号を付し、これについての説明を省略する。   FIG. 9 is a view showing an example of the contents of the makeup image table when the color arrangement pattern is used as a marker color, and corresponds to FIG. The parts corresponding to those in FIG. 5 are given the same reference numerals, and the description thereof is omitted.

図9に示すように、化粧画像テーブル510aは、化粧領域512、化粧色513、および化粧濃さ514を、色配置パターンであるマーカ色511aに対応付けて記述している。なお、マーカ色511aは、ここでは色配置パターンの絵で表されているが、実際には、所定の色空間における座標値の範囲を、配置順序に沿って記述した情報である。   As shown in FIG. 9, the makeup image table 510a describes the makeup area 512, the makeup color 513, and the makeup density 514 in association with the marker color 511a which is a color arrangement pattern. Here, the marker color 511a is represented by a picture of a color arrangement pattern here, but is actually information in which the range of coordinate values in a predetermined color space is described according to the arrangement order.

例えば、スタイラス検出部140は、まず、画像から、第1の領域210(図8参照)に対応する色の領域を探索し、当該領域が検出された場合、その領域の周辺で、第2の領域210に対応する色の領域を探索する。第2の領域210に対応する色の領域が検出された場合、スタイラス検出部140は、更に、その検出された方向の周辺領域で、第3の領域210、第4の領域210と順に探索する。 For example, the stylus detection unit 140 first searches the image for a region of a color corresponding to the first region 210 1 (see FIG. 8), and when the region is detected, the second detection is performed around the region. searching for a color region of which corresponds to the area 210 2. If the area of the color corresponding to the second region 210 2 is detected, the stylus detection unit 140 is further in the peripheral region of the detected direction, a third region 210 3, and the fourth region 210 4 Search in order.

スタイラス検出部140が、N種類の色を区別して検出可能である場合、図3に示す単色から成るマーカ色のスタイラス200では、N本のスタイラス200を識別可能であり、N種類の化粧画像を使用する事ができる。   When the stylus detection unit 140 can distinguish and detect N types of colors, the stylus 200 of the marker color consisting of a single color shown in FIG. 3 can identify the N styluses 200, and N types of makeup images are displayed. It can be used.

これに対し、図8に示すような4つの領域の色配置パターンをマーカ色とするスタイラス200aでは、例えば、N本のスタイラス200を識別可能となり、N種類の化粧画像を使用する事ができる。すなわち、マーカ色として複数色の色配置パターンを採用する事により、画像処理装置100は、種類の豊富な化粧画像を重畳し、バーチャル化粧のバリエーションを広げる事ができる。 On the other hand, in the stylus 200a using the color arrangement pattern of four regions as shown in FIG. 8 as the marker color, for example, N 4 styluses 200 can be identified, and N 4 types of makeup images can be used. it can. That is, by adopting color arrangement patterns of a plurality of colors as marker colors, the image processing apparatus 100 can superimpose various types of makeup images, and can broaden the variation of virtual makeup.

更に、マーカ色が複数色の色配置パターンである場合、マーカ色が単色である場に比べて、スタイラス200以外の部分がスタイラス200と誤検出される可能性を低減する事ができる。一方で、マーカ色が複数色の色配置パターンである場合、その一部が手指で隠れる等して、検出漏れとなる可能性が高くなる。   Furthermore, when the marker color is a color arrangement pattern of a plurality of colors, the possibility that a portion other than the stylus 200 is erroneously detected as the stylus 200 can be reduced as compared with a case where the marker color is a single color. On the other hand, in the case where the marker color is a color arrangement pattern of a plurality of colors, a part of the marker color is concealed by fingers, etc., and the possibility of a detection failure becomes high.

そこで、スタイラス検出部140は、ある画像フレームで検出されたスタイラス200aを、後続の映像において追跡する事が望ましい。かかる追跡は、例えば、スタイラス200aの先端の色や形状等の画像特徴部分を、映像に対する公知のターゲット追跡技術を用いて追跡する事により行われる。この場合、スタラス200aの先端の領域(第1の領域210、図8参照)の色は、所定の1色である事が望ましい。 Therefore, it is preferable that the stylus detection unit 140 track the stylus 200a detected in a certain image frame in the subsequent image. Such tracking is performed, for example, by tracking an image feature such as the color and shape of the tip of the stylus 200a using a known target tracking technique for an image. In this case, it is desirable that the color of the area at the tip end of the stalas 200 a (first area 210 1 , see FIG. 8) be a predetermined single color.

<変形例2:色決定手法の他の例>
また、化粧画像の色(化粧色)の決定手法は、上述の例に限定されない。画像処理装置100は、例えば、マーカ色とは別にスタイラスに塗布された色に基づいて、化粧画像の色を決定してもよい。
<Modification 2: Another example of color determination method>
Moreover, the determination method of the color (make-up color) of a makeup image is not limited to the above-mentioned example. The image processing apparatus 100 may determine the color of the makeup image based on, for example, the color applied to the stylus separately from the marker color.

図10は、マーカ色以外の色を施したスタイラスの外観の一例を示す図であり、図3および図8に対応するものである。   FIG. 10 is a view showing an example of the appearance of a stylus having a color other than the marker color, corresponding to FIGS. 3 and 8.

図10に示すように、スタイラス200bには、先端から連続する第5および第6の領域210、210のそれぞれに、色が施されている。第6の領域210の色は、1つまたは複数の所定のマーカ色から選択された色である。 As shown in FIG. 10, the stylus 200b are each of the fifth and sixth regions 210 5, 210 6 continuous from the distal end, the color is applied. The color of area 210 6 The sixth is a color selected from one or more predetermined marker colors.

第5の領域210に施される色は、上記所定のマーカ色以外の色である事が望ましい。なお、第5の領域210は、例えば、棒状部材に塗布された塗料、棒状部材に貼り付けられたシール、あるいは、棒状部材を構成する色付き部材とする事ができる。また、マーカ色は、緑色等、化粧にあまり用いられず、かつ、顔の色と異なる色である事が望ましい。 Colors to be applied to the fifth region 210 5, it is desirable that colors other than the predetermined marker colors. Incidentally, the fifth region 210 5, for example, paint applied to the rod-shaped member, affixed seal the rod-like member, or can be a colored member constituting the rod-like member. In addition, it is desirable that the marker color is not frequently used for makeup, such as green, and is a color different from the color of the face.

このようなスタイラス200bを用いる場合、スタイラス検出部140は、映像のうち、検出された所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる顔の色以外の色を、塗布指定色として検出する。すなわち、スタイラス検出部140は、第5の領域210の色を、塗布指定色として検出する。そして、化粧画像重畳部150は、検出された塗布指定色に近似する色で、化粧画像を生成する。 When using such a stylus 200b, the stylus detection unit 140 specifies a color other than the color of the face included in the peripheral region from the peripheral region of the detected predetermined marker color portion in the image, as the application designation color As detected. That is, the stylus detection unit 140, the color of the fifth region 210 5 is detected as a coating designated color. Then, the makeup image superimposing unit 150 generates a makeup image with a color that approximates the detected application designation color.

なお、化粧画像テーブル510(図5参照)は、化粧色513については記述する必要がない。更に、マーカ色を1色とし、対象領域をスタイラス200b毎に限定しない場合、マーカ色毎に化粧画像の内容を予め記述した化粧画像テーブルは、必ずしも必要ない。また、画像処理装置100は、かかるテーブルに代えて、マーカ色と、対象領域毎に化粧色以外の化粧画像データとを記述した、化粧画像テーブルを用いてもよい。   The makeup image table 510 (see FIG. 5) does not need to be described for the makeup color 513. Furthermore, when the marker color is one color and the target area is not limited to each stylus 200b, the makeup image table in which the content of the makeup image is previously described for each marker color is not necessarily required. Further, the image processing apparatus 100 may use a makeup image table in which marker colors and makeup image data other than makeup color are described for each target area, instead of the table.

図11は、マーカ色および塗布指定色を塗布したスタイラス200bを用いる場合の、画像処理装置100の動作の一例を示すフローチャートであり、図6に対応するものである。図6と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 11 is a flowchart showing an example of the operation of the image processing apparatus 100 when using the stylus 200b coated with the marker color and the application designation color, and corresponds to FIG. The same parts as those in FIG. 6 are given the same reference numerals, and the description thereof is omitted.

スタイラス検出部140は、画像にマーカ色の部分が存在すると判定されると(S1300:YES)、処理をステップS1310bへ進める。   If it is determined that the marker color part is present in the image (S1300: YES), the stylus detection unit 140 advances the process to step S1310b.

ステップS1310bにおいて、スタイラス検出部140は、マーカ色の部分の周辺領域で、顔の色以外の色の検出を行い、顔の色以外の色の部分が存在するか否かを判定する。より具体的には、スタイラス検出部140は、例えば、顔位置取得部130が顔領域を検出する場合、検出された顔領域の色ヒストグラム情報に基づいて、肌、唇、目、睫毛、および眉毛部分を含む顔の各部の色を推定する。そして、スタイラス検出部140は、推定された色と異なり、かつ、所定の面積を有する部分の色を、顔の色以外の色として検出する。   In step S1310b, the stylus detection unit 140 detects colors other than the face color in the peripheral region of the marker color portion, and determines whether or not there is a color portion other than the face color. More specifically, for example, when the face position acquisition unit 130 detects a face area, the stylus detection unit 140 detects skin, lips, eyes, eyebrows, and eyebrows based on the color histogram information of the detected face area. Estimate the color of each part of the face including the part. Then, the stylus detection unit 140 detects the color of the portion different from the estimated color and having a predetermined area as a color other than the face color.

例えば、画像に図10に示すスタイラス200bの第5および第6の領域210、210が含まれる場合、第6の領域210がマーカ色であるため、スタイラス検出部140は、第5の領域210の色を検出する。 For example, in the case where the image includes the fifth and sixth regions 210 5 and 210 6 of the stylus 200 b shown in FIG. 10, the stylus detection unit 140 sets the fifth region 210 6 to a fifth color. detecting color areas 210 5.

スタイラス検出部140は、マーカ色の部分の周辺領域に顔の色以外の色の部分が存在する場合(S1310b:YES)、処理をステップS1320bへ進める。また、スタイラス検出部140は、マーカ色の部分の周辺領域に顔の色以外の色の部分が存在しない場合(S1310b:NO)、処理を後述のステップS1410bへ進める。   The stylus detection unit 140 advances the process to step S1320b when there is a color portion other than the face color in the peripheral region of the marker color portion (S1310b: YES). Furthermore, if there is no color other than the face color in the peripheral area of the marker color (S1310b: NO), the stylus detection unit 140 advances the process to step S1410b described later.

ステップS1320bにおいて、スタイラス検出部140は、ステップS1310bで検出された色を、塗布指定色として取得する。   In step S1320b, the stylus detection unit 140 acquires the color detected in step S1310b as the application designation color.

なお、スタイラス検出部140は、映像においてマーカ色の部分を追跡し、マーカ色と同じ動きをする色を、上述の顔の色以外の色であると判定してもよい。   The stylus detection unit 140 may track the marker color part in the image, and determine that the color that moves in the same manner as the marker color is a color other than the face color described above.

ステップS1410bにおいて、スタイラス検出部140は、塗布指定色を取得済みであり、かつ、いずれかの対象領域への化粧動作が行われたか否かを判定する。すなわち、スタイラス検出部140は、検出されたマーカ色の部分(スタイラス200b)が、予め定められた対象領域のいずれかに近接しているか否かを判定する。   In step S1410b, the stylus detection unit 140 determines whether the application designation color has been acquired and whether a makeup operation has been performed on any target region. That is, the stylus detection unit 140 determines whether or not the detected marker color portion (stylus 200b) is close to any of the predetermined target areas.

スタイラス検出部140は、塗布指定色を取得済みであり、かつ、対象領域への化粧動作が行われた場合(S1410b:YES)、処理をステップS1510bへ進める。この際、スタイラス検出部140は、塗布指定色および化粧動作の対象となった対象領域を示す情報を、上述のマーカ色を示す情報に代えて、化粧画像重畳部150へ出力する。また、スタイラス検出部140は、塗布指定色を取得されていない場合、あるいは、対象領域への化粧動作が行われていない場合(S1410b:NO)、処理をステップS1700へ進める。   The stylus detection unit 140 advances the process to step S1510b when the application designation color has been acquired and the makeup operation on the target area has been performed (S1410b: YES). At this time, the stylus detection unit 140 outputs information indicating the application designation color and the target region targeted for the makeup operation to the makeup image superposition unit 150 instead of the information indicating the marker color described above. The stylus detection unit 140 advances the process to step S1700 if the application designation color is not obtained or if the makeup operation on the target area is not performed (S1410b: NO).

ステップS1510bにおいて、化粧画像重畳部150は、入力された情報に基づき、塗布指定色に近似する色の化粧画像が、対象領域に既に重畳されているか否かを判定する。化粧画像重畳部150は、塗布指定色に近似する色の化粧画像が対象領域に重畳されている場合(S1510b:YES)、処理をステップS1700へ進める。また、化粧画像重畳部150は、塗布指定色に近似する色の化粧画像が対象領域に重畳されていない場合(S1510b:NO)、処理をステップS1610bへ進める。   In step S1510b, the makeup image superposition unit 150 determines, based on the input information, whether or not a makeup image of a color close to the application designated color has already been superimposed on the target area. When the makeup image of the color approximating the application designated color is superimposed on the target area (S1510b: YES), the makeup image superposition unit 150 advances the process to step S1700. In addition, when the makeup image of the color approximating the application designated color is not superimposed on the target area (S1510b: NO), the makeup image superposition unit 150 advances the process to Step S1610b.

ステップS1610bにおいて、化粧画像重畳部150は、塗布指定色に近似する色の化粧画像を生成し、撮影画像への重畳を開始して、処理をステップS1700へ進める。   In step S1610b, the makeup image superposition unit 150 generates a makeup image of a color approximating the application designated color, starts superposition on the photographed image, and advances the process to step S1700.

より具体的には、化粧画像重畳部150は、例えば、情報格納部110に予め格納された、色空間を分割した複数の分割色空間と、各分割色空間における平均色等の代表色とを示す情報を参照する。そして、化粧画像重畳部150は、塗布指定色が属する分割色空間を特定し、特定された分割色空間の代表色を、化粧画像の化粧色に決定する。   More specifically, the makeup image superimposing unit 150, for example, stores a plurality of divided color spaces obtained by dividing the color space, stored in advance in the information storage unit 110, and a representative color such as an average color in each divided color space. Refer to the information shown. Then, the makeup image superimposing unit 150 specifies the divided color space to which the application designation color belongs, and determines the representative color of the specified divided color space as the makeup color of the makeup image.

なお、化粧画像重畳部150は、取得された塗布指定色をそのまま化粧色として採用してもよいし、取得された塗布指定色に対して、所定の色変換を行って得られる色を、化粧色として採用してもよい。更に、化粧画像重畳部150は、照明状態等の周囲の環境情報を取得し、取得された情報に基づいて、色変換の内容を決定してもよい。   In addition, the makeup image superposition unit 150 may adopt the acquired application designation color as it is as a makeup color, or may make a color obtained by performing predetermined color conversion on the acquired application designation color as makeup. It may be adopted as a color. Furthermore, the makeup image superimposing unit 150 may acquire ambient environment information such as the illumination state, and determine the content of color conversion based on the acquired information.

図12は、スタイラス200bの塗布指定色によるバーチャル化粧映像の違いの例を示す図であり、図2Cおよび図7に対応するものである。図2Cおよび図7と対応する部分には同一符号を付し、これについての説明を省略する。   FIG. 12 is a view showing an example of the difference in virtual makeup image depending on the application designation color of the stylus 200b, corresponding to FIG. 2C and FIG. The parts corresponding to those in FIG. 2C and FIG. 7 are assigned the same reference numerals and descriptions thereof will be omitted.

図12A〜図12Cに示すように、それぞれ異なる塗布指定色が施されたスタイラス200b〜200bのそれぞれを用いて、唇に対して化粧動作が行われたとする。この場合、画像処理装置100は、各スタイラス200bの塗布指定色に近似する色の化粧画像412b〜412bを、化粧動作の対象となった唇領域に重畳させる。 As shown in FIG 12A~ Figure 12C, by using each of the stylus 200b 1 ~200b 3 different coating designated color, respectively is applied, the cosmetic operation is performed on the lips. In this case, the image processing apparatus 100, the color makeup image 412b 1 ~412b 3 of approximating the coating designated color of each stylus 200b, is superimposed on the lip area as an object cosmetic operations.

マーカ色に基づいて化粧色を決定する場合、識別可能なマーカ色(色配置パターン)の数に応じて化粧画像の種類が制限されるとともに、マーカ色と化粧色との対応関係を予め登録しておく必要がある。   When the cosmetic color is determined based on the marker color, the type of cosmetic image is limited according to the number of distinguishable marker colors (color arrangement patterns), and the correspondence between the marker color and the cosmetic color is registered in advance. Need to be

これに対し、マーカ色に基づいて図10に示すようなスタイラス200bを検出し、検出されたスタイラス200bから塗布指定色を取得する場合、上述の制限はなく、マーカ色と化粧色との対応関係を予め設定しておく必要もない。すなわち、マーカ色と塗布指定色との組み合わせを採用する事により、画像処理装置100は、色の柔軟性に富んだ化粧画像を生成することができ、バーチャル化粧のバリエーションを広げる事ができる。   On the other hand, when the stylus 200b as shown in FIG. 10 is detected based on the marker color and the application designation color is acquired from the detected stylus 200b, there is no limitation described above, and the correspondence relationship between the marker color and the makeup color There is no need to set in advance. That is, by adopting the combination of the marker color and the application designation color, the image processing apparatus 100 can generate a makeup image rich in color flexibility, and can extend the variation of virtual makeup.

<その他の変形例>
また、画像処理装置100が行うマーカ色(色配置パターン)と化粧画像との対応付けは、上述の例に限定されない。例えば、化粧領域512および化粧濃さ514は、必ずしも、マーカ色毎に限定されていなくてもよい。これにより、ユーザ300は、1つのスタイラス200で、複数あるいは全ての対象領域へのバーチャル化粧を行う事ができる。
<Other Modifications>
Further, the association between the marker color (color arrangement pattern) and the makeup image performed by the image processing apparatus 100 is not limited to the above-described example. For example, the makeup area 512 and the makeup density 514 may not necessarily be limited to each marker color. As a result, the user 300 can perform virtual makeup on a plurality of or all target areas with one stylus 200.

また、画像処理装置100に使用されるスタイラス200の形状、スタイラス200におけるマーカ色および塗布指定色の配置、および、色配置パターンの構成は、上述の例に限定されない。例えば、スタイラス200は、各種化粧品により近い形状や素材であってもよく、例えば、平刷毛状の形状および素材であってもよい。   Further, the shape of the stylus 200 used in the image processing apparatus 100, the arrangement of the marker color and the application designation color in the stylus 200, and the configuration of the color arrangement pattern are not limited to the above-described example. For example, the stylus 200 may have a shape or material closer to various cosmetics, and may have, for example, a flat brush shape or material.

また、画像処理装置100は、ユーザ300からマーカ色の入力を受け付けてもよい。この場合、スタイラス検出部140は、例えば、バーチャル化粧の実施に先立って、撮影映像からスタイラス200の部分を取得するためのスタイラス登録画面を、液晶ディスプレイ101に表示する。そして、スタイラス検出部140は、スタイラス登録画面を介して取得されたスタイラス200の部分の色を、スタイラス200に付されたマーカ色として取得する。   The image processing apparatus 100 may also receive an input of a marker color from the user 300. In this case, the stylus detection unit 140 displays, for example, a stylus registration screen for acquiring a portion of the stylus 200 from the photographed image on the liquid crystal display 101 prior to the implementation of virtual makeup. Then, the stylus detection unit 140 acquires the color of the portion of the stylus 200 acquired via the stylus registration screen as the marker color attached to the stylus 200.

図13は、スタイラス登録画面の一例を示す図である。   FIG. 13 is a diagram showing an example of a stylus registration screen.

図13に示すように、スタイラス登録画面610は、例えば、デジタルカメラ102の撮影映像611におけるスタイラス200の位置を指定する位置指定画像612を含む。また、スタイラス登録画面610は、撮影映像611において、スタイラス200の位置が位置指定画像612に合うように、スタイラス200を持つことをユーザ300に指示するメッセージ613を含む。   As shown in FIG. 13, the stylus registration screen 610 includes, for example, a position designation image 612 for designating the position of the stylus 200 in the photographed image 611 of the digital camera 102. The stylus registration screen 610 also includes a message 613 instructing the user 300 to hold the stylus 200 so that the position of the stylus 200 matches the position designation image 612 in the captured image 611.

スタイラス検出部140は、予め登録された、スタイラス200の外形やスタイラス200に付されるコードパターンを撮影映像611から検出することにより、位置指定画像612にスタイラス200が合わせられたか否かを判定する。そして、スタイラス検出部140は、位置指定画像612にスタイラス200が合わせられたとき、マーカ色が付される部分(例えばスタイラス200の先端部分)の色を撮影映像611から取得し、取得された色をマーカ色として取得する。   The stylus detection unit 140 detects whether or not the stylus 200 is aligned with the position designation image 612 by detecting from the captured image 611 the outline of the stylus 200 and the code pattern attached to the stylus 200 registered in advance. . Then, when the stylus 200 is adjusted to the position designation image 612, the stylus detection unit 140 acquires the color of the portion to which the marker color is applied (for example, the tip portion of the stylus 200) from the captured image 611, and the acquired color Is acquired as a marker color.

なお、化粧画像重畳部150は、取得された色をそのまま化粧色としてもよいし、取得された色に予め対応付けられた色を化粧色としてもよい。   In addition, the makeup image superimposing unit 150 may use the acquired color as it is as the makeup color, or may use the color previously associated with the acquired color as the makeup color.

また、画像処理装置100のスタイラス200の識別には、色情報以外の情報を併用してもよい。例えば、スタイラス検出部140は、スタイラス200にRFID(Radio Frequency Identification)タグが搭載されている場合、RFIDタグからの無線信号が示す情報と、スタイラス200の色情報との組み合わせに基づいて、スタイラス200を識別してもよい。   In addition, information other than color information may be used in combination for identification of the stylus 200 of the image processing apparatus 100. For example, when the stylus 200 has a RFID (Radio Frequency Identification) tag mounted on the stylus 200, the stylus detection unit 140 uses the stylus 200 based on the combination of the information indicated by the wireless signal from the RFID tag and the color information of the stylus 200. May be identified.

また、画像処理装置100が行う化粧画像の重畳は、上述の対象領域に制限しなくてもよい。すなわち、画像処理装置100は、顔の全体の各部を、化粧動作の対象として認識してもよい。   Moreover, the superposition of the makeup image performed by the image processing apparatus 100 may not be limited to the above-described target area. That is, the image processing apparatus 100 may recognize each part of the entire face as a target of the makeup operation.

この場合において、より実際の化粧に近い感覚をユーザ300に与えたい場合、スタイラス検出部140は、ユーザ300がスタイラス200を顔の表面に接触させたか否かを検出し、スタイラス200が接触した部分を、化粧領域として決定することが望ましい。かかる検出は、例えば、顔の表面の各部の3次元位置と、スタイラス200の先端の3次元位置とを、それぞれ高精度に検出したり、スタイラス200の先端に搭載された押圧センサのセンサ情報を無線で受信する事により、行うことができる。   In this case, when it is desired to give the user 300 a feeling closer to actual makeup, the stylus detection unit 140 detects whether or not the user 300 has touched the stylus 200 to the surface of the face, and a portion where the stylus 200 contacts. It is desirable to determine as a makeup area. Such detection can detect, for example, the three-dimensional position of each part of the surface of the face and the three-dimensional position of the tip of the stylus 200 with high accuracy, or sensor information of a pressure sensor mounted on the tip of the stylus 200 It can be performed by receiving wirelessly.

あるいは、スタイラス検出部140は、更に、対象領域付近におけるスタイラス200(マーカ色の領域)の動きや、対象領域とスタイラス200との更に細かい位置関係を解析して、かかる対象領域に対する化粧動作が行われたか否かを判定してもよい。具体的には、例えば、スタイラス検出部140は、対象領域毎に、所定のスタイラス200の動きのパターン(ジェスチャ)を予め化粧動作として登録しておき、かかるジェスチャを検出することにより、化粧動作の判定を行う。   Alternatively, the stylus detection unit 140 further analyzes the movement of the stylus 200 (the region of the marker color) in the vicinity of the target region, and the more detailed positional relationship between the target region and the stylus 200, and performs the makeup operation on the target region. It may be determined whether or not it has been received. Specifically, for example, the stylus detection unit 140 registers a predetermined movement pattern (gesture) of the stylus 200 in advance as the makeup operation for each target area, and detects the gesture to perform the makeup operation. Make a decision.

ジェスチャは、例えば、顔に設定された複数の基準点を用いて定義することができる。   The gesture can be defined, for example, using a plurality of reference points set on the face.

図14は、ジェスチャの定義を説明するための図である。   FIG. 14 is a diagram for explaining the definition of a gesture.

図14に示すように、顔620には、複数の基準点(621)A〜F、X〜Zが定義されている。基準点の位置は、顔特徴点を基準として定められる。また、化粧の対象領域のそれぞれに、1つまたは複数の基準点が定義されている。   As shown in FIG. 14, in the face 620, a plurality of reference points (621) A to F and X to Z are defined. The position of the reference point is determined based on the face feature point. In addition, one or more reference points are defined in each of the makeup target areas.

例えば、情報格納部110には、対象領域毎に、1つまたは複数の基準点とスタイラス200との相対位置関係の時間変化を、当該対象領域に対する化粧動作として記述したジェスチャテーブルが、予め格納されている。   For example, the information storage unit 110 stores in advance, for each target area, a gesture table in which a temporal change in relative positional relationship between one or more reference points and the stylus 200 is described as a makeup operation for the target area. ing.

例えば、上唇の化粧動作は、基準点A、基準点B(または基準点Bと基準点Dとの中点)、基準点Cの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動き(ユーザ300のジェスチャ)である。また、下唇の化粧動作は、基準点A、基準点F(または基準点Fと基準点Eとの中点)、基準点Cの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動きである。   For example, the makeup operation of the upper lip may be performed by the stylus 200 in the order of the reference point A, the reference point B (or the midpoint between the reference point B and the reference point D), the reference point C, or the reverse order. Movement of the stylus 200 (a gesture of the user 300) as it approaches the Also, the makeup operation of the lower lip may be performed by the stylus 200 in the order of the reference point A, the reference point F (or the midpoint between the reference point F and the reference point E), the reference point C, or the reverse order. Movement of the stylus 200 as it approaches a point.

また、右頬の化粧動作は、基準点Zの周辺でスタイラス200が数回回転するような、スタイラス200の動きである。また顔全体に対するファンデーションの化粧動作は、基準点X、基準点Y、基準点Zの順序、あるいはこの逆の順序で、スタイラス200がこれらの基準点に近接するようなスタイラス200の動きである。   Also, the makeup operation of the right cheek is a movement of the stylus 200 such that the stylus 200 rotates several times around the reference point Z. The makeup operation of the foundation on the entire face is a movement of the stylus 200 such that the stylus 200 approaches these reference points in the order of the reference point X, the reference point Y, the reference point Z, or the reverse order.

化粧画像重畳部150は、映像から検出されるスタイラス200の位置の時間変化を、ジェスチャテーブルに記述された各化粧動作の内容と比較することにより、各対象領域に対する化粧動作が行われたか否かを判定する。   Whether the makeup operation has been performed on each target area by comparing the time change of the position of the stylus 200 detected from the image with the content of each makeup operation described in the gesture table. Determine

逆に、画像処理装置100は、単にスタイラス200が顔に近付いた事、あるいは、単にスタイラス200が映像から検出された事を条件として、スタイラス200の種別に予め対応付けられた化粧画像の撮影映像への重畳を開始してもよい。   On the contrary, the image processing apparatus 100 is a photographed image of a makeup image that is associated in advance with the type of the stylus 200, on condition that the stylus 200 has just approached the face or that the stylus 200 has simply been detected from the image. You may start superposition on.

また、画像処理装置100が、スタイラス200の別により変化させる化粧画像の内容は、上述の例に限定されない。すなわち、化粧画像テーブル510(図5参照)が記述する化粧画像の内容は、マーカ色(色配置パターン)毎に、化粧の光沢等の画像効果や、化粧剤の持ちに相当する化粧画像の持続時間等が異なるものであってもよい。   Moreover, the content of the makeup image which the image processing apparatus 100 changes by another of the stylus 200 is not limited to the above-mentioned example. That is, the content of the makeup image described by the makeup image table 510 (see FIG. 5) is, for each marker color (color arrangement pattern), continuation of the makeup image corresponding to the image effect such as the gloss of makeup and holding of the makeup agent. The time may be different.

また、情報格納部110は、インターネット上の所定のサーバ等にアクセスして、化粧画像テーブル510(図5参照)の内容を取得あるいは更新してもよい。情報格納部110は、かかるテーブルの取得あるいは更新を、定期的に、あるいは、ユーザまたはサーバからの指示を受けたタイミングで行う。これにより、画像処理装置100は、スタイラス200の増加や変更に柔軟に対応する事ができるとともに、メイクの流行を反映したバーチャル化粧を、ユーザ300に提供する事ができる。   Further, the information storage unit 110 may access a predetermined server or the like on the Internet to acquire or update the contents of the makeup image table 510 (see FIG. 5). The information storage unit 110 performs such acquisition or update of the table periodically or at timing when an instruction from a user or a server is received. Thus, the image processing apparatus 100 can flexibly cope with the increase and change of the stylus 200, and can provide the user 300 with virtual makeup reflecting the fashion trend.

また、スタイラス検出部140は、化粧を拭き取るための色として予め定められた色が映像に含まれるとき、かかる色の部分を、消しゴムスタイラスとして検出してもよい。そして、スタイラス検出部140は、消しゴムスタイラスを化粧画像が重畳された部分に近接させる動作が行われた事を条件として、当該化粧画像の重畳を終了させてもよい。   Moreover, the stylus detection part 140 may detect the part of this color as an eraser stylus, when the color predetermined as a color for wiping off makeup is contained in imaging | video. Then, the stylus detection unit 140 may end the superposition of the makeup image on condition that the operation of causing the eraser stylus to approach the portion on which the makeup image is superimposed is performed.

また、画像処理装置100が対象とする化粧の概念には、顔全体へのファンデーションの塗布、顔への描画、眼鏡の装着、カラーコンタクトの装着、眉毛や髪の毛への毛染め等を含めてもよい。いずれの場合において、スタイラスは、眼鏡型のプレートやブラシ型の道具等、対応する動作に用いられる道具を模したものである事が望ましい。   In addition, the concept of makeup targeted by the image processing apparatus 100 includes application of foundation to the entire face, drawing on the face, wearing of glasses, wearing of color contacts, and hair dyeing of eyebrows and hair, etc. Good. In any case, it is desirable that the stylus imitate a tool used for the corresponding operation, such as a glasses-type plate or a brush-type tool.

また、画像処理装置100が適用される装置は、上述の例に限定されない。画像処理装置100は、例えば、スマートフォン、タブレット型端末、パーソナルコンピュータ、あるいはデジタルカメラ等に適用されてもよい。   Further, the device to which the image processing device 100 is applied is not limited to the above-described example. The image processing apparatus 100 may be applied to, for example, a smartphone, a tablet terminal, a personal computer, or a digital camera.

また、画像処理装置100の構成の一部は、ネットワーク上のサーバ等に配置される等して、画像処理装置100の構成の他の部分と離隔していてもよい。この場合、これら部分のそれぞれは、互いに通信を行うための通信部を備える必要がある。   In addition, a part of the configuration of the image processing apparatus 100 may be disposed on a server or the like on the network so as to be separated from the other parts of the configuration of the image processing apparatus 100. In this case, each of these parts needs to be provided with a communication unit for communicating with each other.

<本開示のまとめ>
本開示の画像処理装置は、映像を撮影する撮影部と、撮影された前記映像を画面に表示する表示部と、前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する。
<Summary of this disclosure>
An image processing apparatus according to an embodiment of the present disclosure includes an imaging unit configured to capture an image, a display unit configured to display the captured image on a screen, and a face position acquisition unit configured to acquire the position of a face included in the image from the image. When a portion of a predetermined marker color is included in the image, a stylus detection unit that detects the portion as a stylus from the image, and the face portion of the image on condition that the stylus is detected And a makeup image superposition unit for superposing a makeup image associated with the predetermined marker color in advance.

なお、上記画像処理装置において、前記スタイラス検出部は、前記スタイラスの位置を取得し、取得された前記顔の位置および前記スタイラスの位置に基づいて、ユーザが前記スタイラスを前記顔に近接させる化粧動作を行ったか否かを判定し、前記化粧画像重畳部は、前記化粧動作が行われた事を条件として、前記化粧画像を重畳してもよい。   In the image processing apparatus, the stylus detection unit acquires the position of the stylus, and based on the acquired position of the face and the position of the stylus, the user brings the stylus close to the face. The makeup image superimposing unit may superimpose the makeup image on condition that the makeup operation has been performed.

また、上記画像処理装置において、前記化粧画像は、顔特徴点を基準として予め定められた領域に化粧が塗布されたときの前記化粧の状態を表す画像であり、前記顔位置取得部は、前記顔の顔特徴点の位置を取得し、前記化粧画像重畳部は、取得された前記顔特徴点の位置および前記スタイラスの位置に基づき、前記スタイラスを前記領域に近接させる化粧動作が行われた事を条件として、前記化粧画像を重畳してもよい。   Further, in the image processing apparatus, the makeup image is an image representing a state of the makeup when makeup is applied to an area predetermined based on a face feature point, and the face position acquisition unit The position of the face feature point of the face is acquired, and the makeup image superposing unit performs the makeup operation for bringing the stylus close to the area based on the acquired position of the face feature point and the position of the stylus. And the makeup image may be superimposed.

また、上記画像処理装置において、前記スタイラス検出部は、前記映像から前記所定のマーカ色の部分を検出し、検出された部分に基づいて前記スタイラスの位置を検出し、検出された前記スタイラスの位置を前記映像において追跡してもよい。   In the image processing apparatus, the stylus detection unit detects the portion of the predetermined marker color from the image, detects the position of the stylus based on the detected portion, and detects the detected position of the stylus. May be tracked in the video.

また、上記画像処理装置において、前記スタイラス検出部は、前記映像のうち、検出された前記所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる前記顔の色以外の色を、塗布指定色として検出し、前記化粧画像重畳部は、検出された前記塗布指定色に近似する色で、前記化粧画像を生成してもよい。   In the image processing apparatus, the stylus detection unit applies a color other than the color of the face included in the peripheral area from the peripheral area of the part of the detected predetermined marker color in the image. The makeup image may be generated as a color that is detected as a designated color, and the makeup image superposition unit approximates the detected application designation color.

また、上記画像処理装置において、前記化粧画像重畳部は、複数の前記所定のマーカ色について、前記所定のマーカ色毎に前記化粧画像の内容を予め記述した化粧情報テーブルを参照して、重畳する前記化粧画像を決定し、前記化粧テーブルが記述する前記化粧画像の内容は、前記所定のマーカ色毎に、前記化粧画像の色、濃さ、および領域の少なくとも1つが異なってもよい。   In the image processing apparatus, the makeup image superposition unit superimposes a plurality of predetermined marker colors with reference to a makeup information table in which the contents of the makeup image are previously described for each of the predetermined marker colors. The makeup image may be determined, and the contents of the makeup image described by the makeup table may be different in at least one of the color, the density, and the area of the makeup image for each of the predetermined marker colors.

また、上記画像処理装置において、前記所定のマーカ色は、所定の複数色から成る所定の色配置パターンであってもよい。   In the image processing apparatus, the predetermined marker color may be a predetermined color arrangement pattern including a plurality of predetermined colors.

本開示のスタイラスは、上記画像処理装置に使用されるスタイラスであって、棒状部材であり、前記棒状部材の先端部を含む領域に前記所定のマーカ色が施されている。   The stylus of the present disclosure is a stylus used in the image processing apparatus, and is a rod-like member, and the predetermined marker color is applied to a region including the tip of the rod-like member.

本開示の画像処理方法は、映像を撮影するステップと、撮影された前記映像を画面に表示するステップと、前記映像から、前記映像に含まれる顔の位置を取得するステップと、前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する。   The image processing method according to the present disclosure includes a step of shooting a video, a step of displaying the shot video on a screen, a step of acquiring the position of a face included in the video from the video, and Detecting the portion as a stylus from the image when the portion of the marker color is included, and the predetermined marker color for the portion of the face of the image on condition that the stylus is detected And V. superimposing a makeup image associated with in advance.

本発明は、化粧動作によりバーチャル化粧を行う事ができる画像処理装置、スタイラス、および画像処理方法として有用である。   The present invention is useful as an image processing apparatus, a stylus, and an image processing method capable of performing virtual makeup by a makeup operation.

100 画像処理装置
101 液晶ディスプレイ
102 デジタルカメラ
110 情報格納部
120 撮影部
130 顔位置取得部
140 スタイラス検出部
150 化粧画像重畳部
160 表示部
200、200a、200b スタイラス
100 image processing apparatus 101 liquid crystal display 102 digital camera 110 information storage unit 120 imaging unit 130 face position acquisition unit 140 stylus detection unit 150 makeup image superposition unit 160 display unit 200, 200a, 200b stylus

Claims (9)

映像を撮影する撮影部と、
撮影された前記映像を画面に表示する表示部と、
前記映像から、前記映像に含まれる顔の位置を取得する顔位置取得部と、
前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するスタイラス検出部と、
前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳する化粧画像重畳部と、を有する、
画像処理装置。
A shooting unit for shooting a video;
A display unit for displaying the photographed image on a screen;
A face position acquisition unit for acquiring the position of the face included in the video from the video;
A stylus detection unit configured to detect the portion as a stylus from the image when the image includes a portion of a predetermined marker color;
And a cosmetic image superimposing unit that superimposes a cosmetic image, which is previously associated with the predetermined marker color, on the face portion of the image, on condition that the stylus is detected.
Image processing device.
前記スタイラス検出部は、
前記スタイラスの位置を取得し、取得された前記顔の位置および前記スタイラスの位置に基づいて、ユーザが前記スタイラスを前記顔に近接させる化粧動作を行ったか否かを判定し、
前記化粧画像重畳部は、
前記化粧動作が行われた事を条件として、前記化粧画像を重畳する、
請求項1に記載の画像処理装置。
The stylus detection unit
The position of the stylus is acquired, and based on the acquired position of the face and the position of the stylus, it is determined whether the user has performed a makeup operation to bring the stylus close to the face.
The makeup image superposition unit is
Superimposing the makeup image on condition that the makeup operation has been performed,
The image processing apparatus according to claim 1.
前記化粧画像は、顔特徴点を基準として予め定められた領域に化粧が塗布されたときの前記化粧の状態を表す画像であり、
前記顔位置取得部は、
前記顔の顔特徴点の位置を取得し、
前記化粧画像重畳部は、
取得された前記顔特徴点の位置および前記スタイラスの位置に基づき、前記スタイラスを前記領域に近接させる化粧動作が行われた事を条件として、前記化粧画像を重畳する、
請求項1に記載の画像処理装置。
The makeup image is an image representing the state of the makeup when makeup is applied to an area predetermined based on a face feature point,
The face position acquisition unit
Get the position of the face feature point of the face,
The makeup image superposition unit is
The makeup image is superimposed on the condition that a makeup operation for bringing the stylus close to the area is performed based on the acquired position of the face feature point and the position of the stylus.
The image processing apparatus according to claim 1.
前記スタイラス検出部は、
前記映像から前記所定のマーカ色の部分を検出し、検出された部分に基づいて前記スタイラスの位置を検出し、検出された前記スタイラスの位置を前記映像において追跡する、
請求項1に記載の画像処理装置。
The stylus detection unit
Detecting a portion of the predetermined marker color from the image, detecting a position of the stylus based on the detected portion, and tracking the position of the detected stylus in the image;
The image processing apparatus according to claim 1.
前記スタイラス検出部は、
前記映像のうち、検出された前記所定のマーカ色の部分の周辺領域から、当該周辺領域に含まれる前記顔の色以外の色を、塗布指定色として検出し、
前記化粧画像重畳部は、
検出された前記塗布指定色に近似する色で、前記化粧画像を生成する、
請求項1に記載の画像処理装置。
The stylus detection unit
The color other than the color of the face included in the peripheral area is detected as the application designation color from the peripheral area of the detected part of the predetermined marker color in the video.
The makeup image superposition unit is
Generating the makeup image with a color approximating the detected application color;
The image processing apparatus according to claim 1.
前記化粧画像重畳部は、
複数の前記所定のマーカ色について、前記所定のマーカ色毎に前記化粧画像の内容を予め記述した化粧情報テーブルを参照して、重畳する前記化粧画像を決定し、
前記化粧テーブルが記述する前記化粧画像の内容は、前記所定のマーカ色毎に、前記化粧画像の色、濃さ、および領域の少なくとも1つが異なる、
請求項1に記載の画像処理装置。
The makeup image superposition unit is
For the plurality of predetermined marker colors, the makeup image to be superimposed is determined with reference to a makeup information table in which the contents of the makeup image are described in advance for each of the predetermined marker colors,
The content of the makeup image described by the makeup table differs in at least one of the color, the density, and the area of the makeup image for each of the predetermined marker colors.
The image processing apparatus according to claim 1.
前記所定のマーカ色は、所定の複数色から成る所定の色配置パターンである、
請求項1に記載の画像処理装置。
The predetermined marker color is a predetermined color arrangement pattern consisting of a plurality of predetermined colors.
The image processing apparatus according to claim 1.
請求項1に記載の画像処理装置に使用されるスタイラスであって、
棒状部材であり、前記棒状部材の先端部を含む領域に前記所定のマーカ色が施された、
スタイラス。
A stylus used in the image processing apparatus according to claim 1, wherein the stylus is
A rod-like member, wherein the predetermined marker color is applied to a region including the tip of the rod-like member;
stylus.
映像を撮影するステップと、
撮影された前記映像を画面に表示するステップと、
前記映像から、前記映像に含まれる顔の位置を取得するステップと、
前記映像に所定のマーカ色の部分が含まれるとき、前記映像から、当該部分をスタイラスとして検出するステップと、
前記スタイラスが検出された事を条件として、前記映像の前記顔の部分に対し、前記所定のマーカ色に予め対応付けられた化粧画像を重畳するステップと、を有する、
画像処理方法。
Step of taking a picture,
Displaying the photographed image on a screen;
Acquiring the position of the face included in the video from the video;
Detecting the portion as a stylus from the image when the image includes a portion of a predetermined marker color;
Superimposing a makeup image previously associated with the predetermined marker color on the face portion of the image, on condition that the stylus is detected.
Image processing method.
JP2015015363A 2015-01-29 2015-01-29 Image processing apparatus, stylus, and image processing method Active JP6519853B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015015363A JP6519853B2 (en) 2015-01-29 2015-01-29 Image processing apparatus, stylus, and image processing method
PCT/JP2016/000234 WO2016121329A1 (en) 2015-01-29 2016-01-19 Image processing device, stylus, and image processing method
CN201680004714.7A CN107111861B (en) 2015-01-29 2016-01-19 Image processing apparatus, stylus pen, and image processing method
US15/003,183 US9984281B2 (en) 2015-01-29 2016-01-21 Image processing apparatus, stylus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015015363A JP6519853B2 (en) 2015-01-29 2015-01-29 Image processing apparatus, stylus, and image processing method

Publications (2)

Publication Number Publication Date
JP2016139382A JP2016139382A (en) 2016-08-04
JP6519853B2 true JP6519853B2 (en) 2019-05-29

Family

ID=56560386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015015363A Active JP6519853B2 (en) 2015-01-29 2015-01-29 Image processing apparatus, stylus, and image processing method

Country Status (1)

Country Link
JP (1) JP6519853B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2189198B1 (en) * 2008-11-20 2017-06-21 Braun GmbH Personal body care device
US9224248B2 (en) * 2012-07-12 2015-12-29 Ulsee Inc. Method of virtual makeup achieved by facial tracking
EP2985732B1 (en) * 2013-04-08 2017-08-02 Panasonic Intellectual Property Corporation of America Image processing device, image processing method, and program, capable of virtual reproduction of makeup application state

Also Published As

Publication number Publication date
JP2016139382A (en) 2016-08-04

Similar Documents

Publication Publication Date Title
CN107111861B (en) Image processing apparatus, stylus pen, and image processing method
JP6435516B2 (en) Makeup support device, makeup support method, and makeup support program
EP3479351B1 (en) System and method for digital makeup mirror
JP6375480B2 (en) Makeup support device, makeup support system, makeup support method, and makeup support program
CN110363867B (en) Virtual decorating system, method, device and medium
JP5991536B2 (en) Makeup support device, makeup support method, and makeup support program
US20200380594A1 (en) Virtual try-on system, virtual try-on method, computer program product, and information processing device
US20120223956A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US11733769B2 (en) Presenting avatars in three-dimensional environments
KR20090098798A (en) Method and device for the virtual simulation of a sequence of video images
CA3091717C (en) Method and device for the virtual try-on of garments based on augmented reality with multi-detection
WO2018005884A1 (en) System and method for digital makeup mirror
CN111880709A (en) Display method and device, computer equipment and storage medium
KR20120066773A (en) A method of virtual make-up using mobile device
JP2018195996A (en) Image projection apparatus, image projection method, and image projection program
Borges et al. A virtual makeup augmented reality system
Treepong et al. Makeup creativity enhancement with an augmented reality face makeup system
JP2021144582A (en) Makeup simulation device, makeup simulation method and program
KR101719927B1 (en) Real-time make up mirror simulation apparatus using leap motion
JP6519853B2 (en) Image processing apparatus, stylus, and image processing method
JP6485629B2 (en) Image processing apparatus and image processing method
CN113301243B (en) Image processing method, interaction method, system, device, equipment and storage medium
CN111627118A (en) Scene portrait showing method and device, electronic equipment and storage medium
WO2021106552A1 (en) Information processing device, information processing method, and program
JP6078896B2 (en) Makeup support device and makeup support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R151 Written notification of patent or utility model registration

Ref document number: 6519853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151