JP6427297B2 - Makeup simulation system, makeup simulation method, and makeup simulation program - Google Patents
Makeup simulation system, makeup simulation method, and makeup simulation program Download PDFInfo
- Publication number
- JP6427297B2 JP6427297B2 JP2018511805A JP2018511805A JP6427297B2 JP 6427297 B2 JP6427297 B2 JP 6427297B2 JP 2018511805 A JP2018511805 A JP 2018511805A JP 2018511805 A JP2018511805 A JP 2018511805A JP 6427297 B2 JP6427297 B2 JP 6427297B2
- Authority
- JP
- Japan
- Prior art keywords
- contour
- makeup simulation
- face image
- attribute information
- makeup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims description 87
- 238000000034 method Methods 0.000 title claims description 59
- 210000000744 eyelid Anatomy 0.000 claims description 28
- 210000004709 eyebrow Anatomy 0.000 claims description 8
- 239000000470 constituent Substances 0.000 claims description 5
- 239000002537 cosmetic Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 description 45
- 230000008569 process Effects 0.000 description 33
- 238000012545 processing Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、顔画像に化粧シミュレーションを行う化粧シミュレーションシステム、化粧シミュレーション方法、および化粧シミュレーションプログラムに関する。 The present invention relates to a makeup simulation system for performing makeup simulation on a face image, a makeup simulation method, and a makeup simulation program.
従来、ユーザの化粧を支援する様々な技術が提案されている。例えば、特許文献1には、ユーザの撮像画像の表示内容を確認しながら、化粧を施したり、身だしなみを整えたりする場合の表示方法に関する技術が記載されている。また、特許文献2には、三次元計測手段を使用して取得した三次元情報を用いて、ユーザの化粧を支援する技術が記載されている。 Conventionally, various techniques have been proposed to support the makeup of the user. For example, Patent Document 1 describes a technique relating to a display method in the case where makeup is applied or appearance is adjusted while confirming the display content of a captured image of a user. Further, Patent Document 2 describes a technology for assisting the user's makeup using three-dimensional information acquired using a three-dimensional measurement unit.
しかしながら、特許文献1の手法では、特定部位を認識する認識手段の性能により、撮影画像と比較対象画像をうまく重ね合わせが行えない恐れがある。特に、アイメイクのように目の形状に沿った化粧を施す必要がある場合には、個人個人の顔の構成パーツの輪郭にあわせ、化粧画像を重ねあわせることが重要である。 However, in the method of Patent Document 1, there is a possibility that the photographed image and the comparison target image can not be superimposed properly due to the performance of the recognition means for recognizing the specific part. In particular, when it is necessary to apply makeup in accordance with the shape of the eye, such as eye makeup, it is important to superimpose a makeup image in accordance with the contour of the constituent part of the face of the individual.
また、特許文献2の手法では、三次元情報の使用により、特許文献1に比較して、顔の状態の認識がしやすくなると考えられるが、投光部により計測用パターンを投射する必要があるため、装置が高価になるという問題がある。 Further, in the method of Patent Document 2, it is considered that the use of three-dimensional information makes it easier to recognize the state of the face as compared to Patent Document 1, but it is necessary to project the measurement pattern by the light projector. Therefore, there is a problem that the apparatus becomes expensive.
化粧シミュレーションを行う場合、顔の構成パーツの輪郭が自動でうまく認識できない場合には、ユーザが手動で輪郭のラインを入力して、化粧を施す領域と、化粧を施さないマスク領域を指定することが必要となる。そのユーザによる手動入力の際に、ユーザの熟練度や器用さによって、ラインの精度がばらついてしまうという課題がある。 When performing makeup simulation, if the outline of the component parts of the face can not be recognized automatically and properly, the user manually inputs a line of the outline and designates an area to apply makeup and a mask area not to apply makeup. Is required. At the time of manual input by the user, there is a problem that the accuracy of the line varies depending on the user's skill level and dexterity.
さらに、特許文献1、特許文献2とも、ユーザが施した化粧は自分自身で画像を確認するという構成のみであるが、複数人で画面を共有し、画像の確認や、画像に対する操作を行えるようにすることが求められている。画面共有により、アドバイザやオペレータといった、専門家からの適切なフィードバックを得ることで、ユーザの満足度の高い化粧シミュレーションを行うことができると考えられる。 Furthermore, in both Patent Document 1 and Patent Document 2, the makeup applied by the user is only a configuration in which the image is confirmed by oneself, but a plurality of people share the screen and can check the image and operate the image. It is required to By sharing the screen, appropriate feedback from experts such as an adviser and an operator is considered to be able to perform makeup simulation with high user satisfaction.
そこで、本発明では、上記の課題に鑑みて、複数の特徴点の指定をプロットにより受け付けることで、顔画像に化粧シミュレーションを行う化粧シミュレーションシステム、化粧シミュレーション方法、化粧シミュレーションプログラムを提供することを目的とする。 Therefore, in the present invention, in view of the above problems, it is an object of the present invention to provide a makeup simulation system, a makeup simulation method, and a makeup simulation program for performing makeup simulation on a face image by accepting designation of a plurality of feature points by plotting. I assume.
本発明では、以下のような解決手段を提供する。 The present invention provides the following solutions.
第1の特徴に係る発明は、
顔画像に化粧シミュレーションを行う化粧シミュレーションシステムであって、
前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付手段と、
前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定受付手段と、
前記プロットにより指定された複数の特徴点に基づいて、前記構成パーツの輪郭を描画する輪郭描画手段と、
を備えることを特徴とする化粧シミュレーションシステムを提供する。The invention according to the first feature is
A makeup simulation system that performs makeup simulation on a face image, and
Configuration part type specification receiving means for receiving specification of the type of configuration part of the face image;
Feature point specification receiving means for receiving specification of a plurality of feature points by plotting on the contour of the component part received the specification;
Contour drawing means for drawing the contour of the component part based on a plurality of feature points designated by the plot;
Providing a makeup simulation system characterized by comprising:
第1の特徴に係る発明によれば、顔画像に化粧シミュレーションを行う化粧シミュレーションシステムにおいて、前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付手段と、前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定受付手段と、前記プロットにより指定された複数の特徴点に基づいて、前記構成パーツの輪郭を描画する輪郭描画手段と、を備える。 According to the invention as set forth in the first aspect, in a makeup simulation system for performing makeup simulation on a face image, a composition part type specification accepting means for receiving designation of the kind of composition part of the face image, and composition parts receiving the designation A feature point specification receiving unit that receives specification of a plurality of feature points by plotting on the contour of the image, and an outline drawing unit that draws an outline of the component based on the plurality of feature points specified by the plot; Prepare.
第1の特徴に係る発明は、化粧シミュレーションシステムのカテゴリであるが、化粧シミュレーション方法、および化粧シミュレーションプログラムであっても同様の作用、効果を奏する。 The invention relating to the first feature is a category of a makeup simulation system, but the same action and effect can be obtained even with a makeup simulation method and a makeup simulation program.
第2の特徴に係る発明は、第1の特徴に係る発明である化粧シミュレーションシステムであって、
前記プロットにより指定させる特徴点として、前記構成パーツの最も上、最も下、最も左、最も右の4点を含むことを特徴とする化粧シミュレーションシステムを提供する。An invention according to a second feature is the makeup simulation system according to the first feature, wherein
There is provided a makeup simulation system characterized in that the feature points to be specified by the plot include four points on the top, the bottom, the left, and the right of the component part.
第2の特徴に係る発明によれば、第1の特徴に係る発明である化粧シミュレーションシステムは、前記プロットにより指定させる特徴点として、前記構成パーツの最も上、最も下、最も左、最も右の4点を含む。 According to the invention as set forth in the second feature, the makeup simulation system as the invention as set forth in the first feature is characterized in that the top, bottom, leftmost, rightmost of the component parts are specified as feature points to be specified by the plot. Includes 4 points.
第3の特徴に係る発明は、第1または第2の特徴に係る発明である化粧シミュレーションシステムであって、
前記顔画像の属性情報の入力を受ける属性情報入力受付手段を備え、
前記輪郭描画手段は、前記入力された属性情報を加味して、前記構成パーツの輪郭を描画することを特徴とする化粧シミュレーションシステムを提供する。An invention according to a third feature is the makeup simulation system according to the first or second feature, wherein
Attribute information input receiving means for receiving input of attribute information of the face image;
The contour drawing means provides a makeup simulation system characterized by drawing the contour of the component part in consideration of the input attribute information.
第3の特徴に係る発明によれば、第1または第2の特徴に係る発明である化粧シミュレーションシステムは、前記顔画像の属性情報の入力を受ける属性情報入力受付手段を備え、前記輪郭描画手段は、前記入力された属性情報を加味して、前記構成パーツの輪郭を描画する。 According to the invention of the third aspect, the makeup simulation system according to the first or second aspect includes attribute information input receiving means for receiving input of attribute information of the face image, and the contour drawing means The contour drawing of the component part is drawn in consideration of the input attribute information.
第4の特徴に係る発明は、第1から第3のいずれかの特徴に係る発明である化粧シミュレーションシステムであって、
前記指定された構成パーツが目である場合、前記輪郭描画手段により描画した目の輪郭から、さらに、瞼の輪郭を予測して描画する瞼描画手段と、
を備えることを特徴とする化粧シミュレーションシステムを提供する。An invention according to a fourth feature is the makeup simulation system according to any one of the first to third features, wherein
An eyebrow drawing means for predicting and drawing an eyelid outline from the eye outline drawn by the outline drawing means when the specified component part is an eye;
Providing a makeup simulation system characterized by comprising:
第4の特徴に係る発明によれば、第1から第3のいずれかの特徴に係る発明である化粧シミュレーションシステムは、前記指定された構成パーツが目である場合、前記輪郭描画手段により描画した目の輪郭から、さらに、瞼の輪郭を予測して描画する瞼描画手段と、を備える。 According to the invention of the fourth aspect, the makeup simulation system, which is the invention of any of the first to third features, is drawn by the contour drawing means when the designated component is an eye. The eyelid drawing means is further provided to predict and draw the eyelid outline from the eye outline.
第5の特徴に係る発明は、第1から第4のいずれかの特徴に係る発明である化粧シミュレーションシステムであって、
前記描画した輪郭と前記顔画像の構成パーツの輪郭との間にズレがある場合に、描画した輪郭の微調整を行わせる描画輪郭微調整手段と、
を備えることを特徴とする化粧シミュレーションシステムを提供する。An invention according to a fifth feature is the makeup simulation system according to any of the first through fourth features, wherein
Drawing contour fine adjustment means for performing fine adjustment of the drawn contour when there is a deviation between the drawn contour and the contour of the component part of the face image;
Providing a makeup simulation system characterized by comprising:
第5の特徴に係る発明によれば、第1から第4のいずれかの特徴に係る発明である化粧シミュレーションシステムは、前記描画した輪郭と前記顔画像の構成パーツの輪郭との間にズレがある場合に、描画した輪郭の微調整を行わせる描画輪郭微調整手段と、を備える。 According to the invention as set forth in the fifth aspect, in the makeup simulation system according to any one of the first to fourth aspects, there is a gap between the drawn outline and the outline of the component of the face image. And a drawing contour fine adjustment means for finely adjusting the drawn contour.
第6の特徴に係る発明は、第1から第5のいずれかの特徴に係る発明である化粧シミュレーションシステムであって、
ネットワークを介して接続された端末と画面を共有する画面共有手段と、
前記ネットワークを介して接続された端末から前記共有した画面に対して操作を行える遠隔操作手段と、
を備えることを特徴とする化粧シミュレーションシステムを提供する。An invention according to a sixth feature is the makeup simulation system according to any one of the first to fifth features, wherein
Screen sharing means for sharing a screen with a terminal connected via a network;
A remote control unit that can operate the shared screen from a terminal connected via the network;
Providing a makeup simulation system characterized by comprising:
第6の特徴に係る発明によれば、第1から第5のいずれかの特徴に係る発明である化粧シミュレーションシステムは、ネットワークを介して接続された端末と画面を共有する画面共有手段と、前記ネットワークを介して接続された端末から前記共有した画面に対して操作を行える遠隔操作手段と、を備える。 According to the invention of the sixth aspect, the makeup simulation system, which is the invention of any of the first to fifth features, comprises: a screen sharing means for sharing a screen with a terminal connected via a network; And a remote control unit that can operate the shared screen from a terminal connected via a network.
第7の特徴に係る発明は、顔画像に化粧シミュレーションを行う化粧シミュレーション方法であって、
前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付ステップと、
前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定受付ステップと、
前記プロットにより指定された複数の特徴点に基づいて、前記構成パーツの輪郭を描画する輪郭描画ステップと、
を備えることを特徴とする化粧シミュレーション方法を提供する。An invention according to a seventh feature is a makeup simulation method for performing makeup simulation on a face image,
A configuration part type specification receiving step of receiving specification of a type of configuration part of the face image;
A feature point specification accepting step of accepting specification of a plurality of feature points by plotting on the contour of the component part received the specification;
An outline drawing step of drawing an outline of the component part based on a plurality of feature points specified by the plot;
Providing a makeup simulation method characterized by comprising:
第8の特徴に係る発明は、顔画像に化粧シミュレーションを行う化粧シミュレーションシステムに、
前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付ステップ、
前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定ステップ、
前記プロットにより指定された複数の特徴点に基づいて、前記構成パーツの輪郭を描画する輪郭描画ステップ、
を実行させるための化粧シミュレーションプログラムを提供する。An invention according to an eighth feature relates to a makeup simulation system for performing makeup simulation on a face image,
Configuration part type specification receiving step for receiving specification of the type of configuration part of the face image,
A feature point specification step of accepting specification of a plurality of feature points by plotting on the contour of the component part received the specification;
An outline drawing step of drawing an outline of the component part based on a plurality of feature points specified by the plot;
Provide a makeup simulation program for executing the program.
本発明によれば、複数の特徴点の指定をプロットにより受け付けることで、顔画像に化粧シミュレーションを行う化粧シミュレーションシステム、化粧シミュレーション方法、化粧シミュレーションプログラムを提供することが可能となる。 According to the present invention, it is possible to provide a makeup simulation system, a makeup simulation method, and a makeup simulation program for performing makeup simulation on a face image by accepting specification of a plurality of feature points by plotting.
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
[化粧シミュレーションシステムのシステム概要]
本発明の概要について図1に基づいて、説明する。端末100は、図2に示すように、カメラ部110、入力部120、出力部130、記憶部140、制御部150から構成される。入力部120は制御部150と協働して構成パーツ種類指定受付モジュール121、特徴点指定受付モジュール122を実現する。また、出力部130は制御部150と協働して輪郭描画モジュール131を実現する。[System overview of makeup simulation system]
The outline of the present invention will be described based on FIG. As shown in FIG. 2, the terminal 100 includes a camera unit 110, an input unit 120, an output unit 130, a storage unit 140, and a control unit 150. The input unit 120 cooperates with the control unit 150 to implement a component part specification specification acceptance module 121 and a feature point specification reception module 122. Further, the output unit 130 cooperates with the control unit 150 to implement the contour drawing module 131.
化粧シミュレーションのための輪郭描画処理を行う場合、はじめに、端末100は、顔画像の取得を行う(ステップS01)。ここでは、カメラ部110による撮像を行うか、または端末100内に保存してある画像を選択することにより、化粧シミュレーションを行うための顔画像を決定する。 When performing contour drawing processing for makeup simulation, the terminal 100 first acquires a face image (step S01). Here, a face image for performing makeup simulation is determined by performing imaging with the camera unit 110 or selecting an image stored in the terminal 100.
次に、端末100の構成パーツ種類指定受付モジュール121は、ユーザから構成パーツの指定を受け付ける(ステップS02)。ここで、化粧シミュレーションを行う顔の構成パーツの種類を、右目、左目、鼻、口、顔全体等の選択肢からユーザに選択させる。この、構成パーツの指定により、以降各パーツに合わせた適切な処理を行える。 Next, the configuration part type specification receiving module 121 of the terminal 100 receives specification of a configuration part from the user (step S02). Here, the user is allowed to select the type of face configuration part to be subjected to the makeup simulation from options such as the right eye, the left eye, the nose, the mouth, and the entire face. By specifying the component parts, it is possible to perform appropriate processing according to each part thereafter.
次に、特徴点指定受付モジュール122は、ユーザから特徴点の指定を受け付ける(ステップS03)。特徴点とは、例えば、構成パーツの最も左、最も右、最も上、最も下、の4点等で、顔画像から輪郭を類推するための、手助けとなる複数の点のこととする。ここで、特徴点の指定は、顔画像上にユーザが点をプロットして行うものとする。 Next, the feature point specification receiving module 122 receives specification of a feature point from the user (step S03). The feature points are, for example, four points at the leftmost, rightmost, topmost, and bottom of the component parts, and the like, which are a plurality of assisting points for deducing the outline from the face image. Here, the specification of feature points is performed by the user plotting points on the face image.
最後に、輪郭描画モジュール131は、指定された複数の特徴点に基づき輪郭の類推を行い、顔画像に輪郭の描画を行う(ステップS04)。ここでの構成パーツの輪郭の類推処理は、構成パーツの輪郭データを蓄えたデータベースを用意しておき、指定された輪郭の特徴点をデータベースに照合することで、特徴点にあった輪郭データを取得する。これにより、特別な装置を必要とせず、ユーザは特徴点のプロットを行うだけで、適切な輪郭が描画され、輪郭にあわせた適切な位置に化粧シミュレーションを行うことが可能となる。 Finally, the contour drawing module 131 performs contour analogy based on the specified plurality of feature points, and draws a contour on the face image (step S04). In the analogy processing of the contour of the component part, a database in which the contour data of the component part is stored is prepared, and the feature data of the designated contour is collated with the database, whereby the contour data matching the feature point is obtained. get. As a result, it is possible to draw an appropriate contour and perform makeup simulation at an appropriate position in accordance with the contour only by plotting a feature point without requiring a special device.
[各機能の説明]
図2は、端末100の機能ブロックと各機能の関係を示す図である。カメラ部110、入力部120、出力部130、記憶部140、制御部150から構成される。入力部120は制御部150と協働して構成パーツ種類指定受付モジュール121、特徴点指定受付モジュール122を実現する。また、出力部130は制御部150と協働して輪郭描画モジュール131を実現する。[Description of each function]
FIG. 2 is a diagram showing the relationship between functional blocks of the terminal 100 and each function. The camera unit 110, the input unit 120, the output unit 130, the storage unit 140, and the control unit 150. The input unit 120 cooperates with the control unit 150 to implement a component part specification specification acceptance module 121 and a feature point specification reception module 122. Further, the output unit 130 cooperates with the control unit 150 to implement the contour drawing module 131.
端末100は、ユーザがカメラによる撮像を行える一般的な情報端末であって良く、後述する機能を備える情報機器や電化製品である。携帯電話やスマートフォン、カメラ機能を備えた、または、ウェブカメラ等の外付けカメラを接続可能な、タブレットPC、ノートPC、ウェアラブルデバイス、またはディスプレイを備えたPC等の一般的な情報家電やその他の電化製品であって良い。端末100として図示しているスマートフォンはその一例にすぎない。 The terminal 100 may be a general information terminal that allows a user to capture an image by a camera, and is an information device or an electrical appliance having a function to be described later. General information appliances such as tablet PCs, notebook PCs, wearable devices, or PCs with displays that can be connected to mobile phones, smartphones, camera functions, or external cameras such as web cameras etc. It may be an appliance. The smartphone illustrated as the terminal 100 is just an example.
端末100は、カメラ部110にカメラを備える。カメラ部110は、撮影した画像をデジタルデータに変換して、記憶部140に保存する。また、撮影画像は静止画像であっても動画像であってもよく、動画像の場合には、制御部150の働きにより、動画像の一部を切り出して、静止画像として記憶部140に保存することも可能であるとする。また、撮影して得られる画像は、ユーザが必要なだけの情報量を持った精密な画像であるものとし、画素数や画質を指定可能であるものとする。 The terminal 100 includes a camera in the camera unit 110. The camera unit 110 converts a captured image into digital data and stores the digital data in the storage unit 140. The captured image may be a still image or a moving image. In the case of a moving image, the control unit 150 functions to cut out part of the moving image and store it as a still image in the storage unit 140. It is also possible to Further, it is assumed that an image obtained by photographing is a precise image having an amount of information required by the user, and that the number of pixels and the image quality can be specified.
入力部120は、制御部150と協働して構成パーツ種類指定受付モジュール121、特徴点指定受付モジュール122を実現する。また、カメラ部110による撮像の指定を行うために必要な機能を備えるものとする。例として、タッチパネル機能を実現する液晶ディスプレイ、キーボード、マウス、ペンタブレット、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。入力方法により、本発明は特に機能を限定されるものではない。 The input unit 120 cooperates with the control unit 150 to implement a component part specification specification acceptance module 121 and a feature point specification reception module 122. Further, it is assumed that the camera unit 110 has a function necessary to designate imaging by the camera unit 110. As an example, it is possible to provide a liquid crystal display for realizing a touch panel function, a keyboard, a mouse, a pen tablet, hardware buttons on the device, a microphone for voice recognition, and the like. The present invention is not particularly limited in function by the input method.
出力部130は、制御部150と協働して輪郭描画モジュール131を実現する。また、撮像画像やシミュレーション画像の表示を行うために必要な機能を備えるものとする。例として、液晶ディスプレイ、PCのディスプレイ、プロジェクターへの投影等の形態が考えられる。出力方法により、本発明は特に機能を限定されるものではない。 The output unit 130 implements the contour drawing module 131 in cooperation with the control unit 150. In addition, it has a function necessary to display a captured image or a simulation image. As an example, forms such as a liquid crystal display, a display of a PC, a projection on a projector, and the like can be considered. The present invention is not particularly limited in function by the output method.
記憶部140として、ハードディスクや半導体メモリによる、データのストレージ部を備え、撮像した動画や静止画、輪郭類推処理に必要なデータ、化粧方法のデータ等を記憶する。また、必要に応じて輪郭データを蓄えた輪郭データベースを備える。 The storage unit 140 includes a storage unit of data using a hard disk or a semiconductor memory, and stores captured moving images and still images, data necessary for contour analogization processing, data of a makeup method, and the like. Also, a contour database is stored in which contour data is stored as needed.
また、制御部150として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。 In addition, the control unit 150 includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), and the like.
[化粧シミュレーション処理]
図3は、端末100の化粧シミュレーション処理のフローチャート図である。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。Makeup simulation processing
FIG. 3 is a flowchart of the makeup simulation process of the terminal 100. The process executed by the module of each device described above will be described together with this process.
はじめに、端末100は、化粧シミュレーションを施したい顔画像の取得を行う(ステップS101)。ここでは、カメラ部110による撮像を行うか、または端末100内に保存してある画像を選択することにより、化粧シミュレーションを行うための顔画像を決定する。 First, the terminal 100 acquires a face image to be subjected to makeup simulation (step S101). Here, a face image for performing makeup simulation is determined by performing imaging with the camera unit 110 or selecting an image stored in the terminal 100.
図14は、端末100での顔画像取得画面の表示の一例である。図14では、例えばカメラアイコン1401を選択することでカメラ部110による撮像を開始するものとする。撮影は、スマートフォンやタブレットのインカメラを使用して自分で行ってもよいし、背面側のカメラ(アウトカメラ)を使用して他の人に撮影してもらったり、鏡に映った自分を撮影したりしてもよい。または、写真アイコン1402を選択することで、端末100のライブラリに保存してある画像を選択することも可能であるとする。決定ボタン1403を選択すると、化粧シミュレーションを行う画像を決定する。キャンセルボタン1404を選択すると、表示している画像を破棄して、再度画像の撮影、またはライブラリからの選択を行うものとする。 FIG. 14 is an example of the display of the face image acquisition screen on the terminal 100. In FIG. 14, for example, it is assumed that imaging by the camera unit 110 is started by selecting the camera icon 1401. You may shoot by yourself using the in-camera on your smartphone or tablet, or use the back-side camera (out-camera) to have someone else shoot you, or shoot yourself in a mirror You may Alternatively, it is also possible to select an image stored in the library of the terminal 100 by selecting the photo icon 1402. When the determination button 1403 is selected, an image on which makeup simulation is to be performed is determined. When the cancel button 1404 is selected, the displayed image is discarded, and it is assumed that the image is taken or selected from the library again.
次に、端末100の構成パーツ種類指定受付モジュール121は、ユーザから構成パーツの指定を受け付ける(ステップS102)。ここで、化粧シミュレーションを行う顔の構成パーツの種類を、右目、左目、鼻、口、顔全体等の選択肢からユーザに選択させる。この、構成パーツの指定により、以降各パーツに合わせた適切な処理を行える。 Next, the configuration part type specification receiving module 121 of the terminal 100 receives specification of a configuration part from the user (step S102). Here, the user is allowed to select the type of face configuration part to be subjected to the makeup simulation from options such as the right eye, the left eye, the nose, the mouth, and the entire face. By specifying the component parts, it is possible to perform appropriate processing according to each part thereafter.
図15は、端末100での構成パーツ種類指定受付画面の表示の一例である。図15では、ラジオボタン1501として、構成パーツを、目(両目)、右目、左目、鼻、口、頬、顔全体、からユーザに選択させる。ここで挙げた選択肢はあくまで一例であり、システムに応じて設定してよい。図15では、右目がラジオボタンで選択された状態である。決定ボタン1502を選択すると、化粧シミュレーションを行う構成パーツを決定する。ラジオボタンでの選択が行われるまでは、決定ボタン1502をグレーアウトしてもよい。キャンセルボタン1503を選択すると、構成パーツの指定を破棄して、構成パーツの選択画面を終了する。この場合、再度ステップS101に戻って、顔画像の取得を行ってもよい。 FIG. 15 is an example of a display of a component part specification specification acceptance screen on the terminal 100. In FIG. 15, as the radio button 1501, the user is allowed to select constituent parts from the eyes (both eyes), right eye, left eye, nose, mouth, cheeks, and entire face. The options listed here are merely examples and may be set according to the system. In FIG. 15, the right eye is selected by the radio button. When the decision button 1502 is selected, a component part to perform makeup simulation is decided. The decision button 1502 may be grayed out until a radio button selection is made. When the cancel button 1503 is selected, the designation of the component part is discarded, and the component part selection screen is ended. In this case, the process may return to step S101 again to acquire a face image.
次に、端末100の特徴点指定受付モジュール122は、ユーザから特徴点の指定を受け付ける(ステップS103)。特徴点とは、例えば、構成パーツの最も左、最も右、最も上、最も下、の4点等で、顔画像から輪郭を類推するための、手助けとなる複数の点のこととする。ここで、特徴点の指定は、顔画像上にユーザが点をプロットして行うものとする。 Next, the feature point specification receiving module 122 of the terminal 100 receives specification of a feature point from the user (step S103). The feature points are, for example, four points at the leftmost, rightmost, topmost, and bottom of the component parts, and the like, which are a plurality of assisting points for deducing the outline from the face image. Here, the specification of feature points is performed by the user plotting points on the face image.
図16は、端末100での特徴点指定受付画面の表示の一例である。図16では、端末100がスマートフォンであるとして、タッチパネルを使用して、特徴点をプロットさせる例を図示している。ステップS102で選択された構成パーツである右目を表示して、最も左、最も右、最も上、最も下、の4点の特徴点をユーザに入力させる。最も左の特徴点1601、最も右の特徴点1602、最も上の特徴点1603、最も下の特徴点1604をユーザがプロットする。特徴点は、1点ずつ順にユーザにプロットさせてもよいし、画像上に仮の特徴点を表示して、ユーザに調整を行わせてもよいものとする。決定ボタン1605を選択すると、特徴点を決定する。キャンセルボタン1606を選択すると、特徴点の入力を破棄して、特徴点の入力画面を終了する。この場合、再度ステップS102に戻って、構成パーツの選択を行ってもよい。 FIG. 16 is an example of the display of the feature point specification reception screen on the terminal 100. In FIG. 16, it is illustrated that the terminal 100 is a smart phone, and a characteristic point is plotted using a touch panel. The right eye, which is the component part selected in step S102, is displayed, and the user is allowed to input four feature points of the leftmost, the rightmost, the topmost, and the bottommost. The user plots the leftmost feature point 1601, the rightmost feature point 1602, the topmost feature point 1603, and the bottommost feature point 1604. The feature points may be plotted by the user one by one in order, or temporary feature points may be displayed on the image to allow the user to perform adjustment. When the determination button 1605 is selected, the feature point is determined. When the cancel button 1606 is selected, the input of the feature point is discarded and the input screen of the feature point is ended. In this case, the process may return to step S102 to select a component part.
次に、輪郭描画モジュール131は、指定された複数の特徴点に基づき輪郭の類推を行い、顔画像に輪郭の描画を行う(ステップS104)。ここでの構成パーツの輪郭の類推処理は、構成パーツの輪郭データを蓄えたデータベースを用意しておき、指定された輪郭の特徴点をデータベースに照合することで、特徴点にあった輪郭データを取得する。 Next, the contour drawing module 131 performs contour analogy based on the specified plurality of feature points, and draws a contour on the face image (step S104). In the analogy processing of the contour of the component part, a database in which the contour data of the component part is stored is prepared, and the feature data of the designated contour is collated with the database, whereby the contour data matching the feature point is obtained. get.
図23は、輪郭データベースのデータ構造の一例である。右目、左目、鼻、口、顔全体、等の構成パーツ毎に、輪郭データを保存しておく。輪郭データには、顔画像とあわせて、構成パーツの輪郭を描画するために必要なデータを含むものとする。輪郭を描画するために必要なデータは、輪郭の画素位置のデータであってもよいし、ベクターデータであってもよい。輪郭描画モジュール131は、指定された特徴点を、各輪郭データと照合することで、ふさわしい輪郭データを取得し、それを基に端末100の出力部130への描画を行う。輪郭データベースのデータ構造として、輪郭データとあわせて、性別、年齢、人種、等の属性情報を保存してもよい。属性情報の詳細については、後述する。 FIG. 23 shows an example of the data structure of the contour database. Contour data is stored for each component, such as the right eye, left eye, nose, mouth, whole face, etc. The contour data includes data necessary to draw the contour of the component part together with the face image. The data necessary for drawing the contour may be data of pixel positions of the contour or may be vector data. The contour drawing module 131 collates the designated feature points with each contour data to obtain suitable contour data, and performs drawing on the output unit 130 of the terminal 100 based on the contour data. As the data structure of the contour database, attribute information such as gender, age, race, etc. may be stored together with the contour data. Details of the attribute information will be described later.
図17は、端末100での輪郭描画画面の表示の一例である。入力された特徴点にあわせて、類推した輪郭データをもとに、表示欄1705の画像上に輪郭を描画する。決定ボタン1701を選択すると、輪郭データを決定する。キャンセルボタン1702を選択すると、輪郭データを破棄して、輪郭描画の確認画面を終了する。この場合、再度ステップS103に戻って、特徴点の入力を行ってもよい。変更ボタン1703を選択すると、再度輪郭データベースへの照合を行い、別の輪郭データを取得して表示を行う。または、ステップS104の段階で、輪郭データを、第一候補、第二候補、第三候補、と複数取得しておき、変更ボタン1703の選択により、次の候補の輪郭データの表示に切り替えてもよい。微調整ボタン1704を選択すると、ユーザに輪郭の微調整を行わせる。輪郭の微調整の詳細については、後述する。 FIG. 17 is an example of display of a contour drawing screen on the terminal 100. An outline is drawn on the image in the display field 1705 based on the inferred outline data in accordance with the input feature points. When the determination button 1701 is selected, contour data is determined. When the cancel button 1702 is selected, the contour data is discarded, and the contour drawing confirmation screen is ended. In this case, the process may return to step S103 to input feature points. If the change button 1703 is selected, collation with the contour database is performed again, another contour data is acquired and displayed. Alternatively, even in the stage of step S104, a plurality of contour data are acquired as the first candidate, the second candidate, the third candidate, and switching to display of the next candidate contour data by selecting the change button 1703 Good. When the fine adjustment button 1704 is selected, the user is allowed to perform fine adjustment of the contour. Details of the fine adjustment of the contour will be described later.
最後に、端末100は出力部130に輪郭に沿った化粧画像の描画を行う(ステップS105)。ユーザに所望の化粧方法を選択させて、ステップS104で決定した輪郭にあわせた描画を行う。 Finally, the terminal 100 draws a makeup image along the outline on the output unit 130 (step S105). The user is made to select a desired makeup method, and drawing is performed according to the contour determined in step S104.
図18は、端末100での化粧描画画面の表示の一例である。輪郭にあわせて、ユーザが選択した化粧方法を描画する。図18では、構成パーツとして右目が選択されているので、ユーザにアイメイクを選択させる。化粧方法表示欄1801からユーザが所望の化粧法を選択し、決定ボタン1802を選択すると、表示欄1804の画像に化粧方法を反映させる。キャンセルボタン1803を選択すると、選択した化粧方法を破棄して、化粧描画画面を終了する。この場合、再度ステップS104に戻って、輪郭の確認を行ってもよい。また、図18では、表示欄1804に表示している画像は右目のみであるが、顔全体の画像に対して、化粧方法を描画してもよい。また、ステップS102からステップS105を繰り返すことで、構成パーツ毎に順番に化粧シミュレーションを行い、最終的に顔全体の化粧シミュレーションが完成するようにしてもよい。 FIG. 18 is an example of the display of the makeup drawing screen on the terminal 100. The makeup method selected by the user is drawn according to the contour. In FIG. 18, since the right eye is selected as the component part, the user is allowed to select the eye makeup. When the user selects a desired makeup method from the makeup method display column 1801 and selects the determination button 1802, the makeup method is reflected on the image of the display column 1804. When the cancel button 1803 is selected, the selected makeup method is discarded and the makeup drawing screen is ended. In this case, the process may return to step S104 to check the contour. Further, in FIG. 18, the image displayed in the display field 1804 is only the right eye, but a makeup method may be drawn on the image of the entire face. In addition, by repeating step S102 to step S105, makeup simulation may be sequentially performed for each component part, and makeup simulation of the entire face may be finally completed.
[属性情報入力受付処理]
図4は、属性情報入力受付機能を備えた端末100の機能ブロックと各機能の関係を示す図である。図2で説明した機能に加えて、入力部120と制御部150とが協働して属性情報入力受付モジュール123を実現する。[Attribute information input acceptance processing]
FIG. 4 is a diagram showing the relationship between the functional blocks of the terminal 100 having the attribute information input acceptance function and the respective functions. In addition to the functions described with reference to FIG. 2, the input unit 120 and the control unit 150 cooperate to realize the attribute information input acceptance module 123.
図5は、属性情報入力受付機能を備えた端末100の化粧シミュレーション処理のフローチャート図である。図5の顔画像取得(ステップS201)、構成パーツ種類指定受付(ステップS203)、特徴点指定受付(ステップS204)、輪郭描画(ステップS205)、輪郭に沿った化粧描画(ステップS206)は、それぞれ図3の顔画像取得(ステップS101)、構成パーツ種類指定受付(ステップS102)、特徴点指定受付(ステップS103)、輪郭描画(ステップS104)、輪郭に沿った化粧描画(ステップS105)に相当する。そこで、ここでは主に、ステップS202の属性情報入力受付について説明する。 FIG. 5 is a flowchart of makeup simulation processing of the terminal 100 provided with the attribute information input acceptance function. The face image acquisition (step S201), the configuration part type specification acceptance (step S203), the feature point specification acceptance (step S204), the contour drawing (step S205), and the makeup drawing along the contour (step S206) in FIG. This corresponds to face image acquisition (step S101), component part specification specification acceptance (step S102), feature point specification reception (step S103), contour drawing (step S104), and makeup drawing along the contour (step S105) in FIG. . Therefore, here, the attribute information input acceptance in step S202 will be mainly described.
属性情報入力受付処理を行う場合には、ステップS201の顔画像取得後に、属性情報入力受付モジュール123は、ユーザからの属性情報の入力を受け付ける(ステップS202)。 When performing attribute information input acceptance processing, after acquiring the face image in step S201, the attribute information input acceptance module 123 receives input of attribute information from the user (step S202).
図19は、端末100での属性情報入力受付画面の表示の一例である。ここでの属性情報とは、性別、年齢、人種、等の、顔の構成パーツの輪郭に影響を及ぼすと考えられる顔画像の人物の情報であるとする。図19では、ラジオボタン1901により、性別が男性であるか女性であるかを選択させる。ラジオボタン1902により、年齢が10代、20代、30代、40代、50代、60代以上、のいずれであるかを選択させる。ラジオボタン1903により、人種が日本人であるかそれ以外であるかを選択させる。これらの選択肢については、必ずしも前述のものである必要はなく、システムに応じて適切に設定してよい。また、性別、年齢、人種、以外にも顔の構成パーツの輪郭に影響する要素があれば、属性情報として追加してよい。また、システムとして、必ずこの属性情報を入力する必要はなく、ユーザの任意入力としてもよい。ラジオボタン1901、ラジオボタン1902、ラジオボタン1903からユーザが属性情報を選択し、決定ボタン1904を選択すると、属性入力を受け付ける。キャンセルボタン1905を選択すると、選択した属性情報を破棄して、属性情報入力画面を終了する。この場合、再度ステップS201に戻って、顔画像を取得してもよいし、次のステップS203に進んでもよい。 FIG. 19 is an example of the display of the attribute information input acceptance screen on the terminal 100. The attribute information here is information of a person of a face image, such as gender, age, race, etc., which is considered to affect the contour of the component part of the face. In FIG. 19, the radio button 1901 is used to select whether the gender is male or female. The radio button 1902 is used to select one of the ages: teens, 20s, 30s, 40s, 50s, 60s or more. A radio button 1903 is used to select whether the race is Japanese or not. These options do not necessarily have to be described above, and may be appropriately set according to the system. In addition to gender, age, race, and any other element that affects the contour of the constituent part of the face, it may be added as attribute information. In addition, as a system, it is not necessary to input this attribute information without fail, and it may be an arbitrary input of the user. When the user selects attribute information from radio button 1901, radio button 1902, and radio button 1903 and selects determination button 1904, attribute input is accepted. When the cancel button 1905 is selected, the selected attribute information is discarded, and the attribute information input screen is ended. In this case, the process may return to step S201 again to acquire a face image, or may proceed to the next step S203.
次のステップS203の構成パーツ種類指定受付とステップS204特徴点指定受付の処理については、図3のステップS102の構成パーツ種類指定受付とステップS103の特徴点指定受付の処理と同様である。 The processing of configuration part type specification acceptance in step S203 and the processing of feature point specification acceptance in step S204 is the same as the processing of configuration part type specification acceptance in step S102 of FIG. 3 and feature point specification reception in step S103.
ステップS205の輪郭描画を行う際に、輪郭描画モジュール131は、入力された属性情報に基づいた輪郭の描画を行う。図24は、属性情報毎に分類した場合の輪郭データベースのデータ構造の一例である。図23に示した輪郭データベースのデータを、属性情報毎に分類したものである。図24では、10代の日本人の右目の輪郭データを、それを男性か女性か性別不明かによって、分類したものである。ステップS202で入力された属性情報が、10代の日本人男性であり、構成パーツの指定が右目であった場合には、図24の一番上の「男性+10代+日本人」の右目の輪郭データのデータベースにまず照会を行えばよい。そこで、適切なものが見つからなかった場合には、「性別不明+10代+日本人」や、「男性+20代+日本人」等、次に相応しいデータがあると考えられる右目の輪郭データのデータベースに照会を行うものとする。どのような順番で、属性情報別のデータベースに照会を行うかは、システム毎に設定可能であるものとする。また、適切な輪郭データを見つけることが出来なかった場合には、もっとも近いと思われる輪郭データを使用してもよい。このとき、候補となる輪郭データが複数存在する場合に、属性情報が似ているものを優先して選択するようにしてもよい。 When performing contour drawing in step S205, the contour drawing module 131 draws a contour based on the input attribute information. FIG. 24 shows an example of the data structure of the contour database in the case of classification for each attribute information. The data of the contour database shown in FIG. 23 is classified for each attribute information. In FIG. 24, the contour data of the right eye of Japanese teenagers are classified according to whether they are male, female or gender unknown. If the attribute information input in step S202 is a Japanese male of teens and the designation of the component is a right eye, the right eye of "male + teen + Japanese" at the top of FIG. The database of contour data may first be queried. Therefore, in the database of the contour data of the right eye, which is considered to have the next appropriate data, such as "Gender unknown + teen + Japanese" or "male + 20 + Japanese", when an appropriate thing is not found. We shall make a query. The order in which the database for each attribute information is to be inquired can be set for each system. Also, if it is not possible to find suitable contour data, contour data that is considered closest may be used. At this time, in the case where there is a plurality of candidate contour data, it is possible to prioritize and select those having similar attribute information.
最後のステップS206の輪郭に沿った化粧描画の処理については、図3のステップS105の処理と同様である。
The process of makeup drawing along the contour of the last step S206 is the same as the process of step S105 of FIG. 3.
このように、顔の構成パーツの輪郭に影響を及ぼすと考えられる顔画像の属性情報の入力を受け付け、輪郭の描画に使用することで、より精度の高い構成パーツの輪郭描画が可能となる。 As described above, by receiving the input of attribute information of the face image that is considered to affect the contour of the component part of the face and using it for the contour drawing, it is possible to draw the contour of the component part with higher accuracy.
[瞼描画処理]
図6は、瞼描画機能を備えた端末100の機能ブロックと各機能の関係を示す図である。図2で説明した機能に加えて、出力部130と制御部150とが協働して瞼描画モジュール132を実現する。[瞼 drawing process]
FIG. 6 is a diagram showing the relationship between the functional blocks of the terminal 100 having the eyelid drawing function and the respective functions. In addition to the functions described in FIG. 2, the output unit 130 and the control unit 150 cooperate to realize the eyelid drawing module 132.
図7は、瞼描画機能を備えた端末100の化粧シミュレーション処理のフローチャート図である。図7の顔画像取得(ステップS301)、構成パーツ種類指定受付(ステップS302)、特徴点指定受付(ステップS303)、輪郭描画(ステップS304)、輪郭に沿った化粧描画(ステップS307)は、それぞれ図3の顔画像取得(ステップS101)、構成パーツ種類指定受付(ステップS102)、特徴点指定受付(ステップS103)、輪郭描画(ステップS104)、輪郭に沿った化粧描画(ステップS105)に相当する。そこで、ここでは、ステップS305とステップS306を中心に説明する。 FIG. 7 is a flowchart of makeup simulation processing of the terminal 100 having the eyelid drawing function. The face image acquisition (step S301), the configuration part type specification acceptance (step S302), the feature point specification acceptance (step S303), the contour drawing (step S304), and the makeup drawing along the contour (step S307) in FIG. This corresponds to face image acquisition (step S101), component part specification specification acceptance (step S102), feature point specification reception (step S103), contour drawing (step S104), and makeup drawing along the contour (step S105) in FIG. . Therefore, here, the description will be made focusing on step S305 and step S306.
瞼描画処理を行う場合、ステップS304の輪郭描画後に、瞼描画モジュール132はステップS302で指定された構成パーツが目であるかどうかの確認を行う(ステップS305)。指定された構成パーツが目でない場合、ステップS307に進む。 When performing the eyelid drawing process, after drawing the contour in step S304, the eyelid drawing module 132 confirms whether the component designated in step S302 is an eye (step S305). If the designated component is not the eye, the process proceeds to step S307.
指定された構成パーツが目である場合、瞼描画モジュール132は瞼の輪郭描画を行う(ステップS306)。 If the specified component is an eye, the eyelid drawing module 132 performs eyelid outline drawing (step S306).
図20は、端末100での瞼の輪郭描画画面の表示の一例である。ここでは、構成パーツとして右目が指定された場合の例を示している。すでに描画された右目の輪郭にあわせて、瞼描画モジュール132は、右目の瞼の輪郭を類推し、表示欄2005の画像上に瞼の輪郭を描画する。図20では、瞼の輪郭を破線で描画した例を示している。決定ボタン2001を選択すると、瞼の輪郭データを決定する。キャンセルボタン2002を選択すると、瞼の輪郭データを破棄して、瞼の輪郭描画の確認画面を終了する。この場合、再度ステップS304に戻って、右目の輪郭描画を行ってもよい。変更ボタン2003を選択すると、再度輪郭データベースへの照合を行い、別の瞼の輪郭データを取得して表示を行う。または、ステップS306の段階で、瞼の輪郭データを、第一候補、第二候補、第三候補、と複数取得しておき、変更ボタン2003の選択により、次の候補の瞼の輪郭データの表示に切り替えてもよい。微調整ボタン2004を選択すると、ユーザに瞼の輪郭の微調整を行わせる。瞼の輪郭の微調整の詳細については、後述する。 FIG. 20 is an example of display of a contour drawing screen of eyelids on the terminal 100. Here, an example in which the right eye is specified as a component part is shown. The eyelid drawing module 132 draws the outline of the eyelid on the image of the display field 2005 by analogizing the outline of the eyelid of the right eye according to the outline of the right eye already drawn. FIG. 20 shows an example in which the outline of the eyebrow is drawn by a broken line. When the determination button 2001 is selected, the outline data of the eyebrows is determined. When the cancel button 2002 is selected, the eyelid contour data is discarded, and the eyelid contour drawing confirmation screen is ended. In this case, the process may return to step S304 to perform contour drawing of the right eye. When the change button 2003 is selected, collation with the contour database is performed again, and contour data of another eyelid is acquired and displayed. Alternatively, at the stage of step S306, a plurality of eyelid contour data are acquired as the first candidate, the second candidate, the third candidate, and selection of the change button 2003 displays the contour data of the next candidate eyelid You may switch to When the fine adjustment button 2004 is selected, the user is allowed to perform fine adjustment of the eyelid contour. Details of the fine adjustment of the outline of the eyebrow will be described later.
ここでの、瞼描画モジュール132による瞼の輪郭類推処理は、目の輪郭を基に、瞼の厚みを予測して行ってもよいし、輪郭データベースの目のデータに、付属情報として瞼の輪郭データを登録しておき、そのデータを取得してもよい。 Here, the eyelid contour analogy processing by the eyelid drawing module 132 may be performed by predicting the eyelid thickness based on the eye contour, or the eyelid contour as attached information in the eye data of the contour database. Data may be registered, and the data may be acquired.
最後に、描画した右目と瞼の輪郭に沿って、化粧画像の描画を行う(ステップS307)。ユーザに所望の化粧方法を選択させて、ステップS304とステップS306で決定した輪郭にあわせた描画を行う。 Finally, a makeup image is drawn along the drawn contours of the right eye and eyebrows (step S307). The user is made to select a desired makeup method, and drawing is performed according to the contours determined in step S304 and step S306.
このように、アイメイクに重要なパーツである瞼の描画を行うことで、よりユーザにとって有益な化粧シミュレーションシステムを提供することが可能となる。 In this way, by drawing the eyebrow which is an important part for eye makeup, it is possible to provide a makeup simulation system more useful to the user.
[輪郭微調整処理]
図8は、輪郭微調整機能を備えた端末100の機能ブロックと各機能の関係を示す図である。図2で説明した機能に加えて、入力部120と制御部150とが協働して輪郭微調整モジュール124を実現する。[Contour fine adjustment process]
FIG. 8 is a diagram showing the relationship between the functional blocks of the terminal 100 having the contour fine adjustment function and the respective functions. In addition to the functions described in FIG. 2, the input unit 120 and the control unit 150 cooperate to realize the contour fine adjustment module 124.
図9は、輪郭微調整機能を備えた端末100の化粧シミュレーション処理のフローチャート図である。図9の顔画像取得(ステップS401)、構成パーツ種類指定受付(ステップS402)、特徴点指定受付(ステップS403)、輪郭描画(ステップS404)、輪郭に沿った化粧描画(ステップS407)は、それぞれ図3の顔画像取得(ステップS101)、構成パーツ種類指定受付(ステップS102)、特徴点指定受付(ステップS103)、輪郭描画(ステップS104)、輪郭に沿った化粧描画(ステップS105)に相当する。そこで、ここでは、ステップS405とステップS406を中心に説明する。 FIG. 9 is a flowchart of makeup simulation processing of the terminal 100 provided with the contour fine adjustment function. The face image acquisition (step S401), the configuration part type specification acceptance (step S402), the feature point specification acceptance (step S403), the contour drawing (step S404), and the makeup drawing along the contour (step S407) in FIG. This corresponds to face image acquisition (step S101), component part specification specification acceptance (step S102), feature point specification reception (step S103), contour drawing (step S104), and makeup drawing along the contour (step S105) in FIG. . Therefore, the description here will focus on step S405 and step S406.
輪郭微調整処理を行う場合、ステップS404の輪郭描画後に、輪郭微調整モジュール124は輪郭の微調整を行うかどうかの確認を行う(ステップS405)。ここで、微調整を行うかどうかは、ユーザに選択させてもよいし、S404の描画した輪郭と実際の顔画像の構成パーツの輪郭との間にズレがあるかどうかを画像解析して、ズレがある場合に微調整を行うこととしてもよい。輪郭の微調整を行う場合には、ステップS406に進み、輪郭の微調整を行わない場合には、ステップS407に進む。 When the contour fine adjustment process is performed, after the contour drawing in step S404, the contour fine adjustment module 124 confirms whether or not to finely adjust the contour (step S405). Here, whether or not to perform fine adjustment may be selected by the user, or image analysis is performed to determine whether there is a deviation between the contour drawn in S404 and the contour of the component part of the actual face image, Fine adjustment may be performed when there is a deviation. If fine adjustment of the contour is to be performed, the process proceeds to step S406. If fine adjustment of the contour is not to be performed, the process proceeds to step S407.
輪郭微調整モジュール124は、ユーザからの入力をもとに、構成パーツの輪郭の微調整を行う(ステップS406)。図21は、端末100での輪郭微調整画面の表示の一例である。ここでは、構成パーツとして右目が指定された場合の例を示している。ユーザに、表示欄2103に描画した右目の輪郭上の点を指定して移動させることで、輪郭の微調整を行う。指定して移動させる点は、先に入力した特徴点である必要はなく、輪郭上のある点を指定して移動できるものとする。輪郭微調整モジュール124は、ユーザによりある点が移動された場合、移動後の点とその点の近傍にある元の輪郭上の点とを、滑らかに結んで輪郭を再描画するものとし、輪郭線が途切れないようにする。また、拡大ボタン2104や縮小ボタン2105を設けて、ユーザが自由に表示欄2103の画像を拡大縮小して、輪郭の微調整を行いやすくしてもよい。決定ボタン2101を選択すると、微調整を行った輪郭データを保存する。キャンセルボタン2102を選択すると、微調整した輪郭データを破棄して、輪郭の微調整画面を終了する。この場合、再度ステップS404に戻って、輪郭描画を行ってもよい。図21には通常の輪郭微調整の例を示したが、瞼の輪郭微調整の処理を行う場合も、同様である。 The contour fine adjustment module 124 finely adjusts the contour of the component part based on the input from the user (step S406). FIG. 21 is an example of the display of the contour fine adjustment screen on the terminal 100. Here, an example in which the right eye is specified as a component part is shown. A fine adjustment of the outline is performed by designating and moving the point on the outline of the right eye drawn in the display field 2103 to the user. The point to be designated and moved does not have to be the previously input feature point, and it is possible to designate and move a certain point on the contour. If a user moves a point, the outline fine adjustment module 124 connects smoothly the point after movement and the point on the original outline in the vicinity of the point and redraws the outline; Make the line uninterrupted. In addition, the enlargement button 2104 and the reduction button 2105 may be provided, and the user may freely enlarge or reduce the image in the display field 2103 to facilitate fine adjustment of the outline. When the enter button 2101 is selected, contour data on which fine adjustment has been performed is stored. When the cancel button 2102 is selected, the finely adjusted contour data is discarded, and the contour fine adjustment screen is ended. In this case, the process may return to step S404 to perform contour drawing. Although the example of normal outline fine adjustment was shown in FIG. 21, it is also the same as when processing the outline fine adjustment of eyebrows.
最後に、輪郭に沿って、ユーザが所望の化粧方法の化粧画像の描画を行う(ステップS407)。 Finally, the user draws a makeup image of a desired makeup method along the contour (step S407).
このように、輪郭の微調整処理を行ってから化粧画像の描画を行うことで、より精度の高い化粧シミュレーションシステムを提供することが可能となる。 As described above, it is possible to provide a makeup simulation system with higher accuracy by drawing the makeup image after performing the fine adjustment processing of the contour.
[画面共有による遠隔操作処理]
図10は、画面共有機能と遠隔操作機能を備えた接続元端末100aと接続先端末100bのブロックと各機能の関係を示す図である。接続元端末100aと接続先端末100bは、それぞれ図2で説明した端末100の機能に加えて、通信部160を備える。通信部160は、制御部150と協働して、画面共有モジュール161と遠隔操作モジュール162を実現する。端末間は、通信網200を介して接続されているものとする。通信網200は、公衆通信網でも専用通信網でも良い。ここでは、接続元端末100aを、通信網200を介して、ネットワーク上にある接続先端末100bに対して、画面共有依頼を実行する端末であるとする。[Remote control processing by screen sharing]
FIG. 10 is a diagram showing the relationship between blocks of the connection source terminal 100a and the connection destination terminal 100b having the screen sharing function and the remote control function, and the respective functions. The connection source terminal 100 a and the connection destination terminal 100 b each include a communication unit 160 in addition to the functions of the terminal 100 described in FIG. 2. The communication unit 160 implements the screen sharing module 161 and the remote control module 162 in cooperation with the control unit 150. It is assumed that the terminals are connected via the communication network 200. The communication network 200 may be a public communication network or a dedicated communication network. Here, it is assumed that the connection source terminal 100a is a terminal that executes a screen sharing request to the connection destination terminal 100b on the network via the communication network 200.
通信部160には、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイス又は第3世代、第4世代移動通信システム等のIMT−2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。 The communication unit 160 may be a device for enabling communication with other devices, for example, an IMT-2000 standard such as a WiFi (Wireless Fidelity) compliant device compliant with IEEE 802.11 or a third generation or fourth generation mobile communication system. A wireless device or the like conforming to It may be a wired LAN connection.
図11は、画面共有機能と遠隔操作機能を備えた接続元端末100aと接続先端末100bのフローチャート図である。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。なお、ここでは接続元端末100aと接続先端末100bが直接通信を行う記載としているが、システムに応じて、間にサーバを介する構成としてもよい。 FIG. 11 is a flowchart of the connection source terminal 100a and the connection destination terminal 100b having the screen sharing function and the remote control function. The process executed by the module of each device described above will be described together with this process. Here, although the description is made that the connection source terminal 100a and the connection destination terminal 100b directly communicate with each other, the server may be interposed between them depending on the system.
初めに、接続元端末100aの画面共有モジュール161は接続先端末100bに対して、画面共有開始の通知を行う(ステップS501)。ここでは、フローの簡略化のため、接続元端末100aから接続先端末100bに対する画面共有開始の通知のみを図示しているが、セキュリティ維持のための認証処理、接続先端末100b側の画面共有承認処理、接続先端末100bから接続元端末100aへの応答処理等、通常の画面共有システムで必要な処理もあわせて行うものとする。接続先端末100bから接続元端末100aへの応答処理は、接続先端末100bの画面共有モジュール161が行う。 First, the screen sharing module 161 of the connection source terminal 100a notifies the connection destination terminal 100b of the start of screen sharing (step S501). Here, only notification of the start of screen sharing from the connection source terminal 100a to the connection destination terminal 100b is illustrated for simplification of the flow, but authentication processing for maintaining security, screen sharing approval on the connection destination terminal 100b side It is also assumed that processing necessary for the normal screen sharing system, such as processing and response processing from the connection destination terminal 100b to the connection source terminal 100a, is also performed. The screen sharing module 161 of the connection destination terminal 100b performs the response process from the connection destination terminal 100b to the connection source terminal 100a.
次に、接続元端末100aの画面共有モジュール161は、画面共有を行うための共有データの作成を行う(ステップS502)。画面共有処理を開始してから、接続元端末100aで化粧シミュレーションシステムを行う場合、この共有データ作成処理では、図3、図5、図7、図9のそれぞれのフローチャートを実行しながら、適切な間隔で、接続元端末100aの画面データを共有データとして接続先端末100bで表示するのに適切な形式に変換するものとする。 Next, the screen sharing module 161 of the connection source terminal 100a creates shared data for performing screen sharing (step S502). When the makeup simulation system is performed on the connection source terminal 100a after the screen sharing process is started, in this shared data creation process, the respective flowcharts of FIG. 3, FIG. 5, FIG. 7, and FIG. At intervals, the screen data of the connection source terminal 100a is converted into a format suitable for display on the connection destination terminal 100b as shared data.
次に、接続元端末100aの画面共有モジュール161は、作成した共有データを接続先端末100bに送信する(ステップS503)。 Next, the screen sharing module 161 of the connection source terminal 100a transmits the created shared data to the connection destination terminal 100b (step S503).
接続先端末100bの画面共有モジュール161は、共有データを受信し(ステップS504)、受信した共有データをもとに、共有画面を表示する(ステップS505)。 The screen sharing module 161 of the connection destination terminal 100b receives the shared data (step S504), and displays the shared screen based on the received shared data (step S505).
ここで、接続先端末100bの遠隔操作モジュール162は、共有している画面に対して、操作を行うかどうかを確認する(ステップS506)。 Here, the remote control module 162 of the connection destination terminal 100b confirms whether or not the operation is performed on the shared screen (step S506).
操作を行わない場合には、ステップS508へと進む。操作を行う場合には、接続先端末100bの遠隔操作モジュール162は、ユーザからの操作入力を受け付ける(ステップS507)。ここでの接続先端末100bに対する操作は、接続元端末100aの入力部120に対して可能な操作と同等であるとする。 If the operation is not performed, the process proceeds to step S508. When the operation is performed, the remote control module 162 of the connection destination terminal 100b receives an operation input from the user (step S507). It is assumed that the operation on the connection destination terminal 100b here is equivalent to the operation that can be performed on the input unit 120 of the connection source terminal 100a.
次に、接続先端末100bの遠隔操作モジュール162は、操作データを接続元端末100aに送信する(ステップS508)。ステップS507の操作を行わなかった場合には、操作データを送信するのではなく、応答のみを送信してもよい。 Next, the remote control module 162 of the connection destination terminal 100b transmits the operation data to the connection source terminal 100a (step S508). When the operation in step S507 is not performed, only the response may be transmitted instead of transmitting the operation data.
接続元端末100aの画面共有モジュール161は、接続先端末100bから操作データを受信する(ステップS509)。 The screen sharing module 161 of the connection source terminal 100a receives the operation data from the connection destination terminal 100b (step S509).
そして、接続元端末100aの画面共有モジュール161は、受信した操作データをもとに、画面の表示を更新する(ステップS510)。たとえば、接続先端末100bで輪郭の微調整が行われた場合には、微調整後の画面を接続元端末100aの出力部130に表示する。 Then, the screen sharing module 161 of the connection source terminal 100a updates the display of the screen based on the received operation data (step S510). For example, when fine adjustment of the outline is performed at the connection destination terminal 100b, the screen after the fine adjustment is displayed on the output unit 130 of the connection source terminal 100a.
その後、接続元端末100aの画面共有モジュール161は、画面共有を終了するかどうかの確認を行う(ステップS511)。 Thereafter, the screen sharing module 161 of the connection source terminal 100a checks whether to end the screen sharing (step S511).
画面共有を終了しない場合には、ステップS502に戻り、処理を継続する。画面共有を終了する場合には、接続先端末100bに対して、画面共有終了の通知を行い、画面共有処理を終了する(ステップS512)。 If the screen sharing is not finished, the process returns to step S502 and continues. When the screen sharing is finished, the end of the screen sharing is notified to the connection destination terminal 100b, and the screen sharing process is finished (step S512).
ここでは、画面共有の終了を行うかどうか、接続元端末100aでのみ確認する例を示したが、接続先端末100bでも、画面共通処理の終了を行うかどうかの確認を行ってもよい。また、システムやユーザの希望に応じて、接続元端末100a側の画面を共有するのではなく、接続先端末100b側の画面を共有することとしてもよい。 Here, an example is shown in which only the connection source terminal 100a confirms whether the screen sharing is to be ended, but the connection destination terminal 100b may also confirm whether the screen common process is to be ended. Further, according to the system or the user's request, the screen of the connection destination terminal 100b may be shared instead of sharing the screen of the connection source terminal 100a.
図22は、接続元端末100aと接続先端末100bとの間で画面共有と遠隔操作を行う場合の表示の一例である。接続元端末100aと接続先端末100bは、通信網200を介して画面共有中である。接続元端末100aのユーザ2201は、構成パーツとして右目を選択し、化粧シミュレーションを実行しようとしているが、輪郭描画がうまくいっておらず、前述の輪郭の微調整処理も思うようにできないものとする。このような場合には、接続先端末100bのユーザ2202が、接続先端末100bの画面上で、輪郭の微調整を行うことで、所望の輪郭にあわせた化粧シミュレーションを行うことが可能となる。ここで、ユーザ2202は、ユーザ2201の友人等であってもよいし、化粧シミュレーションシステムのヘルプデスクやオペレータであってもよいし、化粧シミュレーションに対してアドバイスを行うメイクアップアーティスト等の専門家であってもよい。 FIG. 22 is an example of display when screen sharing and remote control are performed between the connection source terminal 100a and the connection destination terminal 100b. The connection source terminal 100 a and the connection destination terminal 100 b are sharing the screen via the communication network 200. The user 2201 of the connection source terminal 100a selects the right eye as a component part and tries to execute a makeup simulation, but contour drawing is not successful, and the above-mentioned fine adjustment processing of the contour can not be considered as well. . In such a case, it becomes possible for the user 2202 of the connection destination terminal 100b to finely adjust the contour on the screen of the connection destination terminal 100b to perform makeup simulation in accordance with the desired contour. Here, the user 2202 may be a friend of the user 2201 or the like, may be a help desk or an operator of a makeup simulation system, or an expert such as a makeup artist who gives advice on makeup simulation. It may be.
このように、画面共有による遠隔操作処理を行うことで、よりユーザにとって利便性の高い化粧シミュレーションシステムを提供することが可能となる。 Thus, by performing the remote control process by screen sharing, it is possible to provide a makeup simulation system that is more convenient for the user.
[サーバに輪郭データベースを備えた化粧シミュレーションシステム] [A cosmetic simulation system with a contour database on the server]
図12は、サーバに輪郭データベースを備えた場合の端末100とサーバ300の機能ブロックと各機能の関係を示す図である。ここでは、端末100に前述のモジュールすべてを備えた例を図示している。端末100とサーバ300との間は、通信網200を介して接続されているものとする。通信網200は、公衆通信網でも専用通信網でも良い。サーバ300は、通信部310、制御部320、記憶部330を備えるものとする。通信部310は、有線または無線により、他のデバイスと通信可能とする。制御部320には、CPU、RAM、ROM等を備える。記憶部330には、ハードディスクや半導体メモリによる、データのストレージ部を備え、また、輪郭データベース331を備えるものとする。 FIG. 12 is a diagram showing the relationship between the functional blocks of the terminal 100 and the server 300 and the functions when the server is provided with the contour database. Here, an example in which the terminal 100 is provided with all the aforementioned modules is illustrated. It is assumed that the terminal 100 and the server 300 are connected via the communication network 200. The communication network 200 may be a public communication network or a dedicated communication network. The server 300 includes a communication unit 310, a control unit 320, and a storage unit 330. The communication unit 310 can communicate with other devices by wire or wirelessly. The control unit 320 includes a CPU, a RAM, a ROM, and the like. The storage unit 330 includes a storage unit of data such as a hard disk or a semiconductor memory, and further includes a contour database 331.
図13は、サーバに輪郭データベースを備えた場合の端末100とサーバ300のフローチャート図である。図13の顔画像取得(ステップS601)、属性情報入力受付(ステップS602)、構成パーツ種類指定受付(ステップS603)、特徴点指定受付(ステップS604)、輪郭描画(ステップS611)、輪郭に沿った化粧描画(ステップS612)は、それぞれ図3の顔画像取得(ステップS101)、図5の属性情報入力受付(ステップS202)、図3の構成パーツ種類指定受付(ステップS102)、特徴点指定受付(ステップS103)、輪郭描画(ステップS104)、輪郭に沿った化粧描画(ステップS105)に相当する。そのため、ここではステップS605からステップS610を中心に説明する。 FIG. 13 is a flowchart of the terminal 100 and the server 300 when the server is provided with a contour database. Face image acquisition in FIG. 13 (step S601), attribute information input acceptance (step S602), configuration part type specification acceptance (step S603), feature point specification acceptance (step S604), contour drawing (step S611), along the contour The makeup drawing (step S612) is the face image acquisition in FIG. 3 (step S101), the attribute information input acceptance in FIG. 5 (step S202), the configuration part type specification acceptance in FIG. 3 (step S102), and the feature point specification acceptance ( Step S103) corresponds to contour drawing (step S104) and cosmetic drawing along the contour (step S105). Therefore, the description here will focus on steps S605 to S610.
ステップS604の特徴点指定受付後、輪郭描画モジュール131は、構成パーツの種類と、指定された複数の特徴点のデータをサーバ300に送信する(ステップS605)。属性情報が入力されている場合には、属性情報もあわせて送信する。また、構成パーツの輪郭の類推処理に、顔画像も使用する場合には、顔画像もあわせて送信してよい。 After receiving the feature point specification in step S604, the contour drawing module 131 transmits the types of component parts and data of a plurality of specified feature points to the server 300 (step S605). If attribute information is input, the attribute information is also transmitted. When a face image is also used in the analogy process of the contour of the component part, the face image may be transmitted together.
サーバ300は、輪郭の類推処理に必要なデータを端末100から受信する(ステップS606)。 The server 300 receives data necessary for the contour analogy process from the terminal 100 (step S606).
次に、サーバ300は、受信したデータをもとに輪郭データベース331を参照し、輪郭の類推処理を行う(ステップS607)。指定された輪郭の特徴点をデータベースに照合することで、特徴点にあった輪郭データを取得する。その際、属性情報が存在する場合には、図5の処理で前述した通り、属性情報に応じたデータベースから優先して輪郭データを取得する。 Next, the server 300 refers to the contour database 331 based on the received data, and performs a contour analogization process (step S 607). By collating the feature points of the designated contour with the database, contour data matching the feature points is acquired. At this time, if the attribute information exists, as described above in the processing of FIG. 5, the contour data is preferentially acquired from the database corresponding to the attribute information.
サーバ300は、類推した輪郭データをもとに、輪郭データの作成処理を行う(ステップS608)。化粧シミュレーションに使用する顔画像と、輪郭データベース331に登録されている画像は、実際の大きさが異なる場合もあるので、その場合には、顔画像の特徴点と輪郭データベース331の輪郭データとの比較は、変倍して行う必要がある。変倍して輪郭の類推処理を行った場合には、ここで、輪郭データを実際の顔画像のサイズに適した大きさにあわせて、変倍する。 The server 300 performs contour data creation processing based on the inferred contour data (step S608). The actual size of the face image used for the makeup simulation and the image registered in the outline database 331 may differ, and in this case, the feature points of the face image and the outline data of the outline database 331 are used. The comparison needs to be done by scaling. When the resizing is performed to perform contour analogization processing, the contour data is scaled according to the size suitable for the size of the actual face image.
次に、サーバ300は、作成した輪郭データを端末100に送信する(ステップS609)。 Next, the server 300 transmits the created contour data to the terminal 100 (step S609).
端末100の輪郭描画モジュール131は、サーバ300から輪郭データを受信する(ステップS610)。 The contour drawing module 131 of the terminal 100 receives contour data from the server 300 (step S610).
次に、輪郭描画モジュール131は、受信した輪郭データに基づき、顔画像に輪郭の描画を行う(ステップS611)。 Next, the contour drawing module 131 draws a contour on the face image based on the received contour data (step S611).
最後に、端末100は出力部130に輪郭に沿った化粧画像の描画を行う(ステップS612)。 Finally, the terminal 100 draws a makeup image along the outline on the output unit 130 (step S612).
このように、サーバ300に輪郭データベースを備えることで、端末100にデータベースを備える必要がなくなるため、端末100の記憶部140の容量を圧迫することが無くなる。また、随時、サーバ300のデータベースの輪郭データを増やすことができるため、より、精度の高い化粧シミュレーションシステムを提供することが可能となる。 As described above, by providing the outline database in the server 300, it is not necessary to provide the database in the terminal 100, and therefore, the capacity of the storage unit 140 of the terminal 100 is not compressed. Further, since contour data of the database of the server 300 can be increased as needed, it is possible to provide a makeup simulation system with higher accuracy.
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)、コンパクトメモリ等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。 The above-described means and functions are realized by a computer (including a CPU, an information processing device, and various terminals) reading and executing a predetermined program. The program is provided, for example, in the form of being recorded on a computer readable recording medium such as a flexible disk, a CD (CD-ROM or the like), a DVD (DVD-ROM, DVD-RAM or the like), a compact memory or the like. In this case, the computer reads the program from the recording medium, transfers the program to an internal storage device or an external storage device, stores it, and executes it. Alternatively, the program may be recorded in advance in a storage device (recording medium) such as, for example, a magnetic disk, an optical disk, or a magneto-optical disk, and may be provided from the storage device to the computer via a communication line.
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。 As mentioned above, although embodiment of this invention was described, this invention is not limited to these embodiment mentioned above. Further, the effects described in the embodiments of the present invention only list the most preferable effects resulting from the present invention, and the effects according to the present invention are limited to those described in the embodiments of the present invention is not.
100 端末、100a 接続元端末、100b 接続先端末、200 通信網、300 サーバ、 100 terminals, 100a connection source terminals, 100b connection destination terminals, 200 communication networks, 300 servers,
Claims (8)
顔の構成パーツの輪郭に影響を及ぼすと考えられる前記顔画像の人物の情報である属性情報の入力を受ける属性情報入力受付手段と、
前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付手段と、
前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定受付手段と、
前記プロットにより指定された複数の特徴点に基づいて、前記入力された属性情報を加味して、前記構成パーツの輪郭を描画する輪郭描画手段と、
を備えることを特徴とする化粧シミュレーションシステム。 A makeup simulation system that performs makeup simulation on a face image, and
Attribute information input receiving means for receiving input of attribute information that is information of a person of the face image that is considered to affect the contour of the constituent parts of the face;
Configuration part type specification receiving means for receiving specification of the type of configuration part of the face image;
Feature point specification receiving means for receiving specification of a plurality of feature points by plotting on the contour of the component part received the specification;
An outline drawing unit that draws the outline of the component part in consideration of the input attribute information based on a plurality of feature points specified by the plot;
A cosmetic simulation system characterized by comprising:
を備えることを特徴とする請求項1から請求項3のいずれかに記載の化粧シミュレーションシステム。 An eyebrow drawing means for predicting and drawing an eyelid outline from the eye outline drawn by the outline drawing means when the specified component part is an eye;
The makeup simulation system according to any one of claims 1 to 3, further comprising:
を備えることを特徴とする請求項1から請求項4のいずれかに記載の化粧シミュレーションシステム。 Drawing contour fine adjustment means for performing fine adjustment of the drawn contour when there is a deviation between the drawn contour and the contour of the component part of the face image;
The makeup simulation system according to any one of claims 1 to 4, comprising:
前記ネットワークを介して接続された端末から前記共有した画面に対して操作を行える遠隔操作手段と、
を備えることを特徴とする請求項1から請求項5のいずれかに記載の化粧シミュレーションシステム。 Screen sharing means for sharing a screen with a terminal connected via a network;
A remote control unit that can operate the shared screen from a terminal connected via the network;
The makeup simulation system according to any one of claims 1 to 5, comprising:
顔の構成パーツの輪郭に影響を及ぼすと考えられる前記顔画像の人物の情報である属性情報の入力を受ける属性情報入力受付ステップと、
前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付ステップと、
前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定受付ステップと、
前記プロットにより指定された複数の特徴点に基づいて、前記入力された属性情報を加味して、前記構成パーツの輪郭を描画する輪郭描画ステップと、
を備えることを特徴とする化粧シミュレーション方法。 A makeup simulation method executed by a makeup simulation system that performs makeup simulation on a face image,
An attribute information input accepting step of receiving an input of attribute information which is information of a person of the face image considered to affect the contour of a constituent part of the face;
A configuration part type specification receiving step of receiving specification of a type of configuration part of the face image;
A feature point specification accepting step of accepting specification of a plurality of feature points by plotting on the contour of the component part received the specification;
An outline drawing step of drawing an outline of the component part in consideration of the input attribute information based on a plurality of feature points specified by the plot;
A cosmetic simulation method comprising:
顔の構成パーツの輪郭に影響を及ぼすと考えられる前記顔画像の人物の情報である属性情報の入力を受ける属性情報入力受付ステップ、
前記顔画像の構成パーツの種類の指定を受ける構成パーツ種類指定受付ステップ、
前記指定を受けた構成パーツの輪郭上に、複数の特徴点の指定をプロットにより受け付ける特徴点指定ステップ、
前記プロットにより指定された複数の特徴点に基づいて、前記入力された属性情報を加味して、前記構成パーツの輪郭を描画する輪郭描画ステップ、
を実行させるためのコンピュータ読み取り可能な化粧シミュレーションプログラム。 A makeup simulation system that performs makeup simulation on a face image,
An attribute information input accepting step of receiving an input of attribute information which is information of a person of the face image considered to affect the contour of a component of the face;
Configuration part type specification receiving step for receiving specification of the type of configuration part of the face image,
A feature point specification step of accepting specification of a plurality of feature points by plotting on the contour of the component part received the specification;
An outline drawing step of drawing an outline of the component part in consideration of the input attribute information based on a plurality of feature points specified by the plot;
Computer readable makeup simulation program for running.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/061846 WO2017179134A1 (en) | 2016-04-12 | 2016-04-12 | Makeup simulation system, makeup simulation method, and makeup simulation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017179134A1 JPWO2017179134A1 (en) | 2018-11-01 |
JP6427297B2 true JP6427297B2 (en) | 2018-11-21 |
Family
ID=60042425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018511805A Active JP6427297B2 (en) | 2016-04-12 | 2016-04-12 | Makeup simulation system, makeup simulation method, and makeup simulation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6427297B2 (en) |
WO (1) | WO2017179134A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10691932B2 (en) | 2018-02-06 | 2020-06-23 | Perfect Corp. | Systems and methods for generating and analyzing user behavior metrics during makeup consultation sessions |
CN109191569A (en) * | 2018-09-29 | 2019-01-11 | 深圳阜时科技有限公司 | A kind of simulation cosmetic device, simulation cosmetic method and equipment |
WO2023188160A1 (en) * | 2022-03-30 | 2023-10-05 | 日本電気株式会社 | Input assistance device, input assistance method, and non-transitory computer-readable medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3567261B2 (en) * | 2002-03-29 | 2004-09-22 | カシオ計算機株式会社 | Portrait image display control device and portrait image display control method |
JP2008059108A (en) * | 2006-08-30 | 2008-03-13 | Hitachi Ltd | Image processing apparatus, image processing method, its program, and flow of people monitoring system |
JP2009053981A (en) * | 2007-08-28 | 2009-03-12 | Kao Corp | Makeup simulation device |
JP5212451B2 (en) * | 2010-11-30 | 2013-06-19 | カシオ計算機株式会社 | Region specifying method, region specifying device, program, server, and system |
JP5831412B2 (en) * | 2012-09-14 | 2015-12-09 | コニカミノルタ株式会社 | Information sharing system, shared terminal, and shared control program |
JP6265592B2 (en) * | 2012-12-10 | 2018-01-24 | セコム株式会社 | Facial feature extraction apparatus and face authentication system |
-
2016
- 2016-04-12 WO PCT/JP2016/061846 patent/WO2017179134A1/en active Application Filing
- 2016-04-12 JP JP2018511805A patent/JP6427297B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017179134A1 (en) | 2017-10-19 |
JPWO2017179134A1 (en) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6200483B2 (en) | Image processing system, image processing method, and image processing program | |
US9894320B2 (en) | Information processing apparatus and image processing system | |
US9773162B2 (en) | User discovery via digital ID and face recognition | |
JP5302793B2 (en) | Cosmetic support device, cosmetic support method, cosmetic support program, and portable terminal device | |
CN104284064B (en) | Method and apparatus for preview twin-lens image | |
CN108600632B (en) | Photographing prompting method, intelligent glasses and computer readable storage medium | |
US10237495B2 (en) | Image processing apparatus, image processing method and storage medium | |
JP6212533B2 (en) | Screen sharing system, screen sharing method, and screen sharing program | |
KR20170095817A (en) | Avatar selection mechanism | |
US10440307B2 (en) | Image processing device, image processing method and medium | |
JP6427297B2 (en) | Makeup simulation system, makeup simulation method, and makeup simulation program | |
CN110503023A (en) | Biopsy method and device, electronic equipment and storage medium | |
JP2012023595A (en) | Conference system | |
US20130076625A1 (en) | Pointing control device, integrated circuit thereof and pointing control method | |
KR20180058461A (en) | Photograph Search and Shoot System Based on Location Information and Method of Searching and Shooting Photograph Using the Same | |
CN106231195A (en) | A kind for the treatment of method and apparatus of taking pictures of intelligent terminal | |
CN109977868A (en) | Image rendering method and device, electronic equipment and storage medium | |
KR20190072067A (en) | Terminal and server providing a video call service | |
CN105960801A (en) | Enhancing video conferences | |
WO2018055659A1 (en) | Screen sharing system, screen sharing method, and program | |
KR101738896B1 (en) | Fitting virtual system using pattern copy and method therefor | |
JP2023130822A (en) | Apparatus system, imaging apparatus, and display method | |
JP2022003818A (en) | Image display system, image display program, image display method, and server | |
KR20220053393A (en) | Server for providing a photographing guide, method for providing a photographing guide, and electronic device implementing the same | |
US9883103B2 (en) | Imaging control apparatus and method for generating a display image, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180516 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180516 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181016 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6427297 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |