WO2016158729A1 - Makeup assistance system, measurement device, portable terminal device, and program - Google Patents

Makeup assistance system, measurement device, portable terminal device, and program Download PDF

Info

Publication number
WO2016158729A1
WO2016158729A1 PCT/JP2016/059575 JP2016059575W WO2016158729A1 WO 2016158729 A1 WO2016158729 A1 WO 2016158729A1 JP 2016059575 W JP2016059575 W JP 2016059575W WO 2016158729 A1 WO2016158729 A1 WO 2016158729A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
makeup
user
imaging
terminal device
Prior art date
Application number
PCT/JP2016/059575
Other languages
French (fr)
Japanese (ja)
Inventor
基康 田中
直子 佐々木
Original Assignee
株式会社メガチップス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メガチップス filed Critical 株式会社メガチップス
Priority to JP2017509897A priority Critical patent/JP6675384B2/en
Publication of WO2016158729A1 publication Critical patent/WO2016158729A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

A makeup assistance system configured with a portable terminal device carried by a user when the user applies makeup to her or himself and a measurement device configured as a stationary device differing from the portable terminal device and connected in a state in which data communication to the portable terminal device is possible. The measurement device is provided with a measurement control unit for acquiring information pertaining to the three-dimensional shape of the user and creating three-dimensional shape information, and a communication unit for transmitting the three-dimensional shape information created by the measurement control unit to the portable terminal device. The portable terminal device is provided with an image-capturing unit for image-capturing the user when applying makeup and acquiring image-capture information, and an information creation unit for creating makeup assistance information for assisting with the makeup applied to the user on the basis of the received three-dimensional shape information and the image-capture information acquired by the image-capturing unit.

Description

化粧支援システム、計測装置、携帯端末装置およびプログラムMakeup support system, measuring device, portable terminal device, and program
 本発明は、ユーザの身体に関する三次元の情報を用いて、当該ユーザの化粧を支援する技術に関する。 The present invention relates to a technique for supporting makeup of a user using three-dimensional information about the user's body.
 従来より、ユーザの化粧を支援する様々な技術が提案されている。例えば、特許文献1には、ユーザの顔を撮像した顔画像を表示することにより当該ユーザに対して眉毛を整える作業を支援する技術が記載されている。また、特許文献2には、ユーザを撮像した画像を様々な用途に応じて加工して表示する技術が記載されている。 Conventionally, various techniques for supporting user's makeup have been proposed. For example, Patent Literature 1 describes a technique for assisting the user in preparing eyebrows by displaying a face image obtained by capturing the user's face. Patent Document 2 describes a technique for processing and displaying an image obtained by capturing a user according to various uses.
特開2007-293649号公報JP 2007-293649 A 特開2013-223001号公報JP2013-223001A
 ところが、従来の技術では、二次元情報である撮像画像のみによって三次元の物体である人体に施す化粧を支援することになるため、支援することのできる状況や手法に限界があるという問題があった。 However, the conventional technology supports makeup applied to the human body, which is a three-dimensional object, using only the captured image, which is two-dimensional information, and there is a problem that there are limitations on the situations and methods that can be supported. It was.
 上記の課題を解決するため、請求項1の発明は、化粧を施すユーザを支援する化粧支援システムであって、ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置と、前記携帯端末装置とは異なる据え置き型の装置として構成されるとともに、前記携帯端末装置との間でデータ通信が可能な状態で接続される計測装置とを備え、前記計測装置は、前記ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、前記三次元計測手段により作成された三次元形状情報を前記携帯端末装置に向けて送信する第1通信手段とを備え、前記携帯端末装置は、前記第1通信手段により送信された三次元形状情報を受信する第2通信手段と、化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、前記第2通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、前記情報作成手段により作成された化粧支援情報を出力する出力手段とを備える。 In order to solve the above problems, the invention of claim 1 is a makeup support system that supports a user who applies makeup, and the portable terminal device carried by the user when the user applies makeup to the user, A measuring device connected to the portable terminal device in a state in which data communication is possible, and configured as a stationary device different from the portable terminal device. 3D measuring means for acquiring information relating to the shape and creating 3D shape information; and first communication means for transmitting the 3D shape information created by the 3D measuring means to the portable terminal device. The portable terminal device includes: a second communication unit that receives the three-dimensional shape information transmitted by the first communication unit; and an imaging unit that captures the imaging information by capturing the user when applying makeup. Information creation means for creating makeup support information for supporting makeup to be applied to the user based on the means, the three-dimensional shape information received by the second communication means, and the imaging information acquired by the imaging means And output means for outputting makeup support information created by the information creating means.
 また、請求項2の発明は、請求項1の発明に係る化粧支援システムであって、前記三次元計測手段により作成された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記撮像情報における撮像ズレ角を推定する方位推定手段をさらに備え、前記情報作成手段は、前記方位推定手段により推定された前記撮像情報における撮像方位に基づいて前記化粧支援情報を作成する。 Further, the invention of claim 2 is a makeup support system according to the invention of claim 1, based on the three-dimensional shape information created by the three-dimensional measuring means and the imaging information acquired by the imaging means. , Further comprising azimuth estimating means for estimating an imaging deviation angle in the imaging information, and the information creating means creates the makeup support information based on the imaging azimuth in the imaging information estimated by the azimuth estimating means.
 また、請求項3の発明は、請求項2の発明に係る化粧支援システムであって、前記方位推定手段は、前記三次元形状情報の特定の方位におけるユーザの部位の位置と、前記撮像情報に撮像されているユーザの前記部位の位置との差分に基づいて、前記撮像情報における撮像ズレ角を推定する。 Further, the invention of claim 3 is a makeup support system according to the invention of claim 2, wherein the direction estimating means includes a position of a user's part in a specific direction of the three-dimensional shape information and the imaging information. An imaging shift angle in the imaging information is estimated based on a difference from the position of the part of the user being imaged.
 また、請求項4の発明は、請求項2の発明に係る化粧支援システムであって、前記方位推定手段は、前記三次元形状情報に基づいて複数の方位における固有ベクトル値をそれぞれ算出し、前記撮像情報における固有ベクトル値と比較することにより、前記撮像情報における撮像ズレ角を推定する。 Further, the invention of claim 4 is the makeup support system according to claim 2 of the invention, wherein the direction estimation means calculates eigenvector values in a plurality of directions based on the three-dimensional shape information, and the imaging The imaging deviation angle in the imaging information is estimated by comparing with the eigenvector value in the information.
 また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る化粧支援システムであって、前記化粧支援情報は、化粧を施す際のユーザを表現したユーザ画像情報を含む。 Further, the invention of claim 5 is a makeup support system according to any one of claims 1 to 4, wherein the makeup support information includes user image information representing a user when applying makeup.
 また、請求項6の発明は、請求項5の発明に係る化粧支援システムであって、ユーザが正面を向いたときの目線と、前記撮像情報に撮像されたユーザの目線との目線ズレ角を推定し、前記情報作成手段は、前記目線ズレ角を抑制するための指示を前記化粧支援情報に含める。 Further, the invention of claim 6 is the makeup support system according to the invention of claim 5, wherein a gaze shift angle between the line of sight when the user faces the front and the line of sight of the user imaged in the imaging information is calculated. Then, the information creating means includes an instruction for suppressing the eye-gap angle in the makeup support information.
 また、請求項7の発明は、請求項1ないし6のいずれかの発明に係る化粧支援システムであって、前記三次元計測手段は、前記ユーザの互いに異なる表情に対応した複数の三次元形状情報を作成する。 The invention according to claim 7 is the makeup support system according to any one of claims 1 to 6, wherein the three-dimensional measuring means includes a plurality of pieces of three-dimensional shape information corresponding to different facial expressions of the user. Create
 また、請求項8の発明は、請求項7の発明に係る化粧支援システムであって、前記複数の三次元形状情報と前記撮像情報とを比較することにより、前記複数の三次元形状情報から1の三次元形状情報を選択する。 The invention of claim 8 is a makeup support system according to the invention of claim 7, wherein the plurality of three-dimensional shape information is compared with the imaging information to compare 1 from the plurality of three-dimensional shape information. 3D shape information is selected.
 また、請求項9の発明は、請求項7または8の発明に係る化粧支援システムであって、前記ユーザの指示に応じて、前記複数の三次元形状情報から1の三次元形状情報を選択する。 The invention of claim 9 is a makeup support system according to the invention of claim 7 or 8, wherein one three-dimensional shape information is selected from the plurality of three-dimensional shape information according to an instruction of the user. .
 また、請求項10の発明は、請求項1ないし9のいずれかの発明に係る化粧支援システムであって、前記三次元計測手段は、互いに精度の異なる複数の三次元形状情報を作成する。 The invention of claim 10 is the makeup support system according to any one of claims 1 to 9, wherein the three-dimensional measuring means creates a plurality of pieces of three-dimensional shape information having different accuracy.
 また、請求項11の発明は、請求項1ないし10のいずれかの発明に係る化粧支援システムであって、化粧を終了したときのユーザを撮像した画像情報を過去撮像情報として記憶する第1記憶手段と、前記撮像手段により撮像された撮像情報と前記第1記憶手段に記憶されている過去撮像情報とを比較して、前記化粧の劣化度を推定する劣化推定手段とをさらに備え、前記情報作成手段は、前記劣化推定手段により推定された劣化度に基づいて化粧支援情報を作成する。 The invention according to claim 11 is the makeup support system according to any one of claims 1 to 10, wherein the first memory stores image information obtained by capturing the user when makeup is finished as past imaging information. And a deterioration estimating means for comparing the imaging information captured by the imaging means with the past imaging information stored in the first storage means to estimate the degree of deterioration of the makeup. The creation means creates makeup support information based on the degree of deterioration estimated by the deterioration estimation means.
 また、請求項12の発明は、請求項11の発明に係る化粧支援システムであって、前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの毛穴の状態と前記撮像情報に撮像されているユーザの毛穴の状態とを比較して、前記化粧の劣化度を推定する。 Further, the invention of claim 12 is the makeup support system according to the invention of claim 11, wherein the deterioration estimation means is imaged in the state of the pores of the user imaged in the past imaging information and the imaging information. The degree of deterioration of the makeup is estimated by comparing with the state of the pores of the user who is.
 また、請求項13の発明は、請求項11または12の発明に係る化粧支援システムであって、前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの肌部分と特定部分との色比率と、前記撮像情報に撮像されているユーザの前記肌部分と前記特定部分との色比率とを比較して、前記特定部分における前記化粧の劣化度を推定する。 The invention of claim 13 is a makeup support system according to the invention of claim 11 or 12, wherein the deterioration estimating means is a color between the skin part of the user and the specific part imaged in the past imaging information. The ratio and the color ratio between the skin part of the user imaged in the imaging information and the specific part are compared, and the deterioration degree of the makeup in the specific part is estimated.
 また、請求項14の発明は、請求項11ないし13のいずれかの発明に係る化粧支援システムであって、前記劣化推定手段は、前記劣化推定手段により推定された前記化粧の劣化度と当該過去撮像情報が撮像された時間からの経過時間とに基づいて、前記化粧を修正すべき時間を推定する。 The invention of claim 14 is the makeup support system according to any one of claims 11 to 13, wherein the deterioration estimation means includes the degree of deterioration of the makeup estimated by the deterioration estimation means and the past. Based on the elapsed time from the time when the imaging information was imaged, the time for correcting the makeup is estimated.
 また、請求項15の発明は、請求項1ないし14のいずれかの発明に係る化粧支援システムであって、前記ユーザの化粧を披露する場所における光環境を示す光環境情報を記憶する第2記憶手段をさらに備え、前記情報作成手段は、前記第2記憶手段に記憶された光環境情報に基づいて化粧支援情報を作成する。 The invention according to claim 15 is the makeup support system according to any one of claims 1 to 14, wherein the second memory stores light environment information indicating a light environment in a place where the user's makeup is exhibited. The information creation means creates makeup support information based on the light environment information stored in the second storage means.
 また、請求項16の発明は、請求項15の発明に係る化粧支援システムであって、前記撮像手段により撮像された撮像情報に基づいて、当該撮像情報が撮像されたときの光環境を推定して、前記第2記憶手段に記憶されている光環境情報を更新する。 The invention of claim 16 is a makeup support system according to the invention of claim 15, and estimates the light environment when the imaging information is imaged based on the imaging information imaged by the imaging means. Then, the light environment information stored in the second storage means is updated.
 また、請求項17の発明は、請求項16の発明に係る化粧支援システムであって、前記携帯端末装置として1の携帯端末装置と他の携帯端末装置とを備え、前記1の携帯端末装置の前記情報作成手段は、前記他の携帯端末装置の前記撮像手段により撮像された撮像情報に基づいて更新された光環境情報に基づいて化粧支援情報を作成する。 The invention of claim 17 is a makeup support system according to the invention of claim 16, wherein the portable terminal device includes one portable terminal device and another portable terminal device, and the portable terminal device includes: The information creating means creates makeup support information based on the light environment information updated based on the imaging information imaged by the imaging means of the other portable terminal device.
 また、請求項18の発明は、据え置き型の装置として構成される計測装置であって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、前記三次元計測手段により作成された三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する通信手段とを備える。 Further, the invention of claim 18 is a measuring apparatus configured as a stationary apparatus, and acquires three-dimensional shape information by acquiring information related to a user's three-dimensional shape; The three-dimensional shape information created by the measuring means is transmitted to an external portable terminal device, and makeup is provided according to the makeup support information and the makeup support information provided to the user transmitted by the portable terminal device. Communication means for receiving imaging information obtained by imaging the user.
 また、請求項19の発明は、ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置であって、外部の計測装置により送信された三次元形状情報を受信する通信手段と、化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、前記通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、前記情報作成手段により作成された化粧支援情報を出力する出力手段とを備える。 The invention of claim 19 is a portable terminal device carried by the user when the user applies makeup to the user, and communication means for receiving the three-dimensional shape information transmitted by an external measuring device; Applying to the user based on imaging means for imaging the user when applying makeup and acquiring imaging information, three-dimensional shape information received by the communication means, and imaging information acquired by the imaging means Information creation means for creating makeup support information for supporting makeup, and output means for outputting makeup support information created by the information creation means.
 また、請求項20の発明は、据え置き型の装置として構成されるコンピュータによる読み取り可能なプログラムであって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する工程と、作成された前記三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する工程とを前記コンピュータに実行させる。 Further, the invention of claim 20 is a computer-readable program configured as a stationary apparatus, and includes a step of acquiring information relating to a user's three-dimensional shape and creating three-dimensional shape information. The three-dimensional shape information is transmitted to an external portable terminal device, and the makeup support information provided to the user transmitted by the portable terminal device and the user who applied makeup according to the makeup support information And receiving the imaging information obtained by imaging the computer.
 また、請求項21の発明は、ユーザが自身に化粧を施す際に前記ユーザによって携帯されるコンピュータによる読み取り可能なプログラムであって、外部の計測装置により送信された三次元形状情報を受信する工程と、化粧を施す際の前記ユーザを撮像して撮像情報を取得する工程と、受信された前記三次元形状情報と取得された前記撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する工程と、作成された前記化粧支援情報を出力する工程とを前記コンピュータに実行させる。 The invention of claim 21 is a computer-readable program carried by the user when the user applies makeup to the user, and receiving the three-dimensional shape information transmitted by an external measuring device And assisting the user in applying makeup based on the received three-dimensional shape information and the acquired imaging information based on the step of imaging the user when applying makeup and acquiring imaging information. The step of creating the makeup support information and the step of outputting the created makeup support information are executed by the computer.
 請求項1ないし17に記載の発明は、据え置き型の装置として構成される計測装置に、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段を設け、ユーザによって携帯される携帯端末装置に、化粧を施す際のユーザを撮像して撮像情報を取得する撮像手段と、三次元形状情報と撮像手段により取得された撮像情報とに基づいて、ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段を設ける。このように、据え置き型の計測装置によって三次元形状情報を作成することにより、三次元形状情報を作成するときの手ブレなどを防止することができるため、三次元形状情報の精度が向上する。また、比較的負荷の掛かる処理を計測装置に実行させることによって、携帯端末装置として、市販の携帯電話やスマートフォンを採用することが可能となり、コストを抑制することができる。 The invention according to any one of claims 1 to 17 is provided with a three-dimensional measuring means for acquiring information relating to a user's three-dimensional shape and creating three-dimensional shape information in a measuring device configured as a stationary device, A makeup to be applied to the user based on the imaging means for capturing the imaging information by capturing the user at the time of applying makeup on the portable terminal device to be carried, and the imaging information acquired by the three-dimensional shape information and the imaging means. Information creation means for creating makeup support information for support is provided. As described above, the three-dimensional shape information is created by the stationary measuring device, so that it is possible to prevent a camera shake or the like when creating the three-dimensional shape information, thereby improving the accuracy of the three-dimensional shape information. In addition, by causing the measurement device to execute a process that places a relatively high load, it is possible to employ a commercially available mobile phone or smartphone as the mobile terminal device, thereby reducing costs.
 また、請求項18に記載の発明は、据え置き型の装置として構成される計測装置であって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、前記三次元計測手段により作成された三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する通信手段とを備える。このように、据え置き型の計測装置として機能するコンピュータによって三次元形状情報を作成することにより、三次元形状情報を作成するときの手ブレなどを防止することができるため、三次元形状情報の精度が向上する。 The invention according to claim 18 is a measuring device configured as a stationary device, and obtains information relating to a user's three-dimensional shape to create three-dimensional shape information; and According to the makeup support information provided to the user and the makeup support information transmitted by the portable terminal device, the three-dimensional shape information created by the three-dimensional measuring means is transmitted to an external portable terminal device. Communication means for receiving imaging information obtained by imaging the user who has applied makeup. In this way, by creating 3D shape information by a computer that functions as a stationary measurement device, it is possible to prevent camera shake when creating 3D shape information, and thus the accuracy of the 3D shape information. Will improve.
 また、請求項19に記載の発明は、ユーザが自身に化粧を施す際に当該ユーザによって携帯される携帯端末装置であって、化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、外部から受信された三次元形状情報と撮像手段により取得された撮像情報とに基づいて、ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段とを備える。これにより、市販の携帯電話やスマートフォンを用いてシステムを構築することが可能となり、コストを抑制することができる。 The invention according to claim 19 is a portable terminal device carried by a user when the user applies makeup to the user, and takes an image of the user when applying the makeup and acquires imaging information And information creating means for creating makeup support information for supporting makeup to be applied to the user based on the three-dimensional shape information received from the outside and the imaging information acquired by the imaging means. Thereby, it becomes possible to construct | assemble a system using a commercially available mobile phone and a smart phone, and can suppress cost.
 また、請求項20に記載の発明は、据え置き型の装置として構成されるコンピュータによる読み取り可能なプログラムであって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する工程と、作成された前記三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する工程とを前記コンピュータに実行させる。このように、据え置き型の計測装置として機能するコンピュータによって三次元形状情報を作成することにより、三次元形状情報を作成するときの手ブレなどを防止することができるため、三次元形状情報の精度が向上する。 The invention according to claim 20 is a computer-readable program configured as a stationary device, the step of acquiring information about a user's three-dimensional shape and creating three-dimensional shape information; The created three-dimensional shape information is transmitted to an external mobile terminal device, and makeup is applied according to the makeup support information and the makeup support information provided to the user transmitted by the mobile terminal device And causing the computer to execute imaging information obtained by imaging the user. In this way, by creating 3D shape information by a computer that functions as a stationary measurement device, it is possible to prevent camera shake when creating 3D shape information, and thus the accuracy of the 3D shape information. Will improve.
 また、請求項21に記載の発明は、ユーザが自身に化粧を施す際に当該ユーザによって携帯されるコンピュータによる読み取り可能なプログラムであって、化粧を施す際の前記ユーザを撮像して撮像情報を取得する工程と、外部から受信された三次元形状情報と取得された撮像情報とに基づいて、ユーザに施す化粧を支援するための化粧支援情報を作成する工程とを前記コンピュータに実行させる。これにより、市販の携帯電話やスマートフォンを当該コンピュータとして採用することが可能となり、コストを抑制することができる。 The invention according to claim 21 is a computer-readable program carried by a user when the user applies makeup to the user, and images the user when applying the makeup to obtain imaging information. The computer is caused to execute an obtaining step and a step of creating makeup support information for supporting makeup to be applied to the user based on the three-dimensional shape information received from the outside and the acquired imaging information. Thereby, it becomes possible to employ | adopt a commercially available mobile phone and a smart phone as the said computer, and can suppress cost.
化粧支援システムを示す図である。It is a figure which shows a makeup | decoration assistance system. 計測装置のブロック図である。It is a block diagram of a measuring device. 計測装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which a measuring device is provided with the flow of data. 携帯端末装置を示す外観図である。It is an external view which shows a portable terminal device. 携帯端末装置のブロック図である。It is a block diagram of a portable terminal device. 携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which a portable terminal device is provided with the flow of data. 撮像情報に対して推定された光環境を例示する図である。It is a figure which illustrates the light environment estimated with respect to imaging information. 白色のキューブで構成される基準物体を撮像範囲に含めて撮像した撮像情報を例示する図である。It is a figure which illustrates the imaging information which imaged including the reference | standard object comprised with a white cube in the imaging range. 補正距離を説明するための図である。It is a figure for demonstrating correction distance. 化粧の劣化度に基づいて作成される化粧支援情報を例示する図である。It is a figure which illustrates the makeup | decoration assistance information produced based on the degradation degree of makeup | decoration. 推定部により推定された頬骨位置に応じて表示ユーザ画像にガイドを含めて表示する例を示す図である。It is a figure which shows the example displayed including a guide on a display user image according to the cheekbone position estimated by the estimation part. 撮像情報と化粧支援情報とを比較する図である。It is a figure which compares imaging information and makeup | decoration assistance information. 化粧を施すべき位置に関する情報を含む化粧支援情報を例示する図である。It is a figure which illustrates the makeup | decoration assistance information containing the information regarding the position which should apply makeup | decoration. 化粧を施すべき位置に関する情報を含む化粧支援情報を例示する図である。It is a figure which illustrates the makeup | decoration assistance information containing the information regarding the position which should apply makeup | decoration. 計測装置の動作を示す流れ図である。It is a flowchart which shows operation | movement of a measuring device. 計測装置の表示部に表示されるメニュー画像を例示する図である。It is a figure which illustrates the menu image displayed on the display part of a measuring device. 計測装置によって実行される三次元形状情報作成処理を示す流れ図である。It is a flowchart which shows the three-dimensional shape information creation process performed by a measuring device. 携帯端末装置の動作を示す流れ図である。It is a flowchart which shows operation | movement of a portable terminal device. 携帯端末装置の表示部に表示されるメニュー画像を例示する図である。It is a figure which illustrates the menu image displayed on the display part of a portable terminal device. 携帯端末装置によって実行される化粧準備処理を示す流れ図である。It is a flowchart which shows the makeup | decoration preparation process performed with a portable terminal device. 携帯端末装置によって実行される予測画像情報表示処理を示す流れ図である。It is a flowchart which shows the estimated image information display process performed with a portable terminal device. 携帯端末装置によって実行される化粧支援処理を示す流れ図である。It is a flowchart which shows the makeup | decoration assistance process performed with a portable terminal device. 撮像情報と、化粧支援情報として表示される表示ユーザ画像とを示す図である。It is a figure which shows imaging information and the display user image displayed as makeup | decoration assistance information.
 1 化粧支援システム
 10,20 CPU
 100 データ取得部
 101 推定部
 102 情報作成部
 11,21 記憶装置
 110,210 プログラム
 111 データベース
 112 撮像情報
 113 光環境情報
 114 化粧支援情報
 12,24 通信部
 2 計測装置
 200 計測制御部
 201 モデル作成部
 211 計測用撮像情報
 212 三次元形状情報
 22,32 操作部
 23,33,34 表示部
 25 計測部
 26,35 撮像部
 27 照明部
 28 投光部
 3 携帯端末装置
 30 筐体部
 31 本体部
 70,71,72 目線
 73 補正距離
 80 基準物体
 9 ネットワーク
1 makeup support system 10,20 CPU
DESCRIPTION OF SYMBOLS 100 Data acquisition part 101 Estimation part 102 Information preparation part 11,21 Storage apparatus 110,210 Program 111 Database 112 Imaging information 113 Light environment information 114 Makeup support information 12,24 Communication part 2 Measurement apparatus 200 Measurement control part 201 Model preparation part 211 Imaging information for measurement 212 Three- dimensional shape information 22, 32 Operating unit 23, 33, 34 Display unit 25 Measuring unit 26, 35 Imaging unit 27 Illuminating unit 28 Projecting unit 3 Portable terminal device 30 Housing unit 31 Body unit 70, 71 , 72 eyes 73 correction distance 80 reference object 9 network
 以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, unless otherwise specified in the following description, descriptions of directions and orientations correspond to the drawings for the convenience of the description, and do not limit, for example, a product, a product, or a scope of rights.
 また、本出願では、2015年3月27日に日本国に出願された特許出願番号2015-066501の利益を主張し、当該出願の内容は引用することによりここに組み込まれているものとする。 In addition, this application claims the benefit of Patent Application No. 2015-066651 filed in Japan on March 27, 2015, and the contents of the application are incorporated herein by reference.
 図1は、化粧支援システム1を示す図である。化粧支援システム1は、ユーザの自宅などに設置される計測装置2と、ユーザが携帯する携帯端末装置3とを備えている。なお、化粧支援システム1が備える携帯端末装置3の数は、1台に限定されるものではない。例えば、家族の各人が携帯端末装置3をそれぞれ所持していてもよい。 FIG. 1 is a diagram showing a makeup support system 1. The makeup support system 1 includes a measuring device 2 installed at a user's home or the like, and a mobile terminal device 3 carried by the user. Note that the number of mobile terminal devices 3 included in the makeup support system 1 is not limited to one. For example, each person in the family may own the mobile terminal device 3.
 図1に示すように、化粧支援システム1を構成する計測装置2および携帯端末装置3は、互いにデータ通信が可能なように、ネットワーク9を介して接続されている。図1では、計測装置2はネットワーク9に通信ケーブルで接続されている例を示しているが、計測装置2は無線通信を介してネットワーク9と接続されてもよい。また、携帯端末装置3は、ネットワーク9に接続された中継機(図示せず。)との間で無線通信を行うことにより、ネットワーク9に接続されている。このように、携帯端末装置3はネットワーク9との間で無線通信により接続されている。したがって、携帯端末装置3は、移動するユーザによる携帯(所持)が可能な装置として構成されている。 As shown in FIG. 1, the measuring device 2 and the mobile terminal device 3 constituting the makeup support system 1 are connected via a network 9 so that data communication can be performed with each other. Although FIG. 1 shows an example in which the measuring device 2 is connected to the network 9 via a communication cable, the measuring device 2 may be connected to the network 9 via wireless communication. The mobile terminal device 3 is connected to the network 9 by performing wireless communication with a relay device (not shown) connected to the network 9. Thus, the mobile terminal device 3 is connected to the network 9 by wireless communication. Therefore, the portable terminal device 3 is configured as a device that can be carried (possessed) by a moving user.
 また、以下の説明において「化粧時」とは、特に断らない限り、ユーザが現実に化粧を行っている瞬間のみならず、化粧を行うために化粧支援システム1(化粧を支援するためのアプリケーション)を起動したときから、ユーザが化粧の終了を指示したときまでの期間を指すものとする。したがって、例えば、化粧を行うために、ユーザが自身の状態を携帯端末装置3によりチェックしている期間なども「化粧時」に含むものとする。 In the following description, “when applying” means not only the moment when the user is actually applying makeup, but also the makeup support system 1 (application for supporting makeup) unless otherwise specified. It is assumed that the period from when the user activates to when the user instructs the end of the makeup is indicated. Therefore, for example, a period during which the user checks his / her state with the mobile terminal device 3 in order to make up is included in the “during makeup”.
 さらに、以下の説明では、外出先等において、他人に見られることを意識した装うための化粧を例に説明する。ただし、「化粧」は、装うための化粧に限定されるものではなく、健康や美しさを維持するための化粧(いわゆる「お手入れ」)も含む。 Furthermore, in the following explanation, makeup will be described as an example to dress while being conscious of being seen by others when going out. However, “makeup” is not limited to makeup for dressing, but also includes makeup for maintaining health and beauty (so-called “care”).
 図2は、計測装置2のブロック図である。計測装置2は、CPU20、記憶装置21、操作部22、表示部23、通信部24および計測部25を備えている。計測装置2は、ユーザによって携帯される携帯端末装置3と異なり、据え置き型の装置として構成されている。このような計測装置2としては、例えば、デスクトップ型のパーソナルコンピュータなどを想定することができる。ただし、計測装置2は、汎用のパーソナルコンピュータに限定されるものではなく、例えば、自宅で使用する鏡台にコンピュータが組み込まれたような専用装置であってもよい。 FIG. 2 is a block diagram of the measuring device 2. The measurement device 2 includes a CPU 20, a storage device 21, an operation unit 22, a display unit 23, a communication unit 24, and a measurement unit 25. Unlike the portable terminal device 3 carried by the user, the measuring device 2 is configured as a stationary device. As such a measuring apparatus 2, for example, a desktop personal computer can be assumed. However, the measuring device 2 is not limited to a general-purpose personal computer, and may be a dedicated device in which a computer is incorporated in a table used at home, for example.
 CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、計測装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。これにより、計測装置2は、上記のように、一般的なコンピュータとして構成されている。 The CPU 20 reads and executes the program 210 stored in the storage device 21, and performs various data calculations, control signal generation, and the like. Thereby, CPU20 has a function which calculates and produces various data while controlling each structure with which the measuring apparatus 2 is provided. Thereby, the measuring device 2 is configured as a general computer as described above.
 記憶装置21は、計測装置2において各種データを記憶する機能を提供する。言い換えれば、記憶装置21が計測装置2において電子的に固定された情報を保存する。 The storage device 21 provides a function of storing various data in the measurement device 2. In other words, the storage device 21 stores information electronically fixed in the measuring device 2.
 記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD-ROM、DVD-ROM、PCカード、SDカード、USBメモリなど)等が該当する。図2においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である。 As the storage device 21, a RAM or buffer used as a temporary working area of the CPU 20, a read-only ROM, a non-volatile memory (such as a NAND memory), a hard disk for storing a relatively large amount of data, a dedicated memory A portable storage medium (a CD-ROM, a DVD-ROM, a PC card, an SD card, a USB memory, or the like) mounted on the reading device is applicable. In FIG. 2, the storage device 21 is illustrated as if it were one structure. However, the storage device 21 is usually composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 21 is a generic name for a group of devices having a function of storing data.
 また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。図2に示すように、記憶装置21は、プログラム210、計測用撮像情報211および三次元形状情報212などを記憶するために使用される。 Also, the actual CPU 20 is an electronic circuit having a RAM that can be accessed at high speed. However, the storage device included in the CPU 20 is also included in the storage device 21 for convenience of explanation. That is, description will be made assuming that the storage device 21 also stores data temporarily stored in the CPU 20 itself. As shown in FIG. 2, the storage device 21 is used to store a program 210, measurement imaging information 211, three-dimensional shape information 212, and the like.
 操作部22は、計測装置2に対してオペレータ等が指示を入力するために操作するハードウェアである。操作部22としては、例えば、各種キーやボタン類、スイッチ、タッチパネル、ポインティングデバイス、あるいは、ジョグダイヤルなどが該当する。 The operation unit 22 is hardware that an operator or the like operates to input an instruction to the measurement device 2. Examples of the operation unit 22 include various keys and buttons, a switch, a touch panel, a pointing device, and a jog dial.
 表示部23は、各種データを表示することによりオペレータ等に対して出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、CRT、液晶ディスプレイや液晶パネルなどが該当する。また、これらのうちのいずれか1つに限定されるものではなく、複数のハードウェアが協働して表示部23を構成していてもよい。 The display unit 23 is hardware having a function of outputting various data to an operator or the like. Examples of the display unit 23 include a lamp, LED, CRT, liquid crystal display, and liquid crystal panel. Moreover, it is not limited to any one of these, The some hardware may comprise the display part 23 in cooperation.
 通信部24は、計測装置2が携帯端末装置3とデータ通信を行う機能を提供する。すなわち、計測装置2は、通信部24により、携帯端末装置3から送信された情報を受信するとともに、携帯端末装置3に向けて情報を送信する。計測装置2が携帯端末装置3に向けて送信する情報としては、例えば、計測用撮像情報211および三次元形状情報212がある。 The communication unit 24 provides a function for the measurement device 2 to perform data communication with the mobile terminal device 3. That is, the measuring device 2 receives information transmitted from the mobile terminal device 3 through the communication unit 24 and transmits information toward the mobile terminal device 3. Examples of information that the measuring device 2 transmits to the mobile terminal device 3 include measurement imaging information 211 and three-dimensional shape information 212.
 図2に示すように、計測部25は、撮像部26、照明部27および投光部28を備えている。詳細は以下に述べるが、計測部25は、一般的なパーソナルコンピュータに搭載されることが比較的稀なハードウェアで構成されている。逆に言えば、計測部25に相当するハードウェアをパーソナルコンピュータに接続し、プログラム210をインストールすれば、ユーザは容易に計測装置2を構成することができる。 As shown in FIG. 2, the measurement unit 25 includes an imaging unit 26, an illumination unit 27, and a light projecting unit 28. Although details will be described below, the measurement unit 25 is configured by hardware that is relatively rarely mounted on a general personal computer. In other words, if hardware corresponding to the measurement unit 25 is connected to a personal computer and the program 210 is installed, the user can easily configure the measurement device 2.
 撮像部26は、被写体(ユーザ)を撮像して、計測用撮像情報211を取得する機能を有する。ここに示す撮像部26は、いわゆるカラーの動画像としての計測用撮像情報211を取得するものとして説明する。ここで動画像とは、所定のフレーム間隔で撮像された連続する静止画像の集合物を意味するものとする。 The imaging unit 26 has a function of imaging a subject (user) and acquiring measurement imaging information 211. The imaging unit 26 shown here will be described as acquiring measurement imaging information 211 as a so-called color moving image. Here, a moving image means a collection of continuous still images captured at a predetermined frame interval.
 なお、以下では、撮像部26が取得する画像情報を、すべて「計測用撮像情報211」と統一して称するが、撮像部26が取得する計測用撮像情報211は、必ずしも「計測用」に限定されるものではない。詳細は後述するが、化粧支援システム1は、計測用撮像情報211を、例えば、三次元形状情報212にマッピングするための「単なる」画像情報として流用する場合もある。 Hereinafter, all the image information acquired by the imaging unit 26 is collectively referred to as “measurement imaging information 211”, but the measurement imaging information 211 acquired by the imaging unit 26 is not necessarily limited to “measurement”. Is not to be done. Although details will be described later, the makeup support system 1 may use the measurement imaging information 211 as “simple” image information for mapping to the three-dimensional shape information 212, for example.
 また、撮像部26が取得する計測用撮像情報211は、カラー画像に限定されるものではなく、白黒画像であってもよい。例えば、物体(ユーザ)の三次元形状を計測するために必要とされる画像としては、カラー画像である必要はない。例えば、後述する計測用パターンを読み取れる形式であればよい。さらに、三次元計測に際しては、動画像でなくてもよく、動画像として撮像された計測用撮像情報211から、被写体の全周が撮像されるように(撮像されていない面が存在しないように)、複数の静止画像を抽出して計測してもよい。 Further, the measurement imaging information 211 acquired by the imaging unit 26 is not limited to a color image, and may be a monochrome image. For example, an image required for measuring the three-dimensional shape of an object (user) need not be a color image. For example, any format that can read a measurement pattern to be described later may be used. Further, in the three-dimensional measurement, it may not be a moving image, so that the entire circumference of the subject can be imaged from the measurement imaging information 211 captured as a moving image (so that there is no surface that has not been imaged). ), A plurality of still images may be extracted and measured.
 すなわち、撮像部26が取得する計測用撮像情報211は、説明を簡単にするために、カラーの動画像として説明するが、その用途に応じて、その様式や形式が適宜、選択されてもよい。 That is, the measurement imaging information 211 acquired by the imaging unit 26 is described as a color moving image for the sake of simplicity, but the format and format may be appropriately selected according to the application. .
 本実施の形態における計測装置2は、1つの撮像部26を備えており、当該撮像部26は固定されているものとして説明する。このような状態の撮像部26によって、計測装置2が被写体の全周にわたる計測用撮像情報211を取得するためには、当該撮像部26に対して被写体を自転させつつ撮像する必要がある。 The measurement device 2 in the present embodiment will be described as including one imaging unit 26, and the imaging unit 26 is fixed. In order for the measurement device 2 to acquire the measurement imaging information 211 over the entire circumference of the subject by the imaging unit 26 in such a state, it is necessary to perform imaging while rotating the subject with respect to the imaging unit 26.
 ただし、撮像部26を適宜移動可能に構成し、撮像部26を被写体の回りで周回移動させつつ計測用撮像情報211を撮像することによって、被写体の全周にわたる計測用撮像情報211を取得するようにしてもよい。あるいは、複数の撮像部26を、被写体の全周が撮像できるように、当該被写体の周囲に適当な間隔で固定的に配置して撮像してもよい。さらには、これらの構成を併用してもよい。すなわち、被写体の全周にわたる撮像が可能であれば、どのような構成が採用されてもよい。 However, the imaging unit 26 is configured to be appropriately movable, and the measurement imaging information 211 is acquired over the entire circumference of the subject by imaging the measurement imaging information 211 while moving the imaging unit 26 around the subject. It may be. Alternatively, the plurality of imaging units 26 may be fixedly arranged at appropriate intervals around the subject so as to capture the entire circumference of the subject. Furthermore, these configurations may be used in combination. In other words, any configuration may be adopted as long as it can capture the entire circumference of the subject.
 化粧支援システム1では、撮像部26が据え置き型の計測装置2に装備されており、計測用撮像情報211を撮像する環境(撮像方位など)を、任意に、かつ、高精度に調整することが可能である。したがって、例えば、撮影時に手ブレ等が発生したり、意図しない物体が撮像されるといった危険性は低く、安定した撮像が可能である。 In the makeup support system 1, the imaging unit 26 is provided in the stationary measuring device 2, and the environment (imaging orientation, etc.) for imaging the measurement imaging information 211 can be adjusted arbitrarily and with high accuracy. Is possible. Therefore, for example, there is little risk that camera shake or the like occurs during shooting or an unintended object is imaged, and stable imaging is possible.
 照明部27は、撮像部26がユーザを撮像して計測用撮像情報211を取得するときの光環境を整える機能を有している。すなわち、計測用撮像情報211における光環境が、理想的な光環境となるように、照明部27はユーザに向けて照明光を照射する。理想的な光環境とは、例えば、後述する三次元形状情報212を作成するために適した光環境や、化粧の劣化度の基準となる計測用撮像情報211を取得するために適した光環境などである。このような光環境として、例えば、色温度に偏りの少ない光に照明された光環境で、かつ、ユーザに影が生じないような方向から光が照明された光環境などが想定される。 The illumination unit 27 has a function of adjusting the light environment when the imaging unit 26 captures the user and acquires the measurement imaging information 211. That is, the illumination unit 27 irradiates the user with illumination light so that the light environment in the measurement imaging information 211 becomes an ideal light environment. The ideal light environment is, for example, a light environment suitable for creating three-dimensional shape information 212 to be described later, or a light environment suitable for acquiring measurement imaging information 211 that serves as a reference for the degree of deterioration of makeup. Etc. As such a light environment, for example, a light environment illuminated with light with little bias in color temperature and a light environment illuminated with light from a direction in which a shadow does not occur to the user are assumed.
 一般に、据え置き型の計測装置2の周囲の環境は、携帯型の装置の場合に比べて、安定的であり、かつ、ユーザによる調整が容易である。したがって、化粧支援システム1では、照明部27が据え置き型の計測装置2に装備されることにより、計測用撮像情報211を撮像する光環境を、任意に、かつ、高精度に調整することが可能となる。また、照明部27は比較的多くの電力を消費するハードウェアであるが、計測装置2(商用電力線に直接接続することができる。)に照明部27を設けることにより、電力供給に不安のない状況で被写体を照明することができる。 Generally, the environment around the stationary measuring device 2 is more stable than the portable device and can be easily adjusted by the user. Therefore, in the makeup support system 1, the illumination unit 27 is installed in the stationary measurement device 2, so that the light environment for imaging the measurement imaging information 211 can be arbitrarily adjusted with high accuracy. It becomes. The illumination unit 27 is hardware that consumes a relatively large amount of power. However, the illumination unit 27 is provided in the measurement device 2 (which can be directly connected to a commercial power line), so there is no concern about power supply. The subject can be illuminated under certain circumstances.
 なお、照明部27による光環境は、既知の情報として、当該光環境において撮像された計測用撮像情報211に関連づけられる。また、照明部27による光環境は、例えばユーザの指示などによって、変更可能とされていてもよい。 In addition, the light environment by the illumination part 27 is linked | related with the imaging information 211 for measurement imaged in the said light environment as known information. Moreover, the light environment by the illumination part 27 may be changeable by a user's instruction | indication etc., for example.
 投光部28は、形状が既知のパターンを計測対象(化粧の対象となるユーザの身体部分)に向けて投射する機能を有している。投光部28は、人の視覚によって感知されることのない周波数の光により当該パターンを投射する。以下の説明では、投光部28によって投射されるパターンを、「計測用パターン」と称する。 The light projecting unit 28 has a function of projecting a pattern having a known shape toward a measurement target (a body part of a user to be a makeup target). The light projecting unit 28 projects the pattern with light having a frequency that is not perceived by human vision. In the following description, the pattern projected by the light projecting unit 28 is referred to as a “measurement pattern”.
 投光部28は、照明部27と同様に、比較的多くの電力を消費するハードウェアである。しかし、化粧支援システム1は、計測装置2(商用電力線に直接接続することができる。)に投光部28を設けることにより、電力供給に不安のない状況で被写体に計測用パターンを投射することができる。 The light projecting unit 28 is hardware that consumes a relatively large amount of power, like the lighting unit 27. However, the makeup support system 1 projects the measurement pattern onto the subject in a situation where there is no concern about power supply by providing the light projecting unit 28 in the measurement device 2 (which can be directly connected to the commercial power line). Can do.
 ただし、撮像部26による撮像に際して、必ずしも計測用パターンは必須ではない。すなわち、計測用パターンが投射されていない状態のユーザを撮像して、計測用撮像情報211が取得されてもよい。先述のように、計測用撮像情報211は、三次元形状情報212を作成するためのみに用いられるものではない。詳細は後述するが、計測用撮像情報211は、時間経過における化粧の劣化度の判定などにも用いられる。このような用途における計測用撮像情報211においては、計測用パターンが撮像されていなくてもよい。 However, a measurement pattern is not necessarily required for imaging by the imaging unit 26. That is, the imaging information 211 for measurement may be acquired by imaging a user in a state where the measurement pattern is not projected. As described above, the measurement imaging information 211 is not used only for creating the three-dimensional shape information 212. Although details will be described later, the measurement imaging information 211 is also used to determine the degree of makeup deterioration over time. In the measurement imaging information 211 for such an application, the measurement pattern may not be captured.
 図3は、計測装置2が備える機能ブロックをデータの流れとともに示す図である。図3に示す計測制御部200およびモデル作成部201は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。 FIG. 3 is a diagram showing the functional blocks provided in the measuring device 2 together with the data flow. The measurement control unit 200 and the model creation unit 201 illustrated in FIG. 3 are functional blocks realized by the CPU 20 operating according to the program 210.
 計測制御部200は、操作部22からの制御信号(ユーザ指示)に応じて、照明部27および投光部28を制御する。これにより、基準の光環境を実現するように照明部27が照明を行うとともに、投光部28が被写体に向けて計測用パターンを投射する。なお、すでに説明したように、状況によっては、照明部27が照明を行わない場合や、投光部28が計測用パターンを投射しない場合もある。 The measurement control unit 200 controls the illumination unit 27 and the light projecting unit 28 in accordance with a control signal (user instruction) from the operation unit 22. Thereby, the illumination unit 27 performs illumination so as to realize the reference light environment, and the light projecting unit 28 projects the measurement pattern toward the subject. As described above, depending on the situation, the illumination unit 27 may not perform illumination, or the light projecting unit 28 may not project a measurement pattern.
 また、計測制御部200は、操作部22からの制御信号に応じて、撮像部26を制御して、撮像部26に被写体を撮像させる機能も有している。そして、計測制御部200は、撮像部26により取得された計測用撮像情報211を記憶装置21に転送し、記憶装置21に記憶させる。 The measurement control unit 200 also has a function of controlling the imaging unit 26 in accordance with a control signal from the operation unit 22 to cause the imaging unit 26 to image a subject. Then, the measurement control unit 200 transfers the measurement imaging information 211 acquired by the imaging unit 26 to the storage device 21 and stores it in the storage device 21.
 なお、計測用撮像情報211は、個々のユーザに対して1つに限定されるものではない。個々のユーザは、操作部22を操作することにより、複数の計測用撮像情報211を取得するように計測制御部200に指示することも可能である。例えば、ユーザは、操作部22から、繰り返し撮像指示を入力して、撮像部26に複数の計測用撮像情報211を撮像させることができる。 Note that the imaging information for measurement 211 is not limited to one for each user. Each user can also instruct the measurement control unit 200 to acquire a plurality of measurement imaging information 211 by operating the operation unit 22. For example, the user can repeatedly input an imaging instruction from the operation unit 22 and cause the imaging unit 26 to image a plurality of measurement imaging information 211.
 これにより、ユーザは、例えば、笑顔や真顔のように表情を変えて、それぞれの表情についての計測用撮像情報211を撮像させることができる。また、ユーザは、撮像部26による撮像倍率を変更しつつ計測用撮像情報211を取得させることにより、特定の部位(例えば、目の周辺部位)にズームした互いに撮像倍率の異なる複数の計測用撮像情報211を撮像させることもできる。 Thus, for example, the user can change the facial expression such as a smile or a true face and image the measurement imaging information 211 for each facial expression. In addition, the user acquires the measurement imaging information 211 while changing the imaging magnification by the imaging unit 26, thereby zooming to a specific part (for example, a peripheral part of the eye) and a plurality of measurement imagings having different imaging magnifications. The information 211 can also be imaged.
 さらに、計測制御部200は、計測用撮像情報211を作成するときに、当該計測用撮像情報211に、様々な情報を関連づける。計測用撮像情報211に関連づけられる情報としては、撮像したときの光環境や表情識別子、撮像倍率、撮像方位、撮像時間などがある。ただし、これ以外にも、例えば、撮像時における計測用パターンの投射の有無や、撮像されているユーザの識別子、撮像日時などの情報が関連づけられてもよい。 Furthermore, the measurement control unit 200 associates various pieces of information with the measurement imaging information 211 when creating the measurement imaging information 211. Information associated with the measurement imaging information 211 includes a light environment at the time of imaging, a facial expression identifier, an imaging magnification, an imaging orientation, an imaging time, and the like. However, other than this, for example, information such as the presence / absence of projection of the measurement pattern at the time of imaging, the identifier of the user who is being imaged, and the imaging date / time may be associated.
 モデル作成部201は、計測用撮像情報211に基づいて、ユーザの三次元形状に関する情報を取得して三次元形状情報212を作成する。 The model creation unit 201 acquires information related to the user's 3D shape based on the measurement imaging information 211 and creates 3D shape information 212.
 具体的には、まず、モデル作成部201は、計測用撮像情報211(動画像を構成する1フレーム分の情報でもよい。)に画像認識処理を実行してユーザを表現している画像部分(以下、「ユーザ撮像画像」と称する。)を切り出す。なお、ここで言うユーザ撮像画像には、ユーザの身体そのもの以外に、服や帽子、リボン、眼鏡など、ユーザが身につけているもの(服装など)を含んでいてもよい。 Specifically, first, the model creation unit 201 performs image recognition processing on the measurement imaging information 211 (may be information for one frame constituting a moving image) and expresses an image portion that represents a user ( Hereinafter, it is referred to as “user captured image”). Note that the user-captured image referred to here may include things worn by the user (such as clothes) such as clothes, a hat, a ribbon, and glasses in addition to the user's body itself.
 次に、モデル作成部201は、ユーザ撮像画像(計測用撮像情報211)に撮像されている計測用パターンが、既知の形状に対して、どのように変形しているかを解析することにより、被写体(ユーザ)の形状を三次元で表現した数値情報に変換する。このような手法としては、従来の技術を採用することが可能であるため、ここではこれ以上の詳細な説明は省略する。そして、モデル作成部201は、この数値情報を三次元形状情報212とする。 Next, the model creation unit 201 analyzes how the measurement pattern captured in the user captured image (measurement imaging information 211) is deformed with respect to a known shape, thereby obtaining a subject. The (user) shape is converted into numerical information expressed in three dimensions. As such a technique, it is possible to adopt a conventional technique, and therefore, detailed description thereof is omitted here. Then, the model creation unit 201 sets this numerical information as the three-dimensional shape information 212.
 このように計測装置2は、被写体に向けて計測用パターンを投射しつつ、当該被写体を撮像する。これにより、撮像部26による撮像が、例えば、一方向(1つの撮像方位)からのみの撮像しかされていない場合であっても、ユーザに関する三次元形状情報212を取得することができる。 Thus, the measuring apparatus 2 images the subject while projecting the measurement pattern toward the subject. Thereby, even when the imaging by the imaging unit 26 is only performed from one direction (one imaging orientation), for example, the three-dimensional shape information 212 regarding the user can be acquired.
 三次元の形状に関する三次元形状情報212を作成するための演算は、比較的、処理能力を要求される演算である。したがって、三次元形状情報212を作成する装置は、高性能な演算装置を必要とする。一方で、ユーザの三次元形状に関しては、自宅における形状と外出先における形状との間に大きな違いはないと考えられる。化粧支援システム1では、三次元形状情報212を作成するモデル作成部201が据え置き型の計測装置2に装備されている。このように、化粧支援システム1は、比較的重い演算を計測装置2に処理させることにより、一般的なパーソナルコンピュータに比べればパフォーマンスの劣る携帯端末装置3を、化粧支援システム1において採用することができる。 The calculation for creating the three-dimensional shape information 212 regarding the three-dimensional shape is an operation that requires relatively high processing capability. Therefore, a device that creates the three-dimensional shape information 212 requires a high-performance computing device. On the other hand, regarding the three-dimensional shape of the user, it is considered that there is no significant difference between the shape at home and the shape at the outside. In the makeup support system 1, the model creation unit 201 that creates the three-dimensional shape information 212 is provided in the stationary measurement device 2. As described above, the makeup support system 1 allows the makeup support system 1 to employ the portable terminal device 3 that is inferior in performance to a general personal computer by causing the measurement device 2 to process relatively heavy calculations. it can.
 なお、三次元形状情報212を取得する手法は、上記に限定されるものではない。ユーザ(化粧の対象となる部分)の三次元的な情報を取得することができるものであれば、例えば、ユーザを撮像しない構成であっても、適宜、採用可能である。三次元形状情報212を取得する手法として、例えば、TOF(Time Of Flight)や、パターン投影を行わない、ステレオ法や、DTAM(Dense Tracking And Mapping)等、複数視点画像から三次元形状を計測推定するstm(structure from motion)などの技術を採用することもできる。特に、睫毛のカール度合いについては、計測用パターンを投射することによる三次元形状情報212の作成が比較的困難であるため、計測用パターンを投射することのないDTAMなどの技術が適している。 Note that the method of acquiring the three-dimensional shape information 212 is not limited to the above. As long as it can acquire three-dimensional information of a user (part to be makeup), for example, even a configuration that does not image the user can be adopted as appropriate. As a method for acquiring the 3D shape information 212, for example, TOF (Time Of Flight), stereo projection without pattern projection, DTAM (Dense Tracking And Mapping), etc., 3D shape is measured and estimated from multiple viewpoint images. Technology such as stm (structure from motion) can also be adopted. In particular, with respect to the degree of curling of the eyelashes, it is relatively difficult to create the three-dimensional shape information 212 by projecting a measurement pattern, and therefore a technique such as DTAM that does not project a measurement pattern is suitable.
 また、モデル作成部201は、三次元形状情報212を作成するための計測用撮像情報211が作成されるたびに、対応する三次元形状情報212を作成する。したがって、三次元形状情報212を作成する目的で、複数の計測用撮像情報211が作成された場合、モデル作成部201は、それぞれに対応する三次元形状情報212を作成する。 The model creation unit 201 creates corresponding 3D shape information 212 each time measurement imaging information 211 for creating 3D shape information 212 is created. Accordingly, when a plurality of measurement imaging information 211 is created for the purpose of creating the 3D shape information 212, the model creation unit 201 creates the 3D shape information 212 corresponding to each.
 複数の計測用撮像情報211がユーザの異なる表情について作成されている場合、モデル作成部201は、ユーザの異なる表情についてそれぞれ作成された計測用撮像情報211に基づいて、それぞれの表情に対応した三次元形状情報212を作成する。このように、モデル作成部201は、ユーザの互いに異なる表情に対応した複数の三次元形状情報212を作成する機能を有している。 When a plurality of measurement imaging information 211 are created for different facial expressions of the user, the model creation unit 201 uses the measurement imaging information 211 created for each of the different facial expressions of the user to perform tertiary corresponding to each facial expression. Original shape information 212 is created. Thus, the model creation unit 201 has a function of creating a plurality of three-dimensional shape information 212 corresponding to different facial expressions of the user.
 複数の計測用撮像情報211が撮像倍率を変更して作成されている場合、モデル作成部201は、それぞれの撮像倍率における計測用撮像情報211に基づいて、それぞれの撮像倍率に対応した三次元形状情報212を作成する。このように、モデル作成部201は、ユーザの特定の部位について精度の異なる複数の三次元形状情報212を作成する機能を有している。 When a plurality of measurement imaging information 211 is created by changing the imaging magnification, the model creation unit 201 determines a three-dimensional shape corresponding to each imaging magnification based on the measurement imaging information 211 at each imaging magnification. Information 212 is created. As described above, the model creation unit 201 has a function of creating a plurality of pieces of three-dimensional shape information 212 having different accuracy for a specific part of the user.
 さらに、モデル作成部201は、三次元形状情報212を作成するときに、当該三次元形状情報212と関連づけて送信すべき計測用撮像情報211(携帯端末装置3において利用される。)を特定して、当該関連づけを行う。したがって、通信部24は、作成された三次元形状情報212を携帯端末装置3に向けて送信するときに、当該三次元形状情報212と関連づけて送信すべき計測用撮像情報211を特定して、送信することが可能である。 Furthermore, when creating the three-dimensional shape information 212, the model creation unit 201 specifies the measurement imaging information 211 (used in the mobile terminal device 3) to be transmitted in association with the three-dimensional shape information 212. The association is performed. Therefore, when the communication unit 24 transmits the created three-dimensional shape information 212 to the mobile terminal device 3, the communication unit 24 specifies the measurement imaging information 211 to be transmitted in association with the three-dimensional shape information 212, It is possible to send.
 ただし、三次元形状情報212とともに送信される計測用撮像情報211は、当該三次元形状情報212を作成する元となった計測用撮像情報211に限定されるものではない。また、三次元形状情報212を作成するときに用いられたすべての計測用撮像情報211を、当該三次元形状情報212とともに送信しなければならないものでもない。 However, the measurement imaging information 211 transmitted together with the three-dimensional shape information 212 is not limited to the measurement imaging information 211 that is the basis for creating the three-dimensional shape information 212. Further, it is not necessary to transmit all the measurement imaging information 211 used when creating the three-dimensional shape information 212 together with the three-dimensional shape information 212.
 図4は、携帯端末装置3を示す外観図である。図4に示すように、携帯端末装置3は、筐体部30、本体部31、操作部32、表示部33,34、および、撮像部35を備えている。携帯端末装置3は、ユーザによる携帯が可能な装置として構成されている。すなわち、ユーザは携帯端末装置3を所持して、様々な場所に移動することが可能であるとともに、移動先において、自由に携帯端末装置3を起動させ、使用することができる。 FIG. 4 is an external view showing the mobile terminal device 3. As illustrated in FIG. 4, the mobile terminal device 3 includes a housing unit 30, a main body unit 31, an operation unit 32, display units 33 and 34, and an imaging unit 35. The mobile terminal device 3 is configured as a device that can be carried by a user. That is, the user can carry the portable terminal device 3 and move to various places, and can freely activate and use the portable terminal device 3 at the destination.
 筐体部30は、略箱状の構造物であり、折りたたまれた状態の本体部31を内部に収納する。これにより、携帯端末装置3は、ユーザによって携帯されるときには、さらに持ち運びが便利なように小型化される。また、筐体部30は、表示部33,34を内部に収容することにより、表示部33,34を保護する機能も有している。 The housing part 30 is a substantially box-like structure, and houses the main body part 31 in a folded state. Thereby, when the portable terminal device 3 is carried by the user, the portable terminal device 3 is further reduced in size so that it can be easily carried. Moreover, the housing | casing part 30 also has the function to protect the display parts 33 and 34 by accommodating the display parts 33 and 34 inside.
 本体部31は、矩形の板状の構造物であり、前面に表示部33が設けられるとともに、上部前面に撮像部35が設けられている。本体部31は、図示しない軸を中心に回動可能である。これにより、携帯端末装置3は、本体部31が筐体部30から取り出された状態と、本体部31が筐体部30の内部に収納された状態との間で可逆的に変形が可能である。すなわち、携帯端末装置3は、本体部31を折りたたむことにより、筐体部30に収納することができる。 The main body 31 is a rectangular plate-shaped structure, and a display unit 33 is provided on the front surface, and an imaging unit 35 is provided on the upper front surface. The main body 31 is rotatable about a shaft (not shown). Thereby, the mobile terminal device 3 can be reversibly deformed between the state in which the main body 31 is removed from the housing 30 and the state in which the main body 31 is housed in the housing 30. is there. That is, the mobile terminal device 3 can be housed in the housing unit 30 by folding the main body unit 31.
 操作部32は、携帯端末装置3に対してユーザが指示を入力するために操作されるハードウェアである。図4では、操作部32として複数のボタンを図示している。しかし、携帯端末装置3は、図4に示すボタン以外にも操作部32として、タッチパネルを備えている。すなわち、表示部33,34の表面にタッチセンサが設けられており、ユーザは画面に触れることによって指示情報を携帯端末装置3に対して入力することができるように構成されている。これ以外にも、操作部32として、例えば、各種キーやスイッチ、ポインティングデバイス、あるいは、ジョグダイヤルなどを備えていてもよい。 The operation unit 32 is hardware that is operated by the user to input an instruction to the mobile terminal device 3. In FIG. 4, a plurality of buttons are illustrated as the operation unit 32. However, the mobile terminal device 3 includes a touch panel as the operation unit 32 in addition to the buttons illustrated in FIG. That is, the touch sensors are provided on the surfaces of the display units 33 and 34, and the user can input the instruction information to the mobile terminal device 3 by touching the screen. In addition to this, the operation unit 32 may include, for example, various keys, switches, a pointing device, or a jog dial.
 表示部33,34は、各種データを画面に表示することにより、ユーザに対して当該各種データを出力する機能を有するハードウェアである。図4では表示部33,34として液晶ディスプレイを例示している。ユーザは化粧中において、表示部33,34を閲覧することにより、携帯端末装置3から様々な情報を受け取ることが可能である。これにより、ユーザは適切で高度な化粧を容易に楽しむことができる。なお、表示部33,34として、液晶ディスプレイ以外にも、例えば、ランプやLED、液晶パネルなどを備えていてもよい。 The display units 33 and 34 are hardware having a function of outputting various data to the user by displaying the various data on the screen. FIG. 4 illustrates a liquid crystal display as the display units 33 and 34. The user can receive various information from the mobile terminal device 3 by browsing the display units 33 and 34 during makeup. Thereby, the user can easily enjoy appropriate and advanced makeup. In addition to the liquid crystal display, the display units 33 and 34 may include, for example, a lamp, an LED, a liquid crystal panel, and the like.
 撮像部35は、一般的なデジタルカメラを構成しており、被写体(ユーザ)を撮像して、撮像情報112(図5参照。)を取得する。以下では、説明を簡単にするために、特に断らない限り、撮像部35は、カラーの動画像としての撮像情報112を取得するものとして説明する。ここで動画像とは、所定のフレーム間隔で撮像された連続する静止画像の集合物として撮像情報112が取得されることを言うものとする。 The imaging unit 35 constitutes a general digital camera, images a subject (user), and acquires imaging information 112 (see FIG. 5). Hereinafter, in order to simplify the description, the imaging unit 35 will be described as acquiring the imaging information 112 as a color moving image unless otherwise specified. Here, the moving image means that the imaging information 112 is acquired as a collection of continuous still images captured at a predetermined frame interval.
 ただし、撮像部35が取得する撮像情報112は、カラー画像に限定されるものではなく、白黒画像であってもよい。また、動画像でなくてもよい。すなわち、撮像情報112の用途等に応じて、適宜、取得する撮像情報112の形式等が選択されてもよい。 However, the imaging information 112 acquired by the imaging unit 35 is not limited to a color image, and may be a monochrome image. Moreover, it may not be a moving image. That is, the format or the like of the acquired imaging information 112 may be selected as appropriate according to the usage of the imaging information 112 or the like.
 図5は、携帯端末装置3のブロック図である。携帯端末装置3は、図4に示す構成の他に、CPU10、記憶装置11および通信部12を備えている。 FIG. 5 is a block diagram of the mobile terminal device 3. The mobile terminal device 3 includes a CPU 10, a storage device 11, and a communication unit 12 in addition to the configuration shown in FIG.
 CPU10は、記憶装置11に格納されているプログラム110を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU10は、携帯端末装置3が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置3は、一般的なコンピュータとして構成されている。 The CPU 10 reads and executes the program 110 stored in the storage device 11, and performs various data calculations, control signal generation, and the like. Thereby, CPU10 has the function to calculate and produce various data while controlling each structure with which the portable terminal device 3 is provided. That is, the mobile terminal device 3 is configured as a general computer.
 記憶装置11は、携帯端末装置3において各種データを記憶する機能を提供する。言い換えれば、記憶装置11が携帯端末装置3において電子的に固定された情報を保存する。 The storage device 11 provides a function of storing various data in the mobile terminal device 3. In other words, the storage device 11 stores information electronically fixed in the mobile terminal device 3.
 記憶装置11としては、CPU10の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、専用の読み取り装置に装着された可搬性の記憶媒体(SDカードやUSBメモリなど)等が該当する。図5においては、記憶装置11を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置11は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置11は、データを記憶する機能を有する装置群の総称である。 As the storage device 11, a RAM or buffer used as a temporary working area of the CPU 10, a read-only ROM, a non-volatile memory (for example, a NAND memory), and a portable storage medium mounted on the dedicated reading device (SD card, USB memory, etc.) In FIG. 5, the storage device 11 is illustrated as if it were one structure. However, the storage device 11 is normally composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 11 is a general term for a group of devices having a function of storing data.
 また、現実のCPU10は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU10が備える記憶装置も、説明の都合上、記憶装置11に含めて説明する。すなわち、一時的にCPU10自体が記憶するデータも、記憶装置11が記憶するとして説明する。図5に示すように、記憶装置11は、プログラム110、データベース111、撮像情報112、および、化粧支援情報114などを記憶するために使用される。 Further, the actual CPU 10 is an electronic circuit having a RAM that can be accessed at high speed. However, the storage device included in the CPU 10 is also included in the storage device 11 for convenience of explanation. That is, it is assumed that the storage device 11 also stores data temporarily stored in the CPU 10 itself. As shown in FIG. 5, the storage device 11 is used to store a program 110, a database 111, imaging information 112, makeup support information 114, and the like.
 ここで、データベース111には、オーナー情報、状況に応じた化粧の仕方(濃度、塗布位置、塗り方、力加減、使用する物品種別など)に関する情報、披露場所に応じた光環境を示す光環境情報113などが格納されている。 Here, the database 111 includes owner information, information on how to apply makeup according to the situation (density, application position, application method, power adjustment, type of article to be used, etc.), and an optical environment indicating the optical environment according to the presentation location. Information 113 and the like are stored.
 オーナー情報とは、ユーザの性別や年齢、好みといった化粧に影響を与える個人情報、ユーザが所持している物品(化粧品や道具類など)に関する情報、ユーザ個人を撮像した画像情報である計測用撮像情報211、ユーザ個人の三次元の形状を示す三次元形状情報212などである。 Owner information is personal information that affects makeup, such as the user's gender, age, and preferences, information about articles (cosmetics, tools, etc.) that the user possesses, and imaging for measurement that is image information of the individual user Information 211, three-dimensional shape information 212 indicating the three-dimensional shape of the individual user, and the like.
 オーナー情報に含まれる計測用撮像情報211は、上記のとおりユーザ個人を表現した画像情報である。しかし、携帯端末装置3の撮像部35によって取得される撮像情報112ではない。すでに説明したように、計測用撮像情報211は、計測装置2の撮像部26によって撮像され、携帯端末装置3に向けて送信された情報である。すなわち、計測用撮像情報211は、予めユーザの自宅などにおいて撮像され準備された情報である。予め自宅などで撮像される計測用撮像情報211には、ユーザの部位のうち、化粧中に携帯端末装置3によって撮像することが困難な部位を被写体として含めることもできる。 The imaging information for measurement 211 included in the owner information is image information representing the individual user as described above. However, it is not the imaging information 112 acquired by the imaging unit 35 of the mobile terminal device 3. As already described, the measurement imaging information 211 is information captured by the imaging unit 26 of the measuring device 2 and transmitted toward the mobile terminal device 3. That is, the measurement imaging information 211 is information that has been captured and prepared in advance at the user's home or the like. The measurement imaging information 211 captured in advance at home or the like can include, as a subject, a part of the user's part that is difficult to be imaged by the mobile terminal device 3 during makeup.
 携帯端末装置3を用いてユーザが化粧を行う場合において、ユーザは、表示部33,34に表示される化粧支援情報114を閲覧している。したがって、当該化粧中において、ユーザは、表示部33,34を閲覧しやすいように、携帯端末装置3をユーザに正対させて配置し維持することが予想される。このような位置関係に配置されると、撮像部35もユーザに正対し、撮像部35は正面からしかユーザを撮像することができない。したがって、正面に向いていないユーザの部位については、当該化粧時にリアルタイムで撮像することは困難である。このような部位としては、例えば、側頭部や後頭部、頭頂部、喉部などが想定される。 When the user performs makeup using the mobile terminal device 3, the user is browsing the makeup support information 114 displayed on the display units 33 and 34. Therefore, during the makeup, the user is expected to place and maintain the mobile terminal device 3 facing the user so that the display units 33 and 34 can be easily viewed. When arranged in such a positional relationship, the imaging unit 35 also faces the user, and the imaging unit 35 can only image the user from the front. Therefore, it is difficult to take a real-time image of the user's part not facing the front during the makeup. As such a part, for example, the temporal region, the occipital region, the top of the head, the throat, and the like are assumed.
 詳細は後述するが、化粧支援システム1では、ユーザは、携帯端末装置3を用いた化粧時において撮像が困難な部位を、計測装置2を用いて予め撮像し、当該計測装置2に計測用撮像情報211を作成させる。そして、化粧支援システム1は、当該計測用撮像情報211を携帯端末装置3に転送し、後の利用のために、三次元形状情報212とともにデータベース111に格納しておくのである。すなわち、撮像情報112として取得することが困難な部位を表示する必要が生じた場合、当該部位を予め撮像しておいた計測用撮像情報211を用いて当該部位についての画像を生成する。 Although details will be described later, in the makeup support system 1, the user images in advance a part that is difficult to be imaged at the time of makeup using the mobile terminal device 3 using the measurement device 2, and the measurement device 2 performs measurement imaging. Information 211 is created. And the makeup | decoration assistance system 1 transfers the said imaging information 211 for a measurement to the portable terminal device 3, and stores it in the database 111 with the three-dimensional shape information 212 for future use. That is, when it becomes necessary to display a part that is difficult to acquire as the imaging information 112, an image of the part is generated using the measurement imaging information 211 in which the part is captured in advance.
 なお、この場合の計測用撮像情報211は動画像である必要はなく、各部位についてフレーム1枚分の静止画像のみであってもよい。ただし、当該計測用撮像情報211は、必ずしも部位を選択的に撮像した情報でなければならないわけではなく、例えば、ユーザの頭部の全周にわたって撮像されていてもよい。 Note that the imaging information for measurement 211 in this case is not necessarily a moving image, and may be only a still image for one frame for each part. However, the measurement imaging information 211 does not necessarily have to be information that selectively images a region, and may be captured over the entire circumference of the user's head, for example.
 また、データベース111に含まれる披露場所に応じた光環境とは、ユーザが化粧した状態を披露する場所として想定される場所ごとの、想定される光環境である。すなわち、記憶装置11は、データベース111を記憶することにより、ユーザの化粧を披露する場所における光環境を示す光環境情報113を記憶する。 Further, the light environment corresponding to the show place included in the database 111 is an assumed light environment for each place that is assumed as a place where the user's makeup is shown. That is, the memory | storage device 11 memorize | stores the light environment information 113 which shows the light environment in the place which shows a user's makeup by memorize | storing the database 111. FIG.
 化粧の典型的な披露場所としては、例えば、公園や海岸といった屋外や、オフィス、住宅の室内、レストラン内、バーのカウンタ、ホテルのロビー、イベント会場、車内などが想定される。また、屋外については、時間や天候など、日照状況による変化も想定される。携帯端末装置3では、予め予想される披露場所ごとに、当該披露場所において想定される光環境を取得しておき、データベース111に格納しておく。また、詳細は後述するが、光環境情報113は、撮像部35により撮像された撮像情報112に基づいて、当該撮像情報112が撮像されたときの光環境を推定して、更新される場合がある。 As typical locations for makeup, for example, outdoor places such as parks and beaches, offices, residential rooms, restaurants, bar counters, hotel lobbies, event venues, and cars are assumed. For the outdoors, changes due to sunshine conditions such as time and weather are also expected. In the mobile terminal device 3, the light environment assumed in the presenting place is acquired for each predicted place and stored in the database 111. Although details will be described later, the light environment information 113 may be updated based on the imaging information 112 captured by the imaging unit 35 by estimating the light environment when the imaging information 112 is captured. is there.
 携帯端末装置3は、図4に示すように2つの表示部33,34を備えており、いわゆるツインディスプレイ構造の装置として構成されている。携帯端末装置3において、表示部33,34は、化粧支援情報114を表示する機能を有している。 The mobile terminal device 3 includes two display units 33 and 34 as shown in FIG. 4, and is configured as a device having a so-called twin display structure. In the mobile terminal device 3, the display units 33 and 34 have a function of displaying the makeup support information 114.
 なお、以下の説明では、説明を簡単にするために、化粧支援情報114を表示部33に表示する例で説明する。ただし、特に断らない限り、化粧支援情報114は、表示部34に表示されてもよいし、表示部33と表示部34とに分割して表示されてもよい。例えば、携帯端末装置3は、現在の状態の画像を表示部33に表示させつつ、同時に化粧の完成した状態の画像を表示部34に表示させることができる。あるいは、正面からユーザの顔をみたときの画像を表示部33に表示させつつ、ユーザの横顔の画像を表示部34に表示させるといったことも可能である。 In the following description, an example in which makeup support information 114 is displayed on the display unit 33 will be described in order to simplify the description. However, unless otherwise specified, the makeup support information 114 may be displayed on the display unit 34, or may be displayed separately on the display unit 33 and the display unit 34. For example, the mobile terminal device 3 can display the image of the current state on the display unit 33 and simultaneously display the image of the makeup completed state on the display unit 34. Alternatively, it is possible to display an image of the user's profile on the display unit 34 while displaying an image when the user's face is viewed from the front.
 通信部12は、無線によるデータ通信を実現する。通信部12を備えることにより、携帯端末装置3は、ネットワーク9に接続して、計測装置2との間でデータ通信を行うことができる。特に、通信部12は、計測装置2から送信される計測用撮像情報211および三次元形状情報212を受信する。 The communication unit 12 realizes wireless data communication. By providing the communication unit 12, the mobile terminal device 3 can connect to the network 9 and perform data communication with the measurement device 2. In particular, the communication unit 12 receives the measurement imaging information 211 and the three-dimensional shape information 212 transmitted from the measurement device 2.
 図6は、携帯端末装置3が備える機能ブロックをデータの流れとともに示す図である。図6に示すデータ取得部100、推定部101、および、情報作成部102は、CPU10がプログラム110に従って動作することにより実現される機能ブロックである。 FIG. 6 is a diagram illustrating functional blocks included in the mobile terminal device 3 together with a data flow. The data acquisition unit 100, the estimation unit 101, and the information creation unit 102 illustrated in FIG. 6 are functional blocks realized by the CPU 10 operating according to the program 110.
 データ取得部100は、通信部12によって受信された計測用撮像情報211および三次元形状情報212、操作部32から転送される入力情報、および、撮像部35によって取得された撮像情報112などに基づいて、データベース111を管理(作成および更新)する機能を有している。 The data acquisition unit 100 is based on the measurement imaging information 211 and the three-dimensional shape information 212 received by the communication unit 12, the input information transferred from the operation unit 32, the imaging information 112 acquired by the imaging unit 35, and the like. And has a function of managing (creating and updating) the database 111.
 特に、データ取得部100は、撮像部35により撮像された撮像情報112に基づいて、当該撮像情報112が撮像されたときの光環境を推定して、記憶装置11に記憶されている光環境情報113を更新する。 In particular, the data acquisition unit 100 estimates the optical environment when the imaging information 112 is captured based on the imaging information 112 captured by the imaging unit 35, and stores the optical environment information stored in the storage device 11. 113 is updated.
 光環境情報113として、データ取得部100は、光の光線方向および光線強度を推定するとともに、ユーザに向けて照射されている光の色を推定する。データ取得部100が化粧時(現在)における光環境を推定(特定)する手法としては、例えば、以下の手法を採用することができる。 As the light environment information 113, the data acquisition unit 100 estimates the light beam direction and light beam intensity, and also estimates the color of the light emitted toward the user. As a technique for the data acquisition unit 100 to estimate (specify) the light environment at the time of makeup (current), for example, the following technique can be employed.
 まず、三次元形状情報212に特定の方向から特定強度の光を当てた場合のレンダリング画像を、光の方向や強度を変更しつつ複数作成する。そして、当該複数のレンダリング画像と、撮像情報112との輝度分布を比較することにより、最も一致度合いの高い組み合わせを、当該撮像情報112が撮像されたときの光環境(光の方向および強度)として特定する。 First, a plurality of rendering images when light of a specific intensity is applied to the three-dimensional shape information 212 from a specific direction are created while changing the direction and intensity of the light. Then, by comparing the luminance distributions of the plurality of rendered images and the imaging information 112, the combination with the highest degree of coincidence is used as the light environment (light direction and intensity) when the imaging information 112 is imaged. Identify.
 図7は、撮像情報112に対して推定された光環境を例示する図である。このように、光線の方向および光線の強度を推定することによって、例えば、口元などの黒い領域は「影」であると判定できる。これにより、例えば、誤ってその領域を化粧品で塗るように指示を出すことを避けることができる。 FIG. 7 is a diagram illustrating the light environment estimated for the imaging information 112. Thus, by estimating the direction of the light beam and the intensity of the light beam, for example, a black region such as the mouth can be determined to be a “shadow”. Thereby, for example, it is possible to avoid giving an instruction to apply the region with cosmetics by mistake.
 また、化粧時の光環境における光の色を推定する手法としては、色が既知の基準物体(例えば白色のキューブなど)を撮像して撮像情報112を作成する。そして、当該撮像情報112において、当該物体の色がどのように撮像されているかを解析することにより、当該物体に照射されている光の色(すなわち、撮像時の光環境における光の色)を推定する。 Also, as a method of estimating the color of light in the light environment at the time of makeup, imaging information 112 is created by imaging a reference object (for example, a white cube) with a known color. Then, by analyzing how the color of the object is imaged in the imaging information 112, the color of light irradiated on the object (that is, the color of light in the optical environment at the time of imaging) is determined. presume.
 図8は、白色のキューブで構成される基準物体80を撮像範囲に含めて撮像した撮像情報112を例示する図である。図8に示す撮像情報112において、データ取得部100は、基準物体80を表現する画素の色彩を判定し、基準物体80の既知の色彩と比較することにより、当該撮像情報112が撮像されたときの光環境情報113を特定する。 FIG. 8 is a diagram illustrating imaging information 112 obtained by imaging the reference object 80 composed of white cubes in the imaging range. In the imaging information 112 shown in FIG. 8, the data acquisition unit 100 determines the color of the pixel representing the reference object 80 and compares it with the known color of the reference object 80, thereby capturing the imaging information 112. The light environment information 113 is specified.
 このように、化粧支援システム1は、ユーザが実際に撮像した場所における光環境情報113を取得することができる。すなわち、ユーザは、化粧中における光環境のみならず、自身が頻繁に通う場所(化粧を披露する場所)についての光環境情報113を当該場所に赴いて撮像することにより予め収集しておくこともできる。このように、任意の場所の光環境情報113を予め収集しておくことによって、次回から、当該場所における光環境情報113に基づいて化粧支援情報114を作成することができる。 As described above, the makeup support system 1 can acquire the light environment information 113 at the place where the user actually captured the image. That is, the user collects not only the light environment during makeup but also the light environment information 113 about a place where he / she frequently attends (a place where makeup is exhibited) by collecting and photographing in advance. it can. Thus, by collecting the light environment information 113 of an arbitrary place in advance, the makeup support information 114 can be created from the next time based on the light environment information 113 at the place.
 なお、ユーザの髪の毛や、常時使用している眼鏡の縁など、あまり頻繁に色が変化しない物体で、かつ、ユーザ自身を撮像することにより、自然に撮像情報112として取得することが可能な物体を基準物体80として選択することもできる。このような物体を、基準物体80として登録しておくことにより、別途、ユーザが意識して基準物体80を持参し撮像する必要がなくなるため、ユーザの負担が軽減される。 It should be noted that an object that does not change color frequently, such as the user's hair or the edge of glasses that are always used, and that can be acquired naturally as the imaging information 112 by imaging the user himself / herself Can also be selected as the reference object 80. By registering such an object as the reference object 80, it is not necessary for the user to consciously bring the reference object 80 and take an image, thereby reducing the burden on the user.
 図6に示す推定部101は、撮像情報112や計測用撮像情報211、三次元形状情報212に基づいて、化粧時における様々な状況や状態を推定し、その推定結果を情報作成部102に伝達する機能を有している。なお、推定部101から情報作成部102に向けて伝達される推定結果を、以下、「推定情報」と総称する。 The estimation unit 101 illustrated in FIG. 6 estimates various situations and states during makeup based on the imaging information 112, the measurement imaging information 211, and the three-dimensional shape information 212, and transmits the estimation results to the information creation unit 102. It has a function to do. The estimation result transmitted from the estimation unit 101 to the information creation unit 102 is hereinafter collectively referred to as “estimation information”.
 例えば、推定部101は、ユーザの化粧時における化粧品の塗布速度を推定し、推定情報とする。塗布速度は、例えば、どの程度の距離をどの程度の時間をかけて塗布しているかによって求めることができる。どの程度の距離かは、三次元形状情報212および/または撮像情報112に基づいて求めることが可能である。また、どの程度の時間をかけて塗布しているかは、動画像として取得されている撮像情報112に基づいて当該撮像情報112のフレーム数などにより求めることができる。 For example, the estimation unit 101 estimates the cosmetic application speed at the time of the user's makeup and uses the estimated information. The coating speed can be obtained, for example, depending on how much distance is applied over how long. The distance can be determined based on the three-dimensional shape information 212 and / or the imaging information 112. Further, how long it takes to apply can be obtained from the number of frames of the imaging information 112 based on the imaging information 112 acquired as a moving image.
 また、推定部101は、例えば、ユーザの顔の立体形状を三次元形状情報212を元にして解析し、その起伏の分布状態から、ユーザの頬骨位置や目の位置など、化粧を施す際のポイントとなりうる特徴的な部位を特定し、推定情報とする。例えば、頬骨位置は、ある程度の広さを持った立体的な領域(起伏領域)として特定され、個々のユーザに固有の形状を有する領域となる。頬骨位置は、当該ユーザに化粧を施す位置を決めるための参考となる。 The estimation unit 101 also analyzes, for example, the three-dimensional shape of the user's face based on the three-dimensional shape information 212, and applies makeup such as the user's cheekbone position and eye position from the undulation distribution state. A characteristic part that can be a point is identified and used as estimated information. For example, the cheekbone position is specified as a three-dimensional area (undulation area) having a certain size, and has a shape unique to each user. The cheekbone position is a reference for determining the position where makeup is applied to the user.
 また、推定部101は、化粧時における光環境情報113に応じて、ユーザの化粧時における顔色を推定し、推定情報とする。例えば、推定部101は、化粧時における光環境の影響を、化粧時に撮像された撮像情報112(ユーザ撮像画像)の顔肌部分から除去することにより、化粧時のユーザの顔色を特定する。 Further, the estimation unit 101 estimates the face color of the user at the time of makeup according to the light environment information 113 at the time of makeup, and uses the estimated color as estimation information. For example, the estimation unit 101 specifies the face color of the user at the time of makeup by removing the influence of the light environment at the time of makeup from the facial skin portion of the imaging information 112 (user captured image) captured at the time of makeup.
 また、推定部101は、三次元形状情報212と撮像情報112とに基づいて、当該撮像情報112における撮像ズレ角を推定し、推定情報とする。 Further, the estimation unit 101 estimates the imaging deviation angle in the imaging information 112 based on the three-dimensional shape information 212 and the imaging information 112, and uses the estimation information as estimation information.
 本実施の形態における推定部101が撮像ズレ角を推定する原理について説明する。まず、推定部101は、三次元形状情報212に表現されているユーザの部位(例えば顔)について、当該三次元形状情報212を用いて当該部位が正対した状態を想定する。そして、想定した当該部位が正対した状態において、当該部位に含まれるユーザの各部位(例えば眉毛、目、鼻、唇、耳など)の位置を特定する。 The principle by which the estimation unit 101 in the present embodiment estimates the imaging deviation angle will be described. First, the estimation unit 101 assumes a state in which a part of the user (for example, a face) expressed in the three-dimensional shape information 212 is directly opposed using the three-dimensional shape information 212. Then, in the state where the assumed part is directly facing, the position of each part (for example, eyebrows, eyes, nose, lips, ears, etc.) of the user included in the part is specified.
 次に、撮像情報112を用いて当該撮像情報112に撮像されているユーザの各部位(ここでは眉毛、目、鼻、唇、耳など)の位置を特定する。さらに、三次元形状情報212から特定された各部位の位置と、撮像情報112から特定された各部位の位置との差分を求める。そして、求めた差分に基づいて、当該撮像情報112に撮像されているユーザの部位(ここでは顔)が、正対した状態で撮像された場合に比べて、どれだけの撮像ズレ角で撮像されているかを推定する。なお、推定部101により推定された撮像ズレ角を、化粧支援情報114においてどのように用いるかについては後述する。 Next, the position of each part (here, eyebrows, eyes, nose, lips, ears, etc.) of the user imaged in the imaging information 112 is specified using the imaging information 112. Further, the difference between the position of each part specified from the three-dimensional shape information 212 and the position of each part specified from the imaging information 112 is obtained. Then, based on the obtained difference, the user's part (here, the face) imaged in the imaging information 112 is imaged at an imaging deviation angle as compared with the case where the image is captured in a face-to-face state. To estimate. Note that how to use the imaging shift angle estimated by the estimation unit 101 in the makeup support information 114 will be described later.
 また、推定部101は、ユーザが正面を向いているときの目線と、撮像情報112に撮像されたときのユーザの目線との目線ズレ角を推定し、推定情報とする。より詳細には、推定部101は、当該目線ズレ角を補正するための補正距離を求めて、推定情報とする。なお、補正距離とは、ユーザが正面を向いている状態を撮像するために、ユーザが視線を動かすべきときに参考となるように、当該ユーザに対して提供される距離である。 Further, the estimation unit 101 estimates a gaze shift angle between the line of sight when the user is facing the front and the line of sight of the user when the image is captured by the imaging information 112, and sets the estimated information. More specifically, the estimation unit 101 obtains a correction distance for correcting the gaze shift angle and uses it as estimation information. The correction distance is a distance provided to the user so that it can be referred to when the user should move his / her line of sight in order to capture an image of the user facing the front.
 図9は、補正距離を説明するための図である。 FIG. 9 is a diagram for explaining the correction distance.
 ユーザが化粧中の自身の顔を確認する場合、当該ユーザが正面を向いている状態の顔を確認することが最適である。詳細は後述することになるが、化粧支援システム1は、三次元形状情報212に、撮像情報112をマッピングすることによって、任意の方向から見た顔の映像を得るように構成されている。したがって、ユーザと撮像部35とが正対しているか否かに関わらず、化粧支援システム1は、ユーザの顔を正面から見たときの映像を得ることは可能である。 When the user confirms his / her face during makeup, it is optimal to confirm the face when the user is facing the front. As will be described in detail later, the makeup support system 1 is configured to obtain an image of a face viewed from an arbitrary direction by mapping the imaging information 112 to the three-dimensional shape information 212. Therefore, regardless of whether the user and the imaging unit 35 are facing each other, the makeup support system 1 can obtain an image when the user's face is viewed from the front.
 一方で、一般に、携帯端末装置3を利用する場合、ユーザは、当該携帯端末装置3を自身の目の高さよりも下方に所持し、さらに、撮像部35の下方に位置する表示部33,34の中央付近に目線を向けることになる。このときのユーザの目線は、およそ図9に示す目線70である。 On the other hand, in general, when using the mobile terminal device 3, the user holds the mobile terminal device 3 below the height of his / her own eyes, and further, the display units 33 and 34 positioned below the imaging unit 35. Look at the center of. The user's line of sight at this time is a line of sight 70 shown in FIG.
 目線が目線70となっているときのユーザを、撮像部35によって撮像すると、ユーザの瞼は半開き状態で撮像される。このようなユーザ撮像画像(撮像情報112)を用いてマッピングすると、ユーザの顔自体は正面から見た状態ではあるものの、瞼が半開き状態のユーザの顔が表示されることになる。このような画像は、化粧を行うときに参考とする画像として不向きなだけでなく、閲覧するユーザに違和感を与えることになる。 When the user when the line of sight is the line of sight 70 is imaged by the imaging unit 35, the user's eyelid is imaged in a half-open state. When mapping is performed using such a user-captured image (imaging information 112), the face of the user with the eyelids half-opened is displayed, although the user's face is viewed from the front. Such an image is not suitable as an image to be used as a reference when performing makeup, but also gives a user a sense of discomfort.
 また、撮像部35を見ているときのユーザの目線は、およそ図9に示す目線71である。したがって、撮像部35を見るようにユーザを誘導したとしても、ユーザが下を向いている状態で、目線が合うことになり、依然として、ユーザが正面を向いているときの自然な画像を得ることはできない。 Further, the user's line of sight when viewing the imaging unit 35 is a line of sight 71 shown in FIG. Therefore, even if the user is guided to look at the imaging unit 35, the user's eyes are aligned with the user facing down, and still obtain a natural image when the user is facing the front. I can't.
 このように、ユーザが携帯端末装置3を利用しているときにおいて、ユーザが正面を向いたときの目線(図9に示す目線72)と、撮像情報112に撮像されたときのユーザの目線(図9に示す目線70,71)との間には、目線ズレ角を生じる。 In this way, when the user is using the mobile terminal device 3, the line of sight when the user faces the front (the line of sight 72 shown in FIG. 9) and the line of sight of the user when captured by the imaging information 112 ( A line-of-sight misalignment angle is generated between the line of sight 70 and 71) shown in FIG.
 そこで、推定部101は、撮像情報112を三次元形状情報212にマッピングしたときの角度に応じて、撮像部35によって撮像された顔の携帯端末装置3に対する下向き角度(目線ズレ角)を求める。そして、さらに、ユーザの目線が目線72となるように、ユーザが見つめるべき位置(視線目標位置)を示す補正距離73を求める。補正距離73は、視線目標位置と撮像部35との相対的な位置関係に応じて求められ、推定情報に含められる。 Therefore, the estimation unit 101 obtains a downward angle (eye-gap angle) of the face imaged by the imaging unit 35 with respect to the mobile terminal device 3 according to the angle when the imaging information 112 is mapped to the three-dimensional shape information 212. Further, a correction distance 73 indicating a position (a line-of-sight target position) that the user should look at is obtained so that the user's line of sight becomes the line of sight 72. The correction distance 73 is obtained according to the relative positional relationship between the line-of-sight target position and the imaging unit 35, and is included in the estimation information.
 また、推定部101は、撮像部35によって撮像された撮像情報112と、過去撮像情報(計測用撮像情報211)とを比較して、当該撮像情報112が撮像された時点における化粧の劣化度を推定し、推定情報とする。例えば、ユーザが自宅で化粧を完了したときの自身の姿を撮像した画像情報として、計測用撮像情報211を取得し、データベース111に格納しておけば、外出先で撮像情報112を取得することにより、その時点での化粧の劣化度を求めることができる。 The estimation unit 101 compares the imaging information 112 captured by the imaging unit 35 with the past imaging information (measurement imaging information 211), and determines the degree of makeup deterioration at the time when the imaging information 112 is captured. Estimate and use as estimation information. For example, if the imaging information 211 for measurement is acquired as image information obtained by capturing the appearance of the user when makeup is completed at home and stored in the database 111, the imaging information 112 is acquired on the go. Thus, the deterioration degree of the makeup at that time can be obtained.
 例えば、推定部101は、画像認識処理などを用いて、計測用撮像情報211に撮像されているユーザの毛穴の状態と、撮像情報112に撮像されているユーザの毛穴の状態とを比較し、化粧の劣化度を推定する。これにより、例えば、ファンデーションの落ち具合などを推定することができる。 For example, the estimation unit 101 compares the state of the user's pore imaged in the measurement imaging information 211 with the state of the user's pore imaged in the imaging information 112 using an image recognition process or the like, Estimate the degree of makeup deterioration. Thereby, for example, it is possible to estimate the degree of foundation failure.
 また、例えば、推定部101は、計測用撮像情報211に撮像されているユーザの肌部分と特定部分(劣化度を推定したい部分)との色比率と、撮像情報112に撮像されているユーザの肌部分と特定部分との色比率とを比較して、特定部分における化粧の劣化度を推定する。これにより、例えば、口紅やチーク、アイシャドウなどの落ち具合を判定することができる。 In addition, for example, the estimation unit 101 captures the color ratio between the user's skin part imaged in the measurement imaging information 211 and the specific part (the part for which the degree of degradation is to be estimated) and the user imaged in the imaging information 112. By comparing the color ratio between the skin portion and the specific portion, the degree of makeup deterioration in the specific portion is estimated. Thereby, for example, it is possible to determine the degree of lipstick, teak, eye shadow or the like.
 さらに、推定部101は、推定した当該化粧の劣化度と、当該計測用撮像情報211が撮像された時間からの経過時間とに基づいて、当該化粧を修正すべき時間(化粧なおし予定時間)を推定し、推定情報とする。 Furthermore, the estimation unit 101 determines a time (scheduled retouching time) for correcting the makeup based on the estimated degree of deterioration of the makeup and the elapsed time from the time when the imaging information for measurement 211 was imaged. Estimate and use as estimation information.
 以上が、図6に示す推定部101の機能の説明である。次に、同じく図6に示す情報作成部102の機能について説明する。 The above is the description of the function of the estimation unit 101 shown in FIG. Next, the function of the information creation unit 102 shown in FIG. 6 will be described.
 情報作成部102は、通信部12により受信された計測用撮像情報211および三次元形状情報212と、撮像部35により取得された撮像情報112とに基づいて、ユーザに施す化粧を支援するための化粧支援情報114を作成する。 The information creating unit 102 supports makeup applied to the user based on the measurement imaging information 211 and the three-dimensional shape information 212 received by the communication unit 12 and the imaging information 112 acquired by the imaging unit 35. Makeup support information 114 is created.
 情報作成部102は、化粧支援情報114を作成するときに、適宜、データベース111を検索し、状況に応じた化粧の仕方を示す情報や、使用すべき化粧品や道具等に関する情報(推奨物品情報)なども取得して、これらの情報を化粧支援情報114に含める機能を有している。 When creating the makeup support information 114, the information creation unit 102 searches the database 111 as appropriate, information indicating how to make up according to the situation, and information on cosmetics and tools to be used (recommended article information). And the like, and this information is included in the makeup support information 114.
 なお、情報作成部102がデータベース111を検索するときの条件(検索キー)として用いる情報は、主に、操作部32から伝達される情報(ユーザからの指示情報)と、推定部101から伝達される推定情報とである。 Information used as a condition (search key) when the information creation unit 102 searches the database 111 is mainly transmitted from the operation unit 32 (instruction information from the user) and from the estimation unit 101. And estimated information.
 以下に、情報作成部102が化粧支援情報114を作成する具体例について説明する。 Hereinafter, a specific example in which the information creation unit 102 creates the makeup support information 114 will be described.
 まず、情報作成部102は、三次元形状情報212に、化粧時に撮像された撮像情報112を用いてテクスチャマッピング技術により画像(以下、「表示ユーザ画像」と称する。)を作成する。このようにして作成された表示ユーザ画像は、化粧支援情報114に含められ、化粧支援情報114として、表示部33に表示される。表示ユーザ画像は、携帯端末装置3を用いて化粧を行うときの、いわゆる鏡面像の役割を担う画像である。 First, the information creation unit 102 creates an image (hereinafter referred to as “display user image”) by using a texture mapping technique using the imaging information 112 captured at the time of makeup in the 3D shape information 212. The display user image created in this way is included in the makeup support information 114 and displayed on the display unit 33 as the makeup support information 114. The display user image is an image that plays a role of a so-called mirror image when makeup is performed using the mobile terminal device 3.
 ただし、詳細は順次説明するが、携帯端末装置3における表示ユーザ画像は、単なる鏡面像ではない。表示ユーザ画像は、化粧を行うユーザにとって有益な様々な加工が施された画像として表示される。例えば、表示ユーザ画像における視点(アングル)は、撮像情報112の撮像方位に限定されるものではなく、化粧を施す部位などに応じて変更することができる。情報作成部102は、どの方向から見たときの表示ユーザ画像を作成するかを、操作部32から入力された視点情報に基づいて決定する。また、操作部32からの指示情報により、化粧を施す場所にズームした表示ユーザ画像を作成することもできる。 However, although details will be described sequentially, the display user image in the mobile terminal device 3 is not a simple mirror image. The displayed user image is displayed as an image that has been subjected to various processes that are useful for the user performing makeup. For example, the viewpoint (angle) in the display user image is not limited to the imaging direction of the imaging information 112, and can be changed according to the part to which makeup is applied. Based on the viewpoint information input from the operation unit 32, the information creation unit 102 determines which direction to create a display user image when viewed from. In addition, a display user image zoomed to a place where makeup is to be applied can be created based on instruction information from the operation unit 32.
 すでに説明したように、本実施の形態における化粧支援システム1では、様々な表情に関する三次元形状情報212を作成した場合などにおいて、複数の三次元形状情報212が存在する場合がある。このような場合には、いずれの三次元形状情報212を用いてユーザ表示画像を作成するのかを、まず選択しなければならない。 As already described, in the makeup support system 1 according to the present embodiment, when the three-dimensional shape information 212 relating to various facial expressions is created, a plurality of three-dimensional shape information 212 may exist. In such a case, it is necessary to first select which three-dimensional shape information 212 is used to create the user display image.
 情報作成部102は、複数の三次元形状情報212と撮像情報112とを一対一で比較することにより、複数の三次元形状情報212から、当該撮像情報112に最も合致する1の三次元形状情報212を選択する。そして、情報作成部102は、選択された1の三次元形状情報212と撮像情報112とに基づいて化粧支援情報114を作成する。このように、異なる表情について準備された複数の三次元形状情報212の中から、現在の表情と同じ表情の三次元形状情報212に基づいて化粧支援情報114を作成することにより、精度が向上する。また、表示ユーザ画像がユーザの現実の表情に連動するため、ユーザの違和感を抑制することができる。 The information creating unit 102 compares the plurality of three-dimensional shape information 212 and the imaging information 112 on a one-to-one basis, and thus, from the plurality of three-dimensional shape information 212, the one three-dimensional shape information that best matches the imaging information 112 212 is selected. Then, the information creation unit 102 creates makeup support information 114 based on the selected one three-dimensional shape information 212 and imaging information 112. As described above, the makeup support information 114 is created based on the three-dimensional shape information 212 having the same facial expression as the current facial expression from the plurality of three-dimensional shape information 212 prepared for different facial expressions, thereby improving accuracy. . Further, since the displayed user image is linked to the user's actual facial expression, the user's uncomfortable feeling can be suppressed.
 また、情報作成部102は、操作部32から入力されるユーザの指示に応じて、ユーザが所望する表情を特定し、複数の三次元形状情報212から当該表情に対応した1の三次元形状情報212を選択することも可能である。そして、情報作成部102は、選択した1の三次元形状情報212と撮像情報112とに基づいて化粧支援情報114を作成する。このように、異なる表情について準備された複数の三次元形状情報212の中からユーザが所望する表情の三次元形状情報212を選択することにより、化粧支援システム1は、化粧を施す際にユーザが現実に当該表情を実演することなく、当該表情に関する化粧支援情報114(表示ユーザ画像)を作成することができる。 In addition, the information creation unit 102 specifies a facial expression desired by the user in response to a user instruction input from the operation unit 32, and a piece of 3D shape information corresponding to the facial expression from the plurality of 3D shape information 212. It is also possible to select 212. Then, the information creation unit 102 creates makeup support information 114 based on the selected one three-dimensional shape information 212 and imaging information 112. Thus, by selecting the 3D shape information 212 of the facial expression desired by the user from among the plurality of 3D shape information 212 prepared for different facial expressions, the makeup support system 1 allows the user to apply makeup. The makeup support information 114 (display user image) related to the facial expression can be created without actually demonstrating the facial expression.
 また、情報作成部102は、ユーザの指示に応じて、複数の三次元形状情報212の中からユーザが所望する特定の部位にズームした三次元形状情報212を選択することも可能である。これにより、例えば、目の周辺部分のように、細かい化粧が必要な部位については、他の部位に比べて詳細な化粧支援情報114を作成することが可能となる。ここに言う「詳細な化粧支援情報114」とは、例えば、細部が視認できるように拡大された表示ユーザ画像である。 Also, the information creation unit 102 can select the three-dimensional shape information 212 zoomed to a specific part desired by the user from among the plurality of three-dimensional shape information 212 in accordance with a user instruction. As a result, for example, for parts that require fine makeup, such as the peripheral part of the eyes, it is possible to create detailed makeup support information 114 compared to other parts. The “detailed makeup support information 114” mentioned here is, for example, a display user image enlarged so that details can be visually recognized.
 また、情報作成部102は、ユーザの目線に関する目線ズレ角を抑制するための指示を化粧支援情報114に含める。例えば、推定部101によって推定された補正距離を用いて、「カメラの上方、10cmくらいのところを見つめてください」といったメッセージを化粧支援情報114として作成する。これを表示部33に表示させることにより、化粧を施す際のユーザに、一旦、正面を見るようにアドバイスすることができ、正面を見ている状態のユーザを容易に撮像情報112として撮像することができる。 In addition, the information creation unit 102 includes an instruction for suppressing the gaze shift angle related to the user's gaze in the makeup support information 114. For example, using the correction distance estimated by the estimation unit 101, a message such as “please look at about 10 cm above the camera” is created as the makeup support information 114. By displaying this on the display unit 33, it is possible to advise the user when applying makeup to once look at the front, and easily image the user who is looking at the front as the imaging information 112. Can do.
 計測装置2において撮像された計測用撮像画像211ではなく、携帯端末装置3において撮像された撮像情報112から得られたユーザ撮像画像を、計測装置2において特定された三次元形状情報212にテクスチャマッピングする場合、当該ユーザ撮像画像がどの角度から撮像されたかを特定して行う必要がある。このために、情報作成部102は、推定部101によって推定された撮像ズレ角を利用して投影変換する。 Texture mapping of the user captured image obtained from the imaging information 112 captured by the mobile terminal device 3, not the measurement captured image 211 captured by the measuring device 2, to the three-dimensional shape information 212 specified by the measuring device 2. In this case, it is necessary to specify from which angle the user-captured image is captured. For this purpose, the information creation unit 102 performs projection conversion using the imaging shift angle estimated by the estimation unit 101.
 推定情報(撮像ズレ角)に基づく投影変換を行っても、三次元形状情報212における特徴点(例えば、目尻、唇、鼻の穴の位置など)の三次元位置が、ユーザ撮像画像の特徴点位置と一致しない場合、情報作成部102は、最小二乗法などの手法を利用して、最も特徴点位置誤差が少なくなる角度(最適角度)から、テクスチャマッピングを行う。 Even if the projection conversion based on the estimation information (imaging deviation angle) is performed, the three-dimensional positions of the feature points (for example, the positions of the corners of the eyes, lips, and nostrils) in the three-dimensional shape information 212 are the feature points of the user-captured image. If the position does not match, the information creation unit 102 performs texture mapping from an angle (optimum angle) that minimizes the feature point position error using a method such as a least square method.
 ところが、後述するように、携帯端末装置3の撮像部35が装備するレンズが安価であったり、広角レンズであったりする場合においては、ユーザ撮像画像がユーザの形状を正確に反映していない場合がある。すなわち、携帯端末装置3において得られたユーザ撮像画像に、光学的な歪みが生じている場合がある。このような場合には、最適角度によるテクスチャマッピングにおいても、特徴点位置誤差が生じる場合がある。このような場合には、情報作成部102は、三次元形状情報212に合わせ込むように、各部位(特徴点を形成する部位)を移動させることによって対応付けを行う。 However, as will be described later, when the lens provided in the imaging unit 35 of the mobile terminal device 3 is inexpensive or a wide-angle lens, the user captured image does not accurately reflect the shape of the user. There is. That is, optical distortion may occur in the user captured image obtained in the mobile terminal device 3. In such a case, a feature point position error may occur even in texture mapping using the optimum angle. In such a case, the information creation unit 102 performs association by moving each part (part that forms a feature point) so as to match the three-dimensional shape information 212.
 一方で、携帯端末装置3の撮像部35が高精度な場合、逆に、三次元形状情報212における部位を、ユーザ撮像画像に合わせ込むことも可能である。この場合には、携帯端末装置3で撮像されたユーザの表情に近い形で三次元形状情報212が修正される。したがって、撮像時(化粧時)の少しの表情変化などを反映した全方位画像を、携帯端末装置3上で確認することが可能となる。 On the other hand, when the imaging unit 35 of the mobile terminal device 3 is highly accurate, it is also possible to match the part in the three-dimensional shape information 212 with the user-captured image. In this case, the three-dimensional shape information 212 is corrected so as to be close to the user's facial expression imaged by the mobile terminal device 3. Therefore, an omnidirectional image reflecting a slight change in facial expression during imaging (during makeup) can be confirmed on the mobile terminal device 3.
 このように、化粧支援システム1は、撮像情報112におけるユーザの撮像方位と、マッピングする三次元形状の見え方の方位とを予め合わせておいてから、ユーザ撮像画像をマッピングすることにより、自然な状態の表示ユーザ画像を作成することができる。 As described above, the makeup support system 1 matches the user's imaging azimuth in the imaging information 112 with the direction of appearance of the three-dimensional shape to be mapped in advance, and then maps the user's captured image so that a natural image is obtained. A state display user image can be created.
 また、情報作成部102は、推定部101により推定された化粧の劣化度に基づいて化粧支援情報114を作成する。 In addition, the information creation unit 102 creates makeup support information 114 based on the degree of makeup degradation estimated by the estimation unit 101.
 図10は、化粧の劣化度に基づいて作成される化粧支援情報114を例示する図である。 FIG. 10 is a diagram illustrating makeup support information 114 created based on the degree of makeup deterioration.
 図10に示すように、化粧支援情報114には、自宅で化粧を完成させたときに撮像された計測用撮像情報211と、現在の化粧の状況を示す撮像情報112とが含まれている。したがって、ユーザは、2つの画像を見比べることにより、容易に現在の化粧の状況を知ることができる。また、現在の化粧の状況として、化粧の劣化度が数値により表示されている。したがって、ユーザは、現在の化粧の状況を客観的に評価することができる。このように、化粧支援システム1は、化粧の劣化度に応じてユーザの化粧を支援することができる。 As shown in FIG. 10, the makeup support information 114 includes measurement imaging information 211 captured when makeup is completed at home, and imaging information 112 indicating the current makeup status. Therefore, the user can easily know the current makeup situation by comparing the two images. In addition, as the current state of makeup, the degree of makeup deterioration is displayed as a numerical value. Therefore, the user can objectively evaluate the current makeup situation. Thus, the makeup support system 1 can support the makeup of the user according to the degree of makeup deterioration.
 また、次回の化粧なおしの時間を示す情報として「午後2時30分」が表示されている。これにより、化粧支援システム1は、単に劣化度を数値で示す場合に比べて、ユーザに、化粧なおしを行うべき時間を具体的に提案することができる。 In addition, “2:30 pm” is displayed as information indicating the time of the next makeup retouching. Thereby, the makeup | decoration assistance system 1 can propose specifically the time which should perform makeup | decoration to a user compared with the case where a degradation degree is simply shown with a numerical value.
 なお、図10では、化粧を完成させたときの撮像画像として、計測用撮像情報211を用いている。しかし、携帯端末装置3において化粧を完成させた場合には、そのときに撮像された撮像情報112が、化粧を完成させたときの撮像画像として用いられる。 In FIG. 10, measurement imaging information 211 is used as a captured image when makeup is completed. However, when makeup is completed in the mobile terminal device 3, the imaging information 112 captured at that time is used as a captured image when the makeup is completed.
 また、ここでは、過去撮像情報が化粧を完成させたときの撮像画像であるとみなして、これとの比較により、現在の化粧の状況を評価する例について説明した。しかし、例えば、目標とする化粧の状態と、現在の化粧の状態とを比較するようにしてもよい。例えば、化粧を途中で中断した場合などにおいては、中断したときの撮像画像(過去撮像情報)を基準として比較しても、経過時間による劣化の進行速度を求めることはできるものの、理想の化粧に対する劣化度を求めることはできない。このような場合には、完成させたときの化粧の状態を推定して比較し、化粧支援情報114を作成することが好ましい。 Also, here, an example has been described in which the past imaging information is regarded as a captured image when makeup is completed, and the current makeup status is evaluated by comparison with the captured image. However, for example, the target makeup state may be compared with the current makeup state. For example, when makeup is interrupted in the middle, it is possible to determine the rate of progress of deterioration due to elapsed time even when compared with the captured image (past imaging information) at the time of interruption, but for the ideal makeup Degradation cannot be determined. In such a case, it is preferable that the makeup support information 114 is created by estimating and comparing the makeup state when completed.
 また、情報作成部102は、推定部101により推定された塗布速度に関する情報を含むように化粧支援情報114を作成する。具体的には、推定された塗布速度に基づいて、データベース111に含まれる状況に応じた化粧の仕方を検索し、当該塗布速度が適切か否かのメッセージや、当該塗布速度に応じた残り塗り回数などを取得し、化粧支援情報114に含める。これにより、携帯端末装置3は、ユーザによる塗布速度の適否を判定して、当該ユーザに対する化粧支援を行うことができる。 Also, the information creation unit 102 creates the makeup support information 114 so as to include information on the application speed estimated by the estimation unit 101. Specifically, based on the estimated application speed, a makeup method corresponding to the situation included in the database 111 is searched, a message indicating whether the application speed is appropriate, and a remaining application corresponding to the application speed. The number of times is acquired and included in the makeup support information 114. Thereby, the portable terminal device 3 can determine the suitability of the application speed by the user and perform makeup support for the user.
 また、情報作成部102は、推定部101により推定されたユーザの特徴的な部位に応じて化粧支援情報114を作成する。具体的には、例えば、頬骨の位置を基準にしてチークなどの化粧品の塗り位置を決定する。すなわち、推定された頬骨位置に基づいて、データベース111に含まれる状況に応じた化粧の仕方を検索し、当該頬骨位置に応じた塗布位置を示す情報を取得し、化粧支援情報114に含める。 Also, the information creation unit 102 creates makeup support information 114 according to the characteristic part of the user estimated by the estimation unit 101. Specifically, for example, the application position of a cosmetic such as teak is determined based on the position of the cheekbone. That is, based on the estimated cheekbone position, a makeup method corresponding to the situation included in the database 111 is searched, information indicating the application position according to the cheekbone position is acquired, and included in the makeup support information 114.
 図11は、推定部101により推定された頬骨位置に応じて表示ユーザ画像(化粧支援情報114)にガイド81を含めて表示する例を示す図である。図11に示す例では、ガイド81は、化粧品を塗布すべき領域を示す円として表示されている。このように、携帯端末装置3は、ユーザの特徴的な部位に応じて、適切な化粧支援を行うことができる。 FIG. 11 is a diagram illustrating an example in which the guide 81 is displayed on the display user image (makeup support information 114) according to the cheekbone position estimated by the estimation unit 101. In the example shown in FIG. 11, the guide 81 is displayed as a circle indicating a region where cosmetics are to be applied. Thus, the mobile terminal device 3 can perform appropriate makeup support according to the user's characteristic part.
 また、情報作成部102は、様々な光環境に基づいて、化粧支援情報114を作成する。様々な光環境とは、化粧の披露場所に応じて予め収集された光環境、データ取得部100により推定された化粧時の光環境(撮像情報112が撮像されたときの光環境)、あるいは、計測用撮像情報211に関連づけられている光環境(計測用撮像情報211が撮像されたときの光環境であり、基準となる光環境)である。 Also, the information creation unit 102 creates makeup support information 114 based on various light environments. Various light environments are the light environment collected in advance according to the place where makeup is presented, the light environment at the time of makeup estimated by the data acquisition unit 100 (light environment when the imaging information 112 is imaged), or This is an optical environment associated with the measurement imaging information 211 (the optical environment when the measurement imaging information 211 is imaged and the reference optical environment).
 具体的には、情報作成部102は、光環境そのものを検索キーとして、データベース111に含まれる状況に応じた化粧の仕方を検索する。そして、当該光環境に適した化粧の仕方を示す情報を取得し、化粧支援情報114に含める。これにより、携帯端末装置3は、当該光環境を考慮した化粧支援が可能となる。なお、情報作成部102は、光の光線方向、光線強度、光の色などの光環境を示すパラメータを利用する。また、検索キーとする光環境は、例えば、ユーザの指示に応じて決定することができる。 Specifically, the information creation unit 102 searches for a makeup method according to the situation included in the database 111 using the light environment itself as a search key. Then, information indicating a makeup method suitable for the light environment is acquired and included in the makeup support information 114. Thereby, the portable terminal device 3 can perform makeup support in consideration of the light environment. The information creating unit 102 uses parameters indicating the light environment such as the light ray direction, light intensity, and light color. Moreover, the light environment used as a search key can be determined according to a user's instruction, for example.
 また、情報作成部102は、化粧時における光環境(光環境情報113)と、計測用撮像情報211に関連づけられている基準となる光環境(計測装置2における撮像時の光環境)とに基づいて、ユーザの化粧時において撮像部35により撮像された撮像情報112を補正する。すなわち、情報作成部102は、化粧時に取得されたユーザ撮像画像を、基準となる光環境に応じた表示ユーザ画像に補正する。 Further, the information creating unit 102 is based on the light environment at the time of makeup (light environment information 113) and the reference light environment (the light environment at the time of imaging in the measurement device 2) associated with the measurement imaging information 211. Thus, the imaging information 112 captured by the imaging unit 35 at the time of makeup by the user is corrected. That is, the information creation unit 102 corrects the user captured image acquired at the time of makeup to a display user image corresponding to the reference light environment.
 図12は、撮像情報112と化粧支援情報114とを比較する図である。図12において左側に示す撮像情報112は、現在(化粧時)の光環境における画像(補正前の画像)である。 FIG. 12 is a diagram for comparing the imaging information 112 and the makeup support information 114. Imaging information 112 shown on the left side in FIG. 12 is an image (an image before correction) in the current (makeup) light environment.
 情報作成部102は、化粧時に取得された撮像情報112からユーザ撮像画像を抽出し、推定された化粧時における光環境に基づいて、当該ユーザ撮像画像を当該光環境の影響を取り除いた画像に変換する。次に、基準となる光環境を取得して、取得した基準となる光環境において撮像されたかのような画像となるように、上記変換された画像に対してさらに画像処理を施して表示ユーザ画像を作成する。そして、このようにして作成した表示ユーザ画像を含む化粧支援情報114(図12において右側の画像)を作成する。 The information creation unit 102 extracts a user captured image from the captured image information 112 acquired at the time of makeup, and converts the user captured image into an image from which the influence of the light environment is removed based on the estimated light environment at the time of makeup. To do. Next, the reference light environment is acquired, and the converted user image is further subjected to image processing so as to obtain an image as if it was captured in the acquired reference light environment. create. Then, makeup support information 114 (the image on the right side in FIG. 12) including the display user image created in this way is created.
 これにより、ユーザは、いつでも、基準となる光環境における化粧の見栄えを確認することができる。したがって、移動先の光環境に左右されずに安定した化粧を行うことができる。なお、情報作成部102は、基準となる光環境の表示ユーザ画像となるように、ユーザ撮像画像を補正するか否かは、ユーザが操作部32を操作して入力する指示情報によって判断する。 This allows the user to check the appearance of the makeup in the standard light environment at any time. Therefore, stable makeup can be performed without being influenced by the light environment of the destination. The information creating unit 102 determines whether or not to correct the user-captured image so as to be a display user image of the reference light environment based on instruction information input by the user operating the operation unit 32.
 また、情報作成部102は、データ取得部100により推定された化粧時における光環境と、ユーザの所望する披露場所における光環境とに基づいて、当該ユーザの化粧時において撮像された撮像情報112を補正する。すなわち、情報作成部102は、化粧時に取得されたユーザ撮像画像を、ユーザの所望する披露場所における光環境に応じた表示ユーザ画像に補正する。 The information creation unit 102 also captures imaging information 112 captured at the time of makeup of the user based on the light environment at the time of makeup estimated by the data acquisition unit 100 and the light environment at the presentation location desired by the user. to correct. That is, the information creation unit 102 corrects the user-captured image acquired at the time of makeup to a display user image corresponding to the light environment at the presentation place desired by the user.
 より具体的には、化粧時に取得されたユーザ撮像画像を撮像情報112から抽出し、推定された化粧時における光環境に基づいて、ユーザ撮像画像を当該光環境の影響を取り除いた画像に変換する。次に、操作部32からの指示情報を検索キーとして、データベース111に格納されている披露場所における光環境を検索し、ユーザの所望する披露場所における光環境を特定する。例えば、ユーザが操作部32を操作して披露場所として「レストラン」を指定する指示情報を入力すると、データベース111の光環境情報113からレストランにおける光環境が特定される。そして、特定されたレストランにおける光環境において撮像されたかのような画像となるように、上記変換された画像に対してさらに画像処理を施して表示ユーザ画像を作成する。 More specifically, a user captured image acquired at the time of makeup is extracted from the imaging information 112, and based on the estimated light environment at the time of makeup, the user captured image is converted into an image from which the influence of the light environment has been removed. . Next, using the instruction information from the operation unit 32 as a search key, the light environment at the show place stored in the database 111 is searched, and the light environment at the show place desired by the user is specified. For example, when the user operates the operation unit 32 to input instruction information for designating “restaurant” as a show place, the light environment in the restaurant is specified from the light environment information 113 of the database 111. Then, a display user image is created by further performing image processing on the converted image so as to obtain an image as if it was captured in the light environment of the identified restaurant.
 これにより、ユーザは、化粧を披露する場所の光環境における化粧の見栄えを確認することができる。なお、情報作成部102は、ユーザの所望する披露場所における光環境の表示ユーザ画像となるように、ユーザ撮像画像を補正するか否かは、ユーザが操作部32を操作して入力する指示情報によって判断する。 Thereby, the user can confirm the appearance of the makeup in the light environment of the place where the makeup is exhibited. The information creating unit 102 determines whether or not to correct the user captured image so that it becomes a display user image of the light environment at the presentation place desired by the user. Instruction information input by the user operating the operation unit 32 Judgment by.
 また、情報作成部102は、推定部101によって推定された顔色(光環境情報113に基づいて化粧中の光環境の影響が除去されている。)に応じて、適切な化粧の種類や塗布量、塗布位置といった情報を案内するメッセージを化粧支援情報114に含める。これにより、化粧中の光環境に影響されることなく、そのときの顔色(健康状態など)に応じた適切な化粧支援を行うことができる。 In addition, the information creation unit 102 determines an appropriate makeup type and application amount according to the face color estimated by the estimation unit 101 (the influence of the light environment during makeup is removed based on the light environment information 113). A message for guiding information such as the application position is included in the makeup support information 114. Accordingly, it is possible to perform appropriate makeup support according to the face color (health state, etc.) at that time without being affected by the light environment during makeup.
 また、情報作成部102は、ユーザの所望する披露場所に適した化粧支援情報114を作成する。具体的には、操作部32から入力される、ユーザの所望する披露場所を示す情報を検索キーとして、データベース111の状況に応じた化粧の仕方を検索する。 In addition, the information creation unit 102 creates makeup support information 114 suitable for the place desired by the user. Specifically, the makeup method corresponding to the situation in the database 111 is searched using information indicating the user's desired show location input from the operation unit 32 as a search key.
 例えば、ユーザの所望する披露場所として、先述のように「レストラン」が入力された場合には、「レストラン」を検索キーとして、レストランにふさわしい化粧の仕方をデータベース111から特定する。情報作成部102は、このようにして、特定した化粧の仕方を化粧支援情報114に含める。そして、ユーザは、表示部33に表示された化粧支援情報114を閲覧し、これに従って化粧を行うことにより、特に意識することもなく「レストラン」において映える化粧を完成させることができる。このように、携帯端末装置3は、化粧を披露する場所に対応した適切な化粧支援を行うことができる。 For example, when “restaurant” is input as the presentation place desired by the user as described above, the manner of makeup suitable for the restaurant is specified from the database 111 using “restaurant” as a search key. In this way, the information creation unit 102 includes the specified makeup method in the makeup support information 114. Then, the user can complete the makeup that appears in the “restaurant” without being particularly conscious by browsing the makeup support information 114 displayed on the display unit 33 and performing makeup according to the information. Thus, the portable terminal device 3 can perform appropriate makeup support corresponding to the place where makeup is performed.
 また、情報作成部102は、操作部32により取得された視点情報に基づいてユーザに施す化粧を支援するための化粧支援情報114を作成する。例えば、操作部32から横顔を確認する旨の指示(視点情報)が入力されたときには、表示ユーザ画像として当該ユーザの横顔の画像を作成し、化粧支援情報114に含める。 Further, the information creation unit 102 creates makeup support information 114 for supporting makeup to be applied to the user based on the viewpoint information acquired by the operation unit 32. For example, when an instruction (viewpoint information) for confirming a profile is input from the operation unit 32, an image of the profile of the user is created as a display user image and included in the makeup support information 114.
 例えば、図11に示す化粧支援情報114は、ユーザが撮像部35に対して正対している状態で、表示されている画像である。このように携帯端末装置3は、三次元形状情報212に基づいて表示ユーザ画像を作成できるため、撮像部35から見た画像だけでなく、様々な方向からの画像を表示することができる。したがって、ユーザは、様々な視点(アングル)から自身に対する化粧の見栄えを確認することができる。 For example, the makeup support information 114 illustrated in FIG. 11 is an image that is displayed in a state where the user is facing the imaging unit 35. Thus, since the portable terminal device 3 can create a display user image based on the three-dimensional shape information 212, not only the image viewed from the imaging unit 35 but also images from various directions can be displayed. Therefore, the user can confirm the appearance of the makeup for himself / herself from various viewpoints (angles).
 また、ユーザは、見栄えを確認するだけではなく、化粧中に操作部32を操作することにより、視点(アングル)を変更しつつ化粧をすることもできる。例えば、横顔を表示ユーザ画像として表示部33に表示させつつ、自身は表示部33(撮像部35)に対して正対しながら化粧をすることもできる。すなわち、正面からの画像を見ながら側面(例えば、頬)を化粧するのではなく、側面に正対した画像(横顔画像)を見ながら当該側面に対する化粧をすることができる。したがって、ユーザは正確に化粧することができる。 Further, the user can not only confirm the appearance but also make up while changing the viewpoint (angle) by operating the operation unit 32 during makeup. For example, while displaying the profile as a display user image on the display unit 33, the user can also make up while facing the display unit 33 (imaging unit 35). That is, it is possible to make up the side face while looking at the image (side view image) facing the side face instead of making up the side face (for example, cheek) while looking at the image from the front. Therefore, the user can make up correctly.
 また、情報作成部102は、ユーザの化粧目的に応じた化粧支援情報114を作成する。ユーザの化粧目的とは、どのような印象を与えたいかというユーザの希望であって、例えば、清楚に見える化粧や、健康的に見える化粧、ゴージャスな化粧、ワイルドな化粧などといった例が考えられる。すなわち、同じシーンであっても、ユーザが相手に与えたいと所望する印象は異なるものである。 Also, the information creation unit 102 creates makeup support information 114 according to the makeup purpose of the user. The user's makeup purpose is the user's desire to give an impression, and examples include makeup that looks neat, makeup that looks healthy, gorgeous makeup, wild makeup, etc. . That is, even if it is the same scene, the impression that the user desires to give to the other party is different.
 このように、情報作成部102がユーザの化粧目的に応じた化粧支援情報114を作成することにより、ユーザに対して提案することのできる化粧のバリエーションが増え、汎用性が向上する。なお、ユーザの化粧目的は、例えば、操作部32から指示情報として入力することができる。 Thus, when the information creation unit 102 creates the makeup support information 114 according to the makeup purpose of the user, makeup variations that can be proposed to the user increase and versatility is improved. The user's makeup purpose can be input as instruction information from the operation unit 32, for example.
 また、情報作成部102は、データベース111に登録されているユーザが所持している物品の中から推奨物品を選択し、選択した当該推奨物品に関する情報を化粧支援情報114に含める。これにより、状況に応じた最適な物品を提案することができ、ユーザの化粧をより適切に支援することができる。なお、推奨物品には、ハケや筆、ローラ、パッド、ビューラーなどが想定される。また、同種の物品を複数登録している場合には、その中で状況に応じて最適なものを推奨物品として推奨する。例えば、大きいハケと小さいハケとが登録されている場合に、特定の化粧品を使用するときには大きいハケを推奨し、他の化粧品を使用するときには小さいハケを推奨するといったパターンが想定される。 Also, the information creation unit 102 selects a recommended article from among the articles possessed by the user registered in the database 111, and includes information on the selected recommended article in the makeup support information 114. Thereby, the optimal article | item according to a condition can be proposed and a user's makeup can be supported more appropriately. In addition, a brush, a brush, a roller, a pad, a buller, etc. are assumed as a recommended article. In addition, when a plurality of articles of the same kind are registered, an optimum article is recommended as a recommended article depending on the situation. For example, when a large brush and a small brush are registered, a pattern is assumed in which a large brush is recommended when using a specific cosmetic and a small brush is recommended when using another cosmetic.
 また、情報作成部102は、状況に応じてデータベース111を検索することによって、ユーザについて、化粧後の予測画像情報を含めた化粧支援情報114を作成する。例えば、情報作成部102は、状況に応じて推奨する化粧品を、推奨する使用方法により化粧を実行した場合の表示ユーザ画像を予測に基づく画像処理によって作成し化粧支援情報114に含める。 Also, the information creation unit 102 creates makeup support information 114 including predicted image information after makeup for the user by searching the database 111 according to the situation. For example, the information creating unit 102 creates a display user image when cosmetics recommended according to the situation are executed by a recommended method of use by image processing based on prediction, and includes them in the makeup support information 114.
 これにより、ユーザは、化粧の完成後の状態を確認してから化粧を開始することができる。したがって、携帯端末装置3は、ユーザの予想外の結果とならないように適切に化粧を支援することができる。なお、予測画像情報に対して、ユーザによる修正が行われてから、修正後の状態となるように、情報作成部102がその後の化粧支援情報114を作成するように構成してもよい。 Thereby, the user can start the makeup after confirming the state after the makeup is completed. Therefore, the mobile terminal device 3 can appropriately support makeup so as not to have an unexpected result of the user. In addition, after the correction by the user is performed on the predicted image information, the information creation unit 102 may create the subsequent makeup support information 114 so that a state after the correction is obtained.
 また、情報作成部102は、ユーザについて化粧を施すべき位置に関する情報を含む化粧支援情報114を作成する。また、化粧を施すべき位置は、化粧品を塗るときの塗り開始位置や、化粧品を塗るときの塗り終了位置、あるいは、化粧品を塗るときの軌跡に関する情報などを含む。 Also, the information creation unit 102 creates makeup support information 114 that includes information regarding the position where makeup should be applied to the user. Further, the position where makeup is to be applied includes information about the application start position when applying cosmetics, the application end position when applying cosmetics, or the trajectory when applying cosmetics.
 図13および図14は、化粧を施すべき位置に関する情報を含む化粧支援情報114を例示する図である。図13は、表示ユーザ画像とともに、線状のガイド82,83を示している。また、図14は、表示ユーザ画像とともに、楕円状のガイド84,85,86を示している。 FIG. 13 and FIG. 14 are diagrams illustrating makeup support information 114 including information on a position where makeup should be applied. FIG. 13 shows linear guides 82 and 83 together with the displayed user image. FIG. 14 shows elliptical guides 84, 85, and 86 together with the display user image.
 このようなガイド82ないし86は、以下のような手法により決定することができる。例えば、頬骨や黒目、小鼻の位置により、チークの始点を決定する。一旦決定したチークの始点と、横からの顔画像とに基づいて、チークの終点や塗る領域の形を決定する。顔の形により、ハイライトの始点や長さを決定する。二重の幅やアイホールの大きさに基づいてアイシャドウの位置や塗る領域の広さや形を決定する。顔の形や顎、エラの位置、額の大きさによってシェーディングの位置、塗る領域の広さや形を決定する。 Such guides 82 to 86 can be determined by the following method. For example, the starting point of the cheek is determined based on the position of the cheekbones, black eyes, and nose. Based on the start point of the cheek and the face image from the side, the end point of the cheek and the shape of the region to be painted are determined. The start point and length of the highlight are determined by the shape of the face. The position of the eye shadow and the size and shape of the area to be painted are determined based on the double width and the size of the eye hole. The position of shading and the size and shape of the area to be painted are determined by the shape of the face, chin, position of the gill, and the size of the forehead.
 また、頬骨の位置や形状からチークを塗るときにどのようなカーブをつければよいかといった表示(例えば、湾曲した矢印による軌跡表示)も可能である。さらに、ガイド82ないし86をアニメーション表示することにより、推奨する塗布速度を表現することも可能である。例えば、塗布する方向に向けて、矢印を始点から最適な塗布速度に従って徐々に延ばすような表現方法が考えられる。このような表現方法を用いれば、ユーザに対して個々の化粧品の塗り動作を指南することも可能である。 Also, it is possible to display what kind of curve should be applied when applying a cheek based on the position and shape of the cheekbone (for example, a locus display by a curved arrow). Furthermore, the recommended application speed can be expressed by displaying the guides 82 to 86 in an animation. For example, an expression method is possible in which the arrow is gradually extended from the starting point according to the optimum application speed in the direction of application. If such an expression method is used, it is possible to guide the user to apply individual cosmetics.
 携帯端末装置3は、ガイド82ないし86を表示ユーザ画像とともに、化粧支援情報114に含めて、表示する。このように構成することにより、携帯端末装置3は、どの部位に、どのように化粧を施すべきかを具体的に示すことができる。 The portable terminal device 3 includes the guides 82 to 86 together with the display user image in the makeup support information 114 and displays them. By comprising in this way, the portable terminal device 3 can show specifically to which part how to apply makeup.
 また、情報作成部102は、データベース111を検索することにより、化粧品の塗るべき濃度に関する情報を含む化粧支援情報114を作成する。例えば、チークを塗るときに、表示ユーザ画像における当該チークを塗る部分の近傍に、推奨する濃度(色)のパッチ画像を化粧支援情報114として表示させる。 In addition, the information creation unit 102 creates makeup support information 114 including information on the concentration to be applied to the cosmetic by searching the database 111. For example, when applying a cheek, a patch image having a recommended density (color) is displayed as makeup support information 114 in the vicinity of the portion to be applied with the cheek in the displayed user image.
 これにより、例えば、ユーザは、チークを塗っている頬の色と、表示されているパッチ画像の色とを比較し、頬の色がパッチ画像の色と等しくなったと感じたときに完成したと判断することができる。なお、単に濃度といっても、グラデーションの変化度合いのように、濃度が徐々に変化するような場合も考えられる。グラデーションは、アイシャドウやチークなどを塗る場合に用いる技法であるが、例えば、塗る化粧品の種類、領域の広さや形状などに応じて決定することができる。 Thus, for example, when the user compares the color of the cheek that is being cheeked with the color of the displayed patch image and feels that the color of the cheek is equal to the color of the patch image, the user completes Judgment can be made. Note that even if the density is simply referred to, there may be a case where the density gradually changes as in the degree of gradation change. Gradation is a technique used when applying eye shadow, teak, or the like, and can be determined according to, for example, the type of cosmetic to be applied, the size or shape of the region, and the like.
 また、情報作成部102は、ユーザについて、化粧の終了に関する情報を含む化粧支援情報114を作成する。例えば、ユーザが化粧品を塗ることにより目標の色合いになったときに、当該化粧品の塗布の終了を通知する化粧支援情報114を作成する。これにより、例えば、ユーザは、過度に化粧しすぎることを回避することができる。 Also, the information creation unit 102 creates makeup support information 114 including information related to the end of makeup for the user. For example, the makeup support information 114 for notifying the end of the application of the cosmetic product is created when the target color is obtained by applying the cosmetic product. Thereby, for example, the user can avoid excessive makeup.
 また、情報作成部102は、ユーザの複数の部位に対する化粧の進捗を比較することにより、当該化粧の終了を判定する。例えば、情報作成部102は、左の頬と右の頬とを比較して、両方の色合いが均等になったときに、頬に対する化粧の終了を通知する化粧支援情報114を作成する。これにより、ユーザは、他の部位とのバランスのとれた化粧をすることができる。 In addition, the information creation unit 102 determines the end of the makeup by comparing the progress of the makeup for the plurality of parts of the user. For example, the information creation unit 102 compares the left cheek with the right cheek, and creates makeup support information 114 that notifies the end of makeup on the cheek when both colors become equal. Thereby, the user can make makeup balanced with other parts.
 以上が、化粧支援システム1の構成および機能の説明である。次に、化粧支援システム1を用いてユーザの化粧を支援する方法について説明する。なお、ユーザは、一般的なコンパクトを所持する要領で、携帯端末装置3を使って化粧を行うことができる。 The above is the description of the configuration and functions of the makeup support system 1. Next, a method for supporting a user's makeup using the makeup support system 1 will be described. In addition, the user can perform makeup using the portable terminal device 3 in the way of possessing a general compact.
 図15は、計測装置2の動作を示す流れ図である。なお、特に断らない限り、図15に示す各工程は、CPU20がプログラム210に従って動作することにより実行される。 FIG. 15 is a flowchart showing the operation of the measuring device 2. Unless otherwise specified, each step shown in FIG. 15 is executed by the CPU 20 operating according to the program 210.
 計測装置2に電源が投入されると、計測装置2は所定の初期設定を実行する。そして、ユーザが化粧を支援するためのアプリケーション(以下、「お化粧アプリ」と称する。)を起動すると、計測装置2は表示部23にメニューを表示する(ステップS1)。 When the measuring device 2 is turned on, the measuring device 2 executes a predetermined initial setting. When the user activates an application for assisting makeup (hereinafter referred to as “makeup application”), the measuring apparatus 2 displays a menu on the display unit 23 (step S1).
 図16は、計測装置2の表示部23に表示されるメニュー画像50を例示する図である。図16に示すように、メニュー画像50は、ボタン画像40,41,42,43を備えている。各ボタン画像40,41,42,43は、ユーザが当該画像に触れるか、または、操作部22を操作して選択するように構成されている。 FIG. 16 is a diagram illustrating a menu image 50 displayed on the display unit 23 of the measuring device 2. As shown in FIG. 16, the menu image 50 includes button images 40, 41, 42, and 43. Each button image 40, 41, 42, 43 is configured to be selected by the user touching the image or operating the operation unit 22.
 ボタン画像40は、ユーザ登録を行うときに選択される画像である。ユーザ登録とは、ユーザがオーナー情報を入力するときに必要となる処理である。ユーザ登録において、計測装置2は、所定のGUI画面(図示せず。)を表示する。ユーザが表示されたGUI画面に従って必要事項を入力すれば、ユーザ登録(オーナー情報の入力)は完了する。ただし、以下の説明では、ユーザ登録についての詳細な説明は省略する。 The button image 40 is an image selected when performing user registration. User registration is a process required when a user inputs owner information. In user registration, the measuring device 2 displays a predetermined GUI screen (not shown). If the user inputs necessary items according to the displayed GUI screen, user registration (input of owner information) is completed. However, in the following description, detailed description of user registration is omitted.
 ボタン画像41は、事前処理を行うときに選択される画像である。計測装置2における事前処理とは、主に三次元形状情報212を作成する処理であるが、詳細は後述する。 The button image 41 is an image selected when pre-processing is performed. The pre-processing in the measuring device 2 is processing for mainly creating the three-dimensional shape information 212, and details will be described later.
 ボタン画像42は、実際にユーザが化粧を開始するときに選択する画像である。化粧支援システム1では、携帯端末装置3を使用する場合のみならず、計測装置2を用いても化粧を行うことが可能である。 The button image 42 is an image selected when the user actually starts makeup. In the makeup support system 1, makeup can be performed not only when the mobile terminal device 3 is used but also when the measurement device 2 is used.
 計測装置2を用いて化粧を行う場合、例えば、撮像部35によって撮像情報112を取得する代わりに、撮像部26によってリアルタイムに計測用撮像情報211を取得し、撮像情報112の代わりに当該リアルタイムに取得した計測用撮像情報211を使用する。また、計測装置2を用いて化粧を行ったときには、化粧を完了したときの撮像画像として、計測用撮像情報211を取得する。ただし、計測装置2を用いて化粧を行う場合の処理は、携帯端末装置3を使用する場合とほぼ同様に実行可能であるため、以下の説明では詳細を省略する。 When performing makeup using the measurement device 2, for example, instead of acquiring the imaging information 112 by the imaging unit 35, the imaging information for measurement 211 is acquired in real time by the imaging unit 26, and in real time instead of the imaging information 112. The acquired measurement imaging information 211 is used. In addition, when makeup is performed using the measuring device 2, measurement imaging information 211 is acquired as a captured image when makeup is completed. However, the process in the case where makeup is performed using the measuring device 2 can be performed in substantially the same manner as in the case where the mobile terminal device 3 is used.
 ボタン画像43は、お化粧アプリを終了させるときに選択される画像である。 The button image 43 is an image selected when the makeup application is terminated.
 図15に戻って、ステップS1を実行して、メニュー画像50を表示すると、CPU20は、指示情報が入力されるまでステップS1を繰り返しつつ待機する(ステップS2)。 Returning to FIG. 15, when step S1 is executed and the menu image 50 is displayed, the CPU 20 waits while repeating step S1 until the instruction information is input (step S2).
 メニュー画像50におけるボタン画像40,41,42,43のうちのいずれかが操作されると、その操作に応じて指示情報が入力され、CPU20はステップS2においてYesと判定する。 When any one of the button images 40, 41, 42, and 43 in the menu image 50 is operated, instruction information is input according to the operation, and the CPU 20 determines Yes in step S2.
 メニュー画像50においてボタン画像41が操作され、入力された指示情報が「事前処理」となった場合、CPU20は、ステップS3においてYesと判定し、三次元形状情報作成処理を実行する(ステップS4)。 When the button image 41 is operated in the menu image 50 and the input instruction information becomes “pre-processing”, the CPU 20 determines Yes in step S3 and executes a three-dimensional shape information creation process (step S4). .
 図17は、計測装置2によって実行される三次元形状情報作成処理を示す流れ図である。なお、三次元形状情報作成処理では、ユーザの現実の状態が測定される。したがって、三次元形状情報作成処理を実行するとき、ユーザは、原則としてすべての化粧(特に色彩に影響のある装うための化粧)を落として、素の状態となることが好ましい。 FIG. 17 is a flowchart showing the three-dimensional shape information creation process executed by the measuring device 2. In the three-dimensional shape information creation process, the actual state of the user is measured. Therefore, when the three-dimensional shape information creation process is executed, it is preferable that the user removes all makeup (especially, makeup for affecting the color) in principle and puts it in a simple state.
 三次元形状情報作成処理を開始すると、CPU20(計測制御部200)は、計測部25の照明部27を所定の照明状態に制御する。これにより、照明部27は、被写体(ユーザ)に対する照明を開始する(ステップS11)。 When the three-dimensional shape information creation process is started, the CPU 20 (measurement control unit 200) controls the illumination unit 27 of the measurement unit 25 to a predetermined illumination state. Thereby, the illumination part 27 starts the illumination with respect to a to-be-photographed object (user) (step S11).
 照明が開始されると、計測制御部200は、計測用パターンの投射を開始するように投光部28を制御する。これにより、投光部28が計測用パターンの投射を開始する(ステップS12)。 When the illumination is started, the measurement control unit 200 controls the light projecting unit 28 so as to start projecting the measurement pattern. Thereby, the light projection part 28 starts the projection of the pattern for a measurement (step S12).
 ステップS11およびS12が実行され、照明および計測用パターンの投射が開始されると、計測装置2(CPU20)は、ユーザからの撮像開始指示があるまで待機する(ステップS13)。 When Steps S11 and S12 are executed and projection of illumination and a measurement pattern is started, the measurement device 2 (CPU 20) waits until an imaging start instruction is received from the user (Step S13).
 ステップS13が実行され、計測装置2(CPU20)が待機している間に、ユーザは、撮像の準備を行うことが好ましい。撮像の準備とは、必要な情報(表情の種別やズームする部位の名称など)の入力や、撮像する表情の実演、あるいは、基準物体80の撮像範囲への配置といった準備が想定される。 It is preferable that the user prepares for imaging while step S13 is executed and the measuring apparatus 2 (CPU 20) is on standby. The preparation for imaging is assumed to be preparation such as input of necessary information (type of facial expression, name of a part to be zoomed, etc.), demonstration of facial expression to be imaged, or arrangement of the reference object 80 in the imaging range.
 ユーザが操作部22を操作して、撮像開始指示を入力すると、計測制御部200は、撮像を開始するように、撮像部26を制御する。これに応じて、撮像部26が撮像を開始する(ステップS14)。これにより、以後、三次元形状情報作成処理が終了するまで、計測用撮像情報211が取得される。なお、このとき取得される計測用撮像情報211を表示部23に表示し、ユーザによる確認が可能な状態としてもよい。 When the user operates the operation unit 22 and inputs an imaging start instruction, the measurement control unit 200 controls the imaging unit 26 so as to start imaging. In response to this, the imaging unit 26 starts imaging (step S14). Thereby, the imaging information for measurement 211 is acquired thereafter until the three-dimensional shape information creation process is completed. Note that the measurement imaging information 211 acquired at this time may be displayed on the display unit 23 so that the user can confirm it.
 撮像が開始されると、CPU20は、計測用撮像情報211に基づいて、このときの光環境を基準となる光環境として取得する(ステップS15)。このとき、計測制御部200は、計測用撮像情報211に撮像されている基準物体80を表現した画像と、基準物体80に関する既知の情報とに基づいて、基準となる光環境(計測用撮像情報211が撮像されたときの光環境)を取得する。 When the imaging is started, the CPU 20 acquires the light environment at this time as a reference light environment based on the measurement imaging information 211 (step S15). At this time, the measurement control unit 200 uses a reference light environment (imaging information for measurement) based on an image representing the reference object 80 imaged in the measurement imaging information 211 and known information about the reference object 80. Light environment when 211 is imaged).
 一般に、自宅で計測装置2を操作している場合には、照明部27以外の室内照明も使用されていると考えられる。このような場合には、照明部27の照明状態(例えば制御値)のみを取得しても、計測用撮像情報211を取得したときの光環境を取得したことにはならない。したがって、計測装置2は、これら任意の照明の影響も考慮することができるように、基準物体80を用いて基準となる光環境を取得する。なお、基準となる光環境が取得された後も、撮像部26は、撮像を継続し、計測用撮像情報211を取得しつづける。 Generally, when operating the measuring device 2 at home, it is considered that indoor lighting other than the illumination unit 27 is also used. In such a case, even if only the illumination state (for example, control value) of the illumination unit 27 is acquired, the light environment when the measurement imaging information 211 is acquired is not acquired. Therefore, the measuring device 2 acquires the reference light environment using the reference object 80 so that the influence of these arbitrary illuminations can be taken into consideration. Note that, even after the reference light environment is acquired, the imaging unit 26 continues imaging and continues to acquire the measurement imaging information 211.
 ステップS15が終了すると、撮像部26は、ユーザの全周を周回しつつ撮像する(ステップS16)。 When step S15 ends, the imaging unit 26 captures an image while circling the entire circumference of the user (step S16).
 計測制御部200は、ステップS16が継続している間に取得される計測用撮像情報211からユーザ撮像画像を抽出して、各方向からの情報を結合する。計測制御部200は、結合されたユーザ撮像画像を解析し、全周にわたる画像が得られたと判断したときに、ステップS16を終了する。これにより、ユーザの全周にわたる撮像が完了し、ユーザの全周に相当するカラー画像(計測用撮像情報211)が取得される。計測制御部200は、このようにして取得したユーザの全周に相当する計測用撮像情報211を、1つの計測用撮像情報211として作成し、記憶装置21に格納する。 The measurement control unit 200 extracts the user captured image from the measurement imaging information 211 acquired while step S16 is continued, and combines information from each direction. When the measurement control unit 200 analyzes the combined user captured image and determines that an image over the entire circumference has been obtained, the measurement control unit 200 ends Step S16. Thereby, imaging of the entire circumference of the user is completed, and a color image (measurement imaging information 211) corresponding to the entire circumference of the user is acquired. The measurement control unit 200 creates the measurement imaging information 211 corresponding to the entire circumference of the user acquired in this way as one measurement imaging information 211 and stores it in the storage device 21.
 ステップS17が実行されると、モデル作成部201は、ステップS17において作成された計測用撮像情報211に基づいて、三次元形状情報212を作成する(ステップS18)。ステップS18において、モデル作成部201は、一旦作成した各方向からの三次元形状情報212を、互いに結合して、ユーザの全周に相当する完全な三次元形状情報212を作成する。 When step S17 is executed, the model creation unit 201 creates the three-dimensional shape information 212 based on the measurement imaging information 211 created in step S17 (step S18). In step S <b> 18, the model creation unit 201 combines the once created 3D shape information 212 from each direction to create complete 3D shape information 212 corresponding to the entire circumference of the user.
 なお、三次元形状情報212は、常に、全周にわたる計測用撮像情報211から作成されなければならないわけではない。例えば、ユーザの顔面部分のみ作成し、他の機会に作成された三次元形状情報212から、後頭部や側頭部の部分を抽出し、結合して完全な三次元形状情報212を作成してもよい。また、必ずしも全周のデータがなくとも、顔の化粧のみを行うのであれば、一方向から撮像された計測用撮像情報211から、顔面のみの三次元形状情報212を取得し、化粧時に利用してもよい。 Note that the three-dimensional shape information 212 does not always have to be created from the measurement imaging information 211 over the entire circumference. For example, only the face portion of the user is created, and the occipital and temporal portions are extracted from the 3D shape information 212 created at another opportunity and combined to create the complete 3D shape information 212. Good. In addition, even if there is not necessarily all-round data, if only face makeup is to be performed, the 3D shape information 212 of only the face is acquired from the measurement imaging information 211 imaged from one direction and used during makeup. May be.
 次に、通信部24は、作成された三次元形状情報212、および、必要な計測用撮像情報211を携帯端末装置3に向けて送信する(ステップS19)。 Next, the communication unit 24 transmits the generated three-dimensional shape information 212 and necessary measurement imaging information 211 to the mobile terminal device 3 (step S19).
 なお、このとき、ユーザの部位ごとに分離して情報(計測用撮像情報211や三次元形状情報212)を管理するようにしてもよい。例えば、髪の部分と顔の部分とを分離してもよい。このように分離して管理しておくことにより、後に、例えば、髪の部分に関する情報だけが必要になった場合の処理を軽減することができる。 At this time, information (measurement imaging information 211 and three-dimensional shape information 212) may be managed separately for each part of the user. For example, the hair portion and the face portion may be separated. By separating and managing in this way, for example, it is possible to reduce the processing when only information about the hair portion is needed later.
 ステップS19を実行すると、CPU20は、三次元形状作成処理を終了して、図15に示す処理に戻る。三次元形状情報作成処理を終了して図15に戻ると、計測装置2は、ステップS1から処理を繰り返す。したがって、計測装置2は、さらに新しい三次元形状情報212を作成することも可能である。これにより、計測装置2は、例えば、ユーザの表情を変えた三次元形状情報212を作成することもできる。 When step S19 is executed, the CPU 20 ends the three-dimensional shape creation process and returns to the process shown in FIG. When the three-dimensional shape information creation process is completed and the process returns to FIG. 15, the measuring device 2 repeats the process from step S1. Therefore, the measuring apparatus 2 can also create new three-dimensional shape information 212. Thereby, the measuring device 2 can also create the three-dimensional shape information 212 in which the user's facial expression is changed, for example.
 メニュー画像50においてボタン画像42が操作され、入力された指示情報が「化粧開始」となった場合、CPU20は、ステップS5においてYesと判定し、化粧準備処理(ステップS6)および化粧支援処理(ステップS7)を実行する。ただし、先述のように、計測装置2を用いた化粧については、携帯端末装置3を用いた化粧と同様に処理可能であるため、ここでは説明を省略する。 When the button image 42 is operated in the menu image 50 and the input instruction information is “makeup start”, the CPU 20 determines Yes in step S5, makeup preparation processing (step S6), and makeup support processing (step S7) is executed. However, as described above, the makeup using the measuring device 2 can be processed in the same manner as the makeup using the mobile terminal device 3, and thus the description thereof is omitted here.
 メニュー画像50においてボタン画像43が操作され、入力された指示情報が「終了」となった場合、CPU20は、ステップS8においてYesと判定し、お化粧アプリを終了する。 When the button image 43 is operated in the menu image 50 and the input instruction information becomes “end”, the CPU 20 determines Yes in step S8 and ends the makeup application.
 以上が、主に、計測装置2によって実現される処理の説明である。次に、携帯端末装置3によって実現される処理を説明する。 The above is mainly the description of the processing realized by the measuring device 2. Next, processing realized by the mobile terminal device 3 will be described.
 図18は、携帯端末装置3の動作を示す流れ図である。なお、特に断らない限り、図18に示す各工程は、CPU10がプログラム110に従って動作することにより実行される。 FIG. 18 is a flowchart showing the operation of the mobile terminal device 3. Unless otherwise specified, each step shown in FIG. 18 is executed by the CPU 10 operating according to the program 110.
 また、図18に示す各工程が実行されるまでに、計測装置2から携帯端末装置3に向けて、三次元形状情報212および計測用撮像情報211が送信され、携帯端末装置3においてデータベース111に格納されているものとする。 Further, until each process shown in FIG. 18 is executed, the three-dimensional shape information 212 and the measurement imaging information 211 are transmitted from the measuring device 2 to the mobile terminal device 3, and the mobile terminal device 3 stores the information in the database 111. Assume that it is stored.
 本来、三次元形状情報212は、当該三次元形状情報212が作成されたときに、計測装置2から携帯端末装置3に向けて送信される。しかし、何らかの事情で、三次元形状情報212の送信が行われなかったり、携帯端末装置3において三次元形状情報212の受信や保存に失敗している場合も想定される。 Originally, the three-dimensional shape information 212 is transmitted from the measuring device 2 to the mobile terminal device 3 when the three-dimensional shape information 212 is created. However, it may be assumed that the 3D shape information 212 is not transmitted for some reason, or that the mobile terminal device 3 has failed to receive or store the 3D shape information 212.
 一方で、化粧支援システム1では、携帯端末装置3に三次元形状情報212に相当する情報を作成する機能がない。すなわち、三次元形状情報212が携帯端末装置3に存在しない場合、ユーザは当該携帯端末装置3を用いて化粧を行うことができない。したがって、携帯端末装置3はお化粧アプリが起動されたときなどに、三次元形状情報212の存否を確認し、三次元形状情報212が存在しない場合には、携帯端末装置3から計測装置2に向けて計測用撮像情報211および三次元形状情報212をダウンロードするための要求を行ってもよい。 On the other hand, the makeup support system 1 does not have a function of creating information corresponding to the three-dimensional shape information 212 in the mobile terminal device 3. That is, when the three-dimensional shape information 212 does not exist in the mobile terminal device 3, the user cannot perform makeup using the mobile terminal device 3. Therefore, the mobile terminal device 3 confirms the presence / absence of the 3D shape information 212 when the makeup application is activated. If the 3D shape information 212 does not exist, the mobile terminal device 3 moves from the mobile terminal device 3 to the measuring device 2. Then, a request for downloading the measurement imaging information 211 and the three-dimensional shape information 212 may be made.
 携帯端末装置3に電源が投入されると、携帯端末装置3は所定の初期設定を実行する。そして、お化粧アプリがユーザによって起動されると、携帯端末装置3は表示部33にメニューを表示する(ステップS21)。 When the mobile terminal device 3 is powered on, the mobile terminal device 3 executes predetermined initial settings. And if a makeup application is started by the user, the portable terminal device 3 will display a menu on the display part 33 (step S21).
 図19は、携帯端末装置3の表示部33に表示されるメニュー画像51を例示する図である。図19に示すように、メニュー画像51には、ボタン画像44,45,46,47が設けられている。各ボタン画像44,45,46,47は、ユーザが当該画像に触れるか、または、操作部32を操作して選択するように構成されている。 FIG. 19 is a diagram illustrating a menu image 51 displayed on the display unit 33 of the mobile terminal device 3. As shown in FIG. 19, the menu image 51 is provided with button images 44, 45, 46, and 47. Each button image 44, 45, 46, 47 is configured to be selected by the user touching the image or operating the operation unit 32.
 ボタン画像44は、ユーザ登録を行うときに選択される画像である。ユーザ登録とは、ユーザがオーナー情報を入力するときに必要となる処理である。化粧支援システム1では、携帯端末装置3を用いてユーザ登録することも可能である。ユーザ登録において、携帯端末装置3は、所定のGUI画面(図示せず。)を表示する。ユーザが、表示されたGUI画面に従って必要事項を入力することにより、ユーザ登録(オーナー情報の入力)を完了する。ただし、以下の説明では、計測装置2の場合と同様に、ユーザ登録についての詳細な説明は省略する。 The button image 44 is an image selected when performing user registration. User registration is a process required when a user inputs owner information. In the makeup support system 1, user registration using the mobile terminal device 3 is also possible. In user registration, the mobile terminal device 3 displays a predetermined GUI screen (not shown). The user completes user registration (input of owner information) by inputting necessary items according to the displayed GUI screen. However, in the following description, as in the case of the measuring device 2, a detailed description of user registration is omitted.
 ボタン画像45は、事前処理を行うときに選択される画像である。携帯端末装置3における事前処理とは、主に、ユーザが任意の場所に赴き、当該場所の光環境を収集して光環境情報113を新たに作成するための処理である。 The button image 45 is an image selected when pre-processing is performed. The pre-processing in the mobile terminal device 3 is mainly processing for the user to go to an arbitrary place, collect the light environment at the place, and newly create the light environment information 113.
 ボタン画像46は、実際にユーザが化粧を開始するときに選択する画像である。 The button image 46 is an image that is selected when the user actually starts makeup.
 ボタン画像47は、携帯端末装置3において、お化粧アプリを終了させるときに選択される画像である。 The button image 47 is an image selected when the makeup application is terminated in the mobile terminal device 3.
 図18に戻って、ステップS21を実行して、メニュー画像51を表示すると、CPU10は、指示情報が入力されるまでステップS21を繰り返しつつ待機する(ステップS22)。 18, when step S21 is executed and the menu image 51 is displayed, the CPU 10 waits while repeating step S21 until the instruction information is input (step S22).
 メニュー画像51におけるボタン画像44,45,46,47のうちのいずれかが操作されると、その操作に応じて指示情報が入力され、CPU10はステップS22においてYesと判定する。 When any one of the button images 44, 45, 46, and 47 in the menu image 51 is operated, instruction information is input according to the operation, and the CPU 10 determines Yes in step S22.
 メニュー画像51においてボタン画像45が操作され、入力された指示情報が「事前処理」となった場合、CPU10は、ステップS23においてYesと判定し、撮像部35に撮像を開始するように指示を与える。これにより、撮像部35が撮像を行い、撮像情報112が取得される(ステップS24)。 When the button image 45 is operated in the menu image 51 and the input instruction information becomes “pre-processing”, the CPU 10 determines Yes in step S23 and gives an instruction to the imaging unit 35 to start imaging. . Thereby, the imaging part 35 images and the imaging information 112 is acquired (step S24).
 さらに、データ取得部100が、ステップS24において取得された撮像情報112に撮像されている基準物体80の画像と、当該基準物体80の既知の情報とに基づいて、当該撮像情報112が撮像されたときの光環境を求め、光環境情報113に格納する(ステップS25)。 Further, the data acquisition unit 100 captures the imaging information 112 based on the image of the reference object 80 captured in the imaging information 112 acquired in step S24 and the known information of the reference object 80. The light environment is obtained and stored in the light environment information 113 (step S25).
 このように、ステップS24,S25が実行されることにより、化粧支援システム1では、任意の場所における光環境を容易に光環境情報113として記録することができる。したがって、ユーザが頻繁に訪れる場所について、光環境情報113を作成しておけば、以後、化粧支援システム1は、ユーザが当該場所に赴く以前に、当該場所の光環境を考慮した化粧支援情報114を作成することが可能となる。 Thus, by performing steps S24 and S25, the makeup support system 1 can easily record the light environment at an arbitrary place as the light environment information 113. Therefore, if the light environment information 113 is created for a place where the user frequently visits, then the makeup support system 1 will make up the makeup support information 114 considering the light environment of the place before the user goes to the place. Can be created.
 メニュー画像51においてボタン画像46が操作され、入力された指示情報が「化粧開始」となった場合、CPU10は、ステップS26においてYesと判定し、化粧準備処理を実行する(ステップS27)。 When the button image 46 is operated in the menu image 51 and the input instruction information becomes “makeup start”, the CPU 10 determines Yes in step S26 and executes makeup preparation processing (step S27).
 図20は、携帯端末装置3によって実行される化粧準備処理を示す流れ図である。なお、図20に示す化粧準備処理が開始されるまでに、すでに三次元形状情報212がデータベース111に格納されているものとする。ただし、未だ三次元形状情報212が準備されていない状態で「化粧開始」が指示された場合には、「先に事前処理を行ってください」といったエラーメッセージを表示するようにしてもよい。 FIG. 20 is a flowchart showing a makeup preparation process executed by the mobile terminal device 3. It is assumed that the three-dimensional shape information 212 has already been stored in the database 111 before the makeup preparation process shown in FIG. However, if “start makeup” is instructed in a state where the three-dimensional shape information 212 is not yet prepared, an error message such as “please pre-process first” may be displayed.
 化粧準備処理が開始されると、CPU10は、撮像情報112を取得するように撮像部35を制御する。これにより、撮像部35が撮像を開始し(ステップS30)、撮像情報112の取得が開始される。 When the makeup preparation process is started, the CPU 10 controls the imaging unit 35 so as to acquire the imaging information 112. Thereby, the imaging part 35 starts imaging (step S30), and acquisition of the imaging information 112 is started.
 撮像情報112の取得が開始されると、データ取得部100は、撮像情報112に基づいて、現在(化粧時)の光環境を推定し(ステップS31)、データベース111の光環境情報113に格納する。なお、ステップS31を実行するとき、携帯端末装置3は、表示部33に、基準物体80を撮像範囲内に配置するように促すメッセージを表示させるとよい。 When the acquisition of the imaging information 112 is started, the data acquisition unit 100 estimates the current (makeup) light environment based on the imaging information 112 (step S31) and stores it in the light environment information 113 of the database 111. . When executing Step S31, the mobile terminal device 3 may display a message prompting the display unit 33 to place the reference object 80 in the imaging range.
 化粧時の光環境が取得されると、推定部101は、データベース111を参照して、化粧が完了したときの計測用撮像情報211が格納されているか否かに応じて、すでにユーザが化粧済みであるか否かを判定する(ステップS32)。 When the lighting environment at the time of makeup is acquired, the estimation unit 101 refers to the database 111, and the user has already applied the makeup according to whether the measurement imaging information 211 when the makeup is completed is stored. It is determined whether or not (step S32).
 未だ化粧がされていない場合(ステップS32においてNo。)、推定部101は、ステップS31において取得された現在(化粧時)の光環境(光環境情報113)と、リアルタイムに取得されている撮像情報112とに基づいて、現在(化粧時)におけるユーザの顔色を推定する(ステップS33)。未だ化粧が施されていないユーザの顔は、素顔であり、そのときの顔面の色は、ユーザの現実の顔色とみなせる。なお、化粧の対象がユーザの顔でない場合には、ステップS33をスキップしてもよい。 When makeup is not yet applied (No in step S32), the estimation unit 101 acquires the current light environment (light environment information 113) acquired in step S31 and the imaging information acquired in real time. 112, the face color of the user at the present (during makeup) is estimated (step S33). The user's face that has not yet undergone makeup is a real face, and the face color at that time can be regarded as the user's actual face color. Note that if the makeup target is not the user's face, step S33 may be skipped.
 一方、すでに化粧済みの場合(ステップS32においてYes。)、推定部101は、化粧が完了したときの計測用撮像情報211(過去撮像画像)と、撮像情報112とに基づいて、すでに施された化粧の現在における劣化度と、化粧なおしの推奨時間とを推定する(ステップS34)。なお、すでに化粧がされた後のユーザの顔面の色は、当該化粧の影響を受けており、もはや顔色とはいえない。したがって、ステップS34を実行するときにおいて、推定部101は、ステップS33をスキップする。 On the other hand, if makeup has already been made (Yes in step S32), the estimation unit 101 has already been applied based on the measurement imaging information 211 (past captured image) when the makeup is completed and the imaging information 112. The present degree of deterioration of makeup and the recommended time for makeup correction are estimated (step S34). Note that the color of the user's face after the makeup has already been applied is affected by the makeup and is no longer a facial color. Therefore, when executing step S34, the estimating unit 101 skips step S33.
 次に、推定部101は、目線ズレ角を推定し、当該目線ズレ角を抑制するための補正距離(図9の補正距離73参照。)を推定する(ステップS35)。 Next, the estimation unit 101 estimates a line-of-sight shift angle, and estimates a correction distance (see correction distance 73 in FIG. 9) for suppressing the line-of-sight shift angle (step S35).
 ステップS33ないしS35が順次実行されて、実際の化粧を開始する前における各種の状態が推定されると、推定部101は、これらの工程において推定した結果を推定情報として、情報作成部102に伝達する。 When steps S33 to S35 are sequentially executed and various states before actual makeup is started are estimated, the estimation unit 101 transmits the results estimated in these steps to the information creation unit 102 as estimation information. To do.
 次に、CPU10は、化粧を行うときの条件を入力する画面を表示部33に表示させる(ステップS36)。ステップS36において、表示部33は、所定のGUIを表示し、ユーザは当該GUIに従って、これから開始する化粧の条件を入力する。なお、ステップS36においてユーザが入力する条件とは、化粧の披露場所や目的、化粧を施す部位を示す情報などである。 Next, the CPU 10 causes the display unit 33 to display a screen for inputting conditions for performing makeup (step S36). In step S36, the display unit 33 displays a predetermined GUI, and the user inputs a makeup condition to be started in accordance with the GUI. Note that the conditions input by the user in step S36 include information indicating the place and purpose of makeup, the part to which makeup is applied, and the like.
 ユーザによる入力が完了すると、CPU10はステップS36を終了し、入力された情報(条件)を指示情報として保持する。さらに、CPU10は、予測画像情報表示処理を実行する(ステップS37)。 When the input by the user is completed, the CPU 10 ends the step S36 and holds the input information (condition) as instruction information. Furthermore, the CPU 10 executes a predicted image information display process (step S37).
 図21は、携帯端末装置3によって実行される予測画像情報表示処理を示す流れ図である。 FIG. 21 is a flowchart showing a predicted image information display process executed by the mobile terminal device 3.
 予測画像情報表示処理が開始されると、CPU10(情報作成部102)は、まず、推定部101によって推定された補正距離を示す化粧支援情報114を作成する。具体的には、推定部101によって推定された補正距離に基づいて、ユーザに目線を変更するように促すメッセージを含む化粧支援情報114を作成する。このようなメッセージとしては、例えば、「カメラの10cmほど上方を見つめてください」といった文字列が想定される。そして、当該化粧支援情報114は、表示部33に表示される(ステップS41)。 When the predicted image information display process is started, the CPU 10 (information creation unit 102) first creates makeup support information 114 indicating the correction distance estimated by the estimation unit 101. Specifically, makeup support information 114 including a message prompting the user to change his / her line of sight is created based on the correction distance estimated by the estimation unit 101. As such a message, for example, a character string such as “please look upward about 10 cm from the camera” is assumed. Then, the makeup support information 114 is displayed on the display unit 33 (step S41).
 ステップS41において表示されたメッセージに従って、ユーザが目線を変更すると、すでにステップS30によって撮像部35による撮像は開始されているので、目線を変更した状態(正面を向いた状態)のユーザの顔面が撮像部35によって撮像され、目線合わせのために使用される撮像情報112が取得される。これにより、以後の撮像情報112は、一旦、撮像された正面を向いた状態を撮像した撮像情報112による補正が開始される(ステップS42)。このような補正として、情報作成部102は、例えば、撮像情報112のうち、ユーザの目の周辺(あるいは瞼のみ)部分については、正面を向いた状態を撮像した撮像情報112に撮像されている部分画像に置換する。 When the user changes the line of sight according to the message displayed in step S41, since the imaging by the imaging unit 35 has already been started in step S30, the user's face in the state where the line of sight has been changed (the state facing the front) is imaged. Imaging information 112 that is captured by the unit 35 and used for eye alignment is acquired. As a result, the subsequent imaging information 112 is started to be corrected by the imaging information 112 obtained by imaging the state in which the imaged front is turned (step S42). As such a correction, for example, in the imaging information 112, the information creation unit 102 captures the area around the user's eyes (or only the eyelid) in the imaging information 112 obtained by imaging the state facing the front. Replace with a partial image.
 ステップS41において表示されるメッセージによってユーザは、一旦、正面を向いた状態となるが、この状態を維持するわけではない。すなわち、ユーザは、その後、再び表示部33に目線を落とす状態となる。しかし、そのような状態で撮像される撮像情報112は、ステップS42において開始された補正により、情報作成部102により正面を向いた状態に補正される。 The user temporarily turns to the front by the message displayed in step S41, but this state is not maintained. That is, after that, the user drops his eyes on the display unit 33 again. However, the imaging information 112 imaged in such a state is corrected by the information creation unit 102 to face the front by the correction started in step S42.
 次に、情報作成部102は、撮像情報112に対する光環境の補正を開始する(ステップS43)。このときの光環境とは、ステップS36またはS39において、ユーザにより指定された光環境であり、例えば、所望する披露場所に関する光環境(光環境情報113から指定される。)や、基準となる光環境(計測用撮像情報211に関連づけられている。)である。ステップS43が実行されることにより、以後の撮像情報112は、ユーザの所望する光環境において撮像されたかのような画像となる。 Next, the information creation unit 102 starts correcting the light environment for the imaging information 112 (step S43). The light environment at this time is the light environment designated by the user in step S36 or S39. For example, the light environment related to the desired display location (designated from the light environment information 113) or the light serving as a reference. Environment (associated with measurement imaging information 211). By executing step S43, the subsequent imaging information 112 becomes an image as if it was captured in the light environment desired by the user.
 次に、情報作成部102は、複数の三次元形状情報212から1の三次元形状情報212を選択する(ステップS44)。ステップS44における選択は、すでに説明したように、ユーザからの指示(ステップS36またはS39において入力される。)、または、撮像情報112に撮像されているユーザの表情などに基づいて実行される。 Next, the information creation unit 102 selects one 3D shape information 212 from the plurality of 3D shape information 212 (step S44). As described above, the selection in step S44 is executed based on an instruction from the user (input in step S36 or S39) or the facial expression of the user imaged in the imaging information 112.
 三次元形状情報212が選択されると、推定部101は、ステップS44において選択された三次元形状情報44と撮像情報112とに基づいて、撮像情報112における撮像ズレ角を推定し(ステップS45)、推定情報として情報作成部102に伝達する。 When the three-dimensional shape information 212 is selected, the estimation unit 101 estimates the imaging deviation angle in the imaging information 112 based on the three-dimensional shape information 44 and the imaging information 112 selected in step S44 (step S45). And transmitted to the information creating unit 102 as estimated information.
 推定部101から撮像ズレ角が伝達されると、情報作成部102は、撮像情報112からユーザ撮像画像を抽出し、伝達された撮像ズレ角に応じて決定される方位における三次元形状の見え方に、当該ユーザ撮像画像をマッピングし、ユーザの所望する方位に変更した表示ユーザ画像を作成する。 When the imaging deviation angle is transmitted from the estimation unit 101, the information creation unit 102 extracts the user-captured image from the imaging information 112, and how the three-dimensional shape appears in the direction determined according to the transmitted imaging deviation angle. Then, the user captured image is mapped, and a display user image that is changed to the orientation desired by the user is created.
 なお、すでに説明したように、撮像の方位を合わせるだけでは、特徴点の位置誤差が大きい場合、情報作成部102は、さらに合わせ込みを行って表示ユーザ画像を作成する。この場合の合わせ込みについても既に説明したように、三次元形状情報212の位置に合わせてもよいし、撮像情報112(ユーザ撮像画像)の位置に合わせてもよい。 As already described, if the position error of the feature point is large simply by aligning the imaging directions, the information creating unit 102 further performs matching to create a display user image. As described above, the alignment in this case may be matched with the position of the three-dimensional shape information 212 or may be matched with the position of the imaging information 112 (user captured image).
 さらに、情報作成部102は、作成した当該表示ユーザ画像と、推定部101によってすでに推定されている化粧の劣化度および化粧なおしの予定時間を含む化粧支援情報114を作成する(ステップS46)。 Furthermore, the information creation unit 102 creates the makeup support information 114 including the display user image that has been created, the makeup deterioration level already estimated by the estimation unit 101, and the scheduled time for remake (step S46).
 ステップS46が実行されるとき、すでにステップS42,S43が実行されている。したがって、ステップS45において作成される表示ユーザ画像は、目線が正面を向いており、かつ、ユーザの所望する光環境に補正されている。 When step S46 is executed, steps S42 and S43 are already executed. Therefore, the display user image created in step S45 is corrected to the light environment desired by the user with the line of sight facing the front.
 次に、CPU10は、ステップS46において作成された化粧支援情報114を表示部33に表示させる。このとき表示される化粧支援情報114は、例えば、図10に示す化粧支援情報114となる。すなわち、目線が正面を向いており、かつ、ユーザの所望する光環境に補正された撮像情報112(表示ユーザ画像)と、化粧の劣化度(数値)と、化粧なおしの予定時間とが表示される(ステップS47)。 Next, the CPU 10 causes the display unit 33 to display the makeup support information 114 created in step S46. The makeup support information 114 displayed at this time is, for example, makeup support information 114 shown in FIG. That is, the imaging information 112 (display user image) corrected to the light environment desired by the user, the makeup deterioration degree (numerical value), and the scheduled retouch time are displayed. (Step S47).
 ステップS47を実行すると、CPU10は、ユーザが引き続き化粧を継続するか終了するかを指示するまで待機する状態となる(ステップS48)。 When step S47 is executed, the CPU 10 waits until the user instructs whether to continue or end makeup (step S48).
 ステップS47において表示される化粧支援情報114を閲覧することにより、ユーザは、直ちに化粧なおしが必要か否かを判断することができる。すなわち、化粧の劣化度が激しく、すでに化粧なおしの予定時間が到来している場合、ユーザは化粧の継続を所望する。一方、未だ化粧の劣化度が低く、化粧なおしの予定時間まで時間がある場合には、一旦、化粧の終了を所望する。ユーザは、ステップS47において化粧支援情報114が表示されると、化粧を継続するか否かを示す指示情報を操作部32を操作することにより入力する。 By browsing the makeup support information 114 displayed in step S47, the user can immediately determine whether or not makeup correction is necessary. That is, when the degree of deterioration of makeup is severe and the scheduled time for makeup renewal has already arrived, the user desires to continue makeup. On the other hand, if the degree of deterioration of makeup is still low and there is time until the scheduled time for remake, makeup is once desired to end. When makeup support information 114 is displayed in step S47, the user inputs instruction information indicating whether or not to continue makeup by operating operation unit 32.
 化粧を終了する指示が入力された場合(ステップS48においてYes。)、CPU10は、予測画像表示処理を終了し、図20に示す処理に戻ることなく、図18に示すステップS21の処理に戻る。すなわち、この場合、携帯端末装置3は、予測画像情報を表示することなく、かつ、後述する化粧支援処理(ステップS28)をスキップする。 If an instruction to end makeup is input (Yes in step S48), the CPU 10 ends the predicted image display process and returns to the process of step S21 shown in FIG. 18 without returning to the process shown in FIG. That is, in this case, the mobile terminal device 3 skips the makeup support process (step S28), which will be described later, without displaying the predicted image information.
 化粧を継続する指示が入力された場合(ステップS48においてNo。)、情報作成部102は、ステップS36またはS39において受け付けた指示情報(条件)に応じて、化粧が完了した後のユーザの部位を表現した予測画像情報(表示ユーザ画像)を化粧支援情報114として作成する。そして、表示部33が、当該予測画像情報を含む化粧支援情報114を表示する(ステップS49)。 When an instruction to continue makeup is input (No in step S48), the information creation unit 102 determines the user's part after makeup is completed according to the instruction information (condition) received in step S36 or S39. Expressed predicted image information (display user image) is created as makeup support information 114. And the display part 33 displays the makeup | decoration assistance information 114 containing the said prediction image information (step S49).
 これにより、ユーザは、化粧を開始する前に、ステップS36またはS39で入力した条件による化粧の完成後の状態を確認することができる。したがって、ユーザは、思いもよらない化粧状態に、誤って誘導されることを回避することができる。 Thereby, the user can confirm the state after completion of the makeup according to the conditions input in step S36 or S39 before starting the makeup. Therefore, the user can avoid being erroneously guided to an unexpected makeup state.
 ステップS49を実行すると、CPU10は、予測画像情報表示処理を終了し、図20に示す処理に戻る。 When step S49 is executed, the CPU 10 ends the predicted image information display process and returns to the process shown in FIG.
 予測画像情報表示処理を終了して図20に示す処理に戻ると、CPU10は、ユーザが予測画像情報によって示される完成後の状態に了解したか否かを判定する(ステップS38)。ステップS38における判定は、ユーザが操作部32を操作して入力する指示情報に応じて実行することができる。 When the predicted image information display process ends and the process returns to the process shown in FIG. 20, the CPU 10 determines whether or not the user has accepted the completed state indicated by the predicted image information (step S38). The determination in step S38 can be executed according to instruction information input by the user operating the operation unit 32.
 ユーザが了解しない場合(ステップS38においてNo。)、携帯端末装置3は、修正指示を受け付け(ステップS39)てから、ステップS37の処理に戻る。ステップS37では、ステップS39において受け付けた修正指示を反映させた予測画像情報が新たに作成され、当該予測画像情報が含まれる化粧支援情報114が表示される。 If the user does not agree (No in step S38), the mobile terminal device 3 receives the correction instruction (step S39), and then returns to the process of step S37. In step S37, predicted image information reflecting the correction instruction received in step S39 is newly created, and makeup support information 114 including the predicted image information is displayed.
 一方、ユーザが了解した場合(ステップS38においてYes。)、CPU10は、化粧準備処理(ステップS27)を終了して、図18に示す処理に戻る。 On the other hand, when the user approves (Yes in step S38), the CPU 10 ends the makeup preparation process (step S27) and returns to the process shown in FIG.
 化粧準備処理を終了して図18に示す処理に戻ると、携帯端末装置3は、化粧支援処理を実行する(ステップS28)。 When finishing the makeup preparation process and returning to the process shown in FIG. 18, the mobile terminal device 3 executes a makeup support process (step S28).
 図22は、携帯端末装置3によって実行される化粧支援処理を示す流れ図である。なお、化粧支援処理(ステップS28)が開始されるまでに、必ず化粧準備処理(ステップS27)が実行される。したがって、ステップS28における化粧支援処理が開始された時点では、撮像部35による撮像がすでに開始されており、撮像情報112に対する補正は実行されている。また、三次元形状情報212の選択や、撮像情報112をマッピングするときの方位なども、すでに決定されている。 FIG. 22 is a flowchart showing a makeup support process executed by the mobile terminal device 3. The makeup preparation process (step S27) is always executed before the makeup support process (step S28) is started. Therefore, at the time when the makeup support process in step S28 is started, imaging by the imaging unit 35 has already been started, and correction for the imaging information 112 has been executed. In addition, the selection of the three-dimensional shape information 212, the orientation when mapping the imaging information 112, and the like have already been determined.
 化粧支援処理が開始されると、情報作成部102は、選択されている三次元形状情報212に基づいて、化粧時に撮像された撮像情報112(すでに補正がされている。)をテクスチャマッピングすることにより、表示ユーザ画像を作成する処理を開始する(ステップS51)。 When the makeup support process is started, the information creation unit 102 texture-maps the imaging information 112 (already corrected) captured at the time of makeup based on the selected three-dimensional shape information 212. Thus, a process of creating a display user image is started (step S51).
 すなわち、ステップS51が実行された後は、撮像部35がリアルタイムに撮像し続ける撮像情報112により、表示ユーザ画像が動画像のように作成され続けることになる。したがって、順次作成される表示ユーザ画像には、化粧の進捗状況が反映されることになる。 That is, after step S51 is executed, the display user image continues to be created like a moving image by the imaging information 112 that the imaging unit 35 continues to capture in real time. Accordingly, the progress of makeup is reflected in the display user images that are sequentially created.
 次に、情報作成部102は、作成された表示ユーザ画像と、データベース111から取得した様々な情報(アドバイスとなる情報)とを含む化粧支援情報114を作成する(ステップS52)。このとき化粧支援情報114に含められるアドバイスとは、例えば、塗布速度の適正に関するアドバイスや、塗布位置を示すガイド(例えば、ガイド81など)、適切な化粧品や道具の名称などである。 Next, the information creation unit 102 creates makeup support information 114 including the created display user image and various information (information serving as advice) acquired from the database 111 (step S52). The advice included in the makeup support information 114 at this time is, for example, advice on the appropriateness of the application speed, a guide indicating the application position (for example, the guide 81), the name of an appropriate cosmetic or tool, and the like.
 化粧支援情報114が作成されると、表示部33は、作成された化粧支援情報114を表示する(ステップS53)。これにより、ユーザに対して化粧支援情報114が提供される。したがって、ユーザは、化粧中において、化粧支援情報114を参照することにより、適切な化粧を実行することができる。 When the makeup support information 114 is created, the display unit 33 displays the created makeup support information 114 (step S53). Thereby, makeup support information 114 is provided to the user. Therefore, the user can execute appropriate makeup by referring to the makeup support information 114 during makeup.
 ステップS53を実行すると、CPU10は、現在化粧の対象となっている部位に対する化粧を終了するか否かを判定する(ステップS54)。 When step S53 is executed, the CPU 10 determines whether or not to finish the makeup for the part currently being makeup (step S54).
 化粧中の部位に関する化粧の終了は、ユーザが操作部32を操作することによって指示情報として入力されるものとする。すなわち、ユーザが化粧の状態に満足し、化粧の終了を入力した場合にステップS54においてYesと判定され、当該入力がない限り、ステップS54においてNoと判定されてステップS52からの処理が繰り返される。 It is assumed that the end of the makeup relating to the part under makeup is input as instruction information when the user operates the operation unit 32. That is, when the user is satisfied with the makeup state and inputs the end of makeup, it is determined Yes in step S54, and unless there is an input, it is determined No in step S54 and the processing from step S52 is repeated.
 なお、図22の説明において省略したが、ステップS32ないしS36が実行されている間、推定部101は、ユーザによる塗布速度などに関する推定を継続している。そして、情報作成部102は、ステップS52において推定部101から伝達される推定情報に応じた化粧支援情報114を作成する。 Although omitted in the description of FIG. 22, the estimation unit 101 continues to estimate the application speed and the like by the user while steps S32 to S36 are being executed. And the information preparation part 102 produces the makeup | decoration assistance information 114 according to the estimated information transmitted from the estimation part 101 in step S52.
 また、終了の指示自体はユーザから入力されるが、化粧の完了を知らせる化粧支援情報114は、すでに説明したように、情報作成部102によって作成され、表示部33に表示される。 Further, although the end instruction itself is input from the user, the makeup support information 114 informing completion of makeup is created by the information creation unit 102 and displayed on the display unit 33 as described above.
 ステップS54においてYesと判定すると、CPU10は、他の部位について引き続き化粧を行うか否かを指示するようにユーザに促すとともに、当該指示があるまで待機する。そして、ユーザからの指示が入力されると、当該指示が他の部位について引き続き化粧を行う旨の指示か否かを判定する(ステップS55)。 If it is determined Yes in step S54, the CPU 10 prompts the user to instruct whether or not to continue makeup for other parts, and waits until the instruction is received. When an instruction from the user is input, it is determined whether or not the instruction is an instruction to continue makeup for other parts (step S55).
 ユーザが他の部位についての化粧を行う旨を入力した場合、CPU10は、ステップS55においてYesと判定し、ステップS36(図20)からの処理を繰り返す。すなわち、携帯端末装置3は、新たに化粧を開始する部位に関する条件入力を受け付ける状態となる。 When the user inputs that makeup is performed for another part, the CPU 10 determines Yes in step S55 and repeats the process from step S36 (FIG. 20). That is, the mobile terminal device 3 is in a state of accepting a condition input regarding a part where makeup is newly started.
 一方、ユーザが他の部位についての化粧を行わない旨を入力した場合には、ステップS55においてNoと判定し、撮像部35による撮像や、推定部101による推定、および、表示ユーザ画像の作成等をそれぞれ終了してから、化粧支援処理を終了し、図18に示す処理に戻る。ステップS28の化粧支援処理を終了して図18に示す処理に戻った場合、携帯端末装置3は、ステップS21に戻って処理を繰り返す。 On the other hand, when the user inputs that makeup is not performed on other parts, it is determined No in step S55, and the imaging by the imaging unit 35, the estimation by the estimation unit 101, the creation of the display user image, etc. Then, the makeup support process is terminated, and the process returns to the process shown in FIG. When the makeup support process in step S28 ends and the process returns to the process shown in FIG. 18, the mobile terminal device 3 returns to step S21 and repeats the process.
 メニュー画像51においてボタン画像47が操作され、入力された指示情報が「終了」となった場合、CPU10は、ステップS29においてYesと判定し、お化粧アプリを終了する。 When the button image 47 is operated in the menu image 51 and the input instruction information becomes “end”, the CPU 10 determines Yes in step S29 and ends the makeup application.
 以上のように、化粧を施すユーザを支援する化粧支援システム1は、ユーザが自身に化粧を施す際に当該ユーザによって携帯される携帯端末装置3と、携帯端末装置3とは異なる据え置き型の装置として構成されるとともに、当該携帯端末装置3との間でデータ通信が可能な状態で接続される計測装置2とを備えている。そして、計測装置は、ユーザの三次元形状に関する情報を取得して三次元形状情報212を作成する計測制御部200と、計測制御部200により作成された三次元形状情報212を携帯端末装置3に向けて送信する通信部24とを備えている。また、携帯端末装置3は、通信部24により送信された三次元形状情報212を受信する通信部12と、化粧を施す際のユーザを撮像して撮像情報112を取得する撮像部35と、通信部12により受信された三次元形状情報212と撮像部35により取得された撮像情報112とに基づいて、ユーザに施す化粧を支援するための化粧支援情報114を作成する情報作成部102と、情報作成部102により作成された化粧支援情報114を出力する表示部33,34とを備える。このように、据え置き型の計測装置2によって三次元形状情報212を作成することにより、三次元形状情報212を作成するときの手ブレなどを防止することができるため、三次元形状情報212の精度が向上する。また、携帯端末装置3として、市販の携帯電話やスマートフォンを採用することが可能となり、コストを抑制することができる。 As described above, the makeup support system 1 that supports a user who applies makeup is a portable terminal device 3 that is carried by the user when the user applies makeup to the user, and a stationary device that is different from the portable terminal device 3. And a measuring device 2 connected in a state capable of data communication with the portable terminal device 3. Then, the measurement device acquires information related to the three-dimensional shape of the user and creates the three-dimensional shape information 212, and the three-dimensional shape information 212 created by the measurement control unit 200 in the mobile terminal device 3. And a communication unit 24 that transmits the data to the destination. In addition, the mobile terminal device 3 communicates with the communication unit 12 that receives the three-dimensional shape information 212 transmitted by the communication unit 24, the imaging unit 35 that captures the user when applying makeup, and acquires the imaging information 112. An information creation unit 102 for creating makeup support information 114 for supporting makeup to be applied to the user based on the three-dimensional shape information 212 received by the unit 12 and the imaging information 112 acquired by the imaging unit 35; Display units 33 and 34 for outputting the makeup support information 114 created by the creation unit 102. As described above, since the 3D shape information 212 is created by the stationary measuring device 2, camera shake or the like when creating the 3D shape information 212 can be prevented, so that the accuracy of the 3D shape information 212 can be prevented. Will improve. Moreover, it becomes possible to employ | adopt a commercially available mobile phone and a smart phone as the portable terminal device 3, and can suppress cost.
 図23は、撮像情報112と、化粧支援情報114として表示される表示ユーザ画像とを示す図である。 FIG. 23 is a diagram showing imaging information 112 and a display user image displayed as makeup support information 114.
 スマートフォンや携帯電話が備えるカメラには、広角レンズが採用されることが多い。広角レンズを採用したカメラによって撮像される画像(自撮画像)は、中央部分が拡大されたように歪んだ画像となる。すなわち、ユーザの実際の顔立ちとは異なる画像となってしまうという問題がある。 Wide-angle lenses are often used for cameras equipped with smartphones and mobile phones. An image captured by a camera employing a wide-angle lens (self-portrait image) is an image that is distorted as if the central portion is enlarged. That is, there is a problem that the image is different from the actual face of the user.
 したがって、コストを抑制するために、市場に多く流通している一般的なスマートフォンなどを携帯端末装置3として流用すると、撮像部35は、図23の左側に示すような撮像情報112を取得する場合がある。従来の技術では、推定値を用いることにより、このような歪んだ画像を補正することも提案されている。しかし、このような従来技術を用いたとしても、推定による補正であるため、実際の顔立ちに近似するものの、やはり異なる顔立ちとして認識されてしまう。特に、人の顔については、わずかな違いでも、ユーザに感知され、違和感を生じることになる。 Therefore, in order to reduce costs, when a general smartphone or the like that is widely distributed in the market is used as the mobile terminal device 3, the imaging unit 35 acquires the imaging information 112 as illustrated on the left side of FIG. There is. In the prior art, it has also been proposed to correct such a distorted image by using an estimated value. However, even if such a conventional technique is used, since it is a correction by estimation, it is recognized as a different feature although it approximates an actual feature. In particular, with respect to human faces, even a slight difference is perceived by the user, causing a sense of incongruity.
 しかし、化粧支援システム1は、このような歪んだ画像を撮像することのない、撮像部26によって撮像された計測用撮像情報211により、歪みのない三次元形状情報212を作成する。そして、当該三次元形状情報212に、撮像情報112をマッピングするため、撮像情報112において生じる歪みは、原理的にキャンセルされ、図23の右側に示すような、実際の顔立ちを忠実に表現した化粧支援情報114(表示ユーザ画像)を表示することができる。したがって、ユーザによる化粧の精度も向上する。 However, the makeup support system 1 creates the distortion-free 3D shape information 212 based on the measurement imaging information 211 captured by the imaging unit 26 without capturing such a distorted image. Then, since the imaging information 112 is mapped to the three-dimensional shape information 212, the distortion generated in the imaging information 112 is canceled in principle, and a makeup that faithfully represents an actual feature as shown on the right side of FIG. Support information 114 (display user image) can be displayed. Therefore, the accuracy of makeup by the user is also improved.
 なお、例えば、情報作成部102が、三次元形状情報212のレンダリングパースペクティブ(遠近効果)を調整しつつ表示ユーザ画像を作成することにより、見え方を任意に調整することも可能であり、さらに効果的な表示が可能となる。 Note that, for example, the information creation unit 102 can arbitrarily adjust the appearance by creating a display user image while adjusting the rendering perspective (perspective effect) of the three-dimensional shape information 212. Display is possible.
 また、三次元形状情報212と撮像情報112とに基づいて、当該撮像情報112における撮像ズレ角を推定する推定部101をさらに備え、情報作成部102が、推定部101により推定された撮像ズレ角に基づいて化粧支援情報を作成することにより、自然な表示ユーザ画像を得ることができ、化粧支援情報114の精度が向上する。 In addition, the image forming apparatus further includes an estimation unit 101 that estimates an imaging deviation angle in the imaging information 112 based on the three-dimensional shape information 212 and the imaging information 112, and the information creation unit 102 estimates the imaging deviation angle estimated by the estimation unit 101. By creating makeup support information based on this, a natural display user image can be obtained, and the accuracy of the makeup support information 114 is improved.
 また、推定部101は、三次元形状情報212の特定の方位におけるユーザの部位の位置と、撮像情報112に撮像されているユーザの当該部位の位置との差分に基づいて、当該撮像情報112における撮像ズレ角を推定する。これにより、化粧支援システム1は、撮像ズレ角を容易に、かつ、確実に推定することができる。 Further, the estimation unit 101 uses the difference in the imaging information 112 based on the difference between the position of the user's part in the specific orientation of the three-dimensional shape information 212 and the position of the user's part imaged in the imaging information 112. Estimate the imaging deviation angle. Thereby, the makeup | decoration assistance system 1 can estimate an imaging shift angle easily and reliably.
 また、推定部101は、ユーザが正面を向いたときの目線と、撮像情報112に撮像されたユーザの目線との目線ズレ角を推定する。そして、情報作成部102は、当該目線ズレ角を抑制するための指示を化粧支援情報に含めることにより、化粧を施す際のユーザに正面を見るようにアドバイスすることができる。これにより、撮像部35は、正面を見ている状態のユーザを撮像することができる。したがって、化粧支援システム1は、ユーザを鏡に映した画像に近い、自然なユーザ表示画像を、化粧支援情報114として表示することができる。 Further, the estimation unit 101 estimates a gaze shift angle between the line of sight when the user faces the front and the line of sight of the user imaged in the imaging information 112. And the information preparation part 102 can advise the user at the time of applying makeup to look at the front by including the instruction | indication for suppressing the said gaze shift angle | corner in makeup | decoration assistance information. Thereby, the imaging part 35 can image the user of the state which is looking at the front. Therefore, the makeup support system 1 can display, as the makeup support information 114, a natural user display image that is close to the image that reflects the user in the mirror.
 また、計測制御部200は、ユーザの互いに異なる表情に対応した複数の三次元形状情報を作成する。したがって、化粧支援システム1は、ユーザの様々な表情による違いを反映させた化粧支援情報114を作成することができる。 Also, the measurement control unit 200 creates a plurality of three-dimensional shape information corresponding to different facial expressions of the user. Therefore, the makeup support system 1 can create the makeup support information 114 that reflects differences due to various facial expressions of the user.
 また、複数の三次元形状情報212が作成された場合において、複数の三次元形状情報212と撮像情報112とを比較することにより、複数の三次元形状情報212から1の三次元形状情報212を選択する。これにより、例えば、異なる表情ごとに準備された複数の三次元形状情報212の中から、現実の表情と同じ表情の三次元形状情報212を選択して化粧支援情報114を作成することにより、化粧支援の精度が向上する。また、表示されるユーザの画像がユーザの現実の表情に連動するため、ユーザの違和感を抑制することができる。 Further, when a plurality of three-dimensional shape information 212 is created, by comparing the plurality of three-dimensional shape information 212 and the imaging information 112, one piece of three-dimensional shape information 212 is obtained from the plurality of three-dimensional shape information 212. select. Thus, for example, the makeup support information 114 is created by selecting the 3D shape information 212 having the same facial expression as the actual facial expression from the plurality of 3D shape information 212 prepared for different facial expressions. The accuracy of assistance is improved. Moreover, since the displayed user image is linked to the user's actual facial expression, the user's uncomfortable feeling can be suppressed.
 また、複数の三次元形状情報212が作成された場合において、携帯端末装置3は、ユーザの指示に応じて、複数の三次元形状情報212から1の三次元形状情報212を選択する。これにより、例えば、ユーザが所望する表情の三次元形状情報212をユーザが選択することができる。したがって、化粧支援システム1は、化粧を施す際に当該表情をユーザに実演させることなく、ユーザが確認したいと思う表情に関する化粧支援情報114を、作成することができる。 In addition, when a plurality of three-dimensional shape information 212 is created, the mobile terminal device 3 selects one three-dimensional shape information 212 from the plurality of three-dimensional shape information 212 in accordance with a user instruction. Thereby, for example, the user can select the three-dimensional shape information 212 of the facial expression desired by the user. Therefore, the makeup support system 1 can create the makeup support information 114 regarding the facial expression that the user wants to confirm without having the user demonstrate the facial expression when applying makeup.
 また、計測制御部200は、互いに精度の異なる複数の三次元形状情報212を作成する。したがって、例えば、細かい化粧を望む部位については、高精度の三次元形状情報212を用いて、拡大した表示ユーザ画像を作成することもできる。 In addition, the measurement control unit 200 creates a plurality of three-dimensional shape information 212 with different accuracy. Therefore, for example, an enlarged display user image can be created by using the highly accurate three-dimensional shape information 212 for a portion where fine makeup is desired.
 また、化粧を終了したときのユーザを撮像した計測用撮像情報211を過去撮像情報として記憶しておき、推定部101が、撮像部35により撮像された撮像情報112と当該計測用撮像情報211とを比較して、化粧の劣化度を推定する。これにより、化粧の劣化度に応じて、ユーザの化粧を支援することができる。 Further, the measurement imaging information 211 obtained by imaging the user when the makeup is finished is stored as past imaging information, and the estimation unit 101 captures the imaging information 112 captured by the imaging unit 35 and the measurement imaging information 211. Are compared to estimate the degree of makeup deterioration. Thereby, a user's makeup can be supported according to the degradation degree of makeup.
 また、推定部101は、計測用撮像情報211に撮像されているユーザの毛穴の状態と撮像情報112に撮像されているユーザの毛穴の状態とを比較して、化粧の劣化度を推定する。これにより、化粧支援システム1は、例えば、ファンデーションの落ち具合を容易に推定することができる。 In addition, the estimation unit 101 estimates the degree of makeup deterioration by comparing the state of the user's pores imaged in the measurement imaging information 211 with the state of the user's pores imaged in the imaging information 112. Thereby, the makeup | decoration assistance system 1 can estimate the fall of a foundation easily, for example.
 また、推定部101は、計測用撮像情報211に撮像されているユーザの肌部分と特定部分との色比率と、撮像情報112に撮像されているユーザの当該肌部分と当該特定部分との色比率とを比較して、当該特定部分における化粧の劣化度を推定する。これにより、例えば、口紅やチーク、アイシャドウの落ち具合を容易に推定することができる。 The estimation unit 101 also determines the color ratio between the user's skin part and the specific part imaged in the measurement imaging information 211, and the color of the user's skin part and the specific part imaged in the imaging information 112. By comparing the ratio, the degree of makeup deterioration in the specific part is estimated. Thereby, for example, it is possible to easily estimate the degree of lipstick, teak, or eye shadow dropping.
 また、推定部101により推定された化粧の劣化度と、計測用撮像情報211が撮像された時間からの経過時間とに基づいて、化粧を修正すべき時間(化粧なおしの予定時間)を推定する。これにより、化粧支援システム1は、いつ化粧なおしすべきかを具体的にユーザに報知することができる。 In addition, based on the degree of makeup deterioration estimated by the estimation unit 101 and the elapsed time from the time when the imaging information for measurement 211 was imaged, the time for which makeup should be corrected (estimated time for makeup correction) is estimated. . Thereby, the makeup | decoration assistance system 1 can alert | report to a user concretely when makeup should be renewed.
 また、ユーザが化粧を披露する場所における光環境を示す光環境情報113を記憶しておき、情報作成部102が、光環境情報113に基づいて化粧支援情報114を作成する。これにより、化粧支援システム1は、光環境に応じた化粧支援情報114を作成することができる。 Also, the light environment information 113 indicating the light environment at the place where the user performs makeup is stored, and the information creation unit 102 creates makeup support information 114 based on the light environment information 113. Thereby, the makeup | decoration assistance system 1 can produce the makeup | decoration assistance information 114 according to light environment.
 また、データ取得部100が、撮像部35により撮像された撮像情報112に基づいて、当該撮像情報112が撮像されたときの光環境を推定して、光環境情報113を更新する。これにより、ユーザが実際に撮像した場所に関する光環境情報113を取得することができる。したがって、次回から、当該場所に適した光環境情報113に基づいて化粧支援情報114を作成することができる。 Further, the data acquisition unit 100 estimates the light environment when the imaging information 112 is captured based on the imaging information 112 captured by the imaging unit 35 and updates the light environment information 113. Thereby, the light environment information 113 regarding the place where the user actually imaged can be acquired. Therefore, the makeup support information 114 can be created from the next time based on the light environment information 113 suitable for the place.
 以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made.
 例えば、上記に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。 For example, the steps shown above are merely examples, and are not limited to the order and contents shown above. That is, as long as the same effect can be obtained, the order and contents may be changed as appropriate.
 また、上記に示した機能ブロック(例えば、計測制御部200やモデル作成部201、推定部101、情報作成部102など)は、CPU20またはCPU10が、プログラム210またはプログラム110に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。 In addition, the functional blocks (for example, the measurement control unit 200, the model creation unit 201, the estimation unit 101, the information creation unit 102, etc.) described above are operated by the CPU 20 or the CPU 10 according to the program 210 or the program 110, and the software Explained that it will be realized. However, some or all of these functional blocks may be configured by a dedicated logic circuit and realized in hardware.
 また、化粧の対象となるユーザの部位は、ユーザの顔に限定されるものではない。例えば、爪や頭髪など、ユーザの身体における他の部位であってもよい。 Also, the user's part that is the object of makeup is not limited to the user's face. For example, it may be another part of the user's body such as a nail or a head hair.
 また、筐体部30は、化粧品(ファンデーションやチークなど)や道具類(ハケやパッドなど)を収納するケースとして兼用できる構造であってもよい。 The casing 30 may have a structure that can also be used as a case for storing cosmetics (foundation, teak, etc.) and tools (bake, pad, etc.).
 また、上記実施の形態では、投光部28が不可視光を用いて計測用パターンを投射することにより、化粧支援情報114として表示される撮像情報112(表示ユーザ画像)に当該計測用パターンの可視的な影響がでないように構成していた。しかし、例えば、投光部28が撮像部26の撮像タイミングを避けるタイミングで当該計測用パターンを投射するように構成してもよい。例えば、撮像部26のフレーム間隔の間に投光部28が当該計測用パターンを投射するようにしてもよい。このように構成することによっても、当該計測用パターンの可視的な影響を抑制することができる。 Moreover, in the said embodiment, when the light projection part 28 projects a measurement pattern using invisible light, the measurement pattern visible to the imaging information 112 (display user image) displayed as the makeup | decoration assistance information 114 is visible. It was constructed so as not to have a negative effect. However, for example, the light projecting unit 28 may project the measurement pattern at a timing that avoids the imaging timing of the imaging unit 26. For example, the light projecting unit 28 may project the measurement pattern during the frame interval of the imaging unit 26. With this configuration, the visible influence of the measurement pattern can be suppressed.
 また、化粧支援システム1が複数の携帯端末装置3から構成されている場合、1の携帯端末装置3の情報作成部102が、他の携帯端末装置3の撮像部35により撮像された撮像情報112に基づいて更新された光環境情報113に基づいて化粧支援情報114を作成してもよい。すなわち、ユーザの間で、光環境情報113を共有するようにしてもよい。これにより、ユーザは、他のユーザが作成(あるいは収集)した光環境情報113を利用することができるため、例えば、自身が訪れたことのない場所についても、現実の光環境情報113を利用することができる。 In addition, when the makeup support system 1 includes a plurality of mobile terminal devices 3, the information creation unit 102 of one mobile terminal device 3 captures image information 112 captured by the imaging unit 35 of another mobile terminal device 3. The makeup support information 114 may be created based on the light environment information 113 updated based on the information. That is, the light environment information 113 may be shared among users. As a result, the user can use the light environment information 113 created (or collected) by another user. For example, the user uses the actual light environment information 113 even for a place where the user has never visited. be able to.
 また、上記実施の形態では、携帯端末装置3の記憶装置11が、データベース111、撮像情報112、および、化粧支援情報114などを記憶するとして説明した。しかし、これらの情報を、携帯端末装置3が計測装置2に向けて送信し、計測装置2においてこれらの情報を利用可能としてもよい。これにより、例えば、データベース111に相当する情報を計測装置2の記憶装置21に格納しておき、必要に応じて、携帯端末装置3から参照するように構成してもよい。あるいは、ユーザは、提供された化粧支援情報114と、当該化粧支援情報114に基づいて化粧を施した状態のユーザを撮像した撮像情報112とを、計測装置2において確認することができる。一般に、据え置き型の装置である計測装置2の表示部23において画像を閲覧する方が、携帯端末装置3の表示部33,34において閲覧するよりも見やすいという事情がある。したがって、ユーザは、例えば、外出先で携帯端末装置3を用いて化粧を行った場合に、自宅に戻った後に、外出先での化粧の見栄えを詳細に確認することもできる。すなわち、ユーザは過去の化粧を自宅でチェックすることができる。また、外出先での化粧の際に参考にした化粧支援情報114を、見栄えに応じて修正してもよい。 In the above embodiment, the storage device 11 of the mobile terminal device 3 has been described as storing the database 111, the imaging information 112, the makeup support information 114, and the like. However, these pieces of information may be transmitted from the mobile terminal device 3 to the measurement device 2 so that the measurement device 2 can use the information. Thereby, for example, information corresponding to the database 111 may be stored in the storage device 21 of the measurement device 2 and referred to from the mobile terminal device 3 as necessary. Alternatively, the user can check the provided makeup support information 114 and the imaging information 112 obtained by capturing the user in a state of applying makeup based on the makeup support information 114 in the measurement device 2. In general, it is easier to view an image on the display unit 23 of the measuring device 2, which is a stationary device, than to view on the display units 33 and 34 of the mobile terminal device 3. Therefore, for example, when the user performs makeup using the mobile terminal device 3 on the go, the user can also confirm in detail the appearance of the makeup on the go after returning home. That is, the user can check past makeup at home. Moreover, you may correct the makeup | decoration assistance information 114 referred in the case of the makeup | decoration on the go according to appearance.
 さらに、推定部101が撮像ズレ角を推定する手法は、上記実施の形態に示した手法に限定されるものではない。例えば、「"Visual vehicl tracking based on an appearance generative model", Kazuhiko Kawamoto, Tatsuya Yonekawa, Kazushi Okamoto, SCIS-ISIS 2012, Kobe, Japan, November 20-24, 2014」に記載されている技術を応用することもできる。すなわち、モデル作成部201が、三次元形状情報212を作成するときに、各方位における画像の固有ベクトルを算出して、方位ごとの画像の固有ベクトルを当該三次元形状情報212とともに携帯端末装置3のデータベース111に格納しておく。そして、撮像情報112の方位と合わせるときに、当該撮像情報112について推定部101が固有ベクトルを求め、当該固有ベクトルとデータベース111に格納されている方位ごとの固有ベクトルとを比較して、最も適した方位を決定することにより、撮像ズレ角を推定してもよい。 Further, the method by which the estimation unit 101 estimates the imaging deviation angle is not limited to the method shown in the above embodiment. For example, applying the technology described in "" Visual vehicl tracking based on an appearance generative model ", Kazuhiko Kawamoto, Tatsuya Yonekawa, Kazushi Okamoto, SCIS-ISIS 2012, Kobe, Japan, November 20-24, 2014" You can also. That is, when the model creation unit 201 creates the 3D shape information 212, the eigenvector of the image in each direction is calculated, and the eigenvector of the image for each orientation is stored in the database of the mobile terminal device 3 together with the 3D shape information 212. 111 is stored. Then, when matching with the orientation of the imaging information 112, the estimation unit 101 obtains an eigenvector for the imaging information 112, compares the eigenvector with the eigenvector for each orientation stored in the database 111, and determines the most suitable orientation. By determining, the imaging deviation angle may be estimated.

Claims (21)

  1.  化粧を施すユーザを支援する化粧支援システムであって、
     ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置と、
     前記携帯端末装置とは異なる据え置き型の装置として構成されるとともに、前記携帯端末装置との間でデータ通信が可能な状態で接続される計測装置と、
    を備え、
     前記計測装置は、
     前記ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、
     前記三次元計測手段により作成された三次元形状情報を前記携帯端末装置に向けて送信する第1通信手段と、
    を備え、
     前記携帯端末装置は、
     前記第1通信手段により送信された三次元形状情報を受信する第2通信手段と、
     化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、
     前記第2通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、
     前記情報作成手段により作成された化粧支援情報を出力する出力手段と、
    を備える化粧支援システム。
    A makeup support system for assisting a user applying makeup,
    A portable terminal device carried by the user when the user applies makeup to the user;
    A measurement device configured as a stationary device different from the mobile terminal device and connected in a state capable of data communication with the mobile terminal device;
    With
    The measuring device is
    3D measuring means for acquiring information on the 3D shape of the user and creating 3D shape information;
    First communication means for transmitting the three-dimensional shape information created by the three-dimensional measurement means to the mobile terminal device;
    With
    The portable terminal device
    Second communication means for receiving the three-dimensional shape information transmitted by the first communication means;
    Imaging means for capturing imaging information by imaging the user when applying makeup;
    Information creation means for creating makeup support information for supporting makeup to be applied to the user based on the three-dimensional shape information received by the second communication means and the imaging information acquired by the imaging means;
    Output means for outputting makeup support information created by the information creating means;
    A makeup support system.
  2.  請求項1に記載の化粧支援システムであって、
     前記三次元計測手段により作成された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記撮像情報における撮像ズレ角を推定する方位推定手段をさらに備え、
     前記情報作成手段は、前記方位推定手段により推定された前記撮像情報における撮像方位に基づいて前記化粧支援情報を作成する化粧支援システム。
    The makeup support system according to claim 1,
    Based on the three-dimensional shape information created by the three-dimensional measuring means and the imaging information acquired by the imaging means, further comprising an azimuth estimating means for estimating an imaging deviation angle in the imaging information,
    The information creation unit is a makeup support system that creates the makeup support information based on an imaging direction in the imaging information estimated by the direction estimation unit.
  3.  請求項2に記載の化粧支援システムであって、
     前記方位推定手段は、前記三次元形状情報の特定の方位におけるユーザの部位の位置と、前記撮像情報に撮像されているユーザの前記部位の位置との差分に基づいて、前記撮像情報における撮像ズレ角を推定する化粧支援システム。
    The makeup support system according to claim 2,
    The azimuth estimation unit is configured to detect an imaging shift in the imaging information based on a difference between a position of the user's part in a specific direction of the three-dimensional shape information and a position of the user's part imaged in the imaging information. A makeup support system that estimates corners.
  4.  請求項2に記載の化粧支援システムであって、
     前記方位推定手段は、前記三次元形状情報に基づいて複数の方位における固有ベクトル値をそれぞれ算出し、前記撮像情報における固有ベクトル値と比較することにより、前記撮像情報における撮像ズレ角を推定する化粧支援システム。
    The makeup support system according to claim 2,
    The azimuth estimation unit calculates eigenvector values in a plurality of directions based on the three-dimensional shape information, and compares the eigenvector values with the eigenvector values in the imaging information, thereby estimating an imaging shift angle in the imaging information. .
  5.  請求項1ないし4のいずれかに記載の化粧支援システムであって、
     前記化粧支援情報は、化粧を施す際のユーザを表現したユーザ画像情報を含む化粧支援システム。
    The makeup support system according to any one of claims 1 to 4,
    The makeup support information is a makeup support system including user image information representing a user when applying makeup.
  6.  請求項5に記載の化粧支援システムであって、
     ユーザが正面を向いたときの目線と、前記撮像情報に撮像されたユーザの目線との目線ズレ角を推定し、
     前記情報作成手段は、前記目線ズレ角を抑制するための指示を前記化粧支援情報に含める化粧支援システム。
    The makeup support system according to claim 5,
    Estimating the gaze shift angle between the line of sight when the user is facing the front and the line of sight of the user imaged in the imaging information,
    The information creation means is a makeup support system that includes in the makeup support information an instruction for suppressing the gaze shift angle.
  7.  請求項1ないし6のいずれかに記載の化粧支援システムであって、
     前記三次元計測手段は、前記ユーザの互いに異なる表情に対応した複数の三次元形状情報を作成する化粧支援システム。
    A makeup support system according to any one of claims 1 to 6,
    The three-dimensional measuring means is a makeup support system that creates a plurality of three-dimensional shape information corresponding to different facial expressions of the user.
  8.  請求項7に記載の化粧支援システムであって、
     前記複数の三次元形状情報と前記撮像情報とを比較することにより、前記複数の三次元形状情報から1の三次元形状情報を選択する化粧支援システム。
    The makeup support system according to claim 7,
    A makeup support system that selects one 3D shape information from the plurality of 3D shape information by comparing the plurality of 3D shape information and the imaging information.
  9.  請求項7または8に記載の化粧支援システムであって、
     前記ユーザの指示に応じて、前記複数の三次元形状情報から1の三次元形状情報を選択する化粧支援システム。
    The makeup support system according to claim 7 or 8,
    A makeup support system that selects one three-dimensional shape information from the plurality of three-dimensional shape information in response to an instruction from the user.
  10.  請求項1ないし9のいずれかに記載の化粧支援システムであって、
     前記三次元計測手段は、互いに精度の異なる複数の三次元形状情報を作成する化粧支援システム。
    A makeup support system according to any one of claims 1 to 9,
    The three-dimensional measuring unit is a makeup support system that creates a plurality of pieces of three-dimensional shape information having different accuracy.
  11.  請求項1ないし10のいずれかに記載の化粧支援システムであって、
     化粧を終了したときのユーザを撮像した画像情報を過去撮像情報として記憶する第1記憶手段と、
     前記撮像手段により撮像された撮像情報と前記第1記憶手段に記憶されている過去撮像情報とを比較して、前記化粧の劣化度を推定する劣化推定手段と、
    をさらに備え、
     前記情報作成手段は、前記劣化推定手段により推定された劣化度に基づいて化粧支援情報を作成する化粧支援システム。
    A makeup support system according to any one of claims 1 to 10,
    First storage means for storing, as past imaging information, image information obtained by imaging the user when makeup is finished;
    A deterioration estimation unit that compares the imaging information captured by the imaging unit with the past imaging information stored in the first storage unit to estimate the degree of deterioration of the makeup;
    Further comprising
    The information creation means is a makeup support system that creates makeup support information based on the degree of deterioration estimated by the deterioration estimation means.
  12.  請求項11に記載の化粧支援システムであって、
     前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの毛穴の状態と前記撮像情報に撮像されているユーザの毛穴の状態とを比較して、前記化粧の劣化度を推定する化粧支援システム。
    The makeup support system according to claim 11,
    The degradation estimation means compares the state of the user's pores imaged in the past imaging information with the state of the user's pores imaged in the imaging information, and estimates makeup deterioration degree system.
  13.  請求項11または12に記載の化粧支援システムであって、
     前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの肌部分と特定部分との色比率と、前記撮像情報に撮像されているユーザの前記肌部分と前記特定部分との色比率とを比較して、前記特定部分における前記化粧の劣化度を推定する化粧支援システム。
    The makeup support system according to claim 11 or 12,
    The deterioration estimating means includes a color ratio between the skin part of the user and the specific part imaged in the past imaging information, and a color ratio between the skin part and the specific part of the user imaged in the imaging information. And a makeup support system that estimates the degree of makeup deterioration at the specific portion.
  14.  請求項11ないし13のいずれかに記載の化粧支援システムであって、
     前記劣化推定手段は、前記劣化推定手段により推定された前記化粧の劣化度と当該過去撮像情報が撮像された時間からの経過時間とに基づいて、前記化粧を修正すべき時間を推定する化粧支援システム。
    A makeup support system according to any one of claims 11 to 13,
    The deterioration estimation means estimates makeup time for correcting the makeup based on the degree of deterioration of the makeup estimated by the deterioration estimation means and the elapsed time from the time when the past imaging information was imaged. system.
  15.  請求項1ないし14のいずれかに記載の化粧支援システムであって、
     前記ユーザの化粧を披露する場所における光環境を示す光環境情報を記憶する第2記憶手段をさらに備え、
     前記情報作成手段は、前記第2記憶手段に記憶された光環境情報に基づいて化粧支援情報を作成する化粧支援システム。
    The makeup support system according to any one of claims 1 to 14,
    A second storage means for storing light environment information indicating a light environment in a place where the user's makeup is exhibited;
    The information creation unit is a makeup support system that creates makeup support information based on light environment information stored in the second storage unit.
  16.  請求項15に記載の化粧支援システムであって、
     前記撮像手段により撮像された撮像情報に基づいて、当該撮像情報が撮像されたときの光環境を推定して、前記第2記憶手段に記憶されている光環境情報を更新する化粧支援システム。
    The makeup support system according to claim 15,
    A makeup support system that estimates light environment when the image information is captured based on image information captured by the image capturing unit, and updates the light environment information stored in the second storage unit.
  17.  請求項16に記載の化粧支援システムであって、
     前記携帯端末装置として1の携帯端末装置と他の携帯端末装置とを備え、
     前記1の携帯端末装置の前記情報作成手段は、前記他の携帯端末装置の前記撮像手段により撮像された撮像情報に基づいて更新された光環境情報に基づいて化粧支援情報を作成する化粧支援システム。
    The makeup support system according to claim 16,
    The mobile terminal device includes one mobile terminal device and another mobile terminal device,
    The information creation unit of the first portable terminal device creates makeup support information based on light environment information updated based on imaging information captured by the imaging unit of the other portable terminal device. .
  18.  据え置き型の装置として構成される計測装置であって、
     ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、
     前記三次元計測手段により作成された三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する通信手段と、
    を備える計測装置。
    A measuring device configured as a stationary device,
    3D measuring means for acquiring information about the 3D shape of the user and creating 3D shape information;
    The three-dimensional shape information created by the three-dimensional measuring means is transmitted to an external portable terminal device, and the makeup support information and the makeup support information provided to the user transmitted by the portable terminal device are used. Communication means for receiving imaging information obtained by imaging the user who has applied makeup;
    A measuring device comprising:
  19.  ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置であって、
     外部の計測装置により送信された三次元形状情報を受信する通信手段と、
     化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、
     前記通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、
     前記情報作成手段により作成された化粧支援情報を出力する出力手段と、
    を備える携帯端末装置。
    A portable terminal device carried by the user when the user applies makeup to the user,
    A communication means for receiving three-dimensional shape information transmitted by an external measuring device;
    Imaging means for capturing imaging information by imaging the user when applying makeup;
    Information creation means for creating makeup support information for supporting makeup to be applied to the user based on the three-dimensional shape information received by the communication means and the imaging information acquired by the imaging means;
    Output means for outputting makeup support information created by the information creating means;
    A mobile terminal device comprising:
  20.  据え置き型の装置として構成されるコンピュータによる読み取り可能なプログラムであって、
     ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する工程と、
     作成された前記三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する工程と、
    を前記コンピュータに実行させるプログラム。
    A computer-readable program configured as a stationary device,
    Obtaining information about the user's 3D shape and creating 3D shape information;
    The created three-dimensional shape information is transmitted to an external mobile terminal device, and makeup is applied according to the makeup support information and the makeup support information provided to the user transmitted by the mobile terminal device Receiving imaging information obtained by imaging the user;
    A program for causing the computer to execute.
  21.  ユーザが自身に化粧を施す際に前記ユーザによって携帯されるコンピュータによる読み取り可能なプログラムであって、
     外部の計測装置により送信された三次元形状情報を受信する工程と、
     化粧を施す際の前記ユーザを撮像して撮像情報を取得する工程と、
     受信された前記三次元形状情報と取得された前記撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する工程と、
     作成された前記化粧支援情報を出力する工程と、
    を前記コンピュータに実行させるプログラム。
    A computer-readable program carried by the user when the user applies makeup to the user,
    Receiving three-dimensional shape information transmitted by an external measuring device;
    Imaging the user when applying makeup and acquiring imaging information;
    Creating makeup support information for supporting makeup to be applied to the user based on the received three-dimensional shape information and the acquired imaging information;
    Outputting the created makeup support information;
    A program for causing the computer to execute.
PCT/JP2016/059575 2015-03-27 2016-03-25 Makeup assistance system, measurement device, portable terminal device, and program WO2016158729A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017509897A JP6675384B2 (en) 2015-03-27 2016-03-25 Makeup support system, measuring device, portable terminal device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-066501 2015-03-27
JP2015066501 2015-03-27

Publications (1)

Publication Number Publication Date
WO2016158729A1 true WO2016158729A1 (en) 2016-10-06

Family

ID=57004263

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/059575 WO2016158729A1 (en) 2015-03-27 2016-03-25 Makeup assistance system, measurement device, portable terminal device, and program

Country Status (2)

Country Link
JP (1) JP6675384B2 (en)
WO (1) WO2016158729A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019025288A (en) * 2017-07-25 2019-02-21 麗寶大數據股▲フン▼有限公司 Biological information analysis device capable of marking repair area
JP2019028731A (en) * 2017-07-31 2019-02-21 富士ゼロックス株式会社 Information processing device and program
WO2019130933A1 (en) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 Physical appearance correction assistance device, physical appearance correction assistance method, and computer program
JP2020516984A (en) * 2016-12-06 2020-06-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Display of guidance indicators to users
WO2021131852A1 (en) * 2019-12-26 2021-07-01 株式会社資生堂 Makeup assistance device, makeup assistance method, makeup assistance program, and makeup assistance system
JP2022534458A (en) * 2020-04-29 2022-08-01 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Image processing method and apparatus
JP7426362B2 (en) 2021-09-10 2024-02-01 花王株式会社 Makeup motion support system
JP7476321B2 (en) 2020-01-31 2024-04-30 ロレアル Apparatus and system for dispensing cosmetic materials - Patent application

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (en) * 2000-03-15 2001-09-28 Infiniteface.Com Inc Client server system for three-dimensional beauty simulation
JP2002073944A (en) * 2000-08-25 2002-03-12 Shiyuu Uemura Keshohin:Kk Online marketing method and system for cosmetics and method and system for supporting selection of cosmetics
JP2015197710A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Makeup support device, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (en) * 2000-03-15 2001-09-28 Infiniteface.Com Inc Client server system for three-dimensional beauty simulation
JP2002073944A (en) * 2000-08-25 2002-03-12 Shiyuu Uemura Keshohin:Kk Online marketing method and system for cosmetics and method and system for supporting selection of cosmetics
JP2015197710A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Makeup support device, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020516984A (en) * 2016-12-06 2020-06-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Display of guidance indicators to users
JP7121034B2 (en) 2016-12-06 2022-08-17 コーニンクレッカ フィリップス エヌ ヴェ Displaying Guidance Indicators to Users
JP2019025288A (en) * 2017-07-25 2019-02-21 麗寶大數據股▲フン▼有限公司 Biological information analysis device capable of marking repair area
JP2019028731A (en) * 2017-07-31 2019-02-21 富士ゼロックス株式会社 Information processing device and program
JP2019115653A (en) * 2017-12-26 2019-07-18 パナソニックIpマネジメント株式会社 Body appearance correction support method and device, and computer program
CN111356383A (en) * 2017-12-26 2020-06-30 松下知识产权经营株式会社 Body appearance correction support device, body appearance correction support method, and program
WO2019130933A1 (en) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 Physical appearance correction assistance device, physical appearance correction assistance method, and computer program
WO2021131852A1 (en) * 2019-12-26 2021-07-01 株式会社資生堂 Makeup assistance device, makeup assistance method, makeup assistance program, and makeup assistance system
CN114867383A (en) * 2019-12-26 2022-08-05 株式会社资生堂 Makeup assisting device, makeup assisting method, makeup assisting program, and makeup assisting system
JP7476321B2 (en) 2020-01-31 2024-04-30 ロレアル Apparatus and system for dispensing cosmetic materials - Patent application
JP2022534458A (en) * 2020-04-29 2022-08-01 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Image processing method and apparatus
JP7183414B2 (en) 2020-04-29 2022-12-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Image processing method and apparatus
JP7426362B2 (en) 2021-09-10 2024-02-01 花王株式会社 Makeup motion support system

Also Published As

Publication number Publication date
JPWO2016158729A1 (en) 2018-02-15
JP6675384B2 (en) 2020-04-01

Similar Documents

Publication Publication Date Title
WO2016158729A1 (en) Makeup assistance system, measurement device, portable terminal device, and program
US11928784B2 (en) Systems and methods for presenting perspective views of augmented reality virtual object
RU2656817C2 (en) Devices, systems and methods of capturing and displaying appearances
JP6663972B2 (en) How to customize objects in additional machining
US7714912B2 (en) Intelligent mirror
US9838597B2 (en) Imaging device, imaging method, and program
CN108537628B (en) Method and system for creating customized products
JP7020626B2 (en) Makeup evaluation system and its operation method
CN107390863B (en) Device control method and device, electronic device and storage medium
WO2015152028A1 (en) Makeup assistance device and recording medium
KR102045219B1 (en) Body Information Analysis Apparatus Combining with Augmented Reality and Eyebrow Shape Preview Method thereof
CN109690617A (en) System and method for digital vanity mirror
KR101717748B1 (en) Apparatus for hair style 3D simulation and method for simulating the same
CN103945104A (en) Information processing method and electronic equipment
WO2018216602A1 (en) Information processing device, information processing method, and program
JP2014182597A (en) Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
JP2018195996A (en) Image projection apparatus, image projection method, and image projection program
CN105095917A (en) Image processing method, device and terminal
CN108933891A (en) Photographic method, terminal and system
CN106327588B (en) Intelligent terminal and image processing method and device thereof
KR102419934B1 (en) A half mirror apparatus
CN111208964B (en) Low vision aiding method, terminal and storage medium
JP2019133276A (en) Image processing system and terminal
JP6672414B1 (en) Drawing program, recording medium, drawing control device, drawing control method
JP6650998B2 (en) Mirror, image display method and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16772610

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017509897

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16772610

Country of ref document: EP

Kind code of ref document: A1