JP6675384B2 - Makeup support system, measuring device, portable terminal device and program - Google Patents

Makeup support system, measuring device, portable terminal device and program Download PDF

Info

Publication number
JP6675384B2
JP6675384B2 JP2017509897A JP2017509897A JP6675384B2 JP 6675384 B2 JP6675384 B2 JP 6675384B2 JP 2017509897 A JP2017509897 A JP 2017509897A JP 2017509897 A JP2017509897 A JP 2017509897A JP 6675384 B2 JP6675384 B2 JP 6675384B2
Authority
JP
Japan
Prior art keywords
information
makeup
user
imaging
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017509897A
Other languages
Japanese (ja)
Other versions
JPWO2016158729A1 (en
Inventor
基康 田中
基康 田中
直子 佐々木
直子 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Publication of JPWO2016158729A1 publication Critical patent/JPWO2016158729A1/en
Application granted granted Critical
Publication of JP6675384B2 publication Critical patent/JP6675384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ユーザの身体に関する三次元の情報を用いて、当該ユーザの化粧を支援する技術に関する。   The present invention relates to a technology for supporting makeup of a user by using three-dimensional information on the body of the user.

従来より、ユーザの化粧を支援する様々な技術が提案されている。例えば、特許文献1には、ユーザの顔を撮像した顔画像を表示することにより当該ユーザに対して眉毛を整える作業を支援する技術が記載されている。また、特許文献2には、ユーザを撮像した画像を様々な用途に応じて加工して表示する技術が記載されている。   2. Description of the Related Art Conventionally, various techniques for supporting a user's makeup have been proposed. For example, Patent Literature 1 discloses a technique of displaying a face image of a user's face to assist the user in adjusting the eyebrows. In addition, Patent Literature 2 discloses a technique of processing and displaying an image of a user according to various uses.

特開2007−293649号公報JP 2007-293649 A 特開2013−223001号公報JP 2013-223001 A

ところが、従来の技術では、二次元情報である撮像画像のみによって三次元の物体である人体に施す化粧を支援することになるため、支援することのできる状況や手法に限界があるという問題があった。   However, in the conventional technology, the makeup applied to the human body, which is a three-dimensional object, is supported only by the captured image, which is two-dimensional information. Was.

上記の課題を解決するため、請求項1の発明は、化粧を施すユーザを支援する化粧支援システムであって、ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置と、前記携帯端末装置とは異なる据え置き型の装置として構成されるとともに、前記携帯端末装置との間でデータ通信が可能な状態で接続される計測装置とを備え、前記計測装置は、前記ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、前記三次元計測手段により作成された三次元形状情報を前記携帯端末装置に向けて送信する第1通信手段とを備え、前記携帯端末装置は、前記第1通信手段により送信された三次元形状情報を受信する第2通信手段と、化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、前記第2通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、前記情報作成手段により作成された化粧支援情報を出力する出力手段とを備える。   In order to solve the above problem, the invention according to claim 1 is a makeup support system for assisting a user applying makeup, wherein the portable terminal device carried by the user when the user applies makeup to the user, The portable terminal device is configured as a stationary device that is different from the portable terminal device, and includes a measuring device that is connected to the portable terminal device in a state where data communication is possible. A three-dimensional measuring unit that obtains information about the shape to create three-dimensional shape information; and a first communication unit that transmits the three-dimensional shape information created by the three-dimensional measuring unit to the portable terminal device. A mobile communication device configured to receive the three-dimensional shape information transmitted by the first communication device; a second communication device configured to receive the three-dimensional shape information transmitted by the first communication device; Information creating means for creating makeup assisting information for assisting makeup to be applied to the user based on three-dimensional shape information received by the second communication means and imaging information acquired by the imaging means; And output means for outputting the makeup support information created by the information creating means.

また、請求項2の発明は、請求項1の発明に係る化粧支援システムであって、前記三次元計測手段により作成された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記撮像情報における撮像ズレ角を推定する方位推定手段をさらに備え、前記情報作成手段は、前記方位推定手段により推定された前記撮像情報における撮像方位に基づいて前記化粧支援情報を作成する。   Further, the invention of claim 2 is the makeup support system according to the invention of claim 1, based on the three-dimensional shape information created by the three-dimensional measuring means and the imaging information acquired by the imaging means. And an azimuth estimating means for estimating an imaging shift angle in the imaging information, wherein the information creating means creates the makeup support information based on an imaging azimuth in the imaging information estimated by the azimuth estimating means.

また、請求項3の発明は、請求項2の発明に係る化粧支援システムであって、前記方位推定手段は、前記三次元形状情報の特定の方位におけるユーザの部位の位置と、前記撮像情報に撮像されているユーザの前記部位の位置との差分に基づいて、前記撮像情報における撮像ズレ角を推定する。   Also, the invention of claim 3 is the makeup support system according to the invention of claim 2, wherein the azimuth estimating means includes a position of a user's part in a specific azimuth of the three-dimensional shape information and the imaging information. An imaging shift angle in the imaging information is estimated based on a difference between the position of the part of the user being imaged and the position of the part.

また、請求項4の発明は、請求項2の発明に係る化粧支援システムであって、前記方位推定手段は、前記三次元形状情報に基づいて複数の方位における固有ベクトル値をそれぞれ算出し、前記撮像情報における固有ベクトル値と比較することにより、前記撮像情報における撮像ズレ角を推定する。   The invention of claim 4 is the makeup support system according to the invention of claim 2, wherein the azimuth estimating means calculates eigenvector values in a plurality of azimuths based on the three-dimensional shape information, respectively, and The imaging deviation angle in the imaging information is estimated by comparing with the eigenvector value in the information.

また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る化粧支援システムであって、前記化粧支援情報は、化粧を施す際のユーザを表現したユーザ画像情報を含む。   The invention of claim 5 is the makeup assisting system according to any one of claims 1 to 4, wherein the makeup assisting information includes user image information representing a user when applying makeup.

また、請求項6の発明は、請求項5の発明に係る化粧支援システムであって、ユーザが正面を向いたときの目線と、前記撮像情報に撮像されたユーザの目線との目線ズレ角を推定し、前記情報作成手段は、前記目線ズレ角を抑制するための指示を前記化粧支援情報に含める。   Also, the invention of claim 6 is the makeup assisting system according to the invention of claim 5, wherein a line-of-sight misalignment angle between a line of sight when the user faces the front and a line of sight of the user captured in the imaging information is determined. Estimating, the information creating means includes an instruction for suppressing the eye-gaze shift angle in the makeup support information.

また、請求項7の発明は、請求項1ないし6のいずれかの発明に係る化粧支援システムであって、前記三次元計測手段は、前記ユーザの互いに異なる表情に対応した複数の三次元形状情報を作成する。   The invention of claim 7 is the makeup support system according to any one of claims 1 to 6, wherein the three-dimensional measuring means includes a plurality of pieces of three-dimensional shape information corresponding to different facial expressions of the user. Create

また、請求項8の発明は、請求項7の発明に係る化粧支援システムであって、前記複数の三次元形状情報と前記撮像情報とを比較することにより、前記複数の三次元形状情報から1の三次元形状情報を選択する。   An eighth aspect of the present invention is the makeup assisting system according to the seventh aspect of the present invention, wherein the plurality of three-dimensional shape information is compared with the imaging information to obtain one from the plurality of three-dimensional shape information. 3D shape information is selected.

また、請求項9の発明は、請求項7または8の発明に係る化粧支援システムであって、前記ユーザの指示に応じて、前記複数の三次元形状情報から1の三次元形状情報を選択する。   A ninth aspect of the present invention is the makeup assisting system according to the seventh or eighth aspect, wherein one three-dimensional shape information is selected from the plurality of three-dimensional shape information according to an instruction of the user. .

また、請求項10の発明は、請求項1ないし9のいずれかの発明に係る化粧支援システムであって、前記三次元計測手段は、互いに精度の異なる複数の三次元形状情報を作成する。   The invention of claim 10 is the makeup support system according to any one of claims 1 to 9, wherein the three-dimensional measuring means creates a plurality of pieces of three-dimensional shape information having different precisions.

また、請求項11の発明は、請求項1ないし10のいずれかの発明に係る化粧支援システムであって、化粧を終了したときのユーザを撮像した画像情報を過去撮像情報として記憶する第1記憶手段と、前記撮像手段により撮像された撮像情報と前記第1記憶手段に記憶されている過去撮像情報とを比較して、前記化粧の劣化度を推定する劣化推定手段とをさらに備え、前記情報作成手段は、前記劣化推定手段により推定された劣化度に基づいて化粧支援情報を作成する。   An eleventh aspect of the present invention is the makeup support system according to any one of the first to tenth aspects, wherein the first storage unit stores, as past imaging information, image information obtained by imaging the user when the makeup is completed. Means, and degradation estimation means for comparing the imaging information captured by the imaging means with past imaging information stored in the first storage means to estimate the degree of deterioration of the makeup, The creating means creates makeup support information based on the degree of deterioration estimated by the deterioration estimating means.

また、請求項12の発明は、請求項11の発明に係る化粧支援システムであって、前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの毛穴の状態と前記撮像情報に撮像されているユーザの毛穴の状態とを比較して、前記化粧の劣化度を推定する。   The invention of claim 12 is the makeup assisting system according to the invention of claim 11, wherein the deterioration estimating means is configured to capture the state of the pores of the user captured in the past image information and the image of the user in the image information. Then, the degree of deterioration of the makeup is estimated by comparing the state of the pores of the user.

また、請求項13の発明は、請求項11または12の発明に係る化粧支援システムであって、前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの肌部分と特定部分との色比率と、前記撮像情報に撮像されているユーザの前記肌部分と前記特定部分との色比率とを比較して、前記特定部分における前記化粧の劣化度を推定する。   A thirteenth aspect of the present invention is the makeup assisting system according to the eleventh or twelfth aspect, wherein the deterioration estimating unit is configured to determine a color of a user's skin part and a specific part captured in the past imaging information. A ratio is compared with a color ratio between the skin portion and the specific portion of the user imaged in the imaging information to estimate a degree of deterioration of the makeup in the specific portion.

また、請求項14の発明は、請求項11ないし13のいずれかの発明に係る化粧支援システムであって、前記劣化推定手段は、前記劣化推定手段により推定された前記化粧の劣化度と当該過去撮像情報が撮像された時間からの経過時間とに基づいて、前記化粧を修正すべき時間を推定する。   Also, the invention of claim 14 is the makeup assisting system according to any one of claims 11 to 13, wherein the deterioration estimating means determines the degree of deterioration of the makeup estimated by the deterioration estimating means and the past degree of the makeup. The time to correct the makeup is estimated based on the elapsed time from the time when the imaging information was captured.

また、請求項15の発明は、請求項1ないし14のいずれかの発明に係る化粧支援システムであって、前記ユーザの化粧を披露する場所における光環境を示す光環境情報を記憶する第2記憶手段をさらに備え、前記情報作成手段は、前記第2記憶手段に記憶された光環境情報に基づいて化粧支援情報を作成する。   The invention according to claim 15 is the makeup support system according to any one of claims 1 to 14, wherein the second storage for storing light environment information indicating a light environment in a place where the user presents makeup. The information creating means creates makeup assistance information based on the light environment information stored in the second storage means.

また、請求項16の発明は、請求項15の発明に係る化粧支援システムであって、前記撮像手段により撮像された撮像情報に基づいて、当該撮像情報が撮像されたときの光環境を推定して、前記第2記憶手段に記憶されている光環境情報を更新する。   The invention of claim 16 is the makeup assisting system according to the invention of claim 15, wherein a light environment when the image information is captured is estimated based on the image information captured by the image capturing means. Then, the light environment information stored in the second storage means is updated.

また、請求項17の発明は、請求項16の発明に係る化粧支援システムであって、前記携帯端末装置として1の携帯端末装置と他の携帯端末装置とを備え、前記1の携帯端末装置の前記情報作成手段は、前記他の携帯端末装置の前記撮像手段により撮像された撮像情報に基づいて更新された光環境情報に基づいて化粧支援情報を作成する。   Further, the invention of claim 17 is the makeup support system according to the invention of claim 16, comprising: one portable terminal device and another portable terminal device as the portable terminal device; The information creating means creates makeup assistance information based on light environment information updated based on imaging information captured by the imaging means of the another portable terminal device.

また、請求項18の発明は、据え置き型の装置として構成される計測装置であって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、前記三次元計測手段により作成された三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する通信手段とを備える。   The invention according to claim 18 is a measuring device configured as a stationary type device, wherein the three-dimensional measuring means for acquiring information on a three-dimensional shape of a user and creating three-dimensional shape information; Transmitting the three-dimensional shape information created by the measuring means to an external portable terminal device, and applying makeup according to the makeup assistance information provided to the user and the makeup assistance information transmitted by the portable terminal device. Communication means for receiving imaging information obtained by imaging the user.

また、請求項19の発明は、ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置であって、外部の計測装置により送信された三次元形状情報を受信する通信手段と、化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、前記通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、前記情報作成手段により作成された化粧支援情報を出力する出力手段とを備える。   The invention according to claim 19 is a portable terminal device carried by the user when the user applies makeup to the user, and a communication unit that receives three-dimensional shape information transmitted from an external measuring device; An imaging unit that images the user when applying makeup and acquires imaging information; and performs imaging on the user based on the three-dimensional shape information received by the communication unit and the imaging information acquired by the imaging unit. The information processing apparatus includes an information creating unit that creates makeup assisting information for assisting makeup, and an output unit that outputs the makeup assisting information created by the information creating unit.

また、請求項20の発明は、据え置き型の装置として構成されるコンピュータによる読み取り可能なプログラムであって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する工程と、作成された前記三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する工程とを前記コンピュータに実行させる。   According to a twentieth aspect of the present invention, there is provided a computer-readable program configured as a stationary device, the method comprising: acquiring information on a three-dimensional shape of a user to create three-dimensional shape information; The user who transmitted the three-dimensional shape information to an external portable terminal device and provided makeup assistance information provided to the user transmitted by the portable terminal device and applied makeup according to the makeup assistance information. And receiving the imaging information of the image.

また、請求項21の発明は、ユーザが自身に化粧を施す際に前記ユーザによって携帯されるコンピュータによる読み取り可能なプログラムであって、外部の計測装置により送信された三次元形状情報を受信する工程と、化粧を施す際の前記ユーザを撮像して撮像情報を取得する工程と、受信された前記三次元形状情報と取得された前記撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する工程と、作成された前記化粧支援情報を出力する工程とを前記コンピュータに実行させる。   The invention according to claim 21 is a program readable by a computer carried by the user when the user applies makeup to the user, and receiving the three-dimensional shape information transmitted from an external measuring device. Acquiring the imaging information by imaging the user when applying makeup, and assisting the user in applying makeup based on the received three-dimensional shape information and the acquired imaging information. And causing the computer to execute the step of creating makeup assistance information and the step of outputting the created makeup assistance information.

請求項1ないし17に記載の発明は、据え置き型の装置として構成される計測装置に、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段を設け、ユーザによって携帯される携帯端末装置に、化粧を施す際のユーザを撮像して撮像情報を取得する撮像手段と、三次元形状情報と撮像手段により取得された撮像情報とに基づいて、ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段を設ける。このように、据え置き型の計測装置によって三次元形状情報を作成することにより、三次元形状情報を作成するときの手ブレなどを防止することができるため、三次元形状情報の精度が向上する。また、比較的負荷の掛かる処理を計測装置に実行させることによって、携帯端末装置として、市販の携帯電話やスマートフォンを採用することが可能となり、コストを抑制することができる。   The invention according to claims 1 to 17 is characterized in that a measuring device configured as a stationary device is provided with a three-dimensional measuring unit that acquires information on a user's three-dimensional shape and creates three-dimensional shape information. An imaging unit for imaging a user when applying makeup to a portable terminal device to be carried, and acquiring imaging information, and applying makeup to the user based on the three-dimensional shape information and the imaging information acquired by the imaging unit. An information creating means for creating makeup assistance information for assistance is provided. As described above, since the three-dimensional shape information is created by the stationary measuring device, it is possible to prevent camera shake and the like when creating the three-dimensional shape information, and thus the accuracy of the three-dimensional shape information is improved. In addition, by causing the measurement device to execute a process that requires a relatively large load, a commercially available mobile phone or smartphone can be used as the mobile terminal device, and costs can be reduced.

また、請求項18に記載の発明は、据え置き型の装置として構成される計測装置であって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、前記三次元計測手段により作成された三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する通信手段とを備える。このように、据え置き型の計測装置として機能するコンピュータによって三次元形状情報を作成することにより、三次元形状情報を作成するときの手ブレなどを防止することができるため、三次元形状情報の精度が向上する。   The invention according to claim 18 is a measuring device configured as a stationary device, wherein the three-dimensional measuring means for acquiring information on a three-dimensional shape of a user and creating three-dimensional shape information, While transmitting the three-dimensional shape information created by the three-dimensional measuring means to an external portable terminal device, according to the makeup support information and the makeup support information provided to the user transmitted by the portable terminal device. Communication means for receiving imaging information obtained by imaging the user who has applied makeup. As described above, since the three-dimensional shape information is created by the computer functioning as a stationary measurement device, it is possible to prevent camera shake and the like when creating the three-dimensional shape information. Is improved.

また、請求項19に記載の発明は、ユーザが自身に化粧を施す際に当該ユーザによって携帯される携帯端末装置であって、化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、外部から受信された三次元形状情報と撮像手段により取得された撮像情報とに基づいて、ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段とを備える。これにより、市販の携帯電話やスマートフォンを用いてシステムを構築することが可能となり、コストを抑制することができる。   An invention according to claim 19 is a portable terminal device carried by a user when the user applies makeup to the user, wherein the imaging device acquires the imaging information by imaging the user when applying makeup. Means, and information creation means for creating makeup support information for assisting makeup applied to the user based on the three-dimensional shape information received from outside and the imaging information acquired by the imaging means. As a result, a system can be constructed using a commercially available mobile phone or smartphone, and costs can be reduced.

また、請求項20に記載の発明は、据え置き型の装置として構成されるコンピュータによる読み取り可能なプログラムであって、ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する工程と、作成された前記三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する工程とを前記コンピュータに実行させる。このように、据え置き型の計測装置として機能するコンピュータによって三次元形状情報を作成することにより、三次元形状情報を作成するときの手ブレなどを防止することができるため、三次元形状情報の精度が向上する。   Further, the invention according to claim 20 is a computer-readable program configured as a stationary device, a step of obtaining information on a three-dimensional shape of a user and creating three-dimensional shape information, The created three-dimensional shape information was transmitted to an external portable terminal device, and makeup was applied according to the makeup support information provided to the user and the makeup support information transmitted by the portable terminal device. And receiving the imaging information of the user. As described above, since the three-dimensional shape information is created by the computer functioning as a stationary measurement device, it is possible to prevent camera shake and the like when creating the three-dimensional shape information. Is improved.

また、請求項21に記載の発明は、ユーザが自身に化粧を施す際に当該ユーザによって携帯されるコンピュータによる読み取り可能なプログラムであって、化粧を施す際の前記ユーザを撮像して撮像情報を取得する工程と、外部から受信された三次元形状情報と取得された撮像情報とに基づいて、ユーザに施す化粧を支援するための化粧支援情報を作成する工程とを前記コンピュータに実行させる。これにより、市販の携帯電話やスマートフォンを当該コンピュータとして採用することが可能となり、コストを抑制することができる。   The invention according to claim 21 is a program readable by a computer carried by a user when the user applies makeup to the user, and captures image information of the user when applying makeup. The computer causes the computer to execute an acquiring step and a step of creating makeup assistance information for assisting makeup applied to a user based on the three-dimensional shape information received from outside and the acquired imaging information. As a result, a commercially available mobile phone or smartphone can be used as the computer, and costs can be reduced.

化粧支援システムを示す図である。It is a figure showing a makeup support system. 計測装置のブロック図である。It is a block diagram of a measuring device. 計測装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which a measuring device is equipped with the flow of data. 携帯端末装置を示す外観図である。It is an external view which shows a portable terminal device. 携帯端末装置のブロック図である。It is a block diagram of a portable terminal device. 携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。FIG. 3 is a diagram illustrating functional blocks included in the mobile terminal device together with a data flow. 撮像情報に対して推定された光環境を例示する図である。FIG. 3 is a diagram illustrating an example of a light environment estimated for imaging information. 白色のキューブで構成される基準物体を撮像範囲に含めて撮像した撮像情報を例示する図である。FIG. 4 is a diagram illustrating an example of imaging information obtained by imaging a reference object including a white cube in an imaging range. 補正距離を説明するための図である。It is a figure for explaining a correction distance. 化粧の劣化度に基づいて作成される化粧支援情報を例示する図である。It is a figure which illustrates makeup assistance information created based on the degree of makeup deterioration. 推定部により推定された頬骨位置に応じて表示ユーザ画像にガイドを含めて表示する例を示す図である。It is a figure showing an example which displays a display user image including a guide according to a cheekbone position presumed by an presumption part. 撮像情報と化粧支援情報とを比較する図である。It is a figure which compares imaging information and makeup support information. 化粧を施すべき位置に関する情報を含む化粧支援情報を例示する図である。It is a figure which illustrates makeup assistance information including information on a position where makeup is to be applied. 化粧を施すべき位置に関する情報を含む化粧支援情報を例示する図である。It is a figure which illustrates makeup assistance information including information on a position where makeup is to be applied. 計測装置の動作を示す流れ図である。5 is a flowchart illustrating an operation of the measuring device. 計測装置の表示部に表示されるメニュー画像を例示する図である。It is a figure which illustrates the menu image displayed on the display part of a measuring device. 計測装置によって実行される三次元形状情報作成処理を示す流れ図である。5 is a flowchart showing a three-dimensional shape information creating process executed by the measuring device. 携帯端末装置の動作を示す流れ図である。4 is a flowchart illustrating an operation of the mobile terminal device. 携帯端末装置の表示部に表示されるメニュー画像を例示する図である。It is a figure which illustrates the menu image displayed on the display part of a portable terminal device. 携帯端末装置によって実行される化粧準備処理を示す流れ図である。5 is a flowchart illustrating a makeup preparation process performed by the mobile terminal device. 携帯端末装置によって実行される予測画像情報表示処理を示す流れ図である。9 is a flowchart illustrating a predicted image information display process executed by the mobile terminal device. 携帯端末装置によって実行される化粧支援処理を示す流れ図である。It is a flowchart which shows makeup assistance processing performed by a portable terminal device. 撮像情報と、化粧支援情報として表示される表示ユーザ画像とを示す図である。It is a figure showing imaging information and a display user image displayed as makeup assistance information.

1 化粧支援システム
10,20 CPU
100 データ取得部
101 推定部
102 情報作成部
11,21 記憶装置
110,210 プログラム
111 データベース
112 撮像情報
113 光環境情報
114 化粧支援情報
12,24 通信部
2 計測装置
200 計測制御部
201 モデル作成部
211 計測用撮像情報
212 三次元形状情報
22,32 操作部
23,33,34 表示部
25 計測部
26,35 撮像部
27 照明部
28 投光部
3 携帯端末装置
30 筐体部
31 本体部
70,71,72 目線
73 補正距離
80 基準物体
9 ネットワーク
1 makeup support system 10, 20 CPU
Reference Signs List 100 data acquisition unit 101 estimation unit 102 information creation unit 11, 21 storage device 110, 210 program 111 database 112 imaging information 113 light environment information 114 makeup support information 12, 24 communication unit 2 measuring device 200 measurement control unit 201 model creation unit 211 Measurement imaging information 212 Three-dimensional shape information 22, 32 Operation unit 23, 33, 34 Display unit 25 Measurement unit 26, 35 Imaging unit 27 Illumination unit 28 Projection unit 3 Portable terminal device 30 Housing unit 31 Main unit 70, 71 , 72 eyes 73 correction distance 80 reference object 9 network

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, unless otherwise specified in the following description, the description regarding the direction corresponds to the drawings for convenience of the description, and does not limit, for example, the embodiment, the product, the scope of right, and the like.

また、本出願では、2015年3月27日に日本国に出願された特許出願番号2015−066501の利益を主張し、当該出願の内容は引用することによりここに組み込まれているものとする。   This application claims the benefit of Patent Application No. 2015-066501, filed on March 27, 2015 in Japan, and the contents of the application are incorporated herein by reference.

図1は、化粧支援システム1を示す図である。化粧支援システム1は、ユーザの自宅などに設置される計測装置2と、ユーザが携帯する携帯端末装置3とを備えている。なお、化粧支援システム1が備える携帯端末装置3の数は、1台に限定されるものではない。例えば、家族の各人が携帯端末装置3をそれぞれ所持していてもよい。   FIG. 1 is a diagram illustrating the makeup support system 1. The makeup support system 1 includes a measuring device 2 installed at a user's home or the like, and a portable terminal device 3 carried by the user. Note that the number of portable terminal devices 3 provided in makeup assisting system 1 is not limited to one. For example, each member of the family may have the mobile terminal device 3.

図1に示すように、化粧支援システム1を構成する計測装置2および携帯端末装置3は、互いにデータ通信が可能なように、ネットワーク9を介して接続されている。図1では、計測装置2はネットワーク9に通信ケーブルで接続されている例を示しているが、計測装置2は無線通信を介してネットワーク9と接続されてもよい。また、携帯端末装置3は、ネットワーク9に接続された中継機(図示せず。)との間で無線通信を行うことにより、ネットワーク9に接続されている。このように、携帯端末装置3はネットワーク9との間で無線通信により接続されている。したがって、携帯端末装置3は、移動するユーザによる携帯(所持)が可能な装置として構成されている。   As shown in FIG. 1, the measuring device 2 and the portable terminal device 3 that constitute the makeup support system 1 are connected via a network 9 so that data communication can be performed between them. FIG. 1 shows an example in which the measuring device 2 is connected to the network 9 by a communication cable, but the measuring device 2 may be connected to the network 9 via wireless communication. Further, the mobile terminal device 3 is connected to the network 9 by performing wireless communication with a relay (not shown) connected to the network 9. Thus, the mobile terminal device 3 is connected to the network 9 by wireless communication. Therefore, the mobile terminal device 3 is configured as a device that can be carried (held) by a moving user.

また、以下の説明において「化粧時」とは、特に断らない限り、ユーザが現実に化粧を行っている瞬間のみならず、化粧を行うために化粧支援システム1(化粧を支援するためのアプリケーション)を起動したときから、ユーザが化粧の終了を指示したときまでの期間を指すものとする。したがって、例えば、化粧を行うために、ユーザが自身の状態を携帯端末装置3によりチェックしている期間なども「化粧時」に含むものとする。   In the following description, “at the time of makeup” means not only the moment when the user actually wears makeup, but also makeup assistance system 1 (application for assisting makeup) for performing makeup, unless otherwise specified. Is started until the user instructs the end of the makeup. Therefore, for example, a period during which the user checks his / her own state with the portable terminal device 3 in order to perform makeup is also included in the “makeup time”.

さらに、以下の説明では、外出先等において、他人に見られることを意識した装うための化粧を例に説明する。ただし、「化粧」は、装うための化粧に限定されるものではなく、健康や美しさを維持するための化粧(いわゆる「お手入れ」)も含む。   Further, in the following description, an example will be described in which makeup for consciousness of being seen by another person when going out or the like is taken as an example. However, "makeup" is not limited to makeup for dressing, but also includes makeup for maintaining health and beauty (so-called "care").

図2は、計測装置2のブロック図である。計測装置2は、CPU20、記憶装置21、操作部22、表示部23、通信部24および計測部25を備えている。計測装置2は、ユーザによって携帯される携帯端末装置3と異なり、据え置き型の装置として構成されている。このような計測装置2としては、例えば、デスクトップ型のパーソナルコンピュータなどを想定することができる。ただし、計測装置2は、汎用のパーソナルコンピュータに限定されるものではなく、例えば、自宅で使用する鏡台にコンピュータが組み込まれたような専用装置であってもよい。   FIG. 2 is a block diagram of the measuring device 2. The measurement device 2 includes a CPU 20, a storage device 21, an operation unit 22, a display unit 23, a communication unit 24, and a measurement unit 25. The measuring device 2 is configured as a stationary device unlike the portable terminal device 3 carried by the user. As such a measuring device 2, for example, a desktop personal computer or the like can be assumed. However, the measuring device 2 is not limited to a general-purpose personal computer, and may be, for example, a dedicated device in which a computer is incorporated in a mirror stand used at home.

CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、計測装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。これにより、計測装置2は、上記のように、一般的なコンピュータとして構成されている。   The CPU 20 reads and executes the program 210 stored in the storage device 21 to perform various data calculations, control signal generation, and the like. Thereby, the CPU 20 has a function of controlling each component of the measuring device 2 and calculating and creating various data. Thus, the measuring device 2 is configured as a general computer as described above.

記憶装置21は、計測装置2において各種データを記憶する機能を提供する。言い換えれば、記憶装置21が計測装置2において電子的に固定された情報を保存する。   The storage device 21 provides a function of storing various data in the measurement device 2. In other words, the storage device 21 stores the electronically fixed information in the measurement device 2.

記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD−ROM、DVD−ROM、PCカード、SDカード、USBメモリなど)等が該当する。図2においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である。   As the storage device 21, a RAM or buffer used as a temporary working area of the CPU 20, a read-only ROM, a non-volatile memory (for example, a NAND memory), a hard disk for storing a relatively large amount of data, a dedicated A portable storage medium (a CD-ROM, a DVD-ROM, a PC card, an SD card, a USB memory, and the like) mounted on the reading device corresponds to the above. In FIG. 2, the storage device 21 is illustrated as if it were one structure. However, usually, the storage device 21 is composed of a plurality of types of devices (or media) that are adopted as needed among the various devices (or media) exemplified above. That is, the storage device 21 is a general term for a group of devices having a function of storing data.

また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。図2に示すように、記憶装置21は、プログラム210、計測用撮像情報211および三次元形状情報212などを記憶するために使用される。   The actual CPU 20 is an electronic circuit having a RAM that can be accessed at high speed. However, such a storage device included in the CPU 20 will be described as being included in the storage device 21 for convenience of description. That is, the description is given on the assumption that the data temporarily stored by the CPU 20 itself is also stored in the storage device 21. As shown in FIG. 2, the storage device 21 is used to store a program 210, measurement imaging information 211, three-dimensional shape information 212, and the like.

操作部22は、計測装置2に対してオペレータ等が指示を入力するために操作するハードウェアである。操作部22としては、例えば、各種キーやボタン類、スイッチ、タッチパネル、ポインティングデバイス、あるいは、ジョグダイヤルなどが該当する。   The operation unit 22 is hardware operated by an operator or the like to input an instruction to the measurement device 2. The operation unit 22 includes, for example, various keys and buttons, a switch, a touch panel, a pointing device, and a jog dial.

表示部23は、各種データを表示することによりオペレータ等に対して出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、CRT、液晶ディスプレイや液晶パネルなどが該当する。また、これらのうちのいずれか1つに限定されるものではなく、複数のハードウェアが協働して表示部23を構成していてもよい。   The display unit 23 is hardware having a function of displaying various data and outputting the data to an operator or the like. Examples of the display unit 23 include a lamp, an LED, a CRT, a liquid crystal display, a liquid crystal panel, and the like. Further, the display unit 23 is not limited to any one of them, and a plurality of hardware may cooperate to configure the display unit 23.

通信部24は、計測装置2が携帯端末装置3とデータ通信を行う機能を提供する。すなわち、計測装置2は、通信部24により、携帯端末装置3から送信された情報を受信するとともに、携帯端末装置3に向けて情報を送信する。計測装置2が携帯端末装置3に向けて送信する情報としては、例えば、計測用撮像情報211および三次元形状情報212がある。   The communication unit 24 provides a function for the measurement device 2 to perform data communication with the mobile terminal device 3. That is, the measuring device 2 receives the information transmitted from the mobile terminal device 3 by the communication unit 24 and transmits the information to the mobile terminal device 3. Information transmitted from the measuring device 2 to the mobile terminal device 3 includes, for example, measurement imaging information 211 and three-dimensional shape information 212.

図2に示すように、計測部25は、撮像部26、照明部27および投光部28を備えている。詳細は以下に述べるが、計測部25は、一般的なパーソナルコンピュータに搭載されることが比較的稀なハードウェアで構成されている。逆に言えば、計測部25に相当するハードウェアをパーソナルコンピュータに接続し、プログラム210をインストールすれば、ユーザは容易に計測装置2を構成することができる。   As shown in FIG. 2, the measurement unit 25 includes an imaging unit 26, an illumination unit 27, and a light projection unit 28. As will be described in detail below, the measuring unit 25 is configured by hardware that is relatively rarely mounted on a general personal computer. Conversely, if the hardware corresponding to the measuring unit 25 is connected to a personal computer and the program 210 is installed, the user can easily configure the measuring device 2.

撮像部26は、被写体(ユーザ)を撮像して、計測用撮像情報211を取得する機能を有する。ここに示す撮像部26は、いわゆるカラーの動画像としての計測用撮像情報211を取得するものとして説明する。ここで動画像とは、所定のフレーム間隔で撮像された連続する静止画像の集合物を意味するものとする。   The imaging unit 26 has a function of capturing an image of a subject (user) and acquiring measurement imaging information 211. The following description is given on the assumption that the imaging unit 26 acquires measurement imaging information 211 as a so-called color moving image. Here, the moving image means a set of continuous still images captured at a predetermined frame interval.

なお、以下では、撮像部26が取得する画像情報を、すべて「計測用撮像情報211」と統一して称するが、撮像部26が取得する計測用撮像情報211は、必ずしも「計測用」に限定されるものではない。詳細は後述するが、化粧支援システム1は、計測用撮像情報211を、例えば、三次元形状情報212にマッピングするための「単なる」画像情報として流用する場合もある。   In the following, all the image information acquired by the imaging unit 26 will be referred to as “measurement imaging information 211”, but the measurement imaging information 211 acquired by the imaging unit 26 is not necessarily limited to “measurement information”. It is not something to be done. Although details will be described later, the makeup support system 1 may divert the measurement imaging information 211 as, for example, “simple” image information for mapping to the three-dimensional shape information 212.

また、撮像部26が取得する計測用撮像情報211は、カラー画像に限定されるものではなく、白黒画像であってもよい。例えば、物体(ユーザ)の三次元形状を計測するために必要とされる画像としては、カラー画像である必要はない。例えば、後述する計測用パターンを読み取れる形式であればよい。さらに、三次元計測に際しては、動画像でなくてもよく、動画像として撮像された計測用撮像情報211から、被写体の全周が撮像されるように(撮像されていない面が存在しないように)、複数の静止画像を抽出して計測してもよい。   Further, the measurement imaging information 211 acquired by the imaging unit 26 is not limited to a color image, and may be a monochrome image. For example, the image required for measuring the three-dimensional shape of the object (user) does not need to be a color image. For example, any format that can read a measurement pattern described later may be used. Further, at the time of three-dimensional measurement, the three-dimensional measurement need not be a moving image, but may be performed based on the measurement imaging information 211 captured as a moving image so that the entire circumference of the subject is imaged (so that there is no unimaged surface. ), A plurality of still images may be extracted and measured.

すなわち、撮像部26が取得する計測用撮像情報211は、説明を簡単にするために、カラーの動画像として説明するが、その用途に応じて、その様式や形式が適宜、選択されてもよい。   In other words, the measurement imaging information 211 obtained by the imaging unit 26 is described as a color moving image for simplicity of description, but the style and format may be appropriately selected according to the application. .

本実施の形態における計測装置2は、1つの撮像部26を備えており、当該撮像部26は固定されているものとして説明する。このような状態の撮像部26によって、計測装置2が被写体の全周にわたる計測用撮像情報211を取得するためには、当該撮像部26に対して被写体を自転させつつ撮像する必要がある。   The measurement device 2 according to the present embodiment includes one imaging unit 26, and the description will be given assuming that the imaging unit 26 is fixed. In order for the measurement device 2 to acquire the measurement imaging information 211 over the entire circumference of the subject by the imaging unit 26 in such a state, it is necessary to perform imaging while rotating the subject with respect to the imaging unit 26.

ただし、撮像部26を適宜移動可能に構成し、撮像部26を被写体の回りで周回移動させつつ計測用撮像情報211を撮像することによって、被写体の全周にわたる計測用撮像情報211を取得するようにしてもよい。あるいは、複数の撮像部26を、被写体の全周が撮像できるように、当該被写体の周囲に適当な間隔で固定的に配置して撮像してもよい。さらには、これらの構成を併用してもよい。すなわち、被写体の全周にわたる撮像が可能であれば、どのような構成が採用されてもよい。   However, the imaging unit 26 is configured to be movable as appropriate, and the measurement imaging information 211 over the entire circumference of the subject is obtained by imaging the measurement imaging information 211 while moving the imaging unit 26 around the subject. It may be. Alternatively, the plurality of image capturing units 26 may be fixedly arranged at appropriate intervals around the subject so as to capture an image of the entire circumference of the subject, and the image may be taken. Further, these configurations may be used in combination. That is, any configuration may be adopted as long as it is possible to capture an image of the entire circumference of the subject.

化粧支援システム1では、撮像部26が据え置き型の計測装置2に装備されており、計測用撮像情報211を撮像する環境(撮像方位など)を、任意に、かつ、高精度に調整することが可能である。したがって、例えば、撮影時に手ブレ等が発生したり、意図しない物体が撮像されるといった危険性は低く、安定した撮像が可能である。   In the makeup support system 1, the imaging unit 26 is provided in the stationary measurement device 2, and it is possible to arbitrarily and highly accurately adjust an environment (imaging direction and the like) for imaging the measurement imaging information 211. It is possible. Therefore, for example, there is a low risk that camera shake or the like occurs during shooting or an unintended object is imaged, and stable imaging can be performed.

照明部27は、撮像部26がユーザを撮像して計測用撮像情報211を取得するときの光環境を整える機能を有している。すなわち、計測用撮像情報211における光環境が、理想的な光環境となるように、照明部27はユーザに向けて照明光を照射する。理想的な光環境とは、例えば、後述する三次元形状情報212を作成するために適した光環境や、化粧の劣化度の基準となる計測用撮像情報211を取得するために適した光環境などである。このような光環境として、例えば、色温度に偏りの少ない光に照明された光環境で、かつ、ユーザに影が生じないような方向から光が照明された光環境などが想定される。   The illumination unit 27 has a function of adjusting a light environment when the imaging unit 26 captures an image of a user and acquires the measurement imaging information 211. That is, the illumination unit 27 irradiates the user with illumination light so that the light environment in the measurement imaging information 211 becomes an ideal light environment. The ideal light environment is, for example, a light environment suitable for creating three-dimensional shape information 212 described later or a light environment suitable for acquiring measurement imaging information 211 that is a reference of the degree of makeup deterioration. And so on. As such a light environment, for example, a light environment illuminated by light with a small deviation in color temperature and a light environment illuminated with light from a direction that does not cause a shadow to the user are assumed.

一般に、据え置き型の計測装置2の周囲の環境は、携帯型の装置の場合に比べて、安定的であり、かつ、ユーザによる調整が容易である。したがって、化粧支援システム1では、照明部27が据え置き型の計測装置2に装備されることにより、計測用撮像情報211を撮像する光環境を、任意に、かつ、高精度に調整することが可能となる。また、照明部27は比較的多くの電力を消費するハードウェアであるが、計測装置2(商用電力線に直接接続することができる。)に照明部27を設けることにより、電力供給に不安のない状況で被写体を照明することができる。   Generally, the environment around the stationary measurement device 2 is more stable and easier to adjust by the user than in the case of a portable device. Therefore, in the makeup support system 1, the lighting environment in which the measurement imaging information 211 is imaged can be arbitrarily and accurately adjusted by providing the illumination unit 27 in the stationary measurement device 2. Becomes The illumination unit 27 is hardware that consumes a relatively large amount of power. However, by providing the illumination unit 27 in the measuring device 2 (which can be directly connected to a commercial power line), there is no concern about power supply. The subject can be illuminated in the situation.

なお、照明部27による光環境は、既知の情報として、当該光環境において撮像された計測用撮像情報211に関連づけられる。また、照明部27による光環境は、例えばユーザの指示などによって、変更可能とされていてもよい。   The light environment of the lighting unit 27 is associated with the measurement imaging information 211 imaged in the light environment as known information. Further, the light environment of the lighting unit 27 may be changeable, for example, according to a user's instruction.

投光部28は、形状が既知のパターンを計測対象(化粧の対象となるユーザの身体部分)に向けて投射する機能を有している。投光部28は、人の視覚によって感知されることのない周波数の光により当該パターンを投射する。以下の説明では、投光部28によって投射されるパターンを、「計測用パターン」と称する。   The light projecting unit 28 has a function of projecting a pattern having a known shape toward a measurement target (a body part of a user to be makeup). The light projecting unit 28 projects the pattern with light having a frequency that is not perceived by human vision. In the following description, the pattern projected by the light projecting unit 28 is referred to as a “measurement pattern”.

投光部28は、照明部27と同様に、比較的多くの電力を消費するハードウェアである。しかし、化粧支援システム1は、計測装置2(商用電力線に直接接続することができる。)に投光部28を設けることにより、電力供給に不安のない状況で被写体に計測用パターンを投射することができる。   The light projecting unit 28 is hardware that consumes a relatively large amount of power, similarly to the lighting unit 27. However, the makeup support system 1 can project the measurement pattern on the subject in a situation where there is no concern about the power supply by providing the measuring device 2 (which can be directly connected to the commercial power line) with the light projecting unit 28. Can be.

ただし、撮像部26による撮像に際して、必ずしも計測用パターンは必須ではない。すなわち、計測用パターンが投射されていない状態のユーザを撮像して、計測用撮像情報211が取得されてもよい。先述のように、計測用撮像情報211は、三次元形状情報212を作成するためのみに用いられるものではない。詳細は後述するが、計測用撮像情報211は、時間経過における化粧の劣化度の判定などにも用いられる。このような用途における計測用撮像情報211においては、計測用パターンが撮像されていなくてもよい。   However, at the time of imaging by the imaging unit 26, the measurement pattern is not necessarily required. That is, the user may be imaged without the measurement pattern being projected, and the measurement imaging information 211 may be acquired. As described above, the measurement imaging information 211 is not used only for creating the three-dimensional shape information 212. Although details will be described later, the measurement imaging information 211 is also used for determining the degree of makeup deterioration over time. In the measurement imaging information 211 for such an application, the measurement pattern need not be imaged.

図3は、計測装置2が備える機能ブロックをデータの流れとともに示す図である。図3に示す計測制御部200およびモデル作成部201は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。   FIG. 3 is a diagram illustrating functional blocks included in the measuring device 2 together with a flow of data. The measurement control unit 200 and the model creation unit 201 illustrated in FIG. 3 are functional blocks realized by the CPU 20 operating according to the program 210.

計測制御部200は、操作部22からの制御信号(ユーザ指示)に応じて、照明部27および投光部28を制御する。これにより、基準の光環境を実現するように照明部27が照明を行うとともに、投光部28が被写体に向けて計測用パターンを投射する。なお、すでに説明したように、状況によっては、照明部27が照明を行わない場合や、投光部28が計測用パターンを投射しない場合もある。   The measurement control unit 200 controls the illumination unit 27 and the light projection unit 28 according to a control signal (user instruction) from the operation unit 22. Thereby, the illumination unit 27 illuminates so as to realize the reference light environment, and the light projection unit 28 projects the measurement pattern toward the subject. As described above, depending on the situation, the illumination unit 27 may not perform illumination, or the light projection unit 28 may not project the measurement pattern.

また、計測制御部200は、操作部22からの制御信号に応じて、撮像部26を制御して、撮像部26に被写体を撮像させる機能も有している。そして、計測制御部200は、撮像部26により取得された計測用撮像情報211を記憶装置21に転送し、記憶装置21に記憶させる。   The measurement control unit 200 also has a function of controlling the imaging unit 26 in accordance with a control signal from the operation unit 22 to cause the imaging unit 26 to image a subject. Then, the measurement control unit 200 transfers the measurement imaging information 211 acquired by the imaging unit 26 to the storage device 21 and causes the storage device 21 to store the information.

なお、計測用撮像情報211は、個々のユーザに対して1つに限定されるものではない。個々のユーザは、操作部22を操作することにより、複数の計測用撮像情報211を取得するように計測制御部200に指示することも可能である。例えば、ユーザは、操作部22から、繰り返し撮像指示を入力して、撮像部26に複数の計測用撮像情報211を撮像させることができる。   The measurement imaging information 211 is not limited to one for each user. Each user can instruct the measurement control unit 200 to acquire a plurality of pieces of measurement imaging information 211 by operating the operation unit 22. For example, the user can repeatedly input an imaging instruction from the operation unit 22 to cause the imaging unit 26 to image a plurality of pieces of measurement imaging information 211.

これにより、ユーザは、例えば、笑顔や真顔のように表情を変えて、それぞれの表情についての計測用撮像情報211を撮像させることができる。また、ユーザは、撮像部26による撮像倍率を変更しつつ計測用撮像情報211を取得させることにより、特定の部位(例えば、目の周辺部位)にズームした互いに撮像倍率の異なる複数の計測用撮像情報211を撮像させることもできる。   This allows the user to change the facial expression, for example, like a smiling face or a real face, and to capture the measurement imaging information 211 for each facial expression. Further, the user obtains the measurement imaging information 211 while changing the imaging magnification by the imaging unit 26, so that a plurality of measurement imaging images having different imaging magnifications and zooming to a specific part (for example, a part around the eye) are obtained. The information 211 can be imaged.

さらに、計測制御部200は、計測用撮像情報211を作成するときに、当該計測用撮像情報211に、様々な情報を関連づける。計測用撮像情報211に関連づけられる情報としては、撮像したときの光環境や表情識別子、撮像倍率、撮像方位、撮像時間などがある。ただし、これ以外にも、例えば、撮像時における計測用パターンの投射の有無や、撮像されているユーザの識別子、撮像日時などの情報が関連づけられてもよい。   Furthermore, when creating the measurement imaging information 211, the measurement control unit 200 associates various information with the measurement imaging information 211. Information associated with the measurement imaging information 211 includes a light environment at the time of imaging, a facial expression identifier, an imaging magnification, an imaging azimuth, and an imaging time. However, other than this, for example, information such as the presence or absence of the projection of the measurement pattern at the time of imaging, the identifier of the user who is being imaged, and the date and time of imaging may be associated.

モデル作成部201は、計測用撮像情報211に基づいて、ユーザの三次元形状に関する情報を取得して三次元形状情報212を作成する。   The model creation unit 201 acquires information on the three-dimensional shape of the user based on the measurement imaging information 211, and creates three-dimensional shape information 212.

具体的には、まず、モデル作成部201は、計測用撮像情報211(動画像を構成する1フレーム分の情報でもよい。)に画像認識処理を実行してユーザを表現している画像部分(以下、「ユーザ撮像画像」と称する。)を切り出す。なお、ここで言うユーザ撮像画像には、ユーザの身体そのもの以外に、服や帽子、リボン、眼鏡など、ユーザが身につけているもの(服装など)を含んでいてもよい。   More specifically, first, the model creating unit 201 performs an image recognition process on the measurement imaging information 211 (which may be information for one frame forming a moving image) and expresses an image part ( Hereinafter, this is referred to as a “user captured image”). In addition, the user-captured image referred to here may include, in addition to the user's body itself, clothing (hat), clothing, hats, ribbons, glasses, and the like.

次に、モデル作成部201は、ユーザ撮像画像(計測用撮像情報211)に撮像されている計測用パターンが、既知の形状に対して、どのように変形しているかを解析することにより、被写体(ユーザ)の形状を三次元で表現した数値情報に変換する。このような手法としては、従来の技術を採用することが可能であるため、ここではこれ以上の詳細な説明は省略する。そして、モデル作成部201は、この数値情報を三次元形状情報212とする。   Next, the model creation unit 201 analyzes how the measurement pattern captured in the user captured image (measurement imaging information 211) is deformed with respect to a known shape to obtain the subject. The (user) shape is converted into three-dimensional numerical information. As such a technique, a conventional technique can be adopted, and therefore, a more detailed description is omitted here. Then, the model creating unit 201 uses the numerical information as the three-dimensional shape information 212.

このように計測装置2は、被写体に向けて計測用パターンを投射しつつ、当該被写体を撮像する。これにより、撮像部26による撮像が、例えば、一方向(1つの撮像方位)からのみの撮像しかされていない場合であっても、ユーザに関する三次元形状情報212を取得することができる。   As described above, the measurement device 2 captures an image of the subject while projecting the measurement pattern toward the subject. Thereby, even when the imaging by the imaging unit 26 is performed only in one direction (one imaging direction), for example, the three-dimensional shape information 212 about the user can be acquired.

三次元の形状に関する三次元形状情報212を作成するための演算は、比較的、処理能力を要求される演算である。したがって、三次元形状情報212を作成する装置は、高性能な演算装置を必要とする。一方で、ユーザの三次元形状に関しては、自宅における形状と外出先における形状との間に大きな違いはないと考えられる。化粧支援システム1では、三次元形状情報212を作成するモデル作成部201が据え置き型の計測装置2に装備されている。このように、化粧支援システム1は、比較的重い演算を計測装置2に処理させることにより、一般的なパーソナルコンピュータに比べればパフォーマンスの劣る携帯端末装置3を、化粧支援システム1において採用することができる。   The calculation for creating the three-dimensional shape information 212 related to the three-dimensional shape is a calculation that requires relatively high processing capability. Therefore, a device that creates the three-dimensional shape information 212 requires a high-performance computing device. On the other hand, regarding the three-dimensional shape of the user, it is considered that there is no significant difference between the shape at home and the shape at the place where the user is going. In the makeup support system 1, the model creation unit 201 that creates the three-dimensional shape information 212 is provided in the stationary measurement device 2. As described above, the makeup assisting system 1 allows the measuring device 2 to process relatively heavy computations, so that the makeup assisting system 1 can employ the portable terminal device 3 that is inferior in performance to a general personal computer. it can.

なお、三次元形状情報212を取得する手法は、上記に限定されるものではない。ユーザ(化粧の対象となる部分)の三次元的な情報を取得することができるものであれば、例えば、ユーザを撮像しない構成であっても、適宜、採用可能である。三次元形状情報212を取得する手法として、例えば、TOF(Time Of Flight)や、パターン投影を行わない、ステレオ法や、DTAM(Dense Tracking And Mapping)等、複数視点画像から三次元形状を計測推定するstm(structure from motion)などの技術を採用することもできる。特に、睫毛のカール度合いについては、計測用パターンを投射することによる三次元形状情報212の作成が比較的困難であるため、計測用パターンを投射することのないDTAMなどの技術が適している。   Note that the method of acquiring the three-dimensional shape information 212 is not limited to the above. As long as it can acquire three-dimensional information of the user (the part to be applied), for example, a configuration in which the user is not imaged can be adopted as appropriate. As a method for acquiring the three-dimensional shape information 212, for example, measurement and estimation of a three-dimensional shape from a multi-viewpoint image such as a TOF (Time Of Flight), a stereo method without pattern projection, and a DTAM (Dense Tracking And Mapping). A technique such as stm (structure from motion) can be adopted. In particular, regarding the degree of curl of the eyelashes, since it is relatively difficult to create the three-dimensional shape information 212 by projecting the measurement pattern, a technique such as DTAM that does not project the measurement pattern is suitable.

また、モデル作成部201は、三次元形状情報212を作成するための計測用撮像情報211が作成されるたびに、対応する三次元形状情報212を作成する。したがって、三次元形状情報212を作成する目的で、複数の計測用撮像情報211が作成された場合、モデル作成部201は、それぞれに対応する三次元形状情報212を作成する。   Further, each time the measurement imaging information 211 for creating the three-dimensional shape information 212 is created, the model creating unit 201 creates the corresponding three-dimensional shape information 212. Therefore, when a plurality of pieces of measurement imaging information 211 are created for the purpose of creating the three-dimensional shape information 212, the model creating unit 201 creates the corresponding three-dimensional shape information 212.

複数の計測用撮像情報211がユーザの異なる表情について作成されている場合、モデル作成部201は、ユーザの異なる表情についてそれぞれ作成された計測用撮像情報211に基づいて、それぞれの表情に対応した三次元形状情報212を作成する。このように、モデル作成部201は、ユーザの互いに異なる表情に対応した複数の三次元形状情報212を作成する機能を有している。   When a plurality of pieces of measurement imaging information 211 are created for different facial expressions of a user, the model creating unit 201 creates a tertiary image corresponding to each facial expression based on the measurement imaging information 211 created for each of the different facial expressions of the user. The original shape information 212 is created. As described above, the model creating unit 201 has a function of creating a plurality of three-dimensional shape information 212 corresponding to different facial expressions of a user.

複数の計測用撮像情報211が撮像倍率を変更して作成されている場合、モデル作成部201は、それぞれの撮像倍率における計測用撮像情報211に基づいて、それぞれの撮像倍率に対応した三次元形状情報212を作成する。このように、モデル作成部201は、ユーザの特定の部位について精度の異なる複数の三次元形状情報212を作成する機能を有している。   When the plurality of measurement imaging information 211 is created by changing the imaging magnification, the model creating unit 201 determines the three-dimensional shape corresponding to each imaging magnification based on the measurement imaging information 211 at each imaging magnification. The information 212 is created. As described above, the model creating unit 201 has a function of creating a plurality of pieces of three-dimensional shape information 212 having different accuracy for a specific part of the user.

さらに、モデル作成部201は、三次元形状情報212を作成するときに、当該三次元形状情報212と関連づけて送信すべき計測用撮像情報211(携帯端末装置3において利用される。)を特定して、当該関連づけを行う。したがって、通信部24は、作成された三次元形状情報212を携帯端末装置3に向けて送信するときに、当該三次元形状情報212と関連づけて送信すべき計測用撮像情報211を特定して、送信することが可能である。   Furthermore, when creating the three-dimensional shape information 212, the model creating unit 201 specifies measurement imaging information 211 (used in the mobile terminal device 3) to be transmitted in association with the three-dimensional shape information 212. To make the association. Therefore, when transmitting the created three-dimensional shape information 212 to the portable terminal device 3, the communication unit 24 specifies the measurement imaging information 211 to be transmitted in association with the three-dimensional shape information 212, It is possible to send.

ただし、三次元形状情報212とともに送信される計測用撮像情報211は、当該三次元形状情報212を作成する元となった計測用撮像情報211に限定されるものではない。また、三次元形状情報212を作成するときに用いられたすべての計測用撮像情報211を、当該三次元形状情報212とともに送信しなければならないものでもない。   However, the measurement imaging information 211 transmitted together with the three-dimensional shape information 212 is not limited to the measurement imaging information 211 from which the three-dimensional shape information 212 was created. Also, all the measurement imaging information 211 used when creating the three-dimensional shape information 212 does not have to be transmitted together with the three-dimensional shape information 212.

図4は、携帯端末装置3を示す外観図である。図4に示すように、携帯端末装置3は、筐体部30、本体部31、操作部32、表示部33,34、および、撮像部35を備えている。携帯端末装置3は、ユーザによる携帯が可能な装置として構成されている。すなわち、ユーザは携帯端末装置3を所持して、様々な場所に移動することが可能であるとともに、移動先において、自由に携帯端末装置3を起動させ、使用することができる。   FIG. 4 is an external view showing the portable terminal device 3. As shown in FIG. 4, the mobile terminal device 3 includes a housing unit 30, a main body unit 31, an operation unit 32, display units 33 and 34, and an imaging unit 35. The mobile terminal device 3 is configured as a device that can be carried by a user. That is, the user can carry the portable terminal device 3 and move to various places, and can freely start and use the portable terminal device 3 at the destination.

筐体部30は、略箱状の構造物であり、折りたたまれた状態の本体部31を内部に収納する。これにより、携帯端末装置3は、ユーザによって携帯されるときには、さらに持ち運びが便利なように小型化される。また、筐体部30は、表示部33,34を内部に収容することにより、表示部33,34を保護する機能も有している。   The housing 30 is a substantially box-shaped structure, and accommodates the main body 31 in a folded state. Thereby, when the portable terminal device 3 is carried by the user, the portable terminal device 3 is downsized so as to be more portable. The housing unit 30 also has a function of protecting the display units 33 and 34 by housing the display units 33 and 34 therein.

本体部31は、矩形の板状の構造物であり、前面に表示部33が設けられるとともに、上部前面に撮像部35が設けられている。本体部31は、図示しない軸を中心に回動可能である。これにより、携帯端末装置3は、本体部31が筐体部30から取り出された状態と、本体部31が筐体部30の内部に収納された状態との間で可逆的に変形が可能である。すなわち、携帯端末装置3は、本体部31を折りたたむことにより、筐体部30に収納することができる。   The main body unit 31 is a rectangular plate-like structure, and has a display unit 33 on the front surface and an imaging unit 35 on the upper front surface. The main body 31 is rotatable about an axis (not shown). Thereby, the portable terminal device 3 can be reversibly deformed between a state where the main body 31 is removed from the housing 30 and a state where the main body 31 is housed inside the housing 30. is there. That is, the portable terminal device 3 can be stored in the housing 30 by folding the main body 31.

操作部32は、携帯端末装置3に対してユーザが指示を入力するために操作されるハードウェアである。図4では、操作部32として複数のボタンを図示している。しかし、携帯端末装置3は、図4に示すボタン以外にも操作部32として、タッチパネルを備えている。すなわち、表示部33,34の表面にタッチセンサが設けられており、ユーザは画面に触れることによって指示情報を携帯端末装置3に対して入力することができるように構成されている。これ以外にも、操作部32として、例えば、各種キーやスイッチ、ポインティングデバイス、あるいは、ジョグダイヤルなどを備えていてもよい。   The operation unit 32 is hardware operated for a user to input an instruction to the mobile terminal device 3. FIG. 4 illustrates a plurality of buttons as the operation unit 32. However, the mobile terminal device 3 includes a touch panel as the operation unit 32 in addition to the buttons shown in FIG. That is, touch sensors are provided on the surfaces of the display units 33 and 34, and the user can input instruction information to the portable terminal device 3 by touching the screen. In addition, the operation unit 32 may include, for example, various keys, switches, a pointing device, or a jog dial.

表示部33,34は、各種データを画面に表示することにより、ユーザに対して当該各種データを出力する機能を有するハードウェアである。図4では表示部33,34として液晶ディスプレイを例示している。ユーザは化粧中において、表示部33,34を閲覧することにより、携帯端末装置3から様々な情報を受け取ることが可能である。これにより、ユーザは適切で高度な化粧を容易に楽しむことができる。なお、表示部33,34として、液晶ディスプレイ以外にも、例えば、ランプやLED、液晶パネルなどを備えていてもよい。   The display units 33 and 34 are hardware having a function of displaying various data on a screen and outputting the various data to the user. FIG. 4 illustrates a liquid crystal display as the display units 33 and 34. The user can receive various information from the portable terminal device 3 by browsing the display units 33 and 34 during makeup. This allows the user to easily enjoy appropriate advanced makeup. The display units 33 and 34 may include, for example, a lamp, an LED, a liquid crystal panel, and the like, in addition to the liquid crystal display.

撮像部35は、一般的なデジタルカメラを構成しており、被写体(ユーザ)を撮像して、撮像情報112(図5参照。)を取得する。以下では、説明を簡単にするために、特に断らない限り、撮像部35は、カラーの動画像としての撮像情報112を取得するものとして説明する。ここで動画像とは、所定のフレーム間隔で撮像された連続する静止画像の集合物として撮像情報112が取得されることを言うものとする。   The imaging unit 35 is configured as a general digital camera, captures an image of a subject (user), and acquires imaging information 112 (see FIG. 5). Hereinafter, for the sake of simplicity, the description will be made assuming that the imaging unit 35 acquires the imaging information 112 as a color moving image unless otherwise specified. Here, a moving image means that the imaging information 112 is acquired as a collection of continuous still images captured at a predetermined frame interval.

ただし、撮像部35が取得する撮像情報112は、カラー画像に限定されるものではなく、白黒画像であってもよい。また、動画像でなくてもよい。すなわち、撮像情報112の用途等に応じて、適宜、取得する撮像情報112の形式等が選択されてもよい。   However, the imaging information 112 acquired by the imaging unit 35 is not limited to a color image, and may be a black and white image. Further, the moving image need not be a moving image. That is, the format or the like of the acquired imaging information 112 may be appropriately selected according to the use of the imaging information 112 or the like.

図5は、携帯端末装置3のブロック図である。携帯端末装置3は、図4に示す構成の他に、CPU10、記憶装置11および通信部12を備えている。   FIG. 5 is a block diagram of the mobile terminal device 3. The mobile terminal device 3 includes a CPU 10, a storage device 11, and a communication unit 12 in addition to the configuration illustrated in FIG.

CPU10は、記憶装置11に格納されているプログラム110を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU10は、携帯端末装置3が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置3は、一般的なコンピュータとして構成されている。   The CPU 10 reads and executes the program 110 stored in the storage device 11 to perform various data calculations and control signal generation. Thereby, the CPU 10 has a function of controlling each component included in the mobile terminal device 3 and calculating and creating various data. That is, the mobile terminal device 3 is configured as a general computer.

記憶装置11は、携帯端末装置3において各種データを記憶する機能を提供する。言い換えれば、記憶装置11が携帯端末装置3において電子的に固定された情報を保存する。   The storage device 11 provides a function of storing various data in the mobile terminal device 3. In other words, the storage device 11 stores electronically fixed information in the mobile terminal device 3.

記憶装置11としては、CPU10の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、専用の読み取り装置に装着された可搬性の記憶媒体(SDカードやUSBメモリなど)等が該当する。図5においては、記憶装置11を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置11は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置11は、データを記憶する機能を有する装置群の総称である。   As the storage device 11, a RAM or a buffer used as a temporary working area of the CPU 10, a read-only ROM, a non-volatile memory (for example, a NAND memory), a portable storage medium attached to a dedicated reading device (Such as an SD card or a USB memory). In FIG. 5, the storage device 11 is illustrated as if it were one structure. However, usually, the storage device 11 is configured by a plurality of types of devices that are adopted as needed from the various devices (or media) exemplified above. That is, the storage device 11 is a general term for a group of devices having a function of storing data.

また、現実のCPU10は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU10が備える記憶装置も、説明の都合上、記憶装置11に含めて説明する。すなわち、一時的にCPU10自体が記憶するデータも、記憶装置11が記憶するとして説明する。図5に示すように、記憶装置11は、プログラム110、データベース111、撮像情報112、および、化粧支援情報114などを記憶するために使用される。   The actual CPU 10 is an electronic circuit having a RAM that can be accessed at high speed. However, such a storage device included in the CPU 10 will also be described as being included in the storage device 11 for convenience of description. That is, the description will be made on the assumption that the data temporarily stored by the CPU 10 itself is also stored in the storage device 11. As shown in FIG. 5, the storage device 11 is used to store a program 110, a database 111, imaging information 112, makeup support information 114, and the like.

ここで、データベース111には、オーナー情報、状況に応じた化粧の仕方(濃度、塗布位置、塗り方、力加減、使用する物品種別など)に関する情報、披露場所に応じた光環境を示す光環境情報113などが格納されている。   Here, the database 111 includes information on owner information, information on how to apply makeup according to the situation (density, application position, how to apply, power, type of article to be used, etc.), and a light environment indicating a light environment according to the place of presentation. Information 113 and the like are stored.

オーナー情報とは、ユーザの性別や年齢、好みといった化粧に影響を与える個人情報、ユーザが所持している物品(化粧品や道具類など)に関する情報、ユーザ個人を撮像した画像情報である計測用撮像情報211、ユーザ個人の三次元の形状を示す三次元形状情報212などである。   The owner information includes personal information that affects makeup such as the user's gender, age, and preference, information about articles (cosmetics, tools, and the like) possessed by the user, and measurement imaging that is image information of the user. The information 211 includes three-dimensional shape information 212 indicating a three-dimensional shape of the user.

オーナー情報に含まれる計測用撮像情報211は、上記のとおりユーザ個人を表現した画像情報である。しかし、携帯端末装置3の撮像部35によって取得される撮像情報112ではない。すでに説明したように、計測用撮像情報211は、計測装置2の撮像部26によって撮像され、携帯端末装置3に向けて送信された情報である。すなわち、計測用撮像情報211は、予めユーザの自宅などにおいて撮像され準備された情報である。予め自宅などで撮像される計測用撮像情報211には、ユーザの部位のうち、化粧中に携帯端末装置3によって撮像することが困難な部位を被写体として含めることもできる。   The measurement imaging information 211 included in the owner information is image information expressing a user as described above. However, it is not the imaging information 112 acquired by the imaging unit 35 of the mobile terminal device 3. As described above, the measurement imaging information 211 is information captured by the imaging unit 26 of the measurement device 2 and transmitted to the mobile terminal device 3. That is, the measurement imaging information 211 is information prepared by being imaged in advance at the user's home or the like. The measurement imaging information 211 that is captured in advance at home or the like may include, as a subject, a part of the user that is difficult to be imaged by the mobile terminal device 3 during makeup.

携帯端末装置3を用いてユーザが化粧を行う場合において、ユーザは、表示部33,34に表示される化粧支援情報114を閲覧している。したがって、当該化粧中において、ユーザは、表示部33,34を閲覧しやすいように、携帯端末装置3をユーザに正対させて配置し維持することが予想される。このような位置関係に配置されると、撮像部35もユーザに正対し、撮像部35は正面からしかユーザを撮像することができない。したがって、正面に向いていないユーザの部位については、当該化粧時にリアルタイムで撮像することは困難である。このような部位としては、例えば、側頭部や後頭部、頭頂部、喉部などが想定される。   When the user performs makeup using the mobile terminal device 3, the user is viewing makeup assistance information 114 displayed on the display units 33 and 34. Therefore, during the makeup, the user is expected to arrange and maintain the mobile terminal device 3 facing the user so that the display units 33 and 34 can be easily viewed. When arranged in such a positional relationship, the imaging unit 35 also faces the user, and the imaging unit 35 can image the user only from the front. Therefore, it is difficult to image a part of the user who is not facing the front in real time during the makeup. As such a site, for example, a temporal region, an occipital region, a parietal region, a throat region, and the like are assumed.

詳細は後述するが、化粧支援システム1では、ユーザは、携帯端末装置3を用いた化粧時において撮像が困難な部位を、計測装置2を用いて予め撮像し、当該計測装置2に計測用撮像情報211を作成させる。そして、化粧支援システム1は、当該計測用撮像情報211を携帯端末装置3に転送し、後の利用のために、三次元形状情報212とともにデータベース111に格納しておくのである。すなわち、撮像情報112として取得することが困難な部位を表示する必要が生じた場合、当該部位を予め撮像しておいた計測用撮像情報211を用いて当該部位についての画像を生成する。   Although details will be described later, in the makeup support system 1, the user captures an image of a part that is difficult to capture during makeup using the mobile terminal device 3 using the measurement device 2 in advance, and the measurement device 2 performs measurement imaging. The information 211 is created. Then, the makeup support system 1 transfers the measurement imaging information 211 to the portable terminal device 3 and stores it in the database 111 together with the three-dimensional shape information 212 for later use. That is, when it is necessary to display a part that is difficult to acquire as the imaging information 112, an image of the part is generated using the measurement imaging information 211 in which the part is imaged in advance.

なお、この場合の計測用撮像情報211は動画像である必要はなく、各部位についてフレーム1枚分の静止画像のみであってもよい。ただし、当該計測用撮像情報211は、必ずしも部位を選択的に撮像した情報でなければならないわけではなく、例えば、ユーザの頭部の全周にわたって撮像されていてもよい。   Note that the measurement imaging information 211 in this case does not need to be a moving image, and may be only one frame of still image for each part. However, the measurement imaging information 211 does not necessarily have to be information obtained by selectively imaging a part. For example, the measurement imaging information 211 may be imaged over the entire circumference of the user's head.

また、データベース111に含まれる披露場所に応じた光環境とは、ユーザが化粧した状態を披露する場所として想定される場所ごとの、想定される光環境である。すなわち、記憶装置11は、データベース111を記憶することにより、ユーザの化粧を披露する場所における光環境を示す光環境情報113を記憶する。   Further, the light environment corresponding to the presentation place included in the database 111 is an assumed light environment for each place that is assumed to be a place where the user shows a makeup state. That is, the storage device 11 stores the light environment information 113 indicating the light environment at the place where the makeup of the user is shown by storing the database 111.

化粧の典型的な披露場所としては、例えば、公園や海岸といった屋外や、オフィス、住宅の室内、レストラン内、バーのカウンタ、ホテルのロビー、イベント会場、車内などが想定される。また、屋外については、時間や天候など、日照状況による変化も想定される。携帯端末装置3では、予め予想される披露場所ごとに、当該披露場所において想定される光環境を取得しておき、データベース111に格納しておく。また、詳細は後述するが、光環境情報113は、撮像部35により撮像された撮像情報112に基づいて、当該撮像情報112が撮像されたときの光環境を推定して、更新される場合がある。   Typical places where makeup is exhibited are, for example, outdoors such as parks and seashores, offices, houses indoors, restaurants, bar counters, hotel lobbies, event venues, and cars. Also, in the case of outdoors, changes due to sunshine conditions such as time and weather are also assumed. The portable terminal device 3 acquires the light environment assumed at the show location for each show place expected in advance, and stores the light environment in the database 111. Although details will be described later, the light environment information 113 may be updated based on the imaging information 112 captured by the imaging unit 35 by estimating the light environment when the imaging information 112 is captured. is there.

携帯端末装置3は、図4に示すように2つの表示部33,34を備えており、いわゆるツインディスプレイ構造の装置として構成されている。携帯端末装置3において、表示部33,34は、化粧支援情報114を表示する機能を有している。   The mobile terminal device 3 includes two display units 33 and 34 as shown in FIG. 4 and is configured as a device having a so-called twin display structure. In the mobile terminal device 3, the display units 33 and 34 have a function of displaying the makeup support information 114.

なお、以下の説明では、説明を簡単にするために、化粧支援情報114を表示部33に表示する例で説明する。ただし、特に断らない限り、化粧支援情報114は、表示部34に表示されてもよいし、表示部33と表示部34とに分割して表示されてもよい。例えば、携帯端末装置3は、現在の状態の画像を表示部33に表示させつつ、同時に化粧の完成した状態の画像を表示部34に表示させることができる。あるいは、正面からユーザの顔をみたときの画像を表示部33に表示させつつ、ユーザの横顔の画像を表示部34に表示させるといったことも可能である。   In the following description, an example in which makeup assisting information 114 is displayed on display unit 33 will be described for the sake of simplicity. However, the makeup support information 114 may be displayed on the display unit 34 or may be displayed separately on the display unit 33 and the display unit 34 unless otherwise specified. For example, the portable terminal device 3 can cause the display unit 34 to display an image in a state where makeup is completed while displaying the image in the current state on the display unit 33. Alternatively, it is also possible to display an image of the user's profile on the display unit 34 while displaying an image of the user's face from the front on the display unit 33.

通信部12は、無線によるデータ通信を実現する。通信部12を備えることにより、携帯端末装置3は、ネットワーク9に接続して、計測装置2との間でデータ通信を行うことができる。特に、通信部12は、計測装置2から送信される計測用撮像情報211および三次元形状情報212を受信する。   The communication unit 12 implements wireless data communication. By providing the communication unit 12, the portable terminal device 3 can perform data communication with the measurement device 2 by connecting to the network 9. In particular, the communication unit 12 receives the measurement imaging information 211 and the three-dimensional shape information 212 transmitted from the measurement device 2.

図6は、携帯端末装置3が備える機能ブロックをデータの流れとともに示す図である。図6に示すデータ取得部100、推定部101、および、情報作成部102は、CPU10がプログラム110に従って動作することにより実現される機能ブロックである。   FIG. 6 is a diagram showing functional blocks provided in the portable terminal device 3 together with the flow of data. The data acquisition unit 100, the estimation unit 101, and the information creation unit 102 shown in FIG. 6 are functional blocks realized by the CPU 10 operating according to the program 110.

データ取得部100は、通信部12によって受信された計測用撮像情報211および三次元形状情報212、操作部32から転送される入力情報、および、撮像部35によって取得された撮像情報112などに基づいて、データベース111を管理(作成および更新)する機能を有している。   The data acquisition unit 100 is based on the measurement imaging information 211 and the three-dimensional shape information 212 received by the communication unit 12, the input information transferred from the operation unit 32, the imaging information 112 acquired by the imaging unit 35, and the like. In addition, it has a function of managing (creating and updating) the database 111.

特に、データ取得部100は、撮像部35により撮像された撮像情報112に基づいて、当該撮像情報112が撮像されたときの光環境を推定して、記憶装置11に記憶されている光環境情報113を更新する。   In particular, the data acquisition unit 100 estimates the light environment at the time when the imaging information 112 is captured based on the imaging information 112 captured by the imaging unit 35, and stores the light environment information stored in the storage device 11. Update 113.

光環境情報113として、データ取得部100は、光の光線方向および光線強度を推定するとともに、ユーザに向けて照射されている光の色を推定する。データ取得部100が化粧時(現在)における光環境を推定(特定)する手法としては、例えば、以下の手法を採用することができる。   As the light environment information 113, the data acquisition unit 100 estimates the light ray direction and the light intensity of the light, and also estimates the color of the light emitted toward the user. As a method for the data acquisition unit 100 to estimate (specify) the light environment at the time of makeup (current), for example, the following method can be adopted.

まず、三次元形状情報212に特定の方向から特定強度の光を当てた場合のレンダリング画像を、光の方向や強度を変更しつつ複数作成する。そして、当該複数のレンダリング画像と、撮像情報112との輝度分布を比較することにより、最も一致度合いの高い組み合わせを、当該撮像情報112が撮像されたときの光環境(光の方向および強度)として特定する。   First, a plurality of rendering images in the case where light of a specific intensity is applied to the three-dimensional shape information 212 from a specific direction is created while changing the direction and intensity of the light. Then, by comparing the luminance distribution between the plurality of rendered images and the imaging information 112, the combination having the highest degree of matching is determined as the light environment (direction and intensity of light) when the imaging information 112 is captured. Identify.

図7は、撮像情報112に対して推定された光環境を例示する図である。このように、光線の方向および光線の強度を推定することによって、例えば、口元などの黒い領域は「影」であると判定できる。これにより、例えば、誤ってその領域を化粧品で塗るように指示を出すことを避けることができる。   FIG. 7 is a diagram illustrating an example of the light environment estimated for the imaging information 112. In this way, by estimating the direction of the light beam and the intensity of the light beam, for example, a black area such as the mouth can be determined to be a “shadow”. Thereby, for example, it is possible to avoid giving an instruction to apply the cosmetic by mistake to the area.

また、化粧時の光環境における光の色を推定する手法としては、色が既知の基準物体(例えば白色のキューブなど)を撮像して撮像情報112を作成する。そして、当該撮像情報112において、当該物体の色がどのように撮像されているかを解析することにより、当該物体に照射されている光の色(すなわち、撮像時の光環境における光の色)を推定する。   As a method of estimating the color of light in the light environment at the time of makeup, the imaging information 112 is created by imaging a reference object (for example, a white cube or the like) having a known color. Then, by analyzing how the color of the object is imaged in the imaging information 112, the color of light applied to the object (that is, the color of light in the light environment at the time of imaging) is determined. presume.

図8は、白色のキューブで構成される基準物体80を撮像範囲に含めて撮像した撮像情報112を例示する図である。図8に示す撮像情報112において、データ取得部100は、基準物体80を表現する画素の色彩を判定し、基準物体80の既知の色彩と比較することにより、当該撮像情報112が撮像されたときの光環境情報113を特定する。   FIG. 8 is a diagram exemplifying imaging information 112 obtained by imaging the reference object 80 including a white cube in the imaging range. In the imaging information 112 illustrated in FIG. 8, the data acquisition unit 100 determines the color of a pixel that represents the reference object 80 and compares the color with a known color of the reference object 80 so that the imaging information 112 is captured. The light environment information 113 is specified.

このように、化粧支援システム1は、ユーザが実際に撮像した場所における光環境情報113を取得することができる。すなわち、ユーザは、化粧中における光環境のみならず、自身が頻繁に通う場所(化粧を披露する場所)についての光環境情報113を当該場所に赴いて撮像することにより予め収集しておくこともできる。このように、任意の場所の光環境情報113を予め収集しておくことによって、次回から、当該場所における光環境情報113に基づいて化粧支援情報114を作成することができる。   In this way, the makeup support system 1 can acquire the light environment information 113 at the place where the user actually took an image. That is, the user may collect in advance not only the light environment during makeup but also the light environment information 113 about the place where he or she frequently visits (the place where makeup is presented) by going to the place and taking an image. it can. As described above, by collecting the light environment information 113 of an arbitrary place in advance, the makeup support information 114 can be created from the next time based on the light environment information 113 of the place.

なお、ユーザの髪の毛や、常時使用している眼鏡の縁など、あまり頻繁に色が変化しない物体で、かつ、ユーザ自身を撮像することにより、自然に撮像情報112として取得することが可能な物体を基準物体80として選択することもできる。このような物体を、基準物体80として登録しておくことにより、別途、ユーザが意識して基準物体80を持参し撮像する必要がなくなるため、ユーザの負担が軽減される。   Note that an object that does not change color very often, such as the user's hair or the edge of eyeglasses that are always used, and an object that can be naturally acquired as the imaging information 112 by imaging the user himself May be selected as the reference object 80. By registering such an object as the reference object 80, it is not necessary for the user to consciously bring the reference object 80 and take an image, thereby reducing the burden on the user.

図6に示す推定部101は、撮像情報112や計測用撮像情報211、三次元形状情報212に基づいて、化粧時における様々な状況や状態を推定し、その推定結果を情報作成部102に伝達する機能を有している。なお、推定部101から情報作成部102に向けて伝達される推定結果を、以下、「推定情報」と総称する。   The estimating unit 101 illustrated in FIG. 6 estimates various situations and states during makeup based on the imaging information 112, the measurement imaging information 211, and the three-dimensional shape information 212, and transmits the estimation result to the information creating unit 102. It has the function to do. Note that the estimation result transmitted from the estimation unit 101 to the information creation unit 102 is hereinafter collectively referred to as “estimation information”.

例えば、推定部101は、ユーザの化粧時における化粧品の塗布速度を推定し、推定情報とする。塗布速度は、例えば、どの程度の距離をどの程度の時間をかけて塗布しているかによって求めることができる。どの程度の距離かは、三次元形状情報212および/または撮像情報112に基づいて求めることが可能である。また、どの程度の時間をかけて塗布しているかは、動画像として取得されている撮像情報112に基づいて当該撮像情報112のフレーム数などにより求めることができる。   For example, the estimating unit 101 estimates the application speed of the cosmetic at the time of makeup of the user, and uses the estimated application speed as estimation information. The application speed can be determined, for example, based on how much distance is applied and how long is applied. The distance can be determined based on the three-dimensional shape information 212 and / or the imaging information 112. In addition, how long the application is performed can be determined from the number of frames of the imaging information 112 based on the imaging information 112 acquired as a moving image.

また、推定部101は、例えば、ユーザの顔の立体形状を三次元形状情報212を元にして解析し、その起伏の分布状態から、ユーザの頬骨位置や目の位置など、化粧を施す際のポイントとなりうる特徴的な部位を特定し、推定情報とする。例えば、頬骨位置は、ある程度の広さを持った立体的な領域(起伏領域)として特定され、個々のユーザに固有の形状を有する領域となる。頬骨位置は、当該ユーザに化粧を施す位置を決めるための参考となる。   The estimating unit 101 also analyzes, for example, the three-dimensional shape of the user's face based on the three-dimensional shape information 212 and, based on the distribution of the undulations, applies makeup such as the user's cheekbone position and eye position. A characteristic part that can be a point is specified and used as estimation information. For example, the cheekbone position is specified as a three-dimensional area (undulating area) having a certain size, and is an area having a shape unique to each user. The cheekbone position is a reference for determining a position where makeup is applied to the user.

また、推定部101は、化粧時における光環境情報113に応じて、ユーザの化粧時における顔色を推定し、推定情報とする。例えば、推定部101は、化粧時における光環境の影響を、化粧時に撮像された撮像情報112(ユーザ撮像画像)の顔肌部分から除去することにより、化粧時のユーザの顔色を特定する。   The estimating unit 101 estimates the face color of the user at the time of makeup according to the light environment information 113 at the time of makeup, and uses the color as estimation information. For example, the estimation unit 101 specifies the face color of the user at the time of makeup by removing the influence of the light environment at the time of makeup from the skin portion of the imaging information 112 (user captured image) captured at the time of makeup.

また、推定部101は、三次元形状情報212と撮像情報112とに基づいて、当該撮像情報112における撮像ズレ角を推定し、推定情報とする。   Further, the estimating unit 101 estimates an imaging shift angle in the imaging information 112 based on the three-dimensional shape information 212 and the imaging information 112, and uses the angle as estimation information.

本実施の形態における推定部101が撮像ズレ角を推定する原理について説明する。まず、推定部101は、三次元形状情報212に表現されているユーザの部位(例えば顔)について、当該三次元形状情報212を用いて当該部位が正対した状態を想定する。そして、想定した当該部位が正対した状態において、当該部位に含まれるユーザの各部位(例えば眉毛、目、鼻、唇、耳など)の位置を特定する。   The principle by which the estimation unit 101 according to the present embodiment estimates the imaging shift angle will be described. First, the estimating unit 101 assumes a state in which a part of a user (for example, a face) expressed in the three-dimensional shape information 212 faces the user using the three-dimensional shape information 212. Then, in a state where the assumed part is directly facing, the position of each part (for example, eyebrows, eyes, nose, lips, ears, etc.) of the user included in the part is specified.

次に、撮像情報112を用いて当該撮像情報112に撮像されているユーザの各部位(ここでは眉毛、目、鼻、唇、耳など)の位置を特定する。さらに、三次元形状情報212から特定された各部位の位置と、撮像情報112から特定された各部位の位置との差分を求める。そして、求めた差分に基づいて、当該撮像情報112に撮像されているユーザの部位(ここでは顔)が、正対した状態で撮像された場合に比べて、どれだけの撮像ズレ角で撮像されているかを推定する。なお、推定部101により推定された撮像ズレ角を、化粧支援情報114においてどのように用いるかについては後述する。   Next, the position of each part of the user (here, eyebrows, eyes, nose, lips, ears, and the like) imaged by the imaging information 112 is specified using the imaging information 112. Further, a difference between the position of each part specified from the three-dimensional shape information 212 and the position of each part specified from the imaging information 112 is obtained. Then, based on the obtained difference, the user's part (here, the face) imaged in the imaging information 112 is imaged at a much larger imaging deviation angle than when the user is imaged in a face-to-face state. Estimate what is. How the imaging shift angle estimated by the estimation unit 101 is used in the makeup support information 114 will be described later.

また、推定部101は、ユーザが正面を向いているときの目線と、撮像情報112に撮像されたときのユーザの目線との目線ズレ角を推定し、推定情報とする。より詳細には、推定部101は、当該目線ズレ角を補正するための補正距離を求めて、推定情報とする。なお、補正距離とは、ユーザが正面を向いている状態を撮像するために、ユーザが視線を動かすべきときに参考となるように、当該ユーザに対して提供される距離である。   In addition, the estimation unit 101 estimates a line-of-sight deviation angle between the line of sight when the user is facing the front and the line of sight of the user when the image is captured by the imaging information 112, and sets the angle as the estimated information. More specifically, the estimating unit 101 obtains a correction distance for correcting the eye-gaze shift angle and sets the correction distance as estimation information. Note that the correction distance is a distance provided to the user so that the user can refer to when the user should move his / her gaze in order to capture an image of the user facing the front.

図9は、補正距離を説明するための図である。   FIG. 9 is a diagram for explaining the correction distance.

ユーザが化粧中の自身の顔を確認する場合、当該ユーザが正面を向いている状態の顔を確認することが最適である。詳細は後述することになるが、化粧支援システム1は、三次元形状情報212に、撮像情報112をマッピングすることによって、任意の方向から見た顔の映像を得るように構成されている。したがって、ユーザと撮像部35とが正対しているか否かに関わらず、化粧支援システム1は、ユーザの顔を正面から見たときの映像を得ることは可能である。   When the user checks his or her face during makeup, it is optimal to check the face of the user facing the front. Although details will be described later, the makeup support system 1 is configured to obtain a video of a face viewed from an arbitrary direction by mapping the imaging information 112 to the three-dimensional shape information 212. Therefore, regardless of whether the user and the imaging unit 35 face each other, the makeup support system 1 can obtain an image when the user's face is viewed from the front.

一方で、一般に、携帯端末装置3を利用する場合、ユーザは、当該携帯端末装置3を自身の目の高さよりも下方に所持し、さらに、撮像部35の下方に位置する表示部33,34の中央付近に目線を向けることになる。このときのユーザの目線は、およそ図9に示す目線70である。   On the other hand, in general, when using the mobile terminal device 3, the user holds the mobile terminal device 3 below the height of his / her own eyes and further displays the display units 33 and 34 located below the imaging unit 35. I will turn my eyes to near the center of. The user's line of sight at this time is approximately the line of sight 70 shown in FIG.

目線が目線70となっているときのユーザを、撮像部35によって撮像すると、ユーザの瞼は半開き状態で撮像される。このようなユーザ撮像画像(撮像情報112)を用いてマッピングすると、ユーザの顔自体は正面から見た状態ではあるものの、瞼が半開き状態のユーザの顔が表示されることになる。このような画像は、化粧を行うときに参考とする画像として不向きなだけでなく、閲覧するユーザに違和感を与えることになる。   When the imaging unit 35 captures an image of the user when the line of sight is the line of sight 70, the user's eyelids are captured in a half-open state. When mapping is performed using such a user captured image (imaging information 112), the user's face is viewed from the front, but the user's face with the eyelids partially opened is displayed. Such an image is not suitable as an image to be referred to when performing makeup, but also gives a discomfort to a user who views the image.

また、撮像部35を見ているときのユーザの目線は、およそ図9に示す目線71である。したがって、撮像部35を見るようにユーザを誘導したとしても、ユーザが下を向いている状態で、目線が合うことになり、依然として、ユーザが正面を向いているときの自然な画像を得ることはできない。   The user's line of sight when looking at the imaging unit 35 is approximately the line of sight 71 shown in FIG. Therefore, even if the user is guided to look at the imaging unit 35, the eyes are aligned in a state where the user is facing down, and it is still possible to obtain a natural image when the user is facing front. Can not.

このように、ユーザが携帯端末装置3を利用しているときにおいて、ユーザが正面を向いたときの目線(図9に示す目線72)と、撮像情報112に撮像されたときのユーザの目線(図9に示す目線70,71)との間には、目線ズレ角を生じる。   As described above, when the user is using the mobile terminal device 3, the user's line of sight when the user faces the front (the line of sight 72 shown in FIG. 9) and the user's line of sight when the image is captured by the imaging information 112 ( A line-of-sight deviation angle occurs between the line of sight and the line of sight 70, 71) shown in FIG.

そこで、推定部101は、撮像情報112を三次元形状情報212にマッピングしたときの角度に応じて、撮像部35によって撮像された顔の携帯端末装置3に対する下向き角度(目線ズレ角)を求める。そして、さらに、ユーザの目線が目線72となるように、ユーザが見つめるべき位置(視線目標位置)を示す補正距離73を求める。補正距離73は、視線目標位置と撮像部35との相対的な位置関係に応じて求められ、推定情報に含められる。   Therefore, the estimating unit 101 obtains a downward angle (eye shift angle) of the face imaged by the imaging unit 35 with respect to the portable terminal device 3 according to the angle when the imaging information 112 is mapped to the three-dimensional shape information 212. Then, a correction distance 73 indicating a position at which the user should look (a target line of sight) is determined so that the line of sight of the user becomes the line of sight 72. The correction distance 73 is obtained according to the relative positional relationship between the target line-of-sight position and the imaging unit 35, and is included in the estimation information.

また、推定部101は、撮像部35によって撮像された撮像情報112と、過去撮像情報(計測用撮像情報211)とを比較して、当該撮像情報112が撮像された時点における化粧の劣化度を推定し、推定情報とする。例えば、ユーザが自宅で化粧を完了したときの自身の姿を撮像した画像情報として、計測用撮像情報211を取得し、データベース111に格納しておけば、外出先で撮像情報112を取得することにより、その時点での化粧の劣化度を求めることができる。   The estimating unit 101 compares the imaging information 112 captured by the imaging unit 35 with the past imaging information (measurement imaging information 211), and determines the degree of makeup deterioration at the time when the imaging information 112 is captured. Estimate and use as estimated information. For example, if the user obtains measurement imaging information 211 as image information obtained by capturing his or her own appearance at the time of completing makeup at home and stores it in the database 111, the user can obtain the imaging information 112 on the go. Thus, the degree of makeup deterioration at that time can be obtained.

例えば、推定部101は、画像認識処理などを用いて、計測用撮像情報211に撮像されているユーザの毛穴の状態と、撮像情報112に撮像されているユーザの毛穴の状態とを比較し、化粧の劣化度を推定する。これにより、例えば、ファンデーションの落ち具合などを推定することができる。   For example, the estimating unit 101 compares the state of the pores of the user captured in the imaging information for measurement 211 with the state of the pores of the user captured in the imaging information 112 using image recognition processing or the like, Estimate the degree of makeup deterioration. Thereby, for example, the degree of fall of the foundation can be estimated.

また、例えば、推定部101は、計測用撮像情報211に撮像されているユーザの肌部分と特定部分(劣化度を推定したい部分)との色比率と、撮像情報112に撮像されているユーザの肌部分と特定部分との色比率とを比較して、特定部分における化粧の劣化度を推定する。これにより、例えば、口紅やチーク、アイシャドウなどの落ち具合を判定することができる。   Further, for example, the estimating unit 101 determines the color ratio between the skin part of the user captured in the measurement imaging information 211 and the specific part (the part whose deterioration degree is to be estimated), and the user's user captured in the imaging information 112. By comparing the color ratio between the skin portion and the specific portion, the degree of makeup deterioration in the specific portion is estimated. This makes it possible to determine, for example, the degree of fall of lipstick, cheek, eyeshadow, and the like.

さらに、推定部101は、推定した当該化粧の劣化度と、当該計測用撮像情報211が撮像された時間からの経過時間とに基づいて、当該化粧を修正すべき時間(化粧なおし予定時間)を推定し、推定情報とする。   Further, the estimating unit 101 determines a time to correct the makeup (scheduled makeup repair time) based on the estimated deterioration degree of the makeup and the elapsed time from the time when the measurement imaging information 211 was captured. Estimate and use as estimated information.

以上が、図6に示す推定部101の機能の説明である。次に、同じく図6に示す情報作成部102の機能について説明する。   The above is the description of the function of the estimation unit 101 shown in FIG. Next, the function of the information creating unit 102 shown in FIG. 6 will be described.

情報作成部102は、通信部12により受信された計測用撮像情報211および三次元形状情報212と、撮像部35により取得された撮像情報112とに基づいて、ユーザに施す化粧を支援するための化粧支援情報114を作成する。   The information creation unit 102 is for supporting makeup applied to the user based on the measurement imaging information 211 and the three-dimensional shape information 212 received by the communication unit 12 and the imaging information 112 acquired by the imaging unit 35. The makeup support information 114 is created.

情報作成部102は、化粧支援情報114を作成するときに、適宜、データベース111を検索し、状況に応じた化粧の仕方を示す情報や、使用すべき化粧品や道具等に関する情報(推奨物品情報)なども取得して、これらの情報を化粧支援情報114に含める機能を有している。   When creating the makeup support information 114, the information creating unit 102 searches the database 111 as appropriate, and shows information indicating a makeup method according to the situation, and information on cosmetics and tools to be used (recommended article information). And the like, and a function of including such information in the makeup support information 114.

なお、情報作成部102がデータベース111を検索するときの条件(検索キー)として用いる情報は、主に、操作部32から伝達される情報(ユーザからの指示情報)と、推定部101から伝達される推定情報とである。   The information used as a condition (search key) when the information creation unit 102 searches the database 111 is mainly information transmitted from the operation unit 32 (instruction information from the user) and information transmitted from the estimation unit 101. Estimated information.

以下に、情報作成部102が化粧支援情報114を作成する具体例について説明する。   Hereinafter, a specific example in which the information creation unit 102 creates the makeup support information 114 will be described.

まず、情報作成部102は、三次元形状情報212に、化粧時に撮像された撮像情報112を用いてテクスチャマッピング技術により画像(以下、「表示ユーザ画像」と称する。)を作成する。このようにして作成された表示ユーザ画像は、化粧支援情報114に含められ、化粧支援情報114として、表示部33に表示される。表示ユーザ画像は、携帯端末装置3を用いて化粧を行うときの、いわゆる鏡面像の役割を担う画像である。   First, the information creating unit 102 creates an image (hereinafter, referred to as a “display user image”) in the three-dimensional shape information 212 by using a texture mapping technique using the imaging information 112 captured during makeup. The display user image created in this manner is included in the makeup support information 114 and displayed on the display unit 33 as the makeup support information 114. The display user image is an image that plays the role of a so-called mirror image when makeup is performed using the mobile terminal device 3.

ただし、詳細は順次説明するが、携帯端末装置3における表示ユーザ画像は、単なる鏡面像ではない。表示ユーザ画像は、化粧を行うユーザにとって有益な様々な加工が施された画像として表示される。例えば、表示ユーザ画像における視点(アングル)は、撮像情報112の撮像方位に限定されるものではなく、化粧を施す部位などに応じて変更することができる。情報作成部102は、どの方向から見たときの表示ユーザ画像を作成するかを、操作部32から入力された視点情報に基づいて決定する。また、操作部32からの指示情報により、化粧を施す場所にズームした表示ユーザ画像を作成することもできる。   However, although the details will be sequentially described, the display user image on the mobile terminal device 3 is not a simple mirror image. The display user image is displayed as an image that has been subjected to various processes that are useful for a user performing makeup. For example, the viewpoint (angle) in the display user image is not limited to the imaging direction of the imaging information 112, but can be changed according to a part to which makeup is applied. The information creation unit 102 determines from which direction to create a display user image when viewed from the viewpoint information input from the operation unit 32. In addition, a display user image that is zoomed to a place where makeup is to be applied can be created based on instruction information from the operation unit 32.

すでに説明したように、本実施の形態における化粧支援システム1では、様々な表情に関する三次元形状情報212を作成した場合などにおいて、複数の三次元形状情報212が存在する場合がある。このような場合には、いずれの三次元形状情報212を用いてユーザ表示画像を作成するのかを、まず選択しなければならない。   As described above, in the makeup support system 1 according to the present embodiment, a plurality of three-dimensional shape information 212 may exist when the three-dimensional shape information 212 related to various facial expressions is created. In such a case, the user must first select which three-dimensional shape information 212 is used to create the user display image.

情報作成部102は、複数の三次元形状情報212と撮像情報112とを一対一で比較することにより、複数の三次元形状情報212から、当該撮像情報112に最も合致する1の三次元形状情報212を選択する。そして、情報作成部102は、選択された1の三次元形状情報212と撮像情報112とに基づいて化粧支援情報114を作成する。このように、異なる表情について準備された複数の三次元形状情報212の中から、現在の表情と同じ表情の三次元形状情報212に基づいて化粧支援情報114を作成することにより、精度が向上する。また、表示ユーザ画像がユーザの現実の表情に連動するため、ユーザの違和感を抑制することができる。   The information creating unit 102 compares the plurality of three-dimensional shape information 212 with the imaging information 112 on a one-to-one basis, and obtains one piece of three-dimensional shape information that best matches the imaging information 112 from the plurality of three-dimensional shape information 212. Select 212. Then, the information creating unit 102 creates makeup assisting information 114 based on the selected one of the three-dimensional shape information 212 and the imaging information 112. As described above, the accuracy is improved by creating the makeup support information 114 based on the three-dimensional shape information 212 having the same expression as the current expression from among the plurality of three-dimensional shape information 212 prepared for different expressions. . In addition, since the displayed user image is linked to the user's actual expression, the user's uncomfortable feeling can be suppressed.

また、情報作成部102は、操作部32から入力されるユーザの指示に応じて、ユーザが所望する表情を特定し、複数の三次元形状情報212から当該表情に対応した1の三次元形状情報212を選択することも可能である。そして、情報作成部102は、選択した1の三次元形状情報212と撮像情報112とに基づいて化粧支援情報114を作成する。このように、異なる表情について準備された複数の三次元形状情報212の中からユーザが所望する表情の三次元形状情報212を選択することにより、化粧支援システム1は、化粧を施す際にユーザが現実に当該表情を実演することなく、当該表情に関する化粧支援情報114(表示ユーザ画像)を作成することができる。   In addition, the information creating unit 102 specifies an expression desired by the user in accordance with the user's instruction input from the operation unit 32, and from the plurality of three-dimensional shape information 212, one piece of three-dimensional shape information corresponding to the expression. It is also possible to select 212. Then, the information creating unit 102 creates makeup assisting information 114 based on the selected one of the three-dimensional shape information 212 and the imaging information 112. As described above, by selecting the three-dimensional shape information 212 of the expression desired by the user from the plurality of three-dimensional shape information 212 prepared for different expressions, the makeup support system 1 allows the user to It is possible to create makeup support information 114 (display user image) related to the expression without actually performing the expression.

また、情報作成部102は、ユーザの指示に応じて、複数の三次元形状情報212の中からユーザが所望する特定の部位にズームした三次元形状情報212を選択することも可能である。これにより、例えば、目の周辺部分のように、細かい化粧が必要な部位については、他の部位に比べて詳細な化粧支援情報114を作成することが可能となる。ここに言う「詳細な化粧支援情報114」とは、例えば、細部が視認できるように拡大された表示ユーザ画像である。   In addition, the information creating unit 102 can also select the three-dimensional shape information 212 that has been zoomed to a specific part desired by the user from the plurality of three-dimensional shape information 212 in accordance with the user's instruction. This makes it possible to create more detailed makeup support information 114 for a part that requires fine makeup, such as a part around the eyes, as compared to other parts. The “detailed makeup support information 114” here is, for example, a display user image enlarged so that details can be visually recognized.

また、情報作成部102は、ユーザの目線に関する目線ズレ角を抑制するための指示を化粧支援情報114に含める。例えば、推定部101によって推定された補正距離を用いて、「カメラの上方、10cmくらいのところを見つめてください」といったメッセージを化粧支援情報114として作成する。これを表示部33に表示させることにより、化粧を施す際のユーザに、一旦、正面を見るようにアドバイスすることができ、正面を見ている状態のユーザを容易に撮像情報112として撮像することができる。   The information creating unit 102 also includes an instruction for suppressing the eye-gaze shift angle related to the user's eye line in the makeup support information 114. For example, using the correction distance estimated by the estimating unit 101, a message such as "Please look up at a position about 10 cm above the camera" is created as makeup assistance information 114. By displaying this on the display unit 33, the user at the time of applying makeup can be once advised to look at the front, and the user who is looking at the front can be easily imaged as the imaging information 112. Can be.

計測装置2において撮像された計測用撮像画像211ではなく、携帯端末装置3において撮像された撮像情報112から得られたユーザ撮像画像を、計測装置2において特定された三次元形状情報212にテクスチャマッピングする場合、当該ユーザ撮像画像がどの角度から撮像されたかを特定して行う必要がある。このために、情報作成部102は、推定部101によって推定された撮像ズレ角を利用して投影変換する。   Texture mapping is performed not on the measurement image 211 captured by the measurement device 2 but on the user captured image obtained from the imaging information 112 captured by the mobile terminal device 3 on the three-dimensional shape information 212 specified by the measurement device 2. In this case, it is necessary to specify the angle at which the user-captured image has been captured. For this purpose, the information creating unit 102 performs projection conversion using the imaging shift angle estimated by the estimating unit 101.

推定情報(撮像ズレ角)に基づく投影変換を行っても、三次元形状情報212における特徴点(例えば、目尻、唇、鼻の穴の位置など)の三次元位置が、ユーザ撮像画像の特徴点位置と一致しない場合、情報作成部102は、最小二乗法などの手法を利用して、最も特徴点位置誤差が少なくなる角度(最適角度)から、テクスチャマッピングを行う。   Even if the projection conversion based on the estimation information (imaging deviation angle) is performed, the three-dimensional positions of the feature points (for example, the positions of the outer corner of the eyes, the lips, and the nostrils) in the three-dimensional shape information 212 are the feature points of the user-captured image. If the positions do not match, the information creating unit 102 performs texture mapping from an angle (optimal angle) at which the feature point position error is minimized by using a method such as the least square method.

ところが、後述するように、携帯端末装置3の撮像部35が装備するレンズが安価であったり、広角レンズであったりする場合においては、ユーザ撮像画像がユーザの形状を正確に反映していない場合がある。すなわち、携帯端末装置3において得られたユーザ撮像画像に、光学的な歪みが生じている場合がある。このような場合には、最適角度によるテクスチャマッピングにおいても、特徴点位置誤差が生じる場合がある。このような場合には、情報作成部102は、三次元形状情報212に合わせ込むように、各部位(特徴点を形成する部位)を移動させることによって対応付けを行う。   However, as described later, when the lens provided in the imaging unit 35 of the mobile terminal device 3 is inexpensive or a wide-angle lens, the user-captured image does not accurately reflect the shape of the user. There is. That is, optical distortion may occur in the user captured image obtained in the mobile terminal device 3. In such a case, a feature point position error may occur even in texture mapping using the optimum angle. In such a case, the information creating unit 102 performs correspondence by moving each part (a part forming a feature point) so as to match the three-dimensional shape information 212.

一方で、携帯端末装置3の撮像部35が高精度な場合、逆に、三次元形状情報212における部位を、ユーザ撮像画像に合わせ込むことも可能である。この場合には、携帯端末装置3で撮像されたユーザの表情に近い形で三次元形状情報212が修正される。したがって、撮像時(化粧時)の少しの表情変化などを反映した全方位画像を、携帯端末装置3上で確認することが可能となる。   On the other hand, when the imaging unit 35 of the mobile terminal device 3 has high accuracy, it is possible to match the part in the three-dimensional shape information 212 with the image captured by the user. In this case, the three-dimensional shape information 212 is corrected in a form close to the expression of the user captured by the mobile terminal device 3. Therefore, it is possible to confirm on the mobile terminal device 3 an omnidirectional image reflecting a slight change in facial expression at the time of imaging (at the time of makeup).

このように、化粧支援システム1は、撮像情報112におけるユーザの撮像方位と、マッピングする三次元形状の見え方の方位とを予め合わせておいてから、ユーザ撮像画像をマッピングすることにより、自然な状態の表示ユーザ画像を作成することができる。   As described above, the makeup support system 1 matches the user's imaging orientation in the imaging information 112 with the orientation of the appearance of the three-dimensional shape to be mapped in advance, and then maps the user's captured image to provide a natural image. A state display user image can be created.

また、情報作成部102は、推定部101により推定された化粧の劣化度に基づいて化粧支援情報114を作成する。   The information creating unit 102 creates makeup support information 114 based on the degree of makeup deterioration estimated by the estimation unit 101.

図10は、化粧の劣化度に基づいて作成される化粧支援情報114を例示する図である。   FIG. 10 is a diagram illustrating makeup assisting information 114 created based on the degree of makeup deterioration.

図10に示すように、化粧支援情報114には、自宅で化粧を完成させたときに撮像された計測用撮像情報211と、現在の化粧の状況を示す撮像情報112とが含まれている。したがって、ユーザは、2つの画像を見比べることにより、容易に現在の化粧の状況を知ることができる。また、現在の化粧の状況として、化粧の劣化度が数値により表示されている。したがって、ユーザは、現在の化粧の状況を客観的に評価することができる。このように、化粧支援システム1は、化粧の劣化度に応じてユーザの化粧を支援することができる。   As shown in FIG. 10, makeup support information 114 includes measurement imaging information 211 captured when makeup is completed at home, and imaging information 112 indicating the current makeup situation. Therefore, the user can easily know the current makeup situation by comparing the two images. Further, the degree of makeup deterioration is displayed as a numerical value as the current makeup situation. Therefore, the user can objectively evaluate the current makeup situation. As described above, the makeup support system 1 can support the makeup of the user according to the degree of makeup deterioration.

また、次回の化粧なおしの時間を示す情報として「午後2時30分」が表示されている。これにより、化粧支援システム1は、単に劣化度を数値で示す場合に比べて、ユーザに、化粧なおしを行うべき時間を具体的に提案することができる。   Also, “2:30 pm” is displayed as information indicating the time of the next makeup redress. Thereby, the makeup support system 1 can more specifically suggest a time for performing makeup repair to the user as compared with a case where the degree of deterioration is simply indicated by a numerical value.

なお、図10では、化粧を完成させたときの撮像画像として、計測用撮像情報211を用いている。しかし、携帯端末装置3において化粧を完成させた場合には、そのときに撮像された撮像情報112が、化粧を完成させたときの撮像画像として用いられる。   In FIG. 10, measurement imaging information 211 is used as a captured image when makeup is completed. However, when makeup is completed in the portable terminal device 3, the imaging information 112 captured at that time is used as a captured image when the makeup is completed.

また、ここでは、過去撮像情報が化粧を完成させたときの撮像画像であるとみなして、これとの比較により、現在の化粧の状況を評価する例について説明した。しかし、例えば、目標とする化粧の状態と、現在の化粧の状態とを比較するようにしてもよい。例えば、化粧を途中で中断した場合などにおいては、中断したときの撮像画像(過去撮像情報)を基準として比較しても、経過時間による劣化の進行速度を求めることはできるものの、理想の化粧に対する劣化度を求めることはできない。このような場合には、完成させたときの化粧の状態を推定して比較し、化粧支援情報114を作成することが好ましい。   Also, here, an example has been described in which the past imaging information is regarded as a captured image when makeup is completed, and the current makeup situation is evaluated by comparison with the captured image. However, for example, the target makeup state may be compared with the current makeup state. For example, when makeup is interrupted halfway, the deterioration progression speed due to the elapsed time can be determined by comparing the captured image (past imaging information) at the time of interruption, but the ideal makeup The degree of deterioration cannot be determined. In such a case, it is preferable to estimate and compare the state of makeup at the time of completion, and create makeup assistance information 114.

また、情報作成部102は、推定部101により推定された塗布速度に関する情報を含むように化粧支援情報114を作成する。具体的には、推定された塗布速度に基づいて、データベース111に含まれる状況に応じた化粧の仕方を検索し、当該塗布速度が適切か否かのメッセージや、当該塗布速度に応じた残り塗り回数などを取得し、化粧支援情報114に含める。これにより、携帯端末装置3は、ユーザによる塗布速度の適否を判定して、当該ユーザに対する化粧支援を行うことができる。   Further, the information creating unit 102 creates the makeup support information 114 so as to include information on the application speed estimated by the estimating unit 101. Specifically, based on the estimated application speed, a search is made for a makeup method corresponding to the situation included in the database 111, and a message indicating whether or not the application speed is appropriate, and a remaining application corresponding to the application speed. The number of times and the like are acquired and included in the makeup support information 114. Accordingly, the mobile terminal device 3 can determine whether the application speed is appropriate for the user and provide makeup assistance to the user.

また、情報作成部102は、推定部101により推定されたユーザの特徴的な部位に応じて化粧支援情報114を作成する。具体的には、例えば、頬骨の位置を基準にしてチークなどの化粧品の塗り位置を決定する。すなわち、推定された頬骨位置に基づいて、データベース111に含まれる状況に応じた化粧の仕方を検索し、当該頬骨位置に応じた塗布位置を示す情報を取得し、化粧支援情報114に含める。   Further, the information creating unit 102 creates makeup assistance information 114 according to the characteristic part of the user estimated by the estimating unit 101. Specifically, for example, the application position of a cosmetic such as teak is determined based on the position of the cheekbone. That is, based on the estimated cheekbone position, a makeup method corresponding to the situation included in the database 111 is searched, information indicating an application position corresponding to the cheekbone position is acquired, and the information is included in the makeup support information 114.

図11は、推定部101により推定された頬骨位置に応じて表示ユーザ画像(化粧支援情報114)にガイド81を含めて表示する例を示す図である。図11に示す例では、ガイド81は、化粧品を塗布すべき領域を示す円として表示されている。このように、携帯端末装置3は、ユーザの特徴的な部位に応じて、適切な化粧支援を行うことができる。   FIG. 11 is a diagram illustrating an example of displaying a display user image (makeup support information 114) including a guide 81 according to the cheekbone position estimated by the estimation unit 101. In the example illustrated in FIG. 11, the guide 81 is displayed as a circle indicating a region where the cosmetic is to be applied. As described above, the mobile terminal device 3 can provide appropriate makeup support according to the characteristic part of the user.

また、情報作成部102は、様々な光環境に基づいて、化粧支援情報114を作成する。様々な光環境とは、化粧の披露場所に応じて予め収集された光環境、データ取得部100により推定された化粧時の光環境(撮像情報112が撮像されたときの光環境)、あるいは、計測用撮像情報211に関連づけられている光環境(計測用撮像情報211が撮像されたときの光環境であり、基準となる光環境)である。   In addition, the information creating unit 102 creates the makeup support information 114 based on various lighting environments. The various light environments include a light environment collected in advance according to a place where makeup is presented, a light environment at the time of makeup estimated by the data acquisition unit 100 (a light environment when the imaging information 112 is captured), or The light environment associated with the measurement imaging information 211 (the light environment when the measurement imaging information 211 is captured, which is a reference light environment).

具体的には、情報作成部102は、光環境そのものを検索キーとして、データベース111に含まれる状況に応じた化粧の仕方を検索する。そして、当該光環境に適した化粧の仕方を示す情報を取得し、化粧支援情報114に含める。これにより、携帯端末装置3は、当該光環境を考慮した化粧支援が可能となる。なお、情報作成部102は、光の光線方向、光線強度、光の色などの光環境を示すパラメータを利用する。また、検索キーとする光環境は、例えば、ユーザの指示に応じて決定することができる。   Specifically, the information creating unit 102 searches for a makeup method according to the situation included in the database 111 using the light environment itself as a search key. Then, information indicating a makeup method suitable for the light environment is acquired and included in the makeup support information 114. Thereby, the portable terminal device 3 can perform makeup support in consideration of the light environment. Note that the information creating unit 102 uses parameters indicating the light environment, such as the light beam direction, light intensity, and light color. The light environment used as a search key can be determined, for example, according to a user's instruction.

また、情報作成部102は、化粧時における光環境(光環境情報113)と、計測用撮像情報211に関連づけられている基準となる光環境(計測装置2における撮像時の光環境)とに基づいて、ユーザの化粧時において撮像部35により撮像された撮像情報112を補正する。すなわち、情報作成部102は、化粧時に取得されたユーザ撮像画像を、基準となる光環境に応じた表示ユーザ画像に補正する。   In addition, the information creating unit 102 is based on the light environment at the time of makeup (light environment information 113) and the reference light environment (light environment at the time of imaging by the measurement device 2) associated with the measurement imaging information 211. Then, the imaging information 112 captured by the imaging unit 35 during the makeup of the user is corrected. That is, the information creating unit 102 corrects the user captured image acquired at the time of makeup to a display user image corresponding to the reference light environment.

図12は、撮像情報112と化粧支援情報114とを比較する図である。図12において左側に示す撮像情報112は、現在(化粧時)の光環境における画像(補正前の画像)である。   FIG. 12 is a diagram comparing the imaging information 112 with the makeup support information 114. The imaging information 112 shown on the left side in FIG. 12 is an image (image before correction) in the current (at the time of makeup) light environment.

情報作成部102は、化粧時に取得された撮像情報112からユーザ撮像画像を抽出し、推定された化粧時における光環境に基づいて、当該ユーザ撮像画像を当該光環境の影響を取り除いた画像に変換する。次に、基準となる光環境を取得して、取得した基準となる光環境において撮像されたかのような画像となるように、上記変換された画像に対してさらに画像処理を施して表示ユーザ画像を作成する。そして、このようにして作成した表示ユーザ画像を含む化粧支援情報114(図12において右側の画像)を作成する。   The information creating unit 102 extracts a user captured image from the imaging information 112 acquired at the time of makeup, and converts the user captured image into an image from which the influence of the light environment has been removed based on the estimated light environment at the time of makeup. I do. Next, a reference light environment is acquired, and the converted user image is further subjected to image processing so as to obtain an image as if the image was captured in the acquired reference light environment, thereby displaying a display user image. create. Then, makeup assisting information 114 (the image on the right side in FIG. 12) including the display user image created in this way is created.

これにより、ユーザは、いつでも、基準となる光環境における化粧の見栄えを確認することができる。したがって、移動先の光環境に左右されずに安定した化粧を行うことができる。なお、情報作成部102は、基準となる光環境の表示ユーザ画像となるように、ユーザ撮像画像を補正するか否かは、ユーザが操作部32を操作して入力する指示情報によって判断する。   Thus, the user can always check the appearance of the makeup in the reference light environment. Therefore, stable makeup can be performed without being affected by the light environment of the destination. The information creating unit 102 determines whether to correct the user captured image so as to be a display user image of the reference light environment based on instruction information input by the user operating the operation unit 32.

また、情報作成部102は、データ取得部100により推定された化粧時における光環境と、ユーザの所望する披露場所における光環境とに基づいて、当該ユーザの化粧時において撮像された撮像情報112を補正する。すなわち、情報作成部102は、化粧時に取得されたユーザ撮像画像を、ユーザの所望する披露場所における光環境に応じた表示ユーザ画像に補正する。   In addition, the information creating unit 102, based on the light environment at the time of makeup estimated by the data acquisition unit 100 and the light environment at the presentation place desired by the user, captures the imaging information 112 captured at the time of makeup of the user. to correct. That is, the information creating unit 102 corrects the user captured image acquired at the time of makeup to a display user image according to the light environment at the presentation place desired by the user.

より具体的には、化粧時に取得されたユーザ撮像画像を撮像情報112から抽出し、推定された化粧時における光環境に基づいて、ユーザ撮像画像を当該光環境の影響を取り除いた画像に変換する。次に、操作部32からの指示情報を検索キーとして、データベース111に格納されている披露場所における光環境を検索し、ユーザの所望する披露場所における光環境を特定する。例えば、ユーザが操作部32を操作して披露場所として「レストラン」を指定する指示情報を入力すると、データベース111の光環境情報113からレストランにおける光環境が特定される。そして、特定されたレストランにおける光環境において撮像されたかのような画像となるように、上記変換された画像に対してさらに画像処理を施して表示ユーザ画像を作成する。   More specifically, a user captured image acquired at the time of makeup is extracted from the imaging information 112, and based on the estimated light environment at the time of makeup, the user captured image is converted into an image from which the influence of the light environment has been removed. . Next, using the instruction information from the operation unit 32 as a search key, the light environment at the show place stored in the database 111 is searched, and the light environment at the show place desired by the user is specified. For example, when the user operates the operation unit 32 and inputs instruction information for specifying “restaurant” as a show location, the light environment in the restaurant is specified from the light environment information 113 of the database 111. Then, the converted image is further subjected to image processing so as to create a display user image so that the image becomes as if the image was captured in the light environment of the specified restaurant.

これにより、ユーザは、化粧を披露する場所の光環境における化粧の見栄えを確認することができる。なお、情報作成部102は、ユーザの所望する披露場所における光環境の表示ユーザ画像となるように、ユーザ撮像画像を補正するか否かは、ユーザが操作部32を操作して入力する指示情報によって判断する。   Thereby, the user can confirm the appearance of the makeup in the light environment of the place where the makeup is shown. The information creating unit 102 determines whether or not to correct the user-captured image so as to be a display user image of the light environment at the presentation place desired by the user, by instructing information input by the user operating the operation unit 32. Judge by.

また、情報作成部102は、推定部101によって推定された顔色(光環境情報113に基づいて化粧中の光環境の影響が除去されている。)に応じて、適切な化粧の種類や塗布量、塗布位置といった情報を案内するメッセージを化粧支援情報114に含める。これにより、化粧中の光環境に影響されることなく、そのときの顔色(健康状態など)に応じた適切な化粧支援を行うことができる。   In addition, the information creation unit 102 determines the appropriate makeup type and application amount according to the face color estimated by the estimation unit 101 (the effect of the light environment during makeup is removed based on the light environment information 113). A message for guiding information such as the application position is included in the makeup support information 114. This makes it possible to provide appropriate makeup support in accordance with the complexion (health condition, etc.) at that time without being affected by the light environment during makeup.

また、情報作成部102は、ユーザの所望する披露場所に適した化粧支援情報114を作成する。具体的には、操作部32から入力される、ユーザの所望する披露場所を示す情報を検索キーとして、データベース111の状況に応じた化粧の仕方を検索する。   In addition, the information creation unit 102 creates makeup support information 114 suitable for the presentation place desired by the user. Specifically, using the information indicating the presentation place desired by the user input from the operation unit 32 as a search key, a search is made for a makeup method according to the situation of the database 111.

例えば、ユーザの所望する披露場所として、先述のように「レストラン」が入力された場合には、「レストラン」を検索キーとして、レストランにふさわしい化粧の仕方をデータベース111から特定する。情報作成部102は、このようにして、特定した化粧の仕方を化粧支援情報114に含める。そして、ユーザは、表示部33に表示された化粧支援情報114を閲覧し、これに従って化粧を行うことにより、特に意識することもなく「レストラン」において映える化粧を完成させることができる。このように、携帯端末装置3は、化粧を披露する場所に対応した適切な化粧支援を行うことができる。   For example, when “restaurant” is input as a presentation place desired by the user as described above, the database 111 specifies a makeup method appropriate for a restaurant using “restaurant” as a search key. The information creation unit 102 includes the specified makeup method in the makeup support information 114. Then, the user browses the makeup support information 114 displayed on the display unit 33 and performs makeup according to the information, thereby completing the makeup that shines in the “restaurant” without being particularly conscious. In this way, the mobile terminal device 3 can provide appropriate makeup support corresponding to the place where the makeup is shown.

また、情報作成部102は、操作部32により取得された視点情報に基づいてユーザに施す化粧を支援するための化粧支援情報114を作成する。例えば、操作部32から横顔を確認する旨の指示(視点情報)が入力されたときには、表示ユーザ画像として当該ユーザの横顔の画像を作成し、化粧支援情報114に含める。   In addition, the information creating unit 102 creates makeup support information 114 for supporting makeup applied to the user based on the viewpoint information acquired by the operation unit 32. For example, when an instruction (viewpoint information) for confirming the profile is input from the operation unit 32, an image of the profile of the user is created as a display user image and included in the makeup support information 114.

例えば、図11に示す化粧支援情報114は、ユーザが撮像部35に対して正対している状態で、表示されている画像である。このように携帯端末装置3は、三次元形状情報212に基づいて表示ユーザ画像を作成できるため、撮像部35から見た画像だけでなく、様々な方向からの画像を表示することができる。したがって、ユーザは、様々な視点(アングル)から自身に対する化粧の見栄えを確認することができる。   For example, the makeup support information 114 illustrated in FIG. 11 is an image displayed in a state where the user is directly facing the imaging unit 35. As described above, since the mobile terminal device 3 can create a display user image based on the three-dimensional shape information 212, not only the image viewed from the imaging unit 35 but also images from various directions can be displayed. Therefore, the user can check the appearance of the makeup for himself from various viewpoints (angles).

また、ユーザは、見栄えを確認するだけではなく、化粧中に操作部32を操作することにより、視点(アングル)を変更しつつ化粧をすることもできる。例えば、横顔を表示ユーザ画像として表示部33に表示させつつ、自身は表示部33(撮像部35)に対して正対しながら化粧をすることもできる。すなわち、正面からの画像を見ながら側面(例えば、頬)を化粧するのではなく、側面に正対した画像(横顔画像)を見ながら当該側面に対する化粧をすることができる。したがって、ユーザは正確に化粧することができる。   In addition, the user can not only check the appearance, but also operate the operation unit 32 during makeup to make makeup while changing the viewpoint (angle). For example, while displaying a profile on the display unit 33 as a display user image, the user himself / herself can make up while facing the display unit 33 (imaging unit 35). That is, instead of making up the side surface (for example, cheek) while looking at the image from the front, it is possible to make up the side surface while looking at the image (profile image) facing the side surface. Therefore, the user can make up accurately.

また、情報作成部102は、ユーザの化粧目的に応じた化粧支援情報114を作成する。ユーザの化粧目的とは、どのような印象を与えたいかというユーザの希望であって、例えば、清楚に見える化粧や、健康的に見える化粧、ゴージャスな化粧、ワイルドな化粧などといった例が考えられる。すなわち、同じシーンであっても、ユーザが相手に与えたいと所望する印象は異なるものである。   Also, the information creating unit 102 creates makeup assistance information 114 according to the makeup purpose of the user. The user's makeup purpose is the user's desire for what kind of impression the user wants to give, and for example, an example such as clean-looking makeup, healthy-looking makeup, gorgeous makeup, wild makeup, and the like can be considered. . That is, even in the same scene, the impression that the user desires to give to the other party is different.

このように、情報作成部102がユーザの化粧目的に応じた化粧支援情報114を作成することにより、ユーザに対して提案することのできる化粧のバリエーションが増え、汎用性が向上する。なお、ユーザの化粧目的は、例えば、操作部32から指示情報として入力することができる。   In this manner, the information creation unit 102 creates the makeup support information 114 according to the makeup purpose of the user, so that the number of makeup variations that can be suggested to the user increases, and the versatility improves. Note that the user's makeup purpose can be input as instruction information from the operation unit 32, for example.

また、情報作成部102は、データベース111に登録されているユーザが所持している物品の中から推奨物品を選択し、選択した当該推奨物品に関する情報を化粧支援情報114に含める。これにより、状況に応じた最適な物品を提案することができ、ユーザの化粧をより適切に支援することができる。なお、推奨物品には、ハケや筆、ローラ、パッド、ビューラーなどが想定される。また、同種の物品を複数登録している場合には、その中で状況に応じて最適なものを推奨物品として推奨する。例えば、大きいハケと小さいハケとが登録されている場合に、特定の化粧品を使用するときには大きいハケを推奨し、他の化粧品を使用するときには小さいハケを推奨するといったパターンが想定される。   In addition, the information creating unit 102 selects a recommended article from articles owned by the user registered in the database 111, and includes information on the selected recommended article in the makeup support information 114. Thereby, it is possible to propose the most suitable article according to the situation, and it is possible to more appropriately support the makeup of the user. In addition, a brush, a brush, a roller, a pad, a burer, etc. are assumed as recommended articles. When a plurality of articles of the same type are registered, the most suitable one is recommended as a recommended article according to the situation. For example, when a large brush and a small brush are registered, a pattern in which a large brush is recommended when a specific cosmetic is used, and a small brush is recommended when another cosmetic is used.

また、情報作成部102は、状況に応じてデータベース111を検索することによって、ユーザについて、化粧後の予測画像情報を含めた化粧支援情報114を作成する。例えば、情報作成部102は、状況に応じて推奨する化粧品を、推奨する使用方法により化粧を実行した場合の表示ユーザ画像を予測に基づく画像処理によって作成し化粧支援情報114に含める。   Further, the information creating unit 102 creates the makeup support information 114 including the predicted image information after makeup for the user by searching the database 111 according to the situation. For example, the information creation unit 102 creates a recommended user according to the situation, creates a display user image by performing image processing based on prediction when makeup is executed by the recommended use method, and includes it in the makeup support information 114.

これにより、ユーザは、化粧の完成後の状態を確認してから化粧を開始することができる。したがって、携帯端末装置3は、ユーザの予想外の結果とならないように適切に化粧を支援することができる。なお、予測画像情報に対して、ユーザによる修正が行われてから、修正後の状態となるように、情報作成部102がその後の化粧支援情報114を作成するように構成してもよい。   Thus, the user can start the makeup after confirming the state after the completion of the makeup. Therefore, the mobile terminal device 3 can appropriately assist makeup so as not to cause unexpected results of the user. Note that the information creation unit 102 may be configured to create the makeup assistance information 114 so that the predicted image information is corrected after being corrected by the user, so that the information is in a state after the correction.

また、情報作成部102は、ユーザについて化粧を施すべき位置に関する情報を含む化粧支援情報114を作成する。また、化粧を施すべき位置は、化粧品を塗るときの塗り開始位置や、化粧品を塗るときの塗り終了位置、あるいは、化粧品を塗るときの軌跡に関する情報などを含む。   Further, the information creating unit 102 creates makeup support information 114 including information on a position where makeup should be applied to the user. The position where makeup is to be applied includes a coating start position when applying cosmetics, a coating end position when applying cosmetics, information on a locus when applying cosmetics, and the like.

図13および図14は、化粧を施すべき位置に関する情報を含む化粧支援情報114を例示する図である。図13は、表示ユーザ画像とともに、線状のガイド82,83を示している。また、図14は、表示ユーザ画像とともに、楕円状のガイド84,85,86を示している。   13 and 14 are diagrams exemplifying makeup support information 114 including information on a position where makeup is to be applied. FIG. 13 shows linear guides 82 and 83 together with the displayed user image. FIG. 14 shows elliptical guides 84, 85, and 86 together with the display user image.

このようなガイド82ないし86は、以下のような手法により決定することができる。例えば、頬骨や黒目、小鼻の位置により、チークの始点を決定する。一旦決定したチークの始点と、横からの顔画像とに基づいて、チークの終点や塗る領域の形を決定する。顔の形により、ハイライトの始点や長さを決定する。二重の幅やアイホールの大きさに基づいてアイシャドウの位置や塗る領域の広さや形を決定する。顔の形や顎、エラの位置、額の大きさによってシェーディングの位置、塗る領域の広さや形を決定する。   Such guides 82 to 86 can be determined by the following method. For example, the starting point of the cheek is determined based on the positions of the cheekbones, irises, and nostrils. Based on the start point of the teak once determined and the face image from the side, the end point of the teak and the shape of the area to be painted are determined. The starting point and length of the highlight are determined by the shape of the face. The position of the eye shadow and the size and shape of the area to be painted are determined based on the double width and the size of the eye hole. The shading position and the size and size of the area to be painted are determined by the shape of the face, the position of the chin, the position of the gill, and the size of the forehead.

また、頬骨の位置や形状からチークを塗るときにどのようなカーブをつければよいかといった表示(例えば、湾曲した矢印による軌跡表示)も可能である。さらに、ガイド82ないし86をアニメーション表示することにより、推奨する塗布速度を表現することも可能である。例えば、塗布する方向に向けて、矢印を始点から最適な塗布速度に従って徐々に延ばすような表現方法が考えられる。このような表現方法を用いれば、ユーザに対して個々の化粧品の塗り動作を指南することも可能である。   Further, it is also possible to display what kind of curve should be applied when applying cheek from the position and shape of the cheekbone (for example, a locus display using curved arrows). Further, by displaying the guides 82 to 86 as animations, it is possible to express the recommended application speed. For example, an expression method is conceivable in which the arrow is gradually extended from the starting point in the application direction according to the optimum application speed. By using such an expression method, it is possible to instruct the user to apply the individual cosmetics.

携帯端末装置3は、ガイド82ないし86を表示ユーザ画像とともに、化粧支援情報114に含めて、表示する。このように構成することにより、携帯端末装置3は、どの部位に、どのように化粧を施すべきかを具体的に示すことができる。   The mobile terminal device 3 displays the guides 82 to 86 together with the displayed user image in the makeup support information 114. With such a configuration, the mobile terminal device 3 can specifically indicate which part should be subjected to makeup and how.

また、情報作成部102は、データベース111を検索することにより、化粧品の塗るべき濃度に関する情報を含む化粧支援情報114を作成する。例えば、チークを塗るときに、表示ユーザ画像における当該チークを塗る部分の近傍に、推奨する濃度(色)のパッチ画像を化粧支援情報114として表示させる。   Further, the information creating unit 102 creates the makeup support information 114 including information on the density of the cosmetic to be applied by searching the database 111. For example, when applying the cheek, a patch image having a recommended density (color) is displayed as makeup assistance information 114 near a portion of the display user image where the cheek is applied.

これにより、例えば、ユーザは、チークを塗っている頬の色と、表示されているパッチ画像の色とを比較し、頬の色がパッチ画像の色と等しくなったと感じたときに完成したと判断することができる。なお、単に濃度といっても、グラデーションの変化度合いのように、濃度が徐々に変化するような場合も考えられる。グラデーションは、アイシャドウやチークなどを塗る場合に用いる技法であるが、例えば、塗る化粧品の種類、領域の広さや形状などに応じて決定することができる。   By this, for example, the user compares the color of the cheek painted with cheeks with the color of the displayed patch image, and when the user feels that the color of the cheek has become equal to the color of the patch image, it is completed. You can judge. It is to be noted that there may be cases where the density gradually changes, such as the degree of change in gradation, even if the density is simply referred to. Gradation is a technique used when applying eye shadow, teak, or the like, and can be determined according to, for example, the type of cosmetics to be applied, the size and shape of the region, and the like.

また、情報作成部102は、ユーザについて、化粧の終了に関する情報を含む化粧支援情報114を作成する。例えば、ユーザが化粧品を塗ることにより目標の色合いになったときに、当該化粧品の塗布の終了を通知する化粧支援情報114を作成する。これにより、例えば、ユーザは、過度に化粧しすぎることを回避することができる。   In addition, information creating section 102 creates makeup support information 114 including information on the end of makeup for the user. For example, when the user obtains a target color by applying the cosmetic, makeup support information 114 for notifying the end of the application of the cosmetic is created. Thereby, for example, the user can avoid being over-dressed too much.

また、情報作成部102は、ユーザの複数の部位に対する化粧の進捗を比較することにより、当該化粧の終了を判定する。例えば、情報作成部102は、左の頬と右の頬とを比較して、両方の色合いが均等になったときに、頬に対する化粧の終了を通知する化粧支援情報114を作成する。これにより、ユーザは、他の部位とのバランスのとれた化粧をすることができる。   In addition, the information creating unit 102 determines the end of the makeup by comparing the progress of the makeup for a plurality of parts of the user. For example, the information creation unit 102 compares the left cheek and the right cheek, and creates makeup assistance information 114 that notifies the end of makeup on the cheek when both shades are equal. Thereby, the user can make makeup balanced with other parts.

以上が、化粧支援システム1の構成および機能の説明である。次に、化粧支援システム1を用いてユーザの化粧を支援する方法について説明する。なお、ユーザは、一般的なコンパクトを所持する要領で、携帯端末装置3を使って化粧を行うことができる。   The above is the description of the configuration and functions of the makeup support system 1. Next, a method of supporting the makeup of the user using the makeup support system 1 will be described. In addition, the user can perform makeup using the portable terminal device 3 in the manner of possessing a general compact.

図15は、計測装置2の動作を示す流れ図である。なお、特に断らない限り、図15に示す各工程は、CPU20がプログラム210に従って動作することにより実行される。   FIG. 15 is a flowchart showing the operation of the measuring device 2. Unless otherwise specified, each step illustrated in FIG. 15 is executed by the CPU 20 operating according to the program 210.

計測装置2に電源が投入されると、計測装置2は所定の初期設定を実行する。そして、ユーザが化粧を支援するためのアプリケーション(以下、「お化粧アプリ」と称する。)を起動すると、計測装置2は表示部23にメニューを表示する(ステップS1)。   When the power is turned on to the measuring device 2, the measuring device 2 performs a predetermined initial setting. Then, when the user activates an application for supporting makeup (hereinafter, referred to as a “make-up application”), the measuring device 2 displays a menu on the display unit 23 (step S1).

図16は、計測装置2の表示部23に表示されるメニュー画像50を例示する図である。図16に示すように、メニュー画像50は、ボタン画像40,41,42,43を備えている。各ボタン画像40,41,42,43は、ユーザが当該画像に触れるか、または、操作部22を操作して選択するように構成されている。   FIG. 16 is a diagram illustrating a menu image 50 displayed on the display unit 23 of the measuring device 2. As shown in FIG. 16, the menu image 50 includes button images 40, 41, 42, and 43. Each of the button images 40, 41, 42, and 43 is configured such that the user touches the image or operates the operation unit 22 to select the image.

ボタン画像40は、ユーザ登録を行うときに選択される画像である。ユーザ登録とは、ユーザがオーナー情報を入力するときに必要となる処理である。ユーザ登録において、計測装置2は、所定のGUI画面(図示せず。)を表示する。ユーザが表示されたGUI画面に従って必要事項を入力すれば、ユーザ登録(オーナー情報の入力)は完了する。ただし、以下の説明では、ユーザ登録についての詳細な説明は省略する。   The button image 40 is an image selected when performing user registration. User registration is a process required when a user inputs owner information. In the user registration, the measuring device 2 displays a predetermined GUI screen (not shown). If the user inputs necessary items according to the displayed GUI screen, user registration (input of owner information) is completed. However, in the following description, a detailed description of the user registration will be omitted.

ボタン画像41は、事前処理を行うときに選択される画像である。計測装置2における事前処理とは、主に三次元形状情報212を作成する処理であるが、詳細は後述する。   The button image 41 is an image selected when performing pre-processing. The pre-processing in the measuring device 2 is mainly processing for creating the three-dimensional shape information 212, which will be described in detail later.

ボタン画像42は、実際にユーザが化粧を開始するときに選択する画像である。化粧支援システム1では、携帯端末装置3を使用する場合のみならず、計測装置2を用いても化粧を行うことが可能である。   The button image 42 is an image that the user selects when actually starting makeup. In the makeup support system 1, makeup can be performed not only when the portable terminal device 3 is used but also by using the measurement device 2.

計測装置2を用いて化粧を行う場合、例えば、撮像部35によって撮像情報112を取得する代わりに、撮像部26によってリアルタイムに計測用撮像情報211を取得し、撮像情報112の代わりに当該リアルタイムに取得した計測用撮像情報211を使用する。また、計測装置2を用いて化粧を行ったときには、化粧を完了したときの撮像画像として、計測用撮像情報211を取得する。ただし、計測装置2を用いて化粧を行う場合の処理は、携帯端末装置3を使用する場合とほぼ同様に実行可能であるため、以下の説明では詳細を省略する。   When makeup is performed using the measurement device 2, for example, instead of acquiring the imaging information 112 by the imaging unit 35, the imaging unit 26 acquires the measurement imaging information 211 in real time, and instead of the imaging information 112, acquires the measurement information 211 in real time. The acquired measurement imaging information 211 is used. In addition, when makeup is performed using the measurement device 2, the imaging information 211 for measurement is acquired as a captured image when makeup is completed. However, the process when makeup is performed using the measurement device 2 can be executed in substantially the same manner as when the mobile terminal device 3 is used, and thus details are omitted in the following description.

ボタン画像43は、お化粧アプリを終了させるときに選択される画像である。   The button image 43 is an image selected when ending the makeup application.

図15に戻って、ステップS1を実行して、メニュー画像50を表示すると、CPU20は、指示情報が入力されるまでステップS1を繰り返しつつ待機する(ステップS2)。   Returning to FIG. 15, after executing step S1 and displaying menu image 50, CPU 20 waits while repeating step S1 until instruction information is input (step S2).

メニュー画像50におけるボタン画像40,41,42,43のうちのいずれかが操作されると、その操作に応じて指示情報が入力され、CPU20はステップS2においてYesと判定する。   When one of the button images 40, 41, 42, and 43 in the menu image 50 is operated, instruction information is input according to the operation, and the CPU 20 determines Yes in step S2.

メニュー画像50においてボタン画像41が操作され、入力された指示情報が「事前処理」となった場合、CPU20は、ステップS3においてYesと判定し、三次元形状情報作成処理を実行する(ステップS4)。   When the button image 41 is operated on the menu image 50 and the input instruction information is “preliminary processing”, the CPU 20 determines “Yes” in step S3 and executes the three-dimensional shape information creation processing (step S4). .

図17は、計測装置2によって実行される三次元形状情報作成処理を示す流れ図である。なお、三次元形状情報作成処理では、ユーザの現実の状態が測定される。したがって、三次元形状情報作成処理を実行するとき、ユーザは、原則としてすべての化粧(特に色彩に影響のある装うための化粧)を落として、素の状態となることが好ましい。   FIG. 17 is a flowchart showing the three-dimensional shape information creation processing executed by the measuring device 2. In the three-dimensional shape information creation processing, the actual state of the user is measured. Therefore, when performing the three-dimensional shape information creation process, it is preferable that the user removes all makeup (especially makeup for dressing that affects color) to be in a bare state in principle.

三次元形状情報作成処理を開始すると、CPU20(計測制御部200)は、計測部25の照明部27を所定の照明状態に制御する。これにより、照明部27は、被写体(ユーザ)に対する照明を開始する(ステップS11)。   When the three-dimensional shape information creation processing is started, the CPU 20 (the measurement control unit 200) controls the illumination unit 27 of the measurement unit 25 to a predetermined illumination state. Thereby, the illumination unit 27 starts illumination of the subject (user) (step S11).

照明が開始されると、計測制御部200は、計測用パターンの投射を開始するように投光部28を制御する。これにより、投光部28が計測用パターンの投射を開始する(ステップS12)。   When the illumination is started, the measurement control unit 200 controls the light projecting unit 28 to start projecting the measurement pattern. Thus, the light projecting unit 28 starts projecting the measurement pattern (step S12).

ステップS11およびS12が実行され、照明および計測用パターンの投射が開始されると、計測装置2(CPU20)は、ユーザからの撮像開始指示があるまで待機する(ステップS13)。   When Steps S11 and S12 are executed and the illumination and the projection of the measurement pattern are started, the measurement device 2 (CPU 20) waits until there is an imaging start instruction from the user (Step S13).

ステップS13が実行され、計測装置2(CPU20)が待機している間に、ユーザは、撮像の準備を行うことが好ましい。撮像の準備とは、必要な情報(表情の種別やズームする部位の名称など)の入力や、撮像する表情の実演、あるいは、基準物体80の撮像範囲への配置といった準備が想定される。   It is preferable that the user prepares for imaging while step S13 is executed and the measurement device 2 (CPU 20) is on standby. As the preparation for imaging, preparation such as inputting necessary information (such as the type of facial expression and the name of a part to be zoomed), demonstration of the facial expression to be imaged, or arrangement of the reference object 80 in the imaging range is assumed.

ユーザが操作部22を操作して、撮像開始指示を入力すると、計測制御部200は、撮像を開始するように、撮像部26を制御する。これに応じて、撮像部26が撮像を開始する(ステップS14)。これにより、以後、三次元形状情報作成処理が終了するまで、計測用撮像情報211が取得される。なお、このとき取得される計測用撮像情報211を表示部23に表示し、ユーザによる確認が可能な状態としてもよい。   When the user operates the operation unit 22 to input an imaging start instruction, the measurement control unit 200 controls the imaging unit 26 to start imaging. In response, the imaging unit 26 starts imaging (step S14). Thereby, the measurement imaging information 211 is thereafter acquired until the three-dimensional shape information creation processing ends. Note that the measurement imaging information 211 acquired at this time may be displayed on the display unit 23 so that the user can confirm it.

撮像が開始されると、CPU20は、計測用撮像情報211に基づいて、このときの光環境を基準となる光環境として取得する(ステップS15)。このとき、計測制御部200は、計測用撮像情報211に撮像されている基準物体80を表現した画像と、基準物体80に関する既知の情報とに基づいて、基準となる光環境(計測用撮像情報211が撮像されたときの光環境)を取得する。   When the imaging is started, the CPU 20 acquires the light environment at this time as a reference light environment based on the measurement imaging information 211 (step S15). At this time, based on the image representing the reference object 80 imaged in the measurement imaging information 211 and the known information on the reference object 80, the measurement control unit 200 determines a reference light environment (measurement imaging information The light environment at the time when the image 211 was captured is acquired.

一般に、自宅で計測装置2を操作している場合には、照明部27以外の室内照明も使用されていると考えられる。このような場合には、照明部27の照明状態(例えば制御値)のみを取得しても、計測用撮像情報211を取得したときの光環境を取得したことにはならない。したがって、計測装置2は、これら任意の照明の影響も考慮することができるように、基準物体80を用いて基準となる光環境を取得する。なお、基準となる光環境が取得された後も、撮像部26は、撮像を継続し、計測用撮像情報211を取得しつづける。   Generally, when the measuring device 2 is operated at home, it is considered that indoor lighting other than the lighting unit 27 is also used. In such a case, acquiring only the illumination state (for example, the control value) of the illumination unit 27 does not mean that the light environment at the time of acquiring the measurement imaging information 211 is acquired. Therefore, the measuring device 2 acquires the reference light environment using the reference object 80 so that the influence of the arbitrary illumination can be considered. Note that, even after the reference light environment is acquired, the imaging unit 26 continues to capture images and continues to acquire the measurement imaging information 211.

ステップS15が終了すると、撮像部26は、ユーザの全周を周回しつつ撮像する(ステップS16)。   When step S15 ends, the image capturing unit 26 captures an image while circling the entire circumference of the user (step S16).

計測制御部200は、ステップS16が継続している間に取得される計測用撮像情報211からユーザ撮像画像を抽出して、各方向からの情報を結合する。計測制御部200は、結合されたユーザ撮像画像を解析し、全周にわたる画像が得られたと判断したときに、ステップS16を終了する。これにより、ユーザの全周にわたる撮像が完了し、ユーザの全周に相当するカラー画像(計測用撮像情報211)が取得される。計測制御部200は、このようにして取得したユーザの全周に相当する計測用撮像情報211を、1つの計測用撮像情報211として作成し、記憶装置21に格納する。   The measurement control unit 200 extracts the user captured image from the measurement imaging information 211 acquired while step S16 continues, and combines the information from each direction. The measurement control unit 200 analyzes the combined user-captured image and ends step S16 when determining that an image over the entire circumference has been obtained. Thereby, the imaging over the entire circumference of the user is completed, and a color image (measurement imaging information 211) corresponding to the entire circumference of the user is obtained. The measurement control unit 200 creates the measurement imaging information 211 corresponding to the entire circumference of the user acquired as described above as one measurement imaging information 211 and stores it in the storage device 21.

ステップS17が実行されると、モデル作成部201は、ステップS17において作成された計測用撮像情報211に基づいて、三次元形状情報212を作成する(ステップS18)。ステップS18において、モデル作成部201は、一旦作成した各方向からの三次元形状情報212を、互いに結合して、ユーザの全周に相当する完全な三次元形状情報212を作成する。   When step S17 is executed, the model creating unit 201 creates three-dimensional shape information 212 based on the measurement imaging information 211 created in step S17 (step S18). In step S18, the model creation unit 201 combines the once created three-dimensional shape information 212 from each direction to create complete three-dimensional shape information 212 corresponding to the entire circumference of the user.

なお、三次元形状情報212は、常に、全周にわたる計測用撮像情報211から作成されなければならないわけではない。例えば、ユーザの顔面部分のみ作成し、他の機会に作成された三次元形状情報212から、後頭部や側頭部の部分を抽出し、結合して完全な三次元形状情報212を作成してもよい。また、必ずしも全周のデータがなくとも、顔の化粧のみを行うのであれば、一方向から撮像された計測用撮像情報211から、顔面のみの三次元形状情報212を取得し、化粧時に利用してもよい。   Note that the three-dimensional shape information 212 does not always have to be created from the measurement imaging information 211 over the entire circumference. For example, even if only the user's face part is created, the occipital and temporal parts are extracted from the three-dimensional shape information 212 created at another occasion, and combined to create the complete three-dimensional shape information 212. Good. Also, if only makeup of the face is performed without necessarily having data of the entire circumference, three-dimensional shape information 212 of the face only is acquired from the imaging information 211 for measurement taken in one direction and used for makeup. You may.

次に、通信部24は、作成された三次元形状情報212、および、必要な計測用撮像情報211を携帯端末装置3に向けて送信する(ステップS19)。   Next, the communication unit 24 transmits the created three-dimensional shape information 212 and the necessary measurement imaging information 211 to the portable terminal device 3 (Step S19).

なお、このとき、ユーザの部位ごとに分離して情報(計測用撮像情報211や三次元形状情報212)を管理するようにしてもよい。例えば、髪の部分と顔の部分とを分離してもよい。このように分離して管理しておくことにより、後に、例えば、髪の部分に関する情報だけが必要になった場合の処理を軽減することができる。   At this time, information (measurement imaging information 211 and three-dimensional shape information 212) may be managed separately for each part of the user. For example, a hair part and a face part may be separated. By separating and managing in this way, it is possible to reduce the processing when, for example, only information on the hair part is needed later.

ステップS19を実行すると、CPU20は、三次元形状作成処理を終了して、図15に示す処理に戻る。三次元形状情報作成処理を終了して図15に戻ると、計測装置2は、ステップS1から処理を繰り返す。したがって、計測装置2は、さらに新しい三次元形状情報212を作成することも可能である。これにより、計測装置2は、例えば、ユーザの表情を変えた三次元形状情報212を作成することもできる。   After executing step S19, the CPU 20 ends the three-dimensional shape creation processing and returns to the processing shown in FIG. When the processing returns to FIG. 15 after completing the three-dimensional shape information creation processing, the measuring device 2 repeats the processing from step S1. Therefore, the measurement device 2 can also create new three-dimensional shape information 212. Thereby, the measurement device 2 can also create, for example, the three-dimensional shape information 212 in which the expression of the user is changed.

メニュー画像50においてボタン画像42が操作され、入力された指示情報が「化粧開始」となった場合、CPU20は、ステップS5においてYesと判定し、化粧準備処理(ステップS6)および化粧支援処理(ステップS7)を実行する。ただし、先述のように、計測装置2を用いた化粧については、携帯端末装置3を用いた化粧と同様に処理可能であるため、ここでは説明を省略する。   When the button image 42 is operated on the menu image 50 and the input instruction information is “makeup start”, the CPU 20 determines Yes in step S5, and makes up the makeup preparation process (step S6) and the makeup support process (step S5). Execute S7). However, as described above, the makeup using the measuring device 2 can be processed in the same manner as the makeup using the mobile terminal device 3, and thus the description is omitted here.

メニュー画像50においてボタン画像43が操作され、入力された指示情報が「終了」となった場合、CPU20は、ステップS8においてYesと判定し、お化粧アプリを終了する。   When the button image 43 is operated on the menu image 50 and the input instruction information is “end”, the CPU 20 determines Yes in step S8 and ends the makeup application.

以上が、主に、計測装置2によって実現される処理の説明である。次に、携帯端末装置3によって実現される処理を説明する。   The above is mainly the description of the processing realized by the measuring device 2. Next, processing realized by the mobile terminal device 3 will be described.

図18は、携帯端末装置3の動作を示す流れ図である。なお、特に断らない限り、図18に示す各工程は、CPU10がプログラム110に従って動作することにより実行される。   FIG. 18 is a flowchart showing the operation of the portable terminal device 3. Unless otherwise specified, each step illustrated in FIG. 18 is executed by the CPU 10 operating according to the program 110.

また、図18に示す各工程が実行されるまでに、計測装置2から携帯端末装置3に向けて、三次元形状情報212および計測用撮像情報211が送信され、携帯端末装置3においてデータベース111に格納されているものとする。   By the time each of the steps shown in FIG. 18 is executed, the three-dimensional shape information 212 and the measurement imaging information 211 are transmitted from the measuring device 2 to the portable terminal device 3, and are stored in the database 111 in the portable terminal device 3. It shall be stored.

本来、三次元形状情報212は、当該三次元形状情報212が作成されたときに、計測装置2から携帯端末装置3に向けて送信される。しかし、何らかの事情で、三次元形状情報212の送信が行われなかったり、携帯端末装置3において三次元形状情報212の受信や保存に失敗している場合も想定される。   Originally, the three-dimensional shape information 212 is transmitted from the measuring device 2 to the portable terminal device 3 when the three-dimensional shape information 212 is created. However, for some reason, the case where the transmission of the three-dimensional shape information 212 is not performed or the case where the mobile terminal device 3 fails to receive or store the three-dimensional shape information 212 is also assumed.

一方で、化粧支援システム1では、携帯端末装置3に三次元形状情報212に相当する情報を作成する機能がない。すなわち、三次元形状情報212が携帯端末装置3に存在しない場合、ユーザは当該携帯端末装置3を用いて化粧を行うことができない。したがって、携帯端末装置3はお化粧アプリが起動されたときなどに、三次元形状情報212の存否を確認し、三次元形状情報212が存在しない場合には、携帯端末装置3から計測装置2に向けて計測用撮像情報211および三次元形状情報212をダウンロードするための要求を行ってもよい。   On the other hand, in makeup assisting system 1, portable terminal device 3 does not have a function of creating information corresponding to three-dimensional shape information 212. That is, when the three-dimensional shape information 212 does not exist in the mobile terminal device 3, the user cannot perform makeup using the mobile terminal device 3. Therefore, the portable terminal device 3 confirms the presence or absence of the three-dimensional shape information 212 when, for example, the makeup application is activated. If the three-dimensional shape information 212 does not exist, the portable terminal device 3 sends the three-dimensional shape information 212 to the measuring device 2. A request for downloading the measurement imaging information 211 and the three-dimensional shape information 212 may be made.

携帯端末装置3に電源が投入されると、携帯端末装置3は所定の初期設定を実行する。そして、お化粧アプリがユーザによって起動されると、携帯端末装置3は表示部33にメニューを表示する(ステップS21)。   When the power of the mobile terminal device 3 is turned on, the mobile terminal device 3 performs a predetermined initial setting. Then, when the makeup application is activated by the user, the mobile terminal device 3 displays a menu on the display unit 33 (Step S21).

図19は、携帯端末装置3の表示部33に表示されるメニュー画像51を例示する図である。図19に示すように、メニュー画像51には、ボタン画像44,45,46,47が設けられている。各ボタン画像44,45,46,47は、ユーザが当該画像に触れるか、または、操作部32を操作して選択するように構成されている。   FIG. 19 is a diagram illustrating a menu image 51 displayed on the display unit 33 of the mobile terminal device 3. As shown in FIG. 19, the menu image 51 is provided with button images 44, 45, 46, and 47. Each of the button images 44, 45, 46, and 47 is configured so that a user touches the image or operates the operation unit 32 to select the image.

ボタン画像44は、ユーザ登録を行うときに選択される画像である。ユーザ登録とは、ユーザがオーナー情報を入力するときに必要となる処理である。化粧支援システム1では、携帯端末装置3を用いてユーザ登録することも可能である。ユーザ登録において、携帯端末装置3は、所定のGUI画面(図示せず。)を表示する。ユーザが、表示されたGUI画面に従って必要事項を入力することにより、ユーザ登録(オーナー情報の入力)を完了する。ただし、以下の説明では、計測装置2の場合と同様に、ユーザ登録についての詳細な説明は省略する。   The button image 44 is an image selected when performing user registration. User registration is a process required when a user inputs owner information. In the makeup support system 1, it is also possible to perform user registration using the mobile terminal device 3. In the user registration, the mobile terminal device 3 displays a predetermined GUI screen (not shown). The user completes user registration (input of owner information) by inputting necessary items in accordance with the displayed GUI screen. However, in the following description, similar to the case of the measuring device 2, the detailed description of the user registration is omitted.

ボタン画像45は、事前処理を行うときに選択される画像である。携帯端末装置3における事前処理とは、主に、ユーザが任意の場所に赴き、当該場所の光環境を収集して光環境情報113を新たに作成するための処理である。   The button image 45 is an image selected when performing pre-processing. The pre-processing in the portable terminal device 3 is mainly processing for the user to go to an arbitrary place, collect the light environment of the place, and newly create the light environment information 113.

ボタン画像46は、実際にユーザが化粧を開始するときに選択する画像である。   The button image 46 is an image selected by the user when actually starting makeup.

ボタン画像47は、携帯端末装置3において、お化粧アプリを終了させるときに選択される画像である。   The button image 47 is an image selected when the makeup application is terminated in the mobile terminal device 3.

図18に戻って、ステップS21を実行して、メニュー画像51を表示すると、CPU10は、指示情報が入力されるまでステップS21を繰り返しつつ待機する(ステップS22)。   Returning to FIG. 18, when step S21 is executed to display the menu image 51, the CPU 10 waits while repeating step S21 until instruction information is input (step S22).

メニュー画像51におけるボタン画像44,45,46,47のうちのいずれかが操作されると、その操作に応じて指示情報が入力され、CPU10はステップS22においてYesと判定する。   When any one of the button images 44, 45, 46, and 47 in the menu image 51 is operated, instruction information is input according to the operation, and the CPU 10 determines Yes in step S22.

メニュー画像51においてボタン画像45が操作され、入力された指示情報が「事前処理」となった場合、CPU10は、ステップS23においてYesと判定し、撮像部35に撮像を開始するように指示を与える。これにより、撮像部35が撮像を行い、撮像情報112が取得される(ステップS24)。   When the button image 45 is operated on the menu image 51 and the input instruction information is “preliminary processing”, the CPU 10 determines Yes in step S23 and gives an instruction to the imaging unit 35 to start imaging. . Thereby, the imaging unit 35 performs imaging, and the imaging information 112 is obtained (step S24).

さらに、データ取得部100が、ステップS24において取得された撮像情報112に撮像されている基準物体80の画像と、当該基準物体80の既知の情報とに基づいて、当該撮像情報112が撮像されたときの光環境を求め、光環境情報113に格納する(ステップS25)。   Further, the data acquisition unit 100 captures the imaging information 112 based on the image of the reference object 80 captured in the imaging information 112 acquired in step S24 and the known information of the reference object 80. The light environment at that time is obtained and stored in the light environment information 113 (step S25).

このように、ステップS24,S25が実行されることにより、化粧支援システム1では、任意の場所における光環境を容易に光環境情報113として記録することができる。したがって、ユーザが頻繁に訪れる場所について、光環境情報113を作成しておけば、以後、化粧支援システム1は、ユーザが当該場所に赴く以前に、当該場所の光環境を考慮した化粧支援情報114を作成することが可能となる。   By executing steps S24 and S25 in this manner, the makeup support system 1 can easily record the light environment at an arbitrary location as the light environment information 113. Therefore, if the light environment information 113 is created for a place that the user frequently visits, the makeup support system 1 thereafter sets the makeup support information 114 in consideration of the light environment of the place before the user goes to the place. Can be created.

メニュー画像51においてボタン画像46が操作され、入力された指示情報が「化粧開始」となった場合、CPU10は、ステップS26においてYesと判定し、化粧準備処理を実行する(ステップS27)。   When the button image 46 is operated on the menu image 51 and the input instruction information is “makeup start”, the CPU 10 determines Yes in step S26 and executes a makeup preparation process (step S27).

図20は、携帯端末装置3によって実行される化粧準備処理を示す流れ図である。なお、図20に示す化粧準備処理が開始されるまでに、すでに三次元形状情報212がデータベース111に格納されているものとする。ただし、未だ三次元形状情報212が準備されていない状態で「化粧開始」が指示された場合には、「先に事前処理を行ってください」といったエラーメッセージを表示するようにしてもよい。   FIG. 20 is a flowchart showing the makeup preparation process executed by mobile terminal device 3. It is assumed that the three-dimensional shape information 212 has already been stored in the database 111 before the makeup preparation process shown in FIG. However, if "makeup start" is instructed in a state where the three-dimensional shape information 212 is not yet prepared, an error message such as "please perform pre-processing first" may be displayed.

化粧準備処理が開始されると、CPU10は、撮像情報112を取得するように撮像部35を制御する。これにより、撮像部35が撮像を開始し(ステップS30)、撮像情報112の取得が開始される。   When the makeup preparation process is started, the CPU 10 controls the imaging unit 35 to acquire the imaging information 112. Accordingly, the imaging unit 35 starts imaging (step S30), and the acquisition of the imaging information 112 is started.

撮像情報112の取得が開始されると、データ取得部100は、撮像情報112に基づいて、現在(化粧時)の光環境を推定し(ステップS31)、データベース111の光環境情報113に格納する。なお、ステップS31を実行するとき、携帯端末装置3は、表示部33に、基準物体80を撮像範囲内に配置するように促すメッセージを表示させるとよい。   When the acquisition of the imaging information 112 is started, the data acquisition unit 100 estimates the current (at the time of makeup) light environment based on the imaging information 112 (step S31), and stores it in the light environment information 113 of the database 111. . When performing step S31, the mobile terminal device 3 may display a message prompting the display unit 33 to arrange the reference object 80 within the imaging range.

化粧時の光環境が取得されると、推定部101は、データベース111を参照して、化粧が完了したときの計測用撮像情報211が格納されているか否かに応じて、すでにユーザが化粧済みであるか否かを判定する(ステップS32)。   When the light environment at the time of makeup is acquired, the estimating unit 101 refers to the database 111 and determines whether or not the user has already applied makeup according to whether or not the measurement imaging information 211 when makeup is completed is stored. Is determined (step S32).

未だ化粧がされていない場合(ステップS32においてNo。)、推定部101は、ステップS31において取得された現在(化粧時)の光環境(光環境情報113)と、リアルタイムに取得されている撮像情報112とに基づいて、現在(化粧時)におけるユーザの顔色を推定する(ステップS33)。未だ化粧が施されていないユーザの顔は、素顔であり、そのときの顔面の色は、ユーザの現実の顔色とみなせる。なお、化粧の対象がユーザの顔でない場合には、ステップS33をスキップしてもよい。   If makeup has not been applied yet (No in step S32), the estimating unit 101 determines the current (at the time of makeup) light environment (light environment information 113) acquired in step S31 and the imaging information acquired in real time. Then, the user's face color is estimated at the present time (during make-up) based on 112 (step S33). The face of the user who has not yet applied makeup is a bare face, and the color of the face at that time can be regarded as the real face color of the user. When the makeup target is not the user's face, step S33 may be skipped.

一方、すでに化粧済みの場合(ステップS32においてYes。)、推定部101は、化粧が完了したときの計測用撮像情報211(過去撮像画像)と、撮像情報112とに基づいて、すでに施された化粧の現在における劣化度と、化粧なおしの推奨時間とを推定する(ステップS34)。なお、すでに化粧がされた後のユーザの顔面の色は、当該化粧の影響を受けており、もはや顔色とはいえない。したがって、ステップS34を実行するときにおいて、推定部101は、ステップS33をスキップする。   On the other hand, when makeup has already been performed (Yes in step S32), the estimation unit 101 has already performed the makeup based on the measurement imaging information 211 (past captured image) when the makeup is completed and the imaging information 112. The current deterioration degree of makeup and the recommended time for makeup repair are estimated (step S34). Note that the face color of the user after makeup has already been applied is affected by the makeup, and is no longer a complexion. Therefore, when executing Step S34, the estimating unit 101 skips Step S33.

次に、推定部101は、目線ズレ角を推定し、当該目線ズレ角を抑制するための補正距離(図9の補正距離73参照。)を推定する(ステップS35)。   Next, the estimating unit 101 estimates a line-of-sight deviation angle, and estimates a correction distance (see the correction distance 73 in FIG. 9) for suppressing the line-of-sight deviation angle (step S35).

ステップS33ないしS35が順次実行されて、実際の化粧を開始する前における各種の状態が推定されると、推定部101は、これらの工程において推定した結果を推定情報として、情報作成部102に伝達する。   When steps S33 to S35 are sequentially performed and various states before the actual makeup is started are estimated, the estimation unit 101 transmits the results estimated in these steps to the information creation unit 102 as estimation information. I do.

次に、CPU10は、化粧を行うときの条件を入力する画面を表示部33に表示させる(ステップS36)。ステップS36において、表示部33は、所定のGUIを表示し、ユーザは当該GUIに従って、これから開始する化粧の条件を入力する。なお、ステップS36においてユーザが入力する条件とは、化粧の披露場所や目的、化粧を施す部位を示す情報などである。   Next, CPU 10 causes display 33 to display a screen for inputting conditions for performing makeup (step S36). In step S36, the display unit 33 displays a predetermined GUI, and the user inputs makeup conditions to be started according to the GUI. The condition input by the user in step S36 is information indicating a place where makeup is presented, a purpose, a part where makeup is applied, and the like.

ユーザによる入力が完了すると、CPU10はステップS36を終了し、入力された情報(条件)を指示情報として保持する。さらに、CPU10は、予測画像情報表示処理を実行する(ステップS37)。   When the input by the user is completed, the CPU 10 ends step S36 and holds the input information (condition) as instruction information. Further, the CPU 10 executes a predicted image information display process (step S37).

図21は、携帯端末装置3によって実行される予測画像情報表示処理を示す流れ図である。   FIG. 21 is a flowchart showing the predicted image information display processing executed by the mobile terminal device 3.

予測画像情報表示処理が開始されると、CPU10(情報作成部102)は、まず、推定部101によって推定された補正距離を示す化粧支援情報114を作成する。具体的には、推定部101によって推定された補正距離に基づいて、ユーザに目線を変更するように促すメッセージを含む化粧支援情報114を作成する。このようなメッセージとしては、例えば、「カメラの10cmほど上方を見つめてください」といった文字列が想定される。そして、当該化粧支援情報114は、表示部33に表示される(ステップS41)。   When the predicted image information display process is started, the CPU 10 (information creating unit 102) first creates makeup assisting information 114 indicating the correction distance estimated by the estimating unit 101. Specifically, based on the corrected distance estimated by the estimating unit 101, makeup assisting information 114 including a message urging the user to change his / her eyes is created. As such a message, for example, a character string such as “Please look up about 10 cm above the camera” is assumed. Then, the makeup support information 114 is displayed on the display unit 33 (Step S41).

ステップS41において表示されたメッセージに従って、ユーザが目線を変更すると、すでにステップS30によって撮像部35による撮像は開始されているので、目線を変更した状態(正面を向いた状態)のユーザの顔面が撮像部35によって撮像され、目線合わせのために使用される撮像情報112が取得される。これにより、以後の撮像情報112は、一旦、撮像された正面を向いた状態を撮像した撮像情報112による補正が開始される(ステップS42)。このような補正として、情報作成部102は、例えば、撮像情報112のうち、ユーザの目の周辺(あるいは瞼のみ)部分については、正面を向いた状態を撮像した撮像情報112に撮像されている部分画像に置換する。   When the user changes his / her eyes in accordance with the message displayed in step S41, since the imaging by the imaging unit 35 has already been started in step S30, the user's face in a state where his / her eyes have been changed (a state in which the user faces the front) is imaged. The imaging information 112 which is imaged by the unit 35 and used for eye alignment is acquired. As a result, the subsequent imaging information 112 is temporarily corrected by the imaging information 112 obtained by imaging the front facing state (step S42). As such a correction, the information creating unit 102 captures, for example, a portion of the imaging information 112 around the user's eyes (or only the eyelids) in the imaging information 112 obtained by capturing the front-facing state. Replace with a partial image.

ステップS41において表示されるメッセージによってユーザは、一旦、正面を向いた状態となるが、この状態を維持するわけではない。すなわち、ユーザは、その後、再び表示部33に目線を落とす状態となる。しかし、そのような状態で撮像される撮像情報112は、ステップS42において開始された補正により、情報作成部102により正面を向いた状態に補正される。   According to the message displayed in step S41, the user temporarily faces the front, but does not necessarily maintain this state. That is, the user then drops the line of sight on the display unit 33 again. However, the imaging information 112 imaged in such a state is corrected by the information generation unit 102 to the state of facing the front by the correction started in step S42.

次に、情報作成部102は、撮像情報112に対する光環境の補正を開始する(ステップS43)。このときの光環境とは、ステップS36またはS39において、ユーザにより指定された光環境であり、例えば、所望する披露場所に関する光環境(光環境情報113から指定される。)や、基準となる光環境(計測用撮像情報211に関連づけられている。)である。ステップS43が実行されることにより、以後の撮像情報112は、ユーザの所望する光環境において撮像されたかのような画像となる。   Next, the information creation unit 102 starts correcting the light environment for the imaging information 112 (Step S43). The light environment at this time is the light environment specified by the user in step S36 or S39, and is, for example, the light environment (specified from the light environment information 113) relating to the desired show location, or the reference light. Environment (associated with measurement imaging information 211). By performing step S43, the subsequent imaging information 112 becomes an image as if it were captured in a light environment desired by the user.

次に、情報作成部102は、複数の三次元形状情報212から1の三次元形状情報212を選択する(ステップS44)。ステップS44における選択は、すでに説明したように、ユーザからの指示(ステップS36またはS39において入力される。)、または、撮像情報112に撮像されているユーザの表情などに基づいて実行される。   Next, the information creating unit 102 selects one piece of the three-dimensional shape information 212 from the plurality of pieces of three-dimensional shape information 212 (Step S44). The selection in step S44 is executed based on an instruction from the user (input in step S36 or S39), the expression of the user captured in the imaging information 112, or the like, as described above.

三次元形状情報212が選択されると、推定部101は、ステップS44において選択された三次元形状情報44と撮像情報112とに基づいて、撮像情報112における撮像ズレ角を推定し(ステップS45)、推定情報として情報作成部102に伝達する。   When the three-dimensional shape information 212 is selected, the estimation unit 101 estimates an imaging shift angle in the imaging information 112 based on the three-dimensional shape information 44 and the imaging information 112 selected in step S44 (step S45). Is transmitted to the information creating unit 102 as estimated information.

推定部101から撮像ズレ角が伝達されると、情報作成部102は、撮像情報112からユーザ撮像画像を抽出し、伝達された撮像ズレ角に応じて決定される方位における三次元形状の見え方に、当該ユーザ撮像画像をマッピングし、ユーザの所望する方位に変更した表示ユーザ画像を作成する。   When the imaging shift angle is transmitted from the estimating unit 101, the information creating unit 102 extracts a user captured image from the imaging information 112, and views the three-dimensional shape in the azimuth determined according to the transmitted imaging shift angle. Then, the user-captured image is mapped to create a display user image changed to the direction desired by the user.

なお、すでに説明したように、撮像の方位を合わせるだけでは、特徴点の位置誤差が大きい場合、情報作成部102は、さらに合わせ込みを行って表示ユーザ画像を作成する。この場合の合わせ込みについても既に説明したように、三次元形状情報212の位置に合わせてもよいし、撮像情報112(ユーザ撮像画像)の位置に合わせてもよい。   As described above, if the positional error of the feature point is large only by adjusting the azimuth of the imaging, the information creating unit 102 further performs the adjustment to create the display user image. As described above, the adjustment in this case may be adjusted to the position of the three-dimensional shape information 212 or may be adjusted to the position of the imaging information 112 (user captured image).

さらに、情報作成部102は、作成した当該表示ユーザ画像と、推定部101によってすでに推定されている化粧の劣化度および化粧なおしの予定時間を含む化粧支援情報114を作成する(ステップS46)。   Further, the information creating unit 102 creates makeup support information 114 including the created display user image, the degree of makeup deterioration estimated by the estimating unit 101, and the scheduled time for makeup repair (step S46).

ステップS46が実行されるとき、すでにステップS42,S43が実行されている。したがって、ステップS45において作成される表示ユーザ画像は、目線が正面を向いており、かつ、ユーザの所望する光環境に補正されている。   When step S46 is executed, steps S42 and S43 have already been executed. Therefore, in the display user image created in step S45, the eyes are directed to the front, and the display environment is corrected to the light environment desired by the user.

次に、CPU10は、ステップS46において作成された化粧支援情報114を表示部33に表示させる。このとき表示される化粧支援情報114は、例えば、図10に示す化粧支援情報114となる。すなわち、目線が正面を向いており、かつ、ユーザの所望する光環境に補正された撮像情報112(表示ユーザ画像)と、化粧の劣化度(数値)と、化粧なおしの予定時間とが表示される(ステップS47)。   Next, CPU 10 causes display unit 33 to display makeup assistance information 114 created in step S46. The makeup support information 114 displayed at this time is, for example, the makeup support information 114 shown in FIG. That is, the imaging information 112 (displayed user image) corrected with the light environment desired by the user, the degree of makeup deterioration (numerical value), and the scheduled time of makeup repair are displayed, with the eyes facing the front. (Step S47).

ステップS47を実行すると、CPU10は、ユーザが引き続き化粧を継続するか終了するかを指示するまで待機する状態となる(ステップS48)。   After executing step S47, the CPU 10 enters a state of waiting until the user instructs whether to continue makeup or to end makeup (step S48).

ステップS47において表示される化粧支援情報114を閲覧することにより、ユーザは、直ちに化粧なおしが必要か否かを判断することができる。すなわち、化粧の劣化度が激しく、すでに化粧なおしの予定時間が到来している場合、ユーザは化粧の継続を所望する。一方、未だ化粧の劣化度が低く、化粧なおしの予定時間まで時間がある場合には、一旦、化粧の終了を所望する。ユーザは、ステップS47において化粧支援情報114が表示されると、化粧を継続するか否かを示す指示情報を操作部32を操作することにより入力する。   By browsing the makeup support information 114 displayed in step S47, the user can immediately determine whether or not makeup needs to be changed. In other words, when the degree of makeup deterioration is severe and the scheduled time for makeup replacement has come, the user desires to continue makeup. On the other hand, if the degree of deterioration of the makeup is still low and there is a time until the scheduled time for makeup repair, it is desired to end makeup once. When makeup support information 114 is displayed in step S47, the user inputs instruction information indicating whether or not to continue makeup by operating operation unit 32.

化粧を終了する指示が入力された場合(ステップS48においてYes。)、CPU10は、予測画像表示処理を終了し、図20に示す処理に戻ることなく、図18に示すステップS21の処理に戻る。すなわち、この場合、携帯端末装置3は、予測画像情報を表示することなく、かつ、後述する化粧支援処理(ステップS28)をスキップする。   When an instruction to end makeup is input (Yes in step S48), CPU 10 ends the predicted image display process and returns to the process in step S21 shown in FIG. 18 without returning to the process shown in FIG. That is, in this case, the portable terminal device 3 does not display the predicted image information and skips the makeup support processing (step S28) described later.

化粧を継続する指示が入力された場合(ステップS48においてNo。)、情報作成部102は、ステップS36またはS39において受け付けた指示情報(条件)に応じて、化粧が完了した後のユーザの部位を表現した予測画像情報(表示ユーザ画像)を化粧支援情報114として作成する。そして、表示部33が、当該予測画像情報を含む化粧支援情報114を表示する(ステップS49)。   When an instruction to continue makeup is input (No in step S48), information creating unit 102 determines a part of the user after makeup is completed according to the instruction information (condition) received in step S36 or S39. The expressed prediction image information (display user image) is created as makeup assistance information 114. Then, the display unit 33 displays the makeup support information 114 including the predicted image information (Step S49).

これにより、ユーザは、化粧を開始する前に、ステップS36またはS39で入力した条件による化粧の完成後の状態を確認することができる。したがって、ユーザは、思いもよらない化粧状態に、誤って誘導されることを回避することができる。   Thereby, the user can confirm the state after the completion of the makeup based on the condition input in step S36 or S39 before starting the makeup. Therefore, the user can avoid being erroneously guided to an unexpected makeup state.

ステップS49を実行すると、CPU10は、予測画像情報表示処理を終了し、図20に示す処理に戻る。   When step S49 is executed, the CPU 10 ends the predicted image information display processing and returns to the processing shown in FIG.

予測画像情報表示処理を終了して図20に示す処理に戻ると、CPU10は、ユーザが予測画像情報によって示される完成後の状態に了解したか否かを判定する(ステップS38)。ステップS38における判定は、ユーザが操作部32を操作して入力する指示情報に応じて実行することができる。   When the predicted image information display process ends and the process returns to the process illustrated in FIG. 20, the CPU 10 determines whether or not the user has accepted the state after completion indicated by the predicted image information (step S38). The determination in step S38 can be executed according to the instruction information input by the user operating the operation unit 32.

ユーザが了解しない場合(ステップS38においてNo。)、携帯端末装置3は、修正指示を受け付け(ステップS39)てから、ステップS37の処理に戻る。ステップS37では、ステップS39において受け付けた修正指示を反映させた予測画像情報が新たに作成され、当該予測画像情報が含まれる化粧支援情報114が表示される。   If the user does not understand (No in step S38), the portable terminal device 3 receives the correction instruction (step S39), and then returns to the processing in step S37. In step S37, predicted image information reflecting the correction instruction received in step S39 is newly created, and makeup support information 114 including the predicted image information is displayed.

一方、ユーザが了解した場合(ステップS38においてYes。)、CPU10は、化粧準備処理(ステップS27)を終了して、図18に示す処理に戻る。   On the other hand, when the user understands (Yes in step S38), the CPU 10 ends the makeup preparation process (step S27), and returns to the process illustrated in FIG.

化粧準備処理を終了して図18に示す処理に戻ると、携帯端末装置3は、化粧支援処理を実行する(ステップS28)。   When the makeup preparation process ends and the process returns to the process illustrated in FIG. 18, the mobile terminal device 3 executes a makeup support process (step S28).

図22は、携帯端末装置3によって実行される化粧支援処理を示す流れ図である。なお、化粧支援処理(ステップS28)が開始されるまでに、必ず化粧準備処理(ステップS27)が実行される。したがって、ステップS28における化粧支援処理が開始された時点では、撮像部35による撮像がすでに開始されており、撮像情報112に対する補正は実行されている。また、三次元形状情報212の選択や、撮像情報112をマッピングするときの方位なども、すでに決定されている。   FIG. 22 is a flowchart showing the makeup support processing executed by portable terminal device 3. The makeup preparation process (Step S27) is always executed before the makeup support process (Step S28) starts. Therefore, when the makeup support processing is started in step S28, the imaging by the imaging unit 35 has already been started, and the correction for the imaging information 112 has been executed. In addition, the selection of the three-dimensional shape information 212 and the azimuth when mapping the imaging information 112 have already been determined.

化粧支援処理が開始されると、情報作成部102は、選択されている三次元形状情報212に基づいて、化粧時に撮像された撮像情報112(すでに補正がされている。)をテクスチャマッピングすることにより、表示ユーザ画像を作成する処理を開始する(ステップS51)。   When the makeup support processing is started, the information creating unit 102 texture-maps the imaging information 112 (already corrected) captured at the time of makeup based on the selected three-dimensional shape information 212. Starts the process of creating the display user image (step S51).

すなわち、ステップS51が実行された後は、撮像部35がリアルタイムに撮像し続ける撮像情報112により、表示ユーザ画像が動画像のように作成され続けることになる。したがって、順次作成される表示ユーザ画像には、化粧の進捗状況が反映されることになる。   That is, after step S51 is executed, the display user image is continuously created as a moving image based on the imaging information 112 that the imaging unit 35 continuously captures in real time. Therefore, the progress status of makeup is reflected in the display user images created sequentially.

次に、情報作成部102は、作成された表示ユーザ画像と、データベース111から取得した様々な情報(アドバイスとなる情報)とを含む化粧支援情報114を作成する(ステップS52)。このとき化粧支援情報114に含められるアドバイスとは、例えば、塗布速度の適正に関するアドバイスや、塗布位置を示すガイド(例えば、ガイド81など)、適切な化粧品や道具の名称などである。   Next, the information creating unit 102 creates makeup support information 114 including the created display user image and various information (information serving as advice) acquired from the database 111 (step S52). At this time, the advice included in the makeup support information 114 is, for example, advice on the appropriateness of the application speed, a guide indicating the application position (for example, the guide 81), names of appropriate cosmetics and tools, and the like.

化粧支援情報114が作成されると、表示部33は、作成された化粧支援情報114を表示する(ステップS53)。これにより、ユーザに対して化粧支援情報114が提供される。したがって、ユーザは、化粧中において、化粧支援情報114を参照することにより、適切な化粧を実行することができる。   When the makeup support information 114 is created, the display unit 33 displays the created makeup support information 114 (Step S53). Thereby, makeup assistance information 114 is provided to the user. Therefore, the user can execute appropriate makeup by referring to makeup support information 114 during makeup.

ステップS53を実行すると、CPU10は、現在化粧の対象となっている部位に対する化粧を終了するか否かを判定する(ステップS54)。   After executing step S53, the CPU 10 determines whether or not to end the makeup for the part that is currently targeted for makeup (step S54).

化粧中の部位に関する化粧の終了は、ユーザが操作部32を操作することによって指示情報として入力されるものとする。すなわち、ユーザが化粧の状態に満足し、化粧の終了を入力した場合にステップS54においてYesと判定され、当該入力がない限り、ステップS54においてNoと判定されてステップS52からの処理が繰り返される。   It is assumed that the end of the makeup related to the part under makeup is input as instruction information by operating the operation unit 32 by the user. That is, if the user is satisfied with the state of the makeup and inputs the end of the makeup, it is determined as Yes in step S54, and unless there is such an input, the determination is No in step S54 and the processing from step S52 is repeated.

なお、図22の説明において省略したが、ステップS32ないしS36が実行されている間、推定部101は、ユーザによる塗布速度などに関する推定を継続している。そして、情報作成部102は、ステップS52において推定部101から伝達される推定情報に応じた化粧支援情報114を作成する。   Although omitted in the description of FIG. 22, while steps S32 to S36 are being executed, the estimating unit 101 continues to estimate the application speed and the like by the user. Then, the information creating unit 102 creates the makeup support information 114 according to the estimated information transmitted from the estimating unit 101 in step S52.

また、終了の指示自体はユーザから入力されるが、化粧の完了を知らせる化粧支援情報114は、すでに説明したように、情報作成部102によって作成され、表示部33に表示される。   The end instruction itself is input by the user, but the makeup support information 114 for notifying the completion of makeup is created by the information creating unit 102 and displayed on the display unit 33 as described above.

ステップS54においてYesと判定すると、CPU10は、他の部位について引き続き化粧を行うか否かを指示するようにユーザに促すとともに、当該指示があるまで待機する。そして、ユーザからの指示が入力されると、当該指示が他の部位について引き続き化粧を行う旨の指示か否かを判定する(ステップS55)。   If the determination is Yes in step S54, the CPU 10 prompts the user to instruct whether or not to continue applying makeup to another part, and waits for the instruction. Then, when an instruction from the user is input, it is determined whether or not the instruction is an instruction to continue makeup for another part (step S55).

ユーザが他の部位についての化粧を行う旨を入力した場合、CPU10は、ステップS55においてYesと判定し、ステップS36(図20)からの処理を繰り返す。すなわち、携帯端末装置3は、新たに化粧を開始する部位に関する条件入力を受け付ける状態となる。   When the user has input that makeup is to be applied to another part, CPU 10 determines Yes in step S55, and repeats the processing from step S36 (FIG. 20). That is, the mobile terminal device 3 is in a state of receiving a condition input relating to a part where makeup is newly started.

一方、ユーザが他の部位についての化粧を行わない旨を入力した場合には、ステップS55においてNoと判定し、撮像部35による撮像や、推定部101による推定、および、表示ユーザ画像の作成等をそれぞれ終了してから、化粧支援処理を終了し、図18に示す処理に戻る。ステップS28の化粧支援処理を終了して図18に示す処理に戻った場合、携帯端末装置3は、ステップS21に戻って処理を繰り返す。   On the other hand, if the user has input that no makeup is to be performed on another part, the determination is No in step S55, and the imaging by the imaging unit 35, the estimation by the estimation unit 101, the creation of a display user image, and the like are performed. Are ended, the makeup assisting process ends, and the process returns to the process illustrated in FIG. When the makeup support process in step S28 ends and the process returns to the process illustrated in FIG. 18, the mobile terminal device 3 returns to step S21 and repeats the process.

メニュー画像51においてボタン画像47が操作され、入力された指示情報が「終了」となった場合、CPU10は、ステップS29においてYesと判定し、お化粧アプリを終了する。   When the button image 47 is operated on the menu image 51 and the input instruction information becomes “end”, the CPU 10 determines “Yes” in step S29 and ends the makeup application.

以上のように、化粧を施すユーザを支援する化粧支援システム1は、ユーザが自身に化粧を施す際に当該ユーザによって携帯される携帯端末装置3と、携帯端末装置3とは異なる据え置き型の装置として構成されるとともに、当該携帯端末装置3との間でデータ通信が可能な状態で接続される計測装置2とを備えている。そして、計測装置は、ユーザの三次元形状に関する情報を取得して三次元形状情報212を作成する計測制御部200と、計測制御部200により作成された三次元形状情報212を携帯端末装置3に向けて送信する通信部24とを備えている。また、携帯端末装置3は、通信部24により送信された三次元形状情報212を受信する通信部12と、化粧を施す際のユーザを撮像して撮像情報112を取得する撮像部35と、通信部12により受信された三次元形状情報212と撮像部35により取得された撮像情報112とに基づいて、ユーザに施す化粧を支援するための化粧支援情報114を作成する情報作成部102と、情報作成部102により作成された化粧支援情報114を出力する表示部33,34とを備える。このように、据え置き型の計測装置2によって三次元形状情報212を作成することにより、三次元形状情報212を作成するときの手ブレなどを防止することができるため、三次元形状情報212の精度が向上する。また、携帯端末装置3として、市販の携帯電話やスマートフォンを採用することが可能となり、コストを抑制することができる。   As described above, makeup assisting system 1 that assists a user who applies makeup makes mobile terminal device 3 carried by the user when the user applies makeup to the user, and a stationary device different from mobile terminal device 3. And a measuring device 2 connected to the portable terminal device 3 so that data communication is possible. Then, the measurement device acquires the information on the three-dimensional shape of the user and creates the three-dimensional shape information 212, and sends the three-dimensional shape information 212 created by the measurement control unit 200 to the portable terminal device 3. And a communication unit 24 for transmission to the user. Further, the mobile terminal device 3 communicates with the communication unit 12 that receives the three-dimensional shape information 212 transmitted by the communication unit 24, the imaging unit 35 that captures an image of a user when makeup is applied, and acquires the imaging information 112, An information creation unit 102 for creating makeup assistance information 114 for assisting makeup applied to a user based on the three-dimensional shape information 212 received by the unit 12 and the imaging information 112 acquired by the imaging unit 35; Display units 33 and 34 for outputting the makeup support information 114 created by the creating unit 102 are provided. As described above, since the three-dimensional shape information 212 is created by the stationary measurement device 2, camera shake or the like when creating the three-dimensional shape information 212 can be prevented. Is improved. In addition, a commercially available mobile phone or smartphone can be used as the mobile terminal device 3, and costs can be reduced.

図23は、撮像情報112と、化粧支援情報114として表示される表示ユーザ画像とを示す図である。   FIG. 23 is a diagram illustrating imaging information 112 and a display user image displayed as makeup assistance information 114.

スマートフォンや携帯電話が備えるカメラには、広角レンズが採用されることが多い。広角レンズを採用したカメラによって撮像される画像(自撮画像)は、中央部分が拡大されたように歪んだ画像となる。すなわち、ユーザの実際の顔立ちとは異なる画像となってしまうという問題がある。   A camera included in a smartphone or a mobile phone often employs a wide-angle lens. An image (self-photographed image) captured by a camera employing a wide-angle lens is an image distorted as if the center portion was enlarged. That is, there is a problem that an image is different from an actual feature of the user.

したがって、コストを抑制するために、市場に多く流通している一般的なスマートフォンなどを携帯端末装置3として流用すると、撮像部35は、図23の左側に示すような撮像情報112を取得する場合がある。従来の技術では、推定値を用いることにより、このような歪んだ画像を補正することも提案されている。しかし、このような従来技術を用いたとしても、推定による補正であるため、実際の顔立ちに近似するものの、やはり異なる顔立ちとして認識されてしまう。特に、人の顔については、わずかな違いでも、ユーザに感知され、違和感を生じることになる。   Therefore, if a general smartphone or the like that is widely distributed in the market is used as the mobile terminal device 3 in order to suppress costs, the imaging unit 35 acquires the imaging information 112 as shown on the left side of FIG. There is. In the related art, it has been proposed to correct such a distorted image by using an estimated value. However, even if such a conventional technique is used, since the correction is performed by estimation, although it is similar to an actual face, it is still recognized as a different face. In particular, regarding a human face, even a slight difference is perceived by the user and causes a sense of discomfort.

しかし、化粧支援システム1は、このような歪んだ画像を撮像することのない、撮像部26によって撮像された計測用撮像情報211により、歪みのない三次元形状情報212を作成する。そして、当該三次元形状情報212に、撮像情報112をマッピングするため、撮像情報112において生じる歪みは、原理的にキャンセルされ、図23の右側に示すような、実際の顔立ちを忠実に表現した化粧支援情報114(表示ユーザ画像)を表示することができる。したがって、ユーザによる化粧の精度も向上する。   However, the makeup support system 1 creates the three-dimensional shape information 212 without distortion based on the measurement imaging information 211 captured by the imaging unit 26 without capturing such a distorted image. Then, since the imaging information 112 is mapped to the three-dimensional shape information 212, distortion generated in the imaging information 112 is canceled in principle, and a makeup that faithfully represents an actual face as shown on the right side of FIG. The support information 114 (display user image) can be displayed. Therefore, the accuracy of makeup by the user is also improved.

なお、例えば、情報作成部102が、三次元形状情報212のレンダリングパースペクティブ(遠近効果)を調整しつつ表示ユーザ画像を作成することにより、見え方を任意に調整することも可能であり、さらに効果的な表示が可能となる。   Note that, for example, the information creation unit 102 creates a display user image while adjusting the rendering perspective (perspective effect) of the three-dimensional shape information 212, so that the appearance can be adjusted arbitrarily. Display is possible.

また、三次元形状情報212と撮像情報112とに基づいて、当該撮像情報112における撮像ズレ角を推定する推定部101をさらに備え、情報作成部102が、推定部101により推定された撮像ズレ角に基づいて化粧支援情報を作成することにより、自然な表示ユーザ画像を得ることができ、化粧支援情報114の精度が向上する。   Further, based on the three-dimensional shape information 212 and the imaging information 112, the image processing apparatus further includes an estimating unit 101 for estimating an imaging deviation angle in the imaging information 112. By generating makeup support information based on the information, a natural display user image can be obtained, and the accuracy of makeup support information 114 is improved.

また、推定部101は、三次元形状情報212の特定の方位におけるユーザの部位の位置と、撮像情報112に撮像されているユーザの当該部位の位置との差分に基づいて、当該撮像情報112における撮像ズレ角を推定する。これにより、化粧支援システム1は、撮像ズレ角を容易に、かつ、確実に推定することができる。   Further, the estimating unit 101 determines the position of the user's part in the specific orientation of the three-dimensional shape information 212 based on the difference between the position of the part of the user imaged in the imaging information 112 and the position of the user's part. The imaging shift angle is estimated. Thereby, makeup assisting system 1 can easily and reliably estimate the imaging shift angle.

また、推定部101は、ユーザが正面を向いたときの目線と、撮像情報112に撮像されたユーザの目線との目線ズレ角を推定する。そして、情報作成部102は、当該目線ズレ角を抑制するための指示を化粧支援情報に含めることにより、化粧を施す際のユーザに正面を見るようにアドバイスすることができる。これにより、撮像部35は、正面を見ている状態のユーザを撮像することができる。したがって、化粧支援システム1は、ユーザを鏡に映した画像に近い、自然なユーザ表示画像を、化粧支援情報114として表示することができる。   In addition, the estimation unit 101 estimates a line-of-sight deviation angle between the line of sight when the user is facing the front and the line of sight of the user captured in the imaging information 112. Then, the information creating unit 102 can advise the user when applying makeup to look at the front by including an instruction for suppressing the eye-gaze shift angle in the makeup support information. Thereby, the imaging unit 35 can image the user looking at the front. Therefore, the makeup support system 1 can display a natural user display image close to the image of the user in the mirror as the makeup support information 114.

また、計測制御部200は、ユーザの互いに異なる表情に対応した複数の三次元形状情報を作成する。したがって、化粧支援システム1は、ユーザの様々な表情による違いを反映させた化粧支援情報114を作成することができる。   Further, the measurement control unit 200 creates a plurality of three-dimensional shape information corresponding to different facial expressions of the user. Therefore, the makeup support system 1 can create the makeup support information 114 that reflects the difference between the various facial expressions of the user.

また、複数の三次元形状情報212が作成された場合において、複数の三次元形状情報212と撮像情報112とを比較することにより、複数の三次元形状情報212から1の三次元形状情報212を選択する。これにより、例えば、異なる表情ごとに準備された複数の三次元形状情報212の中から、現実の表情と同じ表情の三次元形状情報212を選択して化粧支援情報114を作成することにより、化粧支援の精度が向上する。また、表示されるユーザの画像がユーザの現実の表情に連動するため、ユーザの違和感を抑制することができる。   When a plurality of pieces of three-dimensional shape information 212 are created, by comparing the plurality of pieces of three-dimensional shape information 212 with the imaging information 112, one piece of three-dimensional shape information 212 is obtained from the plurality of pieces of three-dimensional shape information 212. select. Thereby, for example, by selecting the three-dimensional shape information 212 having the same expression as the real expression from the plurality of three-dimensional shape information 212 prepared for each different expression, and creating the makeup support information 114, The accuracy of support is improved. In addition, since the displayed user image is linked to the user's actual expression, the user's discomfort can be suppressed.

また、複数の三次元形状情報212が作成された場合において、携帯端末装置3は、ユーザの指示に応じて、複数の三次元形状情報212から1の三次元形状情報212を選択する。これにより、例えば、ユーザが所望する表情の三次元形状情報212をユーザが選択することができる。したがって、化粧支援システム1は、化粧を施す際に当該表情をユーザに実演させることなく、ユーザが確認したいと思う表情に関する化粧支援情報114を、作成することができる。   When a plurality of pieces of three-dimensional shape information 212 are created, the mobile terminal device 3 selects one piece of three-dimensional shape information 212 from the plurality of pieces of three-dimensional shape information 212 according to a user's instruction. Thereby, for example, the user can select the three-dimensional shape information 212 of the expression desired by the user. Therefore, the makeup support system 1 can create the makeup support information 114 on the facial expression that the user wants to check without having the user demonstrate the facial expression when applying makeup.

また、計測制御部200は、互いに精度の異なる複数の三次元形状情報212を作成する。したがって、例えば、細かい化粧を望む部位については、高精度の三次元形状情報212を用いて、拡大した表示ユーザ画像を作成することもできる。   In addition, the measurement control unit 200 creates a plurality of three-dimensional shape information 212 having different accuracy from each other. Therefore, for example, for a part where fine makeup is desired, an enlarged display user image can be created using the high-precision three-dimensional shape information 212.

また、化粧を終了したときのユーザを撮像した計測用撮像情報211を過去撮像情報として記憶しておき、推定部101が、撮像部35により撮像された撮像情報112と当該計測用撮像情報211とを比較して、化粧の劣化度を推定する。これにより、化粧の劣化度に応じて、ユーザの化粧を支援することができる。   Further, the measurement imaging information 211 obtained by imaging the user when the makeup is completed is stored as past imaging information, and the estimation unit 101 determines that the imaging information 112 captured by the imaging unit 35 and the measurement imaging information 211 Are compared to estimate the degree of makeup deterioration. Thus, it is possible to assist the user's makeup according to the degree of makeup deterioration.

また、推定部101は、計測用撮像情報211に撮像されているユーザの毛穴の状態と撮像情報112に撮像されているユーザの毛穴の状態とを比較して、化粧の劣化度を推定する。これにより、化粧支援システム1は、例えば、ファンデーションの落ち具合を容易に推定することができる。   In addition, the estimation unit 101 compares the state of the pores of the user captured in the imaging information for measurement 211 with the state of the pores of the user captured in the imaging information 112 to estimate the degree of makeup deterioration. Thereby, the makeup support system 1 can easily estimate, for example, the degree of fall of the foundation.

また、推定部101は、計測用撮像情報211に撮像されているユーザの肌部分と特定部分との色比率と、撮像情報112に撮像されているユーザの当該肌部分と当該特定部分との色比率とを比較して、当該特定部分における化粧の劣化度を推定する。これにより、例えば、口紅やチーク、アイシャドウの落ち具合を容易に推定することができる。   The estimating unit 101 also calculates the color ratio between the user's skin part and the specific part imaged in the measurement imaging information 211 and the color between the user's skin part and the specific part imaged in the imaging information 112. The degree of makeup deterioration in the specific portion is estimated by comparing the ratio with the ratio. This makes it possible to easily estimate, for example, the degree of lipstick, blush, or eyeshadow.

また、推定部101により推定された化粧の劣化度と、計測用撮像情報211が撮像された時間からの経過時間とに基づいて、化粧を修正すべき時間(化粧なおしの予定時間)を推定する。これにより、化粧支援システム1は、いつ化粧なおしすべきかを具体的にユーザに報知することができる。   Further, based on the degree of makeup deterioration estimated by the estimating unit 101 and the elapsed time from the time when the measurement imaging information 211 was imaged, a time at which makeup is to be corrected (scheduled time for makeup repair) is estimated. . Thereby, makeup support system 1 can specifically notify the user when makeup should be renewed.

また、ユーザが化粧を披露する場所における光環境を示す光環境情報113を記憶しておき、情報作成部102が、光環境情報113に基づいて化粧支援情報114を作成する。これにより、化粧支援システム1は、光環境に応じた化粧支援情報114を作成することができる。   Further, light environment information 113 indicating a light environment at a place where the user shows makeup is stored, and the information creating unit 102 creates makeup support information 114 based on the light environment information 113. Thereby, the makeup support system 1 can create the makeup support information 114 according to the light environment.

また、データ取得部100が、撮像部35により撮像された撮像情報112に基づいて、当該撮像情報112が撮像されたときの光環境を推定して、光環境情報113を更新する。これにより、ユーザが実際に撮像した場所に関する光環境情報113を取得することができる。したがって、次回から、当該場所に適した光環境情報113に基づいて化粧支援情報114を作成することができる。   Further, based on the imaging information 112 captured by the imaging unit 35, the data acquisition unit 100 estimates the light environment when the imaging information 112 is captured, and updates the light environment information 113. Thereby, the light environment information 113 regarding the place where the user actually took the image can be obtained. Therefore, from the next time, makeup support information 114 can be created based on light environment information 113 suitable for the place.

以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications are possible.

例えば、上記に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。   For example, each of the steps described above is merely an example, and is not limited to the above-described order and contents. That is, if the same effect can be obtained, the order and contents may be changed as appropriate.

また、上記に示した機能ブロック(例えば、計測制御部200やモデル作成部201、推定部101、情報作成部102など)は、CPU20またはCPU10が、プログラム210またはプログラム110に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。   The function blocks (for example, the measurement control unit 200, the model creation unit 201, the estimation unit 101, the information creation unit 102, and the like) described above are implemented in software by the CPU 20 or the CPU 10 operating according to the program 210 or the program 110. It is explained that it is realized in a practical way. However, a part or all of these functional blocks may be configured by a dedicated logic circuit and realized by hardware.

また、化粧の対象となるユーザの部位は、ユーザの顔に限定されるものではない。例えば、爪や頭髪など、ユーザの身体における他の部位であってもよい。   Further, the part of the user to be applied to makeup is not limited to the face of the user. For example, other parts of the user's body, such as nails and hair, may be used.

また、筐体部30は、化粧品(ファンデーションやチークなど)や道具類(ハケやパッドなど)を収納するケースとして兼用できる構造であってもよい。   Further, the housing section 30 may have a structure that can also be used as a case for storing cosmetics (such as foundation and teak) and tools (such as brushes and pads).

また、上記実施の形態では、投光部28が不可視光を用いて計測用パターンを投射することにより、化粧支援情報114として表示される撮像情報112(表示ユーザ画像)に当該計測用パターンの可視的な影響がでないように構成していた。しかし、例えば、投光部28が撮像部26の撮像タイミングを避けるタイミングで当該計測用パターンを投射するように構成してもよい。例えば、撮像部26のフレーム間隔の間に投光部28が当該計測用パターンを投射するようにしてもよい。このように構成することによっても、当該計測用パターンの可視的な影響を抑制することができる。   In the above-described embodiment, the light projecting unit 28 projects the measurement pattern using the invisible light, so that the imaging information 112 (display user image) displayed as the makeup assistance information 114 has the measurement pattern visible. Was configured so that there would be no negative influence. However, for example, the light projection unit 28 may be configured to project the measurement pattern at a timing that avoids the imaging timing of the imaging unit 26. For example, the light projecting unit 28 may project the measurement pattern during the frame interval of the imaging unit 26. With such a configuration, the visible influence of the measurement pattern can be suppressed.

また、化粧支援システム1が複数の携帯端末装置3から構成されている場合、1の携帯端末装置3の情報作成部102が、他の携帯端末装置3の撮像部35により撮像された撮像情報112に基づいて更新された光環境情報113に基づいて化粧支援情報114を作成してもよい。すなわち、ユーザの間で、光環境情報113を共有するようにしてもよい。これにより、ユーザは、他のユーザが作成(あるいは収集)した光環境情報113を利用することができるため、例えば、自身が訪れたことのない場所についても、現実の光環境情報113を利用することができる。   When the makeup support system 1 includes a plurality of mobile terminal devices 3, the information creation unit 102 of one mobile terminal device 3 uses the imaging information 112 captured by the imaging unit 35 of another mobile terminal device 3. The makeup support information 114 may be created based on the light environment information 113 updated based on the information. That is, the light environment information 113 may be shared between users. Accordingly, the user can use the light environment information 113 created (or collected) by another user, and thus, for example, also uses the actual light environment information 113 for a place that the user has not visited. be able to.

また、上記実施の形態では、携帯端末装置3の記憶装置11が、データベース111、撮像情報112、および、化粧支援情報114などを記憶するとして説明した。しかし、これらの情報を、携帯端末装置3が計測装置2に向けて送信し、計測装置2においてこれらの情報を利用可能としてもよい。これにより、例えば、データベース111に相当する情報を計測装置2の記憶装置21に格納しておき、必要に応じて、携帯端末装置3から参照するように構成してもよい。あるいは、ユーザは、提供された化粧支援情報114と、当該化粧支援情報114に基づいて化粧を施した状態のユーザを撮像した撮像情報112とを、計測装置2において確認することができる。一般に、据え置き型の装置である計測装置2の表示部23において画像を閲覧する方が、携帯端末装置3の表示部33,34において閲覧するよりも見やすいという事情がある。したがって、ユーザは、例えば、外出先で携帯端末装置3を用いて化粧を行った場合に、自宅に戻った後に、外出先での化粧の見栄えを詳細に確認することもできる。すなわち、ユーザは過去の化粧を自宅でチェックすることができる。また、外出先での化粧の際に参考にした化粧支援情報114を、見栄えに応じて修正してもよい。   Further, in the above embodiment, the storage device 11 of the mobile terminal device 3 has been described as storing the database 111, the imaging information 112, the makeup support information 114, and the like. However, the mobile terminal device 3 may transmit these pieces of information to the measuring device 2 so that the measuring device 2 can use the information. Thus, for example, the information corresponding to the database 111 may be stored in the storage device 21 of the measuring device 2, and the portable terminal device 3 may refer to the information as needed. Alternatively, the user can check the provided makeup support information 114 and the imaging information 112 of the user who has applied makeup based on the makeup assistance information 114 in the measurement device 2. In general, there is a situation that browsing an image on the display unit 23 of the measuring device 2 which is a stationary device is easier than browsing on the display units 33 and 34 of the portable terminal device 3. Therefore, for example, when the user performs makeup using the mobile terminal device 3 while away from home, the user can also check in detail the appearance of the makeup outside when returning home. That is, the user can check past makeup at home. Further, the makeup support information 114 referred to when makeup is performed on the go may be modified according to appearance.

さらに、推定部101が撮像ズレ角を推定する手法は、上記実施の形態に示した手法に限定されるものではない。例えば、「"Visual vehicl tracking based on an appearance generative model", Kazuhiko Kawamoto, Tatsuya Yonekawa, Kazushi Okamoto, SCIS-ISIS 2012, Kobe, Japan, November 20-24, 2014」に記載されている技術を応用することもできる。すなわち、モデル作成部201が、三次元形状情報212を作成するときに、各方位における画像の固有ベクトルを算出して、方位ごとの画像の固有ベクトルを当該三次元形状情報212とともに携帯端末装置3のデータベース111に格納しておく。そして、撮像情報112の方位と合わせるときに、当該撮像情報112について推定部101が固有ベクトルを求め、当該固有ベクトルとデータベース111に格納されている方位ごとの固有ベクトルとを比較して、最も適した方位を決定することにより、撮像ズレ角を推定してもよい。   Furthermore, the method by which the estimation unit 101 estimates the imaging shift angle is not limited to the method described in the above embodiment. For example, applying the technology described in "" Visual vehicl tracking based on an appearance generative model ", Kazuhiko Kawamoto, Tatsuya Yonekawa, Kazushi Okamoto, SCIS-ISIS 2012, Kobe, Japan, November 20-24, 2014" Can also. That is, when the model creating unit 201 creates the three-dimensional shape information 212, the eigenvector of the image in each direction is calculated, and the eigenvector of the image for each direction is stored in the database of the portable terminal device 3 together with the three-dimensional shape information 212. 111. Then, when matching with the azimuth of the imaging information 112, the estimating unit 101 obtains an eigenvector for the imaging information 112, compares the eigenvector with the eigenvector for each azimuth stored in the database 111, and determines the most suitable azimuth. By determining, the imaging shift angle may be estimated.

Claims (21)

化粧を施すユーザを支援する化粧支援システムであって、
ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置と、
前記携帯端末装置とは異なる据え置き型の装置として構成されるとともに、前記携帯端末装置との間でデータ通信が可能な状態で接続される計測装置と、
を備え、
前記計測装置は、
前記ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、
前記三次元計測手段により作成された三次元形状情報を前記携帯端末装置に向けて送信する第1通信手段と、
を備え、
前記携帯端末装置は、
前記第1通信手段により送信された三次元形状情報を受信する第2通信手段と、
化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、
前記第2通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、
前記情報作成手段により作成された化粧支援情報を出力する出力手段と、
を備える化粧支援システム。
A makeup support system that supports a user applying makeup,
A portable terminal device carried by the user when the user applies makeup to himself,
A measuring device configured as a stationary device different from the mobile terminal device, and connected in a state where data communication is possible with the mobile terminal device,
With
The measuring device,
Three-dimensional measuring means for acquiring information on the three-dimensional shape of the user and creating three-dimensional shape information,
First communication means for transmitting the three-dimensional shape information created by the three-dimensional measurement means to the portable terminal device;
With
The portable terminal device,
A second communication unit that receives the three-dimensional shape information transmitted by the first communication unit;
Imaging means for acquiring the imaging information by imaging the user when applying makeup,
Information creating means for creating makeup assistance information for assisting makeup applied to the user based on the three-dimensional shape information received by the second communication means and the imaging information acquired by the imaging means;
Output means for outputting the makeup support information created by the information creating means,
A makeup support system equipped with:
請求項1に記載の化粧支援システムであって、
前記三次元計測手段により作成された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記撮像情報における撮像ズレ角を推定する方位推定手段をさらに備え、
前記情報作成手段は、前記方位推定手段により推定された前記撮像情報における撮像方位に基づいて前記化粧支援情報を作成する化粧支援システム。
The makeup support system according to claim 1, wherein
Based on the three-dimensional shape information created by the three-dimensional measuring means and the imaging information acquired by the imaging means, further comprising an azimuth estimating means for estimating an imaging deviation angle in the imaging information,
The makeup assisting system creates the makeup assisting information based on an imaging orientation in the imaging information estimated by the orientation estimating means.
請求項2に記載の化粧支援システムであって、
前記方位推定手段は、前記三次元形状情報の特定の方位におけるユーザの部位の位置と、前記撮像情報に撮像されているユーザの前記部位の位置との差分に基づいて、前記撮像情報における撮像ズレ角を推定する化粧支援システム。
It is a makeup support system according to claim 2,
The azimuth estimating means is configured to detect an imaging shift in the imaging information based on a difference between a position of a user's part in a specific azimuth of the three-dimensional shape information and a position of the part of the user imaged in the imaging information. A makeup support system that estimates the angle.
請求項2に記載の化粧支援システムであって、
前記方位推定手段は、前記三次元形状情報に基づいて複数の方位における固有ベクトル値をそれぞれ算出し、前記撮像情報における固有ベクトル値と比較することにより、前記撮像情報における撮像ズレ角を推定する化粧支援システム。
It is a makeup support system according to claim 2,
The azimuth estimating means calculates eigenvector values in a plurality of azimuths based on the three-dimensional shape information, and compares the eigenvector values with the eigenvector values in the imaging information, thereby estimating an imaging shift angle in the imaging information. .
請求項1ないし4のいずれかに記載の化粧支援システムであって、
前記化粧支援情報は、化粧を施す際のユーザを表現したユーザ画像情報を含む化粧支援システム。
The makeup support system according to any one of claims 1 to 4,
The makeup assisting system is a makeup assisting system that includes user image information expressing a user when applying makeup.
請求項5に記載の化粧支援システムであって、
ユーザが正面を向いたときの目線と、前記撮像情報に撮像されたユーザの目線との目線ズレ角を推定し、
前記情報作成手段は、前記目線ズレ角を抑制するための指示を前記化粧支援情報に含める化粧支援システム。
It is a makeup support system according to claim 5,
Estimating a line-of-sight deviation angle between the line of sight of the user facing the front and the line of sight of the user imaged in the imaging information,
The makeup assisting system, wherein the information creating unit includes an instruction for suppressing the eye-gaze shift angle in the makeup assisting information.
請求項1ないし6のいずれかに記載の化粧支援システムであって、
前記三次元計測手段は、前記ユーザの互いに異なる表情に対応した複数の三次元形状情報を作成する化粧支援システム。
It is a makeup support system according to any one of claims 1 to 6,
The makeup support system, wherein the three-dimensional measurement unit creates a plurality of pieces of three-dimensional shape information corresponding to different facial expressions of the user.
請求項7に記載の化粧支援システムであって、
前記複数の三次元形状情報と前記撮像情報とを比較することにより、前記複数の三次元形状情報から1の三次元形状情報を選択する化粧支援システム。
It is a makeup support system according to claim 7,
A makeup support system that selects one piece of three-dimensional shape information from the plurality of pieces of three-dimensional shape information by comparing the pieces of three-dimensional shape information with the imaging information.
請求項7または8に記載の化粧支援システムであって、
前記ユーザの指示に応じて、前記複数の三次元形状情報から1の三次元形状情報を選択する化粧支援システム。
It is a makeup support system according to claim 7 or 8,
A makeup support system for selecting one piece of three-dimensional shape information from the plurality of pieces of three-dimensional shape information according to an instruction of the user.
請求項1ないし9のいずれかに記載の化粧支援システムであって、
前記三次元計測手段は、互いに精度の異なる複数の三次元形状情報を作成する化粧支援システム。
It is a makeup support system according to any one of claims 1 to 9,
The makeup assisting system creates three-dimensional shape information having different accuracy from each other.
請求項1ないし10のいずれかに記載の化粧支援システムであって、
化粧を終了したときのユーザを撮像した画像情報を過去撮像情報として記憶する第1記憶手段と、
前記撮像手段により撮像された撮像情報と前記第1記憶手段に記憶されている過去撮像情報とを比較して、前記化粧の劣化度を推定する劣化推定手段と、
をさらに備え、
前記情報作成手段は、前記劣化推定手段により推定された劣化度に基づいて化粧支援情報を作成する化粧支援システム。
The makeup support system according to any one of claims 1 to 10,
First storage means for storing, as past imaging information, image information obtained by imaging the user when makeup is completed;
Degradation estimating means for comparing the imaging information imaged by the imaging means with past imaging information stored in the first storage means, and estimating the degree of deterioration of the makeup;
Further comprising
The makeup assisting system creates the makeup assisting information based on the degree of deterioration estimated by the deterioration estimating means.
請求項11に記載の化粧支援システムであって、
前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの毛穴の状態と前記撮像情報に撮像されているユーザの毛穴の状態とを比較して、前記化粧の劣化度を推定する化粧支援システム。
It is a makeup support system according to claim 11,
The makeup estimating means compares the state of the pores of the user imaged in the past imaging information with the state of the pores of the user imaged in the imaging information, and estimates the degree of deterioration of the makeup. system.
請求項11または12に記載の化粧支援システムであって、
前記劣化推定手段は、前記過去撮像情報に撮像されているユーザの肌部分と特定部分との色比率と、前記撮像情報に撮像されているユーザの前記肌部分と前記特定部分との色比率とを比較して、前記特定部分における前記化粧の劣化度を推定する化粧支援システム。
It is a makeup support system according to claim 11 or 12,
The deterioration estimating means, a color ratio between the user's skin portion and the specific portion imaged in the past imaging information, a color ratio between the user's skin portion and the specific portion imaged in the imaging information, And a makeup support system for estimating the degree of deterioration of the makeup in the specific portion.
請求項11ないし13のいずれかに記載の化粧支援システムであって、
前記劣化推定手段は、前記劣化推定手段により推定された前記化粧の劣化度と当該過去撮像情報が撮像された時間からの経過時間とに基づいて、前記化粧を修正すべき時間を推定する化粧支援システム。
It is a makeup support system according to any one of claims 11 to 13,
The makeup estimating means is configured to estimate a time to correct the makeup based on a degree of deterioration of the makeup estimated by the deterioration estimating means and an elapsed time from a time when the past imaging information is captured. system.
請求項1ないし14のいずれかに記載の化粧支援システムであって、
前記ユーザの化粧を披露する場所における光環境を示す光環境情報を記憶する第2記憶手段をさらに備え、
前記情報作成手段は、前記第2記憶手段に記憶された光環境情報に基づいて化粧支援情報を作成する化粧支援システム。
It is a makeup support system according to any one of claims 1 to 14,
A second storage unit that stores light environment information indicating a light environment in a place where the user makes up the makeup;
The makeup support system creates the makeup support information based on the light environment information stored in the second storage means.
請求項15に記載の化粧支援システムであって、
前記撮像手段により撮像された撮像情報に基づいて、当該撮像情報が撮像されたときの光環境を推定して、前記第2記憶手段に記憶されている光環境情報を更新する化粧支援システム。
It is a makeup support system according to claim 15,
A makeup support system for estimating a light environment when the image information is captured based on the image information captured by the image capturing unit and updating the light environment information stored in the second storage unit.
請求項16に記載の化粧支援システムであって、
前記携帯端末装置として1の携帯端末装置と他の携帯端末装置とを備え、
前記1の携帯端末装置の前記情報作成手段は、前記他の携帯端末装置の前記撮像手段により撮像された撮像情報に基づいて更新された光環境情報に基づいて化粧支援情報を作成する化粧支援システム。
It is a makeup support system according to claim 16,
The portable terminal device includes one portable terminal device and another portable terminal device,
The information creation unit of the one portable terminal device is a makeup support system that creates makeup assistance information based on light environment information updated based on imaging information captured by the imaging unit of the another mobile terminal device. .
据え置き型の装置として構成される計測装置であって、
ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する三次元計測手段と、
前記三次元計測手段により作成された三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する通信手段と、
を備える計測装置。
A measuring device configured as a stationary device,
Three-dimensional measuring means for obtaining information on the three-dimensional shape of the user and creating three-dimensional shape information;
The three-dimensional shape information created by the three-dimensional measuring means is transmitted to an external portable terminal device, and the makeup assistance information provided to the user and the makeup assistance information transmitted by the portable terminal device are transmitted. Communication means for receiving imaging information obtained by imaging the user who has applied makeup;
A measuring device comprising:
ユーザが自身に化粧を施す際に前記ユーザによって携帯される携帯端末装置であって、
外部の計測装置により送信された三次元形状情報を受信する通信手段と、
化粧を施す際の前記ユーザを撮像して撮像情報を取得する撮像手段と、
前記通信手段により受信された三次元形状情報と前記撮像手段により取得された撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する情報作成手段と、
前記情報作成手段により作成された化粧支援情報を出力する出力手段と、
を備える携帯端末装置。
A portable terminal device carried by the user when the user applies makeup to the user,
Communication means for receiving three-dimensional shape information transmitted by an external measuring device,
Imaging means for acquiring the imaging information by imaging the user when applying makeup,
Information creation means for creating makeup assistance information for assisting makeup applied to the user based on the three-dimensional shape information received by the communication means and the imaging information acquired by the imaging means;
Output means for outputting the makeup support information created by the information creating means,
A mobile terminal device comprising:
据え置き型の装置として構成されるコンピュータによる読み取り可能なプログラムであって、
ユーザの三次元形状に関する情報を取得して三次元形状情報を作成する工程と、
作成された前記三次元形状情報を外部の携帯端末装置に向けて送信するとともに、前記携帯端末装置により送信された前記ユーザに提供された化粧支援情報および前記化粧支援情報に応じて化粧を施した前記ユーザを撮像した撮像情報を受信する工程と、
を前記コンピュータに実行させるプログラム。
A computer-readable program configured as a stationary device,
Obtaining information on the user's three-dimensional shape and creating three-dimensional shape information;
The created three-dimensional shape information was transmitted to an external portable terminal device, and makeup was applied according to the makeup support information provided to the user and the makeup support information transmitted by the portable terminal device. Receiving imaging information of the user,
For causing the computer to execute.
ユーザが自身に化粧を施す際に前記ユーザによって携帯されるコンピュータによる読み取り可能なプログラムであって、
外部の計測装置により送信された三次元形状情報を受信する工程と、
化粧を施す際の前記ユーザを撮像して撮像情報を取得する工程と、
受信された前記三次元形状情報と取得された前記撮像情報とに基づいて、前記ユーザに施す化粧を支援するための化粧支援情報を作成する工程と、
作成された前記化粧支援情報を出力する工程と、
を前記コンピュータに実行させるプログラム。
A computer-readable program carried by a user when the user applies makeup to the user,
A step of receiving the three-dimensional shape information transmitted by the external measurement device,
A step of acquiring the imaging information by imaging the user when applying makeup;
Based on the received three-dimensional shape information and the acquired imaging information, a step of creating makeup assistance information for assisting makeup applied to the user,
Outputting the created makeup support information;
For causing the computer to execute.
JP2017509897A 2015-03-27 2016-03-25 Makeup support system, measuring device, portable terminal device and program Active JP6675384B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015066501 2015-03-27
JP2015066501 2015-03-27
PCT/JP2016/059575 WO2016158729A1 (en) 2015-03-27 2016-03-25 Makeup assistance system, measurement device, portable terminal device, and program

Publications (2)

Publication Number Publication Date
JPWO2016158729A1 JPWO2016158729A1 (en) 2018-02-15
JP6675384B2 true JP6675384B2 (en) 2020-04-01

Family

ID=57004263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017509897A Active JP6675384B2 (en) 2015-03-27 2016-03-25 Makeup support system, measuring device, portable terminal device and program

Country Status (2)

Country Link
JP (1) JP6675384B2 (en)
WO (1) WO2016158729A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112019011426A2 (en) * 2016-12-06 2019-10-15 Koninklijke Philips Nv method for displaying a guidance indicator to a user and device to provide guidance to a user
CN109288233A (en) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 It is signable to repair the biological information analytical equipment for holding region
JP2019028731A (en) * 2017-07-31 2019-02-21 富士ゼロックス株式会社 Information processing device and program
JP2019115653A (en) * 2017-12-26 2019-07-18 パナソニックIpマネジメント株式会社 Body appearance correction support method and device, and computer program
JPWO2021131852A1 (en) * 2019-12-26 2021-07-01
KR20220119727A (en) 2020-01-31 2022-08-30 로레알 Apparatus and system for dispensing cosmetic material
KR20210070377A (en) * 2020-04-29 2021-06-14 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Image processing method and device
JP7426362B2 (en) 2021-09-10 2024-02-01 花王株式会社 Makeup motion support system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (en) * 2000-03-15 2001-09-28 Infiniteface.Com Inc Client server system for three-dimensional beauty simulation
JP2002073944A (en) * 2000-08-25 2002-03-12 Shiyuu Uemura Keshohin:Kk Online marketing method and system for cosmetics and method and system for supporting selection of cosmetics
JP2015197710A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Makeup support device, and program

Also Published As

Publication number Publication date
WO2016158729A1 (en) 2016-10-06
JPWO2016158729A1 (en) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6675384B2 (en) Makeup support system, measuring device, portable terminal device and program
JP6663972B2 (en) How to customize objects in additional machining
JP7316360B2 (en) Systems and methods for augmented reality
KR102581453B1 (en) Image processing for Head mounted display devices
US7714912B2 (en) Intelligent mirror
US9838597B2 (en) Imaging device, imaging method, and program
RU2656817C2 (en) Devices, systems and methods of capturing and displaying appearances
JP4793823B2 (en) Makeup assist device and eyebrow drawing assist device
KR20180108709A (en) How to virtually dress a user's realistic body model
KR102045219B1 (en) Body Information Analysis Apparatus Combining with Augmented Reality and Eyebrow Shape Preview Method thereof
WO2015152028A1 (en) Makeup assistance device and recording medium
CN105637512A (en) Method and system to create custom products
WO2018216602A1 (en) Information processing device, information processing method, and program
KR20170011261A (en) Apparatus for hair style 3D simulation and method for simulating the same
JP2014182597A (en) Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
WO2013120454A1 (en) System and method for natural person digitized human-body simulation
JP7273752B2 (en) Expression control program, recording medium, expression control device, expression control method
JP6672414B1 (en) Drawing program, recording medium, drawing control device, drawing control method
CN106327588B (en) Intelligent terminal and image processing method and device thereof
KR20110129908A (en) Mirror device
JP2019133276A (en) Image processing system and terminal
CN111208964B (en) Low vision aiding method, terminal and storage medium
JP2004015080A (en) Image display method and apparatus in beauty parlor and the like
US20240127565A1 (en) Modifying user representations
JP5702037B1 (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200310

R150 Certificate of patent or registration of utility model

Ref document number: 6675384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250