JP2005044283A - Cosmetics guidance system, server apparatus, terminal device and program - Google Patents

Cosmetics guidance system, server apparatus, terminal device and program Download PDF

Info

Publication number
JP2005044283A
JP2005044283A JP2003280074A JP2003280074A JP2005044283A JP 2005044283 A JP2005044283 A JP 2005044283A JP 2003280074 A JP2003280074 A JP 2003280074A JP 2003280074 A JP2003280074 A JP 2003280074A JP 2005044283 A JP2005044283 A JP 2005044283A
Authority
JP
Japan
Prior art keywords
data
cosmetic
customer
image data
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003280074A
Other languages
Japanese (ja)
Inventor
Masao Enozono
真穂 榎園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003280074A priority Critical patent/JP2005044283A/en
Publication of JP2005044283A publication Critical patent/JP2005044283A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a cosmetics guidance system, which can provide guidance for make-up methods using cosmetics desired by a customer who wants to purchase cosmetics, server apparatus, terminal devices and programs thereof. <P>SOLUTION: A customer terminal 12 transmits attribute information, such as ages of customers, and static face image data of customers to a server 13. The server 13 transmits a cosmetics list suitable for a customer, which is extracted based on the attribute information, and a list of processes which are patterns of make-up methods to the customer terminal 12. The customer terminal 12 transmits cosmetics and process names selected by the customer to the server 13. According to data related to the cosmetics and the processes selected by the customer, the server 13 sequentially performs color update processings to the static face image data of the customer, and creates animation data by time-sequentially arranging the results. The server 13 transmits the created animation data to the customer terminal 12. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、化粧品の購入希望者に対し、化粧品の選択および化粧の方法に関するガイダンスを提供する化粧品ガイダンスシステム、サーバ装置、端末装置およびプログラムに関する。   The present invention relates to a cosmetic guidance system, a server device, a terminal device, and a program for providing guidance regarding cosmetic selection and a makeup method to those who wish to purchase cosmetics.

化粧品の販売店の多くは、顧客が自分に適した化粧品を購入することを支援すると同時に、顧客の購買意欲を高める目的で、化粧品の試用コーナーを設けている。しかしながら、このような化粧品の試用は、以下のような問題点を持っている。   Many cosmetic dealers provide cosmetic trial corners to help customers purchase cosmetics suitable for them and at the same time increase customer motivation. However, such trial use of cosmetics has the following problems.

(a)化粧には手間と時間がかかる。
(b)販売店の店員が直接顧客に接する結果、顧客に対し何か購入しなければならない、という心理的圧迫感を与える。
(c)上記のような理由で顧客が試用を敬遠したり、希望していない化粧品を購入したりする場合があるため、販売店は十分かつ正確なマーケティング関連情報を得ることができない。
(d)販売店が様々な顧客の特徴やニーズに応じて、化粧品の選択および化粧方法に関する適切なアドバイスを行えるスタッフを常時確保することは、費用面等の理由から難しい。
(A) Makeup takes time and effort.
(B) As a result of the sales clerk directly contacting the customer, the customer is given a psychological feeling of having to purchase something.
(C) Because the customer may withdraw from trial or purchase cosmetics that he / she does not want for the reasons described above, the dealer cannot obtain sufficient and accurate marketing related information.
(D) It is difficult for the reasons of cost and the like to ensure that the sales staff can always provide appropriate advice regarding the selection of cosmetics and makeup methods according to the characteristics and needs of various customers.

以上のような問題点を解消するため、購入希望者に適する化粧方法を提示するシステムとして、モデル顔に施された化粧と同様の化粧を利用者の顔に施した場合の画像データを仮想的に生成するシステムが提案されている(例えば、特許文献1参照。)。
特開2001−268594号公報
In order to solve the above problems, as a system for presenting a makeup method suitable for the purchaser, image data when a makeup similar to the makeup applied to the model face is applied to the user's face is virtually The system which produces | generates is proposed (for example, refer patent document 1).
JP 2001-268594 A

また、化粧の手順を文字等で示すとともに、利用者の顔の画像データに基づいて、その手順による化粧を仮想的に施した画像データを生成し、この画像データと利用者が実際にその手順に従った化粧を行った後の顔の画像データとを比較することによって、その化粧の手順において利用者が改善すべき点を提示するシステムが提案されている(例えば、特許文献2参照。)。
特開2002−224049号公報
In addition, the makeup procedure is indicated by characters and the like, and based on the image data of the user's face, image data virtually created by the procedure is generated, and the image data and the user actually perform the procedure. A system has been proposed in which the user presents points to be improved in the makeup procedure by comparing the image data of the face after performing makeup according to the method (for example, see Patent Document 2). .
JP 2002-224049 A

従来技術によるシステムは、静止画により化粧を施された顔の様子を提示するため、化粧途中の顔の変化の様子を利用者に十分に提供できない、という問題があった。   Since the system according to the prior art presents the state of the face that has been decorated with a still image, there has been a problem that the state of the change of the face during the makeup cannot be sufficiently provided to the user.

上記の状況に鑑み、本発明は、化粧品の購入希望者に対し、自分に適する化粧品の選択を支援するとともに、購入希望者により選択された化粧品を用いて、化粧の途中経過を提供することにより、購入希望者の化粧方法の習得を支援可能とするシステム、サーバ装置、端末装置およびプログラムを提供する。   In view of the above situation, the present invention supports the selection of cosmetics suitable for himself / herself to those who wish to purchase cosmetics, and also provides the progress of makeup using the cosmetics selected by the buyers The present invention provides a system, a server device, a terminal device, and a program that can support acquisition of a makeup method of a purchase applicant.

上記課題を達成するために、本発明は、端末装置およびサーバ装置を備え、前記端末装置は、通信網を介して画像データの送受信を行う手段と、前記通信網を介して受信される画像データを表示する手段を備え、前記サーバ装置は、化粧品の色彩に関する情報を少なくとも含む化粧品データを記憶する化粧品データ記憶手段と、身体に化粧が施される過程を示すプロセスデータを記憶するプロセスデータ記憶手段と、前記端末装置から、前記通信網を介して、顧客の身体の画像を示す静止画データを受信する静止画データ受信手段と、前記化粧品データ記憶手段に記憶された化粧品データと、前記プロセスデータ記憶手段に記憶されたプロセスデータと、前記静止画データ受信手段により受信された前記顧客の身体の画像を示す静止画データとに基づいて、前記顧客に化粧を施した場合における当該顧客の身体の表面の時間的変化を表す動画データを作成する動画データ作成手段と、前記動画データ作成手段により作成された動画データを、前記通信網を介して、前記端末装置に送信する動画データ送信手段とを備えることを特徴とする化粧品ガイダンスシステムを提供する。これを本発明の第1の態様と呼ぶ。   In order to achieve the above object, the present invention comprises a terminal device and a server device, wherein the terminal device transmits and receives image data via a communication network, and image data received via the communication network. And the server device stores cosmetic data storage means for storing cosmetic data including at least information relating to the color of the cosmetic, and process data storage means for storing process data indicating a process in which makeup is applied to the body. And still image data receiving means for receiving still image data indicating an image of a customer's body from the terminal device via the communication network, cosmetic data stored in the cosmetic data storage means, and the process data Process data stored in storage means, and still image data indicating an image of the customer's body received by the still image data receiving means Based on the video data creation means for creating video data representing temporal changes in the surface of the customer's body when applying makeup to the customer, the video data created by the video data creation means, There is provided a cosmetic guidance system comprising: moving image data transmission means for transmitting to the terminal device via a communication network. This is called the first aspect of the present invention.

さらに、本発明は、化粧品の色彩に関する情報を少なくとも含む化粧品データを記憶する化粧品データ記憶手段と、身体に化粧が施される過程を示すプロセスデータを記憶するプロセスデータ記憶手段と、端末装置から、通信網を介して、顧客の身体の画像を示す静止画データを受信する静止画データ受信手段と、前記化粧品データ記憶手段に記憶された化粧品データと、前記プロセスデータ記憶手段に記憶されたプロセスデータと、前記静止画データ受信手段により受信された前記顧客の身体の画像を示す静止画データとに基づいて、前記顧客に化粧を施した場合における当該顧客の身体の表面における色彩の時間的変化を表す動画データを作成する動画データ作成手段と、前記動画データ作成手段により作成された動画データを、前記通信網を介して、前記端末装置に送信する動画データ送信手段とを備えることを特徴とするサーバ装置を提供する。これを本発明の第2の態様と呼ぶ。   Furthermore, the present invention comprises cosmetic data storage means for storing cosmetic data including at least information relating to the color of cosmetics, process data storage means for storing process data indicating a process in which makeup is applied to the body, and a terminal device. Still image data receiving means for receiving still image data indicating a customer's body image via a communication network, cosmetic data stored in the cosmetic data storage means, and process data stored in the process data storage means And the temporal change of the color on the surface of the customer's body when applying makeup to the customer based on the still image data indicating the image of the customer's body received by the still image data receiving means. Moving image data creating means for creating moving image data to be represented, and moving image data created by the moving image data creating means Via network, to provide a server apparatus, characterized in that it comprises a video data transmission means for transmitting to the terminal device. This is called the second aspect of the present invention.

本発明の第2の態様において、前記プロセスデータ記憶手段に記憶されるプロセスデータは、身体に化粧が施される過程における化粧用具の動作を時系列で示す時系列データを含み、前記動画データ作成手段は、前記プロセスデータ記憶手段に記憶されるプロセスデータに含まれる時系列データに基づいて、前記顧客の身体の表面における色彩の時間的変化を求め、当該色彩の時間的変化を表す動画データを作成する構成としてもよい。これを本発明の第3の態様と呼ぶ。   2nd aspect of this invention WHEREIN: The process data memorize | stored in the said process data memory | storage means contain the time series data which show operation | movement of the makeup | decoration tool in the time series in the process in which makeup | decoration is given to a body, The said moving image data preparation The means obtains a temporal change in color on the surface of the customer's body based on time series data included in the process data stored in the process data storage means, and obtains moving image data representing the temporal change in the color. It is good also as a structure to create. This is called the third aspect of the present invention.

本発明の第2の態様において、前記端末装置から、前記通信網を介して、1のプロセスデータを特定可能なプロセス識別データを受信するプロセス識別データ受信手段を備え、前記動画データ作成手段は、前記プロセス識別データ受信手段により受信されたプロセス識別データにより特定されるプロセスデータに基づき、動画データを作成する構成としてもよい。これを本発明の第4の態様と呼ぶ。   In the second aspect of the present invention, the image processing apparatus includes process identification data receiving means for receiving process identification data capable of specifying one process data from the terminal device via the communication network, The moving image data may be created based on the process data specified by the process identification data received by the process identification data receiving means. This is called the fourth aspect of the present invention.

本発明の第2の態様において、前記端末装置から、前記通信網を介して、1の化粧品データを特定可能な化粧品識別データを1以上、受信する化粧品識別データ受信手段を備え、前記動画データ作成手段は、前記化粧品識別データ受信手段により受信された化粧品識別データにより特定される化粧品データに基づき、動画データを作成する構成としてもよい。これを本発明の第5の態様と呼ぶ。   In the second aspect of the present invention, the moving image data creation includes: cosmetic identification data receiving means for receiving one or more cosmetic identification data capable of specifying one cosmetic data from the terminal device via the communication network. The means may create moving image data based on the cosmetic data specified by the cosmetic identification data received by the cosmetic identification data receiving means. This is called the fifth aspect of the present invention.

本発明の第5の態様において、前記端末装置から、前記通信網を介して、化粧品の属性に関する条件を示す条件データを受信する条件データ受信手段と、前記化粧品データ記憶手段により記憶される1以上の化粧品データから、前記条件データ受信手段により受信された条件データにより示される条件を満たす化粧品に関する化粧品データを抽出する化粧品データ抽出手段と、前記端末装置に、前記通信網を介して、前記化粧品データ抽出手段により抽出された化粧品データの各々を特定可能な化粧品識別データを1以上含む化粧品リストを送信する化粧品リスト送信手段とを備える構成としてもよい。これを本発明の第6の態様と呼ぶ。   5th aspect of this invention WHEREIN: The condition data receiving means which receives the condition data which shows the conditions regarding the attribute of cosmetics from the said terminal device via the said communication network, One or more memorize | stored by the said cosmetics data storage means Cosmetic data extracting means for extracting cosmetic data relating to cosmetics that satisfy the condition indicated by the condition data received by the condition data receiving means, and the cosmetic data via the communication network to the terminal device It is good also as a structure provided with the cosmetics list transmission means which transmits the cosmetics list containing one or more cosmetics identification data which can specify each of the cosmetics data extracted by the extraction means. This is called the sixth aspect of the present invention.

本発明の第5の態様において、前記端末装置に、前記通信網を介して、前記化粧品データ記憶手段に記憶される1の化粧品データを特定可能な化粧品識別データを1以上と、該1以上の化粧品識別データのいずれかに対応付けられたメッセージを示すメッセージデータを1以上含む、化粧品リストを送信する化粧品リスト送信手段を備える構成としてもよい。これを本発明の第7の態様と呼ぶ。   In the fifth aspect of the present invention, the terminal device has one or more cosmetic identification data that can identify one piece of cosmetic data stored in the cosmetic data storage unit via the communication network, and the one or more It is good also as a structure provided with the cosmetics list transmission means which transmits the cosmetics list | wrist including one or more message data which shows the message matched with either of cosmetics identification data. This is called the seventh aspect of the present invention.

本発明の第5の態様において、前記端末装置から、前記通信網を介して、顧客の属性を示す属性データを受信する属性データ受信手段と、前記化粧品識別データ受信手段により受信された化粧品識別データにより特定される化粧品データに関するデータを、前記属性データ受信手段により受信された属性データと対応付けて、マーケティング関連データとして記憶するマーケティング関連データ記憶手段とを備える構成としてもよい。これを本発明の第8の態様と呼ぶ。   5th aspect of this invention WHEREIN: The attribute data receiving means which receives the attribute data which show a customer's attribute from the said terminal device via the said communication network, The cosmetics identification data received by the said cosmetics identification data receiving means It is good also as a structure provided with the marketing relevant data storage means which matches the data regarding the cosmetics data specified by this with the attribute data received by the said attribute data receiving means, and memorize | stores it as marketing relevant data. This is called the eighth aspect of the present invention.

本発明の第2の態様において、化粧品の販売店を特定可能な販売店識別データと、化粧品を特定可能な化粧品識別データと、該化粧品識別データに対応付けられた価格を示す価格データとを含む、販売店データを1以上、記憶する販売店データ記憶手段と、前記端末装置から、前記通信網を介して、1の化粧品データを特定可能な化粧品識別データと、該化粧品識別データに対応付けられた数量を示す数量データとの組を1以上含む、購入申込データを受信する購入申込データ受信手段と、前記販売店データ記憶手段に記憶され、前記購入申込データ受信手段により受信された購入申込データに含まれる化粧品識別データと同じ内容を含む販売店データに含まれる価格データと、該購入申込データに含まれる数量データに基づき、費用に関する費用データを算出する算出手段と、前記算出手段により算出された費用データを、前記通信網を介して、前記端末装置に送信する費用データ送信手段とを備える構成としてもよい。これを本発明の第9の態様と呼ぶ。   In a second aspect of the present invention, it includes store identification data that can specify a cosmetic store, cosmetic identification data that can specify a cosmetic, and price data that indicates a price associated with the cosmetic identification data. The store data storage means for storing at least one store data, the cosmetic identification data that can identify one cosmetic data from the terminal device via the communication network, and the cosmetic identification data. Purchase application data receiving means for receiving purchase application data, including one or more sets of quantity data indicating the quantity obtained, and purchase application data stored in the store data storage means and received by the purchase application data receiving means The cost data is based on the price data included in the store data including the same content as the cosmetic identification data included in the product and the quantity data included in the purchase application data. Calculation means for calculating the cost data, cost data calculated by said calculation means, via the communication network may be configured to include a cost data transmission means for transmitting to the terminal device. This is called the ninth aspect of the present invention.

さらに、本発明は、化粧用具を用いて行われる操作を検出するセンサー部と、前記センサー部によって検出される前記化粧用具の操作の内容に基づいて、仮想的な人体の表面上における化粧用具の接触位置と接触圧力を表すデータである処理データを生成する処理データ生成手段と、前記処理データ生成手段によって生成される処理データを記憶する記憶手段とを備えることを特徴とする端末装置を提供する。これを本発明の第10の態様と呼ぶ。   Furthermore, the present invention provides a sensor unit for detecting an operation performed using a cosmetic tool, and a cosmetic tool on the surface of a virtual human body based on the contents of the operation of the cosmetic tool detected by the sensor unit. Provided is a terminal device comprising processing data generation means for generating processing data which is data representing a contact position and a contact pressure, and storage means for storing the processing data generated by the processing data generation means. . This is referred to as a tenth aspect of the present invention.

本発明の第10の態様において、前記センサー部は圧力を計測する圧力センサーを複数有し、前記複数の圧力センサーの各々は、前記仮想的な人体を模した立体物の表面に配置され、配置されている位置における圧力を計測する構成としてもよい。これを本発明の第11の態様と呼ぶ。   In a tenth aspect of the present invention, the sensor unit includes a plurality of pressure sensors for measuring pressure, and each of the plurality of pressure sensors is disposed on a surface of a three-dimensional object imitating the virtual human body. It is good also as a structure which measures the pressure in the position currently made. This is referred to as the eleventh aspect of the present invention.

本発明の第10の態様において、前記センサー部は一定値以上の圧力を検出するタッチセンサーを複数と、前記化粧用具に加えられる圧力を計測する圧力センサーとを有し、前記複数のタッチセンサーの各々は、前記仮想的な人体を模した立体物の表面に配置され、配置されている位置における圧力を検出する構成としてもよい。これを本発明の第12の態様と呼ぶ。   In a tenth aspect of the present invention, the sensor unit includes a plurality of touch sensors that detect a pressure equal to or greater than a predetermined value, and a pressure sensor that measures a pressure applied to the cosmetic device, and the plurality of touch sensors Each may be arranged on the surface of a three-dimensional object imitating the virtual human body and detect the pressure at the arranged position. This is referred to as a twelfth aspect of the present invention.

本発明の第10の態様において、前記仮想的な人体を表す2次元もしくは3次元の画像を表示する表示手段を備え、前記センサー部は圧力を計測する圧力センサーを複数有し、前記複数の圧力センサーの各々は、前記表示手段の表示画面を覆うパネルの表面に配置され、配置されている位置における圧力を計測する構成としてもよい。これを本発明の第13の態様と呼ぶ。   10th aspect of this invention WHEREIN: The display means which displays the two-dimensional or three-dimensional image showing the said virtual human body is provided, The said sensor part has multiple pressure sensors which measure a pressure, These multiple pressures Each of the sensors may be arranged on the surface of a panel that covers the display screen of the display unit, and measure the pressure at the position where the sensor is arranged. This is referred to as a thirteenth aspect of the present invention.

本発明の第10の態様において、前記仮想的な人体を表す2次元もしくは3次元の画像を表示する表示手段を備え、前記センサー部は一定値以上の圧力を検出するタッチセンサーを複数と、前記化粧用具に加えられる圧力を計測する圧力センサーとを有し、前記複数のタッチセンサーの各々は、前記表示手段の表示画面を覆うパネルの表面に配置され、配置されている位置における圧力を検出する構成としてもよい。これを本発明の第14の態様と呼ぶ。   In a tenth aspect of the present invention, the display device includes a display unit that displays a two-dimensional or three-dimensional image representing the virtual human body, and the sensor unit includes a plurality of touch sensors that detect a pressure greater than a predetermined value, Each of the plurality of touch sensors is disposed on the surface of the panel that covers the display screen of the display unit, and detects the pressure at the position where the touch sensor is disposed. It is good also as a structure. This is referred to as the fourteenth aspect of the present invention.

本発明の第13または第14の態様において、前記表示手段は、前記記憶手段に記憶された処理データに基づいて、前記化粧用具の動作の軌跡を表す画像を生成し、前記仮想的な人体を表す画像とともに表示する構成としてもよい。これを本発明の第15の態様と呼ぶ。   In the thirteenth or fourteenth aspect of the present invention, the display means generates an image representing a trajectory of the operation of the cosmetic device based on the processing data stored in the storage means, and displays the virtual human body. It is good also as a structure displayed with the image to represent. This is called the fifteenth aspect of the present invention.

さらに、本発明は、化粧品の色彩に関する情報を少なくとも含む化粧品データを記憶する化粧品データ記憶処理と、身体に化粧が施される過程を示すプロセスデータを記憶するプロセスデータ記憶処理と、端末装置から、通信網を介して、顧客の身体の画像を示す静止画データを受信する静止画データ受信処理と、前記化粧品データ記憶処理において記憶された化粧品データと、前記プロセスデータ記憶処理において記憶されたプロセスデータと、前記静止画データ受信処理において受信された前記顧客の身体の画像を示す静止画データとに基づいて、前記顧客に化粧を施した場合における当該顧客の身体の表面における色彩の時間的変化を表す動画データを作成する動画データ作成処理と、前記動画データ作成処理において作成された動画データを、前記通信網を介して、前記端末装置に送信する動画データ送信処理とをコンピュータに実行させるプログラムを提供する。これを本発明の第16の態様と呼ぶ。   Furthermore, the present invention is a cosmetic data storage process for storing cosmetic data including at least information relating to the color of cosmetics, a process data storage process for storing process data indicating a process in which makeup is applied to the body, and a terminal device. Still image data reception processing for receiving still image data representing an image of a customer's body via a communication network, cosmetic data stored in the cosmetic data storage processing, and process data stored in the process data storage processing And temporal change in color on the surface of the customer's body when applying makeup to the customer based on the still image data indicating the image of the customer's body received in the still image data receiving process. Movie data creation process for creating movie data to be represented, and a movie created in the movie data creation process The chromatography data, via the communication network, to provide a program for executing a video data transmitting process of transmitting to the terminal device to the computer. This is called the sixteenth aspect of the present invention.

本発明にかかる化粧品ガイダンスシステム、サーバ装置、端末装置およびプログラムによれば、顧客の身体に、顧客により選択された化粧品を用いて、メイクアップアーティストにより仮想的に化粧が施されていく様子が、リアルタイムの動画として顧客に提供される。従って、顧客は自分に適する化粧品の選択を容易に行うことができるとともに、その化粧品を用いた化粧方法を容易に習得することができる。   According to the cosmetic guidance system, the server device, the terminal device and the program according to the present invention, the makeup is virtually applied by the makeup artist using the cosmetics selected by the customer on the customer's body. Provided to customers as real-time video. Therefore, the customer can easily select the cosmetics suitable for him and can easily learn the makeup method using the cosmetics.

[1.第1実施形態]
[1.1.ガイダンスシステムの構成]
図1は、本発明の一実施形態であるガイダンスシステム1の全体構成を示す図である。ガイダンスシステム1は、インターネット11と、インターネット11に接続された複数の顧客端末12、サーバ13、複数のメーカ端末14および複数の販売店端末15により構成されている。なお、図1においては、図の簡略化のため、顧客端末12、メーカ端末14および販売店端末15はそれぞれ1つしか示されていない。
[1. First Embodiment]
[1.1. Configuration of guidance system]
FIG. 1 is a diagram showing an overall configuration of a guidance system 1 according to an embodiment of the present invention. The guidance system 1 includes an Internet 11, a plurality of customer terminals 12 connected to the Internet 11, a server 13, a plurality of manufacturer terminals 14, and a plurality of store terminals 15. In FIG. 1, only one customer terminal 12, manufacturer terminal 14, and store terminal 15 are shown for simplification of the drawing.

インターネット11は、文字、画像等の各種データを通信可能な複数のLAN(Local Area Network)が、ゲートウェイサーバ等により互いに接続された通信網群である。   The Internet 11 is a communication network group in which a plurality of LANs (Local Area Network) capable of communicating various data such as characters and images are connected to each other by a gateway server or the like.

顧客端末12は、化粧品の購入希望者である顧客により利用される端末装置である。顧客端末12は、顧客の顔の静止画データを取得可能であるとともに、インターネット11に接続された他の通信機器との間で、インターネット11内で利用可能な通信プロトコル、例えばHTTP(HyperText Transfer Protocol)等を用いて、各種データの送受信が可能な装置である。顧客端末12は、一般的なコンピュータや携帯端末等に、特定のプログラムに従った処理を行わせることによっても実現可能である。本実施形態においては、例として、図2に示すようなCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HD(Hard Disk)、表示部、操作部、通信部およびデジタルカメラを有する汎用コンピュータに、Webブラウザソフトに従った処理を行わせることによって、顧客端末12を実現するものとする。   The customer terminal 12 is a terminal device used by a customer who wants to purchase cosmetics. The customer terminal 12 can acquire still image data of the customer's face and can use a communication protocol, for example, HTTP (HyperText Transfer Protocol) that can be used in the Internet 11 with other communication devices connected to the Internet 11. ) And the like. The customer terminal 12 can also be realized by causing a general computer or mobile terminal to perform processing according to a specific program. In the present embodiment, as an example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an HD (Hard Disk), a display unit, an operation unit, and a communication unit as illustrated in FIG. The customer terminal 12 is realized by causing a general-purpose computer having a digital camera to perform processing according to Web browser software.

顧客端末12のCPUは、HDに記憶されたWebブラウザソフトに従い、サーバ13からHTML(HyperText Markup Language)等の言語により記述されたWebページデータを受信し、そのWebページデータに従いWebページを表示部に表示させる。Webページデータは静止画データや動画データ等を付属データとして含むことが可能であり、Webページにおいては、文字、記号、図形等に加え、静止画の表示や動画の再生も行われる。   The CPU of the customer terminal 12 receives Web page data described in a language such as HTML (HyperText Markup Language) from the server 13 according to the Web browser software stored in the HD, and displays the Web page according to the Web page data. To display. The Web page data can include still image data, moving image data, and the like as attached data. In addition to characters, symbols, graphics, and the like, the Web page data displays still images and reproduces moving images.

サーバ13は、ガイダンスシステム1の情報提供サービスを行うサービスプロバイダのスタッフにより管理されるサーバ装置である。サーバ13は、顧客端末12と同様に、インターネット11に接続された他の通信機器との間で各種データの送受信が可能な装置である。本実施形態においては、サーバ13は図2に示したような汎用コンピュータに、Webサーバソフトに従った処理を行わせることによって実現させるものとする。ただし、サーバ13として機能する汎用コンピュータは、デジタルカメラを備えている必要はない。サーバ13のCPUは、HDに記憶されたWebサーバソフトに従い、他の通信機器からの要求に応じて各種のWebページデータを要求元の通信機器に送信する。   The server 13 is a server device that is managed by the staff of a service provider that provides the information providing service of the guidance system 1. Similarly to the customer terminal 12, the server 13 is a device that can transmit and receive various data to and from other communication devices connected to the Internet 11. In the present embodiment, the server 13 is realized by causing a general-purpose computer as shown in FIG. 2 to perform processing according to Web server software. However, the general-purpose computer that functions as the server 13 does not need to have a digital camera. The CPU of the server 13 transmits various Web page data to the requesting communication device in response to a request from another communication device according to the Web server software stored in the HD.

メーカ端末14は、化粧品メーカのスタッフにより利用される端末装置である。また、販売店端末15は、化粧品販売店のスタッフにより利用される端末装置である。メーカ端末14および販売店端末15は、顧客端末12と同様に、インターネット11に接続された他の通信機器との間で各種データの送受信が可能な装置である。本実施形態においては、メーカ端末14および販売店端末15もまた、図2に示したような汎用コンピュータにWebブラウザソフトに従った処理を行わせることによって実現させるものとする。ただし、メーカ端末14および販売店端末15として機能する汎用コンピュータは、デジタルカメラを備えている必要はない。   The manufacturer terminal 14 is a terminal device used by the staff of a cosmetic manufacturer. The store terminal 15 is a terminal device used by the staff of the cosmetic store. Like the customer terminal 12, the manufacturer terminal 14 and the dealer terminal 15 are devices that can transmit and receive various data to and from other communication devices connected to the Internet 11. In the present embodiment, the maker terminal 14 and the store terminal 15 are also realized by causing a general-purpose computer as shown in FIG. 2 to perform processing according to Web browser software. However, the general-purpose computer that functions as the manufacturer terminal 14 and the store terminal 15 does not need to have a digital camera.

[1.2.サーバが記憶するデータの構成]
サーバ13のHDには、WebサーバソフトやOS(Operation System)、ガイダンスシステム1における情報提供サービスをサーバ13に行わせるためのガイダンスプログラム等の各種プログラムが記憶されている。また、図3に示すように、サーバ13のHDには、顧客データベース21、化粧品データベース22、顔静止画データ群23、モデル顔特徴点データ24、モデル顔陰影データ25、プロセスデータベース26、着色特性データベース27、HSB−RGB対応表28、メーカデータベース29、販売店データベース30、マーケティング関連データベース31およびWebページデータ群32が記憶されている。
[1.2. Configuration of data stored by server]
The HD of the server 13 stores various programs such as Web server software, an OS (Operation System), and a guidance program for causing the server 13 to perform an information providing service in the guidance system 1. As shown in FIG. 3, the HD of the server 13 includes a customer database 21, a cosmetic database 22, a face still image data group 23, model face feature point data 24, model face shadow data 25, a process database 26, and coloring characteristics. A database 27, an HSB-RGB correspondence table 28, a manufacturer database 29, a store database 30, a marketing related database 31, and a web page data group 32 are stored.

顧客データベース21は、顧客に関するデータである顧客データを複数含んでいる。顧客データは、顧客端末12からサーバ13に送信されるデータに基づき、サーバ13が作成する。図4は、顧客データベース21の構成を例示した図である。顧客データは、「顧客基本情報」、「顧客肌質情報」、「顔静止画データファイル名」、「化粧品条件情報」および「選択化粧品名」の項目を有している。   The customer database 21 includes a plurality of customer data, which are data related to customers. The customer data is created by the server 13 based on data transmitted from the customer terminal 12 to the server 13. FIG. 4 is a diagram illustrating the configuration of the customer database 21. The customer data includes items of “customer basic information”, “customer skin quality information”, “face still image data file name”, “cosmetic condition information”, and “selected cosmetic name”.

「顧客基本情報」は、顧客の「顧客ID」、「顧客パスワード」、「年齢」、「性別」、「職業」、「住所」等の副項目を有している。   “Basic customer information” has sub-items such as “customer ID”, “customer password”, “age”, “gender”, “profession”, and “address” of the customer.

「顧客肌質情報」は、顧客の「肌質」、「忌避化粧品名」および「症状」の副項目を有している。ここで、「肌質」は、例えば普通肌、乾燥肌等のような分類に従い、顧客の肌質を特定する情報である。「忌避化粧品名」とは、顧客が過去に使用してトラブルがあった化粧品を意味する。この「忌避化粧品名」は、複数であってもよい。「症状」は、「忌避化粧品名」のそれぞれに関し、その化粧品を使ったときに発生したかゆみ、はれ等のトラブルの種類を示す。   “Customer skin quality information” has sub-items of “skin quality”, “repellent cosmetic name” and “symptom” of the customer. Here, “skin quality” is information that specifies the skin quality of the customer according to a classification such as normal skin, dry skin, and the like. “Repellent cosmetic product name” means a cosmetic product that has been used by a customer in the past. This “repellent cosmetic name” may be plural. “Symptom” indicates the type of trouble such as itching or swelling that occurs when the cosmetic product is used with respect to each “repellent cosmetic product name”.

「顔静止画データファイル名」は、顧客の顔をデジタルカメラで撮影して得られる静止画データのファイル名である。このファイル名は、顔静止画データ群23に含まれる顔静止画データのいずれかを示している。   “Face still image data file name” is a file name of still image data obtained by photographing a customer's face with a digital camera. This file name indicates one of the face still image data included in the face still image data group 23.

「化粧品条件情報」は、「化粧水」、「ファンデーション(リキッド)」、「アイシャドー(アクセントカラー)」、「口紅」等の各種の化粧品分類に対応した副項目を有している。各副項目は、対応する化粧品分類に関し顧客が望む条件を示す条件データを含む。例えば「口紅」の副項目に「価格:高or中」という条件データが含まれている場合、この条件データは、価格が高めの口紅もしくは価格が中程度の口紅の購入を顧客が検討していることを示している。条件データの種類としては、「価格」の他、例えば「色相」、「彩度」、「明度」、「光沢」、「価格」、「耐水性」、「紫外線防止度」、「発売日」、「類似色化粧品名」、「メーカ名」等、様々なものが考えられる。   The “cosmetic condition information” has sub-items corresponding to various cosmetic categories such as “skin lotion”, “foundation (liquid)”, “eye shadow (accent color)”, and “lipstick”. Each sub-item includes condition data indicating conditions desired by the customer regarding the corresponding cosmetic classification. For example, if the sub-item “Lipstick” contains the condition data “Price: High or Medium”, this condition data indicates that the customer is considering purchasing a lipstick with a higher price or a medium price lipstick. It shows that. As the type of condition data, in addition to “Price”, for example, “Hue”, “Saturation”, “Brightness”, “Gloss”, “Price”, “Water resistance”, “UV protection”, “Release date” Various names such as “similar color cosmetic name” and “manufacturer name” are conceivable.

「選択化粧品名」は、各種の化粧品分類に対応した副項目を有している。各副項目は、後述する顧客の顔の静止画データを用いた仮想的な化粧に用いられる化粧品として、顧客により選択された化粧品の名称を示している。   The “selected cosmetic name” has sub-items corresponding to various cosmetic classifications. Each sub-item indicates the name of the cosmetic selected by the customer as the cosmetic used for virtual makeup using the still image data of the customer's face described later.

化粧品データベース22は、その時点で販売されている化粧品に関する化粧品データを複数含んでいる。化粧品データは、メーカ端末14からサーバ13に送信されるデータに基づきサーバ13が作成する。図5は、化粧品データベース22の構成を示した図である。1つの化粧品に関する化粧品データは、その化粧品の「化粧品名」、「メーカ名」、「化粧品分類」、「油分比率」、「成分」、「症状」、「色相」、「彩度」、「明度」、「透明度」、「粘度」、「内容量」、「価格」、「紫外線透過度」、「耐水性」、「その他特性」、「発売日」の項目を含み、さらに「販売中」および「ポップアップコメント」の項目を有している。   The cosmetic database 22 includes a plurality of cosmetic data relating to cosmetics sold at that time. The cosmetic data is created by the server 13 based on data transmitted from the manufacturer terminal 14 to the server 13. FIG. 5 is a diagram showing the configuration of the cosmetic database 22. The cosmetic data relating to one cosmetic is the “cosmetic name”, “manufacturer name”, “cosmetic classification”, “oil content ratio”, “component”, “symptom”, “hue”, “saturation”, “lightness” of the cosmetic. ”,“ Transparency ”,“ Viscosity ”,“ Content ”,“ Price ”,“ UV Transmissivity ”,“ Water Resistance ”,“ Other Properties ”,“ Release Date ”, and“ On Sale ”and It has an item "Pop-up comment".

ここで、「油分比率」は、その化粧品に含まれる油脂成分の重量比率を百分率で表した数値である。「成分」は、その化粧品に含まれる成分の名称を1以上含んでいる。「症状」は、その「成分」に含まれる名称により示される成分により引き起こされる可能性のある症状の名称である。   Here, the “oil content ratio” is a numerical value representing the weight ratio of the fat component contained in the cosmetic as a percentage. “Ingredient” includes one or more names of ingredients contained in the cosmetic. The “symptom” is a name of a symptom that may be caused by a component indicated by a name included in the “component”.

「色相」は、化粧品の色相を0から100までの数値で表したものである。本実施形態において0は赤を示し、数値が増すにつれて、赤→黄→緑→青→紫→赤と変化するものとする。「彩度」は、化粧品の色彩の鮮やかさを示す0から100までの数値である。「彩度」は大きいほど鮮やかな色彩を示す。「明度」は、化粧品の色彩の明るさを示す0から100までの数値である。「明度」の数値は大きいほど明るい色彩を示す。   “Hue” represents the hue of a cosmetic by a numerical value from 0 to 100. In this embodiment, 0 indicates red, and changes from red → yellow → green → blue → purple → red as the value increases. “Saturation” is a numerical value from 0 to 100 indicating the vividness of the color of cosmetics. The greater the “saturation”, the brighter the color. “Lightness” is a numerical value from 0 to 100 indicating the brightness of the color of the cosmetic. The larger the “lightness” value, the brighter the color.

「透明度」は、化粧品を一定の薄さに広げた際に光が透過する比率を百分率で示した0から100までの数値である。本実施形態において、一定の薄さは1mg/pixelとする。ただし、この場合の「pixel」は、顔静止画データにおける1画素の面積である。「粘度」は、化粧品の粘度を示す数値である。「粘度」の単位はPa・sである。「内容量」は、化粧品の1販売単位の内容量を示し、「価格」は、化粧品の1販売単位のメーカ希望小売価格を示している。   “Transparency” is a numerical value from 0 to 100 that indicates the percentage of light that is transmitted when the cosmetic is spread to a certain thickness. In the present embodiment, the constant thinness is 1 mg / pixel. In this case, “pixel” is the area of one pixel in the face still image data. “Viscosity” is a numerical value indicating the viscosity of a cosmetic. The unit of “viscosity” is Pa · s. “Internal capacity” indicates the internal capacity of one sales unit of cosmetics, and “Price” indicates the manufacturer's suggested retail price of one sales unit of cosmetics.

「紫外線透過度」は、化粧品を1mg/pixelの薄さに広げた際に、紫外線が透過する比率を百分率で示した0から100までの数値である。「耐水性」は、肌に化粧品を1mg/pixelの薄さに広げた状態で水に浸した後、一定時間後に肌に残存している化粧品の重量比率を百分率で示した数値である。「その他特性」としては、例えば「化粧品分類」がマスカラである場合、そのマスカラによりまつ毛のボリュームアップがなされる比率等、化粧品に応じて異なる特性に関するデータ等が考えられる。   The “ultraviolet ray transmittance” is a numerical value from 0 to 100, which indicates the percentage of ultraviolet rays that are transmitted as a percentage when the cosmetic is spread to a thickness of 1 mg / pixel. “Water resistance” is a numerical value indicating the percentage by weight of the cosmetics remaining on the skin after a certain period of time after the cosmetics are spread on the skin in a state of being spread to a thickness of 1 mg / pixel. As “other characteristics”, for example, when “cosmetics classification” is mascara, data on characteristics that differ depending on cosmetics, such as a ratio of the eyelash volume increased by the mascara, and the like can be considered.

「販売中」は、その化粧品がその時点で販売中であるか否かを示すデータであり、「Yes」もしくは「No」のいずれかである。「ポップアップコメント」は、その化粧品のPR用のメッセージを示す。この「ポップアップコメント」は、PRを要する特定の化粧品に関する化粧品データ以外においては空欄である。   “On sale” is data indicating whether the cosmetic is currently on sale, and is “Yes” or “No”. “Pop-up comment” indicates a message for PR of the cosmetic. This “pop-up comment” is blank except for cosmetic data relating to specific cosmetics requiring PR.

顔静止画データ群23は、ガイダンスシステム1においてモデルとして用いられる頭部の形状を模した立体物、すなわち頭部のマネキン(以下、「モデルマネキン」と呼ぶ)および顧客の顔をデジタルカメラで撮影することにより得られる静止画データの集まりである。以下、顔静止画データ群23に含まれる静止画データを「顔静止画データ」と呼び、モデルマネキンの顔静止画データを「モデル顔静止画データ」、顧客の顔静止画データを「顧客顔静止画データ」と呼ぶ。また、顔静止画データの解像度は、例として、320×240=76,800画素であるものとする。モデル顔静止画データは、ガイダンスシステム1のサービスプロバイダのスタッフによる撮影により取得され、予めサーバ13のHDに記憶されている。顧客顔静止画データは、顧客端末12からサーバ13に送信され、サーバ13のHDに記憶される。   The face still image data group 23 is a three-dimensional object imitating the shape of a head used as a model in the guidance system 1, that is, a head mannequin (hereinafter referred to as a “model mannequin”) and a customer's face taken with a digital camera. It is a collection of still image data obtained by doing. Hereinafter, the still image data included in the face still image data group 23 is referred to as “face still image data”, the model mannequin face still image data is “model face still image data”, and the customer face still image data is “customer face data”. This is called “still image data”. In addition, the resolution of the face still image data is assumed to be 320 × 240 = 76,800 pixels as an example. The model face still image data is acquired by photographing by the staff of the service provider of the guidance system 1 and stored in the HD of the server 13 in advance. The customer face still image data is transmitted from the customer terminal 12 to the server 13 and stored in the HD of the server 13.

図6は、モデル顔静止画データにより表される静止画を示している。ただし、図6の静止画に付されている座標軸および●印1は以下の説明のために便宜的に示したものであり、実際の静止画には含まれていない。   FIG. 6 shows a still image represented by the model face still image data. However, the coordinate axes and ● marks 1 attached to the still image in FIG. 6 are shown for convenience in the following description and are not included in the actual still image.

モデル顔特徴点データ24は、モデル顔静止画データにおける特徴点に関するデータである。特徴点とは、顔静止画データにおいて一意に位置を特定可能な点である。なお、「点」は本来、面積を持たず位置のみを示す概念であるが、以下の説明において、「点」とは顔静止画データにおける1画素を示すものとする。   The model face feature point data 24 is data relating to feature points in the model face still image data. A feature point is a point whose position can be uniquely specified in face still image data. In addition, “point” is originally a concept that indicates only a position without an area, but in the following description, “point” indicates one pixel in face still image data.

図7は、モデル顔特徴点データ24の内容を例示した図である。1つの特徴点に対応したモデル顔特徴点データ24は、その特徴点の「識別番号」、「名称」、「位置」および「一致要否」の項目を有している。特徴点の「名称」としては、左右の目尻、左右の口端等の他、顔の中心線と顔の輪郭との交点など、様々なものが考えられる。   FIG. 7 is a diagram illustrating the contents of the model face feature point data 24. The model face feature point data 24 corresponding to one feature point has items of “identification number”, “name”, “position”, and “necessity of matching” of the feature point. As the “name” of the feature point, various things such as the intersection of the center line of the face and the face outline can be considered in addition to the left and right corners of the eyes and the left and right mouth edges.

「位置」は、図6に示すXY座標系における特徴点の位置を表している。さらに詳述すると、このXY座標系では、、顔静止画データにより示される静止画に上から接する水平線をX軸、静止画の左から接する垂直線をY軸とし、X軸に関しては右方向、Y軸に関しては下方向が正方向としている。図6の●印1は、右目尻の座標(25,40)を例示している。   “Position” represents the position of the feature point in the XY coordinate system shown in FIG. More specifically, in this XY coordinate system, the horizontal line in contact with the still image indicated by the face still image data from the top is the X axis, the vertical line in contact with the left of the still image is the Y axis, The downward direction is the positive direction with respect to the Y axis. The mark 1 in FIG. 6 illustrates the coordinates (25, 40) of the right eye corner.

「一致要否」は、一致の「要」もしくは「不要」のいずれかを意味する。ガイダンスシステム1においては、後述するように、顧客顔静止画データとモデル顔静止画データとの間で、対応する特徴点の位置の一致処理が行われる。「要」は、その特徴点が一致させる必要のある特徴点であることを示す。一方、「不要」は、その特徴点が一致させる必要のない特徴点であることを示す。モデル顔特徴点データ24は、ガイダンスシステム1のサービスプロバイダのスタッフにより作成され、予めサーバ13のHDに記憶されている。   “Necessity of matching” means “necessary” or “unnecessary” of matching. In the guidance system 1, as will be described later, matching processing of corresponding feature point positions is performed between the customer face still image data and the model face still image data. “Necessary” indicates that the feature point needs to be matched. On the other hand, “unnecessary” indicates that the feature point does not need to be matched. The model face feature point data 24 is created by the service provider staff of the guidance system 1 and stored in advance in the HD of the server 13.

モデル顔陰影データ25は、モデル顔の各位置における陰影を示すデータである。図8は、モデル顔陰影データ25の内容を例示した図である。1つの位置に対応したモデル顔陰影データ25は、「位置」および「陰影度」の項目を有している。「位置」は、モデル顔静止画データにおける各点の座標を示す。「陰影度」は、「位置」により示される点における陰影の程度を示す0から100までの数値である。例えば、ある点の陰影のない場合の明度が30であり、モデル顔陰影データ25におけるその点の位置に対応する陰影度が40であるとすると、その点の明度は陰影により、30×40/100=12となる。   The model face shadow data 25 is data indicating shadows at each position of the model face. FIG. 8 is a diagram illustrating the contents of the model face shadow data 25. The model face shadow data 25 corresponding to one position has items of “position” and “shade degree”. “Position” indicates the coordinates of each point in the model face still image data. “Shading degree” is a numerical value from 0 to 100 indicating the degree of shading at the point indicated by “position”. For example, if the brightness of a point when there is no shadow is 30 and the shadow degree corresponding to the position of the point in the model face shadow data 25 is 40, the brightness of the point is 30 × 40 / 100 = 12.

このようにモデル顔陰影データ25は、モデルマネキンを通常の光の下で撮影して得られたモデル顔静止画データと、モデルマネキンに八方から光を照射した状態で同じ角度で撮影して得られた顔静止画データの各点の明度の比を百分率で表したものであり、ガイダンスシステム1のサービスプロバイダのスタッフにより作成され、予めサーバ13のHDに記憶されている。   As described above, the model face shadow data 25 is obtained by photographing the model mannequin under normal light and by photographing the model mannequin at the same angle in a state where the model mannequin is irradiated with light from all sides. The ratio of the brightness of each point of the obtained face still image data is expressed as a percentage, created by the service provider staff of the guidance system 1, and stored in the HD of the server 13 in advance.

プロセスデータベース26は、化粧のプロセスに関するプロセスデータを複数含んでいる。プロセスデータはメイクアップアーティストにより作成され、ガイダンスシステム1のサービスプロバイダのスタッフによりサーバ13のHDに予め記憶されている。メイクアップアーティストによるプロセスデータの作成の方法については後述する。   The process database 26 includes a plurality of process data relating to the makeup process. The process data is created by a makeup artist and stored in advance in the HD of the server 13 by the staff of the service provider of the guidance system 1. A method for creating process data by a makeup artist will be described later.

図9は、プロセスデータベース26の構成を示した図である。1つのプロセスに対応したプロセスデータは、そのプロセスの「名称」、「分類」、そのプロセスに関する「コメント」、そのプロセスの内容を説明する1または複数の「ステップ」、すなわち「ステップ1」〜「ステップk」を含んでいる。   FIG. 9 is a diagram showing the configuration of the process database 26. The process data corresponding to one process includes “name”, “classification” of the process, “comment” regarding the process, and one or more “steps” that describe the contents of the process, that is, “step 1” to “step 1” to “step 1” to “step 1”. Step k "is included.

「分類」は、プロセスが属する分類を特定する1または複数のキーデータを含んでいる。このキーデータとしては、例えば、「アーティスト:アーティストB」、「イメージ:かわいい」、「タレント:タレントM」等、様々な形式のものが考えられる。「アーティスト:アーティストB」は、そのプロセスが、アーティストBによりデザインされたものであることを示す。「イメージ:かわいい」は、このプロセスが、かわいいイメージを得るための化粧のプロセスであることを示す。また、「タレント:タレントM」は、このプロセスが、タレントMに対し頻繁に施される化粧と類似した結果を得るための化粧のプロセスであることを示す。   “Category” includes one or a plurality of key data specifying the classification to which the process belongs. As this key data, for example, “Artist: Artist B”, “Image: Cute”, “Talent: Talent M”, and the like can be considered. “Artist: Artist B” indicates that the process is designed by Artist B. “Image: cute” indicates that this process is a cosmetic process for obtaining a cute image. “Talent: Talent M” indicates that this process is a cosmetic process for obtaining a result similar to that frequently applied to the talent M.

「コメント」は、このプロセスの内容を紹介するメッセージである。「ステップ1」〜「ステップk」のそれぞれは、化粧の一連のプロセスを一区切りの処理に分けた場合の各処理(以下、ステップという)に関するデータである。「ステップ1」〜「ステップk」のそれぞれは、「ガイダンス」、そのステップにおいて用いられる化粧品の「化粧品分類」、そのステップにおいて用いられる「用具」、そのステップにおける「動作」および「処理データ」の副項目を有している。「動作」としては、例えば「塗る」、「なでる」、「はたく」、「カットする」、「抜く」、「押さえる」、「のせる」等、様々なものが考えられる。   “Comment” is a message introducing the contents of this process. Each of “Step 1” to “Step k” is data relating to each process (hereinafter referred to as “step”) when a series of makeup processes is divided into a single process. Each of “Step 1” to “Step k” includes “guidance”, “cosmetic classification” of cosmetics used in the step, “tool” used in the step, “operation” and “processing data” in the step. Has sub-items. As the “operation”, various things such as “painting”, “stroking”, “happing”, “cutting”, “pulling”, “pressing”, “putting”, and the like can be considered.

「処理データ」は、「用具」により示される用具を用いて、「動作」により示される動作が行われる際の、用具の中心点の位置や用具と肌との間の圧力等のデータである。「処理データ」に含まれるデータの形式は、「動作」の内容により、以下のように異なる。   “Processing data” is data such as the position of the center point of the tool and the pressure between the tool and the skin when the operation indicated by “Action” is performed using the tool indicated by “Tool”. . The format of data included in “process data” varies as follows depending on the content of “operation”.

「動作」が「塗る」、「なでる」等である場合、「処理データ」は、以下のように、複数の時系列の3次元ベクトル群となる。
(20,25,10),(21,23,11),(23,19,15),・・・
(35,48,25),(33,46,28),(32,43,31),・・・
(47,53,41),(48,53,38),(51,50,27),・・・
When the “operation” is “painting”, “patting”, etc., the “processing data” is a group of a plurality of time-series three-dimensional vectors as follows.
(20, 25, 10), (21, 23, 11), (23, 19, 15), ...
(35, 48, 25), (33, 46, 28), (32, 43, 31), ...
(47, 53, 41), (48, 53, 38), (51, 50, 27), ...

上記の例では、最初の行に、最初の塗り動作を表す第1の時系列3次元ベクトル群が、第2行目に2回目の塗り動作を表す第2の時系列3次元ベクトル群が、第3行目に3回目の塗り動作を表す第3の時系列3次元ベクトル群が示されている。しかし、ベクトル群の数は3に限られず、必要な動作の数だけ設ければよい。   In the above example, in the first row, the first time-series three-dimensional vector group representing the first painting operation, and in the second row, the second time-series three-dimensional vector group representing the second painting operation, In the third row, a third time-series three-dimensional vector group representing the third painting operation is shown. However, the number of vector groups is not limited to three, and it is sufficient to provide as many operations as necessary.

上記の各ベクトルの第1成分および第2成分は、それぞれ、図6に示したモデル顔静止画データにおける用具の中心点のX座標およびY座標を、第3成分は用具と肌の間の圧力(Pa)を示している。各時系列ベクトル群において、各ベクトルは先頭から順次、1msごとの用具の位置および圧力を示している。すなわち、上記の処理データは、用具の位置の時間的変化を示す時系列の位置データと各位置における圧力を示す時系列の圧力データとを含んでいる。   The first component and the second component of each vector are respectively the X and Y coordinates of the center point of the tool in the model face still image data shown in FIG. 6, and the third component is the pressure between the tool and the skin. (Pa). In each time series vector group, each vector indicates the position and pressure of the tool every 1 ms sequentially from the top. That is, the processing data includes time-series position data indicating temporal changes in the position of the tool and time-series pressure data indicating pressure at each position.

「動作」に「はたく」、「押さえる」、「のせる」等が含まれている場合、「処理データ」は、以下のような5次元ベクトル群となる。
(25,30,115,30,0),(43,56,102,38,12),・・・
When “operation” includes “slap”, “press”, “place”, etc., “process data” is a group of five-dimensional vectors as follows.
(25, 30, 115, 30, 0), (43, 56, 102, 38, 12), ...

上記の各ベクトルにおいて、第1成分および第2成分は、それぞれ、用具の中心点のX座標およびY座標を、第3成分は用具の中心点における用具と肌との間の最大圧力(Pa)を、第4成分は用具と肌の接触開始から接触終了までの時間(ms)を、第5成分は先行するベクトルが示す用具と肌の接触開始から、そのベクトルが示す用具と肌の接触開始までの時間(ms)を示している。すなわち、上記の処理データは、用具の位置を時系列で示す位置データと、各位置における圧力を示す圧力データと、圧力のかけ方およびその間隔を示す時間データとを含んでいる。各ベクトルは、例えば「はたく」という動作における1はたきを示している。   In each of the vectors, the first component and the second component are the X coordinate and Y coordinate of the center point of the tool, respectively, and the third component is the maximum pressure (Pa) between the tool and the skin at the center point of the tool. The fourth component is the time (ms) from the start of contact between the tool and the skin until the end of contact. The fifth component is the start of contact between the tool and the skin indicated by the preceding vector, and the contact start of the tool and the skin indicated by the vector. Time (ms) is shown. That is, the processing data includes position data indicating the position of the tool in time series, pressure data indicating the pressure at each position, and time data indicating how to apply the pressure and an interval between the pressure data. For example, each vector represents 1 hit in the operation of “happing”.

「動作」に「カットする」、「抜く」等が含まれている場合、「処理データ」は、以下のような2次元ベクトル群となる。
(25,30),(26,32),(27,35),・・・
When “Cut”, “Pull”, etc. are included in “Operation”, “Processing data” is the following two-dimensional vector group.
(25, 30), (26, 32), (27, 35), ...

上記のベクトルにおいて、第1成分および第2成分は、それぞれ、モデル顔静止画データが示す静止画上のX座標およびY座標を示し、上記のベクトル群は全体として、静止画上のある領域の外縁を示している。   In the above vector, the first component and the second component respectively indicate the X coordinate and the Y coordinate on the still image indicated by the model face still image data, and the above vector group as a whole is a certain region on the still image. The outer edge is shown.

また、「用具」に「ビューラー」が含まれている場合、「動作」には「カールする」が含まれ、「処理データ」は以下のような2次元ベクトルとなる。
(3,4)
Further, when “Buhler” is included in “Tool”, “Curl” is included in “Operation”, and “Processing data” is a two-dimensional vector as follows.
(3,4)

上記のベクトルにおいて、第1成分はまつ毛のカールの強さを表す1から10までの数値、第2成分はカールの形状を示す1から10までの数値である。例えば、第1成分の数値が大きい程、カールが強く、第2成分の数値が小さい程、根本近くのカールが相対的に強い形状を、また第2成分の数値が大きい程、毛先近くのカールが相対的に強い形状を表す。   In the above vector, the first component is a numerical value from 1 to 10 indicating the strength of curling of the eyelashes, and the second component is a numerical value from 1 to 10 indicating the shape of the curl. For example, the larger the value of the first component, the stronger the curl, the smaller the value of the second component, the relatively strong curl near the root, and the larger the value of the second component, the closer to the hair tip. Represents a shape with relatively strong curl.

また、「用具」に「マスカラコーム」が含まれている場合、「動作」には「とく」が含まれ、「処理データ」は空欄となる。マスカラコームが用いられる位置は特徴点により定まり、またマスカラコームの用いられる強さ等により、化粧の結果が変化することはないためである。なお、以上説明した処理データは例示であり、他の様々な動作に関する処理データや、他の様々な形式の処理データも本発明に適用可能であることは言うまでもない。   In addition, when “mascara comb” is included in “tool”, “operation” includes “toku”, and “processing data” is blank. This is because the position where the mascara comb is used is determined by the feature points, and the makeup result does not change depending on the strength of the mascara comb used. Note that the processing data described above is an example, and it goes without saying that processing data relating to various other operations and processing data in various other formats are also applicable to the present invention.

着色特性データベース27は、プロセスデータベース26の「ステップ1」〜「ステップk」に含まれるデータに基づき、顧客顔静止画データにより示される静止画の色彩を変更するための着色特性データを複数含んでいる。着色特性データは、ガイダンスシステム1のサービスプロバイダのスタッフにより作成され、予めサーバ13のHDに記憶されている。   The coloring characteristic database 27 includes a plurality of coloring characteristic data for changing the color of the still image indicated by the customer face still image data based on the data included in “Step 1” to “Step k” of the process database 26. Yes. The coloring characteristic data is created by the service provider staff of the guidance system 1 and stored in advance in the HD of the server 13.

図10は、着色特性データベース27の構成を示す図である。着色特性データは、「用具」、「動作」、「中心点からのベクトル」、「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」の項目を有している。「用具」は、化粧に用いられる用具の名称である。「動作」は、「用具」に示される用具を用いて行われる動作の名称である。   FIG. 10 is a diagram showing the configuration of the coloring characteristic database 27. The coloring characteristic data includes the items “tool”, “motion”, “vector from the center point”, “tool to skin”, “skin to tool”, and “from current position to next position”. . “Tool” is a name of a tool used for makeup. “Operation” is a name of an operation performed using the tool shown in “Tool”.

「中心点からのベクトル」は、用具の中心点からの位置ベクトルである。「動作」が「塗る」等の移動を伴う動作を示す場合、「中心点からのベクトル」は、用具の中心点を原点とし、移動の方向をX軸とする座標系における座標を示す。「動作」が「はたく」等の移動を伴わない動作を示す場合、「中心点からのベクトル」は、用具の中心点を原点とし、垂直方向をX軸とする座標系における座標を示す。また、「動作」が「カールする」等であり、その動作の対象となる位置が特徴点によって予め決定されるような場合、「中心点からのベクトル」は空欄となる。   The “vector from the center point” is a position vector from the center point of the tool. When the “motion” indicates a motion with movement such as “painting”, the “vector from the center point” indicates coordinates in a coordinate system having the center point of the tool as the origin and the direction of movement as the X axis. When the “motion” indicates a motion that does not involve movement such as “happing”, the “vector from the center point” indicates coordinates in a coordinate system in which the center point of the tool is the origin and the vertical direction is the X axis. Further, when the “motion” is “curl” or the like, and the position to be the target of the motion is determined in advance by the feature point, the “vector from the center point” is blank.

「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」は、「中心点からのベクトル」が示す位置における化粧品の移動量を算出するための関数式を含む。従って、「動作」に「カットする」等の化粧品の移動を伴わない動作を示す情報が含まれる場合、「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」は全て空欄となる。   “From tool to skin”, “from skin to tool”, and “from current position to next position” include functional expressions for calculating the amount of movement of the cosmetic product at the position indicated by “vector from center point”. Therefore, when information indicating an operation that does not involve the movement of cosmetics such as “cut” is included in “motion”, “from tool to skin”, “from skin to tool”, and “from current position to next position” All are blank.

「用具から肌へ」は、用具から肌への化粧品の移動量を算出するための関数式を含む。同様に、「肌から用具へ」は、肌から用具への化粧品の移動量を算出するための関数式を含む。また、「現位置から次位置へ」は、「動作」が「塗る」等の移動を伴う動作を示す場合、移動前の位置から移動後の位置への化粧品の移動量を算出するための関数式を含んでいる。「動作」に「はたく」等の移動を伴わない動作を示す情報が含まれている場合、「現位置から次位置へ」は空欄となる。   “From tool to skin” includes a functional expression for calculating the amount of cosmetic movement from the tool to the skin. Similarly, “from skin to tool” includes a functional expression for calculating the amount of cosmetics transferred from the skin to the tool. “From current position to next position” is a function for calculating the amount of movement of the cosmetic product from the position before the movement to the position after the movement when the “motion” indicates a movement involving movement such as “painting”. Contains an expression. When “motion” includes information indicating a motion that does not involve movement, such as “happing”, “from current position to next position” is blank.

例えば、「動作」に「塗る」が含まれる場合、「中心点からのベクトル」に含まれるベクトル(x,y)により示される点に関する「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」は、一般に以下の式(1)で表される関数式を含む。   For example, when “painting” is included in “motion”, “tool to skin”, “skin to tool”, and “skin to tool” regarding the point indicated by the vector (x, y) included in “vector from the center point” “From the current position to the next position” generally includes a function expression represented by the following expression (1).

Figure 2005044283
ただし、関数fの変数は、それぞれ以下のとおりである。
t:用具側の化粧品の粘度(Pa・s)、
s:肌側の化粧品の粘度(Pa・s)、
v:用具の中心点の移動速度(pixel/ms)(ただし、「pixel」は顔静止画データにおける隣り合う画素の中心点間の距離)、
p:用具の中心点と肌との間の圧力(Pa)。
Figure 2005044283
However, the variables of the function f are as follows.
V t: the viscosity of the tool side of the cosmetics (Pa · s),
V s : the viscosity (Pa · s) of the cosmetic on the skin side,
v: Moving speed of the center point of the tool (pixel / ms) (where “pixel” is the distance between the center points of adjacent pixels in the face still image data),
p: Pressure (Pa) between the center point of the device and the skin.

例えば、図10の先頭行のデータを例に説明すると、リップブラシを用いて化粧品を塗る際に、リップブラシの中心点からベクトル(12,20)で示される点において、まずリップブラシに付着している化粧品のうち、f(12,20)=(Vs×p)/(Vt×v)×37(%)で示される比率の化粧品がリップブラシから肌へ移動し、同時に肌に付着している化粧品のうち、g(12,20)=(Vt×p)/(Vs×v)×5(%)で示される比率の化粧品が肌からリップブラシへ移動する。その後、現位置の点に付着している化粧品のうち、h(12,20)=(Vt×p)/(Vs×v)×22(%)で示される比率の化粧品が次位置の点へ移動する。これらの情報により、各時点において、各点において肌に付着している化粧品の量が決定され、決定された化粧品の量に応じて顔静止画データの各点における色彩情報が決定される。色彩情報の決定の方法に関しては後述する。 For example, taking the data in the first row of FIG. 10 as an example, when applying cosmetics using a lip brush, the point first indicated by the vector (12, 20) from the center point of the lip brush is attached to the lip brush. Cosmetics in the ratio indicated by f (12,20) = (V s × p) / (V t × v) × 37 (%) move from the lip brush to the skin and adhere to the skin at the same time Among the cosmetics that are being used, cosmetics having a ratio of g (12,20) = (V t × p) / (V s × v) × 5 (%) move from the skin to the lip brush. After that, among the cosmetics adhering to the point at the current position, the cosmetic having the ratio represented by h (12,20) = (V t × p) / (V s × v) × 22 (%) Move to the point. From these pieces of information, the amount of cosmetics adhering to the skin at each point is determined at each time point, and the color information at each point of the face still image data is determined according to the determined amount of cosmetics. A method for determining the color information will be described later.

上記のような関数式は、実験により得られる化粧品の移動量の測定値と各変数との関係を、回帰分析等の統計的手法により求めることにより得られる。なお、上記の関数式は単なる例示であり、本発明の実施において、関数式の構造、変数の種類、定数の値等は様々に変更可能であることは言うまでもない。   The above-described function formula can be obtained by obtaining the relationship between the measured value of the amount of movement of the cosmetic obtained by experiment and each variable by a statistical method such as regression analysis. It should be noted that the above function expression is merely an example, and it goes without saying that the structure of the function expression, the type of variable, the value of the constant, and the like can be variously changed in the implementation of the present invention.

HSB−RGB対応表28は、色相(Hue)、彩度(Saturation)および明度(Brightness)の組合せ(以下、「HSB」と呼ぶ)と、光の三原色、すなわちRGB(Red, Green and Blue)の組合せとの対応を示す表である。本実施形態においては、RGBの各要素は0から255までの整数値を取るものとする。HSB−RGB対応表28はガイダンスシステム1のサービスプロバイダのスタッフにより、予めサーバ13のHDに記憶されている。図11は、HSB−RGB対応表28の構成を示した図である。例えばHSB−RGB対応表28の第2行のデータによれば、色相=0、彩度=0、明度=1で表される色彩は、R=2、G=2、B=2で表される。   The HSB-RGB correspondence table 28 is a combination of hue (Hue), saturation (Saturation) and lightness (Brightness) (hereinafter referred to as “HSB”) and the three primary colors of light, that is, RGB (Red, Green and Blue). It is a table | surface which shows a response | compatibility with a combination. In the present embodiment, it is assumed that each element of RGB takes an integer value from 0 to 255. The HSB-RGB correspondence table 28 is stored in advance in the HD of the server 13 by the staff of the service provider of the guidance system 1. FIG. 11 is a diagram showing the configuration of the HSB-RGB correspondence table 28. For example, according to the data in the second row of the HSB-RGB correspondence table 28, the colors represented by hue = 0, saturation = 0, lightness = 1 are represented by R = 2, G = 2, and B = 2. The

メーカデータベース29は、化粧品メーカのメールアドレスを記憶したデータベースである。図12は、メーカデータベース29の構成を示した図である。メーカデータベース29は、各メーカに関するメーカデータを複数含んでいる。メーカデータは、「メーカ名」および「メーカメールアドレス」の項目を有している。「メーカ名」はメーカの名称である。「メーカメールアドレス」はメーカのメールアドレスである。   The manufacturer database 29 is a database that stores the email addresses of cosmetic manufacturers. FIG. 12 is a diagram showing the configuration of the manufacturer database 29. The manufacturer database 29 includes a plurality of manufacturer data related to each manufacturer. The maker data includes items of “maker name” and “maker mail address”. “Manufacturer name” is the name of the manufacturer. “Manufacturer mail address” is the mail address of the manufacturer.

販売店データベース30は、化粧品販売店の取扱商品等に関するデータである販売店データを複数含んでいる。販売店データは、販売店端末15からサーバ13に送信されるデータに基づき、サーバ13が作成し、予めHDに記憶している。図13は、販売店データベース30の構成を示した図である。販売店データは、その販売店の「販売店名」、「販売店メールアドレス」、「取扱商品」、「納期」、「価格」および「送料」の項目を有している。   The store database 30 includes a plurality of store data, which are data related to products handled by cosmetic stores. The store data is created by the server 13 based on data transmitted from the store terminal 15 to the server 13 and stored in advance in the HD. FIG. 13 is a diagram showing the configuration of the store database 30. The dealer data includes items of “store name”, “store mail address”, “handling product”, “delivery date”, “price”, and “shipping cost” of the dealer.

「取扱商品」は、その販売店が取り扱っている化粧品を特定するための化粧品識別データとして、化粧品の名称を示す。「納期」は、受注から「取扱商品」の名称により示される化粧品を発送するまでに要する日数を示す。「価格」は、「取扱商品」の名称により示される化粧品の1販売単位の販売価格を示す。「送料」は、注文された化粧品の送料を示す。   “Handling product” indicates the name of cosmetics as cosmetic identification data for specifying the cosmetics handled by the dealer. “Delivery date” indicates the number of days required from the time when an order is received until the cosmetic indicated by the name of “handled product” is shipped. “Price” indicates the sales price of one sales unit of cosmetics indicated by the name of “handled product”. “Shipping” indicates the shipping cost of the ordered cosmetic.

マーケティング関連データベース31は、顧客端末12からサーバ13に送信される化粧品に関するデータのうち、化粧品メーカや化粧品販売店の営業活動上、利用可能なデータであるマーケティング関連データを複数含んでいる。マーケティング関連データは、顧客によりガイダンスシステム1が利用されている間に、顧客端末12からサーバ13に送信されるデータに基づき、サーバ13により作成され、HDに順次記憶される。図14は、マーケティング関連データベース31の構成を示した図である。マーケティング関連データは、「年齢」、「性別」、「職業」、「都道府県」、「化粧品分類」、「行動分類」、「内容」および「日付」の項目を有している。   The marketing-related database 31 includes a plurality of marketing-related data, which are data that can be used in the business activities of cosmetic manufacturers and cosmetic stores among the data related to cosmetics transmitted from the customer terminal 12 to the server 13. The marketing related data is created by the server 13 based on data transmitted from the customer terminal 12 to the server 13 while the guidance system 1 is being used by the customer, and sequentially stored in the HD. FIG. 14 is a diagram showing the configuration of the marketing related database 31. The marketing related data includes items of “age”, “sex”, “occupation”, “prefecture”, “cosmetics classification”, “behavior classification”, “content”, and “date”.

「年齢」、「性別」、「職業」および「都道府県」は、そのマーケティング関連データの送信を行った顧客の属性を示す属性データ、すなわち年齢、性別、職業および住所の都道府県名である。「化粧品分類」は、化粧品分類の名称である。「行動分類」は、顧客による行動を示す「抽出条件」、「選択」および「購入」のいずれかである。「抽出条件」は、そのマーケティング関連データが、顧客が化粧品の抽出のために入力した条件データに関するものであることを示す。「選択」は、そのマーケティング関連データが、顧客が後述する仮想的な化粧に用いる化粧品として選択した化粧品に関するものであることを示す。また、「購入」は、そのマーケティング関連データが、顧客が購入の注文を行った化粧品に関するものであることを示す。「内容」は、顧客が入力した条件データや化粧品の名称等を示す。「日付」は、そのマーケティング関連データが取得された日付を示す。   “Age”, “Gender”, “Occupation”, and “Prefecture” are attribute data indicating the attribute of the customer who transmitted the marketing related data, that is, the name of the prefecture of age, gender, occupation, and address. “Cosmetics classification” is a name of cosmetic classification. The “behavior classification” is any one of “extraction condition”, “selection”, and “purchase” indicating the behavior by the customer. The “extraction condition” indicates that the marketing related data relates to the condition data input by the customer for extracting cosmetics. “Selection” indicates that the marketing related data relates to a cosmetic selected by the customer as a cosmetic used for virtual makeup described later. “Purchase” indicates that the marketing related data relates to the cosmetics for which the customer places an order for purchase. “Content” indicates the condition data input by the customer, the name of the cosmetic, and the like. “Date” indicates a date when the marketing related data is acquired.

Webページデータ群32は、Webサーバソフトに従い、サーバ13がメーカ端末14や販売店端末15に対し送信する各種Webページに関するデータの集まりであり、ガイダンスシステム1のサービスプロバイダのスタッフにより予め作成され、サーバ13のHDに記憶されている。   The web page data group 32 is a collection of data related to various web pages that the server 13 transmits to the manufacturer terminal 14 and the store terminal 15 according to the web server software, and is created in advance by the staff of the service provider of the guidance system 1. It is stored in the HD of the server 13.

[1.3.プロセスデータ作成用端末の構成]
上述したように、プロセスデータベース26に含まれるプロセスデータは、メイクアップアーティストにより作成され、ガイダンスシステム1のサービスプロバイダのスタッフによりサーバ13のHDに記憶される。図15は、メイクアップアーティストがプロセスデータを作成する際に用いるプロセスデータ作成用端末41の外観を示す図である。プロセスデータ作成用端末41はモデルマネキン411、A/Dコンバータ412および汎用コンピュータ413から構成されている。
[1.3. Configuration of process data creation terminal]
As described above, the process data included in the process database 26 is created by the makeup artist and stored in the HD of the server 13 by the staff of the service provider of the guidance system 1. FIG. 15 is a diagram showing an appearance of a process data creation terminal 41 used when a makeup artist creates process data. The process data creation terminal 41 includes a model mannequin 411, an A / D converter 412, and a general-purpose computer 413.

モデルマネキン411は、例えば多くの日本人の頭部の形状、各部位の配置位置、色彩等の情報を統計的に処理することにより得られた、仮想的な標準的日本人の頭部の特徴を有するマネキンである。モデルマネキン411の表面はごく薄く柔らかいシリコン等の被覆で覆われており、その被覆の下には微小かつ高感度の圧力センサーが十分に密な一定間隔で配置されている。図15には、被覆を外した状態のモデルマネキン411が示されている。なお、図6に示したモデル顔静止画データは、被覆を付けた状態のモデルマネキン411を撮影することにより得られた静止画データである。   The model mannequin 411 is a virtual standard Japanese head feature obtained by statistically processing information such as the shape of the heads of many Japanese, the location of each part, and the color. It is a mannequin having The surface of the model mannequin 411 is covered with a very thin and soft coating of silicon or the like, and minute and highly sensitive pressure sensors are arranged at a sufficiently dense constant interval under the coating. FIG. 15 shows the model mannequin 411 with the covering removed. Note that the model face still image data shown in FIG. 6 is still image data obtained by photographing the model mannequin 411 with the covering.

図15において、モデルマネキン411上の○印および●印は、それぞれ圧力センサーの位置を示している。本実施形態においては、モデルマネキン411の表面に全部で100000個の圧力センサーが配置されているものとする。従って、モデル顔静止画データの1画素に対し、ほぼ1の圧力センサーを対応づけることができる。ただし、図15においては図の簡略化のため、圧力センサーは実際より粗く配置されている。   In FIG. 15, the ◯ mark and the ● mark on the model mannequin 411 indicate the positions of the pressure sensors, respectively. In the present embodiment, it is assumed that a total of 100,000 pressure sensors are arranged on the surface of the model mannequin 411. Therefore, almost one pressure sensor can be associated with one pixel of the model face still image data. However, in FIG. 15, the pressure sensors are arranged more coarsely than in actuality for simplification of the drawing.

モデルマネキン411上の●印はそれぞれ異なる色で着色された圧力センサーである。このように、一部の圧力センサーが異なる色で着色されていることにより、モデル顔静止画データにおける各圧力センサーの対応位置が特定可能となる。モデル顔静止画データにおける各圧力センサーの対応位置の特定方法については後述する。   The ● marks on the model mannequin 411 are pressure sensors colored in different colors. As described above, when some of the pressure sensors are colored in different colors, the corresponding position of each pressure sensor in the model face still image data can be specified. A method for specifying the corresponding position of each pressure sensor in the model face still image data will be described later.

モデルマネキン411に配置されている圧力センサーのそれぞれは、A/Dコンバータ412に接続されている。A/Dコンバータ412は、複数のアナログ信号を同時に受信し、それらのアナログ信号をデジタルデータに変換するA/D(Analog to Digital)コンバータである。A/Dコンバータ412により生成されるデジタルデータは、汎用コンピュータ413に送信され、後述するように、汎用コンピュータ413のプロセスデータ作成用プログラムに従った処理によって記録および編集される。本実施形態においては、プロセスデータ作成用端末41はA/Dコンバータ412を介してモデルマネキン411と接続された汎用コンピュータ413がプロセスデータ作成用プログラムに従った処理を行うことによって実現されるものとするが、汎用コンピュータを用いる代わりに、同様の機能を有する専用装置が用いられてもよい。また、モデルマネキン411、A/Dコンバータ412および汎用コンピュータ413の機能を実現する装置の一部もしくは全てが一つの筐体内に配置されていてもよい。   Each of the pressure sensors arranged on the model mannequin 411 is connected to the A / D converter 412. The A / D converter 412 is an A / D (Analog to Digital) converter that simultaneously receives a plurality of analog signals and converts the analog signals into digital data. The digital data generated by the A / D converter 412 is transmitted to the general-purpose computer 413, and is recorded and edited by processing according to the process data creation program of the general-purpose computer 413, as will be described later. In the present embodiment, the process data creation terminal 41 is realized by the general-purpose computer 413 connected to the model mannequin 411 via the A / D converter 412 performing processing according to the process data creation program. However, instead of using a general-purpose computer, a dedicated device having the same function may be used. Further, a part or all of the devices that realize the functions of the model mannequin 411, the A / D converter 412, and the general-purpose computer 413 may be arranged in one housing.

A/Dコンバータ412は、100000の入力端子を有し、最大100000の独立したアナログ信号を同時にデジタルデータに変換し出力可能である。A/Dコンバータ412の入出力系統には、1から100000までの識別番号が振られている。A/Dコンバータ412は、例えば1ms毎に、各圧力センサーから入力されるアナログ信号をデジタルデータに変換し、得られたデジタルデータを入出力系統の識別番号とともに汎用コンピュータ413に出力する。以下、A/Dコンバータ412によりデジタルデータ化された圧力に関するデータを「圧力データ」と呼ぶ。   The A / D converter 412 has 100,000 input terminals, and can convert up to 100,000 independent analog signals into digital data at the same time and output them. Identification numbers from 1 to 100,000 are assigned to the input / output systems of the A / D converter 412. The A / D converter 412 converts an analog signal input from each pressure sensor into digital data, for example, every 1 ms, and outputs the obtained digital data together with an input / output system identification number to the general-purpose computer 413. Hereinafter, the pressure-related data converted into digital data by the A / D converter 412 is referred to as “pressure data”.

汎用コンピュータ413は、図2に示した顧客端末12として機能する汎用コンピュータと同様の構成を有する汎用コンピュータである。ただし、汎用コンピュータ413はデジタルカメラを備えている必要はない。汎用コンピュータ413のHDは、OSや以下に説明する圧力センサー位置データ作成用プログラム、プロセスデータ作成用プログラム等の各種プログラムの他に、モデル顔静止画データ、無被覆モデル顔静止画データおよび圧力センサー位置データを記憶している。   The general-purpose computer 413 is a general-purpose computer having the same configuration as the general-purpose computer that functions as the customer terminal 12 illustrated in FIG. However, the general-purpose computer 413 does not need to have a digital camera. The HD of the general-purpose computer 413 includes model face still image data, uncovered model face still image data, and pressure sensor in addition to various programs such as an OS, a pressure sensor position data creation program and a process data creation program described below. Stores position data.

汎用コンピュータ413のHDに記憶されているモデル顔静止画データは、サーバ13のHDに記憶されているモデル顔静止画データと同じものであり、被覆を付けた状態のモデルマネキン411をデジタルカメラで撮影することにより得られる静止画データである。無被覆モデル顔静止画データは、被覆を外した状態のモデルマネキン411をデジタルカメラで撮影することにより得られる静止画データである。モデル顔静止画データおよび無被覆モデル顔静止画データは、ガイダンスシステム1のサービスプロバイダのスタッフにより予め準備され、汎用コンピュータ413のHDに記憶されている。   The model face still image data stored in the HD of the general-purpose computer 413 is the same as the model face still image data stored in the HD of the server 13, and the model mannequin 411 with the cover is attached to the digital camera. This is still image data obtained by photographing. The uncovered model face still image data is still image data obtained by photographing the model mannequin 411 with the cover removed with a digital camera. The model face still image data and the uncovered model face still image data are prepared in advance by the staff of the service provider of the guidance system 1 and stored in the HD of the general-purpose computer 413.

圧力センサー位置データは、モデル顔静止画データにおける、モデルマネキン411上の圧力センサーの対応位置を示すデータである。図16は、圧力センサー位置データの構成を示す図である。ある圧力センサーに対応した圧力センサー位置データは、その圧力センサーの「識別番号」および「位置」の項目を有している。ここで、「位置」はモデル顔静止画データにおける、圧力センサーの位置に対応する座標を示している。   The pressure sensor position data is data indicating the corresponding position of the pressure sensor on the model mannequin 411 in the model face still image data. FIG. 16 is a diagram illustrating the configuration of the pressure sensor position data. Pressure sensor position data corresponding to a certain pressure sensor has items of “identification number” and “position” of the pressure sensor. Here, “position” indicates coordinates corresponding to the position of the pressure sensor in the model face still image data.

圧力センサー位置データは、汎用コンピュータ413のCPUがHDに記憶されている圧力センサー位置データ作成用プログラムに従った処理を行うことにより、モデル顔静止画データおよび無被覆モデル顔静止画データに基づいて作成される。なお、圧力センサー位置データの作成の指示を汎用コンピュータ413に与えるのは、通常、ガイダンスシステム1のサービスプロバイダのスタッフである。   Based on the model face still image data and the uncovered model face still image data, the CPU of the general-purpose computer 413 performs processing according to the pressure sensor position data creation program stored in the HD. Created. Note that it is usually the service provider staff of the guidance system 1 that gives the general-purpose computer 413 an instruction to create pressure sensor position data.

図17は、モデル顔静止画データ(左)および無被覆モデル顔静止画データ(右)により表される静止画を示した図である。これらの静止画は、同じモデルマネキン411を撮影することにより得られる静止画であるので、それぞれの静止画における対応する部位の位置はほぼ一致しているが、撮影時のデジタルカメラの角度等により多少のズレを有している。圧力センサー位置データ作成用プログラムは、そのズレを補正し、無被覆モデル顔静止画データにおける圧力センサーの位置を示すデータから、モデル顔静止画データにおける圧力センサーの対応位置を示すデータを作成する処理をCPUに行わせるプログラムである。   FIG. 17 is a diagram illustrating still images represented by model face still image data (left) and uncovered model face still image data (right). Since these still images are still images obtained by photographing the same model mannequin 411, the positions of corresponding parts in each still image are almost the same, but depending on the angle of the digital camera at the time of photographing, etc. There is some deviation. The pressure sensor position data creation program corrects the deviation and creates data indicating the corresponding position of the pressure sensor in the model face still image data from the data indicating the position of the pressure sensor in the uncovered model face still image data. Is a program that causes the CPU to perform

圧力センサー位置データ作成用プログラムは、圧力センサーの形状や色彩に関するデータおよび顔静止画データの各特徴点に対応する部位の形状や色彩等に関するデータを付属データとして有しており、CPUはそれらの付属データと顔静止画データを比較することにより、顔静止画データにおける圧力センサーや特徴点の位置を特定することができる。以下、CPUによる顔静止画データにおける圧力センサーや特徴点の位置の特定処理を「マッチング処理」と呼ぶ。なお、圧力センサー位置データ作成用プログラムに、例えば圧力センサー間の間隔や各特徴点のおおよその位置に関するデータ等を付属データとして持たせ、それらのデータを用いた判定処理をCPUに行わせることにより、マッチング処理の精度を向上させてもよい。   The pressure sensor position data creation program has data relating to the shape and color of the pressure sensor and the data relating to the shape and color of the part corresponding to each feature point of the face still image data as attached data. By comparing the attached data and the face still image data, the position of the pressure sensor or the feature point in the face still image data can be specified. Hereinafter, the process of specifying the position of the pressure sensor and the feature point in the face still image data by the CPU is referred to as “matching process”. The pressure sensor position data creation program has, for example, data related to the interval between the pressure sensors and the approximate position of each feature point as attached data, and causes the CPU to perform determination processing using those data. The accuracy of the matching process may be improved.

図18は、圧力センサー位置データ作成用プログラムに従い汎用コンピュータ413のCPUが行う処理のフロー図である。CPUはまず、無被覆モデル顔静止画データに関し圧力センサーのマッチング処理を行い、圧力センサーの無被覆モデル顔静止画データにおける座標を図16に示した形式の圧力センサー位置データとしてHDに記憶する(ステップS11)。   FIG. 18 is a flowchart of processing performed by the CPU of the general-purpose computer 413 in accordance with the pressure sensor position data creation program. First, the CPU performs pressure sensor matching processing on the uncovered model face still image data, and stores the coordinates of the pressure sensor in the uncovered model face still image data in the HD as pressure sensor position data in the format shown in FIG. Step S11).

ステップS11の処理において、CPUはまず図17において●印で示される圧力センサーの位置を特定し、その圧力センサーに付された色彩の情報に基づきその圧力センサーの識別番号を特定する。続いてCPUは、○印で示される圧力センサーの位置を特定し、既に識別番号が特定された●印の圧力センサーとの位置関係に基づき、その圧力センサーの識別番号を順次特定する。このようにして、圧力センサー位置データにおける「識別番号」と「位置」の内容が決定される。ただし、モデルマネキン411の背面に配置されている等の理由で、無被覆モデル顔静止画データに画像として含まれない圧力センサーに関しては、圧力センサー位置データにおける「位置」は空欄となる。   In the process of step S11, the CPU first specifies the position of the pressure sensor indicated by ● in FIG. 17, and specifies the identification number of the pressure sensor based on the color information attached to the pressure sensor. Subsequently, the CPU identifies the position of the pressure sensor indicated by a circle, and sequentially identifies the identification number of the pressure sensor based on the positional relationship with the pressure sensor of the circle mark where the identification number has already been identified. In this way, the contents of “identification number” and “position” in the pressure sensor position data are determined. However, for a pressure sensor that is not included as an image in the uncovered model face still image data because it is disposed on the back of the model mannequin 411, the “position” in the pressure sensor position data is blank.

ステップS11の処理に続き、CPUは無被覆モデル顔静止画データに関し、特徴点のマッチング処理を行い、特定した特徴点の座標を用いて無被覆モデル顔特徴点データを作成し、HDに記憶する(ステップS12)。図19は、無被覆モデル顔特徴点データの構成を示す図である。無被覆モデル顔特徴点データは、図7に示したモデル顔特徴点データ24とほぼ同じ構成を持ち、「識別番号」、「名称」および「位置」の項目を有しているが、「一致要否」の項目は有していない。これは、無被覆モデル顔静止画データとモデル顔静止画データの特徴点は全て一致を要し、一致の要否に関する区別を要しないからである。ステップS12の処理において、CPUが特徴点の特定に失敗した場合、その特徴点に関しては、「位置」の項目は空欄となる。   Following the processing in step S11, the CPU performs feature point matching processing on the uncovered model face still image data, creates uncovered model face feature point data using the coordinates of the specified feature points, and stores them in the HD. (Step S12). FIG. 19 is a diagram illustrating a configuration of uncovered model face feature point data. The uncovered model face feature point data has almost the same configuration as the model face feature point data 24 shown in FIG. 7 and has items of “identification number”, “name” and “position”. It does not have an item “Necessity”. This is because the feature points of the uncovered model face still image data and the model face still image data all need to be matched, and it is not necessary to distinguish whether or not they need to be matched. If the CPU fails to specify a feature point in the process of step S12, the item “position” is blank for the feature point.

ステップS12の処理に続き、CPUはステップS12の処理における特徴点の特定の失敗の有無、すなわち無被覆モデル顔特徴点データの「位置」の項目が空欄であるデータの有無を判定する(ステップS13)。ステップS13の判定結果が「Yes」である場合、CPUは特定に失敗した特徴点を手動で特定するようにユーザに指示するメッセージを、無被覆モデル顔静止画データにより表される静止画と共に、表示部に表示させる。この場合、表示部に表示されるメッセージの例としては、例えば「左目尻の特定ができませんでした。画面に表示される画像において、左目尻の位置をマウスで正確にクリックして下さい。」といったものが考えられる。そのメッセージに応じて、ユーザが指定された位置をマウスでクリックすると、CPUはそのクリック操作により指定された無被覆モデル顔静止画データにおける座標を、無被覆モデル顔特徴点データの「位置」として格納する(ステップS14)。CPUは、ステップS13およびS14の処理を、無被覆モデル顔静止画データにおける全てのデータの「位置」が空欄でなくなるまで繰り返す。   Subsequent to the process of step S12, the CPU determines whether or not there is a specific feature point failure in the process of step S12, that is, whether or not there is data in which the item “position” of the uncovered model face feature point data is blank (step S13). ). If the determination result in step S13 is “Yes”, the CPU sends a message instructing the user to manually identify the feature points that failed to be identified, along with the still image represented by the uncovered model face still image data. Display on the display. In this case, as an example of the message displayed on the display unit, for example, “The left eye corner could not be specified. In the image displayed on the screen, click the position of the left eye corner with the mouse.” Things can be considered. In response to the message, when the user clicks the designated position with the mouse, the CPU uses the coordinates in the uncovered model face still image data designated by the click operation as the “position” of the uncovered model face feature point data. Store (step S14). The CPU repeats the processes of steps S13 and S14 until the “position” of all data in the uncovered model face still image data is not blank.

ステップS13の判定結果が「No」である場合、CPUはモデル顔静止画データに関し特徴点のマッチング処理を行い、特定した特徴点の座標を用いてモデル顔特徴点データを作成し、HDに記憶する(ステップS15)。ステップS15において作成されるモデル顔特徴点データは、図7に示したサーバ13のHDに記憶されているモデル顔特徴点データ24と同じものである。ステップS15においても、CPUが特徴点の特定に失敗した場合には、その特徴点に関しては、「位置」の項目は空欄となる。   If the determination result in step S13 is “No”, the CPU performs feature point matching processing on the model face still image data, creates model face feature point data using the coordinates of the identified feature points, and stores them in the HD. (Step S15). The model face feature point data created in step S15 is the same as the model face feature point data 24 stored in the HD of the server 13 shown in FIG. Also in step S15, when the CPU fails to specify a feature point, the item “position” is blank for the feature point.

ステップS16に続き、CPUはステップS13およびS14と同様の処理を、モデル顔特徴点データに関し行う(ステップS16およびS17)。ステップS17の処理によって、モデル顔特徴点データの「位置」に空欄がなくなり、ステップS16の判定結果が「No」となると、CPUは以下に説明する圧力センサー位置データの補正処理を行う(ステップS18)。   Subsequent to step S16, the CPU performs the same process as steps S13 and S14 on the model face feature point data (steps S16 and S17). If there is no blank in the “position” of the model face feature point data due to the processing in step S17 and the determination result in step S16 is “No”, the CPU performs correction processing of pressure sensor position data described below (step S18). ).

図20は、圧力センサー位置データの補正処理を説明するための図である。図20において、点A、点Bおよび点Cは、無被覆モデル顔静止画データにおける互いに近傍の任意の特徴点を示している。点A’、点B’および点C’は、モデル顔静止画データにおける互いに近傍の任意の特徴点を示している。ただし、点Aと点A’、点Bと点B’、点Cと点C’は、それぞれ対応する特徴点である。   FIG. 20 is a view for explaining correction processing of pressure sensor position data. In FIG. 20, point A, point B, and point C indicate arbitrary feature points near each other in the uncovered model face still image data. A point A ′, a point B ′, and a point C ′ indicate arbitrary feature points near each other in the model face still image data. However, the point A and the point A ′, the point B and the point B ′, and the point C and the point C ′ are respectively corresponding feature points.

点Nは、三角形ABCの内部に位置する圧力センサーの位置を示す点である。ステップS18の処理において、CPUは、点A、点Bおよび点Cの座標を無被覆モデル顔特徴点データから取得する。また、CPUは、点A’、点B’および点C’の座標をモデル顔特徴点データから取得する。さらに、CPUは、点Nの座標を、ステップS11において作成した圧力センサー位置データから取得する。続いて、CPUは、以下の式(2)を満たす点N’の座標を算出する。   Point N is a point indicating the position of the pressure sensor located inside the triangle ABC. In the process of step S18, the CPU acquires the coordinates of the points A, B, and C from the uncovered model face feature point data. In addition, the CPU acquires the coordinates of the points A ′, B ′, and C ′ from the model face feature point data. Further, the CPU acquires the coordinates of the point N from the pressure sensor position data created in step S11. Subsequently, the CPU calculates the coordinates of a point N ′ that satisfies the following formula (2).

Figure 2005044283
ただし、「△」は三角形の面積を示す。
Figure 2005044283
However, “Δ” indicates the area of a triangle.

CPUは、圧力センサー位置データにおける、点Nに位置する圧力センサーに関するデータの「位置」の内容を、式(2)に従い算出した座標で置き換える。CPUは、圧力センサー位置データにおいて「位置」が空欄でない全てのデータに関し、同様にデータの置き換えを行う。その結果、圧力センサー位置データの「位置」に含まれる座標は、各圧力センサーの無被覆モデル顔静止画データにおける位置を示す座標から、モデル顔静止画データにおける対応する位置を示す座標に補正される。   The CPU replaces the content of the “position” of the data related to the pressure sensor located at the point N in the pressure sensor position data with the coordinates calculated according to the equation (2). The CPU similarly replaces data for all data in which “position” is not blank in the pressure sensor position data. As a result, the coordinates included in the “position” of the pressure sensor position data are corrected from the coordinates indicating the position of each pressure sensor in the uncovered model face still image data to the coordinates indicating the corresponding position in the model face still image data. The

なお、式(2)はステップS18の処理において利用可能な算出式の例であって、ある3点により特定される領域内の任意の点Nと他の3点により特定される領域内の点N’とを、互いに全単射の写像として対応付けることが可能な算出式であれば、いずれの算出式が用いられてもよい。   Formula (2) is an example of a calculation formula that can be used in the processing of step S18, and an arbitrary point N in the region specified by a certain three points and a point in the region specified by the other three points Any calculation formula may be used as long as N ′ can be associated with each other as a bijective mapping.

[1.4.プロセスデータの作成]
以上のようにして、補正処理が行われた圧力センサー位置データが汎用コンピュータ413のHDに記憶されると、メイクアップアーティストによるプロセスデータの作成が可能となる。
[1.4. Create process data]
As described above, when the pressure sensor position data subjected to the correction processing is stored in the HD of the general-purpose computer 413, process data can be created by a makeup artist.

メイクアップアーティストは、モデルマネキン411に被覆を付け、モデルマネキン411、A/Dコンバータ412および汎用コンピュータ413を図15に示したように接続した状態で、プロセスデータ作成用プログラムを起動する。図21は、汎用コンピュータ413がプロセスデータ作成用プログラムに従い表示するプロセスデータ作成画面である。プロセスデータ作成画面には、メイクアップアーティストが各種データを入力するための入力項目群51と、メイクアップアーティストがモデルマネキン411により計測されA/Dコンバータ412によりデジタルデータ化される圧力データの記録等を指示するためのコマンドボタン群52が含まれている。   The makeup artist attaches a cover to the model mannequin 411, and starts the process data creation program with the model mannequin 411, the A / D converter 412 and the general-purpose computer 413 connected as shown in FIG. FIG. 21 is a process data creation screen displayed by the general-purpose computer 413 according to the process data creation program. On the process data creation screen, an input item group 51 for the makeup artist to input various data, pressure data recorded by the makeup manikin 411 measured by the model mannequin 411 and converted into digital data by the A / D converter 412, etc. A command button group 52 for instructing is included.

入力項目群51は、図9に示したプロセスデータベース26の「処理データ」を除く各項目に対応する入力項目を含んでいる。メイクアップアーティストは、まず「名称」、「分類」および「コメント」の欄にそれぞれ適する情報を入力する。続いて、メイクアップアーティストは、「ステップ番号」に化粧のプロセスにおける各ステップを示す番号を入力し、その番号のステップに関する情報を、「ガイダンス」、「化粧品分類」、「用具」および「動作」に入力する。以下、メイクアップアーティストにより「ステップ番号」に番号「n」が入力され、「ステップn」に関するデータの入力および作成が行われる際の動作を説明する。   The input item group 51 includes input items corresponding to the respective items excluding “processing data” in the process database 26 illustrated in FIG. 9. The makeup artist first inputs appropriate information in the “name”, “classification”, and “comment” fields. Subsequently, the makeup artist enters a number indicating each step in the makeup process in “step number”, and provides information regarding the step of that number as “guidance”, “cosmetic classification”, “tool”, and “motion”. To enter. Hereinafter, the operation when the number “n” is input to the “step number” by the makeup artist and the data relating to “step n” is input and created will be described.

「ステップn」の処理が、例えば「口紅」を「塗る」という動作に関するものである場合、メイクアップアーティストは入力項目群51に対する情報の入力操作を行った後、コマンドボタン群52の「記録開始」をクリックする。そのクリック操作に応じて、CPUはA/Dコンバータ412から送信される圧力データの値が、一定値を超えているか否かの判定を開始する。CPUは、A/Dコンバータ412から送信される圧力データの値のいずれもが一定値以下である間、圧力データの記録を行うことなく待機する。   When the process of “step n” relates to an operation of “painting” “lipstick”, for example, the makeup artist performs an information input operation on the input item group 51, and then performs “recording start” of the command button group 52. Click. In response to the click operation, the CPU starts determining whether or not the value of the pressure data transmitted from the A / D converter 412 exceeds a certain value. The CPU stands by without recording the pressure data while all the values of the pressure data transmitted from the A / D converter 412 are equal to or less than a certain value.

続いて、メイクアップアーティストは、入力項目群51の「化粧品分類」に入力した化粧品分類の化粧品と、「用具」に入力した用具を用いて、モデルマネキン411に対して「ステップn」に関する化粧の処理を行う。以下、メイクアップアーティストは「ステップn」のデータの作成において、リップブラシに口紅を付け、そのリップブラシでモデルマネキン411の唇部分に着色を行うものとする。   Subsequently, the makeup artist uses the cosmetics classified in “cosmetics classification” in the input item group 51 and the tools entered in “tools” to the model mannequin 411 for makeup relating to “step n”. Process. Hereinafter, it is assumed that the make-up artist attaches lipstick to the lip brush and colors the lip portion of the model mannequin 411 with the lip brush in the creation of the data of “Step n”.

メイクアップアーティストがリップブラシでモデルマネキン411に対し着色の動作を行うと、モデルマネキン411の唇部分に配置されている圧力センサーがリップブラシにより加えられた圧力に応じたアナログ信号をA/Dコンバータ412に対し出力する。A/Dコンバータ412は、圧力センサーから入力されたアナログ信号を圧力データに変換し、汎用コンピュータ413に送信する。その結果、汎用コンピュータ413は一定値を超える圧力データを受信するため、汎用コンピュータ413のCPUは、その圧力データの受信をトリガーとして、それ以降に受信する圧力データの記録を開始する。すなわち、CPUは1ms毎にA/Dコンバータ412から送信される100000の圧力データの組を、順次RAMに記録する。以下、RAMに時系列で記憶される圧力データの組を「化粧動作記録データ」と呼ぶ。   When the makeup artist performs a coloring operation on the model mannequin 411 with the lip brush, the pressure sensor disposed on the lip portion of the model mannequin 411 converts the analog signal corresponding to the pressure applied by the lip brush to an A / D converter. 412 is output. The A / D converter 412 converts the analog signal input from the pressure sensor into pressure data and transmits it to the general-purpose computer 413. As a result, since the general-purpose computer 413 receives pressure data exceeding a certain value, the CPU of the general-purpose computer 413 starts recording pressure data received thereafter with the reception of the pressure data as a trigger. That is, the CPU sequentially records a set of 100,000 pressure data transmitted from the A / D converter 412 every 1 ms in the RAM. Hereinafter, a set of pressure data stored in the RAM in time series is referred to as “makeup operation recording data”.

図22は、化粧動作記録データの構成を示す図である。化粧動作記録データは、「時間」および「1」から「100000」までの項目を有している。「時間」は、化粧動作記録データの記録が開始されてからの経過時間である。「1」の項目は、A/Dコンバータ412の入出力系統の識別番号1に対応する圧力データを格納する。同様に、「2」から「100000」までの項目は、それぞれの項目名が示す識別番号に対応する圧力データを格納する。   FIG. 22 is a diagram illustrating a configuration of makeup operation recording data. The makeup operation record data includes items “time” and “1” to “100000”. “Time” is an elapsed time from the start of recording of the makeup operation record data. The item “1” stores pressure data corresponding to the identification number 1 of the input / output system of the A / D converter 412. Similarly, the items from “2” to “100000” store the pressure data corresponding to the identification numbers indicated by the respective item names.

メイクアップアーティストは、「ステップn」におけるリップブラシによる口紅の着色動作を終えると、コマンドボタン群52の「記録完了」をクリックする。そのクリック操作に応じて、CPUは化粧動作記録データの記録を完了する。   When the makeup artist finishes the lipstick coloring operation with the lip brush in “Step n”, the makeup artist clicks “Recording Complete” in the command button group 52. In response to the click operation, the CPU completes the recording of the makeup operation record data.

続いて、CPUは化粧動作記録データに基づき、「塗る」という動作に応じた処理データを生成する。プロセスデータベース26の説明において述べたように、「動作」が「塗る」である場合、「処理データ」には以下の形式の時系列3次元ベクトル群が1組以上、生成される必要がある。ただし、各ベクトルの第1成分および第2成分は用具の中心点の座標を、また第3成分はその中心点における圧力を示し、各ベクトルは1ms毎に時系列で並べられている。
(20,25,10),(21,23,11),(23,19,15),・・・
Subsequently, the CPU generates processing data corresponding to the operation of “painting” based on the makeup operation record data. As described in the description of the process database 26, when the “operation” is “paint”, one or more sets of time-series three-dimensional vectors in the following format need to be generated in the “processing data”. However, the first and second components of each vector indicate the coordinates of the center point of the tool, the third component indicates the pressure at the center point, and the vectors are arranged in time series every 1 ms.
(20, 25, 10), (21, 23, 11), (23, 19, 15), ...

以下、CPUにより上記の処理データが生成される様子を説明する。まず、CPUは化粧動作記録データの各時間のデータに関し、「1」から「100000」までの項目に記録されている圧力を、対応する圧力センサーの2次元平面上の配置位置にプロットした際の重心を算出し、その重心に対応する圧力センサーの識別番号を求める。以下、重心に対応する圧力センサーを「重心圧力センサー」と呼ぶ。   Hereinafter, how the processing data is generated by the CPU will be described. First, regarding each time data of the makeup operation recording data, the CPU plots the pressure recorded in the items from “1” to “100000” at the arrangement position on the two-dimensional plane of the corresponding pressure sensor. The center of gravity is calculated, and the identification number of the pressure sensor corresponding to the center of gravity is obtained. Hereinafter, the pressure sensor corresponding to the center of gravity is referred to as a “center of gravity pressure sensor”.

続いて、CPUは図16に示した圧力センサー位置データから、「識別番号」の値が重心圧力センサーの識別番号と一致するデータを検索し、検索したデータの「位置」が示す座標を取得する。このように取得された座標は、メイクアップアーティストがリップブラシをモデルマネキン411の表面に押しつけた際の中心点の、モデル顔静止画データにおける対応点の座標を示している。   Subsequently, the CPU searches the pressure sensor position data shown in FIG. 16 for data in which the value of the “identification number” matches the identification number of the gravity center pressure sensor, and acquires the coordinates indicated by the “position” of the retrieved data. . The coordinates acquired in this way indicate the coordinates of the corresponding point in the model face still image data at the center point when the makeup artist presses the lip brush against the surface of the model mannequin 411.

続いて、CPUは重心圧力センサーおよびその周辺に配置されている一定数の圧力センサーにより計測された圧力データの平均値を算出する。CPUがこのように複数の圧力センサーにより計測された圧力データの平均値を算出するのは、リップブラシによりモデルマネキン411に対して加えられる圧力の不均質性を緩和し、重心圧力センサーの位置におけるより正確な圧力の値を求めるためである。   Subsequently, the CPU calculates an average value of the pressure data measured by the barycentric pressure sensor and a certain number of pressure sensors arranged around it. The CPU calculates the average value of the pressure data measured by the plurality of pressure sensors in this way to alleviate the inhomogeneity of the pressure applied to the model mannequin 411 by the lip brush, and at the position of the barycentric pressure sensor. This is to obtain a more accurate pressure value.

CPUは、このようにして求めた座標を第1成分および第2成分、圧力データの平均値を第3成分とするベクトルを作成する。CPUは、化粧動作記録データの各時間のデータに関し同様にベクトルを作成し、それらを時系列に並べる。その結果、「塗る」という動作に対応した時系列3次元ベクトル群が、処理データとして作成される。   The CPU creates a vector in which the coordinates thus obtained are the first component and the second component, and the average value of the pressure data is the third component. The CPU similarly creates vectors for each time of the makeup operation record data, and arranges them in time series. As a result, a time-series three-dimensional vector group corresponding to the operation of “painting” is created as processing data.

上記のようにメイクアップアーティストがプロセスデータ作成画面において「記録完了」をクリックし、CPUにより処理データの作成が行われた後、メイクアップアーティストが「次へ」をクリックすると、CPUは入力項目群51に入力された情報および上記のように作成した処理データを、RAMに一時的に記憶する。以下、このようにRAMに一時的に記憶されるデータを「一時プロセスデータ」と呼ぶ。一時プロセスデータは、図9に示したプロセスデータと同様の形式のデータである。   As described above, when the makeup artist clicks “Recording Complete” on the process data creation screen and the processing data is created by the CPU, when the makeup artist clicks “Next”, the CPU inputs the input item group. The information input to 51 and the processing data created as described above are temporarily stored in the RAM. Hereinafter, data temporarily stored in the RAM in this way is referred to as “temporary process data”. The temporary process data is data in the same format as the process data shown in FIG.

続いて、メイクアップアーティストは、上記の「ステップn」に関するデータの入力および作成の操作と同様の操作を、「ステップn+1」、「ステップん+2」、・・・に関して順次行う。その結果、一時プロセスデータの「ステップn+1」、「ステップn+2」、・・・に対応する副項目に順次、データが記憶される。   Subsequently, the makeup artist sequentially performs operations similar to the data input and creation operations related to “step n” with respect to “step n + 1”, “step +2”,. As a result, the data is sequentially stored in sub-items corresponding to “step n + 1”, “step n + 2”,.

「ステップn」の処理が「なでる」等の動作に関する処理である場合、メイクアップアーティストは上述した「塗る」の動作に関する場合と同様に、「記録開始」をクリックした後、モデルマネキン411に対して化粧の処理を行うことにより、時系列3次元ベクトル群の形式の処理データをCPUに記録させる。   When the process of “step n” is a process related to an operation such as “stroking”, the makeup artist clicks “recording start” and then applies to the model mannequin 411 in the same manner as in the case of the “painting” operation described above. By performing makeup processing, processing data in the form of a time-series three-dimensional vector group is recorded in the CPU.

「ステップn」の処理が「はたく」、「押さえる」、「のせる」等の動作に関する処理である場合、メイクアップアーティストは上述した「塗る」の動作に関する場合と同様に、「記録開始」をクリックした後、モデルマネキン411に対して化粧の処理を行うことにより、プロセスデータベース26の説明において述べた5次元ベクトル群の形式の処理データをCPUに作成させる。CPUは、「塗る」において説明した時系列3次元ベクトル群の組の形式の処理データを作成する場合と同様に、化粧動作記録データを用いて5次元ベクトル群の形式の処理データを作成する。   When the process of “step n” is a process related to operations such as “slap”, “press”, “put”, etc., the makeup artist performs “recording start” as in the case of the “paint” operation described above. After clicking, makeup processing is performed on the model mannequin 411 to cause the CPU to create processing data in the form of the five-dimensional vector group described in the description of the process database 26. The CPU creates processing data in the form of a five-dimensional vector group using the makeup operation recording data, as in the case of creating processing data in the form of a set of time-series three-dimensional vector groups described in “Paint”.

「ステップn」の処理が「カットする」、「抜く」等の動作に関する処理である場合、メイクアップアーティストは「記録開始」をクリックした後、モデルマネキン411上の「カットする」等の対象となる領域の外縁を鉛筆等でなぞることにより、プロセスデータベース26の説明において述べた2次元ベクトル群の形式の処理データをCPUに作成させる。CPUは、「塗る」において説明した時系列3次元ベクトル群の組の形式の処理データを作成する場合と同様に、化粧動作記録データを用いて2次元ベクトル群の形式の処理データを作成する。   When the process of “Step n” is a process related to operations such as “Cut” and “Pull”, the makeup artist clicks “Start Recording” and then selects “Cut” on the model mannequin 411. By tracing the outer edge of the region with a pencil or the like, the CPU generates processing data in the form of the two-dimensional vector group described in the description of the process database 26. The CPU creates processing data in the form of a two-dimensional vector group using the makeup operation recording data, as in the case of creating processing data in the form of a set of time-series three-dimensional vector groups described in “Paint”.

「ステップn」の処理が「カールする」等の動作に関する処理である場合、メイクアップアーティストは「記録開始」および「記録完了」をクリックする代わりに、「手動入力」をクリックすることにより、直接、処理データを入力する。例えば「動作」が「カールする」である場合、プロセスデータベース26の説明において述べたように、処理データとしては2次元ベクトルが作成される必要がある。メイクアップアーティストが「手動入力」をクリックすると、CPUは表示部に処理データの入力画面を表示させる。メイクアップアーティストはその入力画面に対し任意の2次元ベクトルを入力し、「OK」等のボタンをクリックすることにより、任意のデータを処理データとして指定することができる。なお、「ステップn」の処理が洗顔等の顔の色彩の変化を伴わない処理である場合、メイクアップアーティストはコマンドボタン群52を用いた操作を行うことなく「次へ」をクリックする。その結果、そのステップに関する一時プロセスデータの「処理データ」は空欄となる。   If the process of “Step n” is related to an operation such as “Curl”, the makeup artist directly clicks “Manual Input” instead of “Record Start” and “Record Complete”. Input processing data. For example, when the “motion” is “curl”, as described in the explanation of the process database 26, a two-dimensional vector needs to be created as the processing data. When the makeup artist clicks “manual input”, the CPU displays a processing data input screen on the display unit. The makeup artist can specify arbitrary data as processing data by inputting an arbitrary two-dimensional vector on the input screen and clicking a button such as “OK”. If the process of “step n” is a process that does not involve a change in facial color, such as a face wash, the makeup artist clicks “next” without performing an operation using the command button group 52. As a result, the “process data” of the temporary process data related to the step is blank.

メイクアップアーティストは、以上の操作により、化粧のプロセスに含まれる全てのステップに関するデータを入力および作成し終えると、プロセスデータ作成画面において「終了」をクリックする。そのクリック操作に応じて、CPUは一時プロセスデータをプロセスデータとして、HDに記憶する。   When the makeup artist finishes inputting and creating data regarding all the steps included in the makeup process by the above operation, the makeup artist clicks “Finish” on the process data creation screen. In response to the click operation, the CPU stores temporary process data as process data in the HD.

メイクアップアーティストの汎用コンピュータ413等の操作により、プロセスデータが汎用コンピュータ413のHDに記憶された後、ガイダンスシステム1のサービスプロバイダのスタッフは、汎用コンピュータ413のHDから、そのプロセスデータをFD(Floppy(登録商標) Disk)等を介してサーバ13のHDにコピーし、プロセスデータベース26にそのプロセスデータを追加する。   After the process data is stored in the HD of the general-purpose computer 413 by operating the general-purpose computer 413 of the makeup artist, the staff of the service provider of the guidance system 1 transfers the process data from the HD of the general-purpose computer 413 to the FD (Floppy). (Registered trademark) Disk) and the like, and the process data is added to the process database 26.

[1.5.ガイダンスシステムの動作]
続いて、ガイダンスシステム1においてサーバ13から顧客端末12等に対し情報提供サービスが行われる際の動作を説明する。サーバ13は、HDに記憶されているガイダンスプログラムに従った処理を行うことにより顧客端末12等に提供すべきWebページデータを作成し、Webサーバプログラムに従った処理を行うことにより作成したWebページデータを顧客端末12等に送信することにより、顧客端末12等に対し以下に説明する情報提供サービスを行う。
[1.5. Operation of guidance system]
Next, the operation when the information providing service is performed from the server 13 to the customer terminal 12 or the like in the guidance system 1 will be described. The server 13 creates Web page data to be provided to the customer terminal 12 by performing processing according to the guidance program stored in the HD, and the Web page created by performing processing according to the Web server program By transmitting data to the customer terminal 12 or the like, the information providing service described below is performed for the customer terminal 12 or the like.

化粧品の購入希望者である顧客は、ガイダンスシステム1を利用するにあたり、まずサーバ13に対し顧客情報の送信を行う。以下、顧客Aがガイダンスシステム1を利用する場合の動作を例として説明する。顧客Aは、予め顧客端末12を操作し、顧客端末12のデジタルカメラで自分の顔を撮影し、その撮影により得られる顔静止画データを顧客端末12のHD等に記憶しておく。なお、顧客Aは単体のデジタルカメラを用いた撮影により得られる顔静止画データを、FD等の記憶媒体やケーブル等を介して顧客端末12のHD等に記憶してもよい。   A customer who wants to purchase cosmetics first transmits customer information to the server 13 when using the guidance system 1. Hereinafter, an operation when the customer A uses the guidance system 1 will be described as an example. The customer A operates the customer terminal 12 in advance, takes a picture of his / her face with the digital camera of the customer terminal 12, and stores face still image data obtained by the photography in the HD or the like of the customer terminal 12. The customer A may store face still image data obtained by photographing using a single digital camera in the HD of the customer terminal 12 via a storage medium such as an FD or a cable.

続いて、顧客Aは、顧客端末12のWebブラウザソフトの画面において、ガイダンスシステム1に関する顧客情報登録ページのURL(Uniform Resource Locator)を入力することにより、サーバ13に対し顧客情報登録ページのデータの送信要求を送信する。サーバ13はその送信要求に応じ、Webページデータ群32に含まれる顧客情報登録ページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図23に示す顧客情報登録ページが表示される。   Subsequently, the customer A inputs the URL (Uniform Resource Locator) of the customer information registration page related to the guidance system 1 on the screen of the Web browser software of the customer terminal 12, whereby the data of the customer information registration page is transmitted to the server 13. Send a send request. In response to the transmission request, the server 13 transmits the customer information registration page data included in the Web page data group 32 to the customer terminal 12. As a result, the customer information registration page shown in FIG. 23 is displayed on the display unit of the customer terminal 12.

顧客情報登録ページは、図4に示した顧客データベース21に含まれる顧客データの「顧客基本情報」、「顧客肌質情報」および「顔静止画データファイル名」の項目に対応する入力欄を含んでいる。顧客Aは、これらの入力欄に適するデータを入力し、「送信」をクリックする。顧客端末12は、そのクリック操作に応じて、顧客Aにより入力されたデータおよび「顔静止画データファイル名」に入力されたファイル名で指定される顔静止画データをサーバ13に送信する。なお、顧客情報登録ページにおいて入力された情報のうち、肌質や忌避化粧品に関する情報は、後述するように、顧客Aの体質等に適する化粧品を抽出するための、化粧品の属性に関する条件を示す条件データとして利用される。   The customer information registration page includes input fields corresponding to the items “customer basic information”, “customer skin quality information”, and “face still image data file name” of the customer data included in the customer database 21 shown in FIG. It is out. Customer A enters appropriate data in these input fields and clicks “Send”. In response to the click operation, the customer terminal 12 transmits to the server 13 the data input by the customer A and the face still image data specified by the file name input in the “face still image data file name”. Of the information entered on the customer information registration page, information relating to skin quality and repellent cosmetics is a condition indicating conditions relating to cosmetic attributes for extracting cosmetics suitable for the constitution of customer A, as will be described later. Used as data.

サーバ13は、顧客端末12より顧客Aにより入力されたデータおよび顔静止画データを受信すると、まず受信した顔静止画データを顔静止画データ群23に顧客顔静止画データとして記憶する。続いて、サーバ13は、顧客データベース21の中に、受信した情報に含まれる顧客IDおよび顧客パスワードの組を含む顧客データがあるか否かを判定する。サーバ13は、受信した顧客IDおよび顧客パスワードの組を含む顧客データを顧客データベース21内に発見しなかった場合、顧客データベース21に受信したデータを新たな顧客データとして追加する。一方、サーバ13は、受信した顧客IDおよび顧客パスワードの組を含む顧客データを顧客データベース21内に見つけた場合、受信したデータで、その顧客データの内容を更新する。   When the server 13 receives the data and face still image data input from the customer A from the customer terminal 12, the server 13 first stores the received face still image data in the face still image data group 23 as customer face still image data. Subsequently, the server 13 determines whether there is customer data in the customer database 21 that includes a set of a customer ID and a customer password included in the received information. When the server 13 does not find the customer data including the received customer ID and customer password set in the customer database 21, the server 13 adds the received data to the customer database 21 as new customer data. On the other hand, when the server 13 finds customer data including the received customer ID and customer password set in the customer database 21, the server 13 updates the contents of the customer data with the received data.

顧客Aは、上述した顧客情報の送信作業を終えると、顧客端末12のWebブラウザソフトの画面において、情報提供サービスページのURLを入力することにより、サーバ13に対し情報提供サービスページのデータの送信要求を送信する。サーバ13はその送信要求に応じ、情報提供サービスページの最初のページのデータとして、Webページデータ群32に含まれる化粧品条件情報入力ページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図24に示す化粧品条件情報入力ページが表示される。   When the customer A completes the above-described transmission of the customer information, the customer A sends the information provision service page data to the server 13 by inputting the URL of the information provision service page on the Web browser software screen of the customer terminal 12. Send a request. In response to the transmission request, the server 13 transmits the cosmetic condition information input page data included in the web page data group 32 to the customer terminal 12 as the first page data of the information providing service page. As a result, the cosmetic condition information input page shown in FIG. 24 is displayed on the display unit of the customer terminal 12.

化粧品条件情報入力ページにおいて、顧客Aは顧客情報登録ページにおいて入力した顧客IDおよび顧客パスワードと、各化粧品分類に関し、その化粧品分類に属する化粧品の色彩、価格等に関する抽出条件、すなわち顧客Aが関心を持っている化粧品の属性に関する条件を示す条件データを順次入力し、「送信」をクリックする。顧客端末12は、そのクリック操作に応じて、顧客Aにより入力されたデータをサーバ13に送信する。サーバ13は、顧客端末12より顧客Aにより入力されたデータを受信すると、顧客データベース21の中から、受信した顧客IDおよび顧客パスワードの組を含む顧客データの「化粧品条件情報」の対応する副項目に、受信したデータを記憶する。また、サーバ13は、顧客端末12から受信した化粧品条件情報のそれぞれを、顧客Aの顧客データに含まれる「年齢」、「性別」等の属性データおよびその日の日付とともに、図14に示したマーケティング関連データベース31に追加する。その際、マーケティング関連データの「行動分類」には「抽出条件」が記憶される。   In the cosmetic condition information input page, customer A is interested in the customer ID and customer password entered on the customer information registration page and the extraction conditions related to the color, price, etc. of the cosmetics belonging to the cosmetic classification, that is, customer A is interested. Enter sequentially the condition data indicating the conditions related to the attributes of the cosmetics you have and click “Send”. The customer terminal 12 transmits the data input by the customer A to the server 13 in response to the click operation. When the server 13 receives the data input by the customer A from the customer terminal 12, the sub-item corresponding to the “cosmetic condition information” of the customer data including the set of the customer ID and the customer password received from the customer database 21. The received data is stored. Further, the server 13 converts each of the cosmetic condition information received from the customer terminal 12 together with the attribute data such as “age” and “gender” included in the customer data of the customer A and the date of the day to the marketing shown in FIG. Add to related database 31. At that time, “extraction condition” is stored in “behavior classification” of the marketing related data.

続いて、サーバ13は顧客Aに関する顧客データの「顧客肌質情報」および「化粧品条件情報」に基づき、化粧品データベース22に含まれる「販売中」が「Yes」である化粧品データから、顧客Aに適する化粧品に関する化粧品データを抽出する。   Subsequently, based on the “customer skin quality information” and the “cosmetic condition information” of the customer data relating to the customer A, the server 13 sends the customer A to the customer A from the cosmetic data whose “sale” is “Yes” included in the cosmetic database 22. Extract cosmetic data on suitable cosmetics.

例えば、顧客データにおける「顧客肌質情報」の「肌質」が「脂性肌」である場合、サーバ13は「油分比率」が低めの化粧品データ、例えば「油分比率」が5%以下の化粧品データを抽出する。   For example, when “skin quality” of “customer skin quality information” in the customer data is “greasy skin”, the server 13 has cosmetic data with a lower “oil content ratio”, for example, cosmetic data with an “oil content ratio” of 5% or less. To extract.

また、例えば、顧客データにおける「顧客肌質情報」の「忌避化粧品名」に「口紅K」が、またそれに対応する「症状」が「かゆみ」である場合、サーバ13はまず、化粧品データベース22から「化粧品名」が「化粧品K」である化粧品データを検索し、検索した化粧品データにおいて、「症状」が「かゆみ」である「成分」の内容を取得する。例えば、化粧品データにより、「口紅K」の「成分g」が「かゆみ」を引き起こす可能性があるとされている場合、サーバ13は「成分g」を、顧客Aに適さない成分を示す情報として取得する。サーバ13は、取得した「成分g」を「成分」に含む化粧品データを、顧客Aに適する化粧品に関する化粧品データから除外する。   Further, for example, when “lipstick K” is displayed in the “repellent cosmetic name” of “customer skin quality information” in the customer data and the “symptom” corresponding thereto is “itch”, the server 13 first reads from the cosmetic database 22. The cosmetic data whose “cosmetic name” is “cosmetic K” is searched, and the content of “component” whose “symptom” is “itch” in the searched cosmetic data is acquired. For example, when it is determined from cosmetic data that “component g” of “lipstick K” may cause “itch”, the server 13 uses “component g” as information indicating a component that is not suitable for customer A. get. The server 13 excludes the cosmetic data including the acquired “component g” in the “component” from the cosmetic data regarding the cosmetic suitable for the customer A.

また、例えば、顧客データにおける「化粧品条件情報」の「口紅」に「価格:高or中」が記憶されている場合、サーバ13は化粧品データの「化粧品分類」が「口紅」であり、かつ「価格」の内容を「内容量」の内容で除した値が大きいか中程度のもの、例えば1g当たり500円以上のものを抽出する。   Further, for example, when “Price: High or Medium” is stored in “Lipstick” of “Cosmetic Condition Information” in the customer data, the server 13 indicates that “Cosmetic Classification” of the cosmetic data is “Lipstick” and “ A value obtained by dividing the content of “price” by the content of “content” is large or medium, for example, a value of 500 yen or more per gram.

また、例えば、顧客データにおける「化粧品条件情報」の「口紅」に「類似色化粧品名:口紅H」が記憶されている場合、サーバ13は化粧品データベース22の全ての化粧品データの中から「化粧品名」が「口紅H」であるものを検索し、検索された口紅Hの化粧品データの「色相」、「彩度」および「明度」のそれぞれに対し、例えば前後5の幅を持たせた範囲を設定し、続いて化粧品データベース22の化粧品データのうち「販売中」が「Yes」であり「化粧品分類」が「口紅」であるものから、「色相」、「彩度」および「明度」のそれぞれが設定した範囲に属する化粧品データを抽出する。このように抽出された化粧品データは、口紅Hと類似した色彩を持つ口紅に関する化粧品データである。   For example, when “similar color cosmetic name: lipstick H” is stored in “lipstick” of “cosmetic condition information” in the customer data, the server 13 selects “cosmetic name” from all cosmetic data in the cosmetic database 22. ”Is“ lipstick H ”, and for each of“ hue ”,“ saturation ”, and“ lightness ”of the cosmetic data of the searched lipstick H, for example, a range having a width of 5 before and after is obtained. Then, from among the cosmetic data in the cosmetic database 22, “sale” is “Yes” and “cosmetics classification” is “lipstick”, so “hue”, “saturation”, and “lightness” The cosmetic data belonging to the range set by is extracted. The cosmetic data extracted in this way is cosmetic data relating to a lipstick having a color similar to that of the lipstick H.

サーバ13は、以上に例示したような化粧品データの抽出を終えると、抽出した化粧品データを「化粧品分類」の内容によって分類する。続いて、サーバ13はWebページデータ群32から化粧品選択ページの雛形データを読み出し、化粧品分類のそれぞれに関し、抽出した化粧品データを用いて、各化粧品分類に応じた化粧品選択ページのデータを作成する。サーバ13は、例えば「クレンジング剤」、「洗顔剤」、「化粧水」・・・といった順序で、それらの化粧品分類に応じた化粧品選択ページのデータを顧客端末12に送信する。顧客端末12は、化粧品選択ページのデータを受信すると、化粧品選択ページを表示部に表示する。   After completing the extraction of the cosmetic data as exemplified above, the server 13 classifies the extracted cosmetic data according to the content of “cosmetic classification”. Subsequently, the server 13 reads the template data of the cosmetic selection page from the web page data group 32, and creates cosmetic selection page data corresponding to each cosmetic category using the extracted cosmetic data for each cosmetic category. The server 13 transmits the data of the cosmetic selection page corresponding to the cosmetic classification to the customer terminal 12 in the order of “cleansing agent”, “face cleansing agent”, “skin lotion”,. Upon receiving the cosmetic selection page data, the customer terminal 12 displays the cosmetic selection page on the display unit.

図25は、口紅に関する化粧品選択ページを示す図である。化粧品選択ページにおいて、顧客Aは自分に適する現在販売中の様々な化粧品の情報を得ることができる。化粧品選択ページは、サーバ13により抽出された化粧品データに含まれるデータのうち、顧客が化粧品の選択を行う際に有用と思われるデータをリスト化した化粧品リストを含んでいる。なお、化粧品リストにおいては、化粧品データに含まれる「色相」、「彩度」および「明度」の代わりに、実際の色彩が「色見本」の欄に表示される。   FIG. 25 is a diagram showing a cosmetics selection page related to lipstick. On the cosmetic selection page, the customer A can obtain information on various cosmetics currently on sale suitable for him / her. The cosmetic selection page includes a cosmetic list in which data that is considered useful when the customer selects cosmetics among the data included in the cosmetic data extracted by the server 13 is included. In the cosmetic list, the actual color is displayed in the “color sample” column instead of “hue”, “saturation”, and “lightness” included in the cosmetic data.

化粧品リストに含まれる化粧品に関する化粧品データのうち、「ポップアップコメント」の欄にPR用のメッセージを示すメッセージデータが含まれているものに関しては、図25において化粧品リストの右上に示すようなポップアップ窓に、そのメッセージデータが示すPR用のメッセージが表示され、そのメッセージに対応する化粧品リスト中の情報がハイライト表示される。化粧品リスト中に示される複数の化粧品に関しPR用のメッセージがある場合には、顧客Aがある化粧品に関するポップアップ窓を閉じると、次の化粧品に関するメッセージが新たなポップアップ窓に表示される。顧客Aは、このポップアップ窓に示されるメッセージにより、各化粧品のセールスポイント等を知ることができる。   Of the cosmetic data related to cosmetics included in the cosmetic list, those for which message data indicating a message for PR is included in the “pop-up comment” column are displayed in a pop-up window as shown in the upper right of the cosmetic list in FIG. A message for PR indicated by the message data is displayed, and information in the cosmetic list corresponding to the message is highlighted. When there is a PR message regarding a plurality of cosmetics shown in the cosmetic list, when the customer A closes a pop-up window related to a certain cosmetic, a message related to the next cosmetic is displayed in a new pop-up window. The customer A can know the selling point of each cosmetic product by the message shown in this pop-up window.

顧客Aが、化粧品選択ページにおいて、化粧品リストのタイトルに示される「メーカ名」、「色見本」、「透明度」等の文字をクリックすると、顧客端末12はクリックされた文字に対応する化粧品条件情報の入力画面を表示する。その入力画面に対し、顧客Aは新たな化粧品条件情報の入力を行ったり、既に顧客データに記憶されている化粧品条件情報を変更したりすることができる。顧客Aが化粧品条件情報の入力画面において「送信」をクリックすると、図24に示した化粧品条件情報入力ページにおいて「送信」をクリックした場合と同様に、顧客Aにより入力された情報が顧客端末12からサーバ13に送信され、顧客データベース21の内容の更新、マーケティング関連データベース31へのマーケティング関連データの追加、化粧品データの再抽出および化粧品選択ページに含まれる化粧品リストの内容の更新が行われる。   When customer A clicks on characters such as “manufacturer name”, “color sample”, “transparency”, etc. shown in the cosmetics list title on the cosmetic selection page, the customer terminal 12 displays cosmetic condition information corresponding to the clicked character. Displays the input screen. On the input screen, the customer A can input new cosmetic condition information or change the cosmetic condition information already stored in the customer data. When customer A clicks “send” on the cosmetic condition information input screen, the information entered by customer A is the customer terminal 12 in the same manner as when “send” is clicked on the cosmetic condition information input page shown in FIG. To the server 13, the contents of the customer database 21 are updated, the marketing-related data is added to the marketing-related database 31, the cosmetic data is re-extracted, and the contents of the cosmetic list included in the cosmetic selection page are updated.

顧客Aは、化粧品選択ページにおいて、試用してみたいと考える化粧品に関するデータを化粧品リストから1つ選択し、「選択」をクリックする。そのクリック操作に応じて、顧客端末12は顧客Aにより選択された化粧品を示す化粧品名を、その化粧品に対応する化粧品データを特定するための化粧品識別データとしてサーバ13に送信する。サーバ13は、化粧品名を受信すると、受信した化粧品名を、顧客Aに関する顧客データの「選択化粧品名」に含まれる対応する化粧品分類の副項目に格納する。続いて、サーバ13は顧客データに格納した化粧品名を、顧客Aの顧客データに含まれる「年齢」、「性別」等の属性データおよびその日の日付とともに、マーケティング関連データベース31に追加する。その際、マーケティング関連データの「行動分類」には「選択」が記憶される。サーバ13はマーケティング関連データの追加を終えると、次の化粧品分類に関する化粧品選択ページのデータを顧客端末12に送信する。   On the cosmetics selection page, customer A selects one piece of data relating to cosmetics that he / she wants to try from the cosmetics list and clicks “Select”. In response to the click operation, the customer terminal 12 transmits the cosmetic name indicating the cosmetic selected by the customer A to the server 13 as cosmetic identification data for specifying cosmetic data corresponding to the cosmetic. When the server 13 receives the cosmetic name, the server 13 stores the received cosmetic name in the corresponding cosmetic category sub-item included in the “selected cosmetic name” of the customer data regarding the customer A. Subsequently, the server 13 adds the cosmetic name stored in the customer data to the marketing related database 31 together with the attribute data such as “age” and “sex” included in the customer A customer data and the date of the day. At that time, “selection” is stored in the “behavior classification” of the marketing related data. When the server 13 finishes adding the marketing-related data, the server 13 transmits the data of the cosmetic selection page regarding the next cosmetic classification to the customer terminal 12.

顧客Aが全ての化粧品選択ページに関し化粧品の選択操作を終え、サーバ13が顧客Aにより選択された化粧品に関するマーケティング関連データのマーケティング関連データベース31に対する追加を終えると、サーバ13はWebページデータ群32からプロセス選択ページの雛形データを読み出し、プロセスデータベース26に含まれる全てのプロセスデータに関する「名称」、「分類」および「コメント」の内容を用いて、プロセス選択ページのデータを作成する。サーバ13は、プロセス選択ページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図26に示すプロセス選択ページが表示される。   When the customer A finishes selecting cosmetics for all cosmetics selection pages, and the server 13 finishes adding marketing-related data related to the cosmetics selected by the customer A to the marketing-related database 31, the server 13 starts from the Web page data group 32. The template data of the process selection page is read out, and the data of the process selection page is created using the contents of “name”, “classification”, and “comment” regarding all the process data included in the process database 26. The server 13 transmits the process selection page data to the customer terminal 12. As a result, the process selection page shown in FIG. 26 is displayed on the display unit of the customer terminal 12.

プロセス選択ページは化粧のプロセスに関するデータをリスト化したプロセスリストを含んでいる。顧客Aがプロセスリストのタイトルに示される「分類」の文字をクリックすると、顧客端末12は抽出条件情報の入力画面を表示する。その入力画面に対し、顧客Aは興味のあるプロセスに関する条件情報を入力することにより、プロセスリストに含まれるデータから興味のあるプロセスに関するデータを絞り込むことができる。   The process selection page includes a process list that lists data relating to the makeup process. When the customer A clicks the character “category” indicated in the title of the process list, the customer terminal 12 displays an extraction condition information input screen. On the input screen, the customer A can narrow down the data related to the process of interest from the data included in the process list by inputting the condition information related to the process of interest.

顧客Aは、利用したいと考えるプロセスに関するデータをプロセスリストから1つ選択し、「選択」をクリックする。そのクリック操作に応じて、顧客端末12は顧客Aにより選択されたプロセスの名称を、そのプロセスに関するプロセスデータを特定するプロセス識別データとしてサーバ13に送信する。   Customer A selects one piece of data related to the process he / she wants to use from the process list and clicks “Select”. In response to the click operation, the customer terminal 12 transmits the name of the process selected by the customer A to the server 13 as process identification data for specifying process data related to the process.

サーバ13は、顧客端末12から顧客Aにより選択されたプロセスの名称を受信すると、顧客Aに関する顧客データの「顔静止画データファイル名」により特定されるデータ、すなわち顧客Aの顧客顔静止画データの特徴点の抽出処理を行う。サーバ13による特徴点の抽出処理は、汎用コンピュータ413によるマッチング処理における特徴点の抽出処理、すなわち図18のステップS12〜S14もしくはステップS15〜S17の処理と同様であるので、説明を省略する。サーバ13の特徴点の抽出処理により、サーバ13のRAMには顧客顔特徴点データが記憶される。図27は、顧客顔特徴点データの構成を示した図である。顧客顔特徴点データの構成は、図7に示したモデル顔特徴点データ24の構成と同様である。   When the server 13 receives the name of the process selected by the customer A from the customer terminal 12, the data specified by the “face still image data file name” of the customer data relating to the customer A, that is, the customer face still image data of the customer A The feature point extraction process is performed. The feature point extraction processing by the server 13 is the same as the feature point extraction processing in the matching processing by the general-purpose computer 413, that is, the processing in steps S12 to S14 or steps S15 to S17 in FIG. The customer face feature point data is stored in the RAM of the server 13 by the feature point extraction process of the server 13. FIG. 27 is a diagram showing the structure of customer face feature point data. The structure of the customer face feature point data is the same as that of the model face feature point data 24 shown in FIG.

続いて、サーバ13はプロセスデータベース26から、顧客Aにより選択されたプロセスの名称を「名称」に含むプロセスデータを検索し、検索したプロセスデータをRAMにコピーする。以下、RAMにコピーされたプロセスデータを「作業用プロセスデータ」と呼ぶ。サーバ13は、作業用プロセスデータの「ステップ1」〜「ステップk」のそれぞれに関し、「処理データ」に格納されるベクトルが座標に関するデータを含む場合、その座標の補正処理を行う。例えば、「動作」が「塗る」である「ステップn」に関しては、既述のとおり、処理データ」は時系列3次元ベクトル群であり、それらの3次元ベクトルの第1成分および第2成分はモデル顔静止画データにおける座標を示している。この処理データを、顧客顔静止画データにおいて用いるためには、3次元ベクトルの第1成分および第2成分のデータを、顧客顔静止画データの対応する位置を示すデータに補正する必要がある。従って、サーバ13は、図18のステップS18と同様の補正処理を、モデル顔特徴点データ、顧客顔特徴点データおよび処理データに含まれる座標に関して行う。   Subsequently, the server 13 searches the process database 26 for process data including the name of the process selected by the customer A in “name”, and copies the searched process data to the RAM. Hereinafter, the process data copied to the RAM is referred to as “work process data”. For each of “Step 1” to “Step k” of the work process data, the server 13 corrects the coordinates when the vector stored in “Processing data” includes data related to the coordinates. For example, regarding “step n” whose “motion” is “paint”, as described above, the “process data” is a time-series three-dimensional vector group, and the first component and the second component of those three-dimensional vectors are The coordinates in the model face still image data are shown. In order to use this processing data in the customer face still image data, it is necessary to correct the data of the first component and the second component of the three-dimensional vector to data indicating the corresponding position of the customer face still image data. Accordingly, the server 13 performs correction processing similar to that in step S18 in FIG. 18 with respect to the coordinates included in the model face feature point data, the customer face feature point data, and the processing data.

処理データに含まれる座標を示すデータの補正処理は、図18のステップS18と同様であるので、その説明を省略する。ただし、処理データに含まれる座標を示すデータの補正処理においては、モデル顔特徴点データにおける特徴点、顧客顔特徴点データにおける特徴点および処理データに含まれる座標が示す点は、図20における以下の点に対応する。
モデル顔静止画データにおける互いに近傍の任意の特徴点:点A、点Bおよび点C、
顧客顔静止画データにおける互いに近傍の任意の特徴点:点A’、点B’および点C’、
補正前の処理データに含まれる座標が示す点:点N、
補正後の処理データに含まれる座標が示す点:点N’。
Since the correction processing of data indicating coordinates included in the processing data is the same as step S18 in FIG. 18, the description thereof is omitted. However, in the correction processing of the data indicating the coordinates included in the processing data, the feature points in the model face feature point data, the feature points in the customer face feature point data, and the points indicated by the coordinates included in the processing data are the following in FIG. Corresponds to the point.
Arbitrary arbitrary feature points in the model face still image data: points A, B and C,
Arbitrary arbitrary feature points in the customer face still image data: point A ′, point B ′ and point C ′,
Points indicated by coordinates included in the processing data before correction: point N,
A point indicated by coordinates included in the corrected processing data: point N ′.

また、処理データに含まれる座標を示すデータの補正処理においては、モデル顔特徴点データ24および顧客顔静止画データにおいて「一致要否」が「不要」であるものは、上記の点A、点B、点Cおよび点A’、点B’および点C’には含まれない。例えば「右眉尻」等に関する特徴点の「一致要否」は「不要」であるため、補正処理の対象から除外される。これは、眉尻等の位置はカットやアイブロウペンシルによる着色により変更可能なため、モデル顔特徴点データ24および顧客顔静止画データ間でそれらの特徴点を一致させる必要がないためである。   Further, in the correction processing of the data indicating the coordinates included in the processing data, in the model face feature point data 24 and the customer face still image data, “matching necessity” is “unnecessary”. B, point C and point A ′, point B ′ and point C ′ are not included. For example, “necessity of matching” of the feature point related to “right eyebrow” is “unnecessary” and is excluded from correction processing targets. This is because the positions of the eyebrows and the like can be changed by cutting or coloring with an eyebrow pencil, and it is not necessary to match the feature points between the model face feature point data 24 and the customer face still image data.

以上のような処理データに含まれる座標の補正処理の結果、処理データに含まれる座標は顧客顔静止画データにおける対応する点を示す座標に書き換えられる。   As a result of the correction processing of the coordinates included in the processing data as described above, the coordinates included in the processing data are rewritten to coordinates indicating a corresponding point in the customer face still image data.

サーバ13は、作業用プロセスデータに含まれる全ての処理データに関し、座標の補正処理を終了すると、モデル顔陰影データ25をRAMにコピーする。以下、RAMにコピーされたモデル顔陰影データ25を「作業用顔陰影データ」と呼ぶ。サーバ13は、作業用顔陰影データの「位置」により示される座標に関し、上述した処理データに含まれる座標の補正処理と同様の補正処理を行う。その結果、作業用顔陰影データの「位置」により示される座標は顧客顔静止画データにおける対応する点を示す座標に書き換えられる。   The server 13 copies the model face / shadow data 25 to the RAM when the coordinate correction process is completed for all the process data included in the work process data. Hereinafter, the model face / shadow data 25 copied to the RAM is referred to as “working face / shadow data”. The server 13 performs a correction process similar to the correction process of the coordinates included in the processing data described above with respect to the coordinates indicated by the “position” of the work face / shadow data. As a result, the coordinates indicated by the “position” of the work face shadow data are rewritten to the coordinates indicating the corresponding point in the customer face still image data.

サーバ13は、作業用顔陰影データにおける座標の補正処理を終えると、顧客顔静止画データから作業用顔陰影データにより示される陰影を取り除く処理を行う。より詳しく説明すると、サーバ13はまず、顧客顔静止画データの各点、すなわち各画素に関し、RGBで示される色彩情報を、HSB−RGB対応表28を用いてHSBで示される色彩情報に変換する。続いてサーバ13は変換により得られた明度から、作業用顔陰影データの「陰影度」により示される値を減算する。サーバ13は、その減算により得られた明度を含むHSBで示される色彩情報を、HSB−RGB対応表28を用いてRGBで示される色彩情報に変換する。サーバ13は、顧客顔静止画データに含まれる全ての点に関し、上記の処理を行うことにより、陰影の除去された顧客顔静止画データを得ることができる。以下の説明において、上述した顧客顔静止画データから陰影を取り除く処理を「陰影除去処理」と呼ぶ。   When the server 13 completes the coordinate correction process in the work face / shadow data, the server 13 performs a process of removing the shadow indicated by the work face / shadow data from the customer face still image data. More specifically, the server 13 first converts color information indicated by RGB with respect to each point of customer face still image data, that is, each pixel, into color information indicated by HSB using the HSB-RGB correspondence table 28. . Subsequently, the server 13 subtracts the value indicated by the “shade degree” of the work face shadow data from the brightness obtained by the conversion. The server 13 converts the color information indicated by HSB including the brightness obtained by the subtraction into color information indicated by RGB using the HSB-RGB correspondence table 28. The server 13 can obtain the customer face still image data from which the shadow has been removed by performing the above-described processing for all points included in the customer face still image data. In the following description, the process of removing shadows from the customer face still image data described above is referred to as “shadow removal process”.

サーバ13は陰影除去処理を終えると、顧客顔静止画データの色彩情報の変更処理を行う。図28は、サーバ13により行われる色彩情報の変更処理を、プロセスデータにおける1つのステップ、例えば「ステップn」に関し示したフロー図である。   When the server 13 finishes the shadow removal process, the server 13 changes the color information of the customer face still image data. FIG. 28 is a flowchart showing the color information changing process performed by the server 13 with respect to one step in the process data, for example, “step n”.

サーバ13はまず、作業用プロセスデータの「ステップn」の「化粧品分類」、「用具」および「動作」の内容に基づき、「ステップn」で示される処理が顧客顔静止画データに対する色彩情報の変更を伴う処理であるか否かを判定する(ステップS21)。顧客顔静止画データに対する色彩情報の変更を伴わない処理としては、例えば洗顔剤による洗顔等がある。ステップS21の判定結果が「No」である場合、サーバ13は「ステップn」に関し、顧客顔静止画データに対する色彩情報の変更処理を行うことなく、次のステップに関する処理に移る。   First, based on the contents of “cosmetics classification”, “tool”, and “motion” in “step n” of the work process data, the server 13 performs the process indicated by “step n” on the color information for the customer face still image data. It is determined whether or not the process involves a change (step S21). An example of processing that does not involve changing color information for customer face still image data is face washing with a face washing agent, for example. When the determination result in step S21 is “No”, the server 13 proceeds to the process related to “step n” without performing the color information change process for the customer face still image data.

ステップS21の判定が「Yes」である場合、サーバ13は、顧客Aに関する顧客データの「選択化粧品名」の副項目のうち、作業用プロセスデータの「ステップn」の「化粧品分類」により示される化粧品分類に対応する副項目に格納されている化粧品名を取得し(ステップS22)、化粧品データベース22から、ステップS22において取得した化粧品名を含む化粧品データの「色相」、「彩度」、「明度」、「透明度」、「粘度」および「その他特性」の内容を取得する(ステップS23)。サーバ13は、ステップS23で取得したデータをRAMに一時的に記憶する。   When the determination in step S21 is “Yes”, the server 13 is indicated by “cosmetic classification” of “step n” of the work process data among the sub-items of “selected cosmetic name” of the customer data regarding the customer A. The cosmetic name stored in the sub-item corresponding to the cosmetic classification is acquired (step S22), and “hue”, “saturation”, “lightness” of the cosmetic data including the cosmetic name acquired in step S22 from the cosmetic database 22 "," Transparency "," viscosity ", and" other characteristics "are acquired (step S23). The server 13 temporarily stores the data acquired in step S23 in the RAM.

続いて、サーバ13は、着色特性データベース27から、作業用プロセスデータの「ステップn」の「用具」および「動作」の内容を含む着色特性データを検索し、検索した着色特性データの「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」のいずれかに関数式が含まれているか否かを判定する(ステップS24)。   Subsequently, the server 13 searches the coloring characteristic database 27 for coloring characteristic data including the contents of “tool” and “operation” of “step n” of the work process data, and “from the tool” of the searched coloring characteristic data. It is determined whether a functional expression is included in any of “to skin”, “from skin to tool”, and “from current position to next position” (step S24).

ステップS24の判定結果が「Yes」である場合、サーバ13は検索した着色特性データの「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」に含まれる関数式を取得し、それらの関数式をRAMに一時的に記憶する(ステップS25)。その後、サーバ13は、顧客顔静止画データの各画素における化粧品量の計算処理を行う(ステップS26)。   When the determination result of step S24 is “Yes”, the server 13 calculates the function expressions included in “Tool to skin”, “Skin to tool”, and “From current position to next position” of the searched coloring characteristic data. These are acquired and temporarily stored in the RAM (step S25). Thereafter, the server 13 performs a cosmetic amount calculation process for each pixel of the customer face still image data (step S26).

以下、ステップS26の処理を説明する。以下の説明において、例として、作業用プロセスデータの「ステップn」に含まれるデータおよびステップS23およびS25において取得された情報が以下のとおりであるものとする。ただし、「用具から肌へ」、「肌から用具へ」および「現位置から次位置へ」に含まれる関数に関しては、「中心点からのベクトル」が(0,0)および(3,4)であるもののみを例示する。   Hereinafter, the process of step S26 will be described. In the following description, as an example, it is assumed that the data included in “step n” of the work process data and the information acquired in steps S23 and S25 are as follows. However, for the functions included in “from tool to skin”, “from skin to tool”, and “from current position to next position”, “vector from center point” is (0,0) and (3,4) Only what is is illustrated.

「化粧品分類」:口紅、
「用具」:リップブラシ、
「動作」:塗る、
「処理データ」:(20,25,10),(21,27,11),(23,30,15),・・・、
「用具から肌へ」(0,0):f(0,0)=(Vs×p)/(Vt×v)×35、
「肌から用具へ」(0,0):g(0,0)=(Vt×p)/(Vs×v)×15、
「現位置から次位置へ」(0,0):h(0,0)=(Vt×p)/(Vs×v)×7、
「用具から肌へ」(3,4):f(3,4)=(Vs×p)/(Vt×v)×25、
「肌から用具へ」(3,4):g(3,4)=(Vt×p)/(Vs×v)×12、
「現位置から次位置へ」(3,4):h(3,4)=(Vt×p)/(Vs×v)×6、
「色相」:90、
「彩度」:85、
「明度」:80、
「透明度」:25、
「粘度」:35、
「その他特性」:(無し)。
"Cosmetics classification": Lipstick,
"Tool": Lip brush,
"Operation": Paint,
“Processing data”: (20, 25, 10), (21, 27, 11), (23, 30, 15),...
“From tool to skin” (0,0): f (0,0) = (V s × p) / (V t × v) × 35,
“From skin to tool” (0,0): g (0,0) = (V t × p) / (V s × v) × 15,
“From current position to next position” (0,0): h (0,0) = (V t × p) / (V s × v) × 7,
“From tool to skin” (3, 4): f (3,4) = (V s × p) / (V t × v) × 25,
“From skin to device” (3,4): g (3,4) = (V t × p) / (V s × v) × 12,
“From current position to next position” (3, 4): h (3,4) = (V t × p) / (V s × v) × 6,
"Hue": 90,
“Saturation”: 85,
“Brightness”: 80,
“Transparency”: 25,
“Viscosity”: 35,
“Other characteristics”: (none).

サーバ13がステップS26で行う処理は、化粧品を肌につける場合の肌の各点における化粧品の付着量をシミュレーションする処理である。この場合、サーバ13はリップブラシにより口紅が唇部分の肌に塗られる場合の、唇部分の各点における口紅の付着量を算出する。そのシミュレーションにおいて、リップブラシが肌に触れる面は、顧客顔静止画データにおける画素と同じサイズの微小面積を持つ点の集合と仮定される。リップブラシ上のそれぞれの点は、リップブラシの中心点を原点(0,0)とし、リップブラシの移動方向をX軸正方向とする座標系上の座標により特定される。すなわち、リップブラシ上の各点の座標は、着色特性データにおける「中心点からのベクトル」で示される座標と同じ座標系における座標である。   The process performed by the server 13 in step S26 is a process of simulating the amount of cosmetics attached at each point on the skin when the cosmetics are applied to the skin. In this case, the server 13 calculates the adhesion amount of the lipstick at each point of the lip portion when the lipstick is applied to the skin of the lip portion by the lip brush. In the simulation, the surface where the lip brush touches the skin is assumed to be a set of points having a minute area of the same size as the pixel in the customer face still image data. Each point on the lip brush is specified by coordinates on a coordinate system in which the center point of the lip brush is the origin (0, 0) and the moving direction of the lip brush is the X axis positive direction. That is, the coordinates of each point on the lip brush are in the same coordinate system as the coordinates indicated by “vector from the center point” in the coloring characteristic data.

顧客顔静止画データにおける座標系(以下、「座標系a」呼ぶ)と、着色特性データにおける「中心点からのベクトル」で示される座標に関する座標系(以下、「座標系b」呼ぶ)は異なる座標系である。図29は、座標系aと座標系bとの関係を示す図である。以下の説明において、座標系aの座標およびベクトルを(x,y)a、座標系bの座標およびベクトルを(x,y)bのように添字で区別して表す。 The coordinate system (hereinafter referred to as “coordinate system a”) in the customer face still image data and the coordinate system (hereinafter referred to as “coordinate system b”) relating to the coordinates indicated by “vector from the center point” in the coloring characteristic data are different. Coordinate system. FIG. 29 is a diagram illustrating the relationship between the coordinate system a and the coordinate system b. In the following description, the coordinates and vectors of the coordinate system a are distinguished by subscripts such as (x, y) a , and the coordinates and vectors of the coordinate system b are (x, y) b .

図29において、水平右方向が顧客顔静止画データにおける座標系aのX軸方向、垂直下方向が顧客顔静止画データにおける座標系のY軸方向である。図29の水平方向および垂直方向の平行線により囲まれる正方形は、それぞれ顧客顔静止画データにおける画素を示す。例えば、点Kは(21,21)aで示される点であり、その点を含む正方形が点Kに対応する画素である。 In FIG. 29, the horizontal right direction is the X-axis direction of the coordinate system a in the customer face still image data, and the vertical downward direction is the Y-axis direction of the coordinate system in the customer face still image data. The squares surrounded by the horizontal and vertical parallel lines in FIG. 29 indicate pixels in the customer face still image data. For example, the point K is a point indicated by (21, 21) a , and a square including the point is a pixel corresponding to the point K.

処理データの第1ベクトルおよび第2ベクトルに基づく処理において、座標系bの原点は、処理データの第1ベクトルにより示される点P(20,25)aである。すなわち、(20,25)aと(0,0)bは同じ点Pを示す座標である。また、座標系bのX軸正方向は、処理データの第1ベクトルにより示される点P(20,25)aから、第2ベクトルにより示される点Q(21,27)aへの方向、すなわちベクトル(1,2)aで示される方向である。 In the processing based on the first vector and the second vector of the processing data, the origin of the coordinate system b is a point P (20, 25) a indicated by the first vector of the processing data. That is, (20, 25) a and (0, 0) b are coordinates indicating the same point P. Further, the positive X-axis direction of the coordinate system b is the direction from the point P (20, 25) a indicated by the first vector of the processing data to the point Q (21, 27) a indicated by the second vector, that is, is a direction indicated by a vector (1, 2) a.

例えば、座標系bにおいて(3,4)bで表される点Rは、座標系aにおいては、およそ(25.0,24.4)aとなる。これらの座標の変換方法は、座標の原点移動および原点回りの回転に関する既知の公式によるため、説明を省略する。なお、座標系bの原点および座標軸は、処理に用いる処理データ内のベクトルの組に応じて変化する。例えば、上記の処理データの第2ベクトルおよび第3ベクトルに基づく処理が行われる場合、座標系bの原点は(21,27)a、座標系bのX軸正方向は、ベクトル(2,3)aで示される方向となる。 For example, R a point represented in the coordinate system b with (3, 4) b, in the coordinate system a, is approximately (25.0,24.4) a. Since these coordinate conversion methods are based on known formulas relating to the origin movement and rotation around the origin, description thereof will be omitted. Note that the origin and coordinate axes of the coordinate system b change according to the set of vectors in the processing data used for processing. For example, when the processing based on the second vector and the third vector of the processing data is performed, the origin of the coordinate system b is (21, 27) a , and the X axis positive direction of the coordinate system b is the vector (2, 3 ) The direction indicated by a .

ステップS26におけるシミュレーションにおいて、リップブラシの各点には、初期値として、所定量の口紅、例えば10(mg)が付着される。この初期値は、化粧品分類および用具によって予め定められている。リップブラシに付着される口紅の粘度Vtは、上に仮定したように、35(Pa・s)である。肌には、最初は化粧品が何も付着していない。その場合、肌側の粘度Vsとして、所定値、例えば65(Pa・s)が設定される。 In the simulation in step S26, a predetermined amount of lipstick, for example, 10 (mg) is attached to each point of the lip brush as an initial value. This initial value is predetermined by the cosmetic classification and the tool. The viscosity V t of the lipstick attached to the lip brush is 35 (Pa · s) as assumed above. No cosmetics are initially attached to the skin. In this case, a predetermined value, for example, 65 (Pa · s) is set as the skin-side viscosity V s .

リップブラシの中心点の現在位置である点Pにおいて、リップブラシと肌の間に加えられる圧力pは、処理データの第1のベクトルの第3成分より10(Pa)である。リップブラシの中心点は、1msの間に点Pから点Qに移動する。その際の移動速度vは、点Pおよび点Qの座標から約2.24(pixel/ms)と算出される。   The pressure p applied between the lip brush and the skin at the point P which is the current position of the center point of the lip brush is 10 (Pa) from the third component of the first vector of the processing data. The center point of the lip brush moves from point P to point Q in 1 ms. The moving speed v at that time is calculated as about 2.24 (pixel / ms) from the coordinates of the points P and Q.

従って、上記の関数式の変数の値はそれぞれ、以下のように決定される。
t:35(Pa・s)、
s:65(Pa・s)、
v:約2.24(pixel/ms)、
p:10(Pa)。
これらの変数の値を用いて、f(0,0)=約84.5(%)、g(0,0)=約36.2(%)およびh(0,0)=約16.9(%)、f(3,4)=約60.4(%)、g(3,4)=約29.0(%)およびh(3,4)=約14.5(%)が算出される。
Accordingly, the values of the variables in the above function formula are determined as follows.
V t : 35 (Pa · s),
V s : 65 (Pa · s),
v: about 2.24 (pixel / ms),
p: 10 (Pa).
Using the values of these variables, f (0,0) = about 84.5 (%), g (0,0) = about 36.2 (%) and h (0,0) = about 16.9 (%), F (3,4) = about 60.4 (%), g (3,4) = about 29.0 (%) and h (3,4) = about 14.5 (%) Is done.

上記のf(0,0)は、処理データの第1ベクトルおよび第2ベクトルにより示されるリップブラシの移動動作において、リップブラシ上の点(0,0)bから、顧客顔静止画データ上の点Pへ移動する化粧品の移動量の比率を表している。従って、リップブラシ上の点(0,0)bに現在付着している化粧品10mgの約84.5%、すなわち約8.45mgがリップブラシ上の点(0,0)bから顧客顔静止画データ上の点Pに対応する画素へ移動する。従って、リップブラシ上の点(0,0)bに付着している化粧品は約1.55mgとなる。 The above f (0,0) is obtained from the point (0,0) b on the lip brush on the customer face still image data in the movement operation of the lip brush indicated by the first vector and the second vector of the processing data. The ratio of the moving amount of the cosmetics moving to the point P is represented. Thus, a point on the lip brush (0,0) b about 84.5% of the cosmetic 10mg currently attached, or about 8.45mg the point on lip brush (0,0) b from the customer face still image Move to the pixel corresponding to the point P on the data. Therefore, the cosmetics adhering to the point (0, 0) b on the lip brush is about 1.55 mg.

同様に、g(0,0)は、処理データの第1ベクトルおよび第2ベクトルにより示されるリップブラシの移動動作において、顧客顔静止画データ上の点Pから、リップブラシ上の点(0,0)bへ移動する化粧品の移動量の比率を表している。従って、顧客顔静止画データ上の点Pに現在付着している化粧品0mgの約36.2%、すなわち0mgが顧客顔静止画データ上の点Pから、リップブラシ上の点(0,0)bへ移動する。 Similarly, g (0,0) is a point (0,0) on the lip brush from the point P on the customer face still image data in the movement operation of the lip brush indicated by the first vector and the second vector of the processing data. 0) Expresses the ratio of the amount of cosmetics moving to b . Therefore, about 36.2% of the cosmetic 0 mg currently attached to the point P on the customer face still image data, that is, 0 mg is the point (0, 0) on the lip brush from the point P on the customer face still image data. Move to b .

(0,0)は、処理データの第1ベクトルおよび第2ベクトルにより示されるリップブラシの移動動作において、顧客顔静止画データ上の点Pに対応する画素から近接する画素への化粧品の移動量の比率を表している。図29において、リップブラシ上の点(0,0)bは、点Pから点Qへの移動により、長方形Sで示される領域に付着している化粧品をベクトルPQ方向に移動させる。現在、点Pに対応する画素に付着している化粧品は、上記のようにして求められた約8.45mgである。従って、点Pに付着している化粧品約8.45mgの約16.9%、すなわち約1.43mgが長方形S上に塗布されることになる。本実施形態においては、演算処理の簡便化のため、移動される約1.43mgの化粧品が、長方形Sと各画素との重なり部分の面積に比例して、各画素に移動されるものとする。 h (0,0) is the movement of the cosmetic product from the pixel corresponding to the point P on the customer face still image data to the adjacent pixel in the movement operation of the lip brush indicated by the first vector and the second vector of the processing data. It represents the ratio of quantity. In FIG. 29, the point (0, 0) b on the lip brush moves the cosmetics attached to the region indicated by the rectangle S in the vector PQ direction by moving from the point P to the point Q. Currently, the amount of cosmetics attached to the pixel corresponding to the point P is about 8.45 mg obtained as described above. Accordingly, about 16.9% of the approximately 8.45 mg of cosmetics adhering to the point P, that is, about 1.43 mg, is applied onto the rectangle S. In the present embodiment, for simplification of the arithmetic processing, about 1.43 mg of the cosmetic to be moved is moved to each pixel in proportion to the area of the overlapping portion of the rectangle S and each pixel. .

以上が、点P(0,0)bにおけるリップブラシと肌との間の化粧品の移動量および近接する画素間の化粧品の移動量の計算方法である。点Pにおける化粧品の移動量の計算と同様の計算は、着色特性データに含まれる「中心点からのベクトル」で示される全ての点に関して同時に行われる。例えば、f(3,4)、g(3,4)およびh(3,4)により、点R(3,4)bにおけるリップブラシと肌との間の化粧品の移動量および近接する画素間の化粧品の移動量が計算される。 The above is the calculation method of the movement amount of the cosmetic product between the lip brush and the skin at the point P (0, 0) b and the movement amount of the cosmetic product between adjacent pixels. The calculation similar to the calculation of the amount of movement of the cosmetic at the point P is simultaneously performed for all points indicated by “vector from the center point” included in the coloring characteristic data. For example, the amount of cosmetic movement between the lip brush and the skin at the point R (3,4) b and the distance between adjacent pixels by f (3,4) , g (3,4) and h (3,4) The amount of cosmetic movement is calculated.

以上が、処理データの第1ベクトルと第2ベクトルに基づきサーバ13が行う化粧品の移動量の計算方法である。その計算の結果、第2ベクトルに対応する時点、すなわち処理データの記録開始時点から1ms経過した時点における、顧客顔静止画データの各画素に付着する化粧品量が決定される。以下、各時点における顧客顔静止画データの各画素に付着する化粧品量に関するデータを「付着化粧品量データ」を呼ぶ。サーバ13は付着化粧品量データをRAMに一時的に記憶する。   The above is the method for calculating the amount of cosmetic movement performed by the server 13 based on the first vector and the second vector of the processing data. As a result of the calculation, the amount of cosmetics attached to each pixel of the customer face still image data at the time corresponding to the second vector, that is, when 1 ms has elapsed from the recording start time of the processing data is determined. Hereinafter, the data regarding the cosmetic amount attached to each pixel of the customer face still image data at each time point is referred to as “attached cosmetic amount data”. The server 13 temporarily stores the attached cosmetic amount data in the RAM.

サーバ13は引き続き、処理データの第2ベクトルと第3ベクトル、第3ベクトルと第4ベクトル、・・・に基づいて同様の計算を行い、処理データの記録開始時点から2ms、3ms・・・経過した時点に対応する付着化粧品量データを作成する。例えば、2msに対応する付着化粧品量データは、1つ前の1msに対応する付着化粧品量データに対し、新たに計算される化粧品の移動量を加算もしくは減算することにより算出される。サーバ13は、そのようにして作成した各時点に対応する付着化粧品量データを、後述するガイダンス動画データの作成において用いるためにRAMに一時的に記憶する。そして、サーバ13が処理データに含まれる全てのベクトルに関し化粧品量の計算処理を完了した時点で、「ステップn」の最終時点に対応する付着化粧品量データが作成される。以上が、図28のステップS26における化粧品量の計算処理の説明である。   The server 13 continues to perform the same calculation based on the second vector and the third vector of the processing data, the third vector and the fourth vector,..., 2 ms, 3 ms,. The amount data of the attached cosmetics corresponding to the point of time is created. For example, the attached cosmetic amount data corresponding to 2 ms is calculated by adding or subtracting the newly calculated cosmetic movement amount to the attached cosmetic amount data corresponding to the previous 1 ms. The server 13 temporarily stores the attached cosmetic amount data corresponding to each time point thus created in the RAM for use in the creation of guidance video data to be described later. Then, when the server 13 completes the cosmetic amount calculation processing for all the vectors included in the processing data, the attached cosmetic amount data corresponding to the final time point of “Step n” is created. The above is the description of the cosmetic amount calculation process in step S26 of FIG.

ステップS26の処理が終了すると、サーバ13は「ステップn」の最終時点に対応する付着化粧品量データに基づき、各画素の色彩情報を更新する(ステップS27)。以下、色彩情報の更新処理を例を用いて説明する。   When the process of step S26 is completed, the server 13 updates the color information of each pixel based on the attached cosmetic amount data corresponding to the final time point of “step n” (step S27). Hereinafter, the update process of color information will be described using an example.

例えば、顧客顔静止画データ上の点Lに対応する画素のRGBの値が、R=237、G=222、B=168であり、点Lに対応する画素に対して算出された付着化粧品量が0.85mgであるとする。この場合、サーバ13は、まず「ステップn」において用いられる化粧品データのHSBの値を、HSB−RGB対応表28を用いてRGBの値に変換する。「ステップn」において用いられる化粧品データのHSBの値は、上記に仮定されているように、H=90、S=85、B=80である。この場合、例えば化粧品のRGBの値はR=204、G=30、B=134となる。また、この化粧品の透明度は25である。この透明度25は、この化粧品を1mg/pixel(ただし、この「pixel」は1画素の面積を示す)で塗布した際に、下地の色彩を25%透過することを示す。従って、点Lに付着している化粧品量が0.85mgである場合、下地の色彩は、25%/0.85=約29.4%透過する。   For example, the RGB values of the pixels corresponding to the point L on the customer face still image data are R = 237, G = 222, B = 168, and the amount of attached cosmetics calculated for the pixel corresponding to the point L Is 0.85 mg. In this case, the server 13 first converts the HSB value of the cosmetic data used in “Step n” into an RGB value using the HSB-RGB correspondence table 28. The HSB values of the cosmetic data used in “Step n” are H = 90, S = 85, and B = 80, as assumed above. In this case, for example, the RGB values of the cosmetic are R = 204, G = 30, and B = 134. The transparency of this cosmetic is 25. The transparency 25 indicates that 25% of the background color is transmitted when the cosmetic is applied at 1 mg / pixel (where “pixel” indicates the area of one pixel). Therefore, when the amount of cosmetics adhering to the point L is 0.85 mg, the color of the base is transmitted by 25% / 0.85 = about 29.4%.

以上の数値を用いて、サーバ13は各画素における化粧品の色彩を反映した色彩の情報として、以下の数値を算出する。
R:237×29.4/100+204×(1−29.4/100)=約214、
G:222×29.4/100+30×(1−29.4/100)=約86、
B:168×29.4/100+134×(1−29.4/100)=144。
サーバ13はこのようにして求めたR=214、G=86、B=144により、点Lの色彩に関する情報を書き換える。
Using the above numerical values, the server 13 calculates the following numerical values as color information reflecting the color of cosmetics in each pixel.
R: 237 × 29.4 / 100 + 204 × (1-29.4 / 100) = about 214
G: 222 × 29.4 / 100 + 30 × (1-29.4 / 100) = about 86
B: 168 × 29.4 / 100 + 134 × (1-29.4 / 100) = 144.
The server 13 rewrites the information regarding the color of the point L by R = 214, G = 86, and B = 144 obtained in this way.

ところで、ステップS24の判定結果が「No」であった場合、サーバ13は上記のステップS25〜S27とは異なった方法で顧客顔静止画データの各画素の色彩情報を更新する(ステップS28)。   If the determination result in step S24 is “No”, the server 13 updates the color information of each pixel of the customer face still image data by a method different from that in steps S25 to S27 described above (step S28).

例えば、「ステップn」により示される動作が「眉用シェーバー」による「カットする」である場合、処理データは顧客顔静止画データ上の領域を示す2次元ベクトル群である。その場合、サーバ13はその2次元ベクトルにより示される領域内の黒色部分の画素に関する色彩情報を、周辺の黒色でない色彩情報で書き換える。ステップS28による色彩情報の更新処理は、例えば「ビューラー」による「カールする」、「マスカラ」による「付ける」、「マスカラコーム」による「とく」等の「用具」および「動作」の組合せにおいて行われる。   For example, when the operation indicated by “step n” is “cut” by “eyebrow shaver”, the processing data is a two-dimensional vector group indicating an area on the customer face still image data. In that case, the server 13 rewrites the color information relating to the pixels of the black portion in the region indicated by the two-dimensional vector with the surrounding non-black color information. The color information update process in step S28 is performed in a combination of “tool” and “motion” such as “curl” by “Buhler”, “attach” by “mascara”, “toku” by “mascara comb”, and the like. .

以上が、作業用プロセスデータの「ステップn」に関する色彩情報の変更処理の説明である。サーバ13は、上記のステップS21〜S28の処理を、作業用プロセスデータに含まれる全てのステップ、すなわち「ステップ1」〜「ステップk」に関し繰り返す。   The above is the description of the color information changing process regarding “step n” of the working process data. The server 13 repeats the processes of steps S21 to S28 for all steps included in the work process data, that is, “step 1” to “step k”.

サーバ13は、「ステップk」に関する色彩情報の変更処理を終えると、上述した陰影除去処理の逆の処理を行う。すなわち、サーバ13は色彩情報の変更処理を終えた顧客顔静止画データの各座標の点に関し、RGBの値をHSB−RGB対応表28を用いてHSBの値に変換し、作業用顔陰影データの「陰影度」により示される値を変換により得られた明度に加算し、その結果得られるHSBの値をHSB−RGB対応表28を用いてRGBの値に変換する。サーバ13はそのようにして得られるRGBの値で顧客顔静止画データの色彩情報を書き換える。その結果、顧客顔静止画データは陰影を持った立体的な画像を示すデータとなる。以下、上記の陰影を顧客顔静止画データに付加する処理を「陰影付加処理」と呼ぶ。   When the server 13 finishes the color information change process for “step k”, the server 13 performs the reverse process of the above-described shadow removal process. That is, the server 13 converts the RGB value into the HSB value using the HSB-RGB correspondence table 28 for each coordinate point of the customer face still image data for which the color information change processing has been completed. Is added to the brightness obtained by the conversion, and the resulting HSB value is converted into an RGB value using the HSB-RGB correspondence table 28. The server 13 rewrites the color information of the customer face still image data with the RGB values thus obtained. As a result, the customer face still image data is data indicating a three-dimensional image having a shadow. Hereinafter, the process of adding the above-described shadow to the customer face still image data is referred to as “shadow addition process”.

続いて、サーバ13はWebページデータ群32から化粧結果表示ページの雛形データを読み出し、上記のように変更の加えられた顧客顔静止画データを用いて、化粧結果表示ページのデータを作成する。サーバ13は、化粧結果表示ページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図30に示す化粧結果表示ページが表示される。   Subsequently, the server 13 reads the template data of the makeup result display page from the Web page data group 32, and creates the data of the makeup result display page using the customer face still image data changed as described above. The server 13 transmits the data of the makeup result display page to the customer terminal 12. As a result, the makeup result display page shown in FIG. 30 is displayed on the display unit of the customer terminal 12.

化粧結果表示ページは、顧客Aにより選択されたプロセスデータに従って、顧客Aにより選択された化粧品を用いて顧客Aの顔に化粧が施された際の、顧客Aの顔を示す画像を含んでいる。顧客Aは、化粧結果表示ページにおいて「戻る」をクリックし、顧客端末12の表示部に図24〜図26に示した化粧品条件入力ページ等のWebページを表示させ、他の化粧品やプロセスを選択することにより、異なる化粧品データやプロセスデータに基づいて作成された顧客顔静止画データによる化粧結果表示ページを顧客端末12の表示部に表示させることができる。   The makeup result display page includes an image showing the face of customer A when makeup is applied to the face of customer A using the cosmetics selected by customer A according to the process data selected by customer A. . Customer A clicks “Return” on the makeup result display page, displays a web page such as the cosmetic condition input page shown in FIGS. 24 to 26 on the display unit of the customer terminal 12, and selects another cosmetic or process. Thus, a makeup result display page based on customer face still image data created based on different cosmetic data and process data can be displayed on the display unit of the customer terminal 12.

顧客Aは、化粧結果表示ページに表示される化粧結果を得るための化粧方法についてガイダンスを得たいと考える場合、化粧結果表示ページの「再生」をクリックする。そのクリック操作に応じて、顧客端末12はサーバ13に対し、化粧ガイダンスページのデータの送信要求を送信する。   When customer A wants to obtain guidance on a makeup method for obtaining the makeup result displayed on the makeup result display page, the customer A clicks “replay” on the makeup result display page. In response to the click operation, the customer terminal 12 transmits a data transmission request for the makeup guidance page to the server 13.

サーバ13は、化粧ガイダンスページのデータの送信要求を受信すると、その時点で顧客Aにより選択されている化粧品およびプロセスに対応する化粧品データおよびプロセスデータに基づき、ガイダンス動画データを作成する。ガイダンス動画データは、作業用プロセスデータに従い順次更新される顧客顔静止画データに対し、「処理データ」に含まれる座標により示される位置もしくは所定の位置に「用具」で示される用具の画像データをインターポーズし、さらに「ガイダンス」に含まれるメッセージをインターポーズして得られる静止画データを、時系列に配置して得られるデータである。   When the server 13 receives the cosmetic guidance page data transmission request, the server 13 creates guidance video data based on the cosmetic data and the process data corresponding to the cosmetic and the process selected by the customer A at that time. Guidance video data is the image data of the tool indicated by “tool” at the position indicated by the coordinates included in “processing data” or a predetermined position with respect to the customer face still image data that is sequentially updated according to the work process data. This is data obtained by arranging still image data obtained by interposing and interposing messages included in “guidance” in time series.

ガイダンス動画データに用いられる静止画データは、サーバ13により、以下のように作成される。「ステップn」により示される処理が顔の色彩を伴う処理でない場合、サーバ13は変化しない顧客顔静止画データに対し、「用具」および「動作」の内容に応じた所定の画像を所定の位置にインターポーズし、さらに「ガイダンス」に含まれるメッセージをインターポーズしたものを「ステップn」の各時点に対応する静止画データとして順次作成する。その結果、顧客顔静止画データに対し、例えば洗顔剤を付けた手がマッサージを加える様子が、「洗顔剤で顔全体をよく洗って下さい。」といったメッセージとともに示される、時系列で変化するの静止画データが作成される。   Still image data used for the guidance moving image data is created by the server 13 as follows. If the process indicated by “step n” is not a process involving a face color, the server 13 applies a predetermined image corresponding to the contents of “tool” and “motion” to a predetermined position for the customer face still image data that does not change. And interpose messages included in “guidance” are sequentially generated as still image data corresponding to each time point of “step n”. As a result, the manner in which a hand with a facial cleanser applies massage to the customer's face still image data changes over time, with a message such as “Please wash your face thoroughly with facial cleanser”. Still image data is created.

「ステップn」により示される処理が顔の色彩を伴う処理であり、「処理データ」に時系列のデータを含まない処理、すなわち「動作」が「カールする」、「カットする」等の処理である場合、サーバ13は処理データに応じた所定の色彩情報の変化を時系列的に顧客顔静止画データに対し加え、「用具」および「動作」の内容に応じた所定の画像を所定の位置にインターポーズし、さらに「ガイダンス」に含まれるメッセージをインターポーズしたものを「ステップn」の各時点に対応する静止画データとして順次作成する。その結果、顧客顔静止画データに対し、例えばビューラーによりまつ毛にカールが加えられる様子が、「ビューラーでまつ毛の根本をしっかり押さえて下さい。」といったメッセージとともに示される、時系列で変化する静止画データが作成される。   The process indicated by “step n” is a process involving the color of the face, and the “process data” does not include time-series data, that is, the “motion” is a process such as “curl” or “cut”. In some cases, the server 13 adds a change in predetermined color information corresponding to the processing data to the customer face still image data in time series, and adds a predetermined image corresponding to the contents of “tool” and “motion” to a predetermined position. And interpose messages included in “guidance” are sequentially generated as still image data corresponding to each time point of “step n”. As a result, time-series still image data is displayed with a message such as “Please hold the root of the eyelashes firmly with the viewer,” for example, when the curler is added to the eyelashes by the viewer for the customer face still image data. Is created.

「ステップn」により示される処理が顔の色彩を伴う処理であり、「処理データ」が時系列のデータを含む場合、すなわち「動作」が「塗る」、「はたく」等の処理である場合、サーバ13は図28のステップS28において作成された各時点に対応する付着化粧品量データを用いて、各時点に対応する静止画データを作成する。   When the process indicated by “Step n” is a process involving the color of the face and “Processing data” includes time-series data, that is, when “Operation” is a process such as “Paint”, “Hataku”, etc. The server 13 creates still image data corresponding to each time point using the attached cosmetic amount data corresponding to each time point generated in step S28 of FIG.

すなわち、サーバ13は前のステップの最終時点における顧客顔静止画データに対し、各時点に対応する付着化粧品量データに基づく色彩情報の更新処理を行った後、陰影付加処理を行う。サーバ13はそのようにして得られた顧客顔静止画データに対し、「用具」により示される用具の画像を処理データの各時点に対応するベクトルにより示される位置にインターポーズし、さらに「ガイダンス」に含まれるメッセージをインターポーズする。サーバ13はそのようにして用具の画像およびメッセージがインポーズされた顧客顔静止画データを、「ステップn」の各時点に対応する静止画データとして順次作成する。   That is, the server 13 performs a shadow addition process on the customer face still image data at the final time point of the previous step, after updating the color information based on the attached cosmetic amount data corresponding to each time point. The server 13 interposes the image of the tool indicated by “tool” to the position indicated by the vector corresponding to each time point of the processing data with respect to the customer face still image data thus obtained, and further “guidance”. Interpose messages contained in. The server 13 sequentially creates the customer face still image data in which the tool image and the message are imposed in this manner as still image data corresponding to each time point of “Step n”.

その結果、顧客顔静止画データに対し、例えばチークブラシにより頬紅が頬に載せられ、チークブラシによりそれが徐々に広げられていく様子が、「まず、チークブラシにつけた頬紅を頬の高い部分においた後、数回チークブラシを往復させながら徐々にグラデーションをつけていって下さい。」といったメッセージとともに示される、時系列で変化する静止画データが作成される。   As a result, for example, a blusher was placed on the cheek with a cheek brush and gradually spread by the cheek brush against the customer face still image data. Then, gradually add gradation while reciprocating the cheek brush several times. "

サーバ13は、上記のように変化する静止画データを各コマとして時系列に配置したデータを、ガイダンス動画データとして、例えばJPEG(Joint Photographic Experts Group)等の形式でHDに一時的に記憶する。   The server 13 temporarily stores the data in which the still image data changing as described above is arranged in time series as each frame as guidance moving image data in a format such as JPEG (Joint Photographic Experts Group), for example.

サーバ13は、ガイダンス動画データの作成を終えると、Webページデータ群32から化粧ガイダンスページの雛形データを読み出し、ガイダンス動画データを用いて、化粧ガイダンスページのデータを作成する。サーバ13は、化粧ガイダンスページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図31に示す化粧ガイダンスページが表示される。   When the creation of the guidance video data is completed, the server 13 reads the template data of the makeup guidance page from the web page data group 32, and creates the makeup guidance page data using the guidance video data. The server 13 transmits the makeup guidance page data to the customer terminal 12. As a result, the makeup guidance page shown in FIG. 31 is displayed on the display unit of the customer terminal 12.

化粧ガイダンスページには、ガイダンス動画データを再生するための動画表示窓61およびコマンドボタン群62が含まれている。顧客Aがコマンドボタン群62に含まれる「再生」をクリックすると、顧客端末12は動画表示窓61にガイダンス動画データに基づく動画を表示する。その動画には、化粧の各ステップにおける動作を文字で説明するメッセージと、顧客Aの顔に対し化粧が施される様子をリアルタイムで示す画像が含まれている。すなわち、顧客Aは、適する用具により、顧客Aが選択した化粧品を用いて、顧客Aの顔に化粧が施されていく過程を動画として見ることができるので、例えばいったん顔に置かれた頬紅がチークブラシで徐々に広げられていく、といった様子を確認することができる。   The makeup guidance page includes a moving image display window 61 and a command button group 62 for reproducing guidance moving image data. When the customer A clicks “play” included in the command button group 62, the customer terminal 12 displays a moving image based on the guidance moving image data in the moving image display window 61. The moving image includes a message that explains the operation in each step of makeup in characters and an image that shows in real time how makeup is applied to the face of customer A. That is, the customer A can watch the process of applying makeup on the customer A's face as a moving image using the cosmetics selected by the customer A with a suitable tool. For example, the blusher once placed on the face You can see how it gradually spreads with a cheek brush.

顧客Aはコマンドボタン群62に含まれる「前のステップ」および「次のステップ」をクリックすることにより、化粧のプロセスに含まれるステップ間を移動することができる。また、顧客Aは「比較」をクリックすることにより、再生中のステップの先頭時点における画像と、現在時点における画像とを交互に表示させることができる。また、顧客Aは「保存」をクリックすることにより、ガイダンス動画データを顧客端末12のHDに保存することができる。   The customer A can move between steps included in the makeup process by clicking “previous step” and “next step” included in the command button group 62. Further, the customer A can alternately display the image at the beginning of the step being reproduced and the image at the current time by clicking “Compare”. Also, the customer A can save the guidance moving image data in the HD of the customer terminal 12 by clicking “Save”.

顧客Aは化粧ガイダンスページにおいてガイダンス動画データの再生を終え、そのガイダンス動画データにおいて用いられている化粧品データに対応する化粧品を実際に購入したいと考える場合、「購入」をクリックする。そのクリック操作に応じて、顧客端末12は化粧品購入ページのデータの送信要求をサーバ13に送信する。   When the customer A finishes reproducing the guidance video data on the makeup guidance page and wants to actually purchase the cosmetics corresponding to the cosmetic data used in the guidance video data, the customer A clicks “Purchase”. In response to the click operation, the customer terminal 12 transmits a data transmission request for the cosmetics purchase page to the server 13.

サーバ13は化粧品購入ページのデータの送信要求を受信すると、サーバ13はWebページデータ群32から化粧品購入ページの雛形データを読み出し、顧客Aの顧客データの「選択化粧品名」を用いて、化粧品購入ページのデータを作成する。サーバ13は、化粧品購入ページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図32に示す化粧品購入ページが表示される。   When the server 13 receives the request for transmitting the cosmetic purchase page data, the server 13 reads the template data of the cosmetic purchase page from the Web page data group 32 and purchases the cosmetic using the “selected cosmetic name” of the customer data of the customer A. Create page data. The server 13 transmits data on the cosmetic purchase page to the customer terminal 12. As a result, the cosmetic purchase page shown in FIG. 32 is displayed on the display unit of the customer terminal 12.

化粧品購入ページは、顧客Aにより選択され、ガイダンス動画データの作成に用いられた化粧品データを示す化粧品名をリスト化した化粧品リストを含んでいる。顧客Aは化粧品リストにおいて、購入したいと考える化粧品名の右の「数量」欄に希望する数量を入力し、「送信」をクリックする。そのクリック操作に応じて、顧客端末12は化粧品を特定するための化粧品識別データとしての化粧品名を、その化粧品の数量を示す数量データとともに、購入申込データとしてサーバ13に送信する。   The cosmetic purchase page includes a cosmetic list that lists cosmetic names selected by the customer A and indicating the cosmetic data used to create the guidance video data. In the cosmetic list, customer A enters the desired quantity in the “quantity” column to the right of the name of the cosmetic product he / she wishes to purchase, and clicks “Send”. In response to the click operation, the customer terminal 12 transmits the cosmetic name as cosmetic identification data for specifying the cosmetic, together with the quantity data indicating the quantity of the cosmetic, to the server 13 as purchase application data.

サーバ13は、購入申込データを顧客端末12から受信すると、図13に示した販売店データベース30から、購入申込データに含まれる化粧品名のそれぞれに関し、その化粧品名を「取扱商品」に含む販売店データを抽出する。続いて、サーバ13は抽出した販売店データの「販売店名」、「納期」、「価格」および「送料」に基づき、購入申込データにより指定される化粧品を指定される数量だけ注文する場合の費用を算出し、その算出結果を費用データとして、納期を示すデータとともにリスト化する。その場合、納期を示すデータとしては、各販売店データにおける指定される化粧品に対応する納期のうち、最も遅いものが選択される。   When the server 13 receives the purchase application data from the customer terminal 12, the store 13 includes the cosmetic name in the “handling product” for each of the cosmetic names included in the purchase application data from the store database 30 shown in FIG. Extract data. Subsequently, the server 13 charges the order for the specified amount of cosmetics specified by the purchase application data based on the “store name”, “delivery date”, “price”, and “shipping cost” of the extracted store data. And the calculation result is listed as cost data together with data indicating the delivery date. In this case, as the data indicating the delivery date, the latest delivery date among the delivery dates corresponding to the designated cosmetics in each store data is selected.

続いて、サーバ13はWebページデータ群32から費用リスト表示ページの雛形データを読み出し、作成したリストを用いて、費用リスト表示ページのデータを作成する。サーバ13は、費用リスト表示ページのデータを顧客端末12に送信する。その結果、顧客端末12の表示部には、図33に示す費用リスト表示ページが表示される。   Subsequently, the server 13 reads out the template data of the expense list display page from the Web page data group 32, and creates the data of the expense list display page using the created list. The server 13 transmits the cost list display page data to the customer terminal 12. As a result, the expense list display page shown in FIG. 33 is displayed on the display unit of the customer terminal 12.

費用リスト表示ページには、顧客Aが購入を希望する化粧品に関し、化粧品、販売店および数量の組合せを、費用総計の小さい順にリスト化した費用リストが含まれている。費用リストは、化粧品、販売店および数量の組合せを識別するための「番号」、販売店の名称を示す「販売店名」、化粧品の名称を示す「化粧品名」、化粧品の注文数を示す「数量」、各販売店に対し支払うべき化粧品の価格および送料の合計を示す「費用小計」、各販売店に関する納期を示す「納期」および各販売店の費用小計の合計を示す「費用総計」の項目を有している。顧客Aは、「費用総計」、「納期」等の内容を考慮して、いずれかの番号で示される組合せを選択した後、「注文」をクリックする。そのクリック操作に応じて、顧客端末12は顧客Aにより選択された販売店名、化粧品名および数量の組合せを示すデータを、注文データとしてサーバ13に送信する。   The cost list display page includes a cost list that lists combinations of cosmetics, dealers, and quantities in ascending order of total cost for cosmetics that the customer A desires to purchase. The cost list includes a “number” for identifying a combination of cosmetics, a dealer, and a quantity, a “store name” that indicates the name of the dealer, a “cosmetic name” that indicates the name of the cosmetic, and a “quantity” that indicates the number of cosmetics ordered. ”,“ Cost subtotal ”indicating the total price and shipping cost of cosmetics to be paid to each dealer,“ Delivery date ”indicating the delivery date for each dealer, and“ Total cost ”indicating the sum of the cost subtotal for each dealer have. Customer A considers the contents of “total cost”, “delivery date”, etc., and selects a combination indicated by any number, and then clicks “order”. In response to the click operation, the customer terminal 12 transmits data indicating a combination of the store name, cosmetic name, and quantity selected by the customer A to the server 13 as order data.

サーバ13は、注文データを受信すると、注文データに含まれる販売店名のそれぞれに関し、販売店データベース30からその販売店名を含む販売店データを検索し、検索した販売店データの「販売店メールアドレス」に示されるメールアドレス宛に電子メールを送信する。その電子メールには、注文データに含まれる化粧品名および数量に関するデータのうち、電子メールの宛先の販売店に対応するものと、顧客Aの顧客データに含まれる住所等のデータが含まれている。サーバ13から送信された電子メールは販売店端末15により受信され、化粧品販売店のスタッフに対し化粧品の注文内容が通知される。その後、化粧品販売店と顧客Aとの間で化粧品の配送および代金の支払いが行われる。   Upon receiving the order data, the server 13 searches the store database 30 for store data including the store name for each store name included in the order data, and “store mail address” of the searched store data. Send an e-mail to the e-mail address indicated in. The e-mail includes data on the cosmetic name and quantity included in the order data, corresponding to the e-mail destination store, and data such as the address included in the customer data of customer A. . The e-mail transmitted from the server 13 is received by the store terminal 15, and the cosmetics order details are notified to the staff of the cosmetic store. Thereafter, the cosmetics are delivered and paid for between the cosmetic store and the customer A.

続いて、サーバ13は顧客Aにより注文がなされた化粧品名および数量に関するデータを、顧客Aの顧客データに含まれる「年齢」、「性別」等の属性データおよびその日の日付とともに、図14に示したマーケティング関連データベース31に追加する。その際、マーケティング関連データの「行動分類」には「購入」が格納される。   Subsequently, the server 13 shows the data regarding the name and quantity of the cosmetics ordered by the customer A together with the attribute data such as “age” and “gender” included in the customer data of the customer A and the date of the day in FIG. Added to the marketing related database 31. At that time, “purchase” is stored in the “behavior classification” of the marketing related data.

以上がガイダンスシステム1において、サーバ13が顧客端末12に対して提供する情報提供サービスの動作説明である。サーバ13は、顧客端末12に対する情報提供サービスに加え、メーカ端末14および販売店端末15に対し、マーケティング関連データベース31に記憶されているデータを提供するサービスも行う。すなわち、サーバ13は定期的に、メーカデータベース29の「メーカメールアドレス」および販売店データベース30の「販売店メールアドレス」に含まれるメールアドレス宛に、マーケティング関連データベース31の内容を含む電子メールを送信する。そのように送信された電子メールは、メーカ端末14および販売店端末15により受信され、化粧品メーカのスタッフおよび化粧品販売店のスタッフはマーケティング関連データベース31に含まれる顧客の化粧品に関する消費性向等の情報を知ることができる。   The above is the description of the operation of the information providing service that the server 13 provides to the customer terminal 12 in the guidance system 1. In addition to the information providing service for the customer terminal 12, the server 13 also provides a service for providing data stored in the marketing related database 31 to the manufacturer terminal 14 and the store terminal 15. That is, the server 13 periodically sends an e-mail including the contents of the marketing related database 31 to e-mail addresses included in the “maker e-mail address” of the maker database 29 and the “dealer e-mail address” of the store database 30 To do. The e-mail thus transmitted is received by the manufacturer terminal 14 and the store terminal 15, and the staff of the cosmetic manufacturer and the staff of the cosmetic store store information on the consumer's cosmetic propensity related to the cosmetics contained in the marketing related database 31. I can know.

[2.第2実施形態]
第2実施形態は、上述した第1実施形態と比較し、プロセスデータ作成用端末の構成およびプロセスデータの作成時の操作のみが異なっている。従って、以下、第2実施形態が第1実施形態と異なる点のみを説明する。
[2. Second Embodiment]
The second embodiment differs from the first embodiment described above only in the configuration of the process data creation terminal and the operation when creating the process data. Therefore, hereinafter, only differences between the second embodiment and the first embodiment will be described.

[2.1.プロセスデータ作成用端末の構成]
第2実施形態においては、メイクアップアーティストはプロセスデータを作成する際、プロセスデータ作成用端末41の代わりに、プロセスデータ作成用端末71を用いる。図34はプロセスデータ作成用端末71の概観を示す図である。プロセスデータ作成用端末71は、圧力センサーパネル711、A/Dコンバータ712および汎用コンピュータ713から構成される。なお以下の説明では、プロセスデータ作成用端末71は、圧力センサーパネル711、A/Dコンバータ712および汎用コンピュータ713をケーブルにて接続することにより構成されているものとするが、プロセスデータ作成用端末71の構成はそれに限られず、例えばA/Dコンバータ712が圧力センサーパネル711と一体化していたり、汎用コンピュータ713と一体化していてもよい。
[2.1. Configuration of process data creation terminal]
In the second embodiment, a makeup artist uses a process data creation terminal 71 instead of the process data creation terminal 41 when creating process data. FIG. 34 is a diagram showing an overview of the process data creation terminal 71. The process data creation terminal 71 includes a pressure sensor panel 711, an A / D converter 712, and a general-purpose computer 713. In the following description, the process data creation terminal 71 is configured by connecting the pressure sensor panel 711, the A / D converter 712, and the general-purpose computer 713 with a cable. For example, the A / D converter 712 may be integrated with the pressure sensor panel 711 or may be integrated with the general-purpose computer 713.

圧力センサーパネル711は、アクリルボード等の透明な板の表面に微小かつ高感度の圧力センサーを密に配置し、その上に着脱可能なごく薄く柔らかい透明のシリコン等の被覆を被せたものである。圧力センサーの密度は、例えば汎用コンピュータ713の表示部の解像度と等しく、各圧力センサーは汎用コンピュータ713の表示部の各画素にほぼ1対1で対応している。圧力センサーにより測定される圧力は、A/Dコンバータ712に出力される。   The pressure sensor panel 711 has a fine and highly sensitive pressure sensor densely arranged on the surface of a transparent plate such as an acrylic board, and is covered with a very thin and soft transparent silicon coating. . The density of the pressure sensor is, for example, equal to the resolution of the display unit of the general-purpose computer 713, and each pressure sensor corresponds to each pixel of the display unit of the general-purpose computer 713 almost on a one-to-one basis. The pressure measured by the pressure sensor is output to the A / D converter 712.

A/Dコンバータ712は、第1実施形態におけるA/Dコンバータ412と同様の機能を有し、圧力センサーパネル711上の圧力センサーから出力される圧力を示すアナログ信号をデジタルデータに変換し、各圧力センサーの位置を示すデータとともに汎用コンピュータ713に送信する。   The A / D converter 712 has the same function as the A / D converter 412 in the first embodiment, converts an analog signal indicating the pressure output from the pressure sensor on the pressure sensor panel 711 into digital data, Along with data indicating the position of the pressure sensor, the data is transmitted to the general-purpose computer 713.

汎用コンピュータ713は、第1実施形態における汎用コンピュータ413と同様の構成を有する汎用コンピュータである。汎用コンピュータ713のHDは、OSの他、プロセスデータ作成用プログラムおよびモデル顔静止画データを記憶している。第2実施形態におけるモデル顔静止画データは、第1実施形態と同様に、有体物としてのマネキンを撮影して得られるデジタルデータであってもよいし、コンピュータによって仮想的に作成された画像データであってもよい。   The general-purpose computer 713 is a general-purpose computer having the same configuration as the general-purpose computer 413 in the first embodiment. In addition to the OS, the HD of the general-purpose computer 713 stores a process data creation program and model face still image data. The model face still image data in the second embodiment may be digital data obtained by photographing a mannequin as a tangible object as in the first embodiment, or may be image data created virtually by a computer. There may be.

[2.2.プロセスデータの作成]
第2実施形態においては、圧力センサーパネル711上の各圧力センサーの位置と、モデル顔静止画データが汎用コンピュータ713の表示部に表示される場合の各画素の位置とがほぼ1対1に対応している。従って、第1実施形態と異なり、圧力センサーとモデル顔静止画データの各画素との対応関係を示す圧力センサー位置データは第2実施形態においては不要である。
[2.2. Create process data]
In the second embodiment, the position of each pressure sensor on the pressure sensor panel 711 and the position of each pixel when the model face still image data is displayed on the display unit of the general-purpose computer 713 correspond approximately one to one. is doing. Therefore, unlike the first embodiment, pressure sensor position data indicating the correspondence between the pressure sensor and each pixel of the model face still image data is not necessary in the second embodiment.

メイクアップアーティストは、プロセスデータの作成を行う場合、汎用コンピュータ713においてプロセスデータ作成用プログラムを起動する。その結果、汎用コンピュータ713の表示部には図21に示したものと同様のプロセスデータ作成画面が表示される。メイクアップアーティストは、第1実施形態における場合と同様に、プロセスデータ作成画面に必要なデータを入力し、必要に応じて「記録開始」および「手動入力」をクリックして、プロセスデータに含まれる処理データの記録もしくは入力を行う。   The makeup artist activates a process data creation program in the general-purpose computer 713 when creating process data. As a result, a process data creation screen similar to that shown in FIG. 21 is displayed on the display unit of the general-purpose computer 713. As in the case of the first embodiment, the makeup artist inputs necessary data on the process data creation screen, and clicks “start recording” and “manual input” as necessary, and is included in the process data. Record or input process data.

メイクアップアーティストが「記録開始」をクリックすると、汎用コンピュータ713の表示部にはモデル顔静止画データにより示されるモデル顔の静止画が表示される。メイクアップアーティストは、圧力センサーパネル711越しに見えるモデル顔の静止画に対して、圧力センサーパネル711の被覆上に実際の化粧と同様の化粧動作を行う。その結果、メイクアップアーティストによる化粧動作が、モデル顔静止画データの各画素に対応する位置における時系列の圧力データとして汎用コンピュータ713のRAMに順次記憶され、RAMに記憶されたデータに基づき処理データが生成される。   When the makeup artist clicks “start recording”, a still image of the model face indicated by the model face still image data is displayed on the display unit of the general-purpose computer 713. The makeup artist performs a makeup operation similar to the actual makeup on the cover of the pressure sensor panel 711 on the still image of the model face that can be seen through the pressure sensor panel 711. As a result, the makeup operation by the makeup artist is sequentially stored in the RAM of the general-purpose computer 713 as time-series pressure data at the position corresponding to each pixel of the model face still image data, and the processing data is based on the data stored in the RAM. Is generated.

上記のように生成された処理データを含むプロセスデータは、第1実施形態と同様に、ガイダンスシステム1のサービスプロバイダのスタッフによりサーバ13のHD内のプロセスデータベース26に追加され、ガイダンスシステム1において利用される。   The process data including the processing data generated as described above is added to the process database 26 in the HD of the server 13 by the staff of the service provider of the guidance system 1 and used in the guidance system 1 as in the first embodiment. Is done.

なお、第2実施形態において、メイクアップアーティストは実際の化粧品を用いて化粧動作を行う代わりに、何も化粧品を付けないチークブラシ等の化粧用具や、口紅の形状を模したスタイラス等を用いて化粧動作を行ってもよい。その場合、汎用コンピュータ713は化粧用具もしくはスタイラスの圧力、軌跡、メイクアップアーティストにより指定されている化粧品データ等に応じてモデル顔静止画データの色彩データを順次変更し、表示部に仮想的に化粧が施されていくモデル顔の様子を動画として表示する。汎用コンピュータ713がモデル顔静止画データの色彩データを順次変更する動作は、第1実施形態において説明したガイダンス動画データの作成の動作と同様であるので、詳細な説明を省略する。   In the second embodiment, the makeup artist uses a makeup tool such as a cheek brush without any cosmetics, a stylus imitating the shape of a lipstick, or the like, instead of performing a makeup operation using actual cosmetics. A makeup operation may be performed. In that case, the general-purpose computer 713 sequentially changes the color data of the model face still image data according to the pressure or locus of the makeup tool or stylus, the cosmetic data specified by the makeup artist, etc., and virtually displays the makeup on the display unit. The state of the model face to which is applied is displayed as a video. Since the operation of the general-purpose computer 713 sequentially changing the color data of the model face still image data is the same as the operation of creating the guidance moving image data described in the first embodiment, detailed description thereof is omitted.

第2実施形態においては、メイクアップアーティストは持ち運び等に不便なマネキンの代わりに計量小型な圧力センサーパネルを用いて、より手軽にプロセスデータの作成を行うことができる。また、第2実施形態においては、メイクアップアーティストは実際の化粧品を用いることなくプロセスデータの作成を行うこともできるため、圧力センサーパネルの被覆に付着した化粧品を洗浄する等の手間を省くことができる。   In the second embodiment, a makeup artist can create process data more easily by using a small pressure sensor panel that measures in place of a mannequin that is inconvenient to carry. In the second embodiment, since the makeup artist can also create process data without using actual cosmetics, it is possible to save the trouble of cleaning cosmetics attached to the pressure sensor panel cover. it can.

[3.第3実施形態]
第3実施形態は、上述した第2実施形態と比較し、プロセスデータ作成用端末の構成のみが異なっている。従って、以下、第3実施形態が第2実施形態と異なる点のみを説明する。
[3. Third Embodiment]
The third embodiment is different from the second embodiment described above only in the configuration of the process data creation terminal. Therefore, hereinafter, only the differences of the third embodiment from the second embodiment will be described.

[3.1.プロセスデータ作成用端末の構成]
図35は、第3実施形態においてメイクアップアーティストがプロセスデータを作成する際に用いるプロセスデータ作成用端末81の概観を示す図である。プロセスデータ作成用端末81は、タッチパネル811、化粧用具アダプタ812および汎用コンピュータ813から構成される。
[3.1. Configuration of process data creation terminal]
FIG. 35 is a diagram showing an overview of a process data creation terminal 81 used when a makeup artist creates process data in the third embodiment. The process data creation terminal 81 includes a touch panel 811, a makeup tool adapter 812, and a general-purpose computer 813.

タッチパネル811は、アクリルボード等の透明な板の表面に微小かつ高感度のタッチセンサーを密に配置し、その上に着脱可能なごく薄く柔らかい透明のシリコン等の被覆を被せたものである。各タッチセンサーは、そのタッチセンサーの位置を示すデータとともに、一定以上の圧力が加えられている間は圧力が加えられていることを示すデータ、例えば「1」を、一定以上の圧力が加えられていない間は例えば「0」を、デジタルデータとして汎用コンピュータ813に送信する。タッチセンサーの密度は、例えば汎用コンピュータ813の表示部の解像度と等しく、各タッチセンサーは汎用コンピュータ813の表示部の各画素にほぼ1対1で対応している。   The touch panel 811 has a minute and highly sensitive touch sensor densely arranged on the surface of a transparent plate such as an acrylic board, and is covered with a very thin and soft transparent silicon coating. For each touch sensor, data indicating the position of the touch sensor and data indicating that pressure is applied while a certain pressure or more is applied, for example, “1” is applied. If not, for example, “0” is transmitted to the general-purpose computer 813 as digital data. The density of the touch sensor is equal to, for example, the resolution of the display unit of the general-purpose computer 813, and each touch sensor corresponds to each pixel of the display unit of the general-purpose computer 813 on a one-to-one basis.

化粧用具アダプタ812は、化粧用具を装着可能であり、装着した化粧用具に対し加えられる力の大きさをデジタルデータとして送信可能なデバイスである。化粧用具アダプタ812は、異なる形状の化粧用具のそれぞれに応じて、異なるタイプのものが複数ある。図36は、化粧用具アダプタ812の構成を示すための断面図である。なお、図36は例として、口紅タイプの化粧用具アダプタ812を示しているが、他の化粧用具に対応したタイプのものも、内筒91および外筒93の形状が異なる以外、構成は口紅タイプのものと同じである。   The cosmetic tool adapter 812 is a device to which a cosmetic tool can be attached and capable of transmitting the magnitude of the force applied to the attached cosmetic tool as digital data. There are a plurality of different types of makeup tool adapters 812 according to different shapes of makeup tools. FIG. 36 is a cross-sectional view for illustrating the configuration of the cosmetic tool adapter 812. Note that FIG. 36 shows a lipstick-type cosmetic tool adapter 812 as an example, but the configuration corresponding to other cosmetic tools is also lipstick-type except that the shapes of the inner cylinder 91 and the outer cylinder 93 are different. Is the same as

化粧用具アダプタ812は、内筒91、クリップ92、外筒93、クッション94、圧力センサー95およびA/Dコンバータ96から構成されている。内筒91は、対応する化粧用具を外側から覆う形状、例えば一方の底面が開口した円筒状のケースである。内筒91の内側面には、内側方向に弾性を持って拡がるクリップ92が取り付けられており、このクリップ92により、内筒91は異なる直径の口紅等を保持することができる。外筒93は内筒91よりわずかに大きなサイズの同様の形状のケースであり、内筒91を外側から覆っている。外筒93には、例えば開口部に内側方向に突出したストッパー931が設けられており、内筒91が外筒93から脱落しないようになっている。   The makeup tool adapter 812 includes an inner cylinder 91, a clip 92, an outer cylinder 93, a cushion 94, a pressure sensor 95, and an A / D converter 96. The inner cylinder 91 is a shape that covers a corresponding cosmetic tool from the outside, for example, a cylindrical case with one bottom surface opened. A clip 92 that is elastically expanded in the inner direction is attached to the inner side surface of the inner cylinder 91, and the inner cylinder 91 can hold lipsticks having different diameters by the clip 92. The outer cylinder 93 is a case of the same shape that is slightly larger in size than the inner cylinder 91 and covers the inner cylinder 91 from the outside. The outer cylinder 93 is provided with, for example, a stopper 931 that protrudes inward in the opening, so that the inner cylinder 91 does not fall off the outer cylinder 93.

内筒91の底面と外筒93の底面の間には、クッション94および圧力センサー95が挟み込まれている。クッション94は例えば円盤状に成型されたゴムやシリコン等の弾性体もしくはバネである。圧力センサー95は外筒93の底面内側中央に固着されている。圧力センサー95は、例えば外筒93の底面外側に取り付けられたA/Dコンバータ96に対し、加えられた圧力に応じたアナログ信号を出力する。A/Dコンバータ96は、圧力センサー95から入力されるアナログ信号を圧力の値を示すデジタルデータに変換し、汎用コンピュータ813に送信する。   A cushion 94 and a pressure sensor 95 are sandwiched between the bottom surface of the inner cylinder 91 and the bottom surface of the outer cylinder 93. The cushion 94 is, for example, an elastic body or a spring such as rubber or silicon molded into a disk shape. The pressure sensor 95 is fixed to the center inside the bottom surface of the outer cylinder 93. The pressure sensor 95 outputs an analog signal corresponding to the applied pressure, for example, to an A / D converter 96 attached outside the bottom surface of the outer cylinder 93. The A / D converter 96 converts the analog signal input from the pressure sensor 95 into digital data indicating a pressure value, and transmits the digital data to the general-purpose computer 813.

汎用コンピュータ813は、第2実施形態における汎用コンピュータ713と同様の構成を有する汎用コンピュータである。ただし、汎用コンピュータはタッチパネル811から各タッチセンサーの位置および一定以上の加圧の有無を示すデータを受信すると同時に、化粧用具アダプタ812から圧力を示すデジタルデータを受信する。   The general-purpose computer 813 is a general-purpose computer having the same configuration as the general-purpose computer 713 in the second embodiment. However, the general-purpose computer receives data indicating the position of each touch sensor and the presence / absence of a certain level of pressure from the touch panel 811 and simultaneously receives digital data indicating the pressure from the cosmetic tool adapter 812.

メイクアップアーティストが汎用コンピュータ813においてプロセスデータ作成用プログラムを起動し、図21に示したものと同様のプロセスデータ作成画面において「記録開始」をクリックすると、汎用コンピュータ813は表示部にモデル顔の静止画を表示するとともに、メイクアップアーティストによる化粧動作を示すデータの記憶を開始する。メイクアップアーティストは、化粧用具アダプタ812に口紅等の化粧用具を取り付け、タッチパネル811の被覆上に実際の化粧と同様の化粧動作を行う。   When the makeup artist starts the process data creation program on the general-purpose computer 813 and clicks “start recording” on the process data creation screen similar to that shown in FIG. 21, the general-purpose computer 813 displays the model face on the display unit. The image is displayed and the storage of the data indicating the makeup operation by the makeup artist is started. The makeup artist attaches a makeup tool such as lipstick to the makeup tool adapter 812, and performs a makeup operation similar to the actual makeup on the cover of the touch panel 811.

メイクアップアーティストの化粧動作により、タッチパネル811上に配置されたタッチセンサーのうち一定以上の圧力を検出したものは「1」を、他のものは「0」を、それぞれの位置を示すデータとともに汎用コンピュータ813に送信する。また、メイクアップアーティストの化粧動作により、化粧用具アダプタ812は取り付けられた化粧用具に加えられる力により圧力センサー95が測定した圧力を、デジタルデータとして汎用コンピュータ813に送信する。汎用コンピュータ813は、タッチパネル811および化粧用具アダプタ812から受信するデータに基づき、各化粧の動作に応じた処理データを生成する。   A touch sensor arranged on the touch panel 811 with a makeup artist's makeup operation that detects a pressure above a certain level is “1”, the others are “0”, and data indicating the respective positions is general-purpose. Send to computer 813. Further, the makeup tool adapter 812 transmits the pressure measured by the pressure sensor 95 by the force applied to the attached makeup tool to the general-purpose computer 813 as digital data by the makeup operation of the makeup artist. The general-purpose computer 813 generates processing data corresponding to each makeup operation based on the data received from the touch panel 811 and the makeup tool adapter 812.

その際、汎用コンピュータ813は化粧用具の中心点における圧力を示すデータは化粧用具アダプタ812から取得することができるが、中心点の周辺の各点における圧力に関しては、実測のデータを取得することができない。従って、汎用コンピュータ813が用いるプロセスデータ作成用プログラムには、化粧用具の種類に応じて、化粧用具の中心点からの各位置における圧力の分布を示すデータを付属データとして予め備えさせている。汎用コンピュータ813は実測の圧力データの代わりに、圧力の分布を示すデータを用いて、化粧用具の中心点の周辺における各点の圧力を算出し、処理データの生成に用いる。   At this time, the general-purpose computer 813 can acquire data indicating the pressure at the center point of the makeup tool from the makeup tool adapter 812, but can acquire measured data regarding the pressure at each point around the center point. Can not. Therefore, the process data creation program used by the general-purpose computer 813 is preliminarily provided with data indicating the pressure distribution at each position from the center point of the cosmetic tool as attached data according to the type of the cosmetic tool. The general-purpose computer 813 uses the data indicating the pressure distribution instead of the actually measured pressure data to calculate the pressure at each point around the center point of the cosmetic and uses it to generate processing data.

上記のように生成された処理データを含むプロセスデータは、第1実施形態および第2実施形態と同様に、ガイダンスシステム1のサービスプロバイダのスタッフによりサーバ13のHD内のプロセスデータベース26に追加され、ガイダンスシステム1において利用される。なお、第3実施形態においても、第2実施形態と同様に、メイクアップアーティストは実際の化粧品を用いずに仮想的にモデル顔の静止画に対し化粧を施すことにより、プロセスデータを作成することもできる。   The process data including the processing data generated as described above is added to the process database 26 in the HD of the server 13 by the staff of the service provider of the guidance system 1 as in the first and second embodiments. Used in the guidance system 1. In the third embodiment, as in the second embodiment, the makeup artist creates process data by virtually applying makeup to the still image of the model face without using actual cosmetics. You can also.

第3実施形態においては、第2実施形態と比較し、圧力センサーを化粧用具アダプタに1つ用いるだけで本発明を実施可能であるため、圧力センサーおよびA/Dコンバータに要する費用を低減することができる。なお、第3実施形態において用いられる化粧用具アダプタは、筆圧を示すデータをリアルタイムで入力する入力デバイスとしても利用可能である。その場合、化粧用具の代わりに鉛筆等の他の筆記用具もしくは彩色用具がアダプタに装着されてもよい。例えば、化粧用具アダプタにスタイラスを装着することにより、タッチパネル付液晶画面を有するタブレット型パソコン等に対し、タッチパネルに対するスタイラスの筆圧に関するデータを容易に入力することができる。   In the third embodiment, compared with the second embodiment, the present invention can be implemented by using only one pressure sensor for the cosmetic adapter, so that the cost required for the pressure sensor and the A / D converter is reduced. Can do. Note that the cosmetic tool adapter used in the third embodiment can also be used as an input device that inputs data indicating writing pressure in real time. In that case, other writing tools or coloring tools such as pencils may be attached to the adapter instead of the makeup tools. For example, by attaching a stylus to a makeup tool adapter, it is possible to easily input data relating to the writing pressure of the stylus on the touch panel to a tablet personal computer having a liquid crystal screen with a touch panel.

[4.第4実施形態]
第4実施形態は、上述した第1実施形態と比較し、プロセスデータ作成用端末の構成のみが異なっている。従って、以下、第4実施形態が第1実施形態と異なる点のみを説明する。
[4. Fourth Embodiment]
The fourth embodiment differs from the first embodiment described above only in the configuration of the process data creation terminal. Therefore, hereinafter, only differences between the fourth embodiment and the first embodiment will be described.

図37は、第4実施形態においてメイクアップアーティストがプロセスデータを作成する際に用いるプロセスデータ作成用端末101の概観を示す図である。プロセスデータ作成用端末101は、モデルマネキン1011、化粧用具アダプタ1012および汎用コンピュータ1013から構成される。   FIG. 37 is a diagram showing an overview of the process data creation terminal 101 used when the makeup artist creates process data in the fourth embodiment. The process data creation terminal 101 includes a model mannequin 1011, a makeup tool adapter 1012, and a general-purpose computer 1013.

第4実施形態におけるモデルマネキン1011は、第1実施形態におけるモデルマネキン411とほぼ同様の構成のマネキンであるが、表面に複数の圧力センサーの代わりに複数のタッチセンサーが配置されている。このタッチセンサーは、第3実施形態におけるタッチパネル811に配置されるタッチセンサーと同様のものである。   A model mannequin 1011 according to the fourth embodiment is a mannequin having substantially the same configuration as the model mannequin 411 according to the first embodiment, but a plurality of touch sensors are arranged on the surface instead of a plurality of pressure sensors. This touch sensor is the same as the touch sensor arranged on the touch panel 811 in the third embodiment.

第4実施形態における化粧用具アダプタ1012は第3実施形態における化粧用具アダプタ812と同様のものである。   The makeup tool adapter 1012 in the fourth embodiment is the same as the makeup tool adapter 812 in the third embodiment.

第4実施形態における汎用コンピュータ1013は、第1実施形態における汎用コンピュータ713とほぼ同様のものである。ただし、汎用コンピュータ1013は、モデルマネキン1011からは圧力の検出の有無を示すデータおよびそれぞれのタッチセンサーの位置を示すデータを、また化粧用具アダプタ1012からは圧力を示すデータを同時に受信する。   A general-purpose computer 1013 in the fourth embodiment is substantially the same as the general-purpose computer 713 in the first embodiment. However, the general-purpose computer 1013 simultaneously receives data indicating the presence or absence of pressure detection and data indicating the position of each touch sensor from the model mannequin 1011, and data indicating pressure from the cosmetic tool adapter 1012.

その際、汎用コンピュータ1013は化粧用具アダプタ1012から化粧用具の中心点における圧力を示すデータしか取得できない。従って、第3実施形態における場合と同様に、汎用コンピュータ1013は化粧用具の種類に応じた圧力の分布を示すデータを用いて、化粧用具の中心点の周辺における各点の圧力を算出し、処理データの生成に用いる。   At that time, the general-purpose computer 1013 can only acquire data indicating the pressure at the center point of the cosmetic tool from the cosmetic tool adapter 1012. Therefore, as in the case of the third embodiment, the general-purpose computer 1013 calculates the pressure at each point around the center point of the cosmetic tool using the data indicating the pressure distribution according to the type of the cosmetic tool, and performs processing. Used for data generation.

第4実施形態においては、第1実施形態と比較し、圧力センサーを化粧用具アダプタに1つ用いるだけで本発明を実施可能であるため、圧力センサーおよびA/Dコンバータに要する費用を低減することができる。   In the fourth embodiment, compared with the first embodiment, the present invention can be implemented by using only one pressure sensor for the cosmetic adapter, so that the cost required for the pressure sensor and the A / D converter is reduced. Can do.

[5.変形例]
上述した実施形態は本発明の実施形態の例示であり、上記実施形態に対しては、本発明の主旨から逸脱しない範囲で様々な変形を加えることができる。
[5. Modified example]
The above-described embodiment is an exemplification of the embodiment of the present invention, and various modifications can be made to the above-described embodiment without departing from the gist of the present invention.

[5.1.第1変形例]
第1変形例においては、顧客顔静止画データとして、顧客の顔を複数の角度から撮影した複数枚の静止画データに基づき、3次元形状データに加工された静止画データが用いられる。同様に、モデル顔静止画データとして、モデルマネキンを複数の角度から撮影した複数枚の静止画データに基づき加工された3次元形状データである静止画データ、もしくはコンピュータにより仮想的に作成された3次元形状データである静止画データが用いられる。また、第1変形例においては、モデル顔陰影データを用いた陰影除去処理および陰影付加処理は行われず、代わりに、3次元形状データである顧客顔静止画データが示す立体形状に基づいた演算により、陰影情報の除去および付加の処理が行われる。
[5.1. First Modification]
In the first modification, still image data processed into three-dimensional shape data based on a plurality of still image data obtained by photographing a customer's face from a plurality of angles is used as the customer face still image data. Similarly, as model face still image data, still image data which is three-dimensional shape data processed based on a plurality of still image data obtained by photographing a model mannequin from a plurality of angles, or 3 created virtually by a computer Still image data which is dimensional shape data is used. Further, in the first modified example, the shadow removal process and the shadow addition process using the model face shadow data are not performed, but instead by calculation based on the three-dimensional shape indicated by the customer face still image data which is three-dimensional shape data. Then, shading information removal and addition processing is performed.

第1変形例によれば、サーバは顧客端末に対し、より実物に近い画像を用いた化粧に関するガイダンスを提供することができる。また、第1変形例によれば、サーバは顧客端末に対し、化粧の施された顧客の顔を様々な角度から見た場合の画像を提供することができる。   According to the first modification, the server can provide the customer terminal with guidance on makeup using an image closer to the real product. Moreover, according to the 1st modification, the server can provide the image at the time of seeing the customer's face with which makeup was given from various angles with respect to a customer terminal.

[5.2.第2変形例]
第2変形例においては、性別、肌の色、顔の形状、年齢、人種等の様々な分類ごとに準備された複数のモデルマネキンと、それらのモデルマネキンのそれぞれに応じて作成されたモデル顔静止画データが用いられる。また、第2変形例においては、メイクアップアーティストにより、類似した内容の化粧を各モデルマネキンの特徴に応じて施すことにより、各モデルマネキンに対応した同じ名称のプロセスデータが作成される。
[5.2. Second Modification]
In the second modification, a plurality of model mannequins prepared for various classifications such as sex, skin color, face shape, age, race, etc., and models created according to each of those model mannequins Face still image data is used. Further, in the second modification, makeup data having similar contents is applied according to the characteristics of each model mannequin by the makeup artist, so that process data having the same name corresponding to each model mannequin is created.

サーバは顧客端末から受信した顧客データに基づき、顧客の性別、年齢、人種等を判断する。また、サーバは顧客端末から受信した顧客顔静止画データを分析し、肌の色、顔の形状等を判断する。サーバは、それらの判断に基づき、顧客に適したモデルマネキンに対応するモデル顔静止画データ、モデル顔特徴点データ、プロセスデータ等を用いて、顧客顔静止画データの更新処理を行う。   The server determines the gender, age, race, etc. of the customer based on the customer data received from the customer terminal. The server also analyzes the customer face still image data received from the customer terminal and determines the skin color, face shape, and the like. Based on these determinations, the server updates the customer face still image data using model face still image data, model face feature point data, process data, and the like corresponding to the model mannequin suitable for the customer.

第2変形例によれば、顧客の顔の特徴に類似したモデルマネキンに基づくモデル顔静止画データ、プロセスデータ等が用いられるため、モデルマネキンの顔と顧客の顔との差異により生じる、ガイダンスの画像表示における位置のズレ等の問題が低減される。また、第2変形例によれば、同じ名称のプロセスが顧客により選ばれた場合であっても、顧客の顔の特徴に応じたガイダンスが顧客に対して提供される。   According to the second modification, model face still image data, process data, etc. based on a model mannequin similar to the features of the customer's face are used, so that guidance guidance caused by the difference between the model mannequin face and the customer's face is used. Problems such as positional deviation in image display are reduced. Further, according to the second modification, even when a process having the same name is selected by the customer, guidance according to the facial features of the customer is provided to the customer.

[5.3.第3変形例]
第3変形例においては、顧客端末とサーバが一体化した店頭端末が用いられる。すなわち、顧客端末とサーバはインターネットを介して接続されておらず、例えば1つの汎用コンピュータにより、顧客端末とサーバの機能の両方が実現される。店頭端末は通常、例えば化粧品販売店等の店頭に置かれ、来店した顧客により自由に利用される。第3変形例によれば、顧客は自ら顧客端末を準備することなく、本発明にかかる情報提供サービスを受けることができる。
[5.3. Third Modification]
In the third modification, a storefront terminal in which a customer terminal and a server are integrated is used. That is, the customer terminal and the server are not connected via the Internet, and both the customer terminal and the server functions are realized by, for example, one general-purpose computer. The store terminal is usually placed at a store such as a cosmetic store, and is freely used by customers who visit the store. According to the third modification, the customer can receive the information providing service according to the present invention without preparing the customer terminal.

[5.4.第4変形例]
第4変形例においては、顧客端末、サーバ、メーカ端末および販売店端末の間のデータの受渡はインターネットを介したものに限られず、社内LAN等の他の通信網を介したデータの受渡や、CD−ROM(Compact Disc Read Only Memory)、FD等の記憶媒体の郵送によるデータの受渡も行われる。第4変形例によれば、インターネットが利用不可能な場合やインターネットによるデータの受渡が望ましくない場合であっても、本発明にかかる情報提供サービスが実施可能となる。
[5.4. Fourth Modification]
In the fourth modified example, the delivery of data between the customer terminal, the server, the manufacturer terminal, and the store terminal is not limited to the one via the Internet, the data delivery via another communication network such as an in-house LAN, Data is also delivered by mailing storage media such as CD-ROM (Compact Disc Read Only Memory) and FD. According to the fourth modified example, the information providing service according to the present invention can be implemented even when the Internet is not available or when data transfer via the Internet is not desirable.

[5.5.第5変形例]
第5変形例においては、モデルマネキンとして人物の頭部に限られず、身体の様々な部位を模したマネキンが用いられる。第5変形例によれば、顔に対する化粧のみならず、手足等の他の部位に対する化粧に関しても、本発明の情報提供サービスが実施可能となる。
[5.5. Fifth Modification]
In the fifth modification, the model mannequin is not limited to the human head, and mannequins that imitate various parts of the body are used. According to the fifth modification, the information providing service of the present invention can be implemented not only for the makeup for the face but also for the makeup for other parts such as limbs.

[5.6.第6変形例]
第6変形例においては、モデルマネキンもしくは圧力センサーパネルの表面に配置される圧力センサーの数は、顔静止画データの画素数と比較して、例えば3分の1のように少ない。一方、モデルマネキンもしくは圧力センサーパネルに接続される汎用コンピュータは、例えば隣接する3つの圧力センサーにより測定される圧力に基づき、顔静止画データの各画素に対応する位置における圧力を推定する機能を有する。すなわち、汎用コンピュータは、互いに隣接する圧力センサーk、圧力センサーlおよび圧力センサーmの位置に対応する顔静止画データの位置がそれぞれ点K、点Lおよび点Mである場合、三角形KLMの内部に位置する点Nにおける圧力を、点K、点Lおよび点Mにおける圧力の測定値と、点Kと点N、点Lと点Nおよび点Mと点Nの距離に基づき算出する。第6変形例によれば、モデルマネキンもしくは圧力センサーパネルの作成が簡易となり、またモデルマネキンもしくは圧力センサーパネルから汎用コンピュータに対し送信されるデータ量が減少される。
[5.6. Sixth Modification]
In the sixth modified example, the number of pressure sensors arranged on the surface of the model mannequin or the pressure sensor panel is as small as, for example, one third compared with the number of pixels of the face still image data. On the other hand, a general-purpose computer connected to a model mannequin or a pressure sensor panel has a function of estimating a pressure at a position corresponding to each pixel of face still image data based on, for example, pressure measured by three adjacent pressure sensors. . That is, when the positions of the face still image data corresponding to the positions of the pressure sensor k, the pressure sensor l, and the pressure sensor m that are adjacent to each other are the point K, the point L, and the point M, respectively, the general-purpose computer enters the triangle KLM. The pressure at the point N is calculated based on the measured pressure values at the points K, L, and M, and the distances between the points K and N, the points L and N, and the points M and N. According to the sixth modification, the creation of the model mannequin or pressure sensor panel is simplified, and the amount of data transmitted from the model mannequin or pressure sensor panel to the general-purpose computer is reduced.

[5.7.第7変形例]
第7変形例においては、サーバは顧客端末から、顧客が髪を上げた状態の静止画を示す正顧客顔静止画データと、顧客が髪を下げた通常の静止画を示す副顧客顔静止画データを受信する。サーバは副顧客顔静止画データから、髪の部分を示すデータを取り出すことにより、顧客髪静止画データを生成する。サーバは、正顧客顔静止画データに対して、実施形態において示した色彩情報の変更処理を行った後、顧客髪静止画データをインターポーズすることにより、顧客が髪を下げた通常の静止画を示す静止画データを作成する。
[5.7. Seventh Modification]
In the seventh modified example, the server, from the customer terminal, the main customer face still image data indicating the still image with the customer raising his hair and the sub customer face still image indicating the normal still image with the customer lowered his hair. Receive data. The server generates customer hair still image data by extracting data indicating the hair portion from the sub customer face still image data. The server performs the color information change processing shown in the embodiment for the regular customer face still image data, and then interposes the customer hair still image data, thereby causing the customer to drop a normal still image whose hair has been lowered. To create still image data.

第7変形例によれば、髪を有しないモデルマネキンに関するモデル顔特徴点データと、通常は髪を有する顧客に関する顧客顔特徴点データとのマッチング処理の精度が高まると共に、顧客端末に送信される化粧結果表示のための静止画データおよびガイダンス動画データには、髪を有する顧客の画像が含まれる。   According to the seventh modified example, the accuracy of the matching process between the model face feature point data related to the model mannequin having no hair and the customer face feature point data related to the customer who usually has hair is improved and transmitted to the customer terminal. The still image data and guidance moving image data for displaying the makeup result include images of customers who have hair.

本発明の実施形態にかかるガイダンスシステムの全体構成を示す図である。It is a figure which shows the whole structure of the guidance system concerning embodiment of this invention. 本発明の実施形態にかかる顧客端末として機能するコンピュータの構成を示す図である。It is a figure which shows the structure of the computer which functions as a customer terminal concerning embodiment of this invention. 本発明の実施形態にかかるサーバのHDに記憶されているデータの構成を示す図である。It is a figure which shows the structure of the data memorize | stored in HD of the server concerning embodiment of this invention. 本発明の実施形態にかかる顧客データベースの構成を示す図である。It is a figure which shows the structure of the customer database concerning embodiment of this invention. 本発明の実施形態にかかる化粧品データベースの構成を示す図である。It is a figure which shows the structure of the cosmetics database concerning embodiment of this invention. 本発明の実施形態にかかるモデル顔静止画データにより表される静止画を示す図である。It is a figure which shows the still image represented by the model face still image data concerning embodiment of this invention. 本発明の実施形態にかかるモデル顔特徴点データの内容を示す図である。It is a figure which shows the content of the model face feature point data concerning embodiment of this invention. 本発明の実施形態にかかるモデル顔陰影データの内容を示す図である。It is a figure which shows the content of the model face shadow data concerning embodiment of this invention. 本発明の実施形態にかかるプロセスデータベースの構成を示す図である。It is a figure which shows the structure of the process database concerning embodiment of this invention. 本発明の実施形態にかかる着色特性データベースの構成を示す図である。It is a figure which shows the structure of the coloring characteristic database concerning embodiment of this invention. 本発明の実施形態にかかるHSB−RGB対応表の構成を示す図である。It is a figure which shows the structure of the HSB-RGB correspondence table concerning embodiment of this invention. 本発明の実施形態にかかるメーカデータベースの構成を示す図である。It is a figure which shows the structure of the manufacturer database concerning embodiment of this invention. 本発明の実施形態にかかる販売店データベースの構成を示す図である。It is a figure which shows the structure of the store database concerning embodiment of this invention. 本発明の実施形態にかかるマーケティング関連データベースの構成を示す図である。It is a figure which shows the structure of the marketing related database concerning embodiment of this invention. 本発明の第1実施形態にかかるプロセスデータ作成用端末の外観を示す図である。It is a figure which shows the external appearance of the terminal for process data creation concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる圧力センサー位置データの構成を示す図である。It is a figure which shows the structure of the pressure sensor position data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるモデル顔静止画データおよび無被覆モデル顔静止画データにより表される静止画を示す図である。It is a figure which shows the still image represented by the model face still image data and uncovered model face still image data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる圧力センサー位置データの作成の手順を示すフロー図である。It is a flowchart which shows the procedure of preparation of the pressure sensor position data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる無被覆モデル顔特徴点データの構成を示す図である。It is a figure which shows the structure of the uncovered model face feature point data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる圧力センサー位置データの補正処理を説明するための図である。It is a figure for demonstrating the correction process of the pressure sensor position data concerning 1st Embodiment of this invention. 本発明の実施形態にかかるプロセスデータ作成画面を示す図である。It is a figure which shows the process data creation screen concerning embodiment of this invention. 本発明の実施形態にかかる化粧動作記録データの構成を示す図である。It is a figure which shows the structure of the makeup | decoration operation | movement recording data concerning embodiment of this invention. 本発明の実施形態にかかる顧客情報登録ページを示す図である。It is a figure which shows the customer information registration page concerning embodiment of this invention. 本発明の実施形態にかかる化粧品条件情報入力ページを示す図である。It is a figure which shows the cosmetics condition information input page concerning embodiment of this invention. 本発明の実施形態にかかる化粧品選択ページを示す図である。It is a figure which shows the cosmetics selection page concerning embodiment of this invention. 本発明の実施形態にかかるプロセス選択ページを示す図である。It is a figure which shows the process selection page concerning embodiment of this invention. 本発明の実施形態にかかる顧客顔特徴点データの構成を示す図である。It is a figure which shows the structure of the customer face feature point data concerning embodiment of this invention. 本発明の実施形態にかかる色彩情報の変更処理の手順を示すフロー図である。It is a flowchart which shows the procedure of the change process of the color information concerning embodiment of this invention. 本発明の実施形態にかかる座標系aと座標系bとの関係を示す図である。It is a figure which shows the relationship between the coordinate system a and the coordinate system b concerning embodiment of this invention. 本発明の実施形態にかかる化粧結果表示ページを示す図である。It is a figure which shows the makeup | decoration result display page concerning embodiment of this invention. 本発明の実施形態にかかる化粧ガイダンスページを示す図である。It is a figure which shows the makeup | decoration guidance page concerning embodiment of this invention. 本発明の実施形態にかかる化粧品購入ページを示す図である。It is a figure which shows the cosmetics purchase page concerning embodiment of this invention. 本発明の実施形態にかかる費用リスト表示ページを示す図である。It is a figure which shows the expense list display page concerning embodiment of this invention. 本発明の第2実施形態にかかるプロセスデータ作成用端末の外観を示す図である。It is a figure which shows the external appearance of the terminal for process data creation concerning 2nd Embodiment of this invention. 本発明の第3実施形態にかかるプロセスデータ作成用端末の外観を示す図である。It is a figure which shows the external appearance of the terminal for process data creation concerning 3rd Embodiment of this invention. 本発明の第3実施形態にかかる化粧用具アダプタの構成を示す断面図である。It is sectional drawing which shows the structure of the makeup | decoration tool adapter concerning 3rd Embodiment of this invention. 本発明の第4実施形態にかかる化粧用具アダプタの構成を示す図である。It is a figure which shows the structure of the makeup | decoration tool adapter concerning 4th Embodiment of this invention.

符号の説明Explanation of symbols

1…ガイダンスシステム、11…インターネット、12…顧客端末、13…サーバ、14…メーカ端末、15…販売店端末、21…顧客データベース、22…化粧品データベース、23…顔静止画データ群、24…モデル顔特徴点データ、25…モデル顔陰影データ、26…プロセスデータベース、27…着色特性データベース、28…HSB−RGB対応表、29…メーカデータベース、30…販売店データベース、31…マーケティング関連データベース、32…Webページデータ群、411・1011…モデルマネキン、41・71・81.101…プロセスデータ作成用端末、51…入力項目群、52・62…コマンドボタン群、412・712・96…A/Dコンバータ、413・713・813・1013…汎用コンピュータ、61…動画表示窓、711…圧力センサーパネル、811…タッチパネル、812・1012…化粧用具アダプタ、91…内筒、92…クリップ、93…外筒、94…クッション、95…圧力センサー。 DESCRIPTION OF SYMBOLS 1 ... Guidance system, 11 ... Internet, 12 ... Customer terminal, 13 ... Server, 14 ... Manufacturer terminal, 15 ... Store terminal, 21 ... Customer database, 22 ... Cosmetics database, 23 ... Face still image data group, 24 ... Model Facial feature point data, 25: Model face / shadow data, 26: Process database, 27: Coloring property database, 28: HSB-RGB correspondence table, 29: Manufacturer database, 30: Dealer database, 31: Marketing related database, 32 ... Web page data group, 411, 1011 ... model mannequin, 41, 71, 81.101 ... Process data creation terminal, 51 ... input item group, 52, 62 ... command button group, 412, 712, 96 ... A / D converter 413, 713, 813, 1013 ... General-purpose computer 61 ... video display window, 711 ... pressure sensor panel, 811 ... touch panel, 812, 1012 ... makeup tool adapter, 91 ... inner cylinder, 92 ... clip, 93 ... outer cylinder, 94 ... cushion, 95 ... pressure sensor.

Claims (16)

端末装置およびサーバ装置を備え、
前記端末装置は、
通信網を介して画像データの送受信を行う手段と、
前記通信網を介して受信される画像データを表示する手段を備え、
前記サーバ装置は、
化粧品の色彩に関する情報を少なくとも含む化粧品データを記憶する化粧品データ記憶手段と、
身体に化粧が施される過程を示すプロセスデータを記憶するプロセスデータ記憶手段と、
前記端末装置から、前記通信網を介して、顧客の身体の画像を示す静止画データを受信する静止画データ受信手段と、
前記化粧品データ記憶手段に記憶された化粧品データと、前記プロセスデータ記憶手段に記憶されたプロセスデータと、前記静止画データ受信手段により受信された前記顧客の身体の画像を示す静止画データとに基づいて、前記顧客に化粧を施した場合における当該顧客の身体の表面の時間的変化を表す動画データを作成する動画データ作成手段と、
前記動画データ作成手段により作成された動画データを、前記通信網を介して、前記端末装置に送信する動画データ送信手段と
を備える
ことを特徴とする化粧品ガイダンスシステム。
A terminal device and a server device,
The terminal device
Means for transmitting and receiving image data via a communication network;
Means for displaying image data received via the communication network;
The server device
Cosmetic data storage means for storing cosmetic data including at least information on the color of the cosmetic;
Process data storage means for storing process data indicating a process in which makeup is applied to the body;
Still image data receiving means for receiving still image data indicating a customer's body image from the terminal device via the communication network;
Based on cosmetic data stored in the cosmetic data storage means, process data stored in the process data storage means, and still image data indicating an image of the customer's body received by the still image data receiving means. Moving image data creating means for creating moving image data representing a temporal change in the surface of the customer's body when applying makeup to the customer;
A cosmetic guidance system comprising: moving image data transmitting means for transmitting the moving image data generated by the moving image data generating means to the terminal device via the communication network.
化粧品の色彩に関する情報を少なくとも含む化粧品データを記憶する化粧品データ記憶手段と、
身体に化粧が施される過程を示すプロセスデータを記憶するプロセスデータ記憶手段と、
端末装置から、通信網を介して、顧客の身体の画像を示す静止画データを受信する静止画データ受信手段と、
前記化粧品データ記憶手段に記憶された化粧品データと、前記プロセスデータ記憶手段に記憶されたプロセスデータと、前記静止画データ受信手段により受信された前記顧客の身体の画像を示す静止画データとに基づいて、前記顧客に化粧を施した場合における当該顧客の身体の表面における色彩の時間的変化を表す動画データを作成する動画データ作成手段と、
前記動画データ作成手段により作成された動画データを、前記通信網を介して、前記端末装置に送信する動画データ送信手段と
を備えることを特徴とするサーバ装置。
Cosmetic data storage means for storing cosmetic data including at least information on the color of the cosmetic;
Process data storage means for storing process data indicating a process in which makeup is applied to the body;
Still image data receiving means for receiving still image data indicating a customer's body image from a terminal device via a communication network;
Based on cosmetic data stored in the cosmetic data storage means, process data stored in the process data storage means, and still image data indicating an image of the customer's body received by the still image data receiving means. Moving image data creating means for creating moving image data representing a temporal change in color on the surface of the customer's body when applying makeup to the customer;
A server device comprising: moving image data transmitting means for transmitting the moving image data generated by the moving image data generating means to the terminal device via the communication network.
前記プロセスデータ記憶手段に記憶されるプロセスデータは、身体に化粧が施される過程における化粧用具の動作を時系列で示す時系列データを含み、
前記動画データ作成手段は、前記プロセスデータ記憶手段に記憶されるプロセスデータに含まれる時系列データに基づいて、前記顧客の身体の表面における色彩の時間的変化を求め、当該色彩の時間的変化を表す動画データを作成する
ことを特徴とする請求項2に記載のサーバ装置。
The process data stored in the process data storage means includes time-series data indicating the operation of the cosmetic device in the process of applying makeup on the body in time series,
The moving image data creating means obtains a temporal change in color on the surface of the customer's body based on time series data included in the process data stored in the process data storage means, and calculates the temporal change in the color. The server apparatus according to claim 2, wherein moving image data to be expressed is created.
前記端末装置から、前記通信網を介して、1のプロセスデータを特定可能なプロセス識別データを受信するプロセス識別データ受信手段を備え、
前記動画データ作成手段は、前記プロセス識別データ受信手段により受信されたプロセス識別データにより特定されるプロセスデータに基づき、動画データを作成する
ことを特徴とする請求項2に記載のサーバ装置。
Process identification data receiving means for receiving process identification data capable of specifying one process data from the terminal device via the communication network,
The server apparatus according to claim 2, wherein the moving image data creating unit creates moving image data based on the process data specified by the process identification data received by the process identification data receiving unit.
前記端末装置から、前記通信網を介して、1の化粧品データを特定可能な化粧品識別データを1以上、受信する化粧品識別データ受信手段を備え、
前記動画データ作成手段は、前記化粧品識別データ受信手段により受信された化粧品識別データにより特定される化粧品データに基づき、動画データを作成する
ことを特徴とする請求項2に記載のサーバ装置。
A cosmetic identification data receiving means for receiving one or more cosmetic identification data capable of specifying one cosmetic data from the terminal device via the communication network;
The server apparatus according to claim 2, wherein the moving image data creating unit creates moving image data based on cosmetic data specified by the cosmetic identification data received by the cosmetic identification data receiving unit.
前記端末装置から、前記通信網を介して、化粧品の属性に関する条件を示す条件データを受信する条件データ受信手段と、
前記化粧品データ記憶手段により記憶される1以上の化粧品データから、前記条件データ受信手段により受信された条件データにより示される条件を満たす化粧品に関する化粧品データを抽出する化粧品データ抽出手段と、
前記端末装置に、前記通信網を介して、前記化粧品データ抽出手段により抽出された化粧品データの各々を特定可能な化粧品識別データを1以上含む化粧品リストを送信する化粧品リスト送信手段と
を備えることを特徴とする請求項5に記載のサーバ装置。
Condition data receiving means for receiving condition data indicating conditions relating to cosmetic attributes from the terminal device via the communication network;
Cosmetic data extraction means for extracting cosmetic data relating to cosmetics that satisfy the condition indicated by the condition data received by the condition data receiving means from one or more cosmetic data stored by the cosmetic data storage means;
A cosmetic list transmitting means for transmitting a cosmetic list including at least one cosmetic identification data capable of specifying each of the cosmetic data extracted by the cosmetic data extracting means to the terminal device via the communication network; The server device according to claim 5, wherein:
前記端末装置に、前記通信網を介して、前記化粧品データ記憶手段に記憶される1の化粧品データを特定可能な化粧品識別データを1以上と、該1以上の化粧品識別データのいずれかに対応付けられたメッセージを示すメッセージデータを1以上含む、化粧品リストを送信する化粧品リスト送信手段
を備えることを特徴とする請求項5に記載のサーバ装置。
The terminal device is associated with one or more cosmetic identification data capable of specifying one cosmetic data stored in the cosmetic data storage means via the communication network and any one of the one or more cosmetic identification data. The server apparatus according to claim 5, further comprising: a cosmetic list transmission unit that transmits a cosmetic list including at least one message data indicating the received message.
前記端末装置から、前記通信網を介して、顧客の属性を示す属性データを受信する属性データ受信手段と、
前記化粧品識別データ受信手段により受信された化粧品識別データにより特定される化粧品データに関するデータを、前記属性データ受信手段により受信された属性データと対応付けて、マーケティング関連データとして記憶するマーケティング関連データ記憶手段と
を備えることを特徴とする請求項5に記載のサーバ装置。
Attribute data receiving means for receiving attribute data indicating customer attributes from the terminal device via the communication network;
Marketing related data storage means for storing data relating to cosmetic data specified by the cosmetic identification data received by the cosmetic identification data receiving means in association with attribute data received by the attribute data receiving means and storing it as marketing related data The server apparatus according to claim 5, further comprising:
化粧品の販売店を特定可能な販売店識別データと、化粧品を特定可能な化粧品識別データと、該化粧品識別データに対応付けられた価格を示す価格データとを含む、販売店データを1以上、記憶する販売店データ記憶手段と、
前記端末装置から、前記通信網を介して、1の化粧品データを特定可能な化粧品識別データと、該化粧品識別データに対応付けられた数量を示す数量データとの組を1以上含む、購入申込データを受信する購入申込データ受信手段と、
前記販売店データ記憶手段に記憶され、前記購入申込データ受信手段により受信された購入申込データに含まれる化粧品識別データと同じ内容を含む販売店データに含まれる価格データと、該購入申込データに含まれる数量データに基づき、費用に関する費用データを算出する算出手段と、
前記算出手段により算出された費用データを、前記通信網を介して、前記端末装置に送信する費用データ送信手段と
を備えることを特徴とする請求項2に記載のサーバ装置。
Store one or more store data including store identification data that can specify a store for cosmetics, cosmetic identification data that can specify cosmetics, and price data that indicates a price associated with the cosmetic identification data Store data storage means,
Purchase application data including at least one set of cosmetic identification data capable of specifying one cosmetic data and quantity data indicating a quantity associated with the cosmetic identification data from the terminal device via the communication network Purchase application data receiving means for receiving,
Price data included in the store data including the same contents as the cosmetic identification data included in the purchase application data received by the purchase application data receiving unit and stored in the store data storage unit, and included in the purchase application data Calculation means for calculating cost data related to costs based on
The server apparatus according to claim 2, further comprising: cost data transmission means for transmitting the cost data calculated by the calculation means to the terminal device via the communication network.
化粧用具を用いて行われる操作を検出するセンサー部と、
前記センサー部によって検出される前記化粧用具の操作の内容に基づいて、仮想的な人体の表面上における化粧用具の接触位置と接触圧力を表すデータである処理データを生成する処理データ生成手段と、
前記処理データ生成手段によって生成される処理データを記憶する記憶手段と
を備えることを特徴とする端末装置。
A sensor unit for detecting an operation performed using a cosmetic tool;
Processing data generating means for generating processing data that is data representing the contact position and the contact pressure of the cosmetic tool on the surface of the virtual human body based on the content of the operation of the cosmetic tool detected by the sensor unit;
Storage means for storing processing data generated by the processing data generation means.
前記センサー部は圧力を計測する圧力センサーを複数有し、
前記複数の圧力センサーの各々は、前記仮想的な人体を模した立体物の表面に配置され、配置されている位置における圧力を計測する
ことを特徴とする請求項10に記載の端末装置。
The sensor unit has a plurality of pressure sensors for measuring pressure,
11. The terminal device according to claim 10, wherein each of the plurality of pressure sensors is arranged on a surface of a three-dimensional object imitating the virtual human body, and measures a pressure at the arranged position.
前記センサー部は一定値以上の圧力を検出するタッチセンサーを複数と、前記化粧用具に加えられる圧力を計測する圧力センサーとを有し、
前記複数のタッチセンサーの各々は、前記仮想的な人体を模した立体物の表面に配置され、配置されている位置における圧力を検出する
ことを特徴とする請求項10に記載の端末装置。
The sensor unit includes a plurality of touch sensors that detect a pressure equal to or higher than a certain value, and a pressure sensor that measures the pressure applied to the cosmetic device,
11. The terminal device according to claim 10, wherein each of the plurality of touch sensors is arranged on a surface of a three-dimensional object imitating the virtual human body, and detects a pressure at the arranged position.
前記仮想的な人体を表す2次元もしくは3次元の画像を表示する表示手段を備え、
前記センサー部は圧力を計測する圧力センサーを複数有し、
前記複数の圧力センサーの各々は、前記表示手段の表示画面を覆うパネルの表面に配置され、配置されている位置における圧力を計測する
ことを特徴とする請求項10に記載の端末装置。
Display means for displaying a two-dimensional or three-dimensional image representing the virtual human body,
The sensor unit has a plurality of pressure sensors for measuring pressure,
Each of these pressure sensors is arrange | positioned on the surface of the panel which covers the display screen of the said display means, and measures the pressure in the arrange | positioned position. The terminal device of Claim 10 characterized by the above-mentioned.
前記仮想的な人体を表す2次元もしくは3次元の画像を表示する表示手段を備え、
前記センサー部は一定値以上の圧力を検出するタッチセンサーを複数と、前記化粧用具に加えられる圧力を計測する圧力センサーとを有し、
前記複数のタッチセンサーの各々は、前記表示手段の表示画面を覆うパネルの表面に配置され、配置されている位置における圧力を検出する
ことを特徴とする請求項10に記載の端末装置。
Display means for displaying a two-dimensional or three-dimensional image representing the virtual human body,
The sensor unit includes a plurality of touch sensors that detect a pressure equal to or higher than a certain value, and a pressure sensor that measures the pressure applied to the cosmetic device,
Each of these touch sensors is arrange | positioned on the surface of the panel which covers the display screen of the said display means, and detects the pressure in the arrange | positioned position. The terminal device of Claim 10 characterized by the above-mentioned.
前記表示手段は、前記記憶手段に記憶された処理データに基づいて、前記化粧用具の動作の軌跡を表す画像を生成し、前記仮想的な人体を表す画像とともに表示する
ことを特徴とする請求項13または14に記載の端末装置。
The said display means produces | generates the image showing the locus | trajectory of the operation | movement of the said cosmetics based on the process data memorize | stored in the said memory | storage means, It displays with the image showing the said virtual human body. The terminal device according to 13 or 14.
化粧品の色彩に関する情報を少なくとも含む化粧品データを記憶する化粧品データ記憶処理と、
身体に化粧が施される過程を示すプロセスデータを記憶するプロセスデータ記憶処理と、
端末装置から、通信網を介して、顧客の身体の画像を示す静止画データを受信する静止画データ受信処理と、
前記化粧品データ記憶処理において記憶された化粧品データと、前記プロセスデータ記憶処理において記憶されたプロセスデータと、前記静止画データ受信処理において受信された前記顧客の身体の画像を示す静止画データとに基づいて、前記顧客に化粧を施した場合における当該顧客の身体の表面における色彩の時間的変化を表す動画データを作成する動画データ作成処理と、
前記動画データ作成処理において作成された動画データを、前記通信網を介して、前記端末装置に送信する動画データ送信処理と
をコンピュータに実行させるプログラム。
Cosmetic data storage processing for storing cosmetic data including at least information on the color of the cosmetic;
A process data storage process for storing process data indicating a process in which makeup is applied to the body;
Still image data reception processing for receiving still image data indicating a customer's body image from a terminal device via a communication network;
Based on cosmetic data stored in the cosmetic data storage process, process data stored in the process data storage process, and still image data indicating an image of the customer's body received in the still image data reception process Video data creation processing for creating video data representing temporal changes in color on the surface of the customer's body when applying makeup to the customer;
A program that causes a computer to execute moving image data transmission processing for transmitting moving image data created in the moving image data creation processing to the terminal device via the communication network.
JP2003280074A 2003-07-25 2003-07-25 Cosmetics guidance system, server apparatus, terminal device and program Withdrawn JP2005044283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003280074A JP2005044283A (en) 2003-07-25 2003-07-25 Cosmetics guidance system, server apparatus, terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003280074A JP2005044283A (en) 2003-07-25 2003-07-25 Cosmetics guidance system, server apparatus, terminal device and program

Publications (1)

Publication Number Publication Date
JP2005044283A true JP2005044283A (en) 2005-02-17

Family

ID=34266008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003280074A Withdrawn JP2005044283A (en) 2003-07-25 2003-07-25 Cosmetics guidance system, server apparatus, terminal device and program

Country Status (1)

Country Link
JP (1) JP2005044283A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102440A1 (en) * 2007-02-21 2008-08-28 Tadashi Goino Makeup face image creating device and method
JP2008217586A (en) * 2007-03-06 2008-09-18 Keio Gijuku Makeup support system
JP2009060516A (en) * 2007-09-03 2009-03-19 Recovery Judge Kk Sales promotion supporting system and method
JP2010073164A (en) * 2008-09-22 2010-04-02 Shiseido Co Ltd Lipstick selection method, lipstick selection device, and lipstick selection program
KR101374164B1 (en) * 2013-02-18 2014-03-13 명지대학교 산학협력단 System for selecting career using classification of hierarchical facial feature and method therefor
WO2017110041A1 (en) * 2015-12-25 2017-06-29 パナソニックIpマネジメント株式会社 Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
JP2017120588A (en) * 2015-12-28 2017-07-06 株式会社オプティム Screen sharing system, screen sharing method, and screen sharing program
JP2018189894A (en) * 2017-05-10 2018-11-29 株式会社桃谷順天館 Makeup guidance device, makeup guidance program and makeup guidance system
WO2019130933A1 (en) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 Physical appearance correction assistance device, physical appearance correction assistance method, and computer program
CN110025116A (en) * 2018-01-11 2019-07-19 卡西欧计算机株式会社 Device for informing, report method and recording medium
US10691932B2 (en) 2018-02-06 2020-06-23 Perfect Corp. Systems and methods for generating and analyzing user behavior metrics during makeup consultation sessions
JP2021051518A (en) * 2019-09-24 2021-04-01 カシオ計算機株式会社 Image processing device, makeup simulation device, image processing method and program
JP2021518785A (en) * 2018-04-27 2021-08-05 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company Methods and systems for improving user compliance of surface-applied products

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102440A1 (en) * 2007-02-21 2008-08-28 Tadashi Goino Makeup face image creating device and method
JP5085636B2 (en) * 2007-02-21 2012-11-28 正 五井野 Makeup face image generating apparatus, method thereof, server and program
JP2008217586A (en) * 2007-03-06 2008-09-18 Keio Gijuku Makeup support system
JP2009060516A (en) * 2007-09-03 2009-03-19 Recovery Judge Kk Sales promotion supporting system and method
JP2010073164A (en) * 2008-09-22 2010-04-02 Shiseido Co Ltd Lipstick selection method, lipstick selection device, and lipstick selection program
KR101374164B1 (en) * 2013-02-18 2014-03-13 명지대학교 산학협력단 System for selecting career using classification of hierarchical facial feature and method therefor
US10783672B2 (en) 2015-12-25 2020-09-22 Panasonic Intellectual Property Management Co., Ltd. Makeup part generating apparatus, makeup part utilizing apparatus, makeup part generating method, makeup part utilizing method, non-transitory computer-readable recording medium storing makeup part generating program, and non-transitory computer-readable recording medium storing makeup part utilizing program
WO2017110041A1 (en) * 2015-12-25 2017-06-29 パナソニックIpマネジメント株式会社 Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
CN108292423A (en) * 2015-12-25 2018-07-17 松下知识产权经营株式会社 Local dressing producing device, local dressing utilize program using device, local dressing production method, local dressing using method, local dressing production process and local dressing
JPWO2017110041A1 (en) * 2015-12-25 2018-10-11 パナソニックIpマネジメント株式会社 Make-part creation device, make-part use device, make-part creation method, make-part use method, make-part creation program, and make-part use program
EP3396619A4 (en) * 2015-12-25 2019-05-08 Panasonic Intellectual Property Management Co., Ltd. Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
CN108292423B (en) * 2015-12-25 2021-07-06 松下知识产权经营株式会社 Partial makeup making, partial makeup utilizing device, method, and recording medium
JP2017120588A (en) * 2015-12-28 2017-07-06 株式会社オプティム Screen sharing system, screen sharing method, and screen sharing program
JP2018189894A (en) * 2017-05-10 2018-11-29 株式会社桃谷順天館 Makeup guidance device, makeup guidance program and makeup guidance system
WO2019130933A1 (en) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 Physical appearance correction assistance device, physical appearance correction assistance method, and computer program
CN110025116A (en) * 2018-01-11 2019-07-19 卡西欧计算机株式会社 Device for informing, report method and recording medium
CN110025116B (en) * 2018-01-11 2022-08-23 卡西欧计算机株式会社 Notification device, notification method, and recording medium
US10691932B2 (en) 2018-02-06 2020-06-23 Perfect Corp. Systems and methods for generating and analyzing user behavior metrics during makeup consultation sessions
JP2021518785A (en) * 2018-04-27 2021-08-05 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company Methods and systems for improving user compliance of surface-applied products
JP2021051518A (en) * 2019-09-24 2021-04-01 カシオ計算機株式会社 Image processing device, makeup simulation device, image processing method and program
JP7476505B2 (en) 2019-09-24 2024-05-01 カシオ計算機株式会社 IMAGE PROCESSING DEVICE, MAKEUP SIMULATION DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP6778877B2 (en) Makeup parts creation device, makeup parts utilization device, makeup parts creation method, makeup parts usage method, makeup parts creation program, and makeup parts utilization program
US11281366B2 (en) System and method for providing highly personalized information regarding products and services
CN104205162B (en) Cosmetic servicing unit and cosmetic auxiliary method
US7006657B2 (en) Methods for enabling evaluation of typological characteristics of external body portion, and related devices
JP6132232B2 (en) Makeup support device, makeup support system, and makeup support method
JP3984191B2 (en) Virtual makeup apparatus and method
TW522346B (en) A system for assisting customers in selecting an optimum color cosmetic product
CN109840825A (en) The recommender system of physical features based on user
JP4435809B2 (en) Virtual makeup apparatus and method
US20090018926A1 (en) Web-based virtual clothing coordinator including personal mannequin with customer-directed measurements, image modification and clothing
EP1196893B1 (en) Colour cosmetic selection system
EP1313046A1 (en) Personal color ordering system and personal color ordering method
JP2005044283A (en) Cosmetics guidance system, server apparatus, terminal device and program
WO2017115453A1 (en) Makeup simulation assistance device, makeup simulation assistance method, and makeup simulation assistance program
JPWO2015122195A1 (en) Impression analysis device, game device, health management device, advertisement support device, impression analysis system, impression analysis method, and program
JPWO2017125975A1 (en) Makeup trend analyzer, makeup trend analysis method, and makeup trend analysis program
CN112465606A (en) Cosmetic customization system
EP1326179A2 (en) Shop-in-a-shop website construction
JP2006081847A (en) Skin analysis network system
JP2002132916A (en) Method for providing advice on makeup
JP2008003850A (en) Fit feeling judgment support system
CN110119868A (en) The system and method for being generated in color make-up advisory meeting and analyzing user behavior index
JP2002109307A (en) Simulation system and method, and computer-readable recording medium
JP6296305B2 (en) Makeup support device, makeup support method, and makeup support program
US20240232979A9 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061003