JP2005181688A - Makeup presentation - Google Patents

Makeup presentation Download PDF

Info

Publication number
JP2005181688A
JP2005181688A JP2003422570A JP2003422570A JP2005181688A JP 2005181688 A JP2005181688 A JP 2005181688A JP 2003422570 A JP2003422570 A JP 2003422570A JP 2003422570 A JP2003422570 A JP 2003422570A JP 2005181688 A JP2005181688 A JP 2005181688A
Authority
JP
Japan
Prior art keywords
face image
data
cosmetic
face
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003422570A
Other languages
Japanese (ja)
Inventor
Shingo Kondo
真悟 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Menard Cosmetic Co Ltd
Original Assignee
Nippon Menard Cosmetic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Menard Cosmetic Co Ltd filed Critical Nippon Menard Cosmetic Co Ltd
Priority to JP2003422570A priority Critical patent/JP2005181688A/en
Publication of JP2005181688A publication Critical patent/JP2005181688A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To effectively and plainly appeal the combinations of various kinds of cosmetics and makeup procedures to users in makeup presentation. <P>SOLUTION: In a makeup presentation system 1, a CPU 400 acquires cosmetic data and plain face image data and generates decorated face image data on the basis of the acquired cosmetic data and plain face image data. The generated decorated face image data are protected to a three-dimensional image 10 by a projector 20. Thereby a demonstrator can perform makeup presentation while quickly projecting a face image decorated by makeup intended by the demonstrator herself (or himself). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、メイクアッププレゼンテーション技術に関し、特に多種多様な化粧品の迅速なプレゼンテーションを実現する技術に関する。   The present invention relates to makeup presentation technology, and more particularly to technology for realizing a quick presentation of a wide variety of cosmetics.

化粧品の新製品等をユーザーに発表、紹介、宣伝するプレゼンテーションにおいては、使用時における化粧品の質感、色調、雰囲気や、その化粧品を用いたメイクアップ手法等をユーザーに分かりやすくアピールすることが重要であるが、実演者がこれを口頭のみで行うことは極めて困難である。そのため、化粧品のプレゼンテーションにおいては、ユーザーの視覚に訴えるための何らかのプレゼンテーション支援手段が必要になる。従来は、化粧を施したモデルを予め撮影して作成された映像を記録したVTRの放映、あるいは実際にモデルに化粧を施すデモンストレーションにより行われていた。   In presentations that announce, introduce, and promote new cosmetic products to users, it is important to appeal to the user in terms of the texture, color, and atmosphere of cosmetics when using them, and make-up techniques using the cosmetics. However, it is extremely difficult for a performer to do this verbally. Therefore, in the presentation of cosmetics, some presentation support means for appealing to the user's vision is required. Conventionally, it has been performed by broadcasting a VTR that records an image created by photographing a model with makeup in advance, or by a demonstration of actually applying makeup to a model.

しかしながら、現在、ユーザーの好みや要求が多様化し、それに応える形で多種多様な化粧品類が開発、販売されている。また、化粧品は、それを使用する人の肌の状態、色調等によって、使用時の質感、色調、印象等が大きく異なるものである。したがって、口紅、ファンデーション、マスカラ等の化粧品どうしの組み合わせ、さらにはこれらと人の肌のタイプ等との組み合わせは極めて多種多様になる。   At present, however, user preferences and requirements have diversified, and a wide variety of cosmetics have been developed and marketed in response to such needs. In addition, the cosmetics are greatly different in texture, color tone, impression, etc. during use depending on the skin condition, color tone, etc. of the person who uses the cosmetic product. Therefore, combinations of cosmetics such as lipsticks, foundations and mascaras, and combinations of these with human skin types are extremely diverse.

かかる現状において、予め作成された映像を放映する方法では、ユーザーの要望に応じて、その場で様々な組み合わせやメイクアップ手法を視覚的に再現することはできないという問題があった。一方、実際にモデルを使用する方法では、限られたモデルの肌タイプと化粧品との組み合わせしか再現できず、また、化粧を変更するにはモデルが化粧落としをする必要があり、ユーザーの要望に柔軟かつ迅速に応えることはできないという問題があった。   Under such circumstances, there is a problem that in the method of broadcasting a previously created video, various combinations and makeup techniques cannot be visually reproduced on the spot according to the user's request. On the other hand, the method of actually using a model can reproduce only a combination of skin types and cosmetics of a limited model, and the model needs to remove makeup to change the makeup. There was a problem that it was not possible to respond flexibly and quickly.

本発明は、メイクアッププレゼンテーションにおいて、ユーザーの要望等に迅速に対応して、多種多様な化粧品の組み合わせやメイクアップ手法をユーザーに効果的に分かりやすく表示することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to display a wide variety of cosmetic combinations and makeup techniques in an easy-to-understand manner effectively for a user in a makeup presentation in a prompt manner.

上記課題の少なくとも一部を解決するために、本発明の第1の態様は、メイクアッププレゼンテーション方法を提供する。本発明の第1の態様に係るメイクアッププレゼンテーション方法は、素顔を表す素顔画像データを取得し、前記取得した素顔画像データを用いて、3次元像に顔画像を投影し、前記投影されている顔画像の装飾に使用する化粧品データを取得し、前記取得した化粧品データと、前記取得した素顔画像データとに基づいて、装飾顔画像データを生成し、前記投影中の素顔画像データに代えて、前記生成した装飾顔画像データを用いて、前記3次元像に装飾された顔画像を投影することを特徴とする。   In order to solve at least a part of the above problems, a first aspect of the present invention provides a makeup presentation method. The makeup presentation method according to the first aspect of the present invention acquires the face image data representing the face, projects the face image on a three-dimensional image using the obtained face image data, and projects the face image data. Obtaining cosmetic data to be used for decoration of a face image, generating decorative face image data based on the acquired cosmetic data and the acquired bare face image data, instead of the face image data being projected, The face image decorated on the three-dimensional image is projected using the generated decoration face image data.

本発明の第1の態様に係るメイクアッププレゼンテーション方法によれば、取得した化粧品データと、素顔画像データとに基づいて、装飾顔画像データを生成し、投影することができる。したがって、実演者は、メイクアッププレゼンテーションの最中に化粧品データを入力することによって、多種多様な化粧品から選択した化粧品によってメイクアップされた顔画像を迅速に表示することができる。また、3次元像に顔画像を投影することで、化粧品の持つ質感や色調、および、その化粧品を用いたメイクアップ手法をよりリアルに表現でき、ユーザーに効果的に分かりやすく表示することができる。   According to the makeup presentation method according to the first aspect of the present invention, decorative face image data can be generated and projected based on the acquired cosmetic data and the face image data. Therefore, the performer can quickly display the face image made up by the cosmetics selected from a wide variety of cosmetics by inputting the cosmetic data during the makeup presentation. In addition, by projecting a face image onto a three-dimensional image, the texture and color tone of cosmetics and the makeup method using the cosmetics can be expressed more realistically, and can be displayed effectively and clearly to the user. .

本発明の第1の態様に係るメイクアッププレゼンテーション方法において、前記装飾された顔画像を投影中に装飾の変更要求があった場合には、前記装飾された顔画像をさらに装飾するために使用する化粧品データを取得し、前記取得した化粧品データに基づいて、前記装飾顔画像データを変更し、前記投影中の装飾顔画像データに代えて、前記変更した装飾顔画像データを用いて、前記3次元像に装飾された顔画像を投影するのが好ましい。   In the makeup presentation method according to the first aspect of the present invention, when there is a decoration change request while projecting the decorated face image, it is used to further decorate the decorated face image. Acquiring cosmetic data, changing the decorative face image data based on the acquired cosmetic data, and using the changed decorative face image data instead of the decorative face image data being projected, the three-dimensional It is preferable to project a face image decorated on the image.

かかる場合には、一旦、メイクアップした装飾顔画像を投影した後にも、要求に応じて取得した化粧品データに基づいて、投影中の装飾顔画像を変更することができる。したがって、実演者は、メイクアッププレゼンテーションにおいて、柔軟かつ迅速に顔画像に施される化粧品の追加や、化粧品の組み合わせの変更をすることができる。   In such a case, the projected decorative face image can be changed on the basis of the cosmetic data acquired in response to the request even after once projecting the decorated decorative face image. Therefore, the performer can add cosmetics to be applied to the face image flexibly and quickly and change the combination of cosmetics in the makeup presentation.

本発明の第1の態様に係るメイクアッププレゼンテーション方法において、前記装飾された顔画像を投影中に素顔の変更要求があった場合には、前記素顔画像を変更するための素顔データを取得し、前記取得した素顔データに基づいて、素顔画像データを変更し、前記変更した素顔画像データに基づいて、前記装飾顔画像データを変更し、前記投影中の装飾顔画像データに代えて、前記変更した装飾顔画像データを用いて、前記3次元像に装飾された顔画像を投影するのが好ましい。   In the makeup presentation method according to the first aspect of the present invention, if there is a request to change the face during projection of the decorated face image, obtain face data for changing the face image, Based on the acquired face image data, the face image data is changed, the face image data is changed based on the changed face image data, and the changed face image data is changed instead of the face image data being projected. It is preferable to project the face image decorated on the three-dimensional image using the decorative face image data.

かかる場合には、装飾顔画像を投影中に、要求に応じて取得した素顔データに基づいて、投影中の装飾顔画像のベースとなる素顔画像を変更することができる。したがって、実演者は、メイクアッププレゼンテーションにおいて、素顔と化粧品の組み合わせを迅速に変更することができる。   In such a case, during the projection of the decorative face image, it is possible to change the real face image that is the base of the decorative face image being projected based on the raw face data acquired upon request. Therefore, the performer can quickly change the combination of the face and cosmetics in the makeup presentation.

本発明の第1の態様に係るメイクアッププレゼンテーション方法において、前記化粧品データは、顔画像上における装飾を施すべき位置情報を含んでおり、前記位置情報に基づいて、顔画像において化粧品による装飾を施す位置を特定し、前記装飾顔画像データを生成または変更する際には、前記化粧品データに加えて、前記位置情報を用いても良い。   In the makeup presentation method according to the first aspect of the present invention, the cosmetic data includes position information to be decorated on the face image, and the face image is decorated with cosmetics based on the position information. When specifying the position and generating or changing the decorative face image data, the position information may be used in addition to the cosmetic data.

かかる場合には、化粧品データには、装飾を施すべき位置情報が含まれており、かかる位置情報を用いて、装飾顔画像データを生成または変更することができる。この結果、実演者が意図した顔画像データの生成または変更を的確に行うことができる。   In such a case, the cosmetic data includes position information to be decorated, and the decoration face image data can be generated or changed using the position information. As a result, it is possible to accurately generate or change the face image data intended by the performer.

本発明の第1の態様に係るメイクアッププレゼンテーション方法において、顔画像において化粧品による装飾を施す位置情報を取得し、前記装飾顔画像データを生成または変更する際には、前記化粧品データに加えて、前記取得した位置情報を用いても良い。   In the makeup presentation method according to the first aspect of the present invention, when acquiring position information to be decorated with cosmetics in a face image and generating or changing the decorative face image data, in addition to the cosmetic data, The acquired position information may be used.

かかる場合には、化粧品データに加えて、装飾または変更を施す位置情報を取得し、これらに基づいて装飾顔画像データを生成または変更することができる。この結果、実演者が意図した顔画像データの生成または変更を的確に行うことができる。   In such a case, in addition to the cosmetic data, position information to be decorated or changed can be acquired, and decorated face image data can be generated or changed based on these. As a result, it is possible to accurately generate or change the face image data intended by the performer.

本発明の第1の態様に係るメイクアッププレゼンテーション方法において、前記化粧品データまたは前記素顔データの取得は、前記化粧品データを特定するための化粧品情報、または前記素顔データを特定するための素顔情報を取得し、予め化粧品データまたは素顔データを記憶した記憶装置から、前記取得した化粧品情報または前記素顔情報に対応する化粧品データまたは素顔データを取得することによって行われても良い。   In the makeup presentation method according to the first aspect of the present invention, the cosmetic data or the face data is acquired by acquiring cosmetic information for specifying the cosmetic data or face information for specifying the face data. Then, it may be performed by acquiring cosmetic data or facial data corresponding to the acquired cosmetic information or the facial information from a storage device that stores cosmetic data or facial data in advance.

かかる場合には、取得した化粧品情報、素顔情報に基づいて、予め化粧品データや素顔データを記録した記憶装置から対応する化粧品データ、素顔データを取得することができる。この結果、実演者によって入力された簡単な化粧品情報、素顔情報だけで、実演者の意図した顔画像データを生成または変更することができる。   In such a case, based on the acquired cosmetic information and face information, the corresponding cosmetic data and face data can be acquired from a storage device in which the cosmetic data and face data are recorded in advance. As a result, the facial image data intended by the performer can be generated or changed only by simple cosmetic information and face information input by the performer.

上記のメイクアッププレゼンテーション方法において、前記化粧品情報または前記素顔情報の取得は、前記化粧品情報または前記素顔情報を含む音声情報を取得し、前記取得した音声情報を文字情報に変換し、前記変換された文字情報から、前記化粧品情報または素顔情報を抽出して認識することによって行われても良い。   In the makeup presentation method, the cosmetic information or the face information is acquired by acquiring voice information including the cosmetic information or the face information, converting the acquired voice information into character information, and converting the converted information. It may be performed by extracting and recognizing the cosmetic information or the face information from character information.

かかる場合には、化粧品情報または素顔情報の取得は、取得した音声情報から化粧品情報、または素顔情報を認識することによって行うことができる。この結果、実演者が音声によって化粧品情報、素顔情報を入力することで、実演者の意図した顔画像データを生成または変更することができる。   In such a case, the cosmetic information or the face information can be acquired by recognizing the cosmetic information or the face information from the acquired voice information. As a result, the face image data intended by the performer can be generated or changed when the performer inputs the cosmetic information and the face information by voice.

本発明の第2の態様は、メイクアッププレゼンテーション方法を提供する。本発明の第2の態様に係るメイクアッププレゼンテーション方法は、素顔を表す素顔画像データを取得し、前記取得した素顔画像データを用いて、3次元像に顔画像を投影し、前記投影されている顔画像の装飾に使用する化粧品データを取得し、前記取得した化粧品データに基づいて、装飾を施すべき領域に対応する形状の装飾画像データを生成し、前記3次元像に投影した顔画像に重ねて、前記生成した装飾画像データを用いた装飾画像を投影することを特徴とする。   The second aspect of the present invention provides a makeup presentation method. In the makeup presentation method according to the second aspect of the present invention, the face image data representing the face is acquired, and the face image is projected onto a three-dimensional image using the acquired face image data, and the projection is performed. Obtaining cosmetic data to be used for decoration of a face image, generating decorative image data having a shape corresponding to a region to be decorated based on the acquired cosmetic data, and overlaying the face image projected on the three-dimensional image Then, a decoration image using the generated decoration image data is projected.

本発明の第2の態様に係るメイクアッププレゼンテーション方法によれば、取得した化粧品データに基づいて、装飾画像データを生成し、素顔画像に重ねて投影することができる。したがって、実演者は、メイクアッププレゼンテーションの最中に化粧品データを入力することによって、多種多様な化粧品から選択した化粧品によってメイクアップされた顔画像を迅速に表示することができる。また、3次元像に顔画像を投影することで、化粧品の持つ質感や色調、および、その化粧品を用いたメイクアップ手法をよりリアルに表現でき、ユーザーに効果的に分かりやすく表示することができる。   According to the makeup presentation method according to the second aspect of the present invention, it is possible to generate decoration image data based on the acquired cosmetic data and project the decoration image data on the face image. Therefore, the performer can quickly display the face image made up by the cosmetics selected from a wide variety of cosmetics by inputting the cosmetic data during the makeup presentation. In addition, by projecting a face image onto a three-dimensional image, the texture and color tone of cosmetics and the makeup method using the cosmetics can be expressed more realistically, and can be displayed effectively and clearly to the user. .

本発明の第3の態様は、顔画像を投影するメイクアッププレゼンテーションシステムを提供する。本発明の第3の態様に係るメイクアッププレゼンテーションシステムは、スクリーンとして使用される3次元像と、素顔を表す素顔画像データを選択する素顔画像データ選択手段と、前記顔画像を装飾するための化粧品データを取得する化粧品データ取得手段と、前期素顔画像データと前期化粧品データとを用いて、装飾顔画像データを生成する装飾顔画像データ生成手段と、前記生成された装飾顔画像データ、または前記素顔画像データを用いて前記3次元像に顔画像を投影する投影手段を備えることを特徴とする。   A third aspect of the present invention provides a makeup presentation system that projects a face image. The makeup presentation system according to the third aspect of the present invention includes a three-dimensional image used as a screen, a face image data selection means for selecting face image data representing a face, and a cosmetic for decorating the face image Cosmetic data acquisition means for acquiring data, decorative face image data generation means for generating decorative face image data using the previous face image data and the previous face cosmetic data, and the generated decorative face image data or the face Projection means for projecting a face image onto the three-dimensional image using image data is provided.

本発明の第3の態様に係るメイクアッププレゼンテーションシステムによれば、取得した化粧品データと、選択した素顔画像データとを用いて装飾顔画像データを生成し、投影することができる。したがって、実演者がメイクアッププレゼンテーションの最中に、化粧品データを入力することによって、多種多様な化粧品から選択した化粧品によってメイクアップされた顔画像を迅速に表示することができる。また、3次元像に顔画像を投影することで、化粧品の持つ質感や色調、および、その化粧品を用いたメイクアップ手法をよりリアルに表示できる。   According to the makeup presentation system according to the third aspect of the present invention, the decorative face image data can be generated and projected using the acquired cosmetic data and the selected bare face image data. Therefore, when a performer inputs cosmetic data during a makeup presentation, a face image made up by a cosmetic selected from a wide variety of cosmetics can be quickly displayed. In addition, by projecting a face image on a three-dimensional image, the texture and color tone of the cosmetics and the makeup method using the cosmetics can be displayed more realistically.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムはさらに、前記生成された装飾顔画像データを変更する装飾顔画像データ変更手段を備え、前記化粧品データ取得手段が、前記装飾顔画像データを生成後にさらに前記化粧品データを取得した場合には、前記装飾顔画像データ変更手段は、前記さらに取得した化粧品データに基づいて、前記装飾顔画像データを変更するのが好ましい。   The makeup presentation system according to the third aspect of the present invention further includes a decoration face image data changing means for changing the generated decoration face image data, and the cosmetic data acquisition means generates the decoration face image data. When the cosmetic data is further acquired later, it is preferable that the decorative face image data changing means changes the decorative face image data based on the further acquired cosmetic data.

装飾顔画像データ生成後においても、さらに取得した化粧品情報に基づいて、装飾顔画像データを変更することができる。したがって、実演者は、メイクアッププレゼンテーションにおいて、柔軟かつ迅速に顔画像に施される化粧品の追加や、化粧品の組み合わせを変更することができる。 Even after the decoration face image data is generated, the decoration face image data can be changed based on the acquired cosmetic information. Therefore, the performer can add the cosmetics to be applied to the face image flexibly and quickly and change the combination of the cosmetics in the makeup presentation.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムはさらに、前記素顔画像データを変更するための素顔データを取得する素顔データ取得手段を備え、前記装飾顔画像データ変更手段は、前記取得した素顔データに基づいて、前記素顔画像データを変更し、前記変更した素顔画像データに基づいて、前記装飾顔画像データを変更するのが好ましい。   The makeup presentation system according to the third aspect of the present invention further includes a face data acquisition unit that acquires the face data for changing the face image data, and the decoration face image data change unit includes the acquired face image. It is preferable that the face image data is changed based on the data, and the decoration face image data is changed based on the changed face image data.

かかる場合には、取得した素顔データに基づいて、装飾された顔画像のベースとなる素顔画像を変更することができる。したがって、実演者は、メイクアッププレゼンテーションにおいて、素顔と化粧品の組み合わせを迅速に変更することができる。   In such a case, based on the acquired face data, the face image that is the base of the decorated face image can be changed. Therefore, the performer can quickly change the combination of the face and cosmetics in the makeup presentation.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムはさらに、顔画像において化粧品による装飾または素顔の変更を施す位置情報を取得する位置情報取得手段を備え、前記装飾顔画像データ生成手段、または前記装飾顔画像データ変更手段は、前記化粧品データまたは前記素顔データに加えて、前記位置情報を用いて前記装飾顔画像データを生成または変更しても良い。   The makeup presentation system according to the third aspect of the present invention further includes position information acquisition means for acquiring position information for applying decoration or a face change with cosmetics in the face image, the decoration face image data generation means, or The decorative face image data changing means may generate or change the decorative face image data using the position information in addition to the cosmetic data or the bare face data.

かかる場合には、化粧品データまたは素顔データに加えて、顔画像において化粧品による装飾または素顔の変更を施す位置情報を取得し、これらに基づいて装飾顔画像データを生成または変更することができる。この結果、実演者が意図した顔画像データの生成または変更をより的確に行うことができる。   In such a case, in addition to the cosmetic data or the face data, position information on the face image to which the decoration or face change by the cosmetics is applied can be acquired, and the decoration face image data can be generated or changed based on these. As a result, the generation or change of face image data intended by the performer can be performed more accurately.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムにおいて、前記位置情報取得手段は、前記位置情報を入力するタッチパネルと、前記入力された位置情報を顔画像における位置情報に変換して認識する位置情報認識手段であっても良い。   In the makeup presentation system according to the third aspect of the present invention, the position information acquisition means includes a touch panel for inputting the position information, and a position to be recognized by converting the input position information into position information in a face image. Information recognition means may be used.

かかる場合には、実演者は、タッチパネルによって、簡単に位置情報を入力することができる。   In such a case, the performer can easily input position information using the touch panel.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムにおいて、前記位置情報取得手段は、前記3次元像の顔画像投影面に配置されると共に、前記3次元像の顔画像投影面において指摘された位置情報を入力する触感センサと、前記入力された位置情報を顔画像における位置情報に変換して認識する位置情報認識手段であっても良い。   In the makeup presentation system according to the third aspect of the present invention, the position information acquisition means is arranged on the face image projection surface of the three-dimensional image and pointed out on the face image projection surface of the three-dimensional image. A tactile sensor that inputs position information and position information recognition means that converts the input position information into position information in a face image and recognizes the position information may be used.

かかる場合には、実演者が、3次元像の顔部分に触れることで、位置情報を入力することができる。この結果、入力した位置情報に基づいて、化粧を施した装飾顔画像を投影すると、あたかも実演者が実際に3次元像の顔部分にメイクアップを施しているかのようにみせることができる。   In such a case, the performer can input the position information by touching the face portion of the three-dimensional image. As a result, when a decorative face image with makeup is projected based on the input position information, it is possible to make it appear as if the performer is actually applying makeup to the face portion of the three-dimensional image.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムはさらに、予め化粧品データを記憶した化粧品データ記憶手段と、予め素顔データを記憶した素顔データ記憶手段とを備え、前記化粧品データ取得手段または前記素顔データ取得手段は、前記化粧品データを特定するための化粧品情報、または前記素顔データを特定するための素顔情報を入力する情報入力手段と、前記入力された化粧品情報、または前記素顔情報に対応する化粧品データ、または素顔データを、前記化粧品データ記憶手段または前記素顔データ記憶手段から検索して取得する情報検索手段であっても良い。   The makeup presentation system according to the third aspect of the present invention further includes a cosmetic data storage unit that stores cosmetic data in advance, and a facial data storage unit that stores facial data in advance. The data acquisition means includes: information input means for inputting cosmetic information for specifying the cosmetic data or face information for specifying the face data; and the cosmetic information corresponding to the input cosmetic information or the face information. It may be an information search means for searching for and acquiring data or face data from the cosmetic data storage means or the face data storage means.

かかる場合には、入力した化粧品情報、素顔情報に基づいて、予め化粧品データや素顔データを記録した情報記憶手段から対応する化粧品データ、素顔データを取得するので、実演者が簡単な化粧品情報、素顔情報を入力するだけで、実演者の意図した顔画像データを生成または変更することができる。   In such a case, since the corresponding cosmetic data and face data are acquired from the information storage means in which the cosmetic data and face data are recorded in advance based on the input cosmetic information and face information, the performer can easily apply the cosmetic information and face information. The face image data intended by the performer can be generated or changed simply by inputting information.

本発明の第3の態様にかかるメイクアッププレゼンテーションシステムにおいて、前記情報入力手段は、音声情報を入力する音声入力手段と、前記入力した音声情報を文字情報に変換し、前記変換された文字情報から前記化粧品情報または素顔情報を抽出して認識する音声認識手段であっても良い。   In the makeup presentation system according to the third aspect of the present invention, the information input means converts a voice input means for inputting voice information, and converts the inputted voice information into character information. From the converted character information, Voice recognition means that extracts and recognizes the cosmetic information or the face information may be used.

かかる場合には、化粧品情報または素顔情報の入力は、入力した音声情報から化粧品情報または素顔情報を抽出して認識することによって行うので、実演者が音声によって化粧品情報、素顔情報を入力することで、実演者の意図した顔画像データを生成または変更することができる。   In such a case, cosmetic information or face information is input by extracting and recognizing the cosmetic information or face information from the input voice information, so that the performer inputs the cosmetic information and face information by voice. The face image data intended by the performer can be generated or changed.

本発明の第1の態様に係るメイクアッププレゼンテーション方法は、この他にも、メイクアッププレゼンテーションプログラム、およびメイクアッププレゼンテーションプログラムを記録したコンピュータが読み取り可能な記録媒体としても実現され得る。   In addition to this, the makeup presentation method according to the first aspect of the present invention can also be realized as a makeup presentation program and a computer-readable recording medium that records the makeup presentation program.

以下、本発明に係るメイクアッププレゼンテーション方法およびメイクアッププレゼンテーションシステムについて図面を参照しつつ、実施例に基づいて説明する。   Hereinafter, a makeup presentation method and a makeup presentation system according to the present invention will be described based on examples with reference to the drawings.

・実施例:
図1および図2を参照して、本発明の実施例に係るメイクアッププレゼンテーションシステムの構成について説明する。図1は本実施例に係るメイクアッププレゼンテーションシステムの概略構成を示す説明図である。図2は、本実施例に係る3次元像10の概略正面図である。
·Example:
With reference to FIG. 1 and FIG. 2, the structure of the makeup presentation system which concerns on the Example of this invention is demonstrated. FIG. 1 is an explanatory diagram showing a schematic configuration of a makeup presentation system according to the present embodiment. FIG. 2 is a schematic front view of the three-dimensional image 10 according to the present embodiment.

本実施例に係るメイクアッププレゼンテーションシステム1は、スクリーンとして使用される3次元像10と、3次元像10に画像を投影する投影機20と、3次元像10上における画像の投影位置等の調整に使用する2台の撮像機30と、画像データの生成、出力等を実行するパーソナルコンピュータ40と、音声を入力するマイク50と、パーソナルコンピュータ40のモニタと位置情報入力手段とを兼ねるタッチパネル式モニタ60とを備えている。   The makeup presentation system 1 according to this embodiment includes a three-dimensional image 10 used as a screen, a projector 20 that projects an image onto the three-dimensional image 10, and adjustment of the projection position of the image on the three-dimensional image 10. Two imagers 30 used for the above, a personal computer 40 for generating and outputting image data, a microphone 50 for inputting sound, and a touch panel monitor serving as both a monitor for the personal computer 40 and a position information input means 60.

3次元像10は、人の頭部の造形を有している。3次元像10は、図2に示すように、目、眉毛の形状を有しておらず、目に相当する部分106は、平坦な形状となっている。このため、投影機から投影された目の画像が、歪みを生じず、美しく投影できるようになっている。一方で、3次元像10は、鼻、口については、その立体形状(102、104)を有しており、画像が投影された時に、口紅等の化粧品の質感、色調、および、その化粧品を用いたメイクアップ手法がよりリアルに3次元的に表現されるようになっている。   The three-dimensional image 10 has a human head shape. As shown in FIG. 2, the three-dimensional image 10 does not have the shape of eyes or eyebrows, and the portion 106 corresponding to the eyes has a flat shape. Therefore, the eye image projected from the projector can be projected beautifully without causing distortion. On the other hand, the three-dimensional image 10 has a three-dimensional shape (102, 104) for the nose and mouth, and when the image is projected, the texture, color tone, and the cosmetics of the cosmetics such as lipstick are displayed. The makeup method used is expressed more realistically in three dimensions.

さらに、3次元像10の顔部分の表面には、図2に示すように、5つの発光ダイオード(LED)108が目立たないように埋め込まれている。発光ダイオード108は、無線受信機70と接続されており、パーソナルコンピュータ40に接続された無線送信機80を介して、パーソナルコンピュータ40によって、点灯、および消灯を制御される。発光ダイオード108は、後に説明する投影画像調整処理において、パーソナルコンピュータ40(CPU400)が、撮像機30を介して取得した3次元像10の撮像顔画像データを解析する際に、3次元像10の位置、大きさ等を認識するための目印として機能する。このため、5つの発光ダイオード108は、目印としての機能を十分発揮できるように、3次元像10の顔部分に適当な間隔をおいてバランスよく配置されている。   Further, as shown in FIG. 2, five light-emitting diodes (LEDs) 108 are embedded in the surface of the face portion of the three-dimensional image 10 so as not to stand out. The light emitting diode 108 is connected to the wireless receiver 70, and is turned on and off by the personal computer 40 via the wireless transmitter 80 connected to the personal computer 40. When the personal computer 40 (CPU 400) analyzes the captured face image data of the three-dimensional image 10 acquired via the image pickup device 30 in the projection image adjustment process described later, the light-emitting diode 108 It functions as a mark for recognizing the position, size, etc. For this reason, the five light emitting diodes 108 are arranged in a well-balanced manner at appropriate intervals on the face portion of the three-dimensional image 10 so that the function as a mark can be sufficiently exhibited.

投影機20は、入力された画像データに基づいて光学画像を生成して、光源から射出された照明光によって、生成した光学画像をスクリーン上に投影する装置である。投影機20は、接続ケーブルC1を介してパーソナルコンピュータ40に接続されている。投影機20は、パーソナルコンピュータ40から出力される顔画像データを用いて、3次元像10上に顔画像を投影する。   The projector 20 is a device that generates an optical image based on input image data, and projects the generated optical image on a screen with illumination light emitted from a light source. The projector 20 is connected to the personal computer 40 via the connection cable C1. The projector 20 projects a face image on the three-dimensional image 10 using the face image data output from the personal computer 40.

2台の撮像機30は、3次元像10の顔部分を撮影するように配置されており、接続ケーブルC2を介してパーソナルコンピュータ40に接続されている。撮像機30は、撮影した画像をデジタル画像データとして、パーソナルコンピュータ40に出力する。撮像機30に替えて、撮影した画像をアナログ画像信号として出力する撮像機を用い、パーソナルコンピュータ40側に、アナログ画像信号をデジタル画像データに変換する手段を備えても良い。   The two image pickup devices 30 are arranged so as to photograph the face portion of the three-dimensional image 10 and are connected to the personal computer 40 via the connection cable C2. The imaging device 30 outputs the captured image to the personal computer 40 as digital image data. Instead of the image capturing device 30, an image capturing device that outputs a captured image as an analog image signal may be used, and a means for converting the analog image signal into digital image data may be provided on the personal computer 40 side.

パーソナルコンピュータ40は、一般的に用いられているタイプのコンピュータであり、音声情報等の取得情報の認識処理、画像データの生成処理等を実行する中央演算装置(CPU)400と、取得した化粧品データ等の各種データを一時的に格納するランダムアクセスメモリ(RAM)401と、音声情報等の取得情報の認識処理、画像データの生成処理等を実行するを実行するためのプログラム、化粧品の質感、色調等の化粧品データ、化粧前の素顔に関する素顔データ、ベースとなる素顔画像データ等を格納するハードディスク(HDD)402とを備えている。パーソナルコンピュータ40は、この他にも、投影機20、撮像機30、マイク50、タッチパネル式モニタ60、無線送受信機70からの接続ケーブルを接続するための入出力端子(図示は省略する。)を備えている。HDD402に替えて、リードオンリメモリ(ROM)や、パーソナルコンピュータ40とネットワークを介して接続されたサーバー上のハードディスクを使用してもよい。   The personal computer 40 is a commonly used type of computer, a central processing unit (CPU) 400 that executes recognition processing of acquired information such as voice information, generation processing of image data, and the like, and acquired cosmetic data. Random access memory (RAM) 401 that temporarily stores various data such as, a program for executing recognition information recognition processing, image data generation processing, etc., such as voice information, cosmetic texture, color tone, etc. A hard disk (HDD) 402 for storing cosmetic data such as cosmetics, facial data related to a natural face before makeup, and basic facial image data. In addition to this, the personal computer 40 has input / output terminals (not shown) for connecting connection cables from the projector 20, the image pickup device 30, the microphone 50, the touch panel monitor 60, and the wireless transceiver 70. I have. Instead of the HDD 402, a read-only memory (ROM) or a hard disk on a server connected to the personal computer 40 via a network may be used.

マイク50は、接続ケーブルC3を介して接続されているパーソナルコンピュータ40に、入力された音声を音声信号として出力する。   The microphone 50 outputs the input voice as a voice signal to the personal computer 40 connected via the connection cable C3.

タッチパネル付きモニタ60は、接続ケーブルC4によって、パーソナルコンピュータ40と接続されている。タッチパネル式モニタ60は、例えば、透明な抵抗膜型タブレット,静電誘導型タブレット等によって構成されるタッチパネル部604と、液晶表示装置などの表示部602が重ね合わされて構成されている。タッチパネル部604上の任意の座標ポイント(X−Y座標)を指やペン等で押圧すると、押圧された座標ポイントに対応する信号を、パーソナルコンピュータ40に出力可能になっている。表示部602は、パーソナルコンピュータ40のモニタとして機能する。   The monitor 60 with a touch panel is connected to the personal computer 40 by a connection cable C4. The touch panel monitor 60 is configured by, for example, a touch panel unit 604 configured by a transparent resistive film type tablet, electrostatic induction type tablet, and the like and a display unit 602 such as a liquid crystal display device overlapped. When an arbitrary coordinate point (XY coordinate) on the touch panel unit 604 is pressed with a finger or a pen, a signal corresponding to the pressed coordinate point can be output to the personal computer 40. The display unit 602 functions as a monitor for the personal computer 40.

図3を参照して、本実施例に係るパーソナルコンピュータ40(CPU400)の機能的構成の概要について説明する。図3は本実施例に係るパーソナルコンピュータ40(CPU400)の機能的構成を示すブロック図である。   With reference to FIG. 3, an outline of a functional configuration of the personal computer 40 (CPU 400) according to the present embodiment will be described. FIG. 3 is a block diagram showing a functional configuration of the personal computer 40 (CPU 400) according to the present embodiment.

位置情報認識部M1は、タッチパネルから得られた座標ポイントに基づいて、実演者が押圧したポイントに対応する顔画像における位置情報を認識し、装飾顔画像データ生成部M6または装飾顔画像データ変更部M7に送る。   The position information recognition unit M1 recognizes position information in the face image corresponding to the point pressed by the performer based on the coordinate points obtained from the touch panel, and the decoration face image data generation unit M6 or the decoration face image data change unit. Send to M7.

音声認識部M2は、マイク50から得られた音声信号を文字情報に変換し、変換した文字情報に、予め定められた所定の化粧品情報、素顔情報が含まれている場合には、含まれている化粧品情報、素顔情報を抽出して認識し、データ検索部M3に送る。   The voice recognition unit M2 converts the voice signal obtained from the microphone 50 into character information, and is included when the converted character information includes predetermined predetermined cosmetic information and face information. The cosmetic information and the face information are extracted and recognized and sent to the data search unit M3.

データ検索部M3は、音声認識部M2から得られた化粧品情報、素顔情報に基づいて、HDD402を検索して、対応する情報を取得し、装飾顔画像データ生成部M6または装飾顔画像データ変更部M7に送る。すなわち、音声認識部M2から得られた情報が化粧品情報である場合には、HDD402を検索して、対応する化粧品データを取得し、音声認識手段から得られた情報が素顔情報である場合には、HDD402を検索して、対応する素顔データを取得する。   The data search unit M3 searches the HDD 402 based on the cosmetic information and the face information obtained from the voice recognition unit M2, acquires corresponding information, and displays the decorative face image data generation unit M6 or the decorative face image data change unit. Send to M7. That is, when the information obtained from the voice recognition unit M2 is cosmetic information, the HDD 402 is searched to obtain corresponding cosmetic data, and when the information obtained from the voice recognition means is bare face information. The HDD 402 is searched to obtain corresponding face data.

また、素顔画像選択部M4は、プレゼンテーションにおいて、顔画像データ処理のベースとなる素顔画像を選択して素顔画像データとして取得する。素顔画像選択部M4は、取得した素顔画像データを素顔画像調整部M5に送る。   In addition, in the presentation, the face image selection unit M4 selects a face image that is a base of face image data processing and acquires it as face image data. The face image selection unit M4 sends the acquired face image data to the face image adjustment unit M5.

素顔画像調整部M5は、素顔画像選択部M4から得られた素顔画像データを投影機20に出力する。素顔画像調整部M5は、撮像機30から得られた撮像顔画像データに基づいて、投影されている素顔画像の素顔画像データの大きさ、位置の調整を行う。さらに、調整後の素顔画像データを装飾顔画像データ生成部M6に送る。   The face image adjustment unit M5 outputs the face image data obtained from the face image selection unit M4 to the projector 20. The face image adjustment unit M5 adjusts the size and position of the face image data of the projected face image based on the captured face image data obtained from the image pickup device 30. Further, the adjusted face image data is sent to the decorative face image data generation unit M6.

装飾顔画像データ生成部M6は、データ検索部M3から得られた化粧品データと、位置情報認識部M1から得られた顔画像における位置情報と、素顔画像調整部M5から得られた素顔画像データとに基づいて、装飾顔画像データを生成する。装飾顔画像データ生成部M6は、生成した装飾顔画像データを投影機20に出力する。   The decorative face image data generation unit M6 includes cosmetic data obtained from the data search unit M3, position information on the face image obtained from the position information recognition unit M1, and face image data obtained from the face image adjustment unit M5. The decorative face image data is generated based on the above. The decorative face image data generation unit M6 outputs the generated decorative face image data to the projector 20.

装飾顔画像データ変更部M7は、データ検索部M3から得られた化粧品データと、位置情報認識部M1から得られた顔画像における位置情報とに基づいて、装飾顔画像データ生成部M6から得られた装飾顔画像データを変更する。また、装飾顔画像データ変更部M7は、データ検索部M3から得られた素顔データと、位置情報認識部M1から得られた顔画像における位置情報とに基づいて、装飾顔画像データを変更する。装飾顔画像データ生成部M6は、変更した装飾顔画像データを投影機20に出力する。   The decorative face image data changing unit M7 is obtained from the decorative face image data generating unit M6 based on the cosmetic data obtained from the data searching unit M3 and the position information in the face image obtained from the position information recognizing unit M1. Change the decorated face image data. Further, the decorative face image data changing unit M7 changes the decorative face image data based on the bare face data obtained from the data search unit M3 and the position information in the face image obtained from the position information recognition unit M1. The decorative face image data generation unit M6 outputs the changed decorative face image data to the projector 20.

なお、本実施例において、情報入力手段は、マイク50と、音声認識部M2とによって構成される。化粧品データ取得手段、および、素顔データ取得手段は、情報入力手段と、データ検索部M3とによって構成される。位置情報取得手段は、タッチパネル式モニタ60と位置情報認識部M1とによって構成される。   In this embodiment, the information input means is constituted by the microphone 50 and the voice recognition unit M2. The cosmetic data acquisition unit and the face data acquisition unit are configured by an information input unit and a data search unit M3. The position information acquisition unit includes the touch panel monitor 60 and the position information recognition unit M1.

図4〜図14を参照して本実施例に係るメイクアッププレゼンテーションシステム1によるプレゼンテーション支援処理について説明する。図4は、本実施例に係るメイクアッププレゼンテーションシステム1によるプレゼンテーション支援処理の処理ルーチンを示すフローチャートである。図5は、実施例に係る素顔画像投影処理の処理ルーチンを示すフローチャートである。図6は、実施例に係る装飾顔画像データ生成処理の処理ルーチンを示すフローチャートである。図7は、実施例に係る位置情報取得処理の処理ルーチンを示すフローチャートである。図8は、実施例に係るデータ取得処理の処理ルーチンを示すフローチャートである。図9は、HDD402に記録されている化粧品データの一例を示す説明図である。図10は、装飾顔画像データの生成の具体例を示す説明図である。図11は、実施例に係る装飾顔画像データ変更処理の処理ルーチンを示すフローチャートである。図12は、HDD402に記録されている素顔データの一例を示す説明図である。図13は、装飾顔画像データの変更の第1の具体例を示す説明図である。図14は、装飾顔画像データの変更の第2の具体例を示す説明図である。   A presentation support process by the makeup presentation system 1 according to the present embodiment will be described with reference to FIGS. FIG. 4 is a flowchart showing the processing routine of the presentation support process by the makeup presentation system 1 according to the present embodiment. FIG. 5 is a flowchart illustrating the routine of the face image projection process according to the embodiment. FIG. 6 is a flowchart illustrating the processing routine of the decoration face image data generation process according to the embodiment. FIG. 7 is a flowchart illustrating a processing routine of position information acquisition processing according to the embodiment. FIG. 8 is a flowchart illustrating a processing routine of data acquisition processing according to the embodiment. FIG. 9 is an explanatory diagram showing an example of cosmetic data recorded in the HDD 402. FIG. 10 is an explanatory diagram showing a specific example of generation of decorative face image data. FIG. 11 is a flowchart illustrating the processing routine of the decorative face image data change process according to the embodiment. FIG. 12 is an explanatory diagram showing an example of bare face data recorded in the HDD 402. FIG. 13 is an explanatory diagram illustrating a first specific example of changing decorative face image data. FIG. 14 is an explanatory diagram showing a second specific example of changing decorative face image data.

本実施例に係るメイクアッププレゼンテーションシステム1によるプレゼンテーション支援処理は、実演者からの何等かの開始指示によって開始される。例えば、タッチパネル式モニタ60に開始指示用のアイコンが表示される場合には、アイコンが選択されたときに、開始されてもよく、あるいは、マイク50を介して、実演者が音声によって開始を指示したときに開始されてもよい。   The presentation support process by the makeup presentation system 1 according to the present embodiment is started by any start instruction from the performer. For example, when an icon for start instruction is displayed on the touch panel monitor 60, the start may be started when the icon is selected, or the performer instructs the start by voice via the microphone 50. May be started when.

図4に示すように、パーソナルコンピュータ40(CPU400)は、プレゼンテーション支援処理の開始指示を受け取ると、素顔画像データを取得し、RAM401上に一時的に格納する。(ステップS102)。すなわち、先ず、プレゼンテーションにおいて、表示する顔画像のベースとなる素顔画像の素顔画像データが取り込まれる。取得される素顔画像データは、例えば、HDD402、あるいは、ネットワークを介してパーソナルコンピュータ40と接続されたサーバー上のハードディスクに予め記録された素顔画像データ群の中から実演者によって選択される。   As shown in FIG. 4, when receiving an instruction to start the presentation support process, the personal computer 40 (CPU 400) acquires the face image data and temporarily stores it on the RAM 401. (Step S102). That is, first, in the presentation, the face image data of the face image that is the base of the face image to be displayed is captured. The acquired facial image data is selected by a performer from a group of facial image data recorded in advance on, for example, the HDD 402 or a hard disk on a server connected to the personal computer 40 via a network.

CPU400は、取得した素顔画像データを投影機20に出力し、投影機20を介して3次元像10に対して素顔画像を投影する素顔画像投影処理を実行する(ステップS104)。   The CPU 400 outputs the acquired bare face image data to the projector 20, and executes a bare face image projection process for projecting the bare face image onto the three-dimensional image 10 via the projector 20 (step S104).

素顔画像投影処理(ステップS104)においては、投影する素顔画像の位置、大きさ等を調整する処理が行われる。すなわち、3次元像10や投影機20は、投影機20から投影された顔画像が3次元像10の顔領域上に投影されるように配置されるが、これらの配置位置の調整のみで完全に顔画像と3次元像10の顔領域を一致させることは困難である。また、プレゼンテーション会場によっては、装置の配置位置が制限される場合も考えられる。さらに、プレゼンテーション会場の大きさ等に合わせて、異なる大きさの3次元像10を用いる必要が生じることも考えられる。   In the face image projection process (step S104), a process for adjusting the position, size, and the like of the face image to be projected is performed. In other words, the three-dimensional image 10 and the projector 20 are arranged so that the face image projected from the projector 20 is projected onto the face area of the three-dimensional image 10, but only by adjusting the arrangement position thereof. It is difficult to match the face image with the face area of the three-dimensional image 10. Also, depending on the presentation venue, the arrangement position of the device may be limited. Further, it may be necessary to use a three-dimensional image 10 having a different size in accordance with the size of the presentation venue.

ここで、本実施例に係るメイクアッププレゼンテーションシステム1は、顔画像投影時に投影画像の画像データの大きさ、位置を自動的に調整して、投影顔画像と3次元像10の顔領域をぴったりと一致させ、美しい3次元投影を実現する調整処理を行っている。例えば、3次元像10上の唇の形状104の部分に唇の画像が適切な位置、大きさに投影されるように、CPU400は、投影する素顔画像データを調整する。以下に、かかる素顔画像投影処理について説明する。   Here, the makeup presentation system 1 according to the present embodiment automatically adjusts the size and position of the image data of the projected image during the projection of the face image, so that the projected face image and the face area of the three-dimensional image 10 are perfectly matched. And an adjustment process for realizing a beautiful three-dimensional projection. For example, the CPU 400 adjusts the projected face image data so that the lip image is projected onto the lip shape 104 on the three-dimensional image 10 at an appropriate position and size. Hereinafter, such a face image projection process will be described.

図5に示すように、CPU400は、素顔画像投影処理を開始すると、先ず、無線送信機80、無線受信機70を介して、発光ダイオード108に点灯指示を発信し、3次元像10に取り付けられた5つの発光ダイオード108を点灯させる(ステップS202)。   As shown in FIG. 5, when starting the face image projection process, the CPU 400 first sends a lighting instruction to the light emitting diode 108 via the wireless transmitter 80 and the wireless receiver 70 and is attached to the three-dimensional image 10. The five light emitting diodes 108 are turned on (step S202).

CPU400は、2台の撮像機30が撮影した3次元像10の画像を、撮像顔画像データとして取得する(ステップS204)。   The CPU 400 acquires the image of the three-dimensional image 10 captured by the two image capturing devices 30 as captured face image data (step S204).

CPU400は、取得した投影顔画像データに基づいて、素顔画像の大きさ、位置が3次元像10の顔領域に適合するように素顔画像データを調整する(ステップS206)。すなわち、CPU400は、撮像機30から取得した撮像顔画像データを解析して、5つの発光ダイオード108の位置を認識する。認識した発光ダイオード108の位置から、CPU400は、人形の位置、大きさ、投影機から人形までの距離を推定する。撮像機30を2台使用するのは、2台の撮像機によって、異なる角度から撮影された2つの撮像顔画像データを解析することによって、投影機から人形までの距離を推定することができるからである。推定した位置、大きさ、距離に基づいて、CPU400は、素顔画像データを調整する。   Based on the acquired projected face image data, the CPU 400 adjusts the face image data so that the size and position of the face image fit the face area of the three-dimensional image 10 (step S206). That is, the CPU 400 analyzes the captured face image data acquired from the imaging device 30 and recognizes the positions of the five light emitting diodes 108. From the recognized position of the light emitting diode 108, the CPU 400 estimates the position and size of the doll and the distance from the projector to the doll. Two imagers 30 are used because the distance from the projector to the doll can be estimated by analyzing two imaged face image data photographed from different angles by the two imagers. It is. Based on the estimated position, size, and distance, the CPU 400 adjusts the face image data.

CPU400は、調整した素顔画像データを投影機20に出力し、投影機20を介して3次元像10に対して調整した素顔画像を投影する(ステップS208)。   The CPU 400 outputs the adjusted face image data to the projector 20, and projects the adjusted face image on the three-dimensional image 10 via the projector 20 (step S208).

CPU400は、再び2台の撮像機30が撮影した3次元像10の画像を、撮像顔画像データとして取得する(ステップS210)。   The CPU 400 acquires again the image of the three-dimensional image 10 captured by the two image capturing devices 30 as captured face image data (step S210).

CPU400は、新たに取得した撮像顔画像データを解析して、さらに素顔画像データの調整が必要かどうかを判断する(ステップS212)。すなわち、CPU400は、取得した撮像顔画像データ上において、3次元像10上に投影された素顔画像の位置と、発光ダイオード108の位置を比較して、3次元像10の顔領域と投影した素顔画像との位置のずれが十分に小さいかどうかにより、調整の要否を判断する。この際の判断を容易にするため、CPU400は、素顔画像データ投影時(ステップS208)に、発光ダイオード108の位置と比較する基準点を、認識し易い色で素顔画像データに加えてもよい。   The CPU 400 analyzes the newly acquired captured face image data and determines whether further adjustment of the bare face image data is necessary (step S212). That is, the CPU 400 compares the position of the face image projected on the three-dimensional image 10 with the position of the light emitting diode 108 on the acquired captured face image data, and projects the face area of the three-dimensional image 10. Whether or not adjustment is necessary is determined based on whether or not the positional deviation from the image is sufficiently small. In order to facilitate the determination at this time, the CPU 400 may add a reference point to be compared with the position of the light emitting diode 108 to the bare face image data in a color that is easy to recognize when projecting the bare face image data (step S208).

この結果、さらに素顔画像データの調整が必要と判断した場合(ステップS212:NO)には、CPU400は、上述した調整処理を繰り返す(ステップS206〜S212)。調整が完了したと判断した場合(ステップS212:YES)には、CPU400は、無線送信機80、無線受信機70を介して、発光ダイオード108に消灯指示を発信し、発光ダイオード108を消灯させる(ステップS214)。   As a result, when it is determined that further adjustment of the face image data is necessary (step S212: NO), the CPU 400 repeats the above-described adjustment processing (steps S206 to S212). If it is determined that the adjustment has been completed (step S212: YES), the CPU 400 transmits a turn-off instruction to the light-emitting diode 108 via the wireless transmitter 80 and the wireless receiver 70, and turns off the light-emitting diode 108 ( Step S214).

素顔画像投影処理が終了し、素顔画像が正しく3次元像10に投影された状態で、プレゼンテーションが開始される。   The face image projection process is completed, and the presentation starts with the face image correctly projected onto the three-dimensional image 10.

CPU400は、プレゼンテーション中に、マイク50を介して取得した化粧品情報と、タッチパネル式モニタ60を介して取得した位置情報と、先に取得した素顔画像データに基づいて装飾顔画像データを生成する(ステップS106)。   During the presentation, the CPU 400 generates decorative face image data based on the cosmetic information acquired via the microphone 50, the position information acquired via the touch panel monitor 60, and the bare face image data previously acquired (step). S106).

図6に示すように、装飾顔画像データ生成処理において、CPU400は、先ず、顔画像において化粧品によって装飾される被化粧部位を特定する位置情報を取得する(ステップS302)。位置情報取得処理においては、図7に示すように、CPU400は、タッチパネル式モニタ60から位置情報の入力があるかどうかを判断する(ステップS402)。入力が無い場合(ステップS402:NO)は、CPU400は、入力があるまで待機する。入力があった場合(ステップS402:YES)には、CPU400は、入力された座標ポイントに対応する座標信号を取得し、取得した座標信号を顔画像における位置情報に変換して、RAM401に格納する(ステップS404)。例えば、顔画像を縦100、横100の網目状の小領域にわけて、取得した座標信号が表す位置が属する小領域の座標(x、y)を、顔画像における位置情報としてもよい。あるいは、顔画像を、予め、目、鼻、口、ほほ、額(ひたい)というように、部位ごとにわけ、取得した座標信号が表す部位を、顔画像における位置情報としてもよい。   As shown in FIG. 6, in the decorative face image data generation process, the CPU 400 first acquires position information for specifying a part to be decorated to be decorated with cosmetics in the face image (step S302). In the position information acquisition process, as shown in FIG. 7, the CPU 400 determines whether or not there is position information input from the touch panel monitor 60 (step S402). If there is no input (step S402: NO), the CPU 400 waits until there is an input. If there is an input (step S402: YES), the CPU 400 acquires a coordinate signal corresponding to the input coordinate point, converts the acquired coordinate signal into position information in the face image, and stores it in the RAM 401. (Step S404). For example, the face image may be divided into 100 vertical and 100 horizontal horizontal small areas, and the coordinates (x, y) of the small area to which the position represented by the acquired coordinate signal belongs may be used as position information in the face image. Alternatively, the face image is divided into parts such as eyes, nose, mouth, cheeks, and foreheads in advance, and the part represented by the acquired coordinate signal may be used as position information in the face image.

CPU400は、素顔画像の装飾に使用する化粧品に関する化粧品データを取得する(ステップS304)。化粧品データ取得処理(ステップS304)においては、図8に示すように、CPU400は、マイク50から音声の入力があるかどうか判断する(ステップS502)。入力が無い場合(ステップS502:NO)には、CPU400は、入力が有るまで待機する。入力が有った場合(ステップS502:YES)には、CPU400は、入力された音声情報を音声信号として取得し、RAM401に一時的に格納する(ステップS504)。次に、CPU400は、取得した音声信号を文字情報に変換して、変換した文字情報を解析して予め定められた所定の化粧品情報が含まれている場合には、その化粧品情報を抽出して取得する(ステップS506)。   CPU 400 obtains cosmetic data relating to the cosmetic used for decoration of the face image (step S304). In the cosmetic data acquisition process (step S304), as shown in FIG. 8, the CPU 400 determines whether or not there is a voice input from the microphone 50 (step S502). If there is no input (step S502: NO), the CPU 400 waits until there is an input. If there is an input (step S502: YES), the CPU 400 acquires the input audio information as an audio signal and temporarily stores it in the RAM 401 (step S504). Next, the CPU 400 converts the acquired voice signal into character information, analyzes the converted character information, and if predetermined predetermined cosmetic information is included, extracts the cosmetic information. Obtain (step S506).

化粧品情報は、例えば、図9の左側に示すように、化粧品の商品名や、化粧品の色等を表す言葉を用いることができる。取得する化粧品情報は一つに限られず、装飾に使用する化粧品データを特定するために必要な数だけ取得する。例えば、図9に示す例では、商品名と、化粧品の色の2つの情報を用いて化粧品データを特定しているが、商品番号のみを用いてもよく、あるいは、化粧品名と色番号の2つの情報等を用いてもよい。   As the cosmetic information, for example, as shown on the left side of FIG. 9, a product name of the cosmetic product, a word representing the color of the cosmetic product, or the like can be used. The number of cosmetic information to be acquired is not limited to one, and only the number necessary for specifying cosmetic data used for decoration is acquired. For example, in the example shown in FIG. 9, cosmetic data is specified using two items of product name and cosmetic color, but only the product number may be used, or the cosmetic name and color number 2 may be used. Two pieces of information may be used.

CPU400は、化粧品データを特定するために必要な化粧品情報を全て取得したがどうかを判断する(ステップS508)。全てを取得していないと判断した場合(ステップS508:NO)、すなわち、取得した音声情報に、所定の化粧品情報が含まれておらず化粧品情報を取得できなかった場合、あるいは、化粧品情報を取得できたが、化粧品データを特定するにはさらに化粧品情報を取得する必要がある場合には、CPU400は、ステップS502に戻り、必要な化粧品情報を全て取得できるまで、取得処理(ステップS502〜S508)を繰り返す。   CPU 400 determines whether all cosmetic information necessary for specifying cosmetic data has been acquired (step S508). When it is determined that not all have been acquired (step S508: NO), that is, when the acquired audio information does not include predetermined cosmetic information and the cosmetic information cannot be acquired, or the cosmetic information is acquired. If it is possible, however, if it is necessary to further acquire cosmetic information in order to specify the cosmetic data, the CPU 400 returns to step S502 and acquires all necessary cosmetic information (steps S502 to S508). repeat.

必要な化粧品情報を全て取得した場合(ステップS508:YES)には、CPU400は、取得した化粧品情報を用いて、HDD402を検索し、対応する化粧品データを取得する(ステップS510)。化粧品データは、例えば、図9の右側に示すように、装飾顔画像データの生成に必要な画像データ等からなり、図9の左側に示すような化粧品情報と関連付けられて、HDD402に記録されている。そして、関連付けられた化粧品情報に基づいて対応する化粧品データを検索可能となっている。具体的には、CPU400は、図9に示すように、”BBB”、”黒1”の情報に基づいて、対応する化粧品データとして、化粧品名”アイカラー”、化粧色データ、合成率”0.7”の3つを取得する。   When all necessary cosmetic information is acquired (step S508: YES), the CPU 400 searches the HDD 402 using the acquired cosmetic information and acquires corresponding cosmetic data (step S510). For example, as shown on the right side of FIG. 9, the cosmetic data includes image data necessary for generating decorative face image data, and is recorded in the HDD 402 in association with the cosmetic information as shown on the left side of FIG. 9. Yes. The corresponding cosmetic data can be searched based on the associated cosmetic information. Specifically, as shown in FIG. 9, the CPU 400 uses the information “BBB” and “black 1” as the corresponding cosmetic data as the cosmetic name “eye color”, makeup color data, and composition rate “0”. .3 "is acquired.

化粧品データを取得すると、CPU400は、取得した位置情報と、化粧品データと、素顔画像データとに基づいて、装飾顔画像データを生成する(ステップS306)。例えば、位置情報と化粧品データとに基づいて装飾を施す装飾領域を決定し、決定した装飾領域に対応する素顔画像データと化粧品データとに基づいて装飾領域に装飾を施した装飾顔画像データを生成する。   When the cosmetic data is acquired, the CPU 400 generates decorative face image data based on the acquired position information, cosmetic data, and bare face image data (step S306). For example, the decoration area to be decorated is determined based on the position information and the cosmetic data, and the decoration face image data in which the decoration area is decorated is generated based on the bare face image data corresponding to the determined decoration area and the cosmetic data. To do.

具体例として、位置情報として画像データにおける右目の上部の座標を取得し、化粧品データとして化粧品名”アイカラー”、化粧色データ、合成率”0.7”を取得した場合を説明する。CPU400は、右目の上部の座標と、化粧品名”アイカラー”とに基づいて、装飾領域を右目の上部の所定領域と決定する。そして、CPU400は、化粧色データに基づく色と、素顔画像データにおける右目の上部の所定領域の色とを、取得した合成率”0.7”に従い、0.7:0.3の割合で合成した合成色を生成する。さらに、CPU400は、装飾顔画像における右目の上部の所定領域の色を、生成した合成色で置換して、図10に示すように、装飾顔画像データを生成する。   As a specific example, a case will be described in which the coordinates of the upper part of the right eye in the image data are acquired as position information, and the cosmetic name “eye color”, cosmetic color data, and composition rate “0.7” are acquired as cosmetic data. The CPU 400 determines the decoration area as a predetermined area above the right eye based on the coordinates of the upper right eye and the cosmetic name “eye color”. Then, the CPU 400 synthesizes the color based on the makeup color data and the color of the predetermined area above the right eye in the face image data according to the obtained synthesis rate “0.7” at a ratio of 0.7: 0.3. The synthesized color is generated. Further, the CPU 400 replaces the color of the predetermined area above the right eye in the decorative face image with the generated composite color, and generates decorative face image data as shown in FIG.

CPU400は、生成した装飾顔画像データを投影機20に出力し、投影機20を介して3次元像10に対して装飾顔画像を投影する(ステップS108)。すなわち、実演者がメイクアッププレゼンテーションにおいて、マイク50やタッチパネル式モニタ60を介して、パーソナルコンピュータ40に化粧品の種類や色、化粧を施す位置を入力すると、自動的に化粧が施された装飾顔画像が3次元像10上に投影される。   The CPU 400 outputs the generated decorative face image data to the projector 20, and projects the decorative face image onto the three-dimensional image 10 via the projector 20 (step S108). That is, when the performer inputs the type and color of cosmetics and the position to apply makeup to the personal computer 40 via the microphone 50 or the touch panel monitor 60 in the makeup presentation, the decorative face image with makeup automatically applied. Is projected onto the three-dimensional image 10.

この後、CPU400は、装飾顔画像の変更要求の有無を判断する(ステップS110)。   Thereafter, CPU 400 determines whether or not there is a request to change the decorative face image (step S110).

変更要求があった場合には(ステップS110:YES)、CPU400は、マイク50を介して取得した化粧品情報または素顔情報と、タッチパネル式モニタ60を介して取得した位置情報とに基づいて、装飾顔画像データを変更する装飾顔画像データ変更処理を実行する(ステップS114)。   When there is a change request (step S110: YES), the CPU 400 displays the decorative face based on the cosmetic information or the face information acquired through the microphone 50 and the position information acquired through the touch panel monitor 60. A decorative face image data changing process for changing the image data is executed (step S114).

装飾顔画像データ変更処理には、化粧品データと位置情報とを取得して、これらに基づいて装飾顔画像データを変更する場合と、素顔データと位置情報とを取得して、これらに基づいて素顔画像データを変更し、さらに変更した素顔画像データに基づいて装飾顔画像データを変更する場合がある。すなわち、マイク50から入力された音声情報が素顔画像データの変更を要求する素顔情報を含むか、装飾顔画像にさらに化粧を施すことを要求する化粧品情報を含むかによって処理が異なる。   In the decorative face image data change process, cosmetic data and position information are acquired, and the decorative face image data is changed based on them, and the raw face data and position information are acquired, and based on these In some cases, the image data is changed, and the decorative face image data is changed based on the changed face image data. That is, the processing differs depending on whether the voice information input from the microphone 50 includes the face information that requests the change of the face image data or the cosmetic information that requests that the decorative face image be further applied.

CPU400は、図11に示すように、先ず、タッチパネル式モニタ60を介して、位置情報を取得する(ステップS602)。この位置情報取得処理は、上述した装飾顔画像データ生成処理における位置情報取得処理と同じである(図7参照)ので、説明を省略する。   As shown in FIG. 11, the CPU 400 first acquires position information via the touch panel monitor 60 (step S602). Since this position information acquisition process is the same as the position information acquisition process in the decorative face image data generation process described above (see FIG. 7), description thereof is omitted.

CPU400は、マイク50から入力された音声情報に基づいて、化粧品データあるいは素顔データを取得する(ステップS604)。このデータ取得処理は、上述した装飾顔画像データ生成処理における化粧品データ取得処理とほぼ同じである(図8参照)ので、簡単に説明する。   CPU 400 acquires cosmetic data or real face data based on the audio information input from microphone 50 (step S604). Since this data acquisition process is substantially the same as the cosmetic data acquisition process in the decorative face image data generation process described above (see FIG. 8), it will be briefly described.

本データ取得処理においては、CPU400は、装飾顔画像データ生成処理における化粧品データ取得処理と少し異なり、取得した音声情報に予め定められた所定の化粧品情報が含まれている場合だけでなく、予め定められた所定の素顔情報が含まれている場合にも、その素顔情報を抽出して取得する(ステップS506)。   In this data acquisition process, the CPU 400 is slightly different from the cosmetic data acquisition process in the decorative face image data generation process, and not only when the predetermined audio information is included in the acquired audio information, but is also determined in advance. Even when the predetermined face information is included, the face information is extracted and acquired (step S506).

素顔情報は、例えば、図12の左側に示すように、変更タイプや、色等を表す情報を用いることができる。取得する素顔情報は、化粧品情報と同様に一つに限られず、素顔画像を変更するのに必要な素顔データを特定するために必要な数だけ取得する。例えば、図12の左側に示すように、”肌の色”と”黒め”という2つの情報で、素顔画像の肌の色を黒めに変更するために必要な素顔データを特定してもよいし、”シミ”という1つの情報で、素顔画像において指示した位置にシミを付加する変更をするために必要な素顔データを特定してもよい。   As the face information, for example, as shown on the left side of FIG. 12, information indicating a change type, a color, or the like can be used. The face information to be acquired is not limited to one as in the case of cosmetic information, and is acquired as many times as necessary to specify the face data necessary for changing the face image. For example, as shown on the left side of FIG. 12, two pieces of information “skin color” and “black” may specify the face data necessary to change the skin color of the face image to black. , One piece of information “stain” may specify the face data necessary for changing the spot to the position indicated in the face image.

必要な化粧品情報または素顔情報を全て取得すると、取得した情報が化粧品情報である場合には、CPU400は、装飾顔画像データ生成処理における化粧品データ取得処理と同様に、取得した化粧品情報を用いて、HDD402を検索して、対応する化粧品データを取得する。一方、取得した情報が素顔情報である場合には、CPU400は、取得した素顔情報を用いて、HDD402を検索して、対応する素顔データを取得する(図8、ステップS510)。すなわち、本情報取得処理において、CPU400は、化粧品データを取得する場合と、素顔データを取得する場合がある。   When all the necessary cosmetic information or face information is acquired, if the acquired information is cosmetic information, the CPU 400 uses the acquired cosmetic information in the same manner as the cosmetic data acquisition process in the decorative face image data generation process. The HDD 402 is searched to obtain corresponding cosmetic data. On the other hand, when the acquired information is the face information, the CPU 400 searches the HDD 402 using the acquired face information and acquires corresponding face data (step S510 in FIG. 8). That is, in this information acquisition process, the CPU 400 may acquire cosmetic data or acquire face data.

素顔データは、例えば、図12の左側に示すような素顔画像データの変更に必要な画像データ等の素顔データ等からなり、図12の右側に示すような素顔情報と関連付けられて、HDD402に記録されている。そして、関連付けられた素顔情報に基づいて、対応する素顔データを検索可能となっている。具体的には、CPU400は、図12に示すように、”肌の色”、”黒め”の情報に基づいて、対応する素顔データとして、変更タイプ”肌の色”と、変更色データと、合成率”1.0”の3つを取得する。   The face data includes, for example, face data such as image data necessary for changing the face image data as shown on the left side of FIG. 12, and is recorded in the HDD 402 in association with the face information shown on the right side of FIG. Has been. The corresponding face data can be searched based on the associated face information. Specifically, as shown in FIG. 12, based on the information of “skin color” and “black”, the CPU 400 has the change type “skin color”, the change color data, Three of the synthesis rate “1.0” are acquired.

CPU400は、取得した情報が素顔データであるか、化粧品データであるかを判断する(ステップS606)。取得した情報が化粧品データである場合(ステップS606:NO)には、CPU400は、取得した位置情報と、化粧品データとに基づいて、装飾顔画像データを変更する(ステップS608)。この場合の、装飾顔画像データの変更は、上述した装飾顔画像データの生成とほぼ同じであるが、装飾顔画像データの生成と異なり、素顔画像データに替えて、変更前の装飾顔画像データをベースとして使用する。例えば、位置情報と化粧品データとに基づいて装飾を施す装飾領域を決定し、決定した装飾領域に対応する変更前の装飾顔画像データと化粧品データとに基づいて、装飾領域において装飾顔画像データを変更する。   CPU 400 determines whether the acquired information is real face data or cosmetic data (step S606). When the acquired information is cosmetic data (step S606: NO), the CPU 400 changes the decorative face image data based on the acquired position information and cosmetic data (step S608). In this case, the modification of the decorative face image data is almost the same as the generation of the decorative face image data described above. However, unlike the generation of the decorative face image data, the decorative face image data before the change is used instead of the real face image data. As a base. For example, the decoration area to be decorated is determined based on the position information and the cosmetic data, and the decoration face image data in the decoration area is determined based on the decorative face image data before the change corresponding to the determined decoration area and the cosmetic data. change.

具体例として、アイカラーが施された装飾顔画像が、プレゼンテーションにおいて投影されているときに、CPU400が、口紅に関する化粧品データおよび口の部分を示す位置情報を取得した場合について説明する。CPU400が、本処理を実行すると、図13に示すようにアイカラーが施された装飾顔画像の装飾顔画像データは、さらに口紅が口の部分に施された装飾顔画像データに変更される。   As a specific example, a case will be described in which the CPU 400 acquires cosmetic data related to lipstick and position information indicating a mouth portion when a decorative face image with an eye color is projected in a presentation. When the CPU 400 executes this process, as shown in FIG. 13, the decorative face image data of the decorative face image to which the eye color is applied is changed to decorative face image data in which lipstick is applied to the mouth portion.

取得した情報が素顔データである場合(ステップS606:YES)には、CPU400は、取得した位置情報と、素顔データとに基づいて、素顔画像データを変更する(ステップS610)。例えば、取得した位置情報と素顔データとに基づいて、素顔の変更を施す素顔画像変更領域を決定し、決定した素顔画像変更領域に対応する素顔画像データと素顔データとに基づいて、素顔画像変更領域において素顔画像データを変更する。   When the acquired information is bare face data (step S606: YES), the CPU 400 changes the face image data based on the acquired position information and the face data (step S610). For example, based on the acquired position information and the face data, the face image change area to be changed is determined, and the face image change is performed based on the face image data and the face data corresponding to the determined face image change area. Change the face image data in the region.

CPU400は、変更した素顔画像データに基づいて、装飾顔画像データを変更する(ステップS608)。例えば、CPU400は、素顔画像データを変更する前に実行された装飾顔画像データの生成または変更に関する処理履歴をHDD402あるいはRAM401に保存しておく。そして、変更後の素顔画像データに基づいて、装飾顔画像データの生成または変更処理を処理履歴どおりにもう一度実行することで装飾顔画像データを変更する。   The CPU 400 changes the decorative face image data based on the changed bare face image data (step S608). For example, the CPU 400 stores, in the HDD 402 or the RAM 401, a processing history related to generation or change of decorative face image data executed before changing the face image data. Then, based on the changed face image data, the decoration face image data is changed by executing the generation or change process of the decoration face image data again according to the processing history.

具体例として、アイカラーと口紅が施された装飾顔画像を投影中に、CPU400が、位置情報として、画像データにおけるほほの部分の座標を取得し、化粧品データとして肌タイプ”肌の色”、変更色データ、合成率”1.0”を取得した場合について説明する。CPU400は、ほほの部分の座標と、肌タイプ”肌の色”とに基づいて、素顔画像変更領域を肌の部分全体と決定する。CPU400は、取得した合成率”1.0”に基づいて、素顔画像データにおける肌の部分全体の色を変更色データに基づく色に置換する(1.0:0の割合で合成する)。そして、CPU400は、変更後の素顔画像データに基づいて、変更前に行われた装飾顔画像データの生成または変更処理(具体例では、アイカラーを施す処理と、口紅を施す処理)を実行して、図14に示すように装飾顔画像データを変更する。   As a specific example, while projecting a decorative face image with an eye color and lipstick, the CPU 400 acquires the coordinates of a cheek in the image data as position information, and uses the skin type “skin color” as cosmetic data. The case where the changed color data and the composition rate “1.0” are acquired will be described. Based on the coordinates of the cheek portion and the skin type “skin color”, the CPU 400 determines the bare face image change region as the entire skin portion. The CPU 400 replaces the color of the entire skin portion in the face image data with the color based on the changed color data based on the acquired synthesis rate “1.0” (synthesizes at a ratio of 1.0: 0). Then, the CPU 400 executes generation or change processing of decorative face image data (change processing for applying eye color and processing for applying lipstick) performed before the change based on the changed face image data. Thus, the decorative face image data is changed as shown in FIG.

CPU400は、変更した装飾顔画像データを投影機20に出力し、投影機20を介して3次元像10に対して装飾顔画像を投影する(ステップS108)。   The CPU 400 outputs the modified decorative face image data to the projector 20, and projects the decorative face image onto the three-dimensional image 10 via the projector 20 (step S108).

変更要求が無い場合(ステップS110:NO)には、CPU400は、終了指示の有無を判断する(ステップS112)。CPU400は、終了指示が無い場合(ステップS112:NO)には、再びステップS110に戻り、終了指示があった場合(ステップS112:YES)には、プレゼンテーションを終了する。   When there is no change request (step S110: NO), the CPU 400 determines whether or not there is an end instruction (step S112). CPU 400 returns to step S110 again when there is no end instruction (step S112: NO), and ends the presentation when there is an end instruction (step S112: YES).

以上、説明したように本実施例に係るメイクアッププレゼンテーションシステムによれば、実演者が、マイク50から化粧品情報を含む音声を入力し、タッチパネル式モニタ60から位置情報を入力すると、投影中の素顔画像に対して、意図した化粧品による装飾指示を意図した位置に迅速に反映させることができる。   As described above, according to the makeup presentation system according to the present embodiment, when a performer inputs sound including cosmetic information from the microphone 50 and inputs position information from the touch panel monitor 60, the face being projected is displayed. It is possible to quickly reflect the decoration instruction by the intended cosmetics on the image at the intended position.

また、装飾顔画像が投影された後も、実演者が、マイク50から化粧品情報を含む音声を入力し、タッチパネル式モニタ60から位置情報を入力すると、投影される装飾顔画像に、意図したとおりに化粧品による装飾を直ちに追加、変更することができる。さらに、実演者が、マイク50から素顔情報を含む音声を入力し、タッチパネル式モニタ60から位置情報を入力すると、装飾顔画像のベースとなっている素顔画像を迅速に変更することができる。したがって、多種多様な化粧品の組み合わせ、および、素顔と化粧品の組み合わせた顔画像を、ユーザー等の要望や、プレゼンテーションの状況に応じて、迅速かつ柔軟に表示することができる。   Further, even after the decorative face image is projected, when the performer inputs voice including cosmetic information from the microphone 50 and inputs position information from the touch panel monitor 60, the projected decorative face image is displayed as intended. Cosmetic decorations can be added or changed immediately. Furthermore, when the performer inputs sound including face information from the microphone 50 and inputs position information from the touch panel monitor 60, the face image that is the base of the decorative face image can be quickly changed. Therefore, it is possible to quickly and flexibly display a variety of combinations of cosmetics and face images obtained by combining a natural face and cosmetics according to a request from a user or the like and a presentation situation.

また、音声によって化粧品情報を、タッチパネルによって、位置情報を入力するので、容易に、かつ、的確に顔画像を生成または変更することができる。   Further, since cosmetic information is input by voice and position information is input by a touch panel, a face image can be generated or changed easily and accurately.

また、3次元像10に、顔画像を投影するので、化粧品の持つ質感や色調、および、その化粧品を用いたメイクアップ手法をよりリアルに表現でき、ユーザーに効果的にアピールすることができる。   Further, since the face image is projected onto the three-dimensional image 10, the texture and color tone of the cosmetics and the makeup method using the cosmetics can be expressed more realistically and effectively appealed to the user.

また、3次元像10に、投影する顔画像の大きさ、位置を自動調整することができるので、プレゼンテーションの会場の状況等に合わせて、適切な大きさの3次元像を使用でき、かつ、システムの設置が容易となる。   In addition, since the size and position of the projected face image can be automatically adjusted to the three-dimensional image 10, a three-dimensional image having an appropriate size can be used according to the situation of the presentation venue, and the like. System installation is easy.

・変形例:
以下、本実施例のいくつかの変形例について説明する。
・ Modification:
Hereinafter, some modified examples of the present embodiment will be described.

図15〜図16を参照して、第1の変形例について説明する。図15は、本変形例にかかるメイクアッププレゼンテーションシステムの概略構成を示す説明図である。図16は、本変形例に係る3次元像10の概略正面図である。実施例に係るメイクアッププレゼンテーションシステムと共通の構成については、同一の符号を付してその説明を省略する。   A first modification will be described with reference to FIGS. 15 to 16. FIG. 15 is an explanatory diagram showing a schematic configuration of a makeup presentation system according to the present modification. FIG. 16 is a schematic front view of the three-dimensional image 10 according to this modification. The components common to the makeup presentation system according to the embodiment are denoted by the same reference numerals and the description thereof is omitted.

本変形例ではパーソナルコンピュータ40のモニタ90は、タッチパネル式ではなく、液晶あるいはCRT等の一般的なモニタである。   In this modification, the monitor 90 of the personal computer 40 is not a touch panel type but a general monitor such as a liquid crystal or a CRT.

本変形例では、図16に示すように、顔画像における位置情報を入力する位置情報入力手段として、3次元像10において、顔画像が投影される顔領域面に触感センサ110を配置している。   In the present modification, as shown in FIG. 16, as position information input means for inputting position information in a face image, a tactile sensor 110 is arranged on the face area surface on which the face image is projected in the three-dimensional image 10. .

触感センサ110は、指等で押圧されたポイントに対応する信号を、無線送受信機75を介して、パーソナルコンピュータ40に送信するように構成されている。そして、パーソナルコンピュータ40(CPU400)は、実施例においてタッチパネル式モニタ60から取得した信号を処理するのと同様に、触感センサ110から取得した信号を顔画像における位置情報に変換して取得する。   The tactile sensor 110 is configured to transmit a signal corresponding to a point pressed by a finger or the like to the personal computer 40 via the wireless transceiver 75. Then, the personal computer 40 (CPU 400) converts the signal acquired from the tactile sensor 110 into position information in the face image and acquires the same signal as the signal acquired from the touch panel monitor 60 in the embodiment.

このように構成された変形例によれば、実施例と同様の効果に加えて、実演者が3次元像10に触れながら、あたかも3次元像10に対して実際に化粧を施しているかのようにプレゼンテーションを行うことができる。   According to the modified example configured as described above, in addition to the same effects as in the embodiment, it is as if the performer is actually applying makeup to the three-dimensional image 10 while touching the three-dimensional image 10. You can give a presentation.

図17を参照して、第2の変形例について説明する。図17は、本変形例に係る投影顔画像の形成方法の概略を示す説明図である。実施例においては、素顔画像に装飾を施した顔画像について、装飾顔画像データを生成して、生成した装飾顔画像データを用いて、装飾された顔画像を3次元像10に投影していたが、本変形例では、装飾顔画像データを生成しない。   A second modification will be described with reference to FIG. FIG. 17 is an explanatory diagram showing an outline of a method of forming a projected face image according to this modification. In the embodiment, for the face image obtained by decorating the bare face image, the decorated face image data is generated, and the decorated face image is projected onto the three-dimensional image 10 using the generated decorated face image data. However, in this modification, decorative face image data is not generated.

代わりに、本変形例では、顔画像において装飾を施すべき領域の形状の装飾画像データを生成する。例えば、図17(b)に示すように、口紅とアイカラーの装飾画像データは、唇の形状に口紅の色調、質感を再現した画像データと、アイカラーを施す目の上部の領域の形状にアイカラーの色調、質感を再現した画像データからなる。そして、生成した装飾画像データを用いた装飾画像を、3次元像10に投影されている図17(a)に示すような素顔画像上に重ねて投影する。この結果、図17(c)に示すように、あたかも素顔画像に化粧品による装飾を施したかのような顔画像が、3次元像10上に再現される。   Instead, in this modification, decoration image data having a shape of a region to be decorated in the face image is generated. For example, as shown in FIG. 17B, the decorative image data of lipstick and eye color has image data that reproduces the color and texture of lipstick on the shape of the lips, and the shape of the upper region of the eye to which the eye color is applied. It consists of image data that reproduces the color and texture of the eye color. Then, the decoration image using the generated decoration image data is projected onto the bare face image as shown in FIG. 17A projected on the three-dimensional image 10. As a result, as shown in FIG. 17C, a face image as if the face image is decorated with cosmetics is reproduced on the three-dimensional image 10.

かかる投影は、例えば、複数種類の異なる画像供給装置から供給される画像信号を同時に表示させることができるプロジェクタ(いわゆるオーバレイ表示可能なプロジェクタ)を投影機20として用いることによって、実行してもよい。あるいは、2つの画像データを重ね合わせた画像データを出力する機能(いわゆるスーパーインポーズ機能)を備えたパーソナルコンピュータを、パーソナルコンピュータ40として用いることによって実行しても良い。   Such projection may be executed by using, as the projector 20, a projector that can simultaneously display image signals supplied from a plurality of different image supply devices (a projector capable of so-called overlay display). Alternatively, a personal computer having a function of outputting image data obtained by superimposing two image data (a so-called superimpose function) may be used as the personal computer 40.

上述した実施例における装飾顔画像データ生成処理、装飾顔画像データ変更処理、および、素顔画像変更処理では、CPU400は、顔画像における位置情報を先に取得し、化粧品データまたは素顔データを後に取得しているが、取得の順序は逆でも良い。   In the decoration face image data generation process, decoration face image data change process, and face image change process in the embodiment described above, the CPU 400 first acquires position information in the face image and later acquires cosmetic data or face data. However, the order of acquisition may be reversed.

また、位置情報を取得せず、化粧品データまたは素顔データのみに基づいて、顔画像データの生成または変更処理を実行しても良い。かかる場合には、化粧品データまたは素顔データに、顔画像に装飾を施す位置情報または素顔画像に変更を施す位置情報を含める。例えば、口紅について化粧品データを取得した場合、装飾を施す部位を口の部分と特定する位置情報は、化粧品データの中に含まれており、CPU400は、タッチパネル式モニタ60から位置情報を取得する必要がなくなる。   Further, the generation or change processing of the face image data may be executed based on only the cosmetic data or the face data without acquiring the position information. In such a case, position information for applying decoration to the face image or position information for changing the face image is included in the cosmetic data or the face data. For example, when the cosmetic data is acquired for the lipstick, the position information for specifying the part to be decorated as the mouth portion is included in the cosmetic data, and the CPU 400 needs to acquire the position information from the touch panel monitor 60. Disappears.

メイクアッププレゼンテーションシステム1の操作は、顔画像における位置情報と、音声のみで行う必要はなく、必要に応じて、タッチパネル式モニタ60上に表示した指示アイコン等を使用してもよい。例えば、位置情報や、音声情報を誤入力した場合に、入力をキャンセルするためのアイコンをタッチパネル式モニタ60上に表示して、自由に再入力ができるようにしてもよい。   The operation of the makeup presentation system 1 does not need to be performed only with position information in the face image and sound, and an instruction icon or the like displayed on the touch panel monitor 60 may be used as necessary. For example, when position information or audio information is erroneously input, an icon for canceling the input may be displayed on the touch panel monitor 60 so that the input can be freely performed again.

以上、本発明の実施例および変形例に基づいて本発明を説明したが、本発明は上記実施例および変形例になんら限定されるものではなく、その趣旨を逸脱しない範囲内において種々の態様での実施が可能である。   The present invention has been described above based on the embodiments and modifications of the present invention. However, the present invention is not limited to the above embodiments and modifications, and can be variously modified without departing from the spirit of the present invention. Can be implemented.

実施例に係るメイクアッププレゼンテーションシステムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the makeup presentation system which concerns on an Example. 実施例に係る3次元像10の概略正面図である。It is a schematic front view of the three-dimensional image 10 which concerns on an Example. 実施例に係るパーソナルコンピュータ40(CPU400)の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the personal computer 40 (CPU400) which concerns on an Example. 実施例に係るメイクアッププレゼンテーションシステム1によるプレゼンテーション支援処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the presentation assistance process by the makeup presentation system 1 which concerns on an Example. 実施例に係る素顔画像投影処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the bare face image projection process which concerns on an Example. 実施例に係る装飾顔画像データ生成処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the process routine of the decoration face image data generation process which concerns on an Example. 実施例に係る位置情報取得処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the positional information acquisition process which concerns on an Example. 実施例に係るデータ取得処理(装飾顔画像データ生成処理においては化粧品データ取得処理に該当する。)の処理ルーチンを示すフローチャートである。It is a flowchart which shows the process routine of the data acquisition process (it corresponds to cosmetics data acquisition process in a decoration face image data generation process) which concerns on an Example. HDD402に記録されている化粧品データの一例を示す説明図である。4 is an explanatory diagram illustrating an example of cosmetic data recorded in an HDD 402. FIG. 装飾顔画像データの生成の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the production | generation of decoration face image data. 実施例に係る装飾顔画像データ変更処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the process routine of the decoration face image data change process which concerns on an Example. HDD402に記録されている素顔データの一例を示す説明図である。4 is an explanatory diagram illustrating an example of bare face data recorded in an HDD 402. FIG. 装飾顔画像データの変更の第1の具体例を示す説明図である。It is explanatory drawing which shows the 1st specific example of the change of decoration face image data. 装飾顔画像データの変更の第2の具体例を示す説明図である。It is explanatory drawing which shows the 2nd specific example of a change of decoration face image data. 第1の変形例に係るメイクアッププレゼンテーションシステムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the makeup presentation system which concerns on a 1st modification. 第1の変形例に係る3次元像10の概略正面図である。It is a schematic front view of the three-dimensional image 10 which concerns on a 1st modification. 第2の変形例に係る投影顔画像の形成方法の概略を示す説明図である。It is explanatory drawing which shows the outline of the formation method of the projection face image which concerns on a 2nd modification.

符号の説明Explanation of symbols

1…メイクアッププレゼンテーションシステム
10…3次元像
20…投影機
30…撮像機
40…パーソナルコンピュータ
50…マイク
60…タッチパネル式モニタ
70…無線受信機
75…無線送受信機
80…無線送信機
90…モニタ
102…立体形状(鼻)
104…立体形状(口)
106…平坦部(目相当部分)
108…発光ダイオード
110…触感センサ
400…CPU
401…ランダムアクセスメモリ(RAM)
402…ハードディスク(HDD)
602…表示部
604…タッチパネル部
M1…位置情報認識部
M2…音声認識部
M3…データ検索部
M4…素顔画像選択部
M5…素顔画像調整部
M6…装飾顔画像データ生成部
M7…装飾顔画像データ変更部
DESCRIPTION OF SYMBOLS 1 ... Makeup presentation system 10 ... Three-dimensional image 20 ... Projector 30 ... Imaging device 40 ... Personal computer 50 ... Microphone 60 ... Touch panel type monitor 70 ... Wireless receiver 75 ... Wireless transmitter / receiver 80 ... Wireless transmitter 90 ... Monitor 102 ... Solid shape (nose)
104 ... Solid shape (mouth)
106 ... flat part (eye equivalent part)
108 ... Light emitting diode 110 ... Tactile sensor 400 ... CPU
401: Random access memory (RAM)
402: Hard disk (HDD)
602 ... Display unit 604 ... Touch panel unit M1 ... Position information recognition unit M2 ... Voice recognition unit M3 ... Data search unit M4 ... Real face image selection unit M5 ... Real face image adjustment unit M6 ... Decoration face image data generation unit M7 ... Decoration face image data Change part

Claims (16)

メイクアッププレゼンテーション方法であって、
素顔を表す素顔画像データを取得し、
前記取得した素顔画像データを用いて、3次元像に顔画像を投影し、
前記投影されている顔画像の装飾に使用する化粧品データを取得し、
前記取得した化粧品データと、前記取得した素顔画像データとに基づいて、装飾顔画像データを生成し、
前記投影中の素顔画像データに代えて、前記生成した装飾顔画像データを用いて、前記3次元像に装飾された顔画像を投影するメイクアッププレゼンテーション方法。
A makeup presentation method,
Get real face image data representing the real face,
Using the acquired face image data, a face image is projected onto a three-dimensional image,
Obtaining cosmetic data used for decoration of the projected face image;
Based on the acquired cosmetic data and the acquired bare face image data, generate decorative face image data,
A makeup presentation method for projecting a face image decorated to the three-dimensional image using the generated decoration face image data instead of the projected face image data.
請求項1に記載のメイクアッププレゼンテーション方法において、
前記装飾された顔画像を投影中に装飾の変更要求があった場合には、
前記装飾された顔画像をさらに装飾するために使用する化粧品データを取得し、
前記取得した化粧品データに基づいて、前記装飾顔画像データを変更し、
前記投影中の装飾顔画像データに代えて、前記変更した装飾顔画像データを用いて、前記3次元像に装飾された顔画像を投影するメイクアッププレゼンテーション方法。
The makeup presentation method according to claim 1,
When there is a request to change the decoration while projecting the decorated face image,
Obtaining cosmetic data used to further decorate the decorated face image;
Based on the acquired cosmetic data, change the decorative face image data,
A makeup presentation method for projecting a face image decorated to the three-dimensional image using the modified face image data instead of the face image data being projected.
請求項1または請求項2に記載のメイクアッププレゼンテーション方法において、
前記装飾された顔画像を投影中に素顔の変更要求があった場合には、
前記素顔画像を変更するための素顔データを取得し、
前記取得した素顔データに基づいて、素顔画像データを変更し、
前記変更した素顔画像データに基づいて、前記装飾顔画像データを変更し、
前記投影中の装飾顔画像データに代えて、前記変更した装飾顔画像データを用いて、前記3次元像に装飾された顔画像を投影するメイクアッププレゼンテーション方法。
In the makeup presentation method according to claim 1 or 2,
If there is a request to change the face while projecting the decorated face image,
Obtaining face data for changing the face image,
Based on the acquired face data, the face image data is changed,
Based on the changed face image data, the decorative face image data is changed,
A makeup presentation method for projecting a face image decorated to the three-dimensional image using the modified face image data instead of the face image data being projected.
請求項1ないし請求項3いずれかに記載のメイクアッププレゼンテーション方法において、
前記化粧品データは、顔画像上における装飾を施すべき位置情報を含んでおり、
前記位置情報に基づいて、顔画像において化粧品による装飾を施す位置を特定し、
前記装飾顔画像データを生成または変更する際には、前記化粧品データに加えて、前記位置情報を用いるメイクアッププレゼンテーション方法。
In the makeup presentation method according to any one of claims 1 to 3,
The cosmetic data includes position information to be decorated on the face image,
Based on the position information, specify a position to be decorated with cosmetics in the face image,
A makeup presentation method that uses the position information in addition to the cosmetic data when generating or changing the decorative face image data.
請求項1ないし請求項3いずれかに記載のメイクアッププレゼンテーション方法において、
顔画像において化粧品による装飾を施す位置情報を取得し、
前記装飾顔画像データを生成または変更する際には、前記化粧品データに加えて、前記取得した位置情報を用いるメイクアッププレゼンテーション方法。
In the makeup presentation method according to any one of claims 1 to 3,
Obtain location information for cosmetic decoration on face images,
A makeup presentation method using the acquired position information in addition to the cosmetic data when generating or changing the decorative face image data.
請求項1ないし請求項5いずれかに記載のメイクアッププレゼンテーション方法において、
前記化粧品データまたは前記素顔データの取得は、
前記化粧品データを特定するための化粧品情報、または前記素顔データを特定するための素顔情報を取得し、
予め化粧品データまたは素顔データを記憶した記憶装置から、前記取得した化粧品情報または前記素顔情報に対応する化粧品データまたは素顔データを取得することによって行われるメイクアッププレゼンテーション方法。
The makeup presentation method according to any one of claims 1 to 5,
Acquisition of the cosmetic data or the face data is
Acquiring cosmetic information for specifying the cosmetic data, or face information for specifying the face data;
A makeup presentation method performed by acquiring cosmetic data or facial data corresponding to the acquired cosmetic information or the facial information from a storage device that stores cosmetic data or facial data in advance.
請求項6に記載のメイクアッププレゼンテーション方法において、
前記化粧品情報または前記素顔情報の取得は、
前記化粧品情報または前記素顔情報を含む音声情報を取得し、
前記取得した音声情報を文字情報に変換し、
前記変換された文字情報から、前記化粧品情報または素顔情報を抽出して認識することによって行われるメイクアッププレゼンテーション方法。
The makeup presentation method according to claim 6,
Acquisition of the cosmetic information or the face information is
Obtaining voice information including the cosmetic information or the face information;
Converting the acquired voice information into character information;
A makeup presentation method performed by extracting and recognizing the cosmetic information or the face information from the converted character information.
メイクアッププレゼンテーション方法であって、
素顔を表す素顔画像データを取得し、
前記取得した素顔画像データを用いて、3次元像に顔画像を投影し、
前記投影されている顔画像の装飾に使用する化粧品データを取得し、
前記取得した化粧品データに基づいて、装飾を施すべき領域に対応する形状の装飾画像データを生成し、
前記3次元像に投影した顔画像に重ねて、前記生成した装飾画像データを用いた装飾画像を投影するメイクアッププレゼンテーション方法。
A makeup presentation method,
Get real face image data representing the real face,
Using the acquired face image data, a face image is projected onto a three-dimensional image,
Obtaining cosmetic data used for decoration of the projected face image;
Based on the acquired cosmetic data, generate decorative image data of a shape corresponding to the region to be decorated,
A makeup presentation method for projecting a decoration image using the generated decoration image data on a face image projected on the three-dimensional image.
顔画像を投影するメイクアッププレゼンテーションシステムであって、
スクリーンとして使用される3次元像と、
素顔を表す素顔画像データを選択する素顔画像データ選択手段と、
前記顔画像を装飾するための化粧品データを取得する化粧品データ取得手段と、
前期素顔画像データと前期化粧品データとを用いて、装飾顔画像データを生成する装飾顔画像データ生成手段と、
前記生成された装飾顔画像データ、または前記素顔画像データを用いて前記3次元像に顔画像を投影する投影手段を備えるメイクアッププレゼンテーションシステム。
A makeup presentation system that projects a face image,
A three-dimensional image used as a screen;
A face image data selection means for selecting face image data representing a face;
Cosmetic data acquisition means for acquiring cosmetic data for decorating the face image;
A decorative face image data generating means for generating decorative face image data using the previous period face image data and the previous period cosmetic data;
A makeup presentation system comprising projecting means for projecting a face image onto the three-dimensional image using the generated decorative face image data or the bare face image data.
請求項9に記載のメイクアッププレゼンテーションシステムはさらに、
前記生成された装飾顔画像データを変更する装飾顔画像データ変更手段を備え、
前記化粧品データ取得手段が、前記装飾顔画像データを生成後にさらに前記化粧品データを取得した場合には、
前記装飾顔画像データ変更手段は、前記さらに取得した化粧品データに基づいて、前記装飾顔画像データを変更するメイクアッププレゼンテーションシステム。
The makeup presentation system according to claim 9, further comprising:
A decorative face image data changing means for changing the generated decorative face image data;
When the cosmetic data acquisition means further acquires the cosmetic data after generating the decorative face image data,
The decorative face image data changing means is a makeup presentation system that changes the decorative face image data based on the further acquired cosmetic data.
請求項10に記載のメイクアッププレゼンテーションシステムはさらに、
前記素顔画像データを変更するための素顔データを取得する素顔データ取得手段を備え、
前記装飾顔画像データ変更手段は、前記取得した素顔データに基づいて、前記素顔画像データを変更し、
前記変更した素顔画像データに基づいて、前記装飾顔画像データを変更するメイクアッププレゼンテーションシステム。
The makeup presentation system according to claim 10, further comprising:
Comprising a face data acquisition means for acquiring face data for changing the face image data;
The decorative face image data changing means changes the face image data based on the acquired face data,
A makeup presentation system that changes the decorative face image data based on the changed face image data.
請求項9ないし請求項11いずれかに記載のメイクアッププレゼンテーションシステムはさらに、
顔画像において化粧品による装飾または素顔の変更を施す位置情報を取得する位置情報取得手段を備え、
前記装飾顔画像データ生成手段、または前記装飾顔画像データ変更手段は、
前記化粧品データまたは前記素顔データに加えて、前記位置情報を用いて前記装飾顔画像データを生成または変更するメイクアッププレゼンテーションシステム。
The makeup presentation system according to any one of claims 9 to 11 further includes:
Position information acquisition means for acquiring position information for performing decoration or cosmetic face change on a face image,
The decorative face image data generating means or the decorative face image data changing means is
A makeup presentation system that generates or changes the decorative face image data using the position information in addition to the cosmetic data or the face data.
請求項12に記載のメイクアッププレゼンテーションシステムにおいて、
前記位置情報取得手段は、
前記位置情報を入力するタッチパネルと、
前記入力された位置情報を顔画像における位置情報に変換して認識する位置情報認識手段であるメイクアッププレゼンテーションシステム。
The makeup presentation system according to claim 12,
The position information acquisition means includes
A touch panel for inputting the position information;
A makeup presentation system which is position information recognition means for recognizing the input position information by converting it into position information in a face image.
請求項12に記載のメイクアッププレゼンテーションシステムにおいて、
前記位置情報取得手段は、
前記3次元像の顔画像投影面に配置されると共に、前記3次元像の顔画像投影面において指摘された位置情報を入力する触感センサと、
前記入力された位置情報を顔画像における位置情報に変換して認識する位置情報認識手段であるメイクアッププレゼンテーションシステム。
The makeup presentation system according to claim 12,
The position information acquisition means includes
A tactile sensor that is disposed on the face image projection surface of the three-dimensional image and inputs position information pointed out on the face image projection surface of the three-dimensional image;
A makeup presentation system which is position information recognition means for recognizing the input position information by converting it into position information in a face image.
請求項10ないし請求項14いずれかに記載のメイクアッププレゼンテーションシステムはさらに、
予め化粧品データを記憶した化粧品データ記憶手段と、
予め素顔データを記憶した素顔データ記憶手段とを備え、
前記化粧品データ取得手段または前記素顔データ取得手段は、
前記化粧品データを特定するための化粧品情報、または前記素顔データを特定するための素顔情報を入力する情報入力手段と、
前記入力された化粧品情報、または前記素顔情報に対応する化粧品データ、または素顔データを、前記化粧品データ記憶手段または前記素顔データ記憶手段から検索して取得する情報検索手段であるメイクアッププレゼンテーションシステム。
The makeup presentation system according to any one of claims 10 to 14, further comprising:
Cosmetic data storage means for storing cosmetic data in advance;
A face data storage means for storing face data in advance,
The cosmetic data acquisition means or the bare face data acquisition means,
Information input means for inputting cosmetic information for specifying the cosmetic data, or face information for specifying the face data;
A makeup presentation system, which is information retrieval means for retrieving the cosmetic information corresponding to the inputted cosmetic information or the cosmetic data corresponding to the facial information or the facial data from the cosmetic data storage means or the facial data storage means.
請求項15に記載のメイクアッププレゼンテーションシステムにおいて、
前記情報入力手段は、
音声情報を入力する音声入力手段と、
前記入力した音声情報を文字情報に変換し、前記変換された文字情報から前記化粧品情報または素顔情報を抽出して認識する音声認識手段であるメイクアッププレゼンテーションシステム。
The makeup presentation system according to claim 15,
The information input means includes
Voice input means for inputting voice information;
A makeup presentation system which is voice recognition means that converts the inputted voice information into character information and extracts and recognizes the cosmetic information or the face information from the converted character information.
JP2003422570A 2003-12-19 2003-12-19 Makeup presentation Pending JP2005181688A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003422570A JP2005181688A (en) 2003-12-19 2003-12-19 Makeup presentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003422570A JP2005181688A (en) 2003-12-19 2003-12-19 Makeup presentation

Publications (1)

Publication Number Publication Date
JP2005181688A true JP2005181688A (en) 2005-07-07

Family

ID=34783400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003422570A Pending JP2005181688A (en) 2003-12-19 2003-12-19 Makeup presentation

Country Status (1)

Country Link
JP (1) JP2005181688A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008116393A1 (en) * 2007-03-26 2008-10-02 Fong-Chyi Chang Apparatus for outputing the blend of selected materials and application system for electronic information
KR100942026B1 (en) * 2008-04-04 2010-02-11 세종대학교산학협력단 Makeup system and method for virtual 3D face based on multiple sensation interface
CN102012620A (en) * 2010-10-28 2011-04-13 鸿富锦精密工业(深圳)有限公司 Electronic cosmetic box
US8421769B2 (en) 2010-10-27 2013-04-16 Hon Hai Precision Industry Co., Ltd. Electronic cosmetic case with 3D function
CN103730033A (en) * 2012-10-15 2014-04-16 深圳优派汉王触控科技有限公司 Original handwriting handwritten electronic desk system
CN104020957B (en) * 2014-06-20 2017-04-05 北京工业大学 Digital types of facial makeup in Beijing operas stereoprojection interactive system
CN109315913A (en) * 2018-10-16 2019-02-12 陕西科技大学 Wearable thrush auxiliary device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008116393A1 (en) * 2007-03-26 2008-10-02 Fong-Chyi Chang Apparatus for outputing the blend of selected materials and application system for electronic information
KR100942026B1 (en) * 2008-04-04 2010-02-11 세종대학교산학협력단 Makeup system and method for virtual 3D face based on multiple sensation interface
US8421769B2 (en) 2010-10-27 2013-04-16 Hon Hai Precision Industry Co., Ltd. Electronic cosmetic case with 3D function
TWI426450B (en) * 2010-10-27 2014-02-11 Hon Hai Prec Ind Co Ltd Electronic cosmetic case
CN102012620A (en) * 2010-10-28 2011-04-13 鸿富锦精密工业(深圳)有限公司 Electronic cosmetic box
CN103730033A (en) * 2012-10-15 2014-04-16 深圳优派汉王触控科技有限公司 Original handwriting handwritten electronic desk system
CN103730033B (en) * 2012-10-15 2017-05-03 深圳优派汉王触控科技有限公司 Original handwriting handwritten electronic desk system
CN104020957B (en) * 2014-06-20 2017-04-05 北京工业大学 Digital types of facial makeup in Beijing operas stereoprojection interactive system
CN109315913A (en) * 2018-10-16 2019-02-12 陕西科技大学 Wearable thrush auxiliary device

Similar Documents

Publication Publication Date Title
JP6785282B2 (en) Live broadcasting method and equipment by avatar
KR102581453B1 (en) Image processing for Head mounted display devices
RU2621644C2 (en) World of mass simultaneous remote digital presence
JP5898378B2 (en) Information processing apparatus and application execution method
US7053915B1 (en) Method and system for enhancing virtual stage experience
WO2014119254A1 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
WO2023119557A1 (en) Avatar display device, avatar generation device, and program
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
JP7242546B2 (en) Display processing device, display processing method, and program
WO2017137948A1 (en) Producing realistic body movement using body images
KR100935482B1 (en) System and method for providing synthetic images
JP6448869B2 (en) Image processing apparatus, image processing system, and program
JP2002150317A (en) Image display device
US8099460B2 (en) Information processing device and method, recording medium, and program
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
WO2011013605A1 (en) Presentation system
KR101678994B1 (en) Interactive Media Wall System and Method for Displaying 3Dimentional Objects
KR20120081874A (en) Karaoke system and apparatus using augmented reality, karaoke service method thereof
WO2015152028A1 (en) Makeup assistance device and recording medium
JP2005181688A (en) Makeup presentation
JP6431259B2 (en) Karaoke device, dance scoring method, and program
KR101773891B1 (en) System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner
JP6313003B2 (en) Karaoke apparatus, image output method, and program
JP5894505B2 (en) Image communication system, image generation apparatus, and program