JP3224399U - Makeup evaluation device and makeup evaluation system - Google Patents

Makeup evaluation device and makeup evaluation system Download PDF

Info

Publication number
JP3224399U
JP3224399U JP2019002591U JP2019002591U JP3224399U JP 3224399 U JP3224399 U JP 3224399U JP 2019002591 U JP2019002591 U JP 2019002591U JP 2019002591 U JP2019002591 U JP 2019002591U JP 3224399 U JP3224399 U JP 3224399U
Authority
JP
Japan
Prior art keywords
makeup
image data
face
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019002591U
Other languages
Japanese (ja)
Inventor
太丞 岡田
太丞 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019002591U priority Critical patent/JP3224399U/en
Application granted granted Critical
Publication of JP3224399U publication Critical patent/JP3224399U/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】視覚障がい者が自身の顔に化粧を施す場合に使用可能な化粧評価装置および化粧評価システムを提供する。【解決手段】使用者の顔の少なくとも一部に化粧が施された状態で、使用者の顔が撮像された比較画像データ65を記憶可能とされた記憶部と、参考画像データ61と、化粧前画像データ63と、比較画像データ65と、に基づいて、使用者に施された化粧の出来映えを評価する評価部43と、使用者に対して所望の情報を報知する報知部45とを備え、評価部43は、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部43aと、注目要素に含まれる各顔要素について第1指標値を演算する第1演算部43bと、第1指標値の内、対応するものに基づいて実行する有無判断部43cと、第2指標値を演算する第2演算部43dと、仕上判断部43eと、を有する。【選択図】図1A makeup evaluation device and a makeup evaluation system that can be used when a visually impaired person applies makeup to his / her face. In a state where makeup is applied to at least a part of a user's face, a storage unit capable of storing comparison image data 65 obtained by capturing the user's face, reference image data 61, and makeup An evaluation unit 43 that evaluates the performance of makeup applied to the user based on the previous image data 63 and the comparison image data 65, and a notification unit 45 that notifies the user of desired information. The evaluation unit 43 includes an extraction unit 43a capable of extracting image data corresponding to a region where each face element exists, a first calculation unit 43b that calculates a first index value for each face element included in the element of interest, , A presence / absence determining unit 43c that executes based on a corresponding one of the first index values, a second calculating unit 43d that calculates a second index value, and a finish determining unit 43e. [Selection diagram] Fig. 1

Description

本考案は、化粧評価装置および化粧評価システムに関する。   The present invention relates to a makeup evaluation device and a makeup evaluation system.

従来、第1の画像(ユーザ画像)と第2の画像(モデル画像)とに基づいて、メイクアップの仕方をユーザに提示するメイクアップ支援装置が、知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, there has been known a makeup support apparatus that presents a manner of makeup to a user based on a first image (user image) and a second image (model image) (for example, Patent Document 1). .

特許第5991536号公報Japanese Patent No. 5991536

しかし、化粧をする者が視覚障がい者の場合、特許文献1のメイクアップ支援装置を用いても、自身の顔に正しく化粧を施すことができない。   However, when the person applying makeup is a visually impaired person, even if the makeup assisting device of Patent Literature 1 is used, it is not possible to correctly apply makeup to his / her own face.

そこで、本考案では、視覚障がい者が自身の顔に化粧を施す場合に使用可能な化粧評価装置および化粧評価システムを提供することを目的とする。   Therefore, an object of the present invention is to provide a makeup evaluation apparatus and a makeup evaluation system that can be used when a visually impaired person applies makeup to his / her face.

上記の課題を解決するため、請求項1の考案は、化粧評価装置であって、使用者の顔画像を撮像可能とされた撮像部と、少なくとも前記使用者の顔画像データ、すなわち、前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が予め撮像された参考画像データと、化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、前記化粧前画像データの撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データとを記憶可能とされた記憶部と、前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部と、前記使用者に対して所望の情報を報知する報知部とを備え、前記使用者の顔に含まれる各顔要素のうちの注目する一又は複数の顔要素が、注目要素と定義され、前記評価部は、前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部とを有し、前記報知部は、前記仕上判断部の判断結果を前記使用者に報知することを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is a makeup evaluation device, wherein an imaging unit capable of capturing a face image of a user, and at least the face image data of the user, that is, the use Reference image data in which the face of the user is imaged in advance in a state where reference makeup is applied to the face of the user, and pre-makeup image data in which the face of the user before makeup is imaged by the imaging unit And face image data captured by the image capturing unit following the capturing of the pre-makeup image data, wherein at least a part of the user's face has makeup applied thereto, and the face of the user is Based on the storage unit capable of storing the captured comparison image data, the reference image data, the pre-makeup image data, and the comparison image data, the workmanship of the makeup applied to the user based on the comparison image data. An evaluation unit that evaluates A notification unit for notifying the user of desired information, one or more face elements of interest among the face elements included in the user's face are defined as attention elements, and the evaluation unit An extraction unit capable of extracting image data corresponding to an area where each face element exists from each of the reference image data, the pre-makeup image data, and the comparison image data, and the pre-makeup image data and the comparison Using the image data included in each of the first and second regions after extracting the existence regions corresponding to the element of interest from the image data as first and second regions, respectively, by using the extraction unit. A first calculating unit that calculates a first index value for each face element included in the element of interest, and determining whether makeup is applied to each face element included in the element of interest by the first operation unit. A presence / absence determination unit configured to be executed based on a corresponding one of the first index values calculated by the calculation unit, and makeup applied to the face elements included in the attention element by the presence / absence determination unit For the makeup element that is determined to be present, the extracting unit extracts the existence areas corresponding to the makeup element from the comparison image data and the reference image data as third and fourth areas, respectively. A second calculation unit that calculates a second index value for each face element included in the makeup element by using image data included in each of the third and fourth regions; A finish determining unit configured to execute the determination of the quality of each face element to be performed based on a corresponding one of the second index values calculated by the second calculating unit; Is The determination result of the finish determination unit is notified to the user.

また、請求項2の考案は、請求項1に記載の化粧評価装置において、前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする。   According to a second aspect of the present invention, in the makeup evaluation apparatus according to the first aspect, each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by inverting a captured image horizontally. There is a feature.

また、請求項3の考案は、請求項1または請求項2に記載の化粧評価装置において、前記撮像部により撮像された顔画像が、前記比較画像データとして前記記憶部に新たに記憶されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする。   According to a third aspect of the present invention, in the makeup evaluation device according to the first or second aspect, when a face image captured by the imaging unit is newly stored in the storage unit as the comparison image data. Preferably, the evaluation unit evaluates the workmanship of the makeup applied to the user.

また、請求項4の考案は、請求項1または請求項2に記載の化粧評価装置において、前記撮像部により撮像された顔画像によって、前記記憶部に記憶された前記比較画像データが更新されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする。   According to a fourth aspect of the present invention, in the makeup evaluation device according to the first or second aspect, the comparison image data stored in the storage unit is updated by a face image captured by the imaging unit. Sometimes, the evaluation unit evaluates the workmanship of the makeup applied to the user.

また、請求項5の考案は、請求項1から請求項4のいずれかに記載の化粧評価装置において、前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、をさらに備え、前記第1データベースは、各顔要素に対応するレコードを含む、前記第1データベースに含まれる各レコードは、少なくとも、対応する顔要素の化粧を施す順番を示すシーケンス情報と、対応する顔要素を識別するための顔要素情報と、対応する顔要素の化粧が完了したか否かを示す完了情報とを格納可能とされており、前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする。   According to a fifth aspect of the present invention, in the makeup evaluation device according to any one of the first to fourth aspects, the evaluation unit determines that makeup has been completed for at least one face element included in the attention element. And a registration unit for registering completion information indicating that the makeup has been completed for the face element in a first database stored in the storage unit, wherein the first database corresponds to each face element. Each record included in the first database, including a record, includes at least sequence information indicating an order in which makeup of a corresponding face element is applied, face element information for identifying the corresponding face element, and a corresponding face element. And completion information indicating whether or not the makeup has been completed, and the notifying unit stores the sequence information of each record registered in the first database. Based on the face element information, and completion information, and then characterized by notifying the face elements to cosmetic to the user.

また、請求項6の考案は、請求項5に記載の化粧評価装置において、前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、をさらに備え、前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする。   The invention according to claim 6 is the makeup evaluation device according to claim 5, further comprising: an input unit that can receive an instruction from the user after a result of the determination by the finish determination unit is notified, The comparison image data stored in the storage unit is updated by a face image captured by the imaging unit in response to an instruction from the input unit.

また、請求項7の考案は、請求項5に記載の化粧評価装置において、前記仕上判断部の判断結果が所望範囲のときに、前記登録部は、前記第1データベースの対応するレコードに、前記完了情報を登録することを特徴とする。   The invention of claim 7 is the makeup evaluation device according to claim 5, wherein when the result of the judgment by the finish judgment unit is within a desired range, the registration unit stores the corresponding record in the first database in the corresponding record. It is characterized in that completion information is registered.

また、請求項8の考案は、化粧評価システムであって、端末と、情報処理装置とを備え、前記端末は、使用者の顔画像を撮像可能とされた撮像部と、前記使用者に対して所望の情報を報知する報知部とを有し、前記情報処理装置は、少なくとも前記使用者の顔画像データ、すなわち、前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が撮像された参考画像データと、化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、前記化粧前画像の撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データとを記憶可能とされた記憶部と、前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部とを有し、前記使用者の顔に含まれる各顔要素のうちの注目する一又は複数の顔要素が、注目要素と定義され、前記情報処理装置の前記評価部は、前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部とを有し、前記仕上判断部の判断結果を受信した前記端末の前記報知部は、該判断結果を前記使用者に報知することを特徴とする。   The invention of claim 8 is a makeup evaluation system, comprising a terminal and an information processing device, wherein the terminal is configured to capture an image of a user's face image, And a notifying unit for notifying the user of desired information, and the information processing apparatus performs at least the use of the face image data of the user, that is, Reference image data in which the face of the user is imaged, pre-makeup image data in which the user's face before makeup is imaged by the imaging unit, and the image is captured by the imaging unit following the imaging of the pre-makeup image. A storage unit capable of storing face image data, and comparison image data obtained by imaging the user's face in a state where makeup is applied to at least a part of the user's face; Image data, the pre-makeup image data, Comparison image data, and, based on the user, having an evaluation unit that evaluates the workmanship of makeup applied to the user, one or more faces of interest among the face elements included in the user's face The element is defined as an element of interest, and the evaluation unit of the information processing apparatus uses the reference image data, the pre-makeup image data, and the comparison image data to generate image data corresponding to the area where each face element exists. An extraction unit that is capable of extracting, and from the pre-makeup image data and the comparison image data, the existence regions corresponding to the element of interest are respectively extracted as the first and second regions by the extraction unit. A first calculation unit that calculates a first index value for each face element included in the target element by using image data included in each of the first and second regions; Presence / absence determination unit configured to execute determination as to whether or not makeup is applied to each of the face elements based on a corresponding one of the first index values calculated by the first calculation unit And determining, from the comparison image data and the reference image data, a presence corresponding to the makeup element for the makeup element determined to be makeup among the face elements included in the attention element by the presence / absence determination unit. Each of the face elements included in the makeup element is extracted by using the image data included in each of the third and fourth areas after the area is extracted as the third and fourth areas by the extraction unit. And a second calculation unit that calculates a second index value for each of the face elements included in the makeup-finished element. Based on And a finish determining unit configured to execute the determination. The notification unit of the terminal that has received the determination result of the finish determination unit notifies the user of the determination result.

また、請求項9の考案は、請求項8に記載の化粧評価システムにおいて、前記参考画像データ、前記化粧前画像データ、および比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする。   According to a ninth aspect of the present invention, in the makeup evaluation system according to the eighth aspect, each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by horizontally inverting a captured image. It is characterized by the following.

また、請求項10の考案は、請求項8または請求項9に記載の化粧評価システムにおいて、前記情報処理装置は、前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、をさらに備え、前記第1データベースは、各顔要素に対応するレコードを含む、前記第1データベースに含まれる各レコードは、少なくとも、対応する顔要素の化粧を施す順番を示すシーケンス情報と、対応する顔要素を識別するための顔要素情報と、対応する顔要素の化粧が完了したか否かを示す完了情報とを格納可能とされており、前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする。   According to a tenth aspect of the present invention, in the makeup evaluation system according to the eighth or ninth aspect, the information processing apparatus determines that makeup has been completed for at least one face element included in the attention element. And a registration unit that registers completion information indicating that the makeup has been completed for the face element in a first database stored in the storage unit, wherein the first database includes Each record included in the first database, including a record corresponding to the face information, includes at least sequence information indicating an order of applying makeup of the corresponding face element, face element information for identifying the corresponding face element, And completion information indicating whether or not the makeup of the face element to be completed has been completed, and the notifying unit stores each record registered in the first database. Sequence information, based on the face element information, and completion information, and then characterized by notifying the face elements to cosmetic to the user.

また、請求項11の考案は、請求項10に記載の化粧評価システムにおいて、前記端末は、前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、をさらに備え、前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする。   The invention according to claim 11 is the makeup evaluation system according to claim 10, wherein the terminal is configured to receive an instruction from the user after the result of the determination by the finish determination unit is notified, Wherein the comparison image data stored in the storage unit is updated by a face image captured by the imaging unit in response to an instruction from the input unit.

請求項1から請求項11に記載の考案によれば、参考画像データ、化粧前画像データ、および比較画像データを用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。   According to the invention as set forth in claims 1 to 11, by using the reference image data, the pre-makeup image data, and the comparison image data, the workmanship of the user is evaluated without using the visual sense. can do. For this reason, even a visually impaired person can satisfactorily apply makeup to his / her face.

特に、請求項2および請求項9に記載の考案において、参考画像データ、化粧前画像データ、および比較画像データのそれぞれは、撮像された画像を左右反転したものとされている。すなわち、各画像データに含まれる各顔要素は、鏡に映った顔画像と同様な配置となる。そのため、使用者は、顔を鏡に映した場合と同様の感覚で、化粧をすることができる。   In particular, in the invention according to claim 2 and claim 9, each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by reversing the captured image from side to side. That is, each face element included in each image data has the same arrangement as the face image reflected in the mirror. Therefore, the user can apply makeup with the same feeling as when the face is mirrored.

本考案の第1の実施の形態における化粧評価装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a makeup evaluation device in a 1st embodiment of the present invention. 参考画像データを説明するための図である。FIG. 4 is a diagram for explaining reference image data. 化粧前画像データを説明するための図である。It is a figure for explaining image data before makeup. 比較画像データを説明するための図である。FIG. 9 is a diagram for explaining comparison image data. 化粧評価に用いられる各顔画像データを説明するための図である。It is a figure for explaining each face image data used for makeup evaluation. 化粧評価に用いられる各顔画像データを説明するための図である。It is a figure for explaining each face image data used for makeup evaluation. 化粧評価に用いられる各顔画像データを説明するための図である。It is a figure for explaining each face image data used for makeup evaluation. 第1データベースのデータ構造の一例を説明するための図である。FIG. 4 is a diagram for describing an example of a data structure of a first database. 化粧評価手順を示すフローチャートである。It is a flowchart which shows a makeup evaluation procedure. 第1データベースのデータ構造の一例を説明するための図である。FIG. 4 is a diagram for describing an example of a data structure of a first database. 本考案の第2の実施の形態における化粧評価システムを説明するためのブロック図である。It is a block diagram for explaining the makeup evaluation system in a second embodiment of the present invention. 本考案の第2の実施の形態における端末を説明するためのブロック図である。FIG. 4 is a block diagram illustrating a terminal according to a second embodiment of the present invention. 本考案の第2の実施の形態における情報処理装置を説明するためのブロック図である。It is a block diagram for explaining the information processor in a 2nd embodiment of the present invention. 本考案の第3の実施の形態における化粧評価システムを説明するためのブロック図である。It is a block diagram for explaining the makeup evaluation system in a third embodiment of the present invention. 本考案の第3の実施の形態における端末を説明するためのブロック図である。FIG. 6 is a block diagram illustrating a terminal according to a third embodiment of the present invention. 本考案の第3の実施の形態における情報処理装置を説明するためのブロック図である。FIG. 9 is a block diagram for explaining an information processing device according to a third embodiment of the present invention.

以下、図面を参照しつつ本考案の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<1.第1の実施の形態>
<1.1.化粧評価装置の構成>
図1は、本考案の第1の実施の形態における化粧評価装置40の構成の一例を示すブロック図である。図2から図4は、それぞれ参考画像データ61、化粧前画像データ63、および比較画像データ65を説明するための図である。
<1. First Embodiment>
<1.1. Configuration of makeup evaluation device>
FIG. 1 is a block diagram showing an example of a configuration of the makeup evaluation device 40 according to the first embodiment of the present invention. 2 to 4 are diagrams for explaining the reference image data 61, the pre-makeup image data 63, and the comparison image data 65, respectively.

ここで、化粧評価装置40は、使用者(視覚障がい者を含む)の顔に施された化粧を評価するための装置である。化粧評価装置40は、いわゆるパーソナルコンピュータやワークステーションにより構成された電子計算機、または、いわゆるスマートフォン(Smartphone)やタブレット端末のような携帯端末により構成されている。   Here, the makeup evaluation device 40 is a device for evaluating makeup applied to a face of a user (including a visually impaired person). The makeup evaluation device 40 is configured by an electronic computer configured by a so-called personal computer or a workstation, or a mobile terminal such as a so-called smartphone (Smartphone) or a tablet terminal.

図1に示すように、化粧評価装置40は、主として、CPU41と、大容量記憶部51と、RAM52と、ROM53と、表示部54と、通信処理部55と、入力部56と、撮像部57と、を有している。また、CPU41、大容量記憶部51、RAM52、ROM53、通信処理部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。   As shown in FIG. 1, the makeup evaluation device 40 mainly includes a CPU 41, a large-capacity storage unit 51, a RAM 52, a ROM 53, a display unit 54, a communication processing unit 55, an input unit 56, and an imaging unit 57. And The CPU 41, the large-capacity storage unit 51, the RAM 52, the ROM 53, the communication processing unit 55, the display processing unit 58, and the input / output processing unit 59 are electrically connected via a bus 41a.

撮像部57は、いわゆるCCD(Charge Coupled Device)センサやCMOS(Complementary MOS)センサを撮像素子とするカメラにより構成されている。撮像部57は、使用者の顔画像を撮像可能とされている。   The imaging unit 57 is configured by a camera having a so-called CCD (Charge Coupled Device) sensor or CMOS (Complementary MOS) sensor as an imaging element. The imaging unit 57 can capture a face image of the user.

大容量記憶部51は、シリコンディスクドライブやハードディスクドライブ等のようにRAM52と比較して記憶容量の大きな素子により構成された記憶部であり、必要に応じてRAM52との間でデータの授受を行う。   The large-capacity storage unit 51 is a storage unit configured by an element having a larger storage capacity than the RAM 52, such as a silicon disk drive or a hard disk drive, and exchanges data with the RAM 52 as necessary. .

RAM52は、いわゆる揮発性の記憶部により構成されている。RAM52は、CPU41の演算で使用されるデータ(少なくとも、使用者の顔画像データである参考画像データ61、化粧前画像データ63、および比較画像データ65、並びに第1データベース70等)を記憶可能とされている。   The RAM 52 is configured by a so-called volatile storage unit. The RAM 52 is capable of storing data (at least the reference image data 61, which is the face image data of the user, the pre-makeup image data 63, the comparison image data 65, the first database 70, and the like) used in the calculation of the CPU 41. Have been.

ここで、参考画像データ61は、使用者の顔に参考となる化粧が施された状態(例えば、化粧品会社の美容部員の方が使用者の顔に化粧を施した状態)で、使用者の顔が予め撮像された顔画像データである(図2参照)。また、化粧前画像データ63は、化粧前の使用者の顔が撮像部57により撮像された顔画像データである(図3参照)。   Here, the reference image data 61 indicates that the face of the user is provided with a reference makeup (for example, a beauty staff of a cosmetics company has applied makeup to the face of the user). The face is face image data captured in advance (see FIG. 2). The pre-makeup image data 63 is face image data in which the face of the user before makeup is imaged by the imaging unit 57 (see FIG. 3).

また、比較画像データ65は、化粧前画像データ63の撮像に続いて、撮像部57により撮像された顔画像データである(図4参照)。この顔画像データには、使用者の顔の少なくとも一部に化粧が施された状態で、使用者の顔が撮像されている。   Further, the comparison image data 65 is face image data captured by the imaging unit 57 following the imaging of the pre-makeup image data 63 (see FIG. 4). In the face image data, the face of the user is imaged in a state where makeup is applied to at least a part of the face of the user.

さらに、参考画像データ61、化粧前画像データ63、および比較画像データ65は、撮像部57により撮像された画像を左右反転したものが用いられても良い。すなわち、各画像データに含まれる各顔要素は、鏡に映った顔画像と同様な配置となる。例えば、図2の場合、顔要素91が左眉に、顔要素92が右眉に、それぞれ対応する。   Further, the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 may be obtained by reversing the image captured by the image capturing unit 57 from side to side. That is, each face element included in each image data has the same arrangement as the face image reflected in the mirror. For example, in the case of FIG. 2, the face element 91 corresponds to the left eyebrow, and the face element 92 corresponds to the right eyebrow.

ROM53は、いわゆる不揮発性メモリにより構成されている。ROM53には、例えば、プログラム53aが格納されている。なお、RAM52およびROM53としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。   The ROM 53 is constituted by a so-called nonvolatile memory. The ROM 53 stores, for example, a program 53a. Note that a flash memory, which is a readable and writable nonvolatile memory, may be used as the RAM 52 and the ROM 53.

CPU41は、ROM53のプログラム53aに従った動作制御やデータ処理を実行する。また、図1中のCPU41内に記載されているブロック(それぞれ符号43(43a〜43e)、45、46が付与されている)に対応する演算機能は、CPU41により実現される。なお、各ブロック42〜46に対応する演算機能については後述する。   The CPU 41 executes operation control and data processing according to the program 53a of the ROM 53. The arithmetic functions corresponding to the blocks (designated by reference numerals 43 (43a to 43e), 45, and 46, respectively) described in the CPU 41 in FIG. The arithmetic functions corresponding to the blocks 42 to 46 will be described later.

入力部56は、例えば、キーパッド、キーボード、またはマウスのような入力機器である。これにより、化粧評価装置40の使用者は、表示部54の表示内容に基づいた入力作業を行う(例えば、使用者からの指示を受け付ける)ことができる。   The input unit 56 is, for example, an input device such as a keypad, a keyboard, or a mouse. Thus, the user of makeup evaluation device 40 can perform an input operation based on the display content of display unit 54 (for example, accept an instruction from the user).

表示部54は、いわゆる液晶ディスプレイ、プラズマディスプレイ、または有機EL(Electro Luminescence)ディスプレイにより構成された表示機器であり、画面に文字や画像等を表示する。表示処理部58は、ビデオコントローラにより構成されており、信号線58aを介して表示部54と電気的に接続されている。したがって、表示処理部58により描画処理が実行されると、表示部54の画面には文字や図形等が表示される。   The display unit 54 is a display device configured by a so-called liquid crystal display, a plasma display, or an organic EL (Electro Luminescence) display, and displays characters, images, and the like on a screen. The display processing unit 58 is configured by a video controller, and is electrically connected to the display unit 54 via a signal line 58a. Therefore, when the drawing processing is executed by the display processing unit 58, characters, graphics, and the like are displayed on the screen of the display unit 54.

通信処理部55は、CPU41からの指令に従い、ネットワーク9を介して接続された外部装置との間で、データの送受信を実行する。入出力処理部59は、化粧評価装置40と、化粧評価装置40に接続された外部機器との間のデータ授受に使用される。図1に示すように、入出力処理部59は、信号線59aを介して、入力部56と電気的に接続されている。これにより、化粧評価装置40のCPU41は、入力部56からの入力情報を受け付けることができる。   The communication processing unit 55 transmits and receives data to and from an external device connected via the network 9 according to a command from the CPU 41. The input / output processing unit 59 is used for data exchange between the makeup evaluation device 40 and an external device connected to the makeup evaluation device 40. As shown in FIG. 1, the input / output processing unit 59 is electrically connected to the input unit 56 via a signal line 59a. Thereby, CPU 41 of makeup evaluation apparatus 40 can receive input information from input unit 56.

<1.2.化粧評価装置のCPUにより実現される演算機能>
図5から図7のそれぞれは、化粧評価に用いられる各顔画像データ61、63、65を説明するための図である。図8は、第1データベース70のデータ構造の一例を説明するための図である。ここでは、図1、および図5から図8を参照しつつ、評価部43、報知部45、および登録部46に対応する機能を説明する。
<1.2. Calculation Function Implemented by CPU of Makeup Evaluation Apparatus>
FIGS. 5 to 7 are diagrams for explaining the face image data 61, 63, and 65 used for makeup evaluation. FIG. 8 is a diagram for explaining an example of the data structure of the first database 70. Here, the functions corresponding to the evaluation unit 43, the notification unit 45, and the registration unit 46 will be described with reference to FIG. 1 and FIGS.

評価部43は、参考画像データ61、化粧前画像データ63、および比較画像データ65に基づいて、使用者に施された化粧の出来映えを評価する。図1に示すように、評価部43は、主として、抽出部43aと、第1演算部43bと、有無判断部43cと、第2演算部43dと、仕上判断部43eと、を有する。   The evaluation unit 43 evaluates the workmanship of the makeup applied to the user based on the reference image data 61, the pre-makeup image data 63, and the comparison image data 65. As illustrated in FIG. 1, the evaluation unit 43 mainly includes an extraction unit 43a, a first calculation unit 43b, a presence / absence determination unit 43c, a second calculation unit 43d, and a finish determination unit 43e.

なお、説明の都合上、本実施の形態では、参考画像データ61、化粧前画像データ63、および比較画像データ65では、顔要素91〜95のみを化粧の出来映え評価の対象とする。   For convenience of explanation, in the present embodiment, in the reference image data 61, the pre-makeup image data 63, and the comparison image data 65, only the face elements 91 to 95 are to be subjected to makeup work evaluation.

抽出部43aは、参考画像データ61、化粧前画像データ63、および比較画像データ65のそれぞれから、各顔要素91〜95を存在領域に対応する画像データを抽出可能とされている。   The extraction unit 43a is capable of extracting image data corresponding to each of the face elements 91 to 95 from the reference image data 61, the pre-makeup image data 63, and the comparison image data 65.

例えば、(一の)顔要素91(左眉)が注目要素とされる場合、参考画像データ61からは存在領域91aに対応する画像データが、化粧前画像データ63からは存在領域91bに対応する画像データが、比較画像データ65からは存在領域91cに対応する画像データが、それぞれ抽出される。   For example, when the (one) face element 91 (left eyebrow) is set as the element of interest, the image data corresponding to the existing area 91a from the reference image data 61 and the existing area 91b from the pre-makeup image data 63. From the comparison image data 65, image data corresponding to the existence area 91c is extracted.

また、顔要素92(右眉)が注目要素とされる場合、参考画像データ61からは存在領域92aに対応する画像データが、化粧前画像データ63からは存在領域92bに対応する画像データが、比較画像データ65からは存在領域92cに対応する画像データが、それぞれ抽出される。   When the face element 92 (right eyebrow) is set as the element of interest, image data corresponding to the existing area 92a is obtained from the reference image data 61, and image data corresponding to the existing area 92b is obtained from the pre-makeup image data 63. Image data corresponding to the existence area 92c is extracted from the comparison image data 65, respectively.

また、顔要素95(唇付近)が注目要素とされる場合、参考画像データ61からは存在領域95aに対応する画像データが、化粧前画像データ63からは存在領域95bに対応する画像データが、比較画像データ65からは存在領域95cに対応する画像データが、それぞれ抽出される。   When the face element 95 (near the lips) is the target element, the image data corresponding to the existence area 95a is obtained from the reference image data 61, and the image data corresponding to the existence area 95b is obtained from the pre-makeup image data 63. Image data corresponding to the existence area 95c is extracted from the comparison image data 65, respectively.

さらに、複数の顔要素93(アイラインが引かれる左瞼付近)、および顔要素94(アイラインが引かれる右瞼付近)が注目要素とされる場合、参考画像データ61からは存在領域93a、94aに対応する画像データが、化粧前画像データ63からは存在領域93b、94bに対応する画像データが、比較画像データ65からは存在領域93c、94cに対応する画像データが、それぞれ抽出される。   Further, when a plurality of face elements 93 (near the left eyelid where the eye line is drawn) and face elements 94 (near the right eyelid where the eye line is drawn) are the elements of interest, the existence area 93a, The image data corresponding to 94a is extracted from the pre-makeup image data 63, the image data corresponding to the existence regions 93b and 94b, and the comparison image data 65 is extracted from the comparison image data 65.

第1演算部43bは、化粧前画像データ63および比較画像データ65から注目要素に対応する存在領域を、抽出部43aにより抽出させる。また、第1演算部43bは、抽出された領域(第1および第2領域)のぞれぞれに含まれる画像データを用いることにより、注目要素に含まれる各顔要素についての第1指標値を演算する。   The first calculation unit 43b causes the extraction unit 43a to extract an existing area corresponding to the element of interest from the pre-makeup image data 63 and the comparison image data 65. Further, the first calculation unit 43b uses the image data included in each of the extracted areas (the first and second areas) to generate a first index value for each face element included in the element of interest. Is calculated.

例えば、(一の)顔要素91が注目要素とされる場合、第1演算部43bは、化粧前画像データ63からは存在領域91b(第1領域)に対応する画像データを、比較画像データ65からは存在領域91c(第2領域)に対応する画像データを、それぞれ抽出部43aにより抽出させる。   For example, when the (one) face element 91 is set as the element of interest, the first calculation unit 43b converts the image data corresponding to the existence area 91b (first area) from the pre-makeup image data 63 into the comparison image data 65. , The extraction unit 43a extracts the image data corresponding to the existence area 91c (the second area).

そして、第1演算部43bは、存在領域91b(第1領域)に対応する画像データと、存在領域91c(第2領域)に対応する画像データと、について、対応画素における濃度値の差分を合算したもの(差分合算値)を、顔要素91の第1指標値として演算する。   Then, the first calculation unit 43b sums up the difference between the density values of the corresponding pixels of the image data corresponding to the existence area 91b (first area) and the image data corresponding to the existence area 91c (second area). The calculated value (the sum of the differences) is calculated as the first index value of the face element 91.

また、複数の顔要素93、94が注目要素とされる場合、第1演算部43bは、化粧前画像データ63からは存在領域93b、94bに対応する画像データを、比較画像データ65からは存在領域93c、94cに対応する画像データを、それぞれ抽出部43aにより抽出させる。   When the plurality of face elements 93 and 94 are set as the elements of interest, the first calculation unit 43b determines whether the image data corresponding to the existence areas 93b and 94b is present from the pre-makeup image data 63 and is present from the comparison image data 65. The image data corresponding to the regions 93c and 94c are respectively extracted by the extraction unit 43a.

そして、第1演算部43bは、存在領域93b(第1領域)に対応する画像データと、存在領域93c(第2領域)に対応する画像データと、について、対応画素における濃度値の差分を合算したものを、顔要素93の第1指標値として演算する。   Then, the first calculation unit 43b sums the difference between the density values of the corresponding pixels in the image data corresponding to the existence area 93b (first area) and the image data corresponding to the existence area 93c (second area). The calculated value is calculated as the first index value of the face element 93.

また同様に、第1演算部43bは、存在領域94b(第1領域)に対応する画像データと、存在領域94c(第2領域)に対応する画像データと、について、対応画素における濃度値の差分を合算したものを、顔要素94の第1指標値として演算する。   Similarly, the first calculation unit 43b calculates the difference between the density value of the corresponding pixel in the image data corresponding to the existing area 94b (first area) and the image data corresponding to the existing area 94c (second area). Are calculated as the first index value of the face element 94.

有無判断部43cは、注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、第1演算部43bで演算された第1指標値のうち、対応するものに基づいて実行するように構成されている。   The presence / absence determination unit 43c determines whether or not each face element included in the element of interest is applied with makeup based on the corresponding one of the first index values calculated by the first calculation unit 43b. It is configured to

例えば、(一の)顔要素91が注目要素とされる場合、有無判断部43cは、顔要素91に対応する第1指標値(差分合算値)が所定値以上となるときに、顔要素91に化粧が施されていると判断する。   For example, when the (one) face element 91 is set as the element of interest, the presence / absence determining unit 43c sets the face element 91 when the first index value (the sum of the differences) corresponding to the face element 91 becomes a predetermined value or more. It is determined that makeup has been applied to.

また、複数の顔要素93、94が注目要素とされる場合、有無判断部43cは、各顔要素93、94について、化粧有無の判断を実行する。すなわち、顔要素93に対応する第1指標値(差分合算値)が所定値以上となるとき、有無判断部43cは、顔要素93に化粧が施されていると判断する。また同様に、顔要素94に対応する第1指標値(差分合算値)が所定値以上となるとき、有無判断部43cは、顔要素94に化粧が施されていると判断する。   When a plurality of face elements 93 and 94 are set as the elements of interest, the presence / absence determination unit 43c determines whether or not each of the face elements 93 and 94 has makeup. That is, when the first index value (the sum of the differences) corresponding to the face element 93 is equal to or greater than the predetermined value, the presence / absence determining unit 43c determines that the face element 93 is being applied with makeup. Similarly, when the first index value (the sum of the differences) corresponding to the face element 94 is equal to or greater than a predetermined value, the presence / absence determining unit 43c determines that the face element 94 is being dressed.

第2演算部43dは、注目要素に含まれる顔要素のうち化粧が施されていると有無判断部43cにより判断された化粧済要素について、比較画像データ65および参考画像データ61から、この化粧済要素に対応する存在領域を、抽出部43aにより抽出させる。   The second computing unit 43d determines, based on the comparative image data 65 and the reference image data 61, the makeup element that has been determined by the presence / absence determination unit 43c to be makeup among face elements included in the element of interest. The existence area corresponding to the element is extracted by the extraction unit 43a.

また、第2演算部43dは、抽出された領域(第3および第4領域)のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する。   The second calculating unit 43d calculates the second index value for each face element included in the makeup element by using the image data included in each of the extracted areas (the third and fourth areas). I do.

例えば、(一の)顔要素91が化粧済要素とされる場合、第2演算部43dは、比較画像データ65からは存在領域91c(第3領域)に対応する画像データを、参考画像データ61からは存在領域91a(第4領域)に対応する画像データを、それぞれ抽出部43aにより抽出させる。   For example, when the (one) face element 91 is a makeup element, the second calculating unit 43d converts the image data corresponding to the existence area 91c (third area) from the comparison image data 65 into the reference image data 61. , The extraction unit 43a extracts the image data corresponding to the existence area 91a (fourth area).

そして、第2演算部43dは、存在領域91c(第3領域)に対応する画像データと、存在領域91a(第4領域)に対応する画像データと、についての相関係数(共分散を各画像データの標準偏差で割ったもの)を、顔要素91の第2指標値として演算する。   Then, the second calculating unit 43d calculates a correlation coefficient (covariance of each image data corresponding to the existence area 91c (third area) and the image data corresponding to the existence area 91a (fourth area). (A value obtained by dividing by the standard deviation of the data) is calculated as the second index value of the face element 91.

また、複数の顔要素93、94が化粧済要素とされる場合、第2演算部43dは、
比較画像データ65からは存在領域93c、94cに対応する画像データを、参考画像データ61からは存在領域93a、94aに対応する画像データを、それぞれ抽出部43aにより抽出させる。
Further, when the plurality of face elements 93 and 94 are set as makeup elements, the second calculating unit 43d
The extraction unit 43a extracts the image data corresponding to the existence regions 93c and 94c from the comparison image data 65, and the image data corresponding to the existence regions 93a and 94a from the reference image data 61.

そして、第2演算部43dは、存在領域93c(第3領域)に対応する画像データと、存在領域93a(第4領域)に対応する画像データと、についての相関係数を、顔要素93の第2指標値として演算する。また同様に、第2演算部43dは、存在領域94c(第3領域)に対応する画像データと、存在領域94a(第4領域)に対応する画像データと、についての相関係数を、顔要素94の第2指標値として演算する。   Then, the second calculating unit 43d calculates a correlation coefficient between the image data corresponding to the existence area 93c (third area) and the image data corresponding to the existence area 93a (fourth area) by using the correlation coefficient of the face element 93. The calculation is performed as a second index value. Similarly, the second calculation unit 43d calculates the correlation coefficient between the image data corresponding to the existence area 94c (third area) and the image data corresponding to the existence area 94a (fourth area) by using the face element. The calculation is performed as a second index value of 94.

仕上判断部43eは、化粧済要素に含まれる各顔要素の出来映えの判断を、第2演算部43dで演算された第2指標値のうち、対応するものに基づいて実行するように構成されている。   The finish determination unit 43e is configured to execute the determination of the workmanship of each face element included in the makeup element based on the corresponding one of the second index values calculated by the second calculation unit 43d. I have.

例えば、(一の)顔要素91が化粧済要素とされる場合、仕上判断部43eは、顔要素91に対応する第2指標値(相関係数)が所定値以上となるときに、顔要素91に所望の出来映えを満たす化粧が施されていると判断する。   For example, when the (one) face element 91 is a makeup element, the finish determining unit 43e determines whether the second index value (correlation coefficient) corresponding to the face element 91 is a predetermined value or more. It is determined that makeup that satisfies the desired workmanship has been applied to 91.

また、複数の顔要素93、94が化粧済要素とされる場合、仕上判断部43eは、各顔要素93、94について、出来映えの判断を実行する。すなわち、顔要素93に対応する第2指標値(相関係数)が所定値以上となるとき、仕上判断部43eは、顔要素93に所望の出来映えを満たす化粧が施されていると判断する。また同様に、顔要素94に対応する第2指標値(相関係数)が所定値以上となるとき、仕上判断部43eは、顔要素93に所望の出来映えを満たす化粧が施されていると判断する。   Further, when the plurality of face elements 93 and 94 are the makeup elements, the finish determining unit 43e performs the determination of the quality of each of the face elements 93 and 94. That is, when the second index value (correlation coefficient) corresponding to the face element 93 is equal to or more than the predetermined value, the finish determining unit 43e determines that makeup that satisfies the desired workmanship is applied to the face element 93. Similarly, when the second index value (correlation coefficient) corresponding to the face element 94 is equal to or greater than a predetermined value, the finish determining unit 43e determines that the face element 93 is provided with makeup that satisfies the desired workmanship. I do.

ここで、第1データベース70について説明する。第1データベース70は、各顔要素91〜95に対して化粧を施す順番を示すシーケンス情報を、対応する顔要素91〜95と関連付けて格納可能なデータ群であり、RAM52(図1参照)に記憶可能とされている。図8に示すように、第1データベース70、主として、「識別ID71」、「顔要素情報72」、および「完了フラグ73」の各フィールド(列)を有している。   Here, the first database 70 will be described. The first database 70 is a data group capable of storing sequence information indicating the order in which makeup is applied to each of the face elements 91 to 95 in association with the corresponding face elements 91 to 95, and is stored in the RAM 52 (see FIG. 1). It can be stored. As shown in FIG. 8, the first database 70 mainly has fields (columns) of “identification ID 71”, “face element information 72”, and “completion flag 73”.

「識別ID71」フィールドには、第1データベース70に登録されている各レコード(各行)を一意に識別するための値が、格納されている。「顔要素情報72」には、各顔要素を識別するための文字列が、格納されている。   The “identification ID 71” field stores a value for uniquely identifying each record (each row) registered in the first database 70. The "face element information 72" stores a character string for identifying each face element.

ここで、「識別ID71」の値が昇順となるように各レコードがソートされている場合、「顔要素情報72」フィールドの並びが、各顔要素の化粧順となる。例えば、本実施の形態の場合、図8に示すように、顔要素91(左眉)、顔要素92(右眉)、顔要素93(アイラインが引かれる左瞼付近)、顔要素94(アイラインが引かれる右瞼付近)、および顔要素95(唇付近)が予め設定された化粧順である。   Here, when the records are sorted such that the values of the “identification ID 71” are in ascending order, the arrangement of the “face element information 72” field is the makeup order of each face element. For example, in the case of the present embodiment, as shown in FIG. 8, a face element 91 (left eyebrow), a face element 92 (right eyebrow), a face element 93 (near the left eyelid where an eye line is drawn), and a face element 94 ( The makeup order is set in advance for the vicinity of the right eyelid on which the eye line is drawn and the face element 95 (around the lips).

「完了フラグ73」は、対応する顔要素に所望の出来映えを満たす化粧が施されているか否かを示すフラグである。本実施の形態において、化粧開始時には、すべてのレコードの「完了フラグ73」に「FALSE」値が設定される。また、対応する顔要素に対して所望の出来映えを満たす化粧が施されていると仕上判断部43eにより判断される場合、対応するレコードの「完了フラグ73」に「TRUE」値が設定される。このように、「完了フラグ73」は、各顔要素に対する化粧が完了したか否かを示す完了情報として用いることができる。   The “completion flag 73” is a flag indicating whether or not makeup corresponding to a desired workmanship has been applied to the corresponding face element. In the present embodiment, at the time of starting makeup, a “FALSE” value is set in the “completion flags 73” of all records. When the finish determining unit 43e determines that makeup corresponding to a desired workmanship has been applied to the corresponding face element, a “TRUE” value is set in the “completion flag 73” of the corresponding record. As described above, the “completion flag 73” can be used as completion information indicating whether makeup for each face element has been completed.

このように、第1データベース70は、各顔要素に対応するレコードを含む。また、第1データベース70に含まれる各レコードは、少なくとも、
(1)対応する顔要素の化粧を施す順番を示す識別ID71(シーケンス情報)と、
(2)対応する顔要素を識別するための顔要素情報72と、
(3)対応する顔要素の化粧が完了したか否かを示す完了フラグ73(完了情報)と、
を格納可能とされている。
Thus, the first database 70 includes records corresponding to each face element. Further, each record included in the first database 70 is at least
(1) identification ID 71 (sequence information) indicating the order in which makeup of the corresponding face element is applied;
(2) face element information 72 for identifying a corresponding face element;
(3) a completion flag 73 (completion information) indicating whether makeup of the corresponding face element has been completed,
Can be stored.

報知部45は、使用者に対して所望の情報を報知する。例えば、報知部45は、仕上判断部43eの判断結果を、音声、振動、および/または、表示部54への表示を用いることによって、使用者に報知しても良い。   The notification unit 45 notifies the user of desired information. For example, the notification unit 45 may notify the user of the determination result of the finish determination unit 43e by using sound, vibration, and / or display on the display unit 54.

すなわち、注目要素のうちの一部について、所望の出来映えを満たす化粧が施されていると判断される場合、報知部45は、例えば、出来映えが良いと判断された顔要素の名称、および出来映えが所望のレベル達していない顔要素の名称、を使用者に報知する。   That is, when it is determined that the makeup that satisfies the desired workmanship is applied to a part of the attention elements, the notification unit 45 displays, for example, the name of the face element determined to be good workmanship and the workmanship. The name of the face element that has not reached the desired level is notified to the user.

登録部46は、注目要素(より具体的には、化粧済要素)に含まれる少なくとも1つの顔要素について化粧が完了したと評価部43により判断される場合に、この顔要素について化粧が完了したことを示す完了情報を第1データベース70に登録する。   When the evaluation unit 43 determines that the makeup has been completed for at least one face element included in the element of interest (more specifically, the makeup element), the registration unit 46 completes the makeup for this face element. Is registered in the first database 70.

例えば、登録部46は、仕上判断部43eの判断結果が所望範囲(例えば、第2指標値が所定値以上)となるときに、第1データベース70に含まれる対応レコードの「完了フラグ73」を「FALSE」値から「TRUE」値に変更する。   For example, when the result of the determination by the finish determining unit 43e falls within a desired range (for example, the second index value is equal to or more than a predetermined value), the registration unit 46 sets the “complete flag 73” of the corresponding record included in the first database 70. Change from “FALSE” value to “TRUE” value.

これにより、報知部45は、第1データベース70に登録された各レコードの識別ID71、顔要素情報72、および完了フラグ73に基づいて、次に化粧すべき顔要素を使用者に対して報知することができる。   Accordingly, the notification unit 45 notifies the user of the next face element to be applied based on the identification ID 71, the face element information 72, and the completion flag 73 of each record registered in the first database 70. be able to.

例えば、第1データベース70の各レコードの値が図8のようになっている場合、報知部45は、第1データベース70から、(1)「完了フラグ73」=「FALSE」、かつ、(2)「識別ID71」値が最小となるレコードを抽出する。 そして、報知部45は、抽出されたレコードの顔要素情報72を読み取ることによって、次に顔要素92を化粧すべき旨を使用者に報知する。   For example, when the value of each record in the first database 70 is as shown in FIG. 8, the notification unit 45 determines from the first database 70 that (1) “completion flag 73” = “FALSE” and (2) ) A record in which the value of the “identification ID 71” is minimum is extracted. Then, the notifying unit 45 reads the face element information 72 of the extracted record, thereby notifying the user that the face element 92 should be made up next.

<1.3.化粧評価の手順>
図9は、化粧評価手順を示すフローチャートである。図10は、第1データベース70のデータ構造の一例を説明するための図である。ここでは、図5から図10を参照しつつ、化粧評価装置40を用いた化粧の評価手順を説明する。
<1.3. Makeup evaluation procedure>
FIG. 9 is a flowchart showing the makeup evaluation procedure. FIG. 10 is a diagram for explaining an example of the data structure of the first database 70. Here, a makeup evaluation procedure using the makeup evaluation device 40 will be described with reference to FIGS. 5 to 10.

まず、本判定手順では、RAM52(記憶部)に記憶された比較画像データ65の格納状況が監視される(S101)。そして、
(1)撮像部57により撮像された顔画像が、比較画像データ65としてRAM52に新たに記憶されたとき、または、
(2)撮像部57により撮像された顔画像によって、RAM52に記憶された比較画像データ65が更新されたとき、
評価部43は、ステップS102からS106に従って、使用者に施された化粧の出来映えを評価する。例えば、撮像部57により顔画像が撮像され、RAM52の比較画像データ65が図7に示すものに更新された場合、ステップS102に進む。
First, in this determination procedure, the storage status of the comparison image data 65 stored in the RAM 52 (storage unit) is monitored (S101). And
(1) When the face image captured by the imaging unit 57 is newly stored in the RAM 52 as the comparison image data 65, or
(2) When the comparison image data 65 stored in the RAM 52 is updated by the face image captured by the imaging unit 57,
The evaluation unit 43 evaluates the workmanship of the makeup applied to the user according to steps S102 to S106. For example, when the face image is captured by the imaging unit 57 and the comparison image data 65 in the RAM 52 is updated to the one shown in FIG. 7, the process proceeds to step S102.

ステップS102の抽出処理では、第1データベース70に含まれる各レコードの「完了フラグ73」が参照されるとともに、参照された各レコードの「完了フラグ73」に基づいて、注目要素が抽出される(S102)。   In the extraction processing of step S102, the “completion flag 73” of each record included in the first database 70 is referred to, and the element of interest is extracted based on the “completion flag 73” of each referenced record ( S102).

例えば、図8の場合、「完了フラグ73」=「FALSE」となるレコード(「識別ID71」=「2」から「5」となるレコード)が抽出される。そして、各顔要素のうち、抽出レコードに対応するもの(「顔要素情報72」=「顔要素92」から「顔要素95」となるもの)が、注目要素として抽出される。   For example, in the case of FIG. 8, records in which “completion flag 73” = “FALSE” (records in which “identification ID 71” = “2” to “5”) are extracted. Then, of the face elements, the one corresponding to the extracted record (the one from “face element information 72” = “face element 92” to “face element 95”) is extracted as the element of interest.

続いて、第1演算部43bによって、注目要素に含まれる各顔要素の第1指標値を演算されるとともに(S103)、有無判断部43cによって、注目要素に含まれる各顔要素に化粧が施されているか否かの判断がなされる(S104)。   Subsequently, the first calculation unit 43b calculates the first index value of each face element included in the element of interest (S103), and the presence / absence determination unit 43c applies makeup to each face element included in the element of interest. It is determined whether or not it has been performed (S104).

ここで、有無判断部43cによって、注目要素に含まれるいずれの顔要素についても化粧が施されていないと判断される場合(例えば、第1指標値が差分合算値の場合、演算された全ての第1指標値が所定値未満となるとき:S104)、注目要素に含まれるいずれの顔要素にも化粧が施されていないと判断してステップS108に進む。   Here, when the presence / absence determination unit 43c determines that makeup is not applied to any of the face elements included in the element of interest (for example, when the first index value is the sum of the differences, When the first index value is less than the predetermined value: S104), it is determined that no face element included in the element of interest has been subjected to makeup, and the process proceeds to step S108.

これに対して、注目要素のうちの少なくとも1つの顔要素に化粧が施されていると判断される場合(S104)、第2演算部43dによって、化粧済要素に含まれる各顔要素の第2指標値が演算されるとともに(S105)、仕上判断部43eによって、化粧済要素に含まれる各顔要素の化粧が完了しているか否かの判断がなされる(S106)。   On the other hand, when it is determined that makeup is applied to at least one face element of the attention element (S104), the second calculation unit 43d performs the second calculation of each face element included in the makeup element. The index value is calculated (S105), and the finish determining unit 43e determines whether makeup of each face element included in the makeup element has been completed (S106).

ここで、仕上判断部43eによって、化粧済要素に含まれるいずれの顔要素についても化粧が完了していないと判断される場合(例えば、第2指標値が相関係数の場合、演算された全ての第2指標値が所定値未満となるとき:S106)、化粧済要素に含まれるいずれの顔要素にも化粧が完了していないと判断してステップS108に進む。   Here, when the finish determination unit 43e determines that makeup is not completed for any of the face elements included in the makeup-completed element (for example, when the second index value is a correlation coefficient, When the second index value is less than the predetermined value: S106), it is determined that makeup is not completed for any of the face elements included in the makeup element, and the process proceeds to step S108.

これに対して、化粧済要素のうちの少なくとも1つの顔要素について、この顔要素に施された化粧の出来映えが良いと判断される場合(S106)、第1データベース70に含まれるレコードのうち対応するものに完了情報が登録された後(S107)、ステップS108に進む。   On the other hand, when it is determined that at least one face element among the makeup elements is good in the makeup applied to the face element (S106), the correspondence among the records included in the first database 70 is determined. After the completion information is registered in the server (S107), the process proceeds to step S108.

例えば、図7および図8の場合において、既に顔要素91の化粧が完了している状態で、新たに顔要素93の化粧が完了していると判断される場合、登録部46は、第1データベース70に含まれるレコードのうち、「識別ID71」=「3」となるレコードを抽出するとともに、抽出されたレコードの「完了フラグ73」を「FALSE」値から「TRUE」値に変更する(図10参照)。   For example, in the case of FIG. 7 and FIG. 8, when it is determined that makeup of the face element 93 is completed while makeup of the face element 91 is already completed, the registration unit 46 sets the first Among the records included in the database 70, a record in which “identification ID 71” = “3” is extracted, and the “complete flag 73” of the extracted record is changed from a “FALSE” value to a “TRUE” value (FIG. 10).

ステップS108では、報知部45によって、ステップS104の注目要素に含まれる各顔要素、またはステップS106の化粧済要素に含まれる各顔要素の化粧状況が報知される。   In step S108, the notifying unit 45 notifies the makeup status of each face element included in the target element in step S104 or each face element included in the makeup element in step S106.

例えば、ステップS104において、注目要素に含まれるいずれの顔要素についても化粧が施されていないと判断された場合、報知部45は、
(1)「完了フラグ73」=「FALSE」に対応する各顔要素(図8の場合、顔要素92〜顔要素95)について化粧が施されていないこと、および、
(2)次に化粧すべき顔要素(図8の場合、顔要素92)、
を使用者に対して報知する。
For example, when it is determined in step S104 that makeup is not applied to any of the face elements included in the element of interest, the notification unit 45 determines
(1) Makeup is not applied to each face element (face element 92 to face element 95 in FIG. 8) corresponding to “completion flag 73” = “FALSE”; and
(2) a face element to be made next (the face element 92 in FIG. 8);
Is notified to the user.

また、ステップS106において、化粧済要素に含まれるいずれの顔要素についても化粧が完了していない(所望の出来映えを満たす化粧が施されていない)と判断された場合、報知部45は、
(1)化粧済要素に含まれる全ての顔要素に施された化粧を落とすこと、および、
(2)次に化粧すべき顔要素(図8の場合、顔要素92)、
を使用者に対して報知する。
If it is determined in step S106 that makeup has not been completed for any of the face elements included in the makeup element (makeup that satisfies the desired workmanship has not been performed), the notification unit 45 sets
(1) removing makeup applied to all face elements included in the makeup element; and
(2) a face element to be made next (the face element 92 in FIG. 8);
Is notified to the user.

さらに、ステップS106において、化粧済要素に含まれる顔要素のうち少なくとも1つの要素の化粧が完了していないと判断された場合、報知部45は、
(1)上述の少なくとも1つの要素(以下、「未完要素」と称する)に施された化粧を落とすこと、および、
(2)次に化粧すべき顔要素、
を使用者に対して報知する。
Furthermore, when it is determined in step S106 that makeup of at least one of the face elements included in the makeup element has not been completed, the notification unit 45 sets
(1) removing makeup applied to at least one element described above (hereinafter, referred to as “unfinished element”); and
(2) The facial elements to be made next,
Is notified to the user.

なお、ステップS106において、化粧済要素に含まれる顔要素のうち少なくとも1つの要素の化粧が完了していないと判断された場合、次に化粧すべき顔要素は、顔要素を登録部46により更新された第1データベース70に基づいて選択される。   If it is determined in step S106 that makeup of at least one of the face elements included in the makeup element has not been completed, the registration of the face element by the registration unit 46 is performed for the next face element to be makeup. Is selected based on the first database 70 that has been set.

そして、ステップS109において、顔要素の一部について化粧が完了していないと判断される場合(すなわち、第1データベース70に含まれる一部のレコードの「完了フラグ73」が「FALSE」となっている場合)、ステップS101に戻る。この場合、RAM52に記憶された比較画像データ65は、入力部56からの指示に応じ、撮像部57により撮像された顔画像によって、更新されても良い。   Then, in step S109, when it is determined that the makeup has not been completed for a part of the face element (that is, the “complete flag 73” of some records included in the first database 70 becomes “FALSE”). If yes, the process returns to step S101. In this case, the comparison image data 65 stored in the RAM 52 may be updated with a face image captured by the imaging unit 57 in response to an instruction from the input unit 56.

これに対して、ステップS109において、全ての顔要素の化粧が完了していると判断される場合(すなわち、第1データベース70に含まれる全てのレコードの「完了フラグ73」が「TRUE」となっている場合)、化粧評価を終了する。   On the other hand, when it is determined in step S109 that the makeup of all the face elements has been completed (that is, the “complete flag 73” of all the records included in the first database 70 becomes “TRUE”). ), The makeup evaluation ends.

<1.4.第1の実施の形態の化粧評価装置の利点>
以上のように、第1の実施の形態の化粧評価装置40では、参考画像データ61、化粧前画像データ63、および比較画像データ65を用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。
<1.4. Advantages of the makeup evaluation device of the first embodiment>
As described above, in the makeup evaluation device 40 of the first embodiment, the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 are used by the user without using the visual sense. You can evaluate the workmanship of your makeup. For this reason, even a visually impaired person can satisfactorily apply makeup to his / her face.

また、第1の実施の形態の化粧評価装置40において、参考画像データ61、化粧前画像データ63、および比較画像データ65のそれぞれは、撮像された画像を左右反転したものとすることができる。すなわち、各画像データに含まれる各顔要素は、鏡に映った顔画像と同様な配置となる。そのため、使用者は、自身の顔を鏡に映した場合と同様の感覚で、化粧をすることができる。   Further, in makeup evaluation apparatus 40 of the first embodiment, each of reference image data 61, pre-makeup image data 63, and comparison image data 65 can be obtained by reversing a captured image from side to side. That is, each face element included in each image data has the same arrangement as the face image reflected in the mirror. Therefore, the user can apply makeup with the same feeling as when his / her face is reflected in a mirror.

<2.第2の実施の形態>
次に、本考案の第2の実施の形態について説明する。第1および第2の実施の形態の化粧評価装置40および化粧評価システム100は、同様な機能を実現する点で共通する。また、化粧評価装置40で実現される機能が、端末110および情報処理装置140のいずれかで実現される点で相違する。そこで、以下では、この相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. The makeup evaluation device 40 and the makeup evaluation system 100 according to the first and second embodiments are common in that similar functions are realized. Further, the function realized by makeup evaluation apparatus 40 is different in that it is realized by either terminal 110 or information processing apparatus 140. Therefore, the following description focuses on this difference.

なお、化粧評価装置40および化粧評価システム100で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   The same components in the makeup evaluation device 40 and the makeup evaluation system 100 are denoted by the same reference numerals, and the components denoted by the same reference numerals have been described in the first embodiment. Therefore, description is omitted in the present embodiment.

<2.1.化粧評価システムの構成>
図11から図13は、それぞれ本考案の第2の実施の形態における化粧評価システム100、端末110、および情報処理装置140の構成の一例を示すブロック図である。化粧評価システム100の使用者(視覚障がい者を含む)は、このシステム100を用いることによって、自身の顔に施された化粧を評価することができる。図11に示すように、化粧評価システム100は、主として、一又は複数の端末110(110a、110b)と、情報処理装置140と、を有している。
<2.1. Configuration of makeup evaluation system>
FIGS. 11 to 13 are block diagrams illustrating an example of the configuration of the makeup evaluation system 100, the terminal 110, and the information processing device 140 according to the second embodiment of the present invention. A user (including a visually impaired person) of the makeup evaluation system 100 can evaluate makeup applied to his / her face by using the system 100. As shown in FIG. 11, makeup evaluation system 100 mainly includes one or more terminals 110 (110a, 110b) and information processing device 140.

端末110は、いわゆるスマートフォン(Smartphone)やタブレット端末のような携帯端末により構成されている。図11に示すように、端末110は、ネットワーク9を介し情報処理装置140と接続されている。なお、端末110の詳細な構成については、後述する。   The terminal 110 is configured by a mobile terminal such as a so-called smartphone (Smartphone) or a tablet terminal. As shown in FIG. 11, the terminal 110 is connected to the information processing device 140 via the network 9. The detailed configuration of the terminal 110 will be described later.

情報処理装置140は、いわゆるパーソナルコンピュータやワークステーションにより構成された電子計算機であり、端末110から送信された画像データに従い、所望の処理を実行する。なお、情報処理装置140の詳細な構成については、後述する。   The information processing device 140 is an electronic computer configured by a so-called personal computer or workstation, and executes a desired process according to the image data transmitted from the terminal 110. The detailed configuration of the information processing device 140 will be described later.

<2.2.端末の構成>
図12は、端末110の構成の一例を示す図である。図12に示すように、端末110は、主として、CPU111と、RAM122と、ROM123と、通信処理部125と、タッチパネル部126と、撮像部127と、を有している。また、CPU111、RAM122、ROM123、通信処理部125、表示処理部128、および入出力処理部129は、バス111aを介して電気的に接続されている。
<2.2. Terminal Configuration>
FIG. 12 is a diagram illustrating an example of the configuration of the terminal 110. As illustrated in FIG. 12, the terminal 110 mainly includes a CPU 111, a RAM 122, a ROM 123, a communication processing unit 125, a touch panel unit 126, and an imaging unit 127. The CPU 111, the RAM 122, the ROM 123, the communication processing unit 125, the display processing unit 128, and the input / output processing unit 129 are electrically connected via the bus 111a.

RAM122は、いわゆる揮発性の記憶部により構成されている。RAM122には、CPU111の演算で使用されるデータが格納可能とされている。ROM123は、いわゆる不揮発性メモリにより構成されている。ROM123には、例えば、プログラム123aが格納されている。なお、RAM122およびROM123としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。   The RAM 122 includes a so-called volatile storage unit. The RAM 122 can store data used in the operation of the CPU 111. The ROM 123 is configured by a so-called nonvolatile memory. The ROM 123 stores, for example, a program 123a. As the RAM 122 and the ROM 123, a flash memory which is a readable and writable nonvolatile memory may be used.

CPU111は、ROM123のプログラム123aに従った動作制御やデータ処理を実行する。また、図12中のCPU111内に記載されている報知部114は、報知部45と同様な演算機能であり、CPU111により実現される。   The CPU 111 executes operation control and data processing according to the program 123a of the ROM 123. The notification unit 114 described in the CPU 111 in FIG. 12 has the same calculation function as the notification unit 45, and is realized by the CPU 111.

通信処理部125は、CPU111からの指令に従い、ネットワーク9を介して接続された情報処理装置140との間で、データの送受信を実行する。タッチパネル部126は、例えば、液晶ディスプレイのような「表示機器」としての機能と、指や専用のペンで画面に触れることによって画面上の位置を指定できる「タッチパネル」としての機能と、を有している。   The communication processing unit 125 transmits and receives data to and from the information processing device 140 connected via the network 9 in accordance with a command from the CPU 111. The touch panel unit 126 has, for example, a function as a “display device” such as a liquid crystal display, and a function as a “touch panel” that can specify a position on the screen by touching the screen with a finger or a dedicated pen. ing.

撮像部127は、撮像部57と同様に、いわゆるCCDセンサやCMOSセンサを撮像素子とするカメラにより構成されている。これにより、撮像部127は、使用者の顔画像を撮像可能とされている。   The imaging unit 127 is configured by a camera using a so-called CCD sensor or CMOS sensor as an imaging device, similarly to the imaging unit 57. Thus, the imaging unit 127 can capture a face image of the user.

表示処理部128は、表示処理部38と同様に、ビデオコントローラにより構成されており、信号線128aを介してタッチパネル部126と電気的に接続されている。したがって、表示処理部128により描画処理が実行されると、タッチパネル部126の画面には文字や図形等が表示される。   The display processing unit 128, like the display processing unit 38, is configured by a video controller, and is electrically connected to the touch panel unit 126 via a signal line 128a. Therefore, when the drawing processing is executed by the display processing unit 128, characters, graphics, and the like are displayed on the screen of the touch panel unit 126.

入出力処理部129は、端末110と、端末110の外部機器との間のデータ授受に使用される。図12に示すように、入出力処理部129は、信号線129aを介して、タッチパネル部126および撮像部127と電気的に接続されている。これにより、端末110のCPU111は、タッチパネル部126の画面上の位置情報を取得できる。   The input / output processing unit 129 is used for exchanging data between the terminal 110 and an external device of the terminal 110. As shown in FIG. 12, the input / output processing unit 129 is electrically connected to the touch panel unit 126 and the imaging unit 127 via a signal line 129a. Thereby, the CPU 111 of the terminal 110 can acquire the position information on the screen of the touch panel unit 126.

<2.3.情報処理装置の構成>
図13に示すように、情報処理装置140は、主として、CPU141と、大容量記憶部51と、RAM52と、ROM53と、表示部54と、通信処理部55と、入力部56と、撮像部57と、を有している。また、CPU141、大容量記憶部51、RAM52、ROM53、通信処理部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。
<2.3. Configuration of Information Processing Device>
As shown in FIG. 13, the information processing device 140 mainly includes a CPU 141, a large-capacity storage unit 51, a RAM 52, a ROM 53, a display unit 54, a communication processing unit 55, an input unit 56, and an imaging unit 57. And The CPU 141, the large-capacity storage unit 51, the RAM 52, the ROM 53, the communication processing unit 55, the display processing unit 58, and the input / output processing unit 59 are electrically connected via the bus 41a.

CPU141は、ROM123のプログラム123aに従った動作制御やデータ処理を実行する。また、図13中のCPU141内に記載されているブロック(それぞれ符号43(43a〜43e)、45、46が付与されている)に対応する演算機能は、CPU141により実現される。   The CPU 141 executes operation control and data processing according to the program 123a of the ROM 123. Further, the arithmetic functions corresponding to the blocks (numbers 43 (43a to 43e), 45, and 46 respectively) described in the CPU 141 in FIG. 13 are realized by the CPU 141.

<2.4.第2の実施の形態の化粧評価システムの利点>
以上のように、第2の実施の形態の化粧評価システム100では、第1の実施の形態の化粧評価装置40と同様に、参考画像データ61、化粧前画像データ63、および比較画像データ65を用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。
<2.4. Advantages of makeup evaluation system according to second embodiment>
As described above, in the makeup evaluation system 100 of the second embodiment, the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 are stored in the same manner as the makeup evaluation device 40 of the first embodiment. By using it, the workmanship of the makeup applied to the user can be evaluated without using the visual sense. For this reason, even a visually impaired person can satisfactorily apply makeup to his / her face.

<3.第3の実施の形態>
次に、本考案の第3の実施の形態について説明する。第2および第3の実施の形態の化粧評価システム100、200は、対応するRAM52、252、およびRAM122、222に格納されるデータが異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. The makeup evaluation systems 100 and 200 of the second and third embodiments have the same configuration except that the data stored in the corresponding RAMs 52 and 252 and the RAMs 122 and 222 are different. Therefore, the following description focuses on this difference.

なお、化粧評価システム100、200で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1および第2の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In the makeup evaluation systems 100 and 200, the same components are denoted by the same reference numerals, and the components denoted by the same reference numerals have been described in the first and second embodiments. Therefore, description is omitted in the present embodiment.

図14から図16は、それぞれ本考案の第3の実施の形態における化粧評価システム200、端末210、および情報処理装置240の構成の一例を示すブロック図である。図14に示すように、化粧評価システム200は、主として、一又は複数の端末210(210a、210b)と、情報処理装置240と、を有している。   FIGS. 14 to 16 are block diagrams showing an example of the configuration of the makeup evaluation system 200, the terminal 210, and the information processing device 240 according to the third embodiment of the present invention. As shown in FIG. 14, makeup evaluation system 200 mainly includes one or a plurality of terminals 210 (210a, 210b) and information processing device 240.

図15は、端末210の構成の一例を示すブロック図である。図15に示すように、端末210は、主として、CPU111と、RAM222と、ROM123と、通信処理部125と、タッチパネル部126と、撮像部127と、を有している。また、CPU111、RAM222、ROM123、通信処理部125、表示処理部128、および入出力処理部129は、バス111aを介して電気的に接続されている。   FIG. 15 is a block diagram illustrating an example of a configuration of the terminal 210. As illustrated in FIG. 15, the terminal 210 mainly includes a CPU 111, a RAM 222, a ROM 123, a communication processing unit 125, a touch panel unit 126, and an imaging unit 127. The CPU 111, the RAM 222, the ROM 123, the communication processing unit 125, the display processing unit 128, and the input / output processing unit 129 are electrically connected via a bus 111a.

RAM222は、RAM122と同様に、いわゆる揮発性の記憶部により構成されている。RAM222は、CPU111の演算で使用されるデータ(少なくとも、使用者の顔画像データである化粧前画像データ63および比較画像データ65、並びに第1データベース70等)を記憶可能とされている。   The RAM 222 is configured by a so-called volatile storage unit, like the RAM 122. The RAM 222 is capable of storing data used in the calculation of the CPU 111 (at least, the pre-makeup image data 63 and the comparison image data 65 that are user's face image data, the first database 70, and the like).

図16は、情報処理装置240の構成の一例を示すブロック図である。図16に示すように、情報処理装置240は、主として、CPU141と、大容量記憶部51と、RAM252と、ROM53と、表示部54と、通信処理部55と、入力部56と、撮像部57と、を有している。また、CPU141、大容量記憶部51、RAM252、ROM53、通信処理部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。   FIG. 16 is a block diagram illustrating an example of the configuration of the information processing device 240. As illustrated in FIG. 16, the information processing device 240 mainly includes a CPU 141, a large-capacity storage unit 51, a RAM 252, a ROM 53, a display unit 54, a communication processing unit 55, an input unit 56, and an imaging unit 57. And The CPU 141, the large-capacity storage unit 51, the RAM 252, the ROM 53, the communication processing unit 55, the display processing unit 58, and the input / output processing unit 59 are electrically connected via the bus 41a.

RAM252は、RAM52と同様に、いわゆる揮発性の記憶部により構成されている。RAM252は、CPU141の演算で使用されるデータ(少なくとも、使用者の顔画像データである参考画像データ61等)を記憶可能とされている。   The RAM 252 is configured by a so-called volatile storage unit, like the RAM 52. The RAM 252 is capable of storing data used in the calculation of the CPU 141 (at least, the reference image data 61 which is the face image data of the user).

以上のように、第3の実施の形態の化粧評価システム200では、第2の実施の形態の化粧評価システム100と同様に、参考画像データ61、化粧前画像データ63、および比較画像データ65を用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。   As described above, in the makeup evaluation system 200 according to the third embodiment, similarly to the makeup evaluation system 100 according to the second embodiment, the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 are stored. By using it, the workmanship of the makeup applied to the user can be evaluated without using the visual sense. For this reason, even a visually impaired person can satisfactorily apply makeup to his / her face.

<4.変形例>
以上、本考案の実施の形態について説明してきたが、本考案は上記実施の形態に限定されるものではなく様々な変形が可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications are possible.

(1)第1から第3の形態における評価部43は、CPU41(図1参照)、CPU141(図13、図16参照)によりソフトウェア的に実現されるものとして説明したが、これに限定されるものでない。例えば、評価部43の機能は、電子回路等のハードウェアによって実現されてもよい。   (1) The evaluation unit 43 in the first to third embodiments has been described as being realized by software by the CPU 41 (see FIG. 1) and the CPU 141 (see FIGS. 13 and 16), but is not limited thereto. Not something. For example, the function of the evaluation unit 43 may be realized by hardware such as an electronic circuit.

40 化粧評価装置
100、200 化粧評価システム
110 端末
140 情報処理装置
40 makeup evaluation device 100, 200 makeup evaluation system 110 terminal 140 information processing device

Claims (11)

化粧評価装置であって、
(a) 使用者の顔画像を撮像可能とされた撮像部と、
(b) 少なくとも前記使用者の顔画像データ、すなわち、
(b-1) 前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が予め撮像された参考画像データと、
(b-2) 化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、
(b-3) 前記化粧前画像データの撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データと、
を記憶可能とされた記憶部と、
(c) 前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部と、
(d) 前記使用者に対して所望の情報を報知する報知部と、
を備え、
前記使用者の顔に含まれる各顔要素のうちの注目する一又は複数の顔要素が、注目要素と定義され、
前記評価部は、
(c-1) 前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、
(c-2) 前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、
前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、
(c-3) 前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、
(c-4) 前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、
前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、
前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、
(c-5) 前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部と、
を有し、
前記報知部は、前記仕上判断部の判断結果を前記使用者に報知することを特徴とする化粧評価装置。
A makeup evaluation device,
(a) an imaging unit capable of capturing a face image of a user;
(b) at least the user's face image data, that is,
(b-1) In a state where reference makeup is applied to the user's face, reference image data in which the user's face is captured in advance,
(b-2) pre-makeup image data in which the user's face before makeup is imaged by the imaging unit,
(b-3) the face image data captured by the imaging unit following the capturing of the pre-makeup image data, wherein the makeup is applied to at least a part of the user's face; Comparison image data obtained by capturing the face of
A storage unit capable of storing
(c) the reference image data, the pre-makeup image data, and the comparison image data, based on the evaluation unit to evaluate the workmanship of the makeup applied to the user,
(d) a notification unit that notifies the user of desired information,
With
One or more face elements of interest out of the face elements included in the user's face are defined as attention elements,
The evaluation unit is
(c-1) the reference image data, the pre-make-up image data, and the comparison image data, from each of the comparison image data, an extraction unit capable of extracting image data corresponding to the area where each face element is present,
(c-2) After extracting the existence area corresponding to the element of interest from the pre-makeup image data and the comparison image data as first and second areas, respectively, by the extraction unit,
A first calculation unit that calculates a first index value for each face element included in the target element by using image data included in each of the first and second regions;
(c-3) determining whether or not makeup is applied to each face element included in the noted element based on a corresponding one of the first index values calculated by the first calculation unit Presence / absence determining unit configured to perform
(c-4) For the makeup element that has been determined to have makeup applied to the face elements included in the attention element by the presence / absence determination unit,
After extracting the existence areas corresponding to the makeup elements from the comparison image data and the reference image data as third and fourth areas, respectively, by the extraction unit,
A second calculator that calculates a second index value for each face element included in the makeup element by using image data included in each of the third and fourth regions;
(c-5) The determination of the workmanship of each face element included in the makeup element is performed based on a corresponding one of the second index values calculated by the second calculation unit. Finish judgment section,
Have
The notification unit notifies the user of a determination result of the finish determination unit to the user.
請求項1に記載の化粧評価装置において、
前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする化粧評価装置。
The makeup evaluation device according to claim 1,
The makeup evaluation apparatus, wherein each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by inverting a captured image horizontally.
請求項1または請求項2に記載の化粧評価装置において、
前記撮像部により撮像された顔画像が、前記比較画像データとして前記記憶部に新たに記憶されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする化粧評価装置。
The makeup evaluation device according to claim 1 or 2,
When the face image captured by the imaging unit is newly stored in the storage unit as the comparison image data, the evaluation unit evaluates the performance of makeup applied to the user. Makeup evaluation device.
請求項1または請求項2に記載の化粧評価装置において、
前記撮像部により撮像された顔画像によって、前記記憶部に記憶された前記比較画像データが更新されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする化粧評価装置。
The makeup evaluation device according to claim 1 or 2,
When the comparison image data stored in the storage unit is updated by a face image captured by the imaging unit, the evaluation unit evaluates the performance of makeup applied to the user. Makeup evaluation device.
請求項1から請求項4のいずれかに記載の化粧評価装置において、
(e) 前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、
をさらに備え、
前記第1データベースは、各顔要素に対応するレコードを含む、
前記第1データベースに含まれる各レコードは、少なくとも、
対応する顔要素の化粧を施す順番を示すシーケンス情報と、
対応する顔要素を識別するための顔要素情報と、
対応する顔要素の化粧が完了したか否かを示す完了情報と、
を格納可能とされており、
前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする化粧評価装置。
The makeup evaluation device according to any one of claims 1 to 4,
(e) when the evaluation unit determines that makeup is completed for at least one face element included in the attention element, completion information indicating that makeup is completed for the face element is stored in the storage unit. A registration unit for registering in the first database,
Further comprising
The first database includes a record corresponding to each face element.
Each record included in the first database is at least:
Sequence information indicating the order of applying the makeup of the corresponding face element;
Face element information for identifying a corresponding face element;
Completion information indicating whether makeup of the corresponding face element has been completed, and
Can be stored,
The notifying unit notifies the user of a face element to be next made based on sequence information, face element information, and completion information of each record registered in the first database. Makeup evaluation device.
請求項5に記載の化粧評価装置において、
(f) 前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、
をさらに備え、
前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする化粧評価装置。
The makeup evaluation device according to claim 5,
(f) an input unit capable of accepting an instruction from the user after the result of the determination by the finish determination unit has been notified,
Further comprising
The comparison evaluation data stored in the storage unit is updated with a face image captured by the imaging unit in response to an instruction from the input unit.
請求項5に記載の化粧評価装置において、
前記仕上判断部の判断結果が所望範囲のときに、前記登録部は、前記第1データベースの対応するレコードに、前記完了情報を登録することを特徴とする化粧評価装置。
The makeup evaluation device according to claim 5,
When the result of the determination by the finish determination unit is within a desired range, the registration unit registers the completion information in a corresponding record of the first database.
化粧評価システムであって、
(a) 端末と、
(b) 情報処理装置と、
を備え、
前記端末は、
(a-1) 使用者の顔画像を撮像可能とされた撮像部と、
(a-2) 前記使用者に対して所望の情報を報知する報知部と、
を有し、
前記情報処理装置は、
(b-1) 少なくとも前記使用者の顔画像データ、すなわち、
前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が撮像された参考画像データと、
化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、
前記化粧前画像の撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データと、
を記憶可能とされた記憶部と、
(b-2) 前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部と、
を有し、
前記使用者の顔に含まれる各顔要素のうちの注目する一又は複数の顔要素が、注目要素と定義され、
前記情報処理装置の前記評価部は、
前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、
前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、
前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、
前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、
前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、
前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、
前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、
前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部と、
を有し、
前記仕上判断部の判断結果を受信した前記端末の前記報知部は、該判断結果を前記使用者に報知することを特徴とする化粧評価システム。
A makeup evaluation system,
(a) a terminal;
(b) an information processing device;
With
The terminal
(a-1) an imaging unit capable of capturing a user's face image,
(a-2) a reporting unit that reports desired information to the user,
Have
The information processing apparatus includes:
(b-1) at least the user's face image data, that is,
In a state where reference makeup is applied to the user's face, reference image data obtained by capturing the user's face,
Pre-makeup image data in which the user's face before makeup is imaged by the imaging unit,
Face image data captured by the image capturing unit following the capturing of the pre-makeup image, wherein the face of the user is captured in a state where makeup is applied to at least a part of the face of the user. Comparison image data,
A storage unit capable of storing
(b-2) the reference image data, the pre-makeup image data, and the comparison image data, based on the evaluation unit that evaluates the workmanship of the makeup applied to the user,
Have
One or more face elements of interest out of the face elements included in the user's face are defined as attention elements,
The evaluation unit of the information processing device,
From each of the reference image data, the pre-makeup image data, and the comparison image data, an extraction unit capable of extracting image data corresponding to an area where each face element exists,
After extracting the existence areas corresponding to the element of interest from the pre-makeup image data and the comparison image data as first and second areas, respectively,
A first calculation unit that calculates a first index value for each face element included in the target element by using image data included in each of the first and second regions;
It is configured to determine whether or not makeup is applied to each face element included in the noted element based on a corresponding one of the first index values calculated by the first calculation unit. A presence / absence determination unit,
Of the face elements included in the attention element by the presence / absence determination unit, for a makeup element that has been determined to have makeup applied,
After extracting the existence areas corresponding to the makeup elements from the comparison image data and the reference image data as third and fourth areas, respectively, by the extraction unit,
A second calculator that calculates a second index value for each face element included in the makeup element by using image data included in each of the third and fourth regions;
A finishing determination unit configured to execute the determination of the workmanship of each face element included in the makeup element based on a corresponding one of the second index values calculated by the second calculation unit;
Have
The makeup evaluation system, wherein the notification unit of the terminal that has received the determination result of the finish determination unit notifies the user of the determination result.
請求項8に記載の化粧評価システムにおいて、
前記参考画像データ、前記化粧前画像データ、および比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする化粧評価システム。
The makeup evaluation system according to claim 8,
The makeup evaluation system, wherein each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by inverting a captured image horizontally.
請求項8または請求項9に記載の化粧評価システムにおいて、
前記情報処理装置は、
(b-3) 前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、
をさらに備え、
前記第1データベースは、各顔要素に対応するレコードを含む、
前記第1データベースに含まれる各レコードは、少なくとも、
対応する顔要素の化粧を施す順番を示すシーケンス情報と、
対応する顔要素を識別するための顔要素情報と、
対応する顔要素の化粧が完了したか否かを示す完了情報と、
を格納可能とされており、
前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする化粧評価システム。
In the makeup evaluation system according to claim 8 or 9,
The information processing apparatus includes:
(b-3) when it is determined by the evaluation unit that makeup is completed for at least one face element included in the attention element, completion information indicating that makeup is completed for the face element is stored in the storage unit. A registration unit for registering the stored first database;
Further comprising
The first database includes a record corresponding to each face element.
Each record included in the first database is at least:
Sequence information indicating the order of applying the makeup of the corresponding face element;
Face element information for identifying a corresponding face element;
Completion information indicating whether makeup of the corresponding face element has been completed, and
Can be stored,
The notifying unit notifies the user of a face element to be next made based on sequence information, face element information, and completion information of each record registered in the first database. Makeup evaluation system.
請求項10に記載の化粧評価システムにおいて、
前記端末は、
(a-3) 前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、
をさらに備え、
前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする化粧評価システム。
The makeup evaluation system according to claim 10,
The terminal
(a-3) an input unit capable of accepting an instruction from the user after the result of the determination by the finish determination unit has been notified,
Further comprising
The makeup evaluation system according to claim 1, wherein the comparison image data stored in the storage unit is updated with a face image captured by the imaging unit in response to an instruction from the input unit.
JP2019002591U 2019-07-15 2019-07-15 Makeup evaluation device and makeup evaluation system Expired - Fee Related JP3224399U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019002591U JP3224399U (en) 2019-07-15 2019-07-15 Makeup evaluation device and makeup evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019002591U JP3224399U (en) 2019-07-15 2019-07-15 Makeup evaluation device and makeup evaluation system

Publications (1)

Publication Number Publication Date
JP3224399U true JP3224399U (en) 2019-12-19

Family

ID=68916638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019002591U Expired - Fee Related JP3224399U (en) 2019-07-15 2019-07-15 Makeup evaluation device and makeup evaluation system

Country Status (1)

Country Link
JP (1) JP3224399U (en)

Similar Documents

Publication Publication Date Title
CN111815755B (en) Method and device for determining blocked area of virtual object and terminal equipment
CN110210571B (en) Image recognition method and device, computer equipment and computer readable storage medium
CN108805047B (en) Living body detection method and device, electronic equipment and computer readable medium
WO2018028546A1 (en) Key point positioning method, terminal, and computer storage medium
CN111489290B (en) Face image super-resolution reconstruction method and device and terminal equipment
CN110570460B (en) Target tracking method, device, computer equipment and computer readable storage medium
CN111290684B (en) Image display method, image display device and terminal equipment
CN113221767B (en) Method for training living body face recognition model and recognizing living body face and related device
CN109635021A (en) A kind of data information input method, device and equipment based on human testing
CN112905014A (en) Interaction method and device in AR scene, electronic equipment and storage medium
CN117333928B (en) Face feature point detection method and device, electronic equipment and storage medium
JP6710440B1 (en) Makeup evaluation device, makeup evaluation system, and makeup evaluation method
CN112991555A (en) Data display method, device, equipment and storage medium
CN110431838B (en) Method and system for providing dynamic content of face recognition camera
JP3224399U (en) Makeup evaluation device and makeup evaluation system
CN104917963A (en) Image processing method and terminal
CN111583329A (en) Augmented reality glasses display method and device, electronic equipment and storage medium
CN116977539A (en) Image processing method, apparatus, computer device, storage medium, and program product
CN113255456B (en) Inactive living body detection method, inactive living body detection device, electronic equipment and storage medium
CN115731442A (en) Image processing method, image processing device, computer equipment and storage medium
CN113544701B (en) Method and device for detecting associated object, electronic equipment and storage medium
CN112927330B (en) Method and system for generating virtual human body image
CN111079662A (en) Figure identification method and device, machine readable medium and equipment
CN112565601B (en) Image processing method, image processing device, mobile terminal and storage medium
CN113128304B (en) Image processing method and electronic equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

R150 Certificate of patent or registration of utility model

Ref document number: 3224399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees