JP2019125358A - Notification device, notification method and program - Google Patents

Notification device, notification method and program Download PDF

Info

Publication number
JP2019125358A
JP2019125358A JP2018231743A JP2018231743A JP2019125358A JP 2019125358 A JP2019125358 A JP 2019125358A JP 2018231743 A JP2018231743 A JP 2018231743A JP 2018231743 A JP2018231743 A JP 2018231743A JP 2019125358 A JP2019125358 A JP 2019125358A
Authority
JP
Japan
Prior art keywords
notification
unit
information
physical condition
makeup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018231743A
Other languages
Japanese (ja)
Other versions
JP7225749B2 (en
Inventor
奈都美 浜岡
Natsumi Hamaoka
奈都美 浜岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US16/242,593 priority Critical patent/US11191341B2/en
Priority to CN201910025846.3A priority patent/CN110025116B/en
Publication of JP2019125358A publication Critical patent/JP2019125358A/en
Priority to JP2023017214A priority patent/JP7485114B2/en
Application granted granted Critical
Publication of JP7225749B2 publication Critical patent/JP7225749B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a notification device and a notification method and program for enabling a user to more appropriately recognize a change in a user's state.SOLUTION: A notification device includes: a body condition information acquisition part 111 or a make-up information acquisition part; a light emission part 17 and a display part 19 as a notification part; a control part 114; and a determination part 112. The body condition information acquisition part 111 or the make-up information acquisition part acquires face information. The light emission part 17 and the display part 19 as the notification part performs notification based on the face information. The determination part 112 determines change between face information before the notification and face information after the notification. The control part 114 controls notification by the light emission part 17 and the display part 19 as the notification part on the basis of a determination result by the determination part 112.SELECTED DRAWING: Figure 4

Description

本発明は、報知装置、報知方法及びプログラムに関する。   The present invention relates to a notification device, a notification method, and a program.

近年、ユーザの状態(例えば、体調に関する状態や、化粧に関する状態)を示す情報を取得し、取得した情報を様々に利用する技術が存在する。
例えば、特許文献1には、ユーザの顔の情報を取得し、取得した顔の情報に基づいた報知を、ユーザに対して行うという構成が開示されている。
2. Description of the Related Art In recent years, there is a technology for acquiring information indicating a user's state (for example, a state related to physical condition or a state related to makeup) and using the acquired information in various ways.
For example, Patent Document 1 discloses a configuration in which information on a user's face is acquired, and notification based on the acquired information on the face is performed to the user.

特開2014−166218号公報JP, 2014-166218, A

しかしながら、特許文献1に開示の技術等の従来の技術では、或る時点でのユーザの状態に基づいた報知を行うにとどまる。そのため、ユーザが、自身の状態の変化を認識することが難しい場合があった。例えば、ユーザが、マッサージ等の施術により表情が改善したかを認識することや、化粧を適切に行うことができたかを認識することが難しい場合があった。   However, conventional techniques such as the technique disclosed in Patent Document 1 only provide notification based on the state of the user at a certain point in time. Therefore, it may be difficult for the user to recognize a change in his / her state. For example, in some cases, it has been difficult for the user to recognize whether the facial expression has been improved by the treatment such as a massage or to recognize that the makeup has been properly performed.

本発明は、このような状況に鑑みてなされたものであり、ユーザの状態の変化を、ユーザに対してより適切に認識させることを目的とする。   The present invention has been made in view of such a situation, and it is an object of the present invention to more appropriately recognize the change of the user's state to the user.

上記目的を達成するため、本発明の一態様の報知装置は、
顔情報を取得する顔情報取得手段と、
前記顔情報に基づく報知を行う報知手段と、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定手段と、
前記判定手段による判定結果に基づいて前記報知手段による報知を制御する制御手段と、
を備えることを特徴とする。
In order to achieve the above object, a notification device according to one aspect of the present invention is
Face information acquisition means for acquiring face information;
Notification means for performing notification based on the face information;
Determining means for determining changes in the face information before notification and the face information after notification;
A control unit that controls notification by the notification unit based on the determination result by the determination unit;
And the like.

本発明によれば、ユーザの状態の変化を、ユーザに対してより適切に認識させることができる。   According to the present invention, the change of the user's state can be more appropriately recognized by the user.

本発明の一実施形態に係る報知装置の前面の外観構成を示す構成図である。It is a block diagram which shows the external appearance structure of the front surface of the alerting | reporting apparatus which concerns on one Embodiment of this invention. 報知装置の側面の外観構成を示す構成図である。It is a block diagram which shows the external appearance structure of the side of a notification apparatus. 報知装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of an alerting | reporting apparatus. 報知装置の機能的構成のうち、体調報知処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing physical condition alerting | reporting process among functional components of an alerting | reporting apparatus. 報知装置が実行する体調報知処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the physical condition alerting | reporting process which an alerting device performs. 報知装置が実行する体調報知処理時の、鏡部及び報知部の遷移について説明するイメージ図である。It is an image figure explaining transition of a mirror part and an alerting | reporting part at the time of the physical condition alerting | reporting process which an alerting device performs. 報知装置の機能的構成のうち、化粧報知処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram showing a functional configuration for performing makeup notification processing among functional configurations of a notification device. 報知装置が実行する化粧報知処理の流れを説明するフローチャートである。It is a flow chart explaining the flow of the makeup informing processing which an informing device performs.

以下、本発明の実施形態について、図面を用いて説明する。
本発明の一実施形態に係る報知装置1は、ユーザが携帯可能な自立式の鏡として構成される。そして、報知装置1は、鏡に正対したユーザの体調情報を取得する。また、報知装置1は、報知手段を制御することにより、体調情報を改善させるための支援情報を報知する。更に、報知装置1は、支援情報の報知後に、体調情報が改善したか否かを判定する。
Hereinafter, embodiments of the present invention will be described using the drawings.
The notification device 1 according to an embodiment of the present invention is configured as a self-supporting mirror that can be carried by the user. Then, the notification device 1 acquires physical condition information of the user facing the mirror. In addition, the notification device 1 controls the notification means to notify support information for improving physical condition information. Furthermore, the notification device 1 determines whether the physical condition information has improved after the notification of the support information.

このような報知装置1によれば、ユーザは、支援情報により、体調情報を改善するための方法を把握することができる。また、報知装置1は、体調情報を改善するための方法を把握したユーザの体調が改善したか否かを判定した上で、任意の処理を行うことができる。すなわち、報知装置1によれば、ユーザ自身の体調情報を、ユーザに対してより適切に認識させることが可能となる。   According to such a notification device 1, the user can grasp the method for improving the physical condition information by the support information. In addition, the notification device 1 can perform any process after determining whether or not the physical condition of the user who understood the method for improving the physical condition information has improved. That is, according to the notification device 1, it is possible to more appropriately recognize the user's own physical condition information.

[外観構成]
図1は、本発明の一実施形態に係る報知装置1の前面の外観構成を示す構成図である。また、図2は、報知装置1の側面の外観構成を示す構成図である。報知装置1の前面の大きさは、例えば、ISO(International Organization for Standardization)216で規定されるA4サイズに形成される。
[Appearance configuration]
FIG. 1: is a block diagram which shows the external appearance structure of the front surface of the alerting | reporting apparatus 1 which concerns on one Embodiment of this invention. Moreover, FIG. 2 is a block diagram which shows the external appearance structure of the side of the alerting | reporting apparatus 1. As shown in FIG. The size of the front surface of the notification device 1 is formed to, for example, an A4 size defined by ISO (International Organization for Standardization) 216.

図1及び図2に示すように、報知装置1は、鏡部30と、脚部31とを含んで構成される。鏡部30は、反射面を有した鏡である。
脚部31及びヒンジ部32は、報知装置1を自立させるための機構である。脚部31は、ヒンジ部32によって鏡部30に回動可能に接合される。
図2(A)に示すように、ユーザは、報知装置1を携帯する際に、鏡部30の側面と、脚部31の側面とを揃えて、嵩張らない形状として持ち運ぶことができる。一方で、図2(B)に示すように、ユーザは、報知装置1を机等に設置して利用する際には、ヒンジ部32を中心点として脚部31を回動させることにより、報知装置1を自立させることができる。なお、報知装置1を自立可能とするために、ヒンジ部32は、脚部31が所定の角度を保った状態で保持するための構造を有している。
As shown in FIGS. 1 and 2, the notification device 1 is configured to include a mirror portion 30 and a leg portion 31. The mirror unit 30 is a mirror having a reflective surface.
The leg 31 and the hinge 32 are mechanisms for making the notification device 1 stand on its own. The leg 31 is pivotably joined to the mirror 30 by the hinge 32.
As shown in FIG. 2A, when carrying the notification device 1, the user can carry the side surface of the mirror unit 30 and the side surface of the leg portion 31 as a non-bulky shape. On the other hand, as shown in FIG. 2 (B), when the user installs and uses the notification device 1 on a desk etc., notification is made by rotating the leg portion 31 with the hinge portion 32 as the central point. The device 1 can be made to stand on its own. In addition, in order to enable the notification device 1 to be self-supporting, the hinge portion 32 has a structure for holding the leg portion 31 in a state where the predetermined angle is maintained.

図1に示すように、報知装置1は、更に、撮像部16、発光部17、入力部18、及び表示部19を備えている。   As shown in FIG. 1, the notification device 1 further includes an imaging unit 16, a light emitting unit 17, an input unit 18, and a display unit 19.

撮像部16は、報知装置1の利用時に、鏡部30に正対するユーザを被写体として撮像する部分である。撮像部16は、鏡部30に正対するユーザの顔画像を撮像可能な位置に配置される。   The imaging unit 16 is a part that images a user facing the mirror unit 30 as a subject when using the notification device 1. The imaging unit 16 is disposed at a position where it can capture a face image of the user facing the mirror unit 30.

発光部17は、鏡部30に正対するユーザを照らすために発光する部分である。発光部17が、ユーザを照らすことにより、報知装置1は、照明付きの鏡(「女優ミラー」と呼ばれる場合もある。)として機能する。また、発光部17は、後述の体調報知処理における、報知部として報知も行う。
なお、発光部17は、鏡部30の両端それぞれに複数箇所配置される。ただし、図示の都合上、図1では、1つの発光部17についてのみ符号を付し、他の発光部17については符号を省略する。
The light emitting unit 17 is a portion that emits light to illuminate the user facing the mirror unit 30. When the light emitting unit 17 illuminates the user, the notification device 1 functions as a lighted mirror (sometimes referred to as an "actress mirror"). Moreover, the light emission part 17 also alert | reports as an alerting | reporting part in the below-mentioned physical condition alerting | reporting process.
In addition, the light emission part 17 is arrange | positioned in multiple places at each both ends of the mirror part 30, respectively. However, for convenience of illustration, in FIG. 1, only one light emitting unit 17 is given a code, and the other light emitting units 17 are omitted from the code.

入力部18は、ユーザによる操作入力を受け付ける部分である。図1では、操作内容に応じた入力部18として、入力部18a、入力部18b、入力部18c、及び入力部18dを図示する。ここで、入力部18aは、メイクモードへの切り替えを行うための操作を受け付ける。また、入力部18bは、ケアモードへの切り替えを行うための操作を受け付ける。更に、入力部18cは、各種の設定を行うための設定モードへの切り替えを行うための操作を受け付ける。更に、入力部18dは、報知装置1の電源のオン/オフの切り替えを行うための操作を受け付ける。   The input unit 18 is a part that receives an operation input by the user. In FIG. 1, an input unit 18a, an input unit 18b, an input unit 18c, and an input unit 18d are illustrated as the input unit 18 corresponding to the content of the operation. Here, the input unit 18a receives an operation for switching to the make mode. In addition, the input unit 18 b receives an operation for switching to the care mode. Furthermore, the input unit 18c receives an operation for switching to a setting mode for performing various settings. Furthermore, the input unit 18 d receives an operation for switching on / off of the power supply of the notification device 1.

表示部19は、後述の体調報知処理における、報知部として報知を行う部分である。表示部19は、文字等のメッセージや、画像等を表示する。また、表示部19は、撮像部16が撮像した、鏡部30に正対するユーザの顔画像を表示してもよい。報知装置1では、鏡部30を構成する反射部の反射面と、表示部19の表示面とが、ユーザから同時に視認可能に、鏡部30に正対するユーザの視認方向に重畳して配置される。   The display part 19 is a part which performs alerting | reporting as an alerting | reporting part in the below-mentioned physical condition alerting | reporting process. The display unit 19 displays a message such as characters, an image, and the like. In addition, the display unit 19 may display the face image of the user facing the mirror unit 30 and captured by the imaging unit 16. In the notification device 1, the reflection surface of the reflection unit that constitutes the mirror unit 30 and the display surface of the display unit 19 are arranged so as to be simultaneously visible from the user and superimposed in the viewing direction of the user facing the mirror unit 30. Ru.

例えば、液晶ディスプレイにより構成された表示部19が、ハーフミラーにより構成された鏡部30の視認方向における奥側に、並行に重ねて配置される。
このような配置により、ユーザは鏡部30により反射された自身の顔と、表示部19に表示された情報とを同時に視認することができる。なお、図1の例では、画面上部に表示部19の表示領域を設け、画面下部に鏡部30の反射領域を設けている。
For example, the display unit 19 configured by a liquid crystal display is disposed in parallel in parallel on the back side in the viewing direction of the mirror unit 30 configured by a half mirror.
With such an arrangement, the user can simultaneously view his / her face reflected by the mirror unit 30 and the information displayed on the display unit 19 at the same time. In the example of FIG. 1, the display area of the display unit 19 is provided at the top of the screen, and the reflection area of the mirror unit 30 is provided at the bottom of the screen.

以上、報知装置1の外観構造について説明をした。ただし、この構造は一例に過ぎず、報知装置1の外観構造は、この例に限定されない。
例えば、撮像部16は、図1に示すように鏡部30の上部に配置されてもよいが、例えば、鏡部30の下部に配置されてもよい。また、表示部19と同様に、撮像部16が、ハーフミラーにより構成された鏡部30の視認方向における奥側に、並行に重ねて配置されるようにしてもよい。
Heretofore, the appearance structure of the notification device 1 has been described. However, this structure is only an example, and the appearance structure of the notification device 1 is not limited to this example.
For example, although the imaging part 16 may be arrange | positioned at the upper part of the mirror part 30 as shown in FIG. 1, for example, you may be arrange | positioned in the lower part of the mirror part 30. FIG. Further, similarly to the display unit 19, the imaging unit 16 may be arranged in parallel in parallel on the back side in the viewing direction of the mirror unit 30 configured by a half mirror.

また、例えば、発光部17が、鏡部30の上部や下部に配置されてもよく、鏡部30の周辺全体に配置されてもよい。更に、例えば、入力部18の数や配置が変更されてもよい。また、例えば、表示部19の一部がタッチパネルとして構成され、入力部18と表示部19とが一体に構成されてもよい。   Also, for example, the light emitting unit 17 may be disposed in the upper part or the lower part of the mirror unit 30, or may be disposed in the entire periphery of the mirror unit 30. Furthermore, for example, the number and arrangement of the input units 18 may be changed. Further, for example, a part of the display unit 19 may be configured as a touch panel, and the input unit 18 and the display unit 19 may be integrally configured.

更に、例えば、表示部19により実現される表示領域は、画面上部に配置してもよいが、他の位置に配置してもよい。例えば、鏡部30の中央部分にユーザの顔が映し出されることを想定し、その中央部分の周辺に表示領域を配置するようにしてもよい。   Furthermore, for example, the display area realized by the display unit 19 may be disposed at the top of the screen, but may be disposed at another position. For example, assuming that the face of the user is projected on the central portion of the mirror unit 30, the display area may be arranged around the central portion.

更に、例えば、報知装置1の前面の一部に鏡部30を配置し、前面の他の一部に表示部19を配置するようにしてもよい。つまり、鏡部30と表示部19とを必ずしも重畳して配置させなくてもよい。   Furthermore, for example, the mirror unit 30 may be disposed on a part of the front surface of the notification device 1, and the display unit 19 may be disposed on another part of the front surface. In other words, the mirror unit 30 and the display unit 19 do not have to be arranged in an overlapping manner.

[ハードウェア構成]
図3は、報知装置1のハードウェアの構成を示すブロック図である。
図3に示すように、報知装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、発光部17と、入力部18と、表示部19と、記憶部20と、ドライブ21と、を備えている。
[Hardware configuration]
FIG. 3 is a block diagram showing the hardware configuration of the notification device 1.
As illustrated in FIG. 3, the notification device 1 includes a central processing unit (CPU) 11, a read only memory (ROM) 12, a random access memory (RAM) 13, a bus 14, an input / output interface 15, and imaging. A light emitting unit 17, an input unit 18, a display unit 19, a storage unit 20, and a drive 21 are provided.

CPU11は、ROM12に記録されているプログラム、または、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes in accordance with a program stored in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   Data and the like necessary for the CPU 11 to execute various processes are also stored in the RAM 13 as appropriate.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16と、発光部17と、入力部18と、表示部19と、記憶部20と、及びドライブ21が接続されている。   The CPU 11, the ROM 12 and the RAM 13 are connected to one another via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, a light emitting unit 17, an input unit 18, a display unit 19, a storage unit 20, and a drive 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
撮像部16にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured of a lens that collects light, such as a focus lens or a zoom lens, in order to capture an object.
The focus lens is a lens that forms an object image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length in a certain range.
The imaging unit 16 is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, and white balance, as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号は、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a complementary metal oxide semiconductor (CMOS) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) an object image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on this analog image signal. A digital signal is generated by various signal processing, and is output as an output signal of the imaging unit 16.
An output signal of such an imaging unit 16 is appropriately supplied to the CPU 11 and the like.

発光部17は、RGBカラーモデルにおける各色に対応するLED(Light Emitting Diode)等の発光体と、RGBカラーモデルに基づいて発光体の発光における色成分を調整可能な制御回路とから構成される。発光部17は、報知装置1の起動と共に、RGBの色成分を所定の状態に調整して発光することにより、ユーザを照らす。この所定の状態とは、鏡部30に映し出されたユーザの顔が自然に見える状態である。また、発光部17は、CPU11からの指示に基づいて、例えばRに対応する発光体の発光を抑えることにより、例えば、R成分を軽減させて発光する。   The light emitting unit 17 includes a light emitter such as a light emitting diode (LED) corresponding to each color in the RGB color model, and a control circuit capable of adjusting color components in light emission of the light emitter based on the RGB color model. The light emitting unit 17 illuminates the user by adjusting the RGB color components to a predetermined state and emitting light when the notification device 1 is activated. The predetermined state is a state in which the user's face projected on the mirror unit 30 looks natural. Further, the light emitting unit 17 reduces the R component, for example, and emits light by suppressing the light emission of the light emitter corresponding to R, for example, based on the instruction from the CPU 11.

入力部18は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。   The input unit 18 includes various buttons and the like, and inputs various information in accordance with a user's instruction operation.

表示部19は、液晶ディスプレイ等で構成され、CPU11が出力する画像データに対応する画像を表示する。鏡部30は、ハーフミラーで構成され、例えば、ユーザの顔が映し出される。表示部19と、鏡部30の配置については、図1を参照して上述した通りである。   The display unit 19 is configured of a liquid crystal display or the like, and displays an image corresponding to the image data output by the CPU 11. The mirror unit 30 is configured by a half mirror, and for example, the face of the user is projected. The arrangement of the display unit 19 and the mirror unit 30 is as described above with reference to FIG.

記憶部20は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。   The storage unit 20 is configured by a semiconductor memory such as a dynamic random access memory (DRAM) and stores various data.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア100が適宜装着される。リムーバブルメディア100には、後述の体調報知処理を実行するためのプログラムや、画像データ等の各種データが格納される。ドライブ21によってリムーバブルメディア100から読み出されたプログラムや、画像データ等の各種のデータは、必要に応じて記憶部20にインストールされる。   A removable medium 100 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory or the like is appropriately attached to the drive 21. The removable medium 100 stores a program for executing a physical condition notification process, which will be described later, and various data such as image data. Programs read out from the removable medium 100 by the drive 21 and various data such as image data are installed in the storage unit 20 as necessary.

なお、報知装置1は、上述したハードウェア構成に加えて、他のハードウェア構成を更に備えていてもよい。例えば、報知装置1は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する出力部を備えていてもよい。また、例えば、報知装置1は、インターネットを含むネットワークを介して他の装置(図示せず)との間で通信を行うための通信部等を備えていてもよい。   In addition to the hardware configuration described above, the notification device 1 may further include another hardware configuration. For example, the notification device 1 may be configured by a lamp, a speaker, a vibration motor, or the like, and may include an output unit that outputs light, voice, or a vibration signal. Also, for example, the notification device 1 may include a communication unit or the like for communicating with another device (not shown) via a network including the Internet.

[機能的構成]
図4は、報知装置1の機能的構成のうち、体調報知処理を実行するための機能的構成を示す機能ブロック図である。
体調報知処理とは、報知装置1が体調情報に基づいた報知を行う一連の処理である。
体調報知処理が実行される場合、図4に示すように、CPU11において、体調情報取得部111と、判定部112と、選択部113と、制御部114とが機能する。
また、記憶部20の一領域には、判定情報記憶部201と、報知情報記憶部202とが設定される。
[Functional configuration]
FIG. 4 is a functional block diagram showing a functional configuration for executing a physical condition notification process among the functional configurations of the notification device 1.
The physical condition notification process is a series of processes in which the notification device 1 performs notification based on physical condition information.
When the physical condition notification process is performed, as illustrated in FIG. 4, the physical condition information acquisition unit 111, the determination unit 112, the selection unit 113, and the control unit 114 function in the CPU 11.
Further, in one area of the storage unit 20, a determination information storage unit 201 and a notification information storage unit 202 are set.

判定情報記憶部201には、判定部112が体調情報についての判定を行うための情報が格納される。具体的には、体調報知処理において取得したユーザの体調情報や、判定の基準となる体調情報が格納される。   The determination information storage unit 201 stores information for the determination unit 112 to determine the physical condition information. Specifically, the physical condition information of the user acquired in the physical condition notification process and the physical condition information as a reference of determination are stored.

報知情報記憶部202には、制御部114の制御に基づいて、発光部17や表示部19が報知を行うための情報が格納される。具体的には、発光部17の発光を制御するための制御情報や、表示部19に表示をするための文字データ(テキストデータ)や画像データが格納される。以下の説明において、発光部17と表示部19の双方を、適宜「報知部」と称する。   The notification information storage unit 202 stores, under the control of the control unit 114, information for the light emitting unit 17 and the display unit 19 to perform notification. Specifically, control information for controlling light emission of the light emitting unit 17, character data (text data) for displaying on the display unit 19, and image data are stored. In the following description, both the light emitting unit 17 and the display unit 19 will be referred to as “informing unit” as appropriate.

なお、判定情報記憶部201や、報知情報記憶部202に格納される体調情報や報知情報等の各種のデータについては、記憶部20にのみ格納されていてもよいが、ドライブ21によってリムーバブルメディア100から適宜読み出されるようにしてもよい。   The various data such as the physical condition information and the notification information stored in the determination information storage unit 201 and the notification information storage unit 202 may be stored only in the storage unit 20, but the removable media 100 may be stored in the drive 21. It may be read out as appropriate.

体調情報取得部111は、ユーザの体調を示す情報である体調情報を取得する部分である。本実施形態において、体調情報取得部111は、撮像部16が撮像した画像を解析して、解析結果を体調情報として取得する。ここで、図1を参照して上述したように撮像部16は、鏡部30に正対したユーザの顔が撮像される位置に配置される。従って、撮像部16が撮像したこの画像には、ユーザの顔部分の画像が含まれている。   The physical condition information acquisition unit 111 is a part that acquires physical condition information that is information indicating the physical condition of the user. In the present embodiment, the physical condition information acquisition unit 111 analyzes the image captured by the imaging unit 16 and acquires an analysis result as physical condition information. Here, as described above with reference to FIG. 1, the imaging unit 16 is disposed at a position where the face of the user facing the mirror unit 30 is imaged. Therefore, the image captured by the imaging unit 16 includes the image of the face portion of the user.

体調情報取得部111は、まず、この画像を解析して、画像内におけるユーザの顔部分に対応する領域を特定する。例えば、体調情報取得部111は、画像内におけるユーザの顔の輪郭を抽出したり、目等の特徴点を抽出したりすることにより、ユーザの顔部分に対応する領域を特定する。次に、体調情報取得部111は、特定したユーザの顔部分に対応する領域の各画素について、色についての解析を行う。例えば、各画素についてRGB値を算出し、各画素のRの値を積算することにより、ユーザの体調情報とする。
つまり、本実施形態では、ユーザの顔の赤みを、ユーザの体調やメンタルの状態を示す体調情報として利用する。これは、一般に青白い顔よりも、赤みを帯びた顔の方が、疲れを感じさせず健康的な顔色であると捉えられるからである。
First, the physical condition information acquisition unit 111 analyzes this image to specify an area corresponding to the face portion of the user in the image. For example, the physical condition information acquisition unit 111 specifies an area corresponding to the face portion of the user by extracting the outline of the user's face in the image or extracting feature points such as eyes. Next, the physical condition information acquisition unit 111 analyzes the color of each pixel in the area corresponding to the identified user's face portion. For example, RGB values are calculated for each pixel, and the R value of each pixel is integrated to obtain physical condition information of the user.
That is, in the present embodiment, the redness of the user's face is used as physical condition information indicating the user's physical condition or mental condition. This is because, in general, a reddish face is considered to be a healthy complexion without feeling tired, rather than a pale face.

なお、各画素のRの値を積算する際に、重み付けを行うようにしてもよい。例えば、ユーザの顔部分に対応する領域を特定する際に、赤みが特徴として出やすい頬や唇の領域を更に特定する。そして、この赤みが特徴として出やすい頬や唇の領域のRの値については、他の領域のRの値よりも重みをつけて積算を行うようにしてもよい。   Note that weighting may be performed when integrating the value of R of each pixel. For example, when specifying the area corresponding to the face portion of the user, the area of the cheek or lip that is likely to be characterized by redness is further specified. Then, with regard to the value of R in the area of the cheek or lip where this redness tends to appear as a feature, the integration may be performed by giving more weight to the value of R in other areas.

体調情報取得部111は、体調報知処理の開始時に、上述のように解析を行うことにより体調情報を取得する(以下、この体調情報を「第1の体調情報」と称する。)。また、その後所定時間が経過すると、体調情報取得部111は、上述のように解析を行うことにより再度体調情報を取得する(以下、この体調情報を「第2の体調情報」と称する。)。   The physical condition information acquisition unit 111 acquires physical condition information by performing analysis as described above at the start of the physical condition notification process (hereinafter, this physical condition information is referred to as “first physical condition information”). Further, when a predetermined time elapses thereafter, the physical condition information acquisition unit 111 acquires physical condition information again by performing analysis as described above (hereinafter, this physical condition information is referred to as “second physical condition information”).

そして、体調情報取得部111は、このように解析を行うことにより取得した体調情報のそれぞれを、判定情報として、判定情報記憶部201に格納する。また、体調情報取得部111は、過去に取得した体調情報の履歴の平均値を、基準となる体調情報(以下、この体調情報を「基準体調情報」と称する。)として判定情報記憶部201に格納する。   Then, the physical condition information acquisition unit 111 stores each of the physical condition information acquired by performing analysis in this manner in the determination information storage unit 201 as determination information. In addition, the physical condition information acquisition unit 111 uses the average value of the history of physical condition information acquired in the past as the reference physical condition information (hereinafter, this physical condition information is referred to as "reference physical condition information") in the determination information storage unit 201. Store.

判定部112は、判定情報記憶部201に格納されている体調情報に基づいた判定を行う部分である。この点、上述したように、本実施形態では、ユーザの顔に赤みに対応するRの値を体調情報としている。そこで、判定部112は、ユーザの顔に赤みに対応するRの値に基づいて判定を行う。   The determination unit 112 is a part that makes a determination based on the physical condition information stored in the determination information storage unit 201. In this respect, as described above, in the present embodiment, the value of R corresponding to redness of the user's face is used as the physical condition information. Therefore, the determination unit 112 performs determination based on the value of R corresponding to redness on the user's face.

判定部112は、まず第1の体調情報と、基準体調情報とを比較し、この比較結果に基づいて、体調報知処理の開始時のユーザの体調情報が基準と比べて良好であるか否かを判定する。
具体的には、判定部112は、第1の体調情報と、基準体調情報とを比較し、基準体調情報よりも第1の体調情報の方がRの値が高い場合に、体調報知処理の開始時のユーザの体調が良好であると判定する。なお、第1の体調情報と、基準体調情報とを比較するためにRの値を用いたがこれに限らず、RGBのうち少なくとも1つ以上のパラメータとして比較を行ってもよく、更には画像解析や生体センサから得られる生体情報を用いて比較を行うようにしてもよい。
First, the determination unit 112 compares the first physical condition information with the reference physical condition information, and based on the comparison result, whether the physical condition information of the user at the start of the physical condition notification process is better than the reference Determine
Specifically, the determination unit 112 compares the first physical condition information with the reference physical condition information, and when the first physical condition information has a higher R value than the reference physical condition information, the physical condition notification process is performed. It is determined that the physical condition of the user at the start is good. Although the value of R is used to compare the first physical condition information and the reference physical condition information, the present invention is not limited to this, and comparison may be performed as at least one or more parameters of RGB, and further, an image The comparison may be performed using analysis or biological information obtained from a biological sensor.

また、判定部112は、第1の体調情報と、第2の体調情報とを比較し、この比較結果に基づいて、体調情報が改善したか否かを判定する。
具体的には、判定部112は、第1の体調情報と、第2の体調情報とを比較し、第1の体調情報のRの値よりも第2の体調情報のRの値の方が所定値以上増加していた場合に、体調報知処理を行ったことによりユーザの体調情報が改善したと判定する。なお、第1の体調情報と、第2の体調情報との比較においてもRの値を用いたがこれに限らず、RGBのうち少なくとも1つ以上のパラメータとして比較を行ってもよく、更には画像解析や生体センサから得られる生体情報を用いて比較を行うようにしてもよい。
Further, the determination unit 112 compares the first physical condition information with the second physical condition information, and determines whether the physical condition information has improved based on the comparison result.
Specifically, the determination unit 112 compares the first physical condition information with the second physical condition information, and the value of R of the second physical condition information is more than the value of R of the first physical condition information. When it has increased by a predetermined value or more, it is determined that the physical condition information of the user has been improved by performing the physical condition notification processing. In addition, although the value of R was used also in comparison with the 1st physical condition information and the 2nd physical condition information, not only this but comparison may be performed as at least one or more parameters among RGB, and further, The comparison may be performed using image analysis or biological information obtained from a biological sensor.

判定部112は、このような判定により得られた判定結果を、後述の制御部114に対して出力する。   The determination unit 112 outputs the determination result obtained by such determination to the control unit 114 described later.

選択部113は、体調報知処理において、報知に用いる報知部を選択する部分である。選択部113は、体調情報に基づいて決定される報知の内容等に応じて、適切な報知部を選択する。   The selection unit 113 is a portion that selects a notification unit used for notification in the physical condition notification process. The selection unit 113 selects an appropriate notification unit according to the content of the notification determined based on the physical condition information.

制御部114は、判定部112の判定結果に基づいて、選択部113が選択した報知部を制御することにより報知を実行する部分である。
これら各部が協働して実行される報知の具体的な内容については、以下の[動作]の説明において詳細に説明する。
The control unit 114 is a part that executes notification by controlling the notification unit selected by the selection unit 113 based on the determination result of the determination unit 112.
The specific content of the notification executed by the respective units in cooperation with each other will be described in detail in the following [Operation].

[動作]
次に、報知装置1の動作を説明する。
図5は、報知装置1が実行する体調報知処理の流れを説明するフローチャートである。また、図6は、体調報知処理時の鏡部30及び報知部(すなわち、発光部17及び表示部19)の遷移について説明するイメージ図である。
体調報知処理は、報知装置1の起動と共に開始される。
[Operation]
Next, the operation of the notification device 1 will be described.
FIG. 5 is a flowchart for explaining the flow of the physical condition notification process performed by the notification device 1. Moreover, FIG. 6 is an image figure explaining transition of the mirror part 30 and alerting | reporting part (namely, light emission part 17 and display part 19) at the time of physical condition alerting | reporting processing.
The physical condition notification process is started upon activation of the notification device 1.

ステップS11において、体調情報取得部111は、撮像部16の撮像した画像を解析することにより、鏡部30の前にユーザ検出すると、第1の体調情報を取得する。   In step S11, the physical condition information acquisition unit 111 analyzes the image captured by the imaging unit 16 to acquire first physical condition information when the user is detected in front of the mirror unit 30.

ステップS12において、判定部112は、ステップS11にて取得された第1の体調情報と、判定情報記憶部201に格納された基準体調情報とを比較し、体調報知処理の開始時のユーザの体調が良好であるか否かを判定する。   In step S12, the determination unit 112 compares the first physical condition information acquired in step S11 with the reference physical condition information stored in the determination information storage unit 201, and the physical condition of the user at the start of the physical condition notification process. Is determined to be good.

ユーザの体調が良好である場合には、ステップS12においてYesと判定され、処理は終了する。すなわち、ユーザの体調が良好であるので、特に報知を行うことなく処理を終了する。この場合、報知装置1は、発光する発光部17と、ユーザを映し出す鏡部30とにより、照明付きの鏡として機能する。一方で、ユーザの体調が良好でないと判定された場合には、ステップS12においてNoとなり、処理はステップS13に進む。   If the user's physical condition is good, it is determined as Yes in step S12, and the process ends. That is, since the physical condition of the user is good, the process ends without giving a notification. In this case, the notification device 1 functions as a mirror with illumination by the light emitting unit 17 that emits light and the mirror unit 30 that projects the user. On the other hand, if it is determined that the physical condition of the user is not good, the result is No in step S12, and the process proceeds to step S13.

ステップS13において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、「顔色が優れませんよ。」や「疲れているようですよ。」等の体調に係るアドバイスを含むメッセージやイラストを表示部19に表示することで報知する。この場合に、後述のメイクモードへの設定を促すメッセージとして、例えば「メイクをしますか?」等のメッセージを更に表示部19に表示すようにしてもよい。   In step S13, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 causes the display unit 19 to display a message or an illustration including advice relating to the physical condition, such as “Your facial color is not good.” Or “It looks tired,” for the user. Inform by notifying. In this case, for example, a message such as “Do you want to make makeup?” May be further displayed on the display unit 19 as a message for prompting setting of the make mode, which will be described later.

ステップS13における報知を行った場合の、鏡部30及び報知部(すなわち、発光部17及び表示部19)の状態について図6(A)として示す。この場合、発光部17は、報知装置1の起動と共に、RGBの色成分を所定の状態に調整して発光している。また、鏡部30には、この所定の状態に調整された発光により照らされたユーザの顔が映し出される。更に、表示部19には、上述したようなメッセージが表示される。
ユーザは、このような報知を受けることにより、自身の体調が良好でないことに気付くことができる。
The state of the mirror unit 30 and the notification unit (that is, the light emitting unit 17 and the display unit 19) when the notification in step S13 is performed is illustrated as FIG. In this case, the light emitting unit 17 adjusts the RGB color components to a predetermined state and emits light when the notification device 1 is activated. Further, the face of the user illuminated by the light emission adjusted to the predetermined state is projected on the mirror unit 30. Further, the display unit 19 displays the message as described above.
The user can notice that his physical condition is not good by receiving such notification.

ステップS14において、制御部114は、現在何れのモードに設定されているかを判定する。ここで、本実施形態では、「メイクモード」と「ケアモード」の2つのモードを設ける。そして、制御部114は、図1に示した入力部18aや入力部18bによるユーザの操作に基づいて、何れかのモードに設定をする。ユーザの操作に基づいた設定は、体調報知処理に先立って予め行われてもよいし、体調報知処理の過程において行われてもよい。例えば、ステップS13の報知を受けたユーザが操作を行うことにより、モードが設定されてもよい。   In step S14, the control unit 114 determines which mode is currently set. Here, in the present embodiment, two modes of “make mode” and “care mode” are provided. Then, the control unit 114 sets one of the modes based on the user's operation by the input unit 18a or the input unit 18b illustrated in FIG. The setting based on the user's operation may be performed in advance prior to the physical condition notification process, or may be performed in the process of the physical condition notification process. For example, the mode may be set by the user who received the notification in step S13 performing an operation.

ユーザがメイクモードを選択したことにより、メイクモードに設定されている場合には、ステップS14において「メイクモード」と判定され、処理はステップS15に進む。一方で、ユーザがケアモードを選択したことにより、ケアモードに設定されている場合には、ステップS14において「ケアモード」と判定され、処理はステップS18に進む。   When the user selects the makeup mode, if the makeup mode is set, it is determined in step S14 that the "make mode" is set, and the process proceeds to step S15. On the other hand, when the care mode is selected by the user and the care mode is set, it is determined in step S14 that the "care mode" is set, and the process proceeds to step S18.

メイクモードが選択されている場合は、ステップS15において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として発光部17を選択する。そして、制御部114は、発光部17を制御することにより、意図的に発光部17のRの成分を抑制する。これにより、ユーザの顔に赤みが足りず、顔色が悪い事を強調する。つまり、制御部114は、体調情報取得部111が取得する体調情報をより強調する。また、ユーザに対しても、鏡部30に映し出される顔の赤みという体調情報をより強調する。更に、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、メイクのサンプル画像とサンプルが使用している色見本を表示部19に表示することで報知する。   When the make mode is selected, in step S15, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the light emitting unit 17 as the notification unit. Then, the control unit 114 controls the light emitting unit 17 to intentionally suppress the R component of the light emitting unit 17. This emphasizes that the user's face is not sufficiently red and that it has a poor complexion. That is, the control unit 114 emphasizes the physical condition information acquired by the physical condition information acquisition unit 111 more. Further, the physical condition information of the redness of the face projected on the mirror unit 30 is further emphasized for the user. Furthermore, the selection unit 113 selects the display unit 19 as a notification unit. Then, the control unit 114 notifies the user by, for example, displaying on the display unit 19 a sample image of makeup and a color sample used by the sample.

ステップS15における報知を行った場合の、鏡部30及び報知部(すなわち、発光部17及び表示部19)の状態について図6(B−1)として示す。この場合、発光部17は、意図的にRの成分を抑制した発光をしている。また、鏡部30には、このRの成分を抑制した発光により照らされたユーザの顔が映し出される。更に、表示部19には、メイクのサンプル画像とサンプルが使用している色見本が表示される。
ユーザは、このような報知を受けることにより、適切なメイクを行うことができる。特に、顔色が悪い事が強調されているため、これを補うようなメイクを行うことができる。なお、例えば、撮像部16の撮像した画像を解析することによりユーザがメイクを開始したことを検知したら、発光部17によるRの成分を抑制した発光から、R成分の抑制を解除した自然な発光に切り替えてもよい。このようにすることにより、ユーザは、R成分の抑制を解除した自然な発光のもとで、自身に施したメイクの進捗やメイク度合いを正確に把握しながらメイクすることができる。
The state of the mirror unit 30 and the notification unit (that is, the light emitting unit 17 and the display unit 19) when the notification in step S15 is performed is illustrated as (B-1) in FIG. In this case, the light emitting unit 17 intentionally emits light with the R component suppressed. In the mirror unit 30, the face of the user illuminated by the light emission suppressing the component of R is projected. Furthermore, the display unit 19 displays a sample image of makeup and a color sample used by the sample.
The user can make appropriate makeup by receiving such notification. In particular, since it is emphasized that the complexion is bad, makeup can be made to compensate for this. Note that, for example, when it is detected that the user has started makeup by analyzing the image captured by the imaging unit 16, natural light emission in which suppression of the R component is canceled from light emission in which the R component is suppressed by the light emission unit 17 You may switch to By doing this, the user can make makeup while accurately grasping the progress of the makeup applied to the user and the degree of makeup under the natural light emission in which the suppression of the R component is canceled.

ステップS16において、判定部112は、第1の体調情報と、第2の体調情報とを比較し、この比較結果に基づいて、体調情報が改善したか否かを判定する。この第2の体調情報は、ステップS15における報知後に、ユーザにより行われたメイクにて赤系の粉体等の化粧品(例えば、赤系の口紅やチーク等)がユーザの顔に塗られたことにより、顔に赤味が着色されたユーザの体調情報である。   In step S16, the determination unit 112 compares the first physical condition information with the second physical condition information, and determines based on the comparison result whether the physical condition information has been improved. This second physical condition information is that after the notification in step S15, cosmetics such as red powder (for example, red lipstick, teak, etc.) are applied to the user's face by makeup performed by the user Is the physical condition information of the user whose face is colored red.

第1の体調情報のRの値よりも第2の体調情報のRの値の方が所定値以上増加していない場合には、体調情報が改善していないことから、ステップS16においてNoと判定され、ステップS16を繰り返す。これは、ユーザによりメイクが未だ不十分であることを示す。
一方で、第1の体調情報のRの値よりも第2の体調情報のRの値の方が所定値以上増加していた場合には、体調情報が改善していることから、ステップS16においてYesと判定され、処理はステップS17に進む。これは、ユーザにより適切にメイクが行われたことを示す。
なお、判定部112は、R成分が抑制された発光で晒されたユーザの顔に関する情報を取得した後に、その発光に晒された顔に対する色調の影響を後処理により除外した上で、第1の体調情報と第2の体調情報との比較を行うようにしてもよいし、比較に用いられるユーザの顔画像を取得する際は発光を止める、またはRの成分の抑制を止めた自然光で顔を照らすようにしてもよい。このような処理を行うことで、判定部112による判定時に赤色成分が抑制された発光の影響を加味した上で比較判定を行うよう必要をなくすことができる。
If the value of R in the second physical condition information does not increase by a predetermined value or more than the value of R in the first physical condition information, the physical condition information is not improved, so it is determined as No in step S16. And repeat step S16. This indicates that the makeup is still insufficient by the user.
On the other hand, if the value of R in the second physical condition information is increased by a predetermined value or more than the value of R in the first physical condition information, the physical condition information is improved, so in step S16 The determination is Yes, and the process proceeds to step S17. This indicates that makeup has been properly performed by the user.
In addition, after acquiring information on the face of the user exposed by the light emission in which the R component is suppressed, the determination unit 112 removes the influence of the color tone on the face exposed to the light emission by post-processing, and The second physical condition information may be compared with the second physical condition information, and when acquiring the face image of the user used for the comparison, the light is turned off or the face with natural light whose suppression of the R component is stopped. You may make it light. By performing such processing, it is possible to eliminate the need to perform comparison determination after taking into consideration the influence of light emission in which the red component is suppressed at the time of determination by the determination unit 112.

ステップS17において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として発光部17を選択する。そして、制御部114は、発光部17を制御することにより、発光部17の発光状態を報知装置1の起動時と同様の、所定の状態に戻す。この所定の状態とは、上述したように、鏡部30に映し出されたユーザの顔が自然に見える状態である。また、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、「メイクにより顔色が改善しました。」等の体調に係るアドバイスを含むメッセージを文字やイラストを表示部19に表示することで報知する。   In step S17, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the light emitting unit 17 as the notification unit. Then, the control unit 114 controls the light emitting unit 17 to return the light emitting state of the light emitting unit 17 to a predetermined state similar to that at the start of the notification device 1. As described above, this predetermined state is a state in which the user's face projected on the mirror unit 30 looks natural. Further, the selection unit 113 selects the display unit 19 as a notification unit. Then, the control unit 114 notifies the user of, for example, a message including advice concerning physical condition such as “Your facial color has been improved by makeup” by displaying characters or an illustration on the display unit 19.

ステップS17における報知を行った場合の、鏡部30及び報知部(すなわち、発光部17及び表示部19)の状態について図6(B−2)として示す。この場合、発光部17は、意図的にRの成分を抑制した状態から、鏡部30に映し出されたユーザの顔が自然に見える状態に戻る。更に、表示部19には、上述したようなメッセージが表示される。   The state of the mirror unit 30 and the notification unit (that is, the light emitting unit 17 and the display unit 19) when the notification in step S17 is performed is illustrated as (B-2) in FIG. In this case, the light emitting unit 17 returns from the state in which the component of R is intentionally suppressed to the state in which the user's face projected on the mirror unit 30 can be viewed naturally. Further, the display unit 19 displays the message as described above.

ユーザは、メッセージを確認することにより、顔色が改善したことを把握できる。また、ユーザは、鏡部30に映し出されたユーザの顔が自然に見える状態で、メイク後の顔を確認することができる。これにより、体調報知処理は終了する。   The user can understand that the complexion has improved by confirming the message. In addition, the user can confirm the face after makeup while the user's face projected on the mirror unit 30 looks natural. Thus, the physical condition notification process ends.

一方で、ケアモードが選択されている場合は、ステップS18において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、血行をよくするためのマッサージの方法を表示部19に表示することで報知する。   On the other hand, when the care mode is selected, in step S18, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 notifies the user by, for example, displaying on the display unit 19 a massage method for improving blood circulation.

ステップS18における報知を行った場合の、鏡部30及び報知部(すなわち、発光部17及び表示部19)の状態について図6(C−1)として示す。この場合、表示部19には、血行をよくするためのマッサージの方法が表示される。
ユーザは、このような報知を受けることにより、血行をよくするためのマッサージを行うことができる。
The state of the mirror unit 30 and the notification unit (that is, the light emitting unit 17 and the display unit 19) when the notification in step S18 is performed is illustrated as (C-1) in FIG. In this case, the display unit 19 displays a massage method for improving blood circulation.
The user can perform a massage for improving blood circulation by receiving such notification.

ステップS19において、判定部112は、ステップS18の報知が行われてから所定時間が経過したか否かを判定する。所定時間は、マッサージによって血行がよくなるのに十分な時間とする。所定時間が経過していない場合には、ステップS19においてNoと判定され、ステップS19の判定が繰り返される。一方で、所定時間が経過した場合には、ステップS19においてYesと判定され、処理はステップS20に進む。   In step S19, the determination unit 112 determines whether a predetermined time has elapsed since the notification in step S18. The predetermined time is sufficient for blood circulation to be improved by massage. If the predetermined time has not elapsed, it is determined as No in Step S19, and the determination of Step S19 is repeated. On the other hand, when the predetermined time has elapsed, it is determined as Yes in Step S19, and the process proceeds to Step S20.

ステップS20において、判定部112は、第1の体調情報と、第2の体調情報とを比較し、この比較結果に基づいて、体調情報が改善したか否かを判定する。この第2の体調情報は、血行をよくするためのマッサージを行った後のユーザの体調情報である。   In step S20, the determination unit 112 compares the first physical condition information and the second physical condition information, and determines whether the physical condition information has improved based on the comparison result. The second physical condition information is the physical condition information of the user after the massage for improving blood circulation.

第1の体調情報のRの値よりも第2の体調情報のRの値の方が所定値以上増加していた場合には、体調情報が改善していることから、ステップS20においてYesと判定され、処理はステップS21に進む。これは、ユーザにより血行をよくするためのマッサージが行われたことにより、血行がよくなり、顔に赤味が出たことを示す。   If the value of R in the second physical condition information has increased by a predetermined value or more than the value of R in the first physical condition information, the physical condition information is improved, so it is determined as Yes in step S20. The process proceeds to step S21. This indicates that the user performed a massage to improve blood circulation, thereby improving blood circulation and causing a reddish appearance on the face.

ステップS21において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、「マッサージにより顔色が改善しました。」等のメッセージを文字やイラストを表示部19に表示することで報知する。   In step S21, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 notifies the user of, for example, a message such as “The complexion has been improved by the massage” by displaying characters or an illustration on the display unit 19.

ステップS21における報知を行った場合の、鏡部30及び報知部(すなわち、発光部17及び表示部19)の状態について図6(C−2)として示す。この場合、表示部19には、上述したようなメッセージが表示される。
ユーザは、メッセージを確認することにより、顔色が改善したことを把握できる。これにより、体調報知処理は終了する。
The state of the mirror unit 30 and the notification unit (that is, the light emitting unit 17 and the display unit 19) when the notification in step S21 is performed is illustrated as (C-2) in FIG. In this case, the display unit 19 displays a message as described above.
The user can understand that the complexion has improved by confirming the message. Thus, the physical condition notification process ends.

一方で、第1の体調情報のRの値よりも第2の体調情報のRの値の方が所定値以上増加していない場合には、体調情報が改善していないことから、ステップS20においてNoと判定され、処理はステップS22に進む。これは、十分にマッサージを行ったにも関わらず、血行が良くならず、顔に赤みが出ていないことを示す。この点、メイクモードの場合には、メイクを継続することにより、最終的に体調情報が改善する(すなわち、最終的にRの値が所定値以上増加する)と考えられるので、ステップS16のように体調情報が改善するまで判定を継続した。しかしながら、ケアモードの場合には、十分にマッサージを行ったにも関わらず、体調情報が改善しないのであれば、ユーザは現在体調不良であり、これ以上マッサージを継続しても、体調情報が改善しないと考えられる。そのため、ステップS16のように判定を継続することなく、ステップS22に進む。   On the other hand, if the value of R of the second physical condition information is not increased by a predetermined value or more than the value of R of the first physical condition information, the physical condition information is not improved, so in step S20 The determination is No, and the process proceeds to step S22. This indicates that the blood circulation is not good and the face is not reddened even though the massage is sufficiently performed. In this respect, in the case of the make mode, it is considered that physical condition information will eventually improve (that is, the value of R will eventually increase by a predetermined value or more) by continuing the make-up, as in step S16. The judgment was continued until the physical condition information improved. However, in the case of the care mode, the user is currently in poor physical condition if the physical condition information does not improve even though the massage is sufficiently performed, and the physical condition information is improved even if the massage is continued further It is thought that it does not. Therefore, the process proceeds to step S22 without continuing the determination as in step S16.

ステップS22において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、「マッサージを行いましたが顔色が改善しませんでした。」等のメッセージを文字やイラストを表示部19に表示することで報知する。ユーザは、メッセージを確認することにより、顔色が改善しなかったことを把握できる。そのため、ユーザは、自身が貧血や胃潰瘍等の状態にある可能性があることを把握できる。また、これに応じて病院にて受信すること等も検討することができる。これにより、体調報知処理は終了する。   In step S22, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 notifies the user of, for example, a message such as “The massage was performed but the complexion did not improve.” By displaying characters or an illustration on the display unit 19. The user can confirm that the complexion has not improved by confirming the message. Therefore, the user can understand that he / she may be in a state such as anemia or gastric ulcer. In addition, receiving at a hospital can be considered accordingly. Thus, the physical condition notification process ends.

以上説明した処理により、報知装置1は、取得した体調情報を改善するための支援情報を、ユーザに対して報知することができる。従って、ユーザは、体調情報を改善するための方法を把握することができる。   By the process described above, the notification device 1 can notify the user of support information for improving the acquired physical condition information. Therefore, the user can grasp the method for improving physical condition information.

以上のように構成される報知装置1あるいは以下で後述する変形例のように構成される報知装置1は、体調情報取得部111あるいは化粧情報取得部115と、報知部としての発光部17及び表示部19と、制御部114と、判定部112とを備える。
体調情報取得部111あるいは化粧情報取得部115は、顔情報を取得する。
報知部としての発光部17及び表示部19は、顔情報に基づく報知を行う。
判定部112は、報知前の顔情報と、報知後の顔情報との変化を判定する。
制御部114は、判定部112による判定結果に基づいて報知部としての発光部17及び表示部19による報知を制御する。
これにより、報知装置1は、取得した顔情報に基づいたユーザ自身の変化を、ユーザに対して報知することができる。従って、ユーザは、ユーザ自身の状態の変化(例えば、体調情報の変化や、化粧での変化)を把握することができる。すなわち、報知装置1によれば、ユーザの状態の変化を、ユーザに対してより適切に認識させることができる。
The notification device 1 configured as described above or the notification device 1 configured as a modification to be described later includes a physical condition information acquisition unit 111 or a makeup information acquisition unit 115, a light emitting unit 17 as a notification unit, and a display. A unit 19 includes a control unit 114 and a determination unit 112.
The physical condition information acquisition unit 111 or the makeup information acquisition unit 115 acquires face information.
The light emitting unit 17 and the display unit 19 as a notification unit perform notification based on face information.
The determination unit 112 determines changes in the face information before notification and the face information after notification.
The control unit 114 controls notification by the light emitting unit 17 and the display unit 19 as a notification unit based on the determination result by the determination unit 112.
Thereby, the notification device 1 can notify the user of the change of the user based on the acquired face information. Therefore, the user can grasp a change in the user's own state (for example, a change in physical condition information or a change in makeup). That is, according to the notification device 1, it is possible to more appropriately recognize the change in the state of the user.

報知装置1は、報知部としての発光部17及び表示部19を複数種備えると共に、選択部113を更に備える。
選択部113は、報知部としての発光部17及び表示部19の種類を選択する。
制御部114は、選択部113により選択された報知部としての発光部17及び表示部19による報知を制御する。
これにより、報知装置1は、選択した報知部により、報知することができる。従って、報知装置1は、例えば、ユーザが設定したモードそれぞれに適した報知を行うことができる。
The notification device 1 includes a plurality of light emitting units 17 and display units 19 as a notification unit, and further includes a selection unit 113.
The selection unit 113 selects the type of the light emitting unit 17 and the display unit 19 as the notification unit.
The control unit 114 controls notification by the light emitting unit 17 and the display unit 19 as the notification unit selected by the selection unit 113.
Thus, the notification device 1 can notify by the selected notification unit. Therefore, the notification device 1 can perform, for example, notification suitable for each mode set by the user.

判定部112は、報知前の顔情報と報知後の顔情報との差分を算出する。
制御部114は、判定部112が算出した差分を前記報知部としての発光部17及び表示部19に報知させる。
これにより、報知装置1は、取得した顔情報に基づいたユーザ自身の変化を示す情報である顔情報の差分を、ユーザに対して報知することができる。従って、ユーザは、ユーザ自身の変化を示す情報である顔情報の差分を把握することができる。
The determination unit 112 calculates the difference between the face information before notification and the face information after notification.
The control unit 114 causes the light emitting unit 17 and the display unit 19 as the notification unit to notify the difference calculated by the determination unit 112.
As a result, the notification device 1 can notify the user of the difference in face information, which is information indicating the change of the user based on the acquired face information. Therefore, the user can grasp the difference of face information which is information indicating the user's own change.

制御部114は、顔情報を強調するように報知部としての発光部17及び表示部19に報知させる。
これにより、ユーザは、通常であれば気付きにくい自身の状態を、より適切に把握することができる。
The control unit 114 causes the light emitting unit 17 and the display unit 19 as a notification unit to notify so as to emphasize face information.
As a result, the user can more appropriately grasp his / her own state that would otherwise be difficult to notice.

制御部114は、顔情報に応じた所定の行動を促す情報を報知部としての発光部17及び表示部19に報知させる。
これにより、ユーザは、顔情報に応じた所定の行動を行うことができ、これに伴い体調を改善したり、適切に化粧を行ったりすることが可能となる。
The control unit 114 causes the light emitting unit 17 and the display unit 19 to notify of information prompting a predetermined action according to face information.
As a result, the user can perform predetermined actions according to the face information, and along with this, it is possible to improve the physical condition or to appropriately makeup.

体調情報取得部111あるいは化粧情報取得部115は、顔情報として顔情報の取得対象である被写体の画像を取得し、
判定部112は、被写体の画像に基づいて、報知前の顔情報と、報知後の顔情報との変化を判定する。
これにより、報知装置1は、ユーザの顔画像等に基づいて、体調情報が改善したか否かや、化粧が適切に行えたか否かを、判定することができる。例えば、顔画像を解析することにより特定した顔色の変化に基づいて判定をすることができる。
The physical condition information acquisition unit 111 or the makeup information acquisition unit 115 acquires an image of a subject for which face information is to be acquired as face information,
The determination unit 112 determines changes in the face information before notification and the face information after notification based on the image of the subject.
In this way, the notification device 1 can determine whether the physical condition information has been improved or whether makeup has been properly performed based on the user's face image or the like. For example, the determination can be made based on the change in the facial color specified by analyzing the face image.

報知部としての発光部17及び表示部19は発光により報知を行うものであり、
制御部114は、判定部112による判定結果に基づいて報知部としての発光部17及び表示部19の発光を制御する。
これにより、報知装置1は、発光を利用して報知を行うことができる。例えば、発光におけるRGB成分の内の、Rの成分を軽減する制御することにより、ユーザの顔色を強調するような報知ができる。
The light emitting unit 17 and the display unit 19 as a notification unit perform notification by light emission,
The control unit 114 controls the light emission of the light emitting unit 17 and the display unit 19 as the notification unit based on the determination result of the determination unit 112.
Thereby, the notification device 1 can perform notification using light emission. For example, by performing control to reduce the R component of the RGB components in light emission, notification can be made to emphasize the user's face color.

報知部としての発光部17及び表示部19は文字により報知を行うものであり、
制御部114は、判定部112による判定結果に基づいて報知部としての発光部17及び表示部19により報知される文字を制御する。
これにより、報知装置1は、文字を用いたメッセージ文等で報知をすることができる。
The light emitting unit 17 and the display unit 19 as the notification unit are to notify by characters.
The control unit 114 controls characters notified by the light emitting unit 17 and the display unit 19 as a notification unit based on the determination result by the determination unit 112.
As a result, the notification device 1 can notify by message text or the like using characters.

報知部としての発光部17及び表示部19は文字により報知を行うものであり、
制御部114は、判定部112による判定結果に基づいて報知部としての発光部17及び表示部19により報知される文字の表示位置を制御する。
これにより、報知装置1は、文字を用いたメッセージ文等の表示位置を制御した上で報知をすることができる。
The light emitting unit 17 and the display unit 19 as the notification unit are to notify by characters.
The control unit 114 controls the display position of the character notified by the light emitting unit 17 and the display unit 19 as a notification unit based on the determination result by the determination unit 112.
In this way, the notification device 1 can perform notification after controlling the display position of a message or the like using characters.

報知装置1は、顔情報の取得対象である被写体を表示する表示部19もしくは鏡部30を有する。
これにより、報知装置1は、鏡や、ディスプレイ等の画像表示部により、ユーザの顔等を、ユーザに視認させることができる。
The notification device 1 includes a display unit 19 or a mirror unit 30 that displays an object for which face information is to be acquired.
Thus, the notification device 1 can cause the user to visually recognize the user's face or the like by means of an image display unit such as a mirror or a display.

表示部の表示面と、報知部としての発光部17及び表示部19の表示面とが、同時に視認可能に視認方向に重畳して配置される。
これにより、ユーザは、表示部により反射等される自身の顔等と、報知される情報とを同時に視認することができる。
The display surface of the display unit and the display surfaces of the light emitting unit 17 as the notification unit and the display surface of the display unit 19 are disposed so as to be simultaneously visible in a visible direction.
Thus, the user can simultaneously view his / her face and the like reflected and the like by the display unit and the information to be notified.

体調情報取得部111あるいは化粧情報取得部115は、顔情報として体調に関する情報又は化粧に関する情報を取得する。
これにより、報知の前後における、体調に関する変化又は化粧に関する変化について判定をすることができる。そのため、体調に関する変化又は化粧に関する変化に基づいた報知を行うことが可能となる。
The physical condition information acquisition unit 111 or the makeup information acquisition unit 115 acquires information on physical condition or information on makeup as face information.
As a result, it is possible to determine changes in physical condition or changes in makeup before and after notification. Therefore, it is possible to perform notification based on changes in physical condition or changes in makeup.

報知部としての発光部17及び表示部19は、顔情報に基づいて、支援情報又は評価情報を報知する。
これにより、ユーザは、自身の顔情報に基づいた、支援情報(例えば、体調を改善させるためのアドバイス)や、評価情報(例えば、化粧に関する評価)の報知を受けることができる。
The light emitting unit 17 and the display unit 19 as the notification unit notify support information or evaluation information based on the face information.
Thus, the user can receive notification of support information (for example, advice for improving physical condition) and evaluation information (for example, evaluation related to makeup) based on his / her face information.

[効果]
次に、上述した実施形態が奏する効果について説明をする。
前提として、例えば、就職活動中の人物や接客業に従事している人物は、立場上、疲れた顔や不健康に見える顔を他人に見せることは望ましくない。そこで、これらの人物は、自宅等で鏡に映し出された自身の顔等を確認しながら化粧等を行うことにより、疲れた顔や不健康な顔をカバーする。
[effect]
Next, the effects of the above-described embodiment will be described.
As a premise, for example, it is not desirable for a person who is engaged in job hunting or a person who is engaged in service to show others a tired face or a face that looks unhealthy. Therefore, these persons cover their tired face and unhealthy face by performing makeup etc. while checking their own face etc. shown in a mirror at home.

しかし化粧のプロや化粧方法を教わったことがある人以外は疲れた顔をどうやってカバーできるのか手段がわからない。特に体調不良や寝不足の時は「どうしたらカバーしよう?」などと考える余裕すらない。仕事・家事・育児・介護等の連続で日々の疲労が蓄積した慢性疲労の場合、自分が疲れた顔をしている(顔色が悪い)という自覚がそもそもなく他人に指摘されて初めて気づく人も多い。疲れが顔に出ていることに自覚がないまま行動していると、第一印象で就職活動や接客・商談が上手くいかないといった悪循環に陥る上、健康を損ね病気の原因にも繋がる。   However, no one knows how to cover a tired face unless it is a cosmetic professional or someone who has taught cosmetic methods. I can not afford to think, "How should I cover?" Especially when I feel ill or lack of sleep. In the case of chronic fatigue in which daily fatigue has accumulated continuously during work, household chores, childcare, nursing care, etc., people who are not aware that they have a tired face (poor complexion) are not pointed out by others in the first place There are many. If you act without being aware that tiredness is on your face, you may fall into a vicious cycle where job hunting, customer service, and business negotiations do not go well with your first impression, and it will damage your health and lead to illness.

そこで、ユーザは上述した実施形態を利用することにより、以下のような効果を得ることができる。
慢性疲労の場合、顔色の悪さや疲れた表情をしていることに本人は気づきにくい。慢性疲労の影には病気が潜んでいる場合もある。しかしながら、本実施形態によれば、血色を良く見せる化粧やマッサージを促すことできるので、見た目を改善するだけではなく、本人に自覚を促すことができる。
Therefore, the user can obtain the following effects by using the above-described embodiment.
In the case of chronic fatigue, it is difficult for the person to notice that he has a poor complexion or a tired expression. In the shadow of chronic fatigue, there may be a disease. However, according to the present embodiment, since it is possible to promote makeup and massage that show a fair color, it is possible to not only improve the appearance but also to make the person aware.

また、就職活動や接客業の人達は、不健康な印象を第一印象で与えてしまうと失敗する。しかしながら、本実施形態によれば、起床時に洗面台の鏡で疲れた顔をしていたとしても、鏡がその場で元気に見せるメイクの提案をしてくれるため、忙しい朝に慌てなくても印象が良いメイクを施すことができる。   In addition, people in job hunting and hospitality businesses fail when they give an unhealthy impression with a first impression. However, according to the present embodiment, even if you look tired in the mirror of the washstand when you get up, the mirror will make a proposal for makeup that makes you feel well on the spot, so even if you do not hesitate in the busy morning You can make a good impression.

更に、本実施形態によれば、鏡が教えてくれることで、わざわざ調べなくても、メイクの方法やマッサージの方法がわかる。
更に、本実施形態によれば、マッサージをしても顔色の悪さが抜けない場合は病気の疑いがあることから、大病になる前に体調不良に気づくことが出来る。
Furthermore, according to the present embodiment, the mirror can tell how to make and massage without having to check.
Furthermore, according to the present embodiment, if there is no defect in the complexion even after the massage, there is a suspicion of a disease, so it is possible to notice poor health before becoming a major illness.

[変形例]
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
[Modification]
The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like in the range in which the object of the present invention can be achieved are included in the present invention.

[過去の体調情報を用いる変形例]
例えば、上述の実施形態において、判定部112は、ステップS13における報知後に、ステップS16やステップS20にて判定を行っていた。そして、この判定では、判定部112は、第1の体調情報と第2の体調情報とを比較し、この比較結果に基づいて、体調情報が改善したか否かを判定していた。
[Modification using past physical condition information]
For example, in the above-described embodiment, after the notification in step S13, the determination unit 112 performs the determination in step S16 or step S20. Then, in this determination, the determination unit 112 compares the first physical condition information and the second physical condition information, and determines whether the physical condition information has improved based on the comparison result.

これを変形して、判定部112は、ステップS13における報知後に、ステップS16やステップS20にて、過去に取得した体調情報(以下、この体調情報を「過去体調情報」と称する。)と第2の体調情報とを比較するようにしてもよい。ここで、過去体調情報とは、ステップS13における報知前に、体調情報取得部111が、撮像部16の撮像した画像を解析することにより取得した体調情報である。   By deforming this, after the notification in step S13, the determination unit 112 determines, in step S16 and step S20, the physical condition information acquired in the past (hereinafter, this physical condition information is referred to as "past physical condition information") and the second. You may make it compare with physical condition information. Here, past physical condition information is physical condition information acquired by the physical condition information acquisition part 111 analyzing the image which the imaging part 16 imaged, before alerting | reporting in step S13.

具体的には、例えば、体調情報取得部111は、前回の体調報知処理において取得した第1の体調情報や第2の体調情報を、判定情報記憶部201に格納しておく。そして、今回の体調報知処理では、判定部112は、判定情報記憶部201に格納されている、これら第1の体調情報や第2の体調情報を過去体調情報として利用する。これにより、判定部112は、例えば前日の体調情報(過去体調情報)と、今の体調情報(第2の体調情報)との比較を行うことができる。   Specifically, for example, the physical condition information acquisition unit 111 stores the first physical condition information and the second physical condition information acquired in the previous physical condition notification process in the determination information storage unit 201. And in this physical condition alerting | reporting process, the determination part 112 utilizes these 1st physical condition information and 2nd physical condition information which are stored in the determination information storage part 201 as past physical condition information. Thereby, the determination unit 112 can compare, for example, the physical condition information of the previous day (past physical condition information) with the current physical condition information (second physical condition information).

また、この比較では、上述した実施形態のように、比較結果に基づいて、体調情報が改善したか否かを判定してもよいが、変化の有無や変化の度合いを判定してもよい。この場合、例えば、判定部112は、過去体調情報と、第2の体調情報との差分を算出することにより判定を行う。算出される差分は、例えば、Rの値の差分である。   In this comparison, as in the above-described embodiment, whether or not the physical condition information has improved may be determined based on the comparison result, but the presence or absence of change or the degree of change may be determined. In this case, for example, the determination unit 112 performs the determination by calculating the difference between the past physical condition information and the second physical condition information. The calculated difference is, for example, a difference of the value of R.

そして、この比較が終了後、ステップS17、ステップS21及びステップS22における報知に代えて、選択部113及び制御部114が協働することにより、ユーザに対して、差分を示すメッセージを報知するようにしてもよい。
この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、「昨日に比べて顔色が優れませんよ。」や「昨日よりも元気な顔色ですね。」等の差分を示すメッセージを文字やイラストを表示部19に表示することで報知する。
Then, after the comparison is completed, the selection unit 113 and the control unit 114 cooperate with each other to notify the user of a message indicating the difference instead of the notification in step S17, step S21 and step S22. May be
In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 instructs the user to send a letter or an illustration, for example, a message indicating a difference, such as "Your complexion is not good compared to yesterday" or "Your greener than yesterday." The notification is given by displaying on the display unit 19.

このように、過去体調情報との比較を行ったり、過去体調情報との差分を報知したりすることによっても、ユーザ自身の体調の変化を、ユーザに対してより適切に認識させることが可能となる。   As described above, it is possible to make the user more appropriately recognize the change of the user's own physical condition by comparing with the past physical condition information or reporting the difference from the past physical condition information. Become.

なお、判定部112が、過去体調情報と、第2の体調情報とを比較するためにRの値の差分を算出し、このRの値の差分を報知する例について説明したがこれに限られない。判定部112は、RGBのうち少なくとも1つ以上のパラメータについて差分の算出を行ってもよく、更には画像解析や生体センサから得られる生体情報について差分の算出を行うようにしてもよい。また、制御部114は、ユーザに対して、これらの差分を報知するようにしてもよい。更に、過去体調情報は、過去のある時点で取得した体調情報であってもよいが、過去の複数の時点で取得した複数の体調情報の平均値であってもよい。   In addition, although the determination part 112 calculated the difference of the value of R in order to compare the past physical condition information and 2nd physical condition information, and the example which alert | reports the difference of the value of this R was demonstrated, it is limited to this Absent. The determination unit 112 may calculate the difference for at least one or more parameters of RGB, and may further calculate the difference for image analysis or biological information obtained from a biological sensor. Also, the control unit 114 may notify the user of these differences. Furthermore, the past physical condition information may be physical condition information acquired at a certain point in the past, but may be an average value of a plurality of physical condition information acquired at a plurality of past points in time.

[他の体調情報を用いる変形例]
他にも、例えば、上述の実施形態において、ユーザの顔領域のRの値を体調情報として利用して、体調報知処理を行っていた。これを変形して、他の体調情報を用いて、体調報知処理を行うようにしてもよい。例えば、撮像部16に赤外線フィルタ等を用いることにより、体調情報取得部111が、ユーザの体温を取得するようにする。そして、このユーザの体温を体調情報として利用するようにしてもよい。
[Modification using other physical condition information]
In addition, for example, in the above-described embodiment, the physical condition notification process is performed using the value of R of the face area of the user as physical condition information. By modifying this, other physical condition information may be used to perform physical condition notification processing. For example, by using an infrared filter or the like for the imaging unit 16, the physical condition information acquisition unit 111 acquires the body temperature of the user. Then, the body temperature of the user may be used as physical condition information.

[報知方法を異ならせる変形例]
他にも、例えば、上述の実施形態において、報知を行う場合に、所定のメッセージを報知する場合に、選択部113は、表示部19を選択していた。そして、制御部114は、表示部19にメッセージを表示することにより報知を行っていた。これを変形して、他の方法で報知を行うようにしてもよい。例えば、選択部113は、図示を省略したスピーカを選択するようにしてもよい。そして、制御部114は、所定のメッセージに対応する音声をスピーカから出力するようにしてもよい。
[Modification to make the notification method different]
In addition, for example, in the above-described embodiment, the selection unit 113 selects the display unit 19 when notifying a predetermined message when performing notification. Then, the control unit 114 performs notification by displaying a message on the display unit 19. By changing this, the notification may be performed by another method. For example, the selection unit 113 may select a speaker (not shown). Then, the control unit 114 may output sound corresponding to a predetermined message from the speaker.

[発光部を他の用途に用いる変形例]
他にも、例えば、発光部17を他の用途に利用するようにしてもよい。例えば、ユーザの血圧に働きかける用途に発光部17を利用するようにしてもよい。
この場合、体調情報取得部111が、外部の血圧測定機器と通信を行う等して、ユーザの血圧情報を取得する。そして、制御部114が、取得した血圧情報に応じて発光部17の発光を制御する。具体的には、取得した血圧の値が高い場合には、制御部114は、発光部17を制御することによりBの成分を増加させて青色系で発光するように制御する。青色系の発光をみることで、血圧が下がる効果があるためである。一方で、取得した血圧の値が低い場合には、制御部114は、発光部17を制御することによりRの成分を増加させて赤色系で発光するように制御する。赤色系の発光をみることで、血圧が上がる効果があるためである。
[Modification using the light emitting unit for other applications]
Besides, for example, the light emitting unit 17 may be used for other applications. For example, the light emitting unit 17 may be used for an application to work on the user's blood pressure.
In this case, the physical condition information acquisition unit 111 communicates with an external blood pressure measurement device to acquire blood pressure information of the user. Then, the control unit 114 controls the light emission of the light emitting unit 17 according to the acquired blood pressure information. Specifically, when the value of the acquired blood pressure is high, the control unit 114 controls the light emitting unit 17 to increase the component of B so as to emit light in blue. This is because the blood pressure can be lowered by looking at blue light emission. On the other hand, when the value of the acquired blood pressure is low, the control unit 114 controls the light emitting unit 17 to increase the component of R so as to emit light in red. This is because the blood pressure can be increased by looking at red light emission.

[化粧に対する評価に適用する変形例]
上述した実施形態では、報知装置1は、取得した体調情報を改善するための支援情報をユーザに対して報知していた。これに限らず、報知装置1は、他の情報をユーザに対して報知するようにしてもよい。例えば、報知装置1は、体調情報を改善するための支援情報ではなく、ユーザに施された化粧に対する評価を含む評価情報を報知するようにしてもよい。そのために報知装置1は、本変形例において、上述した実施形態で行った「体調報知処理」ではなく、「化粧報知処理」を行う。この化粧報知処理を行うための機能的構成及び動作について、以下、図7及び図8を参照して説明する。
[Modification applied to evaluation for makeup]
In the embodiment described above, the notification device 1 notifies the user of support information for improving the acquired physical condition information. Not limited to this, the notification device 1 may notify other information to the user. For example, the notification device 1 may notify not the support information for improving the physical condition information but the evaluation information including the evaluation on the makeup applied to the user. Therefore, the notification device 1 performs the "makeup notification process" instead of the "physical condition notification process" performed in the above-described embodiment in this modification. The functional configuration and operation for performing the makeup notification process will be described below with reference to FIGS. 7 and 8.

(機能的構成)
図7は、報知装置1の機能的構成のうち、化粧報知処理を実行するための機能的構成を示す機能ブロック図である。
化粧報知処理とは、報知装置1がユーザに施された化粧に対する評価を含む評価情報を報知する一連の処理である。
化粧報知処理が実行される場合、図7に示すように、CPU11において、化粧情報取得部115と、判定部112と、選択部113と、制御部114とが機能する。上述の実施形態における、体調報知処理が実行される場合と比較して、体調情報取得部111が、化粧情報取得部115に置き換わっている点で相違する。
また、記憶部20の一領域には、判定情報記憶部201と、報知情報記憶部202とが設定される。
(Functional configuration)
FIG. 7 is a functional block diagram showing a functional configuration for executing the makeup notification process in the functional configuration of the notification device 1.
The makeup notification process is a series of processes in which the notification device 1 notifies evaluation information including an evaluation on makeup provided to the user.
When the makeup notification process is performed, as shown in FIG. 7, in the CPU 11, the makeup information acquisition unit 115, the determination unit 112, the selection unit 113, and the control unit 114 function. The difference is that the physical condition information acquisition unit 111 is replaced with the makeup information acquisition unit 115 as compared with the case where the physical condition notification process is performed in the above-described embodiment.
Further, in one area of the storage unit 20, a determination information storage unit 201 and a notification information storage unit 202 are set.

判定情報記憶部201には、判定部112が化粧の状態を示す化粧情報についての判定を行うための情報が格納される。具体的には、化粧報知処理での判定の基準となる化粧情報(以下、「化粧情報目標値」と称する。)や、化粧報知処理において取得したユーザの化粧情報(以下、「化粧情報実測値」と称する。)が格納される。   The determination information storage unit 201 stores information for the determination unit 112 to make a determination on makeup information indicating the state of makeup. Specifically, makeup information (hereinafter referred to as "make-up information target value") as a reference for determination in the makeup notification process, and makeup information of a user acquired in the makeup notification process (hereinafter, makeup information measured value Is stored.

ここで、化粧情報目標値や化粧情報実測値といった各化粧情報としては、例えば、顔部分に対応する各領域(以下、「評価対象領域」と称する。)の各画素についての色を示す情報を用いることができる。   Here, as each makeup information such as makeup information target value and makeup information actual measurement value, for example, information indicating the color of each pixel of each area corresponding to the face portion (hereinafter referred to as "evaluation target area") is used. It can be used.

例えば、頬、唇、目元、まつ毛、及びTゾーンといった化粧の対象となる器官や部位に対応する領域を評価対象領域とすることができる。この場合、評価対象領域は、ユーザの設定や化粧の内容等に応じて、複数設定されてもよいし、1つのみ設定されてもよい。
また、例えば、これら評価対象領域における、各画素についてのRGB値を化粧情報として用いることができる。ここで、上述した実施形態では、各画素についてのRGB値のうち、ユーザの顔の赤みを示すRの値を、ユーザの体調情報として用いていた。
For example, an area corresponding to an organ or part to be a target of makeup, such as cheeks, lips, eyes, eyelashes, and T zone, can be used as an evaluation target area. In this case, a plurality of evaluation target areas may be set or only one may be set according to the setting of the user, the content of makeup, and the like.
Also, for example, RGB values for each pixel in these evaluation target areas can be used as makeup information. Here, in the above-described embodiment, among the RGB values for each pixel, the value of R indicating the redness of the user's face is used as the user's physical condition information.

これに対して、化粧は、赤以外の、赤や黄色あるいは黒といった様々な色に対応する化粧品も利用して行なわれる。そこで、化粧情報目標値や化粧情報実測値といった各化粧情報としては、Rの値のみならず、Gの値やBの値も用いるようにするとよい。
ただしこれは、一例であり、化粧情報として、RGBのうち少なくとも1つ以上の値を用いるようにしてもよく、更には画像解析等から得られる他の情報を化粧情報として用いるようにしてもよい。
On the other hand, makeup is performed using cosmetics corresponding to various colors other than red, such as red, yellow or black. Therefore, not only the value of R but also the value of G or the value of B may be used as each piece of makeup information such as the makeup information target value and the makeup information actual measurement value.
However, this is an example, and at least one or more values of RGB may be used as makeup information, and further, other information obtained from image analysis or the like may be used as makeup information .

これら各化粧情報の取得は、後述の化粧情報取得部115が行う。化粧情報取得部115は、化粧情報目標値を、お手本となるモデル等の人物の画像から抽出することにより取得する。あるいは、化粧情報取得部115は、化粧情報目標値を、報知装置1のユーザの画像に対して、美肌処理等の所定の処理を行い、処理後の画像から抽出することにより取得する。
また、化粧情報取得部115は、化粧情報実測値を、撮像部16が撮像した画像を解析して、解析結果に基づいて取得する。
化粧情報取得部115は、取得した各化粧情報を、判定情報記憶部201に格納する。
Acquisition of each of these makeup information is performed by the makeup information acquisition unit 115 described later. The makeup information acquisition unit 115 acquires a makeup information target value by extracting it from an image of a person such as a model serving as a model. Alternatively, the makeup information acquisition unit 115 acquires the makeup information target value by performing predetermined processing such as skin care processing on the image of the user of the notification device 1 and extracting the makeup information target value from the image after the processing.
In addition, the makeup information acquisition unit 115 analyzes the image captured by the imaging unit 16 based on the analysis result and analyzes the makeup information measurement value.
The makeup information acquisition unit 115 stores the acquired makeup information in the determination information storage unit 201.

なお、化粧情報取得部115による、化粧情報目標値の取得は、化粧報知処理が実行される都度行なわれてもよいし、化粧報知処理に先立って行なわれてもよい。化粧報知処理に先立って行なわれた場合には、化粧情報目標値が、ユーザごとに設けられたデータベース等の形式で、判定情報記憶部201に格納される。そして、化粧情報取得部115が、化粧報知処理が実行される都度、格納されている化粧情報目標値を読み込んで利用する。   Note that the makeup information target value may be acquired by the makeup information acquisition unit 115 each time the makeup notification process is performed, or may be performed prior to the makeup notification process. If performed before the makeup notification process, the makeup information target value is stored in the determination information storage unit 201 in the form of a database or the like provided for each user. Then, the makeup information acquisition unit 115 reads and uses the stored makeup information target value each time the makeup notification process is executed.

報知情報記憶部202には、制御部114の制御に基づいて、発光部17や表示部19が報知を行うための情報が格納される。具体的には、発光部17の発光を制御するための制御情報や、表示部19に表示をするための文字データ(テキストデータ)や画像データが格納される。   The notification information storage unit 202 stores, under the control of the control unit 114, information for the light emitting unit 17 and the display unit 19 to perform notification. Specifically, control information for controlling light emission of the light emitting unit 17, character data (text data) for displaying on the display unit 19, and image data are stored.

なお、判定情報記憶部201や、報知情報記憶部202に格納される各化粧情報や報知情報等の各種のデータについては、記憶部20にのみ格納されていてもよいが、ドライブ21によってリムーバブルメディア100から適宜読み出されるようにしてもよい。   The various data such as the makeup information and the notification information stored in the determination information storage unit 201 and the notification information storage unit 202 may be stored only in the storage unit 20, but the removable media by the drive 21. It may be read appropriately from 100.

化粧情報取得部115は、判定情報記憶部201の説明において上述したように、化粧情報目標値や化粧情報実測値といった各化粧情報を取得する部分である。
化粧情報取得部115は、上述したように、お手本となるモデル等の人物の画像からの抽出等を行うことにより、化粧情報目標値を取得する。
As described above in the description of the determination information storage unit 201, the makeup information acquisition unit 115 is a part that acquires each piece of makeup information such as a makeup information target value and a makeup information actual measurement value.
As described above, the makeup information acquisition unit 115 acquires a makeup information target value by performing extraction or the like from an image of a person such as a model serving as a model.

また、化粧情報取得部115は、撮像部16が撮像した画像を解析して、解析結果に基づいて化粧情報実測値を取得する。ここで、図1を参照して上述したように撮像部16は、鏡部30に正対したユーザの顔が撮像される位置に配置される。従って、撮像部16が撮像したユーザの顔部分の画像を解析して、解析結果に基づいて化粧情報実測値を取得する。   Further, the makeup information acquisition unit 115 analyzes the image captured by the imaging unit 16 and acquires makeup information actual measurement values based on the analysis result. Here, as described above with reference to FIG. 1, the imaging unit 16 is disposed at a position where the face of the user facing the mirror unit 30 is imaged. Therefore, the image of the face portion of the user captured by the imaging unit 16 is analyzed, and the makeup information actual value is acquired based on the analysis result.

そして、化粧情報取得部115は、このように取得した各化粧情報のそれぞれを、判定情報として、判定情報記憶部201に格納する。   Then, the makeup information acquisition unit 115 stores each piece of makeup information acquired in this manner in the determination information storage unit 201 as determination information.

判定部112は、判定情報記憶部201に格納されている各化粧情報に基づいて、化粧が適切に行なわれたか否かを判定する部分である。
ここで、本変形例では、第1の時点で化粧情報取得部115が測定した化粧情報実測値(以下、「第1の化粧情報実測値」と称する。)と、第1の時点よりも後の第2の時点で化粧情報取得部115が測定した化粧情報実測値(以下、「第2の化粧情報実測値」と称する。)を用いた判定を行う。
The determination unit 112 is a part that determines whether makeup has been properly performed based on each piece of makeup information stored in the determination information storage unit 201.
Here, in the present modification, the makeup information actual measurement value (hereinafter, referred to as “first makeup information actual measurement value”) measured by the makeup information acquisition unit 115 at the first point in time and after the first point in time The determination is performed using the cosmetic information actual measurement value (hereinafter, referred to as “second cosmetic information actual measurement value”) measured by the cosmetic information acquisition unit 115 at the second point in time.

そのために、判定部112は、化粧情報目標値と、各化粧情報実測値それぞれとについて差分を算出する。また、判定部112は、化粧情報目標値と第1の化粧情報実測値との差分(以下、「第1の差分」と称する。)と、化粧情報目標値と第2の化粧情報実測値との差分(以下、「第2の差分」と称する。)を比較する。そして、判定部112は、第2の差分が、第1の差分から変化している場合に、化粧情報実測値が変化したと判定する。これにより、ユーザの化粧情報実測値の変化を判定することができる。   Therefore, the determination unit 112 calculates a difference between the makeup information target value and each of the makeup information actual measurement values. In addition, the determination unit 112 determines the difference between the makeup information target value and the first makeup information actual measurement value (hereinafter referred to as the “first difference”), the makeup information target value, and the second makeup information actual measurement value. (Hereinafter referred to as "second difference") are compared. Then, when the second difference has changed from the first difference, the determination unit 112 determines that the makeup information actual value has changed. Thereby, it is possible to determine a change in the makeup information actual value of the user.

この場合に、判定部112は、例えば、第2の差分が、第1の差分よりも小さくなっている場合には、より化粧情報目標値に近づくように変化したと判定する。これにより、判定部112は、第2の時点では第1の時点に比べて、適切に化粧が行えていると判定することができる。
一方で、判定部112は、例えば、第2の差分が、第1の差分よりも大きくなっている場合には、より化粧情報目標値から遠ざかるように変化したと判定する。これにより、判定部112は、第2の時点では第1の時点に比べて、適切に化粧が行えていない(すなわち、不適切な化粧が行なわれている)と判定することができる。
In this case, for example, when the second difference is smaller than the first difference, the determination unit 112 determines that the change is made to approach the makeup information target value more. As a result, the determination unit 112 can determine that makeup is properly performed at the second time point, as compared to the first time point.
On the other hand, when the second difference is, for example, larger than the first difference, the determination unit 112 determines that the change is made to be further away from the makeup information target value. Thus, the determination unit 112 can determine that makeup can not be performed properly (that is, improper makeup is performed) at the second point in time as compared to the first point in time.

また、これらの場合に、判定部112は、例えば、報知を行う前の時点を第1の時点とし、報知を行った後の時点を第2の時点とすることにより、報知前後におけるユーザの化粧情報実測値の変化を判定することができる。   In these cases, for example, the determination unit 112 sets the time before the notification as the first time, and sets the time after the notification as the second time, thereby making the user's makeup before and after the notification. It is possible to determine the change in the information actual value.

また、本変形例では、判定部112は、化粧情報目標値と、各化粧情報実測値とを用いた判定も行う。そのために、判定部112は、化粧情報目標値と、各化粧情報実測値(例えば、直近の実測値である、第2の化粧情報実測値)との差分を、所定の閾値と比較する。そして、判定部112は、化粧情報目標値と、化粧情報実測値との差分が、所定の閾値よりも小さくなった場合に、化粧における目標に達成したと判定する。
ここで、化粧情報目標値と、化粧情報実測値との差分が、所定の閾値よりも小さくなった場合とは、ユーザが化粧を適切に行なったことにより、目標に近づいた化粧を行うことができた場合に相当する。また、判定部112は、評価対象領域が複数ある場合には、この複数の評価対象領域のそれぞれについて上述の判定を行う。
Further, in the present modification, the determination unit 112 also performs determination using the makeup information target value and each makeup information actual measurement value. For that purpose, the determination unit 112 compares the difference between the makeup information target value and each makeup information actual measurement value (for example, the second makeup information actual measurement value, which is the latest actual measurement value) with a predetermined threshold value. Then, when the difference between the makeup information target value and the makeup information actual measurement value becomes smaller than a predetermined threshold value, the determination unit 112 determines that the makeup target has been achieved.
Here, when the difference between the makeup information target value and the makeup information actual measurement value becomes smaller than a predetermined threshold value, the user appropriately performs makeup, thereby performing makeup that approaches the goal. It corresponds to the case where it can be done. Further, when there are a plurality of evaluation target areas, the determination unit 112 performs the above-described determination on each of the plurality of evaluation target areas.

判定部112は、これら各判定により得られた判定結果を、後述の選択部113や、制御部114に対して出力する。これにより、後述の選択部113及び制御部114は、これら各判定の結果に基づいて、報知を制御することができる。   The determination unit 112 outputs the determination result obtained by each determination to the selection unit 113 and the control unit 114 described later. Thus, the selection unit 113 and the control unit 114 described later can control the notification based on the results of the determinations.

選択部113は、化粧報知処理において、報知に用いる報知部を選択する部分である。選択部113は、判定部112の判定結果に基づいて決定される報知の内容等に応じて、適切な報知部を選択する。   The selection unit 113 is a part that selects a notification unit used for notification in the makeup notification process. The selection unit 113 selects an appropriate notification unit according to the content of the notification determined based on the determination result of the determination unit 112.

制御部114は、判定部112の判定結果に基づいて、選択部113が選択した報知部を制御することにより報知を実行する部分である。
これら各部が協働して実行される報知の具体的な内容については、以下の[動作]の説明において詳細に説明する。
The control unit 114 is a part that executes notification by controlling the notification unit selected by the selection unit 113 based on the determination result of the determination unit 112.
The specific content of the notification executed by the respective units in cooperation with each other will be described in detail in the following [Operation].

(動作)
次に、本変形例における報知装置1の動作を説明する。図8は、報知装置1が実行する化粧報知処理の流れを説明するフローチャートである。
化粧報知処理は、例えば、報知装置1の起動と共に開始される。
(Operation)
Next, the operation of the notification device 1 in the present modification will be described. FIG. 8 is a flowchart illustrating the flow of the makeup notification process performed by the notification device 1.
The makeup notification process is started, for example, with the activation of the notification device 1.

ステップS31において、化粧情報取得部115は、撮像部16の撮像した画像を解析することにより、鏡部30の前に正対したユーザを検出する。   In step S <b> 31, the makeup information acquisition unit 115 analyzes the image captured by the imaging unit 16 to detect the user facing the mirror unit 30.

ステップS32において、化粧情報取得部115は、鏡部30の前に正対したユーザに対して、フェイストラッキングを行うことにより、評価対象領域を検出する。フェイストラッキングは、画像解析により、ユーザの輪郭や、ユーザの特徴点(例えば、各器官等の位置を示す特徴点)を特定することにより実現できる。
ステップS33において、化粧情報取得部115は、ステップS32にて検出した各評価対象領域それぞれについての、化粧情報目標値を取得する。
In step S <b> 32, the makeup information acquisition unit 115 detects the evaluation target area by performing face tracking on the user who has faced in front of the mirror unit 30. Face tracking can be realized by specifying an outline of a user or a feature point of the user (for example, a feature point indicating a position of each organ or the like) by image analysis.
In step S33, the makeup information acquisition unit 115 acquires makeup information target values for each of the evaluation target areas detected in step S32.

ステップS34において、化粧情報取得部115は、ステップS32にて検出した各評価対象領域それぞれについての、化粧情報実測値を取得する。
ステップS35において、判定部112は、ステップS33にて取得した化粧情報目標値と、ステップS34にて取得した化粧情報実測値との差分を算出する。この差分は、上述した第2の差分に相当する。また、今回行ったステップS35よりも、前の時点に行ったステップS35にて算出した差分は、上述した第1の差分に相当する。
In step S34, the makeup information acquisition unit 115 acquires makeup information actual measurement values for each of the evaluation target areas detected in step S32.
In step S35, the determination unit 112 calculates the difference between the makeup information target value acquired in step S33 and the makeup information actual value acquired in step S34. This difference corresponds to the second difference described above. Further, the difference calculated in step S35 performed at a time point before step S35 performed this time corresponds to the above-described first difference.

ステップS36において、判定部112は、差分に基づいて化粧情報実測値が変化したか否かを判定する。具体的には、判定部112は、上述したように、第1の差分と、第2の差分を比較する。そして、第2の差分が、第1の差分から変化している場合に、化粧情報実測値が変化したと判定する。この場合に、上述したように、更に、第2の差分が第1の差分よりも小さくなる変化をしたか、あるいは、第2の差分が第1の差分よりも大きくなる変化をしたかも判定するようにしてもよい。   In step S36, the determination unit 112 determines whether the makeup information actual value has changed based on the difference. Specifically, as described above, the determination unit 112 compares the first difference with the second difference. Then, when the second difference is changed from the first difference, it is determined that the makeup information actual value has changed. In this case, as described above, it is further determined whether the second difference has changed smaller than the first difference or the second difference has changed larger than the first difference. You may do so.

化粧情報実測値が変化(大きくなる変化及び小さくなる変化の双方を含む)した場合は、ステップS36においてYesと判定され、処理はステップS37に進む。一方で、化粧情報実測値が変化(大きくなる変化及び小さくなる変化の双方を含む)しなかった場合、あるいは略変化しなかった場合は、ステップS36においてNoと判定され、処理はステップS34に戻り、現在の第2の差分を新たな第1の差分として、再度、化粧情報実測値の計測が行なわれる。
なお、今回が一回目の処理である場合には、第1の差分は存在せず、今回算出した第2の差分のみが存在することになるので、この場合にも、ステップS36においてNoと判定され、処理はステップS34に戻り、現在の第2の差分を新たな第1の差分として、再度、化粧情報実測値の計測が行なわれる。
If the makeup information actual value changes (including both large change and small change), it is determined Yes in step S36, and the process proceeds to step S37. On the other hand, if the cosmetic information actual value does not change (including both the increase and decrease) or if it does not substantially change, it is determined No in step S36, and the process returns to step S34. The measurement of the cosmetic information actual measurement value is again performed with the current second difference as the new first difference.
If the process is the first one, the first difference does not exist, and only the second difference calculated this time exists. In this case, too, the determination in step S36 is No. Then, the process returns to step S34, and the measurement of the cosmetic information actual measurement value is performed again with the current second difference as the new first difference.

ステップS37において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、ステップS37にて変化したと判定された内容や、変化したと判定された評価対象領域を示すメッセージや、イラストを表示部19に表示することで報知する。   In step S37, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 causes the display unit 19 to display, for example, a message indicating the content determined to be changed in step S37, the evaluation target area determined to be changed, or an illustration to the user. Inform

例えば、第2の差分が第1の差分よりも小さくなる変化をした場合には、制御部114は、例えば「メイクが適切に行えていますよ!」等の、ユーザに施された化粧が適切である旨の評価を含むメッセージを更に表示部19に表示すようにしてもよい。一方で、第2の差分が第1の差分よりも大きくなる変化をした場合には、制御部114は、例えば「メイクが上手くいっていないようです!」等の、ユーザに施された化粧に対する評価を含むメッセージを更に表示部19に表示すようにしてもよい。   For example, when the second difference is changed to be smaller than the first difference, the control unit 114 appropriately makes the makeup applied to the user, such as “make-up done properly!” In addition, a message including an evaluation of the effect may be displayed on the display unit 19. On the other hand, when the second difference changes so as to be larger than the first difference, the control unit 114 evaluates the makeup applied to the user, such as "make-up does not seem to be good!" May be displayed on the display unit 19 further.

また、制御部114は、例えば、第1の差分や第2の差分の値そのものや、第1の差分や第2の差分の変化量を、化粧の達成値としてユーザに対して報知するようにしてもよい。例えば、これらの値を達成率としてユーザに対して報知するようにしてもよい。
この場合に、例えば、RGBそれぞれ値のどの値が、もっとも化粧情報目標値との差分が大きいか(又は小さいか)をユーザに対して報知するようにしてもよい。例えば、評価対象領域がユーザの唇であり、Rの値の差分が大きい場合に、「唇に赤みが足りないようです。赤い口紅をもう少し塗って下さい。」等の、ユーザに施された化粧が不適切である旨の評価や、化粧の改善方法を含むメッセージを更に表示部19に表示すようにしてもよい。
In addition, the control unit 114 notifies the user of, for example, the value of the first difference or the second difference itself, or the amount of change of the first difference or the second difference as the makeup achievement value. May be For example, these values may be notified to the user as the achievement rate.
In this case, for example, the user may be notified of which value of each of the RGB values is the largest (or the smallest) difference from the makeup information target value. For example, when the evaluation target area is the user's lips, and the difference in the value of R is large, makeup given to the user such as "It seems that the lips are not red enough. Please apply a red lipstick a little more." The display unit 19 may further display a message indicating that the evaluation is inappropriate and a method for improving makeup.

ステップS38において、判定部112は、ステップS35にて算出した、化粧情報目標値と、第2の化粧情報実測値との差分(すなわち、第2の差分)を、所定の閾値と比較することにより、目標に到達した評価対象領域(すなわち、適切に化粧をすることができた評価対象領域)があったか否かを判定する。目標に到達した評価対象領域があった場合は、ステップS38においてYesと判定され、処理はステップS39に進む。一方で、目標に到達した評価対象領域がなかった場合は、ステップS38においてNoと判定され、処理はステップS34に戻り、現在の第2の差分を新たな第1の差分として、再度、化粧情報実測値の計測が行なわれる。   In step S38, the determination unit 112 compares the difference between the makeup information target value calculated in step S35 and the second makeup information actual value (that is, the second difference) with a predetermined threshold value. Then, it is determined whether there is an evaluation target area that has reached the goal (that is, an evaluation target area that can be appropriately dressed). If there is an evaluation target area that has reached the target, it is determined as Yes in Step S38, and the process proceeds to Step S39. On the other hand, if there is no evaluation target area that has reached the target, it is determined No in step S38, the process returns to step S34, and the makeup information is again set as the new second difference. Measurement of the measured value is performed.

ステップS39において、選択部113及び制御部114が協働することにより、ユーザに対して報知を行う。この報知において、例えば、選択部113は、報知部として表示部19を選択する。そして、制御部114は、ユーザに対して、例えば、ステップS38にて目標に到達したと判定された評価対象領域を示すメッセージや、イラストを表示部19に表示することで報知する。この場合に、例えば「メイクが適切に行えていますよ!」等の、ユーザに施された化粧に対する評価を含むメッセージを更に表示部19に表示すようにしてもよい。   In step S39, the selection unit 113 and the control unit 114 cooperate to notify the user. In this notification, for example, the selection unit 113 selects the display unit 19 as the notification unit. Then, the control unit 114 notifies the user by, for example, displaying on the display unit 19 a message indicating the evaluation target area determined to have reached the target in step S38 or an illustration. In this case, a message including an evaluation of makeup applied to the user, such as “You can properly make makeup!” May be displayed on the display unit 19.

ステップS40において、判定部112は、全ての評価対象領域についてステップS39の報知を行ったか否か(すなわち、全ての評価対象領域が目標に到達したか否か)を判定する。
全ての評価対象領域についてステップS39の報知を行った場合は、ステップS40においてYesと判定され、本処理は終了する。一方で、全ての評価対象領域についてステップS39の報知を行っていない場合は、ステップS40においてNoと判定され、処理はステップS34に戻り、現在の第2の差分を新たな第1の差分として、再度、化粧情報実測値の計測が行なわれる。
In step S40, the determination unit 112 determines whether the notification in step S39 has been performed for all the evaluation target areas (that is, whether all the evaluation target areas have reached the target).
When the notification in step S39 is performed for all the evaluation target areas, it is determined as Yes in step S40, and the present process ends. On the other hand, when the notification in step S39 is not performed for all the evaluation target areas, it is determined No in step S40, the process returns to step S34, and the current second difference is set as a new first difference. Measurement of makeup information actual value is performed again.

以上説明した化粧報知処理により、報知装置1は、ユーザに施された化粧に対する評価を含む評価情報を報知することができる。従って、ユーザは、自身に施した化粧が適切であるか否かを把握することができる。   According to the makeup notification process described above, the notification device 1 can notify the user of evaluation information including an evaluation on makeup applied to the user. Therefore, the user can grasp whether or not the makeup applied to him / her is appropriate.

なお、上述した化粧報知処理では、ユーザに施された化粧に対する評価を含む評価情報として、目標に到達したか否かと、目標に到達した評価対象領域が何れの領域であるかを報知していた。これに限らず、更に段階的な評価を行い、この段階的な評価結果を報知するようにしてもよい。例えば、所定の閾値を段階的に複数設け、化粧情報目標値と、化粧情報実測値との差分が何れかの閾値以下になる都度、異なる内容の報知を行うようにしてもよい。   In the above-described makeup notification processing, as evaluation information including the evaluation for the makeup applied to the user, whether the target has been reached or not and which area the evaluation target region has reached the target has been reported . Not limited to this, it is also possible to make a step-by-step evaluation and to notify of this step-by-step evaluation result. For example, a plurality of predetermined threshold values may be provided step by step, and different contents may be notified each time the difference between the makeup information target value and the makeup information actual measurement value becomes equal to or less than any threshold.

この場合、例えば、第1の閾値と、これよりも小さな第2の閾値を設ける。そして、化粧が開始されて、化粧情報目標値と、化粧情報実測値との差分が第1の閾値以下となった時点で、「もう少しで目標に到達します!」等のメッセージを報知する。また、化粧が継続されて、化粧情報目標値と、化粧情報実測値との差分が第2の閾値以下となった時点で、「目標に到達しました!」等のメッセージを報知する。
これにより、ユーザに対して段階的な評価を含む評価情報を報知することができる。また、このような段階的な報知を、複数の評価対象領域それぞれについて行うようにしてもよい。更に、段階は、このように2つではなく、より多く設けるようにしてもよい。
In this case, for example, a first threshold and a second threshold smaller than this are provided. Then, when makeup is started and the difference between the makeup information target value and the makeup information actual measurement value becomes less than or equal to the first threshold, a message such as "Aim to reach the goal in a little more!" In addition, when makeup is continued and the difference between the makeup information target value and the makeup information actual measurement value becomes less than or equal to the second threshold, a message such as "the goal has been reached!" Is notified.
Thereby, it is possible to notify the user of evaluation information including stepwise evaluation. Further, such stepwise notification may be performed for each of a plurality of evaluation target areas. Furthermore, more than two stages may be provided as described above.

また、上述した化粧報知処理では、第1の差分と第2の差分の変化がない場合に、ステップS36においてNoと判定しているが、特にこの判定に関する報知を行っていなかった。これに限らず、例えば、「お化粧状態に変化がないようです。指定の箇所に対してお化粧してみて下さい。」等のメッセージを報知するようにしてもよい。また、所定の時間が経過する間、第1の差分と第2の差分の変化がなく、ステップS36においてNoの判定が継続した場合に、化粧報知処理を終了するようにしてもよい。   Further, in the above-described makeup notification processing, when there is no change between the first difference and the second difference, it is determined No in step S36, but notification regarding this determination has not been made. Not limited to this, for example, a message such as “There is no change in the state of makeup. Please try makeup for a designated part.” May be notified. In addition, the makeup notification process may be ended when the first difference and the second difference do not change while the predetermined time has elapsed, and the determination of No continues in step S36.

また、上述した化粧報知処理では、ステップS36において、第1の差分と第2の差分を比較することにより、化粧情報実測値が変化したか否かを判定していた。これに限らず、第1の化粧情報実測値それ自身と、第2の化粧情報実測値それ自身とを比較することにより、化粧情報実測値が変化したか否かを判定するようにしてもよい。また、この場合に、第2の化粧情報実測値が、第1の化粧情報実測値から、どのように変化したか(例えば、RGBの値が増加したか減少したか)と、化粧情報目標値とを比較することにより、第2の時点では第1の時点に比べて、適切に化粧が行えているか否かの判定を行うこともできる。
更に、上述した化粧報知処理では、ステップS38において、化粧情報目標値と第2の化粧情報実測値との差分(すなわち、第2の差分)を、所定の閾値と比較することにより、目標に到達した評価対象領域(すなわち、適切に化粧をすることができた評価対象領域)があったか否かを判定していた。これに限らず、第2の化粧情報実測値それ自身と、所定の閾値とを比較することにより、目標に到達した評価対象領域があったか否かを判定するようにしてもよい。
つまり、化粧報知処理において、各化粧情報目標値の差分を算出することなく、判定を行うようにしてもよい。
Further, in the makeup notification process described above, it is determined in step S36 whether the makeup information actual value has changed by comparing the first difference and the second difference. Not limited to this, it may be determined whether the cosmetic information actual value has changed by comparing the first cosmetic information actual value itself with the second cosmetic information actual value itself. . Also, in this case, how the second makeup information actual measurement value changes from the first makeup information actual measurement value (for example, does the RGB value increase or decrease), and the makeup information target value It is also possible to determine whether or not makeup is properly performed at the second time point, as compared with the first time point.
Furthermore, in the makeup notification process described above, the target is reached by comparing the difference between the makeup information target value and the second makeup information actual value (that is, the second difference) with the predetermined threshold value in step S38. It was determined whether or not there was an evaluation target area (that is, an evaluation target area that could be appropriately dressed). The present invention is not limited to this, and it may be determined whether there is an evaluation target area that has reached the target by comparing the second makeup information actual value itself with a predetermined threshold value.
That is, in the makeup notification process, the determination may be performed without calculating the difference between the makeup information target values.

また、化粧情報目標値の取得の方法を異ならせるようにしてもよい。この場合、例えば、報知装置1は、上述した化粧報知処理に先立って仮想的な化粧(以下、「バーチャルメイク」と称する。)を行う。バーチャルメイクでは、撮像部16において撮像したユーザの画像と、仮想的な化粧品に対応する色とを重畳して表示部19に表示する。また、ユーザによる操作に基づいて、仮想的な化粧品による化粧の状態を異ならせる。例えば、仮想的な化粧品が仮想的なチークである場合に、ユーザの操作に応じて、チークを乗せる位置と形状を異ならせる。あるいは、ユーザの顔の各領域を検出して、チークを乗せる位置と形状を、検出したユーザの顔の各領域の位置と形状に自動的に合わせる。
これにより、ユーザが目標とすべき適切なバーチャルメイクを行うことができる。そして、適切なバーチャルメイクにおける、化粧部分のRGB値や、化粧部分の形状を、化粧情報目標値として取得する。
Also, the method of acquiring the makeup information target value may be made different. In this case, for example, the notification device 1 performs virtual makeup (hereinafter, referred to as “virtual makeup”) prior to the above-described makeup notification process. In virtual makeup, the image of the user captured by the imaging unit 16 and the color corresponding to the virtual cosmetic are superimposed and displayed on the display unit 19. Moreover, the state of makeup by virtual cosmetics is made different based on the operation by the user. For example, in the case where the virtual cosmetic is a virtual cheek, the position and the shape on which the cheek is placed are made different according to the user's operation. Alternatively, each area of the user's face is detected, and the position and shape on which cheeks are placed are automatically adjusted to the position and shape of each detected area of the user's face.
This makes it possible to make an appropriate virtual make-up that the user should aim for. Then, the RGB values of the makeup part and the shape of the makeup part in appropriate virtual makeup are acquired as makeup information target values.

その上で、上述した化粧報知処理において実際に化粧を行うことにより、バーチャルメイクにより取得した化粧情報目標値を利用した、実際の化粧の評価を行うことができる。これにより、ユーザが実際に様々な化粧品を用いた化粧を行うことなく(すなわち、バーチャルメイクを行うのみで)、ユーザの顔をお手本とした化粧情報目標値を取得することが可能となる。   Then, by actually performing makeup in the makeup notification process described above, it is possible to evaluate actual makeup using the makeup information target value acquired by virtual makeup. As a result, it is possible to obtain a makeup information target value based on the user's face as a model, without the user actually making makeup using various cosmetics (that is, only by performing virtual makeup).

ただし、これに限らず、化粧品販売店の店頭等で、美容部員等の専門家に実際に化粧をしてもらった顔を撮像部16で撮影して、その画像から化粧情報目標値を取得するようにしてもよい。これにより、専門家が行った化粧が施された、ユーザの顔をお手本とした化粧情報目標値を取得することが可能となる。   However, the present invention is not limited to this, and the imaging unit 16 captures a face on which an expert such as a beauty staff member actually makes a makeup at a cosmetic store shop or the like, and obtains a makeup information target value from the image. You may do so. As a result, it is possible to obtain a makeup information target value based on the user's face as a model, to which makeup performed by the expert has been applied.

また、このようにして、ユーザの顔をお手本とした化粧情報目標値を取得した場合に、上述した化粧報知処理において、化粧情報目標値を極めて薄く表示するようにしてもよい。例えば、化粧情報目標値を高い透過率(例えば、90〜95%の透過率)で表示したり、化粧情報目標値に対応する形状の縁取り、あるいはメイク手本画像等を表示するようにしたりしてもよい。このようにすれば、上述した化粧報知処理において、ユーザは具体的な目標(手本)を参照しながら、化粧を行うことができる。これにより、化粧情報目標値を、単に化粧の評価に用いるのみならず、ユーザによる化粧の利便性を向上させるためにも用いることができる。   Further, in this way, when the makeup information target value is acquired with the user's face as a model, the makeup information target value may be displayed very thinly in the above-described makeup notification process. For example, the cosmetic information target value is displayed with high transmittance (for example, 90 to 95% of transmissivity), the outline of the shape corresponding to the cosmetic information target value is displayed, or a makeup model image or the like is displayed. May be In this way, in the makeup notification process described above, the user can make makeup while referring to a specific target (example). Thus, the makeup information target value can be used not only for evaluating the makeup but also for improving the convenience of the makeup by the user.

また、本変形例と、上述した実施形態とを組み合わせるようにしてもよい。すなわち、ユーザの選択操作や、設定等に応じて、体調報知処理と化粧報知処理を選択的に行うようにしてもよい。   Further, this modification may be combined with the above-described embodiment. That is, the physical condition notification process and the makeup notification process may be selectively performed according to the user's selection operation, setting, and the like.

[体調報知処理の変形例]
図5のフローチャートを参照して上述した体調報知処理は一例であり、これに限らない。
例えば、ステップS16において、判定部112は、第1の体調情報と、第2の体調情報とを比較し、この比較結果に基づいて、体調情報が改善したか否かを判定していた。この処理を変形し、ステップS16において、判定部112は、基準体調情報と第1の体調情報との差分及び基準体調情報と第2の体調情報との差分を比較するようにしてもよい。そして、その差分の比較結果に基づいて、体調情報がどのように変化したかを判定してもよい。具体的には、第1の体調情報と基準体調情報との差分に比べて第2の体調情報と基準体調情報との差分が減少していたら体調が改善したと判定し、S16においてYesと判定するようにし、また、第1の体調情報と基準体調情報との差分に比べて第2の体調情報と基準体調情報との差分が増加または変化していなかったら体調が改善していないと判定し、S16においてNoと判定するようにしてもよい。
そして、ステップS17において、選択部113及び制御部114が協働することにより、ユーザに対して、メイクにより、体調情報が改善した旨を示す報知を行うようにしてもよい。更に、ステップS17おける報知後に、第2の体調情報と基準体調情報との差分と所定の閾値とを比較することにより、現時点の状態が目標に到達した評価対象領域(すなわち、体調が確実に改善したことを示す評価対象領域)となったか否かを判定するようにしてもよい。また、この判定において、現時点の状態が目標に達到したと判定された場合に、その旨の報知を行ってから、本体調報知処理を終了するようにしてもよい。
このように変形することにより、メイクにより、ユーザの体調情報が改善するまで、体調報知処理を継続することが可能となる。
[Modification of physical condition notification process]
The physical condition notification process described above with reference to the flowchart of FIG. 5 is an example, and the present invention is not limited to this.
For example, in step S16, the determination unit 112 compares the first physical condition information with the second physical condition information, and determines whether the physical condition information has improved based on the comparison result. The processing may be modified, and in step S16, the determination unit 112 may compare the difference between the reference physical condition information and the first physical condition information and the difference between the reference physical condition information and the second physical condition information. Then, based on the comparison result of the difference, it may be determined how the physical condition information has changed. Specifically, if the difference between the second physical condition information and the reference physical condition information is reduced compared to the difference between the first physical condition information and the reference physical condition information, it is determined that the physical condition has improved, and the determination in S16 is Yes. If the difference between the second physical condition information and the reference physical condition information does not increase or change as compared to the difference between the first physical condition information and the reference physical condition information, it is determined that the physical condition is not improved , And S16 may be determined as No.
Then, in step S17, the selection unit 113 and the control unit 114 may cooperate with each other to notify the user that makeup has improved the physical condition information. Furthermore, after the notification in step S17, the evaluation target area in which the current state has reached the target (that is, the physical condition is definitely improved) by comparing the difference between the second physical condition information and the reference physical condition information with a predetermined threshold. It may be determined whether or not it has become an evaluation target area indicating that it has been done. Further, in this determination, when it is determined that the current state has reached the target, the main tone notification process may be ended after notification to that effect.
By being deformed in this manner, it becomes possible to continue the physical condition notification processing until the physical condition information of the user is improved by makeup.

同様に、ステップS20においても、判定部112は、基準体調情報と、第2の体調情報とを比較するようにしてもよい。この場合、基準体調情報と第1の体調情報との差分及び基準体調情報と第2の体調情報との差分を比較するようにしてもよい。そして、その差分の比較結果に基づいて、体調情報がどのように変化したかを判定してもよい。具体的には、第1の体調情報と基準体調情報との差分に比べて第2の体調情報と基準体調情報との差分が減少していたら体調が改善したと判定し、S20においてYesと判定するようにし、また、第1の体調情報と基準体調情報との差分に比べて第2の体調情報と基準体調情報との差分が増加または変化していなかったら体調が改善していないと判定し、S20においてNoと判定するようにしてもよい。
そして、ステップS21において、選択部113及び制御部114が協働することにより、ユーザに対して、マッサージにより、体調情報が改善した旨を示す報知を行うようにしてもよい。更に、ステップS21おける報知後に、第2の体調情報と基準体調情報との差分と所定の閾値とを比較することにより、現時点の状態が目標に到達した評価対象領域(すなわち、体調が確実に改善したことを示す評価対象領域)となったか否かを判定するようにしてもよい。また、この判定において、現時点の状態が目標に達到したと判定された場合に、その旨の報知を行ってから、本体調報知処理を終了するようにしてもよい。
このように変形することにより、マッサージにより、ユーザの体調情報が改善するまで、体調報知処理を継続することが可能となる。
Similarly, also in step S20, the determination unit 112 may compare the reference physical condition information with the second physical condition information. In this case, the difference between the reference physical condition information and the first physical condition information and the difference between the reference physical condition information and the second physical condition information may be compared. Then, based on the comparison result of the difference, it may be determined how the physical condition information has changed. Specifically, if the difference between the second physical condition information and the reference physical condition information decreases compared to the difference between the first physical condition information and the reference physical condition information, it is determined that the physical condition has improved, and the determination in S20 is Yes. If the difference between the second physical condition information and the reference physical condition information does not increase or change as compared to the difference between the first physical condition information and the reference physical condition information, it is determined that the physical condition is not improved , And S20 may be determined as No.
Then, in step S21, the selection unit 113 and the control unit 114 may cooperate to notify the user of the fact that the physical condition information has been improved by massage. Furthermore, after the notification in step S21, the evaluation target area in which the current state has reached the target (that is, the physical condition is surely improved) by comparing the difference between the second physical condition information and the reference physical condition information and the predetermined threshold. It may be determined whether or not it has become an evaluation target area indicating that it has been done. Further, in this determination, when it is determined that the current state has reached the target, the main tone notification process may be ended after notification to that effect.
By being deformed in this manner, it becomes possible to continue the physical condition notification processing until the physical condition information of the user is improved by the massage.

また、他の変形例として、ステップS12及びステップS13を省略するようにしてもよい。つまり、基準体調情報と、第1の体調情報とを比較することなく、ステップS14以降の処理を行うようにしてもよい。
このように変形することにより、例えばユーザの体調が良好であってもユーザの体調情報を、より改善させるために、体調報知処理を行うことが可能となる。
In addition, as another modification, step S12 and step S13 may be omitted. That is, the processes after step S14 may be performed without comparing the reference physical condition information with the first physical condition information.
By being deformed in this manner, for example, even if the user's physical condition is good, in order to further improve the user's physical condition information, it becomes possible to perform physical condition notification processing.

また、他の変形例として、ユーザの操作等に応じて、メイクモードを行う旨を予め設定しておくことにより、ステップS18乃至ステップS22は、行なわないようにしてもよい。すなわち、ケアモードは、行なわないようにしてもよい。この場合に、更にステップS12乃至ステップS15を省略する一方で、ステップS16とステップS17を以下のように変更してもよい。
すなわち、ステップS16で体調情報が改善したか否かを判定し、ステップS17でその結果に基づく支援情報又は評価情報を報知して、その後、再度ステップS16に戻るように変形してもよい。
Further, as another modification, steps S18 to S22 may not be performed by setting in advance that the makeup mode is to be performed according to the user's operation or the like. That is, the care mode may not be performed. In this case, while omitting steps S12 to S15, steps S16 and S17 may be changed as follows.
That is, it may be determined in step S16 whether or not the physical condition information has been improved, and in step S17, the support information or the evaluation information may be notified based on the result, and then it may be modified to return to step S16 again.

また、他の変形例として、ユーザの操作等に応じて、ケアモードを行う旨を予め設定しておくことにより、ステップS15乃至ステップS17は、行なわないようにしてもよい。すなわち、メイクモードは、行なわないようにしてもよい。この場合に、更にステップS18乃至ステップS19を省略する一方で、ステップS20とステップS21を以下のように変更してもよい。
すなわち、ステップS20で体調情報が改善したか否かを判定し、ステップS21やステップS22でその結果に基づく支援情報又は評価情報を報知して、その後、再度ステップS20に
戻るように変形してもよい。
Further, as another modification, steps S15 to S17 may not be performed by setting in advance that the care mode is to be performed according to the user's operation or the like. That is, the make mode may not be performed. In this case, while omitting steps S18 to S19, steps S20 and S21 may be changed as follows.
That is, it is determined in step S20 whether or not the physical condition information has been improved, and in step S21 or step S22, the support information or evaluation information based on the result is notified, and then it is modified to return to step S20 again. Good.

また、上述した体調報知処理では、ステップS12、ステップS16、及びステップS20の判定において、ユーザの体調情報(例えば、ユーザの顔の赤みを示すRの値)を用いた判定を行っていた。つまり、ユーザの体調が改善したか否かについて判定を行っていた。
これに限らず、ステップS12、ステップS16、及びステップS20の判定において、ユーザの化粧情報(例えば、様々な色合いの化粧品を用いた化粧の状態を示すRGBの各値)を用いた判定を行うようにしてもよい。つまり、ユーザの化粧が適切に行なわれているか否かについて判定を行うようにしてもよい。
この場合には、上述したように、ユーザの操作等に応じて、メイクモードを行う旨を予め設定しておくことにより、ステップS18乃至ステップS22は、行なわないようにしてもよい。すなわち、ケアモードは、行なわないようにしてもよい。
Further, in the physical condition notification process described above, the determination using the physical condition information of the user (for example, the value of R indicating the redness of the user's face) is performed in the determinations of step S12, step S16 and step S20. That is, it has been determined whether the user's physical condition has improved.
Not limited to this, in the determination of step S12, step S16, and step S20, the determination using the makeup information of the user (for example, each value of RGB indicating the state of makeup using cosmetics of various color tones) is performed You may That is, it may be determined whether the makeup of the user is properly performed.
In this case, as described above, steps S18 to S22 may not be performed by setting in advance that the makeup mode is to be performed according to the user's operation or the like. That is, the care mode may not be performed.

以上[体調報知処理の変形例]として、様々に例示したように、上述した実施形態の要旨を逸脱しない範囲で、上述した体調報知処理を一部変形(省略や置き換えを含む)したり、体調報知処理や化粧報知処理の一部を適宜組み合わせたりしてもよい。   As variously illustrated as the above [modification of physical condition notification processing], the physical condition notification processing described above may be partially modified (including omission or replacement) or physical condition within the scope not departing from the gist of the embodiment described above. Some of the notification processing and the makeup notification processing may be appropriately combined.

[化粧報知処理の変形例]
図8のフローチャートを参照して上述した化粧報知処理は一例であり、これに限らない。
例えば、最初に行なわれるステップS35の次に、判定部112が、ステップS35にて算出された化粧情報実測値と、化粧情報目標値との差分(すなわち、第1の差分)と、所定の閾値とを比較する処理を追加するようにしてもよい。そして、第1の差分が、所定の閾値よりも小さく、各評価対象領域が既に目標に到達していると判定された場合は、ステップS36以降の処理を行うことなく、化粧報知処理を終了するようにしてもよい。あるいは、ステップS39の報知のみを行って、化粧報知処理を終了するようにしてもよい。なお、第1の差分が、所定の閾値よりも大きく、各評価対象領域が目標に到達していないと判定された場合は、ステップS36以降の処理を行うこととなるが、その後のフローとして再度、上述したような第1の差分と所定の閾値とを比較する処理は行なわないようにしてもよい。
[Modification of makeup notification processing]
The makeup notification process described above with reference to the flowchart of FIG. 8 is an example, and the present invention is not limited to this.
For example, after step S35 performed first, the determination unit 112 determines the difference between the makeup information actual value calculated in step S35 and the makeup information target value (that is, the first difference), and a predetermined threshold value. A process of comparing with and may be added. Then, when it is determined that the first difference is smaller than the predetermined threshold and each evaluation target area has already reached the target, the makeup notification process is ended without performing the process after step S36. You may do so. Alternatively, only the notification in step S39 may be performed to end the makeup notification process. If it is determined that the first difference is larger than the predetermined threshold and each evaluation target area has not reached the target, processing in step S36 and subsequent steps will be performed. The process of comparing the first difference and the predetermined threshold as described above may not be performed.

このように変形することにより、そもそも化粧が適切に行なわれている場合には不要となる、第2の差分の算出や、第1の差分と第2の差分の比較といった処理を省略することが可能となる。なお、このようなステップS36以降の処理を行うか否かを判断するために利用される目標である化粧情報目標値は、過去に目標達成とされた自分の顔の化粧情報実測値に基づいて決定された目標値であってもよい。   Due to this modification, processing such as calculation of the second difference and comparison of the first difference and the second difference may be omitted, which is unnecessary when makeup is properly performed in the first place. It becomes possible. In addition, the makeup information target value, which is a goal used to determine whether or not to perform the process after step S36, is based on the makeup information measurement value of one's face that has been achieved in the past. It may be a determined target value.

また、他の変形例として、ステップS38、ステップS39、及びステップS40を省略するようにしてもよい。この場合、ステップS38に代えて、判定部112が、化粧報知処理の開始から所定時間が経過したか否かを判定する処理を追加する。そして、所定時間が経過するまでの間は、ステップS34からステップS37までを繰り返す。また、所定時間が経過した場合には、選択部113及び制御部114が協働することにより、報知を行う。この報知では、目標に達成した評価対象領域が存在すれば、その旨を報知する。一方で、目標に達成していない評価対象領域が存在すれば、その旨を報知する。この場合に、目標に達成していない評価対象領域については、化粧情報目標値と、第2の化粧情報実測値との差分(すなわち、第2の差分)の値を、化粧の達成値として更に報知するようにしてもよい。   In addition, as another modification, step S38, step S39, and step S40 may be omitted. In this case, in place of step S38, the determination unit 112 adds a process of determining whether a predetermined time has elapsed from the start of the makeup notification process. Then, steps S34 to S37 are repeated until the predetermined time elapses. In addition, when the predetermined time has elapsed, the selection unit 113 and the control unit 114 cooperate to perform notification. In this notification, if there is an evaluation target area achieved in the target, that is notified. On the other hand, if there is an evaluation target area that has not achieved the goal, that is notified. In this case, for the evaluation target area not achieving the goal, the value of the difference between the makeup information target value and the second makeup information actual value (that is, the second difference) is further set as the makeup achievement value. You may make it alert | report.

このように変形することにより、化粧報知処理の時間を予め決定することができる。そして、その時間内に、適切な化粧ができたか否かを報知することができる。また、適切な化粧ができていない場合には、化粧の達成値を報知することができる。   By modifying in this way, the time for the makeup notification process can be determined in advance. Then, within that time, it can be informed whether appropriate makeup has been made. Moreover, when appropriate makeup is not made, the achievement value of makeup can be notified.

また、上述した化粧報知処理では、ステップS36及びステップS38の判定において、ユーザの化粧情報(例えば、様々な色合いの化粧品を用いた化粧の状態を示すRGBの各値)を用いた判定を行っていた。つまり、ユーザの化粧が適切に行なわれているか否かについて判定を行っていた。
これに限らず、ステップS36及びステップS38の判定において、ユーザの体調情報(例えば、ユーザの顔の赤みを示すRの値)を用いた判定を行うようにしてもよい。つまり、ユーザの体調が改善したか否かについて判定を行うようにしてもよい。
Further, in the above-described makeup notification process, in the determinations of step S36 and step S38, determination is performed using the makeup information of the user (for example, each value of RGB indicating the state of makeup using cosmetics of various color tones) The That is, it is determined whether the makeup of the user is properly performed.
Not limited to this, in the determinations of step S36 and step S38, determination may be performed using physical condition information of the user (for example, a value of R indicating redness of the user's face). That is, it may be determined whether the physical condition of the user has improved.

以上[化粧報知処理の変形例]として、様々に例示したように、上述した実施形態の要旨を逸脱しない範囲で、上述した化粧報知処理を一部変形(省略や置き換えを含む)したり、体調報知処理や化粧報知処理の一部を適宜組み合わせたりしてもよい。   As variously illustrated as [Modification of makeup notification processing] above, the above-described makeup notification processing may be partially modified (including omission or replacement) or physical condition without departing from the scope of the embodiment described above. Some of the notification processing and the makeup notification processing may be appropriately combined.

[他の変形例]
また、上述の実施形態では、本発明が適用される報知装置1は、携帯可能な自立式の鏡を例として説明したが、特にこれに限定されない。
例えば、本発明は、姿見等の大型の鏡に組み込まれた電子機器や、据え置き型の洗面化粧台に組み込まれた電子機器や、浴室に設置される鏡形状の電子機器に適用可能である。
[Other modification]
Moreover, in the above-mentioned embodiment, although the alerting device 1 to which this invention is applied was demonstrated as an example the mirror which can be carried portable, it is not specifically limited to this.
For example, the present invention is applicable to an electronic device incorporated in a large-sized mirror such as a gaze, an electronic device incorporated in a stationary vanity, or a mirror-shaped electronic device installed in a bathroom.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4や図7の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が報知装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4や図7の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be performed by hardware or software.
In other words, the functional configurations of FIG. 4 and FIG. 7 are merely examples and are not particularly limited. That is, it is sufficient if the notification device 1 is equipped with a function capable of executing the above-described series of processes as a whole, and what function blocks are used to realize this function is particularly shown in the examples of FIGS. It is not limited.
Further, one functional block may be configured by hardware alone, may be configured by software alone, or may be configured by a combination of them.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processors that can be used in the present embodiment include various processing devices such as a single processor, a multiprocessor, and a multi-core processor alone. In addition to the above, those including various processing devices and processing circuits such as an application specific integrated circuit (ASIC) and a field-programmable gate array (FPGA) are included.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When the series of processes are executed by software, a program that configures the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア100により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア231は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2、3の記憶部20に含まれるハードディスク等で構成される。   A recording medium including such a program is not only configured by the removable medium 100 of FIG. 2 distributed separately from the apparatus main body to provide the program to the user, but also the user in a state incorporated in advance in the apparatus main body The recording medium etc. provided to The removable medium 231 is formed of, for example, a magnetic disk (including a floppy disk), an optical disk, or a magneto-optical disk. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. Further, the recording medium provided to the user in a state of being incorporated in the apparatus main body is, for example, the ROM 12 of FIG. 2 in which the program is recorded, a hard disk included in the storage unit 20 of FIG. Ru.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, in the step of describing the program to be recorded on the recording medium, the processing performed chronologically along the order is, of course, parallel or individually not necessarily necessarily chronologically processing. It also includes the processing to be performed.
Also, in the present specification, the term "system" is intended to mean an overall device composed of a plurality of devices, a plurality of means, and the like.

以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, this embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and furthermore, various changes such as omissions and substitutions can be made without departing from the scope of the present invention. These embodiments and modifications thereof are included in the scope and the gist of the invention described in the present specification, etc., and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
顔情報を取得する顔情報取得手段と、
前記顔情報に基づく報知を行う報知手段と、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定手段と、
前記判定手段による判定結果に基づいて前記報知手段による報知を制御する制御手段と、
を備えることを特徴とする報知装置。
[付記2]
前記報知手段を複数種備えると共に、
前記報知手段の種類を選択する選択手段を更に備え、
前記制御手段は、前記選択手段により選択された前記報知手段による報知を制御する、
ことを特徴とする付記1に記載の報知装置。
[付記3]
報知前の前記顔情報と報知後の前記顔情報との差分を算出する算出手段を更に備え、
前記制御手段は、前記算出手段が算出した差分を前記報知手段に報知させる、
ことを特徴とする付記1に記載の報知装置。
[付記4]
前記制御手段は、前記顔情報を強調するように前記報知手段に報知させる、
ことを特徴とする付記1から3の何れか1に記載の報知装置。
[付記5]
前記制御手段は、前記顔情報に応じた所定の行動を促す情報を前記報知手段に報知させる、
ことを特徴とする付記1から3の何れか1に記載の報知装置。
[付記6]
前記顔情報取得手段は、前記顔情報として、前記顔情報の取得対象である被写体の画像を取得し、
前記判定手段は、前記被写体の画像に基づいて、報知前の前記顔情報と、報知後の前記顔情報との変化を判定する、
ことを特徴とする付記1から5の何れか1に記載の報知装置。
[付記7]
前記報知手段は発光により報知を行うものであり、
前記制御手段は、前記判定手段による判定結果に基づいて前記報知手段の発光による報知を制御する、
ことを特徴とする付記1から6の何れか1に記載の報知装置。
[付記8]
前記報知手段は文字により報知を行うものであり、
前記制御手段は、前記判定手段による判定結果に基づいて前記報知手段により報知される文字を制御する、
ことを特徴とする付記1から7の何れか1に記載の報知装置。
[付記9]
前記報知手段は文字により報知を行うものであり、
前記制御手段は、前記判定手段による判定結果に基づいて前記報知手段により報知される文字の表示位置を制御する、
ことを特徴とする付記1から8の何れか1に記載の報知装置。
[付記10]
前記顔情報の取得対象である被写体を表示する表示部を有し、
前記表示部は、鏡もしくは画像表示部であることを特徴とする付記1から9の何れか1に記載の報知装置。
[付記11]
前記顔情報取得手段は、前記顔情報として体調に関する情報又は化粧に関する情報を取得することを特徴とする付記1から10の何れか1に記載の報知装置。
[付記12]
前記報知手段は、前記顔情報に基づいて、支援情報又は評価情報を報知することを特徴とする付記1から11の何れか1に記載の報知装置。
[付記13]
顔情報を取得する顔情報取得ステップと、
前記顔情報に基づいた報知を行う報知ステップと、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定ステップと、
前記判定ステップにおける判定結果に基づいて前記報知ステップによる報知を制御する制御ステップと、
を含むことを特徴とする報知方法。
[付記14]
コンピュータに、
顔情報を取得する顔情報取得機能と、
前記顔情報に基づいて報知を行う報知機能と、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定機能と、
前記判定機能による判定結果に基づいて前記報知機能による報知を制御する制御機能と、
を実現させることを特徴とするプログラム。
The invention described in the claims at the beginning of the application of the present application is appended below.
[Supplementary Note 1]
Face information acquisition means for acquiring face information;
Notification means for performing notification based on the face information;
Determining means for determining changes in the face information before notification and the face information after notification;
A control unit that controls notification by the notification unit based on the determination result by the determination unit;
A notification device comprising:
[Supplementary Note 2]
In addition to providing a plurality of types of notification means,
It further comprises selection means for selecting the type of the notification means,
The control means controls notification by the notification means selected by the selection means.
The alerting | reporting apparatus of Additional remark 1 characterized by the above-mentioned.
[Supplementary Note 3]
It further comprises calculation means for calculating the difference between the face information before notification and the face information after notification,
The control means causes the notification means to notify the difference calculated by the calculation means.
The alerting | reporting apparatus of Additional remark 1 characterized by the above-mentioned.
[Supplementary Note 4]
The control means causes the notification means to notify so as to emphasize the face information.
The alerting | reporting apparatus in any one of the additional notes 1 to 3 characterized by the above-mentioned.
[Supplementary Note 5]
The control means causes the notification means to notify information prompting a predetermined action according to the face information.
The alerting | reporting apparatus in any one of the additional notes 1 to 3 characterized by the above-mentioned.
[Supplementary Note 6]
The face information acquisition unit acquires, as the face information, an image of a subject that is an acquisition target of the face information,
The determination unit determines changes in the face information before notification and the face information after notification based on an image of the subject.
The notification device according to any one of appendices 1 to 5, characterized in that.
[Supplementary Note 7]
The notification means performs notification by light emission,
The control means controls notification by light emission of the notification means based on the determination result by the determination means.
The notification device according to any one of appendices 1 to 6, characterized in that
[Supplementary Note 8]
The informing means is to inform by letters.
The control means controls characters notified by the notification means based on the determination result by the determination means.
The notification device according to any one of appendices 1 to 7, characterized in that
[Supplementary Note 9]
The informing means is to inform by letters.
The control means controls the display position of the character notified by the notification means based on the determination result by the determination means.
The notification device according to any one of appendices 1 to 8, characterized in that
[Supplementary Note 10]
It has a display unit for displaying a subject for which the face information is to be acquired,
The notification device according to any one of appendices 1 to 9, wherein the display unit is a mirror or an image display unit.
[Supplementary Note 11]
11. The notification device according to any one of appendices 1 to 10, wherein the face information acquisition unit acquires information on physical condition or information on makeup as the face information.
[Supplementary Note 12]
The notification device according to any one of appendices 1 to 11, wherein the notification unit notifies support information or evaluation information based on the face information.
[Supplementary Note 13]
A face information acquisition step of acquiring face information;
A notification step of performing notification based on the face information;
A determination step of determining changes in the face information before notification and the face information after notification;
A control step of controlling notification by the notification step based on the determination result in the determination step;
A notification method including:
[Supplementary Note 14]
On the computer
Face information acquisition function to acquire face information,
A notification function of giving notification based on the face information;
A determination function of determining changes in the face information before notification and the face information after notification;
A control function that controls notification by the notification function based on a determination result by the determination function;
A program that is characterized by realizing

1・・・報知装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・発光部,18・・・入力部,19・・・表示部,20・・・記憶部,21・・・ドライブ,100・・・リムーバブルメディア,111・・・体調情報取得部,112・・・判定部,113・・・選択部,114・・・制御部,115・・・化粧情報取得部,201・・・判定情報記憶部,202・・・報知情報記憶部   DESCRIPTION OF SYMBOLS 1 ... alerting | reporting apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... bus, 15 ... input-output interface, 16 ... imaging part, 17 ... Light emitting unit, 18: input unit, 19: display unit, 20: storage unit, 21: drive, 100: removable media, 111: physical condition information acquisition unit, 112: Judgment part, 113 ... selection part, 114 ... control part, 115 ... makeup information acquisition part, 201 ... judgment information storage part, 202 ... notification information storage part

Claims (14)

顔情報を取得する顔情報取得手段と、
前記顔情報に基づく報知を行う報知手段と、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定手段と、
前記判定手段による判定結果に基づいて前記報知手段による報知を制御する制御手段と、
を備えることを特徴とする報知装置。
Face information acquisition means for acquiring face information;
Notification means for performing notification based on the face information;
Determining means for determining changes in the face information before notification and the face information after notification;
A control unit that controls notification by the notification unit based on the determination result by the determination unit;
A notification device comprising:
前記報知手段を複数種備えると共に、
前記報知手段の種類を選択する選択手段を更に備え、
前記制御手段は、前記選択手段により選択された前記報知手段による報知を制御する、
ことを特徴とする請求項1に記載の報知装置。
In addition to providing a plurality of types of notification means,
It further comprises selection means for selecting the type of the notification means,
The control means controls notification by the notification means selected by the selection means.
The notification device according to claim 1, characterized in that:
報知前の前記顔情報と報知後の前記顔情報との差分を算出する算出手段を更に備え、
前記制御手段は、前記算出手段が算出した差分を前記報知手段に報知させる、
ことを特徴とする請求項1に記載の報知装置。
It further comprises calculation means for calculating the difference between the face information before notification and the face information after notification,
The control means causes the notification means to notify the difference calculated by the calculation means.
The notification device according to claim 1, characterized in that:
前記制御手段は、前記顔情報を強調するように前記報知手段に報知させる、
ことを特徴とする請求項1から3の何れか1項に記載の報知装置。
The control means causes the notification means to notify so as to emphasize the face information.
The notification device according to any one of claims 1 to 3, characterized in that:
前記制御手段は、前記顔情報に応じた所定の行動を促す情報を前記報知手段に報知させる、
ことを特徴とする請求項1から3の何れか1項に記載の報知装置。
The control means causes the notification means to notify information prompting a predetermined action according to the face information.
The notification device according to any one of claims 1 to 3, characterized in that:
前記顔情報取得手段は、前記顔情報として、前記顔情報の取得対象である被写体の画像を取得し、
前記判定手段は、前記被写体の画像に基づいて、報知前の前記顔情報と、報知後の前記顔情報との変化を判定する、
ことを特徴とする請求項1から5の何れか1項に記載の報知装置。
The face information acquisition unit acquires, as the face information, an image of a subject that is an acquisition target of the face information,
The determination unit determines changes in the face information before notification and the face information after notification based on an image of the subject.
The notification device according to any one of claims 1 to 5, characterized in that:
前記報知手段は発光により報知を行うものであり、
前記制御手段は、前記判定手段による判定結果に基づいて前記報知手段の発光による報知を制御する、
ことを特徴とする請求項1から6の何れか1項に記載の報知装置。
The notification means performs notification by light emission,
The control means controls notification by light emission of the notification means based on the determination result by the determination means.
The notification apparatus according to any one of claims 1 to 6, characterized in that:
前記報知手段は文字により報知を行うものであり、
前記制御手段は、前記判定手段による判定結果に基づいて前記報知手段により報知される文字を制御する、
ことを特徴とする請求項1から7の何れか1項に記載の報知装置。
The informing means is to inform by letters.
The control means controls characters notified by the notification means based on the determination result by the determination means.
The notification device according to any one of claims 1 to 7, characterized in that:
前記報知手段は文字により報知を行うものであり、
前記制御手段は、前記判定手段による判定結果に基づいて前記報知手段により報知される文字の表示位置を制御する、
ことを特徴とする請求項1から8の何れか1項に記載の報知装置。
The informing means is to inform by letters.
The control means controls the display position of the character notified by the notification means based on the determination result by the determination means.
A notification device according to any one of claims 1 to 8, characterized in that.
前記顔情報の取得対象である被写体を表示する表示部を有し、
前記表示部は、鏡もしくは画像表示部であることを特徴とする請求項1から9の何れか1項に記載の報知装置。
It has a display unit for displaying a subject for which the face information is to be acquired,
The notification device according to any one of claims 1 to 9, wherein the display unit is a mirror or an image display unit.
前記顔情報取得手段は、前記顔情報として体調に関する情報又は化粧に関する情報を取得することを特徴とする請求項1から10に記載の報知装置。   The notification device according to any one of claims 1 to 10, wherein the face information acquisition unit acquires information on physical condition or information on makeup as the face information. 前記報知手段は、前記顔情報に基づいて、支援情報又は評価情報を報知することを特徴とする請求項1から11の何れか1項に記載の報知装置。   The notification device according to any one of claims 1 to 11, wherein the notification means notifies support information or evaluation information based on the face information. 顔情報を取得する顔情報取得ステップと、
前記顔情報に基づいた報知を行う報知ステップと、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定ステップと、
前記判定ステップにおける判定結果に基づいて前記報知ステップによる報知を制御する制御ステップと、
を含むことを特徴とする報知方法。
A face information acquisition step of acquiring face information;
A notification step of performing notification based on the face information;
A determination step of determining changes in the face information before notification and the face information after notification;
A control step of controlling notification by the notification step based on the determination result in the determination step;
A notification method including:
コンピュータに、
顔情報を取得する顔情報取得機能と、
前記顔情報に基づいて報知を行う報知機能と、
報知前の前記顔情報と、報知後の前記顔情報との変化を判定する判定機能と、
前記判定機能による判定結果に基づいて前記報知機能による報知を制御する制御機能と、
を実現させることを特徴とするプログラム。
On the computer
Face information acquisition function to acquire face information,
A notification function of giving notification based on the face information;
A determination function of determining changes in the face information before notification and the face information after notification;
A control function that controls notification by the notification function based on a determination result by the determination function;
A program that is characterized by realizing
JP2018231743A 2018-01-11 2018-12-11 Notification device, notification method and program Active JP7225749B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/242,593 US11191341B2 (en) 2018-01-11 2019-01-08 Notification device, notification method, and storage medium having program stored therein
CN201910025846.3A CN110025116B (en) 2018-01-11 2019-01-10 Notification device, notification method, and recording medium
JP2023017214A JP7485114B2 (en) 2018-01-11 2023-02-08 Notification device, notification method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018002653 2018-01-11
JP2018002653 2018-01-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023017214A Division JP7485114B2 (en) 2018-01-11 2023-02-08 Notification device, notification method, and program

Publications (2)

Publication Number Publication Date
JP2019125358A true JP2019125358A (en) 2019-07-25
JP7225749B2 JP7225749B2 (en) 2023-02-21

Family

ID=67399390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231743A Active JP7225749B2 (en) 2018-01-11 2018-12-11 Notification device, notification method and program

Country Status (1)

Country Link
JP (1) JP7225749B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022121319A (en) * 2021-02-08 2022-08-19 ソフトバンク株式会社 Information processing device, program, and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216386A (en) * 2000-02-02 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Makeup support device
JP2004164130A (en) * 2002-11-11 2004-06-10 Ricoh Co Ltd Document management system using biological information, document management method using biological information, and program for running this method on computer
JP2004357801A (en) * 2003-06-02 2004-12-24 Fuji Photo Film Co Ltd Display device for make-up
JP2008289189A (en) * 2008-08-15 2008-11-27 Sony Corp Imaging apparatus and expression evaluating device
JP2008300986A (en) * 2007-05-29 2008-12-11 Canon Inc Image processing apparatus, image processing method and image processing program
JP2010086036A (en) * 2008-09-29 2010-04-15 Fujifilm Corp Diagnostic device and diagnostic method
JP2017219940A (en) * 2016-06-03 2017-12-14 シャープ株式会社 Notification device, electronic apparatus, notification method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216386A (en) * 2000-02-02 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Makeup support device
JP2004164130A (en) * 2002-11-11 2004-06-10 Ricoh Co Ltd Document management system using biological information, document management method using biological information, and program for running this method on computer
JP2004357801A (en) * 2003-06-02 2004-12-24 Fuji Photo Film Co Ltd Display device for make-up
JP2008300986A (en) * 2007-05-29 2008-12-11 Canon Inc Image processing apparatus, image processing method and image processing program
JP2008289189A (en) * 2008-08-15 2008-11-27 Sony Corp Imaging apparatus and expression evaluating device
JP2010086036A (en) * 2008-09-29 2010-04-15 Fujifilm Corp Diagnostic device and diagnostic method
JP2017219940A (en) * 2016-06-03 2017-12-14 シャープ株式会社 Notification device, electronic apparatus, notification method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022121319A (en) * 2021-02-08 2022-08-19 ソフトバンク株式会社 Information processing device, program, and information processing method
JP7187593B2 (en) 2021-02-08 2022-12-12 ソフトバンク株式会社 Information processing device, program, and information processing method

Also Published As

Publication number Publication date
JP7225749B2 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
US10117569B2 (en) Diagnosis supporting device and diagnosis supporting method
KR102008023B1 (en) Web site providing cosmetic and nutrition regimen from color images
JP5879562B2 (en) Mirror device with camera, fixture with mirror
KR20210135580A (en) Apparatus and method for measuring cosmetic skin properties
CN112741609B (en) Electronic device, control method of electronic device, and medium
US11800989B2 (en) Electronic device, control method for the electronic device, and storage medium
KR20210084102A (en) Electronic apparatus, scalp care system and method for controlling the electronic apparatus and the server
JP6566240B2 (en) Information processing apparatus, information processing method, and program
US20200037882A1 (en) Accessory device, imaging device and method for determining a subject&#39;s skin parameter
KR20180080140A (en) Personalized skin diagnosis and skincare
JP2012152389A (en) Furniture with mirror
US20220087547A1 (en) Electronic device, control method for electronic device, and recording medium
JP7225749B2 (en) Notification device, notification method and program
US20120189174A1 (en) Electronic device and warning information generating method thereof
JP7485114B2 (en) Notification device, notification method, and program
CN110297720B (en) Notification device, notification method, and medium storing notification program
JP7135466B2 (en) Display device, display method and display program
US11191341B2 (en) Notification device, notification method, and storage medium having program stored therein
CN110013102B (en) Image processing apparatus, image processing method, and recording medium
US20220148720A1 (en) A projection and measurement system
JP2019111317A (en) Image processing device, image processing method and program
JP6730051B2 (en) Skin condition evaluation method
JP2020057153A (en) Display control device, display control method and display control program
JP2019154923A (en) Facial esthetic treatment procedure method
JP7392806B2 (en) Electronic device, control method for electronic device, and control program for electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7225749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150