JP2020120908A - Mental state estimation system, mental state estimation method, and program - Google Patents

Mental state estimation system, mental state estimation method, and program Download PDF

Info

Publication number
JP2020120908A
JP2020120908A JP2019014237A JP2019014237A JP2020120908A JP 2020120908 A JP2020120908 A JP 2020120908A JP 2019014237 A JP2019014237 A JP 2019014237A JP 2019014237 A JP2019014237 A JP 2019014237A JP 2020120908 A JP2020120908 A JP 2020120908A
Authority
JP
Japan
Prior art keywords
mental state
unit
index
facial expression
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019014237A
Other languages
Japanese (ja)
Inventor
香織 安食
Kaori Ajiki
香織 安食
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019014237A priority Critical patent/JP2020120908A/en
Publication of JP2020120908A publication Critical patent/JP2020120908A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

To provide a mental state estimation system capable of accurately estimating a mental state.SOLUTION: A mental state estimation system 100 comprises: a first output unit 21 for outputting information for prompting an object person U to make a predetermined expression; an image acquisition unit 22 for acquiring an image obtained by capturing the object person U with the predetermined expression; an extraction unit 23 for extracting an expression index of the object person U from the image; a storage unit 24 for storing expression indices at a plurality of points of time before an object point of time, as first time series data; and an estimation unit 25 for estimating the object person U's mental state at the object point of time on the basis of an expression index at the object point of time extracted by the extraction unit 23 and the first time series data stored in the storage unit 24.SELECTED DRAWING: Figure 1

Description

本発明は、精神状態推定システム、精神状態推定方法、及び、プログラムに関する。 The present invention relates to a mental state estimation system, a mental state estimation method, and a program.

近年、うつ病などのメンタルヘルス不調に陥った精神疾患の患者数が増加している。精神疾患の治療においては、早期発見が重要であるが、精神疾患の予兆(サイン)や症状に気づくことは一般の人では難しいのが実情である。 In recent years, the number of patients with mental illnesses such as depression who have suffered from mental health disorders has been increasing. Early detection is important in the treatment of mental illness, but it is the actual situation that it is difficult for ordinary people to notice signs and symptoms of mental illness.

そこで、特許文献1には、対象者の顔を撮像した画像から認識した顔表情に基づいて、当該対象者の精神状態(精神的健康状態)を推定する健康管理補助装置が開示されている。 Therefore, Patent Document 1 discloses a health management assisting device that estimates the mental state (mental health state) of the subject based on the facial expression recognized from the image of the image of the face of the subject.

国際公開第2016/129193号International Publication No. 2016/129193

しかしながら、特許文献1では、撮像される対象者の表情によっては、精神状態を精度よく推定できない場合がある。 However, in Patent Document 1, the mental state may not be accurately estimated depending on the facial expression of the imaged subject.

そこで、本発明は、精神状態を精度よく推定することができる精神状態推定システム、精神状態推定方法、及び、プログラムを提供する。 Therefore, the present invention provides a mental state estimation system, a mental state estimation method, and a program capable of accurately estimating a mental state.

本発明の一態様に係る精神状態推定システムは、対象者に所定の表情をするように促すための情報を出力する第一出力部と、前記所定の表情の前記対象者を撮像した画像を取得する画像取得部と、前記画像から前記対象者の表情指標を抽出する抽出部と、対象時点以前の複数時点における前記表情指標を第一時系列データとして格納する記憶部と、前記抽出部で抽出された前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記第一時系列データに基づいて、前記対象者の前記対象時点における精神状態を推定する推定部と、を備える。 A mental state estimation system according to an aspect of the present invention acquires a first output unit that outputs information for urging a subject to have a predetermined facial expression, and an image obtained by capturing the subject with the predetermined facial expression. An image acquisition unit, an extraction unit that extracts the target person's facial expression index from the image, a storage unit that stores the facial expression index at a plurality of time points before the target time point as temporary series data, and the extraction unit extracts An estimation unit that estimates the mental state of the subject at the target time point based on the facial expression index at the target time point and the temporary series data stored in the storage unit.

本発明の一態様に係る精神状態推定方法は、対象者に所定の表情を促すための情報を出力するステップと、前記所定の表情の前記対象者を撮像した画像を取得するステップと、前記画像から前記対象者の表情指標を抽出するステップと、対象時点以前の複数時点における複数の前記表情指標を時系列データとして記憶部に格納するステップと、前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記時系列データに基づいて、前記対象者の精神状態を推定するステップとを含む。 A mental state estimation method according to an aspect of the present invention includes a step of outputting information for prompting a target person to have a predetermined facial expression, a step of acquiring an image of the target person having the predetermined facial expression, and the image. From the target person's facial expression index, storing a plurality of the facial expression indexes at a plurality of time points before the target time point in the storage unit as time series data, the facial expression index at the target time point, and the storage Estimating the mental state of the subject based on the time series data stored in the section.

本発明の一態様に係るプログラムは、上記の精神状態推定方法をコンピュータに実行させるためのプログラムである。 A program according to an aspect of the present invention is a program for causing a computer to execute the mental state estimation method described above.

本発明の一態様によれば、精神状態を精度よく推定することができる精神状態推定システム、精神状態推定方法、及び、プログラムを実現することができる。 According to one aspect of the present invention, it is possible to realize a mental state estimation system, a mental state estimation method, and a program capable of accurately estimating a mental state.

図1は、実施の形態に係る精神状態推定システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a mental state estimation system according to an embodiment. 図2は、実施の形態に係る精神状態推定システムの動作の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of the operation of the mental state estimation system according to the embodiment. 図3は、実施の形態に係る表情指標に基づく時系列データの一例を示す図である。FIG. 3 is a diagram showing an example of time-series data based on a facial expression index according to the embodiment. 図4は、実施の形態の変形例に係る精神状態推定システムの構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of a mental state estimation system according to a modified example of the embodiment. 図5は、実施の形態に係る精神状態推定システムの適用例の一例を示す図である。FIG. 5 is a diagram showing an example of an application example of the mental state estimation system according to the embodiment.

以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, materials, constituent elements, arrangement positions and connection forms of constituent elements, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present invention. Further, among the constituent elements in the following embodiments, constituent elements not described in independent claims are described as arbitrary constituent elements.

なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。 It should be noted that each drawing is a schematic diagram and is not necessarily strictly illustrated. Further, in each drawing, the same reference numerals are given to substantially the same configurations, and overlapping description may be omitted or simplified.

なお、以下の明細書において、画像は、動画像(映像)である例について説明するが、静止画像であってもよい。また、画像は、文字及び数字などが含まれていてもよい。動画像は、複数の静止画像によって構成される。 In the following specification, the image will be described as an example of a moving image (video), but it may be a still image. Further, the image may include characters and numbers. The moving image is composed of a plurality of still images.

(実施の形態)
以下、本実施の形態に係る精神状態推定システム等について、図1〜図3を参照しながら説明する。本実施の形態に係る精神状態推定システムは、対象者を撮影した画像に基づいて、当該対象者の精神的な健康(メンタルヘルス)を推定するための装置である。
(Embodiment)
Hereinafter, the mental state estimation system and the like according to the present embodiment will be described with reference to FIGS. 1 to 3. The mental state estimation system according to the present embodiment is a device for estimating the mental health of the subject based on the image captured of the subject.

[1.構成]
まずは、本実施の形態に係る精神状態推定システム100の構成について、図1を参照しながら説明する。図1は、本実施の形態に係る精神状態推定システム100の構成を示すブロック図である。
[1. Constitution]
First, the configuration of the mental state estimation system 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of a mental state estimation system 100 according to this embodiment.

図1に示すように、精神状態推定システム100は、撮像装置10と、精神状態推定装置20と、表示装置30とを備える。なお、精神状態推定システム100は、少なくとも精神状態推定装置20を備えていればよい。また、図1には、精神状態推定装置20が推定した結果が出力される端末装置40も図示している。 As shown in FIG. 1, the mental state estimation system 100 includes an imaging device 10, a mental state estimation device 20, and a display device 30. The mental state estimation system 100 may include at least the mental state estimation device 20. Further, FIG. 1 also shows a terminal device 40 to which the result estimated by the mental state estimation device 20 is output.

撮像装置10は、対象者Uの少なくとも顔を含む画像を撮影する。具体的には、撮像装置10は、後述する所定の情報をしているときの対象者Uの顔を含む画像を撮像する。なお、撮像装置10が撮像する画像は、モノクロ画像であってもよいし、カラー画像であってもよい。撮像装置10は、例えばイメージセンサを備えるデジタルビデオカメラ又はデジタルスチルカメラである。 The imaging device 10 captures an image including at least the face of the target person U. Specifically, the imaging device 10 captures an image including the face of the target person U when performing predetermined information described below. The image captured by the image capturing apparatus 10 may be a monochrome image or a color image. The imaging device 10 is, for example, a digital video camera or a digital still camera including an image sensor.

精神状態推定装置20は、撮像装置10から取得した画像に基づいて、対象者Uの精神状態を推定する。精神状態推定装置20は、第一出力部21と、画像取得部22と、抽出部23と、記憶部24と、推定部25と、閾値算出部26と、第二出力部27とを有する。 The mental state estimation device 20 estimates the mental state of the target person U based on the image acquired from the imaging device 10. The mental state estimation device 20 includes a first output unit 21, an image acquisition unit 22, an extraction unit 23, a storage unit 24, an estimation unit 25, a threshold value calculation unit 26, and a second output unit 27.

第一出力部21は、表示装置30と通信可能に接続され、対象者Uに所定の表情を促すための情報(以降において、指示情報とも記載する)を表示装置30に出力する。 The first output unit 21 is communicably connected to the display device 30 and outputs information (hereinafter, also referred to as instruction information) for prompting the target person U to have a predetermined facial expression, to the display device 30.

なお、以下では、所定の表情は、笑顔である例について説明するが、精神状態を推定可能な表情であれば、その他の表情であってもよく、例えば、怒り顔、変顔などであってもよい。また、本実施の形態では、指示情報は、笑顔を促す情報であり、図1の例では「笑顔を作って下さい」などのテキストを表示させるための情報である。 Note that, in the following, an example in which the predetermined facial expression is a smile will be described. Good. Further, in the present embodiment, the instruction information is information for prompting a smile, and in the example of FIG. 1, information for displaying a text such as “Please make a smile”.

画像取得部22は、撮像装置10と通信可能に接続され、撮像装置10が撮像した画像を取得する。本実施の形態では、画像取得部22は、撮像装置10が撮像した画像として対象者Uの顔を撮像した動画像を取得する。 The image acquisition unit 22 is communicably connected to the imaging device 10 and acquires an image captured by the imaging device 10. In the present embodiment, the image acquisition unit 22 acquires a moving image of the face of the target person U as the image captured by the imaging device 10.

抽出部23は、画像センシング処理によって画像取得部22が取得した画像から対象者Uの表情指標を抽出する。本実施の形態では、抽出部23は、表情指標として、笑顔度を抽出する。抽出部23は、例えば、笑顔度を対象者Uの精神状態を示す指標(例えば、ストレスの度合いを示すストレス度など)に変換してもよい。笑顔度及び精神状態を示す指標は、第一特徴量の一例である。なお、以下において、第一特徴量は、笑顔度である例について説明する。また、笑顔度は、笑顔の度合いを示す指標であり、0〜100%で示される。なお、笑顔度が高い(100%に近い)ほど、より笑顔である例について説明するが、これに限定されない。また、笑顔度の抽出については、特に限定される必要はなく、従来技術が用いられてもよい。したがって、笑顔度の抽出の詳細な説明については省略する。 The extraction unit 23 extracts the facial expression index of the target person U from the image acquired by the image acquisition unit 22 by the image sensing process. In the present embodiment, the extraction unit 23 extracts a smile degree as a facial expression index. The extraction unit 23 may convert, for example, the degree of smile into an index indicating the mental state of the subject U (for example, the degree of stress indicating the degree of stress). The index indicating the degree of smile and the mental state is an example of the first feature amount. In the following, an example in which the first feature amount is a smile degree will be described. The degree of smile is an index indicating the degree of smile, and is indicated by 0 to 100%. Note that an example will be described in which the higher the degree of smile (closer to 100%), the more smile, but the invention is not limited to this. Further, the extraction of the degree of smile is not particularly limited, and a conventional technique may be used. Therefore, a detailed description of extracting the smile degree will be omitted.

なお、表情指標は、笑顔度に限定されず、対象者Uの精神状態を推定可能な指標であればよい。表情指標は、例えば、笑顔形成速度、口及び目の少なくとも一方の変化量、口及び目が変化する順番、顔面の左右対称性、顔角度、及び、肌色などであってもよい。 The facial expression index is not limited to the smile degree, and may be any index that can estimate the mental state of the target person U. The facial expression index may be, for example, a smile formation speed, a change amount of at least one of the mouth and eyes, the order in which the mouth and eyes change, left-right symmetry of the face, face angle, and skin color.

笑顔形成速度は、対象者Uが笑顔を形成する速度であり、例えば、第一出力部21が指示情報を出力してから対象者Uが笑顔になるまでの時間である。対象者Uの精神状態が悪化している(例えば、対象者Uがストレスを感じている)と、笑顔を形成する速度は、精神状態が悪化していない(例えば、精神状態が通常時である)場合に比べ、遅くなる。つまり、対象者Uが笑顔になるまでの時間が長くなる。よって、笑顔形成速度から、対象者Uの精神状態を推定可能である。 The smile formation speed is the speed at which the target person U smiles, and is, for example, the time from when the first output unit 21 outputs the instruction information until the target person U smiles. If the mental state of the subject U is deteriorated (for example, the subject U is under stress), the speed at which a smile is formed is not deteriorated (for example, the mental state is normal). ) It will be slower than the case. That is, it takes a long time for the target person U to smile. Therefore, the mental state of the target person U can be estimated from the smile formation rate.

なお、ここでの笑顔になるまでの時間とは、例えば、第一出力部21が指示情報を出力してから、対象者Uの笑顔における口角又は目尻の変化(例えば、口角又は目尻の傾きの変化)が最大となるまでの時間である。抽出部23は、画像取得部22が撮像装置10から動画像を取得することで、笑顔形成速度を抽出可能である。なお、精神状態が悪化しているとは、精神的な健康状態が悪化していることを意味する。例えば、うつ病などの精神疾患の予兆(サイン)が表れていることを意味する。また、精神状態は、元気度又は活性度とも言い換えることができる。 Note that the time until a smile here is, for example, the change in the corners of the mouth or the corners of the eyes (for example, the inclination of the corners of the mouth or the corners of the corners of the eyes of the subject U after the first output unit 21 outputs the instruction information) Change) is the maximum time. The extraction unit 23 can extract the smile formation speed by the image acquisition unit 22 acquiring the moving image from the imaging device 10. The deterioration of mental state means deterioration of mental health condition. For example, it means that a sign of a mental illness such as depression appears. In addition, the mental state can be rephrased as the energy level or the activity level.

口及び目の少なくとも一方の変化量は、例えば、第一出力部21が指示情報を出力してから対象者Uが笑顔になるまでの目尻及び口角の変化量である。対象者Uの精神状態が悪化していると、変化量が小さくなる。よって、口及び目の少なくとも一方の変化量から、対象者Uの精神状態を推定可能である。なお、より精度よく精神状態を推定する観点から、口及び目の両方の変化量を用いるとよい。 The amount of change in at least one of the mouth and eyes is, for example, the amount of change in the corner of the eyes and the angle of the mouth from when the first output unit 21 outputs the instruction information until the subject U smiles. When the mental state of the subject U deteriorates, the amount of change decreases. Therefore, the mental state of the subject U can be estimated from the change amount of at least one of the mouth and the eye. From the viewpoint of estimating the mental state with higher accuracy, it is preferable to use the change amounts of both the mouth and the eyes.

口及び目が変化する順番は、例えば、第一出力部21が指示情報を出力してから対象者Uの顔が笑顔になるときに、口及び目のどちらから変化するかを示す。口及び目のうち目が先に動く場合、対象者Uは心から笑っている可能性が高い。つまり、対象者Uの精神状態は、悪化していない可能性が高い。一方、口及び目のうち口が先に動く場合、対象者Uの笑顔は作り笑顔である可能性が高い。つまり、対象者Uの精神状態は、悪化している可能性が高い。よって、口及び目が変化する順番から、対象者Uの精神状態を推定可能である。 The order in which the mouth and the eyes change indicates, for example, from the mouth and the eyes when the face of the target person U becomes a smile after the first output unit 21 outputs the instruction information. When the eyes of the mouth and eyes move first, the subject U is likely to smile from the bottom of his heart. That is, it is highly possible that the mental state of the subject U has not deteriorated. On the other hand, when the mouth of the mouth and eyes moves first, the smile of the target person U is likely to be a make-up smile. In other words, the mental state of the subject U is likely to have deteriorated. Therefore, the mental state of the subject U can be estimated from the order in which the mouth and eyes change.

顔面の左右対称性は、例えば、対象者Uが笑顔になったときの顔の左右の対称性である。顔面の左右が対称であると、対象者Uは心から笑っている可能性が高い。つまり、対象者Uの精神状態は、悪化していない可能性が高い。一方、顔面の左右が非対称であると、対象者Uの笑顔は作り笑顔である可能性が高い。つまり、対象者Uの精神状態は、悪化している可能性が高い。よって、顔面の左右対称性から、対象者Uの精神状態を推定可能である。なお、対称性は、対称であるか否かで出力されてもよいし、対称度合い(例えば、数値)で出力されてもよい。また、左右が非対称とは、例えば、笑顔がひきつっている場合などが想定される。 The left-right symmetry of the face is, for example, the left-right symmetry of the face when the subject U smiles. If the right and left sides of the face are symmetrical, the subject U is highly likely to smile from the heart. That is, it is highly possible that the mental state of the subject U has not deteriorated. On the other hand, if the right and left sides of the face are asymmetric, the smile of the subject U is likely to be a make-up smile. In other words, the mental state of the subject U is likely to have deteriorated. Therefore, the mental state of the subject U can be estimated from the bilateral symmetry of the face. The symmetry may be output depending on whether or not it is symmetric, or may be output as a symmetry degree (for example, a numerical value). Further, it is assumed that the left and right are asymmetrical, for example, when a smiling face is tight.

顔角度、及び、肌色についても同様に、精神状態が悪化しているときと通常時とで抽出される結果が異なるので、顔角度、及び、肌色から対象者Uの精神状態を推定可能である。なお、顔角度とは、撮像装置10(例えば、撮像装置10のレンズ部)に対する対象者Uの顔の角度を意味する。 Similarly, regarding the face angle and the skin color, the extracted results are different between when the mental state is deteriorated and when the mental state is normal. Therefore, the mental state of the subject U can be estimated from the face angle and the skin color. .. The face angle means the angle of the face of the target person U with respect to the imaging device 10 (for example, the lens unit of the imaging device 10).

なお、精神状態の推定精度を向上させる観点から、抽出部23は、上記のうち少なくとも2以上の表情指標を抽出するとよい。言い換えると、精神状態を推定するために用いられる表情指標は、笑顔度、笑顔形成速度、口及び目の位置、顔面の左右対称性、顔角度、及び、肌色の少なくとも2つを含むとよい。 In addition, from the viewpoint of improving the estimation accuracy of the mental state, the extraction unit 23 may extract at least two or more facial expression indexes from the above. In other words, the facial expression index used for estimating the mental state may include at least two of a smile degree, a smile formation rate, mouth and eye positions, facial symmetry, face angle, and skin color.

記憶部24は、精神状態推定装置20の各構成部が実行する制御プログラム、及び、抽出部23が認識した笑顔度が格納される記憶装置である。記憶部24は、抽出部23が抽出した笑顔度の時系列データを格納する。記憶部24は、例えば、対象時点以前の互いに異なる撮像時点で撮像された複数の画像に基づく複数の笑顔度を時系列データとして格納する。記憶部24は、例えば、対象時点以前の複数時点における笑顔度を時系列データ(第一時系列データの一例)として格納する。記憶部24は、半導体メモリなどによって実現される。なお、対象時点とは、その時点における対象者Uの精神状態を判定する時点を意味する。対象時点は、例えば、現時点(現在)であってもよいし、過去の時点であってもよい。 The storage unit 24 is a storage device that stores a control program executed by each component of the mental state estimation device 20 and a smile degree recognized by the extraction unit 23. The storage unit 24 stores the time-series data of the degree of smile extracted by the extraction unit 23. The storage unit 24 stores, for example, a plurality of smile degrees based on a plurality of images captured at different image capturing times before the target time as time series data. The storage unit 24 stores, for example, smile degrees at a plurality of time points before the target time point as time series data (an example of first temporary series data). The storage unit 24 is realized by a semiconductor memory or the like. The target time point means a time point when the mental state of the target person U at that time point is determined. The target time point may be, for example, the current time point (present) or a past time point.

推定部25は、現在取得した笑顔度、及び、記憶部24に格納されている対象者Uの笑顔度の時系列データに基づいて、対象者Uの現在の精神状態を推定する。つまり、推定部25は、現在取得した対象者Uの笑顔度から、過去の複数時点で取得した対象者Uの笑顔度を用いて、現在の対象者Uの精神状態を推定する。推定部25は、例えば現在の笑顔度が閾値算出部26により算出された閾値以上及び閾値未満の一方の場合に精神状態が良好であり、対象時点の笑顔度が当該閾値以上及び閾値未満の他方である場合にストレス状態であると推定する。なお、現在は、対象時点の一例である。 The estimation unit 25 estimates the current mental state of the subject U based on the currently acquired smile degree and the time-series data of the smile degree of the subject U stored in the storage unit 24. That is, the estimation unit 25 estimates the current mental state of the target person U from the currently acquired smile degree of the target person U by using the smile levels of the target person U acquired at a plurality of past times. The estimation unit 25 has a good mental state, for example, when the current smile degree is one of the threshold values calculated by the threshold calculation unit 26 and less than or equal to the threshold value, and the smile degree at the target time point is the threshold value or more and less than the threshold value. If it is, it is presumed to be in a stressed state. Note that the present time is an example of a target time point.

なお、推定部25は、抽出部23が少なくとも2以上の表情指標を抽出する場合、当該少なくとも2つの表情指標に基づいて、対象者Uの精神状態を推定する。 When the extraction unit 23 extracts at least two facial expression indices, the estimation unit 25 estimates the mental state of the subject U based on the at least two facial expression indices.

なお、推定部25は、抽出部23が笑顔度を対象者Uの精神状態を示す指標に変換する場合、当該指標及び当該指標に対する閾値に基づいて、対象者Uの精神状態を推定してもよい。推定部25が対象者Uの精神状態を示す指標に基づいて対象者Uの精神状態を推定することは、笑顔度に基づいて対象者Uの精神状態を推定することに含まれる。 In addition, when the extraction unit 23 converts the degree of smile into an index indicating the mental state of the target person U, the estimation unit 25 estimates the mental state of the target person U based on the index and a threshold for the index. Good. The estimation unit 25 estimating the mental state of the target U based on the index indicating the mental state of the target U is included in estimating the mental state of the target U based on the degree of smile.

閾値算出部26は、記憶部24に格納されている対象者Uの笑顔度の時系列データから閾値を算出する。つまり、閾値算出部26は、対象者Uに応じた閾値を算出する。笑顔度は個人差があり、通常時(例えば、精神状態が安定しているとき)の笑顔度は、個々に異なる。そのため、閾値を一律に決定すると、対象者Uの精神状態を正確に推定できない場合ある。そこで、本実施の形態に係る精神状態推定装置20は、上記の様に対象者Uの笑顔度の時系列データから当該対象者Uに応じた閾値を算出する。これにより、推定部25は、当該対象者Uの笑顔の個性を基準にして対象時点における精神状態を推定できるので、より精度よく対象者Uの精神状態を推定することができる。なお、ここでの閾値は、対象者Uの精神状態を推定するための値であり、例えば、精神状態が悪化しているか否か、又は、精神状態の悪化度合い若しくは好転度合いを推定するための値である。 The threshold calculation unit 26 calculates the threshold from the time-series data of the degree of smile of the target person U stored in the storage unit 24. That is, the threshold calculation unit 26 calculates the threshold according to the target person U. The degree of smile varies from person to person, and the degree of smile at normal times (for example, when the mental state is stable) differs from person to person. Therefore, if the threshold value is uniformly determined, the mental state of the subject U may not be accurately estimated. Therefore, the mental state estimation device 20 according to the present embodiment calculates the threshold value according to the target person U from the time-series data of the degree of smile of the target person U as described above. With this, the estimation unit 25 can estimate the mental state at the target time point based on the smile personality of the target person U, and thus can more accurately estimate the mental state of the target person U. Note that the threshold value here is a value for estimating the mental state of the target person U, and for example, for estimating whether or not the mental state has deteriorated, or for estimating the degree of deterioration or improvement of the mental state. It is a value.

なお、閾値算出部26が閾値を算出する方法は特に限定されないが、例えば、笑顔度の時系列データから算出される笑顔度の統計値(例えば、平均値又は中央値など)に基づいて算出されてもよい。閾値算出部26は、当該統計値に所定の数値を演算することで閾値を算出してもよい。演算とは、加算、減算、乗算、及び、除算の少なくとも1つを含む。閾値は、精神状態推定システム100の用途などに応じて、適宜算出されればよい。また、当該閾値を算出するための時系列データに含まれる笑顔度の数は、多いとよい。例えば、時系列データは、数週間分の対象者Uの笑顔度を含むとよい。 The method of calculating the threshold value by the threshold value calculation unit 26 is not particularly limited, but is calculated based on, for example, a statistical value of the smile degree calculated from time series data of the smile degree (for example, an average value or a median value). May be. The threshold value calculation unit 26 may calculate the threshold value by calculating a predetermined numerical value for the statistical value. The operation includes at least one of addition, subtraction, multiplication, and division. The threshold may be calculated as appropriate according to the usage of the mental state estimation system 100 and the like. In addition, the number of smile degrees included in the time-series data for calculating the threshold is preferably large. For example, the time-series data may include the degree of smile of the target person U for several weeks.

第二出力部27は、推定部25が推定した対象者Uの精神状態の推定結果を端末装置40に出力する。 The second output unit 27 outputs the estimation result of the mental state of the target person U estimated by the estimation unit 25 to the terminal device 40.

上記のように、精神状態推定装置20は、対象者Uに所定の表情(例えば、笑顔)への表情変化を起こさせ、当該所定の表情の対象者Uを撮像した画像に基づいて、当該対象者Uの精神状態を推定することに特徴を有する。なお、所定の表情の対象者Uとは、笑顔を例に説明すると、笑顔になった対象者U、笑顔になる又は笑顔からもとの表情に戻る途中の対象者U(例えば、表情が変化している対象者U)を含む。また、上記の精神状態推定装置20は、CPU又はプロセッサ、メモリ、補助記憶装置、入力装置、通信装置などを具備するコンピュータにより構成することができる。 As described above, the mental state estimation device 20 causes the target person U to make a facial expression change to a predetermined facial expression (for example, a smile), and based on the image of the target person U having the predetermined facial expression, the target person U is changed. It is characterized by estimating the mental state of the person U. In addition, the target person U having a predetermined facial expression will be described by taking a smiling face as an example. The target person U who becomes a smiling face, and the target person U who becomes a smiling face or is in the middle of returning from the smiling face (for example, the facial expression is changed) Including the subject U). Further, the mental state estimation device 20 can be configured by a computer including a CPU or a processor, a memory, an auxiliary storage device, an input device, a communication device, and the like.

表示装置30は、精神状態推定装置20から指示情報を取得し、取得した指示情報を画像として出力する装置である。当該画像は、写真、イラスト又は文字等を含む。表示装置30は、液晶ディスプレイ等である。表示装置30が出力した画像は、対象者Uによって視認される。なお、表示装置30は、指示装置の一例である。精神状態推定システム100は、表示装置30とともに、又は、表示装置30に代えて、音を出力する装置を指示装置として備えてもよい。また、精神状態推定システム100は、プロジェクタなどの対象物(例えば、スクリーン)に指示情報を表示する装置を指示装置として備えていてもよい。 The display device 30 is a device that acquires instruction information from the mental state estimation device 20 and outputs the acquired instruction information as an image. The image includes a photograph, an illustration, characters, or the like. The display device 30 is a liquid crystal display or the like. The image output by the display device 30 is visually recognized by the subject U. The display device 30 is an example of an instruction device. The mental state estimation system 100 may include a device that outputs a sound as an instruction device together with the display device 30 or in place of the display device 30. Moreover, the mental state estimation system 100 may include a device such as a projector that displays instruction information on an object (for example, a screen) as an instruction device.

端末装置40は、対象者Uなどに当該対象者Uの精神状態の推定結果を提示する装置である。端末装置40は、液晶ディスプレイ等を有しており、推定結果を画像により提示してもよい。また、端末装置40は、マイクロフォンを有しており、推定結果を音声により提示してもよい。端末装置40は、精神状態推定装置20と通信可能に接続されており、かつ推定結果を提示可能な装置であれば特に限定されない。端末装置40は、例えば、対象者Uが所有する携帯端末であり、スマートフォン又はタブレットであってもよい。また、端末装置40は、据え置き型の装置(例えば、据え置き型のコンピュータ)などであってもよい。また、端末装置40は、推定結果を管理するサーバ装置であってもよい。 The terminal device 40 is a device that presents the estimation result of the mental state of the target person U to the target person U. The terminal device 40 has a liquid crystal display or the like, and may present the estimation result as an image. Further, the terminal device 40 has a microphone and may present the estimation result by voice. The terminal device 40 is not particularly limited as long as it is a device that is communicatively connected to the mental state estimation device 20 and that can present an estimation result. The terminal device 40 is, for example, a mobile terminal owned by the target person U, and may be a smartphone or a tablet. Further, the terminal device 40 may be a stationary device (for example, a stationary computer) or the like. Further, the terminal device 40 may be a server device that manages the estimation result.

[2.動作]
次に、上記の精神状態推定システム100で実行される処理について、図2を参照しながら説明する。図2は、本実施の形態に係る精神状態推定システム100の動作の一例を示すフローチャートである。図2では、精神状態推定装置20における動作の一例を示す。なお、図2では、記憶部24に対象者Uの笑顔度の時系列データが既に格納されており、現在取得した画像を用いて対象者Uの精神状態を推定する処理について説明する。
[2. motion]
Next, the processing executed by the mental state estimation system 100 will be described with reference to FIG. FIG. 2 is a flowchart showing an example of the operation of mental state estimation system 100 according to the present embodiment. FIG. 2 shows an example of the operation of the mental state estimation device 20. In addition, in FIG. 2, the time series data of the degree of smile of the target person U is already stored in the storage unit 24, and a process of estimating the mental state of the target person U using the currently acquired image will be described.

図2に示すように、まず、第一出力部21は、対象者Uに笑顔を促すための情報(指示情報)を表示装置30に出力する(S10)。なお、第一出力部21が指示情報を出力するタイミングは、特に限定されない。第一出力部21は、例えば、精神状態推定システム100による精神状態の推定を行う準備ができたことを示す準備完了情報を取得すると、記憶部24から指示情報を読み出し、読み出した指示情報を表示装置30に出力してもよい。準備完了情報は、対象者Uが行う操作により取得されてもよいし、センサなどのセンシング結果により取得されてもよい。 As shown in FIG. 2, first, the first output unit 21 outputs information (instruction information) for prompting the target person U to smile (S10). The timing at which the first output unit 21 outputs the instruction information is not particularly limited. For example, when the first output unit 21 acquires the preparation completion information indicating that the mental state estimation system 100 is ready to estimate the mental state, the first output unit 21 reads the instruction information from the storage unit 24 and displays the read instruction information. It may be output to the device 30. The preparation completion information may be acquired by an operation performed by the target person U or may be acquired by a sensing result of a sensor or the like.

例えば、準備完了情報は、図示しない操作部がユーザから受け付けた操作(例えば、撮像装置10の前に着いたことを示す操作)に基づく情報であってもよいし、人感センサなどが撮像装置10の前に対象者Uがいることを検出したことを示す情報であってもよい。また、第一出力部21は、当該第一出力部21が指示情報を出力する前から撮像装置10が撮像を行っている場合、撮像装置10が撮像する画像に対象者Uが検出されたときに指示情報を出力してもよい。また、第一出力部21は、対象者Uが表示装置30の表示を見える位置に長期間いることがわかっている場合(例えば、対象者Uがオフィスの机におり、当該机に表示装置30が配置されている場合)には、所定時間間隔又は所定時刻に当該指示情報を表示装置30に出力してもよい。 For example, the preparation completion information may be information based on an operation (for example, an operation indicating that the user arrives in front of the image capturing apparatus 10) received from a user by an operation unit (not shown), or a motion sensor or the like may be used as the image capturing apparatus. It may be information indicating that the presence of the target person U before 10 is detected. In addition, the first output unit 21 detects the target person U in the image captured by the imaging device 10 when the imaging device 10 is performing imaging before the first output unit 21 outputs the instruction information. The instruction information may be output to. In addition, the first output unit 21 knows that the target person U is at a position where the display of the display device 30 can be seen for a long period of time (for example, the target person U is at an office desk, and the display device 30 is on the desk). (In the case where is arranged), the instruction information may be output to the display device 30 at a predetermined time interval or a predetermined time.

なお、撮像装置10が撮像を開始するタイミングは特に限定されない。撮像装置10は、ステップS10で指示情報が出力される前から撮像を行っていてもよい。例えば、撮像装置10は、図示しない人感センサなどにより対象者Uが撮像装置10に対して所定距離以内に近づいたときに撮像を開始してもよい。また、撮像装置10は、第一出力部21が撮像装置10に指示情報を出力したことを示す情報を出力する場合、当該情報を取得したときに撮像を開始してもよい。撮像装置10は、動画像を撮像する場合、対象者Uが表示装置30の表示を見て対象者Uの表情が変化する前の表情(通常時に表情であり、例えば、真顔)を含んだ画像を撮像できればよい。また、撮像装置10は、動画像を撮像する場合、第一期間撮像を行う。第一期間は、対象者Uが通常時に表情から笑顔になるまでの期間を含む。例えば、第一期間は、対象者Uが通常時に表情から笑顔になって、さらに通常時に表情に戻るまでの期間を含んでもよい。 The timing at which the imaging device 10 starts imaging is not particularly limited. The imaging device 10 may perform imaging before the instruction information is output in step S10. For example, the imaging device 10 may start imaging when the target person U approaches the imaging device 10 within a predetermined distance by a human sensor or the like (not shown). When the first output unit 21 outputs information indicating that the instruction information has been output to the image pickup apparatus 10, the image pickup apparatus 10 may start image pickup when the information is acquired. When capturing a moving image, the image capturing apparatus 10 includes an image including a facial expression before the target person U sees the display of the display device 30 and the facial expression of the target person U changes (a facial expression during normal times, for example, a straight face). Should be able to be imaged. In addition, the imaging device 10 performs first period imaging when capturing a moving image. The first period includes a period during which the target person U usually smiles from his facial expression. For example, the first period may include a period during which the subject U smiles from the facial expression in normal times and returns to the facial expressions in normal times.

なお、撮像装置10は、静止画像を撮像する場合、例えば、第一出力部21が指示情報を出力してから第二期間経過後に撮像を行ってもよい。第二期間は、対象者Uが表示装置30の表示を見てから笑顔になるまでの時間であるとよく、例えば、1秒などである。 In addition, when capturing a still image, the image capturing apparatus 10 may capture the image, for example, after a second period has elapsed after the first output unit 21 outputs the instruction information. The second period may be the time from when the subject U sees the display on the display device 30 until he/she smiles, and is, for example, 1 second.

そして、画像取得部22は、撮像装置10から対象者Uが笑顔であるときを含んで撮像した画像を取得する(S20)。撮像装置10は、取得した画像を抽出部23に出力する。なお、画像取得部22が画像を取得するタイミングは特に限定されず、例えば、画像取得部22は、撮像装置10が撮像するたびに画像を取得してもよいし、所定時間間隔ごとに画像を取得してもよい。 Then, the image acquisition unit 22 acquires an image captured including the time when the target person U is smiling from the imaging device 10 (S20). The imaging device 10 outputs the acquired image to the extraction unit 23. The timing at which the image acquisition unit 22 acquires an image is not particularly limited. For example, the image acquisition unit 22 may acquire an image each time the imaging device 10 captures an image, or may acquire an image at predetermined time intervals. You may get it.

そして、抽出部23は、画像取得部22から取得した画像を用いて、対象者Uの笑顔度を抽出し(S30)、抽出した笑顔度を記憶部24に格納する(S40)。また、抽出部23は、抽出した笑顔度を推定部25に出力する。抽出部23は、例えば、画像から対象者Uの顔を検出し、検出した顔から笑顔度を抽出し、抽出した笑顔度をタイムススタンプ情報とともに記憶部24に格納する。なお、抽出部23が抽出した笑顔度を対象者Uの精神状態を示す指標に変換する場合、当該指標を笑顔度に代えて又は笑顔度とともに記憶部24に格納してもよい。 Then, the extraction unit 23 extracts the degree of smile of the target person U using the image acquired from the image acquisition unit 22 (S30), and stores the extracted degree of smile in the storage unit 24 (S40). The extraction unit 23 also outputs the extracted smile degree to the estimation unit 25. The extraction unit 23 detects, for example, the face of the target person U from the image, extracts the smile degree from the detected face, and stores the extracted smile degree in the storage unit 24 together with the time stamp information. When the smile degree extracted by the extraction unit 23 is converted into an index indicating the mental state of the target person U, the index may be stored in the storage unit 24 instead of the smile degree or together with the smile degree.

なお、精神状態推定装置20は、閾値算出部26が閾値を算出するための対象者Uの笑顔度の時系列データを取得する場合、ステップS10〜S40までの処理を繰り返し実行する。 In addition, when the threshold value calculation unit 26 acquires the time-series data of the degree of smile of the target person U for the threshold value calculation unit 26 to calculate the threshold value, the mental state estimation device 20 repeatedly executes the processing from steps S10 to S40.

そして、閾値算出部26は、記憶部24に格納されている対象者Uの笑顔度の時系列データから笑顔度の閾値を算出する(S50)。推定部25は、抽出部23から取得した笑顔度が、閾値算出部26から取得した閾値以上であるか否かを判定する(S50)。推定部25は、笑顔度が閾値以上である場合(S60でYes)、対象者Uの精神状態が悪化していると推定する(S70)。つまり、推定部25は、対象者Uの精神状態が不安定であり、対象者Uがストレス状態であると推定する。また、推定部25は、笑顔度が閾値より低い場合(S60でNo)、対象者Uの精神状態が悪化していないと推定する(S80)。つまり、推定部25は、対象者Uの精神状態が安定しており、対象者Uがストレスの少ない状態であり、精神的な健康が保たれていると推定する。推定部25は、推定結果を第二出力部27に出力する。 Then, the threshold value calculation unit 26 calculates the threshold value of the smile degree from the time series data of the smile degree of the target person U stored in the storage unit 24 (S50). The estimation unit 25 determines whether the smile degree acquired from the extraction unit 23 is equal to or greater than the threshold value acquired from the threshold value calculation unit 26 (S50). When the smile degree is equal to or higher than the threshold value (Yes in S60), the estimation unit 25 estimates that the mental state of the subject U is deteriorated (S70). That is, the estimation unit 25 estimates that the mental state of the subject U is unstable and the subject U is in a stressed state. Further, when the smile degree is lower than the threshold value (No in S60), the estimation unit 25 estimates that the mental state of the target person U has not deteriorated (S80). That is, the estimation unit 25 estimates that the mental state of the subject U is stable, the subject U is in a state of less stress, and the mental health is maintained. The estimation unit 25 outputs the estimation result to the second output unit 27.

そして、第二出力部27は、推定部25から取得した推定結果を端末装置40に出力する(S90)。例えば、端末装置40が対象者Uの所有するスマートフォンである場合、対象者Uは、当該スマートフォンを操作するだけで、推定結果を知ることができる。なお、ステップS90において、第二出力部27は、少なくとも推定部25により精神状態が悪化していると推定された推定結果を出力すればよい。 Then, the second output unit 27 outputs the estimation result acquired from the estimation unit 25 to the terminal device 40 (S90). For example, when the terminal device 40 is a smartphone owned by the target person U, the target person U can know the estimation result only by operating the smartphone. In step S90, the second output unit 27 may output at least the estimation result estimated by the estimation unit 25 that the mental state has deteriorated.

なお、ステップS90の処理は、推定部25が対象者Uの精神状態を推定するたびに実行されてもよいし、所定時間間隔ごとに実行されてもよい。例えば、第二出力部27は、複数回の推定結果をまとめて端末装置40に出力してもよい。 The process of step S90 may be executed each time the estimation unit 25 estimates the mental state of the target person U, or may be executed at predetermined time intervals. For example, the second output unit 27 may collectively output a plurality of estimation results to the terminal device 40.

また、ステップS90において、第二出力部27は、推定結果のみを出力するのではなく、図3に示すような精神状態の時間的な変化を示すグラフを出力してもよい。図3は、本実施の形態に係る表情指標に基づく時系列データの一例を示す図である。図3は、1月からステップS60でYesと判定された時点までの対象者Uのストレス度合いの時系列データを示す。ストレス度合いは、笑顔度に所定の演算を行うことで算出可能であり、例えば、抽出部23により算出される。また、ストレス度合いに対する閾値は、予め設定されているとする。当該閾値は、例えば、閾値算出部26により算出される。なお、ストレス度合いが高いほど笑顔度が低いことを示す。 Further, in step S90, the second output unit 27 may output not only the estimation result but also a graph showing a temporal change of the mental state as shown in FIG. FIG. 3 is a diagram showing an example of time-series data based on a facial expression index according to the present embodiment. FIG. 3 shows time-series data of the degree of stress of the subject U from January to the time point when Yes is determined in step S60. The stress level can be calculated by performing a predetermined calculation on the smile level, and is calculated by the extraction unit 23, for example. Further, it is assumed that the threshold for the stress level is set in advance. The threshold is calculated by the threshold calculator 26, for example. The higher the stress level, the lower the smile level.

図3に示すようなグラフが端末装置40に出力されることで、対象者Uは、当該グラフから精神状態の良し悪しの傾向などを直感的に理解することができる。また、対象者Uは、いつ頃から精神状態が悪化しているかを知ることができるので、精神状態が悪化した原因を特定するに用いることもできる。また、図3に示す破線は、ストレス度合いが閾値を超えた時点において、何も対策を行わなかったときのストレス度合いの変化の予測を示す。このように、予測を示すことで、対象者Uに対策を行うことを喚起することができる。なお、第二出力部27は、ストレス度合いの時間的な変化を示すグラフに代えて、笑顔度の時間的な変化を示すグラフを出力してもよい。 By outputting the graph as shown in FIG. 3 to the terminal device 40, the target person U can intuitively understand the tendency of good and bad mental states from the graph. In addition, the subject U can know when the mental state has deteriorated, and thus can be used to identify the cause of deterioration of the mental state. The broken line shown in FIG. 3 indicates the prediction of the change in the stress level when no measures are taken when the stress level exceeds the threshold value. In this way, by showing the prediction, it is possible to urge the target person U to take measures. The second output unit 27 may output a graph showing a temporal change in the degree of smile, instead of the graph showing a temporal change in the degree of stress.

また、第二出力部27は、推定結果に加え、精神状態が悪化している場合に、その対策案及びアドバイスを出力してもよい。例えば、第二出力部27は、推定結果に加え、精神状態が悪化している場合に、「休養をとって下さい」、「病院に行って下さい」などの情報を出力してもよい。対策案及びアドバイスは、例えば、記憶部24に格納されていてもよい。 In addition to the estimation result, the second output unit 27 may output the countermeasure plan and the advice when the mental state is deteriorated. For example, the second output unit 27 may output information such as “take a rest” and “go to the hospital” when the mental state is deteriorated, in addition to the estimation result. The countermeasure plan and the advice may be stored in the storage unit 24, for example.

なお、上記では、閾値が予め設定されている例について説明したが、これに限定されない。例えば、現在取得した笑顔度は、次回笑顔度を取得したときの閾値を算出するために用いられてもよい。閾値算出部26は、対象者Uの精神状態を推定するための笑顔度を取得するたびに閾値を更新してもよい。 In the above, the example in which the threshold value is preset has been described, but the present invention is not limited to this. For example, the currently acquired smile degree may be used to calculate a threshold value when the smile degree is acquired next time. The threshold calculation unit 26 may update the threshold each time the degree of smile for estimating the mental state of the target person U is acquired.

[3.効果など]
以上のように、本実施の形態に係る精神状態推定システム100は、対象者Uに笑顔(所定の表情の一例)をするように促すための情報を出力する第一出力部21と、笑顔の対象者Uを撮像した画像を取得する画像取得部22と、当該画像から対象者Uの笑顔度(表情指標の一例)を抽出する抽出部23と、現在(対象時点の一例)以前の複数時点における笑顔度を時系列データ(第一時系列データの一例)として格納する記憶部24と、抽出部23で抽出された現在の笑顔度、及び、記憶部24に格納されている時系列データに基づいて、対象者Uの現在の精神状態を推定する推定部25と、を備える。
[3. Effects, etc.]
As described above, the mental state estimation system 100 according to the present embodiment includes the first output unit 21 that outputs information for urging the target person U to smile (an example of a predetermined facial expression), and a smile. An image acquisition unit 22 that acquires an image of the target person U, an extraction unit 23 that extracts the degree of smile of the target person U (an example of a facial expression index) from the image, and a plurality of time points before the present (an example of a target time point) The storage unit 24 that stores the degree of smile in the time series data (an example of the first temporary series data), the current smile degree extracted by the extraction unit 23, and the time series data stored in the storage unit 24. And an estimation unit 25 that estimates the current mental state of the target person U.

例えば、精神疾患の1つである「うつ病」の典型的な症状は、気分が沈むなどであり、それは表情として表れる。特に、ポジティブな感情を示す笑顔などに表れる。そのため、対象者Uの精神状態を精度よく推定するには、当該推定に適した表情の画像が用いられるとよい。例えば、上記の特許文献1では、一定の時間間隔又は決まった時刻に撮像した画像を用いることが開示されているが、それでは撮像タイミングによって対象者Uの表情が異なる場合がある。つまり、特許文献1では、対象者Uの精神状態を判定する判定精度に課題がある。 For example, a typical symptom of "depression", which is one of the mental disorders, is depression and the like, which appears as a facial expression. In particular, it appears in smiles that show positive emotions. Therefore, in order to accurately estimate the mental state of the target person U, it is preferable to use an image of a facial expression suitable for the estimation. For example, Patent Document 1 described above discloses the use of images taken at fixed time intervals or at fixed times, but in that case, the facial expression of the target person U may differ depending on the imaging timing. That is, in Patent Document 1, there is a problem in the determination accuracy for determining the mental state of the target person U.

一方、本実施の形態に係る精神状態推定システム100は、対象者Uに笑顔を促すための情報を出力する第一出力部21を備える。これにより、対象者Uが笑顔をつくるので、画像取得部22が取得する画像には、対象者Uが笑顔である画像が含まれる。つまり、精神状態推定システム100は、精神状態の推定に適した表情の画像を取得することができる。また、推定部25は、対象者Uの過去の笑顔度と現在の笑顔度とに基づいて、対象者Uの現在の精神状態を判定する。例えば、推定部25が笑顔度の所定の基準値などに基づいて対象者Uの精神状態を推定する場合に比べて、笑顔度の個人差による推定精度の低下を抑制することができる。よって、これらにより、精神状態推定システム100は、精神状態を精度よく推定することができる。 On the other hand, the mental state estimation system 100 according to the present embodiment includes the first output unit 21 that outputs information for prompting the target person U to smile. As a result, the target person U makes a smile, so the image acquired by the image acquisition unit 22 includes an image in which the target person U is smiling. That is, the mental state estimation system 100 can acquire an image of a facial expression suitable for estimating the mental state. The estimation unit 25 also determines the current mental state of the target person U based on the past smile level and the current smile level of the target person U. For example, as compared with the case where the estimation unit 25 estimates the mental state of the target person U based on a predetermined reference value of the degree of smile, it is possible to suppress a decrease in estimation accuracy due to individual differences in the degree of smile. Therefore, from these, the mental state estimation system 100 can accurately estimate the mental state.

また、記憶部24に格納されている時系列データから閾値を算出する閾値算出部26を、さらに備える。そして、推定部25は、現在の笑顔度が閾値以上及び閾値未満の一方の場合に精神状態が良好であり、現在の笑顔度が閾値以上及び閾値未満の他方である場合にストレス状態であると推定する。 Further, it further includes a threshold value calculation unit 26 that calculates a threshold value from the time-series data stored in the storage unit 24. Then, the estimation unit 25 determines that the mental state is good when the current smile degree is at least one of the threshold value and less than the threshold value, and the stress state is when the current smile degree is at least one of the threshold value and less than the threshold value. presume.

これにより、笑顔度など通常時における値が個々に異なる指標を用いた場合であっても、対象者Uに応じた閾値により精神状態を推定することができる。つまり、個人差による推定精度の低下を抑制することができる。よって、精神状態をさらに精度よく推定することができる。 Thereby, even when the index such that the value in the normal state is different such as the smile degree is used, the mental state can be estimated by the threshold value according to the target person U. That is, it is possible to suppress a decrease in estimation accuracy due to individual differences. Therefore, the mental state can be estimated more accurately.

また、表情指標は、笑顔度、笑顔形成速度、口及び目の位置、顔面の左右対称性、顔角度、及び、肌色の少なくとも2つを含む。そして、推定部25は、少なくとも2つの表情指標に基づいて精神状態を推定する。 In addition, the facial expression index includes at least two of a smile degree, a smile formation speed, mouth and eye positions, facial symmetry, face angle, and skin color. Then, the estimation unit 25 estimates the mental state based on at least two facial expression indexes.

これにより、表情指標が1つの場合に比べ、さらに精度よく精神状態を推定することができる。 As a result, the mental state can be estimated more accurately than in the case where there is only one facial expression index.

また、推定部25の推定結果を出力する第二出力部27を、さらに備える。 Further, the second output unit 27 that outputs the estimation result of the estimation unit 25 is further included.

これにより、推定結果を通知することができる。例えば、第二出力部27が対象者Uの所有する端末装置40に推定結果を出力することで、当該対象者Uは、推定結果を知ることができるとともに対策などの対応を行うことができる。 Thereby, the estimation result can be notified. For example, the second output unit 27 outputs the estimation result to the terminal device 40 owned by the target person U, so that the target person U can know the estimation result and can take countermeasures.

また、以上のように、本実施の形態に係る精神状態推定方法は、対象者Uに笑顔(所定の表情の一例)を促すための情報を出力するステップ(S10)と、笑顔の対象者Uを撮像した画像を取得するステップ(S20)と、画像から対象者Uの笑顔度(表情指標の一例)を抽出するステップ(S30)と、現在(対象時点の一例)以前の複数時点における複数の笑顔度を時系列データとして記憶部24に格納するステップ(S40)と、ステップS30で抽出された現在の笑顔度、及び、記憶部24に格納されている時系列データに基づいて、対象者Uの精神状態を推定するステップ(S60〜S80)とを含む。また、上記の精神状態推定方法をコンピュータに実行させるためのプログラムであってもよい。 Further, as described above, the mental state estimation method according to the present embodiment includes a step (S10) of outputting information for prompting the target person U to smile (an example of a predetermined facial expression), and the target person U to smile. A step (S20) of obtaining an image of the captured image, a step (S30) of extracting the degree of smile of the target person U (an example of a facial expression index) from the image, and Based on the step of storing the smile degree as time series data in the storage unit 24 (S40), the current smile degree extracted in step S30, and the time series data stored in the storage unit 24, the target person U Estimating the mental state of (S60 to S80). Further, it may be a program for causing a computer to execute the above mental state estimation method.

これにより、精神状態推定システム100と同様の効果を奏する。 As a result, the same effect as the mental state estimation system 100 is obtained.

(実施の形態の変形例)
以下、本変形例に係る精神状態推定システム等について、図4を参照しながら説明する。図4は、本変形例に係る精神状態推定システム100aの構成を示すブロック図である。なお、本変形例では、実施の形態との相違点を中心に説明する。
(Modification of Embodiment)
Hereinafter, the mental state estimation system and the like according to the present modification will be described with reference to FIG. FIG. 4 is a block diagram showing the configuration of a mental state estimation system 100a according to this modification. In this modification, differences from the embodiment will be mainly described.

図4に示すように、精神状態推定システム100aは、撮像装置10と、精神状態推定装置20aと、表示装置30とを備える。本変形例に係る精神状態推定装置20aは、実施の形態の精神状態推定装置20に、さらに行動指標を取得する行動指標取得部28を有する。 As shown in FIG. 4, the mental state estimation system 100a includes an imaging device 10, a mental state estimation device 20a, and a display device 30. The mental state estimation device 20a according to the present modification further includes a behavior index acquisition unit 28 that acquires a behavior index in the mental state estimation device 20 of the embodiment.

行動指標取得部28は、画像取得部22が取得した画像に基づいて、対象者Uの行動指標を取得する。行動指標は、例えば、対象者Uの姿勢、歩行速度、歩幅、生理データ、人接触回数、身だしなみなどの少なくとも1つを含む。 The action index acquisition unit 28 acquires the action index of the target person U based on the image acquired by the image acquisition unit 22. The action index includes, for example, at least one of the posture of the subject U, walking speed, stride, physiological data, number of human contacts, personal appearance, and the like.

姿勢は、対象者Uが笑顔をつくっているときの体の姿である。精神状態が悪化していると、人は猫背になる傾向がある。よって、姿勢から、対象者Uの精神状態を推定可能である。なお、姿勢は、例えば、背中の丸みなどを示す角度で表されてもよい。 The posture is the figure of the body when the target person U is smiling. When a person's mental condition deteriorates, a person tends to be stooped. Therefore, the mental state of the target person U can be estimated from the posture. The posture may be represented by an angle indicating the roundness of the back, for example.

歩行速度は、対象者Uが撮像装置10に向かうときの速度であり、撮像装置10が動画像を撮像している場合に取得可能である。精神状態が悪化していると、歩行速度は遅くなる傾向がある。よって、歩行速度から、対象者Uの精神状態を推定可能である。 The walking speed is a speed at which the target person U is heading toward the imaging device 10, and can be acquired when the imaging device 10 is capturing a moving image. Walking speed tends to decrease when the mental state deteriorates. Therefore, the mental state of the target person U can be estimated from the walking speed.

歩幅は、対象者Uが撮像装置10に向かうときの歩幅であり、撮像装置10が動画像を撮像している場合に取得可能である。精神状態が悪化していると、歩幅は狭くなる傾向がある。よって、歩幅から、対象者Uの精神状態を推定可能である。 The stride is a stride when the subject U heads toward the imaging device 10, and can be acquired when the imaging device 10 is capturing a moving image. When the mental condition deteriorates, the stride tends to be narrow. Therefore, the mental state of the target person U can be estimated from the stride length.

生理データは、対象者Uの心拍等のデータであり、撮像装置10が動画像を撮像している場合に取得可能である。精神状態が悪化していると、心拍数の変動が大きくなる(つまり、心拍リズムが乱れる)傾向がある。よって、生理データから、対象者Uの精神状態を推定可能である。 The physiological data is data such as the heartbeat of the subject U and can be acquired when the imaging device 10 is capturing a moving image. When the mental state deteriorates, the fluctuation of the heart rate tends to increase (that is, the heart rhythm is disturbed). Therefore, the mental state of the subject U can be estimated from the physiological data.

人接触回数は、対象者Uが他の人とコミュニケーションを行ったと推定される回数であり、例えば撮像装置10が対象者Uの周囲を含む画像を撮像している場合に取得可能である。精神状態が悪化していると、他の人とのコミュニケーションの回数が少なくなる傾向がある。よって、人接触回数から、対象者Uの精神状態を推定可能である。 The number of human contacts is the number of times that the target person U is estimated to have communicated with another person, and can be acquired, for example, when the imaging device 10 is capturing an image including the surroundings of the target person U. Deterioration of mental status tends to reduce the frequency of communication with other people. Therefore, the mental state of the target person U can be estimated from the number of human contacts.

見出しなみは、対象者Uの髭、髪型、メイクなどである。精神状態が悪化していると、身だしなみが整わない傾向がある。よって、身だしなみから、対象者Uの精神状態を推定可能である。 The headlines are the beard, hairstyle, makeup, etc. of the subject U. Deterioration of mental status tends to result in poor grooming. Therefore, it is possible to estimate the mental state of the subject U from the appearance.

なお、行動指標取得部28が上記の行動指標を取得する取得方法(具体的には、画像解析方法)は、特に限定される必要はなく、従来技術が用いられてもよい。したがって、行動指標を取得する取得方法の詳細な説明については省略する。 The acquisition method (specifically, the image analysis method) by which the behavior index acquisition unit 28 acquires the above-mentioned behavior index does not need to be particularly limited, and a conventional technique may be used. Therefore, detailed description of the acquisition method for acquiring the behavior index will be omitted.

なお、行動指標取得部28は、画像取得部22が取得した画像に基づいて、対象者Uの行動指標を取得することに限定されない。例えば、対象者Uの生理データは、対象者Uの生理データを計測するバイタルセンサから取得されてもよい。例えば、行動指標取得部28は、対象者Uが装着しているウェアラブルデバイスの計測結果に基づいて生理データを取得してもよい。また、例えば、対象者Uの人接触回数は、対象者Uが会社のオフィスにいる場合、当該オフィス(例えば、オフィスの天井)に設置された赤外線センサ(人感センサの一例)から取得されてもよい。具体的には、行動指標取得部28は、赤外線センサ等のセンシング結果から得られる人の位置に基づいて、対象者Uが人と接触した接触回数を取得してもよい。 The action index acquisition unit 28 is not limited to acquiring the action index of the target person U based on the image acquired by the image acquisition unit 22. For example, the physiological data of the subject U may be acquired from a vital sensor that measures the physiological data of the subject U. For example, the behavior index acquisition unit 28 may acquire the physiological data based on the measurement result of the wearable device worn by the subject U. In addition, for example, when the target person U is in the office of the company, the number of human contacts of the target person U is obtained from an infrared sensor (an example of a motion sensor) installed in the office (for example, the ceiling of the office). Good. Specifically, the action index acquisition unit 28 may acquire the number of times the target person U has contacted the person based on the position of the person obtained from the sensing result of the infrared sensor or the like.

また、行動指標取得部28は、例えば、オフィスに設けられた、当該オフィスにいる人の位置を測位する位置測位システムの情報に基づいて、対象者Uと接触した人の人数を取得してもよい。位置測位システムは、例えば、オフィスの天井に設けられた取得装置と、オフィスにいる人のそれぞれが所持し当該人を認証するための携帯デバイスとを有する。取得装置は、携帯デバイスと無線通信する通信部(例えば、無線モジュール)を有する。通信部は、ビーコン信号を携帯デバイスに送信し、当該ビーコン信号に対応して携帯デバイスから送信された信号を受信する。具体的には、通信部は、ビーコン信号として、携帯デバイスを所持する人の識別情報または携帯デバイスの識別情報を返信するように指示する信号を携帯デバイスに送信し、携帯デバイスから送信された信号として、携帯デバイスを所持する人の識別情報または携帯デバイスの識別情報を含む信号を受信する。これにより、取得装置は、ビーコン信号の送信エリアにおいて、対象者Uと接触した人の人数を検出することができる。取得装置は、例えば、対象者Uに対して所定距離範囲内にいる人を、対象者Uと接触した人であると判定してもよい。 In addition, the behavior index acquisition unit 28 may acquire the number of people who have come into contact with the target person U, for example, based on the information of the position positioning system that is provided in the office and measures the position of the person in the office. Good. The position positioning system includes, for example, an acquisition device provided on the ceiling of an office and a mobile device that each person in the office possesses and authenticates the person. The acquisition device has a communication unit (for example, a wireless module) that wirelessly communicates with the mobile device. The communication unit transmits a beacon signal to the mobile device and receives a signal transmitted from the mobile device in response to the beacon signal. Specifically, the communication unit transmits, as a beacon signal, a signal instructing to return the identification information of the person who owns the mobile device or the identification information of the mobile device to the mobile device, and the signal transmitted from the mobile device. As, a signal containing the identification information of the person who owns the mobile device or the identification information of the mobile device is received. Accordingly, the acquisition device can detect the number of people who have contacted the target person U in the beacon signal transmission area. The acquisition device may determine that, for example, a person within a predetermined distance range with respect to the target person U is a person who has contacted the target person U.

また、行動指標に対象者Uの目の周囲の情報が含まれてもよい。例えば、行動指標に対象者Uの目のクマの情報が含まれてもよい。精神状態が悪化していると、不眠症になりやすく、そのため目の周囲にクマができる傾向がある。よって、目のクマから、対象者Uの精神状態を推定可能である。 Further, the action index may include information about the eyes of the target person U. For example, the behavior index may include information about the bear of the eye of the target person U. When a person's mental condition deteriorates, he/she easily becomes insomnia, which tends to cause a bear around the eyes. Therefore, the mental state of the subject U can be estimated from the bear of the eyes.

行動指標取得部28は、取得した行動指標を記憶部24及び推定部25に出力する。記憶部24には、行動指標の時系列データ(第二時系列データの一例)が格納される。記憶部24は、現在(対象時点の一例)以前の互いに異なる時点で取得した複数の行動指標を時系列データ(第二時系列データの一例)として格納する。 The behavior index acquisition unit 28 outputs the acquired behavior index to the storage unit 24 and the estimation unit 25. The storage unit 24 stores time-series data of an action index (an example of second time-series data). The storage unit 24 stores, as time-series data (an example of second time-series data), a plurality of action indexes acquired at different times before the present (an example of a target time).

閾値算出部26は、記憶部24に格納されている笑顔度及び行動指標の時系列データから対象者Uの精神状態を推定するための閾値を算出する。つまり、行動指標における精神状態の推定においても、当該行動指標の時系列データが用いられる。 The threshold calculation unit 26 calculates a threshold for estimating the mental state of the subject U from the time-series data of the smile degree and the action index stored in the storage unit 24. That is, the time-series data of the action index is also used in estimating the mental state of the action index.

推定部25は、表情指標(例えば、笑顔度)に加えて、さらに行動指標取得部28が取得した行動指標に基づいて対象者Uの精神状態を推定する。本変形例では、推定部25は、表情指標及び第一時系列データに加えて、さらに行動指標取得部28で取得された現在の行動指標、及び、記憶部24に格納されている行動指標の時系列データに基づいて、対象者Uの精神状態を推定する。 The estimation unit 25 estimates the mental state of the target person U based on the action index acquired by the action index acquisition unit 28 in addition to the facial expression index (for example, smile degree). In the present modification, the estimation unit 25 further includes, in addition to the facial expression index and the temporary series data, the current activity index acquired by the activity index acquisition unit 28 and the activity index stored in the storage unit 24. The mental state of the subject U is estimated based on the time series data.

推定部25は、例えば、抽出部23から取得した笑顔度、行動指標取得部28から取得した行動指標、及び、閾値算出部26から取得した閾値に基づいて、対象者Uの精神状態を推定する。推定部25は、例えば、笑顔度と行動指標とに基づいて対象者Uの精神状態を示す指標(例えば、ストレス度)を算出し、算出した指標と閾値とを比較することにより、対象者Uの精神状態を推定してもよい。推定部25は、例えば、笑顔度と行動指標とに所定の重みを付加することで、精神状態を示す指標を算出してもよい。また、推定部25は、笑顔度と閾値とを比較した結果と、行動指標と閾値とを比較した結果とに基づいて、対象者Uの精神状態を推定してもよい。 The estimation unit 25 estimates the mental state of the target person U, for example, based on the smile degree acquired from the extraction unit 23, the action index acquired from the action index acquisition unit 28, and the threshold value acquired from the threshold value calculation unit 26. .. The estimation unit 25 calculates an index (for example, a stress level) indicating the mental state of the target person U based on the degree of smile and the behavior index, and compares the calculated index with a threshold value to determine the target person U. May estimate the mental state of. The estimation unit 25 may calculate the index indicating the mental state by adding a predetermined weight to the smile degree and the action index, for example. In addition, the estimation unit 25 may estimate the mental state of the target person U based on the result of comparison between the smile degree and the threshold value and the result of comparison between the action index and the threshold value.

以上のように、本変形例に係る精神状態推定システム100aは、対象者Uの行動指標を取得する行動指標取得部28を、さらに備える。そして、推定部25は、さらに行動指標取得部28が取得した行動指標に基づいて対象者Uの精神状態を推定する。 As described above, the mental state estimation system 100a according to the present modification further includes the action index acquisition unit 28 that acquires the action index of the target person U. Then, the estimation unit 25 further estimates the mental state of the target person U based on the action index acquired by the action index acquisition unit 28.

これにより、推定部25は、表情指標と行動指標とに基づいて対象者Uの精神状態を推定することができるので、表情指標及び行動指標のうち表情指標のみに基づいて対象者Uの精神状態を推定する場合に比べて、精神状態を精度よく推定することができる。例えば、精神疾患の1つである「うつ病」の典型的な症状は、気分が沈むなどであり、それは表情に加えて行動にも表れる。そのため、対象者Uの精神状態をさらに精度よく推定するには、上記のように対象者Uの行動に関する情報が用いられるとよい。 Accordingly, the estimation unit 25 can estimate the mental state of the target person U based on the facial expression index and the behavioral index, and thus the mental state of the target person U based on only the facial expression index among the facial expression index and the behavioral index. The mental state can be estimated more accurately than the case of estimating. For example, a typical symptom of "depression", which is one of the mental illnesses, is depression and the like, which appears in behavior in addition to facial expressions. Therefore, in order to more accurately estimate the mental state of the target person U, the information regarding the behavior of the target person U as described above may be used.

また、記憶部24は、さらに、現在(対象時点の一例)以前の互いに異なる時点で取得した複数の行動指標を時系列データ(第二時系列データの一例)として格納する。そして、推定部25は、さらに、行動指標取得部28で取得された現在の行動指標、及び、記憶部24に格納されている行動指標の時系列データに基づいて、対象者Uの精神状態を推定する。 In addition, the storage unit 24 further stores a plurality of behavior indexes acquired at different points in time before the present (an example of a target point of time) as time-series data (an example of second time-series data). Then, the estimating unit 25 further determines the mental state of the subject U based on the current action index acquired by the action index acquiring unit 28 and the time-series data of the action index stored in the storage unit 24. presume.

これにより、推定部25は、さらに、対象者Uの過去の行動指標と現在の行動指標とに基づいて、対象者Uの現在の精神状態を推定することができる。例えば、推定部25が行動指標の所定の基準値などに基づいて対象者Uの精神状態を推定する場合に比べて、行動指標の個人差による推定精度の低下を抑制することができる。よって、精神状態推定システム100aは、精神状態をさらに精度よく推定することができる。 Accordingly, the estimation unit 25 can further estimate the current mental state of the subject U based on the past action index and the current action index of the subject U. For example, as compared with the case where the estimation unit 25 estimates the mental state of the target person U based on a predetermined reference value of the action index, it is possible to suppress a decrease in estimation accuracy due to individual differences in the action index. Therefore, the mental state estimation system 100a can estimate the mental state more accurately.

また、行動指標は、対象者Uの姿勢、歩行速度、歩幅、及び、生理データの少なくとも1つを含む。 In addition, the behavior index includes at least one of the posture of the subject U, the walking speed, the stride, and the physiological data.

これにより、画像取得部22が取得した画像から取得可能な行動指標を用いて、精神状態の判定精度をさらに向上させることができる。つまり、追加の構成を設けることなく、精神状態の判定精度をさらに向上させることができる。 This makes it possible to further improve the determination accuracy of the mental state by using the action index that can be acquired from the image acquired by the image acquisition unit 22. That is, it is possible to further improve the determination accuracy of the mental state without providing an additional configuration.

(精神状態推定システムの適用例)
次に、上記の実施の形態及び変形例で説明した精神状態推定システム100,100aの適用例について、図5を参照しながら説明する。なお、図5では、実施の形態に係る精神状態推定システム100の適用例の一例を示すが、実施の形態の変形例に係る精神状態推定システム100aにおいても、同様に適用可能である。図5は、実施の形態に係る精神状態推定システム100の適用例の一例を示す図である。
(Example of application of mental state estimation system)
Next, an application example of the mental state estimation systems 100 and 100a described in the above embodiment and modification will be described with reference to FIG. Note that, although FIG. 5 shows an example of an application example of the mental state estimation system 100 according to the embodiment, the same can be applied to the mental state estimation system 100a according to the modified example of the embodiment. FIG. 5: is a figure which shows an example of the application example of the mental state estimation system 100 which concerns on embodiment.

図5に示すように、実施の形態に係る精神状態推定システム100は、会社等の会議室Rに設置されてもよい。精神状態推定システム100は、例えば、会議室Rにおいて会議を行う前に、会議室Rにいる対象者U(例えば、会議の出席者)全員の表情を撮像し、撮像した画像から抽出した笑顔度に基づいて、対象者Uそれぞれの精神状態を推定する。抽出部23は、画像から対象者Uそれぞれの現在の笑顔度を抽出し、推定部25は対象者Uそれぞれの現在の笑顔度と、対象者Uそれぞれに設定された閾値とに基づいて、対象者Uそれぞれの精神状態を推定する。これにより、会議の開始前に、出席者の中に精神状態が悪化している人がいるか否かを知ることができるので、精神状態が悪化している人がいる場合に、当該人が当該会議におけるストレスにより精神状態がさらに悪化しないように対策を講じることが可能となる。 As shown in FIG. 5, the mental state estimation system 100 according to the embodiment may be installed in a conference room R of a company or the like. The mental state estimation system 100 captures the facial expressions of all the target persons U (for example, attendees of the conference) in the conference room R before the conference is held in the conference room R, and the smile degree extracted from the captured image, for example. Based on, the mental state of each subject U is estimated. The extraction unit 23 extracts the current smile degree of each of the target persons U from the image, and the estimation unit 25 determines the target smile degree of each of the target persons U based on the current smile degree of each of the target persons U and the threshold value set for each of the target persons U. Estimate the mental state of each person U. With this, it is possible to know whether or not some of the attendees have a worsened mental state before the start of the meeting. It is possible to take measures to prevent the mental condition from being further deteriorated by the stress at the meeting.

そして、第二出力部27は、対象者Uそれぞれに当該対象者Uに対応した推定結果を出力する。例えば、対象者Uのそれぞれは、自身に対する精神状態の推定結果のみを確認することができる。これにより、対象者Uそれぞれのプライバシーが保護される。 Then, the second output unit 27 outputs the estimation result corresponding to each of the target persons U. For example, each of the subjects U can confirm only the estimation result of the mental state of himself/herself. Thereby, the privacy of each target person U is protected.

また、推定部25は、対象者Uそれぞれの現在の笑顔度から、会議に出席している複数の対象者Uの笑顔度の代表値(以降において、代表笑顔度とも記載する)を算出してもよい。推定部25は、対象者Uそれぞれの現在の笑顔度に所定の演算を行うことで代表笑顔度出してもよく、例えば、対象者Uそれぞれの現在の笑顔度の統計値(例えば、平均値又は中央値)を代表笑顔度としてもよい。また、推定部25は、対象者Uそれぞれについて、当該対象者Uの現在の笑顔度と当該対象者Uの笑顔度の時系列データとに基づいて、現在の笑顔度を規格化した規格笑顔度を算出し、対象者Uそれぞれの規格笑顔度の統計値を代表笑顔度としてもよい。これにより、会議に出席している複数の対象者U全体の精神状態を知ることができる。例えば、1つの部署に所属する対象者Uで会議を行う場合、上記の処理を行うことで、精神状態の部署動向(部署内が活性しているかなど)を早期に知ることができる。例えば、当該精神状態の部署動向から当該部署における働き方を改善するなど、適切な対応を迅速にとることが可能となる。 In addition, the estimation unit 25 calculates a representative value of the smile degree of a plurality of target persons U attending the conference (hereinafter, also referred to as a representative smile degree) from the current smile degree of each of the target persons U. Good. The estimation unit 25 may calculate the representative smile degree by performing a predetermined calculation on the current smile degree of each of the target persons U, and, for example, a statistical value (for example, an average value or the average value of the current smile degree of each of the target persons U). The median value) may be used as the representative smile degree. Further, the estimation unit 25 standardizes the current smile degree for each of the target persons U based on the current smile degree of the target person U and the time-series data of the smile degree of the target person U. May be calculated, and the statistical value of the standard smile degree of each subject U may be used as the representative smile degree. As a result, it is possible to know the mental states of all the target persons U who are attending the conference. For example, when a meeting is held with the target person U who belongs to one department, the departmental trend of the mental state (whether the department is active, etc.) can be known at an early stage by performing the above processing. For example, it is possible to promptly take an appropriate response such as improving the working style in the department from the departmental trend of the mental state.

また、実施の形態に係る精神状態推定システム100は、会社等のオフィスに設置されてもよい。この場合、撮像装置10は、各個人それぞれに設けられてもよい。また、このとき、行動指標として人の接触回数が取得されるとよい。これにより、オフィス全体での人の接触回数を取得することができるので、オフィスが活性しているか否か(つまり、オフィスにいる人の精神状態が良いか否か)を推定することが可能となる。 Moreover, the mental state estimation system 100 according to the embodiment may be installed in an office of a company or the like. In this case, the imaging device 10 may be provided for each individual. Further, at this time, the number of times of contact with a person may be acquired as the action index. As a result, it is possible to obtain the number of contacts of people in the entire office, and it is possible to estimate whether or not the office is active (that is, whether or not the person in the office is in a good mental state). Become.

また、実施の形態に係る精神状態推定システム100は、会社等でオフィスに入退室する際の入退室管理システム(例えば、勤怠システム)に用いられてもよい。例えば、ドア付近に撮像装置10及び表示装置30が配置されており、対象者Uは、ドアの施錠を解除するために、笑顔をつくる。これにより、対象者Uの入退室の記録と精神状態の推定結果とを取得することができる。 Further, the mental state estimation system 100 according to the embodiment may be used as an entry/exit management system (for example, attendance system) when entering or leaving an office in a company or the like. For example, the imaging device 10 and the display device 30 are arranged near the door, and the subject U makes a smile in order to unlock the door. Accordingly, it is possible to acquire the record of entry and exit of the subject U and the estimation result of the mental state.

また、実施の形態に係る精神状態推定システム100は、電気機器(例えば、照明機器)を制御するための制御システムに用いられてもよい。例えば、対象者Uは、照明機器をオン及びオフするために、笑顔をつくる。これにより、電気機器の制御と精神状態の推定結果とを取得することができる。また、さらに精神状態の推定結果に応じて、電気機器の出力(例えば、照明機器の調光及び調色)が制御されてもよい。 Moreover, the mental state estimation system 100 according to the embodiment may be used as a control system for controlling an electric device (for example, a lighting device). For example, the target person U makes a smile in order to turn on and off the lighting device. Thereby, the control of the electric device and the estimation result of the mental state can be acquired. Further, the output of the electric device (for example, dimming and color adjustment of the lighting device) may be controlled according to the estimation result of the mental state.

また、実施の形態に係る精神状態推定システム100は、学校又は介護施設などに用いられてもよい。例えば、精神状態推定システム100が学校に用いられることで、いじめなどで精神状態が悪化している生徒を早期に発見することができる。また、例えば、介護施設などに用いられることで、精神状態推定システム100を見守りシステムとしても利用できる。例えば、介護施設に入居している対象者U(例えば、親)の精神状態の推定結果を、当該対象者Uと離れて暮らす当該対象者Uの家族(例えば、子供)が所有する端末装置40に出力することで、家族は遠方に住んでいても当該推定結果により対象者Uを見守ることができる。 Moreover, the mental state estimation system 100 according to the embodiment may be used in a school, a nursing facility, or the like. For example, by using the mental state estimation system 100 in a school, a student whose mental state has deteriorated due to bullying or the like can be detected early. Further, for example, by being used in a care facility or the like, the mental state estimation system 100 can be used as a watching system. For example, the terminal device 40 owned by the family (for example, a child) of the target person U who lives apart from the target person U based on the estimation result of the mental state of the target person U (for example, a parent) who lives in a nursing home. By outputting to, the family U can watch the target person U according to the estimation result even if the family lives in a distant place.

(他の実施の形態)
以上、本発明の1つ又は複数の態様に係る精神状態推定システム、精神状態推定方法、及び、プログラムについて、実施の形態及び変形例(以降において、実施の形態等とも記載する)に基づいて説明したが、本発明は、上記実施の形態等に限定されるものではない。
(Other embodiments)
As described above, the mental state estimation system, the mental state estimation method, and the program according to one or more aspects of the present invention are described based on the embodiments and modifications (hereinafter, also referred to as embodiments, etc.). However, the present invention is not limited to the above embodiments and the like.

例えば、上記実施の形態等では、精神状態推定装置は、撮像装置及び表示装置を有していなかったが、撮像装置及び表示装置の少なくとも一方を有していてもよい。この場合、撮像装置は、精神状態推定装置の一部である撮像部として機能し、表示装置は、精神状態推定装置の一部である表示部として機能する。また、精神状態推定装置が表示部を有している場合、第二出力部は、当該表示部に推定結果を出力してもよい。 For example, in the above-described embodiments and the like, the mental state estimation device does not have the imaging device and the display device, but may have at least one of the imaging device and the display device. In this case, the imaging device functions as an imaging unit that is a part of the mental state estimation device, and the display device functions as a display unit that is a part of the mental state estimation device. When the mental state estimation device has a display unit, the second output unit may output the estimation result to the display unit.

また、上記実施の形態等における推定部は、さらに対象者の精神状態に対するアンケート(例えば、ストレスチェック)、勤怠情報などに基づいて、対象者の精神状態を推定してもよい。 Further, the estimation unit in the above-described embodiments and the like may further estimate the mental state of the subject based on a questionnaire (for example, stress check) regarding the subject's mental state, attendance information, and the like.

また、上記実施の形態等における推定部が、現在の笑顔度が時系列データ(例えば、直近に取得した笑顔度)に対して大きく低下しており(つまり、精神状態が急激に悪化している)、かつ現在の笑顔度が閾値より低いと判定した場合、第二出力部は、精神状態が急激に悪化していることを示す情報を端末装置に出力してもよい。つまり、推定部は、笑顔度の変化度に基づいて、精神状態を推定してもよい。なお、直近に取得した笑顔度とは、例えば、現在に最も近い時点で取得された数回分の笑顔度である。これにより、閾値には達していないが、急激に精神状態が悪化していることを対象者に知らせることができる。 In addition, the estimation unit in the above-described embodiment or the like greatly decreases the current smile degree with respect to the time-series data (for example, the latest smile degree acquired) (that is, the mental state deteriorates sharply). ), and when it is determined that the current smile degree is lower than the threshold value, the second output unit may output information indicating that the mental state is rapidly deteriorating to the terminal device. That is, the estimation unit may estimate the mental state based on the degree of change in the degree of smile. The most recently acquired smile degree is, for example, the smile degree for several times acquired at the time closest to the present time. As a result, it is possible to notify the subject that the mental condition is rapidly deteriorating, although the threshold has not been reached.

また、上記実施の形態等では、第二出力部は、精神状態が良いか悪いかを出力していたが、これに限定されない。第二出力部は、例えば、精神状態を数値化(例えば、0〜100)した結果を出力してもよい。 Further, in the above-described embodiment and the like, the second output unit outputs whether the mental state is good or bad, but the present invention is not limited to this. The second output unit may output, for example, the result of digitizing the mental state (for example, 0 to 100).

また、上記実施の形態等では、第二出力部は端末装置に推定結果を出力する例について説明したが、これに限定されない。第二出力部は、推定結果を表示装置に出力してもよい。これにより、対象者は、端末装置を操作することなく、推定結果を知ることができる。 Further, in the above-described embodiments and the like, an example in which the second output unit outputs the estimation result to the terminal device has been described, but the present invention is not limited to this. The second output unit may output the estimation result to the display device. Thereby, the subject can know the estimation result without operating the terminal device.

また、上記実施の形態では、閾値算出部が算出する閾値が1つである例について説明したが、これに限定されない。閾値算出部は、2以上の閾値を算出してもよい。例えば、閾値算出部が笑顔度の低い場合の閾値を2以上算出することで、推定部は、対象者の精神状態の悪化の程度を推定することができる。また、例えば、閾値算出部が笑顔度の高いときと低いときの双方の閾値を算出することで、推定部は、対象者の精神状態が悪化している場合と、対象者の精神状態が通常時より好調である場合とを推定することができる。 Further, in the above embodiment, an example in which the threshold value calculation unit calculates one threshold value has been described, but the present invention is not limited to this. The threshold calculator may calculate two or more thresholds. For example, the estimation unit can estimate the degree of deterioration of the mental state of the target person by calculating two or more thresholds when the threshold calculation unit has a low degree of smile. Further, for example, the threshold calculation unit calculates the thresholds both when the smile level is high and when the smile level is low, so that the estimation unit determines that the mental state of the subject is deteriorated and that the mental state of the subject is normal. It can be estimated that the situation is better than time.

また、上記実施の形態等では、精神状態推定システムが備える撮像装置、表示装置、及び、端末装置は1つである例について説明したが、数は特に限定されず、2以上であってもよい。 Further, in the above-described embodiments and the like, the example in which the mental state estimation system includes one image pickup device, one display device, and one terminal device has been described, but the number is not particularly limited and may be two or more. ..

また、上記実施の形態等のフローチャートで説明された処理の順序は、一例である。複数の処理の順序は変更されてもよいし、複数の処理は並行して実行されてもよい。 Moreover, the order of the processes described in the flowcharts of the above-described embodiments and the like is an example. The order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel.

また、上記実施の形態等における装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信及び有線通信が組み合わされてもよい。また、上記実施の形態において2つの装置が通信を行う場合、2つの装置間には図示されない中継装置が介在してもよい。 Further, the communication method between the devices in the above-described embodiments and the like is not particularly limited. Wireless communication may be performed between devices, or wired communication may be performed. In addition, wireless communication and wired communication may be combined between the devices. Further, when two devices communicate with each other in the above embodiment, a relay device (not shown) may be interposed between the two devices.

また、上記実施の形態等において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiments and the like, each component may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.

また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 Further, each component may be realized by hardware. For example, each component may be a circuit (or integrated circuit). These circuits may constitute one circuit as a whole or may be separate circuits. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.

また、精神状態推定システムは、単一の装置(例えば、実施の形態に係る精神状態推定装置)として実現される例について説明したが、複数の装置によって実現されてもよい。精神状態推定システムが複数の装置によって実現される場合、精神状態推定システムが備える構成要素は、複数の装置にどのように振り分けられてもよい。 Further, the mental state estimation system has been described as an example realized as a single device (for example, the mental state estimation device according to the embodiment), but may be realized by a plurality of devices. When the mental state estimation system is realized by a plurality of devices, the components included in the mental state estimation system may be distributed to the plurality of devices in any way.

また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 Further, the general or specific aspects of the present invention may be realized by a recording medium such as a system, a device, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, the system, the device, the method, the integrated circuit, the computer program, and the recording medium may be implemented in any combination.

例えば、本発明は、精神状態推定システムなどのコンピュータによって実行される精神状態推定方法をコンピュータに実行させるためのプログラムとして実現されてもよい。また、精神状態推定システムが汎用の携帯端末として実現される場合、本発明は、汎用の携帯端末を精神状態推定システムとして動作させるために当該携帯端末にインストールされるアプリケーションプログラムとして実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。 For example, the present invention may be realized as a program for causing a computer to execute a mental state estimation method executed by a computer such as a mental state estimation system. When the mental state estimation system is implemented as a general-purpose mobile terminal, the present invention may be implemented as an application program installed in the mobile terminal in order to operate the general-purpose mobile terminal as the mental state estimation system. .. Further, the present invention may be realized as a computer-readable non-transitory recording medium in which such a program is recorded.

その他、実施の形態等に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, it is realized by making various modifications to those skilled in the art that are conceivable to those skilled in the art, or by arbitrarily combining the components and functions in the embodiments without departing from the spirit of the present invention. The form is also included in the present invention.

21 第一出力部
22 画像取得部
23 抽出部
24 記憶部
25 推定部
26 閾値算出部
27 第二出力部
28 行動指標取得部
100、100a 精神状態推定システム
U 対象者
21 1st output part 22 Image acquisition part 23 Extraction part 24 Storage part 25 Estimation part 26 Threshold value calculation part 27 Second output part 28 Behavior index acquisition part 100,100a Mental state estimation system U Target person

Claims (9)

対象者に所定の表情をするように促すための情報を出力する第一出力部と、
前記所定の表情の前記対象者を撮像した画像を取得する画像取得部と、
前記画像から前記対象者の表情指標を抽出する抽出部と、
対象時点以前の複数時点における前記表情指標を第一時系列データとして格納する記憶部と、
前記抽出部で抽出された前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記第一時系列データに基づいて、前記対象者の前記対象時点における精神状態を推定する推定部と、を備える
精神状態推定システム。
A first output unit for outputting information for prompting the subject to have a predetermined facial expression,
An image acquisition unit that acquires an image of the target person having the predetermined facial expression,
An extraction unit that extracts the facial expression index of the subject from the image,
A storage unit that stores the facial expression index at a plurality of time points before the target time point as first temporary series data,
An estimation unit that estimates the mental state of the subject at the target time point based on the facial expression index at the target time point extracted by the extraction unit and the temporary series data stored in the storage unit. And a mental state estimation system.
前記対象者の行動指標を取得する行動指標取得部を、さらに備え、
前記推定部は、さらに前記行動指標取得部が取得した前記行動指標に基づいて前記対象者の精神状態を推定する
請求項1に記載の精神状態推定システム。
Further comprising an action index acquisition unit that acquires the action index of the target person,
The mental state estimation system according to claim 1, wherein the estimation unit further estimates the mental state of the subject based on the action index acquired by the action index acquisition unit.
前記記憶部は、さらに、前記対象時点以前の互いに異なる時点で取得した複数の前記行動指標を第二時系列データとして格納し、
前記推定部は、さらに、前記行動指標取得部で取得された前記対象時点の前記行動指標、及び、前記記憶部に格納されている前記第二時系列データに基づいて、前記対象者の精神状態を推定する
請求項2に記載の精神状態推定システム。
The storage unit further stores a plurality of the behavior indicators acquired at different time points before the target time point as second time series data,
The estimation unit further, based on the behavior index at the target time point acquired by the behavior index acquisition unit, and the second time series data stored in the storage unit, the mental state of the target person. The mental state estimation system according to claim 2.
前記行動指標は、前記対象者の姿勢、歩行速度、歩幅、及び、生理データの少なくとも1つを含む
請求項2又は3に記載の精神状態推定システム。
The mental state estimation system according to claim 2, wherein the behavior index includes at least one of a posture, a walking speed, a stride, and physiological data of the subject.
前記記憶部に格納されている前記第一時系列データから閾値を算出する閾値算出部を、さらに備え、
前記推定部は、前記対象時点の前記表情指標が前記閾値以上及び前記閾値未満の一方の場合に精神状態が良好であり、前記対象時点の前記表情指標が前記閾値以上及び前記閾値未満の他方である場合にストレス状態であると推定する
請求項1〜4のいずれか1項に記載の精神状態推定システム。
Further comprising a threshold value calculation unit for calculating a threshold value from the temporary series data stored in the storage unit,
The estimation unit, if the facial expression index at the target time point is one of the threshold value or more and less than the threshold value, the mental state is good, and the facial expression index at the target time point is the threshold value or more and less than the threshold value on the other side. The mental state estimation system according to any one of claims 1 to 4, wherein it is estimated that the person is in a stressed state.
前記表情指標は、笑顔度、笑顔形成速度、口及び目の位置、顔面の左右対称性、顔角度、及び、肌色の少なくとも2つを含み、
前記推定部は、少なくとも2つの前記表情指標に基づいて精神状態を推定する
請求項1〜5のいずれか1項に記載の精神状態推定システム。
The facial expression index includes at least two of a smile degree, a smile formation rate, mouth and eye positions, facial symmetry, face angle, and skin color,
The mental state estimation system according to claim 1, wherein the estimation unit estimates a mental state based on at least two facial expression indexes.
前記推定部の推定結果を出力する第二出力部を、さらに備える
請求項1〜6のいずれか1項に記載の精神状態推定システム。
The mental state estimation system according to claim 1, further comprising a second output unit that outputs the estimation result of the estimation unit.
対象者に所定の表情を促すための情報を出力するステップと、
前記所定の表情の前記対象者を撮像した画像を取得するステップと、
前記画像から前記対象者の表情指標を抽出するステップと、
対象時点以前の複数時点における複数の前記表情指標を時系列データとして記憶部に格納するステップと、
前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記時系列データに基づいて、前記対象者の精神状態を推定するステップとを含む
精神状態推定方法。
A step of outputting information for prompting the target person to have a predetermined facial expression,
Acquiring an image of the target person having the predetermined facial expression;
Extracting the facial expression index of the subject from the image,
Storing a plurality of the facial expression indexes at a plurality of time points before the target time point in the storage unit as time series data,
Estimating the mental state of the subject based on the facial expression index at the target time point and the time-series data stored in the storage unit.
請求項8に記載の精神状態推定方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the mental state estimation method according to claim 8.
JP2019014237A 2019-01-30 2019-01-30 Mental state estimation system, mental state estimation method, and program Pending JP2020120908A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019014237A JP2020120908A (en) 2019-01-30 2019-01-30 Mental state estimation system, mental state estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014237A JP2020120908A (en) 2019-01-30 2019-01-30 Mental state estimation system, mental state estimation method, and program

Publications (1)

Publication Number Publication Date
JP2020120908A true JP2020120908A (en) 2020-08-13

Family

ID=71991535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014237A Pending JP2020120908A (en) 2019-01-30 2019-01-30 Mental state estimation system, mental state estimation method, and program

Country Status (1)

Country Link
JP (1) JP2020120908A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733763A (en) * 2021-01-15 2021-04-30 北京华捷艾米科技有限公司 Method and device for realizing man-machine voice interaction, electronic equipment and storage medium
WO2022190187A1 (en) * 2021-03-09 2022-09-15 株式会社ファセテラピー Vibration information-providing system, vibration information-providing server device, vibration information acquisition device, vibration information-providing method, program for vibration information provision and program for vibration information acquisition
WO2023145350A1 (en) * 2022-01-25 2023-08-03 パナソニックIpマネジメント株式会社 Information processing method, information processing system, and program
WO2023171356A1 (en) * 2022-03-07 2023-09-14 ソニーグループ株式会社 Patient monitoring system, patient monitoring method, and program
WO2023171162A1 (en) * 2022-03-09 2023-09-14 オムロン株式会社 Psychological state estimation device and psychological state estimation method
EP4331483A1 (en) 2022-08-29 2024-03-06 ASICS Corporation Emotion estimating device, emotion estimating system, and emotion estimating method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733763A (en) * 2021-01-15 2021-04-30 北京华捷艾米科技有限公司 Method and device for realizing man-machine voice interaction, electronic equipment and storage medium
CN112733763B (en) * 2021-01-15 2023-12-05 北京华捷艾米科技有限公司 Method and device for realizing man-machine voice interaction, electronic equipment and storage medium
WO2022190187A1 (en) * 2021-03-09 2022-09-15 株式会社ファセテラピー Vibration information-providing system, vibration information-providing server device, vibration information acquisition device, vibration information-providing method, program for vibration information provision and program for vibration information acquisition
JP7554515B2 (en) 2021-03-09 2024-09-20 株式会社ファセテラピー Vibration information providing system, vibration information providing server device, vibration information acquiring device, vibration information providing method, vibration information providing program, and vibration information acquiring program
WO2023145350A1 (en) * 2022-01-25 2023-08-03 パナソニックIpマネジメント株式会社 Information processing method, information processing system, and program
WO2023171356A1 (en) * 2022-03-07 2023-09-14 ソニーグループ株式会社 Patient monitoring system, patient monitoring method, and program
WO2023171162A1 (en) * 2022-03-09 2023-09-14 オムロン株式会社 Psychological state estimation device and psychological state estimation method
EP4331483A1 (en) 2022-08-29 2024-03-06 ASICS Corporation Emotion estimating device, emotion estimating system, and emotion estimating method

Similar Documents

Publication Publication Date Title
JP2020120908A (en) Mental state estimation system, mental state estimation method, and program
JP7083809B2 (en) Systems and methods for identifying and / or identifying and / or pain, fatigue, mood, and intent with privacy protection
JP6493680B2 (en) Non-contact blood pressure measuring device and non-contact blood pressure measuring method
US10863939B2 (en) Emotion estimating method, emotion estimating apparatus, and recording medium storing program
US10624586B2 (en) Pulse wave measuring device, mobile device, medical equipment system and biological information communication system
US11638550B2 (en) Systems and methods for stroke detection
US9642536B2 (en) Mental state analysis using heart rate collection based on video imagery
US20170311864A1 (en) Health care assisting device and health care assisting method
US20210161482A1 (en) Information processing device, information processing method, and computer program
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
EP3420713B1 (en) Devices, system and methods for determining a priority level and/or conversation duration of a call
WO2014145204A1 (en) Mental state analysis using heart rate collection based video imagery
US20180240543A1 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
CN113096808B (en) Event prompting method, device, computer equipment and storage medium
Nooralishahi et al. Robust remote heart rate estimation from multiple asynchronous noisy channels using autoregressive model with Kalman filter
JP2021194476A (en) Information processing method, information processing system and program
Ruminski et al. Estimation of respiration rate using an accelerometer and thermal camera in eGlasses
KR20210060246A (en) The arraprus for obtaining biometiric data and method thereof
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device
JP7325576B2 (en) Terminal device, output method and computer program
EP4111984A1 (en) Information processing method, computer program, information processing device, and information processing system
Kruger et al. Sleep detection using de-identified depth data
Mankodiya et al. Understanding User's Emotional Engagement to the Contents on a Smartphone Display: Psychiatric Prospective
Malasinghe et al. Remote heart rate extraction using microsoft kinecttm V2. 0
US11626087B2 (en) Head-mounted device and control device thereof