JP2020120908A - Mental state estimation system, mental state estimation method, and program - Google Patents
Mental state estimation system, mental state estimation method, and program Download PDFInfo
- Publication number
- JP2020120908A JP2020120908A JP2019014237A JP2019014237A JP2020120908A JP 2020120908 A JP2020120908 A JP 2020120908A JP 2019014237 A JP2019014237 A JP 2019014237A JP 2019014237 A JP2019014237 A JP 2019014237A JP 2020120908 A JP2020120908 A JP 2020120908A
- Authority
- JP
- Japan
- Prior art keywords
- mental state
- unit
- index
- facial expression
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、精神状態推定システム、精神状態推定方法、及び、プログラムに関する。 The present invention relates to a mental state estimation system, a mental state estimation method, and a program.
近年、うつ病などのメンタルヘルス不調に陥った精神疾患の患者数が増加している。精神疾患の治療においては、早期発見が重要であるが、精神疾患の予兆(サイン)や症状に気づくことは一般の人では難しいのが実情である。 In recent years, the number of patients with mental illnesses such as depression who have suffered from mental health disorders has been increasing. Early detection is important in the treatment of mental illness, but it is the actual situation that it is difficult for ordinary people to notice signs and symptoms of mental illness.
そこで、特許文献1には、対象者の顔を撮像した画像から認識した顔表情に基づいて、当該対象者の精神状態(精神的健康状態)を推定する健康管理補助装置が開示されている。 Therefore, Patent Document 1 discloses a health management assisting device that estimates the mental state (mental health state) of the subject based on the facial expression recognized from the image of the image of the face of the subject.
しかしながら、特許文献1では、撮像される対象者の表情によっては、精神状態を精度よく推定できない場合がある。 However, in Patent Document 1, the mental state may not be accurately estimated depending on the facial expression of the imaged subject.
そこで、本発明は、精神状態を精度よく推定することができる精神状態推定システム、精神状態推定方法、及び、プログラムを提供する。 Therefore, the present invention provides a mental state estimation system, a mental state estimation method, and a program capable of accurately estimating a mental state.
本発明の一態様に係る精神状態推定システムは、対象者に所定の表情をするように促すための情報を出力する第一出力部と、前記所定の表情の前記対象者を撮像した画像を取得する画像取得部と、前記画像から前記対象者の表情指標を抽出する抽出部と、対象時点以前の複数時点における前記表情指標を第一時系列データとして格納する記憶部と、前記抽出部で抽出された前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記第一時系列データに基づいて、前記対象者の前記対象時点における精神状態を推定する推定部と、を備える。 A mental state estimation system according to an aspect of the present invention acquires a first output unit that outputs information for urging a subject to have a predetermined facial expression, and an image obtained by capturing the subject with the predetermined facial expression. An image acquisition unit, an extraction unit that extracts the target person's facial expression index from the image, a storage unit that stores the facial expression index at a plurality of time points before the target time point as temporary series data, and the extraction unit extracts An estimation unit that estimates the mental state of the subject at the target time point based on the facial expression index at the target time point and the temporary series data stored in the storage unit.
本発明の一態様に係る精神状態推定方法は、対象者に所定の表情を促すための情報を出力するステップと、前記所定の表情の前記対象者を撮像した画像を取得するステップと、前記画像から前記対象者の表情指標を抽出するステップと、対象時点以前の複数時点における複数の前記表情指標を時系列データとして記憶部に格納するステップと、前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記時系列データに基づいて、前記対象者の精神状態を推定するステップとを含む。 A mental state estimation method according to an aspect of the present invention includes a step of outputting information for prompting a target person to have a predetermined facial expression, a step of acquiring an image of the target person having the predetermined facial expression, and the image. From the target person's facial expression index, storing a plurality of the facial expression indexes at a plurality of time points before the target time point in the storage unit as time series data, the facial expression index at the target time point, and the storage Estimating the mental state of the subject based on the time series data stored in the section.
本発明の一態様に係るプログラムは、上記の精神状態推定方法をコンピュータに実行させるためのプログラムである。 A program according to an aspect of the present invention is a program for causing a computer to execute the mental state estimation method described above.
本発明の一態様によれば、精神状態を精度よく推定することができる精神状態推定システム、精神状態推定方法、及び、プログラムを実現することができる。 According to one aspect of the present invention, it is possible to realize a mental state estimation system, a mental state estimation method, and a program capable of accurately estimating a mental state.
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, materials, constituent elements, arrangement positions and connection forms of constituent elements, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present invention. Further, among the constituent elements in the following embodiments, constituent elements not described in independent claims are described as arbitrary constituent elements.
なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。 It should be noted that each drawing is a schematic diagram and is not necessarily strictly illustrated. Further, in each drawing, the same reference numerals are given to substantially the same configurations, and overlapping description may be omitted or simplified.
なお、以下の明細書において、画像は、動画像(映像)である例について説明するが、静止画像であってもよい。また、画像は、文字及び数字などが含まれていてもよい。動画像は、複数の静止画像によって構成される。 In the following specification, the image will be described as an example of a moving image (video), but it may be a still image. Further, the image may include characters and numbers. The moving image is composed of a plurality of still images.
(実施の形態)
以下、本実施の形態に係る精神状態推定システム等について、図1〜図3を参照しながら説明する。本実施の形態に係る精神状態推定システムは、対象者を撮影した画像に基づいて、当該対象者の精神的な健康(メンタルヘルス)を推定するための装置である。
(Embodiment)
Hereinafter, the mental state estimation system and the like according to the present embodiment will be described with reference to FIGS. 1 to 3. The mental state estimation system according to the present embodiment is a device for estimating the mental health of the subject based on the image captured of the subject.
[1.構成]
まずは、本実施の形態に係る精神状態推定システム100の構成について、図1を参照しながら説明する。図1は、本実施の形態に係る精神状態推定システム100の構成を示すブロック図である。
[1. Constitution]
First, the configuration of the mental
図1に示すように、精神状態推定システム100は、撮像装置10と、精神状態推定装置20と、表示装置30とを備える。なお、精神状態推定システム100は、少なくとも精神状態推定装置20を備えていればよい。また、図1には、精神状態推定装置20が推定した結果が出力される端末装置40も図示している。
As shown in FIG. 1, the mental
撮像装置10は、対象者Uの少なくとも顔を含む画像を撮影する。具体的には、撮像装置10は、後述する所定の情報をしているときの対象者Uの顔を含む画像を撮像する。なお、撮像装置10が撮像する画像は、モノクロ画像であってもよいし、カラー画像であってもよい。撮像装置10は、例えばイメージセンサを備えるデジタルビデオカメラ又はデジタルスチルカメラである。
The
精神状態推定装置20は、撮像装置10から取得した画像に基づいて、対象者Uの精神状態を推定する。精神状態推定装置20は、第一出力部21と、画像取得部22と、抽出部23と、記憶部24と、推定部25と、閾値算出部26と、第二出力部27とを有する。
The mental
第一出力部21は、表示装置30と通信可能に接続され、対象者Uに所定の表情を促すための情報(以降において、指示情報とも記載する)を表示装置30に出力する。
The
なお、以下では、所定の表情は、笑顔である例について説明するが、精神状態を推定可能な表情であれば、その他の表情であってもよく、例えば、怒り顔、変顔などであってもよい。また、本実施の形態では、指示情報は、笑顔を促す情報であり、図1の例では「笑顔を作って下さい」などのテキストを表示させるための情報である。 Note that, in the following, an example in which the predetermined facial expression is a smile will be described. Good. Further, in the present embodiment, the instruction information is information for prompting a smile, and in the example of FIG. 1, information for displaying a text such as “Please make a smile”.
画像取得部22は、撮像装置10と通信可能に接続され、撮像装置10が撮像した画像を取得する。本実施の形態では、画像取得部22は、撮像装置10が撮像した画像として対象者Uの顔を撮像した動画像を取得する。
The
抽出部23は、画像センシング処理によって画像取得部22が取得した画像から対象者Uの表情指標を抽出する。本実施の形態では、抽出部23は、表情指標として、笑顔度を抽出する。抽出部23は、例えば、笑顔度を対象者Uの精神状態を示す指標(例えば、ストレスの度合いを示すストレス度など)に変換してもよい。笑顔度及び精神状態を示す指標は、第一特徴量の一例である。なお、以下において、第一特徴量は、笑顔度である例について説明する。また、笑顔度は、笑顔の度合いを示す指標であり、0〜100%で示される。なお、笑顔度が高い(100%に近い)ほど、より笑顔である例について説明するが、これに限定されない。また、笑顔度の抽出については、特に限定される必要はなく、従来技術が用いられてもよい。したがって、笑顔度の抽出の詳細な説明については省略する。
The
なお、表情指標は、笑顔度に限定されず、対象者Uの精神状態を推定可能な指標であればよい。表情指標は、例えば、笑顔形成速度、口及び目の少なくとも一方の変化量、口及び目が変化する順番、顔面の左右対称性、顔角度、及び、肌色などであってもよい。 The facial expression index is not limited to the smile degree, and may be any index that can estimate the mental state of the target person U. The facial expression index may be, for example, a smile formation speed, a change amount of at least one of the mouth and eyes, the order in which the mouth and eyes change, left-right symmetry of the face, face angle, and skin color.
笑顔形成速度は、対象者Uが笑顔を形成する速度であり、例えば、第一出力部21が指示情報を出力してから対象者Uが笑顔になるまでの時間である。対象者Uの精神状態が悪化している(例えば、対象者Uがストレスを感じている)と、笑顔を形成する速度は、精神状態が悪化していない(例えば、精神状態が通常時である)場合に比べ、遅くなる。つまり、対象者Uが笑顔になるまでの時間が長くなる。よって、笑顔形成速度から、対象者Uの精神状態を推定可能である。
The smile formation speed is the speed at which the target person U smiles, and is, for example, the time from when the
なお、ここでの笑顔になるまでの時間とは、例えば、第一出力部21が指示情報を出力してから、対象者Uの笑顔における口角又は目尻の変化(例えば、口角又は目尻の傾きの変化)が最大となるまでの時間である。抽出部23は、画像取得部22が撮像装置10から動画像を取得することで、笑顔形成速度を抽出可能である。なお、精神状態が悪化しているとは、精神的な健康状態が悪化していることを意味する。例えば、うつ病などの精神疾患の予兆(サイン)が表れていることを意味する。また、精神状態は、元気度又は活性度とも言い換えることができる。
Note that the time until a smile here is, for example, the change in the corners of the mouth or the corners of the eyes (for example, the inclination of the corners of the mouth or the corners of the corners of the eyes of the subject U after the
口及び目の少なくとも一方の変化量は、例えば、第一出力部21が指示情報を出力してから対象者Uが笑顔になるまでの目尻及び口角の変化量である。対象者Uの精神状態が悪化していると、変化量が小さくなる。よって、口及び目の少なくとも一方の変化量から、対象者Uの精神状態を推定可能である。なお、より精度よく精神状態を推定する観点から、口及び目の両方の変化量を用いるとよい。
The amount of change in at least one of the mouth and eyes is, for example, the amount of change in the corner of the eyes and the angle of the mouth from when the
口及び目が変化する順番は、例えば、第一出力部21が指示情報を出力してから対象者Uの顔が笑顔になるときに、口及び目のどちらから変化するかを示す。口及び目のうち目が先に動く場合、対象者Uは心から笑っている可能性が高い。つまり、対象者Uの精神状態は、悪化していない可能性が高い。一方、口及び目のうち口が先に動く場合、対象者Uの笑顔は作り笑顔である可能性が高い。つまり、対象者Uの精神状態は、悪化している可能性が高い。よって、口及び目が変化する順番から、対象者Uの精神状態を推定可能である。
The order in which the mouth and the eyes change indicates, for example, from the mouth and the eyes when the face of the target person U becomes a smile after the
顔面の左右対称性は、例えば、対象者Uが笑顔になったときの顔の左右の対称性である。顔面の左右が対称であると、対象者Uは心から笑っている可能性が高い。つまり、対象者Uの精神状態は、悪化していない可能性が高い。一方、顔面の左右が非対称であると、対象者Uの笑顔は作り笑顔である可能性が高い。つまり、対象者Uの精神状態は、悪化している可能性が高い。よって、顔面の左右対称性から、対象者Uの精神状態を推定可能である。なお、対称性は、対称であるか否かで出力されてもよいし、対称度合い(例えば、数値)で出力されてもよい。また、左右が非対称とは、例えば、笑顔がひきつっている場合などが想定される。 The left-right symmetry of the face is, for example, the left-right symmetry of the face when the subject U smiles. If the right and left sides of the face are symmetrical, the subject U is highly likely to smile from the heart. That is, it is highly possible that the mental state of the subject U has not deteriorated. On the other hand, if the right and left sides of the face are asymmetric, the smile of the subject U is likely to be a make-up smile. In other words, the mental state of the subject U is likely to have deteriorated. Therefore, the mental state of the subject U can be estimated from the bilateral symmetry of the face. The symmetry may be output depending on whether or not it is symmetric, or may be output as a symmetry degree (for example, a numerical value). Further, it is assumed that the left and right are asymmetrical, for example, when a smiling face is tight.
顔角度、及び、肌色についても同様に、精神状態が悪化しているときと通常時とで抽出される結果が異なるので、顔角度、及び、肌色から対象者Uの精神状態を推定可能である。なお、顔角度とは、撮像装置10(例えば、撮像装置10のレンズ部)に対する対象者Uの顔の角度を意味する。 Similarly, regarding the face angle and the skin color, the extracted results are different between when the mental state is deteriorated and when the mental state is normal. Therefore, the mental state of the subject U can be estimated from the face angle and the skin color. .. The face angle means the angle of the face of the target person U with respect to the imaging device 10 (for example, the lens unit of the imaging device 10).
なお、精神状態の推定精度を向上させる観点から、抽出部23は、上記のうち少なくとも2以上の表情指標を抽出するとよい。言い換えると、精神状態を推定するために用いられる表情指標は、笑顔度、笑顔形成速度、口及び目の位置、顔面の左右対称性、顔角度、及び、肌色の少なくとも2つを含むとよい。
In addition, from the viewpoint of improving the estimation accuracy of the mental state, the
記憶部24は、精神状態推定装置20の各構成部が実行する制御プログラム、及び、抽出部23が認識した笑顔度が格納される記憶装置である。記憶部24は、抽出部23が抽出した笑顔度の時系列データを格納する。記憶部24は、例えば、対象時点以前の互いに異なる撮像時点で撮像された複数の画像に基づく複数の笑顔度を時系列データとして格納する。記憶部24は、例えば、対象時点以前の複数時点における笑顔度を時系列データ(第一時系列データの一例)として格納する。記憶部24は、半導体メモリなどによって実現される。なお、対象時点とは、その時点における対象者Uの精神状態を判定する時点を意味する。対象時点は、例えば、現時点(現在)であってもよいし、過去の時点であってもよい。
The
推定部25は、現在取得した笑顔度、及び、記憶部24に格納されている対象者Uの笑顔度の時系列データに基づいて、対象者Uの現在の精神状態を推定する。つまり、推定部25は、現在取得した対象者Uの笑顔度から、過去の複数時点で取得した対象者Uの笑顔度を用いて、現在の対象者Uの精神状態を推定する。推定部25は、例えば現在の笑顔度が閾値算出部26により算出された閾値以上及び閾値未満の一方の場合に精神状態が良好であり、対象時点の笑顔度が当該閾値以上及び閾値未満の他方である場合にストレス状態であると推定する。なお、現在は、対象時点の一例である。
The
なお、推定部25は、抽出部23が少なくとも2以上の表情指標を抽出する場合、当該少なくとも2つの表情指標に基づいて、対象者Uの精神状態を推定する。
When the
なお、推定部25は、抽出部23が笑顔度を対象者Uの精神状態を示す指標に変換する場合、当該指標及び当該指標に対する閾値に基づいて、対象者Uの精神状態を推定してもよい。推定部25が対象者Uの精神状態を示す指標に基づいて対象者Uの精神状態を推定することは、笑顔度に基づいて対象者Uの精神状態を推定することに含まれる。
In addition, when the
閾値算出部26は、記憶部24に格納されている対象者Uの笑顔度の時系列データから閾値を算出する。つまり、閾値算出部26は、対象者Uに応じた閾値を算出する。笑顔度は個人差があり、通常時(例えば、精神状態が安定しているとき)の笑顔度は、個々に異なる。そのため、閾値を一律に決定すると、対象者Uの精神状態を正確に推定できない場合ある。そこで、本実施の形態に係る精神状態推定装置20は、上記の様に対象者Uの笑顔度の時系列データから当該対象者Uに応じた閾値を算出する。これにより、推定部25は、当該対象者Uの笑顔の個性を基準にして対象時点における精神状態を推定できるので、より精度よく対象者Uの精神状態を推定することができる。なお、ここでの閾値は、対象者Uの精神状態を推定するための値であり、例えば、精神状態が悪化しているか否か、又は、精神状態の悪化度合い若しくは好転度合いを推定するための値である。
The
なお、閾値算出部26が閾値を算出する方法は特に限定されないが、例えば、笑顔度の時系列データから算出される笑顔度の統計値(例えば、平均値又は中央値など)に基づいて算出されてもよい。閾値算出部26は、当該統計値に所定の数値を演算することで閾値を算出してもよい。演算とは、加算、減算、乗算、及び、除算の少なくとも1つを含む。閾値は、精神状態推定システム100の用途などに応じて、適宜算出されればよい。また、当該閾値を算出するための時系列データに含まれる笑顔度の数は、多いとよい。例えば、時系列データは、数週間分の対象者Uの笑顔度を含むとよい。
The method of calculating the threshold value by the threshold
第二出力部27は、推定部25が推定した対象者Uの精神状態の推定結果を端末装置40に出力する。
The
上記のように、精神状態推定装置20は、対象者Uに所定の表情(例えば、笑顔)への表情変化を起こさせ、当該所定の表情の対象者Uを撮像した画像に基づいて、当該対象者Uの精神状態を推定することに特徴を有する。なお、所定の表情の対象者Uとは、笑顔を例に説明すると、笑顔になった対象者U、笑顔になる又は笑顔からもとの表情に戻る途中の対象者U(例えば、表情が変化している対象者U)を含む。また、上記の精神状態推定装置20は、CPU又はプロセッサ、メモリ、補助記憶装置、入力装置、通信装置などを具備するコンピュータにより構成することができる。
As described above, the mental
表示装置30は、精神状態推定装置20から指示情報を取得し、取得した指示情報を画像として出力する装置である。当該画像は、写真、イラスト又は文字等を含む。表示装置30は、液晶ディスプレイ等である。表示装置30が出力した画像は、対象者Uによって視認される。なお、表示装置30は、指示装置の一例である。精神状態推定システム100は、表示装置30とともに、又は、表示装置30に代えて、音を出力する装置を指示装置として備えてもよい。また、精神状態推定システム100は、プロジェクタなどの対象物(例えば、スクリーン)に指示情報を表示する装置を指示装置として備えていてもよい。
The
端末装置40は、対象者Uなどに当該対象者Uの精神状態の推定結果を提示する装置である。端末装置40は、液晶ディスプレイ等を有しており、推定結果を画像により提示してもよい。また、端末装置40は、マイクロフォンを有しており、推定結果を音声により提示してもよい。端末装置40は、精神状態推定装置20と通信可能に接続されており、かつ推定結果を提示可能な装置であれば特に限定されない。端末装置40は、例えば、対象者Uが所有する携帯端末であり、スマートフォン又はタブレットであってもよい。また、端末装置40は、据え置き型の装置(例えば、据え置き型のコンピュータ)などであってもよい。また、端末装置40は、推定結果を管理するサーバ装置であってもよい。
The
[2.動作]
次に、上記の精神状態推定システム100で実行される処理について、図2を参照しながら説明する。図2は、本実施の形態に係る精神状態推定システム100の動作の一例を示すフローチャートである。図2では、精神状態推定装置20における動作の一例を示す。なお、図2では、記憶部24に対象者Uの笑顔度の時系列データが既に格納されており、現在取得した画像を用いて対象者Uの精神状態を推定する処理について説明する。
[2. motion]
Next, the processing executed by the mental
図2に示すように、まず、第一出力部21は、対象者Uに笑顔を促すための情報(指示情報)を表示装置30に出力する(S10)。なお、第一出力部21が指示情報を出力するタイミングは、特に限定されない。第一出力部21は、例えば、精神状態推定システム100による精神状態の推定を行う準備ができたことを示す準備完了情報を取得すると、記憶部24から指示情報を読み出し、読み出した指示情報を表示装置30に出力してもよい。準備完了情報は、対象者Uが行う操作により取得されてもよいし、センサなどのセンシング結果により取得されてもよい。
As shown in FIG. 2, first, the
例えば、準備完了情報は、図示しない操作部がユーザから受け付けた操作(例えば、撮像装置10の前に着いたことを示す操作)に基づく情報であってもよいし、人感センサなどが撮像装置10の前に対象者Uがいることを検出したことを示す情報であってもよい。また、第一出力部21は、当該第一出力部21が指示情報を出力する前から撮像装置10が撮像を行っている場合、撮像装置10が撮像する画像に対象者Uが検出されたときに指示情報を出力してもよい。また、第一出力部21は、対象者Uが表示装置30の表示を見える位置に長期間いることがわかっている場合(例えば、対象者Uがオフィスの机におり、当該机に表示装置30が配置されている場合)には、所定時間間隔又は所定時刻に当該指示情報を表示装置30に出力してもよい。
For example, the preparation completion information may be information based on an operation (for example, an operation indicating that the user arrives in front of the image capturing apparatus 10) received from a user by an operation unit (not shown), or a motion sensor or the like may be used as the image capturing apparatus. It may be information indicating that the presence of the target person U before 10 is detected. In addition, the
なお、撮像装置10が撮像を開始するタイミングは特に限定されない。撮像装置10は、ステップS10で指示情報が出力される前から撮像を行っていてもよい。例えば、撮像装置10は、図示しない人感センサなどにより対象者Uが撮像装置10に対して所定距離以内に近づいたときに撮像を開始してもよい。また、撮像装置10は、第一出力部21が撮像装置10に指示情報を出力したことを示す情報を出力する場合、当該情報を取得したときに撮像を開始してもよい。撮像装置10は、動画像を撮像する場合、対象者Uが表示装置30の表示を見て対象者Uの表情が変化する前の表情(通常時に表情であり、例えば、真顔)を含んだ画像を撮像できればよい。また、撮像装置10は、動画像を撮像する場合、第一期間撮像を行う。第一期間は、対象者Uが通常時に表情から笑顔になるまでの期間を含む。例えば、第一期間は、対象者Uが通常時に表情から笑顔になって、さらに通常時に表情に戻るまでの期間を含んでもよい。
The timing at which the
なお、撮像装置10は、静止画像を撮像する場合、例えば、第一出力部21が指示情報を出力してから第二期間経過後に撮像を行ってもよい。第二期間は、対象者Uが表示装置30の表示を見てから笑顔になるまでの時間であるとよく、例えば、1秒などである。
In addition, when capturing a still image, the
そして、画像取得部22は、撮像装置10から対象者Uが笑顔であるときを含んで撮像した画像を取得する(S20)。撮像装置10は、取得した画像を抽出部23に出力する。なお、画像取得部22が画像を取得するタイミングは特に限定されず、例えば、画像取得部22は、撮像装置10が撮像するたびに画像を取得してもよいし、所定時間間隔ごとに画像を取得してもよい。
Then, the
そして、抽出部23は、画像取得部22から取得した画像を用いて、対象者Uの笑顔度を抽出し(S30)、抽出した笑顔度を記憶部24に格納する(S40)。また、抽出部23は、抽出した笑顔度を推定部25に出力する。抽出部23は、例えば、画像から対象者Uの顔を検出し、検出した顔から笑顔度を抽出し、抽出した笑顔度をタイムススタンプ情報とともに記憶部24に格納する。なお、抽出部23が抽出した笑顔度を対象者Uの精神状態を示す指標に変換する場合、当該指標を笑顔度に代えて又は笑顔度とともに記憶部24に格納してもよい。
Then, the
なお、精神状態推定装置20は、閾値算出部26が閾値を算出するための対象者Uの笑顔度の時系列データを取得する場合、ステップS10〜S40までの処理を繰り返し実行する。
In addition, when the threshold
そして、閾値算出部26は、記憶部24に格納されている対象者Uの笑顔度の時系列データから笑顔度の閾値を算出する(S50)。推定部25は、抽出部23から取得した笑顔度が、閾値算出部26から取得した閾値以上であるか否かを判定する(S50)。推定部25は、笑顔度が閾値以上である場合(S60でYes)、対象者Uの精神状態が悪化していると推定する(S70)。つまり、推定部25は、対象者Uの精神状態が不安定であり、対象者Uがストレス状態であると推定する。また、推定部25は、笑顔度が閾値より低い場合(S60でNo)、対象者Uの精神状態が悪化していないと推定する(S80)。つまり、推定部25は、対象者Uの精神状態が安定しており、対象者Uがストレスの少ない状態であり、精神的な健康が保たれていると推定する。推定部25は、推定結果を第二出力部27に出力する。
Then, the threshold
そして、第二出力部27は、推定部25から取得した推定結果を端末装置40に出力する(S90)。例えば、端末装置40が対象者Uの所有するスマートフォンである場合、対象者Uは、当該スマートフォンを操作するだけで、推定結果を知ることができる。なお、ステップS90において、第二出力部27は、少なくとも推定部25により精神状態が悪化していると推定された推定結果を出力すればよい。
Then, the
なお、ステップS90の処理は、推定部25が対象者Uの精神状態を推定するたびに実行されてもよいし、所定時間間隔ごとに実行されてもよい。例えば、第二出力部27は、複数回の推定結果をまとめて端末装置40に出力してもよい。
The process of step S90 may be executed each time the
また、ステップS90において、第二出力部27は、推定結果のみを出力するのではなく、図3に示すような精神状態の時間的な変化を示すグラフを出力してもよい。図3は、本実施の形態に係る表情指標に基づく時系列データの一例を示す図である。図3は、1月からステップS60でYesと判定された時点までの対象者Uのストレス度合いの時系列データを示す。ストレス度合いは、笑顔度に所定の演算を行うことで算出可能であり、例えば、抽出部23により算出される。また、ストレス度合いに対する閾値は、予め設定されているとする。当該閾値は、例えば、閾値算出部26により算出される。なお、ストレス度合いが高いほど笑顔度が低いことを示す。
Further, in step S90, the
図3に示すようなグラフが端末装置40に出力されることで、対象者Uは、当該グラフから精神状態の良し悪しの傾向などを直感的に理解することができる。また、対象者Uは、いつ頃から精神状態が悪化しているかを知ることができるので、精神状態が悪化した原因を特定するに用いることもできる。また、図3に示す破線は、ストレス度合いが閾値を超えた時点において、何も対策を行わなかったときのストレス度合いの変化の予測を示す。このように、予測を示すことで、対象者Uに対策を行うことを喚起することができる。なお、第二出力部27は、ストレス度合いの時間的な変化を示すグラフに代えて、笑顔度の時間的な変化を示すグラフを出力してもよい。
By outputting the graph as shown in FIG. 3 to the
また、第二出力部27は、推定結果に加え、精神状態が悪化している場合に、その対策案及びアドバイスを出力してもよい。例えば、第二出力部27は、推定結果に加え、精神状態が悪化している場合に、「休養をとって下さい」、「病院に行って下さい」などの情報を出力してもよい。対策案及びアドバイスは、例えば、記憶部24に格納されていてもよい。
In addition to the estimation result, the
なお、上記では、閾値が予め設定されている例について説明したが、これに限定されない。例えば、現在取得した笑顔度は、次回笑顔度を取得したときの閾値を算出するために用いられてもよい。閾値算出部26は、対象者Uの精神状態を推定するための笑顔度を取得するたびに閾値を更新してもよい。
In the above, the example in which the threshold value is preset has been described, but the present invention is not limited to this. For example, the currently acquired smile degree may be used to calculate a threshold value when the smile degree is acquired next time. The
[3.効果など]
以上のように、本実施の形態に係る精神状態推定システム100は、対象者Uに笑顔(所定の表情の一例)をするように促すための情報を出力する第一出力部21と、笑顔の対象者Uを撮像した画像を取得する画像取得部22と、当該画像から対象者Uの笑顔度(表情指標の一例)を抽出する抽出部23と、現在(対象時点の一例)以前の複数時点における笑顔度を時系列データ(第一時系列データの一例)として格納する記憶部24と、抽出部23で抽出された現在の笑顔度、及び、記憶部24に格納されている時系列データに基づいて、対象者Uの現在の精神状態を推定する推定部25と、を備える。
[3. Effects, etc.]
As described above, the mental
例えば、精神疾患の1つである「うつ病」の典型的な症状は、気分が沈むなどであり、それは表情として表れる。特に、ポジティブな感情を示す笑顔などに表れる。そのため、対象者Uの精神状態を精度よく推定するには、当該推定に適した表情の画像が用いられるとよい。例えば、上記の特許文献1では、一定の時間間隔又は決まった時刻に撮像した画像を用いることが開示されているが、それでは撮像タイミングによって対象者Uの表情が異なる場合がある。つまり、特許文献1では、対象者Uの精神状態を判定する判定精度に課題がある。 For example, a typical symptom of "depression", which is one of the mental disorders, is depression and the like, which appears as a facial expression. In particular, it appears in smiles that show positive emotions. Therefore, in order to accurately estimate the mental state of the target person U, it is preferable to use an image of a facial expression suitable for the estimation. For example, Patent Document 1 described above discloses the use of images taken at fixed time intervals or at fixed times, but in that case, the facial expression of the target person U may differ depending on the imaging timing. That is, in Patent Document 1, there is a problem in the determination accuracy for determining the mental state of the target person U.
一方、本実施の形態に係る精神状態推定システム100は、対象者Uに笑顔を促すための情報を出力する第一出力部21を備える。これにより、対象者Uが笑顔をつくるので、画像取得部22が取得する画像には、対象者Uが笑顔である画像が含まれる。つまり、精神状態推定システム100は、精神状態の推定に適した表情の画像を取得することができる。また、推定部25は、対象者Uの過去の笑顔度と現在の笑顔度とに基づいて、対象者Uの現在の精神状態を判定する。例えば、推定部25が笑顔度の所定の基準値などに基づいて対象者Uの精神状態を推定する場合に比べて、笑顔度の個人差による推定精度の低下を抑制することができる。よって、これらにより、精神状態推定システム100は、精神状態を精度よく推定することができる。
On the other hand, the mental
また、記憶部24に格納されている時系列データから閾値を算出する閾値算出部26を、さらに備える。そして、推定部25は、現在の笑顔度が閾値以上及び閾値未満の一方の場合に精神状態が良好であり、現在の笑顔度が閾値以上及び閾値未満の他方である場合にストレス状態であると推定する。
Further, it further includes a threshold
これにより、笑顔度など通常時における値が個々に異なる指標を用いた場合であっても、対象者Uに応じた閾値により精神状態を推定することができる。つまり、個人差による推定精度の低下を抑制することができる。よって、精神状態をさらに精度よく推定することができる。 Thereby, even when the index such that the value in the normal state is different such as the smile degree is used, the mental state can be estimated by the threshold value according to the target person U. That is, it is possible to suppress a decrease in estimation accuracy due to individual differences. Therefore, the mental state can be estimated more accurately.
また、表情指標は、笑顔度、笑顔形成速度、口及び目の位置、顔面の左右対称性、顔角度、及び、肌色の少なくとも2つを含む。そして、推定部25は、少なくとも2つの表情指標に基づいて精神状態を推定する。
In addition, the facial expression index includes at least two of a smile degree, a smile formation speed, mouth and eye positions, facial symmetry, face angle, and skin color. Then, the
これにより、表情指標が1つの場合に比べ、さらに精度よく精神状態を推定することができる。 As a result, the mental state can be estimated more accurately than in the case where there is only one facial expression index.
また、推定部25の推定結果を出力する第二出力部27を、さらに備える。
Further, the
これにより、推定結果を通知することができる。例えば、第二出力部27が対象者Uの所有する端末装置40に推定結果を出力することで、当該対象者Uは、推定結果を知ることができるとともに対策などの対応を行うことができる。
Thereby, the estimation result can be notified. For example, the
また、以上のように、本実施の形態に係る精神状態推定方法は、対象者Uに笑顔(所定の表情の一例)を促すための情報を出力するステップ(S10)と、笑顔の対象者Uを撮像した画像を取得するステップ(S20)と、画像から対象者Uの笑顔度(表情指標の一例)を抽出するステップ(S30)と、現在(対象時点の一例)以前の複数時点における複数の笑顔度を時系列データとして記憶部24に格納するステップ(S40)と、ステップS30で抽出された現在の笑顔度、及び、記憶部24に格納されている時系列データに基づいて、対象者Uの精神状態を推定するステップ(S60〜S80)とを含む。また、上記の精神状態推定方法をコンピュータに実行させるためのプログラムであってもよい。
Further, as described above, the mental state estimation method according to the present embodiment includes a step (S10) of outputting information for prompting the target person U to smile (an example of a predetermined facial expression), and the target person U to smile. A step (S20) of obtaining an image of the captured image, a step (S30) of extracting the degree of smile of the target person U (an example of a facial expression index) from the image, and Based on the step of storing the smile degree as time series data in the storage unit 24 (S40), the current smile degree extracted in step S30, and the time series data stored in the
これにより、精神状態推定システム100と同様の効果を奏する。
As a result, the same effect as the mental
(実施の形態の変形例)
以下、本変形例に係る精神状態推定システム等について、図4を参照しながら説明する。図4は、本変形例に係る精神状態推定システム100aの構成を示すブロック図である。なお、本変形例では、実施の形態との相違点を中心に説明する。
(Modification of Embodiment)
Hereinafter, the mental state estimation system and the like according to the present modification will be described with reference to FIG. FIG. 4 is a block diagram showing the configuration of a mental
図4に示すように、精神状態推定システム100aは、撮像装置10と、精神状態推定装置20aと、表示装置30とを備える。本変形例に係る精神状態推定装置20aは、実施の形態の精神状態推定装置20に、さらに行動指標を取得する行動指標取得部28を有する。
As shown in FIG. 4, the mental
行動指標取得部28は、画像取得部22が取得した画像に基づいて、対象者Uの行動指標を取得する。行動指標は、例えば、対象者Uの姿勢、歩行速度、歩幅、生理データ、人接触回数、身だしなみなどの少なくとも1つを含む。
The action
姿勢は、対象者Uが笑顔をつくっているときの体の姿である。精神状態が悪化していると、人は猫背になる傾向がある。よって、姿勢から、対象者Uの精神状態を推定可能である。なお、姿勢は、例えば、背中の丸みなどを示す角度で表されてもよい。 The posture is the figure of the body when the target person U is smiling. When a person's mental condition deteriorates, a person tends to be stooped. Therefore, the mental state of the target person U can be estimated from the posture. The posture may be represented by an angle indicating the roundness of the back, for example.
歩行速度は、対象者Uが撮像装置10に向かうときの速度であり、撮像装置10が動画像を撮像している場合に取得可能である。精神状態が悪化していると、歩行速度は遅くなる傾向がある。よって、歩行速度から、対象者Uの精神状態を推定可能である。
The walking speed is a speed at which the target person U is heading toward the
歩幅は、対象者Uが撮像装置10に向かうときの歩幅であり、撮像装置10が動画像を撮像している場合に取得可能である。精神状態が悪化していると、歩幅は狭くなる傾向がある。よって、歩幅から、対象者Uの精神状態を推定可能である。
The stride is a stride when the subject U heads toward the
生理データは、対象者Uの心拍等のデータであり、撮像装置10が動画像を撮像している場合に取得可能である。精神状態が悪化していると、心拍数の変動が大きくなる(つまり、心拍リズムが乱れる)傾向がある。よって、生理データから、対象者Uの精神状態を推定可能である。
The physiological data is data such as the heartbeat of the subject U and can be acquired when the
人接触回数は、対象者Uが他の人とコミュニケーションを行ったと推定される回数であり、例えば撮像装置10が対象者Uの周囲を含む画像を撮像している場合に取得可能である。精神状態が悪化していると、他の人とのコミュニケーションの回数が少なくなる傾向がある。よって、人接触回数から、対象者Uの精神状態を推定可能である。
The number of human contacts is the number of times that the target person U is estimated to have communicated with another person, and can be acquired, for example, when the
見出しなみは、対象者Uの髭、髪型、メイクなどである。精神状態が悪化していると、身だしなみが整わない傾向がある。よって、身だしなみから、対象者Uの精神状態を推定可能である。 The headlines are the beard, hairstyle, makeup, etc. of the subject U. Deterioration of mental status tends to result in poor grooming. Therefore, it is possible to estimate the mental state of the subject U from the appearance.
なお、行動指標取得部28が上記の行動指標を取得する取得方法(具体的には、画像解析方法)は、特に限定される必要はなく、従来技術が用いられてもよい。したがって、行動指標を取得する取得方法の詳細な説明については省略する。
The acquisition method (specifically, the image analysis method) by which the behavior
なお、行動指標取得部28は、画像取得部22が取得した画像に基づいて、対象者Uの行動指標を取得することに限定されない。例えば、対象者Uの生理データは、対象者Uの生理データを計測するバイタルセンサから取得されてもよい。例えば、行動指標取得部28は、対象者Uが装着しているウェアラブルデバイスの計測結果に基づいて生理データを取得してもよい。また、例えば、対象者Uの人接触回数は、対象者Uが会社のオフィスにいる場合、当該オフィス(例えば、オフィスの天井)に設置された赤外線センサ(人感センサの一例)から取得されてもよい。具体的には、行動指標取得部28は、赤外線センサ等のセンシング結果から得られる人の位置に基づいて、対象者Uが人と接触した接触回数を取得してもよい。
The action
また、行動指標取得部28は、例えば、オフィスに設けられた、当該オフィスにいる人の位置を測位する位置測位システムの情報に基づいて、対象者Uと接触した人の人数を取得してもよい。位置測位システムは、例えば、オフィスの天井に設けられた取得装置と、オフィスにいる人のそれぞれが所持し当該人を認証するための携帯デバイスとを有する。取得装置は、携帯デバイスと無線通信する通信部(例えば、無線モジュール)を有する。通信部は、ビーコン信号を携帯デバイスに送信し、当該ビーコン信号に対応して携帯デバイスから送信された信号を受信する。具体的には、通信部は、ビーコン信号として、携帯デバイスを所持する人の識別情報または携帯デバイスの識別情報を返信するように指示する信号を携帯デバイスに送信し、携帯デバイスから送信された信号として、携帯デバイスを所持する人の識別情報または携帯デバイスの識別情報を含む信号を受信する。これにより、取得装置は、ビーコン信号の送信エリアにおいて、対象者Uと接触した人の人数を検出することができる。取得装置は、例えば、対象者Uに対して所定距離範囲内にいる人を、対象者Uと接触した人であると判定してもよい。
In addition, the behavior
また、行動指標に対象者Uの目の周囲の情報が含まれてもよい。例えば、行動指標に対象者Uの目のクマの情報が含まれてもよい。精神状態が悪化していると、不眠症になりやすく、そのため目の周囲にクマができる傾向がある。よって、目のクマから、対象者Uの精神状態を推定可能である。 Further, the action index may include information about the eyes of the target person U. For example, the behavior index may include information about the bear of the eye of the target person U. When a person's mental condition deteriorates, he/she easily becomes insomnia, which tends to cause a bear around the eyes. Therefore, the mental state of the subject U can be estimated from the bear of the eyes.
行動指標取得部28は、取得した行動指標を記憶部24及び推定部25に出力する。記憶部24には、行動指標の時系列データ(第二時系列データの一例)が格納される。記憶部24は、現在(対象時点の一例)以前の互いに異なる時点で取得した複数の行動指標を時系列データ(第二時系列データの一例)として格納する。
The behavior
閾値算出部26は、記憶部24に格納されている笑顔度及び行動指標の時系列データから対象者Uの精神状態を推定するための閾値を算出する。つまり、行動指標における精神状態の推定においても、当該行動指標の時系列データが用いられる。
The
推定部25は、表情指標(例えば、笑顔度)に加えて、さらに行動指標取得部28が取得した行動指標に基づいて対象者Uの精神状態を推定する。本変形例では、推定部25は、表情指標及び第一時系列データに加えて、さらに行動指標取得部28で取得された現在の行動指標、及び、記憶部24に格納されている行動指標の時系列データに基づいて、対象者Uの精神状態を推定する。
The
推定部25は、例えば、抽出部23から取得した笑顔度、行動指標取得部28から取得した行動指標、及び、閾値算出部26から取得した閾値に基づいて、対象者Uの精神状態を推定する。推定部25は、例えば、笑顔度と行動指標とに基づいて対象者Uの精神状態を示す指標(例えば、ストレス度)を算出し、算出した指標と閾値とを比較することにより、対象者Uの精神状態を推定してもよい。推定部25は、例えば、笑顔度と行動指標とに所定の重みを付加することで、精神状態を示す指標を算出してもよい。また、推定部25は、笑顔度と閾値とを比較した結果と、行動指標と閾値とを比較した結果とに基づいて、対象者Uの精神状態を推定してもよい。
The
以上のように、本変形例に係る精神状態推定システム100aは、対象者Uの行動指標を取得する行動指標取得部28を、さらに備える。そして、推定部25は、さらに行動指標取得部28が取得した行動指標に基づいて対象者Uの精神状態を推定する。
As described above, the mental
これにより、推定部25は、表情指標と行動指標とに基づいて対象者Uの精神状態を推定することができるので、表情指標及び行動指標のうち表情指標のみに基づいて対象者Uの精神状態を推定する場合に比べて、精神状態を精度よく推定することができる。例えば、精神疾患の1つである「うつ病」の典型的な症状は、気分が沈むなどであり、それは表情に加えて行動にも表れる。そのため、対象者Uの精神状態をさらに精度よく推定するには、上記のように対象者Uの行動に関する情報が用いられるとよい。
Accordingly, the
また、記憶部24は、さらに、現在(対象時点の一例)以前の互いに異なる時点で取得した複数の行動指標を時系列データ(第二時系列データの一例)として格納する。そして、推定部25は、さらに、行動指標取得部28で取得された現在の行動指標、及び、記憶部24に格納されている行動指標の時系列データに基づいて、対象者Uの精神状態を推定する。
In addition, the
これにより、推定部25は、さらに、対象者Uの過去の行動指標と現在の行動指標とに基づいて、対象者Uの現在の精神状態を推定することができる。例えば、推定部25が行動指標の所定の基準値などに基づいて対象者Uの精神状態を推定する場合に比べて、行動指標の個人差による推定精度の低下を抑制することができる。よって、精神状態推定システム100aは、精神状態をさらに精度よく推定することができる。
Accordingly, the
また、行動指標は、対象者Uの姿勢、歩行速度、歩幅、及び、生理データの少なくとも1つを含む。 In addition, the behavior index includes at least one of the posture of the subject U, the walking speed, the stride, and the physiological data.
これにより、画像取得部22が取得した画像から取得可能な行動指標を用いて、精神状態の判定精度をさらに向上させることができる。つまり、追加の構成を設けることなく、精神状態の判定精度をさらに向上させることができる。
This makes it possible to further improve the determination accuracy of the mental state by using the action index that can be acquired from the image acquired by the
(精神状態推定システムの適用例)
次に、上記の実施の形態及び変形例で説明した精神状態推定システム100,100aの適用例について、図5を参照しながら説明する。なお、図5では、実施の形態に係る精神状態推定システム100の適用例の一例を示すが、実施の形態の変形例に係る精神状態推定システム100aにおいても、同様に適用可能である。図5は、実施の形態に係る精神状態推定システム100の適用例の一例を示す図である。
(Example of application of mental state estimation system)
Next, an application example of the mental
図5に示すように、実施の形態に係る精神状態推定システム100は、会社等の会議室Rに設置されてもよい。精神状態推定システム100は、例えば、会議室Rにおいて会議を行う前に、会議室Rにいる対象者U(例えば、会議の出席者)全員の表情を撮像し、撮像した画像から抽出した笑顔度に基づいて、対象者Uそれぞれの精神状態を推定する。抽出部23は、画像から対象者Uそれぞれの現在の笑顔度を抽出し、推定部25は対象者Uそれぞれの現在の笑顔度と、対象者Uそれぞれに設定された閾値とに基づいて、対象者Uそれぞれの精神状態を推定する。これにより、会議の開始前に、出席者の中に精神状態が悪化している人がいるか否かを知ることができるので、精神状態が悪化している人がいる場合に、当該人が当該会議におけるストレスにより精神状態がさらに悪化しないように対策を講じることが可能となる。
As shown in FIG. 5, the mental
そして、第二出力部27は、対象者Uそれぞれに当該対象者Uに対応した推定結果を出力する。例えば、対象者Uのそれぞれは、自身に対する精神状態の推定結果のみを確認することができる。これにより、対象者Uそれぞれのプライバシーが保護される。
Then, the
また、推定部25は、対象者Uそれぞれの現在の笑顔度から、会議に出席している複数の対象者Uの笑顔度の代表値(以降において、代表笑顔度とも記載する)を算出してもよい。推定部25は、対象者Uそれぞれの現在の笑顔度に所定の演算を行うことで代表笑顔度出してもよく、例えば、対象者Uそれぞれの現在の笑顔度の統計値(例えば、平均値又は中央値)を代表笑顔度としてもよい。また、推定部25は、対象者Uそれぞれについて、当該対象者Uの現在の笑顔度と当該対象者Uの笑顔度の時系列データとに基づいて、現在の笑顔度を規格化した規格笑顔度を算出し、対象者Uそれぞれの規格笑顔度の統計値を代表笑顔度としてもよい。これにより、会議に出席している複数の対象者U全体の精神状態を知ることができる。例えば、1つの部署に所属する対象者Uで会議を行う場合、上記の処理を行うことで、精神状態の部署動向(部署内が活性しているかなど)を早期に知ることができる。例えば、当該精神状態の部署動向から当該部署における働き方を改善するなど、適切な対応を迅速にとることが可能となる。
In addition, the
また、実施の形態に係る精神状態推定システム100は、会社等のオフィスに設置されてもよい。この場合、撮像装置10は、各個人それぞれに設けられてもよい。また、このとき、行動指標として人の接触回数が取得されるとよい。これにより、オフィス全体での人の接触回数を取得することができるので、オフィスが活性しているか否か(つまり、オフィスにいる人の精神状態が良いか否か)を推定することが可能となる。
Moreover, the mental
また、実施の形態に係る精神状態推定システム100は、会社等でオフィスに入退室する際の入退室管理システム(例えば、勤怠システム)に用いられてもよい。例えば、ドア付近に撮像装置10及び表示装置30が配置されており、対象者Uは、ドアの施錠を解除するために、笑顔をつくる。これにより、対象者Uの入退室の記録と精神状態の推定結果とを取得することができる。
Further, the mental
また、実施の形態に係る精神状態推定システム100は、電気機器(例えば、照明機器)を制御するための制御システムに用いられてもよい。例えば、対象者Uは、照明機器をオン及びオフするために、笑顔をつくる。これにより、電気機器の制御と精神状態の推定結果とを取得することができる。また、さらに精神状態の推定結果に応じて、電気機器の出力(例えば、照明機器の調光及び調色)が制御されてもよい。
Moreover, the mental
また、実施の形態に係る精神状態推定システム100は、学校又は介護施設などに用いられてもよい。例えば、精神状態推定システム100が学校に用いられることで、いじめなどで精神状態が悪化している生徒を早期に発見することができる。また、例えば、介護施設などに用いられることで、精神状態推定システム100を見守りシステムとしても利用できる。例えば、介護施設に入居している対象者U(例えば、親)の精神状態の推定結果を、当該対象者Uと離れて暮らす当該対象者Uの家族(例えば、子供)が所有する端末装置40に出力することで、家族は遠方に住んでいても当該推定結果により対象者Uを見守ることができる。
Moreover, the mental
(他の実施の形態)
以上、本発明の1つ又は複数の態様に係る精神状態推定システム、精神状態推定方法、及び、プログラムについて、実施の形態及び変形例(以降において、実施の形態等とも記載する)に基づいて説明したが、本発明は、上記実施の形態等に限定されるものではない。
(Other embodiments)
As described above, the mental state estimation system, the mental state estimation method, and the program according to one or more aspects of the present invention are described based on the embodiments and modifications (hereinafter, also referred to as embodiments, etc.). However, the present invention is not limited to the above embodiments and the like.
例えば、上記実施の形態等では、精神状態推定装置は、撮像装置及び表示装置を有していなかったが、撮像装置及び表示装置の少なくとも一方を有していてもよい。この場合、撮像装置は、精神状態推定装置の一部である撮像部として機能し、表示装置は、精神状態推定装置の一部である表示部として機能する。また、精神状態推定装置が表示部を有している場合、第二出力部は、当該表示部に推定結果を出力してもよい。 For example, in the above-described embodiments and the like, the mental state estimation device does not have the imaging device and the display device, but may have at least one of the imaging device and the display device. In this case, the imaging device functions as an imaging unit that is a part of the mental state estimation device, and the display device functions as a display unit that is a part of the mental state estimation device. When the mental state estimation device has a display unit, the second output unit may output the estimation result to the display unit.
また、上記実施の形態等における推定部は、さらに対象者の精神状態に対するアンケート(例えば、ストレスチェック)、勤怠情報などに基づいて、対象者の精神状態を推定してもよい。 Further, the estimation unit in the above-described embodiments and the like may further estimate the mental state of the subject based on a questionnaire (for example, stress check) regarding the subject's mental state, attendance information, and the like.
また、上記実施の形態等における推定部が、現在の笑顔度が時系列データ(例えば、直近に取得した笑顔度)に対して大きく低下しており(つまり、精神状態が急激に悪化している)、かつ現在の笑顔度が閾値より低いと判定した場合、第二出力部は、精神状態が急激に悪化していることを示す情報を端末装置に出力してもよい。つまり、推定部は、笑顔度の変化度に基づいて、精神状態を推定してもよい。なお、直近に取得した笑顔度とは、例えば、現在に最も近い時点で取得された数回分の笑顔度である。これにより、閾値には達していないが、急激に精神状態が悪化していることを対象者に知らせることができる。 In addition, the estimation unit in the above-described embodiment or the like greatly decreases the current smile degree with respect to the time-series data (for example, the latest smile degree acquired) (that is, the mental state deteriorates sharply). ), and when it is determined that the current smile degree is lower than the threshold value, the second output unit may output information indicating that the mental state is rapidly deteriorating to the terminal device. That is, the estimation unit may estimate the mental state based on the degree of change in the degree of smile. The most recently acquired smile degree is, for example, the smile degree for several times acquired at the time closest to the present time. As a result, it is possible to notify the subject that the mental condition is rapidly deteriorating, although the threshold has not been reached.
また、上記実施の形態等では、第二出力部は、精神状態が良いか悪いかを出力していたが、これに限定されない。第二出力部は、例えば、精神状態を数値化(例えば、0〜100)した結果を出力してもよい。 Further, in the above-described embodiment and the like, the second output unit outputs whether the mental state is good or bad, but the present invention is not limited to this. The second output unit may output, for example, the result of digitizing the mental state (for example, 0 to 100).
また、上記実施の形態等では、第二出力部は端末装置に推定結果を出力する例について説明したが、これに限定されない。第二出力部は、推定結果を表示装置に出力してもよい。これにより、対象者は、端末装置を操作することなく、推定結果を知ることができる。 Further, in the above-described embodiments and the like, an example in which the second output unit outputs the estimation result to the terminal device has been described, but the present invention is not limited to this. The second output unit may output the estimation result to the display device. Thereby, the subject can know the estimation result without operating the terminal device.
また、上記実施の形態では、閾値算出部が算出する閾値が1つである例について説明したが、これに限定されない。閾値算出部は、2以上の閾値を算出してもよい。例えば、閾値算出部が笑顔度の低い場合の閾値を2以上算出することで、推定部は、対象者の精神状態の悪化の程度を推定することができる。また、例えば、閾値算出部が笑顔度の高いときと低いときの双方の閾値を算出することで、推定部は、対象者の精神状態が悪化している場合と、対象者の精神状態が通常時より好調である場合とを推定することができる。 Further, in the above embodiment, an example in which the threshold value calculation unit calculates one threshold value has been described, but the present invention is not limited to this. The threshold calculator may calculate two or more thresholds. For example, the estimation unit can estimate the degree of deterioration of the mental state of the target person by calculating two or more thresholds when the threshold calculation unit has a low degree of smile. Further, for example, the threshold calculation unit calculates the thresholds both when the smile level is high and when the smile level is low, so that the estimation unit determines that the mental state of the subject is deteriorated and that the mental state of the subject is normal. It can be estimated that the situation is better than time.
また、上記実施の形態等では、精神状態推定システムが備える撮像装置、表示装置、及び、端末装置は1つである例について説明したが、数は特に限定されず、2以上であってもよい。 Further, in the above-described embodiments and the like, the example in which the mental state estimation system includes one image pickup device, one display device, and one terminal device has been described, but the number is not particularly limited and may be two or more. ..
また、上記実施の形態等のフローチャートで説明された処理の順序は、一例である。複数の処理の順序は変更されてもよいし、複数の処理は並行して実行されてもよい。 Moreover, the order of the processes described in the flowcharts of the above-described embodiments and the like is an example. The order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel.
また、上記実施の形態等における装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信及び有線通信が組み合わされてもよい。また、上記実施の形態において2つの装置が通信を行う場合、2つの装置間には図示されない中継装置が介在してもよい。 Further, the communication method between the devices in the above-described embodiments and the like is not particularly limited. Wireless communication may be performed between devices, or wired communication may be performed. In addition, wireless communication and wired communication may be combined between the devices. Further, when two devices communicate with each other in the above embodiment, a relay device (not shown) may be interposed between the two devices.
また、上記実施の形態等において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiments and the like, each component may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 Further, each component may be realized by hardware. For example, each component may be a circuit (or integrated circuit). These circuits may constitute one circuit as a whole or may be separate circuits. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.
また、精神状態推定システムは、単一の装置(例えば、実施の形態に係る精神状態推定装置)として実現される例について説明したが、複数の装置によって実現されてもよい。精神状態推定システムが複数の装置によって実現される場合、精神状態推定システムが備える構成要素は、複数の装置にどのように振り分けられてもよい。 Further, the mental state estimation system has been described as an example realized as a single device (for example, the mental state estimation device according to the embodiment), but may be realized by a plurality of devices. When the mental state estimation system is realized by a plurality of devices, the components included in the mental state estimation system may be distributed to the plurality of devices in any way.
また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 Further, the general or specific aspects of the present invention may be realized by a recording medium such as a system, a device, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, the system, the device, the method, the integrated circuit, the computer program, and the recording medium may be implemented in any combination.
例えば、本発明は、精神状態推定システムなどのコンピュータによって実行される精神状態推定方法をコンピュータに実行させるためのプログラムとして実現されてもよい。また、精神状態推定システムが汎用の携帯端末として実現される場合、本発明は、汎用の携帯端末を精神状態推定システムとして動作させるために当該携帯端末にインストールされるアプリケーションプログラムとして実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。 For example, the present invention may be realized as a program for causing a computer to execute a mental state estimation method executed by a computer such as a mental state estimation system. When the mental state estimation system is implemented as a general-purpose mobile terminal, the present invention may be implemented as an application program installed in the mobile terminal in order to operate the general-purpose mobile terminal as the mental state estimation system. .. Further, the present invention may be realized as a computer-readable non-transitory recording medium in which such a program is recorded.
その他、実施の形態等に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, it is realized by making various modifications to those skilled in the art that are conceivable to those skilled in the art, or by arbitrarily combining the components and functions in the embodiments without departing from the spirit of the present invention. The form is also included in the present invention.
21 第一出力部
22 画像取得部
23 抽出部
24 記憶部
25 推定部
26 閾値算出部
27 第二出力部
28 行動指標取得部
100、100a 精神状態推定システム
U 対象者
21
Claims (9)
前記所定の表情の前記対象者を撮像した画像を取得する画像取得部と、
前記画像から前記対象者の表情指標を抽出する抽出部と、
対象時点以前の複数時点における前記表情指標を第一時系列データとして格納する記憶部と、
前記抽出部で抽出された前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記第一時系列データに基づいて、前記対象者の前記対象時点における精神状態を推定する推定部と、を備える
精神状態推定システム。 A first output unit for outputting information for prompting the subject to have a predetermined facial expression,
An image acquisition unit that acquires an image of the target person having the predetermined facial expression,
An extraction unit that extracts the facial expression index of the subject from the image,
A storage unit that stores the facial expression index at a plurality of time points before the target time point as first temporary series data,
An estimation unit that estimates the mental state of the subject at the target time point based on the facial expression index at the target time point extracted by the extraction unit and the temporary series data stored in the storage unit. And a mental state estimation system.
前記推定部は、さらに前記行動指標取得部が取得した前記行動指標に基づいて前記対象者の精神状態を推定する
請求項1に記載の精神状態推定システム。 Further comprising an action index acquisition unit that acquires the action index of the target person,
The mental state estimation system according to claim 1, wherein the estimation unit further estimates the mental state of the subject based on the action index acquired by the action index acquisition unit.
前記推定部は、さらに、前記行動指標取得部で取得された前記対象時点の前記行動指標、及び、前記記憶部に格納されている前記第二時系列データに基づいて、前記対象者の精神状態を推定する
請求項2に記載の精神状態推定システム。 The storage unit further stores a plurality of the behavior indicators acquired at different time points before the target time point as second time series data,
The estimation unit further, based on the behavior index at the target time point acquired by the behavior index acquisition unit, and the second time series data stored in the storage unit, the mental state of the target person. The mental state estimation system according to claim 2.
請求項2又は3に記載の精神状態推定システム。 The mental state estimation system according to claim 2, wherein the behavior index includes at least one of a posture, a walking speed, a stride, and physiological data of the subject.
前記推定部は、前記対象時点の前記表情指標が前記閾値以上及び前記閾値未満の一方の場合に精神状態が良好であり、前記対象時点の前記表情指標が前記閾値以上及び前記閾値未満の他方である場合にストレス状態であると推定する
請求項1〜4のいずれか1項に記載の精神状態推定システム。 Further comprising a threshold value calculation unit for calculating a threshold value from the temporary series data stored in the storage unit,
The estimation unit, if the facial expression index at the target time point is one of the threshold value or more and less than the threshold value, the mental state is good, and the facial expression index at the target time point is the threshold value or more and less than the threshold value on the other side. The mental state estimation system according to any one of claims 1 to 4, wherein it is estimated that the person is in a stressed state.
前記推定部は、少なくとも2つの前記表情指標に基づいて精神状態を推定する
請求項1〜5のいずれか1項に記載の精神状態推定システム。 The facial expression index includes at least two of a smile degree, a smile formation rate, mouth and eye positions, facial symmetry, face angle, and skin color,
The mental state estimation system according to claim 1, wherein the estimation unit estimates a mental state based on at least two facial expression indexes.
請求項1〜6のいずれか1項に記載の精神状態推定システム。 The mental state estimation system according to claim 1, further comprising a second output unit that outputs the estimation result of the estimation unit.
前記所定の表情の前記対象者を撮像した画像を取得するステップと、
前記画像から前記対象者の表情指標を抽出するステップと、
対象時点以前の複数時点における複数の前記表情指標を時系列データとして記憶部に格納するステップと、
前記対象時点の前記表情指標、及び、前記記憶部に格納されている前記時系列データに基づいて、前記対象者の精神状態を推定するステップとを含む
精神状態推定方法。 A step of outputting information for prompting the target person to have a predetermined facial expression,
Acquiring an image of the target person having the predetermined facial expression;
Extracting the facial expression index of the subject from the image,
Storing a plurality of the facial expression indexes at a plurality of time points before the target time point in the storage unit as time series data,
Estimating the mental state of the subject based on the facial expression index at the target time point and the time-series data stored in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014237A JP2020120908A (en) | 2019-01-30 | 2019-01-30 | Mental state estimation system, mental state estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014237A JP2020120908A (en) | 2019-01-30 | 2019-01-30 | Mental state estimation system, mental state estimation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020120908A true JP2020120908A (en) | 2020-08-13 |
Family
ID=71991535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019014237A Pending JP2020120908A (en) | 2019-01-30 | 2019-01-30 | Mental state estimation system, mental state estimation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020120908A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733763A (en) * | 2021-01-15 | 2021-04-30 | 北京华捷艾米科技有限公司 | Method and device for realizing man-machine voice interaction, electronic equipment and storage medium |
WO2022190187A1 (en) * | 2021-03-09 | 2022-09-15 | 株式会社ファセテラピー | Vibration information-providing system, vibration information-providing server device, vibration information acquisition device, vibration information-providing method, program for vibration information provision and program for vibration information acquisition |
WO2023145350A1 (en) * | 2022-01-25 | 2023-08-03 | パナソニックIpマネジメント株式会社 | Information processing method, information processing system, and program |
WO2023171356A1 (en) * | 2022-03-07 | 2023-09-14 | ソニーグループ株式会社 | Patient monitoring system, patient monitoring method, and program |
WO2023171162A1 (en) * | 2022-03-09 | 2023-09-14 | オムロン株式会社 | Psychological state estimation device and psychological state estimation method |
EP4331483A1 (en) | 2022-08-29 | 2024-03-06 | ASICS Corporation | Emotion estimating device, emotion estimating system, and emotion estimating method |
-
2019
- 2019-01-30 JP JP2019014237A patent/JP2020120908A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733763A (en) * | 2021-01-15 | 2021-04-30 | 北京华捷艾米科技有限公司 | Method and device for realizing man-machine voice interaction, electronic equipment and storage medium |
CN112733763B (en) * | 2021-01-15 | 2023-12-05 | 北京华捷艾米科技有限公司 | Method and device for realizing man-machine voice interaction, electronic equipment and storage medium |
WO2022190187A1 (en) * | 2021-03-09 | 2022-09-15 | 株式会社ファセテラピー | Vibration information-providing system, vibration information-providing server device, vibration information acquisition device, vibration information-providing method, program for vibration information provision and program for vibration information acquisition |
JP7554515B2 (en) | 2021-03-09 | 2024-09-20 | 株式会社ファセテラピー | Vibration information providing system, vibration information providing server device, vibration information acquiring device, vibration information providing method, vibration information providing program, and vibration information acquiring program |
WO2023145350A1 (en) * | 2022-01-25 | 2023-08-03 | パナソニックIpマネジメント株式会社 | Information processing method, information processing system, and program |
WO2023171356A1 (en) * | 2022-03-07 | 2023-09-14 | ソニーグループ株式会社 | Patient monitoring system, patient monitoring method, and program |
WO2023171162A1 (en) * | 2022-03-09 | 2023-09-14 | オムロン株式会社 | Psychological state estimation device and psychological state estimation method |
EP4331483A1 (en) | 2022-08-29 | 2024-03-06 | ASICS Corporation | Emotion estimating device, emotion estimating system, and emotion estimating method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020120908A (en) | Mental state estimation system, mental state estimation method, and program | |
JP7083809B2 (en) | Systems and methods for identifying and / or identifying and / or pain, fatigue, mood, and intent with privacy protection | |
JP6493680B2 (en) | Non-contact blood pressure measuring device and non-contact blood pressure measuring method | |
US10863939B2 (en) | Emotion estimating method, emotion estimating apparatus, and recording medium storing program | |
US10624586B2 (en) | Pulse wave measuring device, mobile device, medical equipment system and biological information communication system | |
US11638550B2 (en) | Systems and methods for stroke detection | |
US9642536B2 (en) | Mental state analysis using heart rate collection based on video imagery | |
US20170311864A1 (en) | Health care assisting device and health care assisting method | |
US20210161482A1 (en) | Information processing device, information processing method, and computer program | |
US9408562B2 (en) | Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program | |
EP3420713B1 (en) | Devices, system and methods for determining a priority level and/or conversation duration of a call | |
WO2014145204A1 (en) | Mental state analysis using heart rate collection based video imagery | |
US20180240543A1 (en) | Information processing apparatus, method and non-transitory computer-readable storage medium | |
CN113096808B (en) | Event prompting method, device, computer equipment and storage medium | |
Nooralishahi et al. | Robust remote heart rate estimation from multiple asynchronous noisy channels using autoregressive model with Kalman filter | |
JP2021194476A (en) | Information processing method, information processing system and program | |
Ruminski et al. | Estimation of respiration rate using an accelerometer and thermal camera in eGlasses | |
KR20210060246A (en) | The arraprus for obtaining biometiric data and method thereof | |
JP7314939B2 (en) | Image recognition program, image recognition device, learning program, and learning device | |
JP7325576B2 (en) | Terminal device, output method and computer program | |
EP4111984A1 (en) | Information processing method, computer program, information processing device, and information processing system | |
Kruger et al. | Sleep detection using de-identified depth data | |
Mankodiya et al. | Understanding User's Emotional Engagement to the Contents on a Smartphone Display: Psychiatric Prospective | |
Malasinghe et al. | Remote heart rate extraction using microsoft kinecttm V2. 0 | |
US11626087B2 (en) | Head-mounted device and control device thereof |