JP2013206320A - マルチモーダル型トラッキングシステム及びそのプログラム - Google Patents

マルチモーダル型トラッキングシステム及びそのプログラム Download PDF

Info

Publication number
JP2013206320A
JP2013206320A JP2012076924A JP2012076924A JP2013206320A JP 2013206320 A JP2013206320 A JP 2013206320A JP 2012076924 A JP2012076924 A JP 2012076924A JP 2012076924 A JP2012076924 A JP 2012076924A JP 2013206320 A JP2013206320 A JP 2013206320A
Authority
JP
Japan
Prior art keywords
value
information
mood state
response
state level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012076924A
Other languages
English (en)
Other versions
JP5987238B2 (ja
Inventor
Tomohiro Nishio
知宏 西尾
Katsunori Ishii
克典 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lassic
LASSIC CO Ltd
Original Assignee
Lassic
LASSIC CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lassic, LASSIC CO Ltd filed Critical Lassic
Priority to JP2012076924A priority Critical patent/JP5987238B2/ja
Publication of JP2013206320A publication Critical patent/JP2013206320A/ja
Application granted granted Critical
Publication of JP5987238B2 publication Critical patent/JP5987238B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】知識や経験値を必要とせず、迅速に的確な情報を出力することができるマルチモーダル型トラッキングシステム及びマルチモーダル型トラッキングプログラムを提供することである。
【解決手段】対象者の生体情報、社会環境情報、自己認知情報のうち、複数の情報を取得する取得部12cと、取得部12cで取得しうる情報から気分状態レベルを求める際に用いる各係数を定義した気分状態マスタと、気分状態レベルと応答とをそれぞれ対応させて定義した応答マスタと、気分状態マスタと、応答マスタとが記憶される記憶部12aと、取得部12cが取得した情報と、気分状態マスタと、応答マスタとに基づき、現在の気分状態レベルを算出して応答を生成する制御部12bと、生成した応答の出力先である出力部13bと、を備えたマルチモーダル型トラッキングシステムとする。
【選択図】図1

Description

本発明は、マルチモーダル型トラッキングシステム及びマルチモーダル型トラッキングプログラムに関する。
近年、気分状態であるメンタルヘルスを良好な状態に導くメンタルヘルスケアサービスが注目されている。通常は、診断対象者が治療者のもとを訪ね、治療者が診断対象者に問診し、治療者が診断して結果を伝える、という一連の流れで行われる。しかしながら、この診断結果は治療者の知識や経験値に大きく依存し、また的確な問診を行うための時間も必要となる。
そこで、コンピューターネットワークを用いた診断が提案されている。例えば、特許文献1には、ネットワーク接続されたコンピューターにより利用者の生活習慣を改善する技術が示されている。これによれば、利用者が入力した情報に基づいてコンピューターからアドバイスが出力される。
ところで、コンピューターへの入力方法に関して、音声情報や画像情報などのマルチメディア情報を入出力する技術であるマルチモーダルインターフェースが開発されている(特許文献2参照)。
特開2001−22837号公報 特許第3844874号公報
しかしながら、特許文献1では利用者から入力される日々の情報が少なく、生活習慣改善支援装置側で利用者の生活内容の多くは把握できない。一方、特許文献2ではマルチモーダルインターフェースを用いた具体的な応用例は示されていない。
上述したものも含めてメンタルヘルスケアサービスにおける課題は数多く、以下のような課題が挙げられる。まず、問診による診断は問診する人の知識と経験値によって、診断結果にバラツキが生じる。また、診断対象者の自己認知度や、伝達能力に差が存在するため、問診する人が診断を下すまでの情報収集に時間がかかる。診断対象者の自己認知度や、伝達能力に差が存在するため、問診する人の診断結果にバラツキが生じる。診断対象者は、気分障害を抱えている場合、自己認知すること自体が体調に悪影響を与えることがある。
また、診断対象者は、常時、自分自身のプライバシーが記録されることに心理的な負担を感じることがある。診断対象者は、治療者に問診を受けるための時間・労力・金銭等大きな投資負担が必要である。気分障害は診断対象者が感覚的に認知せず(自覚なしに)、いつの間にか罹患することが多い。診断対象者は、入院の場合を除き、その病状は生活の実態の把握なしに通院またはカウンセラー等との面談時のみで判断される
また、診断対象者の回復状態は、自己認知の陽性変容の持続時間で判断するが、その持続性を図るすべは本人申告である。診断対象者の気分を低下させる問題の対処には行動の事実の把握は必要とされているが、多くは自己申告に基づいている。診断対象者の気分を向上させる目的の問題対処(コーピング)は、問診者の経験に依存し行動事実の把握が不十分な場合逆コーピングとなり、気分を低下させる危険性がある
また、診断対象者の気分状態は、高揚と低下が時系列で波形を取ることが多いとされているが、それを常時測定することはない。診断対象者の気分状態の回復は、高揚と低下の時系列での波形の周期が長くなるとされているがそれを測定する手段が存在していなかった。診断対象者は人との接触回数が少ないため、状態を把握することが困難である。
また、気分障害者治療法で用いられる認知行動療法では、治療者が日常的に本人が意識せずに取ってしまう思考パターン(自動思考)を考察するが、自己申告または短時間なので、バラツキが生じる。パーソナリティ障害、恐怖症などは特定の行動のみで露見するが、治療者が本人の生活全ての情報を知りえないために、病状の特定に時間がかかる。
また、認知療法では不適切な認知を矯正するが、日常的に実践できているかどうかは治療者の断続的な観測と指導タイミングに依存し、自律的な習慣づけに時間がかかる。行動療法ではシェイピングという大きな目標に向けて段階的に行動内容を変えていくが、その行動記録は自己申告が主となり、真偽にはバラツキがある。行動療法の一つの自律訓練法では呼吸や脈、体温の調節を自己暗示によってコントロールする訓練だが、その物理的変化を一意にまたは時系列で認識することはない。
また、行動療法の際に、行動分析を行うが、行動の収集は主に本人からの自己申告によるためバラツキが生じ、結果誤診に繋がる可能性がある。診断対象者が未就学児童など、言語能力が未発達なために、言語だけで心理状態の変化を把握することができない、または障害を発見しにくい場合がある。診断対象者が未成年の場合、親などの監督者が行動を観察できない時の行動に問題がある場合があるが、その行動を客観的に記録するシステムがない。
また、診断対象者が感情の自己認知を表現することは悪いことだという信念(スキーマ)をもっている場合、心理変容の兆候はその他のバイタルサインで把握しなければならない。診断対象者がひとり暮らしの場合、日常的変化を発見するために、人との接触が必要だが、属人的で本人の社会性に依存している。診断対象者が身体障害(言語障害など)を持っている場合、診断に必要な情報が獲得しにくいことがある。
また、診断対象者が症状の治療中は、扶養者の支援が必要だが、支援には時間的な制約や条件があり、支援が必要な時に出来ない。診断対象者が労働者で休職中の場合、所属会社の上司の監督が必要とされているが、その状態把握は属人的である。幼少時のエピソードがうつ病の原因とされるが、その計測手段はない。
また、未就学児童の家庭内暴力などがPTSDなどの精神障害の原因とされるが、その兆候の発見はその家庭の社会性に依存しており、ばらつきがある。学校でのいじめによる自殺者は、その兆候の発見と対処がステークホルダーの心理的情報の収集力に依存する。アルコール依存症は、無意識に飲酒をしてしまう行動癖のため、その治療に向けた行動記録は入院する以外は自己申告でありバラツキがある。過食症などは、本人の無意識下の摂食行動が起因するが、その行動記録は入院する以外は自己申告でありバラツキがある。
本発明は、上記の課題を1つ以上解決するため、知識や経験値を必要とせず、迅速に的確な情報を出力することができるマルチモーダル型トラッキングシステム及びマルチモーダル型トラッキングプログラムを提供することを目的とする。
上記目的を達成するために本発明のマルチモーダル型トラッキングシステムは、対象者の生体情報、社会環境情報、自己認知情報のうち、複数の情報を取得する取得部と、
前記取得部で取得しうる情報から気分状態レベルを求める際に用いる各係数を定義した気分状態マスタと、
前記気分状態レベルと応答とをそれぞれ対応させて定義した応答マスタと、
前記気分状態マスタと、前記応答マスタとが記憶される記憶部と、
前記取得部が取得した情報と、前記気分状態マスタと、前記応答マスタとに基づき、現在の気分状態レベルを算出して応答を生成する制御部と、
前記生成した応答の出力先である出力部と、を備える。
上記のマルチモーダル型トラッキングシステムにおいて、前記生体情報は、音声情報、表情情報、顔面温度情報、眼球運動情報、脈拍情報、心拍情報、呼吸情報、血圧情報の中の少なくとも1以上の情報であることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記自己認知情報は、喜怒哀楽情報、性格的傾向情報の中の少なくとも1以上の情報であることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記社会環境情報は、パーソナルスペース情報であることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記取得部が取得する情報は、バイタルサイン検知装置により自動的に検出されたバイタルサインであることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記取得部が取得する情報は、前記対象者により入力装置に入力された情報であることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記取得部が取得する情報の1つ以上がバイタルサイン検知装置により自動的に検出されたバイタルサインである場合、
前記制御部は、
取得した各バイタルサインの所定時間当たりの変動値に前記係数を乗じ、それらの和を気分状態レベル第1算出値とし、
取得した各バイタルサインのある時間での変動値に前記係数を乗じ、それらの和を気分状態レベル第2算出値とし、
前記気分状態レベル第1算出値と前記気分状態レベル第2算出値とから、前記取得したバイタルサインが異常か安定化傾向か変化なしかを判定し、前記応答を生成する一要素とすることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記制御部は、
前記気分状態レベル第1算出値と第1閾値とを比較し、前記気分状態レベル第2算出値と第2閾値とを比較し、
気分状態レベル第1算出値>第1閾値、かつ気分状態レベル第2算出値≧第2閾値である場合、異常であると判定し、
気分状態レベル第1算出値>第1閾値、かつ気分状態レベル第2算出値<第2閾値である場合、安定化傾向であると判定し、
気分状態レベル第1算出値<第1閾値、かつ気分状態レベル第2算出値>第2閾値である場合、安定化傾向であると判定し、
気分状態レベル第1算出値<第1閾値、かつ気分状態レベル第2算出値≦第2閾値である場合、異常であると判定し、
気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値>第2閾値である場合、安定化傾向であると判定し、
気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値<第2閾値である場合、安定化傾向であると判定し、
気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値=第2閾値である場合、変化なしであると判定することが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、音声情報を音階化するとともに、音節数及び音声値を算出する音階化装置と、
音声情報を文字列化する文字列化装置と、
前記気分状態マスタの1つであり、音声状態と音階係数とをそれぞれ対応させて定義した音階マスタと、
前記気分状態マスタの1つであり、感情状態と感情係数とをそれぞれ対応させて定義した感情マスタと、を備え、
前記取得部が取得する情報の1つが音声情報である場合、
前記制御部は、
音階化の結果から音声状態を判定し、該当する音声状態に対応した前記音階係数と対象者固有の定数との和を算出し、該算出した値と前記音声値との積を前記音節数で除して気分状態レベル第3算出値とし、
文字列化の結果から感情状態及び感情を表す単語数を判定し、該当する感情状態に対応した前記感情係数と該単語数との積を、前記音節数が1から計測時間内の前記音節数まで合計した値を気分状態レベル第4算出値とし、
前記気分状態レベル第3算出値と前記気分状態レベル第4算出値との積に対しての計測時間内での合計値を計測時間内の前記音節数で除した値を感情値とし、前記応答を生成する一要素とすることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記取得部が取得する情報の1つが文字情報である場合、
前記制御部は、
前記文字情報から音節数、感情状態及び感情を表す単語数を判定し、該当する感情状態に対応した前記感情係数と該単語数との積を、前記音節数が1から計測時間内の前記音節数まで合計した値を前記気分状態レベル第4算出値とすることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記制御部は、
前記感情値と第3閾値とを比較し、
感情値>第3閾値、かつ前記安定化傾向であると判定されている場合、前記気分状態レベルを賞賛であると判断し、前記応答マスタ中の賞賛に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値=第3閾値、かつ前記安定化傾向であると判定されている場合、前記気分状態レベルを対処であると判断し、前記応答マスタ中の対処に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値<第3閾値、かつ前記安定化傾向であると判定されている場合、前記気分状態レベルを投げかけであると判断し、前記応答マスタ中の投げかけに分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値>第3閾値、かつ前記変化なしであると判定されている場合、前記気分状態レベルを投げかけであると判断し、前記応答マスタ中の投げかけに分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値=第3閾値、かつ前記変化なしであると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値<第3閾値、かつ前記変化なしであると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値>第3閾値、かつ前記異常であると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値=第3閾値、かつ前記異常であると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
感情値<第3閾値、かつ前記異常であると判定されている場合、前記気分状態レベルを投げかけであると判断し、前記応答マスタ中の投げかけに分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成することが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記記憶部に、前記気分状態レベルと出力した応答とを含む対象者の過去の個人データを記憶した行動特性情報マスタを備え、
前記制御部は、前記行動特性情報マスタの情報を加味して応答を生成することが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記出力部がスピーカーであることが望ましい。
また上記のマルチモーダル型トラッキングシステムにおいて、前記出力部が、携帯端末装置に搭載されていることが望ましい。
また本発明のマルチモーダル型トラッキングプログラムは、上記の何れかに記載のマルチモーダル型トラッキングシステムを稼働させるものである。
本発明によると、知識や経験値を必要とせず、迅速に的確な情報を出力することができるマルチモーダル型トラッキングシステム及びマルチモーダル型トラッキングプログラムを提供することができる。
本発明のマルチモーダル型トラッキングシステムの構成を示すブロック図である。 本発明のマルチモーダル型トラッキングシステムの動作を示すフローチャートである。 本発明のライフログマスタの一例である。 本発明のバイタルサインマスタの一例である。 本発明の顔面温度の一例である。 本発明の心拍数の一例である。 本発明の呼吸回数の一例である。 本発明の脈拍数の一例である。 本発明の表情の一例である。 本発明の眼球運動の一例である。 本発明の血圧の一例である。 本発明のパーソナルスペースの一例である。 本発明の自己認知度レベルの一例である。 本発明の音階マスタの一例である。 本発明の言語マスタの一例である。 本発明の感情マスタの一例である。 本発明の行動特性情報マスタの一例である。 本発明の応答マスタの一例である。 本発明の実施例である。
図1は、本発明のマルチモーダル型トラッキングシステムの構成を示すブロック図である。マルチモーダル型トラッキングシステム10は、インターネットなどの通信ネットワーク11に、サーバ装置などデータの蓄積及び演算が可能な中央装置12と、パーソナルコンピューターなどの端末装置13、14と、携帯電話機などの携帯端末装置15、16と、音階化装置26と、文字列化装置27が接続されて構成される。中央装置12及び端末装置13、14には、それぞれプリンターなどの印刷装置17〜19が接続されている。また、端末装置13、14には、カメラ20、23、マイク21、24、スピーカー22、25が接続されている。
各端末装置13、14及び携帯端末装置15、16は、キーやタッチパネルなどからなる入力部13a、14a、15a、16aと、文字や画像を表示する液晶表示装置などからなる出力部13b、14b、15b、16bとを備えている。また、携帯端末装置15、16は、カメラ15c、16c、マイク15d、16d、スピーカー15e、16eも備えている。ここで、カメラ及びマイクはバイタルサイン検知装置としての役割がある。
音階化装置26は、音声情報を音階化するとともに、音節数及び音声値を算出する装置である。文字列化装置27は、音声情報を文字列化する装置である。なお、音声情報を音階化するとともに、音節数及び音声値を算出する技術、音声情報を文字列化する技術は、従来から開発されている技術を適宜採用できる。
図1の構成では、中央装置12にマルチモーダル型トラッキングプログラムが格納されており、端末装置13、14及び携帯端末装置15、16は中央装置12との間で情報を送受信して出力部やスピーカーから出力したり、入力部やカメラやマイクから入力された情報を中央装置12へ送信したりする。
なお、印刷装置17〜19は必ずしも必要ではない。また、端末装置13、14及び携帯端末装置15、16は、何れか1つ以上あればよく、中央装置12は例えば演算装置(制御部12b)とデータベース(記憶部12a)と取得部12cとが別々であるなど複数の装置が連携しているものでもよい。また本発明のシステムは、必ずしも図1のような通信ネットワーク11で繋がった複数の装置から構成される必要はなく、通信ネットワーク11なしで直接装置同士を接続した構成であってもよいし、1つの装置内に全ての構成が組み込まれていてもよい。
次に、マルチモーダル型トラッキングシステム10におけるストレスのトラッキングから応答の自動生成について説明する。応答は個人(対象者)毎に現在の状況に適した応答が作成される。
図2は、マルチモーダル型トラッキングシステムの動作を示すフローチャートである。図中の破線はデータの流れを示している。ここでは、リハビリ中のNさん(対象者)の一日の活動に沿って応答を生成する場合を例に説明する。
ステップS10において、例えば、Nさんが起床したときなど、Nさんの活動が始まったときに、ベッドの近くに設置されたカメラ20がNさんの動きを撮影し、端末装置13を介して中央装置12へデータが送信されることで起床したことが検知される。また例えば、起床したNさんが携帯端末装置15の入力部15a等を操作してシステムにチェックインすることで中央装置12へデータが送信され起床したことが検知される。チェックインにはGPS(Global Positioning System)で検出された対象者の位置を用いることもできる。このようなNさんの活動のデータは、対象情報として、その時間情報及びライフログIDとともに記憶部12aのライフログマスタに記憶される。
図3にライフログマスタの一例を示す。起床、入眠、朝食、仕事など、対象者が行った活動をライフログとして、それぞれの活動を行った時刻(時間情報)及びIDとともに記されている。時間情報に対応する実際の時刻は記憶部12aに記憶された対応表(不図示)に記されている。
次に、取得部12cがNさんに関する複数の情報を取得すると、取得した情報に応じてステップS11、ステップS12、ステップS13の何れかに進む。ここで、取得部12cで取得しうる情報は、対象者の生体情報、社会環境情報、自己認知情報のうち、複数の情報である。
生体情報は、例えば、対象者が発した言葉による音声情報、表情情報、顔面温度情報、眼球運動情報、脈拍情報、心拍情報、呼吸情報、血圧情報の中の少なくとも1以上の情報である。自己認知情報は、例えば、喜怒哀楽情報、性格的傾向情報の中の少なくとも1以上の情報である。社会環境情報は、例えば、パーソナルスペース情報である。
取得部12cが取得する情報は、カメラやマイクにより自動的に検出されたバイタルサインなどであってもよいし、対象者により入力部に入力された情報であってもよい。例えば、カメラが対象者を撮影することにより、中央装置12で対象者の表情、顔面温度、眼球運動、脈拍、呼吸、血圧、パーソナルスペース、喜怒哀楽などの情報を解析できる。また、対象者が会話したり、本システムへ問いかけたりするために発した言葉をマイクで拾うことにより、中央装置12で音声情報を生成できる。また、対象者が電子メールを送信する行為など、入力部に入力された文字情報によって自己認知情報などを生成できる。
そして、取得部12cがバイタルサインを取得した場合はステップS11へ進んで、取得したバイタルサインをバイタルサインマスタに記憶する。本実施形態においてバイタルサインは、図4に示したバイタルサインマスタに適宜記憶され、各バイタルサインの具体的な数値は図4とIDによって関連づけられて記憶されている図5〜図13に記されている。図5は顔面温度(℃)、図6は心拍数(bpm)、図7は呼吸回数(回/分)、図8は脈拍数(bpm)、図9は表情(基準に対する眉間の長さの比)、図10は眼球運動((瞳孔径)mm)、図11は血圧(mmHg)、図12はパーソナルスペース(cm)、図13は自己認知度レベルをそれぞれ記している。
次にステップS11からステップS14へ進んで、制御部12bは、取得したバイタルサインから応答を生成するための各要素を算出する。具体的には、取得した各バイタルサインの所定時間当たりの変動値に所定の係数を乗じ、それらの和を気分状態レベル第1算出値V1とする。また、取得した各バイタルサインのある時間での変動値に所定の係数を乗じ、それらの和を気分状態レベル第2算出値V2とする。さらに、気分状態レベル第2算出値V2の積分値を気分状態レベル第5算出値V3とする。
V1は例えば以下のような式で表すことができる。
V1(tn)=a0+a1(FT(tn)−FT(t0))+a2(HB(tn)−HB(t0))+a3(BR(tn)−BR(t0))+a4(PR(tn)−PR(t0))+a5(EX(tn)−EX(t0))+a6(EB(tn)−EB(t0))+a7(BP(tn)−BP(t0))+a8(PS(tn)−PS(t0))+a9(SR(tn)−SR(t0))
式中、tnは時間間隔、t0は対象者が本システムを最初に利用した時、a0〜a9はバイタルサインの種類毎に予め定められた所定の係数、FTは顔面温度、HBは心拍数、BRは呼吸回数、PRは脈拍数、EXは表情、EBは眼球運動、BPは血圧、PSはパーソナルスペース、SRは自己認知度レベルである。
また、V2は例えば以下のような式で表すことができる。
V2(tn)=b0+b1dFT(tn)/dt+b2dHB(tn)/dt+b3dBR(tn)/dt+b4dPR(tn)/dt+b5dEX(tn)/dt+b6dEB(tn)/dt+b7dBP(tn)/dt+b8dPS(tn)/dt+b9dSR(tn)/dt
式中、b0〜b9はバイタルサインの種類毎に予め定められた所定の係数である。
また、V2は以下のような式で表すこともできる。
V2(tn)=(V1(tn)−V1(tn-1))/Δt=dV1(tn)/dt
また、V3は例えば以下のような式で表すことができる。
V3(tn)=∫V2(tn)dt (nは任意の計測区間)
続いてステップS14からステップS15へ進んで、制御部12bは、気分状態レベル第1算出値V1と気分状態レベル第2算出値V2とから、取得したバイタルサインが異常か安定化傾向か変化なしかを判定し、応答を生成する一要素とする。ここでは、取得部12cで取得しうる情報から気分状態レベルを求める際に用いる各係数を定義した気分状態マスタを用いる。気分状態マスタは記憶部12aに記憶され、バイタルサインマスタ、音階マスタ、感情マスタを含んでいる。
具体的には、制御部12bが、気分状態レベル第1算出値V1と第1閾値(例えば、0とする)とを比較し、気分状態レベル第2算出値V2と第2閾値(例えば、0とする)とを比較し、それらの大小関係から異常(例えば、Z=−1とする)か安定化傾向(例えば、Z=1とする)か変化なし(例えば、Z=0とする)かを判定する。
例えば、気分状態レベル第1算出値>第1閾値、かつ気分状態レベル第2算出値≧第2閾値である場合、異常であると判定する。すなわち、V1(tn)>0、かつV2(tn)≧0である場合、Z=−1と判定する。
また、気分状態レベル第1算出値>第1閾値、かつ気分状態レベル第2算出値<第2閾値である場合、安定化傾向であると判定する。すなわち、V1(tn)>0、かつV2(tn)<0である場合、Z=1と判定する。
また、気分状態レベル第1算出値<第1閾値、かつ気分状態レベル第2算出値>第2閾値である場合、安定化傾向であると判定する。すなわち、V1(tn)<0、かつV2(tn)>0である場合、Z=1と判定する。
また、気分状態レベル第1算出値<第1閾値、かつ気分状態レベル第2算出値≦第2閾値である場合、異常であると判定する。すなわち、V1(tn)<0、かつV2(tn)≦0である場合、Z=−1と判定する。
また、気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値>第2閾値である場合、安定化傾向であると判定する。すなわち、V1(tn)=0、かつV2(tn)>0である場合、Z=1と判定する。
また、気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値<第2閾値である場合、安定化傾向であると判定する。すなわち、V1(tn)=0、かつV2(tn)<0である場合、Z=1と判定する。
また、気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値=第2閾値である場合、変化なしであると判定する。すなわち、V1(tn)=0、かつV2(tn)=0である場合、Z=0と判定する。
一方、取得部12cが音声情報を取得した場合はステップS10からステップS12へ進んで、中央装置12はその音声情報を音階化装置26及び文字列化装置27へ送信する。そして、音階化装置26によって音声情報が音階化されるとともに、音節数及び音声値が算出され、中央装置12に送信される。一方、文字列化装置27によって音声情報が文字列化され、中央装置12に送信される。そして、中央装置12は、ステップS16において音階化されたデータを受信し、ステップS17において文字列化されたデータを受信する。
ステップS16からはステップS18へ進んで、制御部12bは、音階化の結果から音声状態を判定し、該当する音声状態に対応した音階係数と対象者固有の定数との和を算出し、該算出した値と音声値との積を音節数で除して気分状態レベル第3算出値MNとする。ここで、音声状態と音階係数とをそれぞれ対応させて定義した音階マスタが気分状態マスタの1つとして記憶部12aに記憶されている。また、対象者固有の定数は後述する行動特性情報マスタに記されている。
図14に音階マスタの一例を示す。興奮、平静、消沈などといった音声状態に対応して、ID及び係数が記されている。
気分状態レベル第3算出値MNは例えば以下のような式で表すことができる。
MN(tn)={Vo(tn)×(mn0+k1)}/VC
式中、Voは音声値、mn0は対象者固有の定数、k1は音声状態に対応した音階係数、VCは音節数である。
一方、ステップS17からはステップS13へ進んで、制御部12bは、文字列化の結果から感情状態及び感情を表す単語数を判定し、言語マスタに単語を記憶し、ライフログマスタにライフログを記憶する。
図15に言語マスタの一例を示す。疲れた、かなしいなどといった単語に対応してID及び時刻(時間情報)が記されている。時間情報に対応する実際の時刻は記憶部12aに記憶された対応表(不図示)に記されている。
次にステップS19へ進んで、制御部12bは、該当する感情状態に対応した感情係数と該単語数との積を、音節数が1から計測時間内の音節数まで合計した値を気分状態レベル第4算出値eとする。ここで、感情状態と感情係数とをそれぞれ対応させて定義した感情マスタが気分状態マスタの1つとして記憶部12aに記憶されている。
図16に感情マスタの一例を示す。楽しさ、満足、怒りなどといった感情状態に対応して、ID及び感情係数が記されている。
気分状態レベル第4算出値eは例えば以下のような式で表すことができる。
e(tn)=Σ(W(tn)×k2) <n=1→WC>
式中、Wは感情を表す単語数、k2は感情状態に対応した感情係数、WCは計測時間内の音節数である。
ステップS18及びステップS19からはステップS20へ進む。ステップS20において、制御部12bは、気分状態レベル第3算出値MNと気分状態レベル第4算出値eとの積に対しての計測時間内での合計値を計測時間内の音節数で除した値を感情値Eとし、応答を生成する一要素とする。
感情値Eは例えば以下のような式で表すことができる。
E(Δt)=Σ(e(tn)MN(tn)/WC(tn)) <tn-1→tn
一方、取得部12cが文字情報を取得した場合はステップS10からステップS13へ進む。ステップS13においては、上記と同様に制御部12bが、文字情報から音節数、感情状態及び感情を表す単語数を判定し、該当する感情状態に対応した感情係数と該単語数との積を、音節数が1から計測時間内の前記音節数まで合計した値を気分状態レベル第4算出値eとする。ステップS13からはステップS19を経てステップS20へ進み、上記と同様に処理する。
次に、ステップS20からステップS21へ進んで、制御部12bは、感情値Eを行動特性情報マスタの内容と比較する。ここで、行動特性情報マスタは気分状態レベルと出力した応答とを含む対象者の過去の個人データであり、記憶部12aに記憶されている。
図17に行動特性情報マスタの一例を示す。各IDに対応して、過去の感情値Eとそのときに出力した応答ID(応答ログ)などが記されている。
次に、ステップS21からステップS22へ進んで、感情値Eが同値の場合の応答IDを抽出する。この応答IDは、以下で応答を生成する際に加味する。
次に、ステップS22からステップS23へ進んで、応答マスタを用いて応答を生成する。応答マスタは気分状態レベルと応答とをそれぞれ対応させて定義したものであり、記憶部12aに記憶されている。
図18に応答マスタの一例を示す。応答の分類として、賞賛(ポジティブ)、対処(ネガティブ)、同意(ニュートラル)、投げかけ(問いかけ)に分かれており、それぞれID、応答(対象者へ向けて出力する内容)、得点(感情値Eの値)が記されている。
具体的には、制御部12bが、感情値Eと第3閾値(例えば、0とする)とを比較し、それらの大小関係と、上述した異常(例えば、Z=−1とする)か安定化傾向(例えば、Z=1とする)か変化なし(例えば、Z=0とする)かとの組み合わせから、賞賛(ポジティブ)、対処(ネガティブ)、同意(ニュートラル)、投げかけ(問いかけ)のうちどの分類であるかを判定し、その分類の中から感情値Eと同値の得点の応答を選んで生成する。
例えば、感情値>第3閾値、かつ安定化傾向であると判定されている場合、気分状態レベルを賞賛であると判断し、応答マスタ中の賞賛に分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値=第3閾値、かつ安定化傾向であると判定されている場合、気分状態レベルを対処であると判断し、応答マスタ中の対処に分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値<第3閾値、かつ安定化傾向であると判定されている場合、気分状態レベルを投げかけであると判断し、応答マスタ中の投げかけに分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値>第3閾値、かつ変化なしであると判定されている場合、気分状態レベルを投げかけであると判断し、応答マスタ中の投げかけに分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値=第3閾値、かつ変化なしであると判定されている場合、気分状態レベルを同意であると判断し、応答マスタ中の同意に分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値<第3閾値、かつ変化なしであると判定されている場合、気分状態レベルを同意であると判断し、応答マスタ中の同意に分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値>第3閾値、かつ異常であると判定されている場合、気分状態レベルを同意であると判断し、応答マスタ中の同意に分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値=第3閾値、かつ異常であると判定されている場合、気分状態レベルを同意であると判断し、応答マスタ中の同意に分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
また、感情値<第3閾値、かつ異常であると判定されている場合、気分状態レベルを投げかけであると判断し、応答マスタ中の投げかけに分類されている応答の中から、感情値Eと同値の得点に対応した応答を選んで生成する。
生成された応答は分類に応じてステップS24〜ステップS27の何れかに進んで何れかの出力部13b、14b、15b、16bへ表示する。このとき、対象者に最も近い出力部へ出力することが好ましい。なお、応答の出力先はスピーカーであってもよい。つまり、応答をスピーカーから音声で出力してもよい。また、表示と音声を両方出力してもよい。出力する文字列や音声への変換は文字列化装置27を用いて行うことができる。
このように、自動的に応答を出力することによって、知識や経験値を必要とせず、迅速に的確な助言を出力することができる。
ステップS24〜ステップS27からはステップS28へ進んで、次の応答の生成のために継続するか否かを判定する。次のバイタルサインなど、対象者の新たな情報を取得した場合は継続すると判定し、ステップS10に戻る。
一方、取得部12cが次の情報を一定時間取得しない場合は、計測時と同等の時間間隔による終了時点によるV3(tn)を算出し、計測時V3(tn-1)との差分をとる。そして、その差分が0未満の場合は安定化しているとみなされるため、継続しないと判定し、ステップS29へ進んで今回行った処理のログを行動特性情報マスタに記録し、本システムを待機状態へ移行する。反対に、その差分が0以上の場合は異常状態とみなされるため、終了の可否を診断対象者に問い、継続意志の場合はステップS10に戻り、終了意志の場合はステップS29へ進む。なお、待機状態とは、プログラムの終了であってもよい。
図19に、上述した実施形態の具体例を一覧で示す。これは一実施例であってこれに限定されるものではない。
上記の実施形態において、ステップS21、S22、S29は必須の構成ではない。また、バイタルサイン、音声情報、文字情報のうち少なくとも1つの種類から複数の情報を取得できればよい。
したがって、本発明は少なくとも以下の構成を備えていれば、本発明が目的とする効果を得ることができる。すなわち、対象者の生体情報、社会環境情報、自己認知情報のうち、複数の情報を取得する取得部と、前記取得部で取得しうる情報から気分状態レベルを求める際に用いる各係数を定義した気分状態マスタと、前記気分状態レベルと応答とをそれぞれ対応させて定義した応答マスタと、前記気分状態マスタと、前記応答マスタとが記憶される記憶部と、前記取得部が取得した情報と、前記気分状態マスタと、前記応答マスタとに基づき、現在の気分状態レベルを算出して応答を生成する制御部と、前記生成した応答の出力先である出力部と、を備えたマルチモーダル型トラッキングシステムである。
なお、対象者のバイタルサインと感情の異常性が一定期間経過後も安定しない場合、対象者が指定した緊急連絡先に自動的に中央装置12から連絡が送信されるようにしてもよい。また、対象者が高齢者である場合、一定時間バイタルサインが検知されないと、緊急連絡先に自動的に中央装置12から連絡が送信されるようにしてもよい。また、バイタルサインから睡眠時無呼吸を判別し、検出した場合にスピーカーから警告音を発するように制御してもよい。
なお、上記の各種パラメーターの値は一例であり、特に限定されるものではない。また、応答をはじめ、各種マスタの情報などは適宜印刷装置で印刷できるものとする。
なお、上記のメンタルヘルスケアサービスは、気分が優れない等の治療導入検討期、リハビリ勤務可能等の時期に行うサービスであり、治療行為には該当しない。
本発明は、メンタルヘルスケアのリハビリテーションに限られたことではなく、身体的なリハビリテーションにも利用することができる。さらに、整形外科のリハビリテーション、ジムトレーニングメニュー、ダイエットメニュー、メタボリック解消メニュー、学習塾の課題メニュー、職場マネジメント支援、人事考課システムなどにも応用できる。
10 マルチモーダル型トラッキングシステム
12a 記憶部
12b 制御部
12c 取得部
13a〜16a 入力部
13b〜16b 出力部
15、16 携帯端末装置
15e、16e、22、25 スピーカー
26 音階化装置
27 文字列化装置

Claims (15)

  1. 対象者の生体情報、社会環境情報、自己認知情報のうち、複数の情報を取得する取得部と、
    前記取得部で取得しうる情報から気分状態レベルを求める際に用いる各係数を定義した気分状態マスタと、
    前記気分状態レベルと応答とをそれぞれ対応させて定義した応答マスタと、
    前記気分状態マスタと、前記応答マスタとが記憶される記憶部と、
    前記取得部が取得した情報と、前記気分状態マスタと、前記応答マスタとに基づき、現在の気分状態レベルを算出して応答を生成する制御部と、
    前記生成した応答の出力先である出力部と、を備えたマルチモーダル型トラッキングシステム。
  2. 前記生体情報は、音声情報、表情情報、顔面温度情報、眼球運動情報、脈拍情報、心拍情報、呼吸情報、血圧情報の中の少なくとも1以上の情報であることを特徴とする請求項1記載のマルチモーダル型トラッキングシステム。
  3. 前記自己認知情報は、喜怒哀楽情報、性格的傾向情報の中の少なくとも1以上の情報であることを特徴とする請求項1又は2記載のマルチモーダル型トラッキングシステム。
  4. 前記社会環境情報は、パーソナルスペース情報であることを特徴とする請求項1〜3の何れかに記載のマルチモーダル型トラッキングシステム。
  5. 前記取得部が取得する情報は、バイタルサイン検知装置により自動的に検出されたバイタルサインであることを特徴とする請求項1〜4の何れかに記載のマルチモーダル型トラッキングシステム。
  6. 前記取得部が取得する情報は、前記対象者により入力装置に入力された情報であることを特徴とする請求項1〜5の何れかに記載のマルチモーダル型トラッキングシステム。
  7. 前記取得部が取得する情報の1つ以上がバイタルサイン検知装置により自動的に検出されたバイタルサインである場合、
    前記制御部は、
    取得した各バイタルサインの所定時間当たりの変動値に前記係数を乗じ、それらの和を気分状態レベル第1算出値とし、
    取得した各バイタルサインのある時間での変動値に前記係数を乗じ、それらの和を気分状態レベル第2算出値とし、
    前記気分状態レベル第1算出値と前記気分状態レベル第2算出値とから、前記取得したバイタルサインが異常か安定化傾向か変化なしかを判定し、前記応答を生成する一要素とすることを特徴とする請求項1〜6の何れかに記載のマルチモーダル型トラッキングシステム。
  8. 前記制御部は、
    前記気分状態レベル第1算出値と第1閾値とを比較し、前記気分状態レベル第2算出値と第2閾値とを比較し、
    気分状態レベル第1算出値>第1閾値、かつ気分状態レベル第2算出値≧第2閾値である場合、異常であると判定し、
    気分状態レベル第1算出値>第1閾値、かつ気分状態レベル第2算出値<第2閾値である場合、安定化傾向であると判定し、
    気分状態レベル第1算出値<第1閾値、かつ気分状態レベル第2算出値>第2閾値である場合、安定化傾向であると判定し、
    気分状態レベル第1算出値<第1閾値、かつ気分状態レベル第2算出値≦第2閾値である場合、異常であると判定し、
    気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値>第2閾値である場合、安定化傾向であると判定し、
    気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値<第2閾値である場合、安定化傾向であると判定し、
    気分状態レベル第1算出値=第1閾値、かつ気分状態レベル第2算出値=第2閾値である場合、変化なしであると判定する請求項7記載のマルチモーダル型トラッキングシステム。
  9. 音声情報を音階化するとともに、音節数及び音声値を算出する音階化装置と、
    音声情報を文字列化する文字列化装置と、
    前記気分状態マスタの1つであり、音声状態と音階係数とをそれぞれ対応させて定義した音階マスタと、
    前記気分状態マスタの1つであり、感情状態と感情係数とをそれぞれ対応させて定義した感情マスタと、を備え、
    前記取得部が取得する情報の1つが音声情報である場合、
    前記制御部は、
    音階化の結果から音声状態を判定し、該当する音声状態に対応した前記音階係数と対象者固有の定数との和を算出し、該算出した値と前記音声値との積を前記音節数で除して気分状態レベル第3算出値とし、
    文字列化の結果から感情状態及び感情を表す単語数を判定し、該当する感情状態に対応した前記感情係数と該単語数との積を、前記音節数が1から計測時間内の前記音節数まで合計した値を気分状態レベル第4算出値とし、
    前記気分状態レベル第3算出値と前記気分状態レベル第4算出値との積に対しての計測時間内での合計値を計測時間内の前記音節数で除した値を感情値とし、前記応答を生成する一要素とすることを特徴とする請求項8記載のマルチモーダル型トラッキングシステム。
  10. 前記取得部が取得する情報の1つが文字情報である場合、
    前記制御部は、
    前記文字情報から音節数、感情状態及び感情を表す単語数を判定し、該当する感情状態に対応した前記感情係数と該単語数との積を、前記音節数が1から計測時間内の前記音節数まで合計した値を前記気分状態レベル第4算出値とすることを特徴とする請求項9記載のマルチモーダル型トラッキングシステム。
  11. 前記制御部は、
    前記感情値と第3閾値とを比較し、
    感情値>第3閾値、かつ前記安定化傾向であると判定されている場合、前記気分状態レベルを賞賛であると判断し、前記応答マスタ中の賞賛に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値=第3閾値、かつ前記安定化傾向であると判定されている場合、前記気分状態レベルを対処であると判断し、前記応答マスタ中の対処に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値<第3閾値、かつ前記安定化傾向であると判定されている場合、前記気分状態レベルを投げかけであると判断し、前記応答マスタ中の投げかけに分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値>第3閾値、かつ前記変化なしであると判定されている場合、前記気分状態レベルを投げかけであると判断し、前記応答マスタ中の投げかけに分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値=第3閾値、かつ前記変化なしであると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値<第3閾値、かつ前記変化なしであると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値>第3閾値、かつ前記異常であると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値=第3閾値、かつ前記異常であると判定されている場合、前記気分状態レベルを同意であると判断し、前記応答マスタ中の同意に分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成し、
    感情値<第3閾値、かつ前記異常であると判定されている場合、前記気分状態レベルを投げかけであると判断し、前記応答マスタ中の投げかけに分類されている応答の中から、前記感情値と同値の得点に対応した応答を選んで生成することを特徴とする請求項9又は10記載のマルチモーダル型トラッキングシステム。
  12. 前記記憶部に、前記気分状態レベルと出力した応答とを含む対象者の過去の個人データを記憶した行動特性情報マスタを備え、
    前記制御部は、前記行動特性情報マスタの情報を加味して応答を生成することを特徴とする請求項1〜11の何れかに記載のマルチモーダル型トラッキングシステム。
  13. 前記出力部がスピーカーであることを特徴とする請求項1〜12の何れかに記載のマルチモーダル型トラッキングシステム。
  14. 前記出力部が、携帯端末装置に搭載されていることを特徴とする請求項1〜13の何れかに記載のマルチモーダル型トラッキングシステム。
  15. 請求項1〜14の何れかに記載のマルチモーダル型トラッキングシステムを稼働させるマルチモーダル型トラッキングプログラム。
JP2012076924A 2012-03-29 2012-03-29 マルチモーダル型トラッキングシステム及びそのプログラム Active JP5987238B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012076924A JP5987238B2 (ja) 2012-03-29 2012-03-29 マルチモーダル型トラッキングシステム及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012076924A JP5987238B2 (ja) 2012-03-29 2012-03-29 マルチモーダル型トラッキングシステム及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2013206320A true JP2013206320A (ja) 2013-10-07
JP5987238B2 JP5987238B2 (ja) 2016-09-07

Family

ID=49525293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012076924A Active JP5987238B2 (ja) 2012-03-29 2012-03-29 マルチモーダル型トラッキングシステム及びそのプログラム

Country Status (1)

Country Link
JP (1) JP5987238B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170094836A (ko) * 2016-02-12 2017-08-22 한국전자통신연구원 운전자의 감정상태 인식 장치 및 방법
CN113507892A (zh) * 2019-03-18 2021-10-15 欧姆龙健康医疗事业株式会社 生物体信息获取装置及生物体信息获取方法
WO2023145733A1 (ja) * 2022-01-26 2023-08-03 矢崎総業株式会社 健康管理装置、健康管理システム、及び健康管理方法
US11721415B2 (en) 2016-08-02 2023-08-08 Canon Medical Systems Corporation Medical information system, information processing terminal, medical information server and medical information providing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005244375A (ja) * 2004-02-25 2005-09-08 Sanyo Electric Co Ltd 通信装置、通信方法、通信プログラムおよびそれを用いた通信システム
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005244375A (ja) * 2004-02-25 2005-09-08 Sanyo Electric Co Ltd 通信装置、通信方法、通信プログラムおよびそれを用いた通信システム
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170094836A (ko) * 2016-02-12 2017-08-22 한국전자통신연구원 운전자의 감정상태 인식 장치 및 방법
KR102429822B1 (ko) * 2016-02-12 2022-08-08 한국전자통신연구원 운전자의 감정상태 인식 장치 및 방법
US11721415B2 (en) 2016-08-02 2023-08-08 Canon Medical Systems Corporation Medical information system, information processing terminal, medical information server and medical information providing method
CN113507892A (zh) * 2019-03-18 2021-10-15 欧姆龙健康医疗事业株式会社 生物体信息获取装置及生物体信息获取方法
WO2023145733A1 (ja) * 2022-01-26 2023-08-03 矢崎総業株式会社 健康管理装置、健康管理システム、及び健康管理方法

Also Published As

Publication number Publication date
JP5987238B2 (ja) 2016-09-07

Similar Documents

Publication Publication Date Title
Zucco et al. Sentiment analysis and affective computing for depression monitoring
Conti-Ramsden et al. Developmental trajectories of verbal and nonverbal skills in individuals with a history of specific language impairment: From childhood to adolescence
Sauter et al. Perceptual cues in nonverbal vocal expressions of emotion
US20190239791A1 (en) System and method to evaluate and predict mental condition
JP2021500209A (ja) 生理的状態を判定するシステム及び方法
US10376197B2 (en) Diagnosing system for consciousness level measurement and method thereof
JP6343823B2 (ja) 機械対話による感情推定システム及びそのプログラム
JP2019084249A (ja) 認知症診断装置、認知症診断方法、及び認知症診断プログラム
Magee et al. Music Therapy Assessment Tool for Awareness in Disorders of Consciousness (MATADOC): Reliability and validity of a measure to assess awareness in patients with disorders of consciousness
Leijdekkers et al. CaptureMyEmotion: A mobile app to improve emotion learning for autistic children using sensors
EP4052262A1 (en) Method and system for an interface to provide activity recommendations
Rocco et al. Beyond verbal behavior: an empirical analysis of speech rates in psychotherapy sessions
Dara et al. Impaired emotion processing from vocal and facial cues in frontotemporal dementia compared to right hemisphere stroke
Guohou et al. What reveals about depression level? The role of multimodal features at the level of interview questions
WO2022115701A1 (en) Method and system for detecting mood
WO2016092103A1 (en) Device, system and method for assessing information needs of a person
König et al. Measuring stress in health professionals over the phone using automatic speech analysis during the COVID-19 pandemic: observational pilot study
JP5987238B2 (ja) マルチモーダル型トラッキングシステム及びそのプログラム
CN116807476A (zh) 基于界面式情感交互的多模态心理健康评估系统及方法
Johnson Speech, voice, and communication
US20220165393A1 (en) System for the detection and management of mental, emotional, and behavioral disorders
US10820851B2 (en) Diagnosing system for consciousness level measurement and method thereof
Diederich et al. Mental health informatics: current approaches
Hajera et al. A Comparative analysis of psychological stress detection methods
WO2022102721A1 (ja) うつ状態判別プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160721

R150 Certificate of patent or registration of utility model

Ref document number: 5987238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250