JP6986680B2 - ストレスマネジメントシステム及びストレスマネジメント方法 - Google Patents

ストレスマネジメントシステム及びストレスマネジメント方法 Download PDF

Info

Publication number
JP6986680B2
JP6986680B2 JP2017158668A JP2017158668A JP6986680B2 JP 6986680 B2 JP6986680 B2 JP 6986680B2 JP 2017158668 A JP2017158668 A JP 2017158668A JP 2017158668 A JP2017158668 A JP 2017158668A JP 6986680 B2 JP6986680 B2 JP 6986680B2
Authority
JP
Japan
Prior art keywords
stress
user
data
interpersonal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017158668A
Other languages
English (en)
Other versions
JP2018037073A (ja
Inventor
裕美 金子
敦 佐草
直美 富山
崇道 松迫
三紀子 松尾
裕一 青木
基司 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2018037073A publication Critical patent/JP2018037073A/ja
Application granted granted Critical
Publication of JP6986680B2 publication Critical patent/JP6986680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Hospice & Palliative Care (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Developmental Disabilities (AREA)
  • Data Mining & Analysis (AREA)
  • Cardiology (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示は、ユーザの精神的ストレスを管理するストレスマネジメントシステム及びストレスマネジメント方法に関する。
従来から、心拍数や血圧等の生体データを用いてユーザが精神的ストレスを抱えている度合い(以降、ストレスレベルと呼ぶ)を算出し、算出したストレスレベルを用いて、ユーザの精神的ストレスを管理する技術が知られている。
例えば、特許文献1には、被観測者の心拍数、体温、血圧及び発汗量を所定の係数を用いて重み付け加算した結果を、被観測者のストレス値として算出することが開示されている。また、被観測者が行っていた行動、そのときの被観測者のストレス値、及び行動をしている被観測者を撮像した画像を、互いに関連付けて時系列に記憶することが開示されている。そして、所定条件を満たすストレス値、例えば一日のうちの最大のストレス値に関連付けられた被観測者の行動及び画像を表示することが開示されている。
特開2012−249797号公報
ユーザの精神的ストレスを管理するストレスマネジメントシステムには、更なる改善が求められている。
本開示の限定的ではないある例示的な実施形態によれば、以下が提供される。
ユーザの精神的ストレスを管理するストレスマネジメントシステムであって、ユーザの生体データを検出する第1のセンサと、ユーザの行動履歴を表すライフログデータを検出する第2のセンサと、生体データを用いてユーザのストレスレベルの時系列変化を示すストレスデータを生成する生成部と、ストレスデータに含まれるストレスレベルが所定の閾値を超えた場合、ライフログデータを用いて、ユーザが抱えているストレスが他者との接触によって生じる対人ストレスであるか否かを推定する推定部と、推定部が推定した結果をユーザに通知する通知部と、を備えるストレスマネジメントシステム。
包括的または具体的な態様は、素子、デバイス、装置、システム、集積回路または方法で実現されてもよい。また、包括的または具体的な態様は、素子、デバイス、装置、システム、集積回路および方法の任意の組み合わせによって実現されてもよい。
開示された実施形態の追加的な効果および利点は、明細書および図面から明らかになる。効果および/または利点は、明細書および図面に開示の様々な実施形態または特徴によって個々に提供され、これらの1つ以上を得るために全てを必要とはしない。
本開示の第1の実施形態に係るストレスマネジメントシステムの全体像を示す図である。 本開示の第1の実施形態に係るストレスマネジメントシステムの機能構成の一例を示すブロック図である。 生体データ検出処理及び生体データ記憶処理の動作を示すフローチャートである。 生体データ記憶部に記憶されているデータの一例を示す図である。 ライフログデータ検出処理及びライフログデータ記憶処理の動作を示すフローチャートである。 ライフログ記憶部に記憶されているデータの一例を示す図である。 ストレス推定処理の動作を示すフローチャートである。 原因推定処理の動作を示すフローチャートである。 対人ストレス用語テーブルの一例を示す図である。 スケジュール記憶部に記憶されているデータの一例を示す図である。 専門種類決定テーブルの一例を示す図である。 専門用語テーブルの一例を示す図である。 一般用語テーブルの一例を示す図である。 緩和方法探索処理の動作を示すフローチャートである。 固有緩和方法テーブルの一例を示す図である。 プロファイル記憶部に記憶されているデータの一例を示す図である。 一般緩和方法テーブルの一例を示す図である。 固有緩和方法学習処理の動作を示すフローチャートである。
(本開示の基礎となった知見)
近年、企業において、他者と接触する行動が原因で生じる対人ストレス、例えばパワハラ、セクハラが原因で、離職する社員が増加する傾向にあることが問題となっている。また、学校においても、対人ストレス、例えば、いじめ、仲間はずれが原因で、登校を拒否する生徒が増加する傾向にあることが問題となっている。
一方、近年、ウェアラブル端末を用いて非接触で生体データを測定することが可能となってきている。このため、生体データからユーザのストレスレベルを把握することが従来よりも容易となってきている。また、スマートフォン等の携帯端末、及び会議室や教室に備えられたカメラやマイクを用いることによって、社員や生徒の行動履歴を表す所謂ライフログデータを、画像データや音声データとして記憶することが容易となってきている。
そこで、これらの技術を上記特許文献1に開示の技術に適用し、生体データから把握したユーザのストレスレベルと、ライフログデータとを関連付けて記憶することが考えられる。そして、ストレスレベルが所定の閾値を超えるといった条件を満たし、ユーザが何らかのストレスを抱えていると考えられるときのユーザの行動と画像とを表示することが考えられる。
しかし、この場合、ユーザは、ストレスレベルの増加に影響を与えた行動に気づくことはできても、自身が抱えているストレスが、当該行動時の緊張や不安等、自身の気持ちが原因で生じたストレスであるのか、当該行動時に接触した他者の発言や態度等、他者と接触した行動が原因で生じた対人ストレスであるのかを判断することができない。このため、ユーザは、対人ストレスを抱えているにも関わらず、自身の気持ちが原因で生じるストレスを抱えているものと誤って判断する虞がある。その結果、ユーザは、抱えている対人ストレスを緩和することができず、上記問題を解決できない虞がある。
上記の知見に基づき、本願発明者らは、対人ストレスを抱えていることをユーザに如何に気付かせるべきかについて鋭意検討を行った。その結果、本開示を完成した。
すなわち、上記の従来技術では、第1の課題として、他者と接触する行動が原因で生じる対人ストレスを抱えていることをユーザに気付かせるには、更なる改善が必要であった。また、第2の課題として、当該対人ストレスの具体的な原因を当該ユーザに気付かせるには、更なる改善が必要であった。
本開示は、上記の課題を解決するためになされたものであり、対人ストレスを抱えていることをユーザに気付かせることができるストレスマネジメントシステム及びストレスマネジメント方法を提供することを目的とする。
本開示の一態様の概要は以下のとおりである。
[項目1]
ユーザの精神的ストレスを管理するストレスマネジメントシステムであって、
ユーザの生体データを検出する第1のセンサと、
ユーザの行動履歴を表すライフログデータを検出する第2のセンサと、
前記生体データを用いてユーザのストレスレベルの時系列変化を示すストレスデータを生成する生成部と、
前記ストレスデータに含まれるストレスレベルが所定の閾値を超えた場合、前記ライフログデータを用いて、ユーザが抱えているストレスが他者との接触によって生じる対人ストレスであるか否かを推定する推定部と、
前記推定部が推定した結果をユーザに通知する通知部と、
を備えるストレスマネジメントシステム。
項目1の構成によれば、生体データを用いて生成されたユーザのストレスレベルが閾値を超えた場合、例えば当該ストレスレベルの増加に影響を及ぼした生体データの検出時点に対応するライフログデータを用いて、ユーザが抱えているストレスが対人ストレスであるか否かが推定される。そして、ユーザが抱えているストレスが対人ストレスであると推定された場合、当該推定の結果がユーザに通知される。これにより、ストレスレベルが閾値を超える程度にまで対人ストレスを抱えていることをユーザに気付かせることができる。
[項目2]
前記推定部は、ユーザが抱えているストレスが対人ストレスであると推定された場合、前記ライフログデータを用いて、対人ストレスの種類と対人ストレスの原因である加害者とを更に推定する、項目1に記載のストレスマネジメントシステム。
項目2の構成によれば、ユーザが抱えている対人ストレスの種類と、当該対人ストレスの原因である加害者と、を推定した結果が更にユーザに通知される。これにより、ユーザが抱えている対人ストレスがどの人物と接触した行動が原因で生じた、どのような種類の対人ストレスであるのかを、ユーザに更に気付かせることができる。その結果、ユーザは、自身が抱えている対人ストレスを低下させるための適切な対処を行い易くなる。
[項目3]
前記ライフログデータは、ユーザを撮影した画像データを含む、項目2に記載のストレスマネジメントシステム。
項目3の構成によれば、推定部が前記推定を行うときに用いるライフログデータに、ユーザが行動している時の様子を表す画像データが含まれる。このため、推定部は、ライフログデータに含まれる画像データを用いて画像認識処理を実行する等して、ユーザが行動している時に接触した人物を認識することができる。その結果、推定部は、当該認識結果から、ユーザが誰と接触したのかを適切に把握して、対人ストレスの原因である加害者を精度良く推定することができる。
[項目4]
前記ライフログデータは、ユーザの会話を録音した音声データを含む、項目1から3の何れか一項に記載のストレスマネジメントシステム。
項目4の構成によれば、推定部が前記推定を行うときに用いるライフログデータに、ユーザが行動している時の会話を表す音声データが含まれる。このため、推定部は、例えばライフログデータに含まれる音声データを用いて声紋認識処理及び音声認識処理を実行して、ユーザが行動している時の会話を行った人物及び会話の内容を認識することができる。その結果、推定部は、当該認識結果から、ユーザが誰とどのような種類の行動を行っているかを適切に把握して、精度の良い前記推定を行うことができる。
[項目5]
対人ストレスの種類と、各種類の対人ストレスを緩和させるためのストレス緩和方法とを対応付けた第1のテーブルを記憶する第1の記憶部を更に備え、
前記通知部は、前記第1のテーブルを参照して、前記推定部が推定した対人ストレスの種類に対応するストレス緩和方法をユーザに通知する、項目2に記載のストレスマネジメントシステム。
項目5の構成によれば、ユーザが抱えている対人ストレスを緩和させるためのストレス緩和方法がユーザに通知される。このため、ユーザは、不要な対処を行わずに、当該通知されたストレス緩和方法に従って行動することで、自身が抱えている対人ストレスを効率よく緩和させることができる。
[項目6]
前記第1のテーブルにおいて、ストレス緩和方法に対し、ストレス緩和方法に従って行動する場合に利用可能な商品を表す商品情報が更に対応付けられており、
前記通知部は、前記第1のテーブルを参照して、前記推定部が推定した対人ストレスの種類に対応するストレス緩和方法に対応する商品情報をユーザに通知する、項目5に記載のストレスマネジメントシステム。
項目6の構成によれば、ストレス緩和方法に従って行動する場合に利用可能な商品を表す商品情報がユーザに更に通知される。これにより、ユーザが通知されたストレス緩和方法に従って行動する場合に、当該商品情報が表す商品をユーザが利用する機会を増加させることができる。
[項目7]
複数のユーザのそれぞれに対して、対人ストレスの種類と、各種類の対人ストレスを緩和させるためのストレス緩和方法とを対応付けた第1のテーブルを記憶する第1の記憶部と、
前記複数のユーザのそれぞれに対して、ユーザのプロファイルを対応付けた第2のテーブルを記憶する第2の記憶部と、
を更に備え、
前記通知部は、前記第1のテーブルを参照して、第1のユーザに対応付けられた対人ストレスの種類であって、前記第1のユーザに対して前記推定部が推定した対人ストレスの種類に対応付けられたストレス緩和方法が存在しないとき、前記第2のテーブルを参照して、前記第1のユーザのプロファイルと類似するプロファイルを有する第2のユーザを特定し、前記第1のテーブルを参照して、前記第2のユーザに対応付けられた対人ストレスの種類であって、前記第1のユーザに対して前記推定部が推定した対人ストレスの種類に対応付けられたストレス緩和方法を、前記第1のユーザに通知する、項目2に記載のストレスマネジメントシステム。
第1のユーザの第1の対人ストレスを緩和させるためのストレス緩和方法は、第1のユーザと特徴が類似する第2のユーザの、第1の対人ストレスと同じ種類の対人ストレスを緩和させるためのストレス緩和方法と略同じと考えられる。
本態様では、第1の記憶部が記憶している第1のユーザのストレス緩和方法の中に、第1の対人ストレスの種類に対応付けられているストレス緩和方法が存在しないときは、第1のユーザの特徴と類似する特徴を有する第2のユーザの、第1の対人ストレスの種類と同じ対人ストレスの種類に対応付けられているストレス緩和方法が通知される。
つまり、項目7の構成によれば、特徴が互いに類似する第1及び第2ユーザのストレス緩和方法を、第1及び第2のユーザのストレス緩和方法として個別に第1の記憶部に記憶しなくてもよい。項目7の構成によれば、第1又は第2のユーザのストレス緩和方法として第1の記憶部に記憶するだけで、第1及び第2のユーザに当該ストレス緩和方法を通知することができる。このように、本態様によれば、略同じと考えられるストレス緩和方法を重複して第1の記憶部に記憶することを回避できる。その結果、第1の記憶部の記憶領域を節約することができる。
[項目8]
前記通知部がストレス緩和方法を前記第1のユーザに通知した後、前記第1のユーザの前記ストレスデータに含まれるストレスレベルが前記閾値よりも低下した場合、前記第1のユーザの前記ライフログデータを用いて、対人ストレスを緩和させたストレス緩和方法を推定し、推定されたストレス緩和方法を、前記第1のユーザに対して前記推定部が推定した対人ストレスの種類に対応付けて前記第1のテーブルに記憶する学習部を更に備える、項目7に記載のストレスマネジメントシステム。
項目8の構成によれば、ストレス緩和方法が第1のユーザに通知された後、第1のユーザが抱えている第1の対人ストレスが、ストレスレベルが閾値よりも低下する程度になるまで緩和したときに、第1の対人ストレスを緩和させた方法が推定される。そして、当該推定された方法が、第1のユーザの第1の対人ストレスの種類に対応するストレス緩和方法として第1の記憶部に記憶される。このため、第1のユーザに手間をかけさせることなく、第1のユーザのストレス緩和方法を効率よく第1の記憶部に記憶することができる。
[項目9]
ユーザの行動予定を表すスケジュールデータを記憶する第3の記憶部を更に備え、
前記推定部は、前記スケジュールデータを用いて、ユーザが抱えているストレスが他者と接触によって生じる対人ストレスであるか否かを推定する、項目2に記載のストレスマネジメントシステム。
項目9の構成によれば、ライフログデータが表すユーザの行動履歴だけでなく、スケジュールデータが表すユーザの行動予定をも考慮して前記推定が行われる。このため、ライフログデータだけを用いて前記推定を行う場合よりも前記推定の精度を向上することができる。
[項目10]
前記第1のセンサ及び前記第2のセンサの両方を備えた端末を備える、項目1から9の何れか一項に記載のストレスマネジメントシステム。
項目10の構成によれば、第1のセンサ及び第2のセンサの両方を備えた端末を備えて、ストレスマネジメントシステムが構成される。このため、第1のセンサと第2のセンサとを、それぞれ個別の端末に備えたストレスマネジメントシステムよりも、構成を簡素化することができる。
また、本開示は、以上のような特徴的な構成を備えるストレスマネジメントシステムとして実現することができるだけでなく、ストレスマネジメントシステムが備える特徴的な構成に対応する特徴的な処理を実行するストレスマネジメント方法などとして実現することもできる。したがって、以下の他の態様でも、上記のストレスマネジメントシステムと同様の効果を奏することができる。
[項目11]
ユーザの精神的ストレスを管理するストレスマネジメント方法であって、
ユーザの生体データを検出し、
ユーザの行動履歴を表すライフログデータを検出し、
前記生体データを用いてユーザのストレスレベルの時系列変化を示すストレスデータを生成し、
前記ストレスデータに含まれるストレスレベルが所定の閾値を超えた場合、前記ライフログデータを用いて、ユーザが抱えているストレスが他者と接触によって生じる対人ストレスであるか否かを推定し、
推定された結果をユーザに通知する、
ストレスマネジメント方法。
また、上記のストレスマネジメント方法に含まれる特徴的な処理をコンピュータに実行させるコンピュータプログラムとして実現してもよい。そして、このようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体又はインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
尚、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、全ての実施の形態において、各々の内容を組み合わせることもできる。
(第1の実施形態)
(システムの全体像)
以下、本開示の実施の形態について、図面を参照しながら説明する。図1は、本開示の第1の実施形態に係るストレスマネジメントシステムの全体像を示す図である。図1に示すように、ストレスマネジメントシステム100は、ユーザが携帯する携帯端末2、会議室や教室等の所定の部屋に設置された監視装置3、LAN(Local Area Network)やインターネット等のネットワーク9及びサーバ1を備える。
携帯端末2には、ウェアラブル端末21、スマートフォン22、個人識別カード23等が含まれる。
ウェアラブル端末21及びスマートフォン22は、それぞれ、生体センサ、不揮発性メモリ及び無線通信回路を備える。生体センサは、ユーザの心拍数、体温、血圧、発汗量等の生体データを検出する。不揮発性メモリには、例えば、ユーザの識別情報(以降、ユーザIDと呼ぶ)が記憶されている。
ウェアラブル端末21の無線通信回路は、生体センサが検出した生体データ及び不揮発性メモリに記憶されているユーザIDを、無線通信によってスマートフォン22へ送信する。尚、ウェアラブル端末21の無線通信回路が、生体データ及びユーザIDを、無線通信によってネットワーク9を介してサーバ1へ送信してもよい。
スマートフォン22の無線通信回路は、ウェアラブル端末21から受信した生体データ及びユーザIDを、無線通信によってネットワーク9を介してサーバ1へ送信する。また、スマートフォン22の無線通信回路は、自身が検出した生体データ及び自身の不揮発性メモリに記憶されているユーザIDを、無線通信によってネットワーク9を介してサーバ1へ送信する。
スマートフォン22は、更に、スマートフォン22の周囲の音声を収音するマイク及びスマートフォン22の周囲の画像を撮影するカメラを備える。スマートフォン22の無線通信回路は、マイクによって収音された音声を表す音声データ、カメラによって撮影された画像を表す画像データ、不揮発性メモリに記憶されているユーザID、及び当該集音及び撮影が行われた日付及び時間帯を、ネットワーク9を介してサーバ1へ送信する。
個人識別カード23は、IC(Integrated Circuit)チップが内蔵された所謂ICカードである。個人識別カード23の表面には、ユーザの特徴であるプロファイルが印字されている。ユーザのプロファイルには、例えば、ユーザID、ユーザの顔を表す画像、氏名、及び所属部署が含まれる。個人識別カード23には、メモリチップ及び無線通信回路が内蔵されている。メモリチップには、例えば、ユーザのプロファイルを表すデータ(以降、プロファイルデータと呼ぶ)が記憶されている。無線通信回路は、個人識別カード23がカードリーダ33に近接したとき、或いは、接触したときに、カードリーダ33と無線通信を行う。例えば、無線通信回路は、メモリチップに記憶されているプロファイルデータを後述のカードリーダ33に送信する。カードリーダ33については後述する。
尚、個人識別カード23の無線通信回路が、メモリチップに記憶されているプロファイルデータを、無線通信によってネットワーク9を介してサーバ1へ送信するようにしてもよい。また、個人識別カード23に生体データを検出する生体センサを設けてもよい。これに合わせて、個人識別カード23の無線通信回路が、当該生体センサが検出した生体データを、後述のカードリーダ33へ送信するようにしてもよい。また、個人識別カード23の無線通信回路が、当該生体センサが検出した生体データを、ネットワーク9を介してサーバ1へ送信するようにしてもよい。
監視装置3には、例えば、収音マイク31、監視カメラ32、カードリーダ33が含まれる。
収音マイク31は、当該収音マイク31が設置された部屋の室内の音声を収音し、当該収音した音声を表す音声データ及び当該収音を行った日付及び時間帯を、ネットワーク9を介してサーバ1へ送信する。
監視カメラ32は、当該監視カメラ32が設置された部屋の室内全体の画像を撮影し、当該撮影した画像を表す画像データ及び当該撮影を行った日付及び時間帯を、ネットワーク9を介してサーバ1へ送信する。
カードリーダ33は、当該カードリーダ33が設置される部屋の扉付近等に設置されている。カードリーダ33は、ユーザが入室する場合等に、ユーザが携帯する個人識別カード23がカードリーダ33に近接したとき、或いは、個人識別カード23がカードリーダ33に接触されたとき、個人識別カード23内の無線通信回路と無線通信を行う。カードリーダ33は、当該無線通信によって、個人識別カード23内のメモリチップに記憶されているプロファイルデータを取得する。そして、カードリーダ33は、当該取得したプロファイルデータに含まれる所定の情報、例えば、ユーザIDを、ネットワーク9を介してサーバ1へ送信する。
サーバ1は、携帯端末2及び監視装置3から送信されたデータを、ネットワーク9を介して受信し、当該受信したデータを用いて所定の処理を実行する。サーバ1が実行する処理の詳細については後述する。
(機能構成)
次に、本開示の第1の実施形態に係るストレスマネジメントシステム100の機能構成について説明する。図2は、本開示の第1の実施形態に係るストレスマネジメントシステム100の機能構成の一例を示すブロック図である。ストレスマネジメントシステム100は、生体データ検出部4、ライフログ検出部5、及びサーバ1として機能する。ここで、生体データ検出部4は、第1のセンサの一例であり、ライフログ検出部5は、第2のセンサの一例である。
生体データ検出部4は、図1に示したウェアラブル端末21やスマートフォン22によって構成される。生体データ検出部4は、ウェアラブル端末21やスマートフォン22に備えられた生体センサによってユーザの生体データを検出する。生体データ検出部4は、当該検出した生体データと、ウェアラブル端末21やスマートフォン22の不揮発性メモリに記憶されているユーザIDとを、ネットワーク9を介してサーバ1へ送信する。
ライフログ検出部5は、図1に示したスマートフォン22、個人識別カード23、及び監視装置3によって構成される。つまり、スマートフォン22は、生体データ検出部4及びライフログ検出部5の両方を備えた端末の一例である。ライフログ検出部5は、ユーザの行動履歴を示すライフログデータを検出し、当該検出したライフログデータと、ユーザIDと、ユーザの行動が行われた日付及び時間帯とを、ネットワーク9を介してサーバ1へ送信する。
具体的には、ライフログ検出部5は、ユーザが外食等の行動を行っているときに、スマートフォン22が備えるマイクによって収音した会話を表す音声データ、スマートフォン22が備えるカメラによって撮影した当該行動の様子を表す画像データを、ライフログデータとして検出する。そして、ライフログ検出部5は、当該ライフログデータと、スマートフォン22が備える不揮発性メモリに記憶されているユーザIDと、当該収音や当該撮影が行われた日付及び時間帯とをサーバ1へ送信する。
また、ライフログ検出部5は、監視装置3が設置された室内でユーザが例えば会議を行っているときに、収音マイク31によって収音した会話を表す音声データと、監視カメラ32によって撮影した当該行動の様子を表す画像データとをライフログデータとして検出する。そして、ライフログ検出部5は、当該ライフログデータと、カードリーダ33によって当該室内で行動する全ユーザの個人識別カード23から読み出したプロファイルデータに含まれる全ユーザのユーザIDと、当該収音や当該撮影が行われた日付及び時間帯とをサーバ1へ送信する。
サーバ1は、制御部10、記憶部15、表示部16、入力部17、及び通信部18として機能する。
制御部10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)等の揮発性メモリと、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の不揮発性メモリとを備えたマイクロコンピュータによって構成される。制御部10は、不揮発性メモリに記憶された制御プログラムをCPUに実行させることにより、サーバ1の各部の動作を制御する。制御部10は、生成部11、推定部12、通知部13、及び学習部14として動作する。生成部11、推定部12、通知部13、及び学習部14の詳細については後述する。
記憶部15は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置によって構成される。記憶部15が有する記憶領域は、生体データ記憶部151、ライフログ記憶部152、緩和方法記憶部153、プロファイル記憶部154、及びスケジュール記憶部155として使用される。ここで、緩和方法記憶部153は、第1の記憶部の一例であり、プロファイル記憶部154は、第2の記憶部の一例であり、スケジュール記憶部155は、第3の記憶部の一例である。生体データ記憶部151、ライフログ記憶部152、緩和方法記憶部153、プロファイル記憶部154及びスケジュール記憶部155の詳細については後述する。
表示部16は、例えば、液晶ディスプレイによって構成され、制御部10が行った処理の結果を表示する。尚、表示部16は、図1に示すネットワーク9を介してサーバ1と通信可能に接続される、タブレット端末等の表示装置で構成してもよい。
入力部17は、例えばタッチパネル又はハードウェアボタンを備え、ユーザからサーバ1に対する指示や情報の入力を受け付ける。
通信部18は、サーバ1が外部装置とネットワーク9を介して通信するための各種通信インターフェイス回路によって構成される。外部装置には、上記携帯端末2、上記監視装置3、及びメールサーバーやウェブサーバー等の不図示の外部サーバが含まれる。
(生体データ記憶処理)
以下、ストレスマネジメントシステム100の動作について説明する。生体データ検出部4は、定期的に、例えば1時間毎に、ユーザの生体データを検出する生体データ検出処理を実行する。一方、サーバ1では、制御部10が生体データ記憶処理を実行する。生体データ記憶処理とは、生体データ検出処理において検出された生体データを時系列に生体データ記憶部151に記憶する処理である。図3は、生体データ検出処理及び生体データ記憶処理の動作を示すフローチャートである。図4は、生体データ記憶部151に記憶されているデータの一例を示す図である。
具体的には、図3に示すように、生体データ検出部4は、生体データ検出処理を開始すると、ユーザの生体データを検出する(SU11)。そして、生体データ検出部4は、SU11で検出した生体データとユーザIDとをサーバ1へ送信する(SU12)。本実施形態では、生体データ検出部4は、SU11において、心拍数、体温、血圧、及び発汗量を生体データとして検出するとする。尚、生体データ検出部4は、これら4つの項目に限らず、脈拍等の他の項目を生体データとして検出してもよい。
一方、サーバ1の起動後、制御部10は生体データ記憶処理を開始する。その後、生体データ検出部4が送信した生体データ及びユーザIDが通信部18によって受信される(SS11;YES)。生体データ及びユーザIDが通信部18によって受信されると、制御部10は、図4に示すように、当該ユーザID(例えば「A」)と、当該生体データ及びユーザIDが受信された日付(例えば「2016/8/2」)及び時刻(例えば「10:30」)と、当該生体データ(例えば「心拍数Ba11、体温Ba12、血圧Ba13、発汗量Ba14」)とを対応付けて生体データ記憶部151に記憶する(SS12)。そして、制御部10は、処理をSS11に戻す。以降、SS11以降の処理が行われる。
通信部18によって、生体データ検出部4が送信した生体データ及びユーザIDが受信されなかった場合(SS11;NO)には、制御部10は処理をSS11に戻す。以降、SS11以降の処理が行われる。
(ライフログデータ記憶処理)
ライフログ検出部5は、ユーザが行動を終えたタイミングで、ユーザのライフログデータを検出するライフログデータ検出処理を実行する。一方、サーバ1では、制御部10がライフログデータ記憶処理を実行する。ライフログデータ記憶処理とは、ライフログデータ検出処理において検出されたライフログデータをライフログ記憶部152に記憶する処理である。図5は、ライフログデータ検出処理及びライフログデータ記憶処理の動作を示すフローチャートである。図6は、ライフログ記憶部152に記憶されているデータの一例を示す図である。
具体的には、図5に示すように、ライフログ検出部5は、ライフログデータ検出処理を開始すると、ユーザのライフログデータを検出する(SU21)。本実施形態では、ライフログ検出部5は、SU21において、ユーザが行動しているときの音声を表す音声データをライフログデータとして検出する。そして、ライフログ検出部5は、当該検出したライフログデータと、ユーザIDと、当該音声を収音した日付及び時間帯とをサーバ1へ送信する(SU22)。
一方、サーバ1の起動後、制御部10はライフログデータ記憶処理を開始する。その後、ライフログ検出部5が送信したライフログデータ、ユーザID、及び日付及び時間帯が、通信部18によって受信される(SS21;YES)。ライフログデータ、ユーザID、及び日付及び時間帯が、通信部18によって受信されると、制御部10は、図6に示すように、当該ユーザID、当該日付及び時間帯と、当該ライフログデータとを対応付けてライフログ記憶部152に記憶する(SS22)。そして、制御部10は、処理をSS21に戻す。以降、SS21以降の処理が行われる。
例えば、図6における第1行目のデータは、SU22において、ユーザID「A」で識別されるユーザが携帯するスマートフォン22のマイクによって検出されたライフログデータ「音声データA1」と、当該ユーザID「A」と当該マイクによって音声が収音された日付「2016/8/2」及び時間帯「10:00−12:00」とが送信された場合に、SS22において記憶されたデータを示している。
また、図6における第4行目のデータは、SU22において、収音マイク31によって検出されたライフログデータ(「音声データA4」)と、ユーザID「C」で識別されるユーザ及びユーザID「D」で識別されるユーザが携帯する個人識別カード23から読み出したユーザID「C、D」と、収音マイク31によって音声が収音された日付「2016/8/2」及び時間帯「16:00−17:00」とが送信された場合に、SS22において記憶されたデータを示している。
(ストレス推定処理)
そして、サーバ1では、夜間の所定時刻(例えば午前0時)や定期的な時間間隔(例えば2時間毎)等の所定のタイミングで、制御部10によってストレス推定処理が行われる。ストレス推定処理とは、生体データを用いてユーザがストレスを抱えていると判定した場合に、ライフログデータを用いてストレスの種類等を推定し、当該推定の結果をユーザに通知する処理である。以下、ストレス推定処理の動作について説明する。図7は、ストレス推定処理の動作を示すフローチャートである。
図7に示すように、ストレス推定処理が開始されると、生成部11は、生体データ記憶部151に記憶されている各ユーザの生体データを用いて、各ユーザのストレスレベルの時系列変化を示すストレスデータを生成する(S100)。
以下、S100について詳述する。例えば、生体データ記憶部151には、図4に示すデータが記憶されているとする。この場合、S100において、生成部11は、生体データ記憶部151に記憶されている一のユーザID「A」を取得する。
次に、生成部11は、生体データ記憶部151から、当該取得した一のユーザID「A」に対応付けられている一以上の生体データ「心拍数Ba11、体温Ba12、血圧Ba13、発汗量Ba14」、及び「心拍数Ba31、体温Ba32、血圧Ba33、発汗量Ba34」を参照する。参照する順番は、各生体データに対応付けられた日付及び時刻が示す、当該各生体データの検出時点が古いものから順に一つずつ参照する。ここでは、「2016/8/2 10:30」、「2016/8/2 11:30」の順に参照する。
そして、生成部11は、参照した一の生体データ「心拍数Ba11、・・・」に含まれる心拍数Ba11、体温Ba12、血圧Ba13及び発汗量Ba14を用いて、当該一の生体データ「心拍数Ba11、・・・」の検出時点「2016/8/2 10:30」におけるストレスレベルを算出する。
具体的には、生成部11は、心拍数Ba11と所定の第1係数の積と、体温Ba12と所定の第2係数の積と、血圧Ba13と所定の第3係数の積と、発汗量Ba14と所定の第4係数の積とを算出し、これら4つの積の総和をストレスレベルとして算出する。尚、生成部11による生体データを用いたストレスレベルの算出方法はこれに限らず、生体データ検出部4が生体データとして検出する項目に応じて適宜変更してもよい。
同様にして、生成部11は、上記取得した生体データのうち、他の生体データ「心拍数Ba31、・・・」を用いて、当該他の生体データ「心拍数Ba11、・・・」の検出時点「2016/8/2 11:30」におけるストレスレベルを算出する。
そして、生成部11は、算出した各ストレスレベルを算出順に並べたデータを、一のユーザID「A」で識別されるユーザのストレスレベルの時系列変化を示すストレスデータとして生成する。同様にして、生成部11は、生体データ記憶部151に記憶されている他のユーザIDを取得し、取得した他のユーザIDで識別されるユーザのストレスレベルの時系列変化を示すストレスデータを生成する。
図7を再び参照する。次に、推定部12は、S100で算出した各ユーザのストレスデータに含まれるストレスレベルが所定の閾値を超えているか否かを判定する(S200)。推定部12は、ある一のユーザのストレスレベルが所定の閾値を超えていると判定した場合(S200;YES)、当該一のユーザがストレスを抱えている状態であると判断し、当該一のユーザを対象ユーザとして、当該ストレスの原因を推定する原因推定処理を実行する(S300)。
具体的には、推定部12は、S300の原因推定処理において、対象ユーザのストレスレベルの増加に影響を及ぼした生体データの検出時点に対応するライフログデータを用いて、対象ユーザが抱えているストレスの種類を推定する。また、推定部12は、対象ユーザが抱えているストレスが他者と接触する行動が原因で生じる対人ストレスであると推定した場合、当該推定に用いたライフログデータを用いて、当該対人ストレスの原因である加害者を更に推定する。S300の原因推定処理の詳細は後述する。
S300の後、通知部13は、緩和方法探索処理を実行する(S400)。通知部13は、S400の緩和方法探索処理において、S300において推定された種類のストレスを緩和させるためのストレス緩和方法を探索する。S400の緩和方法探索処理の詳細は後述する。
S400の後、通知部13は、S300における推定の結果と、S400において探索したストレス緩和方法とを対象ユーザに通知する(S500)。S200でストレスレベルが閾値を超えると判定された各ユーザを対象ユーザとして、それぞれ、S300、S400及びS500が行われた後、ストレス推定処理は終了する。これにより、ストレスレベルが閾値を超える程度にまで対人ストレスを抱えていることを各ユーザに気付かせることができる。
以下、S500について詳述する。記憶部15には、ストレスマネジメントシステム100のユーザが利用可能な宛先が、ユーザIDと対応付けて予め記憶されている。宛先には、メールアドレスやユーザが使用するパソコンのIPアドレス等が含まれる。
S500において、通知部13は、記憶部15から、対象ユーザのユーザIDに対応付けられている宛先を取得する。そして、通知部13は、通信部18によって、S300における推定の結果とS400において探索したストレス緩和方法とを含むメッセージを、取得した宛先へ送信する。
一方、推定部12は、S200において、どのユーザのストレスレベルも前記閾値を超えていないと判定した場合(S200;NO)、ストレス推定処理を終了する。
(原因推定処理)
以下、図7に示すS300の原因推定処理について詳述する。図8は、原因推定処理の動作を示すフローチャートである。図8に示すように、推定部12は、原因推定処理を開始すると、ストレスレベルの増加に影響を及ぼした生体データの検出時点に対応するライフログデータを取得する(S301)。
具体的には、S301において、推定部12は、図4に示す生体データ記憶部151から、S200で閾値を超えていると判定したストレスレベルの算出に用いられた生体データ(例えば「心拍数Ba11、・・・」)に対応付けられた日付(例えば「2016/8/2」)及び時刻(例えば「10:30」)を取得する。これにより、推定部12は、当該取得した日付及び時刻が示す時点(例えば「2016/8/2 10:30」)を、ストレスレベルの増加に影響を及ぼした生体データの検出時点として把握する。
そして、推定部12は、図6に示すライフログ記憶部152において、対象ユーザのユーザID(例えば「A」)に対応付けられているライフログデータ(例えば「音声データA1」、「音声データA3」)のうち、当該把握した生体データの検出時点(例えば「2016/8/2 10:30」)を含む日付及び時間帯(例えば「2016/8/2」「10:00−12:00」)に対応付けられたライフログデータ(例えば「音声データA1」)を取得する。これにより、推定部12は、ストレスレベルの増加に影響を及ぼした生体データの検出時点に対応するライフログデータを取得する。
次に、推定部12は、ライフログデータに含まれる音声データ(例えば「音声データA1」を、対象ユーザが行動しているときの会話の内容を表すテキストデータに変換する(S302)。具体的には、S302において、推定部12は、公知の音声認識処理を実行することにより、S301で取得したライフログデータに含まれる音声データが表す音声に含まれている人物の会話の音声を認識し、当該会話の内容を表すテキストデータを生成する。
次に、推定部12は、S302で変換したテキストデータに、パワーハラスメント(以降、パワハラと呼ぶ)に関連する用語が含まれているか否かを判定する(S303)。推定部12は、S302で変換したテキストデータに、パワハラに関連する用語が含まれていないと判定した場合(S303;NO)には、当該テキストデータに、セクシャルハラスメント(以降、セクハラと呼ぶ)に関連する用語が含まれているか否かを判定する(S305)。
以下、S303、S305について詳述する。図9は、対人ストレス用語テーブルの一例を示す図である。例えば、図9に示すように、記憶部15には、対人ストレスの種類と、各対人ストレスに関連する用語とが対応付けられた、対人ストレス用語テーブルが予め記憶されている。
つまり、S303において、推定部12は、S302で変換したテキストデータに、図9に示す対人ストレス用語テーブルにおいて、「パワハラ」に対応付けられた用語(例えば「無能」、「給料泥棒」)が含まれているか否かを判定する。同様に、S305において、推定部12は、S302で変換したテキストデータに、図9に示す対人ストレス用語テーブルにおいて対人ストレスの種類「セクハラ」に対応付けられた用語(例えば「食事に行かない?」、「遊びに行かない?」)が含まれているか否かを判定する。
S303において、推定部12は、S302で変換したテキストデータにパワハラに関連する用語が含まれていると判定した場合(S303;YES)には、対象ユーザが対人ストレスを抱えていると推定する。更に、推定部12は、当該対人ストレスの種類が「パワハラ」であると推定する。更に、推定部12は、S302でテキストデータに変換する前の音声データ(以降、変換前音声データと呼ぶ)及び前記テキストデータを用いて、当該対人ストレスの原因である加害者を推定する(S304)。そして、推定部12は、原因推定処理を終了する。
S305において、推定部12は、S302で変換したテキストデータにセクハラに関連する用語が含まれていると判定した場合(S305;YES)には、対象ユーザが対人ストレスを抱えていると推定する。更に、推定部12は、当該対人ストレスの種類が「セクハラ」であると推定する。更に、推定部12は、変換前音声データ及び前記テキストデータを用いて、当該対人ストレスの原因である加害者を推定する(S306)。そして、推定部12は、原因推定処理を終了する。
以下、S304及びS306における対人ストレスの原因である加害者の推定方法について詳述する。記憶部15には、各ユーザのユーザIDと各ユーザの声を表す音声データ(以降、ユーザ音声データと呼ぶ)とが予め対応付けられて記憶されている。
推定部12は、S303において、S302で変換したテキストデータにパワハラに関連する用語が含まれていると判定した場合、S304において、変換前音声データから、パワハラに関連する用語に対応する音声データを抽出する。同様に、推定部12は、S305において、S302で変換したテキストデータにセクハラに関連する用語が含まれていると判定した場合、S304において、変換前音声データから、セクハラに関連する用語に対応する音声データを抽出する。
そして、推定部12は、S304及びS306において、公知の声紋認識処理を実行することにより、記憶部15に記憶されているユーザ音声データの中から、抽出した音声データの声紋と一致する声紋のユーザ音声データを特定する。そして、推定部12は、記憶部15から、特定したユーザ音声データに対応付けられているユーザIDを取得する。推定部12は、取得したユーザIDで識別されるユーザを、対人ストレスの原因である加害者であると推定する。
一方、推定部12は、S302で変換したテキストデータにセクハラに関連する用語が含まれていないと判定した場合(S305;NO)、S302で変換したテキストデータに、専門用語が含まれているか否かを判定する(S307)。
以下、S307について詳述する。図10は、スケジュール記憶部155に記憶されているデータの一例を示す図である。図11は、専門種類決定テーブルの一例を示す図である。図12は、専門用語テーブルの一例を示す図である。
図10に示すように、図2に示すスケジュール記憶部155には、ユーザが携帯するスマートフォン22やユーザが使用する不図示のパーソナルコンピュータ等におけるアプリケーションによって、ネットワーク9を介して、当該ユーザのユーザID(例えば「A」)と当該ユーザの行動予定を表すスケジュールデータとが対応付けて記憶される。スケジュールデータには、ユーザが行動する予定の日付(例えば「2016/8/2」)及び時間帯(例えば「10:00−12:00」)と、予定している行動の内容(以降、行動内容と呼ぶ)(例えば「出張」)とが含まれる。
また、記憶部15には、図11に示すように、専門用語の種類(例えば「業務」)と、スケジュールデータに含まれる行動内容として使用され得る用語(例えば「出張」、「打ち合わせ」、「事務処理」)とを対応付けた専門種類決定テーブルが予め記憶されている。
また、記憶部15には、図12に示すように、専門用語の種類(例えば「業務」)と、専門用語の種類の詳細(以降、専門用語の詳細種類と呼ぶ)(例えば「交渉」)と、専門用語(例えば「取引」、「決裂」)とを対応付けた専門用語テーブルが予め記憶されている。
S307において、推定部12は、先ず、スケジュール記憶部155に記憶されている、図10に示すスケジュールデータを参照して、対象ユーザのユーザID(例えば「A」)に対応付けられたスケジュールデータのうち、S301で把握した生体データの検出時点(例えば「2016/8/2 10:30」)の日付(例えば「2016/8/2」)と、当該検出時点の時刻(例えば「10:30」)を含む時間帯(例えば「10:00−12:00」)とを含むスケジュールデータを取得する。これにより、推定部12は、S301で把握したストレスレベルの増加に影響を及ぼした生体データの検出時点に対応するスケジュールデータを取得する。
そして、推定部12は、図11に示す専門種類決定テーブルを参照して、取得したスケジュールデータに含まれる行動内容(例えば「出張」)に対応付けられた専門用語の種類(例えば「業務」)を取得する。これにより、推定部12は、当該取得した専門用語の種類を、前記生体データの検出時点に行われた行動時の会話に含まれている可能性がある専門用語の種類として把握する。
そして、推定部12は、図12に示す専門用語テーブルを参照して、取得した専門用語の種類(例えば「業務」)に対応付けられている専門用語(例えば「取引」、「決裂」「コンプライアンス」、「進捗」、「議事録」、「議題」)を参照し、対応付けられた専門用語がS302で変換したテキストデータの中に含まれているか否かを判定する。
S307において、推定部12は、S302で変換したテキストデータに専門用語(例えば「決裂」)が含まれていると判定した場合(S307;YES)には、図12に示す専門用語テーブルを参照して、当該専門用語(例えば「決裂」)に対応付けられている専門用語の詳細種類(例えば「交渉」)を、対象ユーザが抱えているストレスの種類として推定する。更に、推定部12は、変換前音声データ及び当該テキストデータを用いて、当該ストレスの原因である加害者の有無を推定する(S308)。そして、推定部12は、原因推定処理を終了する。
具体的には、S308において、推定部12は、S304及びS306と同様に、変換前音声データから、S307でテキストデータに含まれていると判断した専門用語に対応する音声データを抽出する。そして、推定部12は、公知の声紋認識処理を実行することにより、記憶部15において、上記抽出した音声データの声紋と一致する声紋のユーザ音声データが存在するか否かを判定する。推定部12は、上記抽出した音声データの声紋と一致する声紋のユーザ音声データが存在すると判定した場合、記憶部15から当該ユーザ音声データに対応付けられたユーザIDを取得する。そして、推定部12は、当該取得したユーザIDによって識別されるユーザを、ストレスの原因である加害者として推定する。
推定部12は、S308において、ストレスの原因である加害者を推定した場合、ユーザが対人ストレスを抱えていると推定する。この場合、推定部12は、図12に示す専門用語テーブルにおいて上記専門用語に対応付けられている専門用語の詳細種類(例えば「交渉」)を、当該対人ストレスの種類として推定する。
尚、S304、S306及びS308において、推定部12は、ライフログ記憶部152に記憶されているデータ(図6)を参照して、S301で取得したライフログデータ(例えば「音声データA3」)に対応付けられたユーザID(例えば「A、B」)が複数存在する場合、当該複数のユーザIDのうち、対象ユーザのユーザID(例えば「A」)とは異なるユーザID(例えば「B」)を取得してもよい。そして、推定部12は、当該取得したユーザID(例えば「B」)によって識別されるユーザを、対人ストレスの原因である加害者として推定してもよい。
一方、推定部12は、S302で変換したテキストデータに専門用語が含まれていないと判定した場合(S308;NO)、S302で変換したテキストデータに、一般用語が含まれているか否かを判定する(S309)。
以下、S309について詳述する。図13は、一般用語テーブルの一例を示す図である。図13に示すように、記憶部15には、一般用語の種類(例えば「ゴルフ」)と、当該種類の一般用語(例えば「ダボ」)とを対応付けた一般用語テーブルが予め記憶されている。S309において、推定部12は、S302で変換したテキストデータに、図13に示す一般用語テーブルに記憶されている一般用語(例えば「ダボ」、「阪神」、「ガンバ」)が含まれているか否かを判定する。
S309において、推定部12は、S302で変換したテキストデータに一般用語(例えば「ダボ」)が含まれていると判定した場合(S309;YES)、対象ユーザが、対人ストレスではなく、自身の気持ちが原因で生じたストレスを抱えていると推定する。そして、推定部12は、図13に示す一般用語テーブルを参照して、当該一般用語に対応付けられている一般用語の種類(例えば「ゴルフ」)を、ユーザが抱えているストレスの種類として推定する(S310)。そして、推定部12は、原因推定処理を終了する。
一方、推定部12は、S302で変換したテキストデータに一般用語が含まれていないと判定した場合(S309;YES)、対象ユーザが、種類が不明のストレスを抱えていると推定する(S311)。そして、推定部12は、原因推定処理を終了する。
このように、推定部12は、原因推定処理において、対象ユーザが対人ストレスを抱えていると推定した場合、当該推定に用いたライフログデータを用いて、当該対人ストレスの種類と当該対人ストレスの原因である加害者を推定する。このため、図7に示すS500において、対象ユーザが抱えている対人ストレスの種類と、当該対人ストレスの原因である加害者とを推定した結果が、対象ユーザに通知される。これにより、対象ユーザが抱えている対人ストレスが、どの人物と接触した行動が原因で生じ、どのような種類の対人ストレスであるのかを、対象ユーザに気付かせることができる。その結果、対象ユーザは、自身が抱えている対人ストレスを低下させるための適切な対処を行い易くなる。
(緩和方法探索処理)
以下、図7に示すS400の緩和方法探索処理について詳述する。図14は、緩和方法探索処理の動作を示すフローチャートである。図14に示すように、通知部13は、緩和方法探索処理を開始すると、先ず、図7に示すS300の原因推定処理で推定された種類のストレスを緩和させるための、対象ユーザ固有のストレス緩和方法が存在するか否かを判定する(S401)。
以下、S401について詳述する。図15は、固有緩和方法テーブルの一例を示す図である。図15に示すように、図2に示す緩和方法記憶部153には、各ユーザのユーザID(例えば「C」)と、当該ユーザが抱えているストレスが緩和された日付(例えば「2016/7/1」)と、当該ユーザが抱えていたストレスの種類(例えば「パワハラ」)と、当該ユーザが抱えていた当該種類のストレスの原因となる加害者のユーザID(例えば「A」)と、当該種類のストレスを緩和させるための当該ユーザ固有のストレス緩和方法(例えば「外食」)とを対応付けて記憶した固有緩和方法テーブルが記憶されている。固有緩和方法テーブルは、第1のテーブルの一例である。固有緩和方法テーブルには、ユーザが携帯するスマートフォン22やユーザが使用する不図示のパーソナルコンピュータ等におけるアプリケーションによって、ネットワーク9を介してデータが記憶されている。
S401において、通知部13は、図15に示す固有緩和方法テーブルを参照して、対象ユーザのユーザID(例えば「C」)に対応付けられたストレス緩和方法のうち、S300において推定されたストレスの種類(例えば「パワハラ」)と対応付けられているストレス緩和方法(例えば「外食」、「Gに相談する」)が存在するか否かを判定する。これにより、通知部13は、S300の原因推定処理で推定された種類のストレスを緩和させるための、対象ユーザ固有のストレス緩和方法が存在するか否かを判定する。
S401において、通知部13は、対象ユーザ固有のストレス緩和方法が存在しないと判定した場合(S401;NO)、S300の原因推定処理で推定された種類のストレスを緩和させるための類似者のストレス緩和方法が存在するか否かを判定する(S402)。類似者とは、対象ユーザのプロファイルと類似するプロファイルを有するユーザである。対象ユーザは、第1のユーザの一例である。類似者は、第2のユーザの一例である。
以下、S402について詳述する。図16は、プロファイル記憶部154に記憶されているデータの一例を示す図である。図16に示すように、図2に示すプロファイル記憶部154には、一以上の各ユーザのユーザID(例えば「A」)と、当該ユーザのプロファイルを表すプロファイルデータとを予め対応付けて記憶したプロファイルテーブルが記憶されている。プロファイルテーブルは、第2のテーブルの一例である。
ユーザのプロファイルには、当該ユーザの特徴である氏名(例えば「A山A男」)、年齢(例えば「45」)、性別(例えば「男」)、業種1(例えば「製造業」)、業種2(例えば「電機」)、職種(例えば「技術」)、役職(例えば「課長」)、及び趣味(例えば「ゴルフ、野球、飲酒」)が含まれる。尚、ユーザのプロファイルは、これらに限らず、例えば、最終学歴、出身地等が含まれていてもよい。
S401において、通知部13は、S300の原因推定処理で推定されたストレスの種類(例えば「パワハラ」)に対応する、対象ユーザ(例えばユーザID「D」で識別されるユーザ)に固有の緩和方法が存在しないと判定したとする。
この場合、通知部13は、S402において、先ず、図16に示すプロファイルテーブルを参照して、対象ユーザ(例えばユーザID「D」で識別されるユーザ)のプロファイルと類似するプロファイルを有する類似者を特定する。
具体的には、通知部13は、図16に示すプロファイルテーブルを参照して、対象ユーザのユーザID(例えば「D」)に対応付けられているプロファイルデータ(例えば、氏名「D島D美」、年齢「25」、性別「女」、業種1「製造業」、業種2「電機」、職種「営業」、役職「社員」、趣味「映画鑑賞、旅行」)を取得する。以降、対象ユーザのユーザIDに対応付けられているプロファイルデータを、対象ユーザのプロファイルデータと呼ぶ。
そして、通知部13は、図16に示すプロファイルテーブルに記憶されている複数のユーザのプロファイルデータの中から、対象ユーザのプロファイルデータに含まれる一部のプロファイル(例えば性別「女」、業種1「製造業」、業種2「電機」、役職「社員」)が一致する他のユーザのプロファイルデータを特定する。
ここで、通知部13は、複数のプロファイルデータが特定された場合、当該複数のプロファイルデータの中から、対象ユーザのプロファイルデータに含まれる他の一部のプロファイル(例えば年齢「25」、職種「営業」)が最も近い他のユーザのプロファイルデータを特定する。そして、通知部13は、当該特定されたプロファイルデータに対応付けられたユーザID(例えば「C」)によって識別されるユーザを、類似者として特定する。
そして、通知部13は、図15に示す固有緩和方法テーブルを参照して、当該特定した類似者のユーザID(例えば「C」)に対応付けられたストレス緩和方法のうち、図7に示すS300の原因推定処理で推定されたストレスの種類(例えば「パワハラ」)と対応付けられているストレス緩和方法(例えば「外食」、「Gに相談する」)が存在するか否かを判定する。これにより、通知部13は、S300の原因推定処理で推定された種類のストレスを緩和させるための類似者のストレス緩和方法が存在するか否かを判定する。
図14に示すS402において、通知部13は、類似者のストレス緩和方法が存在しないと判定した場合(S402;NO)、S300の原因推定処理で推定された種類のストレスを緩和させるための一般的なストレス緩和方法が存在するか否かを判定する(S403)。
以下、S403について詳述する。図17は、一般緩和方法テーブルの一例を示す図である。図17に示すように、図2に示す緩和方法記憶部153には、ストレスの種類(例えば「パワハラ」)と、当該種類のストレスを緩和させるための一般的なストレス緩和方法(例えば「他部署の上司に相談する」、「カウンセラーに相談する」)と、当該ストレス緩和方法が記憶された日付(例えば「2016/7/1」、「2016/7/25」)とを予め対応付けて記憶した一般緩和方法テーブルが記憶されている。
S403において、通知部13は、図17に示す一般緩和方法テーブルを参照して、S300の原因推定処理で推定されたストレスの種類(例えば「パワハラ」)と対応付けられているストレス緩和方法(例えば「他部署の上司に相談する」、「カウンセラーに相談する」)が存在するか否かを判定する。これにより、通知部13は、S300の原因推定処理で推定された種類のストレスを緩和させるための一般的なストレス緩和方法が存在するか否かを判定する。
S403において、通知部13は、一般的なストレス緩和方法が存在しないと判定した場合(S403;NO)、S300の原因推定処理で推定された種類のストレスを緩和させるための緩和方法はないと判断し(S404)、緩和方法探索処理を終了する。
一方、S401において、通知部13は、対象ユーザ固有のストレス緩和方法が一つだけ存在すると判定したとする(S401;YES、S405;NO)。又は、S402において、通知部13は、類似者のストレス緩和方法が一つだけ存在すると判定したとする(S402;YES、S405;NO)。又は、S403において、通知部13は、一般的なストレス緩和方法が一つだけ存在すると判定したとする(S403;YES、S405;NO)。これらの場合には、通知部13は、当該一つだけ存在するストレス緩和方法を、S300の原因推定処理で推定された種類のストレスを緩和させるためのストレス緩和方法として決定し(S408)、緩和方法探索処理を終了する。
または、S401において、通知部13は、対象ユーザ固有のストレス緩和方法が複数存在すると判定したとする(S401;YES、S405;YES)。又は、S402において、通知部13は、類似者のストレス緩和方法が複数存在すると判定したとする(S402;YES、S405;YES)。又は、S403において、通知部13は、一般的なストレス緩和方法が複数存在すると判定したとする(S403;YES、S405;YES)。
これらの場合には、通知部13は、当該複数存在するストレス緩和方法のうち、S300の原因推定処理で推定された加害者と同じ加害者が原因のストレスを緩和させるストレス緩和方法(以降、同加害者ストレス緩和方法と呼ぶ)が存在するか否かを判定する(S406)。
例えば、通知部13は、S403において一般的なストレス緩和方法が複数存在すると判定し(S403;YES、S405;YES)、S406を行うとする。この場合、図17に示す一般緩和方法テーブルにおいて、一般的なストレス緩和方法に対し、ストレスの種類及び日付は対応付けられているが、加害者は対応付けられていない。したがって、通知部13は、当該S406では、同加害者ストレス緩和方法が存在しないと判定する(S406;NO)。
この場合、通知部13は、複数存在するストレス緩和方法(例えば図17において種類「パワハラ」に対応する二個のストレス緩和方法)のうち、最新の日付(例えば「2016/7/25」)に対応付けられているストレス緩和方法(例えば「カウンセラーに相談する」)を、S300の原因推定処理で推定された種類のストレスを緩和させるためのストレス緩和方法として決定し(S409)、緩和方法探索処理を終了する。
一方、通知部13は、S401においてユーザ自身のストレス緩和方法が複数存在すると判定し(S401;YES、S405;YES)、S406を行うとする。または、通知部13は、S402において類似者のストレス緩和方法が複数存在すると判定し(S402;YES、S405;YES)、S406を行うとする。
これらの場合、通知部13は、S406において、図15に示す固有緩和方法テーブルにおいて、上記複数存在するストレス緩和方法(例えば種類「パワハラ」に対応付けられた二つのストレス緩和方法)のうち、S300の原因推定処理で推定された加害者(例えば「A」)と同じ加害者に対応付けられたストレス緩和方法(例えば「外食」)が存在するか否かを判定する。これにより、通知部13は、上記複数存在するストレス緩和方法のうち、同加害者ストレス緩和方法が存在するか否かを判定する。
通知部13は、当該S406において、同加害者ストレス緩和方法が一つだけ存在すると判定した場合(S406;YES、S407;NO)、当該一つだけ存在する同加害者ストレス緩和方法を、S300の原因推定処理で推定された種類のストレスを緩和させるためのストレス緩和方法として決定し(S408)、緩和方法探索処理を終了する。
これにより、S300の原因推定処理で推定された加害者と同じ加害者が原因で生じた、S300の原因推定処理で推定された種類のストレスを、より適切に緩和させるためのストレス緩和方法を探索することができる。
一方、通知部13は、当該S406において、同加害者ストレス緩和方法が複数存在すると判定したとする(S406;YES、S407;YES)。この場合、通知部13は、当該複数存在する同加害者ストレス緩和方法のうち、図15に示す固有緩和方法テーブルにおいて最新の日付に対応付けられている同加害者ストレス緩和方法を、S300の原因推定処理で推定された種類のストレスを緩和させるためのストレス緩和方法として決定する(S409)。そして、通知部13は、緩和方法探索処理を終了する。
これにより、直近に行われた、S300の原因推定処理で推定された加害者と同じ加害者が原因で生じた、S300の原因推定処理で推定された種類のストレスを、より適切に緩和させるストレス緩和方法を探索することができる。
このように、通知部13は、S400の緩和方法探索処理において決定したストレス緩和方法を図7に示すS500において対象ユーザに通知する。このため、ユーザは、不要な対処を行わずに、当該通知されたストレス緩和方法に従って行動することで、自身が抱えている対人ストレスを効率よく緩和させることができる。
また、通知部13は、対象ユーザが抱えている種類のストレスを緩和させるための対象ユーザ固有のストレス緩和方法が存在しない場合でも、当該種類のストレスを緩和させるための類似者のストレス緩和方法が存在するときは、当該類似者のストレス緩和方法を対象ユーザが抱えているストレスを緩和させる方法として決定し、これを対象ユーザに通知することができる。
つまり、プロファイルが互いに類似するユーザのストレス緩和方法を、各自のユーザIDと対応付けて個別に固有緩和方法テーブルに記憶しなくても、何れかのユーザのユーザIDと対応付けて固有緩和方法テーブルに記憶するだけで、当該プロファイルが互いに類似するユーザに同じストレス緩和方法を通知することができる。このため、プロファイルが互いに類似するユーザのストレス緩和方法を重複して固有緩和方法テーブルに記憶することを回避できる。その結果、固有緩和方法テーブルを記憶するために必要な記憶容量を節約することができる。
尚、図15に示す固有緩和方法テーブルにおいて、更に、ストレス緩和方法に対応付けられたユーザIDで識別されるユーザが当該ストレス緩和方法に対応付けられた種類のストレスを緩和できたか否かを示すフラグを、当該ストレス緩和方法と対応付けて記憶するようにしてもよい。これにより、ユーザが、自身固有のストレス緩和方法に従って行動したことによってストレスを緩和できたか否かの結果を、当該自身固有のストレス緩和方法に対応付けられたフラグとして、図15に示す固有緩和方法テーブルに記憶できるようにしてもよい。
この場合、図14に示すS409において、ストレスを緩和できたことを示すフラグが対応付けられている同加害者ストレス緩和方法が存在する場合は、当該同加害者ストレス緩和方法の中で最新の日付に対応付けられている同加害者ストレス緩和方法を、S300の原因推定処理で推定された種類のストレスを緩和させるためのストレス緩和方法として決定するようにしてもよい。尚、ストレスを緩和できたことを示すフラグが対応付けられている同加害者ストレス緩和方法が存在しない場合は、上述の通り、最新の日付に対応付けられている同加害者ストレス緩和方法を、S300の原因推定処理で推定された種類のストレスを緩和させるためのストレス緩和方法として決定すればよい。
(第2の実施形態)
第1の実施形態では、図15に示す固有緩和方法テーブルには、ユーザが携帯するスマートフォン22やユーザが使用する不図示のパーソナルコンピュータ等におけるアプリケーションによって、ネットワーク9を介してデータが記憶されるとしていた。しかし、図2に示す学習部14が、図18に示す固有緩和方法学習処理を実行することによって、固有緩和方法テーブルにデータを記憶するようにしてもよい。図18は、固有緩和方法学習処理の動作を示すフローチャートである。
具体的には、学習部14は、夜間(例えば午前1時)等の所定の時期に、通知部13によってストレスの種類の推定結果及びストレス緩和方法が通知された各ユーザを対象ユーザとして、図18に示す固有緩和方法学習処理を実行する。図18に示すように、学習部14は、固有緩和方法学習処理を開始すると、通知部13が対象ユーザに前記通知を行った後、対象ユーザに通知した種類のストレスが緩和されたか否かを判定する(S601)。
以下、S601について詳述する。尚、以降の説明では、通知部13が、2016年8月2日の午前0時に、ユーザID「A」で識別されるユーザに前記通知を行ったとする。また、その後、図3に示す生体データ検出部処理及び生体データ記憶処理が行われた結果、生体データ記憶部151に図4に示すデータが記憶されているとする。また、図5に示すライフログデータ検出処理及びライフログ記憶処理が行われた結果、ライフログ記憶部152に図6に示すデータが記憶されているとする。そして、2016年8月3日の午前1時に、学習部14が当該ユーザを対象ユーザとして固有緩和方法学習処理を開始したとする。
S601において、学習部14は、先ず、通知部13によって前記通知が行われた後の、対象ユーザのストレスレベルの時系列変化を表すストレスデータ(以降、通知後ストレスデータと呼ぶ)を生成部11に生成させる。具体的には、学習部14は、生成部11に、図7に示すS100と同様にして、図4に示す生体データ記憶部151におけるユーザID「A」と2016年8月2日の午前0時以降の日付及び時刻とに対応付けられた生体データ(例えば「心拍数Ba11」、「心拍数Ba31」)を用いて、通知後ストレスデータを生成させる。
次に、学習部14は、通知後ストレスデータに含まれるストレスレベルが図7に示すS200で使用される閾値よりも低下したか否かを判定する。このように、学習部14は、通知後ストレスデータに含まれるストレスレベルが閾値よりも低下したか否かを判定することによって、通知部13が対象ユーザに前記通知を行った後、対象ユーザに通知した種類のストレスが緩和されたか否かを判定する。
S601において、学習部14は、対象ユーザに通知した種類のストレスが緩和されていないと判定した場合(S601;NO)、固有緩和方法学習処理を終了する。その後、学習部14は、通知部13によって前記通知が行われた他のユーザを対象ユーザとして、固有緩和方法学習処理を実行する。
一方、S601において、学習部14は、対象ユーザに通知した種類のストレスが緩和されたと判定した場合(S601;YES)、対象ユーザのストレスレベルの低下に影響を及ぼした生体データの検出時点に対応するライフログデータを取得する(S602)。
具体的には、S602において、学習部14は、図4に示す生体データ記憶部151から、S601で閾値よりも低下したと判定したストレスレベルの算出に用いられた生体データ(例えば「心拍数Ba11」)に対応付けられている日付(例えば「2016/8/2」)及び時刻(例えば「10:30」)を取得する。これにより、学習部14は、当該取得した日付及び時刻が示す時点(例えば「2016/8/2 10:30」)を、ストレスレベルの低下に影響を及ぼした生体データの検出時点として把握する。
そして、学習部14は、ライフログ記憶部152に記憶されている図6に示すデータを参照して、対象ユーザのユーザID(例えば「A」)に対応付けられているライフログデータ(例えば「音声データA1」、「音声データA3」)のうち、当該把握した生体データの検出時点(例えば「2016/8/2 10:30」)を含む日付及び時間帯(例えば「2016/8/2」「10:00−12:00」)に対応付けられたライフログデータ(例えば「音声データA1」)を取得する。これにより、学習部14は、ストレスレベルの低下に影響を及ぼした生体データの検出時点に対応するライフログデータを取得する。つまり、学習部14は、当該取得したライフログデータが示す対象ユーザの行動を、ストレスレベルの低下に影響を及ぼす行動として把握する。
そして、学習部14は、S602で取得したライフログデータを用いて、対象ユーザが抱えているストレスを緩和させる方法を推定する(S603)。そして、学習部14は、S603で推定した方法を、対象ユーザが抱えているストレスの種類に対応するストレス緩和方法として、図15に示す固有緩和方法テーブルに記憶する(S604)。
以下、S603及びS604について詳述する。例えば、S603では、学習部14は、公知の声紋認識処理を実行することにより、記憶部15に記憶されているユーザ音声データの中で、S602で取得したライフログデータに含まれる音声データに含まれている声紋と一致する声紋のユーザ音声データが存在するか否かを判定する。
学習部14は、一致する声紋のユーザ音声データが存在すると判定した場合、記憶部15から、当該ユーザ音声データに対応付けられたユーザIDのうち、対象ユーザのユーザIDとは異なるユーザIDを取得する。これにより、学習部14は、当該取得したユーザIDによって識別されるユーザを、ストレスの緩和のために接触すべきユーザとして推定する。
一方、学習部14は、一致する声紋のユーザ音声データが存在しないと判定した場合、又は、前記異なるユーザIDを取得できなかった場合、ストレスの緩和のために接触すべきユーザを推定しない。
また、記憶部15には、ストレスを緩和するための行動(例えば、「相談」、「外食」、「飲酒」等)と、当該行動時における会話で用いられる可能性が高い用語とを予め対応付けた行動判定テーブルが記憶されている。
学習部14は、図8に示すS302と同様、公知の音声認識処理を実行することにより、S602で取得したライフログデータに含まれる音声データをテキストデータに変換する。そして、学習部14は、行動判定テーブルから、当該テキストデータに含まれる各用語と一致する用語に対応づけられた行動を取得する。そして、学習部14は、最も多く取得した行動を、ユーザが抱えていたストレスを緩和させるための行動として推定する。
そして、学習部14は、ストレスの緩和のために接触すべきユーザを推定した場合、当該接触すべきユーザと接触して上記の推定した行動を行うことを、ストレスを緩和させる方法として推定する。また、学習部14は、ストレスの緩和のために接触すべきユーザを推定しなかった場合、対象ユーザ自身が上記の推定した行動を行うことを、ストレスを緩和させる方法として推定する。尚、S603は、これに限らず、他の方法で実現してもよい。
S604では、学習部14は、対象ユーザのユーザIDと、当該固有緩和方法学習処理を行った日付と、通知部13によって対象ユーザに通知されたストレスの種類及び加害者と、S603で推定したストレスを緩和させる方法と、を対応付けて、図15に示す固有緩和方法テーブルに記憶する。
このように、第2の実施形態の構成によれば、ユーザに手間をかけさせることなく、ユーザ固有のストレス緩和方法を効率よく固有緩和方法テーブルに記憶することができる。
尚、上記第1及び第2の実施形態は、本開示に係る実施形態の例示に過ぎず、本開示を上記第1及び第2の実施形態に限定する趣旨ではない。例えば、以下に示す変形実施形態であってもよい。
(第1の変形実施形態)
第1の実施形態における図15に示す固有緩和方法テーブルが、更に、ストレス緩和方法と対応付けて、当該ストレス緩和方法に従って行動する場合に利用可能な商品を表す商品情報を記憶するようにしてもよい。例えば、図15に示す固有緩和方法テーブルの第1行目のストレス緩和方法「外食」と対応付けて、外食時に利用可能な財布や食事券等の商品を表す商品情報を記憶するようにしてもよい。
これに合わせて、図7に示すS500において、通知部13が、当該固有緩和方法テーブルにおいて、対象ユーザに通知するストレス緩和方法に対応付けられている商品情報を更に通知するようにしてもよい。
この場合、対象ユーザが通知されたストレス緩和方法に従って行動する場合に、対象ユーザが通知された商品情報が表す商品を利用する機会を増加させることができる。
(第2の変形実施形態)
第1及び第2の実施形態では、ライフログデータに、ユーザが行動しているときの音声を表す音声データのみが含まれるものとして説明した。しかし、これに限らず、ライフログデータに、ユーザが行動しているときの様子を表す画像データが含まれていてもよい。
この場合、記憶部15に、各ユーザのユーザIDと各ユーザの顔を表す画像データ(以降、ユーザ画像データと呼ぶ)とを予め対応付けて記憶してもよい。そして、図8に示す、S304、S306及びS308において、推定部12が、ストレスの原因となる加害者を推定するときに、公知の画像認識処理を行うことで、ライフログデータに含まれている画像データから人物の顔を表す画像を認識するようにしてもよい。そして、推定部12が、記憶部15から、当該認識した人物の顔を表す画像と特徴量が略一致する画像を表すユーザ画像データに対応付けられたユーザIDのうち、対象ユーザのユーザIDとは異なるユーザIDを取得するようにしてもよい。そして、推定部12が、当該取得したユーザIDによって識別されるユーザをストレスの原因となる加害者として推定するようにしてもよい。これと同様にして、図18に示すS603において、学習部14が、ライフログデータに含まれている画像データを用いて、ストレスの緩和のために接触すべきユーザを推定するようにしてもよい。
(第3の変形実施形態)
上記第2の実施形態におけるライフログデータに、スマートフォン22に備えられたGPS(Global Positioning System)センサによって検出されたスマートフォン22が存在する位置を表す位置情報を含めるようにしてもよい。同様に、監視装置3から送信されるライフログデータに、当該監視装置3が設置されている部屋の識別情報を含めるようにしてもよい。
この場合、図18に示すS603において、学習部14は、ストレス緩和方法の推定に用いるライフログデータに含まれる位置情報または部屋の識別情報を、ストレスを緩和させる行動を行うのに適した場所を示す情報として、図18に示すS603で推定するストレス緩和方法に含めてもよい。
(第4の変形実施形態)
上記第2の実施形態におけるライフログデータに、スマートフォン22に備えられた温度センサや湿度センサによって検出された温度や湿度等のスマートフォン22が存在する場所の環境を表す環境情報を含めるようにしてもよい。同様に、監視装置3として、会議室や教室等の室内に温度センサや湿度センサを設けてもよい。そして、当該温度センサや湿度センサによって検出された温度や湿度等の前記室内の環境を表す環境情報をライフログデータに含めるようにしてもよい。
この場合、図18に示すS603において、学習部14は、ストレス緩和方法の推定に用いるライフログデータに含まれる環境情報を、ストレスを緩和させる行動を行うのに適した環境を表す情報として、図18に示すS603で推定するストレス緩和方法に含めてもよい。
(第5の変形実施形態)
ストレスマネジメントシステム100に監視装置3を備えないようにし、生体データ検出部4及び図2に示すライフログ検出部5を、生体センサを備えたスマートフォン22のみによって構成してもよい。
(第6の変形実施形態)
図1に示すカードリーダ33と同様の機能を有するカードリーダが、図1に示す個人識別カード23に内蔵されていてもよい。この場合、当該個人識別カードを有するユーザに、個人識別カード23を有する他のユーザが接近した場合に、当該個人識別カードに内蔵されたカードリーダが、当該他のユーザの個人識別カード23内のメモリチップに記憶されているプロファイルデータを取得してもよい。そして、当該カードリーダが、当該取得したプロファイルデータに含まれる所定の情報(例えば、ユーザID)をサーバ1へ送信するようにしてもよい。
例えば、前記カードリーダを内蔵した個人識別カードを有するユーザが、対人ストレスを抱えているとする。この場合、当該ユーザに個人識別カード23を有する当該対人ストレスの加害者が接近したときに、当該ユーザが、加害者が接近したことに気付いていなくても、当該ユーザの個人識別カード内のメモリチップに記憶されているプロファイルデータに含まれるユーザIDと、加害者の個人識別カードから取得した加害者のユーザIDとをサーバ1へ送信することができる。これにより、サーバ1では、当該ユーザと加害者とが近づいたことを把握することができる。
そこで、サーバ1では、図7に示すS300において当該ユーザが対人ストレスを抱えているユーザであると推定していた場合には、加害者が近づいたことを示すメッセージを図7に示すS500と同様にして当該ユーザに送信するようにしてもよい。これにより、当該ユーザに加害者が近づいていることを気付かせるようにしてもよい。
また、ライフログデータに、ユーザが行動しているときの様子を表す画像データが含まれていてもよい。
(第7の変形実施形態)
図2に示す記憶部15が有する記憶領域をスケジュール記憶部155として使用しないようにし、図8に示す、S307及びS308を省略してもよい。
(第8の変形実施形態)
図2に示す記憶部15が有する記憶領域をプロファイル記憶部154として使用しないようにし、図14に示すS402を省略してもよい。
(第9の変形実施形態)
図2に示す記憶部15が有する記憶領域を緩和方法記憶部153として使用しないようにし、図7に示すS400を省略してもよい。これに合わせて、図7に示すS500において、通知部13が、S300における推定の結果のみ、対象ユーザに通知するようにしてもよい。
(第10の変形実施形態)
図8に示す、S304、S306、S308において、推定部12がストレスの種類及びストレスの原因である加害者を推定しないようにしてもよい。
本開示によれば、企業や学校等の団体の構成員が対人ストレスを抱え続けることを低減させる点で有用である。
1 サーバ
2 携帯端末
3 監視装置
4 生体データ検出部(第1のセンサ)
5 ライフログ検出部(第2のセンサ)
9 ネットワーク
10 制御部
11 生成部
12 推定部
13 通知部
14 学習部
15 記憶部
16 表示部
17 入力部
18 通信部
21 ウェアラブル端末
22 スマートフォン(端末)
23 個人識別カード
31 収音マイク
32 監視カメラ
33 カードリーダ
100 ストレスマネジメントシステム
151 生体データ記憶部
152 ライフログ記憶部
153 緩和方法記憶部(第1の記憶部)
154 プロファイル記憶部(第2の記憶部)
155 スケジュール記憶部(第3の記憶部)

Claims (12)

  1. ユーザの精神的ストレスを管理するストレスマネジメントシステムであって、
    ユーザの生体データを検出する第1のセンサと、
    ユーザの行動履歴を表すライフログデータを検出する第2のセンサと、
    ユーザの行動予定を表すスケジュールデータを記憶する第3の記憶部と、
    前記生体データを用いてユーザのストレスレベルの時系列変化を示すストレスデータを生成する生成部と、
    前記ストレスデータに含まれるストレスレベルが所定の閾値を超えた場合、前記ライフログデータ、および前記スケジュールデータを用いて、ユーザが抱えているストレスが他者との接触によって生じる対人ストレスであるか否かを推定する推定部と、
    前記推定部が推定した結果をユーザに通知する通知部と、
    を備えるストレスマネジメントシステム。
  2. 前記推定部は、ユーザが抱えているストレスが対人ストレスであると推定された場合、前記ライフログデータを用いて、対人ストレスの種類と対人ストレスの原因である加害者とを更に推定する、請求項1に記載のストレスマネジメントシステム。
  3. 前記ライフログデータは、ユーザを撮影した画像データを含む、請求項2に記載のストレスマネジメントシステム。
  4. 前記ライフログデータは、ユーザの会話を録音した音声データを含む、請求項1から3のいずれか一項に記載のストレスマネジメントシステム。
  5. 対人ストレスの種類と、各種類の対人ストレスを緩和させるためのストレス緩和方法とを対応付けた第1のテーブルを記憶する第1の記憶部を更に備え、
    前記通知部は、前記第1のテーブルを参照して、前記推定部が推定した対人ストレスの種類に対応するストレス緩和方法をユーザに通知する、請求項2に記載のストレスマネジメントシステム。
  6. 前記第1のテーブルにおいて、ストレス緩和方法に対し、ストレス緩和方法に従って行動する場合に利用可能な商品を表す商品情報が更に対応付けられており、
    前記通知部は、前記第1のテーブルを参照して、前記推定部が推定した対人ストレスの種類に対応するストレス緩和方法に対応する商品情報をユーザに通知する、請求項5に記載のストレスマネジメントシステム。
  7. 複数のユーザのそれぞれに対して、対人ストレスの種類と、各種類の対人ストレスを緩和させるためのストレス緩和方法とを対応付けた第1のテーブルを記憶する第1の記憶部と、
    前記複数のユーザのそれぞれに対して、ユーザのプロファイルを対応付けた第2のテーブルを記憶する第2の記憶部と、
    を更に備え、
    前記通知部は、前記第1のテーブルを参照して、第1のユーザに対応付けられた対人ストレスの種類であって、前記第1のユーザに対して前記推定部が推定した対人ストレスの種類に対応付けられたストレス緩和方法が存在しないとき、前記第2のテーブルを参照して、前記第1のユーザのプロファイルと類似するプロファイルを有する第2のユーザを特定し、前記第1のテーブルを参照して、前記第2のユーザに対応付けられた対人ストレスの種類であって、前記第1のユーザに対して前記推定部が推定した対人ストレスの種類に対応付けられたストレス緩和方法を、前記第1のユーザに通知する、請求項2に記載のストレスマネジメントシステム。
  8. 前記通知部がストレス緩和方法を前記第1のユーザに通知した後、前記第1のユーザの前記ストレスデータに含まれるストレスレベルが前記閾値よりも低下した場合、前記第1のユーザの前記ライフログデータを用いて、対人ストレスを緩和させたストレス緩和方法を推定し、推定されたストレス緩和方法を、前記第1のユーザに対して前記推定部が推定した対人ストレスの種類に対応付けて前記第1のテーブルに記憶する学習部を更に備える、請求項7に記載のストレスマネジメントシステム。
  9. 前記第1のセンサ及び前記第2のセンサの両方を備えた端末を備える、請求項1から8のいずれか一項に記載のストレスマネジメントシステム。
  10. コンピュータによって実行される、ユーザの精神的ストレスを管理するストレスマネジメント方法であって、
    前記コンピュータが、ユーザの生体データを検出する処理を実行し、
    前記コンピュータが、ユーザ行動しているときの会話の内容を表すライフログデータを検出する処理を実行し、
    前記生体データを用いてユーザのストレスレベルの時系列変化を示すストレスデータを生成し、
    前記ストレスデータに含まれるストレスレベルが所定の閾値を超えた場合、ストレスレベルの増加に影響を及ぼした時点に対応する前記ライフログデータ対人ストレスに関連する用語が含まれているか否かを判定することにより、ユーザが抱えているストレスが他者と接触によって生じる対人ストレスであるか否かを推定する
    トレスマネジメント方法。
  11. ユーザが抱えているストレスが対人ストレスであるか否かを推定した結果をユーザに通知する、
    請求項10に記載のストレスマネジメント方法。
  12. ユーザが抱えているストレスが対人ストレスであると推定された場合、ユーザの行動予定を表すスケジュールデータに基づき、ユーザが抱えている対人ストレスの詳細種類をさらに推定する、
    請求項10または11に記載のストレスマネジメント方法。
JP2017158668A 2016-08-29 2017-08-21 ストレスマネジメントシステム及びストレスマネジメント方法 Active JP6986680B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016166856 2016-08-29
JP2016166856 2016-08-29

Publications (2)

Publication Number Publication Date
JP2018037073A JP2018037073A (ja) 2018-03-08
JP6986680B2 true JP6986680B2 (ja) 2021-12-22

Family

ID=61240625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158668A Active JP6986680B2 (ja) 2016-08-29 2017-08-21 ストレスマネジメントシステム及びストレスマネジメント方法

Country Status (2)

Country Link
US (1) US10734103B2 (ja)
JP (1) JP6986680B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230235A1 (ja) * 2018-05-30 2019-12-05 パナソニックIpマネジメント株式会社 ストレス評価装置、ストレス評価方法及びプログラム
JP7262006B2 (ja) * 2018-05-30 2023-04-21 パナソニックIpマネジメント株式会社 ストレス評価装置、ストレス評価方法及びプログラム
JP7155683B2 (ja) * 2018-07-10 2022-10-19 富士通株式会社 ハラスメント検知プログラム、ハラスメント検知システム、及びハラスメント検知方法
JP7205092B2 (ja) * 2018-07-18 2023-01-17 富士フイルムビジネスイノベーション株式会社 情報処理システム、情報処理装置およびプログラム
EP3953772A4 (en) 2019-04-10 2022-12-28 Hubbell Incorporated LOAD TEST FOR NETWORK
CN110301920B (zh) * 2019-06-27 2020-06-02 清华大学 用于心理压力检测的多模态融合方法及装置
JP2021097878A (ja) * 2019-12-23 2021-07-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7255580B2 (ja) * 2020-10-29 2023-04-11 株式会社村田製作所 心身調子表示装置、心身調子表示システム、心身調子表示方法、プログラムおよび記録媒体
US11931127B1 (en) 2021-04-08 2024-03-19 T-Mobile Usa, Inc. Monitoring users biological indicators using a 5G telecommunication network
WO2023054280A1 (ja) 2021-09-28 2023-04-06 日東電工株式会社 生体情報処理プログラム、生体情報処理装置、生体情報処理システム、生体情報処理方法
JP7274253B1 (ja) * 2023-03-14 2023-05-16 ロゴスサイエンス株式会社 ヘルスケアシステムおよびその方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5377258A (en) * 1993-08-30 1994-12-27 National Medical Research Council Method and apparatus for an automated and interactive behavioral guidance system
US7280964B2 (en) * 2000-04-21 2007-10-09 Lessac Technologies, Inc. Method of recognizing spoken language with recognition of language color
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
US7058566B2 (en) * 2001-01-24 2006-06-06 Consulting & Clinical Psychology, Ltd. System and method for computer analysis of computer generated communications to produce indications and warning of dangerous behavior
GB2402031B (en) * 2003-05-19 2007-03-28 Toshiba Res Europ Ltd Lexical stress prediction
US7360151B1 (en) * 2003-05-27 2008-04-15 Walt Froloff System and method for creating custom specific text and emotive content message response templates for textual communications
US7999857B2 (en) * 2003-07-25 2011-08-16 Stresscam Operations and Systems Ltd. Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system
US20050054935A1 (en) * 2003-09-08 2005-03-10 Rice Robert R. Hyper-spectral means and method for detection of stress and emotion
US20050154264A1 (en) * 2004-01-08 2005-07-14 International Business Machines Corporation Personal stress level monitor and systems and methods for using same
WO2007000030A1 (en) * 2005-06-29 2007-01-04 National Ict Australia Limited Measuring cognitive load
JP5046158B2 (ja) * 2007-08-10 2012-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 電子メールメッセージの特性を検出する装置及び方法
US20090264711A1 (en) * 2008-04-17 2009-10-22 Motorola, Inc. Behavior modification recommender
US8219397B2 (en) * 2008-06-10 2012-07-10 Nuance Communications, Inc. Data processing system for autonomously building speech identification and tagging data
US9092069B2 (en) * 2009-06-16 2015-07-28 Intel Corporation Customizable and predictive dictionary
US8788657B2 (en) * 2010-12-09 2014-07-22 Wavemarket, Inc. Communication monitoring system and method enabling designating a peer
US9173567B2 (en) * 2011-05-13 2015-11-03 Fujitsu Limited Triggering user queries based on sensor inputs
JP2012249797A (ja) 2011-06-02 2012-12-20 Konica Minolta Holdings Inc ストレス解析システム、ストレス解析プログラムおよびストレス解析方法
TW201336474A (zh) * 2011-12-07 2013-09-16 通路實業集團國際公司 行為追蹤及修正系統
US9839762B2 (en) * 2012-02-10 2017-12-12 Harmonial Corporation System and method for reducing stress levels using color, sound, and aroma therapy
US10187254B2 (en) * 2012-10-09 2019-01-22 At&T Intellectual Property I, L.P. Personalization according to mood
US8923490B2 (en) * 2012-12-17 2014-12-30 Capital One Financial Corporation Systems and methods for providing searchable customer call indexes
CN103903627B (zh) * 2012-12-27 2018-06-19 中兴通讯股份有限公司 一种语音数据的传输方法及装置
US9842374B2 (en) * 2013-03-16 2017-12-12 Marc Jim Bitoun Physiological indicator monitoring for identifying stress triggers and certain health problems
EP3007620B1 (en) * 2013-06-11 2023-08-09 Koninklijke Philips N.V. System and method for monitoring light and sound impact on a person
US10204642B2 (en) * 2013-08-06 2019-02-12 Beyond Verbal Communication Ltd Emotional survey according to voice categorization
US9864782B2 (en) * 2013-08-28 2018-01-09 AV Music Group, LLC Systems and methods for identifying word phrases based on stress patterns
KR20150047158A (ko) * 2013-10-24 2015-05-04 삼성전자주식회사 스트레스 관리 시스템 및 그 방법
US20150140527A1 (en) * 2013-11-19 2015-05-21 Microsoft Corporation Providing Interventions by Leveraging Popular Computer Resources
ES2957212T3 (es) * 2014-03-25 2024-01-15 Massachusetts Inst Technology Aparato y método para la caracterización de la función motora
US10242664B2 (en) * 2014-03-31 2019-03-26 NetTalk.com, Inc. System and method for processing flagged words or phrases in audible communications
JP2017521756A (ja) * 2014-05-23 2017-08-03 ニューミトラ インク.Neumitra Inc. 色に基づく健康状態テーマを伴うオペレーティング・システム
US9916612B2 (en) * 2014-06-03 2018-03-13 Intel Corporation User-state mediated product selection
WO2016036114A1 (en) * 2014-09-03 2016-03-10 Samsung Electronics Co., Ltd. Electronic device and method for measuring vital signal
US9792823B2 (en) * 2014-09-15 2017-10-17 Raytheon Bbn Technologies Corp. Multi-view learning in detection of psychological states
US9585616B2 (en) * 2014-11-17 2017-03-07 Elwha Llc Determining treatment compliance using speech patterns passively captured from a patient environment
US20160157776A1 (en) * 2014-12-08 2016-06-09 Xerox Corporation Wearable device for stress assessment and management and method of its use
JP2016115057A (ja) 2014-12-12 2016-06-23 セイコーエプソン株式会社 生体情報処理システム、サーバーシステム、生体情報処理装置、生体情報処理方法及びプログラム
US9721450B2 (en) * 2015-02-25 2017-08-01 Sameer A. KUMAR Wearable repetitive behavior awareness device and method
JP2016163145A (ja) 2015-02-27 2016-09-05 カシオ計算機株式会社 電子機器、情報取得方法及びプログラム

Also Published As

Publication number Publication date
JP2018037073A (ja) 2018-03-08
US20180060536A1 (en) 2018-03-01
US10734103B2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP6986680B2 (ja) ストレスマネジメントシステム及びストレスマネジメント方法
US10959657B2 (en) Stress management system and stress management method
Brown et al. A snapshot of the life as lived: Wearable cameras in social and personality psychological science
JP6467966B2 (ja) 健康管理補助装置及び健康管理補助方法
US9235263B2 (en) Information processing device, determination method, and non-transitory computer readable storage medium
US20180330302A1 (en) Method for Dynamic Employee Work Assignment
JP2009129338A (ja) 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置
WO2014165250A1 (en) Method for employee parameter tracking
Booth et al. Multimodal human and environmental sensing for longitudinal behavioral studies in naturalistic settings: Framework for sensor selection, deployment, and management
KR101881630B1 (ko) 사용자 단말로부터 수집된 데이터를 이용한 유형 정보 및 평가 정보 제공 방법 및 시스템
JP2009176130A (ja) 情報提示システム、プログラム及び情報記憶媒体
US20200387758A1 (en) Information processing apparatus, information processing method, and program
JP2009076059A (ja) 管理システム,管理装置および管理プログラム
WO2016068795A1 (en) System and method for providing an indication of the well-being of an individual
JP2017188089A (ja) 行動予測
JP2007094723A (ja) 健康管理支援システム及び健康管理支援方法
JP2021157609A (ja) 情報処理装置、情報処理方法、およびプログラム
Lee et al. Design of a seniors and Alzheimer's disease caring service platform
US20230112069A1 (en) System and method for observation-based assessment and recruitment of diverse employees
JP7018410B2 (ja) 判定装置、判定方法及びコンピュータプログラム
WO2022059249A1 (ja) 情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム
JP2020010831A (ja) 情報処理システム、情報処理装置およびプログラム
JP5994388B2 (ja) サーバ、情報処理方法及び情報処理プログラム
JP6914122B2 (ja) 労務管理システム
JP2021176036A (ja) 情報処理装置および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211111

R151 Written notification of patent or utility model registration

Ref document number: 6986680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151