JP6636792B2 - 刺激提示システム、刺激提示方法、コンピュータ、および制御方法 - Google Patents

刺激提示システム、刺激提示方法、コンピュータ、および制御方法 Download PDF

Info

Publication number
JP6636792B2
JP6636792B2 JP2015249842A JP2015249842A JP6636792B2 JP 6636792 B2 JP6636792 B2 JP 6636792B2 JP 2015249842 A JP2015249842 A JP 2015249842A JP 2015249842 A JP2015249842 A JP 2015249842A JP 6636792 B2 JP6636792 B2 JP 6636792B2
Authority
JP
Japan
Prior art keywords
content
user
mental state
stimulus presentation
stimulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015249842A
Other languages
English (en)
Other versions
JP2016146173A (ja
Inventor
山田 和範
山田  和範
間瀬 健二
健二 間瀬
純哉 森田
純哉 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JP2016146173A publication Critical patent/JP2016146173A/ja
Application granted granted Critical
Publication of JP6636792B2 publication Critical patent/JP6636792B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0048Detecting, measuring or recording by applying mechanical forces or stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6891Furniture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0016Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the smell sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0022Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the tactile sense, e.g. vibrations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/505Touch-screens; Virtual keyboard or keypads; Virtual buttons; Soft keys; Mouse touches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/52General characteristics of the apparatus with microprocessors or computers with memories providing a history of measured variating parameters of apparatus or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/04Heartbeat characteristics, e.g. ECG, blood pressure modulation
    • A61M2230/06Heartbeat rate only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/08Other bio-electrical signals
    • A61M2230/10Electroencephalographic signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/40Respiratory characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/63Motion, e.g. physical activity

Description

本開示は、ユーザの心理状態を目標の心理状態に導くための刺激提示システム、刺激提示方法、コンピュータ、および制御方法に関する。
刺激提示システムとしては、ユーザの心理状態、環境状態、ユーザ属性情報のうち少なくとも一つの情報、及びユーザのコンテンツ選択傾向に基づいて、再生候補コンテンツを選択するシステムが知られている(例えば、特許文献1参照。)。
別の刺激提示システムとしては、ユーザの健康状態から音コンテンツの聴取目的を推定して目的の音コンテンツを再生すると共に、音コンテンツに対する効果の程度をコンテンツデータベースに反映するシステムが知られている(例えば、特許文献2参照。)。
特開2006−146630号公報 特許5184137号公報
しかしながら、特許文献1及び2に開示されたシステムでは、ユーザの心理状態を効率良く目標の心理状態に導くことができないという課題がある。
本開示は、前記課題を解決するもので、ユーザの心理状態を効率良く目標の心理状態に導くことができる刺激提示システム、刺激提示方法、コンピュータ、および制御方法を提供する。
本開示の一態様に係る刺激提示システムは、
ユーザの心理状態を目標の心理状態に導くための刺激提示システムであって、
前記ユーザの生体情報を取得する生体情報取得部と、
前記生体情報取得部により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定部と、
前記心理状態推定部により前記ユーザの心理状態が第1心理状態と推定された後に、前記ユーザの目標とする心理状態を示す目標心理状態を設定する目標状態設定部と、
前記設定された目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上含む刺激提示コンテンツを含むシナリオを作成するシナリオ作成部と、
前記作成されたシナリオに基づいて前記一つ以上の刺激提示コンテンツを提示するコンテンツ提示部と、
前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定部により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断部と、
を備える。
以上のように、本開示の刺激提示システムによれば、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
図1は、本開示の第1実施形態に係る刺激提示システムの構成のブロック図である。 図2は、本開示の第1実施形態に係る刺激提示システムの適用例を示す図である。 図3は、ユーザの生体情報に基づくユーザの心理状態の推定例を示す図である。 図4は、本開示の第1実施形態におけるシナリオ作成部によって作成される刺激提示コンテンツのシナリオ例を示す図である。 図5は、本開示の第1実施形態におけるシナリオ作成部で作成されたシナリオAに基づく刺激提示コンテンツの提示例を示す図である。 図6は、本開示の第1実施形態における刺激コンテンツデータベースが格納する刺激提示コンテンツの属性情報の一例を示す図である。 図7は、本開示の第1実施形態に係る刺激提示システムの動作のフローチャートを示す図である。 図8は、本開示の第2実施形態に係る刺激提示システムの構成のブロック図である。 図9は、複数の写真コンテンツの類似度を表現したネットワーク図である。 図10は、本開示の第2実施形態におけるシナリオ作成部で作成される集中判定用のシナリオの一例を示す図である。 図11は、ユーザに高頻度の刺激を与えたときの脳波情報の測定結果を示す図である。 図12は、ユーザに低頻度の刺激を与えたときの脳波情報の測定結果を示す図である。 図13は、本開示の第2実施形態に係る刺激提示システムの動作のフローチャートを示す図である。 図14は、本開示の第1実施形態及び第2実施形態における目標状態設定部の一例を示す図である。 図15は、本開示の第1実施形態及び第2実施形態における目標状態設定部の別例を示す図である。 図16は、本開示の第1実施形態及び第2実施形態における刺激提示システムを適用した椅子の側面図である。 図17は、本開示の第1実施形態及び第2実施形態における刺激提示システムを適用した椅子の正面図である。
本開示の一態様に係る刺激提示システムは、
ユーザの心理状態を目標の心理状態に導くための刺激提示システムであって、
前記ユーザの生体情報を取得する生体情報取得部と、
前記生体情報取得部により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定部と、
前記心理状態推定部により前記ユーザの心理状態が第1心理状態と推定された後に、前記ユーザの目標とする心理状態を示す目標心理状態を設定する目標状態設定部と、
前記設定された目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成するシナリオ作成部と、
前記作成されたシナリオに基づいて前記一つ以上の刺激提示コンテンツを提示するコンテンツ提示部と、
前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定部により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断部と、
を備える。
このような構成により、ユーザの心理状態が第1心理状態と推定された後に、目標心理状態を設定し、設定された目標心理状態に基づいて一つ以上の刺激提示コンテンツを含むシナリオを作成することができる。また、本開示の刺激提示システムでは、刺激提示コンテンツにより変化したユーザの第2心理状態が目標心理状態に至っているか否かを判断している。そのため、本開示の刺激提示システムでは、ユーザの心理状態を目標心理状態に近づけるために、ユーザの心理状態の変化に基づいて効率的にコンテンツを選択し提示していくことができるため、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示システムにおいて、前記心理状態判断部で前記第2心理状態が前記目標心理状態に至っていると判断した場合、前記刺激提示コンテンツの提示を終了してもよい。
このような構成により、ユーザの心理状態が目標心理状態に至る適切なタイミングで刺激提示コンテンツの提示を終了させることができる。
また、本開示に係る刺激提示システムにおいて、前記目標状態設定部は、前記ユーザの入力操作によって入力された目標心理状態に関する入力データに基づいて前記目標心理状態を設定してもよい。
このような構成により、ユーザが第1心理状態に基づいて目標心理状態を入力することができるため、確実かつ容易に目標心理状態を設定することができる。
また、本開示に係る刺激提示システムにおいて、過去に設定された目標心理状態を履歴情報として記録する記録媒体を更に含み、前記目標状態設定部は、前記記録媒体に記録された履歴情報に基づいて前記目標心理状態を設定してもよい。
このような構成により、過去に設定された目標心理状態の履歴情報から自動的に目標心理状態を設定することができるため、目標心理状態を設定するための時間を短くすると共に、容易に目標心理状態を設定できる。
また、本開示に係る刺激提示システムは、更に、
前記刺激提示コンテンツの提示に対する前記ユーザの心理状態の変化の傾向を前記ユーザと関連付けて定義したユーザモデルを格納するユーザモデルデータベースと、
前記刺激提示コンテンツの提示に対して予想される前記ユーザの心理状態の変化量を示す予想変化量を格納する刺激コンテンツデータベースと、
を備え、
前記シナリオ作成部は、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータに基づいて、前記シナリオを作成してもよい。
このような構成により、ユーザモデルデータベースに基づいてユーザ毎に刺激提示コンテンツのシナリオをカスタマイズして作成することができる。また、シナリオ作成部は刺激提示コンテンツデータベースに基づいて、ユーザの心理状態を目標心理様態に変化させるのに効果の高い刺激提示コンテンツを含むようにシナリオを作成することができる。そのため、刺激提示システムでは、ユーザの心理状態を更に効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示システムは、更に、
前記心理状態推定部で推定された前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第1変化量と、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうちの少なくとも一方のデータに基づいて予想される前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第2変化量と、の差異を算出する効果差異算出部を備え、
前記効果差異算出部で算出された差異が所定値以上である場合、前記シナリオ作成部は、前記シナリオを変更してもよい。
このような構成により、実際に提示されている刺激提示コンテンツによるユーザの心理状態の第1変化量と、予想されるユーザの心理状態の第2変化量との差異を算出することができる。そのため、シナリオ作成部は、ユーザの心理状態を目標心理状態に導くために、より効果の高い刺激提示コンテンツを含むようにシナリオを変更することができる。このように、本開示の刺激提示システムでは、リアルタイムに刺激提示コンテンツのシナリオを最適化することができるため、ユーザの心理状態を更に効率良く目標の心理状態に導くことが可能となる。
また、本開示に係る刺激提示システムにおいて、前記効果差異算出部は、前記差異が所定値以上である場合、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータを更新してもよい。
このような構成により、実際に提示された刺激提示コンテンツによるユーザの心理状態の変化量が予想していた変化量と異なる場合に、ユーザモデルデータベースと刺激コンテンツデータベースとのうち少なくとも一方のデータを更新することができる。そのため、刺激提示システムでは、ユーザの心理状態を更に効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示システムは、更に、
前記効果差異算出部で算出された差異が所定値以上である場合に、ユーザが前記刺激提示コンテンツに集中しているか否かを判定する集中判定部を備え、
前記集中判定部は、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記効果差異算出部で算出された差異を補正してもよい。
このような構成により、ユーザが刺激提示コンテンツに集中していない場合に、効果差異算出部で算出された差異を補正することにより、ユーザが集中していないときに提示されていた刺激提示コンテンツの効果の結果を除外することができる。そのため、刺激提示システムでは、ユーザに対する刺激提示コンテンツの効果のデータを正確に収集することができるため、ユーザの心理状態を更に効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示システムにおいて、前記生体情報取得部により取得された生体情報は、前記ユーザの脳の活動状態を示す脳活動情報と前記脳活動情報以外の生体情報を含み、
前記コンテンツ提示部は、更に、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定するための集中判定コンテンツを提示し、
前記集中判定部は、前記集中判定コンテンツの提示後に前記生体情報取得部によって取得された前記脳活動情報または前記脳活動情報以外の生体情報のうち少なくとも一方に基づいて、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定してもよい。
このような構成により、生体情報に基づいてユーザの集中判定を行うことができるため、ユーザが刺激提示コンテンツに集中しているか否かを容易に判定することができる。
また、本開示に係る刺激提示システムにおいて、前記集中判定部は、前記集中判定コンテンツ提示後であって、かつ次のコンテンツが提示される前に取得された生体情報に含まれる第1脳活動情報と、前記集中度判定コンテンツ以外の刺激提示コンテンツが提示されている時に取得された生体情報に含まれる第2脳活動情報とを比較し、前記第1脳活動情報と前記第2脳活動情報との差が所定の量以上ある場合を集中している状態と判定し、それ以外の場合を集中していない状態と判定してもよい。
このような構成により、ユーザがコンテンツ提示部に提示されているコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示システムにおいて、前記刺激コンテンツデータベースは、前記刺激提示コンテンツを、コンテンツの種類とユーザの心理状態に与える効果とのうち少なくとも一方に基づいて分類した属性情報を保持し、
前記シナリオ作成部は、前記刺激コンテンツデータベースに保持された前記属性情報に基づいて、前記刺激提示コンテンツと、前記集中判定コンテンツとを含むシナリオを作成し、
前記集中判定コンテンツは、前記刺激提示コンテンツの属性情報と異なる属性情報を有するコンテンツを含んでもよい。
このような構成により、ユーザに刺激提示コンテンツと著しく異なる集中判定用コンテンツを提示することができるため、ユーザがコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示システムにおいて、前記シナリオ作成部は、前記刺激提示コンテンツを提示する頻度と比べて前記集中判定コンテンツを低い頻度で提示するシナリオを作成してもよい。
このような構成により、ユーザが提示されているコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示システムにおいて、前記シナリオ作成部は、前記刺激コンテンツデータベースに保持された前記属性情報に基づいて、前記集中判定コンテンツを提示する直前のコンテンツが有する少なくとも1つ以上の属性情報と同じ属性情報の数や、属性情報の類似度を判定し、最も類似度の低いコンテンツを、前記集中判定コンテンツとして選択してもよい。
このような構成により、ユーザが提示されているコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示システムにおいて、前記集中判定部が、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記コンテンツ提示部は、音を発してもよい。
このような構成により、ユーザがコンテンツに集中していない場合に、音による注意喚起を行い、ユーザをコンテンツに集中させることができる。
また、本開示に係る刺激提示システムにおいて、前記心理状態推定部、前記シナリオ作成部および前記心理状態判断部のうちの少なくとも1つはプロセッサを含んでもよい。
本開示の一態様に係る刺激提示方法は、
ユーザの心理状態を目標の心理状態に導くための刺激提示方法であって、
前記ユーザの生体情報を取得する生体情報取得工程と、
前記生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定工程と、
前記ユーザの心理状態が第1心理状態であると推定された後、前記ユーザの目標とする心理状態を示す目標心理状態を設定する目標状態設定工程と、
前記設定された目標心理状態に基づいてユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成するシナリオ作成工程と、
前記作成されたシナリオに基づいて前記一つ以上の刺激提示コンテンツを提示するコンテンツ提示工程と、
前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、推定された前記ユーザの心理状態である第2心理状態が前記目標心理状態に至っているか否かを判断する心理状態判断工程とを含んでもよい。
このような構成により、ユーザの生体情報により推定された第1心理状態に基づいて目標心理状態を設定し、設定された目標状態に基づいて刺激提示コンテンツのシナリオを作成することができる。また、本開示に係る刺激提示方法では、刺激提示コンテンツにより変化したユーザの第2心理状態が目標心理状態に至っているか否かを判断しているため、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示方法において、前記心理状態判断工程は、前記第2心理状態が前記目標心理状態に至っていると判断した場合、前記刺激提示コンテンツの提示を終了することを含んでもよい。
このような構成により、ユーザの心理状態が目標心理状態に至る適切なタイミングで刺激提示コンテンツの提示を終了させることができる。
また、本開示に係る刺激提示方法において、前記目標状態設定工程は、前記ユーザの入力操作によって入力された目標心理状態に関する入力データに基づいて前記目標心理状態を設定することを含んでもよい。
このような構成により、ユーザが目標心理状態を入力することができるため、確実かつ容易に目標心理状態を設定することができる。
また、本開示に係る刺激提示方法において、前記目標状態設定工程は、記録媒体に記録された過去に設定された目標心理状態の履歴情報に基づいて前記目標心理状態を設定することを含んでもよい。
このような構成により、過去に設定された目標心理状態の履歴情報から自動的に目標心理状態を設定することができるため、目標心理状態を設定するための時間を短くできると共に、容易に目標心理状態を設定できる。
また、本開示に係る刺激提示方法において、前記シナリオ作成工程は、前記刺激提示コンテンツの提示に対する前記ユーザの心理状態の変化の傾向を前記ユーザと関連付けて定義したユーザモデルを格納するユーザモデルデータベースと、前記刺激提示コンテンツの提示に対して予想される前記ユーザの心理状態の変化量を示す予想変化量を格納する刺激コンテンツデータベースとのうち少なくとも一方のデータに基づいて、刺激提示コンテンツのシナリオを作成することを含んでもよい。
このような構成により、ユーザモデルデータベースに基づいてユーザと関連付けて刺激提示コンテンツのシナリオをカスタマイズして作成することができる。また、刺激提示コンテンツデータベースに基づいて、ユーザの心理状態を目標心理様態に変化させるのに効果の高い刺激提示コンテンツを含むようにシナリオを作成することができる。そのため、本開示の刺激提示方法では、ユーザの心理状態を更に効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示方法は、更に、
前記心理状態推定工程で推定された前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第1変化量と、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータに基づいて予想される前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第2変化量と、の差異を算出する効果差異算出工程と、
前記効果差異算出工程で算出された差異が所定値以上である場合、前記シナリオを変更するシナリオ変更工程と、
を含んでもよい。
このような構成により、実際に提示されている刺激提示コンテンツによるユーザの心理状態の第1変化量と、予想されるユーザの心理状態の第2変化量との差異を算出することができる。そのため、本開示の刺激提示方法は、刺激提示コンテンツを提示するシナリオを、ユーザの心理状態を目標心理状態に導くためにより効果の高い刺激提示コンテンツを含むようにシナリオを変更することができる。このように、本開示の刺激提示方法では、リアルタイムに刺激提示コンテンツのシナリオを最適化することができるため、ユーザの心理状態を更に効率良く目標の心理状態に導くことが可能となる。
また、本開示に係る刺激提示方法は、前記効果差異算出工程で算出された差異が所定値以上である場合、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータを更新するデータベース更新工程を含んでもよい。
このような構成により、実際に提示された刺激提示コンテンツによるユーザの心理状態の変化量が予想していた変化量と異なる場合に、ユーザモデルデータベースと刺激コンテンツデータベースとのうち少なくとも一方のデータを更新することができる。そのため、本開示の刺激提示方法では、ユーザの心理状態を更に効率良く目標の心理状態に導くことができる。
また、本開示に係る刺激提示方法は、前記効果差異算出工程で算出された差異が所定値以上である場合に、ユーザが前記刺激提示コンテンツに集中しているか否かを判定する集中判定工程を含み、
前記集中判定工程は、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記効果差異算出工程で算出された差異を補正することを含んでもよい。
このような構成により、ユーザが刺激提示コンテンツに集中していない場合に、効果差異算出工程で算出された差異を補正することにより、ユーザが集中していないときに提示されていた刺激提示コンテンツの効果の結果を除外することができる。そのため、本開示の刺激提示方法では、ユーザに対する刺激提示コンテンツの効果のデータを正確に収集することができるため、ユーザの心理状態を更に効率良く目標の心理状態に導くことができる。
本開示に係る刺激提示方法において、前記生体情報取得工程により取得された生体情報は、前記ユーザの脳の活動状態を示す脳活動情報と前記脳活動情報以外の生体情報を含み、
前記コンテンツ提示工程は、更に、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定するための集中判定コンテンツを提示し、
前記集中判定工程は、前記集中判定コンテンツが提示された後に前記生体情報取得工程によって取得された前記脳活動情報または前記脳活動情報以外の生体情報のうち少なくとも一方に基づいて、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定してもよい。
このような構成により、生体情報に基づいてユーザの集中判定を行うことができるため、ユーザが刺激提示コンテンツに集中しているか否かを容易に判定することができる。
また、本開示に係る刺激提示方法において、前記集中判定工程は、前記集中判定コンテンツ提示後であって、かつ次のコンテンツが提示される前に取得された生体情報に含まれる第1脳活動情報と、前記集中度判定コンテンツ以外のコンテンツが提示されている時に取得された生体情報に含まれる第2脳活動情報とを比較し、前記第1脳活動情報と前記第2脳活動情報との差が所定の量以上ある場合を集中している状態と判定し、それ以外の場合を集中していない状態と判定してもよい。
このような構成により、ユーザが提示されているコンテンツに集中しているか否かをより確実に判定することができる。
本開示に係る刺激提示方法において、前記シナリオ作成工程で作成されたシナリオを、前記刺激コンテンツデータベースが保持する前記刺激提示コンテンツをコンテンツの種類とユーザの心理状態に与える効果とのうち少なくとも一方に基づいて分類した属性情報に基づいて、前記刺激提示コンテンツと、前記集中判定コンテンツとを含むシナリオに変更するシナリオ変更工程を含み、
前記集中判定コンテンツは、前記刺激提示コンテンツの属性情報と異なる属性情報を有するコンテンツを含んでもよい。
このような構成により、ユーザに刺激提示コンテンツと著しく異なる集中判定用コンテンツを提示することができるため、ユーザが提示されているコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示方法において、前記シナリオ変更工程は、前記刺激提示コンテンツを提示する頻度と比べて前記集中判定コンテンツを低い頻度で提示するシナリオに変更してもよい。
このような構成により、ユーザが提示されているコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示方法において、前記シナリオ変更工程は、前記刺激コンテンツデータベースに保持された前記属性情報に基づいて、前記集中判定コンテンツを提示する直前のコンテンツが有する少なくとも1つ以上の属性情報と同じ属性情報の数や、属性情報の類似度を判定し、最も類似度の低いコンテンツを、前記集中判定コンテンツとして選択してもよい。
このような構成により、ユーザが提示されているコンテンツに集中しているか否かをより確実に判定することができる。
また、本開示に係る刺激提示方法において、前記集中判定工程が、ユーザが前記刺激提示コンテンツに集中していないと判定した場合に、音を発する音発生工程を含んでもよい。
このような構成により、ユーザがコンテンツに集中していない場合に、音による注意喚起を行い、ユーザをコンテンツに集中させることができる。
また、本開示に係る刺激提示方法において、前記心理状態推定工程、前記シナリオ作成工程および前記心理状態判断工程のうちの少なくとも一つは刺激提示システムが備えるプロセッサにより行われてもよい。
本開示に係るコンピュータは、ユーザの心理状態を目標の心理状態に導くための刺激提示システムのコンピュータであって、
前記コンピュータと接続する生体情報取得装置により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定部と、
前記心理状態推定部により前記ユーザの心理状態が第1心理状態と推定された後、前記コンピュータと接続する目標状態設定装置により設定された前記ユーザの目標とする心理状態を示す目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成し、前記作成したシナリオを前記コンピュータと接続するコンテンツ提示装置に送信するシナリオ作成部と、
前記コンテンツ提示装置による前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定部により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断部と、
を備える。
このような構成により、ユーザの心理状態が第1心理状態と推定された後に、設定された目標心理状態に基づいて一つ以上の刺激提示コンテンツを含むシナリオを作成することができる。また、本開示のコンピュータでは、刺激提示コンテンツにより変化したユーザの第2心理状態が目標心理状態に至っているか否かを判断している。そのため、本開示のコンピュータでは、ユーザの心理状態を目標心理状態に近づけるために、ユーザの心理状態の変化に基づいて効率的にコンテンツを選択し、コンテンツ提示装置に提示させることができるため、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
また、本開示に係るコンピュータにおいて、前記心理状態推定部、前記シナリオ作成部および前記心理状態判断部のうちの少なくとも1つはプロセッサを含んでもよい。
本開示に係るコンピュータの制御方法は、
ユーザの心理状態を目標の心理状態に導くための刺激提示システムのコンピュータの制御方法であって、
前記コンピュータと接続する生体情報取得装置により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定工程と、
前記心理状態推定工程により前記ユーザの心理状態が第1心理状態と推定された後、前記コンピュータと接続する目標状態設定装置により設定された前記ユーザの目標とする心理状態を示す目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成し、前記作成したシナリオを前記コンピュータと接続するコンテンツ提示装置に送信するシナリオ作成工程と、
前記コンテンツ提示装置による前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定工程により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断工程と、
を含む。
このような構成により、ユーザの心理状態が第1心理状態と推定された後に、設定された目標心理状態に基づいて一つ以上の刺激提示コンテンツを含むシナリオを作成することができる。また、本開示のコンピュータの制御方法では、刺激提示コンテンツにより変化したユーザの第2心理状態が目標心理状態に至っているか否かを判断している。そのため、本開示のコンピュータの制御方法では、ユーザの心理状態を目標心理状態に近づけるために、ユーザの心理状態の変化に基づいて効率的にコンテンツを選択し、コンテンツ提示装置に提示させることができるため、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
また、本開示に係るコンピュータの制御方法において、前記心理状態推定工程、前記シナリオ作成工程および前記心理状態判断工程のうちの少なくとも一つはプロセッサにより行わせてもよい。
以下、本開示の実施形態について、添付の図面を参照しながら説明する。また、各図においては、説明を容易なものとするため、各要素を誇張して示している。
(第1実施形態)
[全体構成]
図1は、第1実施形態に係る刺激提示システム10Aの構成のブロック図を示す。図1に示すように、刺激提示システム10Aは、生体情報取得部11と、心理状態推定部12と、目標状態設定部13と、シナリオ作成部14と、コンテンツ提示部15と、心理状態判断部16と、ユーザモデルデータベース17と、刺激コンテンツデータベース18と、効果差異算出部19と、を備える。また、刺激提示システム10Aは、コンピュータを搭載して構成されるものであり、これらの構成要素は、コンピュータによって制御される。
刺激提示システム10Aのコンピュータは、例えば、CPU(Central Processing Unit)などの処理回路(図示せず)と記録媒体を含む。記録媒体とは、読み取り可能な記録媒体、または読み取りおよび書き込みが可能な記録媒体(第1の記録媒体)であり、例えば、ハードディスク(図示せず)、メモリ(図示せず)などである。
第1の記録媒体には、例えば、コンピュータを心理状態推定部12、シナリオ作成部14、心理状態判断部16、および効果差異算出部19として、それぞれ機能させるプログラムが記録されている。
また、第1の記録媒体には、例えば、および生体情報取得部11、コンテンツ提示部15、および目標状態設定部13を、それぞれ制御するプログラムが記録されている。
また、第1の記録媒体には、ユーザモデルデータベース17、刺激コンテンツデータベース18へのアクセス(読み取り、書き込みなど)を行うプログラムが記録されている。
コンピュータの処理回路が第1の記録媒体に記録されたこれらのプログラムを実行することにより、コンピュータにおいて、心理状態推定部12、シナリオ作成部14、心理状態判断部16、および効果差異算出部19が、それぞれ機能し、生体情報取得部11、コンテンツ提示部15、および目標状態設定部13を制御し、ユーザモデルデータベース17、刺激コンテンツデータベース18へのアクセスを行う。
上述のプログラムは、例えば、予め第1の記録媒体に記録されていてもよい。または、図示しないインターネットなどの通信回線を介して上述のプログラムを蓄積するサーバ装置(図示せず)からダウンロードして、ダウンロードしたプログラムを第1の記録媒体に記録してもよい。この場合、第1の記録媒体は、読み取りおよび書き込みが可能な記録媒体であることが望ましい。
または、刺激提示システム10Aのコンピュータは、上述した第1の記録媒体に記録したプログラムを処理回路で実行することにより実現される機能、動作を組み込んだ集積回路を用いて実現してもよい。
なお、生体情報取得部11と、目標状態設定部13と、コンテンツ提示部15とは、それぞれ生体情報取得装置11、目標状態設定装置13、コンテンツ提示装置15ということもある。
生体情報取得部11と、目標状態設定部13と、コンテンツ提示部15とは、それぞれ、刺激提示システム10Aのコンピュータとは物理的に一体で構成されていてもよい。
また、コンピュータは、例えば、読み取りおよび書き込みが可能な記録媒体(第2の記録媒体)を含んでもよい。
第2の記録媒体は、読み取りおよび書き込みが可能な記録媒体であり、例えば、ハードディスク(図示せず)、メモリなどがある。
第2の記録媒体は、例えば、ユーザモデルデータベース17と、刺激コンテンツデータベース18とに関する情報が蓄積されている。
コンピュータは、第2の記録媒体を含むとしたが、これに限定されない。例えば、第2の記録媒体は、コンピュータとは物理的に別体で互いに接続されていてもよい。この接続は、例えば、有線の接続であっても、無線通信を利用した無線の接続であってもよい。
なお、「刺激提示」とは、ユーザの心理状態に影響を与え得る刺激(例えば、視覚、聴覚、嗅覚、触覚、及び味覚等の感覚器官、高次には脳に対する刺激等あらゆる刺激を含む)を提示することを意味する。
図2は、本開示の第1実施形態に係る刺激提示システム10Aの適用例の概略図を示す。図2に示すように、刺激提示システム10Aは、椅子に適用されるものである。刺激提示システム10Aを適用した椅子では、ユーザの生体情報を取得する生体情報取得部11a、11bが椅子のシート下部、椅子の背もたれ部分にそれぞれ設けられている。また、椅子の前方には、ユーザの目標心理状態を設定する目標状態設定部13と、ユーザにコンテンツを提示するコンテンツ提示部15とが設けられている。生体情報取得部11a、11bと、目標状態設定部13と、コンテンツ提示部15とは、それぞれコンピュータ20に接続されている。
コンピュータ20は、例えば、心理状態推定部12と、シナリオ作成部14と、心理状態判断部16と、ユーザモデルデータベース17と、刺激コンテンツデータベース18と、効果差異算出部19と、を備えるものを例として説明をする。
また、コンピュータ20は、椅子に取り付けられる必要は必ずしもなく、椅子が配置されている位置とは異なる位置に配置されていてもよい。例えば、コンピュータ20は、椅子とネットワークを介して接続するサーバ装置(図示せず)であってもよい。
刺激提示システム10Aの詳細な構成について説明する。
<生体情報取得部>
生体情報取得部11は、ユーザの生体情報を取得するセンサである。生体情報とは、例えば、ユーザの心拍、呼吸、脳波、脳磁、酸素濃度、血流、表情、体動等の情報である。生体情報取得部11は、例えば、ユーザの生体情報を取得するセンサを一つ以上含んでもよい。第1実施形態における生体情報取得部11は、例えば、ユーザの心拍及び体動(第1生体情報)を取得する圧力センサ11aと、ユーザの脳活動情報(第2生体情報)を取得するセンサを含む。脳活動情報とは、脳の活動状態を含む情報である。脳活動情報を取得するセンサとは、例えば、電位センサ、磁気センサなどである。例えば、電位センサを利用者の頭部に取り付け、電位センサから検出される情報(電位)を用いて脳活動情報(脳波情報)を取得する。例えば、磁気センサを利用者の頭部に取り付け、磁気センサから検出される情報(磁界)を用いて脳活動情報(脳磁情報)を取得する。図では、生体情報取得部11は、ユーザの脳活動情報を取得するセンサとして、例えば、脳波情報を取得する電位センサに対応する脳波センサ11bを含む。図2に示すように、圧力センサ11aは、椅子のシート下部に設置されている。脳波センサ11bは、椅子の背もたれ部分に設置されている。生体情報取得部11は、リアルタイムでユーザの生体情報を取得している。本実施の形態では、生体情報は、第1生体情報および第2生体情報を含む。生体情報取得部11で取得された生体情報のデータは、心理状態推定部12に送信される。
<心理状態推定部>
心理状態推定部12は、生体情報取得部11によって取得されたユーザの生体情報に基づいてユーザの心理状態を推定する。ユーザの心理状態とは、例えば、リラックス、集中、興奮、驚き、活動的、喜び、悲しみ等の心理状態である。第1実施形態においては、心理状態推定部12は、圧力センサ11aで取得された心拍及び体動、および脳波センサ11bで取得された脳波によって、ユーザの心理状態を推定している。心理状態推定部12は、生体情報取得部11に基づいて、リアルタイムにユーザの心理状態を推定することができる。
心理状態推定部12は、例えば、刺激提示コンテンツ提示前に生体情報取得部11で取得された生体情報に基づいて、刺激提示コンテンツ提示前のユーザの心理状態を推定する。
また、心理状態推定部12は、例えば、刺激提示コンテンツ提示を開始した後に、生体情報取得部11で取得された生体情報に基づいて、刺激提示コンテンツの提示を開始した後のユーザの心理状態を推定する。
刺激提示コンテンツ提示を開始した後というのは、例えば、刺激提示コンテンツの提示を開始した直後、刺激提示コンテンツ提示中、刺激提示コンテンツ提示が終了してから次の刺激提示コンテンツの提示を開始するまでの間(刺激提示コンテンツの提示終了後ともいう)、などを含む。
つまり、心理状態推定部12は、例えば、刺激提示コンテンツ提示開始直後、刺激提示コンテンツの提示中、刺激提示コンテンツの提示終了後といったタイミングで、生体情報取得部11により取得された生体情報に基づいて、ユーザの心理状態を推定する。第1実施形態においては、心理状態推定部12は、特に、刺激提示コンテンツ提示前の心理状態、刺激提示コンテンツ提示中の心理状態、及び刺激提示コンテンツ提示後の心理状態を推定する。
心理状態推定部12で推定されたユーザのこれらの心理状態のデータは、目標状態設定部13と、心理状態判断部16とに送信される。また、心理状態推定部12は、後述するユーザモデルデータベース17と接続されており、ユーザモデルデータベース17からユーザ毎の情報(ユーザモデル)を受信している。ユーザモデルデータベース17は、刺激提示システム10Aを利用するユーザと、このユーザに関連する情報を蓄積するデータベースである。即ち、心理状態推定部12は、ユーザモデルデータベース17のユーザモデルに基づいて、ユーザの心理状態を推定している。
生体情報に基づくユーザの心理状態の推定方法について説明する。
心理状態の推定方法として、例えば、心拍からの統計的な機械学習による推定方法が研究されている。本開示のシステムで取得される生体情報のデータを用いる場合、例えば、リラックス時には心拍の変動時系列データであるRRI(R−R Interval)において、安定した状態が観測され、さらに脳波としてα波に加えて、低β波、及びθ波の混在が確認されることがある。また、体動において3Hz以下の安定したリズムが計測される。また、心拍においてはRRIのLF/HF(Low Frequency/High Frequency)のバランスを用いることで副交感神経の緊張状態を推定することができる。この推定方法では、複数のセンサから得た心拍、体動、及び脳波の信号から、これらのRRI等の特徴量を抽出し、パターン認識や回帰分析などの統計処理を行うことで、リラックス状態であるという推定を行うことができる。同様に、集中度、興奮状態、喜び、悲しみ等の心理様態についても、これらの特徴量を用いた統計処理による学習で推定することが可能となる。
図3は、ユーザの生体情報に基づくユーザの心理状態の推定例を示す。図3に示すように、ユーザの心理状態として、例えば、「リラックス」、「集中」、「興奮、驚き、活動的」、「喜び」、及び「悲しみ」が定義されている。心理状態推定部12は、例えば、ユーザの心拍が安定し、低いβ波と、θ波と、α波とが混在し、体動のリズムが安定している場合、ユーザの心理状態が「リラックス」であると推定する。また、心理状態推定部12は、ユーザの心拍の変動が大きく、高いβ波が出ており、体動の揺らぎが大きい場合、ユーザの心理状態が「興奮、驚き、活動的」であると推定する。このように、心理状態推定部12は、図3に示すユーザの心拍、脳波、及び体動の生体情報によって、ユーザの心理状態が「リラックス」、「集中」、「興奮、驚き、活動的」、「喜び」、及び「悲しみ」のいずれの状態であるかを推定する。
<目標状態設定部>
目標状態設定部13は、ユーザの目標とする心理状態を示す目標心理状態を設定する。目標状態設定部13は、ユーザの心理状態を表示する表示部と、ユーザが入力操作を行う入力操作部と、を備える。表示部は、心理状態推定部12により推定された現在のユーザの心理状態を表示する。入力操作部では、表示部で表示されたユーザの心理状態に基づき、ユーザが目標心理状態を入力する。目標状態設定部13としては、例えば、タッチパネル等を用いることができる。目標状態設定部13では、例えば、ユーザは、表示部に対応する表示パネルに表示される現在の心理状態が「悲しみ」であることを確認した後、入力操作部に対応するタッチパネルを操作して「喜び」を入力することにより、目標心理状態を「喜び」に設定することができる。目標状態設定部13で設定された目標心理状態のデータは、シナリオ作成部14に送信される。
<シナリオ作成部>
シナリオ作成部14は、目標状態設定部13で設定された目標心理状態に基づいて刺激提示コンテンツのシナリオを作成する。刺激提示コンテンツとは、ユーザの心理状態に影響を与え得るコンテンツである。本実施の形態では、刺激提示コンテンツは、映像又は音の少なくとも一方を含むものを例にして説明をする。映像は、例えば、写真、図形等の静止画、又は動画等を含む。音は、例えば、音楽、ラジオ等を含む。シナリオとは、一つまたは複数の刺激提示コンテンツの提示順序、提示時間、提示回数などである。
加えて、コンテンツ提示部15の表示部の画面内で動くコンテンツ、例えば、写真等のスライドショーを提示する場合は、シナリオは、提示される写真などの提示位置、提示中の画面内での動きを含む。シナリオ作成部14で作成されたシナリオのデータは、コンテンツ提示部15に送信される。
なお、シナリオ生成において、一つ以上の刺激提示コンテンツのそれぞれに対応するコンテンツの表示順序を決定するときに、次に表示するコンテンツを選択するときのコンテンツの候補それぞれの優先順位を、刺激コンテンツデータベース18に保持されるコンテンツ間類似度によって決定することが可能である。これにより、コンテンツ間類似度によって形成されるネットワークに従って、コンテンツを提示することで、ユーザに対してより自然な流れのシナリオを生成することが可能である。類似度のネットワークは、論理的なネットワークであり、図9のように図示することが可能であり、特にコンテンツが持つ特徴毎のつながりの関係から類似度の判定を行うことができる。また、驚きをもたらす目的のシナリオを生成する場合は、コンテンツ間類似度のネットワークから逸脱するコンテンツを提示するようなコンテンツの選択を行うことが可能となる。
このとき、コンテンツ間類似度は、コンテンツ中に含まれる対象や構図、コントラスト等の特徴の認知モデルに基づく共起回数によって計量されてもよく、これにより、ユーザが元々保持する音楽や写真などのコンテンツライブラリから特徴の共起回数を計算することで、個人化されたコンテンツ間類似度の初期値を求めることができる。さらに、コンテンツ提示中の生体信号(集中・安定・驚き)を取得することによって、コンテンツ間類似度を調整していくことも可能である。
また、喜びと悲しみの類似度は低いが、喜びと興奮は類似度が高いなど、コンテンツの属性情報自体の類似度をあらかじめ決めておくことでコンテンツ自体の類似度を判定する基準とすることが可能である。
第1実施形態において、シナリオ作成部14が、シナリオを作成する例について説明する。
図4は、シナリオ作成部14によって作成される刺激提示コンテンツのシナリオ例を示す。図4に示すように、目標心理状態が「リラックス」である場合、シナリオ作成部14は、「リラックス」の効果を奏すると予想される一つ以上の刺激提示コンテンツのシナリオAを作成する。シナリオAに含まれる「リラックス」の効果を奏すると予想される刺激提示コンテンツは、例えば、「風景画」および、「過去によく見た写真」のうちのいずれかを含む。
また、シナリオ作成部14は、目標心理状態が「集中」である場合、「集中」の効果を奏すると予想される一つ以上の刺激提示コンテンツのシナリオBを作成する。シナリオBに含まれる「集中」の効果を奏すると予想される刺激提示コンテンツは、例えば、「青基調、テーマ統一された写真、図形」、を含む。
また、シナリオ作成部14は、目標心理状態が「興奮、驚き、活動的」である場合、このような心理状態に導く効果を奏すると予想される一つ以上の刺激提示コンテンツのシナリオCを作成する。シナリオCに含まれる「興奮、驚き、活動的」といった心理状態に導く効果を奏すると予想される刺激提示コンテンツは、例えば、「ダイナミックな構図」及び「知り合いの写真」のうちのいずれかを含む。
また、シナリオ作成部14は、目標心理状態が「喜び」である場合、「喜び」の効果を奏すると予想される一つ以上の刺激提示コンテンツのシナリオDを作成する。シナリオDに含まれる「喜び」の効果を奏すると予想される刺激提示コンテンツは、例えば、「喜ぶシーン」を含む。
また、シナリオ作成部14は、目標心理状態が「悲しみ」である場合、「悲しみ」の効果を奏すると予想される一つ以上の刺激提示コンテンツのシナリオEを作成する。シナリオEに含まれる「悲しみ」の効果を奏すると予想される刺激提示コンテンツは、例えば、「悲しいシーン」を含む。
シナリオ作成部14は、後述するユーザモデルデータベース17と、刺激コンテンツデータベース18とに基づいて、目標心理状態に導く効果のより高い刺激提示コンテンツを刺激コンテンツデータベース18に保持されるコンテンツの中から選択し、シナリオを作成する。
図5は、シナリオ作成部14で作成されたシナリオAに基づく刺激提示コンテンツの提示例を示す。図5に示すように、ユーザの心理状態を「リラックス」に導くためのシナリオAは、主として風景画又は過去によく見た写真を含む刺激提示コンテンツA1〜A30を順番に所定の時間間隔(例えば、10秒間隔)で提示するように作成される。
<コンテンツ提示部>
コンテンツ提示部15は、シナリオ作成部14で作成されたシナリオに基づいて一つ以上の刺激提示コンテンツを提示する。コンテンツ提示部15は、映像を表示する表示部と、音を再生するスピーカーと、を備える。コンテンツ提示部15は、例えば、図4に示すシナリオA〜Eに基づいて刺激提示コンテンツを提示する。コンテンツ提示部15は、例えば、図5に示すシナリオAに基づく刺激提示コンテンツA1〜A30を、表示部とスピーカーとからユーザに提示する。
<心理状態判断部>
心理状態判断部16は、コンテンツ提示部15から提示される刺激提示コンテンツにより変化したユーザの心理状態が目標心理状態に至っているか否かを判断する。具体的には、心理状態判断部16は、刺激提示コンテンツの提示中又は提示後に、心理状態推定部12によって推定されたユーザの心理状態が目標心理状態に至っているか否かを判断する。刺激提示コンテンツの提示後とは、例えば、刺激提示コンテンツの提示開始後、または提示終了後である。心理状態判断部16では、ユーザの心理状態が目標心理状態に至っていると判断した場合、コンテンツ提示部15からの刺激提示コンテンツの提示を終了する。一方、ユーザの心理状態が目標心理状態に至っていないと判断した場合、コンテンツ提示部15からの刺激提示コンテンツの提示を継続する。
<ユーザモデルデータベース>
ユーザモデルデータベース17は、刺激提示コンテンツの提示に対するユーザの心理状態の変化の傾向をユーザ毎に定義したユーザモデルを格納する。ユーザモデルは、刺激提示コンテンツが心理状態に与える効果の違いをユーザと関連付けて定義しているものである。また、刺激提示システム10Aを複数のユーザが利用する場合、ユーザ毎にユーザモデルを定義すればよい。このようにすることで、同じ刺激提示コンテンツであっても個々のユーザの心理状態に与える効果の違いを定義できる。
例えば、山の写真を見て、リラックスするユーザもいれば、興奮するユーザもいる。また、同じ山の写真を見ていても、ユーザ毎に心理状態の変化の程度は異なる。そのため、ユーザに提示される刺激提示コンテンツのシナリオが、ユーザ毎に適したシナリオとなるようにカスタマイズされていれば、ユーザの心理状態を効率良く目標心理状態に導くことができる。ユーザモデルデータベース17は、刺激提示コンテンツと、その刺激提示コンテンツが心理状態に与える効果との関係をユーザと関連付けて定義したユーザモデルを格納している。また、刺激提示システム10Aを複数のユーザが利用する場合、ユーザモデルデータベース17は、ユーザ毎のユーザモデルを格納する。
第1実施形態においては、ユーザモデルデータベース17に格納されたユーザモデルの情報は、シナリオ作成部14において刺激提示コンテンツのシナリオを作成する際に利用される。また、ユーザモデルデータベース17に格納されたユーザモデルは、後述する効果差異算出部19によって算出される、提示された刺激提示コンテンツの効果と、ユーザモデルにより予想される効果との差異に基づいて更新される。また、ユーザモデルデータベース17は、心理状態推定部12と接続されており、ユーザモデルのデータを心理状態推定部12に提供している。
<刺激コンテンツデータベース>
刺激コンテンツデータベース18は、刺激提示コンテンツの提示に対して予想されるユーザの心理状態の変化量を示す予想変化量を格納する。刺激提示コンテンツに対するユーザの心理状態の予想変化量とは、ある刺激提示コンテンツを提示する前と提示した後のユーザの心理状態の変化量を予測した量である。刺激提示コンテンツを提示した後とは、例えば、このコンテンツの提示の開始後、刺激提示コンテンツの提示中、または刺激提示コンテンツの提示終了後などである。刺激コンテンツデータベース18は、刺激提示コンテンツと、その刺激提示コンテンツが与えるユーザの心理状態の予想変化量との関係を格納している。具体的には、刺激コンテンツデータベース18は、刺激提示コンテンツの属性情報を格納しており、この属性情報に基づいて刺激提示コンテンツに対するユーザの心理状態の予想変化量を決定している。属性情報とは、刺激提示コンテンツが、複数の目標心理状態のうちのどの心理状態に導くのに効果があるのかを示した情報である。第1実施形態においては、属性情報は、刺激提示コンテンツを、コンテンツの種類と、ユーザの心理状態に与える効果とに基づいて作成されている。第1実施形態においては、刺激コンテンツデータベース18のデータは、シナリオ作成部14において刺激提示コンテンツのシナリオを作成する際に利用される。
属性情報について図6を用いて詳細に説明する。
図6は、刺激提示コンテンツの属性情報の一例を示す。図6に示すように、属性情報は、刺激提示コンテンツをコンテンツの種類毎に分類した第1情報と、刺激提示コンテンツをユーザの心理状態に与える効果毎に分類した第2情報とを含む。
第1情報は、図6に示すように、刺激提示コンテンツを「風景画」、「過去によく見た写真」、「青基調、テーマ統一された写真、図形」、「ダイナミックな構図」、及び「知り合いの写真」のコンテンツの種類毎に分類したものである。第1情報においてコンテンツの種類毎に刺激提示コンテンツを分類することにより、類似するコンテンツによるユーザの心理状態の効果を予想することができる。例えば、図6に示すように、第1情報における「風景画」及び「過去によく見た写真」に分類されるコンテンツは、矢印G1、G2で示すように、主にユーザの心理状態を「リラックス」に導くことを予想することができる。同様に、第1情報における「青基調、テーマ統一された写真、図形」に分類されるコンテンツは、矢印G3で示すように、主にユーザの心理状態を「集中」に導くことを予想することができる。また、第1情報における「ダイナミックな構図」及び「知り合いの写真」に分類されるコンテンツは、矢印G4、G5で示すように、主にユーザの心理状態を「興奮、驚き、活動的」に導くことを予想することができる。
第2情報は、図6に示すように、「リラックス」、「集中」、「興奮、驚き、活動的」、「喜び」、及び「悲しみ」の効果毎に分類したものである。例えば、第2情報では、第1情報で「風景画」に分類されるコンテンツのうち、「興奮、驚き、活動的」の効果を奏する刺激提示コンテンツが含まれる場合がある(図6中の第1情報の「風景画」から第2情報の「興奮、驚き、活動的」への点線矢印H1を参照)。このような刺激提示コンテンツは、ユーザの心理状態を「リラックス」と「興奮、驚き、活動的」とに導くことができるため、第2情報では、そのような「風景画」の刺激提示コンテンツを「リラックス」と「興奮、驚き、活動的」に分類する。また、第2情報では、ユーザが刺激提示コンテンツの効果を人為的にタグ付けすることにより、刺激提示コンテンツを分類することもできる。例えば、図6に示すように、「知り合いの写真」の中に「喜び」の効果を奏する写真がある場合、ユーザはその写真に「喜び」のタグを付けて、その写真を「喜び」に分類することができる。同様に、「知り合いの写真」の中に「悲しみ」の効果を奏する写真がある場合、ユーザはその写真に「悲しみ」のタグを付けて、その写真を「悲しみ」に分類することができる。第2情報においては、個々のコンテンツの効果毎に刺激提示コンテンツを分類することにより、刺激提示コンテンツによるユーザの心理状態の変化量をさらに効率良く予想することができる。
<効果差異算出部>
効果差異算出部19は、刺激提示コンテンツによるユーザの心理状態の第1変化量と、ユーザモデルデータベース17と刺激コンテンツデータベース18とのデータに基づいて予想されるユーザの心理状態の第2変化量と、の差異を算出する。第1変化量は、刺激提示コンテンツの提示前に推定されたユーザの心理状態から、刺激提示コンテンツの提示開始後に推定されたユーザの心理状態への変化量である。刺激提示コンテンツの提示開始後とは、例えば、刺激提示コンテンツの提示を開始した直後、刺激提示コンテンツの提示中又は刺激提示コンテンツの提示終了後から次の刺激提示コンテンツを提示するまでの間、などである。第2変化量は、ユーザモデルデータベース17及び刺激コンテンツデータベース18のデータに基づいて予想される、刺激提示コンテンツの提示前のユーザ心理状態から刺激提示コンテンツの提示開始後のユーザの心理状態への予想変化量である。効果差異算出部19において第1変化量と第2変化量との差異が所定値以上である場合、シナリオ作成部14が、効果差異算出部19の算出結果に基づいて、シナリオを変更する。また、ユーザモデルデータベース17は、効果差異算出部19の算出結果をフィードバックして、ユーザモデルを更新する。刺激コンテンツデータベース18は、効果差異算出部19の算出結果をフィードバックして、その刺激提示コンテンツに対するユーザの心理状態の予想変化量のデータを更新する。
[動作]
次に、刺激提示システム10Aの動作(刺激提示方法)について図7を用いて説明する。
図7は、刺激提示システム10Aの動作のフローチャートを示す。図7に示す各ステップは、コンピュータ20によって実行されるものである。以下、図7に示すステップについて、詳細に説明する。
図7に示すように、刺激提示システム10Aの動作が開始すると、フローはステップST101に進む。
ステップST101は、生体情報取得部11(圧力センサ11a、脳波センサ11b)によりユーザの生体情報を一つ以上取得する(生体情報取得工程)。このステップST101では、生体情報取得部11が、生体情報としてユーザの心拍、脳波、及び体動をリアルタイムに測定する。
ステップST102は、心理状態推定部12により刺激を提示する前のユーザの心理状態を推定する(心理状態推定工程)。ステップST102では、心理状態推定部12が、ステップST101で取得した生体情報に基づいて、ユーザの心理状態を推定する。ユーザの心理状態の推定については、上述したように、図3に示す推定例を用いて行う。また、ステップST102では、心理状態推定部12は、ユーザモデルデータベース17のユーザモデルに基づいて、ユーザの心理状態を推定する。
ステップST103は、目標状態設定部13によりユーザの目標心理状態を設定する(目標状態設定工程)。ステップST103では、目標状態設定部13の表示部に、ステップST102で推定されたユーザの心理状態を表示する。ユーザは、表示されたユーザの心理状態に基づき、入力操作部から目標心理状態を入力する。目標状態設定部13は、例えば、入力操作部から入力された情報に基づいて、目標心理状態を設定する。
ステップST104は、シナリオ作成部14によりユーザに提示する刺激提示コンテンツのシナリオを作成する(シナリオ作成工程)。ステップST104では、シナリオ作成部14が、ステップST103で設定された目標心理状態に基づいて、映像又は音の少なくとも一方を含む一つ以上の刺激提示コンテンツのシナリオ(提示する順序、時間、回数等)を作成する。シナリオの作成は、ユーザの心理状態を目標心理状態に導くためにより効果の高い刺激提示コンテンツを含むように、ユーザモデルデータベース17のユーザモデルと、刺激コンテンツデータベース18のデータとに基づいて行われる。シナリオ作成部14で作成されたシナリオのデータは、コンテンツ提示部15に送信される。
ステップST105は、コンテンツ提示部15によりユーザに刺激提示コンテンツを提示する(コンテンツ提示工程)。ステップST105では、コンテンツ提示部15が、ステップST104で作成されたシナリオに基づき、刺激提示コンテンツをユーザに提示する。
ステップST106及びST107は、心理状態推定部12によって、刺激提示コンテンツの提示により変化したユーザの心理状態を推定し、心理状態判断部16によって、変化後の心理状態が目標心理状態に至っているか否かを判断する(心理状態判断工程)。ステップST106は、刺激提示コンテンツの提示中又は提示後におけるユーザの心理状態を推定する。具体的には、生体情報取得部11が刺激提示コンテンツの提示中又は提示後におけるユーザの生体情報を取得し、心理状態推定部12が取得した生体情報に基づいてユーザの心理状態を推定する。つまり、ステップST106は、シナリオに基づき一つ以上の刺激提示コンテンツの提示を開始した後に生体情報取得部11がユーザの生体情報を取得し、取得した生体情報に基づいて心理状態推定部12がユーザの心理状態を推定する。
ステップST107では、心理状態判断部16が、ステップST106で推定されたユーザの心理状態(第2心理状態)がステップST103で設定された目標心理状態に至っているか否かを判断する。ステップST107において、心理状態判断部16によりユーザの心理状態が目標心理状態に至っている(YES)と判断された場合、コンテンツ提示部15が刺激提示コンテンツの提示を終了する。一方、ステップST107において、心理状態判断部16によりユーザの心理状態が目標心理状態に至っていない(NO)と判断された場合、フローはステップST108へ進む。
ステップST108は、刺激提示コンテンツの提示によるユーザの心理状態の第1変化量と、ユーザモデルデータベース17及び刺激コンテンツデータベース18のデータに基づいて予想される刺激提示コンテンツの提示によるユーザの心理状態の第2変化量と、の差異を算出する(効果差異算出工程)。ステップST108において、初回動作の場合、効果差異算出部19は、ステップST102で推定された刺激提示前のユーザの心理状態(第1心理状態)から、ステップST106で推定された刺激提示中又は提示後のユーザの心理状態(第2心理状態)への第1変化量を算出する。また、効果差異算出部19は、ユーザモデルデータベース17及び刺激コンテンツデータベース18のデータに基づいて、予想される刺激提示コンテンツ提示後のユーザの心理状態の第2変化量(予想変化量)を算出する。
ステップST108において、刺激提示システム10Aが、ステップST105〜ST111を繰り返す動作をしている場合、第1変化量は、前回の動作のステップST106で推定された心理状態から、今回の動作のステップST105における刺激提示コンテンツの提示により今回の動作のステップST106で推定された心理状態への変化量となる。同様に、第2変化量についても、前回の動作においてステップST106で推定された心理状態から、ユーザモデルデータベース17及び刺激コンテンツデータベース18のデータに基づいて予想されるユーザの心理状態への変化量となる。
ステップST109は、ステップST108で算出された差異が所定値以上であるか否かを判断する。ステップST109において、効果差異算出部19で算出された差異が所定値以上である(YES)と判断された場合、提示されている刺激提示コンテンツの効果が予想よりも低いと判断するか、又は効果が予想よりも高いと判断し、フローはステップST110に進む。一方、ステップST109において、効果差異算出部19で算出された差異が所定値以上ではない(NO)と判断された場合、提示されている刺激提示コンテンツの効果が予想の範囲内であると判断し、フローはステップST105に戻る。
ステップST110は、シナリオ作成部14により刺激提示コンテンツのシナリオを変更する(シナリオ変更工程)。具体的には、ステップST110では、例えば、判断の対象となった刺激提示コンテンツよりも後に提示する刺激提示コンテンツの提示時間、提示回数等をシナリオ作成部14により変更する。このとき、後に提示する刺激提示コンテンツそのものをシナリオ作成部14により変更してもよい。ステップST110では、提示されている刺激提示コンテンツが、ユーザの心理状態への効果が予想より低いと判断された場合、シナリオ作成部14は、判断の対象となった刺激提示コンテンツよりも後に提示する刺激提示コンテンツのうち、効果が低いと判断された刺激提示コンテンツに類似する刺激提示コンテンツの提示時間、提示回数等を減らすようにシナリオを変更する。または、シナリオ作成部14は、判断の対象となった刺激提示コンテンツよりも後に提示する刺激提示コンテンツのうち、効果が低いと判断された刺激提示コンテンツに類似する刺激提示コンテンツそのものを別の刺激提示コンテンツに変更するのでもよい。
このとき、シナリオ作成部14は、刺激コンテンツデータベース18の属性情報の第一情報に基づくコンテンツの種類の分類によって、同一の分類のコンテンツについて目的心理状態へ導く効果が少ないと判断する。一方、提示されている刺激提示コンテンツが、ユーザの心理状態への効果が予想より高いと判断された場合、シナリオ作成部14は、効果が高いと判断された刺激提示コンテンツと類似する刺激提示コンテンツの提示時間、提示回数等を増やすようにシナリオを変更する。シナリオ作成部14は、判断の対象となった刺激提示コンテンツよりも後に提示する刺激提示コンテンツのうち、効果が高いと判断されたコンテンツに類似する刺激提示コンテンツを更に追加してもよい。このとき、シナリオ作成部14は、刺激コンテンツデータベース18の属性情報の第一情報に基づくコンテンツの種類の分類によって同一の分類のコンテンツについて目的心理状態へ導く効果が高いと判断する。また、シナリオの変更は、ユーザモデルデータベース17及び刺激コンテンツデータベース18に基づいて行われる。
ステップST111は、データベース(ユーザモデルデータベース17及び刺激コンテンツデータベース18)に格納されているデータを更新する(データベース更新工程)。ステップST111では、ユーザモデルデータベース17は、提示されている刺激提示コンテンツの属性がそのユーザに対して目的とする心理状態へ導く効果が低い、又は効果が高いとして、そのユーザのユーザモデルを補正する。また、刺激コンテンツデータベース18は、提示されている刺激提示コンテンツに基づいて、その刺激提示コンテンツがユーザに与える心理状態の予想変化量のデータを補正する。ステップST111が終了すると、フローはステップST105に戻る。
[効果]
第1実施形態に係る刺激提示システム10Aによれば、以下の効果を奏することができる。
第1実施形態に係る刺激提示システム10Aは、ユーザの生体情報に基づいて刺激提示コンテンツの提示前の心理状態を推定した後、ユーザの目標心理状態を設定している。また、刺激提示システム10Aは、刺激提示コンテンツの提示中又は刺激提示後の心理状態を推定し、刺激提示コンテンツにより変化したユーザの心理状態が目標心理状態に至っているか否かを判断している。このような構成により、刺激提示システム10Aは、ユーザの心理状態の変化に基づいて効率的にコンテンツを選択し提示していくことができるため、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
刺激提示システム10Aでは、シナリオ作成部14が、ユーザモデルデータベース17のユーザモデル及び刺激コンテンツデータベース18のデータに基づいて、刺激提示コンテンツのシナリオを作成している。このため、シナリオ作成部14は、ユーザ毎にシナリオをカスタマイズすることができると共に、ユーザの心理状態への効果が高い刺激提示コンテンツを含むようにシナリオを作成することができる。したがって、刺激提示システム10Aは、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
刺激提示システム10Aでは、効果差異算出部19が、刺激提示コンテンツの提示によるユーザの心理状態の実際の変化と、ユーザモデルデータベース17及び刺激コンテンツデータベースに基づいて予想された予想変化量と、の差異を算出している。刺激提示システム10Aは、算出された差異により提示されている刺激提示コンテンツの効果を確認し、予想よりも効果が低いか、又は予想より効果が高いと判断した場合に、シナリオ作成部14によりシナリオを変更している。このような構成により、刺激提示システム10Aは、刺激提示コンテンツの提示中に、ユーザの心理状態を目標心理状態に導くのにより効果の高い刺激提示コンテンツを含むようにシナリオを変更することができる。また、刺激提示システム10Aは、効果の差異に基づいて、ユーザモデルデータベース17のユーザモデル及び刺激コンテンツデータベース18のデータを補正している。このような構成により、刺激提示システム10Aは、提示された刺激提示コンテンツの効果のデータを逐次フィードバックして、ユーザの傾向、又はそのときのユーザの心理状態等に応じて最適な刺激提示コンテンツをリアルタイムに提示することができる。その結果、刺激提示システム10Aは、ユーザの心理状態を効率良く目標の心理状態に導くことができる。
なお、第1実施形態においては、生体情報取得部11がユーザの心拍及び体動を取得する圧力センサ、ユーザの脳波を取得する脳波センサである例を説明したが、生体情報取得部11は、これらに限定されない。生体情報取得部11で取得する生体情報は、ユーザの心理状態を推定できる情報であればよい。例えば、生体情報取得部11は、生体情報として、ユーザの表情又は体動を取得する画像センサ、振動を取得する振動センサ、及び音を取得する感音センサ等の非拘束非侵襲センサを用いてもよい。これらのセンサを使用することにより、より正確にユーザの生体情報を取得することができる。
また、生体情報取得部11は、リアルタイムでユーザの生体情報を取得する例を説明したが、これに限定されない。例えば、心理状態推定部12がユーザの心理状態を推定するときに生体情報を取得してもよい。このような構成により、システムの負荷を低減することできる。
第1実施形態においては、ユーザの心理状態を、リラックス、集中、興奮、驚き、喜び、悲しみと定義して説明したが、ユーザの心理状態は、これらに限定されない。例えば、心理状態の定義に、怒り、楽しみ等を含めてもよい。
第1実施形態においては、心理状態推定部12は、所定期間に取得した複数の生体情報の平均値(例えば、1分間の心拍数を5回取得した場合の平均値等)に基づいてユーザの心理状態を推定してもよい。このような構成により、心理状態推定部12は、ユーザの正確な心理状態を推定することができる。
第1実施形態においては、ユーザが、目標状態設定部13の入力操作部を用いて目標心理状態を手動で設定する例を説明したが、これに限定されない。例えば、目標状態設定部13は、コンピュータ20により自動的に目標心理状態を設定してもよい。また、目標状態設定部13は、例えば、過去に設定した目標心理状態を例えば、設定した時刻と関連付けて、メモリまたはハードディスクなどの読み取りおよび書き込みが可能な記録媒体に履歴情報として記憶する。目標状態設定部13は、例えば、目標心理状態の履歴情報を記録媒体から読み出し、読み出した履歴情報に基づいて目標心理状態を設定してもよい。例えば、目標心理状態の履歴情報のうち、現在時刻に最も近い時刻と関連付けられた目標心理状態を今回設定する目標心理状態として設定してもよい。または、目標状態設定部13は、例えば、履歴情報に含まれる過去に設定された目標心理状態の内容を調べ、同じ内容の目標心理状態が所定回数以上設定されたものを、今回設定する目標心理状態として設定してもよい。例えば、履歴情報に含まれる過去に設定された目標心理状態のうち、リラックスに対応する目標心理状態が所定の数よりも多ければ、目標状態設定部13は、今回設定する目標心理状態としてリラックスを設定してもよい。
または、例えば、履歴情報に含まれる過去に設定された目標心理状態のうち、リラックスに対応する目標心理状態が所定の数よりも少なければ、目標状態設定部13は、今回設定する目標心理状態としてリラックスを設定するのでもよい。
このような構成により、刺激提示システム10Aは、ユーザの入力操作を省き、使い勝手を向上させることができる。
第1実施形態においては、刺激提示コンテンツは、映像又は音を含むコンテンツ一つ以上含むものを例として挙げて説明したが、これに限定されない。刺激提示コンテンツは、例えば、振動、芳香、光、風、温度変化などの刺激等を含むコンテンツであってもよい。これらの様々な刺激を含むことにより、ユーザの心理状態を効率良く目標心理状態に導くことができる。
第1実施形態においては、シナリオ作成部14で作成されるシナリオについて、図4に示すシナリオA〜Eを用いて説明したが、これらのシナリオに限定されない。シナリオは、例えば、旅行、人物画、乗り物、シンプルな図形など様々な種類のコンテンツで作成されてもよい。また、第1実施形態においては、図5を用いて、30個のコンテンツを含むシナリオAを例に挙げて説明したが、これに限定されず、シナリオは任意の数のコンテンツで作成してもよい。さらにシナリオについて、心拍が安定しているということが判定されている時に、属性の近いコンテンツを探索する処理において、探索範囲を広げて属性の少し遠いコンテンツも対象とする処理を入れてもよい。これにより、心拍安定状態において、少しランダム性の高いシナリオでコンテンツ提示をすることでより心理的に刺激を効果的に伝えることが可能になる。
第1実施形態においては、シナリオ作成部14が、ユーザモデルデータベース17のデータと、刺激コンテンツデータベース18のデータとに基づいて、刺激提示コンテンツのシナリオを作成する例について説明したが、これに限定されない。例えば、シナリオ作成部14は、ユーザモデルデータベース17と、刺激コンテンツデータベース18とのうち少なくとも一方のデータに基づいて、刺激提示コンテンツのシナリオを作成してもよい。
第1実施形態においては、刺激コンテンツデータベース18が保持する刺激提示コンテンツの属性情報は、コンテンツの種類と、ユーザの心理状態に与える効果とに基づいて分類されるものと説明したが、これに限定されない。例えば、属性情報は、コンテンツの種類と、ユーザの心理状態に与える効果とのうち少なくとも一方に基づいて分類されるものであってもよい。なお、刺激コンテンツデータベース18にある属性情報毎のコンテンツ数からユーザの傾向を取得し、ユーザモデルデータベース17の効果度を補正してもよい。具体的には喜びに関連するコンテンツが多い場合そのコンテンツの効果が高いという補正を行ってもよい。
第1実施形態においては、心理状態推定部12、シナリオ作成部14および心理状態判断部16のうちの少なくとも1つはプロセッサを含み、プロセッサによって心理状態推定工程ST102、シナリオ作成工程ST104および心理状態判断工程ST106のうちの少なくとも一つの工程が行われてもよい。
(第2実施形態)
[全体構成]
本開示の第2実施形態に係る刺激提示システムについて図8を用いて説明する。
図8は、第2実施形態に係る刺激提示システムの構成のブロック図である。なお、第2実施形態では、主に第1実施形態と異なる点について説明する。第2実施形態においては、第1実施形態と同一又は同等の構成については同じ符号を付して説明する。また、第2実施形態では、第1実施形態1と重複する記載は省略する。
図8に示すように、刺激提示システム10Bは、生体情報取得部11、心理状態推定部12、目標状態設定部13、シナリオ作成部14、コンテンツ提示部15、心理状態判断部16、ユーザモデルデータベース17、刺激コンテンツデータベース18、効果差異算出部19、及び集中判定部21を備える。また、刺激提示システム10Bは、コンピュータを搭載して構成されるものであり、これらの構成要素は、コンピュータ20によって制御される。
刺激提示システム10Bのコンピュータは、第1実施形態で説明した刺激提示システム10Aのコンピュータのコンピュータと同様に、例えば、CPU(Central Processing Unit)などの処理回路(図示せず)と第1の記録媒体を含む。
第1の記録媒体には、例えば、コンピュータを心理状態推定部12、シナリオ作成部14、心理状態判断部16、効果差異算出部19および集中判定部21として、それぞれ機能させるプログラムが記録されている。
また、第1の記録媒体には、生体情報取得部11、目標状態設定部13、コンテンツ提示部15、をそれぞれ制御するプログラムが記録されている。
また、第1の記録媒体には、ユーザモデルデータベース17、刺激コンテンツデータベース18へのアクセス(読み取り、書き込みなど)を行うプログラムが記録されている。
コンピュータの処理回路が第1の記録媒体に記録されたこれらのプログラムを実行することにより、コンピュータにおいて、心理状態推定部12、シナリオ作成部14、心理状態判断部16、効果差異算出部19および集中判定部21が、それぞれ機能するとともに、生体情報取得部11、目標状態設定部13、コンテンツ提示部15を制御し、ユーザモデルデータベース17、刺激コンテンツデータベース18へのアクセスを行う。
または、刺激提示システム10Bのコンピュータは、上述した第1の記録媒体に記録したプログラムを処理回路で実行することにより実現される機能、動作を組み込んだ集積回路を用いて実現してもよい。
第2実施形態に係る刺激提示システム10Bは、第1実施形態に係る刺激提示システム10Aと比べて、集中判定部21を備える点が異なる。
第2実施形態において、集中判定部21を設けた理由について説明する。
例えば、ユーザが刺激提示コンテンツを見ていない(集中していない)場合、刺激提示コンテンツは、ユーザの心理状態に影響を与えない。このとき、効果差異算出部19において、ユーザの心理状態の変化量と、データベースに基づく予想変化量との差異が所定値以上となり、シナリオの変更及びデータベースの更新が行われる。しかしながら、このような場合に、算出された差異に基づいてシナリオの変更及びデータベースの更新をしても、ユーザが刺激提示コンテンツに集中していないため、ユーザの心理状態を目標心理状態に導くことができない。そこで、刺激提示システム10Bは、ユーザが刺激提示コンテンツに集中しているか否かを判定し、その判定結果に応じて、効果差異算出部19で算出された差異を補正するため、集中判定部21を設けている。
次に、集中判定部21について詳細に説明する。
<集中判定部>
図8に示すように、集中判定部21は、生体情報取得部11と、効果差異算出部19と、シナリオ作成部14と接続されている。集中判定部21は、ユーザが、コンテンツ提示部15により提示されている刺激提示コンテンツに集中しているか否かを判定する。具体的には、集中判定部21は、刺激提示コンテンツと異なる集中判定コンテンツを提示したとき、生体情報取得部11により取得される生体情報のうちの脳活動情報の一例である脳波情報に対応する事象関連電位(Event Related Potential:ERP)に基づいて、ユーザが刺激提示コンテンツに集中しているか否かを判定する。
集中判定コンテンツについて説明する。
集中判定コンテンツとは、シナリオ作成部14で作成されたシナリオに含まれる刺激提示コンテンツと関係性の低い(著しく異なる)コンテンツである。第2実施形態における集中判定コンテンツは、刺激コンテンツデータベース18が保持する刺激提示コンテンツの属性情報と異なる属性情報のコンテンツを含む。例えば、属性情報として「喜び」の効果に属する「喜ぶシーン」を含む刺激提示コンテンツが提示されている場合、属性情報として「悲しみ」の効果に属する「悲しいシーン」を含む集中判定コンテンツが提示される。また、構図上大量のオブジェクトがある写真の中にシンプルな構図のコンテンツを混ぜるなど、構図上変化が明確に感じられるコンテンツを選択する。
図9は、写真コンテンツの持つ1つ以上の特徴によって、複数の写真コンテンツの類似度を表現したネットワーク図である。図9に示すように、知り合いの写真、過去によく見た写真、及び旅行の写真がネットワーク上に複数配置されている。知り合いが映る写真群はそれぞれ可視化されたネットワーク上の距離として近く配置される。例えば、図9に示すように、知り合いの写真Q1と同一の知り合いの別の写真Q2とは、互いに近接して配置される。また、知り合いの写真でかつ過去によく見た写真があれば、それぞれの写真群に近くなるよう配置される。例えば、図9に示すように、知り合いが映っている過去によく見た写真Q3は、知り合いの写真群と過去によく見た写真群との両方に近づけて配置される。このようなネットワーク図上の配置として距離の離れた写真はユーザに対して異なる種類の写真であると認知される可能性が高くなる。このように、図9に示すようなネットワーク図を利用して距離の遠い写真を集中度判定のための低頻度画像として利用することが可能である。
集中判定部21が集中判定を行う際、シナリオ作成部14は、刺激提示コンテンツと、集中判定コンテンツとを含む集中判定用のシナリオを作成する。また、集中判定用のシナリオは、集中判定コンテンツを、刺激提示コンテンツと比べて低頻度で提示するように作成される。
集中判定用のシナリオについて図10を用いて説明する。
図10は、シナリオ作成部14で作成される集中判定用のシナリオの一例を示す。図10に示すように、集中判定用のシナリオは、刺激提示コンテンツD1〜D9、D11〜D19、D21〜D29を提示すると共に、集中判定コンテンツE10、E20、E30を提示するように作成されている。刺激提示コンテンツD1〜D9、D11〜D19、D21〜D29は、例えば、属性情報が「喜び」のコンテンツ(図4中のシナリオDに基づくコンテンツ)である。集中判定コンテンツE10、E20、E30は、例えば、属性情報が刺激提示コンテンツの属性情報(「喜び」)と異なる「悲しみ」のコンテンツ(図4中のシナリオEに基づくコンテンツ)である。集中判定用のシナリオでは、刺激提示コンテンツが所定回数提示される毎に、集中判定用コンテンツが1回提示されている。例えば、図10に示すように、刺激提示コンテンツD1〜D9が提示されると、集中判定コンテンツE10が提示される。集中判定コンテンツE10が提示された後、刺激提示コンテンツD11〜D19、集中判定コンテンツE20、刺激提示コンテンツD21〜D29、集中判定コンテンツE30の順にコンテンツが提示される。このように、集中判定用シナリオは、集中判定コンテンツよりも刺激提示コンテンツを高い頻度で提示し、刺激提示コンテンツよりも集中判定コンテンツを低い頻度で提示するように作成されている(例えば、刺激提示コンテンツと集中判定コンテンツとの割合が9:1で提示される)。
また、シナリオ作成部14は、例えば、集中判定用のシナリオに用いる集中判定コンテンツを、刺激コンテンツデータベースの中のコンテンツから選択する。シナリオ作成部14は、集中判定コンテンツを提示する直前のコンテンツの属性情報を調べる。例えば、集中判定用のシナリオに用いる刺激提示コンテンツD9、D19、D29の属性情報をそれぞれ調べ、類似度の低いコンテンツを集中判定コンテンツとして、刺激コンテンツデータベースの中から選択する。例えば、刺激提示コンテンツD9を例に説明をする。シナリオ作成部14は、刺激提示コンテンツD9の属性情報を調べ、刺激提示コンテンツD9の属性情報と類似度が最も低い属性情報を有するコンテンツを、集中判定コンテンツE10として、刺激コンテンツデータベースの中から選択してもよい。
または、刺激提示コンテンツD9の属性情報が、複数ある場合、シナリオ作成部14は、内容が共通する属性情報の数が最も少ないコンテンツを、集中判定コンテンツE10として、刺激コンテンツデータベースの中から選択してもよい。
または、シナリオ作成部14は、図9に示すようなネットワーク図を利用して、刺激提示コンテンツD9と予め定めた距離以上離れたコンテンツを、集中判定コンテンツE10として、刺激コンテンツデータベースの中から選択してもよい。
次に、事象関連電位(ERP)を測定することによって集中判定を行う方法について詳細に説明する。
事象関連電位とは、ある事象に対して関連して生じる電位である。事象関連電位は、生体情報取得部11(例えば、脳波センサ11b)によって脳波情報を測定することにより測定できる。集中判定部21においては、事象関連電位のうちP300波形を測定することにより、ユーザの集中判定を行っている。
P300波形について説明する。
P300波形とは、脳波反応の1つであり、ユーザに、高頻度の刺激と、低頻度の異なる刺激とを与えた場合に、低頻度の刺激が与えられてから約300ms後に生じる陽性の振幅のピークを有する波形(脳波波形)である。例えば、ユーザに、山の画像を9回見せた後に、人物の画像を1回見せた場合、ユーザは、人物の画像を見たときに山の画像と異なることを認知する。このときに生じる脳波の変化が、P300波形として事象関連電位の測定結果に現れる。
図11は、ユーザに高頻度の刺激を与えたときの脳波情報の測定結果を示す。図12は、ユーザに低頻度の刺激を与えたときの脳波情報の測定結果を示す。図11に示すように、高頻度の刺激がユーザに提示されているときは、刺激提示から300ms付近での電位に大きな変化は見られない。一方、図12に示すように、低頻度の刺激がユーザに提示されたとき、刺激提示から300ms付近で大きな振幅を有するP300波形が生じる。なお、図11及び図12は、説明を容易にするために簡略化した脳波の波形のイメージ図である。
P300波形は、高頻度の刺激(刺激提示コンテンツ)を与えた直後の電位と、低頻度の刺激(集中判定コンテンツ)を与えた直後の電位(事象関連電位)との差を算出することにより、求めることができる。また、P300波形は、複数回測定された事象関連電位の加算平均を用いて測定されてもよい。
以上のように、集中判定部21は、集中判定コンテンツを提示したときのP300波形を測定することにより、ユーザが集中しているか否かを判定することができる。集中判定部21は、ユーザが集中していないと判定した場合、効果差異算出部19で算出された差異の結果を補正する。具体的には、集中判定部21は、差異の結果を0と補正する。また、集中判定部21において、ユーザが集中していないと判定した場合、ユーザが刺激提示コンテンツに集中するようにコンテンツ提示部15のスピーカーから音を発生させる。
なお、図11、図12では、ユーザに高頻度の刺激、低頻度の刺激をそれぞれ与えたときの脳活動情報の測定結果の一例として、脳波情報の測定結果を示した。脳磁情報の測定結果についても同様の結果が得られる。脳波センサ11bは、脳の活動状態に応じて脳の中を流れる電気信号(電流)の変化を電位の変化として検出している。
脳の活動状態に応じて脳の中を流れる電気信号(電流)が変化すれば、その変化に応じて磁界が変化する。よって、生体情報取得部11が磁気センサを含み、磁気センサが検出した情報(磁界)から脳磁情報を取得するような構成であっても、脳磁情報の測定結果に基づいて、上述の波形に相当する変化を測定することができる。
よって、集中判定部21は、高頻度の刺激(刺激提示コンテンツ)を与えた直後の磁界と、低頻度の刺激(集中判定コンテンツ)を与えた直後の磁界との差を算出することで、ユーザが集中しているか否かを判定してもよい。即ち、集中判定部21は、集中判定コンテンツ提示後であって、かつ次のコンテンツが提示される前に取得された生体情報に含まれる第1脳活動情報と、集中判定コンテンツ以外の刺激提示コンテンツが提示されている時に取得された生体情報に含まれる第2脳活動情報とを比較し、第1脳活動情報と第2脳活動情報との差が所定の量以上ある場合を集中している状態と判定し、それ以外の場合を集中していない状態と判定してもよい。
[動作]
次に、刺激提示システム10Bの動作(刺激提示方法)について図13を用いて説明する。
図13は、刺激提示システム10Bの動作のフローチャートを示す。図13に示す各ステップは、コンピュータ20によって実行されるものである。以下、図13に示すステップについて、詳細に説明する。なお、刺激提示システム10BのステップST201〜ST209は、刺激提示システム10AのステップST101〜ST109(図7参照)と同様の動作であるため、説明を省略する。
ステップST210は、ST209において効果差異算出部19で算出された差異が所定値以上である場合に、ユーザが刺激提示コンテンツに集中しているか否かを判定する(集中判定工程)。ステップST210では、シナリオ作成部14が、刺激提示コンテンツを高頻度で提示すると共に、集中判定コンテンツを低頻度で提示する集中判定用シナリオを作成する。次に、コンテンツ提示部15が集中判定用シナリオに基づいて、刺激提示コンテンツと、集中判定コンテンツとを提示する。集中判定部21は、コンテンツ提示部15から集中判定コンテンツが提示した後から次のコンテンツが提示される前までユーザの脳波情報(事象関連電位)を測定し、P300波形が生じているか否かを判定する。
集中判定コンテンツが提示した後とは、例えば、集中判定コンテンツの提示開始直後、または、集中判定コンテンツの提示の終了後である。
集中判定コンテンツが提示した後の次のコンテンツとは、図10に示す例では、刺激提示コンテンツである。
ステップST210において、集中判定部21が、ユーザが刺激提示コンテンツに集中している(P300波形が生じている)と判定した場合、フローはステップST211へ進む。一方、集中判定部21が、ユーザが刺激提示コンテンツに集中していない(P300波形が生じていない)と判定した場合、フローはステップST213へ進む。
ステップST211は、シナリオ作成部14により刺激提示コンテンツのシナリオを変更する(シナリオ変更工程)。ステップST211では、図7のステップST110と同様に、シナリオ作成部14が、ユーザの心理状態を目的とする心理状態へ導く効果が高い刺激提示コンテンツを含むシナリオを作成する。
ステップST212は、データベース(ユーザモデルデータベース17及び刺激コンテンツデータベース18)に格納されているデータを更新する(データベース更新工程)。ステップST212では、図7に示すステップST111と同様に、効果差異算出部19の算出結果に基づいて、データベースのデータを更新する。ステップST212が終了すると、フローはステップST205に戻る。
ステップST213は、ユーザが刺激提示コンテンツに集中するように、コンテンツ提示部15から音を発する(音発生工程)。ステップST213では、コンテンツ提示部15のスピーカーから注意喚起のための音(例えば、ビープ音等)を再生する。その後、コンテンツ提示部15は、集中判定用シナリオから元のシナリオに設定を戻す。ステップST213が終了すると、フローはステップST205に戻る。
[効果]
第2実施形態に係る刺激提示システム10Bによれば、以下の効果を奏することができる。
第2実施形態に係る刺激提示システム10Bは、刺激提示コンテンツの効果が想定していたよりも大きく異なる場合に、集中判定コンテンツを提示したときの事象関連電位を測定することにより、ユーザが刺激提示コンテンツに集中しているか否かを判定している。このような構成により、ユーザが集中していないときの刺激提示コンテンツの効果に関するデータを除外することができるため、ユーザの心理状態をさらに効率よく目標状態に導くことができる。
なお、第2実施形態において、集中判定部21は、効果差異算出部19で算出された差異が所定値以上である場合に、集中判定を行う例を説明したが、これに限定されない。集中判定部21は、複数回の差異の算出結果に基づいて、集中判定を行うか否かを決定してもよい。例えば、集中判定部21は、効果差異算出部19で算出された効果差異が所定値以上であることが連続した場合に集中判定を行ってもよい。また、集中判定部21は、所定期間に算出された差異の平均値が所定値以上である場合に集中判定を行ってもよい。
第2実施形態において、集中判定部21では、高頻度の刺激(刺激提示コンテンツ)を与えた直後の電位と、低頻度の刺激(集中判定用コンテンツ)を与えた直後の電位との差を算出することによって、事象関連電位であるP300波形の有無を測定しているが、これに限定されない。例えば、集中判定部21は、集中判定用コンテンツを提示したときの事象関連電位の振幅が所定値以上である場合に、P300波形に相当する変化が生じていると判定してもよい。
第2実施形態において、集中判定部21は、P300波形の有無により、ユーザが刺激提示コンテンツに集中しているか否かを判定する例について説明したが、これに限定されない。例えば、集中判定部21は、P300波形の振幅の大きさにより集中の度合い(集中度)を判定してもよい。このような構成により、集中度の結果に基づいても、シナリオの変更及びデータベースを更新することができるため、ユーザの心理状態を更に効率良く目標心理状態に導くことができる。また、P300波形に限らずN400波形等、事象に関連する電位の変化が計測された場合に集中していると判断することも可能である。また、体動等の反応が集中判定コンテンツ提示直後に発生した場合に集中していると判定することも可能である。即ち、集中判定部21は、体動等の生体情報と、P300波形やN400波形などの事象関連電位とのうち少なくとも一方に基づいて、集中判定を行ってもよい。
第2実施形態において、集中判定部21においてユーザが刺激提示コンテンツに集中していないと判定した場合、ユーザモデルデータベース17と刺激コンテンツデータベースは、ユーザが集中していないときのデータを補正してもよい。これにより、より正確なデータを収集することができるため、ユーザの心理状態をより効率良く目標心理状態に導くことができる。
第2実施形態において、集中判定部21において、ユーザが集中していないと判定された場合、コンテンツ提示部15が音を再生する例を説明したが、これに限定されない。例えば、コンテンツ提示部15は、ユーザが集中するための映像もしくは現在ユーザが集中していない状態であることを示す映像を表示してもよい。また、ユーザに対して振動を与えてもよい。またこの際、一時的にもしくは所定の時間、図13に示した一連の処理または一部の処理を停止してもよい。
第2実施形態において、集中判定部21は、生体情報取得部11により取得される生体情報に含まれるユーザの脳の活動状態を示す脳活動情報に基づいて、ユーザが刺激提示コンテンツに集中しているか否かを判定する例を説明したが、これに限定されない。例えば、生体情報取得部11により取得される生体情報は、脳活動情報と、脳活動情報以外の生体情報を含んでいてもよい。脳活動情報以外の生体情報とは、例えば、心拍、呼吸、酸素濃度、血流、表情、体動等の情報である。集中判定部21は、集中判定コンテンツを提示した後に生体情報取得部11によって取得された脳活動情報と脳活動情報以外の生体情報とのうち少なくとも一方に基づいて、ユーザが刺激提示コンテンツに集中しているか否かを判定してもよい。
本開示をある程度の詳細さをもって各実施形態において説明したが、これらの実施形態の開示内容は構成の細部において変化してしかるべきものである。また、各実施形態における要素の組合せや順序の変化は、本開示の範囲及び思想を逸脱することなく実現し得るものである。
なお、第1実施形態及び第2実施形態において、ユーザに目標となる心理状態を設定する画面30を提供する方法を図14に示す。図14に示すように、着座後のセンシングによって、心理状態X1の「リラックス」、「集中」、「興奮、驚き、活動的」、「喜び」、「悲しみ」に対する、現在のユーザの推定心理状態Y1が表示される。ユーザの推定心理状態Y1に対して、心理状態X1のそれぞれの心理状態に対するスライドバー31が設定されている。ユーザは、ポインティング手段によって、目標となる状態にドラッグ又はポイントすることで、目標心理状態Y2を指定することができる。
このとき、同時にシナリオ作成部14がシナリオを生成することで、各コンテンツの心理状態への影響を加算し、目標となる心理状態Y2に至るまでのコンテンツ提示回数と時間を求めることができる。これにより、必要となる時間を想定しつつ、ユーザが目標状態を選択することが可能となる。また、画面30には、図14に示すように、コンテンツの提示回数又は時間を示すバー32を表示することができる。
なお、第1実施形態及び第2実施形態においては、心理状態を図3に示す「リラックス」、「集中」、「興奮、驚き、活動的」、「喜び」、及び「悲しみ」と定義したが、心理状態は、これらに限定されない。例えば、心理状態は、「気力」、「体力」、及び「知力」をダイアグラムで表されてもよい。体力については、圧力センサから得られる体動を利用することで判定されてもよい。図15は、目標状態設定部13の一例を示しており、ユーザが着座時の画面33を示す。図15に示すように、本開示の刺激提示システムでは、心理状態推定部12により推定されたユーザの心理状態Z1を「気力」(図15の符号34)、「知力」(図15の符号35)、及び「体力」(図15の符号36)の3つの軸に対してダイアグラム37で、画面33に表示してもよい。ユーザは、表示画面33に表示されたダイアグラム37を指で気力を上げる方向(図15中の矢印38)にドラッグアンドドロップして、ダイアグラム37の形状を変形させることにより、目標心理状態Z2を設定してもよい。また、ユーザの心理状態は、「気力」、「知力」、及び「体力」を数値化して表してもよく、目標心理状態に至るまで必要な刺激の量を表示してもよい。このとき体力は実際の体力の増強ではなく、ダンス映像や音楽など運動する気持ちにさせるコンテンツの提示によって増強されるものである。図15の画面33においても、図14の画面30と同様に、コンテンツの提示回数又は時間を示すバー32を表示することができる。
また、図16及び図17に本開示の刺激提示システムを適用した椅子のデザインイメージを示す。図16は、本開示の刺激提示システムを適用した椅子40の側面図である。図17は、本開示の刺激提示システムを適用した椅子40の正面図である。図16、図17に示すディスプレー41は、例えば、本開示の刺激提示システムにおけるコンテンツ提示部15の表示部、および目標状態設定部13の表示部を兼ねる。また、図16、図17に示す操作ボタン42は、例えば、本開示の刺激提示システムにおける目標状態設定部13の入力操作部に対応する。図16及び図17に示すように、椅子40と一体となったディスプレー41を配置することで、背中を倒して頭部の重量の一部を椅子40に預けて、よりくつろいだ状態から、最適な角度でディスプレーを見ることが可能となる。これにより脳波や生体情報を正確に計測することが可能になる。また、椅子40には、操作ボタン42が配置されている。ユーザは、操作ボタン42を操作して、目標心理状態の設定等を行うことができる。
なお、生体情報取得部11は、図16、図17に示す椅子40に取り付けられていてもよい。
また、心理状態推定部12と、シナリオ作成部14と、心理状態判断部16と、効果差異算出部19と、集中判定部21は、それぞれ、図16、図17に示す椅子40に取り付けられていてもよい。
例えば、心理状態推定部12と、シナリオ作成部14と、心理状態判断部16と、効果差異算出部19と、集中判定部21を搭載したコンピュータが椅子40に取り付けられていてもよい。
また、コンピュータは、椅子40が、配置される位置とは別の位置に配置されていてもよい。また、コンピュータは、椅子40と通信ネットワークを介して接続するサーバ装置であってもよい。通信ネットワークは、有線のネットワーク、および無線のネットワークのいずれか、または両方を含む。
また、ユーザモデルデータベース17と、刺激コンテンツデータベース18とは、それぞれ、図16、図17に示す椅子40に取り付けられていてもよい。例えば、ユーザモデルデータベース17と、刺激コンテンツデータベース18はコンピュータに搭載されていてもよいし、コンピュータとは物理的に別体の装置として、コンピュータに接続する構成であってもよい。
図16、17に示す例では、例えば、椅子40に、本開示の刺激提示システムの各要素を取り付けた例を用いて説明をしたが、これに限定をされない。
例えば、椅子、ソファ、トイレの座椅子などの座れる形状の物、車や電車、飛行機等のシート、ベッド等に本開示の刺激提示システムの各要素を取り付けてもよい。
本開示は、刺激提示システム、刺激提示方法、コンピュータ、および制御方法に有用である。
また、本開示の刺激提示システムは、ユーザの心理状態を目標状態に導くための用途として、例えば、椅子、ソファ、トイレの座椅子などの座れる形状の物、車や電車、飛行機等のシート、ベッド等に適用できる。
10A、10B 刺激提示システム
11 生体情報取得部
12 心理状態推定部
13 目標状態設定部
14 シナリオ作成部
15 コンテンツ提示部
16 心理状態判断部
17 ユーザモデルデータベース
18 刺激コンテンツデータベース
19 効果差異算出部
20 コンピュータ
21 集中判定部
30 画面
31 スライドバー
32 バー
33 画面
40 椅子
41 ディスプレー
42 操作ボタン

Claims (30)

  1. ユーザの心理状態を目標の心理状態に導くための刺激提示システムであって、
    前記ユーザの生体情報を取得する生体情報取得部と、
    前記生体情報取得部により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定部と、
    前記心理状態推定部により前記ユーザの心理状態が第1心理状態と推定された後に、前記ユーザの目標とする心理状態を示す目標心理状態を設定する目標状態設定部と、
    前記設定された目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成するシナリオ作成部と、
    前記作成されたシナリオに基づいて前記一つ以上の刺激提示コンテンツを提示するコンテンツ提示部と、
    前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定部により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断部と、
    前記心理状態推定部で推定された前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第1変化量と、前記作成されたシナリオに基づいて予想される変化量であって、前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第2変化量との差異を算出する効果差異算出部と、
    前記効果差異算出部で算出された差異が所定値以上である場合に、ユーザが前記刺激提示コンテンツに集中しているか否かを判定する集中判定部と、
    を備え、
    前記集中判定部は、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記効果差異算出部で算出された差異を補正する、
    刺激提示システム。
  2. 前記心理状態判断部で前記第2心理状態が前記目標心理状態に至っていると判断した場合、前記コンテンツ提示部は、前記刺激提示コンテンツの提示を終了する、請求項1に記載の刺激提示システム。
  3. 前記目標状態設定部は、前記ユーザの入力操作によって入力された目標心理状態に関する入力データに基づいて前記目標心理状態を設定する、請求項1又は2に記載の刺激提示システム。
  4. 過去に設定された目標心理状態を履歴情報として記録する記録媒体を更に含み、
    前記目標状態設定部は、前記記録媒体に記録された履歴情報に基づいて前記目標心理状態を設定する、請求項1又は2に記載の刺激提示システム。
  5. 更に、
    前記刺激提示コンテンツの提示に対する前記ユーザの心理状態の変化の傾向を前記ユーザと関連付けて定義したユーザモデルを格納するユーザモデルデータベースと、
    前記刺激提示コンテンツの提示に対して予想される前記ユーザの心理状態の変化量を示す予想変化量を格納する刺激コンテンツデータベースと、
    を備え、
    前記シナリオ作成部は、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータに基づいて、前記シナリオを作成する、
    請求項1〜4のいずれか一項に記載の刺激提示システム。
  6. 前記効果差異算出部は、前記差異が所定値以上である場合、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータを更新する、請求項に記載の刺激提示システム。
  7. 前記生体情報取得部により取得された生体情報は、前記ユーザの脳の活動状態を示す脳活動情報と前記脳活動情報以外の生体情報を含み、
    前記コンテンツ提示部は、更に、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定するための集中判定コンテンツを提示し、
    前記集中判定部は、前記集中判定コンテンツの提示後に前記生体情報取得部によって取得された前記脳活動情報または前記脳活動情報以外の生体情報のうち少なくとも一方に基づいて、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定する、
    請求項1〜6のいずれか一項に記載の刺激提示システム。
  8. 前記集中判定部は、前記集中判定コンテンツ提示後であって、かつ次のコンテンツが提示される前に取得された生体情報に含まれる第1脳活動情報と、前記集中判定コンテンツ以外の刺激提示コンテンツが提示されている時に取得された生体情報に含まれる第2脳活動情報とを比較し、前記第1脳活動情報と前記第2脳活動情報との差が所定の量以上ある場合を集中している状態と判定し、それ以外の場合を集中していない状態と判定する、請求項に記載の刺激提示システム。
  9. 前記生体情報取得部により取得された生体情報は、前記ユーザの脳の活動状態を示す脳活動情報と前記脳活動情報以外の生体情報を含み、
    前記コンテンツ提示部は、更に、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定するための集中判定コンテンツを提示し、
    前記集中判定部は、前記集中判定コンテンツの提示後に前記生体情報取得部によって取得された前記脳活動情報または前記脳活動情報以外の生体情報のうち少なくとも一方に基づいて、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定し、 前記刺激コンテンツデータベースは、前記刺激提示コンテンツを、コンテンツの種類とユーザの心理状態に与える効果とのうち少なくとも一方に基づいて分類した属性情報を保持し、
    前記シナリオ作成部は、前記刺激コンテンツデータベースに保持された前記属性情報に基づいて、前記刺激提示コンテンツと、前記集中判定コンテンツとを含むシナリオを作成し、
    前記集中判定コンテンツは、前記刺激提示コンテンツの属性情報と異なる属性情報を有するコンテンツを含む、請求項5又は6に記載の刺激提示システム。
  10. 前記シナリオ作成部は、前記刺激提示コンテンツを提示する頻度と比べて前記集中判定コンテンツを低い頻度で提示するシナリオを作成する、請求項7〜9のいずれか一項に記載の刺激提示システム。
  11. 前記シナリオ作成部は、前記刺激コンテンツデータベースに保持された前記属性情報に基づいて、前記集中判定コンテンツを提示する直前のコンテンツが有する少なくとも1つ以上の属性情報と同じ属性情報の数や、属性情報の類似度を判定し、最も類似度の低いコンテンツを、前記集中判定コンテンツとして選択する、請求項に記載の刺激提示システム。
  12. 前記集中判定部が、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記コンテンツ提示部は、音を発する、
    請求項11のいずれか一項に記載の刺激提示システム。
  13. 前記心理状態推定部、前記シナリオ作成部および前記心理状態判断部のうちの少なくとも1つはプロセッサを含む、
    請求項1〜12のいずれか一項に記載の刺激提示システム。
  14. プロセッサを備える刺激提示システムによって実行され、ユーザの心理状態を目標の心理状態に導くための刺激提示方法であって、
    前記ユーザの生体情報を取得する生体情報取得工程と、
    前記生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定工程と、
    前記ユーザの心理状態が第1心理状態であると推定された後、前記ユーザの目標とする心理状態を示す目標心理状態を設定する目標状態設定工程と、
    前記設定された目標心理状態に基づいてユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成するシナリオ作成工程と、
    前記作成されたシナリオに基づいて前記一つ以上の刺激提示コンテンツを提示するコンテンツ提示工程と、
    前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、推定された前記ユーザの心理状態である第2心理状態が前記目標心理状態に至っているか否かを判断する心理状態判断工程と、
    前記心理状態推定工程で推定された前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第1変化量と、前記作成されたシナリオに基づいて予想される変化量であって、前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第2変化量との差異を算出する効果差異算出工程と
    前記効果差異算出工程で算出された差異が所定値以上である場合、ユーザが前記刺激提示コンテンツに集中しているか否かを判定する集中判定工程と、
    を含み、
    前記集中判定工程は、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記効果差異算出工程で算出された差異を補正することを含む、
    刺激提示方法。
  15. 前記心理状態判断工程は、前記第2心理状態が前記目標心理状態に至っていると判断した場合、前記刺激提示コンテンツの提示を終了する、請求項14に記載の刺激提示方法。
  16. 前記目標状態設定工程は、前記ユーザの入力操作によって入力された目標心理状態に関する入力データに基づいて前記目標心理状態を設定することを含む、請求項14又は15に記載の刺激提示方法。
  17. 前記目標状態設定工程は、記録媒体に記録された過去に設定された目標心理状態の履歴情報に基づいて前記目標心理状態を設定する、請求項14又は15に記載の刺激提示方法。
  18. 更に、
    前記シナリオ作成工程は、前記刺激提示コンテンツの提示に対する前記ユーザの心理状態の変化の傾向を前記ユーザと関連付けて定義したユーザモデルを格納するユーザモデルデータベースと、前記刺激提示コンテンツの提示に対して予想される前記ユーザの心理状態の変化量を示す予想変化量を格納する刺激コンテンツデータベースとのうち少なくとも一方のデータに基づいて、前記シナリオを作成する、
    請求項1417のいずれか一項に記載の刺激提示方法。
  19. 更に、
    前記効果差異算出工程で算出された差異が所定値以上である場合、前記ユーザモデルデータベースと前記刺激コンテンツデータベースとのうち少なくとも一方のデータを更新するデータベース更新工程を含む、請求項18に記載の刺激提示方法。
  20. 前記生体情報取得工程により取得された生体情報は、前記ユーザの脳の活動状態を示す脳活動情報と前記脳活動情報以外の生体情報を含み、
    前記コンテンツ提示工程は、更に、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定するための集中判定コンテンツを提示し、
    前記集中判定工程は、前記集中判定コンテンツが提示された後に前記生体情報取得工程によって取得された前記脳活動情報または前記脳活動情報以外の生体情報のうち少なくとも一方に基づいて、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定する、請求項14〜19のいずれか一項に記載の刺激提示方法。
  21. 前記集中判定工程は、前記集中判定コンテンツ提示後であって、かつ次の刺激提示コンテンツが提示される前に取得された生体情報に含まれる第1脳活動情報と、前記集中判定コンテンツ以外のコンテンツが提示されている時に取得された生体情報に含まれる第2脳活動情報とを比較し、前記第1脳活動情報と前記第2脳活動情報との差が所定の量以上ある場合を集中している状態と判定し、それ以外の場合を集中していない状態と判定する、請求項20に記載の刺激提示方法。
  22. 前記生体情報取得工程により取得された生体情報は、前記ユーザの脳の活動状態を示す脳活動情報と前記脳活動情報以外の生体情報を含み、
    前記コンテンツ提示工程は、更に、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定するための集中判定コンテンツを提示し、
    前記集中判定工程は、前記集中判定コンテンツが提示された後に前記生体情報取得工程によって取得された前記脳活動情報または前記脳活動情報以外の生体情報のうち少なくとも一方に基づいて、前記ユーザが前記刺激提示コンテンツに集中しているか否かを判定し、
    前記刺激提示方法は、更に、
    前記シナリオ作成工程で作成されたシナリオを、前記刺激コンテンツデータベースが保持する前記刺激提示コンテンツをコンテンツの種類とユーザの心理状態に与える効果とのうち少なくとも一方に基づいて分類した属性情報に基づいて、前記刺激提示コンテンツと、前記集中判定コンテンツとを含むシナリオに変更するシナリオ変更工程を含み、
    前記集中判定コンテンツは、前記刺激提示コンテンツの属性情報と異なる属性情報を有するコンテンツを含む、請求項18又は19に記載の刺激提示方法。
  23. 前記シナリオ変更工程は、前記刺激提示コンテンツを提示する頻度と比べて前記集中判定コンテンツを低い頻度で提示するシナリオに変更する、請求項22に記載の刺激提示方法。
  24. 前記シナリオ変更工程は、前記刺激コンテンツデータベースに保持された前記属性情報に基づいて、前記集中判定コンテンツを提示する直前のコンテンツが有する少なくとも1つ以上の属性情報と同じ属性情報の数や、属性情報の類似度を判定し、最も類似度の低いコンテンツを、前記集中判定コンテンツとして選択する、請求項22に記載の刺激提示方法。
  25. 更に、
    前記集中判定工程が、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、音を発する音発生工程、
    を含む、請求項1424のいずれか一項に記載の刺激提示方法。
  26. 前記心理状態推定工程、前記シナリオ作成工程および前記心理状態判断工程のうちの少なくとも一つは刺激提示システムが備えるプロセッサにより行われる、
    請求項14〜25のいずれか一項に記載の刺激提示方法。
  27. ユーザの心理状態を目標の心理状態に導くための刺激提示システムのコンピュータであって、
    前記コンピュータと接続する生体情報取得装置により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定部と、
    前記心理状態推定部により前記ユーザの心理状態が第1心理状態と推定された後、前記コンピュータと接続する目標状態設定装置により設定された前記ユーザの目標とする心理状態を示す目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成し、前記作成したシナリオを前記コンピュータと接続するコンテンツ提示装置に送信するシナリオ作成部と、
    前記コンテンツ提示装置による前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定部により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断部と、
    前記心理状態推定部で推定された前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第1変化量と、前記作成されたシナリオに基づいて予想される変化量であって、前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第2変化量との差異を算出する効果差異算出部と、
    前記効果差異算出部で算出された差異が所定値以上である場合に、ユーザが前記刺激提示コンテンツに集中しているか否かを判定する集中判定部と、
    を備え、
    前記集中判定部は、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記効果差異算出部で算出された差異を補正する、
    コンピュータ。
  28. 前記心理状態推定部、前記シナリオ作成部および前記心理状態判断部のうちの少なくとも1つはプロセッサを含む、
    請求項27に記載のコンピュータ。
  29. ユーザの心理状態を目標の心理状態に導くための刺激提示システムのコンピュータの制御方法であって、
    前記コンピュータと接続する生体情報取得装置により取得された生体情報に基づいて前記ユーザの心理状態を推定する心理状態推定工程と、
    前記心理状態推定工程により前記ユーザの心理状態が第1心理状態と推定された後、前記コンピュータと接続する目標状態設定装置により設定された前記ユーザの目標とする心理状態を示す目標心理状態に基づいて前記ユーザの心理状態に影響を与え得る一つ以上の刺激提示コンテンツを含むシナリオを作成し、前記作成したシナリオを前記コンピュータと接続するコンテンツ提示装置に送信するシナリオ作成工程と、
    前記コンテンツ提示装置による前記刺激提示コンテンツの提示を開始した後に取得された前記ユーザの生体情報に基づいて、前記心理状態推定工程により推定された前記ユーザの心理状態である第2心理状態が前記設定された目標心理状態に至っているか否かを判断する心理状態判断工程と、
    前記心理状態推定工程で推定された前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第1変化量と、前記作成されたシナリオに基づいて予想される変化量であって、前記刺激提示コンテンツの提示によるユーザの心理状態の変化量を示す第2変化量との差異を算出する効果差異算出工程と
    前記効果差異算出工程で算出された差異が所定値以上である場合、ユーザが前記刺激提示コンテンツに集中しているか否かを判定する集中判定工程と、
    を含み、
    前記集中判定工程は、ユーザが前記刺激提示コンテンツに集中していないと判定した場合、前記効果差異算出工程で算出された差異を補正することを含む、
    制御方法。
  30. 前記心理状態推定工程、前記シナリオ作成工程および前記心理状態判断工程のうちの少なくとも一つはプロセッサにより行われる、
    請求項29に記載の制御方法。
JP2015249842A 2015-01-30 2015-12-22 刺激提示システム、刺激提示方法、コンピュータ、および制御方法 Active JP6636792B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015017033 2015-01-30
JP2015017033 2015-01-30

Publications (2)

Publication Number Publication Date
JP2016146173A JP2016146173A (ja) 2016-08-12
JP6636792B2 true JP6636792B2 (ja) 2020-01-29

Family

ID=56552655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015249842A Active JP6636792B2 (ja) 2015-01-30 2015-12-22 刺激提示システム、刺激提示方法、コンピュータ、および制御方法

Country Status (3)

Country Link
US (1) US10271783B2 (ja)
JP (1) JP6636792B2 (ja)
CN (1) CN105844072B (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160110807A (ko) * 2015-03-12 2016-09-22 주식회사 소소 다중 생체신호 검출용 헤드셋 장치
US10290139B2 (en) * 2015-04-15 2019-05-14 Sangmyung University Industry-Academy Cooperation Foundation Method for expressing social presence of virtual avatar, using change in pupil size according to heartbeats, and system employing same
US11676461B2 (en) 2016-08-29 2023-06-13 Sony Corporation Information processing device, information processing method, and program for controlling haptics based on context information
US11382547B2 (en) 2016-09-12 2022-07-12 Embraer S.A. Brain stimulation system to provide a sense of wellbeing
JPWO2018074224A1 (ja) * 2016-10-21 2019-02-28 株式会社デイジー 雰囲気醸成システム、雰囲気醸成方法、雰囲気醸成プログラム、及び雰囲気推定システム
JP6839818B2 (ja) * 2017-05-17 2021-03-10 パナソニックIpマネジメント株式会社 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム
JP7332952B2 (ja) * 2017-06-20 2023-08-24 テイ・エス テック株式会社 乗物用シート
CN110945541A (zh) * 2017-07-28 2020-03-31 索尼公司 信息处理装置、信息处理方法和程序
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC NEURO-ACTIVATION PROCESS AND APPARATUS
JP7077555B2 (ja) * 2017-09-22 2022-05-31 富士通株式会社 情報制御装置、情報制御システム、情報制御方法及び情報制御プログラム
US20200253499A1 (en) * 2017-10-20 2020-08-13 Panasonic Corporation Electroencephalogram decision system, electroencephalogram decision method, program, and non-transitory storage medium
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US11273283B2 (en) 2017-12-31 2022-03-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
JP7141681B2 (ja) * 2018-01-29 2022-09-26 株式会社Agama-X 情報処理装置、情報処理システム及びプログラム
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
JP7134751B2 (ja) * 2018-07-04 2022-09-12 シャープ株式会社 通信端末、コンテンツサーバ、コンテンツ推薦システム、制御装置、および通信端末が実行する制御方法
US11272870B2 (en) 2018-07-30 2022-03-15 Hi Llc Non-invasive systems and methods for detecting mental impairment
US10706820B2 (en) * 2018-08-20 2020-07-07 Massachusetts Institute Of Technology Methods and apparatus for producing a multimedia display that includes olfactory stimuli
CN109276243A (zh) * 2018-08-31 2019-01-29 易念科技(深圳)有限公司 脑电心理测试方法及终端设备
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
WO2020131148A1 (en) 2018-12-21 2020-06-25 Hi Llc Biofeedback for awareness and modulation of mental state using a non-invasive brain interface system and method
JP6709966B1 (ja) * 2019-03-29 2020-06-17 パナソニックIpマネジメント株式会社 心理状態推定システム、心理状態推定方法、プログラム、推定モデルの生成方法
AU2020252190A1 (en) 2019-04-04 2021-11-18 Hi Llc Modulation of mental state of a user using a non-invasive brain interface system and method
JP6990672B2 (ja) * 2019-04-11 2022-01-12 株式会社Aikomi 要介護者支援システム及び要介護者の支援方法
EP3958736A1 (en) * 2019-04-26 2022-03-02 Hi LLC Non-invasive system and method for product formulation assessment based on product-elicited brain state measurements
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
EP3982822A2 (en) 2019-06-11 2022-04-20 Hi LLC Non-invasive systems and methods for the detection and modulation of a user's mental state through awareness of priming effects
JP7365637B2 (ja) * 2019-11-21 2023-10-20 パナソニックIpマネジメント株式会社 環境制御システム、環境制御方法及びプログラム
EP4088794A4 (en) * 2020-02-07 2023-01-25 Life Quest Inc. CONTENT PLAYBACK DEVICE AND METHOD, AND PROGRAM
JPWO2021172160A1 (ja) * 2020-02-26 2021-09-02
WO2021178298A1 (en) 2020-03-04 2021-09-10 Hi Llc Systems and methods for training and using a neurome that emulates the brain of a user
JP2021159594A (ja) * 2020-04-02 2021-10-11 キヤノン株式会社 頭部装着装置及びその制御装置
JP7422362B2 (ja) * 2020-05-21 2024-01-26 株式会社ジョリーグッド コンテンツ提供システム及びコンテンツ提供方法
CN111888618B (zh) * 2020-07-16 2023-11-14 董晓龙 一种追视训练器和追视训练方法
JP7361667B2 (ja) * 2020-07-21 2023-10-16 Kddi株式会社 行動変容のための認知的刺激を生成する装置、モデル及び刺激情報生成・提示方法
CN116325011A (zh) * 2020-10-14 2023-06-23 株式会社Aikomi 需护理者辅助系统
KR102261270B1 (ko) * 2020-11-26 2021-06-07 주식회사 엔젠바이오 사용자 다중 특징 정보를 이용한 개인 맞춤형 콘텐츠 제공 방법 및 분석장치
WO2022172447A1 (ja) * 2021-02-15 2022-08-18 パナソニックIpマネジメント株式会社 環境制御システム、環境制御方法及びプログラム
US20220273233A1 (en) * 2021-02-26 2022-09-01 Hi Llc Brain Activity Derived Formulation of Target Sleep Routine for a User
WO2022186880A1 (en) * 2021-03-04 2022-09-09 Hi Llc Presentation of graphical content associated with measured brain activity
JP2022138233A (ja) * 2021-03-10 2022-09-26 ソニーグループ株式会社 コンテンツリコメンデーションシステム、コンテンツリコメンデーション方法、コンテンツライブラリ、コンテンツライブラリの生成方法及びターゲットインプットユーザインタフェース
WO2023127930A1 (ja) * 2021-12-28 2023-07-06 株式会社デンソーテン 感情推定装置及び感情推定モデル生成方法
US20230355095A1 (en) * 2022-05-09 2023-11-09 Kure, Llc Treatment chair
JP7402577B1 (ja) 2023-06-16 2023-12-21 株式会社ファーストスター・ヘルスケア 音楽提供システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146630A (ja) 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
US20060293838A1 (en) * 2005-06-13 2006-12-28 Kakuya Yamamoto Guidance apparatus
JP2007026429A (ja) * 2005-06-13 2007-02-01 Matsushita Electric Ind Co Ltd 誘導装置
JP5184137B2 (ja) 2008-02-22 2013-04-17 トヨタホーム株式会社 音響システム
EP2100556A1 (en) * 2008-03-14 2009-09-16 Koninklijke Philips Electronics N.V. Modifying a psychophysiological state of a subject
JP2011180873A (ja) * 2010-03-02 2011-09-15 Panasonic Corp 運転支援装置、及び運転支援方法
CN102068263B (zh) * 2011-01-12 2012-07-04 福州瑞芯微电子有限公司 基于生理数据的交互式电子设备的交互方法
JP2013042768A (ja) * 2011-08-22 2013-03-04 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP2013054447A (ja) * 2011-09-01 2013-03-21 Hitachi Ltd 気分改善システムおよび気分改善方法
CN103284878B (zh) * 2012-02-27 2015-11-25 厦门蒙发利科技(集团)股份有限公司 智能化按摩机
US20130283162A1 (en) * 2012-04-23 2013-10-24 Sony Mobile Communications Ab System and method for dynamic content modification based on user reactions
US10009644B2 (en) * 2012-12-04 2018-06-26 Interaxon Inc System and method for enhancing content using brain-state data

Also Published As

Publication number Publication date
US10271783B2 (en) 2019-04-30
JP2016146173A (ja) 2016-08-12
CN105844072A (zh) 2016-08-10
US20160220163A1 (en) 2016-08-04
CN105844072B (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
JP6636792B2 (ja) 刺激提示システム、刺激提示方法、コンピュータ、および制御方法
US10901509B2 (en) Wearable computing apparatus and method
US9955902B2 (en) Notifying a user about a cause of emotional imbalance
US10261947B2 (en) Determining a cause of inaccuracy in predicted affective response
US10198505B2 (en) Personalized experience scores based on measurements of affective response
US8082215B2 (en) Acquisition and particular association of inference data indicative of inferred mental states of authoring users
JP4481682B2 (ja) 情報処理装置及びその制御方法
KR20210004951A (ko) 신경 생리학적 상태의 검출을 위한 센서 데이터를 사용하는 컨텐츠 생성 및 제어
US8001179B2 (en) Acquisition and presentation of data indicative of an extent of congruence between inferred mental states of authoring users
US8005894B2 (en) Acquisition and presentation of data indicative of an extent of congruence between inferred mental states of authoring users
US8429225B2 (en) Acquisition and presentation of data indicative of an extent of congruence between inferred mental states of authoring users
van den Broek et al. Unobtrusive sensing of emotions (USE)
EP3270263A1 (en) Information processing apparatus for presenting content, method for controlling the same, and control program
JP2009066186A (ja) 脳活動状態推定方法および情報処理システム
JP2018088966A (ja) 気分推定システム
EP4307206A1 (en) Content recommendation system, content recommendation method, content library, method for generating content library, and target input user interface
JP2020048871A (ja) 情報処理装置、プログラム
JP7408103B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
EP4318320A1 (en) Model generation method, computer program, information processing device, information processing system, information processing method, and method for generating training data
JP6965114B2 (ja) 情報処理装置
JP7300929B2 (ja) 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法
JP2022089145A (ja) 携帯端末
WO2021204721A1 (en) Controlling a data inspection by a user
CN112052349A (zh) 内容选择方法、内容选择装置以及记录介质
JP2021089594A (ja) 制御装置および制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191219

R151 Written notification of patent or utility model registration

Ref document number: 6636792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151