JP2021108037A - 没入促進システム - Google Patents
没入促進システム Download PDFInfo
- Publication number
- JP2021108037A JP2021108037A JP2019239436A JP2019239436A JP2021108037A JP 2021108037 A JP2021108037 A JP 2021108037A JP 2019239436 A JP2019239436 A JP 2019239436A JP 2019239436 A JP2019239436 A JP 2019239436A JP 2021108037 A JP2021108037 A JP 2021108037A
- Authority
- JP
- Japan
- Prior art keywords
- user
- stimulus
- unit
- immersive
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】提供されるコンテンツに対するユーザーの没入度とストレスとに基づいて、ユーザーのコンテンツへの没入を促進できる没入促進システムを提供する。【解決手段】没入促進システム1は、コンテンツが提供された空間におけるユーザーの状態を取得する状態取得部3と、ユーザーのストレスに関連する生体情報を取得する生体情報取得部4と、ユーザーに対する刺激を出力する刺激出力部5と、状態取得部3が取得したユーザーの状態に基づいてユーザーのコンテンツに対する没入度を推定すると共に、没入度の推定結果と生体情報取得部4が取得した生体情報とに基づいて刺激出力部5が出力する刺激を選択する処理部6と、を備える。【選択図】図1
Description
本開示は、没入促進システムに関する。
例えば、人が着座するシートの姿勢を変えることで、快適な環境を着席者に提供する装置が知られている(特許文献1参照)。
上記公報の装置は、着席者のコミュニケーション環境を向上させる機能を有しているが、シートが配置されている空間に提供されるコンテンツと連動して、着席者にサービスを提供する機能は備えていない。
本開示の一局面は、提供されるコンテンツに対するユーザーの没入度とストレスとに基づいて、ユーザーのコンテンツへの没入を促進できる没入促進システムを提供することを目的としている。
本開示の一態様は、コンテンツが提供された空間におけるユーザーの状態を取得するように構成された状態取得部(3)と、ユーザーのストレスに関連する生体情報を取得するように構成された生体情報取得部(4)と、ユーザーに対する刺激を出力するように構成された刺激出力部(5)と、状態取得部(3)が取得したユーザーの状態に基づいてユーザーのコンテンツに対する没入度を推定すると共に、没入度の推定結果と生体情報取得部(4)が取得した生体情報とに基づいて刺激出力部(5)が出力する刺激を選択するように構成された処理部(6)と、を備える没入促進システム(1)である。
このような構成によれば、推定したユーザーの没入度に合わせて、没入を促進するのに適した刺激をユーザーに提供できる。また、推定した没入度とユーザーのストレスとを組み合わせて刺激を選択することで、過剰な刺激によるユーザーのストレス上昇を抑えることができる。その結果、現在のコンテンツに対する没入度の高い状態にユーザーを誘導することができる。
本開示の一態様では、処理部(6)は、没入度の推定結果と生体情報とコンテンツの種別とに基づいて、刺激出力部(5)が出力する刺激を選択するように構成されてもよい。このような構成によれば、興奮指向、リラックス指向等のコンテンツの種別及び目的に応じた刺激をユーザーに提供できる。そのため、コンテンツに合わせた適度の高い状態誘導が可能となる。
本開示の一態様では、刺激出力部(5)は、ユーザーの聴覚に対する第1刺激と、ユーザーの触覚に対する第2刺激と、ユーザーの嗅覚に対する第3刺激と、ユーザーの視覚に対する第4刺激とを出力するように構成されてもよい。このような構成によれば、第1刺激から第4刺激の組み合わせを処理部(6)が選択することによって、より適度の高い状態誘導が可能となる。
本開示の一態様では、状態取得部(3)は、ユーザーの状態として、ユーザーの姿勢を取得するように構成されてもよい。処理部(6)は、状態取得部(3)が取得したユーザーの姿勢に基づいてユーザーのコンテンツに対する没入度を推定するように構成されてもよい。このような構成によれば、没入度の推定精度を高めることができる。その結果、ユーザーの状態誘導の適度を高めることができる。
本開示の一態様では、処理部(6)は、状態取得部(3)が取得したユーザーの姿勢からユーザーの活動エネルギーを算出するように構成されてもよい。このような構成によれば、活動エネルギーに基づいてユーザーの没入度を多元的に把握できる。その結果、ユーザーの状態誘導の適度を高めることができる。
なお、上記各括弧内の符号は、後述する実施形態に記載の具体的構成等との対応関係を示す一例であり、本開示は上記括弧内の符号に示された具体的構成等に限定されるものではない。
以下、本開示が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す没入促進システム1は、例えば、スタジアム、映画館、劇場、コンサートホール、ライブハウス等の施設、又は、自動車、鉄道車両、船舶、航空機等の移動体に設置される。没入促進システム1は、コンテンツ提供部2と、状態取得部3と、生体情報取得部4と、刺激出力部5と、処理部6と、を備える。
[1.第1実施形態]
[1−1.構成]
図1に示す没入促進システム1は、例えば、スタジアム、映画館、劇場、コンサートホール、ライブハウス等の施設、又は、自動車、鉄道車両、船舶、航空機等の移動体に設置される。没入促進システム1は、コンテンツ提供部2と、状態取得部3と、生体情報取得部4と、刺激出力部5と、処理部6と、を備える。
<コンテンツ提供部>
コンテンツ提供部2は、コンテンツをユーザーに提供するように構成されている。コンテンツ提供部2には、コンテンツの内容を記憶した記憶装置、コンテンツを表示する表示装置等が含まれる。
コンテンツ提供部2は、コンテンツをユーザーに提供するように構成されている。コンテンツ提供部2には、コンテンツの内容を記憶した記憶装置、コンテンツを表示する表示装置等が含まれる。
コンテンツ提供部2が提供する「コンテンツ」には、スポーツ、ボードゲーム、ビデオゲーム等の観戦イベント、演劇、演奏等の鑑賞イベント、実写又は仮想の映像、音楽などが含まれる。
特に、没入促進システム1は、ユーザーの行動によって内容が変化する双方向性のあるコンテンツに効果的に適用できる。このような双方向性のコンテンツの例として、仮想現実(VR:Virtual Reality)空間又は拡張現実(AR:Augmented Reality)空間と、仮想現実空間又は拡張現実空間に配置される仮想人物のキャラクタとを含むコンテンツが挙げられる。
<状態取得部>
状態取得部3は、コンテンツ提供部2によってコンテンツが提供された空間におけるユーザーの姿勢を取得するように構成されている。本実施形態の状態取得部3は、図2Aに示すように、シート31と、複数の加速度センサ32A,32B,32Cと、複数のカメラ33A,33Bとを有する。
状態取得部3は、コンテンツ提供部2によってコンテンツが提供された空間におけるユーザーの姿勢を取得するように構成されている。本実施形態の状態取得部3は、図2Aに示すように、シート31と、複数の加速度センサ32A,32B,32Cと、複数のカメラ33A,33Bとを有する。
シート31は、施設又は移動体において、コンテンツが提供される空間Sに配置されている。シート31には、第1加速度センサ32A、第2加速度センサ32B、及び第3加速度センサ32Cが配置されている。
加速度センサ32A,32B,32Cは、それぞれ、3軸加速度センサであり、3次元の加速度データを出力可能に構成されている。加速度センサ32A,32B,32Cは、必要に応じて、3軸の角速度(つまり、ロール角速度、ピッチ角速度、及びヨー角速度)の検出機能を有してもよい。
ただし、後述する処理部6において、角速度を入力データとして用いることなく没入度の推定が実現される場合は、センサのコストと消費電力とを低減する観点から、各加速度センサは加速度のみの検出機能を有することが好ましい。
第1カメラ33A及び第2カメラ33Bは、それぞれ、シート31に着席したユーザーの姿勢を認識する3次元カメラである。カメラ33A,33Bは、少なくともユーザーの上半身を撮影できるように配置されている。
<生体情報取得部>
図1に示す生体情報取得部4は、コンテンツが提供された空間におけるユーザーのストレス(つまり環境適応度)に関連する生体情報を取得するように構成されている。
図1に示す生体情報取得部4は、コンテンツが提供された空間におけるユーザーのストレス(つまり環境適応度)に関連する生体情報を取得するように構成されている。
「ストレスに関連する生体情報」とは、自律神経と連動した生体情報であり、例えば心拍、瞳孔の大きさ等が挙げられる。これらの生体情報は、ユーザーが装着したウェアラブルデバイス、カメラ等の測定装置によって取得される。
<刺激出力部>
刺激出力部5は、コンテンツが提供された空間においてユーザーに対する刺激を出力するように構成されている。
刺激出力部5は、コンテンツが提供された空間においてユーザーに対する刺激を出力するように構成されている。
本実施形態の刺激出力部5は、ユーザーの聴覚に対する第1刺激と、ユーザーの触覚に対する第2刺激と、ユーザーの嗅覚に対する第3刺激と、ユーザーの視覚に対する第4刺激とを出力する。
図2Bに示すように、刺激出力部5は、スピーカ51と、バイブレータ52と、アロマシュータ53と、照明54とを有する。これらの装置は、シート31が配置された空間S内に配置されている。
スピーカ51は、音声を第1刺激として出力する。バイブレータ52は、振動を第2刺激として出力する。アロマシュータ53は、匂いを第3刺激として出力する。照明54は、光を第4刺激として出力する。スピーカ51、アロマシュータ53及び照明54は、空間を構成する壁、天井等に配置されている。バイブレータ52は、シート31に配置されている。
刺激出力部5は、上述した以外の刺激の出力装置を有してもよい。例えば、刺激出力部5は、映像を第4刺激として出力するディスプレイ、風を第2刺激として出力する送風機、シート31の回転、移動、姿勢変化等の動きを第2刺激として出力するシート移動装置等を有してもよい。
刺激出力部5は、後述する処理部6からの指示に基づき、刺激の種類、刺激の程度(例えば、音の大きさ、振動の大きさ、匂いの濃度、光の強さ等)、刺激の持続時間、刺激の発生タイミング、刺激の発生位置等を設定する。設定された刺激は、ユーザーに向けて直接出力されるか、又はユーザーが存在する空間Sに出力される。刺激出力部5は、複数の種類の刺激を同時に出力してもよい。
<処理部>
図1に示す処理部6は、状態取得部3が取得したユーザーの状態(具体的にはユーザーの姿勢)に基づいてユーザーのコンテンツに対する没入度を推定する推定機能と、ユーザーのコンテンツに対する没入度の推定結果と、生体情報取得部4が取得した生体情報と、コンテンツの種別とに基づいて刺激出力部5が出力する刺激を選択する選択機能とを有する。ここで、「没入度」とは、例えば、盛り上がり、興奮、又は、関心の度合いを意味する。
図1に示す処理部6は、状態取得部3が取得したユーザーの状態(具体的にはユーザーの姿勢)に基づいてユーザーのコンテンツに対する没入度を推定する推定機能と、ユーザーのコンテンツに対する没入度の推定結果と、生体情報取得部4が取得した生体情報と、コンテンツの種別とに基づいて刺激出力部5が出力する刺激を選択する選択機能とを有する。ここで、「没入度」とは、例えば、盛り上がり、興奮、又は、関心の度合いを意味する。
処理部6は、推定部61と、選択部62とを有する。処理部6は、例えばマイクロプロセッサと、RAM、ROM等の記憶媒体と、入出力部とを備えるマイクロコンピュータにより構成される。処理部6は、シート31に装着又は内蔵されてもよいし、シート31とは離間して配置されてもよい。
(推定部)
推定部61は、推定機能を実行する。推定部61は、状態取得部3が取得したユーザーの状態として、加速度センサ32A,32B,32Cの出力及びカメラ33A,33Bの画像を取得する。推定部61は、取得した出力及び画像を用いて、ユーザーのコンテンツに対する没入度を推定する。
推定部61は、推定機能を実行する。推定部61は、状態取得部3が取得したユーザーの状態として、加速度センサ32A,32B,32Cの出力及びカメラ33A,33Bの画像を取得する。推定部61は、取得した出力及び画像を用いて、ユーザーのコンテンツに対する没入度を推定する。
具体的な没入度の推定方法としては、例えば、以下の手順が採用できる。まず、推定部61は、状態取得部3が検出した姿勢から、推定用情報を取得する。推定用情報には、ユーザーの視線の方向と、姿勢遷移量とが含まれる。
次に、推定部61は、推定用情報から少なくとも1つの特徴量を算出する。次に、推定部61は、1つの特徴量がその特徴量に対して設定された閾値を超えたか判定し、閾値を超えた場合にユーザーのコンテンツへの没入度に一定の得点を付加する。特徴量が閾値を超えた場合に付加される点数は、閾値と同様、特徴量ごとに個別に設定される。また、推定部61は、特徴量が閾値以下の場合、没入度に負の点数を付加してもよい。
推定に用いられる視線の方向は、例えば、ユーザーの頭部の方向として取得される。ユーザーの頭部の方向は、加速度センサ32A,32B,32Cの出力、カメラ33A,33Bが取得した画像、又はこれらの組み合わせから推定される。
例えば、頭部の方向は、ユーザーの上半身の鉛直方向に対する傾きと、ユーザーの両肩を結んだ線分の基準軸に対する傾きと、ユーザーの首と鼻とを結んだ線分の鉛直方向に対する傾きと、の組み合わせによって決定される。つまり、視線の方向は、これらの傾きの組み合わせを表すコードとして取得される。
上述の3つの傾きは、それぞれ、カメラ33A,33Bの画像の解析によって検出できる。また、加速度センサ32A,32B,32Cの出力から、機械学習により構築された学習モデルを用いて3つの傾きを推定することもできる。
上記学習モデルは、加速度センサ32A,32B,32Cの出力に基づく入力データと、ユーザーの姿勢又はユーザーの姿勢遷移に係る情報に基づく教師データ(つまりラベルデータ)とによる機械学習により構築される。学習モデルは、処理部6の記憶部に記憶されている。
学習モデルは、教師あり機械学習によって構築される分類器(つまり分類モデル)であり、例えば多層ニューラルネットワークで構成される。多層ニューラルネットワークの例としては、例えば、CNN(Convolution Neural Network)、DNN(Deep Neural Network)、LSTM(Long Short−Term Memory)等が挙げられる。
なお、学習モデルは、多層ニューラルネットに限定されず、ニューラルネットワーク以外のモデルを用いてもよい。例えば、SVC(サポートベクターマシンによるクラス分類)、ランダムフォレスト等のアルゴリズムを用いて学習モデルを構築してもよい。
学習モデルの機械学習では、入力データとして、加速度センサ32A,32B,32Cの出力(つまり、3次元の加速度、又は3次元の加速度に3次元の角速度を加えた加速度データ)を用いる。また、教師データとして、ユーザーの姿勢パターンを示す一定数の姿勢ラベル、又はユーザーの姿勢の遷移パターンを示す一定数の遷移ラベルを用いる。
学習モデルを生成する学習ステップでは、多数のラベル付きデータを機械学習装置に分析させる。ラベル付きデータは、加速度データに、対応する姿勢ラベル又は遷移ラベルを付けたデータである。機械学習装置は、多数のラベル付きデータから加速度データを複数のラベルに分類するための特徴量を学習し、学習モデルを構築する。
学習モデルの構築は、機械学習装置(図示省略)を用いて行われる。機械学習装置によって構築された学習モデルは、記憶部に出力される。なお、機械学習装置は処理部6に組み込まれていてもよい。
推定部61が入力データに付与する姿勢ラベルは、推定する複数の姿勢パターンを予め定義したものである。本実施形態の姿勢ラベルは、例えば、視線の方向を示すコードとされる。
視線の方向と共に推定に用いられる姿勢遷移量は、加速度センサ32A,32B,32Cの出力から算出される特徴量として取得される。この特徴量は、取得された出力に対する積分、平均等の演算に基づいて算出される。例えば、推定部61は、シート31に伝わるユーザーの運動の強さT及びシート31に伝わるユーザーの運動の広さSを特徴量として算出する。
また、推定部61は、状態取得部3のカメラ33A,33Bが取得したユーザーの姿勢から、ユーザーの各部位の運動エネルギーを推定する。例えば、推定部61は、ユーザーの腕の運動エネルギーEh及びユーザーの上半身における胴体部の運動エネルギーEbを推定する。
さらに、推定部61は、運動の強さTと運動の広さSと腕の運動エネルギーEhと胴体部の運動エネルギーEbとを用いて、下記式(1)で表される活動エネルギーQを算出する。なお、式(1)中、K1及びK2は定数である。
Q=K1・Eh+K2・S・T・Eb ・・・(1)
Q=K1・Eh+K2・S・T・Eb ・・・(1)
推定部61は、状態取得部3の検出結果(つまり、カメラ33A,33Bが取得した画像及び加速度センサ32A,32B,32Cの出力)に基づいて取得したユーザーの視線の方向と、姿勢遷移量とに基づいて、コンテンツに対するユーザーの没入度の高さを推定する。
具体的には、推定部61は、視線の維持時間に基づく第1推定、視線の変化頻度に基づく第2推定、共同注視に基づく第3推定、及びリアクションの大きさに基づく第4推定を行う。
第1推定では、推定部61は、視線の方向の維持時間によって、コンテンツに対するユーザーの没入度の高さを推定する。具体的には、視線の方向の維持時間が予め定めた第1閾値以上の場合に、ユーザーの没入度が加点される。
なお、「視線の方向の維持」とは、推定部61によって取得される「視線の方向を示すコード」が変化しないことを意味し、視線の方向コードが変化しない(つまり視線の変化後も同じ方向コードに含まれる)微小な視線の変動は「視線の方向の維持」に含まれる。第1閾値は、コンテンツの内容に合わせて設定され、コンテンツの進行に合わせて変化してもよい。第1閾値は、例えば1.5秒である。
第2推定では、推定部61は、視線の方向が変化する頻度(つまり視線の逸脱率)によって、コンテンツに対するユーザーの没入度の高さを推定する。具体的には、一定時間における視線が逸脱した時間が予め定めた第2閾値以下の場合に、ユーザーの没入度が加点される。
なお、第1推定と同様、「視線の方向の変化」は、「視線の方向を示すコード」が変化することを意味する。第2閾値は、コンテンツの内容と第1閾値とに合わせて設定され、コンテンツの進行に合わせて変化してもよい。第2閾値は、例えば、0.3秒である。
第3推定では、推定部61は、コンテンツによる視線誘導の開始から、視線の方向が視線誘導の方向と一致する(つまり共同注視に遷移する)までの時間によって、コンテンツに対するユーザーの没入度の高さを推定する。
具体的には、コンテンツによって共同注視シーンが提供されている間に、コンテンツにおける視線誘導の方向とユーザーの視線の方向とが一致した場合に、ユーザーの没入度が加点される。
第4推定は、第3推定と合わせて実施される。第4推定では、コンテンツによる視線誘導の開始後における姿勢遷移量によって、コンテンツに対するユーザーの没入度の高さを推定する。
具体的には、推定部61は、上述した少なくとも1つの特徴量を算出し、特徴量がそれぞれ閾値を超えるごとにユーザーの没入度を加点する。また、推定部61は、複数の特徴量すべてが閾値を超えた場合に没入度を加点してもよい。さらに、推定部61は、コンテンツにおけるイベントの発生から一定時間におけるユーザーの動作の回数が閾値を超えるごとにユーザーの没入度を加点してもよい。
(選択部)
選択部62は、選択機能を実行する。具体的には、選択部62は、推定部61によるユーザーのコンテンツに対する没入度の推定結果と、生体情報取得部4が取得した生体情報と、コンテンツ提供部2が提供しているコンテンツの種別とをキーとして、刺激出力部5が出力すべき刺激を決定する。
選択部62は、選択機能を実行する。具体的には、選択部62は、推定部61によるユーザーのコンテンツに対する没入度の推定結果と、生体情報取得部4が取得した生体情報と、コンテンツ提供部2が提供しているコンテンツの種別とをキーとして、刺激出力部5が出力すべき刺激を決定する。
図3に示すように、ユーザーの環境適応度(つまりストレス)Mは、没入度Eと共に、コンテンツの進行及び刺激出力部5から出力される刺激O1−O7によって変化する。図3中、P1は没入度が低い状態、P2は没入度が中程度の状態、P3は没入度が高い状態である。また、図3中、P4は無気力な状態、P5はリラックスした快適な状態、P6はストレスが高く疲れる状態である。なお、図3の一点鎖線は刺激を出力しなかった場合の没入度の変化を示している。
選択部62は、ユーザーのストレスが過大とならずに没入度を高められる刺激を選択する。また、選択部62は、没入度を上げるための刺激によってユーザーのストレスが過度となった場合に、没入度を維持したまま、ストレスを低減できる刺激を選択する。
選択部62は、図4A,4Bに示すように、現在提供されているコンテンツと、没入度と、生体情報との組み合わせに紐付けられたた第1刺激(つまり音)、第2刺激(つまり振動)、第3刺激(つまり匂い)及び第4刺激(つまり光)の組み合わせのテーブルを有する。
例えば、現在のコンテンツの種別が「エキサイティング」であり、没入度及びストレスの双方が低い場合(つまりユーザーが退屈と感じている状態)では、選択部62は、図4Aの(1)の刺激の組み合わせを選択し、刺激出力部5に刺激出力を指示する。また例えば、現在のコンテンツの種別が「リラックス」であり、没入度及びストレスの双方が低い場合では、図4Bの(1)の刺激の組み合わせを選択し、刺激出力部5に刺激出力を指示する。
上記テーブルには、各刺激の強弱及び有無に加えて、刺激の程度、持続時間、発生位置、変化パターン等も含まれている。変化パターンには、他の刺激との同調(例えば音刺激のテンポに合わせて照明の点滅間隔を合わせる制御)が含まれる。
選択部62は、複数の刺激を出力する順番も指示する。例えば、図3に示すように、ユーザーの没入度を高める場合、選択部62は、刺激出力部5に対し、まず振動刺激O1を出力させ、次に、音刺激O2を出力させ、最後に光刺激O3を出力させる。また、ストレスを下げる場合、選択部62は、刺激出力部5に対し、まず振動刺激O4を出力させ、次に、音刺激O5を出力させ、その後、光刺激O6を出力させ、最後に匂い刺激O7を出力させる。なお、先に出力される刺激は、後の刺激と重複して出力されてもよいし、後の刺激の出力開始前又は出力中に停止されてもよい。
選択部62は、刺激の選択に際して、活動エネルギーQを考慮してもよい。つまり、選択部62は、没入度の推定結果と生体情報とコンテンツの種別と活動エネルギーQとに基づいて、刺激を選択してもよい。
処理部6は、推定又は取得した没入度、生体情報、及び活動エネルギーQを、処理部6にデータとして記録してもよい。また、処理部6は、推定又は取得した没入度、生体情報、及び活動エネルギーQを、図示しない表示部に出力してもよい。
処理部6は、没入度の推定及び刺激の出力指示を、一定時間ごとに繰り返し実行するように構成されてもよいし、コンテンツの進行に合わせて決められたタイミングで実行するように構成されてもよい。
<没入促進システムの処理>
以下、図5のフロー図を参照しつつ、没入促進システム1が実行する処理の一例について説明する。
以下、図5のフロー図を参照しつつ、没入促進システム1が実行する処理の一例について説明する。
本処理では、没入促進システム1は、最初に、コンテンツ提供部2によってコンテンツの提供を開始する(ステップS10)。次に、没入促進システム1は、処理部6の推定部61によってユーザーのコンテンツに対する没入度を推定する(ステップS20)。
没入度の推定後、没入促進システム1は、処理部6の選択部62によって刺激出力部5が出力する刺激を選択する(ステップS30)。刺激の選択後、没入促進システム1は、選択部62によって、選択した刺激を出力するように刺激出力部5に指示する(ステップS40)。
刺激の出力後、没入促進システム1は、コンテンツが終了しているか否か判定する(ステップS50)。コンテンツが終了している場合(S50:YES)、没入促進システム1は、処理を終了する。
一方、コンテンツが継続している場合(S50:NO)、没入促進システム1は、ステップS20に戻り、没入度の推定から刺激の出力までの処理を繰り返す。
[1−2.効果]
以上詳述した実施形態によれば、以下の効果が得られる。
(1a)推定したユーザーの没入度に合わせて、没入を促進するのに適した刺激をユーザーに提供できる。また、推定した没入度とユーザーのストレスとを組み合わせて刺激を選択することで、過剰な刺激によるユーザーのストレス上昇を抑えることができる。その結果、現在のコンテンツに対する没入度の高い状態にユーザーを誘導することができる。
以上詳述した実施形態によれば、以下の効果が得られる。
(1a)推定したユーザーの没入度に合わせて、没入を促進するのに適した刺激をユーザーに提供できる。また、推定した没入度とユーザーのストレスとを組み合わせて刺激を選択することで、過剰な刺激によるユーザーのストレス上昇を抑えることができる。その結果、現在のコンテンツに対する没入度の高い状態にユーザーを誘導することができる。
(1b)コンテンツの種別に基づいて刺激が選択されることで、興奮指向、リラックス指向等のコンテンツの種別及び目的に応じた刺激をユーザーに提供できる。そのため、コンテンツに合わせた適度の高い状態誘導が可能となる。
(1c)刺激出力部5が第1刺激から第4刺激を出力するように構成されることで、第1刺激から第4刺激の組み合わせを処理部6が選択することによって、より適度の高い状態誘導が可能となる。
(1d)状態取得部3が取得したユーザーの姿勢に基づいて没入度が推定されることで、没入度の推定精度を高めることができる。その結果、ユーザーの状態誘導の適度を高めることができる。
(1e)処理部6がユーザーの活動エネルギーを算出することで、活動エネルギーに基づいてユーザーの没入度を多元的に把握できる。その結果、ユーザーの状態誘導の適度を高めることができる。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
(2a)上記実施形態の没入促進システム1において、処理部6は、必ずしもコンテンツの種別に基づいて刺激を選択しなくてもよい。つまり、処理部6は、推定した没入度と生体情報とのみに基づいて刺激を選択してもよい。
(2b)上記実施形態の没入促進システム1において、刺激出力部5は、必ずしも第1刺激から第4刺激までの全ての刺激を出力可能でなくてもよい。つまり、刺激出力部5は、第1刺激から第4刺激のうち少なくとも1つの刺激を出力できればよい。
(2c)上記実施形態の没入促進システム1において、処理部6は、推定した没入度に基づいた刺激の選択と、生体情報に基づいた刺激の選択とを別々に実行してもよい。つまり、処理部6は、没入度を用いない刺激の選択と、生体情報を用いない刺激の選択とを組み合わせて実行してもよい。
(2d)上記実施形態の没入促進システム1において、状態取得部3の構成は一例である。例えば、状態取得部3は、必ずしもシート31を有しなくてもよい。つまり、ユーザーは必ずしも着座状態である必要はない。
また、状態取得部3は、ユーザーの姿勢以外の状態を取得してもよい。例えば、状態取得部3は、ユーザーの表情、生体情報、発言内容等を取得するように構成されてもよい。そのため、状態取得部3として、加速度センサ及びカメラ以外の機器(例えば、ユーザーの発言内容を取得するマイク)が用いられてもよい。処理部6は、ユーザーの姿勢以外の状態を用いて没入度を推定してもよい。
(2e)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
1…没入促進システム、2…コンテンツ提供部、3…状態取得部、
4…生体情報取得部、5…刺激出力部、6…処理部、31…シート、
32A,32B,32C…加速度センサ、33A,33B…カメラ、51…スピーカ、
52…バイブレータ、53…アロマシュータ、54…照明、61…推定部、
62…選択部。
4…生体情報取得部、5…刺激出力部、6…処理部、31…シート、
32A,32B,32C…加速度センサ、33A,33B…カメラ、51…スピーカ、
52…バイブレータ、53…アロマシュータ、54…照明、61…推定部、
62…選択部。
Claims (5)
- コンテンツが提供された空間におけるユーザーの状態を取得するように構成された状態取得部と、
前記ユーザーのストレスに関連する生体情報を取得するように構成された生体情報取得部と、
前記ユーザーに対する刺激を出力するように構成された刺激出力部と、
前記状態取得部が取得した前記ユーザーの状態に基づいて前記ユーザーの前記コンテンツに対する没入度を推定すると共に、前記没入度の推定結果と前記生体情報取得部が取得した前記生体情報とに基づいて前記刺激出力部が出力する前記刺激を選択するように構成された処理部と、
を備える、没入促進システム。 - 請求項1に記載の没入促進システムであって、
前記処理部は、前記没入度の推定結果と前記生体情報と前記コンテンツの種別とに基づいて、前記刺激出力部が出力する前記刺激を選択するように構成される、没入促進システム。 - 請求項1又は請求項2に記載の没入促進システムであって、
前記刺激出力部は、前記ユーザーの聴覚に対する第1刺激と、前記ユーザーの触覚に対する第2刺激と、前記ユーザーの嗅覚に対する第3刺激と、前記ユーザーの視覚に対する第4刺激とを出力するように構成される、没入促進システム。 - 請求項1から請求項3のいずれか1項に記載の没入促進システムであって、
前記状態取得部は、前記ユーザーの状態として、前記ユーザーの姿勢を取得するように構成され、
前記処理部は、前記状態取得部が取得した前記ユーザーの姿勢に基づいて前記ユーザーの前記コンテンツに対する前記没入度を推定するように構成される、没入促進システム。 - 請求項4に記載の没入促進システムであって、
前記処理部は、前記状態取得部が取得した前記ユーザーの姿勢から前記ユーザーの活動エネルギーを算出するように構成される、没入促進システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239436A JP2021108037A (ja) | 2019-12-27 | 2019-12-27 | 没入促進システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239436A JP2021108037A (ja) | 2019-12-27 | 2019-12-27 | 没入促進システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021108037A true JP2021108037A (ja) | 2021-07-29 |
Family
ID=76967945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239436A Pending JP2021108037A (ja) | 2019-12-27 | 2019-12-27 | 没入促進システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021108037A (ja) |
-
2019
- 2019-12-27 JP JP2019239436A patent/JP2021108037A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11445971B2 (en) | Brainwave actuated apparatus | |
JP6032894B2 (ja) | シミュレーション、指向性キューイング、及び動揺と関係のある病気の緩和のための前庭電気刺激システム及び使用方法 | |
EP2705435B1 (en) | Massive simultaneous remote digital presence world | |
US11599198B2 (en) | Motion sickness reduction, directional indication, and neural rehabilitation device | |
CN102907008A (zh) | 用于颈部的触觉通信装置 | |
JPH09120464A (ja) | リハビリテーション支援装置 | |
JPH10153946A (ja) | 感覚情報提示装置 | |
JP2010127779A (ja) | 情報提供装置、情報提供方法およびプログラム | |
JP7160669B2 (ja) | プログラム、情報処理装置、および方法 | |
US10553030B2 (en) | Method and apparatus for improving mixed reality situational awareness | |
JP2021108037A (ja) | 没入促進システム | |
KR20220014254A (ko) | 버스와 같은 차량에서 여행 가상현실 컨텐츠를 제공하는 방법 및 시스템 | |
TW202223596A (zh) | 減少虛擬實境之動暈症的方法與頭戴式減暈裝置 | |
JP7247784B2 (ja) | 興味推定システム | |
JP2006047478A (ja) | バーチャルリアリティ演出装置、バーチャルリアリティ演出制御装置及びバーチャルリアリティ演出制御プログラム | |
JP7095593B2 (ja) | 興味推定システム | |
JP2020107220A (ja) | 没入促進システム | |
KR20190075359A (ko) | 체험장치 | |
JP7189434B2 (ja) | 空間制御システム | |
JP7298432B2 (ja) | 観光疑似体験システム | |
Krupke et al. | Evaluation of control methods in a supernatural zero-gravity flight simulator | |
JP2020103782A (ja) | 空間提供システム | |
KR102266596B1 (ko) | 3축 시뮬레이터 기반의 헬스케어 사이클링 시스템 | |
US12067170B2 (en) | Motion sickness reduction, directional indication, and neural rehabilitation device | |
CN117531192B (zh) | 基于Micro-LED显示屏的虚拟现实设备交互控制方法、装置及系统 |