JP2018072950A - Simulation device and simulation system - Google Patents
Simulation device and simulation system Download PDFInfo
- Publication number
- JP2018072950A JP2018072950A JP2016208968A JP2016208968A JP2018072950A JP 2018072950 A JP2018072950 A JP 2018072950A JP 2016208968 A JP2016208968 A JP 2016208968A JP 2016208968 A JP2016208968 A JP 2016208968A JP 2018072950 A JP2018072950 A JP 2018072950A
- Authority
- JP
- Japan
- Prior art keywords
- user
- video
- processing unit
- heart rate
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本件は、シミュレーション装置及びシミュレーションシステムに関する。 This case relates to a simulation apparatus and a simulation system.
コンピュータゲームやビデオソフトによりモニタに映し出されたシーン(以下、映像という)と連動して、利用者(以下、ユーザという)に対して当該映像に対応した所定の刺激を与える体感発生システムが知られている(例えば特許文献1参照)。 A bodily sensation generating system that gives a predetermined stimulus corresponding to a video to a user (hereinafter referred to as a user) in conjunction with a scene (hereinafter referred to as a video) projected on a monitor by a computer game or video software is known. (For example, refer to Patent Document 1).
しかしながら、ユーザが感じ取る感性の違いにより、ユーザによっては所定の刺激を弱く感じる者もいれば、逆に、強く感じる者もいる。すなわち、ユーザに対して所定の刺激を与えても、その刺激と映像に応じてユーザが感じる臨場感にはばらつきがあるという問題がある。 However, depending on the sensibility that the user feels, some users feel the predetermined stimulus weak, and conversely, some feel strong. That is, even if a predetermined stimulus is given to the user, there is a problem that the sense of reality that the user feels varies depending on the stimulus and the video.
そこで、1つの側面では、ユーザが感じる臨場感を均質化できるシミュレーション装置及びシミュレーションシステムを提供することを目的とする。 Therefore, an object of one aspect is to provide a simulation apparatus and a simulation system that can homogenize the realistic sensation felt by a user.
1つの実施態様では、シミュレーション装置は、映像を視聴するユーザの生体データを受け付け、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する、処理を実行する処理部を有するシミュレーション装置である。 In one embodiment, the simulation apparatus receives biometric data of a user who views a video, estimates the user's sensitivity to the video based on the biometric data, and the user is seated based on the sensitivity. It is a simulation apparatus which has a process part which controls operation | movement of a seating part and performs a process.
また、1つの実施態様では、シミュレーションシステムは、映像を視聴するユーザの生体データを測定する測定機器を含む没入型のHMDと、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、推定した前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する制御装置と、を有するシミュレーションシステムである。 In one embodiment, the simulation system estimates an sensibility of the user with respect to the video based on an immersive HMD including a measurement device that measures biological data of the user viewing the video and the biometric data. And a control device that controls the operation of the seating portion on which the user is seated based on the estimated sensitivity.
ユーザが感じる臨場感を均質化することができる。 The sense of reality that the user feels can be homogenized.
以下、本件を実施するための形態について図面を参照して説明する。 Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.
(第1実施形態)
図1はシミュレーションシステムSの一例である。図2はHead Mounted Display(HMD)100の一例である。シミュレーションシステムSはHMD100とユーザ10が着座する着座部200の動作を制御するシミュレーション装置(以下、制御装置という)300とを備えている。着座部200の座面210と制御装置300とはリンク機構20を介して接続されている。したがって、制御装置300がHMD100に表示される映像に応じてリンク機構20を駆動させると、リンク機構20と接続された座面210を含む着座部200は、前後、左右、上下に揺動したり、振動したりする。これにより、ユーザ10には所定の刺激が与えられる。
(First embodiment)
FIG. 1 shows an example of a simulation system S. FIG. 2 is an example of a head mounted display (HMD) 100. The simulation system S includes a HMD 100 and a simulation device (hereinafter referred to as a control device) 300 that controls the operation of the
HMD100はユーザ10の頭部に装着される。HMD100は、図2に示すように、ディスプレイ100Aとスピーカ100Bを備えている。ディスプレイ100Aは映像を表示し、スピーカ100Bは音声を出力する。また、HMD100は両眼を完全に覆う没入型である。このため、ディスプレイ100Aの映像から得られる臨場感は単眼型や透過型に比べて高くなる。
The HMD 100 is attached to the head of the
尚、詳細は後述するが、HMD200は不図示の心拍センサや無線通信部を備えている。心拍センサはユーザ10の心拍数を測定し、無線通信部は心拍センサが測定した心拍数を制御装置300に向けて無線により送信する。無線としては例えば電波や赤外線などがある。制御装置300は心拍数に基づいてリンク機構20の駆動強度を調整しつつ、着座部200を動作させる。
Although details will be described later, the HMD 200 includes a heart rate sensor and a wireless communication unit (not shown). The heart rate sensor measures the heart rate of the
図3はHMD100と制御装置300のハードウェア構成の一例である。
FIG. 3 shows an example of the hardware configuration of the HMD 100 and the
まず、HMD100について説明する。HMD100はディスプレイ100A、スピーカ100B、心拍センサ100Cを備えている。また、HMD100はCentral Processing Unit(CPU)100D、Random Access Memory(RAM)100E、Read Only Memory(ROM)100F、及びRadio Frequency(RF)回路100Gを含んでいる。RF回路100Gにはアンテナ100G´が接続されている。RF回路100Gに代えて通信機能を実現するCPUが利用されてもよい。
First, the HMD 100 will be described. The HMD 100 includes a
ディスプレイ100AからRF回路100Gまでは、内部バス100Hによって互いに接続されている。少なくともCPU100DとRAM100Eとが協働することによってコンピュータが実現される。上述したRAM100Eには、ROM100Fに記憶されたプログラムがCPU100Dによって格納される。格納されたプログラムをCPU100Dが実行することにより、後述するHMD100における各種の機能が実現され、また、各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
The
次に、制御装置300について説明する。制御装置300はCPU300A、RAM300B、ROM300C、RF回路300D、及びアクチュエータ300Eを含んでいる。RF回路300Dにはアンテナ300D´が接続されている。RF回路300Dに代えて通信機能を実現するCPUが利用されてもよい。一方、アクチュエータ300Eにはリンク機構20が接続されている。
Next, the
CPU300Aからアクチュエータ300Eまでは、内部バス300Fによって互いに接続されている。少なくともCPU300AとRAM300Bとが協働することによってコンピュータが実現される。上述したRAM300Bには、ROM300Cに記憶されたプログラムがCPU300Aによって格納される。格納されたプログラムをCPU300Aが実行することにより、後述する制御装置300における各種の機能が実現され、また、各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
The
続いて、図4及び図5を参照して、HMD100と制御装置300の機能について説明する。
Next, functions of the HMD 100 and the
図4はHMD100と制御装置300の機能ブロック図の一例である。図5(a)は視聴データ記憶部110の一例である。図5(b)は体感データ記憶部310の一例である。図5(c)は刺激データ記憶部320の一例である。
FIG. 4 is an example of a functional block diagram of the
まず、HMD100について説明する。HMD100は視聴データ記憶部110、映像表示部120、音声出力部130、及び心拍数測定部140を含んでいる。尚、視聴データ記憶部110は例えば上述したROM100Fによって実現される。映像表示部120は例えば上述したディスプレイ100A、CPU100D、RAM100E、及びRF回路100Gによって実現される。音声出力部130は例えば上述したスピーカ100Bによって実現される。心拍数測定部140は例えば上述した心拍センサ100C及びRF回路100Gによって実現される。
First, the
視聴データ記憶部110は視聴データを記憶する。より詳しくは、図5(a)に示すように、視聴データ記憶部110はアトラクションに関する視聴データ(例えばジェットコースターなど)や安全教育に関する視聴データ(例えばドライブや建設現場など)を記憶する。尚、視聴データは映像表示部120に表示する映像データと、音声出力部130から出力する音声データを含んでいる。
The viewing
映像表示部120は映像を表示する。より詳しくは、ユーザ10がHMD100に対して所定の選択操作を行うと、映像表示部120は視聴データ記憶部110から選択操作に応じた視聴データを特定し、特定した視聴データに含まれる映像データに応じた映像を表示する。映像表示部120は映像が終了すると、制御装置300に向けて停止信号を無線により送信する。停止信号は制御装置300の動作を停止させる信号である。停止信号は無線ネットワークNWを経由して制御装置300に到達する。
The
音声出力部130は音声を出力する。より詳しくは、ユーザ10が上述した所定の選択操作を行うと、音声出力部130は視聴データ記憶部110から選択操作に応じた視聴データを特定し、特定した視聴データに含まれる音声データを出力する。
The
心拍数測定部140はユーザ10の心拍数を測定する。より詳しくは、心拍数測定部140は映像表示部120が映像を表示し始めると、心拍数の測定を開始し、心拍数を制御装置300に向けて無線により定期的に送信する。心拍数は無線ネットワークNWを経由して制御装置300に到達する。尚、本実施形態では、心拍数を一例として説明するが、ユーザ10の生体データであれば心拍数に限定されず、例えば体温、血圧、筋電などが利用されてもよい。この場合、それぞれに対応するセンサが利用される。体温、血圧、筋電などは心拍数と組み合わせて利用してもよい。これにより、ユーザ10の感性の推定精度が向上する。例えば体温が上昇し、筋電が高いこわばりを表していれば、ユーザ10は刺激に敏感であると高い精度で推定される。
The heart
次に、制御装置300について説明する。制御装置300は体感データ記憶部310、刺激データ記憶部320、並びに、処理部としてのデータ処理部330及びリンク機構駆動部340を含んでいる。尚、体感データ記憶部310及び刺激データ記憶部320は例えば上述したROM300Cによって実現される。データ処理部330は例えば上述したCPU300A、RAM300B、及びRF回路300Dによって実現される。リンク機構駆動部340は例えば上述したアクチュエータ300Eによって実現される。
Next, the
体感データ記憶部310は体感データを記憶する。より詳しくは、図5(b)に示すように、体感データ記憶部310は心拍数と体感レベルとを関連付けた体感データを記憶する。例えば心拍数「上昇」とユーザ10の体感レベル「敏感」が関連付けられている。すなわち、映像及び音声によりユーザ10にわずかな刺激が与えられてもユーザ10の鼓動が早くなれば、心拍数が上昇する。この場合、ユーザ10は刺激に対して敏感であると推定される。すなわち、恐怖心や興奮を感じやすいユーザ10であると推定される。
The sensation
刺激データ記憶部320は刺激データを記憶する。より詳しくは、図5(c)に示すように、刺激データ記憶部320は体感レベルと刺激を関連付けた刺激データを記憶する。刺激はユーザ10に与える刺激の強度を表わしている。例えば、体感レベル「敏感」のユーザ10に対して強度「中」の刺激が与えられると、ユーザ10にとっては刺激を強く感じる可能性が高いため、体感レベル「敏感」のユーザ10には強度「弱」の刺激が与えられる。これにより、体感レベル「普通」のユーザ10に対して強度「中」の刺激が与えられた場合と、同じ程度の臨場感を提供することができる。
The stimulus
データ処理部330はHMD100から送信された心拍数や停止信号を受け付ける。データ処理部330は心拍数を受け付けると、心拍変動を心拍数の絶対値と心拍数の差分の両方から解析する。例えば、データ処理部330は心拍数の差分から心拍数の変化率を算出し、予め設定された閾値変化率(例えば100%)と比較する。データ処理部330は算出した変化率が閾値変化率より大きければ、心拍数が上昇したと判断する。逆に、算出した変化率が閾値変化率より小さければ、心拍数が低下したと判断する。データ処理部330は心拍数を解析し終えると、体感データ記憶部310にアクセスし、解析結果に応じた体感レベルを推定する。データ処理部330は体感レベルを推定すると、推定した体感レベルをリンク機構駆動部340に出力する。
The
リンク機構駆動部340はHMD100に表示される映像に応じてリンク機構20を駆動する。より詳しくは、リンク機構駆動部340はデータ処理部330から出力された体感レベルを受け付けると、刺激データ記憶部320にアクセスし、体感レベルに応じた刺激の強度を取得し、自身に設定する。これにより、リンク機構駆動部340は映像と自身に設定した強度に応じてリンク機構20を駆動する。
The link
続いて、図6及び図7を参照して、HMD100と制御装置300の動作について説明する。
図6はHMD100の動作の一例を示すフローチャートである。図7は制御装置300の動作の一例を示すフローチャートである。
Next, operations of the
FIG. 6 is a flowchart showing an example of the operation of the
まず、図6に示すように、HMD100の映像表示部120は映像を表示する(ステップS101)。より詳しくは、ユーザ10からHMD100に対して所定の選択操作が行われると、映像表示部120は選択操作に応じた視聴データを特定し、特定した視聴データに含まれる映像データに応じた映像を表示する。例えば、ユーザ10がジェットコースターの視聴データを選択する選択操作を行った場合、映像表示部120はジェットコースターが動き始める前の映像を表示する。
First, as shown in FIG. 6, the
ステップS101の処理が完了すると、次いで、心拍数測定部140はユーザ10の心拍数を測定する(ステップS102)。心拍数測定部140は心拍数と併せて波形を測定して利用してもよい。上述したように、ジェットコースターが動き始める前の映像が映像表示部120に表示されている場合、ユーザ10の心拍数は安定していると想定される。
When the process of step S101 is completed, the heart
ステップS102の処理が完了すると、次いで、映像表示部120は映像を更新する(ステップS103)。例えば、映像表示部120はジェットコースターが動き始める前の映像からジェットコースターが動き出して上昇する映像に更新する。これにより、ユーザ10によっては安定した心拍数を維持する者もいれば、心拍数が上昇する者もいる。逆に、ユーザ10によってはリラックスして心拍数が低下する者もいる。
When the process of step S102 is completed, the
ステップS103の処理が完了すると、次いで、心拍数測定部140は心拍数を制御装置300に向けて送信し(ステップS104)、映像表示部120は映像が終了したか否かを判断する(ステップS105)。映像が終了していない場合(ステップS105:NO)、ステップS103及びS104の処理が繰り返される。したがって、映像が終了するまで定期的に映像が更新され、また、心拍数が送信される。一方、映像が終了した場合(ステップS105:YES)、映像表示部120は制御装置300に向けて停止信号を送信する(ステップS106)。詳細は後述するが、制御装置300は停止信号を受信すると、動作を停止する。
When the process of step S103 is completed, the heart
次に、図7に示すように、制御装置300のデータ処理部330は心拍数を受け付け(ステップS201)、心拍数を解析する(ステップS202)。ステップS202の処理が完了すると、次いで、データ処理部330は解析結果に基づいて体感レベルを推定する(ステップS203)。例えば、データ処理部330は解析結果に基づいて心拍数が上昇したと判断すると、体感データ記憶部310にアクセスして、体感レベルが敏感であると推定する。逆に、データ処理部330は解析結果に基づいて心拍数が低下したと判断すると、体感データ記憶部310にアクセスして、体感レベルが鈍感であると推定する。
Next, as shown in FIG. 7, the
ステップS203の処理が完了すると、次いで、リンク機構駆動部340はデータ処理部330が推定した体感レベルに基づいて刺激を設定する(ステップS204)。より詳しくは、リンク機構駆動部340は刺激データ記憶部320にアクセスし、データ処理部330が推定した体感レベルに応じた刺激を特定し、特定した刺激を自身に設定する。例えば、体感レベルが敏感であれば、リンク機構駆動部340は刺激の強度「弱」を設定する。逆に、体感レベルが鈍感であれば、リンク機構駆動部340は刺激の強度「強」を設定する。
When the process of step S203 is completed, the link
ステップS204の処理が完了すると、リンク機構駆動部340はリンク機構20を介して着座部200の動作を変更する(ステップS205)。例えば、体感レベルが敏感であるユーザ10であれば、リンク機構駆動部340は着座部200の動作を弱くする。これにより、体感レベルが敏感であるユーザ10にとってわずかな刺激であっても、体感レベルが普通であるユーザ10が感じる体感と同じ程度の体感になる。
When the process of step S204 is completed, the link
ステップS205の処理が完了すると、次いで、データ処理部330は停止信号を受信したか否かを判断する(ステップS206)。データ処理部330は停止信号を受信していない場合(ステップS206:NO)、ステップS201からS205までの処理が繰り返される。したがって、データ処理部330が心拍数を受け付ける度にデータ処理部330は心拍数を解析し、解析結果に基づいて体感レベルを推定する。そして、リンク機構駆動部340はデータ処理部330が推定した体感レベルに基づいて刺激の強度を設定し、設定した強度に基づいて着座部200の動作を変更する。一方、データ処理部330は停止信号を受信した場合(ステップS206:YES)、データ処理部330は処理を終了する。これにより、制御装置300は動作を停止し、着座部200は静止する。
When the process of step S205 is completed, the
以上、第1実施形態によれば、制御装置300はデータ処理部330とリンク機構駆動部340を備えている。データ処理部330は映像を視聴するユーザ10の生体データを受け付け、受け付けた生体データに基づいて、映像に対するユーザ10の体感レベルを推定する。また、リンク機構駆動部340はデータ処理部330が推定した体感レベルに基づいて、ユーザ10が着座する着座部200の動作を制御する。これにより、ユーザが感じる臨場感を均質化することができる。
As described above, according to the first embodiment, the
このように、ユーザ10の体感レベルは個々に異なるが、HMD100の映像と心拍数の解析と制御装置300による着座部200の制御を連動させることにより高い臨場感が再現される。特に、第1実施形態では没入型のHMD100を採用しているため、モニタやスクリーンに表示される映像をユーザ10が視聴する場合に比べて、Virtual Realty(VR:仮想現実)映像に対する高い没入感が得られる。
As described above, although the
(第2実施形態)
続いて、図8を参照して、本件の第2実施形態について説明する。
図8は制御装置300の動作の一部を示すフローチャートの一例である。図8に示すように、ステップS203の処理において、データ処理部330が体感レベルを推定すると、データ処理部330は体感レベルが敏感であるか否かを判断する(ステップS301)。そして、体感レベルが敏感である場合(ステップS301:YES)、データ処理部330は映像を変更する変更信号をHMD100に向けて送信する(ステップS302)。
(Second Embodiment)
Next, a second embodiment of the present case will be described with reference to FIG.
FIG. 8 is an example of a flowchart showing a part of the operation of the
HMD100の映像表示部120は変更信号を受け付けると、映像を変更する。例えば映像表示部120は変更信号を受け付けると、映像をスキップしたり、差し替えたりする。すなわち、映像によりユーザ10に与えられる刺激が強い場合、体感レベルが敏感であるユーザ10にとっては刺激が強すぎる場合がある。したがって、このような場合には映像を変更することによりユーザ10の心拍数の上昇を抑えることができる。ステップS302の処理が完了すると、データ処理部330はステップS206の処理を実行する。尚、体感レベルが敏感でない場合(ステップS301:NO)、リンク機構駆動部340はステップS204及びS205の処理を実行する。このように、第2実施形態によれば、ユーザが感じる臨場感を均質化しつつ、体感レベルに応じてユーザ10の心拍数の上昇を抑制することができる。
When the
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述した第1実施形態及び第2実施形態では、HMD100に心拍センサ100Cを内蔵させたが、心拍センサ100C又は心拍計はHMD100と別体であってもよい。また、心拍センサ100C又は心拍計がHMD100に着脱可能であってもよい。
The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible. For example, in the first embodiment and the second embodiment described above, the heart rate sensor 100C is incorporated in the
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)映像を視聴するユーザの生体データを受け付け、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する、処理を実行する処理部を有するシミュレーション装置。
(付記2)前記処理部は、前記映像を没入型のHMDにより視聴するユーザの生体データを受け付ける、ことを特徴とする付記1に記載のシミュレーション装置。
(付記3)前記HMDは、前記生体データを測定する測定機器を含み、前記処理部は、前記測定機器から前記生体データを受け付ける、ことを特徴とする付記2に記載のシミュレーション装置。
(付記4)前記処理部は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記着座部の動作を変更する、ことを特徴とする付記1から3のいずれか1項に記載のシミュレーション装置。
(付記5)前記処理部は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記ユーザに視聴させる映像を変更する、付記1から4のいずれか1項に記載のシミュレーション装置。
(付記6)映像を視聴するユーザの生体データを測定する測定機器を含む没入型のHMDと、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、推定した前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する制御装置と、を有するシミュレーションシステム。
(付記7)前記制御装置は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記着座部の動作を変更する、ことを特徴とする付記6に記載のシミュレーションシステム。
(付記8)前記制御装置は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記ユーザに視聴させる映像を変更する、付記6又は7に記載のシミュレーションシステム。
In addition, the following additional notes are disclosed regarding the above description.
(Appendix 1) Accepting biometric data of a user viewing a video, estimating the user's sensitivity to the video based on the biometric data, and controlling the operation of a seating portion on which the user is seated based on the sensitivity A simulation apparatus having a processing unit for executing processing.
(Additional remark 2) The said processing part receives the biometric data of the user who views the said image | video by immersive HMD, The simulation apparatus of Additional remark 1 characterized by the above-mentioned.
(Supplementary note 3) The simulation apparatus according to supplementary note 2, wherein the HMD includes a measurement device that measures the biological data, and the processing unit receives the biological data from the measurement device.
(Additional remark 4) The said process part compares the 1st change rate of the said biometric data with the 2nd preset change rate, and changes the operation | movement of the said seating part according to a comparison result. 4. The simulation apparatus according to any one of supplementary notes 1 to 3, which is a feature.
(Additional remark 5) The said process part compares the 1st change rate of the said biometric data with the preset 2nd change rate, and changes the image | video which the said user views according to a comparison result, Additional remarks The simulation apparatus according to any one of 1 to 4.
(Supplementary Note 6) Based on the immersive HMD including a measuring device that measures the biometric data of the user viewing the video and the biometric data, the user's sensitivity to the video is estimated, and based on the estimated sensitivity And a control device for controlling the operation of the seating portion on which the user is seated.
(Additional remark 7) The said control apparatus compares the 1st change rate of the said biometric data with the 2nd change rate set beforehand, and changes the operation | movement of the said seating part according to a comparison result. The simulation system according to appendix 6, which is characterized.
(Additional remark 8) The said control apparatus compares the 1st change rate of the said biometric data with the 2nd predetermined change rate, and changes the image | video which the said user views according to a comparison result, Additional remarks 8. The simulation system according to 6 or 7.
S シミュレーションシステム
100 HMD
110 視聴データ記憶部
120 映像表示部
130 音声出力部
140 心拍数測定部
200 着座部
300 制御装置
310 体感データ記憶部
320 刺激データ記憶部
330 データ処理部
340 リンク機構駆動部
DESCRIPTION OF
Claims (6)
前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、
前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する、
処理を実行する処理部を有するシミュレーション装置。 Accept biometric data of users who watch videos,
Based on the biometric data, estimate the user's sensitivity to the video,
Based on the sensibility, control the operation of the seating portion on which the user is seated,
A simulation apparatus having a processing unit for executing processing.
ことを特徴とする請求項1に記載のシミュレーション装置。 The processing unit receives biometric data of a user who views the video with an immersive HMD.
The simulation apparatus according to claim 1.
前記処理部は、前記測定機器から前記生体データを受け付ける、
ことを特徴とする請求項2に記載のシミュレーション装置。 The HMD includes a measuring device that measures the biological data,
The processing unit receives the biological data from the measuring device.
The simulation apparatus according to claim 2.
ことを特徴とする請求項1から3のいずれか1項に記載のシミュレーション装置。 The processing unit compares a first change rate of the biological data with a preset second change rate, and changes the operation of the seating unit according to a comparison result.
The simulation apparatus according to any one of claims 1 to 3, wherein
請求項1から4のいずれか1項に記載のシミュレーション装置。 The processing unit compares a first change rate of the biological data with a preset second change rate, and changes a video to be viewed by the user according to a comparison result.
The simulation apparatus according to any one of claims 1 to 4.
前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、推定した前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する制御装置と、
を有するシミュレーションシステム。 An immersive HMD including a measuring device for measuring biometric data of a user viewing the video;
A control device that estimates the sensibility of the user with respect to the video based on the biometric data, and controls the operation of a seating unit on which the user is seated based on the estimated sensibility;
A simulation system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208968A JP2018072950A (en) | 2016-10-25 | 2016-10-25 | Simulation device and simulation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208968A JP2018072950A (en) | 2016-10-25 | 2016-10-25 | Simulation device and simulation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018072950A true JP2018072950A (en) | 2018-05-10 |
Family
ID=62112763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016208968A Pending JP2018072950A (en) | 2016-10-25 | 2016-10-25 | Simulation device and simulation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018072950A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021018260A (en) * | 2019-07-17 | 2021-02-15 | 富士通株式会社 | Display control device, and display control method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08171547A (en) * | 1994-12-16 | 1996-07-02 | Tokyo Gas Co Ltd | Virtual reality simulating device |
JP2000339490A (en) * | 1999-05-28 | 2000-12-08 | Mitsubishi Electric Corp | Vr sickness reducing method |
JP2002239213A (en) * | 2001-02-22 | 2002-08-27 | Akihiko Uto | Cenesthesia generation system and method |
JP2013210643A (en) * | 2013-04-26 | 2013-10-10 | Sony Corp | Display device and display method |
JP2013250846A (en) * | 2012-06-01 | 2013-12-12 | Nikon Corp | Information input output device, and information input output program |
-
2016
- 2016-10-25 JP JP2016208968A patent/JP2018072950A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08171547A (en) * | 1994-12-16 | 1996-07-02 | Tokyo Gas Co Ltd | Virtual reality simulating device |
JP2000339490A (en) * | 1999-05-28 | 2000-12-08 | Mitsubishi Electric Corp | Vr sickness reducing method |
JP2002239213A (en) * | 2001-02-22 | 2002-08-27 | Akihiko Uto | Cenesthesia generation system and method |
JP2013250846A (en) * | 2012-06-01 | 2013-12-12 | Nikon Corp | Information input output device, and information input output program |
JP2013210643A (en) * | 2013-04-26 | 2013-10-10 | Sony Corp | Display device and display method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021018260A (en) * | 2019-07-17 | 2021-02-15 | 富士通株式会社 | Display control device, and display control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10814095B2 (en) | Apparatus, sound data generation method, and non-transitory computer readable storage medium | |
KR102427212B1 (en) | Information processing devices, information processing methods and programs | |
EP3253468B1 (en) | Motion sickness monitoring and application of supplemental sound to counteract sickness | |
US10824232B2 (en) | Sound outputting apparatus, electronic apparatus, and control method thereof | |
CN111936036A (en) | Guiding live entertainment using biometric sensor data to detect neurological state | |
EP3321773B1 (en) | Information processing device, display device, information processing method, and program | |
KR20210003718A (en) | Social interaction applications for detection of neurophysiological conditions | |
JP2003189219A (en) | Method and system for displaying digital picture sequence | |
KR101792715B1 (en) | Exercise management system simulating real environment | |
KR20180045278A (en) | Virtual Reality Recognition Rehabilitation System based on Bio Sensors | |
JP6939797B2 (en) | Information processing equipment, information processing methods, and programs | |
CN112867528A (en) | System and method for predicting and preventing motion sickness | |
KR20170114371A (en) | Apparatus, system and method for controlling virtual reality image and simulator | |
CN112506336A (en) | Head mounted display with haptic output | |
CN109984911B (en) | Massage equipment with virtual reality function and control method thereof | |
WO2018034113A1 (en) | Content providing system, content providing method and program for content providing system | |
KR20180130172A (en) | Mental care system by measuring electroencephalography and method for mental care using this | |
JP2020042369A (en) | Information processing apparatus, information processing method and recording medium | |
JP2018072950A (en) | Simulation device and simulation system | |
WO2018092486A1 (en) | Information processing device, method and program | |
KR102070300B1 (en) | Method, computer program and system for tuning hearing aid | |
Zijlstra | Using the HoloLens' Spatial Sound System to aid the Visually Impaired when Navigating Indoors | |
WO2020100583A1 (en) | Information processing device, information processing method, and recording medium | |
Mahalil et al. | Integration of a heart rate monitoring system in a virtual reality relaxation therapy for supporting an immersion level measuring technique | |
KR20200019486A (en) | Electronic apparatus, contorl method thereof and electronic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200514 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200609 |