JP2018072950A - Simulation device and simulation system - Google Patents

Simulation device and simulation system Download PDF

Info

Publication number
JP2018072950A
JP2018072950A JP2016208968A JP2016208968A JP2018072950A JP 2018072950 A JP2018072950 A JP 2018072950A JP 2016208968 A JP2016208968 A JP 2016208968A JP 2016208968 A JP2016208968 A JP 2016208968A JP 2018072950 A JP2018072950 A JP 2018072950A
Authority
JP
Japan
Prior art keywords
user
video
processing unit
heart rate
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016208968A
Other languages
Japanese (ja)
Inventor
石月 義克
Yoshikatsu Ishizuki
義克 石月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016208968A priority Critical patent/JP2018072950A/en
Publication of JP2018072950A publication Critical patent/JP2018072950A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a simulation device and a simulation system capable of equalizing feelings of presence which users have.SOLUTION: The simulation device has a processing unit which executes processing of: receiving biometric data of a user viewing a video; estimating his or her sensibility to the video on the basis of the biometric data; and controlling the operation of a seating part which he or she sits on, on the basis of his or her sensibility. The simulation system also has: an immersive HMD including a measurement instrument for measuring the biometric data of the user viewing the video; and a controller which estimates his or her sensibility to the video on the basis of the biometric data and controls the operation of the seating part which the user sits on, on the basis of his or her sensibility estimated.SELECTED DRAWING: Figure 1

Description

本件は、シミュレーション装置及びシミュレーションシステムに関する。   This case relates to a simulation apparatus and a simulation system.

コンピュータゲームやビデオソフトによりモニタに映し出されたシーン(以下、映像という)と連動して、利用者(以下、ユーザという)に対して当該映像に対応した所定の刺激を与える体感発生システムが知られている(例えば特許文献1参照)。   A bodily sensation generating system that gives a predetermined stimulus corresponding to a video to a user (hereinafter referred to as a user) in conjunction with a scene (hereinafter referred to as a video) projected on a monitor by a computer game or video software is known. (For example, refer to Patent Document 1).

特開2002−239213号公報JP 2002-239213 A

しかしながら、ユーザが感じ取る感性の違いにより、ユーザによっては所定の刺激を弱く感じる者もいれば、逆に、強く感じる者もいる。すなわち、ユーザに対して所定の刺激を与えても、その刺激と映像に応じてユーザが感じる臨場感にはばらつきがあるという問題がある。   However, depending on the sensibility that the user feels, some users feel the predetermined stimulus weak, and conversely, some feel strong. That is, even if a predetermined stimulus is given to the user, there is a problem that the sense of reality that the user feels varies depending on the stimulus and the video.

そこで、1つの側面では、ユーザが感じる臨場感を均質化できるシミュレーション装置及びシミュレーションシステムを提供することを目的とする。   Therefore, an object of one aspect is to provide a simulation apparatus and a simulation system that can homogenize the realistic sensation felt by a user.

1つの実施態様では、シミュレーション装置は、映像を視聴するユーザの生体データを受け付け、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する、処理を実行する処理部を有するシミュレーション装置である。   In one embodiment, the simulation apparatus receives biometric data of a user who views a video, estimates the user's sensitivity to the video based on the biometric data, and the user is seated based on the sensitivity. It is a simulation apparatus which has a process part which controls operation | movement of a seating part and performs a process.

また、1つの実施態様では、シミュレーションシステムは、映像を視聴するユーザの生体データを測定する測定機器を含む没入型のHMDと、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、推定した前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する制御装置と、を有するシミュレーションシステムである。   In one embodiment, the simulation system estimates an sensibility of the user with respect to the video based on an immersive HMD including a measurement device that measures biological data of the user viewing the video and the biometric data. And a control device that controls the operation of the seating portion on which the user is seated based on the estimated sensitivity.

ユーザが感じる臨場感を均質化することができる。   The sense of reality that the user feels can be homogenized.

図1はシミュレーションシステムの一例である。FIG. 1 is an example of a simulation system. 図2はHMDの一例である。FIG. 2 is an example of an HMD. 図3はHMDと制御装置のハードウェア構成の一例である。FIG. 3 shows an example of the hardware configuration of the HMD and the control device. 図4はHMDと制御装置の機能ブロック図の一例である。FIG. 4 is an example of a functional block diagram of the HMD and the control device. 図5(a)は視聴データ記憶部の一例である。図5(b)は体感データ記憶部の一例である。図5(c)は刺激データ記憶部の一例である。FIG. 5A is an example of a viewing data storage unit. FIG. 5B is an example of the sensation data storage unit. FIG. 5C shows an example of the stimulus data storage unit. 図6はHMDの動作の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the operation of the HMD. 図7は制御装置の動作の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the operation of the control device. 図8は制御装置の動作の一部を示すフローチャートの一例である。FIG. 8 is an example of a flowchart showing a part of the operation of the control device.

以下、本件を実施するための形態について図面を参照して説明する。   Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.

(第1実施形態)
図1はシミュレーションシステムSの一例である。図2はHead Mounted Display(HMD)100の一例である。シミュレーションシステムSはHMD100とユーザ10が着座する着座部200の動作を制御するシミュレーション装置(以下、制御装置という)300とを備えている。着座部200の座面210と制御装置300とはリンク機構20を介して接続されている。したがって、制御装置300がHMD100に表示される映像に応じてリンク機構20を駆動させると、リンク機構20と接続された座面210を含む着座部200は、前後、左右、上下に揺動したり、振動したりする。これにより、ユーザ10には所定の刺激が与えられる。
(First embodiment)
FIG. 1 shows an example of a simulation system S. FIG. 2 is an example of a head mounted display (HMD) 100. The simulation system S includes a HMD 100 and a simulation device (hereinafter referred to as a control device) 300 that controls the operation of the seating unit 200 on which the user 10 is seated. The seating surface 210 of the seating unit 200 and the control device 300 are connected via the link mechanism 20. Therefore, when the control device 300 drives the link mechanism 20 according to the image displayed on the HMD 100, the seating portion 200 including the seat surface 210 connected to the link mechanism 20 swings back and forth, left and right, and up and down. Or vibrate. Thereby, a predetermined stimulus is given to the user 10.

HMD100はユーザ10の頭部に装着される。HMD100は、図2に示すように、ディスプレイ100Aとスピーカ100Bを備えている。ディスプレイ100Aは映像を表示し、スピーカ100Bは音声を出力する。また、HMD100は両眼を完全に覆う没入型である。このため、ディスプレイ100Aの映像から得られる臨場感は単眼型や透過型に比べて高くなる。   The HMD 100 is attached to the head of the user 10. As shown in FIG. 2, the HMD 100 includes a display 100A and a speaker 100B. The display 100A displays an image, and the speaker 100B outputs sound. The HMD 100 is an immersive type that completely covers both eyes. For this reason, the realistic sensation obtained from the image of the display 100A is higher than that of the monocular type or the transmission type.

尚、詳細は後述するが、HMD200は不図示の心拍センサや無線通信部を備えている。心拍センサはユーザ10の心拍数を測定し、無線通信部は心拍センサが測定した心拍数を制御装置300に向けて無線により送信する。無線としては例えば電波や赤外線などがある。制御装置300は心拍数に基づいてリンク機構20の駆動強度を調整しつつ、着座部200を動作させる。   Although details will be described later, the HMD 200 includes a heart rate sensor and a wireless communication unit (not shown). The heart rate sensor measures the heart rate of the user 10, and the wireless communication unit wirelessly transmits the heart rate measured by the heart rate sensor to the control device 300. Examples of wireless include radio waves and infrared rays. The control device 300 operates the seating unit 200 while adjusting the driving strength of the link mechanism 20 based on the heart rate.

図3はHMD100と制御装置300のハードウェア構成の一例である。   FIG. 3 shows an example of the hardware configuration of the HMD 100 and the control device 300.

まず、HMD100について説明する。HMD100はディスプレイ100A、スピーカ100B、心拍センサ100Cを備えている。また、HMD100はCentral Processing Unit(CPU)100D、Random Access Memory(RAM)100E、Read Only Memory(ROM)100F、及びRadio Frequency(RF)回路100Gを含んでいる。RF回路100Gにはアンテナ100G´が接続されている。RF回路100Gに代えて通信機能を実現するCPUが利用されてもよい。   First, the HMD 100 will be described. The HMD 100 includes a display 100A, a speaker 100B, and a heart rate sensor 100C. The HMD 100 includes a central processing unit (CPU) 100D, a random access memory (RAM) 100E, a read only memory (ROM) 100F, and a radio frequency (RF) circuit 100G. An antenna 100G ′ is connected to the RF circuit 100G. A CPU that realizes a communication function may be used instead of the RF circuit 100G.

ディスプレイ100AからRF回路100Gまでは、内部バス100Hによって互いに接続されている。少なくともCPU100DとRAM100Eとが協働することによってコンピュータが実現される。上述したRAM100Eには、ROM100Fに記憶されたプログラムがCPU100Dによって格納される。格納されたプログラムをCPU100Dが実行することにより、後述するHMD100における各種の機能が実現され、また、各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   The display 100A to the RF circuit 100G are connected to each other by an internal bus 100H. A computer is realized by cooperation of at least the CPU 100D and the RAM 100E. In the above-described RAM 100E, the program stored in the ROM 100F is stored by the CPU 100D. When the CPU 100D executes the stored program, various functions in the HMD 100 to be described later are realized, and various processes are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

次に、制御装置300について説明する。制御装置300はCPU300A、RAM300B、ROM300C、RF回路300D、及びアクチュエータ300Eを含んでいる。RF回路300Dにはアンテナ300D´が接続されている。RF回路300Dに代えて通信機能を実現するCPUが利用されてもよい。一方、アクチュエータ300Eにはリンク機構20が接続されている。   Next, the control device 300 will be described. The control device 300 includes a CPU 300A, a RAM 300B, a ROM 300C, an RF circuit 300D, and an actuator 300E. An antenna 300D ′ is connected to the RF circuit 300D. A CPU that realizes a communication function may be used instead of the RF circuit 300D. On the other hand, the link mechanism 20 is connected to the actuator 300E.

CPU300Aからアクチュエータ300Eまでは、内部バス300Fによって互いに接続されている。少なくともCPU300AとRAM300Bとが協働することによってコンピュータが実現される。上述したRAM300Bには、ROM300Cに記憶されたプログラムがCPU300Aによって格納される。格納されたプログラムをCPU300Aが実行することにより、後述する制御装置300における各種の機能が実現され、また、各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   The CPU 300A to the actuator 300E are connected to each other by an internal bus 300F. At least the CPU 300A and the RAM 300B cooperate to realize a computer. In the above-described RAM 300B, the program stored in the ROM 300C is stored by the CPU 300A. When the stored program is executed by the CPU 300A, various functions in the control device 300 described later are realized, and various processes are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

続いて、図4及び図5を参照して、HMD100と制御装置300の機能について説明する。   Next, functions of the HMD 100 and the control device 300 will be described with reference to FIGS. 4 and 5.

図4はHMD100と制御装置300の機能ブロック図の一例である。図5(a)は視聴データ記憶部110の一例である。図5(b)は体感データ記憶部310の一例である。図5(c)は刺激データ記憶部320の一例である。   FIG. 4 is an example of a functional block diagram of the HMD 100 and the control device 300. FIG. 5A is an example of the viewing data storage unit 110. FIG. 5B is an example of the sensation data storage unit 310. FIG. 5C is an example of the stimulus data storage unit 320.

まず、HMD100について説明する。HMD100は視聴データ記憶部110、映像表示部120、音声出力部130、及び心拍数測定部140を含んでいる。尚、視聴データ記憶部110は例えば上述したROM100Fによって実現される。映像表示部120は例えば上述したディスプレイ100A、CPU100D、RAM100E、及びRF回路100Gによって実現される。音声出力部130は例えば上述したスピーカ100Bによって実現される。心拍数測定部140は例えば上述した心拍センサ100C及びRF回路100Gによって実現される。   First, the HMD 100 will be described. The HMD 100 includes a viewing data storage unit 110, a video display unit 120, an audio output unit 130, and a heart rate measurement unit 140. Note that the viewing data storage unit 110 is realized by the ROM 100F described above, for example. The video display unit 120 is realized by, for example, the display 100A, the CPU 100D, the RAM 100E, and the RF circuit 100G described above. The audio output unit 130 is realized by the speaker 100B described above, for example. The heart rate measurement unit 140 is realized by, for example, the above-described heart rate sensor 100C and the RF circuit 100G.

視聴データ記憶部110は視聴データを記憶する。より詳しくは、図5(a)に示すように、視聴データ記憶部110はアトラクションに関する視聴データ(例えばジェットコースターなど)や安全教育に関する視聴データ(例えばドライブや建設現場など)を記憶する。尚、視聴データは映像表示部120に表示する映像データと、音声出力部130から出力する音声データを含んでいる。   The viewing data storage unit 110 stores viewing data. More specifically, as shown in FIG. 5A, the viewing data storage unit 110 stores viewing data (for example, a roller coaster) regarding attractions and viewing data (for example, a drive or a construction site) regarding safety education. The viewing data includes video data to be displayed on the video display unit 120 and audio data to be output from the audio output unit 130.

映像表示部120は映像を表示する。より詳しくは、ユーザ10がHMD100に対して所定の選択操作を行うと、映像表示部120は視聴データ記憶部110から選択操作に応じた視聴データを特定し、特定した視聴データに含まれる映像データに応じた映像を表示する。映像表示部120は映像が終了すると、制御装置300に向けて停止信号を無線により送信する。停止信号は制御装置300の動作を停止させる信号である。停止信号は無線ネットワークNWを経由して制御装置300に到達する。   The video display unit 120 displays video. More specifically, when the user 10 performs a predetermined selection operation on the HMD 100, the video display unit 120 specifies viewing data corresponding to the selection operation from the viewing data storage unit 110, and the video data included in the specified viewing data The video corresponding to the is displayed. When the video ends, the video display unit 120 wirelessly transmits a stop signal to the control device 300. The stop signal is a signal for stopping the operation of the control device 300. The stop signal reaches the control device 300 via the wireless network NW.

音声出力部130は音声を出力する。より詳しくは、ユーザ10が上述した所定の選択操作を行うと、音声出力部130は視聴データ記憶部110から選択操作に応じた視聴データを特定し、特定した視聴データに含まれる音声データを出力する。   The audio output unit 130 outputs audio. More specifically, when the user 10 performs the predetermined selection operation described above, the audio output unit 130 specifies the viewing data corresponding to the selection operation from the viewing data storage unit 110 and outputs the audio data included in the specified viewing data. To do.

心拍数測定部140はユーザ10の心拍数を測定する。より詳しくは、心拍数測定部140は映像表示部120が映像を表示し始めると、心拍数の測定を開始し、心拍数を制御装置300に向けて無線により定期的に送信する。心拍数は無線ネットワークNWを経由して制御装置300に到達する。尚、本実施形態では、心拍数を一例として説明するが、ユーザ10の生体データであれば心拍数に限定されず、例えば体温、血圧、筋電などが利用されてもよい。この場合、それぞれに対応するセンサが利用される。体温、血圧、筋電などは心拍数と組み合わせて利用してもよい。これにより、ユーザ10の感性の推定精度が向上する。例えば体温が上昇し、筋電が高いこわばりを表していれば、ユーザ10は刺激に敏感であると高い精度で推定される。   The heart rate measuring unit 140 measures the heart rate of the user 10. More specifically, when the video display unit 120 starts displaying an image, the heart rate measurement unit 140 starts measuring the heart rate and periodically transmits the heart rate to the control device 300 by radio. The heart rate reaches the control device 300 via the wireless network NW. In this embodiment, the heart rate is described as an example. However, the biological data of the user 10 is not limited to the heart rate, and for example, body temperature, blood pressure, myoelectricity, or the like may be used. In this case, a sensor corresponding to each is used. Body temperature, blood pressure, myoelectricity, etc. may be used in combination with heart rate. Thereby, the estimation precision of the sensitivity of the user 10 improves. For example, if the body temperature rises and the myoelectricity indicates high stiffness, it is estimated with high accuracy that the user 10 is sensitive to the stimulus.

次に、制御装置300について説明する。制御装置300は体感データ記憶部310、刺激データ記憶部320、並びに、処理部としてのデータ処理部330及びリンク機構駆動部340を含んでいる。尚、体感データ記憶部310及び刺激データ記憶部320は例えば上述したROM300Cによって実現される。データ処理部330は例えば上述したCPU300A、RAM300B、及びRF回路300Dによって実現される。リンク機構駆動部340は例えば上述したアクチュエータ300Eによって実現される。   Next, the control device 300 will be described. The control device 300 includes a sensation data storage unit 310, a stimulus data storage unit 320, a data processing unit 330 as a processing unit, and a link mechanism driving unit 340. Note that the sensation data storage unit 310 and the stimulus data storage unit 320 are realized by the ROM 300C described above, for example. The data processing unit 330 is realized by, for example, the CPU 300A, the RAM 300B, and the RF circuit 300D described above. The link mechanism driving unit 340 is realized by the actuator 300E described above, for example.

体感データ記憶部310は体感データを記憶する。より詳しくは、図5(b)に示すように、体感データ記憶部310は心拍数と体感レベルとを関連付けた体感データを記憶する。例えば心拍数「上昇」とユーザ10の体感レベル「敏感」が関連付けられている。すなわち、映像及び音声によりユーザ10にわずかな刺激が与えられてもユーザ10の鼓動が早くなれば、心拍数が上昇する。この場合、ユーザ10は刺激に対して敏感であると推定される。すなわち、恐怖心や興奮を感じやすいユーザ10であると推定される。   The sensation data storage unit 310 stores sensation data. More specifically, as shown in FIG. 5B, the sensation data storage unit 310 stores sensation data in which the heart rate and the sensation level are associated with each other. For example, the heart rate “rising” and the sensation level “sensitive” of the user 10 are associated with each other. That is, even if a slight stimulus is given to the user 10 by video and audio, if the user 10 beats quickly, the heart rate increases. In this case, it is estimated that the user 10 is sensitive to the stimulus. That is, it is estimated that the user 10 is likely to feel fear and excitement.

刺激データ記憶部320は刺激データを記憶する。より詳しくは、図5(c)に示すように、刺激データ記憶部320は体感レベルと刺激を関連付けた刺激データを記憶する。刺激はユーザ10に与える刺激の強度を表わしている。例えば、体感レベル「敏感」のユーザ10に対して強度「中」の刺激が与えられると、ユーザ10にとっては刺激を強く感じる可能性が高いため、体感レベル「敏感」のユーザ10には強度「弱」の刺激が与えられる。これにより、体感レベル「普通」のユーザ10に対して強度「中」の刺激が与えられた場合と、同じ程度の臨場感を提供することができる。   The stimulus data storage unit 320 stores stimulus data. More specifically, as shown in FIG. 5C, the stimulus data storage unit 320 stores stimulus data in which the sensation level is associated with the stimulus. The stimulus represents the intensity of the stimulus given to the user 10. For example, when a stimulus with intensity “medium” is given to the user 10 with the sensation level “sensitive”, there is a high possibility that the user 10 feels the stimulation strongly. A weak stimulus is given. As a result, it is possible to provide the same level of realism as when a stimulus of “medium” intensity is given to the user 10 with the “normal” experience level.

データ処理部330はHMD100から送信された心拍数や停止信号を受け付ける。データ処理部330は心拍数を受け付けると、心拍変動を心拍数の絶対値と心拍数の差分の両方から解析する。例えば、データ処理部330は心拍数の差分から心拍数の変化率を算出し、予め設定された閾値変化率(例えば100%)と比較する。データ処理部330は算出した変化率が閾値変化率より大きければ、心拍数が上昇したと判断する。逆に、算出した変化率が閾値変化率より小さければ、心拍数が低下したと判断する。データ処理部330は心拍数を解析し終えると、体感データ記憶部310にアクセスし、解析結果に応じた体感レベルを推定する。データ処理部330は体感レベルを推定すると、推定した体感レベルをリンク機構駆動部340に出力する。   The data processing unit 330 receives the heart rate and stop signal transmitted from the HMD 100. When receiving the heart rate, the data processing unit 330 analyzes the heart rate variability from both the absolute value of the heart rate and the difference between the heart rates. For example, the data processing unit 330 calculates the rate of change in heart rate from the difference in heart rate and compares it with a preset threshold rate of change (for example, 100%). If the calculated change rate is greater than the threshold change rate, the data processing unit 330 determines that the heart rate has increased. Conversely, if the calculated rate of change is smaller than the threshold rate of change, it is determined that the heart rate has decreased. When the data processing unit 330 finishes analyzing the heart rate, the data processing unit 330 accesses the sensation data storage unit 310 and estimates the sensation level according to the analysis result. When the data processing unit 330 estimates the sensation level, the data processing unit 330 outputs the estimated sensation level to the link mechanism driving unit 340.

リンク機構駆動部340はHMD100に表示される映像に応じてリンク機構20を駆動する。より詳しくは、リンク機構駆動部340はデータ処理部330から出力された体感レベルを受け付けると、刺激データ記憶部320にアクセスし、体感レベルに応じた刺激の強度を取得し、自身に設定する。これにより、リンク機構駆動部340は映像と自身に設定した強度に応じてリンク機構20を駆動する。   The link mechanism drive unit 340 drives the link mechanism 20 according to the video displayed on the HMD 100. More specifically, when the link mechanism driving unit 340 receives the sensation level output from the data processing unit 330, the link mechanism driving unit 340 accesses the stimulation data storage unit 320, acquires the intensity of stimulation according to the sensation level, and sets it. As a result, the link mechanism drive unit 340 drives the link mechanism 20 according to the image and the intensity set for itself.

続いて、図6及び図7を参照して、HMD100と制御装置300の動作について説明する。
図6はHMD100の動作の一例を示すフローチャートである。図7は制御装置300の動作の一例を示すフローチャートである。
Next, operations of the HMD 100 and the control device 300 will be described with reference to FIGS. 6 and 7.
FIG. 6 is a flowchart showing an example of the operation of the HMD 100. FIG. 7 is a flowchart showing an example of the operation of the control device 300.

まず、図6に示すように、HMD100の映像表示部120は映像を表示する(ステップS101)。より詳しくは、ユーザ10からHMD100に対して所定の選択操作が行われると、映像表示部120は選択操作に応じた視聴データを特定し、特定した視聴データに含まれる映像データに応じた映像を表示する。例えば、ユーザ10がジェットコースターの視聴データを選択する選択操作を行った場合、映像表示部120はジェットコースターが動き始める前の映像を表示する。   First, as shown in FIG. 6, the video display unit 120 of the HMD 100 displays a video (step S101). More specifically, when a predetermined selection operation is performed from the user 10 to the HMD 100, the video display unit 120 specifies viewing data corresponding to the selection operation, and displays a video corresponding to the video data included in the specified viewing data. indicate. For example, when the user 10 performs a selection operation for selecting viewing data of a roller coaster, the video display unit 120 displays a video before the roller coaster starts to move.

ステップS101の処理が完了すると、次いで、心拍数測定部140はユーザ10の心拍数を測定する(ステップS102)。心拍数測定部140は心拍数と併せて波形を測定して利用してもよい。上述したように、ジェットコースターが動き始める前の映像が映像表示部120に表示されている場合、ユーザ10の心拍数は安定していると想定される。   When the process of step S101 is completed, the heart rate measuring unit 140 then measures the heart rate of the user 10 (step S102). The heart rate measuring unit 140 may measure and use a waveform together with the heart rate. As described above, when the video before the roller coaster starts moving is displayed on the video display unit 120, it is assumed that the heart rate of the user 10 is stable.

ステップS102の処理が完了すると、次いで、映像表示部120は映像を更新する(ステップS103)。例えば、映像表示部120はジェットコースターが動き始める前の映像からジェットコースターが動き出して上昇する映像に更新する。これにより、ユーザ10によっては安定した心拍数を維持する者もいれば、心拍数が上昇する者もいる。逆に、ユーザ10によってはリラックスして心拍数が低下する者もいる。   When the process of step S102 is completed, the video display unit 120 then updates the video (step S103). For example, the image display unit 120 updates the image before the roller coaster starts moving to an image in which the roller coaster starts moving and rises. As a result, some users 10 maintain a stable heart rate and others have an increased heart rate. On the other hand, some users 10 are relaxed and their heart rate decreases.

ステップS103の処理が完了すると、次いで、心拍数測定部140は心拍数を制御装置300に向けて送信し(ステップS104)、映像表示部120は映像が終了したか否かを判断する(ステップS105)。映像が終了していない場合(ステップS105:NO)、ステップS103及びS104の処理が繰り返される。したがって、映像が終了するまで定期的に映像が更新され、また、心拍数が送信される。一方、映像が終了した場合(ステップS105:YES)、映像表示部120は制御装置300に向けて停止信号を送信する(ステップS106)。詳細は後述するが、制御装置300は停止信号を受信すると、動作を停止する。   When the process of step S103 is completed, the heart rate measuring unit 140 then transmits the heart rate to the control device 300 (step S104), and the video display unit 120 determines whether the video is finished (step S105). ). If the video has not ended (step S105: NO), the processes of steps S103 and S104 are repeated. Therefore, the video is periodically updated until the video ends, and the heart rate is transmitted. On the other hand, when the video is finished (step S105: YES), the video display unit 120 transmits a stop signal to the control device 300 (step S106). Although details will be described later, when the control device 300 receives the stop signal, the control device 300 stops its operation.

次に、図7に示すように、制御装置300のデータ処理部330は心拍数を受け付け(ステップS201)、心拍数を解析する(ステップS202)。ステップS202の処理が完了すると、次いで、データ処理部330は解析結果に基づいて体感レベルを推定する(ステップS203)。例えば、データ処理部330は解析結果に基づいて心拍数が上昇したと判断すると、体感データ記憶部310にアクセスして、体感レベルが敏感であると推定する。逆に、データ処理部330は解析結果に基づいて心拍数が低下したと判断すると、体感データ記憶部310にアクセスして、体感レベルが鈍感であると推定する。   Next, as shown in FIG. 7, the data processing unit 330 of the control device 300 receives the heart rate (step S201) and analyzes the heart rate (step S202). When the process of step S202 is completed, the data processing unit 330 then estimates the sensation level based on the analysis result (step S203). For example, when the data processing unit 330 determines that the heart rate has increased based on the analysis result, the data processing unit 330 accesses the sensation data storage unit 310 and estimates that the sensation level is sensitive. Conversely, when the data processing unit 330 determines that the heart rate has decreased based on the analysis result, the data processing unit 330 accesses the sensation data storage unit 310 and estimates that the sensation level is insensitive.

ステップS203の処理が完了すると、次いで、リンク機構駆動部340はデータ処理部330が推定した体感レベルに基づいて刺激を設定する(ステップS204)。より詳しくは、リンク機構駆動部340は刺激データ記憶部320にアクセスし、データ処理部330が推定した体感レベルに応じた刺激を特定し、特定した刺激を自身に設定する。例えば、体感レベルが敏感であれば、リンク機構駆動部340は刺激の強度「弱」を設定する。逆に、体感レベルが鈍感であれば、リンク機構駆動部340は刺激の強度「強」を設定する。   When the process of step S203 is completed, the link mechanism driving unit 340 then sets a stimulus based on the sensation level estimated by the data processing unit 330 (step S204). More specifically, the link mechanism driving unit 340 accesses the stimulus data storage unit 320, specifies a stimulus according to the sensation level estimated by the data processing unit 330, and sets the specified stimulus to itself. For example, if the sensation level is sensitive, the link mechanism driving unit 340 sets the stimulus intensity “weak”. On the contrary, if the sensation level is insensitive, the link mechanism drive unit 340 sets the stimulus intensity “strong”.

ステップS204の処理が完了すると、リンク機構駆動部340はリンク機構20を介して着座部200の動作を変更する(ステップS205)。例えば、体感レベルが敏感であるユーザ10であれば、リンク機構駆動部340は着座部200の動作を弱くする。これにより、体感レベルが敏感であるユーザ10にとってわずかな刺激であっても、体感レベルが普通であるユーザ10が感じる体感と同じ程度の体感になる。   When the process of step S204 is completed, the link mechanism driving unit 340 changes the operation of the seating unit 200 via the link mechanism 20 (step S205). For example, if the user 10 is sensitive, the link mechanism driving unit 340 weakens the operation of the seating unit 200. Thereby, even if it is a slight stimulus for the user 10 who is sensitive to the sensation level, the sensation is the same as the sensation felt by the user 10 who is normal.

ステップS205の処理が完了すると、次いで、データ処理部330は停止信号を受信したか否かを判断する(ステップS206)。データ処理部330は停止信号を受信していない場合(ステップS206:NO)、ステップS201からS205までの処理が繰り返される。したがって、データ処理部330が心拍数を受け付ける度にデータ処理部330は心拍数を解析し、解析結果に基づいて体感レベルを推定する。そして、リンク機構駆動部340はデータ処理部330が推定した体感レベルに基づいて刺激の強度を設定し、設定した強度に基づいて着座部200の動作を変更する。一方、データ処理部330は停止信号を受信した場合(ステップS206:YES)、データ処理部330は処理を終了する。これにより、制御装置300は動作を停止し、着座部200は静止する。   When the process of step S205 is completed, the data processing unit 330 then determines whether or not a stop signal has been received (step S206). If the data processing unit 330 has not received a stop signal (step S206: NO), the processing from step S201 to S205 is repeated. Therefore, every time the data processing unit 330 receives a heart rate, the data processing unit 330 analyzes the heart rate, and estimates a sensation level based on the analysis result. Then, the link mechanism driving unit 340 sets the intensity of stimulation based on the sensation level estimated by the data processing unit 330, and changes the operation of the seating unit 200 based on the set intensity. On the other hand, when the data processing unit 330 receives the stop signal (step S206: YES), the data processing unit 330 ends the processing. Thereby, the control apparatus 300 stops operation | movement and the seating part 200 stops.

以上、第1実施形態によれば、制御装置300はデータ処理部330とリンク機構駆動部340を備えている。データ処理部330は映像を視聴するユーザ10の生体データを受け付け、受け付けた生体データに基づいて、映像に対するユーザ10の体感レベルを推定する。また、リンク機構駆動部340はデータ処理部330が推定した体感レベルに基づいて、ユーザ10が着座する着座部200の動作を制御する。これにより、ユーザが感じる臨場感を均質化することができる。   As described above, according to the first embodiment, the control device 300 includes the data processing unit 330 and the link mechanism driving unit 340. The data processing unit 330 receives biometric data of the user 10 who views the video, and estimates the sensation level of the user 10 with respect to the video based on the received biometric data. Further, the link mechanism driving unit 340 controls the operation of the seating unit 200 on which the user 10 is seated based on the sensation level estimated by the data processing unit 330. Thereby, the realistic sensation felt by the user can be homogenized.

このように、ユーザ10の体感レベルは個々に異なるが、HMD100の映像と心拍数の解析と制御装置300による着座部200の制御を連動させることにより高い臨場感が再現される。特に、第1実施形態では没入型のHMD100を採用しているため、モニタやスクリーンに表示される映像をユーザ10が視聴する場合に比べて、Virtual Realty(VR:仮想現実)映像に対する高い没入感が得られる。   As described above, although the user 10 has a different sensation level, high realistic sensation is reproduced by linking the image of the HMD 100 and the analysis of the heart rate and the control of the seating unit 200 by the control device 300. In particular, since the immersive HMD 100 is employed in the first embodiment, a higher immersive feeling with respect to virtual reality (VR) video than when the user 10 watches video displayed on a monitor or a screen. Is obtained.

(第2実施形態)
続いて、図8を参照して、本件の第2実施形態について説明する。
図8は制御装置300の動作の一部を示すフローチャートの一例である。図8に示すように、ステップS203の処理において、データ処理部330が体感レベルを推定すると、データ処理部330は体感レベルが敏感であるか否かを判断する(ステップS301)。そして、体感レベルが敏感である場合(ステップS301:YES)、データ処理部330は映像を変更する変更信号をHMD100に向けて送信する(ステップS302)。
(Second Embodiment)
Next, a second embodiment of the present case will be described with reference to FIG.
FIG. 8 is an example of a flowchart showing a part of the operation of the control device 300. As shown in FIG. 8, in the process of step S203, when the data processing unit 330 estimates the sensation level, the data processing unit 330 determines whether or not the sensation level is sensitive (step S301). If the sensation level is sensitive (step S301: YES), the data processing unit 330 transmits a change signal for changing the video to the HMD 100 (step S302).

HMD100の映像表示部120は変更信号を受け付けると、映像を変更する。例えば映像表示部120は変更信号を受け付けると、映像をスキップしたり、差し替えたりする。すなわち、映像によりユーザ10に与えられる刺激が強い場合、体感レベルが敏感であるユーザ10にとっては刺激が強すぎる場合がある。したがって、このような場合には映像を変更することによりユーザ10の心拍数の上昇を抑えることができる。ステップS302の処理が完了すると、データ処理部330はステップS206の処理を実行する。尚、体感レベルが敏感でない場合(ステップS301:NO)、リンク機構駆動部340はステップS204及びS205の処理を実行する。このように、第2実施形態によれば、ユーザが感じる臨場感を均質化しつつ、体感レベルに応じてユーザ10の心拍数の上昇を抑制することができる。   When the video display unit 120 of the HMD 100 receives the change signal, the video display unit 120 changes the video. For example, when receiving the change signal, the video display unit 120 skips or replaces the video. That is, when the stimulus given to the user 10 by the video is strong, the stimulus may be too strong for the user 10 whose sensitivity level is sensitive. Therefore, in such a case, an increase in the heart rate of the user 10 can be suppressed by changing the video. When the process of step S302 is completed, the data processing unit 330 executes the process of step S206. If the sensation level is not sensitive (step S301: NO), the link mechanism driving unit 340 executes the processes of steps S204 and S205. As described above, according to the second embodiment, it is possible to suppress an increase in the heart rate of the user 10 according to the sensation level while homogenizing the realistic sensation felt by the user.

以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述した第1実施形態及び第2実施形態では、HMD100に心拍センサ100Cを内蔵させたが、心拍センサ100C又は心拍計はHMD100と別体であってもよい。また、心拍センサ100C又は心拍計がHMD100に着脱可能であってもよい。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible. For example, in the first embodiment and the second embodiment described above, the heart rate sensor 100C is incorporated in the HMD 100, but the heart rate sensor 100C or the heart rate monitor may be separate from the HMD 100. Further, the heart rate sensor 100C or the heart rate monitor may be detachable from the HMD 100.

なお、以上の説明に関して更に以下の付記を開示する。
(付記1)映像を視聴するユーザの生体データを受け付け、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する、処理を実行する処理部を有するシミュレーション装置。
(付記2)前記処理部は、前記映像を没入型のHMDにより視聴するユーザの生体データを受け付ける、ことを特徴とする付記1に記載のシミュレーション装置。
(付記3)前記HMDは、前記生体データを測定する測定機器を含み、前記処理部は、前記測定機器から前記生体データを受け付ける、ことを特徴とする付記2に記載のシミュレーション装置。
(付記4)前記処理部は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記着座部の動作を変更する、ことを特徴とする付記1から3のいずれか1項に記載のシミュレーション装置。
(付記5)前記処理部は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記ユーザに視聴させる映像を変更する、付記1から4のいずれか1項に記載のシミュレーション装置。
(付記6)映像を視聴するユーザの生体データを測定する測定機器を含む没入型のHMDと、前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、推定した前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する制御装置と、を有するシミュレーションシステム。
(付記7)前記制御装置は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記着座部の動作を変更する、ことを特徴とする付記6に記載のシミュレーションシステム。
(付記8)前記制御装置は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記ユーザに視聴させる映像を変更する、付記6又は7に記載のシミュレーションシステム。
In addition, the following additional notes are disclosed regarding the above description.
(Appendix 1) Accepting biometric data of a user viewing a video, estimating the user's sensitivity to the video based on the biometric data, and controlling the operation of a seating portion on which the user is seated based on the sensitivity A simulation apparatus having a processing unit for executing processing.
(Additional remark 2) The said processing part receives the biometric data of the user who views the said image | video by immersive HMD, The simulation apparatus of Additional remark 1 characterized by the above-mentioned.
(Supplementary note 3) The simulation apparatus according to supplementary note 2, wherein the HMD includes a measurement device that measures the biological data, and the processing unit receives the biological data from the measurement device.
(Additional remark 4) The said process part compares the 1st change rate of the said biometric data with the 2nd preset change rate, and changes the operation | movement of the said seating part according to a comparison result. 4. The simulation apparatus according to any one of supplementary notes 1 to 3, which is a feature.
(Additional remark 5) The said process part compares the 1st change rate of the said biometric data with the preset 2nd change rate, and changes the image | video which the said user views according to a comparison result, Additional remarks The simulation apparatus according to any one of 1 to 4.
(Supplementary Note 6) Based on the immersive HMD including a measuring device that measures the biometric data of the user viewing the video and the biometric data, the user's sensitivity to the video is estimated, and based on the estimated sensitivity And a control device for controlling the operation of the seating portion on which the user is seated.
(Additional remark 7) The said control apparatus compares the 1st change rate of the said biometric data with the 2nd change rate set beforehand, and changes the operation | movement of the said seating part according to a comparison result. The simulation system according to appendix 6, which is characterized.
(Additional remark 8) The said control apparatus compares the 1st change rate of the said biometric data with the 2nd predetermined change rate, and changes the image | video which the said user views according to a comparison result, Additional remarks 8. The simulation system according to 6 or 7.

S シミュレーションシステム
100 HMD
110 視聴データ記憶部
120 映像表示部
130 音声出力部
140 心拍数測定部
200 着座部
300 制御装置
310 体感データ記憶部
320 刺激データ記憶部
330 データ処理部
340 リンク機構駆動部
S simulation system 100 HMD
DESCRIPTION OF SYMBOLS 110 Viewing data memory | storage part 120 Image | video display part 130 Audio | voice output part 140 Heart rate measurement part 200 Seating part 300 Control apparatus 310 Sensory data memory | storage part 320 Stimulus data memory | storage part 330 Data processing part 340 Link mechanism drive part

Claims (6)

映像を視聴するユーザの生体データを受け付け、
前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、
前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する、
処理を実行する処理部を有するシミュレーション装置。
Accept biometric data of users who watch videos,
Based on the biometric data, estimate the user's sensitivity to the video,
Based on the sensibility, control the operation of the seating portion on which the user is seated,
A simulation apparatus having a processing unit for executing processing.
前記処理部は、前記映像を没入型のHMDにより視聴するユーザの生体データを受け付ける、
ことを特徴とする請求項1に記載のシミュレーション装置。
The processing unit receives biometric data of a user who views the video with an immersive HMD.
The simulation apparatus according to claim 1.
前記HMDは、前記生体データを測定する測定機器を含み、
前記処理部は、前記測定機器から前記生体データを受け付ける、
ことを特徴とする請求項2に記載のシミュレーション装置。
The HMD includes a measuring device that measures the biological data,
The processing unit receives the biological data from the measuring device.
The simulation apparatus according to claim 2.
前記処理部は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記着座部の動作を変更する、
ことを特徴とする請求項1から3のいずれか1項に記載のシミュレーション装置。
The processing unit compares a first change rate of the biological data with a preset second change rate, and changes the operation of the seating unit according to a comparison result.
The simulation apparatus according to any one of claims 1 to 3, wherein
前記処理部は、前記生体データの第1の変化率と予め設定された第2の変化率とを比較し、比較結果に応じて、前記ユーザに視聴させる映像を変更する、
請求項1から4のいずれか1項に記載のシミュレーション装置。
The processing unit compares a first change rate of the biological data with a preset second change rate, and changes a video to be viewed by the user according to a comparison result.
The simulation apparatus according to any one of claims 1 to 4.
映像を視聴するユーザの生体データを測定する測定機器を含む没入型のHMDと、
前記生体データに基づいて、前記映像に対する前記ユーザの感性を推定し、推定した前記感性に基づいて、前記ユーザが着座する着座部の動作を制御する制御装置と、
を有するシミュレーションシステム。
An immersive HMD including a measuring device for measuring biometric data of a user viewing the video;
A control device that estimates the sensibility of the user with respect to the video based on the biometric data, and controls the operation of a seating unit on which the user is seated based on the estimated sensibility;
A simulation system.
JP2016208968A 2016-10-25 2016-10-25 Simulation device and simulation system Pending JP2018072950A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016208968A JP2018072950A (en) 2016-10-25 2016-10-25 Simulation device and simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016208968A JP2018072950A (en) 2016-10-25 2016-10-25 Simulation device and simulation system

Publications (1)

Publication Number Publication Date
JP2018072950A true JP2018072950A (en) 2018-05-10

Family

ID=62112763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016208968A Pending JP2018072950A (en) 2016-10-25 2016-10-25 Simulation device and simulation system

Country Status (1)

Country Link
JP (1) JP2018072950A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018260A (en) * 2019-07-17 2021-02-15 富士通株式会社 Display control device, and display control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171547A (en) * 1994-12-16 1996-07-02 Tokyo Gas Co Ltd Virtual reality simulating device
JP2000339490A (en) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Vr sickness reducing method
JP2002239213A (en) * 2001-02-22 2002-08-27 Akihiko Uto Cenesthesia generation system and method
JP2013210643A (en) * 2013-04-26 2013-10-10 Sony Corp Display device and display method
JP2013250846A (en) * 2012-06-01 2013-12-12 Nikon Corp Information input output device, and information input output program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171547A (en) * 1994-12-16 1996-07-02 Tokyo Gas Co Ltd Virtual reality simulating device
JP2000339490A (en) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Vr sickness reducing method
JP2002239213A (en) * 2001-02-22 2002-08-27 Akihiko Uto Cenesthesia generation system and method
JP2013250846A (en) * 2012-06-01 2013-12-12 Nikon Corp Information input output device, and information input output program
JP2013210643A (en) * 2013-04-26 2013-10-10 Sony Corp Display device and display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018260A (en) * 2019-07-17 2021-02-15 富士通株式会社 Display control device, and display control method

Similar Documents

Publication Publication Date Title
US10814095B2 (en) Apparatus, sound data generation method, and non-transitory computer readable storage medium
KR102427212B1 (en) Information processing devices, information processing methods and programs
EP3253468B1 (en) Motion sickness monitoring and application of supplemental sound to counteract sickness
US10824232B2 (en) Sound outputting apparatus, electronic apparatus, and control method thereof
CN111936036A (en) Guiding live entertainment using biometric sensor data to detect neurological state
EP3321773B1 (en) Information processing device, display device, information processing method, and program
KR20210003718A (en) Social interaction applications for detection of neurophysiological conditions
JP2003189219A (en) Method and system for displaying digital picture sequence
KR101792715B1 (en) Exercise management system simulating real environment
KR20180045278A (en) Virtual Reality Recognition Rehabilitation System based on Bio Sensors
JP6939797B2 (en) Information processing equipment, information processing methods, and programs
CN112867528A (en) System and method for predicting and preventing motion sickness
KR20170114371A (en) Apparatus, system and method for controlling virtual reality image and simulator
CN112506336A (en) Head mounted display with haptic output
CN109984911B (en) Massage equipment with virtual reality function and control method thereof
WO2018034113A1 (en) Content providing system, content providing method and program for content providing system
KR20180130172A (en) Mental care system by measuring electroencephalography and method for mental care using this
JP2020042369A (en) Information processing apparatus, information processing method and recording medium
JP2018072950A (en) Simulation device and simulation system
WO2018092486A1 (en) Information processing device, method and program
KR102070300B1 (en) Method, computer program and system for tuning hearing aid
Zijlstra Using the HoloLens' Spatial Sound System to aid the Visually Impaired when Navigating Indoors
WO2020100583A1 (en) Information processing device, information processing method, and recording medium
Mahalil et al. Integration of a heart rate monitoring system in a virtual reality relaxation therapy for supporting an immersion level measuring technique
KR20200019486A (en) Electronic apparatus, contorl method thereof and electronic system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200609