JP2021081864A - Display program, display method, head mount display and information processor - Google Patents

Display program, display method, head mount display and information processor Download PDF

Info

Publication number
JP2021081864A
JP2021081864A JP2019207221A JP2019207221A JP2021081864A JP 2021081864 A JP2021081864 A JP 2021081864A JP 2019207221 A JP2019207221 A JP 2019207221A JP 2019207221 A JP2019207221 A JP 2019207221A JP 2021081864 A JP2021081864 A JP 2021081864A
Authority
JP
Japan
Prior art keywords
display
user
virtual
exercise intensity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019207221A
Other languages
Japanese (ja)
Inventor
ダリラ ブリン
Burin Dalila
ダリラ ブリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Priority to JP2019207221A priority Critical patent/JP2021081864A/en
Publication of JP2021081864A publication Critical patent/JP2021081864A/en
Pending legal-status Critical Current

Links

Images

Abstract

To achieve improvement of physical and cognitive functions without limiting physical activities of a user.SOLUTION: A computer executes a virtual motion display processing E repeating a predetermined number of the following processing: first display processing for displaying a viewpoint image of a virtual body of a user when the virtual body of the user is exercising at a first exercise intensity in a virtual reality space on a head mount display worn by the user for a first time period; and second display processing for displaying a viewpoint image of the virtual body of the user when the virtual body of the user is exercising at a second exercise intensity that is smaller than the first exercise intensity in the virtual reality space on the head mount display worn by the user for a second time period.SELECTED DRAWING: Figure 19

Description

本発明は、表示プログラム、表示方法、ヘッドマウントディスプレイ、及び、情報処理装置に関する。 The present invention relates to a display program, a display method, a head-mounted display, and an information processing device.

一定レベルの運動は、健康全般の鍵となる要素の1つであり、加齢に伴う障害を遅らせることが知られている。 A certain level of exercise is one of the key factors in general health and is known to delay age-related disorders.

また、有酸素運動は、身体機能だけでなく認知機能にも有益な結果をもたらすことが知られている。 Aerobic exercise is also known to have beneficial consequences not only for physical function but also for cognitive function.

Kujach S, Byun K, Hyodo K, Suwabe K, Fukuie T, Laskowski R, et al. A transferable high-intensity intermittent exercise improves executive performance in association with dorsolateral prefrontal activation in young adults. Neuroimage. 2018Kujach S, Byun K, Hyodo K, Suwabe K, Fukuie T, Laskowski R, et al. A transferable high-intensity intermittent exercise improves executive performance in association with dorsolateral prefrontal activation in young adults. Neuroimage. 2018

しかしながら、恒常的な身体運動又は短期間の高インパクトな身体運動を行なうことは、例えば、運動をしない人、多忙な人、又は虚弱な状態にある高齢者等にとっては困難な場合があり、例えば、心臓疾患のある人、長期疾患後に回復した患者、又は運動障害のある患者等にとっては、実施できない場合もある。 However, constant physical exercise or short-term high-impact physical exercise may be difficult for, for example, non-exercising people, busy people, or elderly people in a frail state, for example. , Patients with heart disease, patients who have recovered after long-term illness, or patients with movement disorders, etc., may not be able to perform this procedure.

身体活動に制限のあるこれらの人々のライフスタイルは、身体機能の改善に悪影響を及ぼし、また、認知機能の改善を制限したり、その低下に寄与したりする場合がある。 The lifestyles of these people with limited physical activity adversely affect the improvement of physical function and may limit or contribute to the deterioration of cognitive function.

1つの側面では、本発明は、利用者の身体活動の制限によらず、身体機能及び認知機能の改善を実現することを目的とする。 In one aspect, the present invention aims to realize improvement of physical function and cognitive function regardless of the limitation of physical activity of the user.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。 It should be noted that the other object of the present invention is not limited to the above-mentioned object, but is an action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and exerts an action and effect which cannot be obtained by the conventional technique. It can be positioned as one of.

1つの態様では、本件の表示プログラムは、仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ユーザが着用するヘッドマウントディスプレイに表示する第1の表示処理と、前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する第2の表示処理と、を所定回数繰り返す仮想運動表示処理をコンピュータに実行させる。 In one aspect, the display program of the present invention displays the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity in the virtual reality space over a first time period. The first display process to be displayed on the head-mounted display worn by the user, and when the virtual body of the user exercises at a second exercise intensity smaller than the first exercise intensity in the virtual reality space. A computer is made to execute a virtual motion display process of repeating a second display process of displaying the viewpoint image of the virtual body on the head-mounted display worn by the user for a second time period and a predetermined number of times.

1つの側面では、利用者の身体活動の制限によらず、身体機能及び認知機能の改善を実現することができる。 In one aspect, improvement of physical function and cognitive function can be realized regardless of the limitation of the physical activity of the user.

一実施形態に係るHMD(Head Mounted Display:ヘッドマウントディスプレイ)の一例を示す図である。It is a figure which shows an example of HMD (Head Mounted Display) which concerns on one Embodiment. クロスオーバー無作為化比較試験の手順例を説明する図である。It is a figure explaining the procedure example of a crossover randomized controlled trial. ストループ課題の一例を示す図である。It is a figure which shows an example of the Stroop task. SoBO(Sense of Body Ownership)及びSoA(Sense of Agency)に関するオンラインアンケートの一例を示す図である。It is a figure which shows an example of the online questionnaire about SoBO (Sense of Body Ownership) and SoA (Sense of Agency). 1PP(First Person Perspective)でアバターがランニングを行なう場合のディスプレイの表示例を示す図である。It is a figure which shows the display example of the display when the avatar runs in 1PP (First Person Perspective). 1PPでアバターがウォーキングを行なう場合のディスプレイの表示例を示す図である。It is a figure which shows the display example of the display when the avatar walks in 1PP. 1PPでの仮想空間内の景色の表示例を示す図である。It is a figure which shows the display example of the scenery in a virtual space in 1PP. SoBO及びSoAに関するオフラインアンケートの一例を示す図である。It is a figure which shows an example of the offline questionnaire about SoBO and SoA. 本試験で得られた心拍数計測結果の一例を示す図である。It is a figure which shows an example of the heart rate measurement result obtained in this test. 本試験で得られたオンライン及びオフラインアンケート結果の一例を示す図である。It is a figure which shows an example of the online and offline questionnaire results obtained in this test. 本試験で得られたストループ課題の分析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the Stroop task obtained in this test. 本試験により得られたlDLPFC(left DorsoLateral PreFrontal Cortex:左背外側前頭前野)におけるストループ干渉に関連するO2Hbの変化の一例を示す図である。It is a figure which shows an example of the change of O2Hb which is associated with the Stroop interference in lDLPFC (left DorsoLateral PreFrontal Cortex: left dorsolateral prefrontal cortex) obtained by this test. 本試験により得られたlDLPFCにおけるストループ干渉に関連するO2Hbの変化の一例を示す図である。It is a figure which shows an example of the change of O2Hb which is associated with the Stroop interference in lDLPFC obtained by this test. 本試験により得られたTDMS(Two Dimension Mood Scale)データの分析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the TDMS (Two Dimension Mood Scale) data obtained by this test. 一実施形態の一例としての表示システムの構成例を示す図である。It is a figure which shows the configuration example of the display system as an example of one Embodiment. コンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of a computer. HMD及びPC(Personal Computer)の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of HMD and PC (Personal Computer). 一実施形態に係る表示システムの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the display system which concerns on one Embodiment. 第1実施例に係るセッションの一例を説明する図である。It is a figure explaining an example of the session which concerns on 1st Example. 第1実施例に係る表示システムのPCの機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the PC of the display system which concerns on 1st Example. 第1実施例に係るPCの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the PC which concerns on 1st Example. 第2実施例に係る表示システムのPCの機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the PC of the display system which concerns on 2nd Example. パラメータ情報の一例を示す図である。It is a figure which shows an example of a parameter information. その他の実施例に係る表示システムのHMD及びPCの機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the HMD and PC of the display system which concerns on other examples.

以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。例えば、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。なお、以下実施形態で用いる図面において、同一符号を付した部分は、特に断らない限り、同一若しくは同様の部分を表す。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments described below are merely examples, and there is no intention of excluding the application of various modifications and techniques not specified below. For example, the present embodiment can be variously modified and implemented without departing from the spirit of the present embodiment. In the drawings used in the following embodiments, the parts having the same reference numerals represent the same or similar parts unless otherwise specified.

〔1〕一実施形態
〔1−1〕仮想現実での身体運動が身体機能及び認知機能に与える影響について
身体活動に制限のある状況では、身体反応と認知反応とが現実の反応と同等になる条件を作り出すことによって、運動の実際の実行を回避することが、潜在的な解決策となり得る。
[1] One Embodiment [1-1] Effect of physical exercise in virtual reality on physical function and cognitive function In a situation where physical activity is limited, the physical reaction and the cognitive reaction become equivalent to the actual reaction. Avoiding the actual performance of the exercise by creating conditions can be a potential solution.

そのために有効な技術として、仮想世界を表示することを可能にする仮想現実(Virtual Reality:VR)が考えられる。特に、一実施形態では、VRの一例として、現実的で妥当性の高い仮想的な身体(Virtual Body)(「仮想身体」又は「アバター」と称されてもよい)を表示することを可能にする没入型仮想現実(Immersive VR:IVR)に着目する。 As an effective technology for that purpose, virtual reality (VR) that makes it possible to display a virtual world can be considered. In particular, in one embodiment, it is possible to display a realistic and highly relevant Virtual Body (which may be referred to as a "virtual body" or "avatar") as an example of VR. Focus on Immersive VR (IVR).

例えば、図1に示すようなHMD(Head Mounted Display:ヘッドマウントディスプレイ)1を利用者の頭部に装着することにより、VRの仮想環境を実現可能である。なお、図1の符号AはHMD1の正面(表面)を示し、符号BはHMD1の裏面(装着側)を示す。HMD1は、「VRゴーグル」、「VRバイザー」、又は「3Dヘッドセット」と称されてもよい。 For example, a VR virtual environment can be realized by attaching an HMD (Head Mounted Display) 1 as shown in FIG. 1 to the user's head. Reference numeral A in FIG. 1 indicates the front surface (front surface) of the HMD 1, and reference numeral B indicates the back surface (mounting side) of the HMD 1. HMD1 may be referred to as "VR goggles", "VR visor", or "3D headset".

図1に示すように、HMD1は、装着時に利用者の両眼の位置にそれぞれ対向する2つのディスプレイ1a(符号B参照)、及び、ケーブル1b(符号A及びB参照)を備える。 As shown in FIG. 1, the HMD 1 includes two displays 1a (see reference numerals B) and cables 1b (see reference numerals A and B) facing each other at the positions of both eyes of the user when worn.

2つのディスプレイ1aは、左右の視点に応じた映像をそれぞれ表示する。例えば、IVRの仮想環境の表示において、ディスプレイ1aには、人体、例えば利用者の身体を模したアバターの視点からの映像(視点映像)が表示される。 The two displays 1a display images according to the left and right viewpoints, respectively. For example, in displaying the virtual environment of IVR, an image (viewpoint image) from the viewpoint of a human body, for example, an avatar that imitates the body of a user is displayed on the display 1a.

ケーブル1bは、映像信号等のデータ信号を伝送する通信線であり、映像信号を出力する、図示しないコンピュータに接続される。 The cable 1b is a communication line for transmitting a data signal such as a video signal, and is connected to a computer (not shown) that outputs a video signal.

また、HMD1は、角度センサ等のセンサにより利用者の頭部の角度や動きを検知するヘッドトラッキング機能、及び、カメラ等により眼球(視線)の動きを検知するアイトラッキング機能、のうちの一方又は双方のトラッキング機能を備えてよい。トラッキング機能により検知された動きは、仮想環境にフィードバックされ、利用者の頭部や視線の動きに連動した視点映像がディスプレイ1aに表示される。 Further, the HMD1 has one of a head tracking function that detects the angle and movement of the user's head by a sensor such as an angle sensor and an eye tracking function that detects the movement of the eyeball (line of sight) by a camera or the like. Both tracking functions may be provided. The movement detected by the tracking function is fed back to the virtual environment, and the viewpoint image linked to the movement of the user's head and line of sight is displayed on the display 1a.

このようなHMD1により、他の多感覚錯覚で起こることとは異なる視覚刺激を利用者に与えることで、「そこにいる」という強い感覚を利用者に想起させることができる。 By giving the user a visual stimulus different from that that occurs in other multisensory illusions, such HMD1 can remind the user of a strong feeling of "being there".

一人称視点(First Person Perspective:1PP)におけるアバターの単純な表示は、アバター上に身体所有感(Sense of Body Ownership:SoBO)の錯覚を作り出すだけでなく、1PPにおけるアバターの動きも、アバター上に運動主体感(Sense of Agency:SoA)の錯覚を作り出す。 The simple display of the avatar in the first person perspective (1PP) not only creates the illusion of Sense of Body Ownership (SoBO) on the avatar, but the movement of the avatar in 1PP also moves on the avatar. Creates the illusion of a sense of agency (SoA).

仮想環境において自身のアバターによって行なわれる行為は、利用者にとって自身が行なったものとして主観的に捉えられ、実際の利用者の身体には、物理的な世界で起こることと完全に類似した主観的、行動的、生理的反応が生じる。 Actions performed by one's own avatar in a virtual environment are subjectively perceived by the user as what they have done, and in the actual user's body, subjectively similar to what happens in the physical world. , Behavioral and physiological reactions occur.

例えば、自分自身のアバターの動きが現実の動きと一致しない場合、アバター上のSoBOによって、実際のパフォーマンスの無意識な調整が行なわれる。 For example, if the movement of one's own avatar does not match the actual movement, the SoBO on the avatar makes an unconscious adjustment of the actual performance.

しかし、実際の動きがない場合でも、実際の身体が完全に静止している間にアバターが動いた場合、錯覚は、実際の動きの実行中の反応に完全に匹敵する測定可能な反応を引き起こすことができる。例えば、1PPで表示されるアバターが丘を登る場合、実際の身体では心拍数(Heart Rate:HR)が増加する。これは、現実世界で発生するのと全く同じであるが、この場合、SoBOの視覚的錯覚の生理学的対応であるといえる。 However, even in the absence of actual movement, if the avatar moves while the actual body is completely stationary, the illusion causes a measurable response that is perfectly comparable to the ongoing response of the actual movement. be able to. For example, when the avatar displayed in 1PP climbs a hill, the heart rate (HR) increases in the actual body. This is exactly what happens in the real world, but in this case it can be said to be a physiological response to the visual illusion of SoBO.

以上のことから、IVRは、SoBOとSoAとの関係をより良く理解するための効果的な調査方法を提供でき、臨床集団に対して既存のものを補完する潜在的な解決策を提供できる。 From the above, IVR can provide an effective research method for better understanding the relationship between SoBO and SoA, and can provide a potential solution to the clinical population to complement the existing one.

本出願の発明者は、このIVRにより、錯覚が身体だけでなく実行機能(executive functions)及びその神経基質にも有益な結果を示すことを、以下の実験(クロスオーバー無作為化比較試験)を通じて発見した。 Through the following experiment (crossover randomized controlled trial), the inventor of the present application has shown that the illusion shows beneficial results not only for the body but also for executive functions and its neural substrate by this IVR. discovered.

<クロスオーバー無作為化比較試験>
<<概要>>
本実験では、認知実行機能の改善を示すことが知られている有酸素運動の1つである、身体的な高強度間欠的有酸素運動(High-intensity Intermittent aerobic Exercise:HIE)の有効性と、IVRによって提供されるSoBO及びSoAを操作する可能性とを組み合わせる。
<Randomized controlled trials of crossovers>
<< Overview >>
In this experiment, the effectiveness of physical high-intensity intermittent aerobic exercise (HIE), which is one of the aerobic exercises known to show improvement in cognitive executive function, Combines with the possibility of manipulating SoBO and SoA provided by IVR.

この実験では、30人の健常若年成人を被験者として、被験者の身体が完全に静止している間に、アバターによって排他的に実行される仮想HIEベースの介入(Virtual HIE:vHIE)が、実際の身体に対して急性の認知的及び身体的な有益な効果をもたらすかどうかを、実際の身体のトレーニング後に生じるものと比較して実証した。 In this experiment, 30 healthy young adults were used as subjects, and a virtual HIE-based intervention (Virtual HIE: vHIE) performed exclusively by the avatar while the subject's body was completely stationary was actually performed. We have demonstrated whether it has acute cognitive and physically beneficial effects on the body compared to what occurs after actual physical training.

vHIEでは、HMD1を装着した被験者が完全に静止した状態で、アバターが所定シーケンスの有酸素運動を所定回数(所定セット数)に亘って繰り返し実行する。本試験において、所定シーケンスは、30秒の走行(ランニング)及び30秒の遅い歩行(ウォーキング)のセットであり、所定回数は8である。なお、本試験では、HMD1として、Facebook(登録商標) Oculus Rift(登録商標)を使用した。 In vHIE, the avatar repeatedly performs a predetermined sequence of aerobic exercises a predetermined number of times (a predetermined number of sets) while the subject wearing the HMD1 is completely stationary. In this test, the predetermined sequence is a set of 30 seconds of running (running) and 30 seconds of slow walking (walking), and the predetermined number of times is 8. In this test, Facebook (registered trademark) Oculus Rift (registered trademark) was used as HMD1.

本試験では、アバター上でSoBO及びSoAを誘導又は阻害することが知られている視覚的観点を操作する以下の2つのパターンによって、被験者に、アバターによるvHIEトレーニングを経験させた。 In this study, subjects were allowed to experience vHIE training with avatars by the following two patterns of manipulating visual viewpoints known to induce or inhibit SoBO and SoA on avatars.

第1のパターンでは、アバターは1PPで表示される。すなわち、被験者に上述したIVRでのvHIEトレーニングを経験させる。一方、第2のパターンでは、1PPとの比較用に、アバターは三人称視点(Third Person Perspective:3PP)で表示される。 In the first pattern, the avatar is displayed at 1PP. That is, the subject is made to experience the vHIE training in the IVR described above. On the other hand, in the second pattern, the avatar is displayed in the third person perspective (3PP) for comparison with 1PP.

1PPの被験者がアバター上にSoBO及びSoAを持っていることを確認するために、発明者は、被験者への主観的なアンケートに加えて、被験者の心拍数を記録した。 To confirm that a 1PP subject had SoBO and SoA on the avatar, the inventor recorded the subject's heart rate in addition to a subjective questionnaire to the subject.

また、発明者は、毎回のIVRセッション(1PP)の前後に、カラー単語マッチングストループ課題(以下、単に「ストループ課題」と表記する)を実行するとともに、ストループ課題の実行中に、機能的近赤外分光分析法(functional Near-Infrared Spectroscopy:fNIRS)装置を用いて被験者の前頭前皮質(PreFrontal Cortex:PFC)の皮質血行動態変化を測定した。 In addition, the inventor performs a color word matching stroop task (hereinafter, simply referred to as "stroop task") before and after each IVR session (1PP), and during the execution of the stroop task, functional near-red Cortical hemodynamic changes in the prefrontal cortex (PFC) of the subject were measured using a functional near-infrared spectroscopy (fNIRS) device.

上記試験により、理論的観点から、実際の動きがなくても、SoBOとSoAが身体的・認知的パラメータを調節できることを証明することができた。また、臨床的観点から、これらの結果は、認知機能と身体機能とを同時に、完全に安全な環境で訓練するために有用であり得ることがわかった。 From a theoretical point of view, the above test was able to prove that SoBO and SoA can regulate physical and cognitive parameters without actual movement. Also, from a clinical point of view, these results have been found to be useful for training cognitive and physical functions at the same time in a completely safe environment.

<<手順>>
図2は、試験手順例を説明する図である。図2では、1つの実験セッションのプロトコルをタイムラインとともに表している。図2に示すように、試験は、事前フェーズ(BEFORE)、VRトレーニングフェーズ(INTERVENTIONS、介入)、及び、事後フェーズ(AFTER)の3つのフェーズを含む。なお、図2に示す実験セッションのプロトコルは、手順は同じであるが、介入条件(パターン)を変更し、例えば、1週間間隔で、VRトレーニングフェーズのパターンを1PPと3PPとの間で切り替えて実施される。
<< Procedure >>
FIG. 2 is a diagram illustrating an example of a test procedure. FIG. 2 shows the protocol of one experimental session with a timeline. As shown in FIG. 2, the study includes three phases: a pre-phase (BEFORE), a VR training phase (INTERVENTIONS), and a post-phase (AFTER). The protocol of the experimental session shown in FIG. 2 has the same procedure, but the intervention conditions (patterns) are changed, for example, the pattern of the VR training phase is switched between 1PP and 3PP at weekly intervals. Will be implemented.

事前フェーズでは、介入前の測定(TDMS(Two Dimension Mood Scale:二次元気分尺度)、ストループ課題及びfNIRS記録)が実行される。VRトレーニングフェーズでは、vHIE介入が実行される。vHIEでは、アバターの移動(走行)速度が、遅い歩行から、速いランニングに変化するのが30秒ごとである。速度変化の所定の時点(タイミング)で、被験者にSoBO及びSoAに関するオンライン質問票への回答を実施させる。事後フェーズでは、事前フェーズと同様の手法により、vHIE介入後の測定が実行される。以下、各フェーズの詳細を説明する。 In the pre-intervention phase, pre-intervention measurements (TDMS (Two Dimension Mood Scale), Stroop task and fNIRS recording) are performed. In the VR training phase, vHIE intervention is performed. In vHIE, the moving (running) speed of the avatar changes from slow walking to fast running every 30 seconds. Have the subject complete an online questionnaire about SoBO and SoA at a given point in time (timing) of the speed change. In the post-phase, post-vHIE intervention measurements are performed in a manner similar to the pre-phase. The details of each phase will be described below.

<<<事前フェーズ及び事後フェーズ>>>
・TDMS
TDMSは、心理的気分状態の変化を記録する有効な尺度であり、快感及び覚醒の気分状態を複合的に表現する8つの気分表出項目を用いた精神測定尺度である。TDMSでは、被験者が質問に答えることで、測定時の心理状態を数量化することができ、「活性度」や「安定度」等を測定できる。
<<< Pre-Phase and Post-Phase >>
・ TDMS
TDMS is an effective scale for recording changes in psychological mood state, and is a psychometric scale using eight mood expression items that express mood states of pleasure and arousal in a complex manner. In TDMS, when a subject answers a question, the psychological state at the time of measurement can be quantified, and "activity", "stability" and the like can be measured.

図2の符号A及びGでは、各セッション(1PP及び3PP)について、VRトレーニングフェーズ前のストループ課題直前、及び、VRトレーニングフェーズ後のストループ課題直前にそれぞれTDMSを実行することで、VRトレーニングフェーズの経験前後の被験者の心理状態(気分)の変化を検出する。例えば、被験者には、6段階のリッカート尺度を用いて、現在の(図2の符号Aの時点、及び、符号Gの時点)の心理状態を評価してもらう。 In reference numerals A and G in FIG. 2, TDMS is executed immediately before the stroop task before the VR training phase and immediately before the stroop task after the VR training phase for each session (1PP and 3PP), thereby performing the VR training phase. Detect changes in the subject's psychological state (mood) before and after the experience. For example, the subject is asked to evaluate the current psychological state (at the time point A and the time point G in FIG. 2) using a 6-step Likert scale.

・ストループ課題及びfNIRS
図2の符号B及びHでは、6分30秒の期間、VRトレーニングの有効性を測定するために、被験者にカラー単語マッチングストループ課題を実行させる。また、当該ストループ課題の実行中に、fNIRS装置を用いて、被験者のPFCにおける皮質血行動態変化を、毎回のIVRセッション(1PP及び3PPのいずれか)の前後に記録する。
-Stroop task and fNIRS
Reference numerals B and H of FIG. 2 cause the subject to perform a color word matching Stroop task to measure the effectiveness of VR training for a period of 6 minutes and 30 seconds. Also, during the performance of the Stroop task, fNIRS devices are used to record cortical hemodynamic changes in the subject's PFC before and after each IVR session (either 1PP or 3PP).

ストループ課題は、被験者の認知機能検査の一例であり、図3に例示するように、10回の「中立」(符号A参照)、10回の「一致」(符号B参照)、及び、10回の「不一致」(符号C参照)を含む30回の試行から成り、ランダムな順序で提示される。全ての試行について、上下に2つの単語が表示される。 The Stroop task is an example of a subject's cognitive function test, 10 times "neutral" (see reference numeral A), 10 times "match" (see reference numeral B), and 10 times, as illustrated in FIG. Consists of 30 trials, including the "mismatch" (see sign C), presented in random order. Two words are displayed above and below for all attempts.

「中立」の試行の場合、上段には赤、白、青、ピンク又は黄色の文字が表示され、下段には「あか」、「しろ」、「あお」、「ぴんく」又は「きいろ」という黒色の単語が表示される。「一致」の試行の場合、上段には「あか」、「しろ」、「あお」、「ぴんく」又は「きいろ」という単語が合致した色で表示され(例えば、「あか」は赤色で表示され)、下段には同じ色の単語が黒色で表示される。「不一致」の施行の場合、上段の単語は不調和な色で表示され(例えば、「あか」は黄色で表示され)、色単語と色名との間に認知的干渉(すなわち、ストループ干渉)を生じさせる。なお、図3では、上段の色付きの文字を太字で示している。 In the case of a "neutral" trial, red, white, blue, pink or yellow letters are displayed in the upper row, and black letters such as "red", "white", "blue", "pink" or "yellow" are displayed in the lower row. Words are displayed. In the case of a "match" trial, the words "red", "white", "blue", "pink" or "kiiro" are displayed in the matching color in the upper row (for example, "red" is displayed in red. ), Words of the same color are displayed in black at the bottom. In the case of "mismatch" enforcement, the upper word is displayed in a dissonant color (for example, "red" is displayed in yellow) and cognitive interference between the color word and the color name (ie, Stroop interference). Causes. In FIG. 3, the colored characters in the upper row are shown in bold.

ストループ課題は、PC(Personal Computer)等のコンピュータのモニタに表示される。下段は、連続した視覚的な注意を向けるために、上段よりも100ms遅く提示される。各試行間には、タイミング予測を避けるために、刺激間間隔(Inter-Stimulus Interval)を9〜13秒間とする固定交差(Fixation Cross)が表示される。被験者の回答とは無関係に、刺激は2秒間画面上に残る。 The Stroop task is displayed on the monitor of a computer such as a PC (Personal Computer). The lower row is presented 100 ms later than the upper row for continuous visual attention. Between each trial, a Fixation Cross with an Inter-Stimulus Interval of 9 to 13 seconds is displayed to avoid timing prediction. Regardless of the subject's response, the stimulus remains on the screen for 2 seconds.

被験者に、人差し指でキーパッドのボタン1「はい」又はボタン2「いいえ」を押させ、回答を与えることで、上段の単語(又は文字)の色が下段の単語の色名に対応するかどうかを決定させる訓練を行なう。提示された刺激の50%が正しかった(正解は「はい」)。発明者は、応答時間(RT:Response Time)とエラー率(Error Ratio)とを変数として記録した。 Whether the color of the upper word (or letter) corresponds to the color name of the lower word by having the subject press button 1 "yes" or button 2 "no" on the keypad with the index finger and give an answer. To train to decide. Fifty percent of the stimuli presented were correct (the correct answer was "yes"). The inventor recorded the response time (RT) and the error ratio (Error Ratio) as variables.

fNIRSは、脳機能計測、より詳細には皮質血行動態のモニタリングを行なう装置の一例である。を本試験では、fNIRSとして、株式会社NeU製のウェアラブル光トポグラフィ(登録商標) WOT−HSを使用する。fNIRSヘッドセットは、コントロールボックスを介して検出信号をコンピュータに送信する。 fNIRS is an example of a device for measuring brain function, more specifically for monitoring cortical hemodynamics. In this test, wearable optical topography (registered trademark) WOT-HS manufactured by NeU Co., Ltd. is used as fNIRS. The fNIRS headset sends a detection signal to the computer via the control box.

このシステムは、互いに3cmの距離に配置された35個のカプセルを備え、その中にマイクロプロセッサ、近赤外線放射又は高感度受信センサがパッケージ化されている。被験者は、国際10−20システムに従い、FpZ(NasionとInionとの間の距離の10%)でプローブの底線上の特定のマークを中心に、装置を額に配置する。 The system comprises 35 capsules located at a distance of 3 cm from each other, in which a microprocessor, near-infrared radiation or sensitive receiving sensor is packaged. Subjects place the device on their forehead at FpZ (10% of the distance between Nasion and Inion), centered on a specific mark on the bottom of the probe, according to the International 10-20 System.

本装置は、ストループ課題遂行時のPFCにおける皮質血行動態変化をモニタリングするために、2つの短距離波長の近赤外光(850nm、730nm)を適用することにより、ミリモル−ミリメートル(mM・mm)単位で計算した酸素化ヘモグロビン(O2Hb)、脱酸素化ヘモグロビン(HHb)及び総ヘモグロビンの濃度を検出する。 This device applies near-infrared light (850 nm, 730 nm) of two short-range wavelengths to monitor changes in cortical hemodynamics in PFC during stroop task performance, resulting in mmol-millimeters (mM · mm). The concentration of oxygenated hemoglobin (O2Hb), deoxygenated hemoglobin (HHb) and total hemoglobin calculated in units is detected.

<<<VRトレーニングフェーズ>>>
被験者は、第1(1PP)及び第2(3PP)のいずれのパターンにおいても、地面に両足を着き、身体側に腕を弛緩させた状態で椅子に快適に座り、HMD1を装着した。
<<< VR training phase >>>
In both the first (1PP) and second (3PP) patterns, the subject comfortably sat in a chair with both feet on the ground and arms relaxed toward the body, and wore the HMD1.

仮想環境は、アバターやアニメーションとともに、3D Studio Max(登録商標) 2015でモデル化され、Unity(登録商標) 3Dで実装される。実装された仮想環境は、緑色の床(牧草地をシミュレートする)と自然に照らされた空を備えたオープンスペースを表し、地平線が表示される。被験者は、性別をマッチさせた生命サイズのヒューマノイド仮想身体を観察する。 The virtual environment, along with avatars and animations, will be modeled in 3D Studio Max® 2015 and implemented in Unity® 3D. The implemented virtual environment represents an open space with a green floor (simulating a meadow) and a naturally illuminated sky, with a horizon displayed. The subject observes a gender-matched life-sized humanoid virtual body.

第1のパターンは、1PPでのアバターの表示で構成される。アバターは、仮想身体に置き換わり、空間的に実際の身体と一致する、すなわち、被験者は、アバターを観察するには視点を自分の身体に向ける。 The first pattern consists of displaying the avatar in 1PP. The avatar replaces the virtual body and spatially matches the real body, that is, the subject directs his or her point of view to his or her body to observe the avatar.

第2のパターンは、3PPでの同じアバターの表示で構成される。アバターは、実際の被験者の身体の左側1.5メートル付近に配置され、そうなっていなければ、アバターを観察するために、被験者は、頭を回転させ、視点をアバターの左側に向ける。 The second pattern consists of displaying the same avatar in 3PP. The avatar is placed near 1.5 meters to the left of the actual subject's body, otherwise the subject rotates his head and points his point of view to the left side of the avatar to observe the avatar.

・ベースライン
図2の符号Cに示すように、VRトレーニングフェーズ(介入)は、第1及び第2のパターン(条件)の双方において、4分の習熟フェーズ(以下、「ベースライン」と表記する)で開始される。このフェーズは、被験者と性別がマッチしたアバターが表示されるが、未だアニメーションがない(すなわち、1PP又は3PPのアバターが静止している)状態である。
-Baseline As shown by reference numeral C in FIG. 2, the VR training phase (intervention) is referred to as a 4-minute proficiency phase (hereinafter referred to as "baseline") in both the first and second patterns (conditions). ). In this phase, avatars whose gender matches the subject are displayed, but there is no animation yet (that is, the 1PP or 3PP avatar is stationary).

ベースラインでは、アバター上での所有感の錯覚を誘発したり(1PP内)、それを誘発したりしないようにする(3PP内)ためのSoBO及びSoAに関するオンラインアンケート(図4参照)、心拍数のベースライン記録、及び、仮想的な表示に起因する、最終的な疾病問題の確認、が行なわれる。 At baseline, an online survey on SoBO and SoA (see Figure 4) to avoid or (within 1PP) the illusion of ownership on the avatar (within 3PP), heart rate. The baseline recording of the illness and the confirmation of the final disease problem due to the virtual display are performed.

(オンラインアンケート(Online Questionnaire))
図4は、SoBO及びSoAに関するオンラインアンケートの一例を示す図である。オンラインアンケートでは、被験者に、口頭で、介入中の被験者の主観的感情に関する4つの質問について同意のレベルを評価させる。同意のレベルは、例えば、「1」が「全く不同意」を意味し、「7」が「全く同意」を意味する7段階(1〜7)のリッカート尺度であってよい。
(Online Questionnaire)
FIG. 4 is a diagram showing an example of an online questionnaire regarding SoBO and SoA. In an online questionnaire, subjects are asked to verbally assess the level of consent for four questions about the subject's subjective emotions during the intervention. The level of consent may be, for example, a 7-step (1-7) Likert scale in which "1" means "totally disagree" and "7" means "totally agree".

図4に示すように、オンラインアンケートは、SoBO(Ownership)に関係する質問s1及びs2、並びに、SoA(Agency)に関係する質問s3及びs4を含んでよい。質問s1及びs3は、錯覚の実際の存在をチェックする「本当の記述(real statement)」であり、質問s2及びs4は「対照的な記述(control statement)」である。 As shown in FIG. 4, the online questionnaire may include questions s1 and s2 related to SoBO (Ownership) and questions s3 and s4 related to SoA (Agency). Questions s1 and s3 are "real statements" that check the actual existence of the illusion, and questions s2 and s4 are "control statements."

オンラインアンケートは、被験者によるSoBO及びSoAに関する主観的経験について、異なる時点での介入中の主観的感情の最終的な変化を制御するために、VRトレーニングフェーズにおける、複数(例えば5つ)の時点(タイミング)で実施される。これらのタイミングのうちの1つが、上述のようにベースライン期間内である。例えば、オンラインアンケートは、IVRセッションの場合はVRトレーニングフェーズ(ベースライン)の開始から2分後に実施される。 The online questionnaire was conducted at multiple (eg, 5) time points (eg, 5) in the VR training phase to control the final change in subjective emotions during the intervention at different time points for the subject's subjective experience with SoBO and SoA. Timing). One of these timings is within the baseline period as described above. For example, an online survey will be conducted 2 minutes after the start of the VR training phase (baseline) in the case of an IVR session.

なお、残りの(4回の)タイミングは、いずれもvHIE期間内である。vHIE期間に行なわれるオンラインアンケートの実施タイミングについては後述する。 The remaining (4 times) timings are all within the vHIE period. The timing of conducting the online questionnaire during the vHIE period will be described later.

(心拍数)
VRトレーニングフェーズ(介入)中、被験者が実際にアバターを自分自身と認識しているかどうかを確認するために(1PP)、心拍モニタで被験者の心拍数(Heart Rate:HR)を記録する。本試験では、心拍モニタとして、Polar社(登録商標)のH10心拍モニタを使用する。H10心拍モニタは、Bluetooth(登録商標)を介してコンピュータにインストールされた特定のアプリケーションで制御される。被験者は、胸部周囲に心拍モニタが取り付けられた弾性ストリップを装着し、心拍モニタを心臓に近い場所に位置決めする。
(Heart rate)
During the VR training phase (intervention), a heart rate monitor records the subject's heart rate (HR) to see if the subject actually recognizes the avatar as himself (1PP). In this test, a Polar H10 heart rate monitor is used as the heart rate monitor. The H10 heart rate monitor is controlled by a specific application installed on the computer via Bluetooth®. The subject wears an elastic strip with a heart rate monitor attached around the chest and positions the heart rate monitor closer to the heart.

心拍数の測定は、VRトレーニングフェーズの期間内(例えば全期間)に実施される。すなわち、心拍モニタは、各介入条件(1PP及び3PP)におけるベースライン(4分間)の心拍数、介入中の合計8分間(4分間の走行+4分間の緩徐歩行)の心拍数、及び、介入後(被験者がHMD1を装着中且つ目を閉じた状態)の30秒間の心拍数を記録する。また、心拍モニタにより測定される心拍数は、介入後、心拍数の最終的な遅延(ベースライン時のHR付近への低下)の確認、及び、心拍数の同期を待つために使用される。 Heart rate measurements are performed during the VR training phase (eg, for the entire period). That is, the heart rate monitor shows the baseline (4 minutes) heart rate under each intervention condition (1PP and 3PP), the total 8 minutes (4 minutes running + 4 minutes slow walking) heart rate during the intervention, and the post-intervention. Record the heart rate for 30 seconds (with the subject wearing HMD1 and with his eyes closed). The heart rate measured by the heart rate monitor is also used after the intervention to confirm the final delay in heart rate (decrease near HR at baseline) and to wait for heart rate synchronization.

・スピードテスト
図2の符号Dに示すスピードテストは、アバターの走行速度を最適化するフェーズである。vHIEにおけるアバターの走行アニメーションの速度を選択するために、ベースライン後、ディスプレイ1aにおいて、アバター上に複数(例えば4つ)の異なるオプションが示される。これらのオプションは、互いに速度の異なる複数の走行アニメーションを複数でよい。被験者は、いずれのオプションが「かなり速いが実行可能である(かなり速いが実行不可能ではない速さである)」と主観的に認識されるかを口頭で報告する。
-Speed test The speed test shown by reference numeral D in FIG. 2 is a phase for optimizing the running speed of the avatar. After baseline, display 1a shows a plurality (eg, 4) different options on the avatar to select the speed of the avatar's running animation in vHIE. These options may have multiple running animations with different speeds from each other. Subjects verbally report which option is subjectively perceived as "quite fast but feasible (quite fast but not infeasible)".

これは、実際の生理活性化の可能性を最大化するためであり、同時に、1PPにおける所有の錯覚を破綻させないように、主観的に妥当な走行アニメーションを表示するためである。なお、ゆっくりとした歩行アニメーションは、全ての被験者に対して同じであってよい。 This is to maximize the possibility of actual bioactivity, and at the same time to display a subjectively valid running animation so as not to break the illusion of possession in 1PP. The slow walking animation may be the same for all subjects.

・vHIE(1PP又は3PP)
図2の符号Eに示すように、スピードテストの後、実際の介入、すなわち、アバターが排他的に行なう1PP又は3PPのvHIEが行なわれる。被験者は、着座し、身体(頭部以外)を動かさずに、アバターに注視した状態で、アバターによる30秒間のランニング及び30秒間の遅いウォーキングの映像を交互に、合計8分間に亘って試聴する。
・ VHIE (1PP or 3PP)
As shown by reference numeral E in FIG. 2, after the speed test, an actual intervention, that is, a 1PP or 3PP vHIE exclusively performed by the avatar is performed. The subject sits down, keeps an eye on the avatar, and listens to the images of the avatar running for 30 seconds and the slow walking for 30 seconds alternately for a total of 8 minutes. ..

図5及び図6は、1PPの場合のディスプレイ1aの表示例を示す図であり、アバターがランニング及びウォーキングを行なう場合の表示例をそれぞれ示す。なお、図5及び図6では、HMD1を着用した被験者が下側を向いた(俯いた)状態の表示例を示しているため、vHIE中のアバターの手及び足の一部が表示されている。HMD1を着用した被験者が着座姿勢のまま正面を向いた場合、ディスプレイ1aには、例えば、図7に示すような仮想空間内の景色(風景)が表示されてよい。 5 and 6 are diagrams showing a display example of the display 1a in the case of 1PP, and show a display example when the avatar runs and walks, respectively. In addition, since FIG. 5 and FIG. 6 show a display example in which the subject wearing HMD1 faces downward (down), a part of the hands and feet of the avatar in vHIE is displayed. .. When the subject wearing the HMD1 faces the front while in the sitting posture, the display 1a may display, for example, a landscape (landscape) in the virtual space as shown in FIG. 7.

8分間のvHIEの視聴後、被験者には、30秒間、目を閉じた状態を維持してもらい、vHIEの開始から8分30秒後に、vHIE期間(図2の符号E参照)が終了する。 After viewing the vHIE for 8 minutes, the subject is asked to keep his eyes closed for 30 seconds, and the vHIE period (see reference numeral E in FIG. 2) ends 8 minutes and 30 seconds after the start of the vHIE.

なお、vHIEの8分30秒の期間中(最後の30秒を含む)、心拍モニタによる心拍数の計測及び記録が行なわれる。 During the period of 8 minutes and 30 seconds of vHIE (including the last 30 seconds), the heart rate is measured and recorded by the heart rate monitor.

また、上述したように、vHIE期間中の複数の時点において、オンラインアンケートが実施される。例えば、オンラインアンケートは、図2の符号E′に示すように、以下の4つの時点で実施される。 Also, as mentioned above, online questionnaires are conducted at multiple time points during the vHIE period. For example, an online questionnaire is conducted at the following four time points, as shown by reference numeral E'in FIG.

vHIEの開始後1分時点(ランニング中)。
vHIEの開始後2分30秒時点(ウォーキング中)。
vHIEの開始後5分時点(ランニング中)。
vHIEの開始後6分30秒時点(ウォーキング中)。
1 minute after the start of vHIE (during running).
2 minutes and 30 seconds after the start of vHIE (during walking).
5 minutes after the start of vHIE (during running).
6 minutes and 30 seconds after the start of vHIE (during walking).

・オフラインアンケート(Offline Questionnaire)
図2の符号Fに示すように、vHIE(1PP及び3PPの双方の場合)の終了後、被験者は、SoBO及びSoAに関するオフラインアンケートに回答する。オフラインアンケートには、vHIEの動作の感覚、運動制御及び身体的努力についての詳細な質問が既述されており、被験者は、直前に行なったvHIE介入中の主観的感情に関して、オフラインアンケートに自己記入を行なう。
・ Offline Questionnaire
As shown by reference numeral F in FIG. 2, after completion of vHIE (in the case of both 1PP and 3PP), the subject completes an offline questionnaire regarding SoBO and SoA. The offline questionnaire already contains detailed questions about vHIE motion sensation, motor control and physical effort, and subjects self-filled the offline questionnaire regarding subjective emotions during the previous vHIE intervention. To do.

図8は、SoBO及びSoAに関するオフラインアンケートの一例を示す図である。オフラインアンケートの2列目は、基礎となる探索されたドメインのリストであり、被験者には示されない。被験者は、3列目の記述に対する同意のレベルを評価する。同意のレベルは、例えば、「1」が「全く不合意」を意味し、「7」が「全く合意」を意味する7段階(1〜7)のリッカート尺度であってよい。 FIG. 8 is a diagram showing an example of an offline questionnaire regarding SoBO and SoA. The second column of the offline survey is a list of underlying explored domains, not shown to the subject. Subjects assess the level of consent to the description in the third column. The level of consent may be, for example, a 7-step (1-7) Likert scale in which "1" means "totally disagreement" and "7" means "totally agreeable".

<<統計解析>>
自身のアバターで行なわれるvHIE介入が認知実行機能に対して有益な効果を有することを明らかにするために、図2に示す実験セッションにより得られた情報を解析した。
<< Statistical analysis >>
The information obtained from the experimental session shown in FIG. 2 was analyzed to clarify that vHIE intervention performed on one's avatar had a beneficial effect on cognitive executive function.

現行のクロスオーバー無作為化比較試験は、vHIEが実行機能に有益な効果をもたらすかどうかを判定するために設計されているが、この判定は、介入自体の間に、1PPにおけるアバターの具現化等のいくつかの仮定が満たされた場合に可能である。そのため、データ分析は以下の2つのフェーズに分かれる。 Current crossover randomized controlled trials are designed to determine if vHIE has a beneficial effect on executive function, but this determination is the embodiment of the avatar in 1PP during the intervention itself. It is possible if some assumptions such as are met. Therefore, data analysis is divided into the following two phases.

第1フェーズでは、vHIE介入が実際に有効かどうかを確認するために、介入自体(すなわち、心拍数、オンライン及びオフラインのアンケート)で収集された結果を確認する。第2フェーズでは、仮説(すなわち、ストループ課題及びfNIRSデータ)及びそれらの相関をチェックするために、測定値を分析する。 The first phase reviews the results collected in the intervention itself (ie, heart rate, online and offline surveys) to see if the vHIE intervention is actually effective. In the second phase, measurements are analyzed to check hypotheses (ie, Stroop tasks and fNIRS data) and their correlations.

<<<第1フェーズ>>>
・心拍数のデータ
心拍数については、3つの記録期間(ベースライン、走行及び遅い歩行)のデータをそれぞれ4分間で平均する。平均ベースライン(HRb)の結果は、下記式(1)及び(2)のように、平均走行(HBr)及び平均歩行(HRw)の結果によって差し引かれる。
<<< First Phase >>>
-Heart rate data For heart rate, data for three recording periods (baseline, running and slow walking) are averaged for 4 minutes each. The average baseline (HRb) result is subtracted from the average running (HBr) and average walking (HRw) results, as in equations (1) and (2) below.

dHRr = (HRr - HRb) (1)
dHRw = (HRw - HRb) (2)
dHRr = (HRr --HRb) (1)
dHRw = (HRw --HRb) (2)

次に、2段階のHR速度(dHRrは「fast」を意味し、dHRwは「slow」を意味する)と、介入条件(1PP、3PP)に対応する2段階の状態(CONDITION)と、をそれぞれ因子とする分散分析(ANOVA 2x2)を実行する。発明者は、1PPのみにおけるアバターの具現化の生理学的対応を確認するために、他の全ての測定に関して、1PP条件におけるdHRrの有意な増加を見出すことを予測した。 Next, a two-step HR rate (dHRr means "fast" and dHRw means "slow") and a two-step state (CONDITION) corresponding to the intervention condition (1PP, 3PP) are obtained, respectively. Perform an analysis of variance (ANOVA 2x2) as a factor. The inventor predicted to find a significant increase in dHRr under 1PP conditions for all other measurements to confirm the physiological response of avatar embodied in 1PP alone.

図9は、本試験で得られた心拍数計測結果の一例を示す図である。VRトレーニングフェーズにおける客観的な心拍数の測定結果について、心拍数や8分30秒に亘るvHIEを考慮すると、1PP及び3PPの間に有意差がある。また、1PPのグラフでは、被験者が実際に走って歩いている場合と同様に、高いピークを有することが示されている。 FIG. 9 is a diagram showing an example of the heart rate measurement result obtained in this test. Regarding the objective heart rate measurement results in the VR training phase, there is a significant difference between 1PP and 3PP when the heart rate and vHIE over 8 minutes and 30 seconds are taken into consideration. In addition, the graph of 1PP shows that the subject has a high peak as in the case of actually running and walking.

・オンライン及びオフラインアンケートのデータ
主観的対応として、アンケートのデータを分析する。オンラインアンケートは、5つの異なる時点(ベースライン、vHIEの1分、2分30秒、5分、6分30秒)で繰り返された。時間的効果を除外するため、まず分散分析(ANOVA 5x4)と、時間(TIME)(オンラインアンケートが実施される時点に対応)及び質問(QUESTION)(オンラインアンケートの4つの記述に対応)と、の因子を比較する。
-Online and offline questionnaire data As a subjective response, analyze the questionnaire data. The online survey was repeated at five different time points (baseline, vHIE 1 minute, 2 minutes 30 seconds, 5 minutes, 6 minutes 30 seconds). In order to exclude the time effect, first, analysis of variance (ANOVA 5x4), time (TIME) (corresponding to the time when the online questionnaire is conducted) and question (QUESTION) (corresponding to the four descriptions of the online questionnaire). Compare factors.

最終的には、記述の平均が時点を越え、分散分析(ANOVA 4x2)で4つの記述(具体的には「実際の記述」の結果及び「対照的な記述」の結果)と状態(CONDITION)(1PP、3PP)とを比較することができる。 Eventually, the mean of the descriptions crossed the point in time, and in ANOVA 4x2, four descriptions (specifically, the result of the "actual description" and the result of the "contrast description") and the state (CONDITION). Can be compared with (1PP, 3PP).

発明者は、1PPにおける実際の記述及び対照的な記述、並びに、3PPに関する記述に関して、より高いレベルの身体所有感及び運動主体感を見出すことを予測した。 The inventor predicted that he would find a higher level of physical ownership and motor subjectivity with respect to the actual and contrasting descriptions in 1PP, as well as the description regarding 3PP.

また、オフラインアンケート(各IVR条件の終了時に実施)について、2条件間(1PP及び3PP)の記述を比較したデータを解析する。 In addition, for the offline questionnaire (conducted at the end of each IVR condition), the data comparing the descriptions between the two conditions (1PP and 3PP) will be analyzed.

図10は、本試験で得られたオンライン及びオフラインアンケート結果の一例を示す図である。図10に示すように、VRトレーニングフェーズに実施されたオンラインアンケートでは、被験者が1PPではアバターの身体所有感及び運動主体感を有しているが、3PPではその傾向が見られない。また、VRトレーニングフェーズ直後に実施されたオフラインアンケートもオンラインアンケートと同様のパターンを有しており、被験者は、1PPではアバターがどこに位置しているかという感覚、歩行感覚、運動制御感を経験している。一方、3PPではその傾向が見られない。 FIG. 10 is a diagram showing an example of online and offline questionnaire results obtained in this test. As shown in FIG. 10, in the online questionnaire conducted in the VR training phase, the subject has a sense of physical possession and exercise subjectivity of the avatar in 1PP, but this tendency is not seen in 3PP. In addition, the offline questionnaire conducted immediately after the VR training phase has the same pattern as the online questionnaire, and the subjects experienced the sensation of where the avatar is located, walking sensation, and motor control sensation in 1PP. There is. On the other hand, this tendency is not seen in 3PP.

従って、被験者は、1PPのアバターを自分自身として主観的に知覚したと結論付けることができる。また、心拍数の計測結果とアンケート結果とを組み合わせることにより、被験者は、3PPではなく1PPでの錯覚を効果的に経験したと仮定することができる。 Therefore, it can be concluded that the subject subjectively perceived the 1PP avatar as himself. Also, by combining the heart rate measurement results and the questionnaire results, it can be assumed that the subject effectively experienced the illusion of 1PP instead of 3PP.

<<<第2フェーズ>>>
データ分析の第2フェーズは、全てのIVR介入の前後に収集されたデータに関するものであり、これは主な仮説(すなわち、認知に関するIVRトレーニングの有効性)を確認するための結果を意味する。
<<< Second Phase >>>
The second phase of data analysis concerns the data collected before and after all IVR interventions, which means the results to confirm the main hypothesis (ie, the effectiveness of IVR training on cognition).

・ストループ課題のRT及びER
上述したように、ストループ課題では、RT(Response Time)とER(Error Rate)の2つの測定値が得られる。ストループ干渉を表すと仮定した不一致・中立の差異(コントラスト)を計算する。被験者内因子として、TIME(前、後)及びCONDITION(1PP、3PP)を用いた反復測定分散分析により、RT及びERの両者を解析する。
・ RT and ER of Stroop task
As described above, in the Stroop task, two measured values of RT (Response Time) and ER (Error Rate) are obtained. Calculate the discrepancy / neutral difference (contrast) that is assumed to represent Stroop interference. Both RT and ER are analyzed by repeated measures analysis of variance using TIME (before, after) and CONDITION (1PP, 3PP) as intra-subject factors.

補足的な分析として、vHIE前のストループ課題のみを考慮して(差異がないと予測し)、2セッション間の最終的な差異をチェックする。発明者の仮説によれば、3PPと比較して、1PPではvHIE後のRTが短く、ERが低いことが予測される。 As a supplementary analysis, only the Stroop task before vHIE is considered (predicted no difference) and the final difference between the two sessions is checked. According to the inventor's hypothesis, it is predicted that RT after vHIE is shorter and ER is lower in 1PP than in 3PP.

図11は、本試験で得られたストループ課題の分析結果の一例を示す図である。図11に示すように、ストループ課題の分析結果から、3PPではなく1PPにおいて、vHIE後の反応時間(RT)の優位な減少を見出した。これは、1PPでのvHIE後の被験者の反応時間が速くなったことを意味する。誤り率(ER)については、1PP及び3PP間で有意な差は認められなかった。実際には、1PP及び3PP後に誤り率が改善したが、これは学習効果によるものと考えられる。 FIG. 11 is a diagram showing an example of the analysis result of the Stroop task obtained in this test. As shown in FIG. 11, from the analysis results of the Stroop task, we found a significant decrease in reaction time (RT) after vHIE at 1PP instead of 3PP. This means that the reaction time of the subject after vHIE at 1PP was increased. There was no significant difference in error rate (ER) between 1PP and 3PP. Actually, the error rate improved after 1PP and 3PP, which is considered to be due to the learning effect.

・fNIRSデータ
fNIRSの光学データは、修正Beer-Lambertの法則に基づいて分析する。サンプリングレートを10Hzに設定し、O2HbとHbシグナルとの差を解析する。
-FNIRS data The optical data of fNIRS is analyzed based on the modified Beer-Lambert's law. The sampling rate is set to 10 Hz, and the difference between the O2Hb and the Hb signal is analyzed.

O2HbとHbとの血行動態的脳反応を同定するために、実験的因子を参考にして一般線形モデルを採用する。必要であれば、LBPA40解剖学的標識システムに従って、関心領域(Region of Interest:ROI)を作成するために、隣接するチャネルをほとんど組み合わせなくてもよい。 To identify the hemodynamic brain response between O2Hb and Hb, a general linear model is adopted with reference to experimental factors. If desired, there is little need to combine adjacent channels to create a Region of Interest (ROI) according to the LBPA40 anatomical labeling system.

次に、各チャネルのO2Hb及びHb濃度の変化を以下のステップに従って処理する。 Next, changes in O2Hb and Hb concentrations in each channel are processed according to the following steps.

(i)提供された特定のソフトウェアを使用することにより、生データから皮膚血流(すなわち、心拍動)を除外する。 (I) Exclude cutaneous blood flow (ie, heartbeat) from raw data by using the specific software provided.

(ii)Mayer波、高周波変動及びベースライン・ドリフトの影響を説明するために、0.01〜0.5Hzのバンドパスフィルタを使用して各チャネルを前処理する。 (Ii) Each channel is preprocessed using a 0.01-0.5 Hz bandpass filter to account for the effects of Mayer waves, high frequency fluctuations and baseline drift.

(iii)生のO2Hb濃度を滑らかにするため、3秒間の移動平均を行なう。 (Iii) A moving average for 3 seconds is performed to smooth the raw O2Hb concentration.

(iv)ストループ課題は、各中立、一致、不整合な条件をランダムな順序で提示する事象関連デザインで用いるため、各チャネル(又は組み合わせたROI)からO2Hb濃度の各条件に関連する変化を拾い上げる。特に、課題開始2秒前のO2Hb濃度の変化量の平均値を「ベースライン」、刺激間間隔の開始10秒後を「血管反応」として、各ストループ課題条件で算出する。これは、NIRSシグナルが被験者の反応に対して遅れるためである。 (Iv) The Stroop task picks up changes associated with each condition of O2Hb concentration from each channel (or combined ROI) because it is used in an event-related design that presents each neutral, matching, and inconsistent condition in a random order. .. In particular, the average value of the amount of change in the O2Hb concentration 2 seconds before the start of the task is defined as the "baseline", and 10 seconds after the start of the interval between stimuli is defined as the "vascular reaction", and is calculated under each Stroop task condition. This is because the NIRS signal is delayed with respect to the subject's response.

(v)各チャネルのO2Hb濃度の平均値を、直線変換を用いて正規化値に換算し、ベースライン期間の2秒間におけるO2Hb濃度の平均±標準偏差が0±1(AU)になるようにする。この方法は、被験者間及び皮質領域間の異なる経路長因子の影響を回避できるため、有用であると思われる。 (V) The average value of the O2Hb concentration of each channel is converted into a normalized value using a linear conversion so that the average ± standard deviation of the O2Hb concentration in 2 seconds of the baseline period becomes 0 ± 1 (AU). To do. This method appears to be useful because it avoids the effects of different pathway length factors between subjects and between cortical regions.

(vi)最後に、目標ROI領域上のチャネルは、最終的には各ストループ課題条件でそれぞれ平均化される。 (Vi) Finally, the channels on the target ROI region are finally averaged for each Stroop task condition.

図12及び図13は、本試験により得られた左背外側前頭前野(left DorsoLateral PreFrontal Cortex:lDLPFC)におけるストループ干渉に関連するO2Hbの変化の一例を示す図である。図12に示すように、1PPでのvHIE後、lDLPFCのより高い活性化が認められる。vHIE前(pre)と比較し、vHIE後(post)ではO2Hbシグナルが約17倍になっている。これは、実行機能の目標領域である。目標領域は、物理的な世界において、被験者の実際のHIEセッション後に認められるlDLPFCの皮質活性化の有意な増加に対応する。また、図13のグラフに示すように、刺激が表われてから数秒後に、3PPに対して1PPでより高いピーク活性化が存在することが認められる。 12 and 13 are diagrams showing an example of changes in O2Hb associated with Stroop interference in the left Dorsolateral Prefrontal Cortex (lDLPFC) obtained in this test. As shown in FIG. 12, higher activation of lDLPFC is observed after vHIE at 1PP. Compared with before vHIE (pre), the O2Hb signal is about 17 times higher after vHIE (post). This is the target area for executive function. The target area corresponds to a significant increase in cortical activation of lDLPFC observed after the subject's actual HIE session in the physical world. Also, as shown in the graph of FIG. 13, it is observed that there is a higher peak activation at 1PP relative to 3PP a few seconds after the stimulus appears.

・TDMSデータ
TDMSスコアから快感及び覚醒のレベルを算出する。まず、サンプルが正規母集団を表すこと、すなわち正規分布を示すことを確認する(いずれの介入条件においても快感及び覚醒のレベルのp値は全てShapiro-Wilk検定で0.05以上でなければならない)。
-TDMS data Calculate the level of pleasure and arousal from the TDMS score. First, make sure that the sample represents a normal population, that is, shows a normal distribution (all p-values for pleasure and arousal levels must be greater than or equal to 0.05 on the Shapiro-Wilk test under any intervention condition. ).

同様に、全ての被験者が同じベースラインレベルから始まるように、快感及び覚醒のレベルがセッション間で異ならないかどうかをチェックする(1PP前及び3PP前の結果を比較する)。つまり、介入前の結果から介入後の結果を差し引く(after - before)ように進めることができる。 Similarly, check that the levels of pleasure and arousal do not differ between sessions so that all subjects start at the same baseline level (compare pre-PP and pre-3PP results). In other words, it is possible to proceed by subtracting the post-intervention result from the pre-intervention result (after-before).

1PPと3PPとを比較するANOVAを実施することにより、vHIE後、特に1PPで介入後に、覚醒レベル(必ずしも快楽レベルではない)の増加が認められることが予測される。 By performing ANOVA comparing 1PP and 3PP, it is predicted that an increase in arousal level (not necessarily pleasure level) will be observed after vHIE, especially after intervention with 1PP.

図14は、本試験により得られたTDMSデータの分析結果の一例を示す図である。図14に示すように、快感(pleasure)及び覚醒(arousal)レベルの増加が認められる。 FIG. 14 is a diagram showing an example of the analysis result of the TDMS data obtained in this test. As shown in FIG. 14, an increase in pleasure and arousal levels is observed.

<<相関>>
発明者の仮説に対する決定的な相関は、ストループ課題とfNIRSデータとの関係に関するものである。発明者は、ベースライン基準として、両介入条件におけるvHIE前のストループ課題中に主に活性化された皮質領域を最初に調査する。次に、2つの介入条件の不一致・中立の対比をROI分析の基質として平均化する。全てのROIのO2Hb変化を伴うRT及びERの不一致・中立の差異は、介入条件(1PP及び3PP)及び時間(vHIEの前後)を因子として考慮した反復測定ANOVAで処理される。
<< Correlation >>
The decisive correlation to the inventor's hypothesis concerns the relationship between the Stroop task and fNIRS data. As a baseline criterion, the inventor first investigates the cortical regions that were predominantly activated during the pre-vHIE Stroop task in both intervention conditions. Next, the inconsistency / neutral contrast between the two intervention conditions is averaged as a substrate for ROI analysis. RT and ER discrepancies / neutral differences with O2Hb changes in all ROIs are treated with repeated measures ANOVA with intervention conditions (1PP and 3PP) and time (before and after vHIE) as factors.

これに加えて、ストループ課題のデータと皮質活性化又はTDMSの結果との関係を二項式で検討する。各変数について、以下の差異が計算される。いずれの値も2つの発生率間の対応を調べるためにMcNemarテストにかけられる。 In addition to this, the relationship between the Stroop task data and the results of cortical activation or TDMS is examined by a binomial formula. For each variable, the following differences are calculated. Both values are subjected to a McNemar test to determine the correspondence between the two incidences.

{1PP条件における[vHIE後の(不一致 - 中立)] - [vHIE前の(不一致 - 中立)]}
- {3PP条件における[vHIE後の(不一致 - 中立)] - [vHIE前の(不一致 - 中立)]}
{[Post-vHIE (mismatch-neutral)]-[Before vHIE (mismatch-neutral)] in 1PP condition}
-{[Post-vHIE (mismatch-neutral)]-[Before vHIE (mismatch-neutral)] in 3PP conditions}}

<<結論>>
このクロスオーバー無作為化比較試験は、HIEが実行機能とその神経基盤に急性の有益な結果をもたらすこと、及び、自身のアバターの動きは、実際に動くときと同等の、実体に測定可能な結果を生み出すことができること、という仮定から始まる。その結果、発明者は、自身のアバターによって行なわれるvHIE介入が、実行機能に対して同じ有益な急性効果を有することができるという仮説を立てた。
<< Conclusion >>
This crossover randomized controlled trial shows that HIE has acute beneficial consequences for executive function and its neural basis, and that the movement of its avatar is measurable in substance, comparable to when it actually moves. It starts with the assumption that it can produce results. As a result, the inventor hypothesized that vHIE interventions performed by his avatar could have the same beneficial acute effects on executive function.

上述した手順による試験によって、発明者は、2つのvHIE介入条件の前後で、実行機能に対する急性の有益な効果に関する仮説を検証するために、ストループ課題での被験者の成績を記録し、同時に、fNIRSでPFCに亘る皮質血行動態変化を記録した。これにより、発明者は、反応時間及び精度に関して、ストループ課題でよりよい成績を見出し、1PPでのvHIE後の神経相関領域(すなわちPFC)のより高い活性化を見出すことを予測した。 By testing according to the procedure described above, the inventor recorded the subject's performance on the Stroop task before and after the two vHIE intervention conditions to test hypotheses about acute beneficial effects on executive function, and at the same time fNIRS. Cortical hemodynamic changes across PFC were recorded in. This led the inventor to find better results in the Stroop task with respect to reaction time and accuracy, and to find higher activation of the neural correlation region (ie PFC) after vHIE at 1PP.

以上のように、本試験により、理論的観点から、実際の動きがなくても、SoBOとSoAが身体的・認知的パラメータを調節できることを証明することができた。また、臨床的観点から、これらの結果は、認知機能と身体機能とを同時に、安全な環境で訓練するために有用であり得ることがわかった。 As described above, this test proved that SoBO and SoA can regulate physical and cognitive parameters from a theoretical point of view without actual movement. Also, from a clinical point of view, these results have been found to be useful for training cognitive and physical functions at the same time in a safe environment.

〔1−2〕一実施形態に係る表示システムの構成例
そこで、一実施形態では、クロスオーバー無作為化比較試験を通じて証明された仮説に基づき、利用者の身体活動の制限によらず、身体機能及び認知機能の改善を実現する表示システムを提供すること、及び、その手法について説明する。
[1-2] Configuration example of display system according to one embodiment Therefore, in one embodiment, based on a hypothesis proved through a crossover randomized controlled trial, physical function is not restricted by the physical activity of the user. And to provide a display system that realizes improvement of cognitive function, and its method will be described.

図15は、一実施形態の一例としての表示システム10の構成例を示す図である。図15に示すように、表示システム10は、例示的に、図1に示すHMD1、及び、PC2を備えてよい。 FIG. 15 is a diagram showing a configuration example of the display system 10 as an example of one embodiment. As shown in FIG. 15, the display system 10 may optionally include the HMD1 and the PC2 shown in FIG.

HMD1は、仮想現実ヘッドマウントディスプレイの一例である。HMD1は、図1に例示するように、上述した2つのディスプレイ1a、及び、ケーブル1bを備えてよい。 HMD1 is an example of a virtual reality head-mounted display. The HMD 1 may include the two displays 1a and the cable 1b described above, as illustrated in FIG.

ケーブル1bは、映像信号を出力するPC2に接続される。ケーブル1bとしては、HDMI(High-Definition Multimedia Interface)(登録商標)やDisplayPort等の規格に準拠したケーブルが挙げられる。HMD1は、ケーブル1bを介したPC2からの表示制御によって、IVRの仮想環境をディスプレイ1aに表示してよい。 The cable 1b is connected to the PC2 that outputs a video signal. Examples of the cable 1b include cables conforming to standards such as HDMI (High-Definition Multimedia Interface) (registered trademark) and DisplayPort. The HMD1 may display the virtual environment of the IVR on the display 1a by the display control from the PC2 via the cable 1b.

なお、HMD1は、自身が記憶する映像コンテンツに基づき映像信号を生成し表示してもよく、この場合、表示システム10からPC2及びケーブル1bが省略されてもよい。例えば、HMD1は、有線又は無線通信により、図示しないサーバ(クラウドサーバを含む)と接続可能であってよく、或いは、有線又は無線通信により、映像コンテンツを格納する記録媒体と接続可能であってよい。 The HMD 1 may generate and display a video signal based on the video content stored by itself. In this case, the PC 2 and the cable 1b may be omitted from the display system 10. For example, the HMD1 may be connectable to a server (including a cloud server) (not shown) by wire or wireless communication, or may be connectable to a recording medium for storing video content by wire or wireless communication. ..

PC2は、HMD1の表示制御を行なう情報処理装置又はコンピュータの一例であり、ケーブル1bを介してHMD1と接続されてよい。PC2は、PC2が記憶する映像コンテンツに基づき、仮想現実空間(VR空間)の映像信号を生成し、生成した映像信号をHMD1に送信することで、HMD1に映像を表示させる。なお、PC2は、HMD1が有するトラッキング機能によってHMD1から送信された制御信号に応じて、例えば利用者(HMD1)の動きと連動した映像がディスプレイ1aに表示されるように、映像信号を制御してよい。 The PC 2 is an example of an information processing device or a computer that controls the display of the HMD 1, and may be connected to the HMD 1 via a cable 1b. The PC2 generates a video signal in a virtual reality space (VR space) based on the video content stored in the PC2, and transmits the generated video signal to the HMD1 to display the video on the HMD1. The PC2 controls the video signal according to the control signal transmitted from the HMD1 by the tracking function of the HMD1 so that, for example, an image linked to the movement of the user (HMD1) is displayed on the display 1a. Good.

〔1−3〕一実施形態に係るコンピュータのハードウェア構成例
図16は、コンピュータ3のハードウェア(HW)構成例を示すブロック図である。図15に示すPC2は、コンピュータ3の一例である。また、HMD1が、映像コンテンツの取得及び記憶、並びに、映像信号の生成に対応する場合、HMD1自体、或いは、HMD1が備える制御装置がコンピュータ3の一例である。
[1-3] Computer Hardware Configuration Example According to One Embodiment FIG. 16 is a block diagram showing a hardware (HW) configuration example of the computer 3. PC2 shown in FIG. 15 is an example of computer 3. Further, when the HMD1 corresponds to the acquisition and storage of video contents and the generation of video signals, the HMD1 itself or the control device included in the HMD1 is an example of the computer 3.

図16に示すように、コンピュータ3は、HW構成として、例示的に、プロセッサ3a、メモリ3b、記憶装置3c、IF(Interface)部3d、I/O(Input / Output)部3e、及び読取部3fを備えてよい。 As shown in FIG. 16, the computer 3 has an HW configuration, for example, a processor 3a, a memory 3b, a storage device 3c, an IF (Interface) unit 3d, an I / O (Input / Output) unit 3e, and a reading unit. 3f may be provided.

プロセッサ3aは、種々の制御や演算を行なう演算処理装置の一例である。プロセッサ3aは、コンピュータ3内の各ブロックとバス3iで相互に通信可能に接続されてよい。なお、プロセッサ3aは、複数のプロセッサを含むマルチプロセッサであってもよいし、複数のプロセッサコアを有するマルチコアプロセッサであってもよく、或いは、マルチコアプロセッサを複数有する構成であってもよい。 The processor 3a is an example of an arithmetic processing unit that performs various controls and operations. The processor 3a may be connected to each block in the computer 3 so as to be able to communicate with each other by the bus 3i. The processor 3a may be a multiprocessor including a plurality of processors, a multicore processor having a plurality of processor cores, or a configuration having a plurality of multicore processors.

プロセッサ3aとしては、例えば、CPU、MPU、GPU、APU、DSP、ASIC、FPGA等の集積回路(IC:Integrated Circuit)が挙げられる。なお、プロセッサ3aとして、これらの集積回路の2以上の組み合わせが用いられてもよい。CPUはCentral Processing Unitの略称であり、MPUはMicro Processing Unitの略称である。GPUはGraphics Processing Unitの略称であり、APUはAccelerated Processing Unitの略称である。DSPはDigital Signal Processorの略称であり、ASICはApplication Specific ICの略称であり、FPGAはField-Programmable Gate Arrayの略称である。 Examples of the processor 3a include integrated circuits (ICs) such as CPUs, MPUs, GPUs, APUs, DSPs, ASICs, and FPGAs. A combination of two or more of these integrated circuits may be used as the processor 3a. CPU is an abbreviation for Central Processing Unit, and MPU is an abbreviation for Micro Processing Unit. GPU is an abbreviation for Graphics Processing Unit, and APU is an abbreviation for Accelerated Processing Unit. DSP is an abbreviation for Digital Signal Processor, ASIC is an abbreviation for Application Specific IC, and FPGA is an abbreviation for Field-Programmable Gate Array.

メモリ3bは、種々のデータやプログラム等の情報を格納するHWの一例である。メモリ3bとしては、例えばDRAM(Dynamic Random Access Memory)等の揮発性メモリが挙げられる。 The memory 3b is an example of an HW that stores information such as various data and programs. Examples of the memory 3b include a volatile memory such as a DRAM (Dynamic Random Access Memory).

記憶装置3cは、種々のデータやプログラム等の情報を格納するHWの一例である。記憶装置3cとしては、HDD(Hard Disk Drive)等の磁気ディスク装置、SSD(Solid State Drive)等の半導体ドライブ装置、不揮発性メモリ等の各種記憶装置が挙げられる。不揮発性メモリとしては、例えば、フラッシュメモリ、SCM(Storage Class Memory)、ROM(Read Only Memory)等が挙げられる。 The storage device 3c is an example of an HW that stores information such as various data and programs. Examples of the storage device 3c include a magnetic disk device such as an HDD (Hard Disk Drive), a semiconductor drive device such as an SSD (Solid State Drive), and various storage devices such as a non-volatile memory. Examples of the non-volatile memory include flash memory, SCM (Storage Class Memory), ROM (Read Only Memory) and the like.

また、記憶装置3cは、コンピュータ3の各種機能の全部若しくは一部を実現するプログラム3gを格納してよい。例えば、PC2のプロセッサ3aは、記憶装置3cに格納されたプログラム3g(例えば表示プログラム)をメモリ3bに展開して実行することにより、PC2としての機能を実現できる。また、HMD1のプロセッサ3aは、記憶装置3cに格納されたプログラム3g(例えば表示プログラム)をメモリ3bに展開して実行することにより、HMD1としての機能を実現できる。 Further, the storage device 3c may store a program 3g that realizes all or a part of various functions of the computer 3. For example, the processor 3a of the PC2 can realize the function as the PC2 by expanding and executing the program 3g (for example, a display program) stored in the storage device 3c in the memory 3b. Further, the processor 3a of the HMD1 can realize the function as the HMD1 by expanding and executing the program 3g (for example, a display program) stored in the storage device 3c in the memory 3b.

IF部3dは、ネットワーク又は他の装置との間の接続及び通信の制御等を行なう通信IFの一例である。例えば、IF部3dは、イーサネット(登録商標)等のLAN(Local Area Network)、HDMI(登録商標)、DisplayPort等にそれぞれ準拠した1以上のアダプタを含んでよい。これらのアダプタは、無線及び有線の一方又は双方の通信方式に対応してよい。例えば、プログラム3gは、当該通信IFのいずれかを介して、ネットワーク又は他の装置からコンピュータ3にダウンロードされ、記憶装置3cに格納されてもよい。 The IF unit 3d is an example of a communication IF that controls connection and communication with a network or other devices. For example, the IF unit 3d may include one or more adapters compliant with LAN (Local Area Network) such as Ethernet (registered trademark), HDMI (registered trademark), DisplayPort, and the like. These adapters may support one or both wireless and wired communication methods. For example, the program 3g may be downloaded to the computer 3 from the network or other device via any of the communication IFs and stored in the storage device 3c.

I/O部3eは、入力装置、及び、出力装置、の一方又は双方を含んでよい。入力装置としては、例えば、キーボード、マウス、タッチパネル等が挙げられる。出力装置としては、例えば、モニタ、プロジェクタ、プリンタ等が挙げられる。HMD1のディスプレイ1aは、I/O部3eの出力装置の一例である。 The I / O unit 3e may include one or both of an input device and an output device. Examples of the input device include a keyboard, a mouse, a touch panel, and the like. Examples of the output device include a monitor, a projector, a printer and the like. The display 1a of the HMD1 is an example of an output device of the I / O unit 3e.

読取部3fは、記録媒体3hに記録されたデータやプログラムの情報を読み出すリーダの一例である。読取部3fは、記録媒体3hを接続可能又は挿入可能な接続端子又は装置を含んでよい。読取部3fとしては、例えば、USB(Universal Serial Bus)等に準拠したアダプタ、記録ディスクへのアクセスを行なうドライブ装置、SDカード等のフラッシュメモリへのアクセスを行なうカードリーダ等が挙げられる。なお、記録媒体3hにはプログラム3gが格納されてもよく、読取部3fが記録媒体3hからプログラム3gを読み出して記憶装置3cに格納してもよい。 The reading unit 3f is an example of a reader that reads data and program information recorded on the recording medium 3h. The reading unit 3f may include a connection terminal or device to which the recording medium 3h can be connected or inserted. Examples of the reading unit 3f include an adapter compliant with USB (Universal Serial Bus) and the like, a drive device for accessing a recording disk, a card reader for accessing a flash memory such as an SD card, and the like. The program 3g may be stored in the recording medium 3h, or the reading unit 3f may read the program 3g from the recording medium 3h and store it in the storage device 3c.

記録媒体3hとしては、例示的に、磁気/光ディスクやフラッシュメモリ等の非一時的なコンピュータ読取可能な記録媒体が挙げられる。磁気/光ディスクとしては、例示的に、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク、HVD(Holographic Versatile Disc)等が挙げられる。フラッシュメモリとしては、例示的に、USBメモリやSDカード等の半導体メモリが挙げられる。 Examples of the recording medium 3h include a non-temporary computer-readable recording medium such as a magnetic / optical disk or a flash memory. Examples of magnetic / optical disks include flexible discs, CDs (Compact Discs), DVDs (Digital Versatile Discs), Blu-ray discs, HVDs (Holographic Versatile Discs), and the like. Examples of the flash memory include semiconductor memories such as USB memory and SD card.

上述したコンピュータ3のHW構成は例示である。従って、コンピュータ3内でのHWの増減(例えば任意のブロックの追加や削除)、分割、任意の組み合わせでの統合、又は、バスの追加若しくは削除等は適宜行なわれてもよい。例えば、PC2は、I/O部3e及び読取部3fの少なくとも一方を備えなくてもよい。また、HMD1は、読取部3fを備えなくてもよい。さらに、HMD1は、トラッキング機能を実現するための種々のセンサ(角度センサ、位置センサ、慣性センサ、電波センサ、及び、カメラ等)のデバイスをさらに備えてもよい。 The HW configuration of the computer 3 described above is an example. Therefore, the increase / decrease of HW (for example, addition or deletion of arbitrary blocks), division, integration in any combination, addition or deletion of buses, etc. in the computer 3 may be performed as appropriate. For example, the PC 2 does not have to include at least one of the I / O unit 3e and the reading unit 3f. Further, the HMD1 does not have to include the reading unit 3f. Further, the HMD1 may further include devices of various sensors (angle sensor, position sensor, inertial sensor, radio wave sensor, camera, etc.) for realizing the tracking function.

〔1−4〕一実施形態に係る表示システムの機能構成例
図17は、HMD1及びPC2の機能構成例を示すブロック図である。なお、図17では、PC2が映像コンテンツに基づき映像信号を生成しHMD1に出力する場合を例に挙げて説明するが、HMD1が映像コンテンツに基づき映像信号を生成し表示する場合(PC2が不要の場合)は、図17に示すPC2の機能構成をHMD1が備えてよい。
[1-4] Functional Configuration Example of Display System According to One Embodiment FIG. 17 is a block diagram showing a functional configuration example of HMD1 and PC2. In FIG. 17, a case where the PC2 generates a video signal based on the video content and outputs the video signal to the HMD1 will be described as an example, but a case where the HMD1 generates and displays the video signal based on the video content (PC2 is unnecessary). In the case), the HMD1 may have the functional configuration of the PC2 shown in FIG.

HMD1は、図17に例示するように、通信部11、メモリ部12、表示制御部13、表示部14、センサ部15、及び、操作部16を備えてよい。通信部11は、図16に示すIF部3dの一例であり、表示部14及び操作部16は、図16に示すI/O部3eの一例である。 As illustrated in FIG. 17, the HMD 1 may include a communication unit 11, a memory unit 12, a display control unit 13, a display unit 14, a sensor unit 15, and an operation unit 16. The communication unit 11 is an example of the IF unit 3d shown in FIG. 16, and the display unit 14 and the operation unit 16 are examples of the I / O unit 3e shown in FIG.

通信部11は、PC2との間で通信を行なう。例えば、通信部11は、通信路4を介して、PC2から映像信号を受信するとともに、PC2に制御信号を送信してよい。通信路4としては、図15に例示するケーブル1bが挙げられる。 The communication unit 11 communicates with the PC 2. For example, the communication unit 11 may receive a video signal from the PC 2 and transmit a control signal to the PC 2 via the communication path 4. As the communication path 4, the cable 1b illustrated in FIG. 15 can be mentioned.

メモリ部12は、HMD1の機能の実現に用いられる種々の情報を記憶する。例えば、メモリ部12は、PC2から受信した映像信号の情報(映像情報)、センサ部15が検出したセンシング情報、操作部16を介して入力された操作情報、等を記憶してよい。メモリ部12としては、例えば、HMD1が備えるメモリ3b及び記憶装置3c(図16参照)のうちの少なくとも一方が有する記憶領域により実現されてよい。 The memory unit 12 stores various information used to realize the function of the HMD1. For example, the memory unit 12 may store video signal information (video information) received from the PC 2, sensing information detected by the sensor unit 15, operation information input via the operation unit 16, and the like. The memory unit 12 may be realized by, for example, a storage area included in at least one of the memory 3b and the storage device 3c (see FIG. 16) included in the HMD1.

表示制御部13は、PC2から受信した映像情報をメモリ部12から読み出し、読み出した映像情報に基づき、表示部14にIVRの映像(IVR映像)を表示させる制御を行なう。表示部14としては、図1に例示するディスプレイ1aが挙げられる。 The display control unit 13 reads the video information received from the PC 2 from the memory unit 12, and controls the display unit 14 to display the IVR video (IVR video) based on the read video information. Examples of the display unit 14 include the display 1a illustrated in FIG.

一実施形態に係る表示制御部13は、例えば、上述したクロスオーバー無作為化比較試験で説明したものと同様のIVRセッションを表示部14に表示してよい。 The display control unit 13 according to one embodiment may display, for example, an IVR session similar to that described in the crossover randomized controlled trial described above on the display unit 14.

例えば、表示制御部13は、HMD1のユーザの容姿(少なくとも性別)を模したアバターの視点映像(1PP)でのvHIEのIVRセッションを表示部14に表示させる。IVRセッションでは、表示制御部13は、VR空間において、第1の表示処理と、第2の表示処理と、を所定回数繰り返してよい。 For example, the display control unit 13 causes the display unit 14 to display the vHIE IVR session in the viewpoint image (1PP) of the avatar that imitates the appearance (at least gender) of the user of the HMD1. In the IVR session, the display control unit 13 may repeat the first display process and the second display process a predetermined number of times in the VR space.

第1の表示処理では、表示制御部13は、ユーザのアバターが第1の運動強度で運動を行なうときのアバターの視点映像を、第1の時間期間に亘って、HMD1の表示部14に表示してよい。また、第2の表示処理では、表示制御部13は、当該VR空間において、ユーザのアバターが第1の運動強度よりも小さい第2の運動強度で運動を行なうときのアバターの視点映像を、第2の時間期間に亘って、HMD1の表示部14に表示してよい。 In the first display process, the display control unit 13 displays the viewpoint image of the avatar when the user's avatar exercises at the first exercise intensity on the display unit 14 of the HMD1 over the first time period. You can do it. Further, in the second display process, the display control unit 13 displays the viewpoint image of the avatar when the user's avatar exercises at a second exercise intensity smaller than the first exercise intensity in the VR space. It may be displayed on the display unit 14 of the HMD1 over a period of 2 hours.

第1の運動強度の運動としては、例えば、ランニング(走行)、サイクリング、スイミング、山登り(トレイル)、ダンス(エアロビクス)等の高強度有酸素運動が挙げられる。高強度有酸素運動の強度としては、例えば、ユーザの最大有酸素力の50%〜70%、一例として60%程度の強度であってよい。物理的な世界において、60%程度のHIEセッション後にlDLPFCの皮質活性化の有意な増加が見られたためである。 Examples of the exercise of the first exercise intensity include high-intensity aerobic exercise such as running (running), cycling, swimming, mountain climbing (trail), and dance (aerobics). The intensity of high-intensity aerobic exercise may be, for example, 50% to 70% of the user's maximum aerobic force, for example, about 60%. This is because in the physical world, there was a significant increase in cortical activation of lDLPFC after about 60% of HIE sessions.

第2の運動強度の運動としては、例えば、ウォーキング(遅い歩行、緩徐歩行)等の心肺負荷の小さい又はゼロに近い(例えば、ユーザの最大有酸素力の0%〜20%、一例として5%程度)の強度の運動が挙げられる。また、他の例として、第1の運動強度の運動がサイクリング、スイミング、山登り(トレイル)、ダンス(エアロビクス)等である場合、第2の運動強度は、これらの運動の運動強度を上記のように0%〜20%、一例として5%程度まで低下させた運動強度であってもよい。 As the exercise of the second exercise intensity, for example, the cardiopulmonary load such as walking (slow walking, slow walking) is small or close to zero (for example, 0% to 20% of the user's maximum aerobic force, for example, 5%. (Degree) intensity of exercise. Further, as another example, when the exercise of the first exercise intensity is cycling, swimming, mountain climbing (trail), dance (aerobics), etc., the second exercise intensity is the exercise intensity of these exercises as described above. The exercise intensity may be reduced to 0% to 20%, for example, about 5%.

一実施形態においては、表示制御部13は、アバターがランニングを行なうときの1PPのIVR映像(図5、図7参照)と、アバターがウォーキングを行なうときの1PPのIVR映像(図6、図7参照)と、を繰り返し表示部14に表示してよい。 In one embodiment, the display control unit 13 has a 1PP IVR image when the avatar is running (see FIGS. 5 and 7) and a 1PP IVR image when the avatar is walking (FIGS. 6 and 7). (See) and may be repeatedly displayed on the display unit 14.

第1の時間期間及び第2の時間期間は、例えば、上述したクロスオーバー無作為化比較試験に従い、それぞれ、30秒であってよい。なお、これらの時間期間は、30秒に限定されるものではなく、数秒〜数分程度の範囲で適宜変更されてもよい。また、第1の時間期間及び第2の時間期間が互いに異なってもよい。 The first time period and the second time period may be, for example, 30 seconds, respectively, according to the crossover randomized controlled trials described above. Note that these time periods are not limited to 30 seconds, and may be appropriately changed in the range of several seconds to several minutes. Further, the first time period and the second time period may be different from each other.

表示制御部13は、上述した第1の表示処理と第2の表示処理とを、所定回数、例えば、上述したクロスオーバー無作為化比較試験に従い、8回(8セット)分繰り返してよい。なお、第1の表示処理と第2の表示処理との繰り返し回数は、8に限定されるものではなく、適宜変更されてもよい。 The display control unit 13 may repeat the first display process and the second display process described above 8 times (8 sets) according to a predetermined number of times, for example, the crossover randomized controlled trial described above. The number of repetitions of the first display process and the second display process is not limited to 8, and may be changed as appropriate.

例えば、表示制御部13は、図2の符号E(E′)に示すvHIEを、アバターの視点映像として(1PPで)表示部14に表示させてよい。 For example, the display control unit 13 may display the vHIE shown by the reference numeral E (E') in FIG. 2 on the display unit 14 (at 1PP) as the viewpoint image of the avatar.

また、表示制御部13は、vHIEの表示の前に、IVR空間において、アバターが静止しているときのアバターの視点映像を、第3の時間期間に亘って、HMD1の表示部14に表示してよい。 Further, before the display of vHIE, the display control unit 13 displays the viewpoint image of the avatar when the avatar is stationary in the IVR space on the display unit 14 of the HMD1 over a third time period. You can.

「アバターが静止している」とは、アバターが走行又は歩行等の運動を行なっていない状態を意味してよく、例えば、アバターが直立、着座、又は寝た状態等、アバター(換言すればユーザ)がリラックスした(ニュートラルな)状態であってよい。アバターが静止している状態の運動強度(第3の運動強度)は、vHIEの第1及び第2の運動強度よりも十分に小さい(例えば0に近い)強度であってよい。 "The avatar is stationary" may mean that the avatar is not performing any exercise such as running or walking, for example, the avatar is upright, sitting, or lying down, the avatar (in other words, the user). ) May be in a relaxed (neutral) state. The exercise intensity (third exercise intensity) in the state where the avatar is stationary may be sufficiently smaller (for example, close to 0) than the first and second exercise intensity of vHIE.

第3の時間期間は、例えば、上述したクロスオーバー無作為化比較試験におけるベースライン(図2の符号C参照)の期間の一例であり、例えば、4分程度であってよい。なお、第3の時間期間は、4分に限定されるものではなく、数秒〜数分程度の範囲で適宜変更されてもよい。 The third time period is, for example, an example of the baseline (see reference numeral C) period in the crossover randomized controlled trial described above, and may be, for example, about 4 minutes. The third time period is not limited to 4 minutes, and may be appropriately changed in the range of several seconds to several minutes.

上述したベースラインの期間は、ユーザに対して、アバターを自分であるかのように感じさせる(換言すれば、SoBOを高める)のに重要である。アバターを自分であるかのように感じるのに要する時間は、人によって異なる。このため、vHIEの前に、アバターが動作しないベースラインの期間を設けることで、ユーザに対して、アバターに対する所有権を確実に感じさせるようにすることができる。なお、ベースラインの期間では、ユーザの安定した心拍数を測定することができる。ベースラインで測定された心拍数は、vHIEの期間中に測定される心拍数に対する基準心拍数とすることができる。 The baseline period described above is important for making the user feel as if he / she is the avatar (in other words, increase SoBO). The time it takes to feel an avatar as if you were yourself varies from person to person. Therefore, by providing a baseline period during which the avatar does not operate before vHIE, it is possible to ensure that the user feels the ownership of the avatar. During the baseline period, the user's stable heart rate can be measured. The heart rate measured at baseline can be the reference heart rate relative to the heart rate measured during the vHIE period.

センサ部15は、HMD1を装着するユーザの頭部の角度や動き、眼球(視線)の動き、等を検知する、角度センサ、位置センサ、慣性センサ、電波センサ、カメラ等の少なくとも1つを含む種々のセンサを備えるモジュールである。センサ部15は、センサにより検出したセンシング情報をメモリ部12に記録してよい。センシング情報は、ヘッドトラッキングやアイトラッキングを行なうための制御情報としてPC2に利用されてよい。 The sensor unit 15 includes at least one of an angle sensor, a position sensor, an inertial sensor, a radio wave sensor, a camera, and the like that detect the angle and movement of the head of the user wearing the HMD 1, the movement of the eyeball (line of sight), and the like. It is a module equipped with various sensors. The sensor unit 15 may record the sensing information detected by the sensor in the memory unit 12. The sensing information may be used by the PC 2 as control information for performing head tracking or eye tracking.

操作部16は、HMD1に設けられた或いは接続された操作手段を介してユーザにより入力された操作情報をメモリ部12に記録してよい。操作手段としては、例えば、操作ボタン、操作コントローラ、マウス、キーボード等のうちの少なくとも1つが挙げられる。なお、操作情報のうち、表示制御部13に対する操作要求は、操作部16から表示制御部13に出力されてもよい。 The operation unit 16 may record the operation information input by the user via the operation means provided or connected to the HMD 1 in the memory unit 12. Examples of the operating means include at least one of an operating button, an operating controller, a mouse, a keyboard, and the like. Of the operation information, the operation request to the display control unit 13 may be output from the operation unit 16 to the display control unit 13.

PC2は、図17に例示するように、通信部21、メモリ部22、記憶部23、映像出力部24、及び、操作部25を備えてよい。通信部21は、図16に示すIF部3dの一例であり、操作部25は、図16に示すI/O部3eの一例である。 As illustrated in FIG. 17, the PC 2 may include a communication unit 21, a memory unit 22, a storage unit 23, a video output unit 24, and an operation unit 25. The communication unit 21 is an example of the IF unit 3d shown in FIG. 16, and the operation unit 25 is an example of the I / O unit 3e shown in FIG.

通信部21は、HMD1との間で通信を行なう。例えば、通信部21は、通信路4を介して、HMD1に映像信号を送信するとともに、HMD1から制御信号を受信してよい。 The communication unit 21 communicates with the HMD1. For example, the communication unit 21 may transmit a video signal to the HMD 1 and receive a control signal from the HMD 1 via the communication path 4.

メモリ部22は、PC2の機能の実現に用いられる種々の情報を記憶する。例えば、メモリ部22は、HMD1に送信する映像信号の情報(映像情報)、HMD1から受信した制御情報、等を記憶してよい。メモリ部22としては、例えば、PC2が備えるメモリ3b及び記憶装置3c(図16参照)のうちの少なくとも一方が有する記憶領域により実現されてよい。 The memory unit 22 stores various information used for realizing the functions of the PC 2. For example, the memory unit 22 may store video signal information (video information) transmitted to the HMD 1, control information received from the HMD 1, and the like. The memory unit 22 may be realized by, for example, a storage area included in at least one of the memory 3b and the storage device 3c (see FIG. 16) included in the PC 2.

記憶部23は、HMD1に表示させるIVR映像の映像コンテンツを記憶する。映像コンテンツは、例えば、Unity(登録商標)等の開発環境により作成された映像ファイル(データ)であってもよいし、映像ファイルを作る過程のファイルであって、アバター等のモデルやVR空間を編集可能なプロジェクトファイルであってもよい。また、記憶部23は、映像ファイルやプロジェクトファイルの加工又は編集等が可能な開発環境のプログラムを記憶してもよい。 The storage unit 23 stores the video content of the IVR video to be displayed on the HMD 1. The video content may be, for example, a video file (data) created by a development environment such as Unity (registered trademark), or a file in the process of creating a video file, such as a model such as an avatar or a VR space. It may be an editable project file. In addition, the storage unit 23 may store a program in a development environment capable of processing or editing a video file or a project file.

例えば、映像コンテンツは、アバター、アニメーション、仮想環境等を含んでよい。アバターは、性別、年齢、体型、容姿等を選択、切り替え可能であってもよい。アニメーションは、アバターの動き、例えば、第1及び第2の運動強度の動作を含んでよい。アニメーションは、vHIEの種類(例えば、ランニング、サイクリング、スイミング等)を選択、切り替え可能であってもよい。仮想環境は、アバターがvHIEを行なう環境、例えば、表示部14に表示される背景を含んでよい。一例として、仮想環境には、地面(床)、風景(屋内或いは屋外)等が含まれてよい。 For example, the video content may include an avatar, an animation, a virtual environment, and the like. The avatar may be selectable and switchable by gender, age, body shape, appearance, and the like. The animation may include movements of the avatar, such as movements of first and second movement intensity. The animation may be switchable by selecting and switching the type of vHIE (eg, running, cycling, swimming, etc.). The virtual environment may include an environment in which the avatar performs vHIE, for example, a background displayed on the display unit 14. As an example, the virtual environment may include a ground (floor), a landscape (indoor or outdoor), and the like.

映像出力部24は、記憶部23に記録された映像コンテンツに基づき、HMD1に送信する映像信号を出力する。例えば、映像出力部24は、HMD1(表示部14)のIVR映像の表示能力や設定、プロファイル等に基づき、HMD1(表示部14)に送信する映像信号を生成する。なお、映像出力部24により出力される映像信号は、メモリ部22に一時的に格納され、通信部21によりメモリ部22から読み出されてHMD1に送信されてもよい。 The video output unit 24 outputs a video signal to be transmitted to the HMD 1 based on the video content recorded in the storage unit 23. For example, the video output unit 24 generates a video signal to be transmitted to the HMD 1 (display unit 14) based on the display capability, setting, profile, etc. of the IVR video of the HMD 1 (display unit 14). The video signal output by the video output unit 24 may be temporarily stored in the memory unit 22, read from the memory unit 22 by the communication unit 21, and transmitted to the HMD 1.

例えば、映像出力部24は、図2の符号E(E′)に示すvHIEを、アバターの視点映像として(1PPで)表示部14に表示するためのIVR映像の映像信号を出力してよい。一例として、映像出力部24は、映像コンテンツに基づき、IVR空間において、アバターが第1の運動強度で運動を行なうときの視点映像を第1の時間期間に亘って出力する第1の出力処理と、第2の運動強度で運動を行なうときの視点映像を第2の時間期間に亘って出力する第2の出力処理と、を所定回数繰り返す仮想運動表示処理を実行してよい。 For example, the video output unit 24 may output a video signal of an IVR video for displaying the vHIE indicated by the reference numeral E (E') in FIG. 2 on the display unit 14 (at 1PP) as the viewpoint video of the avatar. As an example, the video output unit 24 has a first output process of outputting a viewpoint video when the avatar exercises at the first exercise intensity in the IVR space over a first time period based on the video content. , The second output process of outputting the viewpoint image when exercising at the second exercise intensity over the second time period, and the virtual motion display process of repeating the process a predetermined number of times may be executed.

また、映像出力部24は、HMD1から受信した制御情報に基づき映像信号を出力してよい。例えば、制御信号にセンシング情報が含まれる場合、映像出力部24は、IVR映像(アバターの視点映像)がセンシング情報に応じた動きになる(追従する)ように、映像コンテンツに基づき映像信号を出力する。一例として、センシング情報がユーザの頭部の俯いた状態から正面を向いた状態への変化を示す場合、映像出力部24は、アバターの視点映像が俯いた状態(図5参照)から正面を向いた状態(図7参照)に変化するように、映像コンテンツに基づき映像信号を出力(変更)してよい。 Further, the video output unit 24 may output a video signal based on the control information received from the HMD1. For example, when the control signal includes sensing information, the video output unit 24 outputs a video signal based on the video content so that the IVR video (avatar's viewpoint video) moves (follows) according to the sensing information. To do. As an example, when the sensing information indicates a change from the state in which the user's head is depressed to the state in which the user's head is facing forward, the video output unit 24 faces the front from the state in which the viewpoint image of the avatar is depressed (see FIG. 5). The video signal may be output (changed) based on the video content so as to change to the state (see FIG. 7).

さらに、映像出力部24は、仮想運動表示処理の前に、IVR空間において、アバターが静止しているときのアバターの視点映像を、第3の時間期間に亘って出力する静止状態表示処理を実行してよい。静止状態表示処理は、上述のように、HMD1に対して、vHIEの表示前に、ベースライン期間を確保するための処理である。 Further, the video output unit 24 executes a stationary state display process of outputting the viewpoint image of the avatar when the avatar is stationary in the IVR space for a third time period before the virtual motion display process. You can do it. As described above, the rest state display process is a process for securing a baseline period for the HMD1 before displaying the vHIE.

また、映像出力部24は、例えば、制御信号に操作情報が含まれる場合、操作情報が示す操作内容に応じて、IVR映像(アバターの視点映像)の変更や、IVR映像への種々の情報のオーバレイ表示等を行なってよい。 Further, for example, when the control signal includes operation information, the video output unit 24 changes the IVR image (avatar's viewpoint image) or changes various information to the IVR image according to the operation content indicated by the operation information. Overlay display and the like may be performed.

操作部25は、PC2に設けられた或いは接続された操作手段を介してユーザにより入力された操作内容を受け付け、映像出力部24等に出力する。操作手段としては、例えば、マウス、キーボード等のうちの少なくとも1つが挙げられる。 The operation unit 25 receives the operation content input by the user via the operation means provided or connected to the PC 2, and outputs the operation content to the video output unit 24 or the like. Examples of the operating means include at least one of a mouse, a keyboard, and the like.

以上のように、一実施形態に係る表示システム10によれば、上述したクロスオーバー無作為化比較試験を通じて証明された、運動機能及び認知機能の改善に実際のHIEと同程度に有効である1PPでのvHIEを、ユーザに提供することができる。 As described above, according to the display system 10 according to the embodiment, 1PP, which is proved through the above-mentioned crossover randomized controlled trial, is as effective as the actual HIE in improving motor function and cognitive function. The vHIE in can be provided to the user.

これにより、例えば、運動をしない人、多忙な人、又は虚弱な状態にある高齢者等や、心臓疾患のある人、長期疾患後に回復した患者、又は運動障害のある患者等の、物理的な身体活動に制限のある人に対して、安全且つ快適な方法で、物理的なものと同様の有益な効果を奏する仮想的な身体活動を提供することができる。 As a result, for example, a person who does not exercise, a person who is busy, or an elderly person who is in a frail state, a person who has a heart disease, a patient who has recovered after a long-term illness, or a patient who has a movement disorder, etc. For people with limited physical activity, it is possible to provide virtual physical activity in a safe and comfortable manner that has the same beneficial effects as physical activity.

また、心臓又は筋力への負荷を与える物理的な運動と、vHIEとを組み合わせることにより、身体的及び認知的な観点から、両者の有効性を最大化することも可能である。 It is also possible to maximize the effectiveness of both from a physical and cognitive point of view by combining vHIE with physical exercise that exerts a load on the heart or muscle strength.

このように、一実施形態に係る表示システム10によれば、利用者の身体活動の制限によらず、身体機能及び認知機能の改善を実現することができる。 As described above, according to the display system 10 according to the embodiment, it is possible to improve the physical function and the cognitive function regardless of the limitation of the physical activity of the user.

〔1−5〕一実施形態に係る表示システムの動作例
図18は、一実施形態に係る表示システム10の動作例を示すシーケンス図である。図18に例示するように、HMD1の通信部11は、ユーザ操作による操作部16からの開始要求に応じて、PC2にvHIE開始通知を送信する(処理P1)。
[1-5] Operation Example of Display System According to One Embodiment FIG. 18 is a sequence diagram showing an operation example of the display system 10 according to one embodiment. As illustrated in FIG. 18, the communication unit 11 of the HMD1 transmits a vHIE start notification to the PC2 in response to a start request from the operation unit 16 by a user operation (process P1).

PC2の映像出力部24は、開始通知に応じて、記憶部23の映像コンテンツに基づき、HMD1に応じたvHIEの映像信号を生成し、通信部21を介してHMD1に送信する(処理P2)。HMD1の表示制御部13は、通信部11で受信した映像信号に基づき、表示部14にvHIE映像を表示させる(処理P3)。 In response to the start notification, the video output unit 24 of the PC2 generates a vHIE video signal corresponding to the HMD1 based on the video content of the storage unit 23, and transmits the vHIE video signal to the HMD1 via the communication unit 21 (process P2). The display control unit 13 of the HMD 1 causes the display unit 14 to display the vHIE video based on the video signal received by the communication unit 11 (process P3).

通信部11は、vHIE映像の表示中に、センサ部15で検出されたセンシング情報をPC2に送信する(処理P4)。映像出力部24は、センシング情報に基づきvHIEの映像信号を生成(補正)し、HMD1に送信する(処理P5)。表示制御部13は、補正後の映像信号に基づき表示部14にvHIE映像を表示させる(処理P6)。なお、処理P4〜P6は、vHIE映像の表示中に、センサ部15でセンシング情報が検出される都度実行されてよい。 The communication unit 11 transmits the sensing information detected by the sensor unit 15 to the PC 2 while displaying the vHIE image (process P4). The video output unit 24 generates (corrects) a vHIE video signal based on the sensing information and transmits it to the HMD1 (process P5). The display control unit 13 causes the display unit 14 to display the vHIE image based on the corrected image signal (process P6). The processes P4 to P6 may be executed each time the sensor unit 15 detects the sensing information during the display of the vHIE image.

通信部11は、ユーザ操作による操作部16からの終了要求に応じて、又は、映像コンテンツの終了に応じて、PC2にvHIE終了通知を送信すると(処理P7)、映像出力部24は、vHIE映像信号の出力を終了する(処理P8)。 When the communication unit 11 transmits the vHIE end notification to the PC 2 in response to the end request from the operation unit 16 by the user operation or in response to the end of the video content (process P7), the video output unit 24 sends the vHIE video. The output of the signal is terminated (process P8).

〔2〕第1実施例
〔2−1〕第1実施例について
一実施形態に係る表示システム10は、認知機能の改善又は低下防止のために、種々の利用場面に適用可能である。一例として、表示システム10は、高齢者施設、在宅介護、病院、リハビリセンタ等の施設において定期的に利用されてよい。
[2] First Example [2-1] About the First Example The display system 10 according to one embodiment can be applied to various usage situations in order to improve or prevent deterioration of cognitive function. As an example, the display system 10 may be used regularly in facilities such as elderly facilities, home care, hospitals, and rehabilitation centers.

これらの施設における表示システム10の利用は、運動機能及び認知機能に関する種々の試験とともに行なうことで、vHIEによる運動機能及び認知機能の改善効果を確認及び評価することができ、ユーザの認知機能の低下防止や、心身のリハビリを効率的に実現できる。 By using the display system 10 in these facilities together with various tests on motor function and cognitive function, it is possible to confirm and evaluate the improvement effect of motor function and cognitive function by vHIE, and the cognitive function of the user is deteriorated. Prevention and mental and physical rehabilitation can be realized efficiently.

以下、表示システム10を用いたIVRトレーニングの第1実施例を説明する。第1実施例では、表示システム10は、図2に示す実験セッションをベースとした、図19に示すセッションに従い動作するものとする。 Hereinafter, a first embodiment of IVR training using the display system 10 will be described. In the first embodiment, the display system 10 is based on the experimental session shown in FIG. 2 and operates according to the session shown in FIG.

図19に例示するように、セッションは、事前フェーズ、VRトレーニングフェーズ、及び、事後フェーズを含んでよい。 As illustrated in FIG. 19, the session may include a pre-phase, a VR training phase, and a post-phase.

事前フェーズでは、vHIE前のユーザの心理状態(気分)を計測するTDMS(符号A参照)、並びに、vHIEの有効性を測定するための、vHIE前の第1のストループ課題(符号B参照)、及び、vHIE前のfNIRSによる第1の皮質血行動態変化の測定(符号B参照)、が行なわれる。 In the pre-phase, TDMS (see reference numeral A) for measuring the psychological state (mood) of the user before vHIE, and the first stroop task before vHIE (see reference numeral B) for measuring the effectiveness of vHIE. And the first measurement of cortical hemodynamic changes by fNIRS before vHIE (see reference numeral B) is performed.

VRトレーニングフェーズでは、ベースライン(符号C参照)において、SoBO及びSoAに関するオンラインアンケート、及び、心拍数のベースライン記録が行なわれる。また、スピードテスト(符号D)では、第1の運動強度の調整が行なわれる。vHIE(1PP)(符号E及びE′)では、ユーザが着座し、身体(頭部以外)を動かさずに、アバターに注視した状態で、vHIEが行なわれる。なお、vHIEの期間中、複数の時点において、オンラインアンケートが実行される。また、vHIEの期間中、心拍数の計測が行なわれる。オフラインアンケート(符号F参照)では、SoBO及びSoAに関するオフラインアンケートが行なわれる。 In the VR training phase, an online questionnaire about SoBO and SoA and a baseline recording of heart rate are performed at baseline (see reference numeral C). Further, in the speed test (reference numeral D), the first exercise intensity is adjusted. In vHIE (1PP) (reference numerals E and E'), vHIE is performed with the user sitting and gazing at the avatar without moving the body (other than the head). During the vHIE period, online questionnaires will be executed at multiple points in time. Also, during the vHIE period, heart rate measurements are taken. In the offline questionnaire (see reference numeral F), an offline questionnaire regarding SoBO and SoA is performed.

事後フェーズでは、vHIE後のユーザの心理状態(気分)を計測するTDMS(符号G参照)、並びに、vHIEの有効性を測定するための、vHIE後の第2のストループ課題(符号H参照)、及び、vHIE後のfNIRSによる第2の皮質血行動態変化の測定(符号H参照)、が行なわれる。 In the post-phase, TDMS (see code G) to measure the user's psychological state (mood) after vHIE, and a second post-vHIE stroop task (see code H) to measure the effectiveness of vHIE. A second measurement of cortical hemodynamic changes by fNIRS after vHIE (see reference numeral H) is performed.

各フェーズの期間、各フェーズ内の各シーケンス(符号A〜H)の期間/内容/順序、及び、各シーケンスで実行される処理(TDMS、ストループ課題及びfNIRS、心拍数測定、vHIE、アンケート等)の期間/内容/順序等は、上述した図2に示す実験セッションと同様であってよいが、少なくとも一部が異なってもよい。 The period of each phase, the period / content / order of each sequence (reference numerals A to H) in each phase, and the processing executed in each sequence (TDMS, Stroop task and fNIRS, heart rate measurement, vHIE, questionnaire, etc.) The period / content / order of the above may be the same as that of the experimental session shown in FIG. 2 described above, but at least a part thereof may be different.

〔2−2〕第1実施例の機能構成例
図20は、第1実施例に係る表示システム10AのPC2Aの機能構成例を示すブロック図である。PC2Aは、各フェーズで行なわれる試験(TDMS、ストループ課題、fNIRS、心拍数測定、アバターのスピードテスト、オンライン及びオフラインアンケート等)において入力又は測定されるデータの収集サーバ(コンピュータ)として機能してよい。
[2-2] Functional Configuration Example of First Example FIG. 20 is a block diagram showing a functional configuration example of PC2A of the display system 10A according to the first embodiment. PC2A may function as a data collection server (computer) input or measured in tests performed in each phase (TDMS, stroop task, fNIRS, heart rate measurement, avatar speed test, online and offline questionnaire, etc.). ..

図20に示すように、第1実施例に係るPC2Aは、図17に示すPC2の機能に加えて、出力部26、収集部27、及び、分析部28を備えてよい。また、メモリ部22は、複数の収集データ22a、及び、分析結果22bを記憶してよい。なお、PC2Aと通信するHMD1は、図17に示すHMD1と同様の機能構成を備えてよい。 As shown in FIG. 20, the PC2A according to the first embodiment may include an output unit 26, a collection unit 27, and an analysis unit 28 in addition to the functions of the PC2 shown in FIG. Further, the memory unit 22 may store a plurality of collected data 22a and the analysis result 22b. The HMD1 communicating with the PC2A may have the same functional configuration as the HMD1 shown in FIG.

出力部26は、操作部25とともに、図15に示すI/O部3eの一例であり、例えば、モニタやスピーカ等の出力装置である。なお、第1実施例において、操作部25は、マウスやキーボードに加えて、マイクを含んでよい。 The output unit 26, together with the operation unit 25, is an example of the I / O unit 3e shown in FIG. 15, and is, for example, an output device such as a monitor or a speaker. In the first embodiment, the operation unit 25 may include a microphone in addition to the mouse and the keyboard.

出力部26は、操作部25とともに、図15に示すI/O部3eの一例であり、例えば、モニタ及びスピーカの一方又は双方を含んでよい。出力部26は、例えば、各フェーズで行なわれる試験の質問について、モニタに質問の表示画面を出力、及び/又は、スピーカから質問の音声を出力してよい。 The output unit 26 is an example of the I / O unit 3e shown in FIG. 15 together with the operation unit 25, and may include, for example, one or both of the monitor and the speaker. For example, the output unit 26 may output a question display screen to the monitor and / or output a voice of the question from the speaker for the question of the test performed in each phase.

一例として、出力部26は、TDMS、ストループ課題及びオフラインアンケートについては、それぞれ、質問(図4及び図8参照)の表示画面をモニタに表示してよい。一方、出力部26は、ユーザがHMD1を着用している間に行なわれるスピードテスト及びオンラインアンケートについては、質問の音声をスピーカから出力してよい。 As an example, the output unit 26 may display the display screen of the question (see FIGS. 4 and 8) on the monitor for the TDMS, the Stroop task, and the offline questionnaire, respectively. On the other hand, the output unit 26 may output the voice of the question from the speaker for the speed test and the online questionnaire performed while the user is wearing the HMD1.

収集部27は、通信部21とともに、図15に示すIF部3dの一例であり、例えば、心拍センサと有線又は無線により接続されてよい。収集部27は、各フェーズで行なわれる試験において入力又は測定される各種のデータを収集(取得)し、収集データ22aとしてメモリ部22に格納する。 The collecting unit 27, together with the communication unit 21, is an example of the IF unit 3d shown in FIG. 15, and may be connected to the heart rate sensor by wire or wirelessly, for example. The collection unit 27 collects (acquires) various types of data input or measured in the tests performed in each phase, and stores the collected data 22a in the memory unit 22.

一例として、収集部27は、キーボードやマウス等の操作部25を介して、HMD1を装着するユーザ(又はその介助者)により入力された、TDMS、ストループ課題及びオフラインアンケートの回答を収集してよい。また、例えば、収集部27は、マイク等の操作部25を介して、ユーザ(又はその介助者)により音声入力された、スピードテスト及びオンラインアンケートの回答を音声情報として収集してよい。さらに、収集部27は、心拍センサから受信する、ユーザの心拍データを収集してよい。 As an example, the collecting unit 27 may collect the answers of the TDMS, the Stroop task, and the offline questionnaire input by the user (or his / her assistant) who wears the HMD1 via the operation unit 25 such as a keyboard or a mouse. .. Further, for example, the collecting unit 27 may collect the answers of the speed test and the online questionnaire, which are voice-input by the user (or an assistant thereof), as voice information via the operation unit 25 such as a microphone. Further, the collecting unit 27 may collect the user's heart rate data received from the heart rate sensor.

分析部28は、収集部27が収集した収集データ22aを分析し、分析の結果を分析結果22bとしてメモリ部22に格納する。また、分析部28は、分析結果22bを表示する画面をPC2Aのモニタ等に出力してよい。 The analysis unit 28 analyzes the collected data 22a collected by the collection unit 27, and stores the analysis result as the analysis result 22b in the memory unit 22. Further, the analysis unit 28 may output a screen for displaying the analysis result 22b to a monitor or the like of the PC2A.

例えば、分析部28は、収集データ22aに基づいて、vHIEによる運動機能及び認知機能の改善の効果を分析してよい。一例として、分析部28は、ストループ課題の結果と、fNIRSの測定結果とに基づき、vHIEがユーザの認知機能に与える影響の評価結果を出力する。この評価結果は、例えば、図11〜図13に示す結果であってよく、この場合、分析部28は、上述した図11〜図13の結果の導出処理を実行してよい。 For example, the analysis unit 28 may analyze the effect of vHIE on the improvement of motor function and cognitive function based on the collected data 22a. As an example, the analysis unit 28 outputs the evaluation result of the influence of vHIE on the cognitive function of the user based on the result of the Stroop task and the measurement result of fNIRS. The evaluation result may be, for example, the result shown in FIGS. 11 to 13, and in this case, the analysis unit 28 may execute the above-mentioned derivation process of the result of FIGS. 11 to 13.

なお、分析部28は、収集データ22bを種別(TDMS、ストループ課題、fNIRS、心拍数測定、スピードテスト、オンラインアンケート、オフラインアンケート等)ごとに集計した結果(図9〜図14参照)、並びに、各種別の集計結果を用いた総合的な分析結果、の少なくとも一方を、分析結果22bとして出力してよい。 The analysis unit 28 aggregates the collected data 22b for each type (TDMS, stroop task, fNIRS, heart rate measurement, speed test, online questionnaire, offline questionnaire, etc.) (see FIGS. 9 to 14), and At least one of the comprehensive analysis results using the aggregated results of each type may be output as the analysis result 22b.

以上のように、第1実施例に係る表示システム10Aによれば、vHIEによる実行機能及び認知機能の改善効果を確認及び評価することができ、ユーザの認知機能の低下防止や、心身のリハビリを効率的に実現できる。 As described above, according to the display system 10A according to the first embodiment, it is possible to confirm and evaluate the improvement effect of executive function and cognitive function by vHIE, prevent deterioration of cognitive function of the user, and rehabilitate the mind and body. It can be realized efficiently.

なお、PC2Aが備える各機能は、複数のコンピュータ3に分散して配置されてもよい。一例として、図17に示すPC2が備える映像出力部24等の機能、出力部26の機能、収集部27の機能、並びに、分析部28の機能は、2以上のコンピュータ3に分散して配置されてよい。 In addition, each function provided in PC 2A may be distributed and arranged in a plurality of computers 3. As an example, the functions of the video output unit 24 and the like, the function of the output unit 26, the function of the collection unit 27, and the function of the analysis unit 28 included in the PC 2 shown in FIG. 17 are distributed and arranged in two or more computers 3. You can do it.

〔2−3〕第1実施例に係るPCの動作例
図21は、第1実施例に係るPC2Aの動作例を示すフローチャートである。図21に例示するように、PC2Aの出力部26は、セッション(図19参照)の各フェーズでデータを収集するためにユーザに出力する画面又は音声の、出力タイミングが到来したか否かを判定する(ステップS1)。
[2-3] Operation Example of PC According to First Example FIG. 21 is a flowchart showing an operation example of PC2A according to the first embodiment. As illustrated in FIG. 21, the output unit 26 of the PC 2A determines whether or not the output timing of the screen or audio to be output to the user for collecting data in each phase of the session (see FIG. 19) has arrived. (Step S1).

出力タイミングが到来していないと判定した場合(ステップS1でNO)、処理がステップS3に移行する。一方、出力タイミングが到来したと判定した場合(ステップS1でYES)、出力部26は、シーケンスに応じた画面又は音声を、モニタ又はスピーカから出力し(ステップS2)、処理がステップS3に移行する。 When it is determined that the output timing has not arrived (NO in step S1), the process proceeds to step S3. On the other hand, when it is determined that the output timing has arrived (YES in step S1), the output unit 26 outputs the screen or sound according to the sequence from the monitor or the speaker (step S2), and the process shifts to step S3. ..

ステップS3において、収集部27は、操作部25、又は、心拍センサ若しくはfNIRSから、入力データ又は測定データを受信したか否かを判定する。 In step S3, the collecting unit 27 determines whether or not input data or measurement data has been received from the operating unit 25, the heart rate sensor, or fNIRS.

入力データ又は測定データを受信していないと判定した場合(ステップS3でNO)、処理がステップS5に移行する。一方、入力データ又は測定データを受信したと判定した場合(ステップS3でYES)、収集部27は、受信したデータを収集データ22aとしてメモリ部22に保存し(ステップS4)、処理がステップS5に移行する。 When it is determined that the input data or the measurement data has not been received (NO in step S3), the process proceeds to step S5. On the other hand, when it is determined that the input data or the measurement data has been received (YES in step S3), the collection unit 27 saves the received data as the collection data 22a in the memory unit 22 (step S4), and the process proceeds to step S5. Transition.

ステップS5において、PC2Aは、セッションが終了したか否かを判定する。例えば、PC2Aは、図19の符号Hで入力及び測定されたデータを受信したか否かを判定してよい。 In step S5, PC2A determines whether or not the session has ended. For example, the PC2A may determine whether or not it has received the data input and measured with reference numeral H in FIG.

セッションが終了していないと判定した場合(ステップS5でNO)、処理がステップS1に移行する。一方、セッションが終了したと判定した場合(ステップS5でYES)、分析部28は、メモリ部22に保存された収集データ22aを分析し(ステップS6)、分析結果22bをメモリ部22に保存する。 If it is determined that the session has not ended (NO in step S5), the process proceeds to step S1. On the other hand, when it is determined that the session has ended (YES in step S5), the analysis unit 28 analyzes the collected data 22a stored in the memory unit 22 (step S6), and saves the analysis result 22b in the memory unit 22. ..

そして、分析部28は、分析結果22bをモニタ等に出力し(ステップS7)、処理が終了する。 Then, the analysis unit 28 outputs the analysis result 22b to a monitor or the like (step S7), and the process ends.

〔3〕第2実施例
例えば、1PPでのvHIEによりユーザが認識するSoBO(身体所有感)は、ユーザの身体機能等の側面を励起することができ、その結果、認知機能等の側面をさらに励起することができる。
[3] Second Example For example, the SoBO (body ownership) recognized by the user by vHIE at 1PP can excite aspects such as the user's physical function, and as a result, further aspects such as cognitive function can be excited. Can be excited.

このように、SoBOは、ユーザの視点(又は、1PPでのアバターの視点)を通して操作される変数と位置付けることができる。換言すれば、vHIEによるユーザの身体機能及び認知機能の改善の程度は、SoBOという変数に応じて制御することができる。 In this way, SoBO can be positioned as a variable that is manipulated through the user's point of view (or the avatar's point of view in 1PP). In other words, the degree of improvement of the user's physical function and cognitive function by vHIE can be controlled according to a variable called SoBO.

また、表示されるアバターに応じてSoBOが変化し得ることから、SoBOは、アバター(例えばアバターのモーション)に大きく影響し得る変数であるといえる。換言すれば、アバターのモーションの制御に用いられる運動制御の理論モデルにおいて、SoBOという変数を定義することが可能である。 Further, since the SoBO can change according to the displayed avatar, it can be said that the SoBO is a variable that can greatly affect the avatar (for example, the motion of the avatar). In other words, it is possible to define a variable called SoBO in the theoretical model of motion control used to control the motion of the avatar.

なお、SoA(運動主体感)についても、SoBOと同様に変数として捉えられてもよい。 It should be noted that SoA (sense of exercise subjectivity) may also be regarded as a variable in the same manner as SoBO.

そこで、第2実施例においては、第1実施例に係る表示システム10Aにおいて分析された分析結果22bに基づいて、SoBO及び/又はSoAを変化させることにより、vHIEによるユーザの身体機能及び認知機能の改善を最適化させる例を説明する。 Therefore, in the second embodiment, the SoBO and / or SoA is changed based on the analysis result 22b analyzed by the display system 10A according to the first embodiment, so that the physical function and the cognitive function of the user by vHIE can be determined. An example of optimizing the improvement will be described.

図22は、第2実施例に係る表示システム10BのPC2Bの機能構成例を示すブロック図である。図22に示すように、第2実施例に係るPC2Bは、図20に示すPC2Aが備える機能構成に加えて、パラメータ変更部29を備えてよい。また、メモリ部22は、パラメータ情報22cをさらに記憶してよい。 FIG. 22 is a block diagram showing a functional configuration example of PC2B of the display system 10B according to the second embodiment. As shown in FIG. 22, the PC2B according to the second embodiment may include a parameter changing unit 29 in addition to the functional configuration included in the PC2A shown in FIG. Further, the memory unit 22 may further store the parameter information 22c.

パラメータ変更部29は、分析結果22bに基づき、映像出力部24による映像信号の出力に用いられるパラメータを変更する。例えば、パラメータ変更部29は、メモリ部22に記憶されるパラメータ情報22cを更新してよい。 The parameter changing unit 29 changes the parameters used for outputting the video signal by the video output unit 24 based on the analysis result 22b. For example, the parameter changing unit 29 may update the parameter information 22c stored in the memory unit 22.

図23は、パラメータ情報22cの一例を示す図である。図23に示すように、パラメータ情報22cは、例示的に、ユーザの識別情報、運動強度(High、Low)、及び、表示パラメータの項目を含んでよい。 FIG. 23 is a diagram showing an example of parameter information 22c. As shown in FIG. 23, the parameter information 22c may optionally include the user's identification information, exercise intensity (High, Low), and display parameter items.

運動強度(High)及び運動強度(Low)は、それぞれ、第1及び第2の運動強度の一例であり、ユーザのアバターに実行させるvHIEの運動強度を示す。例えば、High及びLowには、移動速度(m/s)や、基準の運動強度に対する割合(%)等の、運動強度を示す情報が設定されてよい。なお、運動強度(High)には、初期値として、例えば、セッションのスピードテスト(図19の符号D参照)においてユーザにより選択された運動強度が設定されてもよい。 Exercise intensity (High) and exercise intensity (Low) are examples of the first and second exercise intensity, respectively, and indicate the exercise intensity of vHIE to be executed by the user's avatar. For example, information indicating exercise intensity such as a moving speed (m / s) and a ratio (%) with respect to a reference exercise intensity may be set in High and Low. The exercise intensity (High) may be set as an initial value, for example, the exercise intensity selected by the user in the session speed test (see reference numeral D in FIG. 19).

表示パラメータは、HMD1の表示部14(ディスプレイ1a)の表示パラメータを示す。例えば、表示パラメータには、視野角(Field Of View:FOV)、解像度等の、ユーザの没入感に影響を与える種々のパラメータが設定されてよい。 The display parameter indicates the display parameter of the display unit 14 (display 1a) of the HMD1. For example, various parameters that affect the user's immersive feeling, such as the viewing angle (FOV) and the resolution, may be set as the display parameters.

なお、パラメータ情報22cには、アバターの性別、年齢、体型、容姿、モーション等のアバターに関するパラメータが含まれてもよい。 The parameter information 22c may include parameters related to the avatar such as gender, age, body shape, appearance, and motion of the avatar.

映像出力部24は、映像コンテンツ及びパラメータ情報22cに基づき、映像信号を生成してよい。 The video output unit 24 may generate a video signal based on the video content and the parameter information 22c.

パラメータ変更部29は、例えば、パラメータ情報22cに含まれる少なくとも1つのパラメータを、同一ユーザのセッション単位で、徐々に変化させ、変化させたパラメータと分析結果22bとを関連付けて管理してよい。そして、パラメータ変更部29は、複数のセッションから得られた分析結果22bから、SoBO及び/又はSoAが最適(例えば最大)となる分析結果22bに関連付けられたパラメータを、最適なパラメータとしてパラメータ情報22cに記録してよい。パラメータ変更部29は、このような最適化を、パラメータ情報22cに含まれる他のパラメータについても実行することで、パラメータ情報22cを最適化してよい。 For example, the parameter changing unit 29 may gradually change at least one parameter included in the parameter information 22c for each session of the same user, and manage the changed parameter in association with the analysis result 22b. Then, the parameter changing unit 29 sets the parameter associated with the analysis result 22b in which the SoBO and / or SoA is optimal (for example, the maximum) from the analysis results 22b obtained from the plurality of sessions as the optimum parameter, and sets the parameter information 22c. May be recorded in. The parameter changing unit 29 may optimize the parameter information 22c by executing such optimization for other parameters included in the parameter information 22c.

なお、パラメータ変更部29によるパラメータ情報22cの最適化の手法は、これに限定されるものではなく、既知の種々の最適化手法が採用されてもよい。 The method for optimizing the parameter information 22c by the parameter changing unit 29 is not limited to this, and various known optimization methods may be adopted.

さらに、パラメータ情報22cには、例えば、セッションの期間、フェーズの期間、フェーズ内の処理の期間、vHIEにおけるランニング及びウォーキングの各期間や実施回数、等のパラメータが含まれてもよい。パラメータ変更部29は、このようなパラメータについても、最適化手法によって、SoBO及び/又はSoAが最適(例えば最大)となるようなパラメータを決定してよい。 Further, the parameter information 22c may include parameters such as, for example, the period of the session, the period of the phase, the period of processing within the phase, each period of running and walking in vHIE, and the number of executions. The parameter changing unit 29 may also determine such a parameter by an optimization method so that SoBO and / or SoA becomes optimum (for example, maximum).

〔4〕その他
上述した一実施形態に係る技術は、以下のように変形、変更して実施することができる。
[4] Others The technology according to the above-described embodiment can be modified or modified as follows.

例えば、図17に示すHMD1において、各機能ブロック11〜16は、任意の組み合わせで併合してもよく、それぞれ分割してもよい。また、図17に示すPC2において、各機能ブロック21〜25は、任意の組み合わせで併合してもよく、それぞれ分割してもよい。さらに、図20に示すPC2Aにおいて、各機能ブロック21〜28は、任意の組み合わせで併合してもよく、それぞれ分割してもよい。また、図22に示すPC2Bにおいて、各機能ブロック21〜29は、任意の組み合わせで併合してもよく、それぞれ分割してもよい。 For example, in the HMD 1 shown in FIG. 17, the functional blocks 11 to 16 may be merged in any combination or may be divided respectively. Further, in the PC 2 shown in FIG. 17, the functional blocks 21 to 25 may be merged in any combination or may be divided respectively. Further, in the PC 2A shown in FIG. 20, the functional blocks 21 to 28 may be merged in any combination or may be divided respectively. Further, in the PC 2B shown in FIG. 22, the functional blocks 21 to 29 may be merged in any combination or may be divided respectively.

また、HMD1は、PC2、PC2A、又は、PC2Bの機能のうちの、例えば、記憶部23及び映像出力部24の機能を含んでもよい。この場合、PC2、PC2A、又は、PC2Bにおけるこれらの機能は省略されてもよい。例えば、図24に示すように、表示システム10Cは、図17に示すHMD1の機能に加えて、記憶部23及び映像出力部24をさらに備えるHMD1Cを備えてよい。図24の例では、表示システム10Cは、図22に示すPC2Bから記憶部23及び映像出力部24を削除した、PC2Cを備えてよい。図24に示すように、HMD1Cは、映像出力部24の機能を備えるため、上述した静止状態表示処理及び仮想運動表示処理を、HMD1C上で実行することができる。 Further, the HMD1 may include, for example, the functions of the storage unit 23 and the video output unit 24 among the functions of the PC2, PC2A, or PC2B. In this case, these functions in PC2, PC2A, or PC2B may be omitted. For example, as shown in FIG. 24, the display system 10C may include an HMD1C further including a storage unit 23 and a video output unit 24 in addition to the functions of the HMD1 shown in FIG. In the example of FIG. 24, the display system 10C may include a PC2C in which the storage unit 23 and the video output unit 24 are deleted from the PC2B shown in FIG. 22. As shown in FIG. 24, since the HMD1C has the function of the video output unit 24, the above-described rest state display process and virtual motion display process can be executed on the HMD1C.

さらに、PC2A及びPC2Bの出力部26、収集部27、及び、分析部28、並びに、PC2Bのパラメータ変更部29は、PC2A又はPC2Bとは異なる1以上のコンピュータ3(クラウドコンピュータを含む)に分散して、又は、冗長化して備えられてもよい。この場合、PC2A及びPC2Bにおけるこれらの機能は省略されてもよい。 Further, the output unit 26, the collection unit 27, the analysis unit 28, and the parameter change unit 29 of the PC2B of the PC2A and the PC2B are distributed to one or more computers 3 (including a cloud computer) different from the PC2A or the PC2B. Alternatively, it may be provided in a redundant manner. In this case, these functions in PC2A and PC2B may be omitted.

〔5〕付記
上述した一実施形態、並びに、第1及び第2実施例に関し、さらに以下の付記を開示する。
[5] Additional Notes The following additional notes will be further disclosed with respect to the above-described embodiment and the first and second embodiments.

(付記1)
仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ユーザが着用するヘッドマウントディスプレイに表示する第1の表示処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する第2の表示処理と、
を所定回数繰り返す仮想運動表示処理をコンピュータに実行させる、表示プログラム。
(Appendix 1)
In the virtual reality space, the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity is displayed on the head-mounted display worn by the user for the first time period. Display processing of 1 and
In the virtual reality space, the viewpoint image of the virtual body when the virtual body of the user exercises at a second exercise intensity smaller than the first exercise intensity is displayed over a second time period. A second display process to be displayed on the head-mounted display worn by the user, and
A display program that causes a computer to execute a virtual motion display process that repeats the above steps a predetermined number of times.

(付記2)
前記仮想運動表示処理よりも前に実行された、前記ヘッドマウントディスプレイを着用する前記ユーザの第1の認知機能検査の結果と、前記第1の認知機能検査の間に行なわれた前記ユーザの第1の脳機能計測の結果と、を記憶領域に格納し、
前記仮想運動表示処理よりも後に実行された、前記ユーザの第2の認知機能検査の結果と、前記第2の認知機能検査の間に行なわれた前記ユーザの第2の脳機能計測の結果と、を前記記憶領域に格納し、
前記第1及び第2の認知機能検査の結果と前記第1及び第2の脳機能計測の結果とに基づき、前記仮想運動表示処理における前記ユーザの認知機能に関する分析結果を出力する、
処理を前記コンピュータに実行させる、付記1に記載の表示プログラム。
(Appendix 2)
The result of the first cognitive function test of the user wearing the head-mounted display, which was executed before the virtual motion display process, and the user's first cognitive function test performed during the first cognitive function test. The result of the brain function measurement of 1 and the result are stored in the storage area,
The result of the user's second cognitive function test executed after the virtual movement display process, and the result of the user's second brain function measurement performed during the second cognitive function test. , Is stored in the storage area,
Based on the results of the first and second cognitive function tests and the results of the first and second brain function measurements, an analysis result regarding the user's cognitive function in the virtual motion display process is output.
The display program according to Appendix 1, which causes the computer to execute the process.

(付記3)
前記仮想運動表示処理の実行前、実行中及び実行後のそれぞれにおいて前記ユーザから取得された、前記ユーザの主観的感情に関する評価結果を、前記記憶領域に格納し、
前記評価結果に基づき、前記仮想運動表示処理における前記ユーザの身体所有感及び運動主体感の一方又は双方に関する分析結果を出力する、
処理を前記コンピュータに実行させる、付記2に記載の表示プログラム。
(Appendix 3)
The evaluation results regarding the subjective emotions of the user acquired from the user before, during, and after the execution of the virtual motion display process are stored in the storage area.
Based on the evaluation result, the analysis result regarding one or both of the physical possession feeling and the movement subject feeling of the user in the virtual movement display processing is output.
The display program according to Appendix 2, which causes the computer to execute the process.

(付記4)
前記仮想運動表示処理の実行前及び実行中に測定された、前記ユーザの心拍数を、前記記憶領域に格納し、
前記心拍数の分析結果を出力する、
処理を前記コンピュータに実行させる、付記2又は付記3に記載の表示プログラム。
(Appendix 4)
The user's heart rate measured before and during the execution of the virtual motion display process is stored in the storage area.
Output the analysis result of the heart rate,
The display program according to Appendix 2 or Appendix 3, which causes the computer to execute the process.

(付記5)
前記第1の認知機能検査よりも前、及び、前記第2の認知機能検査よりも前、のそれぞれにおいて前記ユーザから取得された、前記ユーザの心理的状態に関する評価結果を、前記記憶領域に格納し、
前記心理的状態に関する評価結果に基づき、前記仮想運動表示処理における前記ユーザの覚醒レベルの分析結果を出力する、
処理を前記コンピュータに実行させる、付記2〜付記4のいずれか1項に記載の表示プログラム。
(Appendix 5)
The evaluation results regarding the psychological state of the user obtained from the user in each of the pre-first cognitive function test and the pre-second cognitive function test are stored in the storage area. And
Based on the evaluation result regarding the psychological state, the analysis result of the arousal level of the user in the virtual motion display process is output.
The display program according to any one of Supplementary note 2 to Supplementary note 4, which causes the computer to execute the process.

(付記6)
出力した1以上の前記分析結果に基づき、前記第1の運動強度及び前記第2の運動強度の一方又は双方の運動強度を変更する、
処理を前記コンピュータに実行させる、付記2〜付記5のいずれか1項に記載の表示プログラム。
(Appendix 6)
Based on the output of one or more of the analysis results, the exercise intensity of one or both of the first exercise intensity and the second exercise intensity is changed.
The display program according to any one of Supplementary note 2 to Supplementary note 5, which causes the computer to execute the process.

(付記7)
出力した1以上の前記分析結果に基づき、前記ヘッドマウントディスプレイの表示パラメータを変更する、
処理を前記コンピュータに実行させる、付記2〜付記6のいずれか1項に記載の表示プログラム。
(Appendix 7)
The display parameters of the head-mounted display are changed based on the output one or more of the analysis results.
The display program according to any one of Supplementary note 2 to Supplementary note 6, which causes the computer to execute the process.

(付記8)
前記仮想運動表示処理の前に、前記仮想現実空間において、前記仮想身体が静止しているときの前記仮想身体の視点映像を、第3の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する静止状態表示処理、
を前記コンピュータに実行させる、付記1〜付記7のいずれか1項に記載の表示プログラム。
(Appendix 8)
Prior to the virtual motion display process, the head mount worn by the user for a third time period is a viewpoint image of the virtual body when the virtual body is stationary in the virtual reality space. Still state display processing to be displayed on the display,
The display program according to any one of Supplementary note 1 to Supplementary note 7, wherein the computer is executed.

(付記9)
前記コンピュータは、前記ヘッドマウントディスプレイと有線又は無線接続され、前記ヘッドマウントディスプレイの表示制御を行なうコンピュータである、
付記1〜付記8のいずれか1項に記載の表示プログラム。
(Appendix 9)
The computer is a computer that is wired or wirelessly connected to the head-mounted display and controls the display of the head-mounted display.
The display program according to any one of Supplementary note 1 to Supplementary note 8.

(付記10)
前記コンピュータは、前記ヘッドマウントディスプレイに備えられるコンピュータである、
付記1〜付記8のいずれか1項に記載の表示プログラム。
(Appendix 10)
The computer is a computer provided in the head-mounted display.
The display program according to any one of Supplementary note 1 to Supplementary note 8.

(付記11)
コンピュータが、
仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ユーザが着用するヘッドマウントディスプレイに表示する第1の表示処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する第2の表示処理と、
を所定回数繰り返す仮想運動表示処理を実行する、表示方法。
(Appendix 11)
The computer
In the virtual reality space, the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity is displayed on the head-mounted display worn by the user for the first time period. Display processing of 1 and
In the virtual reality space, the viewpoint image of the virtual body when the virtual body of the user exercises at a second exercise intensity smaller than the first exercise intensity is displayed over a second time period. A second display process to be displayed on the head-mounted display worn by the user, and
A display method that executes a virtual motion display process that repeats a predetermined number of times.

(付記12)
前記仮想運動表示処理よりも前に実行された、前記ヘッドマウントディスプレイを着用する前記ユーザの第1の認知機能検査の結果と、前記第1の認知機能検査の間に行なわれた前記ユーザの第1の脳機能計測の結果と、を記憶領域に格納し、
前記仮想運動表示処理よりも後に実行された、前記ユーザの第2の認知機能検査の結果と、前記第2の認知機能検査の間に行なわれた前記ユーザの第2の脳機能計測の結果と、を前記記憶領域に格納し、
前記第1及び第2の認知機能検査の結果と前記第1及び第2の脳機能計測の結果とに基づき、前記仮想運動表示処理における前記ユーザの認知機能に関する分析結果を出力する、
処理を前記コンピュータが実行する、付記11に記載の表示方法。
(Appendix 12)
The result of the first cognitive function test of the user wearing the head-mounted display, which was executed before the virtual motion display process, and the user's first cognitive function test performed during the first cognitive function test. The result of the brain function measurement of 1 and the result are stored in the storage area,
The result of the user's second cognitive function test executed after the virtual movement display process, and the result of the user's second brain function measurement performed during the second cognitive function test. , Is stored in the storage area,
Based on the results of the first and second cognitive function tests and the results of the first and second brain function measurements, an analysis result regarding the user's cognitive function in the virtual motion display process is output.
The display method according to Appendix 11, wherein the computer executes the process.

(付記13)
前記仮想運動表示処理の実行前、実行中及び実行後のそれぞれにおいて前記ユーザから取得された、前記ユーザの主観的感情に関する評価結果を、前記記憶領域に格納し、
前記評価結果に基づき、前記仮想運動表示処理における前記ユーザの身体所有感及び運動主体感の一方又は双方に関する分析結果を出力する、
処理を前記コンピュータが実行する、付記12に記載の表示方法。
(Appendix 13)
The evaluation results regarding the subjective emotions of the user acquired from the user before, during, and after the execution of the virtual motion display process are stored in the storage area.
Based on the evaluation result, the analysis result regarding one or both of the physical possession feeling and the movement subject feeling of the user in the virtual movement display processing is output.
The display method according to Appendix 12, wherein the computer executes the process.

(付記14)
前記仮想運動表示処理の実行前及び実行中に測定された、前記ユーザの心拍数を、前記記憶領域に格納し、
前記心拍数の分析結果を出力する、
処理を前記コンピュータが実行する、付記12又は付記13に記載の表示方法。
(Appendix 14)
The user's heart rate measured before and during the execution of the virtual motion display process is stored in the storage area.
Output the analysis result of the heart rate,
The display method according to Appendix 12 or Appendix 13, wherein the computer executes the process.

(付記15)
前記第1の認知機能検査よりも前、及び、前記第2の認知機能検査よりも前、のそれぞれにおいて前記ユーザから取得された、前記ユーザの心理的状態に関する評価結果を、前記記憶領域に格納し、
前記心理的状態に関する評価結果に基づき、前記仮想運動表示処理における前記ユーザの覚醒レベルの分析結果を出力する、
処理を前記コンピュータが実行する、付記12〜付記14のいずれか1項に記載の表示方法。
(Appendix 15)
The evaluation results regarding the psychological state of the user obtained from the user in each of the pre-first cognitive function test and the pre-second cognitive function test are stored in the storage area. And
Based on the evaluation result regarding the psychological state, the analysis result of the arousal level of the user in the virtual motion display process is output.
The display method according to any one of Supplementary note 12 to Supplementary note 14, wherein the processing is executed by the computer.

(付記16)
出力した1以上の前記分析結果に基づき、前記第1の運動強度及び前記第2の運動強度の一方又は双方の運動強度を変更する、
処理を前記コンピュータが実行する、付記12〜付記15のいずれか1項に記載の表示方法。
(Appendix 16)
Based on the output of one or more of the analysis results, the exercise intensity of one or both of the first exercise intensity and the second exercise intensity is changed.
The display method according to any one of Supplementary note 12 to Supplementary note 15, wherein the processing is executed by the computer.

(付記17)
出力した1以上の前記分析結果に基づき、前記ヘッドマウントディスプレイの表示パラメータを変更する、
処理を前記コンピュータが実行する、付記12〜付記16のいずれか1項に記載の表示方法。
(Appendix 17)
The display parameters of the head-mounted display are changed based on the output one or more of the analysis results.
The display method according to any one of Supplementary note 12 to Supplementary note 16, wherein the processing is executed by the computer.

(付記18)
前記仮想運動表示処理の前に、前記仮想現実空間において、前記仮想身体が静止しているときの前記仮想身体の視点映像を、第3の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する静止状態表示処理、
を前記コンピュータが実行する、付記11〜付記17のいずれか1項に記載の表示方法。
(Appendix 18)
Prior to the virtual motion display process, the head mount worn by the user for a third time period is a viewpoint image of the virtual body when the virtual body is stationary in the virtual reality space. Still state display processing to be displayed on the display,
The display method according to any one of Supplementary note 11 to Supplementary note 17, wherein the computer executes the above.

(付記19)
仮想現実空間を表示するディスプレイと、
前記ディスプレイの表示制御を行なう表示制御部と、を備え、
前記表示制御部は、
前記仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ディスプレイに表示する第1の表示処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ディスプレイに表示する第2の表示処理と、
を所定回数繰り返す仮想運動表示処理を実行する、ヘッドマウントディスプレイ。
(Appendix 19)
A display that displays virtual reality space and
A display control unit that controls the display of the display is provided.
The display control unit
In the virtual reality space, the first display process of displaying the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity on the display over the first time period. ,
In the virtual reality space, a viewpoint image of the virtual body when the virtual body of the user exercises with a second exercise intensity smaller than the first exercise intensity is displayed over a second time period. The second display process to be displayed on the display and
A head-mounted display that executes a virtual motion display process that repeats a predetermined number of times.

(付記20)
仮想現実空間を表示するヘッドマウントディスプレイと通信する通信部と、
前記通信部を介して映像信号を出力する映像出力部と、を備え、
前記映像出力部は、
前記仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って出力する第1の出力処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って出力する第2の出力処理と、
を所定回数繰り返す仮想運動表示出力処理を実行する、情報処理装置。
(Appendix 20)
A communication unit that communicates with a head-mounted display that displays virtual reality space,
A video output unit that outputs a video signal via the communication unit is provided.
The video output unit
In the virtual reality space, the first output process of outputting the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity over the first time period, and
In the virtual reality space, the viewpoint image of the virtual body when the virtual body of the user exercises with a second exercise intensity smaller than the first exercise intensity is output over a second time period. Second output processing to be done
An information processing device that executes virtual motion display output processing that repeats a predetermined number of times.

(付記21)
前記仮想運動表示処理よりも前に実行された、前記ヘッドマウントディスプレイを着用する前記ユーザの第1の認知機能検査の結果と、前記第1の認知機能検査の間に行なわれた前記ユーザの第1の脳機能計測の結果と、前記仮想運動表示処理よりも後に実行された、前記ユーザの第2の認知機能検査の結果と、前記第2の認知機能検査の間に行なわれた前記ユーザの第2の脳機能計測の結果と、を格納する記憶領域と、
前記第1及び第2の認知機能検査の結果と前記第1及び第2の脳機能計測の結果とに基づき、前記仮想運動表示処理における前記ユーザの認知機能に関する分析結果を出力する分析部と、を備える、付記20に記載の情報処理装置。
(Appendix 21)
The result of the first cognitive function test of the user wearing the head-mounted display, which was executed before the virtual motion display process, and the user's first cognitive function test performed during the first cognitive function test. The result of the brain function measurement of 1, the result of the user's second cognitive function test executed after the virtual movement display process, and the user's second cognitive function test performed during the second cognitive function test. The result of the second brain function measurement, the storage area for storing, and
Based on the results of the first and second cognitive function tests and the results of the first and second brain function measurements, an analysis unit that outputs an analysis result regarding the user's cognitive function in the virtual movement display processing, and an analysis unit. 20. The information processing apparatus according to Appendix 20.

(付記22)
前記記憶領域は、前記仮想運動表示処理の実行前、実行中及び実行後のそれぞれにおいて前記ユーザから取得された、前記ユーザの主観的感情に関する評価結果を格納し、
前記分析部は、前記評価結果に基づき、前記仮想運動表示処理における前記ユーザの身体所有感及び運動主体感の一方又は双方に関する分析結果を出力する、
付記21に記載の情報処理装置。
(Appendix 22)
The storage area stores the evaluation results regarding the subjective emotions of the user acquired from the user before, during, and after the execution of the virtual motion display process.
Based on the evaluation result, the analysis unit outputs an analysis result regarding one or both of the user's physical possession feeling and the movement subject feeling in the virtual movement display processing.
The information processing device according to Appendix 21.

(付記23)
前記記憶領域は、前記仮想運動表示処理の実行前及び実行中に測定された、前記ユーザの心拍数を格納し、
前記分析部は、前記心拍数の分析結果を出力する、
付記21又は付記22に記載の情報処理装置。
(Appendix 23)
The storage area stores the user's heart rate measured before and during the execution of the virtual motion display process.
The analysis unit outputs the analysis result of the heart rate.
The information processing device according to Appendix 21 or Appendix 22.

(付記24)
前記記憶領域は、前記第1の認知機能検査よりも前、及び、前記第2の認知機能検査よりも前、のそれぞれにおいて前記ユーザから取得された、前記ユーザの心理的状態に関する評価結果を格納し、
前記分析部は、前記心理的状態に関する評価結果に基づき、前記仮想運動表示処理における前記ユーザの覚醒レベルの分析結果を出力する、
付記21〜付記23のいずれか1項に記載の情報処理装置。
(Appendix 24)
The storage area stores the evaluation results regarding the psychological state of the user obtained from the user in each of the pre-first cognitive function test and the pre-second cognitive function test. And
The analysis unit outputs the analysis result of the arousal level of the user in the virtual motion display process based on the evaluation result regarding the psychological state.
The information processing device according to any one of Supplementary note 21 to Supplementary note 23.

(付記25)
出力した1以上の前記分析結果に基づき、前記第1の運動強度及び前記第2の運動強度の一方又は双方の運動強度を変更するパラメータ変更部、
を備える、付記21〜付記24のいずれか1項に記載の情報処理装置。
(Appendix 25)
A parameter changing unit that changes the exercise intensity of one or both of the first exercise intensity and the second exercise intensity based on the output one or more of the analysis results.
The information processing apparatus according to any one of Supplementary note 21 to Supplementary note 24.

(付記26)
前記パラメータ変更部は、出力した1以上の前記分析結果に基づき、前記ヘッドマウントディスプレイの表示パラメータを変更する、
を備える、付記25に記載の情報処理装置。
(Appendix 26)
The parameter changing unit changes the display parameter of the head-mounted display based on the output one or more of the analysis results.
25. The information processing apparatus according to Appendix 25.

1、1C ヘッドマウントディスプレイ(HMD)
1a ディスプレイ
1b ケーブル
10、10A、10B、10C 表示システム
11、21 通信部
12、22 メモリ部
13 表示制御部
14 表示部
15 センサ部
16、25 操作部
2、2A、2B、2C PC
22a 収集データ
22b 分析結果
22c パラメータ情報
23 記憶部
24 映像出力部
26 出力部
27 収集部
28 分析部
29 パラメータ変更部
3 コンピュータ
3a プロセッサ
3b メモリ
3c 記憶装置
3d IF部
3e I/O部
3f 読取部
3g プログラム
3h 記録媒体
4 通信路
1,1C Head Mounted Display (HMD)
1a Display 1b Cable 10, 10A, 10B, 10C Display system 11, 21 Communication unit 12, 22 Memory unit 13 Display control unit 14 Display unit 15 Sensor unit 16, 25 Operation unit 2, 2A, 2B, 2C PC
22a Collected data 22b Analysis result 22c Parameter information 23 Storage unit 24 Video output unit 26 Output unit 27 Collection unit 28 Analysis unit 29 Parameter change unit 3 Computer 3a Processor 3b Memory 3c Storage device 3d IF unit 3e I / O unit 3f Reading unit 3g Program 3h Recording medium 4 Communication path

Claims (11)

仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ユーザが着用するヘッドマウントディスプレイに表示する第1の表示処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する第2の表示処理と、
を所定回数繰り返す仮想運動表示処理をコンピュータに実行させる、表示プログラム。
In the virtual reality space, the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity is displayed on the head-mounted display worn by the user for the first time period. Display processing of 1 and
In the virtual reality space, the viewpoint image of the virtual body when the virtual body of the user exercises at a second exercise intensity smaller than the first exercise intensity is displayed over a second time period. A second display process to be displayed on the head-mounted display worn by the user, and
A display program that causes a computer to execute a virtual motion display process that repeats the above steps a predetermined number of times.
前記仮想運動表示処理よりも前に実行された、前記ヘッドマウントディスプレイを着用する前記ユーザの第1の認知機能検査の結果と、前記第1の認知機能検査の間に行なわれた前記ユーザの第1の脳機能計測の結果と、を記憶領域に格納し、
前記仮想運動表示処理よりも後に実行された、前記ユーザの第2の認知機能検査の結果と、前記第2の認知機能検査の間に行なわれた前記ユーザの第2の脳機能計測の結果と、を前記記憶領域に格納し、
前記第1及び第2の認知機能検査の結果と前記第1及び第2の脳機能計測の結果とに基づき、前記仮想運動表示処理における前記ユーザの認知機能に関する分析結果を出力する、
処理を前記コンピュータに実行させる、請求項1に記載の表示プログラム。
The result of the first cognitive function test of the user wearing the head-mounted display, which was executed before the virtual motion display process, and the user's first cognitive function test performed during the first cognitive function test. The result of the brain function measurement of 1 and the result are stored in the storage area,
The result of the user's second cognitive function test executed after the virtual movement display process, and the result of the user's second brain function measurement performed during the second cognitive function test. , Is stored in the storage area,
Based on the results of the first and second cognitive function tests and the results of the first and second brain function measurements, an analysis result regarding the user's cognitive function in the virtual motion display process is output.
The display program according to claim 1, wherein the computer executes the process.
前記仮想運動表示処理の実行前、実行中及び実行後のそれぞれにおいて前記ユーザから取得された、前記ユーザの主観的感情に関する評価結果を、前記記憶領域に格納し、
前記評価結果に基づき、前記仮想運動表示処理における前記ユーザの身体所有感及び運動主体感の一方又は双方に関する分析結果を出力する、
処理を前記コンピュータに実行させる、請求項2に記載の表示プログラム。
The evaluation results regarding the subjective emotions of the user acquired from the user before, during, and after the execution of the virtual motion display process are stored in the storage area.
Based on the evaluation result, the analysis result regarding one or both of the physical possession feeling and the movement subject feeling of the user in the virtual movement display processing is output.
The display program according to claim 2, wherein the computer executes the process.
前記仮想運動表示処理の実行前及び実行中に測定された、前記ユーザの心拍数を、前記記憶領域に格納し、
前記心拍数の分析結果を出力する、
処理を前記コンピュータに実行させる、請求項2又は請求項3に記載の表示プログラム。
The user's heart rate measured before and during the execution of the virtual motion display process is stored in the storage area.
Output the analysis result of the heart rate,
The display program according to claim 2 or 3, wherein the processing is executed by the computer.
前記第1の認知機能検査よりも前、及び、前記第2の認知機能検査よりも前、のそれぞれにおいて前記ユーザから取得された、前記ユーザの心理的状態に関する評価結果を、前記記憶領域に格納し、
前記心理的状態に関する評価結果に基づき、前記仮想運動表示処理における前記ユーザの覚醒レベルの分析結果を出力する、
処理を前記コンピュータに実行させる、請求項2〜請求項4のいずれか1項に記載の表示プログラム。
The evaluation results regarding the psychological state of the user obtained from the user in each of the pre-first cognitive function test and the pre-second cognitive function test are stored in the storage area. And
Based on the evaluation result regarding the psychological state, the analysis result of the arousal level of the user in the virtual motion display process is output.
The display program according to any one of claims 2 to 4, which causes the computer to execute the process.
出力した1以上の前記分析結果に基づき、前記第1の運動強度及び前記第2の運動強度の一方又は双方の運動強度を変更する、
処理を前記コンピュータに実行させる、請求項2〜請求項5のいずれか1項に記載の表示プログラム。
Based on the output of one or more of the analysis results, the exercise intensity of one or both of the first exercise intensity and the second exercise intensity is changed.
The display program according to any one of claims 2 to 5, which causes the computer to execute the process.
出力した1以上の前記分析結果に基づき、前記ヘッドマウントディスプレイの表示パラメータを変更する、
処理を前記コンピュータに実行させる、請求項2〜請求項6のいずれか1項に記載の表示プログラム。
The display parameters of the head-mounted display are changed based on the output one or more of the analysis results.
The display program according to any one of claims 2 to 6, wherein the computer executes the process.
前記仮想運動表示処理の前に、前記仮想現実空間において、前記仮想身体が静止しているときの前記仮想身体の視点映像を、第3の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する静止状態表示処理、
を前記コンピュータに実行させる、請求項1〜請求項7のいずれか1項に記載の表示プログラム。
Prior to the virtual motion display process, the head mount worn by the user for a third time period is a viewpoint image of the virtual body when the virtual body is stationary in the virtual reality space. Still state display processing to be displayed on the display,
The display program according to any one of claims 1 to 7, wherein the computer is executed.
コンピュータが、
仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ユーザが着用するヘッドマウントディスプレイに表示する第1の表示処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ユーザが着用する前記ヘッドマウントディスプレイに表示する第2の表示処理と、
を所定回数繰り返す仮想運動表示処理を実行する、表示方法。
The computer
In the virtual reality space, the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity is displayed on the head-mounted display worn by the user for the first time period. Display processing of 1 and
In the virtual reality space, the viewpoint image of the virtual body when the virtual body of the user exercises at a second exercise intensity smaller than the first exercise intensity is displayed over a second time period. A second display process to be displayed on the head-mounted display worn by the user, and
A display method that executes a virtual motion display process that repeats a predetermined number of times.
仮想現実空間を表示するディスプレイと、
前記ディスプレイの表示制御を行なう表示制御部と、を備え、
前記表示制御部は、
前記仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って、前記ディスプレイに表示する第1の表示処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って、前記ディスプレイに表示する第2の表示処理と、
を所定回数繰り返す仮想運動表示処理を実行する、ヘッドマウントディスプレイ。
A display that displays virtual reality space and
A display control unit that controls the display of the display is provided.
The display control unit
In the virtual reality space, the first display process of displaying the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity on the display over the first time period. ,
In the virtual reality space, a viewpoint image of the virtual body when the virtual body of the user exercises with a second exercise intensity smaller than the first exercise intensity is displayed over a second time period. The second display process to be displayed on the display and
A head-mounted display that executes a virtual motion display process that repeats a predetermined number of times.
仮想現実空間を表示するヘッドマウントディスプレイと通信する通信部と、
前記通信部を介して映像信号を出力する映像出力部と、を備え、
前記映像出力部は、
前記仮想現実空間において、ユーザの仮想身体が第1の運動強度で運動を行なうときの前記仮想身体の視点映像を、第1の時間期間に亘って出力する第1の出力処理と、
前記仮想現実空間において、前記ユーザの前記仮想身体が前記第1の運動強度よりも小さい第2の運動強度で運動を行なうときの前記仮想身体の視点映像を、第2の時間期間に亘って出力する第2の出力処理と、
を所定回数繰り返す仮想運動表示出力処理を実行する、情報処理装置。
A communication unit that communicates with a head-mounted display that displays virtual reality space,
A video output unit that outputs a video signal via the communication unit is provided.
The video output unit
In the virtual reality space, the first output process of outputting the viewpoint image of the virtual body when the user's virtual body exercises at the first exercise intensity over the first time period, and
In the virtual reality space, the viewpoint image of the virtual body when the virtual body of the user exercises with a second exercise intensity smaller than the first exercise intensity is output over a second time period. Second output processing to be done
An information processing device that executes virtual motion display output processing that repeats a predetermined number of times.
JP2019207221A 2019-11-15 2019-11-15 Display program, display method, head mount display and information processor Pending JP2021081864A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019207221A JP2021081864A (en) 2019-11-15 2019-11-15 Display program, display method, head mount display and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019207221A JP2021081864A (en) 2019-11-15 2019-11-15 Display program, display method, head mount display and information processor

Publications (1)

Publication Number Publication Date
JP2021081864A true JP2021081864A (en) 2021-05-27

Family

ID=75966288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019207221A Pending JP2021081864A (en) 2019-11-15 2019-11-15 Display program, display method, head mount display and information processor

Country Status (1)

Country Link
JP (1) JP2021081864A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10151162A (en) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp Patient's bedside wellness system
JP2008510560A (en) * 2004-08-25 2008-04-10 モトリカ リミテッド Exercise training by brain plasticity
JP2009050456A (en) * 2007-08-27 2009-03-12 Xing Inc Moving image display system, moving image display method, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10151162A (en) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp Patient's bedside wellness system
JP2008510560A (en) * 2004-08-25 2008-04-10 モトリカ リミテッド Exercise training by brain plasticity
JP2009050456A (en) * 2007-08-27 2009-03-12 Xing Inc Moving image display system, moving image display method, and computer program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
長嶺 伸: "没入型VRシステムを介した運動観察が身体意識に及ぼす影響", HUMAN INTERFACE 2016 明日への扉 [DVD−ROM] ヒューマンインタフェースシ, JPN6023027383, 9 September 2016 (2016-09-09), JP, pages 753 - 756, ISSN: 0005098127 *

Similar Documents

Publication Publication Date Title
JP7049379B2 (en) Increased cognition in the presence of attention diversion and / or disturbance
JP7125390B2 (en) Cognitive platforms configured as biomarkers or other types of markers
JP2022184939A (en) Methods of enhancing cognition and systems for practicing the same
Kuriakose et al. Understanding the psycho-physiological implications of interaction with a virtual reality-based system in adolescents with autism: A feasibility study
Gradl et al. Visualization of heart activity in virtual reality: A biofeedback application using wearable sensors
JP2022153354A (en) Platforms to implement signal detection metrics in adaptive response-deadline procedure
Moro et al. A novel semi-immersive virtual reality visuo-motor task activates ventrolateral prefrontal cortex: a functional near-infrared spectroscopy study
Weyand et al. Weaning off mental tasks to achieve voluntary self-regulatory control of a near-infrared spectroscopy brain-computer interface
JP2004500591A (en) Method and apparatus for improving learning ability
Luong et al. A survey on affective and cognitive vr
Tinga et al. Non-invasive neurophysiology in learning and training: mechanisms and a SWOT analysis
Cruz-Garza et al. EEG-based investigation of the impact of classroom design on cognitive performance of students
Ma et al. Exploring the effect of virtual reality relaxation environment on white coat hypertension in blood pressure measurement
Haley et al. Inward vr: Toward a qualitative method for investigating interoceptive awareness in vr
Pittara et al. Virtual Reality for Pulmonary Rehabilitation: Comprehensive Review
Wood et al. Virtual reality assessment and customization using physiological measures: a literature analysis
JP2021081864A (en) Display program, display method, head mount display and information processor
Kiryu et al. Time-varying factors model with different time-scales for studying cybersickness
Pyre Analysis of physiological responses induced by motion sickness and its detection based on ocular parameters
Blanco et al. gVARVI: A graphical software tool for the acquisition of the heart rate in response to external stimuli
Billis et al. Development of cognitive and physical exercise systems, clinical recordings, large-scale data analytics, and virtual coaching for heart failure patients: protocol for the BioTechCOACH-ForALL project
Jillich Acquisition, analysis and visualization of data from physiological sensors for biofeedback applications
Guillen-Sanz et al. A systematic review of wearable biosensor usage in immersive virtual reality experiences
Vartak et al. Cognitive state estimation for adaptive learning systems using wearable physiological sensors
Su Multisystem effects of creative movement intervention and associated changes in cortical activation in children with autism spectrum disorder (ASD)

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231226