JP6930234B2 - Collision sensation presentation system and program - Google Patents

Collision sensation presentation system and program Download PDF

Info

Publication number
JP6930234B2
JP6930234B2 JP2017112980A JP2017112980A JP6930234B2 JP 6930234 B2 JP6930234 B2 JP 6930234B2 JP 2017112980 A JP2017112980 A JP 2017112980A JP 2017112980 A JP2017112980 A JP 2017112980A JP 6930234 B2 JP6930234 B2 JP 6930234B2
Authority
JP
Japan
Prior art keywords
collision
moving body
drive control
suspension
presentation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017112980A
Other languages
Japanese (ja)
Other versions
JP2018202018A (en
Inventor
亮 小玉
亮 小玉
延維 藤枝
延維 藤枝
隆史 河合
隆史 河合
雄祐 長谷川
雄祐 長谷川
穣 伊波
穣 伊波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017112980A priority Critical patent/JP6930234B2/en
Publication of JP2018202018A publication Critical patent/JP2018202018A/en
Application granted granted Critical
Publication of JP6930234B2 publication Critical patent/JP6930234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、衝突感覚提示システム及びプログラムに関する。 The present invention relates to a collision sensation presentation system and a program.

特許文献1には、仮想空間画像に応じて、ユーザの指に与える力覚を発生する力覚発生手段と、前記指に装着され、前記力覚発生手段によって発生された力覚を前記指に提示する力覚提示手段と、前記力覚発生手段によって発生された力覚によって前記指を押しかえして前記指を所定の位置に保持することにより、前記指から前記力覚提示手段に加えられた作用力を所定の時期に計測する計測手段と、前記計測手段によって計測された作用力が第1の閾値以上であるか否かを判定する判定手段と、前記判定手段によって前記作用力が第1の閾値以上であると判定された場合には、前記力覚発生手段によって発生された力覚の大きさを該第1の閾値よりも小さい第2の閾値に変更する力覚変更手段と、を備えることを特徴とする力覚提示装置が開示されている。 Patent Document 1 describes a force sensation generating means for generating a force sensation given to a user's finger according to a virtual space image, and a force sensation attached to the finger and generated by the force sensation generating means to the finger. The force sense presenting means to be presented and the force sense generated by the force sense generation means push the finger back and hold the finger in a predetermined position, so that the finger is added to the force sense presentation means. A measuring means for measuring the acting force at a predetermined time, a determining means for determining whether or not the acting force measured by the measuring means is equal to or higher than the first threshold value, and the determining means for determining the acting force to be the first. When it is determined that the value is equal to or greater than the threshold value of, the force sense changing means for changing the magnitude of the force sense generated by the force sense generating means to a second threshold value smaller than the first threshold value. A force sense presenting device characterized by being provided is disclosed.

特許文献2には、仮想空間画像を生成する画像生成手段と、前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、前記仮想空間画像に応じて、ユーザの指に与える力覚を発生する力覚発生手段と、前記指に装着され、前記力覚発生手段によって発生された力覚を前記指に提示する力覚提示手段と、前記力覚提示手段が装着された指先を対象物に接触させた際、前記表示手段によって表示される仮想空間画像において前記力覚提示手段の厚みを取り除くように、前記画像生成手段によって生成された前記仮想空間画像を補正する画像補正手段と、を備えることを特徴とする力覚提示装置が開示されている。 Patent Document 2 describes an image generation means for generating a virtual space image, a display means for displaying a virtual space image generated by the image generation means, and a force sense given to a user's finger according to the virtual space image. A force sensation generating means for generating An image correction means for correcting the virtual space image generated by the image generation means so as to remove the thickness of the force sense presenting means in the virtual space image displayed by the display means when the object is brought into contact with the object. A force sensation presenting device comprising the above is disclosed.

特開2004−213351号公報Japanese Unexamined Patent Publication No. 2004-213351 特開2004−213350号公報Japanese Unexamined Patent Publication No. 2004-213350

VRコンテンツを提供するバーチャルリアリティシステムに車両が利用される形態は、パッシブ型、アクティブ型、バーチャル・ドライブ型の3種類に分類される。パッシブ型は、車両が加速すれば提示されるコンテンツ内部でも加速するというように、車両の運転に合わせたコンテンツを提示する形態である。アクティブ型は、提示するコンテンツに合わせて車両を自動運転により駆動することで移動感覚等を提示し、コンテンツの臨場感を向上させる形態である。バーチャル・ドライブ型は、運転手がHMDを装着し、バーチャル空間の映像を提示された状態で、実空間にて実際に車両の走行を行う形態である。 Vehicles are used in virtual reality systems that provide VR content, and are classified into three types: passive type, active type, and virtual drive type. The passive type is a form in which content that matches the driving of the vehicle is presented, such that if the vehicle accelerates, the content that is presented also accelerates. The active type is a form in which the vehicle is driven by automatic driving according to the content to be presented to present a sense of movement and the like to improve the sense of presence of the content. The virtual drive type is a form in which the driver actually wears the HMD and actually runs the vehicle in the real space while the image of the virtual space is presented.

バーチャルリアリティシステムにおいては、映像提示に合わせて感覚を提示するアクティブ型の形態で、車両等の移動体がモーション・プラットホーム(MP)として利用される技術は実用例がない。また、特許文献1、2に記載された「感覚を提示する技術」についても、ユーザの指に力覚を提示するものであり、衝突による衝撃など利用者が全身で感じ取ることができる感覚を提示するものではなかった。 In a virtual reality system, there is no practical example of a technology in which a moving object such as a vehicle is used as a motion platform (MP) in an active form in which a sense is presented according to a video presentation. Further, the "technology for presenting sensation" described in Patent Documents 1 and 2 also presents a sense of force to the user's finger, and presents a sensation that the user can perceive with the whole body such as an impact due to a collision. It wasn't something to do.

本発明の目的は、移動体に搭乗する利用者に提供されているバーチャル空間で衝突イベントが発生した場合に、弾性体との衝突感覚を利用者に提示することができる衝突感覚提示システム及びプログラムを提供することにある。 An object of the present invention is a collision sensation presentation system and a program capable of presenting a collision sensation with an elastic body to a user when a collision event occurs in a virtual space provided to a user boarding a moving body. Is to provide.

上記目的を達成するために、請求項1に記載の発明は、サスペンションの振動により、搭乗する利用者に衝突感覚を提示する移動体としての衝突感覚提示装置と、バーチャル空間における物体同士の衝突の発生が予測される場合に、前記衝突の発生に合わせて、バーチャル空間における前記衝突による前記物体の変位量、または物体同士の弾性の差分に応じた振幅で前記サスペンションを振動させるように、前記移動体における前記サスペンション以外の各部を駆動制御する駆動制御装置と、を備えた衝突感覚提示システムである。 In order to achieve the above object, the invention according to claim 1 is a collision sensation presenting device as a moving body that presents a collision sensation to a passenger on board by vibration of a suspension, and a collision between objects in a virtual space. When the occurrence is predicted, the movement so as to vibrate the suspension with an amplitude corresponding to the amount of displacement of the object due to the collision in the virtual space or the difference in elasticity between the objects in accordance with the occurrence of the collision. It is a collision sensation presentation system including a drive control device for driving and controlling each part of the body other than the suspension.

本発明によれば、移動体に搭乗する利用者に提供されているバーチャル空間で衝突イベントが発生した場合に、弾性体との衝突感覚を利用者に提示することができる。 According to the present invention, when a collision event occurs in the virtual space provided to the user boarding the moving body, the user can be presented with the feeling of collision with the elastic body.

本発明の第1の実施の形態に係る衝突感覚提示システムの概略を示す概略図である。It is the schematic which shows the outline of the collision sensation presentation system which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係る衝突感覚提示システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the collision sensation presentation system which concerns on 1st Embodiment of this invention. VRコンテンツ再生装置の電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electric structure of the VR content reproduction apparatus. 移動体の駆動制御系の一例を示すブロック図である。It is a block diagram which shows an example of the drive control system of a moving body. (A)及び(B)は物体同士の衝突の一例を説明する図である。(A) and (B) are diagrams for explaining an example of collision between objects. (A)は弾性を表す模式図である。(B)は弾性体との衝突の一例を表す模式図である。(C)は移動体の構造の一例を表す模式図である。(A) is a schematic diagram showing elasticity. (B) is a schematic diagram showing an example of collision with an elastic body. (C) is a schematic diagram showing an example of the structure of a moving body. (A)及び(B)は、バーチャル空間で衝突に関与する物体の変位の時間変化の一例を表すグラフである。(A) and (B) are graphs showing an example of time change of displacement of an object involved in a collision in virtual space. (A)及び(B)は、サスペンションが振動する様子を示す模式図である。(A) and (B) are schematic views showing how the suspension vibrates. (A)から(D)は、サスペンションを振動させるための移動体の駆動手順の一例を説明する模式図である。FIGS. (A) to (D) are schematic views illustrating an example of a procedure for driving a moving body for vibrating the suspension. 本発明の第1の実施の形態に係る「衝突イベント検出処理」の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of "collision event detection processing" which concerns on 1st Embodiment of this invention. 「衝突イベント検出処理」の流れの他の一例を示すフローチャートである。It is a flowchart which shows another example of the flow of "collision event detection processing". VRコンテンツのシナリオの一例を示すタイムチャートである。It is a time chart which shows an example of the scenario of VR contents. 「衝撃生成処理」の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of "impact generation processing". 本発明の第1の実施の形態に係る「駆動パターン取得処理」の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of "drive pattern acquisition processing" which concerns on 1st Embodiment of this invention. (A)及び(B)は揺動パターンと駆動パターンの相関関係を示す模式図である。(A) and (B) are schematic diagrams showing the correlation between the swing pattern and the drive pattern. 本発明の第2の実施の形態に係る「駆動パターン取得処理」の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of "drive pattern acquisition processing" which concerns on 2nd Embodiment of this invention. 衝突の種類に応じて揺動パターンと駆動パターンとを予め関連付けるテーブルの一例を示す図表である。It is a figure which shows an example of the table which associates a swing pattern and a drive pattern in advance according to the type of a collision. 本発明の第3の実施の形態に係る「駆動パターン取得処理」の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of "drive pattern acquisition processing" which concerns on 3rd Embodiment of this invention. 衝突の種類、揺動パターン、及び駆動パターンが予め登録されたシナリオの一例を示す図表である。It is a figure which shows an example of the scenario in which a collision type, a swing pattern, and a drive pattern are registered in advance.

以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。 Hereinafter, an example of the embodiment of the present invention will be described in detail with reference to the drawings.

<第1の実施の形態>
(衝突感覚提示システム)
まず、衝突感覚提示システムの概略を簡単に説明する。
図1は本発明の第1の実施の形態に係る衝突感覚提示システムの概略を示す概略図である。図1に示すように、本実施の形態に係る衝突感覚提示システムでは、サスペンションを備えた移動体44をモーション・プラットホーム(MP)として利用して、ユーザ12にバーチャル空間で発生するイベントを体験させるバーチャル・リアリティ・コンテンツ(VRコンテンツ)を提供する。サスペンションを備えた移動体44としては、車両、電動車椅子等が挙げられる。
<First Embodiment>
(Collision sensation presentation system)
First, the outline of the collision sensation presentation system will be briefly described.
FIG. 1 is a schematic view showing an outline of a collision sensation presentation system according to the first embodiment of the present invention. As shown in FIG. 1, in the collision sensation presentation system according to the present embodiment, the moving body 44 provided with the suspension is used as a motion platform (MP) to allow the user 12 to experience an event occurring in the virtual space. Provide virtual reality content (VR content). Examples of the moving body 44 provided with the suspension include a vehicle, an electric wheelchair, and the like.

ユーザ12は、ヘッド・マウント・ディスプレイ(HMD)50を装着して移動体44に搭乗している。HMD50は、バーチャル空間の映像や音声をユーザ12に提示する。移動体44は、衝突、移動、傾斜、温度変化等、バーチャル空間で発生するイベントに応じて駆動される。これにより、移動体44に搭乗しているユーザ12に、イベントに応じた感覚が提示される。人間は複数の感覚を統合することで、身の周りで起きる現象を認識している。このため、映像(視覚)と他の感覚とが同時に提示されることで、ユーザ12がバーチャル空間の情報は事実だと錯覚し、VRコンテンツの臨場感が高まるのである。 The user 12 is aboard the mobile body 44 with the head mounted display (HMD) 50 attached. The HMD 50 presents the video and audio of the virtual space to the user 12. The moving body 44 is driven in response to an event that occurs in the virtual space, such as collision, movement, inclination, and temperature change. As a result, the user 12 on board the moving body 44 is presented with a feeling corresponding to the event. Humans recognize the phenomena that occur around us by integrating multiple senses. Therefore, when the image (visual sense) and other senses are presented at the same time, the user 12 thinks that the information in the virtual space is a fact, and the presence of the VR content is enhanced.

本実施の形態では、移動体44をMPとして利用して、衝突イベントに応じた衝突感覚を提示する場合について説明する。本実施の形態に係る衝突感覚提示システムは、バーチャル空間において物体同士の衝突イベントが発生する場合に、移動体44を駆動して衝突イベントに応じた衝突感覚をユーザ12に提示すると共に、HMD50を介して衝突イベントを反映させた映像や音声をユーザ12に提示する。 In the present embodiment, a case where the moving body 44 is used as an MP to present a collision sensation corresponding to a collision event will be described. The collision sensation presentation system according to the present embodiment drives the moving body 44 to present the collision sensation corresponding to the collision event to the user 12 when a collision event between objects occurs in the virtual space, and displays the HMD 50. The video and audio reflecting the collision event are presented to the user 12 through the system.

次に、衝突感覚提示システムの構成について説明する。
図2は本発明の第1の実施の形態に係る衝突感覚提示システムの構成の一例を示すブロック図である。図2に示すように、衝突感覚提示システムは、VRコンテンツ再生装置10と、感覚提示装置群40とを備えている。
Next, the configuration of the collision sensation presentation system will be described.
FIG. 2 is a block diagram showing an example of the configuration of the collision sensation presentation system according to the first embodiment of the present invention. As shown in FIG. 2, the collision sensation presentation system includes a VR content reproduction device 10 and a sensation presentation device group 40.

VRコンテンツ再生装置10は、VRコンテンツ記憶部11、衝突解析部14、及び情報更新部16を備えている。衝突解析部14は、衝突イベント検出部18と衝撃生成部20とを備えている。感覚提示装置群40には、移動体44、映像表示装置46、及び音声出力装置48が含まれている。なお、後述する通り、本実施の形態では、HMD50が、映像表示装置46と音声出力装置48とを備えている。 The VR content playback device 10 includes a VR content storage unit 11, a collision analysis unit 14, and an information update unit 16. The collision analysis unit 14 includes a collision event detection unit 18 and an impact generation unit 20. The sensory presentation device group 40 includes a mobile body 44, a video display device 46, and an audio output device 48. As will be described later, in the present embodiment, the HMD 50 includes a video display device 46 and an audio output device 48.

VRコンテンツ記憶部11には、VRコンテンツが記憶されている。衝突解析部14は、VRコンテンツ記憶部11から次に再生するVR映像情報を読み出す。衝突イベント検出部18は、VR映像情報から衝突イベントを検出する。衝突イベントが検出された場合、衝撃生成部20は、衝突イベント検出部18から衝突情報を取得し、取得された衝突情報から衝突イベントに応じた駆動情報を生成する。ここで「駆動情報」とは、駆動対象を駆動制御する駆動制御値の経時変化を表す「駆動パターン」である。駆動パターンは、アクセル電圧の波形パターン等、駆動対象毎に求められる。 The VR content is stored in the VR content storage unit 11. The collision analysis unit 14 reads the VR video information to be reproduced next from the VR content storage unit 11. The collision event detection unit 18 detects a collision event from the VR video information. When a collision event is detected, the impact generation unit 20 acquires collision information from the collision event detection unit 18 and generates drive information according to the collision event from the acquired collision information. Here, the "drive information" is a "drive pattern" representing a change with time of a drive control value for driving and controlling a drive target. The drive pattern is obtained for each drive target such as a waveform pattern of the accelerator voltage.

情報更新部16は、駆動情報に基づいて所定時間毎に(例えば、0.01秒毎に)駆動制御値を取得して、取得した駆動制御値を「制御情報」として移動体44に出力する。駆動制御値(制御情報)は、所定時間毎に更新される。移動体44は、得られた「制御情報」に基づいて駆動制御される。移動体44が駆動されて、衝突イベントに応じた衝突感覚がユーザ12に提示される。 The information update unit 16 acquires a drive control value at predetermined time intervals (for example, every 0.01 seconds) based on the drive information, and outputs the acquired drive control value as "control information" to the moving body 44. .. The drive control value (control information) is updated at predetermined time intervals. The mobile body 44 is driven and controlled based on the obtained "control information". The moving body 44 is driven, and the collision sensation corresponding to the collision event is presented to the user 12.

衝撃生成部20は、衝突イベントに応じた駆動情報を生成すると共に、衝突イベントを反映させた映像情報及び音声情報も生成する。映像情報及び音声情報は、制御情報を出力するタイミングで、HMD50(映像表示装置46と音声出力装置48)に出力される。これにより、映像及び音声が、移動体44の動きと同期して切り替わる。HMD50を介して衝突イベントを反映させた映像や音声がユーザ12に提示される。 The impact generation unit 20 generates drive information according to the collision event, and also generates video information and audio information reflecting the collision event. The video information and audio information are output to the HMD 50 (video display device 46 and audio output device 48) at the timing of outputting the control information. As a result, the video and audio are switched in synchronization with the movement of the moving body 44. Video and audio reflecting the collision event are presented to the user 12 via the HMD 50.

ここで、VRコンテンツ再生装置10の電気的構成について説明する。
図3はVRコンテンツ再生装置の電気的構成の一例を示すブロック図である。
VRコンテンツ再生装置10は、コンピュータとして構成されている。即ち、VRコンテンツ再生装置10は、CPU10A、ROM10B、RAM10C、不揮発性のメモリ10D、及び入出力部(I/O)10Eを備えている。これら各部は、バス10Fを介して互いに接続されている。CPU10Aは、ROM10Bに記憶されたプログラム等を読み出し、RAM10Cをワークエリアとして使用してプログラムを実行する。
Here, the electrical configuration of the VR content playback device 10 will be described.
FIG. 3 is a block diagram showing an example of the electrical configuration of the VR content playback device.
The VR content playback device 10 is configured as a computer. That is, the VR content playback device 10 includes a CPU 10A, a ROM 10B, a RAM 10C, a non-volatile memory 10D, and an input / output unit (I / O) 10E. Each of these parts is connected to each other via a bus 10F. The CPU 10A reads out a program or the like stored in the ROM 10B, and executes the program using the RAM 10C as a work area.

I/O10Eには、外部装置と通信を行う通信部21、ユーザからの操作を受け付ける操作部23、ユーザに情報を表示する表示部25、及び情報を記憶する記憶部27が接続されている。また、VRコンテンツ再生装置10のI/O10Eには、移動体44及びHMD50が接続されている。通信部21、操作部23、表示部25、記憶部27、移動体44、及びHMD50の各々は、VRコンテンツ再生装置10により制御されており、VRコンテンツ再生装置10との間で情報をやり取りする。 The I / O 10E is connected to a communication unit 21 that communicates with an external device, an operation unit 23 that receives an operation from a user, a display unit 25 that displays information to the user, and a storage unit 27 that stores information. Further, the mobile body 44 and the HMD 50 are connected to the I / O 10E of the VR content playback device 10. Each of the communication unit 21, the operation unit 23, the display unit 25, the storage unit 27, the mobile body 44, and the HMD 50 is controlled by the VR content playback device 10, and exchanges information with the VR content playback device 10. ..

なお、HMD50は、映像表示装置46と音声出力装置48の他に、ユーザ12の頭部の動きを検出する頭動作検出装置49を備えている。頭動作検出装置49は、3軸又は6軸の加速度センサなどで構成されている。また、移動体44及びHMD50の各々が、コンピュータを内蔵する通信可能な電子機器である場合は、通信部21を介して、移動体44及びHMD50の各々と情報をやり取りしてもよい。 In addition to the video display device 46 and the audio output device 48, the HMD 50 includes a head motion detection device 49 that detects the movement of the head of the user 12. The head motion detection device 49 is composed of a 3-axis or 6-axis acceleration sensor or the like. When each of the mobile body 44 and the HMD 50 is a communicable electronic device having a built-in computer, information may be exchanged with each of the mobile body 44 and the HMD 50 via the communication unit 21.

また、移動体44をMPとして使用する場合の、移動体44の駆動制御系について説明する。図4は移動体44の駆動制御系の一例を示すブロック図である。ここでは、移動体44が「車両」である場合について説明する。図4に示すように、移動体44は、操作部26、車速計28等の計測部、駆動部30、駆動対象32、及びタイヤ42を備えている。 Further, a drive control system for the mobile body 44 when the mobile body 44 is used as an MP will be described. FIG. 4 is a block diagram showing an example of the drive control system of the moving body 44. Here, the case where the moving body 44 is a “vehicle” will be described. As shown in FIG. 4, the moving body 44 includes an operation unit 26, a measurement unit such as a vehicle speedometer 28, a drive unit 30, a drive target 32, and a tire 42.

操作部26としては、ペダル26A、26D、レバー26B、ハンドル26C、リモコン26Eが例示されている。駆動部30としては、D/Aコンバータ30A、インターフェイス(I/O)30B、30E、モータ30C、30Dが例示されている。駆動対象32としては、アクセル32A、シフト(シフトレバー)32B、ステアリング32C、ブレーキ32D、エアサスペンション32Eが例示されている。 Examples of the operation unit 26 include pedals 26A and 26D, lever 26B, handle 26C, and remote controller 26E. Examples of the drive unit 30 include a D / A converter 30A, interfaces (I / O) 30B and 30E, and motors 30C and 30D. Examples of the drive target 32 include an accelerator 32A, a shift (shift lever) 32B, a steering 32C, a brake 32D, and an air suspension 32E.

移動体44がVRコンテンツ再生装置10に接続されている場合には、実線で図示するように、VRコンテンツ再生装置10は、操作部26の操作を模擬して駆動パターンを生成し、駆動パターンに基づいて移動体44を駆動制御するための制御情報を生成する。そして、VRコンテンツ再生装置10は、得られた制御情報を、移動体44に出力する。移動体44では、入力された制御情報に応じて、駆動部30を介して駆動対象32が駆動制御される。即ち、移動体44はMPとして利用される。 When the mobile body 44 is connected to the VR content playback device 10, as shown by the solid line, the VR content playback device 10 simulates the operation of the operation unit 26 to generate a drive pattern, which is used as the drive pattern. Based on this, control information for driving and controlling the moving body 44 is generated. Then, the VR content reproduction device 10 outputs the obtained control information to the mobile body 44. In the moving body 44, the drive target 32 is driven and controlled via the drive unit 30 according to the input control information. That is, the moving body 44 is used as an MP.

例えば、ユーザ12に衝突による衝撃を体感させたい場合には、「シフトをDに切り替えて、アクセルをオンにした後に、アクセルをオフにする」など、操作部26の操作を模擬して駆動パターンを生成し、生成された駆動パターンに応じてシフトやアクセルを駆動制御する制御情報を移動体44に出力する。なお、駆動パターンは、予め用意しておいてもよいし、動的に生成してもよい。ここで、動的とは、シナリオに沿って進まない、インタラクティブなVRコンテンツに応じてという意味である。 For example, when the user 12 wants to experience the impact of a collision, the drive pattern simulates the operation of the operation unit 26, such as "switch the shift to D, turn on the accelerator, and then turn off the accelerator". Is generated, and control information for driving and controlling the shift and the accelerator according to the generated drive pattern is output to the moving body 44. The drive pattern may be prepared in advance or may be dynamically generated. Here, dynamic means according to interactive VR content that does not proceed according to the scenario.

図4では移動体44の一部として「エアサスペンション32E」を例示するが、サスペンション自体を駆動する(振動させる)ことはできない。エアサスペンションは、コイルバネを空気バネに置き換えたもので、サスペンションの固さ(バネの強さ)を調整することができる。移動体44は通常のサスペンションを備えていてもよいが、エアサスペンションを備える場合には、後述する弾性体との衝突感覚の表現が多様化する。 In FIG. 4, the "air suspension 32E" is illustrated as a part of the moving body 44, but the suspension itself cannot be driven (vibrated). The air suspension replaces the coil spring with an air spring, and the hardness (spring strength) of the suspension can be adjusted. The moving body 44 may be provided with a normal suspension, but when the moving body 44 is provided with an air suspension, the expression of the collision sensation with the elastic body, which will be described later, is diversified.

また、移動体44が暴走しないように安全装置を設けることが好ましい。例えば、VRコンテンツ再生装置10が故障した場合には、移動体44とVRコンテンツ再生装置10との接続を遮断するようにしてもよい。 Further, it is preferable to provide a safety device so that the moving body 44 does not run away. For example, when the VR content reproduction device 10 fails, the connection between the mobile body 44 and the VR content reproduction device 10 may be cut off.

なお、移動体44は通常の移動体(例えば、車両)として利用される場合は、移動体44が移動体制御用コンピュータ(図示せず)と接続される。この場合には、点線で図示するように、操作部26をインターフェイスとして駆動対象32を駆動制御する。例えば、ブレーキペダルを踏めばブレーキが作動するというように、操作部26を操作することにより制御情報が生成される。移動体制御用コンピュータは、生成された制御情報に応じて駆動対象32を駆動制御する。駆動対象32は、駆動部30を介して駆動制御される。 When the moving body 44 is used as a normal moving body (for example, a vehicle), the moving body 44 is connected to a moving body control computer (not shown). In this case, as shown by the dotted line, the operation unit 26 is used as an interface to drive and control the drive target 32. For example, control information is generated by operating the operation unit 26, such that the brake is activated when the brake pedal is depressed. The moving object control computer drives and controls the drive target 32 according to the generated control information. The drive target 32 is driven and controlled via the drive unit 30.

(弾性体との衝突の模擬)
次に、弾性体との衝突について説明する。
図5(A)及び(B)は物体同士の衝突の一例を説明する図である。物体Aが物体Bに衝突する場合について考える。物体A及び物体Bは、バーチャル空間に存在する物体である。物体Aは、移動体44または移動体44に搭乗しているユーザ12のアバターを表す物体である。以下では、「ユーザ12を表す物体A」と称する場合がある。物体Aは、弾性が低い(固い)物体である。ここで「弾性」とは、外力によって変形した物体が、その外力が除かれたときに元の形に戻ろうとする性質である。また、「弾性体」は、弾性を備えた物体である。
(Simulation of collision with elastic body)
Next, the collision with the elastic body will be described.
5 (A) and 5 (B) are diagrams for explaining an example of collision between objects. Consider the case where the object A collides with the object B. The object A and the object B are objects existing in the virtual space. The object A is an object representing the moving body 44 or the avatar of the user 12 boarding the moving body 44. Hereinafter, it may be referred to as "object A representing user 12". The object A is an object having low elasticity (hard). Here, "elasticity" is a property that an object deformed by an external force tends to return to its original shape when the external force is removed. Further, the "elastic body" is an object having elasticity.

図5(A)に示す例では、物体Bは弾性の高い(柔らかい)物体である。物体Bの弾性が高い場合は、物体Aが物体Bにぶつかると、物体Aが物体Bに少しめり込んだ後、物体Bにより反対方向にボヨンと押し返される。即ち、バーチャル空間において物体Bは弾性が高い弾性体と設定されている。 In the example shown in FIG. 5A, the object B is a highly elastic (soft) object. When the elasticity of the object B is high, when the object A hits the object B, the object A is slightly sunk into the object B and then pushed back by the object B in the opposite direction. That is, the object B is set as an elastic body having high elasticity in the virtual space.

一方、図5(B)に示す例では、物体Bは弾性の低い(固い)壁である。物体Bの弾性が低い場合は、物体Aが物体Bにぶつかると、ガンと即座に押し止められる。即ち、バーチャル空間において物体Bは弾性が低い非弾性体と設定されている。なお、物体Aの弾性が、物体Bの弾性に比べて低い場合は、物体Aが振動する。 On the other hand, in the example shown in FIG. 5B, the object B is a wall having low elasticity (hard). When the elasticity of the object B is low, when the object A hits the object B, it is immediately pressed against the gun. That is, the object B is set as an inelastic body having low elasticity in the virtual space. When the elasticity of the object A is lower than the elasticity of the object B, the object A vibrates.

本実施の形態では、バーチャル空間での衝突イベントに応じて衝突感覚を提示する際に、衝突に関与する物体の弾性を模擬するように、移動体44のサスペンションを振動させる。サスペンションの振動により、移動体44及びユーザ12が揺動されて、弾性体との衝突感覚がユーザ12に提示される。 In the present embodiment, the suspension of the moving body 44 is vibrated so as to simulate the elasticity of the object involved in the collision when presenting the collision sensation in response to the collision event in the virtual space. The vibration of the suspension causes the moving body 44 and the user 12 to swing, and the user 12 is presented with a feeling of collision with the elastic body.

次に、サスペンションを振動(伸縮)させる理由について説明する。
図6(A)は弾性を表す模式図である。図6(A)に示すように、「弾性」または「弾性体」は、並列に接続されたバネBとダンパDとで表現される。図6(B)は弾性体との衝突の一例を表す模式図である。図6(B)に示すように、物体Aが、弾性体である物体Bに衝突する際の、物体A及び物体B各々のバーチャル空間での変位量は計算で求められる。ここでは、ユーザ12を表す物体Aの変位を表す。
Next, the reason for vibrating (expanding / contracting) the suspension will be described.
FIG. 6A is a schematic view showing elasticity. As shown in FIG. 6A, the "elasticity" or "elastic body" is represented by a spring B and a damper D connected in parallel. FIG. 6B is a schematic view showing an example of collision with an elastic body. As shown in FIG. 6B, the amount of displacement of each of the object A and the object B in the virtual space when the object A collides with the elastic object B is calculated. Here, the displacement of the object A representing the user 12 is represented.

図6(C)は移動体の構造の一例を表す模式図である。図6(C)に示すように、移動体44に搭載されるサスペンション60、62は、バネとダンパで構成される弾性体である。したがって、バーチャル空間で衝突に関与する物体の弾性を模擬するように、サスペンション60、62を振動させると、移動体44に搭乗しているユーザ12が、バーチャル空間の物体と同様に揺動されて、弾性体との衝突感覚をユーザに提示することができる。 FIG. 6C is a schematic view showing an example of the structure of the moving body. As shown in FIG. 6C, the suspensions 60 and 62 mounted on the moving body 44 are elastic bodies composed of a spring and a damper. Therefore, when the suspensions 60 and 62 are vibrated so as to simulate the elasticity of the object involved in the collision in the virtual space, the user 12 on the moving body 44 is swung in the same manner as the object in the virtual space. , The feeling of collision with the elastic body can be presented to the user.

サスペンションは駆動対象ではなく、サスペンションを振動させる等の駆動制御を行うことはできない。しかしながら、例えば、前側サスペンション60は、移動体44を前進させた直後に後進させるなど、移動体44を駆動して荷重移動させることで振動させることができる。サスペンションにかかる荷重の大小によって、サスペンションの振動の振幅と周波数が変化する。なお、移動体44の駆動方法については後述する。 The suspension is not a drive target, and drive control such as vibrating the suspension cannot be performed. However, for example, the front suspension 60 can be vibrated by driving the moving body 44 to move the load, such as moving the moving body 44 backward immediately after moving it forward. The amplitude and frequency of the vibration of the suspension change depending on the magnitude of the load applied to the suspension. The driving method of the moving body 44 will be described later.

次に、弾性を模擬する手法について説明する。
図7(A)及び図7(B)は、バーチャル空間で衝突に関与する物体の衝突時の変位の時間変化の一例を表すグラフである。以下、物体の変位の時間変化(揺動)を「揺動パターン」という。図7(A)及び図7(B)は、物体Aが物体Bに衝突する際の、ユーザ12を表す物体Aの変位の時間変化を表す。
Next, a method of simulating elasticity will be described.
7 (A) and 7 (B) are graphs showing an example of a time change of displacement of an object involved in a collision in a virtual space at the time of a collision. Hereinafter, the time change (swing) of the displacement of the object is referred to as a "swing pattern". 7 (A) and 7 (B) show the time change of the displacement of the object A representing the user 12 when the object A collides with the object B.

物体Aが非弾性体であり、物体Bが弾性体である(柔らかい)場合は、図7(A)に示すように、衝突時の物体Aの変位は大きく、時間をかけてゆっくりと変化する。これに対し、物体Aは非弾性体であり、物体Bも非弾性体である(固い)場合は、図7(B)に示すように、衝突時の物体Aの変位は小さく、短時間で変化する。 When the object A is an inelastic body and the object B is an elastic body (soft), as shown in FIG. 7A, the displacement of the object A at the time of collision is large and changes slowly over time. .. On the other hand, when the object A is an inelastic body and the object B is also an inelastic body (hard), as shown in FIG. 7B, the displacement of the object A at the time of collision is small and the displacement is short. Change.

図8(A)及び図8(B)は、サスペンションが振動する様子を示す模式図である。サスペンションの振動の振幅が大きいほど、復元に時間がかかり、サスペンションの振動の振幅が小さいほど、素早く復元する。サスペンションの振幅が大きい場合には、図8(A)に示すように、移動体44は、上下方向に大きく揺動され、時間をかけてゆっくりと揺動される。ここで、サスペンションの振動の「振幅」とは、いわゆる「サスペンションの沈み込み量」であり、移動体44への衝撃を吸収してサスペンションのバネが縮んだときの「伸縮量」に相当する。 8 (A) and 8 (B) are schematic views showing how the suspension vibrates. The larger the amplitude of the vibration of the suspension, the longer it takes to restore, and the smaller the amplitude of the vibration of the suspension, the faster the restoration. When the amplitude of the suspension is large, as shown in FIG. 8A, the moving body 44 is largely swung in the vertical direction and is slowly swung over time. Here, the "amplitude" of the vibration of the suspension is the so-called "subduction amount of the suspension", and corresponds to the "expansion / contraction amount" when the spring of the suspension contracts by absorbing the impact on the moving body 44.

一方、サスペンションの振動の振幅が小さい場合には、図8(B)に示すように、移動体44は、上下方向に小さく揺動され、短時間で揺動が収まる。なお、図8(A)及び図8(B)は、移動体44が上下方向に動くことを模式的に表すものであり、前輪タイヤが上下方向に動くものではない。 On the other hand, when the amplitude of the vibration of the suspension is small, as shown in FIG. 8B, the moving body 44 swings slightly in the vertical direction, and the swing stops in a short time. Note that FIGS. 8A and 8B schematically show that the moving body 44 moves in the vertical direction, and the front wheel tires do not move in the vertical direction.

したがって、物体Aが非弾性体であり、物体Bが弾性体である(柔らかい)場合は、図7(A)に示すように衝突時の物体Aの変位が大きくなるので、サスペンションの振動の振幅を大きくして、図8(A)に示すように、移動体44をゆっくりと大きく揺動する。また、物体Aが非弾性体であり、物体Bも非弾性体である(固い)場合は、図7(B)に示すように衝突時の物体Aの変位は小さいので、サスペンションの振動の振幅を小さくして、図8(B)に示すように、移動体44を短時間で小さく揺動する。 Therefore, when the object A is an inelastic body and the object B is an elastic body (soft), the displacement of the object A at the time of collision becomes large as shown in FIG. 7 (A), so that the amplitude of the vibration of the suspension As shown in FIG. 8A, the moving body 44 is slowly and greatly swung. When the object A is an inelastic body and the object B is also an inelastic body (hard), the displacement of the object A at the time of collision is small as shown in FIG. 7B, so that the amplitude of the vibration of the suspension is small. As shown in FIG. 8 (B), the moving body 44 is swung small in a short time.

この通り、物体Aが非弾性体であり、物体Bが弾性体の場合はサスペンションの振動の振幅を大きく、物体Aが非弾性体であり、物体Bも非弾性体の場合にはサスペンションの振動の振幅を小さくする等、バーチャル空間で衝突に関与する物体の「弾性」に応じてサスペンションの振動の振幅を変えることで、衝突に関与する物体の弾性が模擬されて、移動体44に搭乗しているユーザに弾性体との衝突感覚が提示される。 As described above, when the object A is an inelastic body and the object B is an elastic body, the vibration amplitude of the suspension is large, and when the object A is an inelastic body and the object B is also an inelastic body, the vibration of the suspension is large. By changing the elasticity of the vibration of the suspension according to the "elasticity" of the object involved in the collision in the virtual space, such as reducing the elasticity of the object, the elasticity of the object involved in the collision is simulated and the moving body 44 is boarded. The user is presented with a feeling of collision with the elastic body.

(移動体の駆動手順)
次に、移動体の駆動手順について説明する。
サスペンションは、移動体44を駆動することで振動させることができる。例えば、走行中にブレーキをかけると荷重が前方に寄り、移動体44が停止すると、荷重が後方に寄る。本実施の形態では、この荷重移動によりサスペンションを振動させる。
(Procedure for driving a moving body)
Next, the procedure for driving the moving body will be described.
The suspension can be vibrated by driving the moving body 44. For example, when the brake is applied during traveling, the load moves forward, and when the moving body 44 stops, the load moves backward. In the present embodiment, the suspension is vibrated by this load transfer.

図9(A)から図9(D)は、サスペンションを振動させるための移動体の駆動手順の一例を説明する模式図である。最初は、図9(A)に示すように、移動体44は停止している。次に、図9(B)に示すように、シフトチェンジ後のアクセルオンにより、停止している移動体44をF1の力で駆動する。移動体44は加速度a1で一方向に移動する。例えば、シフトをドライブ(D)に切り替え、アクセル電圧を正の方向に増加させて、移動体44を前方に移動させる(前進)。 9 (A) to 9 (D) are schematic views illustrating an example of a procedure for driving a moving body for vibrating the suspension. Initially, as shown in FIG. 9A, the moving body 44 is stopped. Next, as shown in FIG. 9B, the stopped moving body 44 is driven by the force of F1 by turning on the accelerator after the shift change. The moving body 44 moves in one direction at the acceleration a1. For example, the shift is switched to the drive (D), the accelerator voltage is increased in the positive direction, and the moving body 44 is moved forward (forward).

次に、図9(C)に示すように、シフトチェンジ後のアクセルオン、ブレーキなどにより、移動体44にF1とは逆方向の力F2をかける。移動体44は加速度a2で逆方向に移動する。例えば、シフトをリバース(R)に切り替え、アクセル電圧を負の方向に増加させて、移動体44を後方に移動させる(後進)。 Next, as shown in FIG. 9C, a force F2 in the direction opposite to that of F1 is applied to the moving body 44 by accelerating, braking, or the like after the shift change. The moving body 44 moves in the opposite direction at the acceleration a2. For example, the shift is switched to reverse (R), the accelerator voltage is increased in the negative direction, and the moving body 44 is moved backward (reverse).

また、逆方向の力F2が掛かると、上記の荷重移動により、移動体44の前側サスペンション60のバネが縮む。サスペンションの伸縮量、即ち、サスペンションの振動の振幅は、力F1と力F2の大きさと、各力を掛ける時間とにより調整される。最後は、図9(D)に示すように、バネの復元力により、前側サスペンション60が伸びる。なお、ダンパは、サスペンションの振動の減衰を遅らせる役割を担う。 Further, when a force F2 in the opposite direction is applied, the spring of the front suspension 60 of the moving body 44 contracts due to the above load transfer. The amount of expansion and contraction of the suspension, that is, the amplitude of the vibration of the suspension, is adjusted by the magnitudes of the forces F1 and F2 and the time for applying each force. Finally, as shown in FIG. 9D, the front suspension 60 is extended by the restoring force of the spring. The damper plays a role of delaying the damping of the vibration of the suspension.

なお、上記の駆動手順は一例であり、例えば、路面に設置された凸部または凹部を通過するように駆動する等、他の駆動手順によっても荷重移動によりサスペンションを振動させることができる。 The above-mentioned driving procedure is an example, and the suspension can be vibrated by the load transfer by another driving procedure such as driving so as to pass through a convex portion or a concave portion installed on the road surface.

(衝突イベント検出処理)
次に、「衝突イベント検出処理」について説明する。
図10は本発明の第1の実施の形態に係る「衝突イベント検出処理」の流れの一例を示すフローチャートである。「衝突イベント検出処理」は、図2の衝突イベント検出部18の動作を表す。「衝突イベント検出処理」のプログラムは、ROM10Bから読み出され、CPU10Aにより実行される。「衝突イベント検出処理」のプログラムの実行は、VRコンテンツの再生開始と共に開始される。
(Collision event detection processing)
Next, the "collision event detection process" will be described.
FIG. 10 is a flowchart showing an example of the flow of the “collision event detection process” according to the first embodiment of the present invention. The “collision event detection process” represents the operation of the collision event detection unit 18 of FIG. The program of "collision event detection processing" is read from ROM 10B and executed by CPU 10A. Execution of the program of "collision event detection process" is started at the same time as the start of playback of the VR content.

まず、ステップ100で、次に再生する映像情報を先に取得する(先取り)。映像情報は、予め定めた時間分ずつ取得される(例えば、図12のサンプル期間Δt)。次に、ステップ102で、当たり判定処理を実行する。当たり判定処理は、注目する物体から所定距離内の監視範囲内に他の物体が存在する場合に「衝突あり」と判定し、監視範囲内に他の物体が存在しない場合に「衝突なし」と判定する処理である。次に、ステップ104で、判定結果に基づいて衝突があるか否かを判断する。衝突ありの場合は、ステップ106に進み、ステップ106で衝突イベントを発行する。衝突なしの場合は、ステップ106を飛ばしてステップ108に進む。 First, in step 100, the video information to be reproduced next is acquired first (preemption). The video information is acquired for each predetermined time (for example, the sample period Δt in FIG. 12). Next, in step 102, the hit determination process is executed. The hit determination process determines that there is a "collision" when there is another object within the monitoring range within a predetermined distance from the object of interest, and "no collision" when there is no other object within the monitoring range. It is a judgment process. Next, in step 104, it is determined whether or not there is a collision based on the determination result. If there is a collision, the process proceeds to step 106, and a collision event is issued in step 106. If there is no collision, step 106 is skipped and step 108 is performed.

次に、ステップ108で、移動体44による感覚提示を、HMD50による感覚提示と同期して行えるか否かを判断する。移動体44の駆動に時間がかかるので、バーチャル空間での「衝突」を先取りできないと、移動体44による感覚提示を同期して行えない。例えば、バーチャル空間で衝突に関与する物体の速度が、所定速度より速い場合は、現在の監視範囲では当たり判定処理で「衝突」を先取りできないので、感覚提示を同期して行えないと判断する。同期して行えない場合は、ステップ110に進み、ステップ110で当たり判定の「範囲」を調整する。同期して行える場合は、ステップ110を飛ばしてステップ112に進む。 Next, in step 108, it is determined whether or not the sensory presentation by the moving body 44 can be performed in synchronization with the sensory presentation by the HMD 50. Since it takes time to drive the moving body 44, if the "collision" in the virtual space cannot be predicted in advance, the sensation presentation by the moving body 44 cannot be performed synchronously. For example, when the speed of an object involved in a collision in the virtual space is faster than a predetermined speed, it is determined that the sensation presentation cannot be performed synchronously because the "collision" cannot be preempted by the hit determination process in the current monitoring range. If it cannot be performed synchronously, the process proceeds to step 110, and the "range" of the hit determination is adjusted in step 110. If it can be done synchronously, step 110 is skipped and step 112 is performed.

次に、ステップ112で、所定時間が経過したか否かを判断する。所定時間が経過した場合は、ステップ114に進む。所定時間が経過していない場合は、ステップ112の判断を繰り返し行う。次に、ステップ114で、次の映像情報があるか否か判断する。次の映像情報が無い場合は、ルーチンを終了する。次の映像情報がある場合は、ステップ100に戻る。 Next, in step 112, it is determined whether or not the predetermined time has elapsed. When the predetermined time has elapsed, the process proceeds to step 114. If the predetermined time has not elapsed, the determination in step 112 is repeated. Next, in step 114, it is determined whether or not there is the next video information. If there is no next video information, the routine ends. If there is the next video information, the process returns to step 100.

なお、VRコンテンツがシナリオに沿って進む場合は、シナリオから衝突イベントを検出してもよい。図11は「衝突イベント検出処理」の流れの他の一例を示すフローチャートである。図12はVRコンテンツのシナリオの一例を示すタイムチャートである。 If the VR content proceeds according to the scenario, the collision event may be detected from the scenario. FIG. 11 is a flowchart showing another example of the flow of the “collision event detection process”. FIG. 12 is a time chart showing an example of a VR content scenario.

まず、図11のステップ200で、次に再生する映像のシナリオ情報を取得する。シナリオ情報は、予め定めた時間分ずつ取得される。次に、ステップ202で、シナリオ判定処理を実行する。シナリオ判定処理は、シナリオから衝突イベントを検出する処理である。図12に示すように、シナリオには、衝突の種類が発生時間に応じて予め登録されている。図12には、衝突の種類として「衝突A」、「衝突B」、「衝突C」が例示されている。図示した例では、サンプル期間Δt分のシナリオ情報が取得されている。したがって、サンプル期間Δt内にある「衝突B」に対応する衝突イベントと、「衝突C」に対応する衝突イベントとが検出される。 First, in step 200 of FIG. 11, the scenario information of the video to be reproduced next is acquired. The scenario information is acquired for each predetermined time. Next, in step 202, the scenario determination process is executed. The scenario determination process is a process of detecting a collision event from a scenario. As shown in FIG. 12, in the scenario, the types of collisions are registered in advance according to the occurrence time. In FIG. 12, "collision A", "collision B", and "collision C" are exemplified as the types of collision. In the illustrated example, scenario information for the sample period Δt is acquired. Therefore, the collision event corresponding to "collision B" and the collision event corresponding to "collision C" within the sample period Δt are detected.

次に、ステップ204で、衝突があるか否かを判断する。衝突ありの場合は、ステップ206に進み、ステップ206で衝突イベントを発行する。検出された「衝突B」と「衝突C」とについて、衝突イベントが発行される。衝突なしの場合は、ステップ206を飛ばしてステップ208に進む。 Next, in step 204, it is determined whether or not there is a collision. If there is a collision, the process proceeds to step 206, and a collision event is issued in step 206. A collision event is issued for the detected "collision B" and "collision C". If there is no collision, step 206 is skipped and step 208 proceeds.

次に、ステップ208で、所定時間が経過したか否かを判断する。所定時間が経過した場合は、ステップ210に進む。所定時間が経過していない場合は、ステップ208の判断を繰り返し行う。次に、ステップ210で、次のシナリオ情報があるか否か判断する。次のシナリオ情報が無い場合は、ルーチンを終了する。次のシナリオ情報がある場合は、ステップ200に戻る。 Next, in step 208, it is determined whether or not the predetermined time has elapsed. When the predetermined time has elapsed, the process proceeds to step 210. If the predetermined time has not elapsed, the determination in step 208 is repeated. Next, in step 210, it is determined whether or not there is the next scenario information. If there is no next scenario information, the routine ends. If there is the next scenario information, the process returns to step 200.

(衝撃生成処理/駆動パターン生成処理)
次に、「衝撃生成処理」について説明する。
図13は「衝撃生成処理」の流れの一例を示すフローチャートである。「衝撃生成処理」は、図2の衝撃生成部20の動作を表す。「衝撃生成処理」のプログラムは、ROM10Bから読み出され、CPU10Aにより実行される。「衝撃生成処理」のプログラムの実行は、VRコンテンツの再生開始と共に開始される。
(Impact generation processing / drive pattern generation processing)
Next, the "impact generation process" will be described.
FIG. 13 is a flowchart showing an example of the flow of the “impact generation process”. The “impact generation process” represents the operation of the impact generation unit 20 of FIG. The program of "impact generation processing" is read from ROM 10B and executed by CPU 10A. Execution of the program of "impact generation processing" is started at the same time as the start of playback of the VR content.

まず、ステップ300で、衝突イベントの発行を検知したか否かを判断する。検知した場合は、ステップ302に進み、ステップ302で衝突情報を取得する。検知していない場合は、ステップ300の判断を繰り返し行う。 First, in step 300, it is determined whether or not the issuance of a collision event is detected. If it is detected, the process proceeds to step 302, and collision information is acquired in step 302. If it is not detected, the determination in step 300 is repeated.

次に、ステップ304で、移動体44を駆動する駆動パターンを取得する「駆動パターンの取得処理」を実行する。続けて、ステップ306で、衝突が反映された映像情報及び音声情報を生成する。なお、映像情報及び音声情報の生成は、「駆動パターンの取得処理」と並列に行ってもよい。次に、ステップ308で、更新時間が到来したか否かを判定する。更新時間が到来した場合は、ステップ310に進む。更新時間が到来していない場合は、ステップ308の判断を繰り返し行う。 Next, in step 304, the "drive pattern acquisition process" for acquiring the drive pattern for driving the moving body 44 is executed. Subsequently, in step 306, video information and audio information reflecting the collision are generated. The video information and the audio information may be generated in parallel with the "drive pattern acquisition process". Next, in step 308, it is determined whether or not the update time has arrived. When the update time has arrived, the process proceeds to step 310. If the update time has not arrived, the determination in step 308 is repeated.

次に、ステップ310で、更新時間に応じた制御情報を移動体44に出力する。また、更新時間に応じた映像情報及び音声情報をHMD50に出力する。制御情報と映像情報及び音声情報とは、同期して出力される。これにより、制御情報と、映像情報及び音声情報とが同時に更新される。例えば、映像や音声は0.01秒毎等の短時間で切り替わり、映像や音声の切り替えに同期して制御情報が更新される。次に、ステップ312で、駆動パターンによる駆動制御が終了したか否かを判断する。終了した場合は、ルーチンを終了する。終了していない場合は、ステップ300に戻る。 Next, in step 310, the control information according to the update time is output to the moving body 44. In addition, video information and audio information according to the update time are output to the HMD 50. The control information, video information, and audio information are output in synchronization. As a result, the control information and the video information and the audio information are updated at the same time. For example, the video and audio are switched in a short time such as every 0.01 seconds, and the control information is updated in synchronization with the switching of the video and audio. Next, in step 312, it is determined whether or not the drive control based on the drive pattern is completed. When finished, end the routine. If it is not finished, the process returns to step 300.

なお、「駆動パターン」とは、駆動対象を駆動制御する駆動制御値の予め定めた期間に亘る経時変化を表すパターンである。駆動パターンは、駆動対象毎に求められる。例えば、シフトとアクセルとを駆動対象とする場合は、シフトを駆動する駆動制御値の波形パターンと、アクセルを駆動する駆動制御値の波形パターンとが取得される。また、「制御情報」とは、駆動パターンにより与えられる更新時間に応じた駆動制御値のことである。予め定めた期間分の制御情報が出力されると、駆動パターンによる駆動制御が終了する。 The "drive pattern" is a pattern representing a change over time in a drive control value for driving and controlling a drive target over a predetermined period. The drive pattern is obtained for each drive target. For example, when the shift and the accelerator are to be driven, the waveform pattern of the drive control value for driving the shift and the waveform pattern of the drive control value for driving the accelerator are acquired. Further, the "control information" is a drive control value according to the update time given by the drive pattern. When the control information for a predetermined period is output, the drive control by the drive pattern ends.

ここで「駆動パターン取得処理」について説明する。
図14は本発明の第1の実施の形態に係る「駆動パターン取得処理」の流れの一例を示すフローチャートである。第1の実施の形態では、衝突情報は、バーチャル空間での衝突に関与する物体の物理量である。これらは、衝突に関与する物体の「弾性」を表現するのにも使用される。具体的には、物理量として、物体の重さ、物体の固さ、物体の速度等を求める。
Here, the "drive pattern acquisition process" will be described.
FIG. 14 is a flowchart showing an example of the flow of the “drive pattern acquisition process” according to the first embodiment of the present invention. In the first embodiment, the collision information is a physical quantity of an object involved in a collision in virtual space. They are also used to describe the "elasticity" of an object involved in a collision. Specifically, the weight of the object, the hardness of the object, the velocity of the object, and the like are obtained as physical quantities.

先ず、ステップ400で、衝突に関与する物体の物理量を取得する。次に、ステップ402で、取得された物理量を用いて、ユーザ12を表す物体Aの、バーチャル空間での衝突時の変位の時間変化(揺動パターン)を動的に計算する。ここで、動的とは、シナリオに沿って進まない、インタラクティブなVRコンテンツに応じてという意味である。次に、ステップ404で、揺動パターンから移動体44のサスペンションを振動させる駆動パターンを取得して、ルーチンを終了する。 First, in step 400, the physical quantity of the object involved in the collision is acquired. Next, in step 402, the time change (swing pattern) of the displacement of the object A representing the user 12 at the time of collision in the virtual space is dynamically calculated using the acquired physical quantity. Here, dynamic means according to interactive VR content that does not proceed according to the scenario. Next, in step 404, the drive pattern for vibrating the suspension of the moving body 44 is acquired from the swing pattern, and the routine ends.

次に、揺動パターンと駆動パターンの相関関係について説明する。
図15(A)及び(B)は揺動パターンと駆動パターンの相関関係を示す模式図である。図15(A)に示すパターンの前提となる衝突状況は、図5(A)に示すように、ユーザ12を表す物体A(非弾性体)が、物体B(弾性体)に衝突する場合である。揺動パターンは、図7(A)に示す例と同じである。図15(B)に示すパターンの前提となる衝突状況は、図5(B)に示すように、ユーザ12を表す物体A(非弾性体)が、物体B(非弾性体)に衝突する場合である。揺動パターンは、図7(B)に示す例と同じである。
Next, the correlation between the swing pattern and the drive pattern will be described.
15 (A) and 15 (B) are schematic views showing the correlation between the swing pattern and the drive pattern. As shown in FIG. 5A, the collision situation that is the premise of the pattern shown in FIG. 15A is a case where the object A (inelastic body) representing the user 12 collides with the object B (elastic body). be. The swing pattern is the same as the example shown in FIG. 7 (A). As shown in FIG. 5B, the collision situation that is the premise of the pattern shown in FIG. 15B is a case where the object A (inelastic body) representing the user 12 collides with the object B (inelastic body). Is. The swing pattern is the same as the example shown in FIG. 7 (B).

また、図9(A)から図9(D)に示す駆動手順で移動体44を駆動する。図15(A)及び(B)に示す「駆動パターン」は、アクセル電圧の波形パターンで表されている。アクセル電圧は、アクセルの駆動制御値であり、いわゆる、アクセル踏み量と称される値である。波形パターンに従って、アクセル電圧を経時変化させる。なお、シフトの駆動制御値の波形パターンについては、図示を省略する。 Further, the moving body 44 is driven by the driving procedure shown in FIGS. 9 (A) to 9 (D). The "drive pattern" shown in FIGS. 15A and 15B is represented by a waveform pattern of the accelerator voltage. The accelerator voltage is a drive control value of the accelerator, and is a so-called accelerator depression amount. The accelerator voltage is changed over time according to the waveform pattern. The waveform pattern of the shift drive control value is not shown.

まず、シフトをドライブ(D)に切り替え、アクセル電圧を正の方向にVまで増加させ、時間tの間はアクセル電圧をVに保持する。移動体44は加速されて、前方に移動する(前進)。次に、シフトをリバース(R)に切り替え、アクセル電圧を負の方向にVまで増加させ、時間tの間はアクセル電圧をVに保持する。移動体44は逆方向に加速されて、後方に移動する(後進)。時間tの経過後、アクセル電圧をゼロにすると、移動体44が減速して停止する。 First, the shift is switched to the drive (D), the accelerator voltage is increased in the positive direction to V 1, and the accelerator voltage is held at V 1 for the time t 1. The moving body 44 is accelerated and moves forward (forward). Next, the shift is switched to reverse (R), the accelerator voltage is increased in the negative direction to V 2, and the accelerator voltage is held at V 2 for the time t 2. The moving body 44 is accelerated in the opposite direction and moves backward (backward). After the time t 2, when the accelerator voltage to zero, the moving body 44 to slow down and stop.

揺動パターンと駆動パターンの相関関係の傾向を簡単に説明する。
揺動パターンでの変位が大きい場合には、アクセル電圧V、アクセル電圧Vの値は大きくなる。また、時間t、時間tも長くなる。また、アクセル電圧Vと時間tとで決まる領域Aの面積(V)と、アクセル電圧Vと時間tとで決まる領域Bの面積(V)との差が小さくなる。一方、揺動パターンで変位が小さい場合には、アクセル電圧V、アクセル電圧Vの値は小さくなる。また、時間t、時間tは短くなる。また、領域Aの面積(V)と領域Bの面積(V)との差が大きくなる。
The tendency of the correlation between the swing pattern and the drive pattern will be briefly described.
If the displacement in the swing pattern is large, the accelerator voltage V 1, the value of the accelerator voltage V 2 increases. In addition, the time t 1 and the time t 2 also become longer. Further, the difference between the area of the region A determined by the accelerator voltage V 1 and the time t 1 (V 1 t 1 ) and the area of the region B determined by the accelerator voltage V 2 and the time t 2 (V 2 t 2 ) is It becomes smaller. On the other hand, if the displacement in the swing pattern is small, the accelerator voltage V 1, the value of the accelerator voltage V 2 becomes small. Further, the time t 1 and the time t 2 become shorter. Further, the difference between the area of the area A (V 1 t 1 ) and the area of the area B (V 2 t 2 ) becomes large.

図9(A)から図9(D)を参照して説明した通り、移動体44には、F1の力がかけられた後、F1とは逆方向の力F2がかけられる。サスペンションの振動の振幅は、力F1と力F2の大きさと、各力をかける時間とにより調整される。サスペンションの振動の振幅を大きくするには、大きな衝撃を与えて移動体44を大きく揺動させるように力F1と力F2とをかける。領域Aの面積(V)は、力F1の大きさと力F1をかける時間とを表す。領域Bの面積(V)は、力F2の大きさと力F2をかける時間とを表す。移動体44を大きく揺動させるには、領域Aの面積(V)を大きくすると共に、領域Aの面積(V)と釣り合うように、領域Bの面積(V)を大きくする。 As described with reference to FIGS. 9 (A) to 9 (D), after the force of F1 is applied to the moving body 44, a force F2 in the direction opposite to that of F1 is applied to the moving body 44. The amplitude of the vibration of the suspension is adjusted by the magnitudes of the forces F1 and F2 and the time for applying each force. In order to increase the amplitude of the vibration of the suspension, a force F1 and a force F2 are applied so as to give a large impact and cause the moving body 44 to swing greatly. The area of the region A (V 1 t 1 ) represents the magnitude of the force F1 and the time to apply the force F1. The area (V 2 t 2 ) of the region B represents the magnitude of the force F2 and the time for applying the force F2. In order to swing the moving body 44 significantly, the area of the area A (V 1 t 1 ) is increased, and the area of the area B (V 2 t 2 ) is balanced with the area of the area A (V 1 t 1). ) Is increased.

揺動パターンは、バーチャル空間で物体Bに衝突する物体Aの変位Dの時間変化を表す。図15(A)及び(B)に示す揺動パターンは、変位を開始する時点、即ち、衝突する時点を、時間=0として表示する。衝突イベントが検知されてから衝突までの時間をTとする。バーチャル空間における衝突による物体Aの変位Dの最大値をDpeakとする。衝突してから物体Aの変位Dが最大になるまでの時間をTとする。なお、物体Aの変位Dが最大になる点は、変位Dの時間変化を表す曲線の第1の変極点とする。変極点とは、dD/dt=0となる点である。 The swing pattern represents a time change of the displacement D of the object A that collides with the object B in the virtual space. In the swing pattern shown in FIGS. 15A and 15B, the time point at which the displacement starts, that is, the time point at which the collision occurs is displayed as time = 0. Let T 0 be the time from the detection of the collision event to the collision. Let D peak be the maximum value of the displacement D of the object A due to the collision in the virtual space. Let T 1 be the time from the collision until the displacement D of the object A becomes maximum. The point at which the displacement D of the object A becomes maximum is the first extreme point of the curve representing the time change of the displacement D. The pole change point is a point where dD / dt = 0.

次に、揺動パターンからアクセル電圧の波形パターンを取得する計算方法の一例について説明する。図15(A)及び(B)に示す例では、アクセル電圧の波形パターンは、アクセル電圧V、アクセル電圧V、時間t、時間tの各値で決まる。本実施の形態では、時間tは、衝突イベントが検知されてから衝突までの時間Tと等しいと定義する。また、時間tは、衝突してから物体Aの変位Dが最大になるまでの時間T衝突までの時間Tと等しいと定義する。したがって、アクセル電圧V及びアクセル電圧Vの各値を揺動パターンから計算で求める。 Next, an example of a calculation method for acquiring the waveform pattern of the accelerator voltage from the fluctuation pattern will be described. In the examples shown in FIGS. 15A and 15B, the waveform pattern of the accelerator voltage is determined by the values of the accelerator voltage V 1 , the accelerator voltage V 2 , the time t 1 , and the time t 2. In the present embodiment, the time t 1 is defined to be equal to the time T 0 from the detection of the collision event to the collision. Further, the time t 2 is defined as equal to the time T 1 from the collision until the displacement D of the object A becomes maximum, and the time T 0 until the collision. Therefore, each value of the accelerator voltage V 1 and the accelerator voltage V 2 is calculated from the fluctuation pattern.

ここで、固さ調整ゲインSというパラメータを設定する。固さ調整ゲインSは、下記式(1)で表されるパラメータである。固さ調整ゲインSは、衝突する物体同士の弾性の差分が大きいほど大きい値になる。固さ調整ゲインSは、0≦S≦1の範囲の数値であり、衝突する物体同士の弾性の差分が大きいほど「1」に近づく。 Here, a parameter called hardness adjustment gain S is set. The hardness adjustment gain S is a parameter represented by the following equation (1). The hardness adjustment gain S becomes larger as the difference in elasticity between the colliding objects increases. The hardness adjustment gain S is a numerical value in the range of 0 ≦ S ≦ 1, and the larger the difference in elasticity between the colliding objects, the closer to “1”.

Figure 0006930234
Figure 0006930234

上記式(1)において、「Dmax」は、予め定められたサスペンションの最大変位(即ち、振幅の上限値)を表す。また、「G」は、予め定められたサスペンションの調整ゲインを表す。サスペンションの調整ゲインGは、0≦G≦1の範囲の数値である。バーチャル空間に存在する物体同士の弾性の差分が最も大きい物体同士の衝突時に、(G×Dpeak)=Dmaxという条件を満たすように設定する。 In the above equation (1), "D max " represents a predetermined maximum displacement of the suspension (that is, an upper limit value of the amplitude). Further, "G" represents a predetermined suspension adjustment gain. The suspension adjustment gain G is a numerical value in the range of 0 ≦ G ≦ 1. It is set so that the condition (G × D peak ) = D max is satisfied when the objects having the largest difference in elasticity between the objects existing in the virtual space collide with each other.

アクセル電圧Vは、下記式(2)を用いて、サスペンションの調整ゲインG、揺動パターンにおける物体Aの変位Dの最大値Dpeak、時間t(=衝突までの時間T)から求められる。 The accelerator voltage V 1 is obtained from the suspension adjustment gain G, the maximum value D peak of the displacement D of the object A in the swing pattern, and the time t 1 (= time T 0 until collision) using the following equation (2). Be done.

Figure 0006930234
Figure 0006930234

また、領域Bの面積(V)は、下記式(3)で表されるように、固さ調整ゲインSを用いると、領域Aの面積(V)のS分の1になる。固さ調整ゲインS=1のとき、領域Aの面積(V)と領域Bの面積(V)とが等しくなる。 Further, the area of the area B (V 2 t 2 ) is 1/1 S of the area of the area A (V 1 t 1 ) when the hardness adjustment gain S is used, as represented by the following equation (3). become. When the hardness adjustment gain S = 1, the area of the area A (V 1 t 1 ) and the area of the area B (V 2 t 2 ) become equal.

Figure 0006930234
Figure 0006930234

上記式(3)を変形すると、アクセル電圧Vは、下記式(4)で表される。なお、固さ調整ゲインS=0のときは、衝突による物体Aの変位Dの最大値Dpeak=0であり、アクセル電圧V=0でよい。 By modifying the above equation (3), the accelerator voltage V 2 is expressed by the following equation (4). When the hardness adjustment gain S = 0, the maximum value D peak = 0 of the displacement D of the object A due to the collision, and the accelerator voltage V 2 = 0 may be used.

Figure 0006930234
Figure 0006930234

上記の計算方法は一例である。揺動パターンに応じて上記の揺動パターンと駆動パターンの相関関係の傾向を再現できれば、他の計算方法でアクセル電圧の波形パターンを取得してもよい。また、揺動パターンを求めることなく、物体の重さ、物体の固さ、物体の速度等の衝突情報から、直接、アクセル電圧の波形パターンを取得してもよい。 The above calculation method is an example. If the tendency of the correlation between the above-mentioned swing pattern and the drive pattern can be reproduced according to the swing pattern, the waveform pattern of the accelerator voltage may be acquired by another calculation method. Further, the waveform pattern of the accelerator voltage may be obtained directly from the collision information such as the weight of the object, the hardness of the object, and the speed of the object without obtaining the swing pattern.

<第2の実施の形態>
第2の実施の形態は、衝突情報と「駆動パターン取得処理」以外は、第1の実施の形態と同様であるため説明を省略する。第2の実施の形態では、衝突情報は、衝突する物体の物体名と相対速度である。
<Second Embodiment>
The second embodiment is the same as the first embodiment except for the collision information and the "drive pattern acquisition process", and thus the description thereof will be omitted. In the second embodiment, the collision information is the object name and the relative velocity of the colliding object.

図16は本発明の第2の実施の形態に係る「駆動パターン取得処理」の流れの一例を示すフローチャートである。図17は衝突の種類に応じて揺動パターンと駆動パターンとを予め関連付けるテーブルの一例を示す図表である。 FIG. 16 is a flowchart showing an example of the flow of the “drive pattern acquisition process” according to the second embodiment of the present invention. FIG. 17 is a chart showing an example of a table in which a swing pattern and a drive pattern are associated in advance according to the type of collision.

第2の実施の形態に係る「駆動パターン取得処理」では、図16に示すように、まず、ステップ400で、衝突する物体の物体名と相対速度とを取得する。次に、ステップ402で、衝突する物体の物体名と相対速度とに対応する「衝突の種類」を特定する。 In the "drive pattern acquisition process" according to the second embodiment, as shown in FIG. 16, first, in step 400, the object name and the relative velocity of the colliding object are acquired. Next, in step 402, the "type of collision" corresponding to the object name and the relative velocity of the colliding object is specified.

バーチャル空間に存在する物体は、物体A、物体Bというように、予め登録されている。そこで、「衝突の種類」を、衝突する2つの物体の物体名と、2つの物体の衝突時の相対速度とに応じて予めテーブル等で記憶しておいて、テーブル等に基づいて、衝突する物体の物体名と相対速度とから「衝突の種類」を特定する。なお、「衝突の種類」は、衝突する物体同士の弾性の差分と相対速度とに基づいて決定される。 Objects existing in the virtual space are registered in advance, such as object A and object B. Therefore, the "type of collision" is stored in advance in a table or the like according to the object name of the two colliding objects and the relative speed at the time of the collision of the two objects, and the collision occurs based on the table or the like. The "type of collision" is specified from the object name and relative velocity of the object. The "type of collision" is determined based on the difference in elasticity between the colliding objects and the relative velocity.

例えば、非弾性体である物体Aと弾性体である物体Bとが相対速度Xで衝突した場合は「衝突A(変位は大きい)」、非弾性体である物体Aと弾性体である物体Bとが相対速度Y(<X)で衝突した場合は「衝突B(変位は中くらい)」、非弾性体である物体Aと弾性体である物体Bとが相対速度Z(<Y)で衝突した場合は「衝突C(変位は小さい)」と特定する。また、非弾性体である物体Aと非弾性体である物体Bとが衝突した場合には、相対速度にかかわらず「衝突C(変位は小さい)」と特定する。 For example, when an inelastic object A and an elastic object B collide with each other at a relative speed X, "collision A (large displacement)" occurs, and an inelastic object A and an elastic object B collide with each other. When they collide at a relative speed Y (<X), "collision B (displacement is medium)", and the inelastic object A and the elastic object B collide at a relative speed Z (<Y). If so, it is specified as "collision C (small displacement)". Further, when the object A which is an inelastic body and the object B which is an inelastic body collide with each other, it is specified as "collision C (displacement is small)" regardless of the relative velocity.

次に、ステップ404で、特定された「衝突の種類」に応じた「駆動パターン」を取得する。図17に示すテーブルでは、衝突の種類は、衝突A、衝突B、衝突Cと複数種類がある。衝突A、衝突B、及び衝突Cの各々には、「揺動パターン」と「駆動パターン」とが関連付けられている。したがって、衝突Aならこの駆動パターンというように、ライブラリ方式で「衝突の種類」に応じた「駆動パターン」が取得される。なお、「揺動パターン」を利用しない場合は、図17に示すテーブルにおいて「揺動パターン」を省略してもよい。 Next, in step 404, a "drive pattern" corresponding to the specified "collision type" is acquired. In the table shown in FIG. 17, there are a plurality of types of collisions, such as collision A, collision B, and collision C. A "swing pattern" and a "drive pattern" are associated with each of the collision A, the collision B, and the collision C. Therefore, in the case of collision A, a "drive pattern" corresponding to the "type of collision" is acquired by the library method, such as this drive pattern. When the "swing pattern" is not used, the "swing pattern" may be omitted in the table shown in FIG.

<第3の実施の形態>
第3の実施の形態は、VRコンテンツがシナリオに沿って進む場合である。「衝突の種類」、「揺動パターン」及び「駆動パターン」がシナリオに含まれている。第3の実施の形態は、衝突情報と「駆動パターン取得処理」以外は、第1の実施の形態と同様であるため説明を省略する。第3の実施の形態では、衝突情報は、シナリオから特定される衝突の種類である。
<Third embodiment>
The third embodiment is a case where the VR content proceeds according to the scenario. "Collision type", "swing pattern" and "drive pattern" are included in the scenario. The third embodiment is the same as the first embodiment except for the collision information and the "drive pattern acquisition process", and thus the description thereof will be omitted. In the third embodiment, the collision information is the type of collision identified from the scenario.

図18は本発明の第3の実施の形態に係る「駆動パターン取得処理」の流れの一例を示すフローチャートである。図19は衝突の種類、揺動パターン、及び駆動パターンが予め登録されたシナリオの一例を示す図表である。 FIG. 18 is a flowchart showing an example of the flow of the “drive pattern acquisition process” according to the third embodiment of the present invention. FIG. 19 is a chart showing an example of a scenario in which the type of collision, the swing pattern, and the drive pattern are registered in advance.

本実施の形態では、図19に示すように、衝突の種類、揺動パターン、及び駆動パターンの各々が、VRコンテンツのシナリオに予め登録されている。したがって、第3の実施の形態に係る「駆動パターン取得処理」では、図18に示すように、ステップ500で、シナリオから特定された「衝突の種類」に対応する「駆動パターン」をシナリオから取得して、ルーチンを終了する。 In the present embodiment, as shown in FIG. 19, each of the collision type, the swing pattern, and the drive pattern is registered in advance in the VR content scenario. Therefore, in the "drive pattern acquisition process" according to the third embodiment, as shown in FIG. 18, in step 500, the "drive pattern" corresponding to the "collision type" specified from the scenario is acquired from the scenario. And end the routine.

<変形例>
なお、上記実施の形態で説明した衝突感覚提示システム及びプログラムの構成は一例であり、本発明の主旨を逸脱しない範囲内においてその構成を変更してもよいことは言うまでもない
<Modification example>
It should be noted that the configuration of the collision sensation presentation system and the program described in the above embodiment is an example, and it goes without saying that the configuration may be changed within a range that does not deviate from the gist of the present invention.

上記の実施の形態では、駆動パターンとしてアクセル電圧の波形パターンを求めたが、駆動パターンは、駆動対象を駆動制御する駆動制御値の予め定めた期間に亘る経時変化を表すパターンであり、アクセル電圧の波形パターンには限定されない。駆動パターンは、駆動対象毎に求められる。駆動対象が複数ある場合は、駆動情報は複数の駆動パターンの組合せとなる。 In the above embodiment, the waveform pattern of the accelerator voltage is obtained as the drive pattern, but the drive pattern is a pattern representing the time-dependent change of the drive control value for driving and controlling the drive target over a predetermined period, and the accelerator voltage. It is not limited to the waveform pattern of. The drive pattern is obtained for each drive target. When there are a plurality of drive targets, the drive information is a combination of a plurality of drive patterns.

複数の駆動制御値の波形パターンを含んでいてもよい。例えば、アクセル電圧の波形パターンとブレーキの駆動制御値(いわゆる、ブレーキ踏み量)の波形パターンとを組み合わせてもよい。 Waveform patterns of a plurality of drive control values may be included. For example, the waveform pattern of the accelerator voltage and the waveform pattern of the brake drive control value (so-called brake depression amount) may be combined.

10 コンテンツ再生装置
11 コンテンツ記憶部
12 ユーザ
14 衝突解析部
16 情報更新部
18 衝突イベント検出部
20 衝撃生成部
21 通信部
23 操作部
25 表示部
26 操作部
27 記憶部
28 車速計
30 駆動部
32 駆動対象
32A アクセル
32B シフト
32C ステアリング
32D ブレーキ
32E エアサスペンション
40 感覚提示装置群
42 タイヤ
44 移動体
46 映像表示装置
48 音声出力装置
60、62 サスペンション
B バネ
D ダンパ
10 Content playback device 11 Content storage unit 12 User 14 Collision analysis unit 16 Information update unit 18 Collision event detection unit 20 Impact generation unit 21 Communication unit 23 Operation unit 25 Display unit 26 Operation unit 27 Storage unit 28 Vehicle speedometer 30 Drive unit 32 Drive Target 32A Accelerator 32B Shift 32C Steering 32D Brake 32E Air suspension 40 Sensation presentation device group 42 Tire 44 Moving object 46 Video display device 48 Audio output device 60, 62 Suspension B Spring D Damper

Claims (12)

サスペンションの振動により、搭乗する利用者に衝突感覚を提示する移動体としての衝突感覚提示装置と、
バーチャル空間における物体同士の衝突の発生が予測される場合に、前記衝突の発生に合わせて、バーチャル空間における前記衝突による前記物体の変位量、または物体同士の弾性の差分に応じた振幅で前記サスペンションを振動させるように、前記移動体における前記サスペンション以外の各部を駆動制御する駆動制御装置と、
を備えた衝突感覚提示システム。
A collision sensation presenting device as a moving body that presents a collision sensation to the passengers on board by vibration of the suspension.
When the occurrence of a collision between objects in the virtual space is predicted, the suspension has an amplitude corresponding to the displacement amount of the object due to the collision in the virtual space or the difference in elasticity between the objects in accordance with the occurrence of the collision. A drive control device that drives and controls each part of the moving body other than the suspension so as to vibrate.
Collision sensation presentation system equipped with.
前記駆動制御装置は、
前記移動体を一方向に移動させた後に逆方向に移動させることで、前記移動体に衝撃を与えて前記サスペンションを振動させる、
請求項1に記載の衝突感覚提示システム。
The drive control device is
By moving the moving body in one direction and then moving it in the opposite direction, an impact is applied to the moving body to vibrate the suspension.
The collision sensation presentation system according to claim 1.
前記駆動制御装置は、
前記物体の変位量、または物体同士の弾性の差分が大きいほど、前記移動体に大きな衝撃を与えて前記振幅を大きくする、
請求項2に記載の衝突感覚提示システム。
The drive control device is
The larger the displacement amount of the objects or the difference in elasticity between the objects, the larger the impact is applied to the moving body to increase the amplitude.
The collision sensation presentation system according to claim 2.
前記駆動制御装置は、
前記衝突する物体の一方が弾性体である場合に、前記弾性体との衝突による他方の物体の変位量に応じた振幅で前記サスペンションを振動させる、
請求項1に記載の衝突感覚提示システム。
The drive control device is
When one of the colliding objects is an elastic body, the suspension is vibrated with an amplitude corresponding to the amount of displacement of the other object due to the collision with the elastic body.
The collision sensation presentation system according to claim 1.
前記駆動制御装置は、
前記物体同士の衝突に関する物理量を用いて、前記移動体を一方向に移動させた後に逆方向に移動させる駆動手順を取得し、
前記駆動手順に従って前記移動体の各部を駆動制御する、
請求項2に記載の衝突感覚提示システム。
The drive control device is
Using the physical quantity related to the collision between the objects, a driving procedure for moving the moving body in one direction and then in the opposite direction is obtained.
Each part of the moving body is driven and controlled according to the driving procedure.
The collision sensation presentation system according to claim 2.
前記駆動制御装置は、
前記物体同士の衝突に関する物理量から前記物体の変位量を求め、
前記物体の変位量に応じた衝撃を前記移動体に与えるように、前記移動体を一方向に移動させた後に逆方向に移動させる駆動手順を取得する、
請求項5に記載の衝突感覚提示システム。
The drive control device is
The displacement amount of the object is obtained from the physical quantity related to the collision between the objects.
Acquire a driving procedure for moving the moving body in one direction and then in the opposite direction so as to give an impact corresponding to the displacement amount of the object to the moving body.
The collision sensation presentation system according to claim 5.
前記移動体を一方向に移動させた後に逆方向に移動させる駆動手順が、衝突の種類に応じて予め定められており、
前記駆動制御装置は、
予測される衝突の種類に応じて予め定められた駆動手順を取得し、
前記駆動手順に従って前記移動体の各部を駆動制御する、
請求項2に記載の衝突感覚提示システム。
The driving procedure for moving the moving body in one direction and then in the opposite direction is predetermined according to the type of collision.
The drive control device is
Acquire a predetermined driving procedure according to the type of collision to be predicted,
Each part of the moving body is driven and controlled according to the driving procedure.
The collision sensation presentation system according to claim 2.
前記駆動制御装置は、
前記衝突を予測してから前記物体同士が衝突するまでの時間を、前記移動体を一方向に移動させる第1の時間とし、前記物体同士が衝突してから最大変位するまでの時間を、前記移動体を逆方向に移動させる第2の時間とし、
前記物体の最大変位量、前記第1の時間、及び前記第2の時間に応じて、前記移動体を一方向に移動させる駆動手順に用いる第1の駆動制御値と、前記移動体を逆方向に移動させる駆動手順に用いる第2の駆動制御値とを取得する、
請求項5に記載の衝突感覚提示システム。
The drive control device is
The time from the prediction of the collision to the collision of the objects is defined as the first time for moving the moving body in one direction, and the time from the collision of the objects to the maximum displacement is defined as the time from the collision of the objects to the maximum displacement. Let it be the second time to move the moving object in the opposite direction.
The first drive control value used in the driving procedure for moving the moving body in one direction according to the maximum displacement amount of the object, the first time, and the second time, and the moving body in the opposite direction. Acquires the second drive control value used for the drive procedure to move to.
The collision sensation presentation system according to claim 5.
前記駆動制御装置は、前記移動体のシフト及びアクセルを駆動制御する、
請求項1から請求項8までのいずれか1項に記載の衝突感覚提示システム。
The drive control device drives and controls the shift and accelerator of the moving body.
The collision sensation presentation system according to any one of claims 1 to 8.
前記駆動制御装置は、さらにブレーキを駆動制御する、
請求項9に記載の衝突感覚提示システム。
The drive control device further drives and controls the brake.
The collision sensation presentation system according to claim 9.
前記サスペンションが、エアサスペンションである場合には、
前記駆動制御装置は、前記エアサスペンションの固さを調整する、
請求項1から請求項10までのいずれか1項に記載の衝突感覚提示システム。
When the suspension is an air suspension,
The drive control device adjusts the rigidity of the air suspension.
The collision sensation presentation system according to any one of claims 1 to 10.
コンピュータを、
請求項1から請求項11までのいずれか1項に記載された衝突感覚提示システムの駆動制御装置として機能させるためのプログラム。
Computer,
A program for functioning as a drive control device for the collision sensation presentation system according to any one of claims 1 to 11.
JP2017112980A 2017-06-07 2017-06-07 Collision sensation presentation system and program Active JP6930234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112980A JP6930234B2 (en) 2017-06-07 2017-06-07 Collision sensation presentation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112980A JP6930234B2 (en) 2017-06-07 2017-06-07 Collision sensation presentation system and program

Publications (2)

Publication Number Publication Date
JP2018202018A JP2018202018A (en) 2018-12-27
JP6930234B2 true JP6930234B2 (en) 2021-09-01

Family

ID=64956012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112980A Active JP6930234B2 (en) 2017-06-07 2017-06-07 Collision sensation presentation system and program

Country Status (1)

Country Link
JP (1) JP6930234B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7319813B2 (en) * 2019-04-17 2023-08-02 日本放送協会 Haptic presentation system, haptic presentation device, and program
KR20210029335A (en) * 2019-09-05 2021-03-16 현대자동차주식회사 Traffic accident analysis system using error monitoring

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4794343B2 (en) * 2006-03-30 2011-10-19 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP2010151939A (en) * 2008-12-24 2010-07-08 Toyota Central R&D Labs Inc Driving simulator, and program
JP6085411B2 (en) * 2011-06-02 2017-02-22 任天堂株式会社 Image processing apparatus, image processing method, and control program for image processing apparatus
EP3888958B1 (en) * 2015-06-03 2023-05-24 ClearMotion, Inc. Method of mitigating motion sickness in an autonomous vehicle

Also Published As

Publication number Publication date
JP2018202018A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
EP2626770B1 (en) Apparatus, computer program product, and method for controlling vibration transfer between vibration devices
EP3650993A1 (en) Devices and methods for controlling a haptic actuator
KR101639066B1 (en) Method and system for controlling virtual model formed in virtual space
EP3171247B1 (en) Haptically enabled flexible devices
CN106462272B (en) Control device and control method for motor vehicle
JP6930234B2 (en) Collision sensation presentation system and program
KR20210104092A (en) Systems and Methods for Incorporating Environmental Haptics in Virtual Reality
CN102473355A (en) Awakened-state maintaining apparatus and awakened-state maintaining method
KR20180068123A (en) Racing simulator using virtual reality
CN110728878A (en) Somatosensory interactive VR driving simulation device
JP6944052B2 (en) Control of damper friction effect on suspension
US10768705B2 (en) Input device
JP2017114144A (en) Vehicular suspension control apparatus
JP6043544B2 (en) Input device, input system, electronic device, and sensory presentation method
JP4040609B2 (en) Moving body simulation apparatus and moving body simulation program
JP2010151939A (en) Driving simulator, and program
JP3766766B2 (en) Driving simulator
Wi et al. Vibratory haptic feedback assistive device for visually-impaired drivers
JP6319327B2 (en) Game controller
JP2010085932A (en) Driving support apparatus
JP4736591B2 (en) Driving simulation test equipment
JP6691434B2 (en) Content presentation device
WO2023153232A1 (en) Information processing device, information processing method, and program
JP2006113272A (en) Video projection device
KR100476201B1 (en) Vibration controlling device of driving simulator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200602

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6930234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150