JP6955351B2 - Protective devices, protection methods and protection programs - Google Patents
Protective devices, protection methods and protection programs Download PDFInfo
- Publication number
- JP6955351B2 JP6955351B2 JP2017051876A JP2017051876A JP6955351B2 JP 6955351 B2 JP6955351 B2 JP 6955351B2 JP 2017051876 A JP2017051876 A JP 2017051876A JP 2017051876 A JP2017051876 A JP 2017051876A JP 6955351 B2 JP6955351 B2 JP 6955351B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- impact
- view
- field
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 230000001681 protective effect Effects 0.000 title claims description 9
- 230000008569 process Effects 0.000 claims description 24
- 230000009471 action Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 5
- 230000035939 shock Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 101000832455 Pimpla hypochondriaca Small venom protein 1 Proteins 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、保護装置、保護方法および保護プログラムに関する。 The present invention relates to protective devices, protection methods and protection programs.
従来、利用者の視野内に仮想空間上の映像を投影することで、あたかも仮想空間上に存在するといった感覚を提供する仮想現実(VR:Virtual Reality)の技術が知られている。 Conventionally, there is known a technology of virtual reality (VR) that provides a feeling of being in a virtual space by projecting an image in the virtual space within the field of view of the user.
しかしながら、上述した従来技術では、利用者に対して過度の衝撃を与える恐れがある。 However, the above-mentioned conventional technique may give an excessive impact to the user.
近年、利用者の視野を覆い、両眼視差を考慮したVR空間の映像を提供するHMD(Head Mounted Device)等により、VR空間への没入感が強くなっている。このため、VR空間において利用者が落下したり、オブジェクトが利用者に衝突した場合等、利用者に衝撃(例えば、驚き等)を与えうる事象が生じた場合に、利用者に過度の衝撃を与えてしまう恐れがある。 In recent years, an HMD (Head Mounted Device) or the like that covers the user's field of view and provides an image of the VR space in consideration of binocular parallax has increased the immersive feeling in the VR space. For this reason, when an event that may give an impact (for example, surprise) to the user occurs, such as when the user falls in the VR space or an object collides with the user, an excessive impact is given to the user. There is a risk of giving.
本願は、上記に鑑みてなされたものであって、利用者に対する衝撃を軽減することを目的とする。 The present application has been made in view of the above, and an object of the present application is to reduce the impact on the user.
本願に係る保護装置は、仮想現実空間を介して利用者が受ける衝撃の度合いである衝撃度を推定する推定部と前記推定部により推定された衝撃度が所定の閾値を超えた場合は、前記衝撃から前記利用者を保護するための保護施策を実行する実行部とを有することを特徴とする。 The protective device according to the present application includes an estimation unit that estimates the impact degree, which is the degree of impact received by the user through the virtual reality space, and when the impact degree estimated by the estimation unit exceeds a predetermined threshold value, the above-mentioned It is characterized by having an execution unit that executes protection measures for protecting the user from impact.
実施形態の一態様によれば、利用者に対する衝撃を軽減できる。 According to one aspect of the embodiment, the impact on the user can be reduced.
以下に、本願に係る保護装置、保護方法および保護プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る保護装置、保護方法および保護プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, the protective device, the protection method, and the embodiment for implementing the protection program according to the present application (hereinafter, referred to as “the embodiment”) will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the protection device, protection method and protection program according to the present application. Further, in each of the following embodiments, the same parts will be designated by the same reference numerals, and duplicate description will be omitted.
[実施形態]
〔1.情報提供装置が表示する処理について〕
まず、図1を用いて、保護装置の一例となる情報提供装置が実行する保護処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する保護処理の一例を示す図である。
[Embodiment]
[1. About the process displayed by the information providing device]
First, with reference to FIG. 1, an example of protection processing executed by an information providing device, which is an example of a protection device, will be described. FIG. 1 is a diagram showing an example of protection processing executed by the information providing device according to the embodiment.
なお、以下の説明では、情報提供装置10が実行する保護処理として、利用者Uが装着するHMD100にVR空間の映像を描画して表示させる際に、利用者Uの衝撃度を減少させるように映像を編集して表示させる処理の一例を記載するが、実施形態は、これに限定されるものではない。例えば、情報提供装置10が提供する保護処理は、HMD100がスタンドアローンで実行してもよい。また、情報提供装置10が提供する保護処理は、例えば、HMD100と接続され、HMD100を介してゲーム等のVR空間の映像を表示するゲーム機等により実現されてもよい。
In the following description, as a protection process executed by the
〔1−1.情報提供装置の一例〕
情報提供装置10は、インターネットや無線LAN(Local Area Network)等の所定のネットワークN(例えば、図2を参照。)を介して、HMD100と通信可能な情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。なお、情報提供装置10は、ネットワークNを介して、任意の数のHMD100と通信可能であってよい。
[1-1. An example of an information providing device]
The
HMD100は、利用者Uが装着するウェアラブルデバイスであって、利用者Uの視野内に情報提供装置10から提供される静止画像や動画像といった各種の映像を表示することで、利用者UがあたかもVR空間に居るといった感覚を提供する。また、HMD100は、情報提供装置10から受信した音声を出力する機能を有していてもよい。
The HMD 100 is a wearable device worn by the user U, and by displaying various images such as still images and moving images provided by the
〔1−2.VR空間に関する処理の一例〕
ここで、情報提供装置10およびHMD100が利用者Uに提供するVR空間の一例について説明する。例えば、情報提供装置10は、建造物やキャラクター等といったVRとして表示される各種オブジェクトの形状、外観(マッピングされる画像や表面処理等)、配置位置等を記憶する。また、情報提供装置10は、VR空間における利用者Uの視点を特定し、特定した視点からVR空間を視認した際の光景をHMD100が利用者Uの視野内に再現するための画像を描画する。そして、情報提供装置10は、描画した画像をHMD100に送信し、HMD100に表示させることで、利用者UにVR空間における光景を提供する。
[1-2. An example of processing related to VR space]
Here, an example of the VR space provided by the
また、例えば、HMD100は、利用者Uがどの方向を向いているか、利用者Uが移動したか否か、利用者Uがどれくらい移動したか、VR空間における各種の操作といった情報を収集する。なお、係る収集は、HMD100と連動して動作するカメラや情報処理装置等により収集されてもよい。そして、HMD100は、収集した各種の情報を情報提供装置10に送信する。このような場合、情報提供装置10は利用者Uの向きやVR空間における操作の内容に応じて、VR空間において利用者Uが視認する光景の画像を再度描画し、描画した画像をHMD100に送信する。
Further, for example, the HMD 100 collects information such as which direction the user U is facing, whether the user U has moved, how much the user U has moved, and various operations in the VR space. The collection may be collected by a camera, an information processing device, or the like that operates in conjunction with the HMD 100. Then, the HMD 100 transmits various collected information to the
なお、上述した処理以外にも、情報提供装置10およびHMD100は、任意の技術を用いて、VR空間の光景を利用者Uに提供してよい。すなわち、情報提供装置10およびHMD100は、周知のVR技術を適用可能である。
In addition to the above-mentioned processing, the
〔1−3.保護処理の一例〕
近年、両眼視差を考慮した映像の提供や、利用者Uの視野を覆うとともに、利用者Uの動きに従ってVR空間上における視点を移動させた映像を提供する等、VR関連技術の進歩により、VR空間への投入感が強くなっている。このため、例えば、ゲーム等において利用者Uが急に攻撃された場合、銃弾等の速度が速いオブジェクトが衝突した場合、オブジェクトが急に利用者Uの視野内に入ってきた場合、VR空間上で利用者が落下した場合等、利用者に衝撃を与えうる事象がVR空間上で生じた場合に、利用者に過度の衝撃(すなわち、ショック)を与える恐れがある。
[1-3. Example of protection processing]
In recent years, due to advances in VR-related technology, such as providing images that take binocular parallax into consideration, covering the field of view of user U, and moving the viewpoint in VR space according to the movement of user U, etc. The feeling of being put into the VR space is getting stronger. Therefore, for example, when the user U is suddenly attacked in a game or the like, when a high-speed object such as a bullet collides, or when the object suddenly enters the field of view of the user U, the VR space is displayed. When an event that may give a shock to the user occurs in the VR space, such as when the user falls, there is a risk of giving an excessive shock (that is, a shock) to the user.
そこで、情報提供装置10は、以下の保護処理を実行する。まず情報提供装置10は、VR空間を介して利用者Uが受ける衝撃の度合いである衝撃度を推定する。そして、情報提供装置10は、推定された衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。例えば、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する。また、情報提供装置10は、予測された事象に対する衝撃度を推定する。そして、情報提供装置10は、衝撃度が所定の閾値を超える場合は、利用者Uに提供される映像の解像度を低下させたり、事象が生じる前後所定の期間の映像をカットする等、衝撃を低減するように利用者Uに提供されるVR空間の映像を編集する。
Therefore, the
〔1−4.事象について〕
ここで、情報提供装置10は、VR空間において利用者に衝撃を与えうる事象であれば、任意の事象の発生を予測してよい。例えば、情報提供装置10は、VR空間において利用者Uに所定のオブジェクトが衝突するか否かを予測してもよい。より具体的な例を挙げると、情報提供装置10は、VR空間上における利用者Uの位置、移動方向および移動速度と、他のオブジェクトの位置、移動方向および移動速度とに基づいて、所定の時間が経過した際に利用者Uにオブジェクトが衝突するか否かを予測してもよい。また、例えば、情報提供装置10は、VR空間における利用者Uの視野の外側で、所定のオブジェクトが利用者Uの方向に移動しているか否かに応じて、利用者Uにオブジェクトが衝突するか否かを予測してもよい。
[1-4. About the event]
Here, the
また、情報提供装置10は、VR空間において他の利用者の行為により利用者Uに所定のオブジェクトが衝突するか否かを予測してもよい。例えば、情報提供装置10は、ゲーム等において利用者Uとは異なる他の利用者が利用者Uを銃などといったVR空間上の武器で狙っているか否かを判定する。そして、情報提供装置10は、他の利用者が利用者Uを銃などといったVR空間上の武器で狙っている場合は、利用者Uと銃弾とが衝突する旨を予測してもよい。
Further, the
また、情報提供装置10は、利用者Uの視野内にオブジェクトが所定の速度以上で侵入するか否かを予測してもよい。すなわち、情報提供装置10は、VR空間の映像を描画するよりも先に、あらかじめ定められた所定の事象であって、利用者Uに対して衝撃を与えうる各種の事象が生じるか否かを予測すればよい。
Further, the
〔1−5.衝撃度の推定について〕
そして、情報提供装置10は、利用者Uに対して衝撃を与えうる事象が生じると予測した場合は、その事象が生じた際に利用者Uに対して与える衝撃の度合いを推定する。例えば、情報提供装置10は、衝撃の度合いを示す数値である衝撃度を推定する。例えば、情報提供装置10は、利用者Uに所定のオブジェクトが衝突すると予測された場合は、利用者Uに所定のオブジェクトが生じた際の衝撃度を推定する。
[1-5. Impact degree estimation]
Then, when the
ここで、所定のオブジェクトがVR空間において利用者Uの仮想的な体に衝突する場合、利用者Uの仮想的な体のうち足に衝突した場合と顔に衝突した場合とでは、衝撃度が異なると考えられる。一般的に、所定のオブジェクトがVR空間で衝突する場合、衝突位置がVR空間における利用者Uの視点(すなわち、仮想的な目の位置)に近い位置に衝突した方が衝撃度が高いと予測される。そこで、情報提供装置10は、VR空間における利用者Uの仮想的な身体のうち、所定のオブジェクトが衝突する位置に応じて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uの仮想的な体と所定のオブジェクトとの衝突位置を推定し、推定した位置が利用者Uの視点に近い程、高い値の衝撃度を算出してもよい。
Here, when a predetermined object collides with the virtual body of the user U in the VR space, the degree of impact differs depending on whether the object collides with the foot or the face of the virtual body of the user U. It is considered different. In general, when a predetermined object collides in VR space, it is predicted that the impact degree is higher when the collision position collides with a position closer to the user U's viewpoint (that is, a virtual eye position) in VR space. Will be done. Therefore, the
また、所定のオブジェクトが利用者Uに衝突する際の速度が早ければ早い程、利用者Uの衝撃度が高いと予測される。そこで、情報提供装置10は、所定のオブジェクトが利用者Uに衝突する速度に応じて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uに所定のオブジェクトが衝突する旨が予測された場合、オブジェクトが利用者Uに衝突する際の移動速度や、利用者Uに衝突するまでの間の移動速度を算出する。そして、情報提供装置10は、算出した移動速度が高ければ高い程、高い値の衝撃度を算出してもよい。
Further, it is predicted that the faster the speed at which a predetermined object collides with the user U, the higher the impact degree of the user U. Therefore, the
このような処理の結果、例えば、情報提供装置10は、VR空間内において、利用者Uが他の利用者により撃たれた場合等の衝撃度を、利用者Uが他の利用者に撃たれた際の映像を描画する前に推定することができる。この結果、情報提供装置10は、衝撃度が高い事象が生じる際に、後述する各種の保護施策を実行することができる。
As a result of such processing, for example, in the
より具体的な例を挙げると、情報提供装置10は、事象として、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突するか否かを予測する。そして、情報提供装置10は、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突すると予測された場合は、所定の閾値よりも高い衝撃度を算出する。この結果、情報提供装置10は、利用者UがVR空間内で撃たれた場合等、衝撃度が高いと予測される事象が生じる際に、後述する各種の保護施策を実行することができる。
To give a more specific example, the
なお、情報提供装置10は、他の各種パラメータを用いて、衝撃度の推定を行ってもよい。例えば、利用者Uが感じる衝撃は、VR空間内において利用者Uに向かってくるオブジェクトの大きさや形状、種別に応じて異なると予測される。そこで、情報提供装置10は、利用者Uに対して与える衝撃度のパラメータとして、各オブジェクトごとにスコアの登録を受付ける。そして、情報提供装置10は、利用者に衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、衝撃度を算出してもよい。
The
例えば、情報提供装置10は、硬い素材を再現したオブジェクトに対し、柔らかい素材を再現したオブジェクトよりも高い値のスコアの登録を受付ける。また、情報提供装置10は、鋭い形状を有するオブジェクトに対し、滑らかな形状を有するオブジェクトよりも高い値のスコアの登録を受付ける。そして、情報提供装置10は、利用者Uに衝突するオブジェクトのスコアの値が高ければ高い程、より高い値の衝撃度を算出してもよい。
For example, the
〔1−6.他の利用者に対する衝突について〕
ここで、利用者Uに対するオブジェクトの衝突のみならず、例えば、利用者Uの視野内にいる第1利用者にオブジェクトが急に衝突した場合にも、利用者Uの衝撃度が上昇すると考えられる。例えば、利用者Uの視野内にいる第1利用者が利用者Uの視野外にいる第2利用者によって急に攻撃された場合には、利用者Uに大きな衝撃が生じると考えられる。
[1-6. About conflicts with other users]
Here, it is considered that the impact degree of the user U increases not only when the object collides with the user U but also when the object suddenly collides with the first user in the field of view of the user U, for example. .. For example, if the first user in the field of view of the user U is suddenly attacked by the second user outside the field of view of the user U, it is considered that a large impact will occur on the user U.
そこで、情報提供装置10は、利用者Uの視野内に含まれる他の利用者に対する事象に基づく衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uの視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じるか否かを予測する。より具体的な例を挙げると、情報提供装置10は、利用者Uの視野内に含まれる他の利用者のオブジェクトに、利用者Uの視野外から移動してきたオブジェクトが所定の閾値以上の速度で衝突するか否かを所定の事象として予測する。そして、情報提供装置10は、他の利用者を示すオブジェクトに所定の事象が生じると予測された場合は、その事象が利用者Uの視野内で生じた際に利用者Uが受ける衝撃の度合いである衝撃度を推定してもよい。
Therefore, the
例えば、情報提供装置10は、衝突するオブジェクトの速度、形状、種別等といった各種のパラメータに基づいて、衝撃度の値を算出してもよい。また、例えば、情報提供装置10は、利用者Uにオブジェクトが衝突する際と同様に、オブジェクトが衝突する他の利用者の衝撃度を算出し、算出した衝撃度に、利用者Uと他の利用者との距離に応じた係数(例えば、距離が離れれば離れる程値が小さくなる1以下の係数)を積算した値を利用者Uの衝撃度としてもよい。
For example, the
すなわち、情報提供装置10は、利用者Uの視野内において、利用者Uに対して衝撃度が所定の閾値を超える衝撃を与えうる事象が生じるか否かを予測し、利用者Uに対して衝撃を与えうる事象が生じると予測した場合は、その事象が利用者Uに与える衝撃度を算出すればよい。このような処理の結果、情報提供装置10は、利用者Uの視野内で生じる事象が利用者Uに対して所定の閾値以上の衝撃を与える場合に、適切な保護施策を実行することができる。
That is, the
〔1−7.可能性の算出について〕
なお、情報提供装置10は、各種事象が生じる可能性を算出し、算出した可能性に基づいて、衝撃度の推定を行ってもよい。例えば、情報提供装置10は、ある事象が生じた際に利用者Uが受ける衝撃度の値と、その事象が生じる可能性との積が所定の閾値を超える場合は、保護施策を実行してもよい。
[1-7. About calculation of possibility]
The
〔1−8.ユーザ履歴を用いた衝撃度の推定について〕
ここで、ゲーム等においてある事象が生じた際は、経験者よりも初心者の方がより大きい衝撃を受けると考えられる。また、利用者Uが男性であるか女性であるか、利用者Uの年齢、利用者Uのデモグラフィック属性やサイコグラフィック属性に応じて、利用者Uが受ける衝撃の度合いが変化するとも考えられる。また、ホラー映画やアクション映画等、衝撃度が一般的に高いコンテンツを利用者Uが頻繁に視聴している場合は、利用者Uが受ける衝撃度は、他の利用者よりも低いと考えられる。
[1-8. About estimation of impact using user history]
Here, when a certain event occurs in a game or the like, it is considered that a beginner receives a greater impact than an experienced person. It is also considered that the degree of impact received by the user U changes depending on whether the user U is male or female, the age of the user U, and the demographic attribute and the psychographic attribute of the user U. .. Further, when the user U frequently watches content having a generally high impact degree such as a horror movie or an action movie, the impact degree received by the user U is considered to be lower than that of other users. ..
そこで、情報提供装置10は、利用者Uの属性情報に基づいて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uが初心者であるか否か、利用者Uの性別、利用者Uが閲覧したコンテンツの種別、VR空間における利用者Uの検索履歴等、利用者Uに関する各種の属性情報に基づいて、利用者Uの衝撃度を算出してもよい。
Therefore, the
〔1−9.保護施策について〕
ここで、情報提供装置10は、利用者Uの衝撃度が所定の閾値を超えた場合は、各種の保護施策を実行することで、利用者Uが受ける衝撃を軽減する。例えば、情報提供装置10は、事象が生じた際の映像を描画する際に、映像の解像度を低下させる、映像をぼやかす、事象が生じる前後の所定期間の映像をカット若しくは所定の映像に切替える等、利用者Uに提供する映像に対する各種の編集を行うことで、利用者Uの衝撃を軽減する。
[1-9. About protection measures]
Here, when the impact degree of the user U exceeds a predetermined threshold value, the
なお、情報提供装置10は、利用者Uの衝撃を軽減することができるのであれば、任意の保護施策を実行してもよい。例えば、情報提供装置10は、事象が発生する際の映像をスローモーションにしてもよい。また、情報提供装置10は、映像をモノクロ映像にしてもよく、例えば、VR空間における利用者Uの視点とは異なる視点からの映像を描画して提供してもよい。より具体的には、情報提供装置10は、事象が生じた際に上空から利用者Uの仮想的な体を見ているといった視点の映像を描画して提供してもよい。
The
また、情報提供装置10は、発生する事象ごとに異なる保護施策を実行してもよい。例えば、情報提供装置10は、利用者Uにオブジェクトが衝突する事象が生じる場合は、その事象が生じる前に、描画する映像の視点を上空からの視点に変更する。一方、情報提供装置10は、利用者Uの視野内にいる他の利用者にオブジェクトが衝突する事象が生じる場合は、事象が生じる際の映像をスローモーションにしてもよい。
Further, the
〔1−10.保護処理の一例について〕
以下、図1を用いて、情報提供装置10が実行する保護処理の一例について説明する。なお、図1に示す例では、利用者UがVR空間内において所謂FPS(First Person Shooter)と呼ばれるゲームを行う例について記載した。
[1-10. About an example of protection processing]
Hereinafter, an example of the protection process executed by the
例えば、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する(ステップS1)。例えば、図1に示す例では、利用者Uの仮想的な体を示すオブジェクトVU01と、利用者Uとは異なる利用者の仮想的な体を示すオブジェクトVU02とがVR空間上に存在する。このような場合、情報提供装置10は、オブジェクトVU02がオブジェクトVU01を仮想的な武器で攻撃しようとしているか否かを判定し、攻撃しようとしている場合は、オブジェクトVU01に銃弾などのオブジェクトが衝突する旨を予測する。
For example, the
このような場合、情報提供装置10は、予測した事象が利用者Uに対して及ぼす衝撃度を推定する(ステップS2)。例えば、情報提供装置10は、予測した事象「衝突」、衝突するオブジェクトの種別「銃弾」、オブジェクトに付与されたスコア「100」、オブジェクトが衝突する際の速度「100」、利用者Uの属性「初心者」等、事象に関する各種の情報に基づいて、事象が生じた際の利用者Uの衝撃度を算出する。例えば、情報提供装置10は、銃弾がオブジェクトVU01に衝突した際に利用者Uが受ける衝撃度を「100」と算出する。
In such a case, the
そして、情報提供装置10は、推定した衝撃度が所定の閾値を超える場合は、衝撃度を減少させるように編集した映像を描画する(ステップS3)。例えば、情報提供装置10は、銃弾のオブジェクトOB01が発射され、オブジェクトVU01に当たる場合は、わざとぼやかした利用者Uの視野の映像SVP1を描画する。より具体的には、情報提供装置10は、オブジェクトOB01がオブジェクトVU01に衝突するよりも所定時間だけ前の映像から、オブジェクトOB01がオブジェクトVU01に衝突してから所定時間だけ後の映像までを、ぼやかして描画する。すなわち、情報提供装置10は、利用者Uの衝撃度を軽減するような施策を、利用者Uに提供する映像に対して行う。
Then, when the estimated impact degree exceeds a predetermined threshold value, the
そして、情報提供装置10は、描画したVR空間の映像をHMD100に提供する(ステップS4)。この結果、HMD100は、保護施策が施された映像を利用者Uに対して提供することができる(ステップS5)。
Then, the
〔2.情報提供装置の構成〕
以下、上記した情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of information providing device]
Hereinafter, an example of the functional configuration of the
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、HMD100との間で情報の送受信を行う。
The
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、オブジェクトデータベース31、および事象データベース32を記憶する。以下、図3、図4を用いて、各データベース31、32に登録される情報の一例を説明する。
The
オブジェクトデータベース31には、VR空間上における各種オブジェクトのデータが登録されている。例えば、図3は、実施形態に係るオブジェクトデータベースに登録される情報の一例を示す図である。図3に示す例では、オブジェクトデータベース31には、「オブジェクトID(Identifier)」、「オブジェクトデータ」、「配置位置」、「オブジェクト種別」、および「衝撃スコア」等といった情報が登録されている。
Data of various objects in the VR space are registered in the
ここで、「オブジェクトID」とは、オブジェクトを識別する識別子である。また、「オブジェクトデータ」とは、対応付けられた「オブジェクトID」が示すオブジェクトに関するデータであり、オブジェクトの形状やテクスチャのデータである。また、「配置位置」とは、対応付けられた「オブジェクトID」が示すオブジェクトが配置されたVR空間上の位置である。また、「オブジェクト種別」とは、利用者であるか、銃弾であるか等、VR空間においてオブジェクトが何を示すオブジェクトであるかを示す情報である。また、「衝撃スコア」とは、オブジェクトが利用者のオブジェクトに衝突する際に生じる衝撃度を算出する際のパラメータ、すなわち、スコアである。 Here, the "object ID" is an identifier that identifies an object. Further, the "object data" is data related to the object indicated by the associated "object ID", and is data on the shape and texture of the object. Further, the "arrangement position" is a position on the VR space in which the object indicated by the associated "object ID" is arranged. Further, the "object type" is information indicating what the object indicates in the VR space, such as whether it is a user or an ammunition. Further, the "impact score" is a parameter for calculating the impact degree generated when an object collides with a user's object, that is, a score.
例えば、図3に示す例では、オブジェクトデータベース31には、オブジェクトID「オブジェクトID#1」、オブジェクトデータ「データ#1」、配置位置「位置#1」、オブジェクト種別「利用者」、および衝撃スコア「10」といった情報が対応付けて登録されている。このような情報は、オブジェクトID「オブジェクトID#1」が示すオブジェクトが、オブジェクトデータ「データ#1」を用いて描画されるオブジェクトであり、配置位置「位置#1」が示すVR空間上の位置に配置されている旨を示す。また、このような情報は、オブジェクトID「オブジェクトID#1」が示すオブジェクトのオブジェクト種別が「利用者」、すなわちVR空間における利用者の体であり、衝撃スコアが「10」である旨を示す。
For example, in the example shown in FIG. 3, the
事象データベース32には、予測対象となる事象が登録される。例えば、図4は、実施形態に係る事象データベースに登録される情報の一例を示す図である。図4に示す例では、事象データベース32には、「事象ID」、「事象内容」、および「パラメータ」等といった情報が登録されている。ここで、「事象ID」とは、事象を識別する識別子である。また、「事象内容」とは、予測対象となる事象の内容を示す情報である。また、「パラメータ」とは、対応付けられた「事象内容」を予測する際に用いる各種の条件である。例えば、情報提供装置10は、「パラメータ」として登録された条件がVR空間上において満たされる場合は、対応付けられた「事象内容」が発生すると判定する。
Events to be predicted are registered in the
例えば、図4に示す例では、事象データベース32には、事象ID「事象#1」、事象内容「衝突」、パラメータ「速度:20以上」とが対応付けて登録されている。このような情報は、事象ID「事象#1」が示す事象が、事象内容「衝突」が示す内容、すなわち、利用者Uに他のオブジェクトが衝突する事象であり、パラメータ「速度:20以上」が示す内容が満たされる場合、すなわち、他のオブジェクトの移動速度が「20以上」である場合に、発生すると予測される事象である旨を示す。
For example, in the example shown in FIG. 4, the event ID "
なお、図3、4に示す例では、「オブジェクト#1」、「データ#1」、「位置#1」、「事象#1」等という概念的な値を記載したが、実際には、各データベースには、オブジェクトや事象を識別する文字列や、モデリングデータ、VR空間内での位置等が登録されることとなる。また、各データベース31、32には、VR空間の描画や事象が発生するか否かを予測する際に用いられる各種の情報が登録されることとなる。
In the examples shown in FIGS. 3 and 4, conceptual values such as "
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
Returning to FIG. 2, the explanation will be continued. The
図2に示すように、制御部40は、受付部41、予測部42、推定部43、実行部44、および描画部45を有する。受付部41は、HMD100からVR空間を描画するための各種の情報を受付ける。例えば、受付部41は、利用者Uの向き、VR空間における利用者Uの行動を示す操作等を受付ける。
As shown in FIG. 2, the
予測部42は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する。例えば、予測部42は、事象として、VR空間において利用者Uに所定のオブジェクトが衝突するか否かを予測する。また、予測部42は、VR空間において他の利用者の行為により利用者Uに所定のオブジェクトが衝突するか否かを予測する。また、予測部42は、事象として、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突するか否かを予測する。また、予測部42は、利用者Uの視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じるか否かを予測する。
The
例えば、予測部42は、受付部41が受け付けた利用者Uの向きや利用者Uの行動に基づいて、所定の時間(例えば、数ミリ秒から数十ミリ秒程度)が経過した際に事象データベース32に登録された各種の事象が生じるか否かを判定する。例えば、予測部42は、図4に示す情報が登録されている場合は、利用者Uのオブジェクトに他のオブジェクトが速度「20以上」で衝突するか否か、利用者Uのオブジェクトに銃弾のオブジェクトが衝突するか否かを判定する。より具体的には、予測部42は、利用者Uの向き、操作内容、各オブジェクトの状態等に基づいて、所定の時間が経過した際に事象データベース32に登録された各種の事象が発生する可能性を算出し、算出した可能性が所定の閾値を超える事象について、所定の時間が経過した際に発生する事象とする。
For example, the
例えば、図5は、実施形態に係る情報提供装置が予測する事象の一例を説明する図である。例えば、図5中(A)、(B)に示す例では、VR空間において第1の利用者のオブジェクトVU01、第2の利用者のオブジェクトVU02、および第3の利用者のオブジェクトVU03が配置されている。また、図5中(A)、(B)に示す例では、オブジェクトVU03が銃のオブジェクトを装備しているものとする。 For example, FIG. 5 is a diagram illustrating an example of an event predicted by the information providing device according to the embodiment. For example, in the examples shown in FIGS. 5A and 5B, the first user object VU01, the second user object VU02, and the third user object VU03 are arranged in the VR space. ing. Further, in the examples shown in FIGS. 5A and 5B, it is assumed that the object VU03 is equipped with a gun object.
ここで、図5中(A)に示すように、オブジェクトVU03がオブジェクトVU01を所定の武器で攻撃しようとしている場合、情報提供装置10は、オブジェクトVU03が使用する銃の攻撃範囲S1を推定する。そして、情報提供装置10は、オブジェクトVU01が攻撃範囲S1に含まれ、かつ、第3の利用者が攻撃を行うための操作を入力した場合は、オブジェクトVU01に銃弾が衝突する旨を予測する。
Here, as shown in FIG. 5A, when the object VU03 is trying to attack the object VU01 with a predetermined weapon, the
また、図5中(B)に示すように、オブジェクトVU03がオブジェクトVU02を所定の武器で攻撃しようとしている場合、情報提供装置10は、オブジェクトVU03が使用する銃の攻撃範囲S1と、オブジェクトVU01の視野(すなわち、第1の利用者に提供される映像)の範囲S2とを推定する。そして、情報提供装置10は、範囲S2に含まれるオブジェクトVU02が攻撃範囲S1に含まれ、かつ、第3の利用者が攻撃を行うための操作を入力した場合は、オブジェクトVU01の視野内に含まれるオブジェクトVU02に銃弾が衝突する旨を予測する。
Further, as shown in FIG. 5B, when the object VU03 is trying to attack the object VU02 with a predetermined weapon, the
ここで、図5(A)、(B)に示す状態において、オブジェクトVU01、VU02に銃弾のオブジェクトが衝突した場合は、いずれもオブジェクトVU01と対応する第1の利用者に衝撃を与えると推定される。そこで、情報提供装置10は、予測した事象が発生する際に、映像をぼやかす等の各種保護施策を実行する。
Here, in the states shown in FIGS. 5A and 5B, when an object of ammunition collides with the objects VU01 and VU02, it is estimated that both of them give an impact to the first user corresponding to the object VU01. NS. Therefore, the
なお、図5に示す例は、あくまで一例であり、予測部42は、任意の情報に基づいて発生する事象の予測を行ってよい。例えば、予測部42は、各オブジェクトの位置、向き、各オブジェクトの性能、各オブジェクトが装備するアイテムの性能、攻撃範囲、視野範囲等、各種VR空間における状況に基づき、発生する事象の予測を行えばよい。より具体的には、予測部42は、事象データベース32にパラメータとして登録された条件が満たされるか否かを判定し、満たされる場合は、対応する事象が発生すると判定すればよい。
The example shown in FIG. 5 is just an example, and the
推定部43は、VR空間を介して利用者が受ける衝撃の度合いである衝撃度を推定する。より具体的には、推定部43は、発生すると予測された事象に対する衝撃度を推定する。例えば、推定部43は、利用者Uに銃弾等の所定のオブジェクトが衝突すると予測された場合は、利用者Uに所定のオブジェクトが衝突した際の衝撃度を推定する。また、例えば、43は、VR空間における利用者Uの仮想的な身体のうち、所定のオブジェクトが衝突する位置に応じて、利用者Uの衝撃度を推定する。
The
また、推定部43は、所定のオブジェクトが利用者Uに衝突する速度に応じて、利用者の衝撃度を推定する。また、推定部43は、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突すると予測された場合は、所定の閾値よりも高い衝撃度を算出する。また、推定部43は、利用者Uに衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、衝撃度を算出する。また、推定部43は、利用者の視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じると予測された場合は、事象が利用者Uの視野内で生じた際に利用者Uが受ける衝撃の度合いである衝撃度を推定する。
Further, the
例えば、推定部43は、予測部42によって所定の事象が発生すると予測された場合、発生すると予測された事象に関するオブジェクト(例えば、衝突するオブジェクト)の種別、発生する事象の内容、各オブジェクトに付与された衝撃スコア、利用者Uのオブジェクトのうち他のオブジェクトが衝突する位置、衝突する際のオブジェクトの速度等に基づいて、利用者Uの衝撃度を算出する。例えば、推定部43は、利用者Uのオブジェクトの視点に近い位置に銃弾のオブジェクトが所定の閾値よりも速い速度で衝突する場合は、所定の閾値よりも高い値の衝撃度を算出する。
For example, when the
なお、推定部43は、VR空間において生じると予測される事象と、利用者Uの属性情報とに基づいて、利用者Uが受ける衝撃の度合いである衝撃度を推定してもよい。例えば、推定部43は、利用者Uが初心者である場合は、より高い値の衝撃度を推定してもよい。また、例えば、推定部43は、予測部42によって各事象が発生する可能性を算出した場合は、各事象が生じた際の衝撃度の値に、予測部42が算出した可能性を積算した値を実際の衝撃度として算出してもよい。
The
実行部44は、推定された衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。例えば、実行部44は、保護施策として、衝撃を低減するように利用者Uに提供されるVR空間の映像を編集する。なお、実行部44は、発生する事象の内容に応じて異なる種別の保護施策を実行してもよい。
When the estimated impact degree exceeds a predetermined threshold value, the
例えば、実行部44は、推定部43が推定した衝撃度が所定の閾値よりも高いか否かを判定する。そして、実行部44は、推定部43が推定した衝撃度が所定の閾値よりも高いと判定した場合は、映像を描画する際にぼやかすよう描画部45に指示する。なお、実行部44は、事象が発生する前後所定の期間の映像を描画しないように描画部45に指示してもよく、視点を鳥瞰視点等の所定の視点にずらすように描画部45に指示してもよい。
For example, the
描画部45は、VR空間を描画する。例えば、描画部45は、利用者Uの操作や向き、各オブジェクトの配置位置等に応じて、VR空間における利用者Uの視野を描画した映像を生成する。また、描画部45は、実行部44からの指示に従い、所定の事象が生じた際に映像をぼやかしたり、利用者Uの視点とは異なる視点から描画した映像を生成する。そして、描画部45は、生成した映像をHMD100に提供する。
The
〔3.情報提供装置が実行する処理の流れの一例〕
続いて、図6を用いて、情報提供装置10が実行する保護処理の流れについて説明する。図6は、実施形態に係る情報提供装置が実行する保護処理の流れの一例を示すフローチャートである。なお、情報提供装置10は、図6に示す処理を、繰り返し実行することとなる。
[3. An example of the flow of processing executed by the information providing device]
Subsequently, the flow of the protection process executed by the
例えば、情報提供装置10は、オブジェクト同士の配置関係等に基づいて、発生しうるVR空間内の事象を予測する(ステップS101)。続いて、情報提供装置10は、予測した事象が利用者Uに対して及ぼす衝撃度を推定する(ステップS102)。そして、情報提供装置10は、衝撃度が所定の閾値を超えたか否かを判定し(ステップS103)、超えた場合は(ステップS103:Yes)、衝撃度が低くなるように編集した映像を描画し(ステップS104)、処理を終了する。一方、情報提供装置10は、衝撃度が所定の閾値を超えなかった場合は(ステップS103:No)、そのままVR空間を描画し(ステップS105)、処理を終了する。
For example, the
〔4.変形例〕
上記では、情報提供装置10による保護処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する保護処理や算出処理のバリエーションについて説明する。
[4. Modification example]
In the above, an example of the protection process by the
〔4−1.VR空間について〕
上述した例では、情報提供装置10は、所謂3D(Dimension)オブジェクトが配置されたVR空間上において、利用者Uの衝撃度を推定した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、ロボットやドローンを利用者Uが操作する場合において、ロボットやドローンに生じる事象を予測し、予測した事象が発生した場合の利用者Uの衝撃度を推定し、推定結果に基づいて、各種保護施策を実行してもよい。より具体的には、情報提供装置10は、画像解析技術に基づいて、ロボットやドローンの周囲の状態を推定し、推定結果に基づいて、オブジェクトとの衝突等、所定の事象が生じるか否かを判定してもよい。
[4-1. About VR space]
In the above example, the
すなわち、実施形態において、VR空間を介して利用者が受ける衝撃とは、3Dオブジェクトが配置され、完全にシミュレートされた空間において生じた事象による衝撃のみならず、ロボットやドローンが撮像した映像(すなわち、仮想的な利用者Uの視点として撮影された映像)を介して利用者が受ける衝撃をも含む概念である。 That is, in the embodiment, the impact received by the user through the VR space is not only the impact caused by the event generated in the completely simulated space in which the 3D object is arranged, but also the image captured by the robot or the drone ( That is, it is a concept including the impact received by the user through the image taken from the viewpoint of the virtual user U).
〔4−2.推定について〕
また、情報提供装置10は、上述した情報以外にも、任意の情報に基づいて、利用者Uの衝撃度を推定してよい。例えば、情報提供装置10は、脈拍や発汗等といった各種生体情報を取得可能なウェアラブルデバイスを利用者Uが装着している場合、かかるウェアラブルデバイスが測定した生体情報に基づいて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、所定の事象が生じると予測した際に脈拍数が所定の閾値を超えている場合は、所定の閾値よりも高い値の衝撃度を推定し、所定の事象が生じると予測した際に脈拍数が所定の閾値以下となる場合は、所定の閾値よりも低い値の衝撃度を推定してもよい。
[4-2. About estimation]
Further, the
また、情報提供装置10は、上述した保護処理を実行するか否かの設定を利用者Uから受付けてもよい。また、例えば、情報提供装置10は、利用者Uのオブジェクトの近傍にスコアが所定の閾値を超えるオブジェクトが含まれているか否かを判定し、利用者Uのオブジェクトの近傍にスコアが所定の閾値を超えるオブジェクトが含まれている場合にのみ、上述した保護処理を実行することで、処理負荷を軽減してもよい。
Further, the
なお、情報提供装置10は、上述した保護処理をVR空間の描画に先駆けて実行するのであれば、任意のタイミングで実行してよい。
The
〔4−3.装置構成〕
情報提供装置10は、フロントエンドサーバと、バックエンドサーバとで実現されてもよい。このような場合、フロントエンドサーバには、図2に示す受付部41および描画部45が配置され、バックエンドサーバには、予測部42、推定部43、および実行部44が配置される。また、記憶部30に登録された各データベース31、32は、外部のストレージサーバに保持されていてもよい。
[4-3. Device configuration〕
The
〔4−4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-4. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, and conversely, the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
〔4−5.プログラム〕
また、上述した実施形態に係る情報提供装置10は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[4-5. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the
〔5.効果〕
上述したように、情報提供装置10は、VR空間を介して利用者Uが受ける衝撃の度合いである衝撃度を推定する。そして、情報提供装置10は、推定された衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。このため、情報提供装置10は、VR空間への没入度が高い場合であっても、利用者Uに対する衝撃を軽減することができる。
[5. effect〕
As described above, the
また、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する。そして、情報提供装置10は、予測された事象に対する衝撃度を推定する。このため、情報提供装置10は、例えば、VR空間における利用者Uのオブジェクトに何らかの事象が生じた場合や、利用者Uの視野内で何らかの事象が生じた際に、その衝撃度を推定し、推定した衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。このため、情報提供装置10は、利用者Uに対する衝撃を軽減することができる。
Further, the
また、例えば、情報提供装置10は、事象として、VR空間において利用者Uに所定のオブジェクトが衝突するか否かを予測し、利用者Uに所定のオブジェクトが衝突すると予測された場合は、利用者Uに所定のオブジェクトが衝突した際の衝撃度を推定する。また、例えば、情報提供装置10は、VR空間において他の利用者Uの行為により利用者Uに所定のオブジェクトが衝突するか否かを予測する。このため、情報提供装置10は、オブジェクトが急に衝突したり、他のプレイヤーに攻撃された場合等の衝撃を軽減することができる。
Further, for example, the
また、例えば、情報提供装置10は、VR空間における利用者Uの仮想的な身体のうち、所定のオブジェクトが衝突する位置に応じて、利用者Uの衝撃度を推定する。このため、例えば、情報提供装置10は、利用者Uの顔にオブジェクトが衝突する場合には、保護施策を実行し、利用者Uの手にオブジェクトが衝突する場合には、保護施策を実行しないといった処理を実現できる。
Further, for example, the
また、情報提供装置10は、所定のオブジェクトが利用者Uに衝突する速度に応じて、利用者Uの衝撃度を推定する。また、情報提供装置10は、事象として、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突するか否かを予測する。そして、情報提供装置10は、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突すると予測された場合は、所定の閾値よりも高い衝撃度を算出する。このため、情報提供装置10は、急激な衝突における衝撃を軽減することができる。
Further, the
また、情報提供装置10は、利用者Uに衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、衝撃度を算出する。このため、情報提供装置10は、衝撃度を適切に推定できる。
In addition, the
また、情報提供装置10は、利用者Uの視野内に含まれるオブジェクトであって、他の利用者Uを示すオブジェクトに所定の事象が生じるか否かを予測し、利用者Uの視野内に含まれるオブジェクトであって、他の利用者Uを示すオブジェクトに所定の事象が生じると予測された場合は、所定の事象が利用者Uの視野内で生じた際に利用者Uが受ける衝撃の度合いである衝撃度を推定する。このため、情報提供装置10は、視野内で他のプレイヤーが急に攻撃された場合等の衝撃を軽減することができる。
Further, the
また、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で所定の事象が生じる可能性を算出し、算出された可能性に応じた衝撃度を推定する。このため、情報提供装置10は、事象が生じる可能性に応じて、衝撃の軽減を行うか否かを判断できる。
Further, the
また、情報提供装置10は、VR空間において生じると予測される事象と、利用者Uの属性情報とに基づいて、利用者Uが受ける衝撃の度合いである衝撃度を推定する。このため、情報提供装置10は、初心者等の衝撃の軽減が必要な利用者に対しては、保護施策を実行し、経験者等の衝撃の軽減があまり必要でない利用者に対しては、保護施策の実行を行わないといった制御を実現できる。
Further, the
また、情報提供装置10は、保護施策として、衝撃を低減するように利用者Uに提供されるVR空間の映像を編集する。このため、情報提供装置10は、事象が生じた際の衝撃を軽減できる。
Further, as a protection measure, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、特定部は、特定手段や特定路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the specific part can be read as a specific means or a specific route.
10 情報提供装置
20 通信部
30 記憶部
31 オブジェクトデータベース
32 事象データベース
40 制御部
41 受付部
42 予測部
43 推定部
44 実行部
45 描画部
100 HMD
10
Claims (13)
前記推定部により推定された前記衝撃の度合いが所定の閾値を超えた場合は、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合に前記利用者に与える衝撃の度合いを低減させるように、前記利用者に対して提供される前記仮想現実空間の映像を編集する処理を実行する実行部と、
を有することを特徴とする保護装置。 Based on the relative positional relationship between the position of the user and the position of the object in the virtual real space, and the moving direction of the user and the object, the user and the object in the virtual real space In the case of a collision, the degree of impact received by the user is determined according to the relative position and moving direction of the user and the object related to the collision and the viewpoint of the user in the field of view of the user. Estimating part to estimate and
When the degree of impact estimated by the estimation unit exceeds a predetermined threshold value, the degree of impact given to the user when the user collides with the object in the virtual reality space is reduced. In addition, an execution unit that executes a process of editing the image of the virtual reality space provided to the user, and
A protective device characterized by having.
を有し、
前記推定部は、前記予測部によって予測された事象について、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる衝突を推定する
ことを特徴とする請求項1に記載の保護装置。 It has a prediction unit that predicts the user or an event that occurs in the user's field of view in the virtual reality space.
The estimating unit, about the event that is predicted by the prediction unit, collision occurring in the field of view of the user and the user on the basis of the user's viewpoint and the relative position置及beauty moving direction of said object The protective device according to claim 1, wherein the protection device is estimated.
前記推定部は、前記予測部により前記利用者に所定のオブジェクトが衝突すると予測された場合は、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる衝突を推定する
ことを特徴とする請求項2に記載の保護装置。 The prediction unit predicts whether or not a predetermined object collides with the user in the virtual reality space as the event.
Wherein said estimation unit, when said predetermined object to the user by the prediction unit is predicted to collide, based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to claim 2, characterized in that estimating the collision occurring in the field of view of the user.
ことを特徴とする請求項3に記載の保護装置。 The protection device according to claim 3, wherein the prediction unit predicts whether or not a predetermined object collides with the user due to an action of another user in the virtual reality space.
ことを特徴とする請求項3または4に記載の保護装置。 The estimating section of the virtual body of the user in the virtual reality space, depending on the position where the predetermined object collides, for the user, relative position置及of the said user object the device according to claim 3 or 4, characterized in that estimating the collision occurring in the field of view of the user based on the user's viewpoint and fine movement direction.
ことを特徴とする請求項3〜5のいずれか1つに記載の保護装置。 The estimator in accordance with the speed at which the predetermined object collides with the user, wherein the user, based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to any one of claims 3-5, characterized in that estimating the collision occurring in the field of view of the user.
前記推定部は、前記利用者の視野内において前記所定のオブジェクトが所定の速度よりも速い速度で前記利用者に衝突すると予測された場合は、前記利用者と前記オブジェクトとが衝突した場合において前記利用者に与える衝撃の度合いが前記所定の閾値よりも高い、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる衝突を推定する
ことを特徴とする請求項2〜6のいずれか1つに記載の保護装置。 As the event, the prediction unit predicts whether or not a predetermined object collides with the user at a speed faster than a predetermined speed in the field of view of the user.
When the estimation unit predicts that the predetermined object collides with the user at a speed faster than the predetermined speed in the user's field of view, the estimation unit causes the user and the object to collide with each other. the degree of impact on the user is higher than the predetermined threshold value, collision occurring in the field of view of the user based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to any one of claims 2-6, characterized in that to estimate.
ことを特徴とする請求項3〜7のいずれか1つに記載の保護装置。 The estimation unit, on the basis of the previously assigned scores for a given object striking the user, based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to any one of claims 3-7, characterized in that estimating the collision occurring in the field of view of the user.
前記推定部は、前記利用者の視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じると予測された場合は、当該事象が前記利用者の視野内で生じた際に当該利用者がうける、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる衝突を推定する
ことを特徴とする請求項2〜8のいずれか1つに記載の保護装置。 The prediction unit predicts whether or not a predetermined event occurs in an object that is included in the field of view of the user and indicates another user.
The estimation unit is an object included in the field of view of the user, and when a predetermined event is predicted to occur in an object indicating another user, the event occurs in the field of view of the user. the user receives when a, and characterized by estimating a collision occurring in the field of view of the user based on the relative position置及beauty moving direction as the user's viewpoint of the said user object The protective device according to any one of claims 2 to 8.
前記推定部は、前記予測部によって算出された可能性に応じた、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる衝突を推定する
ことを特徴とする請求項2〜9のいずれか1つに記載の保護装置。 The prediction unit calculates the possibility that a predetermined event occurs in the virtual reality space within the field of view of the user or the user, and the estimation unit calculates the possibility calculated by the prediction unit. claim 2-9, characterized in that estimating the collision occurring in the field of view of the user based on the user to the relative position置及beauty moving direction as the user's viewpoint of the object 1 The protective device described in 1.
ことを特徴とする請求項1〜10のいずれか1つに記載の保護装置。 The estimation unit, an event which is expected to occur in the virtual reality space, based on the attribute information of the user, the user receives the relative position置及beauty moving direction of the said user object and protection device according to any one of claims 1 to 10, characterized in that estimating the collision occurring in the field of view of the user based on the user's viewpoint.
仮想現実空間における利用者の位置とオブジェクトの位置との間の相対的な位置関係、および、前記利用者と前記オブジェクトとの移動方向に基づいて、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合において、前記利用者の視野内における前記衝突に係る前記利用者と前記オブジェクトの相対的な位置及び移動方向と前記利用者の視点に応じて、前記利用者が受ける衝撃の度合いを推定する推定工程と、
前記推定工程により推定された前記衝撃の度合いが所定の閾値を超えた場合は、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合に前記利用者に与える衝撃の度合いを低減させるように、前記利用者に対して提供される前記仮想現実空間の映像を編集する処理を実行する実行工程と、
を含むことを特徴とする保護方法。 A protection method performed by a protective device,
Based on the relative positional relationship between the position of the user and the position of the object in the virtual real space, and the moving direction of the user and the object, the user and the object in the virtual real space In the case of a collision, the degree of impact received by the user is determined according to the relative position and moving direction of the user and the object related to the collision and the viewpoint of the user in the field of view of the user. Estimating process to estimate and
When the degree of impact estimated by the estimation step exceeds a predetermined threshold value, the degree of impact given to the user when the user collides with the object in the virtual reality space is reduced. In addition, an execution step of executing a process of editing the image of the virtual reality space provided to the user, and
A protection method characterized by including.
前記推定手順により推定された前記衝撃の度合いが所定の閾値を超えた場合は、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合に前記利用者に与える衝撃の度合いを低減させるように、前記利用者に対して提供される前記仮想現実空間の映像を編集する処理を実行する実行手順と、
をコンピュータに実行させるための保護プログラム。 Based on the relative positional relationship between the position of the user and the position of the object in the virtual real space, and the moving direction of the user and the object, the user and the object in the virtual real space In the case of a collision, the degree of impact received by the user is determined according to the relative position and moving direction of the user and the object related to the collision and the viewpoint of the user in the field of view of the user. Estimating procedure to estimate and
When the degree of impact estimated by the estimation procedure exceeds a predetermined threshold value, the degree of impact given to the user when the user collides with the object in the virtual reality space is reduced. In addition, an execution procedure for executing a process of editing the image of the virtual reality space provided to the user, and
A protection program that lets your computer run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017051876A JP6955351B2 (en) | 2017-03-16 | 2017-03-16 | Protective devices, protection methods and protection programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017051876A JP6955351B2 (en) | 2017-03-16 | 2017-03-16 | Protective devices, protection methods and protection programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018154204A JP2018154204A (en) | 2018-10-04 |
JP6955351B2 true JP6955351B2 (en) | 2021-10-27 |
Family
ID=63715499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017051876A Active JP6955351B2 (en) | 2017-03-16 | 2017-03-16 | Protective devices, protection methods and protection programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6955351B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0922314A (en) * | 1995-07-05 | 1997-01-21 | Sanyo Electric Co Ltd | Stress-adaptive controller |
JP4393169B2 (en) * | 2003-12-04 | 2010-01-06 | キヤノン株式会社 | Mixed reality presentation method and apparatus |
US9630105B2 (en) * | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
JP2016031439A (en) * | 2014-07-28 | 2016-03-07 | ソニー株式会社 | Information processing apparatus and information processing method, computer program, and image display system |
-
2017
- 2017-03-16 JP JP2017051876A patent/JP6955351B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018154204A (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7531568B2 (en) | Eye tracking with prediction and latest updates to the GPU for fast foveated rendering in HMD environments | |
US11474599B2 (en) | Dynamic graphics rendering based on predicted saccade landing point | |
CN109429052B (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
EP3430498B1 (en) | Virtual object pathing | |
EP3072033B1 (en) | Motion control of a virtual environment | |
EP3557375B1 (en) | Information processing device, information processing method, and program | |
US11302049B2 (en) | Preventing transition shocks during transitions between realities | |
US10366539B2 (en) | Information processing apparatus, information processing method, and storage medium for reporting based on elapse time and positional relationships between 3-D objects | |
KR20170104846A (en) | Method and apparatus for analyzing virtual reality content | |
KR20200073160A (en) | Apparatus and method for virtual reality sickness reduction based on virtual reality sickness assessment | |
TWI738543B (en) | Orientation predicting method, virtual reality headset and non-transitory computer-readable medium | |
JP6955351B2 (en) | Protective devices, protection methods and protection programs | |
KR20170105905A (en) | Method and apparatus for analyzing virtual reality content | |
KR20240038728A (en) | Information processing devices, information processing methods and computer programs | |
WO2022259492A1 (en) | Image projection device, image projection method, and program | |
KR20180061956A (en) | Method and apparatus for estimating eye location | |
US12067677B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
WO2023149126A1 (en) | Information processing device and information processing method | |
EP4224289A1 (en) | Mediated reality | |
KR101856017B1 (en) | Method for generating motion depth map using motion history image and medium for recording the same | |
JP2023114238A (en) | Information processing device and information processing method | |
CN118648293A (en) | Information processing apparatus and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6955351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |