JP6955351B2 - Protective devices, protection methods and protection programs - Google Patents

Protective devices, protection methods and protection programs Download PDF

Info

Publication number
JP6955351B2
JP6955351B2 JP2017051876A JP2017051876A JP6955351B2 JP 6955351 B2 JP6955351 B2 JP 6955351B2 JP 2017051876 A JP2017051876 A JP 2017051876A JP 2017051876 A JP2017051876 A JP 2017051876A JP 6955351 B2 JP6955351 B2 JP 6955351B2
Authority
JP
Japan
Prior art keywords
user
impact
view
field
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017051876A
Other languages
Japanese (ja)
Other versions
JP2018154204A (en
Inventor
野村 拓也
拓也 野村
朋広 杉山
朋広 杉山
喜秋 高橋
喜秋 高橋
侃太 蔵元
侃太 蔵元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017051876A priority Critical patent/JP6955351B2/en
Publication of JP2018154204A publication Critical patent/JP2018154204A/en
Application granted granted Critical
Publication of JP6955351B2 publication Critical patent/JP6955351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、保護装置、保護方法および保護プログラムに関する。 The present invention relates to protective devices, protection methods and protection programs.

従来、利用者の視野内に仮想空間上の映像を投影することで、あたかも仮想空間上に存在するといった感覚を提供する仮想現実(VR:Virtual Reality)の技術が知られている。 Conventionally, there is known a technology of virtual reality (VR) that provides a feeling of being in a virtual space by projecting an image in the virtual space within the field of view of the user.

特開2013−232205号公報Japanese Unexamined Patent Publication No. 2013-232205

しかしながら、上述した従来技術では、利用者に対して過度の衝撃を与える恐れがある。 However, the above-mentioned conventional technique may give an excessive impact to the user.

近年、利用者の視野を覆い、両眼視差を考慮したVR空間の映像を提供するHMD(Head Mounted Device)等により、VR空間への没入感が強くなっている。このため、VR空間において利用者が落下したり、オブジェクトが利用者に衝突した場合等、利用者に衝撃(例えば、驚き等)を与えうる事象が生じた場合に、利用者に過度の衝撃を与えてしまう恐れがある。 In recent years, an HMD (Head Mounted Device) or the like that covers the user's field of view and provides an image of the VR space in consideration of binocular parallax has increased the immersive feeling in the VR space. For this reason, when an event that may give an impact (for example, surprise) to the user occurs, such as when the user falls in the VR space or an object collides with the user, an excessive impact is given to the user. There is a risk of giving.

本願は、上記に鑑みてなされたものであって、利用者に対する衝撃を軽減することを目的とする。 The present application has been made in view of the above, and an object of the present application is to reduce the impact on the user.

本願に係る保護装置は、仮想現実空間を介して利用者が受ける衝撃の度合いである衝撃度を推定する推定部と前記推定部により推定された衝撃度が所定の閾値を超えた場合は、前記衝撃から前記利用者を保護するための保護施策を実行する実行部とを有することを特徴とする。 The protective device according to the present application includes an estimation unit that estimates the impact degree, which is the degree of impact received by the user through the virtual reality space, and when the impact degree estimated by the estimation unit exceeds a predetermined threshold value, the above-mentioned It is characterized by having an execution unit that executes protection measures for protecting the user from impact.

実施形態の一態様によれば、利用者に対する衝撃を軽減できる。 According to one aspect of the embodiment, the impact on the user can be reduced.

図1は、実施形態に係る情報提供装置が実行する保護処理の一例を示す図である。FIG. 1 is a diagram showing an example of protection processing executed by the information providing device according to the embodiment. 図2は、実施形態に係る情報提供装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the information providing device according to the embodiment. 図3は、実施形態に係るオブジェクトデータベースに登録される情報の一例を示す図である。FIG. 3 is a diagram showing an example of information registered in the object database according to the embodiment. 図4は、実施形態に係る事象データベースに登録される情報の一例を示す図である。FIG. 4 is a diagram showing an example of information registered in the event database according to the embodiment. 図5は、実施形態に係る情報提供装置が予測する事象の一例を説明する図である。FIG. 5 is a diagram illustrating an example of an event predicted by the information providing device according to the embodiment. 図6は、実施形態に係る情報提供装置が実行する保護処理の流れの一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of a flow of protection processing executed by the information providing device according to the embodiment. 図7は、ハードウェア構成の一例を示す図である。FIG. 7 is a diagram showing an example of a hardware configuration.

以下に、本願に係る保護装置、保護方法および保護プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る保護装置、保護方法および保護プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, the protective device, the protection method, and the embodiment for implementing the protection program according to the present application (hereinafter, referred to as “the embodiment”) will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the protection device, protection method and protection program according to the present application. Further, in each of the following embodiments, the same parts will be designated by the same reference numerals, and duplicate description will be omitted.

[実施形態]
〔1.情報提供装置が表示する処理について〕
まず、図1を用いて、保護装置の一例となる情報提供装置が実行する保護処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する保護処理の一例を示す図である。
[Embodiment]
[1. About the process displayed by the information providing device]
First, with reference to FIG. 1, an example of protection processing executed by an information providing device, which is an example of a protection device, will be described. FIG. 1 is a diagram showing an example of protection processing executed by the information providing device according to the embodiment.

なお、以下の説明では、情報提供装置10が実行する保護処理として、利用者Uが装着するHMD100にVR空間の映像を描画して表示させる際に、利用者Uの衝撃度を減少させるように映像を編集して表示させる処理の一例を記載するが、実施形態は、これに限定されるものではない。例えば、情報提供装置10が提供する保護処理は、HMD100がスタンドアローンで実行してもよい。また、情報提供装置10が提供する保護処理は、例えば、HMD100と接続され、HMD100を介してゲーム等のVR空間の映像を表示するゲーム機等により実現されてもよい。 In the following description, as a protection process executed by the information providing device 10, the impact degree of the user U is reduced when the image of the VR space is drawn and displayed on the HMD 100 worn by the user U. An example of the process of editing and displaying the video will be described, but the embodiment is not limited to this. For example, the protection process provided by the information providing device 10 may be performed stand-alone by the HMD 100. Further, the protection process provided by the information providing device 10 may be realized by, for example, a game machine connected to the HMD 100 and displaying an image of a VR space such as a game via the HMD 100.

〔1−1.情報提供装置の一例〕
情報提供装置10は、インターネットや無線LAN(Local Area Network)等の所定のネットワークN(例えば、図2を参照。)を介して、HMD100と通信可能な情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。なお、情報提供装置10は、ネットワークNを介して、任意の数のHMD100と通信可能であってよい。
[1-1. An example of an information providing device]
The information providing device 10 is an information processing device capable of communicating with the HMD 100 via a predetermined network N (for example, see FIG. 2) such as the Internet or a wireless LAN (Local Area Network), and is, for example, a server device or a server device. Realized by cloud systems, game machines, etc. The information providing device 10 may be able to communicate with an arbitrary number of HMDs 100 via the network N.

HMD100は、利用者Uが装着するウェアラブルデバイスであって、利用者Uの視野内に情報提供装置10から提供される静止画像や動画像といった各種の映像を表示することで、利用者UがあたかもVR空間に居るといった感覚を提供する。また、HMD100は、情報提供装置10から受信した音声を出力する機能を有していてもよい。 The HMD 100 is a wearable device worn by the user U, and by displaying various images such as still images and moving images provided by the information providing device 10 in the field of view of the user U, the user U looks as if he / she is. It provides the feeling of being in a VR space. Further, the HMD 100 may have a function of outputting the voice received from the information providing device 10.

〔1−2.VR空間に関する処理の一例〕
ここで、情報提供装置10およびHMD100が利用者Uに提供するVR空間の一例について説明する。例えば、情報提供装置10は、建造物やキャラクター等といったVRとして表示される各種オブジェクトの形状、外観(マッピングされる画像や表面処理等)、配置位置等を記憶する。また、情報提供装置10は、VR空間における利用者Uの視点を特定し、特定した視点からVR空間を視認した際の光景をHMD100が利用者Uの視野内に再現するための画像を描画する。そして、情報提供装置10は、描画した画像をHMD100に送信し、HMD100に表示させることで、利用者UにVR空間における光景を提供する。
[1-2. An example of processing related to VR space]
Here, an example of the VR space provided by the information providing device 10 and the HMD 100 to the user U will be described. For example, the information providing device 10 stores the shape, appearance (mapped image, surface treatment, etc.), arrangement position, and the like of various objects displayed as VR such as a building and a character. Further, the information providing device 10 identifies the viewpoint of the user U in the VR space, and draws an image for the HMD 100 to reproduce the scene when the VR space is visually recognized from the specified viewpoint in the field of view of the user U. .. Then, the information providing device 10 transmits the drawn image to the HMD 100 and displays it on the HMD 100 to provide the user U with a scene in the VR space.

また、例えば、HMD100は、利用者Uがどの方向を向いているか、利用者Uが移動したか否か、利用者Uがどれくらい移動したか、VR空間における各種の操作といった情報を収集する。なお、係る収集は、HMD100と連動して動作するカメラや情報処理装置等により収集されてもよい。そして、HMD100は、収集した各種の情報を情報提供装置10に送信する。このような場合、情報提供装置10は利用者Uの向きやVR空間における操作の内容に応じて、VR空間において利用者Uが視認する光景の画像を再度描画し、描画した画像をHMD100に送信する。 Further, for example, the HMD 100 collects information such as which direction the user U is facing, whether the user U has moved, how much the user U has moved, and various operations in the VR space. The collection may be collected by a camera, an information processing device, or the like that operates in conjunction with the HMD 100. Then, the HMD 100 transmits various collected information to the information providing device 10. In such a case, the information providing device 10 redraws an image of the scene visually recognized by the user U in the VR space according to the direction of the user U and the content of the operation in the VR space, and transmits the drawn image to the HMD 100. do.

なお、上述した処理以外にも、情報提供装置10およびHMD100は、任意の技術を用いて、VR空間の光景を利用者Uに提供してよい。すなわち、情報提供装置10およびHMD100は、周知のVR技術を適用可能である。 In addition to the above-mentioned processing, the information providing device 10 and the HMD 100 may provide the user U with a scene of the VR space by using an arbitrary technique. That is, the information providing device 10 and the HMD 100 can apply the well-known VR technology.

〔1−3.保護処理の一例〕
近年、両眼視差を考慮した映像の提供や、利用者Uの視野を覆うとともに、利用者Uの動きに従ってVR空間上における視点を移動させた映像を提供する等、VR関連技術の進歩により、VR空間への投入感が強くなっている。このため、例えば、ゲーム等において利用者Uが急に攻撃された場合、銃弾等の速度が速いオブジェクトが衝突した場合、オブジェクトが急に利用者Uの視野内に入ってきた場合、VR空間上で利用者が落下した場合等、利用者に衝撃を与えうる事象がVR空間上で生じた場合に、利用者に過度の衝撃(すなわち、ショック)を与える恐れがある。
[1-3. Example of protection processing]
In recent years, due to advances in VR-related technology, such as providing images that take binocular parallax into consideration, covering the field of view of user U, and moving the viewpoint in VR space according to the movement of user U, etc. The feeling of being put into the VR space is getting stronger. Therefore, for example, when the user U is suddenly attacked in a game or the like, when a high-speed object such as a bullet collides, or when the object suddenly enters the field of view of the user U, the VR space is displayed. When an event that may give a shock to the user occurs in the VR space, such as when the user falls, there is a risk of giving an excessive shock (that is, a shock) to the user.

そこで、情報提供装置10は、以下の保護処理を実行する。まず情報提供装置10は、VR空間を介して利用者Uが受ける衝撃の度合いである衝撃度を推定する。そして、情報提供装置10は、推定された衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。例えば、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する。また、情報提供装置10は、予測された事象に対する衝撃度を推定する。そして、情報提供装置10は、衝撃度が所定の閾値を超える場合は、利用者Uに提供される映像の解像度を低下させたり、事象が生じる前後所定の期間の映像をカットする等、衝撃を低減するように利用者Uに提供されるVR空間の映像を編集する。 Therefore, the information providing device 10 executes the following protection processing. First, the information providing device 10 estimates the degree of impact, which is the degree of impact received by the user U through the VR space. Then, when the estimated impact degree exceeds a predetermined threshold value, the information providing device 10 executes a protection measure for protecting the user U from the impact. For example, the information providing device 10 predicts an event that occurs in the field of view of the user U or the user U in the VR space. In addition, the information providing device 10 estimates the degree of impact on the predicted event. Then, when the impact degree exceeds a predetermined threshold value, the information providing device 10 causes an impact such as lowering the resolution of the image provided to the user U or cutting the image for a predetermined period before and after the event occurs. Edit the image of the VR space provided to the user U so as to reduce it.

〔1−4.事象について〕
ここで、情報提供装置10は、VR空間において利用者に衝撃を与えうる事象であれば、任意の事象の発生を予測してよい。例えば、情報提供装置10は、VR空間において利用者Uに所定のオブジェクトが衝突するか否かを予測してもよい。より具体的な例を挙げると、情報提供装置10は、VR空間上における利用者Uの位置、移動方向および移動速度と、他のオブジェクトの位置、移動方向および移動速度とに基づいて、所定の時間が経過した際に利用者Uにオブジェクトが衝突するか否かを予測してもよい。また、例えば、情報提供装置10は、VR空間における利用者Uの視野の外側で、所定のオブジェクトが利用者Uの方向に移動しているか否かに応じて、利用者Uにオブジェクトが衝突するか否かを予測してもよい。
[1-4. About the event]
Here, the information providing device 10 may predict the occurrence of an arbitrary event as long as it is an event that can give a shock to the user in the VR space. For example, the information providing device 10 may predict whether or not a predetermined object collides with the user U in the VR space. To give a more specific example, the information providing device 10 determines a predetermined position based on the position, moving direction, and moving speed of the user U in the VR space, and the position, moving direction, and moving speed of another object. It may be possible to predict whether or not the object will collide with the user U when the time elapses. Further, for example, the information providing device 10 collides with the user U outside the field of view of the user U in the VR space, depending on whether or not a predetermined object is moving in the direction of the user U. You may predict whether or not.

また、情報提供装置10は、VR空間において他の利用者の行為により利用者Uに所定のオブジェクトが衝突するか否かを予測してもよい。例えば、情報提供装置10は、ゲーム等において利用者Uとは異なる他の利用者が利用者Uを銃などといったVR空間上の武器で狙っているか否かを判定する。そして、情報提供装置10は、他の利用者が利用者Uを銃などといったVR空間上の武器で狙っている場合は、利用者Uと銃弾とが衝突する旨を予測してもよい。 Further, the information providing device 10 may predict whether or not a predetermined object collides with the user U due to an action of another user in the VR space. For example, the information providing device 10 determines whether or not another user different from the user U is aiming at the user U with a weapon in the VR space such as a gun in a game or the like. Then, when another user is aiming at the user U with a weapon in the VR space such as a gun, the information providing device 10 may predict that the user U and the ammunition will collide with each other.

また、情報提供装置10は、利用者Uの視野内にオブジェクトが所定の速度以上で侵入するか否かを予測してもよい。すなわち、情報提供装置10は、VR空間の映像を描画するよりも先に、あらかじめ定められた所定の事象であって、利用者Uに対して衝撃を与えうる各種の事象が生じるか否かを予測すればよい。 Further, the information providing device 10 may predict whether or not an object enters the field of view of the user U at a predetermined speed or higher. That is, the information providing device 10 determines whether or not various events that are predetermined events that may give a shock to the user U occur before drawing the image in the VR space. You can predict it.

〔1−5.衝撃度の推定について〕
そして、情報提供装置10は、利用者Uに対して衝撃を与えうる事象が生じると予測した場合は、その事象が生じた際に利用者Uに対して与える衝撃の度合いを推定する。例えば、情報提供装置10は、衝撃の度合いを示す数値である衝撃度を推定する。例えば、情報提供装置10は、利用者Uに所定のオブジェクトが衝突すると予測された場合は、利用者Uに所定のオブジェクトが生じた際の衝撃度を推定する。
[1-5. Impact degree estimation]
Then, when the information providing device 10 predicts that an event that may give an impact to the user U will occur, the information providing device 10 estimates the degree of the impact given to the user U when the event occurs. For example, the information providing device 10 estimates the degree of impact, which is a numerical value indicating the degree of impact. For example, when it is predicted that a predetermined object collides with the user U, the information providing device 10 estimates the degree of impact when the predetermined object is generated by the user U.

ここで、所定のオブジェクトがVR空間において利用者Uの仮想的な体に衝突する場合、利用者Uの仮想的な体のうち足に衝突した場合と顔に衝突した場合とでは、衝撃度が異なると考えられる。一般的に、所定のオブジェクトがVR空間で衝突する場合、衝突位置がVR空間における利用者Uの視点(すなわち、仮想的な目の位置)に近い位置に衝突した方が衝撃度が高いと予測される。そこで、情報提供装置10は、VR空間における利用者Uの仮想的な身体のうち、所定のオブジェクトが衝突する位置に応じて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uの仮想的な体と所定のオブジェクトとの衝突位置を推定し、推定した位置が利用者Uの視点に近い程、高い値の衝撃度を算出してもよい。 Here, when a predetermined object collides with the virtual body of the user U in the VR space, the degree of impact differs depending on whether the object collides with the foot or the face of the virtual body of the user U. It is considered different. In general, when a predetermined object collides in VR space, it is predicted that the impact degree is higher when the collision position collides with a position closer to the user U's viewpoint (that is, a virtual eye position) in VR space. Will be done. Therefore, the information providing device 10 may estimate the impact degree of the user U according to the position where a predetermined object collides with the virtual body of the user U in the VR space. For example, the information providing device 10 estimates the collision position between the virtual body of the user U and a predetermined object, and calculates a higher impact degree as the estimated position is closer to the viewpoint of the user U. May be good.

また、所定のオブジェクトが利用者Uに衝突する際の速度が早ければ早い程、利用者Uの衝撃度が高いと予測される。そこで、情報提供装置10は、所定のオブジェクトが利用者Uに衝突する速度に応じて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uに所定のオブジェクトが衝突する旨が予測された場合、オブジェクトが利用者Uに衝突する際の移動速度や、利用者Uに衝突するまでの間の移動速度を算出する。そして、情報提供装置10は、算出した移動速度が高ければ高い程、高い値の衝撃度を算出してもよい。 Further, it is predicted that the faster the speed at which a predetermined object collides with the user U, the higher the impact degree of the user U. Therefore, the information providing device 10 may estimate the impact degree of the user U according to the speed at which a predetermined object collides with the user U. For example, when the information providing device 10 predicts that a predetermined object will collide with the user U, the moving speed when the object collides with the user U and the movement until the object collides with the user U. Calculate the speed. Then, the information providing device 10 may calculate a higher impact degree as the calculated moving speed is higher.

このような処理の結果、例えば、情報提供装置10は、VR空間内において、利用者Uが他の利用者により撃たれた場合等の衝撃度を、利用者Uが他の利用者に撃たれた際の映像を描画する前に推定することができる。この結果、情報提供装置10は、衝撃度が高い事象が生じる際に、後述する各種の保護施策を実行することができる。 As a result of such processing, for example, in the information providing device 10, the user U is shot by another user at the impact level when the user U is shot by another user in the VR space. It can be estimated before drawing the image at the time. As a result, the information providing device 10 can execute various protection measures described later when an event having a high impact degree occurs.

より具体的な例を挙げると、情報提供装置10は、事象として、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突するか否かを予測する。そして、情報提供装置10は、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突すると予測された場合は、所定の閾値よりも高い衝撃度を算出する。この結果、情報提供装置10は、利用者UがVR空間内で撃たれた場合等、衝撃度が高いと予測される事象が生じる際に、後述する各種の保護施策を実行することができる。 To give a more specific example, the information providing device 10 predicts whether or not a predetermined object collides with the user U at a speed faster than a predetermined speed in the field of view of the user U as an event. Then, when it is predicted that a predetermined object collides with the user U at a speed faster than the predetermined speed in the field of view of the user U, the information providing device 10 calculates an impact degree higher than the predetermined threshold value. .. As a result, the information providing device 10 can execute various protection measures described later when an event predicted to have a high impact degree occurs, such as when the user U is shot in the VR space.

なお、情報提供装置10は、他の各種パラメータを用いて、衝撃度の推定を行ってもよい。例えば、利用者Uが感じる衝撃は、VR空間内において利用者Uに向かってくるオブジェクトの大きさや形状、種別に応じて異なると予測される。そこで、情報提供装置10は、利用者Uに対して与える衝撃度のパラメータとして、各オブジェクトごとにスコアの登録を受付ける。そして、情報提供装置10は、利用者に衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、衝撃度を算出してもよい。 The information providing device 10 may estimate the degree of impact by using various other parameters. For example, the impact felt by the user U is predicted to differ depending on the size, shape, and type of the object approaching the user U in the VR space. Therefore, the information providing device 10 accepts the registration of the score for each object as a parameter of the impact degree given to the user U. Then, the information providing device 10 may calculate the impact degree based on the score given in advance to the predetermined object that collides with the user.

例えば、情報提供装置10は、硬い素材を再現したオブジェクトに対し、柔らかい素材を再現したオブジェクトよりも高い値のスコアの登録を受付ける。また、情報提供装置10は、鋭い形状を有するオブジェクトに対し、滑らかな形状を有するオブジェクトよりも高い値のスコアの登録を受付ける。そして、情報提供装置10は、利用者Uに衝突するオブジェクトのスコアの値が高ければ高い程、より高い値の衝撃度を算出してもよい。 For example, the information providing device 10 accepts registration of a score higher than that of an object that reproduces a soft material for an object that reproduces a hard material. Further, the information providing device 10 accepts the registration of a score higher than that of the object having a smooth shape for the object having a sharp shape. Then, the information providing device 10 may calculate the impact degree of a higher value as the value of the score of the object colliding with the user U is higher.

〔1−6.他の利用者に対する衝突について〕
ここで、利用者Uに対するオブジェクトの衝突のみならず、例えば、利用者Uの視野内にいる第1利用者にオブジェクトが急に衝突した場合にも、利用者Uの衝撃度が上昇すると考えられる。例えば、利用者Uの視野内にいる第1利用者が利用者Uの視野外にいる第2利用者によって急に攻撃された場合には、利用者Uに大きな衝撃が生じると考えられる。
[1-6. About conflicts with other users]
Here, it is considered that the impact degree of the user U increases not only when the object collides with the user U but also when the object suddenly collides with the first user in the field of view of the user U, for example. .. For example, if the first user in the field of view of the user U is suddenly attacked by the second user outside the field of view of the user U, it is considered that a large impact will occur on the user U.

そこで、情報提供装置10は、利用者Uの視野内に含まれる他の利用者に対する事象に基づく衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uの視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じるか否かを予測する。より具体的な例を挙げると、情報提供装置10は、利用者Uの視野内に含まれる他の利用者のオブジェクトに、利用者Uの視野外から移動してきたオブジェクトが所定の閾値以上の速度で衝突するか否かを所定の事象として予測する。そして、情報提供装置10は、他の利用者を示すオブジェクトに所定の事象が生じると予測された場合は、その事象が利用者Uの視野内で生じた際に利用者Uが受ける衝撃の度合いである衝撃度を推定してもよい。 Therefore, the information providing device 10 may estimate the degree of impact based on an event on another user included in the field of view of the user U. For example, the information providing device 10 predicts whether or not a predetermined event occurs in an object that is included in the field of view of the user U and that indicates another user. To give a more specific example, in the information providing device 10, the speed at which an object that has moved from outside the field of view of the user U to another user's object included in the field of view of the user U is equal to or higher than a predetermined threshold value. Predicts whether or not there is a collision as a predetermined event. Then, when the information providing device 10 predicts that a predetermined event will occur in an object indicating another user, the degree of impact that the user U receives when the event occurs in the field of view of the user U. The degree of impact may be estimated.

例えば、情報提供装置10は、衝突するオブジェクトの速度、形状、種別等といった各種のパラメータに基づいて、衝撃度の値を算出してもよい。また、例えば、情報提供装置10は、利用者Uにオブジェクトが衝突する際と同様に、オブジェクトが衝突する他の利用者の衝撃度を算出し、算出した衝撃度に、利用者Uと他の利用者との距離に応じた係数(例えば、距離が離れれば離れる程値が小さくなる1以下の係数)を積算した値を利用者Uの衝撃度としてもよい。 For example, the information providing device 10 may calculate the value of the impact degree based on various parameters such as the speed, shape, and type of the colliding object. Further, for example, the information providing device 10 calculates the impact degree of another user who collides with the object in the same manner as when the object collides with the user U, and the calculated impact degree is added to the user U and another user. The impact degree of the user U may be a value obtained by integrating a coefficient according to the distance to the user (for example, a coefficient of 1 or less whose value becomes smaller as the distance increases).

すなわち、情報提供装置10は、利用者Uの視野内において、利用者Uに対して衝撃度が所定の閾値を超える衝撃を与えうる事象が生じるか否かを予測し、利用者Uに対して衝撃を与えうる事象が生じると予測した場合は、その事象が利用者Uに与える衝撃度を算出すればよい。このような処理の結果、情報提供装置10は、利用者Uの視野内で生じる事象が利用者Uに対して所定の閾値以上の衝撃を与える場合に、適切な保護施策を実行することができる。 That is, the information providing device 10 predicts whether or not an event in which the impact degree exceeds a predetermined threshold value can give an impact to the user U within the field of view of the user U, and predicts whether or not the event occurs to the user U. When it is predicted that an event that can give an impact will occur, the degree of impact that the event gives to the user U may be calculated. As a result of such processing, the information providing device 10 can execute an appropriate protection measure when an event occurring in the field of view of the user U gives an impact to the user U by a predetermined threshold value or more. ..

〔1−7.可能性の算出について〕
なお、情報提供装置10は、各種事象が生じる可能性を算出し、算出した可能性に基づいて、衝撃度の推定を行ってもよい。例えば、情報提供装置10は、ある事象が生じた際に利用者Uが受ける衝撃度の値と、その事象が生じる可能性との積が所定の閾値を超える場合は、保護施策を実行してもよい。
[1-7. About calculation of possibility]
The information providing device 10 may calculate the possibility of various events occurring and estimate the degree of impact based on the calculated possibility. For example, the information providing device 10 executes a protection measure when the product of the value of the impact degree received by the user U when a certain event occurs and the possibility that the event occurs exceeds a predetermined threshold value. May be good.

〔1−8.ユーザ履歴を用いた衝撃度の推定について〕
ここで、ゲーム等においてある事象が生じた際は、経験者よりも初心者の方がより大きい衝撃を受けると考えられる。また、利用者Uが男性であるか女性であるか、利用者Uの年齢、利用者Uのデモグラフィック属性やサイコグラフィック属性に応じて、利用者Uが受ける衝撃の度合いが変化するとも考えられる。また、ホラー映画やアクション映画等、衝撃度が一般的に高いコンテンツを利用者Uが頻繁に視聴している場合は、利用者Uが受ける衝撃度は、他の利用者よりも低いと考えられる。
[1-8. About estimation of impact using user history]
Here, when a certain event occurs in a game or the like, it is considered that a beginner receives a greater impact than an experienced person. It is also considered that the degree of impact received by the user U changes depending on whether the user U is male or female, the age of the user U, and the demographic attribute and the psychographic attribute of the user U. .. Further, when the user U frequently watches content having a generally high impact degree such as a horror movie or an action movie, the impact degree received by the user U is considered to be lower than that of other users. ..

そこで、情報提供装置10は、利用者Uの属性情報に基づいて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、利用者Uが初心者であるか否か、利用者Uの性別、利用者Uが閲覧したコンテンツの種別、VR空間における利用者Uの検索履歴等、利用者Uに関する各種の属性情報に基づいて、利用者Uの衝撃度を算出してもよい。 Therefore, the information providing device 10 may estimate the impact degree of the user U based on the attribute information of the user U. For example, the information providing device 10 relates to the user U, such as whether or not the user U is a beginner, the gender of the user U, the type of content viewed by the user U, the search history of the user U in the VR space, and the like. The impact degree of the user U may be calculated based on various attribute information.

〔1−9.保護施策について〕
ここで、情報提供装置10は、利用者Uの衝撃度が所定の閾値を超えた場合は、各種の保護施策を実行することで、利用者Uが受ける衝撃を軽減する。例えば、情報提供装置10は、事象が生じた際の映像を描画する際に、映像の解像度を低下させる、映像をぼやかす、事象が生じる前後の所定期間の映像をカット若しくは所定の映像に切替える等、利用者Uに提供する映像に対する各種の編集を行うことで、利用者Uの衝撃を軽減する。
[1-9. About protection measures]
Here, when the impact degree of the user U exceeds a predetermined threshold value, the information providing device 10 reduces the impact received by the user U by executing various protection measures. For example, when drawing an image when an event occurs, the information providing device 10 reduces the resolution of the image, blurs the image, cuts the image for a predetermined period before and after the event occurs, or switches to a predetermined image. By performing various editing on the video provided to the user U, the impact of the user U is reduced.

なお、情報提供装置10は、利用者Uの衝撃を軽減することができるのであれば、任意の保護施策を実行してもよい。例えば、情報提供装置10は、事象が発生する際の映像をスローモーションにしてもよい。また、情報提供装置10は、映像をモノクロ映像にしてもよく、例えば、VR空間における利用者Uの視点とは異なる視点からの映像を描画して提供してもよい。より具体的には、情報提供装置10は、事象が生じた際に上空から利用者Uの仮想的な体を見ているといった視点の映像を描画して提供してもよい。 The information providing device 10 may implement arbitrary protection measures as long as the impact of the user U can be reduced. For example, the information providing device 10 may set the image when an event occurs in slow motion. Further, the information providing device 10 may convert the image into a monochrome image, and may draw and provide an image from a viewpoint different from the viewpoint of the user U in the VR space, for example. More specifically, the information providing device 10 may draw and provide an image of a viewpoint such as viewing the virtual body of the user U from the sky when an event occurs.

また、情報提供装置10は、発生する事象ごとに異なる保護施策を実行してもよい。例えば、情報提供装置10は、利用者Uにオブジェクトが衝突する事象が生じる場合は、その事象が生じる前に、描画する映像の視点を上空からの視点に変更する。一方、情報提供装置10は、利用者Uの視野内にいる他の利用者にオブジェクトが衝突する事象が生じる場合は、事象が生じる際の映像をスローモーションにしてもよい。 Further, the information providing device 10 may implement different protection measures for each event that occurs. For example, when an event occurs in which an object collides with the user U, the information providing device 10 changes the viewpoint of the image to be drawn to a viewpoint from the sky before the event occurs. On the other hand, when an event occurs in which an object collides with another user in the field of view of the user U, the information providing device 10 may set the image at the time of the event in slow motion.

〔1−10.保護処理の一例について〕
以下、図1を用いて、情報提供装置10が実行する保護処理の一例について説明する。なお、図1に示す例では、利用者UがVR空間内において所謂FPS(First Person Shooter)と呼ばれるゲームを行う例について記載した。
[1-10. About an example of protection processing]
Hereinafter, an example of the protection process executed by the information providing device 10 will be described with reference to FIG. In the example shown in FIG. 1, an example in which the user U plays a game called FPS (First Person Shooter) in the VR space has been described.

例えば、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する(ステップS1)。例えば、図1に示す例では、利用者Uの仮想的な体を示すオブジェクトVU01と、利用者Uとは異なる利用者の仮想的な体を示すオブジェクトVU02とがVR空間上に存在する。このような場合、情報提供装置10は、オブジェクトVU02がオブジェクトVU01を仮想的な武器で攻撃しようとしているか否かを判定し、攻撃しようとしている場合は、オブジェクトVU01に銃弾などのオブジェクトが衝突する旨を予測する。 For example, the information providing device 10 predicts an event that occurs in the field of view of the user U or the user U in the VR space (step S1). For example, in the example shown in FIG. 1, an object VU01 showing a virtual body of a user U and an object VU02 showing a virtual body of a user different from the user U exist in the VR space. In such a case, the information providing device 10 determines whether or not the object VU02 is trying to attack the object VU01 with a virtual weapon, and if it is trying to attack, the object such as an ammunition collides with the object VU01. Predict.

このような場合、情報提供装置10は、予測した事象が利用者Uに対して及ぼす衝撃度を推定する(ステップS2)。例えば、情報提供装置10は、予測した事象「衝突」、衝突するオブジェクトの種別「銃弾」、オブジェクトに付与されたスコア「100」、オブジェクトが衝突する際の速度「100」、利用者Uの属性「初心者」等、事象に関する各種の情報に基づいて、事象が生じた際の利用者Uの衝撃度を算出する。例えば、情報提供装置10は、銃弾がオブジェクトVU01に衝突した際に利用者Uが受ける衝撃度を「100」と算出する。 In such a case, the information providing device 10 estimates the degree of impact of the predicted event on the user U (step S2). For example, the information providing device 10 has a predicted event "collision", a type of object to collide "bullet", a score "100" given to the object, a speed "100" when the object collides, and an attribute of the user U. Based on various information about the event such as "beginner", the impact degree of the user U when the event occurs is calculated. For example, the information providing device 10 calculates the impact degree received by the user U when the ammunition collides with the object VU01 as "100".

そして、情報提供装置10は、推定した衝撃度が所定の閾値を超える場合は、衝撃度を減少させるように編集した映像を描画する(ステップS3)。例えば、情報提供装置10は、銃弾のオブジェクトOB01が発射され、オブジェクトVU01に当たる場合は、わざとぼやかした利用者Uの視野の映像SVP1を描画する。より具体的には、情報提供装置10は、オブジェクトOB01がオブジェクトVU01に衝突するよりも所定時間だけ前の映像から、オブジェクトOB01がオブジェクトVU01に衝突してから所定時間だけ後の映像までを、ぼやかして描画する。すなわち、情報提供装置10は、利用者Uの衝撃度を軽減するような施策を、利用者Uに提供する映像に対して行う。 Then, when the estimated impact degree exceeds a predetermined threshold value, the information providing device 10 draws an image edited so as to reduce the impact degree (step S3). For example, when the object OB01 of the ammunition is fired and hits the object VU01, the information providing device 10 draws the image SVP1 of the field of view of the user U intentionally blurred. More specifically, the information providing device 10 blurs the video from the video before the object OB01 collides with the object VU01 by a predetermined time to the video after the object OB01 collides with the object VU01 by a predetermined time. And draw. That is, the information providing device 10 takes measures to reduce the impact degree of the user U on the video provided to the user U.

そして、情報提供装置10は、描画したVR空間の映像をHMD100に提供する(ステップS4)。この結果、HMD100は、保護施策が施された映像を利用者Uに対して提供することができる(ステップS5)。 Then, the information providing device 10 provides the drawn VR space image to the HMD 100 (step S4). As a result, the HMD 100 can provide the video with the protection measures to the user U (step S5).

〔2.情報提供装置の構成〕
以下、上記した情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of information providing device]
Hereinafter, an example of the functional configuration of the information providing device 10 described above will be described. FIG. 2 is a diagram showing a configuration example of the information providing device according to the embodiment. As shown in FIG. 2, the information providing device 10 includes a communication unit 20, a storage unit 30, and a control unit 40.

通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、HMD100との間で情報の送受信を行う。 The communication unit 20 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 20 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the HMD 100.

記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、オブジェクトデータベース31、および事象データベース32を記憶する。以下、図3、図4を用いて、各データベース31、32に登録される情報の一例を説明する。 The storage unit 30 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. Further, the storage unit 30 stores the object database 31 and the event database 32. Hereinafter, an example of information registered in each of the databases 31 and 32 will be described with reference to FIGS. 3 and 4.

オブジェクトデータベース31には、VR空間上における各種オブジェクトのデータが登録されている。例えば、図3は、実施形態に係るオブジェクトデータベースに登録される情報の一例を示す図である。図3に示す例では、オブジェクトデータベース31には、「オブジェクトID(Identifier)」、「オブジェクトデータ」、「配置位置」、「オブジェクト種別」、および「衝撃スコア」等といった情報が登録されている。 Data of various objects in the VR space are registered in the object database 31. For example, FIG. 3 is a diagram showing an example of information registered in the object database according to the embodiment. In the example shown in FIG. 3, information such as "object ID (Identifier)", "object data", "arrangement position", "object type", and "impact score" is registered in the object database 31.

ここで、「オブジェクトID」とは、オブジェクトを識別する識別子である。また、「オブジェクトデータ」とは、対応付けられた「オブジェクトID」が示すオブジェクトに関するデータであり、オブジェクトの形状やテクスチャのデータである。また、「配置位置」とは、対応付けられた「オブジェクトID」が示すオブジェクトが配置されたVR空間上の位置である。また、「オブジェクト種別」とは、利用者であるか、銃弾であるか等、VR空間においてオブジェクトが何を示すオブジェクトであるかを示す情報である。また、「衝撃スコア」とは、オブジェクトが利用者のオブジェクトに衝突する際に生じる衝撃度を算出する際のパラメータ、すなわち、スコアである。 Here, the "object ID" is an identifier that identifies an object. Further, the "object data" is data related to the object indicated by the associated "object ID", and is data on the shape and texture of the object. Further, the "arrangement position" is a position on the VR space in which the object indicated by the associated "object ID" is arranged. Further, the "object type" is information indicating what the object indicates in the VR space, such as whether it is a user or an ammunition. Further, the "impact score" is a parameter for calculating the impact degree generated when an object collides with a user's object, that is, a score.

例えば、図3に示す例では、オブジェクトデータベース31には、オブジェクトID「オブジェクトID#1」、オブジェクトデータ「データ#1」、配置位置「位置#1」、オブジェクト種別「利用者」、および衝撃スコア「10」といった情報が対応付けて登録されている。このような情報は、オブジェクトID「オブジェクトID#1」が示すオブジェクトが、オブジェクトデータ「データ#1」を用いて描画されるオブジェクトであり、配置位置「位置#1」が示すVR空間上の位置に配置されている旨を示す。また、このような情報は、オブジェクトID「オブジェクトID#1」が示すオブジェクトのオブジェクト種別が「利用者」、すなわちVR空間における利用者の体であり、衝撃スコアが「10」である旨を示す。 For example, in the example shown in FIG. 3, the object database 31 has the object ID “object ID # 1”, the object data “data # 1”, the placement position “position # 1”, the object type “user”, and the impact score. Information such as "10" is registered in association with each other. Such information is that the object indicated by the object ID "object ID # 1" is an object drawn using the object data "data # 1", and the position on the VR space indicated by the arrangement position "position # 1". Indicates that it is located in. Further, such information indicates that the object type of the object indicated by the object ID "object ID # 1" is "user", that is, the body of the user in the VR space, and the impact score is "10". ..

事象データベース32には、予測対象となる事象が登録される。例えば、図4は、実施形態に係る事象データベースに登録される情報の一例を示す図である。図4に示す例では、事象データベース32には、「事象ID」、「事象内容」、および「パラメータ」等といった情報が登録されている。ここで、「事象ID」とは、事象を識別する識別子である。また、「事象内容」とは、予測対象となる事象の内容を示す情報である。また、「パラメータ」とは、対応付けられた「事象内容」を予測する際に用いる各種の条件である。例えば、情報提供装置10は、「パラメータ」として登録された条件がVR空間上において満たされる場合は、対応付けられた「事象内容」が発生すると判定する。 Events to be predicted are registered in the event database 32. For example, FIG. 4 is a diagram showing an example of information registered in the event database according to the embodiment. In the example shown in FIG. 4, information such as "event ID", "event content", and "parameter" is registered in the event database 32. Here, the "event ID" is an identifier that identifies an event. Further, the "event content" is information indicating the content of the event to be predicted. Further, the "parameter" is various conditions used when predicting the associated "event content". For example, the information providing device 10 determines that the associated "event content" occurs when the condition registered as the "parameter" is satisfied in the VR space.

例えば、図4に示す例では、事象データベース32には、事象ID「事象#1」、事象内容「衝突」、パラメータ「速度:20以上」とが対応付けて登録されている。このような情報は、事象ID「事象#1」が示す事象が、事象内容「衝突」が示す内容、すなわち、利用者Uに他のオブジェクトが衝突する事象であり、パラメータ「速度:20以上」が示す内容が満たされる場合、すなわち、他のオブジェクトの移動速度が「20以上」である場合に、発生すると予測される事象である旨を示す。 For example, in the example shown in FIG. 4, the event ID "event # 1", the event content "collision", and the parameter "velocity: 20 or more" are registered in association with each other in the event database 32. Such information is that the event indicated by the event ID "event # 1" is the content indicated by the event content "collision", that is, an event in which another object collides with the user U, and the parameter "velocity: 20 or more". Indicates that the event is expected to occur when the content indicated by is satisfied, that is, when the moving speed of another object is "20 or more".

なお、図3、4に示す例では、「オブジェクト#1」、「データ#1」、「位置#1」、「事象#1」等という概念的な値を記載したが、実際には、各データベースには、オブジェクトや事象を識別する文字列や、モデリングデータ、VR空間内での位置等が登録されることとなる。また、各データベース31、32には、VR空間の描画や事象が発生するか否かを予測する際に用いられる各種の情報が登録されることとなる。 In the examples shown in FIGS. 3 and 4, conceptual values such as "object # 1", "data # 1", "position # 1", and "event # 1" are described, but in reality, each of them is described. Character strings that identify objects and events, modeling data, positions in VR space, and the like are registered in the database. In addition, various types of information used for drawing the VR space and predicting whether or not an event will occur will be registered in each of the databases 31 and 32.

図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。 Returning to FIG. 2, the explanation will be continued. The control unit 40 is a controller, and for example, various programs stored in a storage device inside the information providing device 10 by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) are stored in a RAM or the like. Is realized by executing as a work area. Further, the control unit 40 is a controller, and may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部40は、受付部41、予測部42、推定部43、実行部44、および描画部45を有する。受付部41は、HMD100からVR空間を描画するための各種の情報を受付ける。例えば、受付部41は、利用者Uの向き、VR空間における利用者Uの行動を示す操作等を受付ける。 As shown in FIG. 2, the control unit 40 includes a reception unit 41, a prediction unit 42, an estimation unit 43, an execution unit 44, and a drawing unit 45. The reception unit 41 receives various information for drawing the VR space from the HMD 100. For example, the reception unit 41 accepts an operation indicating the direction of the user U, the behavior of the user U in the VR space, and the like.

予測部42は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する。例えば、予測部42は、事象として、VR空間において利用者Uに所定のオブジェクトが衝突するか否かを予測する。また、予測部42は、VR空間において他の利用者の行為により利用者Uに所定のオブジェクトが衝突するか否かを予測する。また、予測部42は、事象として、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突するか否かを予測する。また、予測部42は、利用者Uの視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じるか否かを予測する。 The prediction unit 42 predicts an event that occurs in the field of view of the user U or the user U in the VR space. For example, the prediction unit 42 predicts whether or not a predetermined object collides with the user U in the VR space as an event. Further, the prediction unit 42 predicts whether or not a predetermined object collides with the user U due to an action of another user in the VR space. Further, the prediction unit 42 predicts whether or not a predetermined object collides with the user U at a speed faster than the predetermined speed in the field of view of the user U as an event. Further, the prediction unit 42 predicts whether or not a predetermined event occurs in an object that is included in the field of view of the user U and indicates another user.

例えば、予測部42は、受付部41が受け付けた利用者Uの向きや利用者Uの行動に基づいて、所定の時間(例えば、数ミリ秒から数十ミリ秒程度)が経過した際に事象データベース32に登録された各種の事象が生じるか否かを判定する。例えば、予測部42は、図4に示す情報が登録されている場合は、利用者Uのオブジェクトに他のオブジェクトが速度「20以上」で衝突するか否か、利用者Uのオブジェクトに銃弾のオブジェクトが衝突するか否かを判定する。より具体的には、予測部42は、利用者Uの向き、操作内容、各オブジェクトの状態等に基づいて、所定の時間が経過した際に事象データベース32に登録された各種の事象が発生する可能性を算出し、算出した可能性が所定の閾値を超える事象について、所定の時間が経過した際に発生する事象とする。 For example, the prediction unit 42 causes an event when a predetermined time (for example, about several milliseconds to several tens of milliseconds) elapses based on the direction of the user U and the behavior of the user U received by the reception unit 41. It is determined whether or not various events registered in the database 32 occur. For example, when the information shown in FIG. 4 is registered, the prediction unit 42 determines whether or not another object collides with the object of the user U at a speed of "20 or more", and the object of the user U is ammunitioned. Determine if objects collide. More specifically, the prediction unit 42 generates various events registered in the event database 32 when a predetermined time elapses, based on the orientation of the user U, the operation content, the state of each object, and the like. The possibility is calculated, and the event that the calculated possibility exceeds a predetermined threshold value is regarded as an event that occurs when a predetermined time elapses.

例えば、図5は、実施形態に係る情報提供装置が予測する事象の一例を説明する図である。例えば、図5中(A)、(B)に示す例では、VR空間において第1の利用者のオブジェクトVU01、第2の利用者のオブジェクトVU02、および第3の利用者のオブジェクトVU03が配置されている。また、図5中(A)、(B)に示す例では、オブジェクトVU03が銃のオブジェクトを装備しているものとする。 For example, FIG. 5 is a diagram illustrating an example of an event predicted by the information providing device according to the embodiment. For example, in the examples shown in FIGS. 5A and 5B, the first user object VU01, the second user object VU02, and the third user object VU03 are arranged in the VR space. ing. Further, in the examples shown in FIGS. 5A and 5B, it is assumed that the object VU03 is equipped with a gun object.

ここで、図5中(A)に示すように、オブジェクトVU03がオブジェクトVU01を所定の武器で攻撃しようとしている場合、情報提供装置10は、オブジェクトVU03が使用する銃の攻撃範囲S1を推定する。そして、情報提供装置10は、オブジェクトVU01が攻撃範囲S1に含まれ、かつ、第3の利用者が攻撃を行うための操作を入力した場合は、オブジェクトVU01に銃弾が衝突する旨を予測する。 Here, as shown in FIG. 5A, when the object VU03 is trying to attack the object VU01 with a predetermined weapon, the information providing device 10 estimates the attack range S1 of the gun used by the object VU03. Then, when the object VU01 is included in the attack range S1 and the third user inputs an operation for performing an attack, the information providing device 10 predicts that the bullet will collide with the object VU01.

また、図5中(B)に示すように、オブジェクトVU03がオブジェクトVU02を所定の武器で攻撃しようとしている場合、情報提供装置10は、オブジェクトVU03が使用する銃の攻撃範囲S1と、オブジェクトVU01の視野(すなわち、第1の利用者に提供される映像)の範囲S2とを推定する。そして、情報提供装置10は、範囲S2に含まれるオブジェクトVU02が攻撃範囲S1に含まれ、かつ、第3の利用者が攻撃を行うための操作を入力した場合は、オブジェクトVU01の視野内に含まれるオブジェクトVU02に銃弾が衝突する旨を予測する。 Further, as shown in FIG. 5B, when the object VU03 is trying to attack the object VU02 with a predetermined weapon, the information providing device 10 has the attack range S1 of the gun used by the object VU03 and the object VU01. The range S2 of the field of view (that is, the image provided to the first user) is estimated. Then, when the object VU02 included in the range S2 is included in the attack range S1 and the third user inputs an operation for performing an attack, the information providing device 10 is included in the field of view of the object VU01. It is predicted that a bullet will collide with the object VU02.

ここで、図5(A)、(B)に示す状態において、オブジェクトVU01、VU02に銃弾のオブジェクトが衝突した場合は、いずれもオブジェクトVU01と対応する第1の利用者に衝撃を与えると推定される。そこで、情報提供装置10は、予測した事象が発生する際に、映像をぼやかす等の各種保護施策を実行する。 Here, in the states shown in FIGS. 5A and 5B, when an object of ammunition collides with the objects VU01 and VU02, it is estimated that both of them give an impact to the first user corresponding to the object VU01. NS. Therefore, the information providing device 10 executes various protection measures such as blurring the image when the predicted event occurs.

なお、図5に示す例は、あくまで一例であり、予測部42は、任意の情報に基づいて発生する事象の予測を行ってよい。例えば、予測部42は、各オブジェクトの位置、向き、各オブジェクトの性能、各オブジェクトが装備するアイテムの性能、攻撃範囲、視野範囲等、各種VR空間における状況に基づき、発生する事象の予測を行えばよい。より具体的には、予測部42は、事象データベース32にパラメータとして登録された条件が満たされるか否かを判定し、満たされる場合は、対応する事象が発生すると判定すればよい。 The example shown in FIG. 5 is just an example, and the prediction unit 42 may predict an event that occurs based on arbitrary information. For example, the prediction unit 42 predicts an event to occur based on the situation in various VR spaces such as the position and orientation of each object, the performance of each object, the performance of the item equipped by each object, the attack range, and the visual field range. Just do it. More specifically, the prediction unit 42 may determine whether or not the condition registered as a parameter in the event database 32 is satisfied, and if it is satisfied, it may determine that the corresponding event occurs.

推定部43は、VR空間を介して利用者が受ける衝撃の度合いである衝撃度を推定する。より具体的には、推定部43は、発生すると予測された事象に対する衝撃度を推定する。例えば、推定部43は、利用者Uに銃弾等の所定のオブジェクトが衝突すると予測された場合は、利用者Uに所定のオブジェクトが衝突した際の衝撃度を推定する。また、例えば、43は、VR空間における利用者Uの仮想的な身体のうち、所定のオブジェクトが衝突する位置に応じて、利用者Uの衝撃度を推定する。 The estimation unit 43 estimates the degree of impact, which is the degree of impact received by the user through the VR space. More specifically, the estimation unit 43 estimates the degree of impact on an event predicted to occur. For example, when it is predicted that a predetermined object such as an ammunition collides with the user U, the estimation unit 43 estimates the degree of impact when the predetermined object collides with the user U. Further, for example, 43 estimates the impact degree of the user U according to the position where a predetermined object collides with the virtual body of the user U in the VR space.

また、推定部43は、所定のオブジェクトが利用者Uに衝突する速度に応じて、利用者の衝撃度を推定する。また、推定部43は、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突すると予測された場合は、所定の閾値よりも高い衝撃度を算出する。また、推定部43は、利用者Uに衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、衝撃度を算出する。また、推定部43は、利用者の視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じると予測された場合は、事象が利用者Uの視野内で生じた際に利用者Uが受ける衝撃の度合いである衝撃度を推定する。 Further, the estimation unit 43 estimates the impact degree of the user according to the speed at which the predetermined object collides with the user U. Further, when it is predicted that a predetermined object collides with the user U at a speed faster than the predetermined speed in the field of view of the user U, the estimation unit 43 calculates an impact degree higher than the predetermined threshold value. Further, the estimation unit 43 calculates the impact degree based on the score given in advance to the predetermined object that collides with the user U. Further, when the estimation unit 43 is an object included in the field of view of the user and it is predicted that a predetermined event will occur in the object indicating another user, the event will occur in the field of view of the user U. The impact degree, which is the degree of impact received by the user U at that time, is estimated.

例えば、推定部43は、予測部42によって所定の事象が発生すると予測された場合、発生すると予測された事象に関するオブジェクト(例えば、衝突するオブジェクト)の種別、発生する事象の内容、各オブジェクトに付与された衝撃スコア、利用者Uのオブジェクトのうち他のオブジェクトが衝突する位置、衝突する際のオブジェクトの速度等に基づいて、利用者Uの衝撃度を算出する。例えば、推定部43は、利用者Uのオブジェクトの視点に近い位置に銃弾のオブジェクトが所定の閾値よりも速い速度で衝突する場合は、所定の閾値よりも高い値の衝撃度を算出する。 For example, when the prediction unit 42 predicts that a predetermined event will occur, the estimation unit 43 assigns the type of the object (for example, a colliding object) related to the predicted event, the content of the event to occur, and each object. The impact degree of the user U is calculated based on the impact score, the position where another object of the object of the user U collides, the speed of the object at the time of collision, and the like. For example, when the object of the ammunition collides with the object of the user U at a position close to the viewpoint of the object of the user U at a speed faster than a predetermined threshold value, the estimation unit 43 calculates an impact degree having a value higher than the predetermined threshold value.

なお、推定部43は、VR空間において生じると予測される事象と、利用者Uの属性情報とに基づいて、利用者Uが受ける衝撃の度合いである衝撃度を推定してもよい。例えば、推定部43は、利用者Uが初心者である場合は、より高い値の衝撃度を推定してもよい。また、例えば、推定部43は、予測部42によって各事象が発生する可能性を算出した場合は、各事象が生じた際の衝撃度の値に、予測部42が算出した可能性を積算した値を実際の衝撃度として算出してもよい。 The estimation unit 43 may estimate the degree of impact, which is the degree of impact received by the user U, based on the event predicted to occur in the VR space and the attribute information of the user U. For example, the estimation unit 43 may estimate a higher impact degree when the user U is a beginner. Further, for example, when the estimation unit 43 calculates the possibility that each event occurs by the prediction unit 42, the estimation unit 43 integrates the possibility calculated by the prediction unit 42 with the value of the impact degree when each event occurs. The value may be calculated as the actual impact degree.

実行部44は、推定された衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。例えば、実行部44は、保護施策として、衝撃を低減するように利用者Uに提供されるVR空間の映像を編集する。なお、実行部44は、発生する事象の内容に応じて異なる種別の保護施策を実行してもよい。 When the estimated impact degree exceeds a predetermined threshold value, the execution unit 44 executes a protection measure for protecting the user U from the impact. For example, the execution unit 44 edits the image of the VR space provided to the user U so as to reduce the impact as a protection measure. The execution unit 44 may execute different types of protection measures according to the content of the event that occurs.

例えば、実行部44は、推定部43が推定した衝撃度が所定の閾値よりも高いか否かを判定する。そして、実行部44は、推定部43が推定した衝撃度が所定の閾値よりも高いと判定した場合は、映像を描画する際にぼやかすよう描画部45に指示する。なお、実行部44は、事象が発生する前後所定の期間の映像を描画しないように描画部45に指示してもよく、視点を鳥瞰視点等の所定の視点にずらすように描画部45に指示してもよい。 For example, the execution unit 44 determines whether or not the impact degree estimated by the estimation unit 43 is higher than a predetermined threshold value. Then, when the execution unit 44 determines that the impact degree estimated by the estimation unit 43 is higher than a predetermined threshold value, the execution unit 44 instructs the drawing unit 45 to blur when drawing the image. The execution unit 44 may instruct the drawing unit 45 not to draw the image for a predetermined period before and after the event occurs, and instructs the drawing unit 45 to shift the viewpoint to a predetermined viewpoint such as a bird's-eye view. You may.

描画部45は、VR空間を描画する。例えば、描画部45は、利用者Uの操作や向き、各オブジェクトの配置位置等に応じて、VR空間における利用者Uの視野を描画した映像を生成する。また、描画部45は、実行部44からの指示に従い、所定の事象が生じた際に映像をぼやかしたり、利用者Uの視点とは異なる視点から描画した映像を生成する。そして、描画部45は、生成した映像をHMD100に提供する。 The drawing unit 45 draws the VR space. For example, the drawing unit 45 generates an image in which the field of view of the user U in the VR space is drawn according to the operation and orientation of the user U, the arrangement position of each object, and the like. Further, the drawing unit 45 blurs the image when a predetermined event occurs, or generates an image drawn from a viewpoint different from the viewpoint of the user U, in accordance with the instruction from the execution unit 44. Then, the drawing unit 45 provides the generated image to the HMD 100.

〔3.情報提供装置が実行する処理の流れの一例〕
続いて、図6を用いて、情報提供装置10が実行する保護処理の流れについて説明する。図6は、実施形態に係る情報提供装置が実行する保護処理の流れの一例を示すフローチャートである。なお、情報提供装置10は、図6に示す処理を、繰り返し実行することとなる。
[3. An example of the flow of processing executed by the information providing device]
Subsequently, the flow of the protection process executed by the information providing device 10 will be described with reference to FIG. FIG. 6 is a flowchart showing an example of a flow of protection processing executed by the information providing device according to the embodiment. The information providing device 10 repeatedly executes the process shown in FIG.

例えば、情報提供装置10は、オブジェクト同士の配置関係等に基づいて、発生しうるVR空間内の事象を予測する(ステップS101)。続いて、情報提供装置10は、予測した事象が利用者Uに対して及ぼす衝撃度を推定する(ステップS102)。そして、情報提供装置10は、衝撃度が所定の閾値を超えたか否かを判定し(ステップS103)、超えた場合は(ステップS103:Yes)、衝撃度が低くなるように編集した映像を描画し(ステップS104)、処理を終了する。一方、情報提供装置10は、衝撃度が所定の閾値を超えなかった場合は(ステップS103:No)、そのままVR空間を描画し(ステップS105)、処理を終了する。 For example, the information providing device 10 predicts a possible event in the VR space based on the arrangement relationship between the objects (step S101). Subsequently, the information providing device 10 estimates the degree of impact of the predicted event on the user U (step S102). Then, the information providing device 10 determines whether or not the impact degree exceeds a predetermined threshold value (step S103), and if it exceeds (step S103: Yes), draws an image edited so that the impact degree is low. (Step S104), and the process ends. On the other hand, when the impact degree does not exceed a predetermined threshold value (step S103: No), the information providing device 10 draws the VR space as it is (step S105), and ends the process.

〔4.変形例〕
上記では、情報提供装置10による保護処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する保護処理や算出処理のバリエーションについて説明する。
[4. Modification example]
In the above, an example of the protection process by the information providing device 10 has been described. However, the embodiment is not limited to this. Hereinafter, variations of the protection process and the calculation process executed by the information providing device 10 will be described.

〔4−1.VR空間について〕
上述した例では、情報提供装置10は、所謂3D(Dimension)オブジェクトが配置されたVR空間上において、利用者Uの衝撃度を推定した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、ロボットやドローンを利用者Uが操作する場合において、ロボットやドローンに生じる事象を予測し、予測した事象が発生した場合の利用者Uの衝撃度を推定し、推定結果に基づいて、各種保護施策を実行してもよい。より具体的には、情報提供装置10は、画像解析技術に基づいて、ロボットやドローンの周囲の状態を推定し、推定結果に基づいて、オブジェクトとの衝突等、所定の事象が生じるか否かを判定してもよい。
[4-1. About VR space]
In the above example, the information providing device 10 estimates the impact degree of the user U in the VR space in which the so-called 3D (Dimension) object is arranged. However, the embodiment is not limited to this. For example, the information providing device 10 predicts an event that occurs in the robot or drone when the user U operates the robot or drone, and estimates and estimates the impact degree of the user U when the predicted event occurs. Based on the results, various protection measures may be implemented. More specifically, the information providing device 10 estimates the surrounding state of the robot or drone based on the image analysis technology, and based on the estimation result, whether or not a predetermined event such as a collision with an object occurs. May be determined.

すなわち、実施形態において、VR空間を介して利用者が受ける衝撃とは、3Dオブジェクトが配置され、完全にシミュレートされた空間において生じた事象による衝撃のみならず、ロボットやドローンが撮像した映像(すなわち、仮想的な利用者Uの視点として撮影された映像)を介して利用者が受ける衝撃をも含む概念である。 That is, in the embodiment, the impact received by the user through the VR space is not only the impact caused by the event generated in the completely simulated space in which the 3D object is arranged, but also the image captured by the robot or the drone ( That is, it is a concept including the impact received by the user through the image taken from the viewpoint of the virtual user U).

〔4−2.推定について〕
また、情報提供装置10は、上述した情報以外にも、任意の情報に基づいて、利用者Uの衝撃度を推定してよい。例えば、情報提供装置10は、脈拍や発汗等といった各種生体情報を取得可能なウェアラブルデバイスを利用者Uが装着している場合、かかるウェアラブルデバイスが測定した生体情報に基づいて、利用者Uの衝撃度を推定してもよい。例えば、情報提供装置10は、所定の事象が生じると予測した際に脈拍数が所定の閾値を超えている場合は、所定の閾値よりも高い値の衝撃度を推定し、所定の事象が生じると予測した際に脈拍数が所定の閾値以下となる場合は、所定の閾値よりも低い値の衝撃度を推定してもよい。
[4-2. About estimation]
Further, the information providing device 10 may estimate the impact degree of the user U based on arbitrary information other than the above-mentioned information. For example, when the user U wears a wearable device capable of acquiring various biological information such as pulse and sweating, the information providing device 10 impacts the user U based on the biological information measured by the wearable device. The degree may be estimated. For example, when the information providing device 10 predicts that a predetermined event will occur and the pulse rate exceeds a predetermined threshold value, the information providing device 10 estimates an impact degree having a value higher than the predetermined threshold value, and the predetermined event occurs. If the pulse rate is equal to or less than a predetermined threshold value when predicted, the impact degree of a value lower than the predetermined threshold value may be estimated.

また、情報提供装置10は、上述した保護処理を実行するか否かの設定を利用者Uから受付けてもよい。また、例えば、情報提供装置10は、利用者Uのオブジェクトの近傍にスコアが所定の閾値を超えるオブジェクトが含まれているか否かを判定し、利用者Uのオブジェクトの近傍にスコアが所定の閾値を超えるオブジェクトが含まれている場合にのみ、上述した保護処理を実行することで、処理負荷を軽減してもよい。 Further, the information providing device 10 may accept a setting from the user U as to whether or not to execute the above-mentioned protection process. Further, for example, the information providing device 10 determines whether or not an object whose score exceeds a predetermined threshold value is included in the vicinity of the object of the user U, and the score is a predetermined threshold value in the vicinity of the object of the user U. The processing load may be reduced by executing the above-mentioned protection process only when the object exceeding the above is included.

なお、情報提供装置10は、上述した保護処理をVR空間の描画に先駆けて実行するのであれば、任意のタイミングで実行してよい。 The information providing device 10 may execute the above-mentioned protection process at any timing as long as it is executed prior to drawing the VR space.

〔4−3.装置構成〕
情報提供装置10は、フロントエンドサーバと、バックエンドサーバとで実現されてもよい。このような場合、フロントエンドサーバには、図2に示す受付部41および描画部45が配置され、バックエンドサーバには、予測部42、推定部43、および実行部44が配置される。また、記憶部30に登録された各データベース31、32は、外部のストレージサーバに保持されていてもよい。
[4-3. Device configuration〕
The information providing device 10 may be realized by a front-end server and a back-end server. In such a case, the reception unit 41 and the drawing unit 45 shown in FIG. 2 are arranged on the front-end server, and the prediction unit 42, the estimation unit 43, and the execution unit 44 are arranged on the back-end server. Further, the databases 31 and 32 registered in the storage unit 30 may be stored in an external storage server.

〔4−4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-4. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, and conversely, the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.

〔4−5.プログラム〕
また、上述した実施形態に係る情報提供装置10は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[4-5. program〕
Further, the information providing device 10 according to the above-described embodiment is realized by, for example, a computer 1000 having a configuration as shown in FIG. 7. FIG. 7 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to the output device 1010 and the input device 1020, and the arithmetic unit 1030, the primary storage device 1040, the secondary storage device 1050, the output IF (Interface) 1060, the input IF 1070, and the network IF 1080 are connected by the bus 1090. Has.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。 The arithmetic unit 1030 operates based on a program stored in the primary storage device 1040 or the secondary storage device 1050, a program read from the input device 1020, or the like, and executes various processes. The primary storage device 1040 is a memory device that temporarily stores data used by the arithmetic unit 1030 for various calculations, such as a RAM. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, such as a ROM (Read Only Memory), an HDD (Hard Disk Drive), and a flash memory. Is realized by.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), and the like. It is realized by a connector of a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, and a scanner, and is realized by, for example, USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 The input device 1020 includes, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. Further, the input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network IF1080 receives data from another device via the network N and sends it to the arithmetic unit 1030, and also transmits the data generated by the arithmetic unit 1030 to the other device via the network N.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。 For example, when the computer 1000 functions as the information providing device 10, the arithmetic unit 1030 of the computer 1000 realizes the function of the control unit 40 by executing the program loaded on the primary storage device 1040.

〔5.効果〕
上述したように、情報提供装置10は、VR空間を介して利用者Uが受ける衝撃の度合いである衝撃度を推定する。そして、情報提供装置10は、推定された衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。このため、情報提供装置10は、VR空間への没入度が高い場合であっても、利用者Uに対する衝撃を軽減することができる。
[5. effect〕
As described above, the information providing device 10 estimates the degree of impact, which is the degree of impact received by the user U through the VR space. Then, when the estimated impact degree exceeds a predetermined threshold value, the information providing device 10 executes a protection measure for protecting the user U from the impact. Therefore, the information providing device 10 can reduce the impact on the user U even when the degree of immersion in the VR space is high.

また、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で生じる事象を予測する。そして、情報提供装置10は、予測された事象に対する衝撃度を推定する。このため、情報提供装置10は、例えば、VR空間における利用者Uのオブジェクトに何らかの事象が生じた場合や、利用者Uの視野内で何らかの事象が生じた際に、その衝撃度を推定し、推定した衝撃度が所定の閾値を超えた場合は、衝撃から利用者Uを保護するための保護施策を実行する。このため、情報提供装置10は、利用者Uに対する衝撃を軽減することができる。 Further, the information providing device 10 predicts an event that occurs in the field of view of the user U or the user U in the VR space. Then, the information providing device 10 estimates the degree of impact on the predicted event. Therefore, the information providing device 10 estimates the degree of impact when, for example, an event occurs in the object of the user U in the VR space or when an event occurs in the field of view of the user U. When the estimated impact degree exceeds a predetermined threshold value, a protection measure for protecting the user U from the impact is executed. Therefore, the information providing device 10 can reduce the impact on the user U.

また、例えば、情報提供装置10は、事象として、VR空間において利用者Uに所定のオブジェクトが衝突するか否かを予測し、利用者Uに所定のオブジェクトが衝突すると予測された場合は、利用者Uに所定のオブジェクトが衝突した際の衝撃度を推定する。また、例えば、情報提供装置10は、VR空間において他の利用者Uの行為により利用者Uに所定のオブジェクトが衝突するか否かを予測する。このため、情報提供装置10は、オブジェクトが急に衝突したり、他のプレイヤーに攻撃された場合等の衝撃を軽減することができる。 Further, for example, the information providing device 10 predicts whether or not a predetermined object collides with the user U in the VR space as an event, and if it is predicted that the predetermined object collides with the user U, the information providing device 10 is used. The degree of impact when a predetermined object collides with the person U is estimated. Further, for example, the information providing device 10 predicts whether or not a predetermined object collides with the user U due to the action of another user U in the VR space. Therefore, the information providing device 10 can reduce the impact when an object suddenly collides or is attacked by another player.

また、例えば、情報提供装置10は、VR空間における利用者Uの仮想的な身体のうち、所定のオブジェクトが衝突する位置に応じて、利用者Uの衝撃度を推定する。このため、例えば、情報提供装置10は、利用者Uの顔にオブジェクトが衝突する場合には、保護施策を実行し、利用者Uの手にオブジェクトが衝突する場合には、保護施策を実行しないといった処理を実現できる。 Further, for example, the information providing device 10 estimates the impact degree of the user U according to the position where a predetermined object collides with the virtual body of the user U in the VR space. Therefore, for example, the information providing device 10 executes the protection measure when the object collides with the face of the user U, and does not execute the protection measure when the object collides with the hand of the user U. Such processing can be realized.

また、情報提供装置10は、所定のオブジェクトが利用者Uに衝突する速度に応じて、利用者Uの衝撃度を推定する。また、情報提供装置10は、事象として、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突するか否かを予測する。そして、情報提供装置10は、利用者Uの視野内において所定のオブジェクトが所定の速度よりも速い速度で利用者Uに衝突すると予測された場合は、所定の閾値よりも高い衝撃度を算出する。このため、情報提供装置10は、急激な衝突における衝撃を軽減することができる。 Further, the information providing device 10 estimates the impact degree of the user U according to the speed at which a predetermined object collides with the user U. Further, the information providing device 10 predicts whether or not a predetermined object collides with the user U at a speed faster than a predetermined speed in the field of view of the user U as an event. Then, when it is predicted that a predetermined object collides with the user U at a speed faster than the predetermined speed in the field of view of the user U, the information providing device 10 calculates an impact degree higher than the predetermined threshold value. .. Therefore, the information providing device 10 can reduce the impact in a sudden collision.

また、情報提供装置10は、利用者Uに衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、衝撃度を算出する。このため、情報提供装置10は、衝撃度を適切に推定できる。 In addition, the information providing device 10 calculates the degree of impact based on a score given in advance to a predetermined object that collides with the user U. Therefore, the information providing device 10 can appropriately estimate the degree of impact.

また、情報提供装置10は、利用者Uの視野内に含まれるオブジェクトであって、他の利用者Uを示すオブジェクトに所定の事象が生じるか否かを予測し、利用者Uの視野内に含まれるオブジェクトであって、他の利用者Uを示すオブジェクトに所定の事象が生じると予測された場合は、所定の事象が利用者Uの視野内で生じた際に利用者Uが受ける衝撃の度合いである衝撃度を推定する。このため、情報提供装置10は、視野内で他のプレイヤーが急に攻撃された場合等の衝撃を軽減することができる。 Further, the information providing device 10 predicts whether or not a predetermined event occurs in an object that is included in the field of view of the user U and indicates another user U, and is within the field of view of the user U. If it is an included object and it is predicted that a predetermined event will occur in an object indicating another user U, the impact on the user U when the predetermined event occurs within the field of view of the user U Estimate the degree of impact. Therefore, the information providing device 10 can reduce the impact when another player is suddenly attacked in the field of view.

また、情報提供装置10は、VR空間において利用者Uまたは利用者Uの視野内で所定の事象が生じる可能性を算出し、算出された可能性に応じた衝撃度を推定する。このため、情報提供装置10は、事象が生じる可能性に応じて、衝撃の軽減を行うか否かを判断できる。 Further, the information providing device 10 calculates the possibility that a predetermined event occurs in the field of view of the user U or the user U in the VR space, and estimates the impact degree according to the calculated possibility. Therefore, the information providing device 10 can determine whether or not to reduce the impact according to the possibility that an event will occur.

また、情報提供装置10は、VR空間において生じると予測される事象と、利用者Uの属性情報とに基づいて、利用者Uが受ける衝撃の度合いである衝撃度を推定する。このため、情報提供装置10は、初心者等の衝撃の軽減が必要な利用者に対しては、保護施策を実行し、経験者等の衝撃の軽減があまり必要でない利用者に対しては、保護施策の実行を行わないといった制御を実現できる。 Further, the information providing device 10 estimates the degree of impact, which is the degree of impact received by the user U, based on the event predicted to occur in the VR space and the attribute information of the user U. Therefore, the information providing device 10 implements protection measures for users who need to reduce the impact such as beginners, and protects users who do not need to reduce the impact so much such as experienced people. It is possible to realize control such as not executing measures.

また、情報提供装置10は、保護施策として、衝撃を低減するように利用者Uに提供されるVR空間の映像を編集する。このため、情報提供装置10は、事象が生じた際の衝撃を軽減できる。 Further, as a protection measure, the information providing device 10 edits the image of the VR space provided to the user U so as to reduce the impact. Therefore, the information providing device 10 can reduce the impact when an event occurs.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、特定部は、特定手段や特定路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the specific part can be read as a specific means or a specific route.

10 情報提供装置
20 通信部
30 記憶部
31 オブジェクトデータベース
32 事象データベース
40 制御部
41 受付部
42 予測部
43 推定部
44 実行部
45 描画部
100 HMD
10 Information provider 20 Communication unit 30 Storage unit 31 Object database 32 Event database 40 Control unit 41 Reception unit 42 Prediction unit 43 Estimate unit 44 Execution unit 45 Drawing unit 100 HMD

Claims (13)

仮想現実空間における利用者の位置とオブジェクトの位置との間の相対的な位置関係、および、前記利用者と前記オブジェクトとの移動方向に基づいて、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合において、前記利用者の視野内における前記衝突に係る前記利用者と前記オブジェクトの相対的な位置及び移動方向と前記利用者の視点に応じて、前記利用者が受ける衝撃の度合いを推定する推定部と、
前記推定部により推定された前記衝撃の度合いが所定の閾値を超えた場合は、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合に前記利用者に与える衝撃の度合いを低減させるように、前記利用者に対して提供される前記仮想現実空間の映像を編集する処理を実行する実行部と、
を有することを特徴とする保護装置。
Based on the relative positional relationship between the position of the user and the position of the object in the virtual real space, and the moving direction of the user and the object, the user and the object in the virtual real space In the case of a collision, the degree of impact received by the user is determined according to the relative position and moving direction of the user and the object related to the collision and the viewpoint of the user in the field of view of the user. Estimating part to estimate and
When the degree of impact estimated by the estimation unit exceeds a predetermined threshold value, the degree of impact given to the user when the user collides with the object in the virtual reality space is reduced. In addition, an execution unit that executes a process of editing the image of the virtual reality space provided to the user, and
A protective device characterized by having.
前記仮想現実空間において前記利用者または前記利用者の視野内で生じる事象を予測する予測部
を有し、
前記推定部は、前記予測部によって予測された事象について、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項1に記載の保護装置。
It has a prediction unit that predicts the user or an event that occurs in the user's field of view in the virtual reality space.
The estimating unit, about the event that is predicted by the prediction unit, collision occurring in the field of view of the user and the user on the basis of the user's viewpoint and the relative position置及beauty moving direction of said object The protective device according to claim 1, wherein the protection device is estimated.
前記予測部は、前記事象として、前記仮想現実空間において前記利用者に所定のオブジェクトが衝突するか否かを予測し、
前記推定部は、前記予測部により前記利用者に所定のオブジェクトが衝突すると予測された場合は、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項2に記載の保護装置。
The prediction unit predicts whether or not a predetermined object collides with the user in the virtual reality space as the event.
Wherein said estimation unit, when said predetermined object to the user by the prediction unit is predicted to collide, based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to claim 2, characterized in that estimating the collision occurring in the field of view of the user.
前記予測部は、前記仮想現実空間において他の利用者の行為により前記利用者に所定のオブジェクトが衝突するか否かを予測する
ことを特徴とする請求項3に記載の保護装置。
The protection device according to claim 3, wherein the prediction unit predicts whether or not a predetermined object collides with the user due to an action of another user in the virtual reality space.
前記推定部は、前記仮想現実空間における前記利用者の仮想的な身体のうち、前記所定のオブジェクトが衝突する位置に応じて、前記利用者について、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項3または4に記載の保護装置。
The estimating section of the virtual body of the user in the virtual reality space, depending on the position where the predetermined object collides, for the user, relative position置及of the said user object the device according to claim 3 or 4, characterized in that estimating the collision occurring in the field of view of the user based on the user's viewpoint and fine movement direction.
前記推定部は、前記所定のオブジェクトが前記利用者に衝突する速度に応じて、前記利用者について、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項3〜5のいずれか1つに記載の保護装置。
The estimator in accordance with the speed at which the predetermined object collides with the user, wherein the user, based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to any one of claims 3-5, characterized in that estimating the collision occurring in the field of view of the user.
前記予測部は、前記事象として、前記利用者の視野内において所定のオブジェクトが所定の速度よりも速い速度で前記利用者に衝突するか否かを予測し、
前記推定部は、前記利用者の視野内において前記所定のオブジェクトが所定の速度よりも速い速度で前記利用者に衝突すると予測された場合は、前記利用者と前記オブジェクトとが衝突した場合において前記利用者に与える衝撃の度合いが前記所定の閾値よりも高い、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項2〜6のいずれか1つに記載の保護装置。
As the event, the prediction unit predicts whether or not a predetermined object collides with the user at a speed faster than a predetermined speed in the field of view of the user.
When the estimation unit predicts that the predetermined object collides with the user at a speed faster than the predetermined speed in the user's field of view, the estimation unit causes the user and the object to collide with each other. the degree of impact on the user is higher than the predetermined threshold value, collision occurring in the field of view of the user based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to any one of claims 2-6, characterized in that to estimate.
前記推定部は、前記利用者に衝突する所定のオブジェクトに対して予め付与されたスコアに基づいて、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項3〜7のいずれか1つに記載の保護装置。
The estimation unit, on the basis of the previously assigned scores for a given object striking the user, based on the relative position置及beauty moving direction as the user's viewpoint of the said user object the device according to any one of claims 3-7, characterized in that estimating the collision occurring in the field of view of the user.
前記予測部は、前記利用者の視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じるか否かを予測し、
前記推定部は、前記利用者の視野内に含まれるオブジェクトであって、他の利用者を示すオブジェクトに所定の事象が生じると予測された場合は、当該事象が前記利用者の視野内で生じた際に当該利用者がうける、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項2〜8のいずれか1つに記載の保護装置。
The prediction unit predicts whether or not a predetermined event occurs in an object that is included in the field of view of the user and indicates another user.
The estimation unit is an object included in the field of view of the user, and when a predetermined event is predicted to occur in an object indicating another user, the event occurs in the field of view of the user. the user receives when a, and characterized by estimating a collision occurring in the field of view of the user based on the relative position置及beauty moving direction as the user's viewpoint of the said user object The protective device according to any one of claims 2 to 8.
前記予測部は、前記仮想現実空間において前記利用者または前記利用者の視野内で所定の事象が生じる可能性を算出し
前記推定部は、前記予測部によって算出された可能性に応じた、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項2〜9のいずれか1つに記載の保護装置。
The prediction unit calculates the possibility that a predetermined event occurs in the virtual reality space within the field of view of the user or the user, and the estimation unit calculates the possibility calculated by the prediction unit. claim 2-9, characterized in that estimating the collision occurring in the field of view of the user based on the user to the relative position置及beauty moving direction as the user's viewpoint of the object 1 The protective device described in 1.
前記推定部は、前記仮想現実空間において生じると予測される事象と、前記利用者の属性情報とに基づいて、当該利用者が受ける、前記利用者と前記オブジェクトの相対的位置及び移動方向と前記利用者の視点に基づいて前記利用者の視野内で生じる突を推定する
ことを特徴とする請求項1〜10のいずれか1つに記載の保護装置。
The estimation unit, an event which is expected to occur in the virtual reality space, based on the attribute information of the user, the user receives the relative position置及beauty moving direction of the said user object and protection device according to any one of claims 1 to 10, characterized in that estimating the collision occurring in the field of view of the user based on the user's viewpoint.
保護装置が実行する保護方法であって、
仮想現実空間における利用者の位置とオブジェクトの位置との間の相対的な位置関係、および、前記利用者と前記オブジェクトとの移動方向に基づいて、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合において、前記利用者の視野内における前記衝突に係る前記利用者と前記オブジェクトの相対的な位置及び移動方向と前記利用者の視点に応じて、前記利用者が受ける衝撃の度合いを推定する推定工程と、
前記推定工程により推定された前記衝撃の度合いが所定の閾値を超えた場合は、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合に前記利用者に与える衝撃の度合いを低減させるように、前記利用者に対して提供される前記仮想現実空間の映像を編集する処理を実行する実行工程と、
を含むことを特徴とする保護方法。
A protection method performed by a protective device,
Based on the relative positional relationship between the position of the user and the position of the object in the virtual real space, and the moving direction of the user and the object, the user and the object in the virtual real space In the case of a collision, the degree of impact received by the user is determined according to the relative position and moving direction of the user and the object related to the collision and the viewpoint of the user in the field of view of the user. Estimating process to estimate and
When the degree of impact estimated by the estimation step exceeds a predetermined threshold value, the degree of impact given to the user when the user collides with the object in the virtual reality space is reduced. In addition, an execution step of executing a process of editing the image of the virtual reality space provided to the user, and
A protection method characterized by including.
仮想現実空間における利用者の位置とオブジェクトの位置との間の相対的な位置関係、および、前記利用者と前記オブジェクトとの移動方向に基づいて、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合において、前記利用者の視野内における前記衝突に係る前記利用者と前記オブジェクトの相対的な位置及び移動方向と前記利用者の視点に応じて、前記利用者が受ける衝撃の度合いを推定する推定手順と、
前記推定手順により推定された前記衝撃の度合いが所定の閾値を超えた場合は、前記仮想現実空間において前記利用者と前記オブジェクトとが衝突した場合に前記利用者に与える衝撃の度合いを低減させるように、前記利用者に対して提供される前記仮想現実空間の映像を編集する処理を実行する実行手順と、
をコンピュータに実行させるための保護プログラム。
Based on the relative positional relationship between the position of the user and the position of the object in the virtual real space, and the moving direction of the user and the object, the user and the object in the virtual real space In the case of a collision, the degree of impact received by the user is determined according to the relative position and moving direction of the user and the object related to the collision and the viewpoint of the user in the field of view of the user. Estimating procedure to estimate and
When the degree of impact estimated by the estimation procedure exceeds a predetermined threshold value, the degree of impact given to the user when the user collides with the object in the virtual reality space is reduced. In addition, an execution procedure for executing a process of editing the image of the virtual reality space provided to the user, and
A protection program that lets your computer run.
JP2017051876A 2017-03-16 2017-03-16 Protective devices, protection methods and protection programs Active JP6955351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017051876A JP6955351B2 (en) 2017-03-16 2017-03-16 Protective devices, protection methods and protection programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017051876A JP6955351B2 (en) 2017-03-16 2017-03-16 Protective devices, protection methods and protection programs

Publications (2)

Publication Number Publication Date
JP2018154204A JP2018154204A (en) 2018-10-04
JP6955351B2 true JP6955351B2 (en) 2021-10-27

Family

ID=63715499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017051876A Active JP6955351B2 (en) 2017-03-16 2017-03-16 Protective devices, protection methods and protection programs

Country Status (1)

Country Link
JP (1) JP6955351B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0922314A (en) * 1995-07-05 1997-01-21 Sanyo Electric Co Ltd Stress-adaptive controller
JP4393169B2 (en) * 2003-12-04 2010-01-06 キヤノン株式会社 Mixed reality presentation method and apparatus
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP2016031439A (en) * 2014-07-28 2016-03-07 ソニー株式会社 Information processing apparatus and information processing method, computer program, and image display system

Also Published As

Publication number Publication date
JP2018154204A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
JP7531568B2 (en) Eye tracking with prediction and latest updates to the GPU for fast foveated rendering in HMD environments
US11474599B2 (en) Dynamic graphics rendering based on predicted saccade landing point
EP3451681B1 (en) Information processing device, control method of information processing device, and program
EP3072033B1 (en) Motion control of a virtual environment
EP3557375B1 (en) Information processing device, information processing method, and program
US10984571B2 (en) Preventing transition shocks during transitions between realities
US10366539B2 (en) Information processing apparatus, information processing method, and storage medium for reporting based on elapse time and positional relationships between 3-D objects
KR20170104846A (en) Method and apparatus for analyzing virtual reality content
KR20200073160A (en) Apparatus and method for virtual reality sickness reduction based on virtual reality sickness assessment
TWI738543B (en) Orientation predicting method, virtual reality headset and non-transitory computer-readable medium
JP6955351B2 (en) Protective devices, protection methods and protection programs
KR20170105905A (en) Method and apparatus for analyzing virtual reality content
JP7534699B2 (en) Image projection device, image projection method, and program
KR20240038728A (en) Information processing devices, information processing methods and computer programs
KR20180061956A (en) Method and apparatus for estimating eye location
WO2023149125A1 (en) Information processing device and information processing method
US20240005600A1 (en) Nformation processing apparatus, information processing method, and information processing program
WO2023149126A1 (en) Information processing device and information processing method
EP4224289A1 (en) Mediated reality
KR101856017B1 (en) Method for generating motion depth map using motion history image and medium for recording the same
CN118648293A (en) Information processing apparatus and information processing method
CN118696542A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211001

R150 Certificate of patent or registration of utility model

Ref document number: 6955351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350