JP2020170501A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2020170501A
JP2020170501A JP2019230436A JP2019230436A JP2020170501A JP 2020170501 A JP2020170501 A JP 2020170501A JP 2019230436 A JP2019230436 A JP 2019230436A JP 2019230436 A JP2019230436 A JP 2019230436A JP 2020170501 A JP2020170501 A JP 2020170501A
Authority
JP
Japan
Prior art keywords
correction
angle
user
virtual space
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019230436A
Other languages
Japanese (ja)
Other versions
JP2020170501A5 (en
JP7305185B2 (en
Inventor
秋山 泰
Yasushi Akiyama
泰 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ahead Biocomputing Co Ltd
Original Assignee
Ahead Biocomputing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019069568A external-priority patent/JP6664778B1/en
Application filed by Ahead Biocomputing Co Ltd filed Critical Ahead Biocomputing Co Ltd
Priority to JP2019230436A priority Critical patent/JP7305185B2/en
Publication of JP2020170501A publication Critical patent/JP2020170501A/en
Publication of JP2020170501A5 publication Critical patent/JP2020170501A5/ja
Priority to JP2023102053A priority patent/JP2023126252A/en
Application granted granted Critical
Publication of JP7305185B2 publication Critical patent/JP7305185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To reduce deviation of a display position of a portion of the body of a protagonist from a position of a portion of the body of a user corresponding thereto.SOLUTION: An information processing device has: first input means (an HMD motion detection unit 14) for inputting detection information from a sensor which detects motion of the head of a user; generation means (a VR space image generation unit 13) for generating a virtual space which includes a body image indicating at least a part of the body of the user in accordance with the detection information inputted by the first input means; second input means (an input unit 12) for inputting correction information from a device on which an operation for correcting the angle of the head of the user in a pitch direction is performed; correction means (a pitch angle correction amount setting unit 11 and the VR space image generation unit 13) for correcting, on the basis of the correction information inputted by the second input means, the angle in the pitch direction when the virtual space is presented on a display; and presentation means (the VR space image generation unit 13) for presenting, to the display, the virtual space for which the angle in the pitch direction has been corrected by the correction means.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法、および、プログラムに関するものである。 The present invention relates to an information processing device, an information processing method, and a program.

近年、ヘッドマウントディスプレイを用いて、仮想空間を提供する技術が急速に普及している。このような技術では、ユーザがその体験をあたかも現実のように感じられる、「没入感」を得られるか否かが、感動や満足感を提供する上できわめて重要な要素であることが指摘されている。 In recent years, technology for providing a virtual space using a head-mounted display has rapidly become widespread. It has been pointed out that with such technology, whether or not the user can get an "immersive feeling" that makes the experience feel as if it were a reality is an extremely important factor in providing emotion and satisfaction. ing.

特許文献1には、人体の対象部位に姿勢角検出装置を取付けて対象部位の姿勢角を計測する際に、姿勢角検出装置の対象部位に対する取付け角度を予め初期姿勢角として保存しておき、人体の姿勢角検出時に、姿勢角検出装置の角速度および角加速度と、初期姿勢角とを用いて演算処理することにより、姿勢角検出装置の対象部位に対する取付け角度誤差が補正され、対象部位に関する姿勢角の検出を高い精度で行う技術が開示されている。 In Patent Document 1, when a posture angle detecting device is attached to a target part of a human body and the posture angle of the target part is measured, the mounting angle of the posture angle detecting device with respect to the target part is stored in advance as an initial posture angle. When detecting the posture angle of the human body, the angle velocity and acceleration of the posture angle detection device and the initial posture angle are used for arithmetic processing to correct the mounting angle error of the posture angle detection device with respect to the target part, and the posture related to the target part. A technique for detecting an angle with high accuracy is disclosed.

このような技術によれば、ヘッドマウントディスプレイを頭部に装着している利用者の実際の動きと、ヘッドマウントディスプレイの出力姿勢角とが一致するので、ヘッドマウントディスプレイに表示される画像と利用者の感覚との間に違和感が生じず、利用者は自然な感覚でヘッドマウントディスプレイの画像を鑑賞することができる。 According to such a technology, the actual movement of the user wearing the head-mounted display on the head matches the output attitude angle of the head-mounted display, so that the image displayed on the head-mounted display can be used. There is no sense of discomfort with the user's feeling, and the user can view the image on the head-mounted display with a natural feeling.

特開2004−150900号公報Japanese Unexamined Patent Publication No. 2004-150900

ところで、手や足などの身体の一部が表示されることで、没入感を高められる場合があることが知られており、今後は、仮想空間の中に、より積極的に第一人称視点の主人公役の身体の一部を表示していく方向が想定される。 By the way, it is known that the display of parts of the body such as hands and feet may enhance the immersive feeling, and in the future, it will be more positively in the virtual space from the first person perspective. It is assumed that a part of the body of the main character will be displayed.

このように、第一人称視点の主人公役の身体の一部を表示する場合、画面内に表現されている主人公の体の一部の位置が、現実のユーザの体の対応する部分の位置と大きく異なると、没入感が著しく阻害されてしまう。 In this way, when displaying a part of the body of the main character from the first person perspective, the position of the part of the body of the main character expressed on the screen is large with the position of the corresponding part of the body of the actual user. If they are different, the immersive feeling will be significantly impaired.

しかしながら、特許文献1では、このような問題点を解決することができない。 However, Patent Document 1 cannot solve such a problem.

そこで、本発明は、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することが可能な情報処理装置、情報処理方法、および、プログラムを提供することを目的としている。 Therefore, the present invention provides an information processing device, an information processing method, and a program capable of suppressing the deviation between the display position of a part of the body of the main character and the position of a part of the body of the corresponding user. It is intended to be provided.

上記課題を解決するために、本発明は、ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理装置において、前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段と、前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段と、前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段と、前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段と、前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段と、を有することを特徴とする。
このような構成によれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することができる。
In order to solve the above problems, the present invention inputs detection information from a sensor that detects the movement of the user's head in an information processing device that presents a virtual space on a display mounted on the user's head. A first input means, a generation means for generating the virtual space including a body image showing at least a part of the user's body according to the detection information input by the first input means, and a generation means of the user's head. When presenting the virtual space on the display based on the second input means for inputting the correction information from the device in which the operation for correcting the angle in the pitch direction is performed and the correction information input by the second input means. It is characterized by having a correction means for correcting the angle in the pitch direction of the above, and a presentation means for presenting the virtual space in which the angle in the pitch direction is corrected by the correction means to the display.
According to such a configuration, it is possible to suppress the deviation between the display position of a part of the body of the main character and the position of a part of the body of the corresponding user.

また、本発明は、前記第2入力手段から入力された前記修正情報を記憶する記憶手段を有し、前記修正手段は、前記記憶手段に記憶された前記修正情報に基づいて前記仮想空間のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、記憶されている修正情報に基づいてピッチ方向の角度の修正を適宜継続して行うことができる。
Further, the present invention has a storage means for storing the correction information input from the second input means, and the correction means has a pitch of the virtual space based on the correction information stored in the storage means. It is characterized by correcting the angle of direction.
According to such a configuration, it is possible to continuously correct the angle in the pitch direction based on the stored correction information.

また、本発明は、前記修正手段は、ピッチ方向の修正角度を新たに指定する場合には、前記記憶手段に記憶されている前記修正情報の前回値を初期値として、前記仮想空間のピッチ方向の角度の修正値を指定することを特徴とする。
このような構成によれば、再修正を容易に行うことができる。
Further, in the present invention, when the correction means newly specifies the correction angle in the pitch direction, the pitch direction of the virtual space is set to the previous value of the correction information stored in the storage means as an initial value. It is characterized in that the correction value of the angle of is specified.
With such a configuration, re-correction can be easily performed.

また、本発明は、前記デバイスは、前記ユーザの前後方向または上下方向に対応する方向に関する操作が可能な操作部を有し、前記修正手段は、前記操作部の前記前後方向または上下方向に対応する方向に関する操作量を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、前後方向または上下方向の操作によって感覚的に分かりやすく調整を行うことができる。
Further, in the present invention, the device has an operation unit capable of operating in a direction corresponding to the front-back direction or the up-down direction of the user, and the correction means corresponds to the front-back direction or the up-down direction of the operation unit. It is characterized in that the angle in the pitch direction when presenting the virtual space on the display is corrected with reference to the operation amount related to the direction of operation.
According to such a configuration, adjustment can be performed intuitively and easily by operating in the front-rear direction or the up-down direction.

また、本発明は、前記デバイスは、前記仮想空間内の少なくとも1点を指定可能であり、前記修正手段は、前記デバイスによって指定された位置を参照し、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、ポインティングデバイスを用いて、ピッチ方向の角度を容易に調整することができる。
Further, in the present invention, the device can specify at least one point in the virtual space, and the correction means refers to a position designated by the device and presents the virtual space on the display. It is characterized in that the angle in the pitch direction of is corrected.
According to such a configuration, the angle in the pitch direction can be easily adjusted by using the pointing device.

また、本発明は、前記仮想空間における前記身体画像のピッチ方向の角度を取得する取得手段を有し、前記修正手段は、前記取得手段によって取得されたピッチ方向の角度を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、ピッチ方向の角度を自動的に設定することが可能になる。
Further, the present invention has an acquisition means for acquiring an angle in the pitch direction of the body image in the virtual space, and the correction means refers to the angle in the pitch direction acquired by the acquisition means to display the display. It is characterized in that the angle in the pitch direction when presenting the virtual space is corrected.
According to such a configuration, the angle in the pitch direction can be automatically set.

また、本発明は、前記修正手段は、前記第2入力手段から入力された前記修正情報に基づいて、ピッチ方向の角度の修正量を示すゲージを前記仮想空間の一部に表示することを特徴とする。
このような構成によれば、ゲージを参照することで修正量を正確に把握することができる。
Further, the present invention is characterized in that the correction means displays a gauge indicating a correction amount of an angle in the pitch direction in a part of the virtual space based on the correction information input from the second input means. And.
According to such a configuration, the correction amount can be accurately grasped by referring to the gauge.

また、本発明は、ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理方法において、前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力ステップと、前記第1入力ステップにおいて入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成ステップと、前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力ステップと、前記第2入力ステップにおいて入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正ステップと、前記修正ステップにおいてピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示ステップと、を有することを特徴とする。
このような方法によれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することができる。
Further, the present invention comprises a first input step of inputting detection information from a sensor that detects the movement of the user's head in an information processing method for presenting a virtual space on a display mounted on the user's head. According to the detection information input in the first input step, the generation step of generating the virtual space including the body image showing at least a part of the user's body and the pitch direction angle of the user's head are modified. Based on the second input step for inputting the correction information from the device on which the operation is performed and the correction information input in the second input step, the angle in the pitch direction when presenting the virtual space on the display is determined. It is characterized by having a correction step for correction and a presentation step for presenting the virtual space in which the angle in the pitch direction is corrected in the correction step to the display.
According to such a method, it is possible to suppress the deviation between the display position of a part of the body of the main character and the position of a part of the body of the corresponding user.

また、本発明は、ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理をコンピュータに機能させる前記コンピュータが読み取り可能なプログラムにおいて、前記コンピュータを、前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段、前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段、前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段、前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段、前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段、として機能させることを特徴とする。
このようなプログラムによれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することができる。
Further, the present invention detects the movement of the user's head in the computer-readable program that causes the computer to function information processing that presents a virtual space on a display mounted on the user's head. A first input means for inputting detection information from a computer, and a generation means for generating the virtual space including a body image showing at least a part of the user's body according to the detection information input by the first input means. A second input means for inputting correction information from a device on which an operation for correcting the pitch direction angle of the user's head is performed, and the display on the display based on the correction information input by the second input means. It is characterized in that it functions as a correction means for correcting an angle in the pitch direction when presenting a virtual space, and a presenting means for presenting the virtual space whose angle in the pitch direction is corrected by the correction means to the display.
According to such a program, it is possible to suppress the deviation between the display position of a part of the body of the main character and the position of a part of the body of the corresponding user.

本発明によれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制可能な情報処理装置、情報処理方法、および、プログラムを提供することができる。 According to the present invention, it is provided an information processing device, an information processing method, and a program capable of suppressing a deviation between a display position of a part of the body of the main character and a position of a part of the body of a corresponding user. Can be done.

本発明の実施形態に係る情報処理装置を含むシステムの構成例である。This is a configuration example of a system including an information processing device according to an embodiment of the present invention. 図1に示す情報処理装置の構成例を示す図である。It is a figure which shows the configuration example of the information processing apparatus shown in FIG. 図1に示すHMDの構成例を示す図である。It is a figure which shows the structural example of the HMD shown in FIG. 図3に示すHMDが有する3つの軸方向を示す図である。It is a figure which shows the three axial directions which the HMD shown in FIG. 3 has. 図1に示す操作デバイスの外観斜視図である。It is an external perspective view of the operation device shown in FIG. 図1に示す操作デバイスの電気的な構成例を示す図である。It is a figure which shows the electric configuration example of the operation device shown in FIG. 制作者等が意図するVR空間画像の位置関係を示す図である。It is a figure which shows the positional relationship of the VR space image intended by the creator and the like. 実際のVR空間画像の位置関係を示す図である。It is a figure which shows the positional relationship of the actual VR space image. ピッチ角修正後のVR空間画像の位置関係を示す図である。It is a figure which shows the positional relationship of the VR space image after pitch angle correction. 制作者等が意図するVR空間画像の位置関係を示す図である。It is a figure which shows the positional relationship of the VR space image intended by the creator and the like. 実際のVR空間画像の位置関係を示す図である。It is a figure which shows the positional relationship of the actual VR space image. ピッチ角修正後のVR空間画像の位置関係を示す図である。It is a figure which shows the positional relationship of the VR space image after pitch angle correction. 図2に示す実施形態において実行される処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process executed in embodiment shown in FIG. 図5に示す操作デバイスの他の構成例を示す図である。It is a figure which shows the other configuration example of the operation device shown in FIG. 図5に示す操作デバイスのさらに他の構成例を示す図である。It is a figure which shows the other structural example of the operation device shown in FIG. ポインティングデバイスを用いてピッチ角を調整する場合の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of adjusting a pitch angle using a pointing device. 図2に示す実施形態において実行される他の処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of other processing executed in embodiment shown in FIG. 図2に示す実施形態において実行されるさらに他の処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of still more processing executed in embodiment shown in FIG.

次に、本発明の実施形態について説明する。 Next, an embodiment of the present invention will be described.

(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係る情報処理装置を含む情報処理システムの構成例を示す図である。図1に示すように、本発明の実施形態に係る情報処理装置システムは、情報処理装置10、HMD(Head Mount Display)30、操作デバイス50、および、ネットワーク70を有している。
(A) Explanation of Configuration of Embodiment of the Present Invention FIG. 1 is a diagram showing a configuration example of an information processing system including an information processing apparatus according to the embodiment of the present invention. As shown in FIG. 1, the information processing device system according to the embodiment of the present invention includes an information processing device 10, an HMD (Head Mount Display) 30, an operating device 50, and a network 70.

ここで、情報処理装置10は、後述するように、パーソナルコンピュータ等によって構成され、例えば、ネットワーク70に接続されたサーバ(不図示)から供給されるプログラムまたはデータに基づいて、VR(Virtual Reality)空間画像を生成してHMD30に供給するとともに、HMD30を装着したユーザの頭部の動きに応じてVR空間画像を更新する。また、情報処理装置10は、操作デバイス50がユーザによって操作された場合には、操作量を取得し、操作量に応じた処理(後述する)を実行する。 Here, as will be described later, the information processing device 10 is configured by a personal computer or the like, and is VR (Virtual Reality) based on, for example, a program or data supplied from a server (not shown) connected to the network 70. A spatial image is generated and supplied to the HMD 30, and the VR spatial image is updated according to the movement of the head of the user wearing the HMD 30. Further, when the operation device 50 is operated by the user, the information processing device 10 acquires the operation amount and executes a process (described later) according to the operation amount.

HMD30は、ユーザが頭部に装着し、情報処理装置10から供給されるVR空間画像を内蔵されているディスプレイに表示するとともに、ユーザの頭部の動きを検出して情報処理装置10に供給する。 The HMD 30 is worn by the user on the head and displays the VR spatial image supplied from the information processing device 10 on the built-in display, and detects the movement of the user's head and supplies the VR space image to the information processing device 10. ..

操作デバイス50は、ユーザによって操作され、操作量に応じた情報を生成して出力する。 The operation device 50 is operated by the user to generate and output information according to the amount of operation.

ネットワーク70は、例えば、インターネット等によって構成され、図示しないサーバと情報処理装置10との間で情報をIPパケットとして伝送する。 The network 70 is configured by, for example, the Internet or the like, and transmits information as an IP packet between a server (not shown) and the information processing device 10.

図2は、情報処理装置10の電気的な構成例を示すブロック図である。図2に示すように、情報処理装置10は、ピッチ角修正量設定部11、入力部12、VR空間画像生成部13、HMD動き検出部14、アバター生成部15、および、通信部16を有している。 FIG. 2 is a block diagram showing an example of an electrical configuration of the information processing device 10. As shown in FIG. 2, the information processing device 10 includes a pitch angle correction amount setting unit 11, an input unit 12, a VR space image generation unit 13, an HMD motion detection unit 14, an avatar generation unit 15, and a communication unit 16. are doing.

ここで、ピッチ角修正量設定部11は、操作デバイス50から入力される情報に基づいてVR空間画像のピッチ角を修正する量を設定する。 Here, the pitch angle correction amount setting unit 11 sets the amount of correction of the pitch angle of the VR spatial image based on the information input from the operation device 50.

入力部12は、操作デバイス50が操作された場合に、操作量を示す情報を操作デバイス50から入力する。 When the operation device 50 is operated, the input unit 12 inputs information indicating the operation amount from the operation device 50.

VR空間画像生成部13は、ユーザの周囲に構築するVR空間画像を生成して、HMD30に供給する。 The VR space image generation unit 13 generates a VR space image to be constructed around the user and supplies it to the HMD 30.

HMD動き検出部14は、HMD30が有する加速度センサ(後述する)から出力される、HMD30の動きに関する情報を入力し、HMD30の動きを検出することで、ユーザの頭部の動きを検出する。 The HMD motion detection unit 14 inputs information about the motion of the HMD 30 output from an acceleration sensor (described later) included in the HMD 30, and detects the motion of the HMD 30 to detect the motion of the user's head.

アバター生成部15は、第一人称視点の主人公役である化身としてのアバターの身体の少なくとも一部の画像を生成する。 The avatar generation unit 15 generates an image of at least a part of the body of the avatar as an incarnation, which is the main character of the first person viewpoint.

通信部16は、ネットワーク70を介して、図示しないサーバにアクセスし、サーバに格納されている情報を取得したり、サーバに対して情報を送信したりする。 The communication unit 16 accesses a server (not shown) via the network 70, acquires information stored in the server, and transmits information to the server.

図3は、HMD30の電気的な構成例を示すブロック図である。図3に示すように、HMD30は、プロセッサ31、メモリ32、1組のディスプレイ33、複数の加速度センサ34、複数のLED(Light Emitting Diode)35、通信部36、スピーカ37、および、マイクロフォン(以下、単に「マイク」と称する)38を有している。 FIG. 3 is a block diagram showing an example of electrical configuration of the HMD 30. As shown in FIG. 3, the HMD 30 includes a processor 31, a memory 32, a set of displays 33, a plurality of acceleration sensors 34, a plurality of LEDs (Light Emitting Diodes) 35, a communication unit 36, a speaker 37, and a microphone (hereinafter referred to as a microphone). , Simply referred to as a "microphone") 38.

なお、HMD30は、ユーザの頭部に装着して使用される。HMD30は、情報処理装置10から供給されるVR空間画像を、ユーザの左右の目に対して表示するための左右1組のディスプレイ33を有するとともに、ディスプレイ33とユーザの目の間に位置して視野角を拡大するための左右一対の光学レンズ、ユーザの頭部の動きを検出するための加速度センサ34を有している。 The HMD 30 is used by being worn on the user's head. The HMD 30 has a pair of left and right displays 33 for displaying the VR space image supplied from the information processing device 10 to the left and right eyes of the user, and is located between the display 33 and the eyes of the user. It has a pair of left and right optical lenses for expanding the viewing angle, and an acceleration sensor 34 for detecting the movement of the user's head.

ここで、プロセッサ31は、メモリ32に格納されているプログラムおよびデータに基づいて、装置の各部を制御する。 Here, the processor 31 controls each part of the device based on the program and the data stored in the memory 32.

メモリ32は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)等によって構成され、プロセッサ31が実行するプログラムやデータを格納する。 The memory 32 is composed of, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), or the like, and stores programs and data executed by the processor 31.

ディスプレイ33は、情報処理装置10から供給されるVR空間画像をユーザの左右の目に対して提示する。 The display 33 presents the VR spatial image supplied from the information processing device 10 to the left and right eyes of the user.

加速度センサ34は、例えば、ジャイロセンサによって構成される。加速度センサ34は、図4に示すように、ユーザの頭部の動きを、首を左右にかしげる方向であるロール方向の角度としてのロール角θr、左右に顔を振る方向であるヨー方向の角度としてのヨー角θy、および、顎の上げ下げ方向であるピッチ方向の角度としてのピッチ角θpのそれぞれの加速度として検出して出力する。 The acceleration sensor 34 is composed of, for example, a gyro sensor. As shown in FIG. 4, the acceleration sensor 34 has a roll angle θr as an angle in the roll direction, which is a direction in which the user's head is bent left and right, and an angle in the yaw direction, which is a direction in which the user swings his face left and right. It is detected and output as the respective accelerations of the yaw angle θy as and the pitch angle θp as the angle in the pitch direction which is the raising and lowering direction of the jaw.

図3に戻る。LED35は、例えば、発光マーカを構成し、情報処理装置10に対して、HMD30の位置を検出可能に配置されて構成されている。 Return to FIG. The LED 35 constitutes, for example, a light emitting marker, and is configured to be arranged so that the position of the HMD 30 can be detected with respect to the information processing device 10.

通信部36は、無線または有線によって情報処理装置10と接続され、VR空間画像を情報処理装置10から受信するとともに、加速度センサ34によって検出されたHMD30の3軸方向の加速度を示す情報を情報処理装置10に送信する。 The communication unit 36 is wirelessly or wiredly connected to the information processing device 10, receives a VR space image from the information processing device 10, and processes information indicating acceleration in the three axes of the HMD 30 detected by the acceleration sensor 34. It is transmitted to the device 10.

スピーカ37は、情報処理装置10から通信部36を介して供給される音声情報を音声に変換して放音する。なお、スピーカ37の代わりに、ヘッドフォンを使用するようにしてもよい。 The speaker 37 converts the voice information supplied from the information processing device 10 via the communication unit 36 into voice and emits the sound. Headphones may be used instead of the speaker 37.

マイク38は、ユーザの発した音声を電気信号に変換して出力する。 The microphone 38 converts the voice emitted by the user into an electric signal and outputs it.

図5は、操作デバイス50の構成例を示す外観斜視図である。図5に示すように、操作デバイス50は、例えば、樹脂によって構成される本体部501を有し、この本体部501をユーザが把持して使用する。また、本体部501の端部には、操作部503が配置される平面部502が形成されている。ユーザが操作部503を回転することで、後述するようにVR空間画像を提示する際のピッチ角を調整することができる。 FIG. 5 is an external perspective view showing a configuration example of the operation device 50. As shown in FIG. 5, the operation device 50 has, for example, a main body portion 501 made of resin, and the user grips and uses the main body portion 501. Further, a flat surface portion 502 on which the operation portion 503 is arranged is formed at the end portion of the main body portion 501. By rotating the operation unit 503, the user can adjust the pitch angle when presenting the VR space image as described later.

図6は、操作デバイス50の電気的な構成例を示す図である。図6に示すように、操作デバイス50は、プロセッサ51、メモリ52、操作量検出部53、センサ群54、通信部55、および、振動部56を有している。 FIG. 6 is a diagram showing an example of an electrical configuration of the operation device 50. As shown in FIG. 6, the operation device 50 includes a processor 51, a memory 52, an operation amount detection unit 53, a sensor group 54, a communication unit 55, and a vibration unit 56.

ここで、プロセッサ51は、メモリ52に格納されたプログラムおよびデータに基づいて、装置の各部を制御する。 Here, the processor 51 controls each part of the device based on the program and the data stored in the memory 52.

メモリ52は、RAMおよびROM等によって構成され、プロセッサ51が実行するプログラムおよびデータを格納している。 The memory 52 is composed of RAM, ROM, and the like, and stores programs and data executed by the processor 51.

操作量検出部53は、例えば、図5に示す操作部503の操作量を検出して出力する。より詳細には、図5の例では、操作部503はダイアル型の構造を有し、操作量検出部53は、ダイアル型の操作部503の回転角度を検出するロータリーエンコーダによって構成され、ユーザの操作量を示す情報を生成して出力する。 The operation amount detection unit 53 detects and outputs, for example, the operation amount of the operation unit 503 shown in FIG. More specifically, in the example of FIG. 5, the operation unit 503 has a dial-type structure, and the operation amount detection unit 53 is configured by a rotary encoder that detects the rotation angle of the dial-type operation unit 503. Generates and outputs information indicating the amount of operation.

センサ群54は、例えば、傾きセンサ等によって構成され、操作デバイス50の角度を検出して出力する。 The sensor group 54 is composed of, for example, a tilt sensor or the like, and detects and outputs the angle of the operating device 50.

通信部55は、無線または有線によって情報処理装置10と接続され、例えば、振動部56を制御するための情報を情報処理装置10から受信するとともに、操作量検出部53およびセンサ群54によって検出された情報を情報処理装置10に送信する。 The communication unit 55 is wirelessly or wiredly connected to the information processing device 10, for example, receives information for controlling the vibration unit 56 from the information processing device 10, and is detected by the operation amount detection unit 53 and the sensor group 54. The information is transmitted to the information processing device 10.

振動部56は、例えば、バイブレーションモータによって構成され、プロセッサ51の制御により、振動を発生して操作デバイス50の本体部501を振動させる。 The vibrating unit 56 is composed of, for example, a vibration motor, and is controlled by the processor 51 to generate vibration to vibrate the main body 501 of the operating device 50.

(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。以下では、本発明の実施形態の動作の概要について説明した後、フローチャートを参照して動作の詳細について説明する。
(B) Description of Operation of Embodiment of the Present Invention Next, the operation of the embodiment of the present invention will be described. In the following, after explaining the outline of the operation of the embodiment of the present invention, the details of the operation will be described with reference to the flowchart.

図7〜図12は、本発明の動作の概要を説明するための図である。図7は、VR空間画像として、海の中の環境を提示する場合であって、VR空間画像の制作者または撮影者(以下、「制作者等」と称する)が想定している状況を示す図である。図7の例では、VR空間画像として海の中の環境(詳細は図面の簡略化のために省略する)がユーザ90に提示される。また、図7の例では、ユーザ90のアバター(化身)の身体の一部としてのフィン100が、ユーザ90の足と一致する位置に提示される。また、図7の例では、フィン100に対して鮫110が攻撃している。すなわち、制作者等は、ユーザ90が、例えば、座位にて鑑賞することを想定するとともに、仮想カメラの正面方向よりも約45度下方にユーザ90の足が存在することを想定して、VR空間画像を制作または撮影(以下、「制作等」と称する)している。 7 to 12 are diagrams for explaining the outline of the operation of the present invention. FIG. 7 shows a situation in which the environment in the sea is presented as a VR space image, and is assumed by the creator or photographer of the VR space image (hereinafter, referred to as “creator or the like”). It is a figure. In the example of FIG. 7, the environment in the sea (details are omitted for simplification of the drawing) is presented to the user 90 as a VR space image. Further, in the example of FIG. 7, the fin 100 as a part of the body of the avatar (incarnation) of the user 90 is presented at a position corresponding to the foot of the user 90. Further, in the example of FIG. 7, the shark 110 is attacking the fin 100. That is, the creator or the like assumes that the user 90 will view the image in a sitting position, for example, and that the user 90's feet are located about 45 degrees below the front direction of the virtual camera. Produces or photographs spatial images (hereinafter referred to as "production, etc.").

図8は、ユーザ90の実際の鑑賞時の状況を示している。図8の例では、ユーザ90は、座位ではなく、例えば、ソファ92等に横になる仰臥位にてVR空間画像を鑑賞している。このような場合、VR空間画像を提示する従来の情報処理装置では、ユーザ90がどのような姿勢かは考慮しないことから、図8に示すように、ユーザ90の足から離れた位置にフィン100が表示されてしまう。その場合、ユーザ90はフィン100を自分の身体の一部と認識することは困難であることから、このようなフィン100に対して鮫110が攻撃をしたとしても、自身に対する攻撃と感じることは困難である。 FIG. 8 shows the actual viewing situation of the user 90. In the example of FIG. 8, the user 90 is viewing the VR space image not in the sitting position but in the supine position lying on the sofa 92 or the like, for example. In such a case, the conventional information processing device that presents the VR space image does not consider the posture of the user 90. Therefore, as shown in FIG. 8, the fin 100 is located at a position away from the foot of the user 90. Is displayed. In that case, since it is difficult for the user 90 to recognize the fin 100 as a part of his / her body, even if the shark 110 attacks such a fin 100, he / she does not feel that it is an attack against himself / herself. Have difficulty.

VR空間内で敵、怪物、友人等の他者が、一人称視点の主人公役の身体に接近または接触などの干渉を加えようとした場合に、VR空間画像に提示されている主人公の体の一部の位置が、現実のユーザ90の位置と異なる場合には、没入感が著しく阻害されてしまうことが、従来は問題であった。 One of the hero's bodies shown in the VR space image when another person such as an enemy, monster, or friend tries to approach or touch the body of the hero from the first-person perspective in the VR space. Conventionally, there has been a problem that the immersive feeling is significantly impaired when the position of the portion is different from the position of the actual user 90.

そこで、本発明の実施形態では、VR空間画像の再生開始時またはVR空間画像の再生中に、ユーザ90が操作デバイス50の操作部503を操作することで、図9に示すように、ピッチ角θpを修正し、制作者等が想定している位置に、ユーザ90のアバターの身体の一部や、身体の一部に干渉を加えようとする他者等の画像が提示されるように調整を行うことを特徴とする。 Therefore, in the embodiment of the present invention, the user 90 operates the operation unit 503 of the operation device 50 at the start of reproduction of the VR space image or during the reproduction of the VR space image, so that the pitch angle is as shown in FIG. Correct θp and adjust so that the image of a part of the body of the user 90's avatar or another person who is trying to interfere with the part of the body is presented at the position assumed by the creator etc. It is characterized by performing.

図10〜図12は別のコンテンツの場合を示している。図10は、制作者等が意図したVR空間画像とユーザ90との関係を示している。すなわち、図10の例では、ユーザ90は立位であり、ユーザ90の足下に犬120が存在する状態を示している。 10 to 12 show the case of different contents. FIG. 10 shows the relationship between the VR spatial image intended by the creator and the like and the user 90. That is, in the example of FIG. 10, the user 90 is in a standing position, and the dog 120 is present under the feet of the user 90.

図11は、実際の鑑賞時の状態を示している。図11の例では、ユーザ90は、上半身が鉛直方向よりも傾いた状態の座位である。このような場合、犬120は、ユーザ90の足下ではなく、空中に浮かんだ状態で表示される。VR空間画像中に、これと対応する位置にユーザ90のアバターの一部である手が表示されて、そのアバターの手によって犬120を撫でる場合、この手を自身の手と認識することは困難である。 FIG. 11 shows a state at the time of actual viewing. In the example of FIG. 11, the user 90 is in a sitting position in which the upper body is tilted from the vertical direction. In such a case, the dog 120 is displayed floating in the air, not at the feet of the user 90. If a hand that is part of the user 90's avatar is displayed in the VR space image at the corresponding position and the dog 120 is stroked by the avatar's hand, it is difficult to recognize this hand as its own hand. Is.

図12は、本実施形態によって、表示位置を調整した場合の表示例を示している。本実施形態では、VR空間画像の再生開始時またはVR空間画像の再生中に、ユーザ90が操作デバイス50の操作部503を操作することで、図12に示すように、ピッチ角θpを調整し、制作者等が想定している位置にVR空間画像が提示されるように修正を行うことができるので、犬120をユーザ90の足下に表示させることができる。この場合、ユーザ90のアバターの一部である手が表示され、アバターの手によって犬120を撫でる場合、この手を自身の手と認識することができる。 FIG. 12 shows a display example when the display position is adjusted according to the present embodiment. In the present embodiment, the pitch angle θp is adjusted as shown in FIG. 12 by the user 90 operating the operation unit 503 of the operation device 50 at the start of reproduction of the VR space image or during the reproduction of the VR space image. Since the VR space image can be modified so as to be presented at the position assumed by the creator or the like, the dog 120 can be displayed at the feet of the user 90. In this case, a hand that is a part of the user 90's avatar is displayed, and when the dog 120 is stroked by the avatar's hand, this hand can be recognized as its own hand.

このように、調整を行って、アバターの体の一部と、ユーザ90の体の一部とを一致させることで、アバターに対する身体所有感覚を高め、これにより没入感を高めることができる。 By making adjustments in this way to match a part of the body of the avatar with a part of the body of the user 90, it is possible to enhance the sense of possession of the avatar and thereby enhance the immersive feeling.

なお、身体所有感については、以下のような論文が知られている。 The following papers are known regarding the feeling of physical ownership.

例えば、論文1(Botvinick M., and Cohen J.: "Rubber hands ‘feel’ touch that eyes see", Nature, 391(6669):756, (1998))では、被検者に提示する視野の中にゴム製の義手を置き、視野から隠された場所にある被験者の実際の手を触るのと同じタイミングで、ゴム製の義手にも触れるという事前の訓練を行うと、脳の錯覚によりゴム製の義手が触られている視覚情報だけでも自分が接触されたような感覚(RHI:Rubber Hand Illusion)を生じることが記載されている。なお、これと類似した一連の現象は、身体感覚の転移、または、身体所有感などと呼ばれ、近年きわめて熱心に研究されるようになっている。 For example, in Article 1 (Botvinick M., and Cohen J .: "Rubber hands'feel' touch that eyes see", Nature, 391 (6669): 756, (1998)), in the field of view presented to the subject. If you put a rubber prosthesis on the surface and perform prior training to touch the rubber prosthesis at the same timing as touching the actual hand of the subject in a place hidden from the visual field, it will be made of rubber due to the illusion of the brain. It is described that the visual information that the artificial limb is touched causes a feeling of being touched (RHI: Rubber Hand Illusion). A series of phenomena similar to this is called bodily sensation transfer or physical possession, and has been studied extremely enthusiastically in recent years.

また、論文2(Slater M., Spanlang B., Sanchez-Vives M.V., and Blanke O.: “First Person Experience of Body Transfer in Virtual Reality," PLoS ONE, 5(5):e10564, (2010))では第一人称視点だけでなく第三人称視点でも身体所有感が得られることが記載されている。 Also, in Paper 2 (Slater M., Spanlang B., Sanchez-Vives MV, and Blanke O .: “First Person Experience of Body Transfer in Virtual Reality,” PLoS ONE, 5 (5): e10564, (2010)) It is stated that a sense of physical possession can be obtained not only from the first-person perspective but also from the third-person perspective.

また、論文3(Peck T.C., Seinfeld S., Aglioti S.M., and Slater M.: "Putting yourself in the skin of a black avatar reduces implicit racial bias", Consciousness and cognition, 22(3):779-787, (2013))では表示されるアバターの肌の色の違いなどに関わらず身体所有感が得られることが記載されている。 In addition, Paper 3 (Peck TC, Seinfeld S., Aglioti SM, and Slater M .: "Putting yourself in the skin of a black avatar reduces implicit racial bias", Consciousness and cognition, 22 (3): 779-787, ( In 2013)), it is stated that a feeling of physical possession can be obtained regardless of the difference in the skin color of the displayed avatar.

また、論文4(Kondo R., Sugimoto M., Minamizawa K., Hoshi T., Inami M., and Kitazaki M.: "Illusory body ownership of an invisible body interpolated between virtual hands and feet via visual-motor synchronicity", Scientific reports, 8:7541, (2018))では手と足先だけが被検者の動きと同期して表示され、その間をつなぐべき人体があたかも透明人間のように何も表示されない場合ですら、その透明な部分に身体所有感が得られるという事実が示されている。 In addition, Paper 4 (Kondo R., Sugimoto M., Minamizawa K., Hoshi T., Inami M., and Kitazaki M .: "Illusory body ownership of an invisible body interpolated between virtual hands and feet via visual-motor synchronicity" , Scientific reports, 8: 7541 ((2018)), only the hands and feet are displayed in synchronization with the movement of the subject, even when the human body that should be connected between them is displayed as if it were a transparent human. , The fact that the transparent part gives a feeling of physical possession is shown.

一方、論文5(Pavani F.: "Visual capture of touch : Out-of-the-body experiences with rubber gloves", Psychological Science, 11(5):353-359, (2000))では、置かれた義手の角度と、現実の手が見えるべき角度の差が少ないほうが、身体所有の感覚が強くなることが述べられている。すなわち、人間の認知上の自然の性質として、仮想空間内での主人公の身体の表示は、できる限り現実空間内でのユーザの身体が置かれている位置と近い方が身体感覚の転移が起きやすく、したがって没入感も得やすい傾向があることが示唆される。 On the other hand, in Paper 5 (Pavani F .: "Visual capture of touch: Out-of-the-body experiences with rubber gloves", Psychological Science, 11 (5): 353-359, (2000)), the prosthetic hand was placed. It is stated that the smaller the difference between the angle of and the angle at which the actual hand should be seen, the stronger the sense of physical possession. That is, as a natural property of human cognition, the display of the main character's body in the virtual space causes a transfer of bodily sensation as close as possible to the position where the user's body is placed in the real space. It is suggested that it is easy and therefore tends to be immersive.

すなわち、本実施形態は、人間の脳の認知機構が自然に有しているこれらの科学的性質に立脚した上で、仮想現実に関わる多くのコンテンツが共有している諸性質にも注目することにより、例えば、図8に示す状況に対して、技術的な解決手段を提供しようとするものである。 That is, the present embodiment pays attention to various properties shared by many contents related to virtual reality, based on these scientific properties naturally possessed by the cognitive mechanism of the human brain. Therefore, for example, it is intended to provide a technical solution to the situation shown in FIG.

また、本実施形態では、ユーザ90の頭部の動きから検出し、視線の調整に用いられている3つの角度(θr,θy,θp)のうち、ピッチ角θpに特に注目するという点が特徴である。すなわち、第一人称視点の主人公役としてのアバターの姿勢は、物語の進行に応じて様々に変化する可能性があるが、人間の眼が自分の体を視野内に捉えているとき、首をかしげていること(ロール軸方向の動き)や、左右に振り返ること(ヨー軸方向の動き)は相対的に稀な事象である。主人公は首をかしげておらず、興味をもつべき対象に対して左右にずれずにほぼ正面を向いていることを仮定しても、多くの場合には問題が生じない。 Further, the present embodiment is characterized in that the pitch angle θp is particularly paid attention to among the three angles (θr, θy, θp) detected from the movement of the head of the user 90 and used for adjusting the line of sight. Is. In other words, the posture of Avatar as the main character from the first-person perspective may change in various ways as the story progresses, but when the human eye sees his body in sight, he bends his head. Being (movement in the roll axis direction) and looking back to the left and right (movement in the yaw axis direction) are relatively rare events. Assuming that the protagonist is not angry and is facing almost the front of the object of interest without shifting to the left or right, in many cases there is no problem.

視野内に映る自分の身体は、多くの場合は視野の正面中心付近にあり、自分の肩幅の中で存在していることを多くの場合には期待できる。このとき、顎の上げ下げ(ピッチ軸方向の動き)によって、その見え方は大きく変わる。人間の諸動作、例えば、立つ、座る、屈む、横たわるなどの動作に応じて、自らの身体の視野内での形は変わるが、それらの変化は主にピッチ角の調整により近似的に合わせることができる。 Your body in the field of view is often near the front center of the field of view, and you can often expect it to be within your shoulder width. At this time, the appearance changes greatly depending on the raising and lowering of the jaw (movement in the pitch axis direction). The shape of the body in the field of view changes according to human movements such as standing, sitting, bending, and lying down, but these changes are mainly adjusted by adjusting the pitch angle. Can be done.

そこで、本発明では、ユーザの頭部の動きを感知するセンサからのロール角θr、ヨー角θy、ピッチ角θpに基づく視線移動を検出するHMD動き検出部14に加えて、特に視線の上下方向の変化を司るピッチ角に関して、ユーザ90の意図に基づく強制移動(ピッチアップ、ピッチダウン)を可能とするためのピッチ角修正量設定部11を設けることで、第一人称視点の主人公のとしてのアバターの身体表現とユーザの現実の姿勢の齟齬を減少することができる。 Therefore, in the present invention, in addition to the HMD motion detection unit 14 that detects the movement of the line of sight based on the roll angle θr, the yaw angle θy, and the pitch angle θp from the sensor that detects the movement of the user's head, in particular, the vertical direction of the line of sight. By providing the pitch angle correction amount setting unit 11 for enabling forced movement (pitch up, pitch down) based on the intention of the user 90 with respect to the pitch angle that controls the change of the avatar as the main character of the first person viewpoint. It is possible to reduce the discrepancy between the physical expression of the user and the actual posture of the user.

人間の脳は大きな調整能力を持つために、四肢の位置の大まかな重ね合わせを調整するだけでも、没入感を保てるだけの大きな心理的効果を得られることが期待される。このため本実施形態は、第一人称視点の主人公役であるアバターの身体と、現実のユーザ90の身体の姿勢の大まかな位置合わせを、操作デバイス50によって実施し、ユーザ90がその自らの意図に応じて操作デバイス50を操作することで、より没入感が高い仮想空間を提供することができる。 Since the human brain has a great ability to adjust, it is expected that a great psychological effect that can maintain an immersive feeling can be obtained simply by adjusting the rough overlap of the positions of the limbs. Therefore, in the present embodiment, the body of the avatar, which is the main character of the first-person viewpoint, and the actual posture of the body of the user 90 are roughly aligned by the operation device 50, and the user 90 makes his / her own intention. By operating the operation device 50 accordingly, it is possible to provide a virtual space with a higher immersive feeling.

図13は、本発明の実施形態において実行される処理の一例を説明するためのフローチャートである。以下では、図13に示すフローチャートを参照して、本発明の詳細な動作について説明する。図13に示すフローチャートの処理が開始されると、以下のステップが実行される。 FIG. 13 is a flowchart for explaining an example of the process executed in the embodiment of the present invention. Hereinafter, the detailed operation of the present invention will be described with reference to the flowchart shown in FIG. When the processing of the flowchart shown in FIG. 13 is started, the following steps are executed.

ステップS10では、情報処理装置10のHMD動き検出部14は、HMD30の加速度センサ34の出力を参照して、HMD30の初期位置を検出する。すなわち、HMD30の3軸方向の初期位置として、例えば、初期ロール角θr0、初期ヨー角θy0、および、初期ピッチ角θp0を検出する。例えば、θr0=0、θy0=0、および、θp0=0である場合には、描画の基準となるロール角θr、ヨー角θy、および、ピッチ角θpは、それぞれ、θr=0、θy=0、および、θp=0に設定される。なお、加速度センサ34の出力ではなく、HMD30に設けられたLED35を点灯させ、これらをマーカとして、画像認識によって初期位置を検出するようにしてもよい。 In step S10, the HMD motion detection unit 14 of the information processing device 10 detects the initial position of the HMD 30 with reference to the output of the acceleration sensor 34 of the HMD 30. That is, for example, the initial roll angle θr0, the initial yaw angle θy0, and the initial pitch angle θp0 are detected as the initial positions of the HMD 30 in the triaxial direction. For example, when θr0 = 0, θy0 = 0, and θp0 = 0, the roll angle θr, yaw angle θy, and pitch angle θp, which are the reference for drawing, are θr = 0 and θy = 0, respectively. , And θp = 0. Instead of the output of the acceleration sensor 34, the LED 35 provided in the HMD 30 may be turned on, and these may be used as markers to detect the initial position by image recognition.

ステップS11では、ピッチ角修正量設定部11は、ピッチ角修正量θpcの初期値として“0”を代入する。 In step S11, the pitch angle correction amount setting unit 11 substitutes “0” as the initial value of the pitch angle correction amount θpc.

ステップS12では、アバター生成部15は、ステップS10で検出した初期位置としてのロール角θr、ヨー角θy、および、ピッチ角θpに基づいて、ユーザ90のアバター画像を生成する処理を実行する。例えば、図7の例では、アバター生成部15は、ユーザ90のアバターの体の一部に装着されるフィン100の画像を生成する。 In step S12, the avatar generation unit 15 executes a process of generating an avatar image of the user 90 based on the roll angle θr, the yaw angle θy, and the pitch angle θp as the initial positions detected in step S10. For example, in the example of FIG. 7, the avatar generation unit 15 generates an image of the fin 100 attached to a part of the body of the avatar of the user 90.

ステップS13では、VR空間画像生成部13は、ステップS10で検出した初期位置としてのロール角θr、ヨー角θy、および、ピッチ角θpに基づいて、VR空間画像を生成する処理を実行する。例えば、図7の例では、海中の環境を示す画像を生成するとともに、ステップS12で生成したアバター画像を重畳して、VR空間画を生成する。 In step S13, the VR spatial image generation unit 13 executes a process of generating a VR spatial image based on the roll angle θr, the yaw angle θy, and the pitch angle θp as the initial positions detected in step S10. For example, in the example of FIG. 7, an image showing the environment under the sea is generated, and the avatar image generated in step S12 is superimposed to generate a VR space image.

ステップS14では、VR空間画像生成部13は、ステップS13で生成したVR空間画像をHMD30に対して出力する。この結果、HMD30では、例えば、通信部36がVR空間画像を受信し、プロセッサ31に供給する。プロセッサ31は、通信部36から供給されるVR空間画像をディスプレイ33に表示する。 In step S14, the VR space image generation unit 13 outputs the VR space image generated in step S13 to the HMD 30. As a result, in the HMD 30, for example, the communication unit 36 receives the VR space image and supplies it to the processor 31. The processor 31 displays the VR spatial image supplied from the communication unit 36 on the display 33.

ステップS15では、HMD動き検出部14は、HMD30の加速度センサ34から供給される情報を参照して、HMD30の位置を検出する。より詳細には、HMD動き検出部14は、図5に示すロール軸方向、ヨー軸方向、および、ピッチ軸方向の動きを検出する。 In step S15, the HMD motion detection unit 14 detects the position of the HMD 30 with reference to the information supplied from the acceleration sensor 34 of the HMD 30. More specifically, the HMD motion detection unit 14 detects motion in the roll axis direction, the yaw axis direction, and the pitch axis direction shown in FIG.

ステップS16では、ピッチ角修正量設定部11は、入力部12から入力される情報を参照し、操作デバイス50の操作部503に対して、ピッチアップまたはピッチダウンの操作がされたか否かを判定し、操作がされたと判定した場合(ステップS16:Y)にはステップS17に進み、それ以外の場合(ステップS16:N)にはステップS18に進む。例えば、操作部503がユーザの親指等によって回転された場合にはYと判定してステップS17に進む。 In step S16, the pitch angle correction amount setting unit 11 refers to the information input from the input unit 12 and determines whether or not the operation unit 503 of the operation device 50 has been operated for pitch up or pitch down. If it is determined that the operation has been performed (step S16: Y), the process proceeds to step S17, and in other cases (step S16: N), the process proceeds to step S18. For example, when the operation unit 503 is rotated by the user's thumb or the like, it is determined as Y and the process proceeds to step S17.

ステップS17では、ピッチ角修正量設定部11は、ステップS16で検出した操作デバイス50の操作部503に対する操作量に応じてピッチ角修正量θpcを更新する処理を実行する。例えば、図9の例では、一例として、操作部503の操作量に応じた“−35度”が入力されるので、ピッチ角修正量θpc=−35に設定される。操作部503の操作量からピッチ角修正量θpcへの変換については、例えば、システムのオプション画面等でその感度を調整できることが望ましい。 In step S17, the pitch angle correction amount setting unit 11 executes a process of updating the pitch angle correction amount θpc according to the operation amount of the operation device 50 detected in step S16 with respect to the operation unit 503. For example, in the example of FIG. 9, as an example, “−35 degrees” corresponding to the operation amount of the operation unit 503 is input, so the pitch angle correction amount θpc = −35 is set. Regarding the conversion from the operation amount of the operation unit 503 to the pitch angle correction amount θpc, it is desirable that the sensitivity can be adjusted, for example, on the option screen of the system.

ステップS18では、VR空間画像生成部13は、ステップS17において更新されたピッチ角修正量に応じてピッチ角を修正する処理を実行する。例えば、前述した図9の例では、ピッチ角修正量θpc=−35であるので、VR空間画像生成部13は、ピッチ角θpを−35度修正する処理(θp←θp+θpcとする処理)を実行する。 In step S18, the VR spatial image generation unit 13 executes a process of correcting the pitch angle according to the pitch angle correction amount updated in step S17. For example, in the example of FIG. 9 described above, since the pitch angle correction amount θpc = −35, the VR spatial image generation unit 13 executes a process of correcting the pitch angle θp by −35 degrees (a process of setting θp ← θp + θpc). To do.

ステップS19では、アバター生成部15は、ステップS18で修正されたピッチ角に基づいて、ユーザ90のアバター画像を生成する処理を実行する。例えば、前述した図9の例では、アバター生成部15は、ステップS18で修正されたピッチ角θpに基づいて、ユーザ90のアバターの体の一部に装着されるフィン100の画像を生成する。 In step S19, the avatar generation unit 15 executes a process of generating an avatar image of the user 90 based on the pitch angle modified in step S18. For example, in the example of FIG. 9 described above, the avatar generation unit 15 generates an image of the fins 100 attached to a part of the body of the avatar of the user 90 based on the pitch angle θp modified in step S18.

ステップS20では、VR空間画像生成部13は、VR空間画像を生成する処理を実行する。例えば、前述した図9の例では、ステップS18で修正されたピッチ角θpに基づいて、海中の環境を示す画像を生成するとともに、鮫110の画像を生成する。そして、これらの画像に対して、ステップS12で生成したアバター画像を重畳して、VR空間画を生成する。 In step S20, the VR space image generation unit 13 executes a process of generating a VR space image. For example, in the example of FIG. 9 described above, an image showing the underwater environment is generated and an image of the shark 110 is generated based on the pitch angle θp corrected in step S18. Then, the avatar image generated in step S12 is superimposed on these images to generate a VR space image.

ステップS21では、VR空間画像生成部13は、ステップS20で生成したVR空間画像をHMD30に対して出力する。この結果、HMD30では、例えば、通信部36がVR空間画像を受信し、プロセッサ31に供給する。プロセッサ31は、通信部36から供給されるVR空間画像をディスプレイ33に表示する。この結果、図9に示すように、アバター画像であるフィン100と、鮫110の位置が適切に調整されたVR空間画像がHMD30のディスプレイ33に表示される。前述したように、人間の脳はVR空間内の主人公役と自己との間で身体感覚の転移を起こし、身体所有感を持つことが知られている。その時、仮想空間上で提供される主人公の身体に関する視覚的表現が、自分の身体が本来あるべき位置と近ければ近いほどその感覚を得やすいという性質がある。このため、ピッチ角θpを修正することで、例えば、図9の例では、フィン100に対する身体所有感を強めることができる。これにより、鮫110の攻撃を自身に対する攻撃と強く認識することができるため、VR空間への没入感を高めることができる。 In step S21, the VR space image generation unit 13 outputs the VR space image generated in step S20 to the HMD 30. As a result, in the HMD 30, for example, the communication unit 36 receives the VR space image and supplies it to the processor 31. The processor 31 displays the VR spatial image supplied from the communication unit 36 on the display 33. As a result, as shown in FIG. 9, the fin 100, which is an avatar image, and the VR space image in which the positions of the shark 110 are appropriately adjusted are displayed on the display 33 of the HMD 30. As described above, it is known that the human brain causes a transfer of bodily sensation between the main character and the self in the VR space, and has a sense of physical possession. At that time, the visual expression about the hero's body provided in the virtual space has the property that the closer the body is to the position where it should be, the easier it is to get that feeling. Therefore, by modifying the pitch angle θp, for example, in the example of FIG. 9, the feeling of physical possession of the fin 100 can be strengthened. As a result, the attack of the shark 110 can be strongly recognized as an attack on itself, so that the feeling of immersion in the VR space can be enhanced.

ステップS22では、VR空間画像生成部13は、処理を終了するか否かを判定し、処理を終了すると判定した場合(ステップS22:Y)には処理を終了し、それ以外の場合(ステップS22:N)にはステップS15に戻って前述の場合と同様の処理を繰り返す。 In step S22, the VR spatial image generation unit 13 determines whether or not to end the processing, ends the processing when it is determined to end the processing (step S22: Y), and ends the processing in other cases (step S22). : N) returns to step S15 and repeats the same process as described above.

以上の処理によれば、例えば、図8に示すように、アバター画像の一部であるフィン100の位置と、ユーザ90の足の位置とが一致していない場合には、操作デバイス50の操作部503を操作することでピッチ角θpを修正し、図9に示すように、これらを一致させることで、VR空間への没入感を高めることができる。 According to the above processing, for example, as shown in FIG. 8, when the position of the fin 100 which is a part of the avatar image and the position of the foot of the user 90 do not match, the operation of the operation device 50 is performed. By manipulating the unit 503 to correct the pitch angle θp and matching them as shown in FIG. 9, the immersive feeling in the VR space can be enhanced.

(C)変形実施形態の説明
以上の実施形態は一例であって、本発明が上述したような場合のみに限定されるものでないことはいうまでもない。例えば、前述した実施形態では、図5に示すような操作デバイス50を用いる場合を例に挙げて説明したが、例えば、図14または図15に示す操作デバイス50A,50Bを用いるようにしてもよい。図14は、レバー型の操作部503Aを有する操作デバイス50Aの例である。すなわち、図14の例では、操作部503Aをユーザ90の親指等で操作することにより、ピッチ角を修正することができる。なお、操作部503Aを連続して操作した場合には、操作部503Aの操作量(傾き)に応じた所定の速度(例えば、最大限操作した場合には5度/秒)でピッチ角が変化するようにできる。
(C) Description of Modified Embodiment The above embodiment is an example, and it goes without saying that the present invention is not limited to the cases described above. For example, in the above-described embodiment, the case where the operation device 50 as shown in FIG. 5 is used has been described as an example, but for example, the operation devices 50A and 50B shown in FIG. 14 or 15 may be used. .. FIG. 14 is an example of an operation device 50A having a lever-type operation unit 503A. That is, in the example of FIG. 14, the pitch angle can be corrected by operating the operation unit 503A with the thumb or the like of the user 90. When the operation unit 503A is continuously operated, the pitch angle changes at a predetermined speed (for example, 5 degrees / sec when the maximum operation is performed) according to the operation amount (tilt) of the operation unit 503A. Can be done.

図15は、ボタン型の操作部503B,503Cを有する操作デバイス50Bの構成例である。すなわち、図15の構成例では、ピッチアップする場合には操作部503Bを操作し、ピッチダウンする場合には操作部503Cを操作することで所望の角度に調整することができる。なお、操作部503B,503Cを連続して操作した場合には、所定の速度(例えば、5度/秒)でピッチ角が変化するようにできる。なお、図5、図14、および、図15に示す操作デバイスでは、前後方向をピッチ角と対応させて調整を行うようにしたが、ユーザの上下方向とピッチ角とを対応させて調整を行うようにしてもよい。 FIG. 15 is a configuration example of an operation device 50B having button-type operation units 503B and 503C. That is, in the configuration example of FIG. 15, the desired angle can be adjusted by operating the operation unit 503B when pitching up and operating the operation unit 503C when pitching down. When the operation units 503B and 503C are continuously operated, the pitch angle can be changed at a predetermined speed (for example, 5 degrees / sec). In the operation devices shown in FIGS. 5, 14, and 15, the front-back direction is associated with the pitch angle for adjustment, but the user's vertical direction is associated with the pitch angle for adjustment. You may do so.

また、VR空間への没入感の喪失を避けるためには、前述した操作デバイス50,50A,50Bを用いることが望ましいが、システムの構成を簡易化する等の目的で操作デバイスを使用しない場合には、代替手段としてVR空間内に、例えば、図16に示すような操作画面を表示し、この操作画面からピッチ角修正量の入力を受けるようにしてもよい。 Further, in order to avoid loss of immersion in the VR space, it is desirable to use the operation devices 50, 50A, 50B described above, but when the operation device is not used for the purpose of simplifying the system configuration or the like. As an alternative means, for example, an operation screen as shown in FIG. 16 may be displayed in the VR space, and the pitch angle correction amount may be input from the operation screen.

より詳細には、HMD30または情報処理装置10に付属されている、VR空間内のオブジェクトを操作または指定するためのポインティングデバイスを利用し、図16に示す操作画面を操作するようにしてもよい。 More specifically, the operation screen shown in FIG. 16 may be operated by using a pointing device attached to the HMD 30 or the information processing device 10 for operating or designating an object in the VR space.

図16の表示例では、画面の左右端の一定の幅の帯内(以下、「ゲージ表示領域」と称する)をポインティングデバイスでクリックすることで、ピッチ角調整ゲージが一定時間(例えば10秒間)表示され、さらにそのゲージ上の一点をクリックすることで、ピッチ量(増減量)を指定できるようにする。ゲージの上方がピッチアップ、下方がピッチダウンとすることが望ましい。ゲージの数直線が表現するピッチ量は、例えば、プラス45度(ピッチアップ)からマイナス45度(ピッチダウン)の範囲とすることが考えられる。 In the display example of FIG. 16, the pitch angle adjustment gauge is set for a certain period of time (for example, 10 seconds) by clicking within a band having a certain width at the left and right edges of the screen (hereinafter referred to as “gauge display area”) with a pointing device. It is displayed, and you can specify the pitch amount (increase / decrease amount) by clicking one point on the gauge. It is desirable that the upper part of the gauge is pitched up and the lower part is pitched down. The pitch amount represented by the number line of the gauge may be, for example, in the range of plus 45 degrees (pitch up) to minus 45 degrees (pitch down).

図16の場合も、操作デバイス50の場合と同様に、システムのオプション画面で感度(ゲージが表すピッチ角修正量の大きさ)を調整できることが望ましい。ゲージ上の一点がクリックされた際には、ピッチ角調整を反映した後に、再度同じ時間(前述の例では10秒間)ゲージの表示とクリックの受け付けを継続する。これにより、ユーザがピッチ角調整を何度か繰り返して、好適な角度に微調整をすることが可能となる。 In the case of FIG. 16, it is desirable that the sensitivity (the magnitude of the pitch angle correction amount represented by the gauge) can be adjusted on the option screen of the system as in the case of the operation device 50. When a point on the gauge is clicked, the gauge display and click acceptance are continued for the same time (10 seconds in the above example) after reflecting the pitch angle adjustment. As a result, the user can repeat the pitch angle adjustment several times to make fine adjustments to a suitable angle.

ピッチ角調整ゲージは、仮想空間の明暗に影響されないよう、非透過色で描画されることが好ましい。また標準的には左右両端にゲージ表示領域を設けるが、オプション設定により、左右片側だけにしか設置しないことも、ユーザの好みにより選択できることが望ましい。また、ピッチ角調整ゲージの範囲外の一点をクリックした場合でも有効な入力として取り扱い、ピッチ角調整を行うようにすることもできる。これにより、仮想空間内で興味のあるオブジェクトをクリックし、それが視線正面になるようにピッチ角を調整することが可能となる。 The pitch angle adjustment gauge is preferably drawn in a non-transparent color so as not to be affected by the brightness of the virtual space. In addition, although gauge display areas are provided on both the left and right ends as standard, it is desirable that the option setting allows the user to select whether to install only on the left or right side. Further, even if a point outside the range of the pitch angle adjustment gauge is clicked, it can be treated as an effective input and the pitch angle can be adjusted. This makes it possible to click on an object of interest in the virtual space and adjust the pitch angle so that it is in front of the line of sight.

図17は、図16に示す表示画面に基づいて、ピッチ角修正量を設定するためのフローチャートの一例である。なお、図17において、図13に示すフローチャートと対応する部分には同一の符号を付してその説明を省略する。図17では、図13と比較すると、ステップS16が除外され、ステップS30〜S32が新たに追加されている。このため、以下では、ステップS30〜S32を中心に説明する。 FIG. 17 is an example of a flowchart for setting the pitch angle correction amount based on the display screen shown in FIG. In FIG. 17, the same reference numerals are given to the portions corresponding to the flowchart shown in FIG. 13, and the description thereof will be omitted. In FIG. 17, as compared with FIG. 13, step S16 is excluded, and steps S30 to S32 are newly added. Therefore, in the following, steps S30 to S32 will be mainly described.

ステップS30では、ピッチ角修正量設定部11は、ポインティングデバイスによってVR空間の一点が指定されたか否かを判定し、指定されたと判定した場合(ステップS30:Y)にはステップS31に進み、それ以外の場合(ステップS30:N)にはステップS18に進む。例えば、図16において、画面の左右端のゲージ表示領域がポインティングデバイスでクリックされた後、ゲージ上の一点がクリックされた場合には、Yと判定してステップS31に進む。 In step S30, the pitch angle correction amount setting unit 11 determines whether or not one point in the VR space has been designated by the pointing device, and if it is determined that the point has been designated (step S30: Y), the process proceeds to step S31. In other cases (step S30: N), the process proceeds to step S18. For example, in FIG. 16, when a gauge display area at the left and right edges of the screen is clicked by the pointing device and then one point on the gauge is clicked, it is determined as Y and the process proceeds to step S31.

ステップS31では、ピッチ角修正量設定部11は、クリックされた点を特定する。例えば、図16において、ポインティングデバイスによりクリックされたゲージ上の一点を特定する。 In step S31, the pitch angle correction amount setting unit 11 identifies the clicked point. For example, in FIG. 16, a point on the gauge clicked by the pointing device is identified.

ステップS32では、ピッチ角修正量設定部11は、指定された点からピッチ角修正量θpcを算出する。例えば、図16において、ポインティングデバイスによりクリックされたゲージ上の一点の位置からピッチ角修正量θpcを算出する。 In step S32, the pitch angle correction amount setting unit 11 calculates the pitch angle correction amount θpc from the designated point. For example, in FIG. 16, the pitch angle correction amount θpc is calculated from the position of one point on the gauge clicked by the pointing device.

ステップS17では、ピッチ角修正量設定部11は、ステップS32で算出したピッチ角修正量θpcによって、既存のピッチ角修正量θpcを更新する。 In step S17, the pitch angle correction amount setting unit 11 updates the existing pitch angle correction amount θpc with the pitch angle correction amount θpc calculated in step S32.

以上の処理により、図16に示す表示画面を用いてピッチ角修正量を更新することができる。このような変形実施形態によれば、新たな操作デバイスを追加することなく、既存のポインティングデバイスを利用してピッチ角修正量を設定することができる。 By the above processing, the pitch angle correction amount can be updated using the display screen shown in FIG. According to such a modified embodiment, the pitch angle correction amount can be set by using the existing pointing device without adding a new operating device.

また、以上の実施形態では、ピッチ角修正量は、ユーザがマニュアル操作で入力するようにしたが、制作者等の意図に基づき、提示するアバターの姿勢が変化する場合には、自動的に調整するようにしてもよい。具体的には、VR空間画像を生成するデータの中に、アバターの姿勢を示す情報を格納しておき、アバターの姿勢を示す情報に基づいて、ピッチ角修正量を自動的に更新するようにしてもよい。 Further, in the above embodiment, the pitch angle correction amount is manually input by the user, but is automatically adjusted when the posture of the presented avatar changes based on the intention of the creator or the like. You may try to do it. Specifically, information indicating the posture of the avatar is stored in the data for generating the VR space image, and the pitch angle correction amount is automatically updated based on the information indicating the posture of the avatar. You may.

図18は、このような処理を実現するためのフローチャートである。なお、図18において、図13と対応する部分には同一の符号を付してその説明を省略する。図18では、図13と比較すると、ステップS50およびステップS51の処理が追加されている。これら以外は、図13と同様であるので、以下では、ステップS50およびステップS51の処理を中心に説明する。なお、以下の処理を実現するためには、前提として、VR空間画像を生成するデータに対して、例えば、アバターの姿勢に対応したピッチ角修正量を予め埋め込んでおく必要がある。 FIG. 18 is a flowchart for realizing such a process. In FIG. 18, the parts corresponding to those in FIG. 13 are designated by the same reference numerals, and the description thereof will be omitted. In FIG. 18, the processes of steps S50 and S51 are added as compared with FIG. Other than these, the same as in FIG. 13, and therefore, the processing of step S50 and step S51 will be mainly described below. In order to realize the following processing, it is necessary to embed, for example, a pitch angle correction amount corresponding to the posture of the avatar in advance in the data for generating the VR space image.

ステップS50では、ピッチ角修正量設定部11は、現在提示されているVR空間画像のシーンに対応するピッチ角修正量θpcを、例えば、VR空間画像生成部13から取得する。例えば、当該シーンにおいて提示されるアバターの姿勢に応じて、VR空間画像を生成するためのデータに予め埋め込まれているピッチ角修正量θpcを取得する。VR空間画像のシーンが変化して、制作者等の意図に基づき、アバターの姿勢が変化する場合には、ピッチ角修正量θpcが変化する。このため、ピッチ角修正量θpcが変化した場合には、新たなピッチ角修正量θpcが、例えば、VR空間画像生成部13またはアバター生成部15から取得される。 In step S50, the pitch angle correction amount setting unit 11 acquires the pitch angle correction amount θpc corresponding to the currently presented VR space image scene from, for example, the VR space image generation unit 13. For example, the pitch angle correction amount θpc embedded in the data for generating the VR space image is acquired according to the posture of the avatar presented in the scene. When the scene of the VR space image changes and the posture of the avatar changes based on the intention of the creator or the like, the pitch angle correction amount θpc changes. Therefore, when the pitch angle correction amount θpc changes, a new pitch angle correction amount θpc is acquired from, for example, the VR spatial image generation unit 13 or the avatar generation unit 15.

ステップS51では、ピッチ角修正量設定部11は、ステップS50で取得されたピッチ角修正量θpcによって既存のピッチ角修正量θpcを更新する。例えば、直前のシーンのピッチ角修正量がθpc1であり、新たなシーンのピッチ角修正量がθpc2である場合、ピッチ角修正量θpc2を新たに設定する。 In step S51, the pitch angle correction amount setting unit 11 updates the existing pitch angle correction amount θpc with the pitch angle correction amount θpc acquired in step S50. For example, when the pitch angle correction amount of the immediately preceding scene is θpc1 and the pitch angle correction amount of the new scene is θpc2, the pitch angle correction amount θpc2 is newly set.

ステップS16およびステップS17では、例えば、前述した操作デバイス50の操作に応じてピッチ角修正量が設定される。なお、ステップS17では、ステップS51で更新されたピッチ角修正量θpcに対して、操作デバイス50の操作に応じた値を増減することで、ピッチ角修正量θpcを設定することができる。 In step S16 and step S17, for example, the pitch angle correction amount is set according to the operation of the operation device 50 described above. In step S17, the pitch angle correction amount θpc can be set by increasing or decreasing the value according to the operation of the operation device 50 with respect to the pitch angle correction amount θpc updated in step S51.

以上の処理によれば、シーンが変化する毎に、自動的にピッチ角を修正できるので、ユーザ90がマニュアル操作でピッチ角修正量を設定する手間をおおよそ省略でき、ユーザ90は操作デバイス50の操作で微修正のみを行えば良いようにできる。 According to the above processing, the pitch angle can be automatically corrected every time the scene changes, so that the user 90 can roughly save the trouble of manually setting the pitch angle correction amount, and the user 90 can use the operating device 50. It is possible to make only minor corrections by operation.

なお、以上に示す実施形態では、VR空間画像をコンピュータグラフィックスによって描画する場合を例に挙げて説明したが、本発明は、コンピューグラフィックスに限定されるものではなく、例えば、全天周映像を撮像できるカメラで撮像した実写画像を用いるようにしてもよい。すなわち、イメージベースレンダリングまたはイメージベースモデリングに対して、本発明を適用するようにしてもよい。なお、実写画像を用いる場合には、実写画像にアバターが含まれるので、その場合には、図2に示す構成から、アバター生成部15を除外することができる。もちろん、全天周(360°)映像ではなく、180°映像を用いるようにしてもよい。 In the above-described embodiment, the case where the VR space image is drawn by computer graphics has been described as an example, but the present invention is not limited to computer graphics, for example, the whole sky. A live-action image captured by a camera capable of capturing an image may be used. That is, the present invention may be applied to image-based rendering or image-based modeling. When the live-action image is used, the avatar is included in the live-action image. In that case, the avatar generation unit 15 can be excluded from the configuration shown in FIG. Of course, a 180 ° image may be used instead of the entire sky (360 °) image.

また、図18に示す変形実施形態では、VR空間画像を生成するデータに対して、シーンに応じたピッチ角修正量を埋め込むようにしたが、例えば、提示するVR空間画像が、コンピュータグラフィックスではなく、撮影された画像の場合には、画像に含まれる主人公の画像のピッチ角修正量を埋め込むのではなく、図3に示す構成に画像解析処理部を追加し、画像解析処理部による解析処理によって、適切なピッチ角修正量を画像から特定し、特定されたピッチ角修正量を設定するようにしてもよい。 Further, in the modified embodiment shown in FIG. 18, the pitch angle correction amount according to the scene is embedded in the data for generating the VR space image. For example, the presented VR space image is expressed in computer graphics. In the case of a captured image, instead of embedding the pitch angle correction amount of the main character image included in the image, an image analysis processing unit is added to the configuration shown in FIG. 3, and the analysis processing by the image analysis processing unit is performed. The appropriate pitch angle correction amount may be specified from the image, and the specified pitch angle correction amount may be set.

また、以上の実施形態では、図13等に示す処理が、情報処理装置10で実行されるようにしたが、情報処理装置10の構成をHMD30に組み込み、図13等に示す処理を、HMD30で実行するようにしてもよい。 Further, in the above embodiment, the process shown in FIG. 13 and the like is executed by the information processing device 10, but the configuration of the information processing device 10 is incorporated in the HMD 30 and the process shown in FIG. 13 and the like is performed by the HMD 30. You may want to do it.

また、図1に示す構成例では、ネットワーク70およびサーバを有するようにしたが、ネットワーク70を含まない構成としてもよい。また、サーバに格納される情報を、情報処理装置10またはHMD30に格納するようにしてもよい。 Further, in the configuration example shown in FIG. 1, the network 70 and the server are provided, but the configuration may not include the network 70. Further, the information stored in the server may be stored in the information processing device 10 or the HMD 30.

また、以上の実施形態では、ピッチ角を調整するようにしたが、必要に応じて、ヨー角およびロール角を調整できるようにしてもよい。 Further, in the above embodiment, the pitch angle is adjusted, but the yaw angle and the roll angle may be adjusted as needed.

10 情報処理装置
11 ピッチ角修正量設定部
12 入力部
13 VR空間画像生成部
14 HMD動き検出部
15 アバター生成部
16 通信部
30 HMD
31 プロセッサ
32 メモリ
33 ディスプレイ
34 加速度センサ
35 LED
36 通信部
37 スピーカ
38 マイク
50,50A,50B 操作デバイス
51 プロセッサ
52 メモリ
53 操作量検出部
54 センサ群
55 通信部
56 振動部
70 ネットワーク
90 ユーザ
92 ソファ
100 フィン
110 鮫
120 犬
501 本体部
502 平面部
503,503A,503B,503C 操作部
10 Information processing device 11 Pitch angle correction amount setting unit 12 Input unit 13 VR spatial image generation unit 14 HMD motion detection unit 15 Avatar generation unit 16 Communication unit 30 HMD
31 Processor 32 Memory 33 Display 34 Accelerometer 35 LED
36 Communication unit 37 Speaker 38 Microphone 50, 50A, 50B Operation device 51 Processor 52 Memory 53 Operation amount detection unit 54 Sensor group 55 Communication unit 56 Vibration unit 70 Network 90 User 92 Sofa 100 Fin 110 Same 120 Dog 501 Main unit 502 Flat unit 503, 503A, 503B, 503C operation unit

Claims (9)

ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理装置において、
前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段と、
前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段と、
前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段と、
前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段と、
前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段と、
を有することを特徴とする情報処理装置。
In an information processing device that presents a virtual space on a display mounted on the user's head
A first input means for inputting detection information from the sensor that detects the movement of the user's head, and
A generation means for generating the virtual space including a body image showing at least a part of the user's body according to the detection information input by the first input means.
A second input means for inputting correction information from the device on which the operation of correcting the angle of the user's head in the pitch direction is performed, and
Based on the correction information input by the second input means, the correction means for correcting the angle in the pitch direction when presenting the virtual space on the display, and the correction means.
A presentation means for presenting the virtual space whose angle in the pitch direction has been corrected by the correction means to the display, and
An information processing device characterized by having.
前記第2入力手段から入力された前記修正情報を記憶する記憶手段を有し、
前記修正手段は、前記記憶手段に記憶された前記修正情報に基づいて前記仮想空間のピッチ方向の角度を修正する、
ことを特徴とする請求項1に記載の情報処理装置。
It has a storage means for storing the correction information input from the second input means.
The correction means corrects the angle in the pitch direction of the virtual space based on the correction information stored in the storage means.
The information processing apparatus according to claim 1.
前記修正手段は、ピッチ方向の修正角度を新たに指定する場合には、前記記憶手段に記憶されている前記修正情報の前回値を初期値として、前記仮想空間のピッチ方向の角度の修正値を指定することを特徴とする請求項2に記載の情報処理装置。 When the correction means newly specifies the correction angle in the pitch direction, the correction means sets the correction value of the angle in the pitch direction of the virtual space with the previous value of the correction information stored in the storage means as an initial value. The information processing apparatus according to claim 2, wherein the information processing apparatus is designated. 前記デバイスは、前記ユーザの前後方向または上下方向に対応する方向に関する操作が可能な操作部を有し、
前記修正手段は、前記操作部の前記前後方向または上下方向に対応する方向に関する操作量を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
The device has an operation unit capable of operating in a direction corresponding to the front-back direction or the up-down direction of the user.
The correction means corrects the angle in the pitch direction when presenting the virtual space on the display with reference to the operation amount of the operation unit in the direction corresponding to the front-back direction or the up-down direction.
The information processing device according to any one of claims 1 to 3, wherein the information processing device is characterized by the above.
前記デバイスは、前記仮想空間内の少なくとも1点を指定可能であり、
前記修正手段は、前記デバイスによって指定された位置を参照し、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
The device can specify at least one point in the virtual space.
The correction means refers to a position designated by the device and corrects an angle in the pitch direction when presenting the virtual space to the display.
The information processing device according to any one of claims 1 to 3, wherein the information processing device is characterized by the above.
前記仮想空間における前記身体画像のピッチ方向の角度を取得する取得手段を有し、
前記修正手段は、前記取得手段によって取得されたピッチ方向の角度を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
It has an acquisition means for acquiring an angle in the pitch direction of the body image in the virtual space.
The correction means corrects the pitch direction angle when presenting the virtual space on the display with reference to the pitch direction angle acquired by the acquisition means.
The information processing apparatus according to any one of claims 1 to 5, characterized in that.
前記修正手段は、前記第2入力手段から入力された前記修正情報に基づいて、ピッチ方向の角度の修正量を示すゲージを前記仮想空間の一部に表示することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 Claims 1 to 1, wherein the correction means displays a gauge indicating a correction amount of an angle in the pitch direction in a part of the virtual space based on the correction information input from the second input means. The information processing apparatus according to any one of 6. ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理方法において、
前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力ステップと、
前記第1入力ステップにおいて入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成ステップと、
前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情
報を入力する第2入力ステップと、
前記第2入力ステップにおいて入力した前記修正情報に基づいて、前記ディスプレイに
前記仮想空間を提示する際のピッチ方向の角度を修正する修正ステップと、
前記修正ステップにおいてピッチ方向の角度が修正された前記仮想空間を前記ディスプ
レイに提示する提示ステップと、
を有することを特徴とする情報処理方法。
In an information processing method that presents a virtual space on a display mounted on the user's head
The first input step of inputting the detection information from the sensor that detects the movement of the user's head, and
A generation step of generating the virtual space including a body image showing at least a part of the user's body according to the detection information input in the first input step.
A second input step of inputting correction information from the device on which the operation of correcting the angle of the user's head in the pitch direction is performed, and
Based on the correction information input in the second input step, a correction step of correcting the angle in the pitch direction when presenting the virtual space on the display, and a correction step.
A presentation step of presenting the virtual space in which the angle in the pitch direction is corrected in the correction step to the display,
An information processing method characterized by having.
ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理をコンピュータ
に機能させる前記コンピュータが読み取り可能なプログラムにおいて、
前記コンピュータを、
前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段、
前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を
示す身体画像を含む前記仮想空間を生成する生成手段、
前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情
報を入力する第2入力手段、
前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空
間を提示する際のピッチ方向の角度を修正する修正手段、
前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイ
に提示する提示手段、
として機能させることを特徴とするプログラム。
In a computer-readable program that causes a computer to function information processing that presents virtual space on a display mounted on the user's head.
The computer
A first input means for inputting detection information from a sensor that detects the movement of the user's head,
A generation means for generating the virtual space including a body image showing at least a part of the user's body according to the detection information input by the first input means.
A second input means for inputting correction information from the device on which the operation of correcting the angle of the user's head in the pitch direction is performed.
A correction means for correcting an angle in the pitch direction when presenting the virtual space on the display based on the correction information input by the second input means.
A presentation means for presenting the virtual space whose angle in the pitch direction has been corrected by the correction means to the display.
A program characterized by functioning as.
JP2019230436A 2019-03-31 2019-12-20 Information processing device, information processing method, and program Active JP7305185B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019230436A JP7305185B2 (en) 2019-03-31 2019-12-20 Information processing device, information processing method, and program
JP2023102053A JP2023126252A (en) 2019-03-31 2023-06-21 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019069568A JP6664778B1 (en) 2019-03-31 2019-03-31 Information processing apparatus, information processing method, and program
JP2019230436A JP7305185B2 (en) 2019-03-31 2019-12-20 Information processing device, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019069568A Division JP6664778B1 (en) 2019-03-31 2019-03-31 Information processing apparatus, information processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023102053A Division JP2023126252A (en) 2019-03-31 2023-06-21 Information processing device, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2020170501A true JP2020170501A (en) 2020-10-15
JP2020170501A5 JP2020170501A5 (en) 2022-04-08
JP7305185B2 JP7305185B2 (en) 2023-07-10

Family

ID=87072433

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019230436A Active JP7305185B2 (en) 2019-03-31 2019-12-20 Information processing device, information processing method, and program
JP2023102053A Pending JP2023126252A (en) 2019-03-31 2023-06-21 Information processing device, information processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023102053A Pending JP2023126252A (en) 2019-03-31 2023-06-21 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (2) JP7305185B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6689694B2 (en) 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント Simulation system and program

Also Published As

Publication number Publication date
JP7305185B2 (en) 2023-07-10
JP2023126252A (en) 2023-09-07

Similar Documents

Publication Publication Date Title
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
US10313481B2 (en) Information processing method and system for executing the information method
JP2022549853A (en) Individual visibility in shared space
KR20200014824A (en) Eye tracking correction techniques
US20190018479A1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
JP7317024B2 (en) Image generation device and image generation method
US10216261B2 (en) Method of suppressing VR sickness, system for executing the method , and information processing device
US20180190010A1 (en) Method for providing virtual space, program for executing the method on computer, and information processing apparatus for executing the program
JP6201028B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7160669B2 (en) Program, Information Processing Apparatus, and Method
WO2019087564A1 (en) Information processing device, information processing method, and program
US11880502B2 (en) Information processing device, information processing method, and non-transitory computer readable storage medium storing an information processing program
US20180299948A1 (en) Method for communicating via virtual space and system for executing the method
US20180373414A1 (en) Method for communicating via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
US20180253902A1 (en) Method executed on computer for providing object in virtual space, program for executing the method on the computer, and computer apparatus
US20200342621A1 (en) Information processing apparatus and device information derivation method
WO2020017435A1 (en) Information processing device, information processing method, and program
JP7104539B2 (en) Simulation system and program
US20230360316A1 (en) Information processing device, information processing method, and information distribution system
JP7305185B2 (en) Information processing device, information processing method, and program
JP6554139B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6820299B2 (en) Programs, information processing equipment, and methods
JP7111848B2 (en) Program, Information Processing Apparatus, and Method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R150 Certificate of patent or registration of utility model

Ref document number: 7305185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150