JP2023096844A - Program, information processing method, and information processing apparatus - Google Patents

Program, information processing method, and information processing apparatus Download PDF

Info

Publication number
JP2023096844A
JP2023096844A JP2021212861A JP2021212861A JP2023096844A JP 2023096844 A JP2023096844 A JP 2023096844A JP 2021212861 A JP2021212861 A JP 2021212861A JP 2021212861 A JP2021212861 A JP 2021212861A JP 2023096844 A JP2023096844 A JP 2023096844A
Authority
JP
Japan
Prior art keywords
user
virtual camera
image
hmd
celestial sphere
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021212861A
Other languages
Japanese (ja)
Inventor
一晃 澤木
Kazuaki Sawaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2021212861A priority Critical patent/JP2023096844A/en
Publication of JP2023096844A publication Critical patent/JP2023096844A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve usability when providing a panoramic image to a user.SOLUTION: A program 231 is run on a computer 200 comprising a processor 210. The program 231 causes the processor 210 to perform a step of generating a presentation image to be presented to a user on the basis of a virtual camera arranged inside a celestial sphere to which an image is projected, a step of outputting the presentation image to a display device, a step of acquiring movement information about movement of at least a part of user's body detected by a sensor unit, and a step of changing a physical relationship between the virtual camera and the celestial sphere or a view angle of the virtual camera on the basis of the movement information.SELECTED DRAWING: Figure 2

Description

本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to programs, information processing methods, and information processing apparatuses.

従来、ヘッドマウントデバイス(以下、「HMD」とも称する)等の機器を用いて、ユーザにVR(Virtual Reality)空間等の仮想空間を提供する技術が知られている。例えば、特許文献1には、HMD内の慣性センサを用いてHMDの動きを検出し、検出された動きに基づいて仮想現実シーン内のキャラクタのアクション(移動等を含む)を決定することが開示されている。 2. Description of the Related Art Conventionally, there is known a technique for providing a user with a virtual space such as a VR (Virtual Reality) space using equipment such as a head-mounted device (hereinafter also referred to as "HMD"). For example, Patent Literature 1 discloses that an inertial sensor in the HMD is used to detect the motion of the HMD, and based on the detected motion, the action (including movement, etc.) of the character in the virtual reality scene is determined. It is

また、特許文献2には、ユーザの現実の視界に重畳させる重畳画像を表示する表示部を備えたHMDにおいて、HMDの姿勢に応じて重畳画像の表示領域を縮小することが開示されている。また、特許文献3には、仮想空間の画像をHMDに表示し、ユーザが操作を入力するための入力装置が現実空間における所定位置に存在する場合に、HMDに表示させている画像の一部を拡大し、仮想空間の画像に拡大画像を重畳して表示することが開示されている。 Further, Patent Literature 2 discloses that, in an HMD including a display unit that displays a superimposed image to be superimposed on the user's actual field of view, the display area of the superimposed image is reduced according to the posture of the HMD. Further, in Patent Document 3, an image of a virtual space is displayed on the HMD, and when an input device for inputting an operation by the user exists at a predetermined position in the real space, part of the image displayed on the HMD is magnified, and the magnified image is superimposed and displayed on the image in the virtual space.

特開2018-508805号公報JP 2018-508805 A 特開2016-212599号公報JP 2016-212599 A 特開2019-46291号公報JP 2019-46291 A

ところで、映像が投影された天球の内部に配置された仮想カメラに基づく画像をユーザに提供する技術が知られている。このような画像は、パノラマ画像とも呼ばれており、あたかもその場にいるような没入感をユーザに与えることが可能である。しかし、従来のパノラマ画像において、ユーザは、視線方向を変えることはできるものの、視点倍率は固定されていて変更できないことが多く、例えば、ユーザの動作情報に基づいて画像を拡大や縮小して見ることができなかった。従来のパノラマ画像は、半径が無限遠に設定されているような大きな天球に投影されたものであり、例えば、HMDを装着したユーザが画像に対して頭を近づける動作をしたとしても、天球と仮想カメラの位置関係は変更されないため、ユーザの動作情報に基づく画像の縮尺変更がされることはなく、ユーザビリティの点で改善の余地があった。 By the way, there is known a technique for providing a user with an image based on a virtual camera placed inside a celestial sphere on which an image is projected. Such an image is also called a panorama image, and can give the user an immersive feeling as if he or she were there. However, in conventional panoramic images, although the user can change the line-of-sight direction, the viewpoint magnification is often fixed and cannot be changed. I couldn't. A conventional panoramic image is projected onto a large celestial sphere whose radius is set to infinity. Since the positional relationship of the virtual camera is not changed, the scale of the image is not changed based on the user's motion information, and there is room for improvement in terms of usability.

なお、特許文献1~3には、パノラマ画像の縮尺をユーザの動作情報に基づいて変更するという思想は何ら示されておらず、当然ながら、映像が投影された天球と該天球の内部に配置された仮想カメラの位置関係をユーザの動作情報に基づいて変更することも開示されていない。 Incidentally, Patent Documents 1 to 3 do not show any concept of changing the scale of the panoramic image based on the motion information of the user. Also, it is not disclosed to change the positional relationship of the virtual cameras displayed based on the user's motion information.

本開示の一態様は、パノラマ画像をユーザに提供する場合において、ユーザビリティを向上させることを目的とする。 One aspect of the present disclosure aims to improve usability when providing a panoramic image to a user.

本開示に示す一実施形態によれば、
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成するステップと、
前記提示画像を表示装置に出力するステップと、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得するステップと、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更するステップと、を実行させる、
プログラムが提供される。
According to one embodiment shown in the present disclosure,
A program executed on a computer with a processor,
The program causes the processor to:
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
a step of acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
A program is provided.

本開示に示す一実施形態よれば、パノラマ画像をユーザに提供する場合において、ユーザビリティを向上させることができる。 According to an embodiment shown in the present disclosure, usability can be improved when a panoramic image is provided to a user.

ある実施の形態に従うHMDシステムの構成の概略を表す図である。1 is a schematic representation of the configuration of an HMD system according to an embodiment; FIG. ある実施の形態に従うコンピュータのハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of the computer according to an embodiment. ある実施の形態に従うHMDに設定されるuvw視野座標系を概念的に表す図である。FIG. 4 is a diagram conceptually representing a uvw viewing coordinate system set in an HMD according to an embodiment; ある実施の形態に従う動作処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of operational processing according to an embodiment; ある実施の形態に従う提示画像の拡大及び縮小の一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of enlargement and reduction of a presentation image according to an embodiment; ある実施の形態に従う仮想カメラと天球の位置関係の変更の一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of changing the positional relationship between a virtual camera and a celestial sphere according to an embodiment; ある実施の形態に従う仮想カメラと天球の位置関係の変更の一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of changing the positional relationship between a virtual camera and a celestial sphere according to an embodiment; ある実施の形態に従う仮想カメラの視野角の変更の一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of changing the viewing angle of a virtual camera according to an embodiment; ある実施の形態に従う仮想空間と現実空間の関係の一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of the relationship between virtual space and real space according to an embodiment;

以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated. In one or more of the embodiments presented in this disclosure, elements of each embodiment may be combined with each other and the combined result shall also form part of the embodiments presented in this disclosure.

以下では、HMDシステムを用いてユーザにパノラマ画像を提供する場合を例に挙げて説明をするが、本開示は、この例に限定されない。本開示は、ユーザにパノラマ画像を提供するシステムであれば特に制限なく適用することができる。また、以下では、VR空間においてユーザにパノラマ画像を提供する場合を例に挙げているが、本開示は、VRだけではなく、AR(Augmented Reality)、MR(Mixed Reality)、SR(Substitutional Reality)等のいわゆるXR技術全般に適用することができる。 An example of providing a user with a panoramic image using an HMD system will be described below, but the present disclosure is not limited to this example. The present disclosure can be applied without any particular limitation as long as it is a system that provides panoramic images to users. In the following, a case where a panoramic image is provided to a user in a VR space is taken as an example, but the present disclosure applies not only to VR but also to AR (Augmented Reality), MR (Mixed Reality), and SR (Substitutional Reality). It can be applied to so-called XR technology in general.

本明細書において、「パノラマ画像」とは、例えば、画像が投影された天球の内部に配置された仮想カメラに基づいてユーザに提示される提示画像のことをいう。「パノラマ画像」には、いわゆる360度画像、180度画像、全天周画像、及び半天周画像と呼ばれるものが含まれる。「パノラマ画像」は、360度や180度ではない所定の角度の範囲で展開される画像であってもよい。また、「パノラマ画像」は、動画であっても静止画であってもよい。 In this specification, a “panoramic image” refers to a presentation image presented to the user based on, for example, a virtual camera arranged inside the celestial sphere on which the image is projected. "Panorama images" include so-called 360-degree images, 180-degree images, full-dome images, and half-dome images. A “panoramic image” may be an image developed within a predetermined angular range other than 360 degrees or 180 degrees. Also, the "panorama image" may be a moving image or a still image.

[HMDシステムの構成]
図1を参照して、HMD(Head-Mounted Device)システム100の構成について説明する。図1は、本実施の形態に従うHMDシステム100の構成の概略を表す図である。HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
[Configuration of HMD system]
A configuration of an HMD (Head-Mounted Device) system 100 will be described with reference to FIG. FIG. 1 is a diagram showing a schematic configuration of an HMD system 100 according to this embodiment. The HMD system 100 is provided as a system for home use or as a system for business use.

HMDシステム100は、サーバ600と、HMDセット110A,110B,110C,110Dと、外部機器700と、ネットワーク2とを含む。HMDセット110A,110B,110C,110Dの各々は、ネットワーク2を介してサーバ600や外部機器700と通信可能に構成される。以下、HMDセット110A,110B,110C,110Dを総称して、HMDセット110とも言う。HMDシステム100を構成するHMDセット110の数は、4つに限られず、3つ以下でも、5つ以上でもよい。HMDセット110は、HMD120と、コンピュータ200と、HMDセンサ410と、ディスプレイ430と、コントローラ300とを備える。HMD120は、モニタ130と、注視センサ140と、第1カメラ150と、第2カメラ160と、マイク170と、スピーカ180とを含む。コントローラ300は、モーションセンサ420を含み得る。 HMD system 100 includes server 600 , HMD sets 110 A, 110 B, 110 C, and 110 D, external device 700 , and network 2 . Each of HMD sets 110A, 110B, 110C, and 110D is configured to communicate with server 600 and external device 700 via network 2 . Hereinafter, the HMD sets 110A, 110B, 110C, and 110D are collectively referred to as the HMD set 110 as well. The number of HMD sets 110 configuring the HMD system 100 is not limited to four, and may be three or less or five or more. HMD set 110 includes HMD 120 , computer 200 , HMD sensor 410 , display 430 and controller 300 . HMD 120 includes monitor 130 , gaze sensor 140 , first camera 150 , second camera 160 , microphone 170 , and speaker 180 . Controller 300 may include motion sensor 420 .

ある局面において、コンピュータ200は、インターネットその他のネットワーク2に接続可能であり、ネットワーク2に接続されているサーバ600その他のコンピュータと通信可能である。その他のコンピュータとしては、例えば、他のHMDセット110のコンピュータや外部機器700が挙げられる。別の局面において、HMD120は、HMDセンサ410の代わりに、センサ190を含み得る。 In one aspect, computer 200 is connectable to network 2 such as the Internet, and is capable of communicating with server 600 and other computers connected to network 2 . Other computers include, for example, computers of other HMD sets 110 and external devices 700 . In another aspect, HMD 120 may include sensor 190 instead of HMD sensor 410 .

HMD120は、ユーザ5の頭部に装着され、動作中に仮想空間をユーザ5に提供し得る。より具体的には、HMD120は、右目用の画像および左目用の画像をモニタ130にそれぞれ表示する。ユーザ5の各目がそれぞれの画像を視認すると、ユーザ5は、両目の視差に基づき当該画像を3次元画像として認識し得る。HMD120は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。また、HMD120として、VRグラス、スマートグラス、ARグラス、MRグラス、コンタクトレンズディスプレイ等を用いてもよい。 The HMD 120 can be worn on the head of the user 5 and provide the user 5 with a virtual space during operation. More specifically, HMD 120 displays a right-eye image and a left-eye image on monitor 130 . When each eye of the user 5 views the respective image, the user 5 can perceive the image as a three-dimensional image based on the parallax of both eyes. The HMD 120 may include both a so-called head-mounted display having a monitor and a head-mounted device on which a smartphone or other terminal having a monitor can be attached. Also, as the HMD 120, VR glasses, smart glasses, AR glasses, MR glasses, contact lens displays, or the like may be used.

モニタ130は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ130は、ユーザ5の両目の前方に位置するようにHMD120の本体に配置されている。したがって、ユーザ5は、モニタ130に表示される3次元画像を視認すると、仮想空間に没入することができる。ある局面において、仮想空間は、例えば、背景、ユーザ5が操作可能なオブジェクト、ユーザ5が選択可能なメニューの画像を含む。ある局面において、モニタ130は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。 The monitor 130 is implemented as, for example, a non-transmissive display device. In one aspect, the monitor 130 is arranged on the main body of the HMD 120 so as to be positioned in front of both eyes of the user 5 . Therefore, the user 5 can immerse himself in the virtual space by viewing the three-dimensional image displayed on the monitor 130 . In one aspect, the virtual space includes images of, for example, a background, objects that the user 5 can manipulate, and menus that the user 5 can select. In one aspect, the monitor 130 can be realized as a liquid crystal monitor or an organic EL (Electro Luminescence) monitor provided in a so-called smart phone or other information display terminal.

別の局面において、モニタ130は、透過型の表示装置として実現され得る。この場合、HMD120は、図1に示されるようにユーザ5の目を覆う密閉型ではなく、メガネ型のような開放型であり得る。透過型のモニタ130は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。モニタ130は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニタ130は、HMD120に搭載されたカメラで撮影した現実空間の画像を表示してもよいし、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。 In another aspect, monitor 130 may be implemented as a transmissive display. In this case, the HMD 120 may be an open type, such as a glasses type, instead of a closed type that covers the eyes of the user 5 as shown in FIG. Transmissive monitor 130 may be temporarily configurable as a non-transmissive display by adjusting its transmittance. The monitor 130 may include a configuration for simultaneously displaying a portion of the image forming the virtual space and the real space. For example, the monitor 130 may display an image of the real space captured by a camera mounted on the HMD 120, or may make the real space visible by setting a partial transmittance high.

ある局面において、モニタ130は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ130は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ130は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。 In one aspect, monitor 130 may include a sub-monitor for displaying images for the right eye and a sub-monitor for displaying images for the left eye. In another aspect, monitor 130 may be configured to display the image for the right eye and the image for the left eye as one. In this case, monitor 130 includes a high speed shutter. The high speed shutter operates to alternately display the right eye image and the left eye image so that the image is perceived by only one eye.

ある局面において、HMD120は、図示せぬ複数の光源を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ410は、HMD120の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ410は、HMD120が発する複数の赤外線を読み取り、現実空間内におけるHMD120の位置および傾きを検出する。 In one aspect, the HMD 120 includes multiple light sources (not shown). Each light source is implemented by, for example, an LED (Light Emitting Diode) that emits infrared rays. HMD sensor 410 has a position tracking function for detecting movement of HMD 120 . More specifically, HMD sensor 410 reads a plurality of infrared rays emitted by HMD 120 and detects the position and tilt of HMD 120 in the physical space.

別の局面において、HMDセンサ410は、カメラにより実現されてもよい。この場合、HMDセンサ410は、カメラから出力されるHMD120の画像情報を用いて、画像解析処理を実行することにより、HMD120の位置および傾きを検出することができる。 In another aspect, HMD sensor 410 may be implemented by a camera. In this case, the HMD sensor 410 can detect the position and tilt of the HMD 120 by executing image analysis processing using the image information of the HMD 120 output from the camera.

別の局面において、HMD120は、位置検出器として、HMDセンサ410の代わりに、あるいはHMDセンサ410に加えてセンサ190を備えてもよい。HMD120は、センサ190を用いて、HMD120自身の位置および傾きを検出し得る。例えば、センサ190が角速度センサ、地磁気センサ、あるいは加速度センサである場合、HMD120は、HMDセンサ410の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ190が角速度センサである場合、角速度センサは、現実空間におけるHMD120の3軸周りの角速度を経時的に検出する。HMD120は、各角速度に基づいて、HMD120の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD120の傾きを算出する。 In another aspect, HMD 120 may include sensor 190 instead of HMD sensor 410 or in addition to HMD sensor 410 as a position detector. HMD 120 can detect the position and tilt of HMD 120 using sensor 190 . For example, if sensor 190 is an angular velocity sensor, a geomagnetic sensor, or an acceleration sensor, HMD 120 can detect its own position and tilt using any of these sensors instead of HMD sensor 410 . As an example, when the sensor 190 is an angular velocity sensor, the angular velocity sensor temporally detects angular velocities around three axes of the HMD 120 in real space. The HMD 120 calculates temporal changes in angles around the three axes of the HMD 120 based on the angular velocities, and further calculates the tilt of the HMD 120 based on the temporal changes in the angles.

注視センサ140は、ユーザ5の右目および左目の視線が向けられる方向を検出する。つまり、注視センサ140は、ユーザ5の視線を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ5の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ5の視線を検知することができる。 Gaze sensor 140 detects the directions in which the user's 5 right and left eyes are directed. That is, the gaze sensor 140 detects the line of sight of the user 5 . Detection of the line-of-sight direction is achieved by, for example, a known eye-tracking function. Gaze sensor 140 is realized by a sensor having the eye tracking function. In one aspect, gaze sensor 140 preferably includes a right eye sensor and a left eye sensor. The gaze sensor 140 may be, for example, a sensor that irradiates the right and left eyes of the user 5 with infrared light and receives reflected light from the cornea and iris of the irradiated light, thereby detecting the rotation angle of each eyeball. . The gaze sensor 140 can detect the line of sight of the user 5 based on each detected rotation angle.

第1カメラ150は、ユーザ5の顔の下部を撮影する。より具体的には、第1カメラ150は、ユーザ5の鼻および口などを撮影する。第2カメラ160は、ユーザ5の目および眉などを撮影する。HMD120のユーザ5側の筐体をHMD120の内側、HMD120のユーザ5とは逆側の筐体をHMD120の外側と定義する。ある局面において、第1カメラ150は、HMD120の外側に配置され、第2カメラ160は、HMD120の内側に配置され得る。第1カメラ150および第2カメラ160が生成した画像は、コンピュータ200に入力される。別の局面において、第1カメラ150と第2カメラ160とを1台のカメラとして実現し、この1台のカメラでユーザ5の顔を撮影するようにしてもよい。 The first camera 150 photographs the lower part of the user's 5 face. More specifically, first camera 150 captures the nose, mouth, and the like of user 5 . The second camera 160 photographs the eyes, eyebrows, etc. of the user 5 . The housing of the HMD 120 on the side of the user 5 is defined as the inside of the HMD 120 , and the housing of the HMD 120 on the side opposite to the user 5 is defined as the outside of the HMD 120 . In one aspect, first camera 150 may be positioned outside HMD 120 and second camera 160 may be positioned inside HMD 120 . Images generated by first camera 150 and second camera 160 are input to computer 200 . In another aspect, the first camera 150 and the second camera 160 may be realized as one camera, and the face of the user 5 may be photographed with this one camera.

マイク170は、ユーザ5の発話を音声信号(電気信号)に変換してコンピュータ200に出力する。スピーカ180は、音声信号を音声に変換してユーザ5に出力する。別の局面において、HMD120は、スピーカ180に替えてイヤホンを含み得る。 The microphone 170 converts the speech of the user 5 into an audio signal (electrical signal) and outputs it to the computer 200 . The speaker 180 converts the audio signal into audio and outputs it to the user 5 . In another aspect, HMD 120 may include earphones instead of speaker 180 .

コントローラ300は、有線または無線によりコンピュータ200に接続されている。コントローラ300は、ユーザ5からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ300は、ユーザ5によって把持可能に構成される。別の局面において、コントローラ300は、ユーザ5の身体あるいは衣類の一部に装着可能に構成される。さらに別の局面において、コントローラ300は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。さらに別の局面において、コントローラ300は、ユーザ5から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。 The controller 300 is connected to the computer 200 by wire or wirelessly. The controller 300 accepts command input from the user 5 to the computer 200 . In one aspect, controller 300 is configured to be grippable by user 5 . In another aspect, controller 300 is configured to be attachable to part of user's 5 body or clothing. In yet another aspect, controller 300 may be configured to output at least one of vibration, sound, and light based on signals transmitted from computer 200 . In yet another aspect, controller 300 receives an operation from user 5 for controlling the position and movement of an object placed in the virtual space.

ある局面において、コントローラ300は、複数の光源を含む。各光源は例えば、赤外線を発するLEDにより実現される。HMDセンサ410は、ポジショントラッキング機能を有する。この場合、HMDセンサ410は、コントローラ300が発する複数の赤外線を読み取り、現実空間内におけるコントローラ300の位置および傾きを検出する。別の局面において、HMDセンサ410は、カメラにより実現されてもよい。この場合、HMDセンサ410は、カメラから出力されるコントローラ300の画像情報を用いて、画像解析処理を実行することにより、コントローラ300の位置および傾きを検出することができる。 In one aspect, controller 300 includes multiple light sources. Each light source is implemented, for example, by an LED that emits infrared rays. The HMD sensor 410 has a position tracking function. In this case, the HMD sensor 410 reads multiple infrared rays emitted by the controller 300 and detects the position and tilt of the controller 300 in the physical space. In another aspect, HMD sensor 410 may be implemented by a camera. In this case, the HMD sensor 410 can detect the position and tilt of the controller 300 by executing image analysis processing using the image information of the controller 300 output from the camera.

モーションセンサ420は、ある局面において、ユーザ5の手に取り付けられて、ユーザ5の手の動きを検出する。例えば、モーションセンサ420は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ420は、例えば、コントローラ300に設けられている。ある局面において、モーションセンサ420は、例えば、ユーザ5に把持可能に構成されたコントローラ300に設けられている。別の局面において、現実空間における安全のため、コントローラ300は、手袋型のようにユーザ5の手に装着されることにより容易に飛んで行かないものに装着される。さらに別の局面において、ユーザ5に装着されないセンサがユーザ5の手の動きを検出してもよい。例えば、ユーザ5を撮影するカメラの信号が、ユーザ5の動作を表わす信号として、コンピュータ200に入力されてもよい。モーションセンサ420とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。 Motion sensor 420 , in one aspect, is attached to the hand of user 5 to detect movement of the hand of user 5 . For example, the motion sensor 420 detects hand rotation speed, number of rotations, and the like. The detected signal is sent to computer 200 . Motion sensor 420 is provided in controller 300, for example. In one aspect, motion sensor 420 is provided, for example, in controller 300 configured to be grippable by user 5 . In another aspect, for safety in the real space, the controller 300 is attached to an object such as a glove that is attached to the hand of the user 5 so as not to fly off easily. In yet another aspect, sensors not worn by user 5 may detect movement of user's 5 hand. For example, a signal from a camera that takes an image of user 5 may be input to computer 200 as a signal representing the motion of user 5 . Motion sensor 420 and computer 200 are, for example, wirelessly connected to each other. In the case of wireless communication, the form of communication is not particularly limited, and for example, Bluetooth (registered trademark) or other known communication methods are used.

ディスプレイ430は、モニタ130に表示されている画像と同様の画像を表示する。これにより、HMD120を装着しているユーザ5以外のユーザにも当該ユーザ5と同様の画像を視聴させることができる。ディスプレイ430に表示される画像は、3次元画像である必要はなく、右目用の画像や左目用の画像であってもよい。ディスプレイ430としては、例えば、液晶ディスプレイや有機ELモニタなどが挙げられる。 Display 430 displays an image similar to the image displayed on monitor 130 . This allows users other than the user 5 wearing the HMD 120 to view the same image as that of the user 5 . The image displayed on display 430 does not have to be a three-dimensional image, and may be an image for the right eye or an image for the left eye. Examples of the display 430 include a liquid crystal display and an organic EL monitor.

サーバ600は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ600は、他のユーザによって使用されるHMD120に仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行なう場合、各コンピュータ200は、各ユーザの動作に基づく信号をサーバ600を介して他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。各コンピュータ200は、各ユーザの動作に基づく信号をサーバ600を介さずに他のコンピュータ200と通信するようにしてもよい。 Server 600 may transmit programs to computer 200 . In another aspect, server 600 may communicate with other computers 200 to provide virtual reality to HMDs 120 used by other users. For example, when a plurality of users play a participatory game in an amusement facility, each computer 200 communicates a signal based on each user's action with the other computers 200 via the server 600 so that a plurality of users can participate in the same virtual space. users to enjoy common games. Each computer 200 may communicate signals based on each user's actions with other computers 200 without going through the server 600 .

外部機器700は、コンピュータ200と通信可能な機器であればどのような機器であってもよい。外部機器700は、例えば、ネットワーク2を介してコンピュータ200と通信可能な機器であってもよいし、近距離無線通信や有線接続によりコンピュータ200と直接通信可能な機器であってもよい。外部機器700としては、例えば、スマートデバイス、PC(Personal Computer)、及びコンピュータ200の周辺機器などが挙げられるが、これらに限定されるものではない。 The external device 700 may be any device as long as it can communicate with the computer 200 . The external device 700 may be, for example, a device capable of communicating with the computer 200 via the network 2, or may be a device capable of directly communicating with the computer 200 through short-range wireless communication or wired connection. Examples of the external device 700 include smart devices, PCs (Personal Computers), and peripheral devices of the computer 200, but are not limited to these.

[コンピュータのハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、本実施の形態に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ210と、メモリ220と、ストレージ230と、入出力インターフェイス240と、通信インターフェイス250とを備える。各構成要素は、それぞれ、バス260に接続されている。
[Computer hardware configuration]
A computer 200 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the hardware configuration of computer 200 according to this embodiment. The computer 200 includes a processor 210, a memory 220, a storage 230, an input/output interface 240, and a communication interface 250 as main components. Each component is connected to bus 260 respectively.

プロセッサ210は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ220またはストレージ230に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ210は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。 Processor 210 executes a series of instructions contained in a program stored in memory 220 or storage 230 based on a signal given to computer 200 or based on the establishment of a predetermined condition. In one aspect, processor 210 is implemented as a CPU (Central Processing Unit), GPU (Graphics Processing Unit), MPU (Micro Processor Unit), FPGA (Field-Programmable Gate Array), or other device.

メモリ220は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ230からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ210によって生成されたデータとを含む。ある局面において、メモリ220は、RAM(Random Access Memory)その他の揮発メモリとして実現される。 Memory 220 temporarily stores programs and data. The program is loaded from storage 230, for example. Data includes data input to computer 200 and data generated by processor 210 . In one aspect, memory 220 is implemented as random access memory (RAM) or other volatile memory.

ストレージ230は、プログラムおよびデータを永続的に保持する。ストレージ230は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ230に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラムを含む。ストレージ230に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。 Storage 230 permanently holds programs and data. The storage 230 is implemented as, for example, a ROM (Read-Only Memory), hard disk device, flash memory, or other non-volatile storage device. The programs stored in the storage 230 include programs for providing a virtual space in the HMD system 100, simulation programs, game programs, user authentication programs, and programs for realizing communication with other computers 200. The data stored in the storage 230 includes data and objects for defining the virtual space.

別の局面において、ストレージ230は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ230の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。 In another aspect, storage 230 may be implemented as a removable storage device such as a memory card. In still another aspect, instead of storage 230 built into computer 200, a configuration using programs and data stored in an external storage device may be used. According to such a configuration, for example, in a scene where a plurality of HMD systems 100 are used, such as an amusement facility, it is possible to collectively update programs and data.

入出力インターフェイス240は、HMD120、HMDセンサ410、モーションセンサ420およびディスプレイ430との間で信号を通信する。HMD120に含まれるモニタ130,注視センサ140,第1カメラ150,第2カメラ160,マイク170およびスピーカ180は、HMD120の入出力インターフェイス240を介してコンピュータ200との通信を行ない得る。ある局面において、入出力インターフェイス240は、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。入出力インターフェイス240は上述のものに限られない。 Input/output interface 240 communicates signals between HMD 120 , HMD sensor 410 , motion sensor 420 and display 430 . Monitor 130 , gaze sensor 140 , first camera 150 , second camera 160 , microphone 170 and speaker 180 included in HMD 120 can communicate with computer 200 via input/output interface 240 of HMD 120 . In one aspect, the input/output interface 240 is implemented using a USB (Universal Serial Bus), DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), or other terminals. Input/output interface 240 is not limited to the one described above.

ある局面において、入出力インターフェイス240は、さらに、コントローラ300と通信し得る。例えば、入出力インターフェイス240は、コントローラ300およびモーションセンサ420から出力された信号の入力を受ける。別の局面において、入出力インターフェイス240は、プロセッサ210から出力された命令を、コントローラ300に送る。当該命令は、振動、音声出力、発光等をコントローラ300に指示する。コントローラ300は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。 In some aspects, input/output interface 240 may also communicate with controller 300 . For example, input/output interface 240 receives signals output from controller 300 and motion sensor 420 . In another aspect, input/output interface 240 sends instructions output from processor 210 to controller 300 . The command instructs the controller 300 to vibrate, output sound, emit light, or the like. Upon receiving the command, the controller 300 performs any one of vibration, sound output, or light emission according to the command.

通信インターフェイス250は、ネットワーク2に接続されて、ネットワーク2に接続されている他のコンピュータ(例えば、サーバ600)と通信する。ある局面において、通信インターフェイス250は、例えば、LAN(Local Area Network)その他の有線通信インターフェイス、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェイスとして実現される。通信インターフェイス250は上述のものに限られない。 The communication interface 250 is connected to the network 2 and communicates with other computers connected to the network 2 (for example, the server 600). In one aspect, the communication interface 250 is implemented as, for example, a LAN (Local Area Network) or other wired communication interface, or a WiFi (Wireless Fidelity), Bluetooth (registered trademark), NFC (Near Field Communication) or other wireless communication interface. be done. Communication interface 250 is not limited to the one described above.

ある局面において、プロセッサ210は、ストレージ230にアクセスし、ストレージ230に格納されている1つ以上のプログラムをメモリ220にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ210は、入出力インターフェイス240を介して、仮想空間を提供するための信号をHMD120に送る。HMD120は、その信号に基づいてモニタ130に画像を表示する。本実施形態において、プロセッサ210は、ストレージ230に記憶されているプログラム231を読み込みことで、生成部211、出力部212、取得部213、及び変更部214として機能しうる。これら各部の機能については、後の段落で詳述する。 In one aspect, processor 210 accesses storage 230, loads one or more programs stored in storage 230 into memory 220, and executes the sequences of instructions contained in the programs. The one or more programs may include an operating system of computer 200, an application program for providing virtual space, game software executable in virtual space, and the like. Processor 210 sends a signal for providing virtual space to HMD 120 via input/output interface 240 . HMD 120 displays an image on monitor 130 based on the signal. In this embodiment, the processor 210 can function as a generation unit 211 , an output unit 212 , an acquisition unit 213 , and a change unit 214 by reading a program 231 stored in the storage 230 . The function of each of these units will be detailed in later paragraphs.

図2に示される例では、コンピュータ200は、HMD120の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD120に内蔵されてもよい。一例として、モニタ130を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。 In the example shown in FIG. 2, computer 200 is provided outside HMD 120, but computer 200 may be built into HMD 120 in another aspect. As an example, a portable information communication terminal (for example, a smart phone) including monitor 130 may function as computer 200 .

コンピュータ200は、複数のHMD120に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。 The computer 200 may have a configuration that is commonly used by a plurality of HMDs 120 . According to such a configuration, for example, the same virtual space can be provided to a plurality of users, so each user can enjoy the same application as other users in the same virtual space.

ある実施の形態において、HMDシステム100では、現実空間における座標系である実座標系が予め設定されている。実座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、並びに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。実座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、実座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。 In one embodiment, in the HMD system 100, a real coordinate system, which is a coordinate system in real space, is set in advance. The real coordinate system has three reference directions (axes) parallel to the vertical direction in the real space, the horizontal direction perpendicular to the vertical direction, and the front-rear direction perpendicular to both the vertical and horizontal directions. The horizontal direction, vertical direction (vertical direction), and front-rear direction in the real coordinate system are defined as x-axis, y-axis, and z-axis, respectively. More specifically, in the real coordinate system, the x-axis is parallel to the horizontal direction of the real space. The y-axis is parallel to the vertical direction in real space. The z-axis is parallel to the front-back direction of the physical space.

ある局面において、HMDセンサ410は、赤外線センサを含む。赤外線センサが、HMD120の各光源から発せられた赤外線をそれぞれ検出すると、HMD120の存在を検出する。HMDセンサ410は、さらに、各点の値(実座標系における各座標値)に基づいて、HMD120を装着したユーザ5の動きに応じた、現実空間内におけるHMD120の位置および傾き(向き)を検出する。より詳しくは、HMDセンサ410は、経時的に検出された各値を用いて、HMD120の位置および傾きの時間的変化を検出できる。 In one aspect, HMD sensor 410 includes an infrared sensor. The presence of HMD 120 is detected when the infrared sensor detects infrared rays emitted from each light source of HMD 120 . The HMD sensor 410 further detects the position and inclination (orientation) of the HMD 120 in the physical space according to the movement of the user 5 wearing the HMD 120, based on the value of each point (each coordinate value in the real coordinate system). do. More specifically, the HMD sensor 410 can detect temporal changes in the position and tilt of the HMD 120 using each value detected over time.

HMDセンサ410によって検出されたHMD120の各傾きは、実座標系におけるHMD120の3軸周りの各傾きに相当する。HMDセンサ410は、実座標系におけるHMD120の傾きに基づき、uvw視野座標系をHMD120に設定する。HMD120に設定されるuvw視野座標系は、HMD120を装着したユーザ5が仮想空間において物体を見る際の視点座標系に対応する。 Each tilt of HMD 120 detected by HMD sensor 410 corresponds to each tilt of HMD 120 around three axes in the real coordinate system. The HMD sensor 410 sets the uvw visual field coordinate system to the HMD 120 based on the tilt of the HMD 120 in the real coordinate system. The uvw visual field coordinate system set in the HMD 120 corresponds to the viewpoint coordinate system when the user 5 wearing the HMD 120 sees an object in virtual space.

[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD120に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ410は、HMD120の起動時に、実座標系におけるHMD120の位置および傾きを検出する。プロセッサ210は、検出された値に基づいて、uvw視野座標系をHMD120に設定する。
[uvw visual field coordinate system]
The uvw visual field coordinate system will be described with reference to FIG. FIG. 3 is a diagram conceptually representing the uvw viewing coordinate system set in the HMD 120 according to one embodiment. HMD sensor 410 detects the position and tilt of HMD 120 in the real coordinate system when HMD 120 is activated. Processor 210 sets the uvw viewing coordinate system to HMD 120 based on the detected values.

図3に示されるように、HMD120は、HMD120を装着したユーザ5の頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD120は、実座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、実座標系内においてHMD120の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD120におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)として設定する。 As shown in FIG. 3 , the HMD 120 sets a three-dimensional uvw visual field coordinate system centered (origin) on the head of the user 5 wearing the HMD 120 . More specifically, the HMD 120 rotates the horizontal direction, the vertical direction, and the front-rear direction (x-axis, y-axis, and z-axis) defining the real coordinate system by tilts around each axis of the HMD 120 within the real coordinate system. The three directions newly obtained by tilting around the axes are set as the pitch axis (u-axis), yaw-axis (v-axis), and roll-axis (w-axis) of the uvw visual field coordinate system in the HMD 120 .

ある局面において、HMD120を装着したユーザ5が直立し、かつ、正面を視認している場合、プロセッサ210は、実座標系に平行なuvw視野座標系をHMD120に設定する。この場合、実座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD120におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)に一致する。 In one aspect, when user 5 wearing HMD 120 is standing upright and looking straight ahead, processor 210 sets HMD 120 to a uvw viewing coordinate system that is parallel to the real coordinate system. In this case, the horizontal direction (x-axis), vertical direction (y-axis), and front-back direction (z-axis) in the real coordinate system are the pitch axis (u-axis) and yaw-axis (v-axis) of the uvw visual field coordinate system in the HMD 120. , and the roll axis (w-axis).

uvw視野座標系がHMD120に設定された後、HMDセンサ410は、HMD120の動きに基づいて、設定されたuvw視野座標系におけるHMD120の傾きを検出できる。この場合、HMDセンサ410は、HMD120の傾きとして、uvw視野座標系におけるHMD120のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ軸周りのHMD120の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー軸周りのHMD120の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール軸周りのHMD120の傾き角度を表す。 After the uvw visual field coordinate system is set on the HMD 120 , the HMD sensor 410 can detect the tilt of the HMD 120 in the set uvw visual field coordinate system based on the movement of the HMD 120 . In this case, the HMD sensor 410 detects the pitch angle (θu), yaw angle (θv), and roll angle (θw) of the HMD 120 in the uvw visual field coordinate system as the tilt of the HMD 120 . The pitch angle (θu) represents the tilt angle of the HMD 120 around the pitch axis in the uvw visual field coordinate system. The yaw angle (θv) represents the tilt angle of the HMD 120 around the yaw axis in the uvw visual field coordinate system. A roll angle (θw) represents the tilt angle of the HMD 120 around the roll axis in the uvw visual field coordinate system.

HMDセンサ410は、検出されたHMD120の傾きに基づいて、HMD120が動いた後のHMD120におけるuvw視野座標系を、HMD120に設定する。HMD120と、HMD120のuvw視野座標系との関係は、HMD120の位置および傾きに関わらず、常に一定である。HMD120の位置および傾きが変わると、当該位置および傾きの変化に連動して、実座標系におけるHMD120のuvw視野座標系の位置および傾きが変化する。 The HMD sensor 410 sets the uvw visual field coordinate system in the HMD 120 after the HMD 120 moves based on the detected inclination of the HMD 120 to the HMD 120 . The relationship between the HMD 120 and the uvw visual field coordinate system of the HMD 120 is always constant regardless of the position and tilt of the HMD 120 . When the position and tilt of the HMD 120 change, the position and tilt of the uvw visual field coordinate system of the HMD 120 in the real coordinate system change in conjunction with the change in the position and tilt.

ある局面において、HMDセンサ410は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD120の現実空間内における位置を、HMDセンサ410に対する相対位置として特定してもよい。プロセッサ210は、特定された相対位置に基づいて、現実空間内(実座標系)におけるHMD120のuvw視野座標系の原点を決定してもよい。 In one aspect, HMD sensor 410 detects HMD 120 based on the infrared light intensity and the relative positional relationship between a plurality of points (for example, the distance between points) obtained based on the output from the infrared sensor. position in the physical space may be specified as a relative position with respect to the HMD sensor 410 . Processor 210 may determine the origin of the uvw visual field coordinate system of HMD 120 in physical space (real coordinate system) based on the specified relative position.

[プロセッサの機能]
図2に示したように、本実施形態において、プロセッサ210は、プログラム231を読み込みことで、生成部211、出力部212、取得部213、及び変更部214として機能しうる。以下、これらの各機能について説明をする。
[Processor function]
As shown in FIG. 2 , in this embodiment, the processor 210 can function as a generation unit 211 , an output unit 212 , an acquisition unit 213 , and a change unit 214 by reading a program 231 . Each of these functions will be described below.

生成部211は、画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザ5に提示する提示画像を生成する。仮想カメラの向き、仮想カメラと天球の位置関係、又は仮想カメラの視野角が変更されることに応じて、提示画像も変更されうる。提示画像の変更は、例えば、仮想カメラの向き等の変更に応じて、その時にHMD120に出力すべき画像をリアルタイムで描画して行う形式でもよい。また、提示画像の変更は、例えば、仮想カメラの視野外の画像についても予め描画しておき、仮想カメラの向き等の変更に応じて、その時にHMD120に出力する画像の範囲を変更する形式でもよい。天球に投影される画像は、例えば、サーバ600、外部機器700、又はストレージ230から取得したデータに基づいて生成されうる。なお、天球は、半径が無限遠に設定されているような大きなものではなく、所定の長さの半径を有するものである。 The generation unit 211 generates a presentation image to be presented to the user 5 based on the virtual camera arranged inside the celestial sphere on which the image is projected. The presentation image can also be changed according to the change in the direction of the virtual camera, the positional relationship between the virtual camera and the celestial sphere, or the viewing angle of the virtual camera. The presentation image may be changed, for example, by drawing the image to be output to the HMD 120 at that time in real time in accordance with the change in the direction of the virtual camera or the like. Alternatively, the presentation image may be changed, for example, by drawing an image outside the field of view of the virtual camera in advance, and changing the range of the image to be output to the HMD 120 at that time in accordance with the change in the direction of the virtual camera, etc. good. An image projected onto the celestial sphere can be generated based on data acquired from the server 600, the external device 700, or the storage 230, for example. Note that the celestial sphere is not a large one whose radius is set to infinity, but has a radius of a predetermined length.

出力部212は、生成部211が生成した提示画像を表示装置であるHMD120に出力する。提示画像が出力される表示装置は、HMD120に限定されず、その他の表示装置であってもよい。表示装置に出力された提示画像は、パノラマ画像としてユーザ5に提供される。 The output unit 212 outputs the presentation image generated by the generation unit 211 to the HMD 120, which is a display device. A display device for outputting a presentation image is not limited to the HMD 120, and may be another display device. The presentation image output to the display device is provided to the user 5 as a panoramic image.

取得部213は、センサ部によって検出されるユーザ5の身体の少なくとも一部の動きに関する動作情報を取得する。センサ部は、ユーザ5の身体の少なくとも一部の動きを検出可能なものであれば特に限定はされない。センサ部は、例えば、注視センサ140、センサ190、HMDセンサ410及びモーションセンサ420のうちの1以上によって構成される。なお、ユーザ5の身体の少なくとも一部とは、例えば、ユーザ5の頭部、手、指、及び目のうちの1以上が挙げられるが、センサ部によって動きを把握できる部位であれば、特に限定はされない。 Acquisition unit 213 acquires motion information regarding movement of at least part of the body of user 5 detected by the sensor unit. The sensor unit is not particularly limited as long as it can detect movement of at least part of the body of the user 5 . The sensor unit is configured by one or more of the gaze sensor 140, the sensor 190, the HMD sensor 410, and the motion sensor 420, for example. Note that at least a part of the body of the user 5 includes, for example, one or more of the head, hands, fingers, and eyes of the user 5, and particularly if it is a part whose movement can be grasped by the sensor unit. Not limited.

動作情報は、例えば、所定の基準平面に対するユーザ5の身体の少なくとも一部の傾きに関する傾き情報を含んでもよい。所定の基準平面としては、例えば、uvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、及びロール軸(w軸)のうちのいずれか2つの軸を含む平面が挙げられ、好ましくはピッチ軸(u軸)及びロール軸(w軸)を含む平面が挙げられるが、これに限定されない。また、動作情報は、例えば、上述の基準平面に平行な方向におけるユーザ5の身体の少なくとも一部の動きに関する第1動作情報を含んでもよい。 The motion information may include, for example, tilt information regarding the tilt of at least part of the body of the user 5 with respect to a predetermined reference plane. Examples of the predetermined reference plane include a plane containing any two of the pitch axis (u axis), yaw axis (v axis), and roll axis (w axis) of the uvw visual field coordinate system, A plane including the pitch axis (u-axis) and the roll axis (w-axis) is preferable, but not limited to this. The motion information may also include, for example, first motion information regarding motion of at least part of the body of the user 5 in a direction parallel to the reference plane described above.

変更部214は、取得部213が取得した動作情報に基づいて、仮想カメラと天球の位置関係又は仮想カメラの視野角を変更する。この変更によって、生成部211が生成する画像は拡大又は縮小される。変更部214は、例えば、上述の傾き情報及び第1動作情報のうちの1以上に基づいて、仮想カメラと天球の位置関係又は仮想カメラの視野角を変更する。 The changing unit 214 changes the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information acquired by the acquiring unit 213 . By this change, the image generated by the generation unit 211 is enlarged or reduced. The changing unit 214 changes the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera, for example, based on one or more of the tilt information and the first motion information.

ある局面において、変更部214は、天球内において仮想カメラの位置を移動させる。この場合、天球の半径を変更しないことが好ましいが、変更してもよい。また、ある局面において、変更部214は、天球の大きさ(半径)を変更する。この場合、仮想カメラの位置を変更しないことが好ましいが、変更してもよい。また、変更部214が仮想カメラの視野角を変更する場合、仮想カメラの位置及び天球の大きさを変更しないことが好ましいが、変更してもよい。なお、変更部214は、取得部213が取得した動作情報に基づいて仮想カメラの向きを変更しうる。 In one aspect, the changing unit 214 moves the position of the virtual camera within the celestial sphere. In this case, it is preferable not to change the radius of the celestial sphere, but it may be changed. Also, in a certain aspect, the changing unit 214 changes the size (radius) of the celestial sphere. In this case, it is preferable not to change the position of the virtual camera, but it may be changed. When the changing unit 214 changes the viewing angle of the virtual camera, it is preferable not to change the position of the virtual camera and the size of the celestial sphere, but they may be changed. Note that the changing unit 214 can change the orientation of the virtual camera based on the motion information acquired by the acquiring unit 213 .

変更部214による上記のような位置関係又は視野角の変更は、動作情報が所定の条件を満たした場合に実行されることが好ましい。所定の条件としては、例えば、ユーザ5の身体の少なくとも一部が、身体の少なくとも一部の周囲に設定された第1領域を超えて動くことが挙げられる。第1領域は、提示画像の拡大や縮小を意図していない小さな動作によって上記の変更がなされることを抑制する目的で設けられた領域である。第1領域の大きさは、上記目的を達成できる範囲であれば特に制限はされず、センサ部による動作検出の対象となる身体の部位に応じて適宜設定することができる。第1領域の大きさは、例えば、ユーザ5の年齢、性別、身長等に基づいて予め設定された値を持っていてもよいし、ユーザ5が任意に設定してもよい。ユーザ5の頭部の動きを検出対象とする場合、第1領域は、例えば、ユーザ5の頭部を中心とした半径5~150cmの球状または円状の領域としてもよい。これはユーザが座った座位の姿勢をとる場合と立った姿勢をとる場合で範囲が異なるためである。座位の場合は上限を50cm、立位の場合は上限を150cmとすることが考えられる。また、ユーザがいる空間の規模に応じて範囲を設定することも可能である。 The change in the positional relationship or viewing angle as described above by the change unit 214 is preferably executed when the motion information satisfies a predetermined condition. An example of the predetermined condition is that at least part of the body of the user 5 moves beyond a first region set around at least part of the body. The first area is an area provided for the purpose of suppressing the above change due to a small action not intended to enlarge or reduce the presentation image. The size of the first region is not particularly limited as long as the above purpose can be achieved, and can be appropriately set according to the part of the body whose motion is to be detected by the sensor unit. The size of the first region may have a preset value based on the age, sex, height, etc. of the user 5, or may be arbitrarily set by the user 5. FIG. When the movement of the head of the user 5 is to be detected, the first area may be, for example, a spherical or circular area centered on the head of the user 5 and having a radius of 5 to 150 cm. This is because the range differs depending on whether the user is sitting or standing. It is conceivable to set the upper limit to 50 cm for the sitting position and 150 cm for the standing position. It is also possible to set the range according to the scale of the space where the user is.

また、所定の条件は、例えば、動きの変化量が所定の閾値以上であることとしてもよい。動きの変化量とは、例えば、ユーザ5の身体の少なくとも一部の単位時間当たりの移動量である。この条件も、提示画像の拡大や縮小を意図していない小さな動作によって上記の変更がなされることを抑制する目的で設定されるものである。したがって、所定の閾値の大きさは、上記目的を達成できる範囲であれば特に制限はされず、センサ部による動作検出の対象となる身体の部位に応じて適宜設定することができる。所定の閾値の大きさは、例えば、ユーザ5の年齢、性別、身長等に基づいて予め設定された値を持っていてもよいし、ユーザ5が任意に設定してもよい。ユーザ5の頭部の動きを検出対象とする場合、所定の閾値は、例えば、0.1~1秒当たり5~50cmの範囲としてもよい。また、動きの変化量に加えて又は代えて、動きの速度や加速度が所定の閾値以上であることを所定の条件としてもよい。 Also, the predetermined condition may be, for example, that the amount of change in motion is equal to or greater than a predetermined threshold. The amount of change in motion is, for example, the amount of movement of at least part of the body of the user 5 per unit time. This condition is also set for the purpose of suppressing the above change due to a small action not intended to enlarge or reduce the presentation image. Therefore, the magnitude of the predetermined threshold value is not particularly limited as long as it is within a range where the above object can be achieved, and can be appropriately set according to the part of the body targeted for motion detection by the sensor unit. The size of the predetermined threshold value may have a preset value based on the age, sex, height, etc. of the user 5, or may be arbitrarily set by the user 5. FIG. When the movement of the head of the user 5 is to be detected, the predetermined threshold value may range from 0.1 to 5 to 50 cm per second, for example. Further, in addition to or instead of the amount of change in motion, the predetermined condition may be that the speed or acceleration of motion is equal to or greater than a predetermined threshold.

また、所定の条件は、動作情報に含まれる傾き情報が示す傾きの大きさが所定の範囲内にあることとしてもよい。すなわち、傾き情報が示す傾きの大きさが所定の範囲外にある場合、上記のような位置関係又は視野角の変更を実行しないようにしてもよい。具体的には、変更部214は、傾き情報が示す傾きの大きさが所定の範囲内にある場合に、上述の基準平面に平行な方向におけるユーザ5の身体の少なくとも一部の動き(第1動作情報)に基づいて、上記の位置関係又は視野角を変更するように構成してもよい。この条件は、提示画像の拡大や縮小を意図していないと思われる動作中に上記の変更がなされることを抑制する目的で設定されるものである。提示画像の拡大や縮小を意図していないと思われる動作とは、例えば、ストレッチのために顔を真上や真下に向けるような動作などが挙げられる。所定の範囲は、上記目的を達成できる範囲であれば特に制限はされず、センサ部による動作検出の対象となる身体の部位に応じて適宜設定することができる。 Also, the predetermined condition may be that the magnitude of the tilt indicated by the tilt information included in the motion information is within a predetermined range. That is, if the magnitude of the tilt indicated by the tilt information is outside the predetermined range, the change in positional relationship or viewing angle as described above may not be executed. Specifically, when the magnitude of the tilt indicated by the tilt information is within a predetermined range, the changing unit 214 moves at least part of the body of the user 5 in the direction parallel to the reference plane (first The positional relationship or the viewing angle may be changed based on the motion information). This condition is set for the purpose of preventing the above change from being made during an operation that does not seem to be intended for enlarging or reducing the presentation image. Actions that are not intended to enlarge or reduce the presentation image include, for example, actions such as turning the face straight up or straight down for stretching. The predetermined range is not particularly limited as long as the above object can be achieved, and can be appropriately set according to the part of the body whose motion is to be detected by the sensor unit.

[動作処理]
次に、本実施形態に係るHMDシステム100による動作処理について説明をする。以下では、センサ部によってユーザ5の頭部の動きに関する動作情報を取得する場合を例に挙げるが、本開示は、この例に限定されるものではない。また、本明細書において説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。
[Operation processing]
Next, operation processing by the HMD system 100 according to this embodiment will be described. A case will be described below where motion information regarding the movement of the head of the user 5 is acquired by the sensor unit, but the present disclosure is not limited to this example. Further, the order of each process constituting the flowcharts described in this specification may be random as long as there is no contradiction or inconsistency in the contents of the process, and the processes may be executed in parallel.

図4は、ある実施の形態に従う動作処理の一例を示すフローチャートである。まず、ステップS1において、プロセッサ210は、仮想空間を生成する。仮想空間は、例えば、ストレージ230、サーバ600、又は外部機器700から取得したデータに基づいて生成される。仮想空間には、仮想カメラと、所定の長さの半径を有する天球が含まれる。仮想空間には、その他の仮想オブジェクトが含まれてもよい。 FIG. 4 is a flowchart illustrating an example of operational processing according to an embodiment. First, in step S1, processor 210 generates a virtual space. A virtual space is generated based on data acquired from the storage 230, the server 600, or the external device 700, for example. The virtual space includes a virtual camera and a celestial sphere having a predetermined length and radius. The virtual space may contain other virtual objects.

ステップS2において、プロセッサ210は、天球に画像を投影する。ステップS3において、プロセッサ210は、画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザ5に提示する提示画像(パノラマ画像)を生成する。次に、ステップS4において、プロセッサ210は、ステップS3で生成した提示画像を表示装置であるHMD120へと出力する。 At step S2, the processor 210 projects the image onto the celestial sphere. In step S3, the processor 210 generates a presentation image (panorama image) to be presented to the user 5 based on the virtual camera arranged inside the celestial sphere on which the image is projected. Next, in step S4, processor 210 outputs the presentation image generated in step S3 to HMD 120, which is a display device.

ステップS5において、プロセッサ210は、センサ部によって検出されたユーザ5の頭部の動きに関する動作情報を取得する。ステップS5は、所定の時間間隔で繰り返し実行されうる。ステップS5で取得した動作情報が所定の条件を満たさない場合(ステップS6においてNo)、後述のステップS7の処理は実行されない。ステップS5における所定の条件は、上述した各条件のうちの1以上とすることが好ましい。 In step S5, the processor 210 acquires motion information regarding the movement of the head of the user 5 detected by the sensor unit. Step S5 can be repeatedly performed at predetermined time intervals. If the motion information acquired in step S5 does not satisfy the predetermined condition (No in step S6), the process of step S7, which will be described later, is not executed. The predetermined condition in step S5 is preferably one or more of the conditions described above.

ステップS5で取得した動作情報が所定の条件を満たす場合(ステップS6においてYes)、ステップS7において、プロセッサ210は、その動作情報に基づいて、仮想カメラと天球の位置関係又は仮想カメラの視野角を変更し、終了する。ステップS7の処理によって、提示画像は、拡大又は縮小される。 If the motion information acquired in step S5 satisfies a predetermined condition (Yes in step S6), in step S7 processor 210 determines the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information. change and exit. The presentation image is enlarged or reduced by the processing in step S7.

以下、図5から図9を用いて、図4のフローチャートに示されるいくつかの処理に関してより具体的に説明をする。図5は、ある実施の形態に従う提示画像500の拡大及び縮小の一例を示す模式図である。図5の提示画像500は、図4のステップS4にてHMD120へ出力される画像である。図5の例において、提示画像500には、キャラクタ501及びオブジェクト502が含まれている。提示画像500A及び500Bは、提示画像500が拡大又は縮小されたものである。 Hereinafter, some processes shown in the flowchart of FIG. 4 will be described more specifically with reference to FIGS. 5 to 9. FIG. FIG. 5 is a schematic diagram showing an example of enlargement and reduction of a presentation image 500 according to an embodiment. A presentation image 500 in FIG. 5 is an image output to the HMD 120 in step S4 in FIG. In the example of FIG. 5 , a presentation image 500 includes a character 501 and an object 502 . Presented images 500A and 500B are obtained by enlarging or reducing presenting image 500 .

提示画像500Aは、ステップS5で取得した動作情報Aに基づいてステップS7の処理を実行した結果、提示画像500が拡大されたものである。提示画像500Aにおけるキャラクタ501及びオブジェクト502は、提示画像500におけるキャラクタ501及びオブジェクト502よりも拡大されている。また、拡大された結果、天球に投影された画像のうちで提示画像500Aに含まれる範囲は、提示画像500よりも狭くなっている。なお、動作情報Aは、特に制限はされないが、例えば、ユーザ5が頭部を現在の視線方向側(以下、「前方側」とも称する)に動かしたことを示す情報を含むものである。 A presentation image 500A is obtained by enlarging the presentation image 500 as a result of executing the process of step S7 based on the motion information A acquired in step S5. Character 501 and object 502 in presentation image 500A are enlarged more than character 501 and object 502 in presentation image 500 . As a result of the enlargement, the range included in the presentation image 500A among the images projected onto the celestial sphere is narrower than the presentation image 500. FIG. The motion information A is not particularly limited, but includes, for example, information indicating that the user 5 has moved the head toward the current viewing direction (hereinafter also referred to as "forward").

提示画像500Bは、ステップS5で取得した動作情報Bに基づいてステップS7の処理を実行した結果、提示画像500が縮小されたものである。提示画像500Bにおけるキャラクタ501及びオブジェクト502は、提示画像500におけるキャラクタ501及びオブジェクト502よりも縮小されている。また、縮小された結果、天球に投影された画像のうちで提示画像500Bに含まれる範囲は提示画像500よりも広くなっており、提示画像500Bには、提示画像500には含まれていなかったオブジェクト503が含まれている。なお、動作情報Bは、特に制限はされないが、例えば、ユーザ5が頭部を現在の視線方向とは反対側(以下、「後方側」とも称する)に動かしたことを示す情報を含むものである。 A presentation image 500B is obtained by reducing the presentation image 500 as a result of executing the process of step S7 based on the motion information B acquired in step S5. The character 501 and the object 502 in the presentation image 500B are smaller than the character 501 and the object 502 in the presentation image 500. FIG. In addition, as a result of the reduction, the range included in the presentation image 500B among the images projected on the celestial sphere was wider than the presentation image 500, and the presentation image 500B was not included in the presentation image 500. Object 503 is included. The motion information B is not particularly limited, but includes, for example, information indicating that the user 5 has moved the head to the side opposite to the current line of sight direction (hereinafter also referred to as "backward side").

図6から図8は、図4のステップS7の処理に関連する。図6は、ある実施の形態に従う仮想カメラ602と天球601の位置関係の変更の一例を示す模式図である。具体的には、図6は、ステップS7において天球601内の仮想カメラ602の位置を移動させることによって、提示画像500を拡大又は縮小する場合の例である。なお、図6の例では、天球601の半径r1及び仮想カメラ602の視野角θ1は変更していないが、動作情報又はユーザ5によるその他の操作入力に応じて、半径r1及び視野角θ1のうちの少なくとも一方を変更するように構成してもよい。 6 to 8 relate to the process of step S7 in FIG. FIG. 6 is a schematic diagram showing an example of changing the positional relationship between the virtual camera 602 and the celestial sphere 601 according to an embodiment. Specifically, FIG. 6 shows an example in which the presentation image 500 is enlarged or reduced by moving the position of the virtual camera 602 within the celestial sphere 601 in step S7. In the example of FIG. 6, the radius r1 of the celestial sphere 601 and the viewing angle θ1 of the virtual camera 602 are not changed. may be configured to change at least one of

図6に示す状態610は、ステップS4における天球601及び仮想カメラ602との位置関係の一例を示している。状態610において、仮想カメラ602は、天球601の中心である位置P1に配置されている。状態610においてHMD120に出力される画像は、例えば、図5に示す提示画像500である。 A state 610 shown in FIG. 6 shows an example of the positional relationship between the celestial sphere 601 and the virtual camera 602 in step S4. In state 610 , virtual camera 602 is positioned at position P 1 , which is the center of celestial sphere 601 . The image output to the HMD 120 in state 610 is, for example, the presentation image 500 shown in FIG.

状態610Aは、状態610のときに取得した動作情報Aに基づいて、ステップS7の処理を実行した後の状態である。状態610Aにおいて、仮想カメラ602は、位置P2に位置している。位置P2は、位置P1よりも前方側にある。すなわち、ステップS7において、仮想カメラ602を前方側へ移動させ、天球601との位置関係を変更したことになる。言い換えると、前方側において、仮想カメラ602と天球601との距離を近づけたことになる。よって、状態610AにおいてHMD120に出力される画像は、状態610において出力される画像を拡大したものとなり、例えば、図5に示す提示画像500Aとなる。 A state 610A is a state after the process of step S7 is executed based on the motion information A acquired in the state 610. FIG. In state 610A, virtual camera 602 is positioned at position P2. Position P2 is on the front side of position P1. That is, in step S7, the virtual camera 602 is moved forward and the positional relationship with the celestial sphere 601 is changed. In other words, the distance between the virtual camera 602 and the celestial sphere 601 is reduced on the front side. Therefore, the image output to the HMD 120 in state 610A is an enlarged version of the image output in state 610, and is, for example, presentation image 500A shown in FIG.

状態610Bは、状態610のときに取得した動作情報Bに基づいて、ステップS7の処理を実行した後の状態である。状態610Bにおいて、仮想カメラ602は、位置P3に位置している。位置P3は、位置P1よりも後方側にある。すなわち、ステップS7において、仮想カメラ602を後方側へ移動させ、天球601との位置関係を変更したことになる。言い換えると、前方側において、仮想カメラ602と天球601との距離を遠ざけたことになる。よって、状態610BにおいてHMD120に出力される画像は、状態610において出力される画像を縮小したものとなり、例えば、図5に示す提示画像500Bとなる。 A state 610B is a state after the process of step S7 is executed based on the motion information B acquired in the state 610. FIG. In state 610B, virtual camera 602 is positioned at position P3. Position P3 is on the rear side of position P1. That is, in step S7, the virtual camera 602 is moved backward to change the positional relationship with the celestial sphere 601. FIG. In other words, the distance between the virtual camera 602 and the celestial sphere 601 is increased on the front side. Therefore, the image output to the HMD 120 in state 610B is a reduced version of the image output in state 610, and is, for example, presentation image 500B shown in FIG.

図7は、ある実施の形態に従う仮想カメラ602と天球601の位置関係の変更の一例を示す模式図である。具体的には、図7は、ステップS7において天球601の半径r1の大きさを変更することによって、提示画像500を拡大又は縮小する場合の例である。なお、図7の例では、仮想カメラ602の位置P1及び視野角θ1は変更していないが、動作情報又はユーザ5によるその他の操作入力に応じて、位置P1及び視野角θ1のうちの少なくとも一方を変更するように構成してもよい。 FIG. 7 is a schematic diagram showing an example of changing the positional relationship between virtual camera 602 and celestial sphere 601 according to an embodiment. Specifically, FIG. 7 shows an example of enlarging or reducing the presentation image 500 by changing the size of the radius r1 of the celestial sphere 601 in step S7. In the example of FIG. 7, the position P1 and the viewing angle θ1 of the virtual camera 602 are not changed. may be configured to change

図7に示す状態610は、図6に示す状態610と同様であるため説明を省略する。状態710Aは、状態610のときに取得した動作情報Aに基づいて、ステップS7の処理を実行した後の状態である。状態710Aにおける天球601Aは、天球601の半径r1よりも小さい半径r2を有する。すなわち、ステップS7において、天球601を小さくして天球601Aにする処理がなされている。その結果、前方側において、仮想カメラ602と天球601Aとの距離は、仮想カメラ602と天球601との距離よりも短くなっている。よって、状態710AにおいてHMD120に出力される画像は、状態610において出力される画像を拡大したものとなり、例えば、図5に示す提示画像500Aとなる。 The state 610 shown in FIG. 7 is the same as the state 610 shown in FIG. 6, so the description is omitted. A state 710A is a state after the processing of step S7 is executed based on the motion information A acquired in the state 610. FIG. Celestial sphere 601A in state 710A has radius r2 that is smaller than radius r1 of celestial sphere 601. FIG. That is, in step S7, the celestial sphere 601 is reduced to a celestial sphere 601A. As a result, the distance between the virtual camera 602 and the celestial sphere 601A is shorter than the distance between the virtual camera 602 and the celestial sphere 601 on the front side. Therefore, the image output to the HMD 120 in state 710A is an enlarged version of the image output in state 610, and is, for example, presentation image 500A shown in FIG.

状態710Bは、状態610のときに取得した動作情報Bに基づいて、ステップS7の処理を実行した後の状態である。状態710Bにおける天球601Bは、天球601の半径r1よりも大きい半径r3を有する。すなわち、ステップS7において、天球601を大きくして天球601Bにする処理がなされている。その結果、前方側において、仮想カメラ602と天球601Bとの距離は、仮想カメラ602と天球601との距離よりも長くなっている。よって、状態710BにおいてHMD120に出力される画像は、状態610において出力される画像を縮小したものとなり、例えば、図5に示す提示画像500Bとなる。 A state 710B is a state after the process of step S7 is executed based on the motion information B acquired in the state 610. FIG. Celestial sphere 601B in state 710B has a radius r3 that is greater than radius r1 of celestial sphere 601 . That is, in step S7, the celestial sphere 601 is enlarged to become the celestial sphere 601B. As a result, the distance between the virtual camera 602 and the celestial sphere 601B is longer than the distance between the virtual camera 602 and the celestial sphere 601 on the front side. Therefore, the image output to the HMD 120 in state 710B is a reduced version of the image output in state 610, and is, for example, presentation image 500B shown in FIG.

図8は、ある実施の形態に従う仮想カメラと天球の位置関係の変更の一例を示す模式図である。具体的には、図8は、ステップS7において仮想カメラ602の視野角θ1の大きさを変更することによって、提示画像500を拡大又は縮小する場合の例である。なお、図8の例では、天球601の半径r1及び仮想カメラ602の位置P1は変更していないが、動作情報又はユーザ5によるその他の操作入力に応じて、半径r1及び位置P1のうちの少なくとも一方を変更するように構成してもよい。 FIG. 8 is a schematic diagram showing an example of changing the positional relationship between the virtual camera and the celestial sphere according to an embodiment. Specifically, FIG. 8 shows an example in which the presentation image 500 is enlarged or reduced by changing the viewing angle θ1 of the virtual camera 602 in step S7. In the example of FIG. 8, the radius r1 of the celestial sphere 601 and the position P1 of the virtual camera 602 are not changed. It may be configured to change one.

図8に示す状態610は、図6に示す状態610と同様であるため説明を省略する。状態810Aは、状態610のときに取得した動作情報Aに基づいて、ステップS7の処理を実行した後の状態である。状態810Aにおける仮想カメラ602の視野角θ2は、状態610における仮想カメラ602の視野角θ1よりも小さい。すなわち、ステップS7において、仮想カメラ602の視野角が視野角θ1より小さくなるように変更する処理がなされている。その結果、仮想カメラ602の視野に含まれる天球601の範囲は狭くなり、その狭い範囲が拡大されてユーザ5に提供される。すなわち、状態810AにおいてHMD120に出力される画像は、状態610において出力される画像を拡大したものとなり、例えば、図5に示す提示画像500Aとなる。 The state 610 shown in FIG. 8 is the same as the state 610 shown in FIG. 6, so description thereof will be omitted. A state 810A is a state after the processing of step S7 is executed based on the motion information A acquired in the state 610. FIG. Viewing angle θ 2 of virtual camera 602 in state 810A is smaller than viewing angle θ 1 of virtual camera 602 in state 610 . That is, in step S7, the viewing angle of the virtual camera 602 is changed so as to be smaller than the viewing angle θ1. As a result, the range of the celestial sphere 601 included in the field of view of the virtual camera 602 is narrowed, and the narrow range is enlarged and provided to the user 5 . That is, the image output to HMD 120 in state 810A is an enlarged version of the image output in state 610, and is, for example, presentation image 500A shown in FIG.

状態810Bは、状態610のときに取得した動作情報Bに基づいて、ステップS7の処理を実行した後の状態である。状態810Bにおける仮想カメラ602の視野角θ3は、状態610における仮想カメラ602の視野角θ1よりも大きい。すなわち、ステップS7において、仮想カメラ602の視野角が視野角θ1より大きくなるように変更する処理がなされている。その結果、仮想カメラ602の視野に含まれる天球601の範囲は広くなり、その広い範囲が縮小されてユーザ5に提供される。すなわち、状態810BにおいてHMD120に出力される画像は、状態610において出力される画像を縮小したものとなり、例えば、図5に示す提示画像500Bとなる。 A state 810B is a state after the processing of step S7 is executed based on the motion information B acquired in the state 610. FIG. Viewing angle θ 3 of virtual camera 602 in state 810B is greater than viewing angle θ 1 of virtual camera 602 in state 610 . That is, in step S7, the viewing angle of the virtual camera 602 is changed to be larger than the viewing angle θ1. As a result, the range of the celestial sphere 601 included in the field of view of the virtual camera 602 is widened, and the wide range is reduced and provided to the user 5 . That is, the image output to the HMD 120 in state 810B is a reduced version of the image output in state 610, and is, for example, presentation image 500B shown in FIG.

図9は、図4のステップS5からステップS7の処理に関連する。図9は、ある実施の形態に従う仮想空間901Aと現実空間901Bの関係の一例を示す模式図である。図9の例では、仮想カメラ602は位置P1に存在しており、ユーザ5は位置Q1に存在している。センサ部は、例えば、現実空間901Bにおけるユーザ5の頭部の動きを検出し、動作情報としてコンピュータ200に送信する。プロセッサ210は、動作情報が所定の条件を満たした場合に、例えば、仮想空間901Aにおける仮想カメラ602の位置及び視野角、並びに天球601の半径r1のうちの1以上を変更する。 FIG. 9 relates to the processing from step S5 to step S7 in FIG. FIG. 9 is a schematic diagram showing an example of the relationship between virtual space 901A and real space 901B according to an embodiment. In the example of FIG. 9, virtual camera 602 exists at position P1 and user 5 exists at position Q1. The sensor unit detects, for example, the movement of the head of the user 5 in the physical space 901B and transmits it to the computer 200 as movement information. The processor 210 changes, for example, one or more of the position and viewing angle of the virtual camera 602 in the virtual space 901A and the radius r1 of the celestial sphere 601 when the motion information satisfies a predetermined condition.

現実空間901Bにおいて、ユーザ5の頭部の位置(図9では位置Q1)の周囲に境界線904が設定されている。境界線904の内部は、第1領域として設定されている。仮想空間901Aにおける境界線604は、境界線904に対応する。ユーザ5の頭部の位置が境界線904を超えて動いた場合、ステップS6において所定の条件を満たすと判定され、例えば、仮想カメラ602が境界線604を超えて動く等、上述したようなステップS7の処理が実行される。一方で、ユーザ5の頭部の位置が境界線904を超えて動かない場合、ステップS6において所定の条件を満たすとは判定されず、例えば、仮想カメラ602の位置の変更等はなされない。 In the physical space 901B, a boundary line 904 is set around the position of the head of the user 5 (position Q1 in FIG. 9). The inside of the boundary line 904 is set as the first area. A boundary line 604 in the virtual space 901 A corresponds to the boundary line 904 . When the position of the head of the user 5 moves beyond the boundary line 904, it is determined in step S6 that the predetermined condition is satisfied, and the steps described above, such as moving the virtual camera 602 beyond the boundary line 604, for example, are performed. The process of S7 is executed. On the other hand, when the position of the head of the user 5 does not move beyond the boundary line 904, it is not determined in step S6 that the predetermined condition is satisfied, and the position of the virtual camera 602, for example, is not changed.

なお、図9の例において、境界線904は、例えば、ユーザ5の頭部の位置を中心とする、半径R5の球体の外縁である。境界線904は、例えば、基準平面上にある半径R5の円の外縁としてしてもよい。境界線904は、例えば、その位置をリセットするための操作がユーザ5によってなされるまでは同じ位置であってもよい。また、境界線904は、例えば、所定の時間間隔又はユーザ5の頭部の動きが停止する等のタイミングで、そのときのユーザ5の頭部の位置を中心として設定されてもよい。境界線604は、例えば、仮想カメラ602の位置を中心とする、半径r5の球体又は円の外縁である。境界線604の位置は、境界線904に応じて変更される。 Note that in the example of FIG. 9, the boundary line 904 is, for example, the outer edge of a sphere centered at the position of the head of the user 5 and having a radius R5. Boundary line 904 may be, for example, the outer edge of a circle of radius R5 on the reference plane. The boundary line 904 may be at the same position until, for example, an action is taken by the user 5 to reset its position. Also, the boundary line 904 may be set around the position of the head of the user 5 at predetermined time intervals or timing such as when the movement of the head of the user 5 stops, for example. Boundary 604 is, for example, the outer edge of a sphere or circle centered at the position of virtual camera 602 and having radius r5. The position of boundary line 604 is changed according to boundary line 904 .

また、仮想空間901Aには、境界線603が設定されている。境界線603は、例えば、天球601の内縁よりも内側に設けられ、中心が位置P1であり、半径r4(<r1)の球体の外縁である。境界線603の内側の領域は、仮想カメラ602が移動可能な移動可能領域として設定されている。仮想空間901Aにおける境界線903は、境界線603に対応するものであるが、ユーザ5が境界線903を超えて動いたとしても、仮想カメラ602が境界線603の外側へ移動することはない。なお、境界線603の半径r4と境界線903の半径R4との比(r4/R4)は、ユーザ5が動いた距離に対して仮想カメラ602がどれだけ動くかを示す尺度となる。半径r4と半径R4の比は、特に制限されず、投影する画像の種類やユーザの選択等に応じて適宜設定可能である。 A boundary line 603 is set in the virtual space 901A. The boundary line 603 is provided, for example, inside the inner edge of the celestial sphere 601, and is the outer edge of a sphere whose center is the position P1 and whose radius is r4 (<r1). An area inside the boundary line 603 is set as a movable area in which the virtual camera 602 can move. A boundary line 903 in the virtual space 901 A corresponds to the boundary line 603 , but even if the user 5 moves beyond the boundary line 903 , the virtual camera 602 does not move outside the boundary line 603 . Note that the ratio (r4/R4) between the radius r4 of the boundary line 603 and the radius R4 of the boundary line 903 is a scale indicating how much the virtual camera 602 moves with respect to the distance the user 5 has moved. The ratio of the radius r4 to the radius R4 is not particularly limited, and can be appropriately set according to the type of image to be projected, user's selection, and the like.

ここで、ステップS7が天球601の半径r1を変更する処理を含む場合は、半径r1の最小値及び最大値が設定されていることが好ましい。すなわち、例えば、ユーザ5が前方側へ進むほど天球601の半径r1が小さくなるように設定されている場合であっても、半径r1が最小値に達した後は、ユーザ5がそれ以上前方側へ進んだとしても半径の変更はなされないことが好ましい。同様に、例えば、後方側へ進むほど天球601の半径r1が大きくなるように設定されている場合であっても、半径r1が最大値に達した後は、ユーザ5がそれ以上後方側へ進んだとしても半径の変更はなされないことが好ましい。半径r1の最小値及び最大値は、特に制限されず、投影する画像の種類やユーザの選択等に応じて適宜設定可能である。 Here, if step S7 includes a process of changing the radius r1 of the celestial sphere 601, it is preferable that the minimum and maximum values of the radius r1 are set. That is, for example, even if the radius r1 of the celestial sphere 601 is set to decrease as the user 5 moves forward, after the radius r1 reaches the minimum value, the user 5 moves further forward. It is preferred that no change in radius is made when advancing to . Similarly, for example, even if the radius r1 of the celestial sphere 601 is set to increase as the user 5 moves backward, after the radius r1 reaches the maximum value, the user 5 moves further backward. Even so, preferably no change in radius is made. The minimum and maximum values of the radius r1 are not particularly limited, and can be appropriately set according to the type of image to be projected, user's selection, and the like.

同様に、ステップS7が仮想カメラ602の視野角θ1を変更する処理を含む場合は、視野角θ1の最小値及び最大値が設定されていることが好ましい。すなわち、例えば、ユーザ5が前方側へ進むほど視野角θ1が小さくなるように設定されている場合であっても、視野角θ1が最小値に達した後は、ユーザ5がそれ以上前方側へ進んだとしても視野角の変更はなされないことが好ましい。同様に、例えば、後方側へ進むほど天球601の視野角θ1が大きくなるように設定されている場合であっても、視野角θ1が最大値に達した後は、ユーザ5がそれ以上後方側へ進んだとしても視野角の変更はなされないことが好ましい。視野角θ1の最小値及び最大値は、特に制限されず、投影する画像の種類やユーザの選択等に応じて適宜設定可能である。 Similarly, if step S7 includes processing for changing the viewing angle θ1 of the virtual camera 602, it is preferable that the minimum and maximum values of the viewing angle θ1 are set. That is, for example, even if the viewing angle θ1 is set to decrease as the user 5 moves forward, after the viewing angle θ1 reaches the minimum value, the user 5 moves further forward. It is preferable that no change in viewing angle is made even if it advances. Similarly, for example, even if the viewing angle θ1 of the celestial sphere 601 is set to increase toward the rear side, after the viewing angle θ1 reaches the maximum value, the user 5 may move further toward the rear side. It is preferable that the viewing angle is not changed even if the viewing angle is advanced to . The minimum and maximum values of the viewing angle θ1 are not particularly limited, and can be appropriately set according to the type of image to be projected, user's selection, and the like.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from its spirit, and that equivalents thereof are included in the present invention.

[付記事項]
本開示の内容を列記すると以下の通りである。
[Additional notes]
The contents of the present disclosure are listed below.

(項目1)
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成するステップと、
前記提示画像を表示装置に出力するステップと、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得するステップと、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更するステップと、を実行させる、
プログラム。
これにより、パノラマ画像をユーザに提供する場合において、ユーザビリティを向上させる。具体的には、ユーザは、身体の少なくとも一部を動かすことによって、パノラマ画像を拡大又は縮小して見ることが可能になる。また、これらにより、新たなユーザ体験を提供することが可能になる。
(Item 1)
A program executed on a computer with a processor,
The program causes the processor to:
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
a step of acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
program.
This improves usability when providing a panoramic image to the user. Specifically, the user can enlarge or reduce the panoramic image by moving at least a part of the body. Moreover, it becomes possible to provide a new user experience by these.

(項目2)
前記変更するステップは、前記天球内において前記仮想カメラの位置を移動させることを含む、
項目1に記載のプログラム。
これにより、ユーザの動作に応じて仮想カメラの位置が動くことになるため、ユーザは、パノラマ画像の拡大又は縮小を直感的に行うことが可能になる。
(Item 2)
the changing step includes moving the position of the virtual camera within the celestial sphere;
The program of item 1.
As a result, the position of the virtual camera moves according to the user's motion, so the user can intuitively enlarge or reduce the panorama image.

(項目3)
前記天球の内縁よりも内側に、前記仮想カメラが移動可能な移動可能領域が設定されている、
項目2に記載のプログラム。
これにより、仮想カメラが天球を超えて動くことを防止し、ユーザにとってパノラマ画像が見えなくなる又は拡大されすぎて見えにくいといった事態が生じることが抑制できる。
(Item 3)
a movable area in which the virtual camera can move is set inside the inner edge of the celestial sphere;
A program according to item 2.
This prevents the virtual camera from moving beyond the celestial sphere, and prevents the user from seeing the panoramic image or from seeing the panoramic image because it is too enlarged.

(項目4)
前記変更するステップは、前記天球の大きさを変更することを含む、
項目1に記載のプログラム。
これにより、ユーザの動作に応じて天球の大きさが変わることになるため、ユーザは、パノラマ画像の拡大又は縮小を直感的に行うことが可能になる。
(Item 4)
the modifying step includes modifying the size of the celestial sphere;
The program of item 1.
As a result, the size of the celestial sphere changes according to the user's motion, so the user can intuitively enlarge or reduce the panorama image.

(項目5)
前記変更するステップは、前記身体の少なくとも一部が、前記身体の少なくとも一部の周囲に設定された第1領域を超えて動いた場合に実行される、
項目1から項目4のいずれか一項に記載のプログラム。
これにより、パノラマ画像の拡大や縮小を意図していない小さな動作によって拡大や縮小がなされることを抑制でき、結果として、さらにユーザビリティを向上することができる。
(Item 5)
The modifying step is performed when at least part of the body moves beyond a first region set around at least part of the body.
The program according to any one of items 1 to 4.
As a result, it is possible to prevent the panorama image from being enlarged or reduced by a small operation that is not intended to enlarge or reduce the panoramic image, and as a result, usability can be further improved.

(項目6)
前記変更するステップは、前記動きの変化量が所定の閾値以上である場合に実行される、
項目1から項目4のいずれか一項に記載のプログラム。
これにより、パノラマ画像の拡大や縮小を意図していない小さな動作によって拡大や縮小がなされることを抑制でき、結果として、さらにユーザビリティを向上することができる。
(Item 6)
The changing step is executed when the change amount of the movement is equal to or greater than a predetermined threshold,
The program according to any one of items 1 to 4.
As a result, it is possible to prevent the panorama image from being enlarged or reduced by a small operation that is not intended to enlarge or reduce the panoramic image, and as a result, usability can be further improved.

(項目7)
前記動作情報は、所定の基準平面に対する前記ユーザの身体の少なくとも一部の傾きに関する傾き情報を含み、
前記変更するステップは、前記基準平面に平行な方向における前記動きに基づいて、前記位置関係又は前記視野角を変更することを含み、
前記変更するステップは、前記傾きの大きさが所定の範囲外にある場合には実行されない、
項目1から項目6のいずれか一項に記載のプログラム。
これにより、パノラマ画像の拡大や縮小を意図していないと思われる動作によって拡大や縮小がなされることを抑制でき、結果として、さらにユーザビリティを向上することができる。
(Item 7)
the motion information includes tilt information about the tilt of at least part of the user's body with respect to a predetermined reference plane;
The modifying step includes modifying the positional relationship or the viewing angle based on the movement in a direction parallel to the reference plane;
the changing step is not performed if the magnitude of the slope is outside a predetermined range;
The program according to any one of items 1 to 6.
As a result, it is possible to prevent the panorama image from being enlarged or reduced by an operation that is not intended to enlarge or reduce the panoramic image, and as a result, usability can be further improved.

(項目8)
前記表示装置は、ヘッドマウントデバイスであり、
前記検出するステップは、前記ユーザの頭部の動きを前記センサ部によって検出することを含む、
項目1から項目7のいずれか一項に記載のプログラム。
この態様は、本開示の好ましい適用例である。
(Item 8)
The display device is a head-mounted device,
The detecting step includes detecting movement of the user's head by the sensor unit,
The program according to any one of items 1 to 7.
This aspect is a preferred application example of the present disclosure.

(項目9)
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成するステップと、
前記提示画像を表示装置に出力するステップと、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得するステップと、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更するステップと、を実行させることを含む、
情報処理方法。
これにより、パノラマ画像をユーザに提供する場合において、ユーザビリティを向上させる。具体的には、ユーザは、身体の少なくとも一部を動かすことによって、提示画像を拡大又は縮小して見ることが可能になる。また、これらにより、新たなユーザ体験を提供することが可能になる。
(Item 9)
An information processing method executed in a computer having a processor,
The information processing method includes:
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
a step of acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
Information processing methods.
This improves usability when providing a panoramic image to the user. Specifically, by moving at least a part of the user's body, the user can view the presented image in an enlarged or reduced size. Moreover, it becomes possible to provide a new user experience by these.

(項目10)
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成し、
前記提示画像を表示装置に出力し、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得し、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更する、
情報処理装置。
これにより、パノラマ画像をユーザに提供する場合において、ユーザビリティを向上させる。具体的には、ユーザは、身体の少なくとも一部を動かすことによって、提示画像を拡大又は縮小して見ることが可能になる。また、これらにより、新たなユーザ体験を提供することが可能になる。
(Item 10)
An information processing device comprising a processor,
The processor
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
Acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
Information processing equipment.
This improves usability when providing a panoramic image to the user. Specifically, by moving at least a part of the user's body, the user can view the presented image in an enlarged or reduced size. Moreover, it becomes possible to provide a new user experience by these.

100:HMDシステム
110,110A,110B,110C,110D:HMDセット
120:HMD
200:コンピュータ
210:プロセッサ
220:メモリ
230:ストレージ
600:サーバ
700:外部機器
100: HMD system 110, 110A, 110B, 110C, 110D: HMD set 120: HMD
200: Computer 210: Processor 220: Memory 230: Storage 600: Server 700: External device

Claims (10)

プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成するステップと、
前記提示画像を表示装置に出力するステップと、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得するステップと、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更するステップと、を実行させる、
プログラム。
A program executed on a computer with a processor,
The program causes the processor to:
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
a step of acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
program.
前記変更するステップは、前記天球内において前記仮想カメラの位置を移動させることを含む、
請求項1に記載のプログラム。
the changing step includes moving the position of the virtual camera within the celestial sphere;
A program according to claim 1.
前記天球の内縁よりも内側に、前記仮想カメラが移動可能な移動可能領域が設定されている、
請求項2に記載のプログラム。
a movable area in which the virtual camera can move is set inside the inner edge of the celestial sphere;
3. A program according to claim 2.
前記変更するステップは、前記天球の大きさを変更することを含む、
請求項1に記載のプログラム。
the modifying step includes modifying the size of the celestial sphere;
A program according to claim 1.
前記変更するステップは、前記身体の少なくとも一部が、前記身体の少なくとも一部の周囲に設定された第1領域を超えて動いた場合に実行される、
請求項1から請求項4のいずれか一項に記載のプログラム。
The modifying step is performed when at least part of the body moves beyond a first region set around at least part of the body.
A program according to any one of claims 1 to 4.
前記変更するステップは、前記動きの変化量が所定の閾値以上である場合に実行される、
請求項1から請求項4のいずれか一項に記載のプログラム。
The changing step is executed when the change amount of the movement is equal to or greater than a predetermined threshold,
A program according to any one of claims 1 to 4.
前記動作情報は、所定の基準平面に対する前記ユーザの身体の少なくとも一部の傾きに関する傾き情報を含み、
前記変更するステップは、前記基準平面に平行な方向における前記動きに基づいて、前記位置関係又は前記視野角を変更することを含み、
前記変更するステップは、前記傾きの大きさが所定の範囲外にある場合には実行されない、
請求項1から請求項6のいずれか一項に記載のプログラム。
the motion information includes tilt information about the tilt of at least part of the user's body with respect to a predetermined reference plane;
The modifying step includes modifying the positional relationship or the viewing angle based on the movement in a direction parallel to the reference plane;
the changing step is not performed if the magnitude of the slope is outside a predetermined range;
A program according to any one of claims 1 to 6.
前記表示装置は、ヘッドマウントデバイスであり、
前記センサ部は、前記ユーザの頭部の動きを検出可能である、
請求項1から請求項7のいずれか一項に記載のプログラム。
The display device is a head-mounted device,
The sensor unit is capable of detecting movement of the user's head,
A program according to any one of claims 1 to 7.
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成するステップと、
前記提示画像を表示装置に出力するステップと、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得するステップと、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更するステップと、を実行させることを含む、
情報処理方法。
An information processing method executed in a computer having a processor,
The information processing method includes:
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
a step of acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
Information processing methods.
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
画像が投影された天球の内部に配置された仮想カメラに基づいて、ユーザに提示する提示画像を生成し、
前記提示画像を表示装置に出力し、
センサ部によって検出される前記ユーザの身体の少なくとも一部の動きに関する動作情報を取得し、
前記動作情報に基づいて、前記仮想カメラと前記天球の位置関係又は前記仮想カメラの視野角を変更する、
情報処理装置。
An information processing device comprising a processor,
The processor
generating a presentation image to be presented to a user based on a virtual camera placed inside the celestial sphere on which the image is projected;
outputting the presentation image to a display device;
Acquiring motion information regarding movement of at least part of the user's body detected by a sensor unit;
changing the positional relationship between the virtual camera and the celestial sphere or the viewing angle of the virtual camera based on the motion information;
Information processing equipment.
JP2021212861A 2021-12-27 2021-12-27 Program, information processing method, and information processing apparatus Pending JP2023096844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021212861A JP2023096844A (en) 2021-12-27 2021-12-27 Program, information processing method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021212861A JP2023096844A (en) 2021-12-27 2021-12-27 Program, information processing method, and information processing apparatus

Publications (1)

Publication Number Publication Date
JP2023096844A true JP2023096844A (en) 2023-07-07

Family

ID=87005520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021212861A Pending JP2023096844A (en) 2021-12-27 2021-12-27 Program, information processing method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP2023096844A (en)

Similar Documents

Publication Publication Date Title
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
JP6470796B2 (en) Information processing method, program, and computer
JP6087453B1 (en) Method and program for providing virtual space
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
JP6240353B1 (en) Method for providing information in virtual space, program therefor, and apparatus therefor
JP2017138973A (en) Method and program for providing virtual space
JP2019211864A (en) Computer program, information processing device, and information processing method
JP2018194889A (en) Information processing method, computer and program
US20190114841A1 (en) Method, program and apparatus for providing virtual experience
JP6203346B1 (en) Method, program, and recording medium for providing virtual space
US20200241633A1 (en) Display device and display device control method
JP2019133309A (en) Program, information processor and information processing method
JP2020155980A (en) Image display system, image display program, image display device, and image display method
JP6382928B2 (en) Method executed by computer to control display of image in virtual space, program for causing computer to realize the method, and computer apparatus
JP2022171742A (en) Program, information processing method, and information processing device
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
JP2018170013A (en) Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device
JP2019168962A (en) Program, information processing device, and information processing method
JP2023096844A (en) Program, information processing method, and information processing apparatus
JP6703578B2 (en) Program, method and information processing apparatus
JP2019207714A (en) Information processing method, computer and program
JP2019155115A (en) Program, information processor and information processing method
JP7300569B2 (en) Information processing device, information processing method and program
JP2018124989A (en) Method for supporting movement in virtual space, program for implementing that method in computer, and information processor for implementing that program
JP2018028900A (en) Method, program, and recording medium for providing virtual space

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423