JPWO2017191701A1 - Display control apparatus, display control method, and program - Google Patents

Display control apparatus, display control method, and program Download PDF

Info

Publication number
JPWO2017191701A1
JPWO2017191701A1 JP2018515394A JP2018515394A JPWO2017191701A1 JP WO2017191701 A1 JPWO2017191701 A1 JP WO2017191701A1 JP 2018515394 A JP2018515394 A JP 2018515394A JP 2018515394 A JP2018515394 A JP 2018515394A JP WO2017191701 A1 JPWO2017191701 A1 JP WO2017191701A1
Authority
JP
Japan
Prior art keywords
data
pointer
viewpoint
virtual space
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018515394A
Other languages
Japanese (ja)
Other versions
JP6563592B2 (en
Inventor
大場 章男
章男 大場
妙子 眞田
妙子 眞田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2017191701A1 publication Critical patent/JPWO2017191701A1/en
Application granted granted Critical
Publication of JP6563592B2 publication Critical patent/JP6563592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Abstract

適切な位置にポインタが配置された仮想空間の画像を表示できる表示制御装置、表示制御方法及びプログラムを提供する。仮想空間管理部(126)は、ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置する。フレーム画像表示制御部(130)は、ポインタが配置された仮想空間の画像を表示させる。  Provided are a display control device, a display control method, and a program capable of displaying an image of a virtual space in which a pointer is arranged at an appropriate position. The virtual space management unit (126) places a pointer at a position in the virtual space according to the direction of the head mounted display. The frame image display control unit (130) displays an image of the virtual space where the pointer is arranged.

Description

本発明は、表示制御装置、表示制御方法及びプログラムに関する。   The present invention relates to a display control device, a display control method, and a program.

仮想空間内に配置された視点から視線方向を見た様子が表示されるヘッドマウントディスプレイ(HMD)が知られている。このようなHMDのなかには、HMDの姿勢の変化に応じて仮想空間に設定されている視線方向が変化するものがある。   There is known a head mounted display (HMD) that displays a view of the viewing direction from a viewpoint arranged in a virtual space. Among such HMDs, there is one in which the line-of-sight direction set in the virtual space changes according to the change in the attitude of the HMD.

他のユーザへの仮想空間内の位置の伝達や操作対象の指定などのために、例えばHMDに表示される画像の中心に相当する仮想空間内の位置などといった、HMDの姿勢に応じた適切な位置にポインタを配置できれば便利である。しかし従来はHMDの姿勢に応じた適切な位置にポインタを配置することはできなかった。   For the purpose of transmitting the position in the virtual space to other users, specifying the operation target, etc., for example, an appropriate position according to the attitude of the HMD, such as the position in the virtual space corresponding to the center of the image displayed on the HMD It would be convenient if the pointer could be placed at the position. However, conventionally, the pointer could not be placed at an appropriate position according to the attitude of the HMD.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、適切な位置にポインタが配置された仮想空間の画像を表示できる表示制御装置、表示制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and one of its purposes is to provide a display control device, a display control method, and a program capable of displaying an image of a virtual space in which a pointer is arranged at an appropriate position. There is.

上記課題を解決するために、本発明に係る表示制御装置は、ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置するポインタ配置部と、前記ポインタが配置された仮想空間の画像を表示させる表示制御部と、を含む。   In order to solve the above problems, a display control device according to the present invention includes a pointer placement unit that places a pointer at a position in a virtual space according to the orientation of a head mounted display, and an image of the virtual space in which the pointer is placed. And a display control unit for displaying.

本発明の一態様では、前記ポインタ配置部は、前記ヘッドマウントディスプレイを装着するユーザの操作に応じて、前記ポインタが配置される位置を変化させる。   In one aspect of the present invention, the pointer arrangement unit changes a position where the pointer is arranged according to an operation of a user wearing the head mounted display.

この態様では、前記ポインタ配置部は、前記ポインタが配置される位置が、前記仮想空間内に配置された仮想オブジェクトにおける位置を示す範囲に制限されるよう制御してもよい。   In this aspect, the pointer arrangement unit may perform control so that a position where the pointer is arranged is limited to a range indicating a position in the virtual object arranged in the virtual space.

あるいは、前記ポインタ配置部は、前記ポインタが配置される位置が、前記仮想空間に配置された複数の仮想オブジェクトのうちの、前記ヘッドマウントディスプレイの向きに応じた方向に沿った線と交差する仮想オブジェクトにおける位置を示す範囲に制限されるよう制御してもよい。   Alternatively, the pointer placement unit is a virtual where the position where the pointer is placed intersects a line along a direction corresponding to the direction of the head mounted display among the plurality of virtual objects placed in the virtual space. You may control so that it may be restrict | limited to the range which shows the position in an object.

また、本発明の一態様では、前記表示制御部は、前記ヘッドマウントディスプレイとは別のヘッドマウントディスプレイに前記画像を表示させる。   In the aspect of the invention, the display control unit displays the image on a head mounted display different from the head mounted display.

また、本発明に係る表示制御方法は、ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置するステップと、前記ポインタが配置された仮想空間の画像を表示させるステップと、を含む。   Further, the display control method according to the present invention includes a step of arranging a pointer at a position in the virtual space according to the orientation of the head mounted display, and a step of displaying an image of the virtual space in which the pointer is arranged. .

また、本発明に係るプログラムは、ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置する手順、前記ポインタが配置された仮想空間の画像を表示させる手順、をコンピュータに実行させる。   Further, the program according to the present invention causes a computer to execute a procedure for placing a pointer at a position in a virtual space according to the orientation of the head mounted display and a procedure for displaying an image of the virtual space in which the pointer is placed.

本発明の一実施形態に係る仮想空間共有システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the virtual space sharing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るユーザシステムの構成の一例を示す図である。It is a figure which shows an example of a structure of the user system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。It is a figure which shows an example of a structure of the head mounted display which concerns on one Embodiment of this invention. 本発明の一実施形態に係るエンタテインメント装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the entertainment apparatus which concerns on one Embodiment of this invention. 仮想空間が複数のユーザシステムで共有されている様子の一例を示す図である。It is a figure which shows an example of a mode that the virtual space is shared by several user systems. テクスチャ画像内の位置の座標値の一例を説明する説明図である。It is explanatory drawing explaining an example of the coordinate value of the position in a texture image. 視点データの一例を示す図である。It is a figure which shows an example of viewpoint data. 視点データの一例を示す図である。It is a figure which shows an example of viewpoint data. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. インジケータデータの一例を示す図である。It is a figure which shows an example of indicator data. インジケータデータの一例を示す図である。It is a figure which shows an example of indicator data. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. ポインタデータの一例を示す図である。It is a figure which shows an example of pointer data. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 本発明の一実施形態に係るエンタテインメント装置で実装される機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function mounted with the entertainment apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the process performed in the entertainment apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the process performed in the entertainment apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the process performed in the entertainment apparatus which concerns on one Embodiment of this invention. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image.

以下、本発明の一実施形態について、図面を参照しながら説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る仮想空間共有システム1の全体構成の一例を示す図である。図1に示すように、本実施形態に係る仮想空間共有システム1は、複数のユーザシステム2(2−1、2−2、・・・、2−n)と、管理システム3と、含んでいる。ユーザシステム2及び管理システム3は、インターネット等のコンピュータネットワーク4に接続されており、複数のユーザシステム2及び管理システム3は互いに通信可能となっている。   FIG. 1 is a diagram showing an example of the overall configuration of a virtual space sharing system 1 according to an embodiment of the present invention. As shown in FIG. 1, the virtual space sharing system 1 according to the present embodiment includes a plurality of user systems 2 (2-1, 2-2,..., 2-n) and a management system 3. Yes. The user system 2 and the management system 3 are connected to a computer network 4 such as the Internet, and the plurality of user systems 2 and the management system 3 can communicate with each other.

図2は、本発明の一実施形態に係るユーザシステム2の構成の一例を示す図である。図3Aは、本実施形態に係るヘッドマウントディスプレイ(HMD)12の構成の一例を示す図である。図3Bは、本実施形態に係るエンタテインメント装置14の構成の一例を示す図である。   FIG. 2 is a diagram showing an example of the configuration of the user system 2 according to the embodiment of the present invention. FIG. 3A is a diagram illustrating an example of the configuration of the head mounted display (HMD) 12 according to the present embodiment. FIG. 3B is a diagram illustrating an example of the configuration of the entertainment device 14 according to the present embodiment.

図2に示すように、本実施形態に係るユーザシステム2は、HMD12とエンタテインメント装置14と中継装置16とディスプレイ18とカメラマイクユニット20とコントローラ22とを含んでいる。   As shown in FIG. 2, the user system 2 according to the present embodiment includes an HMD 12, an entertainment device 14, a relay device 16, a display 18, a camera microphone unit 20, and a controller 22.

本実施形態に係るHMD12には、例えば図3Aに示すように、制御部30、記憶部32、通信部34、入出力部36、表示部38、センサ部40、音声出力部42が含まれる。   For example, as shown in FIG. 3A, the HMD 12 according to the present embodiment includes a control unit 30, a storage unit 32, a communication unit 34, an input / output unit 36, a display unit 38, a sensor unit 40, and an audio output unit 42.

制御部30は、例えばHMD12にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。   The control unit 30 is a program control device such as a microprocessor that operates according to a program installed in the HMD 12, for example.

記憶部32は、例えばROMやRAM等の記憶素子などである。記憶部32には、制御部30によって実行されるプログラムなどが記憶される。   The storage unit 32 is, for example, a storage element such as a ROM or a RAM. The storage unit 32 stores a program executed by the control unit 30.

通信部34は、例えば無線LANモジュールなどの通信インタフェースである。   The communication unit 34 is a communication interface such as a wireless LAN module.

入出力部36は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポート、AUXポートなどの入出力ポートである。   The input / output unit 36 is an input / output port such as an HDMI (registered trademark) (High-Definition Multimedia Interface) port, a USB port, an AUX port, or the like.

表示部38は、HMD12の前側に配置されている、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、エンタテインメント装置14が生成する映像などを表示させる。また表示部38は、HMD12の筐体に収容される。表示部38は、例えばエンタテインメント装置14が出力して中継装置16で中継される映像信号を受信して、当該映像信号が表す映像を出力するようにしてもよい。本実施形態に係る表示部38は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部38は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。   The display unit 38 is a display such as a liquid crystal display or an organic EL display disposed on the front side of the HMD 12 and displays an image generated by the entertainment device 14. The display unit 38 is housed in the housing of the HMD 12. For example, the display unit 38 may receive a video signal output from the entertainment device 14 and relayed by the relay device 16 and output a video represented by the video signal. The display unit 38 according to the present embodiment can display a three-dimensional image by displaying a left-eye image and a right-eye image, for example. The display unit 38 may not be able to display a three-dimensional image and can only display a two-dimensional image.

センサ部40は、例えば加速度センサやモーションセンサなどといったセンサである。センサ部40は、HMD12の回転量、移動量などの計測結果を示すモーションデータを所定のフレームレートで、制御部30に出力する。   The sensor unit 40 is a sensor such as an acceleration sensor or a motion sensor. The sensor unit 40 outputs motion data indicating measurement results such as the rotation amount and movement amount of the HMD 12 to the control unit 30 at a predetermined frame rate.

音声出力部42は、例えばヘッドホンやスピーカ等であり、エンタテインメント装置14が生成する音声データが表す音声などを出力する。音声出力部42は、例えばエンタテインメント装置14が出力して中継装置16で中継される音声信号を受信して、当該音声信号が表す音声を出力する。   The sound output unit 42 is, for example, a headphone or a speaker, and outputs sound represented by sound data generated by the entertainment device 14. The audio output unit 42 receives an audio signal output from the entertainment device 14 and relayed by the relay device 16, for example, and outputs the audio represented by the audio signal.

本実施形態に係るエンタテインメント装置14は、例えばゲームコンソール、DVDプレイヤ、Blu−ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置14は、例えば記憶されているゲームプログラムの実行や光ディスクに記録されたコンテンツの再生などによって映像や音声を生成する。そして本実施形態に係るエンタテインメント装置14は、生成される映像を表す映像信号や生成される音声を表す音声信号を、中継装置16を経由して、HMD12やディスプレイ18に出力する。   The entertainment device 14 according to the present embodiment is a computer such as a game console, a DVD player, a Blu-ray (registered trademark) player, or the like. The entertainment device 14 according to the present embodiment generates video and audio by, for example, executing a stored game program or reproducing content recorded on an optical disc. Then, the entertainment device 14 according to the present embodiment outputs a video signal representing the generated video and an audio signal representing the generated audio to the HMD 12 and the display 18 via the relay device 16.

本実施形態に係るエンタテインメント装置14には、例えば図3Bに示すように、制御部50、記憶部52、通信部54、入出力部56が含まれる。   The entertainment apparatus 14 according to the present embodiment includes a control unit 50, a storage unit 52, a communication unit 54, and an input / output unit 56, for example, as shown in FIG. 3B.

制御部50は、例えばエンタテインメント装置14にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。本実施形態に係る制御部50には、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。   The control unit 50 is a program control device such as a CPU that operates according to a program installed in the entertainment device 14, for example. The control unit 50 according to the present embodiment also includes a GPU (Graphics Processing Unit) that draws an image in a frame buffer based on graphics commands and data supplied from the CPU.

記憶部52は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部52には、制御部50によって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部52には、GPUにより画像が描画されるフレームバッファの領域が確保されている。   The storage unit 52 is, for example, a storage element such as a ROM or a RAM, a hard disk drive, or the like. The storage unit 52 stores a program executed by the control unit 50. In the storage unit 52 according to the present embodiment, a frame buffer area in which an image is rendered by the GPU is secured.

通信部54は、例えば無線LANモジュールなどの通信インタフェースなどである。   The communication unit 54 is a communication interface such as a wireless LAN module.

入出力部56は、HDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポートなどの入出力ポートである。   The input / output unit 56 is an input / output port such as an HDMI (registered trademark) (High-Definition Multimedia Interface) port or a USB port.

本実施形態に係る中継装置16は、エンタテインメント装置14から出力される映像信号や音声信号を中継してHMD12やディスプレイ18に出力するコンピュータである。   The relay device 16 according to the present embodiment is a computer that relays video signals and audio signals output from the entertainment device 14 and outputs them to the HMD 12 and the display 18.

本実施形態に係るディスプレイ18は、例えば液晶ディスプレイ等であり、エンタテインメント装置14から出力される映像信号が表す映像などを表示させる。   The display 18 according to the present embodiment is a liquid crystal display or the like, for example, and displays a video or the like represented by a video signal output from the entertainment device 14.

本実施形態に係るカメラマイクユニット20は、例えば被写体を撮像した画像をエンタテインメント装置14に出力するカメラ20a及び周囲の音声を取得して当該音声を音声データに変換してエンタテインメント装置14に出力するマイク20bを含んでいる。また本実施形態に係るカメラ20aはステレオカメラである。   The camera microphone unit 20 according to the present embodiment includes, for example, a camera 20a that outputs an image obtained by imaging a subject to the entertainment device 14, and a microphone that acquires surrounding audio, converts the audio to audio data, and outputs the audio data to the entertainment device 14. 20b is included. The camera 20a according to this embodiment is a stereo camera.

HMD12と中継装置16とは、例えば、無線通信によるデータの送受信が互いに可能になっている。エンタテインメント装置14と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されており、データの送受信が互いに可能になっている。中継装置16とディスプレイ18とは、例えば、HDMIケーブルなどを介して接続されている。エンタテインメント装置14とカメラマイクユニット20とは、例えば、AUXケーブルなどを介して接続されている。   For example, the HMD 12 and the relay device 16 can mutually transmit and receive data by wireless communication. The entertainment device 14 and the relay device 16 are connected via, for example, an HDMI cable or a USB cable, and data can be transmitted and received between them. The relay device 16 and the display 18 are connected via, for example, an HDMI cable. The entertainment apparatus 14 and the camera microphone unit 20 are connected via, for example, an AUX cable.

本実施形態に係るコントローラ22は、エンタテインメント装置14に対する操作入力を行うための操作入力装置である。ユーザは、コントローラ22が備える方向キーやボタンを押下したり、操作スティックを傾けたりすることで、コントローラ22を用いて各種の操作入力を行うことができる。そして本実施形態では、コントローラ22は、操作入力に対応付けられる入力データをエンタテインメント装置14に出力する。また本実施形態に係るコントローラ22は、USBポートを備えている。そしてコントローラ22は、USBケーブルでエンタテインメント装置14と接続することで、有線で入力データをエンタテインメント装置14に出力することができる。また本実施形態に係るコントローラ22は、無線通信モジュール等を備えており、無線で入力データをエンタテインメント装置14に出力することができるようにもなっている。   The controller 22 according to the present embodiment is an operation input device for performing operation input to the entertainment device 14. The user can perform various operation inputs using the controller 22 by pressing a direction key or button provided in the controller 22 or tilting an operation stick. In this embodiment, the controller 22 outputs input data associated with the operation input to the entertainment device 14. The controller 22 according to the present embodiment includes a USB port. And the controller 22 can output input data to the entertainment apparatus 14 with a wire by connecting with the entertainment apparatus 14 with a USB cable. The controller 22 according to the present embodiment includes a wireless communication module and the like, and can output input data to the entertainment apparatus 14 wirelessly.

管理システム3は、サーバ等から構成されるコンピュータシステムである。本実施形態では、管理システム3を介して複数のユーザシステム2で三次元の仮想空間が共有される。   The management system 3 is a computer system composed of a server and the like. In the present embodiment, a three-dimensional virtual space is shared by a plurality of user systems 2 via the management system 3.

図4は、仮想空間60がユーザシステム2−1とユーザシステム2−2とで共有されている様子の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a state in which the virtual space 60 is shared between the user system 2-1 and the user system 2-2.

図4に例示する仮想空間60には、それぞれが板状の三次元仮想オブジェクトである、ユーザの鑑賞対象となる3つの掛け軸オブジェクト62(掛け軸オブジェクト62a、掛け軸オブジェクト62b、及び、掛け軸オブジェクト62c)が配置されている。これらの掛け軸オブジェクト62は、複数のユーザシステム2のそれぞれについての、当該ユーザシステム2に含まれるHMD12を装着するユーザが視覚可能な仮想オブジェクトである。掛け軸オブジェクト62は、複数のポリゴンから構成されており、その正面には書画が描かれた掛け軸の画像などといった、二次元画像であるテクスチャ画像がマッピングされている。図4において、掛け軸オブジェクト62の正面から見て左から右に向かう方向をX軸正方向とする。また掛け軸オブジェクト62の正面から見て手前から奥に向かう方向をY軸正方向とする。また掛け軸オブジェクト62の正面から見て下から上に向かう方向をZ軸正方向とする。   In the virtual space 60 illustrated in FIG. 4, there are three hanging object 62 (a hanging object 62a, a hanging object 62b, and a hanging object 62c), each of which is a plate-like three-dimensional virtual object, to be viewed by the user. Has been placed. These hanging shaft objects 62 are virtual objects that are visible to the user wearing the HMD 12 included in the user system 2 for each of the plurality of user systems 2. The hanging object 62 is composed of a plurality of polygons, and a texture image, which is a two-dimensional image, such as a hanging image on which a drawing is drawn, is mapped on the front surface. In FIG. 4, the direction from the left to the right when viewed from the front of the hanging object 62 is the X-axis positive direction. A direction from the front to the back when viewed from the front of the hanging shaft object 62 is defined as a positive Y-axis direction. Further, the direction from the bottom to the top as viewed from the front of the hanging object 62 is taken as the positive Z-axis direction.

管理システム3は、例えば図4に例示する仮想空間60を表す仮想空間データを、ユーザシステム2からの要求に応じて当該ユーザシステム2に送信する。そして共有する仮想空間を表す仮想空間データはそれぞれのユーザシステム2に記憶される。仮想空間データには、例えば仮想空間60における掛け軸オブジェクト62の位置(例えば、座標値)などを示すデータやテクスチャ画像が含まれる。   For example, the management system 3 transmits virtual space data representing the virtual space 60 illustrated in FIG. 4 to the user system 2 in response to a request from the user system 2. Virtual space data representing the virtual space to be shared is stored in each user system 2. The virtual space data includes, for example, data indicating the position (for example, coordinate value) of the hanging object 62 in the virtual space 60 and a texture image.

そして仮想空間60内には、ユーザシステム2毎に個別の視点64及び視線方向66が設定される。そしてユーザシステム2に含まれるHMD12の表示部38には、当該ユーザシステム2において個別に設定された視点64から視線方向66を見た様子を表す画像が表示される。例えばユーザシステム2−1に含まれるHMD12の表示部38には、視点64aから視線方向66aを見た様子を表す画像が表示される。またユーザシステム2−2に含まれるHMD12の表示部38には、視点64bから視線方向66bを見た様子を表す画像が表示される。   In the virtual space 60, individual viewpoints 64 and line-of-sight directions 66 are set for each user system 2. Then, on the display unit 38 of the HMD 12 included in the user system 2, an image representing a state in which the line-of-sight direction 66 is viewed from the viewpoint 64 individually set in the user system 2 is displayed. For example, on the display unit 38 of the HMD 12 included in the user system 2-1, an image representing a state where the viewing direction 66 a is viewed from the viewpoint 64 a is displayed. In addition, the display unit 38 of the HMD 12 included in the user system 2-2 displays an image representing a state in which the viewing direction 66b is viewed from the viewpoint 64b.

図4の例では、視線方向66aも視線方向66bもY軸正方向を向いている。そして視線方向66aに沿った視点64aを通る線も、視線方向66bに沿った視点64bを通る線も、掛け軸オブジェクト62bと交差する。ここで視線方向66aに沿った視点64aを通る線と、掛け軸オブジェクト62bとの交点の位置をP1とし、視線方向66bに沿った視点64bを通る線と、掛け軸オブジェクト62bとの交点の位置をP2とする。   In the example of FIG. 4, the line-of-sight direction 66a and the line-of-sight direction 66b are both directed in the positive Y-axis direction. A line passing through the viewpoint 64a along the line-of-sight direction 66a and a line passing through the viewpoint 64b along the line-of-sight direction 66b intersect with the hanging object 62b. Here, the position of the intersection point between the line passing through the viewpoint 64a along the line-of-sight direction 66a and the hanging object 62b is P1, and the position of the line passing through the viewpoint 64b along the line-of-sight direction 66b and the hanging line object 62b is P2. And

また、図5に示す、掛け軸オブジェクト62bの表面にマッピングされたテクスチャ画像におけるX1Y1二次元座標系において、位置P1の座標値は(p1x,p1y)であり、位置P2の座標値は(p2x,p2y)であることとする。図5に示すように、当該X1Y1二次元座標系において、テクスチャ画像の上から下に向かう方向をX1軸正方向とし、テクスチャ画像の左から右に向かう方向をY1軸正方向とする。なおX1Y1二次元座標系は、テクスチャ座標系であっても構わない。   In the X1Y1 two-dimensional coordinate system in the texture image mapped on the surface of the hanging object 62b shown in FIG. 5, the coordinate value of the position P1 is (p1x, p1y), and the coordinate value of the position P2 is (p2x, p2y). ). As shown in FIG. 5, in the X1Y1 two-dimensional coordinate system, the direction from the top to the bottom of the texture image is the X1 axis positive direction, and the direction from the left to the right of the texture image is the Y1 axis positive direction. The X1Y1 two-dimensional coordinate system may be a texture coordinate system.

また本実施形態では、カメラ20aが所定のサンプリングレートで撮影するHMD12の像を含む画像やセンサ部40による計測結果に基づいて、HMD12の位置や姿勢を特定できるようになっている。そして本実施形態では、ユーザシステム2に含まれるHMD12の位置や姿勢に応じて、当該ユーザシステム2における視点64の位置や視線方向66が設定される。例えば、HMD12を装着するユーザが、HMD12を右方向に旋回させると、当該HMD12を含むユーザシステム2について設定されている視線方向66が右方向に旋回する。ここで例えば、視線方向66の変化量が、HMD12の向きの変化量に比例するようにしてもよい。また例えば、HMD12を装着するユーザが、HMD12を右方向に平行移動させると、当該HMD12を含むユーザシステム2について設定されている視点64の位置が右方向に平行移動する。ここで例えば、視点64の位置の変化量が、HMD12の位置の変化量に比例するようにしてもよい。このようにして本実施形態では、ユーザシステム2のユーザは、当該ユーザシステム2に含まれるHMD12の位置や姿勢を変化させることで、仮想空間60内に設定される視点64の位置や視線方向66を変化させることができるようになっている。   In the present embodiment, the position and orientation of the HMD 12 can be specified based on an image including an image of the HMD 12 captured by the camera 20a at a predetermined sampling rate and a measurement result by the sensor unit 40. In the present embodiment, the position of the viewpoint 64 and the line-of-sight direction 66 in the user system 2 are set according to the position and orientation of the HMD 12 included in the user system 2. For example, when the user wearing the HMD 12 turns the HMD 12 in the right direction, the line-of-sight direction 66 set for the user system 2 including the HMD 12 turns in the right direction. Here, for example, the amount of change in the line-of-sight direction 66 may be proportional to the amount of change in the direction of the HMD 12. For example, when the user wearing the HMD 12 translates the HMD 12 in the right direction, the position of the viewpoint 64 set for the user system 2 including the HMD 12 translates in the right direction. Here, for example, the change amount of the position of the viewpoint 64 may be proportional to the change amount of the position of the HMD 12. In this way, in the present embodiment, the user of the user system 2 changes the position and orientation of the HMD 12 included in the user system 2 to change the position of the viewpoint 64 and the line-of-sight direction 66 set in the virtual space 60. Can be changed.

また本実施形態では、各ユーザシステム2は、仮想空間共有システム1に含まれる他のユーザシステム2から、当該ユーザシステム2について設定されている視点64及び視線方向66を示す視点データを受信する。   In the present embodiment, each user system 2 receives viewpoint data indicating the viewpoint 64 and the line-of-sight direction 66 set for the user system 2 from the other user systems 2 included in the virtual space sharing system 1.

図6A及び図6Bは、本実施形態に係る視点データの一例を示す図である。図6A及び図6Bに示すように、本実施形態に係る視点データには、ユーザシステムID、視点位置データ、視線方向ベクトルデータが含まれる。視点データに含まれるユーザシステムIDは、ユーザシステム2の識別子であり、視点データは、当該ユーザシステムIDによって識別されるユーザシステム2の視点64や視線方向66を示すこととなる。なお本実施形態では、仮想空間共有システム1に含まれるユーザシステム2のそれぞれには一意のユーザシステムIDが予め割り当てられていることとする。例えばユーザシステム2−1のユーザシステムIDは1であり、ユーザシステム2−2のユーザシステムIDは2であることとする。視点位置データは、視点64の位置を示すデータである。視線方向ベクトルデータは、視線方向66のベクトルを示すデータである。   6A and 6B are diagrams illustrating an example of viewpoint data according to the present embodiment. As shown in FIGS. 6A and 6B, the viewpoint data according to the present embodiment includes a user system ID, viewpoint position data, and line-of-sight direction vector data. The user system ID included in the viewpoint data is an identifier of the user system 2, and the viewpoint data indicates the viewpoint 64 and the line-of-sight direction 66 of the user system 2 identified by the user system ID. In the present embodiment, each user system 2 included in the virtual space sharing system 1 is assigned a unique user system ID in advance. For example, the user system ID of the user system 2-1 is 1, and the user system ID of the user system 2-2 is 2. The viewpoint position data is data indicating the position of the viewpoint 64. The line-of-sight vector data is data indicating a vector in the line-of-sight direction 66.

図6Aに示す視点データには、ユーザシステム2−1について設定されている視点64a及び視線方向66aが示されている。例えば、図6Aに示す視点データに含まれる視点位置データが示す三次元座標値(xa,ya,za)は、視点64aの位置を示している。また例えば、図6Aに示す視点データに含まれる視線方向ベクトルデータが示す三次元座標値(Vxa,Vya,Vza)は、視線方向66aに沿った単位ベクトルを示している。例えば図4に示すように視線方向66aがY軸正方向を向いている場合には、(Vxa,Vya,Vza)の値は(0,1,0)となる。   The viewpoint data shown in FIG. 6A shows the viewpoint 64a and the line-of-sight direction 66a set for the user system 2-1. For example, the three-dimensional coordinate values (xa, ya, za) indicated by the viewpoint position data included in the viewpoint data shown in FIG. 6A indicate the position of the viewpoint 64a. For example, the three-dimensional coordinate values (Vxa, Vya, Vza) indicated by the line-of-sight direction vector data included in the viewpoint data shown in FIG. 6A indicate unit vectors along the line-of-sight direction 66a. For example, as shown in FIG. 4, when the line-of-sight direction 66a faces the Y-axis positive direction, the value of (Vxa, Vya, Vza) is (0, 1, 0).

図6Bに示す視点データには、ユーザシステム2−2について設定されている視点64b及び視線方向66bが示されている。例えば、図6Bに示す視点データに含まれる視点位置データが示す三次元座標値(xb,yb,zb)は、視点64bの位置を示している。また例えば、図6Bに示す視点データに含まれる視線方向ベクトルデータが示す三次元座標値(Vxb,Vyb,Vzb)は、視線方向66bに沿った単位ベクトルを示している。例えば図4に示すように視線方向66bがY軸正方向を向いている場合には、(Vxb,Vyb,Vzb)の値は(0,1,0)となる。   In the viewpoint data shown in FIG. 6B, a viewpoint 64b and a line-of-sight direction 66b set for the user system 2-2 are shown. For example, the three-dimensional coordinate values (xb, yb, zb) indicated by the viewpoint position data included in the viewpoint data shown in FIG. 6B indicate the position of the viewpoint 64b. For example, the three-dimensional coordinate values (Vxb, Vyb, Vzb) indicated by the line-of-sight direction vector data included in the viewpoint data shown in FIG. 6B indicate unit vectors along the line-of-sight direction 66b. For example, as shown in FIG. 4, when the line-of-sight direction 66b faces the positive Y-axis direction, the value of (Vxb, Vyb, Vzb) is (0, 1, 0).

そして図6Aに示す視点データはユーザシステム2−1から管理システム3に送信される。そして管理システム3は、当該視点データを、ユーザシステム2−2などといった、仮想空間共有システム1に含まれる、ユーザシステム2−1以外のユーザシステム2に送信する。また図6Bに示す視点データはユーザシステム2−2から管理システム3に送信される。そして管理システム3は、当該視点データを、ユーザシステム2−1などといった、仮想空間共有システム1に含まれる、ユーザシステム2−2以外のユーザシステム2に送信する。このようにして本実施形態では、各ユーザシステム2について設定されている視点64の位置や視線方向66を示すデータを複数のユーザシステム2で共有できることとなる。すなわち各ユーザシステム2は、他のユーザシステム2について設定されている視点64の位置や視線方向66を特定できることとなる。   The viewpoint data shown in FIG. 6A is transmitted from the user system 2-1 to the management system 3. Then, the management system 3 transmits the viewpoint data to the user system 2 other than the user system 2-1 included in the virtual space sharing system 1 such as the user system 2-2. The viewpoint data shown in FIG. 6B is transmitted from the user system 2-2 to the management system 3. Then, the management system 3 transmits the viewpoint data to the user system 2 other than the user system 2-2 included in the virtual space sharing system 1, such as the user system 2-1. In this way, in the present embodiment, data indicating the position of the viewpoint 64 and the line-of-sight direction 66 set for each user system 2 can be shared by a plurality of user systems 2. That is, each user system 2 can specify the position of the viewpoint 64 and the line-of-sight direction 66 set for the other user systems 2.

そして本実施形態に係るユーザシステム2は、他のユーザシステム2において設定されている視点64の位置を示す視点オブジェクトや注視点の位置を示す注視点オブジェクトを共有される仮想空間内に配置できるようになっている。以下、本実施形態に係る視点オブジェクトを視点インジケータ68と呼び、本実施形態に係る注視点オブジェクトを注視点インジケータ70と呼ぶこととする。そして本実施形態では、ユーザシステム2のユーザは、表示される視点インジケータ68や注視点インジケータ70によって、他のユーザシステム2のユーザがどこからどこを見ているのかを知ることができるようになっている。   The user system 2 according to the present embodiment can arrange the viewpoint object indicating the position of the viewpoint 64 set in the other user system 2 and the gazing point object indicating the position of the gazing point in the shared virtual space. It has become. Hereinafter, the viewpoint object according to the present embodiment is referred to as a viewpoint indicator 68, and the gazing point object according to the present embodiment is referred to as a gazing point indicator 70. In the present embodiment, the user of the user system 2 can know from where the user of the other user system 2 is looking from the viewpoint indicator 68 or the gazing point indicator 70 displayed. Yes.

以下、視点インジケータ68及び注視点インジケータ70の表示について、さらに説明する。   Hereinafter, the display of the viewpoint indicator 68 and the gazing point indicator 70 will be further described.

図7は、ユーザシステム2−1のHMD12の表示部38に表示される、視点64aから視線方向66aを見た様子を表す画像である仮想空間画像72aの一例を示す図である。また図8には、図7に示す仮想空間画像72aがユーザシステム2−1のHMD12に表示される際の視点64a及び視線方向66aが設定された仮想空間74の一例が示されている。   FIG. 7 is a diagram illustrating an example of the virtual space image 72a that is displayed on the display unit 38 of the HMD 12 of the user system 2-1, and is an image representing the viewing direction 66a from the viewpoint 64a. FIG. 8 shows an example of the virtual space 74 in which the viewpoint 64a and the line-of-sight direction 66a are set when the virtual space image 72a shown in FIG. 7 is displayed on the HMD 12 of the user system 2-1.

図9は、ユーザシステム2−2のHMD12の表示部38に表示される、視点64bから視線方向66bを見た様子を表す画像である仮想空間画像72bの一例を示す図である。また図10には、図9に示す仮想空間画像72bがユーザシステム2−2のHMD12に表示される際の視点64b及び視線方向66bが設定された仮想空間76の一例が示されている。   FIG. 9 is a diagram illustrating an example of a virtual space image 72b that is an image representing the appearance of the line-of-sight direction 66b viewed from the viewpoint 64b, which is displayed on the display unit 38 of the HMD 12 of the user system 2-2. FIG. 10 shows an example of the virtual space 76 in which the viewpoint 64b and the line-of-sight direction 66b are set when the virtual space image 72b shown in FIG. 9 is displayed on the HMD 12 of the user system 2-2.

なお仮想空間画像72aや仮想空間画像72bは、三次元画像であっても二次元画像であっても構わない。   The virtual space image 72a and the virtual space image 72b may be a three-dimensional image or a two-dimensional image.

図8に示す仮想空間74には、ユーザシステム2−2に対応付けられる視点64bの位置に視点インジケータ68bが配置されている。また図8に示す仮想空間74には、視線方向66bに沿った視点64bを通る線と、掛け軸オブジェクト62bとの交点の位置(図4に示されている位置P2)に注視点インジケータ70bが配置されている。なお図8の例では、視点インジケータ68bは、視点64aから見て視線方向66aの逆側に配置されている。すなわち、視点インジケータ68bのY座標値が、視点64aのY座標値よりも小さい。そのため図7に示す仮想空間画像72aには、視点インジケータ68bの像は含まれていない。   In the virtual space 74 shown in FIG. 8, a viewpoint indicator 68b is arranged at the position of the viewpoint 64b associated with the user system 2-2. Further, in the virtual space 74 shown in FIG. 8, a gazing point indicator 70b is arranged at the intersection (position P2 shown in FIG. 4) of the intersection of the line passing the viewpoint 64b along the line-of-sight direction 66b and the hanging object 62b. Has been. In the example of FIG. 8, the viewpoint indicator 68b is disposed on the opposite side of the line-of-sight direction 66a when viewed from the viewpoint 64a. That is, the Y coordinate value of the viewpoint indicator 68b is smaller than the Y coordinate value of the viewpoint 64a. Therefore, the virtual space image 72a shown in FIG. 7 does not include the image of the viewpoint indicator 68b.

図10に示す仮想空間76には、ユーザシステム2−1に対応付けられる視点64aの位置に、視点を表す仮想オブジェクトである視点インジケータ68aが配置されている。また図10に示す仮想空間76には、視線方向66aに沿った視点64aを通る線と、掛け軸オブジェクト62bとの交点の位置(図4に示されている位置P1)に注視点インジケータ70aが配置されている。   In the virtual space 76 shown in FIG. 10, a viewpoint indicator 68a, which is a virtual object representing the viewpoint, is arranged at the position of the viewpoint 64a associated with the user system 2-1. Also, in the virtual space 76 shown in FIG. 10, a gazing point indicator 70a is arranged at the position of the intersection (position P1 shown in FIG. 4) between the line passing the viewpoint 64a along the line-of-sight direction 66a and the hanging object 62b. Has been.

ここで図8に例示されている視点インジケータ68bや図10に例示されている視点インジケータ68aは、例えば球状の仮想三次元オブジェクトである。また図8に例示されている注視点インジケータ70bや図10に例示されている注視点インジケータ70aは、例えば掛け軸オブジェクト62bにマッピングされたテクスチャの画像に重畳される十字形状の二次元画像である。   Here, the viewpoint indicator 68b illustrated in FIG. 8 and the viewpoint indicator 68a illustrated in FIG. 10 are, for example, spherical virtual three-dimensional objects. The gazing point indicator 70b illustrated in FIG. 8 and the gazing point indicator 70a illustrated in FIG. 10 are, for example, cross-shaped two-dimensional images superimposed on the texture image mapped to the hanging scroll object 62b.

図11Aは、視点インジケータ68a及び注視点インジケータ70aに対応付けられるインジケータデータの一例を示す図である。図11Bは、視点インジケータ68b及び注視点インジケータ70bに対応付けられるインジケータデータの一例を示す図である。   FIG. 11A is a diagram illustrating an example of indicator data associated with the viewpoint indicator 68a and the gazing point indicator 70a. FIG. 11B is a diagram illustrating an example of indicator data associated with the viewpoint indicator 68b and the gaze point indicator 70b.

図11A及び図11Bに示すように、本実施形態に係るインジケータデータには、ユーザシステムID、視点インジケータ位置データ、テクスチャID、注視点インジケータ位置データ、が含まれる。インジケータデータに含まれるユーザシステムIDは、ユーザシステム2の識別子である。インジケータデータは、当該ユーザシステムIDによって識別されるユーザシステム2の視点64に対応付けられる視点インジケータ68及び視線方向66に対応付けられる注視点インジケータ70を示すこととなる。視点インジケータ位置データは、視点インジケータ68の位置を示すデータである。テクスチャIDは、注視点インジケータ70が配置されるテクスチャ画像の識別子である。ここでは例えば、掛け軸オブジェクト62bにマッピングされているテクスチャ画像のテクスチャIDは2であることとする。注視点インジケータ位置データは、注視点インジケータ70の位置を示すデータである。図11A及び図11Bに示す注視点インジケータ位置データでは、テクスチャIDにより識別されるテクスチャ画像に設定されるX1Y1二次元座標系における座標値により注視点インジケータ70の位置が表現されている。   As shown in FIGS. 11A and 11B, the indicator data according to the present embodiment includes a user system ID, viewpoint indicator position data, texture ID, and gazing point indicator position data. The user system ID included in the indicator data is an identifier of the user system 2. The indicator data indicates the viewpoint indicator 68 associated with the viewpoint 64 of the user system 2 identified by the user system ID and the gaze point indicator 70 associated with the line-of-sight direction 66. The viewpoint indicator position data is data indicating the position of the viewpoint indicator 68. The texture ID is an identifier of the texture image in which the gazing point indicator 70 is arranged. Here, for example, it is assumed that the texture ID of the texture image mapped to the hanging scroll object 62b is 2. The gazing point indicator position data is data indicating the position of the gazing point indicator 70. In the gazing point indicator position data shown in FIGS. 11A and 11B, the position of the gazing point indicator 70 is expressed by coordinate values in the X1Y1 two-dimensional coordinate system set to the texture image identified by the texture ID.

例えば、図11Aに示すインジケータデータに含まれる視点インジケータ位置データが示す三次元座標値(x1a,y1a,z1a)は、視点インジケータ68aの位置を示している。ここで当該三次元座標値(x1a,y1a,z1a)は、XYZ三次元座標系における三次元座標値である。また例えば、図11Aに示すインジケータデータに含まれる注視点インジケータ位置データが示す二次元座標値(x2a,y2a)は、注視点インジケータ70aの位置を示している。ここで当該二次元座標値(x2a,y2a)は例えば、掛け軸オブジェクト62bにマッピングされたテクスチャ画像に設定されたX1Y1二次元座標系における二次元座標値である。   For example, the three-dimensional coordinate values (x1a, y1a, z1a) indicated by the viewpoint indicator position data included in the indicator data shown in FIG. 11A indicate the position of the viewpoint indicator 68a. Here, the three-dimensional coordinate values (x1a, y1a, z1a) are three-dimensional coordinate values in the XYZ three-dimensional coordinate system. Further, for example, the two-dimensional coordinate values (x2a, y2a) indicated by the gazing point indicator position data included in the indicator data illustrated in FIG. 11A indicate the position of the gazing point indicator 70a. Here, the two-dimensional coordinate values (x2a, y2a) are, for example, two-dimensional coordinate values in the X1Y1 two-dimensional coordinate system set in the texture image mapped to the multiplying object 62b.

また例えば、図11Bに示すインジケータデータに含まれる視点インジケータ位置データが示す三次元座標値(x1b,y1b,z1b)は、視点インジケータ68bの位置を示している。ここで当該三次元座標値(x1b,y1b,z1b)は、XYZ三次元座標系における三次元座標値である。また例えば、図11Bに示すインジケータデータに含まれる注視点インジケータ位置データが示す二次元座標値(x2b,y2b)は、注視点インジケータ70bの位置を示している。ここで当該二次元座標値(x2b,y2b)は例えば、掛け軸オブジェクト62bにマッピングされたテクスチャ画像に設定されたX1Y1二次元座標系における二次元座標値である。   In addition, for example, the three-dimensional coordinate values (x1b, y1b, z1b) indicated by the viewpoint indicator position data included in the indicator data shown in FIG. 11B indicate the position of the viewpoint indicator 68b. Here, the three-dimensional coordinate values (x1b, y1b, z1b) are three-dimensional coordinate values in the XYZ three-dimensional coordinate system. Further, for example, the two-dimensional coordinate values (x2b, y2b) indicated by the gazing point indicator position data included in the indicator data illustrated in FIG. 11B indicate the position of the gazing point indicator 70b. Here, the two-dimensional coordinate values (x2b, y2b) are, for example, two-dimensional coordinate values in the X1Y1 two-dimensional coordinate system set in the texture image mapped to the multiplying object 62b.

本実施形態では、ユーザシステム2−1が、図6Aに例示する視点データに基づいて、図11Aに例示するインジケータデータを生成する。またユーザシステム2−2が、図6Bに例示する視点データに基づいて、図11Bに例示するインジケータデータを生成する。そして生成されるインジケータデータが示す位置に視点インジケータ68や注視点インジケータ70が仮想空間に配置される。このようにして本実施形態では、ユーザシステム2のユーザは、共有された仮想空間内における、他のユーザシステム2のユーザがどこからどこを見ているのかを知ることができる。   In the present embodiment, the user system 2-1 generates indicator data illustrated in FIG. 11A based on the viewpoint data illustrated in FIG. 6A. Further, the user system 2-2 generates the indicator data illustrated in FIG. 11B based on the viewpoint data illustrated in FIG. 6B. Then, the viewpoint indicator 68 and the gazing point indicator 70 are arranged in the virtual space at the position indicated by the generated indicator data. In this way, in the present embodiment, the user of the user system 2 can know where the user of the other user system 2 is looking from where in the shared virtual space.

また本実施形態では、ユーザシステム2に含まれるマイク20bに入力された音声を表す音声データは、他のユーザシステム2に送信される。そして当該他のユーザシステム2のHMD12に含まれる音声出力部42から当該音声データが表す音声が出力される。このようにして本実施形態では、ユーザシステム2のユーザ間で音声によるコミュニケーションを行えるようになっている。そして本実施形態では、このような音声や視点インジケータ68や注視点インジケータ70といった画像を手がかりとして、ユーザ間で円滑なコミュニケーションを図ることができることとなる。   In the present embodiment, the audio data representing the audio input to the microphone 20 b included in the user system 2 is transmitted to the other user system 2. Then, the voice represented by the voice data is output from the voice output unit 42 included in the HMD 12 of the other user system 2. In this way, in the present embodiment, voice communication can be performed between users of the user system 2. In the present embodiment, smooth communication between users can be achieved using such sounds and images such as the viewpoint indicator 68 and the gazing point indicator 70 as clues.

なお視点インジケータ68や注視点インジケータ70の位置や形状は上述のものに限定されない。例えば、図12に示すように、仮想空間76に配置される注視点インジケータ70aが三次元の立方体形状であっても構わない。図12に示す注視点インジケータ70aは、例えば、視線方向66aに沿った視点64aを通る線と、視点64aを中心とした所定の長さの半径の球面との交点に配置されている。この場合は、例えば図13に示す仮想空間画像72bがユーザシステム2−2のHMD12の表示部38に表示されることとなる。   Note that the positions and shapes of the viewpoint indicator 68 and the gazing point indicator 70 are not limited to those described above. For example, as shown in FIG. 12, the gaze point indicator 70a arranged in the virtual space 76 may be a three-dimensional cube. The gazing point indicator 70a illustrated in FIG. 12 is disposed, for example, at the intersection of a line passing through the viewpoint 64a along the line-of-sight direction 66a and a spherical surface with a predetermined length around the viewpoint 64a. In this case, for example, the virtual space image 72b illustrated in FIG. 13 is displayed on the display unit 38 of the HMD 12 of the user system 2-2.

また例えば、注視点インジケータ70の位置が、二次元座標値ではなく三次元座標値で表現されてもよい。またこの場合、インジケータデータにテクスチャIDが含まれないようにしてもよい。例えば図12に示す注視点インジケータ70aが仮想空間76に配置される際には、図11Aに示すインジケータデータにテクスチャIDが含まれず、注視点インジケータ位置データがXYZ三次元座標系における三次元座標値で表現されていてもよい。   Further, for example, the position of the gazing point indicator 70 may be expressed by a three-dimensional coordinate value instead of a two-dimensional coordinate value. In this case, the indicator ID may not include the texture ID. For example, when the gazing point indicator 70a shown in FIG. 12 is arranged in the virtual space 76, the texture data is not included in the indicator data shown in FIG. 11A, and the gazing point indicator position data is a three-dimensional coordinate value in the XYZ three-dimensional coordinate system. It may be expressed as

また例えば、視点インジケータ68や注視点インジケータ70であるオブジェクトの色や形状が、当該オブジェクトに対応付けられるユーザシステム2に対応した色や形状であってもよい。そして当該オブジェクトによって、対応付けられるユーザシステム2が識別可能であっても構わない。こうすれば複数の視点インジケータ68が表示されている際に、ユーザシステム2のユーザは、どの視点インジケータ68がどのユーザシステム2のユーザの視点の位置を表しているのかを知ることができることとなる。また例えば、複数の注視点インジケータ70が表示されている際に、ユーザシステム2のユーザは、どの注視点インジケータ70がどのユーザシステム2のユーザの視線方向を表しているのかを知ることができることとなる。   Further, for example, the color or shape of the object that is the viewpoint indicator 68 or the gazing point indicator 70 may be a color or shape corresponding to the user system 2 associated with the object. The user system 2 associated with the object may be identifiable. In this way, when the plurality of viewpoint indicators 68 are displayed, the user of the user system 2 can know which viewpoint indicator 68 represents the position of the viewpoint of the user of which user system 2. . Further, for example, when a plurality of gazing point indicators 70 are displayed, the user of the user system 2 can know which gazing point indicator 70 represents the user's gaze direction of which user system 2. Become.

また本実施形態では、ユーザシステム2のユーザは、視点インジケータ68が表示されるか否か、また、注視点インジケータ70が表示されるか否かを、例えばコントローラ22に対して所定の操作を行うことで切り替えることができるようになっている。   In the present embodiment, the user of the user system 2 performs a predetermined operation on the controller 22, for example, whether or not the viewpoint indicator 68 is displayed and whether or not the gazing point indicator 70 is displayed. Can be switched.

またカメラ20aにより撮影されるユーザの画像に基づいて当該ユーザのシルエットを表す三次元オブジェクトが生成されてもよい。そして当該三次元オブジェクトが、視点インジケータ68や注視点インジケータ70の代わりに、ユーザの視点64や視線方向66を示すオブジェクトとして仮想空間内に配置されてもよい。またこの場合に、ユーザのシルエットを表す三次元オブジェクトが表示される否かを、例えばコントローラ22に対して所定の操作を行うことで切り替えることができるようになっていてもよい。   A three-dimensional object representing the user's silhouette may be generated based on the user's image taken by the camera 20a. Then, the three-dimensional object may be arranged in the virtual space as an object indicating the user's viewpoint 64 or line-of-sight direction 66 instead of the viewpoint indicator 68 or the gazing point indicator 70. In this case, whether or not a three-dimensional object representing the user's silhouette is displayed may be switched by performing a predetermined operation on the controller 22, for example.

また例えば、ユーザシステム2−1が、図11Aに例示するインジケータデータを生成して、当該インジケータデータをユーザシステム2−2に送信するようにしてもよい。また例えば、ユーザシステム2−2が、図11Bに例示するインジケータデータを生成して、当該インジケータデータがユーザシステム2−1に送信するようにしてもよい。   Further, for example, the user system 2-1 may generate indicator data illustrated in FIG. 11A and transmit the indicator data to the user system 2-2. For example, the user system 2-2 may generate indicator data illustrated in FIG. 11B and transmit the indicator data to the user system 2-1.

また本実施形態に係るユーザシステム2は、ユーザが行う所定の操作に応じて、仮想空間内にポインタを配置できるようになっている。以下、ポインタの表示について、さらに説明する。   Further, the user system 2 according to the present embodiment can arrange a pointer in the virtual space in accordance with a predetermined operation performed by the user. Hereinafter, the display of the pointer will be further described.

図14は、仮想空間78の一例を示す図である。図14に示す仮想空間78は、ポインタ画像80が配置されていない図10に示す仮想空間76において、ユーザシステム2−2のユーザが行うリセット操作に応じて、ポインタ画像80が配置された際の状態を示している。本実施形態ではリセット操作に応じて、視線方向66bに沿った視点64bを通る線と、掛け軸オブジェクト62bとの交点の位置P2にポインタ画像80が配置される。なおリセット操作としては、例えば、コントローラ22が備える所定のボタンの押下操作、エンタテインメント装置14と通信可能なマウスへのクリック操作、エンタテインメント装置14と通信可能なタッチパッドへのタップ操作、などが挙げられる。   FIG. 14 is a diagram illustrating an example of the virtual space 78. In the virtual space 78 shown in FIG. 14, when the pointer image 80 is arranged in the virtual space 76 shown in FIG. 10 where the pointer image 80 is not arranged according to the reset operation performed by the user of the user system 2-2. Indicates the state. In the present embodiment, in response to the reset operation, the pointer image 80 is arranged at the position P2 of the intersection of the line passing the viewpoint 64b along the line-of-sight direction 66b and the hanging object 62b. The reset operation includes, for example, a pressing operation of a predetermined button provided in the controller 22, a click operation on a mouse that can communicate with the entertainment device 14, a tap operation on a touch pad that can communicate with the entertainment device 14, and the like. .

図15は、ユーザシステム2−2のHMD12の表示部38に表示される、図14に示す仮想空間78内に配置された視点64bから視線方向66bを見た様子を表す画像である仮想空間画像72bの一例を示す図である。図15に示す仮想空間画像72bには、視点インジケータ68a及び注視点インジケータ70aに加え、ポインタ画像80が含まれている。本実施形態に係るポインタ画像80は、例えば掛け軸オブジェクト62bにマッピングされたテクスチャの画像に重畳される矢印形状の二次元画像である。このようにして本実施形態によれば、ユーザによるリセット操作に応じて適切な位置にポインタが配置された仮想空間の画像を表示できることとなる。ここでは例えば、視線方向66bに沿った視点64bを通る線と掛け軸オブジェクト62bとの交点の位置P2にポインタが配置されることとなる。   FIG. 15 is a virtual space image that is displayed on the display unit 38 of the HMD 12 of the user system 2-2 and is an image showing a view direction 66 b from the viewpoint 64 b arranged in the virtual space 78 shown in FIG. 14. It is a figure which shows an example of 72b. The virtual space image 72b shown in FIG. 15 includes a pointer image 80 in addition to the viewpoint indicator 68a and the gazing point indicator 70a. The pointer image 80 according to the present embodiment is, for example, an arrow-shaped two-dimensional image superimposed on a texture image mapped to the hanging scroll object 62b. As described above, according to the present embodiment, it is possible to display an image of the virtual space in which the pointer is arranged at an appropriate position according to the reset operation by the user. Here, for example, the pointer is placed at the position P2 of the intersection of the line passing through the viewpoint 64b along the line-of-sight direction 66b and the hanging object 62b.

図16は、ポインタ画像80に対応付けられるポインタデータの一例を示す図である。図16に示すように、本実施形態に係るポインタデータには、ユーザシステムID、テクスチャID、ポインタ位置データ、が含まれる。ポインタデータに含まれるユーザシステムIDは、ユーザシステム2の識別子である。ポインタデータは、当該ユーザシステムIDによって識別されるユーザシステム2のユーザにより配置されたポインタ画像80を示すことになる。テクスチャIDは、ポインタ画像80がマッピングされるテクスチャ画像の識別子である。ポインタ位置データは、ポインタ画像80の位置を示すデータである。   FIG. 16 is a diagram illustrating an example of pointer data associated with the pointer image 80. As shown in FIG. 16, the pointer data according to the present embodiment includes a user system ID, a texture ID, and pointer position data. The user system ID included in the pointer data is an identifier of the user system 2. The pointer data indicates the pointer image 80 arranged by the user of the user system 2 identified by the user system ID. The texture ID is an identifier of the texture image to which the pointer image 80 is mapped. The pointer position data is data indicating the position of the pointer image 80.

図16に示すポインタ位置データでは、テクスチャIDにより識別されるテクスチャ画像に設定されるX1Y1二次元座標系における座標値によりポインタ画像80の位置が表現されている。図16に示すポインタデータに含まれるポインタ位置データが示す二次元座標値(x3,y3)は、掛け軸オブジェクト62bにマッピングされたテクスチャ画像に設定されたX1Y1二次元座標系におけるポインタ画像80の位置を示している。リセット操作がされた際の初期状態では、位置P2にポインタ画像80が配置されるので、図16に示すポインタデータに含まれるポインタ位置データが示す二次元座標値(x3,y3)は(p2x,p2y)となる。   In the pointer position data shown in FIG. 16, the position of the pointer image 80 is expressed by coordinate values in the X1Y1 two-dimensional coordinate system set for the texture image identified by the texture ID. The two-dimensional coordinate value (x3, y3) indicated by the pointer position data included in the pointer data shown in FIG. 16 indicates the position of the pointer image 80 in the X1Y1 two-dimensional coordinate system set in the texture image mapped to the multiplying object 62b. Show. In the initial state when the reset operation is performed, since the pointer image 80 is arranged at the position P2, the two-dimensional coordinate values (x3, y3) indicated by the pointer position data included in the pointer data shown in FIG. 16 are (p2x, p2y).

そして本実施形態では、図16に示すポインタデータはユーザシステム2−2から管理システム3に送信される。そして管理システム3は、当該ポインタデータを、ユーザシステム2−1などといった、仮想空間共有システム1に含まれる、ユーザシステム2−2以外のユーザシステム2に送信する。このようにして本実施形態では、各ユーザシステム2について設定されているポインタ画像80の位置を示すデータを複数のユーザシステム2で共有できることとなる。すなわち各ユーザシステム2は、他のユーザシステム2について設定されたポインタ画像80の位置を特定できることとなる。   In this embodiment, the pointer data shown in FIG. 16 is transmitted from the user system 2-2 to the management system 3. Then, the management system 3 transmits the pointer data to the user system 2 other than the user system 2-2 included in the virtual space sharing system 1, such as the user system 2-1. In this way, in the present embodiment, data indicating the position of the pointer image 80 set for each user system 2 can be shared by a plurality of user systems 2. That is, each user system 2 can specify the position of the pointer image 80 set for the other user system 2.

図17は、このようにしてユーザシステム2−1に送信されたポインタデータに基づいて、ポインタ画像80が配置された仮想空間82の一例を示す図である。なお図17に示す仮想空間82では、図8に示す仮想空間74とは異なり、視点インジケータ68b及び注視点インジケータ70bは配置されていない。図18は、ユーザシステム2−1のHMD12の表示部38に表示される、図17に示す仮想空間82内に配置された視点64aから視線方向66aを見た様子を表す画像である仮想空間画像72aの一例を示す図である。   FIG. 17 is a diagram illustrating an example of the virtual space 82 in which the pointer image 80 is arranged based on the pointer data transmitted to the user system 2-1. In the virtual space 82 shown in FIG. 17, unlike the virtual space 74 shown in FIG. 8, the viewpoint indicator 68b and the gazing point indicator 70b are not arranged. FIG. 18 is a virtual space image that is displayed on the display unit 38 of the HMD 12 of the user system 2-1 and is an image representing a view direction 66 a from the viewpoint 64 a arranged in the virtual space 82 shown in FIG. 17. It is a figure which shows an example of 72a.

また本実施形態では、ユーザシステム2のユーザは、所定の移動操作を行うことで、当該ユーザシステム2において配置されたポインタ画像80の位置を変化させることができるようになっている。ここで移動操作としては例えば、コントローラ22が備える方向キーの押下操作、エンタテインメント装置14と通信可能なマウスへのドラッグ操作、エンタテインメント装置14と通信可能なタッチパッドへのスライド操作、などが挙げられる。ここで例えば押下された方向キーに対応付けられる方向にポインタ画像80の位置が変化するようにしてもよい。また例えば、マウスがドラッグされた方向やタッチパッドがスライドされた方向にポインタ画像80の位置が変化するようにしてもよい。   In the present embodiment, the user of the user system 2 can change the position of the pointer image 80 arranged in the user system 2 by performing a predetermined movement operation. Examples of the moving operation include a pressing operation of a direction key provided in the controller 22, a drag operation to a mouse that can communicate with the entertainment device 14, and a sliding operation to a touch pad that can communicate with the entertainment device 14. Here, for example, the position of the pointer image 80 may be changed in a direction associated with the pressed direction key. Further, for example, the position of the pointer image 80 may be changed in the direction in which the mouse is dragged or the direction in which the touch pad is slid.

またユーザシステム2のユーザは、所定の消去操作を行うことで、当該ユーザシステム2において配置されたポインタ画像80を消去できるようになっている。ここで消去操作としては例えば、コントローラ22が備える所定のボタンの押下操作、エンタテインメント装置14と通信可能なマウスへのダブルクリック操作、エンタテインメント装置14と通信可能なタッチパッドへのダブルタップ操作、などが挙げられる。本実施形態ではこの場合、ポインタデータに含まれるテクスチャIDに0が設定され、ポインタ位置データの値が(0,0)が設定される。そして本実施形態では、ポインタデータに含まれるテクスチャIDが0であり、ポインタ位置データの値が(0,0)である場合は、ポインタ画像80が仮想空間に配置されないよう制御されることとなる。またテクスチャIDが0であり、ポインタ位置データの値が(0,0)であるポインタデータをユーザシステム2が受信した際には、当該ユーザシステム2においてポインタ画像80が仮想空間に配置されないよう制御されることとなる。なお消去操作が行われた際に、上述したポインタデータの代わりに、ポインタ画像80の消去指示が送信されるようにしてもよい。   Further, the user of the user system 2 can erase the pointer image 80 arranged in the user system 2 by performing a predetermined erasing operation. Here, the erasing operation includes, for example, a pressing operation of a predetermined button provided in the controller 22, a double-clicking operation on a mouse that can communicate with the entertainment device 14, a double-tapping operation on a touch pad that can communicate with the entertainment device 14, and the like. Can be mentioned. In this embodiment, in this case, 0 is set to the texture ID included in the pointer data, and the value of the pointer position data is set to (0, 0). In this embodiment, when the texture ID included in the pointer data is 0 and the value of the pointer position data is (0, 0), the pointer image 80 is controlled not to be placed in the virtual space. . In addition, when the user system 2 receives pointer data having a texture ID of 0 and a pointer position data value of (0, 0), control is performed so that the pointer image 80 is not arranged in the virtual space in the user system 2. Will be. When an erasing operation is performed, an instruction to erase the pointer image 80 may be transmitted instead of the pointer data described above.

また、公知のピーク検出技術を用いて、カメラ20aが撮影する画像に基づいて実空間内の検出領域にユーザの指先が存在するか否かが特定されるようにしてもよい。そして例えば検出領域内にユーザの指先が入る操作が上述のリセット操作として取り扱われるようにしてもよい。また例えば検出領域内におけるユーザの指先の位置の変化が上述の移動操作として取り扱われるようにしてもよい。ここで例えば、ユーザの指先が動かされた方向にポインタ画像80の位置が変化するようにしてもよい。また例えば、検出領域内に存在するユーザの指先を検出領域の外に出す操作が上述の消去操作として取り扱われるようにしてもよい。   Further, using a known peak detection technique, whether or not the user's fingertip exists in the detection area in the real space may be specified based on the image captured by the camera 20a. For example, an operation in which the user's fingertip enters the detection area may be handled as the above-described reset operation. Further, for example, a change in the position of the user's fingertip in the detection area may be handled as the above-described movement operation. Here, for example, the position of the pointer image 80 may be changed in the direction in which the user's fingertip is moved. Further, for example, an operation of bringing the user's fingertip existing in the detection area out of the detection area may be handled as the above-described erasing operation.

またポインタ画像80が配置される位置が、掛け軸オブジェクト62bにおける位置を示す範囲に制限されるよう制御されてもよい。より具体的には例えば、ポインタ画像80の移動範囲が、当該ポインタ画像80が重畳される掛け軸オブジェクト62bのテクスチャ画像上に制限されてもよい。この場合には例えば、テクスチャ画像の右端にポインタ画像80が配置されている際には、例えば、ポインタ画像80を右に動かす移動操作が行われてもポインタ画像80の位置は変化しないよう制御される。   Further, the position where the pointer image 80 is arranged may be controlled so as to be limited to a range indicating the position on the hanging scroll object 62b. More specifically, for example, the movement range of the pointer image 80 may be limited on the texture image of the multiplying object 62b on which the pointer image 80 is superimposed. In this case, for example, when the pointer image 80 is arranged at the right end of the texture image, for example, the position of the pointer image 80 is controlled not to change even if a moving operation for moving the pointer image 80 to the right is performed. The

また例えば、ユーザがリセット操作を行った際には、ポインタデータの送信が行われず、その後にユーザが所定の送信操作を行った際にポインタデータの送信が行われるようにしてもよい。そして所定の送信操作が行われた後に、他のユーザシステム2において仮想空間にポインタ画像80が配置されるようにしてもよい。   Further, for example, the pointer data may not be transmitted when the user performs a reset operation, and the pointer data may be transmitted when the user performs a predetermined transmission operation thereafter. Then, after a predetermined transmission operation is performed, the pointer image 80 may be arranged in the virtual space in another user system 2.

またポインタは二次元の画像である必要はなく、例えば三次元の仮想オブジェクトでも構わない。また例えば、ポインタの位置が、二次元座標値ではなく三次元座標値で表現されてもよい。またこの場合、ポインタデータにテクスチャIDが含まれないようにしてもよい。例えば図16に示すポインタデータにテクスチャIDが含まれず、ポインタ位置データがXYZ三次元座標系における三次元座標値で表現されていてもよい。   The pointer need not be a two-dimensional image, and may be a three-dimensional virtual object, for example. Further, for example, the position of the pointer may be expressed by a three-dimensional coordinate value instead of a two-dimensional coordinate value. In this case, the texture data may not be included in the pointer data. For example, the texture data may not be included in the pointer data shown in FIG. 16, and the pointer position data may be expressed as a three-dimensional coordinate value in the XYZ three-dimensional coordinate system.

以下、本実施形態に係るエンタテインメント装置14の機能並びに本実施形態に係るエンタテインメント装置14で実行される処理についてさらに説明する。   Hereinafter, functions of the entertainment device 14 according to the present embodiment and processing executed by the entertainment device 14 according to the present embodiment will be further described.

図19は、本実施形態に係るエンタテインメント装置14で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るエンタテインメント装置14で、図19に示す機能のすべてが実装される必要はなく、また、図19に示す機能以外の機能が実装されていても構わない。   FIG. 19 is a functional block diagram illustrating an example of functions implemented by the entertainment device 14 according to the present embodiment. Note that the entertainment apparatus 14 according to the present embodiment does not have to include all the functions shown in FIG. 19, and may have functions other than the functions shown in FIG.

図19に示すように、本実施形態に係るエンタテインメント装置14は、機能的には例えば、仮想空間データ記憶部90、自視点データ記憶部92、他視点データ記憶部94、インジケータデータ記憶部96、自ポインタデータ記憶部98、他ポインタデータ記憶部100、撮影画像受付部102、位置姿勢特定部104、自視点データ管理部106、視点データ送信部108、視点データ受信部110、他視点データ管理部112、インジケータデータ管理部114、ポインタ操作特定部116、自ポインタデータ管理部118、ポインタデータ送信部120、ポインタデータ受信部122、他ポインタデータ管理部124、仮想空間管理部126、フレーム画像生成部128、フレーム画像表示制御部130、を含んでいる。   As shown in FIG. 19, the entertainment device 14 according to the present embodiment functionally includes, for example, a virtual space data storage unit 90, a self-viewpoint data storage unit 92, another viewpoint data storage unit 94, an indicator data storage unit 96, Self-pointer data storage unit 98, other pointer data storage unit 100, captured image reception unit 102, position / orientation specifying unit 104, self-viewpoint data management unit 106, viewpoint data transmission unit 108, viewpoint data reception unit 110, other viewpoint data management unit 112, indicator data management unit 114, pointer operation specifying unit 116, own pointer data management unit 118, pointer data transmission unit 120, pointer data reception unit 122, other pointer data management unit 124, virtual space management unit 126, frame image generation unit 128 and a frame image display control unit 130.

仮想空間データ記憶部90、自視点データ記憶部92、他視点データ記憶部94、インジケータデータ記憶部96、自ポインタデータ記憶部98、他ポインタデータ記憶部100は、記憶部52を主として実装される。撮影画像受付部102、フレーム画像表示制御部130は、入出力部56を主として実装される。位置姿勢特定部104、自視点データ管理部106、他視点データ管理部112、インジケータデータ管理部114、自ポインタデータ管理部118、他ポインタデータ管理部124、仮想空間管理部126、フレーム画像生成部128は、制御部50を主として実装される。視点データ送信部108、視点データ受信部110、ポインタデータ送信部120、ポインタデータ受信部122は、通信部54を主として実装される。ポインタ操作特定部116は、通信部54又は入出力部56を主として実装される。   The virtual space data storage unit 90, the own viewpoint data storage unit 92, the other viewpoint data storage unit 94, the indicator data storage unit 96, the own pointer data storage unit 98, and the other pointer data storage unit 100 are mainly implemented by the storage unit 52. . The captured image receiving unit 102 and the frame image display control unit 130 are mainly implemented by the input / output unit 56. Position / attitude specifying unit 104, own viewpoint data management unit 106, other viewpoint data management unit 112, indicator data management unit 114, own pointer data management unit 118, other pointer data management unit 124, virtual space management unit 126, frame image generation unit 128 is mainly implemented by the control unit 50. The viewpoint data transmission unit 108, the viewpoint data reception unit 110, the pointer data transmission unit 120, and the pointer data reception unit 122 are mainly implemented by the communication unit 54. The pointer operation specifying unit 116 is mainly implemented by the communication unit 54 or the input / output unit 56.

以上の機能は、コンピュータであるエンタテインメント装置14にインストールされた、以上の機能に対応する指令を含むプログラムを制御部50で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してエンタテインメント装置14に供給されてもよい。   The above functions may be implemented by causing the control unit 50 to execute a program that is installed in the entertainment device 14 that is a computer and that includes instructions corresponding to the above functions. This program may be supplied to the entertainment apparatus 14 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.

仮想空間データ記憶部90は、本実施形態では例えば、図4に示す仮想空間60、図8に示す仮想空間74、図10や図12に示す仮想空間76、図14に示す仮想空間78における、各仮想オブジェクトの位置(例えば、座標値)を示すデータを記憶する。仮想空間データ記憶部90には、例えば、掛け軸オブジェクト62、視点64及び視線方向66、視点インジケータ68、注視点インジケータ70、ポインタ画像80の代表点の位置を示すデータが記憶される。また仮想空間データ記憶部90には、例えば、仮想オブジェクトの形状や大きさを示すデータやテクスチャ画像やテクスチャ画像がマッピングされる仮想オブジェクトの識別子などが記憶されてもよい。   In this embodiment, the virtual space data storage unit 90 includes, for example, the virtual space 60 shown in FIG. 4, the virtual space 74 shown in FIG. 8, the virtual space 76 shown in FIGS. 10 and 12, and the virtual space 78 shown in FIG. 14. Data indicating the position (for example, coordinate value) of each virtual object is stored. The virtual space data storage unit 90 stores, for example, data indicating the positions of representative points of the hanging object 62, the viewpoint 64 and the line-of-sight direction 66, the viewpoint indicator 68, the gazing point indicator 70, and the pointer image 80. Further, the virtual space data storage unit 90 may store, for example, data indicating the shape and size of a virtual object, a texture image, a virtual object identifier to which a texture image is mapped, and the like.

自視点データ記憶部92は、本実施形態では例えば、当該自視点データ記憶部92が含まれるユーザシステム2のユーザの視点64の位置及び視線方向を示す視点データを記憶する。図6A及び図6Bに示すように、視点データには例えば、ユーザシステムID、視点位置データ、視線方向ベクトルデータが含まれる。例えばユーザシステム2−1の自視点データ記憶部92には、図6Aに例示する視点データが記憶される。また例えば、ユーザシステム2−2の自視点データ記憶部92には、図6Bに例示する視点データが記憶される。本実施形態では例えば、ユーザシステム2に割り当てられているユーザシステムIDが、当該ユーザシステム2の自視点データ記憶部92に記憶される視点データのユーザシステムIDとして設定される。   In this embodiment, the own viewpoint data storage unit 92 stores, for example, viewpoint data indicating the position and line-of-sight direction of the user's viewpoint 64 of the user system 2 including the own viewpoint data storage unit 92. As shown in FIGS. 6A and 6B, the viewpoint data includes, for example, a user system ID, viewpoint position data, and line-of-sight direction vector data. For example, the viewpoint data illustrated in FIG. 6A is stored in the own viewpoint data storage unit 92 of the user system 2-1. For example, the viewpoint data illustrated in FIG. 6B is stored in the own viewpoint data storage unit 92 of the user system 2-2. In the present embodiment, for example, the user system ID assigned to the user system 2 is set as the user system ID of the viewpoint data stored in the own viewpoint data storage unit 92 of the user system 2.

他視点データ記憶部94は、本実施形態では例えば、当該自視点データ記憶部92が含まれるユーザシステム2とは異なるユーザシステム2のユーザの視点64の位置及び視線方向66を示す視点データを記憶する。図6A及び図6Bに示すように、視点データには例えば、ユーザシステムID、視点位置データ、視線方向ベクトルデータが含まれる。   In this embodiment, for example, the other viewpoint data storage unit 94 stores viewpoint data indicating the position of the user's viewpoint 64 and the line-of-sight direction 66 of the user system 2 different from the user system 2 including the own viewpoint data storage unit 92. To do. As shown in FIGS. 6A and 6B, the viewpoint data includes, for example, a user system ID, viewpoint position data, and line-of-sight direction vector data.

他視点データ記憶部94は、ユーザシステムIDが互いに異なる複数の視点データを記憶してもよい。例えばユーザシステム2−1の他視点データ記憶部94に、仮想空間共有システム1に含まれる、ユーザシステム2−1以外のユーザシステム2にそれぞれ対応付けられる複数の視点データが記憶されてもよい。この場合、例えば図6Bに示す視点データは、ユーザシステム2−1の他視点データ記憶部94に記憶される複数の視点データのうちの1つであることとなる。また例えばユーザシステム2−2の他視点データ記憶部94に、仮想空間共有システム1に含まれる、ユーザシステム2−2以外のユーザシステム2にそれぞれ対応付けられる複数の視点データが記憶されてもよい。この場合、例えば図6Aに示す視点データは、ユーザシステム2−2の他視点データ記憶部94に記憶される複数の視点データのうちの1つであることとなる。   The other viewpoint data storage unit 94 may store a plurality of viewpoint data having different user system IDs. For example, the other viewpoint data storage unit 94 of the user system 2-1 may store a plurality of viewpoint data respectively associated with the user systems 2 other than the user system 2-1, which are included in the virtual space sharing system 1. In this case, for example, the viewpoint data illustrated in FIG. 6B is one of a plurality of viewpoint data stored in the other viewpoint data storage unit 94 of the user system 2-1. Further, for example, the other viewpoint data storage unit 94 of the user system 2-2 may store a plurality of viewpoint data respectively associated with the user systems 2 other than the user system 2-2 included in the virtual space sharing system 1. . In this case, for example, the viewpoint data illustrated in FIG. 6A is one of a plurality of viewpoint data stored in the other viewpoint data storage unit 94 of the user system 2-2.

インジケータデータ記憶部96は、本実施形態では例えば、他のユーザシステム2のユーザの視点64の位置及び視線方向66に対応付けられるインジケータデータを記憶する。図11A及び図11Bに示すように、インジケータデータには例えば、ユーザシステムID、視点インジケータ位置データ、テクスチャID、注視点インジケータ位置データ、が含まれる。   In this embodiment, for example, the indicator data storage unit 96 stores indicator data associated with the position of the viewpoint 64 and the line-of-sight direction 66 of the user of the other user system 2. As shown in FIGS. 11A and 11B, the indicator data includes, for example, a user system ID, viewpoint indicator position data, texture ID, and gazing point indicator position data.

インジケータデータ記憶部96は、ユーザシステムIDが互いに異なる複数のインジケータデータを記憶してもよい。例えばユーザシステム2−1のインジケータデータ記憶部96に、仮想空間共有システム1に含まれる、ユーザシステム2−1以外のユーザシステム2にそれぞれ対応付けられる複数のインジケータデータが記憶されてもよい。この場合、例えば図11Bに示すインジケータデータは、ユーザシステム2−1のインジケータデータ記憶部96に記憶される複数のインジケータデータのうちの1つであることとなる。また例えばユーザシステム2−2のインジケータデータ記憶部96に、仮想空間共有システム1に含まれる、ユーザシステム2−2以外のユーザシステム2にそれぞれ対応付けられる複数のインジケータデータが記憶されてもよい。この場合、例えば図11Aに示す視点データは、ユーザシステム2−2のインジケータデータ記憶部96に記憶される複数のインジケータデータのうちの1つであることとなる。   The indicator data storage unit 96 may store a plurality of indicator data having different user system IDs. For example, the indicator data storage unit 96 of the user system 2-1 may store a plurality of indicator data respectively associated with the user systems 2 other than the user system 2-1, which are included in the virtual space sharing system 1. In this case, for example, the indicator data illustrated in FIG. 11B is one of a plurality of indicator data stored in the indicator data storage unit 96 of the user system 2-1. Further, for example, the indicator data storage unit 96 of the user system 2-2 may store a plurality of indicator data respectively associated with the user systems 2 other than the user system 2-2 included in the virtual space sharing system 1. In this case, for example, the viewpoint data illustrated in FIG. 11A is one of a plurality of indicator data stored in the indicator data storage unit 96 of the user system 2-2.

自ポインタデータ記憶部98は、本実施形態では例えば、当該自ポインタデータ記憶部98が含まれるユーザシステム2のユーザによって設定されるポインタを示すポインタデータを記憶する。図16に示すように、ポインタデータには例えば、ユーザシステムID、テクスチャID、ポインタ位置データが含まれる。例えばユーザシステム2−2の自ポインタデータ記憶部98には、図16に例示するポインタデータが記憶される。また本実施形態では例えば、ユーザシステム2に割り当てられているユーザシステムIDが、当該ユーザシステム2の自ポインタデータ記憶部98に記憶されるポインタデータのユーザシステムIDとして設定される。   In the present embodiment, the own pointer data storage unit 98 stores pointer data indicating a pointer set by the user of the user system 2 including the own pointer data storage unit 98, for example. As shown in FIG. 16, the pointer data includes, for example, a user system ID, a texture ID, and pointer position data. For example, the pointer data illustrated in FIG. 16 is stored in the own pointer data storage unit 98 of the user system 2-2. In this embodiment, for example, the user system ID assigned to the user system 2 is set as the user system ID of the pointer data stored in the own pointer data storage unit 98 of the user system 2.

なお上述のように、ユーザシステム2のユーザによってポインタが仮想空間に配置されない際には、ポインタデータに含まれるテクスチャIDとして0が設定され、ポインタ位置データの値として(0,0)が設定される。   As described above, when the pointer of the user system 2 is not arranged in the virtual space, 0 is set as the texture ID included in the pointer data, and (0, 0) is set as the value of the pointer position data. The

他ポインタデータ記憶部100は、本実施形態では例えば、当該他ポインタデータ記憶部100が含まれるユーザシステム2とは異なるユーザシステム2のユーザによって設定されるポインタを示すポインタデータを記憶する。   In this embodiment, the other pointer data storage unit 100 stores pointer data indicating a pointer set by a user of the user system 2 different from the user system 2 in which the other pointer data storage unit 100 is included.

他ポインタデータ記憶部100は、ユーザシステムIDが互いに異なる複数のポインタデータを記憶してもよい。例えばユーザシステム2−1の他ポインタデータ記憶部100に、仮想空間共有システム1に含まれる、ユーザシステム2−1以外のユーザシステム2にそれぞれ対応付けられる複数のポインタデータが記憶されてもよい。この場合、例えば図16に示すポインタデータは、ユーザシステム2−1の他ポインタデータ記憶部100に記憶される複数のポインタデータのうちの1つであることとなる。また例えばユーザシステム2−2の他ポインタデータ記憶部100に、仮想空間共有システム1に含まれる、ユーザシステム2−2以外のユーザシステム2にそれぞれ対応付けられる複数のポインタデータが記憶されてもよい。   The other pointer data storage unit 100 may store a plurality of pointer data having different user system IDs. For example, the other pointer data storage unit 100 of the user system 2-1 may store a plurality of pointer data respectively associated with the user systems 2 other than the user system 2-1, which are included in the virtual space sharing system 1. In this case, for example, the pointer data illustrated in FIG. 16 is one of a plurality of pointer data stored in the other pointer data storage unit 100 of the user system 2-1. Further, for example, the other pointer data storage unit 100 of the user system 2-2 may store a plurality of pointer data respectively associated with the user systems 2 other than the user system 2-2 included in the virtual space sharing system 1. .

撮影画像受付部102は、本実施形態では例えば、カメラ20aが所定のサンプリングレートで撮影する、HMD12の像を含む画像を受け付ける。   In the present embodiment, for example, the captured image reception unit 102 receives an image including an image of the HMD 12 that is captured by the camera 20a at a predetermined sampling rate.

位置姿勢特定部104は、本実施形態では例えば、撮影画像受付部102が受け付けた画像に基づいて、HMD12の位置や姿勢を特定する。なお位置姿勢特定部104は、HMD12のセンサ部40により計測される、HMD12の回転量、移動量などの計測結果を表すモーションデータに基づいて、HMD12の位置や姿勢を特定してもよい。この場合、例えば、前回特定された位置をモーションデータが表す移動量だけ移動させた位置が新たなHMD12の位置として特定されてもよい。また例えば、前回特定された姿勢をモーションデータが表す回転量だけ回転させた姿勢が新たなHMD12の姿勢として特定されてもよい。   In this embodiment, for example, the position / orientation specifying unit 104 specifies the position and orientation of the HMD 12 based on the image received by the captured image receiving unit 102. Note that the position / orientation specifying unit 104 may specify the position and orientation of the HMD 12 based on motion data representing measurement results such as the rotation amount and movement amount of the HMD 12 measured by the sensor unit 40 of the HMD 12. In this case, for example, a position obtained by moving the position specified last time by the movement amount represented by the motion data may be specified as the position of the new HMD 12. Further, for example, a posture obtained by rotating the previously specified posture by the rotation amount represented by the motion data may be specified as the new posture of the HMD 12.

自視点データ管理部106は、本実施形態では例えば、位置姿勢特定部104が特定したHMD12の位置や姿勢に基づいて、自視点データ記憶部92に記憶されている視点データの値を更新する。ここで例えば、視点データに含まれる視点位置データが示す三次元座標値の変化量が、位置姿勢特定部104により特定されるHMD12の位置の変化量に比例するよう、視点位置データの値が更新されるようにしてもよい。また例えば、視点データに含まれる視線方向ベクトルデータが示すベクトルの変化量が、位置姿勢特定部104により特定されるHMD12の回転量に比例するよう、視線方向ベクトルデータの値が更新されるようにしてもよい。   In this embodiment, the own viewpoint data management unit 106 updates the value of the viewpoint data stored in the own viewpoint data storage unit 92 based on the position and orientation of the HMD 12 specified by the position / orientation specifying unit 104, for example. Here, for example, the value of the viewpoint position data is updated so that the change amount of the three-dimensional coordinate value indicated by the viewpoint position data included in the viewpoint data is proportional to the change amount of the position of the HMD 12 specified by the position / orientation specifying unit 104. You may be made to do. Also, for example, the value of the line-of-sight vector data is updated so that the amount of change of the vector indicated by the line-of-sight vector data included in the viewpoint data is proportional to the rotation amount of the HMD 12 specified by the position / orientation specifying unit 104. May be.

視点データ送信部108は、本実施形態では例えば、自視点データ記憶部92に記憶されている視点データを管理システム3に送信する。上述のように、管理システム3は、このようにして送信される視点データを中継して、他のユーザシステム2に送信する。ここで例えば、自視点データ記憶部92に記憶されている視点データが更新される度に、当該更新に応じて更新後の値の視点データが管理システム3経由で他のユーザシステム2に送信されてもよい。また例えば、所定の時間間隔(例えば5秒間隔)で、自視点データ記憶部92に記憶されている視点データが管理システム3経由で他のユーザシステム2に送信されてもよい。   In this embodiment, the viewpoint data transmission unit 108 transmits the viewpoint data stored in the own viewpoint data storage unit 92 to the management system 3, for example. As described above, the management system 3 relays the viewpoint data transmitted in this way and transmits it to the other user systems 2. Here, for example, whenever the viewpoint data stored in the own viewpoint data storage unit 92 is updated, the updated viewpoint data is transmitted to the other user system 2 via the management system 3 in accordance with the update. May be. Further, for example, the viewpoint data stored in the own viewpoint data storage unit 92 may be transmitted to another user system 2 via the management system 3 at a predetermined time interval (for example, every 5 seconds).

視点データ受信部110は、本実施形態では例えば、管理システム3から送信される、他のユーザシステム2により送信された視点データを受信する。   In this embodiment, the viewpoint data receiving unit 110 receives viewpoint data transmitted from the other user system 2 and transmitted from the management system 3, for example.

他視点データ管理部112は、本実施形態では例えば、視点データ受信部110が受信する視点データに基づいて、他視点データ記憶部94に記憶されている視点データの値を更新する。ここで他視点データ管理部112は、視点データ受信部110による視点データの受信に応じて、他視点データ記憶部94に記憶されている視点データの値を更新してもよい。   In this embodiment, the other viewpoint data management unit 112 updates the value of the viewpoint data stored in the other viewpoint data storage unit 94 based on the viewpoint data received by the viewpoint data reception unit 110, for example. Here, the other viewpoint data management unit 112 may update the value of the viewpoint data stored in the other viewpoint data storage unit 94 in accordance with the reception of the viewpoint data by the viewpoint data reception unit 110.

インジケータデータ管理部114は、本実施形態では、例えば、他視点データ記憶部94に記憶されている視点データに基づいて、当該視点データに対応付けられるインジケータデータを生成する。本実施形態では例えば、他視点データ記憶部94に記憶されている視点データの値に基づいて、当該視点データとユーザシステムIDが同じであるインジケータデータの値が更新される。   In this embodiment, for example, the indicator data management unit 114 generates indicator data associated with the viewpoint data based on the viewpoint data stored in the other viewpoint data storage unit 94. In the present embodiment, for example, based on the value of the viewpoint data stored in the other viewpoint data storage unit 94, the value of the indicator data having the same user system ID as the viewpoint data is updated.

例えば、他視点データ記憶部94に記憶されている視点データの視点位置データの値が、当該視点データとユーザシステムIDが同じであるインジケータデータの視点インジケータ位置データの値として設定される。   For example, the value of the viewpoint position data of the viewpoint data stored in the other viewpoint data storage unit 94 is set as the value of the viewpoint indicator position data of the indicator data having the same user system ID as the viewpoint data.

また本実施形態では例えば、他視点データ記憶部94に記憶されている視点データの視線方向ベクトルデータが表すベクトルに沿った、当該視点データの視点位置データが表す位置を通る線と交差するテクスチャ画像が特定される。また当該テクスチャ画像に設定されたX1Y1二次元座標系における、当該視点データの視線方向ベクトルデータが表すベクトルに沿った、当該視点データの視点位置データが表す位置を通る線と当該テクスチャ画像との交点の位置の二次元座標値が特定される。そして例えば、特定されるテクスチャ画像の識別子が、当該視点データとユーザシステムIDが同じであるインジケータデータのテクスチャIDとして設定される。また例えば、特定される二次元座標値が、当該視点データとユーザシステムIDが同じであるインジケータデータの注視点インジケータ位置データの値として設定される。   In the present embodiment, for example, a texture image that intersects a line passing through a position represented by the viewpoint position data of the viewpoint data along a vector represented by the line-of-sight direction vector data of the viewpoint data stored in the other viewpoint data storage unit 94. Is identified. Further, in the X1Y1 two-dimensional coordinate system set for the texture image, the intersection of the texture image and a line passing through the position represented by the viewpoint position data of the viewpoint data along the vector represented by the line-of-sight direction vector data of the viewpoint data A two-dimensional coordinate value of the position is specified. For example, the identifier of the specified texture image is set as the texture ID of the indicator data having the same viewpoint data and user system ID. Also, for example, the specified two-dimensional coordinate value is set as the value of the gazing point indicator position data of the indicator data having the same viewpoint data and the user system ID.

なお図12の例のように、他視点データ記憶部94に記憶されている視点データの視点位置データが表す位置を中心とした所定の長さの半径の球面が特定されてもよい。そして特定される球面と、他視点データ記憶部94に記憶されている視点データの視線方向ベクトルデータが表すベクトルに沿った、当該視点データの視点位置データが表す位置を通る線と、の交点が特定されてもよい。そして特定される交点の三次元座標値が、当該視点データとユーザシステムIDが同じであるインジケータデータの注視点インジケータ位置データの値として設定されてもよい。またこの場合に、当該インジケータデータにはテクスチャIDが含まれていなくてもよい。   Note that, as in the example of FIG. 12, a spherical surface having a predetermined length around the position represented by the viewpoint position data of the viewpoint data stored in the other viewpoint data storage unit 94 may be specified. Then, the intersection of the specified spherical surface and the line passing through the position represented by the viewpoint position data of the viewpoint data along the vector represented by the line-of-sight direction vector data of the viewpoint data stored in the other viewpoint data storage unit 94 is It may be specified. Then, the three-dimensional coordinate value of the specified intersection may be set as the value of the gazing point indicator position data of the indicator data having the same viewpoint data and user system ID. In this case, the indicator data may not include the texture ID.

ポインタ操作特定部116は、本実施形態では例えば、上述のリセット操作、移動操作、消去操作などといった、仮想空間内に配置されるポインタに関する操作を特定する。ここでは例えば、上述したようなコントローラ22、マウス、タッチパッドへのユーザの操作が検出された際に、当該操作に応じたポインタ画像80に関する操作が行われたことが特定される。   In the present embodiment, the pointer operation specifying unit 116 specifies an operation related to a pointer placed in the virtual space, such as the above-described reset operation, move operation, and erase operation. Here, for example, when a user operation on the controller 22, mouse, or touch pad as described above is detected, it is specified that an operation related to the pointer image 80 corresponding to the operation has been performed.

自ポインタデータ管理部118は、本実施形態では例えば、ポインタ操作特定部116がポインタ画像80に関する操作を特定した際に、当該操作に応じて自ポインタデータ記憶部98に記憶されているポインタデータを更新する。   In this embodiment, for example, when the pointer operation specifying unit 116 specifies an operation related to the pointer image 80, the own pointer data management unit 118 stores the pointer data stored in the own pointer data storage unit 98 according to the operation. Update.

例えばリセット操作が特定された際には、自ポインタデータ記憶部98に記憶されている視点データの視線方向ベクトルデータが示すベクトルに沿った、当該視点データの視点位置データが示す位置を通る線と交差するテクスチャ画像が特定される。また自ポインタデータ記憶部98に記憶されている視点データの視線方向ベクトルデータが示すベクトルに沿った、当該視点データの視点位置データが示す位置を通る線と当該テクスチャ画像との交点の位置の二次元座標値も特定される。なお当該二次元座標値は、例えば当該テクスチャ画像に設定されたX1Y1二次元座標系における二次元座標値である。   For example, when the reset operation is specified, a line passing through the position indicated by the viewpoint position data of the viewpoint data along the vector indicated by the line-of-sight direction vector data of the viewpoint data stored in the pointer data storage unit 98 is An intersecting texture image is identified. In addition, the position of the intersection of the texture image and the line passing through the position indicated by the viewpoint position data of the viewpoint data along the vector indicated by the line-of-sight direction vector data of the viewpoint data stored in the own pointer data storage unit 98. A dimension coordinate value is also specified. The two-dimensional coordinate value is, for example, a two-dimensional coordinate value in the X1Y1 two-dimensional coordinate system set for the texture image.

そして例えば、自ポインタデータ記憶部98に記憶されているポインタデータに含まれるテクスチャIDとして、特定されるテクスチャ画像の識別子が設定される。そして例えば、当該ポインタデータに含まれるポインタ位置データの値として、特定される二次元座標値が設定される。   For example, the identifier of the specified texture image is set as the texture ID included in the pointer data stored in the own pointer data storage unit 98. For example, the specified two-dimensional coordinate value is set as the value of the pointer position data included in the pointer data.

また移動操作が特定された際には、例えば、当該移動操作に応じた値だけ、自ポインタデータ記憶部98に記憶されているポインタデータに含まれるポインタ位置データの値が更新される。ここで自ポインタデータ管理部118は、ポインタ位置データの値が、掛け軸オブジェクト62bにおける位置を示す二次元座標値の範囲に制限されるよう制御してもよい。   When the movement operation is specified, for example, the value of the pointer position data included in the pointer data stored in the own pointer data storage unit 98 is updated by a value corresponding to the movement operation. Here, the own pointer data management unit 118 may perform control so that the value of the pointer position data is limited to the range of the two-dimensional coordinate value indicating the position in the multiplying-axis object 62b.

また消去操作が特定された際には、例えば、テクスチャIDの値が0に更新され、ポインタ位置データの値が(0,0)に更新される。   When the erasing operation is specified, for example, the value of the texture ID is updated to 0, and the value of the pointer position data is updated to (0, 0).

ポインタデータ送信部120は、本実施形態では例えば、自ポインタデータ記憶部98に記憶されているポインタデータを管理システム3に送信する。上述のように、管理システム3は、このようにして送信されるポインタデータを中継して、他のユーザシステム2に送信する。ここで例えば、自ポインタデータ記憶部98に記憶されているポインタデータが更新される度に、当該更新に応じて更新後の値の視点データが管理システム3経由で他のユーザシステム2に送信されてもよい。また例えば、所定の時間間隔(例えば5秒間隔)で、自ポインタデータ記憶部98に記憶されているポインタデータが管理システム3経由で他のユーザシステム2に送信されてもよい。   In this embodiment, for example, the pointer data transmission unit 120 transmits the pointer data stored in the own pointer data storage unit 98 to the management system 3. As described above, the management system 3 relays the pointer data transmitted in this way and transmits it to the other user system 2. Here, for example, whenever the pointer data stored in the own pointer data storage unit 98 is updated, the updated viewpoint data of the value is transmitted to the other user system 2 via the management system 3 in accordance with the update. May be. Further, for example, the pointer data stored in the own pointer data storage unit 98 may be transmitted to another user system 2 via the management system 3 at a predetermined time interval (for example, every 5 seconds).

ポインタデータ受信部122は、本実施形態では例えば、管理システム3から送信される、他のユーザシステム2により送信されたポインタデータを受信する。   In this embodiment, for example, the pointer data receiving unit 122 receives pointer data transmitted from the other user system 2 and transmitted from the management system 3.

他ポインタデータ管理部124は、本実施形態では例えば、ポインタデータ受信部122が受信するポインタデータに基づいて、他ポインタデータ記憶部100に記憶されているポインタデータの値を更新する。ここで他ポインタデータ管理部124は、ポインタデータ受信部122によるポインタデータの受信に応じて、他ポインタデータ記憶部100に記憶されているポインタデータの値を更新してもよい。   In this embodiment, the other pointer data management unit 124 updates the value of the pointer data stored in the other pointer data storage unit 100 based on the pointer data received by the pointer data reception unit 122, for example. Here, the other pointer data management unit 124 may update the value of the pointer data stored in the other pointer data storage unit 100 in response to the reception of the pointer data by the pointer data reception unit 122.

仮想空間管理部126は、本実施形態では、表示対象となる仮想空間内に各種の仮想オブジェクトを配置する。本実施形態では例えば、仮想空間管理部126は、仮想空間データ記憶部90に記憶されている各種データの値を設定することで、仮想空間内に各種の仮想オブジェクトを配置する。例えば自視点データ記憶部92に記憶されている視点データに基づいて、視点64及び視線方向66が配置される。また例えば、インジケータデータ記憶部96に記憶されているインジケータデータに基づいて、視点インジケータ68及び注視点インジケータ70が配置される。また例えば、自ポインタデータ記憶部98に記憶されているポインタデータ及び他ポインタデータ記憶部100に記憶されているポインタデータに基づいてポインタが配置される。   In this embodiment, the virtual space management unit 126 arranges various virtual objects in the virtual space to be displayed. In the present embodiment, for example, the virtual space management unit 126 sets various virtual objects in the virtual space by setting values of various data stored in the virtual space data storage unit 90. For example, the viewpoint 64 and the line-of-sight direction 66 are arranged based on the viewpoint data stored in the own viewpoint data storage unit 92. Further, for example, the viewpoint indicator 68 and the gazing point indicator 70 are arranged based on the indicator data stored in the indicator data storage unit 96. Further, for example, the pointer is arranged based on the pointer data stored in the own pointer data storage unit 98 and the pointer data stored in the other pointer data storage unit 100.

ここでは例えば、ユーザシステム2−1の仮想空間管理部126が図8に例示する仮想空間74に相当する各種データの値を設定することで各種のオブジェクトが仮想空間74に配置される。例えば仮想空間74には、ユーザシステム2−1の自視点データ記憶部92に記憶されている視点データに応じた、視点64a及び視線方向66aが配置される。また例えば仮想空間74には、ユーザシステム2−1のインジケータデータ記憶部96に記憶されているインジケータデータに応じた、視点インジケータ68b及び注視点インジケータ70bが配置される。この場合、仮想空間管理部126は、視点64bを通る、ユーザシステム2−2に含まれるHMD12の姿勢に応じた視線方向66bに沿った、視点64bから離間した位置に、注視点インジケータ70bを配置することとなる。   Here, for example, the virtual space management unit 126 of the user system 2-1 sets various data values corresponding to the virtual space 74 illustrated in FIG. For example, in the virtual space 74, a viewpoint 64a and a line-of-sight direction 66a corresponding to the viewpoint data stored in the own viewpoint data storage unit 92 of the user system 2-1 are arranged. For example, in the virtual space 74, a viewpoint indicator 68b and a gazing point indicator 70b corresponding to the indicator data stored in the indicator data storage unit 96 of the user system 2-1 are arranged. In this case, the virtual space management unit 126 arranges the gazing point indicator 70b at a position away from the viewpoint 64b along the line-of-sight direction 66b corresponding to the posture of the HMD 12 included in the user system 2-2 that passes through the viewpoint 64b. Will be.

また同様に例えば、ユーザシステム2−1の仮想空間管理部126が図17に例示する仮想空間82に相当する各種データの値を設定することで各種のオブジェクトが仮想空間82に配置される。例えば仮想空間82には、ユーザシステム2−1の自視点データ記憶部92に記憶されている視点データに応じた、視点64a及び視線方向66aが配置される。また例えば仮想空間82には、ユーザシステム2−1の他ポインタデータ記憶部100に記憶されているポインタデータに応じたポインタ画像80が配置される。この場合、ユーザシステム2−1の仮想空間管理部126は、ユーザシステム2−2に含まれるHMD12の向きに応じた仮想空間内の位置にポインタを配置することとなる。   Similarly, for example, the virtual space management unit 126 of the user system 2-1 sets various data values corresponding to the virtual space 82 illustrated in FIG. 17, so that various objects are arranged in the virtual space 82. For example, in the virtual space 82, a viewpoint 64a and a line-of-sight direction 66a corresponding to the viewpoint data stored in the own viewpoint data storage unit 92 of the user system 2-1 are arranged. Further, for example, a pointer image 80 corresponding to the pointer data stored in the other pointer data storage unit 100 of the user system 2-1 is arranged in the virtual space 82. In this case, the virtual space management unit 126 of the user system 2-1 places a pointer at a position in the virtual space corresponding to the direction of the HMD 12 included in the user system 2-2.

また例えば、ユーザシステム2−2の仮想空間管理部126が図10又は図12に例示する仮想空間76に相当する各種データの値を設定することで各種のオブジェクトが仮想空間76に配置される。例えば仮想空間76には、ユーザシステム2−2の自視点データ記憶部92に記憶されている視点データに応じた、視点64b及び視線方向66bが配置される。また仮想空間76には、ユーザシステム2−2のインジケータデータ記憶部96に記憶されているインジケータデータに応じた、視点インジケータ68a及び注視点インジケータ70aが配置される。この場合、仮想空間管理部126は、視点64aを通る、ユーザシステム2−1に含まれるHMD12の姿勢に応じた視線方向66aに沿った、視点64aから離間した位置に、注視点インジケータ70aを配置することとなる。   In addition, for example, the virtual space management unit 126 of the user system 2-2 sets various data values corresponding to the virtual space 76 illustrated in FIG. 10 or FIG. For example, in the virtual space 76, a viewpoint 64b and a line-of-sight direction 66b corresponding to the viewpoint data stored in the own viewpoint data storage unit 92 of the user system 2-2 are arranged. In the virtual space 76, a viewpoint indicator 68a and a gazing point indicator 70a corresponding to the indicator data stored in the indicator data storage unit 96 of the user system 2-2 are arranged. In this case, the virtual space management unit 126 arranges the gaze point indicator 70a at a position away from the viewpoint 64a along the line-of-sight direction 66a according to the attitude of the HMD 12 included in the user system 2-1 that passes through the viewpoint 64a. Will be.

また同様に例えば、ユーザシステム2−2の仮想空間管理部126が図14に例示する仮想空間78に相当する各種データの値を設定することで各種のオブジェクトが仮想空間78に配置される。例えば仮想空間78には、ユーザシステム2−2の自視点データ記憶部92に記憶されている視点データに応じた、視点64b及び視線方向66bが配置される。また仮想空間78には、ユーザシステム2−2のインジケータデータ記憶部96に記憶されているインジケータデータに応じた、視点インジケータ68a及び注視点インジケータ70aが配置される。また仮想空間78には、ユーザシステム2−2の自ポインタデータ記憶部98に記憶されているポインタデータに応じた、ポインタ画像80が配置される。この場合、ユーザシステム2−2の仮想空間管理部126は、ユーザシステム2−2に含まれるHMD12の向きに応じた仮想空間内の位置にポインタを配置することとなる。   Similarly, for example, the virtual space management unit 126 of the user system 2-2 sets various data values corresponding to the virtual space 78 illustrated in FIG. 14, so that various objects are arranged in the virtual space 78. For example, in the virtual space 78, a viewpoint 64b and a line-of-sight direction 66b corresponding to the viewpoint data stored in the own viewpoint data storage unit 92 of the user system 2-2 are arranged. In the virtual space 78, a viewpoint indicator 68a and a gazing point indicator 70a corresponding to the indicator data stored in the indicator data storage unit 96 of the user system 2-2 are arranged. A pointer image 80 corresponding to the pointer data stored in the own pointer data storage unit 98 of the user system 2-2 is arranged in the virtual space 78. In this case, the virtual space management unit 126 of the user system 2-2 places a pointer at a position in the virtual space corresponding to the direction of the HMD 12 included in the user system 2-2.

また仮想空間管理部126は、視点インジケータ68及び注視点インジケータ70のそれぞれを配置するか否かを示すフラグを保持していてもよい。そして当該フラグの値は、ユーザによる操作に応じて変更可能であってもよい。そして当該フラグの値に応じて、視点インジケータ68及び注視点インジケータ70のそれぞれが配置されるか否かが制御されてもよい。例えばユーザシステム2−1のユーザの操作によって、視点インジケータ68及び注視点インジケータ70が配置されることを示す値が当該フラグの値として設定されたとする。この場合は、図8に示すように視点インジケータ68b及び注視点インジケータ70bが仮想空間に配置されてもよい。また例えばユーザシステム2−1のユーザの操作によって、視点インジケータ68及び注視点インジケータ70が配置されないことを示す値が当該フラグの値として設定されたとする。この場合は、図17に示すように視点インジケータ68b及び注視点インジケータ70bが仮想空間に配置されなくてもよい。   The virtual space management unit 126 may hold a flag indicating whether or not each of the viewpoint indicator 68 and the gazing point indicator 70 is arranged. And the value of the said flag may be changeable according to operation by a user. Whether or not each of the viewpoint indicator 68 and the gazing point indicator 70 is arranged may be controlled according to the value of the flag. For example, it is assumed that a value indicating that the viewpoint indicator 68 and the gaze point indicator 70 are arranged is set as the value of the flag by the user's operation of the user system 2-1. In this case, as shown in FIG. 8, the viewpoint indicator 68b and the gazing point indicator 70b may be arranged in the virtual space. Further, for example, it is assumed that a value indicating that the viewpoint indicator 68 and the gazing point indicator 70 are not arranged is set as the value of the flag by a user operation of the user system 2-1. In this case, as shown in FIG. 17, the viewpoint indicator 68b and the gazing point indicator 70b may not be arranged in the virtual space.

また仮想空間管理部126は、対応付けられるユーザシステム2、すなわち対応付けられるHMD12を識別可能な視点インジケータ68や注視点インジケータ70を仮想空間に配置してもよい。例えばインジケータデータに含まれるユーザシステムIDに応じた色や形状の視点インジケータ68や注視点インジケータ70が仮想空間に配置されてもよい。この場合、仮想空間に配置される複数の視点インジケータ68のそれぞれは、対応付けられるユーザシステム2、すなわち対応付けられるHMD12を識別可能なオブジェクトであることとなる。また仮想空間に配置される複数の注視点インジケータ70のそれぞれは、対応付けられるユーザシステム2、すなわち対応付けられるHMD12を識別可能なオブジェクトであることとなる。   In addition, the virtual space management unit 126 may arrange the viewpoint indicator 68 and the gazing point indicator 70 that can identify the associated user system 2, that is, the associated HMD 12, in the virtual space. For example, a viewpoint indicator 68 or a gazing point indicator 70 having a color or shape corresponding to the user system ID included in the indicator data may be arranged in the virtual space. In this case, each of the plurality of viewpoint indicators 68 arranged in the virtual space is an object that can identify the associated user system 2, that is, the associated HMD 12. Each of the plurality of gazing point indicators 70 arranged in the virtual space is an object that can identify the associated user system 2, that is, the associated HMD 12.

また上述のように、HMD12を装着するユーザにより移動操作が行われた際には、当該移動操作に応じた値だけ、自ポインタデータ記憶部98に記憶されているポインタデータに含まれるポインタ位置データの値が更新される。そして、仮想空間管理部126は、当該ポインタ位置データの値の更新に応じて、ポインタ画像80が配置される位置を変化させる。このように本実施形態に係る仮想空間管理部126は、HMD12を装着するユーザによる移動操作に応じて、ポインタ画像80が配置される位置を変化させることとなる。   Further, as described above, when a movement operation is performed by the user wearing the HMD 12, the pointer position data included in the pointer data stored in the own pointer data storage unit 98 is a value corresponding to the movement operation. The value of is updated. Then, the virtual space management unit 126 changes the position where the pointer image 80 is arranged in accordance with the update of the value of the pointer position data. As described above, the virtual space management unit 126 according to the present embodiment changes the position where the pointer image 80 is arranged according to the moving operation by the user wearing the HMD 12.

また上述のように、ポインタ位置データの値が、掛け軸オブジェクト62bにおける位置を示す二次元座標値の範囲に制限されるよう制御される場合がある。この場合は、本実施形態に係る仮想空間管理部126は、ポインタが配置される位置が、仮想空間内に配置された仮想オブジェクトにおける位置を示す範囲に制限されるよう制御することとなる。また上述のように、仮想空間管理部126が、ポインタが配置される位置が、仮想空間に配置された複数の仮想オブジェクトのうちの、HMD12の向きに応じた方向に沿った線と交差する仮想オブジェクトにおける位置を示す範囲に制限されるよう制御してもよい。   Further, as described above, the value of the pointer position data may be controlled so as to be limited to the range of the two-dimensional coordinate value indicating the position in the hanging scroll object 62b. In this case, the virtual space management unit 126 according to the present embodiment performs control so that the position where the pointer is arranged is limited to a range indicating the position in the virtual object arranged in the virtual space. In addition, as described above, the virtual space management unit 126 is a virtual where the position where the pointer is arranged intersects the line along the direction corresponding to the direction of the HMD 12 among the plurality of virtual objects arranged in the virtual space. You may control so that it may restrict | limit to the range which shows the position in an object.

フレーム画像生成部128は、本実施形態では例えば、所定のフレームレートで、仮想空間管理部126により仮想空間に配置される視点64の位置から視線方向66を見た様子を表す画像を生成する。例えばユーザシステム2−1のフレーム画像生成部128は、図7や図18に示す仮想空間画像72aをフレーム画像として生成する。この場合、当該フレーム画像生成部128は、例えば注視点インジケータ70bが配置される仮想空間内に配置された視点64aからユーザシステム2−1に含まれるHMD12の姿勢に応じた視線方向66aを見た様子を表す画像を生成することとなる。また例えばユーザシステム2−2のフレーム画像生成部128は、図9や図13や図15に示す仮想空間画像72bをフレーム画像として生成する。この場合、当該フレーム画像生成部128は、例えば、注視点インジケータ70aが配置される仮想空間内に配置された視点64bからユーザシステム2−2に含まれるHMD12の姿勢に応じた視線方向66bを見た様子を表す画像を生成することとなる。   In the present embodiment, for example, the frame image generation unit 128 generates an image representing a state in which the viewing direction 66 is viewed from the position of the viewpoint 64 arranged in the virtual space by the virtual space management unit 126 at a predetermined frame rate. For example, the frame image generation unit 128 of the user system 2-1 generates the virtual space image 72a shown in FIGS. 7 and 18 as a frame image. In this case, for example, the frame image generation unit 128 viewed the line-of-sight direction 66a corresponding to the posture of the HMD 12 included in the user system 2-1 from the viewpoint 64a arranged in the virtual space where the gazing point indicator 70b is arranged. An image representing the state is generated. Further, for example, the frame image generation unit 128 of the user system 2-2 generates the virtual space image 72b shown in FIGS. 9, 13, and 15 as a frame image. In this case, for example, the frame image generation unit 128 looks at the line-of-sight direction 66b corresponding to the attitude of the HMD 12 included in the user system 2-2 from the viewpoint 64b arranged in the virtual space where the gazing point indicator 70a is arranged. An image representing the appearance is generated.

フレーム画像表示制御部130は、本実施形態では例えば、ポインタが配置された仮想空間の画像である仮想空間画像72を表示させる。例えばフレーム画像表示制御部130は、フレーム画像生成部128が生成するフレーム画像を所定のフレームレートでHMD12の表示部38に表示させる。本実施形態では例えば、ユーザシステム2−1のフレーム画像表示制御部130は、ユーザシステム2−1のフレーム画像生成部128が生成する仮想空間画像72aを、ユーザシステム2−1に含まれるHMD12に送信する。そして当該フレーム画像を受信したHMD12は当該フレーム画像を当該HMD12の表示部38に表示させる。また例えば、ユーザシステム2−2のフレーム画像表示制御部130は、ユーザシステム2−2のフレーム画像生成部128が生成する仮想空間画像72bを、ユーザシステム2−2に含まれるHMD12に送信する。そして当該フレーム画像を受信したHMD12は当該フレーム画像を当該HMD12の表示部38に表示させる。   In the present embodiment, for example, the frame image display control unit 130 displays a virtual space image 72 that is an image of a virtual space in which a pointer is arranged. For example, the frame image display control unit 130 displays the frame image generated by the frame image generation unit 128 on the display unit 38 of the HMD 12 at a predetermined frame rate. In the present embodiment, for example, the frame image display control unit 130 of the user system 2-1 transfers the virtual space image 72a generated by the frame image generation unit 128 of the user system 2-1 to the HMD 12 included in the user system 2-1. Send. The HMD 12 that has received the frame image causes the display unit 38 of the HMD 12 to display the frame image. For example, the frame image display control unit 130 of the user system 2-2 transmits the virtual space image 72b generated by the frame image generation unit 128 of the user system 2-2 to the HMD 12 included in the user system 2-2. The HMD 12 that has received the frame image causes the display unit 38 of the HMD 12 to display the frame image.

なお図18に示すように、ユーザシステム2−1のフレーム画像表示制御部130が、ユーザシステム2−2に含まれるHMD12の向きに応じたポインタが配置された仮想空間画像72aを、ユーザシステム2−1に含まれるHMD12に表示させてもよい。   As illustrated in FIG. 18, the frame image display control unit 130 of the user system 2-1 displays the virtual space image 72 a on which a pointer corresponding to the direction of the HMD 12 included in the user system 2-2 is arranged. -1 may be displayed on the HMD 12 included.

以下、視点データの受信に応じて本実施形態に係るエンタテインメント装置14において行われる処理の流れの一例を、図20に例示するフロー図を参照しながら説明する。   Hereinafter, an example of a flow of processing performed in the entertainment apparatus 14 according to the present embodiment in response to reception of viewpoint data will be described with reference to a flowchart illustrated in FIG.

まず視点データ受信部110が視点データを受信する(S101)。すると他視点データ管理部112が、他視点データ記憶部94に記憶されている、S101に示す処理で受信した視点データと同じユーザシステムIDを含む視点データを特定する(S102)。   First, the viewpoint data receiving unit 110 receives viewpoint data (S101). Then, the other viewpoint data management unit 112 specifies viewpoint data including the same user system ID as the viewpoint data received in the process shown in S101, which is stored in the other viewpoint data storage unit 94 (S102).

そして他視点データ管理部112は、S102に示す処理で特定された視点データを、S101に示す処理で受信した視点データに更新する(S103)。   Then, the other viewpoint data management unit 112 updates the viewpoint data identified in the process shown in S102 to the viewpoint data received in the process shown in S101 (S103).

そしてインジケータデータ管理部114が、上述のようにして、S103に示す処理で更新された視点データに基づいてインジケータデータを生成する(S104)。ここで生成されるインジケータデータに含まれる視点インジケータ位置データの値は、上述のように、S103に示す処理で更新された視点データに含まれる視点位置データの値に基づいて特定可能である。また生成されるインジケータデータに含まれるテクスチャID、及び、注視点インジケータ位置データの値は、上述のように、S103に示す処理で更新された視点データに含まれる視点位置データの値及び視線方向ベクトルデータの値に基づいて特定可能である。   And the indicator data management part 114 produces | generates indicator data based on the viewpoint data updated by the process shown to S103 as mentioned above (S104). The value of the viewpoint indicator position data included in the indicator data generated here can be specified based on the value of the viewpoint position data included in the viewpoint data updated in the process shown in S103 as described above. Further, the texture ID and the value of the gazing point indicator position data included in the generated indicator data are the value of the viewpoint position data and the line-of-sight direction vector included in the viewpoint data updated in the process shown in S103 as described above. It can be identified based on the value of the data.

そしてインジケータデータ管理部114が、インジケータデータ記憶部96に記憶されている、S104に示す処理で生成されたインジケータデータと同じユーザシステムIDを含むインジケータデータを特定する(S105)。   And the indicator data management part 114 specifies the indicator data containing the same user system ID as the indicator data produced | generated by the process shown to S104 memorize | stored in the indicator data memory | storage part 96 (S105).

そして他視点データ管理部112は、S105に示す処理で特定されたインジケータデータを、S104に示す処理で受信したインジケータデータに更新して(S106)、本処理例に示す処理は終了される。   Then, the other-viewpoint data management unit 112 updates the indicator data identified in the process shown in S105 to the indicator data received in the process shown in S104 (S106), and the process shown in this process example ends.

本実施形態では例えば、視点データが受信される度に上述のS101〜S106に示す処理が実行される。   In the present embodiment, for example, the processing shown in S101 to S106 described above is executed every time viewpoint data is received.

次にポインタデータの受信に応じて本実施形態に係るエンタテインメント装置14において行われる処理の流れの一例を、図21に例示するフロー図を参照しながら説明する。   Next, an example of the flow of processing performed in the entertainment device 14 according to the present embodiment in response to reception of pointer data will be described with reference to the flowchart illustrated in FIG.

まずポインタデータ受信部122がポインタデータを受信する(S201)。すると他ポインタデータ管理部124が、他ポインタデータ記憶部100に記憶されている、S201に示す処理で受信したポインタデータと同じユーザシステムIDを含むポインタデータを特定する(S202)。   First, the pointer data receiving unit 122 receives pointer data (S201). Then, the other pointer data management unit 124 specifies pointer data that is stored in the other pointer data storage unit 100 and includes the same user system ID as the pointer data received in the process shown in S201 (S202).

そして他ポインタデータ管理部124は、S202に示す処理で特定されたポインタデータを、S201に示す処理で受信したポインタデータに更新する(S203)。   Then, the other pointer data management unit 124 updates the pointer data specified in the process shown in S202 to the pointer data received in the process shown in S201 (S203).

本実施形態では例えば、ポインタデータが受信される度に上述のS201〜S203に示す処理が実行される。   In the present embodiment, for example, each time the pointer data is received, the processes shown in S201 to S203 are executed.

次に、本実施形態に係るエンタテインメント装置14において行われる仮想空間の表示処理の流れの一例を、図22に例示するフロー図を参照しながら説明する。   Next, an example of the flow of the virtual space display process performed in the entertainment device 14 according to the present embodiment will be described with reference to the flowchart illustrated in FIG.

まず撮影画像受付部102が、カメラ20aが撮影する、HMD12の像を含む画像をカメラ20aから受け付ける(S301)。すると、位置姿勢特定部104が、S301に示す処理で受け付けた画像に基づいて、HMD12の位置及び姿勢を特定する(S302)。   First, the captured image reception unit 102 receives an image including an image of the HMD 12 captured by the camera 20a from the camera 20a (S301). Then, the position / orientation specifying unit 104 specifies the position and orientation of the HMD 12 based on the image received in the process shown in S301 (S302).

そして自視点データ管理部106が、S302に示す処理で特定されたHMD12の位置及び姿勢に基づいて、自視点データ記憶部92に記憶されている視点データに含まれる視点位置データ及び視線方向ベクトルデータの値を更新する(S303)。   Based on the position and orientation of the HMD 12 specified in the process shown in S302, the own viewpoint data management unit 106 includes viewpoint position data and gaze direction vector data included in the viewpoint data stored in the own viewpoint data storage unit 92. Is updated (S303).

そして視点データ送信部108が、S303に示す処理で更新された視点データを管理システム3に送信する(S304)。このようにして送信された視点データは、当該ユーザシステム2以外の、仮想空間共有システム1に含まれるユーザシステム2に送信されることとなる(図20のS101参照)。   Then, the viewpoint data transmission unit 108 transmits the viewpoint data updated in the process shown in S303 to the management system 3 (S304). The viewpoint data transmitted in this way is transmitted to the user system 2 included in the virtual space sharing system 1 other than the user system 2 (see S101 in FIG. 20).

そしてポインタ操作特定部116が、上述のリセット操作、移動操作、又は、消去操作などといったポインタに関する操作が行われたか否かを確認する(S305)。   Then, the pointer operation specifying unit 116 checks whether or not an operation related to the pointer such as the above-described reset operation, movement operation, or deletion operation has been performed (S305).

ここでポインタに関する操作が行われたことが確認されたとする(S305:Y)。この場合は、自ポインタデータ管理部118が、自ポインタデータ記憶部98に記憶されているポインタデータに含まれるテクスチャID及びポインタ位置データの値を当該操作に応じた値に更新する(S306)。そしてポインタデータ送信部120が更新されたポインタデータを管理システム3に送信する(S307)。このようにして送信されたポインタデータは、当該ユーザシステム2以外の、仮想空間共有システム1に含まれるユーザシステム2に送信されることとなる(図21のS201参照)。   Here, it is assumed that an operation related to the pointer is confirmed (S305: Y). In this case, the own pointer data management unit 118 updates the values of the texture ID and the pointer position data included in the pointer data stored in the own pointer data storage unit 98 to values according to the operation (S306). Then, the pointer data transmission unit 120 transmits the updated pointer data to the management system 3 (S307). The pointer data transmitted in this way is transmitted to the user system 2 included in the virtual space sharing system 1 other than the user system 2 (see S201 in FIG. 21).

S305に示す処理でポインタに関する操作が行われたことが確認されなかった場合(S305:N)、又は、S307に示す処理が終了したとする。この場合は、仮想空間管理部126は、保持しているフラグの値に基づいて、配置される視点インジケータ68及び注視点インジケータ70を特定する(S308)。そして仮想空間管理部126が、S307に示す処理で特定された視点インジケータ68及び注視点インジケータ70に対応付けられるインジケータデータをインジケータデータ記憶部96から取得する(S309)。   If it is not confirmed in the process shown in S305 that an operation related to the pointer has been performed (S305: N), or the process shown in S307 is completed. In this case, the virtual space management unit 126 identifies the viewpoint indicator 68 and the gazing point indicator 70 to be arranged based on the value of the flag being held (S308). Then, the virtual space management unit 126 acquires indicator data associated with the viewpoint indicator 68 and the gazing point indicator 70 identified in the process shown in S307 from the indicator data storage unit 96 (S309).

そして仮想空間管理部126は、配置されるポインタ画像80に対応付けられるポインタデータを自ポインタデータ記憶部98及び他ポインタデータ記憶部100から取得する(S310)。ここでは例えば、テクスチャIDが0でありポインタ位置データの値が(0,0)であるポインタデータは取得の対象から除外される。   Then, the virtual space management unit 126 acquires the pointer data associated with the pointer image 80 to be arranged from the own pointer data storage unit 98 and the other pointer data storage unit 100 (S310). Here, for example, pointer data whose texture ID is 0 and whose pointer position data value is (0, 0) is excluded from acquisition targets.

そして仮想空間管理部126は、視点インジケータ68、注視点インジケータ70、及び、ポインタ画像80を、仮想空間に配置する(S311)。ここでは例えば、S308に示す処理で取得されたインジケータデータの値に応じた視点インジケータ68及び注視点インジケータ70が配置される。またS309に示す処理で取得されたポインタデータの値に応じたポインタ画像80が配置される。なおここで既に配置されているオブジェクトの位置が変更されても構わない。また仮想空間に配置されていたポインタ画像80に対応付けられるポインタデータが取得されていない場合は、当該ポインタ画像80は仮想空間から消去される。   Then, the virtual space management unit 126 arranges the viewpoint indicator 68, the gazing point indicator 70, and the pointer image 80 in the virtual space (S311). Here, for example, the viewpoint indicator 68 and the gazing point indicator 70 corresponding to the value of the indicator data acquired in the process shown in S308 are arranged. A pointer image 80 corresponding to the value of the pointer data acquired in the process shown in S309 is arranged. Here, the position of the object already arranged may be changed. When pointer data associated with the pointer image 80 arranged in the virtual space has not been acquired, the pointer image 80 is deleted from the virtual space.

そして仮想空間管理部126は、自視点データ記憶部92に記憶されている視点データを取得する(S312)。   Then, the virtual space management unit 126 acquires the viewpoint data stored in the own viewpoint data storage unit 92 (S312).

そして仮想空間管理部126は、S312に示す処理で取得した視点データに基づいて、仮想空間内に視点64の位置及び視線方向66を設定する(S313)。ここでは例えば既に仮想空間に設定されている視点64の位置及び視線方向66が変更される。   Then, the virtual space management unit 126 sets the position of the viewpoint 64 and the line-of-sight direction 66 in the virtual space based on the viewpoint data acquired in the process shown in S312 (S313). Here, for example, the position of the viewpoint 64 and the line-of-sight direction 66 already set in the virtual space are changed.

そしてフレーム画像生成部128は、S313に示す処理で設定された視点64の位置から視線方向66を見た様子を表す画像を生成する(S314)。なおS314に示す処理では、二次元画像が生成されても三次元画像が生成されても構わない。   Then, the frame image generation unit 128 generates an image representing a state in which the line-of-sight direction 66 is viewed from the position of the viewpoint 64 set in the process shown in S313 (S314). In the process shown in S314, a two-dimensional image or a three-dimensional image may be generated.

そしてフレーム画像表示制御部130が、S314に示す処理で生成されたフレーム画像をHMD12に送信する(S315)。当該フレーム画像を受信したHMD12は、当該フレーム画像を表示部38に表示させる。   Then, the frame image display control unit 130 transmits the frame image generated by the process shown in S314 to the HMD 12 (S315). The HMD 12 that has received the frame image causes the display unit 38 to display the frame image.

そして本実施形態では、所定の時間間隔(例えば1/60秒間隔)で、S301〜S315に示す処理が繰り返し実行されることとなる。   In this embodiment, the processes shown in S301 to S315 are repeatedly executed at predetermined time intervals (for example, 1/60 second intervals).

なお上述の例ではポインタに関する操作が行われる度にポインタデータが送信されるが、その代わりに例えば、ポインタデータの送信が所定時間間隔(例えば1/60秒間隔や5秒間隔)で行われるようにしても構わない。   In the above example, the pointer data is transmitted every time an operation related to the pointer is performed. Instead, for example, the pointer data is transmitted at a predetermined time interval (for example, 1/60 second interval or 5 second interval). It doesn't matter.

また上述の例では、所定の時間間隔(例えば1/60秒間隔)で視点データが送信されるが、その代わりに例えば、当該時間間隔とは異なる時間間隔(例えば5秒間隔)で視点データが送信されてもよい。   In the above example, the viewpoint data is transmitted at a predetermined time interval (for example, 1/60 second interval). Instead, for example, the viewpoint data is transmitted at a time interval different from the time interval (for example, 5 second interval). May be sent.

また上述の例では視点データを受信したユーザシステム2が当該視点データに対応付けられるインジケータデータを生成するが、その代わりに例えば、ユーザシステム2が視点データに対応付けられるインジケータデータを生成してもよい。そしてユーザシステム2が当該インジケータを他のユーザシステム2に送信するようにしてもよい。   In the above example, the user system 2 that has received the viewpoint data generates indicator data associated with the viewpoint data. Alternatively, for example, the user system 2 may generate indicator data associated with the viewpoint data. Good. The user system 2 may transmit the indicator to another user system 2.

また上述の例ではポインタデータがユーザシステム2間で共有されるが、その代わりにポインタデータがユーザシステム2間で共有されなくてもよい。   In the above example, the pointer data is shared between the user systems 2. However, the pointer data may not be shared between the user systems 2 instead.

またユーザシステム2に対応付けられるポインタ画像80が表示されている際に当該ユーザシステム2のユーザが所定の操作を行った場合は、ユーザシステム2は、当該ポインタ画像80が表示されている位置に応じた処理を実行してもよい。例えば所定の操作に応じてポインタ画像80が配置されている位置を中心に拡大して表示させる処理が実行されるようにしてもよい。   Further, when the user of the user system 2 performs a predetermined operation while the pointer image 80 associated with the user system 2 is displayed, the user system 2 moves to the position where the pointer image 80 is displayed. A corresponding process may be executed. For example, a process of enlarging and displaying the position where the pointer image 80 is arranged in accordance with a predetermined operation may be executed.

以上、本実施形態に係る仮想空間の一例である掛け軸オブジェクト62が配置された仮想空間を用いて本実施形態について説明した。しかし本実施形態に係る仮想空間は掛け軸オブジェクト62が配置された仮想空間に限定されない。例えば、本実施形態に係る仮想空間は、図23に示す仮想空間140であっても構わない。   The present embodiment has been described above using the virtual space in which the hanging object 62 that is an example of the virtual space according to the present embodiment is arranged. However, the virtual space according to the present embodiment is not limited to the virtual space in which the hanging object 62 is arranged. For example, the virtual space according to the present embodiment may be the virtual space 140 shown in FIG.

図23は、仮想空間140がユーザシステム2−1とユーザシステム2−2とで共有されている様子の一例を示す図である。   FIG. 23 is a diagram illustrating an example of a state in which the virtual space 140 is shared between the user system 2-1 and the user system 2-2.

図23に例示する仮想空間140には、平板状の三次元オブジェクトである、画面を表す仮想オブジェクトであるスクリーンオブジェクト142が配置されている。また、仮想空間140には、球面状の仮想オブジェクトである背景オブジェクト144が配置されている。なお背景オブジェクト144の半径は例えば無限大に設定されていてもよい。   In the virtual space 140 illustrated in FIG. 23, a screen object 142 that is a virtual object representing a screen, which is a flat three-dimensional object, is arranged. In the virtual space 140, a background object 144, which is a spherical virtual object, is arranged. The radius of the background object 144 may be set to infinity, for example.

図23に例示する仮想空間140に配置されている背景オブジェクト144の内側には、全方位カメラで撮影されたテクスチャ画像がマッピングされる。なおこのテクスチャ画像は、ユーザシステム2に記録されている動画像であっても、ユーザシステム2にストリーミング配信される動画像であっても構わない。   A texture image taken by an omnidirectional camera is mapped inside the background object 144 arranged in the virtual space 140 illustrated in FIG. The texture image may be a moving image recorded in the user system 2 or a moving image that is streamed to the user system 2.

またスクリーンオブジェクト142には、上述の全方位カメラとは別のカメラで撮影されたテクスチャ画像がマッピングされる。このテクスチャ画像も、ユーザシステム2に記録されている動画像や、ユーザシステム2にストリーミング配信される動画像などであっても構わない。   The screen object 142 is mapped with a texture image taken by a camera different from the above-mentioned omnidirectional camera. This texture image may also be a moving image recorded in the user system 2, a moving image that is streamed to the user system 2, or the like.

ここで例えば背景オブジェクト144にマッピングされる動画像は、サッカーの試合が行われているスタジアムの全景の映像であることとする。そしてスクリーンオブジェクト142にマッピングされる動画像は、テレビ放送がされている、当該サッカーの試合の中継映像であることとする。   Here, for example, it is assumed that the moving image mapped to the background object 144 is a video of the entire view of the stadium where a soccer game is being performed. The moving image mapped to the screen object 142 is a relay video of the soccer game that is being broadcast on television.

図23に示す仮想空間140においては、ユーザシステム2−1のHMD12の表示部38には、背景オブジェクト144の内側に配置された視点146aから視線方向148aを見た様子を表す映像が表示される。また、ユーザシステム2−2のHMD12の表示部38には、背景オブジェクト144の内側に配置された視点146bから視線方向148bを見た様子を表す映像が表示される。   In the virtual space 140 illustrated in FIG. 23, an image representing a state in which the line-of-sight direction 148a is viewed from the viewpoint 146a arranged inside the background object 144 is displayed on the display unit 38 of the HMD 12 of the user system 2-1. . In addition, on the display unit 38 of the HMD 12 of the user system 2-2, an image representing a state in which the line-of-sight direction 148 b is viewed from the viewpoint 146 b arranged inside the background object 144 is displayed.

なおここでは、視線方向148aに沿った視点146aを通る線は、背景オブジェクト144にマッピングされているテクスチャ画像と交差することととする。また視線方向148bに沿った視点146bを通る線も、背景オブジェクト144にマッピングされているテクスチャ画像と交差することととする。   Here, it is assumed that a line passing through the viewpoint 146a along the line-of-sight direction 148a intersects the texture image mapped to the background object 144. A line passing through the viewpoint 146b along the line-of-sight direction 148b also intersects with the texture image mapped to the background object 144.

そして図23に示す仮想空間140においても、以上で説明した内容と同様にして、視点インジケータや注視点インジケータを配置することができるようになっている。   In the virtual space 140 shown in FIG. 23, a viewpoint indicator and a gazing point indicator can be arranged in the same manner as described above.

図24は、ユーザシステム2−1のHMD12の表示部38に表示される、仮想空間140に配置された視点146aから視線方向148aを見た様子を表す画像である仮想空間画像150aの一例を示す図である。図24に示す仮想空間画像150aには、ユーザシステム2−2のユーザの注視点の位置を示す注視点インジケータ152bが含まれている。図24の例では、背景オブジェクト144にマッピングされているテクスチャ画像に注視点インジケータ152bが重畳されている。これは視線方向148bに沿った視点146bを通る線が、背景オブジェクト144にマッピングされているテクスチャ画像と交差しているためである。   FIG. 24 shows an example of a virtual space image 150a that is displayed on the display unit 38 of the HMD 12 of the user system 2-1, and is an image representing a view of the line-of-sight direction 148a from the viewpoint 146a arranged in the virtual space 140. FIG. The virtual space image 150a illustrated in FIG. 24 includes a gazing point indicator 152b that indicates the position of the gazing point of the user of the user system 2-2. In the example of FIG. 24, a gazing point indicator 152b is superimposed on the texture image mapped to the background object 144. This is because the line passing through the viewpoint 146b along the line-of-sight direction 148b intersects the texture image mapped to the background object 144.

図25は、ユーザシステム2−2のHMD12の表示部38に表示される、仮想空間140に配置された視点146bから視線方向148bを見た様子を表す画像である仮想空間画像150bの一例を示す図である。図25に示す仮想空間画像150bには、ユーザシステム2−1のユーザの注視点の位置を示す注視点インジケータ152aが含まれている。図25の例では、背景オブジェクト144にマッピングされているテクスチャ画像に注視点インジケータ152aが重畳されている。これは視線方向148aに沿った視点146aを通る線が、背景オブジェクト144にマッピングされているテクスチャ画像と交差しているためである。   FIG. 25 shows an example of a virtual space image 150b that is an image showing a view of the line-of-sight direction 148b from the viewpoint 146b arranged in the virtual space 140 displayed on the display unit 38 of the HMD 12 of the user system 2-2. FIG. A virtual space image 150b illustrated in FIG. 25 includes a gazing point indicator 152a indicating the position of the gazing point of the user of the user system 2-1. In the example of FIG. 25, the gazing point indicator 152a is superimposed on the texture image mapped to the background object 144. This is because the line passing through the viewpoint 146a along the line-of-sight direction 148a intersects the texture image mapped to the background object 144.

また図23に示す仮想空間140においても、以上で説明した内容と同様にして、ポインタを配置することが可能になっている。   Also in the virtual space 140 shown in FIG. 23, pointers can be arranged in the same manner as described above.

図26は、ユーザシステム2−1のHMD12の表示部38に表示される、仮想空間140に配置された視点146aから視線方向148aを見た様子を表す画像である仮想空間画像150aの別の一例を示す図である。   FIG. 26 shows another example of the virtual space image 150a displayed on the display unit 38 of the HMD 12 of the user system 2-1, which is an image representing a view of the line-of-sight direction 148a from the viewpoint 146a arranged in the virtual space 140. FIG.

図27は、ユーザシステム2−2のHMD12の表示部38に表示される、仮想空間140に配置された視点146bから視線方向148bを見た様子を表す画像である仮想空間画像150bの別の一例を示す図である。   FIG. 27 shows another example of the virtual space image 150b displayed on the display unit 38 of the HMD 12 of the user system 2-2, which is an image showing a view direction 148b from the viewpoint 146b arranged in the virtual space 140. FIG.

図26に示す仮想空間画像150a及び図27に示す仮想空間画像150bには、ユーザシステム2−1のユーザによって配置されたポインタ画像154a、及び、ユーザシステム2−2のユーザによって配置されたポインタ画像154bが含まれている。またポインタ画像154aとポインタ画像154bの色は異なっており、それぞれのポインタ画像154に対応付けられるユーザシステム2が識別可能になっている。   The virtual space image 150a illustrated in FIG. 26 and the virtual space image 150b illustrated in FIG. 27 include a pointer image 154a disposed by the user of the user system 2-1 and a pointer image disposed by the user of the user system 2-2. 154b is included. Moreover, the colors of the pointer image 154a and the pointer image 154b are different, and the user system 2 associated with each pointer image 154 can be identified.

図26及び図27の例では、背景オブジェクト144にマッピングされているテクスチャ画像にポインタ画像154a及びポインタ画像154bが重畳されている。これは視線方向148aに沿った視点146aを通る線も視線方向148bに沿った視点146bを通る線も、背景オブジェクト144にマッピングされているテクスチャ画像と交差しているためである。   In the example of FIGS. 26 and 27, the pointer image 154a and the pointer image 154b are superimposed on the texture image mapped to the background object 144. This is because the line passing through the viewpoint 146a along the line-of-sight direction 148a and the line passing through the viewpoint 146b along the line-of-sight direction 148b intersect with the texture image mapped to the background object 144.

ここで、ポインタ画像154aの移動範囲やポインタ画像154bの移動範囲が、背景オブジェクト144にマッピングされているテクスチャ画像上に制限されてもよい。   Here, the movement range of the pointer image 154a and the movement range of the pointer image 154b may be limited on the texture image mapped to the background object 144.

なお例えば、ポインタ画像154がスクリーンオブジェクト142にマッピングされているテクスチャ画像に配置される場合がある。この場合は、同様に、当該ポインタ画像154の移動範囲が、スクリーンオブジェクト142にマッピングされているテクスチャ画像上に制限されてもよい。   For example, the pointer image 154 may be arranged on the texture image mapped to the screen object 142. In this case, similarly, the movement range of the pointer image 154 may be limited on the texture image mapped to the screen object 142.

なおユーザの操作に応じてスクリーンオブジェクト142の位置が移動するようにしてもよい。またそれぞれのユーザシステム2が、当該ユーザシステム2において構成される仮想空間に配置されるスクリーンオブジェクト142の位置が移動可能であってもよい。そしてユーザシステム2毎に、当該ユーザシステム2において構成される仮想空間内のスクリーンオブジェクト142が異なっても構わない。   Note that the position of the screen object 142 may be moved in accordance with a user operation. In addition, each user system 2 may be able to move the position of the screen object 142 arranged in the virtual space configured in the user system 2. And the screen object 142 in the virtual space comprised in the said user system 2 may differ for every user system 2. FIG.

また仮想空間内に互いに異なる映像が表示される複数のスクリーンオブジェクト142が配置可能であってもよい。   In addition, a plurality of screen objects 142 on which different images are displayed in the virtual space may be arranged.

なお本実施形態では、仮想空間共有システム1に含まれるユーザシステム2においてテクスチャ画像として表示される動画像は同期がとれており、ユーザシステム2は同じ映像を同じタイミングで楽しむことができるようになっている。   In the present embodiment, the moving images displayed as texture images in the user system 2 included in the virtual space sharing system 1 are synchronized, and the user system 2 can enjoy the same video at the same timing. ing.

また複数の全天周カメラのそれぞれによって、互いに異なるスタジアムの位置から映像の撮影が行われていても構わない。あるユーザシステム2のユーザの所定の操作に応じて、背景オブジェクト144にマッピングされるテクスチャ画像である映像を撮影する全天周カメラ(撮影地点)が切り替わっても構わない。このときあるユーザが他のユーザに対して撮影地点を変えるよう音声で促すようにしてもよい。ここで撮影地点が連続的に切り替わるようにせず、非連続的に切り替わるようにすると、ユーザが酔う可能性を下げることができる。   The plurality of omnidirectional cameras may each shoot images from different stadium positions. In accordance with a predetermined operation by a user of a certain user system 2, an all-sky camera (shooting point) that captures a video that is a texture image mapped to the background object 144 may be switched. At this time, a user may prompt another user to change the shooting point by voice. Here, the possibility of the user getting drunk can be reduced if the shooting points are not switched continuously but switched continuously.

また本実施形態では、ユーザシステム2のユーザによって設定される視点146の位置や視線方向148は、他のユーザのHMD12の動きによっては影響を受けない。このように本実施形態ではHMD12を装着するユーザが酔う可能性を下げている。   In the present embodiment, the position of the viewpoint 146 and the line-of-sight direction 148 set by the user of the user system 2 are not affected by the movement of the HMD 12 of another user. Thus, in this embodiment, the user who wears the HMD 12 is less likely to get drunk.

なおスクリーンオブジェクト142や背景オブジェクト144にマッピングされる動画像は上述のものに限定されない。例えば背景オブジェクト144にマッピングされる動画像が星空の映像であっても構わない。またこの場合にスクリーンオブジェクト142にマッピングされる動画像が環境映像であっても構わない。   The moving images mapped to the screen object 142 and the background object 144 are not limited to those described above. For example, the moving image mapped to the background object 144 may be a starry sky video. In this case, the moving image mapped to the screen object 142 may be an environmental video.

また本実施形態において、HMD12の位置又は向きに基づいて特定される領域に、他の領域よりも高解像度の画像が配置されるようにしてもよい。例えば、視線方向148に沿った視点146を通る線と交差するテクスチャ画像内の位置を中心とした所定の大きさの領域に、他の領域よりも高解像度のテクスチャ画像が配置されてもよい。また例えば、視線方向148に沿った視点146を通る線と交差するオブジェクトに、他のテクスチャ画像よりも高解像度であるテクスチャ画像がマッピングされてもよい。   In the present embodiment, an image having a higher resolution than other regions may be arranged in the region specified based on the position or orientation of the HMD 12. For example, a texture image having a resolution higher than that of other regions may be arranged in a region having a predetermined size centered on a position in the texture image that intersects with a line passing through the viewpoint 146 along the line-of-sight direction 148. For example, a texture image having a higher resolution than other texture images may be mapped to an object that intersects with a line passing through the viewpoint 146 along the line-of-sight direction 148.

また例えば、スクリーンオブジェクト142にマッピングされているテクスチャ画像が、背景オブジェクト144にマッピングされているテクスチャ画像よりも高解像度であってもよい。   For example, the texture image mapped to the screen object 142 may have a higher resolution than the texture image mapped to the background object 144.

なお、本発明は上述の実施形態に限定されるものではない。   In addition, this invention is not limited to the above-mentioned embodiment.

例えば、視点データやポインタデータの送受信が、管理システム3によって中継される必要はない。例えばユーザシステム2間で直接、視点データやポインタデータの送受信が行われてもよい。   For example, transmission / reception of viewpoint data and pointer data need not be relayed by the management system 3. For example, transmission / reception of viewpoint data and pointer data may be performed directly between the user systems 2.

また本発明は、HMD12とエンタテインメント装置14とが有線で通信する場合も無線で通信する場合も適用可能である。   Further, the present invention can be applied to the case where the HMD 12 and the entertainment device 14 communicate with each other by wire or wirelessly.

また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。   The specific character strings and numerical values described above and the specific character strings and numerical values in the drawings are examples, and are not limited to these character strings and numerical values.

Claims (7)

ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置するポインタ配置部と、
前記ポインタが配置された仮想空間の画像を表示させる表示制御部と、
を含むことを特徴とする表示制御装置。
A pointer placement unit for placing a pointer at a position in the virtual space according to the orientation of the head mounted display;
A display control unit for displaying an image of a virtual space in which the pointer is arranged;
A display control apparatus comprising:
前記ポインタ配置部は、前記ヘッドマウントディスプレイを装着するユーザの操作に応じて、前記ポインタが配置される位置を変化させる、
ことを特徴とする請求項1に記載の表示制御装置。
The pointer arrangement unit changes a position where the pointer is arranged according to an operation of a user wearing the head mounted display.
The display control apparatus according to claim 1.
前記ポインタ配置部は、前記ポインタが配置される位置が、前記仮想空間内に配置された仮想オブジェクトにおける位置を示す範囲に制限されるよう制御する、
ことを特徴とする請求項2に記載の表示制御装置。
The pointer arrangement unit controls the position where the pointer is arranged to be limited to a range indicating a position in a virtual object arranged in the virtual space;
The display control apparatus according to claim 2.
前記ポインタ配置部は、前記ポインタが配置される位置が、前記仮想空間に配置された複数の仮想オブジェクトのうちの、前記ヘッドマウントディスプレイの向きに応じた方向に沿った線と交差する仮想オブジェクトにおける位置を示す範囲に制限されるよう制御する、
ことを特徴とする請求項2に記載の表示制御装置。
The pointer placement unit is a virtual object in which a position at which the pointer is placed intersects a line along a direction according to the direction of the head mounted display among the plurality of virtual objects placed in the virtual space. Control to be limited to the range indicating the position,
The display control apparatus according to claim 2.
前記表示制御部は、前記ヘッドマウントディスプレイとは別のヘッドマウントディスプレイに前記画像を表示させる、
ことを特徴とする請求項1から4のいずれか一項に記載の表示制御装置。
The display control unit displays the image on a head mounted display different from the head mounted display;
The display control device according to claim 1, wherein the display control device is a display control device.
ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置するステップと、
前記ポインタが配置された仮想空間の画像を表示させるステップと、
を含むことを特徴とする表示制御方法。
Placing a pointer at a position in the virtual space according to the orientation of the head mounted display;
Displaying an image of a virtual space in which the pointer is arranged;
A display control method comprising:
ヘッドマウントディスプレイの向きに応じた仮想空間内の位置にポインタを配置する手順、
前記ポインタが配置された仮想空間の画像を表示させる手順、
をコンピュータに実行させることを特徴とするプログラム。
Procedure to place the pointer at a position in the virtual space according to the orientation of the head mounted display,
A procedure for displaying an image of a virtual space in which the pointer is arranged;
A program that causes a computer to execute.
JP2018515394A 2016-05-02 2017-02-13 Display control apparatus, display control method, and program Active JP6563592B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016092766 2016-05-02
JP2016092766 2016-05-02
PCT/JP2017/005151 WO2017191701A1 (en) 2016-05-02 2017-02-13 Display control device, display control method, and program

Publications (2)

Publication Number Publication Date
JPWO2017191701A1 true JPWO2017191701A1 (en) 2018-10-18
JP6563592B2 JP6563592B2 (en) 2019-08-21

Family

ID=60202925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018515394A Active JP6563592B2 (en) 2016-05-02 2017-02-13 Display control apparatus, display control method, and program

Country Status (2)

Country Link
JP (1) JP6563592B2 (en)
WO (1) WO2017191701A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6923608B2 (en) * 2019-09-20 2021-08-25 Kddi株式会社 Information processing equipment, information processing methods, and programs
EP4178199A4 (en) * 2020-07-30 2023-11-08 Sony Group Corporation Information processing device, information processing method, video distribution method, and information processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128138A (en) * 1995-10-31 1997-05-16 Sony Corp Image display device and method
JP2000172405A (en) * 1998-12-07 2000-06-23 Casio Comput Co Ltd Cursor display controller and recording medium
JP2002525769A (en) * 1998-09-22 2002-08-13 ヴェガ ヴィスタ インコーポレイテッド Direct control of portable data display
JP2016035742A (en) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128138A (en) * 1995-10-31 1997-05-16 Sony Corp Image display device and method
JP2002525769A (en) * 1998-09-22 2002-08-13 ヴェガ ヴィスタ インコーポレイテッド Direct control of portable data display
JP2000172405A (en) * 1998-12-07 2000-06-23 Casio Comput Co Ltd Cursor display controller and recording medium
JP2016035742A (en) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program

Also Published As

Publication number Publication date
JP6563592B2 (en) 2019-08-21
WO2017191701A1 (en) 2017-11-09

Similar Documents

Publication Publication Date Title
CN109479010B (en) Private communication by gazing at avatar
US10620791B2 (en) Information processing apparatus and operation reception method
EP3396511B1 (en) Information processing device and operation reception method
US20200053348A1 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US20110306413A1 (en) Entertainment device and entertainment methods
US11094107B2 (en) Information processing device and image generation method
JP6661756B2 (en) Image generation apparatus, image generation method, and program
JP2012174237A (en) Display control program, display control device, display control system and display control method
JP2012093934A (en) Image display device, game program and game control method
JP2019039988A (en) Information processing apparatus and image display method
WO2018079557A1 (en) Information processing device and image generation method
JP2012141939A (en) Display control program, display control device, display control system and display control method
US20230214005A1 (en) Information processing apparatus, method, program, and information processing system
WO2020218131A1 (en) Image forming device and information presenting method
JP6563592B2 (en) Display control apparatus, display control method, and program
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP2016001476A (en) Display control program, display control device, display control system and display control method
JP2012106005A (en) Image display device, game program, and game control method
CN109791436B (en) Apparatus and method for providing virtual scene
KR20210056414A (en) System for controlling audio-enabled connected devices in mixed reality environments
JP2019145161A (en) Program, information processing device, and information processing method
WO2017056597A1 (en) Information processing apparatus
US20200302761A1 (en) Indicator modes
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
TW201805773A (en) Pointing display device, pointing control device, pointing control system and thereof method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190724

R150 Certificate of patent or registration of utility model

Ref document number: 6563592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150