JP2016035742A - Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program - Google Patents

Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2016035742A
JP2016035742A JP2015123556A JP2015123556A JP2016035742A JP 2016035742 A JP2016035742 A JP 2016035742A JP 2015123556 A JP2015123556 A JP 2015123556A JP 2015123556 A JP2015123556 A JP 2015123556A JP 2016035742 A JP2016035742 A JP 2016035742A
Authority
JP
Japan
Prior art keywords
information processing
mounted display
head
virtual space
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015123556A
Other languages
Japanese (ja)
Other versions
JP6004051B2 (en
Inventor
弘貴 深草
Hiroki Fukakusa
弘貴 深草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2015123556A priority Critical patent/JP6004051B2/en
Publication of JP2016035742A publication Critical patent/JP2016035742A/en
Application granted granted Critical
Publication of JP6004051B2 publication Critical patent/JP6004051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify a desired position on a first virtual space with a line of sight from a first head-mounted display so as to display the position on a second head-mounted display so that the position can be identified.SOLUTION: There is provided an information processing system comprising a plurality of information processing apparatuses communicably connected to head-mounted displays that each include display means for displaying an image of a virtual space having information on a virtual object in common among the plurality of information processing apparatuses. The information processing system acquires positions and directions of the head-mounted displays in the real space and specifies positions in the virtual space on the basis of the position and direction information obtained. It then implements control so as to display arrows from the head-mounted displays to the specified positions.SELECTED DRAWING: Figure 11

Description

本発明は、複合現実感(Mixed Reality)技術に関し、特に第1の仮想空間上の所望の位置を、第1のヘッドマウントディスプレイの視線によって特定することにより、第2のヘッドマウントディスプレイで識別可能に表示させることが可能な情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラムに関する。   The present invention relates to mixed reality technology, and in particular, a desired position in a first virtual space can be identified by a second head-mounted display by specifying the line of sight of the first head-mounted display. The present invention relates to an information processing system that can be displayed on a computer, a control method and program thereof, and an information processing device, and a control method and program thereof.

従来、カメラで撮影することで得られる現実空間の画像とコンピュータで生成された仮想空間の画像(仮想オブジェクト)とを重畳させて、ヘッドマウントディスプレイ(HMD)やスマートフォンに表示させる技術が存在する。例えば、複合現実感(Mixed Reality、以下、MR)技術や拡張現実感(Augmented Reality、以下、AR)技術などがある。   2. Description of the Related Art Conventionally, there is a technique for superimposing a real space image obtained by photographing with a camera and a virtual space image (virtual object) generated by a computer and displaying them on a head mounted display (HMD) or a smartphone. For example, there are mixed reality (hereinafter referred to as MR) technology and augmented reality (hereinafter referred to as AR) technology.

特にMR技術は、ユーザが装着したHMDに現実空間の画像と仮想空間の画像とを重畳させてリアルタイムに表示するので、あたかも現実空間の中に仮想空間の画像が表示されているかのように見え、臨場感が非常に高い。このため、MR技術を用いた様々な活用が考えられている。   In particular, MR technology superimposes the real space image and the virtual space image on the HMD worn by the user and displays them in real time, so that it appears as if the virtual space image is displayed in the real space. The presence is very high. For this reason, various utilization using MR technology is considered.

一方、ユーザがHMDを通して見ている仮想オブジェクトはHMDを装着していれば複数人がそれぞれの位置で仮想オブジェクトを見る(共有する)ことができる。そして共有している間に、例えば一人のユーザが仮想オブジェクトに対して位置を1m移動させる指示を行うと、他のユーザの見ている仮想オブジェクトも1m移動したように表示させるような制御を行うことができる。   On the other hand, if the virtual object that the user is looking through the HMD is wearing the HMD, a plurality of people can see (share) the virtual object at each position. And while sharing, for example, when one user gives an instruction to move the position by 1 m with respect to the virtual object, control is performed so that the virtual object viewed by the other user is also displayed as if moved by 1 m. be able to.

下記の特許文献1では、視点が異なる複数の画像データからなる自由視点画像に対して、説明情報を付与する位置を指定すると、当該指定された場所にアノテーションが付与され、新たな自由視点画像に切り替わっても前記説明情報が指定された場所に表示される仕組みが開示されている。   In Patent Document 1 below, when a position to which explanation information is given is specified for a free viewpoint image composed of a plurality of image data with different viewpoints, an annotation is given to the specified location, and a new free viewpoint image is created. A mechanism is disclosed in which the explanation information is displayed at a designated location even when switching.

特開2012−170989号公報JP 2012-170989 A

また、東京(A地点)と大阪(B地点)間というように遠隔地間でMR空間を共有するということが行われている。これにより、遠隔地であっても同じ仮想オブジェクトの配置を共有することができ、例えば仮想オブジェクトからなるショールームなどを遠隔地間で共有しながら会議などを行うことが可能になる。   In addition, MR space is shared between remote locations such as between Tokyo (point A) and Osaka (point B). As a result, the arrangement of the same virtual object can be shared even in a remote place. For example, a conference or the like can be performed while sharing a showroom made up of virtual objects between remote places.

このような状況においても、A地点で仮想オブジェクトを移動させるとB地点でも当該仮想オブジェクトの位置をA地点と同期して移動させるように表示されるように制御される。   Even in such a situation, when the virtual object is moved at the point A, the virtual object is controlled to be displayed at the point B so as to move in synchronization with the point A.

この時、遠隔地間で共有されるのは仮想オブジェクトの座標情報だけであって、現実空間の画像データは共有されないため、B地点のユーザが仮想オブジェクトを移動させたい位置を指などでA地点のユーザに対して指示したとしても、A地点のユーザにはB地点のユーザの姿を見ることができないため、B地点のユーザが指示している位置が分からないという課題が生じる。   At this time, only the coordinate information of the virtual object is shared between the remote locations, and the image data of the real space is not shared. Therefore, the user of the B point wants to move the virtual object with the finger etc. Even if an instruction is given to the user, the user at the point A cannot see the user at the point B, so that the position designated by the user at the point B is not known.

そこで、前述した特許文献の方法を用いてアノテーションを付与することで位置を指定する方法が考えられる。すなわち、B地点のユーザが、仮想オブジェクトを移動させたい位置にアノテーションを付与する必要があるが、仮想オブジェクトを移動させたい位置の指定のためには一度MR体験をするために装着したHMDを頭部から外して、PCの画面上で仮想空間上の位置を指定するという操作が必要となる。HMDを装着したまま、PCの操作を行うことも考えられるが、HMDの視野は広いものではないので、PCの操作はしづらいものとなる。   Therefore, a method of designating a position by giving an annotation using the method of the patent document described above can be considered. In other words, it is necessary for the user at point B to add an annotation to the position where the virtual object is to be moved. It is necessary to perform an operation of removing the part and designating a position in the virtual space on the PC screen. Although it is conceivable to operate the PC with the HMD attached, since the field of view of the HMD is not wide, the operation of the PC is difficult.

本発明は、第1の仮想空間上の所望の位置を、第1のヘッドマウントディスプレイの視線によって特定することにより、第2のヘッドマウントディスプレイで識別可能に表示させることを目的とする。   It is an object of the present invention to display a desired position in the first virtual space so as to be identifiable on the second head mounted display by specifying the line of sight of the first head mounted display.

上記の目的を達成するために、本発明の情報処理システムは、共通する仮想空間である、第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とを管理する情報処理システムであって第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得手段と、前記取得手段で取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定手段と、第2のヘッドマウントディスプレイの仮想空間上に、前記特定手段で特定された前記位置座標に対応する位置座標を識別可能に表示させる表示制御手段とを備えることを特徴とする。   In order to achieve the above object, an information processing system of the present invention manages a virtual space of a first head mounted display and a virtual space of a second head mounted display, which are common virtual spaces. An acquisition unit that acquires line-of-sight information, which is information indicating the line of sight of the first head-mounted display in real space, and a virtual of the first head-mounted display based on the line-of-sight information acquired by the acquisition unit. Specifying means for specifying position coordinates in space; and display control means for displaying the position coordinates corresponding to the position coordinates specified by the specifying means in an identifiable manner on the virtual space of the second head mounted display. It is characterized by providing.

本発明によれば、第1の仮想空間上の所望の位置を、第1のヘッドマウントディスプレイの視線によって特定することにより、第2のヘッドマウントディスプレイで識別可能に表示させることの可能な効果を奏する。   According to the present invention, by specifying the desired position in the first virtual space by the line of sight of the first head mounted display, it is possible to display the second head mounted display in an identifiable manner. Play.

本発明の実施形態における情報処理システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of the information processing system in embodiment of this invention. 情報処理装置200のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an information processing apparatus 200. FIG. 情報処理装置200の機能構成の一例を示す図である。2 is a diagram illustrating an example of a functional configuration of an information processing device 200. FIG. 本発明の実施形態における一連の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a series of processes in embodiment of this invention. 図4に示す指定ポイントモデル表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the designated point model display process shown in FIG. 図4に示す仮想オブジェクト移動処理の詳細を示すフローチャートである。5 is a flowchart showing details of a virtual object movement process shown in FIG. 4. 図6に示す指定ポイントモデルへの仮想オブジェクト移動処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the virtual object movement process to the designated point model shown in FIG. HMD100の仮想空間上の座標情報とベクトルの情報とを格納するHD情報テーブル800の一例を示す構成図である。5 is a configuration diagram showing an example of an HD information table 800 that stores coordinate information in the virtual space of the HMD 100 and vector information. FIG. 仮想空間上の仮想オブジェクトに関する各種データを格納するオブジェクトテーブル900の一例を示す構成図である。It is a block diagram which shows an example of the object table 900 which stores the various data regarding the virtual object in virtual space. 選択デバイス105の一例を示す模式図である。3 is a schematic diagram illustrating an example of a selection device 105. FIG. 情報処理装置200−Aで作成された指定ポイントモデル1102と情報処理装置200−Bと接続されたHMD100−Bで表示することのできる指定ポイントモデル1104の表示の一例である指定ポイントモデルイメージ1100を示す模式図である。A designated point model image 1100 which is an example of display of a designated point model 1102 created by the information processing apparatus 200-A and a designated point model 1104 which can be displayed by the HMD 100-B connected to the information processing apparatus 200-B. It is a schematic diagram shown. 情報処理装置200−Bと接続されたHMD100−Bで表示される指定ポイントモデルまでの距離表示の一例である距離表示イメージ1200を示す模式図である。It is a schematic diagram which shows the distance display image 1200 which is an example of the distance display to the designated point model displayed by HMD100-B connected with information processing apparatus 200-B. 情報処理装置200−Bと接続されたHMD100−Bで表示される指定ポイントモデルまでの矢印表示の一例である矢印表示イメージ1300を示す模式図である。It is a schematic diagram which shows the arrow display image 1300 which is an example of the arrow display to the designated point model displayed by HMD100-B connected with information processing apparatus 200-B. 情報処理装置200−Bにより作成されるMR空間のなかで、仮想オブジェクトを指定ポイントモデルの位置まで移動させるイメージの一例である仮想オブジェクト移動イメージ1400を示す模式図である。It is a mimetic diagram showing virtual object movement image 1400 which is an example of an image which moves a virtual object to the position of a specified point model in MR space created by information processor 200-B. ユーザから視線に基づく指定ポイントモデルを表示させるか否かの指示を受け付けるダイアログの一例を示す指定ポイントモデル表示指示受付画面1500の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a designated point model display instruction receiving screen 1500 showing an example of a dialog for receiving an instruction as to whether or not to display a designated point model based on a line of sight from a user. 外部メモリ211に記憶される閾値テーブル1600の一例を示す模式図である。5 is a schematic diagram showing an example of a threshold table 1600 stored in an external memory 211. FIG. 本発明の第2の実施形態における指定ポイントモデル表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the designated point model display process in the 2nd Embodiment of this invention. 識別表示イメージ1800の一例を示す図である。5 is a diagram showing an example of an identification display image 1800. FIG. 本発明の第2の実施形態におけるオブジェクトテーブル900の一例を示す構成図であるIt is a block diagram which shows an example of the object table 900 in the 2nd Embodiment of this invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の情報処理システムは、情報処理装置200、HMD100(ヘッドマウントディスプレイ)、光学式センサ104、選択デバイス105等から構成され、同一の構成を持つ複数の情報処理システムからなるものである。情報処理装置200とHMD100、光学式センサ104、選択デバイス105は、図1に示すLAN101や、USB(Universal Serial Bus)等を介して相互にデータ通信可能に接続されている。尚、本実施例では拠点Aと拠点Bにそれぞれ情報処理装置200が設置されている構成となっているが、1つの拠点Aに複数の情報処理装置200を設置しても構わないし、1つの拠点Aに一つの情報処理装置200を設置し、複数のHMD100を接続し、それぞれのMR空間を構築することで本発明を実施することもできる。一つの情報処理装置200で実施する場合には、情報処理装置200に複数のグラフィックボードを備える必要がある。   FIG. 1 illustrates an information processing system according to the present invention, which includes an information processing apparatus 200, an HMD 100 (head mounted display), an optical sensor 104, a selection device 105, and the like, and includes a plurality of information processing systems having the same configuration. It is. The information processing apparatus 200, the HMD 100, the optical sensor 104, and the selection device 105 are connected to each other so as to be able to perform data communication with each other via the LAN 101 shown in FIG. 1 or a USB (Universal Serial Bus). In this embodiment, the information processing apparatus 200 is installed at each of the bases A and B. However, a plurality of information processing apparatuses 200 may be installed at one base A. It is also possible to implement the present invention by installing one information processing apparatus 200 at the site A, connecting a plurality of HMDs 100, and building each MR space. When implemented with one information processing apparatus 200, the information processing apparatus 200 needs to include a plurality of graphic boards.

情報処理装置200は、外部メモリ211内に、MR空間に配置して表示する仮想オブジェクトであり、複数の情報処理装置200に共通の仮想オブジェクトを記憶している。情報処理装置200は、HMD100から受信した現実画像に仮想オブジェクトを重畳した複合現実画像(MR画像)を生成して、HMDに送信する。MR技術の仕組みの詳細については、前述した従来技術の通りである。HMDは頭部装着式のものであってもよいし、メガネ式のものであってもよい。   The information processing apparatus 200 is a virtual object that is arranged and displayed in the MR space in the external memory 211, and stores virtual objects that are common to a plurality of information processing apparatuses 200. The information processing apparatus 200 generates a mixed reality image (MR image) obtained by superimposing a virtual object on the real image received from the HMD 100, and transmits the mixed reality image to the HMD. Details of the mechanism of the MR technique are as described above. The HMD may be a head-mounted type or a glasses type.

情報処理装置200にはセカンダリの情報処理装置200−Aとプライマリの情報処理装置200−Bがある。情報処理装置200−Bは情報処理装置200−Aから受け付けた仮想オブジェクトの位置座標の変更(例えば、選択デバイス105に基づく仮想オブジェクトの移動指示)を受信し、他の情報処理装置200に当該位置座標の変更を通知する役割を担う。これにより、例えば場所を異とする遠隔地間でのMR空間の共有であっても、共有しているユーザは共通の仮想空間とそれぞれの現実空間とを重畳した画像をHMD100を通して視認することが可能となる。情報処理装置200−Aと情報処理装置200−Bの機能は同じものとし、本実施例は便宜的に情報処理装置200−Bをプライマリとしたが、どちらの情報処理装置200でもプライマリの役割を行うことが可能である。よって情報処理装置200−Aと情報処理装置200−Bとそれぞれの用途が限定されることはない。   The information processing apparatus 200 includes a secondary information processing apparatus 200-A and a primary information processing apparatus 200-B. The information processing apparatus 200-B receives the change in the position coordinates of the virtual object received from the information processing apparatus 200-A (for example, a movement instruction of the virtual object based on the selection device 105), and sends the position to the other information processing apparatus 200. Plays a role in notifying changes in coordinates. Thereby, even if MR space is shared between remote locations with different locations, for example, the sharing user can visually recognize an image in which a common virtual space and each real space are superimposed through the HMD 100. It becomes possible. The functions of the information processing device 200-A and the information processing device 200-B are assumed to be the same. In this embodiment, the information processing device 200-B is primary for convenience, but both information processing devices 200 have a primary role. Is possible. Therefore, the respective uses of the information processing device 200-A and the information processing device 200-B are not limited.

HMD100は、右目・左目ビデオカメラ221で撮影することにより得られた現実空間の画像データを情報処理装置200に送信する。そして情報処理装置200から受信した複合現実画像を右目・左目ディスプレイ222に表示する。   The HMD 100 transmits image data in the real space obtained by photographing with the right-eye / left-eye video camera 221 to the information processing apparatus 200. The mixed reality image received from the information processing apparatus 200 is displayed on the right eye / left eye display 222.

選択デバイス105は、MR空間上に配置された仮想オブジェクトを選択して、移動するためのデバイスである。例えば、図10に示す選択デバイス105である。選択デバイス105は選択ボタン1001と光学式マーカ103を備える。選択ボタン1001の押下を受け付けると、情報処理装置200は選択デバイス105の位置から一定の範囲(図10で示す1002の範囲内)にある仮想オブジェクトの位置座標を選択デバイス105の位置座標と同期させる。これによりユーザは選択ボタン1001を押下することで選択デバイス105の一定の距離にある仮想オブジェクトを移動させることを可能にする。選択ボタン1001の押下が検知されなくなるのを検知すると、仮想オブジェクトと選択デバイス105の位置座標の同期を中止する。   The selection device 105 is a device for selecting and moving a virtual object arranged in the MR space. For example, the selection device 105 shown in FIG. The selection device 105 includes a selection button 1001 and an optical marker 103. When the selection button 1001 is pressed, the information processing apparatus 200 synchronizes the position coordinates of the virtual object within a certain range (within the range 1002 shown in FIG. 10) from the position of the selection device 105 with the position coordinates of the selection device 105. . Thus, the user can move a virtual object at a certain distance of the selection device 105 by pressing the selection button 1001. When it is detected that pressing of the selection button 1001 is not detected, the synchronization of the position coordinates of the virtual object and the selection device 105 is stopped.

HMD100と選択デバイス105には、それぞれ光学式マーカ103が設置されており、光学式センサ104が当該光学式マーカ103を撮影(検知・検出)することで、HMD100と選択デバイス105の位置向き(座標X,Y,Z)を特定し、情報処理装置200に送信することができる。   An optical marker 103 is installed in each of the HMD 100 and the selection device 105, and the optical sensor 104 captures (detects / detects) the optical marker 103, whereby the orientation (coordinates) of the HMD 100 and the selection device 105. X, Y, Z) can be specified and transmitted to the information processing apparatus 200.

尚、現実空間とMR空間(原点座標X,Y,Z=0,0,0を原点として、仮想オブジェクトを配置した仮想空間)との位置合わせ(キャリブレーション)は既に行われているものとして、以下、本発明の実施形態について説明する。   Note that the alignment (calibration) between the real space and the MR space (virtual space in which the virtual object is arranged with the origin coordinates X, Y, Z = 0, 0, 0 as the origin) has already been performed. Hereinafter, embodiments of the present invention will be described.

図2は、情報処理装置200のハードウェア構成を示す図である。尚、図2の情報処理装置200のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 2 is a diagram illustrating a hardware configuration of the information processing apparatus 200. Note that the hardware configuration of the information processing apparatus 200 in FIG. 2 is merely an example, and there are various configuration examples depending on applications and purposes.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 204.

また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムや、各種装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。   The ROM 202 or the external memory 211 stores a BIOS (Basic Input / Output System) that is a control program of the CPU 201, an operating system, and various programs described later that are necessary for realizing the functions executed by various devices. Yes. The RAM 203 functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

また、入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス209)からの入力を制御する。   An input controller (input C) 205 controls input from a pointing device (input device 209) such as a keyboard and a mouse.

ビデオコントローラ(VC)206は、HMD100が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。   A video controller (VC) 206 controls display on a display device such as the right eye / left eye display 222 provided in the HMD 100. For example, an external output terminal (for example, Digital Visual Interface) is used for output to the right eye / left eye display 222. The right-eye / left-eye display 222 includes a right-eye display and a left-eye display.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。   The memory controller (MC) 207 is an adapter to a hard disk (HD), flexible disk (FD) or PCMCIA card slot for storing boot programs, browser software, various applications, font data, user files, editing files, various data, and the like. Controls access to an external memory 211 such as a card-type memory connected via the.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。   A communication I / F controller (communication I / FC) 208 is connected to and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible. The communication I / F controller 208 also controls communication with the optical sensor 104 through Gigabit Ethernet (registered trademark) or the like.

汎用バス212は、HMD100の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。   The general-purpose bus 212 is used for capturing video from the right-eye / left-eye video camera 221 of the HMD 100. Input from the right-eye / left-eye video camera 221 is performed using an external input terminal (for example, an IEEE 1394 terminal). The right-eye / left-eye video camera 221 includes a right-eye video camera and a left-eye video camera.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on a display by executing outline font rasterization processing on a display information area in the RAM 203, for example. In addition, the CPU 201 allows a user instruction with a mouse cursor (not shown) on the display.

本発明の情報処理装置200が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。   Various programs used by the information processing apparatus 200 of the present invention to execute various processes described later are recorded in the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. is there. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.

次に図3を用いて情報処理装置200の機能構成について説明する。   Next, the functional configuration of the information processing apparatus 200 will be described with reference to FIG.

情報処理装置200は、通信制御部301、仮想オブジェクト記憶部302、HMD情報取得部303、現実空間画像取得部304、HMD視線特定部305、距離特定部306、複合現実画像生成部307、仮想空間管理部308、表示制御部309、HMD視界判定部310を備えている。   The information processing apparatus 200 includes a communication control unit 301, a virtual object storage unit 302, an HMD information acquisition unit 303, a real space image acquisition unit 304, an HMD line-of-sight specification unit 305, a distance specification unit 306, a mixed reality image generation unit 307, a virtual space A management unit 308, a display control unit 309, and an HMD view determination unit 310 are provided.

通信制御部301は、通信可能に接続されているHMD100や光学式センサ104、および他の情報処理装置200との通信を制御することが可能な機能部である。通信制御部301は、前述したビデオコントローラ206、通信I/Fコントローラ208、汎用バス212等を通じてこれらの装置と情報の送受信を行う。   The communication control unit 301 is a functional unit that can control communication with the HMD 100, the optical sensor 104, and the other information processing apparatus 200 that are communicably connected. The communication control unit 301 transmits / receives information to / from these apparatuses through the video controller 206, the communication I / F controller 208, the general-purpose bus 212, and the like described above.

仮想オブジェクト記憶部302は、HMD100で現実画像と重畳するための仮想オブジェクトを記憶する機能部である。   The virtual object storage unit 302 is a functional unit that stores a virtual object to be superimposed on a real image by the HMD 100.

HMD情報取得部303はHMD100の現実空間における位置及び向きを示す情報を光学式センサ104から取得する機能部である。現実空間画像取得部304は、HMD100の右目・左目ビデオカメラ221から現実空間画像を取得する機能部である。   The HMD information acquisition unit 303 is a functional unit that acquires information indicating the position and orientation of the HMD 100 in the real space from the optical sensor 104. The real space image acquisition unit 304 is a functional unit that acquires a real space image from the right-eye / left-eye video camera 221 of the HMD 100.

HMD視線特定部305は、HMD情報取得部303で取得したHMD100の現実空間における位置及び向きからHMD100を装着しているユーザの視線を特定する機能部である。   The HMD line-of-sight identifying unit 305 is a functional unit that identifies the line of sight of the user wearing the HMD 100 from the position and orientation of the HMD 100 acquired in the HMD information acquisition unit 303 in the real space.

距離特定部306は、HMD100と指定ポイントモデルとの距離を算出することで特定したり、移動対象となった仮想オブジェクトと指定ポイントモデルとの距離を算出する機能部である。なお、距離の算出の仕方は仮想空間上の2点間の座標を用いて計算する従来技術を用いるものとする。   The distance specifying unit 306 is a functional unit that specifies by calculating the distance between the HMD 100 and the specified point model, or calculates the distance between the virtual object that is the movement target and the specified point model. Note that the distance is calculated by using a conventional technique for calculating using the coordinates between two points in the virtual space.

複合現実画像生成部307は、HMD100の右目・左目ビデオカメラ221から送信される現実空間の画像とHMD情報取得部303から取得したHMD100の位置向きに基づく仮想空間の画像とを重畳した画像を生成する機能部である。   The mixed reality image generation unit 307 generates an image in which a real space image transmitted from the right-eye / left-eye video camera 221 of the HMD 100 and a virtual space image based on the position and orientation of the HMD 100 acquired from the HMD information acquisition unit 303 are superimposed. It is a functional part to do.

仮想空間管理部308は、仮想空間における仮想オブジェクトの座標情報を管理する機能部である。情報処理装置200がプライマリの情報処理装置200であれば、セカンダリの情報処理装置200から送信される共通の仮想オブジェクトの座標情報を他のセカンダリの情報処理装置200に対して、通信制御部301を用いて制御するなどの管理を行う。情報処理装置200がセカンダリの情報処理装置200であれば仮想オブジェクトの移動指示をユーザから検知すると、当該移動指示による仮想オブジェクトの座標情報をプライマリの情報処理装置200に対して送信する。   The virtual space management unit 308 is a functional unit that manages coordinate information of a virtual object in the virtual space. If the information processing device 200 is the primary information processing device 200, the communication control unit 301 is used to transmit the coordinate information of the common virtual object transmitted from the secondary information processing device 200 to the other secondary information processing devices 200. Use it to control it. If the information processing apparatus 200 is a secondary information processing apparatus 200, when a virtual object movement instruction is detected from a user, coordinate information of the virtual object based on the movement instruction is transmitted to the primary information processing apparatus 200.

表示制御部309は、HMD100の右目・左目ディスプレイ222に対して表示の制御を行う機能部である。   The display control unit 309 is a functional unit that controls display on the right-eye / left-eye display 222 of the HMD 100.

次に、本発明の実施形態におけるプライマリ機である情報処理装置200−B、セカンダリ機である情報処理装置200−Aによって行われる一連の処理について、図4に示すフローチャートを用いて説明する。   Next, a series of processes performed by the information processing apparatus 200-B that is the primary machine and the information processing apparatus 200-A that is the secondary machine in the embodiment of the present invention will be described with reference to the flowchart shown in FIG.

ステップS401では、情報処理装置200−AのCPU201は、ユーザからのMRアプリケーションの起動指示を受け付けることにより、MRアプリケーションを起動させる。MRアプリケーションを起動したのち、処理をステップS402に移す。   In step S401, the CPU 201 of the information processing apparatus 200-A activates the MR application by receiving an MR application activation instruction from the user. After starting the MR application, the process proceeds to step S402.

ステップS402では、情報処理装置200−AのCPU201は、別の情報処理装置である情報処理装置200−Aに対して接続要求の送信を行う。   In step S402, the CPU 201 of the information processing device 200-A transmits a connection request to the information processing device 200-A that is another information processing device.

ステップS403では、情報処理装置200−BのCPU201は、ステップS402で情報処理装置200−Aから送信された接続要求を受信する。   In step S403, the CPU 201 of the information processing apparatus 200-B receives the connection request transmitted from the information processing apparatus 200-A in step S402.

ステップS404では、情報処理装置200−BのCPU201は、接続要求の送信元の情報処理装置200−Aに対して、仮想オブジェクトのデータをすべて送信する。例えば、図9に示すオブジェクトテーブル900と、ファイルパス905に示すファイルとを送信する。これにより、仮想オブジェクトの座標情報のやり取りだけで、仮想オブジェクトのリアルタイムな表示制御を行うことを可能にする。   In step S404, the CPU 201 of the information processing device 200-B transmits all of the virtual object data to the information processing device 200-A that is the transmission source of the connection request. For example, the object table 900 shown in FIG. 9 and the file shown in the file path 905 are transmitted. This makes it possible to perform real-time display control of the virtual object only by exchanging coordinate information of the virtual object.

図9に示すオブジェクトテーブル900は、オブジェクトID901、属性902、座標903、サイズ904、ファイルパス905、選択中フラグ906、選択禁止フラグ907とが格納されている。   The object table 900 shown in FIG. 9 stores an object ID 901, an attribute 902, coordinates 903, a size 904, a file path 905, a selection flag 906, and a selection prohibition flag 907.

オブジェクトID901は、各仮想オブジェクトのデータの識別情報である。属性902は、各仮想オブジェクトが、選択デバイス105に対応する仮想オブジェクト(選択デバイス)か、選択デバイス105の仮想オブジェクトに接触することで選択される選択対象の仮想オブジェクト(被選択)か、HMDの視線と仮想オブジェクトとの交点に設置される指定ポイントか、を示す情報である。   The object ID 901 is identification information of data of each virtual object. The attribute 902 indicates whether each virtual object is a virtual object corresponding to the selected device 105 (selected device), a virtual object to be selected (contacted) selected by touching the virtual object of the selected device 105, an HMD This is information indicating whether the designated point is set at the intersection of the line of sight and the virtual object.

座標903は、各仮想オブジェクトの、MR空間上の配置位置(X.Y.Z=000.000.000 を原点とするXYZ座標)を示す。図9によれば、オブジェクトID=M111の座標903=XX1.YY1.ZZ1のため、オブジェクトID=M111の仮想オブジェクトは、MR空間上の当該座標が示す座標に配置されていることとなる。原点は前述したキャリブレーションの時に設定されるものとする。各座標903の座標値は、各仮想オブジェクトの中心点の座標であるものとする。   A coordinate 903 indicates an arrangement position of each virtual object in the MR space (XYZ coordinates with the origin at XYZ = 0.000.000.000). According to FIG. 9, the coordinates 903 of the object ID = M111 = XX1. YY1. Because of ZZ1, the virtual object with the object ID = M111 is arranged at the coordinates indicated by the coordinates in the MR space. The origin is set at the time of the calibration described above. The coordinate value of each coordinate 903 is the coordinate of the center point of each virtual object.

尚、選択デバイス105の座標903は、光学式センサにより補足されており、例えばユーザが選択デバイス105を移動させることで、当該座標903がリアルタイムに更新される。当該更新に用いる選択デバイス105のリアルタイムの座標903の情報は、光学式センサ104から情報処理装置200に送信され、情報処理装置200が、当該光学式センサ104から受信した座標の情報を、選択デバイス105の座標903に上書きすることで更新を行う。   Note that the coordinates 903 of the selection device 105 are supplemented by an optical sensor. For example, when the user moves the selection device 105, the coordinates 903 are updated in real time. Information on real-time coordinates 903 of the selection device 105 used for the update is transmitted from the optical sensor 104 to the information processing apparatus 200, and information on coordinates received by the information processing apparatus 200 from the optical sensor 104 is used as the selection device. Updating is performed by overwriting the coordinates 903 of 105.

サイズ(スケール)904は、各仮想オブジェクトの大きさを示す。ファイルパス905は、各仮想オブジェクトのファイルが記憶されている記憶領域上のアドレスを示す。   A size (scale) 904 indicates the size of each virtual object. A file path 905 indicates an address on a storage area in which a file of each virtual object is stored.

選択中フラグ906は、被選択用の仮想オブジェクトが選択デバイス105により選択されている状態か否かを示すフラグである。選択中フラグ906=0の場合、選択されていない状態であり、選択中フラグ906=1の場合、選択中であることを示す。   The selection flag 906 is a flag indicating whether or not the selected virtual object is selected by the selection device 105. When the selection flag 906 = 0, the selection is not performed. When the selection flag 906 = 1, the selection is in progress.

選択禁止フラグ907は、被選択用の仮想オブジェクトが選択デバイス105による選択を受け付けないように制御するためのフラグである。選択禁止フラグ907=0の場合、選択デバイス105の選択を受け付けることを可能とし、選択禁止フラグ907=1の場合には、選択デバイス105による選択を受け付けないように制御する。これにより、選択デバイス105で選択行為を行ったとしても、被選択用の仮想オブジェクトの移動を不可能とする効果がある。   The selection prohibition flag 907 is a flag for controlling the selected virtual object so as not to accept selection by the selection device 105. When the selection prohibition flag 907 = 0, the selection of the selection device 105 can be accepted. When the selection prohibition flag 907 = 1, the selection device 105 is controlled not to accept the selection. Accordingly, even if the selection device 105 performs a selection action, there is an effect that it is impossible to move the selected virtual object.

ステップS405では、情報処理装置200−BのCPU201は、ステップS403で受信をした接続要求の送信元の情報処理装置200−Aに対して接続の許可を行う。これにより、情報処理装置200−Aと情報処理装置200−Bは相互に共通の仮想オブジェクトを表示し、情報処理装置200−Bで仮想オブジェクトの移動指示を選択デバイス105により行われたとしてもリアルタイムで情報処理装置―Aで当該仮想オブジェクトの移動を表示可能にする。   In step S405, the CPU 201 of the information processing apparatus 200-B permits connection to the information processing apparatus 200-A that is the transmission source of the connection request received in step S403. As a result, the information processing apparatus 200-A and the information processing apparatus 200-B display a virtual object that is common to the information processing apparatus 200-B, and the information processing apparatus 200-B is in real time even if an instruction to move the virtual object is given by the selection device 105. The movement of the virtual object can be displayed by the information processing apparatus-A.

ステップS406では、情報処理装置200−AのCPU201は、ステップS404で情報処理装置200−Bから送信されたオブジェクトテーブル900と、ファイルパス905に示すファイルとを受信する。   In step S406, the CPU 201 of the information processing device 200-A receives the object table 900 transmitted from the information processing device 200-B in step S404 and the file indicated by the file path 905.

ステップS407では、情報処理装置200−AのCPU201は、光学式センサ104を用いてHMD100−Aに付された光学式マーカを検知し、MR空間上のHMD100−Aの位置や向き(位置情報及び向き情報)を取得する(取得手段)。取得したHMD100−Aの位置や向きは、HMD情報テーブル800に格納する。例えば図8に示すHMD情報テーブル800である。HMD情報テーブル800には、HMD位置・向き801が格納されている。HMD位置・向き801は、HMDのMR空間上の座標情報と、向き情報(向き)を記憶している。向き情報(向き)はユーザの視線方向と同一の向きを示す情報(視線情報)を格納する。   In step S407, the CPU 201 of the information processing device 200-A detects the optical marker attached to the HMD 100-A using the optical sensor 104, and the position and orientation (position information and position information) of the HMD 100-A in the MR space. (Direction information) is acquired (acquisition means). The acquired position and orientation of the HMD 100-A are stored in the HMD information table 800. For example, the HMD information table 800 shown in FIG. The HMD information table 800 stores the HMD position / direction 801. The HMD position / orientation 801 stores coordinate information in the MR space of the HMD and orientation information (orientation). The direction information (orientation) stores information indicating the same direction as the user's line-of-sight direction (line-of-sight information).

ステップS408では、情報処理装置200−AのCPU201は、HMD100−Aの右目・左目ビデオカメラ221から送信される現実空間画像を、取得し、RAM203等に記憶する。右目・左目ビデオカメラ221は、ユーザの右目に相当するビデオカメラと左目に相当するビデオカメラとの2つが存在するため、右目用と左目用の現実空間画像を取得する。   In step S408, the CPU 201 of the information processing apparatus 200-A acquires the real space image transmitted from the right-eye / left-eye video camera 221 of the HMD 100-A and stores it in the RAM 203 or the like. Since there are two right-eye / left-eye video cameras 221, that is, a video camera corresponding to the user's right eye and a video camera corresponding to the left eye, the real-eye images for the right eye and the left eye are acquired.

ステップS409では、情報処理装置200−AのCPU201は、仮想空間画像(仮想空間の画像)を取得しRAM203等に記憶する。より具体的には、ステップS407で格納したHMD100−Aの位置・向き801を読み出し、当該HMD位置・向きに対応する仮想空間上のHMD100−Aの位置及び向きを特定する。そして、特定した仮想空間上の位置及び向きで仮想空間上に仮想のカメラ(視点)を設置し、当該カメラにより仮想空間を撮像する。これにより、仮想空間画像を生成する。尚、前述した現実空間画像と同様に、HMD100−Aの右目・左目ディスプレイ222のそれぞれに表示するために右目用の仮想空間画像と左目用の仮想空間画像の2枚を取得する。   In step S409, the CPU 201 of the information processing apparatus 200-A acquires a virtual space image (virtual space image) and stores it in the RAM 203 or the like. More specifically, the position / orientation 801 of the HMD 100-A stored in step S407 is read, and the position and orientation of the HMD 100-A in the virtual space corresponding to the HMD position / orientation are specified. Then, a virtual camera (viewpoint) is installed on the virtual space at the specified position and orientation on the virtual space, and the virtual space is imaged by the camera. Thereby, a virtual space image is generated. Similar to the above-described real space image, two images of the right eye virtual space image and the left eye virtual space image are acquired for display on the right eye / left eye display 222 of the HMD 100-A.

ステップS410では、情報処理装置200−AのCPU201は、ステップS408で取得した現実空間画像とステップS409で取得した仮想空間画像とをRAM203等から読み出し、複合現実画像生成部307を用いて当該現実空間画像に当該仮想空間画像を重畳し、複合現実画像を生成する。生成した複合現実画像はRAM203等に記憶する。前述したとおり、現実空間画像と仮想空間画像にはそれぞれ右目用と左目用の2枚ずつの画像がRAM203等に記憶されている。そして右目用の現実空間画像に右目用の仮想空間画像を重畳し、左目用の現実空間画像に左目用の仮想空間画像を重畳することで、より没入感の高い視覚をユーザは得ることができる。   In step S410, the CPU 201 of the information processing apparatus 200-A reads the real space image acquired in step S408 and the virtual space image acquired in step S409 from the RAM 203 or the like, and uses the mixed reality image generation unit 307 to read the real space. The virtual space image is superimposed on the image to generate a mixed reality image. The generated mixed reality image is stored in the RAM 203 or the like. As described above, two images for the right eye and for the left eye are stored in the RAM 203 or the like in the real space image and the virtual space image, respectively. Then, by superimposing the right-eye virtual space image on the right-eye real space image and superposing the left-eye virtual space image on the left-eye real space image, the user can obtain a more immersive vision. .

ステップS411では、情報処理装置200−AのCPU201は、ステップS410で生成した右目用の複合現実画像と左目用の複合現実画像とをRAM203等から読み出し、HMD100−Aの右目・左目ディスプレイ222に表示させるように制御する。前述したように、右目用の複合現実画像を右目・左目ディスプレイ222の右目のディスプレイに表示するよう制御し、左目用の複合現実画像を右目・左目ディスプレイ222の左目のディスプレイに表示するよう制御する。   In step S411, the CPU 201 of the information processing apparatus 200-A reads the right-eye mixed reality image and the left-eye mixed reality image generated in step S410 from the RAM 203 or the like and displays them on the right-eye / left-eye display 222 of the HMD 100-A. To control. As described above, the right-eye mixed reality image is controlled to be displayed on the right-eye display of the right-eye / left-eye display 222, and the left-eye mixed reality image is controlled to be displayed on the left-eye display of the right-eye / left-eye display 222. .

ステップS412では、情報処理装置200−AのCPU201は、ユーザから事前に視線による指定ポイントモデルを表示させるか否かの指示を受け付けたか否かに応じて、指定ポイントモデルの表示指示を受け付けたか否かを判定する。例えば図15に示す指定ポイントモデル表示指示受付画面1500のような画面をディスプレイ210に表示させ、はいボタン1501の押下を受け付けた場合には指定ポイントモデルの表示指示を受け付けたと判定し、いいえボタン1502の押下を受け付けた場合には、指定ポイントモデルの非表示指示を受け付けたと判定する。指定ポイントモデルの表示指示を受け付けたと判定した場合には処理をステップS413に進め、指定ポイントモデルの表示指示を受け付けなかったと判定した場合には処理をステップS415に進める。   In step S412, whether the CPU 201 of the information processing device 200-A has received an instruction to display the designated point model according to whether or not an instruction on whether to display the designated point model based on the line of sight is received from the user in advance. Determine whether. For example, when a screen such as the designated point model display instruction acceptance screen 1500 shown in FIG. 15 is displayed on the display 210 and the pressing of the YES button 1501 is accepted, it is determined that the designated point model display instruction is accepted, and the NO button 1502 Is received, it is determined that an instruction to hide the specified point model has been received. If it is determined that a display instruction for the designated point model has been received, the process proceeds to step S413. If it is determined that a display instruction for the specified point model has not been received, the process proceeds to step S415.

ステップS413では、情報処理装置200−AのCPU201は、情報処理装置200−Aに接続されたHMD100−Aと情報処理装置200−Bに接続されたHMD100−Bのそれぞれの、右目・左目ディスプレイに指定ポイントモデルを表示させるための処理である指定ポイントモデル表示処理を行う。指定ポイントモデル表示処理の詳細は後の図5で詳細に説明を行う。指定ポイントモデル表示処理を行ったあと、処理をステップS415に進め、情報処理装置200−BはステップS414の処理を行う。   In step S413, the CPU 201 of the information processing device 200-A displays the right-eye display and the left-eye display of each of the HMD 100-A connected to the information processing device 200-A and the HMD 100-B connected to the information processing device 200-B. A designated point model display process, which is a process for displaying the designated point model, is performed. Details of the designated point model display processing will be described in detail later with reference to FIG. After performing the designated point model display process, the process proceeds to step S415, and the information processing apparatus 200-B performs the process of step S414.

ステップS414では、情報処理装置200−BのCPU201は、仮想オブジェクトをステップS413で表示された指定ポイントモデルの位置まで移動させる処理である仮想オブジェクト移動処理を行う。仮想オブジェクト移動処理の詳細は後の図6にて詳細に説明を行う。仮想オブジェクト移動処理を行った後、処理をステップS415に進める。   In step S414, the CPU 201 of the information processing device 200-B performs a virtual object movement process that is a process of moving the virtual object to the position of the designated point model displayed in step S413. Details of the virtual object movement processing will be described in detail later with reference to FIG. After performing the virtual object movement process, the process proceeds to step S415.

ステップS415では、情報処理装置200−AのCPU201は、ユーザからMRアプリケーションの終了指示を受け付けたか否かを判定する。例えばアプリケーション終了ボタンの押下を受け付けるなど、ユーザからのアプリケーション終了指示を受け付けたと判定された場合には処理を終了させ、ユーザからのアプリケーション終了指示を受け付けなかったと判定された場合には処理をステップS407に戻す。   In step S415, the CPU 201 of the information processing apparatus 200-A determines whether an MR application termination instruction has been received from the user. For example, when it is determined that an application end instruction from the user has been received, such as when an application end button is pressed, the process ends. When it is determined that an application end instruction from the user has not been received, the process is performed in step S407. Return to.

以上により、例えば遠隔地にいるユーザなどの他のユーザを視認することができない状態であっても、HMD100−Aを装着したユーザAの視線によりユーザAが仮想空間上のどこを見ているのかを把握することができるという効果をもたらす。更にHMD100−Bを装着したユーザBはHMD100−Aを装着したユーザAの視線をもとにして、指定ポイントモデルを視認することが可能になるため、仮想オブジェクトの指定ポイントモデルへの移動を容易にすることが可能な仕組みを提供している。   As described above, for example, where the user A is looking in the virtual space by the line of sight of the user A wearing the HMD 100-A even in a state where other users such as a user in a remote place cannot be visually recognized. It brings about the effect that it can grasp. Further, since the user B wearing the HMD 100-B can visually recognize the designated point model based on the line of sight of the user A wearing the HMD 100-A, it is easy to move the virtual object to the designated point model. It provides a mechanism that can be used.

次に、図4に示す指定ポイントモデル表示処理の詳細を図5に示すフローチャートを用いて説明する。   Next, details of the designated point model display process shown in FIG. 4 will be described using the flowchart shown in FIG.

ステップS501では、情報処理装置200−AのCPU201は、ステップS407で取得しRAM203等に記憶されたHMD100−Aの視線を読み込む。例えば図8に示すHMD位置・向き801に格納された、向きを示す情報である。   In step S501, the CPU 201 of the information processing apparatus 200-A reads the line of sight of the HMD 100-A acquired in step S407 and stored in the RAM 203 or the like. For example, it is information indicating the orientation stored in the HMD position / orientation 801 shown in FIG.

ステップS502では、情報処理装置200−AのCPU201は、ステップS501っで読み込んだHMD100−Aの視線により、仮想空間上に配置された仮想オブジェクトを特定する。HMD100−Aから延びる視線が最初に突き当たった(交差した)仮想オブジェクトのオブジェクトID901を特定する。   In step S502, the CPU 201 of the information processing device 200-A specifies a virtual object arranged in the virtual space based on the line of sight of the HMD 100-A read in step S501. The object ID 901 of the virtual object with which the line of sight extending from the HMD 100-A first hit (crossed) is specified.

ステップS503では、情報処理装置200−AのCPU201は、HMD100−Aから延びる視線が最初に突き当たった仮想オブジェクトとの交点の座標(仮想空間上の位置座標)を算出し取得する(特定手段)。取得した交点の座標はRAM203等に記憶しておく。   In step S503, the CPU 201 of the information processing device 200-A calculates and acquires the coordinates (position coordinates in the virtual space) of the intersection point with the virtual object with which the line of sight extending from the HMD 100-A first hits (identifying means). The acquired coordinates of the intersection are stored in the RAM 203 or the like.

なお、仮想オブジェクトの当たり判定を示す領域を実際の仮想オブジェクトの大きさより少し大きめにして規定しておき、仮想オブジェクトを容易に特定できるようにしてもよい。   It should be noted that the virtual object hitting determination area may be defined to be slightly larger than the actual virtual object size so that the virtual object can be easily identified.

ステップS504では、情報処理装置200−AのCPU201は、ステップS501で読み込んだHMD100−AのHMD位置・向き801の情報と、ステップS503で取得した交点の座標を情報処理装置200−Bに対して送信する。これらの情報を情報処理装置200−Bに対して送信することにより、情報処理装置200−Bでも指定ポイントモデルを表示することが可能になる。   In step S504, the CPU 201 of the information processing apparatus 200-A sends the information on the HMD position / orientation 801 of the HMD 100-A read in step S501 and the coordinates of the intersection acquired in step S503 to the information processing apparatus 200-B. Send. By transmitting these pieces of information to the information processing apparatus 200-B, the information processing apparatus 200-B can display the designated point model.

ステップS505では、情報処理装置200−AのCPU201は、ステップS501で読み込んだHMD100−AのHMD位置・向き801の情報と、ステップS503で取得した交点の座標をもとにして仮想空間画像上に指定ポイントモデルを表示する。表示は、ステップS410のように現実空間の画像に仮想空間画像を重畳することで表示をさせる。指定ポイントモデルは、オブジェクトテーブル900のオブジェクトID901=M444の指定ポイントモデルを使用する。ステップS503で取得した交点の座標が座標903に格納されることにより、ステップS503で取得した交点の座標に対して指定ポイントモデルを表示する。ステップS407で取得しRAM203等に記憶されたHMD100−Aの視線の向きで指定ポイントモデルを表示するように制御するものとする。なお、指定ポイントモデルの表示位置の特定は光学式マーカ103を設けた物理的なオブジェクトを光学式センサ104で検知することで特定する方法もある。   In step S505, the CPU 201 of the information processing device 200-A displays the information on the HMD position / orientation 801 of the HMD 100-A read in step S501 and the coordinates of the intersection acquired in step S503 on the virtual space image. Displays the specified point model. The display is performed by superimposing the virtual space image on the real space image as in step S410. As the designated point model, a designated point model of object ID 901 = M444 in the object table 900 is used. By storing the coordinates of the intersection obtained in step S503 in the coordinates 903, the designated point model is displayed with respect to the coordinates of the intersection obtained in step S503. It is assumed that control is performed so that the specified point model is displayed in the direction of the line of sight of the HMD 100-A acquired in step S407 and stored in the RAM 203 or the like. Note that the display position of the designated point model may be specified by detecting a physical object provided with the optical marker 103 by the optical sensor 104.

例えば、図11に示す指定ポイントモデルイメージ1100である。指定ポイントモデルイメージ1100には情報処理装置200−Aが生成するMR空間(拠点A)と情報処理装置200−Bが生成するMR空間(拠点B)のイメージが描画されている。交点1103に対してHMD100−Aの視線の向きで表示された指定ポイントモデルが、図11に示す指定ポイントモデル1102である。視線の向きを表示することにより、他のユーザがどの方向から仮想オブジェクトのどの部分を見ているのかを容易に通知することができる。   For example, the designated point model image 1100 shown in FIG. In the designated point model image 1100, images of an MR space (base A) generated by the information processing apparatus 200-A and an MR space (base B) generated by the information processing apparatus 200-B are drawn. A designated point model displayed in the direction of the line of sight of the HMD 100-A with respect to the intersection 1103 is a designated point model 1102 shown in FIG. By displaying the direction of the line of sight, it is possible to easily notify which part of the virtual object the other user is viewing from which direction.

ステップS506では、情報処理装置200−BのCPU201は、ステップS504で情報処理装置200−Aから送信されたHMD100−AのHMD位置・向き801の情報と、交点の座標とを受信する。受信したのち、処理をステップS507に進める。   In step S506, the CPU 201 of the information processing device 200-B receives the information on the HMD position / orientation 801 of the HMD 100-A and the coordinates of the intersection transmitted from the information processing device 200-A in step S504. After receiving, the process proceeds to step S507.

ステップS507では、情報処理装置200−BのCPU201は、ステップS506で受信したHMD位置・向き801と、交点の座標とを情報処理装置200−A以外のセカンダリ機の情報処理装置200に対して配信する。これにより複数のセカンダリ機の情報処理装置200でも情報処理装置200−Aでの指定ポイントモデルの位置を共有することができる。   In step S507, the CPU 201 of the information processing device 200-B distributes the HMD position / orientation 801 received in step S506 and the coordinates of the intersection to the information processing device 200 of the secondary machine other than the information processing device 200-A. To do. As a result, the information processing devices 200 of a plurality of secondary machines can share the position of the designated point model in the information processing device 200-A.

ステップS508では、情報処理装置200−BのCPU201は、ステップS506で受信したHMD100−AのHMD位置・向き801の情報と、交点の座標をもとに、指定ポイントモデルを仮想空間画像上に重畳表示する(表示制御手段)。重畳表示することで仮想オブジェクトを識別可能に表示する。指定ポイントモデルの表示方法は、ステップS505と同様であるので割愛する。図11に示す指定ポイントモデルイメージ1100の拠点Bに示す図が指定ポイントモデルの表示イメージである。拠点Bには仮想オブジェクトを指し示すように指定ポイントモデル1104が表示される。指定ポイントモデル1104が表示されることで、指定ポイントモデル1104が指す仮想オブジェクトをユーザに識別可能に視認させることを可能とする効果もある。指定ポイントモデル1104は、本実施例では矢印状のものとしたが、仮想オブジェクトを識別可能とする方法はこれに限定されない。視線との交点を持つ仮想オブジェクトの色を変えたり、当該仮想オブジェクト以外を半透明にしたりするなど様々な方法が含まれるものである。   In step S508, the CPU 201 of the information processing device 200-B superimposes the specified point model on the virtual space image based on the information of the HMD position / orientation 801 of the HMD 100-A received in step S506 and the coordinates of the intersection. Display (display control means). The virtual object is displayed in an identifiable manner by superimposing it. Since the display method of the designated point model is the same as that in step S505, it is omitted. The figure shown in the base B of the designated point model image 1100 shown in FIG. 11 is a display image of the designated point model. A designated point model 1104 is displayed at the base B so as to point to the virtual object. Displaying the designated point model 1104 also has an effect of enabling the user to visually recognize the virtual object pointed to by the designated point model 1104. In the present embodiment, the designated point model 1104 has an arrow shape, but the method for enabling the virtual object to be identified is not limited to this. Various methods are included, such as changing the color of a virtual object having an intersection with the line of sight, or making other than the virtual object semi-transparent.

なお、指定ポイントモデルはHMD100から仮想オブジェクトまでのベクトルを示す矢印状の仮想オブジェクトとしたが、HMD100の視線と仮想オブジェクトとの交点を識別表示するような構成としてもよい。詳細は後の第2の実施形態で説明する。   The designated point model is an arrow-shaped virtual object indicating a vector from the HMD 100 to the virtual object, but may be configured to identify and display the intersection between the line of sight of the HMD 100 and the virtual object. Details will be described later in a second embodiment.

本発明は常時ユーザの視線を取得することでリアルタイムに指定ポイントモデルを表示する構成となっているが、ユーザの手が仮想オブジェクトに接触したことを検知し、接触を検知した時点でのユーザの視線に基づいて指定ポイントモデルを表示させるような仕組みにしても構わない。   The present invention is configured to display a specified point model in real time by constantly acquiring the user's line of sight, but detects that the user's hand has contacted the virtual object, and the user's You may make it the structure which displays a designated point model based on a eyes | visual_axis.

以上の処理によると、HMD100−Aを装着したユーザAの視線に基づいて仮想空間上の位置を特定し、特定した位置を基にしてユーザAがどこを見ているのかをHMD100−Bを装着したユーザBが把握することができるという効果がある。   According to the above processing, the position in the virtual space is specified based on the line of sight of the user A wearing the HMD 100-A, and the HMD 100-B is attached where the user A is looking based on the specified position. There is an effect that the user B can grasp.

次に図4に示す仮想オブジェクト移動処理の詳細を図6に示すフローチャートを用いて説明する。   Next, details of the virtual object movement processing shown in FIG. 4 will be described using the flowchart shown in FIG.

ステップS601では、情報処理装置200−BのCPU201は、選択デバイス105からの仮想オブジェクトの移動指示である移動操作信号を選択デバイス105から受け付ける(移動指示受付手段)。具体的には、図10に示す選択デバイス105の選択ボタン1001の押下を受け付けることで、移動操作信号を受信する。   In step S601, the CPU 201 of the information processing apparatus 200-B receives from the selection device 105 a movement operation signal that is a virtual object movement instruction from the selection device 105 (movement instruction reception unit). Specifically, the movement operation signal is received by accepting pressing of the selection button 1001 of the selection device 105 shown in FIG.

ステップS602では、情報処理装置200−BのCPU201は、ステップS601で移動操作信号を受け付けた時の選択デバイス105の現実空間上の座標情報を取得する。取得した選択デバイス105の現実空間上の座標情報はRAM203に記憶しておく。選択デバイス105の座標情報の取得方法は前述したとおり、光学式センサ104を用いる。   In step S602, the CPU 201 of the information processing apparatus 200-B acquires coordinate information on the real space of the selection device 105 when the movement operation signal is received in step S601. The acquired coordinate information on the real space of the selection device 105 is stored in the RAM 203. As described above, the optical sensor 104 is used to acquire the coordinate information of the selection device 105.

ステップS603では、情報処理装置200−BのCPU201は、ステップS602で取得した選択デバイス105の現実空間上の座標情報に基づいて、当該座標情報に対応する仮想空間上の所定の領域内に仮想オブジェクトがあるか否かを判定する。具体的には、所定の領域とはオブジェクトテーブル900のサイズ904に示す領域であって、選択デバイス105の座標903を基準とするサイズ904に示す範囲を所定の領域とする。この所定の領域内に仮想オブジェクトが接触していると判定された場合には処理をステップS604に進め、所定の領域内に仮想オブジェクトが接触していないと判定された場合には処理をステップS601に戻す。   In step S603, the CPU 201 of the information processing apparatus 200-B, based on the coordinate information in the real space of the selection device 105 acquired in step S602, the virtual object in a predetermined area on the virtual space corresponding to the coordinate information. It is determined whether or not there is. Specifically, the predetermined area is an area indicated by the size 904 of the object table 900, and a range indicated by the size 904 with reference to the coordinates 903 of the selection device 105 is defined as the predetermined area. If it is determined that the virtual object is in contact with the predetermined area, the process proceeds to step S604. If it is determined that the virtual object is not in contact with the predetermined area, the process is performed at step S601. Return to.

ステップS604では、情報処理装置200−BのCPU201は、ステップS603で接触していると判定された仮想オブジェクトのオブジェクトID901を特定し、当該オブジェクトID901に対応する選択中フラグ906を0から1にする。   In step S604, the CPU 201 of the information processing apparatus 200-B specifies the object ID 901 of the virtual object determined to be in contact in step S603, and changes the selection flag 906 corresponding to the object ID 901 from 0 to 1. .

ステップS605では、情報処理装置200−BのCPU201は、ステップS604で特定したオブジェクトID901に対応する座標903の値を、選択デバイス105の座標903と同期させる。例えばオブジェクトID901=M222が特定された場合には、M222に対応する座標903をM444の座標903(XX4、YY4、ZZ4)として上書きする。これにより、選択デバイス105と移動対象の仮想オブジェクトの座標が一致するためユーザの選択デバイス105の挙動に合わせて仮想オブジェクトが移動しているようにHMD100−Bで表示することが可能である。   In step S605, the CPU 201 of the information processing apparatus 200-B synchronizes the value of the coordinate 903 corresponding to the object ID 901 specified in step S604 with the coordinate 903 of the selection device 105. For example, when the object ID 901 = M222 is specified, the coordinates 903 corresponding to M222 are overwritten as the coordinates 903 (XX4, YY4, ZZ4) of M444. Accordingly, since the coordinates of the selection device 105 and the virtual object to be moved match, it is possible to display the HMD 100-B so that the virtual object is moving according to the behavior of the selection device 105 of the user.

また、選択デバイス105で仮想オブジェクトが移動されると、移動された仮想オブジェクトの座標903をプライマリ機の情報処理装置200に送信し、プライマリ機の情報処理装置200はセカンダリ機の情報処理装置200に対して配信する。これにより、1つの情報処理装置200で仮想オブジェクトの移動指示が行われたとしても複数の情報処理装置200の間でも当該仮想オブジェクトの位置座標の同期を行うことが可能になる。   When the virtual device is moved by the selection device 105, the coordinate 903 of the moved virtual object is transmitted to the information processing apparatus 200 of the primary machine, and the information processing apparatus 200 of the primary machine sends the information to the information processing apparatus 200 of the secondary machine. Deliver to As a result, even if an instruction to move a virtual object is issued by one information processing apparatus 200, the position coordinates of the virtual object can be synchronized between the plurality of information processing apparatuses 200.

ステップS606では、情報処理装置200−BのCPU201は、HMD100−Bの座標を取得する。具体的には、ステップS407と同様に光学式センサ104を用いてHMD100−Bに付された光学式マーカを検知し、MR空間上のHMD100−Bの位置や向きを取得する。取得した情報は、HMD情報テーブル800のHMD位置・向き801に格納する。   In step S606, the CPU 201 of the information processing device 200-B acquires the coordinates of the HMD 100-B. Specifically, the optical marker attached to the HMD 100-B is detected using the optical sensor 104 as in step S407, and the position and orientation of the HMD 100-B in the MR space are acquired. The acquired information is stored in the HMD position / orientation 801 of the HMD information table 800.

ステップS607では、情報処理装置200−BのCPU201は、ステップS606で取得したHMD100−Bの座標情報とステップS506で受信した指定ポイントモデルの座標情報に基づいて、2つの座標情報が示す2点間の距離(a)を算出する(距離特定手段)。算出した距離(a)はRAM203等に記憶しておく。   In step S607, the CPU 201 of the information processing device 200-B determines the distance between the two points indicated by the two coordinate information based on the coordinate information of the HMD 100-B acquired in step S606 and the coordinate information of the specified point model received in step S506. Distance (a) is calculated (distance specifying means). The calculated distance (a) is stored in the RAM 203 or the like.

ステップS608では、情報処理装置200−BのCPU201は、ステップS607で取得した距離(a)が閾値以内か否かを判定する。閾値以内か否かの判定は図16に示している事前に設定された閾値テーブル1600のHMDの閾値1601に基づいて判定する。図16のHMDの閾値1601では5メートルという値が設定されているので、HMD100−Bと指定ポイントモデルの座標が示す距離が5メートル以内かを判定する。HMD100−Bと指定ポイントモデルの座標が示す距離閾値を超えると判定された場合には処理をステップS609に進め、閾値以内であると判定された場合には、処理をステップS610に進める。これにより、ユーザが指定ポイントモデルに近づくことで矢印ではなく距離で指定ポイントモデルとの間隔を図ることが可能になる。   In step S608, the CPU 201 of the information processing device 200-B determines whether the distance (a) acquired in step S607 is within a threshold value. Whether or not the threshold value is within the threshold value is determined based on the threshold value 1601 of the HMD in the threshold value table 1600 set in advance shown in FIG. Since the value of 5 meters is set in the threshold value 1601 of the HMD in FIG. 16, it is determined whether the distance indicated by the coordinates of the HMD 100-B and the designated point model is within 5 meters. If it is determined that the distance threshold indicated by the coordinates of the HMD 100-B and the designated point model is exceeded, the process proceeds to step S609. If it is determined that the coordinates are within the threshold, the process proceeds to step S610. Thereby, it becomes possible to aim at the space | interval with a designated point model not by an arrow but by a distance, when a user approaches a designated point model.

ステップS609では、情報処理装置200−BのCPU201は、距離(a)の値をHMD100−Bで表示する。表示は、ステップS410のように現実空間の画像に仮想空間画像を重畳することで表示をさせる。例えば図12に示す距離表示イメージ1200である。閾値以内の範囲であればユーザは指定ポイントモデルを視認することが可能のため、指定ポイントモデルまでの距離を表示することで、ユーザは指定ポイントモデルまでの距離を把握することが可能になる。   In step S609, the CPU 201 of the information processing device 200-B displays the value of the distance (a) on the HMD 100-B. The display is performed by superimposing the virtual space image on the real space image as in step S410. For example, a distance display image 1200 shown in FIG. Since the user can visually recognize the designated point model within the range within the threshold value, the user can grasp the distance to the designated point model by displaying the distance to the designated point model.

ステップS610では、情報処理装置200−BのCPU201は、ステップS606で取得したHMD100−Bの座標情報と、ステップS506で受信した指定ポイントモデルの座標情報との2点からなるベクトルを特定する(ベクトル特定手段)。   In step S610, the CPU 201 of the information processing device 200-B specifies a vector composed of two points, the coordinate information of the HMD 100-B acquired in step S606 and the coordinate information of the designated point model received in step S506 (vector). Specific means).

ステップS611では、情報処理装置200−BのCPU201は、ステップS610で特定したベクトルに基づいて、矢印を表示させる。表示は、ステップS410のように現実空間の画像に仮想空間画像を重畳することで表示をさせる。矢印はオブジェクトテーブル900に格納されている仮想オブジェクトである矢印オブジェクトを用いるものとする。矢印オブジェクトを、ステップS610で特定したベクトル方向の向きにし、ステップS410のように仮想空間画像として更に重畳させ複合現実画像を生成し、HMD100−Bで表示させるように制御する。例えば図13に示す矢印表示イメージ1300である。矢印表示イメージ1300には図示してあるように矢印1301が表示されている。これにより、ユーザは指定ポイントモデルまでの距離が遠く離れていたとしても、矢印に沿って移動することで指定ポイントモデルまで到達することができる。   In step S611, the CPU 201 of the information processing apparatus 200-B displays an arrow based on the vector specified in step S610. The display is performed by superimposing the virtual space image on the real space image as in step S410. It is assumed that an arrow object that is a virtual object stored in the object table 900 is used for the arrow. Control is performed so that the arrow object is oriented in the vector direction specified in step S610 and further superimposed as a virtual space image to generate a mixed reality image and displayed on the HMD 100-B as in step S410. For example, an arrow display image 1300 shown in FIG. An arrow 1301 is displayed in the arrow display image 1300 as illustrated. Thereby, even if the user is far away from the designated point model, the user can reach the designated point model by moving along the arrow.

ステップS612では、情報処理装置200−BのCPU201は、指定ポイントモデルへの仮想オブジェクトの移動処理を行う。詳細は後の図7に示すフローチャートを用いて説明を行う。   In step S612, the CPU 201 of the information processing device 200-B performs a process of moving the virtual object to the designated point model. Details will be described with reference to a flowchart shown in FIG.

以上の処理により、所定の距離に応じて指定ポイントモデルまでの矢印か距離の表示を切り替えることでユーザに適切な誘導を行うことを可能とする。   By the above processing, it is possible to perform appropriate guidance for the user by switching the display of the arrow or the distance to the designated point model according to the predetermined distance.

次に図7を用いて、図6に示す指定ポイントへの到達処理の詳細について説明を行う。   Next, details of the process of reaching the designated point shown in FIG. 6 will be described with reference to FIG.

ステップS701では、情報処理装置200−BのCPU201は、ステップS602で取得した選択デバイス105の座標情報と、ステップS506で受信した指定ポイントモデルの座標情報に基づいて、2つの座標情報が示す2点間の距離(b)を算出する(距離特定手段)。距離(b)を算出したのち、処理をステップS702に進める。   In step S701, the CPU 201 of the information processing device 200-B determines the two points indicated by the two coordinate information based on the coordinate information of the selection device 105 acquired in step S602 and the coordinate information of the designated point model received in step S506. The distance (b) is calculated (distance specifying means). After calculating the distance (b), the process proceeds to step S702.

ステップS702では、情報処理装置200−BのCPU201は、ステップS701で算出した値(b)と、外部メモリ211に記憶される閾値テーブル1600の仮想オブジェクトの閾値1602とを比較する。(b)が外部メモリ211に記憶される閾値テーブル1600の仮想オブジェクトの閾値1602以内であると判定された場合には処理をステップS705に移す。(b)が外部メモリ211に記憶される閾値テーブル1600の仮想オブジェクトの閾値1602以内ではないと判定された場合には処理をステップS703に移す。例えば、図14に示す仮想オブジェクト移動イメージ1400を用いて説明する。選択デバイス105で選択され移動中の仮想オブジェクトが、所定の領域1201に接した場合に、選択デバイス105との同期が解消され、指定ポイントモデルのある位置に仮想オブジェクトが設置される。   In step S <b> 702, the CPU 201 of the information processing device 200 -B compares the value (b) calculated in step S <b> 701 with the threshold 1602 of the virtual object in the threshold table 1600 stored in the external memory 211. If it is determined that (b) is within the threshold 1602 of the virtual object in the threshold table 1600 stored in the external memory 211, the process proceeds to step S705. If it is determined that (b) is not within the threshold 1602 of the virtual object in the threshold table 1600 stored in the external memory 211, the process proceeds to step S703. For example, a description will be given using a virtual object moving image 1400 shown in FIG. When the moving virtual object selected by the selection device 105 is in contact with the predetermined area 1201, the synchronization with the selection device 105 is canceled, and the virtual object is placed at a position where the designated point model exists.

ステップS703では、情報処理装置200−BのCPU201は、選択デバイス105から解除信号を受信したか否かを判定する。解除信号は例えば選択ボタン1001の押下が検知されなくなるなどによって受け付ける。選択デバイス105から解除信号を受信したと判定した場合には処理をステップS704に進め、選択デバイス105から解除信号を受信しなかったと判定した場合には処理をステップS606に戻す。   In step S <b> 703, the CPU 201 of the information processing apparatus 200 -B determines whether a release signal is received from the selection device 105. The release signal is received when, for example, the pressing of the selection button 1001 is not detected. If it is determined that a release signal has been received from the selected device 105, the process proceeds to step S704. If it is determined that a release signal has not been received from the selected device 105, the process returns to step S606.

ステップS704では、情報処理装置200−BのCPU201は、選択デバイス105と座標を同期している仮想オブジェクト(選択中フラグ906が1の仮想オブジェクト)の座標903の選択デバイス105との同期を解除する。   In step S704, the CPU 201 of the information processing device 200-B releases the synchronization with the selection device 105 at the coordinate 903 of the virtual object whose coordinates are synchronized with the selection device 105 (the virtual object whose selection flag 906 is 1). .

ステップS705では、情報処理装置200−BのCPU201は、選択中フラグ906が「1」の仮想オブジェクトの座標903を指定ポイントモデルの座標903と同期させる。これにより、指定ポイントモデルの座標に仮想オブジェクトを固定することができる。   In step S705, the CPU 201 of the information processing apparatus 200-B synchronizes the coordinates 903 of the virtual object whose selection flag 906 is “1” with the coordinates 903 of the designated point model. Thereby, the virtual object can be fixed to the coordinates of the designated point model.

ステップS706では、情報処理装置200−BのCPU201は、ステップS705で指定ポイントモデルの座標903と同期させた仮想オブジェクトのオブジェクトID901に対応する選択禁止フラグ907を1にし、選択中フラグ906を1から0とする。(移動制御手段)   In step S706, the CPU 201 of the information processing apparatus 200-B sets the selection prohibition flag 907 corresponding to the object ID 901 of the virtual object synchronized with the coordinates 903 of the specified point model in step S705, and sets the selection flag 906 from 1. 0. (Movement control means)

前述したとおり、選択禁止フラグ907がたっている間は選択デバイス105による選択を受け付けない。   As described above, selection by the selection device 105 is not accepted while the selection prohibition flag 907 is set.

ステップS707では、情報処理装置200−BのCPU201は、事前に設定した所定時間(所定の時間)経過したか否かを判定する。事前に設定した所定時間を経過したと判定された場合には、処理をステップS708に進める。事前に設定した所定時間を経過しないと判定された場合には、処理をステップS707に戻す。   In step S707, the CPU 201 of the information processing apparatus 200-B determines whether or not a predetermined time (predetermined time) set in advance has elapsed. If it is determined that a predetermined time set in advance has elapsed, the process proceeds to step S708. If it is determined that the predetermined time set in advance has not elapsed, the process returns to step S707.

ステップS708では、情報処理装置200−BのCPU201は、ステップS706で立てた選択禁止フラグ907を0に戻す。   In step S708, the CPU 201 of the information processing apparatus 200-B returns the selection prohibition flag 907 set in step S706 to 0.

以上で本発明の第1の実施形態の説明を終了する。次に本発明の第2の実施形態の説明を開始する。   This is the end of the description of the first embodiment of the present invention. Next, the description of the second embodiment of the present invention is started.

第1の実施形態では、HMD100−Aを装着したユーザAの視線に基づいて仮想空間上の位置を特定し、特定した位置とユーザAのHMD100−Aの位置の2点に基づいて矢印状の仮想オブジェクトを表示した。これにより、どの方向からユーザAが特定した位置を覗いているのかを他のユーザが把握することができる。   In the first embodiment, a position in the virtual space is specified based on the line of sight of the user A wearing the HMD 100-A, and an arrow-like shape is determined based on two points: the specified position and the position of the user A's HMD 100-A. Displayed virtual objects. Thereby, the other user can grasp from which direction the user A is looking into the specified position.

第2の実施形態の特徴は以下の通りである。第2の実施形態は、HMD100−Aを装着したユーザAの視線に基づいて特定した仮想空間上の位置に、方向の概念を持たない仮想オブジェクト(マーク状の仮想オブジェクト)を、重畳表示させることを特徴としている。さらに、視線方向を読み込んだHMD100では視線を示す指定ポイントモデルを表示させないことでHMD100の視認性を向上させることを特徴としている。また、HMD100の視線方向の最も近い仮想オブジェクトが指定ポイントモデルを表示すべき仮想オブジェクトか否かを判定することにより、指定ポイントモデルの表示を制御させることを特徴としている。   The features of the second embodiment are as follows. In the second embodiment, a virtual object (marked virtual object) having no concept of direction is superimposed and displayed at a position on the virtual space specified based on the line of sight of the user A wearing the HMD 100-A. It is characterized by. Further, the HMD 100 that has read the line-of-sight direction is characterized in that the visibility of the HMD 100 is improved by not displaying the designated point model indicating the line of sight. Further, the display of the designated point model is controlled by determining whether or not the virtual object closest to the line-of-sight direction of the HMD 100 is a virtual object that should display the designated point model.

第2の実施形態では、システム構成、ハードウェア構成、機能構成、画面例、テーブルは第1の実施形態と下記の変更点を除き同様とする。変更点としては、図5を図17に変更、図9を図19に変更、図11を図18に変更したものである。
これより図17と図18の説明を行う。
In the second embodiment, the system configuration, hardware configuration, functional configuration, screen example, and table are the same as those in the first embodiment except for the following changes. As changes, FIG. 5 is changed to FIG. 17, FIG. 9 is changed to FIG. 19, and FIG. 11 is changed to FIG.
17 and FIG. 18 will now be described.

図17は、本発明の第2の実施形態における指定ポイントモデル表示処理の詳細な処理の流れを説明するフローチャートである。   FIG. 17 is a flowchart for explaining the detailed processing flow of the designated point model display processing according to the second embodiment of the present invention.

ステップS1701からステップS1702までは図5に示すステップS501からステップS502と同様の処理であるため、説明を省略する。   Steps S1701 to S1702 are the same as steps S501 to S502 shown in FIG.

図17のフローチャートでは、図5のステップS505に対応する処理を削除している。これにより、拠点Aのユーザ(本実施形態であればHMD100−Aを装着しているユーザA)のHMD100に、指定ポイントモデルを表示させないことにより、ユーザの視界に不要な指定ポイントモデルを表示させないことを可能とするものである。拠点Bのユーザが装着するHMD100−Bでは、拠点Aのユーザの視線から特定される指定ポイントモデルが表示される。   In the flowchart of FIG. 17, the process corresponding to step S505 of FIG. 5 is deleted. Thus, the designated point model is not displayed in the user's field of view by not displaying the designated point model on the HMD 100 of the user at the site A (the user A wearing the HMD 100-A in this embodiment). It is possible to do that. In the HMD 100-B worn by the user at the site B, the designated point model specified from the line of sight of the user at the site A is displayed.

また、第2の実施形態では指定ポイントモデルをマーク状のものとしたが、識別表示することができれば第1の実施形態のように矢印状のものを用いてもよい。   In the second embodiment, the designated point model is a mark, but if it can be identified and displayed, an arrow-shaped one may be used as in the first embodiment.

ステップS1703では、情報処理装置200−AのCPU201は、図19のオブジェクトテーブル1900を参照する。オブジェクトテーブル1900は図9に示すオブジェクトテーブル900に視線表示フラグ1908を追加したものである。視線表示フラグ1908は事前に設定されているものであり、視線表示フラグ1908が「0」であれば指定ポイントモデルを表示しない仮想オブジェクトであることを示しており、「1」であれば指定ポイントモデルを表示する仮想オブジェクトであることを示すものである。   In step S1703, the CPU 201 of the information processing apparatus 200-A refers to the object table 1900 in FIG. The object table 1900 is obtained by adding a line-of-sight display flag 1908 to the object table 900 shown in FIG. The line-of-sight display flag 1908 is set in advance. If the line-of-sight display flag 1908 is “0”, it indicates that the virtual object does not display the designated point model, and if it is “1”, the designated point is displayed. It is a virtual object that displays a model.

ステップS1704では、情報処理装置200−AのCPU201は、ステップS1702で特定した仮想オブジェクトの視線表示フラグ1908を確認し、視線表示フラグ1908が「0」であれば処理をステップS1702に戻し、視線表示フラグ1908が「1」であれば処理をステップS1705に進める。   In step S1704, the CPU 201 of the information processing apparatus 200-A checks the line-of-sight display flag 1908 of the virtual object specified in step S1702. If the line-of-sight display flag 1908 is “0”, the process returns to step S1702 to display the line of sight. If the flag 1908 is “1”, the process proceeds to step S1705.

このように、仮想オブジェクトごとに設定を設けることで、仮想オブジェクトによっては指定ポイントモデルを表示させないことが可能となる効果がある。   As described above, by providing the setting for each virtual object, there is an effect that the specified point model may not be displayed depending on the virtual object.

ステップS1705からステップS1708までの処理はステップS503乃至504、ステップS506乃至507と同様のため、説明を省略する。上述したようにステップS505は削除している。   Since the processing from step S1705 to step S1708 is the same as that of steps S503 to 504 and steps S506 to 507, description thereof will be omitted. As described above, step S505 is deleted.

ステップS1709では、情報処理装置200−BのCPU201は、ステップS1705で受信した交点の座標(視点と交差する仮想オブジェクト上の座標)に所定の指定ポイントモデル(仮想オブジェクト)を重畳して表示する。   In step S1709, the CPU 201 of the information processing apparatus 200-B superimposes and displays a predetermined designated point model (virtual object) on the coordinates of the intersection received in step S1705 (coordinates on the virtual object that intersects the viewpoint).

例えば図18に示すイメージである。図18は識別表示イメージ1800である。視線をもとに仮想オブジェクトの位置座標を特定した(他のHMDに見ている対象を通知する)HMD100−Aには指定ポイントモデル1801を表示せず、HMD100−Aとは異なるHMD100であるHMD100−Bでは指定ポイントモデル1801を表示する。指定ポイントモデル1801が表示されることにより仮想オブジェクトを識別可能に表示させることができる。指定ポイントモデル1801は図18のイメージに限定されず、仮想オブジェクトと視線との交点を識別可能にできればこれに限定されない。また、仮想オブジェクトを識別可能にする効果もある。
これにより、HMD100−Aを装着するユーザの視認性向上をもたらす効果がある。
For example, the image shown in FIG. FIG. 18 shows an identification display image 1800. The specified point model 1801 is not displayed on the HMD 100-A in which the position coordinates of the virtual object are specified based on the line of sight (notifying the target being viewed by another HMD), and the HMD 100 is an HMD 100 different from the HMD 100-A. In -B, the designated point model 1801 is displayed. By displaying the designated point model 1801, the virtual object can be displayed in an identifiable manner. The designated point model 1801 is not limited to the image in FIG. 18, and is not limited to this as long as the intersection between the virtual object and the line of sight can be identified. In addition, there is an effect that the virtual object can be identified.
Thereby, there exists an effect which brings about the visibility improvement of the user who mounts HMD100-A.

第2の実施形態では、矢印状の指定ポイントモデル以外の表示形態で記載をしたが、矢印状の指定ポイントモデルで上述の処理を実施してもよい。   In the second embodiment, the display form other than the arrow-shaped designated point model is described. However, the above-described processing may be performed using the arrow-shaped designated point model.

以上の処理により、指定ポイントモデルの所定の範囲内に選択デバイス105で選択し移動中の仮想オブジェクトが近づいた時には、ユーザが簡単に指定ポイントモデルのある座標に仮想オブジェクトを配置することを可能とする。さらに所定時間選択禁止にすることでユーザは選択デバイス105による選択解除指示を行わなくとも、指定ポイントモデルのある座標に仮想オブジェクトを配置することを可能としている。   With the above processing, when the virtual object selected and moved by the selection device 105 within a predetermined range of the designated point model approaches, the user can easily place the virtual object at a certain coordinate of the designated point model. To do. Further, by prohibiting selection for a predetermined time, the user can place a virtual object at a certain coordinate of the designated point model without performing a selection cancellation instruction by the selection device 105.

以上、本実施例により、第1の仮想空間上の所望の位置を、第1のヘッドマウントディスプレイの視線によって特定することにより、第2のヘッドマウントディスプレイで識別可能に表示させることの可能な効果を奏する。   As described above, according to the present embodiment, the desired position in the first virtual space is specified by the line of sight of the first head mounted display, so that the second head mounted display can be displayed in an identifiable manner. Play.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせても実行可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let The program can also be executed by executing the encrypted program using the downloaded key information and installing it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 HMD
101 LAN
103 光学式マーカ
104 光学式センサ
105 選択デバイス
200 情報処理装置
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 入力デバイス
210 ディスプレイ
211 外部メモリ
212 汎用バス
221 右目・左目ビデオカメラ
222 右目・左目ディスプレイ
100 HMD
101 LAN
103 optical marker 104 optical sensor 105 selection device 200 information processing apparatus 201 CPU
202 ROM
203 RAM
204 System bus 205 Input controller 206 Video controller 207 Memory controller 208 Communication I / F controller 209 Input device 210 Display 211 External memory 212 General-purpose bus 221 Right-eye / left-eye video camera 222 Right-eye / left-eye display

本発明は、仮想空間上の所望の位置を、第1のヘッドマウントディスプレイの視線によって特定することにより、第2のヘッドマウントディスプレイで識別可能に表示させることを目的とする。
The present invention, a desired position on the virtual space, by identifying the line of sight of the first head-mounted display, and an object thereof to identifiably displayed in the second head-mounted display.

本発明によれば、仮想空間上の所望の位置を、第1のヘッドマウントディスプレイの視線によって特定することにより、第2のヘッドマウントディスプレイで識別可能に表示させることの可能な効果を奏する。 According to the present invention, the desired position on the virtual space, by identifying the line of sight of the first head-mounted display, exhibits the possible effect of be identifiably displayed in the second head-mounted display.

特開2014−032443号公報JP 2014-032443 A

Claims (14)

共通する仮想空間である、第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とを管理する情報処理システムであって、
第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得手段と、
前記取得手段で取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定手段と、
第2のヘッドマウントディスプレイの仮想空間上に、前記特定手段で特定された前記位置座標に対応する位置座標を識別可能に表示させる表示制御手段と
を備えることを特徴とする情報処理システム。
An information processing system for managing a virtual space of a first head mounted display and a virtual space of a second head mounted display, which are common virtual spaces,
Acquisition means for acquiring line-of-sight information, which is information indicating the line of sight of the first head-mounted display in real space;
Based on the line-of-sight information acquired by the acquiring means, specifying means for specifying position coordinates in a virtual space of the first head mounted display;
An information processing system comprising: display control means for displaying, in an identifiable manner, position coordinates corresponding to the position coordinates specified by the specifying means on a virtual space of a second head mounted display.
前記視線情報は、ヘッドマウントディスプレイの現実空間上の位置情報及び向きを含むことを特徴とする請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the line-of-sight information includes position information and orientation of a head-mounted display in a real space. 前記位置座標は、前記取得手段で取得した前記視線情報が示す視線と、前記第1のヘッドマウントディスプレイの仮想空間上の仮想オブジェクトとの交点の位置座標であること
を特徴とする請求項1または2に記載の情報処理システム。
The position coordinate is a position coordinate of an intersection of a line of sight indicated by the line-of-sight information acquired by the acquisition unit and a virtual object in a virtual space of the first head-mounted display. 2. The information processing system according to 2.
前記表示制御手段は、前記特定手段で特定した位置座標を前記第1のヘッドマウントディスプレイの仮想空間上にも識別可能に表示させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。   4. The display control unit according to claim 1, wherein the display control unit displays the position coordinates specified by the specifying unit in an identifiable manner on a virtual space of the first head mounted display. 5. Information processing system. 前記表示制御手段は、前記特定手段で特定された前記位置座標に対応する位置座標を含む仮想オブジェクトを識別可能に表示すること
を特徴とする請求項1乃至4のいずれか1項に記載の情報処理システム。
5. The information according to claim 1, wherein the display control unit displays a virtual object including a position coordinate corresponding to the position coordinate specified by the specifying unit in an identifiable manner. Processing system.
仮想オブジェクトごとにフラグを記憶する記憶手段と、
前記特定手段で特定した仮想オブジェクトを前記記憶手段に記憶されたフラグによって、前記表示制御手段で位置座標を識別可能に表示させるか否かを判定する判定手段と
を更に備え、
前記表示制御手段は、前記判定手段で識別表示すべきであると判定した場合に、前記特定手段で特定された前記位置座標に対応する位置座標を識別可能に表示させること
を特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。
Storage means for storing a flag for each virtual object;
A determination means for determining whether or not the display control means displays the position coordinates in an identifiable manner by the flag stored in the storage means with the virtual object specified by the specifying means; and
The display control means, when it is determined that the determination means should identify and display, the position coordinates corresponding to the position coordinates specified by the specifying means are displayed in an identifiable manner. The information processing system according to any one of 1 to 5.
仮想オブジェクトに対する移動指示を受け付ける移動指示受付手段と、
前記移動指示受付手段で受け付けた前記仮想オブジェクトの位置情報が示す位置座標と前記特定手段で特定した仮想空間上の位置座標との距離を特定する距離特定手段と、
前記距離特定手段で特定した前記距離が所定の値より小さい場合には前記仮想オブジェクトの移動をさせないよう制御する移動制御手段と
を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理システム。
A movement instruction receiving means for receiving a movement instruction for the virtual object;
Distance specifying means for specifying the distance between the position coordinates indicated by the position information of the virtual object received by the movement instruction receiving means and the position coordinates on the virtual space specified by the specifying means;
The movement control means for controlling the virtual object not to move when the distance specified by the distance specifying means is smaller than a predetermined value. 7. Information processing system described in 1.
前記距離特定手段は、ヘッドマウントディスプレイの位置から前記取得手段で取得した位置座標への距離を更に特定し、
前記表示制御手段は、
前記距離特定手段で特定した、ヘッドマウントディスプレイの位置から前記取得手段で取得した位置座標への距離が所定の値以内の場合には、当該距離を示す情報を表示すること
を特徴とする請求項7に記載の情報処理システム。
The distance specifying means further specifies the distance from the position of the head mounted display to the position coordinates acquired by the acquiring means,
The display control means includes
The information indicating the distance is displayed when the distance from the position of the head mounted display specified by the distance specifying unit to the position coordinates acquired by the acquiring unit is within a predetermined value. 8. The information processing system according to 7.
前記仮想オブジェクトの位置座標から前記特定手段で特定された位置座標へのベクトルを特定するベクトル特定手段
を更に備え、
前記表示制御手段は、
前記距離特定手段で特定した、ヘッドマウントディスプレイの位置から前記取得手段で取得した位置座標への距離が所定の値より大きい場合には、前記ベクトル特定手段で特定した前記ベクトルを表示すること
を特徴とする請求項7乃至8に記載の情報処理システム。
A vector specifying means for specifying a vector from the position coordinates of the virtual object to the position coordinates specified by the specifying means;
The display control means includes
When the distance from the position of the head mounted display specified by the distance specifying unit to the position coordinates acquired by the acquiring unit is larger than a predetermined value, the vector specified by the vector specifying unit is displayed. The information processing system according to claim 7 to 8.
共通する仮想空間である、第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とを管理する情報処理システムの制御方法であって、
前記情報処理システムの取得手段が、第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得ステップと、
前記情報処理システムの特定手段が、前記取得ステップで取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定ステップと、
前記情報処理システムの表示制御手段が、第2のヘッドマウントディスプレイの仮想空間上に、前記特定ステップで特定された前記位置座標に対応する位置座標を識別可能に表示させる表示制御ステップと
を備えることを特徴とする情報処理システムの制御方法。
A control method of an information processing system for managing a virtual space of a first head mounted display and a virtual space of a second head mounted display, which are common virtual spaces,
An acquisition step in which the acquisition unit of the information processing system acquires line-of-sight information that is information indicating the line of sight of the first head-mounted display in real space;
A specifying step of specifying a position coordinate in a virtual space of the first head mounted display based on the line-of-sight information acquired in the acquiring step;
A display control step of causing the display control means of the information processing system to display the position coordinates corresponding to the position coordinates specified in the specifying step in an identifiable manner on the virtual space of the second head mounted display. An information processing system control method characterized by the above.
共通する仮想空間である、第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とを管理する情報処理システムで実行可能なプログラムであって、
前記情報処理システムを、
第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得手段と、
前記取得手段で取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定手段と、
第2のヘッドマウントディスプレイの仮想空間上に、前記特定手段で特定された前記位置座標に対応する位置座標を識別可能に表示させる表示制御手段
として機能させることを特徴とするプログラム。
A program that can be executed by an information processing system that manages a virtual space of a first head mounted display and a virtual space of a second head mounted display, which is a common virtual space,
The information processing system;
Acquisition means for acquiring line-of-sight information, which is information indicating the line of sight of the first head-mounted display in real space;
Based on the line-of-sight information acquired by the acquiring means, specifying means for specifying position coordinates in a virtual space of the first head mounted display;
A program that functions as display control means for displaying, in an identifiable manner, position coordinates corresponding to the position coordinates specified by the specifying means on a virtual space of a second head-mounted display.
第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とが共通する仮想空間であって、第2のヘッドマウントディスプレイの仮想空間を管理する情報処理装置と通信可能な第1のヘッドマウントディスプレイの仮想空間を管理する情報処理装置であって、
第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得手段と、
前記取得手段で取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定手段と、
前記特定手段で特定した前記位置座標を第2のヘッドマウントディスプレイの仮想空間を管理する情報処理装置に対して送信する送信手段と
を備えることを特徴とする情報処理装置。
A virtual space in which the virtual space of the first head-mounted display and the virtual space of the second head-mounted display are common, and the first space is capable of communicating with an information processing device that manages the virtual space of the second head-mounted display. An information processing apparatus for managing the virtual space of the head-mounted display of
Acquisition means for acquiring line-of-sight information, which is information indicating the line of sight of the first head-mounted display in real space;
Based on the line-of-sight information acquired by the acquiring means, specifying means for specifying position coordinates in a virtual space of the first head mounted display;
An information processing apparatus comprising: transmission means for transmitting the position coordinates specified by the specifying means to an information processing apparatus that manages a virtual space of a second head mounted display.
第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とが共通する仮想空間であって、第2のヘッドマウントディスプレイの仮想空間を管理する情報処理装置と通信可能な第1のヘッドマウントディスプレイの仮想空間を管理する情報処理装置の制御方法であって、
前記情報処理装置の取得手段が、第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得ステップと、
前記情報処理装置の特定手段が、前記取得ステップで取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定ステップと、
前記特定手段で特定した前記位置座標を第2のヘッドマウントディスプレイの仮想空間を管理する情報処理装置に対して送信する送信ステップと
を備えることを特徴とする情報処理装置の制御方法。
A virtual space in which the virtual space of the first head-mounted display and the virtual space of the second head-mounted display are common, and the first space is capable of communicating with an information processing device that manages the virtual space of the second head-mounted display. A method for controlling an information processing apparatus for managing a virtual space of a head-mounted display of
An acquisition step in which the acquisition unit of the information processing apparatus acquires line-of-sight information, which is information indicating the line of sight of the first head-mounted display in real space;
A specifying step of specifying a position coordinate in a virtual space of the first head-mounted display based on the line-of-sight information acquired in the acquiring step;
A transmission step of transmitting the position coordinates specified by the specifying means to an information processing apparatus managing a virtual space of a second head mounted display.
第1のヘッドマウントディスプレイの仮想空間と第2のヘッドマウントディスプレイの仮想空間とが共通する仮想空間であって、第2のヘッドマウントディスプレイの仮想空間を管理する情報処理装置と通信可能な第1のヘッドマウントディスプレイの仮想空間を管理する情報処理装置で実行可能なプログラムであって、
前記情報処理装置を、
第1のヘッドマウントディスプレイの現実空間上の視線を示す情報である視線情報を取得する取得手段と、
前記取得手段で取得した前記視線情報に基づき、前記第1のヘッドマウントディスプレイの仮想空間上の位置座標を特定する特定手段と、
前記特定手段で特定した前記位置座標を第2のヘッドマウントディスプレイの仮想空間を管理する情報処理装置に対して送信する送信手段
として機能させることを特徴とするプログラム。
A virtual space in which the virtual space of the first head-mounted display and the virtual space of the second head-mounted display are common, and the first space is capable of communicating with an information processing device that manages the virtual space of the second head-mounted display. A program that can be executed by an information processing device that manages the virtual space of the head-mounted display of
The information processing apparatus;
Acquisition means for acquiring line-of-sight information, which is information indicating the line of sight of the first head-mounted display in real space;
Based on the line-of-sight information acquired by the acquiring means, specifying means for specifying position coordinates in a virtual space of the first head mounted display;
A program that causes the position coordinates specified by the specifying means to function as a transmitting means for transmitting to an information processing device that manages a virtual space of a second head mounted display.
JP2015123556A 2014-07-31 2015-06-19 INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM Active JP6004051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015123556A JP6004051B2 (en) 2014-07-31 2015-06-19 INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014156900 2014-07-31
JP2014156900 2014-07-31
JP2015123556A JP6004051B2 (en) 2014-07-31 2015-06-19 INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016171834A Division JP6663111B2 (en) 2014-07-31 2016-09-02 Information processing system, its control method and program, and information processing apparatus, its control method and program

Publications (2)

Publication Number Publication Date
JP2016035742A true JP2016035742A (en) 2016-03-17
JP6004051B2 JP6004051B2 (en) 2016-10-05

Family

ID=55523535

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015123556A Active JP6004051B2 (en) 2014-07-31 2015-06-19 INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2016171834A Active JP6663111B2 (en) 2014-07-31 2016-09-02 Information processing system, its control method and program, and information processing apparatus, its control method and program
JP2020020515A Active JP6978701B2 (en) 2014-07-31 2020-02-10 Information processing system, its control method, and program, and information processing device, its control method, and program.

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016171834A Active JP6663111B2 (en) 2014-07-31 2016-09-02 Information processing system, its control method and program, and information processing apparatus, its control method and program
JP2020020515A Active JP6978701B2 (en) 2014-07-31 2020-02-10 Information processing system, its control method, and program, and information processing device, its control method, and program.

Country Status (1)

Country Link
JP (3) JP6004051B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017191700A1 (en) * 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント Image generation device, image generation method, and program
WO2017191701A1 (en) * 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント Display control device, display control method, and program
JP2018117970A (en) * 2017-01-27 2018-08-02 株式会社スクウェア・エニックス Game system, game execution method, and computer device
WO2018225218A1 (en) * 2017-06-08 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント Information processing device and image generation method
WO2019135313A1 (en) * 2018-01-04 2019-07-11 ソニー株式会社 Information processing device, information processing method and program
JP2023534883A (en) * 2021-06-23 2023-08-15 スリーアイ インコーポレーテッド Depth map image generation method and computing device therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116490900A (en) 2020-11-30 2023-07-25 麦克赛尔株式会社 Augmented reality processing system, information display device, and augmented reality processing method
US20240289080A1 (en) * 2021-08-23 2024-08-29 Ntt Docomo, Inc. Display control device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062756A (en) * 2002-07-31 2004-02-26 Canon Inc Information-presenting device and information-processing method
JP2004213673A (en) * 2002-12-30 2004-07-29 Abb Res Ltd Toughened reality system and method
JP2005174021A (en) * 2003-12-11 2005-06-30 Canon Inc Method and device for presenting information

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319037A (en) * 2001-04-18 2002-10-31 Ricoh Co Ltd Work support device, work support method, program and recording medium, and virtual work support system
JP5472056B2 (en) * 2010-11-19 2014-04-16 コニカミノルタ株式会社 Display system, display processing apparatus, display method, and display program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062756A (en) * 2002-07-31 2004-02-26 Canon Inc Information-presenting device and information-processing method
JP2004213673A (en) * 2002-12-30 2004-07-29 Abb Res Ltd Toughened reality system and method
JP2005174021A (en) * 2003-12-11 2005-06-30 Canon Inc Method and device for presenting information

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017191700A1 (en) * 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント Image generation device, image generation method, and program
WO2017191701A1 (en) * 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント Display control device, display control method, and program
JPWO2017191700A1 (en) * 2016-05-02 2018-09-27 株式会社ソニー・インタラクティブエンタテインメント Image generating apparatus, image generating method, and program
JPWO2017191701A1 (en) * 2016-05-02 2018-10-18 株式会社ソニー・インタラクティブエンタテインメント Display control apparatus, display control method, and program
US10803652B2 (en) 2016-05-02 2020-10-13 Sony Interactive Entertainment Inc. Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space
US20190114823A1 (en) * 2016-05-02 2019-04-18 Sony Interactive Entertainment Inc. Image generating apparatus, image generating method, and program
JP2018117970A (en) * 2017-01-27 2018-08-02 株式会社スクウェア・エニックス Game system, game execution method, and computer device
JPWO2018225218A1 (en) * 2017-06-08 2019-11-07 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method
WO2018225218A1 (en) * 2017-06-08 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント Information processing device and image generation method
US11094107B2 (en) 2017-06-08 2021-08-17 Sony Interactive Entertainment Inc. Information processing device and image generation method
WO2019135313A1 (en) * 2018-01-04 2019-07-11 ソニー株式会社 Information processing device, information processing method and program
JPWO2019135313A1 (en) * 2018-01-04 2020-12-17 ソニー株式会社 Information processing equipment, information processing methods and programs
US11314326B2 (en) 2018-01-04 2022-04-26 Sony Corporation Information processing device, information processing method, and program for determining a user gaze
JP7272278B2 (en) 2018-01-04 2023-05-12 ソニーグループ株式会社 Information processing device, information processing method and program
JP2023534883A (en) * 2021-06-23 2023-08-15 スリーアイ インコーポレーテッド Depth map image generation method and computing device therefor
JP7414332B2 (en) 2021-06-23 2024-01-16 スリーアイ インコーポレーテッド Depth map image generation method and computing device therefor

Also Published As

Publication number Publication date
JP6004051B2 (en) 2016-10-05
JP2020102232A (en) 2020-07-02
JP2017033575A (en) 2017-02-09
JP6663111B2 (en) 2020-03-11
JP6978701B2 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
JP6004051B2 (en) INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2015143976A (en) Information processing device, method for controlling the same, and program
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
JP6920057B2 (en) Image processing equipment, image processing method, computer program
JP2015125641A (en) Information processing device, control method therefor, and program
JP7060778B2 (en) Information processing system, information processing system control method and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP6725827B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6409861B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6871501B2 (en) Information processing equipment, information processing system, its control method and program
JP2005174021A (en) Method and device for presenting information
JP6730577B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2015170232A (en) Information processing device, method of controlling the same, and program
JP6376251B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2016122443A (en) Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program
JP6820469B2 (en) Information processing equipment, information processing system, its control method and program
JP2017084215A (en) Information processing system, control method thereof, and program
JP6836060B2 (en) Information processing equipment, information processing system, information processing method and program
JP2016115230A (en) Information processing apparatus, information processing system, control method thereof, and program
JP6810342B2 (en) Information processing equipment, information processing system, its control method and program
JP6164177B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2020074108A (en) Information processing system, control method thereof, and program
JP6638326B2 (en) Information processing system, control method thereof, and program
JP6741939B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6734537B2 (en) Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160822

R150 Certificate of patent or registration of utility model

Ref document number: 6004051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250