JP6730577B2 - Information processing apparatus, information processing system, control method thereof, and program - Google Patents

Information processing apparatus, information processing system, control method thereof, and program Download PDF

Info

Publication number
JP6730577B2
JP6730577B2 JP2015188449A JP2015188449A JP6730577B2 JP 6730577 B2 JP6730577 B2 JP 6730577B2 JP 2015188449 A JP2015188449 A JP 2015188449A JP 2015188449 A JP2015188449 A JP 2015188449A JP 6730577 B2 JP6730577 B2 JP 6730577B2
Authority
JP
Japan
Prior art keywords
hmd
physical
information
image
physical space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015188449A
Other languages
Japanese (ja)
Other versions
JP2017062720A (en
JP2017062720A5 (en
Inventor
光洋 尾崎
光洋 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2015188449A priority Critical patent/JP6730577B2/en
Publication of JP2017062720A publication Critical patent/JP2017062720A/en
Publication of JP2017062720A5 publication Critical patent/JP2017062720A5/ja
Application granted granted Critical
Publication of JP6730577B2 publication Critical patent/JP6730577B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

情報処理装置、情報処理システム、その制御方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, a control method thereof, and a program.

近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実物体とCGモデルを配置したMR空間(現実空間と仮想空間とを重ね合わせた複合現実空間)の疑似体験を提供できる。 In recent years, mixed reality (hereinafter referred to as MR) technology has become widespread. Using MR technology, a user wearing a head-mounted display (HMD) will have a simulated experience of an MR space (a mixed reality space in which a physical space and a virtual space are superimposed) in which a physical object and a CG model are arranged. Can be provided.

特許文献1には、当該マーカの存在をユーザに意識させないために、マーカを検出した場合に、当該マーカを隠した画像を描画する技術が記載されている。 Patent Document 1 describes a technique of drawing an image in which the marker is hidden when the marker is detected in order to prevent the user from being aware of the presence of the marker.

従来、MR空間を体感するために装着するHMDによっては、装着によりユーザの視野が狭まってしまい、ユーザが周囲の状況を充分に把握できないという問題があった。例えば他のユーザが視野の外から近付いてきている場合、ふいにぶつかってしまうことが考えられる。 Conventionally, depending on the HMD that is worn in order to experience the MR space, the field of view of the user is narrowed due to the wearing, and there is a problem that the user cannot fully grasp the surrounding situation. For example, when another user is approaching from outside the field of view, it is possible that the user suddenly bumps into it.

特開2000−350860号公報JP-A-2000-350860 特開平10−154243号公報JP, 10-154243, A

特許文献2においては、PC画面において、仮想空間上のアバターの位置をレーダーマップ上に表示する技術が開示されている。つまり、ユーザは自分のアバターと同じ仮想空間にいる他人の位置をレーダーマップ上で第三者的視点から確認可能である。 Patent Document 2 discloses a technique of displaying the position of an avatar in a virtual space on a radar map on a PC screen. That is, the user can confirm the position of another person in the same virtual space as his or her avatar on the radar map from a third-party viewpoint.

一方、MRの仕組みの場合は、複数人が同じ仮想空間を共有しているが、現実空間上はそれぞれ別の場所にいる場合がある。現実世界において別の場所にいる他のユーザと近付いたとしてもぶつかる危険はない。反対に、同じ場所にいる他のユーザと近付いた場合はぶつかってしまう危険がある。 On the other hand, in the case of the MR mechanism, a plurality of people may share the same virtual space, but they may be in different places in the real space. There is no danger of hitting another user in another location in the real world. On the other hand, if you approach another user in the same place, you risk hitting it.

また、HMDは一般のPCディスプレイと比較して画像の表示部が小さいため、極力無駄な情報を表示したくないと考えられる。 In addition, since the HMD has a smaller image display unit than a general PC display, it is considered that he does not want to display useless information as much as possible.

本発明は、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することを目的とする。 An object of the present invention is to provide a mechanism for properly displaying the position of another user in a wearable display device.

本発明は、 The present invention is

本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism for appropriately displaying the positions of other users in a wearable display device.

本発明の実施形態における、システム構成の一例を示す図であるIt is a figure showing an example of a system configuration in an embodiment of the present invention. 本発明の実施形態における、各種装置のハードウエア構成の一例を示す図であるIt is a figure which shows an example of the hardware constitutions of various apparatuses in embodiment of this invention. 本発明の実施形態における、各種装置の機能構成の一例を示す図であるIt is a figure showing an example of functional composition of various devices in an embodiment of the present invention. 本発明の第1の実施形態における、HMDの位置姿勢情報の送受信の流れを示すフローチャートである3 is a flowchart showing a flow of transmission/reception of position/orientation information of an HMD in the first embodiment of the present invention. 本発明の第1の実施形態における、ユーザ位置の識別表示処理の流れを示すフローチャートである6 is a flowchart showing a flow of user position identification display processing according to the first embodiment of the present invention. 本発明の実施形態における、各種データの構成の一例を示す図であるIt is a figure which shows an example of a structure of various data in embodiment of this invention. 本発明の実施形態における、仮想空間の共有のイメージ図であるFIG. 6 is an image diagram of sharing a virtual space in the embodiment of the present invention. 本発明の実施形態における、ユーザを基準とした方向の説明図であるFIG. 5 is an explanatory diagram of directions based on a user in the embodiment of the present invention. 本発明の実施形態における、ユーザを基準とした方向の説明図であるFIG. 5 is an explanatory diagram of directions based on a user in the embodiment of the present invention. 本発明の実施形態における、ユーザ位置の識別表示の画面構成の一例を示す図であるIt is a figure which shows an example of the screen structure of the identification display of a user position in embodiment of this invention. 本発明の実施形態における、ユーザ位置の識別表示の画面構成の一例を示す図であるIt is a figure which shows an example of the screen structure of the identification display of a user position in embodiment of this invention. 本発明の実施形態における、ユーザ位置の識別表示の画面構成の一例を示す図であるIt is a figure which shows an example of the screen structure of the identification display of a user position in embodiment of this invention. 本発明の第2の実施形態における、距離判定処理の概要を示すフローチャートであるIt is a flow chart which shows an outline of distance judgment processing in a 2nd embodiment of the present invention. 本発明の第3の実施形態における、アバターの識別表示の概要を示すフローチャートであるIt is a flow chart which shows an outline of identification display of an avatar in a 3rd embodiment of the present invention. 本発明の実施形態における、アイコン表示領域とアイコンの配置位置についての説明図である。FIG. 6 is an explanatory diagram of an icon display area and an arrangement position of icons in the embodiment of the present invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態における、システム構成の一例を示す図である。 FIG. 1 is a diagram showing an example of a system configuration according to an embodiment of the present invention.

本発明のシステムは、サーバ200とクライアントPC100、ヘッドマウントディスプレイ101(以下、HMD101)で構成される。図1において、各種装置とHMD101はネットワーク150、151、152で接続されているものとしているが、サーバ200、クライアントPC100とHMD101とが互いに通信が行えれば良いので、有線、無線は問わない。 The system of the present invention includes a server 200, a client PC 100, and a head mounted display 101 (hereinafter, HMD 101). In FIG. 1, various devices and the HMD 101 are assumed to be connected by networks 150, 151, and 152, but wired or wireless communication is possible as long as the server 200, the client PC 100, and the HMD 101 can communicate with each other.

図1に示すように、本発明における各種装置はネットワークを介して通信可能に接続されている。例えばサーバ200、クライアントPC100(クライアントPC100A〜101Fの総称)と接続されている。また、クライアントPC100には、各クライアントPC100が管理するHMD101(HMD101A〜HMD101Fの総称)が通信可能に接続されている。 As shown in FIG. 1, various devices according to the present invention are communicatively connected via a network. For example, the server 200 and the client PC 100 (collective name of the client PCs 100A to 101F) are connected. Further, the client PC 100 is communicably connected to an HMD 101 (a generic name of HMD 101A to HMD 101F) managed by each client PC 100.

サーバ200には、HMD101により撮像される現実画像に重畳する3次元モデルが記憶されている。3次元モデルはサーバ200に接続された各クライアントPC100に配信され、クライアントPC100の外部メモリに記憶される。 The server 200 stores a three-dimensional model to be superimposed on a real image captured by the HMD 101. The three-dimensional model is distributed to each client PC 100 connected to the server 200 and stored in the external memory of the client PC 100.

クライアントPC100は自機の管理するHMD101より現実画像を取得して、当該現実画像に3次元モデルを重畳したMR画像(現実画像と仮想空間の画像とを重畳した複合現実画像)を生成し、HMD101のディスプレイに表示させるべく、当該MR画像をHMD101に送信する。HMD101は受信したMR画像をディスプレイに表示する。 The client PC 100 acquires a real image from the HMD 101 managed by the client PC 100, generates an MR image in which a three-dimensional model is superimposed on the real image (a mixed reality image in which a real image and a virtual space image are superimposed), and then the HMD 101. The MR image is transmitted to the HMD 101 so as to be displayed on the display. The HMD 101 displays the received MR image on the display.

また、図示の環境では、拠点1と拠点2との2つの拠点があり、それぞれの拠点でHMD101を装着したユーザ(体験者)が仮想空間を共有し、そこに配置される仮想オブジェクト(3Dモデル/CG)を共有しているものとする。ここでいう拠点とは、現実世界において別の場所にある現実空間のことをいう。例えば東京支店の部屋と大阪支店の部屋をそれぞれ拠点1、拠点2とする。 In the illustrated environment, there are two bases, a base 1 and a base 2, and users (experiencers) wearing the HMD 101 share a virtual space at each base, and virtual objects (3D model) arranged in the virtual space are arranged. /CG) is shared. The base here means a real space in another place in the real world. For example, the room of the Tokyo branch and the room of the Osaka branch are designated as base 1 and base 2, respectively.

本発明においては、例えばHMD101に表示する画像において、当該HMD101と他の拠点のHMD101、自拠点のHMD101の存在を識別して通知する制御を行う。以上が図1の説明である。 In the present invention, for example, in an image displayed on the HMD 101, control is performed to identify and notify the presence of the HMD 101, the HMD 101 of another base, and the HMD 101 of the own base. The above is the description of FIG. 1.

なお、それぞれの拠点の室内には複数のマーカが貼り付けられているものとする。当該マーカを用いてHMD101の位置姿勢を特定し、また、仮想オブジェクトを配置する位置姿勢を決定することができる。 It is assumed that a plurality of markers are attached inside the room of each base. The position and orientation of the HMD 101 can be specified by using the marker, and the position and orientation of arranging the virtual object can be determined.

マーカの形状は問わないが、実施形態では正方形であり、全て同じサイズであるものとする。各マーカにはユニークなマーカ番号が埋め込まれているものとする。そして、HMD101に設けられたカメラで撮像した際に、個々のマーカが識別でき、デコードした際に、そのマーカ番号が得られるものとする。マーカの種類(マーカが果たす役割の種類)は、HMD101の位置姿勢を決定するための位置検出用マーカ、並びに、そのマーカで規定される箇所に仮想オブジェクトを描画するものとして利用される仮想オブジェクト配置用マーカの2種類がある。そして、位置検出用マーカについては、HMD101の位置姿勢がどのような状態であっても、内蔵するカメラの視野内に最低でも3つが含まれるように、予め既知の位置に貼り付けられているものとする。 The shape of the marker does not matter, but in the embodiment, it is assumed that the marker has a square shape and has the same size. A unique marker number is embedded in each marker. Then, it is assumed that each marker can be identified when the image is picked up by a camera provided in the HMD 101, and the marker number can be obtained when the marker is decoded. The type of marker (the type of role played by the marker) is a position detection marker for determining the position and orientation of the HMD 101, and a virtual object arrangement used to draw a virtual object at a position defined by the marker. There are two types of markers. The position detecting markers are attached in advance to known positions such that at least three markers are included in the visual field of the built-in camera regardless of the position and orientation of the HMD 101. And

上記の構成におけるHMD101の位置姿勢を検出する原理は、撮像した画像中の3つの位置検出用マーカ(その位置は既知)それぞれのサイズから、HMD101からそれぞれまでの位置検出用マーカまでの距離を求める。そして、逆に、3つの位置検出用マーカから求めた3つの距離が重なる位置を、HMD101の位置として決定する。また、HMD101の姿勢は、撮像した画像中の3つの位置検出用マーカの配置から求めればよい。 The principle of detecting the position and orientation of the HMD 101 in the above configuration is to find the distance from the HMD 101 to each position detection marker from the size of each of the three position detection markers (the positions are known) in the captured image. .. Then, conversely, the position where the three distances obtained from the three position detection markers overlap is determined as the position of the HMD 101. Further, the attitude of the HMD 101 may be obtained from the arrangement of the three position detecting markers in the captured image.

なお、マーカの法線方向に視点があるとき、そのマーカ画像が正方形に見えることになる。そして、視点が法線方向からずれると、そのずれの度合いに応じて正方形が歪んで見える。つまり、この歪みから、視点の軸に対するマーカで規定される平面の向きが判明し、マーカのサイズから視点とマーカ間の距離を検出でき、マーカが貼り付けられた平面が規定できる。また、実施形態では、マーカには、互いに識別できる2つの印が設けられ、マーカの中心位置を原点とし、マーカで規定される上記の平面上の、原点からその印に向かう2つのベクトルを2軸、マーカの中心位置から法線方向の1軸で、局所的(ローカル)な3次元座標を規定する3軸を規定しているものとする。 When the viewpoint is in the normal direction of the marker, the marker image looks like a square. When the viewpoint deviates from the normal direction, the square appears distorted according to the degree of the deviation. That is, from this distortion, the orientation of the plane defined by the marker with respect to the axis of the viewpoint is known, the distance between the viewpoint and the marker can be detected from the size of the marker, and the plane to which the marker is attached can be defined. Further, in the embodiment, the marker is provided with two marks that can be distinguished from each other, and two vectors from the origin to the mark on the plane defined by the marker are defined as two points. It is assumed that one axis in the normal direction from the center position of the axis or the marker defines three axes that define local three-dimensional coordinates.

仮想オブジェクト配置用マーカとは、仮想オブジェクトを表示する位置を特定するために用いられるマーカである。サーバ200及びクライアントPC100のCPU201は、当該仮想オブジェクト配置用マーカが検出された際、当該仮想オブジェクト配置用マーカが存在する位置(正確には後述するように当該仮想オブジェクト配置用マーカの重心位置からオフセットを持つ位置)に仮想オブジェクトを表示するための処理を行う。例えば、3次元モデルを当該オフセットの示す仮想空間上の位置に配置する処理を行う。 The virtual object placement marker is a marker used to specify the position where the virtual object is displayed. When the virtual object placement marker is detected, the server 200 and the CPU 201 of the client PC 100 position the position where the virtual object placement marker exists (to be exact, offset from the barycentric position of the virtual object placement marker as described later). Processing for displaying the virtual object at the position (with). For example, the process of arranging the three-dimensional model at the position in the virtual space indicated by the offset is performed.

仮想オブジェクトとは、仮想空間上に配置された3次元モデル(3次元CADデータ、3Dモデル、CG等とも呼ぶ)のことである。尚、3次元モデルのデータはサーバ200及びクライアントPC100の外部メモリ上に、当該3次元モデルを仮想空間上のいずれの位置にどのような姿勢で配置するかを示す位置姿勢の情報と対応付けられて記憶されている。 A virtual object is a three-dimensional model (also called three-dimensional CAD data, 3D model, CG, etc.) arranged in a virtual space. It should be noted that the data of the three-dimensional model is associated with the position/orientation information indicating, in the external memory of the server 200 and the client PC 100, the position and orientation of the three-dimensional model at which position in the virtual space. Is remembered.

仮想オブジェクト配置用マーカの中心位置の座標を{Xv,Yv,Zv}とし、3次元モデルのデータ中の基準座標を{Xi,Yi,Zi}(ここで、i=0,1,2,・・・)と定義したとき、距離Lは次式で得られる。
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
The coordinates of the central position of the virtual object placement marker are {Xv, Yv, Zv}, and the reference coordinates in the data of the three-dimensional model are {Xi, Yi, Zi} (where i=0, 1, 2,. ..), the distance L is obtained by the following equation.
L={(Xv-Xi)2+(Yv-Yi)2+(Zv-Zi)2}1/2

ここで、iを変化させた際の最小の距離Lを、仮想オブジェクト配置用マーカと仮想オブジェクト配置用マーカの位置に応じて配置する3次元モデルとの距離とした。なお、上記では距離を計算する際に、最終的に平方根を求めたが、大小の判定で良いのであれば、平行根を求める必要な無く、座標の差分の二乗和を算出しても構わない。 Here, the minimum distance L when i is changed is the distance between the virtual object placement marker and the three-dimensional model placed according to the position of the virtual object placement marker. In the above, when the distance is calculated, the square root is finally obtained, but if it is possible to determine the magnitude, it is not necessary to obtain the parallel root, and the square sum of the difference between the coordinates may be calculated. ..

なお、上記式では、仮想オブジェクト配置用マーカの中心位置=仮想オブジェクトの中心位置とした場合である。先に説明したように、仮想オブジェクトの配置される位置は、仮想オブジェクト配置用マーカの中心位置に対し、「位置」で示されるオフセットが与えられる。 In the above equation, the center position of the virtual object placement marker=the center position of the virtual object. As described above, the position where the virtual object is arranged is given an offset indicated by “position” with respect to the center position of the virtual object arrangement marker.

なお、マーカに埋め込めるビット数にもよるが、位置検出用マーカと仮想オブジェクト配置用マーカを兼ねるマーカを定義しても構わない。 It should be noted that although depending on the number of bits that can be embedded in the marker, a marker that also serves as a position detection marker and a virtual object placement marker may be defined.

尚、上記実施形態は、本発明に係る例であると認識されたい。たとえば、HMD101の位置姿勢を検出するため、上記実施形態では位置検出用マーカが撮像した視野内に3つは存在するものとして、位置検出用マーカを部屋中に多数張り付けるものとしたが、これによって本発明が限定されるものではない。位置検出用マーカには向きを規定する印があり、位置検出用マーカの座標だけでなく、形状や寸法も既知であれば、撮像した画像の位置検出の歪み、サイズ、印の位置から、1つの位置検出用マーカからだけでもHMD101の位置姿勢を特定できる。また、位置検出用マーカを用いるのではなく、HMDそのものの位置姿勢を、光学式センサ、磁気センサ、超音波センサなどを利用して検出する公知技術を利用しても構わない。つまり、HMDの位置姿勢検出に係る手段は問わない。 It should be appreciated that the above embodiment is an example according to the present invention. For example, in order to detect the position and orientation of the HMD 101, in the above embodiment, it is assumed that there are three position detecting markers in the visual field imaged by the position detecting markers, and many position detecting markers are pasted in the room. However, the present invention is not limited thereto. The position detection marker has a mark that defines the direction. If not only the coordinates of the position detection marker but also the shape and dimensions are known, from the distortion of the position detection of the captured image, the size, and the position of the mark, 1 The position and orientation of the HMD 101 can be specified only from one position detection marker. Further, instead of using the position detection marker, a publicly known technique of detecting the position and orientation of the HMD itself by using an optical sensor, a magnetic sensor, an ultrasonic sensor, or the like may be used. That is, any means may be used for detecting the position and orientation of the HMD.

次に図2を参照して、本発明の実施形態における、各種装置のハードウェア構成について説明する。 Next, with reference to FIG. 2, hardware configurations of various devices in the embodiment of the present invention will be described.

本発明においては、クライアントPC100とサーバ200のハードウェア構成は同一であるものとする。また、HMD101と直接接続されるのはクライアントPC100であり、サーバ200はクライアントPC100と接続されているものとする。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
In the present invention, the hardware configurations of the client PC 100 and the server 200 are assumed to be the same. It is assumed that the client PC 100 is directly connected to the HMD 101, and the server 200 is connected to the client PC 100.
The CPU 201 centrally controls each device and controller connected to the system bus 204.

また、ROM202には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム(OS)、その他各種装置の実行する機能を実現するために必要な各種プログラムが記憶されている。 In addition, the ROM 202 stores various programs necessary for realizing the functions executed by various devices such as a BIOS (Basic Input/Output System) which is a control program of the CPU 201, an operating system (OS), and the like.

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。 The RAM 203 functions as a main memory, a work area, etc. of the CPU 201. The CPU 201 implements various operations by loading a program or the like required for executing the processing into the RAM 203 and executing the program.

本発明のクライアントPC100、サーバ200が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。
Various programs used by the client PC 100 and the server 200 of the present invention to execute various processes described later are recorded in the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. Is. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.
The input controller (input C) 205 controls input from a pointing device (input device 210) such as a keyboard and a mouse.

ビデオコントローラ(VC)206は、HMD101が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。 The video controller (VC) 206 controls display on a display device such as the right eye/left eye display 222 provided in the HMD 101. For example, an external output terminal (for example, Digital Visual Interface) is used to output to the right/left eye display 222. The right/left-eye display 222 is composed of a display for the right eye and a display for the left eye.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。 The memory controller (MC) 207 is an adapter for a hard disk (HD) or a flexible disk (FD) or a PCMCIA card slot that stores a boot program, browser software, various applications, font data, user files, edit files, various data, and the like. It controls access to the external memory 211 such as a card type memory connected via the.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。 A communication I/F controller (communication I/FC) 208 connects and communicates with an external device via a network, and executes communication control processing on the network. For example, internet communication using TCP/IP is possible. The communication I/F controller 208 also controls communication with the optical sensor 104 via Gigabit Ethernet (registered trademark) or the like.

汎用バス209は、HMD101の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。 The general-purpose bus 209 is used to capture an image from the right-eye/left-eye video camera 221 of the HMD 101. Input from the right-eye/left-eye video camera 221 is performed using an external input terminal (for example, an IEEE 1394 terminal). The right/left-eye video camera 221 includes a right-eye video camera and a left-eye video camera.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。以上が図2の説明である。 The CPU 201 enables display on the display by executing an outline font rasterization process in a display information area in the RAM 203, for example. Further, the CPU 201 enables a user instruction with a mouse cursor or the like (not shown) on the display. The above is the description of FIG.

次に図3を参照して、本発明の実施形態における、各種装置の機能構成の一例について説明する。 Next, with reference to FIG. 3, an example of a functional configuration of various devices in the embodiment of the present invention will be described.

HMD位置特定部301は、クライアントPC100に接続されたHMD101の位置姿勢を特定する。具体的には、HMD101が撮像した現実画像上のマーカを認識し上述した方法を用いることでHMD101の位置姿勢を特定する。 The HMD position specifying unit 301 specifies the position and orientation of the HMD 101 connected to the client PC 100. Specifically, the position and orientation of the HMD 101 are specified by recognizing the marker on the real image captured by the HMD 101 and using the method described above.

位置情報記憶部302は、HMD位置特定部301はで特定された位置姿勢の情報を外部メモリに記憶する記憶部である。位置情報送信部303は、HMD位置特定部301で特定されたHMD101の位置情報(X,Y,Z座標)をサーバ200に送信する処理部である。位置情報送信部は、位置情報と合わせて、当該位置情報の示す位置にあるHMD101の識別情報をサーバ200に送信する。 The position information storage unit 302 is a storage unit that stores the information of the position and orientation specified by the HMD position specifying unit 301 in an external memory. The position information transmitting unit 303 is a processing unit that transmits the position information (X, Y, Z coordinates) of the HMD 101 specified by the HMD position specifying unit 301 to the server 200. The position information transmission unit transmits, together with the position information, the identification information of the HMD 101 located at the position indicated by the position information to the server 200.

サーバ200は、クライアントPC100の位置情報送信部303で送信された位置情報を位置情報受信部313で受信して、同じく受信したHMD101の識別情報と対応付けて位置情報記憶部311に記憶する。位置情報送信部312は、当該位置情報記憶部311に記憶したHMD101の位置情報・HMD101の識別情報・HMD101が属する拠点情報を、当該HMD101に対応するクライアントPC100以外のクライアントPC100(つまり、他のHMD101に対応するクライアントPC100)に対して送信する。 The server 200 receives the position information transmitted by the position information transmitting unit 303 of the client PC 100 by the position information receiving unit 313 and stores the position information in the position information storage unit 311 in association with the received identification information of the HMD 101. The position information transmission unit 312 uses the position information of the HMD 101, the identification information of the HMD 101, and the base information to which the HMD 101 belongs stored in the position information storage unit 311 as a client PC 100 other than the client PC 100 corresponding to the HMD 101 (that is, another HMD 101). To the client PC 100) corresponding to.

クライアントPC100の位置情報受信部304は、当該他のクライアントPC100のHMD101の位置情報・識別情報・拠点情報を受信する受信部である。 The position information receiving unit 304 of the client PC 100 is a receiving unit that receives the position information/identification information/base information of the HMD 101 of the other client PC 100.

アイコン決定部305は、位置情報受信部304で受信した位置のHMD101が、自装置のHMD101と同じ拠点のHMDか、他の拠点のHMDか同じ拠点の他のHMDかに応じて、当該HMDの位置を示すアイコン(オブジェクト)の種類を決定する決定部である。ここでいうアイコンとは、HMD101の視界外に他のHMD(体験者)がいる場合に、当該他のHMDの位置をユーザに通知するための、当該他のHMDのX,Y,Z座標に対応する表示画面上の位置に表示するアイコンである。 The icon determination unit 305 determines whether the HMD 101 at the position received by the position information reception unit 304 is an HMD at the same base as the HMD 101 of the own device, an HMD at another base, or another HMD at the same base. The determination unit determines the type of icon (object) indicating the position. The icon here means the X, Y, Z coordinates of the other HMD for notifying the user of the position of the other HMD when the other HMD (experienced person) is outside the field of view of the HMD 101. It is an icon displayed at the corresponding position on the display screen.

アイコン表示制御部306は、位置情報受信部304で受信した位置に応じて、アイコン決定部305で決定した種類のアイコンを。表示画面の所定の領域(アイコン表示用の領域であるアイコン表示領域)に表示する制御を行う。 The icon display control unit 306 displays the type of icon determined by the icon determination unit 305 according to the position received by the position information reception unit 304. The display is controlled in a predetermined area (icon display area that is an icon display area) of the display screen.

仮想オブジェクト受信部307は、サーバ200の仮想ブジェクト記憶部314に記憶されている仮想オブジェクトであって、仮想オブジェクト送信部315から送信された仮想オブジェクトを受信する受信部である。 The virtual object reception unit 307 is a reception unit that receives the virtual object stored in the virtual object storage unit 314 of the server 200 and transmitted from the virtual object transmission unit 315.

仮想オブジェク記憶部308は、仮想オブジェクト受信部307で受信した仮想オブジェクトを記憶し、仮想オブジェクト表示制御部309は、仮想オブジェクトに対応する仮想オブジェクトの位置姿勢の情報に従って、HMD101から取得した現実画像上に、当該仮想オブジェクトを重畳したMR画像をHMD101に表示するよう制御する(例えば、当該MR画像を生成してHMD101に送信する)。以上が図3の説明である。 The virtual object storage unit 308 stores the virtual object received by the virtual object reception unit 307, and the virtual object display control unit 309 displays on the real image obtained from the HMD 101 according to the position and orientation information of the virtual object corresponding to the virtual object. Then, the MR image on which the virtual object is superimposed is controlled to be displayed on the HMD 101 (for example, the MR image is generated and transmitted to the HMD 101). The above is the description of FIG.

<第1の実施形態> <First Embodiment>

次に図4を参照して、本発明の実施形態における、HMDの位置姿勢情報の送受信の流れを示すフローチャートである Next, referring to FIG. 4, it is a flowchart showing a flow of transmission and reception of position and orientation information of the HMD in the embodiment of the present invention.

ステップS401では、クライアントPC100のCPU201は、HMD101の右目・左目ビデオカメラ221から取得した画像をクライアントPC100の汎用バス209経由で受信し、RAM203に保持する。 In step S401, the CPU 201 of the client PC 100 receives the image acquired from the right-eye/left-eye video camera 221 of the HMD 101 via the general-purpose bus 209 of the client PC 100 and holds it in the RAM 203.

ステップS402では、クライアントPC100のRAM203に取得した現実空間画像から二次元マーカ画像を取り出し(検出し)、HMD101の位置・姿勢を特定しRAM203に保存する(位置姿勢取得手段に該当)。ここでは、HMD101の識別情報(図6で後述するHMD ID)と、HMD101の位置・姿勢の情報(図6で後述する603及び604のX,Y,Zの値)を対応付けてRAM上に記憶するものとする。 In step S402, the two-dimensional marker image is extracted (detected) from the physical space image acquired in the RAM 203 of the client PC 100, the position/orientation of the HMD 101 is specified, and the HMD 101 is stored in the RAM 203 (corresponding to position/orientation acquisition means). Here, the identification information of the HMD 101 (HMD ID described later in FIG. 6) and the position/orientation information of the HMD 101 (X, Y, Z values of 603 and 604 described later in FIG. 6) are associated and stored in the RAM. It should be remembered.

ステップS403では、クライアントPC100のCPU201は、ステップS402で特定した位置・姿勢情報、当該位置・姿勢にあるHMD101(当該クライアントPC100に対応するHMD)の識別情報及び、拠点情報をサーバ200に通信により送信する。拠点情報とは、当該クライアントPC100の拠点の情報を示す識別情報であって、クライアントPC100に対応するHMD101の存在する現実空間の識別情報である(図6の602で後述)。 In step S403, the CPU 201 of the client PC 100 transmits the position/orientation information identified in step S402, the identification information of the HMD 101 (HMD corresponding to the client PC 100) in the position/orientation, and the base information to the server 200 by communication. To do. The base information is identification information indicating the base information of the client PC 100, and is the identification information of the physical space in which the HMD 101 corresponding to the client PC 100 exists (described later in 602 of FIG. 6).

ステップS404では、サーバ200のCPU201は、クライアントPC100から位置・姿勢情報、HMD101の識別情報、及び拠点情報を通信により受信する。ステップS405では、サーバ200のCPU201は、ステップS404で受信したHMDの識別情報、拠点情報、位置・姿勢情報を外部メモリに保存する。保存する形式は例えば図6のHMD情報600に示す。以上が図4の説明である。 In step S404, the CPU 201 of the server 200 receives the position/orientation information, the identification information of the HMD 101, and the site information from the client PC 100 by communication. In step S405, the CPU 201 of the server 200 saves the HMD identification information, base information, and position/orientation information received in step S404 in an external memory. The format to be stored is shown in the HMD information 600 of FIG. 6, for example. The above is the description of FIG.

ここで図6を参照して、本発明の実施形態における各種データの構成の一例について説明する。 Here, an example of the configuration of various data according to the embodiment of the present invention will be described with reference to FIG. 6.

HMD情報600は、クライアントPC100及びサーバ200の外部メモリに記憶される。HMD情報600は、HMD101を一意に示す識別情報であるHMDID601、HMD101の所属する拠点を一意に示す識別情報である拠点ID602(所属情報)、HMDの位置情報である位置603、HMDの姿勢情報である姿勢604を含む情報である(所属情報記憶手段に該当)。クライアントPC100は、自装置と対応するHMD101のHMDID601及びその位置603・姿勢604と、当該HMDの所属する拠点の拠点ID602を対応付けて外部メモリに記憶しているものとする。サーバ200は、サーバ200と接続される各クライアントPC100(例:図1のクライアントPC100A〜100F)に対応する各HMD101のHMDID601及びその位置603・姿勢604と、各HMDの所属する拠点の拠点ID602を各クライアントPC100から受信して、それぞれHMD ID601と対応付けてサーバ200の外部メモリに記憶しているものとする。 The HMD information 600 is stored in the external memory of the client PC 100 and the server 200. The HMD information 600 includes an HMD ID 601, which is identification information uniquely indicating the HMD 101, a base ID 602 (affiliation information) which is identification information uniquely indicating a base to which the HMD 101 belongs, a position 603 which is position information of the HMD, and attitude information of the HMD. It is information including a certain posture 604 (corresponding to belonging information storage means). It is assumed that the client PC 100 stores the HMD ID 601 and the position 603/posture 604 of the HMD 101 corresponding to its own device, and the base ID 602 of the base to which the HMD belongs in the external memory in association with each other. The server 200 provides the HMD ID 601 of each HMD 101 corresponding to each client PC 100 (example: client PCs 100A to 100F in FIG. 1) connected to the server 200, its position 603/posture 604, and the base ID 602 of the base to which each HMD belongs. It is assumed that it is received from each client PC 100 and is stored in the external memory of the server 200 in association with each HMD ID 601.

クライアントPC100は自装置以外のクライアントPC100に対応するHMD情報を、サーバ200から受信することで、外部メモリに記憶するものとする。 It is assumed that the client PC 100 stores the HMD information corresponding to the client PC 100 other than its own device in the external memory by receiving it from the server 200.

モデル情報610は、クライアントPC100及びサーバ200の外部メモリに記憶される。モデル情報610は、MR空間に配置する(現実空間に重ね合わせる仮想空間に配置する)3次元モデル(仮想オブジェクト)の識別情報であるモデルID611、モデルの実体データのファイル名であるモデル名612、3次元モデルを配置する位置姿勢を示す位置613、姿勢614、及び3次元モデルの保存場所を示す保存場所615を対応付けて記憶した情報である。 The model information 610 is stored in the external memory of the client PC 100 and the server 200. The model information 610 includes a model ID 611 that is identification information of a three-dimensional model (virtual object) that is placed in the MR space (placed in a virtual space that is superimposed on the real space), a model name 612 that is a file name of the actual data of the model, This is information in which a position 613 indicating the position and orientation in which the three-dimensional model is arranged, a posture 614, and a storage location 615 indicating the storage location of the three-dimensional model are stored in association with each other.

アイコン情報620は、クライアントPC100及びサーバ200の外部メモリに記憶される。アイコン情報620は、アイコンの識別情報であるアイコンID621と、アイコンの実体データのファイル名であるアイコン622を対応付けた情報である。本実施形態においては、例えば、当該アイコンを表示するHMD101と同じ拠点に所属する他のHMD101の位置を示す場合にはアイコンID=Ic111を用い、当該アイコンを表示するHMD101とは別の拠点に所属する他のHMD101の位置を示す場合にはアイコンID=Ic222を用いてそれぞれのHMD101の位置と当該アイコンを表示するHMD101との位置関係をユーザに通知するものとする。以上が図6の説明である。 The icon information 620 is stored in the external memory of the client PC 100 and the server 200. The icon information 620 is information in which the icon ID 621 that is the identification information of the icon and the icon 622 that is the file name of the actual data of the icon are associated with each other. In the present embodiment, for example, when indicating the position of another HMD 101 belonging to the same base as the HMD 101 displaying the icon, the icon ID=Ic111 is used, and the HMD 101 displaying the icon belongs to a different base. When indicating the position of another HMD 101 to be operated, the user is notified of the positional relationship between the position of each HMD 101 and the HMD 101 displaying the icon by using the icon ID=Ic222. The above is the description of FIG. 6.

次に図5を参照して、本発明の第1の実施形態における、ユーザ位置の識別表示処理の流れについて説明する。 Next, with reference to FIG. 5, a flow of the user position identification display process according to the first embodiment of the present invention will be described.

ステップS501では、サーバ200のCPU201はクライアントPC100との接続を確立すると、図6のモデル情報610と、モデル名612(ファイル名)の示す3次元モデルデータをクライアントPC100に送信する。ステップS502では、クライアントPC100のCPU201はサーバ200から3次元モデルデータ、モデル情報610を受信し、外部メモリの所定の保存場所に保存する。そして、モデル情報610の保存場所615に、当該3次元モデルデータを保存した場所(アドレス)を挿入して記憶する。 In step S501, when the CPU 201 of the server 200 establishes the connection with the client PC 100, the model information 610 of FIG. 6 and the three-dimensional model data indicated by the model name 612 (file name) are transmitted to the client PC 100. In step S502, the CPU 201 of the client PC 100 receives the three-dimensional model data and the model information 610 from the server 200 and saves the model information 610 in a predetermined storage location in the external memory. Then, the location (address) where the three-dimensional model data is stored is inserted and stored in the storage location 615 of the model information 610.

ステップS503では、クライアントPC100のCPU201は、自装置に対応するHMD101の右目・左目ビデオカメラ221から取得した現実画像に対して、外部メモリに保存した3次元モデルデータが視界に入る場合は当該3次元モデルデータを重畳したMR画像を生成する。 In step S503, the CPU 201 of the client PC 100, when the 3D model data stored in the external memory is within the field of view for the real image acquired from the right-eye/left-eye video camera 221 of the HMD 101 corresponding to the own device, An MR image on which model data is superimposed is generated.

ステップS504では、サーバ200のCPU201はクライアントPC100に対して、全てのクライアントPC100の拠点ID(クライアントPC100に対応するHMD101の所属する拠点のID)、HMD ID、HMDの位置・姿勢の情報をクライアントPC100に送信する。ステップS505では、クライアントPC100のCPU201はサーバ200から全てのクライアントPC100に対応する各HMD101のHMD ID、HMDの位置・姿勢の情報の位置・姿勢情報及び拠点情報を受信し、外部メモリに保存する(位置姿勢取得手段に該当)。 In step S504, the CPU 201 of the server 200 provides the client PC 100 with the site IDs of all the client PCs 100 (the IDs of the sites to which the HMD 101 corresponding to the client PC 100 belongs), the HMD ID, and the position/orientation of the HMD. Send to. In step S505, the CPU 201 of the client PC 100 receives the HMD ID of each HMD 101 corresponding to all the client PCs 100, the position/posture information of the position/posture information of the HMD, and the base information from the server 200, and stores them in the external memory ( Corresponds to position and orientation acquisition means).

そしてステップS506〜S512、又はS506・S507・S514〜S517の処理を、保存した全ての(自装置に対応するHMD以外の)HMD101に対して実行する。 Then, the processes of steps S506 to S512 or S506, S507, S514 to S517 are executed for all the saved HMDs 101 (other than the HMD corresponding to the own device).

ステップS506では、クライアントPC100のCPU201は、外部メモリに保存した他のHMD101のHMD情報600を1つ取得する。そして、ステップS507で、 当該取得した他のHMD101の位置603が、自装置に対応するHMD101(ここでは、例えばHMD101A)の視界(=視野、画角)に入っているか判定する。視界に入っている場合は処理をステップS514に、入らない場合は処理をステップS508に移行する。画角の情報は図6の630に示す通りである。本実施形態においては、HMD101の左目ビデオカメラの画角及び右目ビデオカメラの画角と、両カメラを合わせて撮像できる画角とは同じであるものとする。左目ビデオカメラの画角、右目ビデオカメラの画角、両カメラを合わせて撮像できる画角との関係は図8の800に示す。図8の800における基準点がHMD101の位置である。 In step S506, the CPU 201 of the client PC 100 acquires one piece of HMD information 600 of another HMD 101 stored in the external memory. Then, in step S507, it is determined whether the acquired position 603 of the other HMD 101 is within the field of view (=field of view, angle of view) of the HMD 101 (here, for example, HMD 101A) corresponding to the own device. If it is within the field of view, the process proceeds to step S514, and if not, the process proceeds to step S508. The information on the angle of view is as indicated by 630 in FIG. In the present embodiment, it is assumed that the angle of view of the left-eye video camera and the angle of view of the right-eye video camera of the HMD 101 are the same as the angle of view at which both cameras can capture images. The relationship between the angle of view of the left-eye video camera, the angle of view of the right-eye video camera, and the angle of view at which both cameras can be imaged is shown at 800 in FIG. The reference point at 800 in FIG. 8 is the position of the HMD 101.

ステップS508では、ステップS506で取得した他のHMD101の拠点ID602と、自装置に対応するHMD101Aの拠点ID602を外部メモリから取得する。そして、ステップS509では、取得した他のHMD101の拠点IDと自拠点の拠点IDが同一であるか(同一拠点か)判定する。別拠点の場合(拠点IDが異なる場合)は処理をステップS510に、同一拠点の場合は処理をステップS511に移行する。 In step S508, the base ID 602 of the other HMD 101 acquired in step S506 and the base ID 602 of the HMD 101A corresponding to the own device are acquired from the external memory. Then, in step S509, it is determined whether the acquired base ID of the other HMD 101 and the base ID of the own base are the same (are the same base). If it is a different base (if the base ID is different), the process proceeds to step S510, and if the same base, the process proceeds to step S511.

ステップS510では、クライアントPC100のCPU201は、外部メモリ211から別拠点用アイコン画像(図6でいうIc222.jpg)を取得する。 In step S510, the CPU 201 of the client PC 100 acquires the icon image for another site (Ic222.jpg in FIG. 6) from the external memory 211.

ステップS511では、クライアントPC100のCPU201は、外部メモリ211から同一拠点用アイコン画像(図6でいうIc111.jpg)を取得する。 In step S511, the CPU 201 of the client PC 100 acquires the icon image for the same site (Ic111.jpg in FIG. 6) from the external memory 211.

ステップS512では、クライアントPC100のCPU201は、HMD101の右目・左目ビデオカメラ221から取得した現実画像に、ステップS506で取得した他のHMD101の位置・姿勢情報に基づいて、当該HMD101の拠点IDに応じてステップS510又はステップS511で取得したアイコンを重畳した画像を生成する。そして、全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了している場合には、ステップS512及び/又はステップS518で生成した重畳画像を、HMD101の右目・左目ディスプレイ222に表示すべくHMD101に出力する(ステップS519)。全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了していない場合は処理をステップS508に戻し、他のHMD101のうち未取得のHMD101を取得する。 In step S512, the CPU 201 of the client PC 100 determines the actual image acquired from the right-eye/left-eye video camera 221 of the HMD 101, based on the position/orientation information of the other HMD 101 acquired in step S506, according to the base ID of the HMD 101. An image in which the icon acquired in step S510 or step S511 is superimposed is generated. Then, when the processes of steps S506 to S512 or S506, S507, S514 to S517 have been completed for all other HMDs 101, the superimposed image generated in step S512 and/or step S518 is used for the right eye of the HMD 101. -Output to the HMD 101 for display on the left-eye display 222 (step S519). When the processes of steps S506 to S512 or S506, S507, S514 to S517 have not been completed for all the other HMDs 101, the process is returned to step S508, and the unacquired HMD 101 of the other HMDs 101 is acquired.

ここで図7〜図10を用いて、アイコンの配置及びHMDにとっての前方や後方等の方向について説明する。 Here, with reference to FIGS. 7 to 10, the arrangement of the icons and the directions such as front and rear of the HMD will be described.

ユーザA(HMD101Aの装着者)と他のユーザ(他のHMD101)との位置関係を図7、図8の810に示す。視界=前方(前方向)である。ユーザAにとって、ユーザEは視野内(前方(前方向))にいえるユーザである。ユーザBは視野外の左方(左方向)にいるユーザである。ユーザCは視野外の後方(後方向)にいるユーザである。ユーザDは視野外の右方(右方向)にいるユーザである。尚、複合機は3次元モデル(仮想オブジェクト)であり、図6の610及び引用文献に記載されている技術を用いて仮想空間上に配置、現実画像上に重畳されるものとする。 The positional relationship between the user A (wearer of the HMD 101A) and another user (other HMD 101) is shown in 810 of FIGS. 7 and 8. The field of view is forward (forward). For user A, user E is a user who can say in the field of view (forward (forward)). User B is a user on the left side (left direction) outside the field of view. User C is a user behind (backward) outside the field of view. User D is a user on the right side (outward direction) outside the field of view. It is assumed that the multi-function peripheral is a three-dimensional model (virtual object), which is placed in a virtual space and superposed on a real image using the technique described in 610 of FIG. 6 and the cited document.

本実施形態の説明においては、図7の700、710に示す通り、ユーザAと同じ拠点1(東京支店にある現実の部屋)にはユーザBとユーザE(HMD101Bを装着したユーザBと、HMD101Eを装着したユーザE)が存在し、ユーザAと異なる拠点2(大阪支店にある現実の部屋)にはユーザCとユーザD(HMD101Cを装着したユーザCと、HMD101Dを装着したユーザD)が存在しているものとする。そして、仮想空間を共有して、各ユーザの位置にアバター(各ユーザの位置姿勢を示す3次元モデル)を表示することで、図7の720のように別拠点のユーザがあたかも同じ空間に存在するように見せる。 In the description of the present embodiment, as shown by 700 and 710 in FIG. 7, the user B and the user E (the user B wearing the HMD 101B and the HMD 101E) are in the same base 1 (the actual room at the Tokyo branch) as the user A. There is a user E) who wears a user C, and a user C and a user D (a user C who wears the HMD 101C and a user D who wears the HMD 101D) exist in a base 2 (an actual room in the Osaka branch) different from the user A. It is assumed that Then, by sharing the virtual space and displaying an avatar (a three-dimensional model showing the position and orientation of each user) at each user's position, it is as if a user at another site were in the same space as in 720 of FIG. Show them to do.

クライアントPC100のCPU201は、例えばHMD101のカメラで撮像した現実画像1000(図10)に対して、図10の1010のように、他のHMD101の位置、及び他のHMD101の拠点に応じたアイコンを配置(重畳)した画面(画像)を生成する。アイコンの配置位置の決定は、例えば公知の技術(例:特開平8−229238号公報)に記載の技術を用いて行うものとする。尚、当該アイコンの配置・表示は、現実画像上の(MR画像上の)所定の領域1011内において行う。 The CPU 201 of the client PC 100 arranges icons corresponding to the positions of other HMDs 101 and the bases of other HMDs 101, as in 1010 of FIG. 10, with respect to the real image 1000 (FIG. 10) captured by the camera of the HMD 101, for example. Generate (superimposed) screen (image). The placement position of the icon is determined by using, for example, a technique described in a known technique (eg, Japanese Patent Laid-Open No. 8-229238). The placement and display of the icon is performed within a predetermined area 1011 on the real image (on the MR image).

つまり、HMD101Aから見た他のHMD101の位置を特定し、当該位置に応じた前記所定領域1011上の位置を決定し、当該決定した画像上の位置に当該他のHMD101の拠点に応じたアイコンを配置する。 That is, the position of the other HMD 101 viewed from the HMD 101A is specified, the position on the predetermined area 1011 corresponding to the position is determined, and the icon corresponding to the base of the other HMD 101 is added to the determined position on the image. Deploy.

図5の説明に戻る。ステップS507において、他のHMD101の位置603が自装置に対応するHMD101の視界(=視野、画角)に入っていると判定された場合、ステップS514で、外部メモリに保持している他のHMD101の拠点ID602を取得する。 Returning to the explanation of FIG. When it is determined in step S507 that the position 603 of the other HMD 101 is within the field of view (=field of view, angle of view) of the HMD 101 corresponding to the own device, the other HMD 101 stored in the external memory is determined in step S514. The base ID 602 of is acquired.

そしてステップS515で、他のHMD101の拠点IDと自拠点が同一拠点であるか判定する。別拠点の場合は処理をステップS516に、同一拠点の場合は処理をステップS518の前に移行する。 Then, in step S515, it is determined whether the base ID of another HMD 101 and the own base are the same base. If it is a different site, the process proceeds to step S516, and if it is the same site, the process proceeds to step S518.

ステップS516では、クライアントPC100のCPU201は、外部メモリ211からアバター画像(3次元モデル)を取得する。そして、ステップS517で、HMD101の右目・左目ビデオカメラ221から取得した現実画像に、ステップS506で取得した他のHMD101の位置・姿勢情報に基づいて、当該他のHMD101の位置・姿勢のアバター画像を重畳したMR画像を生成する。そして、全ての他のHMD101に対するステップS506〜S512、又はS506・S507・S514〜S517の処理が完了している場合には、ステップS512及び/又はステップS518で生成した重畳画像を、HMD101の右目・左目ディスプレイ222に表示すべくHMD101に出力する(ステップS519)。全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了していない場合は処理をステップS508に戻し、他のHMD101のうち未取得のHMD101を取得する。 In step S516, the CPU 201 of the client PC 100 acquires the avatar image (three-dimensional model) from the external memory 211. Then, in step S517, the avatar image of the position/orientation of the other HMD 101 is added to the real image acquired from the right-eye/left-eye video camera 221 of the HMD 101 based on the position/orientation information of the other HMD 101 acquired in step S506. A superposed MR image is generated. Then, when the processes of steps S506 to S512 or S506, S507, S514 to S517 for all other HMDs 101 are completed, the superimposed image generated in step S512 and/or step S518 is used for the right eye of the HMD 101. It is output to the HMD 101 to be displayed on the left-eye display 222 (step S519). When the processes of steps S506 to S512 or S506, S507, S514 to S517 have not been completed for all the other HMDs 101, the process is returned to step S508, and the unacquired HMD 101 of the other HMDs 101 is acquired.

尚、アバター画像(3次元モデル/仮想オブジェクト)はサーバ200の所定の保存場所に記憶されており、ステップS501でクライアントPC100に配布され、クライアントPC100が自身の外部メモリに記憶する。また、アバター画像の仮想空間上の位置姿勢はHMD101の現実空間上の位置姿勢に応じて、クライアントPC100が変更する。具体的には、図6のアバター情報640をクライアントPC100が外部メモリ上に生成する。アバター情報640は、アバターのID641、アバター画像のファイル名であるアバター名642、アバター画像の保存場所645に対応付けて、当該アバターに対応するHMD101の位置643、姿勢644の情報を随時書きこみ、更新するテーブルである。クライアントPC100のCPU201は、サーバ200から他のHMD101の位置姿勢の情報を継続して受信し、当該受信した各HMD101の位置姿勢の情報を各HMD101に対応するアバター情報640の位置643、姿勢644に上書きする。アバター画像は当該位置643、姿勢644に基づいて仮想空間上に配置する。以上が図5の説明である。 The avatar image (three-dimensional model/virtual object) is stored in a predetermined storage location of the server 200, is distributed to the client PC 100 in step S501, and the client PC 100 stores it in its own external memory. Further, the position/orientation of the avatar image in the virtual space is changed by the client PC 100 according to the position/orientation of the HMD 101 in the real space. Specifically, the client PC 100 generates the avatar information 640 of FIG. 6 on the external memory. The avatar information 640 is associated with the ID 641 of the avatar, the avatar name 642 that is the file name of the avatar image, and the storage location 645 of the avatar image, and writes the information of the position 643 and the attitude 644 of the HMD 101 corresponding to the avatar at any time, This is the table to be updated. The CPU 201 of the client PC 100 continuously receives the position and orientation information of the other HMDs 101 from the server 200, and sets the received position and orientation information of each HMD 101 in the position 643 and the posture 644 of the avatar information 640 corresponding to each HMD 101. Overwrite. The avatar image is arranged in the virtual space based on the position 643 and the posture 644. The above is the description of FIG.

以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 As described above, according to the present invention, it is possible to provide a mechanism for properly displaying the positions of other users in a wearable display device.

例えば、同じ拠点のユーザと別拠点のユーザとを識別可能に表示することができる。 For example, a user at the same base and a user at another base can be displayed in a distinguishable manner.

<第2の実施形態> <Second Embodiment>

第2の実施形態について説明する。本発明の第2の実施形態においては、HMD101と所定距離内の他のHMDについてアイコン表示をする。これは、自HMDから所定距離内にいる他のHMDのユーザとはぶつかってしまう可能性が高いために、実際に当該他のHMDのユーザとぶつかってしまうか否かをHMDを装着中のユーザに認識させる必要があるが、自HMDから所定距離離れている他のHMDのユーザとはぶつかってしまう可能性が低いためである。 The second embodiment will be described. In the second embodiment of the present invention, icons are displayed for other HMDs within a predetermined distance from the HMD 101. This is because there is a high possibility that it will collide with other HMD users who are within a predetermined distance from their own HMD, so whether or not they actually collide with other HMD users is the user wearing the HMD. This is because there is a low possibility that it will collide with users of other HMDs that are a predetermined distance away from their own HMD.

以下、図13を参照して、本発明の第2の実施形態における、距離判定処理の詳細について説明する。第2の実施形態については、第1の実施形態と異なる処理/追加される処理について説明し、第1の実施形態と共通する処理については説明を省略する。 Hereinafter, with reference to FIG. 13, details of the distance determination processing in the second embodiment of the present invention will be described. Regarding the second embodiment, processing different from/added to the first embodiment will be described, and description of processing common to the first embodiment will be omitted.

各種装置のCPU201は、第1の実施形態で説明したように図4の処理、及び図5のステップS507までの処理を実行する。 The CPU 201 of each device executes the processing of FIG. 4 and the processing up to step S507 of FIG. 5 as described in the first embodiment.

クライアントPC100のCPU201は、図5のステップS507で、他のHMD101の位置が視界に入らないと判定された場合に、処理をステップS1301に移行する。ステップS1301で、クライアントPC100のCPU201は、当該視界の外にあると判定された他のHMD101の位置情報と、自装置に対応するHMD101Aの位置情報を参照して、当該2つの位置情報が示すそれぞれの位置間の距離を測定し、HMD101Aから所定距離内に当該他のHMD101があるか判定する。当該所定距離の値は事前にクライアントPC100及びサーバ200に記憶されているものとする。 If the CPU 201 of the client PC 100 determines in step S507 of FIG. 5 that the position of another HMD 101 is not within the field of view, the process proceeds to step S1301. In step S1301, the CPU 201 of the client PC 100 refers to the position information of the other HMD 101 that is determined to be out of the field of view and the position information of the HMD 101A corresponding to the own device, and each of the two position information indicates. The distance between the positions is measured to determine whether the other HMD 101 is within a predetermined distance from the HMD 101A. It is assumed that the value of the predetermined distance is stored in the client PC 100 and the server 200 in advance.

所定距離内にあると判定された場合は処理をステップS508に移行し、所定距離内にないと判定された場合は処理をステップS518に移行する。 If it is determined that the distance is within the predetermined distance, the process proceeds to step S508, and if it is determined that the distance is not within the predetermined distance, the process proceeds to step S518.

つまり、HMD101Aから所定距離内にある他のHMD101のアイコンのみ、図10の1010に示すように画面上に配置する処理を行う。以上が図13の説明である。 That is, only the icons of other HMDs 101 within a predetermined distance from the HMD 101A are placed on the screen as indicated by 1010 in FIG. The above is the description of FIG. 13.

第2の実施形態によれば、装着型の表示装置において、ぶつかってしまう可能性が高い他のユーザの位置を適切に表示する仕組みを提供することができる。 According to the second embodiment, it is possible to provide a mechanism for appropriately displaying the position of another user who is likely to collide with the wearable display device.

<第3の実施形態> <Third Embodiment>

第3の実施形態について説明する。本発明の第3の実施形態においては、HMD101の拠点に応じたアバター画像を表示する。 A third embodiment will be described. In the third embodiment of the present invention, an avatar image corresponding to the location of the HMD 101 is displayed.

例えば、ユーザの周囲にアバターの画像を重畳して、ユーザがアバターになりきるシチュエーションが考えられる。ユーザを包むようアバターを配置・表示する場合、当該アバターの中に現実にユーザがいなければぶつかってしまう心配はないが、当該アバターの中に現実にユーザがいる場合は体同士がぶつかってしまう可能性がある。 For example, a situation is conceivable in which an image of an avatar is superimposed around the user and the user becomes an avatar. When arranging and displaying the avatar so as to wrap the user, there is no risk of collision if the user does not actually exist in the avatar, but if the user actually exists in the avatar, the bodies may collide. There is a nature.

よって、第3の実施形態においては、HMD101の拠点に応じてアバター画像を切り換えて表示する。 Therefore, in the third embodiment, the avatar images are switched and displayed according to the location of the HMD 101.

以下、図14を参照して、本発明の第3の実施形態における、拠点に応じたアバターの識別表示処理の詳細について説明する。第3の実施形態については、第1・第2の実施形態と異なる処理/追加される処理について説明し、第1・第2の実施形態と共通する処理については説明を省略する。 Hereinafter, with reference to FIG. 14, details of the avatar identification display processing according to the base in the third embodiment of the present invention will be described. Regarding the third embodiment, processing different from/added to the first and second embodiments will be described, and description of processing common to the first and second embodiments will be omitted.

各種装置のCPU201は、第1の実施形態で説明したように図4の処理、及び図5のステップS515までの処理を実行する。 The CPU 201 of each device executes the processing of FIG. 4 and the processing up to step S515 of FIG. 5 as described in the first embodiment.

クライアントPC100のCPU201は、図5のステップS515で、他のHMD101の拠点IDと自拠点が同一拠点である(視界内のユーザは同じ拠点のユーザである)と判定された場合に、自拠点用のアバター画像を取得し(ステップS1401)、当該他のHMD101の位置・姿勢に応じた仮想空間の位置に当該自拠点用のアバター画像を配置して、現実画像に重畳したMR画像を生成する(ステップS1403)。 When the CPU 201 of the client PC 100 determines in step S515 of FIG. 5 that the base ID of the other HMD 101 is the same base (the user in the field of view is the user of the same base), the own base (Step S1401), the avatar image for its own site is placed at a position in the virtual space corresponding to the position/orientation of the other HMD 101, and an MR image superimposed on the real image is generated ( Step S1403).

一方、他のHMD101の拠点IDと自拠点が別拠点である(視界内のユーザは別の拠点のユーザである)と判定された場合に、他拠点用のアバター画像を取得し(ステップS1402)、当該他のHMD101の位置・姿勢に応じた仮想空間の位置に当該他拠点用のアバター画像を配置して、現実画像に重畳したMR画像を生成する(ステップS1403)。そして処理をステップS518に移行する。以上が図14の説明である。 On the other hand, when it is determined that the site ID of the other HMD 101 and its own site are different sites (the user in the field of view is a user of another site), an avatar image for the other site is acquired (step S1402). , An avatar image for the other base is placed at a position in the virtual space according to the position/orientation of the other HMD 101, and an MR image superimposed on the real image is generated (step S1403). Then, the process proceeds to step S518. The above is the description of FIG. 14.

第3の実施形態によれば、装着型の表示装置において、視界内のユーザの位置及び当該ユーザがいずれの拠点のユーザかを適切に表示することができる。 According to the third embodiment, the wearable display device can appropriately display the position of the user in the field of view and the location of the user.

以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 As described above, according to the present invention, it is possible to provide a mechanism for properly displaying the positions of other users in a wearable display device.

尚、上述した第1の実施形態、第2の実施形態、第3の実施形態は自由に組み合わせることが可能である。 The first embodiment, the second embodiment, and the third embodiment described above can be freely combined.

また、上述した実施形態においては、特開平8−229238号公報に記載の技術を用いてアイコンの配置位置を決めるものとしたが、例えば図15に示すような方法を用いてもよい。 Further, in the above-described embodiment, the arrangement position of the icon is determined by using the technique described in Japanese Patent Laid-Open No. 8-229238, but a method as shown in FIG. 15 may be used.

具体的には、クライアントPC100におCPU201が、図15の1500に示すように、全てのHMD101の位置を内包する立方体1501を、自装置に対応するHMD101(例えばHMD101A)を中心に配置する。そして、HMD101Aから他のHMD101の位置へ向けた直線を特定して、前記立方体の面と当該直線が交差する位置の座標を特定する(例:図15の1511のY座標とZ座標)。そして、当該面を図15の1520に示すようにそれぞれに対応するアイコンの表示領域に割り当て、表示領域の大きさ・形に合わせて、当該面を変形する。その後、点1511のZ座標を、当該表示領域のZ軸方向の中間点に設定して(図15の1520に示す)、当該Y座標及び設定したZ座標をアイコンの表示位置に決定する。 Specifically, in the client PC 100, the CPU 201 arranges the cube 1501 including all the positions of the HMDs 101 around the HMD 101 (for example, the HMD 101A) corresponding to the own device, as shown by 1500 in FIG. Then, a straight line from the HMD 101A to the position of another HMD 101 is specified, and the coordinates of the position where the surface of the cube intersects the straight line are specified (example: Y coordinate and Z coordinate of 1511 in FIG. 15). Then, as shown by 1520 in FIG. 15, the surface is assigned to the display area of the corresponding icon, and the surface is deformed according to the size and shape of the display area. After that, the Z coordinate of the point 1511 is set to the intermediate point in the Z axis direction of the display area (shown at 1520 in FIG. 15), and the Y coordinate and the set Z coordinate are determined as the display position of the icon.

どの方向の面をどのアイコン表示領域に割り当てるかは予め決められているものとする。HMDと各方向の面との関係は図9の900〜906に示す。900は画角(視野(前方))を示す。901は前方、902は後方、903は左方、904は右方、905は上方、906は下方を示す。 It is assumed that the direction of the surface to be assigned to which icon display area is predetermined. The relationship between the HMD and the surface in each direction is shown in 900 to 906 in FIG. Reference numeral 900 indicates an angle of view (field of view (front)). 901 indicates the front, 902 indicates the rear, 903 indicates the left, 904 indicates the right, 905 indicates the upper side, and 906 indicates the lower side.

また、上述した実施形態においては、ステップS512で図10の1010のような画像を生成するものとしたが、例えば同ステップで、図11、図12に示すような画像を生成するようにしてもよい。 Further, in the above-described embodiment, an image such as 1010 in FIG. 10 is generated in step S512, but, for example, in the same step, an image as shown in FIGS. 11 and 12 may be generated. Good.

図11の1100によれば、前後上下左右の方向をより細分化したアイコン表示領域を画像の表示領域の外側に設け、当該アイコン表示領域にアイコンを配置して表示する。(ステップS512でアイコン表示領域を画像の表示領域の外側に設けた画像を生成する) According to 1100 in FIG. 11, an icon display area in which the front, rear, upper, lower, left, and right directions are further subdivided is provided outside the image display area, and icons are arranged and displayed in the icon display area. (In step S512, an image in which the icon display area is provided outside the image display area is generated)

図11の1110によれば、例えば他のユーザがいると判定された方向のアイコン表示領域を含み、他のユーザがいない方向のアイコン表示領域は含まない画像1110を生成してHMD101に表示する(ステップS512で、アイコンを表示しないアイコン表示領域を見せない画像を生成する)。 According to 1110 of FIG. 11, for example, an image 1110 that includes the icon display area in the direction in which it is determined that there is another user and does not include the icon display area in the direction in which no other user exists is generated and displayed on the HMD 101 ( In step S512, an image that does not show the icon display area in which no icon is displayed is generated).

図12の1200によれば、前後上下左右の方向をより細分化したアイコン表示領域を画像の表示領域の内側に設け、当該アイコン表示領域にアイコンを配置して表示する。(ステップS512でアイコン表示領域を画像の表示領域の内側に設けた画像を生成する) According to 1200 of FIG. 12, an icon display area in which the front, rear, upper, lower, left, and right directions are subdivided is provided inside the image display area, and icons are arranged and displayed in the icon display area. (In step S512, an image in which the icon display area is provided inside the image display area is generated)

図12の1210によれば、各アイコンに各アイコンの示すHMD101の拠点の識別情報をクライアントPC100が付帯して配置いている。また、アイコンそのものに、当該アイコンが示すHMD101を装着中のユーザ名を埋め込んでいる。どのHMDにどのユーザが対応するか(装着するか)は予めクライアントPC100、サーバ200に記憶されているものとする。 According to 1210 of FIG. 12, the client PC 100 additionally arranges the identification information of the base of the HMD 101 indicated by each icon to each icon. Further, the name of the user who is wearing the HMD 101 indicated by the icon is embedded in the icon itself. It is assumed that which HMD is associated with which user (is attached) is stored in advance in the client PC 100 and the server 200.

図11の1100、1110、図12の1200の表示をするためには、例えば、クライアントPC100のCPU201が、自装置のHMD(例:HMD101A)を中心とした大きさの異なる立方体を2つ生成し(例えば図11の1120の領域Aと領域B)、HMD101Aの位置(基準点)に配置する。より狭い領域を示す立方体Aの面を、1120に示すように細分化する。そして、図11の1130に示すように、より大きい立方体が示す領域Bに他のHMD(例:HMD101D)が存在する場合には、HMD101Aから当該HMD101Dの位置に向けた直線を特定し、当該直線と領域Aを示す立方体の面との交点である点1131の座標(Y,Z座標)、及び当該交点の属する面上の領域(例:右上前方)を特定する。その後、当該面を当該面に対応するアイコン表示領域の形に合わせて変形し、当該変形した面上(アイコン表示領域上)の点1131を、HMD101Dに対応するアイコンの表示位置として決定する。面に対応するアイコン表示領域の対応関係は、例えば、図11の1100と1120に記載の通りであり、当該対応関係の情報は予めクライアントPC100、サーバ200の外部メモリに記憶されているものとする。 In order to display 1100 and 1110 in FIG. 11 and 1200 in FIG. 12, for example, the CPU 201 of the client PC 100 generates two cubes having different sizes centering on the HMD (eg, HMD 101A) of its own device. (For example, the area A and the area B of 1120 in FIG. 11) are arranged at the position (reference point) of the HMD 101A. The surface of the cube A showing a narrower area is subdivided as indicated by 1120. Then, as shown in 1130 of FIG. 11, when another HMD (example: HMD101D) exists in the region B indicated by the larger cube, the straight line from the HMD101A to the position of the HMD101D is specified, and the straight line is determined. And the coordinates (Y, Z coordinates) of the point 1131 that is the intersection of the surface of the cube indicating the area A and the area (eg, front upper right) on the surface to which the intersection belongs. Then, the surface is deformed according to the shape of the icon display area corresponding to the surface, and the point 1131 on the deformed surface (on the icon display area) is determined as the display position of the icon corresponding to the HMD 101D. The correspondence relationship between the icon display areas corresponding to the surfaces is, for example, as described in 1100 and 1120 of FIG. 11, and the information about the correspondence relationship is stored in advance in the external memory of the client PC 100 and the server 200. ..

また、より小さい立方体が示す領域Aに他のHMD(例:HMD101C)が存在する場合には、当該HMD101CのZ軸方向の座標の値がHMD101Aより大きいか小さいか(つまり、HMD101CがHMD101Aより高い位置にあるか低い位置にあるか)判定する。以降、図11の1130を参照して、HMD101CがHMD101Aより低い位置にある例について説明する。HMD101CがHMD101Aより低い位置にある場合、クライアントPC100のCPU201は、当該HMD101Cの位置から下方垂直に伸ばした直線と立方体Bの面との交点である点1132のX,Y座標を特定して、当該点1132の属する面上の領域(例:後方左下)を特定する。その後、当該面を当該面に対応するアイコン表示領域の形に合わせて変形し、当該変形した面上(アイコン表示領域上)の点1132を、HMD101Dに対応するアイコンの表示位置として決定する。以上の処理により、図11の1100、1110、図12の1200に示すアイコンの表示位置の決定・アイコンの表示が可能となる。 When another HMD (eg, HMD101C) exists in the area A indicated by the smaller cube, whether the value of the coordinate of the HMD101C in the Z-axis direction is larger or smaller than HMD101A (that is, HMD101C is higher than HMD101A). Position or lower position). Hereinafter, an example in which the HMD 101C is located lower than the HMD 101A will be described with reference to 1130 in FIG. When the HMD 101C is lower than the HMD 101A, the CPU 201 of the client PC 100 specifies the X and Y coordinates of the point 1132, which is the intersection of the straight line extending vertically downward from the position of the HMD 101C and the surface of the cube B, and The area on the surface to which the point 1132 belongs (for example, lower left rear) is specified. Then, the surface is deformed according to the shape of the icon display area corresponding to the surface, and the point 1132 on the deformed surface (on the icon display area) is determined as the display position of the icon corresponding to the HMD 101D. With the above processing, it is possible to determine the display position of the icon shown in 1100 and 1110 in FIG. 11 and 1200 in FIG. 12 and display the icon.

また、本発明の実施形態においては、図6に示す拠点ID602をクライアントPC100で記憶しているものとしたが、例えば当該拠点ID602と各クライアントPC100の識別情報又はHMD ID601との対応関係の情報をサーバ200で記憶・管理することで、クライアントPC100は自装置の識別情報又は自装置に対応するHMD ID601をHMDの位置姿勢の情報と合わせて送信するだけで、サーバ200側で当該HMDの属する拠点を特定するようにしてもよい。また、当該特定したHMD101の拠点の情報に基づいて、例えばHMD101Aに対応するクライアントPC100に対して、各HMDの位置姿勢の情報と合わせて、HMD101Bのアイコンは自拠点用のアイコンを用いて表示するよう指示し、HMD101C・HMD101Dのアイコンは他拠点用のアイコンを用いて表示するよう指示し、当該指示をクライアントPC100が受け付けて絵、当該指示に従って拠点に応じたアイコン表示の処理を行うようにしてもよい。アバター画像についても同様の処理を行ってもよい。 Further, in the embodiment of the present invention, the base ID 602 shown in FIG. 6 is stored in the client PC 100. However, for example, information on the correspondence relationship between the base ID 602 and the identification information of each client PC 100 or the HMD ID 601 is displayed. By storing and managing in the server 200, the client PC 100 only transmits the identification information of the own device or the HMD ID 601 corresponding to the own device together with the information of the position and orientation of the HMD, and the server 200 side belongs to the base to which the HMD belongs. May be specified. Further, based on the information on the specified base of the HMD 101, for example, to the client PC 100 corresponding to the HMD 101A, together with the information on the position and orientation of each HMD, the icon of the HMD 101B is displayed using the icon for its own base. The HMD 101C/HMD 101D icon is instructed to be displayed using the icon for the other site, and the client PC 100 accepts the command and performs the icon display processing according to the site in accordance with the picture. Good. Similar processing may be performed on the avatar image.

具体的には、図5のステップS501〜S509までの処理をサーバ200が実行し、S509の判定結果に応じてクライアントPC100にアイコンの取得・重畳の指示をして、クライアントPC100は当該指示に従ってアイコンを取得・重畳する(ステップS510〜S512)。また、図5のステップS501〜S507、S514、S515までの処理をサーバ200が実行し、S515で別拠点と判定した場合にサーバ200がクライアントPC100にアバター画像を取得して表示するよう指示し、クライアントPC100は当該指示に従ってアバター画像を取得・重畳する(ステップS516、S517、S1401〜S1403)。 Specifically, the server 200 executes the processing of steps S501 to S509 of FIG. 5, instructs the client PC 100 to acquire/superimpose an icon according to the determination result of S509, and the client PC 100 follows the instruction to execute the icon. Is acquired and superimposed (steps S510 to S512). In addition, the server 200 executes the processing of steps S501 to S507, S514, and S515 of FIG. 5, and when it is determined in S515 that the site is another site, the server 200 instructs the client PC 100 to acquire and display the avatar image, The client PC 100 acquires and superimposes the avatar image according to the instruction (steps S516, S517, S1401 to S1403).

また、図13に示す判定処理をサーバ200のCPU201が実行するようにしてもよい。 Further, the determination process shown in FIG. 13 may be executed by the CPU 201 of the server 200.

また、本発明の実施形態においては、現実画像と合わせてアイコンを表示する画像を生成するものとしたが、例えば図11の1100や1110に示すアイコン表示領域の表示用ディスプレイと、現実画像又はMR画像の表示領域とが別々に設けられている場合、ステップS512において、現実画像又はMR画像の表示領域に表示する画像とは別にアイコン表示領域に表示するアイコンを含む画像を生成して、HMDに出力するようにしてもよい。 Further, in the embodiment of the present invention, the image for displaying the icon is generated together with the real image. However, for example, the display for displaying the icon display area 1100 or 1110 in FIG. If the image display area is provided separately, in step S512, an image including an icon to be displayed in the icon display area is generated separately from the image to be displayed in the display area of the real image or the MR image, and the image is displayed in the HMD. You may make it output.

また、本発明の実施形態においては、拠点1・拠点2を、異なる支店の異なる部屋を例に説明したが、現実において異なる空間であればよい。例えば同じ支店内に隣り合わせに存在する別々の部屋をそれぞれ拠点1、拠点2としてもよい。 Further, in the embodiment of the present invention, the base 1 and the base 2 are described by taking different rooms of different branches as an example, but different spaces may be used in reality. For example, separate rooms existing next to each other in the same branch may be set as base 1 and base 2.

また、現実において異なる空間であればよいため、必ずしも部屋でなくともよい。例えば、HMDに取り付けられた光学マーカを捕捉することでHMDの位置姿勢を特定する複数の光学センサで囲われた空間を1つの拠点としてもよい。 In addition, since it is only necessary that the space is different in reality, the space is not necessarily a room. For example, a space surrounded by a plurality of optical sensors that specify the position and orientation of the HMD by capturing an optical marker attached to the HMD may be used as one base.

以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 As described above, according to the present invention, it is possible to provide a mechanism for properly displaying the positions of other users in a wearable display device.

前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。 A recording medium recording a program that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads and executes the program stored in the recording medium. Needless to say, the object of the present invention is achieved.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

また、プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 As a recording medium for supplying the program, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD-ROM, a magnetic tape, a non-volatile memory card, a ROM, an EEPROM. , A silicon disk, a solid state drive, etc. can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, not only the functions of the above-described embodiments are realized by executing the program read by the computer, but also the OS (operating system) running on the computer is actually executed based on the instructions of the program. It goes without saying that a case where some or all of the processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program read from the recording medium is written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the function expansion board is instructed based on the instruction of the program code. Needless to say, this also includes the case where the CPU or the like included in the function expansion unit performs some or all of the actual processing and the processing realizes the functions of the above-described embodiments.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, a database, or the like on a network by a communication program, the system or apparatus can enjoy the effects of the present invention. It should be noted that the present invention also includes all configurations that combine the above-described embodiments and modifications thereof.

100A クライアントPC
100B クライアントPC
100C クライアントPC
100D クライアントPC
100E クライアントPC
100F クライアントPC
101A HMD
101B HMD
101C HMD
101D HMD
101E HMD
101F HMD
200 サーバ
150 ネットワーク
151 ネットワーク
152 ネットワーク

100A client PC
100B client PC
100C client PC
100D client PC
100E Client PC
100F Client PC
101A HMD
101B HMD
101C HMD
101D HMD
101E HMD
101F HMD
200 servers 150 networks 151 networks 152 networks

Claims (9)

現実空間に物体が存在するように当該物体の画像を映し出す装置と通信可能な情報処理装置であって
記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御手段と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく制御する第2制御手段と、
を備えることを特徴とする情報処理装置。
An information processing device capable of communicating with a device that displays an image of an object as if the object exists in a physical space ,
A first control means for the image of the physical object, Utsushidasu the first device in a different second physical space and physical space first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image displayed by the first device. Second control means for controlling the information to be displayed on the first device;
An information processing apparatus comprising:
前記装置は、現実物体の1つであることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the apparatus is one of physical objects. 前記第2制御手段は、前記ユーザが視認できない前記第1の現実空間に位置する現実物体の情報と、前記第2制御手段で映し出されていない前記第2の現実空間に位置する現実物体の情報とを、区別可能に映し出すべく制御することを特徴とする請求項1又は2に記
載の情報処理装置。
The second control unit has information on a physical object located in the first physical space that is not visually recognized by the user, and information on a physical object located in the second physical space that is not displayed by the second control unit. The information processing apparatus according to claim 1 or 2, which is controlled so as to be distinguished from each other.
前記第2制御手段は、前記第1の装置と前記現実物体との距離が所定距離に達した場合に、前記現実物体の情報を映し出すべく制御をすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The second control means controls to project information of the physical object when the distance between the first device and the physical object reaches a predetermined distance. The information processing apparatus according to any one of items. 前記現実物体の情報とは、前記現実物体の位置にかかる情報であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the information on the physical object is information on a position of the physical object. 複数の現実空間のうちどの現実空間にどの前記装置が位置するかを特定可能な情報を記憶する記憶手段Storage means for storing information capable of specifying which device is located in which physical space among a plurality of physical spaces
を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。The information processing apparatus according to any one of claims 1 to 5, further comprising:
現実空間に物体が存在するように当該物体の画像を映し出す装置と通信可能な情報処理装置の制御方法であって
記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御工程と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく工程制御する第2制御工程と、
を含む制御方法。
A method of controlling an information processing device capable of communicating with a device that displays an image of an object as if the object exists in a physical space ,
A first control step of displaying an image of a real object in a different second physical space, the first device and the real space in which the first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image displayed by the first device. A second control step for controlling the step of displaying information on the first device;
Control method including.
現実空間に物体が存在するように当該物体の画像を映し出す装置と通信可能な情報処理装置で実行が可能なプログラムであって、
前記情報処理装置
記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御手段と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく制御する第2制御手段として機能させるためのプログラム。
A program that can be executed by an information processing device that can communicate with a device that projects an image of an object so that the object exists in the physical space,
Said information processing apparatus
A first control means for the image of the physical object, Utsushidasu the first device in a different second physical space and physical space first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image displayed by the first device. A program for functioning as second control means for controlling information to be displayed on the first device.
現実空間に物体が存在するように当該物体の画像を映し出す装置と情報処理装置とを含む情報処理システムであって
記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御手段と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく制御する第2制御手段と、
を備えることを特徴とする情報処理システム。
An information processing system including an information processing apparatus and an apparatus for displaying an image of an object so that the object exists in a physical space ,
A first control means for the image of the physical object, Utsushidasu the first device in a different second physical space and physical space first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image projected by the first device. Second control means for controlling the information to be displayed on the first device;
An information processing system comprising:
JP2015188449A 2015-09-25 2015-09-25 Information processing apparatus, information processing system, control method thereof, and program Active JP6730577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015188449A JP6730577B2 (en) 2015-09-25 2015-09-25 Information processing apparatus, information processing system, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015188449A JP6730577B2 (en) 2015-09-25 2015-09-25 Information processing apparatus, information processing system, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2017062720A JP2017062720A (en) 2017-03-30
JP2017062720A5 JP2017062720A5 (en) 2018-11-08
JP6730577B2 true JP6730577B2 (en) 2020-07-29

Family

ID=58428932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015188449A Active JP6730577B2 (en) 2015-09-25 2015-09-25 Information processing apparatus, information processing system, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6730577B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018194137A1 (en) * 2017-04-19 2018-10-25 小柳建設株式会社 Information processing device, information processing method, and program
WO2018198777A1 (en) * 2017-04-28 2018-11-01 株式会社アルファコード Virtual reality image provision device and virtual reality image provision program
US11273374B2 (en) 2017-07-04 2022-03-15 Sony Interactive Entertainment Inc. Information processing system, player-side apparatus control method, and program
JP2018206339A (en) * 2017-12-01 2018-12-27 株式会社コロプラ Computer-implemented method, program and information processor for providing virtual space
JP2020065229A (en) * 2018-10-19 2020-04-23 西日本電信電話株式会社 Video communication method, video communication device, and video communication program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0203908D0 (en) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP4642538B2 (en) * 2005-04-20 2011-03-02 キヤノン株式会社 Image processing method and image processing apparatus

Also Published As

Publication number Publication date
JP2017062720A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6730577B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6663111B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
JP2015125641A (en) Information processing device, control method therefor, and program
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
JP6409861B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2015143976A (en) Information processing device, method for controlling the same, and program
JP7060778B2 (en) Information processing system, information processing system control method and program
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP6328579B2 (en) Virtual object display system, display control method thereof, and display control program
CN106980378B (en) Virtual display method and system
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2018106297A (en) Mixed reality presentation system, information processing apparatus and control method thereof, and program
JP2005174021A (en) Method and device for presenting information
JP2018106298A (en) Image processing apparatus, image processing method, and computer program
JP6725827B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2018063589A (en) Information processing apparatus, information processing system, method for controlling the same, and program for the same
JP7273325B2 (en) Information processing device, information processing system, information processing method and program
JP6011567B2 (en) Information processing apparatus, control method thereof, and program
JP2014203194A (en) Virtual object display control apparatus, virtual object display control method, and program
JP6398630B2 (en) Visible image display method, first device, program, and visibility changing method, first device, program
CN114935975A (en) Multi-user interaction method for virtual reality, electronic equipment and readable storage medium
JP6683919B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6376251B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP7029087B2 (en) Information processing equipment, information processing system, its control method and program
JP6820469B2 (en) Information processing equipment, information processing system, its control method and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180925

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6730577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250