JP2019200491A - Information processing apparatus, information processing method and program - Google Patents

Information processing apparatus, information processing method and program Download PDF

Info

Publication number
JP2019200491A
JP2019200491A JP2018093331A JP2018093331A JP2019200491A JP 2019200491 A JP2019200491 A JP 2019200491A JP 2018093331 A JP2018093331 A JP 2018093331A JP 2018093331 A JP2018093331 A JP 2018093331A JP 2019200491 A JP2019200491 A JP 2019200491A
Authority
JP
Japan
Prior art keywords
user
virtual space
information
information processing
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018093331A
Other languages
Japanese (ja)
Other versions
JP7070993B2 (en
Inventor
尋輝 柳澤
Hiroaki Yanagisawa
尋輝 柳澤
昌和 森口
Masakazu Moriguchi
昌和 森口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2018093331A priority Critical patent/JP7070993B2/en
Publication of JP2019200491A publication Critical patent/JP2019200491A/en
Application granted granted Critical
Publication of JP7070993B2 publication Critical patent/JP7070993B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To enable a user to intuitively recognize information in a virtual space displayed on a head mounted display without forcing the user to perform complicated operation.SOLUTION: An information processing apparatus 10 comprises: an object management unit 11 which manages a plurality of objects holding information in association with each other on the basis of the information held in the plurality of objects respectively; a user movement detection unit 12 which detects movement within a virtual space of a user 30 wearing a head mounted display 20 displaying the virtual space; a user position control unit 13 which moves the user 30 within the virtual space into an object within the virtual space in response to detecting contact with this object by the user 30; and an object arrangement unit 14 which, after the movement of the user 30 into the object, specifies another object associated with the object and arranges another specified object within the object.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザがヘッドマウントディスプレイを介して体験する仮想現実において、ユーザインタフェースを提供するための、情報処理装置及び情報処理方法に関し、更には、これらを実現するためのプログラムに関する。   The present invention relates to an information processing apparatus and an information processing method for providing a user interface in a virtual reality that a user experiences through a head-mounted display, and further relates to a program for realizing them.

近年、ヘッドマウントディスプレイ(HMD:Head Mounted Display)の低価格化が進んだことから、HMDと仮想現実(VR:Virtual Reality)とを利用したシステムの実用化が進んでいる。特に、非透過型のHMDによれば、VRにおいて、ユーザに没入感を提供でき、ユーザは、VRを実際の現実のように感じることができる。   In recent years, since the price of a head mounted display (HMD) has been reduced, practical use of a system using HMD and virtual reality (VR) has been advanced. In particular, according to the non-transparent HMD, it is possible to provide an immersive feeling to the user in the VR, and the user can feel the VR as an actual reality.

また、このようなHMDとVRとを利用したシステムの用途は、ゲームに限られず、シミュレーション、医療、エンターテインメント、自動車、広告、教育等、多岐に渡っている。   In addition, the use of such a system using HMD and VR is not limited to games, and is diverse, including simulation, medical care, entertainment, automobiles, advertising, and education.

ところで、このようなHMDとVRとを利用したシステムでは、ユーザは、手元を見ることができず、マウス、タッチパネル、キーボードといった既存の入力機器を利用できない状態にある。このため、HMD用に種々のユーザインタフェースが開発されている(例えば、特許文献1参照)。   By the way, in such a system using HMD and VR, the user cannot see the hand and cannot use existing input devices such as a mouse, a touch panel, and a keyboard. For this reason, various user interfaces have been developed for HMD (see, for example, Patent Document 1).

具体的には、特許文献1は、ユーザの視線に対応して画面上に焦点を検出する機能を備えた、HMDを開示している。特許文献1に開示されたHMDでは、ユーザは、視線によって焦点の位置を画面上の特定のオブジェクト(操作ボタン等)に合わせ、特定の期間、その状態を保持することで、特定のオブジェクトに対する操作を行うことができる。   Specifically, Patent Document 1 discloses an HMD having a function of detecting a focus on a screen corresponding to a user's line of sight. In the HMD disclosed in Patent Document 1, the user adjusts the position of the focus to a specific object (operation button or the like) on the screen by the line of sight, and holds the state for a specific period, thereby operating the specific object. It can be performed.

特開2017−510877号公報JP 2017-510877 A

しかしながら、特許文献1に開示されたHMDでは、焦点は、2次元画面上でのポインタと同様に機能するに過ぎず、階層的に構成された情報から必要な情報を取り出す場合は、焦点の位置を特定の期間保持する操作を何度も行う必要がある。このため、特許文献1に開示されたHMDでは、操作対象となるデータの量が増えるほど、ユーザにおける操作が煩雑となる。   However, in the HMD disclosed in Patent Document 1, the focal point functions in the same way as a pointer on a two-dimensional screen, and the position of the focal point is used when necessary information is extracted from hierarchically structured information. It is necessary to perform the operation of holding for a certain period of time many times. For this reason, in the HMD disclosed in Patent Document 1, the operation by the user becomes more complicated as the amount of data to be operated increases.

本発明の目的の一例は、上記問題を解消し、ヘッドマウントディスプレイに表示される仮想空間において、ユーザに対して煩雑な操作を強いることなく、ユーザが直感的に情報を把握できるようにし得る、情報処理装置、情報処理方法、及びプログラムを提供することにある。   An example of the object of the present invention is to solve the above-mentioned problem, and in a virtual space displayed on a head-mounted display, the user can intuitively grasp information without forcing the user to perform complicated operations. An information processing apparatus, an information processing method, and a program are provided.

上記目的を達成するため、本発明の一側面における情報処理装置は、
情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、オブジェクト管理部と、
仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空
間内での動作を検出する、ユーザ動作検出部と、
前記ユーザ動作検出部が、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触を検出すると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ユーザ位置制御部と、
前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、オブジェクト配置部と、
を備えている、ことを特徴とする。
In order to achieve the above object, an information processing apparatus according to one aspect of the present invention provides:
An object management unit that manages a plurality of objects that hold information in association with each other based on the information that each holds;
A user motion detector that detects a motion of the user in the virtual space, with a head-mounted display that displays the virtual space;
When the user motion detection unit detects the user's touch on the object arranged in the virtual space as the user motion, the user touches the user in the virtual space. A user position controller that moves the object within the object,
When the user moves into the object, an object placement unit that identifies another object associated with the object and places the identified other object in the object;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における情報処理方法は、
(a)情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、ステップと、
(b)仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ステップと、
(c)前記(b)のステップにおいて、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触が検出されると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ステップと、
(d)前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、ステップと、
を有する、ことを特徴とする。
In order to achieve the above object, an information processing method according to one aspect of the present invention includes:
(A) managing a plurality of objects holding information in association with each other based on the information held by each of the objects;
(B) detecting a user's operation in the virtual space, which is equipped with a head mounted display that displays the virtual space;
(C) In the step (b), when the user's action is detected by the user to contact the object placed in the virtual space, the user in the virtual space is Moving the object into contact with the object;
(D) when the user moves into the object, identifying another object associated with the object, and placing the identified other object in the object;
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、ステップと、
(b)仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ステップと、
(c)前記(b)のステップにおいて、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触が検出されると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ステップと、
(d)前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to one aspect of the present invention is provided.
On the computer,
(A) managing a plurality of objects holding information in association with each other based on the information held by each of the objects;
(B) detecting a user's movement in the virtual space, which is equipped with a head mounted display that displays the virtual space;
(C) In the step (b), when the user's action is detected by the user to contact the object placed in the virtual space, the user in the virtual space is Moving the object into contact with the object;
(D) when the user moves into the object, identifying another object associated with the object, and placing the identified other object in the object;
Is executed.

以上のように、本発明によれば、ヘッドマウントディスプレイに表示される仮想空間において、ユーザは、煩雑な操作を強いられることなく、直感的に情報を把握することができる。   As described above, according to the present invention, in the virtual space displayed on the head mounted display, the user can intuitively grasp information without being forced to perform complicated operations.

図1は、本発明の実施の形態における情報処理装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施の形態における情報処理装置の構成を具体的に示すブロック図である。FIG. 2 is a block diagram specifically showing the configuration of the information processing apparatus according to the embodiment of the present invention. 図3は、本発明の実施の形態において仮想空間内で行われるユーザの移動を俯瞰して示す図である。FIG. 3 is a diagram showing a bird's-eye view of the movement of the user performed in the virtual space in the embodiment of the present invention. 図4は、図3に示したユーザの移動が行われた場合のヘッドマウントディスプレイに表示される仮想空間を示す図である。FIG. 4 is a diagram illustrating a virtual space displayed on the head mounted display when the movement of the user illustrated in FIG. 3 is performed. 図5は、特定のオブジェクトにユーザが接触した場合に展開される他のオブジェクトの一例を示す図であり、図5(a)及び(b)はそれぞれ異なる例を示している。FIG. 5 is a diagram illustrating an example of another object developed when the user touches a specific object, and FIGS. 5A and 5B illustrate different examples. 図6は、本発明の実施の形態における情報処理装置の動作を示すフロー図である。FIG. 6 is a flowchart showing the operation of the information processing apparatus according to the embodiment of the present invention. 図7は、本発明の実施の形態における情報処理装置を実現するコンピュータの一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of a computer that implements the information processing apparatus according to the embodiment of the present invention.

(実施の形態)
以下、本発明の実施の形態における情報処理装置、情報処理方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment)
Hereinafter, an information processing apparatus, an information processing method, and a program according to an embodiment of the present invention will be described with reference to FIGS.

[装置構成]
最初に、図1を用いて、本発明の実施の形態における情報処理装置の概略構成について説明する。図1は、本発明の実施の形態における情報処理装置の概略構成を示すブロック図である。
[Device configuration]
First, a schematic configuration of the information processing apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to an embodiment of the present invention.

図1に示す、本実施の形態における情報処理装置10は、ユーザ30がヘッドマウントディスプレイ20を介して体験している仮想現実において、ユーザインタフェースを提供する装置である。図1に示すように、情報処理装置10は、オブジェクト管理部11と、ユーザ動作検出部12と、ユーザ位置制御部13と、オブジェクト配置部14とを備えている。   The information processing apparatus 10 according to the present embodiment illustrated in FIG. 1 is an apparatus that provides a user interface in the virtual reality that the user 30 is experiencing via the head mounted display 20. As illustrated in FIG. 1, the information processing apparatus 10 includes an object management unit 11, a user motion detection unit 12, a user position control unit 13, and an object placement unit 14.

オブジェクト管理部11は、情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する。以降においては、上述した「情報を保持するオブジェクト」は、「情報オブジェクト」と表記することとする。ユーザ動作検出部12は、仮想空間を表示しているヘッドマウントディスプレイ20を装着した、ユーザ30の仮想空間内での動作を検出する。   The object management unit 11 manages each of a plurality of objects holding information in association with each other based on the information held by each. Hereinafter, the above-mentioned “object holding information” will be referred to as “information object”. The user motion detection unit 12 detects a motion in the virtual space of the user 30 wearing the head mounted display 20 displaying the virtual space.

ユーザ位置制御部13は、ユーザ動作検出部12が、ユーザ30の動作として、ユーザ30による、仮想空間内に配置された情報オブジェクトへの接触を検出すると、仮想空間内でのユーザ30を、ユーザが接触している情報オブジェクト内に移動させる。   When the user motion detection unit 12 detects that the user 30 has touched the information object arranged in the virtual space as the operation of the user 30, the user position control unit 13 displays the user 30 in the virtual space as the user 30. Move into the information object that is touching.

オブジェクト配置部14は、ユーザ30が情報オブジェクト内に移動すると、この情報オブジェクトに関連付けられた他の情報オブジェクトを特定し、特定した他の情報オブジェクトを、この情報オブジェクト内に配置する。   When the user 30 moves into the information object, the object placement unit 14 identifies another information object associated with the information object, and places the identified other information object in the information object.

このように、本実施の形態では、情報を保持している情報オブジェクトにユーザが触れると、ユーザは情報オブジェクト内に移動し、そこで、この情報オブジェクトに関連付けられた情報オブジェクトを確認することができる。従って、本実施の形態によれば、ヘッドマウントディスプレイに表示される仮想空間において、ユーザは、煩雑な操作を強いられることなく、直感的に情報を把握することができる。   Thus, in this embodiment, when a user touches an information object that holds information, the user moves into the information object, where the information object associated with the information object can be confirmed. . Therefore, according to the present embodiment, in the virtual space displayed on the head mounted display, the user can intuitively grasp information without being forced to perform complicated operations.

続いて、図1に加えて、図2〜図5を用いて、本実施の形態における情報処理装置10の構成についてより具体的に説明する。図2は、本発明の実施の形態における情報処理装置の構成を具体的に示すブロック図である。図3は、本発明の実施の形態において仮想空間内で行われるユーザの移動を俯瞰して示す図である。図4は、図3に示したユーザの移動が行われた場合のヘッドマウントディスプレイに表示される仮想空間を示す図である。
図5は、特定のオブジェクトにユーザが接触した場合に展開される他のオブジェクトの一例を示す図であり、図5(a)及び(b)はそれぞれ異なる例を示している。
Next, in addition to FIG. 1, the configuration of the information processing apparatus 10 in the present embodiment will be described more specifically with reference to FIGS. 2 to 5. FIG. 2 is a block diagram specifically showing the configuration of the information processing apparatus according to the embodiment of the present invention. FIG. 3 is a diagram showing a bird's-eye view of the movement of the user performed in the virtual space in the embodiment of the present invention. FIG. 4 is a diagram illustrating a virtual space displayed on the head mounted display when the movement of the user illustrated in FIG. 3 is performed.
FIG. 5 is a diagram illustrating an example of another object developed when the user touches a specific object, and FIGS. 5A and 5B illustrate different examples.

図2に示すように、本実施の形態では、情報処理装置10は、上述した、オブジェクト管理部11、ユーザ動作検出部12、ユーザ位置制御部13、及びオブジェクト配置部14に加えて、仮想空間構築部15を備えている。   As shown in FIG. 2, in the present embodiment, the information processing apparatus 10 includes a virtual space in addition to the object management unit 11, the user motion detection unit 12, the user position control unit 13, and the object placement unit 14 described above. A construction unit 15 is provided.

また、図2に示すように、本実施の形態では、情報処理装置10には、ヘッドマウントディスプレイ20と、ユーザ39の位置を検出するためのカメラ21とが接続されている。   As shown in FIG. 2, in the present embodiment, a head mounted display 20 and a camera 21 for detecting the position of the user 39 are connected to the information processing apparatus 10.

ヘッドマウントディスプレイ20は、図示されていないが、それ自体の動きを検出するモーションセンサと、それを装着しているユーザの手の動きを検出する赤外線センサとを搭載している。   Although not shown, the head mounted display 20 includes a motion sensor that detects its own movement and an infrared sensor that detects the movement of the hand of the user wearing the head mounted display 20.

モーションセンサは、加速度センセ及び角速度センサを備え、ヘッドマウントディスプレイ20自体の動きを特定する信号を出力する。赤外線センサは、赤外線を出力する光源と、装着者の手で反射された赤外線を受光する撮像素子とを備え、信号として、赤外線画像を出力する。   The motion sensor includes an acceleration sensor and an angular velocity sensor, and outputs a signal specifying the movement of the head mounted display 20 itself. The infrared sensor includes a light source that outputs infrared light and an image sensor that receives the infrared light reflected by the wearer's hand, and outputs an infrared image as a signal.

また、本実施の形態において、ヘッドマウントディスプレイ20及びそれに用いられるセンサは、特に限定されるものではない。本実施の形態では、将来開発される種々のヘッドマウントディスプレイ及びセンサを用いることができる。   Moreover, in this Embodiment, the head mounted display 20 and the sensor used for it are not specifically limited. In the present embodiment, various head mounted displays and sensors that will be developed in the future can be used.

オブジェクト管理部11は、本実施の形態では、オブジェクトデータベース16を備えている。オブジェクトデータベース16は、上述した情報オブジェクトを含め、仮想空間内に配置される全てのオブジェクトを登録している。また、オブジェクトデータベース16は、上述したように、各情報オブジェクトを、それぞれが保持する情報に基づいて、互いに関連付けて登録している。   The object management unit 11 includes an object database 16 in the present embodiment. The object database 16 registers all objects arranged in the virtual space including the information objects described above. Further, as described above, the object database 16 registers each information object in association with each other based on the information held by each information object.

仮想空間構築部15は、図3に示すように、オブジェクトデータベース16に登録されているオブジェクトを用いて、情報処理装置10が備えるメモリ(図2において図示せす)のメモリ区間内に仮想空間40を構築する。また、図3に示すように、仮想空間構築部15は、構築した仮想空間内に、ユーザ30を表すオブジェクト(以下「ユーザオブジェクト」と表記する)31も配置し、ヘッドマウントディスプレイ20の画面に、ユーザオブジェクト31を視点とした仮想空間内の映像を表示する。   As illustrated in FIG. 3, the virtual space construction unit 15 uses the objects registered in the object database 16 and uses a virtual space 40 within a memory section of a memory (shown in FIG. 2) included in the information processing apparatus 10. Build up. As shown in FIG. 3, the virtual space construction unit 15 also arranges an object 31 (hereinafter referred to as “user object”) 31 representing the user 30 in the constructed virtual space, and displays it on the screen of the head mounted display 20. The video in the virtual space with the user object 31 as a viewpoint is displayed.

ユーザ動作検出部12は、本実施の形態では、ヘッドマウントディスプレイ20に搭載されているモーションセンサからの信号と、赤外線センサからの信号とに基づいて、ユーザ30の実空間での姿勢と手の動きとを検出する。また、ユーザ動作検出部12は、カメラ21からの映像データに基づいて、ユーザ30の実空間での位置を検出する。   In the present embodiment, the user motion detection unit 12 is based on the signal from the motion sensor mounted on the head mounted display 20 and the signal from the infrared sensor, and the posture and hand of the user 30 in the real space. Detect motion and. Further, the user motion detection unit 12 detects the position of the user 30 in the real space based on the video data from the camera 21.

また、ユーザ動作検出部12は、検出した、ユーザ30の実空間での姿勢、手の動き、及び位置を、ユーザオブジェクト31に反映し、仮想空間内におけるユーザ30の動作を検出する。例えば、図4の例では、ユーザ30の仮想空間内での動作として、ユーザオブジェクト31によるファイルボックス41への接触が検出されている。   In addition, the user motion detection unit 12 reflects the detected posture, hand movement, and position of the user 30 in the real space on the user object 31 and detects the motion of the user 30 in the virtual space. For example, in the example of FIG. 4, contact with the file box 41 by the user object 31 is detected as an operation of the user 30 in the virtual space.

ユーザ位置制御部13は、本実施の形態では、ユーザ動作検出部12によって、ユーザ30による、仮想空間内に配置された情報オブジェクトへの接触が検出されると、仮想空間40内にあるユーザオブジェクト31を、この情報オブジェクト内に移動させる。   In the present embodiment, the user position control unit 13 is configured to detect a user object in the virtual space 40 when the user motion detection unit 12 detects that the user 30 has touched the information object arranged in the virtual space. 31 is moved into this information object.

オブジェクト配置部14は、本実施の形態では、ユーザオブジェクト31が情報オブジェクト内に移動すると、この情報オブジェクトに関連付けられた他の情報オブジェクト、例えば、下位概念の情報を保持する情報オブジェクトを特定する。そして、オブジェクト配置部14は、特定した他の情報オブジェクトを、ユーザオブジェクト31が存在している情報オブジェクト内に配置する。   In the present embodiment, when the user object 31 moves into the information object, the object placement unit 14 specifies another information object associated with the information object, for example, an information object that holds information on a lower concept. Then, the object placement unit 14 places the identified other information object in the information object in which the user object 31 exists.

ここで、図3及び図4を用いて、ユーザ動作検出部12、ユーザ位置制御部13及びオブジェクト配置部14の機能の具体例について説明する。   Here, specific examples of the functions of the user motion detection unit 12, the user position control unit 13, and the object placement unit 14 will be described with reference to FIGS.

図3の上段に示すように、ユーザオブジェクト31は、仮想空間40内に配置される。この場合、図4の上段に示すように、ヘッドマウントディスプレイ20の画面には、ユーザオブジェクト31を視点とした仮想空間40内の映像が表示される。   As shown in the upper part of FIG. 3, the user object 31 is arranged in the virtual space 40. In this case, as shown in the upper part of FIG. 4, an image in the virtual space 40 with the user object 31 as a viewpoint is displayed on the screen of the head mounted display 20.

そして、ユーザ30が、ヘッドマウントディスプレイ20の画面を見ながら、仮想空間40内に配置されているファイルボックス41に接触したとする。この場合、ユーザ動作検出部12は、この動作をユーザオブジェクト31に反映し、ユーザ30の仮想空間内での動作として、ユーザオブジェクト31によるファイルボックス41への接触を検出する。   Then, it is assumed that the user 30 touches the file box 41 disposed in the virtual space 40 while looking at the screen of the head mounted display 20. In this case, the user action detection unit 12 reflects this action on the user object 31 and detects the contact of the user object 31 with the file box 41 as the action of the user 30 in the virtual space.

そして、ファイルボックス41が、情報を保持した情報オブジェクトであるとすると、ユーザ位置制御部13は、図3の中段に示すように、仮想空間40内にあるユーザオブジェクト31を、ファイルボックス41内に移動させる。   If the file box 41 is an information object holding information, the user position control unit 13 moves the user object 31 in the virtual space 40 into the file box 41 as shown in the middle part of FIG. Move.

そして、ファイルボックス41に対して、それに包含されるファイルA〜Cが予め関連付けられているとすると、図3の下段及び図4の下段に示すように、オブジェクト配置部14は、ファイルボックス41に関連付けられているファイルA〜Cを特定する。そして、オブジェクト配置部14は、特定したファイルA〜Cそれぞれを保持するオブジェクト42をファイルボックス41内に配置する。   Assuming that the files A to C included in the file box 41 are associated in advance, the object placement unit 14 stores the file box 41 in the file box 41 as shown in the lower part of FIG. Identify the associated files A-C. Then, the object placement unit 14 places an object 42 that holds each of the identified files A to C in the file box 41.

また、本実施の形態は、ユーザ30が情報オブジェクトのどこに接触したかによって、特定される他の情報オブジェクトが変化する態様とすることができる。つまり、この態様では、ユーザ動作検出部12は、ユーザ30による、仮想空間内に配置された情報オブジェクトへの接触を検出する際に、情報オブジェクトにおけるユーザ30との接触位置も検出する。オブジェクト配置部14は、検出された接触位置に応じて、情報オブジェクトに関連付けられた他のオブジェクトを特定する。   Moreover, this Embodiment can be set as the aspect from which the other information object specified changes according to where the user 30 contacted the information object. That is, in this aspect, the user motion detection unit 12 also detects a contact position of the information object with the user 30 when detecting the contact of the user 30 with the information object arranged in the virtual space. The object placement unit 14 specifies another object associated with the information object according to the detected contact position.

具体的には、オブジェクト管理部11が、例えば、オブジェクトデータベース16において、各情報オブジェクトを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理しているとする。   Specifically, it is assumed that the object management unit 11 manages, for example, each information object in the object database 16 based on the vertical relationship and parallel relationship of the information held by each.

図5(a)の例では、オブジェクト管理部11は、ファイルDとその子ファイルd1〜d3とを上下関係に基づいて管理している。また、図5(b)の例では、オブジェクト管理部11は、ファイルDとその関連ファイルE〜Gとを並列関係に基づいて管理している。そして、図5(a)及び(b)の例では、情報オブジェクトの上面への接触が上下関係に紐付けられ、情報オブジェクトの側面への接触が並列関係に紐付けられているとする。   In the example of FIG. 5A, the object management unit 11 manages the file D and its child files d1 to d3 based on the vertical relationship. In the example of FIG. 5B, the object management unit 11 manages the file D and the related files E to G based on the parallel relationship. In the examples of FIGS. 5A and 5B, it is assumed that the contact with the top surface of the information object is tied in a vertical relationship, and the contact with the side surface of the information object is tied in a parallel relationship.

このような場合、図5(a)に示すように、ユーザ動作検出部12が、親ファイルDを保持する情報オブジェクトの上面への接触を検出すると、オブジェクト管理部11は、子ファイルd1〜d3を保持する各情報オブジェクトを特定し、これらを配置する。一方、
図5(b)に示すように、ユーザ動作検出部12が、親ファイルDを保持する情報オブジェクトの側面への接触を検出すると、オブジェクト管理部11は、関連ファイルE〜Gを保持する各情報オブジェクトを特定し、これらを配置する。
In such a case, as shown in FIG. 5A, when the user motion detection unit 12 detects the contact of the information object holding the parent file D with the upper surface, the object management unit 11 detects the child files d1-d3. Identify each information object that holds and place them. on the other hand,
As shown in FIG. 5B, when the user action detection unit 12 detects contact with the side surface of the information object holding the parent file D, the object management unit 11 sets each piece of information holding the related files EG. Identify objects and place them.

[動作説明]
次に、本実施の形態における情報処理装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における情報処理装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参照する。また、本実施の形態では、情報処理装置10を動作させることによって、情報処理方法が実施される。よって、本実施の形態における情報処理方法の説明は、以下の情報処理装置10の動作説明に代える。
[Description of operation]
Next, the operation of the information processing apparatus 10 in the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the information processing apparatus according to the embodiment of the present invention. In the following description, FIGS. Moreover, in this Embodiment, the information processing method is implemented by operating the information processing apparatus 10. Therefore, the description of the information processing method in the present embodiment is replaced with the following description of the operation of the information processing apparatus 10.

まず、前提として、仮想空間構築部15は、オブジェクトデータベース16に登録されているオブジェクトを用いて、情報処理装置10が備えるメモリのメモリ区間内に仮想空間40を構築しているとする。そして、仮想空間構築部15は、仮想空間内に、ユーザオブジェクト31も配置し、ヘッドマウントディスプレイ20の画面に、ユーザオブジェクト31を視点とした仮想空間内の映像を表示し、ユーザ30が仮想現実を体験しているとする。   First, as a premise, it is assumed that the virtual space construction unit 15 constructs the virtual space 40 in the memory section of the memory included in the information processing apparatus 10 using the objects registered in the object database 16. The virtual space construction unit 15 also arranges the user object 31 in the virtual space, displays the video in the virtual space with the user object 31 as a viewpoint on the screen of the head mounted display 20, and the user 30 receives the virtual reality. Suppose you are experiencing.

上述の前提において、図6に示すように、ユーザ動作検出部12は、ヘッドマウントディスプレイ20のモーションセンサ及び赤外線センサからの信号と、カメラ21からの映像データとに基づき、実空間におけるユーザの姿勢、手の動き、位置を検出する(ステップA1)。   Under the above assumption, as shown in FIG. 6, the user motion detection unit 12 is based on the signals from the motion sensor and infrared sensor of the head mounted display 20 and the video data from the camera 21, and the posture of the user in the real space. The movement and position of the hand are detected (step A1).

次に、ユーザ動作検出部12は、検出した、ユーザ30の実空間での姿勢、手の動き、及び位置を、ユーザオブジェクト31に反映する(ステップA2)。更に、ユーザ動作検出部12は、反映の結果から、ユーザオブジェクト31の動作、即ち、仮想空間内におけるユーザ30の動作を検出する。(ステップA3)。   Next, the user motion detection unit 12 reflects the detected posture, hand movement, and position of the user 30 in the real space on the user object 31 (step A2). Furthermore, the user action detection unit 12 detects the action of the user object 31, that is, the action of the user 30 in the virtual space, from the reflection result. (Step A3).

次に、ユーザ位置制御部13は、ステップA3で検出されたユーザ30の動作が、情報オブジェクトの特定の部位(例えば、上面、側面等)への接触であるかどうかを判定する(ステップA4)。   Next, the user position control unit 13 determines whether or not the action of the user 30 detected in step A3 is a contact with a specific part (for example, an upper surface, a side surface, etc.) of the information object (step A4). .

ステップA4の判定の結果、ステップA3で検出されたユーザ30の動作が、情報オブジェクトの特定の部位(例えば、上面、側面等)への接触でない場合は、再度、ユーザ位置制御部13は、ユーザ動作検出部12に、再度ステップA1を実行させる。   As a result of the determination in step A4, when the action of the user 30 detected in step A3 is not a contact with a specific part (for example, an upper surface, a side surface, etc.) of the information object, the user position control unit 13 again determines The operation detection unit 12 is caused to execute Step A1 again.

ステップA4の判定の結果、ステップA3で検出されたユーザ30の動作が、情報オブジェクトの特定の部位(例えば、上面、側面等)への接触である場合は、ユーザ位置制御部13は、仮想空間40内にあるユーザオブジェクト31を、ユーザ30が接触した情報オブジェクト内に移動させる(ステップA5)。   As a result of the determination in step A4, when the action of the user 30 detected in step A3 is a contact with a specific part (for example, an upper surface, a side surface, etc.) of the information object, the user position control unit 13 The user object 31 within 40 is moved into the information object that the user 30 has contacted (step A5).

次に、オブジェクト配置部14は、接触部位に応じて、ユーザ30が接触した情報オブジェクトに関連付けられた他の情報オブジェクトを特定し、特定した他の情報オブジェクトを、ユーザオブジェクト31が存在している情報オブジェクト内に配置する(ステップA6)。   Next, the object placement unit 14 identifies another information object associated with the information object contacted by the user 30 according to the contact site, and the user object 31 is the identified other information object. It arrange | positions in an information object (step A6).

具体的には、図5(a)及び(b)に示したように、オブジェクト配置部14は、接触部位に応じて、ユーザ30が接触した情報オブジェクトと上下関係にある情報を持つオブジェクト、又は並列関係にある情報を持つオブジェクトを特定する。   Specifically, as illustrated in FIGS. 5A and 5B, the object placement unit 14 has an object having information that is vertically related to the information object contacted by the user 30 according to the contact part, or Identify objects with information in parallel relationship.

ステップA6の実行により、ユーザは、必要な情報を素早く把握することができる。また、情報処理装置10は、ユーザ30が仮想現実を体験している間は、繰り返しステップA1〜A6を実行する。   By executing step A6, the user can quickly grasp necessary information. Further, the information processing apparatus 10 repeatedly executes Steps A1 to A6 while the user 30 is experiencing virtual reality.

[実施の形態による効果]
以上のように、本実施の形態では、ヘッドマウントディスプレイを装着したユーザに対して、オブジェクトに触れるという簡単な操作だけで、必要な情報を提供することができる、ユーザインタフェースが提供される。このため、ユーザは、仮想空間において、煩雑な操作を強いられることなく、直感的に情報を把握することができる。
[Effects of the embodiment]
As described above, in the present embodiment, a user interface is provided that can provide necessary information to a user wearing a head mounted display only by a simple operation of touching an object. For this reason, the user can grasp information intuitively without being forced to perform complicated operations in the virtual space.

また、本実施の形態における情報処理装置10は、例えば、仮想現実を利用して工場での作業のシミュレーションを行う場合、機械の整備のシミュレーションを行う場合等に利用できる。これらの場合では、ユーザは、例えば、各種ツールの入ったオブジェクトに接触することで、必要なツールを簡単に取得することができる。   In addition, the information processing apparatus 10 according to the present embodiment can be used, for example, when performing a factory work simulation using virtual reality, or when performing a machine maintenance simulation. In these cases, the user can easily obtain a necessary tool by, for example, contacting an object containing various tools.

更に、本実施の形態における情報処理装置10は、ユーザが選択肢を選ぶことで、仮想現実における場面が進行していく、教育的コンテンツにおいて、選択肢毎に異なるフィードバックを行う場合にも利用できる。このような場合では、情報処理装置10は、選択肢を可視化でき、ユーザに対して選択操作における直感的なインターフェイスを提供できる。   Furthermore, the information processing apparatus 10 according to the present embodiment can also be used in the case of providing different feedback for each option in educational content in which a scene in virtual reality progresses when a user selects an option. In such a case, the information processing apparatus 10 can visualize the options and provide an intuitive interface for the selection operation to the user.

[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1〜A6を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における情報処理装置10と情報処理方法とを実現することができる。この場合、コンピュータのプロセッサは、オブジェクト管理部11、ユーザ動作検出部12、ユーザ位置制御部13、オブジェクト配置部14、及び仮想空間構築部15として機能し、処理を行なう。
[program]
The program in the present embodiment may be a program that causes a computer to execute steps A1 to A6 shown in FIG. The information processing apparatus 10 and the information processing method in the present embodiment can be realized by installing and executing this program on a computer. In this case, the processor of the computer functions as the object management unit 11, the user motion detection unit 12, the user position control unit 13, the object placement unit 14, and the virtual space construction unit 15, and performs processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、オブジェクト管理部11、ユーザ動作検出部12、ユーザ位置制御部13、オブジェクト配置部14、及び仮想空間構築部15のいずれかとして機能しても良い。   The program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any one of the object management unit 11, the user motion detection unit 12, the user position control unit 13, the object placement unit 14, and the virtual space construction unit 15.

ここで、本実施の形態におけるプログラムを実行することによって、情報処理装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における情報処理装置を実現するコンピュータの一例を示すブロック図である。   Here, a computer that realizes the information processing apparatus 10 by executing the program according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating an example of a computer that implements the information processing apparatus according to the embodiment of the present invention.

図7に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。   As shown in FIG. 7, a computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. With. These units are connected to each other via a bus 121 so that data communication is possible. The computer 110 may include a graphics processing unit (GPU) or a field-programmable gate array (FPGA) in addition to the CPU 111 or instead of the CPU 111.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コ
ンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The CPU 111 performs various calculations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。   Specific examples of the storage device 113 include a hard disk drive and a semiconductor storage device such as a flash memory. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。   The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。   Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as a flexible disk, or CD- An optical recording medium such as ROM (Compact Disk Read Only Memory) can be used.

なお、本実施の形態における情報処理装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、情報処理装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。   Note that the information processing apparatus 10 according to the present embodiment can be realized by using hardware corresponding to each unit, instead of a computer in which a program is installed. Furthermore, a part of the information processing apparatus 10 may be realized by a program, and the remaining part may be realized by hardware.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記9)によって表現することができるが、以下の記載に限定されるものではない。   Part or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 9) described below, but is not limited to the following description.

(付記1)
情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、オブジェクト管理部と、
仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ユーザ動作検出部と、
前記ユーザ動作検出部が、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触を検出すると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ユーザ位置制御部と、
前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、オブジェクト配置部と、
を備えている、ことを特徴とする情報処理装置。
(Appendix 1)
An object management unit that manages a plurality of objects that hold information in association with each other based on the information that each holds;
A user motion detector that detects a motion of the user in the virtual space, with a head-mounted display that displays the virtual space;
When the user motion detection unit detects the user's touch on the object arranged in the virtual space as the user motion, the user touches the user in the virtual space. A user position controller that moves the object within the object,
When the user moves into the object, an object placement unit that identifies another object associated with the object and places the identified other object in the object;
An information processing apparatus comprising:

(付記2)
付記1に記載の情報処理装置であって、
前記ユーザ動作検出部が、前記ユーザによる、前記仮想空間内に配置されたオブジェクトへの接触を検出する際に、前記オブジェクトにおける前記ユーザとの接触位置を検出し、
前記オブジェクト配置部が、検出された前記接触位置に応じて、当該オブジェクトに関連付けられた他のオブジェクトを特定する、
ことを特徴とする情報処理装置。
(Appendix 2)
An information processing apparatus according to attachment 1, wherein
When the user motion detection unit detects contact by the user to the object arranged in the virtual space, the contact position of the object with the user is detected,
The object placement unit identifies another object associated with the object according to the detected contact position;
An information processing apparatus characterized by that.

(付記3)
付記2に記載の情報処理装置であって、
前記オブジェクト管理部が、前記複数のオブジェクトそれぞれを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理し、
前記オブジェクト配置部が、検出された前記接触位置に応じて、当該オブジェクトと上下関係にある他のオブジェクト、又は当該オブジェクトと並列関係にある他のオブジェクトを特定する、
ことを特徴とする情報処理装置。
(Appendix 3)
An information processing apparatus according to appendix 2, wherein
The object management unit manages each of the plurality of objects based on the vertical relationship and parallel relationship of information held by each of the plurality of objects,
The object placement unit identifies another object that is in a vertical relationship with the object, or another object that is in a parallel relationship with the object, according to the detected contact position.
An information processing apparatus characterized by that.

(付記4)
(a)情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、ステップと、
(b)仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ステップと、
(c)前記(b)のステップにおいて、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触が検出されると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ステップと、
(d)前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、ステップと、
を有する、ことを特徴とする情報処理方法。
(Appendix 4)
(A) managing a plurality of objects holding information in association with each other based on the information held by each of the objects;
(B) detecting a user's movement in the virtual space, which is equipped with a head mounted display that displays the virtual space;
(C) In the step (b), when the user's action is detected by the user to contact the object placed in the virtual space, the user in the virtual space is Moving the object into contact with the object;
(D) when the user moves into the object, identifying another object associated with the object, and placing the identified other object in the object;
An information processing method characterized by comprising:

(付記5)
付記4に記載の情報処理方法であって、
前記(b)のステップにおいて、前記ユーザによる、前記仮想空間内に配置されたオブジェクトへの接触を検出する際に、前記オブジェクトにおける前記ユーザとの接触位置を検出し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトに関連付けられた他のオブジェクトを特定する、
ことを特徴とする情報処理方法。
(Appendix 5)
An information processing method according to attachment 4, wherein
In the step (b), when detecting contact by the user to the object arranged in the virtual space, a contact position of the object with the user is detected,
In the step (d), according to the detected contact position, another object associated with the object is specified.
An information processing method characterized by the above.

(付記6)
付記5に記載の情報処理方法であって、
前記(a)のステップにおいて、前記複数のオブジェクトそれぞれを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトと上下関係にある他のオブジェクト、又は当該オブジェクトと並列関係にある他のオブジェクトを特定する、
ことを特徴とする情報処理方法。
(Appendix 6)
An information processing method according to appendix 5,
In the step (a), each of the plurality of objects is managed based on the hierarchical relationship and parallel relationship of information held by each of the plurality of objects,
In the step (d), according to the detected contact position, another object that is vertically related to the object or another object that is parallel to the object is specified.
An information processing method characterized by the above.

(付記7)
コンピュータに、
(a)情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、ステップと、
(b)仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ステップと、
(c)前記(b)のステップにおいて、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触が検出されると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ステップ
と、
(d)前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、ステップと、
を実行させるプログラム。
(Appendix 7)
On the computer,
(A) managing a plurality of objects holding information in association with each other based on the information held by each of the objects;
(B) detecting a user's movement in the virtual space, which is equipped with a head mounted display that displays the virtual space;
(C) In the step (b), when the user's action is detected by the user to contact the object placed in the virtual space, the user in the virtual space is Moving the object into contact with the object;
(D) when the user moves into the object, identifying another object associated with the object, and placing the identified other object in the object;
A program that executes

(付記8)
付記7に記載のプログラムであって、
前記(b)のステップにおいて、前記ユーザによる、前記仮想空間内に配置されたオブジェクトへの接触を検出する際に、前記オブジェクトにおける前記ユーザとの接触位置を検出し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトに関連付けられた他のオブジェクトを特定する、
ことを特徴とするプログラム。
(Appendix 8)
The program according to appendix 7,
In the step (b), when detecting contact by the user to the object arranged in the virtual space, a contact position of the object with the user is detected,
In the step (d), according to the detected contact position, another object associated with the object is specified.
A program characterized by that.

(付記9)
付記8に記載のプログラムであって、
前記(a)のステップにおいて、前記複数のオブジェクトそれぞれを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトと上下関係にある他のオブジェクト、又は当該オブジェクトと並列関係にある他のオブジェクトを特定する、
ことを特徴とするプログラム。
(Appendix 9)
The program according to attachment 8, wherein
In the step (a), each of the plurality of objects is managed based on the hierarchical relationship and parallel relationship of information held by each of the plurality of objects,
In the step (d), according to the detected contact position, another object that is vertically related to the object or another object that is parallel to the object is specified.
A program characterized by that.

以上のように、本発明によれば、ヘッドマウントディスプレイに表示される仮想空間において、ユーザは、煩雑な操作を強いられることなく、直感的に情報を把握することができる。本発明は仮想現実が利用される各種システムに有用である。   As described above, according to the present invention, in the virtual space displayed on the head mounted display, the user can intuitively grasp information without being forced to perform complicated operations. The present invention is useful for various systems in which virtual reality is used.

10 情報処理装置
11 オブジェクト管理部
12 ユーザ動作検出部
13 ユーザ位置制御部
14 オブジェクト配置部
15 仮想空間構築部
16 オブジェクトデータベース
20 ヘッドマウントディスプレイ
21 カメラ
30 ユーザ
40 仮想空間
41 ファイルボックス(情報オブジェクト)
42 ファイルを保持するオブジェクト(情報オブジェクト)
31 ユーザオブジェクト
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Object management part 12 User motion detection part 13 User position control part 14 Object arrangement | positioning part 15 Virtual space construction part 16 Object database 20 Head mounted display 21 Camera 30 User 40 Virtual space 41 File box (information object)
42 Objects that hold files (information objects)
31 User object 110 Computer 111 CPU
112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus

Claims (9)

情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、オブジェクト管理部と、
仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ユーザ動作検出部と、
前記ユーザ動作検出部が、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触を検出すると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ユーザ位置制御部と、
前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、オブジェクト配置部と、
を備えている、ことを特徴とする情報処理装置。
An object management unit that manages a plurality of objects that hold information in association with each other based on the information that each holds;
A user motion detector that detects a motion of the user in the virtual space, with a head-mounted display that displays the virtual space;
When the user motion detection unit detects the user's touch on the object arranged in the virtual space as the user motion, the user touches the user in the virtual space. A user position controller that moves the object within the object,
When the user moves into the object, an object placement unit that identifies another object associated with the object and places the identified other object in the object;
An information processing apparatus comprising:
請求項1に記載の情報処理装置であって、
前記ユーザ動作検出部が、前記ユーザによる、前記仮想空間内に配置されたオブジェクトへの接触を検出する際に、前記オブジェクトにおける前記ユーザとの接触位置を検出し、
前記オブジェクト配置部が、検出された前記接触位置に応じて、当該オブジェクトに関連付けられた他のオブジェクトを特定する、
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
When the user motion detection unit detects contact by the user to the object arranged in the virtual space, the contact position of the object with the user is detected,
The object placement unit identifies another object associated with the object according to the detected contact position;
An information processing apparatus characterized by that.
請求項2に記載の情報処理装置であって、
前記オブジェクト管理部が、前記複数のオブジェクトそれぞれを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理し、
前記オブジェクト配置部が、検出された前記接触位置に応じて、当該オブジェクトと上下関係にある他のオブジェクト、又は当該オブジェクトと並列関係にある他のオブジェクトを特定する、
ことを特徴とする情報処理装置。
An information processing apparatus according to claim 2,
The object management unit manages each of the plurality of objects based on the vertical relationship and parallel relationship of information held by each of the plurality of objects,
The object placement unit identifies another object that is in a vertical relationship with the object, or another object that is in a parallel relationship with the object, according to the detected contact position.
An information processing apparatus characterized by that.
(a)情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、ステップと、
(b)仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ステップと、
(c)前記(b)のステップにおいて、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触が検出されると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ステップと、
(d)前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、ステップと、
を有する、ことを特徴とする情報処理方法。
(A) managing a plurality of objects holding information in association with each other based on the information held by each of the objects;
(B) detecting a user's movement in the virtual space, which is equipped with a head mounted display that displays the virtual space;
(C) In the step (b), when the user's action is detected by the user to contact the object placed in the virtual space, the user in the virtual space is Moving the object into contact with the object;
(D) when the user moves into the object, identifying another object associated with the object, and placing the identified other object in the object;
An information processing method characterized by comprising:
請求項4に記載の情報処理方法であって、
前記(b)のステップにおいて、前記ユーザによる、前記仮想空間内に配置されたオブジェクトへの接触を検出する際に、前記オブジェクトにおける前記ユーザとの接触位置を検出し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトに関連付けられた他のオブジェクトを特定する、
ことを特徴とする情報処理方法。
An information processing method according to claim 4,
In the step (b), when detecting contact by the user to the object arranged in the virtual space, a contact position of the object with the user is detected,
In the step (d), according to the detected contact position, another object associated with the object is specified.
An information processing method characterized by the above.
請求項5に記載の情報処理方法であって、
前記(a)のステップにおいて、前記複数のオブジェクトそれぞれを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトと上下関係にある他のオブジェクト、又は当該オブジェクトと並列関係にある他のオブジェクトを特定する、
ことを特徴とする情報処理方法。
An information processing method according to claim 5,
In the step (a), each of the plurality of objects is managed based on the hierarchical relationship and parallel relationship of information held by each of the plurality of objects,
In the step (d), according to the detected contact position, another object that is vertically related to the object or another object that is parallel to the object is specified.
An information processing method characterized by the above.
コンピュータに、
(a)情報を保持する複数のオブジェクトそれぞれを、それぞれが保持する情報に基づいて、互いに関連付けて管理する、ステップと、
(b)仮想空間を表示しているヘッドマウントディスプレイを装着した、ユーザの前記仮想空間内での動作を検出する、ステップと、
(c)前記(b)のステップにおいて、前記ユーザの動作として、前記ユーザによる、前記仮想空間内に配置された前記オブジェクトへの接触が検出されると、前記仮想空間内での前記ユーザを、前記ユーザが接触している前記オブジェクト内に移動させる、ステップと、
(d)前記ユーザが前記オブジェクト内に移動すると、当該オブジェクトに関連付けられた他のオブジェクトを特定し、特定した前記他のオブジェクトを、当該オブジェクト内に配置する、ステップと、
を実行させるプログラム。
On the computer,
(A) managing a plurality of objects holding information in association with each other based on the information held by each of the objects;
(B) detecting a user's movement in the virtual space, which is equipped with a head mounted display that displays the virtual space;
(C) In the step (b), when the user's action is detected by the user to contact the object placed in the virtual space, the user in the virtual space is Moving the object into contact with the object;
(D) when the user moves into the object, identifying another object associated with the object, and placing the identified other object in the object;
A program that executes
請求項7に記載のプログラムであって、
前記(b)のステップにおいて、前記ユーザによる、前記仮想空間内に配置されたオブジェクトへの接触を検出する際に、前記オブジェクトにおける前記ユーザとの接触位置を検出し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトに関連付けられた他のオブジェクトを特定する、
ことを特徴とするプログラム。
The program according to claim 7,
In the step (b), when detecting contact by the user to the object arranged in the virtual space, a contact position of the object with the user is detected,
In the step (d), according to the detected contact position, another object associated with the object is specified.
A program characterized by that.
請求項8に記載のプログラムであって、
前記(a)のステップにおいて、前記複数のオブジェクトそれぞれを、それぞれが保持する情報の上下関係と並列関係とに基づいて管理し、
前記(d)のステップにおいて、検出された前記接触位置に応じて、当該オブジェクトと上下関係にある他のオブジェクト、又は当該オブジェクトと並列関係にある他のオブジェクトを特定する、
ことを特徴とするプログラム。
The program according to claim 8, wherein
In the step (a), each of the plurality of objects is managed based on the hierarchical relationship and parallel relationship of information held by each of the plurality of objects,
In the step (d), according to the detected contact position, another object that is vertically related to the object or another object that is parallel to the object is specified.
A program characterized by that.
JP2018093331A 2018-05-14 2018-05-14 Information processing equipment, information processing methods, and programs Active JP7070993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018093331A JP7070993B2 (en) 2018-05-14 2018-05-14 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093331A JP7070993B2 (en) 2018-05-14 2018-05-14 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019200491A true JP2019200491A (en) 2019-11-21
JP7070993B2 JP7070993B2 (en) 2022-05-18

Family

ID=68612109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093331A Active JP7070993B2 (en) 2018-05-14 2018-05-14 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7070993B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092245A (en) * 2004-09-24 2006-04-06 Fuji Xerox Co Ltd Electronic data management system, method for controlling the same system and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092245A (en) * 2004-09-24 2006-04-06 Fuji Xerox Co Ltd Electronic data management system, method for controlling the same system and program

Also Published As

Publication number Publication date
JP7070993B2 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
KR101108743B1 (en) Method and apparatus for holographic user interface communication
CN106575203B (en) Hover-based interaction with rendered content
CN110476142B (en) Computing device, method and head mounted display device for displaying virtual content
US9766707B2 (en) Method for using the GPU to create haptic friction maps
US10409443B2 (en) Contextual cursor display based on hand tracking
US10416777B2 (en) Device manipulation using hover
CN101730874B (en) Touchless gesture based input
US9582933B1 (en) Interacting with a model via a three-dimensional (3D) spatial environment
US20180046363A1 (en) Digital Content View Control
KR20140025494A (en) Edge gesture
KR20140025493A (en) Edge gesture
KR20160071404A (en) User interface programmatic scaling
CN107077215B (en) Techniques for interacting with a computing device using haptic manipulation
JP2013037675A5 (en)
TW201232329A (en) Method, apparatus and system for interacting with content on web browsers
US20170052701A1 (en) Dynamic virtual keyboard graphical user interface
CN106464749B (en) Interactive method of user interface
CN108776544B (en) Interaction method and device in augmented reality, storage medium and electronic equipment
CN110075519B (en) Information processing method and device in virtual reality, storage medium and electronic equipment
KR20120030406A (en) Scrubbing variable content paths
KR20210005041A (en) Modal control initiation technique based on hand position
CN110908568B (en) Control method and device for virtual object
CN107037874A (en) Weight and mobile gesture
JP7070993B2 (en) Information processing equipment, information processing methods, and programs
US20130201095A1 (en) Presentation techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7070993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150