JP7381680B1 - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7381680B1 JP7381680B1 JP2022147570A JP2022147570A JP7381680B1 JP 7381680 B1 JP7381680 B1 JP 7381680B1 JP 2022147570 A JP2022147570 A JP 2022147570A JP 2022147570 A JP2022147570 A JP 2022147570A JP 7381680 B1 JP7381680 B1 JP 7381680B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- avatar
- display device
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 84
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000033001 locomotion Effects 0.000 claims abstract description 13
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 230000001960 triggered effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 21
- 238000000034 method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Abstract
【課題】VRを利用するユーザとARを利用するユーザとが行動を共にしやすくする。
【解決手段】情報処理装置3は、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御されるアバターを示すARオブジェクトを、第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、仮想空間におけるアバターの存在位置に対応する実空間の位置である実アバター位置に提示するAR制御部333を備え、AR制御部333は、実アバター位置に関する情報をARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして表示デバイスにさらに提示する。
【選択図】図3
An object of the present invention is to make it easier for a user using VR and a user using AR to act together.
[Solution] An information processing device 3 displays an AR object representing an avatar whose motion is controlled based on control information for controlling the avatar of the first user in a virtual space associated with a real space. The AR control unit 333 includes an AR control unit 333 that displays a display device used by a second user different from the user at a real avatar position that is a position in real space corresponding to the position of the avatar in the virtual space, and the AR control unit 333 includes: Information regarding the actual avatar position is further presented on the display device as an information AR object that is an AR object different from the AR object.
[Selection diagram] Figure 3
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
近年、VR(Virtual Reality)及びAR(Augmented Reality)に関するコンテンツを提供するサービスが普及しつつある。特許文献1には、第1ユーザに対して仮想世界における所定の場所のVRに関するコンテンツを提供し、第2ユーザに対して第1ユーザのアバターを配置したARに関するコンテンツを提供する技術が開示されている。 In recent years, services that provide content related to VR (Virtual Reality) and AR (Augmented Reality) are becoming popular. Patent Document 1 discloses a technology for providing a first user with VR-related content at a predetermined location in a virtual world, and providing a second user with AR-related content in which an avatar of the first user is placed. ing.
上記技術を用いることにより、実空間における所定の場所に存在するユーザと、当該所定の場所に存在しないユーザとが行動を共にすることができる。しかしながら、これらのユーザは、お互いの実体を直接視認することができないため、行動を共にすることが難しい場合があった。 By using the above technology, a user who is present at a predetermined location in real space and a user who is not present at the predetermined location can act together. However, since these users cannot directly visually recognize each other's entities, it is sometimes difficult for these users to act together.
そこで、本発明はこれらの点に鑑みてなされたものであり、VRを利用するユーザとARを利用するユーザとが行動を共にしやすくすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to make it easier for users who use VR and users who use AR to act together.
本発明の第1の態様に係る情報処理装置は、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示するAR制御部を備え、前記AR制御部は、前記実アバター位置に関する情報を前記ARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示する。 An information processing device according to a first aspect of the present invention includes an AR object showing an avatar whose motion is controlled based on control information for controlling the avatar of a first user in a virtual space associated with a real space. to a display device used by a second user different from the first user, at a real avatar position that is a position in the real space corresponding to the existing position of the avatar in the virtual space. The AR control unit further presents information regarding the real avatar position to the display device as an information AR object that is an AR object different from the AR object.
前記情報処理装置は、前記制御情報によって示される前記仮想空間における方向に前記アバターを移動させることによって前記アバターの動作を制御するVR制御部をさらに備えてもよいし、前記AR制御部は、前記ARオブジェクトを、前記VR制御部が前記制御情報に基づいて前記仮想空間における前記アバターの動作を制御した後における前記アバターの存在位置に対応する前記実アバター位置に提示してもよい。 The information processing device may further include a VR control unit that controls the motion of the avatar by moving the avatar in a direction in the virtual space indicated by the control information, and the AR control unit may The AR object may be presented at the real avatar position corresponding to the avatar's existing position after the VR control unit controls the movement of the avatar in the virtual space based on the control information.
前記AR制御部は、前記制御情報によって示される前記実空間における方向に前記ARオブジェクトを移動させることによって前記ARオブジェクトの動作を制御し、前記ARオブジェクトを、前記制御情報に基づいて制御した後における前記実アバター位置に提示してもよい。 The AR control unit controls the operation of the AR object by moving the AR object in a direction in the real space indicated by the control information, and controls the AR object after controlling it based on the control information. It may be presented at the position of the real avatar.
前記情報処理装置は、前記第1ユーザが利用する第1表示デバイスであって前記表示デバイスである第2表示デバイスとは異なる前記第1表示デバイスに対して、前記実空間に存在する構造物を示すVRオブジェクトである構造物オブジェクトを、前記構造物の位置に対応する前記仮想空間の位置に提示するVR制御部をさらに備えてもよい。 The information processing device displays a structure existing in the real space on the first display device that is a first display device used by the first user and is different from a second display device that is the display device. The apparatus may further include a VR control unit that presents a structure object, which is the VR object shown, at a position in the virtual space corresponding to a position of the structure.
前記情報処理装置は、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記仮想空間における前記アバターの位置と、前記デバイス位置に対応する前記仮想空間における位置との間に、前記構造物オブジェクトが存在すると前記VR制御部が判定することを契機として、前記情報ARオブジェクトを前記表示デバイスに表示させてもよい。 The information processing apparatus may further include a position information acquisition unit that acquires a device position indicating the position of the second display device in the real space, and the AR control unit acquires a position of the avatar in the virtual space. and a position in the virtual space corresponding to the device position, when the VR control unit determines that the structure object exists, the information AR object may be displayed on the display device. good.
前記情報処理装置は、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記実アバター位置と、前記デバイス位置との間に、前記構造物が存在することを契機として、前記情報ARオブジェクトを前記表示デバイスに表示させてもよい。 The information processing apparatus may further include a position information acquisition unit that acquires a device position indicating the position of the second display device in the real space, and the AR control unit is configured to acquire the position of the second display device in the real space. The information AR object may be displayed on the display device in response to the presence of the structure between the information AR object and the location.
前記情報処理装置は、前記実空間における前記第2ユーザが利用する表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記実アバター位置と前記デバイス位置との距離が、あらかじめ定められた情報表示閾距離より大きくなることを契機として前記情報ARオブジェクトを前記表示デバイスに表示させてもよい。 The information processing device may further include a position information acquisition unit that acquires a device position indicating the position of a display device used by the second user in the real space, and the AR control unit may The information AR object may be displayed on the display device when the distance between the information AR object and the device position becomes larger than a predetermined information display threshold distance.
前記AR制御部は、前記アバターが存在する位置を示す地図情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させてもよい。 The AR control unit may display map information indicating a position where the avatar exists on the display device as the information AR object.
前記情報処理装置は、前記実空間における前記第2ユーザが利用する表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記実アバター位置と前記デバイス位置との距離を示す情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させてもよい。 The information processing device may further include a position information acquisition unit that acquires a device position indicating the position of a display device used by the second user in the real space, and the AR control unit may and the device position may be displayed on the display device as the information AR object.
前記AR制御部は、前記表示デバイスの位置を始点とした場合の前記実アバター位置の方向を示す情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させてもよい。
前記AR制御部は、前記第1ユーザとあらかじめ関連付けられた第2ユーザが利用する表示デバイスに前記情報ARオブジェクトを表示させてもよい。
The AR control unit may cause the display device to display information indicating the direction of the real avatar position when the position of the display device is a starting point, as the information AR object.
The AR control unit may display the information AR object on a display device used by a second user associated with the first user in advance.
本発明の第2の態様に係る情報処理方法は、コンピュータが実行する、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるステップを備え、前記ARオブジェクトを提示させるステップにおいて、前記実アバター位置に関する情報を前記ARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる。 In the information processing method according to the second aspect of the present invention, the operation is controlled based on control information for controlling the avatar of the first user in the virtual space associated with the real space, which is executed by the computer. Presenting an AR object representing the avatar to a display device used by a second user different from the first user at a real avatar position that is a position in the real space corresponding to the existing position of the avatar in the virtual space. and in the step of presenting the AR object, the display device further presents information regarding the real avatar position as an information AR object that is an AR object different from the AR object.
本発明の第3の態様に係るプログラムは、コンピュータを、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるAR制御部として機能させ、前記AR制御部は、前記実アバター位置に関する情報を前記ARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる。 A program according to a third aspect of the present invention is configured to cause a computer to use an AR indicative of an avatar whose motion is controlled based on control information for controlling an avatar of a first user in a virtual space associated with a real space. an AR control unit that causes an object to be presented on a display device used by a second user different from the first user at a real avatar position that is a position in the real space that corresponds to the existing position of the avatar in the virtual space; The AR control unit further causes the display device to present information regarding the real avatar position as an information AR object that is an AR object different from the AR object.
本発明によれば、VRを利用するユーザとARを利用するユーザとが行動を共にしやすくすることができるという効果を奏する。 According to the present invention, it is possible to make it easier for a user who uses VR and a user who uses AR to act together.
[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、イベント提供サービスを提供するために用いられるシステムである。イベント提供サービスは、実空間における所定の場所(以下、「行動場所」という。)において、実空間における行動場所に存在しない第1ユーザのアバターと、実空間における行動場所に存在する第2ユーザとを共に行動させるイベントを提供するサービスである。
[Overview of information processing system S]
FIG. 1 is a diagram for explaining an overview of the information processing system S. As shown in FIG. The information processing system S is a system used to provide an event providing service. The event providing service provides, at a predetermined place in real space (hereinafter referred to as "behavior place"), an avatar of a first user who does not exist at the action place in real space and a second user who exists at the action place in real space. This is a service that provides events that encourage people to act together.
第1ユーザは、例えば、行動場所を案内するガイド、又は第2ユーザとアバターを通して散歩する芸能人等であり、例えば、イベント提供サービスを管理する事業者からの依頼に応じてイベント提供サービスに参加するユーザである。第2ユーザは、第1ユーザとは異なるユーザであり、例えば、第1ユーザとの行動を希望してイベント提供サービスに参加するユーザである。情報処理システムSは、第1表示デバイス1と、第2表示デバイス2と、情報処理装置3とを有する。情報処理システムSは、複数の第2表示デバイス2を有してもよい。 The first user is, for example, a guide who shows the place of action, or a celebrity who takes a walk with the second user through an avatar, and, for example, participates in the event providing service in response to a request from a business that manages the event providing service. I am a user. The second user is a user different from the first user, and is, for example, a user who participates in the event providing service hoping to interact with the first user. The information processing system S includes a first display device 1, a second display device 2, and an information processing device 3. The information processing system S may include a plurality of second display devices 2.
第1表示デバイス1は、第1ユーザが利用する表示デバイスであり、例えば、スマートフォン、タブレット、パーソナルコンピュータ又はヘッドマウントディスプレイ等である。第1表示デバイス1は、VRに関する情報を表示する。第1表示デバイス1は、操作を受け付けるためのタッチパネル、キーボード又はコントローラ等の操作部と、音声を取得するためのマイク等の集音部と、音声を出力するためのスピーカ及び情報を表示するための液晶ディスプレイ等の出力部とを有する。第1表示デバイス1は、ネットワークを介して情報処理装置3と通信可能である。 The first display device 1 is a display device used by a first user, and is, for example, a smartphone, a tablet, a personal computer, a head-mounted display, or the like. The first display device 1 displays information regarding VR. The first display device 1 includes an operation unit such as a touch panel, keyboard, or controller for receiving operations, a sound collection unit such as a microphone for acquiring audio, a speaker for outputting audio, and a display unit for displaying information. It has an output section such as a liquid crystal display. The first display device 1 can communicate with the information processing device 3 via a network.
第2表示デバイス2は、第2ユーザが利用する表示デバイスであり、例えば、スマートフォン又はタブレット等である。第2表示デバイス2は、ARに関する情報を表示する。第2表示デバイス2は、操作を受け付けるためのタッチパネル、キーボード又はコントローラ等の操作部と、音声を取得するためのマイク等の集音部と、音声を出力するためのスピーカ及び情報を表示するための液晶ディスプレイ等の出力部と、情報を読み取るためのカメラ等の撮像部と、第2表示デバイス2の位置を測定するためのGPS(Global Positioning System)受信部とを有する。第2表示デバイス2は、ネットワークを介して情報処理装置3と通信可能である。 The second display device 2 is a display device used by a second user, and is, for example, a smartphone or a tablet. The second display device 2 displays information regarding AR. The second display device 2 includes an operation unit such as a touch panel, keyboard, or controller for receiving operations, a sound collection unit such as a microphone for acquiring audio, a speaker for outputting audio, and a speaker for displaying information. It has an output section such as a liquid crystal display, an imaging section such as a camera for reading information, and a GPS (Global Positioning System) receiving section for measuring the position of the second display device 2. The second display device 2 can communicate with the information processing device 3 via the network.
情報処理装置3は、イベント提供サービスを管理するために用いられる装置であり、例えばサーバである。情報処理装置3は、ネットワークを介して第1表示デバイス1及び第2表示デバイス2と通信可能である。情報処理装置3は、VRに関する情報を第1ユーザに提示する処理を実行するためのVR制御処理と、ARに関する情報を第2ユーザに提示する処理を実行するためのAR制御処理とを実行する。本明細書において、情報処理システムは、VR制御処理とAR制御処理とを実行する1つの情報処理装置3を含む例を説明するが、これに限らず、VR制御処理を実行する第1の情報処理装置3と、AR制御処理を実行する第2の情報処理装置3とを含んでもよい。 The information processing device 3 is a device used to manage an event providing service, and is, for example, a server. The information processing device 3 can communicate with the first display device 1 and the second display device 2 via a network. The information processing device 3 executes a VR control process for executing a process for presenting information regarding VR to a first user, and an AR control process for executing a process for presenting information regarding AR to a second user. . In this specification, an example will be described in which the information processing system includes one information processing device 3 that executes VR control processing and AR control processing, but is not limited thereto. It may include a processing device 3 and a second information processing device 3 that executes AR control processing.
VR制御処理で提示される仮想空間は、実空間と対応づけられており、情報処理装置3は、第1表示デバイス1に対して、所定の物体が存在する実空間の位置に対応する仮想空間の位置に当該所定の物体を示すオブジェクトであって、仮想空間において表示されるVRオブジェクトを提示する。また、情報処理装置3は、第2表示デバイス2に対して、VRオブジェクトが存在する仮想空間の位置に対応する実空間の位置にVRオブジェクトに対応するオブジェクトであって、実空間において表示されるARオブジェクトを提示する。 The virtual space presented in the VR control process is associated with the real space, and the information processing device 3 displays the virtual space corresponding to the position in the real space where a predetermined object exists with respect to the first display device 1. A VR object that represents the predetermined object and is displayed in the virtual space is presented at the position. The information processing device 3 also displays an object corresponding to the VR object in the real space at a position in the real space corresponding to a position in the virtual space where the VR object exists, to the second display device 2. Present an AR object.
図2は、仮想空間と実空間との対応付けの一例を模式的に表した図である。図2に示す例において、空間Rは実空間であり、物体B(例えば、ビル及び道路等の構造物)と、第2ユーザである人Hとが存在する。空間Vは仮想空間であり、オブジェクトAは第1ユーザのアバターを示すVRオブジェクトである。 FIG. 2 is a diagram schematically showing an example of the correspondence between virtual space and real space. In the example shown in FIG. 2, space R is a real space, and object B (for example, structures such as buildings and roads) and person H, who is the second user, exist. Space V is a virtual space, and object A is a VR object representing the first user's avatar.
情報処理装置3は、第1表示デバイス1に対して、空間Rにおける物体Bの位置に対応する空間Vの位置P1に物体Bを示すVRオブジェクトを提示し、空間Rにおける人Hの位置に対応する空間Vの位置P2に人Hのアバターを示すVRオブジェクトを提示する。また、情報処理装置3は、第2表示デバイス2に対して、空間VにおけるオブジェクトAの位置に対応する空間Rの位置P3にオブジェクトAを示すARオブジェクトを提示する。このようにすることで、情報処理装置3は、第2ユーザが第1ユーザと行動を共にすることを疑似的に体験させることができる。 The information processing device 3 presents the first display device 1 with a VR object indicating the object B at a position P1 in the space V corresponding to the position of the object B in the space R, and the VR object corresponds to the position of the person H in the space R. A VR object representing an avatar of person H is presented at position P2 in space V. Furthermore, the information processing device 3 presents the second display device 2 with an AR object that indicates the object A at a position P3 in the space R that corresponds to the position of the object A in the space V. By doing so, the information processing device 3 can allow the second user to experience a simulated experience of acting together with the first user.
ここで、第1ユーザと第2ユーザとは、実空間においてお互いの実体を直接視認することができないため、第1ユーザ及び第2ユーザが行動を共にすることが難しい場合がある。例えば、第1ユーザ及び第2ユーザそれぞれの移動のペースが異なると、第1ユーザ又は第2ユーザの一方が他方を見失ってしまう事態が生じ得る。そこで、情報処理装置3は、第1ユーザ及び第2ユーザそれぞれの位置に関する情報をさらに提示する。 Here, since the first user and the second user cannot directly visually recognize each other in real space, it may be difficult for the first user and the second user to act together. For example, if the first user and the second user move at different paces, a situation may arise where either the first user or the second user loses sight of the other. Therefore, the information processing device 3 further presents information regarding the respective positions of the first user and the second user.
具体的には、情報処理装置3は、第1表示デバイス1に対して情報VRオブジェクトをさらに提示し、第2表示デバイス2に対して情報ARオブジェクトをさらに提示する。情報VRオブジェクトは、第2ユーザ(図2に示す例における人H)のアバターの位置に関する情報を示すVRオブジェクトであって、物体Bを示すVRオブジェクト及び人Hのアバターを示すVRオブジェクトとは異なるVRオブジェクトである。情報ARオブジェクトは、仮想空間における第1ユーザのアバターの位置に対応する実空間の位置(図2に示す例における位置P3)に関する情報を示すARオブジェクトであって、第1ユーザのアバターを示すARオブジェクトとは異なるARオブジェクトである。 Specifically, the information processing device 3 further presents an information VR object to the first display device 1 and further presents an information AR object to the second display device 2. The information VR object is a VR object indicating information regarding the position of the avatar of the second user (person H in the example shown in FIG. 2), and is different from the VR object indicating object B and the VR object indicating the avatar of person H. It is a VR object. The information AR object is an AR object indicating information regarding a position in real space (position P3 in the example shown in FIG. 2) corresponding to the position of the first user's avatar in the virtual space, and is an AR object indicating the first user's avatar. This is an AR object different from the object.
このようにすることで、情報処理システムSは、第1ユーザ及び第2ユーザがお互いのがどこにいるのかを把握させることができる。これにより、情報処理システムSは、第1ユーザ及び第2ユーザがお互いを見失ってしまう事態の発生を低減させることができる。その結果、情報処理システムSは、第1ユーザ及び第2ユーザが行動を共にしやすくさせることができる。
以下、情報処理装置3の構成について説明する。
By doing so, the information processing system S can make the first user and the second user know where each other is. Thereby, the information processing system S can reduce the occurrence of a situation in which the first user and the second user lose sight of each other. As a result, the information processing system S can make it easier for the first user and the second user to act together.
The configuration of the information processing device 3 will be described below.
[情報処理装置3の構成]
図3は、情報処理装置3のブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってもよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of information processing device 3]
FIG. 3 is a block diagram of the information processing device 3. In FIG. 3, arrows indicate main data flows, and data flows other than those shown in FIG. 3 may exist. In FIG. 3, each block shows the configuration not in hardware (device) units but in functional units. Therefore, the blocks shown in FIG. 3 may be implemented within a single device, or may be implemented separately within multiple devices. Data may be exchanged between blocks via any means such as a data bus, network, or portable storage medium.
情報処理装置3は、通信部31と、記憶部32と、制御部33とを有する。情報処理装置3は、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。また、情報処理装置3は、コンピュータ資源の集合であるクラウドによって構成されてもよい。
The information processing device 3 includes a
通信部31は、ネットワークを介して第1表示デバイス1及び第2表示デバイス2との間でデータを送受信するための通信コントローラを有する。通信部31は、第1表示デバイス1又は第2表示デバイス2からネットワークを介して受信したデータを制御部33に通知する。また、通信部31は、ネットワークを介して、制御部33から出力されたデータを第1表示デバイス1又は第2表示デバイス2に送信する。
The
記憶部32は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部32は、制御部33が実行するプログラムを予め記憶している。記憶部32は、情報処理装置3の外部に設けられてもよく、その場合にネットワークを介して制御部33との間でデータの授受を行ってもよい。
The
記憶部32は、仮想空間を生成するための三次元マップと、VRオブジェクト情報と、第1ユーザに関する情報と、第2ユーザに関する情報とを記憶している。例えば、三次元マップには、実空間における位置座標に対応する位置座標が定められている。VRオブジェクト情報は、例えば、実空間に存在する建物及び道路等の構造物を示すVRオブジェクトに関する情報であり、少なくとも、VRオブジェクトの属性(例えば、形、色等)と、仮想空間におけるVRオブジェクトの位置とを含む。第1ユーザに関する情報は、例えば、第1ユーザを識別するための識別情報(ID:identifier)、及び第1ユーザの名前等を含む。第2ユーザに関する情報は、例えば、第2ユーザのID、及び第2ユーザの名前等を含む。
The
記憶部32は、第1ユーザと第2ユーザとが行動を共にするイベントを管理するイベント管理データベースを記憶している。図4は、イベント管理データベースの構成の一例を示す図である。図4に示す例において、イベント管理データベースは、イベントIDと、開始日時と、開始場所と、VR参加者と、AR参加者とを関連付けて記憶している。
The
開始日時は、イベントが開始される日時である。開始場所は、イベントが開始される場所である。VR参加者は、VRでイベントに参加する第1ユーザを示す情報であり、例えば、第1ユーザのIDで示される。AR参加者は、ARでイベントに参加する一以上の第2ユーザを示す情報であり、例えば、第2ユーザのIDで示される。 The start date and time is the date and time when the event starts. The start location is the location where the event is started. The VR participant is information indicating a first user who participates in an event using VR, and is indicated by, for example, the ID of the first user. The AR participant is information indicating one or more second users who participate in an event in AR, and is indicated by, for example, the ID of the second user.
図3に戻り、制御部33は、取得部331と、VR制御部332と、AR制御部333と、送信部334とを有する。制御部33は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部32に記憶されたプログラムを実行することにより、取得部331、VR制御部332、AR制御部333及び送信部334として機能する。取得部331、VR制御部332、AR制御部333及び送信部334それぞれが行う処理については後述する。
Returning to FIG. 3, the
[VR制御処理]
まず、情報処理装置3が実行するVR制御処理について説明する。VR制御部332は、制御情報に基づいて第1ユーザのアバターの動作を制御する。制御情報は、仮想空間における第1ユーザのアバターを制御するための情報である。
[VR control processing]
First, the VR control process executed by the information processing device 3 will be described. The
例えば、第1ユーザが第1表示デバイスにおいて仮想空間を移動するための操作を行うと、第1表示デバイス1は、第1ユーザの操作を示す情報を制御情報として情報処理装置3に送信する。そして、取得部331が第1表示デバイス1から制御情報を取得すると、VR制御部332は、当該制御情報によって示される仮想空間における方向に第1ユーザのアバターを移動させることによって第1ユーザのアバターの動作を制御する。
For example, when the first user performs an operation to move in the virtual space on the first display device, the first display device 1 transmits information indicating the first user's operation to the information processing device 3 as control information. Then, when the
制御情報は、仮想空間における第1ユーザのアバターが予め定められたルートを移動するための情報であってもよい。例えば、イベント管理データベースには、イベントに対応する制御情報がさらに関連付けて記憶されている。この場合において、VR制御部332は、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、当該イベントに対応するイベントIDに関連付けられている制御情報に基づいて、第1ユーザのアバターの動作を制御する。
The control information may be information for the first user's avatar to move along a predetermined route in the virtual space. For example, the event management database further stores control information corresponding to the event in association with the event. In this case, in a certain event, when the start date and time of the event has passed, the
VR制御部332は、VRオブジェクトを第1表示デバイス1に提示する処理を実行する。具体的には、VR制御部332は、VRオブジェクトとして構造物オブジェクトを第1表示デバイス1に表示させる。構造物オブジェクトは、仮想空間において構造物(実空間に存在する構造物)を示すVRオブジェクトである。より具体的には、VR制御部332は、構造物オブジェクトを、実空間における構造物の位置に対応する仮想空間の位置に表示させる。
The
例えば、まず、VR制御部332は、記憶部32に記憶されている三次元マップ及びVRオブジェクト情報に基づいて、所定の範囲の仮想空間であって、実空間における構造物の位置に対応する仮想空間の位置に配置した構造物オブジェクトを含む仮想空間が表示されたVR画像を生成する。所定の範囲は、第1ユーザのアバターの位置に応じて定まる範囲(例えば、第1ユーザのアバターの位置から100メートルまでの範囲)、又はイベント提供サービスにおいて第1ユーザと第2ユーザとが行動する範囲として予め定められた行動範囲等である。送信部334は、VR制御部332が生成したVR画像を第1表示デバイス1に送信する。そして、第1表示デバイス1は、取得したVR画像を表示させる。
For example, first, based on the three-dimensional map and VR object information stored in the
VR制御部332は、第1表示デバイス1にVR画像を生成させてもよい。例えば、まず、VR制御部332は、記憶部32に記憶されている三次元マップ及びVRオブジェクト情報の中から、所定の範囲に含まれる三次元マップの部分及びVRオブジェクト情報の部分を特定する。送信部334は、VR制御部332が特定した三次元マップ及びVRオブジェクト情報を第1表示デバイス1に送信する。そして、第1表示デバイス1は、取得した三次元マップ及びVRオブジェクト情報に基づいて、構造物オブジェクトを含む仮想空間が表示されたVR画像を生成し、生成したVR画像を表示する。
The
VR制御部332は、VRオブジェクトとして第1ユーザVRオブジェクトを第1表示デバイス1に表示させてもよい。第1ユーザVRオブジェクトは、第1ユーザのアバターを示すVRオブジェクトであって、構造物オブジェクトとは異なるVRオブジェクトである。
The
具体的には、VR制御部332は、第1ユーザVRオブジェクトを、制御情報に基づいて第1表示デバイス1に表示させる。より具体的には、VR制御部332は、第1ユーザVRオブジェクトを、制御情報に基づいて第1ユーザのアバターの動作を制御した後の仮想空間の位置に表示させる。
Specifically, the
VR制御部332は、VRオブジェクトとして第2ユーザVRオブジェクトを第1表示デバイス1に表示させてもよい。第2ユーザVRオブジェクトは、第2ユーザのアバターを示すVRオブジェクトであって、構造物オブジェクト及び第1ユーザVRオブジェクトとは異なるVRオブジェクトである。
The
具体的には、まず、取得部331は、位置情報取得部として機能し、第2表示デバイス2から、第2表示デバイス2のデバイス位置を取得する。デバイス位置は、実空間における第2表示デバイス2の位置を示す情報であり、例えば、第2表示デバイス2のGPS受信部が受信した情報に基づいて測定された位置を示す情報である。デバイス位置は、これに限らず、第2表示デバイス2の撮像部が周囲を撮像した撮像画像に基づいて特定された位置を示す情報であってもよく、この場合、第2表示デバイス2が撮像画像に基づいて位置を特定してもよいし、情報処理装置3が撮像画像に基づいて位置を特定してもよい。そして、VR制御部332は、取得部331が取得したデバイス位置に対応する仮想空間の位置に、第2ユーザVRオブジェクトを第1表示デバイス1に表示させる。
Specifically, first, the
VR制御部332は、VRオブジェクトとして情報VRオブジェクトを第1表示デバイス1に表示させる。情報VRオブジェクトは、構造物オブジェクト、第1ユーザVRオブジェクト及び第2ユーザVRオブジェクトとは異なるVRオブジェクトである。
The
具体的には、VR制御部332は、実空間における第2表示デバイス2のデバイス位置に対応する仮想空間における第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、第1表示デバイス1に表示させる。位置に関する情報は、例えば、第2ユーザのアバターの位置を示す情報である。より具体的には、VR制御部332は、第2ユーザVRオブジェクトが存在する位置を示す地図情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。
Specifically, the
図5は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図5に示す例において、第1表示デバイス1に表示されているVR画像である画像V1には、地図情報であるオブジェクトX1が表示されている。オブジェクトX1には、第1ユーザのアバターの位置を示すマークL1と、第2ユーザのアバターの位置を示すマークL2とが表示されている。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトがどこにいるかを把握することができる。 FIG. 5 is a diagram schematically showing a VR image displayed on the first display device 1. In the example shown in FIG. 5, an image V1 that is a VR image displayed on the first display device 1 displays an object X1 that is map information. A mark L1 indicating the position of the first user's avatar and a mark L2 indicating the position of the second user's avatar are displayed on the object X1. By causing the information processing device 3 to display such an information VR object on the first display device 1, the first user can grasp where the second user VR object is located.
位置に関する情報は、第1ユーザから第2ユーザまでの距離を示す情報であってもよい。具体的には、VR制御部332は、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離、又は仮想空間における第1ユーザVRオブジェクトの位置からデバイス位置に対応する仮想空間の位置までの距離を示す情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。
The information regarding the position may be information indicating the distance from the first user to the second user. Specifically, the
例えば、まず、VR制御部332は、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定する。VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から仮想空間における第2ユーザVRオブジェクトの位置までの距離を特定してもよい。また、VR制御部332は、第1の空間(仮想空間及び実空間のうちのいずれか)における第1ユーザの位置から、第1の空間とは異なる第2の空間(第1の空間が仮想空間である場合、第2の空間は実空間であり、第1の空間が実空間である場合、第2の空間は仮想区間である。)における第2ユーザの位置までの距離を特定してもよい。送信部334は、VR制御部332が特定した距離を示す情報を、位置に関する情報として第1表示デバイス1に送信する。そして、第1表示デバイス1は、距離を示す情報を情報VRオブジェクトとして表示させる。
For example, first, the
図6は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図6に示す例において、第1表示デバイス1に表示されているVR画像である画像V2には、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離が表示されている。なお、画像V2には、オブジェクトX2として、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離を示すメッセージが表示されていてもよい。VR制御部332が、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定した場合、画像V2には、オブジェクトX2として、第2ユーザとの距離が離れすぎていることを示すメッセージ又は警告を示すメッセージが表示されていてもよい。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトとどのくらい離れているかを把握することができる。
FIG. 6 is a diagram schematically showing a VR image displayed on the first display device 1. In the example shown in FIG. 6, the image V2, which is a VR image displayed on the first display device 1, is displayed on the second display device 2 from a position in real space corresponding to the position of the first user's avatar in the virtual space. The distance to the device location is displayed. Note that a message indicating the distance from the position of the first user VR object to the position of the second user VR object may be displayed as the object X2 in the image V2. When the
位置に関する情報は、第2ユーザVRオブジェクトの方向を示す情報であってもよい。具体的には、VR制御部332は、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を示す情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。
The information regarding the position may be information indicating the direction of the second user VR object. Specifically, the
例えば、まず、VR制御部332は、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を特定する。送信部334は、VR制御部332が特定した方向を示す情報を、位置に関する情報として第1表示デバイス1に送信する。そして、第1表示デバイス1は、方向を示す情報を情報VRオブジェクトとして表示させる。
For example, first, the
図7は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図7に示す例において、第1表示デバイス1に表示されているVR画像である画像V3には、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を示す矢印のオブジェクトX3が表示されている。なお、画像V3には、オブジェクトX3として、第1ユーザVRオブジェクトが向いている方向に対する第2ユーザVRオブジェクトの位置を示す矢印が表示されていてもよい。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトがどの方向にいるかを把握することができる。 FIG. 7 is a diagram schematically showing a VR image displayed on the first display device 1. In the example shown in FIG. 7, the image V3 which is the VR image displayed on the first display device 1 includes an arrow object X3 indicating the direction of the second user VR object when the first user VR object is the starting point. is displayed. Note that an arrow indicating the position of the second user VR object with respect to the direction in which the first user VR object is facing may be displayed as the object X3 in the image V3. By causing the information processing device 3 to display such an information VR object on the first display device 1, the first user can grasp in which direction the second user VR object is located.
VR制御部332は、位置に関する情報として、第2ユーザVRオブジェクトが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第2ユーザVRオブジェクトの方向を示す情報とのうちのいずれかを表示させてもよいし、第2ユーザVRオブジェクトが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第2ユーザVRオブジェクトの方向を示す情報とを同時に表示させてもよい。
The
VR制御部332は、例えば、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、情報VRオブジェクトを第1表示デバイス1に表示させる。VR制御部332は、所定の条件を満たす場合に、情報VRオブジェクトを第1表示デバイス1に表示させてもよい。
For example, the
具体的には、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離、又は仮想空間における第1ユーザVRオブジェクトの位置からデバイス位置に対応する仮想空間の位置までの距離が情報表示閾距離より大きくなることを契機として情報VRオブジェクトを第1表示デバイス1に表示させる。情報表示閾距離は、予め定められた数値である。情報表示閾距離は、人及び建物が多い都市部、街中等においては短い距離が定められ、人及び建物が少ない郊外、河川敷等においては長い距離が定められる等のように、行動場所に応じて異なっていてもよい。
Specifically, the
例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離が情報表示閾距離より大きいか否かを判定する。そして、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離が情報表示閾距離より大きいと判定した場合に、情報VRオブジェクトを第1表示デバイス1に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトと離れていることを認識することができる。
For example, first, every time the
VR制御部332は、第2ユーザVRオブジェクトが構造物オブジェクトで遮蔽されてしまった場合に、情報VRオブジェクトを第1表示デバイス1に表示させてもよい。具体的には、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間、又は仮想空間における第1ユーザVRオブジェクトの位置とデバイス位置に対応する仮想空間の位置との間に構造物オブジェクトが存在することを契機として、情報VRオブジェクトを第1表示デバイスに表示させる。
The
例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在するか否かを判定する。そして、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在すると判定した場合に、情報VRオブジェクトを第1表示デバイス1に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトが見えなくなったことを認識することができる。
For example, first, each time the
VR制御部332は、例えば、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、VRオブジェクトを第1表示デバイス1に提示する処理を実行する。VR制御部332は、イベントに参加した第2ユーザのアバターに対応する情報VRオブジェクトを第1表示デバイス1に表示させてもよい。
For example, in a certain event, the
具体的には、VR制御部332は、第1ユーザとあらかじめ関連付けられた第2ユーザのアバターに対応する情報VRオブジェクトを第1表示デバイス1に表示させる。VR制御部332は、例えば、イベント管理データベースにおいて、VR参加者(第1ユーザ)と関連付けられているAR参加者(第2ユーザ)のアタバーに対応する情報VRオブジェクトを第1表示デバイス1に表示させる。このようにすることで、情報処理装置3は、イベントに参加していない第2ユーザのアバターに対応する情報VRオブジェクトの表示を抑止することができる。
Specifically, the
なお、VR制御部332は、イベントに参加している第2ユーザのアバターと、当該イベントに参加していない第2ユーザのアバターとをそれぞれ異なる態様で表示させてもよい。VR制御部332は、例えば、イベントに参加している第2ユーザに対応する第2ユーザVRオブジェクトにマーク、フラグを付けたり、当該第2ユーザVRオブジェクトに目立ち得る色(例えば、赤色、青色等)を付けたりして表示させる。一方、VR制御部332は、例えば、イベントに参加していない第2ユーザに対応する第2ユーザVRオブジェクトに色を付けなかったり(例えば、半透明)、当該第2ユーザVRオブジェクトに目立ち得ない色(例えば、白色)を付けたりして表示させる。
Note that the
[AR制御処理]
続いて、情報処理装置3が実行するAR制御処理について説明する。AR制御部333は、ARオブジェクトを第2表示デバイス2に提示する処理を実行する。具体的には、AR制御部333は、ARオブジェクトとして第1ユーザARオブジェクトを、第2表示デバイス2に対して実アバター位置に提示する。第1ユーザARオブジェクトは、第1ユーザのアバターを示すARオブジェクトである。実アバター位置は、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置である。
[AR control processing]
Next, the AR control process executed by the information processing device 3 will be described. The
例えば、まず、AR制御部333は、実アバター位置に配置した第1ユーザARオブジェクトが表示されたAR画像を生成する。送信部334は、AR制御部333が生成したAR画像を第2表示デバイス2に送信する。そして、第2表示デバイス2は、取得したAR画像を第2表示デバイス2の撮像部が撮像した撮像画像に重畳した重畳画像を表示させる。
For example, first, the
AR制御部333は、第2表示デバイス2にAR画像を生成させてもよい。例えば、まず、送信部334は、第1ユーザARオブジェクトに関するARオブジェクト情報と、実アバター位置とを第2表示デバイス2に送信する。ARオブジェクト情報は、例えば、第1ユーザARオブジェクトの形、色等を示す情報である。そして、第2表示デバイス2は、取得しARオブジェクト情報と実アバター位置とに基づいて、実アバター位置に配置された第1ユーザARオブジェクトが表示されたAR画像を生成し、生成したAR画像を第2表示デバイス2の撮像部が撮像した撮像画像に重畳した重畳画像を表示する。
The
AR制御部333は、第1ユーザARオブジェクトを、VR制御部332が制御情報に基づいて仮想空間における第1ユーザのアバターの動作を制御した後における第1ユーザのアバターの存在位置に対応する実アバター位置に提示する。具体的には、AR制御部333は、第1ユーザARオブジェクトを、第1ユーザのアバターの第1存在位置から移動させた第1ユーザのアバターの第2存在位置に対応する実アバター位置に提示する。第1存在位置は、VR制御部332が制御情報に基づいて第1ユーザのアバターを移動させる前の仮想空間の存在位置である。第2存在位置は、VR制御部332が制御情報に基づいて第1ユーザのアバターを移動させた後の仮想空間の存在位置である。
The
AR制御部333は、制御情報によって示される実空間における方向に第1ユーザARオブジェクトを移動させることによって第1ユーザARオブジェクトの動作を制御し、第1ユーザARオブジェクトを、制御情報に基づいて制御した後における実アバター位置に提示してもよい。具体的には、AR制御部333は、第1ユーザARオブジェクトを、第1実アバター位置から移動させた第2実アバター位置に提示する。第1実アバター位置は、制御情報に基づいて第1ユーザARオブジェクトを移動させる前の実空間の位置である。第2実アバター位置は、制御情報に基づいて第1ユーザARオブジェクトを移動させた後の実空間の位置である。
The
AR制御部333は、複数の第2ユーザが存在する場合、複数の第2ユーザのうちの一方に対して、ARオブジェクトとして他方の第2ユーザARオブジェクトを提示してもよい。具体的には、AR制御部333は、複数の第2ユーザのうちの一方の第2表示デバイス2に対して、他方の第2ユーザARオブジェクトを、当該他方の第2表示デバイス2のデバイス位置に表示させる。
When there are multiple second users, the
AR制御部333は、ARオブジェクトとして情報ARオブジェクトを第2表示デバイス2にさらに提示する。情報ARオブジェクトは、第1ユーザARオブジェクト及び第2ユーザARオブジェクトとは異なるARオブジェクトであるである。
The
具体的には、AR制御部333は、第1ユーザのアバターの実アバター位置に関する情報を情報ARオブジェクトとして第2表示デバイス2にさらに表示させる。実アバター位置に関する情報は、例えば、第1ユーザのアバターの位置を示す情報である。より具体的には、AR制御部333は、第1ユーザのアバターが存在する位置を示す地図情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。
Specifically, the
図8は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図8に示す例において第2表示デバイス2に表示されている画像O1は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O1には、地図情報であるオブジェクトY1が表示されている。オブジェクトY1には、第2ユーザのアバターの位置を示すマークL3と、第1ユーザのアバターの位置を示すマークL4とが表示されている。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトがどこにいるかを把握することができる。 FIG. 8 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. In the example shown in FIG. 8, the image O1 displayed on the second display device 2 is a superimposed image obtained by superimposing a captured image captured by the second display device 2 on an AR image. An object Y1, which is map information, is displayed in the image O1. A mark L3 indicating the position of the second user's avatar and a mark L4 indicating the position of the first user's avatar are displayed on the object Y1. By causing the information processing device 3 to display such an information AR object on the second display device 2, the second user can grasp where the first user AR object is located.
実アバター位置に関する情報は、第1ユーザから第2ユーザまでの距離を示す情報であってもよい。具体的には、AR制御部333は、実アバター位置とデバイス位置との距離を示す情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。
The information regarding the actual avatar position may be information indicating the distance from the first user to the second user. Specifically, the
例えば、まず、AR制御部333は、実アバター位置からデバイス位置までの距離を特定する。AR制御部333は、仮想空間における第1ユーザVRオブジェクトの位置から仮想空間における第2ユーザVRオブジェクトの位置までの距離を特定してもよい。また、AR制御部333は、第1の空間(仮想空間及び実空間のうちのいずれか)における第1ユーザの位置から、第1の空間とは異なる第2の空間(第1の空間が仮想空間である場合、第2の空間は実空間であり、第1の空間が実空間である場合、第2の空間は仮想区間である。)における第2ユーザの位置までの距離を特定してもよい。送信部334は、AR制御部333が特定した距離を示す情報を、実アバター位置に関する情報として第2表示デバイス2に送信する。そして、第2表示デバイス2は、距離を示す情報を情報VRオブジェクトとして表示させる。
For example, first, the
図9は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図9に示す例において第2表示デバイス2に表示されている画像O2は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O2には、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離を示すメッセージのオブジェクトY2が表示されている。なお、画像O2には、オブジェクトY2として、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離を示すメッセージが表示されていてもよい。AR制御部333が、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定した場合、画像O2には、オブジェクトY2として、第1ユーザとの距離が離れすぎていることを示すメッセージ又は警告を示すメッセージが表示されていてもよい。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトとどのくらい離れているかを把握することができる。
FIG. 9 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. In the example shown in FIG. 9, the image O2 displayed on the second display device 2 is a superimposed image in which the captured image captured by the second display device 2 is superimposed on the AR image. In the image O2, an object Y2 of a message indicating the distance from the first user's real avatar position to the device position of the second display device 2 is displayed. Note that a message indicating the distance from the position of the first user VR object to the position of the second user VR object may be displayed as the object Y2 in the image O2. When the
実アバター位置に関する情報は、第1ユーザARオブジェクトの方向を示す情報であってもよい。具体的には、AR制御部333は、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を示す情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。
The information regarding the real avatar position may be information indicating the direction of the first user AR object. Specifically, the
例えば、まず、AR制御部333は、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を特定する。送信部334は、AR制御部333が特定した方向を示す情報を、実アバター位置に関する情報として第2表示デバイス2に送信する。そして、第2表示デバイス2は、方向を示す情報を情報ARオブジェクトとして表示させる。
For example, first, the
図10は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図10に示す例において第2表示デバイス2に表示されている画像O3は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O3には、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を示す矢印のオブジェクトY3が表示されている。なお、画像O3には、オブジェクトY3として、第2表示デバイス2の撮像部が向いている方向に対する第1ユーザの実アバター位置を示す矢印が表示されていてもよい。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトがどの方向にいるかを把握することができる。 FIG. 10 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. In the example shown in FIG. 10, the image O3 displayed on the second display device 2 is a superimposed image obtained by superimposing the captured image captured by the second display device 2 on the AR image. In the image O3, an arrow object Y3 indicating the direction of the first user's real avatar position when the device position of the second display device 2 is the starting point is displayed. Note that an arrow indicating the position of the first user's real avatar with respect to the direction in which the imaging unit of the second display device 2 is facing may be displayed as the object Y3 in the image O3. By causing the information processing device 3 to display such an information AR object on the second display device 2, the second user can grasp in which direction the first user AR object is located.
AR制御部333は、位置に関する情報として、第1ユーザのアバターが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第1ユーザARオブジェクトの方向を示す情報とのうちのいずれかを表示させてもよいし、第1ユーザのアバターが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第1ユーザARオブジェクトの方向を示す情報とを同時に表示させてもよい。
The
AR制御部333は、例えば、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、情報ARオブジェクトを第2表示デバイス2に表示させる。AR制御部333は、所定の条件を満たす場合に、情報ARオブジェクトをAR制御部333に表示させてもよい。
The
具体的には、AR制御部333は、第1ユーザの実アバター位置と第2表示デバイス2のデバイス位置との距離が情報表示閾距離より大きくなることを契機として情報ARオブジェクトを第2表示デバイス2に表示させる。
Specifically, the
例えば、まず、AR制御部333は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離が情報表示閾距離より大きいか否かを判定する。そして、AR制御部333は、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離が情報表示閾距離より大きいと判定した場合に、情報ARオブジェクトを第2表示デバイス2に表示させる。情報処理装置3がこのような条件で情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトと離れていることを認識することができる。
For example, first, every time the
AR制御部333は、第1ユーザARオブジェクトが構造物で遮蔽されてしまった場合に、情報ARオブジェクトを第2表示デバイス2に表示させてもよい。具体的には、AR制御部333は、仮想空間における第1ユーザのアバターの位置と、第2表示デバイス2のデバイス位置に対応する仮想空間における位置との間に、構造物オブジェクトが存在するとVR制御部332が判定することを契機として、情報ARオブジェクトを第2表示デバイス2に表示させる。
The
例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在するか否かを判定する。そして、VR制御部332が、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在すると判定した場合に、AR制御部333は、情報ARオブジェクトを第2表示デバイス2に表示させる。
For example, first, each time the
AR制御部333は、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在することを契機として、情報ARオブジェクトを第2表示デバイス2に表示させてもよい。例えば、記憶部32には、実空間における地図を示す情報が記憶されている。この場合において、まず、AR制御部333は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、記憶部32に記憶されている実空間における地図を参照し、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在するか否かを判定する。そして、AR制御部333は、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在すると判定した場合に、情報ARオブジェクトを第2表示デバイス2に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトが見えなくなったことを認識することができる。
The
AR制御部333は、例えば、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、ARオブジェクトを第2表示デバイス2に提示する処理を実行する。AR制御部333は、イベントに参加した第1ユーザのアバターに対応する情報ARオブジェクトを第2表示デバイス2に表示させてもよい。
For example, in a certain event, the
具体的には、AR制御部333は、第1ユーザとあらかじめ関連付けられた第2ユーザが利用する第2表示デバイス2に情報ARオブジェクトを表示させる。AR制御部333は、例えば、イベント管理データベースにおいて、VR参加者(第1ユーザ)に対応する情報ARオブジェクトを、VR参加者に関連付けられているAR参加者(第2ユーザ)の第2表示デバイス2に表示させる。このようにすることで、情報処理装置3は、第2ユーザが参加するイベントに参加していない第1ユーザのアバターに対応する情報ARオブジェクトの表示を抑止することができる。
Specifically, the
なお、AR制御部333は、イベントに参加している第1ユーザのアバターと、当該イベントに参加していない第1ユーザのアバターとをそれぞれ異なる態様で表示させてもよい。AR制御部333は、例えば、イベントに参加している第1ユーザに対応する第1ユーザARオブジェクトにマーク、フラグを付けたり、当該第1ユーザARオブジェクトに目立ち得る色(例えば、赤色、青色等)を付けたりして表示させる。一方、AR制御部333は、例えば、イベントに参加していない第1ユーザに対応する第1ユーザARオブジェクトに色を付けなかったり(例えば、半透明)、当該第1ユーザARオブジェクトに目立ち得ない色(例えば、白色)を付けたりして表示させる。
Note that the
[情報処理装置3の処理の流れ]
続いて、情報処理装置3の処理の流れについて説明する。図11は、情報処理装置3の流れを示すフローチャートである。本フローチャートは、取得部331が第2表示デバイス2からデバイス位置を取得したことを契機として開始する(S1)。
[Processing flow of information processing device 3]
Next, the flow of processing of the information processing device 3 will be explained. FIG. 11 is a flowchart showing the flow of the information processing device 3. This flowchart starts when the
VR制御部332は、仮想空間における第1ユーザのアバターの位置から、第2表示デバイス2のデバイス位置に対応する第2ユーザのアバターの位置までの距離を特定する(S2)。VR制御部332は、特定した距離が情報表示閾距離より大きいか否かを判定する(S3)。
The
VR制御部332は、特定した距離が情報表示閾距離より大きくはないと判定した場合(S3においてNOの場合)、構造物オブジェクトを含むVR画像であって、情報VRオブジェクトを含まないVR画像である第1のVR画像を第1表示デバイス1に提示する(S4)。また、VR制御部332が、特定した距離が情報表示閾距離より大きくはないと判定した場合(S3においてNOの場合)、AR制御部333は、第1ユーザARオブジェクトを含むAR画像であって、情報ARオブジェクトを含まないAR画像である第1のAR画像を第2表示デバイス2に提示する(S5)。
If the
一方、VR制御部332は、特定した距離が情報表示閾距離より大きいと判定した場合(S3においてYESの場合)、構造物オブジェクトと情報VRオブジェクトとを含むVR画像である第2のVR画像を第1表示デバイス1に提示する(S6)。また、VR制御部332が、特定した距離が情報表示閾距離より大きいと判定した場合(S3においてYESの場合)、AR制御部333は、第1ユーザARオブジェクトと情報ARオブジェクトとを含むAR画像である第2のAR画像を第2表示デバイス2に提示する(S7)。
On the other hand, if the
[本実施の形態における効果]
以上説明したとおり、情報処理装置3は、第1表示デバイス1に対して第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして提示し、第2表示デバイス2に対して第1ユーザの実アバター位置に関する情報を情報ARオブジェクトとして提示する。このようにすることで、情報処理装置3は、第1ユーザ及び第2ユーザがお互いのがどこにいるのかを把握させることができる。これにより、情報処理装置3は、第1ユーザ及び第2ユーザがお互いを見失ってしまう事態の発生を低減させることができる。その結果、情報処理装置3は、第1ユーザ及び第2ユーザが行動を共にしやすくさせることができる。
[Effects of this embodiment]
As explained above, the information processing device 3 presents information regarding the position of the second user's avatar to the first display device 1 as an information VR object, and presents the first user's real avatar to the second display device 2. Information regarding location is presented as an information AR object. By doing so, the information processing device 3 can make the first user and the second user know where each other is. Thereby, the information processing device 3 can reduce the occurrence of a situation in which the first user and the second user lose sight of each other. As a result, the information processing device 3 can make it easier for the first user and the second user to act together.
なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 Furthermore, the present invention makes it possible to contribute to Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations, "Create a foundation for industry and technological innovation."
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed and integrated into arbitrary units. In addition, new embodiments created by arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effects of the new embodiment resulting from the combination have the effects of the original embodiment.
1 第1表示デバイス
2 第2表示デバイス
3 情報処理装置
31 通信部
32 記憶部
33 制御部
331 取得部
332 VR制御部
333 AR制御部
334 送信部
S 情報処理システム
1 First display device 2 Second display device 3
Claims (13)
前記実空間における前記表示デバイスの位置を示すデバイス位置を取得する位置情報取得部と、
を備え、
前記AR制御部は、前記実アバター位置及び前記デバイス位置の関係、又は前記仮想空間における前記アバターの存在位置及び前記デバイス位置に対応する前記仮想空間における位置の関係に基づいて、前記実アバター位置を示すための情報を前記ARオブジェクトとは異なるオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示する、
情報処理装置。 An AR (Augmented Reality) object representing the avatar whose motion is controlled based on control information for controlling the avatar of the first user in the virtual space that is associated with the real space is provided to the first user who is different from the first user. 2. An AR control unit that displays a real avatar position, which is a position in the real space corresponding to a position of the avatar in the virtual space, on a display device used by two users ;
a position information acquisition unit that acquires a device position indicating the position of the display device in the real space;
Equipped with
The AR control unit determines the real avatar position based on the relationship between the real avatar position and the device position, or the relationship between the avatar's existing position in the virtual space and a position in the virtual space corresponding to the device position. further presenting information to display on the display device as an information AR object that is a different object from the AR object;
Information processing device.
前記AR制御部は、前記ARオブジェクトを、前記VR制御部が前記制御情報に基づいて前記仮想空間における前記アバターの動作を制御した後における前記アバターの存在位置に対応する前記実アバター位置に提示する、
請求項1に記載の情報処理装置。 further comprising a VR (Virtual Reality) control unit that controls the movement of the avatar by moving the avatar in a direction in the virtual space indicated by the control information,
The AR control unit presents the AR object at the real avatar position corresponding to the avatar's existing position after the VR control unit controls the movement of the avatar in the virtual space based on the control information. ,
The information processing device according to claim 1.
請求項1に記載の情報処理装置。 The AR control unit controls the operation of the AR object by moving the AR object in a direction in the real space indicated by the control information, and controls the AR object after controlling it based on the control information. presenting the real avatar at the position;
The information processing device according to claim 1.
請求項1に記載の情報処理装置。 A structure that is a VR object that indicates a structure existing in the real space for the first display device that is a first display device used by the first user and is different from a second display device that is the display device. further comprising a VR control unit that presents a physical object at a position in the virtual space corresponding to a position of the structure;
The information processing device according to claim 1.
請求項4に記載の情報処理装置。 The AR control unit is configured to perform an operation when the VR control unit determines that the structure object exists between a position of the avatar in the virtual space and a position in the virtual space corresponding to the device position. , displaying the information AR object on the display device;
The information processing device according to claim 4.
請求項5に記載の情報処理装置。 The AR control unit causes the information AR object to be displayed on the display device, triggered by the presence of the structure between the real avatar position and the device position.
The information processing device according to claim 5.
請求項1に記載の情報処理装置。 The AR control unit causes the information AR object to be displayed on the display device when the distance between the real avatar position and the device position becomes larger than a predetermined information display threshold distance.
The information processing device according to claim 1.
請求項1に記載の情報処理装置。 The AR control unit causes the display device to display map information indicating a position where the avatar exists as the information AR object.
The information processing device according to claim 1.
請求項1に記載の情報処理装置。 The AR control unit causes the display device to display information indicating a distance between the real avatar position and the device position as the information AR object.
The information processing device according to claim 1.
請求項1に記載の情報処理装置。 The AR control unit causes the display device to display information indicating the direction of the real avatar position when the position of the display device is a starting point, as the information AR object.
The information processing device according to claim 1.
請求項1に記載の情報処理装置。 The AR control unit displays the information AR object on a display device used by a second user associated with the first user in advance.
The information processing device according to claim 1.
実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるステップと、
前記実空間における前記表示デバイスの位置を示すデバイス位置を取得するステップと、
を備え、
前記ARオブジェクトを提示させるステップにおいて、前記実アバター位置及び前記デバイス位置の関係、又は前記仮想空間における前記アバターの存在位置及び前記デバイス位置に対応する前記仮想空間における位置の関係に基づいて、前記実アバター位置を示すための情報を前記ARオブジェクトとは異なるオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる、
情報処理方法。 computer executes
A second user different from the first user uses an AR object representing the avatar whose motion is controlled based on control information for controlling the avatar of the first user in a virtual space associated with the real space. causing a display device to present the real avatar at a position in the real space that corresponds to the position of the avatar in the virtual space ;
obtaining a device position indicating the position of the display device in the real space;
Equipped with
In the step of presenting the AR object, based on the relationship between the real avatar position and the device position, or the relationship between the avatar's existing position in the virtual space and a position in the virtual space corresponding to the device position, further causing the display device to present information for indicating the avatar position as an information AR object that is a different object from the AR object;
Information processing method.
実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるAR制御部、及び
前記実空間における前記表示デバイスの位置を示すデバイス位置を取得する位置情報取得部、
として機能させ、
前記AR制御部は、前記実アバター位置及び前記デバイス位置の関係、又は前記仮想空間における前記アバターの存在位置及び前記デバイス位置に対応する前記仮想空間における位置の関係に基づいて、前記実アバター位置を示すための情報を前記ARオブジェクトとは異なるオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる、
プログラム。 computer,
A second user different from the first user uses an AR object representing the avatar whose motion is controlled based on control information for controlling the avatar of the first user in a virtual space associated with the real space. an AR control unit that causes a display device to display a real avatar position that is a position in the real space corresponding to a position of the avatar in the virtual space ;
a position information acquisition unit that acquires a device position indicating the position of the display device in the real space;
function as
The AR control unit determines the real avatar position based on the relationship between the real avatar position and the device position, or the relationship between the avatar's existing position in the virtual space and a position in the virtual space corresponding to the device position. further causing the display device to present information to be displayed as an information AR object that is an object different from the AR object;
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022147570A JP7381680B1 (en) | 2022-09-16 | 2022-09-16 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022147570A JP7381680B1 (en) | 2022-09-16 | 2022-09-16 | Information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7381680B1 true JP7381680B1 (en) | 2023-11-15 |
JP2024042771A JP2024042771A (en) | 2024-03-29 |
Family
ID=88729115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022147570A Active JP7381680B1 (en) | 2022-09-16 | 2022-09-16 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7381680B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1055257A (en) * | 1996-08-09 | 1998-02-24 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional virtual space display method |
WO2011099192A1 (en) * | 2010-02-15 | 2011-08-18 | 石井 美恵子 | Access control system, access control method and server |
JP2020126455A (en) * | 2019-02-05 | 2020-08-20 | 凸版印刷株式会社 | Spatial information management device |
-
2022
- 2022-09-16 JP JP2022147570A patent/JP7381680B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1055257A (en) * | 1996-08-09 | 1998-02-24 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional virtual space display method |
WO2011099192A1 (en) * | 2010-02-15 | 2011-08-18 | 石井 美恵子 | Access control system, access control method and server |
JP2020126455A (en) * | 2019-02-05 | 2020-08-20 | 凸版印刷株式会社 | Spatial information management device |
Also Published As
Publication number | Publication date |
---|---|
JP2024042771A (en) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6020446B2 (en) | Image display system, image display apparatus, image display method, and program | |
JP4065507B2 (en) | Information presentation apparatus and information processing method | |
EP1710002A1 (en) | Information processing method and apparatus | |
KR101193535B1 (en) | System for providing location based mobile communication service using augmented reality | |
US20150265922A1 (en) | Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method | |
JPWO2014080678A1 (en) | Information processing apparatus, system, information processing method, and program | |
CN113262465A (en) | Virtual reality interaction method, equipment and system | |
CN110770798A (en) | Information processing apparatus, information processing method, and program | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP6624646B2 (en) | Information presentation system, information presentation method, and information presentation program | |
US20210110596A1 (en) | Information processing device, information processing method, and program | |
CN108028906A (en) | Information processing system and information processing method | |
JP6744652B1 (en) | Congestion information notification system | |
KR20180120456A (en) | Apparatus for providing virtual reality contents based on panoramic image and method for the same | |
JP2017084100A (en) | Information communication terminal, sharing management device, information sharing method, and computer program | |
EP3739573A1 (en) | Information processing device, information processing method, and program | |
JP7381680B1 (en) | Information processing device, information processing method and program | |
JP6726016B2 (en) | Information processing device and information processing method | |
JP7329114B1 (en) | Information processing device, information processing method and program | |
JP6811323B2 (en) | Information information system, player side device, control method, and program | |
JP7424121B2 (en) | Information processing device and program | |
CN116490249A (en) | Information processing device, information processing system, information processing method, and information processing terminal | |
JP3114862B2 (en) | An interactive landscape labeling system | |
JP2009259135A (en) | Network type real-time communication system | |
EP2336976A1 (en) | System and method for providing virtiual environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221129 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
TRDD | Decision of grant or rejection written | ||
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7381680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |