JP7381680B1 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7381680B1
JP7381680B1 JP2022147570A JP2022147570A JP7381680B1 JP 7381680 B1 JP7381680 B1 JP 7381680B1 JP 2022147570 A JP2022147570 A JP 2022147570A JP 2022147570 A JP2022147570 A JP 2022147570A JP 7381680 B1 JP7381680 B1 JP 7381680B1
Authority
JP
Japan
Prior art keywords
information
user
avatar
display device
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022147570A
Other languages
Japanese (ja)
Other versions
JP2024042771A (en
Inventor
大樹 藤城
恭平 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2022147570A priority Critical patent/JP7381680B1/en
Application granted granted Critical
Publication of JP7381680B1 publication Critical patent/JP7381680B1/en
Publication of JP2024042771A publication Critical patent/JP2024042771A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

Figure 0007381680000001

【課題】VRを利用するユーザとARを利用するユーザとが行動を共にしやすくする。
【解決手段】情報処理装置3は、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御されるアバターを示すARオブジェクトを、第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、仮想空間におけるアバターの存在位置に対応する実空間の位置である実アバター位置に提示するAR制御部333を備え、AR制御部333は、実アバター位置に関する情報をARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして表示デバイスにさらに提示する。
【選択図】図3

Figure 0007381680000001

An object of the present invention is to make it easier for a user using VR and a user using AR to act together.
[Solution] An information processing device 3 displays an AR object representing an avatar whose motion is controlled based on control information for controlling the avatar of the first user in a virtual space associated with a real space. The AR control unit 333 includes an AR control unit 333 that displays a display device used by a second user different from the user at a real avatar position that is a position in real space corresponding to the position of the avatar in the virtual space, and the AR control unit 333 includes: Information regarding the actual avatar position is further presented on the display device as an information AR object that is an AR object different from the AR object.
[Selection diagram] Figure 3

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

近年、VR(Virtual Reality)及びAR(Augmented Reality)に関するコンテンツを提供するサービスが普及しつつある。特許文献1には、第1ユーザに対して仮想世界における所定の場所のVRに関するコンテンツを提供し、第2ユーザに対して第1ユーザのアバターを配置したARに関するコンテンツを提供する技術が開示されている。 In recent years, services that provide content related to VR (Virtual Reality) and AR (Augmented Reality) are becoming popular. Patent Document 1 discloses a technology for providing a first user with VR-related content at a predetermined location in a virtual world, and providing a second user with AR-related content in which an avatar of the first user is placed. ing.

特表2016-522463号公報Special Publication No. 2016-522463

上記技術を用いることにより、実空間における所定の場所に存在するユーザと、当該所定の場所に存在しないユーザとが行動を共にすることができる。しかしながら、これらのユーザは、お互いの実体を直接視認することができないため、行動を共にすることが難しい場合があった。 By using the above technology, a user who is present at a predetermined location in real space and a user who is not present at the predetermined location can act together. However, since these users cannot directly visually recognize each other's entities, it is sometimes difficult for these users to act together.

そこで、本発明はこれらの点に鑑みてなされたものであり、VRを利用するユーザとARを利用するユーザとが行動を共にしやすくすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to make it easier for users who use VR and users who use AR to act together.

本発明の第1の態様に係る情報処理装置は、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示するAR制御部を備え、前記AR制御部は、前記実アバター位置に関する情報を前記ARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示する。 An information processing device according to a first aspect of the present invention includes an AR object showing an avatar whose motion is controlled based on control information for controlling the avatar of a first user in a virtual space associated with a real space. to a display device used by a second user different from the first user, at a real avatar position that is a position in the real space corresponding to the existing position of the avatar in the virtual space. The AR control unit further presents information regarding the real avatar position to the display device as an information AR object that is an AR object different from the AR object.

前記情報処理装置は、前記制御情報によって示される前記仮想空間における方向に前記アバターを移動させることによって前記アバターの動作を制御するVR制御部をさらに備えてもよいし、前記AR制御部は、前記ARオブジェクトを、前記VR制御部が前記制御情報に基づいて前記仮想空間における前記アバターの動作を制御した後における前記アバターの存在位置に対応する前記実アバター位置に提示してもよい。 The information processing device may further include a VR control unit that controls the motion of the avatar by moving the avatar in a direction in the virtual space indicated by the control information, and the AR control unit may The AR object may be presented at the real avatar position corresponding to the avatar's existing position after the VR control unit controls the movement of the avatar in the virtual space based on the control information.

前記AR制御部は、前記制御情報によって示される前記実空間における方向に前記ARオブジェクトを移動させることによって前記ARオブジェクトの動作を制御し、前記ARオブジェクトを、前記制御情報に基づいて制御した後における前記実アバター位置に提示してもよい。 The AR control unit controls the operation of the AR object by moving the AR object in a direction in the real space indicated by the control information, and controls the AR object after controlling it based on the control information. It may be presented at the position of the real avatar.

前記情報処理装置は、前記第1ユーザが利用する第1表示デバイスであって前記表示デバイスである第2表示デバイスとは異なる前記第1表示デバイスに対して、前記実空間に存在する構造物を示すVRオブジェクトである構造物オブジェクトを、前記構造物の位置に対応する前記仮想空間の位置に提示するVR制御部をさらに備えてもよい。 The information processing device displays a structure existing in the real space on the first display device that is a first display device used by the first user and is different from a second display device that is the display device. The apparatus may further include a VR control unit that presents a structure object, which is the VR object shown, at a position in the virtual space corresponding to a position of the structure.

前記情報処理装置は、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記仮想空間における前記アバターの位置と、前記デバイス位置に対応する前記仮想空間における位置との間に、前記構造物オブジェクトが存在すると前記VR制御部が判定することを契機として、前記情報ARオブジェクトを前記表示デバイスに表示させてもよい。 The information processing apparatus may further include a position information acquisition unit that acquires a device position indicating the position of the second display device in the real space, and the AR control unit acquires a position of the avatar in the virtual space. and a position in the virtual space corresponding to the device position, when the VR control unit determines that the structure object exists, the information AR object may be displayed on the display device. good.

前記情報処理装置は、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記実アバター位置と、前記デバイス位置との間に、前記構造物が存在することを契機として、前記情報ARオブジェクトを前記表示デバイスに表示させてもよい。 The information processing apparatus may further include a position information acquisition unit that acquires a device position indicating the position of the second display device in the real space, and the AR control unit is configured to acquire the position of the second display device in the real space. The information AR object may be displayed on the display device in response to the presence of the structure between the information AR object and the location.

前記情報処理装置は、前記実空間における前記第2ユーザが利用する表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記実アバター位置と前記デバイス位置との距離が、あらかじめ定められた情報表示閾距離より大きくなることを契機として前記情報ARオブジェクトを前記表示デバイスに表示させてもよい。 The information processing device may further include a position information acquisition unit that acquires a device position indicating the position of a display device used by the second user in the real space, and the AR control unit may The information AR object may be displayed on the display device when the distance between the information AR object and the device position becomes larger than a predetermined information display threshold distance.

前記AR制御部は、前記アバターが存在する位置を示す地図情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させてもよい。 The AR control unit may display map information indicating a position where the avatar exists on the display device as the information AR object.

前記情報処理装置は、前記実空間における前記第2ユーザが利用する表示デバイスの位置を示すデバイス位置を取得する位置情報取得部をさらに備えてもよいし、前記AR制御部は、前記実アバター位置と前記デバイス位置との距離を示す情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させてもよい。 The information processing device may further include a position information acquisition unit that acquires a device position indicating the position of a display device used by the second user in the real space, and the AR control unit may and the device position may be displayed on the display device as the information AR object.

前記AR制御部は、前記表示デバイスの位置を始点とした場合の前記実アバター位置の方向を示す情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させてもよい。
前記AR制御部は、前記第1ユーザとあらかじめ関連付けられた第2ユーザが利用する表示デバイスに前記情報ARオブジェクトを表示させてもよい。
The AR control unit may cause the display device to display information indicating the direction of the real avatar position when the position of the display device is a starting point, as the information AR object.
The AR control unit may display the information AR object on a display device used by a second user associated with the first user in advance.

本発明の第2の態様に係る情報処理方法は、コンピュータが実行する、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるステップを備え、前記ARオブジェクトを提示させるステップにおいて、前記実アバター位置に関する情報を前記ARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる。 In the information processing method according to the second aspect of the present invention, the operation is controlled based on control information for controlling the avatar of the first user in the virtual space associated with the real space, which is executed by the computer. Presenting an AR object representing the avatar to a display device used by a second user different from the first user at a real avatar position that is a position in the real space corresponding to the existing position of the avatar in the virtual space. and in the step of presenting the AR object, the display device further presents information regarding the real avatar position as an information AR object that is an AR object different from the AR object.

本発明の第3の態様に係るプログラムは、コンピュータを、実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるAR制御部として機能させ、前記AR制御部は、前記実アバター位置に関する情報を前記ARオブジェクトとは異なるARオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる。 A program according to a third aspect of the present invention is configured to cause a computer to use an AR indicative of an avatar whose motion is controlled based on control information for controlling an avatar of a first user in a virtual space associated with a real space. an AR control unit that causes an object to be presented on a display device used by a second user different from the first user at a real avatar position that is a position in the real space that corresponds to the existing position of the avatar in the virtual space; The AR control unit further causes the display device to present information regarding the real avatar position as an information AR object that is an AR object different from the AR object.

本発明によれば、VRを利用するユーザとARを利用するユーザとが行動を共にしやすくすることができるという効果を奏する。 According to the present invention, it is possible to make it easier for a user who uses VR and a user who uses AR to act together.

情報処理システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of an information processing system. 仮想空間と実空間との対応付けの一例を模式的に表した図である。FIG. 2 is a diagram schematically showing an example of correspondence between virtual space and real space. 情報処理装置のブロック図である。FIG. 2 is a block diagram of an information processing device. イベント管理データベースの構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of an event management database. 第1表示デバイスに表示されるVR画像を模式的に表した図である。FIG. 3 is a diagram schematically representing a VR image displayed on a first display device. 第1表示デバイスに表示されるVR画像を模式的に表した図である。FIG. 3 is a diagram schematically representing a VR image displayed on a first display device. 第1表示デバイスに表示されるVR画像を模式的に表した図である。FIG. 3 is a diagram schematically representing a VR image displayed on a first display device. 第2表示デバイスに表示される重畳画像を模式的に表した図である。FIG. 3 is a diagram schematically showing a superimposed image displayed on a second display device. 第2表示デバイスに表示される重畳画像を模式的に表した図である。FIG. 3 is a diagram schematically showing a superimposed image displayed on a second display device. 第2表示デバイスに表示される重畳画像を模式的に表した図である。FIG. 3 is a diagram schematically showing a superimposed image displayed on a second display device. 情報処理装置の流れを示すフローチャートである。3 is a flowchart showing the flow of the information processing device.

[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、イベント提供サービスを提供するために用いられるシステムである。イベント提供サービスは、実空間における所定の場所(以下、「行動場所」という。)において、実空間における行動場所に存在しない第1ユーザのアバターと、実空間における行動場所に存在する第2ユーザとを共に行動させるイベントを提供するサービスである。
[Overview of information processing system S]
FIG. 1 is a diagram for explaining an overview of the information processing system S. As shown in FIG. The information processing system S is a system used to provide an event providing service. The event providing service provides, at a predetermined place in real space (hereinafter referred to as "behavior place"), an avatar of a first user who does not exist at the action place in real space and a second user who exists at the action place in real space. This is a service that provides events that encourage people to act together.

第1ユーザは、例えば、行動場所を案内するガイド、又は第2ユーザとアバターを通して散歩する芸能人等であり、例えば、イベント提供サービスを管理する事業者からの依頼に応じてイベント提供サービスに参加するユーザである。第2ユーザは、第1ユーザとは異なるユーザであり、例えば、第1ユーザとの行動を希望してイベント提供サービスに参加するユーザである。情報処理システムSは、第1表示デバイス1と、第2表示デバイス2と、情報処理装置3とを有する。情報処理システムSは、複数の第2表示デバイス2を有してもよい。 The first user is, for example, a guide who shows the place of action, or a celebrity who takes a walk with the second user through an avatar, and, for example, participates in the event providing service in response to a request from a business that manages the event providing service. I am a user. The second user is a user different from the first user, and is, for example, a user who participates in the event providing service hoping to interact with the first user. The information processing system S includes a first display device 1, a second display device 2, and an information processing device 3. The information processing system S may include a plurality of second display devices 2.

第1表示デバイス1は、第1ユーザが利用する表示デバイスであり、例えば、スマートフォン、タブレット、パーソナルコンピュータ又はヘッドマウントディスプレイ等である。第1表示デバイス1は、VRに関する情報を表示する。第1表示デバイス1は、操作を受け付けるためのタッチパネル、キーボード又はコントローラ等の操作部と、音声を取得するためのマイク等の集音部と、音声を出力するためのスピーカ及び情報を表示するための液晶ディスプレイ等の出力部とを有する。第1表示デバイス1は、ネットワークを介して情報処理装置3と通信可能である。 The first display device 1 is a display device used by a first user, and is, for example, a smartphone, a tablet, a personal computer, a head-mounted display, or the like. The first display device 1 displays information regarding VR. The first display device 1 includes an operation unit such as a touch panel, keyboard, or controller for receiving operations, a sound collection unit such as a microphone for acquiring audio, a speaker for outputting audio, and a display unit for displaying information. It has an output section such as a liquid crystal display. The first display device 1 can communicate with the information processing device 3 via a network.

第2表示デバイス2は、第2ユーザが利用する表示デバイスであり、例えば、スマートフォン又はタブレット等である。第2表示デバイス2は、ARに関する情報を表示する。第2表示デバイス2は、操作を受け付けるためのタッチパネル、キーボード又はコントローラ等の操作部と、音声を取得するためのマイク等の集音部と、音声を出力するためのスピーカ及び情報を表示するための液晶ディスプレイ等の出力部と、情報を読み取るためのカメラ等の撮像部と、第2表示デバイス2の位置を測定するためのGPS(Global Positioning System)受信部とを有する。第2表示デバイス2は、ネットワークを介して情報処理装置3と通信可能である。 The second display device 2 is a display device used by a second user, and is, for example, a smartphone or a tablet. The second display device 2 displays information regarding AR. The second display device 2 includes an operation unit such as a touch panel, keyboard, or controller for receiving operations, a sound collection unit such as a microphone for acquiring audio, a speaker for outputting audio, and a speaker for displaying information. It has an output section such as a liquid crystal display, an imaging section such as a camera for reading information, and a GPS (Global Positioning System) receiving section for measuring the position of the second display device 2. The second display device 2 can communicate with the information processing device 3 via the network.

情報処理装置3は、イベント提供サービスを管理するために用いられる装置であり、例えばサーバである。情報処理装置3は、ネットワークを介して第1表示デバイス1及び第2表示デバイス2と通信可能である。情報処理装置3は、VRに関する情報を第1ユーザに提示する処理を実行するためのVR制御処理と、ARに関する情報を第2ユーザに提示する処理を実行するためのAR制御処理とを実行する。本明細書において、情報処理システムは、VR制御処理とAR制御処理とを実行する1つの情報処理装置3を含む例を説明するが、これに限らず、VR制御処理を実行する第1の情報処理装置3と、AR制御処理を実行する第2の情報処理装置3とを含んでもよい。 The information processing device 3 is a device used to manage an event providing service, and is, for example, a server. The information processing device 3 can communicate with the first display device 1 and the second display device 2 via a network. The information processing device 3 executes a VR control process for executing a process for presenting information regarding VR to a first user, and an AR control process for executing a process for presenting information regarding AR to a second user. . In this specification, an example will be described in which the information processing system includes one information processing device 3 that executes VR control processing and AR control processing, but is not limited thereto. It may include a processing device 3 and a second information processing device 3 that executes AR control processing.

VR制御処理で提示される仮想空間は、実空間と対応づけられており、情報処理装置3は、第1表示デバイス1に対して、所定の物体が存在する実空間の位置に対応する仮想空間の位置に当該所定の物体を示すオブジェクトであって、仮想空間において表示されるVRオブジェクトを提示する。また、情報処理装置3は、第2表示デバイス2に対して、VRオブジェクトが存在する仮想空間の位置に対応する実空間の位置にVRオブジェクトに対応するオブジェクトであって、実空間において表示されるARオブジェクトを提示する。 The virtual space presented in the VR control process is associated with the real space, and the information processing device 3 displays the virtual space corresponding to the position in the real space where a predetermined object exists with respect to the first display device 1. A VR object that represents the predetermined object and is displayed in the virtual space is presented at the position. The information processing device 3 also displays an object corresponding to the VR object in the real space at a position in the real space corresponding to a position in the virtual space where the VR object exists, to the second display device 2. Present an AR object.

図2は、仮想空間と実空間との対応付けの一例を模式的に表した図である。図2に示す例において、空間Rは実空間であり、物体B(例えば、ビル及び道路等の構造物)と、第2ユーザである人Hとが存在する。空間Vは仮想空間であり、オブジェクトAは第1ユーザのアバターを示すVRオブジェクトである。 FIG. 2 is a diagram schematically showing an example of the correspondence between virtual space and real space. In the example shown in FIG. 2, space R is a real space, and object B (for example, structures such as buildings and roads) and person H, who is the second user, exist. Space V is a virtual space, and object A is a VR object representing the first user's avatar.

情報処理装置3は、第1表示デバイス1に対して、空間Rにおける物体Bの位置に対応する空間Vの位置P1に物体Bを示すVRオブジェクトを提示し、空間Rにおける人Hの位置に対応する空間Vの位置P2に人Hのアバターを示すVRオブジェクトを提示する。また、情報処理装置3は、第2表示デバイス2に対して、空間VにおけるオブジェクトAの位置に対応する空間Rの位置P3にオブジェクトAを示すARオブジェクトを提示する。このようにすることで、情報処理装置3は、第2ユーザが第1ユーザと行動を共にすることを疑似的に体験させることができる。 The information processing device 3 presents the first display device 1 with a VR object indicating the object B at a position P1 in the space V corresponding to the position of the object B in the space R, and the VR object corresponds to the position of the person H in the space R. A VR object representing an avatar of person H is presented at position P2 in space V. Furthermore, the information processing device 3 presents the second display device 2 with an AR object that indicates the object A at a position P3 in the space R that corresponds to the position of the object A in the space V. By doing so, the information processing device 3 can allow the second user to experience a simulated experience of acting together with the first user.

ここで、第1ユーザと第2ユーザとは、実空間においてお互いの実体を直接視認することができないため、第1ユーザ及び第2ユーザが行動を共にすることが難しい場合がある。例えば、第1ユーザ及び第2ユーザそれぞれの移動のペースが異なると、第1ユーザ又は第2ユーザの一方が他方を見失ってしまう事態が生じ得る。そこで、情報処理装置3は、第1ユーザ及び第2ユーザそれぞれの位置に関する情報をさらに提示する。 Here, since the first user and the second user cannot directly visually recognize each other in real space, it may be difficult for the first user and the second user to act together. For example, if the first user and the second user move at different paces, a situation may arise where either the first user or the second user loses sight of the other. Therefore, the information processing device 3 further presents information regarding the respective positions of the first user and the second user.

具体的には、情報処理装置3は、第1表示デバイス1に対して情報VRオブジェクトをさらに提示し、第2表示デバイス2に対して情報ARオブジェクトをさらに提示する。情報VRオブジェクトは、第2ユーザ(図2に示す例における人H)のアバターの位置に関する情報を示すVRオブジェクトであって、物体Bを示すVRオブジェクト及び人Hのアバターを示すVRオブジェクトとは異なるVRオブジェクトである。情報ARオブジェクトは、仮想空間における第1ユーザのアバターの位置に対応する実空間の位置(図2に示す例における位置P3)に関する情報を示すARオブジェクトであって、第1ユーザのアバターを示すARオブジェクトとは異なるARオブジェクトである。 Specifically, the information processing device 3 further presents an information VR object to the first display device 1 and further presents an information AR object to the second display device 2. The information VR object is a VR object indicating information regarding the position of the avatar of the second user (person H in the example shown in FIG. 2), and is different from the VR object indicating object B and the VR object indicating the avatar of person H. It is a VR object. The information AR object is an AR object indicating information regarding a position in real space (position P3 in the example shown in FIG. 2) corresponding to the position of the first user's avatar in the virtual space, and is an AR object indicating the first user's avatar. This is an AR object different from the object.

このようにすることで、情報処理システムSは、第1ユーザ及び第2ユーザがお互いのがどこにいるのかを把握させることができる。これにより、情報処理システムSは、第1ユーザ及び第2ユーザがお互いを見失ってしまう事態の発生を低減させることができる。その結果、情報処理システムSは、第1ユーザ及び第2ユーザが行動を共にしやすくさせることができる。
以下、情報処理装置3の構成について説明する。
By doing so, the information processing system S can make the first user and the second user know where each other is. Thereby, the information processing system S can reduce the occurrence of a situation in which the first user and the second user lose sight of each other. As a result, the information processing system S can make it easier for the first user and the second user to act together.
The configuration of the information processing device 3 will be described below.

[情報処理装置3の構成]
図3は、情報処理装置3のブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってもよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of information processing device 3]
FIG. 3 is a block diagram of the information processing device 3. In FIG. 3, arrows indicate main data flows, and data flows other than those shown in FIG. 3 may exist. In FIG. 3, each block shows the configuration not in hardware (device) units but in functional units. Therefore, the blocks shown in FIG. 3 may be implemented within a single device, or may be implemented separately within multiple devices. Data may be exchanged between blocks via any means such as a data bus, network, or portable storage medium.

情報処理装置3は、通信部31と、記憶部32と、制御部33とを有する。情報処理装置3は、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。また、情報処理装置3は、コンピュータ資源の集合であるクラウドによって構成されてもよい。 The information processing device 3 includes a communication section 31, a storage section 32, and a control section 33. The information processing device 3 may be configured by two or more physically separate devices connected by wire or wirelessly. Further, the information processing device 3 may be configured by a cloud that is a collection of computer resources.

通信部31は、ネットワークを介して第1表示デバイス1及び第2表示デバイス2との間でデータを送受信するための通信コントローラを有する。通信部31は、第1表示デバイス1又は第2表示デバイス2からネットワークを介して受信したデータを制御部33に通知する。また、通信部31は、ネットワークを介して、制御部33から出力されたデータを第1表示デバイス1又は第2表示デバイス2に送信する。 The communication unit 31 includes a communication controller for transmitting and receiving data between the first display device 1 and the second display device 2 via the network. The communication unit 31 notifies the control unit 33 of data received from the first display device 1 or the second display device 2 via the network. Furthermore, the communication unit 31 transmits the data output from the control unit 33 to the first display device 1 or the second display device 2 via the network.

記憶部32は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部32は、制御部33が実行するプログラムを予め記憶している。記憶部32は、情報処理装置3の外部に設けられてもよく、その場合にネットワークを介して制御部33との間でデータの授受を行ってもよい。 The storage unit 32 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 32 stores in advance a program to be executed by the control unit 33. The storage unit 32 may be provided outside the information processing device 3, and in that case, data may be exchanged with the control unit 33 via a network.

記憶部32は、仮想空間を生成するための三次元マップと、VRオブジェクト情報と、第1ユーザに関する情報と、第2ユーザに関する情報とを記憶している。例えば、三次元マップには、実空間における位置座標に対応する位置座標が定められている。VRオブジェクト情報は、例えば、実空間に存在する建物及び道路等の構造物を示すVRオブジェクトに関する情報であり、少なくとも、VRオブジェクトの属性(例えば、形、色等)と、仮想空間におけるVRオブジェクトの位置とを含む。第1ユーザに関する情報は、例えば、第1ユーザを識別するための識別情報(ID:identifier)、及び第1ユーザの名前等を含む。第2ユーザに関する情報は、例えば、第2ユーザのID、及び第2ユーザの名前等を含む。 The storage unit 32 stores a three-dimensional map for generating a virtual space, VR object information, information regarding the first user, and information regarding the second user. For example, in a three-dimensional map, position coordinates corresponding to position coordinates in real space are determined. VR object information is, for example, information about VR objects that indicate structures such as buildings and roads that exist in real space, and includes at least the attributes of VR objects (e.g., shape, color, etc.) and the attributes of VR objects in virtual space. including location. The information regarding the first user includes, for example, identification information (ID: identifier) for identifying the first user, the name of the first user, and the like. The information regarding the second user includes, for example, the second user's ID, the second user's name, and the like.

記憶部32は、第1ユーザと第2ユーザとが行動を共にするイベントを管理するイベント管理データベースを記憶している。図4は、イベント管理データベースの構成の一例を示す図である。図4に示す例において、イベント管理データベースは、イベントIDと、開始日時と、開始場所と、VR参加者と、AR参加者とを関連付けて記憶している。 The storage unit 32 stores an event management database that manages events in which the first user and the second user act together. FIG. 4 is a diagram showing an example of the configuration of the event management database. In the example shown in FIG. 4, the event management database stores an event ID, a start date and time, a start location, a VR participant, and an AR participant in association with each other.

開始日時は、イベントが開始される日時である。開始場所は、イベントが開始される場所である。VR参加者は、VRでイベントに参加する第1ユーザを示す情報であり、例えば、第1ユーザのIDで示される。AR参加者は、ARでイベントに参加する一以上の第2ユーザを示す情報であり、例えば、第2ユーザのIDで示される。 The start date and time is the date and time when the event starts. The start location is the location where the event is started. The VR participant is information indicating a first user who participates in an event using VR, and is indicated by, for example, the ID of the first user. The AR participant is information indicating one or more second users who participate in an event in AR, and is indicated by, for example, the ID of the second user.

図3に戻り、制御部33は、取得部331と、VR制御部332と、AR制御部333と、送信部334とを有する。制御部33は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部32に記憶されたプログラムを実行することにより、取得部331、VR制御部332、AR制御部333及び送信部334として機能する。取得部331、VR制御部332、AR制御部333及び送信部334それぞれが行う処理については後述する。 Returning to FIG. 3, the control unit 33 includes an acquisition unit 331, a VR control unit 332, an AR control unit 333, and a transmission unit 334. The control unit 33 is, for example, a processor such as a CPU (Central Processing Unit), and by executing a program stored in the storage unit 32, functions as an acquisition unit 331, a VR control unit 332, an AR control unit 333, and a transmission unit 334. Function. The processing performed by each of the acquisition unit 331, VR control unit 332, AR control unit 333, and transmission unit 334 will be described later.

[VR制御処理]
まず、情報処理装置3が実行するVR制御処理について説明する。VR制御部332は、制御情報に基づいて第1ユーザのアバターの動作を制御する。制御情報は、仮想空間における第1ユーザのアバターを制御するための情報である。
[VR control processing]
First, the VR control process executed by the information processing device 3 will be described. The VR control unit 332 controls the movement of the first user's avatar based on the control information. The control information is information for controlling the first user's avatar in the virtual space.

例えば、第1ユーザが第1表示デバイスにおいて仮想空間を移動するための操作を行うと、第1表示デバイス1は、第1ユーザの操作を示す情報を制御情報として情報処理装置3に送信する。そして、取得部331が第1表示デバイス1から制御情報を取得すると、VR制御部332は、当該制御情報によって示される仮想空間における方向に第1ユーザのアバターを移動させることによって第1ユーザのアバターの動作を制御する。 For example, when the first user performs an operation to move in the virtual space on the first display device, the first display device 1 transmits information indicating the first user's operation to the information processing device 3 as control information. Then, when the acquisition unit 331 acquires the control information from the first display device 1, the VR control unit 332 moves the first user's avatar in the direction in the virtual space indicated by the control information. control the behavior of

制御情報は、仮想空間における第1ユーザのアバターが予め定められたルートを移動するための情報であってもよい。例えば、イベント管理データベースには、イベントに対応する制御情報がさらに関連付けて記憶されている。この場合において、VR制御部332は、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、当該イベントに対応するイベントIDに関連付けられている制御情報に基づいて、第1ユーザのアバターの動作を制御する。 The control information may be information for the first user's avatar to move along a predetermined route in the virtual space. For example, the event management database further stores control information corresponding to the event in association with the event. In this case, in a certain event, when the start date and time of the event has passed, the VR control unit 332 uses the avatar of the first user based on the control information associated with the event ID corresponding to the event. control the behavior of

VR制御部332は、VRオブジェクトを第1表示デバイス1に提示する処理を実行する。具体的には、VR制御部332は、VRオブジェクトとして構造物オブジェクトを第1表示デバイス1に表示させる。構造物オブジェクトは、仮想空間において構造物(実空間に存在する構造物)を示すVRオブジェクトである。より具体的には、VR制御部332は、構造物オブジェクトを、実空間における構造物の位置に対応する仮想空間の位置に表示させる。 The VR control unit 332 executes a process of presenting a VR object on the first display device 1. Specifically, the VR control unit 332 causes the first display device 1 to display the structure object as a VR object. The structure object is a VR object that represents a structure (a structure existing in real space) in virtual space. More specifically, the VR control unit 332 displays the structure object at a position in the virtual space that corresponds to the position of the structure in the real space.

例えば、まず、VR制御部332は、記憶部32に記憶されている三次元マップ及びVRオブジェクト情報に基づいて、所定の範囲の仮想空間であって、実空間における構造物の位置に対応する仮想空間の位置に配置した構造物オブジェクトを含む仮想空間が表示されたVR画像を生成する。所定の範囲は、第1ユーザのアバターの位置に応じて定まる範囲(例えば、第1ユーザのアバターの位置から100メートルまでの範囲)、又はイベント提供サービスにおいて第1ユーザと第2ユーザとが行動する範囲として予め定められた行動範囲等である。送信部334は、VR制御部332が生成したVR画像を第1表示デバイス1に送信する。そして、第1表示デバイス1は、取得したVR画像を表示させる。 For example, first, based on the three-dimensional map and VR object information stored in the storage unit 32, the VR control unit 332 creates a virtual space in a predetermined range that corresponds to the position of the structure in the real space. A VR image is generated in which a virtual space including a structural object placed at a spatial position is displayed. The predetermined range is a range determined according to the position of the first user's avatar (for example, a range of up to 100 meters from the position of the first user's avatar), or a range determined according to the position of the first user's avatar, or a range where the first user and the second user act in the event providing service. This is a predetermined action range, etc. The transmitter 334 transmits the VR image generated by the VR controller 332 to the first display device 1. The first display device 1 then displays the acquired VR image.

VR制御部332は、第1表示デバイス1にVR画像を生成させてもよい。例えば、まず、VR制御部332は、記憶部32に記憶されている三次元マップ及びVRオブジェクト情報の中から、所定の範囲に含まれる三次元マップの部分及びVRオブジェクト情報の部分を特定する。送信部334は、VR制御部332が特定した三次元マップ及びVRオブジェクト情報を第1表示デバイス1に送信する。そして、第1表示デバイス1は、取得した三次元マップ及びVRオブジェクト情報に基づいて、構造物オブジェクトを含む仮想空間が表示されたVR画像を生成し、生成したVR画像を表示する。 The VR control unit 332 may cause the first display device 1 to generate a VR image. For example, first, the VR control unit 332 specifies, from among the three-dimensional map and VR object information stored in the storage unit 32, a portion of the three-dimensional map and a portion of the VR object information that are included in a predetermined range. The transmitter 334 transmits the three-dimensional map and VR object information specified by the VR controller 332 to the first display device 1. Then, the first display device 1 generates a VR image in which a virtual space including the structural object is displayed based on the acquired three-dimensional map and VR object information, and displays the generated VR image.

VR制御部332は、VRオブジェクトとして第1ユーザVRオブジェクトを第1表示デバイス1に表示させてもよい。第1ユーザVRオブジェクトは、第1ユーザのアバターを示すVRオブジェクトであって、構造物オブジェクトとは異なるVRオブジェクトである。 The VR control unit 332 may cause the first user VR object to be displayed on the first display device 1 as the VR object. The first user VR object is a VR object that represents the first user's avatar and is different from the structure object.

具体的には、VR制御部332は、第1ユーザVRオブジェクトを、制御情報に基づいて第1表示デバイス1に表示させる。より具体的には、VR制御部332は、第1ユーザVRオブジェクトを、制御情報に基づいて第1ユーザのアバターの動作を制御した後の仮想空間の位置に表示させる。 Specifically, the VR control unit 332 causes the first user VR object to be displayed on the first display device 1 based on the control information. More specifically, the VR control unit 332 displays the first user VR object at a position in the virtual space after controlling the motion of the first user's avatar based on the control information.

VR制御部332は、VRオブジェクトとして第2ユーザVRオブジェクトを第1表示デバイス1に表示させてもよい。第2ユーザVRオブジェクトは、第2ユーザのアバターを示すVRオブジェクトであって、構造物オブジェクト及び第1ユーザVRオブジェクトとは異なるVRオブジェクトである。 The VR control unit 332 may display the second user VR object on the first display device 1 as the VR object. The second user VR object is a VR object that represents the second user's avatar, and is different from the structure object and the first user VR object.

具体的には、まず、取得部331は、位置情報取得部として機能し、第2表示デバイス2から、第2表示デバイス2のデバイス位置を取得する。デバイス位置は、実空間における第2表示デバイス2の位置を示す情報であり、例えば、第2表示デバイス2のGPS受信部が受信した情報に基づいて測定された位置を示す情報である。デバイス位置は、これに限らず、第2表示デバイス2の撮像部が周囲を撮像した撮像画像に基づいて特定された位置を示す情報であってもよく、この場合、第2表示デバイス2が撮像画像に基づいて位置を特定してもよいし、情報処理装置3が撮像画像に基づいて位置を特定してもよい。そして、VR制御部332は、取得部331が取得したデバイス位置に対応する仮想空間の位置に、第2ユーザVRオブジェクトを第1表示デバイス1に表示させる。 Specifically, first, the acquisition unit 331 functions as a position information acquisition unit and acquires the device position of the second display device 2 from the second display device 2 . The device position is information indicating the position of the second display device 2 in real space, and is information indicating the position measured based on information received by the GPS receiving section of the second display device 2, for example. The device position is not limited to this, and may be information indicating a position specified based on a captured image of the surroundings captured by the imaging unit of the second display device 2. In this case, the second display device 2 captures an image of the surrounding area. The position may be specified based on the image, or the information processing device 3 may specify the position based on the captured image. Then, the VR control unit 332 causes the first display device 1 to display the second user VR object at a position in the virtual space that corresponds to the device position acquired by the acquisition unit 331.

VR制御部332は、VRオブジェクトとして情報VRオブジェクトを第1表示デバイス1に表示させる。情報VRオブジェクトは、構造物オブジェクト、第1ユーザVRオブジェクト及び第2ユーザVRオブジェクトとは異なるVRオブジェクトである。 The VR control unit 332 causes the first display device 1 to display an information VR object as a VR object. The information VR object is a VR object different from the structure object, the first user VR object, and the second user VR object.

具体的には、VR制御部332は、実空間における第2表示デバイス2のデバイス位置に対応する仮想空間における第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、第1表示デバイス1に表示させる。位置に関する情報は、例えば、第2ユーザのアバターの位置を示す情報である。より具体的には、VR制御部332は、第2ユーザVRオブジェクトが存在する位置を示す地図情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。 Specifically, the VR control unit 332 displays information regarding the position of the second user's avatar in the virtual space that corresponds to the device position of the second display device 2 in the real space on the first display device 1 as an information VR object. let The information regarding the position is, for example, information indicating the position of the second user's avatar. More specifically, the VR control unit 332 causes the first display device 1 to display map information indicating the position where the second user VR object exists as an information VR object.

図5は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図5に示す例において、第1表示デバイス1に表示されているVR画像である画像V1には、地図情報であるオブジェクトX1が表示されている。オブジェクトX1には、第1ユーザのアバターの位置を示すマークL1と、第2ユーザのアバターの位置を示すマークL2とが表示されている。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトがどこにいるかを把握することができる。 FIG. 5 is a diagram schematically showing a VR image displayed on the first display device 1. In the example shown in FIG. 5, an image V1 that is a VR image displayed on the first display device 1 displays an object X1 that is map information. A mark L1 indicating the position of the first user's avatar and a mark L2 indicating the position of the second user's avatar are displayed on the object X1. By causing the information processing device 3 to display such an information VR object on the first display device 1, the first user can grasp where the second user VR object is located.

位置に関する情報は、第1ユーザから第2ユーザまでの距離を示す情報であってもよい。具体的には、VR制御部332は、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離、又は仮想空間における第1ユーザVRオブジェクトの位置からデバイス位置に対応する仮想空間の位置までの距離を示す情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。 The information regarding the position may be information indicating the distance from the first user to the second user. Specifically, the VR control unit 332 determines the distance from the position of the first user VR object to the position of the second user VR object, or the distance from the position of the first user VR object in the virtual space to the device position. Information indicating the distance to the position is displayed on the first display device 1 as an information VR object.

例えば、まず、VR制御部332は、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定する。VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から仮想空間における第2ユーザVRオブジェクトの位置までの距離を特定してもよい。また、VR制御部332は、第1の空間(仮想空間及び実空間のうちのいずれか)における第1ユーザの位置から、第1の空間とは異なる第2の空間(第1の空間が仮想空間である場合、第2の空間は実空間であり、第1の空間が実空間である場合、第2の空間は仮想区間である。)における第2ユーザの位置までの距離を特定してもよい。送信部334は、VR制御部332が特定した距離を示す情報を、位置に関する情報として第1表示デバイス1に送信する。そして、第1表示デバイス1は、距離を示す情報を情報VRオブジェクトとして表示させる。 For example, first, the VR control unit 332 identifies the distance from the position in the real space corresponding to the position of the first user's avatar in the virtual space to the device position of the second display device 2. The VR control unit 332 may specify the distance from the position of the first user VR object in the virtual space to the position of the second user VR object in the virtual space. Further, the VR control unit 332 moves from the first user's position in the first space (either virtual space or real space) to a second space different from the first space (the first space is virtual space). If the second space is a real space, the second space is a real space, and if the first space is a real space, the second space is a virtual interval. Good too. The transmitter 334 transmits information indicating the distance specified by the VR controller 332 to the first display device 1 as information regarding the position. The first display device 1 then displays the information indicating the distance as an information VR object.

図6は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図6に示す例において、第1表示デバイス1に表示されているVR画像である画像V2には、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離が表示されている。なお、画像V2には、オブジェクトX2として、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離を示すメッセージが表示されていてもよい。VR制御部332が、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定した場合、画像V2には、オブジェクトX2として、第2ユーザとの距離が離れすぎていることを示すメッセージ又は警告を示すメッセージが表示されていてもよい。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトとどのくらい離れているかを把握することができる。 FIG. 6 is a diagram schematically showing a VR image displayed on the first display device 1. In the example shown in FIG. 6, the image V2, which is a VR image displayed on the first display device 1, is displayed on the second display device 2 from a position in real space corresponding to the position of the first user's avatar in the virtual space. The distance to the device location is displayed. Note that a message indicating the distance from the position of the first user VR object to the position of the second user VR object may be displayed as the object X2 in the image V2. When the VR control unit 332 specifies the distance from the position in the real space corresponding to the position of the first user's avatar in the virtual space to the device position of the second display device 2, the image V2 includes an object X2 as the object X2. A message indicating that the distance from the second user is too far or a message indicating a warning may be displayed. By causing the information processing device 3 to display such an information VR object on the first display device 1, the first user can grasp how far away the first user is from the second user VR object.

位置に関する情報は、第2ユーザVRオブジェクトの方向を示す情報であってもよい。具体的には、VR制御部332は、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を示す情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。 The information regarding the position may be information indicating the direction of the second user VR object. Specifically, the VR control unit 332 causes the first display device 1 to display information indicating the direction of the second user VR object when the first user VR object is the starting point, as an information VR object.

例えば、まず、VR制御部332は、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を特定する。送信部334は、VR制御部332が特定した方向を示す情報を、位置に関する情報として第1表示デバイス1に送信する。そして、第1表示デバイス1は、方向を示す情報を情報VRオブジェクトとして表示させる。 For example, first, the VR control unit 332 identifies the direction of the second user VR object when the first user VR object is the starting point. The transmitter 334 transmits information indicating the direction specified by the VR controller 332 to the first display device 1 as information regarding the position. Then, the first display device 1 displays the information indicating the direction as an information VR object.

図7は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図7に示す例において、第1表示デバイス1に表示されているVR画像である画像V3には、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を示す矢印のオブジェクトX3が表示されている。なお、画像V3には、オブジェクトX3として、第1ユーザVRオブジェクトが向いている方向に対する第2ユーザVRオブジェクトの位置を示す矢印が表示されていてもよい。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトがどの方向にいるかを把握することができる。 FIG. 7 is a diagram schematically showing a VR image displayed on the first display device 1. In the example shown in FIG. 7, the image V3 which is the VR image displayed on the first display device 1 includes an arrow object X3 indicating the direction of the second user VR object when the first user VR object is the starting point. is displayed. Note that an arrow indicating the position of the second user VR object with respect to the direction in which the first user VR object is facing may be displayed as the object X3 in the image V3. By causing the information processing device 3 to display such an information VR object on the first display device 1, the first user can grasp in which direction the second user VR object is located.

VR制御部332は、位置に関する情報として、第2ユーザVRオブジェクトが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第2ユーザVRオブジェクトの方向を示す情報とのうちのいずれかを表示させてもよいし、第2ユーザVRオブジェクトが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第2ユーザVRオブジェクトの方向を示す情報とを同時に表示させてもよい。 The VR control unit 332 includes, as information regarding the position, map information indicating the position where the second user VR object exists, information indicating the distance from the first user to the second user, and information indicating the direction of the second user VR object. map information indicating the position where the second user VR object exists, information indicating the distance from the first user to the second user, and the second user VR object. information indicating the direction may be displayed at the same time.

VR制御部332は、例えば、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、情報VRオブジェクトを第1表示デバイス1に表示させる。VR制御部332は、所定の条件を満たす場合に、情報VRオブジェクトを第1表示デバイス1に表示させてもよい。 For example, the VR control unit 332 causes the information VR object to be displayed on the first display device 1 every time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval. The VR control unit 332 may display the information VR object on the first display device 1 when a predetermined condition is satisfied.

具体的には、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離、又は仮想空間における第1ユーザVRオブジェクトの位置からデバイス位置に対応する仮想空間の位置までの距離が情報表示閾距離より大きくなることを契機として情報VRオブジェクトを第1表示デバイス1に表示させる。情報表示閾距離は、予め定められた数値である。情報表示閾距離は、人及び建物が多い都市部、街中等においては短い距離が定められ、人及び建物が少ない郊外、河川敷等においては長い距離が定められる等のように、行動場所に応じて異なっていてもよい。 Specifically, the VR control unit 332 corresponds to the distance from the position of the first user VR object in the virtual space to the position of the second user VR object, or from the position of the first user VR object in the virtual space to the device position. The information VR object is displayed on the first display device 1 when the distance to the position in the virtual space becomes larger than the information display threshold distance. The information display threshold distance is a predetermined value. The information display threshold distance is determined depending on the location of the activity, such as a short distance is determined in urban areas and towns where there are many people and buildings, and a long distance is determined in suburban areas and riverbeds where there are few people and buildings. May be different.

例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離が情報表示閾距離より大きいか否かを判定する。そして、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離が情報表示閾距離より大きいと判定した場合に、情報VRオブジェクトを第1表示デバイス1に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトと離れていることを認識することができる。 For example, first, every time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval, the VR control unit 332 changes the position of the second user VR object from the position of the first user VR object in the virtual space. It is determined whether the distance to is greater than the information display threshold distance. Then, when the VR control unit 332 determines that the distance from the position of the first user VR object to the position of the second user VR object in the virtual space is greater than the information display threshold distance, the VR control unit 332 displays the information VR object on the first display device. Display it on 1. By causing the information processing device 3 to display the information VR object on the first display device 1 under such conditions, the first user can recognize that the first user is separated from the second user VR object.

VR制御部332は、第2ユーザVRオブジェクトが構造物オブジェクトで遮蔽されてしまった場合に、情報VRオブジェクトを第1表示デバイス1に表示させてもよい。具体的には、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間、又は仮想空間における第1ユーザVRオブジェクトの位置とデバイス位置に対応する仮想空間の位置との間に構造物オブジェクトが存在することを契機として、情報VRオブジェクトを第1表示デバイスに表示させる。 The VR control unit 332 may display the information VR object on the first display device 1 when the second user VR object is blocked by a structure object. Specifically, the VR control unit 332 corresponds between the position of the first user VR object and the position of the second user VR object in the virtual space, or between the position of the first user VR object and the device position in the virtual space. The information VR object is displayed on the first display device in response to the presence of the structure object between the position in the virtual space and the position in the virtual space.

例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在するか否かを判定する。そして、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在すると判定した場合に、情報VRオブジェクトを第1表示デバイス1に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトが見えなくなったことを認識することができる。 For example, first, each time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval, the VR control unit 332 controls the position of the first user VR object and the position of the second user VR object in the virtual space. Determine whether a structure object exists between the two. When the VR control unit 332 determines that a structure object exists between the position of the first user VR object and the position of the second user VR object in the virtual space, the VR control unit 332 transfers the information VR object to the first display device 1. to be displayed. By causing the information processing device 3 to display the information VR object on the first display device 1 under such conditions, the first user can recognize that the second user VR object is no longer visible.

VR制御部332は、例えば、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、VRオブジェクトを第1表示デバイス1に提示する処理を実行する。VR制御部332は、イベントに参加した第2ユーザのアバターに対応する情報VRオブジェクトを第1表示デバイス1に表示させてもよい。 For example, in a certain event, the VR control unit 332 executes a process of presenting a VR object on the first display device 1 when the start date and time of the event has passed. The VR control unit 332 may cause the first display device 1 to display an information VR object corresponding to the avatar of the second user who participated in the event.

具体的には、VR制御部332は、第1ユーザとあらかじめ関連付けられた第2ユーザのアバターに対応する情報VRオブジェクトを第1表示デバイス1に表示させる。VR制御部332は、例えば、イベント管理データベースにおいて、VR参加者(第1ユーザ)と関連付けられているAR参加者(第2ユーザ)のアタバーに対応する情報VRオブジェクトを第1表示デバイス1に表示させる。このようにすることで、情報処理装置3は、イベントに参加していない第2ユーザのアバターに対応する情報VRオブジェクトの表示を抑止することができる。 Specifically, the VR control unit 332 causes the first display device 1 to display an information VR object corresponding to the avatar of the second user associated with the first user in advance. For example, the VR control unit 332 displays, on the first display device 1, an information VR object corresponding to the avatar of the AR participant (second user) associated with the VR participant (first user) in the event management database. let By doing so, the information processing device 3 can suppress the display of the information VR object corresponding to the avatar of the second user who is not participating in the event.

なお、VR制御部332は、イベントに参加している第2ユーザのアバターと、当該イベントに参加していない第2ユーザのアバターとをそれぞれ異なる態様で表示させてもよい。VR制御部332は、例えば、イベントに参加している第2ユーザに対応する第2ユーザVRオブジェクトにマーク、フラグを付けたり、当該第2ユーザVRオブジェクトに目立ち得る色(例えば、赤色、青色等)を付けたりして表示させる。一方、VR制御部332は、例えば、イベントに参加していない第2ユーザに対応する第2ユーザVRオブジェクトに色を付けなかったり(例えば、半透明)、当該第2ユーザVRオブジェクトに目立ち得ない色(例えば、白色)を付けたりして表示させる。 Note that the VR control unit 332 may display the avatar of the second user participating in the event and the avatar of the second user not participating in the event in different manners. The VR control unit 332 may, for example, attach a mark or flag to the second user VR object corresponding to the second user participating in the event, or add a conspicuous color to the second user VR object (for example, red, blue, etc.). ) and display it. On the other hand, the VR control unit 332 may, for example, not color the second user VR object corresponding to the second user who is not participating in the event (for example, make it semi-transparent), or make the second user VR object inconspicuous. Display with a color (for example, white).

[AR制御処理]
続いて、情報処理装置3が実行するAR制御処理について説明する。AR制御部333は、ARオブジェクトを第2表示デバイス2に提示する処理を実行する。具体的には、AR制御部333は、ARオブジェクトとして第1ユーザARオブジェクトを、第2表示デバイス2に対して実アバター位置に提示する。第1ユーザARオブジェクトは、第1ユーザのアバターを示すARオブジェクトである。実アバター位置は、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置である。
[AR control processing]
Next, the AR control process executed by the information processing device 3 will be described. The AR control unit 333 executes a process of presenting the AR object on the second display device 2. Specifically, the AR control unit 333 presents the first user AR object as the AR object to the second display device 2 at the real avatar position. The first user AR object is an AR object that represents the first user's avatar. The real avatar position is a position in real space that corresponds to the position of the first user's avatar in virtual space.

例えば、まず、AR制御部333は、実アバター位置に配置した第1ユーザARオブジェクトが表示されたAR画像を生成する。送信部334は、AR制御部333が生成したAR画像を第2表示デバイス2に送信する。そして、第2表示デバイス2は、取得したAR画像を第2表示デバイス2の撮像部が撮像した撮像画像に重畳した重畳画像を表示させる。 For example, first, the AR control unit 333 generates an AR image in which the first user AR object placed at the real avatar position is displayed. The transmitter 334 transmits the AR image generated by the AR controller 333 to the second display device 2. Then, the second display device 2 displays a superimposed image in which the acquired AR image is superimposed on the captured image captured by the imaging unit of the second display device 2.

AR制御部333は、第2表示デバイス2にAR画像を生成させてもよい。例えば、まず、送信部334は、第1ユーザARオブジェクトに関するARオブジェクト情報と、実アバター位置とを第2表示デバイス2に送信する。ARオブジェクト情報は、例えば、第1ユーザARオブジェクトの形、色等を示す情報である。そして、第2表示デバイス2は、取得しARオブジェクト情報と実アバター位置とに基づいて、実アバター位置に配置された第1ユーザARオブジェクトが表示されたAR画像を生成し、生成したAR画像を第2表示デバイス2の撮像部が撮像した撮像画像に重畳した重畳画像を表示する。 The AR control unit 333 may cause the second display device 2 to generate an AR image. For example, first, the transmitter 334 transmits AR object information regarding the first user AR object and the real avatar position to the second display device 2. The AR object information is, for example, information indicating the shape, color, etc. of the first user AR object. Then, the second display device 2 generates an AR image in which the first user AR object placed at the actual avatar position is displayed, based on the acquired AR object information and the actual avatar position, and displays the generated AR image. A superimposed image superimposed on the captured image captured by the imaging unit of the second display device 2 is displayed.

AR制御部333は、第1ユーザARオブジェクトを、VR制御部332が制御情報に基づいて仮想空間における第1ユーザのアバターの動作を制御した後における第1ユーザのアバターの存在位置に対応する実アバター位置に提示する。具体的には、AR制御部333は、第1ユーザARオブジェクトを、第1ユーザのアバターの第1存在位置から移動させた第1ユーザのアバターの第2存在位置に対応する実アバター位置に提示する。第1存在位置は、VR制御部332が制御情報に基づいて第1ユーザのアバターを移動させる前の仮想空間の存在位置である。第2存在位置は、VR制御部332が制御情報に基づいて第1ユーザのアバターを移動させた後の仮想空間の存在位置である。 The AR control unit 333 converts the first user AR object into an actual object corresponding to the position of the first user's avatar after the VR control unit 332 controls the movement of the first user's avatar in the virtual space based on the control information. Present at the avatar position. Specifically, the AR control unit 333 presents the first user AR object at the real avatar position corresponding to the second existence position of the first user's avatar that has been moved from the first existence position of the first user's avatar. do. The first existing position is the existing position in the virtual space before the VR control unit 332 moves the first user's avatar based on the control information. The second existing position is the existing position in the virtual space after the VR control unit 332 moves the first user's avatar based on the control information.

AR制御部333は、制御情報によって示される実空間における方向に第1ユーザARオブジェクトを移動させることによって第1ユーザARオブジェクトの動作を制御し、第1ユーザARオブジェクトを、制御情報に基づいて制御した後における実アバター位置に提示してもよい。具体的には、AR制御部333は、第1ユーザARオブジェクトを、第1実アバター位置から移動させた第2実アバター位置に提示する。第1実アバター位置は、制御情報に基づいて第1ユーザARオブジェクトを移動させる前の実空間の位置である。第2実アバター位置は、制御情報に基づいて第1ユーザARオブジェクトを移動させた後の実空間の位置である。 The AR control unit 333 controls the operation of the first user AR object by moving the first user AR object in a direction in real space indicated by the control information, and controls the first user AR object based on the control information. It may be displayed at the actual avatar position after the actual avatar position. Specifically, the AR control unit 333 presents the first user AR object at a second real avatar position moved from the first real avatar position. The first real avatar position is the position in real space before the first user AR object is moved based on the control information. The second real avatar position is the position in real space after moving the first user AR object based on the control information.

AR制御部333は、複数の第2ユーザが存在する場合、複数の第2ユーザのうちの一方に対して、ARオブジェクトとして他方の第2ユーザARオブジェクトを提示してもよい。具体的には、AR制御部333は、複数の第2ユーザのうちの一方の第2表示デバイス2に対して、他方の第2ユーザARオブジェクトを、当該他方の第2表示デバイス2のデバイス位置に表示させる。 When there are multiple second users, the AR control unit 333 may present the other second user AR object as the AR object to one of the multiple second users. Specifically, the AR control unit 333 transmits the AR object of the other second user to the second display device 2 of one of the plurality of second users at the device position of the second display device 2 of the other second user. to be displayed.

AR制御部333は、ARオブジェクトとして情報ARオブジェクトを第2表示デバイス2にさらに提示する。情報ARオブジェクトは、第1ユーザARオブジェクト及び第2ユーザARオブジェクトとは異なるARオブジェクトであるである。 The AR control unit 333 further presents the information AR object to the second display device 2 as an AR object. The information AR object is an AR object different from the first user AR object and the second user AR object.

具体的には、AR制御部333は、第1ユーザのアバターの実アバター位置に関する情報を情報ARオブジェクトとして第2表示デバイス2にさらに表示させる。実アバター位置に関する情報は、例えば、第1ユーザのアバターの位置を示す情報である。より具体的には、AR制御部333は、第1ユーザのアバターが存在する位置を示す地図情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。 Specifically, the AR control unit 333 further displays information regarding the real avatar position of the first user's avatar on the second display device 2 as an information AR object. The information regarding the actual avatar position is, for example, information indicating the position of the first user's avatar. More specifically, the AR control unit 333 causes the second display device 2 to display map information indicating the location where the first user's avatar exists as an information AR object.

図8は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図8に示す例において第2表示デバイス2に表示されている画像O1は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O1には、地図情報であるオブジェクトY1が表示されている。オブジェクトY1には、第2ユーザのアバターの位置を示すマークL3と、第1ユーザのアバターの位置を示すマークL4とが表示されている。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトがどこにいるかを把握することができる。 FIG. 8 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. In the example shown in FIG. 8, the image O1 displayed on the second display device 2 is a superimposed image obtained by superimposing a captured image captured by the second display device 2 on an AR image. An object Y1, which is map information, is displayed in the image O1. A mark L3 indicating the position of the second user's avatar and a mark L4 indicating the position of the first user's avatar are displayed on the object Y1. By causing the information processing device 3 to display such an information AR object on the second display device 2, the second user can grasp where the first user AR object is located.

実アバター位置に関する情報は、第1ユーザから第2ユーザまでの距離を示す情報であってもよい。具体的には、AR制御部333は、実アバター位置とデバイス位置との距離を示す情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。 The information regarding the actual avatar position may be information indicating the distance from the first user to the second user. Specifically, the AR control unit 333 causes the second display device 2 to display information indicating the distance between the real avatar position and the device position as an information AR object.

例えば、まず、AR制御部333は、実アバター位置からデバイス位置までの距離を特定する。AR制御部333は、仮想空間における第1ユーザVRオブジェクトの位置から仮想空間における第2ユーザVRオブジェクトの位置までの距離を特定してもよい。また、AR制御部333は、第1の空間(仮想空間及び実空間のうちのいずれか)における第1ユーザの位置から、第1の空間とは異なる第2の空間(第1の空間が仮想空間である場合、第2の空間は実空間であり、第1の空間が実空間である場合、第2の空間は仮想区間である。)における第2ユーザの位置までの距離を特定してもよい。送信部334は、AR制御部333が特定した距離を示す情報を、実アバター位置に関する情報として第2表示デバイス2に送信する。そして、第2表示デバイス2は、距離を示す情報を情報VRオブジェクトとして表示させる。 For example, first, the AR control unit 333 identifies the distance from the real avatar position to the device position. The AR control unit 333 may specify the distance from the position of the first user VR object in the virtual space to the position of the second user VR object in the virtual space. Furthermore, the AR control unit 333 moves from the first user's position in the first space (either virtual space or real space) to a second space different from the first space (the first space is virtual space). If the second space is a real space, the second space is a real space, and if the first space is a real space, the second space is a virtual interval. Good too. The transmitter 334 transmits information indicating the distance specified by the AR controller 333 to the second display device 2 as information regarding the real avatar position. Then, the second display device 2 displays the information indicating the distance as an information VR object.

図9は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図9に示す例において第2表示デバイス2に表示されている画像O2は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O2には、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離を示すメッセージのオブジェクトY2が表示されている。なお、画像O2には、オブジェクトY2として、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離を示すメッセージが表示されていてもよい。AR制御部333が、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定した場合、画像O2には、オブジェクトY2として、第1ユーザとの距離が離れすぎていることを示すメッセージ又は警告を示すメッセージが表示されていてもよい。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトとどのくらい離れているかを把握することができる。 FIG. 9 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. In the example shown in FIG. 9, the image O2 displayed on the second display device 2 is a superimposed image in which the captured image captured by the second display device 2 is superimposed on the AR image. In the image O2, an object Y2 of a message indicating the distance from the first user's real avatar position to the device position of the second display device 2 is displayed. Note that a message indicating the distance from the position of the first user VR object to the position of the second user VR object may be displayed as the object Y2 in the image O2. When the AR control unit 333 specifies the distance from the position in the real space corresponding to the position of the first user's avatar in the virtual space to the device position of the second display device 2, the image O2 includes an object Y2 as an object Y2. A message indicating that the distance from the first user is too far or a message indicating a warning may be displayed. By causing the information processing device 3 to display such an information AR object on the second display device 2, the second user can grasp how far away the second user is from the first user AR object.

実アバター位置に関する情報は、第1ユーザARオブジェクトの方向を示す情報であってもよい。具体的には、AR制御部333は、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を示す情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。 The information regarding the real avatar position may be information indicating the direction of the first user AR object. Specifically, the AR control unit 333 displays information indicating the direction of the first user's real avatar position when the device position of the second display device 2 is the starting point, on the second display device 2 as an information AR object. let

例えば、まず、AR制御部333は、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を特定する。送信部334は、AR制御部333が特定した方向を示す情報を、実アバター位置に関する情報として第2表示デバイス2に送信する。そして、第2表示デバイス2は、方向を示す情報を情報ARオブジェクトとして表示させる。 For example, first, the AR control unit 333 identifies the direction of the first user's real avatar position with the device position of the second display device 2 as the starting point. The transmitter 334 transmits information indicating the direction specified by the AR controller 333 to the second display device 2 as information regarding the real avatar position. Then, the second display device 2 displays information indicating the direction as an information AR object.

図10は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図10に示す例において第2表示デバイス2に表示されている画像O3は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O3には、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を示す矢印のオブジェクトY3が表示されている。なお、画像O3には、オブジェクトY3として、第2表示デバイス2の撮像部が向いている方向に対する第1ユーザの実アバター位置を示す矢印が表示されていてもよい。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトがどの方向にいるかを把握することができる。 FIG. 10 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. In the example shown in FIG. 10, the image O3 displayed on the second display device 2 is a superimposed image obtained by superimposing the captured image captured by the second display device 2 on the AR image. In the image O3, an arrow object Y3 indicating the direction of the first user's real avatar position when the device position of the second display device 2 is the starting point is displayed. Note that an arrow indicating the position of the first user's real avatar with respect to the direction in which the imaging unit of the second display device 2 is facing may be displayed as the object Y3 in the image O3. By causing the information processing device 3 to display such an information AR object on the second display device 2, the second user can grasp in which direction the first user AR object is located.

AR制御部333は、位置に関する情報として、第1ユーザのアバターが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第1ユーザARオブジェクトの方向を示す情報とのうちのいずれかを表示させてもよいし、第1ユーザのアバターが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第1ユーザARオブジェクトの方向を示す情報とを同時に表示させてもよい。 The AR control unit 333 includes, as position-related information, map information indicating the position where the first user's avatar exists, information indicating the distance from the first user to the second user, and information indicating the direction of the first user AR object. map information indicating the location where the first user's avatar exists, information indicating the distance from the first user to the second user, and the first user AR object. information indicating the direction may be displayed at the same time.

AR制御部333は、例えば、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、情報ARオブジェクトを第2表示デバイス2に表示させる。AR制御部333は、所定の条件を満たす場合に、情報ARオブジェクトをAR制御部333に表示させてもよい。 The AR control unit 333 causes the information AR object to be displayed on the second display device 2, for example, every time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval. The AR control unit 333 may cause the AR control unit 333 to display the information AR object when a predetermined condition is satisfied.

具体的には、AR制御部333は、第1ユーザの実アバター位置と第2表示デバイス2のデバイス位置との距離が情報表示閾距離より大きくなることを契機として情報ARオブジェクトを第2表示デバイス2に表示させる。 Specifically, the AR control unit 333 displays the information AR object on the second display device when the distance between the first user's real avatar position and the device position of the second display device 2 becomes larger than the information display threshold distance. Display on 2.

例えば、まず、AR制御部333は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離が情報表示閾距離より大きいか否かを判定する。そして、AR制御部333は、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離が情報表示閾距離より大きいと判定した場合に、情報ARオブジェクトを第2表示デバイス2に表示させる。情報処理装置3がこのような条件で情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトと離れていることを認識することができる。 For example, first, every time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval, the AR control unit 333 controls the distance between the real avatar position of the first user and the device position of the second display device 2. It is determined whether the distance is greater than the information display threshold distance. Then, when the AR control unit 333 determines that the distance from the first user's real avatar position to the device position of the second display device 2 is greater than the information display threshold distance, the AR control unit 333 displays the information AR object on the second display device 2. Display. By causing the information processing device 3 to display the information AR object on the second display device 2 under such conditions, the second user can recognize that the second user is separated from the first user AR object.

AR制御部333は、第1ユーザARオブジェクトが構造物で遮蔽されてしまった場合に、情報ARオブジェクトを第2表示デバイス2に表示させてもよい。具体的には、AR制御部333は、仮想空間における第1ユーザのアバターの位置と、第2表示デバイス2のデバイス位置に対応する仮想空間における位置との間に、構造物オブジェクトが存在するとVR制御部332が判定することを契機として、情報ARオブジェクトを第2表示デバイス2に表示させる。 The AR control unit 333 may display the information AR object on the second display device 2 when the first user AR object is blocked by a structure. Specifically, the AR control unit 333 controls VR when a structure object exists between the position of the first user's avatar in the virtual space and the position in the virtual space corresponding to the device position of the second display device 2. In response to the determination by the control unit 332, the information AR object is displayed on the second display device 2.

例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在するか否かを判定する。そして、VR制御部332が、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在すると判定した場合に、AR制御部333は、情報ARオブジェクトを第2表示デバイス2に表示させる。 For example, first, each time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval, the VR control unit 332 controls the position of the first user VR object and the position of the second user VR object in the virtual space. Determine whether a structure object exists between the two. Then, when the VR control unit 332 determines that a structure object exists between the position of the first user VR object and the position of the second user VR object in the virtual space, the AR control unit 333 controls the information AR object. is displayed on the second display device 2.

AR制御部333は、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在することを契機として、情報ARオブジェクトを第2表示デバイス2に表示させてもよい。例えば、記憶部32には、実空間における地図を示す情報が記憶されている。この場合において、まず、AR制御部333は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、記憶部32に記憶されている実空間における地図を参照し、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在するか否かを判定する。そして、AR制御部333は、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在すると判定した場合に、情報ARオブジェクトを第2表示デバイス2に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトが見えなくなったことを認識することができる。 The AR control unit 333 causes the second display device 2 to display an information AR object, triggered by the presence of a structure between the first user's real avatar position and the device position of the second display device 2. It's okay. For example, the storage unit 32 stores information indicating a map in real space. In this case, first, the AR control unit 333 refers to the map in real space stored in the storage unit 32 every time the acquisition unit 331 acquires the device position of the second display device 2 at predetermined intervals, It is determined whether a structure exists between the first user's real avatar position and the device position of the second display device 2. Then, when it is determined that a structure exists between the first user's real avatar position and the device position of the second display device 2, the AR control unit 333 displays the information AR object on the second display device 2. Display. By causing the information processing device 3 to display the information VR object on the second display device 2 under such conditions, the second user can recognize that the first user AR object is no longer visible.

AR制御部333は、例えば、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、ARオブジェクトを第2表示デバイス2に提示する処理を実行する。AR制御部333は、イベントに参加した第1ユーザのアバターに対応する情報ARオブジェクトを第2表示デバイス2に表示させてもよい。 For example, in a certain event, the AR control unit 333 executes a process of presenting an AR object on the second display device 2 when the start date and time of the event has passed. The AR control unit 333 may cause the second display device 2 to display an information AR object corresponding to the avatar of the first user who participated in the event.

具体的には、AR制御部333は、第1ユーザとあらかじめ関連付けられた第2ユーザが利用する第2表示デバイス2に情報ARオブジェクトを表示させる。AR制御部333は、例えば、イベント管理データベースにおいて、VR参加者(第1ユーザ)に対応する情報ARオブジェクトを、VR参加者に関連付けられているAR参加者(第2ユーザ)の第2表示デバイス2に表示させる。このようにすることで、情報処理装置3は、第2ユーザが参加するイベントに参加していない第1ユーザのアバターに対応する情報ARオブジェクトの表示を抑止することができる。 Specifically, the AR control unit 333 causes the information AR object to be displayed on the second display device 2 used by the second user who is associated with the first user in advance. For example, the AR control unit 333 stores the information AR object corresponding to the VR participant (first user) in the event management database on the second display device of the AR participant (second user) associated with the VR participant. Display on 2. By doing so, the information processing device 3 can suppress the display of the information AR object corresponding to the avatar of the first user who is not participating in the event in which the second user participates.

なお、AR制御部333は、イベントに参加している第1ユーザのアバターと、当該イベントに参加していない第1ユーザのアバターとをそれぞれ異なる態様で表示させてもよい。AR制御部333は、例えば、イベントに参加している第1ユーザに対応する第1ユーザARオブジェクトにマーク、フラグを付けたり、当該第1ユーザARオブジェクトに目立ち得る色(例えば、赤色、青色等)を付けたりして表示させる。一方、AR制御部333は、例えば、イベントに参加していない第1ユーザに対応する第1ユーザARオブジェクトに色を付けなかったり(例えば、半透明)、当該第1ユーザARオブジェクトに目立ち得ない色(例えば、白色)を付けたりして表示させる。 Note that the AR control unit 333 may display the avatar of the first user participating in the event and the avatar of the first user not participating in the event in different modes. The AR control unit 333 may, for example, mark or flag the first user AR object corresponding to the first user participating in the event, or add a color that stands out to the first user AR object (for example, red, blue, etc.). ) and display it. On the other hand, the AR control unit 333 may, for example, not color the first user AR object corresponding to the first user who is not participating in the event (for example, make it semi-transparent), or make the first user AR object inconspicuous. Display with a color (for example, white).

[情報処理装置3の処理の流れ]
続いて、情報処理装置3の処理の流れについて説明する。図11は、情報処理装置3の流れを示すフローチャートである。本フローチャートは、取得部331が第2表示デバイス2からデバイス位置を取得したことを契機として開始する(S1)。
[Processing flow of information processing device 3]
Next, the flow of processing of the information processing device 3 will be explained. FIG. 11 is a flowchart showing the flow of the information processing device 3. This flowchart starts when the acquisition unit 331 acquires the device position from the second display device 2 (S1).

VR制御部332は、仮想空間における第1ユーザのアバターの位置から、第2表示デバイス2のデバイス位置に対応する第2ユーザのアバターの位置までの距離を特定する(S2)。VR制御部332は、特定した距離が情報表示閾距離より大きいか否かを判定する(S3)。 The VR control unit 332 specifies the distance from the position of the first user's avatar in the virtual space to the position of the second user's avatar corresponding to the device position of the second display device 2 (S2). The VR control unit 332 determines whether the specified distance is greater than the information display threshold distance (S3).

VR制御部332は、特定した距離が情報表示閾距離より大きくはないと判定した場合(S3においてNOの場合)、構造物オブジェクトを含むVR画像であって、情報VRオブジェクトを含まないVR画像である第1のVR画像を第1表示デバイス1に提示する(S4)。また、VR制御部332が、特定した距離が情報表示閾距離より大きくはないと判定した場合(S3においてNOの場合)、AR制御部333は、第1ユーザARオブジェクトを含むAR画像であって、情報ARオブジェクトを含まないAR画像である第1のAR画像を第2表示デバイス2に提示する(S5)。 If the VR control unit 332 determines that the specified distance is not greater than the information display threshold distance (NO in S3), the VR control unit 332 displays a VR image that includes a structural object but does not include an information VR object. A certain first VR image is presented on the first display device 1 (S4). Further, if the VR control unit 332 determines that the specified distance is not greater than the information display threshold distance (NO in S3), the AR control unit 333 determines that the specified distance is not greater than the information display threshold distance (NO in S3), , the first AR image, which is an AR image that does not include the information AR object, is presented on the second display device 2 (S5).

一方、VR制御部332は、特定した距離が情報表示閾距離より大きいと判定した場合(S3においてYESの場合)、構造物オブジェクトと情報VRオブジェクトとを含むVR画像である第2のVR画像を第1表示デバイス1に提示する(S6)。また、VR制御部332が、特定した距離が情報表示閾距離より大きいと判定した場合(S3においてYESの場合)、AR制御部333は、第1ユーザARオブジェクトと情報ARオブジェクトとを含むAR画像である第2のAR画像を第2表示デバイス2に提示する(S7)。 On the other hand, if the VR control unit 332 determines that the specified distance is greater than the information display threshold distance (YES in S3), the VR control unit 332 displays a second VR image that is a VR image that includes a structure object and an information VR object. It is presented on the first display device 1 (S6). Further, when the VR control unit 332 determines that the specified distance is greater than the information display threshold distance (YES in S3), the AR control unit 333 controls the AR image including the first user AR object and the information AR object. A second AR image is presented on the second display device 2 (S7).

[本実施の形態における効果]
以上説明したとおり、情報処理装置3は、第1表示デバイス1に対して第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして提示し、第2表示デバイス2に対して第1ユーザの実アバター位置に関する情報を情報ARオブジェクトとして提示する。このようにすることで、情報処理装置3は、第1ユーザ及び第2ユーザがお互いのがどこにいるのかを把握させることができる。これにより、情報処理装置3は、第1ユーザ及び第2ユーザがお互いを見失ってしまう事態の発生を低減させることができる。その結果、情報処理装置3は、第1ユーザ及び第2ユーザが行動を共にしやすくさせることができる。
[Effects of this embodiment]
As explained above, the information processing device 3 presents information regarding the position of the second user's avatar to the first display device 1 as an information VR object, and presents the first user's real avatar to the second display device 2. Information regarding location is presented as an information AR object. By doing so, the information processing device 3 can make the first user and the second user know where each other is. Thereby, the information processing device 3 can reduce the occurrence of a situation in which the first user and the second user lose sight of each other. As a result, the information processing device 3 can make it easier for the first user and the second user to act together.

なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 Furthermore, the present invention makes it possible to contribute to Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations, "Create a foundation for industry and technological innovation."

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed and integrated into arbitrary units. In addition, new embodiments created by arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effects of the new embodiment resulting from the combination have the effects of the original embodiment.

1 第1表示デバイス
2 第2表示デバイス
3 情報処理装置
31 通信部
32 記憶部
33 制御部
331 取得部
332 VR制御部
333 AR制御部
334 送信部
S 情報処理システム
1 First display device 2 Second display device 3 Information processing device 31 Communication section 32 Storage section 33 Control section 331 Acquisition section 332 VR control section 333 AR control section 334 Transmission section S Information processing system

Claims (13)

実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すAR(Augmented Reality)オブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示するAR制御部と、
前記実空間における前記表示デバイスの位置を示すデバイス位置を取得する位置情報取得部と、
を備え、
前記AR制御部は、前記実アバター位置及び前記デバイス位置の関係、又は前記仮想空間における前記アバターの存在位置及び前記デバイス位置に対応する前記仮想空間における位置の関係に基づいて、前記実アバター位置を示すための情報を前記ARオブジェクトとは異なるオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示する、
情報処理装置。
An AR (Augmented Reality) object representing the avatar whose motion is controlled based on control information for controlling the avatar of the first user in the virtual space that is associated with the real space is provided to the first user who is different from the first user. 2. An AR control unit that displays a real avatar position, which is a position in the real space corresponding to a position of the avatar in the virtual space, on a display device used by two users ;
a position information acquisition unit that acquires a device position indicating the position of the display device in the real space;
Equipped with
The AR control unit determines the real avatar position based on the relationship between the real avatar position and the device position, or the relationship between the avatar's existing position in the virtual space and a position in the virtual space corresponding to the device position. further presenting information to display on the display device as an information AR object that is a different object from the AR object;
Information processing device.
前記制御情報によって示される前記仮想空間における方向に前記アバターを移動させることによって前記アバターの動作を制御するVR(Virtual Reality)制御部をさらに備え、
前記AR制御部は、前記ARオブジェクトを、前記VR制御部が前記制御情報に基づいて前記仮想空間における前記アバターの動作を制御した後における前記アバターの存在位置に対応する前記実アバター位置に提示する、
請求項1に記載の情報処理装置。
further comprising a VR (Virtual Reality) control unit that controls the movement of the avatar by moving the avatar in a direction in the virtual space indicated by the control information,
The AR control unit presents the AR object at the real avatar position corresponding to the avatar's existing position after the VR control unit controls the movement of the avatar in the virtual space based on the control information. ,
The information processing device according to claim 1.
前記AR制御部は、前記制御情報によって示される前記実空間における方向に前記ARオブジェクトを移動させることによって前記ARオブジェクトの動作を制御し、前記ARオブジェクトを、前記制御情報に基づいて制御した後における前記実アバター位置に提示する、
請求項1に記載の情報処理装置。
The AR control unit controls the operation of the AR object by moving the AR object in a direction in the real space indicated by the control information, and controls the AR object after controlling it based on the control information. presenting the real avatar at the position;
The information processing device according to claim 1.
前記第1ユーザが利用する第1表示デバイスであって前記表示デバイスである第2表示デバイスとは異なる前記第1表示デバイスに対して、前記実空間に存在する構造物を示すVRオブジェクトである構造物オブジェクトを、前記構造物の位置に対応する前記仮想空間の位置に提示するVR制御部をさらに備える、
請求項1に記載の情報処理装置。
A structure that is a VR object that indicates a structure existing in the real space for the first display device that is a first display device used by the first user and is different from a second display device that is the display device. further comprising a VR control unit that presents a physical object at a position in the virtual space corresponding to a position of the structure;
The information processing device according to claim 1.
前記AR制御部は、前記仮想空間における前記アバターの位置と、前記デバイス位置に対応する前記仮想空間における位置との間に、前記構造物オブジェクトが存在すると前記VR制御部が判定することを契機として、前記情報ARオブジェクトを前記表示デバイスに表示させる、
請求項4に記載の情報処理装置。
The AR control unit is configured to perform an operation when the VR control unit determines that the structure object exists between a position of the avatar in the virtual space and a position in the virtual space corresponding to the device position. , displaying the information AR object on the display device;
The information processing device according to claim 4.
前記AR制御部は、前記実アバター位置と、前記デバイス位置との間に、前記構造物が存在することを契機として、前記情報ARオブジェクトを前記表示デバイスに表示させる、
請求項5に記載の情報処理装置。
The AR control unit causes the information AR object to be displayed on the display device, triggered by the presence of the structure between the real avatar position and the device position.
The information processing device according to claim 5.
前記AR制御部は、前記実アバター位置と前記デバイス位置との距離が、あらかじめ定められた情報表示閾距離より大きくなることを契機として前記情報ARオブジェクトを前記表示デバイスに表示させる、
請求項1に記載の情報処理装置。
The AR control unit causes the information AR object to be displayed on the display device when the distance between the real avatar position and the device position becomes larger than a predetermined information display threshold distance.
The information processing device according to claim 1.
前記AR制御部は、前記アバターが存在する位置を示す地図情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させる、
請求項1に記載の情報処理装置。
The AR control unit causes the display device to display map information indicating a position where the avatar exists as the information AR object.
The information processing device according to claim 1.
前記AR制御部は、前記実アバター位置と前記デバイス位置との距離を示す情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させる、
請求項1に記載の情報処理装置。
The AR control unit causes the display device to display information indicating a distance between the real avatar position and the device position as the information AR object.
The information processing device according to claim 1.
前記AR制御部は、前記表示デバイスの位置を始点とした場合の前記実アバター位置の方向を示す情報を、前記情報ARオブジェクトとして前記表示デバイスに表示させる、
請求項1に記載の情報処理装置。
The AR control unit causes the display device to display information indicating the direction of the real avatar position when the position of the display device is a starting point, as the information AR object.
The information processing device according to claim 1.
前記AR制御部は、前記第1ユーザとあらかじめ関連付けられた第2ユーザが利用する表示デバイスに前記情報ARオブジェクトを表示させる、
請求項1に記載の情報処理装置。
The AR control unit displays the information AR object on a display device used by a second user associated with the first user in advance.
The information processing device according to claim 1.
コンピュータが実行する、
実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるステップと、
前記実空間における前記表示デバイスの位置を示すデバイス位置を取得するステップと、
を備え、
前記ARオブジェクトを提示させるステップにおいて、前記実アバター位置及び前記デバイス位置の関係、又は前記仮想空間における前記アバターの存在位置及び前記デバイス位置に対応する前記仮想空間における位置の関係に基づいて、前記実アバター位置を示すための情報を前記ARオブジェクトとは異なるオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる、
情報処理方法。
computer executes
A second user different from the first user uses an AR object representing the avatar whose motion is controlled based on control information for controlling the avatar of the first user in a virtual space associated with the real space. causing a display device to present the real avatar at a position in the real space that corresponds to the position of the avatar in the virtual space ;
obtaining a device position indicating the position of the display device in the real space;
Equipped with
In the step of presenting the AR object, based on the relationship between the real avatar position and the device position, or the relationship between the avatar's existing position in the virtual space and a position in the virtual space corresponding to the device position, further causing the display device to present information for indicating the avatar position as an information AR object that is a different object from the AR object;
Information processing method.
コンピュータを、
実空間と対応づけられた仮想空間における第1ユーザのアバターを制御するための制御情報に基づいて動作が制御される前記アバターを示すARオブジェクトを、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスに対して、前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に提示させるAR制御部、及び
前記実空間における前記表示デバイスの位置を示すデバイス位置を取得する位置情報取得部、
として機能させ、
前記AR制御部は、前記実アバター位置及び前記デバイス位置の関係、又は前記仮想空間における前記アバターの存在位置及び前記デバイス位置に対応する前記仮想空間における位置の関係に基づいて、前記実アバター位置を示すための情報を前記ARオブジェクトとは異なるオブジェクトである情報ARオブジェクトとして前記表示デバイスにさらに提示させる、
プログラム。
computer,
A second user different from the first user uses an AR object representing the avatar whose motion is controlled based on control information for controlling the avatar of the first user in a virtual space associated with the real space. an AR control unit that causes a display device to display a real avatar position that is a position in the real space corresponding to a position of the avatar in the virtual space ;
a position information acquisition unit that acquires a device position indicating the position of the display device in the real space;
function as
The AR control unit determines the real avatar position based on the relationship between the real avatar position and the device position, or the relationship between the avatar's existing position in the virtual space and a position in the virtual space corresponding to the device position. further causing the display device to present information to be displayed as an information AR object that is an object different from the AR object;
program.
JP2022147570A 2022-09-16 2022-09-16 Information processing device, information processing method and program Active JP7381680B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022147570A JP7381680B1 (en) 2022-09-16 2022-09-16 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022147570A JP7381680B1 (en) 2022-09-16 2022-09-16 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP7381680B1 true JP7381680B1 (en) 2023-11-15
JP2024042771A JP2024042771A (en) 2024-03-29

Family

ID=88729115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022147570A Active JP7381680B1 (en) 2022-09-16 2022-09-16 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7381680B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055257A (en) * 1996-08-09 1998-02-24 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional virtual space display method
WO2011099192A1 (en) * 2010-02-15 2011-08-18 石井 美恵子 Access control system, access control method and server
JP2020126455A (en) * 2019-02-05 2020-08-20 凸版印刷株式会社 Spatial information management device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055257A (en) * 1996-08-09 1998-02-24 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional virtual space display method
WO2011099192A1 (en) * 2010-02-15 2011-08-18 石井 美恵子 Access control system, access control method and server
JP2020126455A (en) * 2019-02-05 2020-08-20 凸版印刷株式会社 Spatial information management device

Also Published As

Publication number Publication date
JP2024042771A (en) 2024-03-29

Similar Documents

Publication Publication Date Title
JP6020446B2 (en) Image display system, image display apparatus, image display method, and program
JP4065507B2 (en) Information presentation apparatus and information processing method
EP1710002A1 (en) Information processing method and apparatus
KR101193535B1 (en) System for providing location based mobile communication service using augmented reality
US20150265922A1 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method
JPWO2014080678A1 (en) Information processing apparatus, system, information processing method, and program
CN113262465A (en) Virtual reality interaction method, equipment and system
CN110770798A (en) Information processing apparatus, information processing method, and program
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP6624646B2 (en) Information presentation system, information presentation method, and information presentation program
US20210110596A1 (en) Information processing device, information processing method, and program
CN108028906A (en) Information processing system and information processing method
JP6744652B1 (en) Congestion information notification system
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
JP2017084100A (en) Information communication terminal, sharing management device, information sharing method, and computer program
EP3739573A1 (en) Information processing device, information processing method, and program
JP7381680B1 (en) Information processing device, information processing method and program
JP6726016B2 (en) Information processing device and information processing method
JP7329114B1 (en) Information processing device, information processing method and program
JP6811323B2 (en) Information information system, player side device, control method, and program
JP7424121B2 (en) Information processing device and program
CN116490249A (en) Information processing device, information processing system, information processing method, and information processing terminal
JP3114862B2 (en) An interactive landscape labeling system
JP2009259135A (en) Network type real-time communication system
EP2336976A1 (en) System and method for providing virtiual environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221129

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7381680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150