JP7329114B1 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7329114B1
JP7329114B1 JP2022147571A JP2022147571A JP7329114B1 JP 7329114 B1 JP7329114 B1 JP 7329114B1 JP 2022147571 A JP2022147571 A JP 2022147571A JP 2022147571 A JP2022147571 A JP 2022147571A JP 7329114 B1 JP7329114 B1 JP 7329114B1
Authority
JP
Japan
Prior art keywords
user
display device
information
avatar
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022147571A
Other languages
Japanese (ja)
Other versions
JP2024042772A (en
Inventor
大樹 藤城
恭平 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2022147571A priority Critical patent/JP7329114B1/en
Application granted granted Critical
Publication of JP7329114B1 publication Critical patent/JP7329114B1/en
Publication of JP2024042772A publication Critical patent/JP2024042772A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】VRを利用するユーザとARを利用するユーザとが行動を共にしやすくする。【解決手段】情報処理装置3は、実空間と対応づけられた仮想空間において構造物を示すVRオブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるVR制御部332と、第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、第1ユーザのアバターを示す第1ユーザオブジェクトが仮想空間におけるアバターの存在位置に対応する実空間の位置である実アバター位置に表示される第2表示デバイスから、実空間における第2表示デバイスの位置を示すデバイス位置を取得する取得部331と、を備え、VR制御部332は、デバイス位置に対応する仮想空間における第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、第1表示デバイスに表示させる。【選択図】図3An object of the present invention is to make it easier for users using VR and users using AR to act together. An information processing device (3) causes a first display device (a display device used by a first user) to display a structure object, which is a VR object representing a structure in a virtual space associated with a real space. The VR control unit 332 and the second display device, which is a display device used by a second user different from the first user, have a first user object representing the avatar of the first user positioned at the position where the avatar exists in the virtual space. an acquisition unit 331 that acquires a device position indicating the position of the second display device in the real space from the second display device displayed at the real avatar position that is the corresponding position in the real space, and the VR control unit 332 , causing the first display device to display information about the position of the second user's avatar in the virtual space corresponding to the device position as an information VR object. [Selection drawing] Fig. 3

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

近年、VR(Virtual Reality)及びAR(Augmented Reality)に関するコンテンツを提供するサービスが普及しつつある。特許文献1には、第1ユーザに対して仮想世界における所定の場所のVRに関するコンテンツを提供し、第2ユーザに対して第1ユーザのアバターを配置したARに関するコンテンツを提供する技術が開示されている。 In recent years, services that provide content related to VR (Virtual Reality) and AR (Augmented Reality) are becoming popular. Patent Literature 1 discloses a technique of providing a first user with VR-related content at a predetermined location in a virtual world and providing a second user with AR-related content in which the first user's avatar is arranged. ing.

特表2016-522463号公報Japanese Patent Publication No. 2016-522463

上記技術を用いることにより、実空間における所定の場所に存在するユーザと、当該所定の場所に存在しないユーザとが行動を共にすることができる。しかしながら、これらのユーザは、お互いの実体を直接視認することができないため、行動を共にすることが難しい場合があった。 By using the above technology, a user existing at a predetermined location in real space and a user not present at the predetermined location can act together. However, since these users cannot directly see each other's entities, it is sometimes difficult for them to act together.

そこで、本発明はこれらの点に鑑みてなされたものであり、VRを利用するユーザとARを利用するユーザとが行動を共にしやすくすることを目的とする。 Accordingly, the present invention has been made in view of these points, and an object of the present invention is to make it easier for users using VR and users using AR to act together.

本発明の第1の態様に係る情報処理装置は、実空間と対応づけられた仮想空間において構造物を示すVRオブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるVR制御部と、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、前記第1ユーザのアバターを示す第1ユーザオブジェクトが前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に表示される前記第2表示デバイスから、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部と、を備え、前記VR制御部は、前記デバイス位置に対応する前記仮想空間における前記第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、前記第1表示デバイスに表示させる。 An information processing apparatus according to a first aspect of the present invention provides a structure object that is a VR object representing a structure in a virtual space associated with a real space. and a second display device which is a display device used by a second user different from the first user, wherein the first user object representing the avatar of the first user is the virtual space. position information for acquiring a device position indicating the position of the second display device in the real space from the second display device displayed at the real avatar position, which is the position in the real space corresponding to the position of the avatar in the real space an acquisition unit, wherein the VR control unit causes the first display device to display information about the position of the second user's avatar in the virtual space corresponding to the device position as an information VR object.

前記VR制御部は、前記仮想空間における前記第1ユーザのアバターを制御するための制御情報に基づいて、前記アバターの動作を制御してもよいし、前記情報処理装置は、前記第1ユーザオブジェクトを、前記第2表示デバイスに対して、前記VR制御部が前記制御情報に基づいて前記仮想空間における前記アバターの動作を制御した前記アバターの存在位置に対応する前記実アバター位置に提示するAR制御部をさらに備えてもよい。 The VR control unit may control an action of the avatar based on control information for controlling the avatar of the first user in the virtual space, and the information processing device may control the first user object. is presented on the second display device at the real avatar position corresponding to the existence position of the avatar whose motion in the virtual space is controlled by the VR control unit based on the control information. You may further provide a part.

前記VR制御部は、前記デバイス位置に対応する前記仮想空間の位置に、前記第2ユーザのアバターを示すVRオブジェクトであって、前記情報VRオブジェクトとは異なるVRオブジェクトである第2ユーザオブジェクトを前記第1表示デバイスに表示させてもよい。 The VR control unit places a second user object, which is a VR object representing an avatar of the second user and different from the information VR object, at a position in the virtual space corresponding to the device position. It may be displayed on the first display device.

前記VR制御部は、前記第1ユーザオブジェクトを、前記仮想空間における前記第1ユーザのアバターを制御するための制御情報に基づいて前記第1表示デバイスに表示させてもよいし、前記仮想空間における前記第1ユーザオブジェクトの位置から前記第2ユーザオブジェクトの位置までの距離、又は前記仮想空間における前記第1ユーザオブジェクトの位置から前記デバイス位置に対応する前記仮想空間の位置までの距離が、あらかじめ定められた情報表示閾距離より大きくなることを契機として前記情報VRオブジェクトを前記第1表示デバイスに表示させてもよい。 The VR control unit may display the first user object on the first display device based on control information for controlling the avatar of the first user in the virtual space, or A distance from the position of the first user object to the position of the second user object, or a distance from the position of the first user object in the virtual space to a position in the virtual space corresponding to the device position is predetermined. The information VR object may be displayed on the first display device when the information display threshold distance is exceeded.

前記VR制御部は、前記第1ユーザオブジェクトを、前記仮想空間における前記第1ユーザのアバターを制御するための制御情報に基づいて前記第1表示デバイスに表示させてもよいし、前記仮想空間における前記第1ユーザオブジェクトの位置と前記第2ユーザオブジェクトの位置との間、又は前記仮想空間における前記第1ユーザオブジェクトの位置と前記デバイス位置に対応する前記仮想空間の位置との間に前記構造物オブジェクトが存在することを契機として、前記情報VRオブジェクトを前記第1表示デバイスに表示させさせてもよい。 The VR control unit may display the first user object on the first display device based on control information for controlling the avatar of the first user in the virtual space, or between the position of the first user object and the position of the second user object, or between the position of the first user object in the virtual space and a position in the virtual space corresponding to the device position; Triggered by the presence of the object, the information VR object may be displayed on the first display device.

前記VR制御部は、前記第2ユーザオブジェクトが存在する位置を示す地図情報を、前記情報VRオブジェクトとして前記第1表示デバイスに表示させてもよい。 The VR control unit may cause the first display device to display map information indicating a position where the second user object exists as the information VR object.

前記VR制御部は、前記第1ユーザオブジェクトの位置から前記第2ユーザオブジェクトの位置までの距離、又は前記仮想空間における前記第1ユーザオブジェクトの位置から前記デバイス位置に対応する前記仮想空間の位置までの距離を示す情報を、前記情報VRオブジェクトとして前記第1表示デバイスに表示させてもよい。 The VR control unit controls the distance from the position of the first user object to the position of the second user object, or from the position of the first user object in the virtual space to the position in the virtual space corresponding to the device position. may be displayed on the first display device as the information VR object.

前記VR制御部は、前記第1ユーザオブジェクトを始点とした場合の前記第2ユーザオブジェクトの方向を示す情報を、前記情報VRオブジェクトとして前記第1表示デバイスに表示させてもよい。 The VR control unit may cause the first display device to display, as the information VR object, information indicating the direction of the second user object when the first user object is the starting point.

前記VR制御部は、前記第1ユーザとあらかじめ関連付けられた前記第2ユーザのアバターに対応する前記情報VRオブジェクトを前記第1表示デバイスに表示させてもよい。 The VR control unit may cause the first display device to display the information VR object corresponding to the second user's avatar pre-associated with the first user.

本発明の第2の態様に係る情報処理方法は、コンピュータが実行する、実空間と対応づけられた仮想空間において構造物を示すVRオブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるステップと、前記第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、前記第1ユーザのアバターを示す第1ユーザオブジェクトが前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に表示される前記第2表示デバイスから、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得するステップと、を備え、前記構造オブジェクトを表示させるステップにおいて、前記デバイス位置に対応する前記仮想空間における前記第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、前記第1表示デバイスに表示させる。 An information processing method according to a second aspect of the present invention is a computer-executed display device in which a first user uses a structure object, which is a VR object representing a structure in a virtual space associated with a real space. and a second display device which is a display device used by a second user different from the first user, wherein the first user object showing the avatar of the first user is displayed on the first display device A device position indicating the position of the second display device in the real space is obtained from the second display device displayed at the real avatar position, which is the position in the real space corresponding to the existing position of the avatar in the virtual space. and, in the step of displaying the structure object, displaying information on the position of the second user's avatar in the virtual space corresponding to the device position as an information VR object on the first display device. .

本発明の第3の態様に係るプログラムは、コンピュータを、実空間と対応づけられた仮想空間において構造物を示すVRオブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるVR制御部、及び前記第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、前記第1ユーザのアバターを示す第1ユーザオブジェクトが前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に表示される前記第2表示デバイスから、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部、として機能させ、前記VR制御部は、前記デバイス位置に対応する前記仮想空間における前記第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、前記第1表示デバイスに表示させる。 A program according to a third aspect of the present invention provides a computer with a structure object, which is a VR object representing a structure in a virtual space associated with a real space. and a second display device which is a display device used by a second user different from the first user, wherein a first user object representing an avatar of the first user is the virtual A position for acquiring a device position indicating the position of the second display device in the real space from the second display device displayed at the real avatar position, which is the position in the real space corresponding to the existing position of the avatar in the space. The VR control unit causes the first display device to display information about the position of the second user's avatar in the virtual space corresponding to the device position as an information VR object.

本発明によれば、VRを利用するユーザとARを利用するユーザとが行動を共にしやすくすることができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the user using VR and the user using AR being able to make it easy to act together.

情報処理システムの概要を説明するための図である。It is a figure for demonstrating the outline|summary of an information processing system. 仮想空間と実空間との対応付けの一例を模式的に表した図である。FIG. 4 is a diagram schematically showing an example of correspondence between virtual space and real space; 情報処理装置のブロック図である。1 is a block diagram of an information processing device; FIG. イベント管理データベースの構成の一例を示す図である。It is a figure which shows an example of a structure of an event management database. 第1表示デバイスに表示されるVR画像を模式的に表した図である。FIG. 4 is a diagram schematically showing a VR image displayed on the first display device; 第1表示デバイスに表示されるVR画像を模式的に表した図である。FIG. 4 is a diagram schematically showing a VR image displayed on the first display device; 第1表示デバイスに表示されるVR画像を模式的に表した図である。FIG. 4 is a diagram schematically showing a VR image displayed on the first display device; 第2表示デバイスに表示される重畳画像を模式的に表した図である。It is a figure which represented typically the superimposition image displayed on a 2nd display device. 第2表示デバイスに表示される重畳画像を模式的に表した図である。It is a figure which represented typically the superimposition image displayed on a 2nd display device. 第2表示デバイスに表示される重畳画像を模式的に表した図である。It is a figure which represented typically the superimposition image displayed on a 2nd display device. 情報処理装置の流れを示すフローチャートである。It is a flow chart which shows the flow of an information processor.

[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、イベント提供サービスを提供するために用いられるシステムである。イベント提供サービスは、実空間における所定の場所(以下、「行動場所」という。)において、実空間における行動場所に存在しない第1ユーザのアバターと、実空間における行動場所に存在する第2ユーザとを共に行動させるイベントを提供するサービスである。
[Overview of information processing system S]
FIG. 1 is a diagram for explaining an outline of an information processing system S. As shown in FIG. The information processing system S is a system used to provide an event providing service. The event providing service provides an avatar of a first user who does not exist in the action place in the real space and a second user who exists in the action place in the real space at a predetermined place in the real space (hereinafter referred to as "action place"). It is a service that provides events that make people act together.

第1ユーザは、例えば、行動場所を案内するガイド、又は第2ユーザとアバターを通して散歩する芸能人等であり、例えば、イベント提供サービスを管理する事業者からの依頼に応じてイベント提供サービスに参加するユーザである。第2ユーザは、第1ユーザとは異なるユーザであり、例えば、第1ユーザとの行動を希望してイベント提供サービスに参加するユーザである。情報処理システムSは、第1表示デバイス1と、第2表示デバイス2と、情報処理装置3とを有する。情報処理システムSは、複数の第2表示デバイス2を有してもよい。 The first user is, for example, a guide who guides the place of action, or an entertainer who takes a walk with the second user through an avatar, etc., and participates in the event providing service in response to a request from the operator who manages the event providing service, for example. User. A second user is a user different from the first user, and is, for example, a user who wishes to act with the first user and participates in the event providing service. The information processing system S has a first display device 1 , a second display device 2 and an information processing device 3 . The information processing system S may have multiple second display devices 2 .

第1表示デバイス1は、第1ユーザが利用する表示デバイスであり、例えば、スマートフォン、タブレット、パーソナルコンピュータ又はヘッドマウントディスプレイ等である。第1表示デバイス1は、VRに関する情報を表示する。第1表示デバイス1は、操作を受け付けるためのタッチパネル、キーボード又はコントローラ等の操作部と、音声を取得するためのマイク等の集音部と、音声を出力するためのスピーカ及び情報を表示するための液晶ディスプレイ等の出力部とを有する。第1表示デバイス1は、ネットワークを介して情報処理装置3と通信可能である。 The first display device 1 is a display device used by the first user, and is, for example, a smart phone, tablet, personal computer, head-mounted display, or the like. The first display device 1 displays information about VR. The first display device 1 includes an operation unit such as a touch panel, a keyboard, or a controller for accepting operations, a sound collecting unit such as a microphone for acquiring voice, a speaker for outputting voice, and for displaying information. and an output unit such as a liquid crystal display. The first display device 1 can communicate with the information processing device 3 via a network.

第2表示デバイス2は、第2ユーザが利用する表示デバイスであり、例えば、スマートフォン又はタブレット等である。第2表示デバイス2は、ARに関する情報を表示する。第2表示デバイス2は、操作を受け付けるためのタッチパネル、キーボード又はコントローラ等の操作部と、音声を取得するためのマイク等の集音部と、音声を出力するためのスピーカ及び情報を表示するための液晶ディスプレイ等の出力部と、情報を読み取るためのカメラ等の撮像部と、第2表示デバイス2の位置を測定するためのGPS(Global Positioning System)受信部とを有する。第2表示デバイス2は、ネットワークを介して情報処理装置3と通信可能である。 The second display device 2 is a display device used by the second user, such as a smart phone or a tablet. The second display device 2 displays information about AR. The second display device 2 includes an operation unit such as a touch panel, a keyboard, or a controller for receiving operations, a sound collecting unit such as a microphone for acquiring voice, a speaker for outputting voice, and for displaying information. an output unit such as a liquid crystal display, an imaging unit such as a camera for reading information, and a GPS (Global Positioning System) receiving unit for measuring the position of the second display device 2 . The second display device 2 can communicate with the information processing device 3 via a network.

情報処理装置3は、イベント提供サービスを管理するために用いられる装置であり、例えばサーバである。情報処理装置3は、ネットワークを介して第1表示デバイス1及び第2表示デバイス2と通信可能である。情報処理装置3は、VRに関する情報を第1ユーザに提示する処理を実行するためのVR制御処理と、ARに関する情報を第2ユーザに提示する処理を実行するためのAR制御処理とを実行する。本明細書において、情報処理システムは、VR制御処理とAR制御処理とを実行する1つの情報処理装置3を含む例を説明するが、これに限らず、VR制御処理を実行する第1の情報処理装置3と、AR制御処理を実行する第2の情報処理装置3とを含んでもよい。 The information processing device 3 is a device used to manage the event providing service, and is, for example, a server. The information processing device 3 can communicate with the first display device 1 and the second display device 2 via a network. The information processing device 3 executes a VR control process for executing a process of presenting VR-related information to the first user and an AR control process for executing a process of presenting AR-related information to the second user. . In this specification, the information processing system includes one information processing device 3 that executes VR control processing and AR control processing. A processing device 3 and a second information processing device 3 that executes an AR control process may be included.

VR制御処理で提示される仮想空間は、実空間と対応づけられており、情報処理装置3は、第1表示デバイス1に対して、所定の物体が存在する実空間の位置に対応する仮想空間の位置に当該所定の物体を示すオブジェクトであって、仮想空間において表示されるVRオブジェクトを提示する。また、情報処理装置3は、第2表示デバイス2に対して、VRオブジェクトが存在する仮想空間の位置に対応する実空間の位置にVRオブジェクトに対応するオブジェクトであって、実空間において表示されるARオブジェクトを提示する。 The virtual space presented in the VR control process is associated with the real space. A VR object that is an object that indicates the predetermined object at the position of and that is displayed in the virtual space is presented. Further, the information processing device 3 causes the second display device 2 to display an object corresponding to the VR object in the real space at a position in the real space corresponding to the position in the virtual space where the VR object exists. Present the AR object.

図2は、仮想空間と実空間との対応付けの一例を模式的に表した図である。図2に示す例において、空間Rは実空間であり、物体B(例えば、ビル及び道路等の構造物)と、第2ユーザである人Hとが存在する。空間Vは仮想空間であり、オブジェクトAは第1ユーザのアバターを示すVRオブジェクトである。 FIG. 2 is a diagram schematically showing an example of correspondence between virtual space and real space. In the example shown in FIG. 2, the space R is a real space, and there are objects B (eg, structures such as buildings and roads) and a person H who is a second user. Space V is a virtual space, and object A is a VR object representing the first user's avatar.

情報処理装置3は、第1表示デバイス1に対して、空間Rにおける物体Bの位置に対応する空間Vの位置P1に物体Bを示すVRオブジェクトを提示し、空間Rにおける人Hの位置に対応する空間Vの位置P2に人Hのアバターを示すVRオブジェクトを提示する。また、情報処理装置3は、第2表示デバイス2に対して、空間VにおけるオブジェクトAの位置に対応する空間Rの位置P3にオブジェクトAを示すARオブジェクトを提示する。このようにすることで、情報処理装置3は、第2ユーザが第1ユーザと行動を共にすることを疑似的に体験させることができる。 The information processing device 3 presents, to the first display device 1, a VR object representing the object B at a position P1 in the space V corresponding to the position of the object B in the space R, and corresponding to the position of the person H in the space R. A VR object representing an avatar of a person H is presented at a position P2 in a space V where the space V is located. The information processing device 3 also presents an AR object indicating the object A at a position P3 in the space R corresponding to the position of the object A in the space V on the second display device 2 . By doing so, the information processing device 3 can allow the second user to experience a virtual experience of acting together with the first user.

ここで、第1ユーザと第2ユーザとは、実空間においてお互いの実体を直接視認することができないため、第1ユーザ及び第2ユーザが行動を共にすることが難しい場合がある。例えば、第1ユーザ及び第2ユーザそれぞれの移動のペースが異なると、第1ユーザ又は第2ユーザの一方が他方を見失ってしまう事態が生じ得る。そこで、情報処理装置3は、第1ユーザ及び第2ユーザそれぞれの位置に関する情報をさらに提示する。 Here, since the first user and the second user cannot directly see each other's entities in the real space, it may be difficult for the first user and the second user to act together. For example, if the first user and the second user move at different paces, one of the first user and the second user may lose sight of the other. Therefore, the information processing device 3 further presents information regarding the positions of the first user and the second user.

具体的には、情報処理装置3は、第1表示デバイス1に対して情報VRオブジェクトをさらに提示し、第2表示デバイス2に対して情報ARオブジェクトをさらに提示する。情報VRオブジェクトは、第2ユーザ(図2に示す例における人H)のアバターの位置に関する情報を示すVRオブジェクトであって、物体Bを示すVRオブジェクト及び人Hのアバターを示すVRオブジェクトとは異なるVRオブジェクトである。情報ARオブジェクトは、仮想空間における第1ユーザのアバターの位置に対応する実空間の位置(図2に示す例における位置P3)に関する情報を示すARオブジェクトであって、第1ユーザのアバターを示すARオブジェクトとは異なるARオブジェクトである。 Specifically, the information processing device 3 further presents the information VR object to the first display device 1 and further presents the information AR object to the second display device 2 . The information VR object is a VR object that indicates information about the position of the avatar of the second user (person H in the example shown in FIG. 2), and is different from the VR object that indicates the object B and the VR object that indicates the avatar of the person H. It is a VR object. The information AR object is an AR object indicating information about the position in the real space corresponding to the position of the avatar of the first user in the virtual space (position P3 in the example shown in FIG. 2), and the AR indicating the avatar of the first user. It is an AR object different from the object.

このようにすることで、情報処理システムSは、第1ユーザ及び第2ユーザがお互いのがどこにいるのかを把握させることができる。これにより、情報処理システムSは、第1ユーザ及び第2ユーザがお互いを見失ってしまう事態の発生を低減させることができる。その結果、情報処理システムSは、第1ユーザ及び第2ユーザが行動を共にしやすくさせることができる。
以下、情報処理装置3の構成について説明する。
By doing so, the information processing system S can allow the first user and the second user to grasp where each other is. Thereby, the information processing system S can reduce the occurrence of situations in which the first user and the second user lose sight of each other. As a result, the information processing system S can make it easier for the first user and the second user to act together.
The configuration of the information processing device 3 will be described below.

[情報処理装置3の構成]
図3は、情報処理装置3のブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってもよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of information processing device 3]
FIG. 3 is a block diagram of the information processing device 3. As shown in FIG. In FIG. 3, arrows indicate main data flows, and there may be data flows other than those shown in FIG. In FIG. 3, each block does not show the configuration in units of hardware (apparatus), but the configuration in units of functions. As such, the blocks shown in FIG. 3 may be implemented within a single device, or may be implemented separately within multiple devices. Data exchange between blocks may be performed via any means such as a data bus, network, or portable storage medium.

情報処理装置3は、通信部31と、記憶部32と、制御部33とを有する。情報処理装置3は、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。また、情報処理装置3は、コンピュータ資源の集合であるクラウドによって構成されてもよい。 The information processing device 3 has a communication section 31 , a storage section 32 and a control section 33 . The information processing device 3 may be configured by connecting two or more physically separated devices by wire or wirelessly. Also, the information processing device 3 may be configured by a cloud that is a collection of computer resources.

通信部31は、ネットワークを介して第1表示デバイス1及び第2表示デバイス2との間でデータを送受信するための通信コントローラを有する。通信部31は、第1表示デバイス1又は第2表示デバイス2からネットワークを介して受信したデータを制御部33に通知する。また、通信部31は、ネットワークを介して、制御部33から出力されたデータを第1表示デバイス1又は第2表示デバイス2に送信する。 The communication unit 31 has a communication controller for transmitting and receiving data between the first display device 1 and the second display device 2 via the network. The communication unit 31 notifies the control unit 33 of data received from the first display device 1 or the second display device 2 via the network. The communication unit 31 also transmits data output from the control unit 33 to the first display device 1 or the second display device 2 via the network.

記憶部32は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部32は、制御部33が実行するプログラムを予め記憶している。記憶部32は、情報処理装置3の外部に設けられてもよく、その場合にネットワークを介して制御部33との間でデータの授受を行ってもよい。 The storage unit 32 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 32 stores programs executed by the control unit 33 in advance. The storage unit 32 may be provided outside the information processing device 3, in which case data may be exchanged with the control unit 33 via a network.

記憶部32は、仮想空間を生成するための三次元マップと、VRオブジェクト情報と、第1ユーザに関する情報と、第2ユーザに関する情報とを記憶している。例えば、三次元マップには、実空間における位置座標に対応する位置座標が定められている。VRオブジェクト情報は、例えば、実空間に存在する建物及び道路等の構造物を示すVRオブジェクトに関する情報であり、少なくとも、VRオブジェクトの属性(例えば、形、色等)と、仮想空間におけるVRオブジェクトの位置とを含む。第1ユーザに関する情報は、例えば、第1ユーザを識別するための識別情報(ID:identifier)、及び第1ユーザの名前等を含む。第2ユーザに関する情報は、例えば、第2ユーザのID、及び第2ユーザの名前等を含む。 The storage unit 32 stores a three-dimensional map for generating a virtual space, VR object information, information about the first user, and information about the second user. For example, the three-dimensional map has position coordinates corresponding to position coordinates in real space. The VR object information is, for example, information about a VR object representing structures such as buildings and roads that exist in the real space, and includes at least the attributes of the VR object (eg, shape, color, etc.) and the VR object in the virtual space. position and. The information about the first user includes, for example, identification information (ID: identifier) for identifying the first user, the name of the first user, and the like. Information about the second user includes, for example, the ID of the second user, the name of the second user, and the like.

記憶部32は、第1ユーザと第2ユーザとが行動を共にするイベントを管理するイベント管理データベースを記憶している。図4は、イベント管理データベースの構成の一例を示す図である。図4に示す例において、イベント管理データベースは、イベントIDと、開始日時と、開始場所と、VR参加者と、AR参加者とを関連付けて記憶している。 The storage unit 32 stores an event management database that manages events in which the first user and the second user act together. FIG. 4 is a diagram showing an example of the configuration of an event management database. In the example shown in FIG. 4, the event management database associates and stores an event ID, start date and time, start place, VR participants, and AR participants.

開始日時は、イベントが開始される日時である。開始場所は、イベントが開始される場所である。VR参加者は、VRでイベントに参加する第1ユーザを示す情報であり、例えば、第1ユーザのIDで示される。AR参加者は、ARでイベントに参加する一以上の第2ユーザを示す情報であり、例えば、第2ユーザのIDで示される。 The start date and time is the date and time when the event starts. The starting location is where the event starts. The VR participant is information indicating the first user participating in the event in VR, and is indicated by the ID of the first user, for example. The AR participants are information indicating one or more second users participating in the event in AR, and are indicated by the IDs of the second users, for example.

図3に戻り、制御部33は、取得部331と、VR制御部332と、AR制御部333と、送信部334とを有する。制御部33は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部32に記憶されたプログラムを実行することにより、取得部331、VR制御部332、AR制御部333及び送信部334として機能する。取得部331、VR制御部332、AR制御部333及び送信部334それぞれが行う処理については後述する。 Returning to FIG. 3 , the control unit 33 has an acquisition unit 331 , a VR control unit 332 , an AR control unit 333 and a transmission unit 334 . The control unit 33 is a processor such as a CPU (Central Processing Unit), for example, and by executing a program stored in the storage unit 32, an acquisition unit 331, a VR control unit 332, an AR control unit 333, and a transmission unit 334 Function. Processing performed by the acquisition unit 331, the VR control unit 332, the AR control unit 333, and the transmission unit 334 will be described later.

[VR制御処理]
まず、情報処理装置3が実行するVR制御処理について説明する。VR制御部332は、制御情報に基づいて第1ユーザのアバターの動作を制御する。制御情報は、仮想空間における第1ユーザのアバターを制御するための情報である。
[VR control processing]
First, VR control processing executed by the information processing device 3 will be described. The VR control unit 332 controls the action of the first user's avatar based on the control information. The control information is information for controlling the first user's avatar in the virtual space.

例えば、第1ユーザが第1表示デバイスにおいて仮想空間を移動するための操作を行うと、第1表示デバイス1は、第1ユーザの操作を示す情報を制御情報として情報処理装置3に送信する。そして、取得部331が第1表示デバイス1から制御情報を取得すると、VR制御部332は、当該制御情報によって示される仮想空間における方向に第1ユーザのアバターを移動させることによって第1ユーザのアバターの動作を制御する。 For example, when the first user performs an operation for moving in the virtual space on the first display device, the first display device 1 transmits information indicating the first user's operation to the information processing device 3 as control information. Then, when the acquisition unit 331 acquires the control information from the first display device 1, the VR control unit 332 moves the first user's avatar in the direction in the virtual space indicated by the control information. controls the behavior of

制御情報は、仮想空間における第1ユーザのアバターが予め定められたルートを移動するための情報であってもよい。例えば、イベント管理データベースには、イベントに対応する制御情報がさらに関連付けて記憶されている。この場合において、VR制御部332は、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、当該イベントに対応するイベントIDに関連付けられている制御情報に基づいて、第1ユーザのアバターの動作を制御する。 The control information may be information for moving the first user's avatar in the virtual space along a predetermined route. For example, the event management database further stores control information associated with events. In this case, the VR control unit 332 is triggered by the elapse of the start date and time of a certain event, and based on the control information associated with the event ID corresponding to the event, the first user's avatar controls the behavior of

VR制御部332は、VRオブジェクトを第1表示デバイス1に提示する処理を実行する。具体的には、VR制御部332は、VRオブジェクトとして構造物オブジェクトを第1表示デバイス1に表示させる。構造物オブジェクトは、仮想空間において構造物(実空間に存在する構造物)を示すVRオブジェクトである。より具体的には、VR制御部332は、構造物オブジェクトを、実空間における構造物の位置に対応する仮想空間の位置に表示させる。 The VR control unit 332 executes processing for presenting the VR object on the first display device 1 . Specifically, the VR control unit 332 causes the first display device 1 to display the structure object as the VR object. A structure object is a VR object that represents a structure in virtual space (a structure that exists in real space). More specifically, the VR control unit 332 displays the structure object at a position in the virtual space corresponding to the position of the structure in the real space.

例えば、まず、VR制御部332は、記憶部32に記憶されている三次元マップ及びVRオブジェクト情報に基づいて、所定の範囲の仮想空間であって、実空間における構造物の位置に対応する仮想空間の位置に配置した構造物オブジェクトを含む仮想空間が表示されたVR画像を生成する。所定の範囲は、第1ユーザのアバターの位置に応じて定まる範囲(例えば、第1ユーザのアバターの位置から100メートルまでの範囲)、又はイベント提供サービスにおいて第1ユーザと第2ユーザとが行動する範囲として予め定められた行動範囲等である。送信部334は、VR制御部332が生成したVR画像を第1表示デバイス1に送信する。そして、第1表示デバイス1は、取得したVR画像を表示させる。 For example, first, based on the three-dimensional map and the VR object information stored in the storage unit 32, the VR control unit 332 is a virtual space within a predetermined range, a virtual space corresponding to the position of the structure in the real space. A VR image is generated in which a virtual space including structural objects arranged at spatial positions is displayed. The predetermined range is a range determined according to the position of the first user's avatar (for example, a range of up to 100 meters from the position of the first user's avatar), or the behavior of the first user and the second user in the event providing service. It is an action range or the like that is predetermined as a range to perform. The transmitter 334 transmits the VR image generated by the VR controller 332 to the first display device 1 . Then, the first display device 1 displays the acquired VR image.

VR制御部332は、第1表示デバイス1にVR画像を生成させてもよい。例えば、まず、VR制御部332は、記憶部32に記憶されている三次元マップ及びVRオブジェクト情報の中から、所定の範囲に含まれる三次元マップの部分及びVRオブジェクト情報の部分を特定する。送信部334は、VR制御部332が特定した三次元マップ及びVRオブジェクト情報を第1表示デバイス1に送信する。そして、第1表示デバイス1は、取得した三次元マップ及びVRオブジェクト情報に基づいて、構造物オブジェクトを含む仮想空間が表示されたVR画像を生成し、生成したVR画像を表示する。 The VR control section 332 may cause the first display device 1 to generate a VR image. For example, first, the VR control unit 332 identifies a 3D map portion and a VR object information portion included in a predetermined range from the 3D map and VR object information stored in the storage unit 32 . The transmission unit 334 transmits the 3D map and the VR object information specified by the VR control unit 332 to the first display device 1 . Then, the first display device 1 generates a VR image in which a virtual space including a structure object is displayed based on the acquired 3D map and VR object information, and displays the generated VR image.

VR制御部332は、VRオブジェクトとして第1ユーザVRオブジェクトを第1表示デバイス1に表示させてもよい。第1ユーザVRオブジェクトは、第1ユーザのアバターを示すVRオブジェクトであって、構造物オブジェクトとは異なるVRオブジェクトである。 The VR control unit 332 may cause the first display device 1 to display the first user VR object as the VR object. The first user VR object is a VR object representing the first user's avatar, and is a VR object different from the structure object.

具体的には、VR制御部332は、第1ユーザVRオブジェクトを、制御情報に基づいて第1表示デバイス1に表示させる。より具体的には、VR制御部332は、第1ユーザVRオブジェクトを、制御情報に基づいて第1ユーザのアバターの動作を制御した後の仮想空間の位置に表示させる。 Specifically, the VR control unit 332 causes the first display device 1 to display the first user VR object based on the control information. More specifically, the VR control unit 332 displays the first user VR object at a position in the virtual space after controlling the action of the first user's avatar based on the control information.

VR制御部332は、VRオブジェクトとして第2ユーザVRオブジェクトを第1表示デバイス1に表示させてもよい。第2ユーザVRオブジェクトは、第2ユーザのアバターを示すVRオブジェクトであって、構造物オブジェクト及び第1ユーザVRオブジェクトとは異なるVRオブジェクトである。 The VR control unit 332 may cause the first display device 1 to display the second user VR object as the VR object. The second user VR object is a VR object representing the second user's avatar, and is a VR object different from the structure object and the first user VR object.

具体的には、まず、取得部331は、位置情報取得部として機能し、第2表示デバイス2から、第2表示デバイス2のデバイス位置を取得する。デバイス位置は、実空間における第2表示デバイス2の位置を示す情報であり、例えば、第2表示デバイス2のGPS受信部が受信した情報に基づいて測定された位置を示す情報である。デバイス位置は、これに限らず、第2表示デバイス2の撮像部が周囲を撮像した撮像画像に基づいて特定された位置を示す情報であってもよく、この場合、第2表示デバイス2が撮像画像に基づいて位置を特定してもよいし、情報処理装置3が撮像画像に基づいて位置を特定してもよい。そして、VR制御部332は、取得部331が取得したデバイス位置に対応する仮想空間の位置に、第2ユーザVRオブジェクトを第1表示デバイス1に表示させる。 Specifically, first, the acquisition unit 331 functions as a position information acquisition unit and acquires the device position of the second display device 2 from the second display device 2 . The device position is information indicating the position of the second display device 2 in real space, for example, information indicating the position measured based on the information received by the GPS receiver of the second display device 2 . The device position is not limited to this, and may be information indicating a position specified based on a captured image of the surroundings captured by the imaging unit of the second display device 2. In this case, the second display device 2 captures the The position may be specified based on the image, or the information processing device 3 may specify the position based on the captured image. Then, the VR control unit 332 causes the first display device 1 to display the second user VR object at the position in the virtual space corresponding to the device position acquired by the acquisition unit 331 .

VR制御部332は、VRオブジェクトとして情報VRオブジェクトを第1表示デバイス1に表示させる。情報VRオブジェクトは、構造物オブジェクト、第1ユーザVRオブジェクト及び第2ユーザVRオブジェクトとは異なるVRオブジェクトである。 The VR control unit 332 causes the first display device 1 to display the information VR object as the VR object. The information VR object is a VR object different from the structure object, the first user VR object and the second user VR object.

具体的には、VR制御部332は、実空間における第2表示デバイス2のデバイス位置に対応する仮想空間における第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして、第1表示デバイス1に表示させる。位置に関する情報は、例えば、第2ユーザのアバターの位置を示す情報である。より具体的には、VR制御部332は、第2ユーザVRオブジェクトが存在する位置を示す地図情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。 Specifically, the VR control unit 332 displays information about the position of the second user's avatar in the virtual space corresponding to the device position of the second display device 2 in the real space on the first display device 1 as an information VR object. Let Information about the position is, for example, information indicating the position of the second user's avatar. More specifically, the VR control unit 332 causes the first display device 1 to display map information indicating the position where the second user VR object exists as the information VR object.

図5は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図5に示す例において、第1表示デバイス1に表示されているVR画像である画像V1には、地図情報であるオブジェクトX1が表示されている。オブジェクトX1には、第1ユーザのアバターの位置を示すマークL1と、第2ユーザのアバターの位置を示すマークL2とが表示されている。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトがどこにいるかを把握することができる。 FIG. 5 is a diagram schematically showing a VR image displayed on the first display device 1. As shown in FIG. In the example shown in FIG. 5, an image V1 that is a VR image displayed on the first display device 1 displays an object X1 that is map information. A mark L1 indicating the position of the first user's avatar and a mark L2 indicating the position of the second user's avatar are displayed on the object X1. The information processing device 3 causes the first display device 1 to display such an information VR object, so that the first user can grasp where the second user VR object is.

位置に関する情報は、第1ユーザから第2ユーザまでの距離を示す情報であってもよい。具体的には、VR制御部332は、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離、又は仮想空間における第1ユーザVRオブジェクトの位置からデバイス位置に対応する仮想空間の位置までの距離を示す情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。 The information about the position may be information indicating the distance from the first user to the second user. Specifically, the VR control unit 332 controls the distance from the position of the first user VR object to the position of the second user VR object, or the distance from the position of the first user VR object in the virtual space to the virtual space corresponding to the device position. Information indicating the distance to the position is displayed on the first display device 1 as an information VR object.

例えば、まず、VR制御部332は、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定する。VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から仮想空間における第2ユーザVRオブジェクトの位置までの距離を特定してもよい。また、VR制御部332は、第1の空間(仮想空間及び実空間のうちのいずれか)における第1ユーザの位置から、第1の空間とは異なる第2の空間(第1の空間が仮想空間である場合、第2の空間は実空間であり、第1の空間が実空間である場合、第2の空間は仮想区間である。)における第2ユーザの位置までの距離を特定してもよい。送信部334は、VR制御部332が特定した距離を示す情報を、位置に関する情報として第1表示デバイス1に送信する。そして、第1表示デバイス1は、距離を示す情報を情報VRオブジェクトとして表示させる。 For example, first, the VR control unit 332 identifies the distance from the position in the real space corresponding to the position of the first user's avatar in the virtual space to the device position of the second display device 2 . The VR control section 332 may specify the distance from the position of the first user VR object in the virtual space to the position of the second user VR object in the virtual space. In addition, the VR control unit 332 moves from the position of the first user in the first space (either the virtual space or the real space) to a second space (where the first space is a virtual space) different from the first space. If it is a space, the second space is a real space, and if the first space is a real space, the second space is a virtual section). good too. The transmission unit 334 transmits information indicating the distance specified by the VR control unit 332 to the first display device 1 as position information. Then, the first display device 1 displays information indicating the distance as an information VR object.

図6は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図6に示す例において、第1表示デバイス1に表示されているVR画像である画像V2には、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離が表示されている。なお、画像V2には、オブジェクトX2として、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離を示すメッセージが表示されていてもよい。VR制御部332が、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定した場合、画像V2には、オブジェクトX2として、第2ユーザとの距離が離れすぎていることを示すメッセージ又は警告を示すメッセージが表示されていてもよい。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトとどのくらい離れているかを把握することができる。 FIG. 6 is a diagram schematically showing a VR image displayed on the first display device 1. As shown in FIG. In the example shown in FIG. 6, an image V2, which is a VR image displayed on the first display device 1, is displayed on the second display device 2 from a position in the real space corresponding to the position of the first user's avatar in the virtual space. , the distance to the device location is displayed. Note that a message indicating the distance from the position of the first user VR object to the position of the second user VR object may be displayed as the object X2 in the image V2. When the VR control unit 332 specifies the distance from the position in the real space corresponding to the position of the first user's avatar in the virtual space to the device position of the second display device 2, the image V2 includes an object X2 of A message indicating that the distance from the second user is too far or a message indicating a warning may be displayed. By causing the information VR object to be displayed on the first display device 1 by the information processing device 3, the first user can grasp how far the second user VR object is.

位置に関する情報は、第2ユーザVRオブジェクトの方向を示す情報であってもよい。具体的には、VR制御部332は、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を示す情報を、情報VRオブジェクトとして第1表示デバイス1に表示させる。 The information about the position may be information indicating the direction of the second user VR object. Specifically, the VR control unit 332 causes the first display device 1 to display, as an information VR object, information indicating the direction of the second user VR object when the first user VR object is the starting point.

例えば、まず、VR制御部332は、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を特定する。送信部334は、VR制御部332が特定した方向を示す情報を、位置に関する情報として第1表示デバイス1に送信する。そして、第1表示デバイス1は、方向を示す情報を情報VRオブジェクトとして表示させる。 For example, first, the VR control unit 332 identifies the direction of the second user VR object when the first user VR object is the starting point. The transmission unit 334 transmits information indicating the direction specified by the VR control unit 332 to the first display device 1 as information regarding the position. The first display device 1 then displays the information indicating the direction as an information VR object.

図7は、第1表示デバイス1に表示されるVR画像を模式的に表した図である。図7に示す例において、第1表示デバイス1に表示されているVR画像である画像V3には、第1ユーザVRオブジェクトを始点とした場合の第2ユーザVRオブジェクトの方向を示す矢印のオブジェクトX3が表示されている。なお、画像V3には、オブジェクトX3として、第1ユーザVRオブジェクトが向いている方向に対する第2ユーザVRオブジェクトの位置を示す矢印が表示されていてもよい。情報処理装置3がこのような情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトがどの方向にいるかを把握することができる。 FIG. 7 is a diagram schematically showing a VR image displayed on the first display device 1. As shown in FIG. In the example shown in FIG. 7, an image V3, which is a VR image displayed on the first display device 1, includes an arrow object X3 indicating the direction of the second user VR object when the first user VR object is the starting point. is displayed. Note that an arrow indicating the position of the second user VR object with respect to the direction in which the first user VR object is facing may be displayed as the object X3 in the image V3. The information processing device 3 causes the first display device 1 to display such an information VR object, so that the first user can grasp which direction the second user VR object is.

VR制御部332は、位置に関する情報として、第2ユーザVRオブジェクトが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第2ユーザVRオブジェクトの方向を示す情報とのうちのいずれかを表示させてもよいし、第2ユーザVRオブジェクトが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第2ユーザVRオブジェクトの方向を示す情報とを同時に表示させてもよい。 The VR control unit 332 provides, as position information, map information indicating the position where the second user VR object exists, information indicating the distance from the first user to the second user, and the direction of the second user VR object. map information indicating the position where the second user VR object exists, information indicating the distance from the first user to the second user, and information indicating the second user VR object. and information indicating the direction of .

VR制御部332は、例えば、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、情報VRオブジェクトを第1表示デバイス1に表示させる。VR制御部332は、所定の条件を満たす場合に、情報VRオブジェクトを第1表示デバイス1に表示させてもよい。 For example, the VR control unit 332 causes the first display device 1 to display the information VR object each time the acquisition unit 331 acquires the device position of the second display device 2 at predetermined intervals. The VR control section 332 may display the information VR object on the first display device 1 when a predetermined condition is satisfied.

具体的には、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離、又は仮想空間における第1ユーザVRオブジェクトの位置からデバイス位置に対応する仮想空間の位置までの距離が情報表示閾距離より大きくなることを契機として情報VRオブジェクトを第1表示デバイス1に表示させる。情報表示閾距離は、予め定められた数値である。情報表示閾距離は、人及び建物が多い都市部、街中等においては短い距離が定められ、人及び建物が少ない郊外、河川敷等においては長い距離が定められる等のように、行動場所に応じて異なっていてもよい。 Specifically, the VR control unit 332 corresponds to the distance from the position of the first user VR object in the virtual space to the position of the second user VR object, or the position of the first user VR object in the virtual space to the device position. The information VR object is displayed on the first display device 1 when the distance to the position in the virtual space becomes larger than the information display threshold distance. The information display threshold distance is a predetermined numerical value. The information display threshold distance is determined according to the place of action, such as a short distance in urban areas and towns with many people and buildings, and a long distance in suburbs and riverbeds with few people and buildings. can be different.

例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離が情報表示閾距離より大きいか否かを判定する。そして、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離が情報表示閾距離より大きいと判定した場合に、情報VRオブジェクトを第1表示デバイス1に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトと離れていることを認識することができる。 For example, every time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval, the VR control unit 332 changes the position of the second user VR object from the position of the first user VR object in the virtual space. It is determined whether or not the distance to is greater than the information display threshold distance. When the VR control unit 332 determines that the distance from the position of the first user VR object to the position of the second user VR object in the virtual space is greater than the information display threshold distance, the VR control unit 332 displays the information VR object on the first display device. 1 is displayed. By having the information processing device 3 display the information VR object on the first display device 1 under such conditions, the first user can recognize that the second user VR object is separated.

VR制御部332は、第2ユーザVRオブジェクトが構造物オブジェクトで遮蔽されてしまった場合に、情報VRオブジェクトを第1表示デバイス1に表示させてもよい。具体的には、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間、又は仮想空間における第1ユーザVRオブジェクトの位置とデバイス位置に対応する仮想空間の位置との間に構造物オブジェクトが存在することを契機として、情報VRオブジェクトを第1表示デバイスに表示させる。 The VR control section 332 may display the information VR object on the first display device 1 when the second user VR object is blocked by the structure object. Specifically, the VR control unit 332 corresponds to between the position of the first user VR object and the position of the second user VR object in the virtual space, or between the position of the first user VR object and the device position in the virtual space. The information VR object is displayed on the first display device with the presence of the structure object between it and the position in the virtual space as a trigger.

例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在するか否かを判定する。そして、VR制御部332は、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在すると判定した場合に、情報VRオブジェクトを第1表示デバイス1に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第1表示デバイス1に表示させることにより、第1ユーザは、第2ユーザVRオブジェクトが見えなくなったことを認識することができる。 For example, every time the acquisition unit 331 acquires the device position of the second display device 2 at predetermined intervals, the VR control unit 332 first determines the position of the first user VR object and the position of the second user VR object in the virtual space. It is determined whether or not there is a structure object between When the VR control unit 332 determines that a structure object exists between the position of the first user VR object and the position of the second user VR object in the virtual space, the VR control unit 332 transfers the information VR object to the first display device 1 to display. By having the information processing device 3 display the information VR object on the first display device 1 under such conditions, the first user can recognize that the second user VR object has disappeared.

VR制御部332は、例えば、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、VRオブジェクトを第1表示デバイス1に提示する処理を実行する。VR制御部332は、イベントに参加した第2ユーザのアバターに対応する情報VRオブジェクトを第1表示デバイス1に表示させてもよい。 For example, in a certain event, the VR control unit 332 executes processing for presenting a VR object to the first display device 1 when the start date and time of the event has passed. The VR control section 332 may cause the first display device 1 to display an information VR object corresponding to the second user's avatar who participated in the event.

具体的には、VR制御部332は、第1ユーザとあらかじめ関連付けられた第2ユーザのアバターに対応する情報VRオブジェクトを第1表示デバイス1に表示させる。VR制御部332は、例えば、イベント管理データベースにおいて、VR参加者(第1ユーザ)と関連付けられているAR参加者(第2ユーザ)のアタバーに対応する情報VRオブジェクトを第1表示デバイス1に表示させる。このようにすることで、情報処理装置3は、イベントに参加していない第2ユーザのアバターに対応する情報VRオブジェクトの表示を抑止することができる。 Specifically, the VR control unit 332 causes the first display device 1 to display an information VR object corresponding to the second user's avatar previously associated with the first user. The VR control unit 332 displays, on the first display device 1, an information VR object corresponding to the avatar of the AR participant (second user) associated with the VR participant (first user) in the event management database, for example. Let By doing so, the information processing device 3 can suppress the display of the information VR object corresponding to the avatar of the second user who has not participated in the event.

なお、VR制御部332は、イベントに参加している第2ユーザのアバターと、当該イベントに参加していない第2ユーザのアバターとをそれぞれ異なる態様で表示させてもよい。VR制御部332は、例えば、イベントに参加している第2ユーザに対応する第2ユーザVRオブジェクトにマーク、フラグを付けたり、当該第2ユーザVRオブジェクトに目立ち得る色(例えば、赤色、青色等)を付けたりして表示させる。一方、VR制御部332は、例えば、イベントに参加していない第2ユーザに対応する第2ユーザVRオブジェクトに色を付けなかったり(例えば、半透明)、当該第2ユーザVRオブジェクトに目立ち得ない色(例えば、白色)を付けたりして表示させる。 Note that the VR control unit 332 may display the avatar of the second user participating in the event and the avatar of the second user not participating in the event in different modes. The VR control unit 332, for example, marks or flags the second user VR object corresponding to the second user participating in the event, or assigns a conspicuous color (eg, red, blue, etc.) to the second user VR object. ) is displayed. On the other hand, the VR control unit 332 may, for example, not color the second user VR object corresponding to the second user who is not participating in the event (for example, translucent), or make the second user VR object inconspicuous. It is displayed with a color (for example, white).

[AR制御処理]
続いて、情報処理装置3が実行するAR制御処理について説明する。AR制御部333は、ARオブジェクトを第2表示デバイス2に提示する処理を実行する。具体的には、AR制御部333は、ARオブジェクトとして第1ユーザARオブジェクトを、第2表示デバイス2に対して実アバター位置に提示する。第1ユーザARオブジェクトは、第1ユーザのアバターを示すARオブジェクトである。実アバター位置は、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置である。
[AR control processing]
Next, AR control processing executed by the information processing device 3 will be described. The AR control unit 333 executes processing for presenting the AR object on the second display device 2 . Specifically, the AR control unit 333 presents the first user AR object as the AR object to the second display device 2 at the position of the real avatar. The first user AR object is an AR object representing the avatar of the first user. The real avatar position is a position in real space corresponding to the existing position of the first user's avatar in virtual space.

例えば、まず、AR制御部333は、実アバター位置に配置した第1ユーザARオブジェクトが表示されたAR画像を生成する。送信部334は、AR制御部333が生成したAR画像を第2表示デバイス2に送信する。そして、第2表示デバイス2は、取得したAR画像を第2表示デバイス2の撮像部が撮像した撮像画像に重畳した重畳画像を表示させる。 For example, first, the AR control unit 333 generates an AR image in which the first user AR object placed at the position of the real avatar is displayed. The transmission unit 334 transmits the AR image generated by the AR control unit 333 to the second display device 2 . Then, the second display device 2 displays a superimposed image in which the acquired AR image is superimposed on the captured image captured by the imaging unit of the second display device 2 .

AR制御部333は、第2表示デバイス2にAR画像を生成させてもよい。例えば、まず、送信部334は、第1ユーザARオブジェクトに関するARオブジェクト情報と、実アバター位置とを第2表示デバイス2に送信する。ARオブジェクト情報は、例えば、第1ユーザARオブジェクトの形、色等を示す情報である。そして、第2表示デバイス2は、取得しARオブジェクト情報と実アバター位置とに基づいて、実アバター位置に配置された第1ユーザARオブジェクトが表示されたAR画像を生成し、生成したAR画像を第2表示デバイス2の撮像部が撮像した撮像画像に重畳した重畳画像を表示する。 The AR control section 333 may cause the second display device 2 to generate an AR image. For example, first, the transmission unit 334 transmits the AR object information regarding the first user AR object and the real avatar position to the second display device 2 . The AR object information is, for example, information indicating the shape, color, etc. of the first user AR object. Then, the second display device 2 generates an AR image in which the first user AR object placed at the real avatar position is displayed based on the obtained AR object information and the real avatar position, and displays the generated AR image. A superimposed image superimposed on the captured image captured by the imaging unit of the second display device 2 is displayed.

AR制御部333は、第1ユーザARオブジェクトを、VR制御部332が制御情報に基づいて仮想空間における第1ユーザのアバターの動作を制御した後における第1ユーザのアバターの存在位置に対応する実アバター位置に提示する。具体的には、AR制御部333は、第1ユーザARオブジェクトを、第1ユーザのアバターの第1存在位置から移動させた第1ユーザのアバターの第2存在位置に対応する実アバター位置に提示する。第1存在位置は、VR制御部332が制御情報に基づいて第1ユーザのアバターを移動させる前の仮想空間の存在位置である。第2存在位置は、VR制御部332が制御情報に基づいて第1ユーザのアバターを移動させた後の仮想空間の存在位置である。 The AR control unit 333 converts the first user AR object into a real object corresponding to the position where the first user's avatar exists after the VR control unit 332 controls the motion of the first user's avatar in the virtual space based on the control information. Presented to the avatar position. Specifically, the AR control unit 333 presents the first user AR object at the real avatar position corresponding to the second position of the avatar of the first user moved from the first position of the avatar of the first user. do. The first existing position is the existing position in the virtual space before the VR control unit 332 moves the first user's avatar based on the control information. The second existing position is the existing position in the virtual space after the VR control unit 332 moves the first user's avatar based on the control information.

AR制御部333は、制御情報によって示される実空間における方向に第1ユーザARオブジェクトを移動させることによって第1ユーザARオブジェクトの動作を制御し、第1ユーザARオブジェクトを、制御情報に基づいて制御した後における実アバター位置に提示してもよい。具体的には、AR制御部333は、第1ユーザARオブジェクトを、第1実アバター位置から移動させた第2実アバター位置に提示する。第1実アバター位置は、制御情報に基づいて第1ユーザARオブジェクトを移動させる前の実空間の位置である。第2実アバター位置は、制御情報に基づいて第1ユーザARオブジェクトを移動させた後の実空間の位置である。 The AR control unit 333 controls the operation of the first user AR object by moving the first user AR object in the direction in the real space indicated by the control information, and controls the first user AR object based on the control information. may be presented at the actual avatar position after Specifically, the AR control unit 333 presents the first user AR object to the second real avatar position moved from the first real avatar position. The first real avatar position is the position in real space before the first user AR object is moved based on the control information. The second real avatar position is the position in real space after the first user AR object is moved based on the control information.

AR制御部333は、複数の第2ユーザが存在する場合、複数の第2ユーザのうちの一方に対して、ARオブジェクトとして他方の第2ユーザARオブジェクトを提示してもよい。具体的には、AR制御部333は、複数の第2ユーザのうちの一方の第2表示デバイス2に対して、他方の第2ユーザARオブジェクトを、当該他方の第2表示デバイス2のデバイス位置に表示させる。 When there are multiple second users, the AR control unit 333 may present the other second user AR object as an AR object to one of the multiple second users. Specifically, the AR control unit 333 causes the second display device 2 of one of the plurality of second users to display the other second user AR object at the device position of the other second display device 2 . to display.

AR制御部333は、ARオブジェクトとして情報ARオブジェクトを第2表示デバイス2にさらに提示する。情報ARオブジェクトは、第1ユーザARオブジェクト及び第2ユーザARオブジェクトとは異なるARオブジェクトであるである。 The AR control unit 333 further presents the information AR object to the second display device 2 as an AR object. The information AR object is an AR object different from the first user AR object and the second user AR object.

具体的には、AR制御部333は、第1ユーザのアバターの実アバター位置に関する情報を情報ARオブジェクトとして第2表示デバイス2にさらに表示させる。実アバター位置に関する情報は、例えば、第1ユーザのアバターの位置を示す情報である。より具体的には、AR制御部333は、第1ユーザのアバターが存在する位置を示す地図情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。 Specifically, the AR control unit 333 causes the second display device 2 to further display information about the real avatar position of the first user's avatar as an information AR object. Information about the real avatar position is, for example, information indicating the position of the first user's avatar. More specifically, the AR control unit 333 causes the second display device 2 to display map information indicating the position where the first user's avatar exists as an information AR object.

図8は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図8に示す例において第2表示デバイス2に表示されている画像O1は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O1には、地図情報であるオブジェクトY1が表示されている。オブジェクトY1には、第2ユーザのアバターの位置を示すマークL3と、第1ユーザのアバターの位置を示すマークL4とが表示されている。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトがどこにいるかを把握することができる。 FIG. 8 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. An image O1 displayed on the second display device 2 in the example shown in FIG. 8 is a superimposed image obtained by superimposing a captured image captured by the second display device 2 on an AR image. An object Y1, which is map information, is displayed in the image O1. A mark L3 indicating the position of the second user's avatar and a mark L4 indicating the position of the first user's avatar are displayed on the object Y1. By causing the second display device 2 to display such an information AR object by the information processing device 3, the second user can grasp where the first user AR object is.

実アバター位置に関する情報は、第1ユーザから第2ユーザまでの距離を示す情報であってもよい。具体的には、AR制御部333は、実アバター位置とデバイス位置との距離を示す情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。 Information about the real avatar position may be information indicating the distance from the first user to the second user. Specifically, the AR control unit 333 causes the second display device 2 to display information indicating the distance between the real avatar position and the device position as an information AR object.

例えば、まず、AR制御部333は、実アバター位置からデバイス位置までの距離を特定する。AR制御部333は、仮想空間における第1ユーザVRオブジェクトの位置から仮想空間における第2ユーザVRオブジェクトの位置までの距離を特定してもよい。また、AR制御部333は、第1の空間(仮想空間及び実空間のうちのいずれか)における第1ユーザの位置から、第1の空間とは異なる第2の空間(第1の空間が仮想空間である場合、第2の空間は実空間であり、第1の空間が実空間である場合、第2の空間は仮想区間である。)における第2ユーザの位置までの距離を特定してもよい。送信部334は、AR制御部333が特定した距離を示す情報を、実アバター位置に関する情報として第2表示デバイス2に送信する。そして、第2表示デバイス2は、距離を示す情報を情報VRオブジェクトとして表示させる。 For example, first, the AR control unit 333 identifies the distance from the real avatar position to the device position. The AR control unit 333 may specify the distance from the position of the first user VR object in the virtual space to the position of the second user VR object in the virtual space. Also, the AR control unit 333 controls the position of the first user in the first space (either the virtual space or the real space) to move to a second space (where the first space is a virtual space) different from the first space. If it is a space, the second space is a real space, and if the first space is a real space, the second space is a virtual section). good too. The transmission unit 334 transmits information indicating the distance specified by the AR control unit 333 to the second display device 2 as information on the real avatar position. Then, the second display device 2 displays information indicating the distance as an information VR object.

図9は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図9に示す例において第2表示デバイス2に表示されている画像O2は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O2には、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離を示すメッセージのオブジェクトY2が表示されている。なお、画像O2には、オブジェクトY2として、第1ユーザVRオブジェクトの位置から第2ユーザVRオブジェクトの位置までの距離を示すメッセージが表示されていてもよい。AR制御部333が、仮想空間における第1ユーザのアバターの存在位置に対応する実空間の位置から第2表示デバイス2のデバイス位置までの距離を特定した場合、画像O2には、オブジェクトY2として、第1ユーザとの距離が離れすぎていることを示すメッセージ又は警告を示すメッセージが表示されていてもよい。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトとどのくらい離れているかを把握することができる。 FIG. 9 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. The image O2 displayed on the second display device 2 in the example shown in FIG. 9 is a superimposed image obtained by superimposing the captured image captured by the second display device 2 on the AR image. An object Y2 of a message indicating the distance from the first user's real avatar position to the device position of the second display device 2 is displayed in the image O2. Note that a message indicating the distance from the position of the first user VR object to the position of the second user VR object may be displayed as the object Y2 in the image O2. When the AR control unit 333 specifies the distance from the position in the real space corresponding to the position of the first user's avatar in the virtual space to the device position of the second display device 2, the image O2 includes an object Y2 of A message indicating that the distance from the first user is too far or a warning message may be displayed. By causing the second display device 2 to display such an information AR object by the information processing device 3, the second user can grasp how far the second user AR object is from the first user AR object.

実アバター位置に関する情報は、第1ユーザARオブジェクトの方向を示す情報であってもよい。具体的には、AR制御部333は、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を示す情報を、情報ARオブジェクトとして第2表示デバイス2に表示させる。 The information about the real avatar position may be information indicating the direction of the first user AR object. Specifically, the AR control unit 333 displays information indicating the direction of the real avatar position of the first user with the device position of the second display device 2 as the starting point on the second display device 2 as an information AR object. Let

例えば、まず、AR制御部333は、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を特定する。送信部334は、AR制御部333が特定した方向を示す情報を、実アバター位置に関する情報として第2表示デバイス2に送信する。そして、第2表示デバイス2は、方向を示す情報を情報ARオブジェクトとして表示させる。 For example, first, the AR control unit 333 identifies the direction of the real avatar position of the first user when the device position of the second display device 2 is used as the starting point. The transmission unit 334 transmits information indicating the direction specified by the AR control unit 333 to the second display device 2 as information regarding the real avatar position. Then, the second display device 2 displays the information indicating the direction as an information AR object.

図10は、第2表示デバイス2に表示される重畳画像を模式的に表した図である。図10に示す例において第2表示デバイス2に表示されている画像O3は、AR画像に第2表示デバイス2が撮像した撮像画像を重畳した重畳画像である。画像O3には、第2表示デバイス2のデバイス位置を始点とした場合の第1ユーザの実アバター位置の方向を示す矢印のオブジェクトY3が表示されている。なお、画像O3には、オブジェクトY3として、第2表示デバイス2の撮像部が向いている方向に対する第1ユーザの実アバター位置を示す矢印が表示されていてもよい。情報処理装置3がこのような情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトがどの方向にいるかを把握することができる。 FIG. 10 is a diagram schematically showing a superimposed image displayed on the second display device 2. As shown in FIG. An image O3 displayed on the second display device 2 in the example shown in FIG. 10 is a superimposed image obtained by superimposing a captured image captured by the second display device 2 on an AR image. The image O3 displays an arrow object Y3 that indicates the direction of the real avatar position of the first user when the device position of the second display device 2 is the starting point. In the image O3, an arrow indicating the real avatar position of the first user with respect to the direction in which the imaging unit of the second display device 2 faces may be displayed as the object Y3. By causing the second display device 2 to display such an information AR object by the information processing device 3, the second user can grasp the direction in which the first user AR object is.

AR制御部333は、位置に関する情報として、第1ユーザのアバターが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第1ユーザARオブジェクトの方向を示す情報とのうちのいずれかを表示させてもよいし、第1ユーザのアバターが存在する位置を示す地図情報と、第1ユーザから第2ユーザまでの距離を示す情報と、第1ユーザARオブジェクトの方向を示す情報とを同時に表示させてもよい。 The AR control unit 333 provides map information indicating the position where the first user's avatar exists, information indicating the distance from the first user to the second user, and information indicating the direction of the first user AR object as position information. map information indicating the position where the first user's avatar exists, information indicating the distance from the first user to the second user, and the first user AR object and information indicating the direction of .

AR制御部333は、例えば、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、情報ARオブジェクトを第2表示デバイス2に表示させる。AR制御部333は、所定の条件を満たす場合に、情報ARオブジェクトをAR制御部333に表示させてもよい。 The AR control unit 333 causes the second display device 2 to display the information AR object each time the acquisition unit 331 acquires the device position of the second display device 2 at predetermined intervals, for example. The AR control unit 333 may cause the AR control unit 333 to display the information AR object when a predetermined condition is satisfied.

具体的には、AR制御部333は、第1ユーザの実アバター位置と第2表示デバイス2のデバイス位置との距離が情報表示閾距離より大きくなることを契機として情報ARオブジェクトを第2表示デバイス2に表示させる。 Specifically, when the distance between the first user's actual avatar position and the device position of the second display device 2 becomes greater than the information display threshold distance, the AR control unit 333 displays the information AR object on the second display device. 2 is displayed.

例えば、まず、AR制御部333は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離が情報表示閾距離より大きいか否かを判定する。そして、AR制御部333は、第1ユーザの実アバター位置から第2表示デバイス2のデバイス位置までの距離が情報表示閾距離より大きいと判定した場合に、情報ARオブジェクトを第2表示デバイス2に表示させる。情報処理装置3がこのような条件で情報ARオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトと離れていることを認識することができる。 For example, every time the acquisition unit 331 acquires the device position of the second display device 2 at a predetermined interval, the AR control unit 333 first detects the distance from the real avatar position of the first user to the device position of the second display device 2. Determine whether the distance is greater than the information display threshold distance. When the AR control unit 333 determines that the distance from the first user's actual avatar position to the device position of the second display device 2 is greater than the information display threshold distance, the AR control unit 333 displays the information AR object on the second display device 2. display. By causing the information AR object to be displayed on the second display device 2 by the information processing device 3 under such conditions, the second user can recognize that the first user AR object is separated.

AR制御部333は、第1ユーザARオブジェクトが構造物で遮蔽されてしまった場合に、情報ARオブジェクトを第2表示デバイス2に表示させてもよい。具体的には、AR制御部333は、仮想空間における第1ユーザのアバターの位置と、第2表示デバイス2のデバイス位置に対応する仮想空間における位置との間に、構造物オブジェクトが存在するとVR制御部332が判定することを契機として、情報ARオブジェクトを第2表示デバイス2に表示させる。 The AR control unit 333 may display the information AR object on the second display device 2 when the first user AR object is blocked by a structure. Specifically, the AR control unit 333 detects that a structure object exists between the position of the first user's avatar in the virtual space and the position in the virtual space corresponding to the device position of the second display device 2 . Triggered by the determination by the control unit 332 , the information AR object is displayed on the second display device 2 .

例えば、まず、VR制御部332は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在するか否かを判定する。そして、VR制御部332が、仮想空間における第1ユーザVRオブジェクトの位置と第2ユーザVRオブジェクトの位置との間に構造物オブジェクトが存在すると判定した場合に、AR制御部333は、情報ARオブジェクトを第2表示デバイス2に表示させる。 For example, every time the acquisition unit 331 acquires the device position of the second display device 2 at predetermined intervals, the VR control unit 332 first determines the position of the first user VR object and the position of the second user VR object in the virtual space. It is determined whether or not there is a structure object between Then, when the VR control unit 332 determines that a structure object exists between the position of the first user VR object and the position of the second user VR object in the virtual space, the AR control unit 333 controls the information AR object is displayed on the second display device 2 .

AR制御部333は、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在することを契機として、情報ARオブジェクトを第2表示デバイス2に表示させてもよい。例えば、記憶部32には、実空間における地図を示す情報が記憶されている。この場合において、まず、AR制御部333は、取得部331が所定の間隔で第2表示デバイス2のデバイス位置を取得するごとに、記憶部32に記憶されている実空間における地図を参照し、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在するか否かを判定する。そして、AR制御部333は、第1ユーザの実アバター位置と、第2表示デバイス2のデバイス位置との間に、構造物が存在すると判定した場合に、情報ARオブジェクトを第2表示デバイス2に表示させる。情報処理装置3がこのような条件で情報VRオブジェクトを第2表示デバイス2に表示させることにより、第2ユーザは、第1ユーザARオブジェクトが見えなくなったことを認識することができる。 The AR control unit 333 causes the second display device 2 to display the information AR object when a structure exists between the first user's real avatar position and the device position of the second display device 2 . may For example, the storage unit 32 stores information indicating a map in real space. In this case, first, the AR control unit 333 refers to the map in the real space stored in the storage unit 32 each time the acquisition unit 331 acquires the device position of the second display device 2 at predetermined intervals, It is determined whether a structure exists between the real avatar position of the first user and the device position of the second display device 2 . Then, when the AR control unit 333 determines that a structure exists between the first user's real avatar position and the device position of the second display device 2, the AR control unit 333 displays the information AR object on the second display device 2. display. By having the information processing device 3 display the information VR object on the second display device 2 under such conditions, the second user can recognize that the first user AR object has disappeared.

AR制御部333は、例えば、あるイベントにおいて、当該イベントの開始日時を経過したことを契機として、ARオブジェクトを第2表示デバイス2に提示する処理を実行する。AR制御部333は、イベントに参加した第1ユーザのアバターに対応する情報ARオブジェクトを第2表示デバイス2に表示させてもよい。 For example, in a certain event, the AR control unit 333 executes processing for presenting an AR object to the second display device 2 when the start date and time of the event has passed. The AR control unit 333 may cause the second display device 2 to display an information AR object corresponding to the avatar of the first user who participated in the event.

具体的には、AR制御部333は、第1ユーザとあらかじめ関連付けられた第2ユーザが利用する第2表示デバイス2に情報ARオブジェクトを表示させる。AR制御部333は、例えば、イベント管理データベースにおいて、VR参加者(第1ユーザ)に対応する情報ARオブジェクトを、VR参加者に関連付けられているAR参加者(第2ユーザ)の第2表示デバイス2に表示させる。このようにすることで、情報処理装置3は、第2ユーザが参加するイベントに参加していない第1ユーザのアバターに対応する情報ARオブジェクトの表示を抑止することができる。 Specifically, the AR control unit 333 displays the information AR object on the second display device 2 used by the second user pre-associated with the first user. For example, in the event management database, the AR control unit 333 stores the information AR object corresponding to the VR participant (first user) on the second display device of the AR participant (second user) associated with the VR participant. 2 is displayed. By doing so, the information processing device 3 can suppress display of the information AR object corresponding to the avatar of the first user who has not participated in the event in which the second user participates.

なお、AR制御部333は、イベントに参加している第1ユーザのアバターと、当該イベントに参加していない第1ユーザのアバターとをそれぞれ異なる態様で表示させてもよい。AR制御部333は、例えば、イベントに参加している第1ユーザに対応する第1ユーザARオブジェクトにマーク、フラグを付けたり、当該第1ユーザARオブジェクトに目立ち得る色(例えば、赤色、青色等)を付けたりして表示させる。一方、AR制御部333は、例えば、イベントに参加していない第1ユーザに対応する第1ユーザARオブジェクトに色を付けなかったり(例えば、半透明)、当該第1ユーザARオブジェクトに目立ち得ない色(例えば、白色)を付けたりして表示させる。 Note that the AR control unit 333 may display the avatar of the first user participating in the event and the avatar of the first user not participating in the event in different modes. For example, the AR control unit 333 puts a mark or flag on the first user AR object corresponding to the first user participating in the event, or colors the first user AR object in a conspicuous color (for example, red, blue, etc.). ) is displayed. On the other hand, the AR control unit 333 may, for example, not color the first user AR object corresponding to the first user who is not participating in the event (for example, translucent), or make the first user AR object inconspicuous. It is displayed with a color (for example, white).

[情報処理装置3の処理の流れ]
続いて、情報処理装置3の処理の流れについて説明する。図11は、情報処理装置3の流れを示すフローチャートである。本フローチャートは、取得部331が第2表示デバイス2からデバイス位置を取得したことを契機として開始する(S1)。
[Processing flow of information processing device 3]
Next, the processing flow of the information processing device 3 will be described. FIG. 11 is a flow chart showing the flow of the information processing device 3. As shown in FIG. This flowchart starts when the acquisition unit 331 acquires the device position from the second display device 2 (S1).

VR制御部332は、仮想空間における第1ユーザのアバターの位置から、第2表示デバイス2のデバイス位置に対応する第2ユーザのアバターの位置までの距離を特定する(S2)。VR制御部332は、特定した距離が情報表示閾距離より大きいか否かを判定する(S3)。 The VR control unit 332 identifies the distance from the position of the first user's avatar in the virtual space to the position of the second user's avatar corresponding to the device position of the second display device 2 (S2). The VR control unit 332 determines whether or not the identified distance is greater than the information display threshold distance (S3).

VR制御部332は、特定した距離が情報表示閾距離より大きくはないと判定した場合(S3においてNOの場合)、構造物オブジェクトを含むVR画像であって、情報VRオブジェクトを含まないVR画像である第1のVR画像を第1表示デバイス1に提示する(S4)。また、VR制御部332が、特定した距離が情報表示閾距離より大きくはないと判定した場合(S3においてNOの場合)、AR制御部333は、第1ユーザARオブジェクトを含むAR画像であって、情報ARオブジェクトを含まないAR画像である第1のAR画像を第2表示デバイス2に提示する(S5)。 When the VR control unit 332 determines that the specified distance is not greater than the information display threshold distance (NO in S3), the VR image includes the structure object and does not include the information VR object. A certain first VR image is presented on the first display device 1 (S4). Further, when the VR control unit 332 determines that the specified distance is not greater than the information display threshold distance (NO in S3), the AR control unit 333 controls the AR image including the first user AR object, , the first AR image, which is an AR image containing no information AR object, is presented on the second display device 2 (S5).

一方、VR制御部332は、特定した距離が情報表示閾距離より大きいと判定した場合(S3においてYESの場合)、構造物オブジェクトと情報VRオブジェクトとを含むVR画像である第2のVR画像を第1表示デバイス1に提示する(S6)。また、VR制御部332が、特定した距離が情報表示閾距離より大きいと判定した場合(S3においてYESの場合)、AR制御部333は、第1ユーザARオブジェクトと情報ARオブジェクトとを含むAR画像である第2のAR画像を第2表示デバイス2に提示する(S7)。 On the other hand, when the VR control unit 332 determines that the specified distance is greater than the information display threshold distance (YES in S3), the VR control unit 332 displays the second VR image that is a VR image including the structure object and the information VR object. Presented on the first display device 1 (S6). Further, when the VR control unit 332 determines that the specified distance is greater than the information display threshold distance (YES in S3), the AR control unit 333 displays the AR image including the first user AR object and the information AR object. is presented on the second display device 2 (S7).

[本実施の形態における効果]
以上説明したとおり、情報処理装置3は、第1表示デバイス1に対して第2ユーザのアバターの位置に関する情報を情報VRオブジェクトとして提示し、第2表示デバイス2に対して第1ユーザの実アバター位置に関する情報を情報ARオブジェクトとして提示する。このようにすることで、情報処理装置3は、第1ユーザ及び第2ユーザがお互いのがどこにいるのかを把握させることができる。これにより、情報処理装置3は、第1ユーザ及び第2ユーザがお互いを見失ってしまう事態の発生を低減させることができる。その結果、情報処理装置3は、第1ユーザ及び第2ユーザが行動を共にしやすくさせることができる。
[Effects of this embodiment]
As described above, the information processing device 3 presents information regarding the position of the second user's avatar to the first display device 1 as an information VR object, and presents the real avatar of the first user to the second display device 2 . Information about the location is presented as an information AR object. By doing so, the information processing device 3 can allow the first user and the second user to grasp where each other is. Thereby, the information processing device 3 can reduce the occurrence of situations in which the first user and the second user lose sight of each other. As a result, the information processing device 3 can make it easier for the first user and the second user to act together.

なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 The present invention makes it possible to contribute to Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations, "Industry and technological innovation."

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. be. For example, all or part of the device can be functionally or physically distributed and integrated in arbitrary units. In addition, new embodiments resulting from arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment caused by the combination has the effect of the original embodiment.

1 第1表示デバイス
2 第2表示デバイス
3 情報処理装置
31 通信部
32 記憶部
33 制御部
331 取得部
332 VR制御部
333 AR制御部
334 送信部
S 情報処理システム
1 first display device 2 second display device 3 information processing device 31 communication unit 32 storage unit 33 control unit 331 acquisition unit 332 VR control unit 333 AR control unit 334 transmission unit S information processing system

Claims (11)

実空間と対応づけられた仮想空間において構造物を示すVR(Virtual Reality)オブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるVR制御部と、
前記第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、前記第1ユーザのアバターを示す第1ユーザオブジェクトが前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に表示される前記第2表示デバイスから、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部と、
を備え、
前記VR制御部は、前記デバイス位置に対応する前記仮想空間における前記第2ユーザのアバターの位置に関する情報を示すVRオブジェクトであって、前記第2ユーザのアバターを示す第2ユーザオブジェクトとは異なるVRオブジェクトである情報VRオブジェクト、前記第1表示デバイスに表示させる、
情報処理装置。
A VR control unit for displaying a structure object, which is a VR (Virtual Reality) object representing a structure in a virtual space associated with a real space, on a first display device, which is a display device used by a first user;
A second display device used by a second user different from the first user, wherein a first user object representing an avatar of the first user corresponds to a position of the avatar in the virtual space. a position information acquisition unit that acquires a device position indicating the position of the second display device in the real space from the second display device displayed at the position of the real avatar, which is the position in the real space;
with
The VR control unit is a VR object indicating information about the position of the second user's avatar in the virtual space corresponding to the device position, and is a VR object different from the second user object indicating the second user's avatar. causing an information VR object, which is an object , to be displayed on the first display device;
Information processing equipment.
前記VR制御部は、前記仮想空間における前記第1ユーザのアバターを制御するための制御情報に基づいて、前記アバターの動作を制御し、
前記第1ユーザオブジェクトを、前記第2表示デバイスに対して、前記VR制御部が前記制御情報に基づいて前記仮想空間における前記アバターの動作を制御した前記アバターの存在位置に対応する前記実アバター位置に提示するAR(Augmented Reality)制御部をさらに備える、
請求項1に記載の情報処理装置。
The VR control unit controls the action of the avatar based on control information for controlling the avatar of the first user in the virtual space,
The first user object is displayed on the second display device at the real avatar position corresponding to the existence position of the avatar whose motion in the virtual space is controlled by the VR control unit based on the control information. Further comprising an AR (Augmented Reality) control unit presented to
The information processing device according to claim 1 .
前記VR制御部は、前記デバイス位置に対応する前記仮想空間の位置に、前記第2ユーザオブジェクトを前記第1表示デバイスに表示させる、
請求項1に記載の情報処理装置。
The VR control unit causes the first display device to display the second user object at a position in the virtual space corresponding to the device position.
The information processing device according to claim 1 .
前記VR制御部は、
前記第1ユーザオブジェクトを、前記仮想空間における前記第1ユーザのアバターを制御するための制御情報に基づいて前記第1表示デバイスに表示させ、
前記仮想空間における前記第1ユーザオブジェクトの位置から前記第2ユーザオブジェクトの位置までの距離、又は前記仮想空間における前記第1ユーザオブジェクトの位置から前記デバイス位置に対応する前記仮想空間の位置までの距離が、あらかじめ定められた情報表示閾距離より大きくなることを契機として前記情報VRオブジェクトを前記第1表示デバイスに表示させる、
請求項3に記載の情報処理装置。
The VR control unit
displaying the first user object on the first display device based on control information for controlling the first user's avatar in the virtual space;
The distance from the position of the first user object in the virtual space to the position of the second user object, or the distance from the position of the first user object in the virtual space to the position in the virtual space corresponding to the device position is greater than a predetermined information display threshold distance, causing the information VR object to be displayed on the first display device;
The information processing apparatus according to claim 3.
前記VR制御部は、
前記第1ユーザオブジェクトを、前記仮想空間における前記第1ユーザのアバターを制御するための制御情報に基づいて前記第1表示デバイスに表示させ、
前記仮想空間における前記第1ユーザオブジェクトの位置と前記第2ユーザオブジェクトの位置との間、又は前記仮想空間における前記第1ユーザオブジェクトの位置と前記デバイス位置に対応する前記仮想空間の位置との間に前記構造物オブジェクトが存在することを契機として、前記情報VRオブジェクトを前記第1表示デバイスに表示させる、
請求項3に記載の情報処理装置。
The VR control unit
displaying the first user object on the first display device based on control information for controlling the first user's avatar in the virtual space;
Between the position of the first user object and the position of the second user object in the virtual space, or between the position of the first user object in the virtual space and a position in the virtual space corresponding to the device position display the information VR object on the first display device, triggered by the presence of the structure object in
The information processing apparatus according to claim 3.
前記VR制御部は、前記第2ユーザオブジェクトが存在する位置を示す地図情報を、前記情報VRオブジェクトとして前記第1表示デバイスに表示させる、
請求項3に記載の情報処理装置。
The VR control unit displays map information indicating a position where the second user object exists on the first display device as the information VR object;
The information processing apparatus according to claim 3.
前記VR制御部は、前記第1ユーザオブジェクトの位置から前記第2ユーザオブジェクトの位置までの距離、又は前記仮想空間における前記第1ユーザオブジェクトの位置から前記デバイス位置に対応する前記仮想空間の位置までの距離を示す情報を、前記情報VRオブジェクトとして前記第1表示デバイスに表示させる、
請求項3に記載の情報処理装置。
The VR control unit controls the distance from the position of the first user object to the position of the second user object, or from the position of the first user object in the virtual space to the position in the virtual space corresponding to the device position. display information indicating the distance of the first display device as the information VR object;
The information processing apparatus according to claim 3.
前記VR制御部は、前記第1ユーザオブジェクトを始点とした場合の前記第2ユーザオブジェクトの方向を示す情報を、前記情報VRオブジェクトとして前記第1表示デバイスに表示させる、
請求項3に記載の情報処理装置。
The VR control unit causes the first display device to display, as the information VR object, information indicating the direction of the second user object when the first user object is the starting point;
The information processing apparatus according to claim 3.
前記VR制御部は、前記第1ユーザとあらかじめ関連付けられた前記第2ユーザのアバターに対応する前記情報VRオブジェクトを前記第1表示デバイスに表示させる、
請求項1に記載の情報処理装置。
The VR control unit causes the first display device to display the information VR object corresponding to the second user's avatar pre-associated with the first user.
The information processing device according to claim 1 .
コンピュータが実行する、
実空間と対応づけられた仮想空間において構造物を示すVRオブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるステップと、
前記第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、前記第1ユーザのアバターを示す第1ユーザオブジェクトが前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に表示される前記第2表示デバイスから、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得するステップと、
を備え、
前記構造物オブジェクトを表示させるステップにおいて、前記デバイス位置に対応する前記仮想空間における前記第2ユーザのアバターの位置に関する情報を示すVRオブジェクトであって、前記第2ユーザのアバターを示す第2ユーザオブジェクトとは異なるVRオブジェクトである情報VRオブジェクト、前記第1表示デバイスに表示させる、
情報処理方法。
the computer runs
a step of displaying a structure object, which is a VR object representing a structure in a virtual space associated with the real space, on a first display device, which is a display device used by a first user;
A second display device used by a second user different from the first user, wherein a first user object representing an avatar of the first user corresponds to a position of the avatar in the virtual space. obtaining a device position indicating the position of the second display device in the real space from the second display device displayed at the real avatar position, which is the position in the real space;
with
In the step of displaying the structure object, a VR object indicating information about the position of the second user's avatar in the virtual space corresponding to the device position, the second user object indicating the second user's avatar. causing the first display device to display an information VR object that is a VR object different from the
Information processing methods.
コンピュータを、
実空間と対応づけられた仮想空間において構造物を示すVRオブジェクトである構造物オブジェクトを、第1ユーザが利用する表示デバイスである第1表示デバイスに表示させるVR制御部、及び
前記第1ユーザとは異なる第2ユーザが利用する表示デバイスである第2表示デバイスであって、前記第1ユーザのアバターを示す第1ユーザオブジェクトが前記仮想空間における前記アバターの存在位置に対応する前記実空間の位置である実アバター位置に表示される前記第2表示デバイスから、前記実空間における前記第2表示デバイスの位置を示すデバイス位置を取得する位置情報取得部、
として機能させ、
前記VR制御部は、前記デバイス位置に対応する前記仮想空間における前記第2ユーザのアバターの位置に関する情報を示すVRオブジェクトであって、前記第2ユーザのアバターを示す第2ユーザオブジェクトとは異なるVRオブジェクトである情報VRオブジェクト、前記第1表示デバイスに表示させる、
プログラム。
the computer,
A VR control unit that causes a first display device, which is a display device used by a first user, to display a structure object, which is a VR object representing a structure in a virtual space associated with a real space, and the first user; is a second display device used by a different second user, wherein a first user object representing an avatar of the first user is located at a position in the real space corresponding to the existing position of the avatar in the virtual space a position information acquisition unit that acquires a device position indicating the position of the second display device in the real space from the second display device displayed at the position of the real avatar,
function as
The VR control unit is a VR object indicating information about the position of the second user's avatar in the virtual space corresponding to the device position, and is a VR object different from the second user object indicating the second user's avatar. causing an information VR object, which is an object , to be displayed on the first display device;
program.
JP2022147571A 2022-09-16 2022-09-16 Information processing device, information processing method and program Active JP7329114B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022147571A JP7329114B1 (en) 2022-09-16 2022-09-16 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022147571A JP7329114B1 (en) 2022-09-16 2022-09-16 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP7329114B1 true JP7329114B1 (en) 2023-08-17
JP2024042772A JP2024042772A (en) 2024-03-29

Family

ID=87563121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022147571A Active JP7329114B1 (en) 2022-09-16 2022-09-16 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7329114B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099192A1 (en) * 2010-02-15 2011-08-18 石井 美恵子 Access control system, access control method and server
JP2020126455A (en) * 2019-02-05 2020-08-20 凸版印刷株式会社 Spatial information management device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099192A1 (en) * 2010-02-15 2011-08-18 石井 美恵子 Access control system, access control method and server
JP2020126455A (en) * 2019-02-05 2020-08-20 凸版印刷株式会社 Spatial information management device

Also Published As

Publication number Publication date
JP2024042772A (en) 2024-03-29

Similar Documents

Publication Publication Date Title
US10827230B2 (en) Information processing apparatus and information processing method
JP4065507B2 (en) Information presentation apparatus and information processing method
EP2613296B1 (en) Mixed reality display system, image providing server, display apparatus, and display program
US10022626B2 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method, for performing augmented reality
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
US9733896B2 (en) System, apparatus, and method for displaying virtual objects based on data received from another apparatus
JP6615732B2 (en) Information processing apparatus and image generation method
JP6764214B1 (en) Congestion information notification system
US10950050B2 (en) Information processing device, information processing method, and program for planning and execution of work plan
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
JP6635573B2 (en) Image processing system, image processing method, and program
CN108932055B (en) Method and equipment for enhancing reality content
JP7329114B1 (en) Information processing device, information processing method and program
US11273374B2 (en) Information processing system, player-side apparatus control method, and program
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP7381680B1 (en) Information processing device, information processing method and program
WO2022176450A1 (en) Information processing device, information processing method, and program
JP3114862B2 (en) An interactive landscape labeling system
JPH1157209A (en) Rally game system using view label
CN109840943B (en) Three-dimensional visual analysis method and system
JP2018067157A (en) Communication device and control method thereof
CN113345107A (en) Augmented reality data display method and device, electronic equipment and storage medium
EP2336976A1 (en) System and method for providing virtiual environment
WO2020202747A1 (en) Information processing apparatus, information processing method, and recording medium
WO2023162013A1 (en) Notification assistance system, notification assistance method, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221129

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230804

R150 Certificate of patent or registration of utility model

Ref document number: 7329114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150