JP2022152443A - Information processing system, information processing method and computer program - Google Patents

Information processing system, information processing method and computer program Download PDF

Info

Publication number
JP2022152443A
JP2022152443A JP2021055221A JP2021055221A JP2022152443A JP 2022152443 A JP2022152443 A JP 2022152443A JP 2021055221 A JP2021055221 A JP 2021055221A JP 2021055221 A JP2021055221 A JP 2021055221A JP 2022152443 A JP2022152443 A JP 2022152443A
Authority
JP
Japan
Prior art keywords
information processing
image
display
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021055221A
Other languages
Japanese (ja)
Other versions
JP7016438B1 (en
Inventor
有加 野村
Yuuka Nomura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2021055221A priority Critical patent/JP7016438B1/en
Priority to JP2022009035A priority patent/JP7317322B2/en
Application granted granted Critical
Publication of JP7016438B1 publication Critical patent/JP7016438B1/en
Publication of JP2022152443A publication Critical patent/JP2022152443A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing system, information processing method and computer program capable of providing, in a virtual space, a content including a special value added thereto, the value that is difficult to realize in a real space.SOLUTION: Each of one or a plurality of computer processors provided in an information processing system according to the present invention includes a first display processing unit displaying an image that displays on a display screen, an avatar object of a user and a first object in a virtual space, a moving processing unit for moving the avatar object in the virtual space in response to the user's operation, a determination unit for determining whether or not a relation of the avatar object and the first object satisfies a first condition, and a second display processing unit when it is determined to satisfy the first condition by the determination unit, displaying an image of the real space on the display screen.SELECTED DRAWING: Figure 17

Description

本発明は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a computer program.

近年、仮想空間または現実空間内にユーザのアバタを表示させるための技術の開発が盛んに行われている。 In recent years, techniques for displaying a user's avatar in virtual space or real space have been actively developed.

一例として、非特許文献1には、仮想空間内に自身のアバタを表示させ、提供される動画等のコンテンツを鑑賞するイベントの開催について開示されている。 As an example, Non-Patent Document 1 discloses holding an event in which users display their own avatars in a virtual space and enjoy content such as provided moving images.

株式会社リイシューレコーズ, “FORTNITEで、8月7日バーチャルイベント開催決定!!”, [online], 令和2年7月31日, [令和3年2月8日検索], インターネット<https://reissuerecords.net/live/>Reissue Records Co., Ltd., “FORTNITE will hold a virtual event on August 7th!!”, [online], July 31, 2nd year of Reiwa, [searched on February 8th, 3rd year of Reiwa], Internet <https: //reissuerecords.net/live/>

従来、現実空間でしか実現できなかったものが仮想空間内でコンテンツとして提供されるようになっていく中で、コンテンツを単に仮想空間内へ移行しただけでは、仮想空間で行う意義を見出し難い。 Content that could only be realized in the real space in the past is now being provided as content in the virtual space.

そのため、本発明の目的は、現実空間では実現することが困難な、特別な価値を付加したコンテンツを仮想空間内で提供することが可能な情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。 Therefore, an object of the present invention is to provide an information processing system, an information processing method, and a computer program capable of providing, in a virtual space, content with special added value that is difficult to realize in the real space. It is in.

本開示の情報処理システムは、第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムであって、一又は複数のコンピュータプロセッサを備え、一又は複数のコンピュータプロセッサは、表示画面に、仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理部と、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる移動処理部と、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定部と、判定部により第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる第二表示処理部とを備えることを特徴とする。 An information processing system of the present disclosure is an information processing system for displaying an image of a virtual space on a display screen of a first information processing device, and includes one or more computer processors, wherein the one or more computer processors a first display processing unit for displaying an image in which the user's avatar object and the first object are displayed on the display screen in the virtual space; and movement for moving the avatar object in the virtual space according to the user's operation. a processing unit; a determination unit that determines whether the relationship between the avatar object and the first object satisfies the first condition; and a second display processing unit that displays an image of the physical space.

第二表示処理部は、判定部により第一の条件を満たすと判定された場合に、表示画面に、複数の現実空間の画像の中から一の現実空間の画像を選択するためのメニュー画像を表示させ、ユーザによる選択に応じて、表示画面に表示する位置の現実空間画像を決定することができる。 The second display processing unit displays a menu image for selecting one real space image from a plurality of real space images on the display screen when the determination unit determines that the first condition is satisfied. The real space image of the position to be displayed on the display screen can be determined according to the selection by the user.

第二表示処理部は、現実空間の画像として、第一の情報処理装置とは異なる第二の情報処理装置が撮像した現実空間に配置された対象物のリアルタイム画像である第一画像を表示させることができる。 The second display processing unit displays, as an image of the physical space, a first image that is a real-time image of an object placed in the physical space captured by a second information processing device that is different from the first information processing device. be able to.

対象物はユーザが遠隔から操作可能な操作部を備え、ユーザは、対象物内に設置された景品を取得可能であることができる。 The object includes an operation unit that can be remotely operated by the user, and the user can obtain a prize placed inside the object.

対象物はクレーンゲーム機であり、操作部はクレーン部であり、第一画像には、クレーンゲーム機の少なくとも景品を含む空間が含まれることができる。 The target object is a crane game machine, the operation part is a crane part, and the first image can include at least a space of the crane game machine including a prize.

対象物はメダルゲーム機であり、操作部はメダル投下部であり、第一画像には、メダルゲーム機の少なくともメダルを含む空間とすることができる。 The target object is a coin-operated game machine, the operation part is a coin-dropping part, and the first image can be a space containing at least the medals of the coin-operated game machine.

景品には所定のマーカが付されており、第二表示処理部は、現実空間の画像に含まれるマーカに基づいて、マーカに関連付けられた関連オブジェクトを現実空間の画像に重畳して表示させることができる。 Predetermined markers are attached to the prizes, and the second display processing unit superimposes the related objects associated with the markers on the real space image based on the markers included in the real space image. can be done.

一又は複数のコンピュータプロセッサは、さらに、ユーザが景品の取得に成功した場合に、関連オブジェクトのデータをユーザに関連付けて記憶する景品記憶部を備えることができる。 The one or more computer processors can further include a prize storage unit that stores data of the related object in association with the user when the user successfully acquires the prize.

第一表示処理部は、ユーザの操作に応じて、景品記憶部に記憶された関連オブジェクトを、仮想空間に表示したアバタオブジェクトの装着オブジェクトとして表示させることができる。 The first display processing section can display the related object stored in the prize storage section as an attached object of the avatar object displayed in the virtual space in accordance with the user's operation.

第一表示処理部は、ユーザの操作に応じて、景品記憶部に記憶された関連オブジェクトを、仮想空間、または、現実空間にキャラクタオブジェクトとして表示させることができる。 The first display processing section can display the related object stored in the prize storage section as a character object in the virtual space or the real space according to the user's operation.

第二表示処理部は、関連オブジェクトとしてアバタオブジェクトを表示させることができる。 The second display processing section can display the avatar object as the related object.

一又は複数のコンピュータプロセッサは、さらに、ユーザが景品の取得に成功した場合に、関連オブジェクトのデータを3Dプリント装置に出力する出力部を備えることができる。 The one or more computer processors can further comprise an output unit that outputs data of the associated object to the 3D printing device if the user successfully wins the prize.

第二表示処理部は、現実空間の画像として、さらに、第一の情報処理装置とは異なる第三の情報処理装置が撮像した対象物のリアルタイム画像である第二画像を表示させ、第二の情報処理装置は対象物の正面から対象物を撮像するものであり、第三の情報処理装置は対象物の側面から対象物を撮像するものであることができる。 The second display processing unit further displays a second image, which is a real-time image of an object captured by a third information processing device different from the first information processing device, as an image of the physical space, The information processing device can image the object from the front of the object, and the third information processing device can image the object from the side of the object.

一又は複数のコンピュータプロセッサは、さらに、第一画像および第二画像を切り替えるための切替操作受付部を備え、第二表示処理部は、切替操作受付部により受け付けられた操作に応じて表示させる画像を切り替えることができる。 The one or more computer processors further comprise a switching operation receiving unit for switching between the first image and the second image, and the second display processing unit displays an image to be displayed in accordance with the operation received by the switching operation receiving unit. can be switched.

判定部は、アバタオブジェクトと第一のオブジェクトとの関係が第二の条件を満たしているかを判定し、第二表示処理部は、判定部により第二の条件を満たしていると判定された場合に、表示させる画像を切り替えることができる。 The determination unit determines whether the relationship between the avatar object and the first object satisfies a second condition, and the second display processing unit determines if the second condition is satisfied by the determination unit. You can switch the image to be displayed.

第二の情報処理装置は対象物の内部から周囲を撮像することができる。 The second information processing device can image the surroundings from inside the object.

第二表示処理部は、アバタオブジェクトと第一のオブジェクトとの関係に応じて表示させる画像を変化させることができる。 The second display processing section can change the displayed image according to the relationship between the avatar object and the first object.

第二表示処理部は、現実空間の画像を、第一のオブジェクトの一部分に重畳して、または、一部分と入れ替えて表示させることができる。 The second display processing unit can display the image of the physical space by superimposing it on a part of the first object or by replacing it with a part of the first object.

第一表示処理部は、第一のオブジェクトに関連付けられた現実空間の画像に関連する情報を表示する表示オブジェクトを表示させることができる。 The first display processing unit can display a display object that displays information related to a physical space image associated with the first object.

本開示の情報処理方法は、第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムにおける情報処理方法であって、情報処理システムが備える一又は複数のコンピュータプロセッサに、表示画面に、仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理ステップと、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる移動処理ステップと、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定ステップと、判定ステップにおいて第一の条件を満たすと判定された場合、表示画面に、現実空間の画像を表示させる第二表示処理ステップとを実行させることを特徴とする。 An information processing method of the present disclosure is an information processing method in an information processing system for displaying an image of a virtual space on a display screen of a first information processing device, wherein one or more computer processors included in the information processing system include: a first display processing step of displaying on the display screen an image in which the user's avatar object and the first object are displayed in the virtual space; and a moving processing of moving the avatar object in the virtual space according to the user's operation. a determining step of determining whether the relationship between the avatar object and the first object satisfies the first condition; and if it is determined in the determining step that the first condition is satisfied, the physical space is displayed on the display screen. and a second display processing step of displaying an image of

本開示の情報処理方法は、第一の情報処理装置の表示画面に仮想空間の画像を表示させるため情報処理方法であって、第一の情報処理装置が備える一又は複数のコンピュータプロセッサに、表示画面に、仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理ステップと、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる移動処理ステップと、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定ステップと、判定ステップにおいて第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる第二表示処理ステップとを実行させることを特徴とする。 An information processing method according to the present disclosure is an information processing method for displaying an image of a virtual space on a display screen of a first information processing device, wherein one or more computer processors included in the first information processing device display A first display processing step of displaying an image in which the user's avatar object and the first object are displayed on the screen in the virtual space, and a movement processing step of moving the avatar object in the virtual space according to the user's operation. a determination step of determining whether the relationship between the avatar object and the first object satisfies the first condition; and a second display processing step of displaying an image of

本開示のコンピュータプログラムは、第一の情報処理装置の表示画面に仮想空間の画像を表示させるためのコンピュータプログラムであって、第一の情報処理装置が備える一又は複数のコンピュータプロセッサに、表示画面に、仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理機能と、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる移動処理機能と、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定機能と、判定機能により第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる第二表示処理機能とを実現させることを特徴とする。 A computer program of the present disclosure is a computer program for displaying an image of a virtual space on a display screen of a first information processing device, wherein one or more computer processors provided in the first information processing device display a a first display processing function for displaying an image in which the user's avatar object and the first object are displayed in the virtual space; a movement processing function for moving the avatar object in the virtual space according to the user's operation; a judgment function for judging whether the relationship between the avatar object and the first object satisfies the first condition; and an image of the real space on the display screen when the judgment function judges that the first condition is satisfied. It is characterized by realizing a second display processing function of displaying the .

本開示の発明によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本開示の発明によれば、現実空間では実現することが困難な、特別な価値を付加したコンテンツを仮想空間内で提供することができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することが可能となる。 According to the invention of the present disclosure, it is possible to provide a technical improvement that solves or alleviates at least part of the above-described problems of the prior art. Specifically, according to the invention of the present disclosure, an information processing system, an information processing method, and a computer program capable of providing, in a virtual space, content with special added value that is difficult to realize in a real space. can be provided.

本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram showing an example of an information processing system according to the present disclosure; FIG. 本開示における情報処理システムの他の例を示すシステム構成図である。FIG. 4 is a system configuration diagram showing another example of an information processing system according to the present disclosure; 本開示における情報処理装置のハードウェア構成の一例を示す構成図である。1 is a configuration diagram showing an example of a hardware configuration of an information processing device according to the present disclosure; FIG. 本開示における情報処理装置の機能構成の一例を示す構成図である。1 is a configuration diagram showing an example of a functional configuration of an information processing device according to the present disclosure; FIG. 本開示における仮想空間の画像の一例を示すイメージ図である。FIG. 3 is an image diagram showing an example of an image of a virtual space in the present disclosure; FIG. 本開示における仮想空間内の通路の一例を示すイメージ図である。FIG. 4 is an image diagram showing an example of a passage in virtual space in the present disclosure; 本開示における仮想空間内の特定領域の一例を示すイメージ図である。FIG. 4 is an image diagram showing an example of a specific area in virtual space in the present disclosure; 本開示における仮想空間内の特定領域の他の例のイメージを示すイメージ図である。FIG. 5 is an image diagram showing another example image of a specific area in the virtual space in the present disclosure; 本開示における現実空間の画像の表示例を示すイメージ図である。FIG. 4 is an image diagram showing a display example of an image of real space in the present disclosure; 本開示における現実空間の画像の表示例を示すイメージ図である。FIG. 4 is an image diagram showing a display example of an image of real space in the present disclosure; 本開示におけるメニュー画面の一例を示すイメージ図である。FIG. 4 is an image diagram showing an example of a menu screen in the present disclosure; 本開示における対象物の一例を示すイメージ図である。1 is an image diagram showing an example of an object in the present disclosure; FIG. 本開示における現実空間の画像の表示例を示すイメージ図である。FIG. 4 is an image diagram showing a display example of an image of real space in the present disclosure; 本開示における対象物の一例を示すイメージ図である。1 is an image diagram showing an example of an object in the present disclosure; FIG. 本開示における現実空間の画像の表示例を示すイメージ図である。FIG. 4 is an image diagram showing a display example of an image of real space in the present disclosure; 本開示における景品の一例を示すイメージ図である。FIG. 2 is an image diagram showing an example of a prize in the present disclosure; FIG. 本開示における現実空間の画像が表示された表示画面のイメージ図である。FIG. 4 is an image diagram of a display screen displaying an image of a real space according to the present disclosure; 本開示における情報処理装置の機能構成の他の例を示す構成図である。FIG. 4 is a configuration diagram showing another example of the functional configuration of the information processing device according to the present disclosure; 本開示におけるARモードの表示例を示すイメージ図である。FIG. 4 is an image diagram showing a display example of AR mode in the present disclosure; 本開示における第二の情報処理装置および第三の情報処理装置の一例を示すイメージ図である。FIG. 2 is an image diagram showing an example of a second information processing device and a third information processing device in the present disclosure; 本開示における仮想空間の画像の一例を示すイメージ図である。FIG. 3 is an image diagram showing an example of an image of a virtual space in the present disclosure; FIG. 本開示における情報処理方法のフローの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of the flow of an information processing method according to the present disclosure; 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。1 is a circuit configuration diagram showing an example of a circuit configuration for realizing a computer program according to the present disclosure; FIG. 本開示における第一の情報処理装置の機能構成の一例を示す構成図である。1 is a configuration diagram showing an example of a functional configuration of a first information processing device in the present disclosure; FIG. 本開示における情報処理方法のフローの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of the flow of an information processing method according to the present disclosure; 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。1 is a circuit configuration diagram showing an example of a circuit configuration for realizing a computer program according to the present disclosure; FIG.

本開示における情報処理システムの実施形態の一例について、図面を参照しながら説明を行う。 An example of an embodiment of an information processing system according to the present disclosure will be described with reference to the drawings.

<システム構成>
図1は、本開示における情報処理システム1000のシステム構成の一例を示したものである。
<System configuration>
FIG. 1 shows an example of a system configuration of an information processing system 1000 according to the present disclosure.

図1に示されるように、本開示における情報処理システム1000は、第一の情報処理装置100とネットワークを介して接続される情報処理装置400を備えるものとする。 As shown in FIG. 1, an information processing system 1000 according to the present disclosure includes an information processing device 400 connected to a first information processing device 100 via a network.

また、図2に一例として示されるように、本開示における情報処理システム1000は、さらに、第二の情報処理装置200および/または第三の情報処理装置300を備えてもよい。 In addition, as shown in FIG. 2 as an example, the information processing system 1000 according to the present disclosure may further include a second information processing device 200 and/or a third information processing device 300 .

本開示において、第一の情報処理装置100は、情報処理装置400とネットワークを介して通信可能な装置である。第一の情報処理装置100は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ(HMD)、眼鏡型のウェアラブル端末(ARグラス等)等のウェアラブルコンピュータ、及びこれらの装置以外の、動画を再生可能な情報処理装置とすることができる。また、これら装置は、単独で動作するスタンドアロン型の装置であってもよいし、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。 In the present disclosure, the first information processing device 100 is a device capable of communicating with the information processing device 400 via a network. The first information processing device 100 includes a wearable computer such as a smartphone (multifunctional telephone terminal), a tablet terminal, a personal computer, a console game machine, a head-mounted display (HMD), a glasses-type wearable terminal (AR glasses, etc.), and Information processing devices other than these devices that can reproduce moving images can be used. These devices may be stand-alone devices that operate independently, or may be composed of a plurality of devices connected to each other so as to be able to transmit and receive various data.

<ハードウェア構成>
ここで、図3を用いて、情報処理システム1000に含まれる情報処理装置400のハードウェア構成について説明する。情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力インターフェース(入出力I/F)404と、通信インターフェース(通信I/F)405とを含む。各構成要素は、バスBを介して相互に接続される。
<Hardware configuration>
Here, the hardware configuration of the information processing device 400 included in the information processing system 1000 will be described using FIG. The information processing device 400 includes a processor 401 , a memory 402 , a storage 403 , an input/output interface (input/output I/F) 404 and a communication interface (communication I/F) 405 . Each component is interconnected via a bus B. FIG.

情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力I/F404と、通信I/F405との協働により、本実施形態に記載される機能、方法を実現することができる。 The information processing apparatus 400 can implement the functions and methods described in this embodiment through cooperation of the processor 401, memory 402, storage 403, input/output I/F 404, and communication I/F 405. can.

プロセッサ401は、ストレージ403に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ401は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。 Processor 401 executes functions and/or methods implemented by codes or instructions contained in programs stored in storage 403 . The processor 401 is, for example, a central processing unit (CPU), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), microprocessor, processor core, multiprocessor, ASIC (Application- Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc., implemented by logic circuits (hardware) and dedicated circuits formed in integrated circuits (IC (Integrated Circuit) chip, LSI (Large Scale Integration)), etc. Each process disclosed in the form may be implemented. Also, these circuits may be implemented by one or more integrated circuits, and multiple processes shown in each embodiment may be implemented by one integrated circuit. LSIs are also called VLSIs, super LSIs, ultra LSIs, etc., depending on the degree of integration.

メモリ402は、ストレージ403からロードしたプログラムを一時的に記憶し、プロセッサ401に対して作業領域を提供する。メモリ402には、プロセッサ401がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ402は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。 The memory 402 temporarily stores programs loaded from the storage 403 and provides a work area for the processor 401 . The memory 402 also temporarily stores various data generated while the processor 401 is executing the program. The memory 402 includes, for example, RAM (Random Access Memory), ROM (Read Only Memory), and the like.

ストレージ403は、プログラムを記憶する。ストレージ403は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。 The storage 403 stores programs. The storage 403 includes, for example, a HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, and the like.

通信I/F405は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワークを介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F405は、ネットワークを介して、他の情報処理装置との通信を実行する。通信I/F405は、各種データをプロセッサ401からの指示に従って、他の情報処理装置に送信する。また、通信I/F405は、他の情報処理装置から送信された各種データを受信し、プロセッサ401に伝達する。 The communication I/F 405 is implemented as hardware such as a network adapter, communication software, or a combination thereof, and transmits and receives various data via a network. The communication may be performed by wire or wirelessly, and any communication protocol may be used as long as mutual communication can be performed. A communication I/F 405 communicates with other information processing apparatuses via a network. Communication I/F 405 transmits various data to other information processing apparatuses according to instructions from processor 401 . Communication I/F 405 also receives various data transmitted from other information processing apparatuses and transmits the data to processor 401 .

入出力I/F404は、情報処理装置400に対する各種操作を入力する入力装置、及び、情報処理装置400で処理された処理結果を出力する出力装置を含む。入出力I/F404は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。 The input/output I/F 404 includes an input device for inputting various operations to the information processing device 400 and an output device for outputting processing results processed by the information processing device 400 . The input/output I/F 404 may be integrated with the input device and the output device, or may be separated into the input device and the output device.

入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ401に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input device is realized by any one or a combination of all kinds of devices capable of receiving input from the user and transmitting information related to the input to the processor 401 . The input device includes, for example, hardware keys such as a touch panel, a touch display, and a keyboard, a pointing device such as a mouse, a camera (operation input via images), and a microphone (operation input by voice).

入力装置は、センサユニットを含むことができる。センサユニットは、ユーザの表情の変化を示すフェイスモーション、及びセンサユニットに対するユーザの身体の相対位置の変化を示すボディモーションを検出する1以上のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニットは、公知の物を使用することができる。センサユニットの一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニットは、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDER」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニットの演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。 The input device can include a sensor unit. The sensor unit is one or more sensors that detect face motion, which indicates changes in the user's facial expression, and body motion, which indicates changes in the relative position of the user's body with respect to the sensor unit. Face motion includes movements such as blinking and opening and closing the mouth. A well-known thing can be used for the sensor unit. An example of the sensor unit is a ToF sensor that measures and detects the time of flight until the light emitted toward the user is reflected by the user's face and returns, a camera that captures the user's face, and It includes an image processing unit that processes the data captured by the camera. Also, the sensor unit may include an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light. RGB cameras and near-infrared cameras use, for example, the True Depth of “iPhoneX (registered trademark)”, or “LIDER” of “iPad Pro (registered trademark)”, and other ToF sensors installed in smartphones. It is possible. Specifically, this camera projects tens of thousands of invisible dots onto the user's face or the like using a dot projector. The reflected light of the dot pattern is then detected and analyzed to form a depth map of the face, and an infrared image of the face or the like is captured to capture accurate face data. The arithmetic processing unit of the sensor unit generates various information based on the depth map and the infrared image, compares the information with registered reference data, and determines the depth of each point on the face (each point and the near-infrared camera). (distance between ) and position deviation other than depth.

また、センサユニットは、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニットは、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサ、をさらに含むものであってもよい。センサユニットは、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニットの画像処理部は、本発明の情報処理システムが具備可能な制御部が備えていてもよい。 Also, the sensor unit may have a function of tracking not only the face of the user but also the hand (hand tracking). The sensor unit may further include sensors other than the above sensors, such as acceleration sensors and gyro sensors. The sensor unit may have a spatial mapping function of recognizing an object in the real space where the user exists based on the detection results of the ToF sensor and other known sensors and mapping the recognized object on a spatial map. . In the following description, face motion detection data and body motion detection data will simply be referred to as "tracking data" when they are not distinguished from each other. The image processing section of the sensor unit may be included in the control section that can be included in the information processing system of the present invention.

入力装置としての操作部は、ユーザ端末の種類に応じたものを用いることができる。操作部の一例は、ディスプレイと一体化されたタッチパネルや、ユーザ端末の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行したりすることができる。なお、センサユニットがハンドトラック機能等の入力インターフェース機能も有する場合には、操作部は省略可能である。 An operation unit as an input device can be used according to the type of user terminal. Examples of the operation unit include a touch panel integrated with a display, operation buttons, a keyboard, a mouse provided on a housing of the user terminal, a controller manually operated by the user, and the like. The controller may incorporate various known sensors such as an acceleration sensor and an inertial measurement sensor (IMU: Inertial Measurement Unit) such as a gyro. Further, another example of the operation unit may be a tracking device that identifies the user's hand movement, eye movement, head movement, line of sight direction, and the like. In this aspect, for example, based on the movement of the user's hand, the user's instruction is determined, the distribution of the video is started or ended, the message or video is evaluated, and a predetermined object (for example, a gift described later) is displayed. Various operations such as requests can be executed. Note that if the sensor unit also has an input interface function such as a hand track function, the operation section can be omitted.

出力装置は、プロセッサ401で処理された処理結果を出力する。出力装置は、例えば、表示装置、タッチパネル、スピーカ等を含む。 The output device outputs the processing result processed by the processor 401 . The output device includes, for example, a display device, a touch panel, a speaker, and the like.

また、本開示における第一の情報処理装置100についても、特筆すべき場合を除き、図2と同様のハードウェア構成で構成されることができる。一方で、第二の情報処理装置200および第三の情報処理装置300は少なくとも情報処理装置400との通信を行う通信部および撮像部を備えればよいが、それ以上の機能を有するものであってもよい。 In addition, the first information processing apparatus 100 in the present disclosure can also be configured with the same hardware configuration as in FIG. 2, except for special cases. On the other hand, the second information processing device 200 and the third information processing device 300 may have at least a communication unit and an imaging unit for communicating with the information processing device 400, but may have functions beyond these. may

本開示における情報処理システム1000が備える一又は複数のコンピュータプロセッサの全ては、情報処理装置400または第一の情報処理装置100が備えるものであってもよいし、情報処理装置400および第一の情報処理装置100が分担して備えるものとしてもよい。以下では、特筆する場合を除き、情報処理装置400が後述する機能を実現するための一または複数のコンピュータプロセッサの全てを備えるものとして説明を行う。 All of the one or more computer processors included in the information processing system 1000 according to the present disclosure may be included in the information processing device 400 or the first information processing device 100, or may be included in the information processing device 400 and the first information processing device. The processing device 100 may share the responsibility. Hereinafter, unless otherwise specified, the information processing apparatus 400 will be described as including all of one or a plurality of computer processors for realizing functions described later.

<機能構成>
本開示における情報処理システム1000は、第一の情報処理装置100の表示画面に仮想空間の画像V100を表示させるためのものである。
<Functional configuration>
The information processing system 1000 according to the present disclosure is for displaying a virtual space image V100 on the display screen of the first information processing apparatus 100 .

情報処理システム1000により実現される仮想空間は、一例として、アーケードゲーム機が並べられたゲームセンターのような空間である。かかる空間には、少なくとも、アーケードゲーム機を模した複数のゲーム機オブジェクトが配置されるものとする。 A virtual space realized by the information processing system 1000 is, for example, a space like an arcade where arcade game machines are arranged. In this space, at least a plurality of game machine objects imitating arcade game machines shall be arranged.

また、仮想空間には各ユーザが操作可能な一以上のアバタオブジェクトが表示されるものとする。なお、アバタオブジェクトには、コンピュータにより操作されるものが含まれていてもよい。 It is also assumed that one or more avatar objects that can be operated by each user are displayed in the virtual space. Note that the avatar object may include an object operated by a computer.

なお、以下の説明では仮想空間がゲームセンターを模した空間であるものとして説明を行うが、その他、映画館やショッピングモール、カラオケや学校など、あらゆる現実空間を模した仮想空間とすることも可能である。 In the following explanation, the virtual space will be described as a space that imitates a game arcade, but it can also be a virtual space that imitates any real space, such as a movie theater, shopping mall, karaoke, or school. is.

そして、情報処理システム1000が備える一又は複数のコンピュータプロセッサは、図4に示されるように、第一表示処理部410、移動処理部420、判定部430および第二表示処理部440を備える。 One or more computer processors included in the information processing system 1000 include a first display processing unit 410, a movement processing unit 420, a determination unit 430, and a second display processing unit 440, as shown in FIG.

第一表示処理部410は、表示画面に、仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させるものである。 The first display processing unit 410 causes the display screen to display an image in which the user's avatar object and the first object are displayed in the virtual space.

図5は、第一の情報処理装置100が備える表示画面に、ユーザのアバタオブジェクトV101および第一のオブジェクトV102が表示された仮想空間の画像V100が表示されるイメージを示した図である。 FIG. 5 is a diagram showing an image of a virtual space image V100 in which a user's avatar object V101 and a first object V102 are displayed on the display screen of the first information processing apparatus 100. As shown in FIG.

アバタオブジェクトV101は、少なくともユーザが操作可能なオブジェクトである。また、アバタオブジェクトには、ユーザの表情および/または動作が反映されてもよい。かかるユーザの表情および/または動作は、第一の情報処理装置100が備える上記入力装置により取得されるものとし、公知の技術を用いてアバタオブジェクトに反映されるものとする。 The avatar object V101 is at least an object that can be operated by the user. Also, the avatar object may reflect the user's facial expression and/or actions. Such facial expressions and/or actions of the user are assumed to be acquired by the input device included in the first information processing apparatus 100, and are reflected in the avatar object using a known technique.

第一のオブジェクトV102は、一例として、アーケードゲーム機を模したゲーム機オブジェクトである。アーケードゲーム機としては、クレーンゲーム機やプッシャーゲーム機などのゲーム機が挙げられる。 The first object V102 is, for example, a game machine object imitating an arcade game machine. Examples of arcade game machines include game machines such as crane game machines and pusher game machines.

なお、第一のオブジェクトV102は、後述する第一の条件の判定基準となりうるものであれば特にその形体は限定されない。 Note that the shape of the first object V102 is not particularly limited as long as it can serve as a criterion for determining the first condition, which will be described later.

移動処理部420は、ユーザの操作に応じてアバタオブジェクトV101を仮想空間の中で移動させるものである。 The movement processing unit 420 moves the avatar object V101 in the virtual space according to the user's operation.

ユーザの操作は上記入力装置を介して行われるものとする。一例として、第一の情報処理装置100がスマートフォンやタブレット端末等のタッチパネルを有する装置の場合には、ユーザはタッチパネルへのタッチ操作によりアバタオブジェクトV101を移動させることができる。 It is assumed that the user's operation is performed via the input device. As an example, if the first information processing apparatus 100 is a device having a touch panel such as a smart phone or a tablet terminal, the user can move the avatar object V101 by performing a touch operation on the touch panel.

また、第一の情報処理装置100がパーソナルコンピュータやコンソールゲーム機等のコントローラを有する装置の場合には、ユーザはコントローラの操作によりアバタオブジェクトV101を移動させることができる。 Also, if the first information processing apparatus 100 is an apparatus having a controller such as a personal computer or a console game machine, the user can move the avatar object V101 by operating the controller.

また、第一の情報処理装置100がHMDやARグラス等のウェアラブルコンピュータの場合には、ユーザは視線や頭部の動きによりアバタオブジェクトV101を移動させることができる。 Also, if the first information processing apparatus 100 is a wearable computer such as an HMD or AR glasses, the user can move the avatar object V101 by moving the line of sight or the head.

なお、アバタオブジェクトV101が移動可能な領域には制限を設けることができる。一例として図6に示されるように、アバタオブジェクトV101は、仮想空間に設定された通路V103の領域のみを移動可能としてもよい。なお、図6は仮想空間を俯瞰的に眺めたイメージ図であり、アバタオブジェクトV101は通路V103を移動可能なように設定されている。 It should be noted that it is possible to set restrictions on the area in which the avatar object V101 can move. As an example, as shown in FIG. 6, the avatar object V101 may be movable only in the area of a passage V103 set in the virtual space. Note that FIG. 6 is an image diagram of a bird's-eye view of the virtual space, and the avatar object V101 is set so as to be able to move along the passage V103.

判定部430は、アバタオブジェクトV101と第一のオブジェクトV102との関係が第一の条件を満たしているかを判定するものである。 The determination unit 430 determines whether the relationship between the avatar object V101 and the first object V102 satisfies a first condition.

第一の条件は、一例として、アバタオブジェクトV101と第一のオブジェクトV102との位置関係に基づく条件とすることができる。 The first condition can be, for example, a condition based on the positional relationship between the avatar object V101 and the first object V102.

具体的には、判定部430は、仮想空間におけるアバタオブジェクトV101の座標位置と、第一のオブジェクトV102の座標位置とに基づいてこれらオブジェクトの間の距離を算出し、かかる距離が所定値以下となった場合に、第一の条件を満たすと判定することができる。なお、判定に用いる距離は、これらオブジェクトの中心座標間の距離としてもよいし、これらオブジェクトの表面座標間の距離のうち最短のものとしてもよい。 Specifically, the determining unit 430 calculates the distance between the avatar object V101 and the coordinate position of the first object V102 in the virtual space based on the coordinate position of the avatar object V101, and determines if the distance is equal to or less than a predetermined value. If so, it can be determined that the first condition is satisfied. The distance used for determination may be the distance between the center coordinates of these objects, or the shortest distance between the surface coordinates of these objects.

あるいは、判定部430は、仮想空間におけるアバタオブジェクトV101の座標位置が、第一のオブジェクトV102の周囲に設定された特定領域内に入った場合に、第一の条件を満たすと判定することができる。 Alternatively, the determination unit 430 can determine that the first condition is satisfied when the coordinate position of the avatar object V101 in the virtual space enters a specific area set around the first object V102. .

特定領域は、図7に示されるような第一のオブジェクトV102の正面の四角形領域V104、または、図8に示されるような第一のオブジェクトの正面の半円領域V104とすることができるが、これら特定領域の形状は特に限定されない。 The specific area can be a square area V104 in front of the first object V102 as shown in FIG. 7, or a semi-circular area V104 in front of the first object as shown in FIG. The shape of these specific regions is not particularly limited.

なお、上記第一の条件の判定の代案として、判定部430は、ユーザが第一のオブジェクトV102を選択したことに応じて、第一の条件が満たされると判定することも可能である。 As an alternative to determining the first condition, the determining unit 430 can determine that the first condition is satisfied in response to the user's selection of the first object V102.

そして、第二表示処理部440は、判定部330により第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる。 Then, when the determination unit 330 determines that the first condition is satisfied, the second display processing unit 440 displays the image of the physical space on the display screen.

現実空間の画像は、一例として、仮想空間が模した対象である現実空間の静止画像または動画像とすることができるが、詳細については後述する。 The image of the physical space can be, for example, a still image or a moving image of the physical space that is the target modeled by the virtual space, details of which will be described later.

現実空間の画像は、表示画面に表示された仮想空間の少なくとも一部に代えてまたは重畳して表示されるものとすることができる。 The image of the real space can be displayed in place of or superimposed on at least part of the virtual space displayed on the display screen.

また、現実空間の画像は、表示画面に表示された仮想空間の画像V100内の一部として表示されるものとしてもよいし、仮想空間の画像V100を表示する画面とは別の画面として表示されるものとしてもよい。 The image of the physical space may be displayed as part of the image V100 of the virtual space displayed on the display screen, or may be displayed as a screen separate from the screen displaying the image V100 of the virtual space. It may be

図9は、表示画面に表示された仮想空間の画像V100の一部に現実空間の画像R100をはめ込む形で表示した例であり、図10は、仮想空間の画像V100とは別に、現実空間の画像R100を表示画面に表示した例である。なお、図10では現実空間の画像R100は仮想空間の画像V100に重ねて表示されている。 FIG. 9 shows an example in which an image R100 of the real space is embedded in a part of the image V100 of the virtual space displayed on the display screen. This is an example in which an image R100 is displayed on the display screen. Note that in FIG. 10, the image R100 in the physical space is displayed superimposed on the image V100 in the virtual space.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、現実空間では実現することが困難な、特別な価値を付加したコンテンツを仮想空間内で提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or mitigates at least part of the above-described problems of the prior art. Specifically, according to the above configuration, it is possible to provide, in the virtual space, content with a special added value that is difficult to achieve in the real space.

特に、仮想空間の画像に現実空間の画像を所定の条件の下で表示する構成とすることで、現実空間および仮想空間のいずれか一方だけでは実現することができない、特別な価値を有するコンテンツが生み出すことが可能となる。 In particular, by displaying the image of the real space in the image of the virtual space under predetermined conditions, content with special value that cannot be realized with only one of the real space and the virtual space can be created. It is possible to generate.

続いて、上記現実空間の画像R100の表示についての詳細について説明する。 Next, the details of the display of the image R100 of the physical space will be described.

第二表示処理部440は、判定部430により第一の条件を満たすと判定された場合に、表示画面にメニュー画面を表示させることができる。 The second display processing unit 440 can display the menu screen on the display screen when the determination unit 430 determines that the first condition is satisfied.

これは、上述した現実空間の画像R100を表示させる前に行わせることができる。 This can be done before displaying the above-described physical space image R100.

メニュー画面は、複数の現実空間の画像の中から一の現実空間の画像R100を選択するためのものである。 The menu screen is for selecting one physical space image R100 from a plurality of physical space images.

図11は、メニュー画面M100の一例を示したものである。メニュー画面M100には、複数の項目オブジェクトM101が表示され、項目オブジェクトの各々は、それぞれが一の現実空間の画像に対応づけられている。また、異なる項目オブジェクトが同一の現実空間の画像に対応付けられていても良い。 FIG. 11 shows an example of the menu screen M100. A plurality of item objects M101 are displayed on the menu screen M100, and each of the item objects is associated with one physical space image. Also, different item objects may be associated with the same physical space image.

そして、第二表示処理部440は、ユーザによる選択に応じて、表示画面に表示する一の現実空間の画像R100を決定することができる。 Then, the second display processing unit 440 can determine one image R100 of the physical space to be displayed on the display screen according to the selection by the user.

かかる構成によれば、現実空間の画像R100ごとに第一のオブジェクトV102を配置する必要がないため、描画負荷の軽減、および、仮想空間内の省スペース化を図ることができる。 With this configuration, it is not necessary to arrange the first object V102 for each image R100 in the physical space, so it is possible to reduce the drawing load and save space in the virtual space.

なお、上記構成によれば第一のオブジェクトV102は一つあれば十分であるが、複数の現実空間の画像R100をカテゴリごとに第一のオブジェクトV102に対応付け、複数の第一のオブジェクトV102を仮想空間に表示させておくことも可能である。 According to the above configuration, one first object V102 is sufficient. It is also possible to display it in a virtual space.

また、第二表示処理部440は、現実空間の画像R100として、第一の情報処理装置100とは異なる第二の情報処理装置200が撮像した現実空間に配置された対象物500のリアルタイム画像である第一画像R110を表示させることができる。 Further, the second display processing unit 440 uses a real-time image of the object 500 arranged in the physical space captured by the second information processing device 200 different from the first information processing device 100 as the image R100 of the physical space. A certain first image R110 can be displayed.

すなわち、ユーザは、遠隔地にある対象物のリアルタイム画像を自身の端末で確認することができる。 In other words, the user can check the real-time image of the object at the remote location on his/her own terminal.

第二の情報処理装置200は、少なくとも撮像部を備える、または、撮像装置が接続された装置とすることができる。なお、以下では、撮像部としてカメラを備えるスマートフォンが第二の情報処理装置200であるものとして説明を行うが、撮像装置としてカムコーダ等のビデオカメラが第二の情報処理装置200としてのパーソナルコンピュータに接続される構成としてもよい。 The second information processing device 200 can be a device that includes at least an imaging unit or to which an imaging device is connected. In the following description, the second information processing apparatus 200 is a smartphone having a camera as an imaging unit. It is good also as a structure connected.

上述した例のように、第一のオブジェクトV102がアーケードゲーム機を模したゲーム機オブジェクトである場合、対象物500は実物のアーケードゲーム機であるが、必ずしも第一のオブジェクトV102と対象物とが同じ形状のものである必要はない。 As in the above example, when the first object V102 is a game machine object imitating an arcade game machine, the object 500 is a real arcade game machine, but the first object V102 and the object are not necessarily the same. They do not have to be of the same shape.

なお、第二表示処理部440が表示させる対象物500のリアルタイム画像は、対象物の少なくとも一部が撮像されたものとすることができる。 Note that the real-time image of the object 500 displayed by the second display processing unit 440 can be an image of at least part of the object.

上記構成によれば、ユーザは、仮想空間内で遠隔地にある現実空間のリアルタイム画像を観ることができるようになる。 According to the above configuration, the user can view a real-time image of a remote physical space in the virtual space.

そして、対象物500はユーザが遠隔から操作可能な操作部を備え、ユーザは、対象物500内に設置された景品を取得可能であるものとすることができる。 The target object 500 includes an operation unit that can be remotely operated by the user, and the user can obtain a prize set within the target object 500 .

一例として、対象物500はクレーンゲーム機であり、操作部はクレーン部であり、第一画像R110には、クレーンゲーム機の少なくとも景品を含む空間が含まれることができる。 As an example, the target object 500 may be a crane game machine, the operation unit may be a crane unit, and the first image R110 may include at least a space including a prize of the crane game machine.

図12は、対象物500であるクレーンゲーム機の一例を示したものであり、クレーンゲーム機は、筐体501、クレーン部502、景品設置部503、指示部504等で構成され、景品設置部503には一以上の景品505が載置される。 FIG. 12 shows an example of a crane game machine as an object 500. The crane game machine is composed of a housing 501, a crane section 502, a prize installation section 503, an instruction section 504, and the like. One or more prizes 505 are placed on 503 .

一般的なクレーンゲーム機は、ユーザが指示部504を操作することによりクレーン部502を操作して景品505を掴んで開口部506に景品を落とすことにより景品を取得可能なゲーム機である。 A general crane game machine is a game machine in which a user operates an instruction unit 504 to operate a crane unit 502 to grab a prize 505 and drop the prize into an opening 506 to obtain a prize.

このとき、表示画面には、図13に示されるように、第一画像R110とともに、一以上の操作オブジェクトを含む操作画面C110が表示されるものとする。 At this time, as shown in FIG. 13, an operation screen C110 including one or more operation objects is displayed together with the first image R110 on the display screen.

操作画面C110には、一例として、クレーン部502の左右方向の動きを指示するボタンC111およびクレーン部502の前後方向の動きを指示するボタンC112が配置されている。また、プレイを始めるためのスタートボタンC113、予約人数の表示C114、視聴人数の表示C115、カメラ切替ボタンC116、お気に入り登録ボタンC117、終了ボタンC118等も表示されることができる。なお、お気に入り登録ボタンC117および終了ボタンC118の配置は操作画面C110内に限られるものではない。 On the operation screen C110, as an example, a button C111 for instructing movement of the crane unit 502 in the left-right direction and a button C112 for instructing movement in the front-rear direction of the crane unit 502 are arranged. In addition, a start button C113 for starting play, a display C114 of the number of reserved people, a display C115 of the number of viewers, a camera switching button C116, a favorite registration button C117, an end button C118, and the like can also be displayed. Note that the arrangement of the favorite registration button C117 and the end button C118 is not limited to the operation screen C110.

他の例として、対象物500はメダルゲーム機であり、操作部はメダル投下部であり、第一画像R110には、メダルゲーム機の少なくともメダルを含む空間であるものとすることができる。 As another example, the target object 500 can be a medal game machine, the operating unit can be a medal drop part, and the first image R110 can be a space containing at least medals of the medal game machine.

ここでいうメダルゲーム機は、コイン落としゲームと称されるプッシャーゲーム機であり、メダル(コイン)を落とすことによりメダルを景品として、または、メダル以外のものを景品として取得可能なゲーム機である。 The medal game machine referred to here is a pusher game machine called a coin dropping game, and is a game machine that allows medals (coins) to be dropped as prizes or items other than medals to be obtained as prizes. .

図14は、対象物500であるメダルゲーム機の一例を示したものであり、メダルゲーム機は、筐体511、可動部512、メダル載置部513、メダル投下部514等で構成され、メダル載置部513には一以上のメダル515およびメダル以外の景品516が設置される。 FIG. 14 shows an example of a medal game machine, which is an object 500. The medal game machine is composed of a housing 511, a movable part 512, a medal placing part 513, a medal dropping part 514, and the like. One or more medals 515 and prizes 516 other than medals are placed on the placing portion 513 .

一般的なメダルゲーム機は、ユーザがメダル投下部514を操作することによりメダルをメダル載置部513に投下し、可動部512によりメダルが押し出される等して開口部517にメダル515およびまたは景品516を落とすことにより景品を取得可能なゲーム機である。 In a typical medal game machine, a user operates a medal dropping portion 514 to drop medals onto a medal placing portion 513 , and the movable portion 512 pushes the medals out, causing medals 515 and/or prizes to be placed in an opening 517 . It is a game machine in which a prize can be obtained by dropping 516.

このとき、図15に示される表示画面には、第一画像R110とともに、一以上の操作オブジェクトを含む操作画面C120が表示されるものとする。 At this time, it is assumed that an operation screen C120 including one or more operation objects is displayed together with the first image R110 on the display screen shown in FIG.

操作画面C120には、一例として、投下するメダルの枚数を指定する枚数ボタンC121およびメダル投下ボタンC122が配置されている。また、図示はされないが、図13と同様に、予約人数の表示、視聴人数の表示、お気に入り登録ボタン、終了ボタン等も表示されることができる。なお、お気に入り登録ボタンおよび終了ボタンの配置は操作画面C120内に限られるものではない。 On the operation screen C120, as an example, a number button C121 for designating the number of medals to be dropped and a medal drop button C122 are arranged. Also, although not shown, similarly to FIG. 13, display of the number of reserved people, display of the number of viewers, a favorite registration button, an end button, and the like can also be displayed. Note that the arrangement of the favorite registration button and the end button is not limited to the operation screen C120.

上記構成によれば、ユーザは、仮想空間内で遠隔地にある現実空間のリアルタイム画像を観るだけではなく、現実空間にある対象物を遠隔から操作することができるようになる。 According to the above configuration, the user can not only view a real-time image of a remote physical space in the virtual space, but also remotely operate an object in the physical space.

そして、本開示の実施形態において、景品505,516には、所定のマーカが付されるものとすることができる。 Then, in the embodiment of the present disclosure, the prizes 505 and 516 can be provided with predetermined markers.

ここでいう景品は、実際に景品等の物品が入れられた箱であってもよいし、中身が空の箱であってもよい。上記所定のマーカは、箱の少なくとも一面、好ましくは箱の全面に表示されているものとする。 The prize referred to here may be a box in which an article such as a prize is actually placed, or may be an empty box. It is assumed that the predetermined marker is displayed on at least one surface of the box, preferably on the entire surface of the box.

図16は、景品505に所定のマーカとしてARマーカ507が付された例が示されている。なお、ARマーカ507として機能するものであればどのような画像をマーカとして用いても構わない。 FIG. 16 shows an example in which an AR marker 507 is attached to a prize 505 as a predetermined marker. Note that any image may be used as the marker as long as it functions as the AR marker 507 .

そして、第二表示処理部440は、現実空間の画像R100に含まれるマーカに基づいて、当該マーカに関連付けられた関連オブジェクトを現実空間の画像R100に重畳して表示させることができる。 Then, based on the markers included in the physical space image R100, the second display processing unit 440 can superimpose and display the related objects associated with the markers on the physical space image R100.

関連オブジェクトは、景品505に関連するものであってもよいし、関係のないものであってもよい。一例として、関連オブジェクトは、図17に示されるようなキャラクタオブジェクトA101とすることができる。このキャラクタオブジェクトA101は、言葉を話したり、歌を口ずさんだり、踊ったり等のアクションを行うことができる。 A related object may be related to the prize 505 or unrelated. As an example, the related object can be character object A101 as shown in FIG. This character object A101 can perform actions such as speaking, humming a song, and dancing.

これらのアクションは、情報処理装置400および/または第一の情報処理装置100に予め記憶されたデータに基づいて、予め定められた順序で行われるものとしてもよいし、ユーザの操作部の操作状況や景品の取得状況に応じて、適切なタイミングでアクションを行うような構成としてもよい。 These actions may be performed in a predetermined order based on data stored in advance in the information processing device 400 and/or the first information processing device 100, or may be performed in accordance with the user's operation status of the operation unit. It may be configured such that the action is performed at an appropriate timing according to the acquisition status of the prize.

また、代案として、関連オブジェクトA101は、演出効果を発生させるものであってもよい。すなわち、視覚的または聴覚的にゲームを賑やかすような演出効果オブジェクトであってもよい。 Also, as an alternative, the related object A101 may generate a production effect. That is, it may be a production effect object that visually or aurally enlivens the game.

なお、ここでは第二表示処理部440はサーバ側(情報処理装置400)が備えるものとして説明を行っているが、クライアント側(第一の情報処理装置100)が備えるものであってもよい。すなわち、結果的に、表示画面に現実空間の画像R100と関連オブジェクトA101とが合成された画像が表示されるものであれば、その合成処理がどの装置およびステップで行われてもよいものとする。 Here, the second display processing unit 440 is described as being provided on the server side (information processing device 400), but may be provided on the client side (first information processing device 100). That is, as long as an image in which the image R100 in the physical space and the related object A101 are synthesized is displayed on the display screen, the synthesis processing may be performed by any device and step. .

上記構成によれば、仮想空間内で、ユーザに、遠隔地にある現実空間のリアルタイム画像をみせることができるようになるのに加えて、かかる現実空間には本物のキャラクタがいるような表現を実現することが可能になる。 According to the above configuration, in addition to being able to show a real-time image of a remote real space to the user in the virtual space, it is possible to express that a real character exists in the real space. realization becomes possible.

続いて、上記景品の取得についての詳細について説明する。 Next, the details of acquisition of the premium will be described.

図18に示されるように、一又は複数のコンピュータプロセッサは、さらに、景品記憶部450を備えることができる。 As shown in FIG. 18, the one or more computer processors may further comprise a prize storage 450. FIG.

景品記憶部450は、ユーザが景品の取得に成功した場合に、関連オブジェクトのデータをユーザに関連付けて記憶するものである。 The prize storage unit 450 stores the data of the related object in association with the user when the user successfully acquires the prize.

すなわち、ユーザが獲得した景品に表示されたマーカに関連付けられた関連オブジェクトは、デジタルデータとしてユーザに付与されるものとする。なお、デジタルデータの付与に加えて、景品として実際の物品が設定されている場合には、物品をユーザに対して実際に郵送するなどしてもよい。 That is, the related object associated with the marker displayed on the prize won by the user is given to the user as digital data. In addition to giving the digital data, if an actual item is set as a prize, the item may be actually mailed to the user.

通常、現実空間にあるクレーンゲームを現実空間でプレイする場合、ユーザは、目の前に物品があるので獲得する際に景品の内容がわかっている。しかし、デジタル景品については、バーチャルな内容のため、ユーザが獲得する前に自分の目で確認することができない。従来は、通常、獲得後に景品に付いているQRコード(登録商標)等を対応しているPCやスマートフォン等に読み込ませて内容を確認するものだった。 Usually, when playing a crane game in the real space, the user knows the contents of the prize when he/she wins the prize because there is an object in front of the user. However, since the digital prize is virtual, the user cannot see it with his own eyes before winning it. In the past, it was common to check the content by reading the QR code (registered trademark) attached to the prize with a compatible PC or smartphone after winning it.

一方、本開示によれば、オンラインクレーンゲームのカメラシステムにAR技術を使用し、クレーンゲームで景品を獲得する前からデジタル景品が表示され、ユーザは、事前に景品内容を自分の目で確認ができるようになる。また表示物が動いたり音を出したりするので、今までにないプロモーション効果を得ることが可能となる。 On the other hand, according to the present disclosure, AR technology is used in the camera system of the online crane game, digital prizes are displayed before the prize is won in the crane game, and the user can check the details of the prize with his/her own eyes in advance. become able to. In addition, since the displayed objects move and make sounds, it is possible to obtain an unprecedented promotional effect.

さらに、景品をデジタル景品のみとすれば、景品用の送料や届くまでの日数がかからず、サービス提供側にもサービス利用側にも効率的に費用が抑えられる。 Furthermore, if the prizes are only digital prizes, there is no need to send the prizes or take the number of days until the prizes are delivered, and both the service provider side and the service user side can efficiently reduce costs.

また、第一表示処理部410は、ユーザの操作に応じて、景品記憶部450に記憶された関連オブジェクトを、仮想空間に表示したアバタオブジェクトV101の装着オブジェクトとして表示させることができる。 Further, the first display processing unit 410 can display the related object stored in the prize storage unit 450 as an attached object of the avatar object V101 displayed in the virtual space according to the user's operation.

装着オブジェクトとは、アバタオブジェクトV101が装着可能な洋服、バッグ、靴、アクセサリ等のオブジェクトとすることができる。また、装着オブジェクトには、アバタオブジェクトV101の髪や目・鼻・口などの各種パーツも含まれるものとする。 Wearable objects can be objects such as clothes, bags, shoes, and accessories that can be worn by the avatar object V101. The wearable objects also include various parts such as the hair, eyes, nose, and mouth of the avatar object V101.

あるいは、第一表示処理部410は、ユーザの操作に応じて、景品記憶部450に記憶された関連オブジェクトを、仮想空間、または、現実空間にキャラクタオブジェクトとして表示させることができる。 Alternatively, the first display processing unit 410 can display the related object stored in the prize storage unit 450 as a character object in the virtual space or the real space according to the user's operation.

関連オブジェクトを仮想空間にキャラクタオブジェクトとして表示させる手順について説明する。 A procedure for displaying a related object as a character object in the virtual space will be described.

はじめに、ユーザは、仮想空間において所定の操作を行うことにより自身のマイルームを表示させる。そして、マイルームにおいて当該景品であるキャラクタオブジェクトを表示させるための専用のアプリケーションを起動させることにより、景品記憶部450に記憶された関連オブジェクトに対応するキャラクタオブジェクトが一覧表示される。 First, the user displays his/her own room by performing a predetermined operation in the virtual space. Then, a list of character objects corresponding to the related objects stored in the prize storage unit 450 is displayed by activating a dedicated application for displaying the character object as the prize in my room.

そして、一覧表示されたキャラクタオブジェクトの中から一または複数のキャラクタオブジェクトを選択することにより、所望のキャラクタオブジェクトを自分のマイルームに表示させることができる。 By selecting one or a plurality of character objects from the character objects displayed as a list, a desired character object can be displayed in one's own room.

ここでいう一覧表示は、リスト表示ではなく、3Dのキャラクタオブジェクトが並んだ状態の表示とすることができる。また、キャラクタオブジェクトとともに、キャラクタオブジェクトの名前やプロフィールが表示されるものとしてもよい。 The list display here can be a display in which 3D character objects are arranged in a row instead of a list display. Also, the name and profile of the character object may be displayed together with the character object.

なお、自分のマイルームには他のユーザのアバタオブジェクトを招待して上記キャラクタオブジェクトを囲んでコミュニケーション(例えば、テキスト/ボイスによるチャット)を楽しむこともできる。 It is also possible to invite avatar objects of other users to one's own room and enjoy communication (for example, text/voice chat) around the character object.

以上の例ではデジタル景品がキャラクタオブジェクトまたはアバタオブジェクトの装着オブジェクトであるとして説明を行ったが、景品はこれらに限られるものではない。例えば、上記マイルームの装飾物(壁、床、窓、屋根、家具、植物、ペットなどのオブジェクト群)、喜怒哀楽のポーズのモーション(エモーション演出)、漫画文字のオブジェクト(ゴゴゴゴ・・/ドキドキ/ガーンというような文字演出)、必殺技演出、効果音、BGM等の音楽やボイス等も景品として適用することができる。 In the above example, the explanation has been given assuming that the digital prize is an object attached to a character object or an avatar object, but the prize is not limited to these. For example, my room decorations (object groups such as walls, floors, windows, roofs, furniture, plants, pets, etc.), pose motions of emotions (emotion production), cartoon character objects (gogogogo / heartbeat) Character effects such as /Gang), deathblow effects, sound effects, music and voices such as BGM, etc. can also be applied as prizes.

続いて、関連オブジェクトを現実空間にキャラクタオブジェクトとして表示させる手順について説明する。 Next, a procedure for displaying the related object as a character object in the physical space will be described.

ユーザは、仮想空間において所定の操作を行うことにより、仮想空間を表示している状態(VRモード)から現実空間を表示する状態(ARモード)へと切り替える。 By performing a predetermined operation in the virtual space, the user switches from the state of displaying the virtual space (VR mode) to the state of displaying the real space (AR mode).

ARモードでは、第一の情報処理装置100が備える撮像部によって撮像された現実空間の画像に、景品記憶部450に記憶された関連オブジェクトに対応するキャラクタオブジェクトを表示させることができる。 In the AR mode, a character object corresponding to the related object stored in the prize storage unit 450 can be displayed in the image of the real space captured by the imaging unit provided in the first information processing apparatus 100 .

図19は、第一の情報処理装置100の表示画面に、現実空間の画像R200およびキャラクタオブジェクトA102が表示されたイメージを示したものである。図19に示されるように、ARモードでは、表示画面に、さらに、静止画または動画を記録するための撮影ボタンC201、メニューボタンC202、キャラクタオブジェクトA102を回転させるための回転ボタンC203、キャラクタオブジェクトA102を移動させるための移動ボタンC204、キャラクタオブジェクトを拡大縮小するための拡縮ボタンC205等を表示させることができる。なお、上記キャラクタオブジェクトの回転・移動・拡大縮小は、スワイプ操作やピンチインアウト操作などの他の操作でも行うことができるものとしてもよい。 FIG. 19 shows an image in which a physical space image R200 and a character object A102 are displayed on the display screen of the first information processing apparatus 100. As shown in FIG. As shown in FIG. 19, in the AR mode, the display screen further includes a shooting button C201 for recording a still image or moving image, a menu button C202, a rotation button C203 for rotating the character object A102, and a character object A102. A move button C204 for moving the character object, an enlargement/reduction button C205 for enlarging/reducing the character object, and the like can be displayed. Note that the rotation, movement, and scaling of the character object may be performed by other operations such as a swipe operation and a pinch-in/out operation.

仮想空間の例と同様に、景品記憶部450に記憶された関連オブジェクトに対応するキャラクタオブジェクトを一覧表示させ、一覧表示されたキャラクタオブジェクトの中から一または複数のキャラクタオブジェクトを選択することにより、所望のキャラクタオブジェクトを現実空間の画像に表示させるものとしてもよい。 As in the case of the virtual space, a list of character objects corresponding to the related objects stored in the prize storage unit 450 is displayed, and one or more character objects are selected from the list of character objects to obtain a desired character object. character object may be displayed in the image of the real space.

また、現実空間の画像にキャラクタオブジェクトA102を表示させることにより、キャラクタオブジェクトの様々なポーズを360度から眺めたり、現実空間で一緒に写真を撮ったりするなどして楽しむことができる。 In addition, by displaying the character object A102 in the image of the real space, it is possible to enjoy various poses of the character object from 360 degrees and to take pictures together in the real space.

また、第二表示処理部440は、関連オブジェクトとしてアバタオブジェクトを表示させることができる。 Also, the second display processing unit 440 can display an avatar object as a related object.

具体的には、プレイするクレーンゲーム機の中の景品に、自分のアバタオブジェクトを登場させることができる。 Specifically, it is possible to make one's own avatar object appear as a prize in the crane game machine to be played.

アバタオブジェクトは、ユーザにより設定された洋服を着た状態で表示されるものとしてもよいし、特別な状態で表示されるものとしてもよい。 The avatar object may be displayed wearing clothes set by the user, or may be displayed in a special state.

特別な状態とは、例えば、限定のアクセサリを装着している状態、限定のモーションをしている状態などである。 A special state is, for example, a state in which a limited accessory is worn, a state in which a limited motion is performed, or the like.

そしてこのとき、一又は複数のコンピュータプロセッサは、図18に示されるように、出力部460を備えることができる。 And at this time, the one or more computer processors can comprise an output section 460, as shown in FIG.

出力部460は、ユーザが景品の取得に成功した場合に、関連オブジェクトのデータを3Dプリント装置に出力するものである。 The output unit 460 outputs the data of the related object to the 3D printing device when the user successfully acquires the prize.

上記構成によれば、ユーザは、自分のオリジナルのアバタオブジェクトをリアルなフィギュアとして獲得することができる。 According to the above configuration, the user can obtain his or her original avatar object as a realistic figure.

続いて、第二表示処理部440が表示させる現実空間の画像の他の例について説明を行う。 Next, another example of the image of the physical space displayed by the second display processing unit 440 will be described.

第二表示処理部440は、現実空間の画像R100として、さらに、第一の情報処理装置100とは異なる第三の情報処理装置300が撮像した対象物500のリアルタイム画像である第二画像R120を表示させることができる。 The second display processing unit 440 further displays a second image R120, which is a real-time image of the object 500 captured by the third information processing device 300 different from the first information processing device 100, as the image R100 of the physical space. can be displayed.

第二の情報処理装置200は対象物500の正面から対象物500を撮像するものであり、第三の情報処理装置300は対象物500の側面から対象物500を撮像するものである。 The second information processing apparatus 200 images the object 500 from the front of the object 500 , and the third information processing apparatus 300 images the object 500 from the side of the object 500 .

第三の情報処理装置300は、少なくとも撮像部を備える、または、撮像装置が接続された装置とすることができる。 The third information processing device 300 can be a device that includes at least an imaging unit or to which an imaging device is connected.

第二の情報処理装置200および第三の情報処理装置300は、図20に示されるように、対象物500の正面および側面に配置されることができる。 The second information processing device 200 and the third information processing device 300 can be arranged on the front and sides of the object 500 as shown in FIG.

なお、上記撮像部を備える、または、撮像装置が接続された装置は、第二の情報処理装置200および第三の情報処理装置300に限られず、より多くの情報処理装置を備えてもよい。 It should be noted that the apparatus including the imaging unit or to which the imaging device is connected is not limited to the second information processing apparatus 200 and the third information processing apparatus 300, and may include more information processing apparatuses.

また、代案として、第二の情報処理装置200が複数の撮像装置に接続される構成としてもよい。この場合には、一の撮像装置が第二の情報処理装置200であり、他の撮像装置が第三の情報処理装置300であるものとして読み替えることが可能である。 As an alternative, the second information processing device 200 may be configured to be connected to a plurality of imaging devices. In this case, the one imaging device can be read as the second information processing device 200 and the other imaging device can be read as the third information processing device 300 .

また、第二の情報処理装置200は、対象物500の内部から周囲を撮像するものとしてもよい。 Also, the second information processing device 200 may capture an image of the surroundings from inside the object 500 .

例えば、第二の情報処理装置200は、360度ビデオカメラを備える、または360度動画カメラに接続されたものとすることができる。 For example, the second information processing device 200 can be equipped with a 360-degree video camera or connected to a 360-degree video camera.

また、第二の情報処理装置200は、移動可能なビデオカメラを備える、または移動可能なビデオカメラに接続されたものとすることができる。かかる移動は、例えばビデオカメラに車輪を付けてレール上を移動させる、または、ビデオカメラをドローン等の飛行装置に搭載して移動させる、などにより実現が可能である。 Also, the second information processing apparatus 200 can be provided with a movable video camera or connected to a movable video camera. Such movement can be realized, for example, by attaching wheels to the video camera and moving it on a rail, or by mounting the video camera on a flight device such as a drone and moving it.

そして、一又は複数のコンピュータプロセッサは、図18に示されるように、さらに、切替操作受付部470を備えることができる。 The one or more computer processors can further include a switching operation reception unit 470 as shown in FIG. 18 .

切替操作受付部470は、第一画像R110および第二画像R120を切り替えるためのものである。 The switching operation reception unit 470 is for switching between the first image R110 and the second image R120.

このとき、第二表示処理部440は、切替操作受付部470により受け付けられた操作に応じて、表示させる画像を切り替えることができる。 At this time, the second display processing unit 440 can switch the displayed image according to the operation accepted by the switching operation accepting unit 470 .

ユーザによる操作の一例としては、図13に示されるようなカメラ切替ボタンC116の選択が挙げられる。その他、ユーザの操作には、第一の情報処理装置100を動かすこと、ユーザの視線を動かすこと、ユーザの頭部を動かすことなども含まれる。 An example of the operation by the user is selection of the camera switching button C116 as shown in FIG. In addition, the user's operation includes moving the first information processing apparatus 100, moving the user's line of sight, moving the user's head, and the like.

判定部430は、アバタオブジェクトと第一のオブジェクトとの関係が第二の条件を満たしているかを判定するものとしてもよい。 The determination unit 430 may determine whether the relationship between the avatar object and the first object satisfies the second condition.

そして、第二表示処理部440は、判定部430により第二の条件を満たしていると判定された場合に、表示させる画像を切り替えることができる。 Then, the second display processing unit 440 can switch the image to be displayed when the determination unit 430 determines that the second condition is satisfied.

第二の条件は、一例として、アバタオブジェクトの位置に基づくものである。例えば、アバタオブジェクトが第一のオブジェクトの正面から側面へ移動した場合、表示させる画像は第一画像から第二画像へと切り替えられる。同様に、アバタオブジェクトが第一のオブジェクトの側面から正面へ移動した場合、表示させる画像は第二画像から第一画像へと切り替えられる。 A second condition is, for example, based on the position of the avatar object. For example, when the avatar object moves from the front to the side of the first object, the displayed image is switched from the first image to the second image. Similarly, when the avatar object moves from the side of the first object to the front, the displayed image is switched from the second image to the first image.

上記構成によれば、アバタオブジェクトと第一のオブジェクトとの関係に応じて自動的に表示させる画像が切り替えることができる。 According to the above configuration, the image to be displayed can be automatically switched according to the relationship between the avatar object and the first object.

また、第二表示処理部440は、アバタオブジェクトと第一のオブジェクトとの関係に応じて表示させる画像を変化させることができる。 Further, the second display processing section 440 can change the displayed image according to the relationship between the avatar object and the first object.

アバタオブジェクトと第一のオブジェクトとの関係とは、例えば、アバタオブジェクトと第一のオブジェクトとの間の距離や、第一のオブジェクトに対するアバタオブジェクトの向きなどの関係である。 The relationship between the avatar object and the first object is, for example, the relationship such as the distance between the avatar object and the first object and the orientation of the avatar object with respect to the first object.

そして、表示させる画像を変化させるとは、例えば、撮像画像の拡大縮小、撮像画角の変更などによって、画像を変化させることが挙げられる。 Changing the image to be displayed includes, for example, changing the image by enlarging or reducing the captured image, changing the angle of view of the captured image, or the like.

例えば、アバタオブジェクトが第一のオブジェクトに近づくにつれて、景品をズームイン表示にしたり、アバタオブジェクトが第一のオブジェクトから遠ざかるにつれて、景品をズームアウト表示にしたりすることができる。 For example, as the avatar object approaches the first object, the prize can be zoomed in, and as the avatar object moves away from the first object, the prize can be zoomed out.

また、上述したように、第二表示処理部440は、現実空間の画像を、第一のオブジェクトの一部分に重畳して、または、一部分と入れ替えて表示させることができる。 In addition, as described above, the second display processing unit 440 can display the image of the physical space by superimposing it on a part of the first object or replacing it with a part of the first object.

また、現実空間の画像は、表示画面に表示された仮想空間にはめ込む形で表示されるものとしてもよいし、仮想空間を表示する画面とは別の画面として表示されるものとしてもよい。これらのイメージは図9および図10に示したとおりである Also, the image of the physical space may be displayed in a manner that it fits in the virtual space displayed on the display screen, or may be displayed as a screen separate from the screen that displays the virtual space. These images are shown in FIGS. 9 and 10.

また、第一表示処理部410は、第一のオブジェクトに関連付けられた現実空間の画像に関連する情報を表示する表示オブジェクトV105を、仮想空間に表示させることができる。 In addition, the first display processing unit 410 can display in the virtual space a display object V105 that displays information related to the image in the physical space associated with the first object.

図21に一例として示されるように、表示オブジェクトV105は第一のオブジェクトV102の周囲に看板やのぼり旗のような態様で表示されるものとすることができる。そして、表示オブジェクトV105には、かかる第一のオブジェクトV102に関連付けられた現実空間の画像に関連する情報、例えば、接続可能なクレーンゲーム機で取得可能な景品の情報が表示されるものとする。一例として、表示オブジェクトV105には、第一のオブジェクトV102から接続可能なクレーンゲーム機で取得可能なキャラクタオブジェクトのうち、目玉景品となるキャラクタオブジェクトの情報が表示されることができる。 As shown in FIG. 21 as an example, the display object V105 can be displayed around the first object V102 in the form of a signboard or flag. Information related to the image of the physical space associated with the first object V102, for example, information of a prize that can be acquired by a connectable crane game machine, is displayed in the display object V105. As an example, the display object V105 can display information about a character object that will be a featured prize among character objects that can be obtained from a crane game machine that can be connected from the first object V102.

また、表示オブジェクトV105は、広告を表示するサイネージオブジェクトのような態様で表示されるものとしてもよい。このとき、表示オブジェクトV105には、かかる第一のオブジェクトV102に関連付けられた現実空間の画像に関連する情報、例えば、接続可能なクレーンゲーム機で取得可能な景品の動画コンテンツに関する情報が表示されるものとする。一例として、表示オブジェクトV105には、景品がキャラクタオブジェクトである場合において、かかるキャラクタが出演する動画コンテンツの情報が表示されることができる。 Also, the display object V105 may be displayed in a form like a signage object that displays an advertisement. At this time, the display object V105 displays information related to the image of the physical space associated with the first object V102, for example, information related to the moving image content of the prize obtainable by the connectable crane game machine. shall be As an example, when the prize is a character object, the display object V105 can display information about video content in which the character appears.

上記構成によれば、ユーザのアバタが第一のオブジェクトから離れた位置にいる場合であっても、第一のオブジェクトの存在を認知し易くなるとともに、第一のオブジェクトからメニュー画面を開くなどのステップを経ずに景品を確認することができるようになる。 According to the above configuration, even when the user's avatar is at a position away from the first object, it becomes easier to recognize the existence of the first object, and the menu screen can be opened from the first object. It becomes possible to check the prize without going through the steps.

また、図13に示されるように、画面には予約人数および/または視聴人数が表示されることができる。予約人数とは、かかるゲーム機のプレイを待っているユーザの人数であり、視聴人数とは、かかるプレイを視聴しているユーザの人数である。 Also, as shown in FIG. 13, the number of reservations and/or the number of viewers can be displayed on the screen. The number of reserved users is the number of users waiting to play the game machine, and the number of viewers is the number of users watching the play.

一のユーザがゲーム機をプレイ中は、他のユーザは予約をするか視聴をするかを選択することができる。予約をした他のユーザには、一のユーザがゲーム機のプレイを終了し、当該他のユーザがプレイ可能となった場合に、その旨を知らせる通知が送信されるものとする。その場合、かかる通知を選択することにより、他のユーザが第一のオブジェクトとは離れた場所にいる場合であっても、当該第一のオブジェクトの近傍に自動的に移動させることができる。 While one user is playing the game machine, other users can choose to reserve or watch. When one user has finished playing the game machine and it becomes possible for the other user to play, a notice to that effect will be sent to the other users who have made the reservation. In that case, by selecting such notification, even if another user is in a place away from the first object, it can be automatically moved to the vicinity of the first object.

上記構成によれば、第一のオブジェクトに対して複数のユーザのアバタがプレイを希望している場合であっても、公平にプレイをさせることができるようになるとともに、プレイの機会を損失させないという効果を得ることができる。 According to the above configuration, even if a plurality of user avatars wish to play the first object, they can be played fairly and the chance of playing is not lost. effect can be obtained.

続いて、本開示の実施形態における情報処理方法について説明を行う。 Subsequently, an information processing method according to an embodiment of the present disclosure will be described.

本開示の実施形態における情報処理方法は、第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムにおける情報処理方法である。情報処理システムの具体例は図1および図2に示したとおりである。 An information processing method according to an embodiment of the present disclosure is an information processing method in an information processing system for displaying an image of virtual space on the display screen of the first information processing device. A specific example of the information processing system is as shown in FIGS. 1 and 2. FIG.

本開示の実施形態における情報処理方法は、図22に示すように、情報処理システムが備える一又は複数のコンピュータプロセッサに、第一表示処理ステップS410と、移動処理ステップS420と、判定ステップS430と、第二表示処理ステップS440とを実行させる。 As shown in FIG. 22, the information processing method according to the embodiment of the present disclosure causes one or more computer processors included in the information processing system to perform a first display processing step S410, a movement processing step S420, a determination step S430, A second display processing step S440 is executed.

第一表示処理ステップS410は、表示画面に、仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる。かかる第一表示処理ステップS410は、上述した第一表示処理部410により実行されることができる。 A first display processing step S410 causes the display screen to display an image in which the user's avatar object and the first object are displayed in the virtual space. The first display processing step S410 can be executed by the first display processing section 410 described above.

第一表示処理ステップS410は、サーバ側(情報処理装置400)で実行されるものであってもよいし、クライアント側(第一の情報処理装置100)で実行されるものであってもよい。 The first display processing step S410 may be executed on the server side (information processing device 400) or may be executed on the client side (first information processing device 100).

移動処理ステップS420は、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる。かかる移動処理ステップS420は、上述した移動処理部420により実行されることができる。 A movement processing step S420 moves the avatar object in the virtual space according to the user's operation. The movement processing step S420 can be performed by the movement processing unit 420 described above.

移動処理ステップS420は、サーバ側(情報処理装置400)で実行されるものであってもよいし、クライアント側(第一の情報処理装置100)で実行されるものであってもよい。 The movement processing step S420 may be executed on the server side (information processing device 400) or may be executed on the client side (first information processing device 100).

判定ステップS430は、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する。かかる判定ステップS430は、上述した判定部430により実行されることができる。 A determination step S430 determines whether the relationship between the avatar object and the first object satisfies a first condition. Such determination step S430 can be performed by the determination unit 430 described above.

判定ステップS430は、サーバ側(情報処理装置400)で実行されるものであってもよいし、クライアント側(第一の情報処理装置100)で実行されるものであってもよい。 The determination step S430 may be executed on the server side (information processing device 400) or may be executed on the client side (first information processing device 100).

第二表示処理ステップS440は、判定ステップにおいて第一の条件を満たすと判定された場合、表示画面に、現実空間の画像を表示させる。かかる第二表示処理ステップS440は、上述した第二表示処理部440により実行されることができる。 A second display processing step S440 displays an image of the physical space on the display screen when it is determined in the determination step that the first condition is satisfied. The second display processing step S440 can be executed by the second display processing section 440 described above.

第二表示処理ステップS440は、サーバ側(情報処理装置400)で実行されるものであってもよいし、クライアント側(第一の情報処理装置100)で実行されるものであってもよい。 The second display processing step S440 may be executed on the server side (information processing device 400) or may be executed on the client side (first information processing device 100).

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or mitigates at least part of the problems of the prior art described above.

続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。 Next, a computer program according to an embodiment of the present disclosure will be described.

本開示の実施形態におけるコンピュータプログラムは、第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムにおいて実行されるコンピュータプログラムである。情報処理システムの具体例は図1および図2に示したとおりである。 A computer program according to an embodiment of the present disclosure is a computer program executed in an information processing system for displaying an image of virtual space on a display screen of a first information processing device. A specific example of the information processing system is as shown in FIGS. 1 and 2. FIG.

本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のコンピュータプロセッサに、第一表示処理機能と、移動処理機能と、
判定機能と、第二表示処理機能とを実現させる。
A computer program according to the present disclosure causes one or more computer processors included in an information processing system to perform a first display processing function, a movement processing function,
A determination function and a second display processing function are realized.

第一表示処理機能は、表示画面に、仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる。 The first display processing function causes the display screen to display an image in which the user's avatar object and the first object are displayed in virtual space.

第一表示処理機能は、サーバ側(情報処理装置400)で実現されるものであってもよいし、クライアント側(第一の情報処理装置100)で実現されるものであってもよい。 The first display processing function may be implemented on the server side (information processing device 400) or may be implemented on the client side (first information processing device 100).

移動処理機能は、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる。 The movement processing function moves the avatar object in the virtual space according to the user's operation.

移動処理機能は、サーバ側(情報処理装置400)で実現されるものであってもよいし、クライアント側(第一の情報処理装置100)で実現されるものであってもよい。 The movement processing function may be implemented on the server side (information processing device 400) or may be implemented on the client side (first information processing device 100).

判定機能は、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する。 A determination function determines whether the relationship between the avatar object and the first object satisfies a first condition.

判定機能は、サーバ側(情報処理装置400)で実現されるものであってもよいし、クライアント側(第一の情報処理装置100)で実現されるものであってもよい。 The determination function may be implemented on the server side (information processing device 400) or may be implemented on the client side (first information processing device 100).

第二表示処理機能は、判定部により第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる。 The second display processing function displays an image of the physical space on the display screen when the determination unit determines that the first condition is satisfied.

第二表示処理機能は、サーバ側(情報処理装置400)で実現されるものであってもよいし、クライアント側(第一の情報処理装置100)で実現されるものであってもよい。 The second display processing function may be implemented on the server side (information processing device 400) or may be implemented on the client side (first information processing device 100).

上記機能は、図23に示す第一表示処理回路1410、移動処理回路1420、判定回路1430および第二表示処理回路1440により実現されることができる。第一表示処理回路1410、移動処理回路1420、判定回路1430および第二表示処理回路1440は、それぞれ上述した第一表示処理部410、移動処理部420、判定部430および第二表示処理部440により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the first display processing circuit 1410, the movement processing circuit 1420, the determination circuit 1430 and the second display processing circuit 1440 shown in FIG. First display processing circuit 1410, movement processing circuit 1420, determination circuit 1430, and second display processing circuit 1440 are performed by first display processing section 410, movement processing section 420, determination section 430, and second display processing section 440, respectively. shall be realized. The details of each part are as described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or mitigates at least part of the problems of the prior art described above.

続いて、本開示の実施形態における第一の情報処理装置100について説明を行う。なお、後述する構成の各々は、情報処理装置400または第一の情報処理装置100のいずれか一方が備えるものとすることができる。 Next, the first information processing device 100 according to the embodiment of the present disclosure will be described. It should be noted that either one of the information processing apparatus 400 and the first information processing apparatus 100 can be provided with each of the configurations described later.

本開示の実施形態における第一の情報処理装置100は、上述した通り、情報処理装置400とネットワークを介して通信可能な装置である。第一の情報処理装置100は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ(HMD)、眼鏡型のウェアラブル端末(ARグラス等)等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置とすることができる。また、これら装置は、単独で動作するスタンドアロン型の装置であってもよいし、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。 The first information processing device 100 in the embodiment of the present disclosure is, as described above, a device that can communicate with the information processing device 400 via a network. The first information processing device 100 includes a wearable computer such as a smartphone (multifunctional telephone terminal), a tablet terminal, a personal computer, a console game machine, a head-mounted display (HMD), a glasses-type wearable terminal (AR glasses, etc.), and An information processing device other than these devices that can reproduce moving images can be used. These devices may be stand-alone devices that operate independently, or may be composed of a plurality of devices connected to each other so as to be able to transmit and receive various data.

そして、本開示の実施形態における第一の情報処理装置100は、図24に示すように、第一表示処理部110と、移動処理部120と、判定部130と、第二表示処理部140とを備える。 Then, as shown in FIG. 24, the first information processing apparatus 100 according to the embodiment of the present disclosure includes a first display processing unit 110, a movement processing unit 120, a determination unit 130, and a second display processing unit 140. Prepare.

第一表示処理部110は、表示画面に、仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる。かかる第一表示処理部111は、上述した第一表示処理部410と同様の構成とすることができる。 The first display processing unit 110 causes the display screen to display an image in which the user's avatar object and the first object are displayed in the virtual space. The first display processing unit 111 may have the same configuration as the first display processing unit 410 described above.

移動処理部120は、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる。かかる移動処理部120は、上述した移動処理部420と同様の構成とすることができる。 The movement processing unit 120 moves the avatar object in the virtual space according to the user's operation. The movement processing unit 120 may have the same configuration as the movement processing unit 420 described above.

判定部130は、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する。かかる判定部130は、上述した判定部430と同様の構成とすることができる。 The determination unit 130 determines whether the relationship between the avatar object and the first object satisfies the first condition. Such determination unit 130 can have the same configuration as the determination unit 430 described above.

第二表示処理部140は、判定部により第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる。かかる第二表示処理部140は、上述した第二表示処理部440と同様の構成とすることができる。 The second display processing unit 140 displays an image of the physical space on the display screen when the determination unit determines that the first condition is satisfied. The second display processing section 140 may have the same configuration as the second display processing section 440 described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or mitigates at least part of the problems of the prior art described above.

続いて、本開示の実施形態における第一の情報処理端末における情報処理方法について説明を行う。 Subsequently, an information processing method in the first information processing terminal according to the embodiment of the present disclosure will be described.

本開示の実施形態における情報処理方法は、第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムにおける情報処理方法である。情報処理システムの具体例は図1および図2に示したとおりである。 An information processing method according to an embodiment of the present disclosure is an information processing method in an information processing system for displaying an image of virtual space on the display screen of the first information processing device. A specific example of the information processing system is as shown in FIGS. 1 and 2. FIG.

本開示の実施形態における情報処理方法は、図25に示すように、第一の情報処理装置が備える一又は複数のコンピュータプロセッサに、第一表示処理ステップS110と、移動処理ステップS120と、判定ステップS130と、第二表示処理ステップS140とを実行させる。 As shown in FIG. 25, the information processing method according to the embodiment of the present disclosure causes one or more computer processors included in the first information processing device to perform a first display processing step S110, a movement processing step S120, and a determination step. S130 and second display processing step S140 are executed.

第一表示処理ステップS110は、表示画面に、仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる。かかる第一表示処理ステップS110は、上述した第一表示処理部110により実行されることができる。 A first display processing step S110 causes the display screen to display an image in which the user's avatar object and the first object are displayed in the virtual space. The first display processing step S110 can be executed by the first display processing section 110 described above.

移動処理ステップS120は、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる。かかる移動処理ステップS120は、上述した移動処理部120により実行されることができる。 A movement processing step S120 moves the avatar object in the virtual space according to the user's operation. The movement processing step S120 can be executed by the movement processing unit 120 described above.

判定ステップS130は、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する。かかる判定ステップS130は、上述した判定部130により実行されることができる。 A determination step S130 determines whether the relationship between the avatar object and the first object satisfies a first condition. Such determination step S130 can be performed by the determination unit 130 described above.

第二表示処理ステップS140は、判定ステップにおいて第一の条件を満たすと判定された場合、表示画面に、現実空間の画像を表示させる。かかる第二表示処理ステップS140は、上述した第二表示処理部140により実行されることができる。 A second display processing step S140 displays an image of the physical space on the display screen when it is determined in the determination step that the first condition is satisfied. The second display processing step S140 can be executed by the second display processing section 140 described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or mitigates at least part of the problems of the prior art described above.

最後に、本開示の実施形態におけるコンピュータプログラムについて説明を行う。 Finally, a computer program according to the embodiment of the present disclosure will be described.

本開示の実施形態におけるコンピュータプログラムは、第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムにおいて実行されるコンピュータプログラムである。情報処理システムの具体例は図1および図2に示したとおりである。 A computer program according to an embodiment of the present disclosure is a computer program executed in an information processing system for displaying an image of virtual space on a display screen of a first information processing device. A specific example of the information processing system is as shown in FIGS. 1 and 2. FIG.

本開示におけるコンピュータプログラムは、第一の情報処理装置が備える一又は複数のコンピュータプロセッサに、第一表示処理機能と、移動処理機能と、判定機能と、第二表示処理機能とを実現させる。 A computer program according to the present disclosure causes one or more computer processors included in a first information processing apparatus to implement a first display processing function, a movement processing function, a determination function, and a second display processing function.

第一表示処理機能は、表示画面に、仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる。 The first display processing function causes the display screen to display an image in which the user's avatar object and the first object are displayed in virtual space.

移動処理機能は、ユーザの操作に応じてアバタオブジェクトを仮想空間の中で移動させる。 The movement processing function moves the avatar object in the virtual space according to the user's operation.

判定機能は、アバタオブジェクトと第一のオブジェクトとの関係が第一の条件を満たしているかを判定する。 A determination function determines whether the relationship between the avatar object and the first object satisfies a first condition.

第二表示処理機能は、判定部により第一の条件を満たすと判定された場合に、表示画面に、現実空間の画像を表示させる。 The second display processing function displays an image of the physical space on the display screen when the determination unit determines that the first condition is satisfied.

上記機能は、図26に示す第一表示処理回路1110、移動処理回路1120、判定回路1130および第二表示処理回路1140により実現されることができる。第一表示処理回路1110、移動処理回路1120、判定回路1130および第二表示処理回路1140は、それぞれ上述した第一表示処理部110、移動処理部120、判定部130および第二表示処理部140により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the first display processing circuit 1110, the movement processing circuit 1120, the determination circuit 1130 and the second display processing circuit 1140 shown in FIG. First display processing circuit 1110, movement processing circuit 1120, determination circuit 1130, and second display processing circuit 1140 are performed by first display processing unit 110, movement processing unit 120, determination unit 130, and second display processing unit 140, respectively. shall be realized. The details of each part are as described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or mitigates at least part of the problems of the prior art described above.

また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。 Further, an information processing device such as a computer or a mobile phone can be preferably used to function as the server device or the terminal device according to the above-described embodiments. Such an information processing device stores a program describing processing details for realizing each function of the server device or the terminal device according to the embodiment in the storage unit of the information processing device, and executes the program by the CPU of the information processing device. It can be realized by reading and executing.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。 Further, the method described in the embodiment can be executed by a computer (computer), for example, magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, MO, etc.), It can be stored in a recording medium such as a semiconductor memory (ROM, RAM, flash memory, etc.), or can be transmitted and distributed via a communication medium. The programs stored on the medium also include a setting program for configuring software means (including not only execution programs but also tables and data structures) to be executed by the computer. A computer that realizes this apparatus reads a program recorded on a recording medium, and in some cases, builds software means by a setting program, and executes the above-described processes by controlling the operation by this software means. The term "recording medium" as used herein is not limited to those for distribution, and includes storage media such as magnetic disks and semiconductor memories provided in computers or devices connected via a network. The storage unit may function, for example, as a main storage device, an auxiliary storage device, or a cache memory.

1000 情報処理システム
100 第一の情報処理装置
200 第二の情報処理装置
300 第三の情報処理装置
400 情報処理装置
410 第一表示処理部
420 移動処理部
430 判定部
440 第二表示処理部
1000 information processing system 100 first information processing device 200 second information processing device 300 third information processing device 400 information processing device 410 first display processing unit 420 movement processing unit 430 determination unit 440 second display processing unit

Claims (22)

第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムであって、一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、前記表示画面に、前記仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理部と、
ユーザの操作に応じて前記アバタオブジェクトを前記仮想空間の中で移動させる移動処理部と、
前記アバタオブジェクトと前記第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定部と、
前記判定部により前記第一の条件を満たすと判定された場合に、前記表示画面に、現実空間の画像を表示させる第二表示処理部と
を備える情報処理システム。
An information processing system for displaying an image of a virtual space on a display screen of a first information processing device, comprising one or more computer processors,
The one or more computer processors are configured to display, on the display screen, an image in which a user's avatar object and a first object are displayed in the virtual space;
a movement processing unit that moves the avatar object in the virtual space according to a user's operation;
a determination unit that determines whether the relationship between the avatar object and the first object satisfies a first condition;
an information processing system comprising: a second display processing unit that displays an image of a physical space on the display screen when the determination unit determines that the first condition is satisfied.
前記第二表示処理部は、
前記判定部により前記第一の条件を満たすと判定された場合に、前記表示画面に、複数の現実空間の画像の中から一の現実空間の画像を選択するためのメニュー画像を表示させ、
前記ユーザによる選択に応じて、前記表示画面に表示する位置の現実空間画像を決定することを特徴とする請求項1に記載の情報処理システム。
The second display processing unit
displaying on the display screen a menu image for selecting one physical space image from among a plurality of physical space images when the determination unit determines that the first condition is satisfied;
2. The information processing system according to claim 1, wherein the real space image of the position to be displayed on the display screen is determined according to the selection by the user.
前記第二表示処理部は、前記現実空間の画像として、前記第一の情報処理装置とは異なる第二の情報処理装置が撮像した前記現実空間に配置された対象物のリアルタイム画像である第一画像を表示させることを特徴とする請求項1または2に記載の情報処理システム。 The second display processing unit, as the image of the physical space, is a real-time image of an object arranged in the physical space captured by a second information processing device different from the first information processing device. 3. The information processing system according to claim 1, wherein an image is displayed. 前記対象物は前記ユーザが遠隔から操作可能な操作部を備え、
前記ユーザは、前記対象物内に設置された景品を取得可能であることを特徴とする請求項3に記載の情報処理システム。
the object includes an operation unit that can be remotely operated by the user;
4. The information processing system according to claim 3, wherein said user can acquire a prize placed within said object.
前記対象物はクレーンゲーム機であり、
前記操作部はクレーン部であり、
前記第一画像には、前記クレーンゲーム機の少なくとも前記景品を含む空間が含まれることを特徴とする請求項4に記載の情報処理システム。
the object is a crane game machine,
The operation unit is a crane unit,
5. The information processing system according to claim 4, wherein said first image includes a space of said crane game machine including at least said prize.
前記対象物はメダルゲーム機であり、
前記操作部はメダル投下部であり、
前記第一画像には、前記メダルゲーム機の少なくともメダルを含む空間であることを特徴とする請求項4に記載の情報処理システム。
the object is a medal game machine,
The operation unit is a medal throwing unit,
5. The information processing system according to claim 4, wherein said first image is a space containing at least medals of said medal game machine.
前記景品には所定のマーカが付されており、
前記第二表示処理部は、前記現実空間の画像に含まれる前記マーカに基づいて、前記マーカに関連付けられた関連オブジェクトを前記現実空間の画像に重畳して表示させることを特徴とする請求項4、5または6に記載の情報処理システム。
A predetermined marker is attached to the prize,
5. The second display processing unit superimposes and displays a related object associated with the marker on the image of the physical space based on the marker included in the image of the physical space. , 5 or 6.
前記一又は複数のコンピュータプロセッサは、さらに、
前記ユーザが前記景品の取得に成功した場合に、前記関連オブジェクトのデータを前記ユーザに関連付けて記憶する景品記憶部を備えることを特徴とする請求項7に記載の情報処理システム。
The one or more computer processors further comprise:
8. The information processing system according to claim 7, further comprising a prize storage unit that stores the data of the related object in association with the user when the user successfully acquires the prize.
前記第一表示処理部は、
前記ユーザの操作に応じて、前記景品記憶部に記憶された前記関連オブジェクトを、前記仮想空間に表示した前記アバタオブジェクトの装着オブジェクトとして表示させることを特徴とする請求項8に記載の情報処理システム。
The first display processing unit
9. The information processing system according to claim 8, wherein the related object stored in the prize storage unit is displayed as an attached object of the avatar object displayed in the virtual space in accordance with the user's operation. .
前記第一表示処理部は、
前記ユーザの操作に応じて、前記景品記憶部に記憶された前記関連オブジェクトを、前記仮想空間、または、現実空間にキャラクタオブジェクトとして表示させることを特徴とする請求項8に記載の情報処理システム。
The first display processing unit
9. The information processing system according to claim 8, wherein the related object stored in the prize storage unit is displayed as a character object in the virtual space or the real space according to the user's operation.
前記第二表示処理部は、前記関連オブジェクトとして前記アバタオブジェクトを表示させることを特徴とする請求項8、9または10に記載の情報処理システム。 11. The information processing system according to claim 8, wherein the second display processing unit displays the avatar object as the related object. 前記一又は複数のコンピュータプロセッサは、さらに、
前記ユーザが前記景品の取得に成功した場合に、前記関連オブジェクトのデータを3Dプリント装置に出力する出力部を備えることを特徴とする請求項8に記載の情報処理システム。
The one or more computer processors further comprise:
9. The information processing system according to claim 8, further comprising an output unit that outputs data of the related object to a 3D printing device when the user successfully acquires the prize.
前記第二表示処理部は、前記現実空間の画像として、さらに、前記第一の情報処理装置とは異なる第三の情報処理装置が撮像した対象物のリアルタイム画像である第二画像を表示させ、
前記第二の情報処理装置は前記対象物の正面から前記対象物を撮像するものであり、
前記第三の情報処理装置は前記対象物の側面から前記対象物を撮像するものであることを特徴とする請求項3から12のいずれか一項に記載の情報処理システム。
The second display processing unit further displays a second image, which is a real-time image of an object captured by a third information processing device different from the first information processing device, as the image of the physical space,
The second information processing device captures an image of the object from the front of the object,
13. The information processing system according to any one of claims 3 to 12, wherein said third information processing device takes an image of said object from a side of said object.
前記一又は複数のコンピュータプロセッサは、さらに、
前記第一画像および前記第二画像を切り替えるための切替操作受付部を備え、
前記第二表示処理部は、前記切替操作受付部により受け付けられた操作に応じて表示させる画像を切り替えることを特徴とする請求項13に記載の情報処理システム。
The one or more computer processors further comprise:
A switching operation receiving unit for switching between the first image and the second image;
14. The information processing system according to claim 13, wherein the second display processing unit switches the image to be displayed according to the operation accepted by the switching operation accepting unit.
前記判定部は、前記アバタオブジェクトと前記第一のオブジェクトとの関係が第二の条件を満たしているかを判定し、
前記第二表示処理部は、前記判定部により前記第二の条件を満たしていると判定された場合に、表示させる画像を切り替えることを特徴とする請求項13に記載の情報処理システム。
The determining unit determines whether a relationship between the avatar object and the first object satisfies a second condition,
14. The information processing system according to claim 13, wherein the second display processing unit switches the displayed image when the determination unit determines that the second condition is satisfied.
前記第二の情報処理装置は前記対象物の内部から周囲を撮像するものであることを特徴とする請求項3から12のいずれか一項に記載の情報処理システム。 13. The information processing system according to any one of claims 3 to 12, wherein said second information processing device captures an image of the surroundings from inside said object. 前記第二表示処理部は、前記アバタオブジェクトと前記第一のオブジェクトとの関係に応じて表示させる画像を変化させることを特徴とする請求項16に記載の情報処理システム。 17. The information processing system according to claim 16, wherein said second display processing unit changes the displayed image according to the relationship between said avatar object and said first object. 前記第二表示処理部は、前記現実空間の画像を、前記第一のオブジェクトの一部分に重畳して、または、一部分と入れ替えて表示させることを特徴とする請求項1から17のいずれか一項に記載の情報処理システム。 18. The second display processing unit displays the image of the physical space by superimposing it on a part of the first object or replacing it with a part of the first object. The information processing system according to . 前記第一表示処理部は、前記第一のオブジェクトに関連付けられた前記現実空間の画像に関連する情報を表示する表示オブジェクトを表示させることを特徴とする請求項1から18のいずれか一項に記載の情報処理システム。 19. The method according to any one of claims 1 to 18, wherein the first display processing unit displays a display object displaying information related to the image of the physical space associated with the first object. Information processing system as described. 第一の情報処理装置の表示画面に仮想空間の画像を表示させるための情報処理システムにおける情報処理方法であって、
前記情報処理システムが備える一又は複数のコンピュータプロセッサに、
前記表示画面に、前記仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理ステップと、
ユーザの操作に応じて前記アバタオブジェクトを前記仮想空間の中で移動させる移動処理ステップと、
前記アバタオブジェクトと前記第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定ステップと、
前記判定ステップにおいて前記第一の条件を満たすと判定された場合、前記表示画面に、現実空間の画像を表示させる第二表示処理ステップと
を実行させる情報処理方法。
An information processing method in an information processing system for displaying an image of a virtual space on a display screen of a first information processing device, comprising:
One or more computer processors included in the information processing system,
a first display processing step of displaying, on the display screen, an image in which the user's avatar object and the first object are displayed in the virtual space;
a movement processing step of moving the avatar object in the virtual space according to a user's operation;
a determination step of determining whether the relationship between the avatar object and the first object satisfies a first condition;
and a second display processing step of displaying an image of the physical space on the display screen when it is determined in the determination step that the first condition is satisfied.
第一の情報処理装置の表示画面に仮想空間の画像を表示させるため情報処理方法であって、
前記第一の情報処理装置が備える一又は複数のコンピュータプロセッサに、
前記表示画面に、前記仮想空間に、ユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理ステップと、
ユーザの操作に応じて前記アバタオブジェクトを前記仮想空間の中で移動させる移動処理ステップと、
前記アバタオブジェクトと前記第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定ステップと、
前記判定ステップにおいて前記第一の条件を満たすと判定された場合に、前記表示画面に、現実空間の画像を表示させる第二表示処理ステップと
を実行させる情報処理方法。
An information processing method for displaying an image of a virtual space on a display screen of a first information processing device, comprising:
One or more computer processors included in the first information processing device,
a first display processing step of displaying, on the display screen, an image in which the user's avatar object and the first object are displayed in the virtual space;
a movement processing step of moving the avatar object in the virtual space according to a user's operation;
a determination step of determining whether the relationship between the avatar object and the first object satisfies a first condition;
and a second display processing step of displaying an image of the physical space on the display screen when it is determined in the determination step that the first condition is satisfied.
第一の情報処理装置の表示画面に仮想空間の画像を表示させるためのコンピュータプログラムであって、
前記第一の情報処理装置が備える一又は複数のコンピュータプロセッサに、
前記表示画面に、前記仮想空間にユーザのアバタオブジェクトおよび第一のオブジェクトを表示させた画像を表示させる第一表示処理機能と、
ユーザの操作に応じて前記アバタオブジェクトを前記仮想空間の中で移動させる移動処理機能と、
前記アバタオブジェクトと前記第一のオブジェクトとの関係が第一の条件を満たしているかを判定する判定機能と、
前記判定機能により前記第一の条件を満たすと判定された場合に、前記表示画面に、現実空間の画像を表示させる第二表示処理機能と
を実現させるコンピュータプログラム。
A computer program for displaying an image of a virtual space on a display screen of a first information processing device,
One or more computer processors included in the first information processing device,
a first display processing function for displaying, on the display screen, an image in which the user's avatar object and the first object are displayed in the virtual space;
a movement processing function for moving the avatar object in the virtual space according to a user's operation;
a determination function for determining whether the relationship between the avatar object and the first object satisfies a first condition;
and a second display processing function for displaying an image of the physical space on the display screen when the determination function determines that the first condition is satisfied.
JP2021055221A 2021-03-29 2021-03-29 Information processing systems, information processing methods and computer programs Active JP7016438B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021055221A JP7016438B1 (en) 2021-03-29 2021-03-29 Information processing systems, information processing methods and computer programs
JP2022009035A JP7317322B2 (en) 2021-03-29 2022-01-25 Information processing system, information processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021055221A JP7016438B1 (en) 2021-03-29 2021-03-29 Information processing systems, information processing methods and computer programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022009035A Division JP7317322B2 (en) 2021-03-29 2022-01-25 Information processing system, information processing method and computer program

Publications (2)

Publication Number Publication Date
JP7016438B1 JP7016438B1 (en) 2022-02-18
JP2022152443A true JP2022152443A (en) 2022-10-12

Family

ID=81073841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021055221A Active JP7016438B1 (en) 2021-03-29 2021-03-29 Information processing systems, information processing methods and computer programs

Country Status (1)

Country Link
JP (1) JP7016438B1 (en)

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212173A (en) * 1995-02-02 1996-08-20 Nippon Telegr & Teleph Corp <Ntt> Multiuser virtual space system
JPH09181972A (en) * 1995-12-25 1997-07-11 Olympus Optical Co Ltd Image composition device
JP2000259860A (en) * 1999-03-12 2000-09-22 Square Co Ltd Game device, moving image display method and recording medium
US6476830B1 (en) * 1996-08-02 2002-11-05 Fujitsu Software Corporation Virtual objects for building a community in a virtual world
JP2004214830A (en) * 2002-12-27 2004-07-29 Iwane Kenkyusho:Kk Partial real time image display
JP2005070161A (en) * 2003-08-20 2005-03-17 Mitsubishi Chemicals Corp Simulation system for training
JP2006072193A (en) * 2004-09-06 2006-03-16 Central Res Inst Of Electric Power Ind Training system and training method
JP2010257081A (en) * 2009-04-22 2010-11-11 Canon Inc Image procession method and image processing system
JP2014149712A (en) * 2013-02-01 2014-08-21 Sony Corp Information processing device, terminal device, information processing method, and program
JP2014170483A (en) * 2013-03-05 2014-09-18 Nintendo Co Ltd Information processing system, information processor, information processing method and program for information processing
JP2015075732A (en) * 2013-10-11 2015-04-20 三菱重工業株式会社 Plant operation training apparatus, control method, program, and plant operation training system
JP2015170018A (en) * 2014-03-05 2015-09-28 任天堂株式会社 Information processing system, information processing apparatus, information processing program and information processing method
JP2015231445A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image generating device
JP2018142230A (en) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 Information processor, information processing system, information processing method, and program
JP2019032713A (en) * 2017-08-08 2019-02-28 キヤノン株式会社 Information processing device, information processing method, and program
JP2019049987A (en) * 2018-10-09 2019-03-28 株式会社コロプラ Information processing method, device, and program for causing computer to execute the method
JP2019187706A (en) * 2018-04-23 2019-10-31 グリー株式会社 Game device and control method
JP2019212062A (en) * 2018-06-05 2019-12-12 株式会社セガゲームス Information processing device and program
JP2020057399A (en) * 2019-11-27 2020-04-09 株式会社バンダイナムコエンターテインメント Simulation control device and simulation control program
JP2020149140A (en) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ Work support system, work support method, and program
JP2020168392A (en) * 2020-06-16 2020-10-15 株式会社コロプラ System, method, and program for sharing game experience, and recording medium

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212173A (en) * 1995-02-02 1996-08-20 Nippon Telegr & Teleph Corp <Ntt> Multiuser virtual space system
JPH09181972A (en) * 1995-12-25 1997-07-11 Olympus Optical Co Ltd Image composition device
US6476830B1 (en) * 1996-08-02 2002-11-05 Fujitsu Software Corporation Virtual objects for building a community in a virtual world
JP2000259860A (en) * 1999-03-12 2000-09-22 Square Co Ltd Game device, moving image display method and recording medium
JP2004214830A (en) * 2002-12-27 2004-07-29 Iwane Kenkyusho:Kk Partial real time image display
JP2005070161A (en) * 2003-08-20 2005-03-17 Mitsubishi Chemicals Corp Simulation system for training
JP2006072193A (en) * 2004-09-06 2006-03-16 Central Res Inst Of Electric Power Ind Training system and training method
JP2010257081A (en) * 2009-04-22 2010-11-11 Canon Inc Image procession method and image processing system
JP2014149712A (en) * 2013-02-01 2014-08-21 Sony Corp Information processing device, terminal device, information processing method, and program
JP2014170483A (en) * 2013-03-05 2014-09-18 Nintendo Co Ltd Information processing system, information processor, information processing method and program for information processing
JP2015075732A (en) * 2013-10-11 2015-04-20 三菱重工業株式会社 Plant operation training apparatus, control method, program, and plant operation training system
JP2015170018A (en) * 2014-03-05 2015-09-28 任天堂株式会社 Information processing system, information processing apparatus, information processing program and information processing method
JP2015231445A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image generating device
JP2018142230A (en) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 Information processor, information processing system, information processing method, and program
JP2019032713A (en) * 2017-08-08 2019-02-28 キヤノン株式会社 Information processing device, information processing method, and program
JP2019187706A (en) * 2018-04-23 2019-10-31 グリー株式会社 Game device and control method
JP2019212062A (en) * 2018-06-05 2019-12-12 株式会社セガゲームス Information processing device and program
JP2019049987A (en) * 2018-10-09 2019-03-28 株式会社コロプラ Information processing method, device, and program for causing computer to execute the method
JP2020149140A (en) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ Work support system, work support method, and program
JP2020057399A (en) * 2019-11-27 2020-04-09 株式会社バンダイナムコエンターテインメント Simulation control device and simulation control program
JP2020168392A (en) * 2020-06-16 2020-10-15 株式会社コロプラ System, method, and program for sharing game experience, and recording medium

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
"Friendly Crane", [ONLINE], JPN7021004810, 7 March 2021 (2021-03-07), ISSN: 0004636552 *
"Minecraft Tutorial: How To Make An Arcade Claw Machine House", [ONLINE], JPN7021004811, 7 June 2018 (2018-06-07), ISSN: 0004636551 *
"VRChat_CraneGame DEMO MOVIE", [ONLINE], JPN7021004812, 27 August 2019 (2019-08-27), ISSN: 0004636546 *
"タイトーオンラインクレーン", [ONLINE], JPN6021044480, 18 April 2018 (2018-04-18), ISSN: 0004636549 *
"バーチャルマーケットってどんなイベント? 参加方法や楽しみ方を徹底解説|Mogura VR", [ONLINE], JPN6021044478, 26 December 2020 (2020-12-26), ISSN: 0004636550 *
"プレイ方法 | ご利用ガイド | オンラインクレーンゲーム「セガキャッチャーオンライン」", [ONLINE], JPN6021044481, 2 May 2020 (2020-05-02), ISSN: 0004636547 *
"迷えるゲーセン民よ、集え!「VRゲーセンネオチャン」 | バーチャルライフマガジン", [ONLINE], JPN6021044482, 28 February 2020 (2020-02-28), ISSN: 0004636545 *

Also Published As

Publication number Publication date
JP7016438B1 (en) 2022-02-18

Similar Documents

Publication Publication Date Title
JP6858737B2 (en) Viewing program, distribution program, how to execute the viewing program, how to execute the distribution program, information processing device, and information processing system
US8502825B2 (en) Avatar email and methods for communicating between real and virtual worlds
CN102129343B (en) Directed performance in motion capture system
KR20200100046A (en) Information processing device, information processing method and program
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP7098676B2 (en) Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
JP6843100B2 (en) Game programs, game methods, and information processing equipment
CN110270088A (en) Asynchronous virtual reality interaction
US20240013502A1 (en) Storage medium, method, and information processing apparatus
JP7369674B2 (en) Programs, methods and viewing devices
JP2023067892A (en) Information processing program, information processing method, and information processing device
JP2021158558A (en) Moving image application program, object drawing method of moving image, moving image management program, moving image management method, server and moving image distribution system
JP6785325B2 (en) Game programs, methods, and information processing equipment
JP6509302B1 (en) Game program and game system
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP7317322B2 (en) Information processing system, information processing method and computer program
US20220405996A1 (en) Program, information processing apparatus, and information processing method
JP7016438B1 (en) Information processing systems, information processing methods and computer programs
JP7092930B1 (en) Program, information processing method, server and server information processing method
US20220323862A1 (en) Program, method, and information processing terminal
JP2021087789A (en) Viewing program, distribution program, method for executing viewing program, method for executing distribution program, information processing device and information processing system
JP7001719B2 (en) Computer programs, server devices, terminal devices, and methods
JP7357865B1 (en) Program, information processing method, and information processing device
WO2022137375A1 (en) Method, computer-readable medium, and information processing device
JP2023135565A (en) Method for providing virtual real space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220125

R150 Certificate of patent or registration of utility model

Ref document number: 7016438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150