JP2022156374A - Program, method, and information processing device - Google Patents

Program, method, and information processing device Download PDF

Info

Publication number
JP2022156374A
JP2022156374A JP2021060024A JP2021060024A JP2022156374A JP 2022156374 A JP2022156374 A JP 2022156374A JP 2021060024 A JP2021060024 A JP 2021060024A JP 2021060024 A JP2021060024 A JP 2021060024A JP 2022156374 A JP2022156374 A JP 2022156374A
Authority
JP
Japan
Prior art keywords
user
event
information
discovery
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021060024A
Other languages
Japanese (ja)
Other versions
JP7434206B2 (en
Inventor
拓 河本
Taku Kawamoto
明子 津田
Akiko Tsuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pokemon Co
Original Assignee
Pokemon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pokemon Co filed Critical Pokemon Co
Priority to JP2021060024A priority Critical patent/JP7434206B2/en
Publication of JP2022156374A publication Critical patent/JP2022156374A/en
Application granted granted Critical
Publication of JP7434206B2 publication Critical patent/JP7434206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a technique for further enhancing the memories of users participating in an event.SOLUTION: A program for operating a computer that supports the progress of an event to search for a discovery target installed in a certain space and equipped with a camera for shooting within a certain space in the real world causes a computer processor to execute the steps of photographing a user in a certain space with the camera during a period in which the user participates in an event and searches for the discovery target, and obtaining the photographed result and presenting the photographed result to the user according to the progress of the user's event.SELECTED DRAWING: Figure 16

Description

本開示は、プログラム、方法、情報処理装置に関する。 The present disclosure relates to programs, methods, and information processing apparatuses.

テーマパーク等の施設において、アトラクションの搭乗者を撮影する技術が知られている。 2. Description of the Related Art In facilities such as theme parks, technology is known for photographing passengers of attractions.

特許文献1には、テーマパーク等の施設において、ジェットコースター等のアトラクションに搭乗時、コースターが落ちる瞬間などの画像を撮影し、画像に含まれる搭乗者の画像を抽出し、テンプレートと合成した画像を提供する技術が記載されている。 In Patent Document 1, when boarding an attraction such as a roller coaster in a facility such as a theme park, an image is captured at the moment the coaster falls, an image of the passenger included in the image is extracted, and an image synthesized with a template. is described.

特開2004-228637号公報JP-A-2004-228637

特許文献1の技術では、ジェットコースターなど、予め定められた経路に沿って搭乗者を自動的に移動させ、その経路上の所定の位置を撮影するカメラにより搭乗者を撮影している。
一方、現実の世界で、複数のユーザで参加して、ある程度定められた地理範囲内で各ユーザが自由に探索をするイベントもある。このような探索型のイベントでは、探索の対象となる地理範囲内に予めカメラを設置しようとしたとしても、当該地理範囲が広がれば広がるほどカメラの設置台数が増えてしまい、イベントの運営コストが増加することで運営を継続することが困難になるおそれがある。
そのため、探索型のイベントにおいて、イベントに参加したユーザの思い出をより一層高めるための技術が必要とされている。
In the technique disclosed in Patent Literature 1, a passenger is automatically moved along a predetermined route such as a roller coaster, and the passenger is photographed by a camera that photographs a predetermined position on the route.
On the other hand, in the real world, there are also events in which a plurality of users participate and each user freely explores within a geographical range defined to some extent. In such a search-type event, even if it is attempted to install cameras in advance within the geographic range to be searched, the larger the geographic range, the larger the number of installed cameras, which increases the operating cost of the event. The increase may make it difficult to continue operations.
Therefore, in search-type events, there is a need for a technique for further enhancing the memories of users who have participated in the event.

一実施形態によると、現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータを動作させるためのプログラムであって、発見対象物は、一定空間内を撮影するためのカメラを備えており、プログラムは、コンピュータのプロセッサに、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラにより撮影させるステップと、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップと、を実行させる、プログラムが提供される。 According to one embodiment, in the real world, a program for operating a computer that supports the progress of an event to search for a discovery target placed in a certain space, wherein the discovery target is photographed in a certain space. The program causes the processor of the computer to photograph the user in a certain space during the period in which the user participates in the event and searches for the object to be discovered; obtaining the results and presenting the captured results to the user according to the progress of the user's event.

本開示によれば、探索型のイベントにおいて、イベントに参加したユーザの思い出を、より一層高める技術を提供することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to provide a technology that further enhances the memories of users who have participated in a search-type event.

システム1全体の構成を示すブロック図である。1 is a block diagram showing the configuration of an entire system 1; FIG. 端末装置10の機能的な構成を示す図である。2 is a diagram showing a functional configuration of the terminal device 10; FIG. サーバ20の機能的な構成を示す図である。3 is a diagram showing a functional configuration of a server 20; FIG. サーバ20の記憶部に記憶されているイベント情報データベース(DB)、参加者情報DBのデータ構造である。It is a data structure of an event information database (DB) and a participant information DB stored in a storage unit of the server 20. FIG. サーバ20の記憶部に記憶されている対象物情報DB、ヒント情報DB、イベント履歴DBのデータ構造である。3 shows the data structures of an object information DB, a hint information DB, and an event history DB stored in a storage unit of the server 20. FIG. 複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、複数のユーザがイベントを進行させることに応答して、第1の画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理を表すフローチャートである。A part of a first image in response to obtaining an image of another user working on an event task by some of the plurality of users, and the plurality of users progressing the event. is a flowchart showing a process of providing the extracted content to the plurality of users. 複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、撮影された画像に含まれる発見対象物の承認に伴い、イベントの進行度合いを特定し、複数のユーザがイベントを進行させることに応答して、第1の画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理を表すフローチャートである。Some of the users acquire images of other users working on the event's task, and identify the progress of the event with the approval of the discovered objects included in the captured images. and, in response to the progress of an event by a plurality of users, a process of providing content obtained by extracting a part of the first image to the plurality of users. システム1が提供するイベントの概要図である。1 is a schematic diagram of events provided by the system 1; FIG. 複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像の画面例である。It is a screen example of the image which some users among several users image|photographed the other user who tackles the task of an event. 発見対象物の承認操作を実行する際の画面例である。It is an example of a screen at the time of performing approval operation of a discovery target. イベントにおいて、制限時間が終了した際に、ユーザが使用する端末に表示される画面の画面例である。In an event, it is a screen example of the screen displayed on the terminal used by the user when the time limit has expired. 複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像において、発見対象物の配置場所のヒントをユーザに提示する際の画面例である。FIG. 10 is an example of a screen when some users out of a plurality of users present a hint of the arrangement location of the discovery target to the user in an image of other users who are working on the task of the event. 発見対象物が備えるカメラにより、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影した撮影結果を取得し、取得した撮影結果をイベントの進行の程度に応じてユーザに提供する処理を表すフローチャートである。During the period when the user participates in the event and searches for the discovery target, the user is photographed in a certain space using a camera provided with the discovery target, and the acquired photography results are acquired according to the progress of the event. 10 is a flow chart representing processing provided to the user in response. 発見対象物が備えるカメラにより、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影した撮影結果と、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した画像を取得し、取得した撮影結果および画像の一部を抽出したコンテンツを、イベントの進行の程度に応じてユーザに提供する処理を表すフローチャートである。During a period in which a user participates in an event and searches for a discovery target using a camera included in the discovery target, the result of shooting the user in a certain space, and some of the users, Flowchart showing a process of obtaining captured images of other users searching for objects to be discovered in an event, and providing the captured image results and content obtained by extracting a part of the images to the user according to the progress of the event. is. 発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子を抽出したコンテンツをユーザに提示する画面例である。This is an example of a screen for presenting a user with content obtained by extracting a state in which a user is searching for a discovery target at an event from the results captured by the camera 401 provided for the discovery target. 発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子等を抽出したコンテンツを、ユーザがイベントにおいて発見した発見対象物およびユーザが発見できなかった発見対象物の情報等とともにユーザに提示する画面例である。The discovery object discovered by the user at the event and the user's ability to discover the content extracted by extracting the state of the user searching for the discovery object at the event from the results captured by the camera 401 provided for the discovery object. It is an example of a screen presented to the user together with information of a discovered object that has not been found. 発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子等を抽出したコンテンツを、ユーザがイベントにおいて他のユーザがイベントの課題に取り組む様子を撮影した画像の一部を抽出したコンテンツとともにユーザに提示する画面例Content extracted from the results captured by the camera 401 provided for the discovery target, such as a user searching for the discovery target at the event, is used to show how the user works on the event's task at the event. An example of a screen that presents a part of the captured image to the user along with the extracted content 現実の世界において実施されるイベントにおいて、ユーザからイベントの課題の進行状況に応じた入力操作を受け付け、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果をユーザに提示する処理を表すフローチャートである。In an event held in the real world, a process of receiving an input operation from the user according to the progress of the task of the event and presenting the user with the result of progressing the task of the event according to the end of the event. It is a flow chart representing. イベントの終了に応じて、ユーザが発見した発見対象物とユーザが発見できなかった発見対象物に関する情報とをユーザに提示する画面例である。It is an example of a screen that presents to the user, in accordance with the end of the event, the discovery target that the user has discovered and the information on the discovery target that the user has not been able to discover. イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツ等とともに、ユーザに提示する画面例である。In response to the end of the event, information about the discovery target that the user could not find, information suggesting the area where the discovery target is located, and part of the image taken by the discovery target were extracted. It is an example of a screen presented to the user together with content and the like. イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、およびユーザの当該エリアにおける行動範囲の情報とともに、ユーザに提示する画面例である。Upon completion of the event, presenting to the user information on the discovery target that the user has not been able to discover, along with information suggesting the area in which the discovery target is located, and information on the user's range of activity in the area. This is an example of a screen for ユーザが発見した発見対象物に関する情報に、イベントの終了から所定の期間経過後に、次のイベントで追加される予定の発見対象物の情報、当該次のイベントにおける新たな課題等の情報を追加し、ユーザに提示する画面例である。After a predetermined period of time has passed since the end of the event, information on discovered objects scheduled to be added at the next event, information on new issues at the next event, etc. will be added to the information on the discovered objects discovered by the user. , are examples of screens presented to the user.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
<概要>
以下の実施形態では、現実の世界において実施されるイベントにおいて、イベントの課題に取り組むユーザの画像を、複数の他のユーザが撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明する。
ここで、イベントの進行において適宜使用される装置等に関しては、ユーザの所持しているスマートフォン、タブレット端末などの端末装置の場合もあれば、イベントが実施される会場に設置された端末装置により提示されることもある。
<First Embodiment>
<Overview>
In the following embodiments, in an event held in the real world, a plurality of other users capture images of a user working on a task for the event, and some of the captured images are selected in response to the progress of the event. A technique for providing the extracted content to the user will be described.
Here, with regard to the devices used appropriately in the progress of the event, there are cases where terminal devices such as smartphones and tablet terminals possessed by the user, and terminal devices installed at the venue where the event is held. Sometimes it is done.

一般的に、テーマパーク等の施設において、アトラクション等に搭乗、またはイベント等を体験した際に撮影される写真は、ユーザが驚いた、怖がった、等の表情を撮影することを目的とすることが多い。そのため、ユーザは、いつも同じ表情の写真が撮影されてしまうため、面白みに欠け、何度も体験しようというモチベーションが維持できないおそれがある。 In general, photographs taken when boarding attractions, etc., or experiencing events, etc. at facilities such as theme parks are intended to capture the user's expression of surprise, fear, etc. There are many. As a result, the user may not be able to maintain the motivation to experience the experience over and over again because the photograph is always taken with the same facial expression.

また、上記の場合、ユーザを撮影するカメラを操作するのは、主にテーマパーク側であり、ユーザが希望するタイミング、希望する表情の画像が得られない可能性がある。例えば、イベントに熱中している様子、何かを発見した時に思わず出してしまった喜びの表情などは撮影されず、思い出の写真とともに反芻することが困難である場合がある。 Further, in the above case, it is mainly the theme park side that operates the camera that captures the user, and there is a possibility that the image with the desired timing and desired facial expression cannot be obtained by the user. For example, it may be difficult to ruminate on memories together with pictures of people who are enthusiastic about an event, or expressions of joy that they involuntarily show when they discover something.

そこで、システム1では、現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータを動作させるためのプログラムであって、発見対象物は、一定空間内を撮影するためのカメラを備えており、プログラムは、コンピュータのプロセッサに、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラにより撮影させるステップと、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップと、を実行させる技術を提供する。 Therefore, in the system 1, in the real world, a program for operating a computer that supports the progress of an event to search for a discovery target installed in a certain space. The program causes the processor of the computer to photograph the user in a certain space during the period in which the user participates in the event and searches for the object to be discovered; obtaining a result and presenting the photographed result to the user according to the progress of the user's event.

(1)探索型のイベントで、一部のユーザが他のユーザを撮影した画像を抽出して、イベントの区切りなど進行に応じてユーザに提示する
システム1は、ユーザの所持しているスマートフォン、または、イベントを運営する事業者がユーザに貸し出す端末(スマートフォン、タブレット等)などの端末装置を用いて、ユーザが、イベントの課題に取り組むユーザの様子を撮影した画像を取得する。例えば、複数のユーザのうち、一部のユーザが、イベントの課題に取り組む他のユーザを撮影する。システム1は、取得した画像と、イベントの進行度合いに基づいて、当該画像から一部を抽出したコンテンツをユーザに提供する。これにより、ユーザはイベント参加中の様々な表情を撮影した画像に基づいたコンテンツを得ることができ、イベントの思い出をさらに高め、イベントへのリピート参加を促進することができる。
(1) In a search-type event, some users extract images of other users and present them to the user according to the progress of the event, such as the end of the event. Alternatively, using a terminal device such as a terminal (smartphone, tablet, etc.) rented out to the user by the operator who manages the event, the user acquires an image of the user working on the task of the event. For example, among a plurality of users, some users take pictures of other users working on the tasks of the event. The system 1 provides the user with content obtained by extracting a part of the image based on the acquired image and the degree of progress of the event. As a result, the user can obtain content based on images of various facial expressions taken while participating in the event, thereby further enhancing memories of the event and promoting repeat participation in the event.

以上のように、システム1は、イベントに参加したユーザの思い出を、より一層高める技術を提供する。 As described above, the system 1 provides technology for further enhancing the memories of users who participated in the event.

システム1は、例えば、現実の世界において実施されるイベントの会場において使用され得る。当該イベントは、例えば、現実の世界にある発見対象物を複数のユーザが探索する、探索型のイベントである。イベントでは、探索対象となる地理範囲において、草むら、木々、壁、地面、建物、水面、小道具などがあり、これらの自然物・人工的に設置された物体などに隠された発見対象物を、複数のユーザで探索する。イベントでは、一定の地理範囲をエリアと定めて、複数のエリアを順に探索していき、各エリアに隠された発見対象物を複数のユーザで探索していく。イベントに参加する各ユーザは、各エリアにおいて、イベント参加時等に配布されるヒント(発見対象物が隠された場所を示唆する情報)を参考にしつつ、時には複数のユーザで相談しつつ、発見対象物を探索する。
一方、イベントに参加する複数のユーザのうち、各ユーザが探索を行う様子を撮影したいと希望する一部のユーザもいる。例えば、発見対象物が、小説、ゲームなど原作があるコンテンツに登場するキャラクターを表すものであり、当該コンテンツを愛好するユーザが、当該イベントに参加したいと希望したとする。これに対し、イベントに参加して当該愛好するユーザが探索をする行為を記録することを希望するユーザもいる。例えば、子どもがイベントへの参加を希望する場合に、その子どもがイベントで探索をする様子を、子どもの親が記録することを希望する。
そこで、複数のユーザのうち一部のユーザは自身の端末装置を用い、イベントの課題に取り組む他のユーザの画像を撮影する。
システム1は、ユーザが使用する端末から取得した画像と、イベントの進行度合いとに基づいて、画像の一部を抽出したコンテンツ、例えば、イベントの様々なタイミングにおけるユーザの表情をちりばめた写真等、をユーザが使用する端末に提示する。そのため、ユーザはイベントでどんなことがあったか、どのような表情をしていたか、を何度も振り返ることができ、イベントの思い出を高めることができる。
なお、イベントで探索を行うユーザ自身が、探索をしつつ、スマートフォンでの自撮りや、360度カメラなど広範囲を撮影可能なカメラにより撮影を行うこともあり得る。
(2)探索型のイベントで、一部のユーザが端末装置を使用することで、イベントの進行を支援するための情報(ヒントなど)を得ることができる
システム1は、イベントに参加するユーザの端末装置により、イベントの目標である発見対象物の発見を支援するための情報をユーザに提示する。例えば、イベントに参加する一部のユーザが、スマートフォンなどで他のユーザを撮影しつつ、当該スマートフォンで発見対象物に関する情報(隠された場所を示唆する情報など)を得ることができる。
これにより、当該撮影をするユーザは、イベントで発見対象物を探す他のユーザに対しヒントを提供することができ、他のユーザの撮影をして思い出を残す行為をしつつ、他のユーザを支援するサポーターの役割で、共にイベントに参加することができ、複数のユーザがイベントに取り組むという一体感がよりいっそう向上する。例えば、発見対象物が、コンテンツに登場するキャラクター等である場合に、探索を楽しむユーザと比べて当該コンテンツへの興味関心が相対的に低いユーザであったとしても、探索を楽しむユーザを撮影して記録したいという動機でイベントに参加しつつ、イベントの進行を支援する役割を担うことができる。
The system 1 can be used, for example, at the venue of an event held in the real world. The event is, for example, a search-type event in which multiple users search for a discovery target in the real world. In the event, there are grasses, trees, walls, ground, buildings, water surfaces, props, etc. in the geographic area to be searched, and multiple discovery objects hidden in these natural objects and artificially installed objects users to explore. In the event, a certain geographic range is defined as an area, and multiple areas are searched in order, and multiple users search for hidden objects hidden in each area. Each user who participates in the event refers to the hints (information suggesting the place where the discovery target is hidden) distributed at the time of event participation etc. in each area, sometimes consults with multiple users, and discovers Explore objects.
On the other hand, among the users participating in the event, there are also some users who wish to capture a picture of each user conducting a search. For example, suppose that the object to be found represents a character that appears in an original content such as a novel or a game, and a user who loves the content wishes to participate in the event. On the other hand, there are also users who want to record the searching behavior of the user who participates in the event. For example, if a child wishes to participate in an event, the child's parents may wish to record how the child explores the event.
Therefore, some users among the plurality of users use their own terminal devices to capture images of other users working on the tasks of the event.
The system 1 extracts a part of the image based on the image obtained from the terminal used by the user and the progress of the event, for example, the user's facial expressions at various timings of the event. is presented to the terminal used by the user. Therefore, the user can look back many times on what happened at the event and what kind of facial expressions he/she made, and can enhance the memory of the event.
It should be noted that the user who searches for the event may take a selfie with a smartphone or take a picture with a camera capable of photographing a wide range, such as a 360-degree camera, while searching.
(2) In a search-type event, some users can obtain information (hints, etc.) to support the progress of the event by using terminal devices. The terminal device presents the user with information for assisting the discovery of the discovery object that is the target of the event. For example, some users participating in an event can obtain information about the discovered object (such as information suggesting a hidden place) with the smartphone while taking pictures of other users with the smartphone.
As a result, the user who takes the photograph can provide hints to other users who are looking for objects to be discovered at the event, and while taking photographs of other users and leaving memories, they can also help other users. In the role of a supporting supporter, they can participate in the event together, and the sense of unity of a plurality of users working on the event is further improved. For example, when the object to be discovered is a character or the like that appears in content, even if the user has relatively low interest in the content compared to the user who enjoys searching, the user who enjoys searching can be photographed. While participating in the event with the motive of wanting to record it as an event, they can play a role in supporting the progress of the event.

<1 システム全体の構成図>
図1は、第1の実施の形態におけるシステム1の全体の構成を表している。
<1 Configuration diagram of the entire system>
FIG. 1 shows the overall configuration of a system 1 according to the first embodiment.

図1に示すように、システム1は、複数の端末装置(図1では端末装置10Aおよび端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20と、複数の発見対象物40とを含む。発見対象物40には、カメラ401およびセンサ402が備えられていてもよい。端末装置10と、発見対象物40に備えられたカメラ401と、サーバ20とは、ネットワーク80を介して通信接続する。 As shown in FIG. 1, a system 1 includes a plurality of terminal devices (terminal device 10A and terminal device 10B are shown in FIG. , and a plurality of discovery objects 40 . The object to be found 40 may be equipped with a camera 401 and a sensor 402 . The terminal device 10 , the camera 401 provided on the discovery object 40 , and the server 20 are connected for communication via the network 80 .

端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末などにより実現される。この他に、端末装置10は、例えば据え置き型のPC(Personal Computer)、ラップトップPC、イベント会場等に設置されているデータ端末であるとしてもよい。図1に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。 The terminal device 10 is a device operated by each user. The terminal device 10 is implemented by a mobile terminal such as a smart phone or a tablet compatible with a mobile communication system. In addition, the terminal device 10 may be, for example, a stationary PC (Personal Computer), a laptop PC, or a data terminal installed at an event venue or the like. As shown as terminal device 10B in FIG. The server 20 includes a communication IF 22 , an input/output IF 23 , a memory 25 , a storage 26 and a processor 29 .

端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、5G、LTE(Long Term Evolution)などの通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11などの無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することによりネットワーク80に接続される。 The terminal device 10 is communicably connected to the server 20 via the network 80 . The terminal device 10 is a wireless base station 81 compatible with communication standards such as 5G and LTE (Long Term Evolution), and a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronics Engineers) 802.11. It is connected to the network 80 by communicating with a communication device such as a wireless LAN router 82 .

通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。 The communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 communicates with an external device. The input device 13 is an input device (for example, a touch panel, a touch pad, a pointing device such as a mouse, a keyboard, etc.) for receiving an input operation from a user. The output device 14 is an output device (display, speaker, etc.) for presenting information to the user. The memory 15 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory). The storage unit 16 is a storage device for storing data, and is, for example, a flash memory or a HDD (Hard Disc Drive). The processor 19 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

サーバ20は、イベントに関連する情報、イベントに参加するユーザに関連する情報を管理する。サーバ20は、イベントの実施エリア、配置されている発見対象物、制限時間等の各種情報、イベントに参加するユーザの性別、年齢、イベントへの参加回数等の各種情報、イベントの実施会場において配置されている発見対象物の各種情報、イベントに参加するユーザに対し提示されるヒントの各種情報、ユーザがイベントに参加することで記録される各種履歴の情報等を記憶する。 The server 20 manages information related to events and information related to users participating in the events. The server 20 stores various information such as the area where the event is held, the objects to be discovered, the time limit, etc., the gender and age of the users who participate in the event, the number of times they have participated in the event, and other information, and is located at the venue where the event is held. Various types of information on discovered objects, various types of information on hints presented to users participating in events, various types of history information recorded by users participating in events, and the like are stored.

通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。 The communication IF 22 is an interface for inputting and outputting signals for the server 20 to communicate with an external device. The input/output IF 23 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user. The memory 25 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory). The storage 26 is a storage device for storing data, such as a flash memory or HDD (Hard Disc Drive). The processor 29 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

発見対象物40は、イベントにおいてユーザが探索する対象となるオブジェクトである。発見対象物40は、イベントにおいて、ユーザが探索するエリア内に複数配置される。ユーザは、イベントにおいて、端末装置10を使用し、当該発見対象物40を撮影することで、当該イベントを進行させる。ある局面において、発見対象物40は、カメラ401を備えていてもよい。 The discovery target 40 is an object that the user searches for in the event. A plurality of discovery objects 40 are arranged in an area searched by the user in the event. At the event, the user uses the terminal device 10 to photograph the discovery object 40, thereby causing the event to proceed. In one aspect, discovery object 40 may include camera 401 .

カメラ401は、発見対象物40に備えられた、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ401は、例えば、カメラ401から撮影対象までの距離を検出できる深度カメラである。ある局面において、カメラ401は、発見対象物の視点から、イベントに参加しているユーザを撮影してもよい。ある局面において、カメラ401は、ユーザの視線や表情等のユーザの感情についての情報を検出する機能を備えていてもよい。例えば、サーバ20が、カメラ401が出力する撮影画像を取得して解析することにより、撮影画像におけるユーザの顔の領域に基づいて、ユーザの感情の種別(「驚き」など)を判別することとしてもよい。また、発見対象物40は、マイク等を備えており、発見対象物40が設置される周囲の音声を検知することとしてもよい。例えば、サーバ20が、発見対象物40のマイクで検知される音声に基づき、ユーザが発する音声を検出して、検出したユーザの音声に基づき、ユーザの感情を判別することとしてもよい。
以上のように、発見対象物40にセンシングの手段を設けることにより、発見対象物40の周囲のユーザの視線、表情、感情等を検知することとしてもよい。
The camera 401 is a device for receiving light with a light receiving element provided in the discovery target 40 and outputting it as a photographed image. The camera 401 is, for example, a depth camera that can detect the distance from the camera 401 to the subject. In one aspect, camera 401 may photograph users participating in an event from the perspective of a discovery target. In one aspect, the camera 401 may be capable of detecting information about the user's emotions, such as the user's gaze and facial expressions. For example, the server 20 acquires and analyzes the captured image output by the camera 401 to determine the user's emotion type (such as "surprise") based on the user's face area in the captured image. good too. Further, the discovery target 40 may be equipped with a microphone or the like to detect sounds around the discovery target 40 . For example, the server 20 may detect the voice uttered by the user based on the voice detected by the microphone of the discovery target 40, and determine the user's emotion based on the detected voice of the user.
As described above, by providing the discovery target 40 with sensing means, the line of sight, facial expression, emotion, etc. of the user around the discovery target 40 may be detected.

本実施形態において、各装置(端末装置、サーバ等)を情報処理装置として把握することもできる。すなわち、各装置の集合体を1つの「情報処理装置」として把握することができ、システム1を複数の装置の集合体として形成してもよい。1つ又は複数のハードウェアに対して本実施形態に係るシステム1を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又はシステム1に求められる仕様等に鑑みて適宜決定することができる。 In this embodiment, each device (terminal device, server, etc.) can also be grasped as an information processing device. In other words, a group of devices can be understood as one "information processing device", and the system 1 may be formed as a group of a plurality of devices. How to distribute a plurality of functions required to realize the system 1 according to this embodiment to one or more pieces of hardware is determined in consideration of the processing capability of each piece of hardware and/or the specifications required for the system 1. can be determined as appropriate.

<1.1 端末装置10の構成>
図2は、実施の形態1のシステム1を構成する端末装置10のブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131およびディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、モーションセンサ170と、記憶部180と、制御部190と、を含む。端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリ、バッテリから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
<1.1 Configuration of terminal device 10>
FIG. 2 is a block diagram of the terminal device 10 configuring the system 1 of the first embodiment. As shown in FIG. 2, the terminal device 10 includes a plurality of antennas (antenna 111, antenna 112), wireless communication units (first wireless communication unit 121, second wireless communication unit 122) corresponding to each antenna, and an operation unit. Reception unit 130 (including touch-sensitive device 131 and display 132), audio processing unit 140, microphone 141, speaker 142, position information sensor 150, camera 160, motion sensor 170, and storage unit 180 , and a control unit 190 . The terminal device 10 also has functions and configurations not particularly shown in FIG. 2 (for example, a battery for retaining power, a power supply circuit for controlling power supply from the battery to each circuit, etc.). As shown in FIG. 2, each block included in the terminal device 10 is electrically connected by a bus or the like.

アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。 The antenna 111 radiates a signal emitted by the terminal device 10 as radio waves. Antenna 111 also receives radio waves from space and provides a received signal to first wireless communication section 121 .

アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。 The antenna 112 radiates a signal emitted by the terminal device 10 as radio waves. Antenna 112 also receives radio waves from space and provides a received signal to second wireless communication section 122 .

第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調、および周波数変換を行い、受信信号を制御部190へ与える。 The first wireless communication unit 121 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 111 so that the terminal device 10 communicates with other wireless devices. The second wireless communication unit 122 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 112 so that the terminal device 10 communicates with other wireless devices. The first radio communication unit 121 and the second radio communication unit 122 are communication modules including a tuner, an RSSI (Received Signal Strength Indicator) calculation circuit, a CRC (Cyclic Redundancy Check) calculation circuit, a high frequency circuit, and the like. The first radio communication unit 121 and the second radio communication unit 122 perform modulation/demodulation and frequency conversion of radio signals transmitted/received by the terminal device 10 and provide received signals to the control unit 190 .

操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部190へ出力する。 The operation accepting unit 130 has a mechanism for accepting user input operations. Specifically, operation accepting unit 130 is configured as a touch screen and includes touch-sensitive device 131 and display 132 . The touch-sensitive device 131 receives input operations of the user of the terminal device 10 . The touch-sensitive device 131 detects the user's touch position on the touch panel by using, for example, a capacitive touch panel. The touch-sensitive device 131 outputs a signal indicating the user's touch position detected by the touch panel to the control unit 190 as an input operation.

ディスプレイ132は、制御部190の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイによって実現される。 The display 132 displays data such as images, moving images, and text under the control of the control unit 190 . The display 132 is implemented by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。 The audio processing unit 140 modulates and demodulates an audio signal. Audio processing section 140 modulates the signal supplied from microphone 141 and supplies the modulated signal to control section 190 . Also, the audio processing unit 140 provides an audio signal to the speaker 142 . The audio processing unit 140 is implemented by, for example, a processor for audio processing. Microphone 141 receives a voice input and provides voice signal corresponding to the voice input to voice processing section 140 . The speaker 142 converts the audio signal provided from the audio processing unit 140 into audio and outputs the audio to the outside of the terminal device 10 .

位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。例えば、システム1において、ユーザの位置情報を参照可能にしている場合、ユーザの近くにある発見対象物の配置場所に関するヒントをユーザに提示することができる。また、位置情報センサ150は、情報機器間の近距離通信システムで用いられる通信規格に基づく送受信装置であるとしてもよい。具体的には、位置情報センサ150は、Bluetooth(登録商標)モジュールなど2.4GHz帯を使用して、Bluetooth(登録商標)モジュールを搭載した他の情報機器からのビーコン信号を受信する。 The position information sensor 150 is a sensor that detects the position of the terminal device 10, and is, for example, a GPS (Global Positioning System) module. A GPS module is a receiving device used in a satellite positioning system. The satellite positioning system receives signals from at least three or four satellites, and detects the current position of the terminal device 10 equipped with a GPS module based on the received signals. For example, in the system 1, if the user's location information can be referenced, it is possible to present the user with hints regarding the locations of discovery objects near the user. Also, the position information sensor 150 may be a transmitting/receiving device based on a communication standard used in a short-range communication system between information devices. Specifically, the position information sensor 150 uses the 2.4 GHz band such as a Bluetooth (registered trademark) module to receive beacon signals from other information equipment equipped with a Bluetooth (registered trademark) module.

カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。 The camera 160 is a device for receiving light with a light receiving element and outputting it as a photographed image. The camera 160 is, for example, a depth camera that can detect the distance from the camera 160 to the subject.

モーションセンサ170は、ジャイロセンサ、加速度センサ等により構成され、端末装置10の傾きを検出する。 The motion sensor 170 is composed of a gyro sensor, an acceleration sensor, etc., and detects the tilt of the terminal device 10 .

記憶部180は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータおよびプログラムを記憶する。ある局面において、記憶部180は、ユーザ情報181を記憶する。 The storage unit 180 is configured by, for example, a flash memory or the like, and stores data and programs used by the terminal device 10 . In one aspect, storage unit 180 stores user information 181 .

ユーザ情報181は、ユーザの年齢、性別、イベントにおけるユーザID、イベントへの参加回数等の情報である。イベントへの参加において、イベントの主催者は、当該情報に基づいて、ユーザに対しイベントへの参加権を付与してもよい。また、イベント参加当日に、イベントを実施する会場において、会場に設置してある端末装置によりユーザの情報を登録することで、イベントへの参加権を付与することとしてもよい。なお、当該情報の登録自体は必須ではなく、ユーザが当該情報の登録を省略した場合でもイベントへの参加権を付与することとしてもよい。 The user information 181 is information such as the user's age, sex, user ID in the event, number of times of participation in the event, and the like. In participating in the event, the organizer of the event may give the user the right to participate in the event based on the information. Also, on the day of event participation, the right to participate in the event may be granted by registering user information using a terminal device installed at the venue where the event is held. Note that the registration of the information itself is not essential, and the right to participate in the event may be granted even if the user omits the registration of the information.

制御部190は、記憶部180に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部190は、例えばアプリケーションプロセッサである。制御部190は、プログラムに従って動作することにより、入力操作受付部191と、送受信部192と、データ処理部193と、報知制御部194としての機能を発揮する。 The control unit 190 controls the operation of the terminal device 10 by reading programs stored in the storage unit 180 and executing instructions included in the programs. The control unit 190 is, for example, an application processor. The control unit 190 functions as an input operation reception unit 191, a transmission/reception unit 192, a data processing unit 193, and a notification control unit 194 by operating according to a program.

入力操作受付部191は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部191は、タッチ・センシティブ・デバイス131に対してユーザが指などを接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。 The input operation reception unit 191 performs processing for receiving a user's input operation to the input device such as the touch sensitive device 131 . The input operation reception unit 191 determines whether the user's operation is a flick operation, a tap operation, or a drag (swipe) operation based on information on coordinates at which the user touches the touch-sensitive device 131 with a finger or the like. The type of operation, such as whether it is an operation or not, is determined.

送受信部192は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。 The transmission/reception unit 192 performs processing for the terminal device 10 to transmit/receive data to/from an external device such as the server 20 according to a communication protocol.

データ処理部193は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。 The data processing unit 193 performs processing according to a program to perform computation on data input by the terminal device 10, and outputs the computation result to a memory or the like.

データ処理部193は、ユーザから、他のユーザがイベントの課題に取り組む様子を撮影した画像の情報、発見対象物の承認のための入力情報等の取得を受け付ける。データ処理部193は、例えば、カメラ160等により、他のユーザがイベントの課題に取り組む様子を撮影することにより、当該画像の情報を取得する。また、データ処理部193は、例えば、カメラ160等により、発見対象物の画像を端末装置10のディスプレイ132等に表示した状態で、ユーザからの承認のための入力操作を受け付ける。 The data processing unit 193 receives, from the user, acquisition of information such as information of an image of another user working on an event task, input information for approval of a discovery target, and the like. The data processing unit 193 acquires the information of the image by, for example, using the camera 160 or the like to photograph another user working on the task of the event. Further, the data processing unit 193 receives an input operation for approval from the user while the image of the discovery target is displayed on the display 132 or the like of the terminal device 10 by the camera 160 or the like, for example.

報知制御部194は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理を行う。 The notification control unit 194 performs processing for displaying a display image on the display 132 , processing for outputting sound to the speaker 142 , and processing for causing the camera 160 to vibrate.

<1.2 サーバ20の機能的な構成>
図3は、サーバ20の機能的な構成を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<1.2 Functional Configuration of Server 20>
FIG. 3 is a diagram showing a functional configuration of the server 20. As shown in FIG. As shown in FIG. 3 , the server 20 functions as a communication section 201 , a storage section 202 and a control section 203 .

通信部201は、サーバ20が外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the server 20 to communicate with an external device.

記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、イベント情報データベース281と、参加者情報データベース282と、対象物情報データベース283と、ヒント情報データベース284と、イベント履歴データベース285等を記憶する。 The storage unit 202 stores data and programs used by the server 20 . The storage unit 202 stores an event information database 281, a participant information database 282, an object information database 283, a hint information database 284, an event history database 285, and the like.

イベント情報データベース281は、イベントの各種情報を保持するためのデータベースである。詳細は後述する。 The event information database 281 is a database for holding various information on events. Details will be described later.

参加者情報データベース282は、イベントに参加するユーザの各種情報を保持するためのデータベースである。詳細は後述する。 The participant information database 282 is a database for holding various information about users participating in the event. Details will be described later.

対象物情報データベース283は、イベントにおいて、特定の場所に配置されており、ユーザが探索する対象となる対象物の各種情報を保持するためのデータベースである。詳細は後述する。 The target object information database 283 is a database that is arranged at a specific location in the event and holds various information on target objects that are searched by the user. Details will be described later.

ヒント情報データベース284は、イベントにおいて、ユーザに提示される発見対象物の配置されている場所に関するヒントに関する各種情報を保持するためのデータベースである。詳細は後述する。 The hint information database 284 is a database for holding various kinds of information regarding hints regarding the location of the discovery target presented to the user at the event. Details will be described later.

イベント履歴データベース285は、イベントに参加したユーザの各種行動の履歴を保持するためのデータベースである。詳細は後述する。 The event history database 285 is a database for holding histories of various actions of users who have participated in events. Details will be described later.

受信制御モジュール2041は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。 The reception control module 2041 controls processing for the server 20 to receive a signal from an external device according to a communication protocol.

送信制御モジュール2042は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。 The transmission control module 2042 controls the processing by which the server 20 transmits signals to external devices according to the communication protocol.

イベント情報取得モジュール2043は、ユーザが参加しようとしているイベントに関する各種情報を取得する。 The event information acquisition module 2043 acquires various types of information about the event that the user is going to participate in.

参加者情報取得モジュール2044は、イベントに参加しようとしているユーザの各種情報を取得する。 The participant information acquisition module 2044 acquires various types of information about users who are going to participate in the event.

対象物情報取得モジュール2045は、ユーザが参加しようとしているイベントにおいて配置される発見対象物の情報を取得する。 The object information acquisition module 2045 acquires information of discovered objects that are placed in the event that the user intends to participate in.

ヒント情報取得モジュール2046は、ユーザが参加しようとしているイベントにおいて配置される発見対象物の配置場所に関するヒントの情報を取得する。 The hint information acquisition module 2046 acquires information of hints regarding the placement locations of discovery objects that will be placed in the event that the user intends to participate in.

対象物表示モジュール2047は、ユーザがイベントにおいて、発見対象物をカメラ160等により撮影した時に、当該発見対象物に関する情報、例えば、名称、見つけやすさ(レアリティ)、見つけることによるユーザへの特典等の情報を取得する。これにより、ユーザは、自身が発見した発見対象物の情報を、発見時に確認することができるため、よりイベントに参加する興趣性を向上させることができる。 The target object display module 2047 displays information about the discovery target, such as the name, ease of finding (rarity), benefits to the user by finding it, etc., when the user photographs the discovery target with the camera 160 or the like at an event. Get information about As a result, the user can confirm the information of the discovered object that he/she has discovered at the time of discovery, so that the interest in participating in the event can be improved.

ヒント提示モジュール2048は、ユーザがイベントにおいて、発見対象物を探索しているときに、発見対象物が配置されている場所に関するヒントに関する情報をユーザに提示する。このとき、ヒント提示モジュール2048は、以下の条件を満たす場合に、ユーザにヒントを提示してもよい。
・ 端末装置10Aの位置情報センサ150から取得した、ユーザの位置情報と、発見対象物が配置されている位置情報とに基づいて、発見対象物の位置を基準とした特定の範囲内にユーザがいると判定されたとき。例えば、ユーザの位置と、発見対象物の位置とが一定距離内にある場合。
・ 端末装置10Aのカメラ160が撮影をしている位置および方向と、当該撮影の範囲に発見対象物の位置との位置関係が一定の条件を満たすとき。例えば、端末装置10は、端末装置10の加速度センサ、方位センサ等により、発見対象物を探索する地理範囲内におけるユーザの位置と、ユーザがカメラを向けている方向とを取得しうる。また、端末装置10がLiDAR(Light Detection and Ranging)センサを有し光学的に周囲の物体との距離を計測することで周囲の地形を検出可能な場合には、ユーザが端末装置10のLiDARセンサのレーザー光の射出方向を周囲の地形に向けることで3Dモデルを生成することができる。これにより、端末装置10は、探索を行う地理範囲におけるユーザの位置(端末装置10の位置)とカメラ160が撮影している方向を特定することができる。
例えば、上記の一定の条件を満たすときとして、以下が含まれる。
(1)カメラ160の撮影の範囲に、発見対象物の位置が含まれている
(2)カメラ160の撮影の範囲には含まれていないが、当該撮影の範囲を所定角度変更することで、撮影の範囲に発見対象物が含まれうる
これにより、ユーザは、自分の近くに発見対象物が配置されていると認識することができ、より注意深く、周囲を探索する緊張感等を味わうことができる。
The hint presentation module 2048 presents information to the user regarding hints regarding where the discovery objects are located when the user is searching for the discovery objects at the event. At this time, the hint presentation module 2048 may present a hint to the user if the following conditions are met.
- Based on the position information of the user acquired from the position information sensor 150 of the terminal device 10A and the position information where the discovery target is arranged, the user is within a specific range based on the position of the discovery target. when it is determined that there is For example, when the user's position and the position of the discovery object are within a certain distance.
- When the positional relationship between the position and direction in which the camera 160 of the terminal device 10A is shooting and the position of the discovery target within the shooting range satisfies a certain condition. For example, the terminal device 10 can acquire the user's position within a geographic range in which to search for a discovery target and the direction in which the user is pointing the camera, using an acceleration sensor, an orientation sensor, or the like of the terminal device 10 . In addition, when the terminal device 10 has a LiDAR (Light Detection and Ranging) sensor and can detect the surrounding terrain by optically measuring the distance to surrounding objects, the user can detect the LiDAR sensor of the terminal device 10 A 3D model can be generated by directing the direction of laser light emission to the surrounding terrain. As a result, the terminal device 10 can identify the user's position (the position of the terminal device 10) and the direction in which the camera 160 is shooting in the geographic range to be searched.
For example, when certain conditions above are met include:
(1) The position of the discovery target is included in the imaging range of the camera 160. (2) Although it is not included in the imaging range of the camera 160, by changing the imaging range by a predetermined angle, The object to be found can be included in the shooting range. This allows the user to recognize that the object to be found is located near him/herself, and to feel the tension of searching the surroundings more carefully. can.

承認受付モジュール2049は、ユーザから、イベントにおいて発見した発見対象物の承認のための入力操作を受け付ける。具体的には、承認受付モジュール2049は、ユーザが所有する端末装置10のカメラ160等によって撮影された、発見対象物の画像を受け付ける。このとき、承認受付モジュール2049は、当該画像を解析し、当該画像に発見対象物が含まれている場合に、当該ユーザは発見対象物を発見したと判定する。これにより、ユーザは、現実の世界のイベントにおいて、現実の世界に実際に配置されている発見対象物を、端末装置10のカメラ160等により撮影することで、イベントにおいて発見対象物を発見した承認を受けることができる。また、このとき、承認受付モジュール2049は、端末装置10の位置情報センサ150から取得したユーザの位置情報と組み合わせて承認を行ってもよい。そのため、イベントの主催者は、例えば、事前に準備したぬいぐるみなどを作成することによる不正な承認を防ぐことができる。 The approval reception module 2049 receives from the user an input operation for approval of the discovery target found in the event. Specifically, the approval receiving module 2049 receives an image of the discovery target captured by the camera 160 or the like of the terminal device 10 owned by the user. At this time, the approval reception module 2049 analyzes the image, and determines that the user has discovered the discovery target if the image contains the discovery target. As a result, the user can confirm that he/she has discovered the discovery target at the event by photographing the discovery target actually arranged in the real world with the camera 160 or the like of the terminal device 10 at the event in the real world. can receive Also, at this time, the approval reception module 2049 may perform approval in combination with the user's location information acquired from the location information sensor 150 of the terminal device 10 . Therefore, the organizer of the event can prevent unauthorized approval by creating stuffed animals prepared in advance, for example.

<2 データ構造>
図4および図5は、サーバ20が記憶するイベント情報データベース281、参加者情報データベース282、対象物情報データベース283、ヒント情報データベース284、イベント履歴データベース285のデータ構造を示す図である。
<2 Data structure>
4 and 5 are diagrams showing the data structures of the event information database 281, the participant information database 282, the object information database 283, the hint information database 284, and the event history database 285 stored by the server 20. FIG.

図4に示すように、イベント情報データベース281は、項目「イベントID」と、項目「実施エリア」と、項目「登場対象物」と、項目「推奨参加人数」と、項目「制限時間」と、項目「ヒント情報」と、項目「面積」と、項目「備考」等を含む。 As shown in FIG. 4, the event information database 281 includes an item "event ID", an item "implementation area", an item "appearing object", an item "recommended number of participants", an item "time limit", It includes the item "hint information", the item "area", the item "remarks", and the like.

項目「イベントID」は、イベントそれぞれを識別する情報である。 The item "event ID" is information for identifying each event.

項目「実施エリア」は、イベントが実施されるエリアを示す情報である。例えば、イベントID「I001」は、実施エリアが「A」、「B」、「C」等の複数のエリアであることを示す。 The item "implementation area" is information indicating the area where the event is implemented. For example, event ID "I001" indicates that the implementation area is a plurality of areas such as "A", "B", and "C".

項目「登場対象物」は、イベントにおいて、各エリアに登場する発見対象物それぞれの識別情報を示す情報である。例えば、イベントID「I001」において、実施エリア「A」では、登場対象物は「P001、P002、・・・」等であることを示す。発見対象物は、例えば、漫画、アニメーション、小説、ゲーム等の原作があるコンテンツに登場するキャラクターをモチーフとして、以下のように構成されている。
・ 当該キャラクターそのものを再現またはデフォルメした物体(ぬいぐるみなど)
・ 当該キャラクターの特徴を表す現実の物体
(1)例えば、キャラクターが氷の属性や炎の属性など、温度に関連する属性を有するものであれば、氷または炎等を連想させる低温または暖かい温度の物体、または、氷または炎の質感の物体
(2)例えば、キャラクターが磁力の属性を有するものであれば、磁力を連想させる物体(磁性を有する物体など)。
(3)例えば、キャラクターが電気の属性を有するものであれば、電気を連想させる物体(発光する物体など)
・ 当該キャラクターを建物などの人工物に描いた絵(例えば、壁に描かれたキャラクターの絵)
・ 当該キャラクターが登場する映像(例えば、壁、植物、噴水等に投影されるキャラクターの映像)
・ 当該キャラクターを印字した自然物(例えば、木々の葉にキャラクターを印字したもの)
・ 当該キャラクターを表現した音声(例えば、キャラクターに特有の鳴き声、キャラクターが移動する様子を足音として再現した音声)
The item "appearing object" is information indicating the identification information of each discoverable object appearing in each area in the event. For example, in the event ID "I001", it is indicated that the appearance objects are "P001, P002, . . . " and the like in the execution area "A". The object to be discovered is configured as follows, with characters appearing in original contents such as comics, animations, novels, and games as motifs.
・ Objects that reproduce or deform the character itself (stuffed animals, etc.)
・ Real objects that represent the characteristics of the character (1) For example, if the character has an attribute related to temperature, such as the attribute of ice or fire, a low or warm temperature reminiscent of ice or fire Object, or object with texture of ice or fire (2) For example, if the character has the attribute of magnetism, an object suggestive of magnetism (an object having magnetism, etc.).
(3) For example, if the character has an attribute of electricity, an object that is associated with electricity (an object that emits light, etc.)
・ A drawing of the character on an artificial object such as a building (for example, a picture of the character on the wall)
・ A video in which the character appears (for example, a video of the character projected on a wall, plant, fountain, etc.)
・Natural objects with characters printed on them (for example, characters printed on leaves of trees)
・ Sound that expresses the character (for example, the character's unique cries, the sound of footsteps that reproduces the character's movement)

項目「推奨参加人数」は、イベントにおける、各エリアでの推奨参加人数に関する情報を示す。例えば、イベントID「I001」において、実施エリア「A」では、推奨参加人数は「6」であることを示す。推奨参加人数は、各エリアを探索する時間、各エリアの探索範囲の広さ等に基づいて、イベントを運営する事業者により設定される。サーバ20は、各エリアの探索の制限時間を変更することに応答して、各エリアの推奨参加人数を変更することとしてもよい。 The item "recommended number of participants" indicates information on the recommended number of participants in each area of the event. For example, in the event ID "I001", the recommended number of participants in the implementation area "A" is "6". The recommended number of participants is set by the operator of the event based on the time to search each area, the size of the search range of each area, and the like. The server 20 may change the recommended number of participants in each area in response to changing the search time limit for each area.

項目「制限時間」は、イベントにおける、各エリアでの探索を行うことができる制限時間に関する情報を示す。例えば、イベントID「I001」において、実施エリア「A」での制限時間は「10分」であることを示す。 The item "time limit" indicates information about the time limit for searching each area in the event. For example, for the event ID "I001", it indicates that the time limit in the implementation area "A" is "10 minutes".

項目「ヒント情報」は、イベントにおける、各エリアでユーザに提示されるヒントそれぞれの識別情報を示す情報である。例えば、イベントID「I001」において、実施エリア「A」でのヒント情報は「H001、H002、・・・」であることを示す。 The item "hint information" is information indicating identification information of each hint presented to the user in each area in the event. For example, for the event ID "I001", it indicates that the hint information in the implementation area "A" is "H001, H002, ...".

項目「面積」は、イベントにおける、各エリアの面積に関する情報である。例えば、イベントID「I001」において、実施エリア「A」の面積は「BBm2」であることを示す。各エリアの面積は、イベントを運営する事業者により設定される。サーバ20は、各エリアの面積の情報を、事業者からの指定により変更する。例えば、あるエリアについて拡張または縮小する場合(探索可能な範囲を拡張または縮小する場合)、サーバ20は、拡張または縮小したエリアでのイベントの参加を受け付ける日時の設定を受け付けて、当該日時が到来することに応答して、各エリアの面積の情報を更新する。例えば、イベントで探索をするエリアの拡張工事をすることでエリアが拡張されることがある。また、メンテナンス等のためにエリアを縮小すること、トラブル発生によりエリアの利用を禁止することもあり得る。 The item "area" is information about the area of each area in the event. For example, in the event ID "I001", it indicates that the area of the implementation area "A" is "BBm2". The area of each area is set by the operator who manages the event. The server 20 changes the area information of each area according to the designation from the operator. For example, when expanding or contracting a certain area (expanding or contracting the searchable range), the server 20 accepts the setting of the date and time for accepting event participation in the expanded or contracted area, and the date and time arrives. update the area information for each area in response to doing so. For example, the area may be expanded by doing expansion work on the area to be explored in the event. In addition, the area may be reduced for maintenance or the like, or the use of the area may be prohibited due to trouble.

項目「備考」は、イベントにおいて、特記事項等がある場合に保持される情報である。特記事項としては、例えば以下がある。
・ イベントが日時を指定された期間限定であること(例えば、夏休み期間に限定されたイベント)
・ イベントが時間帯を指定された期間限定であること(例えば、日没後の時間帯で開催されるイベント)
・ イベントに参加するためにユーザが一定の要件を満たす必要があること
(1)例えば、一定の要件としてユーザの年齢層が一定の条件を満たすこと。例えば、一定年齢層以下のユーザを中心とし、保護者を含めたチームで参加すること等
(2)例えば、一定の要件としてユーザの現実世界または仮想的な世界で拠点とする地域が一定の条件を満たすこと。例えば、ゲームにおいて、ある地方を拠点とするユーザを対象として提供されるイベント等があり得る。
(3)例えば、一定の要件としてユーザがイベントに参加した実績が一定の条件を満たすこと。例えば、イベントの課題を達成した実績が一定以上あるユーザに対して提供されるイベントがあり得る。
・ イベントに参加できる回数に条件があること(例えば、イベントに一定回数まで繰り返し参加できる等)
例えば、イベントID「I002」における備考は、「17時以降限定イベント」であることを示す。
The item "remarks" is information held when there are special notes or the like in the event. Examples of special notes include:
・ The event is for a limited period with a specified date and time (for example, an event limited to the summer vacation period)
・ The event is limited to a specified time period (for example, an event held after sunset)
- The user must meet certain requirements in order to participate in the event (1) For example, the user's age group must meet certain conditions as a certain requirement. (2) For example, as a certain requirement, the area where the user is based in the real world or virtual world is a certain condition. to meet For example, in a game, there may be an event or the like provided for users based in a certain region.
(3) For example, as a certain requirement, the user's record of participating in an event satisfies a certain condition. For example, there may be an event that is provided to a user who has a certain or more record of accomplishing the task of the event.
・ There are conditions on the number of times you can participate in the event (for example, you can participate in the event repeatedly up to a certain number of times)
For example, the remarks in the event ID "I002" indicate "limited event after 17:00".

上記の各種情報に基づいて、イベントの主催者は、ユーザにイベントの開催概要などを通知してもよい。これにより、イベントへの参加を希望するユーザは、開催する時間帯、発見できる発見対象物の情報などの情報を把握することができ、自身の好きな発見対象物が発見できるイベントを選択して参加することができる。そのため、ユーザがイベントに参加するモチベーションのさらなる向上が期待できる。 Based on the various types of information described above, the organizer of the event may notify the user of an overview of the event. As a result, a user who wishes to participate in an event can grasp information such as the time zone of the event and information on discoverable objects to be discovered, and can select an event in which he/she can discover his or her favorite discoverable objects. can participate. Therefore, it can be expected that the user will be more motivated to participate in the event.

参加者情報データベース282は、項目「参加日時」と、項目「参加グループ」と、項目「参加者ID」と、項目「性別」と、項目「年齢」と、項目「役割」と、項目「サポート対象」と、項目「参加ステータス」と、項目「備考」等を含む。本発明において開示される現実の世界におけるイベントにおいて、ユーザは、複数人が集まったグループで構成され、グループごとに各イベントに参加する。当該データベースは、イベントに参加したグループを構成する各ユーザの情報を保持している。 The participant information database 282 includes an item “participation date and time”, an item “participating group”, an item “participant ID”, an item “gender”, an item “age”, an item “role”, an item “support object", the item "participation status", the item "remarks", and the like. In the event in the real world disclosed in the present invention, users are organized into groups, and participate in each event in groups. The database holds information on each user who constitutes a group who has participated in the event.

項目「参加日時」は、複数のユーザにより構成されたグループがイベントに参加した日時に関する情報を示す。例えば、後述する参加グループ「A」で識別されるグループは、参加日時「2020/02/10 10;30:00」においてイベントに参加したことを示す。ある局面において、当該項目は時間帯単位ではなく、「2020/02/10」など、日時単位で保持されていてもよい。 The item "participation date and time" indicates information about the date and time when a group composed of a plurality of users participated in the event. For example, a group identified as a participation group "A", which will be described later, has participated in the event at the participation date and time "2020/02/10 10;30:00". In a certain aspect, the items may be held in units of date and time such as “02/10/2020” instead of in units of time zones.

項目「参加グループ」は、各参加日時においてイベントに参加したグループを識別する情報を示す。 The item "participating group" indicates information identifying the group that participated in the event at each participating date and time.

項目「参加者ID」は、イベントに参加したグループを構成する複数のユーザを識別する情報を示す。例えば、参加グループ「A」を構成するユーザは「U001」、「U002」等であることを示す。 The item "participant ID" indicates information identifying a plurality of users forming a group that participated in the event. For example, it indicates that the users constituting the participating group "A" are "U001", "U002", and the like.

項目「性別」は、参加者IDに紐づけられた、各ユーザの性別を識別する情報を示す。例えば、参加グループ「A」におけるユーザID「U001」の性別は「男」であることを示す。 The item “sex” indicates information for identifying the sex of each user, which is linked to the participant ID. For example, it indicates that the gender of user ID "U001" in participating group "A" is "male".

項目「年齢」は、参加者IDに紐づけられた、各ユーザの年齢を識別する情報を示す。例えば、参加グループ「A」におけるユーザID「U001」の年齢は「12」であることを示す。 The item "age" indicates information for identifying the age of each user, which is linked to the participant ID. For example, it indicates that the age of user ID "U001" in participating group "A" is "12".

項目「役割」は、参加者IDに紐づけられた、各ユーザがイベントで担当する役割を識別する情報を示す。例えば、参加グループ「A」におけるユーザID「U001」の役割は「探索」であることを示す。本発明において開示される現実の世界におけるイベントにおいて、各ユーザは役割に応じた行動をするよう促される。例えば、役割「探索」のユーザは、各エリアに配置されている発見対象物を探索する役割を担い、役割「サポート」のユーザは、役割「探索」のユーザに対し、ユーザの端末に表示されるヒントの情報を提示する、等の行動をするよう促される。各ユーザの役割はイベント中で固定することとしてもよいし、イベント中に各ユーザの役割を入れ替えることとしてもよい。
上記の参加者情報データベース282の例では、参加者IDに関連付けられるユーザと、当該ユーザがイベントで担当する役割とが関連付けられている。これに限らず、当該役割と、参加者IDとが紐づかない場合もあり得る。例えば、イベントでユーザが利用する端末の情報(または、端末で動作するアプリケーションを利用する際にサーバ20等により発行される識別番号など)と、当該役割とを関連付けて、サーバ20において管理することとしてもよい。例えば、以下のような状況があり得る。
・ イベントを運営する事業者が、イベントに参加する複数のユーザからなるグループごとに、1または複数の端末を貸し出す。端末そのものには参加者IDを関連付けずにイベントを進行させる。当該端末それぞれで、「探索」、「サポート」等の役割が定められている。この場合、グループを構成するユーザ間で、定められた役割が異なる端末を交換することで、ユーザの役割も入れ替えることができる。
・ 上記のように端末ごとに役割が定められている場合において、複数の役割に対応する各端末を利用してグループでイベントに参加する場合、ユーザから、端末の役割をグループ内で入れ替える操作を受け付けることとしてもよい。これにより、グループ内でユーザが端末を交換せずとも、ユーザの役割を入れ替えることができる。
・ 上記のように、グループ内でユーザが端末を交換せずとも、ユーザの役割を入れ替える場合、ユーザからの操作によらず、イベントにおいて所定の条件を満たすことにより、グループ内でユーザが担当する「探索」、「サポート」の役割を入れ替えるため、端末の役割を入れ替えることとしてもよい。所定の条件としては、例えば以下を含みうる。
(i)イベントを開始してから一定時間が経過した、エリアの探索を開始してから一定時間が経過した等の時間的条件
(ii)イベントにおいてユーザが発見対象物を発見することに成功した(発見対象物を発見したことを報告する操作を受け付けた)、または、失敗した(役割「探索」のユーザが、エリアの探索期間内に発見対象物を発見できなかった)等の、イベントの目的(発見対象物を発見すること)に応じた条件
The item "role" indicates information for identifying the role each user takes charge of in the event, which is linked to the participant ID. For example, it indicates that the role of user ID "U001" in participating group "A" is "search". During the real-world events disclosed in the present invention, each user is prompted to act according to their role. For example, a user with the role of “search” takes on the role of searching for discovery objects placed in each area, and a user with the role of “support” is displayed on the user terminal for the user with the role of “search”. The user is prompted to take actions such as presenting hint information that can be used. The role of each user may be fixed during the event, or the role of each user may be changed during the event.
In the above example of the participant information database 282, the user associated with the participant ID is associated with the role that the user takes charge of in the event. Not limited to this, there may be a case where the role and the participant ID are not linked. For example, information on the terminal used by the user at the event (or an identification number issued by the server 20 or the like when using an application running on the terminal) is associated with the role and managed by the server 20. may be For example, the following situations are possible.
- A company managing an event rents out one or more terminals for each group of users who participate in the event. The event proceeds without associating the participant ID with the terminal itself. Roles such as "search" and "support" are defined for each terminal. In this case, the roles of the users can be exchanged by exchanging terminals with different defined roles among the users forming the group.
・ When the roles are defined for each terminal as described above, when participating in a group event using terminals that correspond to multiple roles, the user must perform an operation to switch the terminal roles within the group. It may be accepted. As a result, the roles of users can be switched without exchanging terminals within the group.
・ As described above, when the roles of users are exchanged without exchanging terminals within the group, the users can take charge within the group by satisfying a predetermined condition in the event without depending on the user's operation. In order to switch the roles of "search" and "support", the roles of the terminals may be switched. Predetermined conditions may include, for example, the following.
(i) Temporal conditions such as when a certain amount of time has passed since the start of the event, or when a certain amount of time has passed since the start of searching the area, etc. (ii) The user has successfully found a discovery target in the event. (Accepting an operation to report that a discovery target has been found) or failure (a user with the role “search” was unable to find a discovery target within the area search period) Conditions according to the purpose (discovering the object to be found)

これにより、例えば、親子でイベントに参加した場合でも、子どもが探索に熱中する中、親は外で待機するのではなく、子どもに対しヒントを提示するなど、一緒にイベントを進行させる体験をすることができる。そのため、親子の思い出作りに寄与するだけでなく、また親子で参加するなど、リピートして参加したくなる効果も発揮し得る。 As a result, for example, even when a parent and child participate in an event, the parent will not wait outside while the child is enthusiastic about exploring, but rather give the child hints and experience the event progressing together. be able to. Therefore, it not only contributes to the creation of memories for parents and children, but also has the effect of making people want to participate repeatedly, such as participation by parents and children.

項目「サポート対象」は、イベントにおいて、役割が「サポート」であるユーザがサポートする対象を示す。役割が「サポート」であるユーザがサポートする対象としては、以下が含まれる。
・ 役割が「探索」である特定のユーザ
・ ユーザが参加するグループ
例えば、役割が「サポート」である参加者ID「U002」のサポート対象は「U001」であることを示す。
The item "support target" indicates the target supported by the user whose role is "support" in the event. The following items are supported by users whose role is "support".
- A specific user whose role is "search" - A group in which the user participates For example, it indicates that the support target of the participant ID "U002" whose role is "support" is "U001".

項目「参加ステータス」は、各グループにおいて、各ユーザがイベントに参加した際の詳細情報を示す。例えば、参加者ID「U001」は、イベントID「I001」において、実施エリア「A」に「2回」挑戦したことを示す。ある局面において、イベントの主催者は、当該情報を参照して、ユーザに特定の特典、例えば、挑戦回数に応じたステッカー等の物品、を与えてもよい。 The item "participation status" indicates detailed information when each user participates in the event in each group. For example, the participant ID "U001" indicates that the event ID "I001" challenged the performance area "A" "twice". In one aspect, the organizer of the event may refer to the information and give the user a specific privilege, for example, an item such as a sticker according to the number of challenges.

これにより、ユーザは、同じエリアにおけるイベントにおいても、何度も挑戦する楽しみを享受することができる。そのため、イベント参加へのリピートの促進が期待される。 As a result, the user can enjoy the enjoyment of repeatedly challenging events in the same area. Therefore, it is expected that the repeat participation in the event will be promoted.

項目「備考」は、イベントにおいて、ユーザに特記事項等がある場合に保持される情報である。 The item "remarks" is information that is held when the user has special remarks or the like in the event.

図5に示すように、対象物情報データベース283は、項目「エリアID」と、項目「対象物ID」と、項目「対象物名」と、項目「出現位置」と、項目「探索時間」と、項目「備考」等を含む。 As shown in FIG. 5, the object information database 283 includes an item "area ID", an item "object ID", an item "object name", an item "appearance position", and an item "search time". , items such as "remarks".

項目「エリアID」は、イベントにおいて、ユーザが探索するエリアそれぞれを識別する情報を示す。 The item "area ID" indicates information for identifying each area searched by the user in the event.

項目「対象物ID」は、各エリアにおいて、配置されている発見対象物それぞれを識別する情報を示す。例えば、エリアID「A」に配置されている対象物は「P001」、「P002」等で識別される発見対象物であることを示す。 The item "object ID" indicates information for identifying each discovery object arranged in each area. For example, an object placed in area ID "A" is a discovery object identified by "P001", "P002", and the like.

項目「対象物名」は、各対象物IDで識別される発見対象物の名称に関する情報を示す。例えば、探勝物ID「P001」の対象物名は「ピカチュウ」であることを示す。 The item "object name" indicates information on the name of the discovery object identified by each object ID. For example, it indicates that the target object name of the sightseeing object ID "P001" is "Pikachu".

項目「出現位置」は、イベントにおいて、各エリアで発見対象物が配置されている場所の位置情報を示す。例えば、エリアID「A」において、発見対象物「P001」の出現位置は「AAA.AAA.AAA」の座標であることを示す。ある局面において、サーバ20は、ユーザの端末装置10の位置情報センサ150から取得したユーザの位置情報と、当該出現位置の情報とに基づいて、ユーザに発見対象物の配置場所に関するヒントを提示するためのトリガとしてもよい。 The item "occurrence position" indicates the position information of the place where the discovery target is arranged in each area in the event. For example, in the area ID "A", the appearance position of the discovery object "P001" indicates that the coordinates are "AAA.AAA.AAA". In one aspect, the server 20 presents the user with a hint regarding the arrangement location of the discovery target based on the user's location information acquired from the location information sensor 150 of the user's terminal device 10 and the information on the appearance location. It may be used as a trigger for

項目「探索時間」は、イベントにおいて、ユーザが発見対象物を探索することが可能な時間を示す。例えば、エリアID「A」における探索時間は「10分」であることを示す。 The item "search time" indicates the time during which the user can search for the discovery object in the event. For example, it indicates that the search time in area ID "A" is "10 minutes".

項目「備考」は、イベントにおいて、エリアに特記事項等がある場合に保持される情報である。 The item "remarks" is information held when there are special notes or the like in the area of the event.

ヒント情報データベース284は、項目「エリアID」と、項目「ヒントID」と、項目「対応対象物」と、項目「ヒント内容」と、項目「ヒント表示位置」と、項目「ヒント出現時間」と、項目「備考」等を含む。 The hint information database 284 includes an item "area ID", an item "hint ID", an item "corresponding object", an item "hint content", an item "hint display position", and an item "hint appearance time". , items such as "remarks".

項目「エリアID」は、イベントにおいて、ユーザが探索するエリアそれぞれを識別する情報を示す。 The item "area ID" indicates information for identifying each area searched by the user in the event.

項目「ヒントID」は、各エリアにおいて、ユーザに提示されるヒントそれぞれを識別する情報を示す。例えば、エリアID「A」においてユーザに提示されるヒントは「H001」、「H002」等で識別されるヒントであることを示す。 The item "hint ID" indicates information identifying each hint presented to the user in each area. For example, hints presented to the user in area ID "A" are hints identified by "H001", "H002", and the like.

項目「対応対象物」は、ヒントそれぞれが対応する発見対象物に関する情報を示す。例えば、ヒントID「H001」が対応する発見対象物は「P001」であることを示す。 The item "corresponding object" indicates information about the found object to which each hint corresponds. For example, it indicates that the discovery object corresponding to the hint ID "H001" is "P001".

項目「ヒント内容」は、ヒントそれぞれがユーザに提示するヒントの内容を示す。
ユーザに提示されるヒントとしては、以下が含まれる。
・ 発見対象物の種類または名称(例えば、発見対象物がキャラクターである場合は、キャラクターの名称、キャラクターの形状のシルエットなど)
・ 発見対象物の位置を示唆する情報(例えば、発見対象物がいる方向、発見対象物までの距離など)
・ 発見対象物が登場する時間の情報(例えば、発見対象物が配置され発見可能な状態となる時間が限定されている場合に、当該時間の情報など)
・ 発見対象物を発見するために必要な条件の情報(例えば、エリア内の特定の装置を稼働させることで発見対象物を発見可能な状態になる、特定の装置(メガネなど)をユーザが装着することで発見対象物を発見可能な状態になる、等)
例えば、ヒントID「H001」のヒント内容は、発見対象物「P001」の「位置」に関する情報であることを示す。
The item "hint content" indicates the content of each hint presented to the user.
Hints presented to the user include:
・ The type or name of the object to be discovered (for example, if the object to be discovered is a character, the name of the character, the silhouette of the character's shape, etc.)
・ Information that suggests the position of the discovery target (for example, the direction of the discovery target, the distance to the discovery target, etc.)
・ Information on the time when the discovery target appears (for example, information on the time when the discovery target is placed and the time when it becomes discoverable is limited)
・ Information on the conditions necessary to discover the discovery target (for example, the user wears a specific device (glasses, etc.) that enables the discovery of the discovery target by operating a specific device in the area By doing so, it becomes possible to discover the discovery target, etc.)
For example, the hint content of the hint ID "H001" indicates that it is information about the "position" of the discovery object "P001".

項目「ヒント表示位置」は、ユーザにヒントを表示するトリガとなるエリア内の位置に関する情報を示す。例えば、ヒントID「H001」のヒント表示位置は「AAA.AAA.AAA」の座標であることを示す。サーバ20は、ユーザの端末装置10の位置情報センサ150から取得したユーザの位置情報と、当該情報とに基づいて、ユーザが当該座標の周辺の位置にいることにより、ユーザにヒントの情報を提示する。 The item "hint display position" indicates information about the position within the area that triggers the display of the hint to the user. For example, it indicates that the hint display position of the hint ID "H001" is the coordinates of "AAA.AAA.AAA". Based on the user's location information obtained from the location information sensor 150 of the user's terminal device 10 and the information, the server 20 presents the hint information to the user when the user is in the vicinity of the coordinates. do.

項目「ヒント出現時間」は、ユーザにヒントの情報を提示するタイミングに関する情報を示す。例えば、ヒントID「H001」で識別されるヒントの出現時間は、エリアでの探索を開始してから「5分」であることを示す。ある局面において、当該時間は、イベントが開始してから起算した経過時間でも良いし、イベント開催期間中の所定の時間、例えば、開始2分後~7分後の5分間、等でもよい。 The item "hint appearance time" indicates information about the timing of presenting hint information to the user. For example, the appearance time of the hint identified by the hint ID "H001" indicates "5 minutes" after starting the search in the area. In one aspect, the time may be an elapsed time calculated from the start of the event, or a predetermined time during the event, such as 5 minutes from 2 minutes to 7 minutes after the start.

項目「備考」は、イベントにおいて、ヒントに特記事項等がある場合に保持される情報である。 The item "remarks" is information that is held when there are special notes or the like in the hint in the event.

イベント履歴データベース285は、項目「履歴ID」と、項目「参加者ID」と、項目「役割」と、項目「参加日時」と、項目「探索エリア」と、項目「エリア到着」と、項目「行動履歴」と、項目「備考」等を含む。 The event history database 285 includes an item “history ID”, an item “participant ID”, an item “role”, an item “participation date and time”, an item “search area”, an item “arrive at area”, an item “ action history” and items such as “remarks”.

項目「履歴ID」は、イベントにおいて取得された履歴それぞれを識別する情報を示す。サーバ20は、参加者個別に履歴IDを定義せず、イベントに参加したグループごとに当該IDを定義することとしてもよい。 The item “history ID” indicates information for identifying each history acquired in the event. The server 20 may define the ID for each group that participated in the event instead of defining the history ID for each participant.

項目「参加者ID」は、履歴IDに紐づけられた、参加者を識別する情報を示す。例えば、履歴ID「R001」に紐づけられている参加者IDは「U001」、「U002」等であることを示す。 The item “participant ID” indicates information for identifying a participant associated with the history ID. For example, it indicates that the participant IDs associated with the history ID "R001" are "U001", "U002", and the like.

項目「役割」は、参加者IDに紐づけられた、各ユーザがイベントで担当する役割を識別する情報を示す。例えば、参加者ID「U001」の役割は「探索」であることを示す。 The item "role" indicates information for identifying the role each user takes charge of in the event, which is linked to the participant ID. For example, it indicates that the role of the participant ID "U001" is "search".

項目「参加日時」は、イベントIDに紐づけられた、各ユーザがイベントに参加した日時に関する情報を示す。例えば、イベントID「R001」に紐づけられた各ユーザの参加日時は「2020/02/10」であることを示す。 The item "participation date and time" indicates information about the date and time when each user participated in the event, which is linked to the event ID. For example, it indicates that the participation date and time of each user associated with the event ID "R001" is "2020/02/10".

項目「探索エリア」は、イベントIDに紐づけられた、各ユーザがイベントで探索したエリアに関する情報を示す。例えば、イベントID「R001」に紐づけられた各ユーザの探索エリアは「A」等の複数のエリアであることを示す。 The item “searched area” indicates information related to the area searched by each user for the event, which is linked to the event ID. For example, it indicates that each user's search area associated with the event ID "R001" is a plurality of areas such as "A".

項目「エリア到着」は、イベントIDに紐づけられた、各ユーザがイベントで各エリアに到着した時間に関する情報を示す。例えば、イベントID「R001」に紐づけられた各ユーザがエリア「A」に到着した時間は「10:30:00」であることを示す。当該到着した時間は、ユーザが当該エリアでの探索を開始したタイミングとなりえる。 The item "arrival at area" indicates information about the time each user arrived at each area at the event, which is linked to the event ID. For example, it indicates that the time at which each user associated with event ID "R001" arrived at area "A" was "10:30:00". The arrival time can be the timing at which the user started searching in the area.

項目「行動履歴」は、イベントIDに紐づけられた、各ユーザのイベントにおける行動履歴に関する情報を示す。また、当該行動履歴は、「種別」、「時刻」、「対象」等に区分分けされており、各ユーザがイベントにおいてどのような行動を実行したのか、行動の詳細に関する情報を保持する。例えば、イベントID「R001」において、ユーザID「U001」のユーザの行動履歴の一例は、種別が「発見」であり、当該発見の時刻が「10:32:00」であり、当該発見の対象が「P001」であることを示す。ある局面において、サーバ20は、イベントに参加しているユーザが行動を実行するたびに、当該データベースにユーザの行動履歴を保持してもよい。 The item "action history" indicates information about the action history of each user's event, which is linked to the event ID. In addition, the action history is classified into "type", "time", "target", etc., and holds information on what kind of action each user performed in the event and details of the action. For example, in the event ID “R001”, an example of the action history of the user with the user ID “U001” has the type “discovery”, the time of the discovery is “10:32:00”, and the target of the discovery is is "P001". In one aspect, the server 20 may retain a user's action history in the database each time a user participating in an event performs an action.

これにより、サーバ20は、ユーザがイベントにおいて実行した行動を随時記録することができる。そのため、イベントの主催者は、ユーザの行動履歴に基づいた、関連するイベントの提示、特定の特典の付与などをすることができ、ユーザのイベント参加に対する興趣性の向上、リピートの促進等が期待できる。 Thereby, the server 20 can record the action performed by the user at the event at any time. Therefore, event organizers can present related events and give specific benefits based on the user's action history, which is expected to increase the interest of users in participating in events and promote repeats. can.

項目「備考」は、イベント履歴において、特記事項等がある場合に保持される情報である。 The item "remarks" is information that is held when there are special notes or the like in the event history.

<3 動作>
以下、システム1が、複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、複数のユーザがイベントを進行させることに応答して、第1の画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理について説明する。
<3 Operation>
Hereinafter, the system 1 acquires an image of another user working on the task of the event by some of the users, and responds to the progress of the event by the users. A process of providing content obtained by extracting a part of one image to the plurality of users will be described.

図6は、複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、複数のユーザがイベントを進行させることに応答して、画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理を表すフローチャートである。 FIG. 6 shows an image obtained by some of a plurality of users of other users working on the task of the event, and one of the images in response to the progress of the event by the plurality of users. 10 is a flow chart showing a process of providing content from which parts are extracted to the plurality of users.

ステップS601において、端末装置10Aの制御部190は、ユーザグループ内のユーザにより、イベントの課題に取り組む他のユーザを含む動画または静止画を取得する。具体的には、例えば、役割が「サポート」であるユーザの端末装置10Aは、当該ユーザの操作により、端末装置10Aのカメラ160等により、役割が「探索」である他のユーザがイベントの課題、例えば、発見対象物の探索等に取り組んでいる様子の画像を取得する。端末装置10Aは、取得した画像の情報をサーバ20へ送信する。 In step S601, the control unit 190 of the terminal device 10A acquires a moving image or still image including other users working on the task of the event by users in the user group. Specifically, for example, the terminal device 10A of the user whose role is "support" is operated by the user, and the camera 160 of the terminal device 10A or the like causes another user whose role is "search" to perform the task of the event. , for example, acquires an image of a state in which a search for an object to be discovered or the like is being carried out. The terminal device 10</b>A transmits the acquired image information to the server 20 .

ステップS651において、サーバ20の制御部203は、ユーザグループがイベントを進行させることに応答して、動画または静止画の少なくとも一部のコンテンツをユーザグループ内のユーザが操作する端末10Aに対し提供可能とする。例えば、当該一部のコンテンツが提供される対象のユーザは、役割が「探索」のユーザである。ここで、サーバ20がイベントの進行に応じて当該イベントに参加したユーザに対しコンテンツを提供可能とする契機としては、以下が含まれる。
・ イベントとして構成される複数のエリアのうちいずれかのエリアで探索する期間が終了したこと
(1)具体的には、当該エリアに設定される制限時間が過ぎることにより、エリアで探索する期間が終了したこととしてもよい
(2)具体的には、当該エリアの全ての発見対象物を発見することにより、エリアで探索する期間が終了したこととしてもよい
・ 各エリアでユーザが探索を開始してから所定期間が経過したこと。
・ 各エリアで、ユーザが探索の期間において発見対象物を発見したこと
・ 各エリアで、ユーザに対し、発見対象物の発見を支援するためのヒントを通知すること
・ ユーザが、イベントとして構成される複数のエリアの全てまたは一部の探索を終えること
サーバ20は、ユーザがイベントを終了させたことを、イベント履歴データベース285等から取得した、ユーザのエリア到着時間、すなわちイベントの開始時間と、イベントごとに設定された制限時間とに基づいて判定してもよい。サーバ20は、ステップS601において取得された、イベントの課題に取り組む他のユーザを撮影した画像から、例えば、探索の役割であるユーザが発見対象物を発見した時の様子、発見対象物を探索している様子等を抽出したコンテンツを作成し、ユーザに提供する。例えば、ユーザの端末装置10が、発見対象物を発見したことを報告する操作を受け付けるとする。この場合、サーバ20は、当該操作を受け付けるタイミングに基づいて、当該タイミングより前に端末装置10により撮影されていた動画像に基づいて、探索を行うユーザが発見対象物を発見したタイミングの動画像を特定し得る。
In step S651, the control unit 203 of the server 20 can provide at least a part of moving image or still image content to the terminal 10A operated by a user in the user group in response to the user group advancing the event. and For example, a target user to whom the partial content is provided is a user whose role is "search". Here, the server 20 can provide content to users participating in the event in accordance with the progress of the event, including the following.
・ The period for searching in one of the multiple areas configured as an event has ended. (2) Specifically, it may be considered that the period for searching in the area has ended by discovering all discovery objects in the area. A specified period of time has passed since
・ In each area, the user has found a discovery target during the search period. ・ In each area, the user is notified of a hint to assist in finding the discovery target. The server 20 acquires that the user has finished the event from the event history database 285 or the like, and the arrival time of the user in the area, that is, the start time of the event; The determination may be made based on the time limit set for each event. The server 20, for example, searches for the discovery target when the user who is in the role of searching discovers the discovery target from the image of the other user working on the task of the event, which is acquired in step S601. Create content that extracts the state of the user, and provide it to the user. For example, assume that the user's terminal device 10 accepts an operation to report that a discovery target has been found. In this case, the server 20, based on the timing of accepting the operation, based on the moving image captured by the terminal device 10 before the timing, the moving image of the timing when the searching user discovered the discovery target. can be identified.

ここで、サーバ20の制御部203が、端末装置10Aから取得した画像から、一部を抽出する処理について説明する。サーバ20の制御部203は、画像解析等により、画像に含まれる人物を特定し、当該人物のみを抽出したコンテンツを作成してもよい。このとき、画像解析の処理は、既存のあらゆる処理で実行されてよく、限定されない。また、サーバ20は、記憶部202に、人物の複数の画像を入力とし、その中から特定の表情、例えば、笑顔、驚いた顔、熱中している顔、等を抽出した画像を正解出力として学習させた学習済みモデルを記憶させていてもよい。サーバ20の制御部203は、端末装置10Aから取得した画像と、当該学習済みモデルとに基づいて、イベントの課題に取り組むユーザの特定の表情の画像のみを抽出したコンテンツをユーザに提供してもよい。 Here, the process of extracting a part from the image acquired from the terminal device 10A by the control unit 203 of the server 20 will be described. The control unit 203 of the server 20 may specify a person included in the image by image analysis or the like, and create content in which only the person is extracted. At this time, the image analysis processing may be performed by any existing processing, and is not limited. In addition, the server 20 inputs a plurality of images of a person to the storage unit 202, and extracts an image of a specific facial expression, such as a smile, a surprised face, an enthusiastic face, etc., as a correct output. A trained model that has been trained may be stored. Based on the image obtained from the terminal device 10A and the learned model, the control unit 203 of the server 20 may provide the user with content in which only the image of the specific facial expression of the user working on the task of the event is extracted. good.

ステップS602において、端末装置10Aの制御部190は、サーバ20から提供されたコンテンツをディスプレイ132に表示する等により、ユーザに提示する。 In step S602, the control unit 190 of the terminal device 10A presents the content provided by the server 20 to the user by displaying it on the display 132 or the like.

これにより、ユーザは、イベントに参加している時の様々な様子、例えば、探索に夢中になっている様子、発見対象物を発見して喜んでいる様子、等を抽出したコンテンツを得ることができる。そのため、イベント時を振り返りながら、記録を残すことができ、思い出をより一層高めるだけでなく、リピートを促進することが期待できる。 As a result, the user can obtain content extracted from various aspects of participating in the event, such as a state of being absorbed in searching, a state of being happy to discover an object to be discovered, and the like. can. Therefore, it is possible to leave a record while looking back on the time of the event, and it is expected not only to enhance memories but also to promote repeats.

図7は、複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、撮影された画像に含まれる発見対象物の承認に伴い、イベントの進行度合いを特定し、複数のユーザがイベントを進行させることに応答して、画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理を表すフローチャートである。 FIG. 7 shows that some users out of a plurality of users acquire images of other users who are working on the task of the event, and when the object to be discovered included in the captured image is approved, the event is performed. FIG. 10 is a flow chart showing a process of specifying the degree of progress and providing content obtained by extracting a part of an image to a plurality of users in response to the progress of the event by the plurality of users. FIG.

ステップS701において、端末装置10Aの制御部190は、複数のユーザのうちいずれか一部のユーザの端末において発見対象物を発見したことの承認を受けるための入力操作を受け付け、当該情報をサーバ20に送信する。具体的には、端末装置10Aの制御部190は、役割が「探索」であるユーザの端末装置10Aのカメラ160等により、発見対象物をディスプレイ132等に表示させる。ここで、当該端末装置10Aは、イベントにおいて、発見対象物を探索する役割のユーザが使用する端末装置10Aを示す。このとき、端末装置10Aの制御部190は、ディスプレイ132等に表示されている現在時刻が、イベント開始時からの時刻を基準として、予め設定されているイベントの制限時間内であるかを判定してもよい。端末装置10Aの制御部190は、現在時刻がイベントの制限時間内である場合に、ユーザに対し、発見対象物を撮影するための入力操作を受け付ける。端末装置10Aの制御部190は、撮影された発見対象物の画像を、サーバ20に送信する。
ある局面において、端末装置10Aの制御部190は、ユーザから承認のための入力操作を受け付けずとも、当該端末装置10Aのカメラ160等により撮影された動画、または静止画の情報を受け付けることで、承認操作の代わりとしてもよい。
In step S701, the control unit 190 of the terminal device 10A receives an input operation for receiving approval that a discovery target has been found in the terminals of some of the users, and transmits the information to the server 20. Send to Specifically, the control unit 190 of the terminal device 10A causes the camera 160 or the like of the terminal device 10A of the user whose role is "search" to display the discovery target on the display 132 or the like. Here, the terminal device 10A indicates the terminal device 10A used by the user who searches for the discovery object in the event. At this time, the control unit 190 of the terminal device 10A determines whether the current time displayed on the display 132 or the like is within the preset time limit of the event based on the time from the start of the event. may The control unit 190 of the terminal device 10A accepts an input operation for photographing the discovery target from the user when the current time is within the time limit of the event. The control unit 190 of the terminal device 10</b>A transmits the captured image of the discovery target to the server 20 .
In one aspect, the control unit 190 of the terminal device 10A accepts information of a moving image or a still image captured by the camera 160 or the like of the terminal device 10A without accepting an input operation for approval from the user. It may be used as an alternative to approval operation.

ステップS751において、サーバ20の制御部203は、画像に発見対象物が含まれるか否かを判定する。サーバ20の制御部203は、画像解析により、画像に発見対象物が含まれるか否かを判定してもよい。また、サーバ20は、記憶部202に、複数の発見対象物が含まれた画像を入力とし、発見対象物のみを抽出した画像を正解出力として学習させた学習済みモデルを記憶されていてもよい。サーバ20の制御部203は、端末装置10Aから取得した画像と、当該学習済みモデルとに基づいて、画像内に発見対象物が含まれるかの判定をしてもよい。 In step S751, the control unit 203 of the server 20 determines whether or not the image includes a discovery target. The control unit 203 of the server 20 may determine whether or not the image includes the discovery target by image analysis. In addition, the server 20 may store in the storage unit 202 a trained model obtained by learning an image containing a plurality of discovery objects as an input and extracting only the discovery objects as a correct output. . The control unit 203 of the server 20 may determine whether the image includes the discovery target based on the image acquired from the terminal device 10A and the learned model.

ステップS752において、サーバ20の制御部203は、承認のための入力操作を受け付けることに応答して、ユーザグループによるイベントの進行度合いを特定する。具体的には、サーバ20の制御部203は、ステップS701において、端末装置10Aから受け付けた、発見対象物の承認のための入力操作に応答して、探索エリアに配置されている発見対象物のうち幾つを発見したかを判定し、イベントがどの程度進行したのかの進行度合いを特定する。また、サーバ20の制御部203は、当該エリアに配置されている発見対象物を全て発見したと判定した場合、当該エリアにおけるイベントが終了したと特定する。ある局面において、サーバ20の制御部203は、ユーザが発見対象物の全てを発見せずに、イベントの制限時間が満了した場合も、当該イベントが終了したと特定する。ある局面において、サーバ20の制御部203は、イベントの進行度合いを特定したのち、ユーザに対し、あとどれくらい発見対象物が配置されているかを提示してもよい。また、ある局面において、サーバ20の制御部203は、イベントの制限時間と進行度合いとに基づいて、例えば、想定される時間よりも早く全ての発見対象物を発見した場合等、ユーザに対して、限定のアイテム、グッズ等を付与してもよい。 In step S752, the control unit 203 of the server 20 specifies the degree of progress of the event by the user group in response to receiving the input operation for approval. Specifically, in step S701, the control unit 203 of the server 20 responds to the input operation for approval of the discovery target received from the terminal device 10A, and the discovery target located in the search area. How many of them have been found is determined, and the degree of progress of the event is specified. Further, when the control unit 203 of the server 20 determines that all the discovery objects arranged in the area have been found, it specifies that the event in the area has ended. In one aspect, the control unit 203 of the server 20 identifies that the event has ended even when the time limit for the event expires without the user discovering all the discovery objects. In a certain aspect, the control unit 203 of the server 20 may indicate to the user how many further discovery objects are arranged after specifying the degree of progress of the event. Further, in a certain aspect, the control unit 203 of the server 20, based on the time limit and the degree of progress of the event, informs the user that, for example, all discovery objects are found earlier than the expected time. , Limited items, goods, etc. may be given.

これにより、ユーザは、イベントの進行度合いを確認しながらイベントに取り組むことができ、制限時間が迫ることによる緊張感、早くイベントを終了することによる特別感、達成感を得ることができ、イベント参加の興趣性を高めることができる。 As a result, the user can work on the event while confirming the progress of the event, and can feel a sense of tension when the time limit is approaching, and a special feeling and a sense of accomplishment when the event ends early. can increase the interest of

<4 画面例>
図8は、本発明において開示される、現実の世界におけるイベントの概要を示す図である。
<4 Screen example>
FIG. 8 is a diagram showing an overview of events in the real world disclosed in the present invention.

図8において、イベントは複数のエリアで実施される。このとき、イベントは、各エリアにおいて同時に実施されてもよいし、一つのエリアを終了するごとに、次のエリアに挑戦できるよう実施されてもよい。図8において、801A、801B、801Cはそれぞれ、イベントが実施されるエリアを示す。当該エリアはそれぞれ、通路等でつながっていても良いし、同じ空間内に仕切りを設けることでエリア分けしていてもよい。また、各エリアにはエリア入り口が設けられており、イベントに参加するユーザは、当該入口を通ってエリア内に入ることとしてもよい。 In FIG. 8, the event is held in multiple areas. At this time, the event may be carried out simultaneously in each area, or may be carried out so that each time one area is completed, the next area can be challenged. In FIG. 8, 801A, 801B and 801C respectively indicate areas where events are held. The areas may be connected to each other by passages or the like, or may be divided into areas by providing partitions in the same space. Each area is provided with an area entrance, and users participating in the event may enter the area through the entrance.

参加ユーザ802A、802B、802Cは、それぞれ、各エリアにおけるイベントに参加したユーザを示す。このとき、ユーザは、イベントごとにグループ単位で参加しており、複数のユーザが、それぞれ役割を設定された状態でイベントに参加する。 Participating users 802A, 802B, and 802C respectively indicate users who have participated in the event in each area. At this time, users participate in each event in group units, and a plurality of users participate in the event with their respective roles set.

発見対象物803A、803B、803Cは、各エリアに配置されている発見対象物を示す。発見対象物は、イベントの態様によって変更してもよい。また、発見対象物は、ぬいぐるみ等の現実の世界の物体でも良く、端末装置10Aのカメラ160等により発見されるAR(Augmented Reality)により定義されたものでもよい。 Discovery objects 803A, 803B, and 803C indicate discovery objects arranged in each area. The discovery target may be changed depending on the aspect of the event. The object to be found may be a real world object such as a stuffed animal, or may be an object defined by AR (Augmented Reality) discovered by the camera 160 of the terminal device 10A.

図9は、複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像の画面例である。 FIG. 9 is a screen example of an image captured by some of a plurality of users of other users working on the task of the event.

図9において、端末装置10Aは、役割が「サポート」であり、イベントの課題に取り組んでいる他のユーザを撮影するユーザがイベントにおいて使用する端末装置を示す。 In FIG. 9, a terminal device 10A has a role of "support" and is used at an event by a user who takes a picture of another user who is working on an event task.

発見対象物901および902は、イベントにおいて、各エリアに配置されている、発見対象物をそれぞれ示す。 Discovery targets 901 and 902 indicate discovery targets arranged in each area in the event.

ユーザ903および904は、イベントに参加しているユーザをそれぞれ示す。図示する例では、各ユーザは、イベントを運営する事業者により配布されるパンフレット等の冊子を把持している。図9において、ユーザ903および904は、役割が「探索」であり、発見対象物901および902等を探索する。図9において、ユーザ903および904は、発見対象物901および902を発見しており、その様子をユーザが端末装置10Aのカメラ160等によりその様子を画像等により撮影している。端末装置10Aの制御部190は、当該画像等をサーバ20に送信する。サーバ20の制御部203は、取得した画像の一部を抽出したコンテンツを、当該ユーザに対し提供する。
このとき、端末装置10Aを操作しているユーザは、端末装置10Aのカメラ160等により、イベントの課題に取り組んでいる他のユーザの画像等を撮影し、サーバ20に送信してもよい。サーバ20の制御部203は、当該画像も含め、取得した画像の一部を抽出したコンテンツを、当該ユーザに提供してもよい。
このとき、端末装置10Aの制御部160は、役割が「探索」であるユーザ903および904が発見対象物901および902を発見したとき、撮影タイミングである旨の通知等をユーザに提示してもよい。
Users 903 and 904 respectively indicate users participating in the event. In the illustrated example, each user holds a booklet such as a pamphlet distributed by an event operator. In FIG. 9, users 903 and 904 have a role of "search" and search for discovery objects 901 and 902, and the like. In FIG. 9, users 903 and 904 have discovered discovery targets 901 and 902, and the users have captured the situation as images or the like with the camera 160 or the like of the terminal device 10A. The control unit 190 of the terminal device 10A transmits the image or the like to the server 20 . The control unit 203 of the server 20 provides the user with content obtained by extracting a part of the acquired image.
At this time, the user operating the terminal device 10A may capture an image or the like of another user who is working on the task of the event using the camera 160 or the like of the terminal device 10A and transmit the captured image to the server 20 . The control unit 203 of the server 20 may provide the user with content obtained by extracting a part of the acquired image, including the image.
At this time, when users 903 and 904 whose role is "search" discover the discovery objects 901 and 902, the control unit 160 of the terminal device 10A may present a notification to the user that it is time to take a picture. good.

ある局面において、端末装置10Aの制御部190は、役割が「探索」であるユーザ903および904が発見対象物901および902を発見したタイミングで、自動的にカメラ160等により当該ユーザを撮影してもよい。以上のように、役割が「サポート」であるユーザの操作によらずとも、当該役割が「サポート」であるユーザの端末装置10Aが、役割が「探索」であるユーザが行う探索について所定の条件を満たすことにより、役割が「探索」のユーザが発見対象物901、902を発見するタイミングを含む一定期間の動画または静止画を記録し得る。役割が「サポート」であるユーザの端末装置10Aが行う処理として、以下を含みうる。
・ 当該役割が「サポート」であるユーザの端末装置10Aが撮影する撮影結果において被写体として写る「探索」のユーザが特定の行動をしたか否かを検知する。例えば、制御部190は、カメラ160等の撮影範囲に役割が「探索」であるユーザが存在する場合、当該ユーザに焦点を合わせておき、当該ユーザの行動を特定する。制御部190は、当該ユーザの行動が「発見対象物の発見」であることを特定した場合、自動的にカメラ160等を動作させ当該ユーザを撮影してもよい。
・ 後述するように、役割が「探索」であるユーザの端末装置10において、当該「探索」の役割のユーザから、発見対象物901、902を発見したことの入力操作を受け付ける。一方、役割が「サポート」であるユーザの端末装置10Aにおいて撮影を継続しておき、撮影結果のうち一部を、役割「探索」のユーザが発見対象物901、902を発見したことの入力操作を行ったタイミングに基づき抽出する。例えば、サーバ20は、当該タイミングを含む前後の期間の撮影結果を抽出することで、役割「探索」のユーザが発見対象物901、902を発見する前後の動画を生成することができる。例えば、役割「サポート」のユーザの端末装置10Aが、カメラ160により撮影を継続し、撮影結果(動画)を、逐次、サーバ20に送信する。サーバ20が、役割「探索」のユーザの端末装置10からの入力操作を受け付ける。これにより、役割「サポート」のユーザが、役割「探索」のユーザが探索対象物901、902を発見するタイミングを見計らわずとも、役割「探索」のユーザが発見対象物901、902を発見したタイミングを含む動画または静止画を自動的に生成し、サーバ20に蓄積し得る。
In one aspect, the control unit 190 of the terminal device 10A automatically shoots the user with the camera 160 or the like at the timing when the users 903 and 904 whose role is "search" discover the discovery objects 901 and 902. good too. As described above, regardless of the operation of the user whose role is "support", the terminal device 10A of the user whose role is "support" satisfies the predetermined condition for the search performed by the user whose role is "search". By satisfying the above, it is possible to record a moving image or a still image for a certain period of time including the timing at which a user whose role is “search” discovers the discovery objects 901 and 902 . The processing performed by the terminal device 10A of the user whose role is "support" may include the following.
- It is detected whether or not the "search" user, who appears as a subject in the photographing result of the terminal device 10A of the user whose role is "support", has taken a specific action. For example, when there is a user whose role is “search” within the shooting range of the camera 160 or the like, the control unit 190 focuses on the user and identifies the behavior of the user. When the control unit 190 identifies that the action of the user is "discovering a discovery target", the control unit 190 may automatically operate the camera 160 or the like to photograph the user.
- As will be described later, in the terminal device 10 of the user whose role is "search", an input operation indicating that the discovery objects 901 and 902 have been found is accepted from the user with the role of "search". On the other hand, the terminal device 10A of the user whose role is "support" continues to take pictures, and a part of the photographed result is input to indicate that the user whose role is "search" has found the discovery objects 901 and 902. is extracted based on the timing at which the For example, the server 20 can generate a moving image before and after the discovery target objects 901 and 902 are discovered by the user with the role of “search” by extracting the shooting results of the period before and after including the timing. For example, the terminal device 10</b>A of the user with the role “support” continues taking pictures with the camera 160 and sequentially transmits the pictures (moving pictures) to the server 20 . The server 20 accepts an input operation from the terminal device 10 of the user with the role of "search". As a result, the user with the role of "search" finds the discovery objects 901 and 902 even if the user with the role of "support" does not wait for the timing when the user with the role of "search" discovers the search objects 901 and 902. A moving image or a still image including the timing obtained can be automatically generated and stored in the server 20 .

これにより、発見対象物を探索するユーザは、自身がイベントに取り組んでいる様子等を撮影した画像から一部を抽出したコンテンツを、画像を撮影したユーザと共有することができる。そのため、「探索」と「サポート」とで役割が分かれている場合でも、お互いがイベントにおいてどのような行動をしたかを振り返りながらコンテンツを見ることで、思い出を高めることができる。また、次回は「探索」と「サポート」の役割を交換する、等の意欲も高まり、イベント参加のリピートの促進が期待できる。 As a result, a user who searches for a discovery target can share content obtained by extracting a part of an image of himself/herself working on an event or the like with the user who has photographed the image. Therefore, even if the roles are divided into "exploration" and "support", it is possible to enhance memories by looking back at the content while looking back on how each other acted at the event. In addition, the desire to exchange the roles of “exploration” and “support” will increase next time, and it can be expected to promote repeat participation in the event.

時間表示部905は、現在時刻と、イベントにおける制限時間とを表示するため画面である。端末装置10Aの制御部190は、ユーザが各エリアに到着した時間をイベントの開始時間とし、イベントごとに設定された制限時間のカウントダウンを開始する。例えば、図9においては、現在時刻は制限時間内であり、当該画面には「残り5分」と表示される。ユーザは、当該表示を確認することで、イベントにおける残り時間を確認しながらイベントを施行することができる。 A time display portion 905 is a screen for displaying the current time and the time limit for the event. The control unit 190 of the terminal device 10A sets the time when the user arrives at each area as the start time of the event, and starts counting down the time limit set for each event. For example, in FIG. 9, the current time is within the time limit, and "5 minutes remaining" is displayed on the screen. By checking the display, the user can enforce the event while checking the remaining time in the event.

実績表示部906は、イベントにおける実績等を表示するための画面である。具体的には、当該画面には、発見した発見対象物、残りの発見対象物、ヒント表示の有無等を表示する。ある局面において、実績表示部906は、役割が「探索」であるユーザが使用している端末装置10Aと連動していてもよい。その場合、役割が「探索」のユーザが発見対象物を発見することに応答して、実績表示部906が更新される。これにより、ユーザはリアルタイムに状況を共有しながらイベントを進行させることができる。ある局面において、サーバ20は、発見対象物ごとに発見の難易度を設定していてもよい。ユーザが当該発見対象物に対するヒント情報をOFFにした場合、サーバ20は、当該ユーザが当該発見対象物を発見することに応答して、特定の報酬等を付与するなど、ヒント情報の活用の有無に応じて特定の報酬を変化することとしてもよい。 A performance display portion 906 is a screen for displaying the performance and the like of the event. Specifically, on the screen, the discovered object to be found, the remaining objects to be found, the presence or absence of hint display, and the like are displayed. In a certain aspect, the result display unit 906 may be linked with the terminal device 10A used by the user whose role is "search". In this case, the result display section 906 is updated in response to the discovery of the discovery target by the user whose role is "search". This allows the user to progress the event while sharing the situation in real time. In one aspect, the server 20 may set the difficulty level of discovery for each discovery target. When the user turns off the hint information for the discovery target, the server 20 responds to the discovery of the discovery target by the user, and determines whether or not the hint information is used, such as by giving a specific reward or the like. The specific reward may be changed according to.

これにより、ユーザは、あえてヒント情報を得ないで探索をすることに挑戦することで、探索の緊張感を味わえるとともに、特別な報酬を得られるという達成感を享受できる。そのため、ユーザの継続的なイベントへの参加促進が期待できる。 As a result, the user can feel the tension of the search and enjoy the sense of accomplishment of obtaining a special reward by challenging the search without obtaining any hint information. Therefore, it can be expected that users will continue to participate in events.

図10は、役割が「探索」であるユーザが使用する端末装置10Aにおいて、発見対象物の承認操作を実行する際の画面例である。 FIG. 10 shows an example of a screen when a discovery target approval operation is performed on the terminal device 10A used by a user whose role is "search".

図10において、時間表示部1001は、図9における時間表示部905と同様に、現在時刻と、イベントにおける制限時間とを表示するための画面である。端末装置10Aの制御部190は、ユーザが各エリアに到着した時間をイベントの開始時間とし、イベントごとに設定された制限時間のカウントダウンを開始する。例えば、図10においては、現在時刻は制限時間内であり、当該画面には「残り8分」と表示される。 In FIG. 10, a time display section 1001 is a screen for displaying the current time and the time limit for the event, like the time display section 905 in FIG. The control unit 190 of the terminal device 10A sets the time when the user arrives at each area as the start time of the event, and starts counting down the time limit set for each event. For example, in FIG. 10, the current time is within the time limit, and "remaining 8 minutes" is displayed on the screen.

発見対象物1002は、各エリアに配置されている、発見対象物を示す。 A discovery target 1002 indicates a discovery target arranged in each area.

承認操作画面1003は、ユーザが発見対象物を発見したことを承認するための操作画面を示す。例えば、端末装置10Aの制御部190は、カメラ160等により発見対象物を撮影範囲に収めると、画像解析等により、当該発見対象物の名称等の情報をユーザに提示してもよい。端末装置10Aの制御部190は、発見対象物が撮影範囲に収まっており、制限時間内である場合に、ユーザから承認のための当該発見対象物を撮影する操作を受け付ける。端末装置10Aの制御部190は、撮影された発見対象物の画像を、サーバ20に送信する。ある局面において、当該承認のための操作は、端末装置10Aの位置情報センサ150から取得した情報に基づいて受け付けることとしてもよい。すなわち、端末装置10Aの位置情報センサ150から取得したユーザの位置情報と、発見対象物が配置されている場所の位置情報とに基づいて、ユーザが発見対象物の配置されている場所にいることを特定したときのみ、承認のための撮影操作を受け付けてもよい。その後、端末装置10Aの制御部190は、サーバ20から承認を受け付けた旨の通知を取得し、ユーザに提示することとしてもよい。 The approval operation screen 1003 shows an operation screen for acknowledging that the user has found the discovery target. For example, the control unit 190 of the terminal device 10A may present information such as the name of the discovery target to the user by image analysis or the like when the discovery target is captured by the camera 160 or the like. The control unit 190 of the terminal device 10A accepts an operation of photographing the discovery target for approval from the user when the discovery target is within the shooting range and within the time limit. The control unit 190 of the terminal device 10</b>A transmits the captured image of the discovery target to the server 20 . In one aspect, the operation for the approval may be accepted based on information acquired from the position information sensor 150 of the terminal device 10A. That is, based on the location information of the user acquired from the location information sensor 150 of the terminal device 10A and the location information of the location where the discovery target is located, the user is at the location where the discovery target is located. is specified, the photographing operation for approval may be accepted. After that, the control unit 190 of the terminal device 10A may acquire a notification that the approval has been received from the server 20 and present it to the user.

実績表示部1004は、図9における実績表示部906と同様に、イベントにおける実績等を表示するための画面である。ここで、端末装置10Aの制御部190は、役割が「探索」のユーザが使用する端末装置10Aにおいては、ヒント表示の有無に関する情報を提示しなくともよい。ある局面において、端末装置10Aの制御部190は、承認操作画面1003において、ユーザからの承認操作を受け付けることに応答して、実績表示部1004における「発見」の数値を増やし、「残り」の数値を減らす処理を実行してもよい。 A performance display section 1004 is a screen for displaying the performance of the event, like the performance display section 906 in FIG. Here, the control unit 190 of the terminal device 10A does not have to present the information regarding whether or not to display hints in the terminal device 10A used by the user whose role is "search". In one aspect, control unit 190 of terminal device 10A increases the numerical value of “discovered” in result display unit 1004 and increases the numerical value of “remaining” in response to accepting an approval operation from the user on approval operation screen 1003. may be reduced.

また、ある局面において、複数のユーザが使用する端末装置10Aは、お互いにネットワーク80、Bluetooth(登録商標)モジュールを利用した近距離通信システム等を通じて情報を共有し、ユーザが発見対象物を発見した実績などをリアルタイムに共有してもよい。 Further, in a certain aspect, the terminal devices 10A used by a plurality of users share information with each other through the network 80, a short-range communication system using a Bluetooth (registered trademark) module, etc., and the users discover the discovery target. You can share achievements in real time.

これにより、役割が異なるユーザ間においても、探索状況が常に共有できる。そのため、役割が「サポート」のユーザは、制限時間と残りの発見対象物の数と、等を確認しながら、役割が「探索」のユーザのサポートをすることができる。 As a result, even users with different roles can always share the search status. Therefore, the user whose role is "support" can support the user whose role is "search" while confirming the time limit, the number of remaining objects to be discovered, and the like.

図11は、役割が「探索」であるユーザが使用する端末装置10Aにおいて、イベントにおいて、制限時間が終了した際に、ディスプレイ132等に表示される画面の画面例である。 FIG. 11 is an example of a screen displayed on the display 132 or the like in the terminal device 10A used by the user whose role is "search" when the time limit ends in the event.

図11において、時間表示部1101は、図10における時間表示部1001と同様に、現在時刻と、イベントにおける制限時間とを表示するため画面である。図11において、現在時刻は制限時間を徒過しており、当該画面には「時間切れ」と表示される。 In FIG. 11, a time display section 1101 is a screen for displaying the current time and the time limit for the event, like the time display section 1001 in FIG. In FIG. 11, the current time has passed the time limit, and the screen displays "Timeout".

承認操作画面1102は、図10における承認操作画面1003と同様に、ユーザが発見対象物を発見したことを承認するための操作画面を示す。例えば、端末装置10Aの制御部190は、当該画面において、発見対象物が撮影範囲に収まっており、制限時間内である場合にユーザからの承認操作を受け付ける。図11においては、「時間切れ」であるため、端末装置10Aの制御部190は、ユーザから承認のための発見対象物を撮影する操作を受け付けない。このとき、端末装置10Aの制御部190は、承認操作画面1102において、「このエリアのキャラクターが逃げてしまいました・・・」等の表示とともに、撮影のためのボタンを非アクティブとする処理をしてもよい。 The approval operation screen 1102 shows an operation screen for the user to approve that the discovery object has been found, like the approval operation screen 1003 in FIG. 10 . For example, the control unit 190 of the terminal device 10A accepts the approval operation from the user when the discovery object is within the shooting range and within the time limit on the screen. In FIG. 11, the control unit 190 of the terminal device 10A does not accept an operation of photographing the discovery object for approval from the user because it is "time out". At this time, the control unit 190 of the terminal device 10A displays a message such as "The character in this area has escaped..." on the approval operation screen 1102, and deactivates the button for photographing. You may

これにより、ユーザは、制限時間内に発見対象物を探索することで、緊張感を感じながら探索を行うことができ、イベントの興趣性が向上する。また、制限時間徒過により、認証ができなかった場合に、また挑戦しよう、というイベントへのリピートの促進が期待できる。 As a result, the user can search for the object to be found within the time limit, feeling a sense of tension while searching, and the event becomes more interesting. In addition, it can be expected that when the authentication fails due to the expiration of the time limit, the promotion of repeats to the event to try again.

図12は、複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像において、発見対象物の配置場所のヒントをユーザに提示する際の画面例である。 FIG. 12 is an example of a screen when some of a plurality of users presents a hint of the placement location of a discovery target to a user in an image of another user working on an event task. .

図12において、ヒント表示1201は、発見対象物が配置されている場所に関するヒントの情報を示す。例えば、サーバ20の制御部203は、端末装置10Aの位置情報センサ150からユーザの位置情報を取得する。サーバ20の制御部203は、取得した位置情報と、発見対象物の配置されている場所の位置情報とに基づいて、端末装置10Aに発見対象物の配置されている場所等に関するヒントの情報を提示する。端末装置10Aの制御部190は、サーバ20から取得した当該ヒントの情報を、ディスプレイ132に表示する等して、ユーザに提示する。このとき、ヒントの情報に含まれる情報として、発見対象物の配置されている場所に関する情報だけでなく、発見対象物が出現する時間帯、例えば、端末装置10Aのカメラ160等により認証が可能な時間帯等の情報をユーザに提示してもよい。ある局面において、端末装置10Aの制御部109は、ユーザが、発見対象物が配置されている場所に到着した時、制限時間が徒過している場合には、ヒントの情報をユーザに提示しないこととしてもよい。また、ある局面において、ヒントが表示される制限時間は、エリアの制限時間と必ずしも一致していなくてもよく、ヒント表示のための制限時間が別途設定されており、当該設定に基づいて、ユーザにヒントの情報を提示することとしてもよい。 In FIG. 12, a hint display 1201 shows hint information about the place where the discovery target is arranged. For example, the control unit 203 of the server 20 acquires the user's location information from the location information sensor 150 of the terminal device 10A. The control unit 203 of the server 20 provides the terminal device 10A with hint information regarding the location of the discovery target based on the acquired location information and the location information of the location where the discovery target is located. Present. The control unit 190 of the terminal device 10A presents the hint information acquired from the server 20 to the user by displaying it on the display 132 or the like. At this time, the information included in the hint information includes not only information about the location where the discovery target is located, but also the time period in which the discovery target appears, for example, the camera 160 of the terminal device 10A can be used for authentication. Information such as the time zone may be presented to the user. In one aspect, the control unit 109 of the terminal device 10A does not present hint information to the user if the time limit has passed when the user arrives at the place where the discovery target is arranged. You can do it. Further, in a certain aspect, the time limit for displaying the hint does not necessarily match the time limit for the area, and a time limit for displaying the hint is set separately. It is also possible to present hint information to

これにより、ユーザは、見つけづらい場所に配置されている発見対象物について、配置場所等のヒントを得ることで、発見対象物を発見できる可能性を高めることができる。また、ユーザは、ヒントに基づいて周囲を詳細に探索することで、宝探し、探検をしている感覚を得ることができ、イベントの興趣性をさらに高めることができる。加えて、ヒントを基に、役割が「探索」のユーザと「サポート」のユーザとが協力して探索することで、イベントを進行するうえでの一体感を醸成することができる。 As a result, the user can increase the possibility of discovering the discovery target by obtaining hints such as the location of the discovery target that is located in a difficult-to-find location. In addition, by searching the surroundings in detail based on the hints, the user can get the feeling of treasure hunting and exploration, and can further enhance the interest of the event. In addition, based on hints, a user whose role is “search” and a user whose role is “support” can cooperate in searching, thereby fostering a sense of unity in proceeding with the event.

ある局面において、サーバ20の制御部230は、イベントの終了から所定の期間が経過した後、イベント当日にユーザに提供したコンテンツに、さらに画像等を追加したコンテンツを、ユーザの端末装置10Aに送信する処理を実行してもよい。例えば、イベントの終了から数日経過後に、イベント当日にユーザが発見できなかった発見対象物に関する情報を、イベント当日にユーザに提供したコンテンツにさらに追加してユーザに提供する。ここで、ユーザが発見できなかった発見対象物に関する情報は、例えば、以下である。
・発見できなかった発見対象物のシルエット
・発見できなかった発見対象物の配置されているエリアに関する情報
・イベント後に追加された発見対象物のシルエット
・イベント後に追加された発見対象物の配置されているエリアに関する情報
In one aspect, after a predetermined period of time has passed since the end of the event, the control unit 230 of the server 20 transmits to the terminal device 10A of the user the content provided to the user on the day of the event, in which an image or the like is added. You may perform a process to For example, after several days have passed since the end of the event, information about the discovered object that the user could not discover on the day of the event is added to the content provided to the user on the day of the event and provided to the user. Here, for example, the information regarding the discovery target that the user has not been able to discover is as follows.
・Silhouettes of undiscovered objects ・Information about areas where undiscovered objects are located ・Silhouettes of undiscovered objects added after the event ・Location of undiscovered objects added after the event Information about your area

また、サーバ20の制御部230は、ユーザに対し、画像等を追加したコンテンツそのものではなく、下記の態様でユーザにコンテンツ等を提示してもよい。
・画像、コンテンツ等を閲覧するためのウェブページのURL
・画像、コンテンツ等を閲覧するための二次元コードの画像
サーバ20の制御部230は、イベント当日、イベント会場等においても、上記の態様でユーザに画像、コンテンツ等を提示してもよい。これにより、ユーザは、Wi-Fi(Wireless Fidelity)等の通信環境がない状況においても、通信負荷の大きい画像ファイル等を表示させずに済む。また、制御部203は、ユーザの端末装置10Aの通信環境に基づいて、画像、コンテンツを直接表示するか、上記の態様で表示するかを決定してもよい。
In addition, the control unit 230 of the server 20 may present content or the like to the user in the following manner, instead of the content itself to which an image or the like is added.
・Web page URL for viewing images, content, etc.
• Image of two-dimensional code for viewing images, contents, etc. The control unit 230 of the server 20 may present images, contents, etc. to the user in the above manner even on the day of the event, at the event venue, or the like. As a result, the user does not need to display an image file or the like that imposes a heavy communication load even in a situation where there is no communication environment such as Wi-Fi (Wireless Fidelity). Further, the control unit 203 may determine whether to directly display images and contents or to display them in the above manner, based on the communication environment of the user's terminal device 10A.

これにより、ユーザは、イベントへの参加意欲が刺激されることが期待できる。そのため、ユーザのイベントへのリピート参加が促進されることが期待できる。 As a result, users can expect to be motivated to participate in the event. Therefore, it can be expected that repeated participation in the event by the user will be promoted.

<第2の実施の形態>
<概要>
第1の実施形態では、現実の世界において実施されるイベントにおいて、イベントの課題に取り組むユーザの画像を、複数の他のユーザが撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明した。
第2の実施形態では、現実の世界において実施されるイベントにおいて、一定空間内に配置されている発見対象物に備えられたカメラにより、当該発見対象物を探索、または発見したユーザの画像を撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明する。
発見対象物には、所定の画角で撮影可能なカメラ、180度カメラ、360度カメラなど様々な撮影範囲のカメラを備え付け得る。例えば、発見対象物がキャラクターである場合に、発見対象物の視野に応じた画角のカメラを備えることとしてもよい。これにより、発見対象物の目線での撮影画像であるかのような体験をユーザに提供し得る。
<Second Embodiment>
<Overview>
In the first embodiment, at an event held in the real world, a plurality of other users capture images of a user working on a task for the event, and in response to the progress of the event, some of the captured images are captured. The technology for providing the user with the extracted content has been described.
In the second embodiment, at an event held in the real world, a camera attached to a discovery target placed in a certain space captures an image of a user who searches for or discovers the discovery target. Then, in response to the progress of the event, a technique for providing the user with content obtained by extracting a part of the photographed image will be described.
The object to be found can be equipped with a camera capable of photographing at a predetermined angle of view, a 180-degree camera, a 360-degree camera, and other cameras with various photographing ranges. For example, when the discovery target is a character, a camera having an angle of view corresponding to the field of view of the discovery target may be provided. As a result, it is possible to provide the user with an experience as if the image was taken from the line of sight of the discovery target.

第2の実施形態において、ユーザは、発見対象物に備えられたカメラにより、自身がイベントの課題に取り組む様子を撮影される。サーバ20は、撮影した画像から、例えば、発見対象物の近くにいたのに発見対象物を発見できていない様子、ユーザが発見対象物を発見したときの様子を抽出し、ユーザに提示する。これにより、ユーザは、発見対象物を発見したときの、喜んだ、驚いた瞬間の表情等を、思い出とともに振り返ることができる。また、ユーザは、自身が発見対象物の近くで探索している様子を振り返ることで、イベントにおける自身の行動を振り返ることができ、次のイベント参加時の行動を計画することができる。 In the second embodiment, the user is photographed by the camera provided on the discovery object as he/she tackles the task of the event. The server 20 extracts, for example, a state in which the user is near the discovery target but is unable to discover the discovery target from the photographed image, and a state when the user discovers the discovery target, and presents it to the user. As a result, the user can look back on his or her happy or surprised expression when he/she discovered the discovery object, along with his or her memories. In addition, the user can look back on his/her own actions in the event by looking back on how he or she is searching near the object to be found, and can plan actions for participating in the next event.

<3 動作>
以下、システム1が、一定空間内に配置されている発見対象物に備えられたカメラにより、当該発見対象物を探索、または発見したユーザの画像を撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する処理について説明する。
<3 Operation>
Below, the system 1 captures an image of the user who has searched or discovered the discovery target using a camera provided on the discovery target arranged in a certain space, and shoots in response to the progress of the event. Processing for providing the user with content obtained by extracting a part of the image will be described.

図13は、発見対象物が備えるカメラにより、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影した撮影結果を取得し、取得した撮影結果をイベントの進行の程度に応じてユーザに提供する処理を表すフローチャートである。
ここで、発見対象物がカメラを備えることとして、例えば以下の態様であってもよい。
・発見対象物の内部または外部に物理的に設置されているカメラ。
例えば、発見対象物がぬいぐるみ等の3次元の物体である場合に、当該ぬいぐるみに体現されるキャラクターの口や目、体表面に埋め込むことにより、発見対象物の内部に物理的にカメラを設置することがあり得る。
例えば、発見対象物がぬいぐるみ等の3次元の物体である場合に、その表面に沿ってカメラを設置することにより、発見対象物の外部に物理的にカメラを設置することがあり得る。
ここで、サーバ20等において、発見対象物を特定する情報と、カメラを特定する情報とを関連付けないで管理することとしてもよい。すなわち、サーバ20等においては、特に、発見対象物に物理的に設置されるカメラと、発見対象物とをデータとしては特に関連付けず管理することとしてもよい。一方、発見対象物を特定する情報と、カメラを特定する情報とをサーバ20で関連付けて管理することとしてもよい。
・発見対象物とは物理的に離れて設置されているものの、サーバ20等において、各発見対象物に紐付けてデータとして管理がされているカメラ
例えば、発見対象物が3次元の物体、または、壁面等に描かれた2次元の表現物である場合に、これら発見対象物の周辺にカメラを設置することがあり得る。すなわち、発見対象物に物理的にカメラを設置しない場合も、「発見対象物がカメラを備える」ものとみなすこととしてもよい。これにより、発見対象物を探そうとするユーザ、発見対象物を発見したタイミングのユーザ等を、当該カメラにより撮影し得る。
FIG. 13 shows that, during a period in which a user participates in an event and searches for a discovery target, a user in a certain space is captured by a camera included in the discovery target, and a photographing result of the user is acquired. 4 is a flow chart showing processing provided to the user according to the degree of progress;
Here, the following aspect may be sufficient as a discovery target being equipped with a camera, for example.
• Cameras that are physically installed inside or outside the object of discovery.
For example, when the discovery target is a three-dimensional object such as a stuffed animal, a camera is physically installed inside the discovery target by embedding it in the mouth, eyes, or body surface of the character embodied in the stuffed toy. It is possible.
For example, if the discovery target is a three-dimensional object such as a stuffed animal, it is possible to physically install the camera outside the discovery target by placing the camera along its surface.
Here, in the server 20 or the like, the information specifying the object to be discovered and the information specifying the camera may be managed without being associated with each other. That is, in the server 20 or the like, particularly, the camera physically installed on the discovery target and the discovery target may be managed without being particularly associated with each other as data. On the other hand, the server 20 may associate and manage the information specifying the object to be found and the information specifying the camera.
A camera that is physically separated from the discovery target, but is managed as data linked to each discovery target in the server 20, etc. For example, the discovery target is a three-dimensional object, or , in the case of a two-dimensional representation drawn on a wall or the like, cameras may be installed around these discovery objects. That is, even if the camera is not physically installed on the discovery target, it may be considered that the discovery target is provided with the camera. This allows the camera to photograph a user who is searching for a discovery target, a user who has discovered a discovery target, or the like.

ステップS1351において、サーバ20の制御部203は、発見対象物40が備えるカメラ401により、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影させた結果を取得する。ある局面において、サーバ20の制御部203は、カメラ401から取得した結果に基づいて、イベントにおけるユーザの特定の様子を抽出してもよい。ユーザの様子とは、例えば、以下である。
・発見対象物を発見した時の驚いた、または喜んだ様子
・発見対象物の近くで、当該発見対象物を探している様子
In step S1351, the control unit 203 of the server 20 causes the camera 401 of the discovery target 40 to photograph the user in a certain space during the period in which the user participates in the event and searches for the discovery target. get. In one aspect, the control unit 203 of the server 20 may extract a particular state of the user at the event based on the results obtained from the camera 401 . The state of the user is, for example, as follows.
・Appearance of being surprised or delighted when discovering the discovery target ・Appearance of searching for the discovery target near the discovery target

ここで、ユーザの様子の判定方法について例示する。サーバ20の制御部203は、カメラ401から取得した結果を画像解析することで、ユーザの感情、例えば、驚き、喜び等を特定し、当該特定した感情を示しているユーザの画像を抽出する。これにより、サーバ20は、ユーザが発見対象物を発見した瞬間を抽出したコンテンツをユーザに提供することができ、思い出作りの向上に寄与できる。このとき、サーバ20の制御部203は、画像解析の結果だけでなく、当該結果と、ユーザが発見対象物を発見したとサーバ20が判定した結果とに基づいて、当該結果を抽出してもよい。具体的には、例えば、サーバ20の制御部203は、カメラ401により発見対象物とユーザとの距離を測定し、当該距離が所定の範囲内にあるときに、前述の画像解析の結果とに基づいて、取得した結果から、ユーザが発見対象物を発見したときの様子として一部を抽出してもよい。 Here, a method for determining the state of the user will be exemplified. The control unit 203 of the server 20 identifies the user's emotion, such as surprise or joy, by analyzing the image obtained from the camera 401, and extracts the user's image showing the identified emotion. As a result, the server 20 can provide the user with content extracted from the moment the user discovers the discovery target, thereby contributing to the improvement of memory creation. At this time, the control unit 203 of the server 20 extracts the result based not only on the result of the image analysis but also on the result of the determination by the server 20 that the user has found the discovery object. good. Specifically, for example, the control unit 203 of the server 20 measures the distance between the object to be discovered and the user using the camera 401, and when the distance is within a predetermined range, Based on this, a part of the state when the user discovers the discovery target may be extracted from the acquired result.

他にも、サーバ20の制御部203は、ユーザが発見対象物を発見した瞬間の様子に基づいて画像解析により結果を取得するのではなく、他の方法に基づいて結果を取得してもよい。例えば、サーバ20の制御部203は、予めカメラ401により発見対象物の周囲を動画として撮影した結果を取得し、ユーザが発見対象物を発見した時に、その時点を基準とした所定の期間前後の撮影結果を抽出するといった方法であってもよい。また、当該処理は、ユーザが発見対象物を発見した時に行われずともよく、イベントが所定の期間経過した後でもよい。サーバ20が、カメラ401により撮影された撮影結果のうち、ユーザが探索対象物を発見したタイミング(ユーザの感情の検出結果により、ユーザが探索対象物を発見したタイミングを特定してもよいし、端末装置10への入力操作によりユーザが探索対象物を発見したタイミングを特定してもよい)に基づき静止画または動画を抽出することにより、ユーザが探索対象物を発見したタイミングの前後を含む動画を生成し得る。 In addition, the control unit 203 of the server 20 may acquire the result based on other methods instead of acquiring the result by image analysis based on the state at the moment when the user discovers the discovery target. . For example, the control unit 203 of the server 20 acquires the result of capturing the surroundings of the discovery target as a moving image in advance by the camera 401, and when the user discovers the discovery target, the control unit 203 acquires the result before and after a predetermined period based on that time. A method of extracting the photographing result may be used. Further, the processing may not be performed when the user discovers the discovery object, and may be performed after the event has passed for a predetermined period. The server 20 may specify the timing at which the user discovers the search target object from among the results captured by the camera 401 (the timing at which the user discovers the search target object may be specified based on the detection result of the user's emotion, The timing at which the user discovers the search object may be specified by an input operation to the terminal device 10). By extracting a still image or video based on this, a moving image including before and after the timing at which the user discovers the search object. can generate

また、サーバ20の制御部203は、カメラ401により、ユーザの目線に関する情報を取得してもよい。具体的には、例えば、カメラ401は、発見対象物の目の位置に備えられており、サーバ20の制御部203は、ユーザが発見対象物を発見したときに、当該情報に基づいて、ユーザの目線が発見対象物に向いていることを判定する。サーバ20の制御部203は、画像解析の結果と、当該目線の情報とに基づいて、取得した結果から、ユーザが発見対象物を発見したときの様子として一部を抽出してもよい。 Also, the control unit 203 of the server 20 may acquire information about the user's line of sight from the camera 401 . Specifically, for example, the camera 401 is provided at the eye position of the discovery target, and when the user discovers the discovery target, the control unit 203 of the server 20 provides the user with information based on the information. is directed to the object to be found. The control unit 203 of the server 20 may extract a part of the situation when the user discovers the discovery target from the obtained result based on the image analysis result and the eye line information.

ある局面において、カメラ401は、所定の位置、例えば、発見対象物の内部、発見対象物の近く、等に固定されて設置されていなくともよい。具体的には、例えば、カメラ401は、自律制御可能な移動体、例えば、ドローン等に設置されていてもよい。このとき、当該移動体に設置されたカメラ401は、特定の発見対象物と紐づけられていなくともよい。例えば、サーバ20が、当該移動体に設置されたカメラ401と紐づける発見対象物を、適宜、切り替えることとしてもよい。サーバ20が移動体に設置されたカメラ401と発見対象物との紐づけを切り替えることとして、以下を含みうる。
・ 発見対象物が発見されたか否かにより、発見対象物とカメラ401との紐づけを切り替えることとしてもよい。例えば、サーバ20が、ユーザの端末装置10から、ユーザが発見対象物を発見したことの報告をする操作(端末装置10への入力操作等)を受け付けることに応答して、カメラ401と発見対象物との紐づけを切り替えることとしてもよい。
・ ユーザが特定の発見対象物を探索している期間が一定期間を超えたか否かにより、発見対象物とカメラ401との紐づけを切り替えることとしてもよい。例えば、複数のユーザが、それぞれ別個の発見対象物を探索しようとするときがあり得る。移動体に設置されたカメラ401が、一定期間ごとに、紐づけられる発見対象物を切り替えつつ移動することにより、発見対象物を探そうとする複数のユーザを撮影し得る。
・ 発見対象物と、移動体に設置されたカメラ401との距離に応じて、当該発見対象物とカメラ401との紐づけを切り替えることとしてもよい。自律制御可能な移動体に設置されたカメラ401は、各発見対象物とBluetooth(登録商標)等の近距離通信により接続しており、当該移動体と発見対象物との距離が所定の距離以内にある時は、当該発見対象物と一時的に紐づけられることとしてもよい。
In some aspects, the camera 401 may not be fixedly placed in a predetermined location, eg, inside the discovery object, near the discovery object, or the like. Specifically, for example, the camera 401 may be installed on an autonomously controllable moving object such as a drone. At this time, the camera 401 installed on the mobile object does not have to be associated with a specific discovery target. For example, the server 20 may appropriately switch the discovery target associated with the camera 401 installed on the mobile object. The server 20 can switch the linkage between the camera 401 installed on the mobile body and the object to be discovered as follows.
- The association between the discovery target and the camera 401 may be switched depending on whether or not the discovery target has been discovered. For example, in response to the server 20 receiving an operation (such as an input operation to the terminal device 10) from the terminal device 10 of the user to report that the user has found the discovery target, the camera 401 and the discovery target It is also possible to switch the association with the object.
- The linkage between the discovery target and the camera 401 may be switched depending on whether or not the period during which the user is searching for the specific discovery target exceeds a certain period of time. For example, there may be times when multiple users seek to explore separate discovery objects. A camera 401 installed on a mobile body can photograph a plurality of users searching for a discovery target by moving while switching the linked discovery target at regular intervals.
- Depending on the distance between the discovery target and the camera 401 installed on the mobile object, the linkage between the discovery target and the camera 401 may be switched. A camera 401 installed on an autonomously controllable moving body is connected to each discovery target by short-range communication such as Bluetooth (registered trademark), and the distance between the moving body and the discovery target is within a predetermined distance. , it may be temporarily associated with the discovery object.

ある局面において、発見対象物は、マイク(図示せず)を備えていてもよく、ユーザが発見対象物を発見した時の音声を取得してもよい。サーバ20の制御部203は、画像解析の結果と、当該音声とから、取得した結果から、ユーザが発見対象物を発見したときの様子として一部を抽出してもよい。 In one aspect, the discovery object may be equipped with a microphone (not shown) to capture audio when the user discovers the discovery object. The control unit 203 of the server 20 may extract a part of the situation when the user discovers the discovery target from the result of the image analysis and the voice.

これにより、サーバ20は、ユーザが発見対象物を発見した時の様子を抽出したコンテンツをユーザに提示できる。そのため、ユーザは、発見対象物を発見したときの感情とともに、イベントを振り返ることができるため、イベントに再度参加したい、等の意欲を刺激することができ、リピートの促進が期待できる。 As a result, the server 20 can present to the user the content extracted from when the user discovered the discovery target. Therefore, since the user can look back on the event together with the feeling when he or she discovers the object to be discovered, the desire to participate in the event again can be stimulated, and the promotion of repeat can be expected.

また、ある局面において、サーバ20の制御部203は、カメラ401から、ユーザが発見対象物を発見したときの様子だけでなく、ユーザが発見対象物の近くで発見対象物を探索している様子を抽出してもよい。具体的には、例えば、サーバ20の制御部203は、カメラ401により測定した発見対象物とユーザとの距離が所定の距離にあり、かつ、ユーザの目線等の情報から、ユーザが発見対象物を発見していないと判定した場合等に、ユーザが発見対象物の近くにいながらも、発見対象物を発見していない、と判定する。または、サーバ20の制御部203は、カメラ401の撮影画像を解析し、人物が所定の大きさを超えて被写体として含まれている場合に、ユーザが発見対象物の近くにいたと判定してもよい。カメラ401が深度センサ等により物体までの距離を計測できる場合は、当該距離の計測結果に基づいて、ユーザが発見対象物の近くにいたと判定してもよい。サーバ20の制御部203は、当該判定に基づいて、当該ユーザの様子を抽出したコンテンツをユーザに提示する。また、撮影画像と発見対象物の対象物IDを対応付けて記憶することで、撮影画像をユーザに提示する際に対象物名を合わせてユーザに提示できる。
これにより、ユーザは、発見対象物の近くにいたのに発見できなかった、という悔しい思いを振り返ることができるとともに、次は見つけたい、という気持ちを醸成する。そのため、イベントへの継続的な参加が期待できる。
また、サーバ20の制御部203は、発見対象物からの距離が一定以上である場合に、カメラ401により撮影された結果をユーザに提示することとしてもよい。ユーザが発見対象物に接近できなかった場合に、発見対象物の位置をユーザに事後的に示唆することができる。
Further, in a certain aspect, the control unit 203 of the server 20 not only captures the state of the user discovering the discovery target from the camera 401, but also the state of the user searching for the discovery target near the discovery target. may be extracted. Specifically, for example, the control unit 203 of the server 20 determines that the distance between the user and the discovery target measured by the camera 401 is a predetermined distance, and that the user detects the discovery target from information such as the user's line of sight. is determined to have not been discovered, it is determined that the user has not discovered the discovery target even though the user is near the discovery target. Alternatively, the control unit 203 of the server 20 analyzes the captured image of the camera 401, and determines that the user was near the discovery target when a person exceeding a predetermined size is included as the subject. good too. If the camera 401 can measure the distance to the object using a depth sensor or the like, it may be determined that the user was near the discovery target based on the distance measurement result. Based on the determination, the control unit 203 of the server 20 presents to the user the content that extracts the state of the user. Further, by storing the photographed image and the object ID of the discovery object in association with each other, when presenting the photographed image to the user, it is possible to present the photographed image together with the object name to the user.
As a result, the user can look back on the frustration of not being able to find an object even though it was near the object to be found, and fosters the desire to find the object next time. Therefore, continuous participation in the event can be expected.
Also, the control unit 203 of the server 20 may present the result of the photographing by the camera 401 to the user when the distance from the discovery object is equal to or greater than a certain distance. If the user has not been able to approach the discovery object, the location of the discovery object can be suggested to the user after the fact.

ある局面において、サーバ20の制御部203は、イベントを通してユーザが発見できた発見対象物と、ユーザが発見できなかった発見対象物に関する情報を取得し、当該情報をコンテンツとともにユーザに提示してもよい。具体的には、サーバ20は、ユーザの端末装置10Aから、ユーザが発見対象物を発見したことの承認を受け付けるための入力操作を受け付け、当該受け付けに基づいて、ユーザが発見対象物を発見したことを判定する。また、サーバ20の制御部203は、イベントごとに設定された制限時間を徒過してもユーザからの入力操作を受け付けていない発見対象物に関しては、イベントにおいてユーザが発見できなかった発見対象物として判定する。その後、サーバ20の制御部203は、ユーザが発見した発見対象物の情報と、ユーザが発見できなかった発見対象物の情報とを、上記コンテンツとともにユーザに提示する。 In one aspect, the control unit 203 of the server 20 acquires information about a discovery target that the user has been able to discover through an event and a discovery target that the user has not been able to discover, and presents the information to the user together with the content. good. Specifically, the server 20 receives an input operation from the terminal device 10A of the user for accepting an acknowledgment that the user has found the discovery target, and based on the acceptance, the user has found the discovery target. to judge. In addition, the control unit 203 of the server 20, regarding a discovery target that has not received an input operation from the user even after the time limit set for each event has passed, Judge as. After that, the control unit 203 of the server 20 presents to the user the information on the discovery target that the user has discovered and the information on the discovery target that the user has not been able to discover, together with the content.

これにより、ユーザは、イベントを通じて撮影された画像等の一部を抽出したコンテンツだけでなく、発見、未発見の発見対象物に関する情報を把握することができる。そのため、一度の参加でどれくらい発見できたのか、または、あとどれくらい発見できていないのか、等を知ることができるため、イベントへのリピート意欲の向上が期待できる。
また、ある局面において、サーバ20の制御部203は、ユーザが発見できなかった発見対象物の情報をユーザに提示する時、当該発見対象物が配置されているエリアに関する情報、例えば、エリアのどの範囲に当該発見対象物が配置されているかを示唆する情報等をヒントとしてユーザに提示してもよい。これにより、ユーザは、当日のイベントにおいて発見できなかった発見対象物が配置されている場所を把握できるため、次回参加時の動き方を事前に検討できる。
As a result, the user can grasp not only content obtained by extracting a part of an image or the like shot through an event, but also information about discovered and undiscovered objects. Therefore, since it is possible to know how many discoveries have been made in a single participation, or how many more have not been discovered, etc., it is expected that the desire to repeat the event will increase.
Further, in a certain aspect, when the control unit 203 of the server 20 presents to the user information on a discovery target that the user has not been able to discover, the control unit 203 provides information on the area in which the discovery target is arranged, for example, which area of the area. Information or the like suggesting whether the discovery target is arranged in the range may be presented to the user as a hint. As a result, the user can grasp the place where the object to be found that could not be found in the event of the day is arranged, so that the user can consider in advance how to move when participating in the next event.

ある局面において、当該ヒント等の情報は、イベントの終了に応じてユーザに提示してもよいし、イベント終了から所定の期間、例えば、数日後等にユーザに提示されてもよい。これにより、イベントの主催者は、イベントの終了時だけでなく、終了後暫く経過してからでも、ユーザにイベントの思い出を振り返るきっかけを提供することができ、ユーザのイベントへのリピート参加を促すことが期待できる。 In a certain aspect, information such as hints may be presented to the user upon completion of the event, or may be presented to the user for a predetermined period of time, such as several days after the completion of the event. As a result, the organizer of the event can provide the user with an opportunity to look back on the event not only at the end of the event, but also after a while after the end of the event, and encourage the user to participate in the event repeatedly. can be expected.

ステップS1352において、サーバ20の制御部203は、イベントの進行の程度に応じて、ユーザの端末装置10Aに対し、撮影された結果を提示する。イベントの進行の程度は、例えば、イベントの終了であり、イベントの終了は、例えば、以下のタイミングである。
・当日に開催される全てのイベントが終了したタイミング
・イベントが開催される各エリアでの探索が終了したタイミング
ここで、各エリアでの探索が終了したタイミングは、例えば、以下である。
・イベントの制限時間が終了したタイミング
・イベントにおいて、制限時間の終了前に、ユーザがエリアに配置されている発見対象物を全て発見したタイミング
In step S1352, the control unit 203 of the server 20 presents the photographed results to the terminal device 10A of the user according to the progress of the event. The progress of the event is, for example, the end of the event, and the end of the event is, for example, the following timing.
- Timing at which all events held on the day have ended - Timing at which searching in each area where the event is held has ended Here, the timing at which searching in each area has ended is, for example, as follows.
・When the event time limit ends ・When the user discovers all the discoverable objects placed in the area before the time limit ends in the event

ステップS1301において、端末装置10Aの制御部190は、提供されたコンテンツをディスプレイ132に表示する等により、ユーザに提示する。 In step S1301, the control unit 190 of the terminal device 10A presents the provided content to the user by displaying it on the display 132 or the like.

図14は、発見対象物が備えるカメラにより、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影した撮影結果と、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した画像を取得し、取得した撮影結果および画像の一部を抽出したコンテンツを、イベントの進行の程度に応じてユーザに提供する処理を表すフローチャートである。 FIG. 14 shows the result of photographing a user in a certain space with a camera included in a discovery target and a part of a plurality of users during a period in which the user participates in an event and searches for the discovery target. obtain images of other users searching for objects to be discovered at the event, and provide the obtained photographing results and content obtained by extracting a part of the images to the users according to the progress of the event. It is a flow chart showing processing.

ステップS1401において、端末装置10Aの制御部190は、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した画像を取得し、サーバに送信する。具体的には、例えば、端末装置10Aは、ユーザの操作により、端末装置10Aのカメラ160等により、他のユーザがイベントの課題、例えば、発見対象物の探索等に取り組んでいる様子の画像を取得する。端末装置10Aは、取得した画像の情報をサーバ20へ送信する。 In step S1401, the control unit 190 of the terminal device 10A acquires an image of another user searching for a discovery target in an event taken by some of a plurality of users, and transmits the image to the server. Specifically, for example, the terminal device 10A, in accordance with the user's operation, uses the camera 160 or the like of the terminal device 10A to display an image of another user working on an event task, for example, searching for a discovery target. get. The terminal device 10</b>A transmits the acquired image information to the server 20 .

ステップS1451において、サーバ20の制御部203は、イベントの進行の程度に応じて、取得した画像および撮影された結果の一部を抽出したコンテンツを提示する。ある局面において、サーバ20の制御部203は、ユーザの端末装置10Aから取得した画像の撮影時刻と、カメラ401から取得した結果の撮影時刻とを関連付けてユーザに提示してもよい。これにより、ユーザは、自分たちがイベントにおいて探索している時に、発見対象物からはこのように見えていた、等を思い出として振り返ることができる。 In step S<b>1451 , the control unit 203 of the server 20 presents content obtained by extracting a part of the obtained image and the photographed result according to the progress of the event. In one aspect, the control unit 203 of the server 20 may associate the shooting time of the image acquired from the user's terminal device 10A with the shooting time of the result acquired from the camera 401 and present them to the user. As a result, the users can look back as memories of what they looked like from the discovered object when they were searching for the event.

<4 画面例>
図15は、発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子を抽出したコンテンツをユーザに提示する画面例を示す。
<4 Screen example>
FIG. 15 shows an example of a screen that presents to the user content obtained by extracting a state in which the user is searching for a discovery target at an event from the results captured by the camera 401 provided on the discovery target.

図15において、コンテンツ1501は、サーバ20の制御部203が、カメラ401により撮影された結果から、ユーザがイベントにおいて、発見対象物の近くで発見対象物を探索している様子を抽出したコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。 In FIG. 15 , content 1501 is content extracted by the control unit 203 of the server 20 from the results captured by the camera 401, showing how the user is searching for a discovery target near the discovery target at an event. show. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like.

ユーザ1503、1504は、それぞれ、役割が「探索」のユーザであり、イベントにおいて、発見対象物を探索しているユーザを示す。コンテンツ1501において、ユーザ1503、1504は、発見対象物を発見しておらず、近くで探索している状況であることを示す。 Users 1503 and 1504 are users whose role is "search", and indicate users who are searching for discovery objects in the event. Content 1501 indicates that users 1503 and 1504 have not found a discovery target and are searching nearby.

コンテンツ1502は、サーバ20の制御部203が、カメラ401により撮影された結果から、ユーザがイベントにおいて、発見対象物を発見したときの様子を抽出したコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。 A content 1502 indicates content extracted by the control unit 203 of the server 20 from the results captured by the camera 401 when the user discovers the discovery target in the event. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like.

ユーザ1503は、コンテンツ1501におけるユーザ1503と同様に、役割が「探索」のユーザである。コンテンツ1502において、ユーザ1503は、発見対象物を発見している。サーバ20の制御部203は、発見対象物に備えられたカメラ401により撮影された結果から、コンテンツ1502のように、当該ユーザ1503が発見対象物を発見したときの様子を抽出する。 A user 1503 is a user whose role is “search”, like the user 1503 in the content 1501 . In content 1502, user 1503 has discovered a discovery target. The control unit 203 of the server 20 extracts the situation when the user 1503 discovers the discovery object, like the content 1502, from the result of the photographing by the camera 401 provided for the discovery object.

図16は、発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子等を抽出したコンテンツを、ユーザがイベントにおいて発見した発見対象物およびユーザが発見できなかった発見対象物の情報等とともにユーザに提示する画面例を示す。 FIG. 16 shows contents extracted from the result of photographing by the camera 401 provided for the discovery object, such as a state in which the user is searching for the discovery object at the event. An example of a screen presented to the user together with information of a discovery target that the user could not find is shown.

図16において、コンテンツ1601、1602は、サーバ20の制御部203が、カメラ401により撮影された結果から、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツを、ユーザがイベントにおいて発見した発見対象物およびユーザが発見できなかった発見対象物の情報等とともにユーザに提示したコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。 In FIG. 16 , contents 1601 and 1602 show how the user is searching for a discovery target near the discovery target at an event, and how the user discovers the target, based on the results captured by the camera 401 by the control unit 203 of the server 20 . The content extracted from the manner in which the object was discovered is presented to the user together with the information of the discovered object discovered by the user at the event and the discovered object the user was not able to discover. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like.

コンテンツ1601は、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツとともに、ユーザが発見した発見対象物に関する情報と、ユーザが発見できなかった発見対象物に関する情報をユーザに提示する。このとき、端末装置10Aの制御部190は、サーバ20からユーザが発見できなかった発見対象物の情報、例えば、名称、配置されている場所を示唆する情報等を取得し、ユーザに提示してもよい。 The content 1601 includes content extracted from an event in which a user searches for a discovery target near the discovery target, a state in which the user discovers the discovery target, and information on the discovery target discovered by the user. , presents the user with information about the found objects that the user has not been able to find. At this time, the control unit 190 of the terminal device 10A acquires from the server 20 the information of the discovery object that the user has not been able to discover, such as the name and the information suggesting the place where it is arranged, and presents it to the user. good too.

これにより、ユーザは、イベントを通じて、自身がどの発見対象物を発見したのか、またはどの発見対象物を発見できていないのか、等をイベントにおけるユーザの探索の様子とともに振り返ることができる。そのため、ユーザは、イベントにおける思い出を鮮明に振り返るたけでなく、次のイベントへの参加意欲を向上させることができる。そのため、イベントへの継続的な参加促進が期待できる。ここで、当該コンテンツは、イベントにおける各エリアの終了に応じてユーザに提示されてもよいし、イベント全体の終了に応じてユーザに提示されてもよい。ある局面において、サーバ20の制御部203は、イベント当日はユーザが発見した発見対象物の情報のみを端末装置10に送信し、イベントから所定の期間経過後に、ユーザが発見できなかった発見対象物の情報を端末装置10に送信してもよい。これにより、イベントの主催者は、イベント終了後でも、ユーザにイベントを振り返る機会を提供することができ、ユーザのイベントへのリピート参加を促すことができる。 As a result, the user can look back on what discovery objects he/she has discovered or which discovery objects he/she has not found through the event, along with the state of the user's search for the event. Therefore, the user can not only look back on the memories of the event vividly, but also be motivated to participate in the next event. Therefore, continuous promotion of participation in the event can be expected. Here, the content may be presented to the user upon completion of each area in the event, or may be presented to the user upon completion of the entire event. In one aspect, the control unit 203 of the server 20 transmits to the terminal device 10 only the information of the discovery object discovered by the user on the day of the event, and after the lapse of a predetermined period from the event, the discovery object that the user could not discover. information may be transmitted to the terminal device 10 . As a result, the organizer of the event can provide the user with an opportunity to look back on the event even after the event ends, and can encourage the user to participate in the event repeatedly.

コンテンツ1602は、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツとともに、ユーザが発見した発見対象物に関する情報と、次のエリアに配置されている発見対象物に関する情報をユーザに提示する。このとき、端末装置10Aの制御部190は、サーバ20から次のエリアに配置されている発見対象物の情報、例えば、名称等を取得し、ユーザに提示してもよい。このとき、端末装置10Aの制御部190は、当該発見対象物を、シルエット等で表示してもよい。 The content 1602 includes content extracted from a scene in which the user is searching for the discovery target near the discovery target at an event, a scene in which the user discovers the discovery target, and information on the discovery target discovered by the user. , presents the user with information about the found objects located in the next area. At this time, the control unit 190 of the terminal device 10A may acquire information, such as the name, of the discovery target placed in the next area from the server 20 and present it to the user. At this time, the control unit 190 of the terminal device 10A may display the discovery target as a silhouette or the like.

これにより、ユーザは、例えば、次のエリアに配置されている発見対象物のシルエットのみが表示された場合には、発見対象物の詳細を予測しながら次のエリアに取り組むことができ、イベントの興趣性が向上する。 This allows the user to work on the next area while anticipating the details of the discovery object, for example, if only the silhouette of the discovery object located in the next area is displayed, and the event's Improves interest.

図17は、発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子等を抽出したコンテンツを、ユーザがイベントにおいて他のユーザがイベントの課題に取り組む様子を撮影した画像の一部を抽出したコンテンツとともにユーザに提示する画面例を示す。 FIG. 17 shows content extracted by a user searching for a discovery target at an event from the results captured by the camera 401 provided for the discovery target, and showing the content extracted by the user at the event. An example of a screen that is presented to the user together with content extracted from a part of an image of a person working on a task is shown.

図17において、コンテンツ1701は、サーバ20の制御部203は、例えば、下記コンテンツをユーザに提示する。
・カメラ401により撮影された結果から、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツ
・ユーザがイベントにおいて他のユーザがイベントの課題に取り組む様子を撮影した画像の一部を抽出したコンテンツ
端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。ある局面において、端末装置10Aの制御部190は、サーバ20から、図15、および図16において例示した、ユーザがイベントにおいて発見した発見対象物、またはユーザが発見できなかった発見対象物の情報を取得し、当該コンテンツとともにユーザに提示してもよい。
In FIG. 17, as content 1701, the control unit 203 of the server 20 presents the following content to the user, for example.
・Content extracted from the results captured by the camera 401, such as how the user searches for the discovery target near the discovery target at the event, how the user discovers the discovery target, etc. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like. In one aspect, the control unit 190 of the terminal device 10A receives from the server 20 the information of the discovered object discovered by the user at the event or the discovered object that the user could not discover, as illustrated in FIGS. 15 and 16. It may be obtained and presented to the user along with the content.

これにより、ユーザは、一つのコンテンツから、イベントにおける様々な思い出を振り返ることができる。そのため、ユーザはより一層イベントが楽しかった、等の思い出が深くなり、また参加したい、等イベントのリピート参加の促進が期待できる。 This allows the user to look back on various memories of the event from one piece of content. Therefore, it can be expected that the user will have deeper memories of the event, such as having fun at the event, and will want to participate in the event again.

<第3の実施の形態>
第2の実施形態では、現実の世界において実施されるイベントにおいて、一定空間内に配置されている発見対象物に備えられたカメラにより、当該発見対象物を探索、または発見したユーザの画像を撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明した。
第3の実施形態では、現実の世界において実施されるイベントにおいて、ユーザからイベントの課題の進行状況に応じた入力操作を受け付け、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果をユーザに提示する技術について説明する。
なお、第3の実施形態では、イベントに参加するユーザは必ずしも複数人である必要はなく、ユーザ一人で参加する場合があってもよい。ユーザは、複数のユーザでチームを組んでイベントの課題に取り組むだけでなく、個人でイベントの課題に取り組んでもよい。これにより、ユーザは、ユーザ同士で課題への取り組み状況を他のユーザと競いあうことができる。また、イベントの主催者も、個人で参加しているユーザに対し、特定の報酬等(イベントを有利に進められるアイテム等)を提示してもよい。
<Third Embodiment>
In the second embodiment, at an event held in the real world, a camera attached to a discovery target placed in a certain space captures an image of a user who searches for or discovers the discovery target. Then, in response to the progress of the event, the technique of providing the user with content obtained by extracting a part of the photographed image has been described.
In the third embodiment, in an event held in the real world, an input operation is received from the user according to the progress of the task of the event, and the user advances the task of the event according to the end of the event. is presented to the user.
Note that in the third embodiment, the number of users who participate in the event does not necessarily have to be plural, and a single user may participate. A user may not only form a team with a plurality of users to work on the task of the event, but may work on the task of the event individually. As a result, users can compete with other users in terms of how they are working on the task. Also, the organizer of the event may present a specific reward or the like (item or the like that allows the event to proceed favorably) to users participating individually.

第3の実施形態において、端末装置10Aは、イベントの課題の進行状況に応じて、ユーザから所定の入力操作を受け付ける。具体的には、例えば、ユーザがイベントにおいて発見対象物を発見した時に、発見したことの承認を受け付けるための入力操作である。当該操作により、ユーザは、イベントにおいて発見対象物を発見したことを承認される。端末装置10Aは、当該承認のための入力操作を受け付けたことを、サーバ20に送信する。サーバ20は、端末装置10Aから取得した承認情報に基づいて、ユーザが発見対象物を発見したことを記憶部202に記憶する。
その後、サーバ20は、イベントの終了に応じて、ユーザから承認のための入力操作を受け付けた発見対象物を、ユーザが発見した発見対象物として、当該入力操作を受け付けなかった発見対象物を、ユーザが発見できなかった発見対象物として端末装置10Aに提示する。端末装置10Aは、これらの情報をユーザに提示する。
In the third embodiment, the terminal device 10A receives a predetermined input operation from the user according to the progress of the task of the event. Specifically, for example, when the user discovers a discovery target in an event, it is an input operation for accepting approval of the discovery. By this operation, the user is acknowledged to have discovered the discovery target in the event. The terminal device 10A transmits to the server 20 that the input operation for the approval has been accepted. The server 20 stores in the storage unit 202 that the user has discovered the discovery target based on the approval information acquired from the terminal device 10A.
After that, in response to the end of the event, the server 20 regards the discovered object for which the input operation for approval has been received from the user as the discovered object discovered by the user, and the discovered object for which the input operation has not been received as the discovered object. It is presented to the terminal device 10A as a discovery object that the user could not discover. The terminal device 10A presents these pieces of information to the user.

これにより、ユーザは、イベントの終了に応じて、自身のイベントにおける成果を、成績表のように確認することができる。そのため、ユーザは、エリアに配置されている発見対象物の総数よりも、発見した数が少ない、あと少しで全ての発見対象物を発見できた、等を振り返ることができ、更なるイベント参加への意欲の向上が期待できる。 This allows the user to check the results of his/her own event like a report card upon completion of the event. Therefore, the user can look back on the fact that the number of discovered objects is smaller than the total number of discovered objects arranged in the area, or that all the discovered objects are almost discovered, etc., and is encouraged to further participate in the event. can be expected to improve the motivation of

<3 動作>
図18は、現実の世界において実施されるイベントにおいて、ユーザからイベントの課題の進行状況に応じた入力操作を受け付け、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果をユーザに提示する処理を表すフローチャートである。
<3 Operation>
FIG. 18 shows an event held in the real world, in which an input operation is received from the user according to the progress of the task of the event, and when the event ends, the result of the progress of the task of the event by the user is sent to the user. It is a flow chart showing processing to show.

ステップS1801において、端末装置10Aの制御部190は、ユーザにより、イベントの課題の進行状況に応じた入力操作として、発見対象物を発見したことの承認のための入力操作を受け付ける。端末装置10Aの制御部190は、受け付けた結果を、サーバ20に送信する。具体的には、例えば、端末装置10Aの制御部190は、カメラ160等により、発見対象物を撮影し、当該撮影した画像をサーバ20に送信する。サーバ20の制御部203は、受け付けた画像に基づいて、ユーザが当該発見対象物を発見したことを承認する。サーバ20は、当該承認のための入力操作を受け付けた発見対象物を、ユーザが発見した発見対象物とし、イベントの制限時間内で、当該操作を受け付けていない発見対象物を、ユーザが発見できなかった発見対象物として判定してもよい。 In step S1801, the control unit 190 of the terminal device 10A receives an input operation for acknowledging that the discovery target has been found, as an input operation according to the progress of the task of the event by the user. The control unit 190 of the terminal device 10A transmits the accepted result to the server 20 . Specifically, for example, the control unit 190 of the terminal device 10</b>A captures an image of the discovery target using the camera 160 or the like, and transmits the captured image to the server 20 . The control unit 203 of the server 20 approves that the user has found the discovery target based on the received image. The server 20 treats the discovery object for which the input operation for approval has been accepted as the discovery object discovered by the user, and the user cannot discover the discovery object for which the operation has not been accepted within the time limit of the event. It may be determined as a found object that was not found.

ステップS1851において、サーバ20の制御部203は、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果として、ユーザからの承認のための入力操作を受け付けた発見対象物の情報と、ユーザからの承認のための入力操作を受け付けていない発見対象物の情報と、をともにユーザに提示する。イベントの終了は、以下のタイミングである。
・当日に開催される全てのイベントが終了したタイミング
・イベントが開催される各エリアでの探索が終了したタイミング
ここで、各エリアでの探索が終了したタイミングは、例えば、以下である。
・イベントの制限時間が終了したタイミング
・イベントにおいて、制限時間の終了前に、ユーザがエリアに配置されている発見対象物を全て発見したタイミング
In step S<b>1851 , the control unit 203 of the server 20 receives discovery target information for which an input operation for approval from the user has been received as a result of the user progressing the task of the event in response to the end of the event; and information of a discovery target for which an input operation for approval from the user has not been accepted. The end of the event is the following timing.
- Timing at which all events held on the day have ended - Timing at which searching in each area where the event is held has ended Here, the timing at which searching in each area has ended is, for example, as follows.
・When the event time limit ends ・When the user discovers all the discoverable objects placed in the area before the time limit ends in the event

ステップS1802において、端末装置10Aの制御部190は、提示された結果をディスプレイ132に表示する等により、ユーザに提示する。 In step S1802, the control unit 190 of the terminal device 10A presents the presented result to the user by displaying it on the display 132 or the like.

これにより、サーバ20は、イベントの終了とともに、イベントにおけるユーザの成果をユーザに視認させることができる。そのため、ユーザは、イベントにおける自身の行動を反芻し、次のイベントへの参加意欲を高めることができる。
ある局面において、サーバ20は、他のユーザ、または、発見対象物に備えられたカメラ401により撮影された、ユーザがイベントの課題に取り組んでいる様子、発見対象物を発見した時の様子等をイベントにおけるユーザの成果とともにユーザに提示してもよい。また、サーバ20は、ユーザが発見できなかった発見対象物が配置されているエリアを示唆する情報等を、イベントにおけるユーザの成果とともにユーザに提示してもよい。
As a result, the server 20 can allow the user to visually recognize the user's achievement in the event when the event ends. Therefore, the user can reflect on his/her behavior in the event and increase his or her desire to participate in the next event.
In a certain aspect, the server 20 captures images taken by other users or by the camera 401 provided to the discovery target, such as how the user is working on the task of the event, how the discovery target is discovered, and the like. It may be presented to the user along with the user's achievements in the event. In addition, the server 20 may present to the user, together with the user's achievements in the event, information suggesting an area where the object to be found that the user could not discover is located.

<4 画面例>
図19は、イベントの終了に応じて、ユーザが発見した発見対象物とユーザが発見できなかった発見対象物に関する情報とをユーザに提示する画面例を示す。
<4 Screen example>
FIG. 19 shows an example of a screen that presents to the user information about discovery objects that the user has discovered and discovery objects that the user has not been able to discover, in response to the end of the event.

図19において、コンテンツ1901は、サーバ20の制御部203が、イベントの終了に応じて、イベントにおいてユーザが発見した発見対象物およびユーザが発見できなかった発見対象物に関する情報をユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。ある局面において、サーバ20は、ユーザが発見した、または発見できなかった発見対象物の情報を、一覧の形式でユーザに提示しても良いし、異なる表示態様でユーザに提示してもよい。異なる表示態様は、例えば、ユーザが発見した発見対象物とユーザが発見できなかった発見対象物とを、異なるタブ、ウィンドウ等で表示する、ユーザが発見できなかった発見対象物のみシルエットで表示する、等であり、限定されない。 In FIG. 19, the content 1901 is for the control unit 203 of the server 20 to present to the user, upon completion of the event, information about the object discovered by the user in the event and the object discovered by the user that the user could not discover. shows the content of . The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like. In one aspect, the server 20 may present the information of the discovery target that the user has discovered or failed to discover to the user in the form of a list, or may present it to the user in a different display mode. Different display modes include, for example, displaying the discovery target found by the user and the discovery target not found by the user in different tabs or windows, or displaying only the discovery target not found by the user in silhouette. , etc., without limitation.

これにより、ユーザは、イベントにおいて発見した発見対象物と発見できなかった発見対象物とをともに把握することができる。そのため、あとどれくらい発見していれば、全ての発見対象物を発見できていたかを知ることができ、次のイベント参加への意欲を向上させることが期待できる。 Thereby, the user can grasp both the discovery target found in the event and the discovery target not found. Therefore, it is possible to know how much longer it would take to discover all of the objects to be discovered, which can be expected to increase motivation to participate in the next event.

図20は、イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツ等とともに、ユーザに提示する画面例を示す。 FIG. 20 shows, in accordance with the end of the event, information about the discovery target that the user could not find, information suggesting the area in which the discovery target is located, and one of the images taken by the discovery target. An example of a screen to be presented to the user is shown together with the content extracted from the part.

図20において、コンテンツ2001、2002は、サーバ20の制御部203が、イベントの終了に応じて、イベントにおいてユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツ等とともにユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
例えば、コンテンツ2001では、イベントにおいてユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報とともにユーザに提示する。また、コンテンツ2002では、イベントにおいてユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツとともにユーザに提示する。ある局面において、当該コンテンツは、イベントを実施した当日の提示に限定されず、イベント終了から所定の期間が経過した後にユーザに提示されてもよい。
In FIG. 20, contents 2001 and 2002 are generated by the control unit 203 of the server 20, upon completion of the event, by adding information about the discovery target that the user could not find in the event to the area where the discovery target is located. and content to be presented to the user together with content obtained by extracting a part of the image captured by the object to be discovered. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like.
For example, in the content 2001, the user is presented with information about a discovered object that the user could not discover in the event, along with information suggesting the area where the discovered object is located. In addition, in the content 2002, information about the discovery target that the user could not discover at the event, information suggesting the area where the discovery target is located, and part of the image taken by the discovery target are extracted. presented to the user with the content In one aspect, the content is not limited to being presented on the day the event is held, and may be presented to the user after a predetermined period of time has passed since the end of the event.

これにより、ユーザは、イベント終了後に、発見できなかった発見対象物の配置されている場所について、当日の行動を振り返りながら推測することができる。そのため、ユーザは、次イベントに参加する際の動き方を事前に計画し、結果的に、イベントへの継続的な参加促進が期待できる。 As a result, after the event ends, the user can guess the location of the undiscovered object to be found, while looking back on the activity of the day. Therefore, the user can plan in advance how to move when participating in the next event, and as a result, it can be expected that continuous participation in the event will be promoted.

図21は、イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、およびユーザの当該エリアにおける行動範囲の情報とともに、ユーザに提示する画面例を示す。 FIG. 21 shows, in accordance with the end of the event, information about a discovery target that the user has not been able to discover, along with information suggesting the area where the discovery target is located, and information on the user's activity range in that area. , shows an example of a screen presented to the user.

図21において、コンテンツ2101は、サーバ20の制御部203が、イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、およびユーザの当該エリアにおける行動範囲の情報とともにユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
例えば、サーバ20は、端末装置10Aの位置情報センサ150から、ユーザがイベントにおいて行動した範囲に関する情報を取得する。その後、サーバ20の制御部203は、取得した位置情報に基づいて、ユーザの行動範囲を、イベントにおけるエリアの地図等に重畳したコンテンツを作成し、ユーザに提示してもよい。
In FIG. 21, the control unit 203 of the server 20, upon completion of the event, displays information about the discovery object that the user could not discover, and information suggesting the area where the discovery object is located. , and content to be presented to the user together with information on the user's range of activity in the area. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like.
For example, the server 20 acquires information about the range in which the user acted in the event from the position information sensor 150 of the terminal device 10A. After that, based on the acquired position information, the control unit 203 of the server 20 may create content in which the user's action range is superimposed on a map or the like of the area of the event, and present the content to the user.

これにより、ユーザは、イベントにおいて発見できなかった発見対象物が配置されているエリアの情報と、当該エリアにおける自身の行動範囲とを比較することができる。そのため、ユーザは、次回挑戦時には、異なる行動範囲で探索をするように計画することができ、イベントへの継続的な参加を促すことができる。 Thereby, the user can compare the information of the area in which the object to be found that could not be found in the event is located and the range of action of the user in the area. Therefore, the user can plan to search in a different range of action the next time he/she challenges, and can encourage continuous participation in the event.

図22は、ユーザが発見した発見対象物に関する情報に、イベントの終了から所定の期間経過後に、次のイベントで追加される予定の発見対象物の情報、当該次のイベントにおける新たな課題等の情報を追加し、ユーザに提示する画面例を示す。 FIG. 22 shows information on discovery objects discovered by the user, information on discovery objects scheduled to be added at the next event after a predetermined period of time has passed since the end of the event, new issues at the next event, and the like. Here is an example of a screen where information is added and presented to the user.

図22において、コンテンツ2201は、サーバ20の制御部203が、ユーザが発見した発見対象物に関する情報に、イベントの終了から所定の期間経過後に、次のイベントで追加される予定の発見対象物の情報、当該次のイベントにおける新たな課題等の情報を追加し、ユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。具体的には、サーバ20の制御部203は、記憶部202に保持されている次のイベントに追加される予定の発見対象物の情報に基づいて、当該コンテンツを提示する。他にも、サーバ20の制御部203は、例えば、下記の操作等に応答して、ユーザに停止コンテンツを提示してもよい。
・イベント管理者が新しいイベントにおいて追加される発見対象物に関する情報をデータベースに追加する操作
・記憶部202に保持しているイベントにおいて、新たな発見対象物に関する情報を、イベント管理者がフラグ操作等で追加する操作
サーバ20の制御部203は、上記操作により追加された発見対象物の情報を含めたコンテンツをユーザに提示する。
In FIG. 22, content 2201 is information about a discovery target that the control unit 203 of the server 20 adds to information about a discovery target discovered by the user after a predetermined period of time has passed since the end of the event. Add information such as information and new challenges for the next event, and indicate the content to present to the user. The control unit 190 of the terminal device 10A presents the content to the user by displaying it on the display 132 or the like. Specifically, the control unit 203 of the server 20 presents the content based on the information of the discovery object scheduled to be added to the next event held in the storage unit 202 . Alternatively, the control unit 203 of the server 20 may present the stop content to the user, for example, in response to the following operations.
An operation by the event manager to add information about the object to be discovered added in the new event to the database. Operation to add by The control unit 203 of the server 20 presents to the user the content including the information of the discovery object added by the above operation.

ある局面において、サーバ20の制御部203は、イベント管理者からユーザに対する通知を送信するための入力操作を受け付けることに応答し、過去にイベントに参加したユーザに対し、当該ユーザのイベントにおける進行状況の情報とともに、次のイベントに関する通知を行ってもよい。当該通知は、イベント当日に限らず、イベントから所定の期間が経過した後行われてもよい。また、サーバ20の制御部203は、当該通知を、イベント管理者からの通知を送信するための入力操作を受け付けずとも、イベント管理者が上記追加する操作をしたことに応答して、自動でユーザに通知を送信してもよい。 In one aspect, the control unit 203 of the server 20 responds to an event administrator's input operation for sending a notification to a user, and informs a user who has participated in the event in the past of the progress of the event. Along with information about: The notification may be made not only on the day of the event but also after a predetermined period of time has passed since the event. In addition, the control unit 203 of the server 20 automatically generates the notification in response to the event administrator's operation to add the notification, even if the input operation for sending the notification from the event administrator is not accepted. A notification may be sent to the user.

これにより、ユーザは、イベントが終了した後でも、次のイベントに関する情報を得ることでき、改めてイベント当日の様子を振り返ることができる。そのため、イベントを通じた一連の体験を何度も追体験することができる。また、次のイベントにおいて追加される発見対象物の情報、次のイベントにおいて提示される課題の情報を得ることで、ユーザは次のイベントへの参加意欲が向上する。そのため、イベントへの継続的な参加促進が期待できる。 Thereby, even after the event ends, the user can obtain information about the next event and can look back on the state of the event day. Therefore, the series of experiences through the event can be relived many times. In addition, by obtaining the information on the discovery target to be added at the next event and the information on the task to be presented at the next event, the user will be more motivated to participate in the next event. Therefore, continuous promotion of participation in the event can be expected.

<5 変形例>
本実施形態の変形例について説明する。すなわち、以下のような態様を採用してもよい。
(1)情報処理装置であって、このプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。
(2)方法であって、コンピュータを情報処理装置として機能させ、当該情報処理装置に、このプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。
<5 Modifications>
A modification of this embodiment will be described. That is, the following aspects may be adopted.
(1) It is an information processing device, and this program may be installed in advance, may be installed after the fact, or may be stored in an external non-temporary storage medium. Or you can run it on cloud computing.
(2) A method in which a computer functions as an information processing device, and the program may be installed in the information processing device in advance or may be installed afterward, or such a program may be installed in the information processing device. It may be stored in an external non-temporary storage medium, or may be operated by cloud computing.

一連の実施形態において、サーバ20の制御部が、端末装置10Aまたは発見対象物に備えられたカメラ401から取得した画像等を解析する処理として、既存の画像解析等を利用する方法を説明した。しかし、画像解析の方法は、これに限られない。例えば、サーバ20は、記憶部202に、所定の学習済みモデルを学習させており、端末装置10、またはカメラ401から取得した画像等と、当該学習済みモデルに基づいて、当該画像等の一部を抽出したコンテンツを作成してもよい。ここで、サーバ20は、イベントにおいて配置されている発見対象物の情報、複数の人の表情、音声、仕草等と感情とを関連付けた情報等を学習させており、取得した画像等において、当該学習済みモデルに基づいて、当該画像などの一部を抽出してもよい。 In the series of embodiments, the method of using existing image analysis or the like as the process of analyzing the image or the like acquired by the control unit of the server 20 from the camera 401 provided on the terminal device 10A or the discovery target has been described. However, the image analysis method is not limited to this. For example, the server 20 causes the storage unit 202 to learn a predetermined trained model, and an image or the like acquired from the terminal device 10 or the camera 401 and a part of the image or the like based on the trained model. You may create a content that extracts the . Here, the server 20 learns information of objects to be discovered arranged at the event, information that associates the facial expressions, voices, gestures, etc. of a plurality of people with emotions, and the like. A portion of the image or the like may be extracted based on the learned model.

ユーザに提示するコンテンツは、一連の実施形態で例示したコンテンツ同士を組み合わせたコンテンツであってもよく、各実施形態において例示した画面例の組み合わせに限定されない。例えば、第1の実施形態において、複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像をユーザに提示する時に、ユーザの行動範囲の情報等をともに提示してもよい。また、ユーザに提示されるコンテンツは、端末装置のディスプレイに表示されるデジタルデータでも良いし、当該情報に基づいて、印刷紙等にプリントされて出力されたものでもよい。 The content to be presented to the user may be a combination of the contents illustrated in the series of embodiments, and is not limited to the combination of screen examples illustrated in each embodiment. For example, in the first embodiment, when presenting to the user an image of another user working on an event task by some of a plurality of users, information on the user's range of action, etc. may be presented. Also, the content presented to the user may be digital data displayed on the display of the terminal device, or may be printed out on printed paper or the like based on the information.

<6 付記>
以上の各実施形態で説明した事項を以下に付記する。
<6 Notes>
The items described in the above embodiments will be added below.

(付記1)
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータ20を動作させるためのプログラムであって、発見対象物は、前記一定空間内を撮影するためのカメラ401を備えており、プログラムは、コンピュータ20のプロセッサ29に、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラ401により撮影させるステップ(S1351)と、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップ(S1352)と、を実行させる、プログラム。
(Appendix 1)
A program for operating a computer 20 that supports the progress of an event to search for a discovery target installed in a certain space in the real world, wherein the discovery target is a camera for photographing the inside of the certain space. 401, the program causes the processor 29 of the computer 20 to photograph the user in a certain space with the camera 401 during the period when the user participates in the event and searches for the discovery target (S1351); A program for executing a step (S1352) of acquiring a photographed result and presenting the photographed result to the user according to the progress of the user's event.

(付記2)
探索する期間は、ユーザがイベントにおいて探索を開始した時刻を基準として、所定の期間を経過するまでの期間である、付記1に記載のプログラム。(段落0155~段落0167)
(Appendix 2)
The program according to appendix 1, wherein the search period is a period from a time when the user starts searching in the event until a predetermined period elapses. (Paragraph 0155-Paragraph 0167)

(付記3)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、撮影された結果をユーザに提示する、付記1または2に記載のプログラム。(段落0155~段落0167)
(Appendix 3)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 3. A program according to any one of the appendices 1 or 2, for presenting the photographed result to the user in response. (Paragraph 0155-Paragraph 0167)

(付記4)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、イベントにおいてユーザが発見できなかった発見対象物の情報とともに、撮影された結果をユーザに提示する、付記3に記載のプログラム。(段落0155~段落0167)
(Appendix 4)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 3. The program according to appendix 3, for presenting the photographed results to the user along with the information of the discovered objects that the user could not discover in the event, in response. (Paragraph 0155-Paragraph 0167)

(付記5)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、イベントにおいてユーザが発見できなかった発見対象物が設置されている位置を示唆する情報とともに、撮影された結果をユーザに提示する、付記3または4に記載のプログラム。(段落0155~段落0167)
(Appendix 5)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 5. The program according to appendix 3 or 4, for presenting the photographed result to the user together with information suggesting the position where the object to be discovered that the user could not discover in the event is installed. (Paragraph 0155-Paragraph 0167)

(付記6)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、イベントにおいてユーザが発見した発見対象物に関する画像とともに、撮影された結果を提示する、付記3から5のいずれかに記載のプログラム。(段落0155~段落0167、段落0176~段落0181)
(Appendix 6)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 6. The program according to any one of appendices 3 to 5, which, in response, presents the photographed result together with the image relating to the object discovered by the user at the event. (Paragraph 0155 to Paragraph 0167, Paragraph 0176 to Paragraph 0181)

(付記7)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、所定のエリアの次にユーザが探索するエリアに設置された発見対象物の一部の情報とともに、撮影された結果を提示する、付記3から6のいずれかに記載のプログラム。(段落0177~段落0182)
(Appendix 7)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 7. The program according to any one of appendices 3 to 6, which presents the photographed result together with some information of the discovery target installed in the area to be searched by the user next to the predetermined area. (Paragraph 0177 to Paragraph 0182)

(付記8)
プログラムは、プロセッサ29に、さらに、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した動画または静止画を取得するステップ(S1401)を実行させ、イベントの進行の程度として、探索する期間が終了することに応じて、動画または静止画、および発見対象物に備えられたカメラ401により撮影された結果の一部を抽出したコンテンツを提示する(S1451)、付記3から7のいずれかに記載のプログラム。
(Appendix 8)
The program further causes the processor 29 to acquire a moving image or a still image taken by some of the plurality of users of other users searching for the discovery target at the event (S1401). , as the degree of progress of the event, depending on the end of the search period, present a content that extracts a part of the result captured by the camera 401 equipped with the camera 401 provided to the discovery target ( S1451), the program according to any one of Appendices 3 to 7.

(付記9)
コンテンツは、動画または静止画、および発見対象物に備えられたカメラ401により撮影された結果の一部を抽出したハイライト動画またはハイライト画像であり、提示するステップ(S1351)において、イベントの進行の程度として、探索する期間が終了することに応じて、動画または静止画、および発見対象物に備えられたカメラ401により撮影された結果が撮影された時間に関する情報とともに、コンテンツをユーザに提示する、付記8に記載のプログラム。(段落0183~段落0185)
(Appendix 9)
The content is a moving image or still image, and a highlight moving image or highlight image obtained by extracting a part of the results captured by the camera 401 provided to the discovery object. As the degree of , the content is presented to the user along with the information on the time when the video or still image and the result captured by the camera 401 provided for the discovery target were captured according to the end of the search period. , Appendix 8. (Paragraph 0183-Paragraph 0185)

(付記10)
プログラムは、プロセッサ29に、さらに、ユーザから、ユーザの端末10Aにおいて、発見対象物を発見したことの承認を受けるための入力操作を受け付けることに応答して、ユーザが発見対象物を発見したと判定するステップを実行させる、付記1から9のいずれかに記載のプログラム。(段落0135~段落0141)
(Appendix 10)
The program further instructs the processor 29 that the user has found the discovery object in response to receiving an input operation from the user at the user's terminal 10A for receiving approval that the discovery object has been found. 10. The program according to any one of Appendices 1 to 9, causing the step of determining to be executed. (Paragraph 0135 to Paragraph 0141)

(付記11)
前記提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間内において、判定するステップにおいてユーザが発見対象物を発見したことを判定したことに応答して、一定空間内にいるユーザをカメラにより撮影した結果をユーザに提示する、付記10に記載のプログラム。(段落0158)
(Appendix 11)
In the step of presenting (S1352), the program determines that the user has found the discovery target in the determining step as the degree of progress of the event, within a certain space 11. The program according to appendix 10, which presents to the user a result of photographing the user in the room with a camera. (Paragraph 0158)

(付記12)
提示するステップ(S1352)において、プログラムは、ユーザが発見したと判定された発見対象物に備えられたカメラ401により撮影された結果を、ユーザが発見したと判定された発見対象物に関する情報とともにユーザに提示する、付記10に記載のプログラム。(段落0155~段落0168)
(Appendix 12)
In the presenting step (S1352), the program causes the user to view the result photographed by the camera 401 attached to the discovery object determined to have been discovered by the user together with information on the discovery object determined to have been discovered by the user. 11. The program of Appendix 10, provided to . (Paragraph 0155-Paragraph 0168)

(付記13)
プログラムは、プロセッサ29に、さらに、判定するステップにおいて、一定空間内に設置された全ての発見対象物をユーザが発見したと判定した場合に、探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させるステップを実行させる、付記10に記載のプログラム。(段落0155~段落0168)
(Appendix 13)
The program further instructs the processor 29, in the determining step, if it is determined that the user has found all the discovery objects installed in the certain space, without waiting for the end of the search period, a predetermined event in the event 11. The program according to appendix 10, causing execution of the step of terminating the search action of the area of . (Paragraph 0155-Paragraph 0168)

(付記14)
プログラムは、プロセッサ29に、さらに、発見対象物に備えられたカメラ401により撮影された結果に含まれるユーザの表情または音声の少なくとも1つを解析し、解析結果に基づいてユーザの特定の感情を判定するステップを実行させ、提示するステップ(S1352)において、判定した前記特定の感情に基づいて、撮影された結果をユーザに提示する、付記1から13のいずれかに記載のプログラム。(段落0155~段落0168)
(Appendix 14)
The program further instructs the processor 29 to analyze at least one of the user's facial expression or voice included in the results captured by the camera 401 provided to the discovery object, and to determine the user's specific emotion based on the analysis result. 14. The program according to any one of appendices 1 to 13, wherein, in the step of executing and presenting the determining step (S1352), a photographed result is presented to the user based on the determined specific emotion. (Paragraph 0155-Paragraph 0168)

(付記15)
プログラムは、プロセッサ29に、さらに、発見対象物に備えられたカメラ401によりユーザの目線または発見対象物とユーザとの距離の少なくとも1つに関する情報を取得するステップを実行させ、提示するステップ(S1352)において、判定した感情と、取得したユーザの目線または発見対象物とユーザとの距離の少なくとも1つに関する情報とに基づいて、撮影された結果をユーザに提示する、付記1から14のいずれかに記載のプログラム。(段落0155~段落0168)
(Appendix 15)
The program further causes the processor 29 to execute a step of acquiring information on at least one of the user's line of sight or the distance between the user and the discovery target using the camera 401 provided on the discovery target, and the step of presenting (S1352 ), presenting the photographed result to the user based on the determined emotion and the obtained information regarding at least one of the user's line of sight or the distance between the user and the discovered object. program described in . (Paragraph 0155-Paragraph 0168)

(付記16)
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータ20を動作させるための方法であって、発見対象物は、一定空間内を撮影するためのカメラ401を備えており、方法は、コンピュータ20のプロセッサ29が、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラ401により撮影させるステップ(S1351)と、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップ(S1352)と、を実行する、方法。
(Appendix 16)
In the real world, a method for operating a computer 20 that supports the progress of an event to search for a discovery object installed in a certain space, wherein the discovery object is a camera 401 for photographing the inside of a certain space. The method includes a step of causing the processor 29 of the computer 20 to photograph the user in a certain space with the camera 401 during the period in which the user participates in the event and searches for the discovery object (S1351); obtaining the photographed results and presenting the photographed results to the user according to the progress of the user's event (S1352).

(付記17)
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援する、制御部203を備えた情報処理装置20であって、発見対象物は、一定空間内を撮影するためのカメラ401を備えており、情報処理装置20は、前記制御部203が、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラ401により撮影させるステップ(S1351)と、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップ(S1352)と、を実行する、情報処理装置20。
(Appendix 17)
In the real world, an information processing apparatus 20 including a control unit 203 that supports the progress of an event to search for a discovery target installed in a certain space, and the discovery target is to photograph the inside of the certain space. The information processing apparatus 20 causes the control unit 203 to photograph the user in a certain space with the camera 401 during the period in which the user participates in the event and searches for a discovery target ( S1351) and a step of acquiring the photographed result and presenting the photographed result to the user according to the progress of the user's event (S1352).

10 端末装置、12 通信インタフェース、13 入力装置、14 出力装置、15 メモリ、16 記憶部、19 プロセッサ、20 サーバ、22 通信インタフェース、23 入出力インタフェース、25 メモリ、26 ストレージ、29 プロセッサ、40 発見対象物、80 ネットワーク、181 ユーザ情報、191 入力操作受付部、192 送受信部、193 データ処理部、194 報知制御部、132 ディスプレイ、150 位置情報センサ、160 カメラ、281 イベント情報データベース、282 参加者情報データベース、283 対象物情報データベース、284 ヒント情報データベース、285 イベント履歴データベース、401 カメラ、2041 受信制御モジュール、2042 送信制御モジュール、2043 イベント情報取得モジュール、2044 参加者情報取得モジュール、2045 対象物情報取得モジュール、2046 ヒント情報取得モジュール、2047 対象物表示モジュール、2048 ヒント提示モジュール、2049 承認受付モジュール。



10 terminal device, 12 communication interface, 13 input device, 14 output device, 15 memory, 16 storage unit, 19 processor, 20 server, 22 communication interface, 23 input/output interface, 25 memory, 26 storage, 29 processor, 40 discovery target object 80 network 181 user information 191 input operation reception unit 192 transmission/reception unit 193 data processing unit 194 notification control unit 132 display 150 position information sensor 160 camera 281 event information database 282 participant information database , 283 object information database, 284 hint information database, 285 event history database, 401 camera, 2041 reception control module, 2042 transmission control module, 2043 event information acquisition module, 2044 participant information acquisition module, 2045 object information acquisition module, 2046 hint information acquisition module, 2047 object display module, 2048 hint presentation module, 2049 approval reception module.



Claims (17)

現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータを動作させるためのプログラムであって、
前記発見対象物は、前記一定空間内を撮影するためのカメラを備えており、
前記プログラムは、前記コンピュータのプロセッサに、
前記イベントにユーザが参加して前記発見対象物を探索する期間において、前記一定空間内にいる前記ユーザを前記カメラにより撮影させるステップと、
前記撮影された結果を取得して、前記ユーザの前記イベントの進行の程度に応じて、前記ユーザに前記撮影された結果を提示するステップと、を実行させる、プログラム。
A program for operating a computer that supports the progress of an event to search for a discovery target installed in a certain space in the real world,
The object to be discovered has a camera for photographing the fixed space,
The program causes the processor of the computer to:
causing the camera to photograph the user in the certain space during a period in which the user participates in the event and searches for the discovery target;
a step of acquiring the photographed result and presenting the photographed result to the user according to the degree of progress of the event by the user.
前記探索する期間は、前記ユーザが前記イベントにおいて前記探索を開始した時刻を基準として、所定の期間を経過するまでの期間である、請求項1に記載のプログラム。 2. The program according to claim 1, wherein said search period is a period until a predetermined period elapses from a time when said user starts said search in said event. 前記提示するステップにおいて、前記プログラムは、
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記撮影された結果を前記ユーザに提示する、請求項1または2に記載のプログラム。
In the presenting step, the program
As the degree of progress of the event, the photographed image is taken in response to the end of the searching period, or the search action of a predetermined area in the event ending without waiting for the end of the searching period. 3. A program according to claim 1 or 2, for presenting results to said user.
前記提示するステップにおいて、前記プログラムは、
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記イベントにおいて前記ユーザが発見できなかった発見対象物の情報とともに、前記撮影された結果を前記ユーザに提示する、請求項3に記載のプログラム。
In the presenting step, the program
As the degree of progress of the event, in the event, according to the end of the search period, or the end of the search act of the predetermined area in the event without waiting for the end of the search period. 4. The program according to claim 3, which presents the photographed result to the user together with information of a discovered object that the user has not been able to discover.
前記提示するステップにおいて、前記プログラムは、
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記イベントにおいて前記ユーザが発見できなかった発見対象物が設置されている位置を示唆する情報とともに、前記撮影された結果を前記ユーザに提示する、請求項3または4に記載のプログラム。
In the presenting step, the program
As the degree of progress of the event, in the event, according to the end of the search period, or the end of the search act of the predetermined area in the event without waiting for the end of the search period. 5. The program according to claim 3, wherein the photographed result is presented to the user together with information suggesting a position where the object to be found that the user could not discover is installed.
前記提示するステップにおいて、前記プログラムは、
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記イベントにおいて前記ユーザが発見した発見対象物に関する画像とともに、前記撮影された結果を提示する、請求項3から5のいずれかに記載のプログラム。
In the presenting step, the program
As the degree of progress of the event, in the event, according to the end of the search period, or the end of the search act of the predetermined area in the event without waiting for the end of the search period. 6. The program according to any one of claims 3 to 5, wherein the photographed result is presented together with an image related to the object discovered by the user.
前記提示するステップにおいて、前記プログラムは、
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記所定のエリアの次に前記ユーザが探索するエリアに設置された前記発見対象物の一部の情報とともに、前記撮影された結果を提示する、請求項3から6のいずれかに記載のプログラム。
In the presenting step, the program
As the degree of progress of the event, the predetermined area according to the end of the search period or the end of the search action of the predetermined area in the event without waiting for the end of the search period 7. The program according to any one of claims 3 to 6, wherein the photographed result is presented together with information on a part of the discovery target installed in the area to be searched by the user.
前記プログラムは、前記プロセッサに、さらに、
複数の前記ユーザのうちいずれか一部のユーザにより、前記イベントにおいて前記発見対象物を探索する他のユーザを撮影した動画または静止画を取得するステップを実行させ、
前記イベントの進行の程度として、前記探索する期間が終了することに応じて、前記動画または静止画、および前記発見対象物に備えられた前記カメラにより前記撮影された結果の一部を抽出したコンテンツを提示する、請求項3から7のいずれかに記載のプログラム。
The program further causes the processor to:
causing any one of the plurality of users to obtain a moving image or still image of another user searching for the object to be discovered at the event;
Content obtained by extracting part of the video or still image and the results captured by the camera provided on the discovery object, according to the end of the search period as the degree of progress of the event. 8. The program according to any one of claims 3 to 7, which presents
前記コンテンツは、前記動画または静止画、および前記発見対象物に備えられた前記カメラにより前記撮影された結果の一部を抽出したハイライト動画またはハイライト画像であり、
前記提示するステップにおいて、
前記イベントの進行の程度として、前記探索する期間が終了することに応じて、前記動画または静止画、および前記発見対象物に備えられた前記カメラにより前記撮影された結果が撮影された時間に関する情報とともに、前記コンテンツを前記ユーザに提示する、請求項8に記載のプログラム。
The content is the moving image or still image, and a highlight moving image or highlight image obtained by extracting a part of the result captured by the camera provided on the discovery target,
In the presenting step,
As the degree of progress of the event, information about the time at which the moving image or still image and the photographed result were photographed by the camera provided for the discovery target in accordance with the end of the searching period. 9. The program of claim 8, presenting the content to the user together with.
前記プログラムは、前記プロセッサに、さらに、
前記ユーザから、前記ユーザの端末において、前記発見対象物を発見したことの承認を受けるための入力操作を受け付けることに応答して、前記ユーザが前記発見対象物を発見したと判定するステップを実行させる、請求項1から9のいずれかに記載のプログラム。
The program further causes the processor to:
executing a step of determining that the user has found the discovery target in response to receiving, from the user, an input operation for obtaining approval that the discovery target has been found, on the terminal of the user; 10. The program according to any one of claims 1 to 9, which causes
前記提示するステップにおいて、前記プログラムは、
前記イベントの進行の程度として、前記探索する期間内において、前記判定するステップにおいて前記ユーザが前記発見対象物を発見したことを判定したことに応答して、前記一定空間内にいる前記ユーザを前記カメラにより撮影した結果を前記ユーザに提示する、請求項10に記載のプログラム。
In the presenting step, the program
As the degree of progression of the event, in response to determining in the determining step that the user has found the discovery target within the searching period, 11. The program according to claim 10, which presents a result photographed by a camera to said user.
前記提示するステップにおいて、前記プログラムは、
前記ユーザが発見したと判定された前記発見対象物に備えられた前記カメラにより前記撮影された結果を、前記ユーザが発見したと判定された前記発見対象物に関する情報とともに前記ユーザに提示する、請求項10に記載のプログラム。
In the presenting step, the program
presenting to the user the result photographed by the camera mounted on the discovery object determined to have been discovered by the user together with information on the discovery object determined to have been discovered by the user; Item 11. The program according to item 10.
前記プログラムは、前記プロセッサに、さらに、
前記判定するステップにおいて、前記一定空間内に設置された全ての前記発見対象物を前記ユーザが発見したと判定した場合に、前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させるステップを実行させる、請求項10に記載のプログラム。
The program further causes the processor to:
In the determining step, when it is determined that the user has discovered all the discovery objects installed in the predetermined space, the predetermined area in the event is searched without waiting for the end of the search period. 11. The program according to claim 10, causing execution of a step of terminating a search act.
前記プログラムは、前記プロセッサに、さらに、
前記発見対象物に備えられた前記カメラにより撮影された結果に含まれる前記ユーザの表情または音声の少なくとも1つを解析し、前記解析結果に基づいて前記ユーザの特定の感情を判定するステップを実行させ、
前記提示するステップにおいて、
前記判定した前記特定の感情に基づいて、前記撮影された結果を前記ユーザに提示する、請求項1から13のいずれかに記載のプログラム。
The program further causes the processor to:
Analyzing at least one of the user's facial expression or voice included in the result captured by the camera provided on the discovery target, and determining the user's specific emotion based on the analysis result. let
In the presenting step,
14. The program according to any one of claims 1 to 13, wherein the photographed result is presented to the user based on the determined specific emotion.
前記プログラムは、前記プロセッサに、さらに、
前記発見対象物に備えられた前記カメラにより前記ユーザの目線または前記発見対象物と前記ユーザとの距離の少なくとも1つに関する情報を取得するステップを実行させ、
前記提示するステップにおいて、
前記判定した前記感情と、前記取得した前記ユーザの目線または前記発見対象物と前記ユーザとの距離の少なくとも1つに関する情報とに基づいて、前記撮影された結果を前記ユーザに提示する、請求項1から14のいずれかに記載のプログラム。
The program further causes the processor to:
Acquiring information about at least one of a line of sight of the user or a distance between the user and the object to be found by the camera provided on the object to be found;
In the presenting step,
presenting the photographed result to the user based on the determined emotion and the obtained information regarding at least one of a line of sight of the user or a distance between the discovered object and the user; 15. The program according to any one of 1-14.
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータを動作させるための方法であって、
前記発見対象物は、前記一定空間内を撮影するためのカメラを備えており、
前記方法は、前記コンピュータのプロセッサが、
前記イベントにユーザが参加して前記発見対象物を探索する期間において、前記一定空間内にいる前記ユーザを前記カメラにより撮影させるステップと、
前記撮影された結果を取得して、前記ユーザの前記イベントの進行の程度に応じて、前記ユーザに前記撮影された結果を提示するステップと、を実行する、方法。
A method for operating a computer that supports the progress of an event to search for a discovery object installed in a certain space in the real world, comprising:
The object to be discovered has a camera for photographing the fixed space,
The method comprises: a processor of the computer comprising:
causing the camera to photograph the user in the certain space during a period in which the user participates in the event and searches for the discovery target;
obtaining the captured results and presenting the captured results to the user according to the user's progress of the event.
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援する、制御部を備えた情報処理装置であって、
前記発見対象物は、前記一定空間内を撮影するためのカメラを備えており、
前記情報処理装置は、前記制御部が、
前記イベントにユーザが参加して前記発見対象物を探索する期間において、前記一定空間内にいる前記ユーザを前記カメラにより撮影させるステップと、
前記撮影された結果を取得して、前記ユーザの前記イベントの進行の程度に応じて、前記ユーザに前記撮影された結果を提示するステップと、を実行する、情報処理装置。

In the real world, an information processing device having a control unit that supports the progress of an event to search for a discovery target installed in a certain space,
The object to be discovered has a camera for photographing the fixed space,
In the information processing device, the control unit
causing the camera to photograph the user in the certain space during a period in which the user participates in the event and searches for the discovery target;
and acquiring the photographed result and presenting the photographed result to the user according to the degree of progress of the event by the user.

JP2021060024A 2021-03-31 2021-03-31 Program, method, information processing device Active JP7434206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021060024A JP7434206B2 (en) 2021-03-31 2021-03-31 Program, method, information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021060024A JP7434206B2 (en) 2021-03-31 2021-03-31 Program, method, information processing device

Publications (2)

Publication Number Publication Date
JP2022156374A true JP2022156374A (en) 2022-10-14
JP7434206B2 JP7434206B2 (en) 2024-02-20

Family

ID=83558465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021060024A Active JP7434206B2 (en) 2021-03-31 2021-03-31 Program, method, information processing device

Country Status (1)

Country Link
JP (1) JP7434206B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048212A (en) 2005-08-12 2007-02-22 Dainippon Printing Co Ltd System and device for providing information
JP2013041416A (en) 2011-08-16 2013-02-28 Sony Corp Information processing device and method, program, and information processing system
JP2014217566A (en) 2013-05-08 2014-11-20 株式会社テクノクラフト Hunting game distribution system
JP2019028507A (en) 2017-07-25 2019-02-21 ユニバーリンク株式会社 Event management system

Also Published As

Publication number Publication date
JP7434206B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
US10518169B2 (en) Interactive entertainment using a mobile device with object tagging and/or hyperlinking
CN103657087B (en) Formula narration environment on the spot in person
US20120231887A1 (en) Augmented Reality Mission Generators
US20120116714A1 (en) Digital Data Processing Systems and Methods for Skateboarding and Other Social Sporting Activities
US11360733B2 (en) Colocated shared augmented reality without shared backend
US10229608B2 (en) Wireless communication between physical figures to evidence real-world activity and facilitate development in real and virtual spaces
CN108572969A (en) The method and device of geography information point recommended information is provided
JP2020044139A (en) Game program, game method, and information processor
KR20230047480A (en) User interface for pose-driven virtual effects
JP7212711B2 (en) program, method, information processing device
US20230162433A1 (en) Information processing system, information processing method, and information processing program
TWI811198B (en) Collection system, terminal program and collection method
JP7434206B2 (en) Program, method, information processing device
JP7245890B1 (en) Information processing system, information processing method, information processing program
JP2022156375A (en) Program, method, and information processing device
JP7266911B2 (en) Terminal device and method for collection system
TWI807732B (en) Non-transitory computer-readable storage medium for interactable augmented and virtual reality experience
JP7329470B2 (en) Information processing device, method, program
JP7482821B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS, AND SYSTEM
Kasapakis Pervasive role playing games: design, development and evaluation of a research prototype
JP2017169835A (en) Game system, control system of game server, and game program
US9213935B2 (en) Role-play simulation engine
KR101604971B1 (en) System and Method of Interactive Performance for Multi-audience participation
CN116962835A (en) Virtual object interaction method and device, computer equipment and storage medium
CN114984574A (en) Information display method, device, storage medium and equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7434206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150