JP2022156374A - Program, method, and information processing device - Google Patents
Program, method, and information processing device Download PDFInfo
- Publication number
- JP2022156374A JP2022156374A JP2021060024A JP2021060024A JP2022156374A JP 2022156374 A JP2022156374 A JP 2022156374A JP 2021060024 A JP2021060024 A JP 2021060024A JP 2021060024 A JP2021060024 A JP 2021060024A JP 2022156374 A JP2022156374 A JP 2022156374A
- Authority
- JP
- Japan
- Prior art keywords
- user
- event
- information
- discovery
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000010365 information processing Effects 0.000 title claims description 12
- 230000004044 response Effects 0.000 claims description 30
- 230000009471 action Effects 0.000 claims description 29
- 230000008451 emotion Effects 0.000 claims description 14
- 230000008921 facial expression Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000015654 memory Effects 0.000 abstract description 27
- 230000002708 enhancing effect Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 35
- 238000004891 communication Methods 0.000 description 32
- 239000000284 extract Substances 0.000 description 14
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000002250 progressing effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000005389 magnetism Effects 0.000 description 3
- 230000008450 motivation Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000209504 Poaceae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006993 memory improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本開示は、プログラム、方法、情報処理装置に関する。 The present disclosure relates to programs, methods, and information processing apparatuses.
テーマパーク等の施設において、アトラクションの搭乗者を撮影する技術が知られている。 2. Description of the Related Art In facilities such as theme parks, technology is known for photographing passengers of attractions.
特許文献1には、テーマパーク等の施設において、ジェットコースター等のアトラクションに搭乗時、コースターが落ちる瞬間などの画像を撮影し、画像に含まれる搭乗者の画像を抽出し、テンプレートと合成した画像を提供する技術が記載されている。
In
特許文献1の技術では、ジェットコースターなど、予め定められた経路に沿って搭乗者を自動的に移動させ、その経路上の所定の位置を撮影するカメラにより搭乗者を撮影している。
一方、現実の世界で、複数のユーザで参加して、ある程度定められた地理範囲内で各ユーザが自由に探索をするイベントもある。このような探索型のイベントでは、探索の対象となる地理範囲内に予めカメラを設置しようとしたとしても、当該地理範囲が広がれば広がるほどカメラの設置台数が増えてしまい、イベントの運営コストが増加することで運営を継続することが困難になるおそれがある。
そのため、探索型のイベントにおいて、イベントに参加したユーザの思い出をより一層高めるための技術が必要とされている。
In the technique disclosed in
On the other hand, in the real world, there are also events in which a plurality of users participate and each user freely explores within a geographical range defined to some extent. In such a search-type event, even if it is attempted to install cameras in advance within the geographic range to be searched, the larger the geographic range, the larger the number of installed cameras, which increases the operating cost of the event. The increase may make it difficult to continue operations.
Therefore, in search-type events, there is a need for a technique for further enhancing the memories of users who have participated in the event.
一実施形態によると、現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータを動作させるためのプログラムであって、発見対象物は、一定空間内を撮影するためのカメラを備えており、プログラムは、コンピュータのプロセッサに、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラにより撮影させるステップと、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップと、を実行させる、プログラムが提供される。 According to one embodiment, in the real world, a program for operating a computer that supports the progress of an event to search for a discovery target placed in a certain space, wherein the discovery target is photographed in a certain space. The program causes the processor of the computer to photograph the user in a certain space during the period in which the user participates in the event and searches for the object to be discovered; obtaining the results and presenting the captured results to the user according to the progress of the user's event.
本開示によれば、探索型のイベントにおいて、イベントに参加したユーザの思い出を、より一層高める技術を提供することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to provide a technology that further enhances the memories of users who have participated in a search-type event.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
<概要>
以下の実施形態では、現実の世界において実施されるイベントにおいて、イベントの課題に取り組むユーザの画像を、複数の他のユーザが撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明する。
ここで、イベントの進行において適宜使用される装置等に関しては、ユーザの所持しているスマートフォン、タブレット端末などの端末装置の場合もあれば、イベントが実施される会場に設置された端末装置により提示されることもある。
<First Embodiment>
<Overview>
In the following embodiments, in an event held in the real world, a plurality of other users capture images of a user working on a task for the event, and some of the captured images are selected in response to the progress of the event. A technique for providing the extracted content to the user will be described.
Here, with regard to the devices used appropriately in the progress of the event, there are cases where terminal devices such as smartphones and tablet terminals possessed by the user, and terminal devices installed at the venue where the event is held. Sometimes it is done.
一般的に、テーマパーク等の施設において、アトラクション等に搭乗、またはイベント等を体験した際に撮影される写真は、ユーザが驚いた、怖がった、等の表情を撮影することを目的とすることが多い。そのため、ユーザは、いつも同じ表情の写真が撮影されてしまうため、面白みに欠け、何度も体験しようというモチベーションが維持できないおそれがある。 In general, photographs taken when boarding attractions, etc., or experiencing events, etc. at facilities such as theme parks are intended to capture the user's expression of surprise, fear, etc. There are many. As a result, the user may not be able to maintain the motivation to experience the experience over and over again because the photograph is always taken with the same facial expression.
また、上記の場合、ユーザを撮影するカメラを操作するのは、主にテーマパーク側であり、ユーザが希望するタイミング、希望する表情の画像が得られない可能性がある。例えば、イベントに熱中している様子、何かを発見した時に思わず出してしまった喜びの表情などは撮影されず、思い出の写真とともに反芻することが困難である場合がある。 Further, in the above case, it is mainly the theme park side that operates the camera that captures the user, and there is a possibility that the image with the desired timing and desired facial expression cannot be obtained by the user. For example, it may be difficult to ruminate on memories together with pictures of people who are enthusiastic about an event, or expressions of joy that they involuntarily show when they discover something.
そこで、システム1では、現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータを動作させるためのプログラムであって、発見対象物は、一定空間内を撮影するためのカメラを備えており、プログラムは、コンピュータのプロセッサに、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラにより撮影させるステップと、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップと、を実行させる技術を提供する。
Therefore, in the
(1)探索型のイベントで、一部のユーザが他のユーザを撮影した画像を抽出して、イベントの区切りなど進行に応じてユーザに提示する
システム1は、ユーザの所持しているスマートフォン、または、イベントを運営する事業者がユーザに貸し出す端末(スマートフォン、タブレット等)などの端末装置を用いて、ユーザが、イベントの課題に取り組むユーザの様子を撮影した画像を取得する。例えば、複数のユーザのうち、一部のユーザが、イベントの課題に取り組む他のユーザを撮影する。システム1は、取得した画像と、イベントの進行度合いに基づいて、当該画像から一部を抽出したコンテンツをユーザに提供する。これにより、ユーザはイベント参加中の様々な表情を撮影した画像に基づいたコンテンツを得ることができ、イベントの思い出をさらに高め、イベントへのリピート参加を促進することができる。
(1) In a search-type event, some users extract images of other users and present them to the user according to the progress of the event, such as the end of the event. Alternatively, using a terminal device such as a terminal (smartphone, tablet, etc.) rented out to the user by the operator who manages the event, the user acquires an image of the user working on the task of the event. For example, among a plurality of users, some users take pictures of other users working on the tasks of the event. The
以上のように、システム1は、イベントに参加したユーザの思い出を、より一層高める技術を提供する。
As described above, the
システム1は、例えば、現実の世界において実施されるイベントの会場において使用され得る。当該イベントは、例えば、現実の世界にある発見対象物を複数のユーザが探索する、探索型のイベントである。イベントでは、探索対象となる地理範囲において、草むら、木々、壁、地面、建物、水面、小道具などがあり、これらの自然物・人工的に設置された物体などに隠された発見対象物を、複数のユーザで探索する。イベントでは、一定の地理範囲をエリアと定めて、複数のエリアを順に探索していき、各エリアに隠された発見対象物を複数のユーザで探索していく。イベントに参加する各ユーザは、各エリアにおいて、イベント参加時等に配布されるヒント(発見対象物が隠された場所を示唆する情報)を参考にしつつ、時には複数のユーザで相談しつつ、発見対象物を探索する。
一方、イベントに参加する複数のユーザのうち、各ユーザが探索を行う様子を撮影したいと希望する一部のユーザもいる。例えば、発見対象物が、小説、ゲームなど原作があるコンテンツに登場するキャラクターを表すものであり、当該コンテンツを愛好するユーザが、当該イベントに参加したいと希望したとする。これに対し、イベントに参加して当該愛好するユーザが探索をする行為を記録することを希望するユーザもいる。例えば、子どもがイベントへの参加を希望する場合に、その子どもがイベントで探索をする様子を、子どもの親が記録することを希望する。
そこで、複数のユーザのうち一部のユーザは自身の端末装置を用い、イベントの課題に取り組む他のユーザの画像を撮影する。
システム1は、ユーザが使用する端末から取得した画像と、イベントの進行度合いとに基づいて、画像の一部を抽出したコンテンツ、例えば、イベントの様々なタイミングにおけるユーザの表情をちりばめた写真等、をユーザが使用する端末に提示する。そのため、ユーザはイベントでどんなことがあったか、どのような表情をしていたか、を何度も振り返ることができ、イベントの思い出を高めることができる。
なお、イベントで探索を行うユーザ自身が、探索をしつつ、スマートフォンでの自撮りや、360度カメラなど広範囲を撮影可能なカメラにより撮影を行うこともあり得る。
(2)探索型のイベントで、一部のユーザが端末装置を使用することで、イベントの進行を支援するための情報(ヒントなど)を得ることができる
システム1は、イベントに参加するユーザの端末装置により、イベントの目標である発見対象物の発見を支援するための情報をユーザに提示する。例えば、イベントに参加する一部のユーザが、スマートフォンなどで他のユーザを撮影しつつ、当該スマートフォンで発見対象物に関する情報(隠された場所を示唆する情報など)を得ることができる。
これにより、当該撮影をするユーザは、イベントで発見対象物を探す他のユーザに対しヒントを提供することができ、他のユーザの撮影をして思い出を残す行為をしつつ、他のユーザを支援するサポーターの役割で、共にイベントに参加することができ、複数のユーザがイベントに取り組むという一体感がよりいっそう向上する。例えば、発見対象物が、コンテンツに登場するキャラクター等である場合に、探索を楽しむユーザと比べて当該コンテンツへの興味関心が相対的に低いユーザであったとしても、探索を楽しむユーザを撮影して記録したいという動機でイベントに参加しつつ、イベントの進行を支援する役割を担うことができる。
The
On the other hand, among the users participating in the event, there are also some users who wish to capture a picture of each user conducting a search. For example, suppose that the object to be found represents a character that appears in an original content such as a novel or a game, and a user who loves the content wishes to participate in the event. On the other hand, there are also users who want to record the searching behavior of the user who participates in the event. For example, if a child wishes to participate in an event, the child's parents may wish to record how the child explores the event.
Therefore, some users among the plurality of users use their own terminal devices to capture images of other users working on the tasks of the event.
The
It should be noted that the user who searches for the event may take a selfie with a smartphone or take a picture with a camera capable of photographing a wide range, such as a 360-degree camera, while searching.
(2) In a search-type event, some users can obtain information (hints, etc.) to support the progress of the event by using terminal devices. The terminal device presents the user with information for assisting the discovery of the discovery object that is the target of the event. For example, some users participating in an event can obtain information about the discovered object (such as information suggesting a hidden place) with the smartphone while taking pictures of other users with the smartphone.
As a result, the user who takes the photograph can provide hints to other users who are looking for objects to be discovered at the event, and while taking photographs of other users and leaving memories, they can also help other users. In the role of a supporting supporter, they can participate in the event together, and the sense of unity of a plurality of users working on the event is further improved. For example, when the object to be discovered is a character or the like that appears in content, even if the user has relatively low interest in the content compared to the user who enjoys searching, the user who enjoys searching can be photographed. While participating in the event with the motive of wanting to record it as an event, they can play a role in supporting the progress of the event.
<1 システム全体の構成図>
図1は、第1の実施の形態におけるシステム1の全体の構成を表している。
<1 Configuration diagram of the entire system>
FIG. 1 shows the overall configuration of a
図1に示すように、システム1は、複数の端末装置(図1では端末装置10Aおよび端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20と、複数の発見対象物40とを含む。発見対象物40には、カメラ401およびセンサ402が備えられていてもよい。端末装置10と、発見対象物40に備えられたカメラ401と、サーバ20とは、ネットワーク80を介して通信接続する。
As shown in FIG. 1, a
端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末などにより実現される。この他に、端末装置10は、例えば据え置き型のPC(Personal Computer)、ラップトップPC、イベント会場等に設置されているデータ端末であるとしてもよい。図1に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
The
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、5G、LTE(Long Term Evolution)などの通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11などの無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することによりネットワーク80に接続される。
The
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
The communication IF 12 is an interface for inputting and outputting signals so that the
サーバ20は、イベントに関連する情報、イベントに参加するユーザに関連する情報を管理する。サーバ20は、イベントの実施エリア、配置されている発見対象物、制限時間等の各種情報、イベントに参加するユーザの性別、年齢、イベントへの参加回数等の各種情報、イベントの実施会場において配置されている発見対象物の各種情報、イベントに参加するユーザに対し提示されるヒントの各種情報、ユーザがイベントに参加することで記録される各種履歴の情報等を記憶する。
The
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
The communication IF 22 is an interface for inputting and outputting signals for the
発見対象物40は、イベントにおいてユーザが探索する対象となるオブジェクトである。発見対象物40は、イベントにおいて、ユーザが探索するエリア内に複数配置される。ユーザは、イベントにおいて、端末装置10を使用し、当該発見対象物40を撮影することで、当該イベントを進行させる。ある局面において、発見対象物40は、カメラ401を備えていてもよい。
The
カメラ401は、発見対象物40に備えられた、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ401は、例えば、カメラ401から撮影対象までの距離を検出できる深度カメラである。ある局面において、カメラ401は、発見対象物の視点から、イベントに参加しているユーザを撮影してもよい。ある局面において、カメラ401は、ユーザの視線や表情等のユーザの感情についての情報を検出する機能を備えていてもよい。例えば、サーバ20が、カメラ401が出力する撮影画像を取得して解析することにより、撮影画像におけるユーザの顔の領域に基づいて、ユーザの感情の種別(「驚き」など)を判別することとしてもよい。また、発見対象物40は、マイク等を備えており、発見対象物40が設置される周囲の音声を検知することとしてもよい。例えば、サーバ20が、発見対象物40のマイクで検知される音声に基づき、ユーザが発する音声を検出して、検出したユーザの音声に基づき、ユーザの感情を判別することとしてもよい。
以上のように、発見対象物40にセンシングの手段を設けることにより、発見対象物40の周囲のユーザの視線、表情、感情等を検知することとしてもよい。
The
As described above, by providing the
本実施形態において、各装置(端末装置、サーバ等)を情報処理装置として把握することもできる。すなわち、各装置の集合体を1つの「情報処理装置」として把握することができ、システム1を複数の装置の集合体として形成してもよい。1つ又は複数のハードウェアに対して本実施形態に係るシステム1を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又はシステム1に求められる仕様等に鑑みて適宜決定することができる。
In this embodiment, each device (terminal device, server, etc.) can also be grasped as an information processing device. In other words, a group of devices can be understood as one "information processing device", and the
<1.1 端末装置10の構成>
図2は、実施の形態1のシステム1を構成する端末装置10のブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131およびディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、モーションセンサ170と、記憶部180と、制御部190と、を含む。端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリ、バッテリから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
<1.1 Configuration of
FIG. 2 is a block diagram of the
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
The
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
The
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調、および周波数変換を行い、受信信号を制御部190へ与える。
The first
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部190へ出力する。
The
ディスプレイ132は、制御部190の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイによって実現される。
The
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
The
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。例えば、システム1において、ユーザの位置情報を参照可能にしている場合、ユーザの近くにある発見対象物の配置場所に関するヒントをユーザに提示することができる。また、位置情報センサ150は、情報機器間の近距離通信システムで用いられる通信規格に基づく送受信装置であるとしてもよい。具体的には、位置情報センサ150は、Bluetooth(登録商標)モジュールなど2.4GHz帯を使用して、Bluetooth(登録商標)モジュールを搭載した他の情報機器からのビーコン信号を受信する。
The
カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。
The
モーションセンサ170は、ジャイロセンサ、加速度センサ等により構成され、端末装置10の傾きを検出する。
The
記憶部180は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータおよびプログラムを記憶する。ある局面において、記憶部180は、ユーザ情報181を記憶する。
The
ユーザ情報181は、ユーザの年齢、性別、イベントにおけるユーザID、イベントへの参加回数等の情報である。イベントへの参加において、イベントの主催者は、当該情報に基づいて、ユーザに対しイベントへの参加権を付与してもよい。また、イベント参加当日に、イベントを実施する会場において、会場に設置してある端末装置によりユーザの情報を登録することで、イベントへの参加権を付与することとしてもよい。なお、当該情報の登録自体は必須ではなく、ユーザが当該情報の登録を省略した場合でもイベントへの参加権を付与することとしてもよい。
The
制御部190は、記憶部180に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部190は、例えばアプリケーションプロセッサである。制御部190は、プログラムに従って動作することにより、入力操作受付部191と、送受信部192と、データ処理部193と、報知制御部194としての機能を発揮する。
The
入力操作受付部191は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部191は、タッチ・センシティブ・デバイス131に対してユーザが指などを接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。 The input operation reception unit 191 performs processing for receiving a user's input operation to the input device such as the touch sensitive device 131 . The input operation reception unit 191 determines whether the user's operation is a flick operation, a tap operation, or a drag (swipe) operation based on information on coordinates at which the user touches the touch-sensitive device 131 with a finger or the like. The type of operation, such as whether it is an operation or not, is determined.
送受信部192は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
The transmission/
データ処理部193は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。
The
データ処理部193は、ユーザから、他のユーザがイベントの課題に取り組む様子を撮影した画像の情報、発見対象物の承認のための入力情報等の取得を受け付ける。データ処理部193は、例えば、カメラ160等により、他のユーザがイベントの課題に取り組む様子を撮影することにより、当該画像の情報を取得する。また、データ処理部193は、例えば、カメラ160等により、発見対象物の画像を端末装置10のディスプレイ132等に表示した状態で、ユーザからの承認のための入力操作を受け付ける。
The
報知制御部194は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理を行う。
The
<1.2 サーバ20の機能的な構成>
図3は、サーバ20の機能的な構成を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<1.2 Functional Configuration of
FIG. 3 is a diagram showing a functional configuration of the
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
The
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、イベント情報データベース281と、参加者情報データベース282と、対象物情報データベース283と、ヒント情報データベース284と、イベント履歴データベース285等を記憶する。
The
イベント情報データベース281は、イベントの各種情報を保持するためのデータベースである。詳細は後述する。
The
参加者情報データベース282は、イベントに参加するユーザの各種情報を保持するためのデータベースである。詳細は後述する。
The
対象物情報データベース283は、イベントにおいて、特定の場所に配置されており、ユーザが探索する対象となる対象物の各種情報を保持するためのデータベースである。詳細は後述する。
The target
ヒント情報データベース284は、イベントにおいて、ユーザに提示される発見対象物の配置されている場所に関するヒントに関する各種情報を保持するためのデータベースである。詳細は後述する。
The
イベント履歴データベース285は、イベントに参加したユーザの各種行動の履歴を保持するためのデータベースである。詳細は後述する。
The
受信制御モジュール2041は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
The
送信制御モジュール2042は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
The
イベント情報取得モジュール2043は、ユーザが参加しようとしているイベントに関する各種情報を取得する。
The event
参加者情報取得モジュール2044は、イベントに参加しようとしているユーザの各種情報を取得する。
The participant
対象物情報取得モジュール2045は、ユーザが参加しようとしているイベントにおいて配置される発見対象物の情報を取得する。
The object
ヒント情報取得モジュール2046は、ユーザが参加しようとしているイベントにおいて配置される発見対象物の配置場所に関するヒントの情報を取得する。
The hint
対象物表示モジュール2047は、ユーザがイベントにおいて、発見対象物をカメラ160等により撮影した時に、当該発見対象物に関する情報、例えば、名称、見つけやすさ(レアリティ)、見つけることによるユーザへの特典等の情報を取得する。これにより、ユーザは、自身が発見した発見対象物の情報を、発見時に確認することができるため、よりイベントに参加する興趣性を向上させることができる。
The target
ヒント提示モジュール2048は、ユーザがイベントにおいて、発見対象物を探索しているときに、発見対象物が配置されている場所に関するヒントに関する情報をユーザに提示する。このとき、ヒント提示モジュール2048は、以下の条件を満たす場合に、ユーザにヒントを提示してもよい。
・ 端末装置10Aの位置情報センサ150から取得した、ユーザの位置情報と、発見対象物が配置されている位置情報とに基づいて、発見対象物の位置を基準とした特定の範囲内にユーザがいると判定されたとき。例えば、ユーザの位置と、発見対象物の位置とが一定距離内にある場合。
・ 端末装置10Aのカメラ160が撮影をしている位置および方向と、当該撮影の範囲に発見対象物の位置との位置関係が一定の条件を満たすとき。例えば、端末装置10は、端末装置10の加速度センサ、方位センサ等により、発見対象物を探索する地理範囲内におけるユーザの位置と、ユーザがカメラを向けている方向とを取得しうる。また、端末装置10がLiDAR(Light Detection and Ranging)センサを有し光学的に周囲の物体との距離を計測することで周囲の地形を検出可能な場合には、ユーザが端末装置10のLiDARセンサのレーザー光の射出方向を周囲の地形に向けることで3Dモデルを生成することができる。これにより、端末装置10は、探索を行う地理範囲におけるユーザの位置(端末装置10の位置)とカメラ160が撮影している方向を特定することができる。
例えば、上記の一定の条件を満たすときとして、以下が含まれる。
(1)カメラ160の撮影の範囲に、発見対象物の位置が含まれている
(2)カメラ160の撮影の範囲には含まれていないが、当該撮影の範囲を所定角度変更することで、撮影の範囲に発見対象物が含まれうる
これにより、ユーザは、自分の近くに発見対象物が配置されていると認識することができ、より注意深く、周囲を探索する緊張感等を味わうことができる。
The
- Based on the position information of the user acquired from the
- When the positional relationship between the position and direction in which the
For example, when certain conditions above are met include:
(1) The position of the discovery target is included in the imaging range of the
承認受付モジュール2049は、ユーザから、イベントにおいて発見した発見対象物の承認のための入力操作を受け付ける。具体的には、承認受付モジュール2049は、ユーザが所有する端末装置10のカメラ160等によって撮影された、発見対象物の画像を受け付ける。このとき、承認受付モジュール2049は、当該画像を解析し、当該画像に発見対象物が含まれている場合に、当該ユーザは発見対象物を発見したと判定する。これにより、ユーザは、現実の世界のイベントにおいて、現実の世界に実際に配置されている発見対象物を、端末装置10のカメラ160等により撮影することで、イベントにおいて発見対象物を発見した承認を受けることができる。また、このとき、承認受付モジュール2049は、端末装置10の位置情報センサ150から取得したユーザの位置情報と組み合わせて承認を行ってもよい。そのため、イベントの主催者は、例えば、事前に準備したぬいぐるみなどを作成することによる不正な承認を防ぐことができる。
The
<2 データ構造>
図4および図5は、サーバ20が記憶するイベント情報データベース281、参加者情報データベース282、対象物情報データベース283、ヒント情報データベース284、イベント履歴データベース285のデータ構造を示す図である。
<2 Data structure>
4 and 5 are diagrams showing the data structures of the
図4に示すように、イベント情報データベース281は、項目「イベントID」と、項目「実施エリア」と、項目「登場対象物」と、項目「推奨参加人数」と、項目「制限時間」と、項目「ヒント情報」と、項目「面積」と、項目「備考」等を含む。
As shown in FIG. 4, the
項目「イベントID」は、イベントそれぞれを識別する情報である。 The item "event ID" is information for identifying each event.
項目「実施エリア」は、イベントが実施されるエリアを示す情報である。例えば、イベントID「I001」は、実施エリアが「A」、「B」、「C」等の複数のエリアであることを示す。 The item "implementation area" is information indicating the area where the event is implemented. For example, event ID "I001" indicates that the implementation area is a plurality of areas such as "A", "B", and "C".
項目「登場対象物」は、イベントにおいて、各エリアに登場する発見対象物それぞれの識別情報を示す情報である。例えば、イベントID「I001」において、実施エリア「A」では、登場対象物は「P001、P002、・・・」等であることを示す。発見対象物は、例えば、漫画、アニメーション、小説、ゲーム等の原作があるコンテンツに登場するキャラクターをモチーフとして、以下のように構成されている。
・ 当該キャラクターそのものを再現またはデフォルメした物体(ぬいぐるみなど)
・ 当該キャラクターの特徴を表す現実の物体
(1)例えば、キャラクターが氷の属性や炎の属性など、温度に関連する属性を有するものであれば、氷または炎等を連想させる低温または暖かい温度の物体、または、氷または炎の質感の物体
(2)例えば、キャラクターが磁力の属性を有するものであれば、磁力を連想させる物体(磁性を有する物体など)。
(3)例えば、キャラクターが電気の属性を有するものであれば、電気を連想させる物体(発光する物体など)
・ 当該キャラクターを建物などの人工物に描いた絵(例えば、壁に描かれたキャラクターの絵)
・ 当該キャラクターが登場する映像(例えば、壁、植物、噴水等に投影されるキャラクターの映像)
・ 当該キャラクターを印字した自然物(例えば、木々の葉にキャラクターを印字したもの)
・ 当該キャラクターを表現した音声(例えば、キャラクターに特有の鳴き声、キャラクターが移動する様子を足音として再現した音声)
The item "appearing object" is information indicating the identification information of each discoverable object appearing in each area in the event. For example, in the event ID "I001", it is indicated that the appearance objects are "P001, P002, . . . " and the like in the execution area "A". The object to be discovered is configured as follows, with characters appearing in original contents such as comics, animations, novels, and games as motifs.
・ Objects that reproduce or deform the character itself (stuffed animals, etc.)
・ Real objects that represent the characteristics of the character (1) For example, if the character has an attribute related to temperature, such as the attribute of ice or fire, a low or warm temperature reminiscent of ice or fire Object, or object with texture of ice or fire (2) For example, if the character has the attribute of magnetism, an object suggestive of magnetism (an object having magnetism, etc.).
(3) For example, if the character has an attribute of electricity, an object that is associated with electricity (an object that emits light, etc.)
・ A drawing of the character on an artificial object such as a building (for example, a picture of the character on the wall)
・ A video in which the character appears (for example, a video of the character projected on a wall, plant, fountain, etc.)
・Natural objects with characters printed on them (for example, characters printed on leaves of trees)
・ Sound that expresses the character (for example, the character's unique cries, the sound of footsteps that reproduces the character's movement)
項目「推奨参加人数」は、イベントにおける、各エリアでの推奨参加人数に関する情報を示す。例えば、イベントID「I001」において、実施エリア「A」では、推奨参加人数は「6」であることを示す。推奨参加人数は、各エリアを探索する時間、各エリアの探索範囲の広さ等に基づいて、イベントを運営する事業者により設定される。サーバ20は、各エリアの探索の制限時間を変更することに応答して、各エリアの推奨参加人数を変更することとしてもよい。
The item "recommended number of participants" indicates information on the recommended number of participants in each area of the event. For example, in the event ID "I001", the recommended number of participants in the implementation area "A" is "6". The recommended number of participants is set by the operator of the event based on the time to search each area, the size of the search range of each area, and the like. The
項目「制限時間」は、イベントにおける、各エリアでの探索を行うことができる制限時間に関する情報を示す。例えば、イベントID「I001」において、実施エリア「A」での制限時間は「10分」であることを示す。 The item "time limit" indicates information about the time limit for searching each area in the event. For example, for the event ID "I001", it indicates that the time limit in the implementation area "A" is "10 minutes".
項目「ヒント情報」は、イベントにおける、各エリアでユーザに提示されるヒントそれぞれの識別情報を示す情報である。例えば、イベントID「I001」において、実施エリア「A」でのヒント情報は「H001、H002、・・・」であることを示す。 The item "hint information" is information indicating identification information of each hint presented to the user in each area in the event. For example, for the event ID "I001", it indicates that the hint information in the implementation area "A" is "H001, H002, ...".
項目「面積」は、イベントにおける、各エリアの面積に関する情報である。例えば、イベントID「I001」において、実施エリア「A」の面積は「BBm2」であることを示す。各エリアの面積は、イベントを運営する事業者により設定される。サーバ20は、各エリアの面積の情報を、事業者からの指定により変更する。例えば、あるエリアについて拡張または縮小する場合(探索可能な範囲を拡張または縮小する場合)、サーバ20は、拡張または縮小したエリアでのイベントの参加を受け付ける日時の設定を受け付けて、当該日時が到来することに応答して、各エリアの面積の情報を更新する。例えば、イベントで探索をするエリアの拡張工事をすることでエリアが拡張されることがある。また、メンテナンス等のためにエリアを縮小すること、トラブル発生によりエリアの利用を禁止することもあり得る。
The item "area" is information about the area of each area in the event. For example, in the event ID "I001", it indicates that the area of the implementation area "A" is "BBm2". The area of each area is set by the operator who manages the event. The
項目「備考」は、イベントにおいて、特記事項等がある場合に保持される情報である。特記事項としては、例えば以下がある。
・ イベントが日時を指定された期間限定であること(例えば、夏休み期間に限定されたイベント)
・ イベントが時間帯を指定された期間限定であること(例えば、日没後の時間帯で開催されるイベント)
・ イベントに参加するためにユーザが一定の要件を満たす必要があること
(1)例えば、一定の要件としてユーザの年齢層が一定の条件を満たすこと。例えば、一定年齢層以下のユーザを中心とし、保護者を含めたチームで参加すること等
(2)例えば、一定の要件としてユーザの現実世界または仮想的な世界で拠点とする地域が一定の条件を満たすこと。例えば、ゲームにおいて、ある地方を拠点とするユーザを対象として提供されるイベント等があり得る。
(3)例えば、一定の要件としてユーザがイベントに参加した実績が一定の条件を満たすこと。例えば、イベントの課題を達成した実績が一定以上あるユーザに対して提供されるイベントがあり得る。
・ イベントに参加できる回数に条件があること(例えば、イベントに一定回数まで繰り返し参加できる等)
例えば、イベントID「I002」における備考は、「17時以降限定イベント」であることを示す。
The item "remarks" is information held when there are special notes or the like in the event. Examples of special notes include:
・ The event is for a limited period with a specified date and time (for example, an event limited to the summer vacation period)
・ The event is limited to a specified time period (for example, an event held after sunset)
- The user must meet certain requirements in order to participate in the event (1) For example, the user's age group must meet certain conditions as a certain requirement. (2) For example, as a certain requirement, the area where the user is based in the real world or virtual world is a certain condition. to meet For example, in a game, there may be an event or the like provided for users based in a certain region.
(3) For example, as a certain requirement, the user's record of participating in an event satisfies a certain condition. For example, there may be an event that is provided to a user who has a certain or more record of accomplishing the task of the event.
・ There are conditions on the number of times you can participate in the event (for example, you can participate in the event repeatedly up to a certain number of times)
For example, the remarks in the event ID "I002" indicate "limited event after 17:00".
上記の各種情報に基づいて、イベントの主催者は、ユーザにイベントの開催概要などを通知してもよい。これにより、イベントへの参加を希望するユーザは、開催する時間帯、発見できる発見対象物の情報などの情報を把握することができ、自身の好きな発見対象物が発見できるイベントを選択して参加することができる。そのため、ユーザがイベントに参加するモチベーションのさらなる向上が期待できる。 Based on the various types of information described above, the organizer of the event may notify the user of an overview of the event. As a result, a user who wishes to participate in an event can grasp information such as the time zone of the event and information on discoverable objects to be discovered, and can select an event in which he/she can discover his or her favorite discoverable objects. can participate. Therefore, it can be expected that the user will be more motivated to participate in the event.
参加者情報データベース282は、項目「参加日時」と、項目「参加グループ」と、項目「参加者ID」と、項目「性別」と、項目「年齢」と、項目「役割」と、項目「サポート対象」と、項目「参加ステータス」と、項目「備考」等を含む。本発明において開示される現実の世界におけるイベントにおいて、ユーザは、複数人が集まったグループで構成され、グループごとに各イベントに参加する。当該データベースは、イベントに参加したグループを構成する各ユーザの情報を保持している。
The
項目「参加日時」は、複数のユーザにより構成されたグループがイベントに参加した日時に関する情報を示す。例えば、後述する参加グループ「A」で識別されるグループは、参加日時「2020/02/10 10;30:00」においてイベントに参加したことを示す。ある局面において、当該項目は時間帯単位ではなく、「2020/02/10」など、日時単位で保持されていてもよい。 The item "participation date and time" indicates information about the date and time when a group composed of a plurality of users participated in the event. For example, a group identified as a participation group "A", which will be described later, has participated in the event at the participation date and time "2020/02/10 10;30:00". In a certain aspect, the items may be held in units of date and time such as “02/10/2020” instead of in units of time zones.
項目「参加グループ」は、各参加日時においてイベントに参加したグループを識別する情報を示す。 The item "participating group" indicates information identifying the group that participated in the event at each participating date and time.
項目「参加者ID」は、イベントに参加したグループを構成する複数のユーザを識別する情報を示す。例えば、参加グループ「A」を構成するユーザは「U001」、「U002」等であることを示す。 The item "participant ID" indicates information identifying a plurality of users forming a group that participated in the event. For example, it indicates that the users constituting the participating group "A" are "U001", "U002", and the like.
項目「性別」は、参加者IDに紐づけられた、各ユーザの性別を識別する情報を示す。例えば、参加グループ「A」におけるユーザID「U001」の性別は「男」であることを示す。 The item “sex” indicates information for identifying the sex of each user, which is linked to the participant ID. For example, it indicates that the gender of user ID "U001" in participating group "A" is "male".
項目「年齢」は、参加者IDに紐づけられた、各ユーザの年齢を識別する情報を示す。例えば、参加グループ「A」におけるユーザID「U001」の年齢は「12」であることを示す。 The item "age" indicates information for identifying the age of each user, which is linked to the participant ID. For example, it indicates that the age of user ID "U001" in participating group "A" is "12".
項目「役割」は、参加者IDに紐づけられた、各ユーザがイベントで担当する役割を識別する情報を示す。例えば、参加グループ「A」におけるユーザID「U001」の役割は「探索」であることを示す。本発明において開示される現実の世界におけるイベントにおいて、各ユーザは役割に応じた行動をするよう促される。例えば、役割「探索」のユーザは、各エリアに配置されている発見対象物を探索する役割を担い、役割「サポート」のユーザは、役割「探索」のユーザに対し、ユーザの端末に表示されるヒントの情報を提示する、等の行動をするよう促される。各ユーザの役割はイベント中で固定することとしてもよいし、イベント中に各ユーザの役割を入れ替えることとしてもよい。
上記の参加者情報データベース282の例では、参加者IDに関連付けられるユーザと、当該ユーザがイベントで担当する役割とが関連付けられている。これに限らず、当該役割と、参加者IDとが紐づかない場合もあり得る。例えば、イベントでユーザが利用する端末の情報(または、端末で動作するアプリケーションを利用する際にサーバ20等により発行される識別番号など)と、当該役割とを関連付けて、サーバ20において管理することとしてもよい。例えば、以下のような状況があり得る。
・ イベントを運営する事業者が、イベントに参加する複数のユーザからなるグループごとに、1または複数の端末を貸し出す。端末そのものには参加者IDを関連付けずにイベントを進行させる。当該端末それぞれで、「探索」、「サポート」等の役割が定められている。この場合、グループを構成するユーザ間で、定められた役割が異なる端末を交換することで、ユーザの役割も入れ替えることができる。
・ 上記のように端末ごとに役割が定められている場合において、複数の役割に対応する各端末を利用してグループでイベントに参加する場合、ユーザから、端末の役割をグループ内で入れ替える操作を受け付けることとしてもよい。これにより、グループ内でユーザが端末を交換せずとも、ユーザの役割を入れ替えることができる。
・ 上記のように、グループ内でユーザが端末を交換せずとも、ユーザの役割を入れ替える場合、ユーザからの操作によらず、イベントにおいて所定の条件を満たすことにより、グループ内でユーザが担当する「探索」、「サポート」の役割を入れ替えるため、端末の役割を入れ替えることとしてもよい。所定の条件としては、例えば以下を含みうる。
(i)イベントを開始してから一定時間が経過した、エリアの探索を開始してから一定時間が経過した等の時間的条件
(ii)イベントにおいてユーザが発見対象物を発見することに成功した(発見対象物を発見したことを報告する操作を受け付けた)、または、失敗した(役割「探索」のユーザが、エリアの探索期間内に発見対象物を発見できなかった)等の、イベントの目的(発見対象物を発見すること)に応じた条件
The item "role" indicates information for identifying the role each user takes charge of in the event, which is linked to the participant ID. For example, it indicates that the role of user ID "U001" in participating group "A" is "search". During the real-world events disclosed in the present invention, each user is prompted to act according to their role. For example, a user with the role of “search” takes on the role of searching for discovery objects placed in each area, and a user with the role of “support” is displayed on the user terminal for the user with the role of “search”. The user is prompted to take actions such as presenting hint information that can be used. The role of each user may be fixed during the event, or the role of each user may be changed during the event.
In the above example of the
- A company managing an event rents out one or more terminals for each group of users who participate in the event. The event proceeds without associating the participant ID with the terminal itself. Roles such as "search" and "support" are defined for each terminal. In this case, the roles of the users can be exchanged by exchanging terminals with different defined roles among the users forming the group.
・ When the roles are defined for each terminal as described above, when participating in a group event using terminals that correspond to multiple roles, the user must perform an operation to switch the terminal roles within the group. It may be accepted. As a result, the roles of users can be switched without exchanging terminals within the group.
・ As described above, when the roles of users are exchanged without exchanging terminals within the group, the users can take charge within the group by satisfying a predetermined condition in the event without depending on the user's operation. In order to switch the roles of "search" and "support", the roles of the terminals may be switched. Predetermined conditions may include, for example, the following.
(i) Temporal conditions such as when a certain amount of time has passed since the start of the event, or when a certain amount of time has passed since the start of searching the area, etc. (ii) The user has successfully found a discovery target in the event. (Accepting an operation to report that a discovery target has been found) or failure (a user with the role “search” was unable to find a discovery target within the area search period) Conditions according to the purpose (discovering the object to be found)
これにより、例えば、親子でイベントに参加した場合でも、子どもが探索に熱中する中、親は外で待機するのではなく、子どもに対しヒントを提示するなど、一緒にイベントを進行させる体験をすることができる。そのため、親子の思い出作りに寄与するだけでなく、また親子で参加するなど、リピートして参加したくなる効果も発揮し得る。 As a result, for example, even when a parent and child participate in an event, the parent will not wait outside while the child is enthusiastic about exploring, but rather give the child hints and experience the event progressing together. be able to. Therefore, it not only contributes to the creation of memories for parents and children, but also has the effect of making people want to participate repeatedly, such as participation by parents and children.
項目「サポート対象」は、イベントにおいて、役割が「サポート」であるユーザがサポートする対象を示す。役割が「サポート」であるユーザがサポートする対象としては、以下が含まれる。
・ 役割が「探索」である特定のユーザ
・ ユーザが参加するグループ
例えば、役割が「サポート」である参加者ID「U002」のサポート対象は「U001」であることを示す。
The item "support target" indicates the target supported by the user whose role is "support" in the event. The following items are supported by users whose role is "support".
- A specific user whose role is "search" - A group in which the user participates For example, it indicates that the support target of the participant ID "U002" whose role is "support" is "U001".
項目「参加ステータス」は、各グループにおいて、各ユーザがイベントに参加した際の詳細情報を示す。例えば、参加者ID「U001」は、イベントID「I001」において、実施エリア「A」に「2回」挑戦したことを示す。ある局面において、イベントの主催者は、当該情報を参照して、ユーザに特定の特典、例えば、挑戦回数に応じたステッカー等の物品、を与えてもよい。 The item "participation status" indicates detailed information when each user participates in the event in each group. For example, the participant ID "U001" indicates that the event ID "I001" challenged the performance area "A" "twice". In one aspect, the organizer of the event may refer to the information and give the user a specific privilege, for example, an item such as a sticker according to the number of challenges.
これにより、ユーザは、同じエリアにおけるイベントにおいても、何度も挑戦する楽しみを享受することができる。そのため、イベント参加へのリピートの促進が期待される。 As a result, the user can enjoy the enjoyment of repeatedly challenging events in the same area. Therefore, it is expected that the repeat participation in the event will be promoted.
項目「備考」は、イベントにおいて、ユーザに特記事項等がある場合に保持される情報である。 The item "remarks" is information that is held when the user has special remarks or the like in the event.
図5に示すように、対象物情報データベース283は、項目「エリアID」と、項目「対象物ID」と、項目「対象物名」と、項目「出現位置」と、項目「探索時間」と、項目「備考」等を含む。
As shown in FIG. 5, the
項目「エリアID」は、イベントにおいて、ユーザが探索するエリアそれぞれを識別する情報を示す。 The item "area ID" indicates information for identifying each area searched by the user in the event.
項目「対象物ID」は、各エリアにおいて、配置されている発見対象物それぞれを識別する情報を示す。例えば、エリアID「A」に配置されている対象物は「P001」、「P002」等で識別される発見対象物であることを示す。 The item "object ID" indicates information for identifying each discovery object arranged in each area. For example, an object placed in area ID "A" is a discovery object identified by "P001", "P002", and the like.
項目「対象物名」は、各対象物IDで識別される発見対象物の名称に関する情報を示す。例えば、探勝物ID「P001」の対象物名は「ピカチュウ」であることを示す。 The item "object name" indicates information on the name of the discovery object identified by each object ID. For example, it indicates that the target object name of the sightseeing object ID "P001" is "Pikachu".
項目「出現位置」は、イベントにおいて、各エリアで発見対象物が配置されている場所の位置情報を示す。例えば、エリアID「A」において、発見対象物「P001」の出現位置は「AAA.AAA.AAA」の座標であることを示す。ある局面において、サーバ20は、ユーザの端末装置10の位置情報センサ150から取得したユーザの位置情報と、当該出現位置の情報とに基づいて、ユーザに発見対象物の配置場所に関するヒントを提示するためのトリガとしてもよい。
The item "occurrence position" indicates the position information of the place where the discovery target is arranged in each area in the event. For example, in the area ID "A", the appearance position of the discovery object "P001" indicates that the coordinates are "AAA.AAA.AAA". In one aspect, the
項目「探索時間」は、イベントにおいて、ユーザが発見対象物を探索することが可能な時間を示す。例えば、エリアID「A」における探索時間は「10分」であることを示す。 The item "search time" indicates the time during which the user can search for the discovery object in the event. For example, it indicates that the search time in area ID "A" is "10 minutes".
項目「備考」は、イベントにおいて、エリアに特記事項等がある場合に保持される情報である。 The item "remarks" is information held when there are special notes or the like in the area of the event.
ヒント情報データベース284は、項目「エリアID」と、項目「ヒントID」と、項目「対応対象物」と、項目「ヒント内容」と、項目「ヒント表示位置」と、項目「ヒント出現時間」と、項目「備考」等を含む。
The
項目「エリアID」は、イベントにおいて、ユーザが探索するエリアそれぞれを識別する情報を示す。 The item "area ID" indicates information for identifying each area searched by the user in the event.
項目「ヒントID」は、各エリアにおいて、ユーザに提示されるヒントそれぞれを識別する情報を示す。例えば、エリアID「A」においてユーザに提示されるヒントは「H001」、「H002」等で識別されるヒントであることを示す。 The item "hint ID" indicates information identifying each hint presented to the user in each area. For example, hints presented to the user in area ID "A" are hints identified by "H001", "H002", and the like.
項目「対応対象物」は、ヒントそれぞれが対応する発見対象物に関する情報を示す。例えば、ヒントID「H001」が対応する発見対象物は「P001」であることを示す。 The item "corresponding object" indicates information about the found object to which each hint corresponds. For example, it indicates that the discovery object corresponding to the hint ID "H001" is "P001".
項目「ヒント内容」は、ヒントそれぞれがユーザに提示するヒントの内容を示す。
ユーザに提示されるヒントとしては、以下が含まれる。
・ 発見対象物の種類または名称(例えば、発見対象物がキャラクターである場合は、キャラクターの名称、キャラクターの形状のシルエットなど)
・ 発見対象物の位置を示唆する情報(例えば、発見対象物がいる方向、発見対象物までの距離など)
・ 発見対象物が登場する時間の情報(例えば、発見対象物が配置され発見可能な状態となる時間が限定されている場合に、当該時間の情報など)
・ 発見対象物を発見するために必要な条件の情報(例えば、エリア内の特定の装置を稼働させることで発見対象物を発見可能な状態になる、特定の装置(メガネなど)をユーザが装着することで発見対象物を発見可能な状態になる、等)
例えば、ヒントID「H001」のヒント内容は、発見対象物「P001」の「位置」に関する情報であることを示す。
The item "hint content" indicates the content of each hint presented to the user.
Hints presented to the user include:
・ The type or name of the object to be discovered (for example, if the object to be discovered is a character, the name of the character, the silhouette of the character's shape, etc.)
・ Information that suggests the position of the discovery target (for example, the direction of the discovery target, the distance to the discovery target, etc.)
・ Information on the time when the discovery target appears (for example, information on the time when the discovery target is placed and the time when it becomes discoverable is limited)
・ Information on the conditions necessary to discover the discovery target (for example, the user wears a specific device (glasses, etc.) that enables the discovery of the discovery target by operating a specific device in the area By doing so, it becomes possible to discover the discovery target, etc.)
For example, the hint content of the hint ID "H001" indicates that it is information about the "position" of the discovery object "P001".
項目「ヒント表示位置」は、ユーザにヒントを表示するトリガとなるエリア内の位置に関する情報を示す。例えば、ヒントID「H001」のヒント表示位置は「AAA.AAA.AAA」の座標であることを示す。サーバ20は、ユーザの端末装置10の位置情報センサ150から取得したユーザの位置情報と、当該情報とに基づいて、ユーザが当該座標の周辺の位置にいることにより、ユーザにヒントの情報を提示する。
The item "hint display position" indicates information about the position within the area that triggers the display of the hint to the user. For example, it indicates that the hint display position of the hint ID "H001" is the coordinates of "AAA.AAA.AAA". Based on the user's location information obtained from the
項目「ヒント出現時間」は、ユーザにヒントの情報を提示するタイミングに関する情報を示す。例えば、ヒントID「H001」で識別されるヒントの出現時間は、エリアでの探索を開始してから「5分」であることを示す。ある局面において、当該時間は、イベントが開始してから起算した経過時間でも良いし、イベント開催期間中の所定の時間、例えば、開始2分後~7分後の5分間、等でもよい。 The item "hint appearance time" indicates information about the timing of presenting hint information to the user. For example, the appearance time of the hint identified by the hint ID "H001" indicates "5 minutes" after starting the search in the area. In one aspect, the time may be an elapsed time calculated from the start of the event, or a predetermined time during the event, such as 5 minutes from 2 minutes to 7 minutes after the start.
項目「備考」は、イベントにおいて、ヒントに特記事項等がある場合に保持される情報である。 The item "remarks" is information that is held when there are special notes or the like in the hint in the event.
イベント履歴データベース285は、項目「履歴ID」と、項目「参加者ID」と、項目「役割」と、項目「参加日時」と、項目「探索エリア」と、項目「エリア到着」と、項目「行動履歴」と、項目「備考」等を含む。
The
項目「履歴ID」は、イベントにおいて取得された履歴それぞれを識別する情報を示す。サーバ20は、参加者個別に履歴IDを定義せず、イベントに参加したグループごとに当該IDを定義することとしてもよい。
The item “history ID” indicates information for identifying each history acquired in the event. The
項目「参加者ID」は、履歴IDに紐づけられた、参加者を識別する情報を示す。例えば、履歴ID「R001」に紐づけられている参加者IDは「U001」、「U002」等であることを示す。 The item “participant ID” indicates information for identifying a participant associated with the history ID. For example, it indicates that the participant IDs associated with the history ID "R001" are "U001", "U002", and the like.
項目「役割」は、参加者IDに紐づけられた、各ユーザがイベントで担当する役割を識別する情報を示す。例えば、参加者ID「U001」の役割は「探索」であることを示す。 The item "role" indicates information for identifying the role each user takes charge of in the event, which is linked to the participant ID. For example, it indicates that the role of the participant ID "U001" is "search".
項目「参加日時」は、イベントIDに紐づけられた、各ユーザがイベントに参加した日時に関する情報を示す。例えば、イベントID「R001」に紐づけられた各ユーザの参加日時は「2020/02/10」であることを示す。 The item "participation date and time" indicates information about the date and time when each user participated in the event, which is linked to the event ID. For example, it indicates that the participation date and time of each user associated with the event ID "R001" is "2020/02/10".
項目「探索エリア」は、イベントIDに紐づけられた、各ユーザがイベントで探索したエリアに関する情報を示す。例えば、イベントID「R001」に紐づけられた各ユーザの探索エリアは「A」等の複数のエリアであることを示す。 The item “searched area” indicates information related to the area searched by each user for the event, which is linked to the event ID. For example, it indicates that each user's search area associated with the event ID "R001" is a plurality of areas such as "A".
項目「エリア到着」は、イベントIDに紐づけられた、各ユーザがイベントで各エリアに到着した時間に関する情報を示す。例えば、イベントID「R001」に紐づけられた各ユーザがエリア「A」に到着した時間は「10:30:00」であることを示す。当該到着した時間は、ユーザが当該エリアでの探索を開始したタイミングとなりえる。 The item "arrival at area" indicates information about the time each user arrived at each area at the event, which is linked to the event ID. For example, it indicates that the time at which each user associated with event ID "R001" arrived at area "A" was "10:30:00". The arrival time can be the timing at which the user started searching in the area.
項目「行動履歴」は、イベントIDに紐づけられた、各ユーザのイベントにおける行動履歴に関する情報を示す。また、当該行動履歴は、「種別」、「時刻」、「対象」等に区分分けされており、各ユーザがイベントにおいてどのような行動を実行したのか、行動の詳細に関する情報を保持する。例えば、イベントID「R001」において、ユーザID「U001」のユーザの行動履歴の一例は、種別が「発見」であり、当該発見の時刻が「10:32:00」であり、当該発見の対象が「P001」であることを示す。ある局面において、サーバ20は、イベントに参加しているユーザが行動を実行するたびに、当該データベースにユーザの行動履歴を保持してもよい。
The item "action history" indicates information about the action history of each user's event, which is linked to the event ID. In addition, the action history is classified into "type", "time", "target", etc., and holds information on what kind of action each user performed in the event and details of the action. For example, in the event ID “R001”, an example of the action history of the user with the user ID “U001” has the type “discovery”, the time of the discovery is “10:32:00”, and the target of the discovery is is "P001". In one aspect, the
これにより、サーバ20は、ユーザがイベントにおいて実行した行動を随時記録することができる。そのため、イベントの主催者は、ユーザの行動履歴に基づいた、関連するイベントの提示、特定の特典の付与などをすることができ、ユーザのイベント参加に対する興趣性の向上、リピートの促進等が期待できる。
Thereby, the
項目「備考」は、イベント履歴において、特記事項等がある場合に保持される情報である。 The item "remarks" is information that is held when there are special notes or the like in the event history.
<3 動作>
以下、システム1が、複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、複数のユーザがイベントを進行させることに応答して、第1の画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理について説明する。
<3 Operation>
Hereinafter, the
図6は、複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、複数のユーザがイベントを進行させることに応答して、画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理を表すフローチャートである。 FIG. 6 shows an image obtained by some of a plurality of users of other users working on the task of the event, and one of the images in response to the progress of the event by the plurality of users. 10 is a flow chart showing a process of providing content from which parts are extracted to the plurality of users.
ステップS601において、端末装置10Aの制御部190は、ユーザグループ内のユーザにより、イベントの課題に取り組む他のユーザを含む動画または静止画を取得する。具体的には、例えば、役割が「サポート」であるユーザの端末装置10Aは、当該ユーザの操作により、端末装置10Aのカメラ160等により、役割が「探索」である他のユーザがイベントの課題、例えば、発見対象物の探索等に取り組んでいる様子の画像を取得する。端末装置10Aは、取得した画像の情報をサーバ20へ送信する。
In step S601, the
ステップS651において、サーバ20の制御部203は、ユーザグループがイベントを進行させることに応答して、動画または静止画の少なくとも一部のコンテンツをユーザグループ内のユーザが操作する端末10Aに対し提供可能とする。例えば、当該一部のコンテンツが提供される対象のユーザは、役割が「探索」のユーザである。ここで、サーバ20がイベントの進行に応じて当該イベントに参加したユーザに対しコンテンツを提供可能とする契機としては、以下が含まれる。
・ イベントとして構成される複数のエリアのうちいずれかのエリアで探索する期間が終了したこと
(1)具体的には、当該エリアに設定される制限時間が過ぎることにより、エリアで探索する期間が終了したこととしてもよい
(2)具体的には、当該エリアの全ての発見対象物を発見することにより、エリアで探索する期間が終了したこととしてもよい
・ 各エリアでユーザが探索を開始してから所定期間が経過したこと。
・ 各エリアで、ユーザが探索の期間において発見対象物を発見したこと
・ 各エリアで、ユーザに対し、発見対象物の発見を支援するためのヒントを通知すること
・ ユーザが、イベントとして構成される複数のエリアの全てまたは一部の探索を終えること
サーバ20は、ユーザがイベントを終了させたことを、イベント履歴データベース285等から取得した、ユーザのエリア到着時間、すなわちイベントの開始時間と、イベントごとに設定された制限時間とに基づいて判定してもよい。サーバ20は、ステップS601において取得された、イベントの課題に取り組む他のユーザを撮影した画像から、例えば、探索の役割であるユーザが発見対象物を発見した時の様子、発見対象物を探索している様子等を抽出したコンテンツを作成し、ユーザに提供する。例えば、ユーザの端末装置10が、発見対象物を発見したことを報告する操作を受け付けるとする。この場合、サーバ20は、当該操作を受け付けるタイミングに基づいて、当該タイミングより前に端末装置10により撮影されていた動画像に基づいて、探索を行うユーザが発見対象物を発見したタイミングの動画像を特定し得る。
In step S651, the
・ The period for searching in one of the multiple areas configured as an event has ended. (2) Specifically, it may be considered that the period for searching in the area has ended by discovering all discovery objects in the area. A specified period of time has passed since
・ In each area, the user has found a discovery target during the search period. ・ In each area, the user is notified of a hint to assist in finding the discovery target. The
ここで、サーバ20の制御部203が、端末装置10Aから取得した画像から、一部を抽出する処理について説明する。サーバ20の制御部203は、画像解析等により、画像に含まれる人物を特定し、当該人物のみを抽出したコンテンツを作成してもよい。このとき、画像解析の処理は、既存のあらゆる処理で実行されてよく、限定されない。また、サーバ20は、記憶部202に、人物の複数の画像を入力とし、その中から特定の表情、例えば、笑顔、驚いた顔、熱中している顔、等を抽出した画像を正解出力として学習させた学習済みモデルを記憶させていてもよい。サーバ20の制御部203は、端末装置10Aから取得した画像と、当該学習済みモデルとに基づいて、イベントの課題に取り組むユーザの特定の表情の画像のみを抽出したコンテンツをユーザに提供してもよい。
Here, the process of extracting a part from the image acquired from the
ステップS602において、端末装置10Aの制御部190は、サーバ20から提供されたコンテンツをディスプレイ132に表示する等により、ユーザに提示する。
In step S602, the
これにより、ユーザは、イベントに参加している時の様々な様子、例えば、探索に夢中になっている様子、発見対象物を発見して喜んでいる様子、等を抽出したコンテンツを得ることができる。そのため、イベント時を振り返りながら、記録を残すことができ、思い出をより一層高めるだけでなく、リピートを促進することが期待できる。 As a result, the user can obtain content extracted from various aspects of participating in the event, such as a state of being absorbed in searching, a state of being happy to discover an object to be discovered, and the like. can. Therefore, it is possible to leave a record while looking back on the time of the event, and it is expected not only to enhance memories but also to promote repeats.
図7は、複数のユーザのうちいずれか一部のユーザにより、イベントの課題に取り組む他のユーザを撮影した画像を取得し、撮影された画像に含まれる発見対象物の承認に伴い、イベントの進行度合いを特定し、複数のユーザがイベントを進行させることに応答して、画像の一部を抽出したコンテンツを当該複数のユーザに対し提供する処理を表すフローチャートである。 FIG. 7 shows that some users out of a plurality of users acquire images of other users who are working on the task of the event, and when the object to be discovered included in the captured image is approved, the event is performed. FIG. 10 is a flow chart showing a process of specifying the degree of progress and providing content obtained by extracting a part of an image to a plurality of users in response to the progress of the event by the plurality of users. FIG.
ステップS701において、端末装置10Aの制御部190は、複数のユーザのうちいずれか一部のユーザの端末において発見対象物を発見したことの承認を受けるための入力操作を受け付け、当該情報をサーバ20に送信する。具体的には、端末装置10Aの制御部190は、役割が「探索」であるユーザの端末装置10Aのカメラ160等により、発見対象物をディスプレイ132等に表示させる。ここで、当該端末装置10Aは、イベントにおいて、発見対象物を探索する役割のユーザが使用する端末装置10Aを示す。このとき、端末装置10Aの制御部190は、ディスプレイ132等に表示されている現在時刻が、イベント開始時からの時刻を基準として、予め設定されているイベントの制限時間内であるかを判定してもよい。端末装置10Aの制御部190は、現在時刻がイベントの制限時間内である場合に、ユーザに対し、発見対象物を撮影するための入力操作を受け付ける。端末装置10Aの制御部190は、撮影された発見対象物の画像を、サーバ20に送信する。
ある局面において、端末装置10Aの制御部190は、ユーザから承認のための入力操作を受け付けずとも、当該端末装置10Aのカメラ160等により撮影された動画、または静止画の情報を受け付けることで、承認操作の代わりとしてもよい。
In step S701, the
In one aspect, the
ステップS751において、サーバ20の制御部203は、画像に発見対象物が含まれるか否かを判定する。サーバ20の制御部203は、画像解析により、画像に発見対象物が含まれるか否かを判定してもよい。また、サーバ20は、記憶部202に、複数の発見対象物が含まれた画像を入力とし、発見対象物のみを抽出した画像を正解出力として学習させた学習済みモデルを記憶されていてもよい。サーバ20の制御部203は、端末装置10Aから取得した画像と、当該学習済みモデルとに基づいて、画像内に発見対象物が含まれるかの判定をしてもよい。
In step S751, the
ステップS752において、サーバ20の制御部203は、承認のための入力操作を受け付けることに応答して、ユーザグループによるイベントの進行度合いを特定する。具体的には、サーバ20の制御部203は、ステップS701において、端末装置10Aから受け付けた、発見対象物の承認のための入力操作に応答して、探索エリアに配置されている発見対象物のうち幾つを発見したかを判定し、イベントがどの程度進行したのかの進行度合いを特定する。また、サーバ20の制御部203は、当該エリアに配置されている発見対象物を全て発見したと判定した場合、当該エリアにおけるイベントが終了したと特定する。ある局面において、サーバ20の制御部203は、ユーザが発見対象物の全てを発見せずに、イベントの制限時間が満了した場合も、当該イベントが終了したと特定する。ある局面において、サーバ20の制御部203は、イベントの進行度合いを特定したのち、ユーザに対し、あとどれくらい発見対象物が配置されているかを提示してもよい。また、ある局面において、サーバ20の制御部203は、イベントの制限時間と進行度合いとに基づいて、例えば、想定される時間よりも早く全ての発見対象物を発見した場合等、ユーザに対して、限定のアイテム、グッズ等を付与してもよい。
In step S752, the
これにより、ユーザは、イベントの進行度合いを確認しながらイベントに取り組むことができ、制限時間が迫ることによる緊張感、早くイベントを終了することによる特別感、達成感を得ることができ、イベント参加の興趣性を高めることができる。 As a result, the user can work on the event while confirming the progress of the event, and can feel a sense of tension when the time limit is approaching, and a special feeling and a sense of accomplishment when the event ends early. can increase the interest of
<4 画面例>
図8は、本発明において開示される、現実の世界におけるイベントの概要を示す図である。
<4 Screen example>
FIG. 8 is a diagram showing an overview of events in the real world disclosed in the present invention.
図8において、イベントは複数のエリアで実施される。このとき、イベントは、各エリアにおいて同時に実施されてもよいし、一つのエリアを終了するごとに、次のエリアに挑戦できるよう実施されてもよい。図8において、801A、801B、801Cはそれぞれ、イベントが実施されるエリアを示す。当該エリアはそれぞれ、通路等でつながっていても良いし、同じ空間内に仕切りを設けることでエリア分けしていてもよい。また、各エリアにはエリア入り口が設けられており、イベントに参加するユーザは、当該入口を通ってエリア内に入ることとしてもよい。 In FIG. 8, the event is held in multiple areas. At this time, the event may be carried out simultaneously in each area, or may be carried out so that each time one area is completed, the next area can be challenged. In FIG. 8, 801A, 801B and 801C respectively indicate areas where events are held. The areas may be connected to each other by passages or the like, or may be divided into areas by providing partitions in the same space. Each area is provided with an area entrance, and users participating in the event may enter the area through the entrance.
参加ユーザ802A、802B、802Cは、それぞれ、各エリアにおけるイベントに参加したユーザを示す。このとき、ユーザは、イベントごとにグループ単位で参加しており、複数のユーザが、それぞれ役割を設定された状態でイベントに参加する。
Participating
発見対象物803A、803B、803Cは、各エリアに配置されている発見対象物を示す。発見対象物は、イベントの態様によって変更してもよい。また、発見対象物は、ぬいぐるみ等の現実の世界の物体でも良く、端末装置10Aのカメラ160等により発見されるAR(Augmented Reality)により定義されたものでもよい。
Discovery objects 803A, 803B, and 803C indicate discovery objects arranged in each area. The discovery target may be changed depending on the aspect of the event. The object to be found may be a real world object such as a stuffed animal, or may be an object defined by AR (Augmented Reality) discovered by the
図9は、複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像の画面例である。 FIG. 9 is a screen example of an image captured by some of a plurality of users of other users working on the task of the event.
図9において、端末装置10Aは、役割が「サポート」であり、イベントの課題に取り組んでいる他のユーザを撮影するユーザがイベントにおいて使用する端末装置を示す。
In FIG. 9, a
発見対象物901および902は、イベントにおいて、各エリアに配置されている、発見対象物をそれぞれ示す。 Discovery targets 901 and 902 indicate discovery targets arranged in each area in the event.
ユーザ903および904は、イベントに参加しているユーザをそれぞれ示す。図示する例では、各ユーザは、イベントを運営する事業者により配布されるパンフレット等の冊子を把持している。図9において、ユーザ903および904は、役割が「探索」であり、発見対象物901および902等を探索する。図9において、ユーザ903および904は、発見対象物901および902を発見しており、その様子をユーザが端末装置10Aのカメラ160等によりその様子を画像等により撮影している。端末装置10Aの制御部190は、当該画像等をサーバ20に送信する。サーバ20の制御部203は、取得した画像の一部を抽出したコンテンツを、当該ユーザに対し提供する。
このとき、端末装置10Aを操作しているユーザは、端末装置10Aのカメラ160等により、イベントの課題に取り組んでいる他のユーザの画像等を撮影し、サーバ20に送信してもよい。サーバ20の制御部203は、当該画像も含め、取得した画像の一部を抽出したコンテンツを、当該ユーザに提供してもよい。
このとき、端末装置10Aの制御部160は、役割が「探索」であるユーザ903および904が発見対象物901および902を発見したとき、撮影タイミングである旨の通知等をユーザに提示してもよい。
At this time, the user operating the
At this time, when
ある局面において、端末装置10Aの制御部190は、役割が「探索」であるユーザ903および904が発見対象物901および902を発見したタイミングで、自動的にカメラ160等により当該ユーザを撮影してもよい。以上のように、役割が「サポート」であるユーザの操作によらずとも、当該役割が「サポート」であるユーザの端末装置10Aが、役割が「探索」であるユーザが行う探索について所定の条件を満たすことにより、役割が「探索」のユーザが発見対象物901、902を発見するタイミングを含む一定期間の動画または静止画を記録し得る。役割が「サポート」であるユーザの端末装置10Aが行う処理として、以下を含みうる。
・ 当該役割が「サポート」であるユーザの端末装置10Aが撮影する撮影結果において被写体として写る「探索」のユーザが特定の行動をしたか否かを検知する。例えば、制御部190は、カメラ160等の撮影範囲に役割が「探索」であるユーザが存在する場合、当該ユーザに焦点を合わせておき、当該ユーザの行動を特定する。制御部190は、当該ユーザの行動が「発見対象物の発見」であることを特定した場合、自動的にカメラ160等を動作させ当該ユーザを撮影してもよい。
・ 後述するように、役割が「探索」であるユーザの端末装置10において、当該「探索」の役割のユーザから、発見対象物901、902を発見したことの入力操作を受け付ける。一方、役割が「サポート」であるユーザの端末装置10Aにおいて撮影を継続しておき、撮影結果のうち一部を、役割「探索」のユーザが発見対象物901、902を発見したことの入力操作を行ったタイミングに基づき抽出する。例えば、サーバ20は、当該タイミングを含む前後の期間の撮影結果を抽出することで、役割「探索」のユーザが発見対象物901、902を発見する前後の動画を生成することができる。例えば、役割「サポート」のユーザの端末装置10Aが、カメラ160により撮影を継続し、撮影結果(動画)を、逐次、サーバ20に送信する。サーバ20が、役割「探索」のユーザの端末装置10からの入力操作を受け付ける。これにより、役割「サポート」のユーザが、役割「探索」のユーザが探索対象物901、902を発見するタイミングを見計らわずとも、役割「探索」のユーザが発見対象物901、902を発見したタイミングを含む動画または静止画を自動的に生成し、サーバ20に蓄積し得る。
In one aspect, the
- It is detected whether or not the "search" user, who appears as a subject in the photographing result of the
- As will be described later, in the
これにより、発見対象物を探索するユーザは、自身がイベントに取り組んでいる様子等を撮影した画像から一部を抽出したコンテンツを、画像を撮影したユーザと共有することができる。そのため、「探索」と「サポート」とで役割が分かれている場合でも、お互いがイベントにおいてどのような行動をしたかを振り返りながらコンテンツを見ることで、思い出を高めることができる。また、次回は「探索」と「サポート」の役割を交換する、等の意欲も高まり、イベント参加のリピートの促進が期待できる。 As a result, a user who searches for a discovery target can share content obtained by extracting a part of an image of himself/herself working on an event or the like with the user who has photographed the image. Therefore, even if the roles are divided into "exploration" and "support", it is possible to enhance memories by looking back at the content while looking back on how each other acted at the event. In addition, the desire to exchange the roles of “exploration” and “support” will increase next time, and it can be expected to promote repeat participation in the event.
時間表示部905は、現在時刻と、イベントにおける制限時間とを表示するため画面である。端末装置10Aの制御部190は、ユーザが各エリアに到着した時間をイベントの開始時間とし、イベントごとに設定された制限時間のカウントダウンを開始する。例えば、図9においては、現在時刻は制限時間内であり、当該画面には「残り5分」と表示される。ユーザは、当該表示を確認することで、イベントにおける残り時間を確認しながらイベントを施行することができる。
A
実績表示部906は、イベントにおける実績等を表示するための画面である。具体的には、当該画面には、発見した発見対象物、残りの発見対象物、ヒント表示の有無等を表示する。ある局面において、実績表示部906は、役割が「探索」であるユーザが使用している端末装置10Aと連動していてもよい。その場合、役割が「探索」のユーザが発見対象物を発見することに応答して、実績表示部906が更新される。これにより、ユーザはリアルタイムに状況を共有しながらイベントを進行させることができる。ある局面において、サーバ20は、発見対象物ごとに発見の難易度を設定していてもよい。ユーザが当該発見対象物に対するヒント情報をOFFにした場合、サーバ20は、当該ユーザが当該発見対象物を発見することに応答して、特定の報酬等を付与するなど、ヒント情報の活用の有無に応じて特定の報酬を変化することとしてもよい。
A
これにより、ユーザは、あえてヒント情報を得ないで探索をすることに挑戦することで、探索の緊張感を味わえるとともに、特別な報酬を得られるという達成感を享受できる。そのため、ユーザの継続的なイベントへの参加促進が期待できる。 As a result, the user can feel the tension of the search and enjoy the sense of accomplishment of obtaining a special reward by challenging the search without obtaining any hint information. Therefore, it can be expected that users will continue to participate in events.
図10は、役割が「探索」であるユーザが使用する端末装置10Aにおいて、発見対象物の承認操作を実行する際の画面例である。
FIG. 10 shows an example of a screen when a discovery target approval operation is performed on the
図10において、時間表示部1001は、図9における時間表示部905と同様に、現在時刻と、イベントにおける制限時間とを表示するための画面である。端末装置10Aの制御部190は、ユーザが各エリアに到着した時間をイベントの開始時間とし、イベントごとに設定された制限時間のカウントダウンを開始する。例えば、図10においては、現在時刻は制限時間内であり、当該画面には「残り8分」と表示される。
In FIG. 10, a
発見対象物1002は、各エリアに配置されている、発見対象物を示す。
A
承認操作画面1003は、ユーザが発見対象物を発見したことを承認するための操作画面を示す。例えば、端末装置10Aの制御部190は、カメラ160等により発見対象物を撮影範囲に収めると、画像解析等により、当該発見対象物の名称等の情報をユーザに提示してもよい。端末装置10Aの制御部190は、発見対象物が撮影範囲に収まっており、制限時間内である場合に、ユーザから承認のための当該発見対象物を撮影する操作を受け付ける。端末装置10Aの制御部190は、撮影された発見対象物の画像を、サーバ20に送信する。ある局面において、当該承認のための操作は、端末装置10Aの位置情報センサ150から取得した情報に基づいて受け付けることとしてもよい。すなわち、端末装置10Aの位置情報センサ150から取得したユーザの位置情報と、発見対象物が配置されている場所の位置情報とに基づいて、ユーザが発見対象物の配置されている場所にいることを特定したときのみ、承認のための撮影操作を受け付けてもよい。その後、端末装置10Aの制御部190は、サーバ20から承認を受け付けた旨の通知を取得し、ユーザに提示することとしてもよい。
The
実績表示部1004は、図9における実績表示部906と同様に、イベントにおける実績等を表示するための画面である。ここで、端末装置10Aの制御部190は、役割が「探索」のユーザが使用する端末装置10Aにおいては、ヒント表示の有無に関する情報を提示しなくともよい。ある局面において、端末装置10Aの制御部190は、承認操作画面1003において、ユーザからの承認操作を受け付けることに応答して、実績表示部1004における「発見」の数値を増やし、「残り」の数値を減らす処理を実行してもよい。
A
また、ある局面において、複数のユーザが使用する端末装置10Aは、お互いにネットワーク80、Bluetooth(登録商標)モジュールを利用した近距離通信システム等を通じて情報を共有し、ユーザが発見対象物を発見した実績などをリアルタイムに共有してもよい。
Further, in a certain aspect, the
これにより、役割が異なるユーザ間においても、探索状況が常に共有できる。そのため、役割が「サポート」のユーザは、制限時間と残りの発見対象物の数と、等を確認しながら、役割が「探索」のユーザのサポートをすることができる。 As a result, even users with different roles can always share the search status. Therefore, the user whose role is "support" can support the user whose role is "search" while confirming the time limit, the number of remaining objects to be discovered, and the like.
図11は、役割が「探索」であるユーザが使用する端末装置10Aにおいて、イベントにおいて、制限時間が終了した際に、ディスプレイ132等に表示される画面の画面例である。
FIG. 11 is an example of a screen displayed on the
図11において、時間表示部1101は、図10における時間表示部1001と同様に、現在時刻と、イベントにおける制限時間とを表示するため画面である。図11において、現在時刻は制限時間を徒過しており、当該画面には「時間切れ」と表示される。
In FIG. 11, a
承認操作画面1102は、図10における承認操作画面1003と同様に、ユーザが発見対象物を発見したことを承認するための操作画面を示す。例えば、端末装置10Aの制御部190は、当該画面において、発見対象物が撮影範囲に収まっており、制限時間内である場合にユーザからの承認操作を受け付ける。図11においては、「時間切れ」であるため、端末装置10Aの制御部190は、ユーザから承認のための発見対象物を撮影する操作を受け付けない。このとき、端末装置10Aの制御部190は、承認操作画面1102において、「このエリアのキャラクターが逃げてしまいました・・・」等の表示とともに、撮影のためのボタンを非アクティブとする処理をしてもよい。
The
これにより、ユーザは、制限時間内に発見対象物を探索することで、緊張感を感じながら探索を行うことができ、イベントの興趣性が向上する。また、制限時間徒過により、認証ができなかった場合に、また挑戦しよう、というイベントへのリピートの促進が期待できる。 As a result, the user can search for the object to be found within the time limit, feeling a sense of tension while searching, and the event becomes more interesting. In addition, it can be expected that when the authentication fails due to the expiration of the time limit, the promotion of repeats to the event to try again.
図12は、複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像において、発見対象物の配置場所のヒントをユーザに提示する際の画面例である。 FIG. 12 is an example of a screen when some of a plurality of users presents a hint of the placement location of a discovery target to a user in an image of another user working on an event task. .
図12において、ヒント表示1201は、発見対象物が配置されている場所に関するヒントの情報を示す。例えば、サーバ20の制御部203は、端末装置10Aの位置情報センサ150からユーザの位置情報を取得する。サーバ20の制御部203は、取得した位置情報と、発見対象物の配置されている場所の位置情報とに基づいて、端末装置10Aに発見対象物の配置されている場所等に関するヒントの情報を提示する。端末装置10Aの制御部190は、サーバ20から取得した当該ヒントの情報を、ディスプレイ132に表示する等して、ユーザに提示する。このとき、ヒントの情報に含まれる情報として、発見対象物の配置されている場所に関する情報だけでなく、発見対象物が出現する時間帯、例えば、端末装置10Aのカメラ160等により認証が可能な時間帯等の情報をユーザに提示してもよい。ある局面において、端末装置10Aの制御部109は、ユーザが、発見対象物が配置されている場所に到着した時、制限時間が徒過している場合には、ヒントの情報をユーザに提示しないこととしてもよい。また、ある局面において、ヒントが表示される制限時間は、エリアの制限時間と必ずしも一致していなくてもよく、ヒント表示のための制限時間が別途設定されており、当該設定に基づいて、ユーザにヒントの情報を提示することとしてもよい。
In FIG. 12, a
これにより、ユーザは、見つけづらい場所に配置されている発見対象物について、配置場所等のヒントを得ることで、発見対象物を発見できる可能性を高めることができる。また、ユーザは、ヒントに基づいて周囲を詳細に探索することで、宝探し、探検をしている感覚を得ることができ、イベントの興趣性をさらに高めることができる。加えて、ヒントを基に、役割が「探索」のユーザと「サポート」のユーザとが協力して探索することで、イベントを進行するうえでの一体感を醸成することができる。 As a result, the user can increase the possibility of discovering the discovery target by obtaining hints such as the location of the discovery target that is located in a difficult-to-find location. In addition, by searching the surroundings in detail based on the hints, the user can get the feeling of treasure hunting and exploration, and can further enhance the interest of the event. In addition, based on hints, a user whose role is “search” and a user whose role is “support” can cooperate in searching, thereby fostering a sense of unity in proceeding with the event.
ある局面において、サーバ20の制御部230は、イベントの終了から所定の期間が経過した後、イベント当日にユーザに提供したコンテンツに、さらに画像等を追加したコンテンツを、ユーザの端末装置10Aに送信する処理を実行してもよい。例えば、イベントの終了から数日経過後に、イベント当日にユーザが発見できなかった発見対象物に関する情報を、イベント当日にユーザに提供したコンテンツにさらに追加してユーザに提供する。ここで、ユーザが発見できなかった発見対象物に関する情報は、例えば、以下である。
・発見できなかった発見対象物のシルエット
・発見できなかった発見対象物の配置されているエリアに関する情報
・イベント後に追加された発見対象物のシルエット
・イベント後に追加された発見対象物の配置されているエリアに関する情報
In one aspect, after a predetermined period of time has passed since the end of the event, the control unit 230 of the
・Silhouettes of undiscovered objects ・Information about areas where undiscovered objects are located ・Silhouettes of undiscovered objects added after the event ・Location of undiscovered objects added after the event Information about your area
また、サーバ20の制御部230は、ユーザに対し、画像等を追加したコンテンツそのものではなく、下記の態様でユーザにコンテンツ等を提示してもよい。
・画像、コンテンツ等を閲覧するためのウェブページのURL
・画像、コンテンツ等を閲覧するための二次元コードの画像
サーバ20の制御部230は、イベント当日、イベント会場等においても、上記の態様でユーザに画像、コンテンツ等を提示してもよい。これにより、ユーザは、Wi-Fi(Wireless Fidelity)等の通信環境がない状況においても、通信負荷の大きい画像ファイル等を表示させずに済む。また、制御部203は、ユーザの端末装置10Aの通信環境に基づいて、画像、コンテンツを直接表示するか、上記の態様で表示するかを決定してもよい。
In addition, the control unit 230 of the
・Web page URL for viewing images, content, etc.
• Image of two-dimensional code for viewing images, contents, etc. The control unit 230 of the
これにより、ユーザは、イベントへの参加意欲が刺激されることが期待できる。そのため、ユーザのイベントへのリピート参加が促進されることが期待できる。 As a result, users can expect to be motivated to participate in the event. Therefore, it can be expected that repeated participation in the event by the user will be promoted.
<第2の実施の形態>
<概要>
第1の実施形態では、現実の世界において実施されるイベントにおいて、イベントの課題に取り組むユーザの画像を、複数の他のユーザが撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明した。
第2の実施形態では、現実の世界において実施されるイベントにおいて、一定空間内に配置されている発見対象物に備えられたカメラにより、当該発見対象物を探索、または発見したユーザの画像を撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明する。
発見対象物には、所定の画角で撮影可能なカメラ、180度カメラ、360度カメラなど様々な撮影範囲のカメラを備え付け得る。例えば、発見対象物がキャラクターである場合に、発見対象物の視野に応じた画角のカメラを備えることとしてもよい。これにより、発見対象物の目線での撮影画像であるかのような体験をユーザに提供し得る。
<Second Embodiment>
<Overview>
In the first embodiment, at an event held in the real world, a plurality of other users capture images of a user working on a task for the event, and in response to the progress of the event, some of the captured images are captured. The technology for providing the user with the extracted content has been described.
In the second embodiment, at an event held in the real world, a camera attached to a discovery target placed in a certain space captures an image of a user who searches for or discovers the discovery target. Then, in response to the progress of the event, a technique for providing the user with content obtained by extracting a part of the photographed image will be described.
The object to be found can be equipped with a camera capable of photographing at a predetermined angle of view, a 180-degree camera, a 360-degree camera, and other cameras with various photographing ranges. For example, when the discovery target is a character, a camera having an angle of view corresponding to the field of view of the discovery target may be provided. As a result, it is possible to provide the user with an experience as if the image was taken from the line of sight of the discovery target.
第2の実施形態において、ユーザは、発見対象物に備えられたカメラにより、自身がイベントの課題に取り組む様子を撮影される。サーバ20は、撮影した画像から、例えば、発見対象物の近くにいたのに発見対象物を発見できていない様子、ユーザが発見対象物を発見したときの様子を抽出し、ユーザに提示する。これにより、ユーザは、発見対象物を発見したときの、喜んだ、驚いた瞬間の表情等を、思い出とともに振り返ることができる。また、ユーザは、自身が発見対象物の近くで探索している様子を振り返ることで、イベントにおける自身の行動を振り返ることができ、次のイベント参加時の行動を計画することができる。
In the second embodiment, the user is photographed by the camera provided on the discovery object as he/she tackles the task of the event. The
<3 動作>
以下、システム1が、一定空間内に配置されている発見対象物に備えられたカメラにより、当該発見対象物を探索、または発見したユーザの画像を撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する処理について説明する。
<3 Operation>
Below, the
図13は、発見対象物が備えるカメラにより、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影した撮影結果を取得し、取得した撮影結果をイベントの進行の程度に応じてユーザに提供する処理を表すフローチャートである。
ここで、発見対象物がカメラを備えることとして、例えば以下の態様であってもよい。
・発見対象物の内部または外部に物理的に設置されているカメラ。
例えば、発見対象物がぬいぐるみ等の3次元の物体である場合に、当該ぬいぐるみに体現されるキャラクターの口や目、体表面に埋め込むことにより、発見対象物の内部に物理的にカメラを設置することがあり得る。
例えば、発見対象物がぬいぐるみ等の3次元の物体である場合に、その表面に沿ってカメラを設置することにより、発見対象物の外部に物理的にカメラを設置することがあり得る。
ここで、サーバ20等において、発見対象物を特定する情報と、カメラを特定する情報とを関連付けないで管理することとしてもよい。すなわち、サーバ20等においては、特に、発見対象物に物理的に設置されるカメラと、発見対象物とをデータとしては特に関連付けず管理することとしてもよい。一方、発見対象物を特定する情報と、カメラを特定する情報とをサーバ20で関連付けて管理することとしてもよい。
・発見対象物とは物理的に離れて設置されているものの、サーバ20等において、各発見対象物に紐付けてデータとして管理がされているカメラ
例えば、発見対象物が3次元の物体、または、壁面等に描かれた2次元の表現物である場合に、これら発見対象物の周辺にカメラを設置することがあり得る。すなわち、発見対象物に物理的にカメラを設置しない場合も、「発見対象物がカメラを備える」ものとみなすこととしてもよい。これにより、発見対象物を探そうとするユーザ、発見対象物を発見したタイミングのユーザ等を、当該カメラにより撮影し得る。
FIG. 13 shows that, during a period in which a user participates in an event and searches for a discovery target, a user in a certain space is captured by a camera included in the discovery target, and a photographing result of the user is acquired. 4 is a flow chart showing processing provided to the user according to the degree of progress;
Here, the following aspect may be sufficient as a discovery target being equipped with a camera, for example.
• Cameras that are physically installed inside or outside the object of discovery.
For example, when the discovery target is a three-dimensional object such as a stuffed animal, a camera is physically installed inside the discovery target by embedding it in the mouth, eyes, or body surface of the character embodied in the stuffed toy. It is possible.
For example, if the discovery target is a three-dimensional object such as a stuffed animal, it is possible to physically install the camera outside the discovery target by placing the camera along its surface.
Here, in the
A camera that is physically separated from the discovery target, but is managed as data linked to each discovery target in the
ステップS1351において、サーバ20の制御部203は、発見対象物40が備えるカメラ401により、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影させた結果を取得する。ある局面において、サーバ20の制御部203は、カメラ401から取得した結果に基づいて、イベントにおけるユーザの特定の様子を抽出してもよい。ユーザの様子とは、例えば、以下である。
・発見対象物を発見した時の驚いた、または喜んだ様子
・発見対象物の近くで、当該発見対象物を探している様子
In step S1351, the
・Appearance of being surprised or delighted when discovering the discovery target ・Appearance of searching for the discovery target near the discovery target
ここで、ユーザの様子の判定方法について例示する。サーバ20の制御部203は、カメラ401から取得した結果を画像解析することで、ユーザの感情、例えば、驚き、喜び等を特定し、当該特定した感情を示しているユーザの画像を抽出する。これにより、サーバ20は、ユーザが発見対象物を発見した瞬間を抽出したコンテンツをユーザに提供することができ、思い出作りの向上に寄与できる。このとき、サーバ20の制御部203は、画像解析の結果だけでなく、当該結果と、ユーザが発見対象物を発見したとサーバ20が判定した結果とに基づいて、当該結果を抽出してもよい。具体的には、例えば、サーバ20の制御部203は、カメラ401により発見対象物とユーザとの距離を測定し、当該距離が所定の範囲内にあるときに、前述の画像解析の結果とに基づいて、取得した結果から、ユーザが発見対象物を発見したときの様子として一部を抽出してもよい。
Here, a method for determining the state of the user will be exemplified. The
他にも、サーバ20の制御部203は、ユーザが発見対象物を発見した瞬間の様子に基づいて画像解析により結果を取得するのではなく、他の方法に基づいて結果を取得してもよい。例えば、サーバ20の制御部203は、予めカメラ401により発見対象物の周囲を動画として撮影した結果を取得し、ユーザが発見対象物を発見した時に、その時点を基準とした所定の期間前後の撮影結果を抽出するといった方法であってもよい。また、当該処理は、ユーザが発見対象物を発見した時に行われずともよく、イベントが所定の期間経過した後でもよい。サーバ20が、カメラ401により撮影された撮影結果のうち、ユーザが探索対象物を発見したタイミング(ユーザの感情の検出結果により、ユーザが探索対象物を発見したタイミングを特定してもよいし、端末装置10への入力操作によりユーザが探索対象物を発見したタイミングを特定してもよい)に基づき静止画または動画を抽出することにより、ユーザが探索対象物を発見したタイミングの前後を含む動画を生成し得る。
In addition, the
また、サーバ20の制御部203は、カメラ401により、ユーザの目線に関する情報を取得してもよい。具体的には、例えば、カメラ401は、発見対象物の目の位置に備えられており、サーバ20の制御部203は、ユーザが発見対象物を発見したときに、当該情報に基づいて、ユーザの目線が発見対象物に向いていることを判定する。サーバ20の制御部203は、画像解析の結果と、当該目線の情報とに基づいて、取得した結果から、ユーザが発見対象物を発見したときの様子として一部を抽出してもよい。
Also, the
ある局面において、カメラ401は、所定の位置、例えば、発見対象物の内部、発見対象物の近く、等に固定されて設置されていなくともよい。具体的には、例えば、カメラ401は、自律制御可能な移動体、例えば、ドローン等に設置されていてもよい。このとき、当該移動体に設置されたカメラ401は、特定の発見対象物と紐づけられていなくともよい。例えば、サーバ20が、当該移動体に設置されたカメラ401と紐づける発見対象物を、適宜、切り替えることとしてもよい。サーバ20が移動体に設置されたカメラ401と発見対象物との紐づけを切り替えることとして、以下を含みうる。
・ 発見対象物が発見されたか否かにより、発見対象物とカメラ401との紐づけを切り替えることとしてもよい。例えば、サーバ20が、ユーザの端末装置10から、ユーザが発見対象物を発見したことの報告をする操作(端末装置10への入力操作等)を受け付けることに応答して、カメラ401と発見対象物との紐づけを切り替えることとしてもよい。
・ ユーザが特定の発見対象物を探索している期間が一定期間を超えたか否かにより、発見対象物とカメラ401との紐づけを切り替えることとしてもよい。例えば、複数のユーザが、それぞれ別個の発見対象物を探索しようとするときがあり得る。移動体に設置されたカメラ401が、一定期間ごとに、紐づけられる発見対象物を切り替えつつ移動することにより、発見対象物を探そうとする複数のユーザを撮影し得る。
・ 発見対象物と、移動体に設置されたカメラ401との距離に応じて、当該発見対象物とカメラ401との紐づけを切り替えることとしてもよい。自律制御可能な移動体に設置されたカメラ401は、各発見対象物とBluetooth(登録商標)等の近距離通信により接続しており、当該移動体と発見対象物との距離が所定の距離以内にある時は、当該発見対象物と一時的に紐づけられることとしてもよい。
In some aspects, the
- The association between the discovery target and the
- The linkage between the discovery target and the
- Depending on the distance between the discovery target and the
ある局面において、発見対象物は、マイク(図示せず)を備えていてもよく、ユーザが発見対象物を発見した時の音声を取得してもよい。サーバ20の制御部203は、画像解析の結果と、当該音声とから、取得した結果から、ユーザが発見対象物を発見したときの様子として一部を抽出してもよい。
In one aspect, the discovery object may be equipped with a microphone (not shown) to capture audio when the user discovers the discovery object. The
これにより、サーバ20は、ユーザが発見対象物を発見した時の様子を抽出したコンテンツをユーザに提示できる。そのため、ユーザは、発見対象物を発見したときの感情とともに、イベントを振り返ることができるため、イベントに再度参加したい、等の意欲を刺激することができ、リピートの促進が期待できる。
As a result, the
また、ある局面において、サーバ20の制御部203は、カメラ401から、ユーザが発見対象物を発見したときの様子だけでなく、ユーザが発見対象物の近くで発見対象物を探索している様子を抽出してもよい。具体的には、例えば、サーバ20の制御部203は、カメラ401により測定した発見対象物とユーザとの距離が所定の距離にあり、かつ、ユーザの目線等の情報から、ユーザが発見対象物を発見していないと判定した場合等に、ユーザが発見対象物の近くにいながらも、発見対象物を発見していない、と判定する。または、サーバ20の制御部203は、カメラ401の撮影画像を解析し、人物が所定の大きさを超えて被写体として含まれている場合に、ユーザが発見対象物の近くにいたと判定してもよい。カメラ401が深度センサ等により物体までの距離を計測できる場合は、当該距離の計測結果に基づいて、ユーザが発見対象物の近くにいたと判定してもよい。サーバ20の制御部203は、当該判定に基づいて、当該ユーザの様子を抽出したコンテンツをユーザに提示する。また、撮影画像と発見対象物の対象物IDを対応付けて記憶することで、撮影画像をユーザに提示する際に対象物名を合わせてユーザに提示できる。
これにより、ユーザは、発見対象物の近くにいたのに発見できなかった、という悔しい思いを振り返ることができるとともに、次は見つけたい、という気持ちを醸成する。そのため、イベントへの継続的な参加が期待できる。
また、サーバ20の制御部203は、発見対象物からの距離が一定以上である場合に、カメラ401により撮影された結果をユーザに提示することとしてもよい。ユーザが発見対象物に接近できなかった場合に、発見対象物の位置をユーザに事後的に示唆することができる。
Further, in a certain aspect, the
As a result, the user can look back on the frustration of not being able to find an object even though it was near the object to be found, and fosters the desire to find the object next time. Therefore, continuous participation in the event can be expected.
Also, the
ある局面において、サーバ20の制御部203は、イベントを通してユーザが発見できた発見対象物と、ユーザが発見できなかった発見対象物に関する情報を取得し、当該情報をコンテンツとともにユーザに提示してもよい。具体的には、サーバ20は、ユーザの端末装置10Aから、ユーザが発見対象物を発見したことの承認を受け付けるための入力操作を受け付け、当該受け付けに基づいて、ユーザが発見対象物を発見したことを判定する。また、サーバ20の制御部203は、イベントごとに設定された制限時間を徒過してもユーザからの入力操作を受け付けていない発見対象物に関しては、イベントにおいてユーザが発見できなかった発見対象物として判定する。その後、サーバ20の制御部203は、ユーザが発見した発見対象物の情報と、ユーザが発見できなかった発見対象物の情報とを、上記コンテンツとともにユーザに提示する。
In one aspect, the
これにより、ユーザは、イベントを通じて撮影された画像等の一部を抽出したコンテンツだけでなく、発見、未発見の発見対象物に関する情報を把握することができる。そのため、一度の参加でどれくらい発見できたのか、または、あとどれくらい発見できていないのか、等を知ることができるため、イベントへのリピート意欲の向上が期待できる。
また、ある局面において、サーバ20の制御部203は、ユーザが発見できなかった発見対象物の情報をユーザに提示する時、当該発見対象物が配置されているエリアに関する情報、例えば、エリアのどの範囲に当該発見対象物が配置されているかを示唆する情報等をヒントとしてユーザに提示してもよい。これにより、ユーザは、当日のイベントにおいて発見できなかった発見対象物が配置されている場所を把握できるため、次回参加時の動き方を事前に検討できる。
As a result, the user can grasp not only content obtained by extracting a part of an image or the like shot through an event, but also information about discovered and undiscovered objects. Therefore, since it is possible to know how many discoveries have been made in a single participation, or how many more have not been discovered, etc., it is expected that the desire to repeat the event will increase.
Further, in a certain aspect, when the
ある局面において、当該ヒント等の情報は、イベントの終了に応じてユーザに提示してもよいし、イベント終了から所定の期間、例えば、数日後等にユーザに提示されてもよい。これにより、イベントの主催者は、イベントの終了時だけでなく、終了後暫く経過してからでも、ユーザにイベントの思い出を振り返るきっかけを提供することができ、ユーザのイベントへのリピート参加を促すことが期待できる。 In a certain aspect, information such as hints may be presented to the user upon completion of the event, or may be presented to the user for a predetermined period of time, such as several days after the completion of the event. As a result, the organizer of the event can provide the user with an opportunity to look back on the event not only at the end of the event, but also after a while after the end of the event, and encourage the user to participate in the event repeatedly. can be expected.
ステップS1352において、サーバ20の制御部203は、イベントの進行の程度に応じて、ユーザの端末装置10Aに対し、撮影された結果を提示する。イベントの進行の程度は、例えば、イベントの終了であり、イベントの終了は、例えば、以下のタイミングである。
・当日に開催される全てのイベントが終了したタイミング
・イベントが開催される各エリアでの探索が終了したタイミング
ここで、各エリアでの探索が終了したタイミングは、例えば、以下である。
・イベントの制限時間が終了したタイミング
・イベントにおいて、制限時間の終了前に、ユーザがエリアに配置されている発見対象物を全て発見したタイミング
In step S1352, the
- Timing at which all events held on the day have ended - Timing at which searching in each area where the event is held has ended Here, the timing at which searching in each area has ended is, for example, as follows.
・When the event time limit ends ・When the user discovers all the discoverable objects placed in the area before the time limit ends in the event
ステップS1301において、端末装置10Aの制御部190は、提供されたコンテンツをディスプレイ132に表示する等により、ユーザに提示する。
In step S1301, the
図14は、発見対象物が備えるカメラにより、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザを撮影した撮影結果と、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した画像を取得し、取得した撮影結果および画像の一部を抽出したコンテンツを、イベントの進行の程度に応じてユーザに提供する処理を表すフローチャートである。 FIG. 14 shows the result of photographing a user in a certain space with a camera included in a discovery target and a part of a plurality of users during a period in which the user participates in an event and searches for the discovery target. obtain images of other users searching for objects to be discovered at the event, and provide the obtained photographing results and content obtained by extracting a part of the images to the users according to the progress of the event. It is a flow chart showing processing.
ステップS1401において、端末装置10Aの制御部190は、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した画像を取得し、サーバに送信する。具体的には、例えば、端末装置10Aは、ユーザの操作により、端末装置10Aのカメラ160等により、他のユーザがイベントの課題、例えば、発見対象物の探索等に取り組んでいる様子の画像を取得する。端末装置10Aは、取得した画像の情報をサーバ20へ送信する。
In step S1401, the
ステップS1451において、サーバ20の制御部203は、イベントの進行の程度に応じて、取得した画像および撮影された結果の一部を抽出したコンテンツを提示する。ある局面において、サーバ20の制御部203は、ユーザの端末装置10Aから取得した画像の撮影時刻と、カメラ401から取得した結果の撮影時刻とを関連付けてユーザに提示してもよい。これにより、ユーザは、自分たちがイベントにおいて探索している時に、発見対象物からはこのように見えていた、等を思い出として振り返ることができる。
In step S<b>1451 , the
<4 画面例>
図15は、発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子を抽出したコンテンツをユーザに提示する画面例を示す。
<4 Screen example>
FIG. 15 shows an example of a screen that presents to the user content obtained by extracting a state in which the user is searching for a discovery target at an event from the results captured by the
図15において、コンテンツ1501は、サーバ20の制御部203が、カメラ401により撮影された結果から、ユーザがイベントにおいて、発見対象物の近くで発見対象物を探索している様子を抽出したコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
In FIG. 15 ,
ユーザ1503、1504は、それぞれ、役割が「探索」のユーザであり、イベントにおいて、発見対象物を探索しているユーザを示す。コンテンツ1501において、ユーザ1503、1504は、発見対象物を発見しておらず、近くで探索している状況であることを示す。
コンテンツ1502は、サーバ20の制御部203が、カメラ401により撮影された結果から、ユーザがイベントにおいて、発見対象物を発見したときの様子を抽出したコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
A
ユーザ1503は、コンテンツ1501におけるユーザ1503と同様に、役割が「探索」のユーザである。コンテンツ1502において、ユーザ1503は、発見対象物を発見している。サーバ20の制御部203は、発見対象物に備えられたカメラ401により撮影された結果から、コンテンツ1502のように、当該ユーザ1503が発見対象物を発見したときの様子を抽出する。
A
図16は、発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子等を抽出したコンテンツを、ユーザがイベントにおいて発見した発見対象物およびユーザが発見できなかった発見対象物の情報等とともにユーザに提示する画面例を示す。
FIG. 16 shows contents extracted from the result of photographing by the
図16において、コンテンツ1601、1602は、サーバ20の制御部203が、カメラ401により撮影された結果から、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツを、ユーザがイベントにおいて発見した発見対象物およびユーザが発見できなかった発見対象物の情報等とともにユーザに提示したコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
In FIG. 16 ,
コンテンツ1601は、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツとともに、ユーザが発見した発見対象物に関する情報と、ユーザが発見できなかった発見対象物に関する情報をユーザに提示する。このとき、端末装置10Aの制御部190は、サーバ20からユーザが発見できなかった発見対象物の情報、例えば、名称、配置されている場所を示唆する情報等を取得し、ユーザに提示してもよい。
The
これにより、ユーザは、イベントを通じて、自身がどの発見対象物を発見したのか、またはどの発見対象物を発見できていないのか、等をイベントにおけるユーザの探索の様子とともに振り返ることができる。そのため、ユーザは、イベントにおける思い出を鮮明に振り返るたけでなく、次のイベントへの参加意欲を向上させることができる。そのため、イベントへの継続的な参加促進が期待できる。ここで、当該コンテンツは、イベントにおける各エリアの終了に応じてユーザに提示されてもよいし、イベント全体の終了に応じてユーザに提示されてもよい。ある局面において、サーバ20の制御部203は、イベント当日はユーザが発見した発見対象物の情報のみを端末装置10に送信し、イベントから所定の期間経過後に、ユーザが発見できなかった発見対象物の情報を端末装置10に送信してもよい。これにより、イベントの主催者は、イベント終了後でも、ユーザにイベントを振り返る機会を提供することができ、ユーザのイベントへのリピート参加を促すことができる。
As a result, the user can look back on what discovery objects he/she has discovered or which discovery objects he/she has not found through the event, along with the state of the user's search for the event. Therefore, the user can not only look back on the memories of the event vividly, but also be motivated to participate in the next event. Therefore, continuous promotion of participation in the event can be expected. Here, the content may be presented to the user upon completion of each area in the event, or may be presented to the user upon completion of the entire event. In one aspect, the
コンテンツ1602は、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツとともに、ユーザが発見した発見対象物に関する情報と、次のエリアに配置されている発見対象物に関する情報をユーザに提示する。このとき、端末装置10Aの制御部190は、サーバ20から次のエリアに配置されている発見対象物の情報、例えば、名称等を取得し、ユーザに提示してもよい。このとき、端末装置10Aの制御部190は、当該発見対象物を、シルエット等で表示してもよい。
The
これにより、ユーザは、例えば、次のエリアに配置されている発見対象物のシルエットのみが表示された場合には、発見対象物の詳細を予測しながら次のエリアに取り組むことができ、イベントの興趣性が向上する。 This allows the user to work on the next area while anticipating the details of the discovery object, for example, if only the silhouette of the discovery object located in the next area is displayed, and the event's Improves interest.
図17は、発見対象物に備えられたカメラ401により撮影された結果から、ユーザがイベントにおいて発見対象物を探索している様子等を抽出したコンテンツを、ユーザがイベントにおいて他のユーザがイベントの課題に取り組む様子を撮影した画像の一部を抽出したコンテンツとともにユーザに提示する画面例を示す。
FIG. 17 shows content extracted by a user searching for a discovery target at an event from the results captured by the
図17において、コンテンツ1701は、サーバ20の制御部203は、例えば、下記コンテンツをユーザに提示する。
・カメラ401により撮影された結果から、イベントにおいてユーザが発見対象物の近くで発見対象物を探索している様子、ユーザが発見対象物を発見した様子等を抽出したコンテンツ
・ユーザがイベントにおいて他のユーザがイベントの課題に取り組む様子を撮影した画像の一部を抽出したコンテンツ
端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。ある局面において、端末装置10Aの制御部190は、サーバ20から、図15、および図16において例示した、ユーザがイベントにおいて発見した発見対象物、またはユーザが発見できなかった発見対象物の情報を取得し、当該コンテンツとともにユーザに提示してもよい。
In FIG. 17, as
・Content extracted from the results captured by the
これにより、ユーザは、一つのコンテンツから、イベントにおける様々な思い出を振り返ることができる。そのため、ユーザはより一層イベントが楽しかった、等の思い出が深くなり、また参加したい、等イベントのリピート参加の促進が期待できる。 This allows the user to look back on various memories of the event from one piece of content. Therefore, it can be expected that the user will have deeper memories of the event, such as having fun at the event, and will want to participate in the event again.
<第3の実施の形態>
第2の実施形態では、現実の世界において実施されるイベントにおいて、一定空間内に配置されている発見対象物に備えられたカメラにより、当該発見対象物を探索、または発見したユーザの画像を撮影し、イベントの進行に応答して、撮影した画像から一部を抽出したコンテンツを当該ユーザに提供する技術について説明した。
第3の実施形態では、現実の世界において実施されるイベントにおいて、ユーザからイベントの課題の進行状況に応じた入力操作を受け付け、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果をユーザに提示する技術について説明する。
なお、第3の実施形態では、イベントに参加するユーザは必ずしも複数人である必要はなく、ユーザ一人で参加する場合があってもよい。ユーザは、複数のユーザでチームを組んでイベントの課題に取り組むだけでなく、個人でイベントの課題に取り組んでもよい。これにより、ユーザは、ユーザ同士で課題への取り組み状況を他のユーザと競いあうことができる。また、イベントの主催者も、個人で参加しているユーザに対し、特定の報酬等(イベントを有利に進められるアイテム等)を提示してもよい。
<Third Embodiment>
In the second embodiment, at an event held in the real world, a camera attached to a discovery target placed in a certain space captures an image of a user who searches for or discovers the discovery target. Then, in response to the progress of the event, the technique of providing the user with content obtained by extracting a part of the photographed image has been described.
In the third embodiment, in an event held in the real world, an input operation is received from the user according to the progress of the task of the event, and the user advances the task of the event according to the end of the event. is presented to the user.
Note that in the third embodiment, the number of users who participate in the event does not necessarily have to be plural, and a single user may participate. A user may not only form a team with a plurality of users to work on the task of the event, but may work on the task of the event individually. As a result, users can compete with other users in terms of how they are working on the task. Also, the organizer of the event may present a specific reward or the like (item or the like that allows the event to proceed favorably) to users participating individually.
第3の実施形態において、端末装置10Aは、イベントの課題の進行状況に応じて、ユーザから所定の入力操作を受け付ける。具体的には、例えば、ユーザがイベントにおいて発見対象物を発見した時に、発見したことの承認を受け付けるための入力操作である。当該操作により、ユーザは、イベントにおいて発見対象物を発見したことを承認される。端末装置10Aは、当該承認のための入力操作を受け付けたことを、サーバ20に送信する。サーバ20は、端末装置10Aから取得した承認情報に基づいて、ユーザが発見対象物を発見したことを記憶部202に記憶する。
その後、サーバ20は、イベントの終了に応じて、ユーザから承認のための入力操作を受け付けた発見対象物を、ユーザが発見した発見対象物として、当該入力操作を受け付けなかった発見対象物を、ユーザが発見できなかった発見対象物として端末装置10Aに提示する。端末装置10Aは、これらの情報をユーザに提示する。
In the third embodiment, the
After that, in response to the end of the event, the
これにより、ユーザは、イベントの終了に応じて、自身のイベントにおける成果を、成績表のように確認することができる。そのため、ユーザは、エリアに配置されている発見対象物の総数よりも、発見した数が少ない、あと少しで全ての発見対象物を発見できた、等を振り返ることができ、更なるイベント参加への意欲の向上が期待できる。 This allows the user to check the results of his/her own event like a report card upon completion of the event. Therefore, the user can look back on the fact that the number of discovered objects is smaller than the total number of discovered objects arranged in the area, or that all the discovered objects are almost discovered, etc., and is encouraged to further participate in the event. can be expected to improve the motivation of
<3 動作>
図18は、現実の世界において実施されるイベントにおいて、ユーザからイベントの課題の進行状況に応じた入力操作を受け付け、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果をユーザに提示する処理を表すフローチャートである。
<3 Operation>
FIG. 18 shows an event held in the real world, in which an input operation is received from the user according to the progress of the task of the event, and when the event ends, the result of the progress of the task of the event by the user is sent to the user. It is a flow chart showing processing to show.
ステップS1801において、端末装置10Aの制御部190は、ユーザにより、イベントの課題の進行状況に応じた入力操作として、発見対象物を発見したことの承認のための入力操作を受け付ける。端末装置10Aの制御部190は、受け付けた結果を、サーバ20に送信する。具体的には、例えば、端末装置10Aの制御部190は、カメラ160等により、発見対象物を撮影し、当該撮影した画像をサーバ20に送信する。サーバ20の制御部203は、受け付けた画像に基づいて、ユーザが当該発見対象物を発見したことを承認する。サーバ20は、当該承認のための入力操作を受け付けた発見対象物を、ユーザが発見した発見対象物とし、イベントの制限時間内で、当該操作を受け付けていない発見対象物を、ユーザが発見できなかった発見対象物として判定してもよい。
In step S1801, the
ステップS1851において、サーバ20の制御部203は、イベントの終了に応じて、ユーザがイベントの課題を進行させた結果として、ユーザからの承認のための入力操作を受け付けた発見対象物の情報と、ユーザからの承認のための入力操作を受け付けていない発見対象物の情報と、をともにユーザに提示する。イベントの終了は、以下のタイミングである。
・当日に開催される全てのイベントが終了したタイミング
・イベントが開催される各エリアでの探索が終了したタイミング
ここで、各エリアでの探索が終了したタイミングは、例えば、以下である。
・イベントの制限時間が終了したタイミング
・イベントにおいて、制限時間の終了前に、ユーザがエリアに配置されている発見対象物を全て発見したタイミング
In step S<b>1851 , the
- Timing at which all events held on the day have ended - Timing at which searching in each area where the event is held has ended Here, the timing at which searching in each area has ended is, for example, as follows.
・When the event time limit ends ・When the user discovers all the discoverable objects placed in the area before the time limit ends in the event
ステップS1802において、端末装置10Aの制御部190は、提示された結果をディスプレイ132に表示する等により、ユーザに提示する。
In step S1802, the
これにより、サーバ20は、イベントの終了とともに、イベントにおけるユーザの成果をユーザに視認させることができる。そのため、ユーザは、イベントにおける自身の行動を反芻し、次のイベントへの参加意欲を高めることができる。
ある局面において、サーバ20は、他のユーザ、または、発見対象物に備えられたカメラ401により撮影された、ユーザがイベントの課題に取り組んでいる様子、発見対象物を発見した時の様子等をイベントにおけるユーザの成果とともにユーザに提示してもよい。また、サーバ20は、ユーザが発見できなかった発見対象物が配置されているエリアを示唆する情報等を、イベントにおけるユーザの成果とともにユーザに提示してもよい。
As a result, the
In a certain aspect, the
<4 画面例>
図19は、イベントの終了に応じて、ユーザが発見した発見対象物とユーザが発見できなかった発見対象物に関する情報とをユーザに提示する画面例を示す。
<4 Screen example>
FIG. 19 shows an example of a screen that presents to the user information about discovery objects that the user has discovered and discovery objects that the user has not been able to discover, in response to the end of the event.
図19において、コンテンツ1901は、サーバ20の制御部203が、イベントの終了に応じて、イベントにおいてユーザが発見した発見対象物およびユーザが発見できなかった発見対象物に関する情報をユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。ある局面において、サーバ20は、ユーザが発見した、または発見できなかった発見対象物の情報を、一覧の形式でユーザに提示しても良いし、異なる表示態様でユーザに提示してもよい。異なる表示態様は、例えば、ユーザが発見した発見対象物とユーザが発見できなかった発見対象物とを、異なるタブ、ウィンドウ等で表示する、ユーザが発見できなかった発見対象物のみシルエットで表示する、等であり、限定されない。
In FIG. 19, the
これにより、ユーザは、イベントにおいて発見した発見対象物と発見できなかった発見対象物とをともに把握することができる。そのため、あとどれくらい発見していれば、全ての発見対象物を発見できていたかを知ることができ、次のイベント参加への意欲を向上させることが期待できる。 Thereby, the user can grasp both the discovery target found in the event and the discovery target not found. Therefore, it is possible to know how much longer it would take to discover all of the objects to be discovered, which can be expected to increase motivation to participate in the next event.
図20は、イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツ等とともに、ユーザに提示する画面例を示す。 FIG. 20 shows, in accordance with the end of the event, information about the discovery target that the user could not find, information suggesting the area in which the discovery target is located, and one of the images taken by the discovery target. An example of a screen to be presented to the user is shown together with the content extracted from the part.
図20において、コンテンツ2001、2002は、サーバ20の制御部203が、イベントの終了に応じて、イベントにおいてユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツ等とともにユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
例えば、コンテンツ2001では、イベントにおいてユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報とともにユーザに提示する。また、コンテンツ2002では、イベントにおいてユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、および発見対象物により撮影された画像の一部を抽出したコンテンツとともにユーザに提示する。ある局面において、当該コンテンツは、イベントを実施した当日の提示に限定されず、イベント終了から所定の期間が経過した後にユーザに提示されてもよい。
In FIG. 20,
For example, in the
これにより、ユーザは、イベント終了後に、発見できなかった発見対象物の配置されている場所について、当日の行動を振り返りながら推測することができる。そのため、ユーザは、次イベントに参加する際の動き方を事前に計画し、結果的に、イベントへの継続的な参加促進が期待できる。 As a result, after the event ends, the user can guess the location of the undiscovered object to be found, while looking back on the activity of the day. Therefore, the user can plan in advance how to move when participating in the next event, and as a result, it can be expected that continuous participation in the event will be promoted.
図21は、イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、およびユーザの当該エリアにおける行動範囲の情報とともに、ユーザに提示する画面例を示す。 FIG. 21 shows, in accordance with the end of the event, information about a discovery target that the user has not been able to discover, along with information suggesting the area where the discovery target is located, and information on the user's activity range in that area. , shows an example of a screen presented to the user.
図21において、コンテンツ2101は、サーバ20の制御部203が、イベントの終了に応じて、ユーザが発見できなかった発見対象物に関する情報を、当該発見対象物が配置されているエリアを示唆する情報、およびユーザの当該エリアにおける行動範囲の情報とともにユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。
例えば、サーバ20は、端末装置10Aの位置情報センサ150から、ユーザがイベントにおいて行動した範囲に関する情報を取得する。その後、サーバ20の制御部203は、取得した位置情報に基づいて、ユーザの行動範囲を、イベントにおけるエリアの地図等に重畳したコンテンツを作成し、ユーザに提示してもよい。
In FIG. 21, the
For example, the
これにより、ユーザは、イベントにおいて発見できなかった発見対象物が配置されているエリアの情報と、当該エリアにおける自身の行動範囲とを比較することができる。そのため、ユーザは、次回挑戦時には、異なる行動範囲で探索をするように計画することができ、イベントへの継続的な参加を促すことができる。 Thereby, the user can compare the information of the area in which the object to be found that could not be found in the event is located and the range of action of the user in the area. Therefore, the user can plan to search in a different range of action the next time he/she challenges, and can encourage continuous participation in the event.
図22は、ユーザが発見した発見対象物に関する情報に、イベントの終了から所定の期間経過後に、次のイベントで追加される予定の発見対象物の情報、当該次のイベントにおける新たな課題等の情報を追加し、ユーザに提示する画面例を示す。 FIG. 22 shows information on discovery objects discovered by the user, information on discovery objects scheduled to be added at the next event after a predetermined period of time has passed since the end of the event, new issues at the next event, and the like. Here is an example of a screen where information is added and presented to the user.
図22において、コンテンツ2201は、サーバ20の制御部203が、ユーザが発見した発見対象物に関する情報に、イベントの終了から所定の期間経過後に、次のイベントで追加される予定の発見対象物の情報、当該次のイベントにおける新たな課題等の情報を追加し、ユーザに提示するためのコンテンツを示す。端末装置10Aの制御部190は、ディスプレイ132に表示する等して、ユーザに当該コンテンツを提示する。具体的には、サーバ20の制御部203は、記憶部202に保持されている次のイベントに追加される予定の発見対象物の情報に基づいて、当該コンテンツを提示する。他にも、サーバ20の制御部203は、例えば、下記の操作等に応答して、ユーザに停止コンテンツを提示してもよい。
・イベント管理者が新しいイベントにおいて追加される発見対象物に関する情報をデータベースに追加する操作
・記憶部202に保持しているイベントにおいて、新たな発見対象物に関する情報を、イベント管理者がフラグ操作等で追加する操作
サーバ20の制御部203は、上記操作により追加された発見対象物の情報を含めたコンテンツをユーザに提示する。
In FIG. 22,
An operation by the event manager to add information about the object to be discovered added in the new event to the database. Operation to add by The
ある局面において、サーバ20の制御部203は、イベント管理者からユーザに対する通知を送信するための入力操作を受け付けることに応答し、過去にイベントに参加したユーザに対し、当該ユーザのイベントにおける進行状況の情報とともに、次のイベントに関する通知を行ってもよい。当該通知は、イベント当日に限らず、イベントから所定の期間が経過した後行われてもよい。また、サーバ20の制御部203は、当該通知を、イベント管理者からの通知を送信するための入力操作を受け付けずとも、イベント管理者が上記追加する操作をしたことに応答して、自動でユーザに通知を送信してもよい。
In one aspect, the
これにより、ユーザは、イベントが終了した後でも、次のイベントに関する情報を得ることでき、改めてイベント当日の様子を振り返ることができる。そのため、イベントを通じた一連の体験を何度も追体験することができる。また、次のイベントにおいて追加される発見対象物の情報、次のイベントにおいて提示される課題の情報を得ることで、ユーザは次のイベントへの参加意欲が向上する。そのため、イベントへの継続的な参加促進が期待できる。 Thereby, even after the event ends, the user can obtain information about the next event and can look back on the state of the event day. Therefore, the series of experiences through the event can be relived many times. In addition, by obtaining the information on the discovery target to be added at the next event and the information on the task to be presented at the next event, the user will be more motivated to participate in the next event. Therefore, continuous promotion of participation in the event can be expected.
<5 変形例>
本実施形態の変形例について説明する。すなわち、以下のような態様を採用してもよい。
(1)情報処理装置であって、このプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。
(2)方法であって、コンピュータを情報処理装置として機能させ、当該情報処理装置に、このプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。
<5 Modifications>
A modification of this embodiment will be described. That is, the following aspects may be adopted.
(1) It is an information processing device, and this program may be installed in advance, may be installed after the fact, or may be stored in an external non-temporary storage medium. Or you can run it on cloud computing.
(2) A method in which a computer functions as an information processing device, and the program may be installed in the information processing device in advance or may be installed afterward, or such a program may be installed in the information processing device. It may be stored in an external non-temporary storage medium, or may be operated by cloud computing.
一連の実施形態において、サーバ20の制御部が、端末装置10Aまたは発見対象物に備えられたカメラ401から取得した画像等を解析する処理として、既存の画像解析等を利用する方法を説明した。しかし、画像解析の方法は、これに限られない。例えば、サーバ20は、記憶部202に、所定の学習済みモデルを学習させており、端末装置10、またはカメラ401から取得した画像等と、当該学習済みモデルに基づいて、当該画像等の一部を抽出したコンテンツを作成してもよい。ここで、サーバ20は、イベントにおいて配置されている発見対象物の情報、複数の人の表情、音声、仕草等と感情とを関連付けた情報等を学習させており、取得した画像等において、当該学習済みモデルに基づいて、当該画像などの一部を抽出してもよい。
In the series of embodiments, the method of using existing image analysis or the like as the process of analyzing the image or the like acquired by the control unit of the
ユーザに提示するコンテンツは、一連の実施形態で例示したコンテンツ同士を組み合わせたコンテンツであってもよく、各実施形態において例示した画面例の組み合わせに限定されない。例えば、第1の実施形態において、複数のユーザのうちいずれか一部のユーザによる、イベントの課題に取り組む他のユーザを撮影した画像をユーザに提示する時に、ユーザの行動範囲の情報等をともに提示してもよい。また、ユーザに提示されるコンテンツは、端末装置のディスプレイに表示されるデジタルデータでも良いし、当該情報に基づいて、印刷紙等にプリントされて出力されたものでもよい。 The content to be presented to the user may be a combination of the contents illustrated in the series of embodiments, and is not limited to the combination of screen examples illustrated in each embodiment. For example, in the first embodiment, when presenting to the user an image of another user working on an event task by some of a plurality of users, information on the user's range of action, etc. may be presented. Also, the content presented to the user may be digital data displayed on the display of the terminal device, or may be printed out on printed paper or the like based on the information.
<6 付記>
以上の各実施形態で説明した事項を以下に付記する。
<6 Notes>
The items described in the above embodiments will be added below.
(付記1)
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータ20を動作させるためのプログラムであって、発見対象物は、前記一定空間内を撮影するためのカメラ401を備えており、プログラムは、コンピュータ20のプロセッサ29に、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラ401により撮影させるステップ(S1351)と、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップ(S1352)と、を実行させる、プログラム。
(Appendix 1)
A program for operating a
(付記2)
探索する期間は、ユーザがイベントにおいて探索を開始した時刻を基準として、所定の期間を経過するまでの期間である、付記1に記載のプログラム。(段落0155~段落0167)
(Appendix 2)
The program according to
(付記3)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、撮影された結果をユーザに提示する、付記1または2に記載のプログラム。(段落0155~段落0167)
(Appendix 3)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 3. A program according to any one of the
(付記4)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、イベントにおいてユーザが発見できなかった発見対象物の情報とともに、撮影された結果をユーザに提示する、付記3に記載のプログラム。(段落0155~段落0167)
(Appendix 4)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 3. The program according to appendix 3, for presenting the photographed results to the user along with the information of the discovered objects that the user could not discover in the event, in response. (Paragraph 0155-Paragraph 0167)
(付記5)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、イベントにおいてユーザが発見できなかった発見対象物が設置されている位置を示唆する情報とともに、撮影された結果をユーザに提示する、付記3または4に記載のプログラム。(段落0155~段落0167)
(Appendix 5)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 5. The program according to appendix 3 or 4, for presenting the photographed result to the user together with information suggesting the position where the object to be discovered that the user could not discover in the event is installed. (Paragraph 0155-Paragraph 0167)
(付記6)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、イベントにおいてユーザが発見した発見対象物に関する画像とともに、撮影された結果を提示する、付記3から5のいずれかに記載のプログラム。(段落0155~段落0167、段落0176~段落0181)
(Appendix 6)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 6. The program according to any one of appendices 3 to 5, which, in response, presents the photographed result together with the image relating to the object discovered by the user at the event. (Paragraph 0155 to Paragraph 0167, Paragraph 0176 to Paragraph 0181)
(付記7)
提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間が終了すること、または探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させることに応じて、所定のエリアの次にユーザが探索するエリアに設置された発見対象物の一部の情報とともに、撮影された結果を提示する、付記3から6のいずれかに記載のプログラム。(段落0177~段落0182)
(Appendix 7)
In the presenting step (S1352), the program determines whether the search period ends or ends the search action of the predetermined area in the event without waiting for the end of the search period as the degree of progress of the event. 7. The program according to any one of appendices 3 to 6, which presents the photographed result together with some information of the discovery target installed in the area to be searched by the user next to the predetermined area. (Paragraph 0177 to Paragraph 0182)
(付記8)
プログラムは、プロセッサ29に、さらに、複数のユーザのうちいずれか一部のユーザにより、イベントにおいて発見対象物を探索する他のユーザを撮影した動画または静止画を取得するステップ(S1401)を実行させ、イベントの進行の程度として、探索する期間が終了することに応じて、動画または静止画、および発見対象物に備えられたカメラ401により撮影された結果の一部を抽出したコンテンツを提示する(S1451)、付記3から7のいずれかに記載のプログラム。
(Appendix 8)
The program further causes the
(付記9)
コンテンツは、動画または静止画、および発見対象物に備えられたカメラ401により撮影された結果の一部を抽出したハイライト動画またはハイライト画像であり、提示するステップ(S1351)において、イベントの進行の程度として、探索する期間が終了することに応じて、動画または静止画、および発見対象物に備えられたカメラ401により撮影された結果が撮影された時間に関する情報とともに、コンテンツをユーザに提示する、付記8に記載のプログラム。(段落0183~段落0185)
(Appendix 9)
The content is a moving image or still image, and a highlight moving image or highlight image obtained by extracting a part of the results captured by the
(付記10)
プログラムは、プロセッサ29に、さらに、ユーザから、ユーザの端末10Aにおいて、発見対象物を発見したことの承認を受けるための入力操作を受け付けることに応答して、ユーザが発見対象物を発見したと判定するステップを実行させる、付記1から9のいずれかに記載のプログラム。(段落0135~段落0141)
(Appendix 10)
The program further instructs the
(付記11)
前記提示するステップ(S1352)において、プログラムは、イベントの進行の程度として、探索する期間内において、判定するステップにおいてユーザが発見対象物を発見したことを判定したことに応答して、一定空間内にいるユーザをカメラにより撮影した結果をユーザに提示する、付記10に記載のプログラム。(段落0158)
(Appendix 11)
In the step of presenting (S1352), the program determines that the user has found the discovery target in the determining step as the degree of progress of the event, within a
(付記12)
提示するステップ(S1352)において、プログラムは、ユーザが発見したと判定された発見対象物に備えられたカメラ401により撮影された結果を、ユーザが発見したと判定された発見対象物に関する情報とともにユーザに提示する、付記10に記載のプログラム。(段落0155~段落0168)
(Appendix 12)
In the presenting step (S1352), the program causes the user to view the result photographed by the
(付記13)
プログラムは、プロセッサ29に、さらに、判定するステップにおいて、一定空間内に設置された全ての発見対象物をユーザが発見したと判定した場合に、探索する期間の終了を待たずしてイベントにおける所定のエリアの探索行為を終了させるステップを実行させる、付記10に記載のプログラム。(段落0155~段落0168)
(Appendix 13)
The program further instructs the
(付記14)
プログラムは、プロセッサ29に、さらに、発見対象物に備えられたカメラ401により撮影された結果に含まれるユーザの表情または音声の少なくとも1つを解析し、解析結果に基づいてユーザの特定の感情を判定するステップを実行させ、提示するステップ(S1352)において、判定した前記特定の感情に基づいて、撮影された結果をユーザに提示する、付記1から13のいずれかに記載のプログラム。(段落0155~段落0168)
(Appendix 14)
The program further instructs the
(付記15)
プログラムは、プロセッサ29に、さらに、発見対象物に備えられたカメラ401によりユーザの目線または発見対象物とユーザとの距離の少なくとも1つに関する情報を取得するステップを実行させ、提示するステップ(S1352)において、判定した感情と、取得したユーザの目線または発見対象物とユーザとの距離の少なくとも1つに関する情報とに基づいて、撮影された結果をユーザに提示する、付記1から14のいずれかに記載のプログラム。(段落0155~段落0168)
(Appendix 15)
The program further causes the
(付記16)
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援するコンピュータ20を動作させるための方法であって、発見対象物は、一定空間内を撮影するためのカメラ401を備えており、方法は、コンピュータ20のプロセッサ29が、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラ401により撮影させるステップ(S1351)と、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップ(S1352)と、を実行する、方法。
(Appendix 16)
In the real world, a method for operating a
(付記17)
現実の世界において、一定空間内に設置された発見対象物を探すイベントの進行を支援する、制御部203を備えた情報処理装置20であって、発見対象物は、一定空間内を撮影するためのカメラ401を備えており、情報処理装置20は、前記制御部203が、イベントにユーザが参加して発見対象物を探索する期間において、一定空間内にいるユーザをカメラ401により撮影させるステップ(S1351)と、撮影された結果を取得して、ユーザのイベントの進行の程度に応じて、ユーザに撮影された結果を提示するステップ(S1352)と、を実行する、情報処理装置20。
(Appendix 17)
In the real world, an
10 端末装置、12 通信インタフェース、13 入力装置、14 出力装置、15 メモリ、16 記憶部、19 プロセッサ、20 サーバ、22 通信インタフェース、23 入出力インタフェース、25 メモリ、26 ストレージ、29 プロセッサ、40 発見対象物、80 ネットワーク、181 ユーザ情報、191 入力操作受付部、192 送受信部、193 データ処理部、194 報知制御部、132 ディスプレイ、150 位置情報センサ、160 カメラ、281 イベント情報データベース、282 参加者情報データベース、283 対象物情報データベース、284 ヒント情報データベース、285 イベント履歴データベース、401 カメラ、2041 受信制御モジュール、2042 送信制御モジュール、2043 イベント情報取得モジュール、2044 参加者情報取得モジュール、2045 対象物情報取得モジュール、2046 ヒント情報取得モジュール、2047 対象物表示モジュール、2048 ヒント提示モジュール、2049 承認受付モジュール。
10 terminal device, 12 communication interface, 13 input device, 14 output device, 15 memory, 16 storage unit, 19 processor, 20 server, 22 communication interface, 23 input/output interface, 25 memory, 26 storage, 29 processor, 40
Claims (17)
前記発見対象物は、前記一定空間内を撮影するためのカメラを備えており、
前記プログラムは、前記コンピュータのプロセッサに、
前記イベントにユーザが参加して前記発見対象物を探索する期間において、前記一定空間内にいる前記ユーザを前記カメラにより撮影させるステップと、
前記撮影された結果を取得して、前記ユーザの前記イベントの進行の程度に応じて、前記ユーザに前記撮影された結果を提示するステップと、を実行させる、プログラム。 A program for operating a computer that supports the progress of an event to search for a discovery target installed in a certain space in the real world,
The object to be discovered has a camera for photographing the fixed space,
The program causes the processor of the computer to:
causing the camera to photograph the user in the certain space during a period in which the user participates in the event and searches for the discovery target;
a step of acquiring the photographed result and presenting the photographed result to the user according to the degree of progress of the event by the user.
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記撮影された結果を前記ユーザに提示する、請求項1または2に記載のプログラム。 In the presenting step, the program
As the degree of progress of the event, the photographed image is taken in response to the end of the searching period, or the search action of a predetermined area in the event ending without waiting for the end of the searching period. 3. A program according to claim 1 or 2, for presenting results to said user.
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記イベントにおいて前記ユーザが発見できなかった発見対象物の情報とともに、前記撮影された結果を前記ユーザに提示する、請求項3に記載のプログラム。 In the presenting step, the program
As the degree of progress of the event, in the event, according to the end of the search period, or the end of the search act of the predetermined area in the event without waiting for the end of the search period. 4. The program according to claim 3, which presents the photographed result to the user together with information of a discovered object that the user has not been able to discover.
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記イベントにおいて前記ユーザが発見できなかった発見対象物が設置されている位置を示唆する情報とともに、前記撮影された結果を前記ユーザに提示する、請求項3または4に記載のプログラム。 In the presenting step, the program
As the degree of progress of the event, in the event, according to the end of the search period, or the end of the search act of the predetermined area in the event without waiting for the end of the search period. 5. The program according to claim 3, wherein the photographed result is presented to the user together with information suggesting a position where the object to be found that the user could not discover is installed.
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記イベントにおいて前記ユーザが発見した発見対象物に関する画像とともに、前記撮影された結果を提示する、請求項3から5のいずれかに記載のプログラム。 In the presenting step, the program
As the degree of progress of the event, in the event, according to the end of the search period, or the end of the search act of the predetermined area in the event without waiting for the end of the search period. 6. The program according to any one of claims 3 to 5, wherein the photographed result is presented together with an image related to the object discovered by the user.
前記イベントの進行の程度として、前記探索する期間が終了すること、または前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させることに応じて、前記所定のエリアの次に前記ユーザが探索するエリアに設置された前記発見対象物の一部の情報とともに、前記撮影された結果を提示する、請求項3から6のいずれかに記載のプログラム。 In the presenting step, the program
As the degree of progress of the event, the predetermined area according to the end of the search period or the end of the search action of the predetermined area in the event without waiting for the end of the search period 7. The program according to any one of claims 3 to 6, wherein the photographed result is presented together with information on a part of the discovery target installed in the area to be searched by the user.
複数の前記ユーザのうちいずれか一部のユーザにより、前記イベントにおいて前記発見対象物を探索する他のユーザを撮影した動画または静止画を取得するステップを実行させ、
前記イベントの進行の程度として、前記探索する期間が終了することに応じて、前記動画または静止画、および前記発見対象物に備えられた前記カメラにより前記撮影された結果の一部を抽出したコンテンツを提示する、請求項3から7のいずれかに記載のプログラム。 The program further causes the processor to:
causing any one of the plurality of users to obtain a moving image or still image of another user searching for the object to be discovered at the event;
Content obtained by extracting part of the video or still image and the results captured by the camera provided on the discovery object, according to the end of the search period as the degree of progress of the event. 8. The program according to any one of claims 3 to 7, which presents
前記提示するステップにおいて、
前記イベントの進行の程度として、前記探索する期間が終了することに応じて、前記動画または静止画、および前記発見対象物に備えられた前記カメラにより前記撮影された結果が撮影された時間に関する情報とともに、前記コンテンツを前記ユーザに提示する、請求項8に記載のプログラム。 The content is the moving image or still image, and a highlight moving image or highlight image obtained by extracting a part of the result captured by the camera provided on the discovery target,
In the presenting step,
As the degree of progress of the event, information about the time at which the moving image or still image and the photographed result were photographed by the camera provided for the discovery target in accordance with the end of the searching period. 9. The program of claim 8, presenting the content to the user together with.
前記ユーザから、前記ユーザの端末において、前記発見対象物を発見したことの承認を受けるための入力操作を受け付けることに応答して、前記ユーザが前記発見対象物を発見したと判定するステップを実行させる、請求項1から9のいずれかに記載のプログラム。 The program further causes the processor to:
executing a step of determining that the user has found the discovery target in response to receiving, from the user, an input operation for obtaining approval that the discovery target has been found, on the terminal of the user; 10. The program according to any one of claims 1 to 9, which causes
前記イベントの進行の程度として、前記探索する期間内において、前記判定するステップにおいて前記ユーザが前記発見対象物を発見したことを判定したことに応答して、前記一定空間内にいる前記ユーザを前記カメラにより撮影した結果を前記ユーザに提示する、請求項10に記載のプログラム。 In the presenting step, the program
As the degree of progression of the event, in response to determining in the determining step that the user has found the discovery target within the searching period, 11. The program according to claim 10, which presents a result photographed by a camera to said user.
前記ユーザが発見したと判定された前記発見対象物に備えられた前記カメラにより前記撮影された結果を、前記ユーザが発見したと判定された前記発見対象物に関する情報とともに前記ユーザに提示する、請求項10に記載のプログラム。 In the presenting step, the program
presenting to the user the result photographed by the camera mounted on the discovery object determined to have been discovered by the user together with information on the discovery object determined to have been discovered by the user; Item 11. The program according to item 10.
前記判定するステップにおいて、前記一定空間内に設置された全ての前記発見対象物を前記ユーザが発見したと判定した場合に、前記探索する期間の終了を待たずして前記イベントにおける所定のエリアの探索行為を終了させるステップを実行させる、請求項10に記載のプログラム。 The program further causes the processor to:
In the determining step, when it is determined that the user has discovered all the discovery objects installed in the predetermined space, the predetermined area in the event is searched without waiting for the end of the search period. 11. The program according to claim 10, causing execution of a step of terminating a search act.
前記発見対象物に備えられた前記カメラにより撮影された結果に含まれる前記ユーザの表情または音声の少なくとも1つを解析し、前記解析結果に基づいて前記ユーザの特定の感情を判定するステップを実行させ、
前記提示するステップにおいて、
前記判定した前記特定の感情に基づいて、前記撮影された結果を前記ユーザに提示する、請求項1から13のいずれかに記載のプログラム。 The program further causes the processor to:
Analyzing at least one of the user's facial expression or voice included in the result captured by the camera provided on the discovery target, and determining the user's specific emotion based on the analysis result. let
In the presenting step,
14. The program according to any one of claims 1 to 13, wherein the photographed result is presented to the user based on the determined specific emotion.
前記発見対象物に備えられた前記カメラにより前記ユーザの目線または前記発見対象物と前記ユーザとの距離の少なくとも1つに関する情報を取得するステップを実行させ、
前記提示するステップにおいて、
前記判定した前記感情と、前記取得した前記ユーザの目線または前記発見対象物と前記ユーザとの距離の少なくとも1つに関する情報とに基づいて、前記撮影された結果を前記ユーザに提示する、請求項1から14のいずれかに記載のプログラム。 The program further causes the processor to:
Acquiring information about at least one of a line of sight of the user or a distance between the user and the object to be found by the camera provided on the object to be found;
In the presenting step,
presenting the photographed result to the user based on the determined emotion and the obtained information regarding at least one of a line of sight of the user or a distance between the discovered object and the user; 15. The program according to any one of 1-14.
前記発見対象物は、前記一定空間内を撮影するためのカメラを備えており、
前記方法は、前記コンピュータのプロセッサが、
前記イベントにユーザが参加して前記発見対象物を探索する期間において、前記一定空間内にいる前記ユーザを前記カメラにより撮影させるステップと、
前記撮影された結果を取得して、前記ユーザの前記イベントの進行の程度に応じて、前記ユーザに前記撮影された結果を提示するステップと、を実行する、方法。 A method for operating a computer that supports the progress of an event to search for a discovery object installed in a certain space in the real world, comprising:
The object to be discovered has a camera for photographing the fixed space,
The method comprises: a processor of the computer comprising:
causing the camera to photograph the user in the certain space during a period in which the user participates in the event and searches for the discovery target;
obtaining the captured results and presenting the captured results to the user according to the user's progress of the event.
前記発見対象物は、前記一定空間内を撮影するためのカメラを備えており、
前記情報処理装置は、前記制御部が、
前記イベントにユーザが参加して前記発見対象物を探索する期間において、前記一定空間内にいる前記ユーザを前記カメラにより撮影させるステップと、
前記撮影された結果を取得して、前記ユーザの前記イベントの進行の程度に応じて、前記ユーザに前記撮影された結果を提示するステップと、を実行する、情報処理装置。
In the real world, an information processing device having a control unit that supports the progress of an event to search for a discovery target installed in a certain space,
The object to be discovered has a camera for photographing the fixed space,
In the information processing device, the control unit
causing the camera to photograph the user in the certain space during a period in which the user participates in the event and searches for the discovery target;
and acquiring the photographed result and presenting the photographed result to the user according to the degree of progress of the event by the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021060024A JP7434206B2 (en) | 2021-03-31 | 2021-03-31 | Program, method, information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021060024A JP7434206B2 (en) | 2021-03-31 | 2021-03-31 | Program, method, information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022156374A true JP2022156374A (en) | 2022-10-14 |
JP7434206B2 JP7434206B2 (en) | 2024-02-20 |
Family
ID=83558465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021060024A Active JP7434206B2 (en) | 2021-03-31 | 2021-03-31 | Program, method, information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7434206B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007048212A (en) | 2005-08-12 | 2007-02-22 | Dainippon Printing Co Ltd | System and device for providing information |
JP2013041416A (en) | 2011-08-16 | 2013-02-28 | Sony Corp | Information processing device and method, program, and information processing system |
JP2014217566A (en) | 2013-05-08 | 2014-11-20 | 株式会社テクノクラフト | Hunting game distribution system |
JP2019028507A (en) | 2017-07-25 | 2019-02-21 | ユニバーリンク株式会社 | Event management system |
-
2021
- 2021-03-31 JP JP2021060024A patent/JP7434206B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7434206B2 (en) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10518169B2 (en) | Interactive entertainment using a mobile device with object tagging and/or hyperlinking | |
CN103657087B (en) | Formula narration environment on the spot in person | |
US20120231887A1 (en) | Augmented Reality Mission Generators | |
US20120116714A1 (en) | Digital Data Processing Systems and Methods for Skateboarding and Other Social Sporting Activities | |
US11360733B2 (en) | Colocated shared augmented reality without shared backend | |
US10229608B2 (en) | Wireless communication between physical figures to evidence real-world activity and facilitate development in real and virtual spaces | |
CN108572969A (en) | The method and device of geography information point recommended information is provided | |
JP2020044139A (en) | Game program, game method, and information processor | |
KR20230047480A (en) | User interface for pose-driven virtual effects | |
JP7212711B2 (en) | program, method, information processing device | |
US20230162433A1 (en) | Information processing system, information processing method, and information processing program | |
TWI811198B (en) | Collection system, terminal program and collection method | |
JP7434206B2 (en) | Program, method, information processing device | |
JP7245890B1 (en) | Information processing system, information processing method, information processing program | |
JP2022156375A (en) | Program, method, and information processing device | |
JP7266911B2 (en) | Terminal device and method for collection system | |
TWI807732B (en) | Non-transitory computer-readable storage medium for interactable augmented and virtual reality experience | |
JP7329470B2 (en) | Information processing device, method, program | |
JP7482821B2 (en) | PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS, AND SYSTEM | |
Kasapakis | Pervasive role playing games: design, development and evaluation of a research prototype | |
JP2017169835A (en) | Game system, control system of game server, and game program | |
US9213935B2 (en) | Role-play simulation engine | |
KR101604971B1 (en) | System and Method of Interactive Performance for Multi-audience participation | |
CN116962835A (en) | Virtual object interaction method and device, computer equipment and storage medium | |
CN114984574A (en) | Information display method, device, storage medium and equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7434206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |