JP2024027196A - System, computer program and remote supporting system - Google Patents

System, computer program and remote supporting system Download PDF

Info

Publication number
JP2024027196A
JP2024027196A JP2024007586A JP2024007586A JP2024027196A JP 2024027196 A JP2024027196 A JP 2024027196A JP 2024007586 A JP2024007586 A JP 2024007586A JP 2024007586 A JP2024007586 A JP 2024007586A JP 2024027196 A JP2024027196 A JP 2024027196A
Authority
JP
Japan
Prior art keywords
user
image
support
control unit
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024007586A
Other languages
Japanese (ja)
Inventor
幹樹 奥山
Motoki Okuyama
淑恵 坪倉
Toshie Tsubokura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2024007586A priority Critical patent/JP2024027196A/en
Publication of JP2024027196A publication Critical patent/JP2024027196A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

To provide a system and a computer program which allow an avatar of a user to participate in an event site of an event such as a sport or concert and give a user who is not in the site with feeling as if the user went to the site.SOLUTION: There is provided a system which executes the following steps. In the setting step, a user is associated with at least one of a plurality of supporting devices which is installed in an event site where an event in the actual world is held. In the output step, an output unit connected to the supporting device outputs a supporting image and/or supporting sound.SELECTED DRAWING: Figure 4

Description

本発明は、システム、コンピュータプログラム、およびリモート応援システムに関する。 The present invention relates to a system, a computer program, and a remote support system.

近年、現実世界で実行されるイベント(野球の試合など)において、イベント会場に足を運べないユーザ(観戦者、観覧者など)に対して募集した応援動画を、イベント会場で表示するサービスが提供されている(例えば、非特許文献1参照)。 In recent years, for events held in the real world (such as baseball games), services have been provided that display videos of support solicited from users (spectators, spectators, etc.) who are unable to visit the event venue at the event venue. (For example, see Non-Patent Document 1).

また、イベント会場に足を運べないユーザに対して募集したユーザ自身の写真をもとにして、声援を送っているかのような映像をイベント会場に表示するサービスも提供されている(例えば、非特許文献2参照)。 In addition, there are services that display images of users cheering at the event venue based on the photos of users who are unable to visit the event venue (for example, (See Patent Document 2).

“初の無観客開幕、工夫さまざま”、[online]、令和2年6月18日、一般社団法人共同通信社、[令和3年6月8日検索]、インターネット<https://nordot.app/646271106881995873?c=39546741839462401>“First opening without spectators, various ideas”, [online], June 18, 2020, Kyodo News, [searched on June 8, 2021], Internet <https://nordot .app/646271106881995873?c=39546741839462401> “「バーチャルバックネット裏シート」 応援する写真を募集”、[online]、令和2年6月9日、読売巨人軍公式サイト、[令和3年6月8日検索]、インターネット<https://www.giants.jp/G/gnews/news_3914957.html>““Virtual Back Net Back Sheet” Recruiting Photos to Support”, [online], June 9, 2020, Yomiuri Giants Official Website, [Searched on June 8, 2021], Internet <https: //www.giants.jp/G/gnews/news_3914957.html>

しかしながら、前述の応援動画等を会場で表示するサービスでは、実際にイベント会場を訪れてイベントに参加(応援)しているような体験をユーザに与えることは難しかった。 However, with the above-mentioned service that displays cheering videos and the like at the venue, it is difficult to give users the experience of actually visiting the event venue and participating in (cheering for) the event.

本発明の目的は、スポーツあるいはコンサート等のイベントのイベント会場にユーザの分身を参加させて、会場にはいないユーザに会場に行った感覚を与えることができるシステムおよびコンピュータプログラムを提供することである。 An object of the present invention is to provide a system and a computer program that allow a user's alter ego to participate in an event venue for an event such as a sports event or a concert, thereby giving a user who is not present at the venue the feeling of being there. .

第1の発明は、
つぎの各ステップを実行するシステムであって、
設定ステップにおいて、複数の応援装置の少なくとも1つに対してユーザを対応づけ、
前記応援装置は、現実世界のイベントが開催されるイベント会場に設置され、
出力ステップにおいて、前記応援装置に接続された出力部に応援画像および/または応援音声を出力させる、
システムである。
The first invention is
A system that executes each of the following steps,
In the setting step, the user is associated with at least one of the plurality of support devices,
The support device is installed at an event venue where a real-world event is held,
In the output step, outputting a cheering image and/or a cheering voice to an output unit connected to the cheering device;
It is a system.

また、
前記応援装置には、属性が設定されており、
前記属性によって、前記応援装置に対して前記ユーザを対応づけるために必要な対価が異なる、
ことができる。
Also,
Attributes are set in the support device,
The consideration required for associating the user with the support device varies depending on the attribute;
be able to.

また、
前記応援装置は、前記イベント会場の座席に設置される、
ことができる。
Also,
The support device is installed in a seat at the event venue.
be able to.

また、
前記イベント会場は、スポーツを行う会場であって、
前記応援装置は、前記イベントに参加する選手が移動に用いる車両、選手が着席するベンチ、選手が使用するロッカールーム、および選手がプレイするフィールドの少なくともいずれか1つに設置される、
ことができる。
Also,
The event venue is a venue for sports,
The support device is installed in at least one of a vehicle used for transportation by the players participating in the event, a bench where the players are seated, a locker room used by the players, and a field where the players play.
be able to.

また、
前記イベント会場は、興行が行われる会場であって、
前記応援装置は、前記興行が行われるステージ、および/または、前記興行に参加する演者の控室に設置される、
ことができる。
Also,
The event venue is a venue where a performance is held,
The support device is installed on a stage where the performance is performed and/or in a waiting room of performers participating in the performance.
be able to.

また、
さらに、つぎの各ステップを実行するシステムであって、
画像入力ステップにおいて、ユーザの操作に基づいて画像および/またはテキストを設定し、
前記出力ステップにおいて、前記応援装置が備える表示部に前記ユーザが設定した画像および/またはテキストを表示させる、
ことができる。
Also,
Furthermore, a system that executes each of the following steps,
in the image input step, setting an image and/or text based on user operations;
In the output step, displaying an image and/or text set by the user on a display unit included in the support device;
be able to.

また、
前記画像および/または前記テキストには、複数の種類があり、
前記ユーザが対価を消費することにより、前記ユーザは、前記画像および/または前記テキストの種類を設定することができる、
ことができる。
Also,
There are multiple types of the image and/or the text,
By the user consuming consideration, the user can set the type of the image and/or the text;
be able to.

また、
さらに、つぎの各ステップを実行するシステムであって、
音声入力ステップにおいて、前記ユーザの操作に基づいて、音声を設定または入力し、
前記出力ステップにおいて、前記応援装置が備えるスピーカに、前記ユーザが設定または入力した音声を出力させる、
ことができる。
Also,
Furthermore, a system that executes each of the following steps,
in the voice input step, setting or inputting voice based on the user's operation;
in the output step, causing a speaker included in the support device to output the audio set or input by the user;
be able to.

また、
前記音声には、複数の種類があり
前記ユーザが対価を消費することにより、前記ユーザは、音声の種類を設定することができる、
ことができる。
Also,
There are a plurality of types of audio, and the user can set the type of audio by consuming a fee.
be able to.

また、
さらに、つぎのステップを実行するシステムであって、
撮影ステップにおいて、前記応援装置が備えるカメラによって撮影した画像を前記ユーザの端末装置に送信する、
ことができる。
Also,
Furthermore, a system that performs the following steps,
In the photographing step, transmitting an image photographed by a camera included in the support device to the user's terminal device;
be able to.

また、
さらに、つぎのステップを実行するシステムであって、
マッチングステップにおいて、
所定の条件に含まれる属性を備える前記応援装置に対応づけられた前記ユーザ同士をマッチングし、かつ、
マッチングされた前記ユーザ同士によるチャットまたは会話を実行する、
ことができる。
Also,
Furthermore, a system that performs the following steps,
In the matching step,
matching the users associated with the support device having attributes included in a predetermined condition, and
carrying out a chat or conversation between the matched users;
be able to.

また、
前記マッチングステップにおいて、
一のユーザに対して複数のユーザをマッチングし、かつ
前記装置の属性に基づいて、マッチングされた前記ユーザ同士による会話の音声を変化させる、
ことができる。
Also,
In the matching step,
matching a plurality of users to one user, and changing the audio of the conversation between the matched users based on the attributes of the device;
be able to.

第2の発明は、
つぎの各ステップを実行するシステムであって、
設定ステップにおいて、複数の応援装置の少なくとも1つに対してユーザを対応づけ、
前記応援装置は、前記ユーザが管理する装置であって、移送によって現実世界のイベントが開催されるイベント会場に設置され、
出力ステップにおいて、前記応援装置に接続された出力部に応援画像および/または応援音声を出力させる、
システムである。
The second invention is
A system that executes each of the following steps,
In the setting step, the user is associated with at least one of the plurality of support devices,
The support device is a device managed by the user, and is installed at an event venue where a real-world event is held by transportation,
In the output step, outputting a cheering image and/or a cheering voice to an output unit connected to the cheering device;
It is a system.

第3の発明は、
コンピュータに、つぎの各ステップを実行させるコンピュータプログラムであって、
設定ステップにおいて、複数の応援装置の少なくとも1つに対してユーザを対応づけ、
前記応援装置は、現実世界のイベントが開催されるイベント会場に設置され、
出力ステップにおいて、前記応援装置に接続された出力部に応援画像および/または応援音声を出力させる、
コンピュータプログラムである。
The third invention is
A computer program that causes a computer to perform each of the following steps,
In the setting step, the user is associated with at least one of the plurality of support devices,
The support device is installed at an event venue where a real-world event is held,
In the output step, outputting a cheering image and/or a cheering voice to an output unit connected to the cheering device;
It is a computer program.

第4の発明は
コンピュータに、つぎの各ステップを実行させるコンピュータプログラムであって、
設定ステップにおいて、複数の応援装置の少なくとも1つに対してユーザを対応づけ、
前記応援装置は、前記ユーザが管理する装置であって、移送によって現実世界のイベントが開催されるイベント会場に設置され、
出力ステップにおいて、前記応援装置に接続された出力部に応援画像および/または応援音声を出力させる、
コンピュータプログラムである。
The fourth invention is a computer program that causes a computer to execute each of the following steps,
In the setting step, the user is associated with at least one of the plurality of support devices,
The support device is a device managed by the user, and is installed at an event venue where a real-world event is held by transportation,
In the output step, outputting a cheering image and/or a cheering voice to an output unit connected to the cheering device;
It is a computer program.

第5の発明は、
つぎの各ステップを実行するリモート応援システムであって、
設定ステップにおいて、複数の応援装置の少なくとも1つに対してユーザを対応づけ、
前記応援装置は、現実世界のイベントが開催されるイベント会場に設置され、
出力ステップにおいて、前記応援装置に接続された出力部に応援画像および/または応援音声を出力させる、
リモート応援システムである。
The fifth invention is
A remote support system that executes each of the following steps,
In the setting step, the user is associated with at least one of the plurality of support devices,
The support device is installed at an event venue where a real-world event is held,
In the output step, outputting a cheering image and/or a cheering voice to an output unit connected to the cheering device;
It is a remote support system.

本発明によれば、スポーツあるいはコンサート等のイベントのイベント会場にユーザの分身を参加させて、会場にはいないユーザに会場に行った感覚を与えることができるシステムおよびコンピュータプログラムを提供することができる。 According to the present invention, it is possible to provide a system and a computer program that allow a user's alter ego to participate in an event venue for an event such as a sports event or a concert, thereby giving a user who is not present at the venue the feeling of being there. .

第1の実施形態における、システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of a system in a first embodiment. 第1の実施形態における、システムに含まれるユーザ端末装置の構成を示す図である。FIG. 2 is a diagram showing the configuration of a user terminal device included in the system in the first embodiment. 第1の実施形態における、システムに含まれる運営端末装置の構成を示す図である。It is a diagram showing the configuration of an operation terminal device included in the system in the first embodiment. 第1の実施形態における、システムに含まれるアバター装置の概略の構成を示す外観図である。FIG. 2 is an external view showing a schematic configuration of an avatar device included in the system in the first embodiment. 第1の実施形態における、システムに含まれるアバター装置の構成を示す図である。It is a diagram showing the configuration of an avatar device included in the system in the first embodiment. 第1の実施形態における、システムで実行されるアプリケーションのユーザ端末装置のディスプレイの一例を示す図である。FIG. 2 is a diagram illustrating an example of a display of a user terminal device of an application executed in the system in the first embodiment. 第1の実施形態における、システムで実行されるアプリケーションのユーザ端末装置のディスプレイの一例を示す図である。FIG. 2 is a diagram illustrating an example of a display of a user terminal device of an application executed in the system in the first embodiment. 第1の実施形態における、システムで実行されるアプリケーションのユーザ端末装置のディスプレイの一例を示す図である。FIG. 2 is a diagram illustrating an example of a display of a user terminal device of an application executed in the system in the first embodiment. 第1の実施形態における、システムで実行されるアプリケーションのユーザ端末装置のディスプレイの一例を示す図である。FIG. 2 is a diagram illustrating an example of a display of a user terminal device of an application executed in the system in the first embodiment. 第1の実施形態における、システムで実行されるアプリケーションのユーザ端末装置のディスプレイの一例を示す図である。FIG. 2 is a diagram illustrating an example of a display of a user terminal device of an application executed in the system in the first embodiment. 第1の実施形態における、日程テーブルの一例を示す図である。It is a figure showing an example of a schedule table in a 1st embodiment. 第1の実施形態における、ユーザデータの一例を示す図である。It is a figure showing an example of user data in a 1st embodiment. 第1の実施形態における、応援実行処理を示すフローチャートである。It is a flowchart which shows support execution processing in a 1st embodiment. 第2の実施形態における、システムの構成を示す図である。FIG. 2 is a diagram showing the configuration of a system in a second embodiment. 第3の実施形態における、システムに含まれる応援装置(ディスプレイ装置)の構成を示す図である。FIG. 7 is a diagram showing the configuration of a support device (display device) included in the system in a third embodiment.

[第1の実施形態]
本発明の実施形態にかかるシステム1について、図1~図13を参照して説明する。なお、システム1および後述の処理手順は一例であり、本発明の実施形態はこれらには限られない。システム1および処理手順は、本発明の要旨を変更しない範囲で適宜設計変更をすることができる。
[First embodiment]
A system 1 according to an embodiment of the present invention will be described with reference to FIGS. 1 to 13. Note that the system 1 and the processing procedure described below are merely examples, and the embodiments of the present invention are not limited thereto. The design of the system 1 and the processing procedure can be changed as appropriate without changing the gist of the present invention.

<システムの説明>
本実施形態のシステム1は、図1~図4に記載されたアプリケーションサーバ装置2と、ユーザ端末装置3と、管理サーバ装置4と、運営端末装置5と、応援装置6とで構成される。
<System description>
The system 1 of this embodiment includes an application server device 2, a user terminal device 3, a management server device 4, an operation terminal device 5, and a support device 6 shown in FIGS. 1 to 4.

これらの装置が協働すること(各装置によるデータの送受信)により、ユーザは、イベントが行われるイベント会場に、ユーザの分身を参加させることができる。なお、本明細書において、「参加」は、イベントの観覧(観戦)、応援等を目的としてイベント会場にユーザ自身あるいは応援装置6を存在させることを意味する。また、応援装置6はユーザの分身として設定される装置である。 By the cooperation of these devices (transmission and reception of data by each device), the user can have his/her alter ego participate in the event venue where the event is being held. Note that in this specification, "participation" means having the user or the support device 6 present at the event venue for the purpose of viewing (spectating) the event, cheering, etc. Further, the support device 6 is a device that is set as a user's alter ego.

なお、応援装置6には、例えば、以下で主に説明される移動可能に構成されたアバター装置(ロボット型装置)と、移動不可能に構成された据置型装置(例えば、ポールなどへの固定式のカメラ付装置、ホームベースなどへの埋め込み式のカメラ付装置)とがある。以下では、アバター装置および据置型装置が区別されることなく応援装置6と記載されているが、必要に応じて、アバター装置などの表現が用いられる。 Note that the support device 6 includes, for example, an avatar device (robot-type device) configured to be movable, which will be mainly explained below, and a stationary device configured to be immovable (for example, fixed to a pole, etc.). There are two types of devices: a device with a camera attached to the camera, and a device with a camera embedded in a home base, etc. In the following, the avatar device and the stationary device are referred to as the support device 6 without distinction, but expressions such as avatar device may be used as necessary.

イベントは、各種の行事、催し物、興行などであり、例えばスポーツの大会、試合などである。本実施形態では、チームA(名称:A-OSAKA)対チームB(名称:B-TOKYO)で進行するプロ野球の試合をイベントの一例として説明する。野球の試合は、現実空間のスタジアム(イベント会場)において開催される。 Events include various events, entertainments, performances, etc., such as sports tournaments and matches. In this embodiment, a professional baseball game between team A (name: A-OSAKA) and team B (name: B-TOKYO) will be described as an example of an event. A baseball game is held in a stadium (event venue) in real space.

スタジアムの座席(観覧席)などには、図4および図5に示される応援装置6が設置される。ユーザは、設置されている応援装置6を自身の分身としてイベントに参加させることができる。具体的には、ユーザは、図2に示されるユーザ端末装置3を対応づけた応援装置6を介して疑似的にスタジアムで開催されるプロ野球を観戦(応援)することができる。 A cheering device 6 shown in FIGS. 4 and 5 is installed in the seats (spectator seats) of the stadium. The user can have the installed support device 6 participate in the event as his/her alter ego. Specifically, the user can virtually watch (cheer) a professional baseball game held at a stadium via the support device 6 associated with the user terminal device 3 shown in FIG.

ユーザは、ユーザ端末装置3において、試合(スタジアム)の中継映像および音声の視聴、応援装置6が撮影する映像および音声(観覧映像および観覧音声)の視聴、応援装置6に応援映像および声援などを出力させることができる。 The user uses the user terminal device 3 to view live video and audio of the match (stadium), view video and audio captured by the cheering device 6 (viewing video and viewing audio), and send cheering video and cheers to the cheering device 6. It can be output.

ユーザ端末装置3のディスプレイ320には、アプリケーション(アプリケーションプログラム)が実行されることによって、指定画像70(図6~図8参照)および視聴画像80(図9、図10参照)などが表示される。なお、ディスプレイ320の上面には、ユーザによるタッチ入力を受けつけるタッチパッド340が配置されている。 The designated image 70 (see FIGS. 6 to 8), the viewed image 80 (see FIGS. 9 and 10), etc. are displayed on the display 320 of the user terminal device 3 by executing the application (application program). . Note that a touch pad 340 is arranged on the top surface of the display 320 to receive touch input from the user.

ユーザは、所定のボタンを押すことで(タッチパッドを操作することで)、いずれのスタジアム(試合)の応援装置6(バックネット裏など、いずれのエリアに配置されている応援装置6)に自身を対応づけるかを選択することができる(予約することができる)。本実施形態では、ユーザは、チームA対チームBの試合のスタジアムの応援装置6への登録が選択される。 By pressing a predetermined button (by operating the touchpad), the user can attach himself or herself to the cheering equipment 6 of any stadium (match) (the cheering equipment 6 placed in any area, such as behind the back net). (can be reserved). In this embodiment, the user selects registration in the stadium support device 6 for the match between team A and team B.

図6の指定画像70は、試合(スタジアム)の選択後にディスプレイ320に表示される。指定画像70は、各種の指定操作(選択操作)をユーザに行わせるための画像である。本実施形態では、指定画像70において、スタジアムの座席(応援装置6)および各種オプションの指定操作をユーザに行わせる。 The designated image 70 in FIG. 6 is displayed on the display 320 after a match (stadium) is selected. The designation image 70 is an image for allowing the user to perform various designation operations (selection operations). In this embodiment, in the specification image 70, the user performs an operation to specify stadium seats (the cheering device 6) and various options.

本実施形態では、スタジアムの1座席ごとに応援装置6が1体設置されており、座席指定によって応援装置6が指定される。スタジアムの座席または応援装置6にはユニークな情報が設定されている。また、ユーザが指定する対象は、応援装置6であってもよく、また、ユーザが座席を指定することにより間接的に応援装置6を指定することができてもよい。 In this embodiment, one support device 6 is installed for each seat in the stadium, and the support device 6 is designated by seat designation. Unique information is set for the stadium seats or the cheering device 6. Further, the object specified by the user may be the support device 6, or the support device 6 may be indirectly specified by the user specifying a seat.

指定画像70は、図6のとおりメッセージ表示領域71および指定領域72等で構成される。 The designated image 70 is composed of a message display area 71, a designated area 72, etc., as shown in FIG.

メッセージ表示領域71には、ユーザに指定操作を促すメッセージが表示される。指定領域72には、ユーザに指定(選択)させる項目が表示される。 The message display area 71 displays a message prompting the user to perform a specifying operation. In the specification area 72, items to be specified (selected) by the user are displayed.

座席指定においては、図6のとおり、座席(応援装置6)を指定させるメッセージがメッセージ表示領域71に表示され、座席のタイプおよび金額の一覧(座席リスト)が指定領域72に表示される。また、指定領域72には、スタジアムの平面図に各座席の位置を示した座席マップも合わせて表示される。 In seat selection, as shown in FIG. 6, a message for specifying a seat (support device 6) is displayed in the message display area 71, and a list of seat types and prices (seat list) is displayed in the specification area 72. Further, in the designated area 72, a seat map showing the position of each seat on a plan view of the stadium is also displayed.

図6の指定画像70において、ユーザは、指定領域72の座席(応援装置6)の価格が表示されている部分(タッチパッド340)をタップしたのち、そのエリアにおいて空席となっている座席を指定することで、該当するタイプの座席の1つがユーザの座席(応援装置6)として指定される。これにより、指定された座席に設置された応援装置6とユーザ端末装置3(およびユーザID)とが対応づけられる。この対応づけられた応援装置6がユーザの分身となる。 In the designation image 70 in FIG. 6, the user taps the area (touch pad 340) where the price of the seat (support device 6) in the designation area 72 is displayed, and then designates an empty seat in that area. By doing so, one of the seats of the corresponding type is designated as the user's seat (support device 6). Thereby, the support device 6 installed at the designated seat is associated with the user terminal device 3 (and user ID). This associated support device 6 becomes the user's alter ego.

座席指定(応援装置6の指定)が完了した後、図7のとおり、出力オプション(オプション1)を指定させるメッセージがメッセージ表示領域71に表示される。また、指定領域72には、オプションの名称および金額の一覧(オプションリスト)が表示される。オプションは、応援装置6が関連づけられたユーザに対して提供可能なサービスである。 After the seat designation (designation of the support device 6) is completed, a message prompting the user to designate the output option (option 1) is displayed in the message display area 71, as shown in FIG. In addition, a list of option names and amounts (option list) is displayed in the designation area 72. The options are services that can be provided to users with whom the support device 6 is associated.

オプションは、主として、出力オプションおよびツアーオプションの2種類に区分される。 Options are mainly classified into two types: output options and tour options.

出力オプション(オプション1)は、ユーザ自身の応援装置6のディスプレイ620およびスピーカ630に応援の出力(応援画像、応援音声など)を行わせるサービスである。 The output option (option 1) is a service that causes the display 620 and speaker 630 of the user's own support device 6 to output support (support images, support voices, etc.).

以下で説明されるアバター装置としての応援装置6は、図4のとおり、頭部660、胴部661、右腕部670、左腕部680等で構成されるロボットである。胴部661にディスプレイ620が配置され、頭部660にスピーカ630が配置されている。 As shown in FIG. 4, the support device 6 as an avatar device described below is a robot that includes a head 660, a torso 661, a right arm 670, a left arm 680, and the like. A display 620 is placed on the body 661, and a speaker 630 is placed on the head 660.

例えば、図7の「ユニフォーム(ホーム)」が指定された場合には、図4のとおり、ディスプレイ620に、チームAのユニフォーム(上半身)の画像が表示される。 For example, when "uniform (home)" in FIG. 7 is specified, an image of team A's uniform (upper body) is displayed on the display 620, as shown in FIG.

また、例えば、図7の「応援メッセージ(定型)」が指定された場合には、ディスプレイ620に、定型文の応援メッセージのテキスト画像が表示される。 Further, for example, when the “support message (standard form)” shown in FIG. 7 is specified, a text image of the standard support message is displayed on the display 620.

なお、「ユニフォーム(ホーム)」および「応援メッセージ(定型)」の双方が指定された場合には、ディスプレイ620上のユニフォームの上にテキスト画像が重ねて表示される。 Note that if both "Uniform (Home)" and "Support Message (Standard)" are specified, a text image is displayed superimposed on the uniform on display 620.

また、例えば、「拍手の音再生」が指定された場合には、応援アイコンボタン91(図9参照)に対応する位置のタッチパッド340をユーザがタップすることによって、拍手の音声がスピーカ630から出力される。 Further, for example, if "playback of applause sound" is specified, the user can tap the touch pad 340 at the position corresponding to the cheering icon button 91 (see FIG. 9) to hear the applause sound from the speaker 630. Output.

また、ツアーオプション(オプション2)は、応援装置6をスタジアムで開催されるイベントに参加させるサービスである。 Furthermore, the tour option (option 2) is a service that allows the support device 6 to participate in an event held at the stadium.

例えば、「リリーフカー同乗(ホーム)」が指定された場合には、チームAのピッチャー交代時のリリーフカーに、応援装置6が同乗することができる(同乗する権利を得る)。なお、図10は、リリーフカーに同乗している応援装置6(例えば、据置型装置)によって映し出された映像を示す。すなわち、この応援装置6は、リリーフのピッチャーとともにピッチャーマウンドまでリリーフカーで移動することができる。 For example, when "riding in a relief car (home)" is specified, the support device 6 can ride in the relief car of team A when the pitcher is replaced (obtains the right to ride in the same). Note that FIG. 10 shows an image projected by the support device 6 (for example, a stationary device) riding in the relief car. That is, this support device 6 can be moved with a relief pitcher to the pitcher's mound in a relief car.

また、「リリーフカー同乗(ホーム)」では、ユーザは、応援装置6を介してリリーフピッチャーと会話することが可能となる。例えば、ユーザ端末装置3のマイク331から取得したユーザの会話音声を、応援装置6のスピーカ630から出力させる。そして、応援装置6のマイク631から取得したリリーフピッチャーの会話音声を、ユーザ端末装置3のスピーカ330から出力させる。 Furthermore, in the “ride in relief car (home)” mode, the user can have a conversation with the relief pitcher via the support device 6. For example, the user's conversation voice acquired from the microphone 331 of the user terminal device 3 is output from the speaker 630 of the support device 6. Then, the relief pitcher's conversation voice acquired from the microphone 631 of the support device 6 is outputted from the speaker 330 of the user terminal device 3.

本実施形態では、リリーフカーの同乗時のみ、ユーザと座席に設置されている応援装置6との対応づけが、リリーフカーに設置されている別の応援装置6に変更される。なお、これには限られず、イベント会場のスタッフなどによって、ユーザに対応づけられている応援装置6がリリーフカーに移動させられてもよい。 In this embodiment, only when riding together in a relief car, the association between the user and the support device 6 installed in the seat is changed to another support device 6 installed in the relief car. Note that the present invention is not limited to this, and the support device 6 associated with the user may be moved to the relief car by the staff at the event venue or the like.

図7、図8の指定画像70において、ユーザが、指定領域72のオプションの価格が表示されている部分(タッチパッド340)をタップすることで、その指定項目がユーザのオプションとして指定される。なお、ユーザは、オプションを指定しなくてもよく、また、複数のオプションを指定することができてもよい。 In the designation image 70 of FIGS. 7 and 8, when the user taps the part (touch pad 340) in the designation area 72 where the price of the option is displayed, the designated item is designated as the user's option. Note that the user may not be required to specify an option, or may be able to specify multiple options.

なお、座席および一部の有料オプションの購入には、例えば、クレジットカードによる一般的な決済サービス、電子決済サービス、あるいはアプリケーションにより付与されるポイント(例えば、利用回数、利用金額によって貯まるポイント)を用いることができる。 In addition, to purchase seats and some paid options, use a general credit card payment service, an electronic payment service, or points awarded by an application (e.g., points earned based on the number of times used or the amount used). be able to.

ついで、視聴画像80は、指定画像70において、スタジアムの座席(応援装置6)およびオプションの指定が完了した後にディスプレイ320に表示される。視聴画像80は、ユーザが、応援装置6を通じた試合の映像を視聴等するための画像である。視聴画像80は、図9のとおり映像領域81、応援領域82、操作領域83等で構成される。 Next, the viewing image 80 is displayed on the display 320 after the stadium seats (supporting device 6) and options have been specified in the specified image 70. The viewing image 80 is an image for the user to view the video of the match through the support device 6. As shown in FIG. 9, the viewing image 80 is composed of a video area 81, a support area 82, an operation area 83, and the like.

映像領域81には、スタジアムの映像が表示される。本実施形態では、2種類の映像が表示される。 In the video area 81, a video of the stadium is displayed. In this embodiment, two types of images are displayed.

1つめは、スタジアムに設置されたカメラ(固定カメラ、ドローン、中継クルーのカメラなどを含む)で撮影された試合の中継映像(配信映像)である。 The first is the live video (distributed video) of the match taken by cameras installed in the stadium (including fixed cameras, drones, cameras of broadcast crews, etc.).

2つめは、図9のとおり、応援装置6(カメラ640)で撮影された観覧映像である。 The second is a viewing video taken by the support device 6 (camera 640), as shown in FIG.

また、ユーザ端末装置3のスピーカ330からは、映像領域81に対応する音声が出力される。観覧映像が映像領域81に表示される場合には、応援装置6(マイク631)から取得した音声がスピーカ330から出力される。 Furthermore, the speaker 330 of the user terminal device 3 outputs audio corresponding to the video area 81. When the viewing video is displayed in the video area 81, the audio acquired from the support device 6 (microphone 631) is output from the speaker 330.

中継映像および観覧映像の表示は、切替ボタン500(タッチパッド340)がタップされるたびに切り替えられる。例えば、図9では、バックネット裏(A)の座席の応援装置6の観覧映像が表示されているが、ユーザが切替ボタン500をタップすることで中継映像の表示に切り替えられる。 The display of the relay video and viewing video is switched each time the switching button 500 (touch pad 340) is tapped. For example, in FIG. 9, the viewing video of the support device 6 in the seat behind the backnet (A) is displayed, but when the user taps the switching button 500, the display can be switched to the relay video.

観覧映像(カメラ640)は、図9のとおり、ユーザが操作領域83の操作ボタン101~106(タッチパッド340)をタップすることで調整することができる。 The viewing video (camera 640) can be adjusted by the user tapping the operation buttons 101 to 106 (touch pad 340) in the operation area 83, as shown in FIG.

操作領域83には、観覧映像が映像領域81に表示されている間は、操作ボタン101~106が表示される。 In the operation area 83, operation buttons 101 to 106 are displayed while the viewing video is displayed in the video area 81.

操作ボタン101~104は、応援装置6のカメラ640の視線の向きを調整するためのボタンである。ユーザは、これらのボタンを操作することにより、応援装置6の頭部660(カメラ640)の向き(上下左右)を調整することができる。 The operation buttons 101 to 104 are buttons for adjusting the direction of line of sight of the camera 640 of the support device 6. By operating these buttons, the user can adjust the orientation (up, down, left, and right) of the head 660 (camera 640) of the support device 6.

例えば、ユーザが操作ボタン101をタッチしている間は、応援装置6の頭部660を、首部分を軸として左方向に回動させることができる。これにより、応援装置6の頭部660に配置されているカメラ640の向きが変更される。 For example, while the user is touching the operation button 101, the head 660 of the support device 6 can be rotated to the left around the neck. As a result, the direction of the camera 640 placed on the head 660 of the support device 6 is changed.

ユーザは、操作ボタン105、106を操作することで、カメラの撮影対象物の拡大および縮小(光学ズーム)を調整することができる。操作ボタン105はカメラ640にズームイン機能を発揮させ、操作ボタン106はカメラ640にズームアウト機能を発揮させる。 By operating the operation buttons 105 and 106, the user can adjust the enlargement and reduction (optical zoom) of the object to be photographed by the camera. The operation button 105 causes the camera 640 to exhibit a zoom-in function, and the operation button 106 causes the camera 640 to exhibit a zoom-out function.

例えば、観覧映像が、図9のように表示されている状態で操作ボタン105(タッチパッド340)がタップされた場合には、画面の中心部分が拡大表示されるように観覧映像が表示される。 For example, when the operation button 105 (touch pad 340) is tapped while the viewing video is displayed as shown in FIG. 9, the viewing video is displayed so that the center part of the screen is enlarged. .

また、ユーザは、操作ボタン101~106を操作することで、試合だけでなく、応援装置6の周囲の様子(スタジアムの様子)も視聴することができる。すなわち、ユーザは、応援装置6の頭部660(カメラ640)の可動範囲に応じた任意の映観覧映像を視聴することができる。 Furthermore, by operating the operation buttons 101 to 106, the user can view not only the match but also the surroundings of the cheering device 6 (the stadium). That is, the user can view any viewing video according to the movable range of the head 660 (camera 640) of the support device 6.

また、映像領域81では、指定されたツアーオプション(リリーフカー同乗、試合時の記念撮影など)が実行されている間など、所定の条件が満たされていると判断される場合には、中継映像および観覧映像から、オプション映像に強制的に切り替えられる。 In addition, in the video area 81, if it is determined that predetermined conditions are met, such as while a specified tour option (riding in a relief car, commemorative photo shoot at a match, etc.) is being performed, a relay video is displayed. And the viewing video is forcibly switched to the optional video.

オプション映像は、指定されたツアーオプションでの応援装置6(カメラ640)で撮影された映像である。 The option video is a video shot by the support device 6 (camera 640) under the designated tour option.

例えば、ツアーオプションの「リリーフカー同乗(ホーム)」が指定されている場合には、図10のとおり、リリーフカーに同乗している応援装置6(カメラ640)で撮影されたオプション映像が映像領域81に表示される。 For example, if the tour option "Ride in a relief car (home)" is specified, as shown in FIG. 81 is displayed.

なお、オプション映像が映像領域81に表示されている間は、操作ボタン101~106も操作領域83に表示される。これにより、ユーザは、観覧映像を表示するときと同様にオプション映像を調整することができる。 Note that while the optional video is displayed in the video area 81, the operation buttons 101 to 106 are also displayed in the operation area 83. This allows the user to adjust the optional video in the same way as when displaying the viewing video.

また、オプション映像が映像領域81に表示されている間は、ユーザ端末装置3のマイク331および応援装置6を介して、リリーフカーに同乗しているピッチャーと会話することも可能である。ピッチャーの発話音声は、応援装置6のマイク631によって取得され、ユーザ端末装置3のスピーカ330から出力される。 Further, while the optional video is displayed in the video area 81, it is also possible to have a conversation with the pitcher riding in the relief car via the microphone 331 of the user terminal device 3 and the support device 6. The voice uttered by the pitcher is acquired by the microphone 631 of the support device 6 and output from the speaker 330 of the user terminal device 3.

つぎに、応援領域82には、指定された出力オプションの一部に関する応援アイコンボタン91、92の画像が表示される。応援アイコンボタンは、タップした場合にのみ実行される出力オプションに対応する。本実施形態では、音声出力の出力オプションが応援アイコンボタンに対応する。 Next, images of support icon buttons 91 and 92 related to some of the specified output options are displayed in the support area 82. The support icon button corresponds to an output option that is executed only when tapped. In this embodiment, the output option for audio output corresponds to the support icon button.

例えば、ユーザが、出力オプションとして「拍手の音再生」および「ブーイング」を指定している場合には、図9、10のとおり、応援アイコンボタン91、92が表示される。応援アイコンボタン91は、「拍手の音再生」に対応する。応援アイコンボタン92は、「ブーイング」に対応する。 For example, if the user specifies "playback of applause sound" and "booing" as output options, cheering icon buttons 91 and 92 are displayed as shown in FIGS. 9 and 10. The cheering icon button 91 corresponds to "play back the sound of applause." The support icon button 92 corresponds to "booing".

ユーザが、これら応援アイコンボタン91、92(タッチパッド340)をタップした場合には、応援装置6のスピーカ630から対応する音声が出力される。なお、出力される音声(データ)は、あらかじめ登録されている。 When the user taps these support icon buttons 91 and 92 (touch pad 340), the corresponding sound is output from the speaker 630 of the support device 6. Note that the audio (data) to be output is registered in advance.

また、応援領域82には、チャットボタン95の画像が表示される。チャットボタン95は、音声チャットの要求を受けつける。音声チャットにおいて、ユーザは、スタジアムに応援装置6を参加させている他ユーザのうち、マッチング条件(所定の条件)に合致する他ユーザと会話をすることができる。 Furthermore, an image of a chat button 95 is displayed in the support area 82. Chat button 95 accepts requests for voice chat. In the voice chat, the user can have a conversation with other users who meet matching conditions (predetermined conditions) among other users whose support devices 6 are participating in the stadium.

マッチング条件に合致する他ユーザとは、例えば、チャット要求したユーザの応援装置6と同一属性を備える応援装置6に対応づけられている他ユーザである。 The other users who meet the matching condition are, for example, other users associated with the support device 6 having the same attributes as the support device 6 of the user who requested the chat.

属性は、例えば、応援装置6の設置場所(座席の種別)、応援するチーム、ユーザとフレンド関係にあるフレンドユーザ、あるいはユーザのグループなどである。図9の例では、ユーザは、バックネット裏(A)の座席の応援装置6と対応づけられている。この応援装置6には、バックネット裏(A)の属性が設定されている。この場合には、バックネット裏(A)の属性が設定されている応援装置6の他ユーザがマッチングの対象となる。 The attributes include, for example, the installation location (seat type) of the support device 6, the team to support, a friend user who is in a friend relationship with the user, or a group of users. In the example of FIG. 9, the user is associated with the support device 6 on the seat behind the backnet (A). This support device 6 is set with an attribute of backnet back (A). In this case, other users of the support device 6 to which the backnet back (A) attribute is set become matching targets.

他ユーザからの会話音声は、映像領域81に表示されている映像にかかる音声と合成されてユーザ端末装置3のスピーカ330から出力される。また、ユーザの会話音声は、ユーザ端末装置3のマイク331で取得され、他ユーザのユーザ端末装置3に送信される。 Conversation audio from other users is combined with the audio related to the video displayed in the video area 81 and output from the speaker 330 of the user terminal device 3 . Further, the user's conversation voice is acquired by the microphone 331 of the user terminal device 3 and transmitted to the user terminal device 3 of another user.

なお、本実施形態では、応援装置6は、スタジアムの運営者(管理サーバ装置4)によって管理される。運営者(運営端末装置5)は、管理サーバ装置4を介して、管理しているすべての応援装置6に対して映像等の出力を指示することができる。 Note that in this embodiment, the support device 6 is managed by the stadium operator (management server device 4). The operator (operation terminal device 5) can instruct all the support devices 6 under management to output images and the like via the management server device 4.

本実施形態では、運営端末装置5は、応援装置6がユーザに対応づけられているか否かにかかわらず、すべての応援装置6に対して強制的な出力指示を行うことができる。 In this embodiment, the management terminal device 5 can issue a forced output instruction to all the support devices 6, regardless of whether the support devices 6 are associated with users.

例えば、スタジアムのスポンサー情報(広告画像など)、会場(スタジアム)全体で統一感のある演出(例えば、国歌斉唱、喪に服す画像)などの強制的な出力を応援装置6に指示することができる。 For example, it is possible to instruct the support device 6 to forcibly output stadium sponsor information (advertisement images, etc.), uniform presentation throughout the venue (stadium) (e.g. national anthem, mourning images), etc. can.

<システムのハードウェア構成>
図1のとおり、システム1は、アプリケーションサーバ装置(コンピュータ)2と、複数のユーザ端末装置(コンピュータ)3と、管理サーバ装置(コンピュータ)4と、運営端末装置(コンピュータ)5と、アバター装置(コンピュータ)6とを備える。
<System hardware configuration>
As shown in FIG. 1, the system 1 includes an application server device (computer) 2, a plurality of user terminal devices (computers) 3, a management server device (computer) 4, an operation terminal device (computer) 5, and an avatar device ( computer) 6.

アプリケーションサーバ装置2と複数のユーザ端末装置3と管理サーバ装置4と運営端末装置と5応援装置6とは、インターネット、LANなどの通信ネットワーク7を介して互いに通信することができるように接続されている。 The application server device 2, the plurality of user terminal devices 3, the management server device 4, the management terminal device, and the support device 6 are connected so that they can communicate with each other via a communication network 7 such as the Internet or LAN. There is.

なお、ユーザ端末装置3には、そのユーザ端末装置3に対応づけてユーザアカウントが付与される。このユーザアカウントはユーザID(ユーザの識別情報)として管理される。 Note that the user terminal device 3 is assigned a user account in association with the user terminal device 3. This user account is managed as a user ID (user identification information).

ユーザ端末装置3が通信ネットワーク6を介してアプリケーションサーバ装置2と通信を行う場合には、そのユーザ端末装置3からユーザIDが送信される。送信されたユーザIDは、サーバ装置2において所定の認証がなされる。これにより、アプリケーションサーバ装置2とユーザ端末装置3との通信が可能となる。 When the user terminal device 3 communicates with the application server device 2 via the communication network 6, the user ID is transmitted from the user terminal device 3. The transmitted user ID is subjected to a predetermined authentication at the server device 2. This enables communication between the application server device 2 and the user terminal device 3.

<アプリケーションサーバ装置のハードウェア構成>
アプリケーションサーバ装置2は、ユーザ端末装置3に対してアプリケーションの進行に関する情報を提供するための各種機能を備える。
<Hardware configuration of application server device>
The application server device 2 includes various functions for providing the user terminal device 3 with information regarding the progress of the application.

アプリケーションサーバ装置2は、例えば、前述したアプリケーションの指定画像70、視聴画像80を生成するための各種の画像情報等を各ユーザ端末装置3に提供する。 The application server device 2 provides each user terminal device 3 with, for example, various image information for generating the designated image 70 and viewing image 80 of the application described above.

また、アプリケーションサーバ装置2は、ユーザの指定操作などの操作情報をユーザ端末装置3から受信する。そして、アプリケーションサーバ装置2は、操作情報に基づいて、応援装置6への出力等を管理サーバ装置4に要求する。 Further, the application server device 2 receives operation information such as a user's designated operation from the user terminal device 3. Then, the application server device 2 requests the management server device 4 to output to the support device 6, etc., based on the operation information.

さらに、アプリケーションサーバ装置2は、音声チャットの進行を制御する。具体的には、ユーザがチャットする他ユーザを割り当て(マッチング)、マッチングユーザ(ユーザ端末装置3)間の音声データの送信を行う。 Further, the application server device 2 controls the progress of the voice chat. Specifically, the user assigns (matches) other users to chat with, and transmits audio data between the matching users (user terminal devices 3).

アプリケーションサーバ装置2は、制御部20と、ネットワークインターフェース21と、記憶部22とを備えている。ネットワークインターフェース21および記憶部22は、バス29を介して制御部20と電気的に接続されている。 The application server device 2 includes a control section 20, a network interface 21, and a storage section 22. Network interface 21 and storage section 22 are electrically connected to control section 20 via bus 29 .

ネットワークインターフェース21は、インターネットおよびLAN等の通信ネットワーク7を介して各ユーザ端末装置3および管理サーバ装置4と通信することができるように接続されている。 The network interface 21 is connected so as to be able to communicate with each user terminal device 3 and the management server device 4 via a communication network 7 such as the Internet and a LAN.

記憶部22は、各種の情報およびデータを記憶する。記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、RAM(Random Access Memory)およびROM(Read Only Memory)等で構成される。 The storage unit 22 stores various information and data. The storage unit 22 includes an HDD (Hard Disk Drive), an SSD (Solid State Drive), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.

記憶部22には、ユーザ端末装置3でのアプリケーションの進行を制御するため制御プログラム(コンピュータプログラム)および各種制御用のデータが記憶されている。 The storage unit 22 stores a control program (computer program) and various control data for controlling the progress of an application on the user terminal device 3.

また、記憶部22には、ユーザ端末装置3用のアプリケーションプログラムを配信するための配信プログラムおよびデータが記憶される。 Furthermore, the storage unit 22 stores a distribution program and data for distributing an application program for the user terminal device 3.

また、記憶部22には、図11に示すように、試合の日程に関する情報である日程テーブルが記憶されている。 Furthermore, as shown in FIG. 11, the storage unit 22 stores a schedule table that is information regarding the schedule of the match.

日程テーブルには、開催試合ID、対戦カードと、サーバID、座席データ、オプションデータなどが1レコードとして記憶されている。 In the schedule table, a match ID, a match card, a server ID, seat data, option data, etc. are stored as one record.

開催試合IDは、開催される試合の識別情報である。 The held match ID is identification information of the held match.

対戦カードは、ユーザ端末装置3に表示させる試合の詳細情報(テキストデータ)である。例えば、対戦チームの名称、開催日程、スタジアム名などが詳細情報に含まれる。 The match card is detailed information (text data) of the match displayed on the user terminal device 3. For example, the detailed information includes the name of the competing team, the event schedule, the stadium name, etc.

サーバIDは、試合が行われるスタジアムを管理する管理サーバ装置4の識別情報である。本実施形態では、野球の試合が行われるスタジアムは複数あり、各スタジアムは別々の管理サーバ装置4で管理される。 The server ID is identification information of the management server device 4 that manages the stadium where the match is held. In this embodiment, there are multiple stadiums where baseball games are held, and each stadium is managed by a separate management server device 4.

座席データは、試合が行われるスタジアムの座席に関する情報が含まれる。例えば、図6のとおり、ユーザに座席を指定させる座席タイプ、その料金などの情報がある。座席データは、各管理サーバ装置4から受信すればよい。 The seat data includes information regarding the seats in the stadium where the match will be played. For example, as shown in FIG. 6, there is information such as the seat type for which the user is required to specify a seat, and its fare. The seat data may be received from each management server device 4.

オプションデータは、試合で提供されるオプション1、2に関する情報が含まれる。オプションデータには、例えば、図7のとおり、ユーザにオプションを指定させるオプションリストなどの情報がある。オプションデータは、各管理サーバ装置4から受信することができる。 The option data includes information regarding options 1 and 2 provided in the match. The option data includes information such as an option list that allows the user to specify options, as shown in FIG. 7, for example. Option data can be received from each management server device 4.

アプリケーションサーバ装置2は、日程テーブルなどに基づいてユーザ端末装置3に画像を表示させ、試合、オプションの指定などをユーザに選択させる。 The application server device 2 causes the user terminal device 3 to display an image based on a schedule table and the like, and allows the user to select a match, specify an option, and the like.

また、記憶部22には、ユーザDB221が記憶される。 Further, the storage unit 22 stores a user DB 221.

ユーザDB221は、システム1を利用するユーザに関する情報を蓄積したデータベースである。例えば、ユーザDB221には、図12に示すように、各ユーザに関する情報であるユーザデータが記憶されている。 The user DB 221 is a database that stores information regarding users who use the system 1. For example, as shown in FIG. 12, the user DB 221 stores user data that is information regarding each user.

ユーザデータは、ユーザID、参加情報などが1レコードとして記載される。 In the user data, a user ID, participation information, etc. are written as one record.

ユーザIDは、ユーザのアカウント情報(識別情報)である。 The user ID is the user's account information (identification information).

参加情報は、ユーザの分身が参加している試合(スタジアム)に関する情報である。すなわち、ユーザがユーザ端末装置3を介して観戦(応援)しているスタジアムの情報である。 Participation information is information regarding a match (stadium) in which the user's alter ego is participating. That is, it is information about the stadium where the user is watching (cheering) through the user terminal device 3.

試合IDは、参加している試合の識別情報である。 The match ID is identification information of the match in which the player is participating.

座席IDは、ユーザが指定している座席(指定座席)の識別情報である。すなわち、前述の指定画像において指定した座席の識別情報である。 The seat ID is identification information of the seat (designated seat) specified by the user. That is, it is the identification information of the seat specified in the above-mentioned specified image.

アバターIDは、指定座席に設置されている応援装置6の識別情報である。アバターIDには、属性情報が含まれる。本実施形態では、応援装置6の設置場所(座席の種別)に関する情報(属性情報)と座席番号とがアバターIDに含まれる。例えば、図12のアバターID:A-3339Rには、バックネット裏(A)の属性を示す「A」の属性情報が含まれる。 The avatar ID is identification information of the support device 6 installed in the reserved seat. The avatar ID includes attribute information. In this embodiment, the avatar ID includes information (attribute information) regarding the installation location (seat type) of the support device 6 and the seat number. For example, the avatar ID: A-3339R in FIG. 12 includes attribute information of "A" indicating the attribute of the back net (A).

出力オプションIDは、ユーザが指定している出力オプションの識別情報である。ツアーオプションIDは、ユーザが指定しているツアーオプションの識別情報である。 The output option ID is identification information of the output option specified by the user. The tour option ID is identification information of the tour option specified by the user.

制御部20は、アプリケーションサーバ装置2の動作を制御する。制御部20は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部20は、CPU(Centoral Processing Unit)および半導体メモリなどを備えている(図示省略)。 The control unit 20 controls the operation of the application server device 2. The control unit 20 transmits and receives various information and data, and processes various information and data. The control unit 20 includes a CPU (Central Processing Unit), a semiconductor memory, and the like (not shown).

<アプリケーションサーバ装置の制御部の機能の説明>
アプリケーションサーバ装置2の制御部20は、前述のコンピュータプログラムを実行することにより、以下の各手段として機能し、以下の各ステップを実行する。
<Description of the functions of the control unit of the application server device>
The control unit 20 of the application server device 2 functions as the following means and executes the following steps by executing the above-mentioned computer program.

<設定ステップの説明>
制御部20は、設定手段として機能することで設定ステップを実行する。以下では、設定手段としての制御部20が実行する処理を説明する。
<Explanation of setting steps>
The control unit 20 executes the setting step by functioning as a setting means. Below, the processing executed by the control unit 20 as a setting means will be explained.

制御部20は、複数の応援装置の少なくとも1つに対してユーザを対応づける。この応援装置は、前述の応援装置6であり、現実世界のイベント(試合)が開催されるイベント会場(スタジアム)に設置される。制御部20は、ユーザ端末装置3から受信した参加情報に基づいて、ユーザとこのユーザが指定した座席の応援装置6との対応づけを、管理サーバ装置4に指示する。 The control unit 20 associates a user with at least one of the plurality of support devices. This support device is the support device 6 described above, and is installed at an event venue (stadium) where a real-world event (game) is held. Based on the participation information received from the user terminal device 3, the control unit 20 instructs the management server device 4 to associate the user with the support device 6 of the seat designated by the user.

制御部20は、ユーザに対応づけられた応援装置6のアバターIDを、このユーザの参加情報の一部として記憶部22に記憶させる。 The control unit 20 causes the storage unit 22 to store the avatar ID of the support device 6 associated with the user as part of this user's participation information.

<画像入力ステップの説明>
制御部20は、画像入力手段として機能することで画像入力ステップを実行する。以下では、画像入力手段としての制御部20が実行する処理を説明する。
<Explanation of image input steps>
The control unit 20 executes an image input step by functioning as an image input means. Below, the processing executed by the control unit 20 as an image input means will be explained.

制御部20は、ユーザの操作に基づいて画像(または、テキスト)を設定する。画像は、応援装置6のディスプレイ620に表示させる応援画像である。テキストは、応援装置6のディスプレイ620に表示させる応援画像としてのメッセージである。応援画像は、ディスプレイ620に画像を表示させる出力オプションに対応する。制御部20は、ユーザに指定された出力オプションのオプションIDを、ユーザの参加情報の一部として記憶部22に記憶させる。 The control unit 20 sets an image (or text) based on a user's operation. The image is a support image displayed on the display 620 of the support device 6. The text is a message as a support image displayed on the display 620 of the support device 6. The support image corresponds to an output option that causes the display 620 to display the image. The control unit 20 causes the storage unit 22 to store the option ID of the output option specified by the user as part of the user's participation information.

<音声入力ステップの説明>
制御部20は、音声入力手段として機能することで音声入力ステップを実行する。以下では、音声入力手段としての制御部20が実行する処理を説明する。
<Explanation of voice input steps>
The control unit 20 executes the voice input step by functioning as a voice input means. Below, the processing executed by the control unit 20 as a voice input means will be explained.

制御部20は、ユーザの操作に基づいて音声を設定する。音声は、応援装置6のスピーカ630に出力させる応援音声である。応援音声は、スピーカ630に音声を出力させる出力オプションに対応する。制御部20は、ユーザに指定された出力オプションのオプションIDを、ユーザの参加情報の一部として記憶部22に記憶させる。 The control unit 20 sets the audio based on the user's operation. The audio is a cheering voice that is output from the speaker 630 of the cheering device 6. The cheering audio corresponds to an output option that causes the speaker 630 to output audio. The control unit 20 causes the storage unit 22 to store the option ID of the output option specified by the user as part of the user's participation information.

<ツアーオプション入力ステップの説明>
制御部20は、ツアーオプション入力手段として機能することでツアーオプション入力ステップを実行する。以下では、ツアーオプション入力手段としての制御部20が実行する処理を説明する。
<Explanation of tour option input steps>
The control unit 20 executes the tour option input step by functioning as a tour option input means. Below, the processing executed by the control unit 20 as a tour option input means will be explained.

制御部20は、ユーザの操作に基づいてツアーオプションを設定する。制御部20は、ユーザに指定されたツアーオプションのオプションIDを、ユーザの参加情報の一部として記憶部22に記憶させる。 The control unit 20 sets tour options based on user operations. The control unit 20 causes the storage unit 22 to store the option ID of the tour option specified by the user as part of the user's participation information.

<出力ステップの説明>
制御部20は、出力手段として機能することで出力ステップを実行する。以下では、出力手段としての制御部20が実行する処理を説明する。
<Explanation of output steps>
The control unit 20 executes the output step by functioning as an output means. Below, the processing executed by the control unit 20 as an output means will be explained.

制御部20は、応援装置(応援装置6)に接続されたディスプレイ620およびスピーカ630(出力部の一例)などに、応援画像または応援音声などを出力させる。 The control unit 20 causes a display 620 and a speaker 630 (an example of an output unit) connected to the support device (support device 6) to output a support image or a support voice.

具体的には、制御部20は、ユーザ端末装置3から受信した参加情報、応援アイコンボタン91、92等の操作情報などに基づいて、ユーザに関連づけられた応援装置6の出力部への出力を管理サーバ装置4に指示する。 Specifically, the control unit 20 controls the output to the output unit of the support device 6 associated with the user based on participation information received from the user terminal device 3, operation information of the support icon buttons 91, 92, etc. Instruct the management server device 4.

<実行ステップの説明>
制御部20は、実行手段として機能することで実行ステップを実行する。以下では、実行手段としての制御部20が実行する処理を説明する。
<Explanation of execution steps>
The control unit 20 executes the execution steps by functioning as an execution unit. Below, the processing executed by the control unit 20 as an execution means will be explained.

制御部20は、ユーザ端末装置3から受信した参加情報などに基づいて、ユーザに関連づけられた応援装置6のツアーオプションの実行を管理サーバ装置4に指示する。 The control unit 20 instructs the management server device 4 to execute the tour option of the support device 6 associated with the user based on the participation information received from the user terminal device 3 and the like.

<映像音声出力ステップの説明>
制御部20は、映像音声出力手段として機能することで映像音声出力ステップを実行する。以下では、映像音声出力手段としての制御部20が実行する処理を説明する。
<Explanation of video and audio output steps>
The control unit 20 executes the video and audio output step by functioning as a video and audio output means. Below, the processing executed by the control unit 20 as a video/audio output means will be explained.

制御部20は、イベントの進行に応じて、ユーザ端末装置3のディスプレイ320およびスピーカ330に出力情報を出力させる。 The control unit 20 causes the display 320 and speaker 330 of the user terminal device 3 to output output information according to the progress of the event.

制御部20は、イベントの進行(試合の進行状況)に応じて、前述した各種の出力情報などに基づいてディスプレイ320およびスピーカ330に出力させるための各種情報をユーザ端末装置3に送信する。これにより、図6~図9のような指定画像70、視聴画像80がディスプレイ320に表示される。 The control unit 20 transmits various information to be outputted to the display 320 and the speaker 330 to the user terminal device 3 based on the various output information described above, depending on the progress of the event (the progress of the match). As a result, the designated image 70 and viewing image 80 as shown in FIGS. 6 to 9 are displayed on the display 320.

<マッチングステップの説明>
制御部20は、マッチング手段として機能することでマッチングステップを実行する。以下では、マッチング手段としての制御部20が実行する処理を説明する。
<Explanation of matching step>
The control unit 20 executes the matching step by functioning as a matching unit. Below, the processing executed by the control unit 20 as a matching means will be explained.

制御部20は、所定の条件(マッチング条件)に含まれる属性を備える応援装置(応援装置6)に対応づけられたユーザ同士をマッチングし、かつ、マッチングされたユーザ同士によるチャット(テキストによる会話または音声会話)を実行する。 The control unit 20 matches users associated with support devices (support devices 6) that have attributes included in predetermined conditions (matching conditions), and allows the matched users to chat (text conversation or voice conversation).

制御部20は、各ユーザの参加情報(アバターID)などを参照し、前述のようにユーザ同士をマッチングする。制御部20は、マッチングした各ユーザのユーザIDを、マッチング情報として記憶部22に記憶させる。 The control unit 20 refers to each user's participation information (avatar ID) and matches the users as described above. The control unit 20 causes the storage unit 22 to store the user ID of each matched user as matching information.

制御部20は、マッチングした各ユーザのユーザ端末装置3に、相手の会話音声の音声データを送信する。なお、チャットは、テキストを表示させる形式でもよい。 The control unit 20 transmits audio data of the conversational voice of the other party to the user terminal device 3 of each matched user. Note that the chat may be in the form of displaying text.

<変更ステップの説明>
制御部20は、変更手段として機能することで変更ステップを実行する。以下では、変更手段としての制御部20が実行する処理を説明する。
<Explanation of change steps>
The control unit 20 executes the changing step by functioning as a changing means. Below, the process executed by the control unit 20 as a changing means will be explained.

制御部20は、応援装置6のカメラ640の向きなどを変更させる。具体的には、制御部20は、ユーザ端末装置3から受信した操作ボタン101~106の操作情報などに基づいて、カメラの向き等の変更を管理サーバ装置4に指示する。 The control unit 20 changes the direction of the camera 640 of the support device 6. Specifically, the control unit 20 instructs the management server device 4 to change the direction of the camera, etc., based on the operation information of the operation buttons 101 to 106 received from the user terminal device 3.

<ユーザ端末装置のハードウェア構成>
ユーザ端末装置3は、例えば、スマートフォン等のスマートデバイス、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、Nintendo Switch(登録商標)などの、アプリケーションおよびビデオゲームを実行することができる端末装置によって構成される装置である。
<Hardware configuration of user terminal device>
The user terminal device 3 is a terminal device capable of executing applications and video games, such as a smart device such as a smartphone, a personal computer, a PlayStation (registered trademark), an XBox (registered trademark), or a Nintendo Switch (registered trademark). It is a device composed of

本実施形態では、スマートフォンをユーザ端末装置3として説明する。ユーザ端末装置3は、ディスプレイ320と、スピーカ330と、マイク331と、タッチパッド340とを備える。ユーザ端末装置3は、アプリケーションを実行して前述の指定画像70および視聴画像80を表示し、ユーザによって入力された操作情報(操作信号)をアプリケーションサーバ装置2に送信する。 In this embodiment, a smartphone will be described as a user terminal device 3. The user terminal device 3 includes a display 320, a speaker 330, a microphone 331, and a touch pad 340. The user terminal device 3 executes the application to display the above-described specified image 70 and viewing image 80, and transmits operation information (operation signal) input by the user to the application server device 2.

図2のとおり、ユーザ端末装置3は、制御部30と、ネットワークインターフェース31と、グラフィック処理部32と、オーディオ処理部33と、操作部34と、記憶部35とを備える。 As shown in FIG. 2, the user terminal device 3 includes a control section 30, a network interface 31, a graphics processing section 32, an audio processing section 33, an operation section 34, and a storage section 35.

ネットワークインターフェース31と、グラフィック処理部32と、オーディオ処理部33と、操作部34と、記憶部35とは、バス39を介して制御部30と電気的に接続されている。 The network interface 31 , the graphic processing section 32 , the audio processing section 33 , the operation section 34 , and the storage section 35 are electrically connected to the control section 30 via a bus 39 .

制御部30は、ユーザ端末装置3の動作を制御する。制御部30は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部30は、CPUおよび半導体メモリを備えている(図示省略)。制御部30の機能については、後述する。 The control unit 30 controls the operation of the user terminal device 3. The control unit 30 transmits and receives various kinds of information and data, and processes various kinds of information and data. The control unit 30 includes a CPU and a semiconductor memory (not shown). The functions of the control unit 30 will be described later.

ネットワークインターフェース31は、ユーザ端末装置3とアプリケーションサーバ装置2または管理サーバ装置4との間で、各種データを送受信するために、通信ネットワーク7に通信可能に接続される。 The network interface 31 is communicably connected to the communication network 7 in order to transmit and receive various data between the user terminal device 3 and the application server device 2 or the management server device 4.

グラフィック処理部32は、制御部30から出力される各種画像情報に従って、各種画像を動画形式で描画する。グラフィック処理部32で描画された画像は、ディスプレイ320に出力(表示)される。例えば、グラフィック処理部32は、指定画像70および視聴画像80等を、各種画像として動画形式でディスプレイ320に表示させる。 The graphic processing unit 32 draws various images in a moving image format according to various image information output from the control unit 30. The image drawn by the graphic processing unit 32 is output (displayed) on the display 320. For example, the graphic processing unit 32 causes the display 320 to display the specified image 70, the viewing image 80, etc. as various images in a moving image format.

オーディオ処理部33は、制御部30から出力される各種音声情報に従って、各種音声をスピーカ330に出力(再生)させる。例えば、オーディオ処理部33は、映像領域81に表示される画像の音声等を、各種音声としてスピーカ330に出力させる。 The audio processing unit 33 causes the speaker 330 to output (reproduce) various sounds according to various audio information output from the control unit 30 . For example, the audio processing unit 33 causes the speaker 330 to output the audio of the image displayed in the video area 81 as various sounds.

また、オーディオ処理部33は、マイク331が検出(収音)したアナログ音声信号およびデジタル音声データ(音声データ)を生成する。例えば、オーディオ処理部33は、音声チャットにおいて、ユーザの会話(発話)時の音声データを生成する。 Further, the audio processing unit 33 generates an analog audio signal and digital audio data (sound data) detected (collected) by the microphone 331. For example, the audio processing unit 33 generates audio data during a user's conversation (utterance) in a voice chat.

操作部34には、ユーザからの操作信号が入力される。操作部34には、入力位置検出装置であるタッチパッド340を介してユーザからの操作信号が入力される。タッチパッド340は、ディスプレイ320の上面に配置される。 The operation unit 34 receives an operation signal from the user. An operation signal from a user is input to the operation unit 34 via a touch pad 340 that is an input position detection device. Touch pad 340 is placed on the top surface of display 320.

ユーザは、ディスプレイ320に表示された応援アイコンボタン91、92などが表示された箇所を操作(タップ)することで、ユーザ端末装置3(操作部34)に操作情報(操作信号)を入力する。 The user inputs operation information (operation signal) to the user terminal device 3 (operation unit 34) by operating (tapping) a location where the support icon buttons 91, 92, etc. are displayed on the display 320.

記憶部35は、HDD、SSD、RAMおよびROM等で構成される。記憶部35には、アプリケーションサーバ装置2からダウンロードされた各種データ、アプリケーションプログラムなどの各種プログラム等が格納されている。また、記憶部35には、アプリケーションサーバ装置2で使用されるユーザIDが格納されている。 The storage unit 35 is composed of an HDD, SSD, RAM, ROM, and the like. The storage unit 35 stores various data downloaded from the application server device 2, various programs such as application programs, and the like. Further, the storage unit 35 stores a user ID used in the application server device 2.

<ユーザ端末装置の制御部の機能の説明>
制御部30は、アプリケーションサーバ装置2からダウンロードされたアプリケーションプログラムを実行することで、以下の各手段として機能し、以下の各ステップを実行する。
<アプリ実行ステップの説明>
制御部30は、アプリ実行手段として機能することでアプリ実行ステップを実行する。以下では、アプリ実行手段としての制御部30が実行する処理を説明する。
<Description of the functions of the control unit of the user terminal device>
The control unit 30 functions as the following means and executes the following steps by executing the application program downloaded from the application server device 2.
<Explanation of application execution steps>
The control unit 30 executes the application execution step by functioning as an application execution unit. Below, processing executed by the control unit 30 as an application execution unit will be described.

制御部30は、ユーザによるタッチパッド340の操作に基づいて、試合および試合が開催されるスタジアムの座席(応援装置6)を指定させる。 The control unit 30 allows the user to specify a match and a seat (supporting device 6) in the stadium where the match will be held, based on the user's operation of the touch pad 340.

また、制御部30は、ユーザによるタッチパッド340の操作に基づいて、オプション(出力オブションおよびツアーオプション)を指定する。 Furthermore, the control unit 30 specifies options (output options and tour options) based on the user's operation of the touch pad 340.

また、制御部30は、ディスプレイ320に表示された応援アイコンボタン(タッチパッド340)に対するユーザの操作を受けつける。 Further, the control unit 30 receives a user's operation on a support icon button (touch pad 340) displayed on the display 320.

また、制御部30は、ディスプレイ320に表示された操作ボタン(タッチパッド340)に対するユーザの操作を受けつける。 Further, the control unit 30 receives user operations on operation buttons (touch pad 340) displayed on the display 320.

また、制御部30は、ディスプレイ320に表示されたチャットボタン(タッチパッド340)に対するユーザの操作を受けつける。 Further, the control unit 30 receives a user's operation on a chat button (touch pad 340) displayed on the display 320.

また、制御部30は、音声チャット実行中に、ユーザの会話の音声データを生成する。 Further, the control unit 30 generates audio data of the user's conversation while the audio chat is being performed.

また、制御部30は、アプリケーションサーバ装置2から送信される情報などに基づいて指定画像70および視聴画像80等をディスプレイ320に表示させる。 Further, the control unit 30 causes the display 320 to display the specified image 70, the viewing image 80, etc. based on information transmitted from the application server device 2 and the like.

<通信ステップの説明>
制御部30は、通信手段として機能することで通信ステップを実行する。以下では、通信手段としての制御部30が実行する処理を説明する。
<Explanation of communication steps>
The control unit 30 executes the communication step by functioning as a communication means. Below, processing executed by the control unit 30 as a communication means will be explained.

制御部30は、例えば、アプリケーションサーバ装置2からアプリケーションプログラム、アプリケーションの画面で表示させるための画像情報、音声情報などの情報を受信する。 The control unit 30 receives information such as an application program, image information to be displayed on the application screen, and audio information from the application server device 2, for example.

また、制御部30は、例えば、ユーザの操作に基づいて、ユーザの識別情報(ユーザID)、参加情報、応援アイコンボタンの操作情報、操作ボタンの操作情報、チャットボタン、音声データなどをアプリケーションサーバ装置2へ送信する。 Further, the control unit 30 transmits user identification information (user ID), participation information, support icon button operation information, operation button operation information, chat button, audio data, etc. to the application server based on the user's operation, for example. Send to device 2.

<管理サーバ装置のハードウェア構成>
管理サーバ装置4は、アプリケーションサーバ装置2に対して、スタジアムでの野球の試合に関する情報を提供するための各種機能を備える。
<Hardware configuration of management server device>
The management server device 4 includes various functions for providing the application server device 2 with information regarding baseball games at the stadium.

また、管理サーバ装置4は、スタジアムに設置されている応援装置6を管理するための各種機能を備える。 Furthermore, the management server device 4 includes various functions for managing the support devices 6 installed in the stadium.

図1のとおり、管理サーバ装置4は、制御部40と、ネットワークインターフェース41と、記憶部42とを備えている。 As shown in FIG. 1, the management server device 4 includes a control section 40, a network interface 41, and a storage section 42.

ネットワークインターフェース41および記憶部42は、バス49を介して制御部40と電気的に接続されている。 Network interface 41 and storage section 42 are electrically connected to control section 40 via bus 49.

制御部40は、管理サーバ装置4の動作を制御する。制御部40は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部40は、CPUおよび半導体メモリを備えている(図示省略)。制御部40の機能については後述する。 The control unit 40 controls the operation of the management server device 4. The control unit 40 transmits and receives various kinds of information and data, and processes various kinds of information and data. The control unit 40 includes a CPU and a semiconductor memory (not shown). The functions of the control unit 40 will be described later.

ネットワークインターフェース41は、インターネットおよびLAN等の通信ネットワーク7を介してアプリサーバ装置2と運営端末装置5と複数の応援装置6と通信接続されている。 The network interface 41 is communicatively connected to the application server device 2, the management terminal device 5, and the plurality of support devices 6 via a communication network 7 such as the Internet and a LAN.

記憶部42は、各種の情報およびデータを記憶する。記憶部42は、HDD、SSD、RAMおよびROM等で構成される。 The storage unit 42 stores various information and data. The storage unit 42 includes an HDD, SSD, RAM, ROM, and the like.

記憶部42には、各応援装置6を制御するためのコンピュータプログラムおよびデータが記憶されている。 The storage unit 42 stores computer programs and data for controlling each support device 6.

また、記憶部42には、アプリケーションサーバ装置2に各種データを送信するためのコンピュータプログラムおよびデータも記憶されている。 The storage unit 42 also stores computer programs and data for transmitting various data to the application server device 2.

また、記憶部42には、応援DB421が記憶される。 Further, the storage unit 42 stores a support DB 421.

応援DB421は、応援装置6のディスプレイ620およびスピーカ630等への出力指示を実行するためのデータとして、応援装置6の出力対象である複数種類の応援画像情報および複数種類の応援音声情報などを蓄積したデータベースである。 The support DB 421 accumulates multiple types of support image information and multiple types of support voice information that are output targets of the support device 6 as data for executing output instructions to the display 620, speaker 630, etc. of the support device 6. This is the database that was created.

本実施形態では、応援DB421には、出力オプションに対応する出力情報(応援画像情報および応援音声情報)が記憶されている。応援画像情報は、例えば、ディスプレイ620に表示させるチームのユニフォームなどの画像である。応援音声情報は、例えば、拍手などの音声データである。また、出力情報の出力合わせて、応援装置6の腕部などを動作させる際の動作情報も出力情報に対応づけて記憶されている。 In this embodiment, the support DB 421 stores output information (support image information and support voice information) corresponding to output options. The support image information is, for example, an image of a team's uniform displayed on the display 620. The cheering audio information is, for example, audio data such as applause. In addition to outputting the output information, operation information for operating the arms of the support device 6 is also stored in association with the output information.

また、記憶部42には、ローカルユーザDB422が記憶される。 The storage unit 42 also stores a local user DB 422.

ローカルユーザDB422は、管理サーバ装置4に対応するスタジアムの座席(応援装置6)に対応づけられたユーザに関する情報を蓄積したデータベースである。 The local user DB 422 is a database that stores information regarding users associated with stadium seats (support devices 6) corresponding to the management server device 4.

例えば、ローカルユーザDB422には、図12のユーザデータに登録されているユーザのうち、管理サーバ装置4が管理するスタジアムで開催される試合(試合ID)が設定されているユーザに関する情報が蓄積されている。例えば、管理サーバ装置4(サーバID:AS-01)のローカルユーザDB422には、試合ID:AB-01のユーザ(ユーザID:UA-00001など)の情報が蓄積される。 For example, the local user DB 422 accumulates information about users who are set for matches (match IDs) to be held at stadiums managed by the management server device 4, among the users registered in the user data in FIG. ing. For example, the local user DB 422 of the management server device 4 (server ID: AS-01) stores information about users with match ID: AB-01 (user ID: UA-00001, etc.).

例えば、ローカルユーザDB422には、前述のユーザに関して、図12と同様の形式のユーザデータが記憶されている。ローカルユーザDB422のユーザ管理テーブルの情報は、図12のユーザ管理テーブルと同期がとられている。 For example, the local user DB 422 stores user data in a format similar to that shown in FIG. 12 regarding the aforementioned users. Information in the user management table of the local user DB 422 is synchronized with the user management table in FIG. 12.

<管理サーバ装置の制御部の機能の説明>
管理サーバ装置4の制御部40は、前述のプログラムを実行することにより、以下の各手段として機能し、以下の各ステップを実行する。
<Description of the functions of the control unit of the management server device>
The control unit 40 of the management server device 4 functions as the following means and executes the following steps by executing the above-mentioned program.

<設定ステップの説明>
制御部40は、設定手段として機能することで設定ステップを実行する。以下では、設定手段としての制御部40が実行する処理を説明する。
<Explanation of setting steps>
The control unit 40 executes the setting step by functioning as a setting means. Below, the processing executed by the control unit 40 as a setting means will be explained.

制御部40は、ユーザと、ユーザが指定している座席(応援装置6)とを対応づける。具体的には、制御部40は、アプリケーションサーバ装置2から受信したユーザIDおよび参加情報を、ローカルユーザDB422に登録する。 The control unit 40 associates the user with the seat (support device 6) specified by the user. Specifically, the control unit 40 registers the user ID and participation information received from the application server device 2 in the local user DB 422.

なお、座席がすでに他ユーザに対応づけられている場合には、ユーザからの対応づけの要求は拒否される。 Note that if the seat is already associated with another user, the user's request for association will be rejected.

<アバター制御ステップの説明>
制御部40は、アバター制御手段として機能することでアバター制御ステップを実行する。以下では、アバター制御手段としての制御部40が実行する処理を説明する。
<Explanation of avatar control steps>
The control unit 40 executes the avatar control step by functioning as an avatar control means. Below, processing executed by the control unit 40 as avatar control means will be described.

制御部40は、アプリケーションサーバ装置2からの出力指示を受信した場合には、応援装置(応援装置6)に接続されたディスプレイ620およびスピーカ630(出力部の一例)などに、応援画像または応援音声などを出力させる。 When the control unit 40 receives an output instruction from the application server device 2, the control unit 40 outputs a support image or a support voice to a display 620 and a speaker 630 (an example of an output unit) connected to the support device (support device 6). etc. will be output.

具体的には、制御部40は、アプリケーションサーバ装置2から受信した参加情報、応援アイコンボタン91、92等の操作情報などに基づいて、ユーザに関連づけられた応援装置6の出力部へ指示する。 Specifically, the control unit 40 instructs the output unit of the support device 6 associated with the user based on participation information received from the application server device 2, operation information of the support icon buttons 91, 92, etc.

また、制御部40は、アプリケーションサーバ装置2からの変更指示を受信した場合には、応援装置(応援装置6)に接続されたカメラ620の向きなどを変更させる。具体的には、制御部40は、アプリケーションサーバ装置2から受信した操作ボタン101~106の操作情報などに基づいて、応援装置6に変更を指示する。 Further, when receiving a change instruction from the application server device 2, the control unit 40 changes the orientation of the camera 620 connected to the support device (support device 6). Specifically, the control unit 40 instructs the support device 6 to make changes based on the operation information of the operation buttons 101 to 106 received from the application server device 2.

また、制御部40は、運営端末装置5からの強制出力指示を受信した場合には、対象となる応援装置(応援装置6)に接続されたディスプレイ620およびスピーカ630(出力部の一例)などに、音声等を強制的に出力させる。例えば、スタジアムのスポンサー情報、会場(スタジアム)全体で統一感のある演出(例えば、国歌斉唱、喪に服す画像)などを出力させる。 Further, when the control unit 40 receives a forced output instruction from the management terminal device 5, the control unit 40 outputs a display 620 and a speaker 630 (an example of an output unit) connected to the target support device (support device 6). , forcibly output audio, etc. For example, sponsor information for the stadium, a unified effect throughout the venue (stadium) (for example, singing of the national anthem, images of mourning), etc. are output.

<動画取得ステップの説明>
制御部40は、動画取得手段として機能することで動画取得ステップを実行する。以下では、動画取得手段としての制御部40が実行する処理を説明する。
<Explanation of video acquisition steps>
The control unit 40 executes a video acquisition step by functioning as a video acquisition unit. Below, processing executed by the control unit 40 as a moving image acquisition means will be described.

制御部40は、スタジアムでの野球の試合の中継映像情報(音声情報を含む)を取得する。中継映像情報の取得は、例えば、通信ネットワーク7を介して動画サーバ装置(図示省略)から取得する。 The control unit 40 acquires relay video information (including audio information) of a baseball game at the stadium. The relay video information is acquired from a video server device (not shown) via the communication network 7, for example.

また、制御部40は、応援装置6に接続されたカメラ620から撮影される観覧映像情報およびマイク630から取得される観覧音声情報を取得する。また、制御部40は、取得した映像情報などを、応援装置6の識別情報とともにアプリケーションサーバ装置2に送信する。 The control unit 40 also acquires viewing video information captured by a camera 620 connected to the support device 6 and viewing audio information acquired from a microphone 630. Further, the control unit 40 transmits the acquired video information and the like to the application server device 2 together with the identification information of the support device 6.

<ツアー実行ステップ>
制御部40は、ツアー実行手段として機能することでツアー実行ステップを実行する。以下では、ツアー実行手段としての制御部40が実行する処理を説明する。
<Tour execution steps>
The control unit 40 executes the tour execution step by functioning as a tour execution unit. Below, the processing executed by the control unit 40 as a tour execution means will be explained.

制御部40は、アプリケーションサーバ装置2から実行指示を受信した場合には、野球の試合の進行状況(例えば、ピッチャー交代、ホームラン)に応じて、ユーザに関連づけられた応援装置6のツアーオプションを実行する。 When the control unit 40 receives the execution instruction from the application server device 2, the control unit 40 executes the tour option of the support device 6 associated with the user according to the progress of the baseball game (for example, pitcher change, home run). do.

例えば、制御部40は、前述のピッチャー交代が発生した場合には、「リリーフカー同乗(ホーム)」のオプションを指定したユーザと対応づける応援装置6を、リリーフカーに設置された応援装置6に変更する。また、制御部40は、選手がホームランを打った場合には、「選手ベンチに座る」のオプションを指定したユーザと対応づける応援装置6を、選手ベンチに設置された応援装置6に変更する。 For example, when the aforementioned pitcher change occurs, the control unit 40 connects the support device 6 installed in the relief car to the support device 6 that is associated with the user who has specified the option of “riding in a relief car (home).” change. Furthermore, when the player hits a home run, the control unit 40 changes the cheering device 6 associated with the user who has specified the option of "sit on the player's bench" to the cheering device 6 installed on the player's bench.

そして、制御部40は、ピッチャー交代の間において、アプリケーションサーバ装置2に、ツアーオプションの実行中の情報を送信する。 Then, the control unit 40 transmits information on the execution of the tour option to the application server device 2 during the pitcher change.

また、制御部40は、リリーフカーに設置された応援装置6のスピーカ630に、ユーザ端末装置3のマイク331から取得したユーザの会話音声を出力させる。 Further, the control unit 40 causes the speaker 630 of the support device 6 installed in the relief car to output the user's conversation voice acquired from the microphone 331 of the user terminal device 3.

また、ピッチャー交代のときに、動画取得ステップにおいて、リリーフカーに設置された応援装置6に接続されたカメラ640から撮影される画像情報およびマイク631から取得される音声情報が取得される。 Further, at the time of a pitcher change, image information captured by a camera 640 connected to a support device 6 installed in a relief car and audio information captured from a microphone 631 are acquired in a video acquisition step.

なお、野球の試合の進行状況の情報は、例えば、運営管理装置5の管理者等によって設定される。 Note that the information on the progress status of the baseball game is set by, for example, the administrator of the operation management device 5.

<運営端末装置のハードウェア構成>
運営端末装置5は、スタジアムの運営者用の端末装置であり、運営端末装置5は、例えば、スマートフォン等のスマートデバイス、パーソナルコンピュータなどの、アプリケーションを実行することができる端末装置によって構成される装置である。
<Hardware configuration of operation terminal device>
The management terminal device 5 is a terminal device for a stadium operator, and the management terminal device 5 is a device configured by a terminal device capable of executing an application, such as a smart device such as a smartphone, or a personal computer. It is.

本実施形態では、パーソナルコンピュータを運営端末装置5として説明する。運営端末装置5は、ディスプレイ520と、スピーカ530と、キーボード340とが接続される。運営端末装置5は、アプリケーションを実行して、運営者によって入力された操作情報(操作信号)を管理サーバ装置4に送信する。 In this embodiment, a personal computer will be explained as the management terminal device 5. A display 520, a speaker 530, and a keyboard 340 are connected to the management terminal device 5. The management terminal device 5 executes the application and transmits the operation information (operation signal) input by the operator to the management server device 4.

図3のとおり、運営端末装置5は、制御部50と、ネットワークインターフェース51と、グラフィック処理部52と、オーディオ処理部53と、操作部54と、記憶部55とを備える。 As shown in FIG. 3, the management terminal device 5 includes a control section 50, a network interface 51, a graphic processing section 52, an audio processing section 53, an operation section 54, and a storage section 55.

ネットワークインターフェース51と、グラフィック処理部52と、オーディオ処理部53と、操作部54と、記憶部55とは、バス59を介して制御部50と電気的に接続されている。 The network interface 51 , the graphic processing section 52 , the audio processing section 53 , the operation section 54 , and the storage section 55 are electrically connected to the control section 50 via a bus 59 .

制御部50は、運営端末装置6の動作を制御する。制御部50は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部50は、CPUおよび半導体メモリを備えている(図示省略)。制御部50の機能については、後述する。 The control unit 50 controls the operation of the management terminal device 6. The control unit 50 transmits and receives various kinds of information and data, and processes various kinds of information and data. The control unit 50 includes a CPU and a semiconductor memory (not shown). The functions of the control unit 50 will be described later.

ネットワークインターフェース51は、運営端末装置5と管理サーバ装置4との間で、各種データを送受信するために、通信ネットワーク7に通信可能に接続される。 The network interface 51 is communicably connected to the communication network 7 in order to transmit and receive various data between the management terminal device 5 and the management server device 4.

グラフィック処理部52は、制御部50から出力される各種画像情報に従って、各種画像を動画形式で描画する。グラフィック処理部52で描画された画像は、ディスプレイ520に出力(表示)される。例えば、グラフィック処理部52は、前述の応援装置6に対して、出力指示を受けつけるための操作画面などをディスプレイ520に表示させる。 The graphic processing unit 52 draws various images in a moving image format according to various image information output from the control unit 50. The image drawn by the graphic processing unit 52 is output (displayed) on the display 520. For example, the graphic processing unit 52 causes the display 520 to display an operation screen for receiving an output instruction from the support device 6 described above.

オーディオ処理部53は、制御部50から出力される各種音声情報に従って、各種音声をスピーカ530に出力(再生)させる。 The audio processing unit 53 causes the speaker 530 to output (reproduce) various sounds according to various audio information output from the control unit 50 .

操作部54には、運営者からの操作信号が入力される。操作部54には、キーボード540を介してユーザからの操作信号が入力される。 An operation signal from an operator is input to the operation unit 54 . An operation signal from the user is input to the operation unit 54 via the keyboard 540.

記憶部55は、HDD、SSD、RAMおよびROM等で構成される。記憶部55には、運営者用のアプリケーションプログラムなどの各種プログラムおよび制御用データ等が格納されている。また、記憶部55には、管理サーバ装置4で使用されるユーザID(運営者ID)が格納されている。 The storage unit 55 includes an HDD, SSD, RAM, ROM, and the like. The storage unit 55 stores various programs such as application programs for operators, control data, and the like. Furthermore, the storage unit 55 stores a user ID (operator ID) used in the management server device 4.

<運営端末装置の制御部の機能の説明>
制御部50は、前述の運営者用のアプリケーションプログラムを実行することで、以下の各手段として機能し、以下の各ステップを実行する。
<出力ステップの説明>
制御部50は、出力手段として機能することで出力ステップを実行する。以下では、出力手段としての制御部50が実行する処理を説明する。
<Description of the functions of the control unit of the operation terminal device>
The control unit 50 functions as the following means and executes the following steps by executing the above-mentioned application program for the operator.
<Explanation of output steps>
The control unit 50 executes the output step by functioning as an output means. Below, the processing executed by the control unit 50 as an output means will be explained.

制御部50は、対象となるすべての応援装置(応援装置6)に接続されたディスプレイ620およびスピーカ630(出力部の一例)などに、画像等を出力させる。前述したように、スタジアムのスポンサー情報、会場(スタジアム)全体で統一感のある演出(例えば、国歌斉唱あるいは喪に服す画像)などを強制的に出力させる。 The control unit 50 causes a display 620 and a speaker 630 (an example of an output unit) connected to all target support devices (support device 6) to output images and the like. As mentioned above, sponsor information for the stadium, a uniform performance throughout the venue (stadium) (for example, the singing of the national anthem or an image of mourning), etc. are forced to be output.

具体的には、制御部50は、運営者の操作情報などに基づいて、対象となるすべての応援装置6の出力部への出力を管理サーバ装置4に指示する。 Specifically, the control unit 50 instructs the management server device 4 to output to the output units of all target support devices 6 based on operator operation information and the like.

<通信ステップの説明>
制御部50は、通信手段として機能することで通信ステップを実行する。以下では、通信手段としての制御部50が実行する処理を説明する。
<Explanation of communication steps>
The control unit 50 executes the communication step by functioning as a communication means. Below, processing executed by the control unit 50 as a communication means will be explained.

制御部50は、例えば、管理サーバ装置4からアプリケーションの画面で表示させるための画像情報、音声情報などの情報を受信する。 The control unit 50 receives information such as image information and audio information to be displayed on an application screen from the management server device 4, for example.

また、制御部50は、例えば、運営者の操作情報に基づいて、運営者の識別情報(ユーザID)、出力指示などを管理サーバ装置4へ送信する。 Further, the control unit 50 transmits the operator's identification information (user ID), output instructions, etc. to the management server device 4, for example, based on the operator's operation information.

<アバター装置のハードウェア構成>
応援装置6は、現実世界のイベント(野球の試合)が開催されるイベント会場(スタジアム)に設置され、対応づけられたユーザが、応援装置6を介して応援などするための各種機能を備える。なお、応援装置6は、内蔵バッテリ(図示省略)によって駆動する。
<Hardware configuration of avatar device>
The cheering device 6 is installed at an event venue (stadium) where a real-world event (baseball game) is held, and has various functions for the associated users to cheer via the cheering device 6. Note that the support device 6 is driven by a built-in battery (not shown).

図4のとおり、応援装置6は、ディスプレイ620と、スピーカ630と、マイク(マイクロフォン)631と、カメラ640と、頭部660と、胴部661と、左腕部607と、右腕部608とを備えている。 As shown in FIG. 4, the support device 6 includes a display 620, a speaker 630, a microphone 631, a camera 640, a head 660, a torso 661, a left arm 607, and a right arm 608. ing.

頭部660、右腕部670および左腕部680は、胴部661に接続されている。 Head 660, right arm 670, and left arm 680 are connected to body 661.

頭部660の正面側には、カメラ640およびマイク(マイクロフォン)631が配置されている。 A camera 640 and a microphone 631 are arranged on the front side of the head 660.

胴部661の正面にはディスプレイ620およびスピーカ631が配置されている。 A display 620 and a speaker 631 are arranged on the front of the body 661.

また、図5のとおり、応援装置6は、制御部60と、ネットワークインターフェース61と、グラフィック処理部62と、オーディオ処理部63と、記憶部64と、右腕駆動部67と、左腕駆動部68と、頭駆動部66とを備えている。 Further, as shown in FIG. 5, the support device 6 includes a control section 60, a network interface 61, a graphic processing section 62, an audio processing section 63, a storage section 64, a right arm drive section 67, and a left arm drive section 68. , and a head drive section 66.

ネットワークインターフェース61と、グラフィック処理部62と、オーディオ処理部63と、記憶部64と、右腕駆動部67と、左腕駆動部68と、頭駆動部66と、カメラ604とは、バス69を介して制御部60と電気的に接続されている。 The network interface 61 , the graphic processing section 62 , the audio processing section 63 , the storage section 64 , the right arm drive section 67 , the left arm drive section 68 , the head drive section 66 , and the camera 604 are connected via a bus 69 . It is electrically connected to the control section 60.

制御部60は、応援装置6の動作を制御する。制御部60は、各種の情報およびデータを送受信し、各種の情報およびデータを処理する。制御部60は、CPUおよび半導体メモリを備えている(図示省略)。制御部60の機能については、後述する。 The control unit 60 controls the operation of the support device 6. The control unit 60 transmits and receives various kinds of information and data, and processes various kinds of information and data. The control unit 60 includes a CPU and a semiconductor memory (not shown). The functions of the control unit 60 will be described later.

ネットワークインターフェース61は、応援装置6と管理サーバ装置4との間で、各種データを送受信するために、通信ネットワーク7に通信可能に接続される。 The network interface 61 is communicably connected to the communication network 7 in order to transmit and receive various data between the support device 6 and the management server device 4.

グラフィック処理部62は、制御部60から出力される各種画像情報に従って、各種画像を動画形式で描画する。グラフィック処理部62で描画された画像は、ディスプレイ620に出力(表示)される。例えば、グラフィック処理部62は、応援画像をディスプレイ620に表示させる。 The graphic processing unit 62 draws various images in a moving image format according to various image information output from the control unit 60. The image drawn by the graphic processing unit 62 is output (displayed) on the display 620. For example, the graphic processing unit 62 causes the display 620 to display a cheering image.

オーディオ処理部63は、制御部60から出力される各種音声情報に従って、各種音声をスピーカ630に出力(再生)させる。例えば、オーディオ処理部63は、応援音声をスピーカ630に出力させる。 The audio processing unit 63 causes the speaker 630 to output (reproduce) various sounds according to various audio information output from the control unit 60 . For example, the audio processing unit 63 causes the speaker 630 to output cheering audio.

また、オーディオ処理部63は、マイク631が検出(収音)したアナログ音声信号およびデジタル音声データ(音声データ)を生成する。例えば、オーディオ処理部63は、スタジアム内で発生する音声の音声データを生成する。 Further, the audio processing unit 63 generates an analog audio signal and digital audio data (sound data) detected (collected) by the microphone 631. For example, the audio processing unit 63 generates audio data of audio generated within the stadium.

記憶部64は、HDD、SSD、RAMおよびROM等で構成される。記憶部64には、アバター装置の動作を制御するための各種プログラム、制御用データ等が格納されている。また、記憶部64には、アバターIDが格納されている。 The storage unit 64 includes an HDD, SSD, RAM, ROM, and the like. The storage unit 64 stores various programs, control data, etc. for controlling the operation of the avatar device. Furthermore, the storage unit 64 stores an avatar ID.

また、撮像部65は、制御部60から出力される情報に従って、カメラ650に撮像を行わせる。カメラ(撮像ユニット)650は、光学レンズ、CCDイメージセンサ(CCD)、撮像信号処理部等を備え、スタジアムを撮影した画像データを生成する。カメラ640は、生成した画像データを制御部60へ送信する。 Further, the imaging unit 65 causes the camera 650 to perform imaging according to information output from the control unit 60. The camera (imaging unit) 650 includes an optical lens, a CCD image sensor (CCD), an imaging signal processing unit, and the like, and generates image data of the stadium. Camera 640 transmits the generated image data to control unit 60.

頭駆動部66は、モータ等を備え、頭部660を上下方向および左右方向に回動させる。頭部の回動によって、カメラ603の撮像方向が調整される。なお、各駆動部65~67における回動させる構成は一般的な構成を採用することができる。 The head drive unit 66 includes a motor and the like, and rotates the head 660 in the vertical direction and the horizontal direction. The imaging direction of the camera 603 is adjusted by the rotation of the head. Note that a general configuration can be adopted as the configuration for rotating each of the drive units 65 to 67.

右腕駆動部67は、モータ等を備え、右腕部670を上下方向に回動させる。左腕駆動部68は、モータ等を備え、左腕部680を上下方向に回動させる。 The right arm drive section 67 includes a motor and the like, and rotates the right arm section 670 in the vertical direction. The left arm drive section 68 includes a motor and the like, and rotates the left arm section 680 in the vertical direction.

<アバター装置の制御部の機能の説明>
応援装置6の制御部60は、前述のプログラムを実行することにより、以下の各手段として機能し、以下の各ステップを実行する。
<出力ステップの説明>
制御部60は、出力手段として機能することで出力ステップを実行する。以下では、出力手段としての制御部60が実行する処理を説明する。
<Description of the functions of the control unit of the avatar device>
The control unit 60 of the support device 6 functions as the following means and executes the following steps by executing the above-mentioned program.
<Explanation of output steps>
The control unit 60 executes the output step by functioning as an output means. Below, the processing executed by the control unit 60 as an output means will be explained.

制御部60は、管理サーバ装置4から受信した出力指示から出力対象(出力情報)を取り出し、グラフィック処理部62およびオーディオ処理部63に出力する。これにより、グラフィック処理部62は、応援画像をディスプレイ620に出力(表示)し、オーディオ処理部63は、応援音声をスピーカ630から出力(再生)する。 The control unit 60 extracts the output target (output information) from the output instruction received from the management server device 4 and outputs it to the graphic processing unit 62 and the audio processing unit 63. As a result, the graphic processing section 62 outputs (displays) the cheering image on the display 620, and the audio processing section 63 outputs (reproduces) the cheering sound from the speaker 630.

<駆動ステップの説明>
制御部60は、駆動手段として機能することで出力ステップを実行する。以下では、駆動手段としての制御部60が実行する処理を説明する。
<Description of driving steps>
The control section 60 executes the output step by functioning as a driving means. Below, processing executed by the control unit 60 as a driving means will be explained.

制御部60は、管理サーバ装置6から受信した変更指示に基づいて、各駆動部65~67を駆動させる。これにより、頭部660、右腕部670、左腕部680が回動する。 The control unit 60 drives each of the drive units 65 to 67 based on the change instruction received from the management server device 6. This causes the head 660, right arm 670, and left arm 680 to rotate.

また、制御部60は、応援音声などの出力に応じて各駆動部65~67を駆動させる。 Further, the control section 60 drives each of the driving sections 65 to 67 in accordance with the output of cheering voices and the like.

<撮像ステップの説明>
制御部40は、撮像手段として機能することで撮像ステップを実行する。以下では、撮像手段としての制御部40が実行する処理を説明する。
<Explanation of imaging steps>
The control unit 40 executes the imaging step by functioning as an imaging means. Below, processing executed by the control unit 40 as an imaging means will be described.

制御部40は、カメラ640から撮影される観覧映像情報およびマイク631から取得される観覧音声情報を取得する。また、制御部40は、取得した映像情報などを、応援装置6の識別情報とともに管理サーバ装置4に送信する。 The control unit 40 acquires viewing video information captured by the camera 640 and viewing audio information acquired from the microphone 631. Further, the control unit 40 transmits the acquired video information and the like to the management server device 4 together with the identification information of the support device 6.

<応援実行処理の説明>
以下、図13を参照して、システム1において行われる本発明の応援実行処理について説明する。図13では、1つのユーザ端末装置3および1つの管理サーバ装置4が用いられるが、複数のユーザ端末装置3および複数の管理サーバ装置4が用いられて応援実行処理が実行されてもよい。
<Explanation of support execution process>
The support execution process of the present invention performed in the system 1 will be described below with reference to FIG. Although one user terminal device 3 and one management server device 4 are used in FIG. 13, a plurality of user terminal devices 3 and a plurality of management server devices 4 may be used to execute the support execution process.

まず、運営端末装置5の制御部50は、ステータス更新ステップを実行し、試合の進行状況の情報を管理サーバ装置4に送信する(ステップS500)。 First, the control unit 50 of the management terminal device 5 executes a status update step and transmits information on the progress of the match to the management server device 4 (step S500).

試合の進行状況は、例えば、選手バス移動、選手ロッカー待機中、試合開始30分前、国歌斉唱、試合中(イニング情報)、ピッチャー交代、ホームランなどの得点時、試合終了、インタビューなどの情報である。例えば、運営者が運営端末装置5に進行状況の入力を行って、運営端末装置5から管理サーバ装置4に送信される。このステップは、運営管理者からの入力が行われるたびに実行される。 The progress of the game includes information such as player bus movement, players waiting at their lockers, 30 minutes before the start of the game, national anthem, during the game (inning information), pitching changes, when home runs are scored, the end of the game, interviews, etc. be. For example, the operator inputs the progress status into the management terminal device 5, and the information is transmitted from the management terminal device 5 to the management server device 4. This step is executed every time there is input from the operations manager.

ついで、管理サーバ装置4の制御部40は、試合の進行状況を受信した場合に、更新ステップを実行する(ステップS300)。 Next, when the control unit 40 of the management server device 4 receives the progress status of the match, it executes an updating step (step S300).

このステップでは、記憶部42に記憶されている試合の進行状況が更新される。このステップは、管理サーバ装置4が試合の進行状況を受信するたびに実行される。 In this step, the progress status of the match stored in the storage unit 42 is updated. This step is executed every time the management server device 4 receives the progress status of the match.

また、ユーザ端末装置3の制御部30は、選択ステップを実行し、参加する試合(スタジアム)、座席(応援装置6)、出力オプションおよびツアーオプションの選択操作(指定操作)を受けつける(ステップS105)。 Further, the control unit 30 of the user terminal device 3 executes the selection step and receives a selection operation (designation operation) of the game (stadium) to participate in, the seat (the cheering device 6), the output option, and the tour option (step S105). .

また、選択ステップにおいて、制御部30は、参加情報をアプリケーションサーバ装置2に送信する。ユーザ端末装置3は、例えば、アプリケーションが起動された後、アプリケーションサーバ装置2などから試合情報、座席情報などを受信することで指定画像70などを表示させ、タッチパッド340介してユーザに前記操作を実行させる。 Furthermore, in the selection step, the control unit 30 transmits participation information to the application server device 2. For example, after the application is started, the user terminal device 3 receives match information, seat information, etc. from the application server device 2, displays the specified image 70, etc., and prompts the user to perform the above operations via the touch pad 340. Let it run.

ついで、アプリケーションサーバ装置2の制御部20は、設定ステップを実行し、受信した参加情報に関する設定を実行する(ステップS205)。例えば、制御部20は、管理サーバ装置4に、参加情報とともに設定指示を送信する。また、制御部20は、参加情報を、このユーザのユーザIDに関連づけてユーザデータとしてユーザDB221に登録する。 Next, the control unit 20 of the application server device 2 executes a setting step and executes settings regarding the received participation information (step S205). For example, the control unit 20 transmits a setting instruction to the management server device 4 along with participation information. Further, the control unit 20 registers the participation information in the user DB 221 as user data in association with the user ID of this user.

ついで、管理サーバ装置4の制御部40は、アプリケーションサーバ装置2からの設定指示に基づいて、設定ステップを実行する(ステップS305)。例えば、制御部40は、ユーザが指定した試合の座席(応援装置6)と、ユーザとを対応づける設定を実行する。 Next, the control unit 40 of the management server device 4 executes a setting step based on the setting instruction from the application server device 2 (step S305). For example, the control unit 40 executes a setting that associates a match seat (support device 6) specified by the user with the user.

また、このステップでは、制御部40は、参加情報に含まれる出力オプション、ツアーオプションなどの情報も登録する。具体的には、制御部40は、ローカルユーザDB422に、受信したユーザIDおよび参加情報を登録する。 Furthermore, in this step, the control unit 40 also registers information such as output options and tour options included in the participation information. Specifically, the control unit 40 registers the received user ID and participation information in the local user DB 422.

ついで、アプリケーションサーバ装置2の制御部20は、情報取得・出力ステップを実行し、管理サーバ装置4から各種情報を取得し、ユーザ端末装置3のディスプレイ320およびスピーカ330への出力情報などの送信を実行する(ステップS210)。 Next, the control unit 20 of the application server device 2 executes an information acquisition/output step, acquires various information from the management server device 4, and transmits output information to the display 320 and speaker 330 of the user terminal device 3. Execute (step S210).

例えば、制御部20は、中継映像、観覧映像などの各種情報の送信開始、および、応援装置6への出力などを、管理サーバ装置4に要求(送信開始要求)する。 For example, the control unit 20 requests the management server device 4 to start transmitting various information such as relay video and viewing video, and to output the information to the support device 6 (transmission start request).

また、制御部20は、前述の視聴画像80を表示させるために、中継映像、観覧映像などを含む出力開始指示をユーザ端末装置3に送信する。なお、情報取得・出力ステップは、後述するステップS255まで繰り返し行われる。また、中継映像および観覧映像は、例えば、試合開始の30分前から試合の終了後の勝利チームの選手のインビューなどが終了するまで表示される。 Further, the control unit 20 transmits an output start instruction including relay video, viewing video, etc. to the user terminal device 3 in order to display the above-described viewing image 80. Note that the information acquisition/output step is repeatedly performed up to step S255, which will be described later. Further, the relay video and the viewing video are displayed, for example, from 30 minutes before the start of the game until the interview of the players of the winning team after the game ends.

また、観覧映像は、中継映像の配信時間外に配信されていてもよい。例えば、観覧映像は、中継映像の配信が終わった後などに表示されてもよい。これにより、ユーザは、例えば、試合終了後のオプションツアーへ参加することができ、また、応援装置6を介して試合終了後の余韻を楽しむこともできる。 Moreover, the viewing video may be distributed outside the distribution time of the relay video. For example, the viewing video may be displayed after the relay video has been distributed. Thereby, the user can, for example, participate in an optional tour after the game ends, and can also enjoy the afterglow after the game through the support device 6.

ついで、管理サーバ装置4の制御部40は、アプリケーションサーバ装置2からの送信開始要求に基づいて、情報取得・送信ステップを実行する(ステップS310)。 Next, the control unit 40 of the management server device 4 executes an information acquisition/transmission step based on the transmission start request from the application server device 2 (step S310).

このステップでは、試合の進行状況の情報、中継映像、観覧映像などの各種情報を取得すること、および送信することが実行される。 In this step, various information such as information on the progress of the match, relay video, viewing video, etc. is acquired and transmitted.

例えば、制御部40は、カメラ640およびマイク631で撮影した観覧映像(観覧音声を含む)の送信開始を、応援装置6に要求する。また、制御部40は、中継映像の取得処理などを開始する。なお、情報取得・送信ステップは、後述するステップS355まで繰り返し行われる。 For example, the control unit 40 requests the support device 6 to start transmitting the viewing video (including viewing audio) captured by the camera 640 and the microphone 631. Further, the control unit 40 starts a relay video acquisition process and the like. Note that the information acquisition/transmission step is repeatedly performed up to step S355, which will be described later.

ついで、応援装置6の制御部60は、管理サーバ装置4からの送信開始要求に基づいて、撮影ステップを実行する(ステップS410)。このステップでは、制御部60は、カメラ640およびマイク631で撮影した観覧映像(観覧音声を含む)を管理サーバ装置4に送信する。なお、撮影ステップは、後述するステップS455まで繰り返し行われる。 Next, the control unit 60 of the support device 6 executes a photographing step based on the transmission start request from the management server device 4 (step S410). In this step, the control unit 60 transmits the viewing video (including viewing audio) captured by the camera 640 and the microphone 631 to the management server device 4 . Note that the photographing step is repeatedly performed up to step S455, which will be described later.

また、ユーザ端末装置3の制御部30は、アプリケーションサーバ装置2からの出力開始指示に基づいて、出力ステップを開始する(ステップS110)。これにより、アプリケーションサーバ装置2から受信した各種情報に基づいて、ディスプレイ320での視聴画像80の表示および音声の出力が実行される。なお、出力ステップは、後述するステップS155まで繰り返し行われる。 Further, the control unit 30 of the user terminal device 3 starts the output step based on the output start instruction from the application server device 2 (step S110). Thereby, based on the various information received from the application server device 2, the viewing image 80 is displayed on the display 320 and the audio is output. Note that the output step is repeatedly performed up to step S155, which will be described later.

また、管理サーバ装置4の制御部40は、参加情報に基づいて、応援出力Iステップを実行する(ステップS315)。 Furthermore, the control unit 40 of the management server device 4 executes the support output I step based on the participation information (step S315).

このステップでは、応援装置6に出力させる出力オプションのうち、ユーザによるボタン操作(応援アイコンボタンの操作)を要求しない出力オプションについて、応援装置6への出力が実行される。この出力オプションとしては、例えば、ユニフォーム画像を応援装置6のディスプレイ620に出力させるための出力オプションがある。 In this step, among the output options to be output to the support device 6, output options that do not require the user to operate a button (operation of a support icon button) are output to the support device 6. This output option includes, for example, an output option for outputting the uniform image to the display 620 of the support device 6.

制御部40は、ユーザの参加情報に基づいて、応援装置6に出力させる応援映像(例えば、ユニフォーム画像)を決定し、応援装置6のディスプレイ620に出力開始指示Iを行う。例えば、制御部40は、応援映像などの出力情報(画像情報など)とともに、出力開始指示Iを応援装置6に送信する。 The control unit 40 determines a cheering video (for example, a uniform image) to be outputted to the cheering device 6 based on the user's participation information, and issues an output start instruction I to the display 620 of the cheering device 6. For example, the control unit 40 transmits an output start instruction I to the support device 6 along with output information (image information, etc.) such as a support video.

ついで、応援装置6の制御部60は、管理サーバ装置4からの出力開始指示Iに基づいて、応援出力Iステップを実行する(ステップS415)。このステップでは、制御部60は、受信した出力情報に基づいてディスプレイ620に応援画像を表示させる。なお、応援出力Iステップは、後述するステップS455まで継続して出力される。 Next, the control unit 60 of the support device 6 executes the support output I step based on the output start instruction I from the management server device 4 (step S415). In this step, the control unit 60 causes the display 620 to display a support image based on the received output information. Note that the support output I step is continuously output until step S455, which will be described later.

また、ユーザ端末装置3の制御部30は、ユーザから切替ボタンが操作された場合に映像変更ステップを実行し、映像領域81の表示内容を、中継映像および観覧映像のいずれか一方に切り替える(ステップ120)。前述のとおり、ユーザは、切替ボタン(切替ボタンが表示された位置に対応するタッチパッド340)をタップすることで映像変更を実行することができる。 Further, the control unit 30 of the user terminal device 3 executes a video change step when the user operates the switching button, and switches the display content of the video area 81 to either the relay video or the viewing video (step 120). As described above, the user can change the image by tapping the switching button (touch pad 340 corresponding to the position where the switching button is displayed).

また、ユーザ端末装置3の制御部30は、ユーザから応援アイコンボタンの操作があった場合に応援要求ステップを実行し、操作情報(オプションID)をアプリケーションサーバ装置2に送信する(ステップS125)。前述のとおり、ユーザは、応援アイコンボタン(応援アイコンボタンが表示された位置に対応するタッチパッド340)をタップすることで応援要求を実行することができる。 Furthermore, when the user operates the support icon button, the control unit 30 of the user terminal device 3 executes a support request step and transmits the operation information (option ID) to the application server device 2 (step S125). As described above, the user can issue a support request by tapping the support icon button (touch pad 340 corresponding to the position where the support icon button is displayed).

ついで、アプリケーションサーバ装置2の制御部20は、ユーザ端末装置3から応援アイコンボタン(例えば、ブーイング92)の操作情報を受信した場合に、応援出力IIステップを実行する(ステップS225)。具体的には、制御部20は、操作情報(オプションID)を含めた応援出力指示IIを管理サーバ装置4に送信する。 Next, when the control unit 20 of the application server device 2 receives the operation information of the support icon button (for example, boo 92) from the user terminal device 3, it executes the support output II step (step S225). Specifically, the control unit 20 transmits the support output instruction II including the operation information (option ID) to the management server device 4.

ついで、管理サーバ装置4の制御部40は、アプリケーションサーバ装置2からの応援出力指示IIに基づいて、応援出力IIステップを実行する(ステップS325)。このステップでは、操作情報(オプションID)に基づいて、応援装置6に出力させる応援音声を決定し、応援装置6に出力開始指示IIを送信する。 Next, the control unit 40 of the management server device 4 executes the support output II step based on the support output instruction II from the application server device 2 (step S325). In this step, based on the operation information (option ID), the support voice to be outputted by the support device 6 is determined, and an output start instruction II is transmitted to the support device 6.

制御部40は、例えば、応援音声に対応する出力情報(音声データ、腕部の姿勢情報など)とともに、出力開始指示IIを応援装置6に送信する。腕部の姿勢情報は、例えば、腕部の回動角度である。 The control unit 40 transmits an output start instruction II to the support device 6, for example, along with output information (audio data, arm posture information, etc.) corresponding to the support voice. The arm posture information is, for example, the rotation angle of the arm.

ついで、応援装置6の制御部60は、管理サーバ装置4からの出力開始指示IIに基づいて、応援出力IIステップを実行する(ステップS425)。このステップでは、制御部60は、受信した出力情報に基づいてスピーカ630に応援音声を出力し、腕部607、608を回動させる。なお、応援出力IIステップは、指定された応援音声の出力が完了した後に終了する。 Next, the control unit 60 of the support device 6 executes the support output II step based on the output start instruction II from the management server device 4 (step S425). In this step, the control unit 60 outputs a cheering voice to the speaker 630 based on the received output information, and rotates the arms 607 and 608. Note that the support output II step ends after output of the specified support voice is completed.

また、ユーザ端末装置3の制御部30は、ユーザから操作ボタンの操作があった場合にカメラ操作要求ステップを実行し、操作情報(操作ID)をアプリケーションサーバ装置2に送信する(ステップS130)。前述のとおり、ユーザは、操作ボタン(操作ボタンが表示された位置に対応するタッチパッド340)をタップすることでカメラ操作要求を実行することができる。 Further, the control unit 30 of the user terminal device 3 executes a camera operation request step when the user operates the operation button, and transmits operation information (operation ID) to the application server device 2 (step S130). As described above, the user can execute a camera operation request by tapping the operation button (touch pad 340 corresponding to the position where the operation button is displayed).

ついで、アプリ制御サーバ装置2の制御部20は、ユーザ端末装置3から操作ボタンの操作情報を受信した場合に、カメラ変更ステップを実行する(ステップS230)。具体的には、制御部20は、操作情報(操作ID)を含めた変更指示を管理サーバ装置4に送信する。 Next, when the control unit 20 of the application control server device 2 receives the operation information of the operation button from the user terminal device 3, it executes a camera change step (step S230). Specifically, the control unit 20 transmits a change instruction including operation information (operation ID) to the management server device 4.

ついで、管理サーバ装置4の制御部40は、アプリケーションサーバ装置2からの変更指示に基づいて、カメラ変更ステップを実行する(ステップS330)。 Next, the control unit 40 of the management server device 4 executes a camera change step based on the change instruction from the application server device 2 (step S330).

このステップでは、操作情報(操作ID)に基づいて、応援装置6の頭部660の姿勢、ズーム(縮尺率)を決定し、応援装置6に変更指示を送信する。 In this step, the posture and zoom (reduction rate) of the head 660 of the support device 6 are determined based on the operation information (operation ID), and a change instruction is sent to the support device 6.

例えば、制御部40は、応援装置6の頭部660の姿勢、ズーム(縮尺率)などの制御情報とともに、変更指示を応援装置6に送信する。 For example, the control unit 40 transmits a change instruction to the support device 6 along with control information such as the attitude of the head 660 of the support device 6 and zoom (reduction rate).

ついで、応援装置6の制御部60は、管理サーバ装置4からの変更指示に基づいて、カメラ変更ステップを実行する(ステップS430)。このステップでは、制御部60は、受信した設定情報に基づいて、頭部660の回動、ズームの拡縮率を設定(変更)する。 Next, the control unit 60 of the support device 6 executes a camera change step based on the change instruction from the management server device 4 (step S430). In this step, the control unit 60 sets (changes) the rotation of the head 660 and the zoom ratio based on the received setting information.

なお、変更ステップで変更された頭部660の回動、ズームの拡縮率は、再度の変更指示を受信するまで、または、撮影ステップが終了するまで維持される。 Note that the rotation of the head 660 and the zoom magnification/reduction ratio changed in the change step are maintained until a change instruction is received again or until the photographing step is completed.

また、ユーザ端末装置3の制御部30は、ユーザからチャットボタンの操作があった場合にチャット開始要求ステップを実行し、チャット開始要求をアプリケーションサーバ装置2に送信する(ステップS140)。前述のとおり、ユーザは、チャットボタン(チャットボタンが表示された位置に対応するタッチパッド340)をタップすることでチャット開始要求を実行することができる。 Furthermore, when the user operates the chat button, the control unit 30 of the user terminal device 3 executes a chat start request step and transmits the chat start request to the application server device 2 (step S140). As described above, the user can execute a chat start request by tapping the chat button (touch pad 340 corresponding to the position where the chat button is displayed).

ついで、アプリ制御サーバ装置2の制御部20は、ユーザ端末装置3からチャット開始要求を受信した場合に、マッチングステップを実行する(ステップS240)。 Next, when the control unit 20 of the application control server device 2 receives a chat start request from the user terminal device 3, it executes a matching step (step S240).

具体的には、制御部20は、ユーザに関してマッチング条件に合致する他ユーザを、ユーザの音声チャットの相手として割り当てる。他ユーザは1名以上であればよい。また、制御部20は、マッチングした各ユーザのユーザデータに、チャット相手のユーザIDを登録する。 Specifically, the control unit 20 assigns another user who meets the matching conditions for the user as the user's voice chat partner. The number of other users may be one or more. The control unit 20 also registers the user ID of the chat partner in the user data of each matched user.

さらに、制御部20は、マッチングの成立によって、チャットの開始指示を、マッチングが成立した各ユーザのユーザ端末装置3に送信する。 Further, when a match is made, the control unit 20 transmits a chat start instruction to the user terminal device 3 of each user with whom the match is made.

ついで、アプリケーションサーバ装置2の制御部20は、チャット通信ステップを実行する(ステップS245)。 Next, the control unit 20 of the application server device 2 executes a chat communication step (step S245).

このステップでは、制御部20は、マッチング中のユーザの発話音声の音声データを各ユーザ端末装置3から受信し、相手ユーザのユーザ端末装置3に送信する。なお、このステップは、例えば、ユーザがチャット終了の操作を行った場合など、チャットが終了されるまで継続して実行される。 In this step, the control unit 20 receives the audio data of the user's utterance during matching from each user terminal device 3, and transmits it to the user terminal device 3 of the other user. Note that this step is continuously executed until the chat is ended, for example, when the user performs an operation to end the chat.

また、ユーザ端末装置3の制御部30は、アプリケーションサーバ装置6からチャットの開始指示を受信した場合に、チャット実行ステップを実行する(ステップS145)。 Furthermore, when the control unit 30 of the user terminal device 3 receives a chat start instruction from the application server device 6, it executes a chat execution step (step S145).

このステップでは、制御部30は、マイク331を介して取得したユーザの発話音声の音声データをアプリケーションサーバ装置2に送信する。また、制御部30は、他ユーザの発話音声の音声データをアプリケーションサーバ装置2から受信してスピーカ330から出力する。 In this step, the control unit 30 transmits audio data of the user's uttered voice acquired through the microphone 331 to the application server device 2 . Further, the control unit 30 receives audio data of other users' uttered voices from the application server device 2 and outputs it from the speaker 330.

なお、このステップは、例えば、ユーザがチャット終了の操作を行った場合など、チャットが終了されるまで継続して実行される。 Note that this step is continuously executed until the chat is ended, for example, when the user performs an operation to end the chat.

また、運営端末装置5の制御部50は、出力条件が成立した場合に、強制出力ステップを実行する(ステップS535)。 Further, the control unit 50 of the management terminal device 5 executes a forced output step when the output condition is satisfied (step S535).

このステップでは、例えば、スタジアムのすべての応援装置6に対し、演出映像(音声を含む)を強制的に出力させる。出力条件は、例えば、試合の進行状況が特定の状況であること、強制出力指示が運営者から入力されたこと、などがある。 In this step, for example, all the cheering devices 6 in the stadium are forced to output performance video (including audio). The output conditions include, for example, that the progress of the match is in a specific situation, that a forced output instruction has been input by the operator, and so on.

例えば、試合の進行状況が国歌斉唱(特定の状況)の場合には、スタジアムのすべての応援装置6のディスプレイ630に、国歌斉唱に合わせた日の丸などの国旗の画像を表示させる。この場合には、制御部50は、国旗の画像情報などの出力情報とともに、強制出力指示を管理サーバ装置4に送信する。 For example, when the progress of the game is to sing the national anthem (a specific situation), images of the national flag, such as the Japanese flag, are displayed on the displays 630 of all the cheering devices 6 in the stadium in conjunction with the singing of the national anthem. In this case, the control unit 50 transmits a forced output instruction to the management server device 4 along with output information such as image information of the national flag.

また、例えば、スポンサーが指定した特定状況(攻守交替時など)の場合に、制御部50は、スタジアムのすべての応援装置6のディスプレイ630に、スポンサーの広告映像を表示させる。これにより、中継映像に広告映像が映り込む。また、スタジアムの来場者は、直接的に、広告映像を目にすることになり、来場者への訴求効果も生じる。 Further, for example, in the case of a specific situation specified by the sponsor (such as when changing offense and defense), the control unit 50 causes the display 630 of all the cheering devices 6 in the stadium to display the sponsor's advertising video. As a result, the advertisement video is reflected in the relay video. In addition, stadium visitors will directly see advertising images, which will have an appealing effect on the visitors.

また、このステップでは、制御部60は、終了条件が成立した場合に、強制出力終了指示を管理サーバ装置4に送信して、このステップを終了する。終了条件は、例えば、国歌斉唱(特定の状況)が終了したことである。 Further, in this step, if the termination condition is satisfied, the control unit 60 transmits a forced output termination instruction to the management server device 4, and terminates this step. The end condition is, for example, that the singing of the national anthem (in a specific situation) has ended.

ついで、管理サーバ装置4の制御部40は、運営端末装置5から強制出力指示を受信した場合に、強制出力ステップを実行する(ステップS335)。 Next, when the control unit 40 of the management server device 4 receives the forced output instruction from the management terminal device 5, it executes the forced output step (step S335).

このステップでは、制御部40は、出力対象となっている応援装置6に強制的に出力を行わせる。具体的には、制御部40は、出力情報を含めた強制出力指示を、対象となる応援装置6に送信する。例えば、スタジアムのすべての応援装置6に、国旗の画像情報(出力情報)を含めた強制出力指示を送信する。 In this step, the control unit 40 forces the support device 6 that is the output target to perform the output. Specifically, the control unit 40 transmits a forced output instruction including output information to the target support device 6. For example, a forced output instruction including image information (output information) of the national flag is transmitted to all the cheering devices 6 in the stadium.

また、このステップでは、制御部40は、強制出力終了指示を運営端末装置5から受信した場合、強制出力終了指示をアバター端末装置6に送信して、このステップを終了する。 Furthermore, in this step, when the control unit 40 receives the forced output termination instruction from the management terminal device 5, it transmits the forced output termination instruction to the avatar terminal device 6, and ends this step.

ついで、応援装置6の制御部60は、管理サーバ装置4から強制出力指示を受信した場合に、強制出力ステップを実行する(ステップS435)。 Next, when the control unit 60 of the support device 6 receives the forced output instruction from the management server device 4, it executes the forced output step (step S435).

このステップでは、制御部60は、実行している応援出力Iステップなどの実行を中断し、ディスプレイ620に国旗の画像を表示させる。 In this step, the control unit 60 interrupts the execution of the support output I step, etc., and causes the display 620 to display an image of the national flag.

また、このステップでは、制御部60は、強制出力終了指示を管理サーバ装置4から受信した場合に、このステップを終了して中断している応援出力Iステップなどの実行を再開する。 Further, in this step, when the control unit 60 receives a forced output termination instruction from the management server device 4, the control unit 60 terminates this step and resumes execution of the suspended support output I step and the like.

また、管理サーバ装置4の制御部40は、ツアーオプションの実行タイミングが到来した場合に、実行ステップを実行する(ステップS350)。制御部40は、ステップS310の処理以降に、ローカルユーザDB422の各ユーザの参加情報を参照し、指定されているツアーオプションの実行タイミングの到来を継続的に判断する。 Further, the control unit 40 of the management server device 4 executes the execution step when the timing for executing the tour option has arrived (step S350). After the process of step S310, the control unit 40 refers to the participation information of each user in the local user DB 422 and continuously determines when the execution timing of the specified tour option has arrived.

例えば、試合の進行状況がピッチャー交代となった場合に、制御部40は、「リリーフカー同乗(ホーム)」のツアーオプションの実行タイミングが到来したと判断し、「リリーフカー同乗」を実行する。なお、ホームチームのピッチャー交代でない場合は、「リリーフカー同乗(ホーム)」は実行されない。 For example, when the progress of the game indicates a pitcher change, the control unit 40 determines that the timing to execute the tour option of "Ride in Relief Car (Home)" has arrived, and executes "Ride in Relief Car". Note that if there is no pitcher change for the home team, "relief car ride-along (home)" will not be performed.

このステップでは、制御部40は、ユーザに対応づけられている応援装置6を、座席の応援装置6から、リリーフカーの応援装置6に一時的に変更する。これによって、リリーフカーの応援装置6のディスプレイ620に応援画像なども出力される。 In this step, the control unit 40 temporarily changes the support device 6 associated with the user from the seat support device 6 to the relief car support device 6. As a result, a support image and the like are also output to the display 620 of the relief car support device 6.

また、このステップでは、制御部40は、カメラ640およびマイク631で撮影した観覧映像(観覧音声を含む)の送信開始を、リリーフカーの応援装置6に要求する。なお、リリーフカーの応援装置6の制御部60は、管理サーバ装置4からの送信開始要求および音声出力指示に基づいて、撮影・出力ステップを実行する。制御部60は、カメラ640およびマイク631で撮影した観覧映像(観覧音声を含む)を管理サーバ装置4に送信する。また、制御部60は、管理サーバ装置4から受信した音声データをスピーカ630から出力する。 Further, in this step, the control unit 40 requests the relief car support device 6 to start transmitting the viewing video (including viewing audio) captured by the camera 640 and the microphone 631. Note that the control unit 60 of the relief car support device 6 executes the photographing/output step based on the transmission start request and audio output instruction from the management server device 4. The control unit 60 transmits the viewing video (including viewing audio) captured by the camera 640 and the microphone 631 to the management server device 4 . Further, the control unit 60 outputs the audio data received from the management server device 4 from the speaker 630.

また、このステップでは、制御部40は、リリーフカーの応援装置6から受信した観覧映像(観覧音声を含む)の出力情報とともに、ツアーオプション出力指示をアプリケーションサーバ装置2に送信する。 Further, in this step, the control unit 40 transmits a tour option output instruction to the application server device 2 along with output information of the viewing video (including viewing audio) received from the relief car support device 6.

また、このステップでは、制御部40は、ユーザ端末装置3(アプリケーションサーバ装置2)から受信したユーザの発話音声の音声データを含む音声出力指示を、リリーフカーの応援装置6に要求する。 Further, in this step, the control unit 40 requests the relief car support device 6 to output an audio instruction including audio data of the user's uttered audio received from the user terminal device 3 (application server device 2).

また、このステップでは、制御部40は、ツアーオプションの終了タイミングが到来した場合に、該当するユーザが対応づけられている応援装置6の対応づけを、もとの座席の応援装置6に戻す。これによって、もとの座席の応援装置6のディスプレイ620に応援画像などが再び出力されるとともに、ユーザ端末装置3のディスプレイ320に中継映像が出力される。 Further, in this step, when the end timing of the tour option arrives, the control unit 40 returns the association of the support device 6 associated with the corresponding user to the support device 6 of the original seat. As a result, the cheering image and the like are outputted again to the display 620 of the cheering device 6 at the original seat, and the relay video is outputted to the display 320 of the user terminal device 3.

制御部40は、ツアーオプションの終了タイミングが到来した場合に、ツアーオプション終了指示をアプリケーションサーバ装置2に送信して、このステップを終了する。 When the tour option end timing has arrived, the control unit 40 transmits a tour option end instruction to the application server device 2, and ends this step.

ついで、アプリケーションサーバ装置2の制御部20は、管理サーバ装置4からのツアーオプション出力開始指示に基づいて、ツアーオプション出力ステップを実行する(ステップS250)。 Next, the control unit 20 of the application server device 2 executes a tour option output step based on the tour option output start instruction from the management server device 4 (step S250).

このステップでは、制御部20は、リリーフカーの応援装置6で撮影された観覧映像(観覧音声を含む)の出力情報とともに、ツアーオプション出力指示をユーザ端末装置3に送信する。 In this step, the control unit 20 transmits a tour option output instruction to the user terminal device 3 along with output information of the viewing video (including viewing audio) captured by the relief car support device 6.

また、このステップでは、制御部20は、ユーザ端末装置3から受信した音声データを管理サーバ装置4に送信する。 Further, in this step, the control unit 20 transmits the audio data received from the user terminal device 3 to the management server device 4.

また、このステップでは、制御部20は、ツアーオプション終了指示を受信した場合に、ツアーオプション終了指示をユーザ端末装置3に送信して、このステップを終了する。 Further, in this step, when the control unit 20 receives the tour option end instruction, it transmits the tour option end instruction to the user terminal device 3, and ends this step.

ついで、ユーザ端末装置3の制御部30は、アプリケーションサーバ装置2からのツアーオプション出力開始指示に基づいて、ツアーオプション出力ステップを実行する(ステップS150)。これにより、リリーフカーの応援装置6で撮影された観覧映像がディスプレイ320(映像領域81)に表示される。また、この観覧映像の音声がスピーカ330から出力される。 Next, the control unit 30 of the user terminal device 3 executes a tour option output step based on the tour option output start instruction from the application server device 2 (step S150). Thereby, the viewing video taken by the relief car support device 6 is displayed on the display 320 (video area 81). Furthermore, the audio of this viewing video is output from the speaker 330.

また、このステップでは、制御部30は、マイク331から取得されたユーザの発話音声の音声データをアプリケーションサーバ装置2に送信する。 Furthermore, in this step, the control unit 30 transmits the audio data of the user's uttered voice acquired from the microphone 331 to the application server device 2 .

制御部30は、ツアーオプション終了指示をアプリケーションサーバ装置2から受信した場合に、このステップを終了する。 When the control unit 30 receives the tour option end instruction from the application server device 2, it ends this step.

管理サーバ装置4の制御部40は、野球の試合の中継映像を取得することができなくなるなど、映像表示が終了された場合に、情報取得・送信ステップを終了する(ステップS355)。制御部40は、アプリケーションサーバ装置2および応援装置6に、終了指示を送信する。 The control unit 40 of the management server device 4 ends the information acquisition/transmission step when the video display is terminated, such as when the relay video of the baseball game cannot be acquired (step S355). The control unit 40 transmits a termination instruction to the application server device 2 and the support device 6.

以上の手順により、本発明の応援実行処理が実行される。 Through the above procedure, the support execution process of the present invention is executed.

以上をまとめると、本発明は、
つぎの各ステップを実行するシステムであって、
設定ステップにおいて、複数の応援装置6に対してユーザを対応づけ、
応援装置6は、現実世界のイベントが開催されるイベント会場に設置され、
出力ステップにおいて、応援装置6に接続されたディスプレイ620およびスピーカ630に応援画像および応援音声を出力させる、
システムである。
To summarize the above, the present invention:
A system that executes each of the following steps,
In the setting step, a user is associated with a plurality of support devices 6,
The support device 6 is installed at an event venue where a real-world event is held,
In the output step, a display 620 and a speaker 630 connected to the support device 6 output a support image and a support voice.
It is a system.

<発明の効果>
本発明によれば、スポーツあるいはコンサート等のイベントのイベント会場にユーザの分身を参加させて、会場にはいないユーザに会場に行った感覚を与えることができるシステムおよびコンピュータプログラムを提供することができる。
<Effects of the invention>
According to the present invention, it is possible to provide a system and a computer program that allow a user's alter ego to participate in an event venue for an event such as a sports event or a concert, thereby giving a user who is not present at the venue the feeling of being there. .

具体的には、ユーザが対応づけられたアバター装置がイベント会場に設置されることにより、ユーザは、例えば、アバター装置に設置されたカメラを介してイベントを視聴することができるとともに、例えば、アバター装置に設置されたディスプレイおよびスピーカを介してユーザによる応援をイベント会場で発することができる。 Specifically, by installing an avatar device associated with a user at an event venue, the user can, for example, view the event through a camera installed on the avatar device. Users can give their support at the event venue through the display and speakers installed in the device.

さらに、本発明によれば、例えば、ユーザはアバター装置を介して選手などに応援画像・声援を届けることができ、一方、選手はアバター装置を介してユーザにファンサービスを提供することもできる。 Furthermore, according to the present invention, for example, a user can send cheering images and cheers to an athlete through an avatar device, and on the other hand, an athlete can also provide fan services to a user through an avatar device.

[第2の実施形態]
第1の実施形態に限られず、本発明のシステムには、ユーザが管理する応援装置が用いられてもよい。
[Second embodiment]
The system of the present invention is not limited to the first embodiment, and a support device managed by a user may be used.

本実施形態における応援装置は、例えば、図14のとおり、ユーザが管理する応援装置610である。 The support device in this embodiment is, for example, a support device 610 managed by a user, as shown in FIG. 14.

応援装置610は、当初からはスタジアム(イベント会場)には設置されておらず、例えば、ユーザが運送業者などを利用することで、ユーザの手元からスタジアムに移送される。 The support device 610 is not installed at the stadium (event venue) from the beginning, but is transported from the user's hand to the stadium by the user using a transport company, for example.

本実施形態では、ユーザは、応援装置610の移送前に、試合、座席、オプションなどの指定操作を行う。 In this embodiment, the user performs an operation to specify a match, seat, option, etc. before transporting the support device 610.

ついで、ユーザは、試合が行われるスタジアムの管理サーバ装置400に、自身の応援装置600を登録する。 Next, the user registers his or her support device 600 with the management server device 400 of the stadium where the match will be held.

これにより、例えば、応援装置610のIPアドレスなど、各種装置が応援装置610と通信を開始するための情報が、ユーザに関連づけてローカルユーザDB(ユーザデータ)に登録される。 As a result, information for various devices to start communication with the support device 610, such as the IP address of the support device 610, is registered in the local user DB (user data) in association with the user.

なお、通信を開始するための情報は、アプリケーションサーバ装置200を介してユーザ端末装置300から管理サーバ装置400へと送信される。 Note that information for starting communication is transmitted from the user terminal device 300 to the management server device 400 via the application server device 200.

管理サーバ装置400と応援装置610との通信接続が完了したのち、ユーザは、スタジアムに応援装置610を移送すればよい。 After the communication connection between the management server device 400 and the support device 610 is completed, the user may transport the support device 610 to the stadium.

そして、スタジアム到着後に、応援装置610は、例えばスタジアムの運営者によって指定位置(座席)に配置される。 After arriving at the stadium, the cheering device 610 is placed at a designated position (seat) by, for example, the stadium operator.

配置位置は、ユーザが指定した情報などに基づいて、例えば、電源起動後の応援装置610のディスプレイに自動表示されるようにすることができる。 The arrangement position can be automatically displayed on the display of the support device 610 after the power is turned on, for example, based on information specified by the user.

イベントが開始される所定時間前より、ユーザ端末装置300でアプリケーションを起動することで、ユーザは、観覧映像などを視聴することができる。 By starting an application on the user terminal device 300 a predetermined time before the start of the event, the user can view viewing videos and the like.

試合終了後には、応援装置610は、再び運送業者などを利用してユーザの手元に移送される。 After the game is over, the cheering device 610 is transported to the user again using a carrier or the like.

また、前記には限られず、ユーザ自身が応援装置を会場に持ち込んで設置することができてもよい。さらに、ユーザは、応援装置用の送迎バスを利用して応援装置を会場まで運ぶことができてもよい。 Furthermore, the present invention is not limited to the above, and the user himself/herself may be able to bring the support device to the venue and install it. Furthermore, the user may be able to transport the support device to the venue using a shuttle bus for the support device.

さらには、応援装置が自走式の装置(二足歩行ロボットなど)である場合には、ユーザが応援装置に目的地を設定し、会場まで移動させることもできる。 Furthermore, if the support device is a self-propelled device (such as a bipedal robot), the user can set a destination on the support device and move it to the venue.

その他の構成、および作用効果は前記実施形態と同様である。 Other configurations and effects are similar to those of the embodiment described above.

[第3の実施形態]
第1および第2の実施形態では、応援装置としては、ロボット型のアバター装置が用いられているが、応援画像および/または応援音声を出力することができる構成であれば、様々な装置が用いられうる。
[Third embodiment]
In the first and second embodiments, a robot-type avatar device is used as the support device, but various devices may be used as long as they are configured to output a support image and/or a support voice. It can be done.

例えば、応援装置として、図15のとおり、無線通信機能を備える液晶ディスプレイが用いられてもよい。液晶ディスプレイ600は、前述のアバター装置と同様に、カメラ、マイク、スピーカなどを備える。 For example, as shown in FIG. 15, a liquid crystal display with a wireless communication function may be used as the support device. The liquid crystal display 600 is equipped with a camera, a microphone, a speaker, etc., like the avatar device described above.

この場合には、図15のとおり、ユーザ自身の顔写真が、応援するチームのユニフォームの画像とともに、液晶ディスプレイ600に表示されることができる。この場合においてユーザ自身の顔写真は、リアルタイム映像であっても、あらかじめ撮影した静止画であってもよい。 In this case, as shown in FIG. 15, a photograph of the user's own face can be displayed on the liquid crystal display 600 together with an image of the uniform of the team that the user supports. In this case, the user's own face photo may be a real-time video or a still image taken in advance.

さらには、隣接する複数の液晶ディスプレイ600に1人のユーザが対応づけられてもよい。この場合には、マルチモニタとして、1人のユーザを大きく表示することができる。 Furthermore, one user may be associated with a plurality of adjacent liquid crystal displays 600. In this case, one user can be displayed in a large size as a multi-monitor.

その他の構成、および作用効果は前記実施形態と同様である。 Other configurations and effects are similar to those of the embodiment described above.

[他の実施形態]
前記実施形態では、イベントは、野球の試合であったが、サッカー、ゴルフ、テニス、格闘技など他のスポーツの試合、競馬、競艇などの公営ギャンブル、eスポーツであってもよい。また、イベントは、コンサート、海外旅行のツアーなどの興行であってもよい。
[Other embodiments]
In the embodiment, the event was a baseball game, but it may also be a game of other sports such as soccer, golf, tennis, or martial arts, public gambling such as horse racing or boat racing, or e-sports. Further, the event may be a concert, an overseas tour, or the like.

例えば、イベントがeスポーツである場合には、ユーザが座る座席に応援装置が設置されるだけではなく、選手のコントローラの操作を撮像することのできる位置に応援装置が設置されてもよい。 For example, if the event is e-sports, the support device may not only be installed at the seat where the user sits, but also at a position where it can capture images of the players' operations on the controller.

eスポーツ、ゴルフ、テニスなどにおいては、選手の集中力を遮らないように応援装置からの声援の再生状況に応じて再生しない(または音量を小さくする)ように応援装置が制御されてもよい。また、応援装置を介して選手を応援するユーザ同士においては、声援、チャットなどがユーザ端末装置を介して再生されてもよい。 In e-sports, golf, tennis, etc., the cheering device may be controlled so as not to reproduce (or to reduce the volume of) cheering from the cheering device depending on the reproduction status so as not to interrupt the concentration of the players. Moreover, between users who support a player via a cheering device, cheering, chatting, etc. may be played back via a user terminal device.

また、イベント会場が映画館、演劇の劇場等で、例えば応援上映(観客がペンライトなどを振りながら声援を送ることができる上映など)で応援装置から音声を出力させることができてもよい。 Furthermore, if the event venue is a movie theater, a theater, or the like, the cheering device may be able to output audio, for example, during a cheering screening (such as a screening where the audience can cheer while waving penlights or the like).

また、アプリケーションサーバ装置あるいは管理サーバ装置が、応援装置を介してユーザが禁止用語を発したり表示したりするようなマナー違反を検出することができてもよい。この場合には、アプリケーションサーバ装置等が、マナー違反をするユーザに対応づけられた応援装置からの出力を強制的に制御(禁止)することができる。 Further, the application server device or the management server device may be able to detect, via the support device, a violation of etiquette such as a user uttering or displaying a prohibited word. In this case, the application server device or the like can forcibly control (prohibit) the output from the support device associated with the user who violates etiquette.

また、前記のようにアプリケーションサーバ装置等がマナー違反等を検出することができる場合には、マナー違反が所定回数あるユーザが次に座席を予約するときなどに、そのユーザに制限を課す(そのユーザは、予約することができない、あるいは、選手から遠い座席のみを予約することができる)ことができてもよい。 In addition, if the application server device etc. can detect manner violations as described above, restrictions may be imposed on the user who has violated manners a certain number of times, such as when reserving a seat next time. Users may not be able to make reservations or may only be able to reserve seats that are far from the players.

また、試合の進行状況が特定の状況である例として、チームA(あるいはチームB)のテーマソングなどが再生されるときは、応援装置のディスプレイに、そのチームカラーが表示されたり、複数の応援装置にわたってエンブレムあるいは応援メッセージなどが表示されたりしてもよい。 In addition, as an example of a specific situation in the progress of a match, when the theme song of team A (or team B) is played, the team color is displayed on the display of the cheering device, or multiple cheering An emblem or a message of support may be displayed across the device.

さらに地震などの緊急事態時には、応援装置のディスプレイに、避難経路が表示されて、来場者を誘導することもできてもよい。 Furthermore, in the event of an emergency such as an earthquake, an evacuation route may be displayed on the display of the support device to guide visitors.

また、前記実施形態では、ツアーオプションの開始タイミングで、ユーザが対応づけられている応援装置が変更される例が記載されているが、本発明はこれには限られない。例えば、ツアーオプションの開始タイミングが到来した場合に、該当するユーザが対応づけられている応援装置に加え、さらに他の応援装置(例えば、リリーフカーに同乗している応援装置)に対して一時的に対応づけが追加されてもよい。 Further, in the embodiment described above, an example is described in which the support device associated with the user is changed at the start timing of the tour option, but the present invention is not limited to this. For example, when the start timing of a tour option arrives, in addition to the support device associated with the corresponding user, other support devices (for example, a support device riding in a relief car) may be temporarily A mapping may be added to.

また、前記実施形態に限られず、ユニフォームには、ホーム用ユニフォーム、アウェイ用ユニフォーム、サードユニフォームなど、複数種類用意されていてもよい。ユーザは、その画像(スキン)を購入することによって、それらの画像を応援装置のディスプレイにオプション画像として表示することができる。 Furthermore, the present invention is not limited to the above embodiment, and a plurality of types of uniforms may be prepared, such as a home uniform, an away uniform, and a third uniform. By purchasing the images (skins), the user can display those images as optional images on the display of the support device.

さらには、ユーザは、タオル、メガホン、帽子などの様々なグッズ画像を購入して、応援装置に表示することができる。この場合には、例えばタオルの画像が、ユニフォーム画像に重ねて表示される。 Furthermore, the user can purchase images of various goods such as towels, megaphones, and hats, and display them on the support device. In this case, for example, an image of a towel is displayed superimposed on the uniform image.

また、応援装置に表示される画像は、ユーザの顔写真の画像だけではなく、三次元モデルで表示されるアバター画像であってもよい。また、ユーザは、アバター画像の顔のパーツあるいは髪型などを様々に変更して、アバター画像のカスタマイズをすることができてもよい。 Further, the image displayed on the support device may be not only an image of the user's face photo but also an avatar image displayed as a three-dimensional model. Further, the user may be able to customize the avatar image by variously changing the facial parts or hairstyle of the avatar image.

また、応援装置のディスプレイに表示されるアバター画像の顔のパーツには、その種類が複数用意されており、また、無料で使用することができるパーツと有料で使用することができるパーツとが用意されていてもよい。 In addition, there are multiple types of facial parts for the avatar image displayed on the display of the support device, and there are parts that can be used for free and parts that can be used for a fee. may have been done.

また、応援装置が発光装置を備えており、ユーザの操作に基づいて発光装置を発光させることができてもよい。 Further, the support device may include a light emitting device, and may cause the light emitting device to emit light based on a user's operation.

また、有名人がDJなどとして進行するラジオのブースの中に、1台の応援装置が置かれており、その応援装置にリスナーとしてのユーザが対応づけられるようになっていてもよい。この場合には、運営端末装置の処理(抽選など)に基づいて、応援装置に対応づけられるユーザを変更して、その時点で対応づけられているユーザが、芸能人と話すことができる。 Further, a support device may be placed in a radio booth where a celebrity performs as a DJ, and a user as a listener may be associated with the support device. In this case, the user associated with the support device is changed based on the processing (lottery, etc.) of the management terminal device, and the user associated at that time can talk with the celebrity.

前記実施形態に限られず、応援装置(応援装置)は、スタジアムの座席にあらかじめ固定されていてもよい。そして、この場合には、ユーザは、座席を予約する際に、その座席(応援装置)からの観覧映像を試しに視聴することができてもよい。 The present invention is not limited to the embodiments described above, and the support device (support device) may be fixed to the seats of the stadium in advance. In this case, when reserving a seat, the user may be able to view the viewing video from the seat (supporting device) on a trial basis.

ユーザはユーザ端末装置を介して、応援装置から出力される音量あるいは音声を変えることができてもよい。例えば、ユーザが料金の支払処理をすることによって、例えば、自身の声援の音量を大きくすることができてもよく、また、ボイスチェンジャーによって、応援装置から出力される声を変更することができてもよい。 The user may be able to change the volume or sound output from the support device via the user terminal device. For example, by processing a fee payment, the user may be able to increase the volume of his/her own cheering, or the user may be able to change the voice output from the cheering device using a voice changer. Good too.

また、座席に設置される応援装置に限られず、応援装置は、座席の背もたれ、一塁などのベース、マウンドなどに埋め込まれたカメラ付装置であってもよく、イベント会場の複数位置に分散して配置されるカメラ付装置であってもよい。すなわち、応援装置は、カメラ、マイク、スピーカ、ディスプレイのうちのいずれか1つを備えていればよい。 In addition, the support device is not limited to the support device installed in the seat, but may also be a device with a camera embedded in the backrest of the seat, the base such as first base, the mound, etc., and can be distributed at multiple locations in the event venue. It may also be a device equipped with a camera. That is, the support device may include any one of a camera, a microphone, a speaker, and a display.

また、応援装置は、ピッチサイド、スタジアム内、上空を移動することができる装置であってもよい。また、応援装置は、レール上を移動してもよいし、自走してもよいし、ドローンなどのように飛行してもよい。 Furthermore, the support device may be a device that can move on the pitch side, inside the stadium, or in the sky. Further, the support device may move on rails, run on its own, or fly like a drone.

前記実施形態に限られず、応援装置のカメラは、応援装置自身によって制御されてもよい。例えば、応援装置のカメラ映像をもとに画像認識処理およびトラッキング処理が行われて、試合中はボールに追従するようにカメラが制御されてもよい。 The present invention is not limited to the embodiments described above, and the camera of the support device may be controlled by the support device itself. For example, image recognition processing and tracking processing may be performed based on camera footage from a support device, and the camera may be controlled to follow the ball during a game.

また、ユーザが装着するHMD(ヘッドマウントディスプレイ)の視線あるいは向きに連動して、応援装置のカメラの動きが制御されてもよい。この場合には、例えば、ユーザがHMDを装着して基準姿勢および基準視線を設定し、その情報をアプリケーションサーバ装置に登録することができればよい。この情報に基づいて、基本姿勢等から変更された姿勢等に基づいて、応援装置のカメラが制御されればよい。 Further, the movement of the camera of the support device may be controlled in conjunction with the line of sight or direction of an HMD (head mounted display) worn by the user. In this case, for example, the user may wear the HMD, set a reference posture and a reference line of sight, and register the information in the application server device. Based on this information, the camera of the support device may be controlled based on the posture changed from the basic posture or the like.

観覧映像は、その応援装置に対応づけられたユーザのユーザ端末装置に表示されるだけではなく、別のユーザのユーザ端末装置に表示されてもよい。また、この観覧映像は、配信映像として表示されてもよい。 The viewing video may be displayed not only on the user terminal device of the user associated with the support device, but also on the user terminal device of another user. Further, this viewing video may be displayed as a distributed video.

また、応援装置が、全天球カメラあるいは半天球カメラなどの360度カメラを搭載していてもよい。 Further, the support device may be equipped with a 360-degree camera such as a spherical camera or a half-spherical camera.

前記実施形態に限られず、スタジアムの座席以外に設置された応援装置を、ユーザが指定することができるようにしてもよい。例えば、ユーザは、スタジアム内に設置された複数の定点カメラによる映像のうちからいずれかの映像を選択することができてもよい。 The present invention is not limited to the embodiment described above, and the user may be able to specify a support device installed in a place other than the seats in the stadium. For example, the user may be able to select one of the images taken by a plurality of fixed point cameras installed within the stadium.

さらには、従来のようにスタジアムに観客が入るようにしつつも、スタジアム内に設置されている据置型装置にユーザ自身のユーザIDを登録することができるようになっていてもよい。この場合には、例えば、スタジアムに最大で30000人が収容され、かつ、スタジアム内に100台設置された応援装置(アバター装置、据置型装置)に、1装置ごとに100人ずつユーザが登録することができる場合には、従来よりも多い、最大で40000人の観客が収容されうることになる。 Furthermore, while allowing spectators to enter the stadium as in the past, the user may also be able to register his or her own user ID in a stationary device installed within the stadium. In this case, for example, the stadium can accommodate up to 30,000 people, and 100 users are registered for each support device (avatar device, stationary device) installed in the stadium. If possible, it would be possible to accommodate up to 40,000 spectators, which is more than before.

また、最大で30000人収容することのできるスタジアムにおいて、入場制限が5000人である場合には、来場者5000人(5000座席)に加えて、リモート応援をする25000人に対して応援装置(25000座席)を割り当てることができる。 In addition, in a stadium that can accommodate up to 30,000 people, if the admission limit is 5,000 people, in addition to the 5,000 visitors (5,000 seats), the cheering equipment (25,000 seats) can be assigned.

また、スタジアムの座席が売れ残った場合(空席が生じた場合)には、運営者が、その座席に応援装置を設置して(その座席に設置された応援装置に)、その座席からの映像を視聴する権利を販売することができてもよい。この場合には、スタジアムに足を運ぶことができないユーザであっても、イベントが終了するまでに、その座席の応援装置に自身を対応づけて試合を観戦することができる。 In addition, if seats at the stadium are unsold (if there are vacant seats), the operator will install a cheering device in that seat (on the cheering device installed at that seat) and display images from that seat. Viewing rights may be sold. In this case, even users who cannot visit the stadium can associate themselves with the cheering device at their seat and watch the game before the event ends.

また、その他の例として、つぎのステップを実行させるシステムであって、
出力ステップにおいて、応援装置に接続された出力部に応援画像および/または応援音声を出力させ、
前記応援装置には、所定の媒体(例えば、マスコットキャラクタを模したオブジェクトなど)を接続することができ、
前記出力ステップにおいて、前記媒体の属性(応援するチームなどの情報)に応じて、前記応援画像および/または前記応援音声を変化させる、
システムがある。
Another example is a system that executes the following steps:
In the output step, an output section connected to the support device outputs a support image and/or a support voice,
A predetermined medium (for example, an object imitating a mascot character, etc.) can be connected to the support device,
In the output step, the cheering image and/or the cheering voice are changed according to attributes of the medium (information on the team to be cheered on, etc.);
There is a system.

この場合には、ユーザが応援装置に例えばマスコットキャラクタのオブジェクトを接続することで、そのオブジェクトの属性に応じて、応援内容を変更することができる。 In this case, by connecting an object, such as a mascot character, to the cheering device, the user can change the cheering content according to the attributes of the object.

また、前記実施形態に限られず、1つの応援装置に、複数のユーザを対応づけることができてもよい。この場合には、応援映像等の出力の際に、応援装置のディスプレイが分割されてもよく、また、所定時間ごとにユーザの映像が切り替えられてもよい。また、1つのオプション(例えば、キャッチャーマスクあるいはアンパイアマスクに搭載されたカメラの視点に基づく映像を視聴する場合には、50万円の対価が必要)に対して、複数人で折半してそのオプションを購入することができるようになっていてもよい。 Furthermore, the present invention is not limited to the embodiments described above, and a plurality of users may be associated with one support device. In this case, the display of the support device may be divided when outputting the support video or the like, and the user's video may be switched at predetermined time intervals. In addition, for one option (for example, if you want to watch the video based on the viewpoint of the camera mounted on the catcher's mask or umpire mask, a fee of 500,000 yen is required), the option will be split 50/50 among multiple people. may be available for purchase.

前記実施形態に限られず、中継映像と応援装置による観覧映像とが同時に表示されてもよい。さらには、ユーザの操作に基づいて、中継映像と観覧映像とが切り替えられてもよい。 The present invention is not limited to the embodiments described above, and the relay video and the viewing video provided by the support device may be displayed at the same time. Furthermore, the relay video and the viewing video may be switched based on a user's operation.

前記実施形態に限られず、ユーザは、出力オプションなどを、試合の途中に指定(あるいは変更)することができてもよい。 The present invention is not limited to the embodiments described above, and the user may be able to specify (or change) output options and the like during the match.

また、前記応援装置は、試合に出場する選手(控え選手)が着席するベンチ、選手が使用するロッカールーム、および、選手がプレイするフィールドなどに設置されてもよい。また、コンサートなどの興行の場合には、前記応援装置は、興行が行われるステージ、興行に参加する演者の控室に設置されてもよい。 Further, the support device may be installed at a bench where players (substitute players) participating in a game are seated, a locker room used by the players, a field where the players play, and the like. Further, in the case of a performance such as a concert, the support device may be installed on a stage where the performance is performed or in a waiting room of performers participating in the performance.

さらには、本発明を発展させることで、以下のように、イベント会場にいるユーザに新たなサービスを提供することもできる。 Furthermore, by developing the present invention, new services can be provided to users at the event venue, as described below.

例えば、ユーザは自身の指定座席に座るなど、ユーザが遠隔にいながら、通常ではユーザが行くことができない位置に設置されている応援装置を、ユーザに対応づけることができてもよい。具体的には、ピッチャーの帽子、キャッチャーマスク(またはアンパイアマスク)、ベンチ、ベースなどの用具などにカメラが取りつけられており、ユーザが自身のユーザ端末装置をアプリケーションサーバ装置に登録しておくことで、会場にいながら(遠隔にいながら)、通常では見られないような映像を分身を介して観る(体験)することができるようになっていてもよい。 For example, even if the user is remote, such as when the user is sitting in his or her designated seat, it may be possible to associate the user with a support device that is installed in a location that the user cannot normally go to. Specifically, cameras are attached to pitcher's hats, catcher masks (or umpire masks), benches, bases, and other equipment, and users can register their user terminal devices on the application server. , it may be possible to view (experience) images that would not normally be seen through the alter ego, while being at the venue (while being remote).

例えば、ユーザはスタジアムの座席(外野席)にいながら、自身のユーザ端末装置で、例えば、キャッチャーの目線(キャッチャーマスクに取りつけられた応援装置のカメラ視点)に基づく映像を視聴することができる。 For example, a user can view a video based on the catcher's line of sight (camera perspective of a support device attached to the catcher's mask) using his or her user terminal device while sitting in a stadium seat (outfield seat).

そして、会場ユーザのユーザ端末装置においても、前記実施形態のツアーオプションを指定することができてもよい。これにより、会場ユーザも、自身のユーザ端末装置で、中継映像および観覧映像などを視聴することができる。このように、本発明のシステムを用いて、会場ユーザに対して付加的なサービスを提供することもできる。 The tour options of the embodiments described above may also be able to be specified on the user terminal device of the venue user. Thereby, venue users can also view relay video, viewing video, etc. on their own user terminal devices. In this way, the system of the present invention can also be used to provide additional services to venue users.

前記実施形態に限られず、音声チャットがなされている間に、マッチングされた他ユーザの会話音声の音量が調整されてもよい。 The present invention is not limited to the above embodiments, and the volume of the conversation voice of the other matched user may be adjusted while the voice chat is being performed.

例えば、ユーザの応援装置の座席から遠い座席に配置される応援装置に対応する他ユーザとの会話音声ほど、音量が小さくなるように調整されてもよい。これにより、ユーザは、音声チャットにおいても、スタジアムで会話しているような臨場感を得ることができる。 For example, the volume may be adjusted so that the voice of a conversation with another user corresponding to a support device located at a seat located farther from the seat of the user's support device is lower. This allows the user to feel as if they are having a conversation in a stadium, even during voice chat.

なお、ユーザの応援装置のアバターIDには、座席番号が含まれる。したがって、アバターIDを参照して、ユーザの応援装置の座席位置と他ユーザの応援装置の座席位置とが対比されることで、座席間の遠近が判断されればよい。 Note that the avatar ID of the user's support device includes the seat number. Therefore, distance between the seats may be determined by comparing the seat position of the user's support device with the seat position of the support device of another user with reference to the avatar ID.

また、ユーザは、イベントの開始前だけではなく、イベントが開始されたのちに、いずれかの応援装置に自身を対応づけることができてもよい。すなわち、アプリケーションサーバ装置が、イベント開始後も、ユーザによる座席およびオプションの指定を受けつけることができてもよい。この場合には、イベント開始後のチケットの売れ残りなどを軽減させることができる。さらには、イベント開始後に経過した時間(または、イベント終了予定時間までの時間)の長さによって、ユーザが支払う料金が変動してもよい。 Furthermore, the user may be able to associate himself or herself with any of the support devices not only before the event starts, but also after the event has started. That is, the application server device may be able to accept the user's designation of seats and options even after the event has started. In this case, unsold tickets after the start of the event can be reduced. Furthermore, the fee paid by the user may vary depending on the length of time that has passed since the start of the event (or the time until the scheduled end time of the event).

また、イベントの途中(イベントの開始から終了までの間)で席を離れる(スタジアムを離れる)ユーザを保護するために、そのユーザが購入している座席、オプションなどの権利を他のユーザに譲渡することができてもよい。この場合には、例えば権利を授受しあうユーザ同士で、試合ID、アバターIDなどの必要な情報を送受信しあうとともに、一般的な電子決済サービスを利用して金銭の授受をすることができればよい。なお、これらの操作は、アプリケーションサーバ装置を介して行われてもよく、また、ユーザ端末装置同士で行われてもよい。 In addition, in order to protect users who leave their seats (leave the stadium) during the event (between the start and end of the event), rights such as seats and options purchased by that user may be transferred to other users. may be able to do so. In this case, for example, it is only necessary that users who exchange rights can exchange necessary information such as match IDs and avatar IDs, as well as exchange money using general electronic payment services. . Note that these operations may be performed via the application server device or may be performed between user terminal devices.

さらに、イベントの途中(イベントの開始から終了までの間)で席を離れる(スタジアムを離れる)ユーザは、その後、その座席に対応づけられた応援装置からの観覧映像を視聴することができてもよい。これにより、様々な理由(例えば、トイレあるいは売店での買い物、帰宅など)により離席した後であっても、ユーザ端末を介して、その座席からの映像をいずれの場所からでも視聴することができ、得点シーンなどを見逃さずにすむ。 Furthermore, users who leave their seats (leave the stadium) during the event (between the start and end of the event) may be able to view the viewing video from the support device associated with that seat. good. As a result, even after leaving your seat for various reasons (for example, going to the restroom, shopping at a store, returning home, etc.), you can view the video from your seat from any location via your user terminal. This way, you won't have to miss any scoring scenes.

また、前記実施形態では、アプリケーションサーバ装置、管理サーバ装置、運営端末装置など複数の装置が用いられる例が記載されているが、本発明はこれには限られない。例えば、アプリケーションサーバ装置の前記機能、管理サーバ装置の前記機能、運営端末装置の前記機能が1つの装置で実行されてもよい。この場合には、その1つの装置およびアプリケーションプログラム(例えば、A-OSAKAアプリ)が、スタジアムごとに用意されていればよい。 Further, in the embodiment, an example is described in which a plurality of devices such as an application server device, a management server device, and a management terminal device are used, but the present invention is not limited to this. For example, the functions of the application server device, the functions of the management server device, and the functions of the management terminal device may be executed by one device. In this case, the one device and application program (eg, A-OSAKA app) need only be prepared for each stadium.

また、特定の状況(例えば、選手が逆転ホームランを打つなど)が成立した場合には、管理サーバ装置が、応援装置のディスプレイをマスゲーム(または、チームカラーに染め上げるなど)に使用してもよい。または、管理サーバ装置が応援装置の腕駆動部を駆動させて、応援装置にウェーブを実行させてもよい。 Additionally, if a specific situation occurs (for example, a player hits a come-from-behind home run), the management server device may use the display of the cheering device for a mass game (or dye it in team colors, etc.). . Alternatively, the management server device may drive the arm drive section of the support device to cause the support device to execute the wave.

なお、前記において、悪意のあるユーザによる、イベントを視聴する権利の転売行為を防止する措置を講ずることができてもよい。 Note that in the above, it may be possible to take measures to prevent a malicious user from reselling the right to view an event.

例えば、前記のシステムにおいて、所定数以上の応援装置に対応づけられるユーザが、すべて同一のユーザ(ユーザID)である場合には、そのユーザがシステムに事前登録(例えば運営者によって事前に審査)されたユーザ(例えば、チームサポータとして登録されている応援団、スポンサーなど)であるか否かが判定されてもよい。 For example, in the above system, if the users who are associated with a predetermined number or more of support devices are all the same user (user ID), that user may be pre-registered in the system (e.g., pre-screened by the operator). It may be determined whether the user is a registered user (for example, a cheering squad, a sponsor, etc. who is registered as a team supporter).

そして、そのユーザが事前登録されていないユーザである場合には、その応援装置に対応づけられているユーザID等を一時的に無効化することができてもよい。これにより、複数の応援装置をスタジアムに設置してイベントを視聴する権利を転売するユーザを排除することができる。 If the user is not pre-registered, it may be possible to temporarily invalidate the user ID, etc. associated with the support device. This makes it possible to eliminate users who install multiple cheering devices at the stadium and resell the rights to view the event.

また、前記のシステムにおいて、応援装置に代えて、スタジアムの座席、選手が移動に用いる車両、選手が着席されるベンチなどに、カメラ、マイクおよびスピーカが接続されたホログラフィー装置(あるいは、Augmented Reality装置、ICチップ)が設置されてもよい。ホログラフィー装置が設置されている場合には、実体のある応援装置に代えて、応援装置のホログラムを表示することができる。ホログラムとしては、例えば、ユーザ自身のホログラム、ユーザが登録したアバターのホログラムが考えられる。 In addition, in the above system, instead of a cheering device, a holography device (or Augmented Reality device) with a camera, microphone, and speaker connected to stadium seats, vehicles used for transportation by players, benches where players are seated, etc. , IC chip) may be installed. If a holography device is installed, a hologram of the support device can be displayed instead of a physical support device. Examples of the hologram include a hologram of the user himself and a hologram of an avatar registered by the user.

また、前記に限られず、1つの座席に1つの応援装置が設置されるのではなく、エリアごとに、例えばボールの動きに追随するカメラを備えた応援装置を設置してもよい。この場合には、座席数を限定することなく、エリアチケットとして、ユーザを応援装置に対応づける権利が販売されてもよい。 Moreover, the present invention is not limited to the above, and instead of installing one support device in each seat, a support device including a camera that follows the movement of a ball, for example, may be installed in each area. In this case, the right to associate a user with a support device may be sold as an area ticket without limiting the number of seats.

また、前記に限られず、ユーザは2つ以上のスタジアム(例えば、水泳競技場、柔道会場)に同時に応援装置を設置することができてもよい。この場合には、例えば、試合が同時刻に開催されている場合であっても、ユーザがスタジアムを切り換えるボタンを押すことで、または画面を分割して試合を観戦することができてもよい。 Furthermore, the present invention is not limited to the above, and the user may be able to install support devices at two or more stadiums (for example, a swimming stadium, a judo venue) at the same time. In this case, for example, even if games are being held at the same time, the user may be able to watch the game by pressing a button to switch stadiums or by splitting the screen.

また、ユーザの応援装置が故障等した場合に、ユーザの操作(あるいは管理サーバ装置の処理)に基づいて、一時的に近隣の座席に存在する他ユーザの応援装置にユーザIDを登録することができてもよい。これにより、応援装置が正常になるまで、ユーザが映像を視聴することができないなどの不具合を回避することができる。 In addition, in the event that a user's support device malfunctions, the user ID can be temporarily registered in the support device of another user in a nearby seat based on the user's operation (or the processing of the management server device). It may be possible. This makes it possible to avoid problems such as the user being unable to view videos until the support device becomes normal.

1 システム
2 アプリケーションサーバ装置
3 ユーザ端末装置
4 管理サーバ装置
5 管理端末装置
6 応援装置(アバター装置、据置型装置)
7 通信ネットワーク
1 System 2 Application server device 3 User terminal device 4 Management server device 5 Management terminal device 6 Support device (avatar device, stationary device)
7 Communication network

Claims (10)

コンピュータと応援装置とで構成され、コンピュータに、つぎの各ステップを実行させるシステムであって、
画像入力ステップでは、応援画像を設定し、
前記応援画像は、前記応援装置とは異なるユーザ端末装置へのユーザの操作に基づいてカスタマイズされた画像であって、
出力ステップでは、前記応援装置に前記応援画像を表示させ、
前記応援装置は、現実世界のイベントが開催されるイベント会場にあらかじめ設置されている、
システム。
A system consisting of a computer and a support device that causes the computer to execute each of the following steps,
In the image input step, set the support image,
The support image is an image customized based on a user's operation on a user terminal device different from the support device,
In the output step, displaying the support image on the support device,
The support device is installed in advance at an event venue where a real-world event is held.
system.
前記応援画像はアバター画像であり、前記ユーザは前記アバター画像の顔のパーツを選択することできる、
請求項1に記載のシステム。
The support image is an avatar image, and the user can select facial parts of the avatar image.
The system of claim 1.
前記応援画像は衣装画像であり、前記ユーザは前記アバター画像に適用する前記衣装画像を選択することできる、
請求項2に記載のシステム。
The support image is a costume image, and the user can select the costume image to be applied to the avatar image.
The system according to claim 2.
前記応援画像はグッズ画像であり、前記ユーザは前記アバター画像に適用する前記グッズ画像を選択することできる、
請求項2または3に記載のシステム。
The support image is a goods image, and the user can select the goods image to be applied to the avatar image.
A system according to claim 2 or 3.
前記応援画像は衣装画像であり、
前記グッズ画像は、前記衣装画像に重ねて表示する、
請求項4に記載のシステム。
The support image is a costume image,
The goods image is displayed superimposed on the costume image.
The system according to claim 4.
出力ステップでは、前記ユーザの操作に基づいて、前記応援装置が備えるカメラの向き、前記カメラでの撮影対象物の拡大および縮小を調整する、
請求項1~5のいずれか1項に記載のシステム。
In the output step, based on the user's operation, the direction of the camera included in the support device and the enlargement and reduction of the object to be photographed by the camera are adjusted;
System according to any one of claims 1 to 5.
さらに、コンピュータに、つぎの各ステップを実行させるシステムであって、
画像入力ステップでは、ユーザの操作に基づいてテキストを設定し、
前記出力ステップでは、前記応援装置が備える表示部に前記ユーザが設定したテキストを表示させる、
請求項1~6のいずれか1項に記載のシステム。
Furthermore, a system that causes a computer to execute each of the following steps,
The image input step sets the text based on the user's actions,
In the output step, the text set by the user is displayed on a display unit included in the support device.
System according to any one of claims 1 to 6.
さらに、コンピュータに、つぎの各ステップを実行させるシステムであって、
音声入力ステップでは、前記ユーザの操作に基づいて、音声を設定または入力し、
前記出力ステップでは、前記応援装置が備えるスピーカに、前記ユーザが設定または入力した音声を出力させる、
請求項1~7のいずれか1項に記載のシステム。
Furthermore, a system that causes a computer to execute each of the following steps,
The voice input step sets or inputs voice based on the user's operation,
In the output step, a speaker included in the support device outputs the audio set or input by the user.
System according to any one of claims 1 to 7.
さらに、コンピュータに、つぎの各ステップを実行させるシステムであって、
撮影ステップでは、前記応援装置が備えるカメラによって撮影した画像を前記ユーザの端末装置に送信する、
請求項1~8のいずれか1項に記載のシステム。
Furthermore, a system that causes a computer to execute each of the following steps,
In the photographing step, an image photographed by a camera included in the support device is transmitted to the user's terminal device.
System according to any one of claims 1 to 8.
コンピュータに、つぎの各ステップを実行させるコンピュータプログラムであって、
画像入力ステップでは、応援画像を設定し、
前記応援画像は、前記応援装置とは異なるユーザ端末装置へのユーザの操作に基づいてカスタマイズされた画像であって、
出力ステップでは、前記応援装置に前記応援画像を表示させ、
前記応援装置は、現実世界のイベントが開催されるイベント会場にあらかじめ設置されている、
コンピュータプログラム。
A computer program that causes a computer to perform each of the following steps,
In the image input step, set the support image,
The support image is an image customized based on a user's operation on a user terminal device different from the support device,
In the output step, displaying the support image on the support device,
The support device is installed in advance at an event venue where a real-world event is held.
computer program.
JP2024007586A 2021-06-22 2024-01-22 System, computer program and remote supporting system Pending JP2024027196A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024007586A JP2024027196A (en) 2021-06-22 2024-01-22 System, computer program and remote supporting system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021103351A JP7428911B2 (en) 2021-06-22 2021-06-22 Systems, computer programs, and remote rooting systems
JP2024007586A JP2024027196A (en) 2021-06-22 2024-01-22 System, computer program and remote supporting system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021103351A Division JP7428911B2 (en) 2021-06-22 2021-06-22 Systems, computer programs, and remote rooting systems

Publications (1)

Publication Number Publication Date
JP2024027196A true JP2024027196A (en) 2024-02-29

Family

ID=84797877

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021103351A Active JP7428911B2 (en) 2021-06-22 2021-06-22 Systems, computer programs, and remote rooting systems
JP2024007586A Pending JP2024027196A (en) 2021-06-22 2024-01-22 System, computer program and remote supporting system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021103351A Active JP7428911B2 (en) 2021-06-22 2021-06-22 Systems, computer programs, and remote rooting systems

Country Status (1)

Country Link
JP (2) JP7428911B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024098636A (en) 2023-01-11 2024-07-24 セイコーエプソン株式会社 HEAD UNIT, LIQUID EJECTION APPARATUS AND CONTROL METHOD

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3991076B2 (en) * 1997-06-30 2007-10-17 雅信 鯨田 System and method for remote use of a finite number of seats
WO2002006982A1 (en) * 2000-07-14 2002-01-24 Woori Technology Inc. Character information providing system and method and character doll
KR100454137B1 (en) * 2001-04-12 2004-10-26 조인형 Monitortop Typed Simulation System and Method for Studying Based on Internet
JP2003114692A (en) * 2001-10-05 2003-04-18 Toyota Motor Corp Providing system, terminal, toy, providing method, program, and medium for sound source data
JP2016139212A (en) * 2015-01-26 2016-08-04 株式会社Uxf Public performance participation system
WO2017002642A1 (en) * 2015-06-30 2017-01-05 シャープ株式会社 Information device and display processing method
JP7236632B2 (en) * 2019-03-26 2023-03-10 株式会社Mixi Server device, server device program and terminal device program

Also Published As

Publication number Publication date
JP7428911B2 (en) 2024-02-07
JP2023002237A (en) 2023-01-10

Similar Documents

Publication Publication Date Title
US11812070B2 (en) Event production and distribution networks, systems, apparatuses, and methods related thereto
JP5466646B2 (en) Online reporting apparatus and method
US9345970B2 (en) Switching operation of an entertainment device and method thereof
JP7398873B2 (en) Server system and video distribution system
US20220150288A1 (en) Information processing device and computer readable medium
JP2024027196A (en) System, computer program and remote supporting system
US20130009984A1 (en) Display installed in hall
US20110040645A1 (en) Virtual world integrated auction
JP2018108170A (en) Game system and program
JP2001275101A (en) Mobile terminal, broadcasting unit, and information service system
JP6862175B2 (en) Game system and programs
JP7557577B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7542113B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7557015B1 (en) Program, method, and system
JP7557016B1 (en) Program, method, and system
JP7162387B1 (en) Performance video display program
JP7550924B1 (en) Program, method, and system
JP7332922B2 (en) systems and computer programs
WO2022137343A1 (en) Information processing method, computer-readable medium, and information processing device
JP2022014819A (en) Composite video generation system, composite video generation method, and computer program
JP2023097056A (en) Event management server system and content image control method
JP2022034965A (en) System, server, and program
JP2002041706A (en) Method for distributing contents to participant in amusement event and system and device for the same
KR101485904B1 (en) Game providing system and method for interlocking with live concert
CN115279470A (en) Information processing system, information processing method, and program

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20240501