JP2018156404A - Exhibition device - Google Patents

Exhibition device Download PDF

Info

Publication number
JP2018156404A
JP2018156404A JP2017052805A JP2017052805A JP2018156404A JP 2018156404 A JP2018156404 A JP 2018156404A JP 2017052805 A JP2017052805 A JP 2017052805A JP 2017052805 A JP2017052805 A JP 2017052805A JP 2018156404 A JP2018156404 A JP 2018156404A
Authority
JP
Japan
Prior art keywords
user
information
control unit
character
communication terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017052805A
Other languages
Japanese (ja)
Inventor
表側 八朗
Hachiro Omotegawa
八朗 表側
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Priority to JP2017052805A priority Critical patent/JP2018156404A/en
Publication of JP2018156404A publication Critical patent/JP2018156404A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an exhibition device which carries out exhibition so that a user tends to have special feeling to exhibition objects.SOLUTION: An exhibition device for exhibiting an exhibition object has a position specifying unit and a control unit. The position specifying unit specifies (S205, S207) a position of a specific user in response to a point selected and used by the user (S204). The control unit changes a state of the exhibition object to a state corresponding to the position of the specific user to carry out performance of waving a hand (S205) or of waving a hand with calling a name (S208).SELECTED DRAWING: Figure 4

Description

本開示は、展示装置に関する。   The present disclosure relates to an exhibition apparatus.

近年、コンピューターグラフィックスで表現されたアニメのキャラクターを、ステージ上に存在するかのように表示させてコンサートを行うサービスが知られている。   In recent years, a service for performing a concert by displaying animated characters expressed in computer graphics as if they existed on a stage is known.

このようなコンサートでは、表示されるキャラクターの状態、具体的には、表示されるキャラクターの動作は、あらかじめ決められているのが一般的である。また、例えばコンサート会場にいる観客であるユーザーによる声援や動作などに応じて、表示されるキャラクターの動作が変化するようにしたとしても、ユーザーは特に区別されず、どのユーザーが声援を送っても、表示されるキャラクターの動作は同じように変化する。そうすると、ユーザーは、表示されるキャラクターに親近感などの特別な感情を抱きにくい。なお、このような課題は、上述したコンサートのサービスに限らず、例えばロボットや立体画像といった何らかの展示対象を、ユーザーに対して展示する装置である展示装置を用いた場合に生じ得る。   In such a concert, the state of the displayed character, specifically, the operation of the displayed character is generally determined in advance. Also, for example, even if the behavior of the displayed character changes according to the cheering or motion of the user who is a spectator at the concert venue, the user is not particularly distinguished, and any user can send cheering The behavior of the displayed character changes in the same way. Then, it is difficult for the user to have a special feeling such as a sense of affinity with the displayed character. Such a problem is not limited to the above-described concert service, and may occur when an exhibition apparatus, which is an apparatus for exhibiting a certain exhibition object such as a robot or a stereoscopic image, to a user is used.

本開示の一局面は、ユーザーが展示対象に特別な感情を抱きやすい展示を行うことを目的としている。   One aspect of the present disclosure is intended to provide an exhibition in which a user can easily hold a special emotion in the exhibition object.

本開示の一態様は、展示対象を展示する展示装置であって、位置特定部と、処理部と、を備える。位置特定部は、特定のユーザーの位置を特定する。処理部は、展示対象の状態を特定のユーザーの位置に応じた状態に変化させる。   One aspect of the present disclosure is a display device that displays a display target, and includes a position specifying unit and a processing unit. The position specifying unit specifies the position of a specific user. The processing unit changes the state of the display object to a state corresponding to the position of the specific user.

このような構成によれば、ユーザーの位置に応じた状態に変化した展示対象を見た当該ユーザーが展示対象に特別な感情を抱きやすくなるようにすることができる。
本開示の一態様は、展示装置が、特定のユーザーに関する情報であるユーザー情報を取得する情報取得部を更に備え、処理部が、展示対象の状態をユーザー情報に応じた状態に変化させるようにしてもよい。このような構成によれば、ユーザーの位置に応じた状態だけでなく、ユーザーに関する情報に応じた状態に変化した展示対象を見た当該ユーザーが、展示対象により特別な感情を抱きやすくすることができる。
According to such a configuration, it is possible to make it easier for the user who has viewed the display object changed to a state corresponding to the position of the user to have a special emotion in the display object.
According to one aspect of the present disclosure, the display device further includes an information acquisition unit that acquires user information that is information related to a specific user, and the processing unit changes the state of the display target to a state corresponding to the user information. May be. According to such a configuration, not only the state according to the position of the user, but also the user who sees the display object that has changed to the state according to the information about the user can easily hold a special emotion depending on the display object it can.

本開示の一態様は、情報取得部が、特定のユーザーが所持する通信端末と通信を行うことによって、ユーザー情報を取得してもよい。このような構成によれば、展示装置が容易にユーザー情報を取得できるようにすることができる。   In one aspect of the present disclosure, the information acquisition unit may acquire user information by communicating with a communication terminal possessed by a specific user. According to such a configuration, the display device can easily acquire user information.

本実施形態における映像装置及び通信端末の構成を示すブロック図である。It is a block diagram which shows the structure of the video device and communication terminal in this embodiment. 本実施形態におけるコンサート会場の例図である。It is an example figure of the concert hall in this embodiment. 本実施形態における送信処理のフローチャートである。It is a flowchart of the transmission process in this embodiment. 本実施形態における演出処理のフローチャートである。It is a flowchart of the effect process in this embodiment. 本実施形態における演出サービスの一例を示す図である。It is a figure which shows an example of the production service in this embodiment. 変形例における遊技機を示す図である。It is a figure which shows the game machine in a modification. 変形例における演出サービスの一例を示す図である。It is a figure which shows an example of the production service in a modification.

以下、本開示の例示的な実施形態について図面を参照しながら説明する。
[1.構成]
図1に示す映像装置100は、図2に示すコンサート会場に設置され、音声を流すとともにキャラクター3を投影対象に投影する装置である。本実施形態における投影対象は、コンサート会場のステージの上に設置されたスクリーン300であって、映像装置100は、スクリーン300にキャラクター3の動画を投影する。キャラクター3は、コンピューターグラフィックスで立体的に表現された女性のアニメーションキャラクターである。映像装置100は、あたかもキャラクター3が実際にコンサート会場のステージの上で歌を歌いながらダンスを踊っているように、キャラクター3をスクリーン300に投影すると同時に、キャラクター3の音声を流す。つまり、映像装置100は、スクリーン300に投影されたキャラクター3とキャラクター3の音声との演出によって、人間の歌手のコンサートと同様のサービスを、コンサート会場の観客であるユーザーに提供する。
Hereinafter, exemplary embodiments of the present disclosure will be described with reference to the drawings.
[1. Constitution]
A video apparatus 100 shown in FIG. 1 is an apparatus that is installed in a concert hall shown in FIG. 2 and that plays a sound and projects a character 3 onto a projection target. The projection target in the present embodiment is the screen 300 installed on the stage of the concert venue, and the video apparatus 100 projects the moving image of the character 3 on the screen 300. Character 3 is a female animated character that is three-dimensionally represented by computer graphics. The video apparatus 100 projects the character 3 on the screen 300 and at the same time plays the sound of the character 3 as if the character 3 was actually dancing while singing a song on the stage of the concert venue. That is, the video apparatus 100 provides the same service as a human singer concert to the users who are the audience at the concert venue by directing the character 3 projected on the screen 300 and the sound of the character 3.

映像装置100は、制御部11と、通信部12と、表示部13と、音声部14と、センサーユニット15と、を備える。
制御部11は、図示しない周知のCPU、ROM、RAMなどを備えるコンピューターである。CPUは、非遷移的実体的記録媒体であるROMに記録されているプログラムに従い、例えば後述する演出処理などの種々の処理を実行する。
The video device 100 includes a control unit 11, a communication unit 12, a display unit 13, an audio unit 14, and a sensor unit 15.
The control unit 11 is a computer including a well-known CPU, ROM, RAM, and the like (not shown). The CPU executes various processes such as an effect process, which will be described later, according to a program recorded in a ROM that is a non-transitional tangible recording medium.

通信部12は、携帯電話網を介して、ユーザーが所持する通信端末200と無線通信を行う。
表示部13は、スクリーン300にキャラクター3を映し出すプロジェクターである。
The communication unit 12 performs wireless communication with the communication terminal 200 possessed by the user via the mobile phone network.
The display unit 13 is a projector that displays the character 3 on the screen 300.

音声部14は、キャラクター3の動きに合ったキャラクター3の音声を発生するスピーカーである。
センサーユニット15は、ユーザーの状態を検出する複数のセンサーの集合体である。
The voice unit 14 is a speaker that generates the voice of the character 3 that matches the movement of the character 3.
The sensor unit 15 is an aggregate of a plurality of sensors that detect the state of the user.

次に、通信端末200について説明する。通信端末200は、この例ではスマートフォンなどの汎用の携帯電話である。
通信端末200は、制御部21と、通信部22と、ユーザーインターフェース23と、記憶部24と、位置検出部25と、加速度センサー26と、を備える。制御部21は、図示しない周知のCPU、ROM、RAM、フラッシュメモリなどを備えるコンピューターである。CPUは、非遷移的実体的記録媒体であるフラッシュメモリに記録されているプログラムに従い、後述する送信処理などの種々の処理を実行する。通信部22は、携帯電話網を介して、映像装置100の通信部12と無線通信を行う。ユーザーインターフェース23は、通信端末200の所有者であるユーザーからの情報の入力及びユーザーへの情報の出力を行う部分であって、この例では、操作ボタン及びディスプレイである。記憶部24は、各種情報を記憶する装置である。記憶部24には、アプリケーション241及びユーザー情報242を含む通信端末200に関する種々の情報が記憶されている。
Next, the communication terminal 200 will be described. The communication terminal 200 is a general-purpose mobile phone such as a smartphone in this example.
The communication terminal 200 includes a control unit 21, a communication unit 22, a user interface 23, a storage unit 24, a position detection unit 25, and an acceleration sensor 26. The control unit 21 is a computer including a well-known CPU, ROM, RAM, flash memory, and the like (not shown). The CPU executes various processes such as a transmission process, which will be described later, according to a program recorded in a flash memory that is a non-transitional physical recording medium. The communication unit 22 performs wireless communication with the communication unit 12 of the video apparatus 100 via the mobile phone network. The user interface 23 is a part that inputs information from the user who is the owner of the communication terminal 200 and outputs information to the user. In this example, the user interface 23 is an operation button and a display. The storage unit 24 is a device that stores various types of information. The storage unit 24 stores various information related to the communication terminal 200 including the application 241 and user information 242.

ここで、アプリケーション241及びユーザー情報242について説明する。アプリケーション241は、後述する送信処理を実行するためのプログラムである。ユーザー情報242は、通信端末200の所有者であるユーザーに関する情報である。ユーザー情報242には、ユーザーの名前、ユーザーが所有する通信端末200の識別番号、ユーザー位置情報及びポイント情報が含まれている。ユーザー位置情報とは、コンサート会場における、ユーザーが購入した指定の席の位置を示す情報のことを指す。なお、ユーザー位置情報は、あらかじめユーザーがユーザーインターフェース23を用いて直接通信端末200に入力してもよいし、ユーザーがコンサートの指定の席を購入した時点で自動的に購入情報として通信端末200に入力されてもよく、入力の方法を問わない。また、ポイント情報とは、ユーザーが保有する特典情報であって、本実施形態では、ポイントに関する情報のことを指す。ポイントは、後述する演出処理が実行される際に使用される。ポイントについては、処理の説明とともに詳細に説明する。   Here, the application 241 and the user information 242 will be described. The application 241 is a program for executing transmission processing described later. The user information 242 is information regarding the user who is the owner of the communication terminal 200. The user information 242 includes a user name, an identification number of the communication terminal 200 owned by the user, user position information, and point information. The user position information refers to information indicating the position of the designated seat purchased by the user at the concert venue. Note that the user position information may be directly input to the communication terminal 200 by the user directly using the user interface 23 in advance, or automatically as purchase information when the user purchases a designated seat at the concert. The input method may be used regardless of the input method. Moreover, point information is privilege information which a user holds, Comprising: In this embodiment, it points out the information regarding a point. The points are used when effect processing described later is executed. The points will be described in detail together with the description of the processing.

位置検出部25は、GPS受信機であって、通信端末200の現在位置を検出する。加速度センサー26は、通信端末200の動きを検出した場合、その検出結果を制御部21に入力する。   The position detection unit 25 is a GPS receiver and detects the current position of the communication terminal 200. When detecting the movement of the communication terminal 200, the acceleration sensor 26 inputs the detection result to the control unit 21.

[2.サービスの概要]
次に、映像装置100によって提供されるコンサートのサービスの概要について説明する。
[2. Service Overview]
Next, an outline of a concert service provided by the video apparatus 100 will be described.

上述したように、映像装置100は、コンサート会場のスクリーン300にキャラクター3の動画を投影し、あたかもキャラクター3がコンサート会場のステージの上で実際に歌を歌いながらダンスを踊っているような演出を行う。スクリーン300に投影されるキャラクター3の動作は、基本的にはあらかじめ決められている。ただし、映像装置100は、特定のユーザーが特定の挙動を行った場合、当該特定のユーザーに特化した演出サービスを行う。ここで、特定のユーザーとは、演出サービスを利用可能なポイントを保有しているユーザーであって、そのポイントを使用することを選択したユーザーである。本実施形態では、あらかじめ設定されたタイミングで、特定のユーザーが手を振る動作を行うと、図5に示すように、スクリーン300に投影されたキャラクター3が、演出サービスとして、当該ユーザーに向かって手を振ったり、当該ユーザーの名前を呼んだりする。   As described above, the video device 100 projects the animation of the character 3 on the screen 300 of the concert hall, and the character 3 performs an effect as if the character 3 is actually singing a dance on the stage of the concert hall. Do. The operation of the character 3 projected on the screen 300 is basically determined in advance. However, when a specific user performs a specific behavior, the video apparatus 100 performs a rendering service specialized for the specific user. Here, the specific user is a user who has a point where the rendering service can be used and has selected to use the point. In the present embodiment, when a specific user performs an action of waving at a preset timing, as shown in FIG. 5, the character 3 projected on the screen 300 is directed to the user as an effect service. Shake hands or call the user's name.

[3.処理]
次に、上述した演出サービスを実現するために映像装置100及び通信端末200によって実行される処理について説明する。
[3. processing]
Next, processing executed by the video device 100 and the communication terminal 200 in order to realize the above-described presentation service will be described.

まず、通信端末200の制御部21により実現される送信処理について、図3のフローチャートを用いて説明する。送信処理は、制御部21がアプリケーション241に従い実行する処理である。送信処理は、ユーザーがアプリケーション241を起動することによって開始される。   First, transmission processing realized by the control unit 21 of the communication terminal 200 will be described with reference to the flowchart of FIG. The transmission process is a process executed by the control unit 21 according to the application 241. The transmission process is started when the user activates the application 241.

まず、S101で、制御部21は、ユーザーがポイントをあらかじめ設定された値以上保有しているか否かを判定する。ユーザーが保有しているポイントの情報は、ユーザー情報242に含まれている。あらかじめ設定された値とは、演出サービスの提供に最低限必要なポイントの値のことである。ここで、本実施形態におけるポイントとは、ユーザーがポイントを購入することによって得られる値のことを指す。制御部21は、S101で、ポイントをあらかじめ設定された値以上保有していると判定した場合、S102へ処理を移行する。   First, in S101, the control unit 21 determines whether or not the user has more points than a preset value. Information on points held by the user is included in the user information 242. The value set in advance is the value of the minimum necessary point for providing the rendering service. Here, the point in the present embodiment refers to a value obtained by the user purchasing the point. When it is determined in S101 that the control unit 21 has more points than the preset value, the process proceeds to S102.

S102で、制御部21は、ポイント使用案内を、ユーザーインターフェース23におけるディスプレイに表示する。ポイント使用案内とは、保有しているポイントを使用するか否か、及び使用するポイント数を、ユーザーに問う案内のことである。ここで、ユーザーが使用できるポイント数は、演出サービスの内容に応じて複数種類、本実施形態では2種類にあらかじめ設定されている。具体的には、本実施形態におけるユーザーが使用できるポイント数は、100ポイント及び500ポイントの2種類に設定されている。本実施形態では、このように、S102で使用できるポイント数を選択できるように設定することで、換言すればユーザーが選択するポイント数が100ポイントか500ポイントかによって、ユーザーに提供する演出サービスの内容を異ならせるようにしている。なお、S101におけるあらかじめ設定された値は、本実施形態では、100ポイントに設定されている。また、ユーザーに提供される演出サービスの内容については、演出処理の説明で詳細に述べる。   In S <b> 102, the control unit 21 displays the point usage guide on the display in the user interface 23. The point use guidance is guidance for asking the user whether or not to use the points he / she owns and the number of points to be used. Here, the number of points that can be used by the user is set in advance to a plurality of types according to the contents of the rendering service, in this embodiment, two types. Specifically, the number of points that can be used by the user in this embodiment is set to two types of 100 points and 500 points. In this embodiment, by setting the number of points that can be used in S102 in this way, in other words, depending on whether the number of points selected by the user is 100 points or 500 points, the rendering service provided to the user The contents are different. Note that the preset value in S101 is set to 100 points in this embodiment. The contents of the presentation service provided to the user will be described in detail in the explanation of the presentation process.

次に、S103で、制御部21は、ユーザーがポイントを使用するか否かを判定する。S103で、ユーザーによって100ポイント又は500ポイントのうちいずれかが使用される旨が、操作ボタン又はディスプレイを介して制御部21に入力されると、制御部21は、ユーザーがポイントを使用すると判定し、S104へ処理を移行する。ユーザーが選択したポイント数の情報は、ユーザー情報242の一部として記憶部24に記憶される。一方、制御部21は、S103で、ユーザーによってポイントが使用されない旨が制御部21に入力されると、ユーザーがポイントを使用しないと判定し、送信処理を終了する。   Next, in S103, the control unit 21 determines whether or not the user uses points. In S103, when the fact that either 100 points or 500 points are used by the user is input to the control unit 21 via the operation button or the display, the control unit 21 determines that the user uses the points. , The process proceeds to S104. Information on the number of points selected by the user is stored in the storage unit 24 as part of the user information 242. On the other hand, when it is input to the control unit 21 that the point is not used by the user in S103, the control unit 21 determines that the user does not use the point, and ends the transmission process.

S104で、制御部21は、記憶部24に記憶されているユーザー情報242を映像装置100に送信する。上述したように、ユーザー情報242には、ユーザーの名前及びユーザー位置情報が含まれている。このため、ユーザー情報242を受信した映像装置100は、ユーザーの名前及びユーザーの位置を演出サービスに反映させることができる。   In S <b> 104, the control unit 21 transmits the user information 242 stored in the storage unit 24 to the video apparatus 100. As described above, the user information 242 includes the user name and user location information. Therefore, the video apparatus 100 that has received the user information 242 can reflect the user name and the user position in the effect service.

次に、S105で、制御部21は、あらかじめ設定された時間内に、映像装置100からタイミング通知を受信したか否かを判定する。上述したように、映像装置100は、ユーザーに向かって手を振ったり、ユーザーの名前を呼んだりする演出サービスを提供するが、演出サービスを提供できるタイミングである提供タイミングは、本実施形態では例えばキャラクター3が歌って踊るパフォーマンスを行う演出の合間などに限定されている。このため、提供タイミング以外のタイミングで例えユーザーが手を振る動作を行っても、演出サービスは提供されない。そこで、映像装置100は、制御部21に提供タイミングを知らせる通知であるタイミング通知を送信し、タイミング通知を受信した制御部21は、S106でユーザーに提供タイミングを報知する。これにより、ユーザーは、提供タイミングを知ることが可能となる。   Next, in S105, the control unit 21 determines whether or not a timing notification is received from the video apparatus 100 within a preset time. As described above, the video device 100 provides an effect service that shakes the hand toward the user or calls the user's name. In the present embodiment, the provision timing that is the timing at which the effect service can be provided is, for example, It is limited to the intervals between performances where the character 3 performs a performance of singing and dancing. For this reason, even if the user performs an action of waving at a timing other than the provision timing, the rendering service is not provided. Therefore, the video apparatus 100 transmits a timing notification, which is a notification that notifies the control unit 21 of the provision timing, and the control unit 21 that has received the timing notification notifies the user of the provision timing in S106. Thereby, the user can know the provision timing.

制御部21は、S105で、あらかじめ設定された時間内に、映像装置100からタイミング通知を受信したと判定した場合、S106へ処理を移行する。一方、制御部21は、S105で、あらかじめ設定された時間内に、映像装置100からタイミング通知を受信しなかったと判定した場合、処理をS104に戻す。   When the control unit 21 determines in S105 that the timing notification has been received from the video apparatus 100 within the preset time, the process proceeds to S106. On the other hand, when the control unit 21 determines in S105 that the timing notification has not been received from the video apparatus 100 within the preset time, the process returns to S104.

S106で、制御部21は、あらかじめ設定された時間、ユーザーインターフェース23のディスプレイに、「携帯電話を握りながら手を振ってください」等の通知を表示することによって、ユーザーに提供タイミングを報知する。この際、ユーザーがディスプレイの表示に気づきやすくなるよう、ディスプレイの表示とともに、通信端末200のバイブレーション機能やインジケーターの点滅などを連動させて通知してもよい。   In S <b> 106, the control unit 21 notifies the user of the provision timing by displaying a notification such as “Shake your hand while holding the mobile phone” on the display of the user interface 23 for a preset time. At this time, in order to make it easier for the user to notice the display on the display, notification may be made in conjunction with the display on the display, in conjunction with the vibration function of the communication terminal 200, blinking of the indicator, or the like.

次に、S107で、制御部21は、ユーザーが手を振ったか否かを判定する。ユーザーが手を振ったか否かは、加速度センサー26の検出結果によって判定される。具体的には、ディスプレイにタイミング通知が表示されている間、ユーザーが通信端末200を握りながら手を振り、その検出結果が加速度センサー26から制御部21に入力された場合、制御部21は、ユーザーが手を振ったと判定し、S108へ処理を移行する。一方、制御部21は、S106の処理によって、ディスプレイにタイミング通知が表示されている間、ユーザーが通信端末200を握りながら手を振った検出結果が制御部21に入力されなかった場合、S107でユーザーが手を振らなかったと判定し、送信処理を終了する。   Next, in S107, the control unit 21 determines whether or not the user has shaken his / her hand. Whether or not the user has shaken his / her hand is determined by the detection result of the acceleration sensor 26. Specifically, when the timing notification is displayed on the display, when the user shakes his / her hand while holding the communication terminal 200 and the detection result is input from the acceleration sensor 26 to the control unit 21, the control unit 21 It is determined that the user has waved his hand, and the process proceeds to S108. On the other hand, if the detection result of the user waving his hand while holding the communication terminal 200 is not input to the control unit 21 while the timing notification is displayed on the display by the processing of S106, It is determined that the user has not waved and the transmission process is terminated.

S108で、制御部21は、ユーザーが手を振ったことを表す情報である挙動情報を映像装置100に送信する。
次に、S109で、制御部21は、ユーザー情報242を更新する。具体的には、制御部21は、ユーザーの保有しているポイントからユーザーが使用したポイント数を差し引き、ポイントの使用履歴を追加するよう、ユーザー情報242を更新する。
In S <b> 108, the control unit 21 transmits behavior information, which is information indicating that the user has waved his hand, to the video apparatus 100.
Next, in S109, the control unit 21 updates the user information 242. Specifically, the control unit 21 updates the user information 242 so as to add the point usage history by subtracting the number of points used by the user from the points owned by the user.

一方、S101に戻り、制御部21は、ユーザーがポイントをあらかじめ設定された値以上保有していないと判定した場合、S110へ処理を移行する。
S110で、制御部21は、ユーザーインターフェース23のディスプレイに、ポイントの購入案内を表示する。
On the other hand, returning to S101, if the control unit 21 determines that the user does not have more points than the preset value, the process proceeds to S110.
In S <b> 110, the control unit 21 displays point purchase guidance on the display of the user interface 23.

次に、S111で、制御部21は、ユーザーがポイントを購入するか否かを判定する。S111で、ユーザーによってポイントが購入される旨が操作ボタン又はディスプレイを介して制御部21に入力された場合、制御部21は、ポイントを購入すると判定し、S112へ処理を移行する。   Next, in S111, the control unit 21 determines whether or not the user purchases points. In S111, when the fact that the user purchases the points is input to the control unit 21 via the operation button or the display, the control unit 21 determines to purchase the points, and the process proceeds to S112.

S112で、制御部21は、S111で購入されたポイントがユーザーが保有するポイントに加算されるよう、ユーザー情報242を更新する。
一方、制御部21は、S111で、ユーザーによってポイントが購入される旨が制御部21に入力されない場合、ポイントを購入しないと判定し、送信処理を終了する。
In S112, the control unit 21 updates the user information 242 so that the points purchased in S111 are added to the points held by the user.
On the other hand, if the control unit 21 does not input to the control unit 21 that the point is purchased by the user in S111, the control unit 21 determines not to purchase the point and ends the transmission process.

次に、映像装置100の制御部11により実現される演出処理について、図4を用いて説明する。演出処理は、映像装置100の通信部12が、通信端末200の通信部22からユーザー情報242を受信することで開始される。   Next, the effect process realized by the control unit 11 of the video apparatus 100 will be described with reference to FIG. The effect process is started when the communication unit 12 of the video apparatus 100 receives the user information 242 from the communication unit 22 of the communication terminal 200.

まず、S201で、制御部11は、演出サービスの提供タイミングであるか否かを判定する。本実施形態では、キャラクター3のコンサートの上演時間全体のうち、例えば、キャラクター3が歌って踊るパフォーマンスを行う演出の合間など、一定の時間が複数回提供タイミングとしてあらかじめ設定されている。制御部11は、S201で、提供タイミングであると判定した場合、処理をS202へ移行し、通信端末200にタイミング通知を送信する。一方、制御部11は、S201で、提供タイミングでないと判定した場合、演出処理を終了する。   First, in S201, the control unit 11 determines whether or not it is a presentation service providing timing. In the present embodiment, of the entire performance time of the character 3 concert, for example, a certain time is set in advance as the provision timing multiple times, such as between performances where the character 3 performs a performance of singing and dancing. If the control unit 11 determines in S201 that it is the provision timing, the control unit 11 proceeds to S202 and transmits a timing notification to the communication terminal 200. On the other hand, the control part 11 complete | finishes an effect process, when it determines with it not being a provision timing by S201.

次に、S203で、制御部11は、あらかじめ設定された時間内に、通信端末200から挙動情報を受信したか否かを判定する。制御部11は、S203で、あらかじめ設定された時間内に、通信端末200から挙動情報を受信したと判定した場合、処理をS204へ移行する。一方、S203で、制御部11は、あらかじめ設定された時間内に、通信端末200から挙動情報を受信しなかったと判定した場合、演出処理を終了する。   Next, in S203, the control unit 11 determines whether or not behavior information has been received from the communication terminal 200 within a preset time. If the control unit 11 determines in S203 that behavior information has been received from the communication terminal 200 within a preset time, the process proceeds to S204. On the other hand, if the control unit 11 determines in S203 that behavior information has not been received from the communication terminal 200 within a preset time, the effect process ends.

S204で、制御部11は、ユーザーが選択したポイントが100ポイントであるか500ポイントであるかを判定する。ユーザーが選択したポイントが100ポイントであるか500ポイントであるかの情報は、制御部11が通信端末200から受信したユーザー情報242に含まれている。制御部11は、S204で、使用するポイントが100ポイントであると判定した場合、処理をS205へ移行する。   In S204, the control unit 11 determines whether the point selected by the user is 100 points or 500 points. Information on whether the point selected by the user is 100 points or 500 points is included in the user information 242 received from the communication terminal 200 by the control unit 11. When the control unit 11 determines in S204 that the point to be used is 100 points, the process proceeds to S205.

S205で、制御部11は、ユーザー情報242に含まれているユーザー位置情報に基づいて、ユーザーの位置を特定する。
次に、S206で、制御部11は、ユーザーに向かってキャラクター3が手を振る演出サービスを提供する。具体的には、制御部11は、ユーザーの位置に向かってキャラクター3が手を振るように、キャラクター3の投影内容を演出する。制御部11は、その後演出処理を終了する。
In step S <b> 205, the control unit 11 identifies the position of the user based on the user position information included in the user information 242.
Next, in S206, the control unit 11 provides an effect service in which the character 3 shakes his / her hand toward the user. Specifically, the control unit 11 produces the projection content of the character 3 so that the character 3 shakes his / her hand toward the user's position. The control unit 11 thereafter ends the effect process.

一方、制御部11は、S204で、使用するポイントが500ポイントであると判定した場合、処理をS207へ移行する。
S207で、制御部11は、ユーザー情報242に含まれているユーザー位置情報及びユーザーの名前に基づいて、ユーザーの位置及びユーザーの名前を特定する。
On the other hand, when the control unit 11 determines in S204 that the points to be used are 500 points, the process proceeds to S207.
In step S <b> 207, the control unit 11 specifies the user position and the user name based on the user position information and the user name included in the user information 242.

次に、S208で、制御部11は、キャラクター3が、ユーザーの名前を呼びながら、ユーザーに向かって手を振る演出サービスを提供する。具体的には、図5に示すように、制御部11は、ユーザーの位置に向かってキャラクター3が手を振るのに合わせて、例えば「○○さん、来てくれてありがとう」など、キャラクター3の音声で台詞とともにユーザーの名前を呼ぶように、キャラクター3の投影内容及び音声の内容を演出する。制御部11は、その後演出処理を終了する。   Next, in S208, the control unit 11 provides an effect service in which the character 3 shakes his / her hand toward the user while calling the user's name. Specifically, as shown in FIG. 5, the control unit 11 moves the character 3 such as “Mr. XX, thank you for coming” as the character 3 shakes his hand toward the user's position. The content of the projection of the character 3 and the content of the sound are produced so that the user's name is called together with the speech. The control unit 11 thereafter ends the effect process.

[4.効果]
以上詳述した実施形態によれば、以下の効果が得られる。
(1a)映像装置100は、ユーザーが選択したポイント数、ユーザー位置情報及びユーザーの名前の情報を含んだユーザー情報242を受信する。提供タイミングでユーザーが手を振る動作を行った場合、映像装置100は、ユーザーが選択したポイント数に応じて演出サービスを提供する。具体的には、映像装置100は、選択されたポイントが100ポイントである場合、ユーザーの位置に向かってキャラクター3が手を振るように、キャラクター3の投影内容を演出する。選択されたポイントが500ポイントである場合、映像装置100は、ユーザーの位置に向かってキャラクター3が手を振るのに合わせてキャラクター3の音声で台詞とともにユーザーの名前を呼ぶように、キャラクター3の投影内容及び音声の内容を演出する。
[4. effect]
According to the embodiment detailed above, the following effects can be obtained.
(1a) The video apparatus 100 receives user information 242 including the number of points selected by the user, user position information, and user name information. When the user performs an operation of waving at the provision timing, the video apparatus 100 provides a rendering service according to the number of points selected by the user. Specifically, when the selected point is 100 points, the video apparatus 100 produces the projection content of the character 3 so that the character 3 shakes his / her hand toward the user's position. When the selected point is 500 points, the video apparatus 100 causes the character 3 to call the user's name along with the dialogue with the voice of the character 3 as the character 3 shakes his hand toward the user's position. Produce projected content and audio content.

このような構成によれば、演出サービスを利用したユーザーがキャラクター3に特別な感情を抱きやすくすることができる。すなわち、映像装置100が行う演出によれば、コンサート会場に不特定多数いる観客の中から特定のユーザーの方に向かって、キャラクター3が手を振ったりユーザーの名前を呼ぶことが可能となる。そうすると、当該ユーザーは、キャラクター3により一層親近感や恋愛感情を抱きやすくなったり、感情移入しやすくなったりし得る。また、当該ユーザーは、コンサート会場にいる他の観客と比較して特別感や優越感を抱きやすくなる。その結果、ユーザーにおける、更なるポイント購入及びコンサートのサービスの利用などの意欲を向上させることができる。   According to such a configuration, it is possible for a user who uses the rendering service to easily hold a special emotion in the character 3. In other words, according to the performance performed by the video apparatus 100, the character 3 can shake his hand or call the user's name from a large number of unspecified audience members at the concert venue toward a specific user. If it does so, the said user may become easy to hold a feeling of closeness or a romantic feeling by the character 3, or may become easy to empathize. In addition, the user is more likely to have a special feeling and superiority than other audiences at the concert venue. As a result, it is possible to improve the user's willingness to purchase additional points and use concert services.

(1b)映像装置100は、ユーザーが所持する通信端末200と通信を行うことによって、ユーザー情報242を受信する。このような構成によれば、映像装置100が容易にユーザー情報242を受信することができる。   (1b) The video apparatus 100 receives the user information 242 by communicating with the communication terminal 200 possessed by the user. According to such a configuration, the video apparatus 100 can easily receive the user information 242.

なお、本実施形態では、キャラクター3が展示対象の一例に相当し、映像装置100が展示装置の一例に相当する。また、S205及びS207が位置特定部としての処理の一例に相当し、S206及びS208が処理部としての処理の一例に相当し、通信部12が情報取得部の一例に相当する。   In the present embodiment, the character 3 corresponds to an example of an exhibition target, and the video device 100 corresponds to an example of an exhibition device. Further, S205 and S207 correspond to an example of processing as a position specifying unit, S206 and S208 correspond to an example of processing as a processing unit, and the communication unit 12 corresponds to an example of an information acquisition unit.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
[5. Other Embodiments]
As mentioned above, although embodiment of this indication was described, it cannot be overemphasized that this indication can take various forms, without being limited to the above-mentioned embodiment.

(2a)上記実施形態では、展示装置が展示する展示対象として、コンピューターグラフィックスで立体的に表現された女性のアニメーションキャラクターの動画を例示した。しかし、展示対象は、これに限定されるものではなく、ユーザーに対して展示する対象であればよい。例えば、展示対象は、動物やマスコットなどのアニメーションキャラクターの動画であってもよい。また、展示対象は、立体的に投影される動画に限らず、例えば平面的に投影される動画や画像であってもよく、また例えば画像に表示される数字や絵柄であってもよい。ここで、展示対象が画像に表示される数字及び絵柄である場合の一例として、電子棚札を例に挙げて説明する。電子棚札は、表示内容が変更可能に構成されている表示部を備える、一般的なデジタル式の棚札である。電子棚札は、スーパーマーケットなどの小売店の各商品棚に複数取り付けられている。電子棚札の表示部には、商品名、商品の価格販促情報及び表示を強調するための絵柄など、種々の情報が表示されている。一方、小売店内には、展示装置としての管理コンピューター、複数の無線機及び複数のカメラが設置されている。管理コンピューターは、電子棚札の表示内容を管理するコンピューターである。無線機は、電子棚札と管理コンピューターとが通信できるように、小売店内に複数設置されており、管理コンピューターから送信される情報を電子棚札に無線送信する。電子棚札は、管理コンピューターから送信された情報に基づいて、表示部の表示を行う。カメラは、商品の売場及び顧客を撮像するよう複数台設置されている。管理コンピューターは、カメラが撮像した撮像画像を解析し、各売場にいる顧客のおおよその数を検出する。管理コンピューターは、各売場にいる顧客の数に応じて商品の価格を変更する処理を行うように構成されている。例えば、小売店の鮮魚売場にはたくさんの顧客が集まっているのに対し、精肉売場には顧客がほとんどいないとする。管理コンピューターは、鮮魚売場及び精肉売場に設置されたカメラが撮像した撮像画像を解析し、鮮魚売場及び精肉売場にいる顧客のおおよその数を検出する。次に、管理コンピューターは、精肉売場に設置されている電子棚札の商品の価格及び絵柄を変更する。具体的には、管理コンピューターは、精肉売場に設置されている電子棚札に現在表示されている価格よりも低い価格の情報を、電子棚札に送信する。当該情報を受信した電子棚札は、値下げがされた旨を強調する絵柄とともに、表示部の商品の価格を当該低い価格に変更する。このような展示装置の構成によれば、顧客の数が少ない売場の集客を上げやすくすることができる。   (2a) In the above-described embodiment, the animation of a female animated character expressed in three dimensions by computer graphics is illustrated as an exhibition target exhibited by the exhibition apparatus. However, the display object is not limited to this, and may be an object to be displayed to the user. For example, the display object may be a moving image of an animation character such as an animal or a mascot. The display object is not limited to a moving image projected three-dimensionally, but may be a moving image or image projected in a plane, for example, a number or a picture displayed on the image. Here, an electronic shelf label will be described as an example when the display object is a number and a pattern displayed on the image. The electronic shelf label is a general digital shelf label including a display unit configured to change display contents. A plurality of electronic shelf labels are attached to each product shelf of a retail store such as a supermarket. Various information such as a product name, product price promotion information, and a design for emphasizing the display are displayed on the display unit of the electronic shelf label. On the other hand, a management computer, a plurality of wireless devices, and a plurality of cameras as an exhibition apparatus are installed in the retail store. The management computer is a computer that manages display contents of the electronic shelf label. A plurality of wireless devices are installed in the retail store so that the electronic shelf label and the management computer can communicate with each other, and wirelessly transmit information transmitted from the management computer to the electronic shelf label. The electronic shelf label displays the display unit based on the information transmitted from the management computer. A plurality of cameras are installed so as to take images of sales floors of products and customers. The management computer analyzes the captured image captured by the camera and detects the approximate number of customers at each sales floor. The management computer is configured to perform processing for changing the price of the product according to the number of customers at each sales floor. For example, suppose that there are many customers in the fresh fish section of a retail store, while there are few customers in the meat section. The management computer analyzes captured images taken by cameras installed in the fresh fish section and the meat section, and detects the approximate number of customers in the fresh fish section and the meat section. Next, the management computer changes the price and design of the product on the electronic shelf label installed in the meat shop. Specifically, the management computer transmits information of a price lower than the price currently displayed on the electronic shelf label installed in the meat shop to the electronic shelf label. The electronic shelf label that has received the information changes the price of the product on the display unit to the lower price, along with a pattern that emphasizes that the price has been reduced. According to such a configuration of the exhibition apparatus, it is possible to easily increase the number of customers in the sales floor with a small number of customers.

なお、上述した変形例では、管理コンピューターが各売場にいる顧客の数に応じて電子棚札の商品の価格及び絵柄を変更する展示装置の構成を例示した。しかし、展示装置の構成はこれに限定されるものではなく、例えば、展示装置は、性別や年齢層などの条件で選択される特定の顧客の位置に応じて電子棚札の商品の価格や絵柄を変更してもよい。具体的には、例えば、管理コンピューターは、カメラが撮像した撮像画像を解析し、各売場にいる顧客の体の大きさや髪型などから、顧客の性別やおおよその年齢層を判定する。例えば、管理コンピューターは、総菜売り場にたくさんの成人男性の顧客が集まっていると判定した場合、酒売場に設置されている電子棚札に現在表示されている価格よりも低い価格の情報を、電子棚札に送信する。このような展示装置の構成によれば、顧客の需要に合わせて商品の価格を値下げするため、顧客の数が少ない売場の集客を更に上げやすくすることができる。   In the above-described modification, the configuration of the exhibition apparatus in which the management computer changes the price and the design of the product on the electronic shelf label according to the number of customers at each sales floor is exemplified. However, the configuration of the display device is not limited to this. For example, the display device can display the price or pattern of the product on the electronic shelf label according to the position of a specific customer selected under conditions such as gender and age group. May be changed. Specifically, for example, the management computer analyzes the captured image captured by the camera, and determines the gender and approximate age group of the customer based on the size and hairstyle of the customer at each sales floor. For example, if the management computer determines that a large number of adult male customers are gathering at the prepared food counter, information with a price lower than the price currently displayed on the electronic shelf label installed at the liquor counter Send to shelf label. According to such a configuration of the exhibition apparatus, the price of the product is reduced in accordance with the customer's demand, so that it is possible to further increase the number of customers in the sales floor with a small number of customers.

また、展示対象は、動画や画像に限られず、例えばロボットなどであってもよい。
(2b)上記実施形態では、展示装置として、コンサートのサービスを提供する映像装置100を例示したが、展示装置の用途は特に限定されない。展示装置は、コンサート以外のサービスに用いられてもよい。ここで、展示装置がコンサート以外のサービスに用いられる一例として、遊技機のサービスを例に挙げて説明する。図6に示すように、パチンコ店に設けられた遊技機4は、一般的な遊技機の機能を有しているのに加え、映像装置100と同様、ユーザーが所有する通信端末と通信を行うことにより、ユーザーに演出サービスを提供するように構成されている。ここで、ユーザー位置情報は、ユーザーが座る遊技機の位置(この例では遊技機4の位置)をあらかじめユーザーが通信端末に入力することによって、通信端末に登録されている。遊技機4は、通信端末からユーザー位置情報を受信することによって、ユーザーの位置を特定する。ただし、遊技機の構成はこれに限定されるものではなく、例えば、各遊技機がそれぞれ、各遊技機の席周辺でのみ通信端末と通信を行う通信機を有し、当該通信機が通信端末と通信を行うことによって、ユーザーが遊技機の前にいると遊技機が判断しユーザーの位置を特定するように構成してもよい。遊技機4の演出を表示するディスプレイ400には、キャラクター5が表示されている。キャラクター5は、女性のアニメーションキャラクターである。演出サービスの提供を受けるユーザーは、遊技機4の前に座り、通信端末を用いてポイントを使用することを選択する。そうすると、遊技機4は、ユーザーが使用するポイントに応じて、例えば「○○さん、来てくれてありがとう」などといったように、キャラクター5が手を振ったりユーザーの名前を呼ぶように、キャラクター5の投影内容及び音声の内容を演出する。なお、演出サービスの内容は、キャラクター5の投影内容及び音声の内容を演出する内容に加え、賞球が出る内容にしてもよい。
The display object is not limited to a moving image or an image, and may be a robot, for example.
(2b) In the above embodiment, the video apparatus 100 that provides a concert service is exemplified as the display apparatus, but the use of the display apparatus is not particularly limited. The exhibition apparatus may be used for services other than concerts. Here, as an example in which the exhibition apparatus is used for services other than concerts, a gaming machine service will be described as an example. As shown in FIG. 6, the gaming machine 4 provided in the pachinko parlor has functions of a general gaming machine and, like the video device 100, communicates with a communication terminal owned by the user. By this, it is comprised so that a presentation service may be provided to a user. Here, the user position information is registered in the communication terminal when the user inputs the position of the gaming machine where the user sits (in this example, the position of the gaming machine 4) into the communication terminal in advance. The gaming machine 4 specifies the position of the user by receiving the user position information from the communication terminal. However, the configuration of the gaming machine is not limited to this. For example, each gaming machine has a communication device that communicates with a communication terminal only around the seat of each gaming machine, and the communication device is a communication terminal. It is also possible to configure so that the gaming machine determines that the user is in front of the gaming machine and identifies the position of the user by communicating with the gaming machine. The character 5 is displayed on the display 400 that displays the effects of the gaming machine 4. Character 5 is a female animated character. The user who receives the presentation service sits in front of the gaming machine 4 and selects to use points using the communication terminal. Then, according to the point used by the user, the gaming machine 4 swayes the character 5 and calls the user's name, for example, “Mr. XX, thank you for coming”. The projection content and audio content are produced. The contents of the effect service may be contents that give out a prize ball in addition to the contents of projecting the character 5 and the contents of the sound.

このような構成によれば、映像装置100の効果と同様、ユーザーによる更なる遊技機4の利用などの意欲を向上させることができる。
なお、上述した変形例では、遊技機4が、ユーザーが手動で使用するポイントを選択した際に演出サービスを提供する構成を例示した。しかし、遊技機の構成はこれに限定されるものではない。例えば、ユーザーがあらかじめ自動で演出サービスの提供及び使用するポイントを通信端末に設定しておくと、ユーザーが遊技機の前に位置した際に自動的に演出サービスを行うように遊技機を構成してもよい。
According to such a configuration, similarly to the effect of the video apparatus 100, the user's willingness to use the gaming machine 4 can be improved.
In the above-described modification, the configuration in which the gaming machine 4 provides the rendering service when the user manually selects a point to be used is illustrated. However, the configuration of the gaming machine is not limited to this. For example, if the user automatically sets a point to provide and use the rendering service in advance on the communication terminal, the gaming machine is configured to automatically perform the rendering service when the user is positioned in front of the gaming machine. May be.

また、上述した変形例では、遊技機4が、ユーザーが所有する通信端末と通信することによって演出サービスを提供する構成を例示した。しかし、遊技機の構成はこれに限定されるものではない。例えば、ユーザーが所有するプリペイドカードを用いて演出サービスを提供するように遊技機を構成してもよい。プリペイドカードは、遊技機を使用する際に用いられるカードである。プリペイドカードには、ユーザーが保有する金額など、遊技機で遊ぶ際に必要な一般的な情報の他に、ユーザーの氏名などユーザーに関する種々の情報が登録されている。ユーザーがプリペイドカードを遊技機のプリペイドカード用の差し込み口に挿入すると、遊技機は、プリキャラクターが手を振ったりユーザーの名前を呼ぶように、キャラクターの投影内容及び音声の内容を演出する。このような構成によっても、遊技機は、ユーザーに演出サービスを提供することができる。   Moreover, in the modification mentioned above, the structure in which the game machine 4 provides an effect service by communicating with the communication terminal which a user owns was illustrated. However, the configuration of the gaming machine is not limited to this. For example, the gaming machine may be configured to provide a presentation service using a prepaid card owned by the user. A prepaid card is a card used when using a gaming machine. In the prepaid card, various information related to the user such as the user's name is registered in addition to general information necessary for playing with the gaming machine such as the amount of money held by the user. When the user inserts the prepaid card into the slot for the prepaid card of the gaming machine, the gaming machine produces the content of the character projection and the sound so that the precharacter shakes his hand or calls the user's name. Even with such a configuration, the gaming machine can provide a presentation service to the user.

また、上述した変形例では、遊技機の一例として、パチンコ店に設けられた遊技機4を例示した。しかし、遊技機は、例えば、カジノに設けられた遊技機などであってもよく、特に限定されない。   Moreover, in the modification mentioned above, the gaming machine 4 provided in the pachinko parlor was illustrated as an example of a gaming machine. However, the gaming machine may be, for example, a gaming machine provided in a casino, and is not particularly limited.

(2c)上記実施形態では、通信端末として、映像装置100と通信を行う携帯電話である通信端末200を例示したが、通信端末の種類は特に限定されない。例えば、通信端末は、タブレットやウェアラブル型の端末など、映像装置との間で無線通信が可能な端末であればよい。ここで、ウェアラブル型の端末の一例として、リストバンドのようにユーザーの腕に巻く端末であるリストバンド型端末を例に挙げて説明する。リストバンド型端末には、制御部21と同等の機能を有する制御部、ユーザーの挙動を検出する加速度センサー、送信処理を実行するためのアプリケーション及びユーザー情報が記憶されている記憶部などが搭載されている。リストバンド型端末は、通信端末200と同様、送信処理を実行するように構成されている。このような構成によれば、ユーザーがリストバンド型端末を腕に巻いた状態で手を振れば、映像装置がユーザーの挙動を検出することができる。その結果、携帯電話を握りながら手を振ることによってユーザーの挙動を検出する構成と比較して、ユーザーが感じる煩わしさを軽減させることができる。   (2c) In the above embodiment, the communication terminal 200, which is a mobile phone that communicates with the video apparatus 100, is exemplified as the communication terminal. However, the type of the communication terminal is not particularly limited. For example, the communication terminal may be a terminal capable of wireless communication with a video device, such as a tablet or a wearable terminal. Here, as an example of a wearable terminal, a wristband type terminal that is a terminal wound around a user's arm like a wristband will be described as an example. The wristband type terminal includes a control unit having functions equivalent to those of the control unit 21, an acceleration sensor that detects user behavior, an application for executing transmission processing, and a storage unit that stores user information. ing. As with the communication terminal 200, the wristband type terminal is configured to execute a transmission process. According to such a configuration, if the user shakes his / her hand with the wristband type terminal wound around his / her arm, the video device can detect the user's behavior. As a result, compared with the configuration in which the user's behavior is detected by waving his hand while holding the mobile phone, it is possible to reduce the annoyance felt by the user.

(2d)上記実施形態では、映像装置100が、ユーザーの位置を通信端末200のユーザー情報242から特定する構成を例示した。しかし、ユーザーの位置の特定方法はこれに限定されるものではない。   (2d) In the above embodiment, the configuration in which the video apparatus 100 specifies the position of the user from the user information 242 of the communication terminal 200 is exemplified. However, the method for specifying the position of the user is not limited to this.

例えば、映像装置は、無線タグとの間で行う無線通信によって、ユーザーの位置を特定してもよい。具体的には、まず、演出サービスの提供を受けるユーザーは、無線タグが貼り付けられた札やコンサートのチケットなどを会場で携帯している。一方、コンサート会場内には、観客の携帯する無線タグから送信される電波を受信できるように、複数の無線受信機が設置されている。無線受信機は、無線タグから送信される電波を受信することで、無線タグの位置、すなわちユーザーの位置を特定し、ユーザー位置情報を映像装置に送信する。このような構成によれば、映像装置は、通信端末からに限らず、無線タグ及び無線受信機からも、ユーザー位置情報を受信し、ユーザーの位置を特定することができる。   For example, the video apparatus may specify the position of the user by wireless communication performed with a wireless tag. Specifically, first, a user who receives a presentation service carries a tag with a wireless tag or a concert ticket at the venue. On the other hand, a plurality of wireless receivers are installed in the concert hall so that radio waves transmitted from wireless tags carried by the audience can be received. The wireless receiver receives the radio wave transmitted from the wireless tag, identifies the position of the wireless tag, that is, the position of the user, and transmits the user position information to the video apparatus. According to such a configuration, the video apparatus can receive the user position information not only from the communication terminal but also from the wireless tag and the wireless receiver, and specify the position of the user.

また例えば、映像装置は、顔認識技術によってユーザーの位置を特定してもよい。具体的には、まず、映像装置100のセンサーユニット15が、コンサート会場内にいる観客を撮像するカメラを備えている。映像装置100には、演出サービスの提供を受けるユーザーの顔があらかじめ登録されている。映像装置100は、カメラが撮像した撮像画像の解析処理を行い、登録されているユーザーの顔と、撮像画像に撮像された観客の顔とを照合する。このような構成によっても、映像装置は、ユーザーの位置を特定することができる。   Further, for example, the video apparatus may specify the position of the user by face recognition technology. Specifically, first, the sensor unit 15 of the video apparatus 100 includes a camera that captures the audience in the concert hall. In the video apparatus 100, the face of the user who receives the presentation service is registered in advance. The video apparatus 100 performs an analysis process on the captured image captured by the camera, and collates the registered user's face with the audience's face captured in the captured image. Even with such a configuration, the video apparatus can specify the position of the user.

また例えば、映像装置は、通信端末200の位置検出部25が取得するユーザー位置情報を通信端末200から受信することによって、ユーザーの位置を特定してもよい。
(2e)上記実施形態では、通信端末200の加速度センサー26がユーザーの挙動を検出し、その検出結果に基づいて通信端末200がユーザーが手を振ったか否かを判定する構成を例示した。しかし、ユーザーの挙動の検出方法及びユーザーが手を振ったか否かの判定方法はこれに限定されるものではない。例えば、ユーザーの挙動は、映像装置100のセンサーユニット15が備える深度センサーによって検出されてもよい。深度センサーは、物体に反射した赤外線をカメラで撮像することによって、当該物体の位置を検出する周知のセンサーである。深度センサーは、コンサート会場内にいる観客全体を捉えられるように複数箇所設置されている。深度センサーは、ユーザーの手や腕の位置を検出し、その検出結果を映像装置の制御部に入力する。そして、映像装置は、深度センサーが検出したユーザーの手や腕の位置を解析することにより、ユーザーが手を振ったか否かを判定する。このような構成によっても、ユーザーの挙動を検出し、ユーザーが手を振ったか否かを判定することができる。
Further, for example, the video device may specify the position of the user by receiving user position information acquired by the position detection unit 25 of the communication terminal 200 from the communication terminal 200.
(2e) In the above-described embodiment, the configuration in which the acceleration sensor 26 of the communication terminal 200 detects the user's behavior and the communication terminal 200 determines whether or not the user has shaken his / her hand based on the detection result. However, the method for detecting the user's behavior and the method for determining whether or not the user has shaken the hand are not limited thereto. For example, the user's behavior may be detected by a depth sensor included in the sensor unit 15 of the video apparatus 100. The depth sensor is a well-known sensor that detects the position of an object by imaging infrared rays reflected on the object with a camera. Depth sensors are installed at multiple locations to capture the entire audience in the concert venue. The depth sensor detects the position of the user's hand or arm and inputs the detection result to the control unit of the video apparatus. Then, the video apparatus determines whether or not the user has shaken his / her hand by analyzing the position of the user's hand or arm detected by the depth sensor. Even with such a configuration, it is possible to detect the behavior of the user and determine whether or not the user has waved his hand.

(2f)上記実施形態では、提供する演出サービスが、ユーザー情報242に含まれるユーザーの名前及びユーザー位置情報に基づいた内容である映像装置100を例示したが、映像装置が提供する演出サービスの内容はこれに限定されるものではない。例えば、映像装置は、上述した情報以外の情報に基づいて演出サービスを提供してもよい。具体的には、ユーザー情報には、性別、年齢、住んでいる地域、キャラクター3のコンサートに訪れた回数及びポイントの購入総額など、ユーザーに関する一般的な情報が含まれていてもよい。このような前提において、演出サービスの提供を受けるユーザーが、女性であって、過去に複数回キャラクター3のコンサートに訪れており、コンサート会場から遠い地域に住んでいるとする。この場合、図7に示すように、映像装置は、「○○ちゃん、また来てくれてうれしい!遠いところから来てくれてありがとう。」と、キャラクター3の投影内容及び音声の内容を演出する。このような構成によれば、ユーザーがキャラクターに親近感や恋愛感情を抱きやすくなったり、感情移入しやすくなったりし得る効果を、更に高めることができる。   (2f) In the above embodiment, the presentation service provided is exemplified by the video device 100 based on the user name and the user position information included in the user information 242, but the content of the presentation service provided by the video device is illustrated. Is not limited to this. For example, the video device may provide a presentation service based on information other than the information described above. Specifically, the user information may include general information about the user, such as gender, age, area where he / she lives, the number of times the character 3 has visited the concert, and the total amount of points purchased. Under such a premise, it is assumed that the user who receives the presentation service is a woman who has visited the concert of the character 3 several times in the past and lives in an area far from the concert venue. In this case, as shown in FIG. 7, the video apparatus produces the projection content and audio content of the character 3, “Oh, I'm glad you came again! Thank you for coming from far away.” . According to such a configuration, it is possible to further enhance the effect that the user can easily have a sense of familiarity and romantic feelings in the character or can easily transfer emotions.

(2g)上記実施形態では、演出サービスが提供されるタイミングがあらかじめ設定されている映像装置100の構成を例示した。しかし、演出サービスが提供されるタイミングはこれに限定されるものではない。例えば、演出サービスが提供されるタイミングは、コンサート会場のスタッフによって観客の盛り上がりのタイミングや会場の雰囲気に合わせて決定するなど、コンサートの進行と並行して手動で設定するようにしてもよい。また例えば、演出サービスの提供されるタイミングを設定せず、キャラクターがスクリーンに投影されている間、常に映像装置が演出サービスを提供できるようにしてもよい。   (2g) In the above embodiment, the configuration of the video apparatus 100 in which the timing at which the rendering service is provided is set in advance. However, the timing at which the presentation service is provided is not limited to this. For example, the timing at which the presentation service is provided may be set manually in parallel with the progress of the concert, such as being determined by the staff at the concert venue according to the timing of the audience's excitement and the atmosphere of the venue. Further, for example, the timing at which the presentation service is provided may not be set, and the video device may always provide the presentation service while the character is projected on the screen.

(2h)上記実施形態では、ユーザーが購入することによってポイントが取得できる構成を例示した。しかし、ポイントの取得方法については特に限定されるものではない。例えば、ポイントは、指定されたコンテンツにユーザーが会員登録することによって取得できたり、ユーザーがキャラクターの関連商品を購入する際に特典として取得できたりするようにしてもよい。また例えば、ポイントは、ユーザーが広告を宣伝する動画を通信端末から視聴したり、SNS等でコンサートやキャラクターなどに関連する投稿をしたりすることによって取得できるようにしてもよい。また例えば、ポイントは、ボランティア活動を行ったり、ユーザーが特定の場所へ訪れたりすることによって取得できるようにしてもよい。   (2h) In the above-described embodiment, a configuration in which points can be acquired by purchase by a user is illustrated. However, the point acquisition method is not particularly limited. For example, points may be acquired when a user registers as a member of specified content, or may be acquired as a privilege when the user purchases a character-related product. Further, for example, the points may be acquired when the user views a video promoting the advertisement from a communication terminal or makes a post related to a concert or a character on SNS or the like. Further, for example, the points may be acquired by performing volunteer activities or by a user visiting a specific place.

(2i)上記実施形態では、ユーザーに提供する演出サービスの内容が、スクリーン300に投影されたキャラクター3が“ユーザーに向かって手を振る”及び“ユーザーの名前を呼びながら、ユーザーに向かって手を振る”の2種類に設定されている構成を例示した。しかし、演出サービスの内容は特に限定されるものではない。演出サービスの内容は、例えば“ユーザーに向かってウインクをする”や“ユーザーに向かって投げキッスをする”などでもよく、また、投影された動画や音声などに限らず、例えば、色による演出であってもよく、特に限定されない。   (2i) In the above embodiment, the content of the presentation service provided to the user is such that the character 3 projected on the screen 300 "was hand toward the user" and "calls the user's name and moves toward the user. A configuration in which two types of “shake” are set is illustrated. However, the content of the production service is not particularly limited. The contents of the production service may be, for example, “wink towards the user” or “throw a kiss towards the user”, and are not limited to the projected video or audio, but may be, for example, a color production. There may be, and it is not specifically limited.

(2j)展示装置は、特定のユーザーに対して演出サービスを提供した後に、利用情報を他のユーザーに送信する処理を更に行うようにしてもよい。利用情報は、演出サービスを利用した旨を知らせる情報である。他のユーザーは、コンサート会場にいる観客のうち、特定のユーザー以外のユーザーであって、例えば、通信端末を携帯し、演出サービスを提供するためのアプリケーションを起動しているユーザーである。展示装置は、他のユーザーが携帯する携帯端末に、利用情報を送信する。利用情報を受信した他のユーザーの携帯端末は、特定のユーザーが演出サービスを利用した旨をディスプレイに表示し、他のユーザーに利用情報を報知する。このような構成によれば、他のユーザーは、特定のユーザーが演出サービスによって手を振ってもらったり名前を読んでもらったりしたことを知り、羨ましい気持ちや嫉妬心などの感情を抱きやすくなる。その結果、他のユーザーにおける、更なるポイント購入及びコンサートのサービスの利用などの意欲を向上させることができる。   (2j) The exhibition apparatus may further perform a process of transmitting usage information to another user after providing a presentation service to a specific user. The usage information is information notifying that the effect service has been used. Another user is a user other than a specific user among the audience at the concert venue, for example, a user who carries a communication terminal and activates an application for providing a rendering service. The exhibition apparatus transmits usage information to a portable terminal carried by another user. The mobile terminal of the other user who has received the usage information displays on the display that the specific user has used the effect service, and notifies the other users of the usage information. According to such a configuration, it becomes easier for other users to feel enviable feelings and jealousy because they know that a specific user has shaken their hand or read their name through the production service. As a result, it is possible to improve the willingness of other users to purchase additional points and use concert services.

(2k)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (2k) The functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(2l)本開示は、上述した映像装置の他、当該映像装置及び通信端末を構成要素とするシステム、当該映像装置としてコンピューターを機能させるためのプログラム、このプログラムを記録した媒体、当該映像装置を用いた方法など、種々の形態で実現することができる。   (2l) In addition to the video device described above, the present disclosure includes a system including the video device and a communication terminal as components, a program for causing a computer to function as the video device, a medium storing the program, and the video device. It can be realized in various forms such as the method used.

[6.実施形態から把握される技術思想]
以上詳述した種々の実施形態から、少なくとも以下の技術思想が把握される。
[3A]展示対象を展示する展示装置であって、
特定のユーザーの位置を特定する位置特定部と、
前記展示対象の状態を前記特定のユーザーの位置に応じた状態に変化させる処理部と、
を備える、展示装置。
[6. Technical idea grasped from embodiment]
At least the following technical ideas can be understood from the various embodiments detailed above.
[3A] An exhibition device that displays objects to be exhibited,
A location identifying unit that identifies the location of a particular user;
A processing unit that changes the state of the display object to a state according to the position of the specific user;
An exhibition apparatus comprising:

[3B]前記[3A]に記載の展示装置であって、
前記特定のユーザーに関する情報であるユーザー情報を取得する情報取得部を更に備え、
前記処理部は、前記展示対象の状態を前記ユーザー情報に応じた状態に変化させる、展示装置。
[3B] The display device according to [3A],
An information acquisition unit that acquires user information that is information on the specific user;
The display device, wherein the processing unit changes the state of the display object to a state corresponding to the user information.

[3C]前記[3B]に記載の展示装置であって、
前記情報取得部は、前記特定のユーザーが所持する通信端末と通信を行うことによって、前記ユーザー情報を取得する、展示装置。
[3C] The display device according to [3B],
The exhibition apparatus, wherein the information acquisition unit acquires the user information by communicating with a communication terminal possessed by the specific user.

[3D]前記[3B]又は前記[3C]に記載の展示装置であって、
前記ユーザー情報には、前記特定のユーザーが保有する特典情報が含まれており、
前記処理部は、前記展示対象の状態を前記特典情報に応じた状態に変化させる、展示装置。
[3D] The display device according to [3B] or [3C],
The user information includes privilege information held by the specific user,
The display device is configured to change the state of the display target to a state corresponding to the privilege information.

[3E]前記[3B]から前記[3D]までのいずれか1つに記載の展示装置であって、
前記展示対象の状態の変化に合わせて、前記ユーザー情報に基づいた特定の内容を前記特定のユーザーに向けて音声を発生する音声発生部を更に備える、展示装置。
[3E] The display device according to any one of [3B] to [3D],
An exhibition apparatus further comprising an audio generation unit that generates audio for specific content based on the user information toward the specific user in accordance with a change in the state of the display object.

[3F]前記[3A]から前記[3E]までのいずれか1つに記載の展示装置であって、
前記展示対象は、立体画像である、展示装置。
[3F] The display device according to any one of [3A] to [3E],
The exhibition object is a stereoscopic image.

[3G]前記[3F]に記載の展示装置であって、
前記展示対象は、人型の立体画像であって、
前記処理部は、前記人型の立体画像の状態を前記特定のユーザーの位置の方を向いた状態に変化させる、展示装置。
[3G] The display device according to [3F],
The display object is a humanoid stereoscopic image,
The display apparatus, wherein the processing unit changes the state of the humanoid stereoscopic image to a state facing the position of the specific user.

[3H]前記[3A]から前記[3G]までのいずれか1つに記載の展示装置であって、
前記特定のユーザーの挙動を検出する挙動検出部を更に備え、
前記処理部は、前記挙動検出部が前記特定のユーザーが特定の挙動を行ったと検出した場合に、前記展示対象の状態を前記特定のユーザーの位置に応じた状態に変化させる、展示装置。
[3H] The display device according to any one of [3A] to [3G],
A behavior detection unit for detecting the behavior of the specific user;
The display apparatus, when the behavior detection unit detects that the specific user has performed a specific behavior, changes the state of the display target to a state corresponding to the position of the specific user.

[3I]前記[3H]に記載の展示装置であって、
前記処理部は、前記展示対象の状態を前記特定のユーザーの挙動に応じた状態に変化させる、展示装置。
[3I] The display device according to [3H],
The display device is configured to change the state of the display target to a state corresponding to the behavior of the specific user.

[3J]コンピューターグラフィックスで表現されたキャラクターの動画を表示する展示装置であって、
前記動画を同じ視聴場所で視聴する複数のユーザーの中から、特定のユーザーを特定可能なユーザー特定部と、
前記視聴場所における前記特定のユーザーの位置を特定する位置特定部と、
前記特定のユーザーの位置に基づき、前記キャラクターが前記特定のユーザーの位置に応じた動作をするように、前記キャラクターを表示する処理部と、
を備え、
前記ユーザー特定部は、前記複数のユーザーが所持する通信端末と通信を行い、特定の条件を満たす前記通信端末を所持するユーザーを前記特定のユーザーとして特定し、
前記位置特定部は、前記特定のユーザーが所持する前記通信端末から受信した位置情報に基づき、前記特定のユーザーの位置を特定する、展示装置。
[3J] An exhibition device that displays a video of a character expressed in computer graphics,
A user identifying unit capable of identifying a specific user among a plurality of users who view the video at the same viewing location;
A position specifying unit for specifying the position of the specific user in the viewing place;
Based on the position of the specific user, a processing unit that displays the character so that the character operates according to the position of the specific user;
With
The user identification unit communicates with a communication terminal possessed by the plurality of users, identifies a user possessing the communication terminal satisfying a specific condition as the specific user,
The display device, wherein the position specifying unit specifies a position of the specific user based on position information received from the communication terminal possessed by the specific user.

3…キャラクター、11,21…制御部、12,22…通信部、13…表示部、14…音声部、15…センサーユニット、23…ユーザーインターフェース、24…記憶部、25…位置検出部、26…加速度センサー、100…映像装置、200…通信端末、241…アプリケーション、242…ユーザー情報、300…スクリーン。   DESCRIPTION OF SYMBOLS 3 ... Character, 11, 21 ... Control part, 12, 22 ... Communication part, 13 ... Display part, 14 ... Audio | voice part, 15 ... Sensor unit, 23 ... User interface, 24 ... Memory | storage part, 25 ... Position detection part, 26 ... acceleration sensor, 100 ... video device, 200 ... communication terminal, 241 ... application, 242 ... user information, 300 ... screen.

Claims (3)

展示対象を展示する展示装置であって、
特定のユーザーの位置を特定する位置特定部と、
前記展示対象の状態を前記特定のユーザーの位置に応じた状態に変化させる処理部と、
を備える、展示装置。
An exhibition device for exhibiting objects to be exhibited,
A location identifying unit that identifies the location of a particular user;
A processing unit that changes the state of the display object to a state according to the position of the specific user;
An exhibition apparatus comprising:
請求項1に記載の展示装置であって、
前記特定のユーザーに関する情報であるユーザー情報を取得する情報取得部を更に備え、
前記処理部は、前記展示対象の状態を前記ユーザー情報に応じた状態に変化させる、展示装置。
The display device according to claim 1,
An information acquisition unit that acquires user information that is information on the specific user;
The display device, wherein the processing unit changes the state of the display object to a state corresponding to the user information.
請求項2に記載の展示装置であって、
前記情報取得部は、前記特定のユーザーが所持する通信端末と通信を行うことによって、前記ユーザー情報を取得する、展示装置。
The display device according to claim 2,
The exhibition apparatus, wherein the information acquisition unit acquires the user information by communicating with a communication terminal possessed by the specific user.
JP2017052805A 2017-03-17 2017-03-17 Exhibition device Pending JP2018156404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017052805A JP2018156404A (en) 2017-03-17 2017-03-17 Exhibition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017052805A JP2018156404A (en) 2017-03-17 2017-03-17 Exhibition device

Publications (1)

Publication Number Publication Date
JP2018156404A true JP2018156404A (en) 2018-10-04

Family

ID=63718068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017052805A Pending JP2018156404A (en) 2017-03-17 2017-03-17 Exhibition device

Country Status (1)

Country Link
JP (1) JP2018156404A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11907414B2 (en) 2018-12-13 2024-02-20 Universal City Studios Llc Object tracking animated figure systems and methods

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269130A (en) * 2001-03-12 2002-09-20 Sharp Corp Portable display device
JP2003123010A (en) * 2001-10-11 2003-04-25 Lab:Kk Communication network utilizing system for portable terminal
JP2003271284A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Display system
JP2013080123A (en) * 2011-10-04 2013-05-02 Kddi Corp Signage device
JP2018094326A (en) * 2016-12-16 2018-06-21 株式会社バンダイナムコエンターテインメント Event control system, and event notification system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269130A (en) * 2001-03-12 2002-09-20 Sharp Corp Portable display device
JP2003123010A (en) * 2001-10-11 2003-04-25 Lab:Kk Communication network utilizing system for portable terminal
JP2003271284A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Display system
JP2013080123A (en) * 2011-10-04 2013-05-02 Kddi Corp Signage device
JP2018094326A (en) * 2016-12-16 2018-06-21 株式会社バンダイナムコエンターテインメント Event control system, and event notification system and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11907414B2 (en) 2018-12-13 2024-02-20 Universal City Studios Llc Object tracking animated figure systems and methods
JP7489388B2 (en) 2018-12-13 2024-05-23 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー System and method for tracking animated characters

Similar Documents

Publication Publication Date Title
CN103902641B (en) Information processing equipment, content providing and computer program
US20150379777A1 (en) Augmented reality providing system, recording medium, and augmented reality providing method
KR101894021B1 (en) Method and device for providing content and recordimg medium thereof
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
CN104090973B (en) A kind of information demonstrating method and device
CN110249631A (en) Display control program and display control method
CN110121379A (en) Creation, broadcast and viewing 3D content
CN110110203A (en) Resource information method for pushing and server, resource information methods of exhibiting and terminal
TWI779343B (en) Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium
CN111506758B (en) Method, device, computer equipment and storage medium for determining article name
CN110163066B (en) Multimedia data recommendation method, device and storage medium
KR20210131415A (en) Interactive method, apparatus, device and recording medium
CN109146530A (en) Interactive approach and device based on social network information
CN104243546A (en) Information processing device, communication system, and information processing method
CN114125477B (en) Data processing method, data processing device, computer equipment and medium
CN110400180A (en) Display methods, device and storage medium based on recommendation information
CN110716641B (en) Interaction method, device, equipment and storage medium
CN110209316A (en) Class label display methods, device, terminal and storage medium
CN114302160A (en) Information display method, information display device, computer equipment and medium
JP2018156404A (en) Exhibition device
CN109933389A (en) Data object information processing, page display method and device
CN112258240A (en) Content display method, device, terminal, server and storage medium
CN116993432A (en) Virtual clothes information display method and electronic equipment
JP6406954B2 (en) Advertisement distribution apparatus, advertisement distribution method, and advertisement distribution program
JP5955873B2 (en) Distribution apparatus, distribution method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190709