JP2018094326A - Event control system, and event notification system and program - Google Patents

Event control system, and event notification system and program Download PDF

Info

Publication number
JP2018094326A
JP2018094326A JP2016244835A JP2016244835A JP2018094326A JP 2018094326 A JP2018094326 A JP 2018094326A JP 2016244835 A JP2016244835 A JP 2016244835A JP 2016244835 A JP2016244835 A JP 2016244835A JP 2018094326 A JP2018094326 A JP 2018094326A
Authority
JP
Japan
Prior art keywords
participant
event
information
virtual
viewing position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016244835A
Other languages
Japanese (ja)
Other versions
JP6955861B2 (en
Inventor
赳彦 石黒
Takehiko Ishiguro
赳彦 石黒
裕亮 石田
Yusuke Ishida
裕亮 石田
直大 鈴木
Naohiro Suzuki
直大 鈴木
恩田 明生
Akio Onda
明生 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2016244835A priority Critical patent/JP6955861B2/en
Publication of JP2018094326A publication Critical patent/JP2018094326A/en
Application granted granted Critical
Publication of JP6955861B2 publication Critical patent/JP6955861B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an event performance control system, its program, and the like capable of enhancing fun based on participation in an event, and at the same time permitting participation in the event continuously, and use of a process up to participation in the event as a target of interest.SOLUTION: A server device 10 executes special performance control processing for extracting a specific participant and providing a special performance toward an observation position on a virtual three-dimensional space of the extracted, specific participant by a performance character, such as an idle character and a robot character to be imaged after being disposed in the virtual three-dimensional space on the assumption that behavior history information of each participant, and an observation position in a virtual event executed in a virtual three-dimensional space are registered in association with each participant ID.SELECTED DRAWING: Figure 7

Description

本発明は、イベントに用いられるイベント演出制御システム、イベント通知システム及びプログラムなどに関する。   The present invention relates to an event presentation control system, an event notification system, a program, and the like used for an event.

従来、VR技術を用いて、又は、スクリーンなどに投影することによってアニメーションなどの仮想現実世界のキャラクタを実空間のイベントなどに用いることが知られている。特に、最近は、当該実空間のイベントにおいて、キャラクタが予め定められた動きを実行するだけでなく、参加者の声や行動に応じてキャラクタの動きが制御されるものが知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, it is known to use a virtual reality world character such as an animation for an event in a real space by using VR technology or projecting it on a screen or the like. In particular, recently, in the event of the real space, not only the character performs a predetermined movement but also the movement of the character is controlled according to the voice and behavior of the participant (for example, Patent Document 1).

特開2000−163178号公報JP 2000-163178 A

しかしながら、特許文献1に記載の装置を含む、このような従来のシステムであっては、イベントなどの利用する時点での参加者の行動に応じてキャラクタが反応するだけであり、システムを繰り返して利用した実績や当該システムを利用するまでの参加者の行動などそのとき以外の参加者の行動については考慮していない。   However, in such a conventional system including the device described in Patent Document 1, the character only reacts according to the behavior of the participant at the time of use such as an event, and the system is repeated. Participants' behavior other than that, such as the actual results used and the behavior of the participants until the system is used, are not considered.

したがって、このような従来のシステムであっては、継続的にシステムを利用すること(当該システムを利用したイベントに参加すること)、及び、当該システムを利用するまでの過程(当該システムを利用したイベントに参加するまでの過程)についても興趣の対象として用いるための動機付けが行われていない。   Therefore, in such a conventional system, the system is used continuously (participating in an event using the system) and the process until the system is used (the system is used). There is no motivation to use it as an object of interest in the process of participating in the event.

本発明は、上記課題を解決するためになされたものであり、その目的は、行動情報に基づいて特定の参加者を特定し、かつ、当該特定した参加者に対してキャラクタなどが特別な演出を実行することによって、イベントに参加すること(システムを利用すること)に基づく興趣性を向上させるだけでなく、継続的にイベントに参加すること(システムを利用すること)、及び、当該イベントに参加するまでの過程(当該システムを利用するまでの過程)についても興趣の対象として用いることが可能なイベント演出制御システム及びそのプログラムなどを提供することにある。   The present invention has been made in order to solve the above-mentioned problems, and its purpose is to specify a specific participant based on behavior information, and a special effect such as a character for the specified participant. In addition to improving the interest based on participating in the event (using the system), it is possible to participate in the event continuously (using the system) and An object of the present invention is to provide an event production control system that can be used as an object of interest for a process up to participation (a process up to using the system), a program thereof, and the like.

(1)上記課題を解決するため、本発明は、コンピュータを、
複数の参加者が参加するイベントの演出に用いられる演出オブジェクト又は演出装置を制御する制御手段、
前記参加者の識別情報に対応付けて当該参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段、及び、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段、
として機能させ、
前記制御手段が、
前記抽出された特定参加者の識別情報に基づいて当該特定参加者の観覧位置情報を特定し、
当該特定した観覧位置情報によって示される観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、構成を有している。
(1) In order to solve the above problems, the present invention provides a computer,
Control means for controlling a production object or production device used for production of an event in which a plurality of participants participate,
First registration means for registering in the storage means behavior information indicating the behavior related to the event of the participant in association with the identification information of the participant;
Second registration means for registering viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant in the storage means; and
An extraction means for extracting a specific participant as a specific participant from a plurality of participants based on the registered behavior information of each participant;
Function as
The control means is
Based on the extracted identification information of the specific participant, specifying the viewing position information of the specific participant,
It has a configuration for controlling execution of a special effect by the effect object or the effect device with respect to the viewing position indicated by the specified viewing position information.

この構成により、本発明は、複数の参加者が参加したイベント中に、演出オブジェクトや演出装置によって、特定の個人を対象とした特別な演出を実施することができるとともに、当該特別な演出の実行の対象となる参加者については、例えば、過去の同一若しくは特別なイベントに参加した参加者、イベントに関する特定の商品を購入した参加者、又は、イベントに関して一定以上の累積的な課金を実行した参加者など各参加者の行動情報から抽出することができる。   With this configuration, the present invention can perform a special performance for a specific individual by using a production object or a production device during an event in which a plurality of participants participate, and execute the special production. Participants who are eligible for the event, for example, participants who participated in the same or special event in the past, participants who purchased a specific product related to the event, or participants who performed a cumulative charge over a certain amount related to the event It can be extracted from the behavior information of each participant such as a person.

したがって、本発明は、例えば、多くのイベントに参加する参加者に対して、特定の商品を購入した参加者に対して、又は、一定以上の課金が実行された参加者に対して、特別な演出を提供することができるので、各参加者に対して、イベントに繰り返し参加するためのモチベーションを維持又は向上させることができるとともに、イベントに参加することに基づく興趣性を向上させるだけでなく、継続的にイベントに参加すること、及び、当該イベントに参加するまでの過程についても興趣の対象として用いることができる。   Therefore, the present invention is special to, for example, participants who participate in many events, participants who have purchased a specific product, or participants who have been charged more than a certain amount. Since it can provide a production, each participant can maintain or improve the motivation to participate repeatedly in the event, and not only improve the interest based on participating in the event, Participation in an event continuously and the process until participation in the event can also be used as an object of interest.

この結果、本発明は、参加者のイベントに対する興趣性を向上させることができるとともに、それによって当該イベントに対する参加者における集客を図りつつ、当該イベントを活性化することができる。   As a result, the present invention can improve the interest of the event with respect to the event, and thereby activate the event while attracting customers to the event.

なお、「イベント」は、実空間において実施されるイベントであってもよいし、仮想3次元空間において実施されるイベントであってもよい。特に、仮想3次元空間において実施されるイベントは、各参加者が当該仮想3次元空間を体験するための装置(具体的には、VR装置)を装着して仮想3次元空間上で参加するイベントである。そして、イベントが仮想3次元空間において実施される場合には、観覧位置は、仮想3次元空間内に設定された位置を示すこととなる。   The “event” may be an event performed in the real space or an event performed in the virtual three-dimensional space. In particular, an event performed in a virtual three-dimensional space is an event in which each participant participates in a virtual three-dimensional space by wearing a device (specifically, a VR device) for experiencing the virtual three-dimensional space. It is. When the event is performed in the virtual three-dimensional space, the viewing position indicates a position set in the virtual three-dimensional space.

また、「演出オブジェクト」としては、実空間の場合には、例えば、実空間に実体が存在するキャラクタやロボットなどのイベントに登場する対象物、及び、参加者がイベント中に表示される画像内に画像化されたキャラクタやロボットなどの表示オブジェクトが含まれる。そして、「演出オブジェクト」は、仮想3次元空間の場合には、例えば、参加者によって注視されるキャラクタ(アイドルキャラクタやロボットキャラクタ)などの仮想3次元空間に配置されて画像化されるオブジェクトが含まれる。   In addition, in the case of real space, the “production object” includes, for example, a target that appears in an event such as a character or a robot that has an entity in the real space, and an image in which participants are displayed during the event. Includes a display object such as an imaged character or robot. In the case of a virtual three-dimensional space, the “effect object” includes, for example, an object arranged and imaged in a virtual three-dimensional space such as a character (idol character or robot character) watched by a participant. It is.

さらに、「演出装置」としては、例えば、紙吹雪やテープなど装飾物を飛ばすバズーカ型やキャノン砲型のクラッカーなどの特殊効果装置、ピンスポット型のライトやサーチライトなどの照明装置、稼働型の花道やセリなどの舞台装置、スピーカなどの音響装置又は演出オブジェクトが観客席上をフライングするフライング装置が含まれる。   Furthermore, examples of the “production device” include special effects devices such as bazooka-type and cannon-type crackers that fly decorations such as confetti and tape, lighting devices such as pin-spot-type lights and searchlights, and operational-type devices. Stage devices such as flower roads and seri, acoustic devices such as speakers, or flying devices in which effect objects fly over the audience seats are included.

上記に加えて、「イベントに関連する行動」とは、
[1]演出オブジェクトに対する声援や応援行為などのイベント中における参加者の演出オブジェクト又は演出装置に対する演出対応行動、
[2]仮想イベントの場合に参加者のアバターに装備させるアイテム(外観変更や化粧なども含む)の購入、又は、イベントの演出に用いられる演出オブジェクトやイベントのグッズなどのイベントに関連する商品の購入、
[3]上記の商品の購入による課金、観覧位置(すなわち座席)の購入やイベント参加による課金、又は、演出オブジェクトへのお捻り(すなわち、チップ)の提供による課金な
どのイベントに関連して実行された課金、
[4]過去の同一の演出オブジェクトが参加するイベントなどの参加中のイベントに関連する過去のイベントへの参加、
[5]既に参加したイベントにおける演出対応行動([2]に示す演出対応行動)、
[6]イベント中に発生するミニゲーム(例えば、仮想3次元空間内で実行可能なゲームや実空間においてゲーム端末装置によってイベントと連動するゲーム)、又は、イベントの開催前若しくは開催後にゲーム端末装置と連動して実行されるゲームの実行
が含まれる。
In addition to the above, “event-related behavior”
[1] Participant's directing action for the directing object or the directing device during an event such as cheering or cheering for the directing object,
[2] Purchase of items (including appearance changes and makeup) to be equipped on the participant's avatar in the case of a virtual event, or a product related to an event such as a production object or event goods used for the production of the event Purchase,
[3] Executed in connection with an event such as charging by purchasing the above-mentioned product, charging by viewing position (that is, seat) or event participation, or charging by providing a twist (that is, a chip) to the production object Charged,
[4] Participation in a past event related to an event in which the same directing object participates, etc.
[5] Production response behavior in the event that has already participated (production response behavior shown in [2]),
[6] A mini game that occurs during an event (for example, a game that can be executed in a virtual three-dimensional space or a game that is linked to an event by a game terminal device in a real space), or a game terminal device before or after the event is held The execution of the game executed in conjunction with is included.

また、「特別な演出」とは、投げキッスやメッセージの発信などの演出オブジェクトから特定参加者に向けて実行される行動演出(例えば、演出オブジェクトがアイドルなどのパフォーマンスを行うキャラクタの場合におけるファンサービス)の他に、照明装置によって特定参加者にピンスポットやサーチライトを照射する照明演出、及び、特定の装置によって特定参加者に向けて装飾物を飛ばす演出などの特殊効果によって提供される演出が含まれる。   The “special effect” is an action effect (such as a fan service when the effect object is a character that performs performance such as an idol) from an effect object such as a throwing kiss or message transmission to a specific participant. In addition to the above, there are effects provided by special effects such as an illumination effect in which a specific participant is irradiated with a pin spot or a searchlight by an illumination device, and an effect in which a decoration is blown toward the specific participant by a specific device. included.

(2)また、本発明は、
前記行動情報とは、前記参加者の行動に関する情報、前記参加者の課金した際の課金に関する情報、又は、前記参加者の過去の前記行動若しくは前記課金に関する情報のいずれかが含まれる、構成を有している。
(2) The present invention also provides:
The behavior information includes any of the information related to the behavior of the participant, the information related to the billing when the participant has been charged, or the past behavior of the participant or the information related to the billing. Have.

この構成により、本発明は、例えば、過去の特定のイベントや多くのイベントに参加することによって、イベント中に演出オブジェクトに対して応援することによって、特定の商品を購入することによって、一定以上の課金を実行することによって、又は、イベントに関連するゲームを実行することによって、特別な演出を参加者に提供することができる。   With this configuration, the present invention, for example, by participating in a specific event in the past or many events, by supporting a production object during the event, by purchasing a specific product, a certain level or more Participants can be provided with special effects by performing billing or by executing a game related to the event.

したがって、本発明は、各参加者に対して、イベントに繰り返し参加するためのモチベーションを維持又は向上させることができるとともに、イベントに参加することによる興趣を提供するだけでなく、当該イベントに参加するまでの過程についても興趣を提供することができる。   Therefore, the present invention can maintain or improve the motivation for each participant to participate repeatedly in the event, and not only provides interest by participating in the event, but also participates in the event. It can provide interest in the process up to.

なお、「行動に関する情報」には、例えば、参加者の演出オブジェクトや演出装置に対する演出対応行動、演出オブジェクトやイベントに関連する商品(仮想アイテムを含む)の購入、又は、上記イベントや関連するイベントへの参加などの上記の行動において、その行動種別、行動を実行した日時、購入した商品やイベントの種別、又は、購入した数や実行した行動の回数などの各種の情報が含まれる。   In addition, in the “information regarding behavior”, for example, the behavior corresponding to the production of the participant's production object or production device, the purchase of a product (including a virtual item) related to the production object or event, or the above event or related event In the above-described behavior such as participation in the event, the behavior type, the date and time when the behavior was executed, the type of the purchased product or event, or various information such as the number of purchases and the number of executed behaviors are included.

特に、「行動に関する情報」がイベント中に発生するミニゲーム(例えば、仮想3次元空間内で実行可能なゲームや実空間においてゲーム端末装置によってイベントと連動するゲーム)又は、イベントの開催前若しくは開催後にゲーム端末装置と連動して実行されるゲームの実行に関する情報の場合には、例えば、ゲームを実施した日時(ログイン日時を含む。)、当該ゲームのトータルや所定期間におけるプレー時間、ゲームの実行頻度(ログイン頻度を含む。)、ゲームレベル(プレーヤレベルを含む。)、ゲーム内で取得したアイテム、ガチャにおける当選情報、及び、ゲームにおいて登録されたフレンドとの関係性に基づく情報(例えば、フレンド数やフレンドと一緒に実行したプレー時間)などのゲーム履歴の情報が含まれる。   In particular, a mini-game (for example, a game that can be executed in a virtual three-dimensional space or a game that is linked to an event by a game terminal device in a real space) in which “information on behavior” occurs during the event, or before or during the event In the case of information related to the execution of a game executed in conjunction with the game terminal device later, for example, the date and time (including the login date and time) of the game, the total of the game, the play time in a predetermined period, and the execution of the game Frequency (including login frequency), game level (including player level), items acquired in the game, winning information in gacha, and information based on relationships with friends registered in the game (for example, friends Game history information such as number and playing time with friends).

また、「課金に関する情報」には、例えば、商品などを購入した際の課金において、その課金種別、課金を実行した日時、課金により購入した商品の種別、当該購入した数や課
金回数(頻度)又は、上記のゲームを実行した際の課金に関する情報などの各種の情報が含まれる。
In addition, in the “information related to charging”, for example, in the charging when purchasing a product, the charging type, the date and time when the charging was performed, the type of the product purchased by charging, the number of purchases and the number of times of charging (frequency) Or various information, such as the information regarding the charge at the time of performing said game, is contained.

(3)また、本発明は、
前記イベントが、各参加者の前記観覧位置が設定された仮想3次元空間内で実施されるイベントである場合に、
前記参加者毎に、各参加者の前記仮想3次元空間内における前記観覧位置を当該各参加者に対応する仮想カメラの位置として設定し、各仮想カメラを視点として前記各参加者の視線方向に見える仮想3次元空間の画像をそれぞれ生成する画像生成手段として更に前記コンピュータを機能させ、
前記制御手段が、
前記仮想3次元空間内に設定された前記特定参加者の観覧位置に対して、前記演出オブジェクト又は前記演出装置による前記仮想3次元空間における特別な演出の実行を制御する、構成を有している。
(3) The present invention also provides:
When the event is an event performed in a virtual three-dimensional space in which the viewing position of each participant is set,
For each participant, the viewing position of each participant in the virtual three-dimensional space is set as the position of the virtual camera corresponding to each participant, and the viewing direction of each participant is viewed from each virtual camera as a viewpoint. Further causing the computer to function as image generation means for generating visible images of a virtual three-dimensional space,
The control means is
Controlling execution of a special effect in the virtual three-dimensional space by the effect object or the effect device with respect to the viewing position of the specific participant set in the virtual three-dimensional space. .

この構成により、本発明は、各参加者に仮想3次元空間内においてイベントへ参加させることができるので、時間や空間を超えて多数の参加者に当該イベントを提供することができるとともに、アイドルキャラクタの触れ合いなどの非現実的な世界(例えば、アニメーションの世界)と融合したイベントを提供することができる。   With this configuration, the present invention allows each participant to participate in an event in a virtual three-dimensional space, so that the event can be provided to many participants over time and space, and an idle character can be provided. It is possible to provide an event fused with an unreal world (for example, the world of animation) such as touching.

なお、演出オブジェクトには、例えば、アイドルなどの仮想3次元空間において演技のパフォーマンスなどの動作を行うキャラクタ、又は、予め設定されたシナリオ(RPGや推理ゲーム)に従って参加者と対峙するキャラクタ(動的だけでなく、静的なオブジェクトを含む。)など、参加者によって観察されるキャラクタであってコンピュータによって制御されるオブジェクト(キャラクタオブジェクト)が含まれる。   The effect object includes, for example, a character that performs an action such as performance in a virtual three-dimensional space such as an idol, or a character that faces a participant according to a preset scenario (RPG or reasoning game) (dynamic As well as objects that are observed by participants and controlled by a computer (character objects).

(4)また、本発明は、
前記記憶手段には、
前記仮想3次元空間に設定された各観覧位置に対応付けて、所与の実空間に設定された前記イベントに参加する前記参加者の参加位置を示す情報が参加位置情報として記憶されており、
前記制御手段が、
前記参加位置に存在する前記特定参加者の仮想3次元空間上の観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、構成を有している。
(4) The present invention also provides:
In the storage means,
In association with each viewing position set in the virtual three-dimensional space, information indicating the participation position of the participant who participates in the event set in a given real space is stored as participation position information,
The control means is
It has the structure which controls execution of the special production | presentation by the said production | presentation object or the said production | presentation apparatus with respect to the viewing position in the virtual three-dimensional space of the said specific participant who exists in the said participation position.

この構成により、本発明は、参加者を実空間上の参加位置に存在させることによって仮想3次元空間の観覧位置から当該仮想3次元空間内のイベントに参加することができるので、仮想3次元空間のイベントであってもあたかも実空間上のイベントとしての雰囲気や醍醐味を提供することができる。   With this configuration, the present invention can participate in an event in the virtual three-dimensional space from the viewing position of the virtual three-dimensional space by allowing the participant to exist at the participation position in the real space. Even if it is an event, it is possible to provide the atmosphere and excitement as an event in real space.

(5)また、本発明は、
前記画像生成手段が、
前記参加者の視界を覆う構造を有し、かつ、前記仮想3次元空間の画像を視認させる装着型画像表示装置から構成された表示手段に、受付手段によって受け付けた前記参加者の視線入力に応じて、前記生成した仮想3次元空間の画像を表示させる、構成を有している。
(5) The present invention also provides:
The image generating means
In response to the participant's line-of-sight input received by the receiving means, the display means has a structure that covers the field of view of the participant and is configured by a wearable image display device that visually recognizes the image in the virtual three-dimensional space. The generated virtual three-dimensional space image is displayed.

この構成により、本発明は、参加者の頭部の位置や姿勢に応じて変化する仮想3次元空間を仮想3次元空間に適用することができるので、参加者が実際に仮想3次元空間内でイ
ベントを体験しているような感覚を提供することができる。
With this configuration, the present invention can apply a virtual three-dimensional space that changes according to the position and posture of the participant's head to the virtual three-dimensional space. It can provide the feeling of experiencing an event.

したがって、本発明は、参加者の没入感を高めてイベントへの参加に対する興趣性を向上させることができる。   Therefore, the present invention can enhance the immersive feeling of the participants and improve the interest of participating in the event.

(6)また、本発明は、
前記参加者によって少なくとも当該参加者の実空間における視線方向の入力を視線入力として受け付ける処理を実行する受付手段、及び、
前記入力された特定参加者の視線が前記演出オブジェクト又は前記演出装置に向かっているか否かを検出する検出手段、
として前記コンピュータを機能させ、
前記制御手段が、
前記入力された特定参加者の視線が前記演出オブジェクト又は前記演出装置に向かっていることが検出された場合に、前記検出した特定参加者の観覧位置情報によって示される観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、構成を有している。
(6) The present invention also provides:
An accepting unit for executing processing for accepting at least an input of a gaze direction in the real space of the participant as a gaze input by the participant; and
Detecting means for detecting whether or not the input gaze of the specific participant is heading toward the effect object or the effect device;
Function the computer as
The control means is
When it is detected that the input line of sight of the specific participant is heading toward the effect object or the effect device, the effect is performed with respect to the viewing position indicated by the detected viewing position information of the specific participant. It has a configuration for controlling execution of a special effect by the object or the effect device.

この構成により、本発明は、特定参加者の視線が演出オブジェクト又は演出装置に向かっている場合に、演出オブジェクト又は演出装置による特別な演出を当該特定参加者に対して実行すること(すなわち、発動すること)ができるので、確実に特別な演出を当該特定参加者に提供することができる。   With this configuration, when the specific participant's line of sight is directed to the effect object or the effect device, the present invention performs a special effect by the effect object or the effect device on the specific participant (that is, activation). Therefore, it is possible to reliably provide the specific participant with a special performance.

なお、この場合におけるイベントは仮想3次元空間におけるイベントに限定する必要はなく、実空間であっても、視線方向を検出すること、及び、演出オブジェクト又は演出装置の実空間内における位置を検出することができれば、実現可能となる。   The event in this case need not be limited to the event in the virtual three-dimensional space. Even in the real space, the gaze direction is detected, and the position of the effect object or the effect device in the real space is detected. If possible, it will be feasible.

(7)また、本発明は、
前記各参加者が前記観覧位置に存在するか否かを判定する判定手段として前記コンピュータを機能させ、
前記制御手段が、
前記参加者が前記観覧位置に存在すると判定された場合に、前記イベントを開始する制御を実行する、構成を有している。
(7) The present invention also provides:
Causing the computer to function as determination means for determining whether or not each participant exists at the viewing position;
The control means is
When it is determined that the participant is present at the viewing position, control is performed to start the event.

この構成により、本発明は、参加者が観覧位置に到着するなど、当該観覧位置に存在する場合に、イベントを自動的に開始することができるので、他の参加者に依存することなく各参加者のタイミングでイベントを開始することができるとともに、時間に囚われることなく参加者を容易にイベントに参加させることができる。   With this configuration, the present invention can automatically start an event when a participant is present at the viewing position, such as when the participant arrives at the viewing position, so that each participant can participate without depending on other participants. The event can be started at the timing of the person, and the participant can easily participate in the event without being caught by time.

なお、この場合におけるイベントは仮想3次元空間におけるイベントに限定する必要はなく、実空間であっても、参加者毎にイベントを開始しても不具合のないものであれば適用可能である。   The event in this case need not be limited to the event in the virtual three-dimensional space, and can be applied to the real space or any event that does not cause a problem even if the event is started for each participant.

また、「判定手段」としては、例えば、各参加者に取り付けられたGPS、実空間の各観覧位置若しくは仮想3次元空間の観覧位置に対応する実空間の参加位置のそれぞれに設けられた人感センサ、又は、発光体の位置や深度を検出するイベント空間(実空間)内の物体検出が可能な検出システムなどの検出結果に応じて各参加者が前記観覧位置に存在するか否かを判定することができるものであればよい。   Further, as the “determination means”, for example, the GPS attached to each participant, each human position provided in each participation position in the real space corresponding to each viewing position in the real space or the viewing position in the virtual three-dimensional space It is determined whether each participant exists at the viewing position according to a detection result of a sensor or a detection system capable of detecting an object in an event space (real space) that detects the position and depth of a light emitter. Anything that can be done.

(8)また、本発明は、
前記イベント中に当該イベントの画像を前記記憶手段に記憶する記憶制御手段として前
記コンピュータを機能させ、
前記記憶制御手段が、
前記イベントの画像の記憶中であって、前記演出オブジェクト又は前記演出装置が前記特別の演出を実行しているときに、当該特別の演出の提供先となる観覧位置を示す情報又は当該観覧位置に関する情報を、前記記憶されているイベントの画像に対応付けて前記記憶手段に記憶する、構成を有している。
(8) The present invention also provides:
Causing the computer to function as storage control means for storing an image of the event in the storage means during the event;
The storage control means is
When the image of the event is being stored and the effect object or the effect device is executing the special effect, the information indicating the viewing position to which the special effect is provided or the viewing position The information is stored in the storage unit in association with the stored image of the event.

この構成により、本発明は、イベントの画像を再生する際に、特別の演出の実行タイミングに合わせて当該特別の演出の提供先となる観覧位置(例えば、座席などの列及び番号を示す観覧位置番号)や当該観覧位置の観覧位置情報に対応付けられた参加者の情報(参加者の識別情報、氏名若しくは属性、又は、予め各参加者に付与されたニックネームなど)を提供することができるので、イベント時とは異なった興趣を提供することができる。   With this configuration, the present invention can provide a viewing position (for example, a viewing position indicating a column and a number of a seat or the like) that is a destination for providing the special effect in accordance with the execution timing of the special effect when the event image is reproduced. No.) and participant information (participant identification information, name or attribute, or nickname assigned to each participant in advance) associated with the viewing position information of the viewing position can be provided. , Can provide a different interest than the event.

したがって、本発明は、イベントを様々な角度から興趣させることができるので、このようなイベントにおけるコンテンツとしての魅力を高め、イベント自体を活性化することができる。   Therefore, according to the present invention, an event can be interesting from various angles, so that the attractiveness as content in such an event can be enhanced and the event itself can be activated.

なお、観覧位置や参加者の情報の提供としては、画像内に重畳したテロップや吹き出しなどによって提供されてもよいし、文字情報の他に、参加者の顔や予め登録した画像から構成されるサムネイル画像などの画像情報によって提供してもよい。   The viewing position and the participant information may be provided by a telop or a balloon superimposed on the image, or may be composed of the participant's face or a pre-registered image in addition to the character information. You may provide by image information, such as a thumbnail image.

また、「イベント中に記憶されるイベントの画像」としては、仮想3次元空間においては、各参加者の仮想カメラの画像そのものであってもよいし、複数の仮想カメラを切り換えて編集された画像であってもよく、実空間においては、単体又は複数の撮像カメラによって撮像された画像(複数の撮像された各画像が編集された画像を含む。)であってもよい。   The “event image stored during the event” may be an image of each participant's virtual camera itself in the virtual three-dimensional space, or an image edited by switching a plurality of virtual cameras. In real space, it may be an image (including an image obtained by editing each of the plurality of captured images) captured by a single or a plurality of imaging cameras.

(9)また、上記課題を解決するため、本発明は、
イベントに参加する複数の参加者の識別情報のそれぞれに対応付けて、各参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段、及び、
前記抽出された特定参加者の識別情報御及び前記記憶されている観覧位置情報に基づいて、前記イベントの演出に用いられる演出オブジェクト又は演出装置による特別な演出を提供する提供先となる特定参加者の観覧位置を通知する通知手段を制御する通知制御手段、
として機能させる構成を有している。
(9) In order to solve the above problems, the present invention provides:
First registration means for registering, in the storage means, behavior information indicating behavior related to the event of each participant in association with identification information of a plurality of participants participating in the event,
Second registration means for registering in the storage means viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant;
Based on the registered behavior information of each participant, an extraction means for extracting a specific participant as a specific participant from a plurality of participants, and
Based on the extracted identification information of the specific participant and the stored viewing position information, the specific participant serving as a providing destination for providing a special effect by the effect object or effect device used for the event Notification control means for controlling the notification means for notifying the viewing position of
It has the structure which functions as.

この構成により、本発明は、複数の参加者が参加したイベント中に、演出オブジェクトや演出装置によって、特定の個人を対象とした特別な演出を実施させることができるとともに、当該特別な演出の実行の対象となる参加者については、例えば、過去の同一若しくは特別なイベントに参加した参加者、イベントに関する特定の商品を購入した参加者、又は、イベントに関して一定以上の累積的な課金を実行した参加者など各参加者の行動情報から抽出することができる。   With this configuration, the present invention can cause a special effect for a specific individual to be implemented by a production object or a production device during an event in which a plurality of participants participate, and execute the special production. Participants who are eligible for the event, for example, participants who participated in the same or special event in the past, participants who purchased a specific product related to the event, or participants who performed a cumulative charge over a certain amount related to the event It can be extracted from the behavior information of each participant such as a person.

したがって、本発明は、例えば、多くのイベントに参加すれば、特定の商品を購入すれば、又は、一定以上の課金を実行すれば、複数の参加者が参加している中で特定の参加者に対して特別な演出を提供させることができるので、各参加者に対して、イベントに繰り
返し参加するためのモチベーションを維持又は向上させることができるとともに、イベントに参加することによる興趣を提供するだけでなく、当該イベントに参加するまでの過程についても興趣を提供することができる。
Therefore, the present invention is, for example, a specific participant among a plurality of participants who participate in many events, purchase a specific product, or execute charging more than a certain amount. As a special performance can be provided, the motivation to participate repeatedly in the event can be maintained or improved for each participant, and only the interest by participating in the event is provided. In addition, it can provide interest in the process up to participation in the event.

(10)また、上記課題を解決するため、本発明は
複数の参加者が参加するイベントの演出に用いられる演出オブジェクト又は演出装置を制御する制御手段と、
前記参加者の識別情報に対応付けて当該参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段と、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段と、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段と、
を備え、
前記制御手段が、
前記抽出された特定参加者の識別情報に基づいて当該特定参加者の観覧位置情報を特定し、
当該特定した観覧位置情報によって示される観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、構成を有している。
(10) Moreover, in order to solve the said subject, this invention is a control means which controls the production | presentation object used for production of the event in which a some participant participates, or a production apparatus,
First registration means for registering in the storage means behavior information indicating behavior related to the event of the participant in association with the identification information of the participant;
Second registration means for registering viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant in the storage means;
An extracting means for extracting a specific participant as a specific participant from a plurality of participants based on the registered behavior information of each participant;
With
The control means is
Based on the extracted identification information of the specific participant, specifying the viewing position information of the specific participant,
It has a configuration for controlling execution of a special effect by the effect object or the effect device with respect to the viewing position indicated by the specified viewing position information.

この構成により、本発明は、複数の参加者が参加したイベント中に、演出オブジェクトや演出装置によって、特定の個人を対象とした特別な演出を実施させることができるとともに、当該特別な演出の実行の対象となる参加者については、例えば、過去の同一若しくは特別なイベントに参加した参加者、イベントに関する特定の商品を購入した参加者、又は、イベントに関して一定以上の累積的な課金を実行した参加者など各参加者の行動情報から抽出することができる。   With this configuration, the present invention can cause a special effect for a specific individual to be implemented by a production object or a production device during an event in which a plurality of participants participate, and execute the special production. Participants who are eligible for the event, for example, participants who participated in the same or special event in the past, participants who purchased a specific product related to the event, or participants who performed a cumulative charge over a certain amount related to the event It can be extracted from the behavior information of each participant such as a person.

したがって、本発明は、例えば、多くのイベントに参加すれば、特定の商品を購入すれば、又は、一定以上の課金を実行すれば、複数の参加者が参加している中で特定の参加者に対して特別な演出を提供させることができるので、各参加者に対して、イベントに繰り返し参加するためのモチベーションを維持又は向上させることができるとともに、イベントに参加することによる興趣を提供するだけでなく、当該イベントに参加するまでの過程についても興趣を提供することができる。   Therefore, the present invention is, for example, a specific participant among a plurality of participants who participate in many events, purchase a specific product, or execute charging more than a certain amount. As a special performance can be provided, the motivation to participate repeatedly in the event can be maintained or improved for each participant, and only the interest by participating in the event is provided. In addition, it can provide interest in the process up to participation in the event.

(11)また、上記課題を解決するため、本発明は
イベントに参加する複数の参加者の識別情報のそれぞれに対応付けて、各参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段と、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段と、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段と、
前記抽出された特定参加者の識別情報御及び前記記憶されている観覧位置情報に基づいて、前記イベントの演出に用いられる演出オブジェクト又は演出装置による特別な演出を提供する提供先となる特定参加者の観覧位置を通知する通知手段を制御する通知制御手段と
を備える構成を有している。
(11) Moreover, in order to solve the said subject, this invention matches with each of the identification information of the some participant who participates in an event, and memorize | stores the behavior information which shows the action relevant to the said event of each participant First registration means for registering with
Second registration means for registering viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant in the storage means;
An extracting means for extracting a specific participant as a specific participant from a plurality of participants based on the registered behavior information of each participant;
Based on the extracted identification information of the specific participant and the stored viewing position information, the specific participant serving as a providing destination for providing a special effect by the effect object or effect device used for the event A notification control means for controlling the notification means for notifying the viewing position.

この構成により、本発明は、複数の参加者が参加したイベント中に、演出オブジェクトや演出装置によって、特定の個人を対象とした特別な演出を実施させることができるとともに、当該特別な演出の実行の対象となる参加者については、例えば、過去の同一若しく
は特別なイベントに参加した参加者、イベントに関する特定の商品を購入した参加者、又は、イベントに関して一定以上の累積的な課金を実行した参加者など各参加者の行動情報から抽出することができる。
With this configuration, the present invention can cause a special effect for a specific individual to be implemented by a production object or a production device during an event in which a plurality of participants participate, and execute the special production. Participants who are eligible for the event, for example, participants who participated in the same or special event in the past, participants who purchased a specific product related to the event, or participants who performed a cumulative charge over a certain amount related to the event It can be extracted from the behavior information of each participant such as a person.

したがって、本発明は、例えば、多くのイベントに参加すれば、特定の商品を購入すれば、又は、一定以上の課金を実行すれば、複数の参加者が参加している中で特定の参加者に対して特別な演出を提供させることができるので、各参加者に対して、イベントに繰り返し参加するためのモチベーションを維持又は向上させることができるとともに、イベントに参加することによる興趣を提供するだけでなく、当該イベントに参加するまでの過程についても興趣を提供することができる。   Therefore, the present invention is, for example, a specific participant among a plurality of participants who participate in many events, purchase a specific product, or execute charging more than a certain amount. As a special performance can be provided, the motivation to participate repeatedly in the event can be maintained or improved for each participant, and only the interest by participating in the event is provided. In addition, it can provide interest in the process up to participation in the event.

本発明に係るイベント演出制御システムの第1実施形態における概要構成を示す構成図である。It is a block diagram which shows the schematic structure in 1st Embodiment of the event presentation control system which concerns on this invention. 第1実施形態のイベントの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the event of 1st Embodiment. 第1実施形態におけるサーバ装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the server apparatus in 1st Embodiment. 第1実施形態における端末装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the terminal device in 1st Embodiment. 第1実施形態における端末装置の外観構成を示す図の一例である。It is an example of the figure which shows the external appearance structure of the terminal device in 1st Embodiment. 第1実施形態における仮想イベントにおける観覧位置及び実空間イベント開催場所の関係性について説明するための図である。It is a figure for demonstrating the relationship between the viewing position and the real space event holding place in the virtual event in 1st Embodiment. 第1実施形態における特別演出制御処理について説明するための図(その1)である。It is FIG. (1) for demonstrating the special effect control process in 1st Embodiment. 第1実施形態における特別演出制御処理について説明するための図(その2)である。It is FIG. (2) for demonstrating the special effect control process in 1st Embodiment. 第1実施形態のサーバ装置によって実行される特別演出制御処理を含む仮想イベントにおける実行処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the execution process in the virtual event including the special effect control process performed by the server apparatus of 1st Embodiment. 本発明に係るイベント演出制御システムの第2実施形態における構成例を説明するための図である。It is a figure for demonstrating the structural example in 2nd Embodiment of the event presentation control system which concerns on this invention. 第22実施形態における本発明に係るイベント演出制御システムの変形例を説明するための図である。It is a figure for demonstrating the modification of the event effect control system which concerns on this invention in 22nd Embodiment.

以下、実施形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, embodiments will be described. The embodiments described below do not unduly limit the contents of the present invention described in the claims. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

[A]第1実施形態
はじめに、本発明におけるイベント演出制御システムの第1実施形態について説明する。なお、本実施形態は、複数の参加者に対して装着型画像表示装置としてHMD(ヘッドマウントディスプレイ)を装着させつつ、仮想3次元空間内でイベントを実行させるシステムに対し、本発明に係るイベント演出制御システム及びプログラムを適用した場合の実施形態である。
[A] First Embodiment First, a first embodiment of the event effect control system according to the present invention will be described. Note that this embodiment provides an event according to the present invention for a system in which an event is executed in a virtual three-dimensional space while wearing a HMD (head mounted display) as a wearable image display device for a plurality of participants. It is embodiment at the time of applying a production control system and a program.

[A1]イベント演出制御システム(仮想空間)
[A1.1]概要
まず、図1を用いて本実施形態のイベント演出制御システム1の概要及び概要構成について説明する。なお、図1は、本実施形態のイベント演出制御システム1の構成を示すシステム構成の一例を示す図である。
[A1] Event production control system (virtual space)
[A1.1] Outline First, the outline and outline structure of the event effect control system 1 of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a system configuration showing the configuration of the event presentation control system 1 of the present embodiment.

本実施形態のイベント演出制御システム1は、バーチャル空間内において、参加者毎に
参加者キャラクタ(以下、「アバター」という。)を登場させて、かつ、あたかも参加者の周囲に存在するかのごとく認知させるVR体験(仮想現実体験)をイベント(以下、「仮想イベント」という。)として提供するシステムである。
The event presentation control system 1 of the present embodiment makes a participant character (hereinafter referred to as “avatar”) appear for each participant in the virtual space, and as if it exists around the participant. This is a system that provides a VR experience (virtual reality experience) to be recognized as an event (hereinafter referred to as “virtual event”).

特に、本実施形態のイベント演出制御システム1は、例えば、参加者が仮想3次元アイドル(いわゆる、参加者によって注視されるキャラクタオブジェクトであって、仮想3次元空間で所定の演出を行うキャラクタ(以下、「演技キャラクタ」という。))のファンの一人として、仮想の演技パフォーマンス(具体的には、歌唱ライブ)を行うライブステージ(以下、「ステージ」ともいう。)を観覧することをテーマとする3次元立体視可能なシミュレーションを仮想イベントとして提供する構成を有している。   In particular, the event effect control system 1 of the present embodiment is a character (hereinafter referred to as a character object that is a virtual object in a virtual three-dimensional space where a participant is a virtual three-dimensional idol (a so-called character object watched by a participant). As a fan of "acting characters"))), the theme is to view a live stage (hereinafter also referred to as "stage") that performs virtual acting performance (specifically, singing live) It has a configuration that provides a simulation capable of three-dimensional stereoscopic viewing as a virtual event.

すなわち、本実施形態のイベント演出制御システム1は、演技キャラクタとしては、仮想3次元空間の参加者に向けて(すなわち、仮想カメラの位置に向けて)視線を送る動作又は当該参加者に対して特別に提供される行動(演技キャラクタと参加者がアイドルとファンとの関係性を有する場合に参加者に向けたファンサービスの行動、以下、「ファンサービス」という。)などを実行する演技キャラクタを注視することを含むイベントを提供する構成を有している。   In other words, the event effect control system 1 of the present embodiment has an action of sending a line of sight toward the participant in the virtual three-dimensional space (that is, toward the position of the virtual camera) or acting on the participant as the acting character. Acting characters that perform specially provided actions (acting fan services for participants when the acting characters and participants have a relationship between idols and fans, hereinafter referred to as “fan services”), etc. It has a configuration for providing an event including gaze.

また、イベント演出制御システム1は、
(1)参加者の視界を覆う構造を有し、かつ、仮想3次元空間の画像を視認させるHMD(装着型画像表示装置)に、生成した仮想3次元空間の画像を3D表示させ、
(2)当該HMDの姿勢に基づいて仮想カメラを制御し、
(3)当該HMDに設けられた検出手段によって検出された等がHMDを装着した参加者の視線方向を含む当該参加者の入力を受け付けて
イベントを進行させる構成を有している。
In addition, the event production control system 1
(1) The generated virtual 3D space image is displayed in 3D on an HMD (wearable image display device) having a structure that covers the field of view of the participant and visually recognizing the virtual 3D space image,
(2) Control the virtual camera based on the attitude of the HMD,
(3) The event detected by the detecting means provided in the HMD, etc., accepts the participant's input including the visual line direction of the participant wearing the HMD and advances the event.

具体的には、イベント演出制御システム1は、図1に示すように、仮想3次元空間内における仮想イベントを実現するための各種の処理を実行するサーバ装置10と、参加者によって装着されるHMDを有し、ネットワークを介してサーバ装置10から送信されてくるデータを用いて参加者に仮想3次元空間におけるイベントを体験させる端末装置20(例えば、端末装置20A、20B、20C)とが、インターネットなどのネットワークに接続可能に構成されている。   Specifically, as shown in FIG. 1, the event presentation control system 1 includes a server device 10 that executes various processes for realizing a virtual event in a virtual three-dimensional space, and an HMD that is worn by a participant. And a terminal device 20 (for example, terminal devices 20A, 20B, and 20C) that allows a participant to experience an event in a virtual three-dimensional space using data transmitted from the server device 10 via a network. It can be connected to the network.

サーバ装置10は、例えば、API(アプリケーションプログラミングインタフェース)や所定のプラットフォーム等を利用して実行される仮想イベントを実現するための各種の処理を実行する情報処理装置である。   The server device 10 is an information processing device that executes various processes for realizing a virtual event executed using, for example, an API (Application Programming Interface) or a predetermined platform.

また、サーバ装置10は、1つの(装置、プロセッサ)で構成されていてもよいし、複数の(装置、プロセッサ)で構成されていてもよい。   Further, the server device 10 may be configured by one (device, processor) or may be configured by a plurality (device, processor).

そして、サーバ装置10の記憶領域(後述する記憶部140)に記憶される課金情報、参加者情報等の各情報を、ネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよいし、記憶領域に記憶されるイベント情報等の情報を、ネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。   A database (storage device in a broad sense) is connected to each information such as billing information and participant information stored in a storage area (storage unit 140 described later) of the server device 10 via a network (intranet or the Internet). Or information such as event information stored in the storage area may be stored in a database (storage device or memory in a broad sense) connected via a network (intranet or the Internet). You may make it do.

特に、サーバ装置10は、端末装置20のユーザ(すなわち、仮想イベントに参加する参加者)の操作(参加者入力)に基づく入力情報を受信し、受信した入力情報に基づいて仮想3次元空間における仮想イベントを実現するための処理を行うようになっている。   In particular, the server device 10 receives input information based on an operation (participant input) of a user of the terminal device 20 (that is, a participant who participates in a virtual event), and in the virtual three-dimensional space based on the received input information. Processing for realizing a virtual event is performed.

そして、サーバ装置10は、イベントが実行させる空間(すなわち、イベント空間)が3次元画像化された画像(当該画像を表示するためのデータを含む。)やイベント実行処理に関する各データを端末装置20に送信する。   Then, the server device 10 receives the data (including data for displaying the image) in which the space (that is, the event space) to be executed by the event is converted into a three-dimensional image and each data related to the event execution process, from the terminal device 20. Send to.

端末装置20は、HMDユニット200及び端末制御ユニット300を有し、イベント空間が仮想3次元画像化された画像を表示しつつ、仮想3次元空間において演技パフォーマンスなどを提供する仮想3次元空間における仮想イベントを体験させるための装置である。   The terminal device 20 includes an HMD unit 200 and a terminal control unit 300. The terminal device 20 displays an image obtained by converting the event space into a virtual three-dimensional image, and provides performance performance and the like in the virtual three-dimensional space. It is a device for experiencing events.

また、端末装置20は、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム装置機等、画像生成装置などの情報処理装置によって構成され、インターネット(WAN)、LANなどのネットワークを介してサーバ装置10に接続可能な装置である。なお、端末装置20とサーバ装置10との通信回線は、有線でもよいし無線でもよい。   The terminal device 20 is configured by an information processing device such as an image generation device such as a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, or a portable game device, and a network such as the Internet (WAN) or a LAN. It is a device that can be connected to the server device 10 via the network. The communication line between the terminal device 20 and the server device 10 may be wired or wireless.

また、端末装置20は、サーバ装置10との通信を行うための通信制御機能、及び、サーバ装置10から受信したデータを用いて表示制御を行うとともに、参加者によって入力された操作情報をサーバ装置10に送信する機能などを備える構成を有している。   In addition, the terminal device 20 performs display control using a communication control function for performing communication with the server device 10 and data received from the server device 10, and the operation information input by the participant is displayed on the server device. 10 and the like.

そして、端末装置20は、サーバ装置10から送信されてくる各情報に基づいて仮想イベントを参加者に提供する構成を有している。   And the terminal device 20 has a structure which provides a participant with a virtual event based on each information transmitted from the server apparatus 10. FIG.

[A1.2]仮想イベントの説明
次に、図2を用いてVR体験としての本実施形態によって実現する仮想イベントの概要を説明する。なお、図2は、本実施形態の仮想イベントの概要を説明するための図である。
[A1.2] Description of Virtual Event Next, an outline of a virtual event realized by the present embodiment as a VR experience will be described with reference to FIG. FIG. 2 is a diagram for explaining the outline of the virtual event of the present embodiment.

仮想3次元空間11は、例えば、図2(A)に示すように、VR空間(仮想3次元空間)として構築されており、当該仮想3次元空間11には、ライブステージの演技場であるステージ4と、アバターとしてのアバター5が配置される複数の観覧席6とが設けられている。   For example, as shown in FIG. 2A, the virtual three-dimensional space 11 is constructed as a VR space (virtual three-dimensional space). The virtual three-dimensional space 11 includes a stage that is a live stage performance hall. 4 and a plurality of bleachers 6 on which avatars 5 as avatars are arranged.

そして、NPC(ノンアバター)であるアイドルキャラクタ8(演技キャラクタ)がステージで演技し、参加者2は、アバター5を介して、アイドルキャラクタ8の演技を注視することができるようになっている。   An idle character 8 (acting character), which is an NPC (non-avatar), acts on the stage, and the participant 2 can watch the performance of the idle character 8 via the avatar 5.

ライブステージの内容は、楽曲の歌唱や、楽器の演奏、ダンス、大道芸などのライブパフォーマンスであり、例えば、本実施形態では、振り付けがある歌唱曲を歌うライブパフォーマンスが実行されるようになっている。   The content of the live stage is a live performance such as song singing, musical instrument performance, dance, street performance, etc. For example, in this embodiment, a live performance is performed to sing a song with choreography. .

ステージ4は、例えば、野外ステージ、コンサートホール、ライブハウスなど適宜設定可能である。また、仮想イベント内容によっては、学校の体育館の舞台、教室の教壇、トラックの荷台、甲板などのシチュエーションを設定することが可能である。   The stage 4 can be set as appropriate, for example, an outdoor stage, a concert hall, or a live house. In addition, depending on the contents of the virtual event, it is possible to set situations such as a school gymnasium stage, classroom platform, truck bed, deck, etc.

観覧席6は、ライブステージを観覧する観覧位置であり、1つのライブステージの会場において、1席1名で多数用意されている。そして、観覧席6の配置レイアウトは、ステージ4のデザインに応じて適宜設定可能となっている。なお、図2(A)は、観覧席6が立ち見席として設定されている例を示す。ただし、着席タイプであってもよい。   The viewing seat 6 is a viewing position for viewing the live stage, and a large number of people are prepared for each seat at one live stage venue. The arrangement layout of the auditorium 6 can be appropriately set according to the design of the stage 4. FIG. 2A shows an example in which the viewing seat 6 is set as a standing seat. However, it may be a seating type.

また、観覧席6は、仮想イベント毎に参加者に割り当てられており、観覧席6の各席は、参加者のIDと対応付けられて、サーバ装置10に観覧席情報として記憶されている。特に、本実施形態においては、参加者は、実空間におけるコンサートホール、多目的ホール又は映画館などの特定の場所(以下、「実空間イベント開催場所」という。)7に来場して仮想3次元空間におけるイベントに参加することが前提であり、そのため、観覧席6の各席は、実空間イベント開催場所7の各席に対応付けられている。ただし、仮想イベントにおいては、実空間における特定の場所に来場せずに端末装置20さえ用いることができれば何れの場所であっても参加することが可能であってもよい。   The seats 6 are assigned to the participants for each virtual event, and each seat of the seats 6 is associated with the ID of the participant and stored as the seat information in the server device 10. In particular, in this embodiment, a participant visits a specific place (hereinafter referred to as “real space event holding place”) 7 such as a concert hall, a multipurpose hall, or a movie theater in a real space, and is in a virtual three-dimensional space. Therefore, each seat of the auditorium 6 is associated with each seat of the real space event holding place 7. However, in the virtual event, it may be possible to participate in any place as long as the terminal device 20 can be used without visiting a specific place in the real space.

そして、観覧席6には、アイドルのファンとしての役割を有するアバター5が配置され、参加者は、外観、容姿又はアイテムなどが設定された少なくとも何れか1体のアバター5と対応づけて仮想イベントに参加する。   An avatar 5 having a role as an idol fan is arranged in the auditorium 6, and a participant is associated with at least one of the avatars 5 whose appearance, appearance, items, etc. are set in association with a virtual event. I will participate in.

演技を行うアイドルキャラクタ8の性別・年齢・人数の構成は適宜設定可能である。特に、本実施形態では、アイドルキャラクタ8は、図2(A)に示すように、第1アイドルキャラクタ(第1演技キャラクタ)8Aと第2アイドルキャラクタ(第2演技キャラクタ)8Bとの2人組から構成されている。ただし、1人で構成されていてもよいし、3人以上の複数人によるグループによって構成されていてもよい。   The composition of the sex, age, and number of the idle characters 8 performing the performance can be set as appropriate. In particular, in the present embodiment, as shown in FIG. 2A, the idle character 8 is composed of a pair of a first idle character (first acting character) 8A and a second idle character (second acting character) 8B. It is configured. However, it may be composed of one person or a group of three or more persons.

各アバター5は、例えば、図2(B)に示すように、参加者2に装着されたHMDユニット200によって検出された参加者の動作に同期し、かつ、リンクするように自動制御される。   For example, as shown in FIG. 2B, each avatar 5 is automatically controlled so as to be synchronized with and linked to the action of the participant detected by the HMD unit 200 attached to the participant 2.

具体的には、アバター5の頭部の姿勢が、HMDユニット200によって検出された参加者2の頭部姿勢に同期し、HMDユニット200によって検出された参加者の視線方向に基づいて、アバター5の視線が同期し、これらの参加者入力に基づいて、仮想3次元空間11内のアバター5が自動制御される。   Specifically, the posture of the head of the avatar 5 is synchronized with the head posture of the participant 2 detected by the HMD unit 200, and the avatar 5 is based on the line-of-sight direction of the participant detected by the HMD unit 200. Are synchronized, and the avatar 5 in the virtual three-dimensional space 11 is automatically controlled based on these participant inputs.

仮想3次元空間11内のアバター5の位置には、撮影画角や被写界深度が人の視野角相当に設定された右眼用及び左眼用の仮想カメラが頭部正面を向くように設定されており、それらで撮影した画像が、HMDユニット200(具体的には、後述する右目用表示パネル261及び左目用表示パネル262)にそれぞれ表示される。したがって、参加者2は、頭の向きや姿勢、及び、視線方向を変えることで、アバター5の目を介して仮想3次元空間11の画像を3次元画像として視認することができるようになっている。   At the position of the avatar 5 in the virtual three-dimensional space 11, the virtual cameras for the right eye and the left eye, in which the shooting angle of view and the depth of field are set to be equivalent to the viewing angle of the person, face the front of the head. The images that have been set and photographed with these are displayed on the HMD unit 200 (specifically, a right-eye display panel 261 and a left-eye display panel 262 described later), respectively. Therefore, the participant 2 can visually recognize the image in the virtual three-dimensional space 11 as a three-dimensional image through the eyes of the avatar 5 by changing the head direction, posture, and line-of-sight direction. Yes.

なお、観覧席6には、各席にそれぞれ、各参加者に対応付けられたアバター5が配置される。ただし、アバター5が配置されない観覧席6であっても、NPCが自動的に配置され、コンピュータによりアイドルのファンとしての行動をとるように自動制御される。   In addition, in the seating area 6, an avatar 5 associated with each participant is arranged in each seat. However, even in the bleacher seat 6 where the avatar 5 is not arranged, the NPC is automatically arranged and is automatically controlled by the computer so as to act as an idol fan.

また、本実施形態の仮想イベントにおいては、各参加者に提供される仮想3次元画像には、各参加者に対応付けられたアバター5を表示させてもよいし、表示させて無くてもよく、他の参加者のアバター5に対しても、同様に、参加者に提供される3次元画像には、表示させてもよいし、表示させて無くてもよい。   In the virtual event of this embodiment, the avatar 5 associated with each participant may or may not be displayed in the virtual three-dimensional image provided to each participant. Similarly, for the avatars 5 of other participants, the three-dimensional images provided to the participants may be displayed or may not be displayed.

[A2]サーバ装置
まず、図3を用いて本実施形態のサーバ装置10の概要及び構成について説明する。なお、図3は、本実施形態のサーバ装置10の機能ブロックを示す図である。また、本実施形態のサーバ装置10は図3の構成要素(各部)の一部を省略した構成としてもよい。
[A2] Server Device First, the outline and configuration of the server device 10 of this embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating functional blocks of the server device 10 according to the present embodiment. Moreover, the server apparatus 10 of this embodiment is good also as a structure which abbreviate | omitted a part of component (each part) of FIG.

サーバ装置10は、仮想3次元空間における仮想イベントを提供するための処理を実行
するサーバ処理部100、管理者やその他の入力に用いるための入力部120、所定の表示を行う表示部130、仮想イベント及び各参加者のデータを記憶する記憶部140、所定の情報が記憶された情報記憶媒体180、及び、端末装置20やその他と通信を行う通信部196を含む。
The server device 10 includes a server processing unit 100 that executes a process for providing a virtual event in a virtual three-dimensional space, an input unit 120 for use by an administrator and other inputs, a display unit 130 that performs a predetermined display, a virtual A storage unit 140 that stores events and data of each participant, an information storage medium 180 that stores predetermined information, and a communication unit 196 that communicates with the terminal device 20 and others are included.

入力部120は、システム管理者等が仮想イベントに関する設定やその他の必要な設定、データの入力に用いるものである。例えば、本実施形態の入力部120は、マウスやキーボード等によって構成される。   The input unit 120 is used by a system administrator or the like for settings related to virtual events, other necessary settings, and data input. For example, the input unit 120 of this embodiment is configured with a mouse, a keyboard, and the like.

表示部130は、システム管理者用の操作画面を表示するものである。例えば、本実施形態の表示部130は、液晶ディスプレイ等によって構成される。   The display unit 130 displays an operation screen for the system administrator. For example, the display unit 130 of the present embodiment is configured by a liquid crystal display or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などによって構成される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Or a memory (ROM) or the like.

通信部196は、外部(例えば、端末、他のサーバや他のネットワークシステム)との間で通信を行うための各種制御を行うデバイスであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどによって構成される。   The communication unit 196 is a device that performs various controls for communicating with the outside (for example, a terminal, another server, or another network system), and functions as hardware such as various processors or a communication ASIC. Hardware and programs.

記憶部140は、サーバ処理部100や通信部196などのワーク領域となるもので、その機能は、RAM(VRAM)などによって構成される。なお、記憶部140に記憶される情報は、データベースで管理してもよい。また、例えば、記憶部140は、本発明の記憶手段を構成する。   The storage unit 140 serves as a work area for the server processing unit 100, the communication unit 196, and the like, and its function is configured by a RAM (VRAM) or the like. Note that information stored in the storage unit 140 may be managed in a database. For example, the storage unit 140 constitutes a storage unit of the present invention.

また、本実施形態においては、記憶部140には、ワーク領域として使用される主記憶部1142、提供する仮想イベントにおける演出に関する演出情報144、各参加者に関する参加者情報146、観覧席6の情報を示す観覧席情報148、並びに、仮想イベント中の各仮想カメラを視点とした画像(以下、「仮想カメラ画像」という。)などのイベントに関する画像(以下、「イベント画像」という。)149が記憶される。ただし、記憶部140には、上述の情報の他に、イベント演算に必要な各種の情報が記憶される。   Further, in the present embodiment, the storage unit 140 includes a main storage unit 1422 used as a work area, production information 144 related to effects in a virtual event to be provided, participant information 146 related to each participant, and information on the bleachers 6. And image (hereinafter referred to as “event image”) 149 relating to an event such as an image (hereinafter referred to as “virtual camera image”) from the viewpoint of each virtual camera in the virtual event. Is done. However, the storage unit 140 stores various types of information necessary for event calculation in addition to the above-described information.

特に、参加者情報146には、参加者毎に参加者IDに対応付けて、氏名、年齢、性別及び課金決済を行う口座情報などの参加者特定情報、及び、アバター情報を含む。そして、アバター情報には、基本形状(人、動物又はロボットなどの基本造形(サイズも含む。)、髪型や化粧などの容姿(色彩も含む。)、髪型)、及び、所有するアイテム(衣装、装飾品、所持品(タオルやサイリウム))などのアバターを設定するための各情報が含まれる。   In particular, the participant information 146 includes participant identification information such as name information, age, sex, and account information for performing payment settlement, and avatar information in association with a participant ID for each participant. The avatar information includes basic shapes (basic shapes (including sizes) of people, animals, robots, etc.), appearances (including colors) of hairstyles and makeup, hairstyles), and items (costumes, Each piece of information for setting avatars such as ornaments and personal belongings (towels and psyllium) is included.

また、参加者情報146には、過去の仮想イベントの参加や当該仮想イベントに関する商品の購入などイベントに関連した各参加者の行動を示す各行動情報がリスト化された行動履歴情報、各参加者において行動に伴って課金をした際の課金状況を示す課金情報がリスト化された課金履歴情報、及び、仮想イベントに参加する際の実空間イベント開催場所の観覧位置を示す観覧位置情報が含まれる。   In addition, the participant information 146 includes behavior history information in which behavior information indicating behavior of each participant related to the event, such as participation of a past virtual event or purchase of a product related to the virtual event, is listed, and each participant Includes billing history information in which billing information indicating the billing status at the time of billing in accordance with behavior is listed, and viewing position information indicating a viewing position of a real space event holding place when participating in a virtual event .

そして、課金履歴情報には、課金が実行された日時を示す課金日時、仮想イベントに関するアイテムの購入や仮想イベントにおいて用いるお捻りの購入などの課金要素の種別、課金した額を示す課金額などが含まれる。   The billing history information includes a billing date and time indicating the date and time when billing was performed, a type of billing element such as purchase of an item related to a virtual event or a twist used in a virtual event, a billing amount indicating a billed amount, etc. included.

一方、観覧席情報148には、実空間イベント開催場所7の各席と仮想イベントの観覧席6の各席が対応付けられたテーブルデータが含まれる。   On the other hand, the seat information 148 includes table data in which each seat of the real space event holding place 7 and each seat of the virtual event viewing seat 6 are associated with each other.

サーバ処理部100は、記憶部140内の主記憶部142をワーク領域として各種処理を行う。サーバ処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The server processing unit 100 performs various processes using the main storage unit 142 in the storage unit 140 as a work area. The functions of the server processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

サーバ処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The server processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

例えば、サーバ処理部100(プロセッサ)は、情報記憶媒体180に記憶されているプログラムに基づいて、サーバ装置10全体の制御を行うとともに、仮想イベントの実行を制御する処理、特別演出制御処理、画像生成処理、或いは音生成処理などの処理を行う。   For example, the server processing unit 100 (processor) controls the entire server device 10 based on a program stored in the information storage medium 180, and controls the execution of a virtual event, a special effect control process, an image Processing such as generation processing or sound generation processing is performed.

また、サーバ処理部100は、仮想イベントの実行を制御する処理として、仮想イベント開始条件が満たされた場合に仮想イベントを開始する処理、仮想イベントを進行させる処理、キャラクタやマップなどのオブジェクト空間(3次元空間)に各種のオブジェクトを配置する処理、オブジェクトを表示する処理、仮想イベント結果を演算する処理、或いは仮想イベント終了条件が満たされた場合に仮想イベントを終了する処理を実行する。   Further, the server processing unit 100 controls the execution of a virtual event as a process for starting a virtual event when a virtual event start condition is satisfied, a process for advancing a virtual event, an object space such as a character or a map ( A process of arranging various objects in a (three-dimensional space), a process of displaying an object, a process of calculating a virtual event result, or a process of ending a virtual event when a virtual event end condition is satisfied is executed.

具体的には、本実施形態のサーバ処理部100は、通信制御部101、ユーザ管理部102、情報取得部104、参加者行動管理部105、イベント制御部110、仮想カメラ制御部106と、音生成部107、画像生成部108、画像編集再生部109及びタイマ部160を少なくとも有している。   Specifically, the server processing unit 100 according to the present embodiment includes a communication control unit 101, a user management unit 102, an information acquisition unit 104, a participant behavior management unit 105, an event control unit 110, a virtual camera control unit 106, and a sound. It has at least a generation unit 107, an image generation unit 108, an image editing / playback unit 109, and a timer unit 160.

なお、例えば、本実施形態のイベント制御部110は、本発明の抽出手段、制御手段、判定手段及び検出手段を構成し、情報取得部104は、本発明の受付手段を構成する。また、例えば、本実施形態の参加者行動管理部105は、本発明の第1登録手段及び第2登録手段を構成し、画像生成部108は、本発明の画像生成手段を構成する。さらに、例えば、本実施形態の画像編集再生部109は、本発明の記憶制御手段を構成する。   For example, the event control unit 110 of the present embodiment constitutes an extraction unit, a control unit, a determination unit, and a detection unit of the present invention, and the information acquisition unit 104 constitutes a reception unit of the present invention. Further, for example, the participant behavior management unit 105 of the present embodiment constitutes a first registration unit and a second registration unit of the present invention, and the image generation unit 108 constitutes an image generation unit of the present invention. Furthermore, for example, the image editing / playback unit 109 of this embodiment constitutes a storage control unit of the present invention.

通信制御部101は、端末装置20とネットワークを介してデータを送受信する処理を行う。すなわち、サーバ装置10は、通信制御部101によって端末装置20等から受信した参加者の操作情報を含む各種の情報に基づいて各種処理を行う。   The communication control unit 101 performs processing for transmitting and receiving data to and from the terminal device 20 via the network. That is, the server device 10 performs various processes based on various information including the operation information of the participant received from the terminal device 20 or the like by the communication control unit 101.

ユーザ管理部102は、ユーザ登録手続きに係る処理及びアカウント(参加者ID)に紐付けられるデータの記憶管理を行う。   The user management unit 102 performs processing related to the user registration procedure and storage management of data associated with an account (participant ID).

具体的には、ユーザ管理部102は、アカウントの付与制御と、ユーザに関する個人情報を登録管理する登録情報管理、アカウントに紐付けられ課金要素の実行に係る対価の支払い原資として使用される仮想口座の設定と入出金制御、当該アカウントのユーザによる課金要素に係る課金履歴の登録、仮想イベント進行状況に関するイベント進行情報をアカウントと紐付けて記憶及び管理を行う。   Specifically, the user management unit 102 controls account assignment, registration information management for registering and managing personal information related to users, and a virtual account that is used as a payment source for consideration associated with the execution of a billing element associated with an account. Setting and deposit / withdrawal control, registration of billing history related to billing elements by the user of the account, and event progress information related to virtual event progress status are stored and managed in association with the account.

情報取得部104は、サーバ処理部100の処理に必要な種々の情報を取得する。即ち、これらの情報の受け付け処理を行う。例えば情報取得部104は、各端末装置20から参加者の操作情報を取得する。   The information acquisition unit 104 acquires various information necessary for the processing of the server processing unit 100. That is, the receiving process of these information is performed. For example, the information acquisition unit 104 acquires participant operation information from each terminal device 20.

具体的には、情報取得部104は、仮想イベント中に端末装置20におけるHMDユニット200の撮像部210によって撮像された画像情報に基づく参加者の視線情報、HMDユニット200のモーションセンサ220によって検出された情報(以下、「モーション検出情報」という。)及び仮想イベントの実行中に仮想イベントと連動して入力されるスイッチ入力の情報(以下、「スイッチ入力情報」という。)を含む参加者の操作情報を取得する。   Specifically, the information acquisition unit 104 is detected by the line-of-sight information of the participant based on the image information captured by the imaging unit 210 of the HMD unit 200 in the terminal device 20 during the virtual event, and detected by the motion sensor 220 of the HMD unit 200. Operation of a participant including information (hereinafter referred to as “motion detection information”) and switch input information (hereinafter referred to as “switch input information”) input in conjunction with the virtual event during execution of the virtual event. Get information.

特に、情報取得部104は、モーションセンサ220により参加者の頭部についての各3軸の情報をモーション検出情報として取得し、当該取得したモーション検出情報に基づいて、3軸回りでの回転角度を求めることで、参加者の頭部が向く方向の情報を視線情報として取得してもよいし、参加者の眼球の向きを撮像した撮像情報を取得し、当該取得した撮像情報に対して所定の画像処理を実行しつつ、モーション検出情報に基づいて算出した参加者の頭部の方向用いて参加者の視線方向を示す視線情報を取得してもよい。   In particular, the information acquisition unit 104 acquires information about each of the three axes about the participant's head as motion detection information using the motion sensor 220, and determines the rotation angle around the three axes based on the acquired motion detection information. By obtaining the information on the direction in which the participant's head faces, the imaging information obtained by imaging the direction of the participant's eyeball may be acquired, and a predetermined value may be obtained with respect to the acquired imaging information. While performing image processing, line-of-sight information indicating the line-of-sight direction of the participant may be acquired using the direction of the participant's head calculated based on the motion detection information.

なお、情報取得部104は、端末装置20の入力部260(例えば、コントローラ)からの操作情報に基づいて、視線情報を取得してもよい。例えば、情報取得部104は、入力部260に設けられた方向指示キー、アナログスティック又は操作ボタン等を参加者が操作することで得られた操作情報に基づいて、視線情報を取得(特定)してもよい。   Note that the information acquisition unit 104 may acquire line-of-sight information based on operation information from the input unit 260 (for example, a controller) of the terminal device 20. For example, the information acquisition unit 104 acquires (identifies) line-of-sight information based on operation information obtained by a participant operating a direction instruction key, an analog stick, an operation button, or the like provided in the input unit 260. May be.

また、モーションセンサ220のモーション検出情報に加えて、図示しない発光部の複数の発光素子(LED)を図示しない撮像部により撮像した画像を用いて、参加者の視線情報を取得してもよい。   In addition to the motion detection information of the motion sensor 220, the line-of-sight information of the participant may be acquired using an image obtained by imaging a plurality of light emitting elements (LEDs) of a light emitting unit (not shown) by an imaging unit (not shown).

さらに、HMDユニット200のモーション検出情報以外の情報を用いて参加者の視線情報を検出してもよい。例えば、図示しない撮像部に、3次元空間でのデプス情報(奥行き情報)を検出できるデプスセンサを設け、カラー画像センサからのカラー画像とデプスセンサからのデプス情報を用いて、参加者のスケルトン情報を抽出し、抽出されたスケルトン情報を用いて参加者の視線情報を取得してもよい。   Further, the line-of-sight information of the participant may be detected using information other than the motion detection information of the HMD unit 200. For example, an imaging unit (not shown) is provided with a depth sensor that can detect depth information (depth information) in a three-dimensional space, and the skeleton information of the participant is extracted using the color image from the color image sensor and the depth information from the depth sensor. Then, the line-of-sight information of the participant may be acquired using the extracted skeleton information.

参加者行動管理部105は、参加者毎に、参加者の指示に基づいて、関連するイベント(過去の同一のイベントの参加など)の参加や参加するイベントのイベントグッズの購入などイベントに関する行動を管理し、当該行動の種別や時期などを含むイベントに関する情報を参加者IDに対応付けて参加者情報146(行動履歴情報)に登録する。   For each participant, the participant behavior management unit 105 performs an event-related behavior such as participation of a related event (such as participation of the same event in the past) or purchase of event goods of an event to participate based on an instruction from the participant. Information related to the event including the type and time of the action is associated with the participant ID and registered in the participant information 146 (action history information).

また、参加者行動管理部105は、管理する行動において商品購入など課金が伴う行動については、課金情報を参加者IDに対応する参加者情報146(課金履歴情報)に登録する。   In addition, the participant behavior management unit 105 registers billing information in the participant information 146 (billing history information) corresponding to the participant ID for behaviors that involve billing such as product purchases in the managed behavior.

そして、参加者行動管理部105は、仮想イベント中の課金要素における課金処理を実行し、課金に関する情報(すなわち、課金情報)を課金履歴として参加者行動情報148に記憶する処理(以下、「課金処理」という。)を実行する。   Then, the participant behavior management unit 105 executes a billing process in the billing element in the virtual event, and stores information related to billing (that is, billing information) in the participant behavior information 148 as a billing history (hereinafter referred to as “billing”). Process ").

特に、本実施形態においては、課金要素としては、アバターの外観などの身支度(例えば、化粧、衣装又はアイテムなど)させるために課金した課金額、演技キャラクタに所定のアイテム(例えば、プレゼントやお捻り)を提供する際に課金した額、及び、コンティニューやガチャなどの仮想イベントを実行する上で課金した額に応じたパラメータが含まれる。   In particular, in the present embodiment, as a billing element, a billing amount charged to make a dressing degree such as the appearance of an avatar (for example, makeup, a costume or an item), a predetermined item (for example, a present or a twist) ) And a parameter corresponding to the amount charged for executing a virtual event such as continue or gacha.

また、参加者行動管理部105は、課金情報が履歴として登録されている課金履歴情報
に基づいて、参加者毎に仮想イベント実行中の累積課金額を算出する。
Further, the participant behavior management unit 105 calculates a cumulative billing amount during the execution of the virtual event for each participant based on the billing history information in which the billing information is registered as a history.

なお、参加者行動管理部105は、課金処理としては、仮想通貨やポイントの使用又はクレジットカードやプリペイドカードを使用することによって課金を要求し、参加者の指示にもとづいて、各課金処理を実行する。   Note that the participant behavior management unit 105 requests charging by using virtual currency or points, or using a credit card or prepaid card, and executes each charging process based on instructions from the participant. To do.

イベント制御部110は、仮想イベントの実行管理に係る各種処理を行う。本実施形態のイベント制御部110は、端末装置20と通信を行いつつ、仮想イベントプレーに必要なデータを提供する制御を行う。   The event control unit 110 performs various processes related to virtual event execution management. The event control unit 110 according to the present embodiment performs control to provide data necessary for virtual event play while communicating with the terminal device 20.

具体的には、イベント制御部110は、イベント管理部111、観覧席設定部112、アバター設定部113、オブジェクト制御部114、アバター視線制御部115及び特別制御実行部117を含む。   Specifically, the event control unit 110 includes an event management unit 111, a bleacher setting unit 112, an avatar setting unit 113, an object control unit 114, an avatar line-of-sight control unit 115, and a special control execution unit 117.

なお、例えば、本実施形態の特別制御実行部117は、オブジェクト制御部114と連動して本発明の本発明の抽出手段、制御手段、判定手段及び検出手段を構成する。   For example, the special control execution unit 117 of the present embodiment constitutes the extraction unit, control unit, determination unit, and detection unit of the present invention in conjunction with the object control unit 114.

イベント管理部111は、演技キャラクタの演技を含む、当該演技の開始処理及び終了処理、並びに、各仮想イベントを実行する処理を含む仮想イベントの実行に関する各種の処理を実行する。   The event management unit 111 executes various processes related to the execution of the virtual event including the performance start process and the end process including the performance of the performance character, and the process of executing each virtual event.

特に、イベント管理部111は、演技キャラクタの演技を含む仮想イベントを実行する際に、演技キャラクタが演技を行う仮想3次元空間におけるライブステージを参加者の操作入力に基づいて設定するとともに、設定したライブステージにおいて演技キャラクタが演技するためのパフォーマンス中(すなわち、演技中)の楽曲の再生及び照明などの各種の制御を実行する。   In particular, the event management unit 111 sets and sets a live stage in a virtual three-dimensional space where the acting character performs, based on the operation input of the participant, when performing a virtual event including the acting of the acting character. Various controls such as reproduction and lighting of music during performance (that is, during performance) for the performance character to perform in the live stage are executed.

観覧席設定部112は、参加者の操作入力に基づいて、イベント管理部111により設定されたライブステージにおける参加者のアバターの配置位置、すなわち、ステージの観覧位置を設定し、当該観覧位置に該当する参加者の視点となる仮想カメラ(右目用及び左目用)を設定する。   The seat setting unit 112 sets the arrangement position of the avatar of the participant in the live stage set by the event management unit 111 based on the operation input of the participant, that is, the viewing position of the stage, and corresponds to the viewing position. A virtual camera (for the right eye and for the left eye) is set as the viewpoint of the participant to be played.

本実施形態の観覧席設定部112は、ライブステージの開催に先立って観覧席として予約指定を行うことによって観覧位置を設定する。   The seat setting unit 112 of the present embodiment sets the viewing position by making a reservation designation as a seat before the live stage is held.

アバター設定部113は、参加者の操作入力に基づいて、当該参加者に対応づけられるアバターを設定し、設定したアバターを参加者情報146に登録する。   The avatar setting unit 113 sets an avatar associated with the participant based on the operation input of the participant, and registers the set avatar in the participant information 146.

具体的には、アバター設定部113は、参加者の操作に基づいて、基本形状(人、動物又はロボットなどの基本造形(サイズも含む。)、髪型や化粧などの容姿(色彩も含む。)、髪型)、及び、所有するアイテム(衣装、装飾品、所持品(タオルやサイリウム))などのアバターに身支度させるための設定を行う。   Specifically, the avatar setting unit 113, based on the operation of the participant, the basic shape (basic modeling (including size) such as a person, animal or robot), and the appearance (including color) such as a hairstyle and makeup. , Hairstyle) and items (costumes, decorations, personal belongings (towels and psyllium)) that you own to make settings for dressing.

また、アバター設定部113は、予め定められたパーツなどを選択させることによってアバターに身支度させるための設定を行う。なお、課金によってアバターを設定する場合には、アバター設定部113は、課金が生じた部分については参加者行動管理部105と連動してアバターの設定を実行する。   Moreover, the avatar setting part 113 performs the setting for making an avatar be dressed by selecting a predetermined part etc. When an avatar is set by billing, the avatar setting unit 113 performs setting of the avatar in conjunction with the participant behavior management unit 105 for the portion for which billing has occurred.

なお、アバターの外観の構成要素やアイテムにおいては、使用期限が設定されており、アバター設定部113は、参加者が既に所有しているものであっても、使用期限が到来し
ているものについては、たとえ参加者の設定指示が入力されたとしても設定不能に制御する。
In addition, the expiration date is set in the components and items of the appearance of the avatar, and the avatar setting unit 113 has the expiration date even if it is already owned by the participant. Even if a setting instruction of a participant is input, control is performed so that setting is impossible.

一方、アバター設定部113は、参加者の操作に基づいて、実空間に実在する衣装や装備品(演技キャラクタへのプレゼントやお捻りを含む)などの実在する物品に対応付けたアイテムを、アバターに設定することが可能な構成を有している。   On the other hand, the avatar setting unit 113 selects items associated with actual articles such as costumes and equipment (including presents and twists for acting characters) that exist in the real space based on the operations of the participants. It has the structure which can be set to.

具体的には、アバター設定部113は、例えば、参加者の操作によって端末装置20から送信された物品に付与された商品番号や2次元バーコードのコード情報などの識別情報を取得すると、当該識別情報に対応付けられた、当該物品がデジタル化されているアイテムを、該当するアバターに設定することが可能な構成を有している。   Specifically, for example, when the avatar setting unit 113 acquires identification information such as a product number assigned to an article transmitted from the terminal device 20 by a participant's operation or code information of a two-dimensional barcode, the identification is performed. An item that is associated with the information and that is digitized for the article can be set as the corresponding avatar.

なお、アイテムについては、実在する物品に代えて、仮想イベントカードなどの媒体によって提供されてもよく、お捻りなどの概念的なアイテムについても、同様に仮想イベントカードなどの媒体によって提供される。   Note that items may be provided by a medium such as a virtual event card instead of an actual article, and conceptual items such as twists are similarly provided by a medium such as a virtual event card.

また、お捻りなどの演技キャラクタの演技中などの仮想イベント中に使用する場合には、アバター設定部113は、参加者の操作に基づいて、仮想イベント開始前に、予めアイテムとして参加者情報146に登録することが可能な構成を有している。   In addition, when used during a virtual event such as a performance of an acting character such as twisting, the avatar setting unit 113 pre-registers the participant information 146 as an item before starting the virtual event based on the operation of the participant. Can be registered.

オブジェクト制御部114は、複数のオブジェクトが配置されるオブジェクト空間(3次元仮想空間である仮想3次元空間)の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object control unit 114 performs setting processing of an object space (a virtual three-dimensional space that is a three-dimensional virtual space) in which a plurality of objects are arranged. For example, various objects representing display objects such as characters (people, animals, robots, etc.), maps (terrain), buildings, courses (roads), trees, walls, water surfaces (primitive surfaces such as polygons, free-form surfaces or subdivision surfaces) The object is arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.

具体的には、記憶部170には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。また、オブジェクト制御部114は、例えば、フレーム毎にこのオブジェクトデータを更新する処理などを行う。   Specifically, the storage unit 170 stores object data that is data such as the position, rotation angle, moving speed, and moving direction of an object (part object) in association with the object number. Further, the object control unit 114 performs a process of updating the object data for each frame, for example.

また、オブジェクト制御部114は、演技キャラクタを含む各種のオブジェクトの配置及び当該演技キャラクタ及びアバターなどの各種のオブジェクトの仮想3次元空間内の移動を含めた動きを制御する。   The object control unit 114 also controls the movement of various objects including the acting character and the movement of the various objects such as the acting character and the avatar in the virtual three-dimensional space.

特に、オブジェクト制御部114は、演技キャラクタ毎に、演技パフォーマンス中を含む仮想イベント中のステージ上での顔の向き、目の動き、視線方向、体の向き、セリフを含む各部位の動き(振り付け)を制御する。   In particular, the object control unit 114 performs, for each acting character, the movement of each part including choreography (face choreography, eye movement, line-of-sight direction, body direction, speech) on the stage during a virtual event including during performance performance. ) To control.

また、オブジェクト制御部114は、各参加者の参加者キャラクタを各参加者の仮想3次元空間における位置に配置するとともに、各参加者の視線方向を含む参加者入力に基づいて、又は、仮想イベント状況に応じて各参加者キャラクタであるアバターの動きを制御する。   Further, the object control unit 114 arranges each participant's participant character at a position in the virtual three-dimensional space of each participant, and based on a participant input including the visual line direction of each participant, or a virtual event The movement of the avatar which is each participant character is controlled according to the situation.

アバター視線制御部115は、端末装置20から出力された参加者の操作入力である視線入力に基づいて、当該参加者に対応づけられる仮想カメラの姿勢を制御してアバターの視線を制御する。   The avatar line-of-sight control unit 115 controls the avatar's line of sight by controlling the posture of the virtual camera associated with the participant based on the line-of-sight input that is the operation input of the participant output from the terminal device 20.

特別制御実行部117は、各参加者の登録された参加者情報146(行動履歴情報及び課金履歴情報)に基づいて、特定の参加者(以下、「特定参加者」という。)に向けて演出キャラクタや仮想イベントに用いられる演出装置(照明装置や特殊効果装置)における特別な演出(以下、「特別演出」という。)を制御する制御処理(以下、「特別演出制御処理」という。)を実行する。   The special control execution unit 117 produces effects for specific participants (hereinafter referred to as “specific participants”) based on the registered participant information 146 (behavior history information and billing history information) of each participant. A control process (hereinafter referred to as “special effect control process”) for controlling a special effect (hereinafter referred to as “special effect”) in an effect device (lighting device or special effect device) used for a character or a virtual event is executed. To do.

仮想カメラ制御部106は、オブジェクト空間内の所与(任意)の視点(本実施形態においては参加者オブジェクトが配置される位置)から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。   The virtual camera control unit 106 generates a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space (position where the participant object is arranged in the present embodiment). The control process is performed.

具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

画像生成部108は、サーバ処理部100で行われる種々の処理(仮想イベント処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、生成した画像データを端末装置20に送信する。   The image generation unit 108 performs drawing processing based on the results of various processing (virtual event processing, simulation processing) performed by the server processing unit 100, thereby generating an image, and the generated image data is sent to the terminal device 20. Send.

具体的には、画像生成部108は、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、図示しない描画バッファ(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   Specifically, the image generation unit 108 performs geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing, and draws data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is converted into image information in a pixel unit such as a drawing buffer (frame buffer, work buffer, etc.) not shown. Is drawn in a buffer that can store Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお、画像生成部108で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   Note that the drawing processing performed by the image generation unit 108 can be realized by vertex shader processing, pixel shader processing, or the like.

そして、画像生成部108は、HMDユニット200を装着した参加者の両眼に所定量の視差を有する仮想3次元空間の画像を視認させて立体視を実現するための視差画像(右目用及び左目用)を生成する。   Then, the image generation unit 108 visually recognizes an image in a virtual three-dimensional space having a predetermined amount of parallax with both eyes of the participant wearing the HMD unit 200 to realize stereoscopic viewing (right eye and left eye). For).

音生成部107は、サーバ処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの仮想イベント音を生成し、通信部196を介してHMDユニット200(具体的には音出力部240)に出力する。   The sound generation unit 107 performs sound processing based on the results of various processes performed by the server processing unit 100, generates virtual event sounds such as BGM, sound effects, or sounds, and the HMD unit via the communication unit 196. 200 (specifically, the sound output unit 240).

振動生成部150は、サーバ処理部100で行われる種々の処理の結果に基づいて、端末装置20に設けられた振動体341を振動させるパターンを制御する制御データを生成し、端末装置20に出力する。   The vibration generation unit 150 generates control data for controlling a pattern for vibrating the vibrating body 341 provided in the terminal device 20 based on the results of various processes performed by the server processing unit 100 and outputs the control data to the terminal device 20. To do.

画像編集再生部109は、仮想イベント中に各仮想カメラの画像を仮想カメラ画像としてイベント画像149として記憶するとともに、当該仮想イベント終了後に、各仮想カメラ画像を素材として仮想カメラ編集画像を生成し、編集した仮想カメラ編集画像をイベント画像149として記憶する。   The image editing / playback unit 109 stores an image of each virtual camera as a virtual camera image as an event image 149 during a virtual event, and generates a virtual camera edited image using each virtual camera image as a material after the virtual event ends, The edited virtual camera edited image is stored as the event image 149.

タイマ部160は、システムクロックを利用して現在日時や制限時間、仮想イベント進行制御の時間管理などのタイマ値を計測する処理を実行するための計時を行う。   The timer unit 160 uses the system clock to measure time for executing processing for measuring timer values such as current date and time, time limit, time management for virtual event progress control, and the like.

[A3]端末装置
次に、図4及び図5を用いて本実施形態の端末装置20について説明する。なお、図4は、本実施形態の端末装置20の機能ブロックを示す図であり、図5は、本実施形態における端末装置20の外観構成を示す図の一例である。また、本実施形態の端末装置20は、図5の構成要素(各部)の一部を省略した構成としてもよい。
[A3] Terminal Device Next, the terminal device 20 of the present embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram illustrating functional blocks of the terminal device 20 of the present embodiment, and FIG. 5 is an example of a diagram illustrating an external configuration of the terminal device 20 of the present embodiment. Moreover, the terminal device 20 of this embodiment is good also as a structure which abbreviate | omitted a part of component (each part) of FIG.

HMDユニット200は、装着された参加者の視線を検出する撮像部210と、当該参加者の頭部位置及び方向を含む姿勢を検出するモーションセンサ220と、インターフェース230と、音出力部240と、スイッチ250と、から構成される。   The HMD unit 200 includes an imaging unit 210 that detects the line of sight of the participant who is attached, a motion sensor 220 that detects a posture including the head position and direction of the participant, an interface 230, a sound output unit 240, And a switch 250.

HMDユニット200は、装着された参加者の視線を検出する撮像部210と、当該参加者の頭部位置及び方向を含む姿勢を検出するモーションセンサ220と、インターフェース230と、音出力部240と、スイッチ250と、から構成される。   The HMD unit 200 includes an imaging unit 210 that detects the line of sight of the participant who is attached, a motion sensor 220 that detects a posture including the head position and direction of the participant, an interface 230, a sound output unit 240, And a switch 250.

また、HMDユニット200は、図5(A)及び(B)に示すように、端末制御ユニット300を保持し、かつ、参加者によって装着される構造を有している。   Further, as shown in FIGS. 5A and 5B, the HMD unit 200 has a structure that holds the terminal control unit 300 and is worn by a participant.

そして、HMDユニット200は、HMDである端末装置20を装着した参加者の両眼に所定量の視差を有する仮想3次元空間の画像を視認させて立体視を実現するための表示パネル(右眼用)261及び表示パネル(左眼用)262を有し、端末装置20に表示された右眼用視差画像及び左眼用視差画像を表示させる構造を有している。   Then, the HMD unit 200 displays a virtual three-dimensional space image having a predetermined amount of parallax with both eyes of the participant wearing the terminal device 20 that is an HMD to realize a stereoscopic view (right eye). 261 and a display panel (for the left eye) 262, and has a structure for displaying the parallax image for the right eye and the parallax image for the left eye displayed on the terminal device 20.

なお、立体視を実現するための視差画像については、従来の3次元動画像と同様であるため、詳細の説明を省略する。また、図5(B)は、端末装置20から音出力部240を省略した図である。   Note that a parallax image for realizing stereoscopic vision is the same as a conventional three-dimensional moving image, and thus detailed description thereof is omitted. FIG. 5B is a diagram in which the sound output unit 240 is omitted from the terminal device 20.

撮像部210は、HMDユニット200を装着した参加者の目(目の動き)を撮像し、その視線方向を検出し、当該検出に応じた信号を出力する。   The imaging unit 210 images the eyes (eye movements) of the participant wearing the HMD unit 200, detects the line-of-sight direction, and outputs a signal corresponding to the detection.

また、撮像部210は、CCDなどの所定の撮像素子及びレンズなどの光学系を有する撮像カメラ211と、撮像カメラの出力に基づいて撮像した対象物を画像化して端末制御ユニット300に画像データとして出力する画像生成部212と、から構成される。   In addition, the imaging unit 210 converts the imaging camera 211 having a predetermined imaging element such as a CCD and an optical system such as a lens, and an object captured based on the output of the imaging camera into the terminal control unit 300 as image data. And an image generation unit 212 to output.

モーションセンサ220は、例えば加速度センサやジャイロセンサなどにより実現される。例えば、モーションセンサ220は、加速度センサとジャイロセンサによって、X、Y、Z軸の3軸回りでの参加者の頭部(HMD)の回転運動、具体的には、各X、Y、Z軸回りでの回転角度や角速度等を検出する。   The motion sensor 220 is realized by, for example, an acceleration sensor or a gyro sensor. For example, the motion sensor 220 is a rotational movement of the participant's head (HMD) around the three axes of the X, Y, and Z axes, specifically, the X, Y, and Z axes by an acceleration sensor and a gyro sensor. Rotation angle and angular velocity around are detected.

インターフェース230は、例えば、HDMI(High−Difinition Multimedia Interface/登録商標)、USB(Universal Serial Bus/登録商標)等の有線による入出力インターフェース、又は、Bluetooth(登録商標)、若しくは、IEEE802.11a、g、n、ac等の無線インターフェースであり、端末制御ユニット300(具体的には通信部296)と、有線又は無線によって通信を実行するための機能を有している。   The interface 230 is, for example, a wired input / output interface such as HDMI (High-Definition Multimedia Interface / registered trademark), USB (Universal Serial Bus / registered trademark), Bluetooth (registered trademark), or IEEE 802.11a, g. , N, ac, and the like, and has a function for executing communication with the terminal control unit 300 (specifically, the communication unit 296) by wire or wirelessly.

また、インターフェース230は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより構成される。   The interface 230 is configured by hardware such as a communication ASIC or a communication processor, or communication firmware.

音出力部240は、サーバ処理部100により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドホンなどのハードウェアにより実現できる。   The sound output unit 240 outputs the sound generated by the server processing unit 100, and its function can be realized by hardware such as a speaker or headphones.

スイッチ250は、端末制御ユニット300のスイッチに連動し、HMDユニット200の装着中に、所定の操作入力を行うために用いられる。   The switch 250 is interlocked with the switch of the terminal control unit 300 and is used for performing a predetermined operation input while the HMD unit 200 is mounted.

端末制御ユニット300は、入力部260、記憶部270、情報記憶媒体280、表示部290、通信部296、振動部340及び端末処理部によって構成されている。   The terminal control unit 300 includes an input unit 260, a storage unit 270, an information storage medium 280, a display unit 290, a communication unit 296, a vibration unit 340, and a terminal processing unit.

入力部260は、ユーザからの入力情報を入力するための機器であり、ユーザの入力情報を端末処理部310に出力する。本実施形態の入力部260は、ユーザの入力情報(入力信号)を検出する構成を有している。例えば、入力部260は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、キーボード、マウスなどによって構成される。   The input unit 260 is a device for inputting input information from the user, and outputs the user input information to the terminal processing unit 310. The input unit 260 of the present embodiment has a configuration for detecting user input information (input signal). For example, the input unit 260 includes a lever, a button, a steering, a microphone, a touch panel display, a keyboard, a mouse, and the like.

なお、本実施形態の入力部260は、表示部290に形成されたタッチパネルによって形成されている。   Note that the input unit 260 of the present embodiment is formed by a touch panel formed on the display unit 290.

一方、入力部260は、入力部260は、参加者の音声指示を認識するため当該参加者の音声を集音するためのマイクを備えていてもよいし、撮像カメラによって構成されていてよい。   On the other hand, the input unit 260 may include a microphone for collecting the voice of the participant in order to recognize the voice instruction of the participant, or may be configured by an imaging camera.

特に、撮像カメラは、アバターに設定するアイテムや仮想イベントで使用するアイテムを、実在する物品をデジタル化して用いる場合に、当該物品を特定するための識別情報として2次元バーコードを画像化するために設けられている。   In particular, when an imaging camera uses an item set for an avatar or an item used for a virtual event by digitizing an existing article, the imaging camera images the two-dimensional barcode as identification information for specifying the article. Is provided.

また、入力部260は、上記の他に、加速度センサや視線検出センサなどを備えていてもよい。なお、加速度センサや視線検出センサは、HMDユニット200に設けられた撮像部210やモーションセンサ220の代わりに機能してもよい。   In addition to the above, the input unit 260 may include an acceleration sensor, a line-of-sight detection sensor, and the like. Note that the acceleration sensor and the line-of-sight detection sensor may function instead of the imaging unit 210 and the motion sensor 220 provided in the HMD unit 200.

記憶部270は、端末処理部310や通信部296などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部270は、ワーク領域として使用される主記憶部271と、最終的な表示画像等が記憶される画像バッファ272とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 270 serves as a work area for the terminal processing unit 310, the communication unit 296, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 270 of the present embodiment includes a main storage unit 271 used as a work area, and an image buffer 272 that stores a final display image and the like. Note that some of these may be omitted.

情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 280 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

端末処理部310は、情報記憶媒体280に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The terminal processing unit 310 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 280. The information storage medium 280 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute the processing of each unit).

なお、本実施形態では、サーバ装置10が有する情報記憶媒体180や記憶部140に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムや仮想イベントを実現するためのデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体280に記憶する。サーバ装置10から受信したプログラムやデータを記憶部270に記憶してもよい。このようにプログラムやデータを受信してネットワークシステムを機能させる場合も本発明の範囲内に含む。   In the present embodiment, a program for causing a computer to function as each unit of the present embodiment stored in the information storage medium 180 or the storage unit 140 included in the server device 10 and data for realizing a virtual event are stored in a network. The received program and data are stored in the information storage medium 280. The program and data received from the server device 10 may be stored in the storage unit 270. The case where the network system is functioned by receiving programs and data as described above is also included in the scope of the present invention.

表示部290は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 290 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

例えば、表示部290は、サーバ装置10から送信された視差画像をHMDユニット200が装着された際の右目用表示パネル261及び左目用表示パネル262の位置に表示する。なお、本実施形態においては、表示部290は、タッチパネル型ディスプレイによって形成されている。   For example, the display unit 290 displays the parallax image transmitted from the server device 10 at the position of the right-eye display panel 261 and the left-eye display panel 262 when the HMD unit 200 is attached. In the present embodiment, the display unit 290 is formed by a touch panel display.

通信部296は、サーバ装置10などの外部との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 296 performs various controls for communicating with the outside such as the server apparatus 10, and the function can be realized by hardware such as various processors or communication ASICs, programs, and the like.

端末処理部310(プロセッサ)は、入力部260やHMDユニット200から出力された入力情報やプログラムなどに基づいて、イベント制御処理(演出制御を含む。)、画像生成処理、或いは音生成処理などの処理を行う。   The terminal processing unit 310 (processor) performs event control processing (including production control), image generation processing, or sound generation processing based on input information and programs output from the input unit 260 and the HMD unit 200. Process.

具体的には、端末処理部310は、記憶部270内の主記憶部271をワーク領域として各種処理を行う。端末処理部310の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   Specifically, the terminal processing unit 310 performs various processes using the main storage unit 271 in the storage unit 270 as a work area. The functions of the terminal processing unit 310 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

なお、端末処理部310は、通信制御部311、イベント処理部312、描画部320、音処理部330を含む。なおこれらの一部を省略する構成としてもよい。   The terminal processing unit 310 includes a communication control unit 311, an event processing unit 312, a drawing unit 320, and a sound processing unit 330. Note that some of these may be omitted.

通信制御部311は、サーバ装置10とデータを送受信する処理を行う。また、通信制御部311は、サーバ装置10から受信したデータを記憶部270に格納する処理、受信したデータを解析する処理、その他のデータの送受信に関する制御処理等を行う。   The communication control unit 311 performs processing for transmitting / receiving data to / from the server device 10. In addition, the communication control unit 311 performs processing for storing data received from the server device 10 in the storage unit 270, processing for analyzing the received data, control processing for other data transmission / reception, and the like.

なお、通信制御部311は、サーバの宛先情報(IPアドレス、ポート番号)を情報記憶媒体280に記憶し、管理する処理を行うようにしてもよい。また、通信制御部311は、ユーザからの通信開始の入力情報を受け付けた場合に、サーバ装置10との通信を行うようにしてもよい。   Note that the communication control unit 311 may store the server destination information (IP address, port number) in the information storage medium 280 and perform a management process. Further, the communication control unit 311 may perform communication with the server device 10 when receiving input information for starting communication from the user.

イベント処理部312は、種々の仮想イベントを実現するための各種の演算処理を行う。例えば、仮想イベントの開始条件が満たされた場合に仮想イベントを開始する処理、仮想イベントを進行させる処理、仮想イベントの終了条件が満たされた場合に仮想イベントを終了する処理などがある。   The event processing unit 312 performs various arithmetic processes for realizing various virtual events. For example, there are a process for starting a virtual event when a start condition for the virtual event is satisfied, a process for advancing the virtual event, a process for ending the virtual event when the end condition for the virtual event is satisfied, and the like.

また、イベント処理部312は、サーバ装置10における仮想イベント処理の一部を実行してもよいし、当該サーバ装置10と連動して所定の仮想イベント処理を実行してもよい。   In addition, the event processing unit 312 may execute part of the virtual event processing in the server device 10 or may execute predetermined virtual event processing in conjunction with the server device 10.

描画部320は、端末処理部310で行われる種々の処理(例えば、仮想イベントを実現するための各種の処理)に基づいて描画処理を行い、これにより画像を生成し、表示部290に出力する。特に、描画部320は、サーバ装置10から送信された画像データに基づいて、視差画像を生成し、生成した視差画像を表示部290に表示する。   The drawing unit 320 performs drawing processing based on various types of processing (for example, various types of processing for realizing a virtual event) performed by the terminal processing unit 310, thereby generating an image and outputting the image to the display unit 290. . In particular, the drawing unit 320 generates a parallax image based on the image data transmitted from the server device 10, and displays the generated parallax image on the display unit 290.

音処理部330は、サーバ装置10から出力された音データや端末処理部310で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの仮想イベントに用いられる音を生成し、音出力部240に出力する。   The sound processing unit 330 performs sound processing based on the sound data output from the server device 10 and the results of various processes performed by the terminal processing unit 310, and is used for virtual events such as BGM, sound effects, or sound. Sound is generated and output to the sound output unit 240.

振動部340は、振動体341を有し、サーバ装置10から出力された振動パターンデータや端末処理部310で行われる種々の処理の結果に基づいて生成された振動パターンデータに基づいて、当該振動体341を振動させる構成を有している。   The vibration unit 340 includes a vibrating body 341, and based on vibration pattern data output from the server device 10 and vibration pattern data generated based on the results of various processes performed by the terminal processing unit 310, the vibration unit 340 The body 341 is configured to vibrate.

[A4]本実施形態の手法
[A4.1]概要
次に、本実施形態の手法(仮想イベントにおける特別演出制御処理)について説明する。
[A4] Method [A4.1] Overview of this Embodiment Next, the method (special effect control processing in a virtual event) of this embodiment will be described.

本実施形態のサーバ装置10は、各参加者IDに対応付けて各参加者の行動履歴情報と仮想イベントにおける観覧位置とを登録していることを前提に、特定参加者を抽出し、当該抽出した特定参加者の仮想イベント上の観覧位置に向けて演技キャラクタや演出装置における特別な演出を提供する特別演出制御処理を実行する。   The server device 10 of the present embodiment extracts specific participants on the assumption that the behavior history information of each participant and the viewing position in the virtual event are registered in association with each participant ID, and the extraction is performed. The special effect control process for providing a special effect on the acting character or the effect device is executed toward the viewing position on the virtual event of the specific participant who has performed.

特に、サーバ装置10は、本実施形態のような仮想3次元空間の場合には、当該仮想3次元空間に配置されて画像化されるアイドルキャラクタやロボットキャラクタなどの演技キャラクタによって特別な演出を提供する特別演出制御処理を実行する。   In particular, in the case of a virtual three-dimensional space as in the present embodiment, the server device 10 provides a special effect by acting characters such as idle characters and robot characters that are arranged and imaged in the virtual three-dimensional space. The special effect control process is executed.

具体的には、サーバ装置10は、
(1)複数の参加者が参加する仮想イベントにおいて、当該仮想イベントの演出に用いられる演技キャラクタ又は演出装置を制御し、
(2)参加者IDに対応付けて当該参加者の仮想イベントに関連した行動を示す行動履歴情報及び参加者の仮想イベントの観覧位置情報を参加者情報146として記憶部140に登録し、
(3)各参加者の登録された行動履歴情報に基づいて、複数の参加者の中から特定参加者を抽出し、
(4)抽出した特定参加者の参加者IDに基づいて当該特定参加者の観覧位置情報を特定し、
(5)当該特定した観覧位置情報によって示される仮想3次元空間内における観覧位置に対して、演出演技キャラクタ又は演出装置による特別な演出の実行を制御する、
構成を有している。
Specifically, the server device 10
(1) In a virtual event in which a plurality of participants participate, an acting character or an effect device used to produce the virtual event is controlled,
(2) The behavior history information indicating the behavior related to the virtual event of the participant in association with the participant ID and the viewing position information of the virtual event of the participant are registered in the storage unit 140 as the participant information 146,
(3) Based on the registered action history information of each participant, a specific participant is extracted from a plurality of participants,
(4) Identifying the viewing position information of the specific participant based on the extracted participant ID of the specific participant,
(5) controlling the execution of a special performance by the performance technique character or the production device with respect to the viewing position in the virtual three-dimensional space indicated by the specified viewing position information;
It has a configuration.

本実施形態においては、このような構成を有することによって、例えば、多くの仮想イベントに参加する参加者に対して、特定の商品を購入した参加者に対して、又は、一定以上の課金が実行された参加者に対して、特別な演出を提供することができるので、各参加者に対して、仮想イベントに繰り返し参加するためのモチベーションを維持又は向上させることができるとともに、仮想イベントに参加することに基づく興趣性を向上させるだけでなく、継続的に仮想イベントに参加すること、及び、当該仮想イベントに参加するまでの過程についても興趣の対象として用いることができるようになっている。   In this embodiment, by having such a configuration, for example, a participant who participates in many virtual events, a participant who purchased a specific product, or a certain amount of billing is executed. Since it is possible to provide a special performance to the participants who have been made, it is possible to maintain or improve the motivation for each participant to participate repeatedly in the virtual event and participate in the virtual event. In addition to improving the interest based on the above, it is possible to use the process of participating in a virtual event continuously and the process up to participation in the virtual event as an object of interest.

したがって、本実施形態においては、参加者の仮想イベントに対する興趣性を向上させることができるとともに、それによって当該仮想イベントに対する参加者における集客を図りつつ、当該仮想イベントを活性化することができるようになっている。   Therefore, in this embodiment, while being able to improve the interest property with respect to a virtual event of a participant, the virtual event can be activated while aiming at attracting customers to the virtual event. It has become.

[A4.2]行動履歴情報
次に、本実施形態の行動履歴情報について説明する。
本実施形態においては、参加者行動管理部105は、参加者情報146に、参加者毎に、特定参加者を抽出するために用いる仮想イベントに関連する各種の行動を示す情報(すなわち、行動情報)を登録し、当該行動情報をリスト化することによって行動履歴情報の
生成及び更新を行う。
[A4.2] Action history information Next, action history information of the present embodiment will be described.
In this embodiment, the participant behavior management unit 105 stores, in the participant information 146, information indicating various behaviors related to a virtual event used for extracting a specific participant for each participant (that is, behavior information). ) Is registered, and action history information is generated and updated by listing the action information.

具体的には、参加者行動管理部105は、行動情報としては、
(1)演技キャラクタに対する声援や応援行為などのイベント中における参加者の演出オブジェクトに対する演出対応行動、
(2)アバターの外観などの身支度(例えば、化粧、衣装又はアイテムなど)させるためのアイテムの購入、又は、仮想イベントの演出に用いられる演技キャラクタや仮想イベントのグッズ(タオルやステッカー)などの仮想イベントに関連する商品(仮想アイテムを含む。)の購入、
(3)上記の商品の購入による課金、仮想イベントの仮想3次元空間内の観覧位置(すなわち座席)や実空間イベント開催場所の購入や仮想イベントへの参加による課金、又は、演技キャラクタへのお捻り(すなわち、チップ)の提供による課金などのイベントに関連して実行された課金、
(4)過去の同一の演技キャラクタが参加するイベントなどの参加中の仮想イベントに関連する過去のイベント(仮想イベント及び実空間で実施される実イベントを含む)への参加、
(5)既に参加したイベント(仮想イベント及び実イベント)における演出対応行動((2)に示す演出対応行動)、
(6)仮想イベントや実イベント中に発生するミニゲーム(例えば、仮想3次元空間内で実行可能なゲームや実空間においてゲーム端末装置によってイベントと連動するゲーム)、又は、仮想イベントの開催前若しくは開催後に各種のゲーム端末装置(携帯型電話やスマートフォンなど)と連動して実行されるゲームの実行
の行動種別、実行日時、課金額(課金情報がある場合)などの各種の情報を行動情報として参加者情報146に登録する。
Specifically, the participant behavior management unit 105 includes, as behavior information,
(1) Directing action for participants' directing objects during events such as cheering and cheering for acting characters,
(2) Virtual purchases such as acting characters and virtual event goods (towels and stickers) used for the purchase of items for dressing such as the appearance of avatars (for example, makeup, costumes or items), or the production of virtual events Purchase of products related to the event (including virtual items),
(3) Charge by purchasing the above-mentioned product, purchase of the viewing position (that is, seat) or the real space event holding place in the virtual three-dimensional space of the virtual event, charging by participating in the virtual event, or acting character Billing performed in connection with an event, such as billing by providing a twist (ie, a chip),
(4) Participation in past events (including virtual events and real events implemented in real space) related to virtual events that are currently participating, such as events in which the same acting characters in the past participate.
(5) Production response behavior in the event (virtual event and real event) that has already participated (production response behavior shown in (2)),
(6) A mini-game that occurs during a virtual event or a real event (for example, a game that can be executed in a virtual three-dimensional space or a game that is linked to an event by a game terminal device in the real space), or before the virtual event is held or Various types of information such as action type, execution date and time, and charge amount (if there is charge information) of the game executed in conjunction with various game terminal devices (such as mobile phones and smartphones) as the action information Register in the participant information 146.

具体的には、参加者行動管理部105は、端末装置20や他の通信装置と連動し、
(1)当該端末装置20などによって仮想イベントへの参加やゲームの実行において所定のシステムやプログラムにログインした際に入力した参加者IDに基づいて、又は、
(2)実イベントなどの入場チケットに付与されたバーコードや電子チケットのチケットナンバーを利用した参加者やイベント管理者の操作に基づいて、
仮想イベントや実イベントにおいて予め付与されたイベントIDを取得するとともに、参加したイベントに関連するイベントについて付与された関連イベントID、購入したアイテムや商品の種別、課金額、ゲーム結果、これらの行動を実行した日時を取得して参加者情報146に登録する。
Specifically, the participant behavior management unit 105 works in conjunction with the terminal device 20 and other communication devices,
(1) Based on the participant ID input when logging in to a predetermined system or program in participation in a virtual event or game execution by the terminal device 20 or the like, or
(2) Based on the operation of participants and event managers using barcodes and electronic ticket ticket numbers given to admission tickets such as real events,
In addition to acquiring event IDs assigned in advance in virtual events and real events, related event IDs assigned for events related to the participating events, types of purchased items and products, charges, game results, and these actions The execution date and time is acquired and registered in the participant information 146.

また、参加者行動管理部105は、演出対応行動については、上述のように取得したイベントIDに対応付けて、
(A)特別な演出を受け取ったこと、及び、
(B)参加者の声、手指、腕、頭部、視線又まぶたなどの参加者の身体の動きに応じて入力又は認識される入力、カメラなどの画像検出や振動検出(ジャイロ)などの検出手段によって検出された操作入力、
を所定のパラメータに変化し、当該行動における強度として参加者毎に(参加者IDに対応付けて)参加者情報146に登録する。
In addition, the participant behavior management unit 105 associates the production response behavior with the event ID acquired as described above.
(A) Received a special performance, and
(B) Participant's voice, fingers, arms, head, line of sight, eyelids, or other input that is input or recognized according to the movement of the participant's body, detection of camera or other image detection, vibration detection (gyro), etc. Operation input detected by means,
Is changed to a predetermined parameter, and is registered in the participant information 146 for each participant (corresponding to the participant ID) as the strength in the action.

特に、参加者行動管理部105は、操作入力としては、情報取得部104と連動し、端末装置20のHMDユニット200やそれらに付属するコントローラへの視線入力、声量入力、振動入力(振る動作による入力)、スイッチ入力(例えば、連打などやコンボ入力)などの操作入力に基づいて応援パラメータを変動させ、当該応援パラメータを参加者情報146に登録する。   In particular, the participant behavior management unit 105 operates in conjunction with the information acquisition unit 104 as an operation input, and is input to the HMD unit 200 of the terminal device 20 and a controller attached thereto, voice volume input, vibration input (by a shaking operation) The support parameter is changed based on an operation input such as input), switch input (for example, continuous hitting or combo input), and the support parameter is registered in the participant information 146.

また、参加者行動管理部105は、ゲームの実行については、例えば、ゲームを実施した日時(ログイン日時を含む。)、当該ゲームのトータルや所定期間におけるプレー時間、ゲームの実行頻度(ログイン頻度を含む。)、ゲームレベル(プレーヤレベルを含む。)、ゲーム内で取得したアイテム、ガチャにおける当選情報、ゲームにおいて登録されたフレンドとの関係性に基づく情報(例えば、フレンド数やフレンドと一緒に実行したプレー時間)などのゲーム履歴の情報を、参加者毎に(参加者IDに対応付けて)参加者情報146に登録する。   In addition, for example, the participant behavior management unit 105 executes the game, for example, the date and time of the game (including the login date and time), the total game, the play time in a predetermined period, and the game execution frequency (login frequency). ), Game level (including player level), items acquired in the game, winning information in gacha, information based on relationships with friends registered in the game (for example, executed with the number of friends and friends) Game history information such as the playing time) is registered in the participant information 146 for each participant (corresponding to the participant ID).

さらに、参加者行動管理部105は、課金については、例えば、商品などを購入した際の課金において、その課金種別、課金を実行した日時、課金により購入した商品の種別、当該購入した数や課金回数(頻度)又は、上記のゲームを実行した際の課金に関する情報を、参加者毎に(参加者IDに対応付けて)参加者情報146に登録する。   Furthermore, the participant behavior management unit 105, for example, in the billing when purchasing a product, for example, the billing type, the date and time when the billing was performed, the type of the product purchased by billing, the number of purchases and the billing Information regarding the number of times (frequency) or billing when the above game is executed is registered in the participant information 146 for each participant (corresponding to the participant ID).

[A4.3]仮想イベントにおける観覧位置及び実空間イベント開催場所の関係性
次に、図6を用いて本実施形態における仮想イベントにおける観覧位置及び実空間イベント開催場所の関係性について説明する。なお、図6は、本実施形態における仮想イベントにおける観覧位置及び実空間イベント開催場所の関係性について説明するための図である。
[A4.3] Relationship between Viewing Position and Real Space Event Holding Place in Virtual Event Next, the relationship between the viewing position and the real space event holding place in the virtual event in the present embodiment will be described with reference to FIG. FIG. 6 is a diagram for explaining the relationship between the viewing position and the real space event holding place in the virtual event in the present embodiment.

本実施形態においては、参加者が来場する複数の実空間イベント開催場所(例えば、東京、大阪及び名古屋)7が準備されており、各参加者は指定された1の実空間イベント開催場所7に来場することによって仮想イベントに参加する。   In this embodiment, a plurality of real space event holding places (for example, Tokyo, Osaka, and Nagoya) 7 where participants attend are prepared, and each participant is assigned to one designated real space event holding place 7. Participate in virtual events by visiting.

特に、各実空間開催場所7には、複数の参加者の席(座席及び立ち見席含む。)やエリアが準備されており、予め各参加者が購入予約などによって実空間開催場所7を含む指定された席やエリアで仮想イベントに参加するようになっている。   In particular, each real space holding place 7 is prepared with a plurality of participants' seats (including seats and standing seats) and areas, and each participant has designated the real space holding place 7 in advance by a purchase reservation or the like. Participate in virtual events at reserved seats and areas.

また、各実空間開催場所7のそれぞれ席は、参加者によって事前予約されると、当該予約された参加者の参加者IDに対応付けられて参加者情報146によって管理される。そして、各実空間開催場所7のそれぞれ席は、観覧席情報148によって、仮想イベントにおける観客席6の各席に対応して管理させる。   Further, when each seat of each real space holding place 7 is reserved in advance by a participant, the seat is associated with the participant ID of the reserved participant and managed by the participant information 146. And each seat of each real space holding place 7 is managed corresponding to each seat of the spectator seat 6 in the virtual event by the spectator seat information 148.

このため、参加者が各実空間開催場所7のそれぞれ席において端末装置20(予め席に設定されている端末装置や参加者が保持する端末装置など)を使用して仮想イベントに参加すると(すなわち、HMDユニット200を装着して仮想イベントのゲームやイベントプログラムにログインすると)、各参加者は仮想3次元空間において実施される仮想イベントに、各実空間開催場所7の席に対応する観客席6の席にて、当該仮想的に参加することができるようになっている。   Therefore, when a participant participates in a virtual event using the terminal device 20 (a terminal device set in advance or a terminal device held by the participant, etc.) at each seat in each real space holding place 7 (that is, When the HMD unit 200 is attached and the user logs in to a virtual event game or event program), each participant attends a virtual event held in the virtual three-dimensional space, and a spectator seat 6 corresponding to the seat in each real space holding place 7. It is possible to participate virtually in the seat.

なお、各実空間開催場所7のそれぞれの席と、仮想イベントにおける観客席6の各席とは、一対一対応しており、観客席6の席が重複して実空間開催場所7の席に対応付けられていない。   In addition, each seat of each real space holding place 7 and each seat of the spectator seat 6 in the virtual event have a one-to-one correspondence, and the seats of the spectator seat 6 overlap to become the seat of the real space holding place 7. Not associated.

例えば、参加者が来場する複数の実空間イベント開催場所7が、東京及び大阪の場合には、観覧席情報148には、図6(A)、(B)及び(C)に示すように、仮想イベントにおける観客席6のステージ4に向かって左側の席エリアが東京の実空間イベント開催場所7Aの各席と対応付けられているとともに、仮想イベントにおける観客席6のステージ4に向かって右側の席エリアが大阪の実空間イベント開催場所7Bの各席と対応付けられて記憶されている。   For example, when a plurality of real space event holding places 7 where participants attend are Tokyo and Osaka, as shown in FIGS. 6 (A), (B) and (C), The left seat area toward the stage 4 of the audience seat 6 in the virtual event is associated with each seat of the real space event holding place 7A in Tokyo, and the right side toward the stage 4 of the audience seat 6 in the virtual event. The seat area is stored in association with each seat of the real space event holding place 7B in Osaka.

なお、図6(A)、(B)及び(C)には、東京の実空間イベント開催場所7AのA列2番の席が、仮想イベント空間における観客席6のA列2番の席に対応し、大阪の実空間イベント開催場所7BのA列2番の席が、仮想イベント空間における観客席6のA列6番の席に対応していることを示している。   In FIGS. 6A, 6B, and 6C, the seat A in the second row of the real space event holding place 7A in Tokyo becomes the seat A in the second row of the spectator seat 6 in the virtual event space. Correspondingly, it is shown that the seat No. 2 in row A of the real space event holding place 7B in Osaka corresponds to the seat No. 6 in row A of the audience seat 6 in the virtual event space.

また、イベント管理部111は、仮想イベントに参加する各参加者(全参加者であってもよいし、同一の実空間イベント開催場所に参加している全参加者やフレンド登録された複数の参加者など)が同時に興趣できるように、予め定められた時刻に到達したことを基準に、仮想イベントの開始を制御してもよいし、HMDユニット200を装着するなど、各参加者が仮想イベントに参加可能になったタイミングで自動的に個々に仮想イベントの開始を制御してもよい。   In addition, the event management unit 111 may include each participant who participates in the virtual event (may be all participants, all participants who participate in the same real space event holding place, or a plurality of registered friends) Each participant can participate in a virtual event, such as by controlling the start of a virtual event based on the fact that a predetermined time has been reached, or by attaching the HMD unit 200 so that the participant can entertain at the same time. The start of a virtual event may be automatically controlled individually at the time when participation is possible.

特に、イベント管理部111は、個々に仮想イベントを自動的に開始する開始制御を行う場合には、各参加者が観覧席6の観覧位置(具体的には、実空間イベント開催場所の席)に存在するか否かを判定し、参加者が当該観覧位置に存在すると判定された場合に、当該仮想イベントを開始する制御を実行する。   In particular, when the event management unit 111 performs start control to automatically start a virtual event individually, each participant has a viewing position of the bleaching seat 6 (specifically, a seat at a real space event holding place). If the participant is determined to be present at the viewing position, control for starting the virtual event is executed.

具体的には、イベント管理部111は、情報取得部104と連動し、HMDユニット200に予め形成された発光体(図示せず)から照射された照射光を、撮像カメラ(実際は無い)などの実空間イベント開催場所内の所定の場所に設置された複数の検出装置で検出し、当該発行体の位置及び高さ(参加者がHMDユニット200を装着した場合に想定される高さ)が所定の条件を満たした場合に、各参加者が仮想イベントに参加可能になったタイミングとして判定してもよい。   Specifically, the event management unit 111 works in conjunction with the information acquisition unit 104 to emit irradiation light emitted from a light emitter (not shown) formed in advance on the HMD unit 200, such as an imaging camera (not actually). Detected by a plurality of detection devices installed in a predetermined place in the real space event holding place, the position and height of the issuer (the height assumed when the participant wears the HMD unit 200) is predetermined. When the above condition is satisfied, it may be determined as a timing at which each participant can participate in the virtual event.

[A4.4]特別演出制御処理
次、図7及び図8を用いて本実施形態の特別演出制御処理について説明する。なお、図7及び図8は、本実施形態の特別演出制御処理について説明するための図である。
[A4.4] Special Effect Control Process Next, the special effect control process of this embodiment will be described with reference to FIGS. 7 and 8. 7 and 8 are diagrams for explaining the special effect control process of the present embodiment.

特別制御実行部117は、特別演出制御処理としては、
(1)参加者情報146として登録された各参加者の行動情報に基づいて、仮想イベントに参加している複数の参加者の中から特定参加者を抽出し、
(2)抽出した特定参加者の参加者情報146を参照して当該特定参加者の参加者IDに基づいて当該特定参加者の観覧位置情報を特定し、
(3)当該特定した観覧位置情報によって示される仮想イベントにおける観覧位置に対して、演技キャラクタ又は演出装置による特別な演出の実行を制御する。
The special control execution unit 117 performs the special effect control process as follows:
(1) Based on the behavior information of each participant registered as the participant information 146, a specific participant is extracted from a plurality of participants participating in the virtual event,
(2) Referring to the participant information 146 of the extracted specific participant, the viewing position information of the specific participant is specified based on the participant ID of the specific participant,
(3) The execution of a special effect by the acting character or the effect device is controlled with respect to the viewing position in the virtual event indicated by the specified viewing position information.

具体的には、特別制御実行部117は、仮想イベントに参加している参加者の各参加者情報146(すなわち、上述のように登録された行動履歴情報)を参照し、例えば、全期間や一定期間(直近1週間以内)における参加したイベント数、購入アイテム数、総課金額、応援パラメータ、又は、当該イベントに関連するゲームにおいてそのゲームにおける得点のいずれかの項目において最上位の参加者を決定する。   Specifically, the special control execution unit 117 refers to each participant information 146 (that is, the action history information registered as described above) of the participants participating in the virtual event. The top participant in the number of events, the number of purchased items, the total charge amount, the support parameters in the fixed period (within the last one week), or the score in the game in the game related to the event decide.

また、特別制御実行部117は、上記の2以上の項目の組み合わせによって所定のスコア(例えば各項目の値を所定のポイントに変化変換して合計したスコア)を算出し、当該算出したスコアが最高スコアの参加者を決定する。   Further, the special control execution unit 117 calculates a predetermined score (for example, a score obtained by changing and converting the value of each item into a predetermined point and summing up) by a combination of the two or more items, and the calculated score is the highest. Determine participants in the score.

そして、特別制御実行部117は、複数の項目のいずれかにおいて決定した最上位の参加者、又は、2以上の項目の組み合わせにおいて決定した最高スコアの参加者を特定参加者として抽出する。   Then, the special control execution unit 117 extracts the highest-ranking participant determined in any of the plurality of items or the highest-scoring participant determined in the combination of two or more items as the specific participant.

なお、特別制御実行部117は、所定の1以上の項目において最上位の参加者を特定参加者として決定しているが、イベントに関連するゲームにおいてガチャに当選していること、当該ゲームにおいて所定のレベルを有していること、ゲームによって所定のアイテムを取得していること、当該ゲームにおいて所定の頻度にてログインしていることなど、所定の条件を具備している参加者を特定参加者として決定してもよいし、このように決定した参加者の中から抽選や上記のスコアの最上位などによって1の特定参加者を決定してもよい。   Note that the special control execution unit 117 determines the top participant as the specific participant in the predetermined one or more items. However, the special control execution unit 117 determines that the game related to the event has been won, Participants who have predetermined conditions, such as having a certain level, acquiring a predetermined item by a game, logging in at a predetermined frequency in the game, etc. Alternatively, one specific participant may be determined from among the participants determined in this manner by lottery or the highest score.

さらに、特別制御実行部117は、特定参加者の参加者情報146を参照し、仮想イベントの観覧席6上の観覧位置を特定し、特定した観覧位置に向けて演技キャラクタ又は演出装置による特別な演出を実行する。   Further, the special control execution unit 117 refers to the participant information 146 of the specific participant, specifies the viewing position on the auditorium 6 of the virtual event, and performs a special action by the acting character or the directing device toward the specified viewing position. Perform the production.

特に、特別制御実行部117は、特別な演出として、
(1)例えば、投げキッスやメッセージの発信などの演技キャラクタから特定参加者に向けて実行されるファンサービス(すなわち、行動演出)、
(2)仮想イベント中の特定参加者に、すなわち、特定参加者のアバターに向けてピンスポットやサーチライトを照射する照明演出、及び、
(3)紙吹雪やテープなど装飾物を飛ばすバズーカ型やキャノン砲型のクラッカーなどの特殊効果装置によって特定参加者に向けて特殊効果の演出
を実行する。
In particular, the special control execution unit 117 is a special production,
(1) For example, a fan service (i.e., action production) executed from a acting character to a specific participant such as a throwing kiss or message transmission,
(2) Illumination effect that irradiates a specific participant in a virtual event, that is, a pin spot or searchlight toward the avatar of the specific participant, and
(3) A special effect is produced for a specific participant by a special effect device such as a bazooka type or cannon type cracker that blows decorations such as confetti or tape.

例えば、特定参加者が仮想イベントにおいて、観覧席6のD列10番の観覧位置で観覧している場合には、特別制御実行部117は、図7(A)に示すように、演技キャラクタ8に、所定のタイミングで観覧席6のB列2番の観覧位置に向けて「〇〇さん。いつも応援ありがとう!」というメッセージを発信させる特別な演出の実行を制御する。   For example, when the specific participant is viewing in the virtual event at the viewing position of the 10th row of the seat 6, the special control execution unit 117 performs the acting character 8 as shown in FIG. In addition, the execution of a special effect that transmits a message “Mr. OO. Thank you always for your support!” To the viewing position of the second row of row B of the auditorium 6 at a predetermined timing is controlled.

また、この場合において、特別制御実行部117は、図7(B)に示すように、ピンスポット(演出装置)9を観覧席6のC列5番の観覧位置に配置されたアバターに当てる特別な演出の実行を制御する。   Further, in this case, the special control execution unit 117 applies the pin spot (direction device) 9 to the avatar arranged at the viewing position in the fifth row of the C seat 6 as shown in FIG. The execution of various effects.

一方、仮想イベントのステージ4など、観覧席6の観覧位置で直接的に特別な演出(ピンスポットを用いた演出)を実行する以外の演出の場合には、特別制御実行部117は、観覧席情報148に規定された特定参加者の特定の観覧位置に対して予め定められた方角及び仰角の情報に基づいて、演技キャラクタの行動を制御し、当該演技キャラクタにおける特別な演出の実行を制御する。   On the other hand, in the case of an effect other than executing a special effect (effect using a pin spot) directly at the viewing position of the auditorium 6 such as the stage 4 of the virtual event, the special control execution unit 117 The behavior of the acting character is controlled based on the information on the direction and the elevation angle determined in advance with respect to the specific viewing position of the specific participant defined in the information 148, and the execution of the special performance in the acting character is controlled. .

例えば、特別制御実行部117は、特定参加者の仮想イベントにおける観覧位置がステージ4に向かって右側(又は左側)の場合には、演技キャラクタは観覧席6に向かって左側方向(又は右方向)に向いて特別な演出を実行し、特定参加者の仮想イベントにおける観覧位置がステージ4から遠いサイド(又は近いサイド)の場合には、演技キャラクタは観覧席6の手前に(奥側)に向かって特別な演出を実行する。   For example, when the viewing position in the virtual event of the specific participant is on the right side (or left side) toward the stage 4, the special control execution unit 117 moves the acting character toward the left side (or right direction) toward the viewing seat 6. If the viewing position in the virtual event of the specific participant is on the side far from (or close to) the stage 4, the acting character faces the front of the viewing seat 6 (back side). And perform a special performance.

なお、特別制御実行部117は、仮想イベントにおける観覧位置の列や並びによって特別演出の提供方向(方角及び仰角)を制御する。   The special control execution unit 117 controls the direction in which the special effect is provided (direction and elevation angle) according to the row or line of viewing positions in the virtual event.

他方、特別制御実行部117は、演技キャラクタの行動演出や特殊効果装置における特殊効果演出の場合であって、例えば、演技キャラクタにおける歌唱パフォーマンスの間奏中などの仮想イベント中の予め定められた期間内に、特定参加者における視線入力に基づいて当該特定参加者のアバターの視線が演技キャラクタや特殊効果装置に向いたことを検出すると、覧席情報148に規定された特定参加者の特定の観覧位置に対して予め定めら
れた方角及び仰角の情報に基づいて、特別な演出の実行を制御する。
On the other hand, the special control execution unit 117 is a case of a performance effect of a acting character or a special effect effect in a special effect device, for example, within a predetermined period during a virtual event such as an interlude performance of a singing performance in a performance character. In addition, when it is detected that the line of sight of the specific participant's avatar is directed to the acting character or the special effect device based on the line of sight input of the specific participant, the specific viewing position of the specific participant defined in the seat information 148 The execution of a special effect is controlled on the basis of information on the direction and the elevation angle determined in advance.

すなわち、特別制御実行部117は、予め定められた所定の期間中に、特定参加者の視線が演技キャラクタ又は特殊効果装置に向かっているか否か(仮想カメラの画角内であるか否か)を検出し、図8(A)及び(B)に示すように、入力された特定参加者の視線が演技キャラクタ又は特殊効果装置に向かっていること(仮想カメラの画角内にあること)が検出された場合に、当該検出した特定参加者の観覧位置情報によって示される観覧位置に対して、演技キャラクタ又は特殊効果装置による特別な演出の実行を制御する。   That is, the special control execution unit 117 determines whether or not the line of sight of the specific participant is toward the acting character or the special effect device during the predetermined period (whether or not it is within the angle of view of the virtual camera). As shown in FIGS. 8A and 8B, the line of sight of the input specific participant is directed toward the acting character or special effect device (within the angle of view of the virtual camera). When it is detected, execution of a special performance by the acting character or special effect device is controlled with respect to the viewing position indicated by the detected viewing position information of the specific participant.

[A4.5]イベント画像
次に、本実施形態におけるイベント画像について説明する。
[A4.5] Event Image Next, an event image in the present embodiment will be described.

画像生成部108は、仮想イベントの実施中に、各参加者の仮想カメラを視点とした画像をイベント画像149として記憶部140に記憶する。   During the execution of the virtual event, the image generation unit 108 stores an image from the viewpoint of each participant's virtual camera as the event image 149 in the storage unit 140.

そして、画像生成部108は、仮想イベントの実施中に特別の演出が実行された場合には、当該特別の演出の提供先となる観覧席6の観覧位置を示す観覧位置情報又は当該観覧位置に関する情報を、当該イベント画像に対応付けて記憶部140に記憶する。   Then, when a special effect is executed during the execution of the virtual event, the image generation unit 108 relates to the viewing position information indicating the viewing position of the auditorium 6 serving as the destination of the special effect or the viewing position. Information is stored in the storage unit 140 in association with the event image.

なお、観覧位置に関する情報としては、参加者ID、ニックネーム、行動履歴情報などの当該観覧位置に配置されたアバターに対応する参加者の情報や当該観覧位置に対応する実空間イベント開催場所が含まれる。   Note that the information related to the viewing position includes information on the participant corresponding to the avatar arranged at the viewing position, such as a participant ID, a nickname, and action history information, and a real space event holding place corresponding to the viewing position. .

一方、画像編集再生部109は、仮想イベント終了後、記憶された複数の各参加者の仮想カメラを視点とした画像を編集してイベント編集画像を生成し、イベント画像149として登録する。   On the other hand, after the end of the virtual event, the image editing / playback unit 109 edits the stored image of each participant's virtual camera as a viewpoint to generate an event edit image, and registers it as an event image 149.

そして、画像編集再生部109は、イベント編集画像を生成する際に、特別な演出が実行されたシーンに対応付けて当該特別の演出の提供先となる観覧席6の観覧位置を示す観覧位置情報又は当該観覧位置に関する情報を登録する。   When the image editing / playback unit 109 generates the event editing image, the image editing / playback unit 109 associates with the scene where the special effect is executed, and displays the viewing position information indicating the viewing position of the auditorium 6 that is the destination of the special effect. Alternatively, information regarding the viewing position is registered.

他方、画像編集再生部109は、参加者の指示に基づいて、仮想イベント終了後に記憶されている各参加者の仮想カメラを視点とした画像又はイベント編集画像をイベント画像149として再生する場合には、所定のデータ形式におけるストリーミングデータを該当する端末装置20や図示しない通信端末装置に視聴可能に提供する。   On the other hand, when the image editing / playback unit 109 plays back an event-edited image or an image edited from the viewpoint of each participant's virtual camera stored after the end of the virtual event based on an instruction from the participant, The streaming data in a predetermined data format is provided so as to be viewable to the corresponding terminal device 20 or a communication terminal device (not shown).

そして、画像編集再生部109は、イベント画像149を再生する際に、観覧位置情報又は当該観覧位置に関する情報が付加されているシーンについては、当該観覧位置情報又は当該観覧位置に関する情報をテキストに変換してイベント画像上に重畳させて表示させる表示処理(OSD処理)を実行する。   Then, when playing back the event image 149, the image editing / playback unit 109 converts the viewing position information or the information about the viewing position into text for the scene to which the viewing position information or the information about the viewing position is added. Then, a display process (OSD process) for displaying the image superimposed on the event image is executed.

なお、画像編集再生部109は、参加者の指示に基づいて、画像配信を行うデータサービス(具体的には、当該データサービスを行うサーバ装置)に、所定のデータ形式を有し、かつ、観覧位置情報などが画像上に重畳されたイベント編集画像をアップロードする機能を有しており、当該アップロードされたイベント編集画像をストリーミング配信又はダウンロードすることによって再生可能に提供することができるようになっている。   Note that the image editing / playback unit 109 has a predetermined data format in a data service (specifically, a server device that performs the data service) that distributes an image based on an instruction from the participant, It has a function of uploading an event edited image in which position information or the like is superimposed on the image, and the uploaded event edited image can be provided for reproduction by streaming distribution or downloading. Yes.

[A5]本実施形態における動作
次に、図9を用いて本実施形態のサーバ装置10によって実行される特別演出制御処理を含む仮想イベントにおける実行処理の動作について説明する。なお、図9は、本実施形
態のサーバ装置10によって実行される特別演出制御処理を含む仮想イベントにおける実行処理の動作を示すフローチャートである。
[A5] Operation in this Embodiment Next, the operation of the execution process in the virtual event including the special effect control process executed by the server device 10 of this embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing the operation of the execution process in the virtual event including the special effect control process executed by the server device 10 of the present embodiment.

本動作においては、各参加者の行動情報、課金履歴情報及び観覧位置情報は、参加者情報146に記憶されているものとし、各参加者におけるアバターが仮想イベントにおける観覧位置に既に配置されているものとする。   In this operation, it is assumed that the behavior information, billing history information, and viewing position information of each participant is stored in the participant information 146, and the avatar for each participant is already placed at the viewing position in the virtual event. Shall.

また、本動作においては、演技キャラクタの演技中には、オブジェクト制御部114は、プログラムに沿って演技キャラクタを含む各オブジェクトを仮想3次元空間に配置させ、移動させ、又は、動作させているものとし、イベント管理部111は、仮想3次元空間の各演出を実行しているものとする。   In this operation, during the performance of the acting character, the object control unit 114 arranges, moves, or moves each object including the acting character in the virtual three-dimensional space according to the program. It is assumed that the event management unit 111 is executing each effect in the virtual three-dimensional space.

さらに、情報取得部104は、予め定められたタイミング(5ms)毎に、各端末装置20から出力された視線情報を取得し、アバター視線制御部115は、参加者毎に、かつ、視線情報を取得する毎に、各アバターの仮想3次元空間内の視線方向を決定する。   Further, the information acquisition unit 104 acquires the line-of-sight information output from each terminal device 20 at a predetermined timing (5 ms), and the avatar line-of-sight control unit 115 acquires the line-of-sight information for each participant. Each time it is acquired, the line-of-sight direction in the virtual three-dimensional space of each avatar is determined.

そして、画像生成部108は、参加者毎に、決定された視線方向に基づいて、観覧席に配置された各仮想カメラからみた仮想3次元空間を画像化して仮想3次元空間画像を生成し、生成した仮想3次元空間画像のデータを該当する端末装置20にそれぞれ随時出力している。   Then, for each participant, the image generation unit 108 generates a virtual three-dimensional space image by imaging the virtual three-dimensional space viewed from each virtual camera placed in the auditorium based on the determined line-of-sight direction. Data of the generated virtual three-dimensional space image is output to the corresponding terminal device 20 as needed.

一方、各端末装置20は、画像生成部108から出力された画像データに基づいて仮想3次元空間の画像を表示するための画像(視差画像)を生成してHMDユニット200に表示しているものとする。   On the other hand, each terminal device 20 generates an image (parallax image) for displaying an image in a virtual three-dimensional space based on the image data output from the image generation unit 108 and displays the image on the HMD unit 200. And

まず、イベント管理部111は、予め定められたタイミングの検出やHMDユニット200による参加者の準備完了の検出などの仮想イベントの開始指示を検出すると(ステップS101)、特別制御実行117は、仮想イベントに参加している参加者の各参加者情報146を参照し、特定参加者を決定する(ステップS102)。   First, when the event management unit 111 detects a start instruction of a virtual event such as detection of a predetermined timing or detection of completion of preparation of a participant by the HMD unit 200 (step S101), the special control execution 117 The specific participant is determined with reference to each participant information 146 of the participant participating in (Step S102).

次いで、イベント管理部111は、演技キャラクタの演技及び各種の演出を含めて仮想イベントを開始させる(ステップS103)。このとき、画像生成部108は、各仮想カメラを視点とした画像をイベント画像149として記憶部140に記憶を開始する。   Next, the event management unit 111 starts a virtual event including the performance of the acting character and various effects (step S103). At this time, the image generation unit 108 starts storing an image with each virtual camera as a viewpoint in the storage unit 140 as an event image 149.

次いで、特別制御実行117は、特別演出制御処理の実行タイミングであるか否かを判定する(ステップS104)。このとき、特別制御実行117は、特別演出制御処理の実行タイミングであると判定した場合には、ステップS111に移行し、特別演出制御処理の実行タイミングでないと判定した場合には、イベント管理部111は、仮想イベントの終了の旨を検出したか否かを判定する(ステップS105)。   Next, the special control execution 117 determines whether or not it is the execution timing of the special effect control process (step S104). At this time, if it is determined that the special control execution 117 is the execution timing of the special effect control process, the process proceeds to step S111. If it is determined that it is not the execution timing of the special effect control process, the event management unit 111 is performed. Determines whether the end of the virtual event has been detected (step S105).

そして、イベント管理部111は、仮想イベントの終了の旨を検出したと判定した場合には、デモ画像の表示など仮想イベントの終了に関する終了処理を実行して(ステップS106)本動作を終了させ、仮想イベントの終了の旨を検出していないと判定した場合には、ステップS104の処理に戻る。   If the event management unit 111 determines that the end of the virtual event has been detected, the event management unit 111 executes end processing related to the end of the virtual event, such as displaying a demo image (step S106), and ends this operation. If it is determined that the end of the virtual event has not been detected, the process returns to step S104.

一方、特別制御実行117は、特別演出制御処理の実行タイミングであると判定した場合には、特定参加者の参加者情報146を参照し、仮想イベントの観覧席6上の観覧位置を特定し(ステップS111)。   On the other hand, if the special control execution 117 determines that it is the execution timing of the special effect control process, the special control execution 117 refers to the participant information 146 of the specific participant, and specifies the viewing position on the virtual event auditorium 6 ( Step S111).

次いで、特別制御実行117は、特定した観覧位置に向けて演技キャラクタ又は演出装
置による特別な演出を実行し(ステップS112)、ステップS104の処理に戻る。
Next, the special control execution 117 executes a special effect by the acting character or the effect device toward the specified viewing position (step S112), and returns to the process of step S104.

[B]第2実施形態
次に、本発明におけるイベント演出制御システムの第2実施形態について説明する。なお、本実施形態は、複数の参加者が実空間で実施されるイベントにおいて、当該イベントに用いられる各種の演出装置を制御するシステムに対し、本発明に係るイベント演出制御システム及びプログラムを適用した場合の実施形態である。
[B] Second Embodiment Next, a second embodiment of the event effect control system according to the present invention will be described. In the present embodiment, the event production control system and the program according to the present invention are applied to a system that controls various production devices used in the event in an event in which a plurality of participants are performed in a real space. Embodiment.

[B1]イベント演出制御システム(実空間)の概要
まず、本実施形態のイベント演出制御システム1の概要について説明する。なお、第1実施形態と同一の構成については、同一の符号を付してその説明を省略する。
[B1] Overview of Event Effect Control System (Real Space) First, an overview of the event effect control system 1 of the present embodiment will be described. In addition, about the structure same as 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

本実施形態は、第1実施形態における仮想3次元空間上の演技キャラクタを制御する点に代えて、実空間上の演技キャラクタを制御する点に特徴があり、それ以外の構成は、第1実施形態と同様である。   The present embodiment is characterized in that it controls the acting character in the real space instead of controlling the acting character in the virtual three-dimensional space in the first embodiment, and the other configuration is the first embodiment. It is the same as the form.

また、本実施形態の実空間において実施されるイベントは、仮想3次元空間でなく実空間において実現するイベントであるものの、第1実施形態の仮想3次元空間において実施される仮想イベントとは、基本的には、内容自体には相違がない。ただし、実空間のイベントは、各イベントの演出に関しては各種の装置を用いて実際に行う点で相違する。   In addition, although the event executed in the real space of the present embodiment is an event realized in the real space instead of the virtual three-dimensional space, the virtual event executed in the virtual three-dimensional space of the first embodiment is basically There is no difference in the content itself. However, real space events are different in that each event is actually performed using various devices.

一方、本実施形態のイベント演出制御システム1は、実空間内において、スクリーンや大型ディスプレイ装置に所定の演出を行うキャラクタ(以下、「演技キャラクタ」という。)を表示させて、又は、3Dホログラムなどの立体映像技術を用いて演技キャラクタを表示させて、当該演出キャラクタが行う演技パフォーマンス(具体的には、歌唱ライブ)を行うライブステージ(以下、「ステージ」ともいう。)を観覧させるための各種の制御を行うシステムである。   On the other hand, the event effect control system 1 of the present embodiment displays a character (hereinafter referred to as “acting character”) that performs a predetermined effect on a screen or a large display device in a real space, or a 3D hologram or the like. Various types of viewing for a live stage (hereinafter, also referred to as “stage”) for performing performance (specifically, singing live) performed by the performance character by displaying the performance character using the stereoscopic video technology of It is a system that controls.

すなわち、本実施形態のイベント演出制御システム1は、演技キャラクタとしては、実空間に存在する参加者に向けて視線を送る動作又は当該参加者に対して特別に提供される行動(ファンサービス)などを実行する演技キャラクタを注視することを含むイベントを制御する構成を有している。   That is, the event production control system 1 of the present embodiment has, as the acting character, an action of sending a line of sight toward a participant who exists in the real space or an action (fan service) provided specifically to the participant. It has the structure which controls the event including gazing at the performance character which performs.

[B2]イベント演出制御システム(実空間)の詳細
次に、図10を用いて本実施形態のイベント演出制御システム1の概要構成について説明する。なお、図10は、本実施形態のイベント演出制御システム1の構成例を説明するための図である。
[B2] Details of Event Effect Control System (Real Space) Next, a schematic configuration of the event effect control system 1 of the present embodiment will be described with reference to FIG. In addition, FIG. 10 is a figure for demonstrating the structural example of the event presentation control system 1 of this embodiment.

本実施形態のイベント演出制御システム1は、図10に示すように、仮想3次元空間内における仮想イベントを実現するための各種の処理を実行するサーバ装置10と、演技キャラクタ8を表示する表示装置11と、眼鏡に眼球の動きを検出するための撮像カメラが設けられた参加者の視線を検出する検出装置21と、参加者の観覧位置に配置されている参加者IDを登録する登録装置22と、参加者の応援行動を検出するための入力デバイス23と、がインターネットなどのネットワークに接続可能に構成されている。   As shown in FIG. 10, the event presentation control system 1 of the present embodiment includes a server device 10 that executes various processes for realizing a virtual event in a virtual three-dimensional space, and a display device that displays an acting character 8. 11, a detection device 21 for detecting the line of sight of a participant provided with an imaging camera for detecting eyeball movement on the glasses, and a registration device 22 for registering a participant ID arranged at the viewing position of the participant And the input device 23 for detecting a participant's support action is comprised so that connection to networks, such as the internet, is possible.

表示装置11は、ステージ4R上に形成されている大型のスクリーンと、当該スクリーンに画像を投影するプロジェクターによって構成され、サーバ装置10から出力された画像を表示する。   The display device 11 includes a large screen formed on the stage 4R and a projector that projects an image on the screen, and displays the image output from the server device 10.

検出装置21は、第1実施形態におけるHMDユニット200の視線方向検出機能と同
一の機能を有しており、各参加者によって装着される眼鏡型の装置である。また、検出装置21は、各参加者の視線方向を当該各参加者のIDとともに無線通信によってサーバ装置10に送信する機能を有している。
The detection device 21 has the same function as the visual line direction detection function of the HMD unit 200 in the first embodiment, and is a glasses-type device worn by each participant. The detection device 21 has a function of transmitting the line-of-sight direction of each participant to the server device 10 by wireless communication together with the ID of each participant.

なお、検出装置21は、第1実施形態のHMDユニット200に設けられたモーションセンサ220を有してもよく、この場合には、検出した検出信号を当該各参加者のIDとともに無線通信によってサーバ装置10に送信する機能を有する。   The detection device 21 may include the motion sensor 220 provided in the HMD unit 200 of the first embodiment. In this case, the detected detection signal is transmitted to the server together with the ID of each participant by wireless communication. It has a function of transmitting to the device 10.

したがって、本実施形態においては、第1実施形態と同様に、各参加者の視線方向の検出を行うことができるようになっている。   Therefore, in the present embodiment, the gaze direction of each participant can be detected as in the first embodiment.

登録装置22は、観覧席6Rの各観覧位置に設けられており、タッチ入力、キー入力又はバーコード入力可能な構成を有している。例えば、登録装置22は、各参加者のチケットに形成されたバーコードを読み取ることによって、又は、参加者IDを入力することによって各参加者の参加者IDを取得し、取得した参加者IDを無線通信又は有線通信によってサーバ装置10に送信する機能を有している。   The registration device 22 is provided at each viewing position of the viewing seat 6R, and has a configuration capable of touch input, key input, or bar code input. For example, the registration device 22 acquires the participant ID of each participant by reading a barcode formed on the ticket of each participant or by inputting the participant ID, and the acquired participant ID is It has a function of transmitting to the server device 10 by wireless communication or wired communication.

したがって、本実施形態においては、第1実施形態と同様に、各参加者の観覧位置を参加者IDに対応付けて管理することができるようになっている。   Therefore, in the present embodiment, similarly to the first embodiment, the viewing position of each participant can be managed in association with the participant ID.

入力デバイス23は、スマートフォン、携帯電話、PHS、ゲーム装置、PDA、携帯型ゲーム装置機などの携帯型の情報処理装置によって構成されていてもよいし、単にモーションセンサが組み込まれたサイリウムなどのデバイスであってもよい。   The input device 23 may be configured by a portable information processing device such as a smartphone, a mobile phone, a PHS, a game device, a PDA, or a portable game device, or a device such as a psyllium that simply incorporates a motion sensor. It may be.

また、入力デバイス23は、検出装置21と同様に、検出した検出信号を当該各参加者のIDとともに無線通信によってサーバ装置10に送信する機能を有する。   Similarly to the detection device 21, the input device 23 has a function of transmitting the detected detection signal to the server device 10 by wireless communication together with the ID of each participant.

したがって、本実施形態においては、第1実施形態と同様に、各参加者の応援などの各種の操作入力を検出することができるようになっている。   Therefore, in the present embodiment, various operation inputs such as cheering of each participant can be detected as in the first embodiment.

このような構成を有することによって、本実施形態においては、第1実施形態と同様に、サーバ装置10において、各参加者IDに対応付けて各参加者の行動履歴情報と実空間のイベントにおける観覧位置とを登録していることを前提に、特定参加者を抽出し、当該抽出した特定参加者のイベント上の観覧位置に向けて演技キャラクタや演出装置における特別な演出を提供する特別演出制御処理を実行することが可能になっている。   By having such a configuration, in the present embodiment, similarly to the first embodiment, in the server device 10, the behavior history information of each participant and viewing in an event in the real space are associated with each participant ID. Special effect control processing that extracts a specific participant on the assumption that the position is registered and provides a special effect in the acting character or the production device toward the viewing position on the event of the extracted specific participant Can be executed.

すなわち、本実施形態のサーバ装置10は、第1実施形態と同様に、
(1)複数の参加者が参加する実空間のイベントにおいて、当該イベントの演出に用いられる演技キャラクタ又は演出装置を制御し、
(2)参加者IDに対応付けて当該参加者のイベントに関連した行動を示す行動履歴情報及び参加者のイベントの観覧位置情報を参加者情報146として記憶部140に登録し、(3)各参加者の登録された行動履歴情報に基づいて、複数の参加者の中から特定参加者を抽出し、
(4)抽出した特定参加者の参加者IDに基づいて当該特定参加者の観覧位置情報を特定し、
(5)当該特定した観覧位置情報によって示される実空間内における観覧位置に対して、演出演技キャラクタ又は演出装置による特別な演出の実行を制御する、
構成を有している。
That is, the server device 10 of this embodiment is similar to the first embodiment,
(1) In an event in a real space where a plurality of participants participate, the acting character or the production device used for producing the event is controlled,
(2) The behavior history information indicating the behavior related to the event of the participant in association with the participant ID and the viewing position information of the event of the participant are registered in the storage unit 140 as the participant information 146, and (3) each Based on the registered action history information of participants, we extract specific participants from multiple participants,
(4) Identifying the viewing position information of the specific participant based on the extracted participant ID of the specific participant,
(5) Control the execution of a special performance by the performance character or the production device for the viewing position in the real space indicated by the identified viewing position information.
It has a configuration.

本実施形態においては、このような構成を有することによって、例えば、多くの実空間
のイベントに参加する参加者に対して、特定の商品を購入した参加者に対して、又は、一定以上の課金が実行された参加者に対して、特別な演出を提供することができるので、各参加者に対して、イベントに繰り返し参加するためのモチベーションを維持又は向上させることができるとともに、イベントに参加することに基づく興趣性を向上させるだけでなく、継続的にイベントに参加すること、及び、当該イベントに参加するまでの過程についても興趣の対象として用いることができるようになっている。
In this embodiment, by having such a configuration, for example, a participant who participates in many real space events, a participant who purchases a specific product, or a certain amount of charge or more Since it is possible to provide a special performance to the participants who have executed, it is possible to maintain or improve the motivation for each participant to participate repeatedly in the event and participate in the event. In addition to improving the interest based on the above, it is possible to use the process of participating in an event continuously and the process up to participation in the event as an object of interest.

したがって、本実施形態においては、参加者のイベントに対する興趣性を向上させることができるとともに、それによって当該仮想イベントに対する参加者における集客を図りつつ、当該イベントを活性化することができるようになっている。   Therefore, in this embodiment, while being able to improve the interest property with respect to an event of a participant, the said event can be activated while aiming at the customer at the participant with respect to the said virtual event by it. Yes.

[B3]本実施形態の変形例
次に、図11を用いて本実施形態の変形例について説明する。なお、図11は、本実施形態のイベント演出制御システム1の変形例を説明するための図である。
[B3] Modified Example of the Present Embodiment Next, a modified example of the present embodiment will be described with reference to FIG. In addition, FIG. 11 is a figure for demonstrating the modification of the event effect control system 1 of this embodiment.

(変形例1)
本実施形態においては、演技キャラクタをステージ4Rに設けられた表示装置11によって表示するようになっているが、図11に示すように、ロボット8Cによって構成されている演出キャラクタを登場させ、サーバ装置10によって当該演出キャラクタや演出装置(照明装置や特殊効果装置)を制御し、演出キャラクタや演出装置によって所定の演出(特別な演出を含む。)を実行させてもよい。
(Modification 1)
In the present embodiment, the acting character is displayed on the display device 11 provided on the stage 4R. However, as shown in FIG. 11, an effect character constituted by the robot 8C is made to appear, and the server device is displayed. The effect character or effect device (illumination device or special effect device) may be controlled by 10 and a predetermined effect (including a special effect) may be executed by the effect character or effect device.

なお、本変形例においては、ロボットに代えてバズーカ型クラッカー装置などの特殊効果装置であってもよい。   In this modification, a special effect device such as a bazooka-type cracker device may be used instead of the robot.

(変形例2)
本実施形態においては、演技キャラクタ又は演出装置においては、サーバ装置10によって自動制御されているが、特定参加者を特定し、その観覧位置を管理者に通知し、当該管理者の操作によって特定参加者の観覧位置に対して特別な演出を実行させてもよい。
(Modification 2)
In the present embodiment, the acting character or the production device is automatically controlled by the server device 10, but the specific participant is specified, the viewing position is notified to the administrator, and the specific participation is performed by the operation of the administrator. A special effect may be executed on the viewing position of the person.

具体的には、サーバ装置10は、
(1)実空間のイベントに参加する複数の参加者の参加者IDのそれぞれに対応付けて、各参加者の当該イベントに関連した行動を示す行動情報及び観覧位置情報を記憶部140に登録し、
(2)各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出し、
(3)抽出した特定参加者の参加者ID及び記憶されている観覧位置情報に基づいて、イベントの演出に用いられる演技キャラクタ又は演出装置による特別な演出を提供する提供先となる特定参加者の観覧位置を通知する、
構成を有していてもよい。
Specifically, the server device 10
(1) In association with each participant ID of a plurality of participants participating in an event in the real space, the behavior information and viewing position information indicating the behavior related to the event of each participant are registered in the storage unit 140. ,
(2) Based on the registered behavior information of each participant, a specific participant is extracted as a specific participant from a plurality of participants,
(3) Based on the participant ID of the extracted specific participant and the stored viewing position information, the specific participant who is a providing destination that provides a special performance by the acting character or the production device used for the production of the event Notify viewing position,
You may have a structure.

[C]その他
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
[C] Others The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

本実施形態では、演技キャラクタを注視するシミュレーションイベントとして説明しているが、恋愛シミュレーションなどのその他シミュレーションイベント、対戦イベント又はRPGなどの他のイベントにおいても用いることがきる。   Although this embodiment has been described as a simulation event in which an acting character is watched, it can also be used in other simulation events such as love simulation, battle events, or other events such as RPG.

また、本実施形態は、一のサーバ装置10によって各イベントを端末装置20に提供してもよいし、複数のサーバ装置10を連動させてサーバシステムを構築し、各イベントを端末装置20に提供してもよい。   In the present embodiment, each server device 10 may provide each event to the terminal device 20, or a plurality of server devices 10 may be linked to construct a server system and each event may be provided to the terminal device 20. May be.

さらに、本実施形態においては、サーバ装置10によって各種のイベントに関する処理が実行されているが、上記の端末装置20の端末制御ユニット300に、サーバ処理部100の各機能及びイベントプログラムを実行させ、スタンドアローンとして上記のイベントを実現してもよい。また、複数の参加者によってイベントを実行する場合には、さらに、1の端末装置20が上記のサーバとしても機能させてもよい。   Furthermore, in the present embodiment, processing related to various events is executed by the server device 10, but the terminal control unit 300 of the terminal device 20 described above executes each function and event program of the server processing unit 100, The above event may be realized as a stand alone. Further, when an event is executed by a plurality of participants, one terminal device 20 may also function as the server.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. In addition, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。   As described above, the embodiments of the present invention have been described in detail. However, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. . Accordingly, all such modifications are intended to be included in the scope of the present invention.

1 :イベント演出制御システム
2 :参加者
4、4R :ステージ
5 :アバター
6、6R :観覧席
8 :演技キャラクタ(アイドルキャラクタ)
10 :サーバ装置
11 :表示装置
20 :端末装置
21 :検出装置
22 :登録装置
23 :入力デバイス
30 :表示物オブジェクト
100 :サーバ処理部
101 :通信制御部
102 :ユーザ管理部
104 :情報取得部
105 :参加者行動管理部
106 :仮想カメラ制御部
107 :音生成部
108 :画像生成部
109 :画像編集再生部
110 :イベント制御部
111 :イベント管理部
112 :観覧席設定部
113 :アバター設定部
114 :オブジェクト制御部
115 :アバター視線制御部
117 :特別制御実行部
120 :入力部
130 :表示部
140 :記憶部
142 :主記憶部
144 :イベント情報
146 :参加者情報
149 :イベント画像
150 :振動生成部
160 :タイマ部
180 :情報記憶媒体
196 :通信部
200 :HMDユニット
210 :撮像部
211 :撮像カメラ
212 :画像生成部
220 :モーションセンサ
230 :インターフェース
240 :音出力部
250 :スイッチ
260 :入力部
261 :右目用表示パネル
262 :左目用表示パネル
270 :記憶部
271 :主記憶部
272 :画像バッファ
280 :情報記憶媒体
290 :表示部
296 :通信部
300 :端末制御ユニット
310 :端末処理部
311 :通信制御部
312 :イベント処理部
320 :描画部
330 :音処理部
340 :振動部
341 :振動体
1: Event production control system 2: Participant 4, 4R: Stage 5: Avatar 6, 6R: Standing seat 8: Acting character (idol character)
10: Server device 11: Display device 20: Terminal device 21: Detection device 22: Registration device 23: Input device 30: Display object 100: Server processing unit 101: Communication control unit 102: User management unit 104: Information acquisition unit 105 : Participant behavior management unit 106: Virtual camera control unit 107: Sound generation unit 108: Image generation unit 109: Image editing / playback unit 110: Event control unit 111: Event management unit 112: Spectator setting unit 113: Avatar setting unit 114 : Object control unit 115: Avatar line of sight control unit 117: Special control execution unit 120: Input unit 130: Display unit 140: Storage unit 142: Main storage unit 144: Event information 146: Participant information 149: Event image 150: Vibration generation Unit 160: Timer unit 180: Information storage medium 196: Communication unit 200 : HMD unit 210: Imaging unit 211: Imaging camera 212: Image generation unit 220: Motion sensor 230: Interface 240: Sound output unit 250: Switch 260: Input unit 261: Display panel for right eye 262: Display panel for left eye 270: Storage Unit 271: main storage unit 272: image buffer 280: information storage medium 290: display unit 296: communication unit 300: terminal control unit 310: terminal processing unit 311: communication control unit 312: event processing unit 320: drawing unit 330: sound Processing unit 340: Vibrating unit 341: Vibrating body

Claims (11)

コンピュータを、
複数の参加者が参加するイベントの演出に用いられる演出オブジェクト又は演出装置を制御する制御手段、
前記参加者の識別情報に対応付けて当該参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段、及び、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段、
として機能させ、
前記制御手段が、
前記抽出された特定参加者の識別情報に基づいて当該特定参加者の観覧位置情報を特定し、
当該特定した観覧位置情報によって示される観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、ことを特徴とするプログラム。
Computer
Control means for controlling a production object or production device used for production of an event in which a plurality of participants participate,
First registration means for registering in the storage means behavior information indicating the behavior related to the event of the participant in association with the identification information of the participant;
Second registration means for registering viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant in the storage means; and
An extraction means for extracting a specific participant as a specific participant from a plurality of participants based on the registered behavior information of each participant;
Function as
The control means is
Based on the extracted identification information of the specific participant, specifying the viewing position information of the specific participant,
A program for controlling execution of a special effect by the effect object or the effect device with respect to the viewing position indicated by the specified viewing position information.
請求項1に記載のプログラムにおいて、
前記行動情報とは、前記参加者の行動に関する情報、前記参加者の課金した際の課金に関する情報、又は、前記参加者の過去の前記行動若しくは前記課金に関する情報のいずれかが含まれる、プログラム。
The program according to claim 1,
The behavior information includes any one of information related to the behavior of the participant, information related to charging when the participant is charged, or information related to the past behavior of the participant or information related to the charging.
請求項1又は2に記載のプログラムにおいて、
前記イベントが、各参加者の前記観覧位置が設定された仮想3次元空間内で実施されるイベントである場合に、
前記参加者毎に、各参加者の前記仮想3次元空間内における前記観覧位置を当該各参加者に対応する仮想カメラの位置として設定し、各仮想カメラを視点として前記各参加者の視線方向に見える仮想3次元空間の画像をそれぞれ生成する画像生成手段として更に前記コンピュータを機能させ、
前記制御手段が、
前記仮想3次元空間内に設定された前記特定参加者の観覧位置に対して、前記演出オブジェクト又は前記演出装置による前記仮想3次元空間における特別な演出の実行を制御する、プログラム。
In the program according to claim 1 or 2,
When the event is an event performed in a virtual three-dimensional space in which the viewing position of each participant is set,
For each participant, the viewing position of each participant in the virtual three-dimensional space is set as the position of the virtual camera corresponding to each participant, and the viewing direction of each participant is viewed from each virtual camera as a viewpoint. Further causing the computer to function as image generation means for generating visible images of a virtual three-dimensional space,
The control means is
A program for controlling execution of a special effect in the virtual three-dimensional space by the effect object or the effect device with respect to the viewing position of the specific participant set in the virtual three-dimensional space.
請求項3に記載のプログラムにおいて、
前記記憶手段には、
前記仮想3次元空間に設定された各観覧位置に対応付けて、所与の実空間に設定された前記イベントに参加する前記参加者の参加位置を示す情報が参加位置情報として記憶されており、
前記制御手段が、
前記参加位置に存在する前記特定参加者の仮想3次元空間上の観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、プログラム。
In the program according to claim 3,
In the storage means,
In association with each viewing position set in the virtual three-dimensional space, information indicating the participation position of the participant who participates in the event set in a given real space is stored as participation position information,
The control means is
A program for controlling execution of a special effect by the effect object or the effect device with respect to a viewing position in the virtual three-dimensional space of the specific participant existing at the participation position.
請求項3又は4に記載のプログラムであって、
前記画像生成手段が、
前記参加者の視界を覆う構造を有し、かつ、前記仮想3次元空間の画像を視認させる装着型画像表示装置から構成された表示手段に、受付手段によって受け付けた前記参加者の視線入力に応じて、前記生成した仮想3次元空間の画像を表示させる、プログラム。
The program according to claim 3 or 4,
The image generating means
In response to the participant's line-of-sight input received by the receiving means, the display means has a structure that covers the field of view of the participant and is configured by a wearable image display device that visually recognizes the image in the virtual three-dimensional space. And displaying the generated image of the virtual three-dimensional space.
請求項1〜5のいずれか1項に記載のプログラムにおいて、
前記参加者によって少なくとも当該参加者の実空間における視線方向の入力を視線入力として受け付ける処理を実行する受付手段、及び、
前記入力された特定参加者の視線が前記演出オブジェクト又は前記演出装置に向かっているか否かを検出する検出手段、
として前記コンピュータを機能させ、
前記制御手段が、
前記入力された特定参加者の視線が前記演出オブジェクト又は前記演出装置に向かっていることが検出された場合に、前記検出した特定参加者の観覧位置情報によって示される観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、プログラム。
In the program according to any one of claims 1 to 5,
An accepting unit for executing processing for accepting at least an input of a gaze direction in the real space of the participant as a gaze input by the participant; and
Detecting means for detecting whether or not the input gaze of the specific participant is heading toward the effect object or the effect device;
Function the computer as
The control means is
When it is detected that the input line of sight of the specific participant is heading toward the effect object or the effect device, the effect is performed with respect to the viewing position indicated by the detected viewing position information of the specific participant. A program for controlling execution of a special effect by an object or the effect device.
請求項1〜6のいずれか1項に記載のプログラムにおいて、
前記各参加者が前記観覧位置に存在するか否かを判定する判定手段として前記コンピュータを機能させ、
前記制御手段が、
前記参加者が前記観覧位置に存在すると判定された場合に、前記イベントを開始する制御を実行する、プログラム。
In the program according to any one of claims 1 to 6,
Causing the computer to function as determination means for determining whether or not each participant exists at the viewing position;
The control means is
A program that executes control to start the event when it is determined that the participant exists at the viewing position.
請求項1〜7のいずれか1項に記載のプログラムにおいて、
前記イベント中に当該イベントの画像を前記記憶手段に記憶する記憶制御手段として前記コンピュータを機能させ、
前記記憶制御手段が、
前記イベントの画像の記憶中であって、前記演出オブジェクト又は前記演出装置が前記特別の演出を実行しているときに、当該特別の演出の提供先となる観覧位置を示す情報又は当該観覧位置に関する情報を、前記記憶されているイベントの画像に対応付けて前記記憶手段に記憶する、プログラム。
In the program according to any one of claims 1 to 7,
Causing the computer to function as storage control means for storing an image of the event in the storage means during the event;
The storage control means is
When the image of the event is being stored and the effect object or the effect device is executing the special effect, the information indicating the viewing position to which the special effect is provided or the viewing position A program for storing information in the storage unit in association with the stored image of the event.
コンピュータを、
イベントに参加する複数の参加者の識別情報のそれぞれに対応付けて、各参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段、及び、
前記抽出された特定参加者の識別情報御及び前記記憶されている観覧位置情報に基づいて、前記イベントの演出に用いられる演出オブジェクト又は演出装置による特別な演出を提供する提供先となる特定参加者の観覧位置を通知する通知手段を制御する通知制御手段、
として機能させることを特徴とするプログラム。
Computer
First registration means for registering, in the storage means, behavior information indicating behavior related to the event of each participant in association with identification information of a plurality of participants participating in the event,
Second registration means for registering in the storage means viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant;
Based on the registered behavior information of each participant, an extraction means for extracting a specific participant as a specific participant from a plurality of participants, and
Based on the extracted identification information of the specific participant and the stored viewing position information, the specific participant serving as a providing destination for providing a special effect by the effect object or effect device used for the event Notification control means for controlling the notification means for notifying the viewing position of
A program characterized by functioning as
複数の参加者が参加するイベントの演出に用いられる演出オブジェクト又は演出装置を制御する制御手段と、
前記参加者の識別情報に対応付けて当該参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段と、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段と、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段と、
を備え、
前記制御手段が、
前記抽出された特定参加者の識別情報に基づいて当該特定参加者の観覧位置情報を特定し、
当該特定した観覧位置情報によって示される観覧位置に対して、前記演出オブジェクト又は前記演出装置による特別な演出の実行を制御する、ことを特徴とするイベント制御システム。
Control means for controlling a production object or production device used for production of an event in which a plurality of participants participate;
First registration means for registering in the storage means behavior information indicating behavior related to the event of the participant in association with the identification information of the participant;
Second registration means for registering viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant in the storage means;
An extracting means for extracting a specific participant as a specific participant from a plurality of participants based on the registered behavior information of each participant;
With
The control means is
Based on the extracted identification information of the specific participant, specifying the viewing position information of the specific participant,
An event control system that controls execution of a special effect by the effect object or the effect device with respect to the viewing position indicated by the specified viewing position information.
イベントに参加する複数の参加者の識別情報のそれぞれに対応付けて、各参加者の前記イベントに関連した行動を示す行動情報を記憶手段に登録する第1登録手段と、
前記参加者の識別情報に対応付けて当該参加者の前記イベントの観覧位置の情報を示す観覧位置情報を前記記憶手段に登録する第2登録手段と、
各参加者の登録された行動情報に基づいて、複数の参加者の中から特定の参加者を特定参加者として抽出する抽出手段と、
前記抽出された特定参加者の識別情報御及び前記記憶されている観覧位置情報に基づいて、前記イベントの演出に用いられる演出オブジェクト又は演出装置による特別な演出を提供する提供先となる特定参加者の観覧位置を通知する通知手段を制御する通知制御手段と
を備えることを特徴とするイベント通知システム。
First registration means for registering in the storage means behavior information indicating the behavior related to the event of each participant in association with identification information of a plurality of participants participating in the event;
Second registration means for registering viewing position information indicating the viewing position information of the event of the participant in association with the identification information of the participant in the storage means;
An extracting means for extracting a specific participant as a specific participant from a plurality of participants based on the registered behavior information of each participant;
Based on the extracted identification information of the specific participant and the stored viewing position information, the specific participant serving as a providing destination for providing a special effect by the effect object or effect device used for the event An event notification system comprising: a notification control unit that controls a notification unit that notifies the viewing position of the event.
JP2016244835A 2016-12-16 2016-12-16 Event control system and program Active JP6955861B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016244835A JP6955861B2 (en) 2016-12-16 2016-12-16 Event control system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016244835A JP6955861B2 (en) 2016-12-16 2016-12-16 Event control system and program

Publications (2)

Publication Number Publication Date
JP2018094326A true JP2018094326A (en) 2018-06-21
JP6955861B2 JP6955861B2 (en) 2021-10-27

Family

ID=62631256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016244835A Active JP6955861B2 (en) 2016-12-16 2016-12-16 Event control system and program

Country Status (1)

Country Link
JP (1) JP6955861B2 (en)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156404A (en) * 2017-03-17 2018-10-04 エイディシーテクノロジー株式会社 Exhibition device
JP2019192172A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
JP2019188059A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device and method
CN110493642A (en) * 2019-07-23 2019-11-22 天脉聚源(杭州)传媒科技有限公司 A kind of virtual interactive event watching method, system, device and storage medium
JP2020009027A (en) * 2018-07-04 2020-01-16 学校法人 芝浦工業大学 Live production system and live production method
JP2020017242A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Three-dimensional content distribution system, three-dimensional content distribution method, and computer program
JP2020102053A (en) * 2018-12-21 2020-07-02 株式会社ActEvolve Content distribution system, receiving device and program
US10713834B2 (en) 2018-04-27 2020-07-14 Colopl, Inc. information processing apparatus and method
JP2020127211A (en) * 2020-03-31 2020-08-20 株式会社バーチャルキャスト Three-dimensional content distribution system, three-dimensional content distribution method, and computer program
JP2020130592A (en) * 2019-02-19 2020-08-31 株式会社コロプラ Program, method, information processing device, and system
JP2020162991A (en) * 2019-03-29 2020-10-08 株式会社コロプラ Game program, game method, and information terminal device
JP2020162979A (en) * 2019-03-29 2020-10-08 株式会社コロプラ system
CN111773736A (en) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 Behavior generation method and device for virtual role
JP2020182500A (en) * 2019-04-26 2020-11-12 株式会社コロプラ Program, method, and information terminal device
JP2021010756A (en) * 2019-04-26 2021-02-04 株式会社コロプラ Program, method, and information terminal device
JP2021033786A (en) * 2019-08-27 2021-03-01 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
JP2021035577A (en) * 2020-11-12 2021-03-04 株式会社コロプラ Game program, game method, and information terminal device
JP2021077257A (en) * 2019-11-13 2021-05-20 グリー株式会社 Information processing apparatus, information processing method, and information processing program
CN113052344A (en) * 2020-08-26 2021-06-29 视伴科技(北京)有限公司 Method and device for selecting seat for event activity
JP2021112591A (en) * 2019-03-29 2021-08-05 株式会社コロプラ Distribution program, distribution method, and information terminal device
JP2021140792A (en) * 2020-03-09 2021-09-16 株式会社IoT iPLAB Communication method
CN113457172A (en) * 2021-06-24 2021-10-01 网易(杭州)网络有限公司 Information processing method in game, electronic device and storage medium
JP6951610B1 (en) * 2020-07-20 2021-10-20 株式会社ウフル Speech processing system, speech processor, speech processing method, and speech processing program
WO2021220866A1 (en) * 2020-05-01 2021-11-04 ソニーグループ株式会社 Server device, terminal device, information processing system, and information processing method
JP2021189544A (en) * 2020-05-26 2021-12-13 グリー株式会社 Computer program, and method
JP2022014819A (en) * 2020-07-07 2022-01-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 Composite video generation system, composite video generation method, and computer program
WO2022024597A1 (en) * 2020-07-31 2022-02-03 パナソニックIpマネジメント株式会社 Lighting control system, lighting system, contribution rate calculating system, contribution rate calculating method, and program
CN114206563A (en) * 2019-03-29 2022-03-18 瑞博缇克斯有限责任公司 Robot recreation compartment
CN115039410A (en) * 2020-02-12 2022-09-09 索尼集团公司 Information processing system, information processing method, and program
WO2022190917A1 (en) * 2021-03-09 2022-09-15 ソニーグループ株式会社 Information processing device, information processing terminal, information processing method, and program
WO2022209129A1 (en) * 2021-03-31 2022-10-06 ソニーグループ株式会社 Information processing device, information processing method and program
JP2022164675A (en) * 2019-08-27 2022-10-27 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
EP4054297A3 (en) * 2021-03-03 2022-11-30 Yamaha Corporation Image display system, display control method, and light emission control method
JP7477196B2 (en) 2022-08-02 2024-05-01 株式会社コナミデジタルエンタテインメント Computer program for use in user terminal, event system for use in user terminal to which the same is applied, computer program for use therein, and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090189977A1 (en) * 2008-01-25 2009-07-30 International Business Machines Corporation System and method for spotlight identification of audience members during question and answer sessions
JP2009301477A (en) * 2008-06-17 2009-12-24 Yahoo Japan Corp Content editing device, method and program
JP2010066790A (en) * 2008-09-08 2010-03-25 Taito Corp Content editing server and content editing program
JP2014179984A (en) * 2013-03-14 2014-09-25 Immersion Corp Haptic effects broadcasting during group event
JP2015231443A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and game system
US20160220903A1 (en) * 2015-02-02 2016-08-04 Kuato Games (UK) Limited Systems and Methods for Dynamically Creating Personalized Storybooks based on User Interactions within a Virtual Environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090189977A1 (en) * 2008-01-25 2009-07-30 International Business Machines Corporation System and method for spotlight identification of audience members during question and answer sessions
JP2009301477A (en) * 2008-06-17 2009-12-24 Yahoo Japan Corp Content editing device, method and program
JP2010066790A (en) * 2008-09-08 2010-03-25 Taito Corp Content editing server and content editing program
JP2014179984A (en) * 2013-03-14 2014-09-25 Immersion Corp Haptic effects broadcasting during group event
JP2015231443A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and game system
US20160220903A1 (en) * 2015-02-02 2016-08-04 Kuato Games (UK) Limited Systems and Methods for Dynamically Creating Personalized Storybooks based on User Interactions within a Virtual Environment

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"Hatsune Miku VR Special Live "ALIVE"", XVI INC.[ONLINE], JPN6021011849, 2015, ISSN: 0004478222 *
"Oculus Riftで本格的な初音ミクのVRライブを楽しむ! "デジアイ×初音ミク"ブースリポート[ニコニコ超会", ファミ通.COM[ONLINE], JPN6021011846, 12 March 2016 (2016-03-12), ISSN: 0004478218 *
"ニコニコ超会議、デジアイブースで大人気の『初音ミク VR Special LIVE』をスマホVR版コンテンツが無料配信", MOGURAVR[ONLINE], JPN6021011847, 31 August 2016 (2016-08-31), ISSN: 0004478220 *
"ロートデジアイ×初音ミク第2弾プロジェクト、「ニコニコ超会議2015」で「初音ミクVR SPECIAL LIVE」初公開", BCN+R[ONLINE], JPN6021011848, 20 April 2015 (2015-04-20), ISSN: 0004478221 *
"目を合わせるとキャラクターが微笑む!VRヘッドセット「FOVE」の没入感がスゴい", SAKIDORI [ONLINE], JPN6020036854, 22 May 2015 (2015-05-22), ISSN: 0004478219 *
磯山 直也、外4名: "観客参加型演劇YOUPLAYにおけるインタラクション設計", 情報処理学会 シンポジウム エンタテインメントコンピューティングシンポジウム 2014 [ONLIN, JPN6020036855, September 2014 (2014-09-01), JP, pages 168 - 179, ISSN: 0004478223 *

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156404A (en) * 2017-03-17 2018-10-04 エイディシーテクノロジー株式会社 Exhibition device
JP2019192172A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
JP2019188059A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device and method
US10713834B2 (en) 2018-04-27 2020-07-14 Colopl, Inc. information processing apparatus and method
US11074737B2 (en) 2018-04-27 2021-07-27 Colopl, Inc. Information processing apparatus and method
JP7216394B2 (en) 2018-07-04 2023-02-01 学校法人 芝浦工業大学 Live production system and live production method
JP2020009027A (en) * 2018-07-04 2020-01-16 学校法人 芝浦工業大学 Live production system and live production method
JP2020017242A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Three-dimensional content distribution system, three-dimensional content distribution method, and computer program
JP2020102053A (en) * 2018-12-21 2020-07-02 株式会社ActEvolve Content distribution system, receiving device and program
JP2020130592A (en) * 2019-02-19 2020-08-31 株式会社コロプラ Program, method, information processing device, and system
JP2022020640A (en) * 2019-03-29 2022-02-01 株式会社コロプラ system
JP7315613B2 (en) 2019-03-29 2023-07-26 株式会社コロプラ Programs and information processing systems
JP2020162979A (en) * 2019-03-29 2020-10-08 株式会社コロプラ system
JP2021112591A (en) * 2019-03-29 2021-08-05 株式会社コロプラ Distribution program, distribution method, and information terminal device
CN114206563A (en) * 2019-03-29 2022-03-18 瑞博缇克斯有限责任公司 Robot recreation compartment
JP2020162991A (en) * 2019-03-29 2020-10-08 株式会社コロプラ Game program, game method, and information terminal device
JP7344948B2 (en) 2019-03-29 2023-09-14 株式会社コロプラ system
JP2020182500A (en) * 2019-04-26 2020-11-12 株式会社コロプラ Program, method, and information terminal device
JP2021010756A (en) * 2019-04-26 2021-02-04 株式会社コロプラ Program, method, and information terminal device
JP7332562B2 (en) 2019-04-26 2023-08-23 株式会社コロプラ Program, method, and information terminal
CN110493642B (en) * 2019-07-23 2023-11-17 北京拉近众博科技有限公司 Virtual interactive viewing method, system, device and storage medium
CN110493642A (en) * 2019-07-23 2019-11-22 天脉聚源(杭州)传媒科技有限公司 A kind of virtual interactive event watching method, system, device and storage medium
JP2022164677A (en) * 2019-08-27 2022-10-27 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
JP2022164675A (en) * 2019-08-27 2022-10-27 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
JP7125134B2 (en) 2019-08-27 2022-08-24 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which it is applied, computer program used therefor, and control method
JP2021033786A (en) * 2019-08-27 2021-03-01 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
JP7393039B2 (en) 2019-08-27 2023-12-06 株式会社コナミデジタルエンタテインメント A computer program used in a user terminal, an event system used in the user terminal to which the program is applied, a computer program used therein, and a control method
JP7229146B2 (en) 2019-11-13 2023-02-27 グリー株式会社 Information processing device, information processing method and information processing program
JP2021077257A (en) * 2019-11-13 2021-05-20 グリー株式会社 Information processing apparatus, information processing method, and information processing program
CN115039410A (en) * 2020-02-12 2022-09-09 索尼集团公司 Information processing system, information processing method, and program
JP2021140792A (en) * 2020-03-09 2021-09-16 株式会社IoT iPLAB Communication method
JP2020127211A (en) * 2020-03-31 2020-08-20 株式会社バーチャルキャスト Three-dimensional content distribution system, three-dimensional content distribution method, and computer program
JP7225159B2 (en) 2020-03-31 2023-02-20 株式会社バーチャルキャスト 3D CONTENT DISTRIBUTION SYSTEM, 3D CONTENT DISTRIBUTION METHOD, COMPUTER PROGRAM
WO2021220866A1 (en) * 2020-05-01 2021-11-04 ソニーグループ株式会社 Server device, terminal device, information processing system, and information processing method
JP2021189544A (en) * 2020-05-26 2021-12-13 グリー株式会社 Computer program, and method
JP7356662B2 (en) 2020-05-26 2023-10-05 グリー株式会社 computer program and method
CN111773736B (en) * 2020-07-03 2024-02-23 珠海金山数字网络科技有限公司 Behavior generation method and device for virtual roles
CN111773736A (en) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 Behavior generation method and device for virtual role
JP7061645B2 (en) 2020-07-07 2022-04-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 Compositing video generation system, compositing video generation method and computer program
JP2022014819A (en) * 2020-07-07 2022-01-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 Composite video generation system, composite video generation method, and computer program
WO2022018786A1 (en) * 2020-07-20 2022-01-27 株式会社ウフル Sound processing system, sound processing device, sound processing method, and sound processing program
JP6951610B1 (en) * 2020-07-20 2021-10-20 株式会社ウフル Speech processing system, speech processor, speech processing method, and speech processing program
JP2022027223A (en) * 2020-07-31 2022-02-10 パナソニックIpマネジメント株式会社 Illumination control system, illumination system, contribution ratio calculation system, contribution ratio calculation method, and program
WO2022024597A1 (en) * 2020-07-31 2022-02-03 パナソニックIpマネジメント株式会社 Lighting control system, lighting system, contribution rate calculating system, contribution rate calculating method, and program
CN113052344A (en) * 2020-08-26 2021-06-29 视伴科技(北京)有限公司 Method and device for selecting seat for event activity
JP2021035577A (en) * 2020-11-12 2021-03-04 株式会社コロプラ Game program, game method, and information terminal device
EP4054297A3 (en) * 2021-03-03 2022-11-30 Yamaha Corporation Image display system, display control method, and light emission control method
WO2022190917A1 (en) * 2021-03-09 2022-09-15 ソニーグループ株式会社 Information processing device, information processing terminal, information processing method, and program
WO2022209129A1 (en) * 2021-03-31 2022-10-06 ソニーグループ株式会社 Information processing device, information processing method and program
CN113457172A (en) * 2021-06-24 2021-10-01 网易(杭州)网络有限公司 Information processing method in game, electronic device and storage medium
JP7477196B2 (en) 2022-08-02 2024-05-01 株式会社コナミデジタルエンタテインメント Computer program for use in user terminal, event system for use in user terminal to which the same is applied, computer program for use therein, and control method

Also Published As

Publication number Publication date
JP6955861B2 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
JP6955861B2 (en) Event control system and program
JP6809830B2 (en) Programs and electronics
JP7238028B2 (en) Game system, game providing method and program
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JP7174800B2 (en) Game system, game providing method and program
JP2019192173A (en) Program, information processing device, and method
KR20160018436A (en) Virtual reality system and audition game system using the same
JP2018075260A (en) Game system and program
JP6724219B1 (en) Movie application program, movie display method, movie distribution system, and information processing device
JP7355483B2 (en) Game systems and programs
JP2019192174A (en) Program, information processing device, and method
JP2019188059A (en) Program, information processing device and method
JP2023143963A (en) Program, information processing method, and information processing device
JP7437480B2 (en) Programs, methods, and computers
JP7051993B2 (en) Programs and electronic devices
JP2022075669A (en) Program, information processing device, and method
JP6754859B1 (en) Programs, methods, and computers
JP7357865B1 (en) Program, information processing method, and information processing device
JP7155227B2 (en) Program, electronic device and control method
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
JP7061645B2 (en) Compositing video generation system, compositing video generation method and computer program
JP2019192175A (en) Program, information processing device, and method
JP2019192176A (en) Program, information processing device, and method
JP7354466B1 (en) Information processing systems and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6955861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150