JP2018158046A - Operation control system, and character screening system and program - Google Patents

Operation control system, and character screening system and program Download PDF

Info

Publication number
JP2018158046A
JP2018158046A JP2017058271A JP2017058271A JP2018158046A JP 2018158046 A JP2018158046 A JP 2018158046A JP 2017058271 A JP2017058271 A JP 2017058271A JP 2017058271 A JP2017058271 A JP 2017058271A JP 2018158046 A JP2018158046 A JP 2018158046A
Authority
JP
Japan
Prior art keywords
operation command
audience
information
target character
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017058271A
Other languages
Japanese (ja)
Other versions
JP2018158046A5 (en
JP6945312B2 (en
Inventor
直大 鈴木
Naohiro Suzuki
直大 鈴木
相木 伸一郎
Shinichiro Aiki
伸一郎 相木
大久保 博
Hiroshi Okubo
博 大久保
雅則 志磨
Masanori Shima
雅則 志磨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Amusement Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Amusement Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Amusement Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017058271A priority Critical patent/JP6945312B2/en
Publication of JP2018158046A publication Critical patent/JP2018158046A/en
Publication of JP2018158046A5 publication Critical patent/JP2018158046A5/ja
Application granted granted Critical
Publication of JP6945312B2 publication Critical patent/JP6945312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a character operation system or the like that can simplify a player's operation, can improve an existence feeling of a character and a life feeling in a performance of the character, and can execute an event for which the audience can have a high sense of satisfaction.SOLUTION: A system control device 20 is configured to present an operation command selected according to audience information for showing information regarding the audience as an operation command candidate from among a plurality of operation commands for controlling an operation of a game character to be imaged during screening of content, to identify the presented operation command candidate by the operator's operation instruction, to receive the identified operation command candidate as the operation command, and to control an operation of a performance character to be displayed, based on the received operation command.SELECTED DRAWING: Figure 2

Description

本発明は、操作制御システム、キャラクタ上映システム及びプログラムなどに関する。   The present invention relates to an operation control system, a character screening system, a program, and the like.

従来から、複数の観客を収容するイベント会場において、観客に対してアイドルなどの実在しない2次元又は3次元のキャラクタを上映し、あたかもそこに存在するかのようにキャラクタを操作するためのシステム(以下、「イベント用キャラクタ操作システム」ともいう。)が知られている。   Conventionally, in an event venue that accommodates a plurality of spectators, a non-existent two-dimensional or three-dimensional character such as an idol is screened for the spectators and the character is operated as if it exists ( Hereinafter, it is also referred to as “event character operation system”).

一方、CGアニメーションや動画像を編集する動画像編集装置において、操作者における煩雑な画像編集を解消する装置が知られている(例えば、特許文献1)。そして、このような動画像編集装置をイベント用キャラクタ操作システムに組み込むことによって、上映するキャラクタを含めた動画像を、観客や会場の状況に応じてリアルタイムに編集して提供することが検討されている。   On the other hand, in a moving image editing apparatus that edits CG animation and moving images, an apparatus that eliminates complicated image editing by an operator is known (for example, Patent Document 1). Then, by incorporating such a moving image editing device into the event character operation system, it is considered to provide a moving image including a character to be screened in real time according to the situation of the audience and the venue. Yes.

特開2001−195600号公報JP 2001-195600 A

しかしながら、特許文献1に記載の動画編集装置をイベント用キャラクタ操作システムに単に組み込んだとしても、操作者の操作を簡便にすることはできるものの、会場の雰囲気や観客の状態に応じて、キャラクタの動作を制御させることは難しい。   However, even if the video editing device described in Patent Document 1 is simply incorporated into the event character operation system, the operation of the operator can be simplified, but depending on the atmosphere of the venue and the state of the audience, It is difficult to control the operation.

本発明は、上記課題を解決するためになされたものであり、その目的は、操作者における操作を簡便にしつつ、イベント会場の雰囲気や観客の状態に応じて、キャラクタを動作させて画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、イベントを盛り上げること、及び、観客において満足感の高いイベントを実行することが可能なキャラクタ操作システムなどを提供することにある。   The present invention has been made to solve the above-described problems, and its purpose is to make an image of a character by moving it according to the atmosphere of the event venue and the state of the spectator while simplifying the operation by the operator. It is to provide a character operation system or the like that can enhance a sense of existence of a character and a live feeling in the performance of the character, excite an event, and execute an event with a high level of satisfaction for the audience.

(1)上記課題を解決するため、本発明は、
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御する操作制御システムであって、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段と、
前記観客によって視認される観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段と、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段と、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段と、
を備える、構成を有している。
(1) In order to solve the above problems, the present invention provides:
An operation control system for controlling operation of an imaged target character to be viewed by a spectator,
Image generating means for setting a virtual camera in the object space in which the target character is arranged, and generating an image of the target character in the object space with the virtual camera as a viewpoint;
Audience display control means for displaying an image of the target character on the audience display device visually recognized by the audience;
An operation command selected by the operator according to spectator information indicating information related to the spectator from among a plurality of operation commands for controlling the movement of the target character in the object space is set as an operation command candidate to the operator. Presenting means to present;
Receiving means for receiving an operation command instructed by the operator from among the presented operation command candidates;
Action control means for controlling the action of the displayed target character based on the accepted operation command;
It has the composition provided with.

この構成により、本発明は、観客の雰囲気や観客の現在の状態を示す情報、又は、観客の属性や課金履歴などの各観客の観客情報に応じて操作者によって選択される操作コマンド、又は、当該観客情報に応じて抽出されて操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示することができる。   With this configuration, the present invention provides information indicating the audience atmosphere and the current state of the audience, or an operation command selected by the operator according to audience information of each audience such as audience attributes and billing history, or An operation command extracted according to the audience information and selected by the operator can be presented to the operator as an operation command candidate.

例えば、本発明は、観客情報によってイベント会場などの対象キャラクタを観覧している観客が盛り上がっていないと判断された場合には、対象キャラクタが観客を盛り上げあげるための動作として、MC(セリフやマイクパフォーマンス)を実行させるコマンドを選択可能にし、又は、激しい踊りを対象キャラクタが実行する操作コマンドを選択可能にすることができるなど、対象キャラクタを観覧している観客の状況(すなわち、観客の現在の状態)に応じた対象キャラクタの動作を操作者に選択させることができる。   For example, according to the present invention, when it is determined that the audience watching the target character such as an event venue is not excited based on the audience information, MC (line or microphone) is used as an action for the target character to increase the audience. The command of performing the performance) can be selected, or the operation command for performing the intense dance by the target character can be selected. The operation of the target character according to the state) can be selected by the operator.

また、例えば、本発明は、観客情報によって、対象キャラクタを観覧する観客に女性が多いと判断された場合には、女性向けの対象キャラクタの動作を制御し、又は、過去の行動において所定のグッズを購入していると判断された場合には、当該観客に対して対象キャラクタの特別な演出を実行させて観覧している観客の行動履歴や属性に応じた対象キャラクタの動作を制御する操作コマンドを操作者に選択させることができる。   In addition, for example, the present invention controls the movement of the target character for women when the audience viewing the target character is determined by the audience information, or predetermined goods in the past behavior Operation command to control the action of the target character in accordance with the behavior history and attributes of the spectator who is viewing by executing a special performance of the target character to the spectator. Can be selected by the operator.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。   Therefore, the present invention makes it possible to move the target character in accordance with the audience atmosphere and the audience state while simplifying the operation by the operator. While improving the live feeling in performance, it is possible to enliven the audience and achieve a fresh performance.

この結果、本発明は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができる。   As a result, the present invention can control the action (ie, performance) of the target character that is highly satisfied by the audience.

なお、観客用表示装置は、例えば、ステージ上に設けられ、歌や踊り又は演劇や講演などのパフォーマンスを行う観覧の対象となる対象キャラクタを表示する装置であって、例えば、液晶表示装置、プロジェクターなどの投影装置、又は、ホログラムなどの立体画像化装置などを示す。   Note that the spectator display device is a device that is provided on a stage and displays a target character to be viewed for performing performances such as singing, dancing, theater, lectures, etc., for example, a liquid crystal display device, a projector, etc. Or a stereoscopic imaging device such as a hologram.

また、「観客情報に応じて選択される操作コマンド」とは、例えば、観客情報を参照しつつ操作者の意思によって選択することが可能な状態となる操作コマンドであること、及び、例えば、カメラなどの検出手段によって検出された観客情報に応じて選択(抽出)された操作コマンドであって、操作者によって選択される操作コマンドを示す。   The “operation command selected according to audience information” is, for example, an operation command that can be selected according to the operator's intention while referring to audience information, and, for example, a camera The operation command selected (extracted) according to the audience information detected by the detection means such as the operation command selected by the operator.

例えば、観客情報には、
(1)性別、年代、居住地域又は観覧時の位置(座席)などの観客の属性情報
(2)好きな演技キャラクタなどの観客の嗜好情報、
(3)スマートフォンやIDタグなどの観客が保有する端末装置の情報(例えば、観客の個人を特定する情報や電子チケット情報などの観覧時の位置(座席)を示す情報)
(4)IDなどの各観客に対応付けて、又は、観客が保有する端末装置に対応付けて、記憶されている情報であって、観覧している対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントに関連するゲームなどの所定のゲームにおけるプレー状況やその履歴(課金履歴も含む。)に関する情報(ゲームプレー情報)、
(5)観客が保有する端末装置を用いて記憶される情報であって、対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントなどへの参加を示す行動履歴情報、及び、当該イベントやパフォーマンスに関連する所定の通販サイトや実売店舗(イベント会
場内も含む)による課金情報やその課金履歴情報、並びに、
(6)各観客から生体情報(例えば、顔画像、音声情報(各観客の声紋情報や周波数特性を示す周波数特性情報を含む。)、及び、体勢情報、熱量の情報や所定のデバイス(スマートフォンやサイリウム))を用いた光の情報などの生体情報に準ずる情報が含まれる。
For example, audience information includes
(1) Audience attribute information such as gender, age, residential area or position (seat) at the time of viewing (2) Audience preference information such as favorite acting characters,
(3) Information of terminal devices held by the audience such as smartphones and ID tags (for example, information indicating the position (seat) at the time of viewing such as information for identifying the audience and electronic ticket information)
(4) Information stored in association with each spectator such as an ID or in association with a terminal device held by the spectator, and the target character being viewed or the target character is performing Information (game play information) regarding play status and history (including billing history) of a predetermined game such as a game related to the event,
(5) Information stored using the terminal device held by the spectator, including action history information indicating participation in an event in which the target character or the target character is performing, and related to the event or performance Billing information and billing history information from the designated mail-order sites and retail stores (including event venues),
(6) Biological information (for example, facial images, voice information (including voice print information and frequency characteristic information indicating frequency characteristics) of each audience), posture information, heat information, and a predetermined device (smart phone, Information similar to biological information such as light information using psyllium)) is included.

さらに、操作コマンドには、画像化されている対象キャラクタのオブジェクト空間における動作を操作制御するためのコマンドであって、複数のコマンドを一体的に実行するためのコマンドが含まれてもよい。   Further, the operation command may include a command for controlling the operation of the imaged target character in the object space for executing a plurality of commands integrally.

例えば、複数の操作コマンドとしては、対象キャラクタの動作が異なる複数種類の操作コマンド(ジャンプ、走る、一回転する操作コマンドなど)であってもよいし、当該操作コマンドの実行にあたり効果が異なる同一種別の操作コマンド(異なるセリフを発する操作コマンドなど)であってもよい。   For example, the plurality of operation commands may be a plurality of types of operation commands (jumping, running, one-turn operation commands, etc.) with different movements of the target character, or the same type having different effects when executing the operation commands. May be an operation command (such as an operation command that generates a different line).

上記に加えて、「操作コマンド候補を提示する」とは、表示装置やタッチパネルの機能を有するタブレットに操作可能に表示する場合であってもよいし、物理的なスイッチやキーボードに操作コマンドが割り当てられたことを示す場合であってもよい。   In addition to the above, “presenting operation command candidates” may be a case where an operation command is displayed on a tablet having a display device or touch panel function, or an operation command is assigned to a physical switch or keyboard. It may be a case where it is shown.

また、「対象キャラクタの動作制御」には、操作コマンドに従って動作を制御するだけでなく、予め定められたアルゴリズムによって動作させつつ、所定のタイミングなどに操作コマンドに従って動作することも含む。   “Target character motion control” includes not only controlling motion according to an operation command but also operating according to an operation command at a predetermined timing while operating according to a predetermined algorithm.

特に、予め定められたアルゴリズムを用いて対象キャラクタの動作を制御する場合には、歌や踊りなどのパフォーマンス時の動作(セリフを含む。)を規定するアルゴリズムによって動作制御することを示し、アルゴリズムによって動作制御されている際に、操作コマンドが受け付けられた場合には、当該アルゴリズムに基づく処理に代えて又は当該アルゴリズムの処理とともに、操作コマンドに従って対象キャラクタを動作制御することが含まれる。   In particular, when controlling the movement of the target character using a predetermined algorithm, it shows that the movement is controlled by an algorithm that defines performance (including words) during performance such as singing and dancing. When the operation command is received while the motion control is being performed, instead of processing based on the algorithm or together with the processing of the algorithm, motion control of the target character is included according to the operation command.

(2)また、本発明は、
前記操作者によって視認されるモニタ表示装置に前記対象キャラクタを表示させるモニタ表示制御手段を更に備え、
前記提示手段が、
前記モニタ表示装置に、前記対象キャラクタとともに前記操作コマンド候補を、前記操作者に提示する、構成を有している。
(2) The present invention also provides:
A monitor display control means for displaying the target character on a monitor display device visually recognized by the operator;
The presenting means is
The monitor display device is configured to present the operation command candidates together with the target character to the operator.

この構成により、本発明は、操作者が視認可能な操作対象となるキャラクタ上に操作コマンド候補を表示させることができるので、操作者の操作を簡便にすることができる。   With this configuration, according to the present invention, operation command candidates can be displayed on a character to be operated that can be visually recognized by the operator, so that the operation of the operator can be simplified.

特に、本発明は、モニタ表示装置がタッチパネルによって構成されている場合には、動作制御する対象キャラクタとともに操作コマンド候補を提示することができるので、操作者の直感的な操作を促し、操作者の操作入力を簡便にすることができる。   In particular, when the monitor display device is configured by a touch panel, the present invention can present operation command candidates together with the target character to be motion-controlled. Operation input can be simplified.

なお、モニタ表示装置は、観客用表示装置とは別個に設けられた操作者用のモニタを示し、例えば、タブレット端末装置、スマートフォン及び液晶装置などによって構成される。そして、モニタ表示装置は、上述のように、タッチパネルによって構成されていることが好ましい。   The monitor display device indicates an operator monitor provided separately from the spectator display device, and includes, for example, a tablet terminal device, a smartphone, and a liquid crystal device. And it is preferable that the monitor display apparatus is comprised by the touchscreen as mentioned above.

(3)また、本発明は、
前記提示手段が、
前記観客情報を取得し、前記操作コマンド候補とともに、前記取得した観客情報を前記操作者に提示する、構成を有している。
(3) The present invention also provides:
The presenting means is
The spectator information is acquired, and the acquired spectator information is presented to the operator together with the operation command candidates.

この構成により、本発明は、操作コマンド候補を選択する際に操作者に観客情報を認識させることができるので、対象キャラクタに対して観客に合致する動作が規定された操作コマンドを、操作者によってより選択させやすくすることができる。   With this configuration, the present invention allows the operator to recognize spectator information when selecting operation command candidates, so that an operation command in which an action that matches the spectator with respect to the target character is defined by the operator. It is possible to make it easier to select.

したがって、本発明は、観客の行動履歴や属性などの観客情報を提示し、観客を盛り上げること、及び、新鮮みのある行動を提供することができるので、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)が規定された操作コマンドを、選択させやすくすることができる。   Therefore, the present invention can present the audience information such as the behavior history and attributes of the audience, excite the audience, and provide a fresh action, so the behavior of the target character with a high satisfaction in the audience It is possible to easily select an operation command for which (that is, performance) is defined.

(4)また、本発明は、
前記観客毎に、各観客の個人情報を前記観客情報として記憶する記憶手段を管理する管理手段を更に備え、
前記提示手段が、
前記記憶されている観客情報を取得し、前記操作コマンド候補とともに、当該取得した観客情報を前記操作者に提示する、構成を有している。
(4) The present invention also provides:
Management means for managing storage means for storing personal information of each audience as the audience information for each audience,
The presenting means is
The stored audience information is acquired, and the acquired audience information is presented to the operator together with the operation command candidates.

この構成により、本発明は、操作コマンド候補を選択する際に操作者に観客の個人情報を認識させることができるので、対象キャラクタに対して観客に合致する動作が規定された操作コマンドを、操作者によってより選択させやすくすることができる。   With this configuration, the present invention allows the operator to recognize the spectator's personal information when selecting the operation command candidate. It can be made easier to select by a person.

例えば、提示された個人情報に基づいて、対象キャラクタを観覧する観客に女性が多いことが認識できた場合には、操作者に女性向けの対象キャラクタの動作を制御するための操作コマンドを選択させやすくなり、また、過去の行動において所定のグッズを購入しているなどの観客が存在すること(当該観客が多いこと)が認識できた場合には、操作者に対象キャラクタの特別な演出を実行させる操作コマンドを選択させやすくなる。   For example, if it is recognized that there are many women in the audience watching the target character based on the presented personal information, the operator selects an operation command for controlling the movement of the target character for women. When it is recognized that there are spectators who have purchased certain goods in the past actions (there are many spectators), the operator performs a special presentation of the target character It becomes easy to select the operation command to be performed.

すなわち、本発明は、観客の行動履歴や属性などの観客の個人情報を提示し、観客を盛り上げること、及び、新鮮みのある行動を提供することができるので、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)が規定された操作コマンドを、選択させやすくすることができる。   In other words, the present invention can present the audience personal information such as the behavior history and attributes of the audience, excite the audience, and provide fresh behavior, so that the target character with high satisfaction in the audience It is possible to easily select an operation command for which the operation (that is, performance) is defined.

なお、個人情報には、例えば、各観客の過去の行動履歴を示す行動履歴情報、及び、各観客の性別、年代、居住地域、好きな対象キャラクタ、観覧時の位置(座席)、又は、スマートフォンやIDダグ(RFID)などの端末装置に関する情報などの属性情報が含まれる。   The personal information includes, for example, behavior history information indicating past behavior history of each spectator, gender, age, residential area, favorite target character, position (seat) at the time of viewing, or smartphone. And attribute information such as information related to terminal devices such as ID tag (RFID).

特に、端末装置に関する情報には、例えば、観客の個人を特定する情報やチケット情報などの観覧時の位置(座席)を示す情報、及び、ゲーム履歴情報や商品等の購入履歴情報を含む。   In particular, the information related to the terminal device includes, for example, information indicating the position (seat) at the time of viewing such as information for identifying the individual of the spectator and ticket information, and purchase history information such as game history information and products.

また、行動履歴情報には、例えば、対象キャラクタのパフォーマンスが行われているイベントなどの関連するイベントに参加した回数やその日時、対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントに関連するゲームなどの所定のゲームにおけるプレー状況、又は、その履歴に関する情報、当該イベントや対象キャラクタなどに関連する所定の通販サイトや実売店舗(イベント会場内も含む)による商品(グッズ)やサービスの購入情報やそれによって生じた課金情報(課金履歴情報を含む)が含まれる。   In addition, the action history information includes, for example, the number of times of participation in related events such as events in which the performance of the target character is performed, the date and time, games related to the event in which the target character and the target character are performing, etc. Information on the play status or history of a given game, purchase information on goods (goods) or services from a given mail-order site or retail store (including the event venue) related to the event or target character, etc. Accounting information (including accounting history information) generated thereby is included.

(5)また、本発明は、
前記対象キャラクタの動作制御が実行された際に受け付けられた操作コマンドの情報を使用履歴情報として記憶手段に登録して蓄積する登録手段をさらに備え、
前記提示手段が、
前記観客情報及び前記登録されている使用履歴情報に応じて、前記操作者によって選択される操作コマンドを、前記操作コマンド候補として、前記操作者に提示する、構成を有している。
(5) The present invention also provides:
It further comprises registration means for registering and accumulating information of operation commands accepted when the motion control of the target character is executed in the storage means as usage history information,
The presenting means is
According to the spectator information and the registered use history information, an operation command selected by the operator is presented to the operator as the operation command candidate.

この構成により、本発明は、例えば、使用頻度、直前に使用した操作コマンドの種別、予め定められた期間内(一連のパフォーマンス期間中など)における使用の有無を示す情報などの使用履歴情報に応じて、操作者によって選択される操作コマンドを、操作候補コマンドとして、操作者に提示することができる。   With this configuration, the present invention responds to usage history information such as, for example, usage frequency, the type of operation command used immediately before, and information indicating the presence / absence of usage within a predetermined period (such as during a series of performance periods). Thus, the operation command selected by the operator can be presented to the operator as an operation candidate command.

例えば、本発明は、操作コマンドを選択させる際に、使用頻度の高い操作コマンド、直前の操作コマンドに関連する操作コマンド、観客の大半が未だ観覧したことない対象キャラクタの行動を規定する操作コマンド、一連のパフォーマンスの実行中に未だ使用されていない操作コマンド、又は、他の操作コマンドに比べて優先的に選択可能な操作コマンド候補として操作者に認識させるべき操作コマンドを操作者に絞り込んで提示することができる。   For example, according to the present invention, when selecting an operation command, an operation command that is frequently used, an operation command related to the immediately preceding operation command, an operation command that defines an action of a target character that most of the audience has not yet viewed, Operation commands that are not yet used during execution of a series of performances, or operation commands that should be recognized by the operator as operation command candidates that can be preferentially selected compared to other operation commands, are presented to the operator. be able to.

また、例えば、本発明は、一連のパフォーマンスにおいて、既に実行された操作コマンド、又は、特定の観客に既に提供された特別な演出を実行した操作コマンドなど、選択不能な操作コマンド候補を不提示にすることができる。   In addition, for example, the present invention does not present unselectable operation command candidates such as an operation command that has already been executed or an operation command that has executed a special presentation already provided to a specific audience in a series of performances. can do.

さらに、例えば、本発明は、既に登録された操作コマンドを解析すれば、いつも盛り上がる対象キャラクタの行動を規定する操作コマンド、又は、如何なるシーンでも有効に機能する対象キャラクタの行動を規定する操作コマンドなど、過去の操作コマンドの傾向に沿った操作コマンドを操作コマンド候補として提示することができる。   Furthermore, for example, according to the present invention, if an already registered operation command is analyzed, an operation command that prescribes the action of the target character that always swells, or an operation command that prescribes the action of the target character that functions effectively in any scene, etc. In addition, an operation command in accordance with the tendency of past operation commands can be presented as an operation command candidate.

したがって、本発明は、過去の使用履歴を用いて更に操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、キャラクタを動作させることができるとともに、各観客の対象キャラクタへの観覧に対する興趣を損なうことなく、観客を盛り上げること、及び、新鮮みのある行動を提供することができる。   Therefore, according to the present invention, it is possible to operate the character according to the atmosphere of the audience and the state of the audience while further simplifying the operation by the operator using the past usage history, and to the target character of each audience. Without detracting from the interest in viewing, it is possible to excite the audience and provide fresh behavior.

(6)また、本発明は、
前記使用履歴情報には、前記操作コマンドと当該操作コマンドを受け付けた際に利用した観客情報を含み、
前記提示手段が、
前記使用履歴情報に基づいて操作コマンドにおける所与の解析した結果と、前記観客情報とに応じて、前記操作者によって選択される操作コマンドを、前記操作コマンド候補として、前記操作者に提示する、構成を有している。
(6) The present invention also provides:
The usage history information includes spectator information used when the operation command and the operation command are received,
The presenting means is
Presenting an operation command selected by the operator as the operation command candidate to the operator according to a given analysis result in the operation command based on the usage history information and the audience information; It has a configuration.

この構成により、本発明は、既に登録された操作コマンドを利用した顧客情報とともに解析することによって、いつも盛り上がる対象キャラクタの行動を規定する操作コマンド、又は、如何なるシーンでも有効に機能する対象キャラクタの行動を規定する操作コマンドなど、過去の操作コマンドの傾向に沿った操作コマンドを操作コマンド候補として提示することができる。   With this configuration, the present invention analyzes an operation command that prescribes the action of a target character that is always excited by analyzing it with customer information using an operation command that has already been registered, or the action of a target character that functions effectively in any scene. An operation command that conforms to the tendency of past operation commands, such as an operation command that prescribes, can be presented as an operation command candidate.

(7)また、本発明は、
各観客の状態を前記観客情報として検出する検出手段を更に備え、
前記提示手段が、
前記検出された観客情報に応じて前記操作者によって選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する、構成を有している。
(7) The present invention also provides:
It further comprises detection means for detecting the state of each audience as the audience information,
The presenting means is
An operation command selected by the operator according to the detected audience information is presented to the operator as an operation command candidate.

この構成により、本発明は、例えば、観客の顔画像、音声、発する光、又は、観客が所有する端末装置の情報などの観客の特性又は観客の対象キャラクタの行動に対する観客の反応を検出することができるので、対象キャラクタの観覧に来場している観客の特性(例えば、特定の光を有する観客が多いことや女性が多いこと)、又は、観客が対象キャラクタを観覧している際の状態を観客情報として検出することができる。   With this configuration, the present invention detects, for example, the audience's reaction to the audience characteristics or the behavior of the audience target character such as the audience's face image, sound, emitted light, or information on the terminal device owned by the audience. Therefore, the characteristics of the spectator who is visiting the target character (for example, there are many spectators with a specific light or many women), or the state when the spectator is viewing the target character. It can be detected as audience information.

したがって、本発明は、観客情報によって対象キャラクタを観覧している場が盛り上がっているか否か、又は、当該観客の状態や属性に合わせて操作コマンド候補を絞り込んで提示することができるので、操作者における操作を簡便にしつつ、画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、観客を盛り上げること、及び、観客において満足感の高いパフォーマンスを実行させることができる。   Therefore, according to the present invention, it is possible to narrow down and present operation command candidates according to whether or not the place where the target character is viewed based on the audience information is exciting, or according to the state and attributes of the audience. It is possible to improve the sense of existence of the character to be imaged and the live feeling in the performance of the character, to increase the audience, and to perform a performance with high satisfaction for the audience while simplifying the operation in the above.

また、本発明は、検出された観客情報を蓄積すれば、対象キャラクタの動作と観客の状態をデータベース化し、対象キャラクタにおけるその後の動作(すなわち、異なる時間や異なる場所での同一のパフォーマンス)に利用することができる。   In addition, if the detected spectator information is accumulated, the present invention creates a database of the motion of the target character and the state of the spectator, and uses it for subsequent motions in the target character (ie, the same performance at different times and different locations). can do.

したがって、本発明は、多くの観客情報をデータベース化することができれば、さらに観客を盛り上げること、及び、より観客において満足感の高いパフォーマンスを実行させることができる。   Therefore, according to the present invention, if a large amount of spectator information can be stored in a database, the audience can be further increased and a performance with a high degree of satisfaction can be performed by the spectator.

なお、検出手段には、例えば、観客の顔の認識や当該観客が有するサイリウムやスマホなどの装置が発する光を検出するカメラや赤外線センサ、観客の声援などの音を集音するマイクロホン、観客全体の熱量を検出するサーモグラフィ、各観客の体勢(着座しているか立ち上がっているかなど)を検出する着座センサやマーカユニットとカメラとから構成される検出ユニット、又は、観客が所有する端末装置の情報(例えば、各観客の観覧(座席)位置や個人を特定するための情報)を検出する無線受信器などが含まれる。   The detection means includes, for example, a camera or infrared sensor for detecting the light emitted by a device such as recognition of the audience's face or a device such as a psyllium or a smartphone, a microphone for collecting the sound of the audience, the entire audience Thermography that detects the amount of heat of each person, seating sensor that detects the posture of each spectator (sitting or standing, etc.), a detection unit comprising a marker unit and a camera, or information on a terminal device owned by the spectator ( For example, a wireless receiver that detects a viewing (seat) position of each spectator and information for specifying an individual) is included.

そして、各観客の状態を示す観客情報としては、例えば、観客の顔情報、音情報(周波数情報や音量情報)などの生態情報、又は、熱量情報、体勢情報や光情報などの観客の状態を認識可能な生体情報に準ずる情報が含まれる。   And as spectator information indicating the state of each spectator, for example, spectator's face information, ecological information such as sound information (frequency information and volume information), or spectator state such as calorie information, posture information and light information, etc. Information similar to recognizable biological information is included.

(8)また、本発明は、
前記受付手段が、
前記操作コマンドとともに、対象キャラクタの動作を享受する特定の観客を指定する観客指定指示を受け付け、
前記動作制御手段が、
前記受け付けられた観客指定指示によって特定される観客に向けて前記表示される対象キャラクタの動作を制御する、構成を有している。
(8) The present invention also provides:
The accepting means is
Along with the operation command, accept a spectator designation instruction for designating a specific spectator who enjoys the motion of the target character,
The operation control means is
It has the structure which controls the operation | movement of the said target character displayed toward the audience specified by the received audience designation | designated instruction | indication.

この構成により、本発明は、特定の観客の観覧位置に当該特定の観客に向けての特別な演出などの対象キャラクタの動作を制御することができるので、画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、観客を盛り上げること、及び、観客において満足感の高いパフォーマンスを実行させることができる。   With this configuration, the present invention can control the movement of the target character such as a special effect toward the specific audience at the viewing position of the specific audience. The live feeling in the performance of the character can be improved, the audience can be enlivened, and the audience can perform a performance with a high degree of satisfaction.

なお、特定の観客が享受する対象キャラクタの動作としては、当該特定の観客に対する投げキッス、お手振り、名前や特徴のセリフを発することなどが含まれる。
また、観覧の指定については、例えば、各観覧の会場内の位置を表示する表示装置を用いてタッチパネルやジョイスティックなどによる操作子を用いて実行されてもよいし、観客の顔画像のデータが記憶されていることを前提にカメラなどの検出手段を用いて自動的に特定してもよい。
Note that the motion of the target character enjoyed by a specific audience includes throwing kisses, hand gestures, name and feature lines for the specific audience, and the like.
In addition, for example, the designation of viewing may be performed using a display device that displays the position in the venue of each viewing, using an operator such as a touch panel or a joystick, or data on the face image of the audience is stored. It is also possible to automatically specify using a detection means such as a camera on the assumption that it is.

(9)また、本発明は、
前記提示手段が、
前記対象キャラクタの動作状況に応じて定まる操作コマンドを前記操作コマンド候補に含めて前記操作者に提示する、構成を有している。
(9) The present invention also provides:
The presenting means is
An operation command determined according to the movement state of the target character is included in the operation command candidates and presented to the operator.

この構成により、本発明は、例えば、対象キャラクタの最初の行動や最後の行動など必ず使用が予想される操作コマンド、又は、過去の使用履歴によって特定の曲の歌い出しなどの所定のタイミングに必ず使用される操作コマンドを操作コマンド候補に含めて提示することができるので、適した操作コマンドが操作コマンド候補として抽出することができる。   With this configuration, for example, the present invention always operates at a predetermined timing such as an operation command that is always expected to be used, such as the first action or the last action of the target character, or the singing of a specific song according to the past use history. Since the operation command to be used can be included in the operation command candidate and presented, a suitable operation command can be extracted as the operation command candidate.

なお、「対象キャラクタの動作状況」とは、パフォーマンスの開始タイミングや終了タイミングなどの対象キャラクタの各行動が実行開始時や実行中の状況を示す。   The “motion state of the target character” indicates a state in which each action of the target character, such as performance start timing and end timing, is started or is being executed.

(10)また、本発明は、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間、当該画像生成中に受け付けられた操作コマンドの受付回数、又は、当該画像生成中に受け付けられた前記操作コマンドの種別の組み合わせに応じて前記提示する操作コマンドの種別を変更する、構成を有している。
(10) The present invention also provides:
The presenting means is
The presentation according to the elapsed time from the start timing of image generation in the target character, the number of times operation commands received during the image generation, or a combination of the types of operation commands received during the image generation The type of operation command to be changed is changed.

この構成により、本発明は、例えば、歌や踊り又は演劇や講演などのパフォーマンスを行う対象キャラクタの一連の動作を制御するためのアルゴリムによって当該対象キャラクタの動作中に、その時点で対象キャラクタの動作として適した操作コマンドを操作者に提示することができる。   With this configuration, the present invention, for example, during the movement of the target character by the algorithm for controlling a series of movements of the target character performing performances such as singing, dancing, or theater or lecture, It is possible to present an operation command suitable for the operator.

例えば、本発明は、
(1)対象キャラクタにおける画像生成(すなわち、コンテンツの上映)の開始タイミングには、観客を盛り上げるための行動を制御するための操作コマンドを提示し、
(2)コンテンツの上映の後半のタイミングには、盛り上がっている観客に対してそれを維持し、さらに盛り上げるための行動を制御するための操作コマンドを提示し、
(3)曲間などの静かなシーンについては、「セリフ」などのそのシーンに特化した操作コマンドを提示する、
ことができる。
For example, the present invention
(1) At the start timing of image generation (that is, content screening) in the target character, an operation command for controlling an action for raising the audience is presented,
(2) At the second half of the screening of the content, present an operation command for controlling the action to maintain and maintain the exciting audience.
(3) For quiet scenes such as between songs, present command commands specific to that scene, such as “Serif”.
be able to.

したがって、本発明は、画像化されるキャラクタの実存感及び当該キャラクタのパフォーマンスにおけるライブ感を向上させ、観客を盛り上げること、及び、観客において満足感の高いパフォーマンスを実行させることができる。   Therefore, the present invention can improve the sense of existence of the character to be imaged and the live feeling of the performance of the character, excite the audience, and perform performance with high satisfaction for the audience.

(11)また、本発明は、
所与のアルゴリズムに従いつつ、前記オブジェクト空間に配置された対象キャラクタの動作を画像化している場合に、
各操作コマンドには、前記対象キャラクタにおける画像生成の開始タイミングから当該
操作コマンドの受け付けが許容される時刻を示す受付完了許容時刻又は複数の所与の区間が定められて当該画像生成が実行されている場合において当該操作コマンドの受け付けが許容される区間を示す区間情報と、各操作コマンドに基づいて前記対象キャラクタの動作制御が実行される実行時間と、が規定されており、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間又は前記操作コマンドを提示するタイミングが属する区間と、前記各操作コマンドの実行時間と、に応じて、前記提示する操作コマンドの種別を決定し、又は、前記対象キャラクタの動作制御の内容を変更した操作コマンドを提示する、構成を有している。
(11) The present invention also provides:
While following a given algorithm and imaging the motion of the target character placed in the object space,
For each operation command, a reception completion allowable time indicating a time at which reception of the operation command is permitted from the start timing of image generation in the target character or a plurality of given sections are determined, and the image generation is executed. Section information indicating a section in which the operation command is allowed to be received and an execution time during which the target character's motion control is executed based on each operation command are defined,
The presenting means is
The type of the operation command to be presented is determined according to the elapsed time from the image generation start timing in the target character or the section to which the operation command is presented and the execution time of each operation command. Or it has the structure which presents the operation command which changed the content of the motion control of the said target character.

この構成により、画像生成の開始タイミングからの経過時間、又は、例えば、動作制御が楽曲におけるライブパフォーマンスの場合には、前奏、Aメロ、Bメロ又はサビ、演劇の場合には、第1幕や第2幕などの各パート(区間)のどの部分の画像かを見極めて操作コマンドを提示することができるとともに、状況によっては時短や動作内容の簡略化などの操作コマンドにおける対象キャラクタの動作制御の内容をも変更することができる。   With this configuration, the elapsed time from the start timing of image generation, or, for example, if the operation control is a live performance in music, the first act or A melody, B melody or chorus, It is possible to identify which part of each part (section), such as Act 2, and to present the operation command, and depending on the situation, the operation control of the target character in the operation command such as shortening the time or the action content The contents can also be changed.

したがって、本発明は、例えば、歌や踊り又は演劇や講演などのパフォーマンスを行う対象キャラクタの一連の動作を制御するためのアルゴリムによって当該対象キャラクタの動作中に、その時点で対象キャラクタの動作として適した操作コマンドを操作者に提示することができる。   Therefore, the present invention is suitable as a motion of the target character at that time during the motion of the target character by an algorithm for controlling a series of motions of the target character performing performances such as singing, dancing, theater or lecture. The operation command can be presented to the operator.

(12)また、本発明は、
前記動作制御手段が、
前記対象キャラクタにおける画像生成中に前記操作コマンドが受け付けられた場合に、予め定められたタイミングから当該受け付けられた操作コマンドに基づく前記表示される対象キャラクタの動作制御を開始する、構成を有している。
(12) The present invention also provides:
The operation control means is
When the operation command is received during the image generation of the target character, the movement control of the displayed target character based on the received operation command is started from a predetermined timing. Yes.

この構成により、本発明は、対象キャラクタにおける画像生成中(すなわち、コンテンツの上映中)に対象キャラクタの動作の切り替わりタイミングを待って操作コマンドにおける対象キャラクタの動作を制御することができるので、観客に対して違和感のないシームレスな動作制御を行うことができる。   With this configuration, the present invention can control the movement of the target character in the operation command while waiting for the movement timing of the movement of the target character during image generation (that is, during the content screening) of the target character. On the other hand, seamless operation control without a sense of incongruity can be performed.

(13)また、本発明は、
前記提示手段が、
前記操作コマンド候補を提示中に、当該タイミングによって受け付けた操作コマンドに基づいて前記対象キャラクタの動作制御が開始される動作開始時刻又は当該動作開始時刻に関する時間を提示する、構成を有している。
(13) The present invention also provides:
The presenting means is
While presenting the operation command candidate, the operation start time at which the motion control of the target character is started or the time related to the operation start time is presented based on the operation command received at the timing.

この構成により、本発明は、操作者の入力のし忘れを防止し、操作者の操作性を向上させることができる。   With this configuration, the present invention can prevent the operator from forgetting to input and can improve the operability of the operator.

なお、「動作開始時刻に関する時間」には、例えば、現在のタイミングから動作開始時刻までの残り時間が含まれる。   The “time related to the operation start time” includes, for example, the remaining time from the current timing to the operation start time.

(14)また、本発明は、
前記動作制御手段が、
所与のアルゴリズムに従いつつ、前記オブジェクト空間に配置された対象キャラクタの動作を画像化している場合であって、前記操作コマンドが受け付けられた場合に、当該操作コマンドを受け付けた後のアルゴリズムを、前記受け付けられた操作コマンドに応じて変更し、当該変更したアルゴリズムに従って前記表示される対象キャラクタの動作を制
御する、構成を有している。
(14) The present invention also provides:
The operation control means is
While following a given algorithm, when the motion of the target character placed in the object space is imaged, and the operation command is received, the algorithm after receiving the operation command, It changes according to the received operation command, and has the structure which controls the operation | movement of the said target character displayed according to the said changed algorithm.

この構成により、本発明は、操作コマンドを受け付けるとそれに合わせて対象キャラクタの動作を制御するので、操作者によって操作制御させた対象キャラクタの画像を提供することができるとともに、操作コマンドが受け付けられる毎に、対象キャラクタの動作も変更することができる。   With this configuration, when the operation command is received, the present invention controls the movement of the target character accordingly, so that it is possible to provide an image of the target character that is controlled by the operator and every time the operation command is received. In addition, the movement of the target character can be changed.

また、本発明は、操作コマンドによる動作制御によって、対象キャラクタにおけるパフォーマンス時間の変更が生じた場合であっても、対象キャラクタの動作を制御するアルゴリズムを変更することができるので、操作者の意図を損なうことなく、パフォーマンスなどのコンテンツのストーリーを展開することができる。   Further, the present invention can change the algorithm for controlling the motion of the target character even when the performance time of the target character is changed by the motion control by the operation command. You can develop content stories such as performance without losing.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。   Therefore, the present invention makes it possible to move the target character in accordance with the audience atmosphere and the audience state while simplifying the operation by the operator. While improving the live feeling in performance, it is possible to enliven the audience and achieve a fresh performance.

(15)また、上記課題を解決するため、本発明は、
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御するプログラムであって、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段、
前記観客によって視認される観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段、及び、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段、
としてコンピュータを機能させる構成を有している。
(15) Further, in order to solve the above problems, the present invention provides:
A program for operating and controlling the movement of an imaged target character to be viewed by a spectator,
Image generating means for setting a virtual camera in the object space in which the target character is arranged, and generating an image of the target character in the object space with the virtual camera as a viewpoint;
Audience display control means for displaying an image of the target character on the audience display device visually recognized by the audience;
An operation command selected by the operator according to spectator information indicating information related to the spectator from among a plurality of operation commands for controlling the movement of the target character in the object space is set as an operation command candidate to the operator. Presenting means to present;
An accepting means for accepting an operation command instructed by the operator from among the presented operation command candidates; and
Action control means for controlling the action of the displayed target character based on the accepted operation command;
As a computer.

この構成により、本発明は、観客の雰囲気や観客の現在の状態を示す情報、又は、観客の属性や課金履歴などの各観客の観客情報に応じて操作者によって選択される操作コマンド、又は、当該観客情報に応じて抽出されて操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示することができる。   With this configuration, the present invention provides information indicating the audience atmosphere and the current state of the audience, or an operation command selected by the operator according to audience information of each audience such as audience attributes and billing history, or An operation command extracted according to the audience information and selected by the operator can be presented to the operator as an operation command candidate.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。   Therefore, the present invention makes it possible to move the target character in accordance with the audience atmosphere and the audience state while simplifying the operation by the operator. While improving the live feeling in performance, it is possible to enliven the audience and achieve a fresh performance.

この結果、本発明は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができる。   As a result, the present invention can control the action (ie, performance) of the target character that is highly satisfied by the audience.

(16)また、上記課題を解決するため、本発明は、
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御する操作制御システムと、
前記観客によって視認される観客用表示装置と、
を備え、
前記操作制御システムが、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段と、
前記観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段と、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段と、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段と、
を備える構成を有している。
(16) Further, in order to solve the above problems, the present invention provides:
An operation control system for operating and controlling the motion of the imaged target character to be viewed by the audience;
An audience display device visually recognized by the audience;
With
The operation control system is
Image generating means for setting a virtual camera in the object space in which the target character is arranged, and generating an image of the target character in the object space with the virtual camera as a viewpoint;
Spectator display control means for displaying an image of the target character on the spectator display device;
An operation command selected by the operator according to spectator information indicating information related to the spectator from among a plurality of operation commands for controlling the movement of the target character in the object space is set as an operation command candidate to the operator. Presenting means to present;
Receiving means for receiving an operation command instructed by the operator from among the presented operation command candidates;
Action control means for controlling the action of the displayed target character based on the accepted operation command;
It has the composition provided with.

この構成により、本発明は、観客の雰囲気や観客の現在の状態を示す情報、又は、観客の属性や課金履歴などの各観客の観客情報に応じて操作者によって選択される操作コマンド、又は、当該観客情報に応じて抽出されて操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示することができる。   With this configuration, the present invention provides information indicating the audience atmosphere and the current state of the audience, or an operation command selected by the operator according to audience information of each audience such as audience attributes and billing history, or An operation command extracted according to the audience information and selected by the operator can be presented to the operator as an operation command candidate.

したがって、本発明は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、対象キャラクタを動作させることができるので、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することができる。   Therefore, the present invention makes it possible to move the target character in accordance with the audience atmosphere and the audience state while simplifying the operation by the operator. While improving the live feeling in performance, it is possible to enliven the audience and achieve a fresh performance.

この結果、本発明は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができる。   As a result, the present invention can control the action (ie, performance) of the target character that is highly satisfied by the audience.

本発明に係るコンテンツ上映システムの一実施形態における概要構成を示す構成図である。It is a block diagram which shows the schematic structure in one Embodiment of the content screening system which concerns on this invention. 一実施形態のイベント会場におけるコンテンツ上映システム及び大型表示装置の関係と演技キャラクタ及び観客の関係を説明するための図である。It is a figure for demonstrating the relationship between the content screening system and large sized display apparatus in the event venue of one Embodiment, and the relationship between an acting character and a spectator. 一実施形態におけるサーバ装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the server apparatus in one Embodiment. 一実施形態におけるシステム制御装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the system control apparatus in one Embodiment. 一本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図(その1)である。It is FIG. (1) for demonstrating the operation command candidate presentation process of the content of this embodiment. 一本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図(その2)である。It is FIG. (2) for demonstrating the operation command candidate presentation process of the content of one embodiment. 一本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図(その3)である。It is FIG. (3) for demonstrating the operation command candidate presentation process of the content of this embodiment. 一実施形態のコンテンツの操作コマンドに基づく動作制御処理について説明するための図(その1)である。FIG. 10 is a diagram (No. 1) for describing an operation control process based on a content operation command according to an embodiment; 一実施形態のコンテンツの操作コマンドに基づく動作制御処理について説明するための図(その1)である。FIG. 10 is a diagram (No. 1) for describing an operation control process based on a content operation command according to an embodiment; 一実施形態のシステム制御装置によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows operation | movement of the operation control process based on the operation command containing the operation command candidate presentation process performed by the system control apparatus of one Embodiment. 一実施形態のシステム制御装置によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows operation | movement of the operation control process based on the operation command containing the operation command candidate presentation process performed by the system control apparatus of one Embodiment.

以下、実施形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。さらに、以下の実施形態は、実空間の所与の会場に収容された観客に対して、観覧の対象となるキャラクタ(以下、「対象キャラクタ」ともいう。)が配置されたオブジェクト空間内の画像を、コンテンツとして、上映するコンテンツ上映システムに対し、本発明に係る操作制御シスステム、コンテンツ上映システム及びプログラムを適用した場合の実施形態である。   Hereinafter, embodiments will be described. The embodiments described below do not unduly limit the contents of the present invention described in the claims. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention. Further, in the following embodiment, an image in an object space in which a character to be viewed (hereinafter also referred to as “target character”) is arranged for a spectator accommodated in a given venue in real space. Is an embodiment in which the operation control system, the content screening system, and the program according to the present invention are applied to a content screening system for screening as content.

[1]コンテンツ上映システム
まず、図1を用いて本実施形態のコンテンツ上映システム10の概要及び概要構成について説明する。なお、図1は、本実施形態のコンテンツ上映システム10を含むネットワークシステムの構成を示すシステム構成の一例を示す図であり、図2は、イベント会場におけるコンテンツ上映システム10及び大型表示装置12の関係と対象キャラクタの一例である演技キャラクタ及び観客の関係を説明するための図である。
[1] Content Screening System First, the outline and schematic configuration of the content screening system 10 of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a system configuration showing the configuration of a network system including the content screening system 10 of the present embodiment, and FIG. 2 shows the relationship between the content screening system 10 and the large display device 12 at the event venue. It is a figure for demonstrating the relationship between the acting character which is an example of an object character, and a spectator.

本実施形態のコンテンツ上映システム10は、イベント会場などのコンテンツの上映を実施する実空間の所与の会場(以下、「上映会場」という。)に収容されたた観客に対して、例えば、複数のアイドル(いわゆる、オブジェクト空間で動作を行うキャラクタ(以下、「演技キャラクタ」という。))から構成されるグループの演技パフォーマンス(具体的には、歌唱ライブ)を画像化して観覧させるコンテンツを上映する上映システムである。   The content screening system 10 according to the present embodiment has, for example, a plurality of audiences accommodated in a given venue (hereinafter referred to as “screening venue”) in a real space where content screening such as an event venue is performed. The contents of the group's acting performance (specifically, singing live) that is made up of idols (so-called characters acting in the object space (hereinafter referred to as “acting characters”)) are screened for viewing It is a screening system.

そして、本実施形態のコンテンツ上映システム10は、コンテンツ内に規定されたアルゴリズムと、操作者の指示と、に基づいて、演技キャラクタの動作を制御しつつ、演技パフォーマンスの動画像を生成し、画像化される演技キャラクタの実存感及び当該演技キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを動画像として提供する構成を有している。   Then, the content screening system 10 of the present embodiment generates a moving image of the performance while controlling the motion of the performance character based on the algorithm defined in the content and the instruction of the operator. The present invention has a configuration that enhances the audience and provides a fresh performance as a moving image while improving the actual feeling of the acting character and the live feeling of the performance of the acting character.

具体的には、コンテンツ上映システム10は、図1に示すように、インターネットなどのネットワークを介してサーバ装置11に接続されており、当該サーバ装置11によって他のコンテンツ上映システム(10A、10B、10C)を含めて管理される。   Specifically, as shown in FIG. 1, the content screening system 10 is connected to a server device 11 via a network such as the Internet, and the server device 11 uses the other content screening systems (10A, 10B, 10C). ).

そして、コンテンツ上映システム10は、図1及び図2に示すように、実空間の所与の会場(例えば、イベント会場)に設置され、コンテンツを観客3によって視認可能に表示する大型表示装置12と、操作者5の各種の操作を受け付けるとともに大型表示装置12にコンテンツを表示させるシステム制御装置20と、から構成される。   As shown in FIGS. 1 and 2, the content screening system 10 is installed in a given venue (for example, an event venue) in real space, and has a large display device 12 that displays the content so that the audience 3 can see it. The system controller 20 receives various operations of the operator 5 and causes the large display device 12 to display content.

大型表示装置12は、例えば、イベント会場などのコンテンツを上映する会場に設けられたステージ2上に設置され、歌や踊り又は演劇や講演などのパフォーマンスを行う演技キャラクタ8を含むオブジェクト空間を画像化する装置である。   The large display device 12 is installed on a stage 2 provided in a venue where content such as an event venue is screened, for example, and images an object space including a performance character 8 that performs performances such as singing and dancing or performing or giving a lecture. It is a device to do.

そして、大型表示装置12は、ステージ2上に形成されている大型のスクリーンと、当該スクリーンに画像を(例えば背面から)投影するプロジェクターによって構成される。   The large display device 12 includes a large screen formed on the stage 2 and a projector that projects an image on the screen (for example, from the back).

また、大型表示装置12は、楽曲の歌唱や、楽器の演奏、ダンス、大道芸などの演技キャラクタ8のライブパフォーマンスをコンテンツとして上映する。   In addition, the large display device 12 shows live performances of acting characters 8 such as singing music, playing musical instruments, dancing, street performances, and the like as contents.

なお、大型表示装置12としては、大型の液晶表示装置、ホログラムなどの立体画像化装置によって構成されていてもよい。   The large display device 12 may be constituted by a large-sized liquid crystal display device or a stereoscopic imaging device such as a hologram.

システム制御装置20は、例えば、タブレット型情報端末装置、パーソナルコンピュータ、スマートフォン、又は、ゲーム機などの情報処理装置によって構成され、インターネット(WAN)、LANなどのネットワークを介してサーバ装置11に接続可能な装置である。なお、システム制御装置20とサーバ装置11との通信回線は、有線でもよいし無線でもよい。   The system control device 20 is configured by an information processing device such as a tablet information terminal device, a personal computer, a smartphone, or a game machine, and can be connected to the server device 11 via a network such as the Internet (WAN) or a LAN. Device. The communication line between the system control device 20 and the server device 11 may be wired or wireless.

また、システム制御装置20は、
(1)演技キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点としたオブジェクト空間の画像を生成し、
(2)観客によって視認される大型表示装置に演技キャラクタを中心としたオブジェクト空間の画像を表示させ、
(3)コンテンツの上映中に、画像化される演技キャラクタの動作を制御するための複数の操作コマンド中から、観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示し、
(4)操作者の操作指示によって、提示した操作コマンド候補を特定し、当該特定した操作コマンド候補を、操作コマンドとして、受け付け、
(5)受け付けた操作コマンドに基づいて、表示される演技キャラクタの動作を制御する、
構成を有している。
In addition, the system control device 20
(1) A virtual camera is set in the object space where the acting character is arranged, and an image of the object space with the virtual camera as a viewpoint is generated.
(2) Display an image of the object space centered on the acting character on a large display device visually recognized by the audience;
(3) An operation command selected from among a plurality of operation commands for controlling the motion of the acting character to be imaged during content screening is selected according to spectator information indicating information about the spectator as an operation command candidate. , Present to the operator,
(4) The presented operation command candidate is specified by the operation instruction of the operator, the specified operation command candidate is received as an operation command,
(5) controlling the action of the acting character to be displayed based on the received operation command;
It has a configuration.

そして、システム制御装置20は、演技キャラクタを中心に、オブジェクト空間に配置された仮想カメラを視点とした画像をコンテンツとして観客に観覧させるために大型表示装置12に表示する構成を有している。   Then, the system control device 20 has a configuration in which an image from the viewpoint of a virtual camera arranged in the object space is displayed on the large display device 12 as a content to be viewed by the audience with the acting character as the center.

特に、システム制御装置20は、性別・年齢・人数やアイドルキャラクタなどの演技キャラクタの種別が規定された1のコンテンツを選択すると、当該コンテンツに含まれるアルゴリズムに従いつつ、操作者の操作に従って、オブジェクト空間に配置された演技キャラクタ(例えば、アイドルキャラクタ)の演技パフォーマンスを画像化する構成を有している。   In particular, when the system control device 20 selects one content in which the type of acting character such as gender, age, number of people, and idle characters is defined, the object space is determined according to the operation of the operator while following the algorithm included in the content. The performance performance of a performance character (for example, an idol character) arranged on the screen is imaged.

例えば、本実施形態のシステム制御装置20は、図2に示すように、第1演技キャラクタ(アイドルキャラクタ)8Aと第2演技キャラクタ(アイドルキャラクタ)8Bとの2人組から構成される演技キャラクタのグループによって実行されるライブパフォーマンスをコンテンツとして大型表示装置12に表示させるようになっている。   For example, as shown in FIG. 2, the system control apparatus 20 of the present embodiment is a group of acting characters composed of two groups of a first acting character (idol character) 8A and a second acting character (idol character) 8B. The large-scale display device 12 displays the live performance executed as described above as content.

サーバ装置11は、例えば、API(アプリケーションプログラミングインタフェース)や所定のプラットフォーム等を利用し、各コンテンツ上映システム10に各種のデータを提供し、又は、各コンテンツ上映システム10から観客情報を取得して管理する情報処理装置である。   The server device 11 provides various data to each content screening system 10 using, for example, an API (Application Programming Interface) or a predetermined platform, or acquires and manages audience information from each content screening system 10. Information processing apparatus.

特に、サーバ装置11は、コンテンツ上映システム10において演技キャラクタのパフォーマンスを画像化し、かつ、音を出力するためのデータ(以下、「コンテンツデータ」という。)を各コンテンツ上映システム10に提供する。   In particular, the server device 11 images the performance of the acting character in the content screening system 10 and provides data (hereinafter referred to as “content data”) for outputting sound to each content screening system 10.

また、サーバ装置11は、記憶領域(後述する記憶部140)を有し、当該記録領域を用いて各観客の課金情報、行動履歴の情報(以下、「行動履歴情報」という。)などの各情報の管理を実行する。ただし、サーバ装置11は、当該記憶領域に代えてネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。   In addition, the server device 11 has a storage area (a storage unit 140 described later), and using the recording area, each spectator's billing information, action history information (hereinafter referred to as “action history information”), and the like. Perform information management. However, the server device 11 may store data in a database (storage device or memory in a broad sense) connected via a network (intranet or Internet) instead of the storage area.

なお、サーバ装置11は、1つの(装置、プロセッサ)で構成されていてもよいし、複数の(装置、プロセッサ)で構成されていてもよい。   In addition, the server apparatus 11 may be comprised by one (apparatus, processor), and may be comprised by the some (apparatus, processor).

また、本実施形態では、コンテンツ上映システム10が、コンテンツデータ(具体的には、後述するアルゴリズムを規定する制御データ)に基づいて、又は、受け付けた操作者の操作コマンドに基づいて、オブジェクト空間内の演技キャラクタの動作制御を行うが、当該演技キャラクタの各動作制御の各処理を、サーバ装置11が一部又は全部を行ってもよい。   Further, in the present embodiment, the content screening system 10 is configured in the object space based on content data (specifically, control data that defines an algorithm described later) or based on an operation command received by an operator. However, the server device 11 may perform part or all of the processing of each action control of the acting character.

この場合において、例えば、サーバ装置11で全ての処理が実行される場合には、コンテンツ上映システム10は、サーバ装置11から送信されたオブジェクト空間内において動作制御された演技キャラクタを表示する表示制御データなどのデータを受信してその表示制御を行うとともに、操作者によって入力された操作情報をサーバ装置11に送信するようになっている。   In this case, for example, when all the processes are executed by the server device 11, the content screening system 10 displays the display control data for displaying the acting character whose motion is controlled in the object space transmitted from the server device 11. Are received, and display control is performed, and operation information input by the operator is transmitted to the server device 11.

[2]サーバ装置
まず、図3を用いて本実施形態のサーバ装置11の概要及び構成について説明する。なお、図3は、本実施形態のサーバ装置11の機能ブロックを示す図である。また、本実施形態のサーバ装置11は図3の構成要素(各部)の一部を省略した構成としてもよい。
[2] Server Device First, the outline and configuration of the server device 11 of this embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating functional blocks of the server device 11 according to the present embodiment. Moreover, the server apparatus 11 of this embodiment is good also as a structure which abbreviate | omitted a part of component (each part) of FIG.

サーバ装置11は、主に提供するコンテンツの提供に関する処理を実行するサーバ処理部100、管理者やその他の入力に用いるための入力部120、所定の表示を行う表示部130、観客情報などの主にコンテンツに用いる各種のデータを記憶する記憶部140、所定の情報が記憶された情報記憶媒体180、及び、コンテンツ上映システム10やその他と通信を行う通信部196を含む。   The server apparatus 11 includes a server processing unit 100 that mainly performs processing related to provision of content to be provided, an input unit 120 for use by an administrator and other inputs, a display unit 130 that performs predetermined display, and main information such as audience information. A storage unit 140 that stores various data used for content, an information storage medium 180 that stores predetermined information, and a communication unit 196 that communicates with the content screening system 10 and others.

入力部120は、システム管理者等がコンテンツに関する設定やその他の必要な設定、データの入力に用いるものである。例えば、本実施形態の入力部120は、マウスやキーボード等によって構成される。   The input unit 120 is used by a system administrator or the like for settings related to content, other necessary settings, and data input. For example, the input unit 120 of this embodiment is configured with a mouse, a keyboard, and the like.

表示部130は、システム管理者用の操作画面を表示するものである。例えば、本実施形態の表示部130は、液晶ディスプレイ等によって構成される。   The display unit 130 displays an operation screen for the system administrator. For example, the display unit 130 of the present embodiment is configured by a liquid crystal display or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などによって構成される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Or a memory (ROM) or the like.

通信部196は、外部(例えば、端末、他のサーバや他のネットワークシステム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどによって構成される。   The communication unit 196 performs various controls for communicating with the outside (for example, a terminal, another server, or another network system), and functions as hardware such as various processors or a communication ASIC. Hardware and programs.

記憶部140は、サーバ処理部100や通信部196などのワーク領域となるもので、その機能は、RAM(VRAM)などによって構成される。なお、記憶部140に記憶さ
れる情報は、データベースで管理してもよい。
The storage unit 140 serves as a work area for the server processing unit 100, the communication unit 196, and the like, and its function is configured by a RAM (VRAM) or the like. Note that information stored in the storage unit 140 may be managed in a database.

また、本実施形態においては、記憶部140には、ワーク領域として使用される主記憶部142と、各コンテンツ上映システム10に提供するコンテンツに関するデータを示すコンテンツデータ144、観客に関する観客情報を示す観客情報146、及び、コンテンツが上映されル毎に収集されたたデータ(以下、「コンテンツ収集データ」という。)148が記憶される。ただし、記憶部140には、上述の情報の他に、コンテンツ演算に必要な各種の情報が記憶される。   In the present embodiment, the storage unit 140 includes a main storage unit 142 used as a work area, content data 144 indicating data related to content to be provided to each content screening system 10, and audience indicating audience information regarding the audience. Information 146 and data (hereinafter referred to as “content collection data”) 148 collected and displayed for each content are stored. However, the storage unit 140 stores various types of information necessary for content calculation in addition to the above information.

コンテンツデータ144には、コンテンツ毎に、コンテンツIDに対応付けて、各コンテンツ上映システム10において使用されるアルゴリズムが規定されるデータ(以下、「制御データ」ともいう。)、演技キャラクタが演技パフォーマンスを実行する際の楽曲やセリフなどの各種の音データ、及び、演技キャラクタを含むオブジェクト空間を画像化する際に用いる各種の画像データが含まれる。   In the content data 144, for each content, data that specifies an algorithm used in each content screening system 10 in association with the content ID (hereinafter also referred to as “control data”), and the acting character indicates the performance. Various kinds of sound data such as music and lines at the time of execution, and various kinds of image data used for imaging an object space including acting characters are included.

特に、アルゴリズムには、オブジェクト空間における演技キャラクタの動作、当該オブジェクト空間内に設定される仮想カメラの位置やアングル、操作コマンドを提示するタイミングや当該操作コマンドによって制御するタイミング、提示する操作コマンドの種別、演技キャラクタが演技パフォーマンスを実行する際の楽曲やセリフなどの各種の音の出力タイミングを示すコンテンツの上映の流れが規定されている。   In particular, the algorithm includes the action character action in the object space, the position and angle of the virtual camera set in the object space, the timing of presenting the operation command, the timing controlled by the operation command, the type of operation command to be presented In addition, the flow of the content showing the output timing of various sounds such as music and lines when the acting character performs the performance is defined.

また、コンテンツデータ144には、コンテンツ毎に、実際に各コンテンツ上映システム10によって使用された各操作コマンドの種別、タイミング及び回数が使用履歴情報として記憶されている。   In addition, the content data 144 stores the type, timing, and number of times of each operation command actually used by each content screening system 10 as usage history information for each content.

観客情報146には、観客毎に観客IDに対応付けて、
(1)性別、年代、居住地域などの観客の属性情報、
(2)好きな演技キャラクタなどの観客の嗜好情報、
(3)スマートフォンやIDタグなどの観客が保有する端末装置の情報(例えば、観客の個人を特定する情報やチケット情報などの観覧時の位置(座席)を示す情報)、
(4)IDなどの各観客に対応付けて、又は、観客が保有する端末装置に対応付けて、記憶されている情報であって、観覧している対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントに関連するゲームなどの所定のゲームにおけるプレー状況やその履歴(課金履歴も含む。)に関する情報(ゲームプレー情報)、
(5)観客が保有する端末装置を用いて記憶される情報であって、対象キャラクタや当該対象キャラクタがパフォーマンスしているイベントなどへの参加を示す行動履歴情報、及び、当該イベントやパフォーマンスに関連する所定の通販サイトや実売店舗(イベント会場内も含む)による課金情報やその課金履歴情報、並びに、
(6)各観客から生体情報(例えば、顔画像、音声情報(各観客の声紋情報や周波数特性を示す周波数特性情報を含む。)、及び、体勢情報、熱量の情報や所定のデバイス(スマートフォンやサイリウム))を用いた光の情報などの生体情報に準ずる情報が含まれる。
The audience information 146 is associated with the audience ID for each audience,
(1) Audience attribute information such as gender, age, and residential area,
(2) Audience preference information such as favorite acting characters,
(3) Information of terminal devices held by the audience such as smartphones and ID tags (for example, information specifying the audience's individuals and information indicating the position (seat) at the time of viewing such as ticket information),
(4) Information stored in association with each spectator such as an ID or in association with a terminal device held by the spectator, and the target character being viewed or the target character is performing Information (game play information) regarding play status and history (including billing history) of a predetermined game such as a game related to the event,
(5) Information stored using the terminal device held by the spectator, including action history information indicating participation in an event in which the target character or the target character is performing, and related to the event or performance Billing information and billing history information from the designated mail-order sites and retail stores (including event venues),
(6) Biological information (for example, facial images, voice information (including voice print information and frequency characteristic information indicating frequency characteristics) of each audience), posture information, heat information, and a predetermined device (smart phone, Information similar to biological information such as light information using psyllium)) is included.

また、課金履歴には、上記のように、ゲームにおける課金履歴、及び、サービスや商品の購入に関する課金を含み、これらの課金が実行された日時を示す課金日時、アイテムの購入やお捻りの購入などの課金要素の種別、課金した額を示す課金額などが含まれる。   In addition, as described above, the charge history includes the charge history in the game and the charge related to the purchase of services and products, the charge date and time indicating the date and time when these charges were executed, the purchase of items and the purchase of twists. The type of charging element such as, the amount of charge indicating the amount charged, and the like are included.

コンテンツ収集データ148には、コンテンツ毎に、各コンテンツ上映システム10において上映されたコンテンツの上映実績(日時や回数)と、コンテンツが上映された際の操作者の指示によって受け付けた操作コマンドのデータ及び各演技キャラクタの動作制御の内容を示すデータと、が記憶される。   The content collection data 148 includes, for each content, data of the content shown in each content screening system 10 (date and number of times), operation command data received in accordance with an instruction from the operator when the content was shown, and Data indicating the content of motion control of each acting character is stored.

サーバ処理部100は、記憶部140内の主記憶部142をワーク領域として各種処理を行う。サーバ処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The server processing unit 100 performs various processes using the main storage unit 142 in the storage unit 140 as a work area. The functions of the server processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

サーバ処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The server processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

例えば、サーバ処理部100(プロセッサ)は、情報記憶媒体180に記憶されているプログラムに基づいて、サーバ装置11全体の制御を行うとともに、コンテンツデータをコンテンツ上映システム10に提供する提供処理、又は、コンテンツ上映システム10と連動して観客情報を提供する処理及びコンテンツ上映システム10から送信されたコンテンツの上映時に収集した操作コマンドや観客情報を記憶部140に登録する処理などの各処理を行う。   For example, the server processing unit 100 (processor) controls the entire server device 11 based on a program stored in the information storage medium 180, and provides content data to the content screening system 10, or Various processes such as a process of providing spectator information in conjunction with the content screening system 10 and a process of registering operation commands and spectator information collected during the screening of content transmitted from the content screening system 10 in the storage unit 140 are performed.

具体的には、本実施形態のサーバ処理部100は、通信制御部101、コンテンツ管理部102及び観客管理部103を少なくとも有している。   Specifically, the server processing unit 100 of this embodiment includes at least a communication control unit 101, a content management unit 102, and an audience management unit 103.

通信制御部101は、コンテンツ上映システム10とネットワークを介してデータを送受信する処理を行う。すなわち、サーバ装置11は、通信制御部101によってコンテンツ上映システム10にコンテンツデータの送信、及び、当該コンテンツ上映システム10から送信された観客情報や操作コマンドなどの各種の情報の受信をする。   The communication control unit 101 performs processing for transmitting and receiving data to and from the content screening system 10 via a network. That is, the server apparatus 11 transmits content data to the content screening system 10 by the communication control unit 101 and receives various information such as audience information and operation commands transmitted from the content screening system 10.

コンテンツ管理部102は、各コンテンツ上映システム10において上映されたコンテンツの上映実績及び各コンテンツ上映システム10の上映中に用いられた操作コマンドなどデータをコンテンツ収集データ148に登録する。   The content management unit 102 registers, in the content collection data 148, data such as the performance of the content screened in each content screening system 10 and operation commands used during the screening of each content screening system 10.

また、コンテンツ管理部102は、所定のタイミングにおいて同一のコンテンツの各コンテンツ収集データを解析し、操作者に提示する操作コマンドの最適化を実行し、コンテンツの上映中のデフォルトとして設定した操作コマンドなどが設定されたアルゴリズムを更新する。   In addition, the content management unit 102 analyzes each content collection data of the same content at a predetermined timing, optimizes an operation command to be presented to the operator, an operation command set as a default during the content screening, etc. Update the algorithm set with.

観客管理部103は、各観客の登録手続きに係る処理(属性情報や嗜好情報などの登録)及びアカウント(観客ID)に紐付けられるデータの記憶管理を行う。   The spectator management unit 103 performs processing related to each spectator registration procedure (registration of attribute information, preference information, etc.) and storage management of data associated with an account (audience ID).

具体的には、観客管理部103は、各観客情報を登録管理するためのアカウントの付与制御、コンテンツ実行中に検出された各観客の観客情報(以下、「検出観客情報」ともいい、例えば、顔画像の各観客の生体情報の他に、当該生体情報が検出された際の操作コマンドやパフォーマンスタイミングなども含む。)と観客に関する属性情報や嗜好情報などの個人情報とを登録管理する登録情報管理、アカウントに紐付けられ課金要素の実行に係る対価の支払い原資として使用される仮想口座の設定と入出金制御、当該アカウントの観客による課金要素に係る課金履歴の登録、及び、ゲーム履歴の登録などが実行される。   Specifically, the spectator management unit 103 is also referred to as account grant control for registering and managing each spectator information, spectator information of each spectator detected during content execution (hereinafter referred to as “detected spectator information”, for example, In addition to the biometric information of each spectator in the face image, it also includes operation commands and performance timing when the biometric information is detected.) And personal information such as spectator attribute information and preference information Management, virtual account setting and deposit / withdrawal control to be used as a payment source for compensation associated with the execution of the accounting element linked to the account, registration of accounting history related to the accounting element by the audience of the account, and registration of game history Etc. are executed.

特に、観客管理部103は、検出観客情報としては、コンテンツ上映システム10によって検出された各情報を観客情報アカウントと紐付けて記憶及び管理を行う。   In particular, the audience management unit 103 stores and manages each piece of information detected by the content screening system 10 as a detected audience information in association with an audience information account.

また、観客管理部103は、ゲームプレー情報や課金履歴情報などは、図示しないゲームサーバ装置、通販サイトを運営する管理サーバ装置、又は、クレジットカードや銀行の
決済サーバ装置などの図示しない他のサーバ装置と連動し、所定のデータを授受することによって各情報の観客情報146への登録を実行する。
The spectator management unit 103 also stores game play information and billing history information such as a game server device (not shown), a management server device that operates a mail order site, or another server (not shown) such as a credit card or bank settlement server device. In conjunction with the apparatus, each information is registered in the audience information 146 by exchanging predetermined data.

[3]システム制御装置
次に、図4を用いて本実施形態のコンテンツ上映システム10について説明する。なお、図4は、本実施形態のコンテンツ上映システム10の機能ブロックを示す図である。また、本実施形態のコンテンツ上映システム10は、図4の構成要素(各部)の一部を省略した構成としてもよい。
[3] System Control Device Next, the content screening system 10 of this embodiment will be described with reference to FIG. FIG. 4 is a diagram showing functional blocks of the content screening system 10 of the present embodiment. In addition, the content screening system 10 according to the present embodiment may have a configuration in which some of the components (each unit) in FIG. 4 are omitted.

観客情報検出部250は、撮像カメラ、赤外センサ、集音マイク、着座センサ、サーモグラフィ又は各観客が有するマーカユニットとその検出装置(カメラ)などの各種の生態情報又は生態情報に準ずる情報を検出するための機能を有している。   The spectator information detection unit 250 detects various biological information such as an imaging camera, an infrared sensor, a sound collecting microphone, a seating sensor, a thermography, or a marker unit included in each spectator and its detection device (camera), or information equivalent to the biological information. It has a function to do.

そして、観客情報検出部250は、コンテンツの上映中にアルゴリズムに従って所定の生体情報などを検出し、操作コマンド候補提示処理部214に検出した情報を提供する。   The spectator information detection unit 250 detects predetermined biological information and the like according to an algorithm during the content screening, and provides the detected information to the operation command candidate presentation processing unit 214.

なお、例えば、本実施形態の観客情報検出部250は、本発明の検出手段を構成する。   For example, the audience information detection unit 250 of the present embodiment constitutes the detection means of the present invention.

入力部260は、操作者が操作コマンドを入力するためのものであり、その機能は、タッチパネル、タッチパネル型ディスプレイ、トラックボール、キーボード、マウスなどにより実現できる。   The input unit 260 is for an operator to input an operation command, and the function can be realized by a touch panel, a touch panel display, a trackball, a keyboard, a mouse, or the like.

すなわち、入力部260は、例えば、タッチパネルなどのタッチ操作入力を実行するデバイスによって構成されている場合には、画像が表示される画面上における2次元の指示位置座標(x,y)を検出可能な検出部262を備えている。   That is, for example, when the input unit 260 is configured by a device that performs touch operation input such as a touch panel, the two-dimensional designated position coordinates (x, y) on the screen on which the image is displayed can be detected. The detection part 262 is provided.

例えば、入力部260は、接触検出領域(タッチパネル)における、2次元の接触位置座標(x,y)を検出可能な検出部262を備えている。   For example, the input unit 260 includes a detection unit 262 that can detect a two-dimensional contact position coordinate (x, y) in the contact detection region (touch panel).

本実施形態において、接触位置は、操作者の接触操作(直接的な接触及びポインティングデバイスによる間接的な接触も含む)により、接触検出領域から得られる位置情報である。   In the present embodiment, the contact position is position information obtained from the contact detection area by an operator's contact operation (including direct contact and indirect contact with a pointing device).

なお、本実施形態の操作者の接触操作には、ユーザの指によるモニタ表示部290(タッチパネル)上への直接的なタッチ操作、及び、ポインティングデバイスなどのデバイスを介して実行される間接的なモニタ表示部290(タッチパネル)上へのタッチ操作の他に、モニタ表示部290(タッチパネル)に直接的及び間接的にタッチ操作又はスライド操作をせずに、光ビームやカメラを用いたモニタ表示部290(タッチパネル)上への擬似的なタッチ操作も含まれる。   Note that the contact operation of the operator according to the present embodiment includes a direct touch operation on the monitor display unit 290 (touch panel) by a user's finger and an indirect operation performed via a device such as a pointing device. In addition to a touch operation on the monitor display unit 290 (touch panel), a monitor display unit using a light beam or a camera without directly or indirectly touching or sliding on the monitor display unit 290 (touch panel). A pseudo touch operation on 290 (touch panel) is also included.

なお、本実施形態では、操作者用のモニタ表示部(ディスプレイ)290が、液晶ディスプレイと、操作者の接触位置を検出するためのタッチパネルとが積層されたタッチパネル型ディスプレイとなっている。すなわち、本実施形態では、モニタ表示部290が入力部260として機能する。   In the present embodiment, the monitor display unit (display) 290 for the operator is a touch panel type display in which a liquid crystal display and a touch panel for detecting the contact position of the operator are stacked. That is, in the present embodiment, the monitor display unit 290 functions as the input unit 260.

また、モニタ表示部290への接触操作は、指先を用いて行うようにしてもよいし、タッチペンなどの入力機器を用いて行うようにしてもよい。   Further, the touch operation on the monitor display unit 290 may be performed using a fingertip, or may be performed using an input device such as a touch pen.

さらに、入力部260は、指示位置以外の操作情報(操作信号)を入力可能なボタンやレバー、ステアリング、マイク、加速度センサなどを備えていてもよい。   Furthermore, the input unit 260 may include a button, a lever, a steering, a microphone, an acceleration sensor, and the like that can input operation information (operation signal) other than the designated position.

記憶部270は、処理部200や通信部296などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部270は、ワーク領域として使用される主記憶部271と、最終的な表示画像等が記憶される画像バッファ272と、観客に関する情報を示す観客情報273と、アルゴリズムのデータ、操作コマンドデータ又はテーブルデータなどのコンテンツの上映を実行する上で必要な各種のデータを記憶するコンテンツデータ記憶部274と、を含む。   The storage unit 270 serves as a work area for the processing unit 200, the communication unit 296, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 270 of this embodiment includes a main storage unit 271 used as a work area, an image buffer 272 in which a final display image and the like are stored, audience information 273 indicating information about the audience, and algorithm And a content data storage unit 274 that stores various data necessary for executing the presentation of content such as data, operation command data, or table data.

観客情報273には、観客情報検出部250によって検出された各観客の観客情報、及び、上映会場に来場している観客の属性情報などの予め定められたが観客情報が記憶される。   In the spectator information 273, predetermined spectator information such as spectator information of each spectator detected by the spectator information detection unit 250 and attribute information of spectators who have visited the screening venue is stored.

コンテンツデータ記憶部274には、コンテンツ上映中に、当該コンテンツの上映で使用された各操作コマンドの種別、タイミング及び回数が使用履歴情報として記憶される。   The content data storage unit 274 stores, as usage history information, the type, timing, and number of times of each operation command used during the content screening.

なお、これらの一部を省略する構成としてもよいし、サーバ装置11の記憶部140がその一部を構成してもよい。また、例えば、本実施形態の記憶部270は、単独で、又は、サーバ装置11の記憶部140とともに、本発明の記憶手段を構成する。   In addition, it is good also as a structure which abbreviate | omits these, and the memory | storage part 140 of the server apparatus 11 may comprise that part. Further, for example, the storage unit 270 of the present embodiment constitutes a storage unit of the present invention alone or together with the storage unit 140 of the server device 11.

観客情報273には、例えば、サーバ装置11の記憶部140に記憶された観客情報において、上映するパフォーマンスを観覧予定、又は、観覧中の観客の観客情報が記憶される。   In the spectator information 273, for example, spectator information stored in the storage unit 140 of the server device 11 is stored with spectator information of the audience who is scheduled to view the viewing performance or is observing.

コンテンツデータ記憶部274には、コンテンツを上映する上で必要な各種の情報、コンテンツの上映中に使用された操作コマンドなどの情報、及び、各種の判定処理で用いられる条件情報などが記憶される。   The content data storage unit 274 stores various types of information necessary for showing the content, information such as operation commands used during the showing of the content, and condition information used in various determination processes. .

情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 280 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

また、情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部200は、後述するように、情報記憶媒体280に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。   In addition, the information storage medium 280 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). Note that the processing unit 200 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 280, as will be described later.

モニタ表示部290は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)、例えばスクリーンとプロジェクターから構成される投影装置などにより実現できる。   The monitor display unit 290 outputs an image generated according to the present embodiment, and its function is a CRT, LCD, touch panel type display, HMD (head mounted display), for example, a projection device including a screen and a projector. It can be realized by.

特に、本実施形態ではモニタ表示部290は、上述のように、タッチパネルディスプレイを用いることにより操作者が各種の入力を行う入力部260としても機能する。ここでタッチパネルとして、例えば抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式などのタッチパネルを用いることができる。   In particular, in the present embodiment, the monitor display unit 290 also functions as the input unit 260 where the operator performs various inputs by using the touch panel display as described above. Here, as the touch panel, for example, a resistive film type (4-wire type, 5-wire type), capacitive type, electromagnetic induction type, ultrasonic surface acoustic wave type, infrared scanning type, or the like can be used.

音出力部292は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 292 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部296は、外部(例えばホスト装置や他の端末装置)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 296 performs various controls for communicating with the outside (for example, a host device or another terminal device), and functions thereof are hardware such as various processors or communication ASICs, and a program. It can be realized by.

なお、システム制御装置20は、サーバ装置11が有する情報記憶媒体や記憶部270に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体280や記憶部270に記憶してもよい。このようにプログラムやデータを受信してシステム制御装置20を機能させる場合も本発明の範囲内に含めることができる。   The system control device 20 receives, via the network, a program or data for causing the computer to function as each unit of the present embodiment stored in the information storage medium or the storage unit 270 of the server device 11. The program and data may be stored in the information storage medium 280 or the storage unit 270. The case where the system control device 20 is made to function by receiving the program or data as described above can also be included in the scope of the present invention.

処理部200(プロセッサ)は、入力部260からの入力データやプログラムなどに基づいて、サーバ装置11から提供されたプログラム及びアルゴリズムのデータに従って、又は、当該サーバ装置11と連動して、操作コマンド提示処理、操作コマンド受付処理を含むコンテンツ上映処理、画像生成処理、及び、音生成処理などの処理を行う。   The processing unit 200 (processor) presents an operation command according to the program and algorithm data provided from the server device 11 or in conjunction with the server device 11 based on the input data or program from the input unit 260. Processing such as content screening processing, image generation processing, and sound generation processing including processing and operation command reception processing is performed.

特に、本実施形態においては、コンテンツ上映処理としては、コンテンツの上映開始条件が満たされた場合にコンテンツの上映を開始する処理、演技キャラクタなどのコンテンツの上映に用いられる各種のオブジェクトを配置する処理、アルゴリズムに従って、又は、操作者の操作コマンドに従って演技キャラクタの動作を制御する処理、コンテンツの上映終了条件が満たされた場合にゲームを終了する処理などが含まれる。   In particular, in the present embodiment, as the content screening processing, processing for starting content screening when content screening start conditions are satisfied, processing for arranging various objects used for content screening such as acting characters, etc. , Processing for controlling the action of the acting character in accordance with an algorithm or in accordance with an operation command of the operator, processing for ending the game when a content screening end condition is satisfied, and the like.

また、処理部200は、記憶部270をワーク領域として各種処理を行う。処理部200の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 200 performs various processes using the storage unit 270 as a work area. The functions of the processing unit 200 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態の処理部200は、オブジェクト空間設定部210と、タッチ検出処理部211と、コンテンツ表示制御部212と、モニタ表示制御部213、操作コマンド候補提示処理部214と、移動処理部215と、仮想カメラ制御部216と、コンテンツ編集処理部217と、コンテンツ上映実行制御部218、コンテンツ管理部219と、描画部220と、音処理部230とを含む。また、これらの一部を省略する構成としてもよい。   In particular, the processing unit 200 of the present embodiment includes an object space setting unit 210, a touch detection processing unit 211, a content display control unit 212, a monitor display control unit 213, an operation command candidate presentation processing unit 214, and a movement processing unit. 215, a virtual camera control unit 216, a content editing processing unit 217, a content screening execution control unit 218, a content management unit 219, a drawing unit 220, and a sound processing unit 230. A part of these may be omitted.

なお、例えば、本実施形態のタッチ検出処理部211は、本発明の受付手を構成し、コンテンツ表示制御部212は、本発明の観客用表示制御手段を構成する。また、例えば、本実施形態のモニタ表示制御部213は、本発明のモニタ表示制御手段を構成し、操作コマンド候補提示処理部214は、本発明の提示手段を構成する。さらに、例えば、本実施形態のコンテンツ編集処理部217は、編集手段を構成し、コンテンツ上映実行制御部218は、本発明の登録手段及び動作制御手段を構成する。   For example, the touch detection processing unit 211 of the present embodiment constitutes the acceptor of the present invention, and the content display control unit 212 constitutes the audience display control means of the present invention. Further, for example, the monitor display control unit 213 of the present embodiment constitutes a monitor display control unit of the present invention, and the operation command candidate presentation processing unit 214 constitutes a presentation unit of the present invention. Further, for example, the content editing processing unit 217 of the present embodiment constitutes an editing unit, and the content screening execution control unit 218 constitutes a registration unit and an operation control unit of the present invention.

オブジェクト空間設定部210は、キャラクタオブジェクト(演技キャラクタ)、移動経路、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(スプライト、ビルボード、ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間(すなわち、ゲーム空間)に配置設定する処理を行う。   The object space setting unit 210 includes various objects (sprites, billboards, polygons, free-form surfaces, or subdivisions) representing display objects such as character objects (acting characters), moving paths, buildings, trees, pillars, walls, and maps (terrain). A process of placing and setting an object composed of a primitive surface such as a surface in an object space (that is, a game space) is performed.

具体的にはオブジェクト空間設定部210は、オブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y)或いは(X、Y、Z)にその回転角度(X、Y軸回りでの回転角度)或いは(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   Specifically, the object space setting unit 210 determines the position and rotation angle (synonymous with orientation and direction) of the object (model object), and rotates the object to that position (X, Y) or (X, Y, Z). The object is arranged at an angle (rotational angle around the X, Y axis) or (rotational angle around the X, Y, Z axis).

なお、オブジェクト空間とは、いわゆる仮想2次元空間、仮想3次元空間の両方を含む。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。   The object space includes both a so-called virtual two-dimensional space and a virtual three-dimensional space. The two-dimensional space is a space in which an object is arranged at, for example, two-dimensional coordinates (X, Y), and the three-dimensional space is a space in which an object is arranged at, for example, three-dimensional coordinates (X, Y, Z). is there.

そして、オブジェクト空間を2次元空間とした場合には、複数のオブジェクトそれぞれについて設定された優先順位に基づいてオブジェクトを配置する。例えば、奥側にあるように見せたいオブジェクト(スプライト)から順にオブジェクトを配置し、手前側にあるように見せたいオブジェクトを重ねて配置する処理を行うことができる。   When the object space is a two-dimensional space, the objects are arranged based on the priority order set for each of the plurality of objects. For example, processing can be performed in which objects are arranged in order from the object (sprite) that the user wants to appear on the back side, and the objects that the user wants to appear on the near side are superimposed.

また、描画サイズが大きなオブジェクトを画像の下方に配置し、描画サイズが小さなオブジェクトを画像の上方に配置すれば、画面の上方に対応するオブジェクト空間が奥側にあるように見せることができ、画面の下方に対応するオブジェクト空間が手前側にあるように見せることができる。   Also, if you place an object with a large drawing size below the image and an object with a small drawing size above the image, you can make the object space corresponding to the top of the screen appear to be on the back side. It can be seen that the corresponding object space is on the near side.

一方、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクトを配置する。   On the other hand, when the object space is a three-dimensional space, the object is arranged in the world coordinate system.

タッチ検出処理部211は、操作者が入力部260に入力した操作コマンドなどの演技キャラクタの動作制御を実行するための指示情報を受け付けて認識する認識処理を行う。   The touch detection processing unit 211 performs a recognition process for receiving and recognizing instruction information for performing action control of the acting character such as an operation command input by the operator to the input unit 260.

具体的には、タッチ検出処理部211は、操作者の接触操作(すなわち、タッチ操作)を検出する接触検出領域(タッチパネル)における接触位置(2次元の接触位置座標)を指示位置として取得する。   Specifically, the touch detection processing unit 211 acquires a contact position (two-dimensional contact position coordinates) in a contact detection area (touch panel) for detecting an operator's contact operation (ie, touch operation) as an instruction position.

特に、タッチ検出処理部211は、
(1)画面へのタッチ操作入力されていない状態(以下、「無接触状態」という。)からタッチ操作入力された状態(以下、「接触状態」という。)への変化(以下、「状態変化」という。)を検出するとともに、当該状態変化が実行された検出位置を検出し、
(2)当該検出位置に表示されている操作コマンド候補の操作コマンドとしての検出、操作コマンドの編集指示(例えば、操作コマンドに対する演技キャラクタにおけるデフォルトの操作制御の追加、変更及び削除)、又は、演技キャラクタの特別な演出を享受する特定の観客の観覧の検出を実行する。
In particular, the touch detection processing unit 211
(1) A change (hereinafter referred to as “state change”) from a state where no touch operation is input to the screen (hereinafter referred to as “contactless state”) to a state where the touch operation is input (hereinafter referred to as “contact state”). )) And a detection position where the state change is executed,
(2) Detection of an operation command candidate displayed at the detection position as an operation command, operation command editing instruction (for example, addition, change and deletion of default operation control in an acting character with respect to the operation command), or performance Detection of the viewing of a specific audience who enjoys a special performance of the character is executed.

コンテンツ表示制御部212は、大型表示装置12上に、演技キャラクタを中心に、オブジェクト空間を画像化した画像を観客に観覧可能に表示させるための各種の制御を実行する。   The content display control unit 212 executes various kinds of control for displaying on the large display device 12 an image obtained by imaging the object space centered on the acting character so that the audience can view the image.

モニタ表示制御部213は、コンテンツの上映中に、上映されている演技キャラクタを中心としたコンテンツをモニタ表示部290に表示するとともに、操作者に対して操作コマンド候補を表示するなどの操作支援に関する各種の表示をモニタ表示部290に行う。   The monitor display control unit 213 relates to operation support such as displaying content centered on the acting character being displayed on the monitor display unit 290 and displaying operation command candidates to the operator during the content screening. Various displays are performed on the monitor display unit 290.

移動処理部215は、オブジェクト空間内におけるオブジェクトの移動演算を行う。すなわち、移動処理部215は、入力部260により操作者が入力した入力データ又はプログラム(移動アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement processing unit 215 performs a movement calculation of the object in the object space. That is, the movement processing unit 215 moves the moving object in the object space based on input data or a program (movement algorithm) or various data (motion data) input by the operator through the input unit 260, or Processing for controlling the motion (motion, animation) of the moving object is performed.

具体的には、本実施形態の移動処理部215は、オブジェクトの移動情報(移動方向、移動量、移動速度、位置、回転角度、或いは加速度)や動作情報(各パーツオブジェクト
の位置、或いは回転角度)を、1フレーム毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動処理、動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは、固定としてもよいし、処理負荷に応じて可変としてもよい。
Specifically, the movement processing unit 215 according to the present embodiment performs object movement information (movement direction, movement amount, movement speed, position, rotation angle, or acceleration) and operation information (position or rotation angle of each part object). ) Is sequentially obtained for each frame. Here, the frame is a unit of time for performing object movement processing, motion processing (simulation processing), and image generation processing. In the present embodiment, the frame rate may be fixed or variable depending on the processing load.

仮想カメラ制御部216は、所与の視点から見える画像であって、奥行きがあるように見える画像を生成する。この場合に、仮想カメラ制御部216が、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 216 generates an image that is visible from a given viewpoint and appears to have depth. In this case, the virtual camera control unit 216 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば、仮想カメラによりオブジェクト(例えば、キャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。   For example, when an object (for example, a character, a ball, a car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. The direction).

この場合には、移動処理部215で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。また、この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement processing unit 215. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

コンテンツ編集処理部217は、コンテンツの上映中やその他のタイミングに、操作者の指示に基づいて、前記操作コマンドに対応する対象キャラクタの動作制御を編集する編集処理を実行する。   The content editing processing unit 217 executes editing processing for editing the motion control of the target character corresponding to the operation command based on an instruction from the operator during the content screening or at other timing.

コンテンツ上映実行制御部218は、
(1)コンテンツデータに含まれる制御データに規定されるアルゴリズムに従って画像化される対象キャラクタの動作を制御するアルゴリズム制御処理を実行し、
(2)アルゴリズム制御処理中に、操作コマンドが受け付けられた場合に、当該アルゴリズム制御処理の対象となる演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理に規定される演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく示される演技キャラクタの動作を制御する。
The content screening execution control unit 218
(1) executing an algorithm control process for controlling the action of the target character imaged according to an algorithm defined in the control data included in the content data;
(2) When an operation command is received during the algorithm control process, it is linked with the action of the acting character that is the target of the algorithm control process, or instead of the action of the action character specified in the algorithm control process Then, the movement of the acting character shown is controlled based on the received operation command.

また、コンテンツ上映実行制御部218は、コンテンツの上映中に、使用した操作コマンド及びそれに基づく演技キャラクタの動作、並びに、検出した検出観客情報や使用した観客情報をコンテンツ収集データとしてサーバ装置11に提供する。   Also, the content screening execution control unit 218 provides the server device 11 with the operation commands used and the acting character actions based on the operation commands used, the detected detected audience information, and the used audience information as content collection data during the content screening. To do.

具体的には、コンテンツ上映実行制御部218は、コンテンツの上映後の所定のタイミングに、上映中に受け付けた操作コマンド及び検出した観客情報を、コンテンツ上映結果情報を解析するための情報として、又は、同一のコンテンツにおける他の上映に用いる使用履歴情報として、サーバ装置11に登録する。   Specifically, the content screening execution control unit 218 uses the operation command received during the screening and the detected audience information as information for analyzing the content screening result information at a predetermined timing after the content screening, or Then, it is registered in the server device 11 as usage history information used for other screenings of the same content.

コンテンツ管理部219は、コンテンツの上映中に、受け付けた操作コマンドの種別及びタイミングと、当該操作コマンドに基づく演技キャラクタの動作を実行した際に検出された各観客情報とを、コンテンツ上映結果情報として、コンテンツデータ記憶部274に記憶する。   The content management unit 219 displays, as content screening result information, the type and timing of the received operation command and each spectator information detected when the acting character's action is executed based on the operation command during the content screening. And stored in the content data storage unit 274.

また、コンテンツ管理部219は、コンテンツの上映後の所定のタイミングに、上映中に受け付けた操作コマンド及び検出した観客情報を、コンテンツ上映結果情報を解析するための情報として、又は、同一のコンテンツにおける他の上映に用いる使用履歴情報として、サーバ装置11に登録する。   In addition, the content management unit 219 uses the operation command received during the screening and the detected audience information as information for analyzing the content screening result information at a predetermined timing after the screening of the content, or in the same content It is registered in the server device 11 as usage history information used for other screenings.

描画部220は、処理部200で行われる種々の処理(コンテンツの上映に関する各処理)の結果に基づいて描画処理を行い、これにより画像を生成し、大型表示装置12及びモニタ表示部(ディスプレイ)290に出力する。   The drawing unit 220 performs drawing processing based on the results of various types of processing (each processing related to content screening) performed by the processing unit 200, thereby generating an image, and the large display device 12 and the monitor display unit (display). To 290.

また、描画部220が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元画像であってもよく、描画部220は、オブジェクト空間における仮想カメラから見える画像であって、画面上に表示する画像を生成する。   The image generated by the drawing unit 220 may be a so-called two-dimensional image or a so-called three-dimensional image. The drawing unit 220 is an image that can be viewed from a virtual camera in the object space, and Generate an image to display on top.

ここで2次元画像を生成する場合には、描画部220は、設定された優先度が低いオブジェクトから順に描画して、オブジェクト同士が重なる場合には、優先度の高いオブジェクトを上書きして描画する。   Here, when generating a two-dimensional image, the drawing unit 220 draws objects in order from the set low priority object, and when the objects overlap, draws by overwriting the high priority object. .

また、3次元画像を生成する場合には、本実施形態の描画部220は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   When generating a three-dimensional image, the drawing unit 220 of the present embodiment firstly uses vertex data (vertex position coordinates, texture coordinates, color data, normal vector, or α value) of each vertex of the object (model). Etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。   In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ272(フレームバッファ、ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。   In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the image buffer 272 (frame buffer, buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部220が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。
そして、描画部220は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
It should be noted that the vertex processing and pixel processing performed by the drawing unit 220 are performed by hardware that can program polygon (primitive) drawing processing by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .
The drawing unit 220 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部270に記憶する。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 270.

テクスチャマッピングでは、記憶部270のテクスチャ記憶部に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部270のテクスチャ記憶部からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   In the texture mapping, the texture (texel value) stored in the texture storage unit of the storage unit 270 is mapped to the object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit of the storage unit 270 using the texture coordinates set (given) to the vertex of the object, etc. Map textures that are to objects. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。   In the present embodiment, when an object is drawn, a process for mapping a given texture may be performed. In this case, the color distribution (texel pattern) of the texture to be mapped can be dynamically changed.

また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。   In this case, textures having different color distributions (pixel patterns) may be dynamically generated, or a plurality of textures having different color distributions are prepared in advance, and the texture to be used is dynamically switched. May be. The texture color distribution may be changed in units of objects.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.

αブレンディング(α合成)では、描画部220は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   In α blending (α synthesis), the rendering unit 220 performs a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

特に、本実施形態での描画部220は、接触検出領域に対応する表示領域に表示させる画像を生成してもよい。表示領域に表示させる画像とは、例えばオブジェクトを含む画像でもよい。   In particular, the drawing unit 220 in the present embodiment may generate an image to be displayed in a display area corresponding to the contact detection area. The image displayed in the display area may be an image including an object, for example.

音処理部230は、処理部200で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの演技キャラクタがパフォーマンスを実行する際の各種の音を生成し、音出力部292に出力する。   The sound processing unit 230 performs sound processing based on the results of various processes performed by the processing unit 200, and generates various sounds when the acting character performs performance such as BGM, sound effects, or voices, The sound is output to the sound output unit 292.

タイマ部240は、システムクロックを利用して現在日時や制限時間、アルゴリズムに基づくコンテンツの上映に関する時間管理などのタイマ値を計測する処理を実行するための計時を行う。   The timer unit 240 performs a time measurement for executing a process for measuring a timer value such as a time management related to a content screening based on the current date and time, a time limit, and an algorithm using the system clock.

[4]本実施形態の手法
[4.1]概要
次に、本実施形態の手法(操作コマンドの提示処理)の概要について説明する。
[4] Technique [4.1] Outline of Present Embodiment Next, an outline of the technique (operation command presentation processing) of the present embodiment will be described.

本実施形態のコンテンツ上映システム10は、コンテンツを上映する際に、特別なスキルを必要とすることなく、簡便に操作者によって演技キャラクタを操作させることが可能な構成を有している。   The content screening system 10 according to the present embodiment has a configuration that allows an operator to easily operate an acting character without requiring special skills when content is displayed.

そして、本実施形態のコンテンツ上映システム10は、演技キャラクタを観覧する観客の雰囲気や観客の状態に応じて、簡便な操作に基づいてキャラクタを動作させること可能であって、画像化される対象キャラクタの実存感及び当該対象キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォーマンスを実現することが可能な構成を有している。   The content screening system 10 of the present embodiment can move the character based on a simple operation in accordance with the atmosphere of the audience viewing the acting character and the state of the audience. And the live feeling in the performance of the target character, the audience can be enlivened and a fresh performance can be realized.

特に、コンテンツ上映システム10は、
(1)サーバ装置11から取得したコンテンツデータに含まれるアルゴリズムに従ってオブジェクト空間内に演技キャラクタを配置しつつ、当該演技キャラクタの動作を制御し、(2)動作制御されている演技キャラクタを中心に仮想カメラを視点としたオブジェクト空間の画像を大型表示装置12及びモニタ表示部290に表示する、
各処理を、コンテンツを上映するコンテンツ上映処理として実行する構成を有している。
In particular, the content screening system 10
(1) Control the motion of the acting character while placing the acting character in the object space according to the algorithm included in the content data acquired from the server device 11; (2) Virtually focusing on the acting character whose motion is controlled Displaying an image of the object space from the viewpoint of the camera on the large display device 12 and the monitor display unit 290;
Each process is configured to be executed as a content screening process for screening content.

そして、コンテンツ上映システム10は、コンテンツ上映処理の実行中に、
(1)オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示する操作コマンド候補提示処理、及び、
(2)操作者によって提示した操作コマンド候補の中から、1以上の操作コマンド候補が特定されると、当該特定した操作コマンド候補を操作コマンドとして受け付けて、当該受け付けた操作コマンドに基づいて、演技キャラクタの動作を制御する処理(以下、「操作コマンドに基づく動作制御処理」ともいう。)、
の各処理を実行する構成を有している。
Then, the content screening system 10 performs the content screening process,
(1) An operation command candidate that is presented to the operator as an operation command candidate from among a plurality of operation commands for controlling the movement of the target character in the object space, according to the audience information. Presentation process, and
(2) When one or more operation command candidates are specified from the operation command candidates presented by the operator, the specified operation command candidates are received as operation commands, and acting is performed based on the received operation commands. Processing for controlling the movement of the character (hereinafter, also referred to as “motion control processing based on operation commands”),
It has the structure which performs each process of these.

このような構成を有することによって、コンテンツ上映システム10は、観客情報によってイベント会場などの対象キャラクタを観覧している観客が盛り上がっていないと判断された場合には、対象キャラクタが観客を盛り上げあげるための動作として、MC(セリフやマイクパフォーマンス)を実行させるコマンドを選択可能にし、又は、激しい踊りを対象キャラクタが実行する操作コマンドを選択可能にすることができるなど、対象キャラクタを観覧している観客の状況(すなわち、観客の現在の状態)に応じた対象キャラクタの動作を操作者に選択させることができるようになっている。   By having such a configuration, the content screening system 10 increases the audience when the audience watching the target character such as the event venue is not excited based on the audience information. The audience watching the target character, such as making it possible to select a command to execute MC (Serif or Microphone Performance), or to select an operation command for the target character to perform intense dance The operation of the target character according to the situation (that is, the current state of the audience) can be selected by the operator.

また、コンテンツ上映システム10は、観客情報によって、対象キャラクタを観覧する観客に女性が多いと判断された場合には、女性向けの対象キャラクタの動作を制御し、又は、過去の行動において所定のグッズを購入していると判断された場合には、当該観客に対して対象キャラクタの特別な演出を実行させて観覧している観客の行動履歴や属性に応じた対象キャラクタの動作を制御する操作コマンドを操作者に選択させることができるようになっている。   Also, the content screening system 10 controls the movement of the target character for women when the audience information determines that there are many women viewing the target character, or predetermined goods in the past action. Operation command to control the action of the target character in accordance with the behavior history and attributes of the spectator who is viewing by executing a special performance of the target character to the spectator. Can be selected by the operator.

このように、本実施形態のコンテンツ上映システム10は、操作者における操作を簡便にしつつ、観客の雰囲気や観客の状態に応じて、演技キャラクタを動作させることができるので、画像化される演技キャラクタの実存感及び当該演技キャラクタのパフォーマンスにおけるライブ感を向上させつつ、観客を盛り上げること、及び、新鮮みのあるパフォー
マンスを実現することができるようになっている。
As described above, the content screening system 10 according to the present embodiment can move the acting character according to the atmosphere of the audience and the state of the audience while simplifying the operation by the operator. It is possible to increase the audience and to realize a fresh performance while improving the sense of liveness and the live feeling in the performance of the acting character.

したがって、コンテンツ上映システム10は、観客において満足感の高い対象キャラクタの動作(すなわち、パフォーマンス)を制御することができるようになっている。   Therefore, the content screening system 10 can control the action (that is, performance) of the target character that is highly satisfied by the audience.

[4.2]操作コマンド候補提示処理
次に、図5〜図7を用いて本実施形態のコンテンツの操作コマンド候補提示処理について説明する。なお、図5〜図7は、本実施形態のコンテンツの操作コマンド候補提示処理について説明するための図である。
[4.2] Operation Command Candidate Presentation Processing Next, content operation command candidate presentation processing according to the present embodiment will be described with reference to FIGS. 5 to 7 are diagrams for explaining the content operation command candidate presentation processing according to the present embodiment.

(基本原理)
操作コマンド候補提示処理部214は、操作コマンド候補提示処理としては、演技キャラクタのパフォーマンスの開始から終了するまでのアルゴリズムに規定された所定のタイミングに、演技キャラクタの動作を制御するための操作コマンド候補を提示する。
(Basic principle)
The operation command candidate presentation processing unit 214 includes, as the operation command candidate presentation processing, an operation command candidate for controlling the action character's motion at a predetermined timing defined in the algorithm from the start to the end of the performance of the acting character. Present.

特に、操作コマンド候補提示処理部214は、
(1)オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、観客情報を参照しつつ操作者の意思によって選択される操作コマンドを操作コマンド候補として提示する第1操作コマンド候補提示処理、及び、
(2)オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、観客情報に応じて抽出された操作コマンドであって操作者によって選択される操作コマンドを、操作コマンド候補として操作者に提示する第2操作コマンド候補提示処理
を実行する。
In particular, the operation command candidate presentation processing unit 214
(1) A first operation command candidate that presents, as operation command candidates, an operation command selected by the operator's intention while referring to audience information from among a plurality of operation commands for controlling the movement of the target character in the object space Presentation process, and
(2) An operation command selected according to audience information and selected by the operator from among a plurality of operation commands for controlling the movement of the target character in the object space is operated as an operation command candidate. The second operation command candidate presentation process presented to the user is executed.

なお、本実施形態においては、操作コマンド候補提示処理部214は、アルゴリズムに基づく演技キャラクタの演技パフォーマンス中には、第1操作コマンド候補提示処理又は第2操作コマンド候補提示処理のいずれか一方を実行する。   In the present embodiment, the operation command candidate presentation processing unit 214 executes either the first operation command candidate presentation process or the second operation command candidate presentation process during the performance of the acting character based on the algorithm. To do.

(第1操作コマンド候補提示処理)
操作コマンド候補提示処理部214は、サーバ装置11と連動し、例えば、チケットIDと観客IDを対応付けるなど入場チケットを用いてイベント会場に来ている観客を予め特定しつつ、演技キャラクタの演技パフォーマンスを観覧している観客の属性、嗜好情報、ゲームプレー情報及び課金履歴情報の観客情報をサーバ装置11から取得する。
(First operation command candidate presentation process)
The operation command candidate presentation processing unit 214 works in conjunction with the server device 11 to specify the performance performance of the performance character while specifying the audience who has come to the event venue in advance using an entrance ticket such as associating the ticket ID and the audience ID. The audience information of the viewing audience's attributes, preference information, game play information, and billing history information is acquired from the server device 11.

そして、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、アルゴリズムによって規定されるタイミングに、取得した観客情報、当該観客情報によって観客の特性を解析した結果を示す解析情報、又は、双方の情報をモニタ表示部290に表示して操作者に提示する。   Then, the operation command candidate presentation processing unit 214 is linked with the monitor display control unit 213, and at the timing specified by the algorithm, the acquired audience information, analysis information indicating the result of analyzing the audience characteristics by the audience information, or Both pieces of information are displayed on the monitor display unit 290 and presented to the operator.

特に、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、演技キャラクタに対して観客に合致する動作を実行させるための操作コマンドを、操作者により選択させやすくするために、取得した観客情報をモニタ表示部290にリスト表示する。   In particular, the operation command candidate presentation processing unit 214 is obtained in conjunction with the monitor display control unit 213 so that the operator can easily select an operation command for causing the acting character to perform an action that matches the audience. The displayed audience information is displayed in a list on the monitor display unit 290.

また、操作コマンド候補提示処理部214は、座席などによってイベント会場内の特定の観客(具体体には、特定の観客の会場内の位置)を特定することができる場合には、モニタ表示制御部213と連動し、取得した観客情報を観客(又は、観客の位置)に対応付けてモニタ表示部290にリスト表示する。   In addition, the operation command candidate presentation processing unit 214 can identify a specific spectator in the event venue (specifically, a position in the venue of the specific spectator) by using a seat or the like. In conjunction with H.213, the acquired audience information is displayed in a list on the monitor display unit 290 in association with the audience (or the audience position).

例えば、操作コマンド候補提示処理部214は、図5(A)に示すように、イベント会場の前列に対する演出を行う場合には、適した演出を実行するための操作コマンドを操作者に選択させるために、アルゴリズムによって当該タイミングにおいて規定されている操作コマンド候補とともに、イベント会場の前列の観客の観客情報をモニタ表示部290にリスト表示する。   For example, as shown in FIG. 5A, the operation command candidate presentation processing unit 214 causes the operator to select an operation command for executing a suitable effect when performing an effect on the front row of the event venue. In addition, the spectator information of the spectators in the front row of the event venue is displayed in a list on the monitor display unit 290 together with the operation command candidates defined at the timing by the algorithm.

なお、図5(A)は、観客情報とともに、第1演技キャラクタ8A上に形成されたコマンドA〜Dの各操作コマンドを操作コマンド候補としてタッチパネルであるモニタ表示部290に表示している例を示す。   FIG. 5A shows an example in which each operation command of commands A to D formed on the first acting character 8A is displayed on the monitor display unit 290 which is a touch panel together with the audience information as operation command candidates. Show.

特に、図5(A)には、上記の他に、タッチ操作によって変更可能なコマンド実行スピード及びコンテンツの上映時間などの操作者の操作をサポートするための画像パーツがモニタ表示部290に表示されている例が示されている。   In particular, in FIG. 5A, in addition to the above, image parts for supporting the operation of the operator such as the command execution speed changeable by the touch operation and the content screening time are displayed on the monitor display unit 290. An example is shown.

また、コンテンツ上映実行制御部218は、図5(B)に示すように、タッチ検出処理部211によって提示された操作コマンド候補の中から演技キャラクタが動作する操作コマンドを受け付けると、当該操作コマンドに基づいて対象の演技キャラクタの動作制御を実行する。   In addition, as shown in FIG. 5B, when the content screening execution control unit 218 receives an operation command for operating the acting character from the operation command candidates presented by the touch detection processing unit 211, the content screening execution control unit 218 receives the operation command. Based on this, the motion control of the target acting character is executed.

そして、図5(B)は、ステージ2の下手前列に、第1演技キャラクタ8Aを好きな観客であって、課金額が一定額以上の男性の観客が存在するので、操作コマンド候補の中から当該第1演技キャラクタ8Aがステージ2の下手前列へのパフォーマンス「下手で手を振る」という操作コマンドAを受け付けた場合の例を示している。ただし、コンテンツ上映実行制御部218における演技キャラクタの動作制御については、後述する。   FIG. 5B shows that there are male spectators who like the first acting character 8A in the lower front row of stage 2 and who have a billing amount of a certain amount or more. An example is shown in which the first acting character 8A has received an operation command A for performance “shake hand with lower hand” to the lower front row of stage 2. However, the action control of the acting character in the content screening execution control unit 218 will be described later.

一方、操作コマンド候補提示処理部214は、演技キャラクタの演技パフォーマンス前に、又は、当該演技パフォーマンス中に、イベント会場に来場している観客の観客情報に基づいて、観客全体の特性、各観客の特性(個々人の特性)、又は、その双方を解析してもよい。   On the other hand, the operation command candidate presentation processing unit 214 determines the characteristics of the entire audience, the characteristics of each audience, based on the audience information of the audience who is visiting the event venue before or during the performance of the acting character. Characteristics (individual characteristics) or both may be analyzed.

例えば、操作コマンド候補提示処理部214は、観客全体の特性としては、
(A1)観客の構成比率(年代、男女差、地域差)、
(A2)各演技キャラクタの好きなキャラクタとしての支持率(キャラクタAを好きな観客が多いなど)、
(A3)観客全体の課金額の合計や平均課金額、及び、
(A4)特定のゲームにおける平均プレー時間
を解析する。
また、例えば、操作コマンド候補提示処理部214は、各観客の特性としては、
(B1)一定額以上の課金を実行している観客、
(B2)特定の商品やサービスを購入した観客、又は、
(B3)特定のゲームにおいて特定のプレーヤキャラクタやアイテムを所有していること、所定のレベル以上であること、若しくは、所定のポイントや経験値を有しているなど特定のゲームにおいて所定の条件を具備している観客、
を解析する。
For example, the operation command candidate presentation processing unit 214 has the following characteristics of the entire audience:
(A1) Audience composition ratio (age, gender difference, regional difference),
(A2) Support rate of each acting character as a favorite character (such as many spectators who like character A),
(A3) Total and average charges for the entire audience, and
(A4) The average play time in a specific game is analyzed.
Further, for example, the operation command candidate presentation processing unit 214 has the following characteristics as each audience:
(B1) A spectator who is charging more than a certain amount,
(B2) Audience who purchased a specific product or service, or
(B3) Predetermined conditions in a specific game such as possessing a specific player character or item in a specific game, being above a predetermined level, or having a predetermined point or experience value The audience they have,
Is analyzed.

そして、操作コマンド候補提示処理部214は、観客情報を参照しつつ操作者の意思によって選択することが可能な状態である操作コマンドとして提示するため、モニタ表示制御部213と連動し、アルゴリズムによって提示することが規定されている操作コマンドと同時に操作者が視認できるモニタ表示部290上の位置に、上記の解析結果を表示する。   Then, the operation command candidate presentation processing unit 214 refers to the audience information, presents it as an operation command that can be selected according to the operator's intention, and presents it with an algorithm in conjunction with the monitor display control unit 213. The analysis result is displayed at a position on the monitor display unit 290 that can be visually recognized by the operator at the same time as the operation command specified to be performed.

例えば、操作コマンド候補提示処理部214は、図6(A)に示すように、所定の回数以上(例えば、3回)のイベントへの来場回数を有する観客が一定の割合以上、存在することを解析した場合には、当該該観客に向けて、投げキッスやセリフを発するなどの特別な演出を実行する操作コマンドを操作者に容易に選択させるために、当該観客について一定額以上の課金履歴を有する旨と該当する観客の座席位置とを、操作コマンド候補とともに、モニタ表示部290にリスト表示させる。   For example, as shown in FIG. 6A, the operation command candidate presentation processing unit 214 indicates that there are more than a certain percentage of spectators who have attended an event more than a predetermined number of times (for example, 3 times). In the case of analysis, in order for the operator to easily select an operation command for executing a special effect such as throwing a kiss or a speech toward the audience, a charging history of a certain amount or more for the audience is required. The monitor display unit 290 displays a list of the presence and the seat position of the corresponding audience along with operation command candidates.

なお、このような場合には、コンテンツ上映実行制御部218は、例えば、来場回数が多い場合の特別演出として、いままで披露されていない新曲を歌う演技キャラクタの動作制御を実行される。   In such a case, for example, the content screening execution control unit 218 performs motion control of an acting character that sings a new song that has not been performed so far as a special effect when the number of visits is large.

また、例えば、操作コマンド候補提示処理部214は、図6(B)に示すように、女性の観客が一定割合以上(例えば、7割)イベント会場に存在することを解析した場合には、女性向けの演出を実行する操作コマンドを操作者に容易に選択させるために、当該観客の女性割合が一定上であることを示す表示をモニタ表示部290に表示させる。   Further, for example, as shown in FIG. 6B, the operation command candidate presentation processing unit 214 analyzes that the female audience is present in the event venue by a certain percentage or more (for example, 70%). In order to allow the operator to easily select an operation command for performing a directing effect, the monitor display unit 290 displays a display indicating that the percentage of the female audience is constant.

なお、このような場合には、コンテンツ上映実行制御部218は、例えば、女性向けのセリフを発する演技キャラクタの動作制御を実行する。   In such a case, for example, the content screening execution control unit 218 executes motion control of an acting character that emits a dialogue for women.

一方、操作コマンド候補提示処理部214は、図5及び図6に示すように、モニタ表示制御部213と連動し、操作対象となる演技キャラクタの画像をタッチパネルとしてのモニタ表示部290に表示するとともに、当該演技キャラクタの画像上で操作コマンドの選択操作が可能に各操作コマンド候補を表示してもよい。   On the other hand, as shown in FIG. 5 and FIG. 6, the operation command candidate presentation processing unit 214 is linked to the monitor display control unit 213 and displays an image of the acting character to be operated on the monitor display unit 290 as a touch panel. Each operation command candidate may be displayed so that an operation command can be selected on the acting character image.

すなわち、本実施形態においては、このような構成を有することによって、操作者における直感的に操作コマンドの操作指示を実行させることができるので、操作者の操作を簡便にし、その操作性を向上させることができるようになっている。   That is, in this embodiment, by having such a configuration, it is possible to intuitively execute an operation command operation instruction by the operator, thereby simplifying the operation of the operator and improving the operability thereof. Be able to.

(第2操作コマンド候補提示処理)
操作コマンド候補提示処理部214は、観客情報検出部250と連動し、アルゴリズムによって規定されるタイミングに、観客の表情や音声などの生体情報、観客の体勢、熱気若しくは当該観客が発する光(例えば、スマートホンやサイリウム)、又は、観客が所有する端末装置の情報(例えば、各観客の観覧(座席)位置や個人を特定するための情報、ゲーム履歴情報や商品等の購入履歴情報)などの当該生体情報に準ずる情報を検出する。
(Second operation command candidate presentation process)
The operation command candidate presentation processing unit 214 works in conjunction with the spectator information detection unit 250 and, at a timing specified by the algorithm, biological information such as the spectator's facial expression and voice, the spectator's posture, hot air, or light emitted by the spectator (for example, Smart phones and psyllium), or information on terminal devices owned by the audience (for example, information for identifying each audience's viewing (seat) position and individuals, game history information, purchase history information of products, etc.) Information corresponding to biological information is detected.

すなわち、操作コマンド候補提示処理部214は、例えば、観客が盛り上がっているか否か、観客が楽しんでいるか否か、男女比率(男性が多いか、女性が多いか)、又は、例えば、演技キャラクタのセリフやゲームに対する回答して用いられる赤の光(光の種類によってじゃんけんの要素を示すこと、又は、赤の光は、「YES」、青の光は「NO」など)を発している観客が多いかなどの観客の状態を解析する。   That is, the operation command candidate presentation processing unit 214, for example, whether or not the audience is exciting, whether or not the audience is enjoying, the gender ratio (whether there are many men or many women), or, for example, the acting character Audiences emitting red light used to respond to dialogues and games (indicating the element of jaken by the type of light, or “YES” for red light, “NO” for blue light, etc.) Analyze the state of the audience, such as whether there are many.

カメラ
特に、観客情報検出部250は、撮像カメラ、赤外センサ、集音マイク、着座センサ、サーモグラフィ、各観客が有するマーカユニットとその検出装置(カメラ)端末装置(例えば、スマートフォンやIDタグなど)から送信され得た情報を取得する無線受信器、又は、上映会場全体や演技キャラクタを撮像するカメラなどの各種の生態情報等を検出するための機能を有している。
Camera In particular, the audience information detection unit 250 includes an imaging camera, an infrared sensor, a sound collection microphone, a seating sensor, a thermography, a marker unit included in each audience, and a detection device (camera) terminal device (for example, a smartphone or an ID tag). It has a function for detecting various types of biological information such as a wireless receiver that acquires information transmitted from the camera, or a camera that captures the entire screening venue and acting characters.

また、操作コマンド候補提示処理部214は、撮像カメラによって撮像された各観客の顔画像によって、集音マイクによって集音された各観客の音成分(周波数特性)によって
、着座センサによって各観客が立っているか着座しているかによって、又は、各観客の熱量によって興奮しているか否かを、観客の状態として解析する。
Further, the operation command candidate presentation processing unit 214 stands by each seat sensor by the sound component (frequency characteristic) of each spectator collected by the sound collecting microphone based on the face image of each spectator captured by the imaging camera. It is analyzed as the state of the audience whether it is excited by the amount of heat of each audience depending on whether it is sitting or sitting.

そして、操作コマンド候補提示処理部214は、アルゴリズムによって該当するタイミングにおいて規定されている操作コマンドの中から、盛り上がるための操作コマンド、女性が多い場合の操作コマンド、又は、観客が楽しんでいる場合の操作コマンドなどを操作コマンド候補として選択(抽出)し、モニタ表示制御部213と連動して当該選択した操作コマンド候補をモニタ表示部290に表示して操作者に提示する。   Then, the operation command candidate presentation processing unit 214 selects an operation command for excitement, an operation command when there are many women, or a case where the audience is enjoying the operation command from the operation commands defined at the corresponding timing by the algorithm. An operation command or the like is selected (extracted) as an operation command candidate, and the selected operation command candidate is displayed on the monitor display unit 290 in conjunction with the monitor display control unit 213 and presented to the operator.

例えば、操作コマンド候補提示処理部214は、図7に示すように、アルゴリズムに従って演技キャラクタから「元気ー!」の問いかけ(すなわち、コール)が観客に向けて実行した場合であって、観客情報検出部250によって、その反応(すなわち、レスポンス)として歓声を所定のデシベル(例えばステージ中央で80dB)以上を検出した場合に、複数の操作コマンドの中から、第1演技キャラクタAが「みんな、ありがとう」のセリフを発する操作コマンドA、第1演技キャラクタAが「まだまだ!」のセリフを発する操作コマンドB、第1演技キャラクタAが「行くよー」とセリフを発して次の楽曲をスタートさせる操作コマンドCを操作コマンド候補としてモニタ表示部290に表示して操作者に提示する。   For example, the operation command candidate presentation processing unit 214, as shown in FIG. 7, is a case where a “Genki!” Question (ie, a call) is executed from the acting character toward the audience according to the algorithm, When the unit 250 detects a cheering of a predetermined decibel (for example, 80 dB at the center of the stage) or more as the reaction (ie, response), the first acting character A “thanks everyone” from the plurality of operation commands. An operation command A for issuing a line, an operation command B for the first acting character A issuing a line “Still More!”, And an operation command C for starting the next song by issuing a line “First Go” A Is displayed as an operation command candidate on the monitor display unit 290 and presented to the operator.

なお、観客情報検出部250は、検出した観客の状態を示す観客情報を、操作コマンドの情報とともに、後述する使用履歴情報として、コンテンツデータ記憶部274に登録する。   Note that the spectator information detection unit 250 registers the spectator information indicating the detected spectator state in the content data storage unit 274 together with operation command information as usage history information to be described later.

[4.3]操作コマンドに基づく動作制御処理
次に、図8及び図9を用いて本実施形態のコ操作コマンドに基づく動作制御処理について説明する。なお、図8及び図9は、本実施形態のコンテンツの操作コマンドに基づく動作制御処理について説明するための図である。
[4.3] Operation Control Process Based on Operation Command Next, the operation control process based on the co-operation command of the present embodiment will be described with reference to FIGS. 8 and 9. 8 and 9 are diagrams for explaining the operation control process based on the content operation command of the present embodiment.

コンテンツ上映実行制御部218は、
(1)コンテンツデータに含まれる制御データに規定されるアルゴリズムに従って画像化される対象キャラクタの動作を制御するアルゴリズム制御処理を実行し、
(2)アルゴリズム制御処理中に、操作コマンドが受け付けられた場合に、当該アルゴリズム制御処理の対象となる演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理に規定される演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく示される演技キャラクタの動作を制御する。
The content screening execution control unit 218
(1) executing an algorithm control process for controlling the action of the target character imaged according to an algorithm defined in the control data included in the content data;
(2) When an operation command is received during the algorithm control process, it is linked with the action of the acting character that is the target of the algorithm control process, or instead of the action of the action character specified in the algorithm control process Then, the movement of the acting character shown is controlled based on the received operation command.

すなわち、コンテンツ上映実行制御部218は、提示した操作コマンド候補のうち、タッチ検出処理部211によって特定された操作コマンド候補を操作コマンドとして受け付けると、アルゴリズムによって演技キャラクタの動作を制御する制御処理(以下、「アルゴリズム制御処理」という。)における演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理の演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく演技キャラクタの動作を制御する操作コマンドに基づく動作制御処理を実行する。   That is, when the content screening execution control unit 218 receives an operation command candidate specified by the touch detection processing unit 211 among the presented operation command candidates as an operation command, the content screening execution control unit 218 controls the action of the acting character by an algorithm (hereinafter referred to as an operation command). , "Algorithm control process"), or in place of the action character action of the algorithm control process, an operation command for controlling the action character action based on the received operation command. Based on the operation control process.

特に、コンテンツ上映実行制御部218は、受け付けた操作コマンドに応じて、対応する演技キャラクタの動作におけるアルゴリズムを、変更し、又は、他のアルゴリズムに差し替えることによって、アルゴリズム制御処理における演技キャラクタの動作と連動し、又は、当該アルゴリズム制御処理の演技キャラクタの動作に代えて、当該受け付けた操作コマンドに基づく演技キャラクタの動作を制御する。   In particular, the content screening execution control unit 218 changes the algorithm in the action of the corresponding acting character according to the received operation command, or replaces the algorithm with the action of the acting character in the algorithm control process. The motion of the acting character based on the received operation command is controlled in conjunction with or in place of the motion of the acting character in the algorithm control process.

例えば、規定されているアルゴリズムによって演技キャラクタの体の動きを制御しつつ
、セリフを発する場合を想定する。
For example, it is assumed that a speech is generated while controlling the body movement of the acting character according to a prescribed algorithm.

この場合において、アルゴリズムを変更する場合には、図8(A)に示すように、タッチ検出処理部211によってコマンドAの「セリフA(盛り上がってるー!)」の操作コマンドが受け付けられると、コンテンツ上映実行制御部218は、図8(B)及び(C)に示すように、アルゴリズムによって対応する演技キャラクタの体の動きを制御しつつ、当該演技キャラクタから発するセリフを変更する。   In this case, when the algorithm is changed, as shown in FIG. 8A, when the touch detection processing unit 211 accepts an operation command “command A (swelling!)” Of the command A, the content As shown in FIGS. 8B and 8C, the screening execution control unit 218 controls the movement of the corresponding acting character's body using an algorithm, and changes the lines emitted from the acting character.

なお、図8(B)は、例えば、アルゴリズムによって観客に向かって片手を上げる動きを制御しつつ、セリフを「元気ー」から「盛り上がっている!」に変更している例を示し、図8(C)は、アルゴリズムによって観客に向かって片手を上げる動きを制御しつつ、当該アルゴリズムによって定められたセリフ「元気ー」を発している例を示す。   FIG. 8B shows an example in which the line is changed from “good” to “exciting!” While controlling the movement of raising one hand toward the audience by an algorithm. (C) shows an example in which a line “Genki” defined by the algorithm is emitted while controlling the movement of raising one hand toward the audience by the algorithm.

また、コンテンツ上映実行制御部218は、図8(C)の示すように、タッチ検出処理部211によって所定のタイミング(例えば、当該操作コマンドに基づく動作開始のタイミング)までに、操作コマンドを受け付けられなかった場合には、アルゴリズムにそもそも規定されているセリフ「元気ー」を発する動作制御を実行する   In addition, as shown in FIG. 8C, the content screening execution control unit 218 can receive an operation command by the touch detection processing unit 211 by a predetermined timing (for example, an operation start timing based on the operation command). If not, execute the action control that generates the line “Genki” originally defined in the algorithm

一方、同様の場合において、アルゴリズムを差し替える場合には、図9(A)に示すように、タッチ検出処理部211によってコマンドBの操作コマンドが受け付けられると、コンテンツ上映実行制御部218は、図9(B)及び(C)に示すように、受け付けた操作コマンドに応じて、対応する演技キャラクタの動作におけるアルゴリズムを変更する。   On the other hand, in the same case, when the algorithm is replaced, as shown in FIG. 9A, when the operation command of the command B is received by the touch detection processing unit 211, the content screening execution control unit 218 displays FIG. As shown in (B) and (C), the algorithm in the action of the corresponding acting character is changed according to the received operation command.

なお、図9(B)は、例えば、アルゴリズムによって観客に向かって片手を上げる動きを、両手を挙げながら移動する動き(例えば走っている動き)に変更しつつ、セリフを「元気ー」から「盛り上がっている!」に変更している例を示す。   In FIG. 9B, for example, the movement of raising one hand toward the audience by an algorithm is changed to a movement that moves with both hands raised (for example, a running movement), and the lines are changed from “Genki-” to “ An example of changing to “It is exciting!” Is shown.

また、図9(C)は、図8(C)と同様に、アルゴリズムによって観客に向かって片手を上げる動きを制御しつつ、当該アルゴリズムによって定められたセリフ「元気ー」を発している例を示す。   Further, FIG. 9C shows an example in which the line “Genki-” defined by the algorithm is emitted while controlling the movement of raising one hand toward the audience by the algorithm, as in FIG. 8C. Show.

[4.4]操作コマンドの使用履歴に基づく操作コマンド候補提示処理
次に、本実施形態の操作コマンドの使用履歴に基づく操作コマンド候補提示処理について説明する。
[4.4] Operation Command Candidate Presentation Processing Based on Operation Command Usage History Next, operation command candidate presentation processing based on the operation command usage history of the present embodiment will be described.

(上映中の操作コマンドの使用履歴に基づく操作コマンド候補提示処理)
コンテンツ上映実行制御部218は、コンテンツの上映中に、操作者によって指示された操作コマンド(すなわち、操作コマンド候補提示処理部214によって受け付けた操作コマンド)をコンテンツデータ記憶部274に登録して蓄積する。
(Operation command candidate presentation process based on usage history of operation commands being screened)
The content screening execution control unit 218 registers and accumulates the operation command instructed by the operator (that is, the operation command received by the operation command candidate presentation processing unit 214) in the content data storage unit 274 during the content screening. .

具体的には、コンテンツ上映実行制御部218は、操作コマンドの種別、タイミング及び使用回数などの各種の情報を使用履歴情報としてコンテンツデータ記憶部274に登録し、蓄積する。   Specifically, the content screening execution control unit 218 registers and accumulates various types of information such as the type, timing, and number of use of operation commands in the content data storage unit 274 as usage history information.

また、コンテンツ上映実行制御部218は、観客情報を検出している場合には、観客情報検出部250と連動し、検出した観客の状態を示す観客情報を、操作コマンドの情報とともに、後述する使用履歴情報として、コンテンツデータ記憶部274に登録して蓄積する。   In addition, when the spectator information is detected, the content screening execution control unit 218 uses the spectator information indicating the detected spectator state together with operation command information in conjunction with the spectator information detection unit 250. The history information is registered and accumulated in the content data storage unit 274.

そして、操作コマンド候補提示処理部214は、操作コマンド候補を提示する際に、操
作者によって観客情報及び登録されている使用履歴情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示する操作コマンド候補提示処理を実行する。
Then, the operation command candidate presentation processing unit 214 uses the operation command selected by the operator according to the audience information and the registered usage history information as the operation command candidate when presenting the operation command candidate. The operation command candidate presentation process to be presented is executed.

特に、操作コマンド候補提示処理部214は、第1操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、使用履歴に基づいて該当する複数の操作コマンドを選択(抽出)し、選択した操作コマンドを、登録されている観客情報を参照しつつ操作者の意思によって選択される操作コマンド候補として、提示する。   In particular, the operation command candidate presentation processing unit 214 performs a plurality of operations corresponding to the first operation command candidate presentation process based on the use history from among a plurality of operation commands for controlling the motion of the target character in the object space. A command is selected (extracted), and the selected operation command is presented as a candidate operation command selected by the operator's intention while referring to the registered audience information.

例えば、操作コマンド候補提示処理部214は、操作コマンドを選択させる際に、
(1)直前の操作コマンドに関連する操作コマンド、
(2)当該コンテンツの上映について(すなわち、一連の演技パフォーマンスの実行中に)未だ使用されていない操作コマンド、
(3)使用頻度の高い操作コマンド、
(4)上映中に盛り上がった操作コマンド、及び、
(5)他の観客に対して未実行な一部の観客や観客個人に対して特別演出を実行する操作コマンド、
を複数の操作コマンドの中から操作コマンド候補として選択し、選択した操作コマンド候補をモニタ表示部290に表示して操作者に提示する。
For example, when the operation command candidate presentation processing unit 214 selects an operation command,
(1) An operation command related to the previous operation command,
(2) Operation commands that have not been used yet for the presentation of the content (ie, during a series of performance performances),
(3) frequently used operation commands,
(4) Operation commands raised during the screening, and
(5) An operation command for executing special effects for some spectators who have not been executed for other spectators or for individual audiences,
Are selected as operation command candidates from a plurality of operation commands, and the selected operation command candidates are displayed on the monitor display unit 290 and presented to the operator.

また、操作コマンド候補提示処理部214は、上述のように観客情報についても、モニタ表示部290に表示して操作者に提示するが、(5)の場合など、状況に応じて必要な観客情報を変化させて操作者に提示する。   Further, as described above, the operation command candidate presentation processing unit 214 displays the audience information on the monitor display unit 290 and presents it to the operator. Is presented to the operator.

なお、操作コマンド候補提示処理部214は、(1)〜(4)に該当する操作コマンドを単に提示してもよいし、当該操作コマンドに対して優先度を付した場合であって予め設定されている優先度や選択回数によって値が下がるなどの他の要素に基づく優先度と合算し、当該優先度に基づいて選択した操作コマンド候補の提示順位を決定してもよい。   The operation command candidate presentation processing unit 214 may simply present an operation command corresponding to (1) to (4), or may be set in advance when priority is given to the operation command. The priority of the operation command candidates selected based on the priority may be determined by adding the priorities based on other factors such as the priority being reduced or the number of selections.

また、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、例えば、使用された操作コマンドを順次提示不能にし、又は、優先度を下げ、提示可能な又は優先度の高い操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示してもよい。ただし、操作コマンド候補提示処理部214は、一部の観客や観客個人に対する操作コマンドについては、同一観客における同一操作コマンドを排除するようになっている。   In addition, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, for example, the operation commands that have been used cannot be presented sequentially, or the priority is lowered and can be presented, or the priority is high. The operation command may be displayed on the monitor display unit 290 as an operation command candidate and presented to the operator. However, the operation command candidate presentation processing unit 214 is configured to exclude the same operation command in the same audience for the operation commands for some spectators and individual spectators.

さらに、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。   Further, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, the operation command candidate presentation processing unit 214 displays information such as the number of times of use and use timing on the monitor display unit 290 together with the corresponding operation command and presents it to the operator. Also good.

一方、操作コマンド候補提示処理部214は、第2操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、検出した観客情報及び使用履歴に基づいて該当する複数の操作コマンドを抽出し、当該抽出した操作コマンドを操作コマンド候補として提示する。   On the other hand, the operation command candidate presentation processing unit 214 performs the second operation command candidate presentation processing based on the detected audience information and usage history from among a plurality of operation commands for controlling the motion of the target character in the object space. A plurality of corresponding operation commands are extracted, and the extracted operation commands are presented as operation command candidates.

また、操作コマンド候補提示処理部214は、操作コマンド候補提示処理としては、第1操作コマンド候補提示処理と同様に、複数の操作コマンド(例えば、上記の(1)〜(4)の操作コマンド)を選択し、当該選択した操作コマンド中から観客情報に応じて操作コマンドをさらに選択し、選択した操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する。   The operation command candidate presentation processing unit 214 also includes a plurality of operation commands (for example, the operation commands (1) to (4) described above) as the operation command candidate presentation process, as in the first operation command candidate presentation process. The operation command is further selected according to the audience information from the selected operation command, and the selected operation command is displayed as an operation command candidate on the monitor display unit 290 and presented to the operator.

なお、第1操作コマンド候補提示処理と同様に、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。   Similar to the first operation command candidate presentation processing, the operation command candidate presentation processing unit 214 displays information such as the number of times of use and use timing together with the corresponding operation commands when the operator selects an operation command. It may be displayed on 290 and presented to the operator.

(コンテンツ毎の操作コマンドの使用履歴に基づく操作コマンド候補提示処理)
コンテンツ上映実行制御部218は、コンテンツの上映を実行する際に、当該同一のコンテンツ(すなわち、同一のコンテンツID)においてサーバ装置11などに既に登録された操作コマンドの使用履歴情報を取得し、コンテンツデータ記憶部274に記憶する。
(Operation command candidate presentation processing based on operation command usage history for each content)
When the content screening execution control unit 218 executes the content screening, the content screening execution control unit 218 acquires use history information of operation commands already registered in the server device 11 or the like for the same content (that is, the same content ID). The data is stored in the data storage unit 274.

そして、コンテンツ上映実行制御部218は、操作コマンド候補を提示する際に、操作者によって観客情報及び登録されている使用履歴情報に応じて選択可能となる操作コマンド、及び、観客情報及び使用履歴情報に応じて選択された操作コマンドの少なくともいずれか一方を、操作コマンド候補として、操作者に提示する操作コマンド候補提示処理を実行する。   Then, the content screening execution control unit 218, when presenting operation command candidates, allows the operator to select an operation command that can be selected according to audience information and registered usage history information, and audience information and usage history information. An operation command candidate presentation process for presenting the operator with at least one of the operation commands selected according to the above as an operation command candidate is executed.

特に、操作コマンド候補提示処理部214は、第1操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、使用履歴に基づいて該当する複数の操作コマンドを選択し、観客情報を参照しつつ操作者の意思によって選択することが可能となる操作コマンドとして、選択した操作コマンドを操作コマンド候補として提示する。   In particular, the operation command candidate presentation processing unit 214 performs a plurality of operations corresponding to the first operation command candidate presentation process based on the use history from among a plurality of operation commands for controlling the motion of the target character in the object space. A command is selected, and the selected operation command is presented as an operation command candidate as an operation command that can be selected according to the operator's intention while referring to the audience information.

例えば、操作コマンド候補提示処理部214は、操作コマンドを選択させる際に、
(1)アルゴリズムにおける同タイミングにおいて使用頻度の高い操作コマンド、
(2)アルゴリズムにおける同タイミングにおいて盛り上がった操作コマンド、
(3)観客の大半が未だ観覧したことない対象キャラクタの行動を規定する操作コマンド、
を複数の操作コマンドの中から操作コマンド候補として選択し、選択した操作コマンド候補をモニタ表示部290に表示して操作者に提示する。
For example, when the operation command candidate presentation processing unit 214 selects an operation command,
(1) Operation commands frequently used at the same timing in the algorithm,
(2) Operation commands that have been raised at the same timing in the algorithm,
(3) An operation command that defines the behavior of the target character that the majority of the audience has not yet viewed.
Are selected as operation command candidates from a plurality of operation commands, and the selected operation command candidates are displayed on the monitor display unit 290 and presented to the operator.

なお、操作コマンド候補提示処理部214は、(1)〜(3)に該当する操作コマンドを単に提示してもよいし、当該操作コマンドに対して優先度を付すとともに、予め設定されている優先度や選択回数によって値が下がるなどの他の要素に基づく優先度と合わせ、当該優先度に基づいて選択した操作コマンド候補の提示順位を決定してもよい。   The operation command candidate presentation processing unit 214 may simply present the operation commands corresponding to (1) to (3), give a priority to the operation command, and set a preset priority. The presentation order of the operation command candidates selected based on the priority may be determined together with the priority based on other factors such as a value that decreases depending on the degree and the number of selections.

また、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、例えば、使用された操作コマンド順次提示不能にし、又は、優先度を下げ、提示可能な又は優先度の高い操作コマンドを、選択した操作コマンド候補として、モニタ表示部290に表示して操作者に提示してもよい。ただし、操作コマンド候補提示処理部214は、一部の観客や観客個人に対する操作コマンドについては、同一観客における同一操作コマンドを排除するようになっている。   In addition, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, for example, the operation commands that have been used are not presented sequentially, or the priority is lowered, and the operation that can be presented or that has a high priority is performed. The command may be displayed on the monitor display unit 290 as a selected operation command candidate and presented to the operator. However, the operation command candidate presentation processing unit 214 is configured to exclude the same operation command in the same audience for the operation commands for some spectators and individual spectators.

さらに、操作コマンド候補提示処理部214は、操作コマンドを操作者に選択させる際に、上映中の使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。   Furthermore, when the operation command candidate presentation processing unit 214 causes the operator to select an operation command, the operation command candidate presentation processing unit 214 displays information such as the number of times of use during the screening and the use timing on the monitor display unit 290 together with the corresponding operation command, and notifies the operator May be presented.

一方、操作コマンド候補提示処理部214は、第2操作コマンド候補提示処理としては、オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、観客情報及び使用履歴に基づいて該当する複数の操作コマンドを選択し、選択し
た操作コマンドを操作コマンド候補として提示する。
On the other hand, the operation command candidate presentation processing unit 214 corresponds to the second operation command candidate presentation process based on audience information and usage history from among a plurality of operation commands for controlling the motion of the target character in the object space. A plurality of operation commands are selected, and the selected operation commands are presented as operation command candidates.

また、操作コマンド候補提示処理部214は、操作コマンド候補提示処理としては、第1操作コマンド候補提示処理と同様に、複数の操作コマンド(例えば、上記の(1)〜(3)の操作コマンド)を選択し、当該選択した操作コマンド中から観客情報に応じて操作コマンドをさらに選択し、選択した操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する。   Further, the operation command candidate presentation processing unit 214 has a plurality of operation commands (for example, the operation commands (1) to (3) described above) as the operation command candidate presentation processing, as in the first operation command candidate presentation processing. The operation command is further selected according to the audience information from the selected operation command, and the selected operation command is displayed as an operation command candidate on the monitor display unit 290 and presented to the operator.

なお、第1操作コマンド候補提示処理と同様に、操作コマンド候補提示処理部214は、上映中の操作コマンドを操作者に選択させる際に、使用回数や使用タイミングなどの情報を該当する操作コマンドとともにモニタ表示部290に表示して操作者に提示してもよい。   Similar to the first operation command candidate presentation process, the operation command candidate presentation processing unit 214 provides information such as the number of times of use and use timing together with the corresponding operation command when the operator selects an operation command being shown. It may be displayed on the monitor display unit 290 and presented to the operator.

[4.5]その他の機能及び処理
次に、本実施形態の操作コマンドの使用履歴に基づく操作コマンド候補提示処理について説明する。
[4.5] Other Functions and Processing Next, operation command candidate presentation processing based on the operation command usage history of the present embodiment will be described.

(特定の観客に対する演技キャラクタの行動制御)
タッチ検出処理部211は、例えばモニタ表示部290に表示された各観客の観覧位置を示す観覧位置情報と連動し、操作コマンドとともに、演技キャラクタの動作を享受する特定の観客の観覧位置を指定する観客指定指示を受け付けてもよい。
(Performance control of acting characters for a specific audience)
The touch detection processing unit 211 is linked with viewing position information indicating the viewing position of each spectator displayed on the monitor display unit 290, for example, and specifies the viewing position of a specific spectator who enjoys the action of the acting character together with the operation command. Audience designation instructions may be accepted.

そして、この場合には、コンテンツ上映実行制御部218は、受け付けられた観客指定指示によって特定される観客の観覧位置に向けて、受け付けた操作コマンドに基づく演技キャラクタの動作を制御する。   In this case, the content screening execution control unit 218 controls the action of the acting character based on the received operation command toward the audience viewing position specified by the accepted audience designation instruction.

例えば、コンテンツ上映実行制御部218は、特定される観覧位置に向けて、演技キャラクタよる手振り制御、視線制御(目線を送る制御)、ステージ上の最近傍位置まで近づく(近づくように大型表示装置12に表示する)、及び、所与のセリフ(例えば、観客情報によって観客の名前が分かる場合にはその名前)によるコールの各動作を制御する。   For example, the content screening execution control unit 218 moves toward the specified viewing position by the acting character's hand gesture control, line-of-sight control (control to send a line of sight), and approaches the closest position on the stage (to approach the large display device 12). And control each action of the call by a given line (eg, the name of the audience if the audience information is known).

また、モニタ表示制御部213は、モニタ表示部290に、上映会場内の各観客の位置(例えば、座席)を観覧位置情報としてタッチ操作可能に表示させる。そして、観客指定指示として、タッチ検出処理部211によって表示されている観客の位置がタッチされて受け付けられると、コンテンツ上映実行制御部218は、受け付けられた観客の位置に向けて受け付けた操作コマンドに基づく演技キャラクタの動作を制御する。   In addition, the monitor display control unit 213 causes the monitor display unit 290 to display the position (for example, seat) of each spectator in the exhibition hall as viewing position information so that a touch operation can be performed. Then, when the audience position displayed by the touch detection processing unit 211 is touched and accepted as an audience designation instruction, the content screening execution control unit 218 outputs an operation command received toward the accepted audience position. Control the action of the acting character based.

なお、観客情報検出部250は、このときの観客情報を検出し、使用履歴情報としてコンテンツデータ記憶部274又はサーバ装置11に登録してもよい。   Note that the audience information detection unit 250 may detect the audience information at this time and register it in the content data storage unit 274 or the server device 11 as usage history information.

また、本実施形態おいては、タッチ検出処理部211のタッチ操作によって観客の観覧位置の受付を実行しているが、当該タッチ操作に代えて、コンテンツ上映実行制御部218は、トラックボールやキーボードなどのカーソル移動によって観覧位置を受け付けてもよい。   In the present embodiment, the audience viewing position is received by the touch operation of the touch detection processing unit 211. However, instead of the touch operation, the content screening execution control unit 218 uses a trackball or a keyboard. The viewing position may be received by moving the cursor.

(特別操作コマンド)
操作コマンド候補提示処理部214は、演技キャラクタの動作状況に応じて定まる操作コマンド(すなわち、特別操作コマンド)を操作コマンド候補に含めて操作者に提示してもよい。
(Special operation command)
The operation command candidate presentation processing unit 214 may include an operation command (that is, a special operation command) determined according to the action state of the acting character as an operation command candidate and present it to the operator.

例えば、操作コマンド候補提示処理部214は、
(1)コンテンツの上映開始時(すなわち、アルゴリズムによる動作開始時)には、観客を盛り上げるための行動を制御するための操作コマンド(決めポーズを実施する操作コマンド)を提示し、
(2)コンテンツの上映の終盤には、盛り上がっている観客に対してそれを維持し、さらに盛り上げるための行動を制御するための操作コマンド(連続コールを実行する操作コマンド)を提示し、
(3)曲間などの静かなシーンについては、「セリフ」などのそのシーンに特化した操作コマンドを操作コマンド候補として提示させてもよい。
For example, the operation command candidate presentation processing unit 214
(1) At the start of the presentation of the content (that is, at the start of the operation by the algorithm), an operation command (an operation command for carrying out a determined pose) for controlling the action for exciting the audience is presented.
(2) At the end of the screening of the content, an operation command (an operation command for executing a continuous call) for controlling the action to maintain and keep the audience active is presented.
(3) For a quiet scene such as between songs, an operation command specialized for the scene such as “Serif” may be presented as an operation command candidate.

なお、操作コマンド候補提示処理部214は、特別操作コマンドのみを操作コマンド候補として提示してもよい。   The operation command candidate presentation processing unit 214 may present only a special operation command as an operation command candidate.

一方、操作コマンド候補提示処理部214は、サーバ装置11(具体的には、コンテンツ管理部102)によってコンテンツ毎に各コンテンツ上映システム10から収集したコンテンツ上映結果情報を解析して得られた上映中のコンテンツにおける所与のタイミングの最適の操作コマンドを取得し、当該取得した最適の操作コマンドを、特別操作コマンドとして、操作コマンド候補に含めて提示してもよい。   On the other hand, the operation command candidate presentation processing unit 214 is performing the screening obtained by analyzing the content screening result information collected from each content screening system 10 for each content by the server device 11 (specifically, the content management unit 102). It is also possible to acquire an optimal operation command at a given timing in the content of the content, and present the acquired optimal operation command as a special operation command included in operation command candidates.

(経過時間又は受付回数に基づく操作コマンド候補の提示)
操作コマンド候補提示処理部214は、コンテンツの上映開始から経過時間に従って、操作コマンドの受付回数に従って、又は、既に選択された操作コマンドの組み合わせに従って、操作コマンド候補として提示される操作コマンドの種別を変更させてもよい。
(Presentation of operation command candidates based on elapsed time or number of receptions)
The operation command candidate presentation processing unit 214 changes the type of operation command to be presented as an operation command candidate according to the elapsed time from the start of content presentation, according to the number of received operation commands, or according to a combination of already selected operation commands. You may let them.

すなわち、操作コマンド候補提示処理部214は、
(1)上映終了時刻が近づいてくると、エンディングに向けての動作を規定する操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示し、
(2)操作コマンドの受付回数が増加すると、コンテンツの上映時間を調整するため、動作時間が短い操作コマンドを、モニタ表示部290に表示して操作者に提示し、
(3)既に選択された操作コマンドの組み合わせに従って、コンテンツの内容がマッチする操作コマンドを、モニタ表示部290に表示して操作者に提示してもよい。
That is, the operation command candidate presentation processing unit 214
(1) When the screening end time approaches, an operation command that defines the operation toward the ending is displayed as an operation command candidate on the monitor display unit 290 and presented to the operator.
(2) When the number of operation command receptions increases, an operation command with a short operation time is displayed on the monitor display unit 290 and presented to the operator in order to adjust the content screening time.
(3) According to a combination of operation commands that have already been selected, an operation command that matches the contents may be displayed on the monitor display unit 290 and presented to the operator.

また、各操作コマンドには、アルゴリズムに従って演技キャラクタの動作制御が実行されている場合に受け付けを許容する時刻や区間を示す受け付け許容情報と、各操作コマンドに基づいて演技キャラクタの動作制御が実行される実行時間と、が規定されていてもよく、これらの情報を用いて操作コマンド候補の提示などが実行されてもよい。   In addition, for each operation command, when the action control of the acting character is being executed according to the algorithm, the acceptance permission information indicating the time and interval for which the acceptance is permitted and the action character action control are executed based on each operation command. Execution time may be defined, and the presentation of operation command candidates may be executed using these pieces of information.

具体的には、各操作コマンドには、受け付け許容情報としては、アルゴリズムに従って演技キャラクタの演技開始タイミング(画像生成の開始タイミング)から当該操作コマンドの受け付けが許容される時刻(経過時間)を示す受付完了許容時刻又は複数の所与の区間(楽曲の場合における前奏、Aメロ、サビ、演劇の場合には、第1幕や第2幕など)が定められて当該画像生成が実行されている場合において当該操作コマンドの受け付けが許容される区間を示す区間情報と、が規定されている。   Specifically, for each operation command, the reception permission information includes reception indicating the time (elapsed time) at which the operation command is permitted to be received from the performance start timing (image generation start timing) of the acting character according to the algorithm. When the image generation is performed with a permissible completion time or a plurality of given sections (in the case of music, in the case of a prelude, A melody, chorus, or theatrical performance, act 1 or act 2) And section information indicating a section in which acceptance of the operation command is allowed.

そして、操作コマンド候補提示処理部214は、演技キャラクタにおける画像生成の開始タイミングからの経過時間又は操作コマンドを提示するタイミングが属する区間と、各操作コマンドの実行時間と、に応じて、提示する操作コマンドの種別を決定し、又は、演技キャラクタの動作制御の内容を変更した操作コマンドを提示してもよい。   The operation command candidate presentation processing unit 214 then presents an operation to be presented in accordance with the elapsed time from the image generation start timing of the acting character or the section to which the operation command is presented, and the execution time of each operation command. You may present the operation command which determined the type of command or changed the content of the action control of an acting character.

すなわち、操作コマンド候補提示処理部214は、開始タイミングからの経過時間、又は、例えば、動作制御が楽曲におけるライブパフォーマンスの場合には、前奏、Aメロ、Bメロ又はサビなどの各パート(区間)のどの部分の画像かを見極めて操作コマンドを提示することができるとともに、状況によっては時短や動作内容の簡略化などの操作コマンドにおける対象キャラクタの動作制御の内容をも変更することができるようになっている。   In other words, the operation command candidate presentation processing unit 214 determines the elapsed time from the start timing, or each part (section) such as a prelude, A melody, B melody, or chorus when the operation control is a live performance in music. It is possible to determine which part of the image is displayed and present the operation command, and depending on the situation, it is also possible to change the content of motion control of the target character in the operation command such as time shortening and simplification of motion content It has become.

(複数操作コマンドの一括選択処理)
コンテンツ上映実行制御部218は、タッチ検出処理部211によって、同一のタイミング、又は、同一のタイミングとして想定される所定の期間中(例えば、10秒や20秒)に、複数の操作コマンドが受け付けられた場合には、当該受け付けられた複数の操作コマンドを、所与の順序(例えば、入力順)に従って、表示される対象キャラクタの動作を制御してもよい。
(Multiple operation command batch selection processing)
The content screening execution control unit 218 receives a plurality of operation commands by the touch detection processing unit 211 at the same timing or during a predetermined period assumed as the same timing (for example, 10 seconds or 20 seconds). In such a case, the movement of the target character to be displayed may be controlled in accordance with a given order (for example, the order of input) of the accepted operation commands.

すなわち、操作コマンド候補提示処理部214は、例えば、演技パフォーマンスにおける連動動作において、複数の操作コマンドを入力ことが必要な場合に、上映中に連続動作が開始されるそれぞれのタイミングに各操作コマンドを提示して選択させて受け付ける場合には、操作者の操作が煩雑になるだけでなく、操作コマンド候補提示処理自体も負荷がかかり、的確に処理できない場合もある。   That is, the operation command candidate presentation processing unit 214 outputs each operation command at each timing when the continuous operation is started during the screening, for example, when it is necessary to input a plurality of operation commands in the linked operation in the performance. In the case of presenting, selecting, and accepting, not only the operation of the operator becomes complicated, but also the operation command candidate presentation processing itself is burdened and may not be accurately processed.

そこで、操作コマンド候補提示処理部214は、事前に複数の操作コマンドを選択させるべく、個々のタイミングにおける操作コマンド候補提示処理をそれぞれ実行し、複数の操作コマンドを受け付けてもよい。   Therefore, the operation command candidate presentation processing unit 214 may execute an operation command candidate presentation process at each timing and accept a plurality of operation commands in order to select a plurality of operation commands in advance.

なお、操作コマンド候補提示処理部214は、コンテンツの上映前に各タイミングにおける操作コマンドについて、操作コマンド候補提示処理によって受け付けてようにしてもよい。   Note that the operation command candidate presentation processing unit 214 may accept the operation command at each timing by the operation command candidate presentation process before the content is shown.

(操作コマンドの編集)
コンテンツ編集処理部217は、操作者の指示に基づいて、各操作コマンドに対応する対象キャラクタの動作制御を編集する構成を有している。
(Edit operation commands)
The content editing processing unit 217 has a configuration for editing the motion control of the target character corresponding to each operation command based on an instruction from the operator.

具体的には、コンテンツ編集処理部217は、操作者の指示に基づいて、編集の対象に指定された操作コマンドについて、演技キャラクタの動作の追加、一部削除、動作を行うスピードの変化、又は、他の操作コマンドの動作内容の統合を実行する。   Specifically, the content editing processing unit 217 adds, removes a part of the acting character's motion, changes the speed at which the motion is performed, or changes the speed of the operation command designated as the editing target based on the operator's instruction, or Then, the operation contents of other operation commands are integrated.

例えば、コンテンツ編集処理部217は、操作コマンドAにおける演技キャラクタの動作が決めポーズのみの場合に、決めポーズの後に所定のステップを踏む動き、及び、所定のセリフを発する動作を追加すると、決めポーズをし、ステップを踏み、及び、セリフを発する一連の演技キャラクタの動作を規定する操作コマンドAを生成する。   For example, when the action of the acting character in the operation command A is only the determined pose, the content editing processing unit 217 adds a movement to take a predetermined step after the determined pose and an action to emit a predetermined line, and then determine the determined pose. , Step, and generate an operation command A that defines the action of a series of acting characters that utter words.

そして、コンテンツ上映実行制御部218は、操作コマンドAを受け付けると、演技キャラクタが、決めポーズをし、ステップを踏み、及び、セリフを発する一連の演技キャラクタの動作を制御する。   Then, when the content screening execution control unit 218 receives the operation command A, the acting character controls the motion of the series of acting characters that make a determined pose, take a step, and generate a speech.

また、コンテンツ編集処理部217は、操作コマンドAにおける演技キャラクタの動作制御をそのままに、動作スピードを調整してもよい。例えば、コンテンツ編集処理部217は、10秒で実行する一連の動きのある決めポーズを、20秒で実行するようにスピードを編集してもよい。   Further, the content editing processing unit 217 may adjust the motion speed while maintaining the motion control of the acting character in the operation command A. For example, the content editing processing unit 217 may edit the speed so that a determined pose with a series of movements executed in 10 seconds is executed in 20 seconds.

(操作コマンドの動作開始表示)
操作コマンド候補提示処理部214は、操作者の入力のし忘れを防止し、操作者の操作
性を向上させるために、アルゴリズムに従って操作コマンド候補提示処理の実行中に、当該タイミングによって受け付けた操作コマンドに基づいて演技キャラクタの動作制御が開始される動作開始時刻を提示してもよい。
(Operation command operation start display)
The operation command candidate presentation processing unit 214 prevents the operator from forgetting to input and improves the operability for the operator. The operation command received at this timing during the execution of the operation command candidate presentation process according to the algorithm The motion start time at which motion control of the acting character is started may be presented based on this.

(操作コマンドのランダム提示)
操作コマンド候補提示処理部214は、操作コマンド候補提示処理においては、意外性やパターン化を防ぐために、第1操作コマンド提示処理又は第2操作コマンド提示処理によって提示する複数の操作コマンドの中から、ランダムにいくつかの操作コマンドを操作コマンド候補として提示してもよい。
(Random presentation of operation commands)
In the operation command candidate presentation processing unit 214, in the operation command candidate presentation process, in order to prevent unexpectedness and patterning, the operation command candidate presentation processing unit 214 includes a plurality of operation commands presented by the first operation command presentation process or the second operation command presentation process. Some operation commands may be presented as operation command candidates at random.

(複数の演技キャラクタの制御)
コンテンツ上映実行制御部218は、複数の演技キャラクタの動作を制御する場合において、操作コマンドに基づく動作制御を行う場合には、1の演技キャラクタに対して操作コマンドを受け付けて当該操作コマンドに基づいてその動作を制御する動作制御処理を実行し、それ以外の演技キャラクタについてアルゴリズムに規定された動作制御を実行する。
(Control of multiple acting characters)
When performing the motion control based on the operation command when controlling the motion of a plurality of acting characters, the content screening execution control unit 218 accepts the operation command for one acting character and based on the operation command. The motion control process for controlling the motion is executed, and the motion control defined in the algorithm is executed for the other acting characters.

また、この場合に、操作コマンド候補提示処理部214は、操作コマンドに基づく動作制御処理を実行する演技キャラクタ操作者に選択させるための提示を実行し、コンテンツ上映実行制御部218は、選択された演技キャラクに対して操作コマンドに基づく動作制御処理を実行する。   Further, in this case, the operation command candidate presentation processing unit 214 performs a presentation for causing the acting character operator who executes the motion control process based on the operation command to select, and the content screening execution control unit 218 is selected. The action control process based on the operation command is executed for the acting character.

さらに、操作コマンド候補提示処理部214は、複数の演技キャラクタ(例えば、二人の演技キャラクタ)の動作を制御する場合において、複数の操作者(例えば、二人の操作者)に対してそれぞれ操作コマンド候補提示処理を実行してもよい。   Further, the operation command candidate presentation processing unit 214 operates each of a plurality of operators (for example, two operators) when controlling the motions of a plurality of acting characters (for example, two acting characters). Command candidate presentation processing may be executed.

この場合には、操作コマンド候補提示処理部214は、各演技キャラクタの動作制御が破綻しないように、操作コマンドに基づく動作制御処理の制御期間が一致する操作コマンドを操作コマンド候補として提示し、所定のタイミングまでにそれぞれの操作コマンドを受付するための処理を実行する。   In this case, the operation command candidate presentation processing unit 214 presents, as operation command candidates, operation commands that match the control period of the motion control process based on the operation command so that the motion control of each acting character does not fail. The process for receiving each operation command is executed by the timing.

そして、この場合には、コンテンツ上映実行制御部218は、予め定められた同一のタイミングからそれぞれの演技キャラクタの動作制御を実行する。   In this case, the content screening execution control unit 218 executes motion control of each acting character from the same predetermined timing.

(操作コマンドに基づく動作制御中の他の操作コマンドの受け付け処理)
操作コマンド候補提示処理部214は、受け付けられた第1の操作コマンドに基づく演技キャラクタの動作制御中に、他の操作コマンドを受け付けて当該受け付けた操作コマンド(以下、「第2の操作コマンド」という。)に基づく動作制御が実行可能に、操作コマンド候補を、提示してもよい。
(Reception processing of other operation commands during operation control based on operation commands)
The operation command candidate presentation processing unit 214 receives another operation command and controls the received operation command (hereinafter referred to as “second operation command”) during the motion control of the acting character based on the received first operation command. The operation command candidates may be presented so that the operation control based on.

例えば、第1の操作コマンドに基づいて演技キャラクタの動作制御が実行されている場合であって、観客が盛り上がらない状態であることを示す観客情報が提示された場合に、又は、当該第1の操作コマンドによる演技キャラクタの動作制御が最後まで実施されると演技パフォーマンス時間全体に遅れが生ずる場合などの特殊な状況の場合に、操作コマンド候補提示処理部214は、観客情報に応じて選択される少なくとも1以上の操作コマンドを、操作コマンド候補として提示する。   For example, when the action control of the acting character is executed based on the first operation command and the audience information indicating that the audience is not excited is presented, or the first The operation command candidate presentation processing unit 214 is selected according to the audience information in a special situation such as a case where there is a delay in the entire performance performance time when the action character movement control by the operation command is performed to the end. At least one or more operation commands are presented as operation command candidates.

そして、コンテンツ上映実行制御部218は、第1の操作コマンドに基づく演技キャラクタの動作制御(以下、「第1の動作制御」という。)中に、タッチ検出処理部211によって第1の操作コマンドとは異なる第2の操作コマンドが受け付けられた場合には、第
1の動作制御を受け付けた時点で中止とし、第2の操作コマンドに基づく演技キャラクタの動作制御(以下、「第2の動作制御」という。)を発動する。
Then, the content screening execution control unit 218 performs the first operation command and the first operation command by the touch detection processing unit 211 during the action control of the acting character based on the first operation command (hereinafter referred to as “first action control”). When a different second operation command is accepted, the operation is stopped when the first action control is accepted, and the action control of the acting character based on the second action command (hereinafter, “second action control”). Is called).

なお、コンテンツ上映実行制御部218は、第1の動作制御を中止する場合には、演技キャラクタの動作において、区切りがよい動作まで制御を実行し、その後中止とする制御を実行する。   In addition, when canceling the first motion control, the content screening execution control unit 218 executes the control up to a motion with a good break in the performance of the acting character, and then executes the control to stop.

また、操作コマンド候補提示処理部214は、第2の操作コマンド候補として、第1の操作コマンドが提示された際の当該第1の操作コマンドとは異なる操作コマンド(すなわち、受け付けられなかった操作コマンド)を提示してもよいし(第1の操作コマンドが提示された状態を維持してもよいし)、観客情報に応じて、又は、当該操作コマンドの使用履歴情報に応じてなど所定の操作コマンドを新たに提示してもよい。   In addition, the operation command candidate presentation processing unit 214 sets an operation command different from the first operation command when the first operation command is presented as the second operation command candidate (that is, an operation command that has not been accepted). ) May be presented (the state where the first operation command is presented may be maintained), or a predetermined operation such as according to audience information or according to usage history information of the operation command. A new command may be presented.

[4.6]変形例
(変形例1)
上記の実施形態においては、操作コマンド候補提示処理部214は、操作コマンド候補をモニタ表示部290にタッチ操作可能に表示するが、物理的なスイッチやキーボードに操作コマンドが割り当てることによって提示してもよい。
[4.6] Modification (Modification 1)
In the above embodiment, the operation command candidate presentation processing unit 214 displays the operation command candidates on the monitor display unit 290 so as to be able to perform a touch operation. Good.

この場合には、操作コマンド候補提示処理部214は、モニタ表示部290に割り当てたスイッチや各キーを提示してもよいし、スイッチや各キーに直接提示してもよい。   In this case, the operation command candidate presentation processing unit 214 may present the switch and each key assigned to the monitor display unit 290, or may directly present the switch and each key.

(変形例2)
上記の実施形態においては、タッチ検出処理部211は、観覧位置の指定については、モニタ表示部290へのタッチ操作に基づいて特定しているが、ジョイスティックやキーボードなどの操作子によってモニタ表示部290に表示されたカーソルや指示位置表示を操作することによって観覧位置を指定してもよい。
(Modification 2)
In the above embodiment, the touch detection processing unit 211 specifies the viewing position based on a touch operation on the monitor display unit 290, but the monitor display unit 290 is operated by an operator such as a joystick or a keyboard. The viewing position may be designated by manipulating the cursor displayed on the screen or the indicated position display.

(変形例3)
上記実施形態においては、イベント会場に来場した観客に対してコンテンツの上映を実行しているが、上記の実施形態においては、ネットワークを用いて又はテレビ放送によって、コンテンツの動画を配信するリアルタイムの動画配信において適用することも可能である。
(Modification 3)
In the above embodiment, the content is shown to the audience who has visited the event venue. However, in the above embodiment, the real time video that distributes the video of the content using a network or by television broadcasting is used. It can also be applied in distribution.

この場合には、コンテンツ上映実行制御部218は、アルゴリズム又は操作コマンドに基づいて演技キャラクタの動作を制御しつつ、図示しない通信制制御部は、演技キャラクタを含むオブジェクト空間の仮想カメラを視点とした描画部220によって生成された画像からデータストリームを生成し、当該生成したデータストリームを、通信部296を介してサーバ装置11又は図示しない端末装置にネットワークを用いて又は放送波によって配信する。   In this case, the content screening execution control unit 218 controls the action of the acting character based on the algorithm or the operation command, and the communication control control unit (not shown) uses the virtual camera in the object space including the acting character as a viewpoint. A data stream is generated from the image generated by the drawing unit 220, and the generated data stream is distributed to the server device 11 or a terminal device (not shown) via the communication unit 296 using a network or by broadcast waves.

(変形例4)
上記の実施形態においては、演技キャラクタに代えて演出オブジェクト(キャラクタの一態様)として、例えば、紙吹雪やテープなど装飾物を飛ばすバズーカ型やキャノン砲型のクラッカーなどの特殊効果装置、ピンスポット型のライトやサーチライトなどの照明装置、稼働型の花道やセリなどの舞台装置、スピーカなどの音響装置又は演出オブジェクトが観客席上をフライングするフライング装置、及び、が含まれてもよい。
(Modification 4)
In the above-described embodiment, as a performance object (one aspect of the character) instead of the acting character, for example, a special effect device such as a bazooka type or cannon type cracker that blows decorations such as confetti or tape, a pin spot type Lighting devices such as light and search light, stage devices such as active flower paths and seri, sound devices such as speakers, or flying devices in which stage objects fly over the audience seats, and the like.

すなわち、コンテンツ上映システム10は、
(1)観客の観覧対象となる実空間に配置された演出オブジェクトの動作を制御し、
(2)演出オブジェクトの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示し、
(3)提示した操作コマンド候補の中から、操作者によって操作指示された操作コマンドを受け付け、
(4)受け付けた操作コマンドに基づいて、演出オブジェクトの動作を制御する、
構成を有していてもよい。
That is, the content screening system 10
(1) Control the operation of the production object placed in the real space to be viewed by the audience,
(2) An operation command selected according to audience information indicating information related to the audience from among a plurality of operation commands for controlling the motion of the effect object is presented to the operator as an operation command candidate. ,
(3) Accepting an operation command instructed by the operator from the presented operation command candidates,
(4) controlling the operation of the effect object based on the received operation command;
You may have a structure.

また、上記実施形態においては、演技キャラクタの動作制御を規定する操作コマンドを提示しているが、対象キャラクタの一形態として、当該演技キャラクタを含むオブジェクト空間を撮像する際の仮想カメラの動作制御を規定する操作コマンドを提示してもよい。   Moreover, in the said embodiment, although the operation command which prescribes | regulates the action control of an acting character is shown, the action control of the virtual camera at the time of imaging the object space containing the said acting character as one form of object character is carried out. A prescribed operation command may be presented.

例えば、操作コマンド候補提示処理部214は、仮想カメラの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、操作者に提示し、コンテンツ上映実行制御部218は、受け付けた操作コマンドに基づいて、仮想カメラの動作を制御してもよい。   For example, the operation command candidate presentation processing unit 214 selects an operation command selected from among a plurality of operation commands for controlling the operation of the virtual camera according to audience information indicating information regarding the audience by the operator. As a candidate, it is presented to the operator, and the content screening execution control unit 218 may control the operation of the virtual camera based on the received operation command.

(変形例5)
上記の実施形態は、コンテンツ上映システム10は、サーバ装置11と連動して各種の処理を実行しているが、過去の観客情報や操作コマンドなどの使用履歴情報の登録や解析、及び、コンテンツ上映結果情報の取得などのサーバ装置11によって実行される各処理を実行し、スタンドアロンの装置としてコンテンツの上映を実行してもよい。
(Modification 5)
In the above embodiment, the content screening system 10 executes various processes in conjunction with the server device 11, but registration and analysis of usage history information such as past audience information and operation commands, and content screening are performed. Each process executed by the server device 11 such as acquisition of result information may be executed, and content screening may be executed as a stand-alone device.

(変形例6)
上記の実施形態においては、コンテンツを大型表示装置12に表示することによって観客に当該コンテンツを観覧させているが、各観客に、仮想3次元空間の画像を視認させるHMD(装着型画像表示装置)を装着させて、バーチャル空間内においてあたかも各観客の周囲に存在するかのごとく認知させるVR体験(仮想現実体験)演技キャラクタの演技パフォーマンスを3Dによって観覧させるようにしてもよい。
(Modification 6)
In the above embodiment, the content is displayed on the large display device 12 to allow the audience to view the content. However, the HMD (wearable image display device) that allows each audience to visually recognize the image in the virtual three-dimensional space. The VR performance (virtual reality experience) acting character that is recognized as if it exists around each spectator in the virtual space may be viewed in 3D.

この場合には、例えば、観客毎に、HMDユニット及び制御ユニットを有する端末装置を提供し、各端末装置は、制御ユニットから出力された各種のデータに基づいて、画像及び音をHMDに提供する。   In this case, for example, a terminal device having an HMD unit and a control unit is provided for each audience, and each terminal device provides images and sounds to the HMD based on various data output from the control unit. .

また、各端末装置は、装着した観客の音、視線又は姿勢(頭部姿勢)を観客情報として検出することが可能な構成を有している。   In addition, each terminal device has a configuration capable of detecting the sound, line of sight, or posture (head posture) of the spectator attached as spectator information.

なお、各端末装置は、同一のイベント会場によって複数の観客に提供されて同時にコンテンツの上映を実行してもよいし、別空間によって異なるタイミングにそれぞれコンテンツの上映を実行してもよい。   Each terminal device may be provided to a plurality of spectators at the same event venue and simultaneously perform the content screening, or may execute the content screening at different timings in different spaces.

[5]本実施形態における動作
次に、図10及び図11を用いて本実施形態のシステム制御装置20によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作について説明する。なお、図10及び図11は、本実施形態のシステム制御装置20によって実行される操作コマンド候補提示処理を含む操作コマンドに基づく動作制御処理の動作を示すフローチャートである。
[5] Operation in the present embodiment Next, the operation of the operation control process based on the operation command including the operation command candidate presentation process executed by the system control apparatus 20 of the present embodiment will be described with reference to FIGS. 10 and 11. . 10 and 11 are flowcharts showing the operation of the operation control process based on the operation command including the operation command candidate presentation process executed by the system control apparatus 20 of the present embodiment.

(第1操作コマンド候補提示処理の場合)
本動作においては、所定のコンテンツのアルゴリズムによってオブジェクト空間に配置された演技キャラクタの動作が実行されているものとし、各観客の観覧情報をサーバ装置11から取得してコンテンツデータ記憶部274に既に記憶されているものとする。
(In the case of the first operation command candidate presentation process)
In this operation, it is assumed that the action of the acting character arranged in the object space is executed by an algorithm of predetermined content, and viewing information of each spectator is acquired from the server device 11 and already stored in the content data storage unit 274. It is assumed that

また、本動作においては、アルゴリズムに従ってオブジェクト空間に設定された仮想カメラが制御され、当該仮想カメラを視点とした前記オブジェクト空間内における演技キャラクタの画像を順次生成して大型表示装置12表示されているものとする。   Further, in this operation, the virtual camera set in the object space is controlled according to the algorithm, and images of acting characters in the object space from the virtual camera as a viewpoint are sequentially generated and displayed on the large display device 12. Shall.

まず、コンテンツ上映実行制御部218は、アルゴリズムに基づく操作コマンドの受け付けタイミングであることを検出すると(ステップS101)、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、コンテンツデータ記憶部274に記憶されているイベント会場に来場している観客の観客情報を取得し、モニタ表示部290に表示する(ステップS102)。   First, when the content screening execution control unit 218 detects that the operation command reception timing is based on the algorithm (step S101), the operation command candidate presentation processing unit 214 works in conjunction with the monitor display control unit 213 to store content data. The spectator information of the spectators who have visited the event venue stored in the unit 274 is acquired and displayed on the monitor display unit 290 (step S102).

また、このとき、コンテンツ上映実行制御部218は、タイマ部240に、操作コマンドに基づく演技キャラクタの動作開始までの残り時間(入力制限時間)の計測を開始させる。   At this time, the content screening execution control unit 218 causes the timer unit 240 to start measuring the remaining time (input time limit) until the acting character starts moving based on the operation command.

なお、コンテンツ上映実行制御部218は、直接サーバ装置11からイベント会場に来場している観客の観客情報を取得してもよい。   Note that the content screening execution control unit 218 may acquire spectator information of spectators who have visited the event site directly from the server device 11.

次いで、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、アルゴリズムによって予め定められた複数の操作コマンド中から、操作者によって表示された観客情報に応じて選択される操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する(ステップS103)。   Next, the operation command candidate presentation processing unit 214 works in conjunction with the monitor display control unit 213 to select an operation command selected according to the audience information displayed by the operator from among a plurality of operation commands predetermined by the algorithm. The operation command candidate is displayed on the monitor display unit 290 and presented to the operator (step S103).

このとき、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、当該タイミングによって受け付けた操作コマンドに基づいて演技キャラクタの動作制御が開始される動作開始時刻までの残り時間(入力制限時間)を操作コマンド候補及び観客情報とともにモニタ表示部290に表示する。   At this time, the operation command candidate presentation processing unit 214 is interlocked with the monitor display control unit 213, and the remaining time until the operation start time at which the action control of the acting character is started based on the operation command received at the timing (input restriction) Time) is displayed on the monitor display unit 290 together with operation command candidates and spectator information.

次いで、コンテンツ上映実行制御部218は、入力制限時間が「0」になったか否かを判定し(ステップS104)、当該入力制限時間が「0」になったと判定した場合には、対象となる演技キャラクタに対して、アルゴリズムによって予め規定されている動作制御の実行を開始させて(ステップS105)本動作を終了させる。   Next, the content screening execution control unit 218 determines whether or not the input restriction time has become “0” (step S104), and when it is determined that the input restriction time has become “0”, it is a target. For the acting character, execution of motion control defined in advance by the algorithm is started (step S105), and the motion is terminated.

一方、コンテンツ上映実行制御部218が、入力制限時間が未だ「0」になっていないと判定した場合には、タッチ検出処理部211は、操作者によって操作指示された操作コマンドの検出の有無を判定し(ステップS106)、操作コマンドが非検出であると判定した場合には、ステップS104の処理に戻る。   On the other hand, when the content screening execution control unit 218 determines that the input restriction time has not yet become “0”, the touch detection processing unit 211 determines whether or not the operation command instructed by the operator is detected. If it is determined (step S106) and it is determined that the operation command is not detected, the process returns to step S104.

また、タッチ検出処理部211は、操作者によって操作指示された操作コマンドが検出されたと判定した場合には、検出した操作コマンドを受け付ける(ステップS107)。   Further, when it is determined that the operation command instructed to be operated by the operator is detected, the touch detection processing unit 211 receives the detected operation command (step S107).

次いで、コンテンツ上映実行制御部218は、受け付けた操作コマンドに基づいて対象の演技キャラクタの動作制御を開始して(ステップS108)本動作を終了させる。   Next, the content screening execution control unit 218 starts the motion control of the target acting character based on the received operation command (step S108) and ends the motion.

(第2操作コマンド候補提示処理の場合)
本動作においては、所定のコンテンツのアルゴリズムによってオブジェクト空間に配置された演技キャラクタの動作が実行されているものとし、各観客の観覧情報をサーバ装置
11から取得してコンテンツデータ記憶部274に既に記憶されているものとする。
(In the case of the second operation command candidate presentation process)
In this operation, it is assumed that the action of the acting character arranged in the object space is executed by an algorithm of predetermined content, and viewing information of each spectator is acquired from the server device 11 and already stored in the content data storage unit 274. It is assumed that

また、本動作においては、アルゴリズムに従ってオブジェクト空間に設定された仮想カメラが制御され、当該仮想カメラを視点とした前記オブジェクト空間内における演技キャラクタの画像を順次生成して大型表示装置12表示されているものとする。   Further, in this operation, the virtual camera set in the object space is controlled according to the algorithm, and images of acting characters in the object space from the virtual camera as a viewpoint are sequentially generated and displayed on the large display device 12. Shall.

まず、コンテンツ上映実行制御部218は、アルゴリズムに基づいて操作コマンドの受け付けタイミングであることを検出すると(ステップS201)、観客情報検出部250は、イベント会場に来場している観客の観客情報を検出する(ステップS202)。   First, when the content screening execution control unit 218 detects that the operation command is received based on the algorithm (step S201), the spectator information detection unit 250 detects the spectator information of the spectators who have visited the event venue. (Step S202).

このとき、コンテンツ上映実行制御部218は、演技キャラクタを制御して観客に対して所定のセリフの出力などの所定の動作制御を実行し、当該動作制御に基づく観客の観客情報を検出してもよい。   At this time, even if the content screening execution control unit 218 controls the acting character to execute predetermined motion control such as output of predetermined speech to the audience, and detects the audience information of the audience based on the motion control. Good.

また、このとき、コンテンツ上映実行制御部218は、タイマ部240に、操作コマンドに基づく演技キャラクタの動作開始までの残り時間(入力制限時間)の計測を開始させる。   At this time, the content screening execution control unit 218 causes the timer unit 240 to start measuring the remaining time (input time limit) until the acting character starts moving based on the operation command.

次いで、操作コマンド候補提示処理部214は、検出した観客情報に基づいて、現在の観客の状態を解析する(ステップS203)。   Next, the operation command candidate presentation processing unit 214 analyzes the current audience state based on the detected audience information (step S203).

次いで、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、アルゴリズムによって予め定められた複数の操作コマンド中から、当該検出した観客情報に応じて操作コマンドを、操作コマンド候補として、モニタ表示部290に表示して操作者に提示する(ステップS204)。   Next, the operation command candidate presentation processing unit 214 works in conjunction with the monitor display control unit 213 to select an operation command as a candidate operation command from among a plurality of operation commands determined in advance by an algorithm according to the detected audience information. The information is displayed on the monitor display unit 290 and presented to the operator (step S204).

このとき、操作コマンド候補提示処理部214は、モニタ表示制御部213と連動し、当該タイミングによって受け付けた操作コマンドに基づいて演技キャラクタの動作制御が開始される動作開始時刻までの残り時間(入力制限時間)を操作コマンド候補及び観客情報とともにモニタ表示部290に表示する。   At this time, the operation command candidate presentation processing unit 214 is interlocked with the monitor display control unit 213, and the remaining time until the operation start time at which the action control of the acting character is started based on the operation command received at the timing (input restriction) Time) is displayed on the monitor display unit 290 together with operation command candidates and spectator information.

次いで、コンテンツ上映実行制御部218は、入力制限時間が「0」になったか否かを判定し(ステップS205)、当該入力制限時間が「0」になったと判定した場合には、対象となる演技キャラクタに対して、アルゴリズムによって予め規定されている動作制御の実行を開始させて(ステップS206)本動作を終了させる。   Next, the content screening execution control unit 218 determines whether or not the input restriction time has become “0” (step S205), and if it is determined that the input restriction time has become “0”, the content screening execution control unit 218 becomes a target. For the acting character, execution of motion control defined in advance by the algorithm is started (step S206), and the motion is terminated.

一方、コンテンツ上映実行制御部218が、入力制限時間が未だ「0」になっていないと判定した場合には、タッチ検出処理部211は、操作者によって操作指示された操作コマンドの検出の有無を判定し(ステップS207)、操作コマンドが非検出であると判定した場合には、ステップS205の処理に戻る。   On the other hand, when the content screening execution control unit 218 determines that the input restriction time has not yet become “0”, the touch detection processing unit 211 determines whether or not the operation command instructed by the operator is detected. If it is determined (step S207) and it is determined that the operation command is not detected, the process returns to step S205.

また、タッチ検出処理部211は、操作者によって操作指示された操作コマンドが検出されたと判定した場合には、検出した操作コマンドを受け付ける(ステップS208)。   If the touch detection processing unit 211 determines that the operation command instructed by the operator is detected, the touch detection processing unit 211 receives the detected operation command (step S208).

次いで、コンテンツ上映実行制御部218は、受け付けた操作コマンドに基づいて対象の演技キャラクタの動作制御を開始して(ステップS209)本動作を終了させる。   Next, the content screening execution control unit 218 starts the motion control of the target acting character based on the received operation command (step S209) and ends the motion.

[6]その他
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書
又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
[6] Others The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

本実施形態は、一のコンテンツ上映システム10に各種の処理が実行されているが、複数の装置を連動させて上記のコンテンツ上映システム10を構成してもよい。   In the present embodiment, various processes are executed in one content screening system 10, but the content screening system 10 may be configured by linking a plurality of devices.

また、本実施形態においては、コンテンツ上映システム10のシステム制御装置20によって各種のコンテンツに関する処理が実行されているが、上記にサーバ装置11のサーバ処理部100の各機能及びコンテンツプログラムを実行させて実現してもよい。また、サーバ装置11と連動せずに、コンテンツ上映システム10単独で各処理を実行してもよい。   Further, in the present embodiment, processing related to various types of content is executed by the system control device 20 of the content screening system 10, but the above-described functions and content programs of the server processing unit 100 of the server device 11 are executed. It may be realized. Further, each process may be executed by the content screening system 10 alone without being linked to the server device 11.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. In addition, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。   As described above, the embodiments of the present invention have been described in detail. However, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. . Accordingly, all such modifications are intended to be included in the scope of the present invention.

10 :コンテンツ上映システム
11 :サーバ装置
12 :大型表示装置
20 :システム制御装置
100 :サーバ処理部
101 :通信制御部
102 :コンテンツ管理部
103 :観客管理部
120 :入力部
130 :表示部
140 :記憶部
142 :主記憶部
144 :コンテンツデータ
146 :観客情報
148 :コンテンツ収集データ
180 :情報記憶媒体
196 :通信部
200 :処理部
210 :オブジェクト空間設定部
211 :タッチ検出処理部
212 :コンテンツ表示制御部
213 :モニタ表示制御部
214 :操作コマンド候補提示処理部
215 :移動処理部
216 :仮想カメラ制御部
217 :コンテンツ編集処理部
218 :コンテンツ上映実行制御部
219 :コンテンツ管理部
220 :描画部
230 :音処理部
240 :タイマ部
250 :観客情報検出部
260 :入力部
262 :検出部
270 :記憶部
271 :主記憶部
272 :画像バッファ
273 :観客情報
274 :コンテンツデータ記憶部
280 :情報記憶媒体
290 :モニタ表示部
292 :音出力部
296 :通信部
10: Content screening system 11: Server device 12: Large display device 20: System control device 100: Server processing unit 101: Communication control unit 102: Content management unit 103: Audience management unit 120: Input unit 130: Display unit 140: Storage Unit 142: Main storage unit 144: Content data 146: Audience information 148: Content collection data 180: Information storage medium 196: Communication unit 200: Processing unit 210: Object space setting unit 211: Touch detection processing unit 212: Content display control unit 213: Monitor display control unit 214: Operation command candidate presentation processing unit 215: Movement processing unit 216: Virtual camera control unit 217: Content editing processing unit 218: Content screening execution control unit 219: Content management unit 220: Drawing unit 230: Sound Processing unit 240: Thailand Part 250: Audience information detection part 260: Input part 262: Detection part 270: Storage part 271: Main storage part 272: Image buffer 273: Audience information 274: Content data storage part 280: Information storage medium 290: Monitor display part 292 : Sound output unit 296: Communication unit

Claims (16)

観客の観覧対象となる画像化された対象キャラクタの動作を操作制御する操作制御システムであって、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段と、
前記観客によって視認される観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段と、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段と、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段と、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段と、
を備えることを特徴とする操作制御システム。
An operation control system for controlling operation of an imaged target character to be viewed by a spectator,
Image generating means for setting a virtual camera in the object space in which the target character is arranged, and generating an image of the target character in the object space with the virtual camera as a viewpoint;
Audience display control means for displaying an image of the target character on the audience display device visually recognized by the audience;
An operation command selected by the operator according to spectator information indicating information related to the spectator from among a plurality of operation commands for controlling the movement of the target character in the object space is set as an operation command candidate to the operator. Presenting means to present;
Receiving means for receiving an operation command instructed by the operator from among the presented operation command candidates;
Action control means for controlling the action of the displayed target character based on the accepted operation command;
An operation control system comprising:
請求項1に記載の操作制御システムにおいて、
前記操作者によって視認されるモニタ表示装置に前記対象キャラクタを表示させるモニタ表示制御手段を更に備え、
前記提示手段が、
前記モニタ表示装置に、前記対象キャラクタとともに前記操作コマンド候補を、前記操作者に提示する、操作制御システム。
The operation control system according to claim 1,
A monitor display control means for displaying the target character on a monitor display device visually recognized by the operator;
The presenting means is
An operation control system for presenting the operation command candidates to the operator together with the target character on the monitor display device.
請求項1又は2に記載の操作制御システムにおいて、
前記提示手段が、
前記観客情報を取得し、前記操作コマンド候補とともに、前記取得した観客情報を前記操作者に提示する、操作制御システム。
In the operation control system according to claim 1 or 2,
The presenting means is
An operation control system that acquires the audience information and presents the acquired audience information together with the operation command candidates to the operator.
請求項3に記載の操作制御システムにおいて、
前記観客毎に、各観客の個人情報を前記観客情報として記憶する記憶手段を管理する管理手段を更に備え、
前記提示手段が、
前記記憶されている観客情報を取得し、前記操作コマンド候補とともに、当該取得した観客情報を前記操作者に提示する、操作制御システム。
In the operation control system according to claim 3,
Management means for managing storage means for storing personal information of each audience as the audience information for each audience,
The presenting means is
An operation control system that acquires the stored audience information and presents the acquired audience information together with the operation command candidates to the operator.
請求項1〜4のいずれか1項に記載の操作制御システムにおいて、
前記対象キャラクタの動作制御が実行された際に受け付けられた操作コマンドの情報を使用履歴情報として記憶手段に登録して蓄積する登録手段をさらに備え、
前記提示手段が、
前記観客情報及び前記登録されている使用履歴情報に応じて、前記操作者によって選択される操作コマンドを、前記操作コマンド候補として、前記操作者に提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 4,
It further comprises registration means for registering and accumulating information of operation commands accepted when the motion control of the target character is executed in the storage means as usage history information,
The presenting means is
An operation control system that presents an operation command selected by the operator as the operation command candidate to the operator according to the audience information and the registered use history information.
請求項5に記載の操作制御システムにおいて、
前記使用履歴情報には、前記操作コマンドと当該操作コマンドを受け付けた際に利用した観客情報を含み、
前記提示手段が、
前記使用履歴情報に基づいて操作コマンドにおける所与の解析した結果と、前記観客情
報とに応じて、前記操作者によって選択される操作コマンドを、前記操作コマンド候補として、前記操作者に提示する、操作制御システム。
The operation control system according to claim 5,
The usage history information includes spectator information used when the operation command and the operation command are received,
The presenting means is
Presenting an operation command selected by the operator as the operation command candidate to the operator according to a given analysis result in the operation command based on the usage history information and the audience information; Operation control system.
請求項1〜6のいずれか1項に記載の操作制御システムにおいて、
各観客の状態を前記観客情報として検出する検出手段を更に備え、
前記提示手段が、
前記検出された観客情報に応じて前記操作者によって選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 6,
It further comprises detection means for detecting the state of each audience as the audience information,
The presenting means is
An operation control system that presents an operation command selected by the operator according to the detected audience information as an operation command candidate to the operator.
請求項1〜7のいずれか1項に記載の操作制御システムにおいて、
前記受付手段が、
前記操作コマンドとともに、対象キャラクタの動作を享受する特定の観客を指定する観客指定指示を受け付け、
前記動作制御手段が、
前記受け付けられた観客指定指示によって特定される観客に向けて前記表示される対象キャラクタの動作を制御する、操作制御システム。
In the operation control system according to any one of claims 1 to 7,
The accepting means is
Along with the operation command, accept a spectator designation instruction for designating a specific spectator who enjoys the motion of the target character,
The operation control means is
An operation control system for controlling an action of the displayed target character toward an audience specified by the accepted audience designation instruction.
請求項1〜8のいずれか1項に記載の操作制御システムにおいて、
前記提示手段が、
前記対象キャラクタの動作状況に応じて定まる操作コマンドを前記操作コマンド候補に含めて前記操作者に提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 8,
The presenting means is
An operation control system that presents to the operator an operation command determined according to the movement status of the target character, included in the operation command candidates.
請求項1〜9のいずれか1項に記載の操作制御システムにおいて、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間、当該画像生成中に受け付けられた操作コマンドの受付回数、又は、当該画像生成中に受け付けられた前記操作コマンドの種別の組み合わせに応じて前記提示する操作コマンドの種別を変更する、操作制御システム。
In the operation control system according to any one of claims 1 to 9,
The presenting means is
The presentation according to the elapsed time from the start timing of image generation in the target character, the number of times operation commands received during the image generation, or a combination of the types of operation commands received during the image generation An operation control system that changes the type of operation command to be executed.
請求項1〜9のいずれか1項に記載の操作制御システムにおいて、
所与のアルゴリズムに従いつつ、前記オブジェクト空間に配置された対象キャラクタの動作を画像化している場合に、
各操作コマンドには、前記対象キャラクタにおける画像生成の開始タイミングから当該操作コマンドの受け付けが許容される時刻を示す受付完了許容時刻又は複数の所与の区間が定められて当該画像生成が実行されている場合において当該操作コマンドの受け付けが許容される区間を示す区間情報と、各操作コマンドに基づいて前記対象キャラクタの動作制御が実行される実行時間と、が規定されており、
前記提示手段が、
前記対象キャラクタにおける画像生成の開始タイミングからの経過時間又は前記操作コマンドを提示するタイミングが属する区間と、前記各操作コマンドの実行時間と、に応じて、前記提示する操作コマンドの種別を決定し、又は、前記対象キャラクタの動作制御の内容を変更した操作コマンドを提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 9,
While following a given algorithm and imaging the motion of the target character placed in the object space,
For each operation command, a reception completion allowable time indicating a time at which reception of the operation command is permitted from the start timing of image generation in the target character or a plurality of given sections are determined, and the image generation is executed. Section information indicating a section in which the operation command is allowed to be received and an execution time during which the target character's motion control is executed based on each operation command are defined,
The presenting means is
The type of the operation command to be presented is determined according to the elapsed time from the image generation start timing in the target character or the section to which the operation command is presented and the execution time of each operation command. Or the operation control system which presents the operation command which changed the content of the motion control of the said object character.
請求項1〜11のいずれか1項に記載の操作制御システムにおいて、
前記動作制御手段が、
前記対象キャラクタにおける画像生成中に前記操作コマンドが受け付けられた場合に、予め定められたタイミングから当該受け付けられた操作コマンドに基づく前記表示される対象キャラクタの動作制御を開始する、操作制御システム。
In the operation control system according to any one of claims 1 to 11,
The operation control means is
An operation control system for starting motion control of the displayed target character based on the received operation command from a predetermined timing when the operation command is received during image generation on the target character.
請求項1〜12のいずれか1項に記載の操作制御システムにおいて、
前記提示手段が、
前記操作コマンド候補を提示中に、当該タイミングによって受け付けた操作コマンドに基づいて前記対象キャラクタの動作制御が開始される動作開始時刻又は当該動作開始時刻に関する時間を提示する、操作制御システム。
In the operation control system according to any one of claims 1 to 12,
The presenting means is
An operation control system that presents a motion start time at which motion control of the target character is started or a time related to the motion start time based on an operation command received at the timing while presenting the operation command candidate.
請求項1〜13のいずれか1項に記載の操作制御システムにおいて、
前記動作制御手段が、
所与のアルゴリズムに従いつつ、前記オブジェクト空間に配置された対象キャラクタの動作を画像化している場合であって、前記操作コマンドが受け付けられた場合に、当該操作コマンドを受け付けた後のアルゴリズムを、前記受け付けられた操作コマンドに応じて変更し、当該変更したアルゴリズムに従って前記表示される対象キャラクタの動作を制御する、操作制御システム。
In the operation control system according to any one of claims 1 to 13,
The operation control means is
While following a given algorithm, when the motion of the target character placed in the object space is imaged, and the operation command is received, the algorithm after receiving the operation command, An operation control system that changes according to an accepted operation command and controls the movement of the displayed target character according to the changed algorithm.
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御するプログラムであって、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段、
前記観客によって視認される観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段、及び、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段、
としてコンピュータを機能させることを特徴とするプログラム。
A program for operating and controlling the movement of an imaged target character to be viewed by a spectator,
Image generating means for setting a virtual camera in the object space in which the target character is arranged, and generating an image of the target character in the object space with the virtual camera as a viewpoint;
Audience display control means for displaying an image of the target character on the audience display device visually recognized by the audience;
An operation command selected by the operator according to spectator information indicating information related to the spectator from among a plurality of operation commands for controlling the movement of the target character in the object space is set as an operation command candidate to the operator. Presenting means to present,
An accepting means for accepting an operation command instructed by the operator from among the presented operation command candidates; and
Action control means for controlling the action of the displayed target character based on the accepted operation command;
A program characterized by causing a computer to function.
観客の観覧対象となる画像化された対象キャラクタの動作を操作制御する操作制御システムと、
前記観客によって視認される観客用表示装置と、
を備え、
前記操作制御システムが、
前記対象キャラクタが配置されたオブジェクト空間に仮想カメラを設定し、当該仮想カメラを視点とした前記オブジェクト空間内における対象キャラクタの画像を生成する画像生成手段と、
前記観客用表示装置に前記対象キャラクタの画像を表示させる観客用表示制御手段と、
前記オブジェクト空間における対象キャラクタの動作を制御するための複数の操作コマンド中から、操作者によって前記観客に関する情報を示す観客情報に応じて選択される操作コマンドを、操作コマンド候補として、前記操作者に提示する提示手段、
前記提示されている操作コマンド候補の中から、前記操作者によって操作指示された操作コマンドを受け付ける受付手段と、
前記受け付けられた操作コマンドに基づいて、前記表示される対象キャラクタの動作を制御する動作制御手段と、
を備えることを特徴とするキャラクタ上映システム。
An operation control system for operating and controlling the motion of the imaged target character to be viewed by the audience;
An audience display device visually recognized by the audience;
With
The operation control system is
Image generating means for setting a virtual camera in the object space in which the target character is arranged, and generating an image of the target character in the object space with the virtual camera as a viewpoint;
Spectator display control means for displaying an image of the target character on the spectator display device;
An operation command selected by the operator according to spectator information indicating information related to the spectator from among a plurality of operation commands for controlling the movement of the target character in the object space is set as an operation command candidate to the operator. Presenting means to present,
Receiving means for receiving an operation command instructed by the operator from among the presented operation command candidates;
Action control means for controlling the action of the displayed target character based on the accepted operation command;
A character screening system comprising:
JP2017058271A 2017-03-23 2017-03-23 Operation control system, character screening system and program Active JP6945312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058271A JP6945312B2 (en) 2017-03-23 2017-03-23 Operation control system, character screening system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058271A JP6945312B2 (en) 2017-03-23 2017-03-23 Operation control system, character screening system and program

Publications (3)

Publication Number Publication Date
JP2018158046A true JP2018158046A (en) 2018-10-11
JP2018158046A5 JP2018158046A5 (en) 2020-05-07
JP6945312B2 JP6945312B2 (en) 2021-10-06

Family

ID=63796041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058271A Active JP6945312B2 (en) 2017-03-23 2017-03-23 Operation control system, character screening system and program

Country Status (1)

Country Link
JP (1) JP6945312B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020183630A1 (en) * 2019-03-13 2020-09-17 バルス株式会社 Live streaming system and live streaming method
JP2021023517A (en) * 2019-08-02 2021-02-22 株式会社ポケモン Performance control system, method and program
JP2021023806A (en) * 2019-08-02 2021-02-22 株式会社ポケモン Performance control system, method and program
JP2021033784A (en) * 2019-08-27 2021-03-01 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
JP2022164730A (en) * 2019-03-13 2022-10-27 バルス株式会社 Live distribution system and live distribution method
JP7329470B2 (en) 2020-03-10 2023-08-18 株式会社ポケモン Information processing device, method, program
JP7465019B2 (en) 2019-11-13 2024-04-10 グリー株式会社 Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109116A (en) * 2000-09-29 2002-04-12 Sony Corp Device and method for deciding audience situation, system and method for controlling reproduction output and recording medium
JP2003533235A (en) * 1999-07-26 2003-11-11 ガイ・ジョナサン・ジェームズ・ラッカム Virtual production device and method
JP2004064641A (en) * 2002-07-31 2004-02-26 Hitachi Kokusai Electric Inc Video data editing apparatus and editing method
JP2006528381A (en) * 2003-07-22 2006-12-14 アンティックス テクノロジーズ リミテッド Virtual environment controller

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533235A (en) * 1999-07-26 2003-11-11 ガイ・ジョナサン・ジェームズ・ラッカム Virtual production device and method
JP2002109116A (en) * 2000-09-29 2002-04-12 Sony Corp Device and method for deciding audience situation, system and method for controlling reproduction output and recording medium
JP2004064641A (en) * 2002-07-31 2004-02-26 Hitachi Kokusai Electric Inc Video data editing apparatus and editing method
JP2006528381A (en) * 2003-07-22 2006-12-14 アンティックス テクノロジーズ リミテッド Virtual environment controller

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7188831B2 (en) 2019-03-13 2022-12-13 バルス株式会社 Live distribution system and live distribution method
JP2022164730A (en) * 2019-03-13 2022-10-27 バルス株式会社 Live distribution system and live distribution method
CN113767643B (en) * 2019-03-13 2024-04-05 巴鲁斯株式会社 Live broadcast transmission system and live broadcast transmission method
KR102625902B1 (en) * 2019-03-13 2024-01-17 발루스 가부시키가이샤 Live Betrayal System and Live Betrayal Method
KR20210135520A (en) * 2019-03-13 2021-11-15 발루스 가부시키가이샤 Live Betrayal System and Live Betrayal Method
JPWO2020183630A1 (en) * 2019-03-13 2021-12-02 バルス株式会社 Live distribution system and live distribution method
WO2020183630A1 (en) * 2019-03-13 2020-09-17 バルス株式会社 Live streaming system and live streaming method
CN113767643A (en) * 2019-03-13 2021-12-07 巴鲁斯株式会社 Live broadcast transmission system and live broadcast transmission method
JP2021023517A (en) * 2019-08-02 2021-02-22 株式会社ポケモン Performance control system, method and program
JP7303780B2 (en) 2019-08-02 2023-07-05 株式会社ポケモン Production control system, method and program
JP2021023806A (en) * 2019-08-02 2021-02-22 株式会社ポケモン Performance control system, method and program
JP7125133B2 (en) 2019-08-27 2022-08-24 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which it is applied, computer program used therefor, and control method
JP2021033784A (en) * 2019-08-27 2021-03-01 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method
JP7465019B2 (en) 2019-11-13 2024-04-10 グリー株式会社 Information processing device, information processing method, and information processing program
JP7329470B2 (en) 2020-03-10 2023-08-18 株式会社ポケモン Information processing device, method, program

Also Published As

Publication number Publication date
JP6945312B2 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
JP6945312B2 (en) Operation control system, character screening system and program
JP6955861B2 (en) Event control system and program
US10341642B2 (en) Display device, control method, and control program for stereoscopically displaying objects
JP2019024748A (en) Image generation device and program
CN110249631A (en) Display control program and display control method
JP7238028B2 (en) Game system, game providing method and program
CN107533727A (en) Holographic interactive retail trade system
JP2010532890A (en) Avatar customization apparatus and method
JP2012003755A (en) Image generation program, image generation device, image generation system, and image generation method
US11471775B2 (en) System and method for providing a computer-generated environment
US20220245716A1 (en) Non-transitory computer readable medium storing virtual store management program and virtual store management system
CN112513782A (en) Display control system, display control method, and display control program
CN110460893A (en) Dynamic image dissemination system and its method and recording medium
CN103813837A (en) Game device, control method of game device, program, and information storage medium
JP2022089817A (en) Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method
JP2018075260A (en) Game system and program
JP6623008B2 (en) GAME DEVICE AND PROGRAM
JP6450485B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2023143963A (en) Program, information processing method, and information processing device
US20230201716A1 (en) Information processing device, information processing method, and program
JP7001796B1 (en) Information processing program, information processing method and information processing system
US20200413145A1 (en) Video distribution system, video distribution method, information processing device, video distribution program, and video viewing program
JP7153751B2 (en) Information processing system, information processing method and program
JP7357865B1 (en) Program, information processing method, and information processing device
US20240007700A1 (en) Program, information processing method, and information processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210914

R150 Certificate of patent or registration of utility model

Ref document number: 6945312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150