JP2018050807A - Program, performance device, and performance system - Google Patents

Program, performance device, and performance system Download PDF

Info

Publication number
JP2018050807A
JP2018050807A JP2016188566A JP2016188566A JP2018050807A JP 2018050807 A JP2018050807 A JP 2018050807A JP 2016188566 A JP2016188566 A JP 2016188566A JP 2016188566 A JP2016188566 A JP 2016188566A JP 2018050807 A JP2018050807 A JP 2018050807A
Authority
JP
Japan
Prior art keywords
effect
unit
sound
sound data
production
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016188566A
Other languages
Japanese (ja)
Inventor
豊田 淳
Atsushi Toyoda
淳 豊田
篠田 健
Takeshi Shinoda
健 篠田
英展 菰田
Hidenobu Komoda
英展 菰田
茂樹 遠山
Shigeki Toyama
茂樹 遠山
是 芳賀
Tadashi Haga
是 芳賀
行恵 松尾
Yukie Katsuo
行恵 松尾
昌史 高木
Masashi Takagi
昌史 高木
政治 岡田
Seiji Okada
政治 岡田
太嘉志 齋藤
Takashi Saito
太嘉志 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Studios Inc filed Critical Bandai Namco Studios Inc
Priority to JP2016188566A priority Critical patent/JP2018050807A/en
Publication of JP2018050807A publication Critical patent/JP2018050807A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a program, performance device, and performance system capable of disposing a plurality of media (such as figures) on a stage and executing performance processing on the basis of respective types and positions of the plurality of media.SOLUTION: The program includes: detecting types and positions of a plurality of media disposed on a stage; executing processing of determining a performance content on the basis of the detected respective types and positions of the plurality of media; and executing the performance processing on the basis of the determined performance content.SELECTED DRAWING: Figure 1

Description

本発明は、プログラム、演出装置及び演出システムに関する。   The present invention relates to a program, a rendering device, and a rendering system.

従来から、アニメに登場するキャラクタや、人物等を模したフィギュアと呼ばれる媒体が存在する。多くのユーザは、これらのフィギュアを眺めて楽しむ。   Conventionally, there is a medium called a figure imitating a character or a person appearing in an animation. Many users enjoy watching these figures.

また、従来技術として、玩具を搭載するステージを備え、玩具から識別コードを読み取り、玩具の種別に応じてゲームの内容を異なるものにする演出装置が存在する(特許文献1の0006段落参照)。   Further, as a conventional technique, there is an effect device that includes a stage on which a toy is mounted, reads an identification code from the toy, and changes the content of the game depending on the type of toy (see paragraph 0006 of Patent Document 1).

特開2011−143095号公報JP 2011-143095 A

しかし、従来から存在するフィギュアは鑑賞することがメインとなっており、鑑賞以外の楽しみ方が見出せていないという課題がある。また、特許文献1が示す演出装置は、単体のキャラクタ玩具を搭載するだけであり、プレーヤにとって面白みに欠けるものがある。   However, the figure that exists from the past has been mainly viewed, and there is a problem that no way of enjoying other than viewing can be found. In addition, the rendering device disclosed in Patent Document 1 only includes a single character toy, and some players lack interest.

本発明は、このような課題に鑑みたものであり、その目的は、複数の媒体(フィギュア等)をステージに配置することを可能とし、複数の媒体それぞれの種類及び位置に基づいて、演出処理を行うことが可能なプログラム、演出装置及び演出システムを提供することにある。   The present invention has been made in view of such a problem, and the object thereof is to enable a plurality of media (such as figures) to be arranged on the stage, and to perform the rendering process based on the type and position of each of the plurality of media. It is to provide a program, a rendering device, and a rendering system that can perform the above.

(1)本発明は、
複数の媒体を配置可能なステージを備える演出装置のためのプログラムであって、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部として、コンピュータを機能させるプログラムに関する。
(1) The present invention
A program for a production device including a stage on which a plurality of media can be arranged,
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
The present invention relates to a program that causes a computer to function as an effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit.

また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるための上記プログラムを記憶した情報記憶媒体に関する。また、本発明は、上記各部を含む演出装置に関する。   The present invention also relates to a computer-readable information storage medium that stores the program for causing the computer to function as each unit. The present invention also relates to an effect device including the above-described parts.

本発明によれば、プレーヤは、媒体(例えば、フィギュア)を鑑賞するだけでなく、複数の媒体それぞれの位置を考慮して各媒体をステージに配置することによって演出を楽しむことができる。   According to the present invention, a player can enjoy not only viewing a medium (for example, a figure) but also enjoying the effect by arranging each medium on the stage in consideration of the position of each of the plurality of mediums.

(2)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記演出内容決定部が、
前記複数の媒体の位置関係に基づいて、演出内容を決定する処理を行うようにしてもよ
い。
(2) Moreover, the program, the information storage medium, and the rendering device of the present invention are:
The production content determination unit
You may make it perform the process which determines production | presentation content based on the positional relationship of the said some medium.

ここで、「複数の媒体の位置関係」とは、複数の媒体の隣接関係(前後関係)、複数の媒体間の距離等である。   Here, the “positional relationship between a plurality of media” refers to an adjacent relationship (a longitudinal relationship) between a plurality of media, a distance between the plurality of media, and the like.

本発明によれば、プレーヤは、複数の媒体それぞれの位置関係を考慮して各媒体をステージに配置することによって、複数の媒体それぞれの位置関係に応じた演出を楽しむことができる。   According to the present invention, the player can enjoy an effect according to the positional relationship of each of the plurality of media by placing each medium on the stage in consideration of the positional relationship of each of the plurality of media.

(3)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の向きを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の向きに基づいて、演出内容を決定する処理を行うようにしてもよい。
(3) Further, the program, information storage medium and rendering device of the present invention are:
The detection unit is
Detecting the orientation of the medium placed on the stage;
The production content determination unit
You may make it perform the process which determines the production | presentation content based on the direction of the said medium detected by the said detection part.

本発明によれば、プレーヤは、媒体の向きを考慮して各媒体をステージに配置することによって、媒体の向きに応じた演出を楽しむことができる。   According to the present invention, the player can enjoy the effect according to the direction of the medium by arranging each medium on the stage in consideration of the direction of the medium.

(4)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の姿勢状態を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の姿勢状態に基づいて、演出内容を決定する処理を行うようにしてもよい。
(4) Also, the program, information storage medium, and rendering device of the present invention are:
The detection unit is
Detecting the posture state of the medium placed on the stage,
The production content determination unit
Based on the posture state of the medium detected by the detection unit, a process for determining the production content may be performed.

ここで、「姿勢状態」は、立っているか、座っているか等の媒体の姿勢状態を意味する。   Here, the “posture state” means a posture state of the medium such as standing or sitting.

本発明によれば、プレーヤは、媒体の姿勢状態を考慮して各媒体をステージに配置することによって、媒体の姿勢状態に応じた演出を楽しむことができる。   According to the present invention, the player can enjoy an effect according to the posture state of the medium by arranging each medium on the stage in consideration of the posture state of the medium.

(5)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の高さを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の高さに基づいて、演出内容を決定する処理を行うようにしてもよい。
(5) Moreover, the program, information storage medium, and rendering device of the present invention are:
The detection unit is
Detecting the height of the medium placed on the stage;
The production content determination unit
You may make it perform the process which determines the content of production based on the height of the said medium detected by the said detection part.

本発明によれば、プレーヤは、媒体の高さを考慮して各媒体をステージに配置することによって、媒体の高さに応じた演出を楽しむことができる。   According to the present invention, the player can enjoy an effect corresponding to the height of the medium by arranging each medium on the stage in consideration of the height of the medium.

(6)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の装着パーツの有無を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の装着パーツの有無に基づいて、演出内容を決定する処理を行うようにしてもよい。
(6) Moreover, the program, the information storage medium, and the rendering device of the present invention are:
The detection unit is
Detect the presence or absence of the mounting part of the medium placed on the stage,
The production content determination unit
You may make it perform the process which determines the production content based on the presence or absence of the mounting | wearing part of the said medium detected by the said detection part.

本発明によれば、プレーヤは、媒体の装着パーツの有無を考慮して各媒体をステージに
配置することによって、媒体の装着パーツの有無に応じた演出を楽しむことができる。
According to the present invention, the player can enjoy an effect according to the presence or absence of a medium mounting part by placing each medium on the stage in consideration of the presence or absence of the medium mounting part.

(7)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記媒体に装着パーツが有る場合に、
前記検出部が、
当該装着パーツの種類を検出し、
前記演出内容決定部が、
前記装着パーツの種類に基づいて、演出内容を決定する処理を行うようにしてもよい。
(7) Moreover, the program, the information storage medium, and the rendering device of the present invention are:
When there is a mounting part in the medium,
The detection unit is
Detects the type of the attached part,
The production content determination unit
You may make it perform the process which determines the production content based on the kind of said mounting | wearing parts.

本発明によれば、プレーヤは、媒体の装着パーツの種類を考慮して各媒体をステージに配置することによって、媒体の装着パーツの種類に応じた演出を楽しむことができる。   According to the present invention, the player can enjoy an effect according to the type of the medium mounting part by placing each medium on the stage in consideration of the type of the medium mounting part.

(8)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記複数の媒体が前記ステージに配置された時点から、配置状態の継続時間を計時する計時部として、コンピュータを更に機能させ、
前記演出内容決定部が、
前記配置状態の継続時間に基づいて、演出内容を決定する処理を行うようにしてもよい。本発明によれば、プレーヤは、配置状態の継続時間に基づく演出を楽しむことができる。
(8) Further, the program, the information storage medium, and the rendering device of the present invention are:
From the time when the plurality of media are placed on the stage, as a timekeeping unit that times the duration of the placement state, further causing the computer to function,
The production content determination unit
You may make it perform the process which determines the content of production based on the continuation time of the said arrangement | positioning state. According to the present invention, the player can enjoy an effect based on the duration of the arrangement state.

(9)また、本発明は、
複数の媒体を配置可能なステージを備える演出装置と端末とがネットワークを介して接続される演出システムであって、
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記端末に送信する処理を行う送信部と、
を含み、
前記端末が、
前記演出済の演出内容に関する情報を、前記演出装置から受信する処理を行う受信部と、
演出済の演出内容に関する情報に基づいて、前記演出済の演出内容を再生する処理を行う再生処理部と、
を含む演出システムに関する。
(9) The present invention also provides:
A rendering system in which a rendering device including a stage capable of arranging a plurality of media and a terminal are connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmission unit that performs processing for transmitting information related to the contents of the rendered performance to the terminal;
Including
The terminal is
A receiving unit that performs processing for receiving information related to the contents of the rendered effects from the rendering device;
Based on information related to the effect content that has been effected, a reproduction processing unit that performs processing to reproduce the effect content that has been effected,
It is related with the production system containing.

本発明によれば、プレーヤは、媒体(例えば、フィギュア)を鑑賞するだけでなく、複数の媒体それぞれの位置を考慮して各媒体をステージに配置することによって演出を楽しむことができる。また、本発明は、端末において、演出済の演出内容を再生することができる。   According to the present invention, a player can enjoy not only viewing a medium (for example, a figure) but also enjoying the effect by arranging each medium on the stage in consideration of the position of each of the plurality of mediums. In addition, according to the present invention, it is possible to reproduce the content of the effect that has been effected at the terminal.

(10)また、本発明は、
複数の媒体を配置可能なステージを備える演出装置、端末及びサーバがネットワークを介して接続される演出システムであって、
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記サーバに送信する処理を行う送信部と、
を含み、
前記サーバが、
前記演出装置から前記演出済の演出内容に関する情報を受信する処理と、前記端末から演出済の演出内容の再生要求を受信する処理と、を行う受信部と、
前記端末から前記演出済の演出内容の再生要求を受信した場合に、前記演出済の演出内容を前記端末に送信する送信部と、
を含み、
前記端末が、
前記サーバに、前記演出済の演出内容の再生要求を送信する送信部と、
前記演出済の演出内容を、前記サーバから受信する処理を行う受信部と、
前記演出済の演出内容を再生する処理を行う再生処理部と、
を含む演出システムに関する。
(10) The present invention also provides:
An effect system including a stage capable of arranging a plurality of media, a terminal, and a server connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmitter for performing processing for transmitting information related to the contents of the rendered performance to the server;
Including
The server is
A receiving unit that performs a process of receiving information on the content of the rendered effect from the rendering device and a process of receiving a reproduction request for the rendered content of the effect from the terminal;
A transmission unit that transmits the content of the rendered effect to the terminal when the reproduction request for the rendered content of the effect is received from the terminal;
Including
The terminal is
A transmission unit for transmitting a reproduction request for the produced content of the production to the server;
A receiving unit that performs a process of receiving the rendered content of the performance from the server;
A reproduction processing unit for performing a process of reproducing the produced production contents;
It is related with the production system containing.

本発明によれば、プレーヤは、媒体(例えば、フィギュア)を鑑賞するだけでなく、複数の媒体それぞれの位置を考慮して各媒体をステージに配置することによって演出を楽しむことができる。また、本発明は、端末において、サーバから演出済の演出内容を受信し、演出済の演出内容を再生することができる。   According to the present invention, a player can enjoy not only viewing a medium (for example, a figure) but also enjoying the effect by arranging each medium on the stage in consideration of the position of each of the plurality of mediums. Also, according to the present invention, at the terminal, it is possible to receive the effect content that has been effected from the server and reproduce the effect content that has been effected.

本実施形態の演出システムを示す図。The figure which shows the production system of this embodiment. 本実施形態の演出装置の機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the production | presentation apparatus of this embodiment. 本実施形態のサーバの機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the server of this embodiment. 本実施形態の端末の機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the terminal of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の演出装置のフィギュア検出方法の一例を説明するための図。The figure for demonstrating an example of the figure detection method of the production | presentation apparatus of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態の配置状態の継続時間に関する説明図。Explanatory drawing regarding the continuation time of the arrangement | positioning state of this embodiment. 本実施形態のフィギュアの視野範囲の所属判定に関する説明図。Explanatory drawing regarding the affiliation determination of the visual field range of the figure of this embodiment. 本実施形態の音データの一例。An example of the sound data of this embodiment. 本実施形態のフィギュアの視線方向に関する説明図。Explanatory drawing regarding the gaze direction of the figure of this embodiment. 本実施形態のフィギュアの視野範囲の所属判定に関する説明図。Explanatory drawing regarding the affiliation determination of the visual field range of the figure of this embodiment. 本実施形態のフィギュアの視野範囲の所属判定に関する説明図。Explanatory drawing regarding the affiliation determination of the visual field range of the figure of this embodiment. 本実施形態の音データの音IDと優先度との対応関係の一例。An example of the correspondence of sound ID and priority of sound data of this embodiment. 本実施形態の音データの音IDとフラグFとの対応関係の一例。An example of the correspondence between the sound ID of the sound data and the flag F of the present embodiment. 本実施形態の演出装置の演出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the production process of the production | presentation apparatus of this embodiment. 本実施形態の演出装置の演出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the production process of the production | presentation apparatus of this embodiment. 本実施形態の演出装置の演出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the production process of the production | presentation apparatus of this embodiment. 本実施形態の演出装置の演出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the production process of the production | presentation apparatus of this embodiment. 本実施形態の演出装置の演出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the production process of the production | presentation apparatus of this embodiment. 図31(A)(B)は、本実施形態の端末の表示画面の一例。31A and 31B are examples of the display screen of the terminal according to the present embodiment. 図32(A)(B)は、本実施形態の端末の表示画面の一例。32A and 32B are examples of the display screen of the terminal according to the present embodiment. 本実施形態の演出装置の記憶部に記憶される設定情報の一例。An example of the setting information memorize | stored in the memory | storage part of the presentation apparatus of this embodiment. 本実施形態の演出装置に端末を立てかけた場合の演出例。An example of production when a terminal is stood on the production device of the present embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必要構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. Moreover, not all of the configurations described in the present embodiment are necessary constituent requirements of the present invention.

1.演出システムの説明
本実施形態の演出装置10は、演出装置10のステージSTに配置されたフィギュアの種類や位置を検出して演出内容(例えば、音データ)を決定し、当該演出内容を実行する処理(例えば、音データを出力する処理)を行うものである。例えば、演出装置10は、複数のフィギュアの種類や位置を検出すると、各フィギュアが会話するような音データを発生させるので、ユーザは複数のフィギュアの会話内容を楽しむことができる。特に、本実施形態の演出装置10は、現在の状況に応じた適切な会話ができるように、シチュエーションに応じた音出力等を行っている。
1. Description of the production system The production device 10 of the present embodiment detects the type and position of the figure arranged on the stage ST of the production device 10, determines production content (for example, sound data), and executes the production content. Processing (for example, processing for outputting sound data) is performed. For example, when the rendering device 10 detects the types and positions of a plurality of figures, it generates sound data such that each figure has a conversation, so that the user can enjoy the conversation contents of the plurality of figures. In particular, the rendering device 10 of the present embodiment performs sound output or the like according to the situation so that an appropriate conversation according to the current situation can be performed.

図1は、本実施形態の演出システム1(ネットワークシステム、演出システム)のネットワーク図の一例を示す。本実施形態の演出システム1は、少なくとも演出装置10と端末30(例えば、スマートフォンなどの携帯端末)とを含み、演出装置10、端末30はネットワーク(例えば、インターネット)を介して接続されている。   FIG. 1 shows an example of a network diagram of the rendering system 1 (network system, rendering system) of the present embodiment. The rendering system 1 of the present embodiment includes at least the rendering device 10 and a terminal 30 (for example, a mobile terminal such as a smartphone), and the rendering device 10 and the terminal 30 are connected via a network (for example, the Internet).

また、演出システム1は、演出に関するサービスを提供するサーバ20を含んでもよい。つまり、演出装置10は、ネットワークを介してサーバ20と接続されていてもよい。   The production system 1 may include a server 20 that provides a service related to the production. That is, the rendering device 10 may be connected to the server 20 via a network.

また、演出システム1は、図示していないが、課金サーバ、情報配信サーバなど種々の機能を有するサーバを含んでもよい。つまり、演出装置10及びサーバ20は、ネットワークを介して、他のサーバと接続されていてもよい。   In addition, the production system 1 may include a server having various functions such as a billing server and an information distribution server, although not shown. That is, the rendering device 10 and the server 20 may be connected to other servers via a network.

本実施形態の演出装置10は、図1に示すように、ステージSTを有するものであり、ステージST上にフィギュア(媒体の一例)を搭載可能である。   As shown in FIG. 1, the rendering device 10 of the present embodiment has a stage ST, and a figure (an example of a medium) can be mounted on the stage ST.

そして、演出装置10は、フィギュアの種類や位置を検出すると、フィギュアの種類や位置に基づいて、音データを出力(発生)させる。特に、演出装置10は、複数のフィギュアそれぞれの位置関係に応じて、フィギュア同士が会話しているような演出を行うように制御する。更に、演出装置10は、ステージST上に配置されたフィギュアの位置関係を変えた場合、発生する音データを変化させ、会話内容を変化させるように制御し、演出のバリエーションが増えるように制御している。   Then, when the rendering device 10 detects the type and position of the figure, it outputs (generates) sound data based on the type and position of the figure. In particular, the rendering device 10 performs control so as to perform an effect as if the figures are talking to each other according to the positional relationship between the plurality of figures. Furthermore, when the positional relationship between the figures arranged on the stage ST is changed, the effect device 10 controls the sound data to be generated and the conversation content to be changed, and the effect variation is increased. ing.

なお、演出装置10の形状は、図1に示すように、平坦なステージSTに限らず、船の形状をしたステージや家を再現したステージ、家の居間を再現したステージ、車(戦車)等を再現したステージ等であってもよい。   As shown in FIG. 1, the shape of the rendering device 10 is not limited to a flat stage ST, a stage shaped like a ship, a stage reproducing a house, a stage reproducing a living room of a house, a car (tank), etc. It may be a stage that reproduces the above.

また、フィギュアは、3次元の媒体であればよい。例えば、フィギュアは、アニメやゲームに登場するキャラクタ、動物、人を模した3次元の媒体や、大道具、小道具、食べ物の模型、小物、玩具、ぬいぐるみ等である。なお、フィギュアは、車、戦車等の模型であってもよい。   The figure may be a three-dimensional medium. For example, a figure is a three-dimensional medium that imitates characters, animals, and people appearing in anime and games, tools, props, food models, accessories, toys, stuffed animals, and the like. The figure may be a model of a car, a tank, or the like.

また、サーバ20は、ユーザ毎に、各演出内容に対応付けて、演出に関する情報(例えば、演出済(音出力済)か否かを示すフラグF)を管理する。また、サーバ20は、演出内容を記憶し、所与のタイミングに演出内容を演出装置10に送信してもよい。   Moreover, the server 20 manages the information regarding an effect (For example, the flag F which shows whether it is effected (sound output completed)) in association with each effect content for every user. Further, the server 20 may store the content of the effect and transmit the effect content to the effect device 10 at a given timing.

なお、サーバ20は、複数のユーザ(プレーヤ)間でコミュニケーションを提供することが可能なサービスを提供する情報処理装置であり、本実施形態ではSNS(ソーシャル・ネットワーキング・サービス)と呼ばれるコミュニティ型のサービスを提供するサーバでもよい。つまり、サーバ20は、ユーザの情報(ユーザ名、日記、掲示情報、ゲームフィールドの状況など)をログインしたユーザだけでなく、当該ユーザとフレンド関係にある他のユーザにも送信し、ユーザ間でコミュニケーションを図るようにしてもよい。サーバ20は、会員登録を行ったユーザに限定してサービスを提供するようにしてもよい。   The server 20 is an information processing apparatus that provides a service capable of providing communication among a plurality of users (players). In this embodiment, the server 20 is a community-type service called SNS (social networking service). A server that provides That is, the server 20 transmits user information (user name, diary, bulletin information, game field status, etc.) not only to the logged-in user but also to other users who have a friendship with the user, and You may make it aim at communication. The server 20 may provide a service only to the user who has registered as a member.

サーバ20は、複数の機能を有するサーバ(ログインサーバ(認証サーバ)、通信サーバ、課金サーバ、データベースサーバ、Webサーバ等)により構成してもよい。   The server 20 may be configured by a server having a plurality of functions (login server (authentication server), communication server, billing server, database server, Web server, etc.).

端末30は、携帯端末(スマートフォン、携帯電話、携帯型ゲーム機等)、パーソナルコンピュータ(PC)、などの情報処理装置であり、インターネット(WAN)、LANなどのネットワークを介してサーバ20、演出装置10に接続可能な装置である。なお、端末30、サーバ20、演出装置10それぞれを結ぶ通信回線は、有線でもよいし無線でもよい。   The terminal 30 is an information processing device such as a mobile terminal (smart phone, mobile phone, portable game machine, etc.), personal computer (PC), etc., and the server 20 and the rendering device via a network such as the Internet (WAN) or LAN. 10 can be connected to the device. Note that the communication lines connecting the terminal 30, the server 20, and the rendering device 10 may be wired or wireless.

本実施形態の端末30は、演出装置10において実行された演出内容(例えば、音データ)を演出装置10から受信し、演出内容を再生する処理を行う。つまり、演出装置10において発生した音データを、端末30においても再現でき、プレーヤは繰り返し、フィギュアの会話内容を聞くことができるようにしている。   The terminal 30 of this embodiment receives the content of the effect (for example, sound data) performed in the effect device 10 from the effect device 10, and performs the process which reproduces the effect content. That is, the sound data generated in the rendering device 10 can be reproduced on the terminal 30, and the player can repeatedly listen to the conversation content of the figure.

なお、本実施形態の端末30は、サーバ20を介して、演出装置10において実行された演出内容(例えば、音データ)を受信し、演出内容を再生する処理を行ってもよい。   In addition, the terminal 30 of this embodiment may perform the process which receives the effect content (for example, sound data) performed in the effect device 10 via the server 20, and reproduces the effect content.

また、本実施形態のサーバ20は、端末30からの要求に応じて、オンラインゲームサービス(ソーシャルゲーム)を提供してもよい。   Moreover, the server 20 of this embodiment may provide an online game service (social game) in response to a request from the terminal 30.

また、演出装置10は、ネットワークを介して、家庭用のゲーム装置、業務用のゲーム装置(筐体)と接続され、相互にデータを送受信できるように制御してもよい。   In addition, the rendering device 10 may be connected to a home game device or a business game device (housing) via a network, and may be controlled so that data can be transmitted and received between them.

2.構成
2.1.演出装置10の構成
図2に本実施形態の演出装置10の機能ブロック図の一例を示す。なお本実施形態の演出装置10は図2の構成要素(各部)の一部を省略した構成としてもよい。
2. Configuration 2.1. FIG. 2 shows an example of a functional block diagram of the rendering device 10 of the present embodiment. The rendering device 10 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 2 are omitted.

検出部162は、ステージに配置された複数の媒体それぞれの種類及び位置を検出する。   The detection unit 162 detects the type and position of each of the plurality of media arranged on the stage.

検出部162は、ステージに配置された媒体の向き(複数の媒体それぞれの向き)を検
出してもよい。
The detection unit 162 may detect the orientation of each medium arranged on the stage (the orientation of each of the plurality of media).

検出部162は、ステージに配置された媒体の姿勢状態(複数の媒体それぞれの姿勢状態)を検出してもよい。   The detection unit 162 may detect the posture state of each medium placed on the stage (the posture state of each of the plurality of media).

検出部162は、ステージに配置された媒体の高さ(複数の媒体それぞれの高さ)を検出してもよい。   The detection unit 162 may detect the height of each medium arranged on the stage (the height of each of the plurality of media).

検出部162は、ステージに配置された媒体の装着パーツの有無(複数の媒体それぞれの装着パーツの有無)を検出してもよい。媒体に装着パーツが有る場合に、検出部162は、当該装着パーツの種類を検出してもよい。   The detection unit 162 may detect the presence / absence of a medium mounting part (presence / absence of a mounting part for each of a plurality of media) placed on the stage. When the medium has a mounting part, the detection unit 162 may detect the type of the mounting part.

記憶部170は、処理部100の各部としてコンピュータを機能させるためのプログラムや各種データを記憶するとともに、処理部100や通信部196の記憶領域として機能する。   The storage unit 170 stores programs and various data for causing the computer to function as each unit of the processing unit 100, and functions as a storage area for the processing unit 100 and the communication unit 196.

そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、演出データベース172とを含む。なお、これらの一部を省略する構成としてもよい。   And the memory | storage part 170 of this embodiment contains the main memory | storage part 171 used as a work area | region, and the production database 172. Note that some of these may be omitted.

主記憶部171は、RAMなどにより実現できる。例えば、主記憶部171には、サーバ20から受信したゲームデータ等が記憶される。なお、演出装置10は、ゲームデータ等を必要に応じて記憶部10のストレージに記憶するようにしてもよい。なお、ストレージとは、ハードディスク、光学ディスク、フラッシュメモリ、磁気テープ等であり、データを永続的に記憶する装置のことをいう。   The main storage unit 171 can be realized by a RAM or the like. For example, the main storage unit 171 stores game data received from the server 20. The rendering device 10 may store game data or the like in the storage of the storage unit 10 as necessary. Storage means a hard disk, an optical disk, a flash memory, a magnetic tape, or the like, and refers to a device that permanently stores data.

また、演出データベース172には、演出に関する演出内容(例えば、音データ)が記憶される。例えば、演出装置10は、予め出力する演出内容を演出データベース172に記憶してもよいし、サーバ20から演出内容を受信して、演出データベース172に記憶してもよい。演出データベース172には、音データ毎に、音IDに対応付けて、音データ、プレイ情報(音出力済みか否かを示すフラグF、再生回数、再生時間等)を記憶する。   In addition, the production database 172 stores production contents (eg, sound data) related to the production. For example, the effect device 10 may store the effect content to be output in advance in the effect database 172, or may receive the effect content from the server 20 and store it in the effect database 172. In the effect database 172, for each sound data, sound data and play information (a flag F indicating whether sound has been output, the number of times of reproduction, a reproduction time, etc.) are stored in association with the sound ID.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

また、情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部100は、後述するように、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。   Further, the information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). Note that the processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180, as will be described later.

音出力部192は、処理部100で生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the processing unit 100, and its function can be realized by a speaker, headphones, or the like.

通信部196はサーバ20との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the server 20, and the function can be realized by hardware such as various processors or a communication ASIC, a program, or the like.

なお、サーバ20が有する情報記憶媒体や記憶部に記憶されているプログラムや各種デ
ータを、ネットワークを介して受信し、受信したプログラムやデータを記憶部170に記憶してもよい。このようにプログラムや各種データを受信して演出装置10の処理部100の各部としてコンピュータを機能させる場合も本発明の範囲内に含む。
Note that the program and various data stored in the information storage medium and storage unit of the server 20 may be received via a network, and the received program and data may be stored in the storage unit 170. The case of receiving the program and various data and causing the computer to function as each unit of the processing unit 100 of the rendering device 10 is also included in the scope of the present invention.

処理部100(プロセッサ)は、検出部162で検出されたデータ、記憶部170や情報記憶媒体180に格納されるプログラム及びデータ、通信部196を介して受信したデータなどに基づいて、演出処理(音制御)などの処理を行う。処理部100は、記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   Based on the data detected by the detection unit 162, the program and data stored in the storage unit 170 or the information storage medium 180, the data received via the communication unit 196, etc., the processing unit 100 (processor) Sound control). The processing unit 100 performs various processes using the main storage unit 171 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、演出内容決定部112、計時部113、通信制御部120、演出処理部130を含む。   The processing unit 100 includes an effect content determination unit 112, a time measuring unit 113, a communication control unit 120, and an effect processing unit 130.

演出内容決定部112は、検出部162によって検出された媒体の種類に基づいて、演出内容を決定する処理を行う。また、演出内容決定部112は、検出部162によって検出された媒体の位置に基づいて、演出内容を決定する処理を行う。   The effect content determination unit 112 performs a process of determining the effect content based on the type of medium detected by the detection unit 162. Further, the effect content determination unit 112 performs a process of determining the effect content based on the position of the medium detected by the detection unit 162.

特に、本実施形態の演出内容決定部112は、検出部162によって検出された複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う。例えば、演出内容決定部112は、複数の媒体の位置関係に基づいて、演出内容を決定する処理を行う。   In particular, the effect content determination unit 112 of the present embodiment performs a process of determining the effect content based on the type and position of each of the plurality of media detected by the detection unit 162. For example, the effect content determination unit 112 performs a process of determining the effect content based on the positional relationship between a plurality of media.

なお、演出内容決定部112は、検出部162によって検出された媒体の向きに基づいて、演出内容を決定してもよい。   The effect content determination unit 112 may determine the effect content based on the orientation of the medium detected by the detection unit 162.

また、演出内容決定部112は、検出部162によって検出された媒体の姿勢状態に基づいて、演出内容を決定する処理を行うようにしてもよい。   Further, the effect content determination unit 112 may perform processing for determining the effect content based on the posture state of the medium detected by the detection unit 162.

また、演出内容決定部112は、検出部162によって検出された媒体の高さに基づいて、演出内容を決定する処理を行うようにしてもよい。   Further, the effect content determination unit 112 may perform processing for determining the effect content based on the height of the medium detected by the detection unit 162.

また、演出内容決定部112は、検出部162によって検出された媒体の装着パーツの有無に基づいて、演出内容を決定する処理を行うようにしてもよい。媒体に装着パーツが有る場合に、演出内容決定部112は、装着パーツの種類に基づいて、演出内容を決定する処理を行ってもよい。   Further, the effect content determination unit 112 may perform a process of determining the effect content based on the presence or absence of a medium mounting part detected by the detection unit 162. In the case where there are mounted parts on the medium, the effect content determination unit 112 may perform a process of determining the effect contents based on the type of the mounted part.

また、演出内容決定部112は、配置状態の継続時間に基づいて、演出内容を決定する処理を行うようにしてもよい。   Further, the production content determination unit 112 may perform processing for determining the production content based on the duration of the arrangement state.

また、演出内容決定部112は、媒体の位置、向き、姿勢状態、高さ、装着パーツの有無、装着パーツの種類、配置状態の継続時間の少なくとも1つに基づいて、演出内容を決定する処理を行うようにしてもよい。   In addition, the effect content determination unit 112 determines the content of the effect based on at least one of the position, orientation, posture state, height, presence / absence of the attached part, type of the attached part, and duration of the arrangement state. May be performed.

計時部113は、複数の媒体がステージに配置された時点から、配置状態の継続時間を計時する。   The timer 113 measures the duration of the arrangement state from the time when the plurality of media are arranged on the stage.

通信制御部120は、サーバ20や端末30との接続(セッションやコネクション)を確立し、ネットワークを介してデータ(例えば、ゲームデータ等)を送受信する処理を行う。   The communication control unit 120 performs a process of establishing a connection (session or connection) with the server 20 or the terminal 30 and transmitting / receiving data (for example, game data) via the network.

通信制御部120は、データを受信する受信部121と、データを送信する送信部122とを含む。   The communication control unit 120 includes a reception unit 121 that receives data and a transmission unit 122 that transmits data.

例えば、受信部122は、新たな演出内容(例えば、音データ)を、サーバ20から受信する。   For example, the receiving unit 122 receives new production content (for example, sound data) from the server 20.

例えば、送信部122は、演出済の演出内容に関する情報(例えば、演出済の演出内容、演出済の演出内容を識別する情報(例えば、音ID))を端末30に送信する処理を行う。   For example, the transmission unit 122 performs processing of transmitting information related to the effect content that has been effected (for example, information about the effect content that has been effected, information that identifies the effect content that has been effected (eg, sound ID)) to the terminal 30.

また、送信部122は、演出済の演出内容に関する情報をサーバ20に送信する処理を行ってもよい。   Moreover, the transmission part 122 may perform the process which transmits the information regarding the effect content which has been produced to the server 20. FIG.

演出処理部130は、演出内容決定部112によって決定された演出内容に基づいて、演出処理を行う。   The effect processing unit 130 performs effect processing based on the effect content determined by the effect content determining unit 112.

また、演出処理部130は、音処理部131を含む。音処理部131は、演出内容決定部112によって決定された音データ(演出内容の一例)を音出力部192に出力する処理を行う。例えば、音データは、キャラクタに応じた会話内容等でもいし、BGM、効果音でもよい。   The effect processing unit 130 includes a sound processing unit 131. The sound processing unit 131 performs a process of outputting the sound data determined by the effect content determination unit 112 (an example of effect content) to the sound output unit 192. For example, the sound data may be conversation contents corresponding to the character, BGM, or sound effects.

2.2.サーバ20の構成
図3に本実施形態のサーバ20の機能ブロック図の例を示す。本実施形態のサーバ20は図3の構成要素(各部)の一部を省略した構成としてもよい。
2.2. Configuration of Server 20 FIG. 3 shows an example of a functional block diagram of the server 20 of this embodiment. The server 20 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 3 are omitted.

記憶部270は、処理部200や通信部296などの記憶領域として機能する。記憶部270は、主記憶部272、格納部260(例えば、データベース)を含む。主記憶部272は、ワーク領域であり、RAM、VRAMなどにより実現できる。格納部260は、ストレージなどにより実現できる。   The storage unit 270 functions as a storage area such as the processing unit 200 and the communication unit 296. The storage unit 270 includes a main storage unit 272 and a storage unit 260 (for example, a database). The main storage unit 272 is a work area and can be realized by a RAM, a VRAM, or the like. The storage unit 260 can be realized by storage or the like.

格納部260には、サーバ20が管理する各プレーヤのプレーヤ情報261を格納する。   The storage unit 260 stores player information 261 of each player managed by the server 20.

プレーヤ情報261には、プレーヤID(プレーヤ識別情報)、ログインパスワード、プレーヤ関連性に関するデータを含む。プレーヤ関連性に関するデータは、他のプレーヤとの関連性(例えば、同じグループに所属するか否か、ゲーム内のフレンドであるか否か等)に関するデータを含む。なお、プレーヤ情報261は、プレーヤの端末ID(端末の識別情報)を含んでいてもよい。   The player information 261 includes data relating to a player ID (player identification information), a login password, and player relevance. The data relating to player relevance includes data relating to relevance to other players (for example, whether they belong to the same group, whether they are friends in the game, etc.). Note that the player information 261 may include a terminal ID (terminal identification information) of the player.

また、格納部260には、サーバ20が管理する各プレーヤの演出管理データ263を格納する。   Further, the storage unit 260 stores production management data 263 of each player managed by the server 20.

また、格納部260には、演出内容(音データ、画像データ、動画データ等)264を格納する。   The storage unit 260 stores the production contents (sound data, image data, moving image data, etc.) 264.

情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部200は、情報記憶媒体280に格納されるプログラム(デー
タ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
The information storage medium 280 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 200 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 280. That is, the information storage medium 280 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

通信部296は外部(例えば、端末、他のサーバや他の演出システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 296 performs various controls for communicating with the outside (for example, a terminal, another server, or another production system), and functions as hardware such as various processors or communication ASICs. Or by a program.

処理部200(プロセッサ)は、記憶部270や情報記憶媒体280に記憶されるプログラム及びデータ、通信部296を介して受信したデータなどに基づいて、処理を行う。   The processing unit 200 (processor) performs processing based on programs and data stored in the storage unit 270 and the information storage medium 280, data received via the communication unit 296, and the like.

また、処理部200は記憶部270内の主記憶部272をワーク領域として各種処理を行う。処理部200の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 200 performs various processes using the main storage unit 272 in the storage unit 270 as a work area. The functions of the processing unit 200 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態のサーバの処理部200は、演出管理部210、通信制御部220を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the server processing unit 200 of this embodiment includes an effect management unit 210 and a communication control unit 220. Note that some of these may be omitted.

演出管理部210は、演出装置10又は端末30と通信を行い、演出管理データ(演出に関する設定情報、演出済の演出内容に関する情報等)を管理する。演出管理部210は、演出装置10又は端末30から受信したプレーヤID、ログインパスワードに基づいて、ログインの管理を行い、ログイン認証できた場合に、管理を行ってもよい。   The effect management unit 210 communicates with the effect device 10 or the terminal 30 to manage effect management data (setting information related to effects, information related to effects that have been effected, etc.). The effect management unit 210 may manage the login based on the player ID and the login password received from the effect device 10 or the terminal 30, and may perform the management when the login authentication is successful.

演出管理部210は、プレーヤ毎にプレーヤID(プレーヤ識別情報)に対応づけて演出管理データを管理する。   The production management unit 210 manages production management data in association with a player ID (player identification information) for each player.

例えば、演出管理部210は、演出装置10から、プレーヤID及び演出管理データを受信し、プレーヤIDに対応づけて当該演出管理データを格納部260(記憶部270)に格納(記憶)する。   For example, the effect management unit 210 receives a player ID and effect management data from the effect device 10, and stores (stores) the effect management data in the storage unit 260 (storage unit 270) in association with the player ID.

通信制御部220は、演出装置10や端末30との接続(セッションやコネクション)を確立し、演出装置10や端末30とネットワークを介してデータを送受信する処理を行う。   The communication control unit 220 establishes a connection (session or connection) with the rendering device 10 or the terminal 30, and performs a process of transmitting / receiving data to / from the rendering device 10 or the terminal 30 via the network.

例えば、通信制御部220は、データを受信する受信部221と、データを送信する送信部222とを含む。   For example, the communication control unit 220 includes a reception unit 221 that receives data and a transmission unit 222 that transmits data.

例えば、受信部221は、演出装置10から演出済の演出内容の識別情報を受信する処理を行う。   For example, the receiving unit 221 performs processing for receiving the identification information of the effect content that has been effected from the effect device 10.

また、受信部221は、端末30から所定の識別情報の再生要求を受信する処理を行う。   In addition, the reception unit 221 performs processing for receiving a reproduction request for predetermined identification information from the terminal 30.

また、送信部222は、新たな演出内容(例えば、音データ)を演出装置10に送信する。   Further, the transmission unit 222 transmits new effect contents (for example, sound data) to the effect device 10.

例えば、送信部222が音データを送信する際は、音データを送信先(演出装置10や端末30)に送信してもよいし、既に送信先に音データが記憶されている場合には、再生する音IDを送信してもよい。また、送信部222は、再生回数の記録(更新)することを目的とする場合は音データそのものの送信は不要であり、再生回数をカウントする音I
Dを送信する。また、送信部222は、送信先に音IDを送信し、当該送信先において当該音IDの音データがキャッシュされておらず、当該送信先から音データの要求を受け付けた場合には、当該音IDの音データを当該送信先に送信してもよい。
For example, when the transmission unit 222 transmits sound data, the sound data may be transmitted to the transmission destination (the production device 10 or the terminal 30), or when the sound data is already stored in the transmission destination, A sound ID to be reproduced may be transmitted. The transmission unit 222 does not need to transmit the sound data itself for the purpose of recording (updating) the number of reproductions, and the sound I for counting the number of reproductions is not necessary.
Send D. In addition, the transmission unit 222 transmits the sound ID to the transmission destination, and when the sound data of the sound ID is not cached at the transmission destination and the request for the sound data is received from the transmission destination, The sound data of ID may be transmitted to the transmission destination.

また、送信部222は、端末30から演出済の演出内容の識別情報の再生要求を受信した場合に、当該識別情報に対応付けられた演出内容を端末30に送信する。例えば、送信部222は、演出済の音データを端末30に送信する。   In addition, when the transmission unit 222 receives a reproduction request for the identification information of the effect content that has been effected from the terminal 30, the transmission unit 222 transmits the effect content associated with the identification information to the terminal 30. For example, the transmission unit 222 transmits the rendered sound data to the terminal 30.

2.3 端末30の構成
図4に本実施形態の端末30の機能ブロック図の一例を示す。なお、本実施形態の端末30は図4の構成要素(各部)の一部を省略した構成としてもよい。
2.3 Configuration of Terminal 30 FIG. 4 shows an example of a functional block diagram of the terminal 30 of this embodiment. Note that the terminal 30 of this embodiment may have a configuration in which some of the components (each unit) in FIG. 4 are omitted.

入力部360は、プレーヤからの入力情報を入力するための機器であり、プレーヤの入力情報を処理部300に出力する。本実施形態の入力部360は、プレーヤの入力情報(入力信号)を検出する検出部362を備える。入力部360は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、キーボード、マウスなどがある。   The input unit 360 is a device for inputting input information from the player, and outputs the input information of the player to the processing unit 300. The input unit 360 of this embodiment includes a detection unit 362 that detects input information (input signal) of the player. Examples of the input unit 360 include a lever, a button, a steering wheel, a microphone, a touch panel display, a keyboard, and a mouse.

また、入力部360は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部(撮影部)を備えた入力機器でもよい。例えば、入力機器は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力機器には、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力機器には、入力機器と一体化されている演出装置、携帯型演出装置、携帯電話なども含まれる。本実施形態の端末30は、複数の入力部360を備えていてもよい。   The input unit 360 may be an input device including an acceleration sensor that detects triaxial acceleration, a gyro sensor that detects angular velocity, and an imaging unit (imaging unit). For example, the input device may be one that the player holds and moves, or one that the player wears and moves. Input devices also include controllers made by imitating actual tools such as sword-type controllers and gun-type controllers held by players, or glove-type controllers worn by players (attached to hands by players) It is. The input device also includes a rendering device, a portable rendering device, a mobile phone, and the like that are integrated with the input device. The terminal 30 of this embodiment may include a plurality of input units 360.

記憶部370は、処理部300の各部としてコンピュータを機能させるためのプログラムや各種データを記憶するとともに、処理部300や通信部396の記憶領域として機能する。   The storage unit 370 stores programs and various data for causing the computer to function as each unit of the processing unit 300, and functions as a storage area for the processing unit 300 and the communication unit 396.

そして、本実施形態の記憶部370は、ワーク領域として使用される主記憶部371と、表示画像等が記憶される画像バッファ372を含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 370 of the present embodiment includes a main storage unit 371 used as a work area and an image buffer 372 in which display images and the like are stored. Note that some of these may be omitted.

また、記憶部370(端末30のストレージ)には、ゲームアプリケーションが記憶される。   The game application is stored in the storage unit 370 (storage of the terminal 30).

主記憶部371は、RAMなどにより実現でき、画像バッファ372は、VRAMなどにより実現できる。例えば、主記憶部371には、演出装置10又はサーバ20から受信した音データ等を記憶する。画像バッファ372には、画像データ等を記憶する。   The main storage unit 371 can be realized by a RAM or the like, and the image buffer 372 can be realized by a VRAM or the like. For example, the main storage unit 371 stores sound data received from the rendering device 10 or the server 20. The image buffer 372 stores image data and the like.

情報記憶媒体380(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   An information storage medium 380 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

また、情報記憶媒体380には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部300は、後述するように、情報記憶媒体380に格納され
るプログラム(データ)に基づいて本実施形態の種々の処理を行う。
Further, the information storage medium 380 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). Note that the processing unit 300 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 380, as will be described later.

表示部390は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネルディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 390 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

なお、表示部390は、タッチパネルディスプレイを用いることによりプレーヤが操作を行う入力部360としても機能してもよい。ここでタッチパネルとして、例えば抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式などのタッチパネルを用いることができる。   The display unit 390 may also function as an input unit 360 that is operated by the player by using a touch panel display. Here, as the touch panel, for example, a resistive film type (4-wire type, 5-wire type), capacitive type, electromagnetic induction type, ultrasonic surface acoustic wave type, infrared scanning type, or the like can be used.

音出力部392は、処理部300で生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 392 outputs the sound generated by the processing unit 300, and its function can be realized by a speaker, headphones, or the like.

通信部396はサーバ20との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 396 performs various controls for communicating with the server 20, and the function can be realized by hardware such as various processors or a communication ASIC, a program, or the like.

なお、サーバ20が有する情報記憶媒体や記憶部に記憶されているプログラムや各種データを、ネットワークを介して受信し、受信したプログラムやデータを記憶部370に記憶してもよい。このようにプログラムや各種データを受信して端末30の処理部300の各部としてコンピュータを機能させる場合も本発明の範囲内に含む。   Note that the program and various data stored in the information storage medium and storage unit of the server 20 may be received via a network, and the received program and data may be stored in the storage unit 370. The case of receiving the program and various data and causing the computer to function as each unit of the processing unit 300 of the terminal 30 is also included in the scope of the present invention.

処理部300(プロセッサ)は、入力部360からの入力情報(操作入力)、記憶部370や情報記憶媒体380に格納されるプログラム及びデータ、通信部396を介して受信したデータなどに基づいて、ゲーム処理、画像生成処理、音生成処理、などの処理を行う。処理部300は、記憶部370内の主記憶部371をワーク領域として各種処理を行う。処理部300の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 300 (processor) is based on input information (operation input) from the input unit 360, programs and data stored in the storage unit 370 and the information storage medium 380, data received via the communication unit 396, and the like. Processing such as game processing, image generation processing, and sound generation processing is performed. The processing unit 300 performs various processes using the main storage unit 371 in the storage unit 370 as a work area. The functions of the processing unit 300 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部300は、再生処理部310、表示制御部312、通信制御部320、画像生成部330、音生成部340を含む。   The processing unit 300 includes a reproduction processing unit 310, a display control unit 312, a communication control unit 320, an image generation unit 330, and a sound generation unit 340.

再生処理部310は、演出内容を再生する処理を行う。例えば、再生処理部310は、演出済の演出内容を再生する処理を行う。   The reproduction processing unit 310 performs a process for reproducing the production contents. For example, the reproduction processing unit 310 performs a process of reproducing the produced effect content.

再生処理部310は、プレーヤの入力情報(タッチ入力)に基づき、演出内容を再生する処理を行ってもよい。   The reproduction processing unit 310 may perform a process of reproducing the production contents based on input information (touch input) of the player.

通信制御部320は、演出装置10又はサーバ20との接続(セッションやコネクション)を確立し、ネットワークを介してデータ(例えば、ゲームデータ等)を送受信する処理を行う。   The communication control unit 320 establishes a connection (session or connection) with the rendering device 10 or the server 20, and performs processing for transmitting / receiving data (for example, game data) via the network.

通信制御部320は、受信部321と、送信部322とを含む。   Communication control unit 320 includes a reception unit 321 and a transmission unit 322.

受信部321は、演出済の演出内容に関する情報を、演出装置10から受信する。例えば、端末30の演出アプリケーションの実行時など所与のタイミングで、演出装置10から演出済の演出内容に関する情報を受信する。   The receiving unit 321 receives information related to the effect content that has been effected from the effect device 10. For example, at a given timing such as when the effect application of the terminal 30 is executed, information related to the effect content that has been effected is received from the effect device 10.

また、送信部322は、サーバ20に、前記演出済の演出内容の再生要求を送信する処
理を行ってもよい。そして、受信部321が演出済の演出内容を、サーバ20から受信する処理を行うようにしてもよい。
Moreover, the transmission part 322 may perform the process which transmits the reproduction | regeneration request | requirement of the said effect content which produced the effect to the server 20. FIG. And you may make it perform the process which the receiving part 321 receives from the server 20 the production content which has been produced.

表示制御部312は、表示部390に画面を表示する制御を行う。端末30が、当該画面を生成してもよいし、サーバ20が画面を生成し、端末30がサーバ20から画面のデータを受信して表示してもよい。   The display control unit 312 performs control to display a screen on the display unit 390. The terminal 30 may generate the screen, the server 20 may generate the screen, and the terminal 30 may receive the screen data from the server 20 and display it.

画像生成部330は、処理部300で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部390に出力する。画像生成部330は、オブジェクト空間(ゲーム空間)内において仮想カメラ(所与の視点)から見える画像(いわゆる3次元画像)を生成してもよい。   The image generation unit 330 performs a drawing process based on the results of various processes performed by the processing unit 300, thereby generating an image and outputting the image to the display unit 390. The image generation unit 330 may generate an image (so-called three-dimensional image) that can be seen from a virtual camera (a given viewpoint) in the object space (game space).

例えば、画像生成部330は、3次元画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を画像バッファ372(フレームバッファ、ワークバッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   For example, when generating a three-dimensional image, the image generation unit 330 first performs geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation, Based on this, drawing data (position coordinates of vertexes of the primitive surface, texture coordinates, color data, normal vector, α value, etc.) is created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is stored in the image buffer 372 (frame buffer, work buffer, or other pixel unit). Can be drawn in a VRAM). Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

また、画像生成部330は、端末30が備えるカメラ(撮影部)によって撮影された撮影画像と、仮想空間において仮想カメラから見える仮想画像(3次元画像)とを合成して拡張現実画像を生成する処理を行ってもよい。   In addition, the image generation unit 330 generates an augmented reality image by synthesizing a captured image captured by a camera (imaging unit) included in the terminal 30 and a virtual image (three-dimensional image) seen from the virtual camera in the virtual space. Processing may be performed.

音生成部340は、処理部300で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部392に出力する。   The sound generation unit 340 performs sound processing based on the results of various processes performed by the processing unit 300, generates game sounds such as BGM, sound effects, and sounds, and outputs the game sounds to the sound output unit 392.

3.フィギュアの検出手法
次に、フィギュアの検出手法について説明する。演出装置10は、ステージSTを備える。そして、演出装置10は、ステージSTに搭載されたフィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類等を検出する。
3. Figure Detection Method Next, a figure detection method will be described. The production device 10 includes a stage ST. Then, the rendering device 10 detects the type, position, orientation, height, posture state, presence / absence of a mounting part, type of mounting part, and the like mounted on the stage ST.

例えば、フィギュアには、ユニークなフィギュアのIDを伝えるための情報(マーカ(光学マーカ、バーコード)、RFIDタグ)などが予め付される。演出装置10の検出部162が、これらの情報を検知することでフィギュアを検出する。次にフィギュア検出方法の例について説明する。   For example, information (marker (optical marker, barcode), RFID tag) for transmitting a unique figure ID is attached to the figure in advance. The detection unit 162 of the effect device 10 detects the figure by detecting these pieces of information. Next, an example of a figure detection method will be described.

3.1 カメラ
第1の例は、カメラによってフィギュアを検出する方法である。図5に示すように、演出装置10は、ステージの壁WAに(壁WAの上部)、或いは、ステージの天井にカメラCA(撮影部)が取り付けられている。
3.1 Camera A first example is a method of detecting a figure by a camera. As shown in FIG. 5, the rendering device 10 has a camera CA (an imaging unit) attached to the stage wall WA (upper part of the wall WA) or the stage ceiling.

また、フィギュアの頭頂部(あるいは背面)に、マーカ(例えば、光学マーカ)が取り付けられている。例えば、フィギュアFAの頭頂部にマーカMAが取り付けられ、フィギュアFBの頭頂部にマーカMBが取り付けられ、フィギュアFCの頭頂部にマーカMCが取り付けられている。   In addition, a marker (for example, an optical marker) is attached to the top (or the back) of the figure. For example, a marker MA is attached to the top of the figure FA, a marker MB is attached to the top of the figure FB, and a marker MC is attached to the top of the figure FC.

そして、カメラCAが、フィギュアFA、FB、FCそれぞれのマーカMA、MB、M
Cを読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。
And camera CA is the marker MA, MB, M for each of the figures FA, FB, FC.
By reading C, the types, positions, orientations, heights, postures, presence / absence of equipment parts, and equipment parts types are detected when there are equipment parts.

なお、第1の例においてカメラによってフィギュアを検出する場合に、マーカを必要としなくてもよい。つまり、マーカーレスであってもよい。例えば、演出装置10は、パターン認識によって、フィギュアFA、FB、FCそれぞれの種類等を検出してもよい。具体的に説明すると、演出装置10は、予めフィギュアFA、FB、FCを特定可能なパターンを記憶部170に記憶し、各フィギュアFA、FB、FCのパターンと、カメラCAによって撮影された撮影画像とに基づいて、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツがある場合は装着パーツの種類を検出する。   In addition, when detecting a figure with a camera in a 1st example, it is not necessary to require a marker. That is, it may be markerless. For example, the rendering device 10 may detect the types of the figures FA, FB, and FC by pattern recognition. More specifically, the rendering device 10 stores in advance a pattern that can identify the figures FA, FB, and FC in the storage unit 170, and the patterns of the figures FA, FB, and FC and the captured images taken by the camera CA. Based on the above, the types, positions, orientations, heights, posture states, presence / absence of mounting parts, and the types of mounting parts are detected when there are mounting parts.

3.2 マルチタッチセンサー
第2の例は、マルチタッチセンサーによってフィギュアを検出する方法である。図6に示すように、演出装置10は、ステージSTの表面に、静電容量のマルチタッチセンサーSEを備える。
3.2 Multi-touch sensor A second example is a method of detecting a figure by a multi-touch sensor. As shown in FIG. 6, the rendering device 10 includes a capacitive multi-touch sensor SE on the surface of the stage ST.

そして、フィギュアの底面に3つの端子が付されている。例えば、フィギュアFAの底面に、フィギュアFAを識別可能に配置された3つの端子NAが取り付けられ、フィギュアFBの底面にフィギュアFBを識別可能に配置された3つの端子NBが取り付けられ、フィギュアFCの底面に、フィギュアFCを識別可能に配置された3つの端子NCが取り付けられている。   Three terminals are attached to the bottom of the figure. For example, three terminals NA arranged so that the figure FA can be identified are attached to the bottom surface of the figure FA, and three terminals NB arranged so that the figure FB can be identified are attached to the bottom surface of the figure FB. Three terminals NC arranged so that the figure FC can be identified are attached to the bottom surface.

そして、マルチタッチセンサーSEは、各フィギュアの3つの端子の配置を検出する。つまり、マルチタッチセンサー上にフィギュアFA、FB、FCが配置されると、マルチタッチセンサーSEは、フィギュア底面の3つの端子の配置関係を検出し、3つの端子の配置関係に基づきフィギュアの種類を検出する。つまり、フィギュアFA、FB、FCのうち、検出された3つの端子からいずれのフィギュアであるのかを特定する。そして、マルチタッチセンサーSEは、検出されたフィギュア毎に検出された3つ端子の配置関係によってフィギュアの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。   The multi-touch sensor SE detects the arrangement of the three terminals of each figure. In other words, when the figures FA, FB, and FC are arranged on the multi-touch sensor, the multi-touch sensor SE detects the arrangement relationship of the three terminals on the bottom surface of the figure, and determines the type of the figure based on the arrangement relationship of the three terminals. To detect. That is, which figure is identified from the detected three terminals among the figures FA, FB, and FC. And the multi-touch sensor SE is equipped if there is an equipment part, the figure type, position, orientation, height, posture state, presence / absence of equipment parts, depending on the arrangement relationship of the 3 terminals detected for each figure detected. Detect the type of part.

3.3 RFID及びタッチセンサー
第3の例は、RFID(Ra dio Frequency identifier)と、タッチセンサーとによってフィギュアを検出する方法である。図7に示すように、演出装置10は、ステージSTの表面に、RFID用アンテナATと、タッチセンサーSEとを備える。RFID用アンテナは、フィギュアの種類を検出する。
3.3 RFID and Touch Sensor A third example is a method of detecting a figure using an RFID (Radio Frequency identifier) and a touch sensor. As shown in FIG. 7, the rendering device 10 includes an RFID antenna AT and a touch sensor SE on the surface of the stage ST. The RFID antenna detects the type of figure.

そして、フィギュアの底面に、フィギュアを識別するための固有のIDを示すRFIDタグが付されている。例えば、フィギュアFAの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTAが取り付けられ、フィギュアFBの底面に、フィギュアFBを識別可能な固有のIDを示すRFIDタグTBが取り付けられ、フィギュアFCの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTCが取り付けられる。   An RFID tag indicating a unique ID for identifying the figure is attached to the bottom of the figure. For example, an RFID tag TA indicating a unique ID capable of identifying the figure FA is attached to the bottom surface of the figure FA, and an RFID tag TB indicating a unique ID capable of identifying the figure FB is attached to the bottom surface of the figure FB. An RFID tag TC indicating a unique ID that can identify the figure FA is attached to the bottom surface of the figure FC.

また、ステージの表面にタッチセンサーSEを備える。タッチセンサーSEは、フィギュアの位置を検出する。つまり、タッチセンサーSEは、ステージST上にフィギュアが配置されると、フィギュアの位置を検出すると同時に、RFIDによってフィギュアのIDを検出する。そして、演出装置10は、検出されたフィギュアの位置とフィギュアのI
Dを対応させる。
In addition, a touch sensor SE is provided on the surface of the stage. The touch sensor SE detects the position of the figure. That is, when the figure is placed on the stage ST, the touch sensor SE detects the figure position and at the same time detects the figure ID by RFID. The rendering device 10 then detects the position of the detected figure and the I of the figure.
Let D correspond.

なお、第3の例では、ステージST上に、同時(同じタイミング)に複数のフィギュアが置かれた場合に、誤検出してしまうという難点がある。   In the third example, when a plurality of figures are placed on the stage ST at the same time (at the same timing), there is a problem that erroneous detection is performed.

3.4 スキャン
第4の例は、スキャンによってフィギュアを検出する方法である。図8に示すように、演出装置10は、ステージSTに、可視光は通さず赤外線を通すフィルターFTを備える。また、演出装置10は、ステージSTの下側に、フィギュアの裏側を走査する赤外線可動カメラCAが備えられる。
3.4 Scan A fourth example is a method of detecting a figure by scanning. As shown in FIG. 8, the rendering device 10 includes a filter FT that allows infrared light to pass through the stage ST without passing visible light. Further, the rendering device 10 is provided with an infrared movable camera CA that scans the back side of the figure below the stage ST.

また、フィギュアの底面(裏面)に、マーカ(例えば、光学マーカ)が取り付けられている。例えば、フィギュアFAの底面にマーカMAが取り付けられ、フィギュアFBの底面にマーカMBが取り付けられ、フィギュアFCの底面にマーカMCが取り付けられている。   In addition, a marker (for example, an optical marker) is attached to the bottom surface (back surface) of the figure. For example, the marker MA is attached to the bottom surface of the figure FA, the marker MB is attached to the bottom surface of the figure FB, and the marker MC is attached to the bottom surface of the figure FC.

そして、カメラCAが、フィギュアFA、FB、FCそれぞれの底面のマーカMA、MB、MCを、赤外線カメラCAで走査して読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。   Then, the camera CA scans and reads the markers MA, MB, and MC on the bottom surfaces of the figures FA, FB, and FC with the infrared camera CA to read the types, positions, orientations, and heights of the figures FA, FB, and FC. Then, the posture state, presence / absence of equipment parts, and equipment parts are detected when there are equipment parts.

3.5 RFIDの複数のアンテナ
第5の例は、RFID(Radio Frequency identifier)用の複数のアンテナによってフィギュアを検出する方法である。図9に示すように、演出装置10は、ステージSTの表面に、RFID用アンテナAT1〜AT8を備える。各RFID用アンテナは、フィギュアの種類や位置を検出する。
3.5 Multiple antennas for RFID A fifth example is a method of detecting a figure by using multiple antennas for RFID (Radio Frequency identifier). As shown in FIG. 9, the rendering device 10 includes RFID antennas AT1 to AT8 on the surface of the stage ST. Each RFID antenna detects the type and position of the figure.

そして、フィギュアの底面に、フィギュアを識別するための固有のIDを示すRFIDタグが付されている。例えば、フィギュアFAの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTAが取り付けられ、フィギュアFBの底面に、フィギュアFBを識別可能な固有のIDを示すRFIDタグTBが取り付けられ、フィギュアFCの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTCが取り付けられる。   An RFID tag indicating a unique ID for identifying the figure is attached to the bottom of the figure. For example, an RFID tag TA indicating a unique ID capable of identifying the figure FA is attached to the bottom surface of the figure FA, and an RFID tag TB indicating a unique ID capable of identifying the figure FB is attached to the bottom surface of the figure FB. An RFID tag TC indicating a unique ID that can identify the figure FA is attached to the bottom surface of the figure FC.

演出装置10は、各RFID用アンテナAT1〜AT8のいずれのRFID用アンテナで検出されたかに応じて、フィギュアの位置を判定する。また、演出装置10は、検出されたRFID用アンテナでフィギュアのIDを検出してフィギュアの種類を特定する。第5の例では、フィギュアを配置可能な場所の数が限られる。つまり、一のRFID用アンテナに一のフィギュアを配置することになる。   The rendering device 10 determines the position of the figure according to which RFID antenna of the RFID antennas AT1 to AT8 is detected. Further, the rendering device 10 detects the figure ID with the detected RFID antenna and identifies the type of the figure. In the fifth example, the number of places where figures can be placed is limited. That is, one figure is arranged on one RFID antenna.

3.6 マイクロスイッチとフィギュアの凹凸による物理的方法
第6の例は、マイクロスイッチとフィギュアの凹凸による物理的方法によって、フィギュアを検出する方法である。図10に示すように、演出装置10は、ステージSTの上面に窪みKB1〜KB8を設け、窪みKB1〜KB8それぞれに、複数のマイクロスイッチ(マイクロスイッチ群)MSを配置する。また、ステージの窪みに、フィギュアをはめる(収める)ことができる
また、フィギュアの底面は、フィギュアを識別するための凹凸の形状を有する。つまり、フィギュアの底面は、鍵のようにフィギュアを識別するための固有の形状をしている。
3.6 Physical Method Using Microswitch and Figure Concavity and convexity A sixth example is a method of detecting a figure by a physical method using microswitch and figure concavity and convexity. As shown in FIG. 10, the rendering device 10 is provided with depressions KB1 to KB8 on the upper surface of the stage ST, and a plurality of microswitches (microswitch groups) MS are arranged in the depressions KB1 to KB8, respectively. In addition, the figure can be fitted (contained) in the recess of the stage. The bottom surface of the figure has an uneven shape for identifying the figure. That is, the bottom of the figure has a unique shape for identifying the figure like a key.

演出装置10は、窪み毎に、ステージSTの窪みにはめられたフィギュアを、複数のマ
イクロスイッチで検知し、フィギュアの種類を判定する。つまり、演出装置10は、窪み毎に、複数のマイクロスイッチのうち、どのマイクロスイッチが押されているかを判別し、検知されたマイクロスイッチの位置(場所)や数に応じて、フィギュアの種類を判別する。
The rendering device 10 detects the figure fitted in the depression of the stage ST for each depression with a plurality of micro switches, and determines the type of the figure. That is, for each depression, the rendering device 10 determines which one of the plurality of microswitches is pressed, and selects the figure type according to the detected position (location) and number of microswitches. Determine.

また、演出装置10は、窪みKB1〜KB8のうちいずれの窪みに配置されたかによって、フィギュアの位置を検出できる。   In addition, the rendering device 10 can detect the position of the figure depending on which of the recesses KB1 to KB8 is disposed.

また、演出装置10は、窪みの形状に基づいて、フィギュアの向きを検出できる。   In addition, the rendering device 10 can detect the orientation of the figure based on the shape of the depression.

3.7 抵抗値
第7の例は、抵抗値によって、フィギュアを検出する方法である。図11に示すように、演出装置10は、ステージSTの上面に窪みKB1〜KB8を設け、窪みKB1〜KB8それぞれに、電極DKを配置する。また、ステージの窪みに、フィギュアをはめる(収める)ことで、通電させることができる
また、フィギュアの底面は、フィギュアを識別するための抵抗値が設定された抵抗が内蔵されている。つまり、フィギュアの種類に応じて異なる抵抗値が予め設定されている。
3.7 Resistance Value A seventh example is a method of detecting a figure based on a resistance value. As shown in FIG. 11, the rendering device 10 is provided with depressions KB1 to KB8 on the upper surface of the stage ST, and the electrodes DK are arranged in the depressions KB1 to KB8, respectively. In addition, the figure can be energized by fitting (storing) the figure in the recess of the stage. The bottom of the figure has a built-in resistor with a resistance value for identifying the figure. That is, different resistance values are set in advance according to the type of figure.

演出装置10は、窪み毎に、ステージSTの窪みにはめられたフィギュアの抵抗値を読み取り、フィギュアの種類を判定する。   The production device 10 reads the resistance value of the figure fitted in the depression of the stage ST for each depression, and determines the type of the figure.

3.8 回転テーブル及びカメラの例
第8の例は、回転テーブル及びカメラCAによって、フィギュアを検出する方法である。図12に示すように、演出装置10は、モーターで回転可能なステージST(回転テーブル)を備える。そして、演出装置10の上方(例えば、ステージSTの壁の上部、或いは、ステージSTの天井)にカメラCA(撮影部)が取り付けられている。なお、カメラCAの位置や向きは固定されている。カメラCAは、フィギュアの頭頂部を向くように設置される。
3.8 Example of rotary table and camera The eighth example is a method of detecting a figure using the rotary table and the camera CA. As shown in FIG. 12, the rendering device 10 includes a stage ST (rotary table) that can be rotated by a motor. A camera CA (photographing unit) is attached above the rendering device 10 (for example, above the wall of the stage ST or the ceiling of the stage ST). Note that the position and orientation of the camera CA are fixed. The camera CA is installed so as to face the top of the figure.

また、フィギュアの頭頂部(あるいは背面)に、マーカ(例えば、光学マーカ)が取り付けられている。例えば、フィギュアFAの頭頂部にマーカMAが取り付けられ、フィギュアFBの頭頂部にマーカMBが取り付けられ、フィギュアFCの頭頂部にマーカMCが取り付けられている。   In addition, a marker (for example, an optical marker) is attached to the top (or the back) of the figure. For example, a marker MA is attached to the top of the figure FA, a marker MB is attached to the top of the figure FB, and a marker MC is attached to the top of the figure FC.

そして、演出装置10は、モーターによってステージSTを回転させる。そして、演出装置10は、カメラCAによって、フィギュアFA、FB、FCそれぞれのマーカMA、MB、MCを読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置や向きを検出する。   Then, the rendering device 10 rotates the stage ST with a motor. Then, the rendering device 10 detects the types, positions, and orientations of the figures FA, FB, and FC by reading the markers MA, MB, and MC of the figures FA, FB, and FC with the camera CA.

なお、演出装置10は、フィギュアの底面にマーカを付するようにし、ステージST(回転テーブル)を透明にしてもよい。かかる場合には、演出装置10は、ステージSTルの下にカメラCAを上向きに設置する。そして、演出装置10は、ステージSTの下に設置されたカメラCAによって、フィギュア底面のマーカを読み取ることによってフィギュアの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。   The rendering device 10 may attach a marker to the bottom surface of the figure and make the stage ST (rotary table) transparent. In such a case, the rendering device 10 installs the camera CA upward under the stage ST. And the production | presentation apparatus 10 has the kind of figure, a position, direction, height, a posture state, the presence or absence of equipment parts, and equipment parts by reading the marker on the bottom face of the figure with the camera CA installed under the stage ST. If so, the type of equipment part is detected.

なお、第8の例においても、第1の例と同様に、カメラによってフィギュアを検出する場合に、マーカを必要としなくてもよい。つまり、演出装置10は、パターン認識によって、フィギュアFA、FB、FCそれぞれの種類等を検出してもよい。   In the eighth example, as in the first example, a marker may not be required when a figure is detected by a camera. That is, the rendering device 10 may detect the types of the figures FA, FB, and FC by pattern recognition.

3.9 回転テーブル及びカメラの他の例
第9の例は、回転テーブル及びカメラCAによって、フィギュアを検出する方法である。図13に示すように、演出装置10は、モーターで回転可能なステージST(回転テーブル)を備える。そして、演出装置10の側面(例えば、ステージSTの壁)にカメラCA(撮影部)が取り付けられている。なお、カメラCAの位置や向きは固定されている。カメラCAは、フィギュアの側面を向くように設置される。
3.9 Another Example of Rotary Table and Camera A ninth example is a method of detecting a figure by using the rotary table and the camera CA. As shown in FIG. 13, the rendering device 10 includes a stage ST (rotary table) that can be rotated by a motor. And the camera CA (imaging part) is attached to the side surface (for example, the wall of the stage ST) of the rendering device 10. Note that the position and orientation of the camera CA are fixed. The camera CA is installed so as to face the side of the figure.

また、フィギュアの側面部に、マーカ(例えば、バーコード)が取り付けられている。例えば、フィギュアFAの側面部にマーカMAが取り付けられ、フィギュアFBの側面部にマーカMBが取り付けられ、フィギュアFCの側面部にマーカMCが取り付けられている。   In addition, a marker (for example, a barcode) is attached to the side surface of the figure. For example, the marker MA is attached to the side surface of the figure FA, the marker MB is attached to the side surface of the figure FB, and the marker MC is attached to the side surface of the figure FC.

そして、演出装置10は、モーターによってステージSTを回転させる。そして、演出装置10は、カメラCAによって、フィギュアFA、FB、FCそれぞれのマーカMA、MB、MCを読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。   Then, the rendering device 10 rotates the stage ST with a motor. Then, the rendering device 10 reads the markers MA, MB, and MC of the figures FA, FB, and FC by the camera CA, thereby obtaining the types, positions, orientations, heights, posture states of the figures FA, FB, and FC. The presence / absence of equipment parts and the type of equipment parts, if any, are detected.

なお、第9の例においても、第1、第8の例と同様に、カメラによってフィギュアを検出する場合に、マーカを必要としなくてもよい。つまり、演出装置10は、パターン認識によって、フィギュアFA、FB、FCそれぞれの種類等を検出してもよい。   In the ninth example as well, as in the first and eighth examples, the marker may not be required when the figure is detected by the camera. That is, the rendering device 10 may detect the types of the figures FA, FB, and FC by pattern recognition.

4.演出内容決定処理及び演出処理についての説明
本実施形態の演出装置10は、演出内容を決定し、当該演出内容に基づいて演出処理を行う手法を採用する。
4). Description of Effect Content Determination Process and Effect Process The effect device 10 of the present embodiment employs a method of determining effect content and performing effect processing based on the effect content.

4.1 概要
まず、本実施形態の演出装置10は、検出されたフィギュアの種類等の情報に基づいて、演出内容を決定する処理を行い、決定された演出内容に基づいて、演出処理を行う。
4.1 Overview First, the rendering device 10 according to the present embodiment performs processing for determining the content of the rendering based on the information such as the type of the detected figure, and performs the rendering processing based on the determined content of the rendering. .

ここで、「演出内容」とは、例えば、音データ(会話、声、せりふ、歌、音楽、効果音などの音データ)、画像データ、動画データ(映像)、フィギュア動作データ(フィギュアがゆれるデータ、フィギュアが倒れるデータ、フィギュアが飛ぶデータ、フィギュアの服が脱げるデータ、装着パーツが外れるデータ、フィギュアが発光するデータ)、ステージの照明データ(ステージの照明、スポットライト、フットライト、照明の色や光度を変化させるデータ)、プロジェクションマッピングのデータ等、及びこれらの組み合わせである。   Here, “production contents” means, for example, sound data (sound data such as conversation, voice, dialogue, song, music, sound effects, etc.), image data, video data (video), figure motion data (figure swaying data) , Data to fall the figure, data to fly the figure, data to take off the clothes of the figure, data to remove the attached parts, data to emit the figure), stage lighting data (stage lighting, spotlight, footlight, lighting color, etc. Data for changing light intensity), projection mapping data, and the like, and combinations thereof.

また、「演出処理」とは、演出を発生させる処理を意味する。例えば、「演出処理」とは、音データを出力する処理、画像データや動画データを表示する処理、フィギュアを動作させる処理、ステージの照明を変化させる処理、プロジェクションマッピング処理等、及び、これらの組み合わせである。   Further, “effect processing” means processing for generating an effect. For example, the “production process” is a process of outputting sound data, a process of displaying image data or moving image data, a process of operating a figure, a process of changing the illumination of a stage, a projection mapping process, etc., and a combination thereof It is.

なお、プロジェクションマッピングとは、プロジェクタを使用して空間や物体に映像を投影し、重ね合わせた映像に様々な視覚効果を与える処理のことを示す。演出装置10のステージSTを投影対象にしてもよいし、ステージST及びステージSTに配置されたフィギュアも投影対象にしてもよい。   Note that projection mapping refers to a process of projecting an image on a space or an object using a projector and giving various visual effects to the superimposed image. The stage ST of the rendering device 10 may be the projection target, and the stage ST and the figure arranged on the stage ST may also be the projection target.

以下の説明においては、具体的に、演出装置10が、音データ(演出内容の一例)を、音出力部から音出力する処理(演出処理の一例)について説明する。本実施形態では、演
出装置10の記憶部170に予め音データを記憶しているものを出力してもよいし、サーバ20からネットワークを介して音データをダウンロードし、ダウンロードした音データを出力させるように制御してもよい。
In the following description, specifically, a process (an example of the effect process) in which the effect device 10 outputs sound data (an example of the effect content) from the sound output unit will be described. In the present embodiment, the sound data stored in advance in the storage unit 170 of the rendering device 10 may be output, or the sound data is downloaded from the server 20 via the network, and the downloaded sound data is output. You may control as follows.

4.2 種類に基づく演出処理
図14は、記憶部170(演出データベース172)に記憶される演出内容(例えば、音データ)の一例を示す。本実施形態では、音データを識別するための音ID、フィギュアの種類に対応付けて、音データを記憶する。
4.2 Effect Processing Based on Types FIG. 14 shows an example of effect contents (for example, sound data) stored in the storage unit 170 (effect database 172). In the present embodiment, the sound data is stored in association with the sound ID for identifying the sound data and the type of the figure.

例えば、演出装置10は、検出されたフィギュアの種類に基づいて、演出内容を演出データベース172から抽出して決定し、当該演出内容に基づいて演出する処理を行う。図14を用いて説明すると、演出装置10は、フィギュアFAを検出した場合に、フィギュアFAに対応する音データを決定し、決定された音データを音出力部(スピーカー)から出力する。例えば、音ID=1の音データが決定された場合に、音ID=1の音データ(フィギュアFAの「元気?」という音データ)を音出力部(スピーカー)から出力する。   For example, the effect device 10 extracts and determines the effect contents from the effect database 172 based on the type of the detected figure, and performs a process of effecting based on the effect contents. If it demonstrates using FIG. 14, when the production | presentation apparatus 10 detects figure FA, it will determine the sound data corresponding to figure FA, and will output the determined sound data from a sound output part (speaker). For example, when the sound data of sound ID = 1 is determined, the sound data of sound ID = 1 (the sound data of “FA” in FIG. FA) is output from the sound output unit (speaker).

なお、本実施形態では、フィギュアの性格を特徴づける会話を再現している。例えば、お宝やお金好きのキャラクタのフィギュアが、宝箱のフィギュアと隣接関係に配置されると、嬉しそうな会話が発生するようになり、プレーヤはフィギュアの性格を楽しむことができる。   In the present embodiment, the conversation characterizing the character of the figure is reproduced. For example, if a figure of a treasure or money-loving character is placed adjacent to the figure of the treasure box, a happy conversation will occur, and the player can enjoy the character of the figure.

また、本実施形態では、例えば、フィギュアの友人関係や仲良し度合いなどを考慮して、予め会話が考えられた音データを記憶している。したがって、仲のよいキャラクタ同士が隣同士にステージ上に配置されると、仲が良さそうな会話が発生することになり、プレーヤはフィギュアのキャラクタ同士の仲良し度合いを楽しむことができる。   In the present embodiment, for example, sound data in which conversation is considered in advance is stored in consideration of the friendship of the figure and the degree of friendship. Therefore, if close friends are arranged on the stage next to each other, a conversation that seems to be close will occur, and the player can enjoy the degree of closeness between the characters in the figure.

4.3 位置に基づいて、演出内容を決定する処理
演出装置10は、検出された複数のフィギュアそれぞれの種類及び位置に基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。つまり、演出装置10は、検出された複数のフィギュアの種類及び位置関係に基づいて、演出内容を決定してもよい。
4.3 Process for Determining Effect Content Based on Position The effect device 10 determines the effect content based on the type and position of each of the detected plurality of figures, and performs the process for producing the effect based on the effect content. You may go. That is, the rendering device 10 may determine the content of the rendering based on the detected types and positional relationships of the plurality of figures.

図15は、音データの他の例を示す。特に、図15の例では、複数のフィギュアの位置関係に対応付けられた音データの例である。   FIG. 15 shows another example of sound data. In particular, the example of FIG. 15 is an example of sound data associated with the positional relationship of a plurality of figures.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの位置関係が隣接関係にあるか否かを判定する。そして、フィギュアFA、FBの位置の位置関係が隣接関係である場合に、音ID=11の音データを決定し、音出力する。   For example, when the rendering device 10 detects the figure FA and the figure FB, it determines whether or not the positional relation between the figures FA and FB is adjacent. Then, when the positional relationship between the positions of the figures FA and FB is adjacent, the sound data of the sound ID = 11 is determined and the sound is output.

例えば、演出装置10は、音ID=11の音データ(フィギュアFAが「海がみたいな」、フィギュアFBが「見にいけば?」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 generates sound data of sound ID = 11 (sound data that reproduces a conversation in which the figure FA is “I want to see the sea” and the figure FB is “I want to see?”) From the sound output unit. Output.

このように、本実施形態では、キャラクタの位置関係が隣接関係になると、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。   As described above, in this embodiment, when the positional relationship between the characters becomes an adjacent relationship, variations in conversation increase, so that the player can enjoy the conversation of the figure.

なお、「位置関係」とは、検出された少なくとも2つのフィギュアの位置の相対的或いは絶対的な関係である。   The “positional relationship” is a relative or absolute relationship between the positions of at least two detected figures.

また、検出された少なくとも2つのフィギュアの位置関係が隣接関係にあるとは、例えば、検出された少なくとも2つのフィギュア間の距離が所定距離以内(例えば、フィギュアFA、フィギュアFBの距離が5センチ未満)であることを意味する。   Further, the positional relationship between at least two detected figures is adjacent, for example, the distance between at least two detected figures is within a predetermined distance (for example, the distance between the figures FA and FB is less than 5 cm) ).

また、「位置関係」は、隣接関係の他、離れている関係(検出された少なくとも2つのフィギュア間の距離が所定距離以上(例えば、フィギュアFA、フィギュアFBの距離が5センチ以上)、前後関係等がある。前後関係とは、一方のフィギュアがステージ正面側に配置され、他方のフィギュアがステージ背後側に配置されている関係を示す。   In addition, the “positional relationship” includes an adjacent relationship as well as a distant relationship (the distance between at least two detected figures is a predetermined distance or more (for example, the distance between the figure FA and the figure FB is 5 centimeters or more)) The anteroposterior relationship indicates a relationship in which one figure is arranged on the front side of the stage and the other figure is arranged on the back side of the stage.

また、演出装置10は、3体のフィギュアFA、FB、FCに応じた歌声の音データを発生させる場合に、真ん中(中央)の位置に配置されたフィギュアの種類に基づいて、発生させる音データを決定する。例えば、フィギュアFAが真ん中に配置された場合には、フィギュアFAの声優をメインボーカルにした音データを出力させ、フィギュアFBが真ん中に配置された場合には、フィギュアFBの声優をメインボーカルにした音データを出力させ、フィギュアFCが真ん中に配置された場合には、フィギュアFCの声優をメインボーカルにした音データを出力させる。   In addition, when the production apparatus 10 generates singing voice data corresponding to the three figures FA, FB, and FC, the sound data to be generated is based on the type of the figure arranged at the center (center) position. To decide. For example, when the figure FA is placed in the middle, sound data with the voice actor of the figure FA as the main vocal is output, and when the figure FB is placed in the middle, the voice actor of the figure FB is made the main vocal When the sound data is output and the figure FC is arranged in the middle, the sound data with the voice actor of the figure FC as the main vocal is output.

4.4 向きに基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアの向きに基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。例えば、演出装置10は、検出されたフィギュアの向きが所定方向(例えば、正面方向、背面方向、各フィギュアが互いに向き合う方向)であるか否かに応じて、演出内容を決める。
4.4 Process for Determining Effect Content Based on Direction The effect device 10 may perform the process of determining the effect content based on the detected orientation of the figure and producing the effect based on the effect content. For example, the rendering device 10 determines the content of the rendering depending on whether or not the direction of the detected figure is a predetermined direction (for example, the front direction, the back direction, and the direction in which each figure faces each other).

図16は、音データの他の例を示す。特に、図16の例では、フィギュアの向きに対応付けられた音データの例である。   FIG. 16 shows another example of sound data. In particular, the example of FIG. 16 is an example of sound data associated with the direction of the figure.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの向きが正面方向にあるか否かを判定する。そして、フィギュアFA、FBの向きが正面方向である場合に、音ID=21の音データを決定し、音出力する。   For example, when the rendering device 10 detects the figure FA and the figure FB, it determines whether or not the directions of the figures FA and FB are in the front direction. Then, when the directions of the figures FA and FB are the front direction, the sound data of the sound ID = 21 is determined and the sound is output.

なお、「正面方向」とは、演出装置10のステージSTで予め定めた正面の方向であり、演出装置10は、検出された各フィギュアの向きが、ステージSTで予め定めた正面方向を向いているか否かを判定する。   The “front direction” is the direction of the front determined in advance on the stage ST of the effect device 10, and the effect device 10 indicates that the direction of each detected figure faces the front direction determined in advance on the stage ST. It is determined whether or not.

例えば、音ID=21の音データが決定された場合に、演出装置10は、音ID=21の音データ(フィギュアFAが「ねえねえ」、フィギュアFBが「何?」という内容の会話を再現する音データ)を音出力部から出力する。   For example, when the sound data of sound ID = 21 is determined, the rendering device 10 reproduces the sound data of sound ID = 21 (the conversation with the content of “What is the figure FA is?” And “What is the figure FB?”) Sound data) to be output from the sound output unit.

このように、本実施形態では、キャラクタの向きに応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。   As described above, in this embodiment, the number of conversation variations increases according to the direction of the character, so that the player can enjoy the conversation of the figure.

4.5 姿勢状態に基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアそれぞれの姿勢状態に基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。
4.5 Process for Determining Effect Content Based on Attitude State The effect device 10 performs the process of determining the effect content based on the detected posture state of each figure and producing the effect based on the effect content. Also good.

ここで「姿勢状態」とは、直立状態、座っている状態か、横になっている状態等である。   Here, the “posture state” is an upright state, a sitting state, a lying state, or the like.

図17は、音データの他の例を示す。特に、図17の例では、フィギュアの姿勢状態に対応付けられた音データの例である。   FIG. 17 shows another example of sound data. In particular, the example of FIG. 17 is an example of sound data associated with the posture state of the figure.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの姿勢状態が直立状態にあるか否かを判定する。そして、フィギュアFA、FBの姿勢状態が直立状態である場合に、音ID=31の音データを決定し、音出力する。   For example, when the rendering device 10 detects the figure FA and the figure FB, it determines whether or not the posture state of the figures FA and FB is in an upright state. Then, when the posture states of the figures FA and FB are upright, the sound data of the sound ID = 31 is determined and the sound is output.

例えば、演出装置10は、音ID=31の音データ(フィギュアFAが「さあ出発だ」、フィギュアFBが「がんばろう」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 outputs sound data of sound ID = 31 (sound data that reproduces a conversation with the content that the figure FA is “Now Departure” and the figure FB is “Do your best”) from the sound output unit.

このように、本実施形態では、キャラクタの姿勢に応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。   Thus, in this embodiment, the number of conversation variations increases according to the character's posture, so that the player can enjoy the figure conversation.

なお、演出装置10は、検出されたフィギュアの高さが所定値以上か否かに基づいて、フィギュアが直立状態か否かを判断してもよいし、カメラによって撮影された撮影画像からフィギュアの姿勢状態を分析し、フィギュアの姿勢状態が直立状態であるか否かを判断してもよい。   The rendering device 10 may determine whether the figure is in an upright state based on whether the detected height of the figure is equal to or greater than a predetermined value, or from the photographed image photographed by the camera. The posture state may be analyzed to determine whether the posture state of the figure is an upright state.

4.6 フィギュアの高さに基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアそれぞれの高さに基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。
4.6 Process for Determining Effect Content Based on Figure Height The effect device 10 determines the effect content based on the detected height of each figure, and performs the process for producing the effect based on the effect content. You may go.

ここで「フィギュアの高さ」とは、ステージSTに配置されたフィギュアの当該ステージからの高さを意味する。   Here, “the height of the figure” means the height of the figure placed on the stage ST from the stage.

図18は、音データの他の例を示す。特に、図18の例では、フィギュアの高さに対応付けられた音データの例である。   FIG. 18 shows another example of sound data. In particular, the example of FIG. 18 is an example of sound data associated with the height of the figure.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの高さが所定値以上(10センチ以上)にあるか否かを判定する。そして、フィギュアFA、FBの高さが所定値以上である場合に、音ID=41の音データを決定し、音出力する。   For example, when the production device 10 detects the figure FA and the figure FB, it determines whether or not the height of the figures FA and FB is equal to or greater than a predetermined value (10 cm or more). Then, when the heights of the figures FA and FB are equal to or higher than a predetermined value, sound data of sound ID = 41 is determined and sound is output.

例えば、演出装置10は、音ID=41の音データ(フィギュアFAが「そろそろ何か歌う?」、フィギュアFBが「そうだね」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 outputs sound data with a sound ID = 41 (sound data that reproduces a conversation with the content that the figure FA is about to sing?) And the figure FB is “that is right” from the sound output unit. .

このように、本実施形態では、フィギュアの高さに応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。   Thus, in this embodiment, since the variation of conversation increases according to the height of the figure, the player can enjoy the conversation of the figure.

4.7 装着パーツの有無に基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアの装着パーツ(装備品、装備アイテム)の有無に基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。
4.7 Processing for determining production contents based on presence / absence of installed parts Production apparatus 10 determines production contents based on the presence / absence of detected figure mounting parts (equipment, equipment items), and the production You may perform the process which produces based on the content.

まず、演出装置10は、フィギュアの種類を検出する際に、あわせて装着パーツの有無を検出する。装着パーツの有無の検出手法は種々考えられる。   First, the rendering device 10 also detects the presence or absence of a mounted part when detecting the type of figure. Various methods for detecting the presence / absence of a mounted part are conceivable.

例えば、フィギュアを識別するために付されたマーカとして、装着パーツの有無を判別できるフィギュアIDを付与し、検出部162は検出したフィギュアIDを判別することによって、装着パーツの有無を検出する。   For example, as a marker attached to identify a figure, a figure ID that can determine the presence / absence of a mounted part is given, and the detection unit 162 detects the presence / absence of a mounted part by determining the detected figure ID.

具体的に説明すると、剣(装着パーツの一例)を所有するフィギュアFAのフィギュアIDをFA1とし、剣を所有しないフィギュアFAのフィギュアIDをFA2とすると、例えば、演出装置10が、フィギュアIDがFA1を検出した場合、剣の装着パーツを有するフィギュアFAを検出したと判定する。   More specifically, assuming that the figure ID of the figure FA that owns the sword (an example of a mounted part) is FA1, and the figure ID of the figure FA that does not own the sword is FA2, for example, the rendering device 10 has the figure ID FA1. Is detected, it is determined that a figure FA having a sword wearing part is detected.

図19は、音データの他の例を示す。特に、図19の例では、フィギュアの装着パーツの有無に対応付けられた音データの例である。   FIG. 19 shows another example of sound data. In particular, the example of FIG. 19 is an example of sound data associated with the presence / absence of a mounted part of a figure.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、各フィギュアの装着パーツの有無を判別し、フィギュアFAの装着パーツが有りの場合であって、かつ、フィギュアFBの装着パーツが有りの場合、音ID=51の音データを決定し、音出力する。   For example, when the production device 10 detects the figure FA and the figure FB, it determines the presence / absence of the attached parts of each figure, and the case where the attached parts of the figure FB are present. If there is, the sound data of sound ID = 51 is determined and the sound is output.

例えば、演出装置10は、音ID=51の音データ(フィギュアFAが「装備品は何?」、フィギュアFBが「剣だよ」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 outputs sound data of sound ID = 51 (sound data that reproduces a conversation in which the figure FA is “What is the equipment?” And the figure FB is “Sword”) from the sound output unit. To do.

このように、本実施形態では、フィギュアの装着パーツの有無に応じて、会話のバリエーションが増えるので、プレーヤは装着パーツの有無に応じてフィギュアを収集しようとする意欲が高まり、また、装着パーツの有無に応じた会話を楽しむことができる。   As described above, in this embodiment, the number of conversations increases depending on the presence / absence of the attached parts of the figure, so that the player is more motivated to collect the figures depending on the presence / absence of the attached parts. You can enjoy conversations according to your presence or absence.

なお、演出装置10は、フィギュアと装着パーツの電気接点によって装着パーツの有無を検出するものであってもよい。   In addition, the rendering device 10 may detect the presence or absence of a mounting part by an electrical contact between the figure and the mounting part.

4.8 装着パーツの種類に基づいて、演出内容を決定する処理
演出装置10は、フィギュアが装着パーツを有する場合には、装着パーツの種類に基づいて、演出内容を決定してもよい。
4.8 Processing for Determining Effect Content Based on Type of Mounted Part When the figure has a mounted part, the effect device 10 may determine the effect content based on the type of mounted part.

まず、演出装置10は、装着パーツが有るフィギュアについて、更に装着パーツの種類を判別する。装着パーツの種類の検出手法は種々考えられる。   First, the rendering device 10 further determines the type of the mounted part for the figure having the mounted part. Various methods for detecting the type of mounted part are conceivable.

例えば、フィギュアを識別するために付されたマーカとして、装着パーツの有無及び種類を判別できるフィギュアIDを付与し、検出部162は検出したフィギュアIDを判別することによって、装着パーツの有無及び種類を検出する。   For example, as a marker attached to identify a figure, a figure ID that can determine the presence and type of a mounting part is given, and the detection unit 162 determines the presence and type of the mounting part by determining the detected figure ID. To detect.

具体的に説明すると、剣(装着パーツの一例)を所有するフィギュアFAのフィギュアIDをFA1Aとし、盾(装着パーツの一例)を所有するフィギュアFAのフィギュアIDをFA1Bとすると、例えば、演出装置10が、フィギュアIDがFA1Aを検出した場合、剣の装着パーツを有するフィギュアFAを検出したと判定する。   More specifically, if the figure ID of the figure FA that owns the sword (an example of the attached part) is FA1A, and the figure ID of the figure FA that owns the shield (an example of the attached part) is FA1B, for example, the production device 10 However, when the figure ID detects FA1A, it is determined that a figure FA having a sword-mounted part is detected.

図20は、音データの他の例を示す。特に、図20の例では、フィギュアの装着パーツの種類に対応付けられた音データの例である。   FIG. 20 shows another example of sound data. In particular, the example of FIG. 20 is an example of sound data associated with the type of the parts mounted on the figure.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、各フィギュアの装着パーツの有無を判別し、装着パーツを有する場合に更に装着パーツの種類を判別する。つまり、フィギュアFAの装着パーツが有りで「剣」の場合であって、かつ、フィギュアFBの装着パーツが有りで「盾」の場合、音ID=61の音データを決定し、音出力する。   For example, when the production device 10 detects the figure FA and the figure FB, it determines the presence / absence of a mounted part of each figure, and further determines the type of the mounted part when it has the mounted part. That is, in the case where there is a mounting part of the figure FA and “sword”, and there is a mounting part of the figure FB and “shield”, the sound data of sound ID = 61 is determined and the sound is output.

例えば、演出装置10は、音ID=61の音データ(フィギュアFAが「この剣はすばらしいだろう」、フィギュアFBが「この盾にはかなわないだろう」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 has sound data of sound ID = 61 (sound data that reproduces a conversation in which the figure FA is “This sword will be wonderful” and the figure FB is “it will not be suitable for this shield”) Is output from the sound output unit.

このように、本実施形態では、フィギュアが装着パーツを有する場合、装着パーツの種類に応じて、会話のバリエーションが増えるので、プレーヤは装着パーツの種類に応じてフィギュアを収集しようとする意欲が高まり、また、装着パーツの種類に応じた会話を楽しむことができる。   As described above, in the present embodiment, when the figure has a mounting part, the number of conversations increases according to the type of the mounting part, so the player is more motivated to collect the figure according to the type of the mounting part. In addition, you can enjoy conversations according to the type of installed parts.

4.9 配置状態の継続時間に基づいて、演出内容を決定する処理
演出装置10は、フィギュアがステージに配置された時点から、配置状態の継続時間を計時するようにし、配置状態の継続時間に基づいて、演出内容を決定する処理を行ってもよい。
4.9 Process for Determining Production Content Based on Duration of Arrangement State The production device 10 measures the duration of the arrangement state from the time when the figure is arranged on the stage, and sets the duration of the arrangement state. Based on this, processing for determining the production contents may be performed.

ここで、配置状態の継続時間とは、フィギュアがステージに配置された状態の維持期間(配置状態が変化しない期間)である。例えば、ステージ上のフィギュアの種類、位置、向き、姿勢状態、高さ、装着パーツの有無、装着パーツの種類の少なくとも1つが変化した場合に、配置状態が変化したと判定する。   Here, the duration of the arrangement state is a maintenance period (a period in which the arrangement state does not change) of the state where the figure is arranged on the stage. For example, it is determined that the arrangement state has changed when at least one of the type, position, orientation, posture state, height, presence / absence of a mounting part, and type of mounting part on the stage has changed.

演出装置10は、配置状態の継続時間の長さに応じて発生させる音データを用意してもよい。   The rendering device 10 may prepare sound data to be generated according to the duration of the arrangement state.

図21は、音データの他の例を示す。特に、図21の例では、フィギュアがステージに配置された時点からの配置状態の継続時間に対応付けられた音データの例である。   FIG. 21 shows another example of sound data. In particular, the example of FIG. 21 is an example of sound data associated with the duration of the arrangement state from the time when the figure is arranged on the stage.

例えば、図22に示すように、演出装置10のステージSTに、タイミングT1でフィギュアFAが位置P1に配置されると配置状態の継続時間の計時を開始する。タイミングT2でフィギュアFBが位置P2に配置されたとすると、配置状態の継続時間が0にリセットされ、配置状態の継続時間の計時を開始する。   For example, as shown in FIG. 22, when the figure FA is arranged at the position P <b> 1 at the timing T <b> 1 on the stage ST of the effect device 10, the measurement of the duration time of the arrangement state is started. If the figure FB is arranged at the position P2 at the timing T2, the arrangement state duration time is reset to 0, and the arrangement state duration time is started.

例えば、タイミングT2からの配置状態の継続時間が所定期間(例えば、10分)経過したタイミングT3に、配置状態の継続時間が10分経過したときの音ID=71の音データを決定し、音ID=71の音データを音出力する。   For example, the sound data of sound ID = 71 when the duration of the arrangement state has elapsed for 10 minutes is determined at timing T3 when the duration of the arrangement state from the timing T2 has elapsed for a predetermined period (for example, 10 minutes). Sound data with ID = 71 is output as sound.

例えば、演出装置10は、音ID=71の音データ(フィギュアFAが「あなた以外に誰かいないの?」、フィギュアFBが「誰か来ないかな」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 outputs sound data of sound ID = 71 (sound data that reproduces a conversation with the content that the figure FA is “no one other than you?” And the figure FB is “someone will come”). Part.

そして、タイミングT4でフィギュアFCが位置P3に配置されると、配置状態の継続時間が0にリセットされ、配置状態の継続時間の計時を開始する。   Then, when the figure FC is arranged at the position P3 at the timing T4, the arrangement state duration time is reset to 0, and the arrangement state duration time is started.

このように、本実施形態では、配置状態の継続時間に応じて、会話のバリエーションが増えるので、プレーヤは配置状態の継続時間に応じた会話を楽しむことができる。   As described above, in this embodiment, the variation of the conversation increases according to the duration of the arrangement state, so that the player can enjoy the conversation according to the duration of the arrangement state.

4.10 ステージの種類に基づいて、演出内容を決定する処理
本実施形態では、背景画、大きさ、形状、色等、種々異なる複数のステージを予め用意し、ステージの種類(ステージを識別するためのステージID)に応じて演出内容を決定してもよい。
4.10 Processing for Determining Production Contents Based on Stage Type In this embodiment, a plurality of different stages such as background images, sizes, shapes, and colors are prepared in advance, and the stage type (stage is identified) The stage contents may be determined according to the stage ID).

例えば、演出装置10はステージの種類に基づいて音データを決定し、当該音データを
音出力部から出力してもよい。
For example, the rendering device 10 may determine sound data based on the type of stage and output the sound data from the sound output unit.

また、演出装置10は、複数のステージを連結可能とし、複数のステージが連結されているか否かに基づいて、音データを決定し、当該音データを音出力部から出力してもよい。なお、演出装置10は、特定のステージでしか発生しない音を発生させるようにしてもよい。   Further, the rendering device 10 may connect a plurality of stages, determine sound data based on whether or not the plurality of stages are connected, and output the sound data from the sound output unit. The rendering device 10 may generate a sound that is generated only at a specific stage.

4.11 フィギュアが、キャラクタではなく道具等である場合
本実施形態のフィギュアはキャラクタに限らず、食べ物の模型、大道具(例えば、立木などの障害物)、小道具(例えば、調理器具、こたつ、座卓、麻雀卓などの家具、テレビ、掃除機などの家電)も存在する。
4.11 When the figure is not a character but a tool, etc. The figure of this embodiment is not limited to a character, but a food model, a large tool (for example, an obstacle such as a standing tree), a small tool (for example, a cooking utensil, a kotatsu, There are also furniture such as table and mahjong table, and home appliances such as TV and vacuum cleaner).

例えば、演出装置10の検出部162は、大道具や小道具のフィギュアそれぞれのフィギュアの種類(ID)を検出しているが、フィギュアの種類が小道具等である場合には、キャラクタのフィギュアの台詞を発生させる音データを音出力部から出力する。   For example, the detection unit 162 of the rendering device 10 detects the figure type (ID) of each figure of the props and props, but if the figure type is a prop or the like, the dialogue of the character figure is displayed. The sound data to be generated is output from the sound output unit.

例えば、演出装置10が検出したフィギュアFXがご飯の模型のフィギュアであり、フィギュアFAがキャラクタである場合には、フィギュアFAが「わーい。いただきます。」という音データを決定し、当該音データを音出力する。   For example, if the figure FX detected by the stage device 10 is a rice model figure and the figure FA is a character, the figure FA determines sound data “Wow. Output sound.

4.12 明るさ、色、温度、湿度
演出装置10は、周囲の明るさ、色、温度、湿度などの情報の少なくとも1つに応じて音データを決定し、当該音データを音出力部から出力してもよい。
4.12 Brightness, Color, Temperature, Humidity The rendering device 10 determines sound data according to at least one of information such as ambient brightness, color, temperature, humidity, and the like, and sends the sound data from the sound output unit. It may be output.

例えば、演出装置10に照度センサが備えられている場合には、明るさの変化があったタイミングで、明るさの変化に対応する音データを決定し、当該音データを音出力してもよい。例えば、所定期間内(例えば、5秒以内)に、所定値以上の照度が明るくなる変化量を検知した場合に、フィギュアFAが「まぶしい」という会話の音データを発生させる。   For example, when the effect device 10 includes an illuminance sensor, sound data corresponding to the change in brightness may be determined and the sound data may be output at a timing when the brightness has changed. . For example, when the amount of change in which the illuminance greater than or equal to a predetermined value is detected within a predetermined period (for example, within 5 seconds), the sound data of the conversation that the figure FA is “dazzling” is generated.

4.13 時間、曜日、カレンダー情報等
演出装置10は、時間、曜日、カレンダー情報の少なくとも一つに応じて音データを決定し、当該音データを音出力部から出力してもよい。
4.13 Time, Day of Week, Calendar Information, etc. The rendering device 10 may determine sound data according to at least one of time, day of the week, and calendar information, and output the sound data from the sound output unit.

例えば、毎週日曜日の特定の時間帯(例えば、午前8時)に放映されるキャラクタが登場するフィギュアの種類を検出した場合において、テレビ番組が放映されると、放映後(例えば、8時30分に放映終了する場合には、8時30分以降に)、番組の内容に応じてフィギュアの感情やフィギュア同士の人間性が変わるように、音データを変化させる。例えば、危機的状態で番組放映が終了した場合、フィギュア同士が、シリアスな会話のみ発生するようにする。例えば、演出装置10は、変更された新たな音データを、音IDに対応づけてサーバ20からダウンロードし、演出データベース172に格納する。   For example, in the case where the type of figure in which a character to be broadcasted on a specific time zone (for example, 8:00 am) is detected every Sunday is detected, when a television program is broadcasted, for example, after the broadcast (for example, 8:30) When the broadcast ends, after 8:30), the sound data is changed so that the emotions of the figures and the human nature of the figures change according to the contents of the program. For example, when a program broadcast ends in a critical state, only serious conversations occur between figures. For example, the effect device 10 downloads the changed new sound data from the server 20 in association with the sound ID, and stores it in the effect database 172.

4.14 インターネットからの情報(天気情報、金融情報など)
本実施形態の演出装置10は、インターネットからの情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。インターネットからの情報に基づいて音データを決定するとは、具体的には、インターネットからの情報である文章を音声に変換することである。
4.14 Information from the Internet (weather information, financial information, etc.)
The rendering device 10 of the present embodiment may determine sound data based on information from the Internet and output the sound data from the sound output unit. Specifically, sound data is determined based on information from the Internet is to convert a sentence, which is information from the Internet, into speech.

例えば、演出装置10や、演出装置10に連動する端末30において、予めインターネットからの情報を所定のタイミング(例えば、毎日7時)に取得し、インターネットから
の情報に基づく音データを出力する設定を行う。
For example, in the production device 10 and the terminal 30 linked to the production device 10, information is acquired in advance from the Internet at a predetermined timing (for example, 7 o'clock every day), and sound data based on the information from the Internet is output. Do.

例えば、インターネットからの情報とは、天気情報(現在の天気、天気予報、地震速報等)、金融情報(日経平均株価、為替情報等)、ニュース情報等である。   For example, information from the Internet includes weather information (current weather, weather forecast, earthquake early warning, etc.), financial information (Nikkei average stock price, currency exchange information, etc.), news information, and the like.

演出装置10は、ネットワークを介して天気情報を、情報配信サーバに問い合わせ(要求し)、天気情報を受信する。そして、演出装置10は、天気情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。例えば、演出装置10は、受信した天気情報の文章を音声に変換し、当該変換された音声データを出力する。   The rendering device 10 inquires (requests) weather information from the information distribution server via the network, and receives the weather information. And the production | presentation apparatus 10 may determine sound data based on weather information, and may output the said sound data from a sound output part. For example, the rendering device 10 converts a sentence of received weather information into voice and outputs the converted voice data.

また、演出装置10は、ネットワークを介して金融情報を、情報配信サーバに問い合わせ(要求し)、金融情報を受信する。そして、演出装置10は、金融情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。例えば、演出装置10は、受信した金融情報の文章を音声に変換し、当該変換された音声データを出力する。   In addition, the rendering device 10 inquires (requests) financial information from the information distribution server via the network, and receives the financial information. And the production | presentation apparatus 10 may determine sound data based on financial information, and may output the said sound data from a sound output part. For example, the rendering device 10 converts a sentence of the received financial information into a voice and outputs the converted voice data.

また、演出装置10は、例えば、お金が好きなキャラクタは日経平均株価の変動によって機嫌が変わるように、音データを決定してもよい。例えば、日経平均株価が上昇傾向にあるときの音データと、日経平均株価が下降傾向にあるときの音データの2種類を予め用意する。そして、演出装置10は、直近の1つの日経平均株価を比較し、上昇傾向にあるか下降傾向にあるかを判定し、判定結果に応じて音データを決定する。例えば、日経平均株価が上昇傾向にあるときは、「今日は日経平均株価があがったよ。うれしい」というような音データを出力し、日経平均株価が下降傾向にあるときは、「なんか気分が落ち込むな」というような音データを出力するように制御してもよい。   In addition, the rendering device 10 may determine the sound data so that, for example, a character who likes money changes his / her mood due to changes in the Nikkei Stock Average. For example, two types of sound data are prepared in advance: a sound data when the Nikkei average stock price is on an upward trend, and a sound data when the Nikkei average stock price is on a downward trend. Then, the rendering device 10 compares the most recent Nikkei average stock price, determines whether it is in an upward trend or a downward trend, and determines sound data according to the determination result. For example, when the Nikkei average stock price is on the rise, sound data such as “Nikkei average stock price has risen today. I am happy” is output, and when the Nikkei average stock price is on the downtrend, “I feel depressed. It may be controlled to output sound data such as “N”.

なお、サーバ20が、天気情報や金融情報を情報配信サーバに問い合わせ、天気情報や金融情報を受信してサーバ20の記憶部に記憶し、演出装置10が、天気情報や金融情報を、サーバ20に問い合わせて、天気情報や金融情報を受信してもよい。   The server 20 inquires weather information and financial information to the information distribution server, receives the weather information and financial information, stores them in the storage unit of the server 20, and the rendering device 10 receives the weather information and financial information from the server 20 To receive weather information and financial information.

そして、演出装置10は、天気情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。   And the production | presentation apparatus 10 may determine sound data based on weather information, and may output the said sound data from a sound output part.

4.15 端末30との連動
本実施形態では、プレーヤの端末30に、演出装置10と連動する演出アプリケーションをインストール可能とする。端末30は、当該演出アプリケーションで、プレーヤの行動履歴を演出装置10やサーバ20に送信し、演出装置10は、行動履歴に基づいて、演出処理を行ってもよい。
4.15 Interlocking with Terminal 30 In this embodiment, it is possible to install an effect application that is interlocked with the effect device 10 on the terminal 30 of the player. The terminal 30 may transmit the action history of the player to the effect device 10 or the server 20 using the effect application, and the effect device 10 may perform effect processing based on the action history.

例えば、演出装置10は、プレーヤの行動履歴に、大阪への移動が存在する場合には、フィギュアFAが「大阪楽しかった?」という会話の音データを決定し、音出力させる。   For example, when there is a move to Osaka in the player's action history, the rendering device 10 determines the sound data of the conversation that the figure FA “is Osaka fun?” And outputs the sound.

4.16 課金情報に基づいて、音データを決定する手法
本実施形態の演出装置10は、サーバ20(あるいは課金サーバ)から、課金情報(例えば、プレーヤが課金した額、ネットショップでの購入履歴)を受信し、当該課金情報に基づいて音データを決定し、決定された音データを音出力してもよい。例えば、プレーヤが所定額以上の購入があった場合には、特別な音データを出力するようにしてもよい。
4.16 Method for Determining Sound Data Based on Billing Information The rendering device 10 of the present embodiment receives billing information (for example, the amount billed by the player, purchase history at the net shop) from the server 20 (or billing server). ) May be received, sound data may be determined based on the billing information, and the determined sound data may be output as a sound. For example, special sound data may be output when the player purchases a predetermined amount or more.

4.17 他の演出装置からの影響
本実施形態の演出装置10は、複数の演出装置10が連結している場合や、複数の演出装置10が相互にネットワークを介して接続されている場合には、一方の演出装置10の音データに基づいて、他方の演出装置10の音データを決定してもよい。
4.17 Effects from other rendering devices The rendering device 10 of the present embodiment is used when a plurality of rendering devices 10 are connected or when a plurality of rendering devices 10 are connected to each other via a network. May determine the sound data of the other effect device 10 based on the sound data of the one effect device 10.

例えば、1体のフィギュアを配置可能な演出装置10があった場合において、5体のフィギュアが揃った場合、つまり、5つの演出装置10が揃った場合に、5つの演出装置10が連結し、相互にネットワークを介して同期させ、同じタイミングで、同じ音データ(例えば、5つの演出装置10が連結されたときに発生可能な音データ)を出力させるようにしてもよい。   For example, in the case where there is a production device 10 that can arrange one figure, when five figures are prepared, that is, when five production devices 10 are arranged, the five production devices 10 are connected, They may be synchronized with each other via a network, and the same sound data (for example, sound data that can be generated when five effect devices 10 are connected) may be output at the same timing.

また、第1の演出装置10と、第2の演出装置10と2つが連結することを条件に発生可能な音データが存在していてもよい。   In addition, sound data that can be generated on condition that the first effect device 10 and the second effect device 10 are connected to each other may exist.

4.18 GPS座標に基づいて、音データを決定する手法
本実施形態の演出装置10は、端末30のGPS座標に基づいて、音データを決めても良い。なお、GPSは、Global positioning Systemの略である。
4.18 Method of Determining Sound Data Based on GPS Coordinates The rendering device 10 of the present embodiment may determine sound data based on the GPS coordinates of the terminal 30. GPS is an abbreviation for Global positioning System.

例えば、予め標準語音データ、関西弁音データ、等、の種別毎に音データを用意する。そして、演出装置10は、端末30のGPS座標を受信し、当該GPS座標に基づき、端末10が標準語圏に属するのか、或いは、関西圏に属するのかを判定する。例えば、演出装置10は、端末30が関西圏に属すると判定した場合、関西弁音データを出力するように制御する。   For example, sound data is prepared in advance for each type of standard speech sound data, Kansai dialect data, and the like. Then, the rendering device 10 receives the GPS coordinates of the terminal 30, and determines whether the terminal 10 belongs to the standard language area or the Kansai area based on the GPS coordinates. For example, when it is determined that the terminal 30 belongs to the Kansai area, the rendering device 10 performs control so that Kansai dialect data is output.

4.19 特定の音データの発生
本実施形態の演出装置10は、特定の音データを出力したことを条件に、新たな音データをサーバ20からダウンロードするようにしてもよい。
4.19 Generation of Specific Sound Data The rendering device 10 according to the present embodiment may download new sound data from the server 20 on the condition that specific sound data is output.

例えば、演出装置10が、音ID=100の音データを出力した場合に、サーバ20に新たな音データを要求する。サーバ20は、演出装置10から新たな音データの要求を受信すると、新たな音データを演出装置10に送信する。   For example, when the rendering device 10 outputs sound data with a sound ID = 100, it requests new sound data from the server 20. When the server 20 receives a request for new sound data from the effect device 10, the server 20 transmits new sound data to the effect device 10.

演出装置10は、新たな音データを受信し、当該音データを記憶部170(演出データベース172)追加して記憶する。   The effect device 10 receives new sound data, and stores the sound data by adding the storage unit 170 (effect database 172).

このようにすれば、新たな音データが追加登録を期待しながら、プレーヤは特定の音データを出力させるために、フィギュアの位置や向き、種類を変更する等を考えながら楽しむことができる。   In this way, the player can enjoy new sound data while considering changing the position, orientation, and type of the figure in order to output specific sound data while expecting additional registration.

4.20 フィギュアの視野範囲に基づく制御
演出装置10は、複数のフィギュアを検出した場合に、フィギュア毎に、フィギュアの視野範囲を設定し、一のフィギュアの視野範囲に他のフィギュアが属するかを判定する。そして、演出装置10は、一のフィギュアの視野範囲に他のフィギュアが属するか否かに基づいて、音データを決定し、出力するようにしてもよい。
4.20 Control based on the field of view of a figure When the rendering device 10 detects a plurality of figures, it sets the field of view of the figure for each figure, and determines whether another figure belongs to the field of view of one figure. judge. Then, the rendering device 10 may determine and output sound data based on whether another figure belongs to the visual field range of one figure.

例えば、図23は、演出装置10のステージSTの真上から見たときのフィギュアFAの位置P1及び視線方向CVA、視野範囲CFA、及び、フィギュアFBの位置P2、視線方向CVB、視野範囲CFBを示す。   For example, FIG. 23 shows the position P1 and the line-of-sight direction CVA, the visual field range CFA, and the position P2, the line-of-sight direction CVB, and the visual field range CFB of the figure FB when viewed from directly above the stage ST of the rendering device 10. Show.

例えば、演出装置10は、フィギュアFAの向きの方向を視線方向CVAとし、当該視線方向CVAに基づき、位置P1を頂点とする三角形の視野範囲CFAを設定する。また、演出装置10は、フィギュアFBの向きの方向を視線方向CVBとし、当該視線方向CVBに基づき、位置P2を頂点とする三角形の視野範囲CFBを設定する。   For example, the rendering device 10 sets the direction of the figure FA as the line-of-sight direction CVA, and sets a triangular visual field range CFA with the position P1 as a vertex based on the line-of-sight direction CVA. Further, the rendering device 10 sets the direction of the figure FB as the line-of-sight direction CVB, and sets a triangular visual field range CFB having the position P2 as a vertex based on the line-of-sight direction CVB.

そして、演出装置10は、フィギュアFAの視野範囲CFAに、フィギュアFBが属するか否かを判定し、フィギュアFBの視野範囲CFBに、フィギュアFAが属するか否かを判定する。例えば、図23の例では、フィギュアFAの視野範囲CFAに、フィギュアFBの位置P2が位置しているので、フィギュアFAの視野範囲CFAに、フィギュアFBが属すると判定し、フィギュアFBの視野範囲CFBに、フィギュアFAの位置P1が位置していないので、フィギュアFBの視野範囲CFBに、フィギュアFAが属していないと判定する。   Then, the rendering device 10 determines whether the figure FB belongs to the visual field range CFA of the figure FA, and determines whether the figure FA belongs to the visual field range CFB of the figure FB. For example, in the example of FIG. 23, since the position P2 of the figure FB is located in the visual field range CFA of the figure FA, it is determined that the figure FB belongs to the visual field range CFA of the figure FA, and the visual field range CFB of the figure FB Since the position P1 of the figure FA is not located, it is determined that the figure FA does not belong to the visual field range CFB of the figure FB.

図24は、音データの他の例を示す。特に、図24の例では、フィギュアの視野範囲に属するか否かに基づいて対応付けられた音データの例である。   FIG. 24 shows another example of sound data. In particular, the example of FIG. 24 is an example of sound data associated with each other based on whether or not it belongs to the visual field range of the figure.

例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFAの視野範囲CFAに、フィギュアFBが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFAが属する場合に、音ID=81の音データを決定し、音出力する。   For example, when the production device 10 detects the figure FA and the figure FB, the figure FB belongs to the visual field range CFA of the figure FA, and the figure FA belongs to the visual field range CFB of the figure FB. Sound data of sound ID = 81 is determined and a sound is output.

例えば、演出装置10は、音ID=81の音データ(フィギュアFAが「今日どこいく?」、フィギュアFBが「遊園地はどう?」という内容の会話を再現する音データ)を音出力部から出力する。なお、各フィギュアが、相手の視野範囲に属する場合、お互いに対等な会話が再現できるように音データを予め決める。   For example, the rendering device 10 outputs sound data of sound ID = 81 (sound data that reproduces a conversation with the content “Figure FA is“ Where are you going today? ”And FIG. FB is“ How is an amusement park? ”From the sound output unit. To do. In addition, when each figure belongs to the other party's visual field range, sound data is determined in advance so that an equivalent conversation can be reproduced.

また、例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、図23に示すように、フィギュアFAの視野範囲CFAに、フィギュアFBが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFAが属していない場合に、音ID=82の音データを決定し、音出力する。   Further, for example, when the production device 10 detects the figure FA and the figure FB, as shown in FIG. 23, the figure device FB belongs to the field of view CFA of the figure FA, and the field of view CFB of the figure FB If the figure FA does not belong, sound data of sound ID = 82 is determined and sound is output.

例えば、演出装置10は、音ID=82の音データ(フィギュアFAが「仲間だろうが」という内容の会話を再現する音データ)を音出力部から出力する。なお、一方のフィギュアの視野範囲に他方のフィギュアは属するが、他方のフィギュアの視野範囲に一方のフィギュアが属さない場合、一方のフィギュアが一方的に話しかけるような音データを予め決める。   For example, the rendering device 10 outputs sound data with a sound ID = 82 (sound data that reproduces a conversation with the content that the figure FA is “a friend”) from the sound output unit. When the other figure belongs to the visual field range of one figure but one figure does not belong to the visual field range of the other figure, sound data that one figure speaks unilaterally is determined in advance.

このように、本実施形態では、フィギュアの視野範囲に応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。   In this way, in this embodiment, the variation of conversation increases according to the visual field range of the figure, so that the player can enjoy the conversation of the figure.

また、演出装置10は、フィギュアの視線方向は、フィギュアの向きの方向に限らない。例えば、演出装置10において、フィギュアの目の方向に応じて当該フィギュアの視線方向を定めてもよい。そして、演出装置10は、フィギュアの視線方向に基づいて視野範囲を設定し、視野範囲に基づいて音データを決定し、出力するようにしてもよい。   Further, in the rendering device 10, the direction of the line of sight of the figure is not limited to the direction of the figure. For example, in the rendering device 10, the line-of-sight direction of the figure may be determined according to the direction of the eyes of the figure. Then, the rendering device 10 may set a visual field range based on the visual line direction of the figure, determine sound data based on the visual field range, and output the sound data.

例えば、図25(A)に示すように、フィギュアFAの目の方向が正面を向いている場合には、フィギュアFAの向きPVAに、フィギュアFAの視線方向CVAを設定する。   For example, as shown in FIG. 25A, when the eye direction of the figure FA faces the front, the line-of-sight direction CVA of the figure FA is set to the direction PVA of the figure FA.

また、図25(B)に示すように、フィギュアFAの目の方向が正面から見て左方向を向いている場合には、フィギュアFAを正面から見て左方向に、フィギュアFAの視線方向CVAを設定する。つまり、フィギュアFAの向きPVAとは異なる方向(PVAから左方向にずれた方向)に、視線方向CVAを設定する。   Also, as shown in FIG. 25B, when the eye direction of the figure FA is facing left when viewed from the front, the line-of-sight direction CVA of the figure FA is left when viewing the figure FA from the front. Set. That is, the line-of-sight direction CVA is set in a direction different from the direction PVA of the figure FA (a direction shifted to the left from the PVA).

また、図25(C)に示すように、フィギュアFAの目の方向が正面から見て右方向を向いている場合には、フィギュアFAを正面から見て右方向に、フィギュアFAの視線方
向CVAを設定する。つまり、フィギュアFAの向きPVAとは異なる方向(PVAから右方向にずれた方向)に、視線方向CVAを設定する。
Also, as shown in FIG. 25C, when the eye direction of the figure FA is facing the right direction when viewed from the front, the line-of-sight direction CVA of the figure FA is the right direction when viewing the figure FA from the front. Set. That is, the line-of-sight direction CVA is set in a direction different from the direction PVA of the figure FA (a direction shifted rightward from the PVA).

また、図25(D)に示すように、フィギュアFAの目が閉じられている場合には、フィギュアFAを正面から見て反対方向に、フィギュアFAの視線方向CVAを設定する。つまり、フィギュアFAの向きPVAとは異なる方向(PVAから反対方向にずれた方向)に、視線方向CVAを設定する。   Further, as shown in FIG. 25D, when the eyes of the figure FA are closed, the line-of-sight direction CVA of the figure FA is set in the opposite direction when the figure FA is viewed from the front. That is, the line-of-sight direction CVA is set in a direction different from the direction PVA of the figure FA (direction shifted from the PVA in the opposite direction).

演出装置が、視線方向を検出する手法は種々考えられる。例えば、フィギュアを識別するために付されたマーカとして、視線方向を判別できるフィギュアIDを付与し、検出部162は検出したフィギュアIDを判別することによって、フィギュアの視線方向を検出してもよいし、演出装置10が備えるカメラによって撮影された撮影画像に基づきフィギュアの目の位置を特定し、フィギュアの視線方向を設定してもよい。   There are various ways in which the stage device can detect the line-of-sight direction. For example, a figure ID that can determine the line-of-sight direction is given as a marker attached to identify the figure, and the detection unit 162 may detect the line-of-sight direction of the figure by determining the detected figure ID. The eye position of the figure may be specified based on a photographed image photographed by a camera included in the rendering device 10, and the line-of-sight direction of the figure may be set.

例えば、図26は、演出装置10のステージSTの真上から見たときのフィギュアFAの位置P1及び視線方向CVA、視野範囲CFAを示し、フィギュアFBの位置P2及び視線方向CVB、視野範囲CFB、フィギュアFCの位置P3及び視線方向CVC、視野範囲CFCを示す。   For example, FIG. 26 shows the position P1 and the line-of-sight direction CVA and the visual field range CFA of the figure FA when viewed from directly above the stage ST of the rendering device 10, and the position P2 and the line-of-sight direction CVB of the figure FB, the visual field range CFB, A position P3, a line-of-sight direction CVC, and a visual field range CFC of the figure FC are shown.

そして、演出装置10は、各フィギュアFA、FB、FCそれぞれの視野範囲に、他のフィギュアが属するか否かを判定する。   Then, the rendering device 10 determines whether another figure belongs to the visual field range of each of the figures FA, FB, and FC.

例えば、図26に示すように、フィギュアFAが正面を向いていても、視線方向が後方である場合に、フィギュアFAの視野範囲CFAに、フィギュアFBの及びフィギュアFCが属する。このように、フィギュアFAの視野範囲CFAに、フィギュアFBの及びフィギュアFCが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFAが属する場合、かつ、フィギュアFCの視野範囲CFBに、フィギュアFAが属する場合に、音ID=83の音データを決定し、音出力する。   For example, as shown in FIG. 26, even if the figure FA faces the front, the figure FB and the figure FC belong to the visual field range CFA of the figure FA when the line-of-sight direction is the rear. Thus, the figure FA and the figure FC belong to the visual field range CFA of the figure FA, the figure FA belongs to the visual field range CFB, and the figure FA belongs to the visual field range CFB. When FA belongs, sound data of sound ID = 83 is determined and sound is output.

例えば、演出装置10は、音ID=83の音データ(フィギュアFAが「こっちも色々背負ってるんだ!」という内容の会話を再現する音データ)を音出力部から出力する。例えば、フィギュアFAの話を、フィギュアFB、FCが聞くような会話を再現する。   For example, the rendering device 10 outputs sound data with a sound ID = 83 (sound data that reproduces a conversation with the content that the figure FA is carrying variously!) From the sound output unit. For example, the story of the figure FA is reproduced such that the figures FB and FC hear.

また、例えば、図27に示すように、フィギュアFAの視野範囲CFAに、フィギュアFB及びフィギュアFCが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFA及びフィギュアFCが属する場合、かつ、フィギュアFCの視野範囲CFBに、フィギュアFAが属する場合に、音ID=84の音データを決定し、音出力する。   Further, for example, as shown in FIG. 27, when the figure FB and the figure FC belong to the visual field range CFA of the figure FA, and when the figure FA and the figure FC belong to the visual field range CFB of the figure FB, When the figure FA belongs to the visual field range CFB of the figure FC, the sound data of the sound ID = 84 is determined and the sound is output.

例えば、演出装置10は、例えば、フィギュアFCが、フィギュアFBの視界を邪魔する配置にすると、フィギュアFCがフィギュアFBをかばうような会話を再現する。たとえば、音ID=84の音データ(フィギュアFAが「FBがやったんだろう」、フィギュアFCが「違うよ。俺がやったんだ」という内容の会話を再現する音データ)を音出力部から出力する。   For example, the rendering device 10 reproduces a conversation in which the figure FC covers the figure FB, for example, when the figure FC is arranged to interfere with the view of the figure FB. For example, sound data of sound ID = 84 (sound data that reproduces a conversation with the content that the figure FA is “FB did it” and the figure FC “is different. I did it”) from the sound output unit Output.

このように、本実施形態では、フィギュアの視線方向に応じて視野範囲を設定するので、リアルな会話を再現でき、プレーヤはフィギュアの会話を楽しむことができる。   As described above, in this embodiment, since the visual field range is set according to the line-of-sight direction of the figure, a realistic conversation can be reproduced, and the player can enjoy the conversation of the figure.

4.21 音出力する音データを決定する処理の説明
上述したように、本実施形態の演習装置10は、様々な手法で音データを決定しているので、複数の音データが候補に挙がることがある。複数の音データが候補に挙がった場合
には、音出力する一又は複数の音データを抽出し、抽出された一又は複数の音データを音出力する。
4.21 Description of processing for determining sound data to be output As described above, the exercise apparatus 10 of the present embodiment determines sound data by various methods, and thus a plurality of sound data may be listed as candidates. There is. When a plurality of sound data are listed as candidates, one or more sound data to be output is extracted, and the extracted one or more sound data is output as a sound.

例えば、図28に示すように、音データ毎に、優先度を設定し、優先度の高い音IDの一の音データを抽出し、抽出された音データを音出力するようにしてもよい。優先度の値が小さいほど、優先度が高いことを意味する。つまり、優先度「1」が最も優先度が高いことを意味する。   For example, as shown in FIG. 28, a priority may be set for each sound data, one sound data having a high priority sound ID may be extracted, and the extracted sound data may be output as a sound. The smaller the priority value, the higher the priority. That is, the priority “1” means the highest priority.

また、図29に示すように、演出装置10は、音データ毎に、音出力済(演出済)か否かを示すフラグFを設定する。例えば、フラグFの初期値を0に設定し、音出力した音データのフラグFを1に更新する。そして、複数の音データが候補に挙がった場合には、フラグF=0の音データの中から、一の音データを抽出し、抽出された音データを音出力する。   Moreover, as shown in FIG. 29, the production device 10 sets a flag F indicating whether or not the sound has been output (production has been completed) for each sound data. For example, the initial value of the flag F is set to 0, and the flag F of the sound data that has been output is updated to 1. When a plurality of sound data are listed as candidates, one sound data is extracted from the sound data with flag F = 0, and the extracted sound data is output as sound.

このようにすれば、演出装置10は、複数の音データのうち、フラグFが0である音データ、つまり、音出力されたことのない音データを、出力するので、様々な音データを聞きたいというプレーヤの要求に応えることができる。   In this way, the rendering device 10 outputs the sound data having the flag F of 0 among the plurality of sound data, that is, the sound data that has never been output. It is possible to respond to the player's request to want.

また、演出装置10は、音データ毎に再生回数を設定し、複数の音データが候補に挙がった場合に、音データの再生回数に基づいて、一の音データを抽出してもよい。例えば、音データの再生回数が少ない程、再生の優先度が高くなるように、一の音データを抽出してもよい。   In addition, the rendering device 10 may set the number of times of reproduction for each sound data, and may extract one piece of sound data based on the number of times of sound data reproduction when a plurality of sound data are listed as candidates. For example, one piece of sound data may be extracted so that the lower the number of times the sound data is reproduced, the higher the reproduction priority.

なお、本実施形態では、同時に、複数の音データの音出力を行ってもよい。例えば、本実施形態では、同時に音出力を行う複数の音IDを予め対応付けて記憶する。そして、一の音IDを音出力する際には対応する音IDを同時に音出力するように制御する。例えば、音ID=110の音楽用の音データと、音ID=111の台詞用の音データとが対応付けられている場合、音ID=110、111の2つの音データを同時に出力させるように制御する。   In the present embodiment, sound output of a plurality of sound data may be performed simultaneously. For example, in the present embodiment, a plurality of sound IDs that simultaneously output sound are stored in association with each other. When a sound ID is output, control is performed so that the corresponding sound ID is output simultaneously. For example, when the sound data for music with sound ID = 110 and the sound data for speech with sound ID = 111 are associated, the two sound data with sound ID = 110 and 111 are output simultaneously. Control.

5.フローチャート
次に、演出装置10の処理の流れの一例について、図30A〜図30Eを用いて説明する。
5. Flowchart Next, an example of the processing flow of the rendering device 10 will be described with reference to FIGS. 30A to 30E.

まず、図30Aに示すように、フィギュアの種類を検出したか否かを判断する(ステップS1)。フィギュアの種類を検出した場合(ステップS1のY)、フィギュアの種類に基づいて決定される音データを、音出力の候補とする(ステップS2)。   First, as shown in FIG. 30A, it is determined whether or not the figure type is detected (step S1). When the figure type is detected (Y in step S1), the sound data determined based on the figure type is set as a sound output candidate (step S2).

次に、フィギュアの位置を検出したか否かを判断する(ステップS3)。フィギュアの位置を検出した場合(ステップS3のY)、フィギュアの種類及び位置に基づいて決定される音データを、音出力の候補とする(ステップS4)。例えば、複数のフィギュアそれぞれの種類及び位置関係に基づいて決定される音データを、音出力の候補としてもよい。なお、フィギュアの位置を検出しない場合(ステップS3のN)、ステップS5に進む。   Next, it is determined whether or not the position of the figure has been detected (step S3). When the position of the figure is detected (Y in step S3), the sound data determined based on the type and position of the figure is set as a sound output candidate (step S4). For example, sound data determined based on the types and positional relationships of each of the plurality of figures may be used as a sound output candidate. If the position of the figure is not detected (N in step S3), the process proceeds to step S5.

次に、フィギュアの向きを検出したか否かを判断する(ステップS5)。フィギュアの向きを検出した場合(ステップS5のY)、フィギュアの種類及び向きに基づいて決定される音データを、音出力の候補とする(ステップS6)。フィギュアの向きを検出しない場合(ステップS5のN)、ステップS7に進む。   Next, it is determined whether or not the orientation of the figure has been detected (step S5). When the direction of the figure is detected (Y in step S5), sound data determined based on the type and direction of the figure is set as a sound output candidate (step S6). When the direction of the figure is not detected (N in Step S5), the process proceeds to Step S7.

次に、フィギュアの姿勢状態を検出したか否かを判断する(ステップS7)。フィギュ
アの姿勢状態を検出した場合(ステップS7のY)、フィギュアの種類及び姿勢状態に基づいて決定される音データを、音出力の候補とする(ステップS8)。フィギュアの姿勢状態を検出しない場合(ステップS7のN)、ステップS9に進む。
Next, it is determined whether the posture state of the figure has been detected (step S7). When the posture state of the figure is detected (Y in step S7), sound data determined based on the type and posture state of the figure is set as a sound output candidate (step S8). If the posture state of the figure is not detected (N in step S7), the process proceeds to step S9.

次に、図30Bに示すように、フィギュアの高さを検出したか否かを判断する(ステップS9)。フィギュアの高さを検出した場合(ステップS9のY)、フィギュアの種類及び高さに基づいて決定される音データを、音出力の候補とする(ステップS10)。フィギュアの高さを検出しない場合(ステップS9のN)、ステップS11に進む。   Next, as shown in FIG. 30B, it is determined whether the height of the figure has been detected (step S9). When the figure height is detected (Y in step S9), sound data determined based on the figure type and height is set as a sound output candidate (step S10). If the figure height is not detected (N in step S9), the process proceeds to step S11.

次に、フィギュアの装着パーツの有無を検出したか否かを判断する(ステップS11)。フィギュアの装着パーツの有無を検出した場合(ステップS11のY)、フィギュアの種類及びフィギュアの装着パーツの有無に基づいて決定される音データを、音出力の候補とする(ステップS12)。フィギュアの装着パーツの有無を検出しない場合(ステップS11のN)、ステップS13に進む。   Next, it is determined whether the presence / absence of a mounted part of the figure has been detected (step S11). When the presence / absence of a figure mounting part is detected (Y in step S11), sound data determined based on the type of the figure and the presence / absence of the figure mounting part is set as a sound output candidate (step S12). If the presence / absence of a figure-fitted part is not detected (N in step S11), the process proceeds to step S13.

そして、図30Cに示すように、候補の音データが1つであるか否かを判断する(ステップS13)。候補の音データが1つである場合(ステップS13のY)、候補の音データを音出力の音データに決定し、当該音データを音出力する(ステップS14)。そして、音出力した音データのフラグF=0か否かを判断し(ステップS15)、音出力した音データのフラグF=0である場合(ステップS15のY)、音出力した音データのフラグFを1に更新する(ステップS16)。   Then, as shown in FIG. 30C, it is determined whether or not there is one candidate sound data (step S13). If there is only one candidate sound data (Y in step S13), the candidate sound data is determined as sound output sound data, and the sound data is output as a sound (step S14). Then, it is determined whether or not the sound data flag F = 0 is output (step S15). If the sound data flag F is 0 (Y in step S15), the sound data flag is output. F is updated to 1 (step S16).

一方、候補の音データが1つでない場合、つまり、候補の音データが複数である場合(ステップS13のN)、図30Dに示すように、複数の候補の音データの中に、フラグF=0の音データがあるか否かを判断する(ステップS21)。   On the other hand, when there is not one candidate sound data, that is, when there are a plurality of candidate sound data (N in step S13), as shown in FIG. 30D, a flag F = It is determined whether there is sound data of 0 (step S21).

そして、複数の候補の音データの中に、フラグF=0の音データがある場合(ステップS21のY)、複数の候補の音データの中から、フラグF=0の音データを1つ抽出する(ステップS22)。そして、抽出された音データを、音出力する(ステップS23)。そして、音出力した音データのフラグFを1に更新する(ステップS24)。   If there is sound data with flag F = 0 in the plurality of candidate sound data (Y in step S21), one sound data with flag F = 0 is extracted from the plurality of candidate sound data. (Step S22). Then, the extracted sound data is output as a sound (step S23). Then, the flag F of the sound data that has been output is updated to 1 (step S24).

一方、複数の候補の音データの中に、フラグF=0の音データがない場合(ステップS21のN)、複数の候補の音データの中から、音データを1つ抽出する(ステップS26)。そして、抽出された音データを、音出力する(ステップS27)。   On the other hand, if there is no sound data with flag F = 0 in the plurality of candidate sound data (N in step S21), one sound data is extracted from the plurality of candidate sound data (step S26). . Then, the extracted sound data is output as a sound (step S27).

また、ステップS15のN、ステップS16、ステップS24、ステップS27の後、図30Eに示すように、配置状態の継続時間が所定期間以上であるか否かを判断し(ステップS31)、配置状態の継続時間が所定期間以上である場合(ステップS31のY)、配置状態の継続時間に基づいて決定される音データを、音出力の候補とし、ステップS13に戻る。   Further, after N in step S15, step S16, step S24, and step S27, as shown in FIG. 30E, it is determined whether or not the duration time of the arrangement state is longer than a predetermined period (step S31). When the duration is equal to or longer than the predetermined period (Y in step S31), the sound data determined based on the duration of the arrangement state is set as a sound output candidate, and the process returns to step S13.

一方、配置状態の継続時間が所定期間以上でない場合(ステップS31のN)、配置状態に変化があるか否かを判断し、配置状態に変化がある場合(ステップS33のY)、ステップS1に戻る。一方、配置状態に変化がない場合(ステップS33のN)、ステップS31に戻る。   On the other hand, if the duration of the arrangement state is not longer than the predetermined period (N in Step S31), it is determined whether or not there is a change in the arrangement state. If there is a change in the arrangement state (Y in Step S33), the process proceeds to Step S1. Return. On the other hand, when there is no change in the arrangement state (N in step S33), the process returns to step S31.

6.演出処理を実行するタイミング
本実施形態の演出装置10は、ステージ上に配置された少なくとも1つフィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類を検出したタイミングに、演出処理を実行するが、次のタイミングで制御してもよい。
6). Timing of executing the rendering process The rendering device 10 according to the present embodiment detects the type, position, orientation, height, posture state, presence / absence of a mounting part, and type of mounting part of at least one figure placed on the stage. The effect process is executed at the timing, but may be controlled at the next timing.

(A)配置状態の継続時間
演出装置10は、配置状態の継続時間が所定期間経過したタイミングで、配置状態の継続時間に基づいて演出内容(例えば、音データ)を決定し、当該演出内容に基づいて演出処理を実行する。
(A) Arrangement State Duration Time The production device 10 determines the production content (for example, sound data) based on the arrangement state duration time at the timing when the arrangement state duration time has elapsed for a predetermined period of time. An effect process is executed based on the result.

(B)所定の時刻
演出装置10は、所定の時刻(例えば、昼の0時)になったタイミングに、演出処理を実行する。なお、演出装置10は、入力情報に基づき、演出処理を実行する時刻(タイマー)を設定してもよい。また、演出装置10は、端末30から時刻の情報を受信し、当該時刻を演出処理の実行タイミングとして設定してもよい。
(B) Predetermined time The effect device 10 executes effect processing at a timing when a predetermined time (for example, midnight) is reached. The production device 10 may set a time (timer) for performing the production process based on the input information. In addition, the rendering device 10 may receive time information from the terminal 30 and set the time as the execution timing of the rendering process.

(C)スイッチの電源がONになったタイミング
演出装置10やフィギュアにスイッチが備えられている場合、スイッチがONになったタイミングで演出処理を実行してもよい。
(C) Timing when the power of the switch is turned on When the effect device 10 or the figure is equipped with a switch, the effect process may be executed at the timing when the switch is turned on.

(D)フィギュアを検出したタイミング、フィギュア不検出のタイミング
演出装置10は、例えば、フィギュアを検出したタイミングだけでなく、フィギュアがステージから検出されなくなった(離脱された)タイミングに、演出処理を実行してもよい。
(D) Timing at which a figure is detected, timing at which a figure is not detected The rendering device 10 performs rendering processing not only at a timing at which a figure is detected, but also at a timing at which the figure is no longer detected (separated) from the stage. May be.

このようにすれば、ステージに配置されたフィギュアの数の増減があった場合や、フィギュアが移動したタイミングに、演出処理を行うことができる。   In this way, it is possible to perform the effect processing when the number of figures arranged on the stage increases or decreases, or when the figure moves.

(E)フィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類の少なくとも1つが変更されたタイミングが変化したタイミング
演出装置10がステージに配置されたフィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類の少なくとも1つが変更されたタイミング(つまり、配置状態が変更されたタイミング)に、変更された配置内容に応じて、演出処理を実行してもよい。このようにすれば、フィギュアが転倒した場合や、フィギュア自体が回転した場合などに、演出処理を実行することができる。
(E) Figure type, position, orientation, height, posture state, presence / absence of installed parts, timing when at least one of the types of installed parts is changed Timing at which the stage device 10 is placed on the stage Depending on the content of the changed arrangement, at least one of the position, orientation, height, posture state, presence / absence of the mounting part, and the type of the mounting part is changed (that is, the timing at which the arrangement state is changed) An effect process may be executed. In this way, the rendering process can be executed when the figure falls or when the figure itself rotates.

(F)接触センサで接触(タッチ)を検出したタイミング
演出装置10やフィギュアに、接触センサが備えられている場合、演出装置10は演出装置10やフィギュアへの接触を検出したタイミングに、演出処理を実行してもよい。このようにすれば、例えば、プレーヤがフィギュアに触れたとき、握ったとき、つまんだときのタイミングで、演出処理を実行することができる。
(F) Timing at which contact (touch) is detected by the contact sensor When the rendering device 10 or the figure has a contact sensor, the rendering device 10 performs rendering processing at the timing at which contact with the rendering device 10 or the figure is detected. May be executed. In this way, for example, the rendering process can be executed at the timing when the player touches the figure, grasps it, or pinches it.

(G)人感センサを検知したタイミング
演出装置10に、人間の所在を検知する人感センサが備えられている場合、演出装置10は、人感センサによって人間を検知したタイミングに、演出処理を実行してもよい。このようにすれば、プレーヤがフィギュアに近づいたとき、顔を近づけたとき等に演出処理を実行できる。
(G) Timing at which the human sensor is detected When the human effect sensor for detecting the human location is provided in the production device 10, the production device 10 performs the production process at the timing at which the human sensor is detected. May be executed. In this way, the rendering process can be executed when the player approaches the figure or when the face is brought close.

(H)表情が変化したタイミング
演出装置10に、カメラが備えられている場合には、プレーヤの表情が変化したタイミング(例えば、笑顔(スマイル)を検知したタイミング)に、演出処理を実行してもよい。
(H) Timing at which facial expression changes When the rendering device 10 is equipped with a camera, the rendering process is executed at the timing when the player's facial expression changes (for example, when a smile (smile) is detected). Also good.

(I)音入力があったタイミング
演出装置10にマイクが備えられている場合には、マイクによって、所定音量以上の音の入力があったタイミング(例えば、プレーヤが話しかけたときや、大きな音がしたとき、テレビ番組やCMの音がしたタイミング)に、演出処理を実行してもよい。
(I) Timing at which sound is input When the rendering device 10 is provided with a microphone, the timing at which sound is input by the microphone at a predetermined volume or higher (for example, when a player speaks or when a loud sound is The production process may be executed at the timing of the sound of a TV program or CM).

(J)温度変化があったタイミング
演出装置10に温度センサが備えられている場合には、温度の変化があったタイミングで、演出処理を実行してもよい。例えば、演出装置10は、所定期間内(例えば、5分以内)に、5度以上の変化があったタイミングに、演出処理を実行してもよい。
(J) Timing at which temperature change has occurred When the effect device 10 is provided with a temperature sensor, the effect processing may be executed at the timing at which the temperature has changed. For example, the rendering device 10 may execute the rendering process at a timing when there has been a change of 5 degrees or more within a predetermined period (for example, within 5 minutes).

(K)明るさの変化があったタイミング
演出装置10に照度センサが備えられている場合には、明るさの変化があったタイミングで演出処理を実行してもよい。例えば、所定期間内(例えば、5秒以内)に、所定値以上の照度の変化量があったタイミングに、演出処理を実行してもよい。
(K) Timing when the brightness has changed When the illuminance sensor is provided in the rendering device 10, the rendering process may be executed at the timing when the brightness has changed. For example, the effect process may be executed at a timing when the amount of change in illuminance is greater than or equal to a predetermined value within a predetermined period (for example, within 5 seconds).

(L)端末30において、演出処理の実行タイミングを設定する手法
本実施形態では、プレーヤの端末30において演出実行のタイミングを設定できるようにしてもよい。
(L) Method for Setting Performance Execution Timing at Terminal 30 In the present embodiment, it may be possible to set the timing of performance execution at the terminal 30 of the player.

例えば、プレーヤの端末30は、プレーヤの入力(タッチ入力)に基づいて、演出処理の実行タイミングを設定するようにしてもよい。   For example, the player terminal 30 may set the execution timing of the effect process based on the player input (touch input).

そして、プレーヤの端末30は、演出処理の実行タイミングを演出装置10に送信し、演出装置10は、受信した演出処理の実行タイミングに、演出処理を実行する。   Then, the terminal 30 of the player transmits the execution timing of the effect process to the effect device 10, and the effect device 10 executes the effect process at the received execution timing of the effect process.

なお、端末30は、サーバ20や所与のWebサーバ経由で、演出処理の実行タイミングを演出装置10に送信するようにしてもよい。   Note that the terminal 30 may transmit the execution timing of the effect process to the effect device 10 via the server 20 or a given Web server.

(M)所定のサイトからの通知に基づくタイミング
例えば、演出装置10は、所定のサイト(運営側のサーバや、SNSサーバ等)からの通知を受信したタイミングで、演出処理を実行してもよい。
(M) Timing based on notification from a predetermined site For example, the rendering device 10 may execute rendering processing at the timing of receiving a notification from a predetermined site (such as a server on the management side or an SNS server). .

(N)端末30の位置情報を用いた演出タイミング
演出装置10は、端末30の位置情報(GPSの座標)を受信し、端末30が演出装置10に近接しているか否かを判定する。そして、演出装置10は、端末30が演出装置10に近接していると判定されたタイミングで、演出処理を実行してもよい。
(N) Effect Timing Using Position Information of Terminal 30 Effect device 10 receives position information (GPS coordinates) of terminal 30 and determines whether or not terminal 30 is close to effect device 10. Then, the rendering device 10 may execute the rendering process at a timing when it is determined that the terminal 30 is close to the rendering device 10.

なお、演出装置10は、端末30の位置情報が所定範囲内(演出装置10と端末30の距離が所定距離未満)である場合に、演出処理可能に制御し、端末30の位置情報が所定範囲外(演出装置10と端末30の距離が所定距離以上)である場合に、演出処理ができなくなるように制御してもよい。このようにすれば、プレーヤの端末30が演出装置10の近くにいない場合は、演出処理が実行されないので、同居の家族等が驚くことがないよう気遣うことができ、プレーヤ自身も恥ずかしい思いをすることなく、演出装置10を楽しむことができる。   In addition, when the position information of the terminal 30 is within a predetermined range (the distance between the effect device 10 and the terminal 30 is less than the predetermined distance), the effect device 10 controls the effect processing so that the position information of the terminal 30 is within the predetermined range. You may control so that an effect process becomes impossible when it is outside (the distance of the production | presentation apparatus 10 and the terminal 30 is more than predetermined distance). In this way, when the player's terminal 30 is not near the rendering device 10, the rendering process is not executed, so that the family members living together can be cared not to be surprised, and the player himself is also embarrassed. The production device 10 can be enjoyed without any problems.

(P)ゲームの状況に応じたタイミング
演出装置10は、端末30にインストールされているゲーム(ゲームアプリ)のゲーム状況、ゲーム装置のゲーム状況に応じて、演出処理を実行してもよい。
(P) Timing According to Game Status The rendering device 10 may execute rendering processing according to the game status of the game (game application) installed on the terminal 30 and the game status of the game device.

例えば、端末30にインストールアプリのゲーム状況が特定の状況になったタイミング(クリア時、ゲームオーバー時、危機時など)になった場合、端末30は、演出処理の実
行指示を演出装置10に送信する。同じように、ゲーム装置は、ゲーム状況が特定の状況になったタイミング場合、演出処理の実行指示を演出装置10に送信する。そして、演出装置10は、演出指示を受信したタイミングに、演出処理を実行する。
For example, when the game situation of the installed application becomes a specific situation on the terminal 30 (clear, game over, crisis, etc.), the terminal 30 transmits an instruction to execute the effect process to the effect device 10. To do. Similarly, the game apparatus transmits an instruction to execute the effect process to the effect device 10 when the game situation becomes a specific situation. Then, the rendering device 10 performs rendering processing at the timing when the rendering instruction is received.

例えば、端末30やゲーム装置は、演出処理の実行指示だけでなく、ゲーム状況の情報も演出装置10に送信するようにしてもよい。このようにすれば、ゲームと連動した演出を実現できる。例えば、ゲームにクリアしたときにフィギュアが「おめでとう」と褒めてくれたりすれば、プレーヤの喜びも増し、満足感を与えることができる。   For example, the terminal 30 and the game device may transmit not only the execution instruction for the effect process but also information on the game situation to the effect device 10. In this way, it is possible to realize an effect linked with the game. For example, if the figure praises “congratulations” when the game is cleared, the player's joy increases and satisfaction can be given.

(Q)他の装置(玩具)との連動によるタイミング
演出装置10は、他の装置(玩具、家電など)から発信された情報や信号を受信し、受信したタイミングで、演出処理を実行してもよい。
(Q) Timing by interlocking with other devices (toys) The rendering device 10 receives information and signals transmitted from other devices (toys, home appliances, etc.), and executes rendering processing at the received timing. Also good.

例えば、プレーヤが棒状の発光体(ペンライト)を備える装置を手に持って遊んでいる場合に、当該装置から特定の情報を演出装置10に送信する。演出装置10は、当該装置から発信された情報を受信し、受信したタイミングで、演出処理を実行する。このようにすれば、例えば、プレーヤがペンライトを振ったときに、フィギュアが歌いだすように演出処理を行うことができる。   For example, when a player is playing with a device having a rod-shaped light emitter (penlight) in his hand, specific information is transmitted from the device to the rendering device 10. The effect device 10 receives the information transmitted from the device and executes effect processing at the received timing. In this way, for example, when the player shakes the penlight, the effect process can be performed so that the figure sings.

また、演出装置10は、通信機能をもつ家電(体重計、クーラー、照明など)と連動してもよい。   In addition, the rendering device 10 may be linked to a home appliance (such as a scale, a cooler, or a lighting device) having a communication function.

例えば、クーラーと演出装置10とがネットワークを介して接続されている場合に、クーラーの電源がオンになったときに、クーラーは、電源がオンになった情報を演出装置10に送信する。演出装置10は、クーラーから電源がオンになった情報を受信すると、フィギュアが「寒い」という内容の会話を再現する音データを発生させるように制御する。   For example, when the cooler and the effect device 10 are connected via a network, when the cooler is turned on, the cooler transmits the information that the power is turned on to the effect device 10. When receiving the information that the power is turned on from the cooler, the rendering device 10 controls to generate sound data that reproduces the conversation that the figure is “cold”.

(R)画像認識に応じたタイミング
例えば、端末30は、端末30が備える撮影部によってフィギュアが撮影されると、当該撮影画像に基づき、フィギュアの種類や配置を判定して画像認識の処理を行う。そして、端末30は、画像認識の結果を演出装置10に送信する。演出装置10は、画像認識の結果に応じて、演出処理を行うと判断した場合に、当該演出処理の実行を行う。なお、画像認識はサーバ20で行ってもよい。
(R) Timing according to image recognition For example, when a figure is photographed by the photographing unit included in the terminal 30, the terminal 30 performs image recognition processing by determining the type and arrangement of the figure based on the photographed image. . Then, the terminal 30 transmits the result of image recognition to the effect device 10. When it is determined that the effect process is performed according to the result of the image recognition, the effect device 10 executes the effect process. Note that image recognition may be performed by the server 20.

(S)演出装置10と端末30との連動
本実施形態では、演出装置10と端末30とが互いに同期して演出処理を実行してもよい。つまり、演出装置10と端末30が同じタイミングで演出処理を開始する。そして、演出装置10が音出力の演出処理を実行する処理を行い、端末30が動画(映像)を再生する処理を行い、演出装置10と端末30とが同期してそれぞれ処理を行うように制御する。
(S) Linkage of rendering device 10 and terminal 30 In the present embodiment, rendering device 10 and terminal 30 may execute rendering processing in synchronization with each other. That is, the rendering device 10 and the terminal 30 start rendering processing at the same timing. Then, the effect device 10 performs a process of executing the sound output effect process, the terminal 30 performs a process of reproducing a moving image (video), and the effect device 10 and the terminal 30 are controlled to perform processing in synchronization with each other. To do.

このようにすれば、フィギュア同士が会話している様子を再現しつつ、背景の動画を端末30の表示部に表示することができ、より臨場感のある演出処理を実現することができる。   In this way, it is possible to display the background video on the display unit of the terminal 30 while reproducing the state in which the figures are talking to each other, and it is possible to realize more realistic presentation processing.

7.演出アプリケーション
本実施形態では、端末30の演出アプリケーションにおいて、演出装置10で再生された音データを再生できるようにしてもよい。なお、端末30の演出アプリケーションは、ブラウザから利用するWebアプリでもよいし、端末30にインストールされる専用のアプリでもよい。
7). Production Application In the present embodiment, sound data reproduced by the production device 10 may be reproduced in the production application of the terminal 30. The presentation application of the terminal 30 may be a web application used from a browser or a dedicated application installed on the terminal 30.

まず、演出装置10において、音データが出力されると、その音IDがサーバ20にアップロードされる。サーバ20は、ユーザ毎に、音ID及び当該音IDに対応するフラグFの値を管理する。なお、サーバ20は、所定のタイミング演出装置10から、音ID及び当該音IDに対応するフラグFの値を受信する。   First, in the rendering device 10, when sound data is output, the sound ID is uploaded to the server 20. The server 20 manages the sound ID and the value of the flag F corresponding to the sound ID for each user. The server 20 receives the sound ID and the value of the flag F corresponding to the sound ID from the predetermined timing effect device 10.

図31(A)は、端末30に表示される画面の一例を示す。各マス目(各ピース)は、音IDと対応付けられている。例えば、マス目(x,y)=(1,1)は音ID=1に対応させ、マス目(x,y)=(2,1)は音ID=2に対応させる等、各マス目に異なる音IDを対応付ける。なお、図31(A)の例では、30マスあるので、各マス目に各音IDが対応付けられている。   FIG. 31A shows an example of a screen displayed on the terminal 30. Each square (each piece) is associated with a sound ID. For example, each cell (x, y) = (1, 1) corresponds to the sound ID = 1, and each cell (x, y) = (2, 1) corresponds to the sound ID = 2. Is associated with a different sound ID. In the example of FIG. 31A, since there are 30 squares, each sound ID is associated with each square.

そして、端末30は、サーバ20から、30マスに対応する各音ID及び各音IDに対応するフラグFの値を要求し、受信する。   Then, the terminal 30 requests and receives each sound ID corresponding to 30 squares and the value of the flag F corresponding to each sound ID from the server 20.

例えば、端末30は、音IDに対応付けられるフラグFの値が1の場合は、マス目に対応する画像を表示させ、フラグFの値が0の場合にはマス目に黒色を表示させる。つまり、フラグF=0のマス目については、未だ音が発生していないので、その部分を表示させないように、マスク処理を施す。   For example, when the value of the flag F associated with the sound ID is 1, the terminal 30 displays an image corresponding to the square, and when the value of the flag F is 0, the terminal 30 displays black. That is, since no sound has yet been generated for the square of flag F = 0, mask processing is performed so as not to display that portion.

例えば、演出装置10において、音ID=10の音データが発生すると、当該音ID=10に対応するフラグF=1に更新し、サーバ20に送信する。そして、サーバ20は、演出装置10から音ID=10及び当該音ID=10に対応するフラグF=1を受信する。   For example, when the sound data of sound ID = 10 is generated in the rendering device 10, the flag F = 1 corresponding to the sound ID = 10 is updated and transmitted to the server 20. Then, the server 20 receives the sound ID = 10 and the flag F = 1 corresponding to the sound ID = 10 from the rendering device 10.

また、端末30は、例えば、画面の更新時に、サーバ20から、各マスに対応する音IDに対応するフラグFを要求して受信し、音ID=10のフラグFが1に更新されると、図31(B)に示すように、音ID=10に対応するマス目(x,y)=(5,2)のマス目の画像を表示させる。   Further, for example, when updating the screen, the terminal 30 requests and receives the flag F corresponding to the sound ID corresponding to each cell from the server 20, and when the flag F of the sound ID = 10 is updated to 1. As shown in FIG. 31B, an image of the cell of the cell (x, y) = (5, 2) corresponding to the sound ID = 10 is displayed.

このように、演出装置10での新たな会話が発生すると、端末30側で、パズルのピースが埋まっていくように、プレーヤはマス目の画像を見ることができる。その結果、プレーヤは未だ発生していない音データの数を認識することができる。また、音データが発生していないマス目は黒色で画像が見えないので、プレーヤに対し音が未発生の音データ(見えないマス目の音データ)を発生させようとする動機につなげることができる。   In this way, when a new conversation occurs in the rendering device 10, the player can view the square image so that the puzzle pieces are buried on the terminal 30 side. As a result, the player can recognize the number of sound data that has not yet been generated. In addition, since the squares in which no sound data is generated are black and the image cannot be seen, it is possible to connect the player with a motivation to generate sound data in which no sound is generated (sound data of invisible squares). it can.

なお、端末30では、フラグF=1で画像が見えているマス目のタッチ入力を受け付けると、当該マス目の音IDの音データを端末30において何度も発生(再生)させることができる。   In addition, in the terminal 30, when the touch input of the square where the image is visible with the flag F = 1 is received, the sound data of the sound ID of the square can be generated (reproduced) many times in the terminal 30.

例えば、端末30は、図32(A)に示すように、音ID=10に対応するマス目(x,y)=(5,2)についてタッチ入力を受け付けると、当該音ID=10の音データをサーバ20又は演出装置10からダウンロードし、音ID=10の音データを再生する。なお、端末30において既に音ID=10の音データが記憶部に記憶されている場合には、音ID=10に対応するマス目(x,y)=(5,2)についてタッチ入力を受け付けた場合、音ID=10の音データを再生するようにしてもよい。更に、端末30は、図32(B)に示すように、台詞、写真、画像或いは動画をサーバ20からダウンロードし、音ID=10の音データの再生に連動して、台詞、文章、写真、画像或いは動画を再生(表示)させる。このように、プレーヤは、演出装置10で発生した音データを、端末30の演出アプリケーションにおいて再生することができるので、端末30において手軽に演
出内容を楽しむことができる。
For example, as illustrated in FIG. 32A, when the terminal 30 receives a touch input for the grid (x, y) = (5, 2) corresponding to the sound ID = 10, the sound with the sound ID = 10 is received. The data is downloaded from the server 20 or the rendering device 10, and the sound data with the sound ID = 10 is reproduced. When sound data of sound ID = 10 is already stored in the storage unit in the terminal 30, a touch input is accepted for the grid (x, y) = (5, 2) corresponding to the sound ID = 10. In this case, sound data with sound ID = 10 may be reproduced. Furthermore, as shown in FIG. 32 (B), the terminal 30 downloads a dialogue, a photograph, an image, or a video from the server 20, and in conjunction with the reproduction of the sound data with the sound ID = 10, the dialogue, the sentence, the photograph, Play (display) an image or video. In this way, the player can reproduce the sound data generated by the effect device 10 in the effect application of the terminal 30, so that the effect content can be easily enjoyed on the terminal 30.

また、本実施形態では、端末30において音データを再生する際に発生させる画像或いは動画像は、発生させた音データの数に応じて変化させてもよい。例えば、発生させた音データの数が増えるほど、キャラクタの表情が変化するようにしてもよい。   In the present embodiment, an image or a moving image generated when sound data is played back on the terminal 30 may be changed according to the number of generated sound data. For example, the expression of the character may change as the number of generated sound data increases.

8.音データに関する制御
本実施形態の音データに関する制御について詳細に説明する。
8). Control related to sound data Control related to sound data according to the present embodiment will be described in detail.

8.1 音データを音出力に関する説明
音データを送信する処理について3つの態様が考えられる。
8.1 Explanation about sound output of sound data There are three possible modes for the process of transmitting sound data.

(1)第1の例では、送信側が音データそのものを受信側に送信する例である。例えば、サーバ20が演出装置10に音データを送信し、演出装置10は、サーバ20から音データを受信して演出装置の記憶部170に記憶し当該音データを音出力する。   (1) In the first example, the transmission side transmits the sound data itself to the reception side. For example, the server 20 transmits sound data to the effect device 10, and the effect device 10 receives the sound data from the server 20, stores it in the storage unit 170 of the effect device, and outputs the sound data.

(2)第2の例では、受信側で音データが既に記憶部に記憶されており、送信側が音IDを送信する例である。例えば、サーバ20は音IDを送信し、演出装置10は、既に記憶部に記憶されている当該音IDに対応する音データを音出力する。   (2) In the second example, sound data is already stored in the storage unit on the reception side, and the transmission side transmits a sound ID. For example, the server 20 transmits a sound ID, and the rendering device 10 outputs sound data corresponding to the sound ID already stored in the storage unit.

(3)第3の例では、受信側において音データをキャッシング(一時記憶)する例である。例えば、演出装置10が、音データを一時的に記憶するキャッシュ(例えば、記憶部170の一時記憶領域)を備えている場合、当該キャッシュされている音データを再生するように制御する。つまり、サーバ20が、音IDを演出装置10に送信し、演出装置10は、サーバ20から受信した音IDの音データが既にキャッシュに記憶されている場合には、当該音IDの音データを音出力する。一方、演出装置10は、サーバ20から受信した音IDの音データが既にキャッシュに記憶されていない場合は、サーバ20に音IDの音データを要求する。サーバ20は、演出装置10から音IDの音データの要求情報を受信した場合に、当該音データを演出装置10に送信し、演出装置10は、サーバ20から音データを受信して演出装置の記憶部170に記憶し、当該音データを音出力する。   (3) In the third example, sound data is cached (temporarily stored) on the receiving side. For example, when the rendering device 10 includes a cache that temporarily stores sound data (for example, a temporary storage area of the storage unit 170), control is performed so that the cached sound data is reproduced. That is, when the server 20 transmits the sound ID to the effect device 10 and the sound data of the sound ID received from the server 20 is already stored in the cache, the sound data of the sound ID is stored in the cache. Output sound. On the other hand, when the sound data of the sound ID received from the server 20 is not already stored in the cache, the rendering device 10 requests the sound data of the sound ID from the server 20. When the server 20 receives the request information for the sound data of the sound ID from the effect device 10, the server 20 transmits the sound data to the effect device 10, and the effect device 10 receives the sound data from the server 20 and receives the sound data of the effect device. The data is stored in the storage unit 170 and the sound data is output as a sound.

8.2 音データ(又は音ID)のデータ送信方向についての説明
音データの送信側、受信側については以下の態様が考えられる。
8.2 Explanation of data transmission direction of sound data (or sound ID) The following modes can be considered for the transmission side and reception side of sound data.

(1)サーバ20から演出装置10へのデータ送信処理
本実施形態のサーバ20は、演出装置10に対してデータを送信する。例えば、サーバ20は、アップデートで追加するために音データを演出装置10に送信する。また、サーバ20は、Web上の情報(天気予報、日経平均等)に連動して、音ID又は音データを演出装置10に送信し、演出装置10にて再生させてもよい。
(1) Data transmission processing from server 20 to rendering device 10 The server 20 of the present embodiment transmits data to the rendering device 10. For example, the server 20 transmits sound data to the rendering device 10 for addition by update. Further, the server 20 may transmit the sound ID or the sound data to the effect device 10 in conjunction with information on the Web (weather forecast, Nikkei average, etc.) and cause the effect device 10 to reproduce it.

(2)サーバ20から端末30へのデータ送信処理
本実施形態のサーバ20は、端末30に対してデータを送信する。例えば、サーバ20は、アップデート用の音データを端末30に送信する。なお、端末30が、更に、演出装置10にアップデート用の音データを送信してもよい。
(2) Data transmission processing from server 20 to terminal 30 The server 20 of the present embodiment transmits data to the terminal 30. For example, the server 20 transmits update sound data to the terminal 30. Note that the terminal 30 may further transmit update sound data to the rendering device 10.

また、サーバ20は、サーバ20において記録(記憶部に記憶)した音データの再生回数等の情報を、端末30に送信する。   In addition, the server 20 transmits information such as the number of reproductions of the sound data recorded (stored in the storage unit) in the server 20 to the terminal 30.

(3)演出装置10からサーバ20へのデータ送信処理
本実施形態の演出装置10は、サーバ20に対してデータを送信する。例えば、演出装
置10は、プレイ情報(音出力済みか否かを示すフラグF、再生回数、再生時間等)をサーバ20に送信する。
(3) Data transmission processing from the rendering device 10 to the server 20 The rendering device 10 of the present embodiment transmits data to the server 20. For example, the rendering device 10 transmits play information (a flag F indicating whether sound has been output, the number of times of reproduction, a reproduction time, etc.) to the server 20.

(4)演出装置10から端末30へのデータ送信処理
本実施形態の演出装置10は、端末30に対してデータを送信する。例えば、演出装置10は、端末30で再生する音データ又は音IDを送信する。また、演出装置10は、端末30での再生回数等のプレイ情報を送信する。
(4) Data transmission processing from effect device 10 to terminal 30 Effect device 10 of this embodiment transmits data to terminal 30. For example, the rendering device 10 transmits sound data or sound ID to be played back on the terminal 30. In addition, the rendering device 10 transmits play information such as the number of reproductions on the terminal 30.

(5)端末30から演出装置10へのデータ送信処理
本実施形態の端末30は、演出装置10に対してデータを送信する。例えば、端末30は、アップデート情報を演出装置10に送信する。また、端末30は、特定の音データ又は音IDを再生する指示を送信する。
(5) Data transmission process from terminal 30 to effect device 10 The terminal 30 of the present embodiment transmits data to the effect device 10. For example, the terminal 30 transmits update information to the effect device 10. In addition, the terminal 30 transmits an instruction to reproduce specific sound data or sound ID.

(6)端末30からサーバ20へのデータ送信処理
本実施形態の端末30は、サーバ20に対してデータを送信する。例えば、端末30は、演出装置10から受信したプレイ情報等をサーバ20に送信する。
(6) Data transmission process from terminal 30 to server 20 The terminal 30 of this embodiment transmits data to the server 20. For example, the terminal 30 transmits play information received from the rendering device 10 to the server 20.

9. その他
9.1 演出に関する設定情報
本実施形態では、プレーヤの端末30に、演出装置10と連動する演出アプリケーションをインストール可能とし、当該演出アプリケーションで、演出に関する設定を行えるように制御してもよい。そして、演出装置10は、端末30から設定情報を受信し、当該設定情報を記憶部170に記憶するようにしてもよい。
9. Others 9.1 Setting Information Related to Effects In the present embodiment, it may be possible to install an effect application linked to the effect device 10 on the terminal 30 of the player, and control the effect application so that settings related to effects can be performed. Then, the rendering device 10 may receive setting information from the terminal 30 and store the setting information in the storage unit 170.

また、サーバ20が、Web機能によって情報を提供する場合、サーバのWebページにてプレーヤの入力情報に基づき演出に関する設定を行えるように制御してもよい。そして、演出装置10は、サーバ20から設定情報を受信し、当該設定情報を記憶部170に記憶するようにしてもよい。   In addition, when the server 20 provides information using a Web function, control may be performed so that settings relating to effects can be performed based on input information of the player on the Web page of the server. Then, the rendering device 10 may receive setting information from the server 20 and store the setting information in the storage unit 170.

図33は、演出装置10の記憶部170に記憶される設定情報の一例である。設定情報には、演出処理の発生頻度、発生条件、フィギュア同士の関係性を含む。つまり、プレーヤは、端末30に表示される演出アプリケーションやWebページ等の設定画面において、演出処理の発生頻度、発生条件、フィギュア同士の関係性などの設定情報を入力できる。   FIG. 33 is an example of setting information stored in the storage unit 170 of the rendering device 10. The setting information includes the occurrence frequency of the production process, the generation conditions, and the relationship between the figures. That is, the player can input setting information such as the frequency of occurrence of the production process, the occurrence condition, and the relationship between the figures on the setting screen of the presentation application and the Web page displayed on the terminal 30.

演出処理の発生頻度とは、例えば、単位時間当たり(1時間当たり、或いは、1日あたり)に音出力が発生する回数を示す。   The occurrence frequency of the effect process indicates, for example, the number of times that sound output occurs per unit time (per hour or per day).

発生条件とは、例えば、発生可能な時間帯を示す。   The generation condition indicates, for example, a possible time zone.

フィギュア同士の関係性とは、一のフィギュアと他のフィギュアの仲の良さを示す。例えば、「普通」「良い」「悪い」の3つの関係性の中から一の関係性を設定できる。   The relationship between figures indicates the closeness between one figure and another figure. For example, one relationship can be set from the three relationships of “normal”, “good”, and “bad”.

そして、演出装置10は、発生頻度が1時間に1回である場合、少なくとも1時間に1回に音データを発生させるように制御する。   Then, when the frequency of occurrence is once per hour, the rendering device 10 performs control so that sound data is generated at least once per hour.

また、演出装置10は、発生条件が15時〜18時の間である場合には、15時〜18時の間に音データを発生させ、18時以降〜翌日15時になるまでの間は、音データの発生をさせないように制御する。   Further, when the generation condition is between 15:00 and 18:00, the rendering device 10 generates sound data between 15:00 and 18:00, and the generation of sound data from 18:00 to 15:00 on the next day. Control not to let

また、演出装置10は、フィギュア同士の関係性に応じて複数種類の音データを用意し、フィギュア同士の関係性に基づいて、音データを決定するようにしてもよい。   In addition, the rendering device 10 may prepare a plurality of types of sound data according to the relationship between the figures, and determine the sound data based on the relationship between the figures.

9.2 演出装置10と端末30との連動
本実施形態では、演出装置10と端末30とを連動させて演出処理を行ってもよい。つまり、本実施形態では、音データの出力と同時に、端末30に音データに応じた画像、動画(映像)を表示させてもよい。
9.2 Interlocking between the rendering device 10 and the terminal 30 In the present embodiment, the rendering processing may be performed by interlocking the rendering device 10 and the terminal 30. That is, in the present embodiment, simultaneously with the output of the sound data, an image and a moving image (video) corresponding to the sound data may be displayed on the terminal 30.

例えば、図34に示すように、演出装置10のステージSTに端末30(携帯型の端末)を横に立てておくと、ステージの背景画像や照明の代替となる画像を表示することができる。例えば、嵐のシーンの会話では、雷や大雨の画像を端末30に表示させることができる。   For example, as shown in FIG. 34, when the terminal 30 (portable terminal) is placed sideways on the stage ST of the rendering device 10, a background image of the stage and an image that is an alternative to illumination can be displayed. For example, in a storm scene conversation, an image of lightning or heavy rain can be displayed on the terminal 30.

具体的に説明すると、まず、演出装置10が音データを出力する前に、演出装置10及び端末30の演出開始のタイミングを同じタイミングにする。そして、同じ演出開始タイミングで、演出装置10が音データの音出力を開始させるとともに、端末30が動画再生を開始させる。   Specifically, first, before the rendering device 10 outputs sound data, the rendering start timing of the rendering device 10 and the terminal 30 is set to the same timing. Then, at the same effect start timing, the effect device 10 starts sound output of the sound data, and the terminal 30 starts moving image reproduction.

また、演出装置10が、質問の音データを発生した場合に、端末30に質問を送信し、端末30が、当該質問に対して、入力(マイク入力、タッチ操作による文字入力)によって回答を受け付けるようにしてもよい。   In addition, when the production device 10 generates sound data of a question, it transmits a question to the terminal 30, and the terminal 30 receives an answer to the question by input (microphone input, character input by touch operation). You may do it.

9.3 拡張現実(AR)
本実施形態では、端末30が備えるカメラ(撮影部)によって撮影された撮影画像と、仮想空間において仮想カメラから見える仮想画像とを合成して拡張現実画像を生成する処理を行ってもよい。そして、端末30の表示部390に、拡張現実画像を表示する。
9.3 Augmented reality (AR)
In the present embodiment, a process of generating an augmented reality image by combining a captured image captured by a camera (imaging unit) included in the terminal 30 and a virtual image viewed from the virtual camera in the virtual space may be performed. Then, the augmented reality image is displayed on the display unit 390 of the terminal 30.

例えば、端末30のカメラで演出装置10のステージSTを撮影し、演出装置10で音データが発生すると、端末30の表示部390に、キャラクタを含む仮想画像や、エフェクト処理が施された仮想画像が合成された拡張現実画像を生成して表示する。このようにすれば、プレーヤは、演出装置10と端末30との連動を楽しむことができる。   For example, when the stage ST of the rendering device 10 is photographed by the camera of the terminal 30 and sound data is generated by the rendering device 10, a virtual image including a character or a virtual image subjected to effect processing is displayed on the display unit 390 of the terminal 30. An augmented reality image synthesized with is generated and displayed. In this way, the player can enjoy the interlocking of the rendering device 10 and the terminal 30.

9.4 家電との連動
本実施形態では、演出装置10と家電とがネットワークを介して接続されている場合に、演出装置10と家電とを連動させて演出処理を行ってもよい。
9.4 Linkage with Home Appliances In the present embodiment, when the rendering device 10 and the home appliance are connected via a network, the rendering device 10 and the home appliance may be linked to perform the rendering process.

例えば、演出装置10は、夜のシーンでの音データを発生させる場合には、照明器具を暗くする命令を送信する。照明器具は演出装置10から当該命令を受信すると照明を暗くするように制御する。また、演出装置10は、雪のシーンでの音データを発生させる場合には、空調器具(エア・コンディショナー)に、温度を下げる命令を送信する。空調器具は演出装置10から当該命令を受信すると温度を下げるように制御する。以上のように、演出装置10と家電とが連動すれば、プレーヤは演出装置を温度や明るさで体感することができる。   For example, when the production device 10 generates sound data in a night scene, the production device 10 transmits a command to darken the lighting fixture. When the lighting fixture receives the command from the rendering device 10, the lighting fixture is controlled to darken the lighting. In addition, when the sound device 10 generates sound data in a snow scene, the rendering device 10 transmits a command to lower the temperature to the air conditioner (air conditioner). The air conditioner controls to lower the temperature when receiving the command from the rendering device 10. As described above, if the rendering device 10 and the home appliance are linked, the player can experience the rendering device with temperature and brightness.

また、フィギュアFAのキャラクタがテレビで放映される場合には、フィギュアFAが「テレビがはじまるよ」という音データを発生させるとともに、テレビのスイッチがオンになるように制御してもよい。   Further, when the character of the figure FA is broadcast on the television, the figure FA may generate sound data “TV will start” and may be controlled to turn on the television.

9.5 特典付与
本実施形態では、音データ毎に、レア度(希少度)を設定し、レア度が所定値以上の音
データを発生させた場合に、プレーヤにゲームで利用可能なアイテム(レアアイテム、仮想通貨)、或いは、フィギュアなどの特典を付与してもよい。
9.5 Bonus Grant In this embodiment, a rare item (rare level) is set for each sound data item, and when the sound data with a rare value equal to or greater than a predetermined value is generated, the items ( Rare items, virtual currency), or benefits such as figures may be granted.

9.6 音声合成
本実施形態の演出装置10は、情報配信サーバからニュースや天気予報、SNSサイトからの情報を読み込み、フィギュアの音の種類(声優の種類)に応じて音合成を行い、発生させてもよい。なお、音合成については、サーバ20で行ってもよい。
9.6 Speech Synthesis The rendering device 10 of the present embodiment reads news, weather forecasts, and information from the SNS site from the information distribution server, performs sound synthesis according to the type of figure sound (type of voice actor), and generates You may let them. Note that the sound synthesis may be performed by the server 20.

9.7 演出状況の画像、動画を送信する処理
本実施形態の演出装置10は、ステージSTに設置されたカメラ(Webカメラ)を通じて会話風景(演出状況)の画像や動画を、インターネット上の所与のサイト(例えば、プレーヤが予め登録したSNSサイト)に、送信してもよい。
9.7 Processing for Transmitting Images and Movies of Production Status The production device 10 according to the present embodiment displays images and videos of a conversation scene (production status) through a camera (Web camera) installed on the stage ST on the Internet. You may transmit to a given site (for example, SNS site which the player registered beforehand).

9.8 演出装置とサーバの組み合わせ
なお、本実施形態の演出システムは、端末を含まない構成であってもよい。例えば、演出装置10とサーバ20とがネットワークを介して接続される演出システムであってもよい。
9.8 Combination of Effect Device and Server Note that the effect system of the present embodiment may not include a terminal. For example, an effect system in which the effect device 10 and the server 20 are connected via a network may be used.

10 演出装置、20 サーバ、30 端末、
100 処理部、112 演出内容決定部 120 通信制御部、121 受信部、122 送信部、130 演出処理部、131 音処理部、162 検出部、170 記憶部、171 主記憶部、172 演出データベース、180 情報記憶媒体、192 音出力部、196 通信部、
200 処理部、210 演出管理部、220 通信制御部、221 受信部、222 送信部、270 記憶部、271 主記憶部、260 格納部、261 プレーヤ情報、263 演出管理データ、264 演出内容、280 情報記憶媒体、296 通信部、300 処理部、再生処理部310、表示制御部312、320 通信制御部、321 受信部、322 送信部、330 画像生成部、340 音生成部、360 入力部、362 検出部、370 記憶部、371 主記憶部、372 画像バッファ、380 情報記憶媒体、390 表示部、392 音出力部、396 通信部
10 production devices, 20 servers, 30 terminals,
DESCRIPTION OF SYMBOLS 100 Processing part, 112 Production content determination part 120 Communication control part, 121 Reception part, 122 Transmission part, 130 Production processing part, 131 Sound processing part, 162 Detection part, 170 Storage part, 171 Main memory part, 172 Production database, 180 Information storage medium, 192 sound output unit, 196 communication unit,
200 processing unit, 210 production management unit, 220 communication control unit, 221 reception unit, 222 transmission unit, 270 storage unit, 271 main storage unit, 260 storage unit, 261 player information, 263 production management data, 264 production content, 280 information Storage medium, 296 communication unit, 300 processing unit, reproduction processing unit 310, display control unit 312, 320 communication control unit, 321 reception unit, 322 transmission unit, 330 image generation unit, 340 sound generation unit, 360 input unit, 362 detection Unit, 370 storage unit, 371 main storage unit, 372 image buffer, 380 information storage medium, 390 display unit, 392 sound output unit, 396 communication unit

Claims (11)

複数の媒体を配置可能なステージを備える演出装置のためのプログラムであって、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部として、コンピュータを機能させることを特徴とするプログラム。
A program for a production device including a stage on which a plurality of media can be arranged,
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
A program that causes a computer to function as an effect processing unit that performs effect processing based on the effect content determined by the effect content determination unit.
請求項1において、
前記演出内容決定部が、
前記複数の媒体の位置関係に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In claim 1,
The production content determination unit
A program characterized by performing a process of determining production contents based on a positional relationship among the plurality of media.
請求項1又は2において、
前記検出部が、
前記ステージに配置された前記媒体の向きを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の向きに基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In claim 1 or 2,
The detection unit is
Detecting the orientation of the medium placed on the stage;
The production content determination unit
The program which performs the process which determines the production | presentation content based on the direction of the said medium detected by the said detection part.
請求項1〜3のいずれかにおいて、
前記検出部が、
前記ステージに配置された前記媒体の姿勢状態を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の姿勢状態に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-3,
The detection unit is
Detecting the posture state of the medium placed on the stage,
The production content determination unit
A program for performing a process of determining production contents based on a posture state of the medium detected by the detection unit.
請求項1〜4のいずれかにおいて、
前記検出部が、
前記ステージに配置された前記媒体の高さを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の高さに基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-4,
The detection unit is
Detecting the height of the medium placed on the stage;
The production content determination unit
The program which performs the process which determines the production | presentation content based on the height of the said medium detected by the said detection part.
請求項1〜5のいずれかにおいて、
前記検出部が、
前記ステージに配置された前記媒体の装着パーツの有無を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の装着パーツの有無に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-5,
The detection unit is
Detect the presence or absence of the mounting part of the medium placed on the stage,
The production content determination unit
The program which performs the process which determines the content of production based on the presence or absence of the mounting | wearing part of the said medium detected by the said detection part.
請求項6において、
前記媒体に装着パーツが有る場合に、
前記検出部が、
当該装着パーツの種類を検出し、
前記演出内容決定部が、
前記装着パーツの種類に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In claim 6,
When there is a mounting part in the medium,
The detection unit is
Detects the type of the attached part,
The production content determination unit
A program for performing a process of determining production contents based on a type of the mounted part.
請求項1〜7のいずれかにおいて、
前記複数の媒体が前記ステージに配置された時点から、配置状態の継続時間を計時する計時部として、コンピュータを更に機能させ、
前記演出内容決定部が、
前記配置状態の継続時間に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-7,
From the time when the plurality of media are placed on the stage, as a timekeeping unit that times the duration of the placement state, further causing the computer to function,
The production content determination unit
The program which performs the process which determines the production content based on the continuation time of the said arrangement | positioning state.
複数の媒体を配置可能なステージを備える演出装置であって、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、を含むことを特徴とする演出装置。
An effect device including a stage on which a plurality of media can be arranged,
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit comprising: an effect processing unit that performs effect processing based on the effect content determined by the effect content determining unit.
複数の媒体を配置可能なステージを備える演出装置と端末とがネットワークを介して接続される演出システムであって、
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記端末に送信する処理を行う送信部と、
を含み、
前記端末が、
前記演出済の演出内容に関する情報を、前記演出装置から受信する処理を行う受信部と、
演出済の演出内容に関する情報に基づいて、前記演出済の演出内容を再生する処理を行う再生処理部と、
を含むことを特徴とする演出システム。
A rendering system in which a rendering device including a stage capable of arranging a plurality of media and a terminal are connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmission unit that performs processing for transmitting information related to the contents of the rendered performance to the terminal;
Including
The terminal is
A receiving unit that performs processing for receiving information related to the contents of the rendered effects from the rendering device;
Based on information related to the effect content that has been effected, a reproduction processing unit that performs processing to reproduce the effect content that has been effected,
The production system characterized by including.
複数の媒体を配置可能なステージを備える演出装置、端末及びサーバがネットワークを介して接続される演出システムであって、
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記サーバに送信する処理を行う送信部と、
を含み、
前記サーバが、
前記演出装置から前記演出済の演出内容に関する情報を受信する処理と、前記端末から演出済の演出内容の再生要求を受信する処理と、を行う受信部と、
前記端末から前記演出済の演出内容の再生要求を受信した場合に、前記演出済の演出内容を前記端末に送信する送信部と、
を含み、
前記端末が、
前記サーバに、前記演出済の演出内容の再生要求を送信する送信部と、
前記演出済の演出内容を、前記サーバから受信する処理を行う受信部と、
前記演出済の演出内容を再生する処理を行う再生処理部と、
を含むことを特徴とする演出システム。
An effect system including a stage capable of arranging a plurality of media, a terminal, and a server connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmitter for performing processing for transmitting information related to the contents of the rendered performance to the server;
Including
The server is
A receiving unit that performs a process of receiving information on the content of the rendered effect from the rendering device and a process of receiving a reproduction request for the rendered content of the effect from the terminal;
A transmission unit that transmits the content of the rendered effect to the terminal when the reproduction request for the rendered content of the effect is received from the terminal;
Including
The terminal is
A transmission unit for transmitting a reproduction request for the produced content of the production to the server;
A receiving unit that performs a process of receiving the rendered content of the performance from the server;
A reproduction processing unit for performing a process of reproducing the produced production contents;
The production system characterized by including.
JP2016188566A 2016-09-27 2016-09-27 Program, performance device, and performance system Pending JP2018050807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016188566A JP2018050807A (en) 2016-09-27 2016-09-27 Program, performance device, and performance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016188566A JP2018050807A (en) 2016-09-27 2016-09-27 Program, performance device, and performance system

Publications (1)

Publication Number Publication Date
JP2018050807A true JP2018050807A (en) 2018-04-05

Family

ID=61834634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188566A Pending JP2018050807A (en) 2016-09-27 2016-09-27 Program, performance device, and performance system

Country Status (1)

Country Link
JP (1) JP2018050807A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020058632A (en) * 2018-10-11 2020-04-16 株式会社バンダイ Performance presenting device, program, and performance presentation system
JP2022164675A (en) * 2019-08-27 2022-10-27 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006130123A (en) * 2004-11-08 2006-05-25 Sega Corp Game apparatus, and game program performed in the same
JP2006142054A (en) * 2002-06-11 2006-06-08 Sega Corp Game machine
JP2006260602A (en) * 2006-06-13 2006-09-28 Sony Computer Entertainment Inc Image processing apparatus
JP2010253284A (en) * 2005-04-01 2010-11-11 Kenji Yoshida Information inputting apparatus
JP2011143095A (en) * 2010-01-15 2011-07-28 Tomy Co Ltd Game apparatus
JP2013192722A (en) * 2012-03-19 2013-09-30 Konami Digital Entertainment Co Ltd Game system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142054A (en) * 2002-06-11 2006-06-08 Sega Corp Game machine
JP2006130123A (en) * 2004-11-08 2006-05-25 Sega Corp Game apparatus, and game program performed in the same
JP2010253284A (en) * 2005-04-01 2010-11-11 Kenji Yoshida Information inputting apparatus
JP2006260602A (en) * 2006-06-13 2006-09-28 Sony Computer Entertainment Inc Image processing apparatus
JP2011143095A (en) * 2010-01-15 2011-07-28 Tomy Co Ltd Game apparatus
JP2013192722A (en) * 2012-03-19 2013-09-30 Konami Digital Entertainment Co Ltd Game system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020058632A (en) * 2018-10-11 2020-04-16 株式会社バンダイ Performance presenting device, program, and performance presentation system
JP2022164675A (en) * 2019-08-27 2022-10-27 株式会社コナミデジタルエンタテインメント Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method

Similar Documents

Publication Publication Date Title
JP7366196B2 (en) Widespread simultaneous remote digital presentation world
JP6809830B2 (en) Programs and electronics
JP6955861B2 (en) Event control system and program
JP6598500B2 (en) Viewport based augmented reality haptic effect system, method and non-transitory computer readable medium
KR101686576B1 (en) Virtual reality system and audition game system using the same
CN103657087B (en) Formula narration environment on the spot in person
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
CN104010706B (en) The direction input of video-game
CN107683166A (en) For limiting filtering and the father and mother&#39;s control method of the visual activity on head mounted display
US11704874B2 (en) Spatial instructions and guides in mixed reality
CN107683449A (en) The personal space content that control is presented via head mounted display
CN103971401A (en) Information Processing Device, Terminal Device, Information Processing Method, And Programme
CN104937641A (en) Information processing device, terminal device, information processing method, and programme
JP2012213492A (en) Program, information storage medium, game terminal and server system
JP7038482B2 (en) Computer systems, game systems and programs
KR20130136630A (en) System of servicing famous people&#39;s character in smart phone and operating method thereof
Schraffenberger Arguably augmented reality: relationships between the virtual and the real
JP2018050807A (en) Program, performance device, and performance system
US20180373884A1 (en) Method of providing contents, program for executing the method on computer, and apparatus for providing the contents
CN114359519A (en) Meta universe system
Loijens et al. What is augmented reality?
JP7051993B2 (en) Programs and electronic devices
JP2016087007A (en) Online game system and online game server
Tang et al. Emerging human-toy interaction techniques with augmented and mixed reality
JP7412613B1 (en) Information processing systems and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190925

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406