JP2018050807A - Program, performance device, and performance system - Google Patents
Program, performance device, and performance system Download PDFInfo
- Publication number
- JP2018050807A JP2018050807A JP2016188566A JP2016188566A JP2018050807A JP 2018050807 A JP2018050807 A JP 2018050807A JP 2016188566 A JP2016188566 A JP 2016188566A JP 2016188566 A JP2016188566 A JP 2016188566A JP 2018050807 A JP2018050807 A JP 2018050807A
- Authority
- JP
- Japan
- Prior art keywords
- effect
- unit
- sound
- sound data
- production
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、プログラム、演出装置及び演出システムに関する。 The present invention relates to a program, a rendering device, and a rendering system.
従来から、アニメに登場するキャラクタや、人物等を模したフィギュアと呼ばれる媒体が存在する。多くのユーザは、これらのフィギュアを眺めて楽しむ。 Conventionally, there is a medium called a figure imitating a character or a person appearing in an animation. Many users enjoy watching these figures.
また、従来技術として、玩具を搭載するステージを備え、玩具から識別コードを読み取り、玩具の種別に応じてゲームの内容を異なるものにする演出装置が存在する(特許文献1の0006段落参照)。 Further, as a conventional technique, there is an effect device that includes a stage on which a toy is mounted, reads an identification code from the toy, and changes the content of the game depending on the type of toy (see paragraph 0006 of Patent Document 1).
しかし、従来から存在するフィギュアは鑑賞することがメインとなっており、鑑賞以外の楽しみ方が見出せていないという課題がある。また、特許文献1が示す演出装置は、単体のキャラクタ玩具を搭載するだけであり、プレーヤにとって面白みに欠けるものがある。
However, the figure that exists from the past has been mainly viewed, and there is a problem that no way of enjoying other than viewing can be found. In addition, the rendering device disclosed in
本発明は、このような課題に鑑みたものであり、その目的は、複数の媒体(フィギュア等)をステージに配置することを可能とし、複数の媒体それぞれの種類及び位置に基づいて、演出処理を行うことが可能なプログラム、演出装置及び演出システムを提供することにある。 The present invention has been made in view of such a problem, and the object thereof is to enable a plurality of media (such as figures) to be arranged on the stage, and to perform the rendering process based on the type and position of each of the plurality of media. It is to provide a program, a rendering device, and a rendering system that can perform the above.
(1)本発明は、
複数の媒体を配置可能なステージを備える演出装置のためのプログラムであって、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部として、コンピュータを機能させるプログラムに関する。
(1) The present invention
A program for a production device including a stage on which a plurality of media can be arranged,
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
The present invention relates to a program that causes a computer to function as an effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit.
また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるための上記プログラムを記憶した情報記憶媒体に関する。また、本発明は、上記各部を含む演出装置に関する。 The present invention also relates to a computer-readable information storage medium that stores the program for causing the computer to function as each unit. The present invention also relates to an effect device including the above-described parts.
本発明によれば、プレーヤは、媒体(例えば、フィギュア)を鑑賞するだけでなく、複数の媒体それぞれの位置を考慮して各媒体をステージに配置することによって演出を楽しむことができる。 According to the present invention, a player can enjoy not only viewing a medium (for example, a figure) but also enjoying the effect by arranging each medium on the stage in consideration of the position of each of the plurality of mediums.
(2)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記演出内容決定部が、
前記複数の媒体の位置関係に基づいて、演出内容を決定する処理を行うようにしてもよ
い。
(2) Moreover, the program, the information storage medium, and the rendering device of the present invention are:
The production content determination unit
You may make it perform the process which determines production | presentation content based on the positional relationship of the said some medium.
ここで、「複数の媒体の位置関係」とは、複数の媒体の隣接関係(前後関係)、複数の媒体間の距離等である。 Here, the “positional relationship between a plurality of media” refers to an adjacent relationship (a longitudinal relationship) between a plurality of media, a distance between the plurality of media, and the like.
本発明によれば、プレーヤは、複数の媒体それぞれの位置関係を考慮して各媒体をステージに配置することによって、複数の媒体それぞれの位置関係に応じた演出を楽しむことができる。 According to the present invention, the player can enjoy an effect according to the positional relationship of each of the plurality of media by placing each medium on the stage in consideration of the positional relationship of each of the plurality of media.
(3)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の向きを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の向きに基づいて、演出内容を決定する処理を行うようにしてもよい。
(3) Further, the program, information storage medium and rendering device of the present invention are:
The detection unit is
Detecting the orientation of the medium placed on the stage;
The production content determination unit
You may make it perform the process which determines the production | presentation content based on the direction of the said medium detected by the said detection part.
本発明によれば、プレーヤは、媒体の向きを考慮して各媒体をステージに配置することによって、媒体の向きに応じた演出を楽しむことができる。 According to the present invention, the player can enjoy the effect according to the direction of the medium by arranging each medium on the stage in consideration of the direction of the medium.
(4)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の姿勢状態を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の姿勢状態に基づいて、演出内容を決定する処理を行うようにしてもよい。
(4) Also, the program, information storage medium, and rendering device of the present invention are:
The detection unit is
Detecting the posture state of the medium placed on the stage,
The production content determination unit
Based on the posture state of the medium detected by the detection unit, a process for determining the production content may be performed.
ここで、「姿勢状態」は、立っているか、座っているか等の媒体の姿勢状態を意味する。 Here, the “posture state” means a posture state of the medium such as standing or sitting.
本発明によれば、プレーヤは、媒体の姿勢状態を考慮して各媒体をステージに配置することによって、媒体の姿勢状態に応じた演出を楽しむことができる。 According to the present invention, the player can enjoy an effect according to the posture state of the medium by arranging each medium on the stage in consideration of the posture state of the medium.
(5)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の高さを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の高さに基づいて、演出内容を決定する処理を行うようにしてもよい。
(5) Moreover, the program, information storage medium, and rendering device of the present invention are:
The detection unit is
Detecting the height of the medium placed on the stage;
The production content determination unit
You may make it perform the process which determines the content of production based on the height of the said medium detected by the said detection part.
本発明によれば、プレーヤは、媒体の高さを考慮して各媒体をステージに配置することによって、媒体の高さに応じた演出を楽しむことができる。 According to the present invention, the player can enjoy an effect corresponding to the height of the medium by arranging each medium on the stage in consideration of the height of the medium.
(6)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記検出部が、
前記ステージに配置された前記媒体の装着パーツの有無を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の装着パーツの有無に基づいて、演出内容を決定する処理を行うようにしてもよい。
(6) Moreover, the program, the information storage medium, and the rendering device of the present invention are:
The detection unit is
Detect the presence or absence of the mounting part of the medium placed on the stage,
The production content determination unit
You may make it perform the process which determines the production content based on the presence or absence of the mounting | wearing part of the said medium detected by the said detection part.
本発明によれば、プレーヤは、媒体の装着パーツの有無を考慮して各媒体をステージに
配置することによって、媒体の装着パーツの有無に応じた演出を楽しむことができる。
According to the present invention, the player can enjoy an effect according to the presence or absence of a medium mounting part by placing each medium on the stage in consideration of the presence or absence of the medium mounting part.
(7)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記媒体に装着パーツが有る場合に、
前記検出部が、
当該装着パーツの種類を検出し、
前記演出内容決定部が、
前記装着パーツの種類に基づいて、演出内容を決定する処理を行うようにしてもよい。
(7) Moreover, the program, the information storage medium, and the rendering device of the present invention are:
When there is a mounting part in the medium,
The detection unit is
Detects the type of the attached part,
The production content determination unit
You may make it perform the process which determines the production content based on the kind of said mounting | wearing parts.
本発明によれば、プレーヤは、媒体の装着パーツの種類を考慮して各媒体をステージに配置することによって、媒体の装着パーツの種類に応じた演出を楽しむことができる。 According to the present invention, the player can enjoy an effect according to the type of the medium mounting part by placing each medium on the stage in consideration of the type of the medium mounting part.
(8)また、本発明のプログラム、情報記憶媒体及び演出装置は、
前記複数の媒体が前記ステージに配置された時点から、配置状態の継続時間を計時する計時部として、コンピュータを更に機能させ、
前記演出内容決定部が、
前記配置状態の継続時間に基づいて、演出内容を決定する処理を行うようにしてもよい。本発明によれば、プレーヤは、配置状態の継続時間に基づく演出を楽しむことができる。
(8) Further, the program, the information storage medium, and the rendering device of the present invention are:
From the time when the plurality of media are placed on the stage, as a timekeeping unit that times the duration of the placement state, further causing the computer to function,
The production content determination unit
You may make it perform the process which determines the content of production based on the continuation time of the said arrangement | positioning state. According to the present invention, the player can enjoy an effect based on the duration of the arrangement state.
(9)また、本発明は、
複数の媒体を配置可能なステージを備える演出装置と端末とがネットワークを介して接続される演出システムであって、
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記端末に送信する処理を行う送信部と、
を含み、
前記端末が、
前記演出済の演出内容に関する情報を、前記演出装置から受信する処理を行う受信部と、
演出済の演出内容に関する情報に基づいて、前記演出済の演出内容を再生する処理を行う再生処理部と、
を含む演出システムに関する。
(9) The present invention also provides:
A rendering system in which a rendering device including a stage capable of arranging a plurality of media and a terminal are connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmission unit that performs processing for transmitting information related to the contents of the rendered performance to the terminal;
Including
The terminal is
A receiving unit that performs processing for receiving information related to the contents of the rendered effects from the rendering device;
Based on information related to the effect content that has been effected, a reproduction processing unit that performs processing to reproduce the effect content that has been effected,
It is related with the production system containing.
本発明によれば、プレーヤは、媒体(例えば、フィギュア)を鑑賞するだけでなく、複数の媒体それぞれの位置を考慮して各媒体をステージに配置することによって演出を楽しむことができる。また、本発明は、端末において、演出済の演出内容を再生することができる。 According to the present invention, a player can enjoy not only viewing a medium (for example, a figure) but also enjoying the effect by arranging each medium on the stage in consideration of the position of each of the plurality of mediums. In addition, according to the present invention, it is possible to reproduce the content of the effect that has been effected at the terminal.
(10)また、本発明は、
複数の媒体を配置可能なステージを備える演出装置、端末及びサーバがネットワークを介して接続される演出システムであって、
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記サーバに送信する処理を行う送信部と、
を含み、
前記サーバが、
前記演出装置から前記演出済の演出内容に関する情報を受信する処理と、前記端末から演出済の演出内容の再生要求を受信する処理と、を行う受信部と、
前記端末から前記演出済の演出内容の再生要求を受信した場合に、前記演出済の演出内容を前記端末に送信する送信部と、
を含み、
前記端末が、
前記サーバに、前記演出済の演出内容の再生要求を送信する送信部と、
前記演出済の演出内容を、前記サーバから受信する処理を行う受信部と、
前記演出済の演出内容を再生する処理を行う再生処理部と、
を含む演出システムに関する。
(10) The present invention also provides:
An effect system including a stage capable of arranging a plurality of media, a terminal, and a server connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmitter for performing processing for transmitting information related to the contents of the rendered performance to the server;
Including
The server is
A receiving unit that performs a process of receiving information on the content of the rendered effect from the rendering device and a process of receiving a reproduction request for the rendered content of the effect from the terminal;
A transmission unit that transmits the content of the rendered effect to the terminal when the reproduction request for the rendered content of the effect is received from the terminal;
Including
The terminal is
A transmission unit for transmitting a reproduction request for the produced content of the production to the server;
A receiving unit that performs a process of receiving the rendered content of the performance from the server;
A reproduction processing unit for performing a process of reproducing the produced production contents;
It is related with the production system containing.
本発明によれば、プレーヤは、媒体(例えば、フィギュア)を鑑賞するだけでなく、複数の媒体それぞれの位置を考慮して各媒体をステージに配置することによって演出を楽しむことができる。また、本発明は、端末において、サーバから演出済の演出内容を受信し、演出済の演出内容を再生することができる。 According to the present invention, a player can enjoy not only viewing a medium (for example, a figure) but also enjoying the effect by arranging each medium on the stage in consideration of the position of each of the plurality of mediums. Also, according to the present invention, at the terminal, it is possible to receive the effect content that has been effected from the server and reproduce the effect content that has been effected.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必要構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. Moreover, not all of the configurations described in the present embodiment are necessary constituent requirements of the present invention.
1.演出システムの説明
本実施形態の演出装置10は、演出装置10のステージSTに配置されたフィギュアの種類や位置を検出して演出内容(例えば、音データ)を決定し、当該演出内容を実行する処理(例えば、音データを出力する処理)を行うものである。例えば、演出装置10は、複数のフィギュアの種類や位置を検出すると、各フィギュアが会話するような音データを発生させるので、ユーザは複数のフィギュアの会話内容を楽しむことができる。特に、本実施形態の演出装置10は、現在の状況に応じた適切な会話ができるように、シチュエーションに応じた音出力等を行っている。
1. Description of the production system The
図1は、本実施形態の演出システム1(ネットワークシステム、演出システム)のネットワーク図の一例を示す。本実施形態の演出システム1は、少なくとも演出装置10と端末30(例えば、スマートフォンなどの携帯端末)とを含み、演出装置10、端末30はネットワーク(例えば、インターネット)を介して接続されている。
FIG. 1 shows an example of a network diagram of the rendering system 1 (network system, rendering system) of the present embodiment. The
また、演出システム1は、演出に関するサービスを提供するサーバ20を含んでもよい。つまり、演出装置10は、ネットワークを介してサーバ20と接続されていてもよい。
The
また、演出システム1は、図示していないが、課金サーバ、情報配信サーバなど種々の機能を有するサーバを含んでもよい。つまり、演出装置10及びサーバ20は、ネットワークを介して、他のサーバと接続されていてもよい。
In addition, the
本実施形態の演出装置10は、図1に示すように、ステージSTを有するものであり、ステージST上にフィギュア(媒体の一例)を搭載可能である。
As shown in FIG. 1, the
そして、演出装置10は、フィギュアの種類や位置を検出すると、フィギュアの種類や位置に基づいて、音データを出力(発生)させる。特に、演出装置10は、複数のフィギュアそれぞれの位置関係に応じて、フィギュア同士が会話しているような演出を行うように制御する。更に、演出装置10は、ステージST上に配置されたフィギュアの位置関係を変えた場合、発生する音データを変化させ、会話内容を変化させるように制御し、演出のバリエーションが増えるように制御している。
Then, when the
なお、演出装置10の形状は、図1に示すように、平坦なステージSTに限らず、船の形状をしたステージや家を再現したステージ、家の居間を再現したステージ、車(戦車)等を再現したステージ等であってもよい。
As shown in FIG. 1, the shape of the
また、フィギュアは、3次元の媒体であればよい。例えば、フィギュアは、アニメやゲームに登場するキャラクタ、動物、人を模した3次元の媒体や、大道具、小道具、食べ物の模型、小物、玩具、ぬいぐるみ等である。なお、フィギュアは、車、戦車等の模型であってもよい。 The figure may be a three-dimensional medium. For example, a figure is a three-dimensional medium that imitates characters, animals, and people appearing in anime and games, tools, props, food models, accessories, toys, stuffed animals, and the like. The figure may be a model of a car, a tank, or the like.
また、サーバ20は、ユーザ毎に、各演出内容に対応付けて、演出に関する情報(例えば、演出済(音出力済)か否かを示すフラグF)を管理する。また、サーバ20は、演出内容を記憶し、所与のタイミングに演出内容を演出装置10に送信してもよい。
Moreover, the
なお、サーバ20は、複数のユーザ(プレーヤ)間でコミュニケーションを提供することが可能なサービスを提供する情報処理装置であり、本実施形態ではSNS(ソーシャル・ネットワーキング・サービス)と呼ばれるコミュニティ型のサービスを提供するサーバでもよい。つまり、サーバ20は、ユーザの情報(ユーザ名、日記、掲示情報、ゲームフィールドの状況など)をログインしたユーザだけでなく、当該ユーザとフレンド関係にある他のユーザにも送信し、ユーザ間でコミュニケーションを図るようにしてもよい。サーバ20は、会員登録を行ったユーザに限定してサービスを提供するようにしてもよい。
The
サーバ20は、複数の機能を有するサーバ(ログインサーバ(認証サーバ)、通信サーバ、課金サーバ、データベースサーバ、Webサーバ等)により構成してもよい。
The
端末30は、携帯端末(スマートフォン、携帯電話、携帯型ゲーム機等)、パーソナルコンピュータ(PC)、などの情報処理装置であり、インターネット(WAN)、LANなどのネットワークを介してサーバ20、演出装置10に接続可能な装置である。なお、端末30、サーバ20、演出装置10それぞれを結ぶ通信回線は、有線でもよいし無線でもよい。
The terminal 30 is an information processing device such as a mobile terminal (smart phone, mobile phone, portable game machine, etc.), personal computer (PC), etc., and the
本実施形態の端末30は、演出装置10において実行された演出内容(例えば、音データ)を演出装置10から受信し、演出内容を再生する処理を行う。つまり、演出装置10において発生した音データを、端末30においても再現でき、プレーヤは繰り返し、フィギュアの会話内容を聞くことができるようにしている。
The terminal 30 of this embodiment receives the content of the effect (for example, sound data) performed in the
なお、本実施形態の端末30は、サーバ20を介して、演出装置10において実行された演出内容(例えば、音データ)を受信し、演出内容を再生する処理を行ってもよい。
In addition, the
また、本実施形態のサーバ20は、端末30からの要求に応じて、オンラインゲームサービス(ソーシャルゲーム)を提供してもよい。
Moreover, the
また、演出装置10は、ネットワークを介して、家庭用のゲーム装置、業務用のゲーム装置(筐体)と接続され、相互にデータを送受信できるように制御してもよい。
In addition, the
2.構成
2.1.演出装置10の構成
図2に本実施形態の演出装置10の機能ブロック図の一例を示す。なお本実施形態の演出装置10は図2の構成要素(各部)の一部を省略した構成としてもよい。
2. Configuration 2.1. FIG. 2 shows an example of a functional block diagram of the
検出部162は、ステージに配置された複数の媒体それぞれの種類及び位置を検出する。
The
検出部162は、ステージに配置された媒体の向き(複数の媒体それぞれの向き)を検
出してもよい。
The
検出部162は、ステージに配置された媒体の姿勢状態(複数の媒体それぞれの姿勢状態)を検出してもよい。
The
検出部162は、ステージに配置された媒体の高さ(複数の媒体それぞれの高さ)を検出してもよい。
The
検出部162は、ステージに配置された媒体の装着パーツの有無(複数の媒体それぞれの装着パーツの有無)を検出してもよい。媒体に装着パーツが有る場合に、検出部162は、当該装着パーツの種類を検出してもよい。
The
記憶部170は、処理部100の各部としてコンピュータを機能させるためのプログラムや各種データを記憶するとともに、処理部100や通信部196の記憶領域として機能する。
The
そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、演出データベース172とを含む。なお、これらの一部を省略する構成としてもよい。
And the memory |
主記憶部171は、RAMなどにより実現できる。例えば、主記憶部171には、サーバ20から受信したゲームデータ等が記憶される。なお、演出装置10は、ゲームデータ等を必要に応じて記憶部10のストレージに記憶するようにしてもよい。なお、ストレージとは、ハードディスク、光学ディスク、フラッシュメモリ、磁気テープ等であり、データを永続的に記憶する装置のことをいう。
The
また、演出データベース172には、演出に関する演出内容(例えば、音データ)が記憶される。例えば、演出装置10は、予め出力する演出内容を演出データベース172に記憶してもよいし、サーバ20から演出内容を受信して、演出データベース172に記憶してもよい。演出データベース172には、音データ毎に、音IDに対応付けて、音データ、プレイ情報(音出力済みか否かを示すフラグF、再生回数、再生時間等)を記憶する。
In addition, the
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。 The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).
また、情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部100は、後述するように、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。
Further, the
音出力部192は、処理部100で生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
The
通信部196はサーバ20との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
The
なお、サーバ20が有する情報記憶媒体や記憶部に記憶されているプログラムや各種デ
ータを、ネットワークを介して受信し、受信したプログラムやデータを記憶部170に記憶してもよい。このようにプログラムや各種データを受信して演出装置10の処理部100の各部としてコンピュータを機能させる場合も本発明の範囲内に含む。
Note that the program and various data stored in the information storage medium and storage unit of the
処理部100(プロセッサ)は、検出部162で検出されたデータ、記憶部170や情報記憶媒体180に格納されるプログラム及びデータ、通信部196を介して受信したデータなどに基づいて、演出処理(音制御)などの処理を行う。処理部100は、記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
Based on the data detected by the
処理部100は、演出内容決定部112、計時部113、通信制御部120、演出処理部130を含む。
The
演出内容決定部112は、検出部162によって検出された媒体の種類に基づいて、演出内容を決定する処理を行う。また、演出内容決定部112は、検出部162によって検出された媒体の位置に基づいて、演出内容を決定する処理を行う。
The effect
特に、本実施形態の演出内容決定部112は、検出部162によって検出された複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う。例えば、演出内容決定部112は、複数の媒体の位置関係に基づいて、演出内容を決定する処理を行う。
In particular, the effect
なお、演出内容決定部112は、検出部162によって検出された媒体の向きに基づいて、演出内容を決定してもよい。
The effect
また、演出内容決定部112は、検出部162によって検出された媒体の姿勢状態に基づいて、演出内容を決定する処理を行うようにしてもよい。
Further, the effect
また、演出内容決定部112は、検出部162によって検出された媒体の高さに基づいて、演出内容を決定する処理を行うようにしてもよい。
Further, the effect
また、演出内容決定部112は、検出部162によって検出された媒体の装着パーツの有無に基づいて、演出内容を決定する処理を行うようにしてもよい。媒体に装着パーツが有る場合に、演出内容決定部112は、装着パーツの種類に基づいて、演出内容を決定する処理を行ってもよい。
Further, the effect
また、演出内容決定部112は、配置状態の継続時間に基づいて、演出内容を決定する処理を行うようにしてもよい。
Further, the production
また、演出内容決定部112は、媒体の位置、向き、姿勢状態、高さ、装着パーツの有無、装着パーツの種類、配置状態の継続時間の少なくとも1つに基づいて、演出内容を決定する処理を行うようにしてもよい。
In addition, the effect
計時部113は、複数の媒体がステージに配置された時点から、配置状態の継続時間を計時する。
The
通信制御部120は、サーバ20や端末30との接続(セッションやコネクション)を確立し、ネットワークを介してデータ(例えば、ゲームデータ等)を送受信する処理を行う。
The
通信制御部120は、データを受信する受信部121と、データを送信する送信部122とを含む。
The
例えば、受信部122は、新たな演出内容(例えば、音データ)を、サーバ20から受信する。
For example, the receiving
例えば、送信部122は、演出済の演出内容に関する情報(例えば、演出済の演出内容、演出済の演出内容を識別する情報(例えば、音ID))を端末30に送信する処理を行う。
For example, the
また、送信部122は、演出済の演出内容に関する情報をサーバ20に送信する処理を行ってもよい。
Moreover, the
演出処理部130は、演出内容決定部112によって決定された演出内容に基づいて、演出処理を行う。
The
また、演出処理部130は、音処理部131を含む。音処理部131は、演出内容決定部112によって決定された音データ(演出内容の一例)を音出力部192に出力する処理を行う。例えば、音データは、キャラクタに応じた会話内容等でもいし、BGM、効果音でもよい。
The
2.2.サーバ20の構成
図3に本実施形態のサーバ20の機能ブロック図の例を示す。本実施形態のサーバ20は図3の構成要素(各部)の一部を省略した構成としてもよい。
2.2. Configuration of
記憶部270は、処理部200や通信部296などの記憶領域として機能する。記憶部270は、主記憶部272、格納部260(例えば、データベース)を含む。主記憶部272は、ワーク領域であり、RAM、VRAMなどにより実現できる。格納部260は、ストレージなどにより実現できる。
The
格納部260には、サーバ20が管理する各プレーヤのプレーヤ情報261を格納する。
The
プレーヤ情報261には、プレーヤID(プレーヤ識別情報)、ログインパスワード、プレーヤ関連性に関するデータを含む。プレーヤ関連性に関するデータは、他のプレーヤとの関連性(例えば、同じグループに所属するか否か、ゲーム内のフレンドであるか否か等)に関するデータを含む。なお、プレーヤ情報261は、プレーヤの端末ID(端末の識別情報)を含んでいてもよい。
The
また、格納部260には、サーバ20が管理する各プレーヤの演出管理データ263を格納する。
Further, the
また、格納部260には、演出内容(音データ、画像データ、動画データ等)264を格納する。
The
情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部200は、情報記憶媒体280に格納されるプログラム(デー
タ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
The information storage medium 280 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The
通信部296は外部(例えば、端末、他のサーバや他の演出システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
The
処理部200(プロセッサ)は、記憶部270や情報記憶媒体280に記憶されるプログラム及びデータ、通信部296を介して受信したデータなどに基づいて、処理を行う。
The processing unit 200 (processor) performs processing based on programs and data stored in the
また、処理部200は記憶部270内の主記憶部272をワーク領域として各種処理を行う。処理部200の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
The
特に、本実施形態のサーバの処理部200は、演出管理部210、通信制御部220を含む。なお、これらの一部を省略する構成としてもよい。
In particular, the
演出管理部210は、演出装置10又は端末30と通信を行い、演出管理データ(演出に関する設定情報、演出済の演出内容に関する情報等)を管理する。演出管理部210は、演出装置10又は端末30から受信したプレーヤID、ログインパスワードに基づいて、ログインの管理を行い、ログイン認証できた場合に、管理を行ってもよい。
The
演出管理部210は、プレーヤ毎にプレーヤID(プレーヤ識別情報)に対応づけて演出管理データを管理する。
The
例えば、演出管理部210は、演出装置10から、プレーヤID及び演出管理データを受信し、プレーヤIDに対応づけて当該演出管理データを格納部260(記憶部270)に格納(記憶)する。
For example, the
通信制御部220は、演出装置10や端末30との接続(セッションやコネクション)を確立し、演出装置10や端末30とネットワークを介してデータを送受信する処理を行う。
The
例えば、通信制御部220は、データを受信する受信部221と、データを送信する送信部222とを含む。
For example, the
例えば、受信部221は、演出装置10から演出済の演出内容の識別情報を受信する処理を行う。
For example, the receiving
また、受信部221は、端末30から所定の識別情報の再生要求を受信する処理を行う。
In addition, the
また、送信部222は、新たな演出内容(例えば、音データ)を演出装置10に送信する。
Further, the
例えば、送信部222が音データを送信する際は、音データを送信先(演出装置10や端末30)に送信してもよいし、既に送信先に音データが記憶されている場合には、再生する音IDを送信してもよい。また、送信部222は、再生回数の記録(更新)することを目的とする場合は音データそのものの送信は不要であり、再生回数をカウントする音I
Dを送信する。また、送信部222は、送信先に音IDを送信し、当該送信先において当該音IDの音データがキャッシュされておらず、当該送信先から音データの要求を受け付けた場合には、当該音IDの音データを当該送信先に送信してもよい。
For example, when the
Send D. In addition, the
また、送信部222は、端末30から演出済の演出内容の識別情報の再生要求を受信した場合に、当該識別情報に対応付けられた演出内容を端末30に送信する。例えば、送信部222は、演出済の音データを端末30に送信する。
In addition, when the
2.3 端末30の構成
図4に本実施形態の端末30の機能ブロック図の一例を示す。なお、本実施形態の端末30は図4の構成要素(各部)の一部を省略した構成としてもよい。
2.3 Configuration of
入力部360は、プレーヤからの入力情報を入力するための機器であり、プレーヤの入力情報を処理部300に出力する。本実施形態の入力部360は、プレーヤの入力情報(入力信号)を検出する検出部362を備える。入力部360は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、キーボード、マウスなどがある。
The
また、入力部360は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部(撮影部)を備えた入力機器でもよい。例えば、入力機器は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力機器には、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力機器には、入力機器と一体化されている演出装置、携帯型演出装置、携帯電話なども含まれる。本実施形態の端末30は、複数の入力部360を備えていてもよい。
The
記憶部370は、処理部300の各部としてコンピュータを機能させるためのプログラムや各種データを記憶するとともに、処理部300や通信部396の記憶領域として機能する。
The
そして、本実施形態の記憶部370は、ワーク領域として使用される主記憶部371と、表示画像等が記憶される画像バッファ372を含む。なお、これらの一部を省略する構成としてもよい。
The
また、記憶部370(端末30のストレージ)には、ゲームアプリケーションが記憶される。 The game application is stored in the storage unit 370 (storage of the terminal 30).
主記憶部371は、RAMなどにより実現でき、画像バッファ372は、VRAMなどにより実現できる。例えば、主記憶部371には、演出装置10又はサーバ20から受信した音データ等を記憶する。画像バッファ372には、画像データ等を記憶する。
The
情報記憶媒体380(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。 An information storage medium 380 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).
また、情報記憶媒体380には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部300は、後述するように、情報記憶媒体380に格納され
るプログラム(データ)に基づいて本実施形態の種々の処理を行う。
Further, the
表示部390は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネルディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。
The
なお、表示部390は、タッチパネルディスプレイを用いることによりプレーヤが操作を行う入力部360としても機能してもよい。ここでタッチパネルとして、例えば抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式などのタッチパネルを用いることができる。
The
音出力部392は、処理部300で生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
The
通信部396はサーバ20との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
The
なお、サーバ20が有する情報記憶媒体や記憶部に記憶されているプログラムや各種データを、ネットワークを介して受信し、受信したプログラムやデータを記憶部370に記憶してもよい。このようにプログラムや各種データを受信して端末30の処理部300の各部としてコンピュータを機能させる場合も本発明の範囲内に含む。
Note that the program and various data stored in the information storage medium and storage unit of the
処理部300(プロセッサ)は、入力部360からの入力情報(操作入力)、記憶部370や情報記憶媒体380に格納されるプログラム及びデータ、通信部396を介して受信したデータなどに基づいて、ゲーム処理、画像生成処理、音生成処理、などの処理を行う。処理部300は、記憶部370内の主記憶部371をワーク領域として各種処理を行う。処理部300の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
The processing unit 300 (processor) is based on input information (operation input) from the
処理部300は、再生処理部310、表示制御部312、通信制御部320、画像生成部330、音生成部340を含む。
The
再生処理部310は、演出内容を再生する処理を行う。例えば、再生処理部310は、演出済の演出内容を再生する処理を行う。
The
再生処理部310は、プレーヤの入力情報(タッチ入力)に基づき、演出内容を再生する処理を行ってもよい。
The
通信制御部320は、演出装置10又はサーバ20との接続(セッションやコネクション)を確立し、ネットワークを介してデータ(例えば、ゲームデータ等)を送受信する処理を行う。
The
通信制御部320は、受信部321と、送信部322とを含む。
受信部321は、演出済の演出内容に関する情報を、演出装置10から受信する。例えば、端末30の演出アプリケーションの実行時など所与のタイミングで、演出装置10から演出済の演出内容に関する情報を受信する。
The receiving
また、送信部322は、サーバ20に、前記演出済の演出内容の再生要求を送信する処
理を行ってもよい。そして、受信部321が演出済の演出内容を、サーバ20から受信する処理を行うようにしてもよい。
Moreover, the
表示制御部312は、表示部390に画面を表示する制御を行う。端末30が、当該画面を生成してもよいし、サーバ20が画面を生成し、端末30がサーバ20から画面のデータを受信して表示してもよい。
The
画像生成部330は、処理部300で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部390に出力する。画像生成部330は、オブジェクト空間(ゲーム空間)内において仮想カメラ(所与の視点)から見える画像(いわゆる3次元画像)を生成してもよい。
The
例えば、画像生成部330は、3次元画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を画像バッファ372(フレームバッファ、ワークバッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。
For example, when generating a three-dimensional image, the
また、画像生成部330は、端末30が備えるカメラ(撮影部)によって撮影された撮影画像と、仮想空間において仮想カメラから見える仮想画像(3次元画像)とを合成して拡張現実画像を生成する処理を行ってもよい。
In addition, the
音生成部340は、処理部300で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部392に出力する。
The
3.フィギュアの検出手法
次に、フィギュアの検出手法について説明する。演出装置10は、ステージSTを備える。そして、演出装置10は、ステージSTに搭載されたフィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類等を検出する。
3. Figure Detection Method Next, a figure detection method will be described. The
例えば、フィギュアには、ユニークなフィギュアのIDを伝えるための情報(マーカ(光学マーカ、バーコード)、RFIDタグ)などが予め付される。演出装置10の検出部162が、これらの情報を検知することでフィギュアを検出する。次にフィギュア検出方法の例について説明する。
For example, information (marker (optical marker, barcode), RFID tag) for transmitting a unique figure ID is attached to the figure in advance. The
3.1 カメラ
第1の例は、カメラによってフィギュアを検出する方法である。図5に示すように、演出装置10は、ステージの壁WAに(壁WAの上部)、或いは、ステージの天井にカメラCA(撮影部)が取り付けられている。
3.1 Camera A first example is a method of detecting a figure by a camera. As shown in FIG. 5, the
また、フィギュアの頭頂部(あるいは背面)に、マーカ(例えば、光学マーカ)が取り付けられている。例えば、フィギュアFAの頭頂部にマーカMAが取り付けられ、フィギュアFBの頭頂部にマーカMBが取り付けられ、フィギュアFCの頭頂部にマーカMCが取り付けられている。 In addition, a marker (for example, an optical marker) is attached to the top (or the back) of the figure. For example, a marker MA is attached to the top of the figure FA, a marker MB is attached to the top of the figure FB, and a marker MC is attached to the top of the figure FC.
そして、カメラCAが、フィギュアFA、FB、FCそれぞれのマーカMA、MB、M
Cを読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。
And camera CA is the marker MA, MB, M for each of the figures FA, FB, FC.
By reading C, the types, positions, orientations, heights, postures, presence / absence of equipment parts, and equipment parts types are detected when there are equipment parts.
なお、第1の例においてカメラによってフィギュアを検出する場合に、マーカを必要としなくてもよい。つまり、マーカーレスであってもよい。例えば、演出装置10は、パターン認識によって、フィギュアFA、FB、FCそれぞれの種類等を検出してもよい。具体的に説明すると、演出装置10は、予めフィギュアFA、FB、FCを特定可能なパターンを記憶部170に記憶し、各フィギュアFA、FB、FCのパターンと、カメラCAによって撮影された撮影画像とに基づいて、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツがある場合は装着パーツの種類を検出する。
In addition, when detecting a figure with a camera in a 1st example, it is not necessary to require a marker. That is, it may be markerless. For example, the
3.2 マルチタッチセンサー
第2の例は、マルチタッチセンサーによってフィギュアを検出する方法である。図6に示すように、演出装置10は、ステージSTの表面に、静電容量のマルチタッチセンサーSEを備える。
3.2 Multi-touch sensor A second example is a method of detecting a figure by a multi-touch sensor. As shown in FIG. 6, the
そして、フィギュアの底面に3つの端子が付されている。例えば、フィギュアFAの底面に、フィギュアFAを識別可能に配置された3つの端子NAが取り付けられ、フィギュアFBの底面にフィギュアFBを識別可能に配置された3つの端子NBが取り付けられ、フィギュアFCの底面に、フィギュアFCを識別可能に配置された3つの端子NCが取り付けられている。 Three terminals are attached to the bottom of the figure. For example, three terminals NA arranged so that the figure FA can be identified are attached to the bottom surface of the figure FA, and three terminals NB arranged so that the figure FB can be identified are attached to the bottom surface of the figure FB. Three terminals NC arranged so that the figure FC can be identified are attached to the bottom surface.
そして、マルチタッチセンサーSEは、各フィギュアの3つの端子の配置を検出する。つまり、マルチタッチセンサー上にフィギュアFA、FB、FCが配置されると、マルチタッチセンサーSEは、フィギュア底面の3つの端子の配置関係を検出し、3つの端子の配置関係に基づきフィギュアの種類を検出する。つまり、フィギュアFA、FB、FCのうち、検出された3つの端子からいずれのフィギュアであるのかを特定する。そして、マルチタッチセンサーSEは、検出されたフィギュア毎に検出された3つ端子の配置関係によってフィギュアの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。 The multi-touch sensor SE detects the arrangement of the three terminals of each figure. In other words, when the figures FA, FB, and FC are arranged on the multi-touch sensor, the multi-touch sensor SE detects the arrangement relationship of the three terminals on the bottom surface of the figure, and determines the type of the figure based on the arrangement relationship of the three terminals. To detect. That is, which figure is identified from the detected three terminals among the figures FA, FB, and FC. And the multi-touch sensor SE is equipped if there is an equipment part, the figure type, position, orientation, height, posture state, presence / absence of equipment parts, depending on the arrangement relationship of the 3 terminals detected for each figure detected. Detect the type of part.
3.3 RFID及びタッチセンサー
第3の例は、RFID(Ra dio Frequency identifier)と、タッチセンサーとによってフィギュアを検出する方法である。図7に示すように、演出装置10は、ステージSTの表面に、RFID用アンテナATと、タッチセンサーSEとを備える。RFID用アンテナは、フィギュアの種類を検出する。
3.3 RFID and Touch Sensor A third example is a method of detecting a figure using an RFID (Radio Frequency identifier) and a touch sensor. As shown in FIG. 7, the
そして、フィギュアの底面に、フィギュアを識別するための固有のIDを示すRFIDタグが付されている。例えば、フィギュアFAの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTAが取り付けられ、フィギュアFBの底面に、フィギュアFBを識別可能な固有のIDを示すRFIDタグTBが取り付けられ、フィギュアFCの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTCが取り付けられる。 An RFID tag indicating a unique ID for identifying the figure is attached to the bottom of the figure. For example, an RFID tag TA indicating a unique ID capable of identifying the figure FA is attached to the bottom surface of the figure FA, and an RFID tag TB indicating a unique ID capable of identifying the figure FB is attached to the bottom surface of the figure FB. An RFID tag TC indicating a unique ID that can identify the figure FA is attached to the bottom surface of the figure FC.
また、ステージの表面にタッチセンサーSEを備える。タッチセンサーSEは、フィギュアの位置を検出する。つまり、タッチセンサーSEは、ステージST上にフィギュアが配置されると、フィギュアの位置を検出すると同時に、RFIDによってフィギュアのIDを検出する。そして、演出装置10は、検出されたフィギュアの位置とフィギュアのI
Dを対応させる。
In addition, a touch sensor SE is provided on the surface of the stage. The touch sensor SE detects the position of the figure. That is, when the figure is placed on the stage ST, the touch sensor SE detects the figure position and at the same time detects the figure ID by RFID. The
Let D correspond.
なお、第3の例では、ステージST上に、同時(同じタイミング)に複数のフィギュアが置かれた場合に、誤検出してしまうという難点がある。 In the third example, when a plurality of figures are placed on the stage ST at the same time (at the same timing), there is a problem that erroneous detection is performed.
3.4 スキャン
第4の例は、スキャンによってフィギュアを検出する方法である。図8に示すように、演出装置10は、ステージSTに、可視光は通さず赤外線を通すフィルターFTを備える。また、演出装置10は、ステージSTの下側に、フィギュアの裏側を走査する赤外線可動カメラCAが備えられる。
3.4 Scan A fourth example is a method of detecting a figure by scanning. As shown in FIG. 8, the
また、フィギュアの底面(裏面)に、マーカ(例えば、光学マーカ)が取り付けられている。例えば、フィギュアFAの底面にマーカMAが取り付けられ、フィギュアFBの底面にマーカMBが取り付けられ、フィギュアFCの底面にマーカMCが取り付けられている。 In addition, a marker (for example, an optical marker) is attached to the bottom surface (back surface) of the figure. For example, the marker MA is attached to the bottom surface of the figure FA, the marker MB is attached to the bottom surface of the figure FB, and the marker MC is attached to the bottom surface of the figure FC.
そして、カメラCAが、フィギュアFA、FB、FCそれぞれの底面のマーカMA、MB、MCを、赤外線カメラCAで走査して読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。 Then, the camera CA scans and reads the markers MA, MB, and MC on the bottom surfaces of the figures FA, FB, and FC with the infrared camera CA to read the types, positions, orientations, and heights of the figures FA, FB, and FC. Then, the posture state, presence / absence of equipment parts, and equipment parts are detected when there are equipment parts.
3.5 RFIDの複数のアンテナ
第5の例は、RFID(Radio Frequency identifier)用の複数のアンテナによってフィギュアを検出する方法である。図9に示すように、演出装置10は、ステージSTの表面に、RFID用アンテナAT1〜AT8を備える。各RFID用アンテナは、フィギュアの種類や位置を検出する。
3.5 Multiple antennas for RFID A fifth example is a method of detecting a figure by using multiple antennas for RFID (Radio Frequency identifier). As shown in FIG. 9, the
そして、フィギュアの底面に、フィギュアを識別するための固有のIDを示すRFIDタグが付されている。例えば、フィギュアFAの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTAが取り付けられ、フィギュアFBの底面に、フィギュアFBを識別可能な固有のIDを示すRFIDタグTBが取り付けられ、フィギュアFCの底面に、フィギュアFAを識別可能な固有のIDを示すRFIDタグTCが取り付けられる。 An RFID tag indicating a unique ID for identifying the figure is attached to the bottom of the figure. For example, an RFID tag TA indicating a unique ID capable of identifying the figure FA is attached to the bottom surface of the figure FA, and an RFID tag TB indicating a unique ID capable of identifying the figure FB is attached to the bottom surface of the figure FB. An RFID tag TC indicating a unique ID that can identify the figure FA is attached to the bottom surface of the figure FC.
演出装置10は、各RFID用アンテナAT1〜AT8のいずれのRFID用アンテナで検出されたかに応じて、フィギュアの位置を判定する。また、演出装置10は、検出されたRFID用アンテナでフィギュアのIDを検出してフィギュアの種類を特定する。第5の例では、フィギュアを配置可能な場所の数が限られる。つまり、一のRFID用アンテナに一のフィギュアを配置することになる。
The
3.6 マイクロスイッチとフィギュアの凹凸による物理的方法
第6の例は、マイクロスイッチとフィギュアの凹凸による物理的方法によって、フィギュアを検出する方法である。図10に示すように、演出装置10は、ステージSTの上面に窪みKB1〜KB8を設け、窪みKB1〜KB8それぞれに、複数のマイクロスイッチ(マイクロスイッチ群)MSを配置する。また、ステージの窪みに、フィギュアをはめる(収める)ことができる
また、フィギュアの底面は、フィギュアを識別するための凹凸の形状を有する。つまり、フィギュアの底面は、鍵のようにフィギュアを識別するための固有の形状をしている。
3.6 Physical Method Using Microswitch and Figure Concavity and convexity A sixth example is a method of detecting a figure by a physical method using microswitch and figure concavity and convexity. As shown in FIG. 10, the
演出装置10は、窪み毎に、ステージSTの窪みにはめられたフィギュアを、複数のマ
イクロスイッチで検知し、フィギュアの種類を判定する。つまり、演出装置10は、窪み毎に、複数のマイクロスイッチのうち、どのマイクロスイッチが押されているかを判別し、検知されたマイクロスイッチの位置(場所)や数に応じて、フィギュアの種類を判別する。
The
また、演出装置10は、窪みKB1〜KB8のうちいずれの窪みに配置されたかによって、フィギュアの位置を検出できる。
In addition, the
また、演出装置10は、窪みの形状に基づいて、フィギュアの向きを検出できる。
In addition, the
3.7 抵抗値
第7の例は、抵抗値によって、フィギュアを検出する方法である。図11に示すように、演出装置10は、ステージSTの上面に窪みKB1〜KB8を設け、窪みKB1〜KB8それぞれに、電極DKを配置する。また、ステージの窪みに、フィギュアをはめる(収める)ことで、通電させることができる
また、フィギュアの底面は、フィギュアを識別するための抵抗値が設定された抵抗が内蔵されている。つまり、フィギュアの種類に応じて異なる抵抗値が予め設定されている。
3.7 Resistance Value A seventh example is a method of detecting a figure based on a resistance value. As shown in FIG. 11, the
演出装置10は、窪み毎に、ステージSTの窪みにはめられたフィギュアの抵抗値を読み取り、フィギュアの種類を判定する。
The
3.8 回転テーブル及びカメラの例
第8の例は、回転テーブル及びカメラCAによって、フィギュアを検出する方法である。図12に示すように、演出装置10は、モーターで回転可能なステージST(回転テーブル)を備える。そして、演出装置10の上方(例えば、ステージSTの壁の上部、或いは、ステージSTの天井)にカメラCA(撮影部)が取り付けられている。なお、カメラCAの位置や向きは固定されている。カメラCAは、フィギュアの頭頂部を向くように設置される。
3.8 Example of rotary table and camera The eighth example is a method of detecting a figure using the rotary table and the camera CA. As shown in FIG. 12, the
また、フィギュアの頭頂部(あるいは背面)に、マーカ(例えば、光学マーカ)が取り付けられている。例えば、フィギュアFAの頭頂部にマーカMAが取り付けられ、フィギュアFBの頭頂部にマーカMBが取り付けられ、フィギュアFCの頭頂部にマーカMCが取り付けられている。 In addition, a marker (for example, an optical marker) is attached to the top (or the back) of the figure. For example, a marker MA is attached to the top of the figure FA, a marker MB is attached to the top of the figure FB, and a marker MC is attached to the top of the figure FC.
そして、演出装置10は、モーターによってステージSTを回転させる。そして、演出装置10は、カメラCAによって、フィギュアFA、FB、FCそれぞれのマーカMA、MB、MCを読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置や向きを検出する。
Then, the
なお、演出装置10は、フィギュアの底面にマーカを付するようにし、ステージST(回転テーブル)を透明にしてもよい。かかる場合には、演出装置10は、ステージSTルの下にカメラCAを上向きに設置する。そして、演出装置10は、ステージSTの下に設置されたカメラCAによって、フィギュア底面のマーカを読み取ることによってフィギュアの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。
The
なお、第8の例においても、第1の例と同様に、カメラによってフィギュアを検出する場合に、マーカを必要としなくてもよい。つまり、演出装置10は、パターン認識によって、フィギュアFA、FB、FCそれぞれの種類等を検出してもよい。
In the eighth example, as in the first example, a marker may not be required when a figure is detected by a camera. That is, the
3.9 回転テーブル及びカメラの他の例
第9の例は、回転テーブル及びカメラCAによって、フィギュアを検出する方法である。図13に示すように、演出装置10は、モーターで回転可能なステージST(回転テーブル)を備える。そして、演出装置10の側面(例えば、ステージSTの壁)にカメラCA(撮影部)が取り付けられている。なお、カメラCAの位置や向きは固定されている。カメラCAは、フィギュアの側面を向くように設置される。
3.9 Another Example of Rotary Table and Camera A ninth example is a method of detecting a figure by using the rotary table and the camera CA. As shown in FIG. 13, the
また、フィギュアの側面部に、マーカ(例えば、バーコード)が取り付けられている。例えば、フィギュアFAの側面部にマーカMAが取り付けられ、フィギュアFBの側面部にマーカMBが取り付けられ、フィギュアFCの側面部にマーカMCが取り付けられている。 In addition, a marker (for example, a barcode) is attached to the side surface of the figure. For example, the marker MA is attached to the side surface of the figure FA, the marker MB is attached to the side surface of the figure FB, and the marker MC is attached to the side surface of the figure FC.
そして、演出装置10は、モーターによってステージSTを回転させる。そして、演出装置10は、カメラCAによって、フィギュアFA、FB、FCそれぞれのマーカMA、MB、MCを読み取ることによって、フィギュアFA、FB、FCそれぞれの種類、位置、向き、高さ、姿勢状態、装備パーツの有無、装備パーツがある場合は装備パーツの種類を検出する。
Then, the
なお、第9の例においても、第1、第8の例と同様に、カメラによってフィギュアを検出する場合に、マーカを必要としなくてもよい。つまり、演出装置10は、パターン認識によって、フィギュアFA、FB、FCそれぞれの種類等を検出してもよい。
In the ninth example as well, as in the first and eighth examples, the marker may not be required when the figure is detected by the camera. That is, the
4.演出内容決定処理及び演出処理についての説明
本実施形態の演出装置10は、演出内容を決定し、当該演出内容に基づいて演出処理を行う手法を採用する。
4). Description of Effect Content Determination Process and Effect Process The
4.1 概要
まず、本実施形態の演出装置10は、検出されたフィギュアの種類等の情報に基づいて、演出内容を決定する処理を行い、決定された演出内容に基づいて、演出処理を行う。
4.1 Overview First, the
ここで、「演出内容」とは、例えば、音データ(会話、声、せりふ、歌、音楽、効果音などの音データ)、画像データ、動画データ(映像)、フィギュア動作データ(フィギュアがゆれるデータ、フィギュアが倒れるデータ、フィギュアが飛ぶデータ、フィギュアの服が脱げるデータ、装着パーツが外れるデータ、フィギュアが発光するデータ)、ステージの照明データ(ステージの照明、スポットライト、フットライト、照明の色や光度を変化させるデータ)、プロジェクションマッピングのデータ等、及びこれらの組み合わせである。 Here, “production contents” means, for example, sound data (sound data such as conversation, voice, dialogue, song, music, sound effects, etc.), image data, video data (video), figure motion data (figure swaying data) , Data to fall the figure, data to fly the figure, data to take off the clothes of the figure, data to remove the attached parts, data to emit the figure), stage lighting data (stage lighting, spotlight, footlight, lighting color, etc. Data for changing light intensity), projection mapping data, and the like, and combinations thereof.
また、「演出処理」とは、演出を発生させる処理を意味する。例えば、「演出処理」とは、音データを出力する処理、画像データや動画データを表示する処理、フィギュアを動作させる処理、ステージの照明を変化させる処理、プロジェクションマッピング処理等、及び、これらの組み合わせである。 Further, “effect processing” means processing for generating an effect. For example, the “production process” is a process of outputting sound data, a process of displaying image data or moving image data, a process of operating a figure, a process of changing the illumination of a stage, a projection mapping process, etc., and a combination thereof It is.
なお、プロジェクションマッピングとは、プロジェクタを使用して空間や物体に映像を投影し、重ね合わせた映像に様々な視覚効果を与える処理のことを示す。演出装置10のステージSTを投影対象にしてもよいし、ステージST及びステージSTに配置されたフィギュアも投影対象にしてもよい。
Note that projection mapping refers to a process of projecting an image on a space or an object using a projector and giving various visual effects to the superimposed image. The stage ST of the
以下の説明においては、具体的に、演出装置10が、音データ(演出内容の一例)を、音出力部から音出力する処理(演出処理の一例)について説明する。本実施形態では、演
出装置10の記憶部170に予め音データを記憶しているものを出力してもよいし、サーバ20からネットワークを介して音データをダウンロードし、ダウンロードした音データを出力させるように制御してもよい。
In the following description, specifically, a process (an example of the effect process) in which the
4.2 種類に基づく演出処理
図14は、記憶部170(演出データベース172)に記憶される演出内容(例えば、音データ)の一例を示す。本実施形態では、音データを識別するための音ID、フィギュアの種類に対応付けて、音データを記憶する。
4.2 Effect Processing Based on Types FIG. 14 shows an example of effect contents (for example, sound data) stored in the storage unit 170 (effect database 172). In the present embodiment, the sound data is stored in association with the sound ID for identifying the sound data and the type of the figure.
例えば、演出装置10は、検出されたフィギュアの種類に基づいて、演出内容を演出データベース172から抽出して決定し、当該演出内容に基づいて演出する処理を行う。図14を用いて説明すると、演出装置10は、フィギュアFAを検出した場合に、フィギュアFAに対応する音データを決定し、決定された音データを音出力部(スピーカー)から出力する。例えば、音ID=1の音データが決定された場合に、音ID=1の音データ(フィギュアFAの「元気?」という音データ)を音出力部(スピーカー)から出力する。
For example, the
なお、本実施形態では、フィギュアの性格を特徴づける会話を再現している。例えば、お宝やお金好きのキャラクタのフィギュアが、宝箱のフィギュアと隣接関係に配置されると、嬉しそうな会話が発生するようになり、プレーヤはフィギュアの性格を楽しむことができる。 In the present embodiment, the conversation characterizing the character of the figure is reproduced. For example, if a figure of a treasure or money-loving character is placed adjacent to the figure of the treasure box, a happy conversation will occur, and the player can enjoy the character of the figure.
また、本実施形態では、例えば、フィギュアの友人関係や仲良し度合いなどを考慮して、予め会話が考えられた音データを記憶している。したがって、仲のよいキャラクタ同士が隣同士にステージ上に配置されると、仲が良さそうな会話が発生することになり、プレーヤはフィギュアのキャラクタ同士の仲良し度合いを楽しむことができる。 In the present embodiment, for example, sound data in which conversation is considered in advance is stored in consideration of the friendship of the figure and the degree of friendship. Therefore, if close friends are arranged on the stage next to each other, a conversation that seems to be close will occur, and the player can enjoy the degree of closeness between the characters in the figure.
4.3 位置に基づいて、演出内容を決定する処理
演出装置10は、検出された複数のフィギュアそれぞれの種類及び位置に基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。つまり、演出装置10は、検出された複数のフィギュアの種類及び位置関係に基づいて、演出内容を決定してもよい。
4.3 Process for Determining Effect Content Based on Position The
図15は、音データの他の例を示す。特に、図15の例では、複数のフィギュアの位置関係に対応付けられた音データの例である。 FIG. 15 shows another example of sound data. In particular, the example of FIG. 15 is an example of sound data associated with the positional relationship of a plurality of figures.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの位置関係が隣接関係にあるか否かを判定する。そして、フィギュアFA、FBの位置の位置関係が隣接関係である場合に、音ID=11の音データを決定し、音出力する。
For example, when the
例えば、演出装置10は、音ID=11の音データ(フィギュアFAが「海がみたいな」、フィギュアFBが「見にいけば?」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
このように、本実施形態では、キャラクタの位置関係が隣接関係になると、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。 As described above, in this embodiment, when the positional relationship between the characters becomes an adjacent relationship, variations in conversation increase, so that the player can enjoy the conversation of the figure.
なお、「位置関係」とは、検出された少なくとも2つのフィギュアの位置の相対的或いは絶対的な関係である。 The “positional relationship” is a relative or absolute relationship between the positions of at least two detected figures.
また、検出された少なくとも2つのフィギュアの位置関係が隣接関係にあるとは、例えば、検出された少なくとも2つのフィギュア間の距離が所定距離以内(例えば、フィギュアFA、フィギュアFBの距離が5センチ未満)であることを意味する。 Further, the positional relationship between at least two detected figures is adjacent, for example, the distance between at least two detected figures is within a predetermined distance (for example, the distance between the figures FA and FB is less than 5 cm) ).
また、「位置関係」は、隣接関係の他、離れている関係(検出された少なくとも2つのフィギュア間の距離が所定距離以上(例えば、フィギュアFA、フィギュアFBの距離が5センチ以上)、前後関係等がある。前後関係とは、一方のフィギュアがステージ正面側に配置され、他方のフィギュアがステージ背後側に配置されている関係を示す。 In addition, the “positional relationship” includes an adjacent relationship as well as a distant relationship (the distance between at least two detected figures is a predetermined distance or more (for example, the distance between the figure FA and the figure FB is 5 centimeters or more)) The anteroposterior relationship indicates a relationship in which one figure is arranged on the front side of the stage and the other figure is arranged on the back side of the stage.
また、演出装置10は、3体のフィギュアFA、FB、FCに応じた歌声の音データを発生させる場合に、真ん中(中央)の位置に配置されたフィギュアの種類に基づいて、発生させる音データを決定する。例えば、フィギュアFAが真ん中に配置された場合には、フィギュアFAの声優をメインボーカルにした音データを出力させ、フィギュアFBが真ん中に配置された場合には、フィギュアFBの声優をメインボーカルにした音データを出力させ、フィギュアFCが真ん中に配置された場合には、フィギュアFCの声優をメインボーカルにした音データを出力させる。
In addition, when the
4.4 向きに基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアの向きに基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。例えば、演出装置10は、検出されたフィギュアの向きが所定方向(例えば、正面方向、背面方向、各フィギュアが互いに向き合う方向)であるか否かに応じて、演出内容を決める。
4.4 Process for Determining Effect Content Based on Direction The
図16は、音データの他の例を示す。特に、図16の例では、フィギュアの向きに対応付けられた音データの例である。 FIG. 16 shows another example of sound data. In particular, the example of FIG. 16 is an example of sound data associated with the direction of the figure.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの向きが正面方向にあるか否かを判定する。そして、フィギュアFA、FBの向きが正面方向である場合に、音ID=21の音データを決定し、音出力する。
For example, when the
なお、「正面方向」とは、演出装置10のステージSTで予め定めた正面の方向であり、演出装置10は、検出された各フィギュアの向きが、ステージSTで予め定めた正面方向を向いているか否かを判定する。
The “front direction” is the direction of the front determined in advance on the stage ST of the
例えば、音ID=21の音データが決定された場合に、演出装置10は、音ID=21の音データ(フィギュアFAが「ねえねえ」、フィギュアFBが「何?」という内容の会話を再現する音データ)を音出力部から出力する。
For example, when the sound data of sound ID = 21 is determined, the
このように、本実施形態では、キャラクタの向きに応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。 As described above, in this embodiment, the number of conversation variations increases according to the direction of the character, so that the player can enjoy the conversation of the figure.
4.5 姿勢状態に基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアそれぞれの姿勢状態に基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。
4.5 Process for Determining Effect Content Based on Attitude State The
ここで「姿勢状態」とは、直立状態、座っている状態か、横になっている状態等である。 Here, the “posture state” is an upright state, a sitting state, a lying state, or the like.
図17は、音データの他の例を示す。特に、図17の例では、フィギュアの姿勢状態に対応付けられた音データの例である。 FIG. 17 shows another example of sound data. In particular, the example of FIG. 17 is an example of sound data associated with the posture state of the figure.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの姿勢状態が直立状態にあるか否かを判定する。そして、フィギュアFA、FBの姿勢状態が直立状態である場合に、音ID=31の音データを決定し、音出力する。
For example, when the
例えば、演出装置10は、音ID=31の音データ(フィギュアFAが「さあ出発だ」、フィギュアFBが「がんばろう」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
このように、本実施形態では、キャラクタの姿勢に応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。 Thus, in this embodiment, the number of conversation variations increases according to the character's posture, so that the player can enjoy the figure conversation.
なお、演出装置10は、検出されたフィギュアの高さが所定値以上か否かに基づいて、フィギュアが直立状態か否かを判断してもよいし、カメラによって撮影された撮影画像からフィギュアの姿勢状態を分析し、フィギュアの姿勢状態が直立状態であるか否かを判断してもよい。
The
4.6 フィギュアの高さに基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアそれぞれの高さに基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。
4.6 Process for Determining Effect Content Based on Figure Height The
ここで「フィギュアの高さ」とは、ステージSTに配置されたフィギュアの当該ステージからの高さを意味する。 Here, “the height of the figure” means the height of the figure placed on the stage ST from the stage.
図18は、音データの他の例を示す。特に、図18の例では、フィギュアの高さに対応付けられた音データの例である。 FIG. 18 shows another example of sound data. In particular, the example of FIG. 18 is an example of sound data associated with the height of the figure.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFA、FBの高さが所定値以上(10センチ以上)にあるか否かを判定する。そして、フィギュアFA、FBの高さが所定値以上である場合に、音ID=41の音データを決定し、音出力する。
For example, when the
例えば、演出装置10は、音ID=41の音データ(フィギュアFAが「そろそろ何か歌う?」、フィギュアFBが「そうだね」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
このように、本実施形態では、フィギュアの高さに応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。 Thus, in this embodiment, since the variation of conversation increases according to the height of the figure, the player can enjoy the conversation of the figure.
4.7 装着パーツの有無に基づいて、演出内容を決定する処理
演出装置10は、検出されたフィギュアの装着パーツ(装備品、装備アイテム)の有無に基づいて、演出内容を決定し、当該演出内容に基づいて演出する処理を行ってもよい。
4.7 Processing for determining production contents based on presence / absence of installed
まず、演出装置10は、フィギュアの種類を検出する際に、あわせて装着パーツの有無を検出する。装着パーツの有無の検出手法は種々考えられる。
First, the
例えば、フィギュアを識別するために付されたマーカとして、装着パーツの有無を判別できるフィギュアIDを付与し、検出部162は検出したフィギュアIDを判別することによって、装着パーツの有無を検出する。
For example, as a marker attached to identify a figure, a figure ID that can determine the presence / absence of a mounted part is given, and the
具体的に説明すると、剣(装着パーツの一例)を所有するフィギュアFAのフィギュアIDをFA1とし、剣を所有しないフィギュアFAのフィギュアIDをFA2とすると、例えば、演出装置10が、フィギュアIDがFA1を検出した場合、剣の装着パーツを有するフィギュアFAを検出したと判定する。
More specifically, assuming that the figure ID of the figure FA that owns the sword (an example of a mounted part) is FA1, and the figure ID of the figure FA that does not own the sword is FA2, for example, the
図19は、音データの他の例を示す。特に、図19の例では、フィギュアの装着パーツの有無に対応付けられた音データの例である。 FIG. 19 shows another example of sound data. In particular, the example of FIG. 19 is an example of sound data associated with the presence / absence of a mounted part of a figure.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、各フィギュアの装着パーツの有無を判別し、フィギュアFAの装着パーツが有りの場合であって、かつ、フィギュアFBの装着パーツが有りの場合、音ID=51の音データを決定し、音出力する。
For example, when the
例えば、演出装置10は、音ID=51の音データ(フィギュアFAが「装備品は何?」、フィギュアFBが「剣だよ」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
このように、本実施形態では、フィギュアの装着パーツの有無に応じて、会話のバリエーションが増えるので、プレーヤは装着パーツの有無に応じてフィギュアを収集しようとする意欲が高まり、また、装着パーツの有無に応じた会話を楽しむことができる。 As described above, in this embodiment, the number of conversations increases depending on the presence / absence of the attached parts of the figure, so that the player is more motivated to collect the figures depending on the presence / absence of the attached parts. You can enjoy conversations according to your presence or absence.
なお、演出装置10は、フィギュアと装着パーツの電気接点によって装着パーツの有無を検出するものであってもよい。
In addition, the
4.8 装着パーツの種類に基づいて、演出内容を決定する処理
演出装置10は、フィギュアが装着パーツを有する場合には、装着パーツの種類に基づいて、演出内容を決定してもよい。
4.8 Processing for Determining Effect Content Based on Type of Mounted Part When the figure has a mounted part, the
まず、演出装置10は、装着パーツが有るフィギュアについて、更に装着パーツの種類を判別する。装着パーツの種類の検出手法は種々考えられる。
First, the
例えば、フィギュアを識別するために付されたマーカとして、装着パーツの有無及び種類を判別できるフィギュアIDを付与し、検出部162は検出したフィギュアIDを判別することによって、装着パーツの有無及び種類を検出する。
For example, as a marker attached to identify a figure, a figure ID that can determine the presence and type of a mounting part is given, and the
具体的に説明すると、剣(装着パーツの一例)を所有するフィギュアFAのフィギュアIDをFA1Aとし、盾(装着パーツの一例)を所有するフィギュアFAのフィギュアIDをFA1Bとすると、例えば、演出装置10が、フィギュアIDがFA1Aを検出した場合、剣の装着パーツを有するフィギュアFAを検出したと判定する。
More specifically, if the figure ID of the figure FA that owns the sword (an example of the attached part) is FA1A, and the figure ID of the figure FA that owns the shield (an example of the attached part) is FA1B, for example, the
図20は、音データの他の例を示す。特に、図20の例では、フィギュアの装着パーツの種類に対応付けられた音データの例である。 FIG. 20 shows another example of sound data. In particular, the example of FIG. 20 is an example of sound data associated with the type of the parts mounted on the figure.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、各フィギュアの装着パーツの有無を判別し、装着パーツを有する場合に更に装着パーツの種類を判別する。つまり、フィギュアFAの装着パーツが有りで「剣」の場合であって、かつ、フィギュアFBの装着パーツが有りで「盾」の場合、音ID=61の音データを決定し、音出力する。
For example, when the
例えば、演出装置10は、音ID=61の音データ(フィギュアFAが「この剣はすばらしいだろう」、フィギュアFBが「この盾にはかなわないだろう」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
このように、本実施形態では、フィギュアが装着パーツを有する場合、装着パーツの種類に応じて、会話のバリエーションが増えるので、プレーヤは装着パーツの種類に応じてフィギュアを収集しようとする意欲が高まり、また、装着パーツの種類に応じた会話を楽しむことができる。 As described above, in the present embodiment, when the figure has a mounting part, the number of conversations increases according to the type of the mounting part, so the player is more motivated to collect the figure according to the type of the mounting part. In addition, you can enjoy conversations according to the type of installed parts.
4.9 配置状態の継続時間に基づいて、演出内容を決定する処理
演出装置10は、フィギュアがステージに配置された時点から、配置状態の継続時間を計時するようにし、配置状態の継続時間に基づいて、演出内容を決定する処理を行ってもよい。
4.9 Process for Determining Production Content Based on Duration of Arrangement State The
ここで、配置状態の継続時間とは、フィギュアがステージに配置された状態の維持期間(配置状態が変化しない期間)である。例えば、ステージ上のフィギュアの種類、位置、向き、姿勢状態、高さ、装着パーツの有無、装着パーツの種類の少なくとも1つが変化した場合に、配置状態が変化したと判定する。 Here, the duration of the arrangement state is a maintenance period (a period in which the arrangement state does not change) of the state where the figure is arranged on the stage. For example, it is determined that the arrangement state has changed when at least one of the type, position, orientation, posture state, height, presence / absence of a mounting part, and type of mounting part on the stage has changed.
演出装置10は、配置状態の継続時間の長さに応じて発生させる音データを用意してもよい。
The
図21は、音データの他の例を示す。特に、図21の例では、フィギュアがステージに配置された時点からの配置状態の継続時間に対応付けられた音データの例である。 FIG. 21 shows another example of sound data. In particular, the example of FIG. 21 is an example of sound data associated with the duration of the arrangement state from the time when the figure is arranged on the stage.
例えば、図22に示すように、演出装置10のステージSTに、タイミングT1でフィギュアFAが位置P1に配置されると配置状態の継続時間の計時を開始する。タイミングT2でフィギュアFBが位置P2に配置されたとすると、配置状態の継続時間が0にリセットされ、配置状態の継続時間の計時を開始する。
For example, as shown in FIG. 22, when the figure FA is arranged at the position P <b> 1 at the timing T <b> 1 on the stage ST of the
例えば、タイミングT2からの配置状態の継続時間が所定期間(例えば、10分)経過したタイミングT3に、配置状態の継続時間が10分経過したときの音ID=71の音データを決定し、音ID=71の音データを音出力する。 For example, the sound data of sound ID = 71 when the duration of the arrangement state has elapsed for 10 minutes is determined at timing T3 when the duration of the arrangement state from the timing T2 has elapsed for a predetermined period (for example, 10 minutes). Sound data with ID = 71 is output as sound.
例えば、演出装置10は、音ID=71の音データ(フィギュアFAが「あなた以外に誰かいないの?」、フィギュアFBが「誰か来ないかな」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
そして、タイミングT4でフィギュアFCが位置P3に配置されると、配置状態の継続時間が0にリセットされ、配置状態の継続時間の計時を開始する。 Then, when the figure FC is arranged at the position P3 at the timing T4, the arrangement state duration time is reset to 0, and the arrangement state duration time is started.
このように、本実施形態では、配置状態の継続時間に応じて、会話のバリエーションが増えるので、プレーヤは配置状態の継続時間に応じた会話を楽しむことができる。 As described above, in this embodiment, the variation of the conversation increases according to the duration of the arrangement state, so that the player can enjoy the conversation according to the duration of the arrangement state.
4.10 ステージの種類に基づいて、演出内容を決定する処理
本実施形態では、背景画、大きさ、形状、色等、種々異なる複数のステージを予め用意し、ステージの種類(ステージを識別するためのステージID)に応じて演出内容を決定してもよい。
4.10 Processing for Determining Production Contents Based on Stage Type In this embodiment, a plurality of different stages such as background images, sizes, shapes, and colors are prepared in advance, and the stage type (stage is identified) The stage contents may be determined according to the stage ID).
例えば、演出装置10はステージの種類に基づいて音データを決定し、当該音データを
音出力部から出力してもよい。
For example, the
また、演出装置10は、複数のステージを連結可能とし、複数のステージが連結されているか否かに基づいて、音データを決定し、当該音データを音出力部から出力してもよい。なお、演出装置10は、特定のステージでしか発生しない音を発生させるようにしてもよい。
Further, the
4.11 フィギュアが、キャラクタではなく道具等である場合
本実施形態のフィギュアはキャラクタに限らず、食べ物の模型、大道具(例えば、立木などの障害物)、小道具(例えば、調理器具、こたつ、座卓、麻雀卓などの家具、テレビ、掃除機などの家電)も存在する。
4.11 When the figure is not a character but a tool, etc. The figure of this embodiment is not limited to a character, but a food model, a large tool (for example, an obstacle such as a standing tree), a small tool (for example, a cooking utensil, a kotatsu, There are also furniture such as table and mahjong table, and home appliances such as TV and vacuum cleaner).
例えば、演出装置10の検出部162は、大道具や小道具のフィギュアそれぞれのフィギュアの種類(ID)を検出しているが、フィギュアの種類が小道具等である場合には、キャラクタのフィギュアの台詞を発生させる音データを音出力部から出力する。
For example, the
例えば、演出装置10が検出したフィギュアFXがご飯の模型のフィギュアであり、フィギュアFAがキャラクタである場合には、フィギュアFAが「わーい。いただきます。」という音データを決定し、当該音データを音出力する。
For example, if the figure FX detected by the
4.12 明るさ、色、温度、湿度
演出装置10は、周囲の明るさ、色、温度、湿度などの情報の少なくとも1つに応じて音データを決定し、当該音データを音出力部から出力してもよい。
4.12 Brightness, Color, Temperature, Humidity The
例えば、演出装置10に照度センサが備えられている場合には、明るさの変化があったタイミングで、明るさの変化に対応する音データを決定し、当該音データを音出力してもよい。例えば、所定期間内(例えば、5秒以内)に、所定値以上の照度が明るくなる変化量を検知した場合に、フィギュアFAが「まぶしい」という会話の音データを発生させる。
For example, when the
4.13 時間、曜日、カレンダー情報等
演出装置10は、時間、曜日、カレンダー情報の少なくとも一つに応じて音データを決定し、当該音データを音出力部から出力してもよい。
4.13 Time, Day of Week, Calendar Information, etc. The
例えば、毎週日曜日の特定の時間帯(例えば、午前8時)に放映されるキャラクタが登場するフィギュアの種類を検出した場合において、テレビ番組が放映されると、放映後(例えば、8時30分に放映終了する場合には、8時30分以降に)、番組の内容に応じてフィギュアの感情やフィギュア同士の人間性が変わるように、音データを変化させる。例えば、危機的状態で番組放映が終了した場合、フィギュア同士が、シリアスな会話のみ発生するようにする。例えば、演出装置10は、変更された新たな音データを、音IDに対応づけてサーバ20からダウンロードし、演出データベース172に格納する。
For example, in the case where the type of figure in which a character to be broadcasted on a specific time zone (for example, 8:00 am) is detected every Sunday is detected, when a television program is broadcasted, for example, after the broadcast (for example, 8:30) When the broadcast ends, after 8:30), the sound data is changed so that the emotions of the figures and the human nature of the figures change according to the contents of the program. For example, when a program broadcast ends in a critical state, only serious conversations occur between figures. For example, the
4.14 インターネットからの情報(天気情報、金融情報など)
本実施形態の演出装置10は、インターネットからの情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。インターネットからの情報に基づいて音データを決定するとは、具体的には、インターネットからの情報である文章を音声に変換することである。
4.14 Information from the Internet (weather information, financial information, etc.)
The
例えば、演出装置10や、演出装置10に連動する端末30において、予めインターネットからの情報を所定のタイミング(例えば、毎日7時)に取得し、インターネットから
の情報に基づく音データを出力する設定を行う。
For example, in the
例えば、インターネットからの情報とは、天気情報(現在の天気、天気予報、地震速報等)、金融情報(日経平均株価、為替情報等)、ニュース情報等である。 For example, information from the Internet includes weather information (current weather, weather forecast, earthquake early warning, etc.), financial information (Nikkei average stock price, currency exchange information, etc.), news information, and the like.
演出装置10は、ネットワークを介して天気情報を、情報配信サーバに問い合わせ(要求し)、天気情報を受信する。そして、演出装置10は、天気情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。例えば、演出装置10は、受信した天気情報の文章を音声に変換し、当該変換された音声データを出力する。
The
また、演出装置10は、ネットワークを介して金融情報を、情報配信サーバに問い合わせ(要求し)、金融情報を受信する。そして、演出装置10は、金融情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。例えば、演出装置10は、受信した金融情報の文章を音声に変換し、当該変換された音声データを出力する。
In addition, the
また、演出装置10は、例えば、お金が好きなキャラクタは日経平均株価の変動によって機嫌が変わるように、音データを決定してもよい。例えば、日経平均株価が上昇傾向にあるときの音データと、日経平均株価が下降傾向にあるときの音データの2種類を予め用意する。そして、演出装置10は、直近の1つの日経平均株価を比較し、上昇傾向にあるか下降傾向にあるかを判定し、判定結果に応じて音データを決定する。例えば、日経平均株価が上昇傾向にあるときは、「今日は日経平均株価があがったよ。うれしい」というような音データを出力し、日経平均株価が下降傾向にあるときは、「なんか気分が落ち込むな」というような音データを出力するように制御してもよい。
In addition, the
なお、サーバ20が、天気情報や金融情報を情報配信サーバに問い合わせ、天気情報や金融情報を受信してサーバ20の記憶部に記憶し、演出装置10が、天気情報や金融情報を、サーバ20に問い合わせて、天気情報や金融情報を受信してもよい。
The
そして、演出装置10は、天気情報に基づいて音データを決定し、当該音データを音出力部から出力してもよい。
And the production |
4.15 端末30との連動
本実施形態では、プレーヤの端末30に、演出装置10と連動する演出アプリケーションをインストール可能とする。端末30は、当該演出アプリケーションで、プレーヤの行動履歴を演出装置10やサーバ20に送信し、演出装置10は、行動履歴に基づいて、演出処理を行ってもよい。
4.15 Interlocking with
例えば、演出装置10は、プレーヤの行動履歴に、大阪への移動が存在する場合には、フィギュアFAが「大阪楽しかった?」という会話の音データを決定し、音出力させる。
For example, when there is a move to Osaka in the player's action history, the
4.16 課金情報に基づいて、音データを決定する手法
本実施形態の演出装置10は、サーバ20(あるいは課金サーバ)から、課金情報(例えば、プレーヤが課金した額、ネットショップでの購入履歴)を受信し、当該課金情報に基づいて音データを決定し、決定された音データを音出力してもよい。例えば、プレーヤが所定額以上の購入があった場合には、特別な音データを出力するようにしてもよい。
4.16 Method for Determining Sound Data Based on Billing Information The
4.17 他の演出装置からの影響
本実施形態の演出装置10は、複数の演出装置10が連結している場合や、複数の演出装置10が相互にネットワークを介して接続されている場合には、一方の演出装置10の音データに基づいて、他方の演出装置10の音データを決定してもよい。
4.17 Effects from other rendering devices The
例えば、1体のフィギュアを配置可能な演出装置10があった場合において、5体のフィギュアが揃った場合、つまり、5つの演出装置10が揃った場合に、5つの演出装置10が連結し、相互にネットワークを介して同期させ、同じタイミングで、同じ音データ(例えば、5つの演出装置10が連結されたときに発生可能な音データ)を出力させるようにしてもよい。
For example, in the case where there is a
また、第1の演出装置10と、第2の演出装置10と2つが連結することを条件に発生可能な音データが存在していてもよい。
In addition, sound data that can be generated on condition that the
4.18 GPS座標に基づいて、音データを決定する手法
本実施形態の演出装置10は、端末30のGPS座標に基づいて、音データを決めても良い。なお、GPSは、Global positioning Systemの略である。
4.18 Method of Determining Sound Data Based on GPS Coordinates The
例えば、予め標準語音データ、関西弁音データ、等、の種別毎に音データを用意する。そして、演出装置10は、端末30のGPS座標を受信し、当該GPS座標に基づき、端末10が標準語圏に属するのか、或いは、関西圏に属するのかを判定する。例えば、演出装置10は、端末30が関西圏に属すると判定した場合、関西弁音データを出力するように制御する。
For example, sound data is prepared in advance for each type of standard speech sound data, Kansai dialect data, and the like. Then, the
4.19 特定の音データの発生
本実施形態の演出装置10は、特定の音データを出力したことを条件に、新たな音データをサーバ20からダウンロードするようにしてもよい。
4.19 Generation of Specific Sound Data The
例えば、演出装置10が、音ID=100の音データを出力した場合に、サーバ20に新たな音データを要求する。サーバ20は、演出装置10から新たな音データの要求を受信すると、新たな音データを演出装置10に送信する。
For example, when the
演出装置10は、新たな音データを受信し、当該音データを記憶部170(演出データベース172)追加して記憶する。
The
このようにすれば、新たな音データが追加登録を期待しながら、プレーヤは特定の音データを出力させるために、フィギュアの位置や向き、種類を変更する等を考えながら楽しむことができる。 In this way, the player can enjoy new sound data while considering changing the position, orientation, and type of the figure in order to output specific sound data while expecting additional registration.
4.20 フィギュアの視野範囲に基づく制御
演出装置10は、複数のフィギュアを検出した場合に、フィギュア毎に、フィギュアの視野範囲を設定し、一のフィギュアの視野範囲に他のフィギュアが属するかを判定する。そして、演出装置10は、一のフィギュアの視野範囲に他のフィギュアが属するか否かに基づいて、音データを決定し、出力するようにしてもよい。
4.20 Control based on the field of view of a figure When the
例えば、図23は、演出装置10のステージSTの真上から見たときのフィギュアFAの位置P1及び視線方向CVA、視野範囲CFA、及び、フィギュアFBの位置P2、視線方向CVB、視野範囲CFBを示す。
For example, FIG. 23 shows the position P1 and the line-of-sight direction CVA, the visual field range CFA, and the position P2, the line-of-sight direction CVB, and the visual field range CFB of the figure FB when viewed from directly above the stage ST of the
例えば、演出装置10は、フィギュアFAの向きの方向を視線方向CVAとし、当該視線方向CVAに基づき、位置P1を頂点とする三角形の視野範囲CFAを設定する。また、演出装置10は、フィギュアFBの向きの方向を視線方向CVBとし、当該視線方向CVBに基づき、位置P2を頂点とする三角形の視野範囲CFBを設定する。
For example, the
そして、演出装置10は、フィギュアFAの視野範囲CFAに、フィギュアFBが属するか否かを判定し、フィギュアFBの視野範囲CFBに、フィギュアFAが属するか否かを判定する。例えば、図23の例では、フィギュアFAの視野範囲CFAに、フィギュアFBの位置P2が位置しているので、フィギュアFAの視野範囲CFAに、フィギュアFBが属すると判定し、フィギュアFBの視野範囲CFBに、フィギュアFAの位置P1が位置していないので、フィギュアFBの視野範囲CFBに、フィギュアFAが属していないと判定する。
Then, the
図24は、音データの他の例を示す。特に、図24の例では、フィギュアの視野範囲に属するか否かに基づいて対応付けられた音データの例である。 FIG. 24 shows another example of sound data. In particular, the example of FIG. 24 is an example of sound data associated with each other based on whether or not it belongs to the visual field range of the figure.
例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、フィギュアFAの視野範囲CFAに、フィギュアFBが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFAが属する場合に、音ID=81の音データを決定し、音出力する。
For example, when the
例えば、演出装置10は、音ID=81の音データ(フィギュアFAが「今日どこいく?」、フィギュアFBが「遊園地はどう?」という内容の会話を再現する音データ)を音出力部から出力する。なお、各フィギュアが、相手の視野範囲に属する場合、お互いに対等な会話が再現できるように音データを予め決める。
For example, the
また、例えば、演出装置10は、フィギュアFA、フィギュアFBを検出した場合に、図23に示すように、フィギュアFAの視野範囲CFAに、フィギュアFBが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFAが属していない場合に、音ID=82の音データを決定し、音出力する。
Further, for example, when the
例えば、演出装置10は、音ID=82の音データ(フィギュアFAが「仲間だろうが」という内容の会話を再現する音データ)を音出力部から出力する。なお、一方のフィギュアの視野範囲に他方のフィギュアは属するが、他方のフィギュアの視野範囲に一方のフィギュアが属さない場合、一方のフィギュアが一方的に話しかけるような音データを予め決める。
For example, the
このように、本実施形態では、フィギュアの視野範囲に応じて、会話のバリエーションが増えるので、プレーヤはフィギュアの会話を楽しむことができる。 In this way, in this embodiment, the variation of conversation increases according to the visual field range of the figure, so that the player can enjoy the conversation of the figure.
また、演出装置10は、フィギュアの視線方向は、フィギュアの向きの方向に限らない。例えば、演出装置10において、フィギュアの目の方向に応じて当該フィギュアの視線方向を定めてもよい。そして、演出装置10は、フィギュアの視線方向に基づいて視野範囲を設定し、視野範囲に基づいて音データを決定し、出力するようにしてもよい。
Further, in the
例えば、図25(A)に示すように、フィギュアFAの目の方向が正面を向いている場合には、フィギュアFAの向きPVAに、フィギュアFAの視線方向CVAを設定する。 For example, as shown in FIG. 25A, when the eye direction of the figure FA faces the front, the line-of-sight direction CVA of the figure FA is set to the direction PVA of the figure FA.
また、図25(B)に示すように、フィギュアFAの目の方向が正面から見て左方向を向いている場合には、フィギュアFAを正面から見て左方向に、フィギュアFAの視線方向CVAを設定する。つまり、フィギュアFAの向きPVAとは異なる方向(PVAから左方向にずれた方向)に、視線方向CVAを設定する。 Also, as shown in FIG. 25B, when the eye direction of the figure FA is facing left when viewed from the front, the line-of-sight direction CVA of the figure FA is left when viewing the figure FA from the front. Set. That is, the line-of-sight direction CVA is set in a direction different from the direction PVA of the figure FA (a direction shifted to the left from the PVA).
また、図25(C)に示すように、フィギュアFAの目の方向が正面から見て右方向を向いている場合には、フィギュアFAを正面から見て右方向に、フィギュアFAの視線方
向CVAを設定する。つまり、フィギュアFAの向きPVAとは異なる方向(PVAから右方向にずれた方向)に、視線方向CVAを設定する。
Also, as shown in FIG. 25C, when the eye direction of the figure FA is facing the right direction when viewed from the front, the line-of-sight direction CVA of the figure FA is the right direction when viewing the figure FA from the front. Set. That is, the line-of-sight direction CVA is set in a direction different from the direction PVA of the figure FA (a direction shifted rightward from the PVA).
また、図25(D)に示すように、フィギュアFAの目が閉じられている場合には、フィギュアFAを正面から見て反対方向に、フィギュアFAの視線方向CVAを設定する。つまり、フィギュアFAの向きPVAとは異なる方向(PVAから反対方向にずれた方向)に、視線方向CVAを設定する。 Further, as shown in FIG. 25D, when the eyes of the figure FA are closed, the line-of-sight direction CVA of the figure FA is set in the opposite direction when the figure FA is viewed from the front. That is, the line-of-sight direction CVA is set in a direction different from the direction PVA of the figure FA (direction shifted from the PVA in the opposite direction).
演出装置が、視線方向を検出する手法は種々考えられる。例えば、フィギュアを識別するために付されたマーカとして、視線方向を判別できるフィギュアIDを付与し、検出部162は検出したフィギュアIDを判別することによって、フィギュアの視線方向を検出してもよいし、演出装置10が備えるカメラによって撮影された撮影画像に基づきフィギュアの目の位置を特定し、フィギュアの視線方向を設定してもよい。
There are various ways in which the stage device can detect the line-of-sight direction. For example, a figure ID that can determine the line-of-sight direction is given as a marker attached to identify the figure, and the
例えば、図26は、演出装置10のステージSTの真上から見たときのフィギュアFAの位置P1及び視線方向CVA、視野範囲CFAを示し、フィギュアFBの位置P2及び視線方向CVB、視野範囲CFB、フィギュアFCの位置P3及び視線方向CVC、視野範囲CFCを示す。
For example, FIG. 26 shows the position P1 and the line-of-sight direction CVA and the visual field range CFA of the figure FA when viewed from directly above the stage ST of the
そして、演出装置10は、各フィギュアFA、FB、FCそれぞれの視野範囲に、他のフィギュアが属するか否かを判定する。
Then, the
例えば、図26に示すように、フィギュアFAが正面を向いていても、視線方向が後方である場合に、フィギュアFAの視野範囲CFAに、フィギュアFBの及びフィギュアFCが属する。このように、フィギュアFAの視野範囲CFAに、フィギュアFBの及びフィギュアFCが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFAが属する場合、かつ、フィギュアFCの視野範囲CFBに、フィギュアFAが属する場合に、音ID=83の音データを決定し、音出力する。 For example, as shown in FIG. 26, even if the figure FA faces the front, the figure FB and the figure FC belong to the visual field range CFA of the figure FA when the line-of-sight direction is the rear. Thus, the figure FA and the figure FC belong to the visual field range CFA of the figure FA, the figure FA belongs to the visual field range CFB, and the figure FA belongs to the visual field range CFB. When FA belongs, sound data of sound ID = 83 is determined and sound is output.
例えば、演出装置10は、音ID=83の音データ(フィギュアFAが「こっちも色々背負ってるんだ!」という内容の会話を再現する音データ)を音出力部から出力する。例えば、フィギュアFAの話を、フィギュアFB、FCが聞くような会話を再現する。
For example, the
また、例えば、図27に示すように、フィギュアFAの視野範囲CFAに、フィギュアFB及びフィギュアFCが属する場合であって、フィギュアFBの視野範囲CFBに、フィギュアFA及びフィギュアFCが属する場合、かつ、フィギュアFCの視野範囲CFBに、フィギュアFAが属する場合に、音ID=84の音データを決定し、音出力する。 Further, for example, as shown in FIG. 27, when the figure FB and the figure FC belong to the visual field range CFA of the figure FA, and when the figure FA and the figure FC belong to the visual field range CFB of the figure FB, When the figure FA belongs to the visual field range CFB of the figure FC, the sound data of the sound ID = 84 is determined and the sound is output.
例えば、演出装置10は、例えば、フィギュアFCが、フィギュアFBの視界を邪魔する配置にすると、フィギュアFCがフィギュアFBをかばうような会話を再現する。たとえば、音ID=84の音データ(フィギュアFAが「FBがやったんだろう」、フィギュアFCが「違うよ。俺がやったんだ」という内容の会話を再現する音データ)を音出力部から出力する。
For example, the
このように、本実施形態では、フィギュアの視線方向に応じて視野範囲を設定するので、リアルな会話を再現でき、プレーヤはフィギュアの会話を楽しむことができる。 As described above, in this embodiment, since the visual field range is set according to the line-of-sight direction of the figure, a realistic conversation can be reproduced, and the player can enjoy the conversation of the figure.
4.21 音出力する音データを決定する処理の説明
上述したように、本実施形態の演習装置10は、様々な手法で音データを決定しているので、複数の音データが候補に挙がることがある。複数の音データが候補に挙がった場合
には、音出力する一又は複数の音データを抽出し、抽出された一又は複数の音データを音出力する。
4.21 Description of processing for determining sound data to be output As described above, the
例えば、図28に示すように、音データ毎に、優先度を設定し、優先度の高い音IDの一の音データを抽出し、抽出された音データを音出力するようにしてもよい。優先度の値が小さいほど、優先度が高いことを意味する。つまり、優先度「1」が最も優先度が高いことを意味する。 For example, as shown in FIG. 28, a priority may be set for each sound data, one sound data having a high priority sound ID may be extracted, and the extracted sound data may be output as a sound. The smaller the priority value, the higher the priority. That is, the priority “1” means the highest priority.
また、図29に示すように、演出装置10は、音データ毎に、音出力済(演出済)か否かを示すフラグFを設定する。例えば、フラグFの初期値を0に設定し、音出力した音データのフラグFを1に更新する。そして、複数の音データが候補に挙がった場合には、フラグF=0の音データの中から、一の音データを抽出し、抽出された音データを音出力する。
Moreover, as shown in FIG. 29, the
このようにすれば、演出装置10は、複数の音データのうち、フラグFが0である音データ、つまり、音出力されたことのない音データを、出力するので、様々な音データを聞きたいというプレーヤの要求に応えることができる。
In this way, the
また、演出装置10は、音データ毎に再生回数を設定し、複数の音データが候補に挙がった場合に、音データの再生回数に基づいて、一の音データを抽出してもよい。例えば、音データの再生回数が少ない程、再生の優先度が高くなるように、一の音データを抽出してもよい。
In addition, the
なお、本実施形態では、同時に、複数の音データの音出力を行ってもよい。例えば、本実施形態では、同時に音出力を行う複数の音IDを予め対応付けて記憶する。そして、一の音IDを音出力する際には対応する音IDを同時に音出力するように制御する。例えば、音ID=110の音楽用の音データと、音ID=111の台詞用の音データとが対応付けられている場合、音ID=110、111の2つの音データを同時に出力させるように制御する。 In the present embodiment, sound output of a plurality of sound data may be performed simultaneously. For example, in the present embodiment, a plurality of sound IDs that simultaneously output sound are stored in association with each other. When a sound ID is output, control is performed so that the corresponding sound ID is output simultaneously. For example, when the sound data for music with sound ID = 110 and the sound data for speech with sound ID = 111 are associated, the two sound data with sound ID = 110 and 111 are output simultaneously. Control.
5.フローチャート
次に、演出装置10の処理の流れの一例について、図30A〜図30Eを用いて説明する。
5. Flowchart Next, an example of the processing flow of the
まず、図30Aに示すように、フィギュアの種類を検出したか否かを判断する(ステップS1)。フィギュアの種類を検出した場合(ステップS1のY)、フィギュアの種類に基づいて決定される音データを、音出力の候補とする(ステップS2)。 First, as shown in FIG. 30A, it is determined whether or not the figure type is detected (step S1). When the figure type is detected (Y in step S1), the sound data determined based on the figure type is set as a sound output candidate (step S2).
次に、フィギュアの位置を検出したか否かを判断する(ステップS3)。フィギュアの位置を検出した場合(ステップS3のY)、フィギュアの種類及び位置に基づいて決定される音データを、音出力の候補とする(ステップS4)。例えば、複数のフィギュアそれぞれの種類及び位置関係に基づいて決定される音データを、音出力の候補としてもよい。なお、フィギュアの位置を検出しない場合(ステップS3のN)、ステップS5に進む。 Next, it is determined whether or not the position of the figure has been detected (step S3). When the position of the figure is detected (Y in step S3), the sound data determined based on the type and position of the figure is set as a sound output candidate (step S4). For example, sound data determined based on the types and positional relationships of each of the plurality of figures may be used as a sound output candidate. If the position of the figure is not detected (N in step S3), the process proceeds to step S5.
次に、フィギュアの向きを検出したか否かを判断する(ステップS5)。フィギュアの向きを検出した場合(ステップS5のY)、フィギュアの種類及び向きに基づいて決定される音データを、音出力の候補とする(ステップS6)。フィギュアの向きを検出しない場合(ステップS5のN)、ステップS7に進む。 Next, it is determined whether or not the orientation of the figure has been detected (step S5). When the direction of the figure is detected (Y in step S5), sound data determined based on the type and direction of the figure is set as a sound output candidate (step S6). When the direction of the figure is not detected (N in Step S5), the process proceeds to Step S7.
次に、フィギュアの姿勢状態を検出したか否かを判断する(ステップS7)。フィギュ
アの姿勢状態を検出した場合(ステップS7のY)、フィギュアの種類及び姿勢状態に基づいて決定される音データを、音出力の候補とする(ステップS8)。フィギュアの姿勢状態を検出しない場合(ステップS7のN)、ステップS9に進む。
Next, it is determined whether the posture state of the figure has been detected (step S7). When the posture state of the figure is detected (Y in step S7), sound data determined based on the type and posture state of the figure is set as a sound output candidate (step S8). If the posture state of the figure is not detected (N in step S7), the process proceeds to step S9.
次に、図30Bに示すように、フィギュアの高さを検出したか否かを判断する(ステップS9)。フィギュアの高さを検出した場合(ステップS9のY)、フィギュアの種類及び高さに基づいて決定される音データを、音出力の候補とする(ステップS10)。フィギュアの高さを検出しない場合(ステップS9のN)、ステップS11に進む。 Next, as shown in FIG. 30B, it is determined whether the height of the figure has been detected (step S9). When the figure height is detected (Y in step S9), sound data determined based on the figure type and height is set as a sound output candidate (step S10). If the figure height is not detected (N in step S9), the process proceeds to step S11.
次に、フィギュアの装着パーツの有無を検出したか否かを判断する(ステップS11)。フィギュアの装着パーツの有無を検出した場合(ステップS11のY)、フィギュアの種類及びフィギュアの装着パーツの有無に基づいて決定される音データを、音出力の候補とする(ステップS12)。フィギュアの装着パーツの有無を検出しない場合(ステップS11のN)、ステップS13に進む。 Next, it is determined whether the presence / absence of a mounted part of the figure has been detected (step S11). When the presence / absence of a figure mounting part is detected (Y in step S11), sound data determined based on the type of the figure and the presence / absence of the figure mounting part is set as a sound output candidate (step S12). If the presence / absence of a figure-fitted part is not detected (N in step S11), the process proceeds to step S13.
そして、図30Cに示すように、候補の音データが1つであるか否かを判断する(ステップS13)。候補の音データが1つである場合(ステップS13のY)、候補の音データを音出力の音データに決定し、当該音データを音出力する(ステップS14)。そして、音出力した音データのフラグF=0か否かを判断し(ステップS15)、音出力した音データのフラグF=0である場合(ステップS15のY)、音出力した音データのフラグFを1に更新する(ステップS16)。 Then, as shown in FIG. 30C, it is determined whether or not there is one candidate sound data (step S13). If there is only one candidate sound data (Y in step S13), the candidate sound data is determined as sound output sound data, and the sound data is output as a sound (step S14). Then, it is determined whether or not the sound data flag F = 0 is output (step S15). If the sound data flag F is 0 (Y in step S15), the sound data flag is output. F is updated to 1 (step S16).
一方、候補の音データが1つでない場合、つまり、候補の音データが複数である場合(ステップS13のN)、図30Dに示すように、複数の候補の音データの中に、フラグF=0の音データがあるか否かを判断する(ステップS21)。 On the other hand, when there is not one candidate sound data, that is, when there are a plurality of candidate sound data (N in step S13), as shown in FIG. 30D, a flag F = It is determined whether there is sound data of 0 (step S21).
そして、複数の候補の音データの中に、フラグF=0の音データがある場合(ステップS21のY)、複数の候補の音データの中から、フラグF=0の音データを1つ抽出する(ステップS22)。そして、抽出された音データを、音出力する(ステップS23)。そして、音出力した音データのフラグFを1に更新する(ステップS24)。 If there is sound data with flag F = 0 in the plurality of candidate sound data (Y in step S21), one sound data with flag F = 0 is extracted from the plurality of candidate sound data. (Step S22). Then, the extracted sound data is output as a sound (step S23). Then, the flag F of the sound data that has been output is updated to 1 (step S24).
一方、複数の候補の音データの中に、フラグF=0の音データがない場合(ステップS21のN)、複数の候補の音データの中から、音データを1つ抽出する(ステップS26)。そして、抽出された音データを、音出力する(ステップS27)。 On the other hand, if there is no sound data with flag F = 0 in the plurality of candidate sound data (N in step S21), one sound data is extracted from the plurality of candidate sound data (step S26). . Then, the extracted sound data is output as a sound (step S27).
また、ステップS15のN、ステップS16、ステップS24、ステップS27の後、図30Eに示すように、配置状態の継続時間が所定期間以上であるか否かを判断し(ステップS31)、配置状態の継続時間が所定期間以上である場合(ステップS31のY)、配置状態の継続時間に基づいて決定される音データを、音出力の候補とし、ステップS13に戻る。 Further, after N in step S15, step S16, step S24, and step S27, as shown in FIG. 30E, it is determined whether or not the duration time of the arrangement state is longer than a predetermined period (step S31). When the duration is equal to or longer than the predetermined period (Y in step S31), the sound data determined based on the duration of the arrangement state is set as a sound output candidate, and the process returns to step S13.
一方、配置状態の継続時間が所定期間以上でない場合(ステップS31のN)、配置状態に変化があるか否かを判断し、配置状態に変化がある場合(ステップS33のY)、ステップS1に戻る。一方、配置状態に変化がない場合(ステップS33のN)、ステップS31に戻る。 On the other hand, if the duration of the arrangement state is not longer than the predetermined period (N in Step S31), it is determined whether or not there is a change in the arrangement state. If there is a change in the arrangement state (Y in Step S33), the process proceeds to Step S1. Return. On the other hand, when there is no change in the arrangement state (N in step S33), the process returns to step S31.
6.演出処理を実行するタイミング
本実施形態の演出装置10は、ステージ上に配置された少なくとも1つフィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類を検出したタイミングに、演出処理を実行するが、次のタイミングで制御してもよい。
6). Timing of executing the rendering process The
(A)配置状態の継続時間
演出装置10は、配置状態の継続時間が所定期間経過したタイミングで、配置状態の継続時間に基づいて演出内容(例えば、音データ)を決定し、当該演出内容に基づいて演出処理を実行する。
(A) Arrangement State Duration Time The
(B)所定の時刻
演出装置10は、所定の時刻(例えば、昼の0時)になったタイミングに、演出処理を実行する。なお、演出装置10は、入力情報に基づき、演出処理を実行する時刻(タイマー)を設定してもよい。また、演出装置10は、端末30から時刻の情報を受信し、当該時刻を演出処理の実行タイミングとして設定してもよい。
(B) Predetermined time The
(C)スイッチの電源がONになったタイミング
演出装置10やフィギュアにスイッチが備えられている場合、スイッチがONになったタイミングで演出処理を実行してもよい。
(C) Timing when the power of the switch is turned on When the
(D)フィギュアを検出したタイミング、フィギュア不検出のタイミング
演出装置10は、例えば、フィギュアを検出したタイミングだけでなく、フィギュアがステージから検出されなくなった(離脱された)タイミングに、演出処理を実行してもよい。
(D) Timing at which a figure is detected, timing at which a figure is not detected The
このようにすれば、ステージに配置されたフィギュアの数の増減があった場合や、フィギュアが移動したタイミングに、演出処理を行うことができる。 In this way, it is possible to perform the effect processing when the number of figures arranged on the stage increases or decreases, or when the figure moves.
(E)フィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類の少なくとも1つが変更されたタイミングが変化したタイミング
演出装置10がステージに配置されたフィギュアの種類、位置、向き、高さ、姿勢状態、装着パーツの有無、装着パーツの種類の少なくとも1つが変更されたタイミング(つまり、配置状態が変更されたタイミング)に、変更された配置内容に応じて、演出処理を実行してもよい。このようにすれば、フィギュアが転倒した場合や、フィギュア自体が回転した場合などに、演出処理を実行することができる。
(E) Figure type, position, orientation, height, posture state, presence / absence of installed parts, timing when at least one of the types of installed parts is changed Timing at which the
(F)接触センサで接触(タッチ)を検出したタイミング
演出装置10やフィギュアに、接触センサが備えられている場合、演出装置10は演出装置10やフィギュアへの接触を検出したタイミングに、演出処理を実行してもよい。このようにすれば、例えば、プレーヤがフィギュアに触れたとき、握ったとき、つまんだときのタイミングで、演出処理を実行することができる。
(F) Timing at which contact (touch) is detected by the contact sensor When the
(G)人感センサを検知したタイミング
演出装置10に、人間の所在を検知する人感センサが備えられている場合、演出装置10は、人感センサによって人間を検知したタイミングに、演出処理を実行してもよい。このようにすれば、プレーヤがフィギュアに近づいたとき、顔を近づけたとき等に演出処理を実行できる。
(G) Timing at which the human sensor is detected When the human effect sensor for detecting the human location is provided in the
(H)表情が変化したタイミング
演出装置10に、カメラが備えられている場合には、プレーヤの表情が変化したタイミング(例えば、笑顔(スマイル)を検知したタイミング)に、演出処理を実行してもよい。
(H) Timing at which facial expression changes When the
(I)音入力があったタイミング
演出装置10にマイクが備えられている場合には、マイクによって、所定音量以上の音の入力があったタイミング(例えば、プレーヤが話しかけたときや、大きな音がしたとき、テレビ番組やCMの音がしたタイミング)に、演出処理を実行してもよい。
(I) Timing at which sound is input When the
(J)温度変化があったタイミング
演出装置10に温度センサが備えられている場合には、温度の変化があったタイミングで、演出処理を実行してもよい。例えば、演出装置10は、所定期間内(例えば、5分以内)に、5度以上の変化があったタイミングに、演出処理を実行してもよい。
(J) Timing at which temperature change has occurred When the
(K)明るさの変化があったタイミング
演出装置10に照度センサが備えられている場合には、明るさの変化があったタイミングで演出処理を実行してもよい。例えば、所定期間内(例えば、5秒以内)に、所定値以上の照度の変化量があったタイミングに、演出処理を実行してもよい。
(K) Timing when the brightness has changed When the illuminance sensor is provided in the
(L)端末30において、演出処理の実行タイミングを設定する手法
本実施形態では、プレーヤの端末30において演出実行のタイミングを設定できるようにしてもよい。
(L) Method for Setting Performance Execution Timing at
例えば、プレーヤの端末30は、プレーヤの入力(タッチ入力)に基づいて、演出処理の実行タイミングを設定するようにしてもよい。
For example, the
そして、プレーヤの端末30は、演出処理の実行タイミングを演出装置10に送信し、演出装置10は、受信した演出処理の実行タイミングに、演出処理を実行する。
Then, the
なお、端末30は、サーバ20や所与のWebサーバ経由で、演出処理の実行タイミングを演出装置10に送信するようにしてもよい。
Note that the terminal 30 may transmit the execution timing of the effect process to the
(M)所定のサイトからの通知に基づくタイミング
例えば、演出装置10は、所定のサイト(運営側のサーバや、SNSサーバ等)からの通知を受信したタイミングで、演出処理を実行してもよい。
(M) Timing based on notification from a predetermined site For example, the
(N)端末30の位置情報を用いた演出タイミング
演出装置10は、端末30の位置情報(GPSの座標)を受信し、端末30が演出装置10に近接しているか否かを判定する。そして、演出装置10は、端末30が演出装置10に近接していると判定されたタイミングで、演出処理を実行してもよい。
(N) Effect Timing Using Position Information of
なお、演出装置10は、端末30の位置情報が所定範囲内(演出装置10と端末30の距離が所定距離未満)である場合に、演出処理可能に制御し、端末30の位置情報が所定範囲外(演出装置10と端末30の距離が所定距離以上)である場合に、演出処理ができなくなるように制御してもよい。このようにすれば、プレーヤの端末30が演出装置10の近くにいない場合は、演出処理が実行されないので、同居の家族等が驚くことがないよう気遣うことができ、プレーヤ自身も恥ずかしい思いをすることなく、演出装置10を楽しむことができる。
In addition, when the position information of the terminal 30 is within a predetermined range (the distance between the
(P)ゲームの状況に応じたタイミング
演出装置10は、端末30にインストールされているゲーム(ゲームアプリ)のゲーム状況、ゲーム装置のゲーム状況に応じて、演出処理を実行してもよい。
(P) Timing According to Game Status The
例えば、端末30にインストールアプリのゲーム状況が特定の状況になったタイミング(クリア時、ゲームオーバー時、危機時など)になった場合、端末30は、演出処理の実
行指示を演出装置10に送信する。同じように、ゲーム装置は、ゲーム状況が特定の状況になったタイミング場合、演出処理の実行指示を演出装置10に送信する。そして、演出装置10は、演出指示を受信したタイミングに、演出処理を実行する。
For example, when the game situation of the installed application becomes a specific situation on the terminal 30 (clear, game over, crisis, etc.), the terminal 30 transmits an instruction to execute the effect process to the
例えば、端末30やゲーム装置は、演出処理の実行指示だけでなく、ゲーム状況の情報も演出装置10に送信するようにしてもよい。このようにすれば、ゲームと連動した演出を実現できる。例えば、ゲームにクリアしたときにフィギュアが「おめでとう」と褒めてくれたりすれば、プレーヤの喜びも増し、満足感を与えることができる。
For example, the terminal 30 and the game device may transmit not only the execution instruction for the effect process but also information on the game situation to the
(Q)他の装置(玩具)との連動によるタイミング
演出装置10は、他の装置(玩具、家電など)から発信された情報や信号を受信し、受信したタイミングで、演出処理を実行してもよい。
(Q) Timing by interlocking with other devices (toys) The
例えば、プレーヤが棒状の発光体(ペンライト)を備える装置を手に持って遊んでいる場合に、当該装置から特定の情報を演出装置10に送信する。演出装置10は、当該装置から発信された情報を受信し、受信したタイミングで、演出処理を実行する。このようにすれば、例えば、プレーヤがペンライトを振ったときに、フィギュアが歌いだすように演出処理を行うことができる。
For example, when a player is playing with a device having a rod-shaped light emitter (penlight) in his hand, specific information is transmitted from the device to the
また、演出装置10は、通信機能をもつ家電(体重計、クーラー、照明など)と連動してもよい。
In addition, the
例えば、クーラーと演出装置10とがネットワークを介して接続されている場合に、クーラーの電源がオンになったときに、クーラーは、電源がオンになった情報を演出装置10に送信する。演出装置10は、クーラーから電源がオンになった情報を受信すると、フィギュアが「寒い」という内容の会話を再現する音データを発生させるように制御する。
For example, when the cooler and the
(R)画像認識に応じたタイミング
例えば、端末30は、端末30が備える撮影部によってフィギュアが撮影されると、当該撮影画像に基づき、フィギュアの種類や配置を判定して画像認識の処理を行う。そして、端末30は、画像認識の結果を演出装置10に送信する。演出装置10は、画像認識の結果に応じて、演出処理を行うと判断した場合に、当該演出処理の実行を行う。なお、画像認識はサーバ20で行ってもよい。
(R) Timing according to image recognition For example, when a figure is photographed by the photographing unit included in the terminal 30, the terminal 30 performs image recognition processing by determining the type and arrangement of the figure based on the photographed image. . Then, the terminal 30 transmits the result of image recognition to the
(S)演出装置10と端末30との連動
本実施形態では、演出装置10と端末30とが互いに同期して演出処理を実行してもよい。つまり、演出装置10と端末30が同じタイミングで演出処理を開始する。そして、演出装置10が音出力の演出処理を実行する処理を行い、端末30が動画(映像)を再生する処理を行い、演出装置10と端末30とが同期してそれぞれ処理を行うように制御する。
(S) Linkage of
このようにすれば、フィギュア同士が会話している様子を再現しつつ、背景の動画を端末30の表示部に表示することができ、より臨場感のある演出処理を実現することができる。 In this way, it is possible to display the background video on the display unit of the terminal 30 while reproducing the state in which the figures are talking to each other, and it is possible to realize more realistic presentation processing.
7.演出アプリケーション
本実施形態では、端末30の演出アプリケーションにおいて、演出装置10で再生された音データを再生できるようにしてもよい。なお、端末30の演出アプリケーションは、ブラウザから利用するWebアプリでもよいし、端末30にインストールされる専用のアプリでもよい。
7). Production Application In the present embodiment, sound data reproduced by the
まず、演出装置10において、音データが出力されると、その音IDがサーバ20にアップロードされる。サーバ20は、ユーザ毎に、音ID及び当該音IDに対応するフラグFの値を管理する。なお、サーバ20は、所定のタイミング演出装置10から、音ID及び当該音IDに対応するフラグFの値を受信する。
First, in the
図31(A)は、端末30に表示される画面の一例を示す。各マス目(各ピース)は、音IDと対応付けられている。例えば、マス目(x,y)=(1,1)は音ID=1に対応させ、マス目(x,y)=(2,1)は音ID=2に対応させる等、各マス目に異なる音IDを対応付ける。なお、図31(A)の例では、30マスあるので、各マス目に各音IDが対応付けられている。 FIG. 31A shows an example of a screen displayed on the terminal 30. Each square (each piece) is associated with a sound ID. For example, each cell (x, y) = (1, 1) corresponds to the sound ID = 1, and each cell (x, y) = (2, 1) corresponds to the sound ID = 2. Is associated with a different sound ID. In the example of FIG. 31A, since there are 30 squares, each sound ID is associated with each square.
そして、端末30は、サーバ20から、30マスに対応する各音ID及び各音IDに対応するフラグFの値を要求し、受信する。
Then, the terminal 30 requests and receives each sound ID corresponding to 30 squares and the value of the flag F corresponding to each sound ID from the
例えば、端末30は、音IDに対応付けられるフラグFの値が1の場合は、マス目に対応する画像を表示させ、フラグFの値が0の場合にはマス目に黒色を表示させる。つまり、フラグF=0のマス目については、未だ音が発生していないので、その部分を表示させないように、マスク処理を施す。 For example, when the value of the flag F associated with the sound ID is 1, the terminal 30 displays an image corresponding to the square, and when the value of the flag F is 0, the terminal 30 displays black. That is, since no sound has yet been generated for the square of flag F = 0, mask processing is performed so as not to display that portion.
例えば、演出装置10において、音ID=10の音データが発生すると、当該音ID=10に対応するフラグF=1に更新し、サーバ20に送信する。そして、サーバ20は、演出装置10から音ID=10及び当該音ID=10に対応するフラグF=1を受信する。
For example, when the sound data of sound ID = 10 is generated in the
また、端末30は、例えば、画面の更新時に、サーバ20から、各マスに対応する音IDに対応するフラグFを要求して受信し、音ID=10のフラグFが1に更新されると、図31(B)に示すように、音ID=10に対応するマス目(x,y)=(5,2)のマス目の画像を表示させる。
Further, for example, when updating the screen, the terminal 30 requests and receives the flag F corresponding to the sound ID corresponding to each cell from the
このように、演出装置10での新たな会話が発生すると、端末30側で、パズルのピースが埋まっていくように、プレーヤはマス目の画像を見ることができる。その結果、プレーヤは未だ発生していない音データの数を認識することができる。また、音データが発生していないマス目は黒色で画像が見えないので、プレーヤに対し音が未発生の音データ(見えないマス目の音データ)を発生させようとする動機につなげることができる。
In this way, when a new conversation occurs in the
なお、端末30では、フラグF=1で画像が見えているマス目のタッチ入力を受け付けると、当該マス目の音IDの音データを端末30において何度も発生(再生)させることができる。 In addition, in the terminal 30, when the touch input of the square where the image is visible with the flag F = 1 is received, the sound data of the sound ID of the square can be generated (reproduced) many times in the terminal 30.
例えば、端末30は、図32(A)に示すように、音ID=10に対応するマス目(x,y)=(5,2)についてタッチ入力を受け付けると、当該音ID=10の音データをサーバ20又は演出装置10からダウンロードし、音ID=10の音データを再生する。なお、端末30において既に音ID=10の音データが記憶部に記憶されている場合には、音ID=10に対応するマス目(x,y)=(5,2)についてタッチ入力を受け付けた場合、音ID=10の音データを再生するようにしてもよい。更に、端末30は、図32(B)に示すように、台詞、写真、画像或いは動画をサーバ20からダウンロードし、音ID=10の音データの再生に連動して、台詞、文章、写真、画像或いは動画を再生(表示)させる。このように、プレーヤは、演出装置10で発生した音データを、端末30の演出アプリケーションにおいて再生することができるので、端末30において手軽に演
出内容を楽しむことができる。
For example, as illustrated in FIG. 32A, when the terminal 30 receives a touch input for the grid (x, y) = (5, 2) corresponding to the sound ID = 10, the sound with the sound ID = 10 is received. The data is downloaded from the
また、本実施形態では、端末30において音データを再生する際に発生させる画像或いは動画像は、発生させた音データの数に応じて変化させてもよい。例えば、発生させた音データの数が増えるほど、キャラクタの表情が変化するようにしてもよい。 In the present embodiment, an image or a moving image generated when sound data is played back on the terminal 30 may be changed according to the number of generated sound data. For example, the expression of the character may change as the number of generated sound data increases.
8.音データに関する制御
本実施形態の音データに関する制御について詳細に説明する。
8). Control related to sound data Control related to sound data according to the present embodiment will be described in detail.
8.1 音データを音出力に関する説明
音データを送信する処理について3つの態様が考えられる。
8.1 Explanation about sound output of sound data There are three possible modes for the process of transmitting sound data.
(1)第1の例では、送信側が音データそのものを受信側に送信する例である。例えば、サーバ20が演出装置10に音データを送信し、演出装置10は、サーバ20から音データを受信して演出装置の記憶部170に記憶し当該音データを音出力する。
(1) In the first example, the transmission side transmits the sound data itself to the reception side. For example, the
(2)第2の例では、受信側で音データが既に記憶部に記憶されており、送信側が音IDを送信する例である。例えば、サーバ20は音IDを送信し、演出装置10は、既に記憶部に記憶されている当該音IDに対応する音データを音出力する。
(2) In the second example, sound data is already stored in the storage unit on the reception side, and the transmission side transmits a sound ID. For example, the
(3)第3の例では、受信側において音データをキャッシング(一時記憶)する例である。例えば、演出装置10が、音データを一時的に記憶するキャッシュ(例えば、記憶部170の一時記憶領域)を備えている場合、当該キャッシュされている音データを再生するように制御する。つまり、サーバ20が、音IDを演出装置10に送信し、演出装置10は、サーバ20から受信した音IDの音データが既にキャッシュに記憶されている場合には、当該音IDの音データを音出力する。一方、演出装置10は、サーバ20から受信した音IDの音データが既にキャッシュに記憶されていない場合は、サーバ20に音IDの音データを要求する。サーバ20は、演出装置10から音IDの音データの要求情報を受信した場合に、当該音データを演出装置10に送信し、演出装置10は、サーバ20から音データを受信して演出装置の記憶部170に記憶し、当該音データを音出力する。
(3) In the third example, sound data is cached (temporarily stored) on the receiving side. For example, when the
8.2 音データ(又は音ID)のデータ送信方向についての説明
音データの送信側、受信側については以下の態様が考えられる。
8.2 Explanation of data transmission direction of sound data (or sound ID) The following modes can be considered for the transmission side and reception side of sound data.
(1)サーバ20から演出装置10へのデータ送信処理
本実施形態のサーバ20は、演出装置10に対してデータを送信する。例えば、サーバ20は、アップデートで追加するために音データを演出装置10に送信する。また、サーバ20は、Web上の情報(天気予報、日経平均等)に連動して、音ID又は音データを演出装置10に送信し、演出装置10にて再生させてもよい。
(1) Data transmission processing from
(2)サーバ20から端末30へのデータ送信処理
本実施形態のサーバ20は、端末30に対してデータを送信する。例えば、サーバ20は、アップデート用の音データを端末30に送信する。なお、端末30が、更に、演出装置10にアップデート用の音データを送信してもよい。
(2) Data transmission processing from
また、サーバ20は、サーバ20において記録(記憶部に記憶)した音データの再生回数等の情報を、端末30に送信する。
In addition, the
(3)演出装置10からサーバ20へのデータ送信処理
本実施形態の演出装置10は、サーバ20に対してデータを送信する。例えば、演出装
置10は、プレイ情報(音出力済みか否かを示すフラグF、再生回数、再生時間等)をサーバ20に送信する。
(3) Data transmission processing from the
(4)演出装置10から端末30へのデータ送信処理
本実施形態の演出装置10は、端末30に対してデータを送信する。例えば、演出装置10は、端末30で再生する音データ又は音IDを送信する。また、演出装置10は、端末30での再生回数等のプレイ情報を送信する。
(4) Data transmission processing from
(5)端末30から演出装置10へのデータ送信処理
本実施形態の端末30は、演出装置10に対してデータを送信する。例えば、端末30は、アップデート情報を演出装置10に送信する。また、端末30は、特定の音データ又は音IDを再生する指示を送信する。
(5) Data transmission process from terminal 30 to effect
(6)端末30からサーバ20へのデータ送信処理
本実施形態の端末30は、サーバ20に対してデータを送信する。例えば、端末30は、演出装置10から受信したプレイ情報等をサーバ20に送信する。
(6) Data transmission process from terminal 30 to
9. その他
9.1 演出に関する設定情報
本実施形態では、プレーヤの端末30に、演出装置10と連動する演出アプリケーションをインストール可能とし、当該演出アプリケーションで、演出に関する設定を行えるように制御してもよい。そして、演出装置10は、端末30から設定情報を受信し、当該設定情報を記憶部170に記憶するようにしてもよい。
9. Others 9.1 Setting Information Related to Effects In the present embodiment, it may be possible to install an effect application linked to the
また、サーバ20が、Web機能によって情報を提供する場合、サーバのWebページにてプレーヤの入力情報に基づき演出に関する設定を行えるように制御してもよい。そして、演出装置10は、サーバ20から設定情報を受信し、当該設定情報を記憶部170に記憶するようにしてもよい。
In addition, when the
図33は、演出装置10の記憶部170に記憶される設定情報の一例である。設定情報には、演出処理の発生頻度、発生条件、フィギュア同士の関係性を含む。つまり、プレーヤは、端末30に表示される演出アプリケーションやWebページ等の設定画面において、演出処理の発生頻度、発生条件、フィギュア同士の関係性などの設定情報を入力できる。
FIG. 33 is an example of setting information stored in the
演出処理の発生頻度とは、例えば、単位時間当たり(1時間当たり、或いは、1日あたり)に音出力が発生する回数を示す。 The occurrence frequency of the effect process indicates, for example, the number of times that sound output occurs per unit time (per hour or per day).
発生条件とは、例えば、発生可能な時間帯を示す。 The generation condition indicates, for example, a possible time zone.
フィギュア同士の関係性とは、一のフィギュアと他のフィギュアの仲の良さを示す。例えば、「普通」「良い」「悪い」の3つの関係性の中から一の関係性を設定できる。 The relationship between figures indicates the closeness between one figure and another figure. For example, one relationship can be set from the three relationships of “normal”, “good”, and “bad”.
そして、演出装置10は、発生頻度が1時間に1回である場合、少なくとも1時間に1回に音データを発生させるように制御する。
Then, when the frequency of occurrence is once per hour, the
また、演出装置10は、発生条件が15時〜18時の間である場合には、15時〜18時の間に音データを発生させ、18時以降〜翌日15時になるまでの間は、音データの発生をさせないように制御する。
Further, when the generation condition is between 15:00 and 18:00, the
また、演出装置10は、フィギュア同士の関係性に応じて複数種類の音データを用意し、フィギュア同士の関係性に基づいて、音データを決定するようにしてもよい。
In addition, the
9.2 演出装置10と端末30との連動
本実施形態では、演出装置10と端末30とを連動させて演出処理を行ってもよい。つまり、本実施形態では、音データの出力と同時に、端末30に音データに応じた画像、動画(映像)を表示させてもよい。
9.2 Interlocking between the
例えば、図34に示すように、演出装置10のステージSTに端末30(携帯型の端末)を横に立てておくと、ステージの背景画像や照明の代替となる画像を表示することができる。例えば、嵐のシーンの会話では、雷や大雨の画像を端末30に表示させることができる。
For example, as shown in FIG. 34, when the terminal 30 (portable terminal) is placed sideways on the stage ST of the
具体的に説明すると、まず、演出装置10が音データを出力する前に、演出装置10及び端末30の演出開始のタイミングを同じタイミングにする。そして、同じ演出開始タイミングで、演出装置10が音データの音出力を開始させるとともに、端末30が動画再生を開始させる。
Specifically, first, before the
また、演出装置10が、質問の音データを発生した場合に、端末30に質問を送信し、端末30が、当該質問に対して、入力(マイク入力、タッチ操作による文字入力)によって回答を受け付けるようにしてもよい。
In addition, when the
9.3 拡張現実(AR)
本実施形態では、端末30が備えるカメラ(撮影部)によって撮影された撮影画像と、仮想空間において仮想カメラから見える仮想画像とを合成して拡張現実画像を生成する処理を行ってもよい。そして、端末30の表示部390に、拡張現実画像を表示する。
9.3 Augmented reality (AR)
In the present embodiment, a process of generating an augmented reality image by combining a captured image captured by a camera (imaging unit) included in the terminal 30 and a virtual image viewed from the virtual camera in the virtual space may be performed. Then, the augmented reality image is displayed on the
例えば、端末30のカメラで演出装置10のステージSTを撮影し、演出装置10で音データが発生すると、端末30の表示部390に、キャラクタを含む仮想画像や、エフェクト処理が施された仮想画像が合成された拡張現実画像を生成して表示する。このようにすれば、プレーヤは、演出装置10と端末30との連動を楽しむことができる。
For example, when the stage ST of the
9.4 家電との連動
本実施形態では、演出装置10と家電とがネットワークを介して接続されている場合に、演出装置10と家電とを連動させて演出処理を行ってもよい。
9.4 Linkage with Home Appliances In the present embodiment, when the
例えば、演出装置10は、夜のシーンでの音データを発生させる場合には、照明器具を暗くする命令を送信する。照明器具は演出装置10から当該命令を受信すると照明を暗くするように制御する。また、演出装置10は、雪のシーンでの音データを発生させる場合には、空調器具(エア・コンディショナー)に、温度を下げる命令を送信する。空調器具は演出装置10から当該命令を受信すると温度を下げるように制御する。以上のように、演出装置10と家電とが連動すれば、プレーヤは演出装置を温度や明るさで体感することができる。
For example, when the
また、フィギュアFAのキャラクタがテレビで放映される場合には、フィギュアFAが「テレビがはじまるよ」という音データを発生させるとともに、テレビのスイッチがオンになるように制御してもよい。 Further, when the character of the figure FA is broadcast on the television, the figure FA may generate sound data “TV will start” and may be controlled to turn on the television.
9.5 特典付与
本実施形態では、音データ毎に、レア度(希少度)を設定し、レア度が所定値以上の音
データを発生させた場合に、プレーヤにゲームで利用可能なアイテム(レアアイテム、仮想通貨)、或いは、フィギュアなどの特典を付与してもよい。
9.5 Bonus Grant In this embodiment, a rare item (rare level) is set for each sound data item, and when the sound data with a rare value equal to or greater than a predetermined value is generated, the items ( Rare items, virtual currency), or benefits such as figures may be granted.
9.6 音声合成
本実施形態の演出装置10は、情報配信サーバからニュースや天気予報、SNSサイトからの情報を読み込み、フィギュアの音の種類(声優の種類)に応じて音合成を行い、発生させてもよい。なお、音合成については、サーバ20で行ってもよい。
9.6 Speech Synthesis The
9.7 演出状況の画像、動画を送信する処理
本実施形態の演出装置10は、ステージSTに設置されたカメラ(Webカメラ)を通じて会話風景(演出状況)の画像や動画を、インターネット上の所与のサイト(例えば、プレーヤが予め登録したSNSサイト)に、送信してもよい。
9.7 Processing for Transmitting Images and Movies of Production Status The
9.8 演出装置とサーバの組み合わせ
なお、本実施形態の演出システムは、端末を含まない構成であってもよい。例えば、演出装置10とサーバ20とがネットワークを介して接続される演出システムであってもよい。
9.8 Combination of Effect Device and Server Note that the effect system of the present embodiment may not include a terminal. For example, an effect system in which the
10 演出装置、20 サーバ、30 端末、
100 処理部、112 演出内容決定部 120 通信制御部、121 受信部、122 送信部、130 演出処理部、131 音処理部、162 検出部、170 記憶部、171 主記憶部、172 演出データベース、180 情報記憶媒体、192 音出力部、196 通信部、
200 処理部、210 演出管理部、220 通信制御部、221 受信部、222 送信部、270 記憶部、271 主記憶部、260 格納部、261 プレーヤ情報、263 演出管理データ、264 演出内容、280 情報記憶媒体、296 通信部、300 処理部、再生処理部310、表示制御部312、320 通信制御部、321 受信部、322 送信部、330 画像生成部、340 音生成部、360 入力部、362 検出部、370 記憶部、371 主記憶部、372 画像バッファ、380 情報記憶媒体、390 表示部、392 音出力部、396 通信部
10 production devices, 20 servers, 30 terminals,
DESCRIPTION OF
200 processing unit, 210 production management unit, 220 communication control unit, 221 reception unit, 222 transmission unit, 270 storage unit, 271 main storage unit, 260 storage unit, 261 player information, 263 production management data, 264 production content, 280 information Storage medium, 296 communication unit, 300 processing unit,
Claims (11)
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部として、コンピュータを機能させることを特徴とするプログラム。 A program for a production device including a stage on which a plurality of media can be arranged,
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
A program that causes a computer to function as an effect processing unit that performs effect processing based on the effect content determined by the effect content determination unit.
前記演出内容決定部が、
前記複数の媒体の位置関係に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In claim 1,
The production content determination unit
A program characterized by performing a process of determining production contents based on a positional relationship among the plurality of media.
前記検出部が、
前記ステージに配置された前記媒体の向きを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の向きに基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In claim 1 or 2,
The detection unit is
Detecting the orientation of the medium placed on the stage;
The production content determination unit
The program which performs the process which determines the production | presentation content based on the direction of the said medium detected by the said detection part.
前記検出部が、
前記ステージに配置された前記媒体の姿勢状態を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の姿勢状態に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In any one of Claims 1-3,
The detection unit is
Detecting the posture state of the medium placed on the stage,
The production content determination unit
A program for performing a process of determining production contents based on a posture state of the medium detected by the detection unit.
前記検出部が、
前記ステージに配置された前記媒体の高さを検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の高さに基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In any one of Claims 1-4,
The detection unit is
Detecting the height of the medium placed on the stage;
The production content determination unit
The program which performs the process which determines the production | presentation content based on the height of the said medium detected by the said detection part.
前記検出部が、
前記ステージに配置された前記媒体の装着パーツの有無を検出し、
前記演出内容決定部が、
前記検出部によって検出された前記媒体の装着パーツの有無に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In any one of Claims 1-5,
The detection unit is
Detect the presence or absence of the mounting part of the medium placed on the stage,
The production content determination unit
The program which performs the process which determines the content of production based on the presence or absence of the mounting | wearing part of the said medium detected by the said detection part.
前記媒体に装着パーツが有る場合に、
前記検出部が、
当該装着パーツの種類を検出し、
前記演出内容決定部が、
前記装着パーツの種類に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In claim 6,
When there is a mounting part in the medium,
The detection unit is
Detects the type of the attached part,
The production content determination unit
A program for performing a process of determining production contents based on a type of the mounted part.
前記複数の媒体が前記ステージに配置された時点から、配置状態の継続時間を計時する計時部として、コンピュータを更に機能させ、
前記演出内容決定部が、
前記配置状態の継続時間に基づいて、演出内容を決定する処理を行うことを特徴とするプログラム。 In any one of Claims 1-7,
From the time when the plurality of media are placed on the stage, as a timekeeping unit that times the duration of the placement state, further causing the computer to function,
The production content determination unit
The program which performs the process which determines the production content based on the continuation time of the said arrangement | positioning state.
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、を含むことを特徴とする演出装置。 An effect device including a stage on which a plurality of media can be arranged,
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit comprising: an effect processing unit that performs effect processing based on the effect content determined by the effect content determining unit.
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記端末に送信する処理を行う送信部と、
を含み、
前記端末が、
前記演出済の演出内容に関する情報を、前記演出装置から受信する処理を行う受信部と、
演出済の演出内容に関する情報に基づいて、前記演出済の演出内容を再生する処理を行う再生処理部と、
を含むことを特徴とする演出システム。 A rendering system in which a rendering device including a stage capable of arranging a plurality of media and a terminal are connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmission unit that performs processing for transmitting information related to the contents of the rendered performance to the terminal;
Including
The terminal is
A receiving unit that performs processing for receiving information related to the contents of the rendered effects from the rendering device;
Based on information related to the effect content that has been effected, a reproduction processing unit that performs processing to reproduce the effect content that has been effected,
The production system characterized by including.
前記演出装置が、
前記ステージに配置された複数の媒体それぞれの種類及び位置を検出する検出部と、
前記検出部によって検出された前記複数の媒体それぞれの種類及び位置に基づいて、演出内容を決定する処理を行う演出内容決定部と、
前記演出内容決定部によって決定された前記演出内容に基づいて、演出処理を行う演出処理部と、
演出済の演出内容に関する情報を前記サーバに送信する処理を行う送信部と、
を含み、
前記サーバが、
前記演出装置から前記演出済の演出内容に関する情報を受信する処理と、前記端末から演出済の演出内容の再生要求を受信する処理と、を行う受信部と、
前記端末から前記演出済の演出内容の再生要求を受信した場合に、前記演出済の演出内容を前記端末に送信する送信部と、
を含み、
前記端末が、
前記サーバに、前記演出済の演出内容の再生要求を送信する送信部と、
前記演出済の演出内容を、前記サーバから受信する処理を行う受信部と、
前記演出済の演出内容を再生する処理を行う再生処理部と、
を含むことを特徴とする演出システム。 An effect system including a stage capable of arranging a plurality of media, a terminal, and a server connected via a network,
The stage device is
A detection unit for detecting the type and position of each of the plurality of media arranged on the stage;
An effect content determination unit that performs a process of determining effect content based on the type and position of each of the plurality of media detected by the detection unit;
An effect processing unit that performs an effect process based on the effect content determined by the effect content determination unit;
A transmitter for performing processing for transmitting information related to the contents of the rendered performance to the server;
Including
The server is
A receiving unit that performs a process of receiving information on the content of the rendered effect from the rendering device and a process of receiving a reproduction request for the rendered content of the effect from the terminal;
A transmission unit that transmits the content of the rendered effect to the terminal when the reproduction request for the rendered content of the effect is received from the terminal;
Including
The terminal is
A transmission unit for transmitting a reproduction request for the produced content of the production to the server;
A receiving unit that performs a process of receiving the rendered content of the performance from the server;
A reproduction processing unit for performing a process of reproducing the produced production contents;
The production system characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188566A JP2018050807A (en) | 2016-09-27 | 2016-09-27 | Program, performance device, and performance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188566A JP2018050807A (en) | 2016-09-27 | 2016-09-27 | Program, performance device, and performance system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018050807A true JP2018050807A (en) | 2018-04-05 |
Family
ID=61834634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016188566A Pending JP2018050807A (en) | 2016-09-27 | 2016-09-27 | Program, performance device, and performance system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018050807A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020058632A (en) * | 2018-10-11 | 2020-04-16 | 株式会社バンダイ | Performance presenting device, program, and performance presentation system |
JP2022164675A (en) * | 2019-08-27 | 2022-10-27 | 株式会社コナミデジタルエンタテインメント | Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006130123A (en) * | 2004-11-08 | 2006-05-25 | Sega Corp | Game apparatus, and game program performed in the same |
JP2006142054A (en) * | 2002-06-11 | 2006-06-08 | Sega Corp | Game machine |
JP2006260602A (en) * | 2006-06-13 | 2006-09-28 | Sony Computer Entertainment Inc | Image processing apparatus |
JP2010253284A (en) * | 2005-04-01 | 2010-11-11 | Kenji Yoshida | Information inputting apparatus |
JP2011143095A (en) * | 2010-01-15 | 2011-07-28 | Tomy Co Ltd | Game apparatus |
JP2013192722A (en) * | 2012-03-19 | 2013-09-30 | Konami Digital Entertainment Co Ltd | Game system |
-
2016
- 2016-09-27 JP JP2016188566A patent/JP2018050807A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006142054A (en) * | 2002-06-11 | 2006-06-08 | Sega Corp | Game machine |
JP2006130123A (en) * | 2004-11-08 | 2006-05-25 | Sega Corp | Game apparatus, and game program performed in the same |
JP2010253284A (en) * | 2005-04-01 | 2010-11-11 | Kenji Yoshida | Information inputting apparatus |
JP2006260602A (en) * | 2006-06-13 | 2006-09-28 | Sony Computer Entertainment Inc | Image processing apparatus |
JP2011143095A (en) * | 2010-01-15 | 2011-07-28 | Tomy Co Ltd | Game apparatus |
JP2013192722A (en) * | 2012-03-19 | 2013-09-30 | Konami Digital Entertainment Co Ltd | Game system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020058632A (en) * | 2018-10-11 | 2020-04-16 | 株式会社バンダイ | Performance presenting device, program, and performance presentation system |
JP2022164675A (en) * | 2019-08-27 | 2022-10-27 | 株式会社コナミデジタルエンタテインメント | Computer program used for user terminal, event system used for user terminal to which the same is applied, computer program used therefor, and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7366196B2 (en) | Widespread simultaneous remote digital presentation world | |
JP6809830B2 (en) | Programs and electronics | |
JP6955861B2 (en) | Event control system and program | |
JP6598500B2 (en) | Viewport based augmented reality haptic effect system, method and non-transitory computer readable medium | |
KR101686576B1 (en) | Virtual reality system and audition game system using the same | |
CN103657087B (en) | Formula narration environment on the spot in person | |
US20190073830A1 (en) | Program for providing virtual space by head mount display, method and information processing apparatus for executing the program | |
CN104010706B (en) | The direction input of video-game | |
CN107683166A (en) | For limiting filtering and the father and mother's control method of the visual activity on head mounted display | |
US11704874B2 (en) | Spatial instructions and guides in mixed reality | |
CN107683449A (en) | The personal space content that control is presented via head mounted display | |
CN103971401A (en) | Information Processing Device, Terminal Device, Information Processing Method, And Programme | |
CN104937641A (en) | Information processing device, terminal device, information processing method, and programme | |
JP2012213492A (en) | Program, information storage medium, game terminal and server system | |
JP7038482B2 (en) | Computer systems, game systems and programs | |
KR20130136630A (en) | System of servicing famous people's character in smart phone and operating method thereof | |
Schraffenberger | Arguably augmented reality: relationships between the virtual and the real | |
JP2018050807A (en) | Program, performance device, and performance system | |
US20180373884A1 (en) | Method of providing contents, program for executing the method on computer, and apparatus for providing the contents | |
CN114359519A (en) | Meta universe system | |
Loijens et al. | What is augmented reality? | |
JP7051993B2 (en) | Programs and electronic devices | |
JP2016087007A (en) | Online game system and online game server | |
Tang et al. | Emerging human-toy interaction techniques with augmented and mixed reality | |
JP7412613B1 (en) | Information processing systems and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190925 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20190925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210406 |