WO2017090096A1 - 演出制御システム - Google Patents

演出制御システム Download PDF

Info

Publication number
WO2017090096A1
WO2017090096A1 PCT/JP2015/082957 JP2015082957W WO2017090096A1 WO 2017090096 A1 WO2017090096 A1 WO 2017090096A1 JP 2015082957 W JP2015082957 W JP 2015082957W WO 2017090096 A1 WO2017090096 A1 WO 2017090096A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
effect
production
input
creative
Prior art date
Application number
PCT/JP2015/082957
Other languages
English (en)
French (fr)
Inventor
仁 西本
Original Assignee
株式会社ハイスピードボーイズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ハイスピードボーイズ filed Critical 株式会社ハイスピードボーイズ
Priority to PCT/JP2015/082957 priority Critical patent/WO2017090096A1/ja
Priority to JP2015557286A priority patent/JPWO2017090096A1/ja
Publication of WO2017090096A1 publication Critical patent/WO2017090096A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Definitions

  • the present invention includes an effect determining unit that determines predetermined effect content, an effect output unit that outputs an effect of the effect content determined by the effect determining unit, and a communication unit that can communicate with the effect determining unit.
  • the production control system includes the production determination unit, a storage unit that stores production data that defines the production content, and a control unit that specifies the production data stored in the storage unit,
  • the communication unit includes an input unit that inputs information or a signal for determining the content of the effect, and the control unit specifies the effect data based on the information or signal input to the input unit.
  • the communication unit is preferably a terminal.
  • the effect determination unit 12 for example, a server or the like can be used.
  • Each unit may be connected to each other wirelessly or by wire, and wireless communication is particularly preferable.
  • wireless communication Wi-Fi, NFC, wireless LAN, or the like can use part or all of the existing infrastructure.
  • a server can be utilized as one embodiment of the effect determination unit 12, it is not limited to the server. Cloud servers are also available.
  • the cache is preferably stored in such a manner that the file is inserted into the production output unit 14 or the storage unit side of the communication unit 16.
  • Streaming distribution formats include on-demand distribution and live distribution, and in the present embodiment, one or both of them are included.
  • the on-demand distribution is a method of registering an encoded file in the storage of the effect determination unit 12 and distributing a predetermined content file to the effect output unit 14 or the communication unit 16, for example. .
  • Live distribution does not distribute pre-created files like on-demand distribution, but it does not distribute captured images (live broadcasts or recorded and edited ones), production output unit 14 or communication
  • This is a method of sequentially converting (encoding) the data to streaming delivery data to the unit 16 and delivering it in real time.
  • the storage unit 14B is composed of, for example, a ROM, and has a first storage area 14B1 that stores a program for driving the control unit 14A.
  • the input unit 16C can input predetermined information or signals. As shown in FIG. 9, the input unit 16C employs, for example, a combination of one or more of a keyboard 16C1, a touch panel 16C2, and a microphone 16C3 such as a numeric keypad.
  • the microphone analyzes the waveform of the input sound and converts it into input sound information. Note that the sound is not limited to the user's voice, but includes all sound sources such as ambient sounds, friend's voice, artist's voice, and surrounding clap sounds.
  • the input unit 16C is not limited to the keyboard 16C1, the touch panel 16C2, or the microphone 16C3, and includes all sensors, switches, devices, and the like having a function of inputting predetermined information or signals.
  • the signal input at the input unit 16C means a specific signal output from the input unit 16C as a result of the operation of the input unit 16C, for example. It is possible to estimate or specify which key or panel is operated according to the type or content of the unique signal.
  • the acceleration sensor 16F1 is a sensor that detects the frequency or fluctuation of the communication unit 16.
  • the pulse sensor 16F3c is a sensor for measuring the user's pulse rate by contacting the skin or the like when worn on the user's body. It is possible to detect the user's pulse rate or its change.
  • the pulse sensor 16F3c can generate and output a detection signal related to the pulse rate.
  • the description is abbreviate
  • the user's excitement level, physical wear level, and health status can be estimated or specified from the pulse rate. If the pulse rate is high, it is estimated or specified that the user's excitement level is high, the physical exhaustion level is severe, or the health condition is poor, and if the pulse rate is low, the user's excitement level is low, and the physical exhaustion level is not high Alternatively, the health condition can be estimated or identified as normal.
  • the sweating sensor 16F3f is a sensor for measuring the state of sweating of the user by contacting the skin or the like when worn on the user's body. It is possible to detect the state of the user's sweating or its change.
  • the sweating sensor 16F3f can generate and output a detection signal related to the state of sweating.
  • the description is abbreviate
  • the display unit 16D is, for example, a liquid crystal display unit that can display predetermined information.
  • the effect pattern determination process includes, for example, an input step S100, a calculation step S110, and an effect determination step S120.
  • the input unit 16C is a keyboard such as a numeric keypad or a touch panel installed on the display unit 16D, it is possible to input predetermined information or signals by operating or pressing them. Become.
  • a unique signal indicating the number of vibrations or state change of the communication unit 16 is output to the effect determination unit 12 or the effect output unit 14.
  • the frequency of the sound input to the microphone 16C3 is analyzed in the control unit 12A of the effect determining unit 12 or the control unit 14A of the effect output unit 14 as an output destination. Then, one frequency band is selected.
  • the calculation step S110 is executed by, for example, the input calculation unit 12A2 or the effect determination unit 12A2 of the control unit 12A of the effect determination unit 12. Moreover, you may perform by 14 A of control parts of the production output part 14. FIG. Further, it may be executed by the control unit 16A of the communication unit 16. In particular, in this embodiment, the aspect which input calculation part 12A2 of 12 A of control parts of the effect determination part 12 performs is shown.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • Telephone Function (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

観衆又は遊技者が自らの意思で演出コンテンツを決定することができる演出制御システムを提供する。 所定の演出内容を決定する演出決定部12と、演出決定部12で決定された演出内容の演出を出力する演出出力部14と、演出決定部12に通信可能な通信部と、を有する演出制御システム10であって、演出決定部12は、演出内容を画定する演出データを記憶する記憶部12Bと、記憶部12Bに記憶された演出データを指定する制御部12Aと、を有し、通信部16は、演出内容を決定するための情報又は信号を入力する入力部16Cを有し、制御部12Aは、入力部16Cに入力された情報又は信号に基づいて演出データを指定する。

Description

演出制御システム
 本発明は、様々な演出を実現するための演出制御システムに関する。
 従来から、映画又はテレビプログラムとして、様々なコンテンツが放映又は放送されている。これらのコンテンツは、シナリオ又はストーリ等が予め決定されており、結末もシナリオ又はストーリ等に基づいて決定されている。
 上記コンテンツは創作物又は著作物の観点から芸術品の部類に属し、これを鑑賞する者は、その芸術品を鑑賞して楽しむことで今なお一つの文化として成立している。
WO2015/053406号国際公開公報
 しかしながら、鑑賞する者が自らの意思でコンテンツに参加し又はコンテンツの進行を変更することができれば、そこに新たな遊技性が生まれ、一つの芸術又はゲームの文化として確立し得る。
 そこで、本発明は、上記問題に鑑み、観衆又は遊技者が自らの意思で演出コンテンツを決定することができる演出制御システムを提供することを目的とする。
 本発明は、所定の演出内容を決定する演出決定部と、前記演出決定部で決定された前記演出内容の演出を出力する演出出力部と、前記演出決定部に通信可能な通信部と、を有する演出制御システムであって、前記演出決定部は、前記演出内容を画定する演出データを記憶する記憶部と、前記記憶部に記憶された前記演出データを指定する制御部と、を有し、前記通信部は、演出内容を決定するための情報又は信号を入力する入力部を有し、前記制御部は、前記入力部に入力された情報又は信号に基づいて前記演出データを指定する。
 前記演出出力部は、前記制御部で指定された前記演出データに基づく演出を出力してもよい。
 前記記憶部は、前記演出内容が異なる複数の前記演出データを記憶する記憶領域を有し、前記制御部は、前記入力部の入力結果に基づき所定の情報又は信号を選択する入力演算部と、前記選択された情報又は信号に対応する前記演出データを指定する演出指定部と、前記演出出力部は、前記演出指定部で指定された前記演出データに基づく演出を出力してもよい。
 前記通信部は、端末であることが好ましい。
 前記入力部は、キーボード、タッチパネル又は検知部のいずれかであることが好ましい。
 本発明によれば、観衆又は遊技者が自らの意思で演出コンテンツを決定することができる。
本発明の一実施形態の演出制御システムの全体構成を示す図である。 本発明の一実施形態の演出制御システムの演出決定部の構成図である。 本発明の一実施形態の演出制御システムの演出出力部の構成図である。 本発明の一実施形態の演出制御システムの通信部の構成図である。 記憶部の第1の記憶領域の構成図である。 記憶部の第2の記憶領域の構成図である。 通信部の入力部と演出パターンとの対応関係を示した説明図である。 通信部のシェイク数と演出パターンとの対応関係を示した説明図である。 入力部の構成図である。 検知部の構成図である。 生理状態検知センサの構成図である。 演出パターン決定処理のフローチャートである。
 本発明の一実施形態に係る演出制御システムについて、図面を参照して説明する。なお、本実施形態において、「演出」とは、音楽演出の他に、文字、絵、写真、文章、映像、小説、映画、テレビプログラム、ライブ、サイリウムなどの照明機器、コンサート、スポーツ、ゲーム、遊戯などインターネット等で制御可能な演出であればよく、特に限定されるものではない。
[演出制御システムの全体構成]
 先ず、演出制御システムの全体構成について説明する。なお、本システムにクラウドコンピューティング技術を採用することも可能である。この構成では、サーバが不要となる構成を実現することが理論的に可能であるが、以下の説明では、一実施形態としてサーバを備えた構成を例示する。ただし、サーバが本発明の必須要件に該当するものではない。
 図1に示すように、演出制御システム10は、所定の演出データに基づく演出を実現することができるシステムである。演出制御システム10は、例えば、演出決定部12と、演出出力部14と、通信部16と、を含んで構成される。
 演出決定部12は、例えば、演出内容を決定する。
 演出決定部12として、例えば、サーバ等を用いることができる。
 演出出力部14は、演出決定部12で決定された演出内容の演出を出力する。
 演出出力部14は、例えば、演出が実行される場所又は通信機器、例えば、映画館のスクリーン、照明機器、公園や競技場のモニタ、競技場のモニタ、各家庭のテレビ、遊園地のアトラクション、ゲームセンタの遊具などが該当するが、これらに限定されるものではない。また、各個人が所有しているPC端末、タブレット端末、携帯電話などを配信先とすることも可能である。
 演出決定部12と演出出力部14は別体の機器で構成されていてもよく、又は同一の機器で構成されていてもよい。前者の構成では、それぞれが同じ場所に設置されていてもよく、又は異なる別の場所にそれぞれ設置されていてもよい。
 通信部16は、インターネットなどのネットワークを介して演出決定部12又は/及び演出出力部14に対して通信可能となるように接続されている。通信部16は、単数又は複数設けられる。
 通信部16として、例えば、PC端末、携帯電話端末、身体に付けるバンドなどの通信機器などを用いることが可能である。
 各部は無線又は有線で相互に接続されていてもよく、特に無線による通信が好ましい。無線通信として、Wi-Fi、NFC、無線LANなどを既存のインフラの一部又は全てを利用することができる。
[演出決定部]
 次に、演出決定部12について説明する。
 図2に示すように、演出決定部12は、例えば、制御部12Aと、記憶部12Bと、入力部12Cと、表示部12Dと、通信インターフェース部12Eと、を有している。
 なお、演出決定部12の一実施態様としてサーバを利用することができるが、サーバに限定されるものではない。クラウドサーバも利用可能である。
 制御部12Aは、主として、演出データを指定する。制御部12Aは、例えば、主制御部12A1と、入力演算部12A2と、演出指定部12A3と、を含んで構成されている。これらは、同一の制御部で構成されていてもよく、あるいは2つ以上の制御部にわたり分散して構成されていてもよい。
 なお、演出決定部12は、1つのCPUで構成されるとは限らず、複数のCPUで構成されてもよい。
 制御部12Aは、例えば、CPUで構成される。
 主制御部12A1は、演出データの指定、編集、作成及び送信の全体制御を司る。
 入力演算部12A2は、通信部16の入力部16Cからの入力結果に基づき所定の情報又は信号を選択する。
 演出指定部12A3は、入力演算部12A2の演算結果に基づいて選択された情報又は信号に対応する演出データを指定する。なお、演出データは、例えば、後述の記憶部12Bの第1記憶領域12B1に予め記憶されている。
 制御部12の入力演算部12A2及び演出指定部12A3は、例えば、演出出力部14の制御部14A又は通信部16の制御部16Aに設けられている構成でもよい。
 なお、演出決定部12は、所定の通信部16に対しても演出データを送信することが可能である。この構成では、演出決定部12から通信部16にダウンロードされたアプリケーションを利用して演出決定部12に対して所定の演出データの送信を要求する演出データ送信要求信号を出力し、演出決定部12は当該演出データ送信要求信号を受けて前記通信部16に対して指定された演出データを送信することが可能である。
 演出決定部12は、演出データの送信時間あるいは演出の開始時間を調整することも可能である。具体的には、送信先への演出データの送信可能時間、配信終了時間、開始時間、表示終了時間などを、演出データ毎に設定することができる。
 ここで、演出決定部12から演出出力部14及び通信部16への演出データの送信方法は、一例としてストリーミング形式が存在するが、この形式に限定されるものではない。例えば、バッファ方式を伴わない形式、ダウンロード型に近い形式も有り得、それらを採用することも可能である。
 本実施形態の演出データの送信方法として、例えば、ストリーム(ストリーミング)、プログレッシブダウンロード(疑似ストリーム)、ダウンロード等のいずれかを適宜採用することができる。
 ストリームとは、演出出力部14又は通信部16の記憶装置(HDD)に一時ファイル(キャッシュ)は作られず、送信される演出データをそのまま流す方式である。
 プログレッシブダウンロード(疑似ストリーム)とは、演出出力部14又は通信部16の記憶装置(HDD)に一時ファイル(キャッシュ)が作られ、演出出力部側又は端末側のブラウザなどのソフトウエアが、ユーザによる演出の視聴終了後にこの一時ファイルを自動的に削除あるいはユーザにより削除する方式である。
 ここで、キャッシュとは、使用頻度の高いデータを高速処理の記憶装置に蓄えておくことにより、低速処理の装置から読み出す無駄を省いて高速化すること、あるいはその際に使われる高速な記憶装置や複製されたデータそのものを意味する。例えば、メモリはハードディスクに比べれば何百倍も高速にデータの読み書きが行えるため、使用頻度の高いデータをメモリ内に保持しておくことにより、すべてのデータをハードディスクに置いた場合よりも処理を高速化することができる。この場合、メモリに複製されたデータがハードディスクのキャッシュである。
 ダウンロードとは、演出出力部14又は通信部16の記憶装置(HDD)に、ユーザが削除しない限り、消えないコピーデータが保存される方式である。
 配信方法は、ストリーミング技術に限るものではないが、演出データである動画データ、音声データ、映像データ、画像データ、何らかの情報に関するデータ等を配信する場合には、例えばストリーミング技術が適している。
 ストリーミング技術を採用することにより、例えば動画ファイルを一定サイズのバッファにダウンロードしながら再生することができる。そして、一度、動画ファイルのダウンロードが実行された場合には、例えばプログレッシブダウンロードのように結果としてダウンロード先の所定の記憶部にダウンロードされたファイルがキャッシュとして保存される方式と、ストリームのようにキャッシュが保存されない方式と、がある。
 ここで、ストリームでは、所定の時間が経過すると、バッファメモリのデータが消去されるため、再生する場合には、再度ストリーミングを行い、データをバッファメモリに再度ダウンロードする必要が生じる。このため、次回再生するときに手間が生じるが、著作権問題の回避や使用料が低額となる場合には、便利である。
 プログレッシブダウンロードでは、一度配信により取得したデータあるいはファイルについては、端末側にキャッシュが保存されるため、再配信することなく、各端末で何度も演出を再生することができる有利な点がある。
 キャッシュは、当該ファイルを演出出力部14又は通信部16の記憶部側に挿入する形で保存されることが好ましい。
 ストリーミングの配信形式には、オンデマンド配信と、ライブ配信と、があり、本実施形態ではいずれか一方又は両者を含む。
 具体的には、オンデマンド配信とは、例えば、演出決定部12のストレージにエンコード済みファイルを登録して、演出出力部14又は通信部16に対して、所定のコンテンツファイルを配信する方式である。
 ライブ配信とは、オンデマンド配信のように予め作成しておいたファイルを配信するものではなく、撮影した映像等(生放送あるいは録画編集済みのどちらのものも可能)を、演出出力部14又は通信部16に対して、順次、ストリーミング配信用のデータに変換(エンコード)してリアルタイムに配信する方式である。
 記憶部12Bは、例えば、第1の記憶領域12B1と、第2の記憶領域12B2と、を有している。
 図5に示すように、第1の記憶領域12B1には、複数の演出データを含んだ演出データ群18が記憶されている。演出データ群18には、例えば、演出データA18A1、演出データB18A2、演出データC18A3、…、が含まれている。
 図6に示すように、第2の記憶領域12B2には、演出パターン決定プログラム20が記憶されている。演出パターン決定プログラム20には、例えば、通信部16の入力部16C又は検知部16Fによる入力結果又は検知結果に関する情報のうち選択されるべき情報を決定するプログラムと、当該選択された情報と指定されるべき演出データ(演出パターン)との関係を規定するプログラムと、を含む。
 記憶部12Bは、例えば、ROMで構成される。
 記憶部12Bの第1の記憶領域12B1及び第2の記憶領域12B2に記憶された内容は、例えば、演出出力部14の記憶部14B又は通信部16の記憶部16Bに記憶されている構成でもよい。
 入力部12Cは、例えば、テンキー等のキーボードやタッチパネル等で構成され、所定の情報又は信号を入力する。
 表示部12Dは、例えば、液晶表示部で構成され、所定の情報を表示する。
 通信インターフェース部12Eは、専用ネットワーク又は公共ネットワークを介して演出出力部14及び通信部16に対して接続できるようにするためのネットワークアダプタである。通信インターフェース部12Eには、モデム、ケーブルモデム及びイーサネット(登録商標)・アダプタを含んでもよい。
[演出出力部]
 次に、演出出力部14について説明する。
 図3に示すように、演出出力部14は、例えば、制御部14Aと、記憶部14Bと、入力部14Cと、表示部14Dと、通信インターフェース部14Eと、を有している。
 なお、演出出力部14の一実施態様として上述した通りであるが、例えば、所定の演出を出力できる各種通信機器、遊技機、液晶表示装置、各種端末、サーバなどを利用することができるが、これらに限定されるものではない。
 制御部14Aは、例えば、CPUで構成され、演出出力部14の出力全体の制御を司る主制御部14A1を有する。
 記憶部14Bは、例えば、ROMで構成され、制御部14Aを駆動するためのプログラムを記憶する第1の記憶領域14B1を有する。
 入力部14Cは、例えば、テンキー等のキーボードやタッチパネル等で構成され、所定の情報又は信号を入力する。
 表示部14Dは、例えば、液晶表示部で構成され、所定の情報を表示する。
 通信インターフェース部14Eは、専用ネットワーク又は公共ネットワークを介して演出決定部12及び通信部16に対して接続できるようにするためのネットワークアダプタである。通信インターフェース部14Eには、モデム、ケーブルモデム及びイーサネット(登録商標)・アダプタを含んでもよい。
[通信部]
 次に、通信部16について説明する。
 図4に示すように、通信部16は、演出決定部12又は/及び演出出力部14に対して、無線又は有線で接続可能な通信機器である。
 通信部16として、例えば、PC端末、携帯電話端末、身体に付けるバンドなどの通信機器を利用できる。
 通信部16は、所定のブラウザ機能(例えば、WEBブラウザ)を有するものが好ましい。
 通信部16は、例えば、制御部16Aと、記憶部16Bと、入力部16Cと、表示部16Dと、通信インターフェース部16Eと、信号出力部16Gと、を有している。なお、通信部16には、図10に示すように、検知部16Fを設けてもよい。
 制御部16Aは、通信部16の全体制御を司る主制御部16A1を有する。制御部16Aは、シェイクカウント部16A2を有していてもよい。シェイクカウント部16A2は、例えば、検知部16Fで検知された検知信号に基づいて通信部16が振られた回数をカウントする。
 ここで、当該シェイクカウント部16A2は通信部16に設けられている構成に限られず、例えば、演出決定部12の制御部12A又は演出出力部14の制御部14Aに設けられている構成でもよい。この構成では、例えば、通信部16の検知部16Fからの検知信号に基づいて演出決定部12の制御部12Aでカウントされる。
 記憶部16Bは、制御部16Aを駆動するためのプログラムが記憶された第1の記憶領域16B1を有する。
 入力部16Cは、所定の情報又は信号を入力することができる。図9に示すように、入力部16Cは、例えば、テンキーなどのキーボード16C1、タッチパネル16C2又はマイク16C3のいずれか1つ又は複数のものをそれぞれ組み合せたものが採用される。マイクでは入力された音の波形を分析して入力音情報に変換される。なお、音には、ユーザの音声に限られず、周囲の音、友人の音声、アーティストの音声、周囲の拍手の音など全ての音源を含む。
 入力部16Cは、キーボード16C1、タッチパネル16C2又はマイク16C3に限定されるものではなく、所定の情報又は信号を入力することができる機能を有するセンサ、スイッチ、デバイス等を全て含む。
 ここで、入力部16Cで入力された情報とは、例えば、キーボード16C1やタッチパネル16C2等で入力された文字、記号、暗号又はマイク16C3に入力された音などの情報又は信号を意味する。これらの当該情報又は信号の内容によりどの入力部16Cが操作されたのか、又は情報源が推定又は特定できる。
 入力部16Cで入力された信号とは、例えば、入力部16Cが操作された結果、入力部16Cから出力される固有の信号を意味する。固有の信号の種類又は内容によってどのキー又はパネルが操作されたのかが推定又は特定できる。
 ここで、図9及び図10に示すように、入力部16Cは、検知部16Fと共に機能してもよい。検知部16Fで検知された状態が検知信号として入力部16Cから自動又は手動で入力することも可能である。また、入力部16Cに替えて、検知部16Fを設けて、検知部16Fから検知信号を出力するように構成してもよい。いずれの形態でもよく、かかる意味で、検知部16Fは、入力部16Cという概念の一実施態様として捉えられる。
 図10に示すように、検知部16Fは、加速度センサ16F1、GPSセンサ16F2、生理状態検知センサ16F3、…などのいずれか1つのもの又は複数のものをそれぞれ組み合わせて構成されている。
 加速度センサ16F1は、通信部16の振動数又は変動を検知するセンサである。
 詳細には、シェイクカウント部16A2は、加速度センサ16F1と一体又は別体で構成され、加速度センサ16F1で検知された振動の回数をカウントする。シェイクカウント部16A2は、例えば、加速度センサ16F1から出力された検知信号を受信し、当該検知信号の受信回数に基づいて振動の回数をカウントする。また、シェイクカウント部16A2は、加速度センサ16F1からの検知信号に基づき、通信部16の振動回数を示したカウント信号を生成する。
 加速度センサ16F1は、例えば通信部16に予め搭載されているものを利用することができる。加速度センサ16F1は、ユーザが通信部を手に持って振ったときに、例えば通信部16に発生した速度又は加速度の変化等から当該振動数を推定又は特定する。なお、加速度センサ16F1で検知に関する原理については、従来の原理を利用するため、その説明を省略する。また加速度センサ16F1として、振動センサを利用してもよい。
 GPSセンサ16F2は、通信部16の現在の位置情報を特定することができる。このため、通信部16の位置情報の時間当たりの変化を検知することにより、通信部16の振動数を推定又は特定する。GPSセンサ16F2の検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 GPSセンサ16F2は、例えば通信部16に予め搭載されているものを利用することができる。
 なお、GPSセンサ16F2は、通信部16の位置情報を取得するため、位置情報センサともいう。
 生理状態検知センサ16F3は、ユーザの体調や生理状態を検知するセンサである。
 図11に示すように、生理状態検知センサ16F3は、体温センサ16F3aと、心拍センサ16F3bと、脈拍センサ16F3cと、呼吸センサ16F3dと、血流センサ16F3eと、発汗センサ16F3fのいずれか1つのもの又は複数のものをそれぞれ組み合わせて構成される。なお、上記各種センサに限定されるものではなく、人間の体調や生理状態を検知できる、周知の他のセンサやデバイスを用いることも可能である。
 体温センサ16F3aは、ユーザの身体に装着したときの皮膚の温度又は温度変化を検知してユーザの体温を推定又は特定することができるセンサである。体温センサ16F3aは、体温に関する検知信号の生成及び出力が可能である。なお、体温センサ16F3aの検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 体温からユーザの興奮度、体力消耗度及び健康状態を推定又は特定することができる。体温が高い場合にはユーザの興奮度が高い、体力消耗度が激しい又は健康状態が悪いと推定又は特定され、体温が低い場合にはユーザの興奮度が低い、体力消耗度が激しくない又は健康状態が正常と推定又は特定され得る。
 心拍センサ16F3bは、ユーザの身体に装着したときに皮膚等に接触してユーザの心拍数を計測するためのセンサである。ユーザの心拍数又はその変化を検知することが可能である。心拍センサ16F3bは、心拍数に関する検知信号の生成及び出力が可能である。なお、心拍センサ16F3bの検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 心拍数からユーザの興奮度、体力消耗度及び健康状態を推定又は特定することができる。心拍数が多い場合にはユーザの興奮度が高い、体力消耗度が激しい又は健康状態が悪いと推定又は特定され、心拍数が少ない場合にはユーザの興奮度が低い、体力消耗度が激しくない又は健康状態が正常と推定又は特定され得る。
 脈拍センサ16F3cは、ユーザの身体に装着したときに皮膚等に接触してユーザの脈拍数を計測するためのセンサである。ユーザの脈拍数又はその変化を検知することが可能である。脈拍センサ16F3cは、脈拍数に関する検知信号の生成及び出力が可能である。なお、脈拍センサ16F3cの検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 脈拍数からユーザの興奮度、体力消耗度及び健康状態を推定又は特定することができる。脈拍数が多い場合にはユーザの興奮度が高い、体力消耗度が激しい又は健康状態が悪いと推定又は特定され、脈拍数が少ない場合にはユーザの興奮度が低い、体力消耗度が激しくない又は健康状態が正常と推定又は特定され得る。
 呼吸センサ16F3dは、ユーザの身体に装着したときに皮膚等に接触してユーザの呼吸数を計測するためのセンサである。ユーザの呼吸数又はその変化を検知することが可能である。呼吸センサ16F3dは、呼吸数に関する検知信号の生成及び出力が可能である。なお、呼吸センサ16F3dの検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 呼吸数からユーザの興奮度、体力消耗度及び健康状態を推定又は特定することができる。呼吸数が多い場合にはユーザの興奮度が高い、体力消耗度が激しい又は健康状態が悪いと推定又は特定され、呼吸数が少ない場合にはユーザの興奮度が低い、体力消耗度が激しくない又は健康状態が正常と推定又は特定され得る。
 血流センサ16F3eは、ユーザの身体に装着したときに皮膚等に接触してユーザの血流の状態を計測するためのセンサである。ユーザの血流の状態又はその変化を検知することが可能である。血流センサ16F3eは、血流の状態に関する検知信号の生成及び出力が可能である。なお、血流センサ16F3eの検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 血流の状態とは、例えば、ユーザの血管内を流れる血流の状態を検知できるものであり、血流が激しい場合には興奮度が高いと推定又は特定され、又は血流が悪い場合には興奮度が低いと推定又は特定され得る。その他、血流の状態から健康状態も推定又は特定可能である。
 発汗センサ16F3fは、ユーザの身体に装着したときに皮膚等に接触してユーザの発汗の状態を計測するためのセンサである。ユーザの発汗の状態又はその変化を検知することが可能である。発汗センサ16F3fは、発汗の状態に関する検知信号の生成及び出力が可能である。なお、発汗センサ16F3fの検知に関する原理についても、従来の原理を利用するため、その説明を省略する。
 発汗の状態からユーザの興奮度、体力消耗度、健康状態などを推定又は特定可能になる。体力消耗度は、発汗の成分を分析することにより抽出されるミネラル成分・量や血糖値等に基づいて推定又は特定され得る。
 なお、検知部16Fとして、例えば、接触センサや圧力センサを用いることも可能である。接触センサに接触したり、圧力センサを押圧することにより所定の情報又は入力を検知できる。
 入力部16Cで入力された情報又は信号は、いずれか一方又は両方を利用できる。
 表示部16Dは、例えば、所定の情報を表示することができる液晶表示部である。
 通信インターフェース部16Eは、専用ネットワーク又は公共ネットワークを介して演出決定部12及び演出出力部14に対して接続できるようにするためのネットワークアダプタである。通信インターフェース部16Eには、モデム、ケーブルモデム及びイーサネット(登録商標)・アダプタを含んでもよい。
 信号出力部16Gは、例えば、入力部16C又は検知部16Fから出力される検知信号又は/及びシェイクカウント部16A2から出力されるカウント信号を演出決定部12又は/及び演出出力部14に対して出力する。なお、信号出力部16Gは、アプリケーションの機能として設けられていてもよく、アプリケーションを介して検知信号及びカウント信号の出力が可能になる。
 通信部16として、通信機能があれば、例えば、電子機器、電気機器、照明機器などを利用してもよい。形状は端末なら、例えば、腕などの身体に巻くバンド形状、ヘッドフォン形状、携帯電話などの形状など、どのような形状でも適用することができる。
[演出パターン決定処理]
 次に、演出パターン決定処理について説明する。
 図12に示すように、演出パターン決定処理は、例えば、入力ステップS100と、演算ステップS110と、演出決定ステップS120と、を含む。
(入力ステップ)
 入力ステップS100として、ユーザが通信部16の入力部16C又は検知部16Fに所定の情報又し信号を入力することにより、通信部16から演出決定部12に対して入力部16Cの入力結果を示す情報又は信号が出力される。
 ここで、入力方法として、入力部16Cがテンキーなどのキーボートや表示部16Dに設置されたタッチパネルである場合、これらを操作したり、押圧することにより所定の情報又は信号を入力することが可能になる。
 入力部16Cがマイク16C3である場合、ユーザの声や周囲の声を入力することにより、所定の情報又は信号を入力することが可能になる。
 入力部16Cが検知部16Fである場合、通信部16を振動させたり又は振り回すことにより、所定の情報又は信号を入力することが可能になる。
 入力部16Cとしての検知部16Fで検知される情報又は信号も対象になる。図10及び図11に示すように検知部16Fでは複数種類のセンサのいずれか一つ又は少なくとも2つ以上のセンサの組合せで構成されており、いずれかのセンサで検知された情報又は信号が通信部16から演出決定部12に対して出力される。
 なお、入力部16Cが接触センサや圧力センサで構成されている場合でも、接触センサに接触したり、圧力センサを押圧することにより、所定の情報又は信号を入力することが可能になる。
(演算ステップ)
 次に、演算ステップ110として、通信部16の入力部16Cから出力されてきた情報又は信号が集計され、内容が分析される。例えば、通信部16の入力部16Cとしてキーボード16C1やタッチパネル16C2を利用した構成では、キーボード16C1やタッチパネル16C2が操作されるとそれぞれ固有の信号が演出決定部12又は演出出力部14に対して出力される。演出決定部12の制御部12A又は演出出力部14の制御部14Aでは、前記固有の信号に基づき、キーボードのどのキーやタッチパネルのどのパネルが操作されたのかが推定又は特定される。
 通信部16の入力部16Cとしてマイク16C3を利用した構成では、ユーザの音声や周囲の音がマイク16C3に入力されると、それぞれ固有の信号が演出決定部12又は演出出力部14に対して出力される。演出決定部12の制御部12A又は演出出力部14の制御部14Aでは、前記固有の信号に基づき、どのような周波数の音が入力されたのかが推定又は特定される。
 通信部16の入力部16Cとして検知部16Fの加速度センサ16F1を利用した構成では、通信部16の振動回数又は状態変化を示す固有の信号が演出決定部12又は演出出力部14に対して出力される。演出決定部12の制御部12A又は演出出力部14の制御部14Aでは、前記固有の信号に基づき、通信部16の振動回数又は状態変化が推定又は特定される。
 通信部16の入力部16Cとして検知部16FのGPSセンサ16F2を利用した構成では、通信部16の位置情報を示す固有の信号が演出決定部12又は演出出力部14に対して出力される。演出決定部12の制御部12A又は演出出力部14の制御部14Aでは、前記固有の信号に基づき、通信部16の位置が推定又は特定される。
 通信部16の入力部16Cとして検知部16Fの生理状態検知センサ16F3を利用した構成では、通信部16を所有するユーザの生理状態を示す固有の信号が演出決定部12又は演出出力部14に対して出力される。演出決定部12の制御部12A又は演出出力部14の制御部14Aでは、前記固有の信号に基づき、通信部16を所有するユーザの生理状態が推定又は特定される。
 続いて、入力部16Cから出力されてきた情報又は信号の内容の分析結果に基づき、一の情報又は信号が選択される。
 ここで、選択基準は、例えば、入力部16Cでの入力情報又は入力信号の回数に基づき、最も多く入力された情報又は信号の種類又は内容が選択される態様でもよく、最も少なく入力された情報又は信号の種類又は内容が選択される態様でもよく、いずれでもない任意の情報又は信号の種類又は内容が選択される態様でもよい。
 また、遊技機の大当たり抽選処理で利用されているような乱数処理を用いて、一の情報又は信号の種類又は内容が選択される態様でもよい。
(具体例)
 次に、具体例について説明する。
 図7に示すように、キーボード16C1又はタッチパネル16C2には入力部A16C1、入力部B16C2と、入力部C16C3と、が設けられている場合、入力部A16C1が操作された場合には入力信号Aが出力され、入力部B16C2が操作された場合には入力信号Bが出力され、入力部C16C3が操作された場合には入力信号Cが出力される。
 これらの入力信号の種類は、出力先である演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいて特定することが可能である。これにより、どの入力信号がどれくらいの回数だけ操作されたのかを集計することができる。
 そして、最終的には、一の入力信号の種類が選択される。例えば、出力回数が最も多い入力信号や、出力回数が最も少ない入力信号、又は乱数テーブルを用いた抽選の結果、当選した一の入力信号が選択される。当該選択処理は、演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいて実行されるが、通信部16が実行してもよい。
 また、入力部16Cとしてマイク16C3を利用した構成では、出力先である演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいてマイク16C3に入力された音の周波数を分析する。そして、一の周波数帯が選択される。
 また、入力部16Cとして、通信部16に設けられた検知部16Fの加速度センサ16F1を利用する構成では、通信部16のシェイク回数の合計が通信部16の制御部16A、入力部16C又は検知部16F等によってカウントされる。そして、出力先である演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいて、当該シェイク回数の合計カウントのレンジが選択される。
 入力部16Cとして、通信部16に設けられた検知部16FのGPSセンサ16F2を利用する構成では、通信部16の位置情報を示す検知信号が通信部16から出力される。出力先である演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいて、当該位置情報を示す検知信号を集計し、例えば最も多い位置を推定又は特定し、その位置に対応した一の検知信号が選択される。なお、どの位置情報の検知信号が選択されるかは、限定されるものではなく、適宜調整することができる。
 入力部16Cとして、通信部16に設けられた検知部16Fの生理状態検知センサ16F3を利用する構成では、通信部16を所有するユーザの生理状態を示す検知信号が通信部16から出力される。出力先である演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいて、当該生理状態を示す検知信号を集計し、最も多い生理状態を推定又は特定し、その生理状態に対応した一の検知信号が選択される。なお、どの生理状態の検知信号が選択されるかは、限定されるものではなく、適宜調整することができる。
 なお、入力部16Cが接触センサや圧力センサで構成されている場合では、接触の有無、接触面積又は圧力の大きさ等を示す検知信号が通信部16から出力される。出力先である演出決定部12の制御部12A又は演出出力部14の制御部14Aにおいて、接触の有無、接触面積又は圧力の大きさ等を示す検知信号を集計し、共通している状態を推定又は特定し、その状態に対応した一の検知信号が選択される。なお、どの状態の検知信号が特定されるかは、限定されるものではなく、適宜調整することができる。
 なお、入力信号ではなく、入力情報又は入力内容で判断した場合も、選択方法は同様である。
 なお、演算ステップS110は、例えば、演出決定部12の制御部12Aの入力演算部12A2又は演出決定部12A2で実行される。また、演出出力部14の制御部14Aで実行してもよい。また、通信部16の制御部16Aで実行されてもよい。特に、本実施形態では、演出決定部12の制御部12Aの入力演算部12A2が実行する態様を示す。
(演出決定ステップ)
 次に、演出決定ステップS120として、演算ステップS110で選択された情報又は信号に対応する演出データを指定する。ここで、演算ステップS110で選択された情報又は信号と演出データとの対応関係がテーブル等の対応データ形式で演出決定部12の記憶部12Bに予め記憶されており、当該対応データに基づいて演出データが指定される。これにより、演出パターンが決定される。
(具体例)
 次に、具体例について説明する。
 通信部16の入力部16Cとしてキーボード16C1又はタッチパネル16C2を利用した構成では、図7に示すように、入力信号Aが選択された場合には演出パターンAが指定される。同様に、入力信号Bが選択された場合には演出パターンBが指定される。入力信号Cが選択された場合には演出パターンCが指定される。これにより、最終的には一の演出パターンが決定される。
 図示しないが、通信部16の入力部16Cとしてマイク16C3を利用した構成では、最も多い周波数帯に対応する演出パターンが指定される。
 入力部16Cとして通信部16の検知部16Fの加速度センサ16F1を利用した構成では、図8に示すように、例えば、シェイクの合計回数が0~100である場合には演出パターンAが指定される。同様に、シェイクの合計回数が101~500である場合には演出パターンBが指定される。同様に、シェイクの合計回数が501~1000である場合には演出パターンCが指定される。これにより、最終的には一の演出パターンが指定される。
 図示しないが、入力部16Cとして通信部16の検知部16FのGPSセンサ16F2を利用した構成では、例えば、共通している位置情報が最も多いレンジに対応した演出パターンが指定される。これにより、最終的には一の演出パターンが指定される。なお、位置情報と演出パターンとの対応関係についてもテーブル等のデータで記憶部12B等に予め記憶されている。
 図示しないが、入力部16Cとして通信部16の検知部16Fの生理状態検知センサ16F3を利用した構成では、例えば、共通している生理状態が最も多いレンジに対応した演出パターンが指定される。これにより、最終的には一の演出パターンが指定される。なお、生理状態と演出パターンとの対応関係についてもテーブル等のデータで記憶部12B等に予め記憶されている。
 なお、入力部16Cとして通信部16の接触センサや圧力センサを利用した構成では、例えば、共通している状態が最も多いレンジに対応した演出パターンが指定される。これにより、最終的には一の演出パターンが指定される。なお、状態と演出パターンとの対応関係についてもテーブル等のデータで記憶部12B等に予め記憶されている。
 なお、入力信号ではなく、入力情報で判断した場合も、指定方法は同様である。
 以上に示す各ステップを経て、最終的には一の演出パターンが指定され、演出出力部14において演出が実行される。
 なお、演出決定ステップS120は、例えば、演出決定部12の制御部12A又は通信部16の制御部16Aが実行する。また、演出出力部14の制御部14Aが実行してもよい。特に、本実施形態では、演出決定部12の制御部12Aの演出指定部12A3が実行する態様を示す。
10     演出制御システム
12     演出決定部
12A    制御部
12A1   主制御部
12A2   入力演算部
12A3   演出指定部
12B    記憶部
14     演出出力部
16     通信部
 

Claims (5)

  1.  所定の演出内容を決定する演出決定部と、
     前記演出決定部で決定された前記演出内容の演出を出力する演出出力部と、
     前記演出決定部に通信可能な通信部と、
     を有する演出制御システムであって、
     前記演出決定部は、前記演出内容を画定する演出データを記憶する記憶部と、前記記憶部に記憶された前記演出データを指定する制御部と、を有し、
     前記通信部は、演出内容を決定するための情報又は信号を入力する入力部を有し、
     前記制御部は、前記入力部に入力された情報又は信号に基づいて前記演出データを指定することを特徴とする演出制御システム。
  2.  前記演出出力部は、前記制御部で指定された前記演出データに基づく演出を出力することを特徴とする請求項1に記載の演出制御システム。
  3.  前記記憶部は、前記演出内容が異なる複数の前記演出データを記憶する記憶領域を有し、
     前記制御部は、前記入力部の入力結果に基づき所定の情報又は信号を選択する入力演算部と、前記選択された情報又は信号に対応する前記演出データを指定する演出指定部と、
     前記演出出力部は、前記演出指定部で指定された前記演出データに基づく演出を出力することを特徴とする請求項1又は2に記載の演出制御システム。
  4.  前記通信部は、端末であることを特徴とする請求項1乃至3のいずれか1項に記載の演出制御システム。
  5.  前記入力部は、キーボード、タッチパネル、検知部のいずれかであることを特徴とする請求項1乃至4のいずれか1項に記載の演出制御システム。
PCT/JP2015/082957 2015-11-24 2015-11-24 演出制御システム WO2017090096A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/082957 WO2017090096A1 (ja) 2015-11-24 2015-11-24 演出制御システム
JP2015557286A JPWO2017090096A1 (ja) 2015-11-24 2015-11-24 演出制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/082957 WO2017090096A1 (ja) 2015-11-24 2015-11-24 演出制御システム

Publications (1)

Publication Number Publication Date
WO2017090096A1 true WO2017090096A1 (ja) 2017-06-01

Family

ID=58763275

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082957 WO2017090096A1 (ja) 2015-11-24 2015-11-24 演出制御システム

Country Status (2)

Country Link
JP (1) JPWO2017090096A1 (ja)
WO (1) WO2017090096A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6951610B1 (ja) * 2020-07-20 2021-10-20 株式会社ウフル 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188876A (ja) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp 映像音声再生装置および映像音声再生システム
JP2014230126A (ja) * 2013-05-23 2014-12-08 チームラボ株式会社 視聴者参加型テレビ番組放送方法及びシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188876A (ja) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp 映像音声再生装置および映像音声再生システム
JP2014230126A (ja) * 2013-05-23 2014-12-08 チームラボ株式会社 視聴者参加型テレビ番組放送方法及びシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6951610B1 (ja) * 2020-07-20 2021-10-20 株式会社ウフル 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
WO2022018786A1 (ja) * 2020-07-20 2022-01-27 株式会社ウフル 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム

Also Published As

Publication number Publication date
JPWO2017090096A1 (ja) 2018-09-06

Similar Documents

Publication Publication Date Title
JP7461174B2 (ja) 共有インターフェースを介してアクセスされるミニゲーム
JP7039635B2 (ja) 情報処理装置およびユーザをアプリケーションに参加させる方法
US10532290B2 (en) Sharing recorded gameplay to a social graph
US10016677B2 (en) Remote control of a first user's session by a second user
WO2020075594A1 (ja) 情報処理装置およびコンテンツファイルの再生方法
WO2017090096A1 (ja) 演出制御システム
WO2020075593A1 (ja) 情報処理システム、情報処理装置およびコンテンツファイルの生成方法
JP2024502045A (ja) 動的要約キューの生成と提供のための方法及びシステム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015557286

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15909215

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15909215

Country of ref document: EP

Kind code of ref document: A1