JP2004029051A - Device and method for presenting space environment and program therefor - Google Patents
Device and method for presenting space environment and program therefor Download PDFInfo
- Publication number
- JP2004029051A JP2004029051A JP2002175850A JP2002175850A JP2004029051A JP 2004029051 A JP2004029051 A JP 2004029051A JP 2002175850 A JP2002175850 A JP 2002175850A JP 2002175850 A JP2002175850 A JP 2002175850A JP 2004029051 A JP2004029051 A JP 2004029051A
- Authority
- JP
- Japan
- Prior art keywords
- control unit
- data
- emotion
- unit
- perfume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、情報処理装置に係り、特に、空間環境演出装置及び空間環境演出方法並びにそのプログラムに関するものである。
【0002】
【従来の技術】
従来、ホテルなどのロビーや各店舗の内装や美術館や劇場などの空間を演出する場合、照明や水などによる演出を行っていた。
【0003】
【発明が解決しようとする課題】
しかしながら、上述の照明や水などによる空間の演出は、照明の光や色や、噴水などの水量などを、それらの照明や噴水を制御する装置が制御しており、その装置上のプログラムによって制御を行っているので、一定のパターンでの制御のみとなる。
そこでこの発明は、再生される音楽から感情を表現する感情パラメータを抽出し、その感情パラメータに基づいて照明や噴水などが制御でき、また、これにより、何通りもの方法で空間の演出ができる空間環境演出装置及び空間環境演出方法並びにそのプログラムを提供することを目的としている。
【0004】
【課題を解決するための手段】
本発明は、上述の課題を解決すべくなされたもので、請求項1に記載の発明は、分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部と、前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する感性データ算出部と、前記感性データ算出部によって算出された前記感性データを出力する感性データ出力部と、前記感性データ出力部から受信した前記感性データに基づいて空間の環境を演出する制御対象装置とを備える事を特徴とする空間環境演出装置である。
【0005】
上述の構成によれば、データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する。そして、算出した前記感性データを出力し、その感性データに基づいて、空間の環境を演出する制御対象装置を動作させる。これにより、再生される音楽から得られた感性データに基づいて、何通りもの方法で空間の演出ができる空間環境演出装置を提供することができる。
【0006】
また、請求項2に記載の発明は請求項1に記載の制御対象装置が、噴水制御部において受信した前記感性データに基づいて、噴射する水の水量と水圧を制御する噴水であることを特徴とする。
【0007】
また、請求項3に記載の発明は請求項1に記載の制御対象装置が、発光制御部において受信した前記感性データに基づいて、合わせガラスの内部に這わせられた複数の発光色の違う電界発光ファイバーの発光を制御する光パネルアートであることを特徴とする。
【0008】
また、請求項4に記載の発明は請求項1に記載の制御対象装置が、スモーク演出制御部において受信した前記感性データに基づいて、スモークを噴出させるスモーク発生装置と、前記スモークに照射するライト色を制御するスモーク演出装置であることを特徴とする。
【0009】
また、請求項5に記載の発明は請求項1に記載の制御対象装置が、重低音専用スピーカー制御部において受信した前記感性データに基づいて、前記重低音の出力の大きさを制御する重低音専用スピーカー制御装置であることを特徴とする。
【0010】
また、請求項6に記載の発明は請求項1に記載の制御対象装置が、香水噴霧制御部において受信した前記感性データに基づいて、それぞれ別々の香水が貯蔵された複数の各香水貯蔵部を制御して香水を噴霧する香水噴霧装置であることを特徴とする。
【0011】
また、請求項7に記載の発明は請求項1に記載の制御対象装置が、冷暖房装置制御部において受信した前記感性データに基づいて、冷房装置や暖房装置による冷気や暖気の温度と風量とを制御する冷暖房制御装置であることを特徴とする。
【0012】
また、請求項8に記載の発明は請求項1に記載の制御対象装置が、気泡制御部において受信した前記感性データに基づいて、空気タンクに繋がり気泡の量を調整する空気の開閉弁と、気泡の大きさを調整する気泡大調整部を制御して、水中に発生する気泡の量とその大きさを制御する気泡製造装置であることを特徴とする。
【0013】
また、請求項9に記載の発明は請求項1に記載の制御対象装置が、ステージ環境制御部において受信した前記感性データに基づいて、擬似的な太陽光や雨や風や雪や雷をステージ上に演出する照明ライトの照度や降雨装置の降雨量や降雪装置の降雪量やフラッシュライトの照度や大型扇風機の風量を制御することを特徴とする。
【0014】
また、請求項10に記載の発明は請求項1に記載の制御対象装置が、炎制御部において受信した前記感性データに基づいて、炎の大きさと、炎の色を制御する炎制御装置であることを特徴とする。
【0015】
また、請求項11に記載の発明は請求項1に記載の制御対象装置が、シャボン玉の発生量と前記シャボン玉の大きさを制御するシャボン玉発生装置であることを特徴とする。
【0016】
また、請求項12に記載の発明は、分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部を備えた空間環境演出装置における空間環境演出方法であって、前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の過程と、前記第1の過程によって算出された前記感性データを出力する第2の過程と、前記第2の出力した前記感性データに基づいて、空間の環境を演出する第3の過程とを備える事を特徴とする空間環境演出方法である。
【0017】
また、請求項13に記載の発明は、分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部を備えた空間環境演出装置のコンピュータにおける空間環境演出プログラムであって、前記コンピュータに、前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の処理と、前記第1の過程によって算出された前記感性データを出力する第2の処理と、前記第2の出力した前記感性データに基づいて、空間の環境を演出する第3の処理とを実行させるためのプログラムである。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態による空間環境演出装置を図面を参照して説明する。
図1は、同実施形態による感性データ算出方法を応用した空間環境演出装置の構成を示すブロック図である。この空間環境演出装置は、MP3(MPEG1 Audio Layer3)の形式で記録された音楽(聴覚データ)を再生するとともに、この音楽を基に感性データを算出するものである。
【0019】
図1において、符号4は、MP3形式の音楽データを記憶するMP3データ記憶部である。1は、MP3データ記憶部4から読み出された音楽データを基に感性データを算出して出力するスペクトラム解析部である。2は、スペクトラム解析部1によって算出された感性データを蓄積する感性データ蓄積部である。3は、感性データ蓄積部2に蓄積された感性データを順次読み出し、制御対象装置へ出力する感性データ出力部である。
【0020】
また、5は、MP3データ記憶部4から読み出された音楽データをデコードして時系列的な音圧レベルのデジタル信号(デジタルオーディオ信号)を出力するMP3デコーダ部である。6は、MP3デコーダ部5から出力されたデジタル信号を変換してアナログオーディオ信号を出力するD/A(デジタル/アナログ)変換部である。7は感性データ出力部3が出力した制御信号に基づいた動作を行う制御対象装置であり、照明や噴水などである。
【0021】
MP3データ記憶部4に記憶されている音楽データは、所定のサンプリング周波数(例えば、44100Hz(ヘルツ))でサンプリングされ量子化された音圧レベルが、所定のフレーム長(例えば、約0.0261秒)を1フレームとするフレーム単位で、所定数(例えば、576本)に分割された周波数帯域ごとの音圧値に変換され、さらに圧縮されたものである。
【0022】
スペクトラム解析部1は、このような音楽データを時系列的に順次読み出し、読み出したデータをまず伸長してから、後述する所定の手順により解析を行い、その結果を感性データとして順次出力していく。スペクトラム解析部1によって出力される感性データも時系列的なデータであり、順次、感性データ蓄積部2に蓄積されていく。
【0023】
感性データ出力部3は、感性データ蓄積部2に蓄積した感性データを制御対象装置7に出力するものである。そして、制御対象措置7は例えば照明や噴水であり、感性データ出力部3が感性データ蓄積部2から読み取って送信した感性データに基づいて、その照明の光量や光の向きや光色の変化の制御や、噴水の噴射する水量や水を噴射する弁の動作の制御を行う。
【0024】
そして、再生される音楽の進行と感性データ出力部3が出力する感性データのタイミングが合うように、スペクトラム解析部1と感性データ出力部3とMP3デコーダ5との間で互いに同期を取るようにする。
また、スペクトラム解析部1による感性データ算出の演算に時間がかかっても音楽と感性データ出力部3が出力する感性データとのタイミングがずれないように、音楽の再生が指示された後にスペクトラム解析部1による感性データ算出を先行して行い、数秒から数十秒程度遅れて後追いの形で、MP3デコータ5による音楽の再生と感性データ出力部3からの制御信号の出力とを行うようする。但し、スペクトラム解析部1による感性データ算出の演算が充分に速く行える場合には、上記の遅延を設けずにリアルタイムで再生するようにしても良い。
【0025】
MP3データ記憶部4は、磁気ディスクやCD−ROM(コンパクトディスクを用いた読み出し専用メモリ)あるいはCD−R(CD Recordable )やDVD(Digital Versatile Disk)や光磁気ディスクや半導体メモリなどといった記録媒体とそれを読み取る読取装置によって実現する。
【0026】
スペクトラム解析部1は、コンピュータを用いて実現する。つまり、後述する感性データ算出等の処理の手順をコンピュータプログラムの形式でコンピュータ読み取り可能な記録媒体に記録しておき、このプログラムをコンピュータの中央処理装置が読み取ってその命令を実行することにより感性データ算出等の機能を実現する。ここで、コンピュータ読み取り可能な記録媒体とは、例えば、磁気ディスクや、CD−ROMあるいはCD−Rや、半導体メモリなどである。あるいは、専用ロジックを搭載した集積回路としてスペクトラム解析部1を実現するようにしても良い。あるいは、コンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録しておく代わりに、通信を用いて配信するようにして、配信を受けたコンピュータの中央処理装置がこのプログラムを実行するようにしても良い。
感性データ蓄積部2は、半導体メモリや磁気ディスクなど、高速に書換え可能な記録媒体を用いて実現する。
【0027】
次に、スペクトラム解析部1の内部生成、およびその処理の詳細について説明する。図1に示すように、スペクトラム解析部1は、伸長部11と感性データ算出部12とを備えている。伸長部11は、MP3データ記憶部から読み取られた音楽データを伸長する。つまり、図1のAの部分では、圧縮された状態のデータが伝達される。また、図1のBの部分では、前述の周波数帯域(音域)ごとの音圧値の情報が伸長済みの状態で伝達される。感性データ算出部12は、さらに、感情解析部13とリズム解析部14とを備えている。
【0028】
次に、感情解析部13とリズム解析部14の詳細な処理手順について説明する。
【0029】
図2は、感情解析部13による処理の手順を示すフローチャートである。図2に示すように、感情解析部13は、まずステップS1において入力されるデータを基に5つの音域への分割の処理を行い、ステップS2においてこれら5つの音域の音圧値を基に感情パラメータを算出する処理を行い、ステップS3において算出された感情パラメータを基に判定を行う。判定結果として、インデックス、感情種類、感情レベル、継続時間、補間フラグを1組とした時系列データが出力される。
【0030】
上記インデックスは、0から始まるシーケンシャルな値である。
上記感情種類は、「無表情(default )」、「快感(pleasure)」、「驚き(surprise)」、「怯え(fear)」、「嬉しい(happy )」、「哀しい(sad )」のいずれかである。
感情種類が「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」のいずれかであるとき、上記感情レベルは1以上5以下のいずれかの整数の値を取る。また、感情種類が「無表情」のとき、感情レベルの値は「なし」である。
上記継続時間は、秒単位の数値であり、1以上の値を取る。
上記補間フラグは、0(「OFF」を表わす)あるいは1(「ON」を表わす)のいずれかの値を取る。
【0031】
時系列の音楽データを処理する際の初期値は、インデックス=0、感情種類=「無表情」、感情レベル=「なし」、継続時間=「1」、補間フラグ=「1」とする。
【0032】
以下に、処理をさらに詳細に説明する。
図2の符号D1は、感情解析部13に入力される周波数帯域ごとの音圧値情報である。この段階では、576本の周波数帯域それぞれの音圧値情報が保持されている。また、元のMP3データのサンプリング周波数は44100Hzである。つまり、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力として、周波数帯域ごとの音圧値の分布を以下の方法で解析することにより、前記の音に関連する感性データを算出する。
【0033】
ステップS1においては、音圧値情報(D1)を基に、次の5段階の音域ごとの平均音圧値を算出し、音圧値情報(D2)として出力する。その5段階の音域とは、低音部(0Hz〜76.5625Hz)、中低音部(229.6875Hz〜1990.625Hz)、中高音部(7005.469Hz〜10029.69Hz)、高音部(10029.69Hz〜14967.97Hz)、最高音部(15006.25Hz〜17992.19Hz)の5つである。
つまり、ここでは、周波数帯域全体を、5個の周波数帯域グループに分割し、この周波数帯域グループごとの音圧値を用いた解析を行う。
【0034】
また、ステップS1においては、音階分割により、長音要素と短音要素の抽出を行う。この抽出のために、まず、0Hz〜497.6563Hzの帯域を13の領域に均等分割し、497.6563Hz〜22050Hzの帯域を63の領域に音階分割する。そして、そのうちの497.6563Hz〜2028.906Hzの2オクターブ分の24個の音階領域の音圧値が所定の閾値より大きいかどうかを判断する。
【0035】
上記24個の音階領域のうち、1番目、3番目、5番目、8番目、10番目、12番目、13番目、15番目、17番目、20番目、22番目、24番目の領域が長音要素である。これらの長音要素のうち、1番目と13番目とは1オクターブ離れた領域であるため、この2つの領域の音圧値が共に閾値より大きければ、長音要素を+1としてカウントする。また同様に、3番目と15番目の領域、5番目と17番目の領域、8番目と20番目の領域、10番目と22番目の領域、12番目と24番目の領域がそれぞれ互いに1オクターブ離れた領域であり、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ長音要素を+1としてカウントする。
また、上記24個の音階領域のうち、2番目と14番目、4番目と16番目、6番目と18番目、7番目と19番目、9番目と21番目、11番目と23番目がそれぞれ互いに1オクターブ離れた領域のペアであり、ペアごとに、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ短音要素を+1としてカウントする。
この抽出の処理の結果、長音要素および短音要素は、それぞれ0以上6以下のいずれかの整数の値を取る。
【0036】
次に、ステップS2では、音圧値情報D2を基に感情パラメータを算出する処理を行う。感情パラメータには優先順位が設定されており、「快感」の優先度が1、「驚き」の優先度が2、「怯え」の優先度が3、「嬉しい」および「哀しい」の優先度がともに4となっている。
なお、上記5種類の感情パラメータ値がすべて「0」のときは、「無表情」に該当する。
【0037】
また、ステップS3では、算出された感情パラメータに基づく判定を行い、感性データを求める処理を行う。また、この判定においては、図1に示したリズム解析部14によるリズム解析の結果も一部で用いられる。リズム解析の結果とは、例えば、ビート間の時間間隔がどの程度の長さかといったことである。
なお、感情パラメータ値算出の際には、音圧値がL1以下の音を無視する。
【0038】
「快感(Pleasure)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT3以上で、かつ、中低音部から高音部までのいずれかの音圧のピークが高音方向に時間的にT4以上移動した場合は、「快感」の感情パラメータのカウントを+1する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4経過時点から、対象の音が鳴りやんでから時間T2経過時点まで継続するものとする。つまり、本実施形態においては、この継続時間の間は、「快感」データに基づく制御信号が出力される。
[条件2] 低音域の音圧値がL7以上で、かつ、高音部の平均音圧値がL4以上である場合で、平均音圧値がL6以上の時、前回までのビート間の平均時間間隔から今回のビート間の時間間隔を差し引いた値がT1以上である、または、前回の判定結果が「驚き」の場合は「快感」の感情パラメータのカウントを+2する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4が経過した時点から始まるものとする。
【0039】
つまり、上記条件2が適用される場合には、分割された周波数帯域グループごとの平均音圧値に基づいて感性データが算出される。
また、上記条件1が適用される場合には、周波数帯域グループ内において、音圧値のピークとなる周波数帯域が時間的にどのように推移するかに基づいて感性データが算出される。
また、上記条件1が適用される場合には、元のデジタルデータに基づき音に含まれるリズムの単位時間あたりの拍数が求められ、この単位時間あたり拍数に基づいて感性データが算出される。上記の「ビート間の時間間隔」は単位時間あたり拍数の逆数から求められる。
なお、「快感」の感情の優先順位は最も高い「1」であるため、上記の条件1あるいは条件2のいずれかにあてはまる場合は、他の感情を無視する。
【0040】
「驚き(Surprise)」に関する処理は、次の通りである。
上述した「快感」の条件に該当しない場合は、下記の条件により「驚き」に該当するかどうかをチェックする。
【0041】
[条件1] 全音域の平均音圧値がL3以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+4し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件2を満たす場合は無視をする。
[条件2] 全音域の平均音圧値がL2以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+5し、その音が鳴りつづけた時間を継続時間とする。
【0042】
[条件3] 全音域の平均音圧値がL3以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+1し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 全音域の平均音圧値がL2以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+2し、その音が鳴りつづけた時間を継続時間とする。
[条件5] 最高音部の音が時間T4以上続いた場合、または最高音部の音が存在し、かつ中高音部の平均音圧値がL4以下の場合は、「驚き」の感情パラメータのカウントを+3し、その音が鳴りつづけた時間を継続時間とする。
なお、「驚き」の感情の優先順位は「快感」のそれに次ぐ「2」であるため、上記の条件1から5までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0043】
「怯え(Fear)」に関する処理は、次の通りである。
上述した「快感」あるいは「驚き」のいずれの条件にも該当しない場合は、下記の条件により「怯え」に該当するかどうかをチェックする。
【0044】
[条件1] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+1する。
[条件2] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動し、続けて高音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+4する。
[条件3] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に移動中に高音方向に揺れた回数Nが42以上の場合、「怯え」の感情パラメータのカウントを+(N/16)する。
【0045】
なお、「怯え」データに基づく制御信号の出力の始点は対象の音が鳴り始めてから時間T4経過後とし、同じく制御信号の終点は対象の音が鳴りやんでから時間T2経過後とする。
なお、「怯え」の感情の優先順位は「驚き」のそれに次ぐ「3」であるため、上記の条件1から3までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0046】
上述した「快感」、「驚き」、「怯え」のいずれの条件にも該当しない場合は、下記の条件により「嬉しい」または「哀しい」に該当するかどうかをチェックする。
【0047】
「嬉しい(Happy)」に関する処理は、次の通りである。
[条件1] ビートがある場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件2] ビート間の時間間隔がT7以下の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件3] 高音部の平均音圧値がL4以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件4] 上記の条件3を満たし、かつ、中低音部の音圧値のピークが5つ以上あった場合は、「嬉しい」の感情パラメータのカウントを+2する。
[条件5] 上記の条件3を満たし、かつ、上記の条件4をみたし、かつ、低音部の平均音圧値がL5以下の場合は、「嬉しい」の感情パラメータのカウントを+2をする。
[条件6] 抽出された長調要素−短調要素の数値が2以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
【0048】
なお、「嬉しい」データに基づく制御信号出力の始点の時間的な誤差は±T2とする。また、同じく制御信号出力の終点の時間的な誤差も±T2とする。
【0049】
「哀しい(Sad)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT5以上である場合は、「哀しい」の感情パラメータのカウントを+1する。
[条件2] ビートがない場合は、「哀しい」の感情パラメータのカウントを+2する。
[条件3] 中低音部に時間T4以上続く音圧値のピークがあった場合は、「哀しい」の感情パラメータを+1し、音が鳴り続けている時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 中低音部に時間T6以上続く音圧値のピークがあった場合は、「哀しい」の感情パラメータを+2し、音が鳴り続けている時間を継続時間とする。
【0050】
[条件5] 高音部に音圧値のピークが3つ以上あった場合は、「哀しい」の感情パラメータを+1する。
[条件6] 全領域の平均音圧値がL3以上の音が無い状態の場合は、「哀しい」の感情パラメータを+1する。
[条件7] 全領域の平均音圧値がL3以上の音が時間T2以上無い場合は、「哀しい」の感情パラメータを+1する。
[条件8] 中高音部と高音部の平均音圧値がL3以下であり、中低音部の音のみを取得した場合は、「哀しい」の感情パラメータを+2する。
[条件9] 短調要素−長調要素の数値が2以上の場合は、「哀しい」の感情パラメータを+1する。
【0051】
なお、「哀しい」データに基づく制御信号出力の始点の時間的な誤差は±T2とする。また、同じく制御信号出力の終点の時間的な誤差も±T2とする。
【0052】
以上述べたように、「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」の感情について、それぞれ定義された条件でのチェックが行われる。
そして、優先順位の高い感情から順に、「快感」、「驚き」、「怯え」のいずれかのカウント結果が1以上である場合に、その感情が感情種類として判定される。また、そのときのカウント値が感情レベルとされるので、感情レベルはレベル1〜レベル5(Lv(レベル)=1〜5)となる。但し、カウントが5を超える場合は、感情レベルを5とする。
【0053】
なお、感情種類が「怯え」で、かつ同一の感情レベルである状態が時間T5以上継続した場合には、時間T5ごとに再チェックを行う。
また、感情種類が「快感」のまま、感情レベルが2から1へ移行した場合は、以後の感情レベルも2とみなし、感情レベル2を継続させるものとする。
【0054】
「快感」、「驚き」、「怯え」のカウント値がいずれも0である場合で、「嬉しい」あるいは「哀しい」のカウント値の少なくとも一方が1以上である場合には、次に述べる方法で「嬉しい」および「哀しい」のカウント値を比較する。まず、前回の「嬉しい」のカウント値と現在の「嬉しい」のカウント値とから、これらの平均値を求める。次に、前回の「哀しい」のカウント値と現在の「哀しい」のカウント値とから、これらの平均値を求める。そして、「嬉しい」の平均値と「哀しい」の平均値とを比較する。
【0055】
上記の「嬉しい」の平均カウント値のほうが大きい場合には、感情種類を「嬉しい」とするとともに、「嬉しい」の平均カウント値から「哀しい」の平均カウント値を引いた値を感情レベルとする。逆に、「哀しい」の平均カウント値のほうが大きい場合には、感情種類を「哀しい」とするとともに、「哀しい」の平均カウント値から「嬉しい」の平均カウント値を引いた値を感情レベルとする。
「嬉しい」の平均カウント値と「哀しい」の平均カウント値とが等しい場合には、前回のカウント値同士を比較し、大きい方のカウント値を持つほうを感情種類として選択するとともに、この場合の感情レベルを1とする。
【0056】
但し、「嬉しい」と「哀しい」のカウント値を用いた判定に関して、上記の規則に関わらず、次の2つの例外パターンに該当する場合には、これを適用するものとする。
第1の例外パターンは、「嬉しい」のカウント値が5で、かつ、「哀しい」のカウント値が5である場合であり、このときは、感情種類を「快感」とし、感情レベルを2とする。
第2の例外パターンは、「怯え」のカウント値が3以上で、かつ、「哀しい」のカウント値が4以上の場合であり、このときは、感情種類を「哀しい」とし、感情レベルを5とする。
【0057】
なお、上記5種類のいずれの感情についても、カウント値の結果がすべて0である場合には、感情種類は「無表情」であると判定される。
【0058】
次に、補間フラグに関する判定方法を説明する。補間フラグのデフォルト値は1(ON)であるが、次の2通りのいずれかに該当する場合に限り、補間フラグを0(OFF)とする。第1に、同じ感情種類が時間T6以上継続した場合には補間フラグを0とする。第2に、前回の感情種類が「嬉しい」または「哀しい」であり、そこから感情種類「快感」に遷移する場合には補間フラグを0とする。
【0059】
上述した感情パラメータの算出および感情の判定等の処理において、時間T1〜T6については、T1<T2<T3<T4<T5<T6の関係を満たす適切な値を用いることとする。なお、T1はほぼ数百ミリ秒程度、T6はほぼ数千ミリ秒程度である。また、音圧値レベルL1〜L7については、L1<L2<L3<L4<L5<L6<L7の関係を満たす適切な値を用いることとする。一例としては、L1は−50dB(デシベル)程度、L7は−20dB程度の値を用いる。
【0060】
次に、図1に示したリズム解析部14における処理について説明する。
リズム解析部14には、伸長部によって伸長されたデータが入力される。この入力データは、前述のように、周波数領域ごとの音圧値情報を時系列的に持つものである。このような入力データを基に、リズム解析部14は音楽のリズムを解析し、その音楽のbpm値(beats per minute,1分あたりビート数,単位時間あたり拍数)を算出して出力する。
【0061】
リズム解析の処理においては、次の事項を前提とする。第1に、少なくとも一定時間以上は曲のリズムは一定のbpm値で正確に刻まれることとする。第2に、1拍あたり2回、ノイズ系の音が含まれることとする。例えば、曲が4分の4拍子である場合には、4拍の間に8回ノイズ系の音が含まれる。ここで、ノイズ系の音とは、例えばシンバル等の音である。
ノイズ系の音は、ほぼ全周波数帯域に渡って音圧変化があることが特徴である。従って、周波数帯域ごとにフレーム間の音圧変化量を求め、全周波数にわたって連続的に音圧変化量が所定の閾値以上となる場合にこれをノイズ系の音として検出できる。
【0062】
そして、ノイズ系の音はリズムに応じて所定のタイミングの箇所に多く集中するという傾向があることから、このノイズ系の音を検出し、この検出間隔をフレーム(1フレームは約0.0261秒)単位で求める。この段階では、検出される間隔は、一定ではなく、フレーム数ごとの度数の分布として得られる。得られた分布を基に、補正を加えて、拍の間隔を決定することによってbpm値を求めることとする。
つまり、前記第2の前提によると1拍あたり2回のノイズ系の音が含まれるため、求められたノイズ間隔F(フレーム単位)を用いると、bpm値は、次の式で得られる。すなわち、
bpm値=60 [秒/分] / (2*F [フレーム] *0.0261 [秒/フレーム])
【0063】
図3は、上述した空間環境演出装置におけるデータの流れを示す概略図である。図示するように、音声データ21を基に、これを各周波数帯域に分解する処理(31)を行うことによって、分解された音声のデータ22が得られる。そしてこのデータを基に、感性データを算出する処理(32)を行うことによって感性データ23が得られる。そして、この感性データ23を制御対象装置7に出力(33)すると、感性データ23に基づいて、制御対象装置7が動作(34)する。例えば、制御対象装置7が照明や噴水であった場合には、照明の光量や光の向きや光色の変化の制御や、噴水の噴射する水量や水を噴射する弁の動作の制御が行われる。
【0064】
次に、本実施形態の空間環境演出装置が噴水の噴射する水の制御に適用される例について説明する。
図4は制御対象装置7が噴水となる場合の該噴水の概略を示すブロック図である。この図において、符号41は感性データ出力部3から受信した感性データに基づいて噴水を制御する噴水制御部である。42は噴水制御部からの制御により噴射口に水を送るポンプである。43a〜43eは垂直方向へ水の噴射を行う垂直噴射口である。44a〜44fは45℃角へ水の噴射を行う傾斜噴射口である。また、45a〜45eはポンプ42から垂直噴射口へ水を送る水道管である。46a〜46fはポンプ42から傾斜噴射口へ水を送る水道管である。47はポンプ42へ水を供給する元栓である。
【0065】
図5は感性データに基づいて制御対象装置7である噴水が行う動作を示す表である。図5より、噴水制御部41が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて少量の水量かつ低い水圧で永続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
また、感性データが「嬉しい」の「Lv=2」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて少量の水量かつ低い水圧で断続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
また、感性データが「嬉しい」の「Lv=3」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて少量の水量かつ低い水圧で永続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
また、感性データが「嬉しい」の「Lv=4」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて普通の水量かつ低い水圧で断続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
また、感性データが「嬉しい」の「Lv=5」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて普通の水量かつ高い水圧で永続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
【0066】
また、感性データが「哀しい」の「Lv=1」及び「Lv=2」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて少量の水量かつ低い水圧で永続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
また、感性データが「哀しい」の「Lv=3」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて少量の水量かつ低い水圧で断続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
また、感性データが「哀しい」の「Lv=4」及び「Lv=5」であった場合、噴水制御部41は垂直噴射口43a〜43eにおいて少量の水量かつ低い水圧で永続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管45a〜45eに感性データに基づいて水を供給する。
【0067】
また、感性データが「驚き」の「Lv=1」及び「Lv=2」及び「Lv=3」であった場合、噴水制御部41は傾斜噴射口44a〜44fにおいて少量の水量かつ低い水圧で瞬間的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管46a〜46fに感性データに基づいて水を供給する。
また、感性データが「驚き」の「Lv=4」及び「Lv=5」であった場合、噴水制御部41は傾斜噴射口44a〜44fにおいて多量の水量かつ高い水圧で永続的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管46a〜46fに感性データに基づいて水を供給する。
【0068】
また、感性データが「怯え」の場合、「Lv=1」〜「Lv=5」の全てのレベルにおいて、噴水制御部41は傾斜噴射口44a〜44fにおいて少量の水量かつ低い水圧で瞬間的に水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管46a〜46fに感性データに基づいて水を供給する。
【0069】
また、感性データが「快感」の「Lv=1」であった場合、噴水制御部41は傾斜噴射口44a〜44fにおいて多量の水量かつ高い水圧で水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管46a〜46fに感性データに基づいて水を供給する。そしてこの時、傾斜噴射口44a〜44fは水直方向を軸として回転する。
また、感性データが「快感」の「Lv=2」であった場合、噴水制御部41は傾斜噴射口44a〜44fにおいて少量の水量かつ低い水圧で水を噴射するようポンプ42に感性データを出力する。そして、ポンプ42は水道管46a〜46fに感性データに基づいて水を供給する。そしてこの時、傾斜噴射口44a〜44fは水直方向を軸として回転する。
【0070】
次に、本実施形態の空間環境演出装置を、電界発光ファイバーが発光する光の制御に適用する例について説明する。
図6は制御対象装置7が光アートパネルとなる場合の該光アートパネルの概略を示すブロック図である。この図において、符号51は感性データ出力部3から受信した感性データに基づいて、発光部で発光する電界発光ファイバーを制御する発光制御部である。52はガラス板を重ね合わせ、そのガラス版の間に様々な色で発光する電界発光ファイバーを這わせた発光部である。53a〜53hはそれぞれ色の発光色の異なる電界発光ファイバーであり、53a=赤、53b=橙、53c=黄、53d=緑、53e=青、53f=藍、53g=紫、53h=黒の発光色の電界発光ファイバーである。この電界発光ファイバーは「Lv=1〜5」の5段階の光量で発光させる事が出来る。そして、これら8本の電界発光ファイバーは、束ねられた上、発光部52のガラス板に星型に這わせられている。また、54a〜54hは53a〜53hの各電界発光ファイバーを発光させるスイッチであり、発光制御部によってスイッチ54a〜54hのOn、Offが行われる。
【0071】
図7は感性データに基づいて制御対象装置7である光アートパネルでの動作を示す表である。図7より、発光制御部51が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、発光制御部51は54dのスイッチをOnし「Lv=1」の光量で53dの電界発光ファイバー(緑)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、発光制御部51は54cのスイッチをOnし「Lv=2」の光量で53cの電界発光ファイバー(黄)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、発光制御部51は54cと54dの2つのスイッチをOnし、それぞれ「Lv=3」の光量で53cと53dの電界発光ファイバー(緑と黄)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、発光制御部51は54bのスイッチをOnし「Lv=4」の光量で53bの電界発光ファイバー(橙)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、発光制御部51は54aのスイッチをOnし「Lv=5」の光量で53aの電界発光ファイバー(赤)を点灯させる。
【0072】
また、発光制御部51が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、発光制御部51は54dのスイッチをOnし「Lv=1」の光量で53dの電界発光ファイバー(緑)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、発光制御部51は54eのスイッチをOnし「Lv=2」の光量で53eの電界発光ファイバー(青)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、発光制御部51は54fのスイッチをOnし「Lv=3」の光量で53fの電界発光ファイバー(藍)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、発光制御部51は54gのスイッチをOnし「Lv=4」の光量で53gの電界発光ファイバー(紫)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、発光制御部51は54hのスイッチをOnし「Lv=5」の光量で53hの電界発光ファイバー(黒)を点灯させる。
【0073】
また、発光制御部51が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」であった場合、発光制御部51は54cと54aのスイッチをOnし、共に「Lv=1」の光量で53cと53aの電界発光ファイバー(黄と赤)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、発光制御部51は54cと54bのスイッチをOnし、共に「Lv=2」の光量で53cと53bの電界発光ファイバー(黄と橙)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「驚き」の「Lv=3」であった場合、発光制御部51は54cと54dのスイッチをOnし、共に「Lv=3」の光量で53cと53dの電界発光ファイバー(黄と緑)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、発光制御部51は54cと54eのスイッチをOnし、共に「Lv=4」の光量で53cと53eの電界発光ファイバー(黄と青)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、発光制御部51は54cと54hのスイッチをOnし、共に「Lv=5」の光量で53cと53hの電界発光ファイバー(黄と黒)を点灯させる。
【0074】
また、発光制御部51が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」であった場合、発光制御部51は54eと54dのスイッチをOnし、共に「Lv=1」の光量で53eと53dの電界発光ファイバー(青と緑)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、発光制御部51は54eと54fのスイッチをOnし、共に「Lv=2」の光量で53eと53fの電界発光ファイバー(青と藍)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「怯え」の「Lv=3」であった場合、発光制御部51は54eと54gのスイッチをOnし、共に「Lv=3」の光量で53eと53gの電界発光ファイバー(青と紫)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、発光制御部51は54gと54fのスイッチをOnし、共に「Lv=4」の光量で53gと53fの電界発光ファイバー(紫と藍)を点灯させる。
また、発光制御部51が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、発光制御部51は54gと54hのスイッチをOnし、共に「Lv=5」の光量で53gと53hの電界発光ファイバー(紫と黒)を点灯させる。
【0075】
また、発光制御部51が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、発光制御部51は54a〜54gの7つのスイッチを一つずつOn・Offし、全て「Lv=5」の光量で53a〜53gの電界発光ファイバー(赤、橙、黄、緑、青、藍、紫)の虹の7色を点灯させ、繰り返す(ループ)。
また、発光制御部51が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、発光制御部51は54hのスイッチをOnし、「Lv=1〜5」で光量を変化させて、53hの電界発光ファイバー(黒)を点灯する。
【0076】
次に、本実施形態の空間環境演出装置がステージ上に噴射するスモーク(煙)の制御に適用される例について説明する。
図8は制御対象装置7がスモーク演出装置となる場合の該スモーク演出装置の概略を示すブロック図である。この図において、符号61は感性データ出力部3から受信した感性データに基づいてスモーク(煙)を発生させるスモーク発生装置とスモークに光を照らすライトの制御を行うスモーク演出制御部である。62a〜62cはそれぞれ上方、下方、後方スモーク発生装置であり、ドライアイスなどによりスモークを発生させる。また、63a〜63hはライトであり、63a=赤、63b=橙、63c=黄、63d=緑、63e=青、63f=藍、63g=紫、63h=黒の各色でスモーク発生装置から発生したスモークに照射する。
【0077】
図9は感性データに基づいて制御対象装置7であるスモーク演出装置での動作を示す表である。図9より、スモーク演出制御部61が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、スモーク演出制御部61は上方スモーク発生装置62aから少量のスモークを永続噴射する。そしてスモークに63dのライト(緑)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、スモーク演出制御部61は上方スモーク発生装置62aから少量のスモークを永続噴射する。そしてスモークに63cのライト(黄)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、スモーク演出制御部61は上方スモーク発生装置62aから少量のスモークを断続噴射する。そしてスモークに63dと63cのライト(緑と黄)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、スモーク演出制御部61は上方スモーク発生装置62aから少量のスモークを断続噴射する。そしてスモークに63bのライト(橙)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、スモーク演出制御部61は上方スモーク発生装置62aから少量のスモークを瞬間噴射する。そしてスモークに63aのライト(赤)で光を照射する。
【0078】
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを永続噴射する。そしてスモークに63dのライト(緑)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを永続噴射する。そしてスモークに63eのライト(青)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを永続噴射する。そしてスモークに63fのライト(藍)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを永続噴射する。そしてスモークに63gのライト(紫)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから多量のスモークを断続噴射する。そしてスモークに63hのライト(黒)で光を照射する。
【0079】
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」であった場合、スモーク演出制御部61は後方スモーク発生装置62cから少量のスモークを断続噴射する。そしてスモークに63cと63aの2つのライト(黄と赤)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、スモーク演出制御部61は後方スモーク発生装置62cから少量のスモークを瞬間噴射する。そしてスモークに63cと63bの2つのライト(黄と橙)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「驚き」の「Lv=3」であった場合、スモーク演出制御部61は後方スモーク発生装置62cから少量のスモークを断続噴射する。そしてスモークに63cと63dの2つのライト(黄と緑)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、スモーク演出制御部61は後方スモーク発生装置62cから多量のスモークを瞬間噴射する。そしてスモークに63cと63eの2つのライト(黄と青)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、スモーク演出制御部61は後方スモーク発生装置62cから多量のスモークを断続噴射する。そしてスモークに63cと63hの2つのライト(黄と黒)で光を照射する。
【0080】
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを瞬間噴射する。そしてスモークに63eと63dの2つのライト(青と緑)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを瞬間噴射する。そしてスモークに63eと63fの2つのライト(青と藍)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「怯え」の「Lv=3」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを瞬間噴射する。そしてスモークに63eと63gの2つのライト(青と紫)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを断続噴射する。そしてスモークに63gと63fの2つのライト(紫と藍)で光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、スモーク演出制御部61は下方スモーク発生装置62bから少量のスモークを断続噴射する。そしてスモークに63gと63hの2つのライト(紫と黒)で光を照射する。
【0081】
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、スモーク演出制御部61は上方、下方、後方スモーク発生装置62a〜62cの全スモーク発生装置から多量のスモークを断続噴射する。そしてスモークに63a〜63gの7つのライト(赤、橙、黄、緑、青、藍、紫)で虹の7色の光を照射する。
また、スモーク演出制御部61が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、スモーク演出制御部61は上方、下方、後方スモーク発生装置62a〜62cの全スモーク発生装置から多量のスモークを瞬間噴射する。そしてスモークに63hのライト(黒)で光を照射する。
【0082】
次に、本実施形態の空間環境演出装置が椅子の内部に備えられた重低音専用スピーカーの出力による振動の制御に適用される例について説明する。
図10は制御対象装置7が重低音専用スピーカー制御装置となる場合の該重低音専用スピーカー制御装置の概略を示すブロック図である。この図において、符号71は感性データ出力部3から受信した感性データに基づいて椅子に内蔵されたウーファー(重低音専用スピーカー)を制御する重低音専用スピーカー制御部である。この重低音専用スピーカーは「Lv=1」〜「Lv=5」の5段階で出力(振動)が変化するように重低音専用スピーカー制御部で制御される。そして、72a、72bはウーファーであり、椅子の座板と背もたれの内部に備えられている。
【0083】
図11は感性データに基づいて制御対象装置7である重低音専用スピーカー制御装置での動作を示す表である。図11より、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)とウーファー72b(背もたれ部)の両方を「Lv=1」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)とウーファー72b(背もたれ部)の両方を「Lv=2」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)とウーファー72b(背もたれ部)の両方を「Lv=3」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)とウーファー72b(背もたれ部)の両方を「Lv=4」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)とウーファー72b(背もたれ部)の両方を「Lv=5」の大きさで振動させる。
【0084】
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=1」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=2」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=3」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=4」の大きさで振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=5」の大きさで振動させる。
【0085】
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)を「Lv=1」の大きさで一瞬だけ振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)を「Lv=2」の大きさで一瞬だけ振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「驚き」の「Lv=3」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)を「Lv=3」の大きさで一瞬だけ振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)を「Lv=4」の大きさで一瞬だけ振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、重低音専用スピーカー制御部71はウーファー72a(座板部)を「Lv=5」の大きさで一瞬だけ振動させる。
【0086】
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=1」の大きさで小刻みに繰り返し振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=2」の大きさで小刻みに繰り返し振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「怯え」の「Lv=3」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=3」の大きさで小刻みに繰り返し振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=4」の大きさで小刻みに繰り返し振動させる。
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、重低音専用スピーカー制御部71はウーファー72b(背もたれ部)を「Lv=5」の大きさで小刻みに繰り返し振動させる。
【0087】
また、重低音専用スピーカー制御部71が感性データ出力部3から受信した感性データが「快感」の「Lv=1」及び「Lv=2」の場合は共に、重低音専用スピーカー制御部71はウーファー72a(座板部)とウーファー72b(背もたれ部)の両方を「Lv=5」の大きさで振動させる。
【0088】
次に、本実施形態の空間環境演出装置が香水貯蔵部に貯蔵された香水の噴霧に基づく匂いの制御に適用される例について説明する。
図12は制御対象装置7が香水噴霧装置となる場合の該香水噴霧装置の概略を示すブロック図である。この図において、符号81は感性データ出力部3から受信した感性データに基づいて香水噴霧装置に内蔵された香水貯蔵部を制御して香水を噴霧する香水噴霧制御部である。そして、82a〜82vはそれぞれ別の香水を貯蔵した香水貯蔵部である。
【0089】
図13は感性データに基づいて制御対象装置7である香水噴霧装置での動作を示す表である。図13より、香水噴霧制御部81が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、香水噴霧制御部81は香水貯蔵部82aを制御して香水を噴霧する。この香水貯蔵部82aには「バジル」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、香水噴霧制御部81は香水貯蔵部82bを制御して香水を噴霧する。この香水貯蔵部82bには「クラリセージ」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、香水噴霧制御部81は香水貯蔵部82cを制御して香水を噴霧する。この香水貯蔵部82cには「シダーウッド」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、香水噴霧制御部81は香水貯蔵部82dを制御して香水を噴霧する。この香水貯蔵部82dには「ローズ」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、香水噴霧制御部81は香水貯蔵部82eを制御して香水を噴霧する。この香水貯蔵部82eには「ラベンダー」の匂いのする香水が含まれている。
【0090】
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、香水噴霧制御部81は香水貯蔵部82fを制御して香水を噴霧する。この香水貯蔵部82fには「ブラックペッパ」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、香水噴霧制御部81は香水貯蔵部82gを制御して香水を噴霧する。この香水貯蔵部82gには「ジュニパー」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、香水噴霧制御部81は香水貯蔵部82hを制御して香水を噴霧する。この香水貯蔵部82hには「ローマンカモミ」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、香水噴霧制御部81は香水貯蔵部82iを制御して香水を噴霧する。この香水貯蔵部82iには「サンダルウッド」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、香水噴霧制御部81は香水貯蔵部82jを制御して香水を噴霧する。この香水貯蔵部82jには「カモミール」の匂いのする香水が含まれている。
【0091】
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」であった場合、香水噴霧制御部81は香水貯蔵部82kを制御して香水を噴霧する。この香水貯蔵部82kには「ジャスミン」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、香水噴霧制御部81は香水貯蔵部82lを制御して香水を噴霧する。この香水貯蔵部82lには「フランキンセン」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「驚き」の「Lv=3」であった場合、香水噴霧制御部81は香水貯蔵部82mを制御して香水を噴霧する。この香水貯蔵部82mには「ローズウッド」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、香水噴霧制御部81は香水貯蔵部82nを制御して香水を噴霧する。この香水貯蔵部82nには「ゼラニウム」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、香水噴霧制御部81は香水貯蔵部82oを制御して香水を噴霧する。この香水貯蔵部82oには「クラリセージ」の匂いのする香水が含まれている。
【0092】
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」であった場合、香水噴霧制御部81は香水貯蔵部82pを制御して香水を噴霧する。この香水貯蔵部82pには「ネロリ」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、香水噴霧制御部81は香水貯蔵部82qを制御して香水を噴霧する。この香水貯蔵部82qには「コリアンダ」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「怯え」の「Lv=3」であった場合、香水噴霧制御部81は香水貯蔵部82rを制御して香水を噴霧する。この香水貯蔵部82rには「ライム」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、香水噴霧制御部81は香水貯蔵部82sを制御して香水を噴霧する。この香水貯蔵部82sには「ペパーミント」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、香水噴霧制御部81は香水貯蔵部82tを制御して香水を噴霧する。この香水貯蔵部82tには「メリッサ」の匂いのする香水が含まれている。
【0093】
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、香水噴霧制御部81は香水貯蔵部82uを制御して香水を噴霧する。この香水貯蔵部82uには「ローズマリー」の匂いのする香水が含まれている。
また、香水噴霧制御部81が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、香水噴霧制御部81は香水貯蔵部82vを制御して香水を噴霧する。この香水貯蔵部82vには「レモングラス」の匂いのする香水が含まれている。
【0094】
次に、本実施形態の空間環境演出装置が冷房装置と暖房装置を用いた温度と風の制御に適用される例について説明する。
図14は制御対象装置7が冷暖房制御装置となる場合の該冷暖房制御装置の概略を示すブロック図である。この図において、符号91は感性データ出力部3から受信した感性データに基づいて椅子の座板下に内蔵された冷房装置や暖房装置を制御する冷暖房装置制御部である。92は冷房装置であり、93は暖房装置である。そして冷房装置92、暖房装置93は強、弱の2通りの風量で温風や冷風を発生させる。また、冷房装置92は冷気でない外気温の風をそのまま送風することもできる。
【0095】
図15は感性データに基づいて制御対象装置7である冷暖房制御装置での動作を示す表である。図15より、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」及び「Lv=2」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量でゆっくりと外気温のままの風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量で断続的に外気温のままの風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、冷暖房装置制御部91は暖房装置93を制御して「弱」の風量で断続的に暖かい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、冷暖房装置制御部91は暖房装置93を制御して「強」の風量で瞬間的に暖かい風を送風する。
【0096】
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量でゆっくりと冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量で断続的に冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量でゆっくりと冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、冷暖房装置制御部91は冷房装置92を制御して「強」の風量で断続的に冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、冷暖房装置制御部91は冷房装置92を制御して「強」の風量でゆっくりと冷たい風を送風する。
【0097】
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」であった場合、冷暖房装置制御部91は冷房装置92を制御して「強」の風量で断続的に冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、冷暖房装置制御部91は暖房装置93を制御して「弱」の風量で断続的に暖かい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「驚き」の「Lv=3」であった場合、冷暖房装置制御部91は冷房装置92を制御して「強」の風量で瞬間的に冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、冷暖房装置制御部91は暖房装置93を制御して「弱」の風量で断続的に暖かい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、冷暖房装置制御部91は冷房装置92を制御して「強」の風量で断続的に冷たい風を送風する。
【0098】
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「怯え」の「Lv=1〜4」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量で断続的に冷たい風を送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、冷暖房装置制御部91は冷房装置92を制御して「弱」の風量で瞬間的に冷たい風を送風する。
【0099】
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、冷暖房装置制御部91は冷房装置92と暖房装置93とを制御して、共に「強」の風量で、冷たい風と暖かい風を交互に送風する。
また、冷暖房装置制御部91が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、冷暖房装置制御部91は冷房装置92を制御して「強」の風量で瞬間的に冷たい風を送風する。
【0100】
次に、本実施形態の空間環境演出装置が水中に発生させる泡の制御に適用される例について説明する。
図16は制御対象装置7が気泡製造装置となる場合の該気泡製造装置の概略を示すブロック図である。この図において、符号101は感性データ出力部3から受信した感性データに基づいて気泡を制御する気泡制御部である。102は空気タンクである。103は空気タンク102内の空気を送出する開閉弁であり気泡制御部101によって制御される。気泡制御部101がこの開閉弁103の開閉を調整することにより、気泡の発生量の大、小を変化させる。104は水槽の底部にある空気噴出口であり複数の穴より空気が噴出する。105は水槽である。106は気泡大調整プレート(気泡大調整部)であり、空気噴出口にある複数の穴と同様穴があいている。そして図16の符号Aで示すように、空気噴出口104と気泡大調整プレート106は重なり合わせてあり、気泡大調整プレート106の位置を気泡制御部101が制御する事により、空気噴出口106に空いている複数の穴を小さくしたり、大きくしたり、気泡の噴出を止めたりする。これにより気泡の大きさを変える事が出来る。ここで、気泡の大きさは「小」と「大」の2つの大きさに制御することとする。
【0101】
図17は感性データに基づいて制御対象装置7である気泡製造装置での動作を示す表である。図16より、気泡制御部101が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」及び「Lv=3」であった場合、気泡制御部101は気泡大調整プレート制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を小さくして、小さい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104の穴を塞いだり、小さい穴にしたりすることで、断続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103の開き具合を小さくして、大きい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104の穴を塞いだり、大きい穴にしたりすることで、断続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を大きくして、小さい気泡を多量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104を小さい穴のままにすることで、永続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103の開き具合を大きくして、大きい気泡を多量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104を大きい穴のままにすることで、永続的に気泡を噴出する。
【0102】
また、気泡制御部101が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を小さくして、小さい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104の穴を塞いだり、小さい穴にしたりすることで、断続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を小さくして、小さい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104を小さい穴のままにすることで、永続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103を少し開閉することで、小さい気泡を少量だけ瞬間的に発生させる。
また、気泡制御部101が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」及び「Lv=5」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を塞ぎ、気泡の発生を停止する。
【0103】
また、気泡制御部101が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」及び「Lv=3」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を大きくして、小さい気泡を多量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104の穴を塞いだり、小さい穴にしたりすることで、断続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103の開き具合を小さくして、大きい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104を大きい穴のままにすることで、永続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103の開き具合を小さくして、大きい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104を大きい穴のままにすることで、永続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103を大きく開閉することで、小さい気泡を多量に、かつ瞬間的に発生させる。
【0104】
また、気泡制御部101が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」及び「Lv=3」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103を小さく開閉することで、小さい気泡を少量に、かつ瞬間的に発生させる。
また、気泡制御部101が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103を小さく開閉することで、大きい気泡を少量に、かつ瞬間的に発生させる。
また、気泡制御部101が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103の開き具合を小さくして、大きい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104の穴を塞いだり、大きい穴にしたりすることで、断続的に気泡を噴出する。
また、気泡制御部101が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を小さくして、小さい気泡を少量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104の穴を塞いだり、小さい穴にしたりすることで、断続的に気泡を噴出する。
【0105】
また、気泡制御部101が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「大」にして開き、また、開閉弁103を大きく開閉することで、大きい気泡を多量に、かつ瞬間的に発生させる。
また、気泡制御部101が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、気泡制御部101は気泡大調整プレートを制御して空気噴出口106の穴を「小」にして開き、また、開閉弁103の開き具合を大きくして、小さい気泡を多量発生させる。また気泡制御部101は気泡大調整プレートを制御して空気噴出口104を小さい穴のままにすることで、永続的に気泡を噴出する。
【0106】
次に、本実施形態の空間環境演出装置がステージ上における擬似的な天候の制御に適用される例について説明する。
図18は制御対象装置7がステージ環境演出装置となる場合の該ステージ環境演出装置の概略を示すブロック図である。この図において、符号111は感性データ出力部3から受信した感性データに基づいてステージ上の降雨装置、降雪装置、照明、フラッシュライト、大型扇風機などを制御するステージ環境制御部である。112は照明ライトであり、太陽を意味している。113は降雨装置であり、ステージ上に水を噴霧することによって擬似的な雨の環境を演出する。114は降雪装置であり、ステージ上に細かく砕いた発砲スチロールを撒くことにより擬似的な雪の環境を演出する。115はフラッシュライトであり、ステージに向かってフラッシュをたくことで擬似的に雷が光っているという環境を演出する。116は大型扇風機であり、ステージ上に風を送風することによって擬似的に風が吹いているという環境を演出する。照明ライトは照度が「Lv=1」〜「Lv=9」の9段階に分かれており、ステージ環境制御部111が照明ライト112の照度を制御する。ここで、照度はレベルが上がるほど照度が高いこととする。照度「Lv=5」以上を晴れの天候と位置付け、照度「Lv=4」以下を曇り、雨、雪、などの天候として位置付ける。また117はステージである。
【0107】
図19は感性データに基づいて制御対象装置7であるステージ環境演出装置の動作を示す表である。図19より、ステージ環境制御部111が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=5」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=6」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=7」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=8」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=5〜9」で上下するように制御してステージに照明を当てる。
【0108】
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=4」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=3」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=2」と制御してステージに照明を当てる。そして、降雨装置113より少量の雨を降らせる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=1」と制御してステージに照明を当てる。そして、降雨装置113より少量の雨を降らせる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=1」と制御してステージに照明を当てる。そして、降雨装置113より多量の雨を降らせる。
【0109】
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「驚き」の「Lv=1〜3」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=2」と制御してステージに照明を当てる。そして、降雪装置114より少量の雪を降らせる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「驚き」の「Lv=4、5」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=2」と制御してステージに照明を当てる。そして、降雪装置114より多量の雪を降らせる。
【0110】
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=4」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=3」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「怯え」の「Lv=3」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=2」と制御してステージに照明を当てる。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「怯え」の「Lv=4、5」であった場合、ステージ環境制御部111は照明ライト112照度を「Lv=1」と制御してステージに照明を当てる。
【0111】
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、ステージ環境制御部111はステージ上にフラッシュライト115を繰り返して照射する。
また、ステージ環境制御部111が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、ステージ環境制御部111はステージ上にフラッシュライト115を繰り返して照射する。また、降雨装置113より多量の雨を降らせる。
【0112】
次に、本実施形態の空間環境演出装置がステージ上に設置されたガスバーナの炎の制御に適用される例について説明する。
図20は制御対象装置7が炎演出装置となる場合の該炎演出装置の概略を示すブロック図である。この図において、符号121は、例えば、感性データ出力部3から受信した感性データに基づいてステージ上の脇に設置されたガスバーナの炎の大きさと、炎の火色を制御する炎制御部である。122a、122bはガスバーナである。123a、123bは、メタノールに各種金属塩を溶解した溶解液を金属の種類だけ別々のタンクに保持している噴霧部であり、炎制御部121により、溶解液をガスバーナの炎に噴霧する。そして、噴霧した溶解液に溶けている金属塩と炎の炎色反応により、ガスバーナの炎の色が変化する。ここで、溶解液に含まれる金属塩とその炎色反応時の炎の色は、ホウ酸=緑色、塩化ストロンチウム=赤色、ヨウ化カリウム=紫色、塩化カルシウム=青色、塩化ナトリウム=オレンジ色であり、メタノールに溶解して別々のタンクに入れられて噴霧部に格納されている。また、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=1〜5」の5段階で制御する。また124はステージである。
【0113】
図21は感性データに基づいて制御対象装置7である炎演出装置の動作を示す表である。図21より、炎制御部121が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=1」にして、噴霧部123a、123bから炎が「緑色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=2」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=2」にして、噴霧部123a、123bから炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=3」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=3」にして、噴霧部123a、123bから炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=4」にして、噴霧部123a、123bから炎が「赤色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=5」にして、噴霧部123a、123bから炎が「赤色」に炎色反応を起こす溶解液を噴霧する。
【0114】
また、炎制御部121が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=1」にして、噴霧部123a、123bから炎が「緑色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「哀しい」の「Lv=2」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=2」にして、噴霧部123a、123bから炎が「青色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「哀しい」の「Lv=3」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=3」にして、噴霧部123a、123bから炎が「青色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「哀しい」の「Lv=4」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=4」にして、噴霧部123a、123bから炎が「紫色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「哀しい」の「Lv=5」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=5」にして、噴霧部123a、123bから炎が「紫色」に炎色反応を起こす溶解液を噴霧する。
【0115】
また、炎制御部121が感性データ出力部3から受信した感性データが「驚き」の「Lv=1」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=1」にして、噴霧部123aからは炎が「赤色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「青色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「驚き」の「Lv=2」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=2」にして、噴霧部123aからは炎が「赤色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「青色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「驚き」の「Lv=3」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=3」にして、噴霧部123aからは炎が「紫色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「驚き」の「Lv=4」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=4」にして、噴霧部123aからは炎が「紫色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「驚き」の「Lv=5」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=5」にして、噴霧部123aからは炎が「紫色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
【0116】
また、炎制御部121が感性データ出力部3から受信した感性データが「怯え」の「Lv=1」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=1」にして、噴霧部123a、123bから炎が「青色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=2」にして、噴霧部123a、123bから炎が「青色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「怯え」の「Lv=3」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=3」にして、噴霧部123a、123bから炎が「紫色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=4」にして、噴霧部123a、123bから炎が「紫色」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「怯え」の「Lv=5」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=5」にして、噴霧部123a、123bから炎が「紫色」に炎色反応を起こす溶解液を噴霧する。
【0117】
また、炎制御部121が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=5」にして、噴霧部123aからは炎が「赤色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
また、炎制御部121が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、炎制御部121はガスバーナ122a、122bの炎の大きさを「Lv=1〜5」に変化させて、噴霧部123aからは炎が「赤色」に炎色反応を起こす溶解液を噴霧し、123bからは炎が「オレンジ」に炎色反応を起こす溶解液を噴霧する。
【0118】
次に、本実施形態の空間環境演出装置がシャボン玉の発生の制御に適用される例について説明する。
シャボン玉を自動的に発生させるシャボン玉発生装置としては、実開平6−83100にその例が示されている。ここでシャボン玉発生装置が発生させるシャボン玉の大きさとシャボン玉の発生量とを、算出された感性データに基づいて制御する事とする。
図22は、石鹸水の皮膜を作成するシャボン玉の吹きだし口部のイメージを示す図である。この図において131は吹き出し口部であり、▲1▼〜▲7▼の薄い金属版などの7枚の羽がお互いに重なり合っている。そして、シャボン玉発生装置は▲1▼〜▲7▼の羽を制御して吹き出し口部131の大きさを変更し、これによりシャボン玉の大きさを変更する事が出来る。ここで吹き出し口部131の大きさは「大」、「小」の2通りとする。また、シャボン玉の発生量はシャボン玉発生装置の風量に応じて「多量」もしくは「少量」の2通りで制御する事が出来る。
【0119】
図23は感性データに基づいて制御対象装置7であるシャボン玉発生装置の動作を示す表である。図23より、シャボン玉発生装置が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=1、2、3」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「少量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=4」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「多量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「大」にして「多量」のシャボン玉を発生させる。
【0120】
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「哀しい」の「Lv=1、2、3、4」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「少量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「嬉しい」の「Lv=5」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「多量」のシャボン玉を発生させる。
【0121】
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「驚き」の「Lv=1、3、5」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「大」にして「少量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「驚き」の「Lv=2、4」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「大」にして「多量」のシャボン玉を発生させる。
【0122】
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「怯え」の「Lv=1、3」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「大」にして「少量」のシャボン玉を発生させる。また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「怯え」の「Lv=2」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「少量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「多量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「怯え」の「Lv=4」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「大」にして「多量」のシャボン玉を発生させる。
【0123】
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「快感」の「Lv=1」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「小」にして「多量」のシャボン玉を発生させる。
また、シャボン玉発生装置が感性データ出力部3から受信した感性データが「快感」の「Lv=2」であった場合、シャボン玉発生装置は吹き出し口部131の吹き出し口の大きさを「大」にして「少量」のシャボン玉を発生させる。
【0124】
【発明の効果】
以上説明したように、この発明によれば、データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する。そして、算出した前記感性データを出力し、その感性データに基づいて、空間の環境を演出する制御対象装置を動作させるので、これにより、再生される音楽から得られた感性データに基づいて、何通りもの方法で空間の演出ができる空間環境演出装置を提供することができる。
【図面の簡単な説明】
【図1】本実施形態による感性データ算出方法を応用した空間環境演出装置の構成を示すブロック図である。
【図2】本実施形態による感情解析部13による処理の手順を示すフローチャートである。
【図3】本実施形態による空間環境演出装置におけるデータの流れを示す概略図である。
【図4】本実施形態による制御対象装置7が噴水となる場合の該噴水の概略を示すブロック図である。
【図5】本実施形態による感性データに基づいて制御対象装置7である噴水が行う動作を示す表である。
【図6】本実施形態による制御対象装置7が光アートパネルとなる場合の該光アートパネルの概略を示すブロック図である。
【図7】本実施形態による感性データに基づいて制御対象装置7である光アートパネルでの動作を示す表である。
【図8】本実施形態による制御対象装置7がスモーク演出装置となる場合のスモーク演出装置の概略を示すブロック図である。
【図9】本実施形態による感性データに基づいて制御対象装置7であるスモーク演出装置での動作を示す表である。
【図10】本実施形態による制御対象装置7が重低音専用スピーカー制御装置となる場合の該重低音専用スピーカー制御装置の概略を示すブロック図である。
【図11】本実施形態による感性データに基づいて制御対象装置7である重低音専用スピーカー制御装置での動作を示す表である。
【図12】本実施形態による制御対象装置7が香水噴霧装置となる場合の該香水噴霧装置の概略を示すブロック図である。
【図13】本実施形態による感性データに基づいて制御対象装置7である香水噴霧装置での動作を示す表である。
【図14】本実施形態による制御対象装置7が冷暖房制御装置となる場合の該冷暖房制御装置の概略を示すブロック図である。
【図15】本実施形態による感性データに基づいて制御対象装置7である冷暖房制御装置での動作を示す表である。
【図16】本実施形態による制御対象装置7が気泡製造装置となる場合の該気泡製造装置の概略を示すブロック図である。
【図17】本実施形態による感性データに基づいて制御対象装置7である気泡製造装置での動作を示す表である。
【図18】本実施形態による制御対象装置7がステージ環境演出装置となる場合の該ステージ環境演出装置の概略を示すブロック図である。
【図19】本実施形態による感性データに基づいて制御対象装置7であるステージ環境演出装置の動作を示す表である。
【図20】本実施形態による制御対象装置7が炎演出装置となる場合の炎演出装置の概略を示すブロック図である。
【図21】本実施形態による感性データに基づいて制御対象装置7である炎演出装置の動作を示す表である。
【図22】本実施形態による石鹸水の皮膜を作成するシャボン玉の吹きだし口部のイメージを示す図である。
【図23】本実施形態による感性データに基づいて制御対象装置7であるシャボン玉発生装置の動作を示す表である。
【符号の説明】
1 スペクトラム解析部
2 感性データ蓄積部
3 感性データ出力部
4 MP3データ記憶部
5 MP3デコーダ部
6 D/A変換部
7 制御対象装置
11 伸長部
12 感性データ算出部
13 感情解析部
14 リズム解析部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing device, and more particularly to a spatial environment effect device, a spatial environment effect method, and a program thereof.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, when creating a space such as a lobby of a hotel or the like, the interior of each store, a museum, a theater, or the like, lighting, water, and the like have been used.
[0003]
[Problems to be solved by the invention]
However, in the above-mentioned production of the space by lighting and water, the light and color of the lighting and the amount of water such as the fountain are controlled by a device for controlling the lighting and the fountain, and are controlled by a program on the device. , Only control in a fixed pattern is performed.
Therefore, the present invention extracts an emotion parameter expressing an emotion from music to be reproduced, and can control a lighting and a fountain based on the emotion parameter. It is an object of the present invention to provide an environment production device, a space environment production method, and a program therefor.
[0004]
[Means for Solving the Problems]
The present invention has been made to solve the above-described problems, and the invention according to
[0005]
According to the configuration described above, the distribution of sound pressure values for each frequency band is analyzed based on the digital data read from the data storage unit, and based on the analysis result, an emotion type and an emotion type Calculate emotion data including emotion level. Then, the calculated emotion data is output, and the control target device that produces a space environment is operated based on the emotion data. Thus, it is possible to provide a space environment effect device capable of effecting a space in any number of ways based on emotional data obtained from reproduced music.
[0006]
According to a second aspect of the present invention, the control target device according to the first aspect is a fountain that controls the amount and pressure of water to be injected based on the sensitivity data received by the fountain control unit. And
[0007]
According to a third aspect of the present invention, there is provided a control target device according to the first aspect, in which a plurality of electric fields having different emission colors are arranged inside the laminated glass based on the sensitivity data received by the emission control unit. It is an optical panel art for controlling light emission of a light emitting fiber.
[0008]
According to a fourth aspect of the present invention, the control target device according to the first aspect is configured to emit a smoke based on the sensibility data received by the smoke effect control unit, and a light to irradiate the smoke. It is a smoke production device for controlling colors.
[0009]
According to a fifth aspect of the present invention, the controlled object device according to the first aspect controls the magnitude of an output of the heavy bass based on the sensibility data received by the heavy bass dedicated speaker control unit. It is a dedicated speaker control device.
[0010]
According to a sixth aspect of the present invention, the control target device according to the first aspect includes a plurality of perfume storage units each storing a different perfume based on the sensitivity data received by the perfume spray control unit. It is a perfume spraying device that sprays perfume under control.
[0011]
According to a seventh aspect of the present invention, the control target device according to the first aspect determines the temperature and air volume of the cool air or warm air by the cooling device or the heating device based on the sensitivity data received by the cooling / heating device control unit. It is a cooling and heating control device to be controlled.
[0012]
The invention according to claim 8 is the control target device according to
[0013]
According to a ninth aspect of the present invention, the control target device according to the first aspect performs pseudo sunlight, rain, wind, snow, or lightning on the stage based on the sensitivity data received by the stage environment control unit. It is characterized by controlling the illuminance of the illumination light directed above, the amount of rainfall of the rainfall device, the amount of snowfall of the snowfall device, the illuminance of the flashlight, and the airflow of the large electric fan.
[0014]
The invention according to claim 10 is a flame control device in which the control target device according to claim 1 controls a flame size and a flame color based on the sensitivity data received by the flame control unit. It is characterized by the following.
[0015]
An eleventh aspect of the present invention is characterized in that the control target device according to the first aspect is a soap bubble generator for controlling the amount of generated soap bubbles and the size of the soap bubbles.
[0016]
The invention according to claim 12 is a spatial environment effecting method in a spatial environment effecting device including a data storage unit that stores digital data expressing sound as a sound pressure value for each divided frequency band, Analyzing the distribution of sound pressure values for each of the frequency bands based on the digital data read from the data storage unit, based on the analysis result, the emotion type and the sensitivity including the emotion level for each of the emotion types A first step of calculating data, a second step of outputting the sensitivity data calculated in the first step, and a spatial environment based on the second output sensitivity data This is a spatial environment effecting method characterized by comprising a third step.
[0017]
The invention according to claim 13 is a space environment effect production program in a computer of a space environment effect device provided with a data storage unit for storing digital data representing sound as sound pressure values for each divided frequency band. The computer analyzes the distribution of sound pressure values for each of the frequency bands based on the digital data read from the data storage unit.Based on the analysis result, the emotion type and the emotion type for each emotion type are analyzed. A first process for calculating sensitivity data including an emotion level, a second process for outputting the sensitivity data calculated in the first process, and a second process for calculating the sensitivity data based on the second output sensitivity data. This is a program for executing a third process for producing a space environment.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a space environment effect device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a space environment effect device to which the sensitivity data calculation method according to the embodiment is applied. This spatial environment effect device reproduces music (auditory data) recorded in the format of MP3 (MPEG1 Audio Layer 3) and calculates sensibility data based on the music.
[0019]
In FIG. 1,
[0020]
[0021]
The music data stored in the MP3
[0022]
The
[0023]
The sentiment
[0024]
The
Also, even if it takes time to calculate the sensitivity data by the
[0025]
The MP3
[0026]
The
The sensitivity
[0027]
Next, details of the internal generation of the
[0028]
Next, a detailed processing procedure of the emotion analysis unit 13 and the
[0029]
FIG. 2 is a flowchart illustrating a procedure of the process performed by the emotion analysis unit 13. As shown in FIG. 2, the emotion analyzing unit 13 first performs a division process into five ranges based on the data input in step S1, and performs emotion processing based on the sound pressure values of these five ranges in step S2. A process for calculating parameters is performed, and a determination is made based on the emotion parameters calculated in step S3. As a result of the determination, time-series data including a set of an index, an emotion type, an emotion level, a duration, and an interpolation flag is output.
[0030]
The index is a sequential value starting from 0.
The emotion type is one of “default”, “pleasure”, “surprise”, “fear”, “happy”, and “sad”. It is.
When the emotion type is any of “pleasure”, “surprise”, “frightened”, “happy”, and “sad”, the emotion level takes an integer value of any one of 1 or more and 5 or less. When the emotion type is “expressionless”, the value of the emotion level is “none”.
The duration is a numerical value in seconds and takes a value of 1 or more.
The interpolation flag takes a value of either 0 (representing “OFF”) or 1 (representing “ON”).
[0031]
Initial values for processing time-series music data are index = 0, emotion type = “no expression”, emotion level = “none”, duration time = “1”, and interpolation flag = “1”.
[0032]
Hereinafter, the processing will be described in more detail.
Reference symbol D1 in FIG. 2 is sound pressure value information for each frequency band input to the emotion analysis unit 13. At this stage, sound pressure value information of each of the 576 frequency bands is held. The sampling frequency of the original MP3 data is 44100 Hz. That is, by inputting digital data representing a sound as a sound pressure value for each divided frequency band and analyzing the distribution of sound pressure values for each frequency band by the following method, the sensitivity data related to the sound is analyzed. Is calculated.
[0033]
In step S1, an average sound pressure value for each of the following five ranges is calculated based on the sound pressure value information (D1) and output as sound pressure value information (D2). The five ranges are a low tone (0 Hz to 76.5625 Hz), a middle and low tone (229.6875 Hz to 1900.625 Hz), a middle and high tone (7005.469 Hz to 1002.969 Hz), and a high tone (10029.69 Hz). 141497.97 Hz) and the highest tone (15006.25 Hz to 17992.19 Hz).
That is, here, the entire frequency band is divided into five frequency band groups, and the analysis is performed using the sound pressure value for each frequency band group.
[0034]
In step S1, a long sound element and a short sound element are extracted by scale division. For this extraction, first, the band from 0 Hz to 497.6563 Hz is equally divided into 13 regions, and the band from 497.6563 Hz to 22050 Hz is scale-divided into 63 regions. Then, it is determined whether or not the sound pressure values of 24 scale regions of two octaves of 497.6563 Hz to 2028.906 Hz are larger than a predetermined threshold value.
[0035]
The first, third, fifth, eighth, tenth, twelfth, thirteenth, fifteenth, seventeenth, twentieth, twenty-second, and twenty-fourth regions of the above-mentioned twenty-four scale regions are long elements. is there. Of these long sound elements, the first and thirteenth areas are areas separated by one octave, and if the sound pressure values of these two areas are both larger than the threshold value, the long sound element is counted as +1. Similarly, the third and fifteenth regions, the fifth and seventeenth regions, the eighth and twentieth regions, the tenth and twenty-second regions, and the twelfth and twenty-fourth regions are one octave apart from each other. When the sound pressure values of the two areas are both larger than the threshold, the long sound element is counted as +1.
The second and fourteenth, the fourth and the sixteenth, the sixth and the eighteenth, the seventh and the nineteenth, the ninth and the twenty-first, and the eleventh and the twenty-third of the above-mentioned 24 scale regions are each 1 When the sound pressure values of the two regions are larger than the threshold value for each pair, the short sound element is counted as +1.
As a result of the extraction processing, the long sound element and the short sound element each take any integer value of 0 or more and 6 or less.
[0036]
Next, in step S2, processing for calculating an emotion parameter based on the sound pressure value information D2 is performed. Priority is set in the emotion parameter, and the priority of “pleasure” is 1, the priority of “surprise” is 2, the priority of “fear” is 3, and the priority of “happy” and “sad” are priority. Both are 4.
Note that when all of the above five types of emotion parameter values are “0”, this corresponds to “no expression”.
[0037]
In step S3, a determination based on the calculated emotion parameter is performed, and a process of obtaining sensibility data is performed. In this determination, the result of the rhythm analysis by the
In calculating the emotion parameter value, sounds having a sound pressure value of L1 or less are ignored.
[0038]
The processing relating to “pleasure (Pleasure)” is as follows.
[Condition 1] If the time interval between beats is T3 or more and any of the sound pressure peaks from the middle and low pitches to the high pitches temporally moves in the treble direction by T4 or more, the emotion of "pleasure" Increment the parameter count by one. When this condition is met, the emotion is assumed to continue from the point in time T4 after the sound of the target starts to sound until the point in time T2 after the sound of the target stops. That is, in the present embodiment, a control signal based on the “pleasure” data is output during this duration.
[Condition 2] When the sound pressure value in the low-tone range is L7 or more and the average sound pressure value in the high-frequency part is L4 or more, and the average sound pressure value is L6 or more, the average time between beats up to the previous time If the value obtained by subtracting the time interval between the current beats from the interval is equal to or greater than T1, or if the previous determination result is "surprise", the count of the emotion parameter of "pleasure" is increased by two. When this condition is met, the emotion is assumed to start from the time when the time T4 has elapsed since the sound of the target started to sound.
[0039]
That is, when the
When the
When the
Since the priority of the emotion of “pleasure” is “1”, which is the highest, if any of the
[0040]
The processing relating to “surprise” is as follows.
If the above-mentioned condition of "pleasure" is not satisfied, it is checked whether or not the condition of "surprise" is satisfied under the following conditions.
[0041]
[Condition 1] When a sound whose peak sound pressure value of the low-pitched portion is L7 or more is first obtained from a state where there is no sound whose average sound pressure value of the whole sound range is L3 or less, the emotion parameter of “surprise” is counted. +4, and the time during which the sound continues to sound is defined as the duration. However, when the
[Condition 2] When a sound having a peak sound pressure value of L7 or more is first acquired from a state where there is no sound having an average sound pressure value of L2 or less in the entire sound range, the emotion parameter of "surprise" is counted. +5, and the time during which the sound continues to sound is defined as the duration time.
[0042]
[Condition 3] When there is no sound with an average sound pressure value of L3 or less in the entire sound range and a sound with a peak sound pressure value of L7 or more other than the low-frequency part is first acquired, the emotion parameter of “surprise” is The count is incremented by 1, and the time during which the sound continues to sound is defined as the duration. However, when the
[Condition 4] From the state where there is no sound having an average sound pressure value of L2 or less in the entire sound range, if a sound having a peak sound pressure value of L7 or more other than the low-frequency part is first acquired, the emotion parameter of “surprise” is The count is incremented by +2, and the time during which the sound continues to sound is defined as the duration.
[Condition 5] When the sound of the highest pitch lasts for the time T4 or more, or when the sound of the highest pitch exists and the average sound pressure value of the middle / high pitch is not more than L4, the emotion parameter of “surprise” is The count is incremented by +3, and the time during which the sound continues to sound is defined as the duration.
Note that the priority of the emotion of “surprise” is “2” next to that of “pleasure”, so if any of the
[0043]
The processing relating to “Fear” is as follows.
If none of the above “pleasure” or “surprise” conditions are met, it is checked whether or not “fear” is met under the following conditions.
[0044]
[Condition 1] When the peak of any of the sound pressure values from the middle and low pitches to the high pitch moves temporally by T4 or more in the low pitch direction, the count of the emotion parameter of “fear” is incremented by one.
[Condition 2] If any one of the peaks of the sound pressure value from the mid-low-pitched portion to the high-pitched portion moves temporally by T4 or more in the bass direction and then temporally moves by T4 or more in the treble direction, “scared” +4 is applied to the emotion parameter count.
[Condition 3] When the number N of peaks of any of the sound pressure values from the middle and low pitches to the high pitches fluctuates in the high pitch direction while moving in the low pitch direction is 42 or more, the count of the emotion parameter of “fear” is increased by + (N / 16).
[0045]
The start point of the output of the control signal based on the “fear” data is set after a lapse of time T4 from the start of the sound of the target, and the end point of the control signal is set after a lapse of the time T2 after the stop of the sound of the target.
Since the priority of the emotion of “fear” is “3” next to that of “surprise”, if any of the
[0046]
If none of the above-mentioned "pleasure", "surprise" and "fear" conditions are met, it is checked whether the condition is "happy" or "sad" according to the following conditions.
[0047]
The processing relating to “happy” is as follows.
[Condition 1] When there is a beat, the count of the emotion parameter of “happy” is incremented by one.
[Condition 2] When the time interval between beats is T7 or less, the count of the emotion parameter of “happy” is incremented by one.
[Condition 3] When the average sound pressure value of the treble portion is L4 or more, the count of the emotion parameter of “happy” is incremented by one.
[Condition 4] When
[Condition 5] When the
[Condition 6] When the value of the extracted major element minus minor element is 2 or more, the count of the emotion parameter of “happy” is incremented by one.
[0048]
The time error of the start point of the control signal output based on the “happy” data is ± T2. The time error of the end point of the control signal output is also ± T2.
[0049]
The processing relating to “Sad” is as follows.
[Condition 1] When the time interval between beats is equal to or longer than T5, the count of the emotion parameter of "sad" is incremented by one.
[Condition 2] When there is no beat, the count of the emotion parameter of “sad” is incremented by +2.
[Condition 3] When there is a peak of the sound pressure value that lasts for the time T4 or more in the middle / low-pitched sound part, the emotion parameter of “sad” is incremented by 1, and the time during which the sound continues to be sounded is set as the duration. However, when the
[Condition 4] When there is a peak of the sound pressure value that lasts for the time T6 or more in the middle and low pitch part, the emotion parameter of “sad” is increased by +2, and the time during which the sound continues to be sounded is set as the duration.
[0050]
[Condition 5] When there are three or more peaks of the sound pressure value in the treble part, the emotion parameter of "sad" is incremented by one.
[Condition 6] When there is no sound having an average sound pressure value of L3 or more in all regions, the emotion parameter of “sad” is incremented by one.
[Condition 7] When there is no sound having an average sound pressure value of L3 or more in all regions for a time T2 or more, the emotion parameter of “sad” is incremented by one.
[Condition 8] When the average sound pressure value of the middle and high pitch parts and the high pitch part is L3 or less and only the sound of the middle and low pitch parts is acquired, the emotion parameter of “sad” is increased by +2.
[Condition 9] When the numerical value of the minor element-the major element is 2 or more, the emotion parameter of "sad" is incremented by one.
[0051]
The time error of the start point of the control signal output based on the "sad" data is ± T2. The time error of the end point of the control signal output is also ± T2.
[0052]
As described above, the feelings of "pleasure", "surprise", "frightened", "happy", and "sad" are checked under the respectively defined conditions.
Then, in the case where one of the count results of “pleasure”, “surprise”, and “fear” is 1 or more in order from the emotion having the highest priority, the emotion is determined as the emotion type. In addition, since the count value at that time is the emotion level, the emotion level is
[0053]
If the emotion type is “frightened” and the state having the same emotion level continues for the time T5 or more, the check is performed again every time T5.
If the emotion type shifts from 2 to 1 while the emotion type remains “pleasure”, the subsequent emotion level is regarded as 2 and the
[0054]
If the count values of "pleasure", "surprise", and "fright" are all 0 and at least one of the count values of "happy" or "sad" is 1 or more, the following method is used. Compare the counts of "happy" and "sad". First, an average of these values is obtained from the previous “happy” count value and the current “happy” count value. Next, an average of these values is obtained from the previous “sad” count value and the current “sad” count value. Then, the average value of “happy” and the average value of “sad” are compared.
[0055]
If the above average count value of “happy” is larger, the emotion type is set to “happy”, and the average count value of “happy” minus the average count value of “sad” is used as the emotion level. . Conversely, if the average count value of “sad” is larger, the emotion type is “sad” and the value obtained by subtracting the average count value of “happy” from the average count value of “sad” is the emotion level. I do.
If the average count value of “happy” is equal to the average count value of “sad”, compare the previous count values and select the one with the larger count value as the emotion type, and in this case Let the emotion level be 1.
[0056]
However, regarding the determination using the count values of “happy” and “sad”, regardless of the above rule, when the following two exception patterns are applicable, this applies.
The first exception pattern is a case where the count value of “happy” is 5 and the count value of “sad” is 5, in this case, the emotion type is “pleasure” and the emotion level is 2 I do.
The second exception pattern is a case where the count value of “fear” is 3 or more and the count value of “sad” is 4 or more. In this case, the emotion type is “sad” and the emotion level is 5 And
[0057]
If the result of the count value is 0 for any of the five types of emotions, the emotion type is determined to be “expressionless”.
[0058]
Next, a determination method regarding the interpolation flag will be described. Although the default value of the interpolation flag is 1 (ON), the interpolation flag is set to 0 (OFF) only in one of the following two cases. First, when the same emotion type continues for the time T6 or more, the interpolation flag is set to 0. Secondly, when the previous emotion type is "happy" or "sad" and the state transits to the emotion type "pleasure", the interpolation flag is set to 0.
[0059]
In the above-described processes such as the calculation of the emotion parameter and the determination of the emotion, for the times T1 to T6, appropriate values satisfying the relationship of T1 <T2 <T3 <T4 <T5 <T6 are used. T1 is about several hundred milliseconds, and T6 is about several thousand milliseconds. For sound pressure value levels L1 to L7, appropriate values that satisfy the relationship of L1 <L2 <L3 <L4 <L5 <L6 <L7 are used. As an example, L1 uses a value of about −50 dB (decibel), and L7 uses a value of about −20 dB.
[0060]
Next, processing in the
The data expanded by the expansion unit is input to the
[0061]
The following items are assumed in the rhythm analysis processing. First, it is assumed that the rhythm of a song is accurately carved at a fixed bpm value for at least a fixed time. Second, it is assumed that a noise-based sound is included twice per beat. For example, if the song has a quarter time signature, a noise-based sound is included eight times during four beats. Here, the noise-based sound is, for example, a sound such as a cymbal.
Noise-based sounds are characterized by sound pressure changes over almost the entire frequency band. Accordingly, the amount of change in sound pressure between frames is obtained for each frequency band, and when the amount of change in sound pressure continuously exceeds a predetermined threshold value over all frequencies, this can be detected as noise-based sound.
[0062]
Since the noise-based sound tends to concentrate at a predetermined timing according to the rhythm, the noise-based sound is detected, and the detection interval is set to a frame (one frame is about 0.0261 seconds). ) Calculate in units. At this stage, the detected intervals are not constant, but are obtained as a frequency distribution for each frame number. Based on the obtained distribution, the bpm value is determined by correcting the beat and determining the interval between beats.
That is, according to the second premise, since two noise-based sounds are included per beat, the bpm value can be obtained by the following equation using the obtained noise interval F (frame unit). That is,
bpm value = 60 [second / minute] / (2 * F [frame] * 0.0261 [second / frame])
[0063]
FIG. 3 is a schematic diagram showing a flow of data in the space environment effect device described above. As shown in the figure, by performing a process (31) of decomposing the
[0064]
Next, an example in which the space environment effect device of the present embodiment is applied to the control of water jetted by a fountain will be described.
FIG. 4 is a block diagram schematically showing a fountain when the
[0065]
FIG. 5 is a table showing operations performed by the fountain, which is the
When the sensitivity data is “Lv = 2” of “happy”, the
When the sensitivity data is “Lv = 3” of “happy”, the
When the sensitivity data is “Lv = 4” of “happy”, the
When the sensitivity data is “Lv = 5” of “happy”, the
[0066]
In addition, when the sensitivity data is “Lv = 1” and “Lv = 2” of “sad”, the
When the sensitivity data is “Lv = 3” of “sad”, the
When the emotion data is “Lv = 4” and “Lv = 5” of “sad”, the
[0067]
When the sensitivity data is “Lv = 1” and “Lv = 2” and “Lv = 3” of “surprise”, the
Further, when the sensitivity data is “Lv = 4” and “Lv = 5” of “surprise”, the
[0068]
In addition, when the sensitivity data is “frightened”, the
[0069]
When the sensitivity data is “Lv = 1” of “pleasure”, the
When the sensitivity data is “Lv = 2” of “pleasure”, the
[0070]
Next, an example in which the space environment effect device of the present embodiment is applied to control of light emitted by an electroluminescent fiber will be described.
FIG. 6 is a block diagram schematically illustrating an optical art panel when the
[0071]
FIG. 7 is a table showing the operation of the optical art panel which is the
Further, when the sensibility data received from the sensibility
Further, when the sensibility data received from the sensibility
If the light-
If the light-
[0072]
If the light-
If the light-
When the light-
If the
If the light-
[0073]
Further, when the sensibility data received from the sensibility
Further, when the sensibility data received from the sensibility
Further, when the sensibility data received from the sensibility
Further, when the sensibility data received from the sensibility
Also, when the light
[0074]
If the light
If the light-
If the light
If the light-
Further, when the sensibility data received from the sensibility
[0075]
Further, when the sensibility data received from the sensibility
Further, when the sensibility data received from the sensibility
[0076]
Next, an example in which the space environment effect device of the present embodiment is applied to control of smoke (smoke) injected on the stage will be described.
FIG. 8 is a block diagram schematically showing the smoke production device when the
[0077]
FIG. 9 is a table showing the operation in the smoke effect device, which is the
Also, when the sensibility data received from the sensibility
Also, when the emotion data received from the emotion
If the smoke
If the smoke
[0078]
Also, when the emotional data received from the emotional
When the smoke
Also, if the emotional data received from the emotional
If the smoke
Also, when the emotional data received from the emotional
[0079]
Further, when the emotion data received from the emotion
Further, when the sensibility data received from the sensibility
Also, when the emotion data received from the emotion
Also, when the emotional data received from the emotional
Also, when the emotional data received from the emotional
[0080]
When the smoke
When the smoke
When the smoke
When the smoke
When the smoke
[0081]
If the smoke
If the smoke
[0082]
Next, an example in which the space environment effect device of the present embodiment is applied to control of vibration by the output of a speaker dedicated to heavy bass provided in the chair will be described.
FIG. 10 is a block diagram schematically showing a speaker control device for heavy bass when the
[0083]
FIG. 11 is a table showing the operation of the speaker control device for heavy bass which is the
If the sensibility data received from the sensibility
When the sensibility data received from the sensibility
When the sensibility data received from the sensibility
When the sensibility data received from the sensibility
[0084]
When the sensibility data received from the sensibility
When the sensation data received from the sensibility
When the sensation data received from the sensibility
When the sensation data received from the sensibility
When the sensation data received from the sensibility
[0085]
When the sensibility data received from the sensibility
When the sensibility data received from the sensibility
When the sensibility data received by the heavy bass
If the sensibility data received by the heavy bass
If the sensibility data received from the sensibility
[0086]
When the sensation data received from the sensibility
If the sensation data received from the sensibility
If the sensation data received from the sensibility
When the sensation data received from the sensibility
When the sensation data received from the sensibility
[0087]
When the sensibility data received from the sensibility
[0088]
Next, an example in which the space environment effect device of the present embodiment is applied to control of an odor based on the spray of the perfume stored in the perfume storage unit will be described.
FIG. 12 is a block diagram schematically showing a perfume spraying device when the
[0089]
FIG. 13 is a table showing the operation of the perfume spray device, which is the
Also, when the perfume
When the perfume
Further, when the perfume
When the perfume
[0090]
Further, when the perfume
When the perfume
In addition, when the perfume
Further, when the perfume
When the perfume
[0091]
If the perfume
Further, when the perfume
When the perfume
When the perfume
Further, when the perfume
[0092]
When the perfume
Further, when the perfume
Further, when the perfume
Further, when the perfume
Further, when the perfume
[0093]
Further, when the perfume
Further, when the perfume
[0094]
Next, an example in which the space environment effect device of the present embodiment is applied to temperature and wind control using a cooling device and a heating device will be described.
FIG. 14 is a block diagram schematically illustrating the cooling / heating control device when the
[0095]
FIG. 15 is a table showing the operation of the cooling / heating control device that is the
Further, when the feeling data received from the feeling
Further, when the feeling data received from the feeling
Further, when the feeling data received from the feeling
[0096]
Further, when the feeling data received from the feeling
Further, when the feeling data received from the feeling
When the cooling / heating
In addition, when the cooling / heating
Further, when the feeling data received from the feeling
[0097]
In addition, when the cooling / heating
Further, when the feeling data received from the feeling
Further, when the feeling data received from the feeling
Further, when the feeling data received from the feeling
If the cooling / heating
[0098]
When the cooling / heating
In addition, when the cooling / heating
[0099]
When the cooling / heating
When the cooling / heating
[0100]
Next, an example in which the space environment effect device of the present embodiment is applied to control of bubbles generated in water will be described.
FIG. 16 is a block diagram showing an outline of the bubble production apparatus when the
[0101]
FIG. 17 is a table showing the operation in the bubble manufacturing apparatus which is the
When the sensitivity data received from the sensitivity
Further, when the sensitivity data received from the sensitivity
When the sensitivity data received from the sensitivity
[0102]
When the emotion control data received from the emotion
Further, when the sensitivity data received from the sensitivity
When the emotion control data received from the emotion
Further, when the sensitivity data received from the sensitivity
[0103]
When the sensitivity data received from the sensitivity
When the sensitivity data received from the sensitivity
When the sensitivity data received from the sensitivity
When the sensitivity data received by the
[0104]
When the sensitivity data received by the
When the sensitivity data received from the sensitivity
When the sensitivity data received from the sensitivity
When the sensitivity data received from the sensitivity
[0105]
When the sensitivity data received from the sensitivity
Further, when the sensitivity data received from the sensitivity
[0106]
Next, an example in which the space environment effect device of the present embodiment is applied to control of simulated weather on a stage will be described.
FIG. 18 is a block diagram schematically showing a stage environment effect device when the
[0107]
FIG. 19 is a table showing the operation of the stage environment effect device, which is the
If the stage
When the stage
If the stage
Further, when the emotion data received from the emotion
[0108]
Further, when the emotion data received from the emotion
Further, when the emotion data received from the emotion
When the stage
When the stage
Further, when the emotion data received from the emotion
[0109]
Also, when the emotion data received from the emotion
Also, when the stage
[0110]
Further, when the stage
Further, when the stage
Further, when the stage
Also, when the stage
[0111]
If the stage
If the stage
[0112]
Next, an example in which the space environment effect device of the present embodiment is applied to control of the flame of a gas burner installed on a stage will be described.
FIG. 20 is a block diagram schematically illustrating a flame effect device when the
[0113]
FIG. 21 is a table showing the operation of the flame effect device that is the
In addition, when the
When the
Further, when the
When the
[0114]
When the
When the
When the
If the emotion data received from the emotion
When the
[0115]
When the
When the
When the
When the
When the
[0116]
When the
When the
Further, when the
Further, when the emotion data received from the emotion
When the
[0117]
When the
In addition, when the emotion data received from the emotion
[0118]
Next, an example in which the space environment effect device of the present embodiment is applied to control of the generation of soap bubbles will be described.
An example of a soap bubble generator that automatically generates soap bubbles is shown in Japanese Utility Model Laid-Open No. 6-83100. Here, the size of the soap bubble generated by the soap bubble generator and the amount of generated soap bubble are controlled based on the calculated sensitivity data.
FIG. 22 is a diagram showing an image of a blowing port of a soap bubble for forming a soapy water film. In this figure,
[0119]
FIG. 23 is a table showing the operation of the soap bubble generator which is the
If the soap bubble generator has received the emotion data “Lv = 4” of “happy” from the sentiment
When the soap bubble generator has received the feeling data “Lv = 5” of “happy” from the feeling
[0120]
When the soap bubble generator has received the emotional data “Lv = 1, 2, 3, 4” of “sad” from the emotional
Further, when the sensitivity data received from the sensitivity
[0121]
Further, when the sensitivity data received from the sensitivity
Further, when the sensitivity data received from the emotion
[0122]
In addition, when the sensitivity data received from the sensitivity
In addition, when the sensitivity data received from the sensitivity
When the soap bubble generator has received the sentiment data “Lv = 4” of “fear” from the sentiment
[0123]
In addition, when the sensitivity data received from the sensitivity
When the soap bubble generator has received the feeling data “Lv = 2” of “pleasure” from the feeling
[0124]
【The invention's effect】
As described above, according to the present invention, the distribution of the sound pressure value for each frequency band is analyzed based on the digital data read from the data storage unit, and based on the analysis result, the emotion type, The emotion data including the emotion level for each emotion type is calculated. Then, the calculated kansei data is output, and the control target device for producing a spatial environment is operated based on the kansei data. Thus, based on the kansei data obtained from the reproduced music, It is possible to provide a space environment effect device capable of effecting a space effect in a manner similar to that of a room.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a space environment effect device to which a feeling data calculation method according to an embodiment is applied.
FIG. 2 is a flowchart illustrating a procedure of processing by an emotion analysis unit 13 according to the embodiment.
FIG. 3 is a schematic diagram showing a data flow in the space environment effect device according to the embodiment;
FIG. 4 is a block diagram schematically illustrating a fountain when a
FIG. 5 is a table showing operations performed by a fountain, which is the
FIG. 6 is a block diagram schematically illustrating an optical art panel when the
FIG. 7 is a table showing an operation of the optical art panel which is the
FIG. 8 is a block diagram schematically showing a smoke effect device when the
FIG. 9 is a table showing the operation of the smoke effect device that is the
FIG. 10 is a block diagram schematically showing a speaker control device for heavy bass when the
FIG. 11 is a table showing an operation of the speaker control device for heavy bass which is the
FIG. 12 is a block diagram schematically illustrating a perfume spraying device when the
FIG. 13 is a table showing an operation of the perfume spraying device which is the
FIG. 14 is a block diagram schematically illustrating a cooling / heating control device when the
FIG. 15 is a table showing an operation of the cooling / heating control device, which is the
FIG. 16 is a block diagram schematically illustrating an air bubble production device when the
FIG. 17 is a table showing an operation of the bubble manufacturing apparatus which is the
FIG. 18 is a block diagram schematically illustrating a stage environment effect device when the
FIG. 19 is a table showing the operation of the stage environment effect device that is the
FIG. 20 is a block diagram schematically illustrating a flame effect device when the
FIG. 21 is a table showing the operation of the flame effect device that is the
FIG. 22 is a view showing an image of a blowing port of a soap bubble for forming a soapy water film according to the present embodiment.
FIG. 23 is a table showing the operation of the soap bubble generator which is the
[Explanation of symbols]
1 Spectrum analysis unit
2 Kansei data storage
3 Kansei data output unit
4 MP3 data storage unit
5 MP3 decoder section
6 D / A converter
7 Device to be controlled
11 Extension
12 Kansei data calculation unit
13 Emotion analysis unit
14 Rhythm analysis unit
Claims (13)
前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する感性データ算出部と、
前記感性データ算出部によって算出された前記感性データを出力する感性データ出力部と、
前記感性データ出力部から受信した前記感性データに基づいて空間の環境を演出する制御対象装置と、
を備える事を特徴とする空間環境演出装置。A data storage unit that stores digital data representing sound as a sound pressure value for each divided frequency band,
Analyzing the distribution of sound pressure values for each of the frequency bands based on the digital data read from the data storage unit, based on the analysis result, the emotion type and the sensitivity including the emotion level for each of the emotion types A sensitivity data calculation unit for calculating data,
A sentiment data output unit that outputs the sentiment data calculated by the sentiment data calculation unit,
A control target device that produces a spatial environment based on the emotion data received from the emotion data output unit,
A space environment staging device characterized by having:
前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の過程と、
前記第1の過程によって算出された前記感性データを出力する第2の過程と、
前記第2の出力した前記感性データに基づいて、空間の環境を演出する第3の過程と、
を備える事を特徴とする空間環境演出方法。A spatial environment effecting method in a space environment effecting device including a data storage unit that stores digital data expressing sound as a sound pressure value for each divided frequency band,
Analyzing the distribution of sound pressure values for each of the frequency bands based on the digital data read from the data storage unit, based on the analysis result, the emotion type and the sensitivity including the emotion level for each of the emotion types A first step of calculating data;
A second step of outputting the sensitivity data calculated in the first step;
A third process of producing a spatial environment based on the second output sensitivity data;
A spatial environment production method characterized by having:
前記コンピュータに、
前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の処理と、
前記第1の過程によって算出された前記感性データを出力する第2の処理と、
前記第2の出力した前記感性データに基づいて、空間の環境を演出する第3の処理と、
を実行させるためのプログラム。A space environment effect program in a computer of a space environment effect device provided with a data storage unit that stores digital data expressing sound as a sound pressure value for each divided frequency band,
To the computer,
Analyzing the distribution of sound pressure values for each of the frequency bands based on the digital data read from the data storage unit, based on the analysis result, the emotion type and the emotion level including the emotion level for each of the emotion types A first process for calculating data;
A second process of outputting the emotion data calculated in the first process;
A third process for producing a spatial environment based on the second output sentiment data;
The program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002175850A JP3702296B2 (en) | 2002-06-17 | 2002-06-17 | Spatial environment rendering device, spatial environment rendering method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002175850A JP3702296B2 (en) | 2002-06-17 | 2002-06-17 | Spatial environment rendering device, spatial environment rendering method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004029051A true JP2004029051A (en) | 2004-01-29 |
JP3702296B2 JP3702296B2 (en) | 2005-10-05 |
Family
ID=31174389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002175850A Expired - Fee Related JP3702296B2 (en) | 2002-06-17 | 2002-06-17 | Spatial environment rendering device, spatial environment rendering method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3702296B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074407A (en) * | 2004-09-01 | 2006-03-16 | Pioneer Electronic Corp | Transmission means generation device and transmission means generation method |
JP2008543011A (en) * | 2005-06-01 | 2008-11-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Atmospheric device with user interface for light and fragrance control |
KR101177625B1 (en) * | 2010-07-01 | 2012-08-28 | 주식회사 포스코아이씨티 | Emotion Illumination System Using Voice Analysis |
WO2016123007A1 (en) * | 2015-01-26 | 2016-08-04 | Eventide Inc. | Lighting systems and methods |
JP7357443B2 (en) | 2018-07-11 | 2023-10-06 | 岩谷産業株式会社 | Hydrogen combustion equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08243452A (en) * | 1995-03-07 | 1996-09-24 | Kurita Water Ind Ltd | Music-synchronized fountain device |
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JPH11252671A (en) * | 1998-03-04 | 1999-09-17 | Victor Co Of Japan Ltd | Illumination display in audio equipment |
JP2001306580A (en) * | 2000-04-27 | 2001-11-02 | Matsushita Electric Ind Co Ltd | Music database retrieving device |
JP2002366173A (en) * | 2001-06-05 | 2002-12-20 | Open Interface Inc | Method and device for sensitivity data calculation |
-
2002
- 2002-06-17 JP JP2002175850A patent/JP3702296B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08243452A (en) * | 1995-03-07 | 1996-09-24 | Kurita Water Ind Ltd | Music-synchronized fountain device |
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JPH11252671A (en) * | 1998-03-04 | 1999-09-17 | Victor Co Of Japan Ltd | Illumination display in audio equipment |
JP2001306580A (en) * | 2000-04-27 | 2001-11-02 | Matsushita Electric Ind Co Ltd | Music database retrieving device |
JP2002366173A (en) * | 2001-06-05 | 2002-12-20 | Open Interface Inc | Method and device for sensitivity data calculation |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074407A (en) * | 2004-09-01 | 2006-03-16 | Pioneer Electronic Corp | Transmission means generation device and transmission means generation method |
JP2008543011A (en) * | 2005-06-01 | 2008-11-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Atmospheric device with user interface for light and fragrance control |
KR101177625B1 (en) * | 2010-07-01 | 2012-08-28 | 주식회사 포스코아이씨티 | Emotion Illumination System Using Voice Analysis |
WO2016123007A1 (en) * | 2015-01-26 | 2016-08-04 | Eventide Inc. | Lighting systems and methods |
JP2018507525A (en) * | 2015-01-26 | 2018-03-15 | イーブンタイド・インコーポレイテッド | Illumination system and illumination method |
JP7357443B2 (en) | 2018-07-11 | 2023-10-06 | 岩谷産業株式会社 | Hydrogen combustion equipment |
Also Published As
Publication number | Publication date |
---|---|
JP3702296B2 (en) | 2005-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011521412A (en) | Stochastic dynamic atmosphere | |
JP2010508626A (en) | Lighting control according to audio signal | |
US7470855B2 (en) | Tone control apparatus and method | |
JP2016518180A (en) | Music washing machine and control method | |
JP3560936B2 (en) | KANSEI data calculation method and KANSEI data calculation device | |
JP3702296B2 (en) | Spatial environment rendering device, spatial environment rendering method, and program thereof | |
US7220906B2 (en) | String-instrument type electronic musical instrument | |
ITBO20010255A1 (en) | METHOD FOR THE ELECTRONIC REPRODUCTION OF THE SOUND OF AN ACCORDION | |
JP2820205B2 (en) | Music synthesizer | |
JP4135004B2 (en) | Karaoke equipment | |
JP3702297B2 (en) | Robot control apparatus, robot control method, and program thereof | |
CN105976801A (en) | Pure music automatic generation method based on user's real-time action input | |
JP2004029862A (en) | Moving image producing apparatus, moving image producing method and program therefor | |
CN103943098A (en) | DoMiSo symphony instrument | |
US5541356A (en) | Electronic musical tone controller with fuzzy processing | |
JP3656519B2 (en) | Performance data creation apparatus and recording medium with facial expressions | |
Matthews | Adapting and applying central Javanese gamelan music theory in electroacoustic composition and performance | |
JP2006267639A (en) | Musical sound generating apparatus | |
TWM531033U (en) | Real-time composer and playback apparatus | |
Perez et al. | Towards realistic and natural synthesis of musical performances: Performer, instrument and sound modeling | |
Woloshyn | Onomatopoeias and Robert Normandeau’s sonic world of Baobabs: transformation, adaptation, and evocation | |
Cheng | Interactive audio-visual performance system controlled by smartphone based on arm movements | |
JPH027097A (en) | Automatic accompaniment device | |
JP3978277B2 (en) | Automatic accompaniment device | |
US1027922A (en) | Stage-setting for theaters. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050419 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050506 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050506 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080729 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090729 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |