JP3566646B2 - Music communication device - Google Patents
Music communication device Download PDFInfo
- Publication number
- JP3566646B2 JP3566646B2 JP2000332156A JP2000332156A JP3566646B2 JP 3566646 B2 JP3566646 B2 JP 3566646B2 JP 2000332156 A JP2000332156 A JP 2000332156A JP 2000332156 A JP2000332156 A JP 2000332156A JP 3566646 B2 JP3566646 B2 JP 3566646B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- sensor
- sensors
- sound
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【産業上の利用分野】
この発明は音楽コミュニケーション装置に関し、特にたとえば幼児あるいは高齢者の遊戯具に適用される、音楽コミュニケーション装置に関する。
【0002】
【従来の技術】
従来、この種の音楽コミュニケーション装置は存在しなかった。類似する従来技術として、人間の形を模した人形や動物などのキャラクタに置き換えたぬいぐるみの特定の部位を触ったり動かしたりすると、音声や音楽が出力されたり、特定の部位が一定の動きをしたりするような玩具があった。
【0003】
【発明が解決しようとする課題】
しかし、このような従来技術では、人形やぬいぐるみの特定の部位を触ったり動かしたりすると、予め記録された固定の音声(あいさつなどのメッセージ)や固定の音楽が出力されたり、特定の部位が一定の動きを繰り返したりしていただけなので、遊戯性に欠けるという問題があった。このため、幼児はすぐに飽きてしまっていた。
【0004】
それゆえに、この発明の主たる目的は、遊戯性に優れる、新規な音楽コミュニケーション装置を提供することである。
【0005】
【課題を解決するための手段】
この発明は、ユーザの表現を検知する複数のセンサを備え、複数のセンサからの入力によって複数の音楽的要素を制御する音楽コミュニケーション装置であって、複数のセンサの検知結果に応じて決まる複数のインタラクション状態レベルのそれぞれ毎に複数の音楽要素に対する各センサの役割を予め設定する役割設定手段を備え、少なくとも1つのセンサの役割がインタラクション状態レベル毎に異なるようにされ、さらに、複数のセンサの検知結果に応じて複数のインタラクション状態レベルのいずれかを設定する状態設定手段、および状態設定手段によって設定されたインタラクション状態レベルでのセンサの役割に従って複数のセンサからの入力に応じて音楽的要素が制御された音を出力する出力手段を備える、音楽コミュニケーション装置である。
【0006】
【作用】
この発明の音楽コミュニケーション装置では、ユーザの表現すなわち行為、ふるまいあるいは音声を検知するための複数のセンサ( 実施例で相当する部分は 14-54 である。以下、同様。 )が設けられる。役割設定手段 (66, 66b) が、たとえばROMのようなメモリに、各センサの検知結果に応じて決まるインタラクション状態レベルと、各状態レベルにおける複数のセンサの役割とを予め設定しておき、状態設定手段 (62, S1, S11, S25, S39, S51) が複数のセンサの検知結果に応じていずれかのインタラクション状態レベルを設定する。出力手段(62, 66, 66a, S9, S23, S37, S49, S61, 24)がその設定されたインタラクション状態レベルでのセンサからの入力に応じた音を出力する。つまり、ユーザの表現に対して音声、和音のような音あるいは音楽などを出力することによって反応し、コミュニケーションすることができる。
【0008】
また、所定の段階に分けられた相互作用状態(インタラクション状態)を所定の段階(レベル)に設定し、センサからの入力すなわち検知結果に応じてインタラクション状態のレベルを維持または遷移し、インタラクション状態のレベルが遷移されたときに、役割を変更するようにすればよい。
【0009】
さらに、音変更手段が、センサからの入力すなわち検知結果に応じて音楽的要素(たとえば、音階、コード、リズム、メロディなど)を変更するので、単なる音声だけでなく、或る音階に沿った音、和音あるいは音楽を出力することができ、また音量を調整することができる。つまり、ユーザの表現すなわち接し方によっては、音楽が奏でられるような楽しいコミュニケーションを図ることができる。
【0010】
具体的には、音階変更手段がセンサからの入力に応じて音階を変更し、コード変更手段がセンサからの入力に応じてコードを変更する。また、リズム変更手段がセンサからの入力に応じてリズムを変更し、メロディ変更手段がセンサからの入力に応じてメロディを変更する。このような音楽的要素は、個別に変更されてもよく、また複合的に変更されてもよい。
【0011】
たとえば、このような音楽コミュニケーション装置は複数のセンサが所定の部位に配置されるぬいぐるみを本体とし、複数のセンサのそれぞれは、ぬいぐるみを通してユーザの表現を検知している。つまり、ユーザは、ぬいぐるみのキャラクタとコミュニケーションしているように感じることができる。
【0012】
【発明の効果】
この発明によれば、複数のセンサからの入力に応じた音が出力され、またユーザの表現によってセンサの役割が変更されるので、ユーザがすぐに飽きてしまうようなことがない。すなわち、遊戯性が高い。
【0013】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0014】
【実施例】
図1(A)を参照して、この実施例の音楽コミュニケーション装置10はぬいぐるみ12を含み、ぬいぐるみ12は動物あるいはキャラクタを模した形状に形成される。ただし、この実施例では、ぬいぐるみ12は、たとえば熊を模した形状であり、頭部12a、耳部12b、鼻部12c、口部12d、胴体部12e、尻尾部12f、左腕部12g、右腕部12h、左脚部12iおよび右脚部12j等を有している。このような各部位(12a〜12j)のそれぞれには、後述する複数のセンサが設けられる(内蔵される)。
【0015】
なお、図1(A)および図1(B)においては、分かり易くするため、各センサはぬいぐるみ12の表面(外側)に示してあり、また一部のセンサは省略してある。
【0016】
具体的に説明すると、ぬいぐるみ12の頭部12aには、ぬいぐるみ12の表皮の内面に接するように配置された頭部タッチセンサ14が設けられる。この頭部タッチセンサ14には、少なくとも接触したかどうかおよび連続的な力の変化(押圧力)を検知できるピエゾ式の圧力センサが適用される。また、頭部12aに連続して設けられた耳部12bには、オーディオセンサとしてのマイク16が設けられる。さらに、鼻部12cには、イメージセンサとしてのCCDカメラ(以下、この実施例において、単に「カメラ」という。)18および赤外線センサのような頭部近接センサ20が設けられる。
【0017】
ただし、赤外線センサの出力は通常オンであり、人物や物等を検知した場合に、出力が停止される。
【0018】
そして、鼻部12cの下方に配置される口部12dには、上述の頭部タッチセンサ14と同じ圧力センサからなる口部タッチセンサ22が設けられる。また、同様に、口部12dには、音階の一音(ド、レ、ミ、ファ、…)あるいは音階に沿っていない一音(♯や♭つきの音)、異なる音階に沿ってフィルタをかけた人の声、和音あるいは音楽のような音を出力するためのスピーカ24が設けられる。このスピーカ24もまた、図1(A)で分かり易く説明するため、ぬいぐるみ12の表面に示してあるが、実際にはぬいぐるみ12の内部に設けられる。
【0019】
ただし、カメラ18は、レンズ(図示せず)がぬいぐるみ12から露出するように配置される。また、頭部近接センサ20も同様に、図示は省略するが、赤外線センサの検知部(発光部/受光部)がぬいぐるみ12から露出するように配置される。
【0020】
また、胴体部12eには、上述の頭部タッチセンサ14と同じ構成の腹部タッチセンサ26、ジャイロ(加速度計)28および内部温度センサ30が設けられる。図1(B)から分かるように、胴体部12eにはまた、上述した頭部タッチセンサ14と同じ背部タッチセンサ32および上述した頭部近接センサ20と同じ赤外線センサから構成された背部近接センサ34が設けられる。また、胴体部12eに含まれる尻部には、頭部近接センサ16と同じ尻部近接センサ36が設けられる。
【0021】
ただし、背部近接センサ34および尻部近接センサ36は、赤外線センサの検知部がぬいぐるみ12から露出するように配置される。
【0022】
さらに、胴体部12eに連続的に設けられる尻尾部12fには、外部温度センサ38が設けられる。この外部温度センサ38は、少なくとも温度検出部(図示せず)が尻尾部12fから露出するように配置される。また、図1(A)および図1(B)に示すように、左腕部12g、右腕部12h、左脚部12iおよび右脚部12jには、各部位(12g〜12j)が曲がっているかどうかおよび曲がり角度を検知できるピエゾ式のベンドを用いた左腕ベンド40、右腕ベンド42、左脚ベンド44および右脚ベンド46のそれぞれが設けられる。
【0023】
ただし、図1(A)および図1(B)からよく分かるように、各ベンド(40〜46)は、その一方端が胴体部12eまで延びて設けられる。
【0024】
また、図1(A)に示すように、左腕部12g、右腕部12h、左脚部12iおよび右脚部12jには、上述した圧力センサからなる左腕タッチセンサ48、右腕タッチセンサ50、左脚タッチセンサ52および右脚タッチセンサ54のそれぞれが設けられる。
【0025】
この音楽コミュニケーション装置10の電気的な構成は、図2のように示される。つまり、音楽コミュニケーション装置10はコンピュータ60を含み、コンピュータ60には上述したような各センサ(14〜22、26〜54)およびスピーカ22が接続される。
【0026】
また、コンピュータ60はCPU62を含み、CPU62は内部バス64を介してROM66、RAM68、カウンタ70およびタイマ72のそれぞれに接続される。
【0027】
なお、図2では省略するが、各センサ(マイク16およびカメラ18を除く。)はA/D変換器およびインターフェイスを介して内部バス64に接続される。また、図示は省略するが、マイク16はアンプ、A/D変換器およびインターフェイスを介して内部バス64に接続される。さらに、図示は省略するが、カメラ18はインターフェイスを介して内部バス64に接続される。さらにまた、図示は省略するが、スピーカ24は、アンプ、D/A変換器およびインターフェイスを介して内部バス64に接続される。
【0028】
ROM66にはメモリエリア66a〜66cが含まれており、メモリエリア66aには、ぬいぐるみ12(音楽コミュニケーション装置10)の相互作用状態(インタラクション状態)のレベルを維持または遷移させるとともに、それぞれのレベルで各センサからの入力に応じた音を生成するためのプログラムが記憶されている。
【0029】
なお、音を生成するためのプログラム(アプリケーションソフト)としては、マックOSで動くオプトコード社製の「MAX/MSP」(商品名)を用いることができる。
【0030】
また、メモリエリア66bには、インタラクション状態のレベルに応じた各センサの役割についてのマッピング(配置)が記憶される。このマッピングについては、後で詳細に説明する。
【0031】
さらに、メモリエリア66cには、予め収録しておいた人の声(音声)に対応する音声信号に対応するデータが記憶されている。
【0032】
ただし、この実施例では、音声信号は、異なる音程(音高N1、音高N2)にそってフィルタをかけられるため、異なる音程の音声信号が同時にスピーカ24から出力される。したがって、音高N1および音高N2のそれぞれを制御することによって、高音から低音までの幅で高い声や低い声を演出することができる。
【0033】
たとえば、この実施例では、インタラクション状態はレベル0〜レベル4の間で設定(遷移)され、レベル0〜レベル4のそれぞれに応じて各センサの役割が変更される。つまり、上述したメモリエリア66bには、図3〜図5に示すような各センサについての役割の配置が記憶される。
【0034】
具体的には、インタラクション状態がレベル0の場合には、図3の左欄に示すように、各センサの役割が決定される。ただし、横棒を引いている欄については、制御がないことを意味している。以下、この実施例において同じである。
【0035】
レベル0では、ぬいぐるみ12(音楽コミュニケーション装置10)は、単純な、加工を施していない呼吸音を出力し、注意(興味)を引かれた時に呼吸を止める。このような呼吸音のタイミング制御すなわち呼吸音の出力/停止がマイク16、カメラ18および頭部近接センサ20からの入力に応じて実行される。
【0036】
たとえば、ぬいぐるみ12(スピーカ24)から常に呼吸音が出力されており、ぬいぐるみ12(音楽コミュニケーション12)が興味を引かれた場合に、この実施例では、人物(ユーザ)が近づいた場合に、呼吸音が停止される。つまり、マイク16は常に能動化されており、CPU62はマイク16を介して入力される音声信号の信号レベル(音量)や音高(音楽でいう音符の音の高さ)の変化を検出し、信号レベルや周波数が変化した場合に、人が近づいたと判断する。つまり、人の声がした場合や扉を開閉するなどの物音がした場合に、人が近づいたと判断することができる。
【0037】
なお、音声信号の周波数を解析して、人の声を判断し、人の声である場合にのみ、人が近づいたと判断するようにしてもよい。
【0038】
また、カメラ18は常に能動化されており、CPU62はカメラ18を介して入力される映像信号から輝度レベルの変化を検出し、輝度レベルが変化した場合に、人が近づいたと判断する。このように、人が近づいたと判断できる具体例としては、ユーザが自身の顔や他の部位をぬいぐるみ12に接近あるいは接触した場合やぬいぐるみ12を置いている部屋の照明装置を明滅させた場合などが考えられる。
【0039】
さらに、頭部近接センサ20は、ユーザが自身の顔や他の部位をぬいぐるみ12の頭部12a、特に鼻部12cに接近あるいは接触した場合に検出信号を出力する。したがって、CPU62はこれに応じて人が近づいたと判断する。
【0040】
また、全体のテンポすなわちレベル0における呼吸音のテンポは、内部温度センサ30および外部温度センサ38からの入力に応じて換えられる。たとえば、CPU62は、内部温度センサ30および外部温度センサ38で検出されるぬいぐるみ12内部の温度と外部の温度との差分を検出し、差分が小さい場合には、呼吸音を出力するテンポを遅くし、逆に差分が大きい場合には、呼吸音を出力するテンポを速くすることができる。たとえば、テンポ(速さ)を所定の範囲に決定しておけば、温度の差分に応じて連続的な速度変化でテンポを変更することができる。
【0041】
なお、全体のテンポが変化した場合には、呼吸音、リズムの音、メロディ、コード(和音)の進行およびキー(音階の種類)の変化についてのテンポが変更される。また、上述したように、呼吸音を出力するテンポが変更されるが、呼吸音以外については適宜詳細に説明することとし、ここでは詳細な説明は省略する。
【0042】
次に、インタラクション状態がレベル1の場合には、ぬいぐるみ12(音声コミュニケーション装置10)は、予めROM66のメモリエリア66cに記憶しておいた音声信号をスピーカ22から出力し、ぬいぐるみ12を触ったり、ユーザがぬいぐるみ12に話しかけたりするなどのユーザの表現に対して返答(返事)する。そして、ユーザがぬいぐるみ12を触る時間が長くなるにつれて、返事の間隔を短くし、人が接触した部位のセンサからの入力回数が増えるにつれて次第に同期していく。つまり、ユーザがぬいぐるみ12に触れる回数が増えると、次第に返事の声をするまでの時間が短くなる。
【0043】
ただし、レベル1では、役割が配置されていないセンサからの入力があった場合には、その入力回数をカウンタ70でカウントするだけであり、出力する音の制御(変更)には利用されない。後述する、レベル2およびレベル3についても同様である。
【0044】
具体的には、各センサの役割が図3の右欄のように示され、各センサからの入力に応じて、会話(返事)速度、応答速度(返事をするまでの時間)および音量などを制御している。たとえば、カウンタ70によって、各センサからの入力回数がカウントされ、CPU62は、カウンタ70のカウント値が増加するに従ってスピーカ24から出力する音声信号の音量を大きくする。つまり、ユーザがぬいぐるみ12に触れる回数が増加すると、ぬいぐるみ12からの返事の声が大きくなる。
【0045】
また、左腕ベンド40からの入力があると、CPU62は、音声信号の音高N1を変更する。具体的には、左腕部12gの曲がり角度が大きくなるにつれて音高N1が大きくされ、逆に左腕部12gの曲がり角度が小さくなるにつれて音高N1が小さくされる。ただし、左腕部12gの上げ下げで音高N1を大きくしたり、小さくしたりすることもできる。
【0046】
さらに、右腕ベンド42からの入力があると、CPU62は、音声信号の音高N2を変更する。つまり、ユーザがぬいぐるみ12の右腕部12jを曲げるとその曲がり角度に応じて音高N2の大きさが変化する。音高N2の大きさの変化については、ユーザがぬいぐるみ12に左腕部12gを曲げた場合と同じであるため、重複した説明は省略する。
【0047】
つまり、ぬいぐるみ12が返事をする声を低い声から高い声の間で連続的に変化させることができる。なお、低い声と高い声とは音声信号をフィルタにかけるときの音高N1および音高N2によって決定される。
【0048】
そして、口部タッチセンサ22から入力があると、CPU62は、会話速度を速くする。つまり、ユーザがぬいぐるみ12に口部12dを触る(撫でる)と、ぬいぐるみ12が速くしゃべるようになる。
【0049】
また、少なくとも1つのセンサから入力があると、CPU62は、音声信号の出力タイミングすなわち出力のオン/オフを制御する。具体的には、ユーザがぬいぐるみ12に対して表現を示している間、すなわちぬいぐるみ12を触ったり、ぬいぐるみ12に声をかけたりしている間では、音声信号が出力される。一方、ユーザがぬいぐるみ12に対する表現を止めると、音声信号の出力が停止される。
【0050】
さらに、タイマ72によって、レベル1が設定されてから現時点までの時間(期間)がカウント(計測)され、CPU62は、タイマ72のタイマ値に従って遅延時間(応答速度)すなわち返事をするまでの時間や返事を止めるまでの時間を変更する。たとえば、タイマ値が大きくなるにつれて、応答速度が速くなるようにし、ユーザの入力に対して次第に同期(シンクロ)するようにすることができる。つまり、この遅延時間によって、上述した音声信号の出力をオン/オフする応答時間が規定される。
【0051】
このようにして、インタラクション状態とセンサの入力との両方によって、ぬいぐるみ12(音楽コミュニケーション装置10)のリアクションすなわち出力する音を生み出している。
【0052】
続いて、インタラクション状態がレベル2の場合には、ぬいぐるみ12(音声コミュニケーション10)は、レベル0における呼吸を和音にそった音高でフィルタをかけて出力する。また、レベル1における音声を音階にそった音高で出力する。そして、返事を次第に同期させて、さらに音楽を想起させる音を出力するとともに、その音のテンポや他の音楽的要素を変更する。
【0053】
具体的には、図4の左欄に示すように、各センサの役割が配置され、各センサからの入力に応じて、CPU62は、全体的なテンポ、音声および呼吸音の各要素を変更する。
【0054】
左腕ベンド40、右腕ベンド42、左脚ベンド44あるいは右脚ベンド46のいずれかから1秒毎の周期で入力があれば、全体のテンポが変更される。つまり、そのような入力が連続するにつれて、テンポが速くなる。つまり、ユーザがぬいぐるみ12の左腕部12g、右腕部12h、左足部12iあるいは右足部12jのいずれか1つあるいは2つの部位を掴んで、1秒周期で動かすと、次第に音声および呼吸音の出力間隔が短くされる。
【0055】
なお、1秒毎に入力があるかどうかは、左腕ベンド40、右腕ベンド42、左脚ベンド44および右腕ベンド46の出力を検出するとともに、タイマ72のタイマ値を検出することによって知ることができる。
【0056】
音声については、上述したように、レベル1の場合とほぼ同じであるため、重複した説明は省略する。つまり、音声の遅延時間は、テンポによって決定される点が、レベル1とは異なる。具体的には、テンポが速ければ、ユーザの表現に対して速く返事をし、テンポが遅ければ、ユーザの表現に対して少し遅れて返事をする。
【0057】
また、呼吸音については、CPU62は、左脚ベンド44および右脚ベンド46からの入力の平均値を算出し、平均値の大きさに応じて呼吸音の音量を調整する。つまり、ユーザがぬいぐるみ12の左脚部12iおよび右脚部12jを掴んで、それぞれが交差するように動かすとき、左脚部12iと右脚部12jとがなす角度の大きさで音量が変更される。つまり、角度が大きければ、音量が大きくされ、角度が小さければ、音量が小さくされる。さらに、左脚部12iおよび右脚部12jを動かす周期が1秒であれば、上述したように、呼吸音の出力間隔が短くされる。
【0058】
また、入力されたセンサの数をカウンタ70でカウントし、CPU62は、カウンタ70のカウント値に応じて音響が調整される。たとえば、閾値となるカウント値を予め設定しておき、カウンタ70のカウント値が設定した閾値を下回っている間はモノラルで呼吸音を出力し、カウンタ70のカウント値が閾値以上になると、ステレオの呼吸音を出力するようにすることができる。
【0059】
さらに、左腕タッチセンサ48および右腕タッチセンサ50の両方から入力があれば、つまりユーザがぬいぐるみ12の両腕を掴むと、CPU62は、ハーモニが構築された呼吸音をスピーカ24から出力する。また、左腕タッチセンサ48および右腕タッチセンサ50の両方から入力がある毎に、つまりユーザがぬいぐるみ12の両腕を掴んだり、離したりする毎に、異なるハーモニを構築することもできる。ただし、頭部近接センサ20から入力があれば、つまりユーザがぬいぐるみ12の両腕を掴んで、ユーザの顔や胴体をぬいぐるみ12の鼻部12cに近づけた場合には、構築されたハーモニが保持(固定)される。
【0060】
また、インタラクション状態がレベル3の場合には、ぬいぐるみ12(音声コミュニケーション装置10)は音楽的な操作を制御する。具体的には、各センサの役割配置は、図4の右欄のように示され、各センサからの入力に応じて、主として音楽的要素(音階、コード、メロディおよびリズムなど)が変更される。
【0061】
ただし、この実施例では、コード(和音)の種類は6種類である。また、音階の種類は、ハ長調、ニ長調、ホ長調、…、変ホ長調、変ト長調の12種類である。さらに、リズムの種類は4種類である。
【0062】
全体としては、CPU62は、いずれかの(任意の)センサからリズミカル(規則的)な入力を検知すると、テンポを変更する。つまり、ユーザがぬいぐるみ12を掴んで、ぬいぐるみ12自体をリズミカルに動かしたり、ぬいぐるみ12の一部の部位をリズミカルに動かしたり、また触ったりすると、全体のテンポが速くなる。ただし、テンポが速くなった後に、不規則な入力があれば、次第にテンポが遅くなる。また、入力がなくなると、テンポが一定の速さに固定(保持)される。
【0063】
ただし、CPU62は、ぬいぐるみ12自体をリズミカルに動かしたことは、ジャイロ28からの入力を検出することによって判断できる。
【0064】
また、左脚ベンド44からの入力があれば、CPU62は、スピーカ24から出力する音の音量を大きくする。一方、右脚ベンド46からの入力があれば、CPU62は、スピーカ24から出力する音の音量を小さくする。つまり、ユーザがぬいぐるみ12の左脚部12iおよび右脚部12jを曲げると、音量が大きくされたり、小さくされたりする。
【0065】
さらに、右腕ベンド42からの入力があれば、CPU62は、スピーカから出力される音のコードを変更する。上述したように、この実施例では、6種類のコードが用意されており、右腕ベンド42からの入力がある毎に、すなわちユーザがぬいぐるみ12の右腕部12hを曲げ延ばししたり、上げ下げしたりする毎に、コードの種類が更新される。
【0066】
このとき、コードは、上述したテンポに応じて更新速度を変更される。具体的には、右腕ベンド42からの入力があると、テンポで規定される速さで、コード(I) からコード(II)に更新される。つまり、テンポが速ければ、右腕ベンド42からの入力があると、すぐにコードの種類が更新されるが、テンポが遅ければ、入力から少し遅れてコードの種類が更新される。
【0067】
なお、テンポが速い場合には、右腕ベンド42からの入力があると、コード(I) からコード(III)のように間のコード(II)を飛ばして更新することもできる。
【0068】
また、右腕部12hを曲げる角度の大きさや右腕部12hを上げる角度の大きさでコードの種類を更新するようにすることもできる。
【0069】
また、頭部タッチセンサ14からの入力がたとえば1秒以上継続すれば、CPU62は、スピーカ24から出力する音のキー(音階)の種類を変更する。上述したように、この実施例では、12種類のキーを用いて、入力がある毎にキーが高くされる。つまり、ユーザがぬいぐるみ12の頭部12aを1秒以上触り続けると、または撫でると、キーがハ長調からニ長調に変更される。そして、頭部12aを触るのを止めると、ニ長調でキーが固定される。さらに、頭部12aを1秒以上触ると、キーがニ長調からホ長調に変更される。
【0070】
ただし、キーが変更される速さは、上述のテンポで規定され、頭部タッチセンサ14から1秒以上の入力があると、テンポが速い場合には、すぐにキーが変更され、テンポが遅い場合には、1秒以上の入力から少し遅れてキーが変更される。
【0071】
なお、テンポが速い場合には、キーがハ長調からホ長調のように間のニ長調を飛ばしてキーを変更することもできる。
【0072】
また、所定のキーが決定されると、音声や呼吸音はそのキーに沿って出力される。つまり、音声や呼吸音がそのキーの音を出力するようにフィルタリングされる。
【0073】
また、音声については、レベル1で示した場合とほぼ同じであるため、重複した説明は省略する。つまり、音高N1の変更が異なる点である。具体的には、レベル3が設定されてから30秒が経過するまでは、左腕タッチセンサ48が有効にされ、左腕タッチセンサ48からの入力があると、CPU62は、音声の音高N1を変更する。つまり、ユーザが左腕部12gを触っている時間が長くなるにつれて、音量が大きくされる。また、レベル3が設定されてから30秒が経過すると、左腕ベンド40が有効にされ、左腕ベンド40からの入力があると、CPU62は、後述するように、メロディ音の音高を変更する。
【0074】
呼吸音については、左腕タッチセンサ48からの入力があると、つまりユーザがぬいぐるみ12の左腕部12gを触ったり、掴んだりすると、CPU62は、呼吸音の音量を変更する。たとえば、左腕タッチセンサ48から継続して入力がある場合に音量を大きくしたり、左腕タッチセンサ48から入力される圧力の大きさが大きくなるにつれて音量を大きくしたりすることができる。逆に、左腕タッチセンサ48から入力される圧力の大きさが小さくなると、音量を小さくすることもできる。
【0075】
また、腹部タッチセンサ26からの入力あるいは左脚ベンド44および右脚ベンド46からの入力があると、CPU62は、呼吸音の音響を変更する。たとえば、ユーザがぬいぐるみ12の腹部を触ったり、撫でたりすると、腹部タッチセンサ26から入力があり、その入力がある毎に、呼吸音をモノラルからステレオにあるいはステレオからモノラルに変更することができる。また、ユーザがぬいぐるみ12の左脚部12iおよび右脚12jを曲げ延ばししたり、上げ下げしたりすると、左脚ベンド44および右脚ベンド46から入力があり、それらの入力の平均値を算出し、平均値が予め設定してある閾値を超えるかどうかでモノラルとステレオとを切り換える(変更する)こともできる。
【0076】
このように、センサの種類に応じた音響の変更を実行することができる。ただし、センサの種類すなわち左脚ベンド44および右脚ベンド46の別に拘わらず音響を変更することもできる。たとえば、腹部タッチセンサ26からの入力に応じて、モノラルからステレオに変更した後に、左脚ベンド44および右脚ベンド46からの入力に応じて、ステレオからモノラルに変更することもできる。逆に、左脚ベンド44および右脚ベンド46からの入力に応じて、モノラルからステレオに変更した後に、腹部タッチセンサ46からの入力に応じて、ステレオからモノラルに変更することもできる。
【0077】
さらに、背部タッチセンサ32からの入力があると、CPU62は、ハーモニを構築する。たとえば、ユーザがぬいぐるみ12の背中を触ったり、摩ったりすると、スピーカ24から出力される音にハーモニが構築される。
【0078】
メロディについては、左腕ベンド40からの入力があると、CPU62は、メロディの音高を変更する。たとえば、ユーザがぬいぐるみ12の左腕部12gを曲げると、メロディ音が高くされ、左腕部12gを延ばすとメロディ音が低くされる。ただし、曲げる角度に応じて連続的に音高は変更される。
【0079】
なお、ユーザが左腕部12gを上げたり下げたりしても、その上げ下げの角度で音高を連続的に変化させることもできる。
【0080】
また、頭部近接センサ20からの入力があると、つまりユーザがぬいぐるみ12にユーザの顔や胴体を近づけると、CPU62は、上述したメロディの音高を固定(保持)される。
【0081】
さらに、右腕タッチセンサ50からの入力があると、CPU62は、メロディ音の音量が変更される。たとえば、ユーザがぬいぐるみ12の右腕部12hを触る毎にメロディ音の音量が大きくされたり、右腕部12hを触る時間が長くなるにつれて、メロディ音の音量が大きくされたりする。
【0082】
ただし、右腕部12hを握る力に応じて音量を上げ下げすることができる。つまり、CPU62は、右腕タッチセンサ50から入力される圧力の大きさを検出し、圧力が大きくなると、音量を上げ、圧力が小さくなると、音量を下げる。
【0083】
さらに、リズムについては、上述の全体についてのテンポと同様に、いずれかのセンサからリズミカルな入力があると、CPU62は、予め用意してある4種類のリズムを変更する。たとえば、ユーザがぬいぐるみ12を触ったり、撫でたり、掴んだり、上げ下げしたりして、任意のセンサからリズミカルな入力があると、音がリズム(I) にそってスピーカ24から出力される。さらに、リズミカルな入力があると、音がリズム(II)にそってスピーカ24から出力される。
【0084】
このようなリズムの変更の速度は、全体のテンポで規定され、テンポが速ければ、リズミカルな入力があると、すぐにリズムが変更されるが、テンポが遅ければ、リズミカルな入力から遅れてリズムが変更される。
【0085】
なお、テンポが速い場合には、リズミカルな入力があると、リズム(I) からリズム(III)のように間のリズム(II)を飛ばして変更することもできる。
【0086】
つまり、インタラクション状態がレベル3の場合には、ユーザの表現に従って、音楽的な要素が操作(制御)され、単なる人の声による返事(音声)や呼吸音から和音のような音に変化され、さらにリズムやメロディに沿った音楽が奏でられるようになる。つまり、ユーザは、ぬいぐるみ12と楽しいコミュニケーションを図ることができる。
【0087】
さらに、インタラクション状態がレベル4では、単純にリズムと和音(もとは呼吸音)の音量バランスを調整し、ぬいぐるみ12(音楽コミュニケーション装置10)が暴走状態(制御不能状態)にされる。つまり、キーやコードがめちゃくちゃ(でたらめ)に変化し、不協和音のような不快な音が出力される。ただし、ユーザがぬいぐるみ12をなだめると、インタラクション状態がレベル3に戻り、制御可能となる。
【0088】
具体的には、図5に示すように、各センサの役割が配置される。なお、図中に×が示されている欄は、制御と無関係であることを示してある。
【0089】
全体については、CPU62は、各センサから入力に拘わらず、予めプログラミングされた所定のアルゴリズムに従ってランダムにキーの種類を変更する。
【0090】
また、呼吸音については、左腕タッチセンサ48からの入力があると、CPU62は、音量を変更する。たとえば、ユーザが左腕部12gを触ると、音量が大きくされる。ただし、レベル4では暴走状態であるため、左腕タッチセンサ48からの入力がない場合に、音量を増大させ、左腕タッチセンサ48からの入力があると、音量を小さくするようにしてもよい。
【0091】
また、上述したキーの種類の変更と同様に、CPU62は、各センサからの入力に拘わらず、予めプログラミングされた所定のアルゴリズムに従ってランダムにハーモニを構築する。たとえば、不協和音のような不快な音を出力することができる。
【0092】
さらに、リズムについては、右腕タッチセンサ50からの入力があると、CPU62は、リズムの音量を大きくする。ただし、レベル4では、暴走状態であるため、右腕タッチセンサ50からの入力がない場合に、リズムの音量を増大させ、右腕タッチセンサ50からの入力があると、リズムの音量を下げるようにすることもできる。
【0093】
ただし、このようにレベル4が設定され、暴走状態(発狂状態)になった場合には、ユーザがぬいぐるみ12をなだめたり、あやしたりすることにより、レベル3に戻すことができる。また、このように暴走状態になった場合には、ぬいぐるみ12を放置しておけば、所定時間(この実施例では、10秒)が経過したときに、初期の状態(レベル0)に戻すこともできる。
【0094】
上述したインタラクション状態のレベルは、ユーザがぬいぐるみ12にどのように接するかによって維持または遷移され、またそれぞれのレベルで決定されるセンサの役割配置でユーザの表現すなわち各センサからの入力に応じた音が出力される。
【0095】
具体的には、図2で示したCPU62は、図6〜図8に示すフロー図に従って処理する。ただし、CPU62は、音楽コミュニケーション装置10の主電源がオンにされると、ROM66のメモリエリア66aに記憶されたプログラムをRAM68のワーキングエリア68aにロードし、メモリエリア66bに記憶されたセンサの役割配置をワーキングエリア68bにロードし、そして、メモリエリア66cに記憶された音声信号に対応するデータをワーキングエリア68cにロードして、以下に示す処理を実行する。
【0096】
図6に示すように、CPU62は処理を開始すると、まず、ステップS1でインタラクション状態をレベル0に設定する。つまり、図3の左欄で示したようなセンサの役割を配置する。次に、ステップS3では、各センサからの入力をチェックする。
【0097】
続いて、ステップS5では、各センサからの入力があるかどうかを判断する。ステップS5で“NO”であれば、つまり入力がなければ、そのままステップS3に戻って、再度入力をチェックする。一方、ステップS5で“YES”であれば、つまり入力があれば、ステップS7で、タッチセンサ(14,22,26,32,48,50,52,54)、カメラ18あるいは頭部近接センサ20からの入力があるかどうかを判断する。ステップS7で“YES”であれば、つまりタッチセンサ、カメラ18あるいは頭部近接センサ20からの入力があれば、ステップS11に進む。
【0098】
ただし、図6では、ステップを省略してあるが、カメラ18あるいは頭部近接センサ20からの入力であれば、呼吸音を一旦停止してからステップS11に進む。
【0099】
一方、ステップS7で“NO”であれば、つまりタッチセンサ、カメラ18あるいは頭部近接センサ20からの入力がなければ、ステップS9では、上述したように、テンポに従った呼吸音の出力処理を実行してからステップS3に戻る。
【0100】
ステップS11では、インタラクション状態をレベル1に設定(遷移)する。つまり、各センサが図3の右欄で示した役割配置にされる。続くステップS13では、各センサからの入力をチェックし、ステップS15で抱き上げられたかどうかを判断する。具体的には、背部近接センサ34あるいは尻部近接センサ36からの入力が停止したかかどうかを判断する。
【0101】
なお、この実施例では、ぬいぐるみ12を座らせたり、仰向けに寝ころばせたりするように置くことを前提としたため、背部近接センサ34あるいは尻部近接センサ36を設けて、それぞれの入力をチェックするようにしているが、うつ伏せにぬいぐるみ12を置く場合も想定して、腹部に近接センサをさらに設けて、その近接センサの入力もチェックするようにしてもよい。
【0102】
ステップS15で“YES”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力が停止すれば、抱き上げられたと判断し、図7に示すステップS25に進む。一方、ステップS15で“NO”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力があれば、抱き上げられていないと判断し、ステップS17に進む。
【0103】
ステップS17では、頭部タッチセンサ14、腹部タッチセンサ26、背部タッチセンサ32、左腕タッチセンサ48、右腕タッチセンサ50、左脚タッチセンサ52および右脚タッチセンサ54からの入力があるかどうかを判断する。ステップS17で“YES”であれば、つまり口部タッチセンサ26を除くタッチセンサのいずれかからの入力があれば、ステップS19でその入力が8秒以上継続するかどうかを判断する。ステップS19で“YES”であれば、つまり入力が8秒以上継続すれば、図7に示すステップS25に進む。一方、ステップS19で“NO”であれば、つまり口部タッチセンサ22を除くタッチセンサからの入力が8秒に満たない場合には、そのままステップS13に戻って、再度入力をチェックする。
【0104】
また、ステップS17において“NO”であれば、つまりタッチセンサからの入力がなければ、ステップS21でタッチセンサ(口部タッチセンサ22の除く)以外のセンサからの入力があるかどうかを判断する。ステップS21で“NO”であれば、つまり口部タッチセンサ22を除くタッチセンサ以外のセンサからの入力がなければ、そのままステップS13に戻る。
【0105】
一方、ステップS21で“YES”であれば、つまり口部タッチセンサ22を除くタッチセンサ以外のセンサからの入力があれば、ステップS23で上述したようなレベル1に対応するセンサの役割に応じた音を出力する処理を実行してから、すなわちユーザの表現に対して返事をしてから、ステップS13に戻る。
【0106】
図7に示すステップS25では、インタラクション状態をレベル2に設定(遷移)する。そして、ステップS27では、各センサからの入力をチェックし、ステップS29でおろされたかどうかを判断する。ステップS29で“YES”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力があり、他のセンサからの入力がなければ、降ろされたと判断し、ステップS31でおろされてから2秒が経過したかどうかを判断する。
【0107】
ステップS31で“NO”であれば、つまりおろされてから2秒が経過してなければ、同じステップS31に戻って、2秒が経過するのを待つ。一方、ステップS31で“YES”であれば、つまりおろされてから2秒が経過すると、図6で示したステップS11に戻って、インタラクション状態をレベル1に設定する。つまり、インタラクション状態のレベルを遷移する。
【0108】
また、ステップS29で“NO”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力がなく、他のセンサからの入力があれば、おろされていないと判断し、ステップS33で入力があるかどうかを判断する。ステップS33で“NO”であれば、つまり入力がなければ、そのままステップS27に戻る。一方、ステップS33で“YES”であれば、つまり入力があれば、ステップS35でリズミカル(規則的)な入力かどうかを判断する。
【0109】
ステップS35で“NO”であれば、つまりリズミカルな入力でなければ、ステップS37で図4の左欄で示したセンサの役割に応じた音を出力してからステップS27に戻る。一方、ステップS35で“YES”であれば、つまりリズミカルな入力であれば、ステップS39でインタラクション状態をレベル3に設定(遷移)し、ステップS41で各センサからの入力をチェックする。
【0110】
続いて、ステップS43では、各センサからの入力があるかどうかを判断する。ステップS43で“NO”であれば、つまり各センサからの入力がなければ、ステップS45で入力がない状態が5秒経過したかどうかを判断する。ステップS45で“NO”であれば、つまり5秒が経過してなければ、そのままステップS43に戻って、各センサからの入力があるかどうかを判断する。一方、ステップS45で“YES”であれば、つまり入力がない状態が5秒経過すれば、ステップS25に戻って、インタラクション状態をレベル2に設定する。つまり、インタラクション状態のレベルを遷移する。
【0111】
一方、ステップS43において“YES”であれば、つまりいずれかのセンサから入力があれば、図8に示すステップS47でインタラクション状態をレベル4に設定するかどうかを判断する。ただし、この実施例では、或る規則(ルール)、確率あるいは乱数によって、インタラクション状態をレベル4にするかどうかを判断する。
【0112】
なお、他のレベル遷移と同様に、所定のセンサからの入力に応じてレベル4に遷移するようにしてもよい。たとえば、ユーザがぬいぐるみ12のいずれかの部位を叩いたり、不規則なリズムでぬいぐるみ12のいずれかの部位を触ったりするような場合に、インタラクション状態がレベル4に設定される。
【0113】
ステップS47で“NO”であれば、つまり図4の右欄で示したような各センサの役割で、音を出力してから図7で示したステップS41に戻って再度入力をチェックする。つまり、インタラクション状態がレベル3の場合には、ユーザの表現に従って、音楽的な要素が操作(制御)され、単なる人の声による返事から和音のような音に変化され、さらにリズムやメロディに沿った音楽が奏でられるようになる。
【0114】
一方、ステップS47で“YES”であれば、つまりインタラクション状態をレベル4にする場合には、ステップS51でインタラクション状態がレベル4に設定(遷移)される。そして、ステップS53で各センサからの入力がチェックをチェックする。続くステップS55では、なだめるあるいはあやす行為かどうかを判断する。たとえば、母親が子供をよしよしと言いながらあやすように、いずれかのセンサからリズミカル(規則的)な入力があるかどうかを判断する。つまり、レベル2からレベル3に遷移する場合と同様の入力があるかどうかを判断している。
【0115】
なお、“よしよし”のように、あやしたり、なだめたりするときの音声に対応する音声データを予め記憶しておき、ユーザの声をたとえばDPマッチング法やHMM法によって音声認識し、“よしよし”などの言葉が連続して入力されるかどうかを判断するようにしてもよい。
【0116】
また、リズミカルな入力と“よしよし”などの言葉の入力との両方に基づいて判断するようにしてもよい。
【0117】
ステップS55で“YES”であれば、つまりリズミカルな入力であれば、なだめるあるいはあやす行為であると判断し、図7で示したステップS39に戻ってインタラクション状態をレベル3に設定する。つまり、インタラクション状態が遷移される。
【0118】
一方、ステップS55で“NO”であれば、つまり不規則な入力であれば、なだめるあるいはあやす行為でないと判断し、ステップS57で放置されたかどうかを判断する。具体的には、背部近接センサ34あるいは尻部近接センサ36からの入力があり、他のセンサからの入力がないかどうかを判断する。 ステップS57で“YES”であれば、つまり放置されれば、ステップS59で放置されてから10秒が経過したかどうかを判断する。ステップS59で“NO”であれば、つまり放置されてから10秒が経過してなければ、同じステップS59に戻って10秒が経過するのを待つ。一方、ステップS59で“YES”であれば、つまり放置されてから10秒が経過すれば、ステップS1に戻ってインタラクション状態をレベル1に設定(遷移)する。つまり、初期の状態に戻る。
【0119】
一方、ステップS57で“NO”であれば、つまり放置されなければ、ステップS61で、図5で示したセンサの役割でユーザの表現に応じた音を出力してからステップS53に戻って、再度センサの入力をチェックする。ただし、制御不能状態であるため、でたらめにコードやキーが変化されるため、不協和音のような不快な音が出力される。
【0120】
この実施例によれば、ユーザの表現に応じてインタラクション状態のレベルが遷移されるとともに、インタラクション状態のレベルで決定されるセンサの役割でセンサの入力に応じた音が出力されるので、遊戯性に優れていると言える。したがって、この音楽コミュニケーション装置を玩具として提供した場合に、幼児等がすぐに飽きてしまうようなことがない。
【0121】
なお、この実施例では、タッチセンサとして圧力センサを用いるようにしたが、触ったかどうかを判断できる接触センサを用いるようにしてもよい。
【0122】
また、この実施例で用いたセンサの種類、個数あるいは役割の配置は単なる例示であり、設計者の意図によって任意に変更することができる。つまり、この実施例によって、限定されるべきではない。
【0123】
さらに、この実施例では、カメラから入力される映像信号の輝度レベルの変化に従って人が近づいたかどうかのみを判断するようにしたが、映像信号を解析することにより、ぬいぐるみ12(音楽コミュニケーション装置10)が置かれている場所の特定や近づいてきた人物を特定できるようにすることもできる。たとえば、図3〜図5で示したような役割配置を複数種類用意しておき、場所や人物を特定することによって、1種類の役割配置を選択するようにできる。また、人物を特定できるようにした場合には、ぬいぐるみ12のユーザ(主人)を特定した場合には、他の人物を特定した場合よりもレベル0からレベル3までの状態遷移を速くし、短時間で楽しいコミュニケーションを図れるようにすることもできる。
【図面の簡単な説明】
【図1】この発明の一実施例を示す図解図である。
【図2】図1実施例に示す音楽コミュニケーション装置の電気的な構成図である。
【図3】図1および図2に示す各センサの役割配置の一例を示す図解図である。
【図4】図1および図2に示す各センサの役割配置の他の一例を示す図解図である。
【図5】図1および図2に示す各センサの役割配置のその他の一例を示す図解図である。
【図6】図2に示すCPUの処理の一部を示すフロー図である。
【図7】図2に示すCPUの処理の他の一部を示すフロー図である。
【図8】図2に示すCPUの処理のその他の一部を示すフロー図である。
【符号の説明】
10 …音楽コミュニケーション装置
12 …ぬいぐるみ
14,22,26,32,48,50,52,54 …タッチセンサ
16 …マイク
18 …カメラ
20,34,36 …近接センサ
24 …スピーカ
30,38 …温度センサ
40,42,44,46 …ベンド
60 …コンピュータ
62 …CPU
66 …ROM
68 …RAM
70 …カウンタ
72 …タイマ[0001]
[Industrial applications]
The present invention relates to a music communication device, and more particularly to a music communication device applied to play equipment for, for example, infants or elderly people.
[0002]
[Prior art]
Heretofore, there has been no such music communication device. As a similar prior art, when a specific part of a stuffed animal replaced with a character such as a doll or animal imitating a human figure is touched or moved, sound or music is output, or the specific part moves in a certain manner. There was a toy like that.
[0003]
[Problems to be solved by the invention]
However, in such a conventional technique, when a specific part of a doll or a stuffed animal is touched or moved, a fixed voice (a message such as a greeting) or a fixed music recorded in advance is output, or the specific part is fixed. There was a problem that the game was lacking in play because the movement was repeated. For this reason, the infant was quickly bored.
[0004]
Therefore, a main object of the present invention is to provide a novel music communication device having excellent playability.
[0005]
[Means for Solving the Problems]
The present invention relates to a plurality of sensors for detecting a user's expression.A music communication device that controls a plurality of musical elements by input from a plurality of sensors,Depending on the detection results of multiple sensorsRole setting means for presetting the role of each sensor with respect to a plurality of music elements for each of a plurality of determined interaction state levels, wherein the role of at least one sensor is different for each interaction state level; State setting means for setting any one of a plurality of interaction state levels according to the detection result of the sensor; andAccording to the input from the sensorControlled musical elementsA music communication device including an output unit that outputs a sound.
[0006]
[Action]
In the music communication device according to the present invention, a plurality of sensors for detecting a user's expression, that is, an action, a behavior, or a voice.( The corresponding parts in the examples are 14-54 It is. The same applies hereinafter. )Is provided.Role setting means (66, 66b) However, for example, an interaction state level determined according to the detection result of each sensor and the roles of a plurality of sensors in each state level are set in a memory such as a ROM in advance, and the state setting means is set. (62, S1, S11, S25, S39, S51) Sets any one of the interaction state levels according to the detection results of the plurality of sensors. OutPower means(62, 66, 66a, S9, S23, S37, S49, S61, 24)ButAt that set interaction state levelOutputs sound according to the input from the sensor. In other words, it is possible to respond and communicate with the user's expression by outputting a voice, a sound such as a chord, or music.
[0008]
Further, the interaction state (interaction state) divided into predetermined stages is set to a predetermined stage (level), and the level of the interaction state is maintained or transited according to the input from the sensor, that is, the detection result, and the interaction state is set. The role may be changed when the level is changed.
[0009]
Further, the sound changing means may be configured to control a musical element (for example, scale, chord, rhythm, melody, etc.) in accordance with an input from the sensor, that is, a detection result.)Since the change is made, not only a simple voice but also a sound, a chord, or music along a certain scale can be output, and the volume can be adjusted. That is, depending on the expression of the user, that is, the manner of contacting the user, it is possible to achieve a pleasant communication in which music is played.
[0010]
Specifically, the scale changing means changes the scale according to the input from the sensor, and the code changing means changes the code according to the input from the sensor. The rhythm changing means changes the rhythm according to the input from the sensor, and the melody changing means changes the melody according to the input from the sensor. Such musical elements may be changed individually or in a combined manner.
[0011]
For example, such a music communication device has a stuffed body in which a plurality of sensors are arranged at predetermined portions as a main body, and each of the plurality of sensors detects a user's expression through the stuffed toy. That is, the user can feel as if communicating with the stuffed character.
[0012]
【The invention's effect】
According to the present invention, a sound corresponding to an input from a plurality of sensors is output, and the role of the sensor is changed according to the expression of the user, so that the user does not get bored immediately. That is, the playability is high.
[0013]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0014]
【Example】
Referring to FIG. 1A, a
[0015]
1A and 1B, each sensor is shown on the surface (outside) of the stuffed
[0016]
More specifically, the
[0017]
However, the output of the infrared sensor is normally on, and the output is stopped when a person or an object is detected.
[0018]
The
[0019]
However, the
[0020]
The
[0021]
However, the
[0022]
Further, an
[0023]
However, as can be clearly understood from FIGS. 1A and 1B, each of the bends (40 to 46) is provided so that one end thereof extends to the
[0024]
As shown in FIG. 1A, the
[0025]
The electrical configuration of the
[0026]
The
[0027]
Although not shown in FIG. 2, each sensor (excluding the
[0028]
The
[0029]
As a program (application software) for generating a sound, “MAX / MSP” (product name) manufactured by Optocode Corporation that runs on a Mac OS can be used.
[0030]
In the
[0031]
Further, in the
[0032]
However, in this embodiment, since the audio signal is filtered along different pitches (pitch N1 and pitch N2), audio signals of different pitches are simultaneously output from the
[0033]
For example, in this embodiment, the interaction state is set (transitioned) between levels 0 to 4, and the role of each sensor is changed according to each of levels 0 to 4. That is, the above-described
[0034]
Specifically, when the interaction state is level 0, the role of each sensor is determined as shown in the left column of FIG. However, it means that there is no control in the column where the horizontal bar is drawn. Hereinafter, the same applies to this embodiment.
[0035]
At level 0, the stuffed animal 12 (music communication device 10) outputs a simple, unprocessed breathing sound and stops breathing when attention (interest) is drawn. Such timing control of the breathing sound, that is, output / stop of the breathing sound, is executed in accordance with the input from the
[0036]
For example, the breathing sound is always output from the stuffed toy 12 (speaker 24), and when the stuffed toy 12 (music communication 12) is interested, in this embodiment, when the person (user) approaches, the breathing sound is output. The sound is stopped. That is, the
[0037]
The frequency of the audio signal may be analyzed to determine the voice of a person, and only when the voice is a human voice, it may be determined that the person has approached.
[0038]
Further, the
[0039]
Further, the
[0040]
Further, the entire tempo, that is, the tempo of the breathing sound at level 0 is changed according to the input from the
[0041]
When the overall tempo changes, the tempo for the progress of breathing sounds, rhythm sounds, melodies, chords (chords) and keys (types of scales) changes. Further, as described above, the tempo at which the breathing sound is output is changed, but other than the breathing sound will be described in detail as appropriate, and the detailed description will be omitted here.
[0042]
Next, when the interaction state is
[0043]
However, at
[0044]
Specifically, the role of each sensor is indicated as shown in the right column of FIG. 3, and in response to an input from each sensor, the conversation (answer) speed, the response speed (time until reply), the volume, etc. Controlling. For example, the number of inputs from each sensor is counted by the
[0045]
When there is an input from the
[0046]
Further, when there is an input from the
[0047]
That is, the voice to which the stuffed
[0048]
Then, when there is an input from the
[0049]
When there is an input from at least one sensor, the
[0050]
Further, the
[0051]
In this way, the reaction of the stuffed toy 12 (music communication device 10), that is, the sound to be output is generated by both the interaction state and the input of the sensor.
[0052]
Subsequently, when the interaction state is at level 2, the stuffed toy 12 (voice communication 10) filters the respiration at level 0 with a pitch along a chord and outputs the result. Also, the sound at
[0053]
Specifically, as shown in the left column of FIG. 4, the role of each sensor is arranged, and the
[0054]
If there is an input from the
[0055]
Whether or not there is an input every second can be determined by detecting the outputs of the
[0056]
As described above, the sound is almost the same as in the case of the
[0057]
As for the breathing sound, the
[0058]
Further, the number of input sensors is counted by the
[0059]
Furthermore, if there is an input from both the left
[0060]
When the interaction state is
[0061]
However, in this embodiment, there are six types of chords (chords). There are twelve types of scales: C major, D major, E major,..., Variation E major, and Variation G major. Furthermore, there are four types of rhythms.
[0062]
As a whole, the
[0063]
However, the
[0064]
If there is an input from the
[0065]
Further, if there is an input from the
[0066]
At this time, the update speed of the code is changed according to the tempo described above. Specifically, when there is an input from the
[0067]
When the tempo is fast, if there is an input from the
[0068]
Further, the type of the cord can be updated according to the size of the angle at which the
[0069]
If the input from the
[0070]
However, the speed at which the key is changed is defined by the above-described tempo. If there is an input of one second or more from the
[0071]
When the tempo is fast, the key can be changed by skipping the key between C major and E major.
[0072]
When a predetermined key is determined, a voice or a breathing sound is output along the key. That is, the voice or breathing sound is filtered so as to output the sound of the key.
[0073]
Also, the sound is almost the same as the case shown at
[0074]
With respect to the breathing sound, when there is an input from the left
[0075]
When there is an input from the
[0076]
As described above, it is possible to change the sound in accordance with the type of the sensor. However, the sound can be changed regardless of the type of the sensor, that is, the
[0077]
Further, when there is an input from the
[0078]
When there is an input from the
[0079]
It should be noted that even if the user raises or lowers the
[0080]
Further, when there is an input from the
[0081]
Further, when there is an input from the right
[0082]
However, the volume can be raised or lowered according to the force of gripping the
[0083]
Further, as for the rhythm, when there is a rhythmic input from any of the sensors, the
[0084]
The speed of such rhythm change is defined by the overall tempo. If the tempo is fast, the rhythm changes immediately if there is a rhythmic input, but if the tempo is slow, the rhythm changes after the rhythmic input. Is changed.
[0085]
When the tempo is fast, if there is a rhythmical input, the rhythm (II) between rhythm (I) and rhythm (III) can be skipped and changed.
[0086]
In other words, when the interaction state is
[0087]
Further, when the interaction state is level 4, the volume balance between the rhythm and the chord (original breathing sound) is simply adjusted, and the stuffed toy 12 (music communication device 10) is brought into a runaway state (uncontrollable state). In other words, keys and chords change in a mess (bullshit), and an unpleasant sound such as a dissonant sound is output. However, if the user soothes the stuffed
[0088]
Specifically, as shown in FIG. 5, the role of each sensor is arranged. In the figure, the columns indicated by x indicate that the control is irrelevant.
[0089]
Regarding the whole, the
[0090]
When there is an input from the left
[0091]
Further, similarly to the above-described change of the key type, the
[0092]
Further, as for the rhythm, when there is an input from the right
[0093]
However, when the level 4 is set as described above and a runaway state (crazy state) is reached, the user can return to the
[0094]
The level of the interaction state described above is maintained or transitioned depending on how the user touches the stuffed
[0095]
Specifically, the
[0096]
As shown in FIG. 6, when starting the process, the
[0097]
Subsequently, in a step S5, it is determined whether or not there is an input from each sensor. If “NO” in the step S5, that is, if there is no input, the process returns to the step S3 and checks the input again. On the other hand, if “YES” in the step S5, that is, if there is an input, in a step S7, the touch sensor (14, 22, 26, 32, 48, 50, 52, 54), the
[0098]
However, in FIG. 6, the steps are omitted, but if the input is from the
[0099]
On the other hand, if “NO” in the step S7, that is, if there is no input from the touch sensor, the
[0100]
In step S11, the interaction state is set to level 1 (transition). That is, each sensor is arranged in the role shown in the right column of FIG. In a succeeding step S13, an input from each sensor is checked, and it is determined whether or not the sensor is held in a step S15. Specifically, it is determined whether or not the input from the
[0101]
In this embodiment, since it is assumed that the stuffed
[0102]
If “YES” in the step S15, that is, if the input from the
[0103]
In step S17, it is determined whether there is an input from the
[0104]
If “NO” in the step S17, that is, if there is no input from the touch sensor, it is determined whether or not there is an input from a sensor other than the touch sensor (excluding the mouth touch sensor 22) in a step S21. If “NO” in the step S21, that is, if there is no input from the sensors other than the touch sensor except the
[0105]
On the other hand, if “YES” is determined in the step S21, that is, if there is an input from a sensor other than the touch sensor except the
[0106]
In step S25 shown in FIG. 7, the interaction state is set to level 2 (transition). Then, in a step S27, the input from each sensor is checked, and it is determined whether or not the sensor is lowered in the step S29. If "YES" in the step S29, that is, if there is an input from the
[0107]
If “NO” in the step S31, that is, if two seconds have not elapsed after the lowering, the process returns to the same step S31 and waits for a lapse of two seconds. On the other hand, if “YES” in the step S31, that is, if two seconds have elapsed after the lowering, the process returns to the step S11 shown in FIG. 6, and sets the interaction state to the
[0108]
If “NO” in the step S29, that is, if there is no input from the
[0109]
If “NO” in the step S35, that is, if it is not a rhythmic input, a sound corresponding to the role of the sensor shown in the left column of FIG. 4 is output in a step S37, and the process returns to the step S27. On the other hand, if “YES” in the step S35, that is, if it is a rhythmical input, the interaction state is set (transition) to the
[0110]
Subsequently, in a step S43, it is determined whether or not there is an input from each sensor. If “NO” in the step S43, that is, if there is no input from each sensor, it is determined whether or not 5 seconds have passed without any input in a step S45. If "NO" in the step S45, that is, if 5 seconds have not elapsed, the process returns to the step S43 to determine whether or not there is an input from each sensor. On the other hand, if “YES” in the step S45, that is, if 5 seconds have passed without any input, the process returns to the step S25 and sets the interaction state to the level 2. That is, the level of the interaction state changes.
[0111]
On the other hand, if “YES” in the step S43, that is, if there is an input from any of the sensors, it is determined whether or not the interaction state is set to the level 4 in a step S47 shown in FIG. However, in this embodiment, whether to set the interaction state to level 4 is determined by a certain rule (rule), probability, or random number.
[0112]
Note that, similarly to other level transitions, transition to level 4 may be made in response to an input from a predetermined sensor. For example, when the user hits any part of the stuffed
[0113]
If "NO" in the step S47, that is, a sound is output in the role of each sensor as shown in the right column of FIG. 4, and then the process returns to the step S41 shown in FIG. 7 to check the input again. In other words, when the interaction state is
[0114]
On the other hand, if “YES” in the step S47, that is, if the interaction state is set to the level 4, the interaction state is set (transition) to the level 4 in the step S51. Then, in step S53, the input from each sensor is checked. In a succeeding step S55, it is determined whether or not the action is soothing or relaxing. For example, it is determined whether or not there is a rhythmical (regular) input from any of the sensors, so that the mother can comfortably call the child good. That is, it is determined whether there is an input similar to that in the case of transition from level 2 to
[0115]
It should be noted that voice data corresponding to voices used when playing or soothing, such as "Yoshiyoshi", is stored in advance, and the user's voice is recognized by, for example, the DP matching method or the HMM method, and "Yoshiyoshi" is used. It may be determined whether or not these words are continuously input.
[0116]
Alternatively, the determination may be made based on both a rhythmic input and an input of a word such as “yoshi”.
[0117]
If “YES” in the step S55, that is, if the input is a rhythmical input, it is determined that the action is a soothing or a soothing action, and the process returns to the step S39 shown in FIG. 7 to set the interaction state to the
[0118]
On the other hand, if “NO” in the step S55, that is, if the input is irregular, it is determined that the action is not soothing or easy, and it is determined in a step S57 whether or not the user is left. Specifically, it is determined whether there is an input from the
[0119]
On the other hand, if “NO” in the step S57, that is, if not left, the sound corresponding to the expression of the user is output in a step S61 in the role of the sensor illustrated in FIG. Check sensor input. However, since it is out of control, the codes and keys are randomly changed, so that an unpleasant sound such as a dissonant sound is output.
[0120]
According to this embodiment, the level of the interaction state is changed according to the expression of the user, and a sound corresponding to the input of the sensor is output in the role of the sensor determined by the level of the interaction state. It can be said that it is excellent. Therefore, when the music communication device is provided as a toy, an infant or the like does not get bored immediately.
[0121]
In this embodiment, the pressure sensor is used as the touch sensor. However, a contact sensor that can determine whether or not the user touches the touch sensor may be used.
[0122]
Further, the type, number, or arrangement of roles of the sensors used in this embodiment are merely examples, and can be arbitrarily changed according to the intention of the designer. That is, it should not be limited by this embodiment.
[0123]
Further, in this embodiment, it is determined only whether or not a person approaches in accordance with a change in the luminance level of the video signal input from the camera. However, by analyzing the video signal, the stuffed toy 12 (music communication device 10) is analyzed. It is also possible to specify the place where the is placed or the person approaching. For example, a plurality of types of role arrangements as shown in FIGS. 3 to 5 are prepared, and one type of role arrangement can be selected by specifying a place or a person. When a person can be specified, when the user (master) of the stuffed
[Brief description of the drawings]
FIG. 1 is an illustrative view showing one embodiment of the present invention;
FIG. 2 is an electrical configuration diagram of the music communication device shown in FIG. 1 embodiment.
FIG. 3 is an illustrative view showing one example of a role arrangement of each sensor shown in FIGS. 1 and 2;
FIG. 4 is an illustrative view showing another example of the role arrangement of each sensor shown in FIGS. 1 and 2;
FIG. 5 is an illustrative view showing another example of the role arrangement of each sensor shown in FIGS. 1 and 2;
FIG. 6 is a flowchart showing a part of the processing of the CPU shown in FIG. 2;
FIG. 7 is a flowchart showing another portion of the processing by the CPU shown in FIG. 2;
FIG. 8 is a flowchart showing another portion of the processing by the CPU shown in FIG. 2;
[Explanation of symbols]
10. Music communication device
12 stuffed animals
14, 22, 26, 32, 48, 50, 52, 54 ... touch sensor
16 ... microphone
18… Camera
20, 34, 36 ... Proximity sensor
24… Speaker
30, 38 ... temperature sensor
40, 42, 44, 46… Bend
60… Computer
62 ... CPU
66… ROM
68… RAM
70… Counter
72… Timer
Claims (7)
前記複数のセンサの検知結果に応じて決まる複数のインタラクション状態レベルのそれぞれ毎に前記複数の音楽要素に対する各センサの役割を予め設定する役割設定手段を備え、少なくとも1つのセンサの役割が前記インタラクション状態レベルに応じて異なるようにされ、さらに
前記複数のセンサの検知結果に応じて前記複数のインタラクション状態レベルのいずれかを設定する状態設定手段、および
前記状態設定手段によって設定されたインタラクション状態レベルでの前記センサの役割に従って前記複数のセンサからの入力に応じて前記音楽的要素が制御された音を出力する出力手段を備える、音楽コミュニケーション装置。 A music communication device comprising a plurality of sensors for detecting a user's expression, and controlling a plurality of musical elements by an input from the plurality of sensors,
Role setting means for setting a role of each sensor for the plurality of music elements in advance for each of a plurality of interaction state levels determined according to detection results of the plurality of sensors , wherein at least one sensor has a role of the interaction state Different depending on the level, moreover
State setting means for setting any of the plurality of interaction state levels according to the detection results of the plurality of sensors, and
A music communication device, comprising: output means for outputting a sound in which the musical element is controlled in response to an input from the plurality of sensors according to a role of the sensor at an interaction state level set by the state setting means .
前記複数のセンサは、前記ぬいぐるみを通して前記表現を検知する、請求項1ないし5のいずれかに記載の音楽コミュニケーション装置。Further comprising a stuffed animal in which the plurality of sensors are arranged at a predetermined site,
The music communication device according to claim 1, wherein the plurality of sensors detect the expression through the stuffed toy.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000332156A JP3566646B2 (en) | 2000-10-31 | 2000-10-31 | Music communication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000332156A JP3566646B2 (en) | 2000-10-31 | 2000-10-31 | Music communication device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002140070A JP2002140070A (en) | 2002-05-17 |
JP3566646B2 true JP3566646B2 (en) | 2004-09-15 |
Family
ID=18808397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000332156A Expired - Fee Related JP3566646B2 (en) | 2000-10-31 | 2000-10-31 | Music communication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3566646B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019160965A1 (en) * | 2018-02-15 | 2019-08-22 | Skyrocket LLC dba Skyrocket Toys LLC | Interactive pet toy with pliable mounting apparatus |
US20200345308A1 (en) * | 2019-05-02 | 2020-11-05 | University Of Central Florida Research Foundation Inc. | Computer Analysis and Enhanced Visualization of Play Interactions |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3966227B2 (en) * | 2003-05-30 | 2007-08-29 | ヤマハ株式会社 | Simulated engine sound generator and vehicle operation system |
US9833698B2 (en) * | 2012-09-19 | 2017-12-05 | Disney Enterprises, Inc. | Immersive storytelling environment |
EP3331625B1 (en) * | 2015-08-04 | 2019-11-13 | Quick, Luther Gunther III | Dub puppet |
JP6176870B2 (en) * | 2016-01-05 | 2017-08-09 | 株式会社セガ トイズ | Coding toy, block, stage, figurine toy and coding method |
JP7024754B2 (en) * | 2019-03-25 | 2022-02-24 | カシオ計算機株式会社 | Controls, robots, control methods and programs |
CN110124328A (en) * | 2019-05-06 | 2019-08-16 | 东莞市长利玩具制品有限公司 | A kind of rag baby |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3077192B2 (en) * | 1990-11-08 | 2000-08-14 | ヤマハ株式会社 | Electronic musical instruments compatible with performance environments |
JP3332174B2 (en) * | 1993-08-03 | 2002-10-07 | ヤマハ株式会社 | Keyboard device for musical instruments |
JP3579916B2 (en) * | 1994-04-18 | 2004-10-20 | ヤマハ株式会社 | Automatic accompaniment device |
JPH0944151A (en) * | 1995-08-01 | 1997-02-14 | Kawai Musical Instr Mfg Co Ltd | Electronic keyboard musical instrument |
JP3574264B2 (en) * | 1996-02-29 | 2004-10-06 | 株式会社河合楽器製作所 | Electronic musical instrument |
JPH1097244A (en) * | 1996-09-20 | 1998-04-14 | Yamaha Corp | Musical tone controller |
JP2000020079A (en) * | 1998-07-06 | 2000-01-21 | Ricoh Co Ltd | Input device of musical tone reproduction device |
JP3632491B2 (en) * | 1999-03-26 | 2005-03-23 | ヤマハ株式会社 | Music control device |
-
2000
- 2000-10-31 JP JP2000332156A patent/JP3566646B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019160965A1 (en) * | 2018-02-15 | 2019-08-22 | Skyrocket LLC dba Skyrocket Toys LLC | Interactive pet toy with pliable mounting apparatus |
US20200345308A1 (en) * | 2019-05-02 | 2020-11-05 | University Of Central Florida Research Foundation Inc. | Computer Analysis and Enhanced Visualization of Play Interactions |
US11931183B2 (en) * | 2019-05-02 | 2024-03-19 | University Of Central Florida Research Foundation, Inc. | Computer analysis and enhanced visualization of play interactions |
Also Published As
Publication number | Publication date |
---|---|
JP2002140070A (en) | 2002-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3917456B2 (en) | Evaluation program, recording medium thereof, timing evaluation apparatus, timing evaluation system | |
JP2002307354A (en) | Electronic toy | |
US7637794B2 (en) | Breath-sensitive toy | |
JP3566646B2 (en) | Music communication device | |
JPH10328422A (en) | Automatically responding toy | |
JP2013099823A (en) | Robot device, robot control method, robot control program and robot system | |
KR100332966B1 (en) | Toy having speech recognition function and two-way conversation for child | |
KR20140047273A (en) | Robot | |
Yonezawa et al. | Context-aware sensor-doll as a music expression device | |
TW200929108A (en) | Limb interactively learning method and apparatus | |
JP2004034273A (en) | Robot and system for generating action program during utterance of robot | |
WO1999032203A1 (en) | A standalone interactive toy | |
US9968862B2 (en) | Interactive doll and a method to control the same | |
KR100883587B1 (en) | Intelligent toy and control method there of | |
JP2003305677A (en) | Robot device, robot control method, recording medium and program | |
TW201112186A (en) | Wherein each of basic poses corresponds to a musical note and is stored in a music mapping device for creating various music performances according to the motion of the kid, thereby helping the kid to create his/her own favorite music | |
JP2001162058A (en) | Autonomous mobile therapeutic apparatus | |
JP3819281B2 (en) | Music communication system | |
JP2003340760A (en) | Robot device and robot control method, recording medium and program | |
JP4760824B2 (en) | Oscillating motion device and adapter for this device | |
JPS6247387A (en) | Doll | |
Burlingham et al. | The re-education of a retarded blind child | |
JP2017062296A (en) | Performance technique drawing evaluation system | |
Lindeck | Applications of music technology in a children’s hospice setting | |
JP2003181784A (en) | Automatic answering robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040610 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080618 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090618 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100618 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110618 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110618 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120618 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120618 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |