JP3566646B2 - Music communication device - Google Patents

Music communication device Download PDF

Info

Publication number
JP3566646B2
JP3566646B2 JP2000332156A JP2000332156A JP3566646B2 JP 3566646 B2 JP3566646 B2 JP 3566646B2 JP 2000332156 A JP2000332156 A JP 2000332156A JP 2000332156 A JP2000332156 A JP 2000332156A JP 3566646 B2 JP3566646 B2 JP 3566646B2
Authority
JP
Japan
Prior art keywords
input
sensor
sensors
sound
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000332156A
Other languages
Japanese (ja)
Other versions
JP2002140070A (en
Inventor
健二 間瀬
朋子 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2000332156A priority Critical patent/JP3566646B2/en
Publication of JP2002140070A publication Critical patent/JP2002140070A/en
Application granted granted Critical
Publication of JP3566646B2 publication Critical patent/JP3566646B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【産業上の利用分野】
この発明は音楽コミュニケーション装置に関し、特にたとえば幼児あるいは高齢者の遊戯具に適用される、音楽コミュニケーション装置に関する。
【0002】
【従来の技術】
従来、この種の音楽コミュニケーション装置は存在しなかった。類似する従来技術として、人間の形を模した人形や動物などのキャラクタに置き換えたぬいぐるみの特定の部位を触ったり動かしたりすると、音声や音楽が出力されたり、特定の部位が一定の動きをしたりするような玩具があった。
【0003】
【発明が解決しようとする課題】
しかし、このような従来技術では、人形やぬいぐるみの特定の部位を触ったり動かしたりすると、予め記録された固定の音声(あいさつなどのメッセージ)や固定の音楽が出力されたり、特定の部位が一定の動きを繰り返したりしていただけなので、遊戯性に欠けるという問題があった。このため、幼児はすぐに飽きてしまっていた。
【0004】
それゆえに、この発明の主たる目的は、遊戯性に優れる、新規な音楽コミュニケーション装置を提供することである。
【0005】
【課題を解決するための手段】
この発明は、ユーザの表現を検知する複数のセンサを備え、複数のセンサからの入力によって複数の音楽的要素を制御する音楽コミュニケーション装置であって、複数のセンサの検知結果に応じて決まる複数のインタラクション状態レベルのそれぞれ毎に複数の音楽要素に対する各センサの役割を予め設定する役割設定手段を備え、少なくとも1つのセンサの役割がインタラクション状態レベル毎に異なるようにされ、さらに、複数のセンサの検知結果に応じて複数のインタラクション状態レベルのいずれかを設定する状態設定手段、および状態設定手段によって設定されたインタラクション状態レベルでのセンサの役割に従って複数のセンサからの入力に応じて音楽的要素が制御された音を出力する出力手段を備える、音楽コミュニケーション装置である。
【0006】
【作用】
この発明の音楽コミュニケーション装置では、ユーザの表現すなわち行為、ふるまいあるいは音声を検知するための複数のセンサ( 実施例で相当する部分は 14-54 である。以下、同様。 )が設けられる。役割設定手段 (66, 66b) が、たとえばROMのようなメモリに、各センサの検知結果に応じて決まるインタラクション状態レベルと、各状態レベルにおける複数のセンサの役割とを予め設定しておき、状態設定手段 (62, S1, S11, S25, S39, S51) が複数のセンサの検知結果に応じていずれかのインタラクション状態レベルを設定する。出力手段(62, 66, 66a, S9, S23, S37, S49, S61, 24)その設定されたインタラクション状態レベルでのセンサからの入力に応じた音を出力する。つまり、ユーザの表現に対して音声、和音のような音あるいは音楽などを出力することによって反応し、コミュニケーションすることができる。
【0008】
また、所定の段階に分けられた相互作用状態(インタラクション状態)を所定の段階(レベル)に設定し、センサからの入力すなわち検知結果に応じてインタラクション状態のレベルを維持または遷移し、インタラクション状態のレベルが遷移されたときに、役割を変更するようにすればよい。
【0009】
さらに、音変更手段が、センサからの入力すなわち検知結果に応じて音楽的要素(たとえば、音階、コード、リズム、メロディなど)を変更するので、単なる音声だけでなく、或る音階に沿った音、和音あるいは音楽を出力することができ、また音量を調整することができる。つまり、ユーザの表現すなわち接し方によっては、音楽が奏でられるような楽しいコミュニケーションを図ることができる。
【0010】
具体的には、音階変更手段がセンサからの入力に応じて音階を変更し、コード変更手段がセンサからの入力に応じてコードを変更する。また、リズム変更手段がセンサからの入力に応じてリズムを変更し、メロディ変更手段がセンサからの入力に応じてメロディを変更する。このような音楽的要素は、個別に変更されてもよく、また複合的に変更されてもよい。
【0011】
たとえば、このような音楽コミュニケーション装置は複数のセンサが所定の部位に配置されるぬいぐるみを本体とし、複数のセンサのそれぞれは、ぬいぐるみを通してユーザの表現を検知している。つまり、ユーザは、ぬいぐるみのキャラクタとコミュニケーションしているように感じることができる。
【0012】
【発明の効果】
この発明によれば、複数のセンサからの入力に応じた音が出力され、またユーザの表現によってセンサの役割が変更されるので、ユーザがすぐに飽きてしまうようなことがない。すなわち、遊戯性が高い。
【0013】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0014】
【実施例】
図1(A)を参照して、この実施例の音楽コミュニケーション装置10はぬいぐるみ12を含み、ぬいぐるみ12は動物あるいはキャラクタを模した形状に形成される。ただし、この実施例では、ぬいぐるみ12は、たとえば熊を模した形状であり、頭部12a、耳部12b、鼻部12c、口部12d、胴体部12e、尻尾部12f、左腕部12g、右腕部12h、左脚部12iおよび右脚部12j等を有している。このような各部位(12a〜12j)のそれぞれには、後述する複数のセンサが設けられる(内蔵される)。
【0015】
なお、図1(A)および図1(B)においては、分かり易くするため、各センサはぬいぐるみ12の表面(外側)に示してあり、また一部のセンサは省略してある。
【0016】
具体的に説明すると、ぬいぐるみ12の頭部12aには、ぬいぐるみ12の表皮の内面に接するように配置された頭部タッチセンサ14が設けられる。この頭部タッチセンサ14には、少なくとも接触したかどうかおよび連続的な力の変化(押圧力)を検知できるピエゾ式の圧力センサが適用される。また、頭部12aに連続して設けられた耳部12bには、オーディオセンサとしてのマイク16が設けられる。さらに、鼻部12cには、イメージセンサとしてのCCDカメラ(以下、この実施例において、単に「カメラ」という。)18および赤外線センサのような頭部近接センサ20が設けられる。
【0017】
ただし、赤外線センサの出力は通常オンであり、人物や物等を検知した場合に、出力が停止される。
【0018】
そして、鼻部12cの下方に配置される口部12dには、上述の頭部タッチセンサ14と同じ圧力センサからなる口部タッチセンサ22が設けられる。また、同様に、口部12dには、音階の一音(ド、レ、ミ、ファ、…)あるいは音階に沿っていない一音(♯や♭つきの音)、異なる音階に沿ってフィルタをかけた人の声、和音あるいは音楽のような音を出力するためのスピーカ24が設けられる。このスピーカ24もまた、図1(A)で分かり易く説明するため、ぬいぐるみ12の表面に示してあるが、実際にはぬいぐるみ12の内部に設けられる。
【0019】
ただし、カメラ18は、レンズ(図示せず)がぬいぐるみ12から露出するように配置される。また、頭部近接センサ20も同様に、図示は省略するが、赤外線センサの検知部(発光部/受光部)がぬいぐるみ12から露出するように配置される。
【0020】
また、胴体部12eには、上述の頭部タッチセンサ14と同じ構成の腹部タッチセンサ26、ジャイロ(加速度計)28および内部温度センサ30が設けられる。図1(B)から分かるように、胴体部12eにはまた、上述した頭部タッチセンサ14と同じ背部タッチセンサ32および上述した頭部近接センサ20と同じ赤外線センサから構成された背部近接センサ34が設けられる。また、胴体部12eに含まれる尻部には、頭部近接センサ16と同じ尻部近接センサ36が設けられる。
【0021】
ただし、背部近接センサ34および尻部近接センサ36は、赤外線センサの検知部がぬいぐるみ12から露出するように配置される。
【0022】
さらに、胴体部12eに連続的に設けられる尻尾部12fには、外部温度センサ38が設けられる。この外部温度センサ38は、少なくとも温度検出部(図示せず)が尻尾部12fから露出するように配置される。また、図1(A)および図1(B)に示すように、左腕部12g、右腕部12h、左脚部12iおよび右脚部12jには、各部位(12g〜12j)が曲がっているかどうかおよび曲がり角度を検知できるピエゾ式のベンドを用いた左腕ベンド40、右腕ベンド42、左脚ベンド44および右脚ベンド46のそれぞれが設けられる。
【0023】
ただし、図1(A)および図1(B)からよく分かるように、各ベンド(40〜46)は、その一方端が胴体部12eまで延びて設けられる。
【0024】
また、図1(A)に示すように、左腕部12g、右腕部12h、左脚部12iおよび右脚部12jには、上述した圧力センサからなる左腕タッチセンサ48、右腕タッチセンサ50、左脚タッチセンサ52および右脚タッチセンサ54のそれぞれが設けられる。
【0025】
この音楽コミュニケーション装置10の電気的な構成は、図2のように示される。つまり、音楽コミュニケーション装置10はコンピュータ60を含み、コンピュータ60には上述したような各センサ(14〜22、26〜54)およびスピーカ22が接続される。
【0026】
また、コンピュータ60はCPU62を含み、CPU62は内部バス64を介してROM66、RAM68、カウンタ70およびタイマ72のそれぞれに接続される。
【0027】
なお、図2では省略するが、各センサ(マイク16およびカメラ18を除く。)はA/D変換器およびインターフェイスを介して内部バス64に接続される。また、図示は省略するが、マイク16はアンプ、A/D変換器およびインターフェイスを介して内部バス64に接続される。さらに、図示は省略するが、カメラ18はインターフェイスを介して内部バス64に接続される。さらにまた、図示は省略するが、スピーカ24は、アンプ、D/A変換器およびインターフェイスを介して内部バス64に接続される。
【0028】
ROM66にはメモリエリア66a〜66cが含まれており、メモリエリア66aには、ぬいぐるみ12(音楽コミュニケーション装置10)の相互作用状態(インタラクション状態)のレベルを維持または遷移させるとともに、それぞれのレベルで各センサからの入力に応じた音を生成するためのプログラムが記憶されている。
【0029】
なお、音を生成するためのプログラム(アプリケーションソフト)としては、マックOSで動くオプトコード社製の「MAX/MSP」(商品名)を用いることができる。
【0030】
また、メモリエリア66bには、インタラクション状態のレベルに応じた各センサの役割についてのマッピング(配置)が記憶される。このマッピングについては、後で詳細に説明する。
【0031】
さらに、メモリエリア66cには、予め収録しておいた人の声(音声)に対応する音声信号に対応するデータが記憶されている。
【0032】
ただし、この実施例では、音声信号は、異なる音程(音高N1、音高N2)にそってフィルタをかけられるため、異なる音程の音声信号が同時にスピーカ24から出力される。したがって、音高N1および音高N2のそれぞれを制御することによって、高音から低音までの幅で高い声や低い声を演出することができる。
【0033】
たとえば、この実施例では、インタラクション状態はレベル0〜レベル4の間で設定(遷移)され、レベル0〜レベル4のそれぞれに応じて各センサの役割が変更される。つまり、上述したメモリエリア66bには、図3〜図5に示すような各センサについての役割の配置が記憶される。
【0034】
具体的には、インタラクション状態がレベル0の場合には、図3の左欄に示すように、各センサの役割が決定される。ただし、横棒を引いている欄については、制御がないことを意味している。以下、この実施例において同じである。
【0035】
レベル0では、ぬいぐるみ12(音楽コミュニケーション装置10)は、単純な、加工を施していない呼吸音を出力し、注意(興味)を引かれた時に呼吸を止める。このような呼吸音のタイミング制御すなわち呼吸音の出力/停止がマイク16、カメラ18および頭部近接センサ20からの入力に応じて実行される。
【0036】
たとえば、ぬいぐるみ12(スピーカ24)から常に呼吸音が出力されており、ぬいぐるみ12(音楽コミュニケーション12)が興味を引かれた場合に、この実施例では、人物(ユーザ)が近づいた場合に、呼吸音が停止される。つまり、マイク16は常に能動化されており、CPU62はマイク16を介して入力される音声信号の信号レベル(音量)や音高(音楽でいう音符の音の高さ)の変化を検出し、信号レベルや周波数が変化した場合に、人が近づいたと判断する。つまり、人の声がした場合や扉を開閉するなどの物音がした場合に、人が近づいたと判断することができる。
【0037】
なお、音声信号の周波数を解析して、人の声を判断し、人の声である場合にのみ、人が近づいたと判断するようにしてもよい。
【0038】
また、カメラ18は常に能動化されており、CPU62はカメラ18を介して入力される映像信号から輝度レベルの変化を検出し、輝度レベルが変化した場合に、人が近づいたと判断する。このように、人が近づいたと判断できる具体例としては、ユーザが自身の顔や他の部位をぬいぐるみ12に接近あるいは接触した場合やぬいぐるみ12を置いている部屋の照明装置を明滅させた場合などが考えられる。
【0039】
さらに、頭部近接センサ20は、ユーザが自身の顔や他の部位をぬいぐるみ12の頭部12a、特に鼻部12cに接近あるいは接触した場合に検出信号を出力する。したがって、CPU62はこれに応じて人が近づいたと判断する。
【0040】
また、全体のテンポすなわちレベル0における呼吸音のテンポは、内部温度センサ30および外部温度センサ38からの入力に応じて換えられる。たとえば、CPU62は、内部温度センサ30および外部温度センサ38で検出されるぬいぐるみ12内部の温度と外部の温度との差分を検出し、差分が小さい場合には、呼吸音を出力するテンポを遅くし、逆に差分が大きい場合には、呼吸音を出力するテンポを速くすることができる。たとえば、テンポ(速さ)を所定の範囲に決定しておけば、温度の差分に応じて連続的な速度変化でテンポを変更することができる。
【0041】
なお、全体のテンポが変化した場合には、呼吸音、リズムの音、メロディ、コード(和音)の進行およびキー(音階の種類)の変化についてのテンポが変更される。また、上述したように、呼吸音を出力するテンポが変更されるが、呼吸音以外については適宜詳細に説明することとし、ここでは詳細な説明は省略する。
【0042】
次に、インタラクション状態がレベル1の場合には、ぬいぐるみ12(音声コミュニケーション装置10)は、予めROM66のメモリエリア66cに記憶しておいた音声信号をスピーカ22から出力し、ぬいぐるみ12を触ったり、ユーザがぬいぐるみ12に話しかけたりするなどのユーザの表現に対して返答(返事)する。そして、ユーザがぬいぐるみ12を触る時間が長くなるにつれて、返事の間隔を短くし、人が接触した部位のセンサからの入力回数が増えるにつれて次第に同期していく。つまり、ユーザがぬいぐるみ12に触れる回数が増えると、次第に返事の声をするまでの時間が短くなる。
【0043】
ただし、レベル1では、役割が配置されていないセンサからの入力があった場合には、その入力回数をカウンタ70でカウントするだけであり、出力する音の制御(変更)には利用されない。後述する、レベル2およびレベル3についても同様である。
【0044】
具体的には、各センサの役割が図3の右欄のように示され、各センサからの入力に応じて、会話(返事)速度、応答速度(返事をするまでの時間)および音量などを制御している。たとえば、カウンタ70によって、各センサからの入力回数がカウントされ、CPU62は、カウンタ70のカウント値が増加するに従ってスピーカ24から出力する音声信号の音量を大きくする。つまり、ユーザがぬいぐるみ12に触れる回数が増加すると、ぬいぐるみ12からの返事の声が大きくなる。
【0045】
また、左腕ベンド40からの入力があると、CPU62は、音声信号の音高N1を変更する。具体的には、左腕部12gの曲がり角度が大きくなるにつれて音高N1が大きくされ、逆に左腕部12gの曲がり角度が小さくなるにつれて音高N1が小さくされる。ただし、左腕部12gの上げ下げで音高N1を大きくしたり、小さくしたりすることもできる。
【0046】
さらに、右腕ベンド42からの入力があると、CPU62は、音声信号の音高N2を変更する。つまり、ユーザがぬいぐるみ12の右腕部12jを曲げるとその曲がり角度に応じて音高N2の大きさが変化する。音高N2の大きさの変化については、ユーザがぬいぐるみ12に左腕部12gを曲げた場合と同じであるため、重複した説明は省略する。
【0047】
つまり、ぬいぐるみ12が返事をする声を低い声から高い声の間で連続的に変化させることができる。なお、低い声と高い声とは音声信号をフィルタにかけるときの音高N1および音高N2によって決定される。
【0048】
そして、口部タッチセンサ22から入力があると、CPU62は、会話速度を速くする。つまり、ユーザがぬいぐるみ12に口部12dを触る(撫でる)と、ぬいぐるみ12が速くしゃべるようになる。
【0049】
また、少なくとも1つのセンサから入力があると、CPU62は、音声信号の出力タイミングすなわち出力のオン/オフを制御する。具体的には、ユーザがぬいぐるみ12に対して表現を示している間、すなわちぬいぐるみ12を触ったり、ぬいぐるみ12に声をかけたりしている間では、音声信号が出力される。一方、ユーザがぬいぐるみ12に対する表現を止めると、音声信号の出力が停止される。
【0050】
さらに、タイマ72によって、レベル1が設定されてから現時点までの時間(期間)がカウント(計測)され、CPU62は、タイマ72のタイマ値に従って遅延時間(応答速度)すなわち返事をするまでの時間や返事を止めるまでの時間を変更する。たとえば、タイマ値が大きくなるにつれて、応答速度が速くなるようにし、ユーザの入力に対して次第に同期(シンクロ)するようにすることができる。つまり、この遅延時間によって、上述した音声信号の出力をオン/オフする応答時間が規定される。
【0051】
このようにして、インタラクション状態とセンサの入力との両方によって、ぬいぐるみ12(音楽コミュニケーション装置10)のリアクションすなわち出力する音を生み出している。
【0052】
続いて、インタラクション状態がレベル2の場合には、ぬいぐるみ12(音声コミュニケーション10)は、レベル0における呼吸を和音にそった音高でフィルタをかけて出力する。また、レベル1における音声を音階にそった音高で出力する。そして、返事を次第に同期させて、さらに音楽を想起させる音を出力するとともに、その音のテンポや他の音楽的要素を変更する。
【0053】
具体的には、図4の左欄に示すように、各センサの役割が配置され、各センサからの入力に応じて、CPU62は、全体的なテンポ、音声および呼吸音の各要素を変更する。
【0054】
左腕ベンド40、右腕ベンド42、左脚ベンド44あるいは右脚ベンド46のいずれかから1秒毎の周期で入力があれば、全体のテンポが変更される。つまり、そのような入力が連続するにつれて、テンポが速くなる。つまり、ユーザがぬいぐるみ12の左腕部12g、右腕部12h、左足部12iあるいは右足部12jのいずれか1つあるいは2つの部位を掴んで、1秒周期で動かすと、次第に音声および呼吸音の出力間隔が短くされる。
【0055】
なお、1秒毎に入力があるかどうかは、左腕ベンド40、右腕ベンド42、左脚ベンド44および右腕ベンド46の出力を検出するとともに、タイマ72のタイマ値を検出することによって知ることができる。
【0056】
音声については、上述したように、レベル1の場合とほぼ同じであるため、重複した説明は省略する。つまり、音声の遅延時間は、テンポによって決定される点が、レベル1とは異なる。具体的には、テンポが速ければ、ユーザの表現に対して速く返事をし、テンポが遅ければ、ユーザの表現に対して少し遅れて返事をする。
【0057】
また、呼吸音については、CPU62は、左脚ベンド44および右脚ベンド46からの入力の平均値を算出し、平均値の大きさに応じて呼吸音の音量を調整する。つまり、ユーザがぬいぐるみ12の左脚部12iおよび右脚部12jを掴んで、それぞれが交差するように動かすとき、左脚部12iと右脚部12jとがなす角度の大きさで音量が変更される。つまり、角度が大きければ、音量が大きくされ、角度が小さければ、音量が小さくされる。さらに、左脚部12iおよび右脚部12jを動かす周期が1秒であれば、上述したように、呼吸音の出力間隔が短くされる。
【0058】
また、入力されたセンサの数をカウンタ70でカウントし、CPU62は、カウンタ70のカウント値に応じて音響が調整される。たとえば、閾値となるカウント値を予め設定しておき、カウンタ70のカウント値が設定した閾値を下回っている間はモノラルで呼吸音を出力し、カウンタ70のカウント値が閾値以上になると、ステレオの呼吸音を出力するようにすることができる。
【0059】
さらに、左腕タッチセンサ48および右腕タッチセンサ50の両方から入力があれば、つまりユーザがぬいぐるみ12の両腕を掴むと、CPU62は、ハーモニが構築された呼吸音をスピーカ24から出力する。また、左腕タッチセンサ48および右腕タッチセンサ50の両方から入力がある毎に、つまりユーザがぬいぐるみ12の両腕を掴んだり、離したりする毎に、異なるハーモニを構築することもできる。ただし、頭部近接センサ20から入力があれば、つまりユーザがぬいぐるみ12の両腕を掴んで、ユーザの顔や胴体をぬいぐるみ12の鼻部12cに近づけた場合には、構築されたハーモニが保持(固定)される。
【0060】
また、インタラクション状態がレベル3の場合には、ぬいぐるみ12(音声コミュニケーション装置10)は音楽的な操作を制御する。具体的には、各センサの役割配置は、図4の右欄のように示され、各センサからの入力に応じて、主として音楽的要素(音階、コード、メロディおよびリズムなど)が変更される。
【0061】
ただし、この実施例では、コード(和音)の種類は6種類である。また、音階の種類は、ハ長調、ニ長調、ホ長調、…、変ホ長調、変ト長調の12種類である。さらに、リズムの種類は4種類である。
【0062】
全体としては、CPU62は、いずれかの(任意の)センサからリズミカル(規則的)な入力を検知すると、テンポを変更する。つまり、ユーザがぬいぐるみ12を掴んで、ぬいぐるみ12自体をリズミカルに動かしたり、ぬいぐるみ12の一部の部位をリズミカルに動かしたり、また触ったりすると、全体のテンポが速くなる。ただし、テンポが速くなった後に、不規則な入力があれば、次第にテンポが遅くなる。また、入力がなくなると、テンポが一定の速さに固定(保持)される。
【0063】
ただし、CPU62は、ぬいぐるみ12自体をリズミカルに動かしたことは、ジャイロ28からの入力を検出することによって判断できる。
【0064】
また、左脚ベンド44からの入力があれば、CPU62は、スピーカ24から出力する音の音量を大きくする。一方、右脚ベンド46からの入力があれば、CPU62は、スピーカ24から出力する音の音量を小さくする。つまり、ユーザがぬいぐるみ12の左脚部12iおよび右脚部12jを曲げると、音量が大きくされたり、小さくされたりする。
【0065】
さらに、右腕ベンド42からの入力があれば、CPU62は、スピーカから出力される音のコードを変更する。上述したように、この実施例では、6種類のコードが用意されており、右腕ベンド42からの入力がある毎に、すなわちユーザがぬいぐるみ12の右腕部12hを曲げ延ばししたり、上げ下げしたりする毎に、コードの種類が更新される。
【0066】
このとき、コードは、上述したテンポに応じて更新速度を変更される。具体的には、右腕ベンド42からの入力があると、テンポで規定される速さで、コード(I) からコード(II)に更新される。つまり、テンポが速ければ、右腕ベンド42からの入力があると、すぐにコードの種類が更新されるが、テンポが遅ければ、入力から少し遅れてコードの種類が更新される。
【0067】
なお、テンポが速い場合には、右腕ベンド42からの入力があると、コード(I) からコード(III)のように間のコード(II)を飛ばして更新することもできる。
【0068】
また、右腕部12hを曲げる角度の大きさや右腕部12hを上げる角度の大きさでコードの種類を更新するようにすることもできる。
【0069】
また、頭部タッチセンサ14からの入力がたとえば1秒以上継続すれば、CPU62は、スピーカ24から出力する音のキー(音階)の種類を変更する。上述したように、この実施例では、12種類のキーを用いて、入力がある毎にキーが高くされる。つまり、ユーザがぬいぐるみ12の頭部12aを1秒以上触り続けると、または撫でると、キーがハ長調からニ長調に変更される。そして、頭部12aを触るのを止めると、ニ長調でキーが固定される。さらに、頭部12aを1秒以上触ると、キーがニ長調からホ長調に変更される。
【0070】
ただし、キーが変更される速さは、上述のテンポで規定され、頭部タッチセンサ14から1秒以上の入力があると、テンポが速い場合には、すぐにキーが変更され、テンポが遅い場合には、1秒以上の入力から少し遅れてキーが変更される。
【0071】
なお、テンポが速い場合には、キーがハ長調からホ長調のように間のニ長調を飛ばしてキーを変更することもできる。
【0072】
また、所定のキーが決定されると、音声や呼吸音はそのキーに沿って出力される。つまり、音声や呼吸音がそのキーの音を出力するようにフィルタリングされる。
【0073】
また、音声については、レベル1で示した場合とほぼ同じであるため、重複した説明は省略する。つまり、音高N1の変更が異なる点である。具体的には、レベル3が設定されてから30秒が経過するまでは、左腕タッチセンサ48が有効にされ、左腕タッチセンサ48からの入力があると、CPU62は、音声の音高N1を変更する。つまり、ユーザが左腕部12gを触っている時間が長くなるにつれて、音量が大きくされる。また、レベル3が設定されてから30秒が経過すると、左腕ベンド40が有効にされ、左腕ベンド40からの入力があると、CPU62は、後述するように、メロディ音の音高を変更する。
【0074】
呼吸音については、左腕タッチセンサ48からの入力があると、つまりユーザがぬいぐるみ12の左腕部12gを触ったり、掴んだりすると、CPU62は、呼吸音の音量を変更する。たとえば、左腕タッチセンサ48から継続して入力がある場合に音量を大きくしたり、左腕タッチセンサ48から入力される圧力の大きさが大きくなるにつれて音量を大きくしたりすることができる。逆に、左腕タッチセンサ48から入力される圧力の大きさが小さくなると、音量を小さくすることもできる。
【0075】
また、腹部タッチセンサ26からの入力あるいは左脚ベンド44および右脚ベンド46からの入力があると、CPU62は、呼吸音の音響を変更する。たとえば、ユーザがぬいぐるみ12の腹部を触ったり、撫でたりすると、腹部タッチセンサ26から入力があり、その入力がある毎に、呼吸音をモノラルからステレオにあるいはステレオからモノラルに変更することができる。また、ユーザがぬいぐるみ12の左脚部12iおよび右脚12jを曲げ延ばししたり、上げ下げしたりすると、左脚ベンド44および右脚ベンド46から入力があり、それらの入力の平均値を算出し、平均値が予め設定してある閾値を超えるかどうかでモノラルとステレオとを切り換える(変更する)こともできる。
【0076】
このように、センサの種類に応じた音響の変更を実行することができる。ただし、センサの種類すなわち左脚ベンド44および右脚ベンド46の別に拘わらず音響を変更することもできる。たとえば、腹部タッチセンサ26からの入力に応じて、モノラルからステレオに変更した後に、左脚ベンド44および右脚ベンド46からの入力に応じて、ステレオからモノラルに変更することもできる。逆に、左脚ベンド44および右脚ベンド46からの入力に応じて、モノラルからステレオに変更した後に、腹部タッチセンサ46からの入力に応じて、ステレオからモノラルに変更することもできる。
【0077】
さらに、背部タッチセンサ32からの入力があると、CPU62は、ハーモニを構築する。たとえば、ユーザがぬいぐるみ12の背中を触ったり、摩ったりすると、スピーカ24から出力される音にハーモニが構築される。
【0078】
メロディについては、左腕ベンド40からの入力があると、CPU62は、メロディの音高を変更する。たとえば、ユーザがぬいぐるみ12の左腕部12gを曲げると、メロディ音が高くされ、左腕部12gを延ばすとメロディ音が低くされる。ただし、曲げる角度に応じて連続的に音高は変更される。
【0079】
なお、ユーザが左腕部12gを上げたり下げたりしても、その上げ下げの角度で音高を連続的に変化させることもできる。
【0080】
また、頭部近接センサ20からの入力があると、つまりユーザがぬいぐるみ12にユーザの顔や胴体を近づけると、CPU62は、上述したメロディの音高を固定(保持)される。
【0081】
さらに、右腕タッチセンサ50からの入力があると、CPU62は、メロディ音の音量が変更される。たとえば、ユーザがぬいぐるみ12の右腕部12hを触る毎にメロディ音の音量が大きくされたり、右腕部12hを触る時間が長くなるにつれて、メロディ音の音量が大きくされたりする。
【0082】
ただし、右腕部12hを握る力に応じて音量を上げ下げすることができる。つまり、CPU62は、右腕タッチセンサ50から入力される圧力の大きさを検出し、圧力が大きくなると、音量を上げ、圧力が小さくなると、音量を下げる。
【0083】
さらに、リズムについては、上述の全体についてのテンポと同様に、いずれかのセンサからリズミカルな入力があると、CPU62は、予め用意してある4種類のリズムを変更する。たとえば、ユーザがぬいぐるみ12を触ったり、撫でたり、掴んだり、上げ下げしたりして、任意のセンサからリズミカルな入力があると、音がリズム(I) にそってスピーカ24から出力される。さらに、リズミカルな入力があると、音がリズム(II)にそってスピーカ24から出力される。
【0084】
このようなリズムの変更の速度は、全体のテンポで規定され、テンポが速ければ、リズミカルな入力があると、すぐにリズムが変更されるが、テンポが遅ければ、リズミカルな入力から遅れてリズムが変更される。
【0085】
なお、テンポが速い場合には、リズミカルな入力があると、リズム(I) からリズム(III)のように間のリズム(II)を飛ばして変更することもできる。
【0086】
つまり、インタラクション状態がレベル3の場合には、ユーザの表現に従って、音楽的な要素が操作(制御)され、単なる人の声による返事(音声)や呼吸音から和音のような音に変化され、さらにリズムやメロディに沿った音楽が奏でられるようになる。つまり、ユーザは、ぬいぐるみ12と楽しいコミュニケーションを図ることができる。
【0087】
さらに、インタラクション状態がレベル4では、単純にリズムと和音(もとは呼吸音)の音量バランスを調整し、ぬいぐるみ12(音楽コミュニケーション装置10)が暴走状態(制御不能状態)にされる。つまり、キーやコードがめちゃくちゃ(でたらめ)に変化し、不協和音のような不快な音が出力される。ただし、ユーザがぬいぐるみ12をなだめると、インタラクション状態がレベル3に戻り、制御可能となる。
【0088】
具体的には、図5に示すように、各センサの役割が配置される。なお、図中に×が示されている欄は、制御と無関係であることを示してある。
【0089】
全体については、CPU62は、各センサから入力に拘わらず、予めプログラミングされた所定のアルゴリズムに従ってランダムにキーの種類を変更する。
【0090】
また、呼吸音については、左腕タッチセンサ48からの入力があると、CPU62は、音量を変更する。たとえば、ユーザが左腕部12gを触ると、音量が大きくされる。ただし、レベル4では暴走状態であるため、左腕タッチセンサ48からの入力がない場合に、音量を増大させ、左腕タッチセンサ48からの入力があると、音量を小さくするようにしてもよい。
【0091】
また、上述したキーの種類の変更と同様に、CPU62は、各センサからの入力に拘わらず、予めプログラミングされた所定のアルゴリズムに従ってランダムにハーモニを構築する。たとえば、不協和音のような不快な音を出力することができる。
【0092】
さらに、リズムについては、右腕タッチセンサ50からの入力があると、CPU62は、リズムの音量を大きくする。ただし、レベル4では、暴走状態であるため、右腕タッチセンサ50からの入力がない場合に、リズムの音量を増大させ、右腕タッチセンサ50からの入力があると、リズムの音量を下げるようにすることもできる。
【0093】
ただし、このようにレベル4が設定され、暴走状態(発狂状態)になった場合には、ユーザがぬいぐるみ12をなだめたり、あやしたりすることにより、レベル3に戻すことができる。また、このように暴走状態になった場合には、ぬいぐるみ12を放置しておけば、所定時間(この実施例では、10秒)が経過したときに、初期の状態(レベル0)に戻すこともできる。
【0094】
上述したインタラクション状態のレベルは、ユーザがぬいぐるみ12にどのように接するかによって維持または遷移され、またそれぞれのレベルで決定されるセンサの役割配置でユーザの表現すなわち各センサからの入力に応じた音が出力される。
【0095】
具体的には、図2で示したCPU62は、図6〜図8に示すフロー図に従って処理する。ただし、CPU62は、音楽コミュニケーション装置10の主電源がオンにされると、ROM66のメモリエリア66aに記憶されたプログラムをRAM68のワーキングエリア68aにロードし、メモリエリア66bに記憶されたセンサの役割配置をワーキングエリア68bにロードし、そして、メモリエリア66cに記憶された音声信号に対応するデータをワーキングエリア68cにロードして、以下に示す処理を実行する。
【0096】
図6に示すように、CPU62は処理を開始すると、まず、ステップS1でインタラクション状態をレベル0に設定する。つまり、図3の左欄で示したようなセンサの役割を配置する。次に、ステップS3では、各センサからの入力をチェックする。
【0097】
続いて、ステップS5では、各センサからの入力があるかどうかを判断する。ステップS5で“NO”であれば、つまり入力がなければ、そのままステップS3に戻って、再度入力をチェックする。一方、ステップS5で“YES”であれば、つまり入力があれば、ステップS7で、タッチセンサ(14,22,26,32,48,50,52,54)、カメラ18あるいは頭部近接センサ20からの入力があるかどうかを判断する。ステップS7で“YES”であれば、つまりタッチセンサ、カメラ18あるいは頭部近接センサ20からの入力があれば、ステップS11に進む。
【0098】
ただし、図6では、ステップを省略してあるが、カメラ18あるいは頭部近接センサ20からの入力であれば、呼吸音を一旦停止してからステップS11に進む。
【0099】
一方、ステップS7で“NO”であれば、つまりタッチセンサ、カメラ18あるいは頭部近接センサ20からの入力がなければ、ステップS9では、上述したように、テンポに従った呼吸音の出力処理を実行してからステップS3に戻る。
【0100】
ステップS11では、インタラクション状態をレベル1に設定(遷移)する。つまり、各センサが図3の右欄で示した役割配置にされる。続くステップS13では、各センサからの入力をチェックし、ステップS15で抱き上げられたかどうかを判断する。具体的には、背部近接センサ34あるいは尻部近接センサ36からの入力が停止したかかどうかを判断する。
【0101】
なお、この実施例では、ぬいぐるみ12を座らせたり、仰向けに寝ころばせたりするように置くことを前提としたため、背部近接センサ34あるいは尻部近接センサ36を設けて、それぞれの入力をチェックするようにしているが、うつ伏せにぬいぐるみ12を置く場合も想定して、腹部に近接センサをさらに設けて、その近接センサの入力もチェックするようにしてもよい。
【0102】
ステップS15で“YES”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力が停止すれば、抱き上げられたと判断し、図7に示すステップS25に進む。一方、ステップS15で“NO”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力があれば、抱き上げられていないと判断し、ステップS17に進む。
【0103】
ステップS17では、頭部タッチセンサ14、腹部タッチセンサ26、背部タッチセンサ32、左腕タッチセンサ48、右腕タッチセンサ50、左脚タッチセンサ52および右脚タッチセンサ54からの入力があるかどうかを判断する。ステップS17で“YES”であれば、つまり口部タッチセンサ26を除くタッチセンサのいずれかからの入力があれば、ステップS19でその入力が8秒以上継続するかどうかを判断する。ステップS19で“YES”であれば、つまり入力が8秒以上継続すれば、図7に示すステップS25に進む。一方、ステップS19で“NO”であれば、つまり口部タッチセンサ22を除くタッチセンサからの入力が8秒に満たない場合には、そのままステップS13に戻って、再度入力をチェックする。
【0104】
また、ステップS17において“NO”であれば、つまりタッチセンサからの入力がなければ、ステップS21でタッチセンサ(口部タッチセンサ22の除く)以外のセンサからの入力があるかどうかを判断する。ステップS21で“NO”であれば、つまり口部タッチセンサ22を除くタッチセンサ以外のセンサからの入力がなければ、そのままステップS13に戻る。
【0105】
一方、ステップS21で“YES”であれば、つまり口部タッチセンサ22を除くタッチセンサ以外のセンサからの入力があれば、ステップS23で上述したようなレベル1に対応するセンサの役割に応じた音を出力する処理を実行してから、すなわちユーザの表現に対して返事をしてから、ステップS13に戻る。
【0106】
図7に示すステップS25では、インタラクション状態をレベル2に設定(遷移)する。そして、ステップS27では、各センサからの入力をチェックし、ステップS29でおろされたかどうかを判断する。ステップS29で“YES”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力があり、他のセンサからの入力がなければ、降ろされたと判断し、ステップS31でおろされてから2秒が経過したかどうかを判断する。
【0107】
ステップS31で“NO”であれば、つまりおろされてから2秒が経過してなければ、同じステップS31に戻って、2秒が経過するのを待つ。一方、ステップS31で“YES”であれば、つまりおろされてから2秒が経過すると、図6で示したステップS11に戻って、インタラクション状態をレベル1に設定する。つまり、インタラクション状態のレベルを遷移する。
【0108】
また、ステップS29で“NO”であれば、つまり背部近接センサ34あるいは尻部近接センサ36からの入力がなく、他のセンサからの入力があれば、おろされていないと判断し、ステップS33で入力があるかどうかを判断する。ステップS33で“NO”であれば、つまり入力がなければ、そのままステップS27に戻る。一方、ステップS33で“YES”であれば、つまり入力があれば、ステップS35でリズミカル(規則的)な入力かどうかを判断する。
【0109】
ステップS35で“NO”であれば、つまりリズミカルな入力でなければ、ステップS37で図4の左欄で示したセンサの役割に応じた音を出力してからステップS27に戻る。一方、ステップS35で“YES”であれば、つまりリズミカルな入力であれば、ステップS39でインタラクション状態をレベル3に設定(遷移)し、ステップS41で各センサからの入力をチェックする。
【0110】
続いて、ステップS43では、各センサからの入力があるかどうかを判断する。ステップS43で“NO”であれば、つまり各センサからの入力がなければ、ステップS45で入力がない状態が5秒経過したかどうかを判断する。ステップS45で“NO”であれば、つまり5秒が経過してなければ、そのままステップS43に戻って、各センサからの入力があるかどうかを判断する。一方、ステップS45で“YES”であれば、つまり入力がない状態が5秒経過すれば、ステップS25に戻って、インタラクション状態をレベル2に設定する。つまり、インタラクション状態のレベルを遷移する。
【0111】
一方、ステップS43において“YES”であれば、つまりいずれかのセンサから入力があれば、図8に示すステップS47でインタラクション状態をレベル4に設定するかどうかを判断する。ただし、この実施例では、或る規則(ルール)、確率あるいは乱数によって、インタラクション状態をレベル4にするかどうかを判断する。
【0112】
なお、他のレベル遷移と同様に、所定のセンサからの入力に応じてレベル4に遷移するようにしてもよい。たとえば、ユーザがぬいぐるみ12のいずれかの部位を叩いたり、不規則なリズムでぬいぐるみ12のいずれかの部位を触ったりするような場合に、インタラクション状態がレベル4に設定される。
【0113】
ステップS47で“NO”であれば、つまり図4の右欄で示したような各センサの役割で、音を出力してから図7で示したステップS41に戻って再度入力をチェックする。つまり、インタラクション状態がレベル3の場合には、ユーザの表現に従って、音楽的な要素が操作(制御)され、単なる人の声による返事から和音のような音に変化され、さらにリズムやメロディに沿った音楽が奏でられるようになる。
【0114】
一方、ステップS47で“YES”であれば、つまりインタラクション状態をレベル4にする場合には、ステップS51でインタラクション状態がレベル4に設定(遷移)される。そして、ステップS53で各センサからの入力がチェックをチェックする。続くステップS55では、なだめるあるいはあやす行為かどうかを判断する。たとえば、母親が子供をよしよしと言いながらあやすように、いずれかのセンサからリズミカル(規則的)な入力があるかどうかを判断する。つまり、レベル2からレベル3に遷移する場合と同様の入力があるかどうかを判断している。
【0115】
なお、“よしよし”のように、あやしたり、なだめたりするときの音声に対応する音声データを予め記憶しておき、ユーザの声をたとえばDPマッチング法やHMM法によって音声認識し、“よしよし”などの言葉が連続して入力されるかどうかを判断するようにしてもよい。
【0116】
また、リズミカルな入力と“よしよし”などの言葉の入力との両方に基づいて判断するようにしてもよい。
【0117】
ステップS55で“YES”であれば、つまりリズミカルな入力であれば、なだめるあるいはあやす行為であると判断し、図7で示したステップS39に戻ってインタラクション状態をレベル3に設定する。つまり、インタラクション状態が遷移される。
【0118】
一方、ステップS55で“NO”であれば、つまり不規則な入力であれば、なだめるあるいはあやす行為でないと判断し、ステップS57で放置されたかどうかを判断する。具体的には、背部近接センサ34あるいは尻部近接センサ36からの入力があり、他のセンサからの入力がないかどうかを判断する。 ステップS57で“YES”であれば、つまり放置されれば、ステップS59で放置されてから10秒が経過したかどうかを判断する。ステップS59で“NO”であれば、つまり放置されてから10秒が経過してなければ、同じステップS59に戻って10秒が経過するのを待つ。一方、ステップS59で“YES”であれば、つまり放置されてから10秒が経過すれば、ステップS1に戻ってインタラクション状態をレベル1に設定(遷移)する。つまり、初期の状態に戻る。
【0119】
一方、ステップS57で“NO”であれば、つまり放置されなければ、ステップS61で、図5で示したセンサの役割でユーザの表現に応じた音を出力してからステップS53に戻って、再度センサの入力をチェックする。ただし、制御不能状態であるため、でたらめにコードやキーが変化されるため、不協和音のような不快な音が出力される。
【0120】
この実施例によれば、ユーザの表現に応じてインタラクション状態のレベルが遷移されるとともに、インタラクション状態のレベルで決定されるセンサの役割でセンサの入力に応じた音が出力されるので、遊戯性に優れていると言える。したがって、この音楽コミュニケーション装置を玩具として提供した場合に、幼児等がすぐに飽きてしまうようなことがない。
【0121】
なお、この実施例では、タッチセンサとして圧力センサを用いるようにしたが、触ったかどうかを判断できる接触センサを用いるようにしてもよい。
【0122】
また、この実施例で用いたセンサの種類、個数あるいは役割の配置は単なる例示であり、設計者の意図によって任意に変更することができる。つまり、この実施例によって、限定されるべきではない。
【0123】
さらに、この実施例では、カメラから入力される映像信号の輝度レベルの変化に従って人が近づいたかどうかのみを判断するようにしたが、映像信号を解析することにより、ぬいぐるみ12(音楽コミュニケーション装置10)が置かれている場所の特定や近づいてきた人物を特定できるようにすることもできる。たとえば、図3〜図5で示したような役割配置を複数種類用意しておき、場所や人物を特定することによって、1種類の役割配置を選択するようにできる。また、人物を特定できるようにした場合には、ぬいぐるみ12のユーザ(主人)を特定した場合には、他の人物を特定した場合よりもレベル0からレベル3までの状態遷移を速くし、短時間で楽しいコミュニケーションを図れるようにすることもできる。
【図面の簡単な説明】
【図1】この発明の一実施例を示す図解図である。
【図2】図1実施例に示す音楽コミュニケーション装置の電気的な構成図である。
【図3】図1および図2に示す各センサの役割配置の一例を示す図解図である。
【図4】図1および図2に示す各センサの役割配置の他の一例を示す図解図である。
【図5】図1および図2に示す各センサの役割配置のその他の一例を示す図解図である。
【図6】図2に示すCPUの処理の一部を示すフロー図である。
【図7】図2に示すCPUの処理の他の一部を示すフロー図である。
【図8】図2に示すCPUの処理のその他の一部を示すフロー図である。
【符号の説明】
10 …音楽コミュニケーション装置
12 …ぬいぐるみ
14,22,26,32,48,50,52,54 …タッチセンサ
16 …マイク
18 …カメラ
20,34,36 …近接センサ
24 …スピーカ
30,38 …温度センサ
40,42,44,46 …ベンド
60 …コンピュータ
62 …CPU
66 …ROM
68 …RAM
70 …カウンタ
72 …タイマ
[0001]
[Industrial applications]
The present invention relates to a music communication device, and more particularly to a music communication device applied to play equipment for, for example, infants or elderly people.
[0002]
[Prior art]
Heretofore, there has been no such music communication device. As a similar prior art, when a specific part of a stuffed animal replaced with a character such as a doll or animal imitating a human figure is touched or moved, sound or music is output, or the specific part moves in a certain manner. There was a toy like that.
[0003]
[Problems to be solved by the invention]
However, in such a conventional technique, when a specific part of a doll or a stuffed animal is touched or moved, a fixed voice (a message such as a greeting) or a fixed music recorded in advance is output, or the specific part is fixed. There was a problem that the game was lacking in play because the movement was repeated. For this reason, the infant was quickly bored.
[0004]
Therefore, a main object of the present invention is to provide a novel music communication device having excellent playability.
[0005]
[Means for Solving the Problems]
The present invention relates to a plurality of sensors for detecting a user's expression.A music communication device that controls a plurality of musical elements by input from a plurality of sensors,Depending on the detection results of multiple sensorsRole setting means for presetting the role of each sensor with respect to a plurality of music elements for each of a plurality of determined interaction state levels, wherein the role of at least one sensor is different for each interaction state level; State setting means for setting any one of a plurality of interaction state levels according to the detection result of the sensor; andAccording to the input from the sensorControlled musical elementsA music communication device including an output unit that outputs a sound.
[0006]
[Action]
In the music communication device according to the present invention, a plurality of sensors for detecting a user's expression, that is, an action, a behavior, or a voice.( The corresponding parts in the examples are 14-54 It is. The same applies hereinafter. )Is provided.Role setting means (66, 66b) However, for example, an interaction state level determined according to the detection result of each sensor and the roles of a plurality of sensors in each state level are set in a memory such as a ROM in advance, and the state setting means is set. (62, S1, S11, S25, S39, S51) Sets any one of the interaction state levels according to the detection results of the plurality of sensors. OutPower means(62, 66, 66a, S9, S23, S37, S49, S61, 24)ButAt that set interaction state levelOutputs sound according to the input from the sensor. In other words, it is possible to respond and communicate with the user's expression by outputting a voice, a sound such as a chord, or music.
[0008]
Further, the interaction state (interaction state) divided into predetermined stages is set to a predetermined stage (level), and the level of the interaction state is maintained or transited according to the input from the sensor, that is, the detection result, and the interaction state is set. The role may be changed when the level is changed.
[0009]
Further, the sound changing means may be configured to control a musical element (for example, scale, chord, rhythm, melody, etc.) in accordance with an input from the sensor, that is, a detection result.)Since the change is made, not only a simple voice but also a sound, a chord, or music along a certain scale can be output, and the volume can be adjusted. That is, depending on the expression of the user, that is, the manner of contacting the user, it is possible to achieve a pleasant communication in which music is played.
[0010]
Specifically, the scale changing means changes the scale according to the input from the sensor, and the code changing means changes the code according to the input from the sensor. The rhythm changing means changes the rhythm according to the input from the sensor, and the melody changing means changes the melody according to the input from the sensor. Such musical elements may be changed individually or in a combined manner.
[0011]
For example, such a music communication device has a stuffed body in which a plurality of sensors are arranged at predetermined portions as a main body, and each of the plurality of sensors detects a user's expression through the stuffed toy. That is, the user can feel as if communicating with the stuffed character.
[0012]
【The invention's effect】
According to the present invention, a sound corresponding to an input from a plurality of sensors is output, and the role of the sensor is changed according to the expression of the user, so that the user does not get bored immediately. That is, the playability is high.
[0013]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0014]
【Example】
Referring to FIG. 1A, a music communication device 10 of this embodiment includes a stuffed toy 12, and the stuffed toy 12 is formed in a shape imitating an animal or a character. However, in this embodiment, the stuffed toy 12 has a shape resembling a bear, for example, and has a head 12a, an ear 12b, a nose 12c, a mouth 12d, a body 12e, a tail 12f, a left arm 12g, and a right arm. 12h, a left leg 12i, a right leg 12j, and the like. A plurality of sensors to be described later are provided (built-in) in each of such parts (12a to 12j).
[0015]
1A and 1B, each sensor is shown on the surface (outside) of the stuffed toy 12 for simplicity, and some sensors are omitted.
[0016]
More specifically, the head 12a of the stuffed toy 12 is provided with a head touch sensor 14 arranged to be in contact with the inner surface of the skin of the stuffed toy 12. As the head touch sensor 14, a piezo-type pressure sensor that can detect at least whether or not a contact has been made and a continuous change in force (pressing force) is applied. A microphone 16 as an audio sensor is provided on an ear 12b provided continuously to the head 12a. Further, the nose portion 12c is provided with a CCD camera (hereinafter simply referred to as "camera") 18 as an image sensor and a head proximity sensor 20 such as an infrared sensor.
[0017]
However, the output of the infrared sensor is normally on, and the output is stopped when a person or an object is detected.
[0018]
The mouth 12d disposed below the nose 12c is provided with the mouth touch sensor 22 including the same pressure sensor as the head touch sensor 14 described above. Similarly, the mouth 12d is filtered along one note (do, re, mi, fa, ...) or one note not along the note (sound with ♯ or ♭) or a different note. A speaker 24 is provided for outputting sounds such as voices, chords, or music. This speaker 24 is also shown on the surface of the stuffed animal 12 for easy explanation in FIG. 1A, but is actually provided inside the stuffed animal 12.
[0019]
However, the camera 18 is arranged such that a lens (not shown) is exposed from the stuffed animal 12. Similarly, although not shown, the head proximity sensor 20 is also arranged such that the detection unit (light-emitting unit / light-receiving unit) of the infrared sensor is exposed from the stuffed animal 12.
[0020]
The body 12e is provided with an abdomen touch sensor 26, a gyro (accelerometer) 28, and an internal temperature sensor 30 having the same configuration as the head touch sensor 14 described above. As can be seen from FIG. 1B, the torso portion 12e is also provided with a back proximity sensor 34 composed of the same back touch sensor 32 as the head touch sensor 14 described above and an infrared sensor same as the head proximity sensor 20 described above. Is provided. In addition, a butt portion proximity sensor 36 that is the same as the head proximity sensor 16 is provided at the butt portion included in the body portion 12e.
[0021]
However, the back proximity sensor 34 and the buttocks proximity sensor 36 are arranged such that the detection unit of the infrared sensor is exposed from the stuffed animal 12.
[0022]
Further, an external temperature sensor 38 is provided on a tail portion 12f continuously provided on the body portion 12e. The external temperature sensor 38 is arranged so that at least a temperature detecting unit (not shown) is exposed from the tail part 12f. Also, as shown in FIGS. 1A and 1B, the left arm 12g, the right arm 12h, the left leg 12i, and the right leg 12j determine whether or not each part (12g to 12j) is bent. Each of a left arm bend 40, a right arm bend 42, a left leg bend 44, and a right leg bend 46 using a piezo-type bend capable of detecting a bending angle is provided.
[0023]
However, as can be clearly understood from FIGS. 1A and 1B, each of the bends (40 to 46) is provided so that one end thereof extends to the body portion 12e.
[0024]
As shown in FIG. 1A, the left arm 12g, the right arm 12h, the left leg 12i, and the right leg 12j have the left arm touch sensor 48, the right arm touch sensor 50, and the left leg Each of a touch sensor 52 and a right leg touch sensor 54 is provided.
[0025]
The electrical configuration of the music communication device 10 is shown as in FIG. That is, the music communication device 10 includes the computer 60, and the above-described sensors (14 to 22, 26 to 54) and the speaker 22 are connected to the computer 60.
[0026]
The computer 60 includes a CPU 62, and the CPU 62 is connected to each of the ROM 66, the RAM 68, the counter 70, and the timer 72 via the internal bus 64.
[0027]
Although not shown in FIG. 2, each sensor (excluding the microphone 16 and the camera 18) is connected to the internal bus 64 via an A / D converter and an interface. Although not shown, the microphone 16 is connected to the internal bus 64 via an amplifier, an A / D converter, and an interface. Further, although not shown, the camera 18 is connected to the internal bus 64 via an interface. Further, although not shown, the speaker 24 is connected to the internal bus 64 via an amplifier, a D / A converter, and an interface.
[0028]
The ROM 66 includes memory areas 66a to 66c. In the memory area 66a, the level of the interaction state (interaction state) of the stuffed toy 12 (music communication device 10) is maintained or transited. A program for generating a sound according to an input from the sensor is stored.
[0029]
As a program (application software) for generating a sound, “MAX / MSP” (product name) manufactured by Optocode Corporation that runs on a Mac OS can be used.
[0030]
In the memory area 66b, mapping (arrangement) of the role of each sensor according to the level of the interaction state is stored. This mapping will be described later in detail.
[0031]
Further, in the memory area 66c, data corresponding to a previously recorded voice signal corresponding to a human voice (voice) is stored.
[0032]
However, in this embodiment, since the audio signal is filtered along different pitches (pitch N1 and pitch N2), audio signals of different pitches are simultaneously output from the speaker 24. Therefore, by controlling each of the pitch N1 and the pitch N2, a high voice or a low voice can be produced in a range from a high pitch to a low pitch.
[0033]
For example, in this embodiment, the interaction state is set (transitioned) between levels 0 to 4, and the role of each sensor is changed according to each of levels 0 to 4. That is, the above-described memory area 66b stores the arrangement of roles for each sensor as shown in FIGS.
[0034]
Specifically, when the interaction state is level 0, the role of each sensor is determined as shown in the left column of FIG. However, it means that there is no control in the column where the horizontal bar is drawn. Hereinafter, the same applies to this embodiment.
[0035]
At level 0, the stuffed animal 12 (music communication device 10) outputs a simple, unprocessed breathing sound and stops breathing when attention (interest) is drawn. Such timing control of the breathing sound, that is, output / stop of the breathing sound, is executed in accordance with the input from the microphone 16, the camera 18, and the head proximity sensor 20.
[0036]
For example, the breathing sound is always output from the stuffed toy 12 (speaker 24), and when the stuffed toy 12 (music communication 12) is interested, in this embodiment, when the person (user) approaches, the breathing sound is output. The sound is stopped. That is, the microphone 16 is always activated, and the CPU 62 detects a change in the signal level (volume) or pitch (the pitch of a musical note in music) of an audio signal input through the microphone 16, When the signal level or the frequency changes, it is determined that a person has approached. That is, when there is a human voice or when there is a noise such as opening and closing the door, it can be determined that the person has approached.
[0037]
The frequency of the audio signal may be analyzed to determine the voice of a person, and only when the voice is a human voice, it may be determined that the person has approached.
[0038]
Further, the camera 18 is always activated, and the CPU 62 detects a change in the luminance level from a video signal input via the camera 18 and determines that a person has approached when the luminance level has changed. As described above, specific examples that can determine that a person has approached include a case where the user approaches or touches the stuffed animal 12 with his or her face or another part, or a case where the lighting device in the room where the stuffed animal 12 is placed blinks. Can be considered.
[0039]
Further, the head proximity sensor 20 outputs a detection signal when the user approaches or touches the head 12a of the stuffed animal 12, particularly the nose 12c, of the stuffed toy 12 with its own face or another part. Accordingly, the CPU 62 determines that a person has approached in response to this.
[0040]
Further, the entire tempo, that is, the tempo of the breathing sound at level 0 is changed according to the input from the internal temperature sensor 30 and the external temperature sensor 38. For example, the CPU 62 detects a difference between the internal temperature of the stuffed animal 12 and the external temperature detected by the internal temperature sensor 30 and the external temperature sensor 38, and if the difference is small, slows down the tempo for outputting the breathing sound. Conversely, when the difference is large, the tempo at which the breathing sound is output can be increased. For example, if the tempo (speed) is determined within a predetermined range, the tempo can be changed by a continuous speed change according to the temperature difference.
[0041]
When the overall tempo changes, the tempo for the progress of breathing sounds, rhythm sounds, melodies, chords (chords) and keys (types of scales) changes. Further, as described above, the tempo at which the breathing sound is output is changed, but other than the breathing sound will be described in detail as appropriate, and the detailed description will be omitted here.
[0042]
Next, when the interaction state is level 1, the stuffed toy 12 (voice communication device 10) outputs a voice signal stored in the memory area 66c of the ROM 66 in advance from the speaker 22, and touches the stuffed toy 12, The user replies (replies) to the user's expression such as talking to the stuffed toy 12 or the like. Then, as the user touches the stuffed animal 12 for a longer time, the reply interval is shortened, and as the number of inputs from the sensor of the part touched by the human increases, the synchronization is gradually performed. That is, as the number of times the user touches the stuffed toy 12 increases, the time until a reply is gradually shortened.
[0043]
However, at level 1, when there is an input from a sensor to which no role is assigned, the number of inputs is only counted by the counter 70, and is not used for control (change) of the output sound. The same applies to level 2 and level 3, which will be described later.
[0044]
Specifically, the role of each sensor is indicated as shown in the right column of FIG. 3, and in response to an input from each sensor, the conversation (answer) speed, the response speed (time until reply), the volume, etc. Controlling. For example, the number of inputs from each sensor is counted by the counter 70, and the CPU 62 increases the volume of the audio signal output from the speaker 24 as the count value of the counter 70 increases. That is, as the number of times the user touches the stuffed animal 12 increases, the voice of the reply from the stuffed animal 12 increases.
[0045]
When there is an input from the left arm bend 40, the CPU 62 changes the pitch N1 of the audio signal. Specifically, the pitch N1 increases as the bending angle of the left arm 12g increases, and conversely, the pitch N1 decreases as the bending angle of the left arm 12g decreases. However, the pitch N1 can be increased or decreased by raising or lowering the left arm 12g.
[0046]
Further, when there is an input from the right arm bend 42, the CPU 62 changes the pitch N2 of the audio signal. That is, when the user bends the right arm portion 12j of the stuffed toy 12, the magnitude of the pitch N2 changes according to the bending angle. The change in the magnitude of the pitch N2 is the same as the case where the user bends the left arm 12g to the stuffed toy 12, and thus the repeated description is omitted.
[0047]
That is, the voice to which the stuffed animal 12 answers can be continuously changed from a low voice to a high voice. The low voice and the high voice are determined by the pitch N1 and the pitch N2 when the voice signal is filtered.
[0048]
Then, when there is an input from the mouth touch sensor 22, the CPU 62 increases the conversation speed. That is, when the user touches (strokes) the mouth portion 12d with the stuffed toy 12, the stuffed toy 12 starts to speak quickly.
[0049]
When there is an input from at least one sensor, the CPU 62 controls the output timing of the audio signal, that is, on / off of the output. Specifically, while the user is showing an expression to the stuffed toy 12, that is, while touching the stuffed toy 12 or speaking to the stuffed toy 12, an audio signal is output. On the other hand, when the user stops expressing the stuffed animal 12, the output of the audio signal is stopped.
[0050]
Further, the timer 72 counts (measures) a time (period) from when the level 1 is set to the present time, and the CPU 62 determines a delay time (response speed), that is, a time until a reply is made according to the timer value of the timer 72. Change the time before stopping a reply. For example, as the timer value increases, the response speed can be increased, and the response speed can be gradually synchronized (synchronized) with the user's input. That is, the response time for turning on / off the output of the above-described audio signal is defined by the delay time.
[0051]
In this way, the reaction of the stuffed toy 12 (music communication device 10), that is, the sound to be output is generated by both the interaction state and the input of the sensor.
[0052]
Subsequently, when the interaction state is at level 2, the stuffed toy 12 (voice communication 10) filters the respiration at level 0 with a pitch along a chord and outputs the result. Also, the sound at level 1 is output at a pitch along the scale. Then, the response is gradually synchronized, and a sound reminiscent of music is output, and the tempo and other musical elements of the sound are changed.
[0053]
Specifically, as shown in the left column of FIG. 4, the role of each sensor is arranged, and the CPU 62 changes each element of the overall tempo, voice, and breathing sound according to the input from each sensor. .
[0054]
If there is an input from the left arm bend 40, the right arm bend 42, the left leg bend 44, or the right leg bend 46 at intervals of one second, the entire tempo is changed. That is, the tempo increases as such input continues. That is, when the user grasps one or two of the left arm 12g, the right arm 12h, the left foot 12i, or the right foot 12j of the stuffed toy 12 and moves it in a one-second cycle, the output interval of the sound and breathing sound gradually increases. Is shortened.
[0055]
Whether or not there is an input every second can be determined by detecting the outputs of the left arm bend 40, the right arm bend 42, the left leg bend 44, and the right arm bend 46, and detecting the timer value of the timer 72. .
[0056]
As described above, the sound is almost the same as in the case of the level 1, so that the duplicated description will be omitted. That is, the point that the delay time of the sound is determined by the tempo is different from the level 1. More specifically, if the tempo is fast, the user responds quickly to the expression of the user, and if the tempo is slow, the user responds slightly later to the expression of the user.
[0057]
As for the breathing sound, the CPU 62 calculates the average value of the inputs from the left leg bend 44 and the right leg bend 46, and adjusts the volume of the breathing sound according to the magnitude of the average value. That is, when the user grips the left leg 12i and the right leg 12j of the stuffed animal 12 and moves them so that they intersect, the volume is changed according to the angle formed by the left leg 12i and the right leg 12j. You. That is, if the angle is large, the volume is increased, and if the angle is small, the volume is decreased. Further, if the cycle of moving the left leg 12i and the right leg 12j is 1 second, the output interval of the breathing sound is shortened as described above.
[0058]
Further, the number of input sensors is counted by the counter 70, and the CPU 62 adjusts the sound according to the count value of the counter 70. For example, a count value serving as a threshold value is set in advance, and while the count value of the counter 70 is lower than the set threshold value, a monaural breathing sound is output. A breathing sound can be output.
[0059]
Furthermore, if there is an input from both the left arm touch sensor 48 and the right arm touch sensor 50, that is, if the user grasps both arms of the stuffed toy 12, the CPU 62 outputs a breathing sound in which a harmony is constructed from the speaker 24. Also, a different harmony can be constructed each time there is an input from both the left arm touch sensor 48 and the right arm touch sensor 50, that is, each time the user grabs or releases both arms of the stuffed toy 12. However, if there is an input from the head proximity sensor 20, that is, if the user grasps both arms of the stuffed toy 12 and brings the user's face or torso close to the nose 12c of the stuffed toy 12, the constructed harmony is retained. (Fixed).
[0060]
When the interaction state is level 3, the stuffed toy 12 (voice communication device 10) controls a musical operation. Specifically, the role arrangement of each sensor is shown in the right column of FIG. 4, and mainly musical elements (scale, chord, melody, rhythm, etc.) are changed according to the input from each sensor. .
[0061]
However, in this embodiment, there are six types of chords (chords). There are twelve types of scales: C major, D major, E major,..., Variation E major, and Variation G major. Furthermore, there are four types of rhythms.
[0062]
As a whole, the CPU 62 changes the tempo when detecting a rhythmical (regular) input from any (arbitrary) sensor. That is, if the user grasps the stuffed toy 12 and rhythmically moves the stuffed toy 12 itself, or rhythmically moves or touches a part of the stuffed toy 12, the entire tempo increases. However, if there is an irregular input after the tempo increases, the tempo gradually decreases. When there is no input, the tempo is fixed (held) at a constant speed.
[0063]
However, the CPU 62 can determine that the stuffed animal 12 has been moved rhythmically by detecting an input from the gyro 28.
[0064]
If there is an input from the left leg bend 44, the CPU 62 increases the volume of the sound output from the speaker 24. On the other hand, if there is an input from the right leg bend 46, the CPU 62 reduces the volume of the sound output from the speaker 24. That is, when the user bends the left leg portion 12i and the right leg portion 12j of the stuffed toy 12, the volume is increased or decreased.
[0065]
Further, if there is an input from the right arm bend 42, the CPU 62 changes the code of the sound output from the speaker. As described above, in this embodiment, six types of codes are prepared, and each time there is an input from the right arm bend 42, that is, the user bends and extends the right arm 12h of the stuffed toy 12 or raises and lowers it. Each time, the code type is updated.
[0066]
At this time, the update speed of the code is changed according to the tempo described above. Specifically, when there is an input from the right arm bend 42, the code (I) is updated to the code (II) at a speed specified by the tempo. In other words, if the tempo is fast, the type of the chord is updated immediately when there is an input from the right arm bend 42, but if the tempo is slow, the type of the chord is updated slightly after the input.
[0067]
When the tempo is fast, if there is an input from the right arm bend 42, the code (II) between codes (I) to (III) can be skipped and updated.
[0068]
Further, the type of the cord can be updated according to the size of the angle at which the right arm 12h is bent or the size of the angle at which the right arm 12h is raised.
[0069]
If the input from the head touch sensor 14 continues for, for example, one second or more, the CPU 62 changes the type of the key (scale) of the sound output from the speaker 24. As described above, in this embodiment, twelve types of keys are used, and the keys are raised each time there is an input. That is, if the user keeps touching or stroking the head 12a of the stuffed animal 12 for one second or longer, the key is changed from C major to D major. When the user stops touching the head 12a, the key is fixed in D major. Furthermore, when the head 12a is touched for 1 second or longer, the key is changed from D major to E major.
[0070]
However, the speed at which the key is changed is defined by the above-described tempo. If there is an input of one second or more from the head touch sensor 14, if the tempo is fast, the key is changed immediately and the tempo is slow. In this case, the key is changed a little after the input for one second or more.
[0071]
When the tempo is fast, the key can be changed by skipping the key between C major and E major.
[0072]
When a predetermined key is determined, a voice or a breathing sound is output along the key. That is, the voice or breathing sound is filtered so as to output the sound of the key.
[0073]
Also, the sound is almost the same as the case shown at level 1, and the duplicated description will be omitted. That is, the change of the pitch N1 is different. Specifically, the left arm touch sensor 48 is enabled until 30 seconds elapse after the level 3 is set, and when there is an input from the left arm touch sensor 48, the CPU 62 changes the pitch N1 of the voice. I do. In other words, the volume is increased as the time during which the user is touching the left arm 12g is increased. Further, if 30 seconds have elapsed since the level 3 was set, the left arm bend 40 is enabled, and when there is an input from the left arm bend 40, the CPU 62 changes the pitch of the melody sound as described later.
[0074]
With respect to the breathing sound, when there is an input from the left arm touch sensor 48, that is, when the user touches or grasps the left arm 12g of the stuffed toy 12, the CPU 62 changes the volume of the breathing sound. For example, the volume can be increased when there is continuous input from the left arm touch sensor 48, or the volume can be increased as the magnitude of the pressure input from the left arm touch sensor 48 increases. Conversely, when the magnitude of the pressure input from the left arm touch sensor 48 decreases, the volume can be reduced.
[0075]
When there is an input from the abdomen touch sensor 26 or an input from the left leg bend 44 and the right leg bend 46, the CPU 62 changes the sound of the breathing sound. For example, when the user touches or strokes the abdomen of the stuffed toy 12, there is an input from the abdomen touch sensor 26, and every time the input is made, the breathing sound can be changed from monaural to stereo or from stereo to monaural. Also, when the user bends or extends the left leg 12i and the right leg 12j of the stuffed toy 12 or raises and lowers it, there are inputs from the left leg bend 44 and the right leg bend 46, and the average of those inputs is calculated. It is also possible to switch (change) between monaural and stereo depending on whether the average value exceeds a preset threshold value.
[0076]
As described above, it is possible to change the sound in accordance with the type of the sensor. However, the sound can be changed regardless of the type of the sensor, that is, the left leg bend 44 and the right leg bend 46. For example, after changing from monaural to stereo according to the input from the abdomen touch sensor 26, it is also possible to change from stereo to monaural according to the input from the left leg bend 44 and the right leg bend 46. Conversely, after changing from monaural to stereo according to the input from the left leg bend 44 and right leg bend 46, it is also possible to change from stereo to monaural according to the input from the abdomen touch sensor 46.
[0077]
Further, when there is an input from the back touch sensor 32, the CPU 62 constructs a harmony. For example, when the user touches or rubs the back of the stuffed toy 12, a harmony is established in the sound output from the speaker 24.
[0078]
When there is an input from the left arm bend 40 for the melody, the CPU 62 changes the pitch of the melody. For example, when the user bends the left arm 12g of the stuffed animal 12, the melody sound is increased, and when the left arm 12g is extended, the melody sound is decreased. However, the pitch is continuously changed according to the bending angle.
[0079]
It should be noted that even if the user raises or lowers the left arm 12g, the pitch can be continuously changed at the angle of the raising or lowering.
[0080]
Further, when there is an input from the head proximity sensor 20, that is, when the user brings the user's face or torso close to the stuffed toy 12, the CPU 62 fixes (holds) the pitch of the melody described above.
[0081]
Further, when there is an input from the right arm touch sensor 50, the CPU 62 changes the volume of the melody sound. For example, the volume of the melody sound increases each time the user touches the right arm 12h of the stuffed toy 12, or the volume of the melody sound increases as the time of touching the right arm 12h increases.
[0082]
However, the volume can be raised or lowered according to the force of gripping the right arm 12h. That is, the CPU 62 detects the magnitude of the pressure input from the right arm touch sensor 50, and increases the volume when the pressure increases, and decreases the volume when the pressure decreases.
[0083]
Further, as for the rhythm, when there is a rhythmic input from any of the sensors, the CPU 62 changes the four rhythms prepared in advance, as in the above-described tempo for the whole. For example, if the user touches, strokes, grasps, raises or lowers the stuffed toy 12, and there is a rhythmic input from any sensor, the sound is output from the speaker 24 along the rhythm (I). Further, when there is a rhythmical input, the sound is output from the speaker 24 along the rhythm (II).
[0084]
The speed of such rhythm change is defined by the overall tempo. If the tempo is fast, the rhythm changes immediately if there is a rhythmic input, but if the tempo is slow, the rhythm changes after the rhythmic input. Is changed.
[0085]
When the tempo is fast, if there is a rhythmical input, the rhythm (II) between rhythm (I) and rhythm (III) can be skipped and changed.
[0086]
In other words, when the interaction state is level 3, a musical element is operated (controlled) in accordance with the expression of the user, and a response (voice) by a simple human voice or a breathing sound is changed to a sound like a chord, In addition, music that follows the rhythm and melody will be played. That is, the user can have fun communication with the stuffed toy 12.
[0087]
Further, when the interaction state is level 4, the volume balance between the rhythm and the chord (original breathing sound) is simply adjusted, and the stuffed toy 12 (music communication device 10) is brought into a runaway state (uncontrollable state). In other words, keys and chords change in a mess (bullshit), and an unpleasant sound such as a dissonant sound is output. However, if the user soothes the stuffed animal 12, the interaction state returns to level 3 and control becomes possible.
[0088]
Specifically, as shown in FIG. 5, the role of each sensor is arranged. In the figure, the columns indicated by x indicate that the control is irrelevant.
[0089]
Regarding the whole, the CPU 62 randomly changes the type of the key according to a predetermined algorithm programmed in advance regardless of the input from each sensor.
[0090]
When there is an input from the left arm touch sensor 48 for the breathing sound, the CPU 62 changes the volume. For example, when the user touches the left arm 12g, the volume is increased. However, since the runaway state occurs at level 4, the volume may be increased when there is no input from the left arm touch sensor 48, and the volume may be decreased when there is an input from the left arm touch sensor 48.
[0091]
Further, similarly to the above-described change of the key type, the CPU 62 randomly constructs a harmony according to a predetermined algorithm programmed in advance regardless of an input from each sensor. For example, an unpleasant sound such as a dissonant sound can be output.
[0092]
Further, as for the rhythm, when there is an input from the right arm touch sensor 50, the CPU 62 increases the volume of the rhythm. However, at the level 4, since a runaway state occurs, the volume of the rhythm is increased when there is no input from the right arm touch sensor 50, and the volume of the rhythm is decreased when there is an input from the right arm touch sensor 50. You can also.
[0093]
However, when the level 4 is set as described above and a runaway state (crazy state) is reached, the user can return to the level 3 by soothing or playing the stuffed toy 12. If the runaway state occurs, the stuffed toy 12 can be left alone to return to the initial state (level 0) after a predetermined time (10 seconds in this embodiment) has elapsed. You can also.
[0094]
The level of the interaction state described above is maintained or transitioned depending on how the user touches the stuffed toy 12, and the sound arrangement according to the user's expression, that is, the input from each sensor is determined by the sensor role arrangement determined at each level. Is output.
[0095]
Specifically, the CPU 62 shown in FIG. 2 performs processing according to the flowcharts shown in FIGS. However, when the main power supply of the music communication apparatus 10 is turned on, the CPU 62 loads the program stored in the memory area 66a of the ROM 66 into the working area 68a of the RAM 68, and stores the roles of the sensors stored in the memory area 66b. Is loaded into the working area 68b, data corresponding to the audio signal stored in the memory area 66c is loaded into the working area 68c, and the following processing is executed.
[0096]
As shown in FIG. 6, when starting the process, the CPU 62 first sets the interaction state to level 0 in step S1. That is, the roles of the sensors as shown in the left column of FIG. 3 are arranged. Next, in step S3, the input from each sensor is checked.
[0097]
Subsequently, in a step S5, it is determined whether or not there is an input from each sensor. If “NO” in the step S5, that is, if there is no input, the process returns to the step S3 and checks the input again. On the other hand, if “YES” in the step S5, that is, if there is an input, in a step S7, the touch sensor (14, 22, 26, 32, 48, 50, 52, 54), the camera 18 or the head proximity sensor 20 Judge whether there is an input from. If “YES” in the step S7, that is, if there is an input from the touch sensor, the camera 18 or the head proximity sensor 20, the process proceeds to a step S11.
[0098]
However, in FIG. 6, the steps are omitted, but if the input is from the camera 18 or the head proximity sensor 20, the breathing sound is temporarily stopped and the process proceeds to step S11.
[0099]
On the other hand, if “NO” in the step S7, that is, if there is no input from the touch sensor, the camera 18 or the head proximity sensor 20, in the step S9, as described above, the output processing of the respiratory sound according to the tempo is performed. After executing, the process returns to step S3.
[0100]
In step S11, the interaction state is set to level 1 (transition). That is, each sensor is arranged in the role shown in the right column of FIG. In a succeeding step S13, an input from each sensor is checked, and it is determined whether or not the sensor is held in a step S15. Specifically, it is determined whether or not the input from the back proximity sensor 34 or the butt proximity sensor 36 has stopped.
[0101]
In this embodiment, since it is assumed that the stuffed animal 12 is placed so as to be seated or lying down on the back, a back proximity sensor 34 or a butt proximity sensor 36 is provided, and each input is checked. However, assuming that the stuffed animal 12 is placed on the prone, a proximity sensor may be further provided on the abdomen, and the input of the proximity sensor may be checked.
[0102]
If “YES” in the step S15, that is, if the input from the back proximity sensor 34 or the butt proximity sensor 36 is stopped, it is determined that the user is held up, and the process proceeds to the step S25 shown in FIG. On the other hand, if “NO” in the step S15, that is, if there is an input from the back proximity sensor 34 or the buttocks proximity sensor 36, it is determined that the user is not held up, and the process proceeds to the step S17.
[0103]
In step S17, it is determined whether there is an input from the head touch sensor 14, the abdomen touch sensor 26, the back touch sensor 32, the left arm touch sensor 48, the right arm touch sensor 50, the left leg touch sensor 52, and the right leg touch sensor 54. I do. If “YES” in the step S17, that is, if there is an input from any of the touch sensors except the mouth touch sensor 26, it is determined whether or not the input continues for 8 seconds or more in a step S19. If “YES” in the step S19, that is, if the input is continued for 8 seconds or more, the process proceeds to a step S25 shown in FIG. On the other hand, if “NO” in the step S19, that is, if the input from the touch sensors other than the mouth touch sensor 22 is less than 8 seconds, the process returns to the step S13 and checks the input again.
[0104]
If “NO” in the step S17, that is, if there is no input from the touch sensor, it is determined whether or not there is an input from a sensor other than the touch sensor (excluding the mouth touch sensor 22) in a step S21. If “NO” in the step S21, that is, if there is no input from the sensors other than the touch sensor except the mouth touch sensor 22, the process returns to the step S13 as it is.
[0105]
On the other hand, if “YES” is determined in the step S21, that is, if there is an input from a sensor other than the touch sensor except the mouth touch sensor 22, the function of the sensor corresponding to the level 1 as described above is determined in a step S23. After executing the process of outputting the sound, that is, replying to the expression of the user, the process returns to step S13.
[0106]
In step S25 shown in FIG. 7, the interaction state is set to level 2 (transition). Then, in a step S27, the input from each sensor is checked, and it is determined whether or not the sensor is lowered in the step S29. If "YES" in the step S29, that is, if there is an input from the back proximity sensor 34 or the buttocks proximity sensor 36, and if there is no input from other sensors, it is determined that the lowering has been performed, and after being lowered in the step S31, Determine if two seconds have elapsed.
[0107]
If “NO” in the step S31, that is, if two seconds have not elapsed after the lowering, the process returns to the same step S31 and waits for a lapse of two seconds. On the other hand, if “YES” in the step S31, that is, if two seconds have elapsed after the lowering, the process returns to the step S11 shown in FIG. 6, and sets the interaction state to the level 1. That is, the level of the interaction state changes.
[0108]
If “NO” in the step S29, that is, if there is no input from the back proximity sensor 34 or the buttocks proximity sensor 36, and if there is an input from another sensor, it is determined that it is not lowered, and in a step S33. Determine if there is any input. If “NO” in the step S33, that is, if there is no input, the process returns to the step S27 as it is. On the other hand, if “YES” in the step S33, that is, if there is an input, it is determined in a step S35 whether or not the input is a rhythmical (regular) input.
[0109]
If “NO” in the step S35, that is, if it is not a rhythmic input, a sound corresponding to the role of the sensor shown in the left column of FIG. 4 is output in a step S37, and the process returns to the step S27. On the other hand, if “YES” in the step S35, that is, if it is a rhythmical input, the interaction state is set (transition) to the level 3 in a step S39, and the input from each sensor is checked in a step S41.
[0110]
Subsequently, in a step S43, it is determined whether or not there is an input from each sensor. If “NO” in the step S43, that is, if there is no input from each sensor, it is determined whether or not 5 seconds have passed without any input in a step S45. If "NO" in the step S45, that is, if 5 seconds have not elapsed, the process returns to the step S43 to determine whether or not there is an input from each sensor. On the other hand, if “YES” in the step S45, that is, if 5 seconds have passed without any input, the process returns to the step S25 and sets the interaction state to the level 2. That is, the level of the interaction state changes.
[0111]
On the other hand, if “YES” in the step S43, that is, if there is an input from any of the sensors, it is determined whether or not the interaction state is set to the level 4 in a step S47 shown in FIG. However, in this embodiment, whether to set the interaction state to level 4 is determined by a certain rule (rule), probability, or random number.
[0112]
Note that, similarly to other level transitions, transition to level 4 may be made in response to an input from a predetermined sensor. For example, when the user hits any part of the stuffed toy 12 or touches any part of the stuffed toy 12 with an irregular rhythm, the interaction state is set to level 4.
[0113]
If "NO" in the step S47, that is, a sound is output in the role of each sensor as shown in the right column of FIG. 4, and then the process returns to the step S41 shown in FIG. 7 to check the input again. In other words, when the interaction state is level 3, the musical element is operated (controlled) in accordance with the expression of the user, the response from a simple human voice is changed to a sound like a chord, and further along with the rhythm and melody. Music can be played.
[0114]
On the other hand, if “YES” in the step S47, that is, if the interaction state is set to the level 4, the interaction state is set (transition) to the level 4 in the step S51. Then, in step S53, the input from each sensor is checked. In a succeeding step S55, it is determined whether or not the action is soothing or relaxing. For example, it is determined whether or not there is a rhythmical (regular) input from any of the sensors, so that the mother can comfortably call the child good. That is, it is determined whether there is an input similar to that in the case of transition from level 2 to level 3.
[0115]
It should be noted that voice data corresponding to voices used when playing or soothing, such as "Yoshiyoshi", is stored in advance, and the user's voice is recognized by, for example, the DP matching method or the HMM method, and "Yoshiyoshi" is used. It may be determined whether or not these words are continuously input.
[0116]
Alternatively, the determination may be made based on both a rhythmic input and an input of a word such as “yoshi”.
[0117]
If “YES” in the step S55, that is, if the input is a rhythmical input, it is determined that the action is a soothing or a soothing action, and the process returns to the step S39 shown in FIG. 7 to set the interaction state to the level 3. That is, the interaction state is changed.
[0118]
On the other hand, if “NO” in the step S55, that is, if the input is irregular, it is determined that the action is not soothing or easy, and it is determined in a step S57 whether or not the user is left. Specifically, it is determined whether there is an input from the back proximity sensor 34 or the buttocks proximity sensor 36, and whether there is an input from another sensor. If “YES” in the step S57, that is, if the device is left, it is determined whether or not 10 seconds have elapsed since the device was left in the step S59. If “NO” in the step S59, that is, if 10 seconds have not elapsed after being abandoned, the process returns to the same step S59 and waits for an elapse of 10 seconds. On the other hand, if “YES” in the step S59, that is, if ten seconds elapse after being abandoned, the process returns to the step S1 and sets the interaction state to the level 1 (transition). That is, the state returns to the initial state.
[0119]
On the other hand, if “NO” in the step S57, that is, if not left, the sound corresponding to the expression of the user is output in a step S61 in the role of the sensor illustrated in FIG. Check sensor input. However, since it is out of control, the codes and keys are randomly changed, so that an unpleasant sound such as a dissonant sound is output.
[0120]
According to this embodiment, the level of the interaction state is changed according to the expression of the user, and a sound corresponding to the input of the sensor is output in the role of the sensor determined by the level of the interaction state. It can be said that it is excellent. Therefore, when the music communication device is provided as a toy, an infant or the like does not get bored immediately.
[0121]
In this embodiment, the pressure sensor is used as the touch sensor. However, a contact sensor that can determine whether or not the user touches the touch sensor may be used.
[0122]
Further, the type, number, or arrangement of roles of the sensors used in this embodiment are merely examples, and can be arbitrarily changed according to the intention of the designer. That is, it should not be limited by this embodiment.
[0123]
Further, in this embodiment, it is determined only whether or not a person approaches in accordance with a change in the luminance level of the video signal input from the camera. However, by analyzing the video signal, the stuffed toy 12 (music communication device 10) is analyzed. It is also possible to specify the place where the is placed or the person approaching. For example, a plurality of types of role arrangements as shown in FIGS. 3 to 5 are prepared, and one type of role arrangement can be selected by specifying a place or a person. When a person can be specified, when the user (master) of the stuffed toy 12 is specified, the state transition from level 0 to level 3 is made faster than when another person is specified. You can also have fun communication in time.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing one embodiment of the present invention;
FIG. 2 is an electrical configuration diagram of the music communication device shown in FIG. 1 embodiment.
FIG. 3 is an illustrative view showing one example of a role arrangement of each sensor shown in FIGS. 1 and 2;
FIG. 4 is an illustrative view showing another example of the role arrangement of each sensor shown in FIGS. 1 and 2;
FIG. 5 is an illustrative view showing another example of the role arrangement of each sensor shown in FIGS. 1 and 2;
FIG. 6 is a flowchart showing a part of the processing of the CPU shown in FIG. 2;
FIG. 7 is a flowchart showing another portion of the processing by the CPU shown in FIG. 2;
FIG. 8 is a flowchart showing another portion of the processing by the CPU shown in FIG. 2;
[Explanation of symbols]
10. Music communication device
12 stuffed animals
14, 22, 26, 32, 48, 50, 52, 54 ... touch sensor
16 ... microphone
18… Camera
20, 34, 36 ... Proximity sensor
24… Speaker
30, 38 ... temperature sensor
40, 42, 44, 46… Bend
60… Computer
62 ... CPU
66… ROM
68… RAM
70… Counter
72… Timer

Claims (7)

ユーザの表現を検知する複数のセンサを備え、前記複数のセンサからの入力によって複数の音楽的要素を制御する音楽コミュニケーション装置であって、
前記複数のセンサの検知結果に応じて決まる複数のインタラクション状態レベルのそれぞれ毎に前記複数の音楽要素に対する各センサの役割を予め設定する役割設定手段を備え、少なくとも1つのセンサの役割が前記インタラクション状態レベルに応じて異なるようにされ、さらに
前記複数のセンサの検知結果に応じて前記複数のインタラクション状態レベルのいずれかを設定する状態設定手段、および
前記状態設定手段によって設定されたインタラクション状態レベルでの前記センサの役割に従って前記複数のセンサからの入力に応じて前記音楽的要素が制御された音を出力する出力手段を備える、音楽コミュニケーション装置。
A music communication device comprising a plurality of sensors for detecting a user's expression, and controlling a plurality of musical elements by an input from the plurality of sensors,
Role setting means for setting a role of each sensor for the plurality of music elements in advance for each of a plurality of interaction state levels determined according to detection results of the plurality of sensors , wherein at least one sensor has a role of the interaction state Different depending on the level, moreover
State setting means for setting any of the plurality of interaction state levels according to the detection results of the plurality of sensors, and
A music communication device, comprising: output means for outputting a sound in which the musical element is controlled in response to an input from the plurality of sensors according to a role of the sensor at an interaction state level set by the state setting means .
前記役割設定手段は、前記少なくとも1つのセンサについて、或るインタラクション状態レベルでは前記役割を割り当て、別のシンタラクション状態レベルでは役割を割り当てない、請求項1記載の音楽コミュニケーション装置。The music communication device according to claim 1 , wherein the role setting unit assigns the role to the at least one sensor at a certain interaction state level and does not assign the role at another interaction state level . 前記状態設定手段は前記複数のセンサのうち所定のセンサからの入力に応じて前記複数のインタラクション状態レベルの1つを設定する、請求項1または2記載の音楽コミュニケーション装置。The music communication device according to claim 1 , wherein the state setting unit sets one of the plurality of interaction state levels according to an input from a predetermined sensor among the plurality of sensors . 前記出力手段は、前記検知結果に応じて前記音楽的要素を変更する音変更手段を含む、請求項1ないし3のいずれかに記載の音楽コミュニケーション装置。And the output means, the detection results including sound changing means for changing the musical elements in accordance with music communication apparatus according to any one of claims 1 to 3. 前記音変更手段は、前記検知結果に応じて音階を変更する音階変更手段、前記結検知結果に応じてコードを変更するコード変更手段、前記検知結果に応じてリズムを変更するリズム変更手段、前記検知結果に応じてメロディを変更するメロディ変更手段を少なくとも1つ含む、請求項4記載の音楽コミュニケーション装置。The sound changing means includes a scale changing means for changing a scale according to the detection result, a chord changing means for changing a chord according to the connection detection result, a rhythm changing means for changing a rhythm according to the detection result, The music communication device according to claim 4, further comprising at least one melody changing unit that changes a melody according to a detection result. 前記複数のセンサが所定の部位に配置されるぬいぐるみをさらに備え、
前記複数のセンサは、前記ぬいぐるみを通して前記表現を検知する、請求項1ないし5のいずれかに記載の音楽コミュニケーション装置。
Further comprising a stuffed animal in which the plurality of sensors are arranged at a predetermined site,
The music communication device according to claim 1, wherein the plurality of sensors detect the expression through the stuffed toy.
前記状態設定手段は、前記複数のセンサのうち所定のセンサからの入力に応じて、前記ぬいぐるみが、抱き上げられたか、おろされたか、なだめられたか若しくはあやされたか、または放置されたかを判断し、その判断に基づいて1つのインタラクション状態レベルを設定する、請求項6記載の音楽コミュニケーション装置。The state setting means, in accordance with an input from a predetermined sensor among the plurality of sensors, the stuffed animal is determined to be held, lowered, soothed or cradled, or left, 7. The music communication device according to claim 6, wherein one interaction state level is set based on the determination.
JP2000332156A 2000-10-31 2000-10-31 Music communication device Expired - Fee Related JP3566646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000332156A JP3566646B2 (en) 2000-10-31 2000-10-31 Music communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000332156A JP3566646B2 (en) 2000-10-31 2000-10-31 Music communication device

Publications (2)

Publication Number Publication Date
JP2002140070A JP2002140070A (en) 2002-05-17
JP3566646B2 true JP3566646B2 (en) 2004-09-15

Family

ID=18808397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000332156A Expired - Fee Related JP3566646B2 (en) 2000-10-31 2000-10-31 Music communication device

Country Status (1)

Country Link
JP (1) JP3566646B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019160965A1 (en) * 2018-02-15 2019-08-22 Skyrocket LLC dba Skyrocket Toys LLC Interactive pet toy with pliable mounting apparatus
US20200345308A1 (en) * 2019-05-02 2020-11-05 University Of Central Florida Research Foundation Inc. Computer Analysis and Enhanced Visualization of Play Interactions

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3966227B2 (en) * 2003-05-30 2007-08-29 ヤマハ株式会社 Simulated engine sound generator and vehicle operation system
US9833698B2 (en) * 2012-09-19 2017-12-05 Disney Enterprises, Inc. Immersive storytelling environment
EP3331625B1 (en) * 2015-08-04 2019-11-13 Quick, Luther Gunther III Dub puppet
JP6176870B2 (en) * 2016-01-05 2017-08-09 株式会社セガ トイズ Coding toy, block, stage, figurine toy and coding method
JP7024754B2 (en) * 2019-03-25 2022-02-24 カシオ計算機株式会社 Controls, robots, control methods and programs
CN110124328A (en) * 2019-05-06 2019-08-16 东莞市长利玩具制品有限公司 A kind of rag baby

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3077192B2 (en) * 1990-11-08 2000-08-14 ヤマハ株式会社 Electronic musical instruments compatible with performance environments
JP3332174B2 (en) * 1993-08-03 2002-10-07 ヤマハ株式会社 Keyboard device for musical instruments
JP3579916B2 (en) * 1994-04-18 2004-10-20 ヤマハ株式会社 Automatic accompaniment device
JPH0944151A (en) * 1995-08-01 1997-02-14 Kawai Musical Instr Mfg Co Ltd Electronic keyboard musical instrument
JP3574264B2 (en) * 1996-02-29 2004-10-06 株式会社河合楽器製作所 Electronic musical instrument
JPH1097244A (en) * 1996-09-20 1998-04-14 Yamaha Corp Musical tone controller
JP2000020079A (en) * 1998-07-06 2000-01-21 Ricoh Co Ltd Input device of musical tone reproduction device
JP3632491B2 (en) * 1999-03-26 2005-03-23 ヤマハ株式会社 Music control device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019160965A1 (en) * 2018-02-15 2019-08-22 Skyrocket LLC dba Skyrocket Toys LLC Interactive pet toy with pliable mounting apparatus
US20200345308A1 (en) * 2019-05-02 2020-11-05 University Of Central Florida Research Foundation Inc. Computer Analysis and Enhanced Visualization of Play Interactions
US11931183B2 (en) * 2019-05-02 2024-03-19 University Of Central Florida Research Foundation, Inc. Computer analysis and enhanced visualization of play interactions

Also Published As

Publication number Publication date
JP2002140070A (en) 2002-05-17

Similar Documents

Publication Publication Date Title
JP3917456B2 (en) Evaluation program, recording medium thereof, timing evaluation apparatus, timing evaluation system
JP2002307354A (en) Electronic toy
US7637794B2 (en) Breath-sensitive toy
JP3566646B2 (en) Music communication device
JPH10328422A (en) Automatically responding toy
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
KR100332966B1 (en) Toy having speech recognition function and two-way conversation for child
KR20140047273A (en) Robot
Yonezawa et al. Context-aware sensor-doll as a music expression device
TW200929108A (en) Limb interactively learning method and apparatus
JP2004034273A (en) Robot and system for generating action program during utterance of robot
WO1999032203A1 (en) A standalone interactive toy
US9968862B2 (en) Interactive doll and a method to control the same
KR100883587B1 (en) Intelligent toy and control method there of
JP2003305677A (en) Robot device, robot control method, recording medium and program
TW201112186A (en) Wherein each of basic poses corresponds to a musical note and is stored in a music mapping device for creating various music performances according to the motion of the kid, thereby helping the kid to create his/her own favorite music
JP2001162058A (en) Autonomous mobile therapeutic apparatus
JP3819281B2 (en) Music communication system
JP2003340760A (en) Robot device and robot control method, recording medium and program
JP4760824B2 (en) Oscillating motion device and adapter for this device
JPS6247387A (en) Doll
Burlingham et al. The re-education of a retarded blind child
JP2017062296A (en) Performance technique drawing evaluation system
Lindeck Applications of music technology in a children’s hospice setting
JP2003181784A (en) Automatic answering robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees