JP3938178B2 - 楽音制御装置 - Google Patents
楽音制御装置 Download PDFInfo
- Publication number
- JP3938178B2 JP3938178B2 JP2004322403A JP2004322403A JP3938178B2 JP 3938178 B2 JP3938178 B2 JP 3938178B2 JP 2004322403 A JP2004322403 A JP 2004322403A JP 2004322403 A JP2004322403 A JP 2004322403A JP 3938178 B2 JP3938178 B2 JP 3938178B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- sound generation
- sound
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Image Analysis (AREA)
Description
一方、電子楽器の操作入力に関する技術として、従来より、特許文献1で知られているような、身振りに応じて楽音を発音する電子楽器がある。しかし、これは健常者が扱う楽器そのものであり、身体能力を回復させるために使用することも可能であるが、身体能力の回復を支援することを特に意識して作られたものではない。
そのため、操作装置に身体を拘束されることなく、空間中を操作者が手足を自由に動かすことにより、空間全体を楽器の鍵盤のような操作部に見立てて、楽音を発生させることができ、視覚的にも操作の確認が行えるような楽器が望まれていた。
このような楽器であれば、電子楽器の操作入力装置としての改良にとどまらず、操作者にうまく演奏しようとする意欲が生まれ、この点から、手足等を動かすリハビリテーション用の支援装置としても期待できる。
電子楽器の入力装置としても、簡単に演奏することができるようにし、また、リハビリテーションの身体能力回復のための支援装置、あるいは身体機能の向上のための支援装置としても用いることができるようにした。
請求項4に記載の発明においては、楽音制御装置において、画像表示面上における被写体の特定部分の画像を記憶する画像記憶手段と、前記被写体を撮影することにより被写体画像データを逐次入力し、認識ウインドウを用いて、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を認識するとともに、前記認識ウインドウを前記被写体の特定部分の画像の移動に追従するように移動させる画像認識手段と、該画像認識手段により認識された被写体の特定部分の画像が、予め設定された複数の発音領域のいずれかに存在していると認識されているときに前記被写体の特定部分の画像が認識できなくなり、認識できなくなってから所定時間経過後に、前記予め設定された複数の発音領域のいずれかに存在すると判定されたときに、前記被写体の特定部分が存在する前記発音領域に割り当てられた音高で楽音の発音を指示する発音指示手段とを有するものである。
請求項5に記載の発明においては、請求項1から4までのいずれか1項に記載の楽音制御装置において、前記複数の発音領域は、前記画像表示面の所定の方向に離散的に配列されたものであり、前記所定の方向を設定する発音領域設定手段を有するものである。
請求項6に記載の発明においては、請求項1から4までのいずれか1項に記載の楽音制御装置において、前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像表示面上における被写体の特定部分の画像を前記画像記憶手段に登録する登録手段を有するものである。
請求項7に記載の発明においては、請求項1から4までのいずれか1項に記載の楽音制御装置において、前記画像認識手段は、前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を、パターン照合を行うことにより認識するものである。
請求項8に記載の発明においては、請求項1から4までのいずれか1項に記載の楽音制御装置において、前記画像認識手段は、前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を、前記被写体の特定部分の画像の位置検出の状況に応じて、画像認識の一致レベルを低くしたり高くしたりするものである。
(1)移動する操作物体の位置を検出して楽音の発音を制御する楽音制御装置であって、前記操作物体の位置を検出する位置検出手段と、前記位置検出手段の出力を入力し、前記操作物体の任意の基準位置から前記操作物体の現在位置までの移動時間および前記操作物体の現在位置の両要素に少なくとも応じて前記楽音を発音させるか否かを決定し、前記楽音を発音させる場合に前記楽音の発音を指示する発音指示手段と、を有することを特徴とする楽音制御装置。
したがって、操作物体の任意の基準位置から現在位置までの移動時間および操作物体の現在位置に関する所定の移動条件を満足したときに、楽音が発音される。
また、決められた移動条件を意識して操作物体が操作されないと、望むような楽音を発生しないことから、操作物体の操作者にうまく演奏しようとする意欲が生まれ、リハビリテーションにつながる支援装置ともなる。
より具体的には、例えば、操作物体の現在の位置は、特定の1つまたは複数の発音領域の1つにあることを第1条件とする。例えば、基準位置から現在位置までの移動するのに要した時間が所定時間以上であることを第2条件とする。この所定時間は、操作物体の移動速度等を考慮することにより、任意に設定変更されるものである。基準位置は、例えば、操作物体の存在が検出された、最初または直前の位置、あるいは、操作物体の所定の登録位置とすることができる。
複数の発音領域の音高は、絶対座標上における発音領域の位置に応じて割り当てる。あるいは、基準位置を所定の音高として、基準位置に対する相対位置(相対距離である場合を含む)に応じて割り当てる。
被写体の特定部分が所定の移動条件を満たす場合にのみ、楽音を発音させることができるから、操作物体を恣意的に移動しないと、望むような楽音を発生しない。その結果、操作物体の操作者にうまく演奏しようとする意欲が生まれるために、操作者の身体、腕、足等を動かすリハビリテーションの支援装置として有効である。
また、被写体の特定部分が真に目的を持って異なる発音領域に移動したことを、操作者に確認させることができる。
上述した発音指示手段は、より具体的には、最初に前記特定部分が実質的に停止状態にある時を初期状態として判定を開始し、前記特定部分が再び実質的に停止状態になったときに、現在の実質的な停止状態を前記初期状態として再び判定を開始する構成にすれば、継続的に楽音制御動作を行うことができる。
したがって、画像表示面上において、被写体の特定部分が、発音領域である、ある1つの領域に存在することが検出できないような状態に操作すれば、この発音領域に割り当てられた楽音の発音を再度指示することができる。
より具体的な操作としては、被写体の特定部分を、故意に画面の奥行き方向の、前方あるいは後方に移動させたり、被写体の特定部分の形を一時的に変化させたりすればよい。その結果、被写体の特定部分の奥行き方向の移動や、形を変える運動を楽音によって確認することができる。また、身振り式の楽音制御装置としてみた場合には、同じ楽音を繰り返し発音指示することができる。
したがって、この複数の発音領域の配列により音階スケールを構成することになり、被写体の特定部分の移動方向を楽音によって知ることができる。なお、このとき、複数の発音領域の方向と直交する方向には、発音領域の範囲を制限(矩形状の発音領域とする)したり、あるいは、制限しないようにする(帯状の発音領域とする)ことができる。発音領域の範囲を制限した場合には、さらに音高のオクターブが異なるなどの、異なる楽音の発音領域の配列を複数列設けることもできる。
したがって、被写体の特定部分の動きに合わせて、複数の発音領域の配列方向を設定することができる。その結果、リハビリテーションの支援装置として用いたときに、操作者は、身体、腕、足等を動かすことが可能な方向に発音領域の配列方向に合わせることにより、どこまで動かすことができるかを楽音により確認することができる。身振り式の楽音制御装置としてみた場合にも、現在の姿勢での身体、腕、足等を動かしやすい方向に発音領域の配列方向を合わせることができる。
本発明の楽音制御装置は、楽音発生部と共に用いたり、楽音発生部と一体となって楽音発生装置として使用されるが、操作者が演奏する意思をもってこれに臨まないと、望むような楽音を発生する楽器とはならないようになっている。その結果、操作者にうまく演奏しようとする意欲が生まれ、これが手足等を動かすリハビリテーションにつながる。
したがって、リハビリテーションの身体能力回復のための支援装置、あるいは身体機能の向上のための支援装置として用いることができる。同時に、身振りに応じて楽音を発音する電子楽器の機能も備えるため、楽しみながらリハビリテーションを行うことができる。また、音楽的創造力やダンス的素養を高めることも期待できる。
電子楽器の入力装置としても、手の位置等で音高を入力することが簡単にできるため、楽器をさわったことのない人でも、演奏することができる。手に限らず、頭(首)、肘、足の動き、手に持ったカードや棒の動き等を使って演奏することができる。また、発音する楽音を発音時間間隔を含めて記憶することができるので、演奏を入力すると同時に記録を行い、その後、改めて演奏中のフレーズを取り出すことにより、簡単に作曲することができる。
図1(a)において、1は操作者、1aは手、2はコンピュータ本体部である。コンピュータ本体部2には、キーボード3、画像表示装置(CRTディスプレイ)4、スピーカ5、ビデオカメラ6が接続されている。この実施の一形態においては、汎用コンピュータ2は、ビデオカメラ6からの映像信号を処理するカードと楽音信号を生成するサウンドカードを内蔵している。操作者1は、画像表示装置4に向かって、手1aを動かす。操作者1の像は、ビデオカメラ6により撮影され、コンピュータ本体部2において画像処理され、同時に画像表示装置4に表示される。操作者1は、画像表示面を見ながら手1aを動かしたり、ポーズを取る。
手1aを被写体の特定部分(パーツ)とする場合を例示する。登録時には、画像表示面4aの所定領域に、手の表示画像11aを認識させるための認識ウインドウ12を画定し、この認識ウインドウ12内の表示画像を登録する。この後の演奏時に、手1aを動かすと、画像表示面4a上において、手の表示画像11aが移動するとともに、これに追従して、認識ウインドウ12を移動させる。画像表示面4a上の複数の位置に、発音領域13が設定されている。
なお、画像表示面4aにおける被写体の表示は、被写体の鏡像を表示するようにすれば、操作者1が画像表示面4aを見ながら手1a等を動かすのに好ましい。
ビデオカメラ6等の画像入力部から被写体画像データが画像メモリ等に書き込まれる。位置検出部21は、この画像メモリ上の被写体画像データを入力して、被写体を撮影した画像表示面上における被写体の特定部分の位置を検出する。
演奏モード時において、被写体の特定部分は、画像表示面上において位置が移動する。画像認識部21bは、画像入力部から画像メモリを介して逐次入力された画像と被写体特定部分の画像記憶部21aに登録された画像とを比較することにより、被写体の特定部分の位置を検出する。
発音指示部22は、位置検出部21の位置検出出力および発音領域設定部23の設定出力を入力し、被写体の特定部分の移動条件に関する判定を行う。
図2(b)に、この移動条件を示す。
なお、ここで言う位置とは、ピンポイント的な位置ではなく、直前に存在が検出されていた位置からわずかに移動しても、所定の範囲内にあるときには同じ位置にあるとしている。すなわち、このような場合には、実質的に停止しているものとしている。また、直前の位置に存在しないと判定される場合としては、第1には、被写体の特定部分が他の位置に移動したことが検出された場合であるが、位置検出部21が被写体の特定部分の存在位置を検出できなくなった場合もある。
S28の判定では、位置検出部21から出力された、被写体の特定部分の存在位置が、発音領域設定部23により設定された1または複数の発音領域に属するか否かを判定し、この発音領域に属しなければ、S25の判定に戻り、この発音領域に属するときにはS29の処理を行う。S29においては、この発音領域に割り当てられた楽音の発音を指示して、再び、S25の判定に戻る。あるいは、いずれの場合も、S25に判定には戻らず、処理を終了するようにしてもよい。
逆に、上述した付加的条件を付けない場合には、恣意的に、被写体の特定部分の存在が1時的に検出できないような状態にして、同じ発音領域の発音を2回以上繰り返して行うようにすることができる。
移動条件としては、リハビリテーションにおいて手等を動かす状況、あるいは、身振り式の楽音制御装置として操作する方法を考慮して適切な条件を採用する。
映像信号を処理するカードとサウンドカードを内蔵する汎用コンピュータは、CPU(Central Processing Unit)31、画像処理部32、外部記憶装置33、ROM(Read Only Memory)34、RAM(Random Access Memory)35、楽音発生部36等で構成される。ビデオカメラ6により取り込まれた被写体の画像は画像処理部32に取り込まれ、A/D変換されてCPU31に入力される。
ビデオカメラ6に代えて、被写体の静止画像を連続撮影可能なデジタルカメラを使用してもよい。CPU31は、ROM34に記憶された基本入出力システム(BIOS)プログラムおよび、ハードディスク等の外部記憶装置33からRAM35にロードされるオペレーティングシステム(OS)プログラム、および、アプリケーションプログラムを実行することにより動作する。
上述した説明では、汎用のパーソナルコンピュータを用い、プログラムにより楽音制御機能を実現する構成を示したが、専用の楽音制御装置としてもよい。
発音領域は、操作者が手などを動かす方向に合うように操作者自身が設定できる。
図4は、画像表示面の絶対位置に対応させて複数の発音領域を設定するモードにおける画像表示面である。複数列の発音領域列41〜43が設定されているが、登録時においては、発音領域列41中の左端の発音領域13にその中心がある認識ウインドウ12が表示され、ここで、手1aの表示画像を記憶する。登録時において、発音領域13は、例えば、音名C3に対応させ、矢印44に示す右方向に音高が上昇するように、音高が割り当てられている。図示の例では、発音領域列41は、音名C3からB4までの1オクターブが割り当てられ、この上段に位置する発音領域列42には、音名C4からB5までが割り当てられ、発音領域列41の下段に位置する発音領域列43には、音名C2からB3までが割り当てられている。
また、1オクターブ上の音高および1オクターブ下の音高のための発音領域列を設けないようにしてもよい。この場合、各発音領域13の形状を図示のような正方形にせずに、発音領域列41に直交する方向に帯状にしてもよい。また、首の曲げなどの動きに対応させるためには、方向を直線方向とはしないで、任意の曲線に沿った方向としてもよい。
手の動きにはさまざまなパターンがあるが、ここでは、典型的な4通りの動きについて説明する。
(1)音高の配列方向に手1aを遅く動かした場合。図中、手の表示画像11a−1〜11a−5の期間である。
(2)音高の配列方向に手1aを速く動かした場合。図中、手の表示画像11a−5〜11a−7の期間である。
(3)音高の配列方向には手1aを動かさずに、1時的に手1aを画像認識できない(存在を検出できない)状態にした場合。1時的に画像認識できない状態とは、例えば、手1aをビデオカメラ6に対し遠ざけてまたもとの位置に戻したり、または、近づけて、その後、元の位置に戻したときである。図中、手の表示画像11a−7〜11a−9の期間である。手の表示画像11a−7〜11a−9は、典型的な例では、画面表示部上で重なるが、ずらせた状態で図示している。
(4)さらに、手1aを画像認識できない状態にして、音高の配列方向に手1aを動かした場合。この場合の図示は省略している。
図8は、本発明の楽音制御装置の実施の一形態における画像認識の第1の説明図である。図8(a)は認識ウインドウ中の被写体の特定部分の表示画像を取り込み、これを登録した画像を示す図である。図8(b)〜図8(d)は比較する画素数の違いにより、画像の一致レベルを変更して画像識別をする場合の、比較する画素を示す図である。図8(b)は画像の一致レベルを低くする場合、図8(c)は画像の一致レベルを中程度にする場合、図8(d)は画像の一致レベルを高くする場合を示す図である。
手の表示画像11aを登録する場合、図8(a)に示すように、画素単位で、背景、被写体の色および明るさが登録画像61としてメモリに取り込まれ、画素単位に記憶される。符号62を付した部分は、手の表示画像に対応する画素の領域を示す。
このようにして、手の表示画像11aの位置を探しているときの画像認識には、画像認識の一致レベルを相対的に低く設定することにより、位置検出のための処理時間を短縮し、手の表示画像11aへの認識ウインドウ12の追従性を大きくしている。
あるいは、図8(b)〜図8(d)に示したように、認識ウインドウ12の中で、比較する対象画素63の数を変更することにより、画像認識の一致レベルを変更することができる。例えば、図8(c)においては、認識ウインドウ12中の、中心点および対角の4点からなる5個の画素を、比較する対象画素63としてサンプリングし、登録画像61の対応する画素との一致を見ることにより、画像認識の一致レベルを低くする。もちろん、先に説明したような、濃淡の識別を行うか否かの組み合わせによって、画像認識の一致レベルを変更することもできる。
図中、71は特定ポイント[X,Y]、72は位置探索領域、12−1,12−2は移動前と移動後の認識ウインドウ、73−1,73−2は移動前と移動後の認識ウインドウの中心点、74は認識ウインドウの外周の移動領域である。
このときの認識ウインドウの中心点73−1から73−2への移動ベクトルは小さく、現在の中心点73−2の位置も考慮すると、次回の画像認識時に、被写体の特定部分の中心が位置探索領域72の範囲外になることはないと推測される。このような場合は、継続して、認識ウインドウの中心点73を、位置探索領域72内をスキャンさせて認識ウインドウ12内の表示画像に登録画像の特徴データがあるかどうかを判定する。
このときの認識ウインドウの中心点73−1から73−2への移動ベクトルは大きく、現在の中心点73−2の位置も考慮すると、次回の画像認識時に、被写体の特定部分が位置探索領域72の範囲外になることが推測される。
上述したように、表示画像に登録画像の特徴データが検出されている間は、認識ウインドウの中心点71をスキャンする範囲を、言い換えれば、比較する表示画像の範囲を、位置探索領域72という全画面の中の一部の領域に限定することにより、画像認識に要する時間を短縮している。
なお、図9を参照した説明では、特定ポイント[X,Y]71の位置を、発音領域とは独立して設定している。しかし、複数の発音領域13の各中心に特定ポイント[X,Y]71を設定するようにしてもよい。
図10は、メインルーチンのフローチャートである。図11は、パラメータおよびモード設定処理のフローチャートである。図12は、画像認識登録処理のフローチャートである。図13は、演奏処理の第1のフローチャートである。図14は、演奏処理の第2のフローチャートである。図15は、タイマ処理1のフローチャートである。図16は、タイマ処理sのフローチャートである。図17は、自動演奏再生処理のフローチャートである。
図18は、時間パラメータであるtsパラメータ、t1パラメータ、t2パラメータの時間変化を示す説明図である。
S101においては、W/Rが1であるか否かを判定し、1のときにはS102に処理を進め、1でないときにはメインルーチンに戻る。S102においては、被写体の特定部分の認識ウインドウの中心を、基準となる登録時の発音領域内に画定し、認識ウインドウを画像表示面に枠表示して、S103に処理を進める。ここで、基準となる発音領域とは、図1(b)に示した、登録時における発音領域13(音名C3)である。このフローチャートにおいては省略したが、登録時における発音領域13の位置は、操作者が、キーボードあるいはマウスポインタを用いて、自由に設定できるようにすることが好ましい。
S105においては、被写体の特定部分(パーツ)の移動とともに、音高を変化させる方向を入力し、S106に処理を進める。ここで、音高を変化させる方向とは、図4においては、矢印44に示す右方向である。図5においては、矢印44に示す右上方向である。図6においては、矢印44に示す左下方向である。使用者は、通常、特定部分を移動させようとする方向、あるいはその正反対の方向に、上述した音高を変化させる方向を設定する。
S106においては、S105において入力された音高を変化させる方向に応じて、発音領域の設定と、各発音領域に割り当てる楽音の音名の決定とが行われ、S107に処理を進める。ただし、図4に示したような画像表示面の絶対位置(絶対座標)に対応させて発音領域を設定するモードと、図5,図6に示したような画像登録時の発音領域13を基準位置とした相対位置で発音領域を設定するモードがある。
図18(a)に示すように、tsパラメータは、10msecの時間を計数し、その後一定値となるタイマー機能のための時間パラメータである。S107においてnにセットされ、後述する図13のS121において0にセットされ、後述する図16の割込処理によりカウントアップして10msec経過後にnとなり、n以上には増加しない。
図18(b)に示すように、t1パラメータは、100msecの時間を計数し、その後一定値n1となるタイマ機能のための時間パラメータであり、被写体の特定部分が、ある直前位置に存在しなくなってからの経過時間を検出する。図12のS107においてn1にセットされ、後述する図13のS119において0にセットされ、S116または図14のS125において1にセットされ、後述する図15の割込処理によりカウントアップして100msec経過後にn1となり、n1以上には増加しない。
S111においては、W/Rが0であるか否かを判定し、0のときにはS112に処理を進め、0でないときにはメインルーチンにリターンする。S112においては、タイマ時刻(ts=n)になったか否かを判定する。初めてts=nになったときには、S113Cに処理を進め、常にts=n(所定の長い時間、継続してnの値が持続する)のときには、S113Aに処理を進める。それ以外の、tsが0〜(n−1)のときには、演奏処理ルーチンから離脱し、メインルーチンの他の処理をする。つまり、登録処理直後に演奏処理に入ると、ts=nにセットされたままなのでS113Cに処理を進める。
ステップS113Aにおける画像認識では、一致レベルを低くして画像認識をするため、被写体の特定部分の登録画像中心が、ある特定ポイント[X,Y]から少しずれた周辺にある状態であっても、この特定ポイント[X,Y]にその中心を持つ認識ウインドウで、被写体の特定部分を検出することができる。
S115〜S116においては、直前の状態において、被写体の特定部分が検出され、かつ、実質的に停止状態(F2=1)であったときに、今回のS113A〜S113Cにおける判定により、登録画像の認識ができなくなったときに、t1パラメータを1にセットして、所定時間経過を見るカウントを開始させる。t1を0にしないのは、t1=0の値を、100msec経過したことを表すために使用しているからである。t1=0からカウントアップするか、t1=1からカウントアップするかは大差ない。
S117においては、演奏モード中に、音色設定スイッチや、登録スイッチにオンイベントがあるか否かを判定し、ある場合には、メインルーチンに戻り、ない場合にはS112に処理を戻す。
図18(c)に示すように、t2パラメータは、4secの時間を計数した後一定値を維持する発音間隔を検出するための時間パラメータである。図13のS119において0にセットされ、図15を参照して後述する割込処理のS151においてn2までカウントアップされる。
図14のS122においては、認識ウインドウの中心点73の位置が、前回(10msec前)の認識ウインドウの中心点73の位置からの差が大きいか否かを判定し、変化なしのときを含め、小さいときにはS123に処理を進め、大きいときにはS124に処理を進める。ただし、登録直後は、前回の値がないので、位置差が0であると判定し、また、前回の認識ウインドウの中心点73の位置データが移し替えられる。
一方、S124に処理が進むのは、被写体の特定部分が10msec前の位置から移動しているときである。S124においては、F2=1(実質的な停止状態)であるか否かを判定し、1のときにはS125に処理を進め、1でなければS126に処理を進める。S125においてはt1パラメータを1にセットし、フラグF2を0にセットする。以後、S123において、実質的な停止状態(F2=1)になるまで、カウント値は1にセットされない。
図12における登録処理のS107において、W/Rおよび時間パラメータがセットされると、図13,図14に示す演奏処理モードになる。この登録直後は、図13のS111,S112,S113Cと処理が進む。S113Cにおいては、中程度の一致レベルの画像認識により、位置探索領域72内を認識ウインドウの中心点73を移動させて、認識ウインドウ12中の表示画像と登録画像との比較を行う。
図9(a)に示すように、上述した位置差がある程度大きくても、所定範囲を超えないときには、S126からS127,S128に処理が進み、次にスキャンを開始させる認識ウインドウの中心点73の位置を適切な予測位置に決めた上で、S113Cに処理を戻し、何回か、S113CからS128までの処理ステップを繰り返す。
なお、認識ウインドウの中心が、新たな特定ポイント[X,Y]に移る前の、S113A〜S113Cにおいても、画像認識の結果、登録画像の特徴データがなかったときは、同様に、S114〜S117に処理が進む。
特に、認識ウインドウ中に被写体の特定部分の表示画像が来ていて、中程度の一致レベルにより、登録画像の特徴データを検出しているときに、被写体の特定部分、例えば、手1aをビデオカメラ6に近づけるか、遠ざけるときには、被写体の特定部分の表示画像がピントの合わない表示画像になったり、あるいは、被写体の特定部分の表示画像の大きさが変化することになる。
その結果、中程度の一致レベルの画像認識でも、登録画像の特徴データを検出できなくなり、認識不能状態、すなわち、被写体の特定部分の存在が検出されない状態になる。また、手1aを画面上から隠したときにも同様に、認識不能状態になる。そのため、これらの場合には、S113Cにおいて、S114〜S117と処理が進む。その後、認識可能になれば、S113A,S113BからS118に処理が進む。
S141においては、t1が0であるか否かを判定する。t1が0であればS144に処理を進め、t1が0でなければS150に処理を進める。図13に示したS113Cにおいて登録画像の特徴データを検出しているとき(ただし、前回特徴データが検出されない状態になってから100msec経過して、S119でt1が0にセットされることなどを前提とする)には、S144に処理が進む。
このフローチャートにおいては、図4〜図6とは異なり、画像表示面の左右方向に1つの発音領域列41のみを設定し、かつ、この発音領域列41に直交する縦方向とは無関係に帯状の発音領域を設定している。また、画像表示面の絶対位置(絶対座標)に対応させて発音領域を設定するモードでは、画像表示面の横方向の距離を基準長さとし、画像表示面の左端から認識ウインドウの中心点73の位置(すなわち特定部分の位置)までの距離を、基準長さで割ればよい。一方、画像登録時の発音領域13を基準位置とした相対位置で発音領域を設定するモードでは、基準となる登録時の発音領域13から音高を変化させる方向に所定の基準長さを設定し、基準となる登録時の発音領域13を原点として、ここから認識ウインドウの中心点73の位置までの距離を基準長さで割ればよい。
S146においては、その割合(発音領域)に見合った音名をパラメータKにセットするとともに、先に、図13のS119において格納したt2’パラメータの値とを合わせたセットデータを、kcパラメータとして取り込み、かつ、このkcパラメータを、ポインタpのシーケンスデータQ(p)に登録し、S147に処理を進める。
このt2’の値は、被写体の特定部分が前回の位置に存在しなくなってから100msec経過した後に、再び被写体の特定部分の元の位置あるいは新たな位置が検出されたときまでの経過時間を示す値である。S119の処理がなされた場合に限り、図15のS141にてyesと判断され、この位置が、S144,S145において、発音領域であると判定されれば、そのときのデータt2’が音高データとともに自動演奏用データとしてシーケンスデータQ(p)に順次レジストされるとともに、S149にてリアルタイム発音される。
したがって、被写体の特定部分の中心位置が移動して、前回、被写体の特定部分を画像認識できなくなった時から100msec以内に、別の発音領域を通過したり、または、別の発音領域に滞在した場合があったとしても、この実施の形態では、わざと無視をして発音指示をしない。これによって、手を無造作に速く動かした場合の不用意な経過音を発音されなくするとともに、自動演奏データとしても取り込まないようにしている。
なお、t2’は、前回、被写体の特定部分が検出されていた位置に存在しなくなったときからの経過時間であるため、必ずしも、前回発音指示されたときからの時間ではなく、被写体の特定部分が移動途中で発音領域外に停止していれば、この領域に存在しなくなったときからの時間である。
しかし、使用者の通常の動作では、音高の配列方向に沿って被写体の特定部分を動かすから、発音領域外に停止することはまれである。したがって、t2’は、前回、ある音名の発音が指示されてから今回、新たな音名の発音が指示されるまでの時間になる。また、図18(c)に示すように、t2パラメータは、最大4秒に抑えられているので、t2’も最大4秒に抑えられる。その結果、前回にある音名の発音が指示されてから、今回、新たな音名の発音が指示されるまでの時間が4秒よりも長くなってしまっても、強制的に4秒の時間間隔として格納される。
発音領域外に停止しているときを誤操作として除外したい場合には、t2’の計数を、図15のS146において、毎回発音指示するときの時刻をレジスタに記憶しておき、前回と今回の時刻差を計算して、これをt2’とすればよい。
図15のS141からS144に処理が進むのは、図13のS118において、被写体の特定部分が前回の位置に存在しなくなってから、n1に相当する時間以上経過していることが判定されてS119に進み、ここで、t1=0にセットされたときである。n1の値で決まる時間は、上述した例では、100msecであるが、手等を動かす速度を考慮して決め、50msec〜100msecが好ましい。そして、現在、被写体の特定部分が発音領域にあるときに限り、S145においてyesとなり、S146に処理が進む。つまり、フローチャート中の処理ステップの諸条件に合致した時間データt2’パラメータが、S146においてシーケンスデータQ(p)に取り込まれる。
登録モードから演奏処理モードに移行したときに、初めて図15のS141〜S149と処理が進んだときには、S149において、登録時における発音領域に割り当てられた音名の楽音が発音される。図1(b)で説明した例では、登録時の発音領域に認識ウインドウの中心が必ずあるので、S145においてnoとなることはない。
S171においては、W/Rが2であるか否かを判定し、2であるときには、S172に処理を進め、2でないときにはメインルーチンに戻る。S172においては、シーケンスデータQ(p)を、最初のp=1から読み出す。
その際、ある音名の楽音Kを読み出すとともに、次のポインタp+1の位置に、次の音名Kとともに記録されたt2’パラメータの値を読み出し、S173に処理を進める。ただし、次のポインタp+1の位置に、次のkcデータがないときにはt2’=0とする。S173においては、音名Kの楽音を発音させ、S174に処理を進める。S174においては、シーケンスデータQ(p+1)に、次のkcデータが有るか否かを判定し、有るときにはS175に処理を進め、ないときにはS176に処理を進める。
あるいは、第1の特定部分の移動が、所定の移動条件を満足したときに、発音領域に割り当てられた楽音の発音を第1の演奏パートで行うように指示するとともに、第2の特定部分の移動が、所定の移動条件を満足したときに、発音領域に割り当てられた楽音の発音を第1の演奏パートとは異なる第2の演奏パートで行うように指示することができる。
また、第2の特定部分の移動位置を検出するとともに、第1の特定部分の移動が、所定の移動条件を満足したときに、発音領域に割り当てられた音高を識別し、識別された音高を、第2の特定部分の位置の変化方向に応じてオクターブシフトさせて、楽音の発音を指示することができる。
また、画像表示面上の複数の発音領域に、異なる音色を割り当ててもよい。
単に、特定部分が発音領域に位置したことを操作者に確認させるだけであれば、複数の発音領域に全く同じ楽音を割り当ててもよい。
Claims (8)
- 画像表示面上における被写体の特定部分の画像を記憶する画像記憶手段と、
前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を認識する画像認識手段と、
該画像認識手段により認識された被写体の特定部分の画像が、予め設定された複数の発音領域の1つに存在しなくなったと判定されてから所定時間経過後に、前記予め設定された複数の発音領域のいずれかに存在すると判定されたときに、前記被写体の特定部分が存在する前記発音領域に割り当てられた楽音の発音を指示する発音指示手段とを有する、
ことを特徴とする楽音制御装置。 - 画像表示面上における被写体の特定部分の画像を記憶する画像記憶手段と、
前記被写体を撮影することにより被写体画像データを逐次入力し、認識ウインドウを用いて、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を認識するとともに、前記認識ウインドウを前記被写体の特定部分の画像の移動に追従するように移動させる画像認識手段と、
該画像認識手段により認識された被写体の特定部分の画像が、予め設定された複数の発音領域の1つに存在しなくなったと判定されてから所定時間経過後に、前記予め設定された複数の発音領域のいずれかに存在すると判定されたときに、前記被写体の特定部分が存在する前記発音領域に割り当てられた音高で楽音の発音を指示する発音指示手段とを有する、
ことを特徴とする楽音制御装置。 - 画像表示面上における被写体の特定部分の画像を記憶する画像記憶手段と、
前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を認識する画像認識手段と、
該画像認識手段により認識された被写体の特定部分の画像が、予め設定された複数の発音領域のいずれかに存在していると認識されているときに前記被写体の特定部分の画像が認識できなくなり、認識できなくなってから所定時間経過後に、前記予め設定された複数の発音領域のいずれかに存在すると判定されたときに、前記被写体の特定部分が存在する前記発音領域に割り当てられた楽音の発音を指示する発音指示手段とを有する、
ことを特徴とする楽音制御装置。 - 画像表示面上における被写体の特定部分の画像を記憶する画像記憶手段と、
前記被写体を撮影することにより被写体画像データを逐次入力し、認識ウインドウを用いて、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を認識するとともに、前記認識ウインドウを前記被写体の特定部分の画像の移動に追従するように移動させる画像認識手段と、
該画像認識手段により認識された被写体の特定部分の画像が、予め設定された複数の発音領域のいずれかに存在していると認識されているときに前記被写体の特定部分の画像が認識できなくなり、認識できなくなってから所定時間経過後に、前記予め設定された複数の発音領域のいずれかに存在すると判定されたときに、前記被写体の特定部分が存在する前記発音領域に割り当てられた音高で楽音の発音を指示する発音指示手段とを有する、
ことを特徴とする楽音制御装置。 - 前記複数の発音領域は、前記画像表示面の所定の方向に離散的に配列されたものであり、
前記所定の方向を設定する発音領域設定手段を有する、
ことを特徴とする請求項1から4までのいずれか1項に記載の楽音制御装置。 - 前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像表示面上における被写体の特定部分の画像を前記画像記憶手段に登録する登録手段を有する、
ことを特徴とする請求項1から4までのいずれか1項に記載の楽音制御装置。 - 前記画像認識手段は、前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を、パターン照合を行うことにより認識する、
ことを特徴とする請求項1から4までのいずれか1項に記載の楽音制御装置。 - 前記画像認識手段は、前記被写体を撮影することにより被写体画像データを逐次入力し、前記画像記憶手段に記憶された画像に一致する前記被写体の特定部分の画像を、前記被写体の特定部分の画像の位置検出の状況に応じて、画像認識の一致レベルを低くしたり高くしたりする、
ことを特徴とする請求項1から4までのいずれか1項に記載の楽音制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004322403A JP3938178B2 (ja) | 2004-11-05 | 2004-11-05 | 楽音制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004322403A JP3938178B2 (ja) | 2004-11-05 | 2004-11-05 | 楽音制御装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP07803599A Division JP3637802B2 (ja) | 1999-03-23 | 1999-03-23 | 楽音制御装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007004226A Division JP4215104B2 (ja) | 2007-01-12 | 2007-01-12 | 楽音制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005099836A JP2005099836A (ja) | 2005-04-14 |
JP3938178B2 true JP3938178B2 (ja) | 2007-06-27 |
Family
ID=34464287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004322403A Expired - Fee Related JP3938178B2 (ja) | 2004-11-05 | 2004-11-05 | 楽音制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3938178B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677543B2 (ja) * | 2005-05-24 | 2011-04-27 | 株式会社国際電気通信基礎技術研究所 | 表情付け音声発生装置 |
JP2008076765A (ja) * | 2006-09-21 | 2008-04-03 | Xing Inc | 演奏システム |
JP2008116551A (ja) * | 2006-11-01 | 2008-05-22 | Advanced Telecommunication Research Institute International | 表情付け音声発生装置 |
JP4790653B2 (ja) * | 2007-03-30 | 2011-10-12 | シャープ株式会社 | 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法 |
-
2004
- 2004-11-05 JP JP2004322403A patent/JP3938178B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005099836A (ja) | 2005-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4215104B2 (ja) | 楽音制御装置 | |
JP3637802B2 (ja) | 楽音制御装置 | |
JP4627052B2 (ja) | 画像に連携した音声出力方法および装置 | |
JP6747446B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5792131B2 (ja) | ゲーム機、それに用いる制御方法及びコンピュータプログラム | |
JP2001269431A (ja) | 身体動作状態評価装置 | |
CN109102784A (zh) | 一种ar辅助乐器练习方法、系统以及一种智能设备 | |
CN113674565B (zh) | 一种用于钢琴教学的教学系统及方法 | |
KR101884089B1 (ko) | 평가 프로그램, 평가 방법 및 평가 장치 | |
WO2022052941A1 (zh) | 用于辅助钢琴教学的智能识别方法及系统、智能钢琴训练方法及系统 | |
JP4409545B2 (ja) | 三次元位置特定装置および方法、奥行位置特定装置 | |
JP5399966B2 (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
JP2006255072A (ja) | プログラム、情報記憶媒体及びゲームシステム | |
JP3938178B2 (ja) | 楽音制御装置 | |
JP5629364B2 (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
JP2001224730A (ja) | ゲーム装置および情報記憶媒体 | |
JP5318016B2 (ja) | ゲームシステム、ゲームシステムの制御方法、及びプログラム | |
US20130106689A1 (en) | Methods of operating systems having optical input devices | |
CN113255470B (zh) | 基于手部姿态估计的多模态钢琴陪练系统及方法 | |
KR20000024237A (ko) | 댄스 평가 및 지도 기능을 갖는 노래 반주 시스템 및 방법 | |
CN114267051A (zh) | 一种钢琴弹奏辅助方法、钢琴灯控制模块及钢琴灯 | |
JP7216175B1 (ja) | 画像解析システム、画像解析方法およびプログラム | |
WO2024212940A1 (zh) | 一种用于音乐教学的方法、设备和计算机可读存储介质 | |
JP2001224731A (ja) | ゲーム装置および情報記憶媒体 | |
CN111046220B (zh) | 一种听写过程中的报读语音的重播方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061114 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070319 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110406 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120406 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130406 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140406 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |