JP7296393B2 - 電子ボディパーカッション - Google Patents

電子ボディパーカッション Download PDF

Info

Publication number
JP7296393B2
JP7296393B2 JP2020542207A JP2020542207A JP7296393B2 JP 7296393 B2 JP7296393 B2 JP 7296393B2 JP 2020542207 A JP2020542207 A JP 2020542207A JP 2020542207 A JP2020542207 A JP 2020542207A JP 7296393 B2 JP7296393 B2 JP 7296393B2
Authority
JP
Japan
Prior art keywords
sensor
motion
gesture
hand
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020542207A
Other languages
English (en)
Other versions
JP2020537770A5 (ja
JP2020537770A (ja
Inventor
ウェクスラー デイヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
David Wexler
Original Assignee
David Wexler
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by David Wexler filed Critical David Wexler
Publication of JP2020537770A publication Critical patent/JP2020537770A/ja
Publication of JP2020537770A5 publication Critical patent/JP2020537770A5/ja
Application granted granted Critical
Publication of JP7296393B2 publication Critical patent/JP7296393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10DSTRINGED MUSICAL INSTRUMENTS; WIND MUSICAL INSTRUMENTS; ACCORDIONS OR CONCERTINAS; PERCUSSION MUSICAL INSTRUMENTS; AEOLIAN HARPS; SINGING-FLAME MUSICAL INSTRUMENTS; MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR
    • G10D13/00Percussion musical instruments; Details or accessories therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/46Special adaptations for use as contact microphones, e.g. on musical instrument, on stethoscope
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • G10H2220/326Control glove or other hand or palm-attached control device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Organic Insulating Materials (AREA)

Description

本発明は、電子パーカッションシステムのための装置に関する。本発明はまた、関連する方法に関する。
ボディパーカッションは、人気があり、さまざまな音を生成するために、特に体の一部における衝撃を伴うさまざまのジェスチャーを行うミュージシャンに関する。例えば、ミュージシャンは、さまざまな音を生成するために、指を鳴らす、叩く、胸を打つ、手を叩くことができる。
ウェアラブル電子楽器を作成するための試みがなされてきた。特に、ピアノを演奏するために使用されるのと同様の動作を用いてユーザーが音を生成することができるように、指の上にセンサーを配置する試みがなされてきた。また、既知の特許文献である米国特許第8362350号明細書は、手のひらに取り付け可能な衝撃センサーを開示し、これを使用して、開いた平らな手で表面を叩いたときに信号を生成することができる。
しかしながら、互いにジェスチャーのタイプを区別できる、指を鳴らす、叩く、手を叩く、胸を打つなどの異なるボディパーカッションジェスチャーをユーザーが行うことができる既知のウェアラブル電子機器は存在しない。
本発明の目的は、異なるジェスチャー、特に異なるボディパーカッションジェスチャーを区別する問題に対処することである。
本発明の第1の態様によれば、以下を含む電子パーカッションシステムのための装置が提供される:複数のセンサー;および、センサーを手に取り付け、その上のそれぞれの所定の位置に各センサーを配置するための取り付け手段。各センサーは、接触面上のセンサーの衝撃に対応して、決定手段によって受け取られるための情報を送信するように構成される。取り付け手段およびセンサーは共に、そのような情報によって決定手段がジェスチャーのそれぞれを互いに区別することができるように構成される。
このようなジェスチャーには、指を鳴らす動作、叩く動作、胸を打つ動作、手を叩く動作のいずれか1つ以上または全てが含まれうる。
取り付け手段は、指を鳴らす動作において中指が衝突する手のひらの部分に第1のセンサーを配置するように構成されてもよく、第1のセンサーは、指を鳴らす動作に応答して信号を提供するように構成される。
取り付け手段は、叩く動作を検出するために、手の底部側に第2のセンサーを配置するよう構成されうる。
取り付け手段は、手のひらの一部、すなわち手の指の下に少なくとも1つのさらなるセンサーを配置するように構成されてもよい。例えば、その部分は手のひらの上部であってもよい。
第2のセンサーおよび少なくとも1つのさらなるセンサーは、胸を打つ動作の検出に使用するために構成されうる。
少なくとも1つのさらなるセンサーは、第3のセンサーを含み得る。この場合、取り付け手段は、中指の下の、手のひらの上部に第3のセンサーを配置するように構成されてもよい。
少なくとも1つのさらなるセンサーは、第4のセンサーを含み得る。この場合、取り付け手段は、薬指の下の、手のひらの上部に第4のセンサーを配置するように構成される。
所定の場所は、手の指以外の部分であってもよい。
取り付け手段は、手に装着可能な支持体を含み得る。この場合、各センサーは支持体に取り付けられており、支持体は手の上の所定の位置にセンサーを配置しかつ保持するように構成されている。
センサーのいずれか1つ、複数、またはすべてが、接触マイクロホンセンサーまたは圧力センサーであってもよい。
装置は、動作検知手段をさらに備えることができる。この場合、取り付け手段は、好ましくは、ユーザーの手首に対して固定された配置で動作検知手段を取り付けるように構成される。動作検知手段は、所定の初期位置に対する手首の角運動に応答して動作情報を生成するように構成され得る。決定手段は、動作情報を受信し、動作情報に基づいてジェスチャーが実行されたことを決定するように構成され得る。
動作情報は、3つの相互に垂直な軸のそれぞれについての手首の角運動を示し得る。
装置はさらに、以下を含んでもよい:それぞれのセンサーが接触面に衝突したことを示す各センサーからの情報を受信する受信手段;および、少なくとも受信した情報に基づいて所定のジェスチャーの1つが実行されたことを決定する決定手段。
決定手段は、センサーから受信した情報を所定のジェスチャーにマッピングする第1のマッピングテーブルを使用して、実行されたジェスチャーに対応するジェスチャー識別子を決定するように構成され得る。
受信手段は取り付け手段に取り付けられてもよく、決定手段は少なくとも部分的に取り付け手段に取り付けられてもよい。
決定手段はさらに、第2のマッピングテーブルを使用して、決定されたジェスチャー識別子に基づいて複数のサンプルから1つのサンプルを決定し、決定されたサンプルを再生させるように構成され得る。
装置はさらに、取り付け手段に取り付けられた通信手段、取り付け手段から離間されてその上に取り付けられていないコンピュータ手段を含んでもよく、決定手段は以下を含む:取り付け手段に取り付けられ、通信手段に動作可能に接続される、第1の決定手段;第2の決定手段であって、コンピュータ手段が第2の決定手段を含み、第1の決定手段がさらに、通信手段に対してジェスチャー識別子をコンピュータ手段に送信させるように構成され、第2の決定手段がサンプルの再生を決定し引き起こすように構成される、第2の決定手段。
受信した情報は、各センサーが接触面に衝突する速度を示し、各センサーは、速度が閾値速度よりも大きい場合にのみトリガーされたと見なされる。
本発明の第2の態様によれば、以下の工程を含む、パーカッションジェスチャーを決定する方法が提供される:制御手段において、複数のセンサーの少なくとも1つから、各センサーが接触面に衝突したことを少なくとも示す情報を受信する工程であって、センサーはそれぞれ、手の指以外の部分の所定の位置に配置される、工程;受信した情報に基づいて、複数の所定のジェスチャーの1つが実行されたことを決定する工程。
そのようなジェスチャーは、指を鳴らす動作および叩く動作の少なくとも1つを含んでもよい。そのようなジェスチャーは、胸を打つ動作および/または手を叩く動作を含んでもよい。
第1のセンサーは、中指が指を鳴らす動作で衝突する手のひらの部分に配置されてもよい。この場合、第1のセンサーは、そのような指を鳴らす動作に応答して信号を提供するように構成される。
第2のセンサーは、叩く動作を検出するために、手の底部に配置されてもよい。追加でまたは代替的に、少なくとも1つのさらなるセンサーが、中指が指を鳴らす動作で衝突する場所以外の、手のひらの一部、例えば手の指の下の上部に配置されてもよい。
第2のセンサーおよび少なくとも1つのさらなるセンサーは、胸を打つ動作を検出する際に使用するために構成され得る。
少なくとも1つのさらなるセンサーは、第3のセンサーを備えてもよく、第3のセンサーは、手のひらの一部、例えば中指の下の上部に配置される。
少なくとも1つのさらなるセンサーは、第4のセンサーを備えてもよく、第4のセンサーは、手のひらの一部、例えば薬指の下の上部に配置される。
取り付け手段は、手に装着可能な支持体を含み得る。各センサーは支持体上に取り付けられてもよく、支持体は手の上の所定の位置にセンサーを配置しかつ保持するように構成されてもよい。センサーのいずれか1つ、複数、またはすべてが、接触マイクロホンセンサーまたは圧力センサーであってもよい。
方法は、手に取り付けられた動作検知手段をさらに備えてもよく、動作検知手段は、ユーザーの手首の角運動に応答して角運動情報を生成するように構成され、制御手段は、動作情報を受信し、動作情報に基づいてジェスチャーが実行されたことを決定するように構成される。
動作情報は、3つの相互に垂直な軸のそれぞれについての手の角運動を示し得る。
方法はさらに、以下を含んでもよい:それぞれのセンサーが接触面に衝突したことを示す各センサーからの情報を受信するための手段;受信した情報に基づいて所定のジェスチャーが実行されたことを決定する手段。
受信手段および決定手段は取り付け手段に取り付けられてもよい。この方法は、決定されたジェスチャーに基づいて複数のサンプルから1つのサンプルを決定する工程;決定されたサンプルを再生させる工程をさらに含んでもよい。
受信した情報は、各センサーが接触面に衝突する速度を示しうる。各センサーは、速度が閾値速度よりも大きい場合にのみトリガーされたと見なされうる。
第3の態様によれば、以下の工程を含む方法が提供される:ユーザーによる特定のジェスチャーの当該または各パフォーマンスについて、ユーザーの手足、例えば手または手首に取り付けられた動作検知手段から動作値の1つ以上のセットを受け取る工程であって、各セットにおける各動作値は、複数の所定のパラメータのそれぞれ1つに対応するものである、工程;および、ジェスチャー識別子に関連してジェスチャーについての値を記憶する工程であって、この値によってジェスチャーを他のジェスチャーと区別することが可能となる、工程。動作値は、3つの相互に垂直な軸のそれぞれの周りの手首の角運動を示すことができる。
本発明の方法はさらに、各動作値の範囲を画定する工程、およびジェスチャー識別子に関連して各範囲を記憶する工程を含み、その結果、ジェスチャーは、実行されたときに他のジェスチャーと区別できる。範囲は、ジェスチャーについての複数の受信されたセットに基づくことができる。したがって、他のジェスチャーと区別可能な新しいジェスチャーを定めることができる。セット内の動作値には、手のひらや指に配置された1つ以上のセンサーからの値も含まれてもよく、これは、例えば表面(例えば体の一部)を叩くことを含むジェスチャーによりまたは圧迫動作において、当該または各センサーにおける衝撃または圧力でトリガーされる。当該または各センサーによって生成される動作値は、衝撃の速度または圧力を示すことができる。そのような方法を提供するように構成されたデバイスおよびコンピュータ手段を備える装置も提供され得る。
本発明をよりよく理解するために、添付の図面を参照して、単なる例示として、実施形態が以下に説明される。
左手に装着するための、ある実施形態によるデバイスの例示的な斜視図 左手に装着されたデバイスの例示的な斜視図 断面の拡大図を含む、デバイスの例示的な斜視図 角度座標の参照に使用される軸を示す図 デバイスに含まれる構成要素を図式的に示す図 受信された信号に基づいてジェスチャー識別子を決定することができる表 ジェスチャー識別子およびサンプルがマッピングされている表 デバイスで行われる本発明の実施形態による工程を示すフローチャート 演算デバイスで発生する工程を示すフローチャート
本明細書では、同様の参照番号は同様の部品を示すために使用される。以下では、ユーザーの手が参照され、手の様々な部分が参照される。手のひらは指の「下」にあると称される。手のひらの「上」部とは、指のすぐ下の部分を意味する。
本発明の実施形態は、ユーザーの手に取り付けるためのデバイス、および電子パーカッションシステムを形成する演算デバイスに関する。図1Aおよび1Bを参照すると、デバイスは、左手に装着するための支持構造10を含む。支持構造10は、図1Bに示されるように、使用者が手の上に支持構造10を配置できるように曲げられるストラップを含む。支持構造10は、手の人差し指がそれを通って伸長するループ部分を含む。支持構造10は、柔らかいシリコーン材料を含む。あるいは、支持構造10は、柔らかく、可撓性で、壊れにくいエラストマーを含んでもよい。
指示構造には、その上に4つのセンサー12、14、16、18が取り付けられている。センサー12、14、16、18は、少なくとも以下のジェスチャーを区別できるように配置される:
(a)指を鳴らす動作;
(b)閉じた拳で、テーブルトップなどの水平な接触面を叩く動作;
(c)手を叩く動作;
(d)胸を打つ動作。
第1のセンサーは、母指球(thumb palm)センサー12であり、母指球隆起の上に配置される。このセンサーは、ユーザーが指を鳴らす動作および胸を打つ動作を行うときにトリガーされるように配置される。
第2は、底部拳センサー14である。この底部拳センサー14は、ユーザーが水平面上で叩く動作を行うときにトリガーされるように配置されている。センサーは、手の側面、小指の中手骨と小指の指骨との間の関節に配置される。変形実施形態では、支持構造10は、センサー14が、小指球の隆起の上方で手の側に配置されるように変更されてもよい。
第3のセンサーは、中指仮骨センサー16である。このセンサー16は、中指の中手骨が中指の指骨に接合する箇所に隣接して手のひら上に位置し、通常は中指の下に仮骨がある。
第4のセンサーは、薬指仮骨センサー18である。このセンサー18は、薬指の中手根が薬指の指骨に接合する箇所に隣接して手のひら上に位置し、通常は薬指の下に仮骨がある。
この中指仮骨センサー16および薬指仮骨センサー18は、ユーザーが手を叩く、または彼/彼女の胸を打つときにトリガーされるように配置されている。
第1、第2、第3および第4のセンサー12、14、16、18は、それぞれ、オーディオ振動を感知するように構成されたマイクロホンセンサーである。あるいは、第1、第2、第3および第4のセンサー12、14、16、18の1つ、複数またはすべては、固体物体との接触を通じて衝撃速度を感知するように構成された圧力センサーである。第1、第2、第3および第4のセンサー12、14、16、18はそれぞれ、各センサーが接触面に衝突した速度を示す信号を生成するように構成される。
可撓性PCBの形態の制御ユニット20は、支持構造10の材料内に配置される。制御ユニット20は、制御ユニット20に電力を供給するための、支持構造10の材料内に配置された電池21を含む。あるいは、制御ユニット20は、支持構造10上に取り付けられてもよい。
図2に示されるように、制御ユニットはまた、すべて動作可能に接続された、マイクロプロセッサユニット22、メモリユニット24、通信ユニット26、および慣性計測ユニットIMU28を備える。第1、第2、第3および第4のセンサー12、14、16、18のそれぞれは、マイクロプロセッサユニット22に接続され、支持構造10に埋め込まれたそれぞれのワイヤ(図示せず)によってそれぞれマイクロプロセッサユニット22に信号を送る。
IMU28は、手首の線形加速度を示す加速度情報をマイクロプロセッサユニット22に提供するように構成された加速度計30の形態のセンサー、および、手首の角運動を示す角度情報を提供するように構成されたジャイロスコープ32の形態の別のセンサーを含む。好ましくは、IMU28は、ユーザーの手首に対してまたはその近くの支持構造10の上または中に位置する。
メモリユニット24は、その上に記憶されたコンピュータプログラムコードを含むコンピュータプログラムを有し、マイクロプロセッサユニット22によって実行されると、本明細書に記載された機能を有する制御ユニット20が生じる。特に、マイクロプロセッサユニット22は、IMU28および第1、第2、第3および第4のセンサー12、14、16、18から信号を受け取り、実行されたジェスチャーを決定するためにそれらの信号を処理するように構成される。コンピュータプログラムは、図3に示される第1のテーブルを含み、それにより、マイクロプロセッサユニット22は、受信された信号に基づいて所定のジェスチャーのどれが実行されたかを決定することができる。第1のテーブルは、特定のジェスチャーが実行されたと決定されるためには、特定のセンサーがトリガーされている必要があることを示す。
デバイスはまた、制御ユニット20に動作可能に接合された1つ以上のLEDを含み得る。1つ以上のLEDは、例えば、システムが使用前に校正されていることをユーザーに知らせるために使用されてもよい。デバイスはまた、好ましくは、例えばUSBフォーマットに従う充電ポートを含む。
パーカッションシステムは、通信ユニット26の近くに配置された演算デバイス40を含む。通信ユニット26は、ブルートゥース(RTM)などの無線通信技術を使用して、ジェスチャー識別子を近くの演算デバイス40に送信するように構成される。
図示されていないが、演算デバイス40はまた、処理ユニット、メモリユニット、および通信ユニット、並びにスピーカーユニット42を備える。メモリユニットはまた、その上に記憶されたコンピュータプログラムコードを含むコンピュータプログラムを有する。処理ユニットは、コンピュータプログラムコードを実行して、本明細書における演算デバイス40に起因する機能を提供するように構成される。通信ユニットは、制御ユニット20からジェスチャー識別子を受信するために、無線通信技術を使用して通信するように構成される。
演算デバイス40は、コンピュータ、ラップトップ、またはアイフォンのようなモバイル装置でもよく、内部にスピーカーユニット42が組み込まれる。コンピュータプログラムコードは、演算デバイス40にインストールされたアプリケーションを含み得る。変形実施形態では、演算デバイス40は、外部スピーカーユニットに動作可能に接続され、外部スピーカーユニットでオーディオサンプルを再生するように構成され得る。
演算デバイス40は、制御ユニット20からジェスチャー識別子を受け取り、ジェスチャー識別子を使用してオーディオサンプルを決定し、かつリアルタイムでスピーカーユニット42を使用してオーディオサンプルを再生するように構成される。
変形実施形態では、第1のテーブルは演算デバイス40に記憶され、制御ユニット20はセンサーから受信された信号に基づいてジェスチャー識別子を決定しない。代わりに、制御ユニット20は、通信ユニット26を使用して、受信した信号を示す情報を演算デバイス40に送信し、演算デバイス40は、実行された特定のジェスチャーを決定するように構成される。
オーディオサンプルを決定するために、演算デバイス40におけるコンピュータプログラムコードは、図4に示されるように、オーディオサンプルと共にジェスチャー識別子をマッピングする第2のテーブルがその上に記憶されている。コンピュータデバイス40は、第2のテーブルを使用して、ジェスチャー識別子によって識別されたオーディオサンプルを決定するように構成される。例として、オーディオサンプルAはキックドラムであり得、オーディオサンプルBはハイハットなどであり得る。オーディオサンプルは、打楽器を使用して生成されうる音に限定されない;任意の種類の音が含まれてもよい。コンピュータデバイス40は、複数のセットのサンプルを記憶するように構成されてもよく、ユーザーがどれを選ぶかを選択できるように構成されてもよい。
オーディオサンプルは事前に構成されてもよい、すなわち、ソフトウェアのサプライヤから提供されてもよい。好ましくは、演算デバイス40は、ユーザーが特定の所定のジェスチャーをオーディオサンプルにマッピングできるように構成される。オーディオサンプルは事前に構成されてもよい。あるいは、1つ以上のオーディオサンプルがユーザーによって提供されてもよく、ユーザーによって事前に記録されてもよい。
演算デバイス40上のコンピュータプログラムは、例えば、サンプルを記録、再生、およびループすることができるシーケンサーモードを有することができる。
制御ユニット20は、第1、第2、第3および第4のセンサー12、14、16、18から受信した信号の振幅に基づいて、オーディオサンプルが再生されるべき相対ボリュームを示すボリューム情報を決定するように構成される。1つの信号から信号を受信する場合、ボリューム情報はその受信信号の振幅に基づく。信号が2つ以上の信号から同時に受信される場合、ボリューム情報は、受信された信号の振幅のうち最も高い振幅に基づく。
第1のテーブルは、トリガーされたセンサーの組み合わせに基づいて各ジェスチャーを独自に識別できるように構成される。第1のテーブルで識別されたジェスチャーはそれぞれ、第1、第2、第3および第4のセンサー12、14、16、18のどれがトリガーしたかの決定に基づいて独自に識別可能であるが、IMU28の出力を使用して、ジェスチャーが正しく識別されたことを決定または確認してもよい。
IMU28の出力は、「x」、「y」および「z」軸の周りの角運動を示す角座標として生成される。これらの軸はそれぞれ、ユーザーの手首に対して固定された場所に位置するIMU28を通って伸長する。したがって、IMU28は、手首の角運動を示す情報を生成するように構成される。z軸は、ユーザーの前腕に対して長さ方向に伸長する。x軸およびy軸はそれぞれ、z軸に対して放射状に伸長する。y軸は、手のひらが広げられたときに、手のひらにほぼ直交して手首の一部を通って伸長する。x軸はそれに垂直に伸長する。
デバイスは、ユーザーがデバイスについて所定の基本位置を設定できるように構成されている。ユーザーは、ジェスチャーの合間に腕を基本位置に戻す。デバイスは、基本位置からの角運動を示す情報を生成するように構成される。
基本位置は、ユーザーが、肘を直角に曲げた状態で腕を保持し、前腕を地面に平行にし、ユーザーの視点から前方にユーザーの体の正面から離れて指と手を伸ばして向けて設定される。手のひらは開いて平らであり、その平面は水平に伸長する。手と腕をこの方向に保持したまま、ユーザーは演算デバイスを操作して、IMU28で使用される軸の基本位置を設定し、現在の位置を(0、0、0)として設定する;演算デバイス40は、メッセージをデバイスに送信して、制御ユニット20に、現在の位置に基づいて軸および座標(0、0、0)を設定させる。したがって、z軸は、前腕および伸ばした手の長さと同軸になるように設定される。x軸は、ユーザーの前で右から左に伸長する。y軸は垂直である。
第1のテーブルは、基本位置からジェスチャーを実行した際に、軸の周りの角度位置として特定のジェスチャーに関連付けられた角度パラメータ値を示す。パラメータ値は、発生する角運動を示すが、実際には、デバイスは各軸における角運動の範囲で構成され、角運動が各所定の範囲内にあると決定された場合、デバイスは、対応するジェスチャーが実行されと決定できる。例えば、範囲は表示された値のいずれかの側から10度になりうる。
第1、第3および第4のセンサー12、14、18がトリガーされると、第1のジェスチャー(胸部スラップ)が決定される。第1のジェスチャーは、胸部スラップジェスチャーで偶発的にトリガーされるまたはされないので、第2のセンサー16がトリガーされるかどうかに関係なく決定される。また、IMU28からの出力は、x、yおよびz方向における手首の動作を示す。
第2のジェスチャー(手を叩く)は、第3および第4のセンサー16、18がトリガーされかつ第1のセンサー12がトリガーされていないときに決定される。第1のジェスチャーと同様に、第2のジェスチャーは、第2のセンサー16がトリガーされるかどうかには依存しない。これは、手を叩く動作が通常は手のひらの母指部分に衝突しないのに対し、胸を打つ動作は衝突するという事実を反映している。また、IMUからの出力は、x、y、z方向の動きを示す。
手が胸に当たったときに角度座標が(-30、+90、-90)となる胸を打つ動作は、手を打つジェスチャー(-60、+20、-180のパラメータ範囲を持つ)と簡単に区別できる。
第3のジェスチャー(指を鳴らす)は、第1のセンサー12がトリガーされ、第2および第4のセンサー14、18がトリガーされないときに決定される。第3のジェスチャーは、第3のセンサー16がトリガーされるかどうかには依存しない。これは、中指を使用する指を鳴らす動作が母指球に当たり、偶発的に第3のセンサー16をトリガーする可能性があることを反映している。また、IMU28からの出力は、手首がx、yおよびz方向に動くことを示している。
第2のセンサー14がトリガーされ、かつ第1および第3のセンサー12、16がトリガーされないとき、第4のジェスチャー(叩く)が決定される。第4のジェスチャーは、第4のセンサー18がトリガーされるかどうかには依存しない。また、IMU28からの出力は、x方向で下向きおよびz方向で左向きの配置を示す。
x、yおよびz軸に関する半径方向の並進運動を示す情報も、IMU28によって出力され得る。このような情報は、ジェスチャーを区別するために使用されてもよい。あるいは、そのような情報を使用して、好ましくはMIDIフォーマットを使用して記憶された、サンプル上に所定の音響効果を生成させてもよい;例えばサンプルは変形していてもよい。異なる並進運動によって、異なる音響効果が生じうる。したがって、ユーザーは、特定のジェスチャーを実行するときに並進運動を行って、音響効果を生じさせることができる。特定の並進運動に対応する特定の音響効果は、デバイス40を使用して事前に構成されてもよい。
ユーザーが各ジェスチャーを数回実行し、パラメータの範囲が通信ユニットによって設定される、校正フェーズが必要になる場合がある。この場合、パラメータには、IMUからの出力および各センサーの衝突の速度の両方が含まれうる。あるいは、事前に構成された範囲を使用してもよい。
次に、図5を参照してシステムの使用が説明される。最初にステップ100において、第1、第2、第3、および第4のセンサー12、14、16、18のうちの1つ以上が、接触面上における当該または各センサーの衝撃によってトリガーされる。トリガーされた各センサーは、制御ユニット20に送信される衝撃速度を示す信号を生成する。制御ユニット20は、ステップ102で信号を受信する。
ステップ104において、制御ユニット20は、速度値が閾値を超えているかどうかを決定する。速度値が閾値を下回る場合、ステップ106に示されるように、信号は使用されない。速度値が閾値を超える場合、第1のテーブルを使用して、ステップ108において、信号が所定のジェスチャーのどれに関連するかを決定するために信号が使用される。
使用される1つ以上の信号に基づいてジェスチャーを決定できない場合、ジェスチャー識別子は決定されず、プロセスが停止する。
ステップ110において、相対ボリューム情報が決定される。
ステップ112において、相対ボリューム情報および決定されたジェスチャー識別子が演算デバイス40に送信される。
ステップ114において、相対ボリューム情報および決定されたジェスチャー識別子が演算デバイス40によって受信される。
ステップ116において、演算デバイス40は、第2のテーブルを使用して、ジェスチャー識別子に対応するサンプルを決定する。
ステップ118において、演算デバイス40は、スピーカーユニット42を使用してサンプルを再生させる。サンプルは、ユーザーによるジェスチャーの実行の完了後にリアルタイムで再生される。
変形実施形態において、制御ユニット20は、上述の4つのジェスチャーに加えてまたはその代わりに、他のジェスチャーを決定するように構成される。
中指仮骨センサー16または薬指仮骨センサー18はそれぞれ、1つ以上のさらなる異なったジェスチャーが実行されると、選択的にトリガーされる。変形実施形態において、中指仮骨センサー16または薬指仮骨センサー18がなくてもよい。上記の(a)から(d)における4つのジェスチャーは、依然として区別できる。中指仮骨センサー16および/または薬指仮骨センサー18に加えてまたはその代わりに、指を鳴らす動作ではトリガーされないが胸を打つ動作または手を叩く動作ではトリガーされるような位置で、センサーを手のひらのどこか別の場所に配置してもよい。図示の実施形態では、ストラップの配置により、センサー16、18は図示のように配置されるが、センサーが別に配置されるウェアラブルデバイス(例えば、手袋)の他の構成が提供されてもよい。
ユーザーが新しいジェスチャーをそれぞれのサンプルに対応するように構成できるように、演算デバイス40および制御ユニット20を構成してもよい。これには次のトレーニングプロセスが必要である:
(i)ユーザーがジェスチャーを実行すると、センサー12、14、16、18およびIMU28の少なくとも1つが出力を生成する;
(ii)ジェスチャーについてのパラメータが、出力に基づいて設定される;
(iii)第1のテーブルは、パラメータおよびジェスチャーを識別する識別子を含むように修正される;
(iv)第2のテーブルは、ジェスチャー識別子をユーザーにより選択されたオーディオサンプルにマッピングするように修正される。
パラメータを最適化するためにジェスチャーが複数回実行されてもよく、範囲が設定される。新しいジェスチャーについてのパラメータの設定は、機械学習プロセスで実行されうる。
このデバイスを使用して、ジェスチャーを実行する以外の方法でサンプルの再生をトリガーしてもよい。例えば、デバイスを装着した手を特定の方法で握り、特定のセンサーをトリガーしてもよい。第1のマッピングテーブルは、そのようなセンサーグリップアクションのどれが実行されるかを決定し、対応する識別子を決定するように構成されてもよく、それにより、第2のマッピングテーブルを使用してサンプルを決定できる。センサーはまた、例えばリバーブのような音響効果を引き起こすためにトリガーされてもよい。
上記のデバイスは、ユーザーの左手で使用するためのものである。デバイスは、ユーザーの右手で使用するために構成されてもよい。この場合、デバイスは、鏡像の態様で構成される。ユーザーの左手用のデバイスは、ユーザーの右手用のデバイスと一緒に使用されてもよく、あるいは2つのデバイスを別々に使用してもよい。
基本位置は、上記の基本位置とは異なるかもしれない。この場合、角運動の値が異なる。
本出願人は、本明細書に記載されている個々の特徴またはステップを別個に、および2つ以上のそのような特徴の任意の組合せを、そのような特徴またはステップあるいは特徴および/またはステップの組み合わせが本明細書に開示される任意の問題を解決するかどうかに拘わらず、請求の範囲に限定されることなく、当業者の周知の一般知識に照らして全体としてそのような特徴またはステップあるいは特徴および/またはステップの組み合わせが本明細書に基づいて実行できる範囲で、開示する。本出願人は、本発明の態様が、そのような個々の特徴またはステップ、あるいは特徴および/またはステップの組み合わせから構成されうることを示している。前述の説明に鑑みて、本発明の範囲内で様々な修正を行うことができることが当業者に明らかであろう。

Claims (15)

  1. 電子パーカッションシステムであって、
    複数のセンサー;
    決定手段;
    センサーを手に取り付け、その上のそれぞれの所定の指でない位置に各センサーを配置するための取り付け手段
    を備え、
    前記各センサーは、接触面上の前記センサーの衝撃に対応して、決定手段によって受け取られるための情報を送信するように構成され、前記取り付け手段および前記センサーは共に、そのような情報によって前記決定手段が、ユーザーによって実行されうる複数の所定のボディパーカッションジェスチャーを所定のジェスチャーから互いに区別できるように構成され、前記ジェスチャーには、指を鳴らす動作、胸を打つ動作、および手を叩く動作が含まれる、
    システム。
  2. 前記取り付け手段は、指を鳴らす動作において中指が衝突する手のひらの部分に第1のセンサーを配置するように構成され、前記第1のセンサーは、指を鳴らす動作および胸を打つ動作に応答して前記決定手段により受け取られるための各情報を提供するように構成されることを特徴とする、請求項1に記載の電子パーカッションシステム。
  3. 前記取り付け手段は、手のひらの別の部分に少なくとも1つのさらなるセンサーを配置し、胸を打つ動作および手を叩く動作に応答して各情報を提供するように構成されることを特徴とする、請求項1に記載の電子パーカッションシステム。
  4. 前記ジェスチャーが叩く動作を含み、前記取り付け手段が、手の底部側に前記叩く動作を検出するための別のセンサーを配置するように構成されることを特徴とする、請求項1~3のいずれか1項に記載の電子パーカッションシステム。
  5. 前記取り付け手段が、手に装着可能な支持体を含み、前記各センサーは前記支持体に取り付けられ、前記支持体は手の上の所定の位置にセンサーを配置しかつ保持するように構成されていることを特徴とする、請求項1~4のいずれか1項に記載の電子パーカッションシステム。
  6. 動作検知手段をさらに備え、前記取り付け手段は、前記ユーザーの手首に対して固定された配置で前記動作検知手段を前記ユーザーに取り付けるように構成され、前記動作検知手段は、所定の初期位置に対する手首の角運動に応答して動作情報を生成するように構成され、前記決定手段は、前記動作情報を受信し、該動作情報に基づいて実行されたジェスチャーを決定するように構成されることを特徴とする、請求項1~5のいずれか1項に記載の電子パーカッションシステム。
  7. 前記動作情報は、3つの相互に垂直な軸のそれぞれについての手首の角運動を示すことを特徴とする、請求項に記載の電子パーカッションシステム。
  8. 前記決定手段が、前記センサーから受信した情報を所定のジェスチャーにマッピングする第1のマッピングテーブルを使用して、前記実行されたジェスチャーに対応するジェスチャー識別子を決定するように構成されることを特徴とする、請求項1~7のいずれか1項に記載の電子パーカッションシステム。
  9. 前記決定手段がさらに、
    第2のマッピングテーブルを使用して、前記決定されたジェスチャー識別子に基づいて複数のサンプルから1つのサンプルを決定し;
    前記決定されたサンプルを再生させる
    ように構成されることを特徴とする、請求項8に記載の電子パーカッションシステム。
  10. パーカッションジェスチャーを決定する方法であって、
    制御手段において、複数のセンサーの少なくとも1つから、各センサーが接触面に衝突したことを少なくとも示す情報を受信する工程であって、前記センサーはそれぞれ、手の指以外の部分の所定の位置に配置される、工程;
    前記受信した情報に基づいて、複数の所定のジェスチャーの1つが実行されたことを決定する工程であって、前記ジェスチャーが、指を鳴らす動作、胸を打つ動作および手を叩く動作を含む、工程
    を含む方法。
  11. 第1のセンサーが、中指が指を鳴らす動作で衝突する手のひらの部分に配置され、前記第1のセンサーは、そのような指を鳴らす動作に応答して信号を提供するように構成されることを特徴とする、請求項10に記載の方法。
  12. 少なくとも1つのさらなるセンサーが、中指が指を鳴らす動作で衝突する場所ではない、手の指の下の、手のひらの上部に配置されることを特徴とする、請求項10または11に記載の方法。
  13. 前記第1のセンサーおよび少なくとも1つのさらなるセンサーが、胸を打つ動作を検出する際に使用するために構成されることを特徴とする、請求項11に記載の方法。
  14. 動作検知手段により、ユーザーの手首の角運動に応答して角運動情報を生成する工程、および、前記運動情報を受信し、該受け取った運動情報に基づいて1つのジェスチャーが実行されたことを決定する工程をさらに含むことを特徴とする、請求項10~13のいずれか1項に記載の方法。
  15. 前記決定されたジェスチャーに基づいて複数のサンプルから1つのサンプルを決定する工程;
    前記決定されたサンプルを再生させる工程
    をさらに含むことを特徴とする、請求項14に記載の方法。
JP2020542207A 2017-10-12 2018-10-11 電子ボディパーカッション Active JP7296393B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1716765.1A GB2574786B (en) 2017-10-12 2017-10-12 Electronic body percussion
GB1716765.1 2017-10-12
PCT/GB2018/052917 WO2019073241A1 (en) 2017-10-12 2018-10-11 BODY ELECTRONIC PERCUSSION

Publications (3)

Publication Number Publication Date
JP2020537770A JP2020537770A (ja) 2020-12-24
JP2020537770A5 JP2020537770A5 (ja) 2021-11-25
JP7296393B2 true JP7296393B2 (ja) 2023-06-22

Family

ID=60419273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020542207A Active JP7296393B2 (ja) 2017-10-12 2018-10-11 電子ボディパーカッション

Country Status (9)

Country Link
US (1) US11675435B2 (ja)
EP (1) EP3695402A1 (ja)
JP (1) JP7296393B2 (ja)
CN (1) CN111465978A (ja)
AU (1) AU2018349181A1 (ja)
CA (1) CA3079021A1 (ja)
GB (1) GB2574786B (ja)
TW (1) TWI821203B (ja)
WO (1) WO2019073241A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330567A (ja) 1999-03-18 2000-11-30 Yamaha Corp 音響制御装置
JP2004534316A (ja) 2001-07-06 2004-11-11 ザ ディーンマーク コーポレーション 手袋コンピュータマウス
JP2004537802A (ja) 2001-07-31 2004-12-16 ザ ティンバーランド カンパニー 手に装着する入力装置
JP2006267226A (ja) 2005-03-22 2006-10-05 Yamaha Corp 楽音制御装置
WO2016116722A1 (en) 2015-01-19 2016-07-28 Kurv Music Ltd. A hand-held controller for a computer, a control system for a computer and a computer system
WO2016121034A1 (ja) 2015-01-28 2016-08-04 株式会社ウェアラブルデバイス総合研究所 ウェアラブル装置、入力方法及びプログラム
US20160225357A1 (en) 2015-01-30 2016-08-04 Jet Black Movement Musical Instrument

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3430528B2 (ja) * 1992-12-01 2003-07-28 ヤマハ株式会社 楽音制御信号発生装置
US6154199A (en) 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
WO2002005124A1 (en) * 2000-07-10 2002-01-17 William H Hagey Portable electronic percussion instrument
US20100156783A1 (en) 2001-07-06 2010-06-24 Bajramovic Mark Wearable data input device
HRP20060359A2 (en) * 2006-10-19 2008-04-30 Rimac Mate Glove-type input unit for computer
JP4600548B2 (ja) * 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
TWM371942U (en) * 2009-08-18 2010-01-01 Univ Southern Taiwan Device for memorizing rhythm
US8362350B2 (en) * 2009-12-07 2013-01-29 Neven Kockovic Wearable trigger electronic percussion music system
WO2011083442A1 (en) * 2010-01-08 2011-07-14 Dayton Technologies Limited Hand wearable control apparatus
CN102402290A (zh) * 2011-12-07 2012-04-04 北京盈胜泰科技术有限公司 一种肢体姿势识别方法及系统
EP2634670A1 (en) * 2012-03-01 2013-09-04 Asplund Data AB A data input device
TWI470619B (zh) * 2012-11-29 2015-01-21 Univ Southern Taiwan Sci & Tec 電子感測打擊樂器
US10331219B2 (en) * 2013-01-04 2019-06-25 Lenovo (Singaore) Pte. Ltd. Identification and use of gestures in proximity to a sensor
US9389684B2 (en) * 2013-03-13 2016-07-12 Visual Music Systems, Inc. Platform for finger controls
EP2870984A1 (en) * 2013-11-08 2015-05-13 Beats Medical Limited A system and method for selecting an audio file using motion sensor data
TW201533608A (zh) * 2014-02-18 2015-09-01 Waltop Int Corp 具有壓力觸覺感測器的手套
US9405377B2 (en) * 2014-03-15 2016-08-02 Microsoft Technology Licensing, Llc Trainable sensor-based gesture recognition
CN204463536U (zh) * 2015-01-05 2015-07-08 刘述亮 一种可识别手势的手套乐器
WO2016206117A1 (en) 2015-06-26 2016-12-29 Intel Corporation Technologies for micro-motion-based input gesture control of wearable computing devices
US20180307326A1 (en) 2015-10-06 2018-10-25 Gad BENETT Communicating bracelet
CN105575219A (zh) * 2016-03-07 2016-05-11 钦赛勇 智能手套
JP2017173589A (ja) * 2016-03-24 2017-09-28 ヤマハ株式会社 信号処理装置
CN105824431B (zh) * 2016-06-12 2018-12-04 齐向前 信息输入装置与方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330567A (ja) 1999-03-18 2000-11-30 Yamaha Corp 音響制御装置
JP2004534316A (ja) 2001-07-06 2004-11-11 ザ ディーンマーク コーポレーション 手袋コンピュータマウス
JP2004537802A (ja) 2001-07-31 2004-12-16 ザ ティンバーランド カンパニー 手に装着する入力装置
JP2006267226A (ja) 2005-03-22 2006-10-05 Yamaha Corp 楽音制御装置
WO2016116722A1 (en) 2015-01-19 2016-07-28 Kurv Music Ltd. A hand-held controller for a computer, a control system for a computer and a computer system
WO2016121034A1 (ja) 2015-01-28 2016-08-04 株式会社ウェアラブルデバイス総合研究所 ウェアラブル装置、入力方法及びプログラム
US20160225357A1 (en) 2015-01-30 2016-08-04 Jet Black Movement Musical Instrument

Also Published As

Publication number Publication date
AU2018349181A1 (en) 2020-05-28
GB2574786A (en) 2019-12-25
CN111465978A (zh) 2020-07-28
US11675435B2 (en) 2023-06-13
EP3695402A1 (en) 2020-08-19
WO2019073241A1 (en) 2019-04-18
GB2574786B (en) 2020-12-02
CA3079021A1 (en) 2019-04-18
JP2020537770A (ja) 2020-12-24
US20200241640A1 (en) 2020-07-30
TWI821203B (zh) 2023-11-11
GB201716765D0 (en) 2017-11-29
TW201933331A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
JP4553917B2 (ja) ゲームプログラムの実行を制御するための入力を取得する方法
JP5426713B2 (ja) ジェスチャカタログ生成および認識
JP5598490B2 (ja) 演奏装置、方法及びプログラム
US20070265075A1 (en) Attachable structure for use with hand-held controller having tracking ability
JP5726811B2 (ja) ユーザ動作の欠如の判定、ユーザの活動レベルの判定、および/またはシステムに対して新たなプレーヤを追加する際に用いられる方法および装置
WO2011070554A2 (en) Finger-worn input devices and methods of use
JP6737996B2 (ja) コンピュータ用のハンドヘルドコントローラ、コンピュータ用のコントロールシステムおよびコンピューターシステム
WO2006070044A1 (en) A method and a device for localizing a sound source and performing a related action
JP2012166066A (ja) 可動コントローラを使った対話式制御のための自己完結式慣性ナビゲーション・システム
TWI425970B (zh) 電子設備與遊戲進程的控制方法
JP5638592B2 (ja) ゲーム制御入力データを分析するためのシステム及び方法
JP7296393B2 (ja) 電子ボディパーカッション
US9958902B2 (en) Input device, input method, and program
JP6111526B2 (ja) 楽音発生装置
KR20170066727A (ko) 장갑 컨트롤러 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220715

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R150 Certificate of patent or registration of utility model

Ref document number: 7296393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150