JP2009541801A - 出力を生成するシステムおよび方法 - Google Patents
出力を生成するシステムおよび方法 Download PDFInfo
- Publication number
- JP2009541801A JP2009541801A JP2009516824A JP2009516824A JP2009541801A JP 2009541801 A JP2009541801 A JP 2009541801A JP 2009516824 A JP2009516824 A JP 2009516824A JP 2009516824 A JP2009516824 A JP 2009516824A JP 2009541801 A JP2009541801 A JP 2009541801A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- output
- signal
- operating
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
- G10H1/342—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments for guitar-like instruments with or without strings and with a neck on which switches or string-fret contacts are used to detect the notes being played
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
- G10H1/344—Structural association with individual keys
- G10H1/348—Switches actuated by parts of the body other than fingers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/321—Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/045—Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
- G10H2230/075—Spint stringed, i.e. mimicking stringed instrument features, electrophonic aspects of acoustic stringed musical instruments without keyboard; MIDI-like control therefor
- G10H2230/135—Spint guitar, i.e. guitar-like instruments in which the sound is not generated by vibrating strings, e.g. guitar-shaped game interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/045—Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
- G10H2230/075—Spint stringed, i.e. mimicking stringed instrument features, electrophonic aspects of acoustic stringed musical instruments without keyboard; MIDI-like control therefor
- G10H2230/135—Spint guitar, i.e. guitar-like instruments in which the sound is not generated by vibrating strings, e.g. guitar-shaped game interfaces
- G10H2230/141—Spint guitar drum, i.e. mimicking a guitar used at least partly as a percussion instrument
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
各センサが2つ以上の動作位置で動作する、1つ以上のセンサと、
出力を発生する電子装置であって、該電子装置が動作位置に基づいて該または各センサから信号を受信し、該電子装置が、一旦校正されると、動作位置の間で該または各センサを動作させることによって一連の出力が発生できるような形で、該または各センサの選択された動作位置およびひいては電子装置が受信する信号が特定の出力に関連するように校正される電子装置とを含むシステムが提供される。
● 好適にはシステムを校正した際の動作位置に対するセンサの信号の値の範囲である動作位置と、
● 好適には可聴出力である出力と、
● 選択された動作位置への個々の出力の割り当てと、
の何れかまたはそれらの組み合わせに関するデータを格納するためのメモリを有することが好適である。
● センサからの信号を分析するアルゴリズムの実行と、
● 信号が個々の動作位置を識別する信号の値の範囲以内にあるか否かを評価するアルゴリズムの実行と、
● センサの信号の値が変化する速度を計算し、好適には信号の変化率に基づいて可聴出力を再生する音量を決定するアルゴリズムの実行と、
の何れかまたはそれらの組み合わせに関するデータを処理するためのデータ処理ユニットを有する。
2つ以上の動作位置で人間が操作するセンサと、
出力を発生する電子装置であって、該電子装置が、センサの動作位置に基づいてセンサから信号を受信し、一旦校正されると、センサをそれぞれの動作位置に配置することによって望ましい一連の出力を発生できるような形で、センサの選択された動作位置およびひいては電子装置が受信する信号が特定の出力に関連するように校正される電子装置とを含むシステムが提供される。
−衣服に着脱式に取り付けられセンサの少なくとも1つが2つ以上の動作位置にわたって動作する1つ以上のセンサと、
−衣服に着脱式に取り付けられセンサから信号を受信し信号を電子装置に無線で送信する送信機とを含み、
その際センサが、衣服を着用した人間の生体力学的運動および位置に基づく信号を送信するようになっている衣服が提供される。
人間が2つ以上の動作位置にわたって操作するセンサと、
可聴出力を発生および/または再生する電子装置であって、その際該電子装置が、センサの動作位置を識別するセンサからの信号を受信し、一旦校正されると、センサをそれぞれの動作位置に配置することによって望ましい一連の可聴出力を発生および/または再生できるような形で、センサの選択された動作位置およびひいては電子装置が受信する信号が特定の出力に関連するように操作/校正される電子装置とを含む電子楽器が提供される。
ギターの実施形態
タンバリンの実施形態
本発明の方法
a)異なる動作位置の間でセンサを調整するステップと、
b)ステップa)にしたがって異なる動作位置の間でセンサを調整した時、電子装置が出力を発生または再生するように、少なくとも1つの出力を該または各センサの動作位置に割り当てるステップとを含む方法が提供される。
● センサが配置される動作位置、および/または、
● 個々の動作位置に割り当てられる出力
の何れか一方または両方に関する情報を演奏者に伝達する間に実行されることが好適である。
a)センサから電子装置に信号を送信するステップであって、その際センサが演奏者の生体力学的運動および位置に基づいて信号を送信するようになっているステップと、
b)異なる動作位置の間でセンサを調整した時、電子装置が望ましい出力を発生または再生するように、少なくとも1つの出力を該または各センサの動作位置に割り当てるステップとを含む方法が提供される。
● センサが選択された動作位置に配置された時出力が発生または再生される遅延の期間、
● 少なくとも部分的に可変抵抗器によって形成され、一例として、本出願人の以前の先行する仮出願第2005905666号に示す配置の構造を有するセンサからの信号、および
● 出力はギターの音声の形態であり、2つのセンサは、各々演奏者の肘の角度方向に基づいて信号を提供し、その後実際のギターの演奏を出力するために、ステップa)およびb)、およびオプションでステップc)およびd)を実行する、
といった、「本発明のシステム」という項目の元で説明される任意の1つまたはいくつかの好適な特徴を含んでもよいことが認識されるだろう。
ギターの設定
● パーカッションの音であるカッティング、ダウン、
● Eメジャー、
● Aメジャー、および
● Dメジャー、
であることを示す。
● センサの信号が送信機から伝達されるのに要する時間。これは好適実施形態では1または2ミリ秒にすぎない、
● その後コンピュータのUSBポートを通じて送信機が受信機に信号を送信するのに要する時間、
● コンピュータの中央処理装置が信号の状態に対するアルゴリズムを実行するのに要する時間、および
● 信号をスピーカに送って音を放出するのに要する時間、
の累計である。
Claims (68)
- 各センサが2つ以上の動作位置で動作する、1つ以上のセンサと、
出力を発生または生成する電子装置であって、前記電子装置が動作位置に基づいて前記または各センサから信号を受信し、前記電子装置または前記センサが、一旦校正されると、動作位置の間で前記または各センサを動作させることによって一連の出力が発生できるような形で、前記または各センサの選択された動作位置およびひいては前記電子装置が受信する信号が特定の出力に関連しまたは割り当てられるように校正される電子装置とを含むシステム。 - 前記電子装置またはセンサが、個人の演奏者の生体力学的運動に基づいて校正される、請求項1に記載のシステム。
- 望ましい出力を発生するため人間が操作するシステムであって、前記システムが、
センサの少なくとも1つが2つ以上の動作位置にわたって動作する、1つ以上のセンサと、
出力を発生または生成する電子装置であって、前記電子装置が動作位置に基づいて前記または各センサから信号を受信し、前記電子装置および前記センサの何れか一方または両方が、前記または各センサの選択された動作位置が前記システムを操作する人間の生体力学的運動または位置に基づくように校正され、一旦校正されると、個人の演奏者の生体力学的運動に基づいて動作位置の間で前記または各センサを操作することによって一連の出力を発生できるように、前記電子装置が受信する信号が特定の出力に関連しまたは割り当てられる電子装置とを含むシステム。 - 出力が視覚出力および可聴出力の何れか一方またはそれらの組み合わせの形態である、請求項3に記載のシステム。
- 可聴出力が事前録音された音または格納された音のサンプルである、請求項4に記載のシステム。
- 可聴出力が、前記センサの動作位置に関連しない付随する出力と共に発生または再生される、請求項4または5に記載のシステム。
- 前記センサが、前記センサの様々な動作位置に応じて可変電気抵抗を提供する電気抵抗器を含む、請求項3〜6の何れか1つに記載のシステム。
- 前記センサの動作位置がある範囲の値にわたって変化する信号によって画定されるように、前記電子装置またはセンサが校正される、請求項3〜7の何れか1つに記載のシステム。
- 前記センサの動作位置が、指、手首、肘、肩、首、背中、腰、膝またはくるぶしの関節といったものであるがそれらに制限されない演奏者の1つ以上の身体関節の角度方向の範囲によって画定される、請求項3〜8の何れか1つに記載のシステム。
- 選択された動作位置に関連する信号の値または値の範囲が希望に応じて調整可能でありまた異なる個人の演奏者に適合するように校正し直すことができる、請求項8または9に記載のシステム。
- 前記電子装置またはセンサが、各個人の演奏者について前記システムを校正した設定を格納しており、他の演奏者が前記システムを使用した後格納された設定を再現または復活することができる、請求項3〜10の何れか1つに記載のシステム。
- 前記システムが、前記センサがどの動作位置に配置されているかを演奏者に伝達するフィードバック手段を含む、請求項3〜11の何れか1つに記載のシステム。
- 前記フィードバック手段が、前記センサの動作位置を演奏者に視覚的に伝達する手段を含む、請求項12に記載のシステム。
- 前記フィードバック手段が、それぞれの前記センサの他の動作位置に対して、前記センサの少なくとも1つがどの動作位置に配置されているかを演奏者に表示するモニタの形態である、請求項12に記載のシステム。
- 前記モニタが楽器またはその一部の画像または概略例示を含み、各動作位置が、前記モニタ上に示される前記楽器を演奏する演奏者の生体力学的位置を表示またはシミュレートする、請求項14に記載のシステム。
- 前記フィードバック手段がまた、各動作位置に割り当てられた個々の出力を識別する情報を演奏者に伝達する、請求項12〜15の何れか1つに記載のシステム。
- 動作位置に配置された前記センサと望ましい出力を発生または再生する前記電子装置との間の遅延が50ミリ秒以下である、請求項3〜16の何れか1つに記載のシステム。
- 遅延期間が10ミリ秒以下である、請求項17に記載のシステム。
- 前記電子装置が、
● 動作位置を画定する前記センサの信号の値の範囲を含む、動作位置と、
● 可聴出力を含む出力と、
● 選択された動作位置への個々の出力の指定または割り当てと、
の何れか1つまたはそれらの組み合わせを格納するメモリを有する、請求項3〜18の何れか1つに記載のシステム。 - 前記電子装置が、
● 前記センサからの信号を分析するアルゴリズムの実行と、
● 信号が、校正された動作位置を画定する信号の値の範囲以内にあるか否かを評価するアルゴリズムの実行と、
● センサの信号の値が変化する速度を計算し、信号の変化率に基づいて可聴出力を再生すべき音量を決定するアルゴリズムの実行と、
の何れかまたはそれらの組み合わせに関するデータを処理するデータ処理ユニットを有する、請求項3〜19の何れか1つに記載のシステム。 - 前記システムが2つ以上のセンサを含み、各センサが2つ以上の動作位置を有する、請求項3〜20の何れか1つに記載のシステム。
- 可能な出力の合計最大数が前記センサの校正された動作位置の数の積であり、生成される出力が両方の前記センサの動作位置によって決定されるような形で、前記センサの1つの動作位置の少なくとも1つが多数の出力に関連付けられるかまたはいくつかの出力を割り当てられ、出力の数が他の前記センサの動作位置の数以下であるように前記センサの2つが校正される、請求項21に記載のシステム。
- 前記システムが、演奏者の肘の角度方向を監視するための2つのセンサを含む、請求項3〜22の何れか1つに記載のシステム。
- 動作位置が約5〜45度の範囲の角度方向を有するように、前記センサおよび/または電気装置が校正される、請求項23に記載のシステム。
- 動作位置が5〜20度の範囲の角度方向にわたって画定されるように、前記センサおよび/または電気装置が校正される、請求項24に記載のシステム。
- 前記センサの一方、すなわちフレットセンサが、演奏者の一方の肘の角度方向を監視し、各々がギターのフレットボード上の演奏者の肘の生体力学的位置を表示またはシミュレートする少なくとも6つの範囲に校正される、請求項23〜25の何れか1つに記載のシステム。
- 前記フレットセンサの6つの動作位置が、各対がギターのアップストラムまたはダウンストラムによって演奏されるコードの音を発生するギターのコードを表す1対の出力に関連する、請求項26に記載のシステム。
- もう一方のセンサ、すなわちストラミングセンサが、前記ストラミングセンサからの信号が少なくとも2つの異なる動作位置に校正されるように、もう一方の肘の角度方向を監視する、請求項26または27に記載のシステム。
- 動作位置の一方が、肘の方向が曲がった位置にある時を表し、もう一方が肘の方向が伸びた位置にある時を表し、2つの動作位置が、出力を割り当てられていないさらに別の範囲の角度方向によって分離されている、請求項28に記載のシステム。
- 肘が曲がった位置から伸びた位置に移動したことを表示する前記ストラミングセンサからの信号を前記電子装置が受信すると、前記電子装置が、前記フレットセンサからの信号によって決定される特定のコードのダウンストラミングに対応する出力を発生または再生し、前記ストラミングセンサが伸びた位置から曲がった位置に移動したことを表示する信号を前記電子装置が受信すると、前記電子装置が、前記フレットセンサの信号によって決定される特定のコードの前記ギターのアップストラミングに対応する音声を発生または再生する、請求項29に記載のシステム。
- 前記ストラミングセンサの変化率が、出力が再生される音量を少なくとも部分的に決定する、請求項28〜30の何れか1つに記載のシステム。
- 前記ストラミングセンサが3つ以上の動作位置に校正され、各動作位置が、ギターの1本の弦を弾くことを反映する出力に関連する、請求項28〜31の何れか1つに記載のシステム。
- 前記システムが、前記センサから信号を受信し、前記電子装置に信号を無線で送信する送信機を含む、請求項1〜32の何れか1つに記載のシステム。
- 前記システムが、前記センサの1つまたは各々が固定されるかまたは組み込まれた、1つ以上の布製基板を含み、前記システムの演奏者が着用する衣服に前記布製基板を着脱式に取り付けることができる、請求項1〜33の何れか1つに記載のシステム。
- 前記システムが、前記センサが直接的または間接的に着脱式に取り付けられており、それによって希望に応じて洗濯または完全に交換することによって再生できるようになっている衣服を含む、請求項1〜33の何れか1つに記載のシステム。
- 請求項33に従属する時、前記送信機が直接的または間接的に着脱式に前記衣服に取り付けられる、請求項35に記載のシステム。
- 複数の動作位置を有する1つ以上のセンサと、出力を発生または再生するための電子装置とを含むシステムを操作する方法であって、前記電子装置が前記センサの動作位置に基づく前記または各センサからの信号を受信し、前記方法が、
a)異なる動作位置の間で前記センサを調整するステップと、
b)ステップa)にしたがって異なる動作位置の間で前記センサを調整した時、前記電子装置が出力を発生または再生するように、少なくとも1つの出力を前記または各センサの動作位置に割り当てるステップとを含む方法。 - 複数の動作位置を有する1つ以上のセンサと、個人の演奏者の生体力学的位置または運動に基づいて出力を発生または再生するための電子装置とを含むシステムを操作する方法であって、前記方法が、
a)前記センサから前記電子装置に信号を送信するステップであって、その際前記センサが演奏者の生体力学的運動および位置に基づいて信号を送信するようになっているステップと、
b)異なる動作位置の間で前記センサを調整した時、前記電子装置が望ましい出力を発生または再生するように、少なくとも1つの出力を前記または各センサの動作位置に割り当てるステップとを含む方法。 - 出力が、実際の音楽の音符、コード、リフ、音楽の小節、または任意の断片を含む可聴出力である、請求項38に記載の方法。
- 前記方法が、既知の一連の出力を発生するように既知の出力を割り当てられた既知の動作位置の間で前記センサを移動させるステップを含む、請求項38または39に記載の方法。
- 前記方法が、個人の演奏者の選択された生体力学的位置に基づいて前記センサの動作位置を画定するように前記センサまたは電気装置を校正するステップを包含するステップc)を含む、請求項38〜40の何れか1つに記載の方法。
- ステップc)が、選択された生体力学的位置のある範囲にわたって個々の動作位置を画定し、ひいては、前記電子装置が受信する前記センサの信号の範囲に対して動作位置を校正するステップを包含する、請求項41に記載の方法。
- 生体力学的運動または位置が、指、手首、肘、肩、首、背中、腰、膝またはくるぶしといった1つ以上の身体関節の角度方向の関数である、請求項42に記載の方法。
- ステップb)が、実際の楽器を操作する時必要とされるであろう角度方向または身振りに類似した動作位置に基づいて出力を動作位置に割り当てるステップを包含する、請求項43に記載の方法。
- 前記電子装置が、
● 前記センサの動作位置およびこれが校正された動作位置の範囲内にあるか否か、および/または、
● 校正された動作位置に割り当てられた出力の種類、
に関する情報を演奏者に伝達または提示する間に、ステップa)、b)およびc)の何れか1つまたはそれらの組み合わせが実行される、請求項41〜44の何れか1つに記載の方法。 - 情報が視覚および/または音声発生源によって演奏者に提示または伝達される、請求項45に記載の方法。
- 前記視覚発生源が、前記センサの全ての可能な動作位置および、任意の時点での、各センサが配置される動作位置を演奏者に表示する、請求項46に記載の方法。
- 前記視覚発生源が、楽器またはその一部の画像または概略例示を演奏者に表示するモニタであり、校正された各動作位置が、前記モニタに示された前記楽器を演奏する時演奏者が取るであろう生体力学的位置をほぼシミュレートする、請求項47に記載の方法。
- 前記視覚発生源が、各動作位置に割り当てられた出力の種類を識別する情報を表示する、請求項46〜48の何れか1つに記載の方法。
- 動作位置に割り当てられた出力の種類が、示された前記楽器を演奏する演奏者の生体力学的位置に類似した実際の楽器の出力に基づくものであるかまたは一致する、請求項48または49に記載の方法。
- 前記方法がさらに、動作位置を画定するものとして校正された信号または信号の値の範囲に関するデータを格納するステップを包含するステップd)を含む、請求項41〜50の何れか1つに記載の方法。
- ステップd)がまた、動作位置に割り当てられた出力に関するデータを格納するステップを包含する、請求項51に記載の方法。
- ステップd)が、動作位置および個人の演奏者に関連して各動作位置に割り当てられた出力の何れか1つまたはそれらの組み合わせに関するデータプロファイルを格納し、前記電子装置が、校正をやり直す必要なしに、1人より多い演奏者による使用を容易にするため、格納された異なるプロファイルを切り換えることができる、請求項51または52に記載の方法。
- 前記方法が、信号が、ステップc)にしたがって動作位置を画定またはそれに校正されたものとして選択された信号の値の範囲以内にあるか否かを計算するアルゴリズムを使用して前記センサからの信号を分析するステップを含む、請求項41〜53の何れか1つに記載の方法。
- 前記方法が、前記センサの信号の値の変化率を計算し、それによって可聴出力が再生される音量を決定する、請求項41〜54の何れか1つに記載の方法。
- 前記方法が、再生される音楽に付随するためステップa)およびb)を実行するのと同時に部分的に完全な楽曲を演奏するステップを含む、請求項41〜55の何れか1つに記載の方法。
- 前記システムが多数の動作位置を有する2つ以上のセンサを含み、ステップb)が、1つの前記センサの動作位置の少なくとも1つに、他の前記センサの動作位置の数以内の数の出力を割り当てるステップを包含する、請求項41〜55の何れか1つに記載の方法。
- 前記システムが、演奏者の肘の角度方向を監視するための2つのセンサを含む、請求項41〜57の何れか1つに記載の方法。
- ステップc)が、演奏者の肘の動作位置が約5〜45度の範囲の角度方向を有するように、前記センサまたは電気装置を校正するステップを包含する、請求項58に記載の方法。
- 動作位置が5〜20度の範囲の角度方向にわたって画定されるように、前記センサおよび/または電気装置が校正される、請求項59に記載の方法。
- 前記センサの一方、すなわちフレットセンサが、演奏者の一方の肘の角度方向を監視し、各々がギターのフレットボード上の演奏者の肘の生体力学的位置を表示またはシミュレートする少なくとも6つの範囲に校正される、請求項58〜60の何れか1つに記載の方法。
- 前記フレットセンサの6つの動作位置が、各対がギターのアップストラムまたはダウンストラムによって演奏されるコードの音を発生するギターのコードを表す1対の出力に関連する、請求項61に記載の方法。
- もう一方のセンサ、すなわちストラミングセンサが、前記ストラミングセンサからの信号が少なくとも2つの異なる動作位置に校正されるように、もう一方の肘の角度方向を監視する、請求項61または62に記載の方法。
- 動作位置の一方が、肘の方向が曲がった位置にある時を表し、もう一方が肘の方向が伸びた位置にある時を表し、2つの動作位置が、出力を割り当てられていないさらに別の範囲の角度方向によって分離されている、請求項63に記載の方法。
- 肘が曲がった位置から伸びた位置に移動したことを表示する前記ストラミングセンサからの信号を前記電子装置が受信すると、前記電子装置が、前記フレットセンサからの信号によって決定される特定のコードのダウンストラミングに対応する出力を発生または再生し、前記ストラミングセンサが伸びた位置から曲がった位置に移動したことを表示する信号を前記電子装置が受信すると、前記電子装置が、前記フレットセンサの信号によって決定される特定のコードの前記ギターのアップストラミングに対応する音声を発生または再生する、請求項64に記載の方法。
- 前記ストラミングセンサが3つ以上の動作位置に校正され、各動作位置が、
ギターの1本の弦を弾くことを反映する出力に関連する、請求項63〜65の何れか1つに記載の方法。 - 出力を発生または再生するシステムを操作する人間が着用する衣服であって、前記衣服が、
−前記衣服に着脱式に取り付けられセンサの少なくとも1つが2つ以上の動作位置にわたって動作する1つ以上のセンサと、
−前記衣服に着脱式に取り付けられ前記センサから信号を受信し信号を電子装置に無線で送信する送信機とを含み、
前記センサが、前記衣服を着用した人間の生体力学的運動および位置に基づく信号を送信するようになっている衣服。 - 前記センサおよび送信機が前記衣服の異なる部分に取り付けられ、前記センサから前記送信機に信号を伝えるより線または細線といった導電性媒体によって相互接続される、請求項67に記載の衣服。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2006903501A AU2006903501A0 (en) | 2006-06-29 | A system and method that generates outputs | |
PCT/AU2007/000906 WO2008000039A1 (en) | 2006-06-29 | 2007-06-29 | A system and method that generates outputs |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013056783A Division JP2013152482A (ja) | 2006-06-29 | 2013-03-19 | 出力を生成するシステムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009541801A true JP2009541801A (ja) | 2009-11-26 |
Family
ID=38845048
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009516824A Withdrawn JP2009541801A (ja) | 2006-06-29 | 2007-06-29 | 出力を生成するシステムおよび方法 |
JP2013056783A Pending JP2013152482A (ja) | 2006-06-29 | 2013-03-19 | 出力を生成するシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013056783A Pending JP2013152482A (ja) | 2006-06-29 | 2013-03-19 | 出力を生成するシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8830162B2 (ja) |
EP (1) | EP2041740A4 (ja) |
JP (2) | JP2009541801A (ja) |
AU (1) | AU2007264413B2 (ja) |
WO (1) | WO2008000039A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018107A (ja) * | 2014-07-09 | 2016-02-01 | カシオ計算機株式会社 | 楽音発生指示装置、楽音発生指示方法、プログラムおよび電子楽器 |
KR101780151B1 (ko) | 2016-07-08 | 2017-10-11 | 국민대학교산학협력단 | 음악 감상이 가능한 스마트 의복 및 그 제어방법 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008518277A (ja) * | 2004-10-25 | 2008-05-29 | イースタン バージニア メディカル スクール | 正常および異常な医学的容態をシミュレートするためのシステム、方法、および媒体 |
US7602301B1 (en) | 2006-01-09 | 2009-10-13 | Applied Technology Holdings, Inc. | Apparatus, systems, and methods for gathering and processing biometric and biomechanical data |
JP5430572B2 (ja) | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US8696456B2 (en) * | 2009-07-29 | 2014-04-15 | Activision Publishing, Inc. | Music-based video game with user physical performance |
US8659658B2 (en) * | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
KR101679239B1 (ko) * | 2010-07-06 | 2016-11-24 | 삼성전자주식회사 | 휴대용 단말기에서 증강 현실 기법을 이용한 악기 연주를 제공하기 위한 장치 및 방법 |
US9173612B2 (en) | 2011-02-28 | 2015-11-03 | Rutgers, The State University Of New Jersey | Gesture recognition biofeedback |
US9606635B2 (en) * | 2013-02-15 | 2017-03-28 | Microsoft Technology Licensing, Llc | Interactive badge |
KR102260721B1 (ko) * | 2014-05-16 | 2021-06-07 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서의 음악 연주 방법 |
WO2017095951A1 (en) * | 2015-11-30 | 2017-06-08 | Nike Innovate C.V. | Apparel with ultrasonic position sensing and haptic feedback for activities |
US9847079B2 (en) * | 2016-05-10 | 2017-12-19 | Google Llc | Methods and apparatus to use predicted actions in virtual reality environments |
EP3400505A1 (en) | 2016-05-10 | 2018-11-14 | Google LLC | Volumetric virtual reality keyboard methods, user interface, and interactions |
US9763285B1 (en) | 2016-10-10 | 2017-09-12 | At&T Intellectual Property I, L.P. | Disengaging movement assistance |
CN110312032B (zh) * | 2019-06-17 | 2021-04-02 | Oppo广东移动通信有限公司 | 音频播放方法、装置、电子设备及计算机可读存储介质 |
AT525615A1 (de) * | 2021-11-04 | 2023-05-15 | Peter Graber Oliver | Vorrichtung und verfahren zur ausgabe eines akustischen signals basierend auf physiologischen daten |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04100097A (ja) * | 1990-08-18 | 1992-04-02 | Casio Comput Co Ltd | 電子楽器 |
JPH0683336A (ja) * | 1992-09-02 | 1994-03-25 | Yamaha Corp | 電子楽器 |
JPH0727504A (ja) * | 1993-07-14 | 1995-01-27 | Yamaha Corp | 曲げセンサ |
JP2000020066A (ja) * | 1998-06-30 | 2000-01-21 | Yamaha Corp | センサシステム |
JP2003342892A (ja) * | 2002-05-29 | 2003-12-03 | Unitika Ltd | 抄造用ポリイミド短繊維及びその製造方法並びに抄造物 |
JP2006251023A (ja) * | 2005-03-08 | 2006-09-21 | Nec Tokin Corp | 姿勢角度検出装置を用いた電子楽器およびその制御方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0721711B2 (ja) * | 1988-05-18 | 1995-03-08 | ヤマハ株式会社 | 楽音制御装置 |
JPH0738111B2 (ja) * | 1988-05-18 | 1995-04-26 | ヤマハ株式会社 | 楽音制御装置 |
JP2689480B2 (ja) * | 1988-05-18 | 1997-12-10 | ヤマハ株式会社 | 楽音発生制御装置 |
JPH0573047A (ja) * | 1991-09-18 | 1993-03-26 | Yamaha Corp | 楽音発生制御装置 |
JP3387115B2 (ja) * | 1992-03-30 | 2003-03-17 | ヤマハ株式会社 | パラメータ設定装置 |
JPH07199945A (ja) * | 1993-12-28 | 1995-08-04 | Yamaha Corp | 電子楽器 |
JP3322035B2 (ja) * | 1994-10-25 | 2002-09-09 | ヤマハ株式会社 | ウェア型楽音制御装置 |
US6539336B1 (en) * | 1996-12-12 | 2003-03-25 | Phatrat Technologies, Inc. | Sport monitoring system for determining airtime, speed, power absorbed and other factors such as drop distance |
US5875257A (en) * | 1997-03-07 | 1999-02-23 | Massachusetts Institute Of Technology | Apparatus for controlling continuous behavior through hand and arm gestures |
AU7161598A (en) * | 1997-04-21 | 1998-11-13 | Virtual Technologies, Inc. | Goniometer-based body-tracking device and method |
JP4246825B2 (ja) * | 1997-12-11 | 2009-04-02 | ローランド株式会社 | 楽音信号を生成する電子楽器 |
US6610917B2 (en) * | 1998-05-15 | 2003-08-26 | Lester F. Ludwig | Activity indication, external source, and processing loop provisions for driven vibrating-element environments |
JP2000267659A (ja) * | 1999-03-17 | 2000-09-29 | Yamaha Corp | 動き検出用装着具 |
IL130818A (en) * | 1999-07-06 | 2005-07-25 | Intercure Ltd | Interventive-diagnostic device |
US7445550B2 (en) * | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
WO2001086627A2 (en) | 2000-05-05 | 2001-11-15 | Sseyo Limited | Automated generation of sound sequences |
US6888529B2 (en) * | 2000-12-12 | 2005-05-03 | Koninklijke Philips Electronics N.V. | Control and drive circuit arrangement for illumination performance enhancement with LED light sources |
JP4694705B2 (ja) * | 2001-02-23 | 2011-06-08 | ヤマハ株式会社 | 楽音制御システム |
JP2005500912A (ja) * | 2001-02-27 | 2005-01-13 | アンソロトロニックス インコーポレイテッド | ロボット装置および無線通信システム |
US6388183B1 (en) * | 2001-05-07 | 2002-05-14 | Leh Labs, L.L.C. | Virtual musical instruments with user selectable and controllable mapping of position input to sound output |
US7223913B2 (en) * | 2001-07-18 | 2007-05-29 | Vmusicsystems, Inc. | Method and apparatus for sensing and displaying tablature associated with a stringed musical instrument |
JP3901098B2 (ja) * | 2003-01-17 | 2007-04-04 | ヤマハ株式会社 | 楽音編集システム |
US7565295B1 (en) * | 2003-08-28 | 2009-07-21 | The George Washington University | Method and apparatus for translating hand gestures |
US6969795B2 (en) * | 2003-11-12 | 2005-11-29 | Schulmerich Carillons, Inc. | Electronic tone generation system and batons therefor |
US7862045B2 (en) * | 2004-02-10 | 2011-01-04 | Bruce Hodge | Method and apparatus for determining and retrieving positional information |
US20080191864A1 (en) * | 2005-03-31 | 2008-08-14 | Ronen Wolfson | Interactive Surface and Display System |
US20080136775A1 (en) * | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
-
2007
- 2007-06-29 EP EP07719143.5A patent/EP2041740A4/en not_active Withdrawn
- 2007-06-29 JP JP2009516824A patent/JP2009541801A/ja not_active Withdrawn
- 2007-06-29 WO PCT/AU2007/000906 patent/WO2008000039A1/en active Application Filing
- 2007-06-29 AU AU2007264413A patent/AU2007264413B2/en not_active Ceased
- 2007-06-29 US US12/306,643 patent/US8830162B2/en not_active Expired - Fee Related
-
2013
- 2013-03-19 JP JP2013056783A patent/JP2013152482A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04100097A (ja) * | 1990-08-18 | 1992-04-02 | Casio Comput Co Ltd | 電子楽器 |
JPH0683336A (ja) * | 1992-09-02 | 1994-03-25 | Yamaha Corp | 電子楽器 |
JPH0727504A (ja) * | 1993-07-14 | 1995-01-27 | Yamaha Corp | 曲げセンサ |
JP2000020066A (ja) * | 1998-06-30 | 2000-01-21 | Yamaha Corp | センサシステム |
JP2003342892A (ja) * | 2002-05-29 | 2003-12-03 | Unitika Ltd | 抄造用ポリイミド短繊維及びその製造方法並びに抄造物 |
JP2006251023A (ja) * | 2005-03-08 | 2006-09-21 | Nec Tokin Corp | 姿勢角度検出装置を用いた電子楽器およびその制御方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018107A (ja) * | 2014-07-09 | 2016-02-01 | カシオ計算機株式会社 | 楽音発生指示装置、楽音発生指示方法、プログラムおよび電子楽器 |
KR101780151B1 (ko) | 2016-07-08 | 2017-10-11 | 국민대학교산학협력단 | 음악 감상이 가능한 스마트 의복 및 그 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2008000039A1 (en) | 2008-01-03 |
JP2013152482A (ja) | 2013-08-08 |
AU2007264413B2 (en) | 2012-07-12 |
EP2041740A1 (en) | 2009-04-01 |
AU2007264413A1 (en) | 2008-01-03 |
US20090256801A1 (en) | 2009-10-15 |
EP2041740A4 (en) | 2013-07-24 |
US8830162B2 (en) | 2014-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013152482A (ja) | 出力を生成するシステムおよび方法 | |
US10895914B2 (en) | Methods, devices, and methods for creating control signals | |
Miranda et al. | New digital musical instruments: control and interaction beyond the keyboard | |
WO2020100671A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112513974B (zh) | 操控乐器时操纵杆张力随行程可变的输入装置及其使用方法 | |
US20150103019A1 (en) | Methods and Devices and Systems for Positioning Input Devices and Creating Control | |
CN112805765B (zh) | 信息处理装置 | |
Giordano et al. | Design of vibrotactile feedback and stimulation for music performance | |
Jessop | The Vocal Augmentation and Manipulation Prosthesis (VAMP): A Conducting-Based Gestural Controller for Vocal Performance. | |
JP2007264026A (ja) | 演奏装置 | |
Davanzo et al. | Netychords: An Accessible Digital Musical Instrument for Playing Chords using Gaze and Head Movements. | |
Kim et al. | Developing humanoids for musical interaction | |
AU2012241079B2 (en) | A system and method that generates outputs | |
Wöllner | Anticipated sonic actions and sounds in performance | |
Fitzgerald et al. | Looking into the Design of Accessible Musical Instruments for Musicians with Physical Disabilities | |
Knutzen | Haptics in the Air-Exploring vibrotactile feedback for digital musical instruments with open air controllers | |
Blewett | Design and analysis of gesture-controlled musical instrument interfaces in extended reality | |
US20230386155A1 (en) | Virtual, augmented or mixed reality instrument teaching system and method | |
JP2023154236A (ja) | 情報処理システム、情報処理方法およびプログラム | |
Siwiak et al. | MUSIC TECHNOLOGY'S INFLUENCE ON FLUTE PEDAGOGY: A SURVEY OF THEIR INTERSECTION | |
Angell | Combining Acoustic Percussion Performance with Gesture Control Electronics | |
JP6274985B2 (ja) | 音楽療法支援装置 | |
KR20220001911A (ko) | 가상 악기 장치 및 이를 포함한 가상 합주 시스템 | |
Cherukumilli | Designing and Evaluating an Interface for the Composition of Vibro-Tactile Patterns Using Gestures | |
Weinberg et al. | Robotic musicianship. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120221 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120518 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130319 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130517 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130527 |