JP6814146B2 - オーディオをキャプチャーし、解釈するシステムと方法 - Google Patents

オーディオをキャプチャーし、解釈するシステムと方法 Download PDF

Info

Publication number
JP6814146B2
JP6814146B2 JP2017536224A JP2017536224A JP6814146B2 JP 6814146 B2 JP6814146 B2 JP 6814146B2 JP 2017536224 A JP2017536224 A JP 2017536224A JP 2017536224 A JP2017536224 A JP 2017536224A JP 6814146 B2 JP6814146 B2 JP 6814146B2
Authority
JP
Japan
Prior art keywords
drum
sensor
audio
data
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017536224A
Other languages
English (en)
Other versions
JP2017532614A (ja
Inventor
エスパルザ・トラカエレル・ミゲル
Original Assignee
サンハウス・テクノロジーズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サンハウス・テクノロジーズ・インコーポレーテッド filed Critical サンハウス・テクノロジーズ・インコーポレーテッド
Priority claimed from PCT/US2015/052329 external-priority patent/WO2016049513A1/en
Publication of JP2017532614A publication Critical patent/JP2017532614A/ja
Application granted granted Critical
Publication of JP6814146B2 publication Critical patent/JP6814146B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H11/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/146Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a membrane, e.g. a drum; Pick-up means for vibrating surfaces, e.g. housing of an instrument
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H11/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
    • G01H11/02Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties by magnetic means, e.g. reluctance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H11/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
    • G01H11/06Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties by electric means
    • G01H11/08Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties by electric means using piezoelectric devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10DSTRINGED MUSICAL INSTRUMENTS; WIND MUSICAL INSTRUMENTS; ACCORDIONS OR CONCERTINAS; PERCUSSION MUSICAL INSTRUMENTS; AEOLIAN HARPS; SINGING-FLAME MUSICAL INSTRUMENTS; MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR
    • G10D13/00Percussion musical instruments; Details or accessories therefor
    • G10D13/01General design of percussion musical instruments
    • G10D13/02Drums; Tambourines with drumheads
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10DSTRINGED MUSICAL INSTRUMENTS; WIND MUSICAL INSTRUMENTS; ACCORDIONS OR CONCERTINAS; PERCUSSION MUSICAL INSTRUMENTS; AEOLIAN HARPS; SINGING-FLAME MUSICAL INSTRUMENTS; MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR
    • G10D13/00Percussion musical instruments; Details or accessories therefor
    • G10D13/10Details of, or accessories for, percussion musical instruments
    • G10D13/26Mechanical details of electronic drums
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/14Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour during execution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/143Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means characterised by the use of a piezoelectric or magneto-strictive transducer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/008Means for controlling the transition from one tone waveform to another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/041Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal based on mfcc [mel -frequency spectral coefficients]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/461Transducers, i.e. details, positioning or use of assemblies to detect and convert mechanical vibrations or mechanical strains into an electrical signal, e.g. audio, trigger or control signal
    • G10H2220/525Piezoelectric transducers for vibration sensing or vibration excitation in the audio range; Piezoelectric strain sensing, e.g. as key velocity sensor; Piezoelectric actuators, e.g. key actuation in response to a control voltage
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum
    • G10H2230/281Spint drum assembly, i.e. mimicking two or more drums or drumpads assembled on a common structure, e.g. drum kit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/435Gensound percussion, i.e. generating or synthesising the sound of a percussion instrument; Control of specific aspects of percussion sounds, e.g. harmonics, under the influence of hitting force, hitting position, settings or striking instruments such as mallet, drumstick, brush, hand
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

関連出願の参照
本出願は、2015年6月16日に出願した米国仮出願番号62/193,323、2014年9月25日に出願した米国仮出願番号62/055,037、2014年9月25日に出願した米国仮出願番号62/055,024の各々を、参照して取り込む。
本発明は、オーディオをキャプチャーし、解釈することに関し、および、オーディオを用いてコンピューターシステムを制御することに関連する。具体的には、本出願で開示するものは、打楽器をキャプチャーし、および同期するシステムのために、ハードウェアおよびソフトウェアコンポーネントに関する。
背景技術
打楽器のような、多くの伝統的音響楽器は、電子システムによってエミュレートされたり、合成されたりできない。電子ドラムをつくろうとする試みの一方で、電子ドラムは、現状、音響ドラムキットの音を再生できず、音響性能の微妙な点は、ドラムに相当する既存の電子機器を使うことで失われる。
現代の電子ドラムキットは典型的に、トリガーで電子ドラムパッドを打つことで、特定の音を再生するように、2進数のトリガーを用いて起動される。しかしながら、音響ドラムキットは、連続体としてのメインドラムパッドを用いることで、離散的な一連のトリガーよりむしろ、非常に広い範囲の音を再生し、および、異なる材料または異なる技術でドラムをたたくことで、物理物体の音響を異なる方法で活かして異なる音を再生する。例えば、ドラマーは、ドラムのリムや、ドラムの横、電子デバイスがトリガーを有さない他の場所を叩くことで、独自の音をつくる。いくつかの電子ドラムパッドは、より強く叩くと、より弱く叩くとの間を区別することができる一方、それらは、どのトリガーを活かす、およびどんな力かにまだ制限がある。
伝統的に、音響ドラムは、ドラムから生じる音以外に、環境音を検出する傾向がある標準的な音響マイクロフォンによりキャプチャーされた。環境音は、処理中に分離困難な不要な音を含むかもしれない。さらに、マイクロフォンは、キャプチャーされた演奏から特定の音を再生するために使用できる信号を生成できるが、それは、演奏を修正または再生を洗練するために使用できない。なぜなら、その信号はコンピューターシステムが解釈することが難しく又は不可能だからである。さらに、その信号は、コンピュータを、容易に制御することはできず、キャプチャーされた増幅バージョン以外のカスタマイズされた音の再生の原因となる。
さらに、既存の電子ドラムキットは、ミュージシャンが使い慣れていたものと異なる見た目や感じ方がする機器の新しいセットに、彼ら自身を慣れ親しませることを要求する。ドラマーは、典型的には、彼らのキットが快適であり、長年使用した機器に関する特別な技術を行使することに熟達している。
音響効果やオリジナル楽器のアナログ性質を失わずに、打楽器をエミュレートし、合成することができるシステムにニーズがある。打楽器からキャプチャーした信号を解釈し、コンピューターシステムの出力を制御するために、それらを用いることができるシステムにさらにニーズがある。打楽器奏者が、現在使用している且つ伝来のマイクロフォンの制限なしで、快適な機器に適用可能なシステムにさらにニーズがある。
概要
本開示は、オーディオ信号をキャプチャーし解釈するシステムおよび方法に向けられ、システムおよび方法による解釈に基づいて選択される音を出力することにも向けられている。さらに、本開示は、システムを動かす方法はもちろんのこと、そのシステムと一体で使用される装置である。
デバイスは、システムの一部として提供され、そのシステムは、音楽楽器のような物体によって生成される振動をキャプチャーする。デバイスは、前記物体に前記デバイスを固定するための、留め金のような、固定エレメントを備える。下記記載のように、前記物体は、ドラムであるが、デバイスは、他の機器にも提供可能である。デバイスは、前記ドラムのリムのような表面に接触して配置される第1センサーを有する。これは、前記第1センサーを、前記固定エレメント内に配置することでなされる。デバイスは、前記ドラムに関連して固定位置で、配置され、ドラムに接することなく配置される第2センサーをさらに有する。第2センサーは、前記ドラムの頭部の上に吊るされ、固定エレメントに接触し、または、デバイスに関係するハウジングに接触してもよい。
このデバイスでは、第1センサーは、前記ドラムのリムにおける振動を直接的に検出するセンサーであり、例えば、ピエゾ電子センサーエレメントであり、第2センサーは、触れることなくドラムヘッドにおける振動を検出し、ドラムヘッド上に配置されるマグネットとペアとなるコイルセンサー、ハイスピードカメラ、またはレーザーベースのセンサーである。第2センサーは、センサーをドラムヘッドに動かすためのアジャスターに設置される。
デバイスは、センサーを守るために、および、ドラマーがそのデバイスを固定するドラムを演奏する間に、付加的な表面としてふるまうために、第2センサー上に装着されるテーパー型、または、湾曲型の打面を有する。
固定エレメントとしてのクランプは、異なる種類のドラムをグリップする形状部を別に有する低いアームを有し、デバイスそれ自身は、異なるセンサーから信号をミキシングするためのボード回路と、ポテンショメータ上に備え付けられる。
デバイスは、システム内で使用されえ、2つのセンサーから信号、または、2つのセンサーから一つの混合う信号を、オーディオインタフェースに出力し、および、結果として得られた信号は、データ処理デバイス内の電気信号から音を出力する方法によって使用される。
ある実施形態では、システムは、ハウジングを要求せず、物体によって生成される振動をキャプチャーするシステムであって、システムは、物体の表面に接触する第1センサーと、前記物体および前記第1センサーから離れた間隔で置かれ、かつ前記物体に対応して配置されるが接触はしない、第2センサーと、前記第1センサーおよび第2センサーでキャプチャーされる信号に基づいてオーディオイベントを識別するプロセッサと、を備える。その指摘は、センサー出力を解釈するように設計されている方法によってなされる。
したがって、方法は、データ処理デバイスが、オーディオデータのストリームを受信し、オーディオデータの中で、オーディオイベントの開始を認識し、前記オーディオデータの中で、オーディオイベントのオンセット位置に基づいて、前記オーディオデータから離散分析窓を選択することで規定される。
分析窓のコンテンツを用いて、方法は、前記分析窓の内容を評価することで前記オーディオイベントのn次元表現、またはオーディオイベントの他の識別を生成し、かつ、前記分析結果を記録し、複数の前記n次元に沿うオーディオイベントの期待表現と、前記オーディオの前記n次元とを比較することで、前記オーディオデータ内のオーディオイベントを識別する。
オーディオイベントが識別されると、方法は、オーディオイベントの分類に応じて音を出力する。
オーディオイベントを表すために使用されるn次元表現は、オーディオ調またはオーディオ質要素のような、オーディオイベントの異なるオーラル品質を、各々表す。
前記オーディオデータは、時間ドメインオーディオ信号であり、分析窓は、前記オーディオデータを、周波数ビンに分けるために、Constant−Q変換を用いて、前記周波数ドメインに変換することを含む。一度n次元表現が生成されると、前記n次元は、前記n次元の少なくとも2つにおける期待シグナルパラメータによって規定される複数のオーディオゾーンと、地理的に比較される。
地理的表現は、サンプルオーディオイベントに関係づけられる地理ゾーンに対するオーディオイベントをマップするのに使用される。そして、一度対応するゾーンが選択されると、対応するサンプルオーディオが出力される。
いくつかの実施形態では、n次元表現は、一つのゾーンに適合せず、地理的解釈が、複数のゾーンを横断する音を重みづけするために使用される。いくつかの実施形態では、これは、異なる寸法を横断して別々になされ、異なるゾーンに関係づけられるサンプルオーディオは、混合出力を成し遂げるために、混ざられる。いくつかの実施形態では、各寸法は、どのように選択ゾーンに関係づけられるべきであるかを決定する信用レベルを提供する。
いくつかの実施形態では、トレーニング方法が、システムに提供され、その方法は、モデルを実装するためのオーディオイベントを選択し、オーディオイベントを生成する。典型的には、ユーザは、複数のオーディオイベントをトレーニングするためにこれを行う。いつくかの実施形態では、ユーザは、ドラム演奏中にバスドラムのキックのようなオーディオ信号を無視する方法をトレーニングする。ある実施形態では、ユーザは、オーディオイベントが、無視され、それからオーディオイベントを実行することをシステムに指示する。
図1は、音楽楽器からオーディオをキャプチャーし、合成するシステムの実装を示す図である。
図2は、打楽器からオーディオをキャプチャーする装置の左側面図である。 図3は、打楽器からオーディオをキャプチャーする装置の右側面図である。
図4は、図1のデバイスの打楽器の左透視図である。
図5は、図1のデバイスの部分的に断面した左透視図である。
図6は、図1のデバイスの底面側透視図である。
図7は、センサーをデバイスから延長しているデバイスの左側透視図である。
図8は、楽器からオーディオをキャプチャーし合成する装置の第2実施形態の左側面透視図である。
図9は、ドラムに装着された図1のデバイスの透視図である。
図10は、図1のデバイスのオンボード混合回路を説明する回路図である。
図11は、電気信号から音を生成する方法を実行するための信号の流れを示す図である。
図12は、図11の概要における頭子音を検出するフローチャートである。
図13は、図11の概要におけるスペクトラル分析の方法を検出するフローチャートである。
図14は、図11の概要におけるオーディオ信号を分類するフローチャートである。
図15は、図11の概要を利用したシステムにおけるオーディオ信号の分類を説明する図である。 図16は、図11の概要を利用したシステムにおけるオーディオ信号の分類を説明する図である。 図17は、図11の概要を利用したシステムにおけるオーディオ信号の分類を説明する図である。
図18は、記述した方法およびシステムを実行するグラフィカルユーザインターフェースを図解する図である。 図19は、記述した方法およびシステムを実行するグラフィカルユーザインターフェースを図解する図である。
図20は、図1のデバイスを説明する概略図である。
本発明の原則に従う本実施形態の記載は、全記述の部分として考慮される図面に関連して読まれることを意図している。傾向、方向づけへの参照は、記述の利便性を単に意図しており、本発明の範囲を限定することを意図していない。関連用語、「より低い」、「より高い」、「水平」、「垂直」、「より上」、「より下」、「上」、「下」、「底」、もちろん、派生語(「水平に」、「下方に」、「上方に」)は、議論されるうえでの図面で示される、記載される方向付けとして解釈されるべきである。これらの関連用語は、記載に便利なだけであり、明確にそれが示されない限り、特定の方向付けにより、解釈され、または、動作する機器であることを要求していない。「添付」、「添える」、「接触する」、「接続する」、「内部連携する」、および類似のものは、それら構成が安定しているまたは、取り外し可能固定しているものまたは関係はもちろんのこと、はさまる構成物を介して、他のものに直接的または間接的にくっついていることを、明確にそれが示されない限り、参照している。さらに、本発明の特徴や便益は、例示される実施形態を参照することで、説明される。したがって、表現される発明は、可能性のある非限定の特徴の組み合わせが、単独で存在し、または、特徴の他の組合せで存在する。請求の範囲で規定される発明の範囲は、ここに添付される。
この開示は、ベストモードまたは現在塾考した発明を実施するモードを記述している。この記述は、限定する感覚で理解されるべきではなく、当業者に本発明の利点や構成をアドバイスするために、関連する図面を参照することで、単なる例示目的で本発明の例を提供している。図面の様々な見方において、参照符号は、同様または同じパーツを指定する。
ハードウェアシステムは、音楽楽器からオーディオをキャプチャーし、それらのオーディオを解釈し、コンピュータのオーディオ出力を制御するように、コンピュータを制御するために生成した信号を使用するソフトウェア方法と結合している。そのようなシステムは、キャプチャーされたオーディオをエミュレートしたり、合成し、また、それは、音楽楽器による生成されたものにマップされる音サンプルを出力する。マップされる音サンプルは、音楽楽器の実際の音に関連しない、しかし、それとインタラクトするミュージシャンのやりかたや、音響楽器に構造的に関連する音にむしろ関連する新しい音かもしれない。
記載されるハードウェア要素は、音楽楽器からオーディオをキャプチャーするために使用される複数のセンサーを備えるデバイスを含むが、ここでは、デバイスと、マイクロフォンの両方として参照する。キャプチャーしたオーディオは、様々なソフトウェア方法を用いるコンピュータシステムで処理される電気信号に変換される。同時に、ここで記載されるソフトウェア方法は、音楽楽器のための音を識別し、エミュレートし、または、合成するために書かれるもの以外に、ハードウェア要素から抽出される信号を解釈するために利用される。それは、さらに、ここで記載される実施形態が、打楽器、特に、ドラムに関連する一方で、類似のハードウェアおよびソフトウェアは、他の音楽楽器および音響物体からの音をキャプチャーし、エミュレートするために使用される。
図1は、ドラムからのオーディオをキャプチャーし、合成するシステムの実装を示す図である。示されるように、システムは、ドラムから音をキャプチャーし、合成する様様なデバイス100を備える。同一のデバイス100は、スネアドラム110、トーン(Torn)ドラム120、キックドラム130を含む、様々なドラムタイプから音をキャプチャーすることができる。
キャプチャーされる音は、アナログ信号として、プレアンプまたはアナログデジタル変換器140のオーディオインタフェースに送信され、それは、オーディオ信号を処理し、さらに音を処理し、出力への音サンプルを選択し、それから、PAシステム145や、ヘッドフォンモニタ147のようなオーディオ出力に転送するためのオーディオ信号を生成する。ある実施形態では、オーディオインタフェースは、処理済みデジタル信号(resulting digital signal)を、さらに処理し、且つ、音サンプルを選択し、または音合成処理を適用し、出力信号を生成するために、外部コンピュータ150に送信する。ある実施形態では、コンピュータ150は、オーディオアンプまたはリアルタイムで音信号を出力するスピーカに接続され、または、それは、オーディオ出力の分析または記録結果を保存するように構成されている。ある実施形態では、コンピュータ150またはオーディオインタフェース140は、ユーザーデザインされた出力プロファイルを許容するインタフェースを介して、システムにより制御される光源システム、または、ハードウェアシンセサイザーのような他のハードウェアデバイスに接続される。例えば、制御メッセージは、そのシステムの外側にルート付け可能な一般MIDIメッセージとして出力される。
このシステムは、リアルタイムパフォーマンスのために使用され、その場合、音は、各ドラム110、120、130からキャプチャーされ、処理のためにオーディオインタフェース140に送信され、オンボードプロセッサにより処理され、または、さらなる分析および分類のためにコンピュータ150に送られ、エミュレートまたは合成音の中間再生ためにアンプに送信される。中間再生は、ドラムキットの音響再生に可能な限り近づける音に設計されるサンプルである一方で、それは、異なるドラムキット、異なるタイプのドラム、伝統的な打楽器演奏に関係しない著しく異なるサンプルのような、異なる音プロファイルを、ドラムキットに与えるように設計される代替サンプルまたは合成音の再生でもある。さらに、その信号は、ハードウェアシンセサイザー、光源、または他のデバイス以外の機能のために制御信号として解釈され、使用される。
図2および図3は、打楽器からオーディオをキャプチャーする装置100の左側および右側側面図であり、図4は、デバイス100の打楽器の左透視図であり、図5は、デバイス100の部分的に断面した左透視図であり、図6は、デバイス100の底面側透視図であり、図7は、センサーをデバイスから延長しているデバイスの左側透視図であり、図8は、楽器からオーディオをキャプチャーし合成する装置100の第2実施形態の左側面透視図であり、図9は、ドラム110に装着されたデバイス100の透視図である。
デバイス100は、音楽楽器にデバイスを固定する固定エレメント200と、ドラム110のリム(rim)220で固定され、リムまたはシェル(shell)、またはドラムの固い要素からの振動を変換するための第1センサー210と、ドラムに関連し固定位置にある固定エレメントにより吊るされる第2センサー230とを有する。第2センサー230は、ドラムヘッド225、または他のソフトメンブレン要素からの振動を変換する。ドラム以外の音楽楽器の場合、第2センサーは、別なやり方で、音楽楽器に関する固定位置に吊るされることが了解される。これら全ての要素は、互いに関して記載される要素をアレンジし、ドラム110に関する特定位置にセンサー210、230は、保持されるように設計される。
固定要素200は、クランプ機構であってもよく、第1センサー210は、ドラム110のリム220に固定するように、固定要素200のグリップ250内に装着される。第1センサー210は、圧電性素子のような、リム220の振動から信号を抽出するタイプであってもよい。固定素子200は、ドラムリム220に固定され、それから、第1センサー210は、ドラムのリムおよびシェル上の振動を検出およびキャプチャーする。
あるいは、第1センサーは、グリップ250の中というより、むしろ、デバイスのハウジング240内に格納される圧電性素子であってもよく、固定素子の上位クランプに調整されるドラムリムまたはグリップ250上に配置されてもよい。小さな(約20mm)セラミック圧力ディスク素子または同サイズのポリビニリデンフルオライド(PVDF)圧力素子が使用される。それから、この変換器、または、センサー210は、ドラムのリムおよびシェルから振動を拾う。圧電センサーが記載されている一方、他のタイプのセンサーも考えらえる。
第2センサー230は、ハウジング240、または、固定エレメント200、固定エレメントの延長からつるされ、および、ドラム110、具体的にはドラムヘッド225の振動を検出するため、および、環境音を排除するために選択される。例えば、第2センサー230は、ドラムヘッド225の振動を検出するための、電磁気コイルピックアップのようなコイルセンサーであってもよい。電磁気コイルピックアップは、鉄コアを覆う胴巻きスレッドで作られ、適切なコイルは、電話の受け手から直接電話の会話を録音するために使用される小さな電話ピックアップでもよい。
他のタイプのセンサーも第2センサー230として考慮される、例えば、高速カメラ、レーザーベースセンサーである。高速度カメラを、コイルやレーザーの位置に使用する場合、カメラは、ドラムヘッドノメンブレンの位置を狙い、それは、メンブレンの動きの動画を送信する。映像信号は、近似ベースでメンブレン上の円状のマーカーが直径が大きくなるか小さくなるようにカメラで見えるかなどのように、映像フィードにおける変化を分析することで検出する。直径の変動が、メンブレン振動を測定するものとしてふるまう。
第2センサー230は、電磁気コイルセンサーである場合、ドラムヘッドの表面に固定されるレアアース磁石のような小さなマグネット235とペアにされる。磁石は、糊または転写接着剤で表面に固定され、廃棄可能常置き、または一回使用ステッカーの形態で提供される。
図7に示されるように、第2センサー230は、デバイスのハウジング240から延ばされる。第2センサー230は、センサーを位置づけるドラムヘッドに水平または垂直なセンサーを動かすために、調整器具(adjustment)275を提供し、または、調整器具は、ドラムヘッドに対する角度において、センサーをより低くするように提供される。一度、第2センサー230が配置されると、キャムロック(cam lock)277は、センサーの位置を確保するように使用される。第2センサー230が電磁気コイルセンサーである場合、その調整器具は、ドラムヘッドの表面に固定される磁石235上に直接センサーを配置し、且つ、変換器の感度を制御するコイルと磁石との間の距離を制御するように、使用される。
ハウジング240は、2つのセンサー210、230各々の利得を調整するためのポテンショメータはもちろんのこと、様々な音楽楽器110、120、130を適合するための固定エレメント200を調整するつまみねじ260をさらに含む。2つのポテンショメータは、2つのセンサーは、示され、記述される一方で、付加的なセンサーまたはセンサータイプが、存在するデータおよび精度を提供するかもしれない。
固定エレメント200は、クランプであり、様々なスタンダードドラムヘッドのような、様々な楽器に適用するように設計されているフックを含む。そういうものとして、クランプの高い位置は、第1センサー210を含むグリップ250があり、一方で、クランプの低い位置は、バスドラムのような一つのタイプのドラムをグリップする第1セグメント280と、スネアドラムのような第2のドラムタイプをグリップする第2セグメント290のフックになる。
図9の別の実施形態で示されるように、デバイスは、ストレイインパクト(stray impact)からデバイスの内部構成要素をともに守るストライクバー300をさらに含み、独自の音、または効果を生成するために、ドラマーが使用する独自の打ち面(striking surface)としてふるまう。ある実施形態では、ストライクバーは、照明シーケンス(lighting sequences)のようなビジュアル効果を生じるように使用されるかもしれない。ストライクバーは、ドラムヘッドから第2のセンサーの反対側によりかかるように、第2センサー220上に装着される。ストライクバー300は、様々な幅の音が異なる点でバーを叩くことでなされるように、音質または階調シフト(tonal shift)を示すその長さに沿って異なる点でバーを叩くように、テーパー、および/または、カーブ状である。ストライクバー300は、固定エレメントのそばのハウジング240に固定され、ストライクバーの位置が、様々な音を許すように吊られるように、第2センサー上を片持ち梁のように作られる。
出力は、メスXLR出力ジャックのような、標準出力ポート310を介してプレアンプに送られる。
ある実施形態では、デバイス100は、第1センサー210からの信号と、第2センサー230からの信号を混ぜるために、ハウジング240内のオンボードミキシングハードウェアと一体化してもよく、XLRインタフェース310を通る出力は、モノオーディオチャネルとして提供されてもよい。
図10は、図1のデバイス内に実装されるオンボード回路の一例である。オンボード回路は、アクティブプレアンプ、出力ケーブルから供給される48ボルトのファントム電源を介して、または、壁コンセントから供給される電池または電力のどちらかの外部電源によって、給電されるミキシング回路とからなる。これらの回路は、各変換器からの信号を活動的に調整し、出力信号を混合する。これは、圧電信号状況のためのチャージアンプ構成、磁気コイル用のインバーティングプリアンプ、信号を混合する2つのバッファーオペアンプ回路を用いて、オペレーショナルアンプ回路で動かされる。各信号は、ユーザーが混合前に独自に利得を制御できる可変ポテンショメータ270を有する。
混合前に、デバイス100は、XLRポート310を介してバランスラインに沿ってモノ信号を出力し、それは、デジタルオーディオストリームでソフトウェアシステムに供給するため、プレアンプユニット、およびアナログデジタル変換器140に順に接続する。
ある実施形態では、第1センサー210および第2センサー230は、固定エレメント200なしで提供される。その場合、第1センサーは、ドラム110の表面上に直接はいちされ、第2センサーはドラムヘッド225上に吊るされる。ある実施形態では、システムは、ドラムキットの複数のドラム110、120、130を分析するために提供され、各ドラムは、第2センサーが、ドラムキットの全ドラムから振動をキャプチャーするように提供される一方で、第1センサー210を提供する。
下に記載されるソフトウェア方法は、図2〜10に関して議論されたデバイス100の出力を活用するが、別な方法として、センサーまたはセンサーセットでキャプチャーされる振動をいかなる物体に適用してもよい。音響音楽楽器は、これらのタイプの物体で理想的な例であり、本方法は、ドラムを分析することに関して記載される。
最初に、音響出力が、キャプチャーされ、オーディオ出力140のようなアナログデジタル変換器を通して、デジタルドメインに変換され、そして、コンピュータまたはオーディオインタフェース140内のプロセッサで受信される。次の記述の多くの観点は、以下を含むが限定されず、オンセット(onset:音の開始地点)検出、データ削減、モデル設計および選択、分類、グラフィカルユーザインターフェースの設計の方法、および、ユーザーからの制御バリューの抽出方法であり、本発明のスピリットから離れることなくなされる多数の修正を含み、そして、適当な他の価値によって置き換えられる。
図11は、電気信号からの音を生成する方法を実行するシグナルフローのための概略を示す。方法を動かすコンピュータシステム150は、最初に、プレアンプ140からのオーディオデータを備えるデータストリームを受信する(1000)。それから、その方法は、オーディオデータのなかのオーディオイベントのオンセットを識別する。オンセットは、例えば、ドラムヘッドにドラムスティックの衝撃であり、結果生じるオーディオイベントは、ドラムヘッドの反響音になる。オンセットの決定は、図12に関して下記に詳細に記載される。
オンセットがオーディオデータで識別されると、離散分析窓(discrete analysis window)がオーディオイベントのオンセットの位置に基づいてオーディオデータから抽出される。分析窓は、十分にオーディオイベントを識別するため、オーディオイベントのオンセットの後に、十分の時間をキャプチャーするように選択される。
離散分析窓が抽出された後、信号の抽出セグメントのスペクトラムが分析され、キャプチャーされたオーディオイベントのn次元表現を生成するために使用される。これらの次元は、キャプチャーされた楽器に識別されるオーディオイベントのオーラル要素をキャプチャーするために選択され、その次元は、プレラベルしたデータに関して教育されたニューラルネットワークを用いて選択される。例えば、ドラムや他の楽器の場合、これらの次元は、オーディオイベントの音質をキャプチャーするように選択される。これは、図13に関して詳細に議論される。
オーディオイベントは、それから、少なくともn次元のいくつかに渡るオーディオイベントの期待表現に対して、オーディオイベントのn次元表現を比較することで分類される(1300)。これは、新しくキャプチャーしたオーディオイベントと、先に同じ機器で演奏したと識別される演奏とを比較するために、ユーザー訓練モデルを用いて実行される。これは、先に収集したデータから学んだ十分に訓練されたモデルを用いて実行される。そのようなモデルは、ユーザーまたはキャプチャーした特定機器によっては訓練されず、ドラムに関するイベントの一般的な知識を有し、その知識に基づいて分類を実行する。ある実施形態では、十分に訓練されるモデルは、特定のドラムキットにマップするように設計されるモデルとしてのソフトウェアを提供する。したがって、そのようなモデルは、共通して使用される標準的ドラムキットの多数のために、事前訓練される。
ある実施形態では、分類は、それから、データべースに格納されたり、ユーザーによって生成されるような、オーディオイベントの期待表現に関するオーディオイベントを決定するために、幾何学解釈エンジンを通過する(1400)。このプロセスは、図14に関していかに詳細に記述され、そのプロセスの実装は、図15〜17で図解される。
最後に、オーディオサンプルまたはオーディオ合成プロセスは、ユーザープログラム音出力マッピングはもちろんのこと、分類(1300)および幾何学的解釈(1400)に基づいて再生されるように選択され、音として出力される(1500)。この音は、新しいオーディオファイルとしてセーブされ、または、ライブパフォーマンスの場合には、即座にアンプまたはスピーカーに出力される。オーディオサンプルは、データベースに保存され、または、それは、幾何学的解釈(1400)に基づき結合された複数の格納済みサンプルに基づいて生成される。ある実施形態では、再生のために選択されるオーディオサンプルは、分類または幾何学的解釈から導かれるアルゴリズムに基づいて全体的に生成される。プロセスが、オーディオ出力に関して説明される一方で、出力は、光源のような非オーディオイベントを作動させるための制御信号出力でにある。
図12は、図11の概要内におけるオンセット検出1100の方法のためのフローチャートである。最初に、コンピュータシステム150は、プレアンプ140からオーディオデータを受け取り(1000)、イベントのオンセットの特質を決定するために、最初のスペクトラム分析を適用する。これは、そのイベントの発生が、ドラムヘッド225をドラムスティックで叩くことのような、シングルインパクトであるか、または、インパクトの素早い連続(ロール)のような連続イベントか、または、インパクトまたはブラシでインパクトの連続のようなもっと微妙なオーディオイベントかを決定する。
オーディオは、デジタルストリームでシステムに入ってくるので、スペクトラム解析中にサンプルセットを取得して、スペクトラルブリード(Spectral Bleed)を減らすために、ハン窓関数または他の窓化関数を適用することで、取得したサンプルセットは窓化される。ストリームは、アナリシスウインドウ(Analysis Window)をオーバーラップすることができるように、バッファにセーブされる。実施形態に示されるように、コンピュータシステム150は、オーディオのブロックを、周波数スペクトラム表現に変換するために、最初に、評価される分析される窓(Window)に、高速フーリエ変換(FFT)を適用する。
それから、マルチバンドプーリング変換が、周波数表現を圧縮するために適用される。例えば、メル周波数変換、または、一定Q変換がここで適用される(1120)。オンセット関数は、それから、オンセットを表現するためにどちらのピークを選択する(1140)または、ロールまたは他の連続イベントが生じているかを決定する(1150)ために、様々なスペクトラム要素に重みを付け、および、合計するために適用される。
オンセット関数(1130)は、信号の平均スペクトル包絡線により分けることで、信号の平均スペクトラル最初に信号を要約し、すなわち、信号中の反響を削減する。これは、共振ドラムを使用するとき、オンセット失敗を減らすように動作する。統合表現(Pooled Presentation)の各々のバンドは、高周波に有利なように重みづけされ、および、オンセット関数は、ウィンドウをデシベルに変換し、ウィンドウ間の差異を生成するために、先のウィンドウを引き、半波整流アルゴリズムを適用し、それからウィンドウを合計する。ここで記載されるオンセット関数では、オンセットは、関数の中の高いピークで表現される。シングルオンセット関数(1130)が詳細に記載される一方で、他の関数が、イベントのオンセットも識別するために使用される。
オンセット関数は、それから平均適合性閾値ウィンドウ(mean adaptive threshold window)を用いて、ノイズを最小化し、最小オンセット距離(例えば、2および3ミリ秒の間)およびオンセット関数のコンテキスト内のオンセットのための最小閾値を制御する一方で、関数内のピークを探すピークピッキングアルゴリズムに投入される。ある実施形態では、アルゴリズムは、参照のために提供されるサンプルタイム値とともに、オンセットが生じたか否かを判断する次の3つの基準をテストする。
a. 現状のフレーム値は、与えられた時間のウィンドウ(約3ミリ秒)内のすべての先のフレームより、大きい?
b. 現状のフレーム値は、与えられた時間のウインドウ(約3〜16ミリ秒)内の先の平均値+与えられた閾値より大きい?
c. 与えられた時間(〜3ミリ秒)以内に生じる先のオンセットが生じている?
記載されるアルゴリズムは、ドラムの使用のために調律さていると記載される一方で、それは、対応するオンセット関数を使用して他の楽器と動作するように適用されてもよい。
オンセットファンクションの出力(1130)および/またはオリジナルオーディオフレームは、それからまた、オンセット関数の長時間続くまたは次々と起こるピークにより示される長時間イベントを検出するためのアルゴリズムに投入される。このアルゴリズムは、ヘッドの上のスティックの早い弾みを生成するために、ドラムに対してスティックを押すことでスムースサウンドが生成されるドラム上のロールのような、特定の音楽ジェスチャーや技術、および、ジャズ音楽の現在にあるように、ドラムヘッド上をブラシをこすりつけることで生成する連続のジェスチャーの存在を、検出するように使用される。
連続ジェスチャーの場合のある実施形態は、オンセット検出ステップ(1100)をバイパスすし、音質またはスペクトラム分析段階(1200)にすすむ。これは、連続音および検出可能なオンセットによりの先行されない音質変化の分析および処理を許可する。
あるシナリオでは、後述されるニューラルネットワークは、連続イベントの分類および空間的投影(Spartial projection)はもちろんのこと、オンセット検出のタスクを包含するように訓練される。あるいは、オンセット検出モジュールは、連続音のパターンを認識し、および、オンセットモ検出モジュールが連続イベントが終わることを検出するまで、連続分析を実行するために、分析ステージをトリガーするように利用される。
一度、オンセットが分析窓の長さ以内に検出されれば、サンプル精度のオンセット検出アルゴリズムが、オンセットの始まりの位置を特定するために、適用される。検出されるオンセットを含むオーディオの長さは、低周波および高周波要素を取り除くために、バンドパスフィルターされ、10kHz周辺の周波数を強調する。フレームは、それから半波長修正され、そして、移動(running)最大ベクトルを生成するように処理される。これは時間の向きにおけるウィンドウ内の各サンプルを調査し、現状の最大値をベクトルとしてセーブすることで計算される。オンセットの開始は、ある閾値を超える移動最大値のこのベクトルの最初の値のインデックスを見つけることで決定される。移動最大のベクトルは、範囲内にその値が、オンセットのオリジナルの大きさにもかからわず、標準閾値の仕様を許可する範囲0〜1にある値のように、標準化される。このサンプル開始値は、イベントまたはオンセットの開始を含むオーディオフレームを除き、および、分析フレームまたは分析ウィンドウとして参照し、与えられた数のサンプルのためのオンセットを、引くくように使用される。
方法は、分析フレームを生成するために、所定のイベントのためのオーディオ情報の固定値を要求する。固定値は、使用され、オーディオ、フレームの長さは、待ち時間、イベント、システムの実行と精度の間の逆相関に結果としてなる。
図13は、図11の概念内におけるスペクトラル分析1200の方法のフローチャートである。このスペクトラル分析1200は、ドラムのようなパーカッション楽器の概念における音質分析である。オンセットが検出され、分析窓が抽出された後で(1210)、高速フーリエ変換(FFT)が分析窓内のサンプルに適用され、そのFFTにより生成されるデータシリーズに対して一定Q周波数変換が次に生じる。フローチャートが一定Q周波数変換により生じるFFTの適用を図解する一方で、様々なシーケンス(sequences)がその分析に適用される。例えば:
a. 窓化されたデータが、時間振幅表現(time−amplitide expression)に残留して、そのままの状態で留まる。
b. 一定Q変換の使用を通して、対数領域周波数表現(log−spaced frequency representation)に投じられる。
c. (b)のように処理されてから、離散的コサイン変換を適用することで「周波数」ドメインに投じられる。これは、信号内にある周波数構造を保存するデータ圧縮ステップとして振る舞う。
d. メル空間(メル周波数ケプストラム係数変換と同様に)周波数表現または、線形空間周波数表現(離散的フーリエ変換と同様に)のような代わりの周波数表現を用いて、(b) または (c)のように処理される。
e. (b) 、(c)または(d)のように処理されてから、それは、全ての値のルートをとって、またはデシベル計算を適用して、ダイナミックに圧縮される。
変換のこれらの組み合わせのいくつかは、例えば、対数空間周波数ビンのための周波数に対する大きさ/相を生成するために使用される。
さらに、上記した変換は、結果を、ニューラルネットワークシステムに対して普通にある一連の行列変換および非線形性にフィードすることが次に生じる(1230)。重みおよびバイアス(スーパーバイズド/セミスーパーイズド/または十分にスーパーバイズドされてない、機械学習では普通にある計算を通して、先に集められたデータで訓練した後続の非線形返還)をかけた行列計算として一連の関数からなるニューラルネットワーク(浅い、または、深い)が、上述の計算の出力に適用される。変換としてのこのネットワークは、訓練された重み付けカーネルが、インプットを横断して畳み込んで計算される畳み込みニューラルネットワークでもよい。
そのようなネットワークは、様々な目的に仕える:所与のクラスにおける算入のために確率としてのニューラルネットワークの出力に関するソフトマックス(soft−max)演算の結果を読み取ることで、次の確率に基づく離散分類となる十分に訓練されたモデルである。それは、耳の音質の認識に関連する方法で、データポイントが順番付けされる新しいデータ空間に新しいデータを投じるようにもつかえる。この空間では、類似音は、互いに近い出力を生じ、そして、非類似音は、互いに離れている出力を生じる。ネットワークはまた、上記したつの方法の何れかとともに、ドラムを叩くことで生成される様々な音質を認識するように先行訓練されるモデルを表す、しかし、モデル又はデータ空間の構造が転送され、または、そのシステムで使用されるべきドラムの音質構造に一致するように変換されるシステムのユーザーランキャリブレーションの間のキャリブレーションを次に引き受けることを表す。
ある実施形態では、ニューラルネットワークは、ドラムの音の品質に構造および関連性を保存する低い空間スペースに、音声データを埋め込むことを引き起こすように、構築されおよび学習されている。そのような実施形態を実行する方法は、様々な方法で、叩かれた様々な異なるドラムの記録を、ラベリングすることで、ラベル化されたデータの大きなデータセットをを生成することである。木質細片スティックでドラムヘッドのセンターににあるドラムをうつことは。”中央ヘッド”および”木質細片スティック”と分かれてラベルされている場合、生成されるオーディオを含むオーディオのフレームのように、マルチラベルアプローチは、ここで動作する。
同様に、スティックのチップでドラム上のリムを打つときに生成する別なデータポイントは、”リム”および”木質細片スティック”ラベルを有する。与えられたいかなるデータも、そのデータポイントが、音響ドラムを叩くことに関して関連するものを、記述する複数のラベルを有する。このデータとともに、ネットワークは、このスペースに投入されるラベル化されていないデータの特性を予測するモデルを想像するために、学習される。一つのアプローチは、同一の構造を有するシャムニューラルネットワークと、2つの任意なインプットを与えられる反映重み付け(mirrored weights)があるDRLIMアーキテクチャーを使うためにあるだろう。これらのインプットは、類似のラベルをセットするなら、そのときコスト関数は、両方のシャムニューラルネットワークを介して、同じになるように出力を助長するために、適用され、バックプロパゲートされる。比類似のインプットが与えられた場合、同じことがなされるが、コスト関数は2つのネットワークの出力が異なることを確実にするように、ネットワークを更新する。このように、変換は、データポイントを、データセット内のタグに基づいて幾何学的に順番付けされる空間に投入されることを獲得する。
分析または空間的投入ステップの出力は、相対的に低い寸法データを生成し、および、長さ1024サンプル(23ms)のオーディオのフレームは、任意に小さい数の寸法に減らされる。それから、このデータは、オーディオイベントを分類するために使用される(1300)
図14は、図11の概念内のオーディオシグナルの分類1400のためのフローチャートである。スペクトラム解析1300の結果は、n次元ベクトルまたは分析されるオーディオイベントの様々な特徴を表す行列(1410)を生成するために使用される。例えば、上記(c)処理は、「周波数」ドメインを活用して、20次元有するデータポイントを生成する。一方、ニューラルネットワークに関して記述されるプロセスは、ユーザーに徐々に見える化される(Visualized)2または3次元にこのオーディオをダウンして投影する。その処理は、簡単に見える化した表現の外のオーディオイベントに適切な音質を表すために、そのオーディオフレームにより低い次元で埋め込むことを表す高次元出力を生成する。これらのデータポイントは、ドラム打ち込みの特定タイプを表すものとして分類され、連続データ空間内の幾何学的および空間的意味(spatial significance)を有すると解釈される。
生成されたベクトルは、モデルのデータポイントの密度を用いて、最も近い近傍モデル(1420)に基づくオーディオイベントを分類するように使用され、次に、モデルのデータポイントの密度は、オーディオイベントの特定タイプとしてオーディオイベントを分類するように使用される(1430)。代わりに、ベクトルは、ユーザーがマップしたベクトルの幾何学的解釈に基づくオーディオイベントをマップするように使用され、幾何学的解釈は、オーディオ出力のための制御値を生成するために使用される(1450)。
近傍解釈が他のケース(すなわち、叩くのが、ドラムヘッドかドラムリムか)で解釈することを用いる一方で、これらの方法は、制御値で最も近傍モデルの使用に重み付けするために、または、あるケース(すなわち、ドラムヘッドのインパクトの位置を決定すること)における幾何学的解釈を使用するために組み合わされる。
再生中、ドラムの各一撃は、キャプチャーされ、分析され、記述された分類モデルを用いて分類される。最近傍モデルを用いる場合(1420)、ラベルされていないデータポイントが、いくつかの範囲にわたるユークリッド距離のように、距離単位を用いてモデルのどのデータポイントとも比較される。モデルにおいて最も近い点が一度見つかると、新しいデータポイントは、最も近いデータポイントのそれと同じラベルでラベルがふられる。
ニューラルネットワーク分類クラスの場合、分類モデルの出力は、異なるモデルに関係づけられる同じ寸法で、エナジー密度ベクテルの形である。そのようなものとして、複数のラベルが異なるエナジー密度に適用され、異なるエナジー密度は、データポイントがそのラベルに関係づけられる信頼値として解釈される。したがって、上述の例では、「ドラムセンター」を表す寸法、および、「スチックのチップ」を表す寸法では、高い値が、データポイントを、ドラムスティックのチップを用いてドラムのセンターを打つことを表すことを、示す。
図15であらわされるように、特定クラスターのラベルは、データポイントが、そのクラスターのための密度要求を満足する限り、新しいデータポイントが適用される。与えられた寸法では、ランプ1500は、ポテンシャルデータポイント感に描かれ、オーディオデータポイント1510がクラスターAのための密度要求を満たす場合、それは、クラスターAに関係するラベルに割り当てられる。類似して、データポイント1520がクラスターBの密度要求を満たす場合、それは、クラスターBに関係するラベルに割り当てられる。
それから分類は、与えられたサンプルの再生として、割り当てイベントをトリガーする。
既に記載された分類方法を合わせて用いる場合も含み、幾何学的解釈を用いるとき(1440)、モデル内の新しいデータの幾何学的解釈は、一定の制御値およびブレンド設定を適用するために、派生する。このような連続的な制御値およびブレンド設定は、ユーザが選択することができる。これは、ユークリッド距離などの距離メトリックを使用して、モデル内のデータポイントと他のクラスまたはゾーンとの関係を抽出するために、使用されるデータモデル内のデータポイントを取り、相対距離をチェックする。
これらの関係を抽出して、空間内の点を空間の他の領域に対して変換するには、それらの領域間の距離のパーセンテージとしていくつかの方法がある。例えば、最近傍クラス分類器モデルと関連して使用される場合、所与のデータポイントは一方向に分類されるが、データ空間におけるそれらのクラスに対する相対距離に基づいてモデル内の他のクラスに関連する。モデルは、距離の尺度を与えられたデータ空間またはゾーンと考えることができます。モデル内の所与のクラスに属する各点は、この空間の所与の領域またはゾーンを占有する。この空間における高密度の領域は、そのクラスを最も代表する空間の領域(すなわち、ドラムの音)として解釈することができる。これをクラスの中心と呼ぶことができる。
図16に示すように、幾何学的解釈は、新しいデータ点のラベル付きクラスの中心までの相対距離を計算することを含むが、モデル内の他の関連するクラスの中心までも含む。この場合の幾何学的解釈は、新しい点からその親クラスの中心までの距離を求め、次いで、新しい点1600からモデル内の他のクラスのいずれかの中心までの距離を求める(B)ことを含む。これは、正規化され、オーディオサンプルの再生音量などの任意の連続的なコンピュータパラメータの制御値として使用されることができる。マルチラベル分類器の場合、各次元の値は同様の方法で解釈され、クラス間の相対距離を回復するために特定の次元にわたって平均化される。別ウィンドウ(タブ)の大きな表示で見る図17に示すように、新しいクラスまたはデータ点のクラスタをモデルに導入することができ、そのような場合、各ゾーンへの相対距離を評価して、幾何学的解釈を使用して新しいデータ点1700を適切に評価することができる。したがって、このような計算は、新しいクラスタCを考慮して更新する必要があります。これについては、「サウンドマッピング」の見出しで詳しく説明する。

較正と訓練
上記のモデルの較正または訓練は、2とおりの方法で機能できる。分類および幾何学的解釈に直接使用できる得る所与のドラムのデータモデルを作成するために使用されることができ、または、較正ステップとして使用されることができ、ここで、事前訓練されたモデルまたはニューラルネットワークは、伝達学習アーキテクチャにおけるように、当該システムにおいて使用される現在のドラムの音響によりよく適合するように変形されることができる。
したがって、当該ステップにおいて作成される分類モデルは、当該モデルを決定するために(各クラスのメンバーの平均密度測定に基づいて除かれた統計外れ値に)ユーザが提供するすべての標識されたデータポイントを使用する最も近い隣り合うモデルであり得る。あるいは、生成されたデータは、未知のデータポイントの分類を提供するより効率的な手法を提供できるガウス混合モデル等の統計モデルを作成するために使用されることができる。本ステップにおいて、ユーザは1つずつ演奏されるドラムが作り出す様々な音におけるシステムを、1つずつ指示するであろう。
訓練または較正の間、ソフトウェアは、ユーザが提供すべきドラム演奏に固有の独特な音を作り出す、様々なリージョンおよびドラムストロークコンボのリストを提案する。これには、ドラムヘッドの中心でのドラムスティック打撃、ドラムヘッドのエッジでの打撃、ドラムスティックの先端部および肩部でのドラムのリムでの打撃、別個の、クロススティック等の一般的なドラムストローク(スティックの本体がリムを打つために振り下ろされように、スティックの先端はドラムヘッドに置かれる)、および、リムショット(スティックが、ドラムのヘッドとリムの両方を同時に打つ)がある。
当該規定のリストのほかに、ユーザは訓練に使われるカスタムストローク、リージョン、または音を提供してもよい。ワークフローは、以下のとおりの手順であってもよい:ユーザはグラフィカルユーザインターフェースにおける”T”ボタンを押すことにより、ソフトウェアを訓練モードに切り替えてもよく、当該ユーザインターフェースは、ドラム上のこのリージョンのリスト、および演奏可能なストロークスを表すスクリーン上の様々なリージョンを提供してもよい。これらは、それぞれのリージョンに1つあるボタンまたはパッドのように見える。訓練モードにおいては、これらのパッドを選択できる。所与のリージョンを訓練するために、ユーザは、そのリージョンに対応するパッドを、コンピュータマウスでそれをクリックし、当該パッドに対応する方法でドラムを打つことにより選択するであろう(たとえば、ドラムヘッドの中心を較正するために、ユーザは”1中心”と標識されたパッドを選択し、そして様々な速度でそのヘッドの中心においてドラムを繰り返し打ってもよい)。ドラムの各打撃は、そのリージョンに関連づけられるシステムへのデータポイントを保存する。十分な数のリージョンが訓練されると、ユーザは”T”ボタンをもう一度押すことにより訓練モードから切り離されることができる。
最も近い隣り合う分類モデルを作成するためにシステムが訓練を受けている場合、ユーザは任意の数のパッドを訓練してもよい。しかしながら、満足のいくモデルを作成するために、ユーザはパッドあたり十分なデータポイントを提供することが重要である。さらに、事前に訓練されたネットワークを微調整するためにシステムが較正プロセスを受けている場合、たとえば、ユーザは、固定数のリージョンに対してデータを提供することが必要であるだろう。これらの2つの方法は、併用して使用されてもよい。
較正ステップの間、ユーザは、開始検出モジュールにおけるイベントを誤って誘引する周囲ノイズを認識するために、”ボイド”パッドを訓練してもよい。標準的なドラムセットの設定において、たとえば、キックドラムは、典型的にはスネアドラムを振動させ、これらの振動は、誤った開始を誘引することがある。音響コンテンツに基づいて、これらの誤った誘引イベントを認識するためにボイドパッドを訓練することにより、これらは、これらをほぼ消音にすることができる。
したがって、”ボイド”パッドの訓練において、ユーザは、使用されるモデルによって、および使用されるモデルにおいて認識されるように、中心のヒットのような第一のオーディオイベントを最初に選択してもよく、かつドラムでのオーディオイベントを実行してもよい。そして、ユーザは、使用されるモデルによって、および使用されるモデルにおいて認識されるように、リムショット等の第二のオーディオイベントを選択してもよく、かつドラムでのオーディオイベントを実行してもよい。そして、ユーザは、使用されるモデルによって、および使用されるモデルにおいて無視されるように、キックドラムインパクト等の第三のオーディオイベントを選択してもよく、かつドラムでのオーディオイベントを実行してもよい。

サウンドマッピング
訓練後、GUIの使用により、ユーザは、サンプル、シンセサイザ、エフェクト、またはMIDI等任意の汎用コントロールを”マップ”し、分類モデルのリージョンに、ノート開始イベントを関連付けることができる。さらにコントロールパラメータを、リージョン間の距離に関連して、または、速度(velocity)や速さ(speed)等のドラムパフォーマンスのその他のパラメータに関連してマップできる。コントロールパラメータの例には、MIDIプロトコールの連続コントロールメッセージがあってもよく、たとえば、Aとして 分類されたポイントPを有する、クラスAからクラスBの全距離幅が、一般的な連続コントロール値として使用できる幅上の値を識別するだろう。ユーザが音響楽器を演奏すると、イベントが検出され、当該イベントは分析および分類され、その後、その関連する音またはコントロール出力を誘引する。データ間隔から音出力への翻訳の別の例は、当該データ間隔における異なるリージョンに関連する2つの音の間で、混合または変形するオプションである。各新規データポイントが、当該データ間隔において2つのクラスの間を徐々に移動するように、当該楽器が演奏されると(たとえば、ドラムの中心を打つことにより開始し、そしてエッジを外側に向かって徐々に移動しながらドラムを打つと、ドラムの中心に関連するクラスの非常に近くで開始し、ドラムのエッジに関連するクラスに徐々に近づくように移動するデータポイントが生成されるであろう)、これらの2つのリージョンに関連するデジタル音を、滑らかかつ徐々に混合し、楽器が演奏されるのに対応してスピーカを通してオーディオとして出力できる。
新規データポイントをモデルのデータ間隔のクラス中心に関連づける連続コントロール値の抽出により、上記図15から17で議論されたモデルに組み込むことができる。かかる実施態様において、ユーザは、図16にクラスAおよびクラスBとして示されるように、2つのクラスを、コントロール範囲の開始点および終了点として識別するコントロール値を要求してもよい。新しいデータポイント1600が与えられると、データポイントP(1600)とクラスタAの中心とデータポイントP(1600)との間の距離が計算され、クラスタBの中心が計算される。次に、0と1との間の値は、dist = A(P、P)/(dist(A、P)+ dist(B、P))として計算され、distはn次元ユークリッド距離尺度である。この値を使用して、システム内の連続パラメータを制御したり、外部パラメータを制御するために送出することができます。これの一例は、リバーブのようなデジタルエフェクトユニット内のパラメータのような可変パラメータを制御することである。ノブが連続的にねじられる効果を達成するように、ドラムが打撃されると、これらの値の動きにさらにローパスフィルタリングを適用することができる。
この値はファジィ分類を作成するためにも使用できる。新しいデータポイントは別のクラスに近いクラスになりますが、これらの相対距離は再生中に2つのオーディオサンプルの相対的なボリュームを制御するために保持される。これは、ある領域から別の領域へと進行中にドラムを繰り返し打つという連続的な音色の動きに直接関係するデジタル出力における連続的な聴覚の動きの効果を有する。同様に、他の連続制御パラメータをデータの他の特徴から抽出することができる。例えば、ヒットの力またはヒットの結果の体積からドラムヒットの速度を抽出し、連続するヒット間の距離からドラムロールの速度を抽出することができる。

グラフィカルユーザーインターフェイス(GUI):
図18〜19に示されるように、グラフィカルユーザインターフェースは、ドラムの異なる音域の表現、個々のチャンネルの音量を制御するミキサ、サンプルブラウザ、エフェクトコントローラ作成パネル、リバーブおよびディレイを含むデジタルオーディオエフェクトを備えたエフェクトパネル、およびサンプルエディタ/ドラムシンセパラメータウィンドウ、オンセット検出パラメータインタフェース、パッドサウンド間のブレンドオプションを選択するためのパネルが含まれる。
ドラムの異なる音域の表示は、複数のパッドを示し、各パッドは、アコースティックドラムの領域、アコースティックドラムを演奏するために使用されるストローク、またはドラムスティックでドラムを打つ特定の方法のいずれかに対応する。パッドには、センター、エッジ、リムショットセンター、リムショットエッジ、クロススティック、リムチップ、リムショルダー、ハードウェアマイクの上に置かれたストライクバーのカスタマイズやパッド用のパッドが含まれる。
パッドはドラムのパイスライスとして配置され、中心はスライスの先端にあり、リムパッドはエッジにある。
パッドはトレーニングモードと演奏モードの両方でマウスクリックで選択できます。トレーニングモードでは、トレーニングするパッドを選択します。再生モードでは、パッドを選択すると、パッドに適用されたサンプルとエフェクトを表示するコンテキストパネルが表示されます。サンプルライブラリー、エフェクトラック、シンセラックのいずれかにドラッグ&ドロップすることで、サンプル、エフェクト、シンセを任意の場所に割り当てることができます。
ユーザがドラムに当たると、対応するパッドが点灯し、システムがストライクを認識して正しくラベル付けしていることをユーザに示す。 2つのパッドの間にブレンドが設定されている場合、パッドが関連付けられている領域の近くでドラムが叩かれると、両方のパッドが点灯し、そのブレンド計算の各パッドの相対値に応じて光強度が変化します。
エフェクトコントローラの作成パネルでは、ドラムを音源とするさまざまな方法(すなわち、幾何学的解釈エンジンで計算された中心から端までの距離、ストライクの強さ、連続打撃のスピード)を使用できるエフェクトコントローラを作成できます。ソフトウェア内の任意の変数設定を制御するために適用することができます。これにより、ユーザーは、特定の場所でドラムを叩いたり、変化する音量でドラムを叩いたり、ドラムをすばやくまたはゆっくりと叩いたりすることで、リバーブ減衰のようなエフェクトをコントロールすることができます。これらのドラム要素は、ドラムの各ストライク時に更新される連続的な制御値に変換される。
発症検出パラメータインタフェースにより、ユーザはオンセット機能をリアルタイムで見ることができ、閾値パラメータおよび適応ウインドウパラメータ(W3)を対話的に調整することができる。ドラムのストライクは、画面上にプロットされた関数にピークとして現れる。この関数は時間が経過すると左にスクロールします。イベントとして識別されるピークには青い線が表示されます。しきい値は、水平線を上下に動かすことによって設定されます。水平線の下にあるピークは無視され、閾値線を超えるピークはオンセットとしてマークされます。適応型しきい値ウィンドウは、右側に拡張できる長方形のボックスです。矩形の角を右に動かすと、適応閾値時間ウィンドウが増加する。
図20は、図1の装置を示す概略図である。図示のように、装置100はハウジング240を有し、ハウジングは第1のセンサ210、第2のセンサ230、及び出力部310を含むことができる。第1のセンサ210は、典型的には、装置100および第2のセンサ230は、典型的には、捕捉される物体と接触していないが、むしろ物体に対してある位置に固定されている。第1のセンサ210および第2のセンサ230によって捕捉された振動は、オンボード回路によって合成され、310で出力されてもよく、または直接出力されてから装置の外部に混合されてもよい。
センサはハウジング240内に示されているが、センサは表面に直接塗布することもできるし、別個のスタンドを使用してドラムヘッドまたは他の機器の上に懸架することもできる。例えば、第1のセンサ210は、ステッカーを用いてドラムのリムに貼り付けられてもよい。センサは、有線または無線の別のインタフェースを介してプロセッサにデータを送信し、そこでデータが解釈される。
本明細書に記載される主題の実施形態および動作は、本明細書およびそれらの構造的均等物に開示される構造を含むデジタル電子回路、またはコンピュータソフトウェア、ファームウェア、またはハードウェアにおいて、またはそれら。本明細書に記載された主題の実施形態は、データ処理装置によって実行されるか、またはデータ処理装置の動作を制御するためのコンピュータ記憶媒体上に符号化された1つまたは複数のコンピュータプログラム、すなわちコンピュータプログラム命令の1つまたは複数のモジュールとして実装することができる。これに代えてまたは加えて、プログラム命令は、人工的に生成された伝搬信号、例えばデータ処理装置による実行のための適切な受信装置への送信のために情報を符号化するために生成された機械生成電気信号、 。コンピュータ記憶媒体は、コンピュータ可読記憶装置、コンピュータ可読記憶基板、ランダムまたはシリアルアクセスメモリアレイまたはデバイス、またはそれらのうちの1つまたは複数の組み合わせであり得るか、またはそれらに含まれ得る。さらに、コンピュータ記憶媒体は伝播信号ではないが、コンピュータ記憶媒体は、人工的に生成された伝播信号でコード化されたコンピュータプログラム命令のソースまたは宛先とすることができる。コンピュータ記憶媒体は、1つまたは複数の別個の物理的構成要素または媒体(例えば、複数のCD、ディスク、または他の記憶装置)であってもよいし、含まれていてもよい。
本明細書で説明する動作は、1つまたは複数のコンピュータ可読記憶装置に格納されたデータまたは他のソースから受信したデータに対してデータ処理装置によって実行される動作として実装することができる。
「データ処理装置」という用語および同様の用語は、例えば、プログラム可能なプロセッサ、コンピュータ、チップ上のシステム、または複数のもの、またはそれらの組合せを含む、データを処理するためのあらゆる種類の装置、デバイスおよび機械を包含する。前述した。この装置は、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)などの専用論理回路を含むことができる。装置は、ハードウェアに加えて、問題のコンピュータプログラムの実行環境を生成するコード、例えば、プロセッサファームウェアを構成するコード、プロトコルスタック、データベース管理システム、オペレーティングシステム、クロスプラットフォームランタイム環境、仮想マシン、またはそれらの1つ以上の組み合わせを含むことができる。装置および実行環境は、ウェブサービス、分散コンピューティングおよびグリッドコンピューティングインフラストラクチャなど、様々な異なるコンピューティングモデルインフラストラクチャを実現することができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとも呼ばれる)は、コンパイルされた言語または解釈された言語、宣言的または手続き的な言語を含む任意の形式のプログラミング言語で記述することができ、スタンドアロンプログラムとして、またはコンピューティング環境での使用に適したモジュール、コンポーネント、サブルーチン、オブジェクト、またはその他のユニットとして、コンピュータプログラムは、ファイルシステム内のファイルに対応することができるが、これに対応する必要はない。プログラムは、他のプログラムまたはデータ(例えば、マークアップ言語文書に格納された1つまたは複数のスクリプト)を保持するファイルの一部、問題のプログラム専用の単一のファイル、または複数のコーディネートされたファイル(たとえば、1つまたは複数のモジュール、サブプログラム、またはコードの一部を格納するファイル)。コンピュータプログラムは、1つのコンピュータ上で、または1つのサイトに位置するか、または複数のサイトに分散され、通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように配置することができる。
本明細書で説明するプロセスおよび論理フローは、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラマブルプロセッサによって実行され、入力データを操作して出力を生成することによってアクションを実行することができる。プロセスおよびロジックフローはまた、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)などの専用ロジック回路によっても実行することができ、装置は専用ロジック回路として実装することもできる。
コンピュータプログラムの実行に適したプロセッサは、一例として、汎用マイクロプロセッサおよび専用マイクロプロセッサ、および任意の種類のデジタルコンピュータの任意の1つまたは複数のプロセッサを含む。一般に、プロセッサは、読み出し専用メモリまたはランダムアクセスメモリ、またはその両方から命令およびデータを受信する。コンピュータの必須要素は、命令に従って動作を実行するためのプロセッサと、命令およびデータを記憶するための1つまたは複数のメモリデバイスとである。一般に、コンピュータは、データ、例えば磁気、光磁気ディスク、または光ディスクを格納するための1つまたは複数の大容量記憶装置からのデータを受信するか、またはその両方にデータを転送または動作するように動作可能に結合される。しかしながら、コンピュータはそのような装置を有する必要はない。さらに、コンピュータは、別のデバイス、例えば、携帯電話、携帯情報端末(PDA)、モバイルオーディオまたはビデオプレーヤ、ゲームコンソール、全地球測位システム(GPS)受信機、またはポータブルストレージデバイス(例えば、ユニバーサル・シリアル・バス(USB)フラッシュ・ドライブ)を使用することができる。コンピュータプログラム命令およびデータを格納するのに適したデバイスは、例えば、EPROM、EEPROM、およびフラッシュメモリデバイスなどの半導体メモリデバイスを含む、すべての形態の不揮発性メモリ、媒体およびメモリデバイスを含む。磁気ディスク、例えば内部ハードディスクまたはリムーバブルディスク;光磁気ディスク;およびCD ROMおよびDVD−ROMディスクが含まれる。プロセッサおよびメモリは、専用論理回路によって補完または組み込むことができる。
ユーザとの対話を提供するために、本明細書に記載された主題の実施形態は、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタなどのディスプレイデバイスを有するコンピュータ上で、ユーザおよびキーボードと、ユーザがコンピュータに入力を提供することができるポインティングデバイス、例えば、マウスまたはトラックボールとを含む。他の種類の装置を使用して、ユーザとのやりとりを提供することもできる。例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであり得る。ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態で受信することができる。さらに、コンピュータは、ユーザによって使用されるデバイスとの間でドキュメントを送受信し、ドキュメントを受信することによってユーザと対話することができる。例えば、ウェブブラウザから受信した要求に応答して、ユーザのクライアントデバイス上のウェブブラウザにウェブページを送信することによって実行される。
本明細書に記載される主題の実施形態は、例えばデータサーバとしてのバックエンド構成要素を含むコンピューティングシステム、またはアプリケーションサーバなどのミドルウェア構成要素を含むコンピューティングシステム、またはフロントエンド構成要素例えば、グラフィカルユーザインタフェースを有するクライアントコンピュータ、またはユーザが本明細書に記載された主題の実装と対話することができるウェブブラウザ、または1つまたは複数のそのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネント。システムのコンポーネントは、任意の形式または媒体のデジタルデータ通信、例えば、通信ネットワークによって相互接続することができる。通信ネットワークの例には、ローカルエリアネットワーク(LAN)およびワイドエリアネットワーク(「WAN」)、ネットワーク間(例えばインターネット)、およびピアツーピアネットワーク(例えば、ピアツーピアネットワーク)。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントとサーバは、一般に互いに遠隔であり、典型的には通信ネットワークを介して相互作用する。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行され、互いにクライアント − サーバ関係を有するコンピュータプログラムによってもたらされる。いくつかの実施形態では、サーバは、(例えば、クライアント装置と対話するユーザにデータを表示し、ユーザ入力を受け取る目的で)データ(例えば、HTMLページ)をクライアント装置に送信する。クライアント装置で生成されたデータ(例えば、ユーザ対話の結果)は、サーバーのクライアント装置から受信することができる。
本明細書は、多数の具体的な実施形態を含むが、これらは任意の発明または請求されてもよいものの範囲を限定すると解釈されるべきではなく、特定の発明の特定の実施形態に特有な特徴の記載として解釈されるべきである。別々の実施態様の内容における本明細書記載のある特徴は、単一の実施態様における組み合わせにおいて実施もできる。逆に、単一の実施態様の内容に記載される様々な特徴は、複数の実施形態で別々に、または任意の好ましい部分的組み合わせにおいて実施もできる。さらに、特徴は、ある組み合わせおよびにおいて効果を有するとして、およびたとえ当初請求されたとして上に記載されていてもよいが、請求の組み合わせからの一または複数の特徴は、当該組み合わせから試作されるいくつかの事例においても可能であり、かつ、当該請求の組み合わせは、部分的組み合わせ、または部分的組み合わせのバリエーションに方向付けられていてもよい。
同様に、操作は特定の順序で図面に記載されるが、これは、かかる操作が示された特定の順序において、または連続的な順序において実行されることを要求するものとして、あるいは全ての説明された操作は、望ましい結果に到達するために実行されると理解されるべきではない。ある環境において、複数タスクおよび並行処理は、有利になってもよい。さらに、上記実施態様における様々なシステム部分の分離は、全ての実施態様におけるかかる分離を要求するものとして理解されるべきではなく、記載のプログラム部分およびシステムは、単一のソフトウェア製品が一般的に共に統合された、または複数のソフトウェア製品にパッケージ化された可能性がある。
本発明は、複数の記載の実施態様に関して、ある長さで、およびある特殊性をもって記載されているが、任意のかかる特徴または実施態様、あるいは任意の特定の実施態様に限定すべきと解釈されるものではないが、先行技術の観点からかかる請求項の可能な限り広い解釈が提供され、それにより、当該発明の意図した範囲を効果的に包含するように、添付の請求項を参照するものと解される。さらに、本発明は、現在予見されていない本質的な変更がそれに対応するものであるにもかかわらず、実現可能な記述が利用可能であった発明者が予見する実施の形態に関して本発明を説明するものである。

Claims (8)

  1. 物体によって生成される振動をキャプチャーするデバイスであって、
    前記デバイスは、
    前記物体の表面に接触する第1センサーと、
    前記物体および前記第1センサーから間隔を置かれ、かつ前記物体に相対して位置される第2センサーと、
    前記物体に前記デバイスを固定するための固定エレメントと、備え、
    前記第1センサーは前記固定エレメントにより前記物体に接触して配置され、前記第2センサーは、前記固定エレメントにより前記物体に相対して位置される、デバイス。
  2. 前記第1センサーは、前記固定エレメントにおいて前記物体の振動をキャプチャーする、請求項1に記載のデバイス。
  3. 前記第1センサーは、圧電センサーエレメントである、請求項1に記載のデバイス。
  4. 前記第2センサーは、コイルセンサーである、請求項1に記載のデバイス。
  5. 前記コイルセンサーは、音楽楽器の表面に配置される磁石に相対して固定される、請求項4に記載のデバイス。
  6. 前記物体は、ドラムであり、前記第1センサーは、前記ドラムのリムに接触し、前記第2センサーは、前記ドラムのヘッドの上に吊るされる、請求項1に記載のデバイス。
  7. 前記固定エレメントは、クランプであり、当該クランプは前記ドラムのリムの上面にインターフェースする第1締め付け面と、前記ドラムのリムの底面にインターフェースする第2締め付け面とを有し、前記上面は、前記第1センサーを含み、前記底面は、ドラムリムの第1タイプを掴む第1部分、および、ドラムリムの第2タイプを掴む第2部分を有する、請求項6に記載のデバイス。
  8. 前記第2センサーからの信号と、前記第1センサーからの信号をミキシングするミキシング回路、および、ミックス信号を転送する出力をさらに備える、請求項1に記載のデバイス。
JP2017536224A 2014-09-25 2015-09-25 オーディオをキャプチャーし、解釈するシステムと方法 Active JP6814146B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201462055024P 2014-09-25 2014-09-25
US201462055037P 2014-09-25 2014-09-25
US62/055,037 2014-09-25
US62/055,024 2014-09-25
US201562193233P 2015-07-16 2015-07-16
US62/193,233 2015-07-16
PCT/US2015/052329 WO2016049513A1 (en) 2014-09-25 2015-09-25 Systems and methods for capturing and interpreting audio

Publications (2)

Publication Number Publication Date
JP2017532614A JP2017532614A (ja) 2017-11-02
JP6814146B2 true JP6814146B2 (ja) 2021-01-13

Family

ID=55585137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017536224A Active JP6814146B2 (ja) 2014-09-25 2015-09-25 オーディオをキャプチャーし、解釈するシステムと方法

Country Status (4)

Country Link
US (4) US9536509B2 (ja)
EP (2) EP3889954B1 (ja)
JP (1) JP6814146B2 (ja)
IL (1) IL251374B (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9061205B2 (en) 2008-07-14 2015-06-23 Activision Publishing, Inc. Music video game with user directed sound generation
US10405163B2 (en) * 2013-10-06 2019-09-03 Staton Techiya, Llc Methods and systems for establishing and maintaining presence information of neighboring bluetooth devices
US11308928B2 (en) 2014-09-25 2022-04-19 Sunhouse Technologies, Inc. Systems and methods for capturing and interpreting audio
US9672802B2 (en) * 2015-02-04 2017-06-06 John MUZZIO Electronic drums
CN107534564A (zh) * 2015-02-26 2018-01-02 第二屏幕创投有限公司 用于媒体播放期间使信息与媒体相关联的系统及方法
WO2016142002A1 (en) * 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
BE1023229B1 (nl) * 2015-06-30 2017-01-05 Van Den Broeck Bram Stemmen van een trommel
US9715870B2 (en) 2015-10-12 2017-07-25 International Business Machines Corporation Cognitive music engine using unsupervised learning
US9595248B1 (en) * 2015-11-11 2017-03-14 Doug Classe Remotely operable bypass loop device and system
GB2548321B (en) * 2016-01-26 2019-10-09 Melville Wernick William Percussion instrument and signal processor
US9779706B2 (en) * 2016-02-18 2017-10-03 University Of Rochester Context-dependent piano music transcription with convolutional sparse coding
JP6601303B2 (ja) * 2016-04-20 2019-11-06 ヤマハ株式会社 収音装置および音響処理装置
JP6520807B2 (ja) * 2016-04-20 2019-05-29 ヤマハ株式会社 収音装置および音響処理装置
US11080591B2 (en) 2016-09-06 2021-08-03 Deepmind Technologies Limited Processing sequences using convolutional neural networks
EP3497629B1 (en) 2016-09-06 2020-11-04 Deepmind Technologies Limited Generating audio using neural networks
JP6544330B2 (ja) * 2016-09-26 2019-07-17 カシオ計算機株式会社 電子打楽器
CN110023963B (zh) 2016-10-26 2023-05-30 渊慧科技有限公司 使用神经网络处理文本序列
CN106409272B (zh) * 2016-11-18 2023-11-10 徐州芯特智能装备有限公司 感应式可视化铜鼓系统
US10529313B2 (en) 2017-01-04 2020-01-07 Union and Company Systems and methods for providing contactless sensing of percussion instruments
US20180276540A1 (en) * 2017-03-22 2018-09-27 NextEv USA, Inc. Modeling of the latent embedding of music using deep neural network
US10950138B1 (en) * 2017-04-12 2021-03-16 Herron Holdings Group LLC Drumming fitness system and method
EP3428911B1 (en) * 2017-07-10 2021-03-31 Harman International Industries, Incorporated Device configurations and methods for generating drum patterns
USD881984S1 (en) 2018-01-04 2020-04-21 Roland Corporation Percussion detecting device
JP7141217B2 (ja) * 2018-01-17 2022-09-22 ローランド株式会社 収音装置
EP3751556A4 (en) 2018-02-05 2021-09-08 Yamaha Corporation SIGNAL OUTPUT DEVICE
JP2019148623A (ja) * 2018-02-26 2019-09-05 ローランド株式会社 電子打楽器
US10186247B1 (en) * 2018-03-13 2019-01-22 The Nielsen Company (Us), Llc Methods and apparatus to extract a pitch-independent timbre attribute from a media signal
US10909959B2 (en) * 2018-05-24 2021-02-02 Inmusic Brands, Inc. Systems and methods for active crosstalk detection in an electronic percussion instrument
GB2595621B (en) * 2018-08-07 2022-07-06 Sonuus Ltd Electronic drums
US20210279603A1 (en) * 2018-12-13 2021-09-09 SparkCognition, Inc. Security systems and methods
US10940390B2 (en) * 2019-02-21 2021-03-09 Evga Corporation Audio information processing method
TWI743472B (zh) * 2019-04-25 2021-10-21 逢甲大學 虛擬電子樂器系統及其運作方法
KR102081854B1 (ko) * 2019-08-01 2020-02-26 전자부품연구원 3d edm을 이용한 수어 또는 제스처 인식 방법 및 장치
DE202019104371U1 (de) * 2019-08-08 2020-11-10 Roland Meinl Musikinstrumente Gmbh & Co. Kg Becken-Tonabnehmervorrichtung
WO2021113225A1 (en) * 2019-12-05 2021-06-10 Sunhouse Technologies, Inc. Systems and methods for capturing and interpreting audio
GB2597462B (en) 2020-07-21 2023-03-01 Rt Sixty Ltd Evaluating percussive performances
CN218729866U (zh) 2021-04-13 2023-03-24 达达里奥有限公司 电子打击乐器
CN115862655A (zh) * 2021-09-24 2023-03-28 祖玛视频通讯公司 一次性声学回声生成网络
GB202209993D0 (en) * 2022-07-07 2022-08-24 Geissen Ltd Device for processing the sound of an instrument

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4242937A (en) 1979-02-08 1981-01-06 Pozar Cleve F Pickup assembly for percussion instrument
FR2602607B1 (fr) * 1986-08-08 1993-01-22 Tatoni Serge Instrument de musique acousto-electrophonique
US4984498A (en) 1987-10-26 1991-01-15 Lawrence Fishman Percussion transducer
US5042356A (en) 1989-07-06 1991-08-27 Karch Jeffrey M Kit for converting a conventional drum into an electronically triggered drum
US6756535B1 (en) 1996-07-04 2004-06-29 Roland Corporation Electronic percussion instrumental system and percussion detecting apparatus therein
JP3228133B2 (ja) 1996-07-16 2001-11-12 ヤマハ株式会社 テーブル型電子打楽器
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US5899969A (en) 1997-10-17 1999-05-04 Dolby Laboratories Licensing Corporation Frame-based audio coding with gain-control words
US20010044719A1 (en) 1999-07-02 2001-11-22 Mitsubishi Electric Research Laboratories, Inc. Method and system for recognizing, indexing, and searching acoustic signals
JP4190129B2 (ja) 2000-03-10 2008-12-03 ローランド株式会社 電子打楽器
US6632989B2 (en) 2000-08-22 2003-10-14 Roland Corporation Electronic pad with vibration isolation features
JP2002196753A (ja) 2000-12-27 2002-07-12 Roland Corp 電子パッド
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7295977B2 (en) 2001-08-27 2007-11-13 Nec Laboratories America, Inc. Extracting classifying data in music from an audio bitstream
US7132597B2 (en) 2002-02-26 2006-11-07 Taylor-Listug, Inc. Transducer for converting between mechanical vibration and electrical signal
JP3933566B2 (ja) 2002-12-17 2007-06-20 ローランド株式会社 電子打楽器および振動検出装置
US6794569B2 (en) * 2003-01-14 2004-09-21 Roland Corporation Acoustic instrument triggering device and method
US7078610B2 (en) 2003-04-04 2006-07-18 Roland Corporation Electronic percussion instrument
JP4124343B2 (ja) 2003-04-11 2008-07-23 ローランド株式会社 電子打楽器
EP1620811A1 (en) 2003-04-24 2006-02-01 Koninklijke Philips Electronics N.V. Parameterized temporal feature analysis
JP2004325908A (ja) 2003-04-25 2004-11-18 Yamaha Corp 打楽器の集音装置
DE10330967B4 (de) 2003-07-08 2005-11-24 Hasenmaier, Jürgen Tonabnehmer oder Sender zur Tonaufnahme eines elektrischen Signales von einer akustischen Trommel
JP4086769B2 (ja) 2003-12-12 2008-05-14 ローランド株式会社 ピックアップ装置
JP4190426B2 (ja) 2004-01-08 2008-12-03 ローランド株式会社 電子打楽器
JP4183626B2 (ja) * 2004-01-08 2008-11-19 ローランド株式会社 電子打楽器
DE602004010188T2 (de) 2004-03-12 2008-09-11 Nokia Corp. Synthese eines mono-audiosignals aus einem mehrkanal-audiosignal
JP4144564B2 (ja) * 2004-05-25 2008-09-03 ヤマハ株式会社 電子ドラム
JP4989465B2 (ja) 2004-05-27 2012-08-01 アスプランド,マーク,ウィリアム 改良型ドラム
US20060021495A1 (en) * 2004-08-02 2006-02-02 Freitas Paul J Electric percussion instruments
GB2419433A (en) 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
US7468483B2 (en) 2005-01-19 2008-12-23 Roland Corporation Electronic percussion instrument and displacement detection apparatus
JP4678317B2 (ja) 2005-03-31 2011-04-27 ヤマハ株式会社 打撃検出装置
US9343048B2 (en) * 2005-05-16 2016-05-17 James Frederick Shepherd Drum rim raising device with a piezoelectric sensor and a force sensor
JP2008546012A (ja) 2005-05-27 2008-12-18 オーディエンス,インコーポレイテッド オーディオ信号の分解および修正のためのシステムおよび方法
EP1941486B1 (en) 2005-10-17 2015-12-23 Koninklijke Philips N.V. Method of deriving a set of features for an audio input signal
US7612273B2 (en) 2006-03-20 2009-11-03 Roland Corporation Electronic percussion instrument
US8526767B2 (en) 2008-05-01 2013-09-03 Atmel Corporation Gesture recognition
US8254839B2 (en) * 2008-10-23 2012-08-28 Hsien Chao-Ying Signal transmitting device for drums
WO2010096279A2 (en) 2009-02-17 2010-08-26 Omek Interactive , Ltd. Method and system for gesture recognition
US9285983B2 (en) 2010-06-14 2016-03-15 Amx Llc Gesture recognition using neural networks
JP2012014003A (ja) 2010-07-01 2012-01-19 Roland Corp 打楽器用打撃検出装置
EP2588972A4 (en) 2010-07-01 2014-06-11 METHOD AND APPARATUS FOR ADAPTING A CONTEXT MODEL
US20130090926A1 (en) 2011-09-16 2013-04-11 Qualcomm Incorporated Mobile device context information using speech detection
US20130077820A1 (en) 2011-09-26 2013-03-28 Microsoft Corporation Machine learning gesture detection
JP5897895B2 (ja) 2011-12-14 2016-04-06 ローランド株式会社 打楽器
US9495591B2 (en) * 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme
US8546678B1 (en) 2012-06-22 2013-10-01 Scott STEVENS Compact electronic timpani
JP6017687B2 (ja) * 2012-06-29 2016-11-02 ノキア テクノロジーズ オーユー オーディオ信号分析
US9202451B2 (en) * 2012-07-05 2015-12-01 Ai-Musics Technology Inc. Detachable electronic drum
DE102013102302B4 (de) 2013-03-08 2014-11-20 Manfred Falter Verfahren und Vorrichtung zur Dämpfung eines Membranophons, sowie bevorzugte Verwendung bei der kleinen akustischen Trommel eines Schlagzeugs
US9060052B2 (en) * 2013-03-13 2015-06-16 Accusonus S.A. Single channel, binaural and multi-channel dereverberation
US9137594B2 (en) * 2013-04-05 2015-09-15 Sennheiser Electronic Gmbh & Co. Kg Microphone unit
JP2015068912A (ja) * 2013-09-27 2015-04-13 ローランド株式会社 音源制御情報生成装置およびプログラム
GB201412378D0 (en) 2014-07-11 2014-08-27 Book Case Music Ltd Electronic percussion instruments and triggers
AU2015320353C1 (en) * 2014-09-25 2021-07-15 Sunhouse Technologies, Inc. Systems and methods for capturing and interpreting audio

Also Published As

Publication number Publication date
US10283101B2 (en) 2019-05-07
US20160093278A1 (en) 2016-03-31
US9536509B2 (en) 2017-01-03
EP3889954A1 (en) 2021-10-06
EP3889954B1 (en) 2024-05-08
IL251374B (en) 2021-03-25
IL251374A0 (en) 2017-05-29
US20170103743A1 (en) 2017-04-13
EP3198247A4 (en) 2018-07-04
EP3198247B1 (en) 2021-03-17
US20180068646A1 (en) 2018-03-08
EP3198247A1 (en) 2017-08-02
JP2017532614A (ja) 2017-11-02
US20190259361A1 (en) 2019-08-22
US9805703B2 (en) 2017-10-31

Similar Documents

Publication Publication Date Title
JP6814146B2 (ja) オーディオをキャプチャーし、解釈するシステムと方法
AU2021205035B2 (en) Systems and methods for capturing and interpreting audio
US11308928B2 (en) Systems and methods for capturing and interpreting audio
US8450592B2 (en) Method and a system for providing sound generation instructions
Turchet et al. Real-time hit classification in a Smart Cajón
Tindale et al. Retrieval of percussion gestures using timbre classification techniques.
US20200279544A1 (en) Techniques for controlling the expressive behavior of virtual instruments and related systems and methods
Chordia Segmentation and Recognition of Tabla Strokes.
CN107533848B (zh) 用于话音恢复的系统和方法
EP3255904A1 (en) Distributed audio mixing
Jathal Real-time timbre classification for tabletop hand drumming
US20220199059A1 (en) Systems and methods for capturing and interpreting audio
Van Rooyen et al. Pragmatic drum motion capture system.
Prockup et al. Toward Understanding Expressive Percussion Through Content Based Analysis.
Elliott et al. Analysing multi-person timing in music and movement: event based methods
Tindale et al. Towards timbre recognition of percussive sounds
Krzyzaniak et al. Realtime classification of hand-drum strokes.
Ramires Automatic Transcription of Drums and Vocalised percussion
US9767774B2 (en) Synthesizer with cymbal actuator
Ramires Automatic transcription of vocalized percussion
US11501745B1 (en) Musical instrument pickup signal processing system
Sinha Wireless Real-Time Drum Triggering
Tzanetakis et al. Learning indirect acquisition of instrumental gestures using direct sensors
Krzyzaniak et al. Timbral Self-Evaluation by Musical Robots
İzmirli et al. Imitation Framework for Percussion.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201218

R150 Certificate of patent or registration of utility model

Ref document number: 6814146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250