JP2017511896A - スパイキングニューラルネットワークにおける聴覚ソース分離 - Google Patents
スパイキングニューラルネットワークにおける聴覚ソース分離 Download PDFInfo
- Publication number
- JP2017511896A JP2017511896A JP2016551305A JP2016551305A JP2017511896A JP 2017511896 A JP2017511896 A JP 2017511896A JP 2016551305 A JP2016551305 A JP 2016551305A JP 2016551305 A JP2016551305 A JP 2016551305A JP 2017511896 A JP2017511896 A JP 2017511896A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- audio signal
- source
- spiking event
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000012421 spiking Methods 0.000 title claims abstract description 95
- 238000000926 separation method Methods 0.000 title claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 title description 28
- 230000005236 sound signal Effects 0.000 claims abstract description 114
- 238000000034 method Methods 0.000 claims abstract description 65
- 238000012545 processing Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 210000002569 neuron Anatomy 0.000 description 129
- 230000001537 neural effect Effects 0.000 description 35
- 230000000946 synaptic effect Effects 0.000 description 35
- 230000006870 function Effects 0.000 description 27
- 210000000225 synapse Anatomy 0.000 description 24
- 239000012528 membrane Substances 0.000 description 20
- 239000011295 pitch Substances 0.000 description 19
- 230000001242 postsynaptic effect Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 10
- 239000000203 mixture Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000027928 long-term synaptic potentiation Effects 0.000 description 7
- 210000005215 presynaptic neuron Anatomy 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000036982 action potential Effects 0.000 description 5
- 230000002964 excitative effect Effects 0.000 description 5
- 230000010355 oscillation Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010304 firing Methods 0.000 description 4
- 230000002401 inhibitory effect Effects 0.000 description 4
- 230000003956 synaptic plasticity Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 239000003990 capacitor Substances 0.000 description 3
- 230000007585 cortical function Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003518 presynaptic effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 240000002627 Cordeauxia edulis Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 210000005056 cell body Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 230000009534 synaptic inhibition Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003376 axonal effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000028161 membrane depolarization Effects 0.000 description 1
- 230000025350 membrane depolarization involved in regulation of action potential Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000008062 neuronal firing Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
[0001]本出願は、2014年2月14日に出願された、「AUDITORY SOURCE SEPARATION IN A SPIKING NEURAL NETWORK」と題する米国仮特許出願第61/940,281号の利益を主張し、その開示は参照によりその全体が本明細書に明確に組み込まれる。
[0024]図1は、本開示のいくつかの態様による、複数のレベルのニューロンをもつ例示的な人工ニューラルシステム100を示す。ニューラルシステム100は、シナプス結合のネットワーク104(すなわち、フィードフォワード結合)を介してニューロンの別のレベル106に結合されたニューロンのあるレベル102を有し得る。簡単のために、図1には2つのレベルのニューロンのみが示されているが、ニューラルシステムには、より少ないまたはより多くのレベルのニューロンが存在し得る。ニューロンのいくつかは、ラテラル結合を介して同じ層の他のニューロンに結合し得ることに留意されたい。さらに、ニューロンのいくつかは、フィードバック結合を介して前の層のニューロンに戻る形で結合し得る。
[0036]ニューラルネットワークのハードウェアおよびソフトウェアモデルでは、シナプス関係機能の処理がシナプスタイプに基づき得る。シナプスタイプは、非塑性シナプス(non-plastic synapse)(重みおよび遅延の変化がない)と、可塑性シナプス(重みが変化し得る)と、構造遅延可塑性シナプス(重みおよび遅延が変化し得る)と、完全可塑性シナプス(重み、遅延および結合性が変化し得る)と、それの変形(たとえば、遅延は変化し得るが、重みまたは結合性の変化はない)であり得る。複数のタイプの利点は、処理が再分割され得ることである。たとえば、非塑性シナプスは、実行する可塑性機能を(またはそのような機能が完了するのを待つ)使用しない場合がある。同様に、遅延および重み可塑性は、一緒にまたは別々に、順にまたは並列に動作し得る動作に再分割され得る。異なるタイプのシナプスは、適用される異なる可塑性タイプの各々の異なるルックアップテーブルまたは式およびパラメータを有し得る。したがって、本方法は、シナプスのタイプについての関連する表、式、またはパラメータにアクセスする。
[0038]神経可塑性(または単に「可塑性」)は、脳内のニューロンおよびニューラルネットワークがそれらのシナプス結合と挙動とを新しい情報、感覚上の刺激、発展、損傷または機能不全に応答して変える能力である。可塑性は、生物学における学習および記憶にとって、また計算論的神経科学およびニューラルネットワークにとって重要である。(たとえば、Hebb則理論に従う)シナプス可塑性、スパイクタイミング依存可塑性(STDP)、非シナプス可塑性、活性依存可塑性、構造可塑性および恒常的可塑性など、様々な形の可塑性が研究されている。
[0045]有用なスパイキングニューロンモデルを設計するための一般的原理がいくつかある。良いニューロンモデルは、2つの計算レジーム、すなわち、一致検出および関数計算の点で豊かな潜在的挙動を有し得る。その上、良いニューロンモデルは、時間コーディングを可能にするための2つの要素を有する必要がある:入力の到着時間は出力時間に影響を与え、一致検出は狭い時間ウィンドウを有し得る。最終的に、計算上魅力的であるために、良いニューロンモデルは、連続時間に閉形式解と、ニアアトラクター(near attractor)と鞍点とを含む安定した挙動とを有し得る。言い換えれば、有用なニューロンモデルは、実用的なニューロンモデルであり、豊かで、現実的で、生物学的に一貫した挙動をモデル化するために使用され得、神経回路のエンジニアリングとリバースエンジニアリングの両方を行うために使用され得るニューロンモデルである。
[0049]Hunzinger Coldニューロンモデルは、豊かな様々な神経挙動を再生し得る最小二重レジームスパイキング線形動的モデルである。モデルの1次元または2次元の線形ダイナミクスは2つのレジームを有することができ、時間定数(および結合)はレジームに依存し得る。しきい値下レジームでは、時間定数は、慣例により負であり、一般に生物学的に一貫した線形方式で静止状態に細胞を戻す役目を果たすリーキーチャネルダイナミクスを表す。しきい値上レジームにおける時間定数は、慣例により正であり、一般にスパイク生成のレイテンシを生じさせる一方でスパイク状態に細胞を駆り立てる反リーキーチャネルダイナミクスを反映する。
qρ=−τρβu−vρ (7)
r=δ(v+ε) (8)
であり、δ、ε、βおよびv-、v+はパラメータである。vρのための2つの値は、2つのレジームのための参照電圧のベースである。パラメータv-は、負レジームのためのベース電圧であり、膜電位は一般に、負レジームにおいてv-に減衰する。パラメータv+は、正レジームのためのベース電圧であり、膜電位は一般に、正レジームにおいてv+から離れる傾向となる。
[0064]聴覚ソースに従う混合信号の分離は、有益であり広範囲に適用可能である。たとえば、聴覚ソース分離は、音声分離を提供して、音声強調に役立ち、また音声アクティビティ検出に役立ち得る。しかしながら、モノラルの、監視されていない、オンライン聴覚ソース分離は、コンピュータオーディション(computer audition)の課題である。したがって、本開示の態様は、時間的コヒーレンスベースのソース分離のベースのスパイクベースの実装形態を対象とする。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
オーディオソース分離の方法であって、
オーディオ信号のオーディオ属性を選択することと、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表すことと、
前記オーディオ信号の残りの部分を少なくとも1つのオーディオ信号スパイキング事象として表すことと、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定することと、
を備える、方法。
[C2]
前記決定することが、時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づく、C1に記載の方法。
[C3]
前記オーディオ属性がピッチである、C1に記載の方法。
[C4]
前記オーディオ属性が空間的位置である、C1に記載の方法。
[C5]
前記決定することが、話す速度に少なくとも部分的に基づく、C1に記載の方法。
[C6]
前記単一のソースがアンカーを備え、前記アンカーが、指定された範囲内のバンドパスフィルタ出力を識別するために、少なくとも1つのバンドパスフィルタを使用して処理される、C1に記載の方法。
[C7]
前記処理することが定期的に行われる、C6に記載の方法。
[C8]
オーディオソース分離のための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサが、
オーディオ信号のオーディオ属性を選択し、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表し、
前記オーディオ信号の残りの部分を少なくとも1つのオーディオ信号スパイキング事象として表し、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定する、
ように構成される、装置。
[C9]
前記少なくとも1つのプロセッサが、時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するようにさらに構成される、C8に記載の装置。
[C10]
前記オーディオ属性がピッチである、C8に記載の装置。
[C11]
前記オーディオ属性が空間的位置である、C8に記載の装置。
[C12]
前記少なくとも1つのプロセッサが、話す速度に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するようにさらに構成される、C8に記載の装置。
[C13]
前記単一のソースがアンカーを備え、前記少なくとも1つのプロセッサが、指定された範囲内のバンドパスフィルタ出力を識別するために、少なくとも1つのバンドパスフィルタを使用して前記アンカーを処理するようにさらに構成される、C8に記載の装置。
[C14]
前記少なくとも1つのプロセッサが、前記アンカーを定期的に処理するようにさらに構成される、C13に記載の装置。
[C15]
オーディオソース分離のための装置であって、
オーディオ信号のオーディオ属性を選択するための手段と、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表すための手段と、
前記オーディオ信号の残りの部分を少なくとも1つのオーディオ信号スパイキング事象として表すための手段と、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するための手段と、
を備える、装置。
[C16]
決定する前記手段が、時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかをさらに決定する、C15に記載の装置。
[C17]
前記オーディオ属性がピッチである、C15に記載の装置。
[C18]
オーディオソース分離のためのコンピュータプログラム製品であって、
プログラムコードを符号化した非一時的コンピュータ可読媒体を備え、前記プログラムコードが、
オーディオ信号のオーディオ属性を選択するためのプログラムコードと、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表すためのプログラムコードと、
前記オーディオ信号の残りの部分を、少なくとも1つのオーディオ信号スパイキング事象として表すためのプログラムコードと、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するためのプログラムコードと、
を備える、コンピュータプログラム製品。
[C19]
時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するためのプログラムコードをさらに備える、C18に記載のコンピュータプログラム製品。
[C20]
前記オーディオ属性がピッチである、C18に記載のコンピュータプログラム製品。
Claims (20)
- オーディオソース分離の方法であって、
オーディオ信号のオーディオ属性を選択することと、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表すことと、
前記オーディオ信号の残りの部分を少なくとも1つのオーディオ信号スパイキング事象として表すことと、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定することと、
を備える、方法。 - 前記決定することが、時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づく、請求項1に記載の方法。
- 前記オーディオ属性がピッチである、請求項1に記載の方法。
- 前記オーディオ属性が空間的位置である、請求項1に記載の方法。
- 前記決定することが、話す速度に少なくとも部分的に基づく、請求項1に記載の方法。
- 前記単一のソースがアンカーを備え、前記アンカーが、指定された範囲内のバンドパスフィルタ出力を識別するために、少なくとも1つのバンドパスフィルタを使用して処理される、請求項1に記載の方法。
- 前記処理することが定期的に行われる、請求項6に記載の方法。
- オーディオソース分離のための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサが、
オーディオ信号のオーディオ属性を選択し、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表し、
前記オーディオ信号の残りの部分を少なくとも1つのオーディオ信号スパイキング事象として表し、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定する、
ように構成される、装置。 - 前記少なくとも1つのプロセッサが、時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するようにさらに構成される、請求項8に記載の装置。
- 前記オーディオ属性がピッチである、請求項8に記載の装置。
- 前記オーディオ属性が空間的位置である、請求項8に記載の装置。
- 前記少なくとも1つのプロセッサが、話す速度に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するようにさらに構成される、請求項8に記載の装置。
- 前記単一のソースがアンカーを備え、前記少なくとも1つのプロセッサが、指定された範囲内のバンドパスフィルタ出力を識別するために、少なくとも1つのバンドパスフィルタを使用して前記アンカーを処理するようにさらに構成される、請求項8に記載の装置。
- 前記少なくとも1つのプロセッサが、前記アンカーを定期的に処理するようにさらに構成される、請求項13に記載の装置。
- オーディオソース分離のための装置であって、
オーディオ信号のオーディオ属性を選択するための手段と、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表すための手段と、
前記オーディオ信号の残りの部分を少なくとも1つのオーディオ信号スパイキング事象として表すための手段と、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するための手段と、
を備える、装置。 - 決定する前記手段が、時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかをさらに決定する、請求項15に記載の装置。
- 前記オーディオ属性がピッチである、請求項15に記載の装置。
- オーディオソース分離のためのコンピュータプログラム製品であって、
プログラムコードを符号化した非一時的コンピュータ可読媒体を備え、前記プログラムコードが、
オーディオ信号のオーディオ属性を選択するためのプログラムコードと、
単一のソースによって支配される前記オーディオ属性の一部を、少なくとも1つのソーススパイキング事象として表すためのプログラムコードと、
前記オーディオ信号の残りの部分を、少なくとも1つのオーディオ信号スパイキング事象として表すためのプログラムコードと、
前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象との一致に少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するためのプログラムコードと、
を備える、コンピュータプログラム製品。 - 時間ウィンドウ内に発生する前記少なくとも1つのソーススパイキング事象と、前記少なくとも1つのオーディオ信号スパイキング事象とに少なくとも部分的に基づいて、前記残りの部分が前記単一のソースと一致するかどうかを決定するためのプログラムコードをさらに備える、請求項18に記載のコンピュータプログラム製品。
- 前記オーディオ属性がピッチである、請求項18に記載のコンピュータプログラム製品。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461940281P | 2014-02-14 | 2014-02-14 | |
US61/940,281 | 2014-02-14 | ||
US14/286,556 | 2014-05-23 | ||
US14/286,556 US9269045B2 (en) | 2014-02-14 | 2014-05-23 | Auditory source separation in a spiking neural network |
PCT/US2015/015697 WO2015123460A1 (en) | 2014-02-14 | 2015-02-12 | Auditory source separation in a spiking neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017511896A true JP2017511896A (ja) | 2017-04-27 |
JP2017511896A5 JP2017511896A5 (ja) | 2018-03-08 |
Family
ID=53798400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016551305A Ceased JP2017511896A (ja) | 2014-02-14 | 2015-02-12 | スパイキングニューラルネットワークにおける聴覚ソース分離 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9269045B2 (ja) |
EP (1) | EP3105717A1 (ja) |
JP (1) | JP2017511896A (ja) |
KR (1) | KR20160123312A (ja) |
CN (1) | CN105981056A (ja) |
WO (1) | WO2015123460A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10063965B2 (en) | 2016-06-01 | 2018-08-28 | Google Llc | Sound source estimation using neural networks |
US9992570B2 (en) | 2016-06-01 | 2018-06-05 | Google Llc | Auralization for multi-microphone devices |
WO2022086196A1 (ko) * | 2020-10-22 | 2022-04-28 | 가우디오랩 주식회사 | 기계 학습 모델을 이용하여 복수의 신호 성분을 포함하는 오디오 신호 처리 장치 |
KR102574165B1 (ko) * | 2022-02-23 | 2023-09-01 | 고려대학교 산학협력단 | 스파이킹 신경망에서 신경 암호 기반 소리 분류 장치 및 그 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009230337A (ja) * | 2008-03-21 | 2009-10-08 | Nagoya Institute Of Technology | 複数音識別装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2452945C (en) * | 2003-09-23 | 2016-05-10 | Mcmaster University | Binaural adaptive hearing system |
WO2006000103A1 (en) | 2004-06-29 | 2006-01-05 | Universite De Sherbrooke | Spiking neural network and use thereof |
CA2642041C (en) * | 2005-12-23 | 2014-07-15 | Le Tan Thanh Tai | Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer |
US20100081958A1 (en) | 2006-10-02 | 2010-04-01 | She Christy L | Pulse-based feature extraction for neural recordings |
US8566088B2 (en) * | 2008-11-12 | 2013-10-22 | Scti Holdings, Inc. | System and method for automatic speech to text conversion |
US8412525B2 (en) * | 2009-04-30 | 2013-04-02 | Microsoft Corporation | Noise robust speech classifier ensemble |
US8417703B2 (en) | 2009-11-03 | 2013-04-09 | Qualcomm Incorporated | Data searching using spatial auditory cues |
US10453479B2 (en) * | 2011-09-23 | 2019-10-22 | Lessac Technologies, Inc. | Methods for aligning expressive speech utterances with text and systems therefor |
US9111225B2 (en) | 2012-02-08 | 2015-08-18 | Qualcomm Incorporated | Methods and apparatus for spiking neural computation |
KR101963440B1 (ko) | 2012-06-08 | 2019-03-29 | 삼성전자주식회사 | 복수의 뉴런 회로들을 이용하여 음원의 방향을 추정하는 뉴로모픽 신호 처리 장치 및 그 장치를 이용한 방법 |
US8977582B2 (en) * | 2012-07-12 | 2015-03-10 | Brain Corporation | Spiking neuron network sensory processing apparatus and methods |
US20140129495A1 (en) * | 2012-11-06 | 2014-05-08 | Qualcomm Incorporated | Methods and apparatus for transducing a signal into a neuronal spiking representation |
US9147157B2 (en) * | 2012-11-06 | 2015-09-29 | Qualcomm Incorporated | Methods and apparatus for identifying spectral peaks in neuronal spiking representation of a signal |
-
2014
- 2014-05-23 US US14/286,556 patent/US9269045B2/en active Active
-
2015
- 2015-02-12 KR KR1020167023084A patent/KR20160123312A/ko not_active Application Discontinuation
- 2015-02-12 JP JP2016551305A patent/JP2017511896A/ja not_active Ceased
- 2015-02-12 WO PCT/US2015/015697 patent/WO2015123460A1/en active Application Filing
- 2015-02-12 EP EP15706633.3A patent/EP3105717A1/en not_active Withdrawn
- 2015-02-12 CN CN201580008280.3A patent/CN105981056A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009230337A (ja) * | 2008-03-21 | 2009-10-08 | Nagoya Institute Of Technology | 複数音識別装置 |
Non-Patent Citations (1)
Title |
---|
内海嘉宏他: "聴覚障害者のためのパルスニューラルネットワークを用いた音源識別システム", 電子情報通信学会技術研究報告, vol. 108, no. 480, JPN6018045059, March 2009 (2009-03-01), pages 7 - 12 * |
Also Published As
Publication number | Publication date |
---|---|
US20150235125A1 (en) | 2015-08-20 |
KR20160123312A (ko) | 2016-10-25 |
US9269045B2 (en) | 2016-02-23 |
CN105981056A (zh) | 2016-09-28 |
EP3105717A1 (en) | 2016-12-21 |
WO2015123460A1 (en) | 2015-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6130056B2 (ja) | スパイキングネットワークの効率的なハードウェア実装 | |
JP2017511936A (ja) | 現在の計算リソースへのニューラルネットワーク適応 | |
JP2017513127A (ja) | スパイキング深層信念ネットワーク(dbn)におけるトレーニング、認識、および生成 | |
JP2017509952A (ja) | シャドウネットワークでニューラルネットワークを監視すること | |
JP2017509982A (ja) | 原位置ニューラルネットワークコプロセッシング | |
JP6227783B2 (ja) | ニューラルデバイスのトレーニングを調節するための方法および装置 | |
JP2017509953A (ja) | 低スパイキングレートのためのニューラルネットワークを構成すること | |
JP2016538632A (ja) | 教師あり学習を使用してクラスにタグ付けするための方法および装置 | |
JP6142097B1 (ja) | 写真画像内の瞬きおよび逸視回避 | |
JP2016539414A (ja) | スパイキングニューラルネットワークにおいてリプレーを使用するシナプス学習を実装すること | |
JP2017529592A (ja) | 非同期パルス変調を用いた人工ニューロンおよびスパイキングニューロン | |
JP2017519268A (ja) | スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること | |
JP2016538633A (ja) | 多次元範囲にわたって分離可能なサブシステムを含むシステムの評価 | |
KR20160123309A (ko) | 확률적 스파이킹 베이지안망들에 대한 이벤트-기반 추론 및 학습 | |
JP2017509980A (ja) | 動的な空間ターゲット選択 | |
JP2017511896A (ja) | スパイキングニューラルネットワークにおける聴覚ソース分離 | |
KR20160135206A (ko) | 역치하 변조를 통한 아날로그 신호 재구성 및 인식 | |
JP2017507397A (ja) | 自動エラー訂正のための同時レイテンシおよびレートコーディング | |
KR20160125967A (ko) | 일반적인 뉴런 모델들의 효율적인 구현을 위한 방법 및 장치 | |
JP6096388B2 (ja) | ニューラルネットワークモデルにおけるドップラー効果処理 | |
JP6133517B2 (ja) | 座標変換のための位相コーディング | |
Bos et al. | Sub-mW Neuromorphic SNN audio processing applications with Rockpool and Xylo | |
JP2017509956A (ja) | 値をスパイクに変換するための方法 | |
Sadovsky et al. | Speech command recognition based on convolutional spiking neural networks | |
JP2017509979A (ja) | 空間ターゲット選択のためのアンバランスな交差抑制メカニズム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181106 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181120 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20190326 |