TWI779418B - 讀取一人工循環神經網路之輸出之方法及其電腦可讀取儲存媒體 - Google Patents
讀取一人工循環神經網路之輸出之方法及其電腦可讀取儲存媒體 Download PDFInfo
- Publication number
- TWI779418B TWI779418B TW109143863A TW109143863A TWI779418B TW I779418 B TWI779418 B TW I779418B TW 109143863 A TW109143863 A TW 109143863A TW 109143863 A TW109143863 A TW 109143863A TW I779418 B TWI779418 B TW I779418B
- Authority
- TW
- Taiwan
- Prior art keywords
- topological
- neural network
- topological elements
- recurrent neural
- elements
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 228
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 153
- 230000000306 recurrent effect Effects 0.000 title claims abstract description 130
- 238000012545 processing Methods 0.000 claims description 174
- 238000004364 calculation method Methods 0.000 claims description 62
- 230000000694 effects Effects 0.000 claims description 55
- 230000004044 response Effects 0.000 claims description 54
- 238000009826 distribution Methods 0.000 claims description 22
- 230000001747 exhibiting effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 abstract description 12
- 210000004556 brain Anatomy 0.000 description 166
- 230000008569 process Effects 0.000 description 144
- 230000001149 cognitive effect Effects 0.000 description 109
- 210000002569 neuron Anatomy 0.000 description 94
- 230000001537 neural effect Effects 0.000 description 65
- 230000000946 synaptic effect Effects 0.000 description 53
- 210000000225 synapse Anatomy 0.000 description 52
- 210000005013 brain tissue Anatomy 0.000 description 49
- 230000006870 function Effects 0.000 description 41
- 230000005540 biological transmission Effects 0.000 description 35
- 238000004422 calculation algorithm Methods 0.000 description 34
- 230000001953 sensory effect Effects 0.000 description 33
- 230000007246 mechanism Effects 0.000 description 32
- 230000003920 cognitive function Effects 0.000 description 30
- 230000003278 mimic effect Effects 0.000 description 27
- 230000019771 cognition Effects 0.000 description 25
- 238000010801 machine learning Methods 0.000 description 21
- 230000002269 spontaneous effect Effects 0.000 description 20
- 230000009471 action Effects 0.000 description 17
- 230000004913 activation Effects 0.000 description 16
- 238000001994 activation Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 238000005457 optimization Methods 0.000 description 10
- 230000008520 organization Effects 0.000 description 9
- 238000001914 filtration Methods 0.000 description 7
- 238000012421 spiking Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 230000009782 synaptic response Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 5
- 125000004122 cyclic group Chemical group 0.000 description 5
- 230000001722 neurochemical effect Effects 0.000 description 5
- 230000004007 neuromodulation Effects 0.000 description 5
- 230000010355 oscillation Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000007429 general method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000003956 synaptic plasticity Effects 0.000 description 4
- 230000005062 synaptic transmission Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002964 excitative effect Effects 0.000 description 3
- 230000002401 inhibitory effect Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000028161 membrane depolarization Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- NTYJJOPFIAHURM-UHFFFAOYSA-N Histamine Chemical compound NCCC1=CN=CN1 NTYJJOPFIAHURM-UHFFFAOYSA-N 0.000 description 2
- 102000004310 Ion Channels Human genes 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 description 2
- 230000000763 evoking effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000012528 membrane Substances 0.000 description 2
- 230000003957 neurotransmitter release Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000005316 response function Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- QZAYGJVTTNCVMB-UHFFFAOYSA-N serotonin Chemical compound C1=C(O)C=C2C(CCN)=CNC2=C1 QZAYGJVTTNCVMB-UHFFFAOYSA-N 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- SFLSHLFXELFNJZ-QMMMGPOBSA-N (-)-norepinephrine Chemical compound NC[C@H](O)C1=CC=C(O)C(O)=C1 SFLSHLFXELFNJZ-QMMMGPOBSA-N 0.000 description 1
- OIPILFWXSMYKGL-UHFFFAOYSA-N acetylcholine Chemical compound CC(=O)OCC[N+](C)(C)C OIPILFWXSMYKGL-UHFFFAOYSA-N 0.000 description 1
- 229960004373 acetylcholine Drugs 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229960003638 dopamine Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 229960001340 histamine Drugs 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003227 neuromodulating effect Effects 0.000 description 1
- 229960002748 norepinephrine Drugs 0.000 description 1
- SFLSHLFXELFNJZ-UHFFFAOYSA-N norepinephrine Natural products NCC(O)C1=CC=C(O)C(O)=C1 SFLSHLFXELFNJZ-UHFFFAOYSA-N 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008560 physiological behavior Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229940076279 serotonin Drugs 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010937 topological data analysis Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Complex Calculations (AREA)
Abstract
用於構建與操作循環人工神經網路之方法、系統及設備,包含在電腦儲
存媒體上編碼之電腦程式。一種方法用於讀取包含多個節點及連接節點之邊緣之人工循環神經網路之輸出,包含:辨識各自包含人工循環神經網路的節點及邊緣之子集的相對複雜的根拓撲元件;辨識各自包含人工循環神經網路的節點及邊緣之子集的相對較簡單的拓撲元件,辨識的相對較簡單的拓撲元件與相對複雜的根拓撲元件至少其中之一呈現層級關係;產生數字的集合,各該數字表示相對複雜的根拓撲元件及相對較簡單的拓撲元件其中之相應一者在一時間窗是否為活動的;及輸出數字的集合。
Description
本說明書是關於用於構建與操作做為一「神經突觸電腦(neurosynaptic computer)」的一循環人工神經網路之方法及過程。
一神經突觸電腦是基於一模擬大腦中的計算之一計算範例。一神經突觸電腦可使用一符號電腦語言,該符號電腦語言將資訊作為由一組層級式決策組成之認知演算法進行處理。一神經突觸電腦可接受各種資料類型之一輸入,將資料轉換為二進制代碼進行輸入,將二進制代碼編碼為一感覺代碼,藉由使用一大腦處理單元模擬對感覺輸入之一響應來處理感覺代碼,將作出的決策編碼為一神經代碼,並解碼神經代碼以產生一目標輸出。描述了一種計算範例,以及使此種新範例適應循環人工神經網路之構造及操作之方法及過程。計算範例基於一神經代碼,一種符號電腦語言。神經代碼對大腦處理單元做出的一系列決策進行編碼,並可用於表示一認知演算法之結果。一神經突觸電腦可在傳統數位電腦上運行之軟體中實施,且在於神經形態計算架構上運行之硬體中實施。一
神經突觸電腦可用於計算、儲存及通訊,並適用於開發廣泛的科學、工程及商業應用。
本說明書描述與構建與操作循環人工神經網路相關之技術。
一般而言,在本說明書中描述之標的物之一個創新態樣可呈現在讀取一人工循環神經網路之輸出之方法中,該人工循環神經網路包含多個節點及連接該多個節點之邊緣,該多個方法包含:辨識一或多個相對複雜的根拓撲元素,該一或多個相對複雜的根拓撲元素各自包含該人工循環神經網路中的該多個節點及該多個邊緣之一子集;辨識多個相對較簡單的拓撲元素,該多個相對較簡單的拓撲元素各自包含該人工循環神經網路中的該多個節點及該多個邊緣之一子集,其中所辨識的該多個相對較簡單的拓撲元素與該多個相對複雜的根拓撲元素的至少其中之一呈現一層級關係;產生多個數字的一集合,其中該多個數字各自表示該多個相對複雜的根拓撲元素及該多個相對較簡單的拓撲元素其中之相應一者在一時間窗期間是否為活動的;以及輸出該多個數字的該集合。
此方法及系統以及其他一般方法及系統可包含以下特徵其中之一或多者。辨識該相對複雜的根拓撲元件可包含:當該人工循環神經網路響應於一輸入時,判斷該相對複雜的根拓撲元件為活動的。辨識與該多個相對複雜的根拓撲元件呈現一層級關係之該多個相對較簡單的拓撲元件可包含:將一輸入資料集輸入至該人工循環神經網路中;以及確定該多個相對較簡單的拓撲元件之活動或不活動與該多個相對複雜的根拓撲元件之活動相關聯。該方法亦可包含定義用於判斷一拓撲元件是否為活動的之多個標準。用於判斷該拓撲元件是否為活動的之該多個標準可基於該拓撲元件中所包含的該多個節點或該多個邊緣
之活動。該方法亦可包含定義用於判斷該人工循環神經網路中之邊緣是否為活動的之多個標準。辨識與該多個相對複雜的根拓撲元件呈現一層級關係之該多個相對較簡單的拓撲元件可包含將該多個相對複雜的根拓撲元件分解成拓撲元件之一集合。辨識與該多個相對複雜的根拓撲元件呈現一層級關係之該多個相對較簡單的拓撲元件可包含:形成該多個相對複雜的根拓撲元件分解成的拓撲元件之一列表;自最複雜的該多個拓撲元件至最不複雜的該多個拓撲元件對該列表進行排序;以及自最複雜的該多個拓撲元件開始,基於關於該多個相對複雜的根拓撲元件之資訊內容,自該列表中選擇該多個相對較簡單的拓撲元件以在該多個數字的該集合中表示。
自該列表中選擇更複雜的該多個拓撲元件以在該多個數字的該集合中表示可包含:判斷自該列表中選擇的該多個相對較簡單的拓撲元件是否足以確定該多個相對複雜的根拓撲元件;以及因應於確定自該列表中選擇的該多個相對較簡單的拓撲元件足以確定該多個相對複雜的根拓撲元件,不再自該列表中選擇相對較簡單的拓撲元件。
一般而言,在本說明書中描述之標的物之另一創新態樣可呈現在讀取一人工循環神經網路之輸出之方法中,該人工循環神經網路包含多個節點及在該多個節點之間形成連接之多個邊緣。該多個方法可包含:定義將自該人工循環神經網路讀取的多個計算結果。定義該多個計算結果可包含:定義用於判斷該人工循環神經網路中之該多個邊緣是否為活動的之多個標準;定義多個拓撲元件,該多個拓撲元件各自包含該人工循環神經網路中該多個邊緣之一適當子集;以及定義用於判斷所定義的該多個拓撲元件各自是否為活動的之多個標準。用於判斷所定義的該多個拓撲元件各自是否為活動的之該多個標準是基於所定
義的該多個拓撲元件中的相應一者中所包含的該多個邊緣之活動。一活動拓撲元件指示相應的一計算結果已經完成。
此方法及系統以及其他一般方法及系統可包含以下特徵其中之一或多者。該方法亦可包含自該人工循環神經網路讀取已完成的該多個計算結果。該方法亦可包含自該人工循環神經網路讀取不完整的計算結果。讀取不完整的計算結果可包含讀取該多個拓撲元件中之對應一者所包含的該多個邊緣之活動,其中該多個邊緣之該活動不滿足用於確定該多個拓撲元件中之該對應一者為活動的之該多個標準。該方法亦可包含估算一計算結果之一完成百分比,其中估算該完成百分比包含確定該多個拓撲元件中之對應一者中所包含的該多個邊緣之一活動分數。用於判斷該人工循環神經網路中之該多個邊緣是否為活動的之該多個標準包含對於給定的一邊緣,要求:由連接至該邊緣之一節點產生一尖峰;由該邊緣將該尖峰傳輸至一接收節點;以及該接收節點對所傳輸之該尖峰產生一響應。
用於判斷該人工循環神經網路中的該多個邊緣是否為活動的之多個標準包含一時間窗,在該時間窗中,該尖峰被產生並被傳送,且該接收節點將產生該響應。用於判斷該人工循環神經網路中的該多個邊緣是否為活動的之該多個標準包含一時間窗,在該時間窗中,二個節點藉由該多個邊緣尖峰進行連接,而無論該二個節點中的哪一者首先出現尖峰。用於判斷該人工循環神經網路中的該多個邊緣是否為活動的之不同的多個標準可被應用於不同的該多個邊緣。定義將自該人工循環神經網路讀取的多個計算結果亦可包含構建該人工循環神經網路之函數圖,其包含:定義時間倉之一集合;創建該人工循環神經網路之多個函數圖,其中每個函數圖僅包含在該多個時間倉中的相應一者內為活動
的之節點;以及基於該人工循環神經網路之該多個函數圖中該多個邊緣之該活動來定義該多個拓撲元件。
該方法亦可包含:將在該多個函數圖中之一第一函數圖中定義的一第一拓撲元件與在該多個函數圖中之一第二函數圖中定義的一第二拓撲元件組合。該第一函數圖及該第二函數圖可包含在不同的時間倉內為活動的之節點。該方法亦可包含在該多個計算結果中包含一或多個全域圖度量(global graph metrics)或元資訊(meta information)。定義將自該人工循環神經網路讀取的該多個計算結果可包含:基於每一拓撲元件在一單個輸入之處理期間及跨一輸入資料集為活動的之次數,選擇將自該人工循環神經網路讀取的該多個拓撲元件之一適當子集。選擇該多個拓撲元件之該適當子集可包含選擇該多個拓撲元件中之一第一拓撲元素,該第一拓撲元素僅對該輸入資料集之一小部分為活動的;以及將該第一拓撲元件指定為一異常指示。選擇該多個拓撲元件之該適當子集可包含:選擇多個拓撲元件,以確保該適當子集包含對於該輸入資料集之不同部分為活動的之拓撲元件之一預定義分佈。定義將自該人工循環神經網路讀取的該多個計算結果亦可包含:基於該多個拓撲元件之一層級佈置,選擇將自該人工循環神經網路中讀取的該多個拓撲元件之一適當子集,其中該多個拓撲元件中之一第一拓撲元件被辨識為一根拓撲元件,且有助於該根拓撲元件之拓撲元件被選擇用於該適當子集。該方法亦可包含辨識多個根拓撲元件,以及選擇有助於該多個根拓撲元件之拓撲元件用於該適當子集。
一般而言,在本說明書中描述之標的物之另一創新態樣可呈現在用於選擇一組元件之過程中,該組元件在一循環神經網路中形成一認知過程。該多個方法可包含:辨識該人工循環神經網路中與相對簡單的拓撲圖型相符之活
動,使用所辨識的相對簡單的拓撲圖型作為一約束來辨識該人工循環神經網路中活動的相對更複雜的拓撲圖型,使用所辨識的相對更複雜的拓撲圖型作為一約束來辨識該人工循環神經網路中相對更進一步複雜的活動拓撲圖型,以及輸出已在該人工循環神經網路中出現之活動的拓撲圖型之辨識。
該方法及系統以及其他一般方法及系統可包含以下特徵其中之一或多者。該人工循環神經網路中所辨識的活動可反映已做出一決策之概率。可輸出對概率之描述。該概率可基於一組神經元中出現尖峰之一部分神經元來確定。該方法亦可包含在辨識活動之拓撲圖型時輸出描述人工循環神經網路之一狀態之元資料。
一般而言,在本說明書中描述之標的物之另一創新態樣可呈現在一人工神經網路系統中,該系統包含用於產生一資料環境之手段,其中用於產生一資料環境之該手段被配置成選擇輸入至一循環神經網路中之資料,一種手段用於對由用於產生輸入至一人工循環神經網路中之資料環境之手段選擇的資料進行編碼,一人工循環神經網路耦合以自用於編碼的該手段接收經編碼的資料,其中該人工循環神經網路對一生物大腦之結構程度進行建模,一輸出編碼器耦合以辨識由該人工循環神經網路做出的決策並將該多個決策編譯成一輸出代碼,且一種手段用於將輸出代碼轉化成動作。
該方法及系統以及其他一般方法及系統可包含以下特徵其中之一或多者。人工神經網路系統亦可包含用於學習之手段,該手段被配置成改變該人工神經網路系統中之參數以達成一期望結果。用於產生資料環境之手段亦可包含以下其中之一或多者:一搜索引擎,被配置成搜索一或多個資料庫並輸出搜索結果;一資料選擇管理器,被配置成選擇自該搜索引擎輸出的結果之一子集;
以及一資料預處理器,被配置成對自該搜索引擎輸出之結果之所選子集進行預處理。
資料預處理器可被配置成調整結果之所選子集之大小或維度,或者創建結果之所選子集之解析度版本之一層級,或者濾波結果之所選子集,創建結果之所選子集之統計變體。
資料預處理器可被配置成藉由引入統計雜訊、改變一影像之取向、裁剪一影像或對一影像應用一剪輯遮罩來創建結果之所選子集之統計變體。資料預處理器可被配置成對一影像應用多個不同的濾波函數,以產生多個以不同方式濾波的影像。人工循環神經網路可被耦合以同時接收以不同方式濾波的影像。
資料預處理器可被配置成藉由一機器學習模型處理一影像之背景來對一影像進行上下文濾波,以形成一上下文濾波影像。資料預處理器可被配置成藉由分割影像以獲得對象之特徵來對影像進行感知濾波,並形成一感知濾波影像。資料預處理器可被配置成對影像進行注意力濾波,以辨識影像中之顯著資訊,並形成注意力濾波影像。人工循環神經網路可被耦合以同時接收上下文濾波影像、感知濾波影像及注意力濾波影像。
用於對資料進行編碼之手段可包含以下其中之一或多者:一定時編碼器,被配置成將所選資料編碼為一脈衝位置調變訊號以輸入至人工循環神經網路之神經元及/或突觸中;或者一統計編碼器,被配置成將所選資料編碼為人工循環神經網路中神經元及/或突觸激活之統計概率;或者一位元組幅度編碼器,被配置成將所選資料編碼成人工循環神經網路中之神經元及/或突觸之成比例干擾;或者一頻率編碼器,被配置成將所選資料編碼成人工循環神經網路
中之神經元及/或突觸之激活頻率;或者一雜訊編碼器,被配置成將所選資料編碼成人工循環神經網路中之神經元及/或突觸之隨機過程之一雜訊水準之一成比例干擾;或者一位元組突觸自發事件編碼器,被配置成將所選資料編碼成人工循環神經網路中之神經元及/或突觸中自發事件之一設定頻率或概率。
用於編碼之手段可被配置成將一位元組中之位元之一序列映射至事件時間序列中之一順序時間點,其中開(ON)位元產生人工循環神經網路中神經元及/或突觸之一正激活,而關(OFF)位元不產生人工循環神經網路中神經元及/或突觸之一激活。神經元及/或突觸之正激活可增加神經元及/或突觸中事件之一頻率或概率。
用於編碼之手段可被配置成將一位元組中之位元之一序列映射至事件時間序列中之一順序時間點,其中開位元產生人工循環神經網路中神經元及/或突觸之一正激活,而關位元產生人工循環神經網路中神經元及/或突觸之一負激活。神經元及/或突觸之正激活增加神經元及/或突觸中事件之一頻率或概率,而神經元及/或突觸之負激活降低神經元及/或突觸中事件之頻率或概率。用於編碼之手段可被配置成將一位元組中之位元之一序列映射至事件時間序列中之一順序時間點,其中開位元激活人工循環神經網路中之興奮性神經元及/或突觸,而關位元激活人工循環神經網路中之抑制性神經元及/或突觸。人工神經網路系統用於編碼之手段可包含一目標產生器,該目標產生器被配置成判斷人工循環神經網路中哪些神經元及/或突觸將接收至少一些所選資料。目標產生器可基於以下其中之一或多者來確定哪些神經元及/或突觸將接收所選資料:人工循環神經網路之一區域、或人工循環神經網路之一區域內之一層或簇、或人工循環神經網路之一區域內之神經元及/或突觸之一特定體素位
置、或人工循環神經網路內之神經元及/或突觸之一類型。人工循環神經網路可為一尖峰循環神經網路。
一般而言,在本說明書中描述之標的物之另一創新態樣可呈現在用於構建模擬一目標大腦組織之一人工循環神經網路之節點之一方法中。該方法可包含:設置人工循環神經網路中節點之一總數;設置人工循環神經網路中節點之多個類別及子類別;設置每個類別及子類別中節點之結構性質,其中當節點組合輸入時,該結構性質確定作為時間函數之計算的時間及空間積分;設置每個類別及子類別中節點之函數性質,其中函數性質確定作為時間函數之激活、積分及響應函數;設置節點的每個類別及子類別中節點之一數量;設置節點的每個類別及子類別中每個節點之結構多樣性水準及節點的每個類別及子類別中每個節點之功能多樣性水準;設置每個節點之一取向;以及設置人工循環神經網路中每個節點之一空間佈置,其中該空間佈置判斷哪些節點在人工循環神經網路中通訊。
該方法及系統以及其他一般方法及系統可包含以下特徵其中之一或多者。人工循環神經網路中之節點及連接之總數模擬目標大腦組織之一大小相當的部分之神經元之一總數。節點之結構性質包含節點之分支形態以及節點內訊號之幅度及形狀,其中訊號之幅度及形狀根據分支形態上一接收突觸之位置來設置。節點之函數性質可包含節點之次臨限及超臨限尖峰行為。人工循環神經網路中節點之類別及子類別之數量可模擬目標大腦組織中神經元之類別及子類別之一數量。
人工循環神經網路中節點的每一類別及子類別中之節點數可模擬目標大腦組織中神經元之類別及子類別之一比例。人工循環神經網路中每個
節點之結構多樣性水準及功能多樣性水準可模擬目標大腦組織中神經元之多樣性。人工循環神經網路中每個節點之取向可模擬目標大腦組織中神經元之取向。人工循環神經網路中每個節點之空間佈置可模擬目標大腦組織中神經元之空間佈置。
設置空間佈置可包含設置節點之層及/或設置不同類別或子類別之節點之叢集。設置空間佈置可包含設置用於人工循環神經網路之不同區域之間的通訊之節點。該多個區域中之一第一區域可被指定用於上下文資料之輸入,該多個區域中之一第二區域可被指定用於直接輸入,且該多個區域中之一第三區域可被指定用於注意力輸入。
概言之,在本說明書中描述之標的物之另一創新態樣可呈現在用於構建模擬一目標大腦組織之一人工循環神經網路之節點之間的連接之一方法中。該方法可包含:設置人工循環神經網路中之節點之間的連接之一總數;設置人工循環神經網路中之子連接之一數量,其中子連接之一集合在不同類型之節點之間形成單個連接;設置人工循環神經網路中之節點之間的一連接水準;設置人工循環神經網路中之節點之間的一資訊傳輸方向;設置該人工循環神經網路中之節點之間的連接之權重;設置節點之間的連接中之響應波形,其中響應是由發送節點中之一單個尖峰引起的;設置節點之間的連接中之傳輸動態,其中該多個傳輸動態以在來自一發送節點之尖峰序列期間改變個別連接之響應幅度為特徵;設置節點之間的連接中之傳輸概率,其中該傳輸概率表徵在一發送神經元中一給定尖峰之情形中由形成一給定連接之子連接產生響應之可能性;以及設置節點之間的連接中之自發傳輸概率。
該方法及系統以及其他一般方法及系統可包含以下特徵其中之一或多者。人工循環神經網路中之連接總數可模擬目標大腦組織中一大小相當之部分之突觸總數。子連接之數量可模擬用於在目標大腦組織中不同類型之神經元之間形成單一連接之突觸之數量。人工循環神經網路中節點之間的連接水準可模擬目標大腦組織之神經元之間的特定突觸連接。在該方法中,人工循環神經網路中節點之間資訊傳輸之方向可模擬藉由目標大腦組織之突觸連接實現的突觸傳輸之方向性。節點之間連接之權重分佈可模擬目標大腦組織中節點之間突觸連接之權重分佈。該方法可包含改變所選節點之間的所選連接之權重。該方法可包含瞬時移動或改變節點之間連接之權重之總體分佈。響應波形可模擬在目標大腦組織之一相應類型之神經元中產生之突觸響應之位置依賴性形狀。該方法可包含改變所選節點之間的所選連接中之響應波形。該方法可包含瞬時改變節點之間的連接中之響應波形之一分佈。該方法可包含改變一函數之參數,該函數確定所選節點之間的所選連接中之傳輸動態。該方法可包含瞬時改變函數的參數之一分佈,該多個函數確定節點之間連接中之傳輸動態。該方法可包含改變節點之間的所選連接中之一所選傳輸概率。該方法可包含瞬時改變節點之間連接之傳輸概率。該方法可包含改變節點之間的所選連接中之一所選自發傳輸概率。該方法可包含瞬時改變節點之間連接中之自發傳輸概率。
概言之,在本說明書中描述之標的物之另一創新態樣可呈現在改善一人工循環神經網路之一響應之一方法中。該方法可包含訓練人工循環神經網路,以在一輸入期間增加人工循環神經網路中所有節點之總響應。
概言之,在本說明書中描述之標的物之另一創新態樣可呈現在改善一人工循環神經網路之一響應之一方法中。該方法可包含訓練人工循環神經網路以增加與活動的拓撲圖型相符的人工循環神經網路之響應。
概言之,在本說明書中描述之標的物之另一創新態樣可呈現在改善一人工循環神經網路之一響應之一方法中。該方法可包含訓練人工循環神經網路以增加儲存在人工循環神經網路中之資訊量,其中所儲存的資訊表徵一時間序列中之時間點或先前輸入至人工循環神經網路中之資料文件。
概言之,在本說明書中描述之標的物之另一創新態樣可呈現在改善一人工循環神經網路之一響應之一方法中。該方法可包含訓練人工循環神經網路以增加人工循環神經網路之後續輸入被正確預測之可能性,其中後續輸入可為一時間序列中之時間點或資料文件。
至少一電腦可讀取儲存媒體可用可執行指令來編碼,當被至少一處理器執行時,該多個可執行指令使得至少一處理器執行包含任何上述方法之操作。
可實施在本說明書中描述之標的物之特定實施例,以便達成以下優點其中之一或多者。一資訊處理系統可同時處理不同類型及組合之資料,對資料執行任意複雜的數學運算,以一神經代碼之形式對大腦運算進行編碼,並對神經代碼進行解碼以產生任意複雜的輸出。神經代碼包含一組值(二進制及/或類比),該多個值構成簡化任意複雜資訊之表示及計算操作之一符號電腦語言。用此種循環人工神經網路產生之神經代碼為資料儲存、通訊及計算提供了一種新技術。
此種循環人工神經網路可以多種不同的方式使用。舉例而言,神經代碼可被設計成以一高度壓縮(有損及無損)形式對亦被加密的資料進行編碼。藉由在神經代碼中對資料進行加密,可安全地分析資料,而無需首先對資料進行解密。神經代碼可被設計成對不僅被高度壓縮及加密、而且顯示出全息性質以允許穩健、快速及高度安全的資料傳輸之電信訊號進行編碼。神經代碼可被設計成代表一系列認知功能,該多個認知功能對資料執行一系列任意複雜的數學及/或邏輯運算,因此提供通用計算。神經代碼亦可被設計成代表一組任意複雜認知功能之任意複雜決策,該多個任意複雜認知功能為人工智慧及人工通用智慧提供一類新的技術。
可藉由構建與解構糾纏決策(entangled decision)之層級結構來處理資訊,以創建任意複雜的認知演算法。藉由採用二進制及/或類比符號來表示由一大腦模型做出的決策之完整性狀態,此可適用於在經典的數位及/或神經形態計算架構上進行操作。在一些實施方式中,藉由比其他神經網路更緊密地對大腦進行建模,可增大計算能力。換言之,在本文中描述之循環人工神經網路藉由向大腦結構及功能架構之細節及複雜性發展,將電腦及人工智慧(artificial intelligence;AI)系統置於與現代數位電腦及AI系統相反之發展道路上。此種計算架構可適用於在經典的數位電腦、在類比神經形態計算系統上運行,並可為量子電腦提供一種將量子狀態映射至資訊之新方法。
在本說明書中描述之標的物之一或多個實施例之細節在圖示及以下描述中進行闡述。根據說明書、圖示及申請專利範圍,所述標的物之其他特徵、態樣及優點將變得顯而易見。
100:神經突觸電腦系統
105:資料環境產生器
110:感覺編碼器
115:大腦處理單元
120:認知編碼器
125:動作產生器
130:學習配接器
135:前饋學習配接器
140:回饋學習配接器
145:監督或其他訊號
150、155、160:訊號
165:獎勵或其他訊號
170、175、180:訊號
205:搜索引擎
210:資料選擇管理器
215:資料預處理器
220:框架產生器
225:監督或其他訊號
230、235:訊號
245:訊號
250:訊號
305:感覺預處理器
310:感測編碼器
315:封包產生器
320:目標產生器
325:時間管理器
400:過程
405、410、415:操作
500:過程
505、510、515、520、525、530、535、540:操作
600:過程
605、610、615、620、625、630、635、640、645:操作
700:過程
705、710、715、720、725、730:操作
800:過程
805、810、815:操作
905:節點
910、915、920、925:群組
930、935、940、945、950:神經拓撲元件
1005:分子組件
1010:突觸組件
1015:節點組件
1020:節點電路組件
1025、1030、1035、1040:神經拓撲元件
1100:過程
1105、1110、1115、1120、1125、1130:操作
1200:層級組織
1205:基本決策
1210:單一決策
1215:基本認知操作
1220:單一認知操作
1225:基本認知功能
1230:認知功能
1235:認知演算法
1300:過程
1305、1310、1315、1320、1325:操作
1505:神經代碼
1510:操作
1515、1530:機器學習模型
1600:學習配接器
1605:資料學習器
1610:感覺學習器
1615:大腦處理單元學習器
1620:認知學習器
1625:動作學習器
1630:訊號
1635:超參數
H1、H2、H3、H4:層級層次
第1圖是一神經突觸電腦系統之示意圖。
第2圖是例如第1圖所示的資料環境產生器等的一資料環境產生器之示意性表示圖。
第3圖是例如第1圖所示的感覺編碼器(sensory encoder)等的一感覺編碼器之示意性表示圖。
第4圖是一種用於構建例如第1圖所示的大腦處理單元等的一大腦處理單元之過程之流程圖。
第5圖是一種用於構建例如第1圖所示的大腦處理單元等的一大腦處理單元的節點之過程之流程圖。
第6圖是一種用於構建例如第1圖所示的大腦處理單元等的一大腦處理單元之節點之連接的過程之流程圖。
第7圖是一種用於升級例如第1圖所示的大腦處理單元等的一大腦處理單元之過程之示意性表示圖。
第8圖是一種用於構建例如第1圖所示的認知編碼器等的一認知編碼器之過程之流程圖。
第9圖是已自一神經網路中之一節點及節點之組合構建的神經拓撲元件之示意性表示圖。
第10圖是已自一神經網路之不同組件之組合構建的神經拓撲元件之示意性表示圖。
第11圖是一種用於定義拓撲元件並將拓撲單元與計算相關聯之過程之流程圖。
第12圖是認知內決策之一層級組織之示意性表示圖。
第13圖是一種用於構建一神經代碼之過程之流程圖。
第14圖是用於構建層級神經代碼之過程之示意性表示圖。
第15圖是用於將神經代碼解碼成其目標輸出之過程之一實例。
第16圖是例如第1圖所示的學習配接器等的一學習配接器之示意性表示圖。
不同圖示中相同的參考編號及名稱指示相同的元件。
神經突觸電腦根據遵照大腦運行方式建模之一認知計算範例來對資訊進行編碼、處理及解碼。此種範例基於一個關鍵概念,即認知來自任意複雜的決策層級,該多個決策是由大腦中任意元件之任意組合作出並相互糾纏。一神經突觸電腦系統之中央處理單元(central processing unit,CPU)是可在某些實施方式中模擬大腦組織之結構及功能架構的態樣之一尖峰(spiking)循環神經網路。
此種計算範例之其他關鍵特徵包含
1、產生一系列計算之一循環神經網路或等效實施方式,與一系列決策同義。
2、認知計算能力源於建立不同決策組合之任意複雜層級之能力,該多個決策由大腦中任何類型及數量之元件在對輸入做出反應時作出。
3、認知計算不需要知曉由神經元(neural element)執行之具體計算來作出決策;確切而言,其僅需要將每個計算階段表示為一決策之狀態。
4、認知計算利用總體決策中一決策子集之狀態糾纏。
5、認知計算僅從根本上受到大腦元件可作出的一系列決策之性質的限制。
在此範例中,一認知電腦之一大腦處理單元藉由構建大範圍之決
策並將該多個決策組織成一多層次層級結構來對輸入進行操作。決策被辨識為由大腦處理過程中之元件執行之計算。不需要理解計算之確切性質。相反,一計算之完成階段用於對決策狀態進行編碼。執行可用數學方式準確表示之計算之元件被稱為拓撲元件。不同的認知演算法源自不同的決策組合以及該多個決策在層級結構中聯網之方式。輸出是由一組決策組成之一符號電腦語言。
第1圖是一神經突觸電腦系統100之示意圖。在所示的實施方式中,神經突觸電腦系統100包含一資料環境產生器105、一感覺編碼器110、一循環人工神經網路大腦處理單元(brain processing unit,BPU)115、一認知編碼器120、一動作產生器125及管理該多個組件各自之內及之間的學習及最佳化之一學習配接器130。
資料環境產生器105收集並組織資料,以供例如大腦處理單元115等的一大腦處理單元進行處理。資料環境產生器105可包含處理組件,例如一資料及/或資料流搜索引擎、一資料選擇管理器、用於加載資料之一模塊(一起做為電腦科學中一經典的提取、轉換、加載(即,ETL)過程),構建資料、資料集及/或資料流之環境之一產生器、以及根據計算要求執行資料增強之一預處理器。
感覺編碼器110以一循環人工神經網路大腦處理單元可處理之一格式對資料進行編碼。感覺編碼器110可包含一感覺預處理器、感覺編碼器、感覺分解器、一時間管理器及一輸入管理器。
循環人工神經網路大腦處理單元(BPU)115藉由模擬網路對輸入之響應來處理資料。大腦處理單元115可包含具有一組最小特定結構及功能架構要求之一尖峰人工循環神經網路。在一些實施方式中,一大腦處理單元之目標架
構可模擬實際大腦之架構,以精確地細節進行捕捉。
認知編碼器120解釋大腦處理單元115中之活動,並將該活動編碼為一神經代碼。認知編碼器120包含辨識由大腦處理單元作出之單一決策之一組子組件,自該多個決策編譯一神經代碼,並組合神經代碼以形成任意複雜的認知過程。
如下文進一步論述,一神經突觸電腦系統在不同的層次上組織決策,以構建任意複雜的認知演算法。換言之,一基本決策可被組織成單一決策、認知操作及認知功能,以產生一認知演算法。基本決策被糾纏以捕捉由神經突觸電腦系統執行之計算之複雜性範圍。舉例而言,基本決策被糾纏以構建單一決策。單一決策被糾纏以構建一決策層級及任意複雜的認知演算法中依次更高的層次。認知編碼器120可在一神經代碼中層級結構的不同層次上對該多個決策進行辨識及編碼。
動作產生器125包含被設計成將神經代碼解碼成其目標輸出之解碼器。解碼器讀取並轉化神經代碼,以執行其編碼之認知功能。
學習配接器130管理該多個組件各自內部及之間的學習及最佳化。學習配接器130被配置成設置用於最佳化及學習系統之每個組件之超參數的過程。學習配接器130可包含一前饋學習配接器135及一回饋學習配接器。前饋學習配接器135可基於例如來自資料環境產生器105之監督或其他訊號145、來自感覺編碼器110之訊號150、來自大腦處理單元115之訊號155及/或來自認知編碼器120之訊號160來最優化超參數,以改善感覺編碼器110、大腦處理單元115、認知編碼器120及/或動作產生器125其中之一或多者之操作。回饋學習配接器140可基於例如來自動作產生器125之獎勵或其他訊號165、來自認知編碼器120之訊
號170、來自大腦處理單元115之訊號175及/或來自感覺編碼器110之訊號180來最優化參數,以改善環境產生器105、感覺編碼器110、大腦處理單元115及/或認知編碼器120其中之一或多者之操作。
在操作中,神經突觸電腦系統100藉由遵循每個組件之操作序列及組件之間的自適應學習交互來操作。神經突觸電腦之程式設計範例允許針對每個組件之參數配置有不同的模型。不同的程式設計模型允許以不同的方式來利用決策之符號表示。因此,可實施各種程式設計模型來為特定類型之計算操作裁適一神經突觸電腦。一神經突觸電腦亦可自我最佳化及學習最佳程式設計模型,以匹配計算操作之目標類別。利用一神經突觸電腦設計軟體及硬體應用程式包含設置系統的每個組件之參數,並允許組件對樣本輸入資料進行最佳化,以產生所期望之計算能力。
第2圖是例如資料環境產生器105(第1圖)等的一資料環境產生器之示意性表示圖。如以上所論述,一資料環境產生器準備資料及/或資料流之環境以供一大腦處理單元處理。資料環境產生器105之所示實施例包含一搜索引擎205、一資料選擇管理器210、一資料預處理器215及一資料框架產生器220。
搜索引擎205被配置成接收手動輸入或自動的查詢並搜索資料。舉例而言,可執行在線(網際網路)或離線(本地資料庫)之語義搜索。搜索引擎205亦可返回搜索結果。
資料選擇管理器210被配置成基於用神經突觸電腦系統開發之應用之要求來處理搜索查詢並選擇相關的搜索結果。資料選擇管理器210亦可被配置成檢索在搜索結果中引用之資料。
資料預處理器215被配置成預處理資料。舉例而言,在一些實施方
式中,資料預處理器215可改變資料之大小及維度,創建資料之解析度版本之一層級,並根據用神經突觸電腦系統開發之一應用之要求創建資料之統計變體。實例性資料增強技術包含統計及數學濾波以及機器學習操作。用於創建資料之統計變體之實例性技術包含引入統計雜訊、定向平移、裁剪、應用剪輯遮罩及其他操作。用於創建資料之多解析度版本之實例性技術包含用於下採樣及降維之各種數學方法。
在一些實施方式中,由資料預處理器215執行之預處理可包含濾波操作。舉例而言,預處理可包含其中任何特定輸入之多個不同版本被同時呈現的同時濾波。舉例而言,多個濾波器功能可被應用於一影像,並與由一機器學習模型找到之濾波器之輸出一起呈現。此使得其他機器學習方法成為神經突觸計算之起點。
作為另一實例,預處理可包含認知濾波。舉例而言,可藉由一機器學習模型來處理一影像之背景,以獲得與影像之背景相關之特徵(即,一上下文濾波器)。另一機器學習模型可分割影像並獲得可呈現為感知濾波器之對象之特徵。此外,可針對一影像中最顯著的資訊對影像進行預處理,以構建注意力濾波器。可同時處理感知、上下文及注意力濾波影像。認知濾波之結果可由神經突觸電腦系統同時處理。
作為另一實例,預處理可包含統計濾波。舉例而言,一影像之畫素值可與影像之統計測量值(例如,各種分佈)一起被處理。原始資料及原始資料之統計分析結果二者皆可同時呈現至神經突觸電腦系統並由神經突觸電腦系統進行處理。
資料框架產生器220被配置成基於用神經突觸電腦系統開發之應
用之計算要求來確定資料、資料集或資料流之一組織框架。框架產生器220可被配置成自例如一1D向量、一2D矩陣、一3D或更高維度矩陣及知識圖等各種組織框架中進行選擇,以創建用於待處理資料之空間。
例如一部分學習配接器130等學習配接器亦可管理一資料環境產生器105之組件之內及組件之間的學習及最佳化。舉例而言,部分學習配接器130可被配置成例如基於以下來設置用於資料環境產生器105之每個組件之超參數之最佳化及學習的過程:-來自資料環境產生器105外之監督、獎勵或其他訊號(例如,來自感覺編碼器110、來自大腦處理單元115及/或來自認知編碼器120)或者-來自資料環境產生器105內之監督、獎勵或其他訊號。
舉例而言,學習配接器130可包含一前饋學習配接器135及一回饋學習配接器。前饋學習配接器135可基於例如來自搜索引擎205之監督或其他訊號225、來自資料選擇管理器210之訊號230及/或來自資料預處理器215之訊號235來對超參數進行最佳化,以改善資料選擇管理器210、資料預處理器215及資料框架產生器220其中之一或多者之操作。回饋學習配接器140可基於例如來自資料框架產生器220之獎勵或其他訊號245、來自資料預處理器215之訊號245及/或來自資料選擇管理器210之訊號250來對超參數進行最佳化,以改善搜索引擎205、資料選擇管理器210及資料預處理器215其中之一或多者之操作。
第3圖是例如感覺編碼器110(第1圖)等的一感覺編碼器之示意性表示圖。如以上所論述,一感官編碼器將一資料文件轉換成一感官代碼,以輸入一大腦處理單元中。感覺編碼器110之所示實施例包含一感覺預處理器305、一感測編碼器310、一封包產生器315、一目標產生器320及一時間管理器325。
感覺預處理器305被配置成將資料文件轉換成一二進制代碼格式。
感測編碼器310被配置成自感覺預處理器305讀取二進制代碼,並應用編碼方案其中之一或其一組合來將位元及/或位元組轉換成感覺輸入訊號,以供大腦處理單元處理。感測編碼器310被配置成藉由例如以下方式來轉換二進制代碼中之每個位元組值:-將每個位元組值轉換為激活大腦處理單元中神經元及/或突觸之一不同時間點(位元組時間編碼),-將每個位元組值轉換為激活大腦處理單元中神經元及/或突觸之統計概率(位元組概率編碼),-將每個位元組值轉換成一大腦處理單元中不同神經元及/或突觸之比例干擾(位元組幅度編碼),-將每個位元組值轉換成神經元及/或突觸數量之一比例干擾(位元組群體編碼方案),-將每個位元組值轉換成神經元及/或突觸之激活頻率(位元組頻率編碼),將一系列激活作為一標準化振盪波輸入之一直接頻率或一幅度及/或頻率調變(位元組頻率編碼),-將每個位元組值轉換成神經元及/或突觸中隨機過程之雜訊水準之一比例干擾(位元組雜訊編碼),-將每個位元組值轉換成自發突觸事件,作為自發突觸事件之一設定頻率或概率(位元組突觸自發事件編碼),-將一位元組中之一位元序列映射至事件時間序列中之一順序時間點。一
位元組中之一位元序列可以多種方式映射至事件時間序列中之一順序時間點,該多個方式包含例如:-開位元標記神經元及/或突觸之一正激活,且關位元不產生激活,-開位元標記正激活神經元(施加正幅度)及/或突觸(突觸事件之頻率或概率增加),且關位元標記負激活神經元(施加負幅度)及/或突觸(突觸事件之頻率或概率減少),或-開位元激活大腦處理單元中的興奮性節點,且關位元激活大腦處理單元中的抑制性節點,其中興奮性及抑制性節點是隨意選擇的,或者根據其在網路中如何彼此連接來選擇。
封包產生器315被配置成將感覺訊號分成所需大小之封包,以匹配大腦處理單元之處理能力。
目標產生器320被配置成確定大腦處理單元之哪些組件將接收感官輸入之哪些態樣。舉例而言,一影像中之一畫素可被映射至一特定節點或邊緣,其中文件中每個畫素/位元組/位元位置之模式及/或邊緣之選擇是基於例如大腦處理單元之區域、一區域內之層或簇、一區域、層或簇內之神經元及/或突觸之特定XYZ體素位置、神經元及/或突觸之特定類型、特定神經元及突觸、或其之一組合。
時間管理器325被配置成確定一時間序列或封包序列中之資料封包之間的時間間隔。
第4圖是一種用於構建例如大腦處理單元115(第1圖)等的一大腦處理單元之過程400之流程圖。過程400可由執行資料處理活動之一或多個資料處理裝置來執行。過程400之活動可根據一組機器可讀取指令、一硬體組合件或
該多個及/或其他指令之一組合之邏輯來執行。
在405處,執行過程400之裝置構建大腦處理單元之節點。在410處,執行過程400之裝置構建大腦處理單元之節點之間的連接。視情況,在415處,執行過程400之裝置為將在一給定應用中執行之計算裁適大腦處理單元。
更詳細而言,在一神經突觸電腦之一實施方式中,大腦處理單元是一尖峰循環神經網路,其遵照大腦組織之解剖及生理架構,即任何動物物種大腦之一部分或整個大腦進行建模。大腦處理單元模擬大腦的架構之程度可根據將執行之計算之複雜性來選擇。作為一般原則,一網路之節點之結構及函數性質的任何變化皆會影響大腦處理單元之單一計算(類別、子類別及其中之變體)之數量及多樣性。連接之結構及函數性質之任何變化皆會影響計算(類別、子類別及其中之變體)之糾纏狀態(states of entanglement)的數量及多樣性。結構性質之任何變化確定單一計算之數量及多樣性以及一大腦處理單元可能的糾纏狀態,而函數性質之任何變化影響在輸入模擬期間達成之單一計算及糾纏之數量及多樣性。然而,節點或連接之函數性質之變化亦可改變單一計算之數量及多樣性以及糾纏狀態。
此外,大腦處理單元可視情況針對將在一給定應用中執行之計算進行裁適或「升級」。有幾種方式可實現此操作,該多個方式包含例如(重新)選擇被模擬的目標大腦組織,(重新)選擇該目標大腦組織之狀態,以及(重新)選擇大腦處理單元之響應性質。下面將進一步詳細論述實例。
第5圖是一種用於構建例如大腦處理單元115(第1圖)等的一大腦處理單元之節點之過程500之流程圖。過程500可由一或多個資料處理裝置任意地根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合
之邏輯來執行。過程500可例如在過程400(第4圖)中之405處被執行。
在505處,執行過程500之裝置設置節點之數量。將在大腦處理單元中使用之節點總數可在一些實施方式中模擬一目標大腦組織之神經元總數。此外,節點之數量可確定大腦處理單元在任何時刻可執行之單一計算之類別及子類別之數量之上界。
在510處,執行過程500之裝置設置節點之結構性質。當節點組合輸入時,節點之結構性質確定作為時間函數之節點的計算之時間及空間積分。此確定節點執行之單一計算之類別。節點之結構性質亦包含節點之組件及其交互之性質。結構性質可在一些實施方式中模擬目標大腦組織的神經元之形態類別之效果。舉例而言,當自網路中之其他節點接收輸入時,藉由設置節點內訊號之幅度及形狀,並根據分支形態中一接收突觸之位置,一分支狀形態是應用於自其他節點接收的資訊之傳遞函數之一決定因素。
在515處,執行過程500之裝置設置節點之函數性質。節點之函數性質確定作為一時間函數之激活、積分及響應函數,且因此確定節點可能的單一計算。用於構建一大腦處理單元之節點之函數性質可在一些實施方式中模擬目標大腦組織之不同類別神經元之生理行為(即,其閾下及閾上尖峰行為)的類型。
在520處,執行過程500之裝置設置節點之類別及子類別之數量。結構-功能多樣性確定單一計算之類別及子類別之數量。用於構建一大腦處理單元之結構-功能類型性質之組合數量可在一些實施方式中模擬目標大腦組織之神經元之形態-生理組合數量。
在525處,執行過程500之裝置設置每種類型(類別及子類別)的節點中節點之複本數量。一給定類型之節點數量確定同一類別之複本數量及執
行同一類型的單一計算之節點數量。一大腦處理單元中具有相同結構及函數性質之節點數量可在一些實施方式中模擬在目標大腦組織中形成每種形態-生理類型之神經元數量。
在530處,執行過程500之裝置設置每個節點之結構及功能多樣性。一節點之結構及功能多樣性確定節點之每個類別及子類別中單一計算之變型的準連續區(quasi-continuum)。一給定類型之每個節點偏離相同複本之程度可在一些實施方式中模擬目標大腦組織中一給定類型的神經元內之神經元之形態-生理多樣性。
在535處,執行過程500之裝置設置節點之取向。每個節點之取向可包含節點組件之空間佈置。節點取向確定一大腦處理單元之糾纏狀態之潛在類別。用於構建一大腦處理單元之每個節點之取向可在一些實施方式中模擬目標大腦組織中神經元之形態類型的分支結構之取向。形態取向是決定哪些神經元可自任何一個神經元向任何其他神經元發送及接收資訊之一決定因素,且因此確定網路中之連接性。
在540處,執行過程500之裝置設置節點之空間佈置。空間佈置確定哪些神經元可自任何一個神經元向任何其他神經元發送及接收資訊,且因此是網路中之連接性之一決定因素,且因此亦為一大腦處理單元之糾纏狀態的多樣性之一決定因素。節點之空間佈置可包含不同類型節點之分層及/或叢集。用於構建一大腦處理單元的每種類型之節點之空間佈置可在一些實施方式中模擬目標大腦組織之神經元的每種形態-生理類型之空間佈置。
該空間佈置亦允許大腦處理單元之子區域利用來自其他子區域之讀數進行定址,藉此在不同區域之間定義一輸入-輸出定址系統。定址系統可
例如用於將資料輸入一個子區域中,並將樣本輸入另一子區域。舉例而言,多種類型之輸入,例如上下文(記憶)資料可輸入至一個子區域,直接輸入(感知)可定址至另一子區域,而大腦處理單元應給予更多關注(注意)之輸入可定址至不同的子區域。此使得每個為不同認知過程裁適之大腦處理子單元能夠聯網。在一些實施方式中,此可模擬大腦的神經元電路及大腦區域連接在一起的方式。
第6圖是一種用於構建例如大腦處理單元115(第1圖)等的一大腦處理單元之節點之連接的過程600之流程圖。過程600可由一或多個資料處理裝置任意地根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合之邏輯來執行。過程600可例如在過程400(第4圖)中之410處被執行。
在605處,執行過程600之裝置設置連接之數量。連接之數量確定一大腦處理單元之糾纏狀態之可能類別之數量。節點之間的連接的總數可在一些實施方式中模擬目標大腦組織之突觸的總數。
在610處,執行過程600之裝置設置子連接之數量。形成連接之子連接之數量確定每一類別糾纏狀態內之變型。在不同類型之節點之間形成單個連接之並行子連接之數量可在一些實施方式中模擬用於在不同類型之神經元之間形成單個連接之突觸之數量。
在615處,執行過程600之裝置設置所有節點之間的連接性。節點之間的連接性確定節點圖之結構拓撲。結構拓撲設置一大腦處理單元可產生之糾纏狀態之數量及多樣性。不同節點類型之間及個別節點之間的連接性可在一些實施方式中模擬一目標大腦組織之神經元類型與個別神經元之間的特定突觸連接性、或者至少連接性之關鍵性質。
在620處,執行過程600之裝置設置資訊傳輸之方向。連接之方向
性確定資訊流之方向,且因此確定在一輸入之處理期間之功能拓撲。功能拓撲確定神經拓撲結構之數量及多樣性,因此確定活動拓撲元件之數量及多樣性,且因此確定單一計算之數量及多樣性,以及其糾纏狀態之數量及多樣性。連接處之資訊流之方向性可在一些實施方式中藉由目標大腦組織之突觸連接來模擬突觸傳輸之方向性。
在625處,執行過程600之裝置設置連接權重。每種類型之突觸連接(任意二種類型之節點之間)之權重設置確定單一計算之輸入變體及在輸入期間激活之神經拓撲結構之數量及多樣性,且因此確定在輸入期間為活動的單一計算之數量及多樣性以及其糾纏狀態之數量及多樣性。用於確定由節點之間不同類型之連接介導的對節點中尖峰之響應的幅度之權重設置之分佈可在一些實施方式中模擬目標大腦組織中不同類型之神經元之間的突觸連接之權重分佈。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變大腦處理單元中個別連接處之權重。改變連接處之權重允許大腦處理單元學習所產生類別之單一計算及特定糾纏狀態,且因此學習給定輸入之目標輸出函數。用於改變個別連接處之權重之附加機制可在一些實施方式中模擬目標大腦組織之突觸可塑性機制。
在一些實施方式中,執行過程600之裝置添加一種機制,用於瞬時移動或改變不同類型之連接向所構建之大腦處理單元之總權重分佈。權重分佈之瞬時變化瞬時改變單一計算之類別及糾纏狀態之類別。用於瞬時移動或改變不同類型之連接之總權重分佈之機制可在一些實施方式中模擬由目標大腦組織之神經化學物質對不同類型的突觸連接之神經調節機制。
在630處,執行過程600之裝置設置節點響應波形。由一發送節點
中之單個尖峰誘發之特定響應波形可在一些實施方式中模擬在目標大腦組織中具有一給定膜電阻及電容之一相應類型之神經元中產生的突觸響應之位置依賴性形狀。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變由個別連接引起的響應之波形,該機制可被添加至所構建之大腦處理單元。用於改變由個別連接引起的響應之波形之機制可在一些實施方式中模擬改變目標大腦組織之節點的函數性質之機制(節點中之膜電阻及/或電容及/或活動機制)。
在一些實施方式中,執行過程600之裝置添加一種機制,用於瞬時改變突觸響應向所構建之大腦處理單元之波形分佈。瞬時改變突觸響應之波形分佈之機制可在某些實施方式中模擬由目標大腦組織之神經化學物質對不同類型的神經元之神經調節機制。
在635處,執行過程600之裝置設置傳輸動態。在來自一發送節點之一系列尖峰期間,一個別連接之動態變化的響應幅度可在一些實施方式中模擬目標大腦組織之突觸連接之動態變化的突觸幅度。
在一些實施方式中,執行過程600之裝置設置不同類型之傳輸動態。尖峰序列期間連接處之動態類型可在一些實施方式中模擬目標大腦組織之不同類型的神經元之間的突觸連接處之動態突觸傳輸類型。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變確定傳輸動態之類型的函數之參數。用於改變確定傳輸動態之類型的函數之參數的機制在一些實施方式中可模擬目標大腦組織之突觸之突觸可塑性機制。
在一些實施方式中,執行過程600之裝置添加一種機制,用於瞬時
改變每種類型之傳輸動態之每個參數之分佈。用於瞬時改變每種類型之傳輸動態之每個參數之分佈的機制可在一些實施方式中模擬由目標大腦組織之神經化學物質對不同類型之突觸連接進行神經調節之機制。
在640處,執行過程600之裝置設置一傳輸概率。傳輸概率可呈現一連接處資訊流之概率,並且可確定單一計算之類別,例如允許在大腦處理單元中進行隨機及貝葉斯(Bayesian)計算。在一給定發送節點中之一尖峰之情形中,由形成任何單個連接之子連接產生一響應之概率可在一些實施方式中模擬一突觸響應於來自一目標大腦組織之一發送神經元之一尖峰而釋放神經傳遞質之概率。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變單一個別連接處之傳輸概率。用於改變單一連接處之傳輸概率之機制模擬目標大腦組織之突觸連接之突觸可塑性機制。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變不同類型之連接之概率分佈。用於改變不同類型之連接之概率分佈之機制可在一些實施方式中模擬由目標大腦組織之神經化學物質對不同類型之突觸連接之神經調節機制。
在645處,執行過程600之裝置為連接設置自發傳輸統計。自發傳輸是跨越一連接之自發(即,非尖峰誘發)資訊流。自發傳輸可被實施為一大腦處理單元中一連接固有之一隨意過程,並增加計算的雜訊。自發傳輸可對資訊處理造成障礙,必須克服該障礙以驗證由大腦處理單元執行之操作之意義,因此使大腦處理單元能夠執行對輸入中之雜訊具有穩健性之不變資訊處理。連接處自發的、非尖峰誘發的資訊流之設置可在一些實施方式中模擬目標大腦組織之突
觸處神經傳遞質釋放之自發釋放統計。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變個別連接處之自發傳輸統計。改變個別連接處自發傳輸統計之機制模擬目標大腦組織之突觸連接之突觸可塑性機制。改變個別連接處之自發傳輸統計允許一大腦處理單元之連接個別調整由連接處理之資訊之訊號雜訊比。
在一些實施方式中,執行過程600之裝置添加一種機制,用於改變每種類型的連接處之自發傳輸統計分佈。在不同類型之連接處自發傳輸分佈之瞬時及微分變化允許大腦處理單元藉由大腦處理單元之每種類型之連接來動態調整資訊處理之訊號雜訊比。改變每種類型的連接處之自發傳輸統計分佈之機制可在一些實施方式中模擬由目標大腦組織之神經化學物質對不同類型的突觸連接之神經調節機制。
第7圖是用於升級一大腦處理單元之一過程700之示意性表示圖。如以上所論述,大腦處理單元可針對將在一給定應用中執行之計算進行裁適或升級。
過程700可由一或多個資料處理裝置任意地根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合之邏輯來執行。過程700可例如結合過程400(第4圖)被執行-緊接其後或在一大腦處理單元運行一段時間後。
在705處,執行過程700之裝置接收一給定應用之計算要求之描述。一應用之計算要求可用多種方式來表徵,該多個方式包含例如將執行之計算之複雜性、將執行計算之速度、以及計算對某些資料之敏感性。此外,在某些情形中,計算要求可能會隨著時間而變化。舉例而言,即使一正在進行之過程具有
相當穩定之計算要求,該多個計算要求亦可能在特定時間或在發生特定事件時發生變化。在此種情形中,一大腦處理單元可瞬時升級以滿足需求,且然後在需求減弱後返回。
在710處,執行過程700之裝置判斷大腦處理單元之當前條件是否滿足計算要求。可在任一方向(即,大腦處理單元的計算能力可能不足或過多)以及計算之一或多個特性(例如,複雜性、速度或靈敏度)中發生不匹配。
響應於判斷出滿足計算要求,在715處,可在當前條件下操作大腦處理單元。響應於判斷出不滿足計算要求,執行過程700之裝置可針對將執行之計算來裁適或升級大腦處理單元。
舉例而言,在一些實施方式中,執行過程700之裝置可藉由在720處(重新)選擇模擬的目標大腦組織來裁適或升級大腦處理單元。舉例而言,在一些實施方式中,可(重新)選擇一不同動物或處於一不同發育階段之大腦組織。一大腦之認知計算能力取決於大腦之物種及年齡。可選擇模擬不同動物及不同發育階段之大腦之神經網路來達成所期望之認知計算能力。
作為另一實例,在一些實施方式中,可(重新)選擇大腦之一不同部分之大腦組織。大腦不同部分之認知計算能力專門用於不同的認知功能。可選擇模擬大腦不同部分之神經網路來達成所期望之認知計算能力。
作為又一實例,在一些實施方式中,可(重新)選擇大腦之一部分之大腦組織的量。一大腦區域之認知計算能力取決於使用了多少子電路以及該多個子電路如何相互連接。可選擇模擬大腦越來越大的部分之神經網路來達成所期望之認知計算能力。
作為另一實例,在一些實施方式中,執行過程700之裝置可藉由在
725處(重新)選擇大腦處理單元之狀態來裁適或升級大腦處理單元。可(重新)選擇大腦處理單元之神經網路的狀態之不同態樣。舉例而言,可(重新)選擇網路自發顯示的緊急性質。作為另一實例,可(重新)選擇網路響應於輸入而顯示的緊急性質。(重新)選擇大腦處理單元之神經網路之狀態可對大腦處理單元之操作產生各種影響。舉例而言,網路可響應輸入作出溫和或非常強烈的響應。作為另一實例,網路可依據狀態以一特定的振盪頻率進行響應。網路可執行之計算的範圍亦可取決於網路之狀態。
舉例而言,在一些實施方式中,執行過程700之裝置可藉由調變確定突觸連接之幅度及動態之參數來(重新)選擇大腦處理單元之狀態。確定網路之特定類型的節點之間的突觸連接之幅度及動態之突觸參數可有區別地改變,以模擬由例如乙醯膽鹼、去甲腎上腺素、多巴胺、組胺、血清素及許多其他物質等神經調節物質對大腦中突觸之調節。該多個控制機制使得例如警覺、注意力、獎勵、懲罰及其他大腦狀態等狀態能夠被模擬。每種狀態使得大腦處理單元產生具有特定性質之計算。每組性質允許進行不同類別之認知計算。
作為另一實例,在一些實施方式中,執行過程700之裝置可藉由有區別地改變不同類型之神經元之響應活動來(重新)選擇大腦處理單元之狀態。此可調節網路之狀態,且控制認知計算之類別。
作為又一實例,在一些實施方式中,執行過程700之裝置可藉由在730處裁適大腦處理單元之響應來(重新)選擇大腦處理單元之狀態。一大腦處理單元之節點及突觸在處理資訊時對刺激作出反應。對於許多任務而言,一通用的響應可能足矣。然而,專用任務可能需要特殊反應,例如特定形式之振盪或所有節點及突觸被激活之不同程度。
可最佳化大腦處理單元之響應性質,例如:-在一群體水準上,使得最佳化功能是輸入期間所有神經元之總響應,-在一拓撲水準上,使得最佳化功能尋求將一認知編碼器(例如,認知編碼器120(第1圖))需要用來構建神經代碼的特定類別的計算最大化,-針對一特定任務,使得最佳化功能是由一認知編碼器使用來自一動作產生器(例如,動作產生器125(第1圖))之一回饋訊號生成的認知演算法之效能,-針對記憶體中之資訊儲存,使得最佳化功能是使系統在記憶體中保存的關於任何先前輸入之資訊量(例如,時間序列中的先前時間點或先前資料文件)最大化,及/或-針對預測,使得最佳化功能是最大化對正確預測的後續輸入(例如,輸入或後續資料文件之時間序列中之後續輸入)之響應。
在針對將執行之計算裁適或升級大腦處理單元之後,執行過程700之裝置可返回至710,並判斷大腦處理單元之當前條件是否滿足計算要求。響應於判斷出滿足計算要求,在715處,可在當前條件下操作大腦處理單元。響應於判斷出不滿足計算要求,執行過程700之裝置可進一步裁適或升級大腦處理單元。
第8圖是一種用於構建例如認知編碼器120(第1圖)等的一認知編碼器之過程800之流程圖。過程800可由執行資料處理活動之一或多個資料處理裝置來執行。過程800之活動可根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合之邏輯來執行。
如以上所論述,一神經突觸電腦系統在不同的層級層次上組織決策,以構建任意複雜的認知演算法。一認知編碼器可在一神經代碼中之不同層次
上對該多個決策進行辨識及編碼。
更詳細而言,一大腦處理單元使輸入經受各種任意複雜的計算,每個計算藉由每個計算之任何一個或所有參數而變得糾纏。此導致一系列具有多維相關性之計算。一認知編碼器藉由設置由拓撲元件執行之計算之期望性質來構建認知過程,並找到糾纏計算之一子集以形成表示一目標認知演算法之一層級神經代碼。多維範圍之計算由執行基本、單一及較高階計算之拓撲元件定義-並藉由設置評估該多個計算之標準來定義。藉由模擬由大腦處理單元之循環網路執行之糾纏過程而達成找到在總體計算中執行認知功能之糾纏計算之子集。糾纏計算之子集然後被格式化為可用於資料儲存、傳輸及計算之一層級神經代碼。過程800是用於構建此種認知編碼器之一過程。
在805處,執行過程800之裝置定義認知編碼器之拓撲元件。本文中所使用的拓撲元件是執行計算之一大腦處理單元之所選離散組件。該多個計算可用元件之間的一拓撲關是用數學方式精確表示。在略微簡化的情形中,一拓撲元件是一單個元件,例如一單個分子或細胞(cell)。單個分子或細胞可執行可用數學方式表示之一計算。舉例而言,一分子可在一特定位置處釋放,或者一細胞可去極化。釋放或去極化可指示一計算之完成,並可用於對決策之狀態進行編碼。
然而,一般而言,拓撲元件是成組之組件,例如一分子網路、一所選的細胞子組、一細胞網路、甚至多組此種組。舉例而言,彼此之間具有一所定義的拓撲關係之多個細胞網路可形成一拓撲元件。同樣,由此種組執行之計算可用元件之間的一拓撲關係用數學方式表示。舉例而言,一分子網路之一圖型可被釋放,或者一細胞網路可以與一拓撲圖型相符之一圖型去極化。釋放或去極化
可指示一計算之完成,並可用於對決策狀態進行編碼。
第9圖是已自一神經網路中之一節點及節點之組合構建的神經拓撲元件之示意性表示圖。具體而言,在最簡單的情形中,單個節點905被定義為一神經拓撲元件930。節點905之輸出(例如,一去極化事件)-且因此神經拓撲元件930之輸出-是一單一決策。
在其他情形中,多個節點之群組910、915、920、925被定義為各自的神經拓撲元件935、940、945、950。每個群組910、915、920、925中之節點可顯示與一拓撲圖型相符之活動(例如,去極化事件)。此種活動之發生是一單一決策,且指示計算之結果。
在某些情形中,計算之結果(即,神經拓撲元件930、935、940、945、950之輸出)是一二進制值,其指示已達成或尚未達成一決策。在其他情形中,輸出可具有指示一決策是不完整的之一中間值。舉例而言,部分值(partial value)可指示與一拓撲圖型相符之活動之一些部分已經發生,而其他部分尚未發生。僅發生活動之一部分可指示由神經拓撲元件表示之計算是不完整的。
第10圖是已自一神經網路之不同組件之組合構建的神經拓撲元件之示意性表示圖。在示意性表示圖中,組件1005是一神經網路之一或多個分子之示意性表示圖。組件1010是一神經網路之一或多個突觸之示意性表示圖。組件1015是一神經網路之一或多個節點之示意性表示圖。節點電路組件1020是一神經網路之一或多個節點電路之示意性表示圖。
一神經拓撲元件1025已被定義為僅包含分子組件1005。與此相反,一神經拓撲元件1030已被定義為包含分子組件1005及突觸組件1010二者。一神經拓撲元件1035已被定義為包含突觸組件1010、節點組件1015及節點電路組
件1020。一神經拓撲元件1040已被定義為包含分子組件1005、突觸組件1010、節點組件1015及節點電路組件1020。
無論如何對其進行定義,每個神經拓撲元件1025、1030、1035、1040輸出由神經拓撲元件之組成元件作出的層級嵌入決策所確定之一單一決策。組成元件之層級嵌入決策可由例如釋放至一位置中、一突觸處之抑制或興奮,一神經元中之活動,或一電路中之活動之一圖型證實。證實該多個決策之活動可與一拓撲圖型相符。此種活動之發生是一單一決策,且指示計算之結果。隨著一神經拓撲元件中之組件之複雜性增加,神經拓撲元件之複雜性增加,並且無意或偶然(例如,由於自發傳輸)達成決策之可能性減小。舉例而言,包含一節點電路組件1020之一神經拓撲元件指示較包含單個節點電路組件1020之一神經拓撲元件更複雜的決策及不太可能為偶然的計算。
如前所述,在某些情形中,計算之結果是一二進制值,其指示已達成或尚未達成之一決策。在其他情形中,輸出可具有指示一決策是不完整的之一中間值。
返回至過程800(第8圖)中之805,在定義拓撲元件時,執行過程800之裝置可為拓撲元件選擇大腦處理單元之組件。作為一神經突觸電腦之一實施方式之一實例,大腦處理單元與具有與大腦處理單元中之神經元及突觸連接相同數量之節點及邊緣之一圖相關聯。若在二個節點之間存在一突觸連接,則圖中之一邊緣被稱為一結構邊緣。一邊緣之方向由自一個節點至下一個節點之突觸傳輸之方向給出。根據給定標準,若一發送節點向一接收節點傳輸資訊,則一邊緣被稱為一活動邊緣。如下文更詳細闡釋,可對標準進行裁適以辨識一給定應用之活動邊緣之一中間範圍。網路中任意時刻之活動邊緣之子集被一起考量以
形成函數圖之一時間序列。任何個別邊緣或任何多於一個邊緣之組合可構成一單個拓撲元件。一拓撲元件之拓撲結構由邊緣之圖關係描述。根據用於辨識一活動邊緣之標準,當拓撲元件之組成邊緣為活動的時,該多個拓撲元件稱為活動的。如下文更詳細闡釋,一拓撲元件之拓撲結構可針對一給定應用之計算複雜性進行裁適。
在810處,執行過程800之裝置將該多個拓撲單元與計算相關聯。如以上所論述,基本計算之類型及解析度取決於如何定義活動邊緣及拓撲結構。藉由以一符號表示(例如,一系列0、1及中間值)來表徵拓撲結構之活動,由該多個拓撲結構定義的拓撲單元可與不同的計算相關聯。
第11圖是一種用於定義拓撲元件(例如,在第8圖中的805處)並將拓撲單元與計算(例如,在第8圖中的810處)相關聯之過程1100之流程圖。過程1100可由執行資料處理活動之一或多個資料處理裝置來執行。過程1100之活動可根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合之邏輯來執行。
在1105處,執行過程1100之裝置設置用於辨識一活動邊緣之標準。一活動邊緣反映一任意複雜的基本計算之完成、以及將該結果傳送至一特定目標節點。
由於傳輸節點響應於來自網路中其他節點之多個輸入而產生活動邊緣-並且來自其他節點之此輸入繼而是對來自另一些其他節點之輸入之響應(以此類推)-因此由每個活動邊緣執行之每個基本計算原則上是整個網路中活動之一函數。
如以上所論述,若自一發送節點至一接收節點之資訊傳輸滿足一
或多個標準,則一邊緣被稱為活動的。可對標準進行裁適,以便辨識出一中間數量之活動邊緣。更詳細而言,若用於辨識一活動邊緣之標準太嚴格,則無邊緣將被辨識為活動的。與此相反,若用於辨識一活動邊緣之標準太寬鬆,則過多的邊緣將被辨識為活動邊緣。因此,可針對大腦處理單元之其他參數及將執行之操作來裁適該多個標準。事實上,在一些實施方式中,標準之設置是一交互過程。舉例而言,響應於指示太少或太多邊緣被辨識為活動的之回饋,可隨時間調整標準。
在1110處,執行過程1100之裝置為拓撲元件設置拓撲結構。當形成一單個拓撲元件之所有邊緣皆是活動的時,由該拓撲元件執行之單一計算是完整的。然而,若構成拓撲元件之邊緣的僅一部分是活動的,則單一計算是部分完整的。若拓撲元件之所有邊緣皆非活動的,則單一計算尚未開始。因此,所設置的拓撲元件中可響應於一輸入而變為活動的之邊緣之特定組合定義了已完成、部分完成及未開始的單一計算之範圍。因此,一單一計算是由邊緣執行之基本計算之一函數,並且如以上所論述,藉由裁適用於將一邊緣定義為活動的之標準來控制單一計算之解析度。
可定義各種不同的拓撲結構。可藉由選擇構成一拓撲元件之拓撲結構來控制單一計算之類型。舉例而言,被定義為單個活動邊緣之一拓撲元件產生最不複雜的單一計算。與此相反,將拓撲元件定義為由具有多個活動邊緣之一節點網路組成之一拓撲結構會產生一更複雜的單一計算。將拓撲元件定義為由多個節點網路組成之一拓撲結構會產生一更複雜的單一計算。
此外,所定義的拓撲結構之多樣性控制可自大腦處理單元讀取的單一計算之多樣性。舉例而言,若所有之拓撲元件皆被定義為單個邊緣,則可能
的單一計算趨向於一致具有最小複雜性。另一方面,若拓撲元件被定義為不同拓撲結構之混合,則單一計算之範圍變得更加多樣,並且包含異質類型之單一計算。
在1115處,執行過程1100之裝置自一大腦處理單元中之邊緣接收訊號。在1120處,執行過程1100之裝置辨識其中無邊緣是活動的、一些邊緣是活動的或所有邊緣皆是活動的拓撲元件。在1125處,執行過程1100之裝置將拓撲元件之計算指定為已完成、部分完成或未開始。在1130處,執行過程1100之裝置輸出單一計算之完成狀態之一符號描述。
在一些實施方式中,執行過程1100之裝置可輸出拓撲元件之一列表以及其各自的單一計算之完成狀態之相關描述。舉例而言,一完成的單一計算可被映射至一「1」,一部分完成的單一計算可依據形成一拓撲元件之活動邊緣之分數被映射至「1」與「0」之間的值,並且尚未被執行之單一計算可被映射至一「0」。根據此實例性映射慣例,對大腦處理之輸入產生一總體單一計算,並且該多個計算中之所選計算由介於「0」至「1」範圍內之值來表示。
其他符號可映射至計算之完成狀態。舉例而言,可使用一不同的符號方案來分別跟蹤由用於定義一拓撲元件之邊緣之特定組合所定義的每種類型之單一計算之完成。在任何情形中,拓撲單元與計算之關聯使得一神經突觸電腦能夠跟蹤由一組輸入資料上之一組拓撲元件執行之單一計算之完成狀態。
在815處,執行過程800之裝置將該多個計算與認知相關聯。不同的認知演算法產生於不同的決策之組合及該多個決策之糾纏。因此,與不同的拓撲單元相關聯之計算可用於組裝決策之不同組合之任意複雜的層級結構。此外,該多個決策之結果可作為包含一組決策之一符號電腦語言被輸出。
形成一單一認知操作之一組單一決策中之單一決策是相互依賴的。每個單一決策是活動邊緣之一特定組合之一函數。活動邊緣各自是大腦處理單元之整個網路的活動之一獨特功能。由於由活動邊緣執行之基本計算及由拓撲元件執行之單一計算具有任意的複雜性,因此在形成一單一認知操作之單一決策之間存在一任意大量的依賴性。在一輸入之處理期間出現的特定依賴性定義單一決策之特定糾纏狀態。如下文進一步論述,決策之多種組合或層級層次亦是可能的。在一輸入之處理期間在一個層次上之決策之間出現的依賴性具有一糾纏狀態,該糾纏狀態定義一更高層次上之一決策。
沒有必要知曉由活動邊緣執行之基本計算之精確性質,亦不必知曉由拓撲元件執行之單一計算。確切而言,跟蹤拓撲元件之基本計算及單一計算之完成狀態便足夠了。因此,對一輸入執行之一計算是單一計算之完成狀態之一特定組合。此外,單一計算之完成狀態可被映射至認知計算之完成狀態。拓撲元件之單一計算可使用以下設計邏輯與認知計算相關聯。
定義一基本計算之一活動邊緣亦定義由大腦處理單元中之網路所達成之一基本決策。一基本決策被視為一決策之一基本單元。定義一單一計算之一拓撲元件之活動邊緣之一特定組合亦定義一單一決策。因此,一單一決策是由一組基本決策組成的。
一基本決策之狀態是一二進制狀態,乃因邊緣要麼是活動的要麼不為活動的。然而,與包含多個組件之一神經拓撲元件相關聯之一單一決策之狀態介於0至1的範圍內,乃因其可取決於神經拓撲元件之組件的基本二進制狀態(即,一組「0」及「1」)之分數及組合。
認知之一單元或一單一認知操作被定義為一組單一決策,即與一
組拓撲元件相關聯之一組單一計算。單一認知操作之類型由其構成單一決策(constituent unitary decision)之數量及組合來定義。舉例而言,在單一決策被捕獲在拓撲元件之一列表及其各自的單一計算之完成狀態之相關描述中之情形中,一單一認知操作可由構成單一決策之介於自0至1範圍內之一組值來表示。
在一些情形中,單一認知操作可被量化,並被表徵為完整或不完整。具體而言,不完整的單一計算(即,以其他方式以0與1之間的值表徵之單一計算)可被設置為「0」(例如,被視為未開始)。僅排他性地包含已完成的單一計算之認知操作(即,排他性地「1」)可被視為已完成。
此外,決策之額外組合或層級層次亦是可能的。舉例而言,一組單一認知操作可定義一認知功能,且一組認知功能可定義系統認知。實際上,在單一認知操作之間設計構造的關係定義認知功能之類型,而在認知功能之間設計構造的關係定義認知計算之類型。額外的組合或層級層次亦是可能的。
第12圖是認知內決策之一層級組織1200之示意性表示圖。應強調,層級組織1200是一個實例。更多或更少的層次亦是可能的。此外,計算可能會跨越多個層次糾纏。然而,層級組織1200是認知內決策層次之一例示性實例。
層級組織1200包含基本決策1205、單一決策1210、基本認知操作1215、單一認知操作1220、基本認知功能1225、單一認知功能1230及認知演算法1235。
如以上所論述,一認知編碼器可在一神經代碼之不同層次上對決策進行辨識及編碼。一神經代碼之設計邏輯在基本決策1205(例如由活動邊緣作出)之間創建依賴性以形成單一決策1210(由活動拓撲元件作出)。基本決策1205之間的依賴性可被稱為定義一單一決策1210之糾纏狀態。其他糾纏狀態定義單
一決策1210之間的依賴性。該多個糾纏狀態形成基本認知操作1215。其他糾纏狀態定義基本認知操作1215之間的依賴性。該多個糾纏狀態形成單一認知操作1220。還有其他一些糾纏狀態可定義單一認知操作1220之間的依賴性。該多個糾纏狀態形成基本認知功能1225。還有其他一些糾纏狀態可定義基本認知功能1225之間的依賴性。該多個糾纏狀態形成單一認知功能1230。還有其他一些糾纏狀態可定義單一認知功能1230之間的依賴性。該多個糾纏狀態形成一認知演算法1235。隨著在層級結構中之位置越來越高,所達成之決策之複雜性就會增加。
因此,在神經突觸計算中,糾纏創建每一層次上的依賴性,即,與緊鄰下方處理層次之直接依賴性、以及與所有其他下方層次之間接依賴性。舉例而言,一單一認知功能1230由對基本認知功能1225之直接依賴性及對單一認知操作1220、基本認知操作1215、單一決策1210、以及在最低層次上由活動邊緣作出的基本決策1205之間之間接依賴性形成。
在單一決策1210被量化使得一「1」表示一已完成決策且一「0」表示一部分決策及/或缺少決策之情形中,一單組「0」及「1」可表示一完整的認知演算法1235。此單組「0」及「1」形成一神經代碼符號語言,其表示在多個層次之內及之間計算之完成狀態及糾纏狀態。
第13圖是一種用於構建一神經代碼之一過程1300之流程圖。過程1300可由執行資料處理活動之一或多個資料處理裝置來執行。過程1300之活動可根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合之邏輯來執行。
在1305處,執行過程1300之裝置計算並分析表示大腦處理單元之結構之一結構圖。舉例而言,可藉由在大腦處理單元中之任意二個互連節點之間
分配一雙向邊緣來構建一無向圖。可藉由將邊緣之方向作為任意二個節點之間的傳輸的方向來構建一有向圖。在無輸入之情形中,考量大腦處理單元中之所有邊緣,且將該圖稱為一結構圖。可分析結構圖以計算在結構有向圖中存在的所有有向單形(directed simplice)、以及結構有向圖之單純複形(simplicial complex)。若需要,則可計算其他拓撲結構、拓撲度量及通用圖形度量。拓撲結構之實例包含最大單形(maximal simplice)、環圈(cycles)、立方體(cubes)等。拓撲度量之實例包含歐拉特性(Euler characteristic)。通用圖形度量之實例包含入度及出度(in-and out-degrees)、叢集(clustering)、中心(hubs)、團體(communities)等。
在1310處,執行過程1300之裝置定義活動邊緣。如以上所論述,用於定義一活動邊緣之特定標準設置形成基本決策之計算之類型及精度。此繼而設置構建神經代碼之計算中所包含的計算類型。
可用於定義一活動邊緣之一類標準是因果關係標準。一因果關係標準之一個實例要求-對於將被視為活動的之一邊緣-由一節點產生一尖峰,訊號被傳輸至一接收節點,並且在接收節點中成功地產生一響應。在接收節點中產生的響應可為例如不產生一尖峰之一閾下響應及/或存在確實產生一尖峰之閾上響應。此種因果關係標準可具有額外的要求。舉例而言,可設置在其中必須發生響應之一時間窗。此種時間窗控制由一活動邊緣表示之基本決策中包含的計算之複雜性。若因果關係之時間窗減小,則由接收節點執行之計算變為被限制在供接收節點執行其計算之一較短時間內。相反,一較長的時間窗允許節點自其他發送節點接收及處理更多的輸入,並有更多的時間對輸入執行計算。因此,時間窗變得越長,具有較長的時間窗之計算及所達成的決策便傾向於變得更複雜。
可用於定義一活動邊緣之另一類標準是重合標準(coincidence criterion)。一重合標準之一個實例要求-對於將被視為活動的之一邊緣-傳輸節點及接收節點二者必須在一給定時間窗內出現尖峰,而不限制哪個節點首先出現尖峰。用於識別一重合接收節點尖峰之時間窗之定時及持續時間設置重合標準之嚴格性。緊接在發送節點之尖峰之後出現之一短的時間窗表示將尖峰視為重合之一相對嚴格之條件。實際上,滿足一重合標準之一活動邊緣指示該網路在由時間窗之持續時間所給定之一頻帶內振盪。
另一類可用於定義一活動邊緣之標準是振盪標準(oscillation criteria)。一振盪標準之一個實例要求-對於將被視為活動的之一邊緣-不同的邊緣或不同類型的邊緣滿足多個重合標準。活動邊緣之間的此種聯合行為指示該網路正在以時間窗定義的一頻帶振盪。
在一些實施方式中,不同的因果關係、重合及振盪標準可應用於不同的邊緣及/或不同類別及類型之邊緣。
在1315處,執行過程1300之裝置分配符號來表示活動拓撲元件。舉例而言,若一拓撲元件之所有邊緣皆是活動的,則可向該拓撲元件指定一「1」,若無邊緣是活動的,則可向該拓撲元件指定一「0」,並且可指定1與0之間的一小數來指示活動邊緣之分數。作為另一選擇,對於部分活動的拓撲元件而言,可指定一數字來指示活動邊緣之特定組合。舉例而言,活動/非活動邊緣之一序列(例如,「01101011」)可使用二進制系統被指定一值。
在一些實施方式中,活動拓撲元件之表示可被量化。舉例而言,只有當一拓撲元件中之所有組件皆是活動的時,才能向該拓撲元件指定一「1」。若無組件為活動的或僅一些組件為活動的,則指定一「0」。
在1320處,執行過程1300之裝置構建大腦處理單元之函數圖。舉例而言,可藉由將大腦處理單元響應於一輸入之操作劃分為時間倉來構建函數圖。藉由使用結構圖,只有在每個時間倉中具有活動邊緣之節點可被連接,藉此創建函數圖之一時間序列。對於每個此種函數圖,可執行在1305處對結構圖執行之相同拓撲分析。在一些實施方式中,拓撲元件可跨時間統一。在一些實施方式中,可能有助於使用上述結構描述來指導計算之全域圖形度量或元資訊可與函數圖相關聯。
在任何情形中,藉由使用此種函數圖,可輸出表示活動及非活動的神經拓撲結構之一符號之集合(例如,「1」及「0」-存在或不存在中間實數來指示部分活動的神經拓撲結構)。在一些實施方式中,輸出亦可包含圖形的拓撲之全域度量及關於構建函數圖之方式之元資料。
在1325處,執行過程1300之裝置可糾纏大腦處理單元之單一決策。一般而言,一大腦處理單元將會很大以使得其可達成巨大數量之決策。對該多個決策之個別考量通常會證明為棘手的。決策之糾纏選擇在輸入資料之處理中涉及最多之決策之一子集。
一般而言,執行過程1300之裝置將選擇用於糾纏之決策之一子集。所選子集將包含與一特定輸入資料集之處理及將達成之認知最相關之決策。在輸入一資料集中之每個文件期間,可根據其激活圖型來選擇相關的決策。舉例而言,一拓撲元件在處理一單個輸入及跨一資料集之輸入期間為活動的之次數是該拓撲元件之相關性之指示。可構建不同決策之激活頻率之一直方圖,並且可基於該多個頻率來選擇決策。舉例而言,僅對資料集之一小部分為有效的之決策可用於構建用於異常偵測之一認知演算法。
作為另一實例,可基於激活頻率之一層級結構或分倉來選擇決策。舉例而言,可選擇在整個資料集之一頻率倉中變為有效的之決策(例如,10%的單一決策對於一輸入資料集中95%的輸入是有效的,20%的單一決策對於一輸入資料集中70%的輸入是有效的,50%的單一決策對於一輸入資料集中50%的輸入是有效的)。
作為另一實例,可基於全域圖形度量來選擇決策。舉例而言,若選擇是由一熵最佳化目標(entropy optimization target)驅動的,則僅選擇在整個輸入中50%有效的決策。作為另一實例,可檢測及選擇在特定時刻有效之決策,其為一特定圖型,例如一貝蒂數之圖型。
在對用於糾纏之決策之子集作出任何選擇之後,執行過程1300之裝置可糾纏決策。具體而言,可在層級結構中之每一層次上選擇所選決策之更多子集。
舉例而言,在一些實施方式中,糾纏可將一認知演算法分解成自最高層次至最低層次之功能及操作之一層級結構。每個功能及操作可進一步分解成子功能及子操作之一層級結構。無論特定層級之細節如何,單一決策之分解皆自層級結構之最高層次開始,且向下進行至層級結構之最低層次。
為分解一認知演算法,執行過程1300之裝置可選擇決策之層級結構中之最高目標層次。舉例而言,當層級結構如第12圖所示進行組織時,可選擇一認知演算法(例如,1235,第12圖)之已完成決策。單獨評估向下的下一層次之每個單一決策(例如,第12圖中之每一認知功能1230)在層級結構中之最高目標層次中關於該決策之其資訊內容。可構建一決策列表,並自最高資訊內容至最低資訊內容進行排序。可為最高目標層次中之其他決策構建其他排序列表。
執行過程1300之裝置然後可藉由自列表中選擇單一決策並測試其在層級結構中最高目標層次中之決策上的集體效能而將向下的下一層次之單一決策添加至另一子集。當向下的下一層次之每單一決策之效能增加降低至一低水準時(即,當每額外單一決策之效能變化減少時),不需要再向子集添加另外的單一決策。
然後,可提供已為決策之層級結構中之此第一最高目標層次找到的向下的下一級別之單一決策作為一輸入,以約束對向下的下一層次中之決策之進一步選擇,並構建層級結構之一第二目標層次。在評估關於此第二目標層次之資訊內容之後,可選擇來自一第二目標層次之附加單一決策。因此,為層級結構之第一目標層次及第二目標層次找到的單一決策之子集被用作初始子集,該初始子集約束為層級結構之一第三層次選擇單一決策之又一子集。此一直持續至已為決策之層級結構之所有層次選擇了單一決策。
在第12圖之層級結構之上下文中,可重複糾纏單一決策之過程,以糾纏基本認知功能1225、單一認知操作1220、基本認知操作1215及單一決策1210。在單一決策為二進制之情形中,在層級結構之每一層次上之單一決策之子集是一組位元,該多個位元在數量上增長以形成認知演算法。決策子集被稱為神經代碼。
在一些實施方式中,可在每一層次上對子集之序列作出一二進制決策,以產生編碼認知演算法之一較小的最終位元子集。
第14圖是用於在第12圖中所示的層級組織1200的上下文中構建層級神經代碼之過程之示意性表示圖。選擇一認知演算法1235作為一初始最高目標層次。基於其相對於所選認知演算法1235之資訊內容,選擇在單一認知功能
1230層次上之單一決策。在單一認知功能1230層次上之該多個單一決策然後形成目標層次,並且基於其相對於在單一認知功能1230層次上之單一決策之資訊內容來選擇在基本認知功能1225層次上之單一決策。此過程持續進行直至選擇了單一決策1210層次上之單一決策。
第15圖是用於將神經代碼解碼成其目標輸出之過程1500之一實例。過程1500可由執行資料處理活動之一或多個資料處理裝置來執行。過程1500之活動可根據一組機器可讀取指令、一硬體組合件或該多個及/或其他指令之一組合之邏輯來執行。舉例而言,過程1500可由作為動作產生器125(第1圖)之一動作產生器來執行以讀取並轉化神經代碼,使得可執行由神經代碼編碼之認知功能。
執行過程1500之動作產生器或其他裝置被構建成反轉用於構建層級神經代碼之糾纏演算法,並且對由大腦處理單元作出的決策之層級結構進行解糾纏。解糾纏中之每一步可藉由任意數量之機器學習模型來執行,或者在某些情形中,藉由分析公式(analytical formulation)來執行。
如圖所示,在1510處接收一神經代碼1505並將其輸入至機器學習模型1515、1520、1525、1530、1535中,該多個機器學習模型各自被訓練成處理神經代碼之一相關層級層次H1、H2、H3、H4之符號。在層級組織1200(第12圖)之上下文中,機器學習模型1515、1520、1525、1530、1535各自可被訓練成處理單一決策1210、基本認知操作1215、單一認知操作1220、基本認知功能1225、單一認知功能1230或認知演算法1235其中之相應一者。在一些實施方式中,來自一個層級層次(例如,一較低層次)上之機器學習模型之輸出可向另一層級層次(例如,一較高層次)上之機器學習模型提供輸入。此種輸入由互連機器學習模型
1515、1520、1525、1530、1535之虛線示意性地表示。
在所示的實施方式中,神經代碼1505被示為二進制「1」及「0」之一集合,二進制「1」及「0」各自表示一神經拓撲結構是活動還是不活動的。在其他實施方式中,可使用符號或實數。
此外,可使用大腦處理單元之一網路而非機器學習模型之一集合來將神經代碼解碼成其目標輸出。
在另一些其他實施方式中,可將神經代碼之層級元件映射至一圖形,並且可應用圖形訊號處理方法來將神經代碼解碼成其目標輸出。此種圖形訊號處理方法之實例包含圖形卷積神經網路。舉例而言,解糾纏可被實施為一圖形,其中節點是機器學習模型,而邊緣是自其他機器學習模型接收之輸入。
由動作產生器或執行過程1500之其他裝置提供之解碼可以是原始輸入資料之無損重建或一期望水準之壓縮之一有損重建。解碼亦可提供各種程度之加密,其中安全水準可藉由輸出中之衝突之概率來量化。此種動作產生器或其他裝置亦可被設計成對輸入資料執行任意複雜的數學運算,並為人工智慧應用提供一系列認知輸出。
第16圖是例如學習配接器130(第1圖)等的一學習配接器1600之示意性表示圖。如以上所論述,一學習配接器產生器被配置成最佳化一神經突觸電腦之每個組件之超參數。一學習配接器自每個組件接收超參數,使用一組件特定學習演算法最佳化超參數,並將超參數返回至組件。
學習配接器1600之所示實施例包含一資料學習器1605、一感覺學習器1610、一大腦處理單元學習器1615、一認知學習器1620及一動作學習器1625。資料學習器1605被配置成在資料被發送至一感覺編碼器之前,藉由一環境
產生器來最佳化資料之搜索、預處理及組織。感覺學習器1610被配置成教導感覺編碼器改變資料之編碼以適應一計算任務,並且削弱一些輸入通道並增強其他輸入通道。大腦處理單元學習器1615被配置成允許一大腦處理單元藉由引導突觸對輸入作出最佳響應來學習執行一計算任務。大腦處理單元學習器1615亦可在內部校準大腦處理單元之突觸及神經元設置,以提高大腦處理單元對未來輸入之預測。舉例而言,大腦處理單元學習器1615可構建將由大腦處理單元執行之一系列期望計算。認知學習器1620被配置成允許大腦處理單元藉由適應演算法來學習執行計算任務,該多個演算法提供認知演算法所需之最相關的集合計算/決策。動作學習器1625被配置成允許動作產生器自動搜索新的圖形配置,以糾纏認知演算法之計算/決策。資料學習器1605、感覺學習器1610、大腦處理單元學習器1615、認知學習器1620及動作學習器1625各自之一中心設計性質是產生對未來結果之預測之能力。
資料學習器1605、感覺學習器1610、大腦處理單元學習器1615、認知學習器1620及動作學習器1625各自輸出相應的訊號1630,用於最佳化神經突觸電腦之相關組件之超參數。資料學習器1605、感覺學習器1610、大腦處理單元學習器1615、認知學習器1620及動作學習器1625各自自其他組件接收超參數1635作為輸入,用於最佳化相關組件之超參數。
在操作中,學習配接器1600可被給予各種目標功能,例如,最小化神經代碼中之位元數用於最佳資料壓縮,達成一高水準加密,達成一無損壓縮,達成資料之一特定數學變換,或者達成一特定認知目標輸出。
神經突觸電腦之操作因此可包含設置神經突觸電腦之每個組件之超參數。此種超參數設置在一神經突觸電腦中執行與由傳統計算中之程式設
計範例及模型所執行之功能類似的功能。此外,硬體基礎設施及軟體可針對操作一神經突觸電腦所需執行之各種計算進行專門最佳化。
如以上所論述,一系列步驟及組件可為一神經突觸電腦之一部分。該多個步驟及組件包含用於使資料進入神經突觸電腦(類似於一感覺系統)中之一編碼方案、能夠產生總體大而多樣的計算之一架構(例如,循環人工神經網路大腦處理單元)、選擇及連接該多個計算之一子集以構建認知過程之一過程(一認知系統)、解釋編碼的認知過程之一過程(一動作系統)及提供最佳化及自我學習之一系統(一學習系統)。一循環人工神經網路大腦處理單元在一神經網路對輸入之響應期間產生一系列計算。大腦處理單元可為一尖峰或非尖峰循環神經網路,並且可在一數位電腦上實施或者在專用硬體中實施。原則上,一神經突觸電腦可用作一通用電腦或任何數量之不同專用電腦,例如一人工智慧(AI)電腦或一人工通用智慧(Artificial General Intelligence,AGI)電腦。
神經突觸電腦之計算範例使用基本決策之一層級結構來產生一認知演算法,該層級結構被組織成單一決策之一層級結構、認知操作之一層級結構及認知功能之一層級結構。過程自基本決策開始,該多個基本決策糾纏以捕捉由拓撲元件執行之基本計算。基本決策糾纏以構建單一決策。單一決策在連續層級結構中糾纏,以構建任意複雜的認知演算法。
原則上,可在可定義一拓撲元件之任何層次上自大腦計算單元之最小組件(例如,分子)至更大組件(例如,神經元、小的神經元群)至甚至更大的組件(例如,形成大腦計算單元之區、大腦計算單元之區域或完整的大腦計算單元之大的神經元組)作出單一決策。計算範例之最簡單版本為其中一拓撲元件被定義為相同類型組件(例如,神經元)之一網路,並且該範例之最複雜版本
為其中拓撲元件被定義為不同組件(例如,分子、神經元、神經元群、不同大小之神經元群)之一網路。拓撲元件之間的連接允許驅動被稱為糾纏之一過程之關聯。拓撲元件之間的循環連接性(例如,在最簡單的情形中在神經元之間,且在一更複雜的情形中在分子、神經元及神經元組之間)指定其關聯,且因此指定可如何糾纏單一決策以形成認知過程,以及可如何糾纏該多個單一認知過程。
一單一決策被作為由任何拓撲元件執行之一計算之任何可量測的輸出。舉例而言,在整合多個閾下輸入(例如,突觸響應)後產生的一閾上二進制尖峰(即,一動作電位)是一可量測的輸出。因此,一尖峰可被視為一單一決策。任何一組神經元之任何尖峰組合亦可被視為一單一決策。
拓撲元件-由一輸入直接激活及/或由其他響應拓撲元件間接激活-在處理輸入時作為一時間之函數產生一系列計算。該系列計算之最大大小由拓撲元件之數量確定。任何神經網路皆會產生介於一致至具有最大差異範圍內的一系列計算。若由拓撲元件執行的計算是相同的,則該系列計算被稱為是一致的。另一方面,若由每個拓撲元件執行的計算是不同的,則該系列計算被稱為是不同的。由一拓撲元件執行之計算之複雜性由其結構及函數性質之複雜性確定。舉例而言,具有一複雜樹狀分支及在其樹狀結構(arbor)上具有非線性離子通道之一給定組合之一神經元節點執行一相對複雜的計算。另一方面,具有一最小樹狀分支及僅產生一尖峰所需之非線性離子通道之一神經元節點執行一更簡單的計算。
由一拓撲元件執行之計算之複雜性亦取決於時間。一般而言,任何單一計算之複雜性皆被認為作為時間之一函數而朝向峰值複雜性演變,從而允許拓撲元件之組件相互作用,此繼而為組件之類型、其相互作用之性質以及其
相互作用之時間常數之一函數。可在此計算複雜性演變之任何階段作出一決策,從而終止形成一單一決策所涉及之計算複雜性之進一步演變。
當拓撲元件之結構及函數性質在數量上發生變化時,其被稱為在同一類別的計算中產生計算的變體。另一方面,當拓撲元件之結構及函數性質在性質上發生變化時,其被稱為產生不同類別之計算。一系列計算之性質可在一過程中被設計構造,該過程包含藉由選擇具有在性質上不同的結構及函數性質之拓撲元件來選擇計算類別之數量,藉由引入相同類別之拓撲元件之多個表示來設置每個類別之大小,藉由選擇相同類別內之拓撲元件之變體而在一計算類別內引入計算中的變體,以及藉由選擇每個類別內拓撲元件之多個表示來設置一類別內之多樣性。
神經突觸計算不依賴於知識,甚至不依賴於推導由拓撲元件執行的計算之性質之能力。相反,神經突觸計算基於以下前提,即以此種方式定義的計算足夠精確以形成一單一決策。由此可見,一系列計算相當於響應於一輸入作出的一系列單一決策。
任何單一決策之性質僅藉由其與其他單一決策之關聯進行定義。拓撲元件、單一計算及單一決策藉由一網路之循環連接性相關聯。關聯定義由拓撲元件執行的計算可與由其他拓撲元件執行的其他計算糾纏的所有方式-即,一拓撲元件之可能糾纏狀態之數量。變得糾纏相當於自由另一拓撲元件執行之計算開發一因變數輸入。依賴性可為任意複雜的。任何一個拓撲元件之糾纏狀態在輸入的處理期間作出決策之每一時刻進行定義,並且糾纏狀態未經定義、在決策之間是不確定的。任何一個拓撲元件之不同糾纏狀態之數量皆是極大的,乃因在一循環網路之環特性中存在大量的環。糾纏狀態之數量亦為達成一單一決策
所需時間之一函數(例如,在一拓撲元件被定義為一單個神經元之情形中,一神經元在輸入之後出現尖峰所花費之時間,或者在一拓撲元件被定義為一組神經元之情形中,一特定的尖峰序列出現所花費之時間)。
一旦一拓撲元件已作出一決策,計算便被稱為已完成。一計算完成之時間被稱為一單一決策時刻。當一組單一決策被作出時,對一輸入作出響應之一大腦處理單元作出一整合決策。作出一組單一決策之此時間可被稱為一單一認知時刻。一認知時刻定義在神經網路之模擬期間對輸入之認知處理。
當作出一單一決策時,一拓撲元件之糾纏狀態得到定義。一拓撲元件之可能糾纏狀態之類別亦受網路中一拓撲元件之位置的約束,其中該位置由網路中一拓撲元件與所有其他拓撲元件之連接性來定義。若每個拓撲元件皆與所有其他拓撲元件以獨特方式相連,則拓撲元件之位置-且因此拓撲元件之糾纏狀態之類別-被稱為具有最大多樣性。因此,連接性趨向一致性的簡單網路拓撲產生具有趨向一致性之糾纏狀態類別之拓撲元件,而更複雜的網路拓撲產生具有更多樣的糾纏狀態類別之網路。
一系列計算之大小及多樣性以及糾纏狀態之類別數量確定一神經突觸電腦之計算能力。假定該系列計算足夠大,並且計算及糾纏狀態之類別足夠多樣,則存在可模擬任何認知過程之計算及糾纏狀態之一子集,且因此使得能夠進行通用認知計算。
選擇形成認知過程之一組拓撲元件之過程是一最佳化功能,其找到認知過程中涉及之決策之一小的子集。最佳化功能開始於找到所作出的形成一單一認知過程之決策之一小的子集。然後,使用所找到的拓撲元件作為選擇附加拓撲元件以構建一認知過程中之一層級約束,並且此組拓撲元件繼而用作選
擇模仿認知過程之拓撲元件之又一子集之一約束。此糾纏過程可被稱為一拓撲糾纏演算法。
為實際利用此理論進行計算,由拓撲元件作出之單一決策被指定一符號值。在最簡單的實施方式中,使用單個位元來指示是(「1」)否(「0」)已經作出單一決策或。該多個位元可被稱為神經位元(nBits)。可自總體神經位元中選擇一組神經位元來表示一單一認知過程。神經位元之最終層級集合被稱為認知之一神經代碼。在其他實施方式中,單一決策由實數(nNums)表示,以指示拓撲元件作出決策之程度及/或該多個決策中的置信度。舉例而言,在被選作一拓撲元件之一組神經元中,出現尖峰之神經元之分數可被指定以反映作出一決策之概率。在另一實施方式中,神經代碼由代表所作決策之神經位元及實數之一混合組成。在另一實施方式中,一組元資料值(例如對反映在整個網路上作出的決策之全域特徵之全域圖形性質進行描述之該多個元資料值)被用作一約束,以引導作出相關決策之拓撲元件之層級選擇,並因此引導神經代碼之構建。元資料亦可被添加至神經代碼中以促進一組認知過程、單一認知過程及單一決策之解糾纏。
藉由概括糾纏演算法,可達成對神經代碼進行解糾纏以產生一輸出或動作。在一個實施方式中,一組機器學習模型(第一級模型)被應用於神經代碼並被訓練以解碼單一認知過程,然後另一組機器學習模型(第二級模型)被應用於神經代碼,並且第一級模型之輸出亦被用於解碼認知過程,且然後另一組機器學習模型(第三級模型)被應用於神經代碼,第一級模型及第二級模型之輸出被另外用於解碼認知過程。此種解糾纏可被實施為一圖形,其中節點是機器學習模型,而邊緣是自其他機器學習模型接收之輸入。此允許實現任意複雜的解糾
纏演算法。一替代實施方式為學習用於對神經代碼進行解糾纏之圖形。另一實施方式為其中將一分析公式應用於解糾纏之每個階段。輸出被稱為一動作,且由原始輸入之一重構、原始輸入之任意數量之數學變換函數之構造及任意數量之認知輸出組成。
在本說明書中闡述的標的物及操作的實施例可在類比、數位或混合訊號電子電路系統中實施,或者在電腦軟體、韌體或硬體(包含在本說明書中揭露的結構及其結構等效物)中或者以其一或多者的組合實施。在本說明書中闡述的標的物的實施例可被實施為一或多個電腦程式(即,電腦程式指令的一或多個模組),該一或多個電腦程式編碼於電腦儲存媒體上以便由資料處理設備執行或控制資料處理設備的操作。作為另一選擇或另外,程式指令可編碼於一人工產生的傳播訊號上,該人工產生的傳播訊號為例如被產生以對用於傳輸至適合的接收器設備的資訊進行編碼以便由一資料處理設備執行的一由機器產生的電性訊號、光學訊號或電磁訊號。一電腦儲存媒體可為一電腦可讀取儲存裝置、一電腦可讀取儲存基板、一隨機或串列存取記憶體陣列或裝置或其一或多者的組合,或者可包含於一電腦可讀取儲存裝置、一電腦可讀取儲存基板、一隨機或串列存取記憶體陣列或裝置或其一或多者的組合中。此外,儘管一電腦儲存媒體並非一傳播訊號,然而一電腦儲存媒體可為編碼於一人工產生的傳播訊號中的電腦程式指令的一來源(source)或目的地(destination)。電腦儲存媒體亦可為一或多個單獨的物理組件或媒體(例如,多個光碟(compact disc,CD)、碟片(disk)或其他儲存裝置),或者可包含於該一或多個單獨的物理組件或媒體(例如,多個CD、碟片或其他儲存裝置)中。
在本說明書中闡述的操作可被實施為由一資料處理設備對儲存
於一或多個電腦可讀取儲存裝置上的資料或自其他來源接收的資料實行的操作。
用語「資料處理設備」囊括用於處理資料的所有種類的設備、裝置及機器,包含例如一可程式化處理器、一電腦、一系統晶片或者前述中的多者或組合。該設備可包含類比電路系統、混合訊號電路系統、或專用邏輯電路系統,例如一現場可程式化閘陣列(field programmable gate array,FPGA)或一應用專用積體電路(application specific integrated circuit,ASIC)。該設備可除硬體之外亦包含為所論述的電腦程式創建一執行環境的碼,例如構成處理器韌體、一協定堆疊、一資料庫管理系統、一作業系統、一跨平臺運行時間環境、一虛擬機或其一或多者的組合的碼。該設備及執行環境可達成各種不同的計算模型基礎架構,例如網路服務、分佈式計算及網格式計算基礎架構。
一電腦程式(亦稱為一程式、軟體、軟體應用、腳本或碼)可以包含編譯或解譯語言、宣告性語言或程序性語言在內的任何形式的程式化語言來編寫,且該電腦程式可以任何形式來部署,包含作為一獨立程式或作為一模組、組件、次常式、對象或適合於在一計算環境中使用的其他單元。一電腦程式可(但無需)對應於一檔案系統中的一檔案。一程式可儲存於一檔案的保持其他程式或資料(例如,儲存於一標示語言文件中的一或多個腳本)的一部分中、專用於所論述的該程式的單一檔案中或者多個協調的檔案(例如,儲存一或多個模組、子程式或碼部分的檔案)中。一電腦程式可被部署成在位於一個站點(site)處的一個電腦上或在分佈於多個站點上並藉由一通訊網路互連的多個電腦上執行。
在本說明書中闡述的過程及邏輯流程可由一或多個可程式化處
理器來實行,該一或多個可程式化處理器執行一或多個電腦程式,以藉由對輸入資料進行操作並產生輸出來實行動作。過程及邏輯流程亦可由專用邏輯電路系統來實行,且設備亦可被實施為專用邏輯電路系統,例如一現場可程式化閘陣列(FPGA)或一應用專用積體電路(ASIC)。
舉例而言,適合於執行一電腦程式的處理器包含通用微處理器與專用微處理器二者以及任何種類的數位電腦其中之任何一或多個處理器。一般而言,一處理器將自一唯讀記憶體或一隨機存取記憶體或二者接收指令及資料。一電腦的基本元件是用於根據指令實行動作的一處理器以及用於儲存指令及資料的一或多個記憶體裝置。一般而言,一電腦亦將包含用於儲存資料的一或多個巨量儲存裝置(例如磁碟、磁光碟或光碟),或者被操作地耦合以自該一或多個巨量儲存裝置接收資料或向該一或多個巨量儲存裝置轉移資料或者進行二者。然而,一電腦不必具有此種裝置。此外,一電腦可嵌置於例如(舉幾個例子)一行動電話、一個人數位助理(personal digital assistant,PDA)、一行動音訊或視訊播放機、一遊戲主控台(game console)、一全球定位系統(Global Positioning System,GPS)接收器或一可攜式儲存裝置(例如,一通用串列匯流排(universal serial bus,USB)快閃驅動器)等另一裝置中。適合於儲存電腦程式指令及資料的裝置包含所有形式的非揮發性記憶體、媒體及記憶體裝置,包含例如:半導體記憶體裝置,例如可抹除可程式化唯讀記憶體(erasable programmable read only memory,EPROM)、電子可抹除可程式化唯讀記憶體(electrically erasable programmable read only memory,EEPROM)及快閃記憶體裝置;磁碟,例如內部硬碟或可移除式碟片(removable disk);磁光碟;以及光碟唯讀記憶體(compact disc-read only memory,CD ROM)及數位多功能光碟唯讀記憶體(digital versatile
disc-read only memory,DVD ROM)碟片。處理器及記憶體可藉由專用邏輯電路系統來補充或包含於專用邏輯電路系統中。
為提供與一使用者的交互,在本說明書中闡述的標的物的實施例可在一電腦上實施,該電腦具有例如陰極射線管(cathode ray tube,CRT)或液晶顯示器(liquid crystal display,LCD)監視器等用於向使用者顯示資訊的顯示裝置以及可供使用者向電腦提供輸入的鍵盤及指針裝置(例如,一滑鼠或一軌跡球)。亦可使用其他種類的裝置來提供與一使用者的交互;舉例而言,提供至使用者的回饋可為任何形式的感覺回饋,例如視覺回饋、聽覺回饋或觸覺回饋;且來自使用者的輸入可以包含聲響、語音或觸覺輸入在內的任何形式接收。此外,一電腦可藉由向使用者使用的一裝置發送文件及自使用者使用的一裝置接收文件來與一使用者交互;例如,藉由響應於自網路瀏覽器接收的請求,將網頁發送至一使用者客戶端裝置上的一網路瀏覽器。
儘管本說明書包含諸多具體的實施細節,然而該多個實施細節不應被視為對任何發明的範圍或可主張的範圍的限制,而應被視為對特定實施例的專有特徵的說明。在單獨的實施例的上下文中闡述的某些特徵亦可在單一實施例中以組合方式實施。相反,在單一實施例的上下文中闡述的各種特徵亦可在多個實施例中單獨地實施或以任何適合的子組合來實施。此外,儘管上文可將特徵闡述為在某些組合中起作用且甚至最初如此主張,然而在一些情形中,可自一所主張的組合中去除來自該組合的一或多個特徵,且所主張的組合可指向一子組合或一子組合的變型。
相似地,儘管在圖式中以一特定次序繪示操作,然而此不應被理解為要求以所示的特定次序或以順序次序實行此種操作或者要求實行所有所示
操作以達成所期望的結果。在某些情況中,多任務及平行處理可為有利的。此外,上述實施例中的各種系統組件的分離不應被理解為在所有實施例中均需要此種分離,且應理解,所闡述的程式組件及系統一般可一起整合於單一軟體產品中或者被封裝至多個軟體產品中。
因此,已闡述標的物的特定實施例。其他實施例處於以下申請專利範圍的範圍內。
本申請案主張於2019年12月11日提出申請之美國專利申請案第62/946,733號之優先權,該美國專利申請案之全部內容併入本案供參考。
100:神經突觸電腦系統
105:資料環境產生器
110:感覺編碼器
115:大腦處理單元
120:認知編碼器
125:動作產生器
130:學習配接器
135:前饋學習配接器
140:回饋學習配接器
145:監督或其他訊號
150、155、160:訊號
165:獎勵或其他訊號
170、175、180:訊號
Claims (25)
- 一種讀取一人工循環神經網路之輸出之方法,該人工循環神經網路包含多個節點及連接該多個節點之多個邊緣,該方法包含:辨識一或多個相對複雜的根拓撲元件,該一或多個相對複雜的根拓撲元件各自包含該人工循環神經網路中的該多個節點及該多個邊緣之一子集;辨識多個相對較簡單的拓撲元件,該多個相對較簡單的拓撲元件各自包含該人工循環神經網路中的該多個節點及該多個邊緣之一子集,其中所辨識的該多個相對較簡單的拓撲元件與該多個相對複雜的根拓撲元件的至少其中之一呈現一層級關係;產生多個數字的一集合,其中該多個數字各自表示該多個相對複雜的根拓撲元件及該多個相對較簡單的拓撲元件其中之相應一者在一時間窗期間是否為活動的;以及輸出該多個數字的該集合。
- 如請求項1所述之方法,其中辨識該相對複雜的根拓撲元件包含:當該人工循環神經網路響應於一輸入時,判斷該相對複雜的根拓撲元件是活動的。
- 如請求項1所述之方法,其中辨識與該多個相對複雜的根拓撲元件呈現一層級關係之該多個相對較簡單的拓撲元件包含:將一輸入資料集輸入至該人工循環神經網路中;以及確定該多個相對較簡單的拓撲元件之活動或不活動與該多個相對複雜的根拓撲元件之活動相關聯。
- 如請求項1所述之方法,更包含:定義用於判斷一拓撲元件是否為活動的之多個標準,其中用於判斷該拓撲元件是否為活動的之該多個標準是基於該拓撲元件中所包含的該多個節點或該多個邊緣之活動。
- 如請求項1所述之方法,更包含:定義用於判斷該人工循環神經網路中之邊緣是否為活動的之多個標準。
- 如請求項1所述之方法,其中辨識與該多個相對複雜的根拓撲元件呈現一層級關係之該多個相對較簡單的拓撲元件包含:將該多個相對複雜的根拓撲元件分解成拓撲元件之一集合。
- 如請求項6所述之方法,其中辨識與該多個相對複雜的根拓撲元件呈現一層級關係之該多個相對較簡單的拓撲元件包含:形成該多個相對複雜的根拓撲元件分解成的拓撲元件之一列表;自最複雜的該多個拓撲元件至最不複雜的該多個拓撲元件對該列表進行排序;以及自最複雜的該多個拓撲元件開始,基於關於該多個相對複雜的根拓撲元件之資訊內容,自該列表中選擇該多個相對較簡單的拓撲元件以在該多個數字的該集合中表示。
- 如請求項7所述之方法,其中自該列表中選擇更複雜的該多個拓撲元件以在該多個數字的該集合中表示包含:判斷自該列表中選擇的該多個相對較簡單的拓撲元件是否足以確定該多個相對複雜的根拓撲元件;以及因應於確定自該列表中選擇的該多個相對較簡單的拓撲元件足以確定該多個相對複雜的根拓撲元件,不再自該列表中選擇相對較簡單的拓撲元件。
- 一種電腦可讀取儲存媒體,被編碼以具有多個可執行指令,當由至少一處理器執行時,該多個可執行指令使該至少一處理器執行包含如請求項1至8其中之任一項所述之方法之操作。
- 一種讀取一人工循環神經網路之輸出之方法,該人工循環神經網路包含多個節點及在該多個節點之間形成連接之多個邊緣,該方法包含:定義將自該人工循環神經網路讀取的多個計算結果,其中定義該多個計算結果包含:定義用於判斷該人工循環神經網路中之該多個邊緣是否為活動的之多個標準,以及定義多個拓撲元件,該多個拓撲元件各自包含該人工循環神經網路中該多個邊緣之一適當子集,以及定義用於判斷所定義的該多個拓撲元件各自是否為活動的之多個標準,其中用於判斷所定義的該多個拓撲元件各自是否為活動的之該多個標準是基於所定義的該多個拓撲元件中的相應一者中所包含的該多個邊緣之活動,其中一活動的拓撲元件指示相應的一計算結果已經完成。
- 如請求項10所述之方法,更包含自該人工循環神經網路讀取已完成的該多個計算結果。
- 如請求項11所述之方法,更包含:自該人工循環神經網路讀取不完整的計算結果,其中讀取不完整的計算結果包含讀取該多個拓撲元件中之對應一者所包含的該多個邊緣之活動,其中該多個邊緣之該活動不滿足用於確定該多個拓撲元件中之該對應一者為活動的之該多個標準。
- 如請求項11所述之方法,更包含:估算一計算結果之一完成百分比,其中估算該完成百分比包含確定該多個拓撲元件中之對應一者中所包含的該多個邊緣之一活動分數。
- 如請求項10所述之方法,其中用於判斷該人工循環神經網路中之該多個邊緣是否為活動的之該多個標準包含,對於給定的一邊緣,要求:由連接至該邊緣之一節點產生一尖峰;由該邊緣將該尖峰傳送至一接收節點;以及該接收節點對所傳送之該尖峰產生一響應。
- 如請求項14所述之方法,其中用於判斷該人工循環神經網路中的該多個邊緣是否為活動的之該多個標準包含一時間窗,在該時間窗中,該尖峰被產生並被傳送,且該接收節點將產生該響應。
- 如請求項10所述之方法,其中用於判斷該人工循環神經網路中的該多個邊緣是否為活動的之該多個標準包含一時間窗,在該時間窗中,二個節點藉由該多個邊緣尖峰進行連接,而無論該二個節點中的哪一者首先出現尖峰。
- 如請求項10所述之方法,其中用於判斷該人工循環神經網路中的該多個邊緣是否為活動的之不同的多個標準被應用於不同的該多個邊緣。
- 如請求項10所述之方法,其中定義將自該人工循環神經網路讀取的多個計算結果包含構建該人工循環神經網路之函數圖,包含:定義時間倉之一集合;創建該人工循環神經網路之多個函數圖,其中該多個函數圖各自僅包含在該多個時間倉中的相應一者內為活動的之節點;以及 基於該人工循環神經網路之該多個函數圖中該多個邊緣之該活動來定義該多個拓撲元件。
- 如請求項18所述之方法,更包含:將在該多個函數圖中之一第一函數圖中定義的一第一拓撲元件與在該多個函數圖中之一第二函數圖中定義的一第二拓撲元件組合,其中該第一函數圖及該第二函數圖包含在不同的該多個時間倉內為活動的之節點。
- 如請求項18所述之方法,更包含:在該多個計算結果中包含一或多個全域圖度量或元資訊。
- 如請求項10所述之方法,其中定義將自該人工循環神經網路讀取的該多個計算結果包含:基於每一拓撲元件在一單個輸入之處理期間及跨一輸入資料集為活動的之次數,選擇將自該人工循環神經網路讀取的該多個拓撲元件之一適當子集。
- 如請求項21所述之方法,其中選擇該多個拓撲元件之該適當子集包含:選擇該多個拓撲元件中之一第一拓撲元件,該第一拓撲元件僅對該輸入資料集之一小部分為活動的;以及將該第一拓撲元件指定為一異常指示。
- 如請求項21所述之方法,其中選擇該多個拓撲元件之該適當子集包含:選擇多個拓撲元件,以確保該適當子集包含對於該輸入資料集之不同部分為活動的之拓撲元件之一預定義分佈。
- 如請求項10所述之方法,其中定義將自該人工循環神經網路讀取的該多個計算結果包含:基於該多個拓撲元件之一層級排列,選擇將自該人工循環神經網路中讀取的該多個拓撲元件之一適當子集,其中該多個拓撲元件中之一第一拓撲元件被 辨識為一根拓撲元件,且有助於該根拓撲元件之拓撲元件被選擇用於該適當子集。
- 如請求項24所述之方法,更包含:辨識多個根拓撲元件,以及選擇有助於該多個根拓撲元件之拓撲元件用於該適當子集。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962946733P | 2019-12-11 | 2019-12-11 | |
US62/946,733 | 2019-12-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202137072A TW202137072A (zh) | 2021-10-01 |
TWI779418B true TWI779418B (zh) | 2022-10-01 |
Family
ID=73835604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109143863A TWI779418B (zh) | 2019-12-11 | 2020-12-11 | 讀取一人工循環神經網路之輸出之方法及其電腦可讀取儲存媒體 |
Country Status (6)
Country | Link |
---|---|
US (4) | US20230024152A1 (zh) |
EP (4) | EP4073717A1 (zh) |
KR (4) | KR20220110297A (zh) |
CN (4) | CN115136153A (zh) |
TW (1) | TWI779418B (zh) |
WO (4) | WO2021116379A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11615285B2 (en) | 2017-01-06 | 2023-03-28 | Ecole Polytechnique Federale De Lausanne (Epfl) | Generating and identifying functional subnetworks within structural networks |
US11663478B2 (en) | 2018-06-11 | 2023-05-30 | Inait Sa | Characterizing activity in a recurrent artificial neural network |
US11972343B2 (en) | 2018-06-11 | 2024-04-30 | Inait Sa | Encoding and decoding information |
US11893471B2 (en) | 2018-06-11 | 2024-02-06 | Inait Sa | Encoding and decoding information and artificial neural networks |
US11652603B2 (en) | 2019-03-18 | 2023-05-16 | Inait Sa | Homomorphic encryption |
US11569978B2 (en) | 2019-03-18 | 2023-01-31 | Inait Sa | Encrypting and decrypting information |
US11816553B2 (en) | 2019-12-11 | 2023-11-14 | Inait Sa | Output from a recurrent neural network |
US11797827B2 (en) | 2019-12-11 | 2023-10-24 | Inait Sa | Input into a neural network |
US11651210B2 (en) | 2019-12-11 | 2023-05-16 | Inait Sa | Interpreting and improving the processing results of recurrent neural networks |
US11580401B2 (en) | 2019-12-11 | 2023-02-14 | Inait Sa | Distance metrics and clustering in recurrent neural networks |
US20220207354A1 (en) * | 2020-12-31 | 2022-06-30 | X Development Llc | Analog circuits for implementing brain emulation neural networks |
US20220202348A1 (en) * | 2020-12-31 | 2022-06-30 | X Development Llc | Implementing brain emulation neural networks on user devices |
US20220358348A1 (en) * | 2021-05-04 | 2022-11-10 | X Development Llc | Processing images captured by drones using brain emulation neural networks |
US20230186622A1 (en) * | 2021-12-14 | 2023-06-15 | X Development Llc | Processing remote sensing data using neural networks based on biological connectivity |
US20230196541A1 (en) * | 2021-12-22 | 2023-06-22 | X Development Llc | Defect detection using neural networks based on biological connectivity |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180018553A1 (en) * | 2015-03-20 | 2018-01-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Relevance score assignment for artificial neural networks |
TW201928789A (zh) * | 2017-12-26 | 2019-07-16 | 中華電信股份有限公司 | 基於類神經網路之兩段式特徵抽取系統及其方法 |
TW201937392A (zh) * | 2013-10-11 | 2019-09-16 | 美商艾勒門公司 | 與配備有相機之裝置連接之用於生物特徵量測鑑認之系統及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9195903B2 (en) * | 2014-04-29 | 2015-11-24 | International Business Machines Corporation | Extracting salient features from video using a neurosynaptic system |
US9373058B2 (en) * | 2014-05-29 | 2016-06-21 | International Business Machines Corporation | Scene understanding using a neurosynaptic system |
US10885425B2 (en) * | 2016-12-20 | 2021-01-05 | Intel Corporation | Network traversal using neuromorphic instantiations of spike-time-dependent plasticity |
US20190378000A1 (en) * | 2018-06-11 | 2019-12-12 | Inait Sa | Characterizing activity in a recurrent artificial neural network |
-
2020
- 2020-12-11 CN CN202080096276.8A patent/CN115136153A/zh active Pending
- 2020-12-11 KR KR1020227023826A patent/KR20220110297A/ko unknown
- 2020-12-11 US US17/783,961 patent/US20230024152A1/en active Pending
- 2020-12-11 EP EP20829555.0A patent/EP4073717A1/en active Pending
- 2020-12-11 US US17/783,981 patent/US20230028511A1/en active Pending
- 2020-12-11 US US17/783,976 patent/US20230024925A1/en active Pending
- 2020-12-11 CN CN202080096251.8A patent/CN115104106A/zh active Pending
- 2020-12-11 WO PCT/EP2020/085716 patent/WO2021116379A1/en unknown
- 2020-12-11 EP EP20824539.9A patent/EP4073716A1/en active Pending
- 2020-12-11 KR KR1020227023871A patent/KR20220107300A/ko unknown
- 2020-12-11 EP EP20824536.5A patent/EP4073710A1/en active Pending
- 2020-12-11 TW TW109143863A patent/TWI779418B/zh active
- 2020-12-11 US US17/783,978 patent/US20230019839A1/en active Pending
- 2020-12-11 CN CN202080096252.2A patent/CN115104107A/zh active Pending
- 2020-12-11 WO PCT/EP2020/085754 patent/WO2021116404A1/en unknown
- 2020-12-11 CN CN202080096270.0A patent/CN115066696A/zh active Pending
- 2020-12-11 WO PCT/EP2020/085762 patent/WO2021116407A1/en unknown
- 2020-12-11 EP EP20824532.4A patent/EP4073709A1/en active Pending
- 2020-12-11 KR KR1020227023875A patent/KR20220107303A/ko unknown
- 2020-12-11 WO PCT/EP2020/085750 patent/WO2021116402A1/en unknown
- 2020-12-11 KR KR1020227023872A patent/KR20220107301A/ko unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201937392A (zh) * | 2013-10-11 | 2019-09-16 | 美商艾勒門公司 | 與配備有相機之裝置連接之用於生物特徵量測鑑認之系統及方法 |
US20180018553A1 (en) * | 2015-03-20 | 2018-01-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Relevance score assignment for artificial neural networks |
TW201928789A (zh) * | 2017-12-26 | 2019-07-16 | 中華電信股份有限公司 | 基於類神經網路之兩段式特徵抽取系統及其方法 |
Also Published As
Publication number | Publication date |
---|---|
TW202137072A (zh) | 2021-10-01 |
KR20220107303A (ko) | 2022-08-02 |
EP4073710A1 (en) | 2022-10-19 |
WO2021116402A1 (en) | 2021-06-17 |
WO2021116407A1 (en) | 2021-06-17 |
US20230024925A1 (en) | 2023-01-26 |
EP4073716A1 (en) | 2022-10-19 |
EP4073717A1 (en) | 2022-10-19 |
CN115104106A (zh) | 2022-09-23 |
KR20220110297A (ko) | 2022-08-05 |
EP4073709A1 (en) | 2022-10-19 |
US20230019839A1 (en) | 2023-01-19 |
US20230024152A1 (en) | 2023-01-26 |
CN115066696A (zh) | 2022-09-16 |
WO2021116379A1 (en) | 2021-06-17 |
US20230028511A1 (en) | 2023-01-26 |
KR20220107301A (ko) | 2022-08-02 |
KR20220107300A (ko) | 2022-08-02 |
WO2021116404A1 (en) | 2021-06-17 |
CN115136153A (zh) | 2022-09-30 |
CN115104107A (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI779418B (zh) | 讀取一人工循環神經網路之輸出之方法及其電腦可讀取儲存媒體 | |
Schuman et al. | Evolutionary optimization for neuromorphic systems | |
WO2022101515A1 (en) | Method for an explainable autoencoder and an explainable generative adversarial network | |
US9524461B1 (en) | Conceptual computation system using a hierarchical network of modules | |
US20220398460A1 (en) | Automatic xai (autoxai) with evolutionary nas techniques and model discovery and refinement | |
Gallo | Artificial neural networks tutorial | |
Grattarola et al. | Learning graph cellular automata | |
Heywood | Evolutionary model building under streaming data for classification tasks: opportunities and challenges | |
Malik et al. | Architecture, generative model, and deep reinforcement learning for IoT applications: Deep learning perspective | |
Predić et al. | Improving final grade prediction accuracy in blended learning environment using voting ensembles | |
Abubakar et al. | Hopfield type of artificial neural network via election algorithm as heuristic search method for random boolean ksatisfiability | |
Wang et al. | Should we learn probabilistic models for model checking? A new approach and an empirical study | |
US20200394508A1 (en) | Categorical electronic health records imputation with generative adversarial networks | |
Perumalla et al. | Detecting Sensors and Inferring their Relations at Level-0 in Industrial Cyber-Physical Systems | |
Zennaro | Analyzing and storing network intrusion detection data using Bayesian coresets: a preliminary study in offline and streaming settings | |
Chander et al. | Auto-encoder—lstm-based outlier detection method for wsns | |
Jeong | Performance of Neural Computing Techniques in Communication Networks | |
Atitallah | Intelligent Microservices-based Approach to Support Data Analytics for IoT Applications | |
Rakytyanska | Knowledge distillation in granular fuzzy models by solving fuzzy relation equations | |
Van Camp | Using diversity ensembles with time limits to handle concept drift | |
Llauradó Crespo | Generative models for data augmentation for Inertial Movement Units (IMUs) | |
Cossu | Towards Real-World Data Streams for Deep Continual Learning | |
Wu et al. | Grammar guided genetic programming for flexible neural trees optimization | |
Le | Expressive and modular rule-based classifier for data streams | |
Kulakov | Efficient Data Management in Wireless Sensor Networks using Artificial Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GD4A | Issue of patent certificate for granted invention patent |