TWI786483B - 處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法 - Google Patents

處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法 Download PDF

Info

Publication number
TWI786483B
TWI786483B TW109143240A TW109143240A TWI786483B TW I786483 B TWI786483 B TW I786483B TW 109143240 A TW109143240 A TW 109143240A TW 109143240 A TW109143240 A TW 109143240A TW I786483 B TWI786483 B TW I786483B
Authority
TW
Taiwan
Prior art keywords
application
neural network
input
data
patterns
Prior art date
Application number
TW109143240A
Other languages
English (en)
Other versions
TW202137070A (zh
Inventor
亨利 馬克瑞
菲力克斯 舒爾曼
法比恩 喬納森 德拉隆德
丹尼爾 米蘭 路特海曼
約翰 拉蒙
Original Assignee
瑞士商Inait公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 瑞士商Inait公司 filed Critical 瑞士商Inait公司
Publication of TW202137070A publication Critical patent/TW202137070A/zh
Application granted granted Critical
Publication of TWI786483B publication Critical patent/TWI786483B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一種循環人工神經網路的輸出在各種不同應用程式中的應用被揭露於此。一種方法可包含:識別循環人工神經網路中的多個活動拓撲圖型;輸出數字的集合;以及將集合的第一數字輸入至為了實現第一目的而設計出的第一應用程式及輸入至為了實現第二目的而設計出的第二應用程式中,其中第一目的與第二目的不同。該多個活動拓撲圖型響應於資料被輸入至循環人工神經網路中,且各活動拓撲圖型都抽取輸入資料的特徵。各數字表示該多個活動拓撲圖型其中之一是否已在人工神經網路中被識別出。

Description

處理感測資料的方法、神經網路系統及建構循環神經網 路系統的方法
本發明係關於人工神經網路,且更具體而言,係關於將來自循環人工神經網路的輸出應用於各種不同的應用程式。
人工神經網路是受生物神經元網路的結構及功能態樣啟發的裝置。具體而言,人工神經網路使用被稱為節點的一互連構建系統來模擬生物神經元網路的資訊編碼及其他處理能力。一人工神經網路中節點之間連接的排列及強度決定了由該人工神經網路進行資訊處理或資訊儲存的結果。
可訓練神經網路以在網路內產生一期望的訊號流,並達成期望的資訊處理或資訊儲存結果。一般而言,在一學習階段期間,訓練一神經網路將改變節點之間的連接的排列及/或強度。當一神經網路對於給定的幾組輸入達成足夠恰當的處理結果時,可將該神經網路視為經過訓練。
由於訓練是由神經網路執行的處理的基礎,因此神經網路執行的處理的輸出特定於已訓練神經網路的任務。舉例而言,來自神經網路影像分類器的輸出可為輸入影像的一「是/否」分類(yes/no classification)。再舉例而言, 已被訓練以使汽車轉向的神經網路的輸出將是適合用於使汽車轉向的一組訊號。
已嘗試透過使用額外的訓練資料來訓練神經網路執行額外的任務,進而使神經網路所執行的處理更為廣泛。舉例而言,除了二進位的「是/否」分類,神經網路影像分類器可將輸入的影像分類為多個類別。類似地,透過以額外的條件來訓練神經網路,可擴大使神經網路有能力操控汽車的條件的集合。儘管可執行的任務增加了,但網路輸出的性質仍限定於已針對該網路進行訓練的任務。
使神經網路執行的處理更為廣泛的其他嘗試依賴於多階層架構(multi-stage architecture),在該多階層架構中,第一階層被訓練以執行特定操作,且該特定操作的結果被輸入至不同的下游(downstream)階層中。該多階層架構的一示例可如網頁https://github.com/yunjey/pytorch-tutorial/tree/master/tutorials/03-advanced/image_captioning中所示,且該示例被繪示於第1圖中。在多階層架構1中,一輸入影像5被輸入至已訓練為從影像中抽取特徵的一卷積神經網路10中。可在一特徵向量15中表示所述特徵的存在與否,且特徵向量15在線性轉換器20處被轉換為具有與長短期記憶(LSTM)解碼器網路的輸入維度相同的維度。LSTM解碼器網路包含多個模組25的集合,該多個模組25一起為轉換後的特徵向量15加上標題(caption)。儘管針對卷積神經網路10和LSTM解碼器網路所進行訓練的任務有所不同,但仍透過反向傳播對其進行了多個目標任務的訓練。神經網路的輸出的性質對於其特定訓練仍然是固有的。
本文敘述了將循環人工神經網路的輸出應用於各種不同的應用程式。
於一實施方式中,一種方法包含:識別一循環人工神經網路中的多個活動拓撲圖型;輸出包含多個數字的一集合;以及將該集合的一第一位數字輸入至一第一應用程式以及一第二應用程式,該第一應用程式是為實現一第一目的而被設計出,該第二應用程式是為實現一第二目的而被設計出,且該第一目的與該第二目的不同。該多個活動拓撲圖型係響應於一資料被輸入至該循環人工神經網路中,且該多個活動拓撲圖型中的每一者抽取所輸入的該資料的一特徵。該多個數字中的每一者係表示該多個活動拓撲圖型其中之一是否在該循環人工神經網路中被識別出。
於另一實施方式中,一種用於建構一人工神經網路系統的方法包含:提供一循環人工神經網路,該循環人工神經網路包含一輸入以及一輸出,該輸入用以將一資料輸入至該循環人工神經網路,該輸出用以輸出多個表示(representations),該多個表示用以表示多個活動拓撲圖型是否已經響應於被輸入的該資料而出現在該循環人工神經網路中。該方法還包含:選擇該多個表示的一第一適當子集合,以將該第一適當子集合輸入至一第一應用程式;以及選擇該多個表示的一第二適當子集合,以將該第二適當子集合輸入至一第二應用程式。
於另一實施方式中,一種神經網路系統包含一循環神經網路以及一第一應用程式。該循環神經網路包含:一第一區域、一第二區域以及一第三區域。該第一區域用以接收一第一資料。該第二區域用以接收一第二資料,其中即使該第一區域與該第二區域同時被干擾,該第一區域主要受到該第一資料的干擾,且該第二區域主要受到該第二資料的干擾。該第三區域用以接收該第一區域 與該第二區域的多個處理結果;以及輸出多個指示(indications),其中該多個指示代表多個活動拓撲圖型的存在,且該多個活動拓撲圖型響應於該第一區域與該第二區域的該多個處理結果。該第一應用程式被耦合以接收該多個活動拓撲圖型存在的該多個指示中的至少一部分。
於另一實施方式中,一神經網路系統包含一循環神經網路、一第一應用程式以及一第二應用程式。該循環神經網路包含一第一區域以及一第二區域。該第一區域用以接收第一資料以及輸出多個活動拓撲圖型響應於該第一區域的處理結果而存在的指示。該第二區域用以接收第二資料以及輸出活動拓撲圖型響應於該第一區域和該第二區域的處理結果而存在的多個指示。即使該第一區域與該第二區域同時被干擾,該第一區域主要受到該第一資料的干擾,且該第二區域主要受到該第二資料的干擾。
第一應用程式被耦合以接收活動拓撲圖型存在的多個指示中的至少一部分。第二應用程式被耦合以接收活動拓撲圖型存在的多個指示中的至少一部分。該第一應用程式是為了實現一第一目的而被設計出。該第二應用程式是為了實現一第二目的而被設計出。該第一目的不同於該第二目的。
上述及其他的實施方式可包含以下特徵中的一或多個。所述應用程式可為例如:分群(clustering)應用程式、字幕應用程式、控制系統應用程式、預測應用程式、決策應用程式、顯著性預測應用程式、用於縮減編碼(reduced encoding)之重構的應用程式、語言翻譯應用程式、加密應用程式以及解密應用程式。可從該循環人工神經網路的第一區域中提取一第一位數字,該第一區域主要受到一第一類輸入資料的干擾。可從該循環人工神經網路的一第二區域中提取一第二位數字,該第二區域主要受到一第二類輸入資料的干擾。第一類輸入資 料可為在時間上相對快速地改變的資料,第二類輸入資料可為在時間上相對緩慢地改變或完全不改變的資料。第一類輸入資料可以是源自第一感測器,且第二類輸入資料可以是源自第二感測器。該多個活動拓撲圖型可以是多個集團圖型(clique pattern)。該多個活動拓撲圖型可包圍空腔(cavities)。可輸出多個數字,該多個數字表示該多個活動拓撲圖型在多個時間窗內被識別出,於該多個時間窗的期間,該循環人工神經網路的活動是響應於該資料被輸入至該循環人工神經網路。該多個活動拓撲圖型可在該多個時間窗中的各個時間窗中被識別出。該第一適當子集合中的至少一部分可被包含於該第二適當子集合中。可透過機器學習來選擇該第一適當子集合。該第二應用程式的一輸出可被輸入至該第一應用程式。該第一應用程式的一輸出可被輸入至一第三應用程式。該第二應用程式的一輸出可被輸入至該第三應用程式。該多個表示的一第三適當子集合亦可被選擇以輸入至該第三應用程式。該第一適當子集合可以是從該循環人工神經網路的一第一區域中提取的,該第一區域主要受到一第一類輸入資料的干擾。該第二適當子集合可以是從該循環人工神經網路的一第二區域中提取的,該第二區域主要受到一第二類輸入資料的干擾。該第一應用程式所接收的該多個指示的該至少一部分可與該第二應用程式所接收的該多個指示的該至少一部分相同。一第二應用程式可被包含於該神經網路系統中並且被耦合以接收活動拓撲圖型存在的多個指示中的至少一部分。該第一應用程式可以是為實現一第一目的而被設計出,該第二應用程式可以是為實現一第二目的而被設計出。
在圖式及以下說明中闡述了一或多個實施方式的細節。根據以下說明及圖式、以及申請專利範圍,本發明的其他特徵、目的及優點將變得顯而易見。
如下所示:
1:多階層架構
100:人工神經網路系統
105:網路輸入
105’、105”、105''':網路輸入的子集合
110:循環神經網路
115:網路輸出
115’、115”、115''':網路輸出的子集合
120:表示
15:特徵向量
150:應用程式的集合
155、160、165、170:應用程式
20:線性轉換器
25:模組
300、305、310:圖型
400、405、410、415、420、425、430:圖型
5:輸入影像
606、607、608、609:垂直線
605、610:圖
615、620、625:虛線矩形
630、635:峰值
640:基線水準
650:神經網路系統
655、660:區域
705、710、715、720:數字組
725:結果
如下所示:[第1圖]示意性地示出了多階層架構,於該多階層架構中,第一階層被訓練以執行多個特定操作,且該多個特定操作的結果被輸入至不同的下游階層中。
[第2圖]是人工神經網路系統的示意性表示圖,於該人工神經網路系統中,來自循環人工神經網路的輸出被應用於不同的應用程式中。
[第3圖]及[第4圖]是可被辨識及「讀取」以自神經網路產生數字的一集合的活動圖型的表示圖。
[第5圖]是表示圖型隨時間的變化而出現的曲線圖。
[第6圖]是用於將源自不同感測器的資料輸入至循環神經網路中的另一種方式的示意性表示圖。
[第7圖]是將循環人工神經網路的輸出應用於不同應用程式的示意性表示圖。
不同圖示中相同的元件符號指示相同的元件。
第2圖是人工神經網路系統100的示意性表示圖,於人工神經網路系統100中,來自循環人工神經網路的輸出被應用於不同的應用程式中。人工神經網路系統100包含網路輸入105的一集合、循環神經網路110、網路輸出115的集合以及不同應用程式155、160、165、170的一集合150。在某些情況下,神經網路輸入105接收來自各種感測器的資料,例如將不同的物理性質轉換為資料的換能器(transducer)或僅感測某些類型資料的裝置(例如:感測文件或資料流的內 容的裝置)。循環神經網路110甚至將這種多樣化的輸入資料處理並抽取/抽象化(abstract)為通用的一表示(representation)120,該表示120在網路輸出115上輸出,並且適合被輸入至多種多樣的應用程式155、160、165、170中。在這種情況下,循環神經網路110與生物學的大腦的相似之處在於其甚至可將各種不同的輸入資料(例如:視覺、聲音、氣味)抽取為在各種不同的應用中的「通用表示」,並可將該通用表示應用於例如移動、語言及/或進一步的抽取。
網路輸入105
更詳細地,在所示的實施方式中,網路輸入105被示意性地定義良好的輸入層的多個節點,每個節點將輸入被動地中繼到循環神經網路110中的一或多個位置。然而,情況並非一定如此。舉例而言,在某些實施方式中,一或多個網路輸入105可縮放、延遲、相移(phase shift)或以其他方式處理輸入資料的一部分或全部,然後將其傳送到循環神經網路110。作為另一示例,可將資料注入至整個循環神經網路110中不同的層及/或邊緣或節點,亦即,可不具有正式的輸入層。舉例而言,使用者可指定資料將被注入到分佈在整個循環神經網路110中的特定節點或連結中。作為另一示例,循環神經網路110不必限於以已知/先前已定義的方式來接收輸入(例如:總是將第一位元注入第一節點,將第二位元注入第二節點,以此類推),而是使用者可指定將資料中的某些位元注入邊緣而非節點,指定注入順序不必依照這些位元出現的順序,或指定這些與其他參數的組合。然而,為了方便起見,這裡將維持以輸入層作為網路輸入105的表示。
在某些實施方式中,循環神經網路110可在網路輸入105上接收源自多個不同感測器的資料。感測器可以是例如將不同物理性質轉換成資料的換能器或僅感測資料的裝置,例如感測一文件或資料流的內容的裝置。所述資料不 僅可源自不同的感測器,且尚可具有不同的格式及/或特徵。舉例而言,某些類別的資料(例如:影片或音訊資料)可在時間或「串流」上相對快速地改變,而其他類別的資料(例如:靜止影像或溫度)可相對緩慢地改變或完全不改變。
舉例而言,輸入資料可包含下列中的一或多個:源自例如麥克風的聲音資料、源自例如靜止相機的靜止影像資料、源自例如攝影機的影片資料以及源自例如溫度感測器的資料。此僅是出於說明之目的。輸入資料可包含多種其他不同類型的資料中的一或多個,包含例如壓力資料、化學成分資料、加速度資料、電資料、位置資料等等。在某些實施方式中,輸入資料在輸入至循環神經網路110之前可經歷一或多個處理動作。此種處理動作的示例包含例如人工神經網路裝置中的非線性處理。
循環神經網路110
在循環神經網路中,節點間的連接沿著時間序列形成有向圖,並且網路表現出時間動態行為(temporal dynamic behavior)。在某些實施方式中,循環神經網路110是在生物系統上建模的相對複雜的神經網路。換言之,循環神經網路110本身可對生物系統的形態、化學和其他特徵的程度進行建模。通常,在生物系統上建模的循環神經網路110以相對較高的計算性能在一或多個計算裝置上實現。
與例如傳統的前饋神經網路相反,在生物系統上建模的循環神經網路110可顯示不響應於輸入資料的背景活動或其他活動。實際上,即使在沒有輸入資料的情況下,活動也可能存在於這種循環神經網路110中。但是,一旦輸入資料,就會對循環神經網路110造成干擾。由於這種循環神經網路110對干擾動的反應可能部分取決於輸入資料時循環神經網路110的狀態,因此這種循環神經 網路110對資料輸入的反應也可能取決於循環神經網路110中已經存在的背景活動或其他活動。儘管如此,即使神經網路中的此類活動並非僅響應於資料的輸入,其仍響應於該輸入資料。
循環神經網路110對輸入資料的反應可被讀取為多個拓撲圖型的一集合。具體而言,在輸入資料之後,循環神經網路110將以特定的活動做出反應。該活動將包含:-與所定義的拓撲圖型不相符的活動,以及-與所定義的拓撲圖型相符的活動。
在某些情況下,循環神經網路110中與所定義的拓撲圖型不相符的活動可能是針對輸入資料的特性或對輸入資料的其他操作的不正確或不完整的抽取(abstraction)。循環神經網路110中與拓撲圖型相符的活動可抽取出輸入資料的不同特徵。每個抽象特徵可能或多或少是有用的,這取決於其應用。透過將表示120限制為某些拓撲圖型的表示,與特定應用無關的不正確或不完整的抽取以及特徵的抽取都可被「過濾掉」,並從表示120中排除。
有時,循環神經網路110將用一或多個相同的拓撲圖型對來自不同感測器的資料的輸入作出響應,即使其他拓撲圖型不同。舉例而言,神經網路110可用表示「熱」的一定性評估的一拓撲圖型來對一溫度讀數或一沙漠的一靜止影像作出響應,即使其他拓撲圖型亦為對每個輸入的響應的一部分。類似地,循環神經網路110可用表示「完成」的一定性評估的一拓撲圖型對一音樂作品的結束或帶有碎屑的一碟子的一靜止影像作出響應,即使其他拓撲圖型亦為對每個輸入的響應的一部分。因此,有時,可自具有不同來源及不同格式的資料中抽取出相同的特徵。
有時,循環神經網路110用表示來自不同感測器的資料的特徵的合成或融合的一或多個拓撲圖型來對來自不同感測器的資料的輸入作出響應。換言之,單個此種圖型可表示對存在於不同類型的資料中的相同特徵的抽取。一般而言,來自不同感測器的資料的融合或合成將發揮作用以使得此種圖型出現或具有此種圖型的活動的強度增加。換言之,來自不同感測器的資料可充當在不同輸入資料中存在相同特徵的「確證」。
在某些情況下,僅在來自不同感測器的資料中存在某些特徵時,才會出現代表來自不同感測器的資料的特徵的合成或融合的拓撲圖型。循環神經網路110可實際上充當「及閘(AND gate)」,並且需要來自不同感測器的資料中存在某些特徵,以便使活動的某些圖型出現。然而,情況未必如此。相反,響應於來自不同感測器的資料,形成一圖型的活動的幅度可增加,或者活動的定時(timing)可縮短。實際上,活動的拓撲圖型(以及其在表示120中的表示)表示在一非常豐富的狀態空間中對輸入資料的特徵的抽取。換言之,活動的拓撲圖型及其表示未必是處理輸入資料的預定義「結果」,乃因舉例而言,一是/否(yes/no)分類是由一分類器產生的預定義結果,一組相關輸入是由一分群裝置產生的預定義結果,或者一預測是由一預測模型產生的預定義結果。確切而言,拓撲圖型是對輸入資料的特徵的抽取。儘管該狀態空間有時可能包含例如一是/否分類等抽取,但該狀態空間並非僅限於該等預定義結果。
此外,拓撲圖型可僅抽取輸入資料的一部分(例如,一影像的一特定區域、或一視訊或音訊流中的一特定時刻、或例如一畫素等輸入的一特定細節)的特徵,而非抽取整個輸入資料的特徵。因此,抽取的狀態空間既不限於任一預定義類型的結果(例如,分類、聚類或預測),亦不限於整個輸入資料的抽 取形式。確切而言,拓撲圖型是一種工具,該工具允許讀取由一高維、非線性、循環動態系統(即,循環神經網路110)進行的處理。拓撲圖型抽取循環神經網路110中出現的輸入資料的相關性,包含將資料融合成一更完整的「整體」的相關性。此外,由於神經網路的循環性質,融合隨時間而發生。當完成初始操作或抽取時,可將這些初始操作或抽取的結果與同時或甚至以後完成的其他操作或抽取相融合。因此,融合發生的時間與初始操作或抽取的時間不同。
儘管來源及格式不同,但循環神經網路110仍可自資料中抽取特徵。舉例而言,循環神經網路110可抽取出:-物理特性(例如,顏色、形狀、定向、速度),-類別(例如,汽車、貓、狗)及/或-抽象定性特性(abstract qualitative traits)(例如,「活」對「死」、「光滑」對「粗糙」、「有生命的」對「無生命的」、「熱」對「冷」、「開」對「關」)。
若要將輸入資料限制為來自少量感測器,則循環神經網路110可能不太可能以某些方式自該感測器抽取資料。舉例而言,循環神經網路110可能不太可能將溫度資料自身抽取成與像形狀或定向等空間特性對應的活動的一圖型。然而,由於來自不同感測器的資料被輸入至循環神經網路110中,因此由不同的輸入資料引起的干擾彼此相遇,並且可共同影響循環神經網路110中的活動。因此,循環神經網路110可將輸入資料抽取成不同的或更確定的活動的圖型。
舉例而言,可能存在一定程度的與一圖型的存在與否相關的不確定性。若輸入資料包含來自不同範圍的感測器的資料,則隨著來自不同感測器的資料在循環神經網路110內被合成或融合,圖型的多樣性及圖型的確定性二者皆可增加。類比而言,在火車站坐在火車上的一乘客可向窗外望去,並看到一列相 鄰的火車似乎在移動。該同一乘客亦可例如感受到來自座椅的向前壓力。此種資訊的融合或合成增加了乘客對乘客的列車而非相鄰的列車正在移動的確定程度。當神經網路接收到不同的輸入資料時,由該資料引起的干擾可被共同抽取成不同的或更確定的活動的圖型。
循環神經網路110處理來自不同感測器的輸入資料的能力亦為對該資料的抽取提供了一定程度的強健性(robustness)。舉例而言,一群組中的一個感測器可能變得不準確或者甚至不起作用,但循環神經網路110仍可繼續自其他感測器抽取資料。循環神經網路110常常會將來自其他感測器的資料抽取成若所有的感測器都如所設計般發揮作用的話將會出現的該活動的相同圖型。然而,在某些情況下,該等抽取的確定性可能會降低。然而,即使將出現此種問題,抽取亦可繼續。
網路輸出115及表示120
可從網路輸出115將循環神經網路110對資料的抽取讀取為例如數字(通常為二進位的)的集合,每個數字代表響應於輸入資料的循環神經網路110中相應的活動拓撲圖型的存在與否。在某些情況下,表示120中的每個數字表示循環神經網路110中是否存在相應的活動模式。表示120僅被示意性地示出,且表示120可以是例如一維數字向量、二維數字矩陣或其他數字集合。一般而言,表示120中的數字將為二進位的,並且以是/否的方式指示活動的一圖型存在與否。然而,情況未必如此。相反,在某些實施方式中,表示120的集合中的數字將是多值的。該等值可指示循環神經網路110中活動的一相應圖型的存在與否的特徵。舉例而言,該等值可指示活動的強度或活動的一具體圖型實際存在的一統計機率。舉例而言,幅度相對較大或在相對較短的時間窗內發生的活動可被視為 指示已經執行或有可能已經執行了一具體操作。相比之下,幅度相對較小或在相對較長的時間內發生的活動可被認為不太可能指示已經執行了一具體操作。
無論如何,活動的響應圖型代表由循環神經網路110對輸入資料執行的特定操作。操作可以是任意複雜的。因此,單個數字可對一任意複雜的操作進行編碼,且一組數字可傳送一組操作,每個操作具有任意的複雜程度。
此外,活動拓撲圖型(以及其在表示120中的表示)可以是「通用的(universal)」,乃因其不依賴於輸入至神經網路中的資料的來源,亦不依賴於表示120所被應用的應用程式。確切而言,活動拓撲圖型表達被輸入至循環神經網路110中的資料的抽象的特徵,而無論該資料的來源為何。
通常而言,多個活動拓撲圖型將響應於單個輸入而出現,而無論該輸入是離散的(例如,靜態照片或來自量測一物理參數的一換能器的單個讀數)還是連續的(例如,視訊或音訊流)。所輸出的表示120因此可表示響應於輸入資料在活動的圖型中出現的拓撲結構的存在與否,即使在生物系統上建模的一相對複雜的神經網路中亦為如此。
在所示的實施方式中,網路輸出115示意性地表示為一多節點輸出層。然而,網路輸出115不需為一多節點輸出層。舉例而言,網路輸出115的節點可以是個別「讀取器節點」,其辨識在循環神經網路110中的一特定節點集合處活動的一特定圖型的出現,並因此讀取循環神經網路110的輸出。當且僅當一特定節點集合處的活動滿足定時(以及可能的幅度或其他參數)標準時,讀取器節點才能觸發。舉例而言,網路輸出115的節點可連接至循環神經網路110中的一節點集合,並基於例如以下來指示拓撲結構的存在與否:跨越一相應臨限值激活水準的每一個別節點的活動水準、跨越一臨限值激活水準的該等節點的活動水 準的一加權和、或者跨越一臨限值激活水準的該等節點的活動水準的一非線性組合。
表示120的集合中的資訊以全息方式表示,即關於單個數字的值的資訊分佈在表示120中的其他數字的值上。換言之,表示120中的數字的隨機子集合亦含有關於由循環神經網路110響應於輸入而執行的操作的資訊,只是其解析度低於表示120中的所有數字皆存在時將存在的解析度。如下文進一步論述,不同的拓撲圖型具有不同的複雜程度。某些相對更複雜的圖型可包含相對不太複雜的圖型。進一步而言,單純的圖型可被結合以形成更為複雜的圖型。關於某些拓撲圖型的出現的資訊因此固有地包含關於其他拓撲圖型的出現的某些資訊。
為方便起見,本申請案的其餘部分將表示120表示為二進位位元的集合,且圖式亦以同樣方式示出所述表示。然而應理解,在所有情況下,表示120的數字亦可以是多值的,以對由網路執行的操作的各種態樣進行編碼。
應用程式集合150
從循環神經網路110輸出的資料的抽取可直接輸入或於進一步處理之後輸入至各種不同的應用程式155、160、165、170中。在所示的實施方式中,應用程式155是分群應用程式,應用程式160是字幕應用程式,應用程式165是控制系統應用程式,應用程式170是預測應用程式。在其他實施方式中,自循環神經網路110輸出的資料的抽取被輸入至額外的應用程式中,可省略應用程式155、160、165、170中的一或多個,且/或自循環神經網路110輸出的資料的抽取可被輸入至相同類型的不同應用程式中。應用程式的其他示例包含例如決策(decision making)、顯著性預測(salience prediction)、縮減編碼(reduced encoding)的重構、語言翻譯、加密和解密。
無論應用程式的確切性質如何,循環神經網路110皆可仿效生物的大腦,其中輸入資料被抽取為「通用的表示」,該「通用的表示」被應用至不同的應用程式,並且用於例如移動、語言及/或進一步的抽取。
第3圖是可被辨識並「讀取」以自循環神經網路110(第2圖)產生表示120的活動的圖型400的表示圖。
圖型400是在一循環人工神經網路內的活動的表示。為讀取圖型400,一功能圖被視為以節點為點的一拓撲空間。與圖型400相符的節點及連結中的活動可被識別為有序的,而無論參與該活動的特定節點及/或連結的身份如何。在所示的實施方式中,圖型400皆為定向集團(directed cliques)或定向單形(directed simplices)。在此類圖型中,活動來自於一源節點,該源節點將訊號傳輸至圖型中的每一其他節點。在圖型400中,此類源節點被指定為「點0」,而其他節點被指定為「點1」、「點2」...等等。此外,在定向集團或定向單形中,該等節點其中之一充當一接收裝置(sink),且接收自圖型中的每個其他節點傳輸的訊號。在圖型400中,此類接收裝置節點被指定為圖型中編號最高的點。舉例而言,在圖型405中,接收裝置節點被指定為「點2」。在圖型410中,接收裝置節點被指定為「點3」。在圖型415中,接收裝置節點被指定為「點4」,以此類推。由圖型400表示的活動因此以可區分的方式排序。
每個圖型400具有不同數量的點,並且反映不同數量的節點中的有序活動。舉例而言,圖型405是二維單形並反映三個節點中的活動,圖型410是三維單形並反映四個節點中的活動,以此類推。隨著圖型中點數的增加,活動的 有序程度及複雜程度亦增加。舉例而言,對於在一窗內具有一定水準的隨機活動的節點的一大的集合,該活動中的某些活動可能偶爾與圖型405相符。然而,隨機活動越來越不可能與圖型410、415、420、425、430等等中的相應圖型相符。因此,相較於與圖型405相符的活動,與圖型430相符的活動具有相對較高的有序程度及複雜程度。
針對不同的活動複雜性的確定,可定義不同的持續時間窗。舉例而言,當要辨識與圖型430相符的活動時,可使用比要辨識與圖型405相符的活動時更長的持續時間窗。
第4圖是可被辨識及「讀取」以自循環神經網路110(第1圖)產生表示120的活動的圖型300的表示圖。
圖型300是多組具有相同維度(即,具有相同數量的點)的定向集團或定向單形,其定義了比個別的集團或個別的單形涉及更多點的圖型,並且在成組的定向單形內封閉空腔。
舉例而言,圖型305包含六個不同的三點二維圖型405,且這六個三點二維圖型405一起定義了一二級同調類(homology class of degree two),而圖型310包含八個不同的三點二維圖型405,而這八個三點二維圖型405一起定義了一第二二級第二同調類。圖型305、310中的每個三點二維圖型405可被認為封閉了相應的空腔。與一定向圖相關聯的第n個貝蒂(Betti)數提供了在一拓撲表示內此種同調類的計數。
由例如圖型300等圖型所表示的活動表示一網路內活動的有序程度相對較高,此不太可能由隨機偶然事件引起。圖型300可用於表徵該活動的複雜性。
在某些實施方式中,僅辨識出活動的某些圖型,及/或丟棄或以其他方式忽略活動的圖型中被辨識出來的某些部分。舉例而言,參照第3圖,與五點四維單形圖型415相符的活動固有地包含與四點三維及三點二維單形圖型410、405相符的活動。舉例而言,第2圖的四維單形圖型415中的「點0」、「點2」、「點3」、「點4」及「點1」、「點2」、「點3」、「點4」二者皆與三維單形圖型410相符。在某些實施方式中,包含較少點(且因此具有較低的維度)的圖型可被丟棄或以其他方式忽略。作為另一實例,僅需要辨識活動的某些圖型。舉例而言,在某些實施方式中,僅辨識有奇數個點(3、5、7...)或者偶數個維度(2、4、6...)的圖案。儘管僅辨識了某些圖型,但關於神經網路中的活動的資訊仍然可被以全息方式表示,即,以相較於在一輸出中所有圖型皆被辨識及/或被表示時更低的解析度表示。
如上所述,響應於輸入資料的活動的圖型表示由循環神經網路110對該輸入資料執行的具有任意複雜性的一具體操作。在某些實施方式中,操作的複雜性將反映在拓撲圖型的複雜性中。舉例而言,由五點四維單形圖型415表示的操作或抽取可能較由四點三維及三點二維單形圖型410、405表示的操作或抽取更複雜。在此種情況下,表示活動存在的數字表達出在循環神經網路110中執行一組操作或抽取,其中該等操作或抽取其中之每一者具有任意的複雜水準。
第5圖是確定具有一可區分複雜性的活動圖型的定時的示意性表示圖。第5圖中表示的確定可作為活動的圖型的辨識或「讀取」的一部分來執行,以自循環神經網路110(第2圖)產生表示120。
第5圖包含一圖605及一圖610。圖605表示隨著沿x軸的時間而變化的圖型的出現。具體而言,個別出現被示意性地表示為垂直線606、607、608、609。每一列的出現可以是活動與一相應圖型或圖型類別相匹配的例子。舉例而言,頂列的出現可以是活動與圖型405(第3圖)相匹配的例子,第二列的出現可以是活動與圖型410(第3圖)相匹配的例子,第三列的出現可以是活動與圖型415(第3圖)相匹配的例子,以此類推。
圖605還包含虛線矩形615、620、625,當活動圖型具有一可區分的複雜性時,虛線矩形615、620、625示意性地描繪不同的時間窗。如圖所示,在由虛線矩形615、620、625描繪的窗期間,循環人工神經網路中的活動與指示複雜性的一圖型相匹配的可能性高於該等窗之外的可能性。
圖610表示與隨著沿x軸的時間而變化的該等出現相關聯的複雜性。圖610包含複雜性與由虛線矩形615描繪的窗一致的一第一峰值630、以及複雜性與由虛線矩形620、625描繪的窗一致的一第二峰值635。如圖所示,由峰值630、635表示的複雜性可與可被視為複雜性的一基線水準640的複雜性區分開來。
在某些實施方式中,讀取一循環人工神經網路的輸出的時間與具有一可區分的複雜性的活動圖型的出現是一致的。舉例而言,在第5圖的說明性環境中,一循環人工神經網路的輸出可在峰值630、635處、即在由虛線矩形615、620、625描繪的窗期間被讀取。
在某些實施方式中,自循環人工神經網路不僅可輸出具有一可區分的複雜性的活動圖型的內容,而且可輸出該活動圖型的定時。具體而言,不僅參與了與活動圖型相符的活動的節點的身份及活動,活動圖型的定時亦可被視 為循環人工神經網路的輸出。因此,所辨識的活動圖型以及將讀取此決定的定時可表示神經網路的處理結果。
第6圖是將來自不同感測器的資料輸入至循環神經網路110中的另一種方法的示意性表示圖。在所示的實施方式中,網路輸入105的不同子集合105’、105”、105'''專用於接收不同類型的輸入資料。舉例而言,第一子集合105’可專用於接收一第一類別的輸入資料(例如,來自一第一感測器的資料),而第二子集合105”可專用於接收一第二類別的輸入資料(例如,來自一第二感測器的資料)。
在某些實施方式中,循環神經網路110的對應「區域」655、660自網路輸入105的不同子集合105’、105”、105'''接收不同類別的輸入資料。舉例而言,在示意圖中,區域655、660被示為節點及邊緣的空間離散集合(spatially discrete collections),每個區域之間具有相對較少的節點對節點連接。情況未必如此。確切而言,每個區域655、660的節點及邊緣可在循環神經網路110內空間分佈,但仍接收一特定類別的輸入資料。
無論在每個區域655、660中節點的分佈如何,每個區域655、660中的處理主要(但未必是唯一)受到分別接收的類別的輸入資料的干擾。干擾的程度可基於在存在及不存在相應類別的輸入資料的情況下在一區域中發生的活動來量測。舉例而言,主要受一第一類別的輸入資料干擾的一區域可以大致相同的方式對第一類別的輸入資料作出響應,而無論其他類別的輸入資料是否同時干擾循環神經網路110。由每個區域655、660執行的處理及抽取主要受到所接收的類別的輸入資料的影響。然而,在每個區域655、660中出現的活動的拓撲圖型可被讀取為一表示120。對於循環神經網路110的其他區域亦為如此。
這可藉由分別指定網路輸出115的不同子集合115’、115”、115'''而在神經網路系統650中示意性地表示。具體而言,子集合115’可專用於輸出代表在循環神經網路110的區域655中出現的活動的拓撲圖型的數字,而子集合115'''可專用於輸出代表在循環神經網路110的區域660中出現的活動的拓撲圖型的數字。然而,子集合115”輸出在區域655、660其中之任一者中皆未發現的數字。實際上,在子集合115”中輸出的數字可表示在區域655、660中出現的抽取表示及處理結果的融合或進一步抽取至更高的複雜性水準。
舉例而言,當且僅當子集合115’中的一或多個數字及子集合115'''中的一或多個數字兩者皆具有特定值時,子集合115”中的一給定數字才可能出現。子集合115”中的數字因此可表示任意更高水準的抽取(在區域655、660中產生的抽取還有輸入資料本身)。
當不同的區域主要受到單一類別的輸入資料的干擾時,該等區域中的處理可根據輸入資料的性質進行裁適(tailored)。舉例而言,可對輸入資料進行連接深度及網路迴路的拓撲的裁適。在於生物系統上建模的循環神經網路中,亦可對輸入資料進行神經元動力學及突觸可塑性的裁適。該裁適例如捕捉不同的時間標度。舉例而言,在為處理相對快速變化的輸入資料類別(例如,視訊或音訊資料)而裁適的一區域中的處理可比在為處理相對較慢變化或根本不變化的輸入資料類別而裁適的一區域中的處理更快。
此外,當一循環神經網路的不同區域主要受到單一類別的輸入資料的干擾時,人類更容易將一循環神經網路中出現的表示歸因(attributed)於特定的輸入資料。在一特定區域中出現的表示可歸因於主要干擾該區域的輸入資 料的類別。一旦在一特定區域中出現的表示被歸因,響應於一特定區域中的表示而出現的更高水準及更複雜的抽取便亦可更容易理解。
此外,可針對一循環神經網路的並非主要受單一類別的輸入資料的干擾的某些部分進行訓練,即針對一循環神經網路的融合主要受單一類別的輸入資料的干擾的區域的處理結果的某些部分進行訓練。實際上,主要受單一類別的輸入資料干擾的區域將產生通用的輸入資料表示(不僅用於自循環神經網路的輸出,還用於循環神經網路的進一步抽取及其他操作)。
第7圖是將循環人工神經網路的輸出應用於不同應用程式155、160、165、170的示意性表示圖。循環神經網路110已將輸入資料處理並抽取為表示120。表示120可以包含不同的數字組705、710、715、720。在某些實施方式中,數字組705、710、715、720的每一者可表示在循環神經網路的相應區域(例如:區域605、610(第6圖)中出現的活動,該活動主要受到特定類別的輸入資料的干擾。在某些實施方式中,數字組705、710、715、720中的一或多個不同的組可表示活動,該活動表示抽象表示的融合或進一步抽取以及在主要受特定類別的輸入資料干擾的區域中出現的處理結果。例如,可在網路輸出115的子集合(第6圖)上輸出不同的數字組705、710、715、720中的一或多個。此外,在某些實施方式中,一些數字組可包含代表在不同區域中發生的活動的數字,而不管這些區域是否主要受到特定類別的輸入資料或融合的干擾,還是進一步抽取了在主要受到特定類別的輸入資料的干擾的區域中出現的表示和處理結果。
儘管將數字組705、710、715、720示意性地示出為無交集的(亦即,每個數字屬於一個數字組,且僅屬於一個數字組),但此情況並非絕對。而是,在某些實施方式中,數字可屬於數字組705、710、715、720中的多個。此外, 儘管數字組705、710、715、720被示意性地繪示為涵蓋表示120中的所有數字,但此情況並非絕對。相反地,在某些實施方式中,一些數字不必屬於數字組705、710、715、720中的任何一個。
在所示的實施方式中,數字組705被輸入至應用程式160、165中。數字組710被輸入至應用程式155、170中。數字組715被輸入至應用程式155、160、165、170中。數字組720被輸入至應用程式170中。此外,應用程式155處理數字組710、715的結果725被輸入至應用程式160中。
在某些實施方式中,可針對將要執行的特定應用程式而調整表示120的內容。舉例而言,在所示的實施方式中,若不再執行應用程式170,則可省略數字組720或將其從表示120中刪除。此外,若要執行新的應用程式,則可於表示120中加入新的數字或數字組(例如,可簡單地將新的數字連接到現有的表示120上)。
在某些實施方式中,來自循環人工神經網路的輸出將被應用於會進行學習的應用程式。例如,應用程式155、160、165、170中的一或多個也可為人工神經網路。在那些情況下,學習過程可識別要輸入至應用程式中的數字。例如,監督式學習(supervised learning)策略可用於識別使成本函數(cost function)最小化的數字。可在預先存在的表示120中的數字中識別這些數字,或者可將其添加至預先存在的表示120中以表示其他活動模式。
有時,利用新的應用程式(未繪示於圖中)處理來自循環人工神經網路的輸出是相當理想的。可透過各種不同方式將新應用程式「添加」到人工神經網路系統中。例如,在某些情況下,可使用從表示120中的現有數字中提取的一組數字作為輸入來訓練新應用程式。又例如,在某些情況下,可使用一組數 字作為輸入來訓練新應用程式,其中包含從表示120中的現有數字中提取的數字以及添加至表示120中的新數字。在某些情況下,可使用現有數字或新數字之一或兩者以及現有的應用程式155、160、165、170的輸出作為輸入來訓練新的應用程式。例如,在第7圖的上下文中可使用從應用程式155輸出的結果725來訓練應用程式160。也可使用其他方法,例如:來自多個現有應用程式的輸入,或者本身將第二個現有應用程式的輸出作為輸入的現有應用程式的輸入。例如,可組合應用程式的多階層結構(multi-tiered hierarchy),其中表示120提供輸入至應用程式的第一階層的抽取的基本集。隨後,可將第一層的處理結果單獨或與表示120中的數字組合而輸入一或多個額外的階層。
實際上,循環神經網路110可用作預處理階段,該階段生成對許多不同應用程式具有廣泛適用性的表示120。此外,在現有的應用程式(例如:應用程式155、160、165、170)中及在一段時間內添加的新應用程式中,自循環神經網路110輸出的表示120中的數字以及被輸入至應用程式中的表示120中的特定數字可逐步調整以改善處理結果。
因此,不必在添加新的應用程式時就知道新應用程式的相關拓撲圖型的確切性質。相反地,如上所述,拓撲圖型可抽取將輸入資料融合為更完整「整體」的相關性。即便不知道相關拓撲圖型的確切性質,表示120中表示拓撲圖型的出現的數字因此也可包含與新的應用程式相關的資訊。
更詳細地,作為第一示例,用於新應用程式的最相關的抽取或處理結果可以是拓撲圖型的新融合,其出現與否已由表示120中的數字所表示。在這種情況下,可使用學習流程來教導循環神經網路110,以生成將已表示的抽取 融合為新的抽取的拓撲圖型。在某些情況下,可在表示120中用另外的數字表示相關拓撲圖型的出現與否。
作為另一示例,新的應用程式最相關的抽取或處理結果可以是拓撲圖型,其出現與否並非由表示120中的數字所獨立地表示,而是以一或多種將新的應用程式的最相關抽取或處理結果與其他的抽取或處理結果融合的拓撲圖型來表示。換言之,表示120中的數字可表示拓撲圖型的出現,該拓撲圖型僅在新的應用程式的最相關抽取或處理結果與另一拓撲圖型一起出現時才出現。作為另一示例,表示120中的數字可表示拓撲圖型的出現,該拓撲圖型僅在針對新應用程式的最相關抽取或處理結果不存在的情況下才出現。
在這些和其他情況下,即使不了解相關拓撲圖型的確切性質,表示拓撲圖型的出現的表示120中的數字也包含與新應用程式相關的資訊。表示型式中的數字可逐步調整以改善處理結果,且此情況在現有的應用程式(例如:應用程式155、160、165、170)中以及新的應用程式中皆是如此。
在本說明書中闡述的標的物及操作的實施例可在數位電子電路系統中實施,或者在電腦軟體、韌體或硬體(包含在本說明書中揭露的結構及其結構等效物)中或者以其一或多者的組合實施。在本說明書中闡述的標的物的實施例可被實施為一或多個電腦程式(即,電腦程式指令的一或多個模組),該一或多個電腦程式編碼於電腦儲存媒體上以便由資料處理設備執行或控制資料處理設備的操作。作為另一選擇或另外,程式指令可編碼於一人工產生的傳播訊號上,該人工產生的傳播訊號為例如被產生以對用於傳輸至適合的接收器設備的資訊進行編碼以便由一資料處理設備執行的一由機器產生的電性訊號、光學訊號或電磁訊號。一電腦儲存媒體可以是一電腦可讀取儲存裝置、一電腦可讀取儲 存基板、一隨機或串列存取記憶體陣列或裝置或其一或多者的組合,或者可包含於一電腦可讀取儲存裝置、一電腦可讀取儲存基板、一隨機或串列存取記憶體陣列或裝置或其一或多者的組合中。此外,儘管一電腦儲存媒體並非一傳播訊號,然而一電腦儲存媒體可以是編碼於一人工產生的傳播訊號中的電腦程式指令的一來源(source)或目的地(destination)。電腦儲存媒體亦可以是一或多個單獨的物理組件或媒體(例如,多個光碟(compact disc,CD)、碟片(disk)或其他儲存裝置),或者可包含於該一或多個單獨的物理組件或媒體(例如,多個CD、碟片或其他儲存裝置)中。
在本說明書中闡述的操作可被實施為由一資料處理設備對儲存於一或多個電腦可讀取儲存裝置上的資料或自其他來源接收的資料實行的操作。
用語「資料處理設備」囊括用於處理資料的所有種類的設備、裝置及機器,包含例如一可程式化處理器、一電腦、一系統晶片或者前述中的多者或組合。該設備可包含專用邏輯電路系統,例如一現場可程式化閘陣列(field programmable gate array,FPGA)或一應用專用積體電路(application specific integrated circuit,ASIC)。該設備可除硬體之外亦包含為所論述的電腦程式創建一執行環境的碼,例如構成處理器韌體、一協定堆疊、一資料庫管理系統、一作業系統、一跨平臺運行時間環境、一虛擬機或其一或多者的組合的碼。該設備及執行環境可達成各種不同的計算模型基礎架構,例如網路服務、分佈式計算及網格式計算基礎架構。
一電腦程式(亦稱為一程式、軟體、軟體應用、腳本或碼)可以包含編譯或解譯語言、宣告性語言或程序性語言在內的任何形式的程式化語言 來編寫,且該電腦程式可以任何形式來部署,包含作為一獨立程式或作為一模組、組件、次常式、對象或適合於在一計算環境中使用的其他單元。一電腦程式可(但無需)對應於一檔案系統中的一檔案。一程式可儲存於一檔案的保持其他程式或資料(例如,儲存於一標示語言文件中的一或多個腳本)的一部分中、專用於所論述的該程式的單一檔案中或者多個協調的檔案(例如,儲存一或多個模組、子程式或碼部分的檔案)中。一電腦程式可被部署成在位於一個站點(site)處的一個電腦上或在分佈於多個站點上並藉由一通訊網路互連的多個電腦上執行。
在本說明書中闡述的過程及邏輯流程可由一或多個可程式化處理器來實行,該一或多個可程式化處理器執行一或多個電腦程式,以藉由對輸入資料進行操作並產生輸出來實行動作。過程及邏輯流程亦可由專用邏輯電路系統來實行,且設備亦可被實施為專用邏輯電路系統,例如一現場可程式化閘陣列(FPGA)或一應用專用積體電路(ASIC)。
舉例而言,適合於執行一電腦程式的處理器包含通用微處理器與專用微處理器二者以及任何種類的數位電腦其中之任何一或多個處理器。一般而言,一處理器將自一唯讀記憶體或一隨機存取記憶體或兩者接收指令及資料。一電腦的基本元件是用於根據指令實行動作的一處理器以及用於儲存指令及資料的一或多個記憶體裝置。一般而言,一電腦亦將包含用於儲存資料的一或多個巨量儲存裝置(例如磁碟、磁光碟或光碟),或者被操作地耦合以自該一或多個巨量儲存裝置接收資料或向該一或多個巨量儲存裝置轉移資料或者進行兩者。然而,一電腦不必具有此種裝置。此外,一電腦可嵌置於例如(舉幾個例子)一行動電話、一個人數位助理(personal digital assistant,PDA)、一行動音訊或視 訊播放機、一遊戲主控台(game console)、一全球定位系統(Global Positioning System,GPS)接收器或一可攜式儲存裝置(例如,一通用串列匯流排(universal serial bus,USB)快閃驅動器)等另一裝置中。適合於儲存電腦程式指令及資料的裝置包含所有形式的非揮發性記憶體、媒體及記憶體裝置,包含例如:半導體記憶體裝置,例如可抹除可程式化唯讀記憶體(erasable programmable read only memory,EPROM)、電子可抹除可程式化唯讀記憶體(electrically erasable programmable read only memory,EEPROM)及快閃記憶體裝置;磁碟,例如內部硬碟或可移除式碟片(removable disk);磁光碟;以及光碟唯讀記憶體(compact disc-read only memory,CD ROM)及數位多功能光碟唯讀記憶體(digital versatile disc-read only memory,DVD ROM)碟片。處理器及記憶體可藉由專用邏輯電路系統來補充或包含於專用邏輯電路系統中。
為提供與一使用者的交互,在本說明書中闡述的標的物的實施例可在一電腦上實施,該電腦具有例如陰極射線管(cathode ray tube,CRT)或液晶顯示器(liquid crystal display,LCD)監視器等用於向使用者顯示資訊的顯示裝置以及可供使用者向電腦提供輸入的鍵盤及指針裝置(例如,一滑鼠或一軌跡球)。亦可使用其他種類的裝置來提供與一使用者的交互;舉例而言,提供至使用者的回饋可以是任何形式的感覺回饋,例如視覺回饋、聽覺回饋或觸覺回饋;且來自使用者的輸入可以包含聲響、語音或觸覺輸入在內的任何形式接收。此外,一電腦可藉由向使用者使用的一裝置發送文件及自使用者使用的一裝置接收文件來與一使用者交互;例如,藉由響應於自網路瀏覽器接收的請求,將網頁發送至一使用者客戶端裝置上的一網路瀏覽器。
儘管本說明書包含諸多具體的實施細節,然而該等實施細節不應被視為對任何發明的範圍或可主張的範圍的限制,而應被視為對特定發明的特定實施例的專有特徵的說明。本說明書中在單獨的實施例的上下文中闡述的某些特徵亦可在單一實施例中以組合方式實施。相反,在單一實施例的上下文中闡述的各種特徵亦可在多個實施例中單獨地實施或以任何適合的子組合來實施。此外,儘管上文可將特徵闡述為在某些組合中起作用且甚至最初如此主張,然而在某些情形中,可自一所主張的組合中去除來自該組合的一或多個特徵,且所主張的組合可指向一子組合或一子組合的變型。
相似地,儘管在圖式中以一特定次序繪示操作,然而此不應被理解為要求以所示的特定次序或以順序次序實行此種操作或者要求實行所有所示操作以達成所期望的結果。在某些情況中,多任務及平行處理可以是有利的。此外,上述實施例中的各種系統組件的分離不應被理解為在所有實施例中均需要此種分離,且應理解,所闡述的程式組件及系統一般可一起整合於單一軟體產品中或者被封裝至多個軟體產品中。
因此,已闡述標的物的特定實施方式。其他實施方式處於以下申請專利範圍的範圍內。在某些情形中,申請專利範圍中陳述的動作可以一不同的次序實行,且仍然會達成所期望的結果。另外,圖式中繪示的過程未必需要所示的特定次序或順序次序來達成所期望的結果。在某些實施方式中,多任務及平行處理可以是有利的。
已描述了多個實施方式。然而,應理解,可進行各種修改。因此,其他實施方式在以下申請專利範圍的範圍內。
1:多階層架構
105:網路輸入
15:特徵向量
20:線性轉換器
25:模組
5:輸入影像

Claims (23)

  1. 一種處理感測資料的方法,包含:識別一循環人工神經網路(recurrent artificial neural network)中的多個節點與多個連結間的訊號傳輸活動的多個拓撲圖型,其中該多個拓撲圖型係響應於一感測資料被輸入至該循環人工神經網路中,且該多個拓撲圖型中的每一者將所輸入的該感測資料的一特徵抽象化,其中無論參與該訊號傳輸活動的特定節點及/或連結的身份如何,與該多個拓撲圖型相符的該訊號傳輸活動可被識別;從該循環人工神經網路輸出包含多個數字的一集合,其中該多個數字中的每一者係表示該多個拓撲圖型其中之一是否在該循環人工神經網路中被識別出;以及將該集合的一第一位數字輸入至一第一應用程式以及一第二應用程式,該第一應用程式是為實現一第一目的而被設計出,該第二應用程式是為實現一第二目的而被設計出,且該第一目的與該第二目的不同。
  2. 如請求項1所述的方法,其中該第一應用程式是下列多個應用程式其中一者,該第二應用程式是該多個應用程式中與該第一應用程式不同者:分群(clustering)應用程式、字幕應用程式、控制系統應用程式、預測應用程式、決策應用程式、顯著性預測應用程式、用於縮減編碼(reduced encoding)之重構的應用程式、語言翻譯應用程式、加密應用程式以及解密應用程式。
  3. 如請求項1所述的方法,其中:該第一位數字是從該循環人工神經網路的一第一區域中提取的,該第一區域主要受到一第一類輸入感測資料的干擾;且一第二位數字是從該循環人工神經網路的一第二區域中提取的,該第二區域主要受到一第二類輸入感測資料的干擾。
  4. 如請求項3所述的方法,其中該第一類輸入感測資料在時間 上相對快速地改變,且該第二類輸入感測資料在時間上相對緩慢地改變或完全不改變。
  5. 如請求項3所述的方法,其中該第一類輸入感測資料是源自一第一感測器,且該第二類輸入感測資料是源自一第二感測器。
  6. 如請求項1所述的方法,其中該多個拓撲圖型是多個定向集團圖型(clique pattern),且在各該定向集團圖型中,來自於一源節點的訊號被傳輸至該定向集團圖型中的每一其他節點,一接收節點接收該定向集團圖型中的每個其他節點所傳輸的訊號。
  7. 如請求項6所述的方法,其中該多個定向集團圖型包圍空腔。
  8. 如請求項1所述的方法,其中輸出該集合包含:輸出該多個數字,該多個數字表示該多個拓撲圖型在多個時間窗內被識別出,於該多個時間窗的期間,該循環人工神經網路的活動是響應於該資料被輸入至該循環人工神經網路,其中該多個拓撲圖型在該多個時間窗中的各個時間窗中被識別出,且該多個時間窗具有不同持續時間。
  9. 一種用於建構一循環人工神經網路系統的方法,該方法包含:提供一循環人工神經網路,該循環人工神經網路包含:一輸入,用以將源自於多個不同感測器的感測資料輸入至該循環人工神經網路;以及一輸出,用以從該循環人工神經網路輸出多個表示,該多個表示用以表示訊號傳輸活動的多個拓撲圖型是否已經響應於被輸入的該感測資料而出現在該循環人工神經網路中的多個節點及多個連結之間,且該出現係無論參與該訊號傳輸活動的特定節點及/或連結的身份如何;選擇該多個表示的一第一適當子集合,以將該第一適當子集合輸入至一第 一應用程式;以及選擇該多個表示的一第二適當子集合,以將該第二適當子集合輸入至一第二應用程式。
  10. 如請求項9所述的方法,其中該第一適當子集合中的至少一部分被包含於該第二適當子集合中。
  11. 如請求項9所述的方法,其中選擇該第一適當子集合包含透過機器學習來選擇該第一適當子集合。
  12. 如請求項9所述的方法,還包含:將該第二應用程式的一輸出輸入至該第一應用程式。
  13. 如請求項9所述的方法,還包含:選擇該第一應用程式的一輸出,以將該輸出輸入至一第三應用程式;選擇該第二應用程式的一輸出,以將該輸出輸入至該第三應用程式;以及選擇該多個表示的一第三適當子集合,以將該第三適當子集合輸入至該第三應用程式。
  14. 如請求項9所述的方法,其中:該第一適當子集合是從該循環人工神經網路的一第一區域中提取的,該第一區域主要受到一第一類輸入資料的干擾;且該第二適當子集合是從該循環人工神經網路的一第二區域中提取的,該第二區域主要受到一第二類輸入資料的干擾。
  15. 如請求項9所述的方法,其中該多個拓撲圖型是多個定向集團圖型,且在各該定向集團圖型中,來自於一源節點的訊號被傳輸至該定向集團圖型中的每一其他節點,一接收節點接收該定向集團圖型中的每個其他節點所傳輸的訊號。
  16. 如請求項9所述的方法,其中該第一應用程式是下列多個應 用程式其中一者,該第二應用程式是該多個應用程式中與該第一應用程式不同者:分群應用程式、字幕應用程式、控制系統應用程式、預測應用程式、決策應用程式、顯著性預測應用程式、用於縮減編碼之重構的應用程式、語言翻譯應用程式、加密應用程式以及解密應用程式。
  17. 一種神經網路系統,包含:一循環神經網路,包含:一第一區域,用以接收源自一第一感測器的一第一感測資料;一第二區域,用以接收源自一第二感測器的一第二感測資料,其中該第二感測器與該第一感測器不同,且即使該第一區域與該第二區域同時被干擾,該第一區域主要受到該第一感測資料的干擾,且該第二區域主要受到該第二感測資料的干擾;以及一第三區域,用以:接收該第一區域與該第二區域的多個處理結果;以及輸出多個指示(indications),其中該多個指示代表在該第三區域的多個節點及多個連結之間存在訊號傳輸活動的多個拓撲圖型,該多個拓撲圖型響應於該第一區域與該第二區域的該多個處理結果,且該多個拓樸圖的出現係無論參與該訊號傳輸活動的特定節點及/或連結的身份如何;以及一第一應用程式,該第一應用程式被耦合以接收該多個拓撲圖型存在的該多個指示中的至少一部分。
  18. 如請求項17所述的神經網路系統,還包含一第二應用程式,該第二應用程式被耦合以接收該多個拓撲圖型存在的該多個指示中的至少一部分,其中該第一應用程式是為實現一第一目的而被設計出,該第二應用程式是為實現一第二目的而被設計出,該第一目的與該第二目的不同,且該第一應用程式所接收的該多個指示的該至少一部分與該第二應用程式所接收的該多個指示的 該至少一部分相同。
  19. 如請求項17所述的神經網路系統,其中該第一應用程式是下列多個應用程式其中一者,該第二應用程式是該多個應用程式中與該第一應用程式不同者:分群應用程式、字幕應用程式、控制系統應用程式、預測應用程式、決策應用程式、顯著性預測應用程式、用於縮減編碼之重構的應用程式、語言翻譯應用程式、加密應用程式以及解密應用程式。
  20. 如請求項17所述的神經網路系統,其中該第一區域與該所述第二區域中的每一者是包含多個節點與多個邊緣的一可識別的離散集合,該多個節點與該多個邊緣在該第一區域與該第二區域之間具有相對較少的節點到節點連接(node-to-node connection)。
  21. 如請求項17所述的神經網路系統,其中:該第一感測資料是一資料流;且該第二感測資料是變化較慢或靜態的(static)輸出資料。
  22. 如請求項17所述的神經網路系統,其中該多個拓撲圖型是多個定向集團圖型,在各該定向集團圖型中,來自於一源節點的訊號被傳輸至該定向集團圖型中的每一其他節點,且一接收節點接收該定向集團圖型中的每個其他節點所傳輸的訊號。
  23. 如請求項22所述的神經網路系統,其中該多個定向集團圖型包圍空腔。
TW109143240A 2019-12-11 2020-12-08 處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法 TWI786483B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/710,205 2019-12-11
US16/710,205 US11816553B2 (en) 2019-12-11 2019-12-11 Output from a recurrent neural network

Publications (2)

Publication Number Publication Date
TW202137070A TW202137070A (zh) 2021-10-01
TWI786483B true TWI786483B (zh) 2022-12-11

Family

ID=73834491

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109143240A TWI786483B (zh) 2019-12-11 2020-12-08 處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法

Country Status (6)

Country Link
US (2) US11816553B2 (zh)
EP (1) EP4073708A1 (zh)
KR (1) KR20220110293A (zh)
CN (1) CN115053233A (zh)
TW (1) TWI786483B (zh)
WO (1) WO2021116140A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615285B2 (en) 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
US11972343B2 (en) 2018-06-11 2024-04-30 Inait Sa Encoding and decoding information
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
US11651210B2 (en) 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016206765A1 (en) * 2015-06-26 2016-12-29 Sentiance Nv Deriving movement behaviour from sensor data
US20180373985A1 (en) * 2017-06-23 2018-12-27 Nvidia Corporation Transforming convolutional neural networks for visual sequence learning
TW201935326A (zh) * 2018-02-09 2019-09-01 宏達國際電子股份有限公司 訓練全連接神經網路的裝置及方法
US20190354846A1 (en) * 2017-05-03 2019-11-21 Intel Corporation Scaling half-precision floating point tensors for training deep neural networks

Family Cites Families (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5822742A (en) 1989-05-17 1998-10-13 The United States Of America As Represented By The Secretary Of Health & Human Services Dynamically stable associative learning neural network system
AU2001295591A1 (en) 2000-10-13 2002-04-22 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. A method for supervised teaching of a recurrent artificial neural network
DE10139682B4 (de) 2001-08-11 2004-08-05 Deneg Gmbh Verfahren zum Generieren von neuronalen Netzen
MY138544A (en) 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
US20060112028A1 (en) 2004-11-24 2006-05-25 Weimin Xiao Neural Network and Method of Training
JP4639784B2 (ja) 2004-12-06 2011-02-23 ソニー株式会社 学習装置および学習方法、並びにプログラム
US20140156901A1 (en) 2005-10-26 2014-06-05 Cortica Ltd. Computing device, a system and a method for parallel processing of data streams
EP1949311B1 (en) 2005-10-26 2014-01-15 Cortica Ltd. A computing device, a system and a method for parallel processing of data streams
GB2453263A (en) 2006-05-16 2009-04-01 Douglas S Greer System and method for modeling the neocortex and uses therefor
US20090012581A1 (en) 2007-05-01 2009-01-08 Evolved Machines, Inc. Sensory event recoding and decoding
US8818923B1 (en) 2011-06-27 2014-08-26 Hrl Laboratories, Llc Neural network device with engineered delays for pattern storage and matching
WO2011095342A1 (en) 2010-02-05 2011-08-11 Ecole Polytechnique Federale De Lausanne Epfl-Sri Organizing neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
CN104335218B (zh) 2012-03-30 2017-08-11 爱迪德技术有限公司 使用基函数编码来保护可访问的系统
TWI546759B (zh) 2013-03-28 2016-08-21 國立臺灣大學 遠距環境資料分類系統及其方法
US9292554B2 (en) 2013-08-20 2016-03-22 Pivotal Software, Inc. Thin database indexing
AR097974A1 (es) 2013-10-11 2016-04-20 Element Inc Sistema y método para autenticación biométrica en conexión con dispositivos equipados con cámara
US9558442B2 (en) 2014-01-23 2017-01-31 Qualcomm Incorporated Monitoring neural networks with shadow networks
US9202178B2 (en) 2014-03-11 2015-12-01 Sas Institute Inc. Computerized cluster analysis framework for decorrelated cluster identification in datasets
US9425952B2 (en) 2014-03-27 2016-08-23 Samsung Israel Research Corporation Algebraic manipulation detection codes from algebraic curves
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US10019506B1 (en) * 2014-06-26 2018-07-10 Google Llc Identifying objects in images
CN104318304A (zh) 2014-10-20 2015-01-28 上海电机学院 一种用于模式识别的基于样本学习的bp网络结构设计方法
US9946970B2 (en) 2014-11-07 2018-04-17 Microsoft Technology Licensing, Llc Neural networks for encrypted data
US10333696B2 (en) 2015-01-12 2019-06-25 X-Prime, Inc. Systems and methods for implementing an efficient, scalable homomorphic transformation of encrypted data with minimal data expansion and improved processing efficiency
US10650047B2 (en) 2015-03-12 2020-05-12 International Business Machines Corporation Dense subgraph identification
JP6725547B2 (ja) 2015-03-20 2020-07-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 人工ニューラルネットワークの関連性スコア割当て
US11094058B2 (en) 2015-08-14 2021-08-17 Elucid Bioimaging Inc. Systems and method for computer-aided phenotyping (CAP) using radiologic images
CN106599989B (zh) 2015-10-08 2019-04-09 上海兆芯集成电路有限公司 神经网络单元和神经处理单元阵列
JP6983154B2 (ja) 2015-10-28 2021-12-17 グーグル エルエルシーGoogle LLC 計算グラフの処理
WO2017075346A1 (en) 2015-10-28 2017-05-04 Google Inc. Modifying computational graphs
US10970628B2 (en) 2015-11-09 2021-04-06 Google Llc Training neural networks represented as computational graphs
US20170139759A1 (en) 2015-11-13 2017-05-18 Ca, Inc. Pattern analytics for real-time detection of known significant pattern signatures
TWI745321B (zh) 2016-01-08 2021-11-11 馬來西亞商雲頂圖爾斯診斷中心有限公司 決定網路連結之方法及系統
US10733532B2 (en) 2016-01-27 2020-08-04 Bonsai AI, Inc. Multiple user interfaces of an artificial intelligence system to accommodate different types of users solving different types of problems with artificial intelligence
US10157629B2 (en) 2016-02-05 2018-12-18 Brainchip Inc. Low power neuromorphic voice activation system and method
US10204286B2 (en) 2016-02-29 2019-02-12 Emersys, Inc. Self-organizing discrete recurrent network digital image codec
US11774944B2 (en) 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things
WO2017197375A1 (en) 2016-05-13 2017-11-16 Princeton University System and methods for facilitating pattern recognition
US20220269346A1 (en) 2016-07-25 2022-08-25 Facebook Technologies, Llc Methods and apparatuses for low latency body state prediction based on neuromuscular data
CN109804383B (zh) 2016-08-04 2024-03-26 谷歌有限责任公司 使用神经网络编码和重构输入
US11120353B2 (en) * 2016-08-16 2021-09-14 Toyota Jidosha Kabushiki Kaisha Efficient driver action prediction system based on temporal fusion of sensor data using deep (bidirectional) recurrent neural network
US10565493B2 (en) 2016-09-22 2020-02-18 Salesforce.Com, Inc. Pointer sentinel mixture architecture
US10157045B2 (en) 2016-11-17 2018-12-18 The Mathworks, Inc. Systems and methods for automatically generating code for deep learning systems
KR101997975B1 (ko) 2016-12-01 2019-07-08 한국과학기술원 신경망 시스템을 이용한 정보의 장기, 단기, 및 하이브리드 기억을 위한 방법
US11429854B2 (en) 2016-12-04 2022-08-30 Technion Research & Development Foundation Limited Method and device for a computerized mechanical device
CN106778856A (zh) * 2016-12-08 2017-05-31 深圳大学 一种物体识别方法及装置
US10515302B2 (en) 2016-12-08 2019-12-24 Via Alliance Semiconductor Co., Ltd. Neural network unit with mixed data and weight size computation capability
US10885425B2 (en) 2016-12-20 2021-01-05 Intel Corporation Network traversal using neuromorphic instantiations of spike-time-dependent plasticity
US11615285B2 (en) 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
US11625569B2 (en) 2017-03-23 2023-04-11 Chicago Mercantile Exchange Inc. Deep learning for credit controls
US9785886B1 (en) 2017-04-17 2017-10-10 SparkCognition, Inc. Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
US20180336453A1 (en) 2017-05-19 2018-11-22 Salesforce.Com, Inc. Domain specific language for generation of recurrent neural network architectures
EP3602409B1 (en) 2017-06-05 2023-11-01 Deepmind Technologies Limited Selecting actions using multi-modal inputs
US11987272B2 (en) 2017-07-05 2024-05-21 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US10402687B2 (en) 2017-07-05 2019-09-03 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US11775891B2 (en) 2017-08-03 2023-10-03 Telepathy Labs, Inc. Omnichannel, intelligent, proactive virtual agent
US20190050725A1 (en) 2017-08-14 2019-02-14 Sisense Ltd. System and method for approximating query results using local and remote neural networks
US20190122140A1 (en) 2017-10-20 2019-04-25 STATGRAF Research LLP. Data analysis and rendering
US10410111B2 (en) 2017-10-25 2019-09-10 SparkCognition, Inc. Automated evaluation of neural networks using trained classifier
US10628486B2 (en) 2017-11-15 2020-04-21 Google Llc Partitioning videos
KR20240053667A (ko) 2017-12-22 2024-04-24 레스메드 센서 테크놀로지스 리미티드 건강 및 의료 감지를 위한 장치, 시스템, 및 방법
TWI640933B (zh) 2017-12-26 2018-11-11 中華電信股份有限公司 基於類神經網路之兩段式特徵抽取系統及其方法
WO2019147329A1 (en) 2018-01-23 2019-08-01 Hrl Laboratories, Llc A method and system for distributed coding and learning in neuromorphic networks for pattern recognition
US11278413B1 (en) 2018-02-06 2022-03-22 Philipp K. Lang Devices, systems, techniques and methods for determining the fit, size and/or shape of orthopedic implants using computer systems, artificial neural networks and artificial intelligence
WO2019177907A1 (en) 2018-03-13 2019-09-19 Hrl Laboratories, Llc Sparse associative memory for identification of objects
US20190354832A1 (en) 2018-05-17 2019-11-21 Università della Svizzera italiana Method and system for learning on geometric domains using local operators
US20210027862A1 (en) 2018-03-30 2021-01-28 Board Of Trustees Of Michigan State University Systems and methods for drug design and discovery comprising applications of machine learning with differential geometric modeling
US10771488B2 (en) 2018-04-10 2020-09-08 Cisco Technology, Inc. Spatio-temporal anomaly detection in computer networks using graph convolutional recurrent neural networks (GCRNNs)
DE102018109392A1 (de) 2018-04-19 2019-10-24 Beckhoff Automation Gmbh Verfahren zum erfassen optischer codes, automatisierungssystem und computerprogrammprodukt zum durchführen des verfahrens
US11341397B1 (en) 2018-04-20 2022-05-24 Perceive Corporation Computation of neural network node
EP3561727A1 (en) 2018-04-23 2019-10-30 Aptiv Technologies Limited A device and a method for extracting dynamic information on a scene using a convolutional neural network
US20190335192A1 (en) 2018-04-27 2019-10-31 Neulion, Inc. Systems and Methods for Learning Video Encoders
WO2019238483A1 (en) 2018-06-11 2019-12-19 Inait Sa Characterizing activity in a recurrent artificial neural network and encoding and decoding information
US11972343B2 (en) 2018-06-11 2024-04-30 Inait Sa Encoding and decoding information
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
US20190378000A1 (en) 2018-06-11 2019-12-12 Inait Sa Characterizing activity in a recurrent artificial neural network
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
US20190378007A1 (en) 2018-06-11 2019-12-12 Inait Sa Characterizing activity in a recurrent artificial neural network
US10417558B1 (en) 2018-09-28 2019-09-17 Deep Insight Solutions, Inc. Methods and systems for artificial neural network optimistic event processing
US11823038B2 (en) 2018-06-22 2023-11-21 International Business Machines Corporation Managing datasets of a cognitive storage system with a spiking neural network
US11218498B2 (en) 2018-09-05 2022-01-04 Oracle International Corporation Context-aware feature embedding and anomaly detection of sequential log data using deep recurrent neural networks
US11068942B2 (en) 2018-10-19 2021-07-20 Cerebri AI Inc. Customer journey management engine
EP3989194A1 (en) 2018-10-29 2022-04-27 Hexagon Technology Center GmbH Facility surveillance systems and methods
US11270072B2 (en) 2018-10-31 2022-03-08 Royal Bank Of Canada System and method for cross-domain transferable neural coherence model
WO2020095051A2 (en) 2018-11-07 2020-05-14 Gtn Ltd A quantum circuit based system configured to model physical or chemical systems
US11120111B2 (en) 2018-12-11 2021-09-14 Advanced New Technologies Co., Ltd. Authentication based on correlation of multiple pulse signals
US20190370647A1 (en) 2019-01-24 2019-12-05 Intel Corporation Artificial intelligence analysis and explanation utilizing hardware measures of attention
US20220148739A1 (en) 2019-02-05 2022-05-12 Smith & Nephew, Inc. Use of robotic surgical data for long term episode of care
US11544535B2 (en) 2019-03-08 2023-01-03 Adobe Inc. Graph convolutional networks with motif-based attention
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
US11676685B2 (en) 2019-03-21 2023-06-13 Illumina, Inc. Artificial intelligence-based quality scoring
US11210554B2 (en) 2019-03-21 2021-12-28 Illumina, Inc. Artificial intelligence-based generation of sequencing metadata
US10996664B2 (en) 2019-03-29 2021-05-04 Mitsubishi Electric Research Laboratories, Inc. Predictive classification of future operations
WO2020201999A2 (en) 2019-04-01 2020-10-08 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
US20200380335A1 (en) 2019-05-30 2020-12-03 AVAST Software s.r.o. Anomaly detection in business intelligence time series
US20200402497A1 (en) 2019-06-24 2020-12-24 Replicant Solutions, Inc. Systems and Methods for Speech Generation
US11583134B2 (en) 2019-07-15 2023-02-21 Lg Electronics Inc. Artificial intelligence cooking device
US11763155B2 (en) 2019-08-12 2023-09-19 Advanced Micro Devices, Inc. Using sub-networks created from neural networks for processing color images
US11064108B2 (en) * 2019-08-21 2021-07-13 Sony Corporation Frame rate control for media capture based on rendered object speed
US20210097578A1 (en) 2019-10-01 2021-04-01 JJG Development, LLC, DBA Smart Pickle Marketing automation platform
US20220187847A1 (en) 2019-11-05 2022-06-16 Strong Force Vcn Portfolio 2019, Llc Robot Fleet Management for Value Chain Networks
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
US11651210B2 (en) 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks
US20230019839A1 (en) 2019-12-11 2023-01-19 Inait Sa Constructing and operating an artificial recurrent neural network
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US20210182655A1 (en) 2019-12-11 2021-06-17 Inait Sa Robust recurrent artificial neural networks
US10885020B1 (en) 2020-01-03 2021-01-05 Sas Institute Inc. Splitting incorrectly resolved entities using minimum cut
US20220157436A1 (en) 2020-08-10 2022-05-19 Zeriscope, Inc. Method and system for distributed management of transdiagnostic behavior therapy
JP2024500818A (ja) 2020-12-18 2024-01-10 ストロング フォース ヴィーシーエヌ ポートフォリオ 2019,エルエルシー バリューチェーンネットワークのためのロボットフリート管理及び付加製造
US20220261593A1 (en) 2021-02-16 2022-08-18 Nvidia Corporation Using neural networks to perform object detection, instance segmentation, and semantic correspondence from bounding box supervision
US20230085384A1 (en) 2021-09-13 2023-03-16 Inait Sa Characterizing and improving of image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016206765A1 (en) * 2015-06-26 2016-12-29 Sentiance Nv Deriving movement behaviour from sensor data
US20190354846A1 (en) * 2017-05-03 2019-11-21 Intel Corporation Scaling half-precision floating point tensors for training deep neural networks
US20180373985A1 (en) * 2017-06-23 2018-12-27 Nvidia Corporation Transforming convolutional neural networks for visual sequence learning
TW201935326A (zh) * 2018-02-09 2019-09-01 宏達國際電子股份有限公司 訓練全連接神經網路的裝置及方法

Also Published As

Publication number Publication date
WO2021116140A1 (en) 2021-06-17
TW202137070A (zh) 2021-10-01
US20210182653A1 (en) 2021-06-17
EP4073708A1 (en) 2022-10-19
KR20220110293A (ko) 2022-08-05
CN115053233A (zh) 2022-09-13
US20240111994A1 (en) 2024-04-04
US11816553B2 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
TWI786483B (zh) 處理感測資料的方法、神經網路系統及建構循環神經網路系統的方法
TWI776310B (zh) 定義距離量度的方法以及訓練一循環人工神經網路的方法
TWI789654B (zh) 循環人工神經網路系統
TWI776309B (zh) 循環人工神經網路、由一循環人工神經網路系統執行的方法及神經網路裝置
TWI768584B (zh) 解釋在循環神經網路的決策決定的方法及提高循環神經網路對於對抗式攻擊的抵禦性的方法
Abdelzad et al. Detecting out-of-distribution inputs in deep neural networks using an early-layer output
Fisch et al. Knowledge fusion for probabilistic generative classifiers with data mining applications
Gepperth et al. The contribution of context information: a case study of object recognition in an intelligent car
Narayana A prototype to detect anomalies using machine learning algorithms and deep neural network
Adhvaryu et al. Bird Video Summarization Using Pre-trained CNN Model and Deep Learning
Nagpal et al. Gernating Anime Character Using GANs
Rajeswary et al. Enhancing Malicious Phishing Video Detection and Classification Using Sparrow Search Algorithm with Deep Learning Model