TWI780940B - 基於深度學習的任務導向去噪系統及方法 - Google Patents

基於深度學習的任務導向去噪系統及方法 Download PDF

Info

Publication number
TWI780940B
TWI780940B TW110136928A TW110136928A TWI780940B TW I780940 B TWI780940 B TW I780940B TW 110136928 A TW110136928 A TW 110136928A TW 110136928 A TW110136928 A TW 110136928A TW I780940 B TWI780940 B TW I780940B
Authority
TW
Taiwan
Prior art keywords
task
denoising
data
error
condition
Prior art date
Application number
TW110136928A
Other languages
English (en)
Other versions
TW202316331A (zh
Inventor
陳昱嘉
陳維
Original Assignee
國立中央大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立中央大學 filed Critical 國立中央大學
Priority to TW110136928A priority Critical patent/TWI780940B/zh
Application granted granted Critical
Publication of TWI780940B publication Critical patent/TWI780940B/zh
Publication of TW202316331A publication Critical patent/TW202316331A/zh

Links

Images

Landscapes

  • Detection And Correction Of Errors (AREA)
  • Error Detection And Correction (AREA)

Abstract

本發明提供一種基於深度學習的任務導向去噪系統,包括去噪自動編碼器、任務模組、判別器及反饋單元。去噪自動編碼器適於接收含噪數據,並依據去噪條件將含噪數據轉換為去噪數據。任務模組適於接收去噪數據,並依據任務條件輸出任務判斷。判別器適於接收去噪數據與乾淨數據,並依據真偽條件輸出真偽判斷。反饋單元適於接收任務判斷以產生任務誤差,接收真偽判斷以產生判別誤差,並反饋任務誤差及判別誤差至去噪自動編碼器。此外,一種基於深度學習的任務導向去噪方法亦被提出。

Description

基於深度學習的任務導向去噪系統及方法
本發明是有關於一種基於深度學習的去噪系統及方法,且特別是有關於一種任務導向型的去噪系統及方法。
透過深度學習方式,將含噪數據重建為去噪數據是近年來研究發展的新趨勢。具體來說,去噪自動編碼器(denoising autoencoder)具有從複雜的含噪數據中學習非線性表示的能力,並已廣泛應用於許多特徵學習任務,例如圖像分類及語音辨識。
圖1為習知之基於深度學習的去噪系統的示意圖,詳細技術內容可參閱S. Pascual, A. Bonafonte, and J. Serra所發表的文獻Speech enhancement generative adversarial network(arXiv 1703.094252, 2017)。請參考圖1,習知之基於深度學習的去噪系統100包括去噪自動編碼器110、判別器120、反饋單元130以及合成單元140,用以將含噪數據重建為去噪數據。
在訓練階段中,首先準備大量乾淨數據CD以及預先收集的雜訊NS,利用合成單元140將雜訊NS混入乾淨數據CD中而得到混合含噪數據SND,其中乾淨數據CD及混合含噪數據SND附帶識別標籤以利後續判別使用。
去噪自動編碼器110是用於接收混合含噪數據SND,並將混合含噪數據SND重建為去噪數據DD,具體來說,去噪自動編碼器110可分為編碼及解碼兩個階段。在編碼階段中,通過非線性函式將混合含噪數據SND從高維空間映射到低維的隱藏表徵(Hidden Representation),數據進行壓縮的同時將雜訊濾除,只提取真實乾淨數據的特徵。在解碼階段中,通過非線性函式將提取的特徵資料還原至輸入數據的維度來進行重建。
一般來說,去噪自動編碼器110是藉由去噪條件將混合含噪數據SND重建為去噪數據DD,而去噪條件例如為多個參數權重的組合。藉由在訓練階段中調整這些參數權重,使得重建的去噪數據DD得以逼近原始的乾淨數據CD。
判別器120是用於接收乾淨數據CD及去噪數據DD,判斷這些數據是否為乾淨或含噪,進而輸出真偽判斷AJ。換句話說,當判別器120判別輸入數據為乾淨時,真偽判斷AJF例如為真、1或高分;而當判別器120判別輸入數據為含噪時,真偽判斷AJ例如為偽、0或低分。
判別器120可為特化的分類器,並藉由真偽條件來判定輸入數據的真偽。真偽條件例如為多個參數權重的組合,藉由在訓練階段中調整這些參數權重,使得真偽判斷AJ得以在理想上完全成功判定輸入數據。
反饋單元130是用於接收乾淨數據CD、去噪數據DD及真偽判斷AJ,藉以產生重建誤差RL及判別誤差DL,進而反饋至去噪自動編碼器110。通過將重建誤差RL及判別誤差DL最小化,藉以將去噪條件最佳化。此外,判別誤差DL亦會反饋至判別器120,以使在整體訓練階段中,真偽條件會隨著去噪條件的不斷進步而隨之調整。
重建誤差RL是基於量測乾淨數據CD及去噪數據DD之間的均方根誤差(Root Mean-Square Error)而獲得,而判別誤差DL是當輸入去噪數據DD時,判別器120所輸出的真偽判斷AJ為偽、0或低分的誤差。
在訓練階段中,去噪自動編碼器110及判別器120是藉由反覆交替訓練以達成深度學習的效果。具體來說,在訓練去噪自動編碼器110時,是將判別器120的真偽條件固定,僅調整去噪自動編碼器110的去噪條件;相對地,在訓練判別器120時,是將去噪自動編碼器110的去噪條件固定,僅調整判別器120的真偽條件。反覆交替訓練多次後,當去噪條件及真偽條件趨向穩定,便完成去噪系統100的訓練階段。
去噪自動編碼器110及判別器120的架構可以看作是生成性對抗網路(Generative Adversarial Network)的一種變體。具體來說,去噪自動編碼器110可以看成是生成器,目標是學習將混合含噪數據SND重建成猶如乾淨數據CD的去噪數據DD。在對抗過程中,去噪自動編碼器110學會欺騙判別器120,嘗試讓重建的去噪數據DD在判別器120的判別過程中得到高分,透過重建誤差RL及判別誤差DL的反饋,去噪自動編碼器110能從多變量的混合含噪數據SND中捕獲更有意義的隱藏表徵。
另一方面,判別器120是訓練目標是在輸入為乾淨數據CD時,輸出真、1或高分的真偽判斷AJ,並在輸入為去噪數據DD時,輸出偽、0或低分的真偽判斷AJ。藉由反覆對抗的訓練階段,去噪自動編碼器110的學習目標在於最小化判別誤差DL及重建誤差RL,亦即去噪自動編碼器110所重建的去噪數據DD不僅能通過判別器120的試煉,且跟乾淨數據CD的差異很小。
完成訓練階段後,使用者可將在現實世界中所取得的含噪數據輸入去噪自動編碼器110以取得去噪數據DD進行後續使用。舉例來說,現實世界中所取得的含噪數據例如是在具有背景雜訊的語音數據,在未去噪前難以辨識語音交談內容,而在去噪後僅留下清晰的語音交談內容。
然而,習知之去噪系統100除了必備的乾淨數據CD外,更需要預先收集大量雜訊NS。不過,在現實世界中往往不易預先收集雜訊NS,甚至在大部分的情況中,預先單獨收集雜訊NS都是無法達成的課題。
舉例來說,近年來在軍事及民用領域中,利用無人機的機動性及敏捷性蒐集數據已成為趨勢,特別是在惡劣環境中無人機更具有無可取代的特性。但是無人機在量測訊號時,會受到無人機位置漂移及馬達高頻振動等多種因素造成的雜訊影響,而這些雜訊無法預先單獨收集,造成習知之去噪系統100難以應用於無法預先單獨收集雜訊的應用領域。
具體而言,在基於射頻的感測技術中,當目標進入充滿無線鏈路的監控區域時,無線電信號的傳播特性會發生變化。亦即,透過量測接收信號強度(Received Signal Strength, RSS)可以檢測並追蹤人體運動。
圖2A、2B分別為以靜態量測設備對無人及有人的房間進行量測的訊號圖,其中橫軸為時間,縱軸為接收信號強度RSS。請參考圖2A、2B,兩者振幅很明顯可由視覺判別,其中圖2A振幅較小而得以判斷為無人的房間,而圖2B振幅較大而得以判斷為有人的房間。
圖2C、2D分別為以無人機對無人及有人的房間進行量測的訊號圖,其中橫軸為時間,縱軸為接收信號強度RSS。請參考圖2C、2D,由於無人機自身的雜訊影響過大造成兩者振幅均很大,使得難以從視覺上區分兩者差異。
對於此類無法預先單獨收集雜訊的應用情景,P. C. Ng and J. She所發表的文獻Denoising-Contractive Autoencoder for Robust Device-Free Occupancy Detection(IEEE Internet of Things Journal, vol. 6, no. 6, pp. 9572-9582, Dec. 2019.)提出以高斯雜訊來模擬現實訊號可能受到的雜訊。換句話說,圖1中的雜訊NS可改用高斯分布模型進行模擬,然而無人機自身的雜訊因素過於複雜,難以僅用高斯雜訊模擬,造成去噪效果不如預期。
有鑑於此,本發明提供一種基於深度學習的任務導向去噪系統,包括去噪自動編碼器、任務模組、判別器及反饋單元。去噪自動編碼器適於接收含噪數據,並依據去噪條件將含噪數據轉換為去噪數據。任務模組適於接收去噪數據,並依據任務條件輸出任務判斷。判別器適於接收去噪數據與乾淨數據,並依據真偽條件輸出真偽判斷。反饋單元適於接收任務判斷以產生任務誤差,接收真偽判斷以產生判別誤差,並反饋任務誤差及判別誤差至去噪自動編碼器。
在一實施例中,任務模組可為分類器,具體而言,任務模組可為二元分類器,而任務判斷是判斷區域中是否有人。或是,任務模組可為多元分類器,而任務判斷是判斷區域中為無人、1人或多人。在另一實施例中,含噪數據是由無人機收集。在又一實施例中,反饋單元適於反饋任務誤差至任務模組以更新任務條件,且反饋單元適於反饋判別誤差至判別器以更新真偽條件。
本發明另提供一種基於深度學習的任務導向去噪方法,包括下列步驟。初始化去噪自動編碼器之去噪條件、任務模組之任務條件及判別器之真偽條件;訓練任務模組以更新任務條件;將含噪數據輸入去噪自動編碼器以轉換為去噪數據;將去噪數據輸入任務模組以輸出任務判斷後產生任務誤差;將乾淨數據及去噪數據輸入判別器以輸出真偽判斷後產生判別誤差;以判別誤差訓練判別器以更新真偽條件;以任務誤差及判別誤差訓練去噪自動編碼器以更新去噪條件。
在一實施例中,基於深度學習的任務導向去噪方法更包括可多次反覆交替訓練判別器及去噪自動編碼器,而在訓練判別器時可固定去噪條件,且在訓練去噪自動編碼器時固定真偽條件。在另一實施例中,去噪方法更包括以任務誤差訓練任務模組以更新任務條件。
為讓本發明之上述和其他目的、特徵和優點能更明顯易懂,下文特舉較佳實施例,並配合所附圖式,作詳細說明如下。
圖3為依據本發明一實施例之基於深度學習的任務導向去噪系統的示意圖。請參考圖3,本發明之基於深度學習的任務導向去噪系統300包括去噪自動編碼器310、判別器320、反饋單元330及任務模組340,其中任務模組340是依據任務性質而進行相關設計。為方便讀者理解本發明的精神並延續前文,本實施例是以判斷房間有無人員作為任務導向進行說明本發明之去噪系統,並非用於限定任務導向的種類。
在一實施例中,乾淨數據CD例如是如圖2A、2B所示以靜態量測設備對無人及有人的房間進行訊號量測,而含噪數據ND例如是如圖2C、2D所示以無人機對無人及有人的房間進行訊號量測,且乾淨數據CD及含噪數據ND均附帶識別標籤以利後續判別使用。在對去噪系統300進行訓練後,去噪系統300目標是可準確判別含噪數據ND是對應於無人或是有人的房間。
去噪自動編碼器310適於接收含噪數據ND,並依據去噪條件將含噪數據ND轉換重建為去噪數據DD。在一實施例中,去噪自動編碼器310可類似圖1之去噪自動編碼器110架構,而去噪條件例如為多個參數權重的組合,並在訓練階段中調整這些參數權重。
判別器320適於接收去噪數據DD與乾淨數據CD,並依據真偽條件輸出真偽判斷AJ。在一實施例中,判別器320可類似圖1之判別器120架構,而真偽條件例如為多個參數權重的組合,並在訓練階段中調整這些參數權重。
任務模組340適於接收去噪數據DD,並依據任務條件輸出任務判斷TJ。任務模組340例如為分類器,並根據任務目標而有不同的任務條件設計。具體而言,在本實施例中,任務模組340例如為二元分類器,而任務判斷TJ是判斷房間區域中是否有人。舉例來說,當任務模組340判別輸入數據是房間區域中有人時,任務判斷TJ例如為1或高分;而任務模組340判別輸入數據是房間區域中無人時,任務判斷TJ例如為0或低分。
反饋單元330適於接收任務判斷TJ以產生任務誤差TL,並接收真偽判斷AJ以產生判別誤差DL,並反饋任務誤差TL及判別誤差DL至去噪自動編碼器310。通過將任務誤差TL及判別誤差DL最小化,藉以將去噪條件最佳化。此外,判別誤差DL亦會反饋至判別器320,以使在整體訓練階段中,真偽條件會隨著去噪條件的不斷進步而隨之調整。
類似前述,判別誤差DL是當輸入去噪數據DD時,判別器320所輸出的真偽判斷AJ為偽、0或低分的誤差。任務誤差TL是任務模組340輸出的任務判斷TJ與實際情況不同的誤差,亦即為判斷錯誤的誤差,舉例來說,任務誤差TL乃是當輸入數據是對應有人房間但任務判斷TJ輸出為0或低分的誤差,以及當輸入數據是對應無人房間但任務判斷TJ輸出為1或高分的誤差。
不同於習知之去噪系統100以重建誤差RL進行反饋,本發明改用任務誤差TL進行反饋,如此一來,本發明無需獨立收集雜訊以獲得重建誤差RL,進而得以大幅擴展可以應用的領域。
值得注意的是,對於判別器320而言,訓練目標在於判斷輸入數據是否含噪,至於輸入數據是對應無人或有人的房間則非判別器320的判斷重點。相對地,對於任務模組340而言,訓練目標在於判斷輸入數據是對應無人或有人的房間,至於輸入數據是否含噪或是含噪程度大小則非任務模組340的判斷重點。
透過判別誤差DL及任務誤差TL的反饋,在訓練階段中,去噪自動編碼器310從含噪數據ND中所捕獲的隱藏表徵,除了對應去噪需求以最小化判別誤差DL外,亦會對應任務需求以最小化任務誤差TL。如此一來,去噪自動編碼器310所轉換出的去噪數據DD能在去噪過程中仍保有對應任務性質的特徵,而讓任務模組340得以清楚辦別而輸出正確的任務判斷TJ。
更進一步而言,在本發明之去噪系統300的架構中,去噪效果固然重要,但去噪數據DD能否通過任務模組340的正確判斷更值得關切。換句話說,就算去噪效果相對不盡理想,但能通過任務模組340正確判別去噪數據DD,對於使用者而言更加重要。
附帶一提的是,任務模組340是藉由反饋單元330所反饋的任務誤差TL進行訓練以更新任務條件,任務條件例如為多個參數權重的組合,並可在訓練階段中調整這些參數權重。當對任務模組340完成訓練後,任務模組340便可用於判別去噪數據DD以達成任務需求。
圖4A~4D為對應不同去噪方法之混淆矩陣的示意圖,其中圖4A的混淆矩陣是對應靜態量測設備,圖4B的混淆矩陣是對應無人機但未進行去噪,圖4C的混淆矩陣是對應高斯雜訊模擬搭配習知去噪系統100,圖4D的混淆矩陣是對應本發明之去噪系統300。
請同時參考圖4A~4D,標號A、B、C、D是分別表示實際房間無人、實際房間有人、判別房間無人、判別房間有人的狀態,進而得以計算精確度。相較圖4B、4C而言,應用本發明之去噪系統300的圖4D的混淆矩陣在整體精確度表現上都比較優異,並且距離以靜態量測設備的圖4A的混淆矩陣差距有限。
詳細而言,無人機雜訊的影響會導致人體感測性能下降超過20%。而不管基於訊號處理的方法或是傳統深度學習方法皆無法有效減少雜訊之影響。本發明之去噪系統300能明顯改善無人機雜訊的不良影響,人體感測性能僅下降約5%。
值得注意的是,本發明並不限定任務模組340的種類,而任務模組340是隨著任務需求而有所不同。舉例來說,若任務需求是要判定房間區域中是無人、1人或多人時,任務模組340便可採用三元分類器或其他合適的多元分類器。此外,如同前述,本發明並非限定僅能用於以無人機量測以判別房間內有無人員,舉例來說,利用手錶量測人體血氧濃度會受到手臂晃動造成的雜訊而有量測誤差,機場中的對話亦會受到環境雜音的干擾,而這些情境都可以透過本發明之去噪系統加以改善。
圖5為依據本發明一實施例之基於深度學習的任務導向去噪方法的流程圖,請同時參考圖3及圖5,本發明之去噪方法500的步驟流程是建構於去噪系統300上。首先在步驟S01中,初始化去噪自動編碼器310之去噪條件、任務模組340之任務條件及判別器320之真偽條件,具體來說,去噪條件、任務條件及真偽條件例如為多個參數權重的組合,並先以隨機產生的亂數賦值。
在步驟S02中進行任務模組340的訓練,以更新任務條件,使得任務模組340得以判別輸入數據是對應房間有人或房間有人的情況。當完成任務模組340的訓練後,可在後續的步驟中固定任務條件以進行去噪自動編碼器310及判別器320之訓練。在本實施例中,是藉由任務誤差TL訓練任務模組340以更新任務條件。
在步驟S03中,將含噪數據ND輸入去噪自動編碼器310以轉換為去噪數據DD,將去噪數據DD輸入任務模組340以輸出任務判斷TJ後產生任務誤差TL,並將乾淨數據CD及去噪數據DD輸入判別器320以輸出真偽判斷AJ後產生判別誤差DL。
在步驟S04中進行判別器320的訓練,以判別誤差DL訓練判別器以更新真偽條件。在此步驟中,可暫時先將去噪條件固定。
在步驟S05中進行去噪自動編碼器310的訓練,以任務誤差TL及判別誤差DL訓練去噪自動編碼器310以更新去噪條件。在此步驟中,可暫時先將真偽條件固定。
在步驟S06中,判斷是否達到預期任務效能。若能通過則完成訓練階段,若不能通過則可多次反覆交替訓練判別器320及去噪自動編碼器330,亦即回到步驟S03再次重新進行訓練。
在前述說明中,本實施例是透過去噪自動編碼器310及判別器320兩者之間的對抗相互進行學習以達到訓練的效果,但本發明並不限定僅能為二元對抗。舉例來說,任務模組340亦可加入重複訓練而為三元對抗,亦即前述步驟S05若未達到預期任務效能,則是回到步驟S02再次進行任務模組340的訓練,而除了乾淨數據CD外,更可加入去噪數據DD作為任務模組340的輸入數據,並藉由任務誤差TL進行訓練以更新任務條件。
雖然本發明已以較佳實施例揭露如上,然其並非用以限定本發明,任何熟習此技藝者,在不脫離本發明之精神和範圍內,當可作些許之更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100:去噪系統 110:去噪自動編碼器 120:判別器 130:反饋單元 140:合成單元 300:去噪系統 310:去噪自動編碼器 320:判別器 330:反饋單元 340:任務模組 500:去噪方法 AJ:真偽判斷 DL:判別誤差 CD:乾淨數據 NS:雜訊 ND:含噪數據 SND:混合含噪數據 DD:去噪數據 TJ:任務判斷 TL:任務誤差 RL:重建誤差 S01~S06:步驟
圖1為習知之基於深度學習的去噪系統的示意圖。 圖2A、2B分別為以靜態量測設備對無人及有人的房間進行量測的訊號圖。 圖2C、2D分別為以無人機對無人及有人的房間進行量測的訊號圖。 圖3為依據本發明一實施例之基於深度學習的任務導向去噪系統的示意圖。 圖4A~4D為對應不同去噪方法之混淆矩陣的示意圖。 圖5為依據本發明一實施例之基於深度學習的任務導向去噪方法的流程圖
300:去噪系統
310:去噪自動編碼器
320:判別器
330:反饋單元
340:任務模組
CD:乾淨數據
ND:含噪數據
DD:去噪數據
TJ:任務判斷
TL:任務誤差
AJ:真偽判斷
DL:判別誤差

Claims (10)

  1. 一種基於深度學習的任務導向去噪系統,包括: 一去噪自動編碼器,適於接收一含噪數據,並依據一去噪條件將該含噪數據轉換為一去噪數據; 一任務模組,適於接收該去噪數據,並依據一任務條件輸出一任務判斷; 一判別器,適於接收該去噪數據與一乾淨數據,並依據一真偽條件輸出一真偽判斷;以及 一反饋單元,適於接收該任務判斷以產生一任務誤差,接收該真偽判斷以產生一判別誤差,並反饋該任務誤差及該判別誤差至該去噪自動編碼器。
  2. 如請求項1所述之基於深度學習的任務導向去噪系統,其中該任務模組為分類器,而該反饋單元反饋該任務誤差至該任務模組以更新該任務條件。
  3. 如請求項2所述之基於深度學習的任務導向去噪系統,其中該任務模組為二元分類器或多元分類器。
  4. 如請求項1所述之基於深度學習的任務導向去噪系統,其中該反饋單元反饋該判別誤差至該判別器以更新該真偽條件。
  5. 如請求項1所述之基於深度學習的任務導向去噪系統,其中該含噪數據是由無人機收集。
  6. 一種基於深度學習的任務導向去噪方法,包括: 初始化一去噪自動編碼器之一去噪條件、一任務模組之一任務條件及一判別器之一真偽條件; 訓練該任務模組以更新該任務條件; 將一含噪數據輸入該去噪自動編碼器以轉換為一去噪數據; 將該去噪數據輸入該任務模組以輸出一任務判斷後產生一任務誤差; 將該乾淨數據及該去噪數據輸入該判別器以輸出一真偽判斷後產生一判別誤差; 以該判別誤差訓練該判別器以更新該真偽條件;以及 以該任務誤差及該判別誤差訓練該去噪自動編碼器以更新該去噪條件。
  7. 如請求項6所述之基於深度學習的任務導向去噪方法,更包括多次反覆交替訓練該判別器及該去噪自動編碼器。
  8. 如請求項6所述之基於深度學習的任務導向去噪方法,其中在訓練該判別器時固定該去噪條件。
  9. 如請求項6所述之基於深度學習的任務導向去噪方法,其中在訓練該去噪自動編碼器時固定該真偽條件。
  10. 如請求項6所述之基於深度學習的任務導向去噪方法,更包括以該任務誤差訓練該任務模組以更新該任務條件。
TW110136928A 2021-10-04 2021-10-04 基於深度學習的任務導向去噪系統及方法 TWI780940B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW110136928A TWI780940B (zh) 2021-10-04 2021-10-04 基於深度學習的任務導向去噪系統及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110136928A TWI780940B (zh) 2021-10-04 2021-10-04 基於深度學習的任務導向去噪系統及方法

Publications (2)

Publication Number Publication Date
TWI780940B true TWI780940B (zh) 2022-10-11
TW202316331A TW202316331A (zh) 2023-04-16

Family

ID=85462713

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110136928A TWI780940B (zh) 2021-10-04 2021-10-04 基於深度學習的任務導向去噪系統及方法

Country Status (1)

Country Link
TW (1) TWI780940B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190095798A1 (en) * 2017-09-28 2019-03-28 D5Ai Llc Stochastic categorical autoencoder network
TW201933155A (zh) * 2017-11-08 2019-08-16 南韓商三星電子股份有限公司 對劣化電路的輸出進行模擬的電路模擬器、方法和系統
CN111602150A (zh) * 2017-10-31 2020-08-28 巴比伦合伙有限公司 计算机实现的确定方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190095798A1 (en) * 2017-09-28 2019-03-28 D5Ai Llc Stochastic categorical autoencoder network
US20200320371A1 (en) * 2017-09-28 2020-10-08 D5Ai Llc Training for machine learning systems with synthetic data generators
CN111602150A (zh) * 2017-10-31 2020-08-28 巴比伦合伙有限公司 计算机实现的确定方法和系统
TW201933155A (zh) * 2017-11-08 2019-08-16 南韓商三星電子股份有限公司 對劣化電路的輸出進行模擬的電路模擬器、方法和系統

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
期刊 Wei Chen,Deng-Kai Chang,Yu-Jia Chen Combating the Impact of Jittering in UAV-based Sensing Systems Using Deep Denoising Network Combating the Impact of Jittering in UAV-based Sensing Systems Using Deep Denoising Network 2020 IEEE 92nd Vehicular Technology Conference IEEE Nov.~16,Dec.2020 pp.1~3 *

Also Published As

Publication number Publication date
TW202316331A (zh) 2023-04-16

Similar Documents

Publication Publication Date Title
US8935195B2 (en) Method of identification and devices thereof
US7130776B2 (en) Method and computer program product for producing a pattern recognition training set
CN111103976B (zh) 手势识别方法、装置及电子设备
Yhdego et al. Towards musculoskeletal simulation-aware fall injury mitigation: transfer learning with deep CNN for fall detection
Gupta et al. Comparative analysis of convolution neural network models for continuous indian sign language classification
Miller et al. Detection theory for graphs
Hansen et al. On independent component analysis for multimedia signals
JP2008009728A (ja) 表情認識方法及び表情認識装置
Aljarrah Effect of image degradation on performance of convolutional neural networks
Qiao et al. Human activity classification based on micro-Doppler signatures separation
Naveed et al. Wavelet based multivariate signal denoising using mahalanobis distance and edf statistics
TWI780940B (zh) 基於深度學習的任務導向去噪系統及方法
Kareem et al. Using skeleton based optimized residual neural network architecture of deep learning for human fall detection
Tang et al. FMNet: Latent feature-wise mapping network for cleaning up noisy micro-Doppler spectrogram
Eyobu et al. A real-time sleeping position recognition system using IMU sensor motion data
Diete et al. Vision and acceleration modalities: Partners for recognizing complex activities
Kumdee et al. Repetitive motion detection for human behavior understanding from video images
Li et al. E-nose vapor identification based on Dempster–Shafer fusion of multiple classifiers
CN113592016B (zh) 基于互信息增强的自监督新颖性检测方法
Tu et al. Bimodal emotion recognition based on speech signals and facial expression
CN114626412A (zh) 用于无人值守传感器系统的多类别目标识别方法及系统
JP2021072106A (ja) イメージ処理システム
Ostovan et al. Generation of Human Micro‐Doppler Signature Based on Layer‐Reduced Deep Convolutional Generative Adversarial Network
Anarossi et al. Deep segmented dmp networks for learning discontinuous motions
Strisciuglio Learning audio and image representations with bio-inspired trainable feature extractors

Legal Events

Date Code Title Description
GD4A Issue of patent certificate for granted invention patent