TW202305671A - 用於採樣資料的電子裝置和方法 - Google Patents

用於採樣資料的電子裝置和方法 Download PDF

Info

Publication number
TW202305671A
TW202305671A TW110126709A TW110126709A TW202305671A TW 202305671 A TW202305671 A TW 202305671A TW 110126709 A TW110126709 A TW 110126709A TW 110126709 A TW110126709 A TW 110126709A TW 202305671 A TW202305671 A TW 202305671A
Authority
TW
Taiwan
Prior art keywords
sample
similarity
processor
electronic device
threshold
Prior art date
Application number
TW110126709A
Other languages
English (en)
Inventor
劉一帆
黃彥鈞
郭宗賢
陳奎廷
Original Assignee
中強光電股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中強光電股份有限公司 filed Critical 中強光電股份有限公司
Priority to TW110126709A priority Critical patent/TW202305671A/zh
Publication of TW202305671A publication Critical patent/TW202305671A/zh

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Analogue/Digital Conversion (AREA)

Abstract

提供一種用於採樣資料的電子裝置和方法。方法包含:取得第一樣本以及第二樣本;計算第一樣本與第二樣本的相似度;以及響應於相似度小於閾值,將第二樣本加入樣本集合中,其中樣本集合包含第一樣本。

Description

用於採樣資料的電子裝置和方法
本發明是有關於一種用於採樣資料的電子裝置和方法。
深度學習技術在近年來被廣泛地使用。訓練深度學習模型的過程經常需要大量的訓練資料。若訓練的環境是大型的資料中心或伺服器中心,累積並處理大量資料尚為可行,但例如終端裝置的微處理器(microcontroller)或單板微電腦(single-board computer)或手機等運算能力相對有限的邊緣運算裝置(edge-computing device)並無法處理大量的資料。因此,深度學習模型的訓練會盡量避免在邊緣運算裝置上執行,僅會在雲端系統完成模型的訓練後將訓練好的模型佈署到邊緣運算裝置。
然而,在模型佈署到邊緣運算裝置後,邊緣運算裝置的應用場域常會面臨資料的統計性質隨著時間發生變化(data drift)而導致模型需要被重新訓練。若能發展出能由邊緣運算裝置訓練深度學習模型的技術,則將可大幅地減少邊緣運算裝置與雲端系統之間的資料傳輸量。
本發明提供一種用於採樣資料的電子裝置和方法,可降低訓練深度學習模型需使用的訓練樣本數量。
本發明的一種用於採樣資料的電子裝置包含處理器以及收發器。收發器用於接收第一樣本以及第二樣本。處理器耦接收發器,其中處理器經配置以執行:取得第一樣本以及第二樣本;計算第一樣本與第二樣本的相似度;以及響應於相似度小於閾值,將第二樣本加入樣本集合中,其中樣本集合包含第一樣本。
在本發明的一實施例中,上述的處理器更經配置以執行:響應於相似度大於或等於閾值,捨棄第二樣本。
在本發明的一實施例中,上述的處理器更經配置以執行:藉由收發器接收第三樣本;響應於樣本集合包含第二樣本,計算第二樣本與第三樣本的第二相似度;以及響應於第二相似度小於閾值,將第三樣本加入樣本集合中。
在本發明的一實施例中,上述的處理器更經配置以執行:響應於第二相似度大於或等於閾值,捨棄第三樣本。
在本發明的一實施例中,上述的處理器更經配置以執行:藉由收發器接收第三樣本;響應於樣本集合包含第二樣本,計算第一樣本與第三樣本的第二相似度以及第二樣本與第三樣本的第三相似度;以及響應於第二相似度以及第三相似度的每一者小於閾值,將第三樣本加入樣本集合中。
在本發明的一實施例中,上述的處理器更經配置以執行:響應於第二相似度以及第三相似度的其中之一大於或等於閾值,捨棄第三樣本。
在本發明的一實施例中,上述的處理器在相同時間取得第一樣本以及第二樣本。
在本發明的一實施例中,上述的處理器在第一時間點取得第一樣本並且在第二時間點取得第二樣本,其中第二時間點晚於第一時間點。
在本發明的一實施例中,上述的相似度對應於餘弦相似度。
在本發明的一實施例中,上述的處理器根據樣本集合訓練或更新機器學習模型。
在本發明的一實施例中,上述的處理器藉由收發器輸出樣本集合。
本發明的一種用於採樣資料的方法,包含:取得第一樣本以及第二樣本;計算第一樣本與第二樣本的相似度;以及響應於相似度小於閾值,將第二樣本加入樣本集合中,其中樣本集合包含第一樣本。
基於上述,本發明的電子裝置可在不犧牲深度學習模型的表現的情況下降低訓練深度學習模型所需使用的訓練樣本數量,而使深度學習模型的訓練可由具有較低運算能力的裝置來執行。
圖1根據本發明的一實施例繪示一種用於採樣資料的電子裝置100的示意圖。電子裝置100可包含處理器110、儲存媒體120以及收發器130。
處理器110例如是中央處理單元(central processing unit,CPU),或是其他可程式化之一般用途或特殊用途的微控制單元(micro control unit,MCU)、微處理器(microprocessor)、數位信號處理器(digital signal processor,DSP)、可程式化控制器、特殊應用積體電路(application specific integrated circuit,ASIC)、圖形處理器(graphics processing unit,GPU)、影像訊號處理器(image signal processor,ISP)、影像處理單元(image processing unit,IPU)、算數邏輯單元(arithmetic logic unit,ALU)、複雜可程式邏輯裝置(complex programmable logic device,CPLD)、現場可程式化邏輯閘陣列(field programmable gate array,FPGA)或其他類似元件或上述元件的組合。處理器110可耦接至儲存媒體120以及收發器130,並且存取和執行儲存於儲存媒體120中的多個模組和各種應用程式與軟體(Software)。
儲存媒體120例如是任何型態的固定式或可移動式的隨機存取記憶體(random access memory,RAM)、唯讀記憶體(read-only memory,ROM)、快閃記憶體(flash memory)、硬碟(hard disk drive,HDD)、固態硬碟(solid state drive,SSD)或類似元件或上述元件的組合,而用於儲存可由處理器110執行的多個模組或各種應用程式。
收發器130以無線或有線的方式傳送及接收訊號。收發器130還可以執行例如低噪聲放大、阻抗匹配、混頻、向上或向下頻率轉換、濾波、放大以及類似的操作。
圖2根據本發明的一實施例繪示一種用於採樣資料的方法的流程圖,其中所述方法可由如圖1所示的電子裝置100實施。
在步驟S201中,處理器110可取得N個樣本(數據),其中N為正整數。具體來說,收發器130可用於接收樣本。處理器110可藉由收發器130接收N個樣本。樣本可來自於感測器。舉例來說,處理器110可藉由收發器130以無線或有線通訊的方式連接至設置在幫浦(Pump)上的震動感測器,從而取得震動感測器產生包含震動訊號的N個樣本。
在一實施例中,上述的N個樣本可以是在相同時間取得的。舉例來說,若N個樣本包含第一樣本以及第二樣本,則處理器110可在相同時間取得第一樣本以及第二樣本。
在一實施例中,上述的N個樣本可以是在不同時間點取得的。舉例來說,若N個樣本包含第一樣本以及第二樣本,則處理器110可在第一時間點取得第一樣本並且在第二時間點取得第二樣本,其中第二時間點可晚於第一時間點。
在步驟S202中,處理器110可計算「樣本i」與「樣本(i+1)」的相似度,並且判斷相似度是否大於閾值T。「i」為樣本的索引,其中「樣本i」可代表N個樣本中的第i個樣本。「i」的初始值可為1。相似度例如是餘弦相似度(cosine similarity),但本發明不限於此。若相似度大於閾值T,則進入步驟S203。若相似度小於或等於閾值T,則進入步驟S204。閾值為操作者預設的數值。
以表1為例,表1包含處理器110在步驟S201中取得的N個樣本,分別為「樣本1」、「樣本2」、「樣本3」、…、「樣本(N-1)」、「樣本N」。若「i」等於1,則處理器110可計算「樣本1」與「樣本2」的相似度。若相似度大於閾值T,則進入步驟S203。若相似度小於或等於閾值T,則進入步驟S204。
若「i」等於2,則處理器110可計算「樣本2」與「樣本3」的相似度。若相似度大於閾值T,則進入步驟S203。若相似度小於或等於閾值T,則進入步驟S204。
若「i」等於N-1,則處理器110可計算「樣本(N-1)」與「樣本N」的相似度。若相似度大於閾值T,則進入步驟S203。若相似度小於或等於閾值T,則進入步驟S204。 表1
樣本1 樣本2 樣本3 樣本(N-1) 樣本N
在另一實施例中,處理器110可計算「樣本1」至「樣本i」的每一者與「樣本(i+1)」的相似度以取得多個相似度,並且判斷多個相似度的每一者是否大於閾值T。若多個相似度的其中之一大於閾值T,則進入步驟S203。若多個相似度的每一者均小於或等於閾值T,則進入步驟S204。
以表1為例,若「i」等於1,則處理器110可計算「樣本1」與「樣本2」的相似度。若相似度大於閾值T,則進入步驟S203。若相似度小於或等於閾值T,則進入步驟S204。
若「i」等於2,則處理器110可計算「樣本1」至「樣本2」的每一者與「樣本3」的相似度以取得「樣本1」與「樣本3」的相似度(以下稱為「相似度(1,3)」)以及「樣本2」與「樣本3」的相似度(以下稱為「相似度(2,3)」)。若「相似度(1,3)」與「相似度(2,3)」的其中之一大於閾值T,則進入步驟S203。若「相似度(1,3)」與「相似度(2,3)」的每一者均小於或等於閾值T,則進入步驟S204。
若「i」等於N-1,則處理器110可計算「樣本1」至「樣本(N-1)」的每一者與「樣本N」的相似度以取得「樣本1」與「樣本N」的相似度(以下稱為「相似度(1,N)」)、「樣本2」與「樣本N」的相似度(以下稱為「相似度(2,N)」)、…、「樣本(N-1)」與「樣本N」的相似度(以下稱為「相似度(N-1,N)」)。若「相似度(1,N)」、「相似度(2,N)」、…、「相似度(N-1,N)」的其中之一大於閾值T,則進入步驟S203。若「相似度(1,N)」、「相似度(2,N)」、…、「相似度(N-1,N)」的每一者均小於或等於閾值T,則進入步驟S204。
在步驟S203中,處理器110可捨棄「樣本(i+1)」。
在步驟S204中,處理器110可判斷「i」是否大於或等於N-1。若「i」大於或等於N-1,則進入步驟S206。若「i」小於N-1,則進入步驟S205。
在步驟S205中,處理器110可使「i」等於「i+1」。接著,處理器110可重新執行步驟S202。
在步驟S206中,處理器110可將「樣本(i+1)」加入樣本集合中。初始的樣本集合可包含「樣本1」。樣本集合可用於訓練或更新機器學習模型。在一實施例中,處理器110可根據樣本集合訓練或更新機器學習模型。在另一實施例中,處理器110可藉由收發器130輸出樣本集合。舉例來說,處理器110可將樣本集合輸出給具有運算能力的外部電子裝置。外部電子裝置可根據樣本集合來訓練或更新機器學習模型。
圖3根據本發明的另一實施例繪示一種用於採樣資料的方法的流程圖,其中所述方法可由如圖1所示的電子裝置100實施。在步驟S301中,取得第一樣本以及第二樣本。在步驟S302中,計算第一樣本與第二樣本的相似度。在步驟S303中,響應於相似度小於閾值,將第二樣本加入樣本集合中,其中樣本集合包含第一樣本。
綜上所述,本發明的電子裝置可根據樣本與樣本之間的相似度決定是否保留樣本。若兩個樣本太相近,則電子裝置可選擇僅保留兩個樣本的其中之一。若兩個樣本不相近,則電子裝置可將兩個樣本均保留在樣本集合中。在比較完電子裝置所收集到的所有樣本的相似度後,電子裝置可產生並輸出用於訓練深度學習模型的樣本集合。本發明可在不犧牲深度學習模型的表現的情況下降低訓練深度學習模型所需使用的訓練樣本數量,而使深度學習模型的訓練可由具有較低運算能力的裝置來執行。
惟以上所述者,僅為本發明之較佳實施例而已,當不能以此限定本發明實施之範圍,即大凡依本發明申請專利範圍及發明說明內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。另外本發明的任一實施例或申請專利範圍不須達成本發明所揭露之全部目的或優點或特點。此外,摘要部分和標題僅是用來輔助專利文件搜尋之用,並非用來限制本發明之權利範圍。此外,本說明書或申請專利範圍中提及的” “第一”、“”第二”等用語僅用以命名元件(element)的名稱或區別不同實施例或範圍,而並非用來限制元件數量上的上限或下限。
100:電子裝置 110:處理器 120:儲存媒體 130:收發器 S201、S202、S203、S204、S205、S206、S301、S302、S303:步驟。
圖1根據本發明的一實施例繪示一種用於採樣資料的電子裝置的示意圖。 圖2根據本發明的一實施例繪示一種用於採樣資料的方法的流程圖。 圖3根據本發明的另一實施例繪示一種用於採樣資料的方法的流程圖。
S301、S302、S303:步驟

Claims (12)

  1. 一種用於採樣資料的電子裝置,包括: 收發器,用於接收第一樣本以及第二樣本;以及 處理器,耦接所述收發器,其中所述處理器經配置以執行: 取得所述第一樣本以及所述第二樣本; 計算所述第一樣本與所述第二樣本的相似度;以及 響應於所述相似度小於閾值,將所述第二樣本加入樣本集合中,其中所述樣本集合包括所述第一樣本。
  2. 如請求項1所述的電子裝置,其中所述處理器更經配置以執行: 響應於所述相似度大於或等於所述閾值,捨棄所述第二樣本。
  3. 如請求項1所述的電子裝置,其中所述處理器更經配置以執行: 藉由所述收發器接收所述第三樣本; 響應於所述樣本集合包括所述第二樣本,計算所述第二樣本與所述第三樣本的第二相似度;以及 響應於所述第二相似度小於所述閾值,將所述第三樣本加入所述樣本集合中。
  4. 如請求項3所述的電子裝置,其中所述處理器更經配置以執行: 響應於所述第二相似度大於或等於所述閾值,捨棄所述第三樣本。
  5. 如請求項1所述的電子裝置,其中所述處理器更經配置以執行: 藉由所述收發器接收所述第三樣本; 響應於所述樣本集合包括所述第二樣本,計算所述第一樣本與所述第三樣本的第二相似度以及第二樣本與第三樣本的第三相似度;以及 響應於所述第二相似度以及所述第三相似度的每一者小於所述閾值,將所述第三樣本加入所述樣本集合中。
  6. 如請求項5所述的電子裝置,其中所述處理器更經配置以執行: 響應於所述第二相似度以及所述第三相似度的其中之一大於或等於所述閾值,捨棄所述第三樣本。
  7. 如請求項1所述的電子裝置,其中所述處理器在相同時間取得所述第一樣本以及所述第二樣本。
  8. 如請求項1所述的電子裝置,其中所述處理器在第一時間點取得所述第一樣本並且在第二時間點取得所述第二樣本,其中所述第二時間點晚於所述第一時間點。
  9. 如請求項1所述的電子裝置,其中所述相似度對應於餘弦相似度。
  10. 如請求項1所述的電子裝置,其中所述處理器根據所述樣本集合訓練或更新機器學習模型。
  11. 如請求項1所述的電子裝置,其中所述處理器藉由所述收發器輸出所述樣本集合。
  12. 一種用於採樣資料的方法,包括: 取得第一樣本以及第二樣本; 計算所述第一樣本與所述第二樣本的相似度;以及 響應於所述相似度小於閾值,將所述第二樣本加入樣本集合中,其中所述樣本集合包括所述第一樣本。
TW110126709A 2021-07-21 2021-07-21 用於採樣資料的電子裝置和方法 TW202305671A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW110126709A TW202305671A (zh) 2021-07-21 2021-07-21 用於採樣資料的電子裝置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110126709A TW202305671A (zh) 2021-07-21 2021-07-21 用於採樣資料的電子裝置和方法

Publications (1)

Publication Number Publication Date
TW202305671A true TW202305671A (zh) 2023-02-01

Family

ID=86661406

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110126709A TW202305671A (zh) 2021-07-21 2021-07-21 用於採樣資料的電子裝置和方法

Country Status (1)

Country Link
TW (1) TW202305671A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI823817B (zh) * 2023-05-12 2023-11-21 和碩聯合科技股份有限公司 資料處理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI823817B (zh) * 2023-05-12 2023-11-21 和碩聯合科技股份有限公司 資料處理方法

Similar Documents

Publication Publication Date Title
US10825447B2 (en) Method and apparatus for optimizing model applicable to pattern recognition, and terminal device
CN110400575B (zh) 通道间特征提取方法、音频分离方法和装置、计算设备
RU2647696C2 (ru) Мобильный видеопоиск
CN109840589B (zh) 一种在fpga上运行卷积神经网络的方法和装置
WO2022121180A1 (zh) 模型的训练方法、装置、语音转换方法、设备及存储介质
KR20200131914A (ko) 적응적 인공 신경 네트워크 선택 기법들
TW202305671A (zh) 用於採樣資料的電子裝置和方法
CN109714356A (zh) 一种异常域名的识别方法、装置及电子设备
US20130114900A1 (en) Methods and apparatuses for mobile visual search
JP2018518764A (ja) オブジェクト検索方法、装置およびサーバ
WO2023274005A1 (zh) 图像处理方法、装置、电子设备和存储介质
US10997966B2 (en) Voice recognition method, device and computer storage medium
WO2022246986A1 (zh) 数据处理方法、装置、设备及计算机可读存储介质
WO2021027555A1 (zh) 一种人脸检索方法及装置
CN109671440B (zh) 一种模拟音频失真方法、装置、服务器及存储介质
JP5547128B2 (ja) クラスタリング装置及び方法及びプログラム
Ebbers et al. Evaluation of modulation-MFCC features and DNN classification for acoustic event detection
CN115688856A (zh) 用于采样数据的电子装置和方法
CN115049843A (zh) 一种对抗样本生成方法、装置、电子设备及存储介质
TWI780382B (zh) 微控制器更新系統和方法
JP7192990B2 (ja) 学習装置、検索装置、学習方法、検索方法、学習プログラム、及び検索プログラム
CN116982111A (zh) 音频特征补偿方法、音频识别方法及相关产品
US9236056B1 (en) Variable length local sensitivity hash index
US20180357287A1 (en) Hybrid software-hardware implementation of edit distance search
TWI755176B (zh) 細胞密度分類方法及裝置、電子裝置及存儲介質