TW202230182A - 產生運算裝置的參考配置的電子裝置和方法 - Google Patents
產生運算裝置的參考配置的電子裝置和方法 Download PDFInfo
- Publication number
- TW202230182A TW202230182A TW110102442A TW110102442A TW202230182A TW 202230182 A TW202230182 A TW 202230182A TW 110102442 A TW110102442 A TW 110102442A TW 110102442 A TW110102442 A TW 110102442A TW 202230182 A TW202230182 A TW 202230182A
- Authority
- TW
- Taiwan
- Prior art keywords
- cluster
- cluster center
- score
- neural network
- configuration
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/2263—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/2289—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing by configuration test
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Semiconductor Integrated Circuits (AREA)
- Picture Signal Circuits (AREA)
- Testing Electric Properties And Detecting Electric Faults (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Testing Of Coins (AREA)
Abstract
提出一種產生運算裝置的參考配置的電子裝置和方法。方法包含:取得第一神經網路模型,其中第一神經網路模型包含多個聚類中心,其中多個聚類中心對應於多個特徵;取得第一配置需求;判斷第一配置需求對應於多個聚類中心中的第一聚類中心;根據第一聚類中心的多個第一特徵值產生參考配置,其中多個第一特徵值分別對應於多個特徵;以及輸出參考配置。
Description
本發明是有關於一種產生運算裝置的參考配置的電子裝置和方法。
為了公正地評價具有不同配置(例如:硬體、韌體或軟體配置)的運算裝置,廠商通常可通過測試軟體來計算出運算裝置的分數以作為參考。舉例來說,廠商可通過SPECpower_ssj2008等軟體來計算運算裝置的分數(例如:由SPECpower_ssj2008軟體輸出的SP值)。為了利用測試軟體測試運算裝置,廠商需根據客戶對運算裝置的需求而完成備料、組裝運算裝置以及建立測試環境(例如:建立恆溫的環境)等流程,因而需花費大量的時間。當運算裝置的訂單增加時,廠商往往無法迅速地測試完所有的運算裝置而延誤了產品的出貨時間。
此外,不同的客戶所在意的功能也不相同。由於測試軟體主要是針對運算裝置的運算能力進行評價,故廠商很難通過測試軟體的測試結果來評價運算裝置對特定功能的表現。舉例來說,假設客戶較在意運算裝置的儲存能力而非運算能力,則廠商很難根據測試軟體的測試結果來找出具有較佳儲存能力的運算裝置。
本發明實施例提供一種產生運算裝置的參考配置的電子裝置和方法,可推估裝置配置的分數。
本發明實施例的一種產生運算裝置的參考配置的電子裝置,包含處理器以及儲存媒體。儲存媒體儲存多個模組以及第一神經網路模型,其中第一神經網路模型包含多個聚類中心,其中多個聚類中心對應於多個特徵。處理器耦接儲存媒體,並且存取和執行多個模組,其中多個模組包含資料收集模組、運算模組以及輸出模組。資料收集模組取得第一配置需求。運算模組經配置以執行:判斷第一配置需求對應於多個聚類中心中的第一聚類中心;以及根據第一聚類中心的多個第一特徵值產生參考配置,其中多個第一特徵值分別對應於多個特徵。輸出模組輸出參考配置。
在本發明的一實施例中,上述的資料收集模組取得多個標籤資料,其中多個標籤資料的每一者包含標籤分數以及分別對應於多個特徵的多個標籤特徵值,其中多個模組更包含訓練模組。訓練模組根據多個標籤資料產生第一神經網路模型。
在本發明的一實施例中,上述的第一配置需求包含第一取向,其中多個標籤資料的每一者更包含標籤取向,其中運算模組統計對應於第一聚類中心的多個標籤資料中的至少一標籤資料的至少一標籤取向決定與第一聚類中心相對應的第一應用取向,其中運算模組響應於第一取向與第一應用取向匹配而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個聚類中心更包含第二聚類中心,其中響應於第一聚類中心以及第二聚類中心兩者與第一應用取向相對應,運算模組根據多個標籤資料計算對應於第一聚類中心的第一分數以及對應於第二聚類中心的第二分數,其中運算模組響應於第一取向與第一應用取向匹配且第一分數大於第二分數而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個標籤資料包含第一訓練資料,其中多個聚類中心更包含第二聚類中心以及第三聚類中心,其中第一神經網路模型包含第一隱藏層,其中第一隱藏層根據多個標籤資料更新多個聚類中心,包含:定義第三聚類中心關聯於第二聚類中心;產生第二聚類中心的多個第二特徵值以及第三聚類中心的多個第三特徵值;以及判斷第一訓練資料對應於第二聚類中心,並且響應於第一訓練資料對應於第二聚類中心而根據第一訓練資料更新多個第二特徵值以及多個第三特徵值。
在本發明的一實施例中,上述的第一配置需求包含多個分別對應於多個特徵的多個特徵值,其中運算模組根據多個特徵值計算第一配置需求與多個聚類中心之間的多個距離,並且響應於與第一聚類中心相對應的第一距離為多個距離中的最小距離而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個聚類中心更包含第二聚類中心,其中多個距離更包含對應於第二聚類中心的第二距離,其中響應於第一距離等於第二距離,運算模組根據分別對應於第一聚類中心與第二聚類中心的多個標籤資料計算對應於第一聚類中心的第一分數以及對應於第二聚類中心的第二分數,其中運算模組響應於第一分數大於第二分數而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個標籤資料包含分別對應於多個標籤分數的多個訓練資料,其中第一神經網路模型包含第二隱藏層,其中第二隱藏層經配置以執行:產生對應於多個聚類中心與多個訓練資料的距離矩陣;產生距離矩陣的虛反矩陣;根據虛反矩陣與多個標籤分數產生權重矩陣;產生對應於多個聚類中心與第一配置需求的第二距離矩陣;以及根據第二距離矩陣以及權重矩陣產生對應於第一配置需求的第一分數,其中輸出模組輸出第一分數。
在本發明的一實施例中,上述的資料收集模組取得多個配置需求,其中多個配置需求包含第一配置需求以及第二配置需求,其中運算模組將多個配置需求輸入至第一神經網路以產生分別對應於多個配置需求的多個分數,其中運算模組響應於第一分數為多個分數中的最大分數而選擇第一配置需求以產生參考配置,其中運算模組響應於第一分數為最大分數並且對應於第二配置需求的第二分數為多個分數中的最小分數而根據第一配置需求和第二配置需求產生差異分析報告,其中輸出模組輸出差異分析報告。
在本發明的一實施例中,上述的多個標籤資料包含多個訓練資料以及多個測試資料,其中訓練模組根據多個訓練資料產生第一神經網路模型以及第二神經網路模型,其中第二神經網路模型包含多個第二聚類中心,其中多個聚類中心的第一數量不同於多個第二聚類中心的第二數量,其中運算模組根據多個測試資料計算第一神經網路模型的第一損失函數值以及第二神經網路模型的第二損失函數值,其中運算模組響應於第一損失函數值小於第二損失函數值而從第一神經網路模型和第二神經網路模型中選擇第一神經網路模型以產生參考配置。
本發明實施例的一種產生運算裝置的參考配置的方法,包含:取得第一神經網路模型,其中第一神經網路模型包含多個聚類中心,其中多個聚類中心對應於多個特徵;取得第一配置需求;判斷第一配置需求對應於多個聚類中心中的第一聚類中心;根據第一聚類中心的多個第一特徵值產生參考配置,其中多個第一特徵值分別對應於多個特徵;以及輸出參考配置。
在本發明的一實施例中,上述的方法更包含:取得多個標籤資料,其中多個標籤資料的每一者包含標籤分數以及分別對應於多個特徵的多個標籤特徵值;以及根據多個標籤資料產生第一神經網路模型。
在本發明的一實施例中,上述的第一配置需求包含第一取向,其中多個標籤資料的每一者更包含標籤取向,其中判斷第一配置需求對應於多個聚類中心中的第一聚類中心的步驟包含:統計對應於第一聚類中心的多個標籤資料中的至少一標籤資料的至少一標籤取向決定與第一聚類中心相對應的第一應用取向;以及響應於第一取向與第一應用取向匹配而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個聚類中心更包含第二聚類中心,其中判斷第一配置需求對應於多個聚類中心中的第一聚類中心的步驟包含:響應於第一聚類中心以及第二聚類中心兩者與第一應用取向相對應,根據多個標籤資料計算對應於第一聚類中心的第一分數以及對應於第二聚類中心的第二分數;以及響應於第一取向與第一應用取向匹配且第一分數大於第二分數而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個標籤資料包含第一訓練資料,其中多個聚類中心更包含第二聚類中心以及第三聚類中心,其中第一神經網路模型包含第一隱藏層,其中第一隱藏層根據多個標籤資料更新多個聚類中心,包含:定義第三聚類中心關聯於第二聚類中心;產生第二聚類中心的多個第二特徵值以及第三聚類中心的多個第三特徵值;以及判斷第一訓練資料對應於第二聚類中心,並且響應於第一訓練資料對應於第二聚類中心而根據第一訓練資料更新多個第二特徵值以及多個第三特徵值。
在本發明的一實施例中,上述的第一配置需求包含多個分別對應於多個特徵的多個特徵值,其中判斷第一配置需求對應於多個聚類中心中的第一聚類中心的步驟包含:根據多個特徵值計算第一配置需求與多個聚類中心之間的多個距離;以及響應於與第一聚類中心相對應的第一距離為多個距離中的最小距離而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個聚類中心更包含第二聚類中心,其中多個距離更包含對應於第二聚類中心的第二距離,其中判斷第一配置需求對應於多個聚類中心中的第一聚類中心的步驟更包含:響應於第一距離等於第二距離,根據分別對應於第一聚類中心與第二聚類中心的多個標籤資料計算對應於第一聚類中心的第一分數以及對應於第二聚類中心的第二分數;以及響應於第一分數大於第二分數而判斷第一配置需求對應於第一聚類中心。
在本發明的一實施例中,上述的多個標籤資料包含分別對應於多個標籤分數的多個訓練資料,其中第一神經網路模型包含第二隱藏層,其中第二隱藏層經配置以執行:產生對應於多個聚類中心與多個訓練資料的距離矩陣;產生距離矩陣的虛反矩陣;根據虛反矩陣與多個標籤分數產生權重矩陣;產生對應於多個聚類中心與第一配置需求的第二距離矩陣;以及根據第二距離矩陣以及權重矩陣產生對應於第一配置需求的第一分數,其中方法更包含:輸出第一分數。
在本發明的一實施例中,上述的根據第一聚類中心的多個第一特徵值產生參考配置的步驟包含:取得多個配置需求,其中多個配置需求包含第一配置需求以及第二配置需求;將多個配置需求輸入至第一神經網路以產生分別對應於多個配置需求的多個分數;響應於第一分數為多個分數中的最大分數而選擇第一配置需求以產生參考配置;以及響應於第一分數為最大分數並且對應於第二配置需求的第二分數為多個分數中的最小分數而根據第一配置需求和第二配置需求產生差異分析報告,並且輸出差異分析報告。
在本發明的一實施例中,上述的多個標籤資料包含多個訓練資料以及多個測試資料,其中根據第一聚類中心的多個第一特徵值產生參考配置的步驟包含:根據多個訓練資料產生第一神經網路模型以及第二神經網路模型,其中第二神經網路模型包含多個第二聚類中心,其中多個聚類中心的第一數量不同於多個第二聚類中心的第二數量;根據多個測試資料計算第一神經網路模型的第一損失函數值以及第二神經網路模型的第二損失函數值;以及響應於第一損失函數值小於第二損失函數值而從第一神經網路模型和第二神經網路模型中選擇第一神經網路模型以產生參考配置。
基於上述,本發明實施例可根據歷史資料訓練出用以推估裝置配置的分數的神經網路模型。相較於傳統的測試軟體,本發明實施例的神經網路模型可以在很短的時間內計算出裝置配置的分數。當客戶的需求改變時,本發明實施例不需要重新執行測試軟體也能推估出更新的運算裝置的分數。如此,可以節省大量的人力或物力。另一方面,本發明可根據使用者的需求而產生著重於特定功能的運算裝置的參考配置。
為了使本發明之內容可以被更容易明瞭,以下特舉實施例作為本發明確實能夠據以實施的範例。另外,凡可能之處,在圖式及實施方式中使用相同標號的元件/構件/步驟,係代表相同或類似部件。
圖1根據本發明的一實施例繪示一種產生運算裝置的參考配置的電子裝置100的示意圖。電子裝置100可包含處理器110、儲存媒體120以及收發器130。
處理器110例如是中央處理單元(central processing unit,CPU),或是其他可程式化之一般用途或特殊用途的微控制單元(micro control unit,MCU)、微處理器(microprocessor)、數位信號處理器(digital signal processor,DSP)、可程式化控制器、特殊應用積體電路(application specific integrated circuit,ASIC)、圖形處理器(graphics processing unit,GPU)、影像訊號處理器(image signal processor,ISP)、影像處理單元(image processing unit,IPU)、算數邏輯單元(arithmetic logic unit,ALU)、複雜可程式邏輯裝置(complex programmable logic device,CPLD)、現場可程式化邏輯閘陣列(field programmable gate array,FPGA)或其他類似元件或上述元件的組合。處理器110可耦接至儲存媒體120以及收發器130,並且存取和執行儲存於儲存媒體120中的多個模組和各種應用程式。
儲存媒體120例如是任何型態的固定式或可移動式的隨機存取記憶體(random access memory,RAM)、唯讀記憶體(read-only memory,ROM)、快閃記憶體(flash memory)、硬碟(hard disk drive,HDD)、固態硬碟(solid state drive,SSD)或類似元件或上述元件的組合,而用於儲存可由處理器110執行的多個模組或各種應用程式。在本實施例中,儲存媒體120可儲存包括資料收集模組121、訓練模組122、運算模組123、輸出模組124以及資料庫125等多個模組,其功能將於後續說明。
收發器130以無線或有線的方式傳送及接收訊號。收發器130還可以執行例如低噪聲放大、阻抗匹配、混頻、向上或向下頻率轉換、濾波、放大以及類似的操作。於另一實施例中,收發器130耦接輸入輸出介面電路(圖未示),收發器130透過輸入輸出介面電路接收使用者的輸入的資料或指示,並透過輸入輸出介面電路輸出結果。
資料庫125可預存一或多個神經網路模型。舉例來說,資料庫125可預存神經網路模型1000。在一實施例中,資料庫125可進一步預存與神經網路模型1000相異的一或多個神經網路模型,諸如神經網路模型2000、3000、4000和5000。神經網路模型1000可用以產生配置需求的分數。使用者可根據神經網路模型1000輸出的分數來評價配置需求。配置需求可關聯於硬體配置、韌體配置或軟體配置等多種特徵。舉例來說,配置需求可包含主機板型號、中央處理單元功率、記憶體容量、固態硬碟容量、M.2固態硬碟容量、硬式磁碟機容量、FPGA卡、超執行緒(Hyper-Threading,HT)配置、作業系統能源配置或溫度等特徵的相關資訊,本發明實施例不限於此。
神經網路模型1000可由訓練模組122產生。圖2A根據本發明的一實施例繪示產生神經網路模型1000的流程圖。在步驟S201中,資料收集模組121可通過收發器130取得多個標籤資料,其中所述多個標籤資料的每一者可包含標籤分數以及分別對應於多個特徵的多個標籤特徵值。標籤資料可以是標籤的歷史配置需求。表1為一筆標籤資料的範例。在一實施例中,標籤資料還可包含標籤取向。標籤取向可指示與標籤資料相對應的配置需求的應用情境。舉例來說,標籤取向可指示配置需求對應於高運算效能取向的產品、高儲存容量取向的產品、網絡架構之邊緣裝置取向的產品或高節能效率取向的產品。在一實施例中,在利用標籤資料訓練神經網路模型1000之前,訓練模組122可先將標籤資料的多個特徵值正規化。
表1
特徵編號 | 標籤特徵值 | 單位 | 分類 | 說明 |
特徵1 | 2010 | N/A | 硬體配置 | 主機板型號 |
特徵2 | 300 | 兆位元組 | 硬體配置 | 中央處理單元功率 |
特徵3 | 384 | 兆位元組 | 硬體配置 | 記憶體容量 |
特徵4 | 12,000 | 兆位元組 | 硬體配置 | 固態硬碟容量 |
特徵5 | 5760 | 兆位元組 | 硬體配置 | M.2固態硬碟容量 |
特徵6 | 144,000 | N/A | 硬體配置 | 硬式磁碟機容量 |
特徵7 | 1或0 | N/A | 硬體配置 | FPGA卡 |
特徵8 | 1或0 | N/A | 韌體配置 | 超執行緒(Hyper-Threading,HT)配置 |
特徵9 | 1或0 | N/A | 軟體配置 | 作業系統能源配置 |
特徵10 | 29 | 度C | N/A | 溫度 |
標籤分數:3,347 標籤取向:高運算效能取向 |
在一實施例中,在取得多個標籤資料後,訓練模組122可根據多個標籤資料進行各個特徵與標籤分數之間的相關係數分析。訓練模組122可基於相關係數分析的結果來將與標籤分數較無關聯的特徵刪除。表2為標籤資料的各個特徵與標籤分數之間的相關係數的範例。舉例來說,可設定相關係數門檻值來做篩選,如以相關係數絕對值0.7為相關係數門檻值,特徵1以及特徵2與標籤分數之間的相關係數的絕對值大於等於相關係數門檻值,故訓練模組122可判斷特徵1和特徵2與標籤分數的相關性較顯著。因此,訓練模組122可將特徵1和特徵2保留,並可將特徵3至特徵10自標籤資料中刪除。於另一實施例中,相關係數門檻值設定為相關係數絕對值0.1,特徵1至特徵9的相關係數的絕對值大於等於相關係數門檻值,訓練模組122判斷特徵1至特徵9保留,並將特徵10自標籤資料中刪除。
表2
特徵編號 | 說明 | 相關係數 | 保留或刪除 |
特徵1 | 主機板型號 | -0.86 | 保留 |
特徵2 | 中央處理單元功率 | 0.70 | 保留 |
特徵3 | 記憶體容量 | 0.68 | 刪除 |
特徵4 | 固態硬碟容量 | 0.10 | 刪除 |
特徵5 | M.2固態硬碟容量 | 0.25 | 刪除 |
特徵6 | 硬式磁碟機容量 | 0.19 | 刪除 |
特徵7 | FPGA卡 | 0.6 | 刪除 |
特徵8 | 超執行緒配置 | -0.16 | 刪除 |
特徵9 | 作業系統能源配置 | -0.16 | 刪除 |
特徵10 | 溫度 | -0.06 | 刪除 |
在步驟S202中,訓練模組122可根據多個標籤資料產生多個神經網路模型。多個神經網路模型的數量可以是任意的正整數。在本實施例中,所述多個神經網路模型可包含神經網路模型1000、2000、3000、4000和5000。圖3根據本發明的一實施例繪示神經網路模型1000的示意圖。以神經網路模型1000為例,神經網路模型1000可包含輸入層1100、隱藏層1200以及輸出層1300。隱藏層1200可包含第一隱藏層1201以及第二隱藏層1202。輸入層1100可用以接收輸入資料(例如:配置需求),並且輸出層1300可用以產生對應於輸入資料的分數。
神經網路模型1000的訓練方法可參照圖4A至圖6A。具體來說,神經網路模型1000可包含多個聚類中心(cluster center),並且每一個聚類中心可對應於多個特徵。聚類中心的數量可以是預設的。舉例來說,神經網路模型1000可包含9個聚類中心,如圖4A所示。圖4A、4B以及4C根據本發明的一實施例繪示產生聚類中心的示意圖。圖4A繪示了神經網路模型1000的9個聚類中心,分別為聚類中心P1、P2、P3、P4、P5、P6、P7、P8和P9。聚類中心可對應於多個特徵。在本實施例中,聚類中心可對應於特徵x1和特徵x2,其中特徵x1例如是如表2所示的特徵1(即:主機板型號),並且特徵x2例如是如表2所示的特徵2(即:中央處理單元功率)。聚類中心的各個特徵的初始特徵值可以是由訓練模組122產生的。舉例來說,訓練模組122可隨機地產生聚類中心的初始特徵值。
第一隱藏層1201可用以執行自組織對映(self-organizing map,SOM)演算法。首先,第一隱藏層1201可定義神經網路模型1000的各個聚類中心之間的關係。圖5根據本發明的一實施例繪示聚類中心之間的關係的示意圖。在本實施例中,第一隱藏層1201可將9個聚類中心分布於九宮格中,並且將相鄰的聚類中心定義為相關聯的聚類中心。舉例來說,第一隱藏層1201可定義聚類中心P4與聚類中心P7、P5和P1相關聯。第一隱藏層1201可定義聚類中心P3與聚類中心P2和P6相關聯。第一隱藏層1201可定義聚類中心P5與聚類中心P2、P4、P6和P8相關聯。
接著,訓練模組122可根據多個標籤資料來更新各個聚類中心的特徵值。訓練模組122可將多個標籤資料區分為訓練資料集、測試資料集以及驗證資料集。第一隱藏層1201可根據訓練資料集中的訓練資料來更新各個聚類中心的特徵值。具體來說,第一隱藏層1201可根據訓練資料的特徵值判斷訓練資料對應於特定聚類中心,並且根據訓練資料更新所述特定聚類中心的特徵值以及與所述特定聚類中心相關聯的聚類中心的特徵值。如圖4A所示,假設訓練模組122將訓練資料t1輸入至神經網路模型1000,第一隱藏層1201可判斷(例如:基於歐氏距離)訓練資料t1對應於聚類中心P4。據此,第一隱藏層1201可根據訓練資料t1更新聚類中心P4、P7、P5和P1的特徵值。利用訓練資料t1更新過的聚類中心如圖4B所示。
第一隱藏層1201可根據訓練資料集中的多個訓練資料不斷地更新聚類中心的特徵值,直到滿足停止條件為止。停止條件例如是關聯於更新次數或收斂誤差等,本發明實施例不限於此。完成更新後的聚類中心可如圖4C所示。完成聚類中心的更新後,第一隱藏層1201的訓練即可結束。
在第一隱藏層1201的訓練過程中,處理器110可將訓練資料與聚類中心的關係記錄於儲存媒體120中。例如,若第一隱藏層1201判斷訓練資料t1對應於聚類中心P4,則處理器110可將「訓練資料t1對應於聚類中心P4」記錄於儲存媒體120中。換句話說,在完成各個聚類中心的特徵值的更新後,儲存媒體120可記錄與特定聚類中心相對應的一或多筆訓練資料。
在一實施例中,運算模組123可根據與特定聚類中心相對應的一或多筆訓練資料中的標籤分數計算所述特定聚類中心的分數。舉例來說,若儲存媒體120記錄共有訓練資料t1、訓練資料t2以及訓練資料t3等三筆訓練資料對應於聚類中心P4。運算模組123可根據訓練資料t1的標籤分數s1、訓練資料t2的標籤分數s2以及訓練資料t3的標籤分數s3來計算對應於聚類中心P4的分數。例如,運算模組123可計算標籤分數s1、標籤分數s2以及標籤分數s3的平均值以作為對應於聚類中心P4的分數。
在一實施例中,運算模組123可統計對應於第一聚類中心的多個訓練資料中的至少一訓練資料的至少一標籤取向決定與第一聚類中心相對應的應用取向。舉例來說,若儲存媒體120記錄共有訓練資料t1、訓練資料t2以及訓練資料t3等三筆資料對應於聚類中心P4。運算模組123可根據訓練資料t1的標籤取向o1、訓練資料t2的標籤取向o2以及訓練資料t3的標籤取向o3來決定對應於聚類中心P4的應用取向。例如,運算模組123可統計標籤取向o1、標籤取向o2以及標籤取向o3中對應於高運算效能取向的標籤取向的數量。若對應於高運算效能取向的標籤取向的數量占多數,則運算模組123可判斷聚類中心P4的應用取向為高運算效能取向。
在完成聚類中心的更新後,第二隱藏層1202可基於徑向基底函數(radial basis function,RBF)演算法而根據聚類中心來產生權重矩陣。圖6A根據本發明的一實施例繪示產生權重矩陣W的示意圖。假設N為特徵的數量、M為聚類中心的數量並且K為訓練資料的數量,其中N、M和K為正整數。在階段1中,第二隱藏層1202可產生矩陣A以及矩陣B,其中矩陣A的元素
代表第j個聚類中心的第i個特徵的特徵值,並且矩陣B的元素
代表第j筆訓練資料的第i個特徵的特徵值。第二隱藏層1202可根據矩陣A以及矩陣B計算K筆訓練資料與M個聚類中心之間的距離(例如:歐氏距離),從而產生距離矩陣D,其中距離矩陣D的元素
代表第i筆訓練資料與第j個聚類中心之間的距離。接著,第二隱藏層1202可產生距離矩陣D的虛反矩陣(pseudo inverse matrix)I。
在階段2中,第二隱藏層1202可產生矩陣S,其中矩陣S的元素
代表第i筆訓練資料的標籤分數。訓練模組122可將虛反矩陣I與矩陣S相乘以產生權重矩陣W,其中權重矩陣W的元素
代表對應於第i個聚類中心的權重。
在取得權重矩陣W後,第二隱藏層1202的訓練即可結束。在一實施例中,訓練模組122可進一步判斷所產生的權重矩陣W是否為可用的。具體來說,在階段3中,訓練模組122可將對應於K個訓練資料的距離矩陣D與權重矩陣W相乘以產生矩陣E1,其中矩陣E1的元素
代表對應於第i筆訓練資料的估計分數。訓練模組122可根據矩陣E1判斷權重矩陣W是否為可用的。舉例來說,訓練模組122可響應於矩陣E1與矩陣S的距離(例如:歐氏距離)小於閾值而判斷權重矩陣W為可用的。若權重矩陣W為可用的,則訓練模組122可判斷第二隱藏層1202的訓練已完成。
回到圖2,在步驟S202中,除了產生神經網路模型1000外,訓練模組122還可依據與產生神經網路模型1000相似的方式來產生神經網路模型2000、3000、4000和5000。不同神經網路模型的差異可在於聚類中心的數量。舉例來說,神經網路模型1000可包含9個聚類中心,並且神經網路模型2000可包含1個聚類中心。聚類中心的數量可以是任意的正整數,本發明實施例不限於此。表3為神經網路模型1000、2000、3000、4000和5000所對應的聚類中心的數量的範例。
表3
神經網路模型編號 | 聚類中心的數量 | 損失函數值 (測試資料) |
神經網路模型1000 | 3x3 = 9 | 120 |
神經網路模型2000 | 1x1 = 1 | 3800 |
神經網路模型3000 | 2x2 = 4 | 1050 |
神經網路模型4000 | 4x4 = 16 | 300 |
神經網路模型5000 | 5x5 = 25 | 500 |
在產生多個神經網路模型後,在步驟S203中,運算模組123可分析多個神經網路模型的效能。以神經網路模型1000為例,運算模組123可根據多個標籤資料中的測試資料集或驗證資料集來計算神經網路模型1000的損失函數值,從而根據損失函數值判斷神經網路模型1000的效能。損失函數值例如是由神經網路模型1000計算的分數以及標籤分數的均方根誤差(Root-mean-square error,RMSE)。
為了計算神經網路模型1000的損失函數值,運算模組123可將驗證資料集或測試資料集中的資料輸入至神經網路模型1000。假設運算模組123將測試資料輸入至神經網路模型1000,則神經網路模型1000的第二隱藏層1202可利用權重矩陣W計算對應於該測試資料的分數。圖6B根據本發明的一實施例繪示利用權重矩陣W產生對應於測試資料的分數的示意圖。
在階段1中,第二隱藏層1202可計算矩陣A與矩陣T1之間的距離以產生距離矩陣D2,其中矩陣A的元素
代表第j個聚類中心的第i個特徵的特徵值,矩陣T1的元素
代表測試資料的第i個特徵的特徵值,並且矩陣D2的元素
代表測試資料與第j個聚類中心之間的距離。在取得距離矩陣D2後,在階段2中,第二隱藏層1202可將距離矩陣D2與權重矩陣W進行相乘以產生分數E2。運算模組123可根據分數E2計算神經網路模型1000的損失函數值。損失函數值例如是測試資料的標籤分數以及分數E2的均方根誤差。如表3所示,運算模組123可計算神經網路模型1000的損失函數值為120。基於相似的方法,運算模組123可計算神經網路模型2000、3000、4000和5000的損失函數值,如表3所示。
回到圖2,在步驟S204中,運算模組123可從多個神經網路模型中選出最佳的神經網路模型。舉例來說,運算模組123可根據損失函數值來選擇最佳的神經網路模型。圖7根據本發明的一實施例繪示神經網路模型的損失函數值的示意圖。由圖7和表3可知,相較於包含1、4、16和25個聚類中心的神經網路模型(即:神經網路模型2000、3000、4000和5000),包含9個聚類中心的神經網路模型(即:神經網路模型1000)具有最低的損失函數值。因此,運算模組123可選擇神經網路模型1000作為最佳的神經網路模型。
圖2B根據本發明的另一實施例繪示產生神經網路模型1000的流程圖。在步驟S21中,資料收集模組121可通過收發器130取得多個標籤資料,其中所述多個標籤資料的每一者可包含標籤分數以及分別對應於多個特徵的多個標籤特徵值。在步驟S22中,訓練模組122可根據多個標籤資料產生神經網路模型1000。在步驟S23中,運算模組123可分析神經網路模型1000的效能。
在步驟S24中,運算模組123可判斷神經網路模型1000的效能是否可接受。舉例來說,運算模組123可響應於神經網路模型1000的損失函數值小於閾值而判斷神經網路模型1000的效能是可接受的,並可響應於損失函數值大於或等於閾值而判斷神經網路模型1000的效能是不可接受的。若神經網路模型1000的效能是可接受的,則進入步驟S26。若神經網路模型1000的效能是不可接受的,則進入步驟S25。
在步驟S25中,訓練模組122可改變神經網路模型1000的架構,並且回到步驟S22以重新訓練神經網路模型1000。具體來說,訓練模組122可改變神經網路模型1000的聚類中心的數量。例如,訓練模組122可將神經網路模型1000的聚類中心的數量由1個改變為4個。在步驟S26中,運算模組123可判斷神經網路模型1000的訓練已經完成。
在一實施例中,電子裝置100可利用訓練完的神經網路模型1000來計算配置需求的分數。舉例來說,資料收集模組121可通過收發器130取得對應於多個特徵(例如:如表2所示的特徵)的配置需求。運算模組123可將配置需求輸入至神經網路模型1000,並且神經網路模型1000可輸出對應於配置需求的分數。具體來說,神經網路模型1000的第二隱藏層1202可根據如圖6B所示的方法計算對應於多個聚類中心以及配置需求的第二距離矩陣D2,並且根據第二距離矩陣D2與權重矩陣W計算出該配置需求的分數。輸出模組124可通過收發器130或通過耦接的顯示裝置(圖未示)輸出分數以供使用者參考。使用者可根據分數來評價配置需求。
在一實施例中,資料收集模組121可通過收發器130取得包含第一配置需求的多個配置需求,並將多個配置需求輸入至神經網路模型1000以產生分別對應於多個配置需求的多個分數。運算模組123可響應於第一配置需求的第一分數為所述多個分數中的最大分數而判斷第一配置需求的效能優於其他配置需求的效能。舉例來說,若第一配置需求的第一分數高於第二配置需求的第二分數,則使用者可判斷第一配置需求的效能優於第二配置需求的效能。在一實施例中,運算模組123可響應於第二配置需求的第二分數為所述多個分數中的最小分數而判斷第二配置需求的效能劣於其他配置需求的效能。運算模組123可根據對應於最大分數的第一配置需求以及對應於最小分數的第二配置需求進行差異分析以產生差異分析報告。輸出模組124可通過收發器130輸出差異分析報告以供使用者參考。如此,使用者可根據差異分析報告以判斷哪些特徵(例如:主機板型號或中央處理單元功率等)可顯著地影響效能。
電子裝置100可利用訓練完的神經網路模型1000來產生參考配置。若使用者欲設計出一台具有特定功能的運算裝置,則使用者可收集與該特定功能有關的歷史資料,並透過歷史資料蒐集相關的配置需求。電子裝置100可根據歷史資料相關的配置需求來產生運算裝置的參考配置。舉例來說,若使用者欲設計一台具有高度運算能力的運算裝置,則電子裝置100可利用對應於高運算效能取向的配置需求來產生參考配置。類似地,若使用者欲設計一台具有高儲存容量的運算裝置,則電子裝置100可利用對應於高儲存容量取向的配置需求來產生參考配置。
在一實施例中,電子裝置100的資料收集模組121可通過收發器130取得多個配置需求,其中多個配置需求分別對應於多個特徵(例如:如表2所示的特徵)。接著,運算模組123可將多個配置需求分別輸入至神經網路模型1000中。神經網路模型1000可產生分別對應於多個配置需求的多個分數。運算模組123可根據多個分數而從多個配置需求中選擇第一配置需求。舉例來說,運算模組123可響應於第一配置需求的第一分數為多個分數中的最大分數而從多個配置需求中選擇第一配置需求。
於另一實施例中,在資料收集模組121通過收發器130取得第一配置需求後,運算模組123可判斷第一配置需求對應於神經網路模型1000中的多個聚類中心的其中之一。
在一實施例中,運算模組123可根據第一配置需求的取向決定與第一配置需求相對應的聚類中心。具體來說,第一配置需求可包含第一取向。運算模組123可響應於第一取向與多個聚類中心中的第一聚類中心的應用取向相匹配而判斷第一配置需求對應於第一聚類中心。舉例來說,若第一配置需求對應於高運算效能取向並且第一聚類中心對應於高運算效能取向,則運算模組123可判斷第一配置需求對應於第一聚類中心。
若存在複數個對應於相同的應用取向的聚類中心,並且該應用取向與第一配置需求的第一取向相匹配,則運算模組123無法直接地根據取向來決定與第一配置需求相對應的聚類中心。據此,運算模組123可從複數個聚類中心中選出具有最大分數的聚類中心,並且決定第一配置需求與所述聚類中心相對應。舉例來說,假設多個聚類中心中,聚類中心P4和聚類中心P5對應於高運算效能取向。若第一配置需求也對應於高運算效能取向,則運算模組123可響應於聚類中心P4的分數大於聚類中心P5的分數而判斷第一配置需求與聚類中心P4相對應。
在一實施例中,運算模組123可響應於第一配置需求與多個聚類中心中的第一聚類中心最為接近(例如:根據歐氏距離判斷)而判斷第一配置需求對應於第一聚類中心。在一實施例中,運算模組123可根據第一配置需求與多個聚類中心之間的距離決定與第一配置需求相對應的聚類中心。具體來說,第一配置需求可包含分別對應於多個特徵的多個特徵值,並且多個聚類中心的每一者可包含分別對應於多個特徵的多個特徵值。運算模組123可根據第一配置需求的多個特徵值與多個聚類中心的每一者的多個特徵值計算第一配置需求與多個聚類中心的每一者之間的距離,從而產生多個距離。運算模組123可響應於與第一聚類中心相對應的第一距離為所述多個距離中的最小距離而判斷第一配置需求對應於第一聚類中心。
若存在複數個與第一配置需求最接近的聚類中心,則運算模組123無法直接地根據距離來決定與第一配置需求相對應的聚類中心。據此,運算模組123可從複數個聚類中心中選出具有最大分數的聚類中心,並且決定第一配置需求與所述聚類中心相對應。舉例來說,假設多個聚類中心中,聚類中心P4和聚類中心P5最接近第一配置需求。運算模組123可響應於聚類中心P4的分數大於聚類中心P5的分數而判斷第一配置需求與聚類中心P4相對應。
在決定與第一配置需求相對應的第一聚類中心後,運算模組123可根據第一聚類中心的多個特徵值來產生參考配置,其中所述多個特徵值分別對應於多個特徵。舉例來說,運算模組123可基於第一聚類中心的特徵「記憶體容量」的特徵值為「16兆位元組」而將參考配置的特徵「記憶體容量」的特徵值設置為「16兆位元組」。在產生參考配置後,輸出模組124可通過收發器130輸出參考配置以供使用者參考。
在一實施例中,電子裝置100的資料收集模組121可通過收發器130取得多個配置需求,其中多個裝置配置可對應於多個特徵(例如:如表2所示的特徵)。接著,運算模組123可將多個配置需求分別輸入至神經網路模型1000中。神經網路模型1000可產生分別對應於多個配置需求的多個分數。運算模組123可根據多個分數而從多個配置需求中選擇複數個配置需求。舉例來說,運算模組123可響應於第二配置需求的第二分數以及第三配置需求的第三分數大於分數閾值而從多個配置需求中選擇第二配置需求以及第三配置需求。而後,運算模組123可判斷第二配置需求以及第三配置需求所對應的聚類中心。舉例來說,運算模組123可響應於第二配置需求與多個聚類中心中的第二聚類中心最為接近而判斷第二配置需求對應於第二聚類中心,並可響應於第三配置需求與多個聚類中心中的第三聚類中心最為接近而判斷第三配置需求對應於第三聚類中心。據此,運算模組123可根據第二聚類中心的多個特徵值以及第三聚類中心的多個特徵值來產生參考配置,其中所述多個特徵值對應於多個特徵。聚類中心的多個特徵的每一者的特徵值為該聚類中最具代表性的資料,故運算模組123可以聚類中心的多個特徵值來產生參考配置。
圖8根據本發明的一實施例繪示一種產生運算裝置的參考配置的方法的流程圖,其中所述方法可由如圖1所示的電子裝置100實施。在步驟S801中,取得第一神經網路模型,其中第一神經網路模型包含多個聚類中心,其中多個聚類中心對應於多個特徵。在步驟S802中,取得第一配置需求。在步驟S803中,判斷第一配置需求對應於多個聚類中心中的第一聚類中心。在步驟S804中,根據第一聚類中心的多個第一特徵值產生參考配置,其中多個第一特徵值分別對應於多個特徵。在步驟S805中,輸出參考配置。
綜上所述,本發明實施例可根據歷史資料訓練出用以推估裝置配置的分數的神經網路模型。相較於傳統的測試軟體,本發明實施例的神經網路模型可以在很短的時間內計算出裝置配置的分數,並可節省大量的人力或物力。神經網路模型可包含多個聚類中心,並且不同的聚類中心可代表著重在不同功能的裝置配置。本發明實施例可通過歷史資料來判斷各個聚類中心所對應的功能,並且根據使用者的需求而利用聚類中心產生著重於特定功能的運算裝置的參考配置。參考配置除了可作為使用者組裝運算裝置時的參考,還可供使用者分析,藉以幫助使用者了解各個元件對運算裝置的功能的影響,從而改善使用者設計裝置配置的能力。
100:電子裝置
1000、2000、3000、4000、5000:神經網路模型
110:處理器
1100:輸入層
120:儲存媒體
1200:隱藏層
1201:第一隱藏層
1202:第二隱藏層
121:資料收集模組
122:訓練模組
123:運算模組
124:輸出模組
125:資料庫
130:收發器
1300:輸出層
A、B、E1、S、T1:矩陣
D、D2:距離矩陣
E2:分數
I:虛反矩陣
P1、P2、P3、P4、P5、P6、P7、P8、P9:聚類中心
S201、S202、S203、S204、S21、S22、S23、S24、S25、S801、S802、S803、S804、S805:步驟
t1:訓練資料
W:權重矩陣
x1、x2:特徵
圖1根據本發明的一實施例繪示一種產生運算裝置的參考配置的電子裝置的示意圖。
圖2A根據本發明的一實施例繪示產生神經網路模型的流程圖。
圖2B根據本發明的另一實施例繪示產生神經網路模型的流程圖。
圖3根據本發明的一實施例繪示神經網路模型的示意圖。
圖4A、4B以及4C根據本發明的一實施例繪示產生聚類中心的示意圖。
圖5根據本發明的一實施例繪示聚類中心之間的關係的示意圖。
圖6A根據本發明的一實施例繪示產生權重矩陣的示意圖。
圖6B根據本發明的一實施例繪示利用權重矩陣產生對應於測試資料的分數的示意圖。
圖7根據本發明的一實施例繪示神經網路模型的損失函數值的示意圖。
圖8根據本發明的一實施例繪示一種產生運算裝置的參考配置的方法的流程圖。
S801、S802、S803、S804、S805:步驟
Claims (20)
- 一種產生運算裝置的參考配置的電子裝置,包括: 儲存媒體,儲存多個模組以及第一神經網路模型,其中所述第一神經網路模型包括多個聚類中心,其中所述多個聚類中心對應於多個特徵;以及 處理器,耦接所述儲存媒體,並且存取和執行所述多個模組,其中所述多個模組,包括: 資料收集模組,取得第一配置需求; 運算模組,經配置以執行: 判斷所述第一配置需求對應於所述多個聚類中心中的第一聚類中心;以及 根據所述第一聚類中心的多個第一特徵值產生所述參考配置,其中所述多個第一特徵值分別對應於所述多個特徵;以及 輸出模組,輸出所述參考配置。
- 如請求項1所述的電子裝置,其中所述資料收集模組取得多個標籤資料,其中所述多個標籤資料的每一者包括標籤分數以及分別對應於所述多個特徵的多個標籤特徵值,其中所述多個模組更包括: 訓練模組,根據所述多個標籤資料產生所述第一神經網路模型。
- 如請求項2所述的電子裝置,其中所述第一配置需求包括第一取向,其中所述多個標籤資料的所述每一者更包括標籤取向,其中所述運算模組統計對應於所述第一聚類中心的所述多個標籤資料中的至少一標籤資料的至少一標籤取向決定與所述第一聚類中心相對應的第一應用取向,其中所述運算模組響應於所述第一取向與所述第一應用取向匹配而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項3所述的電子裝置,其中所述多個聚類中心更包括第二聚類中心,其中 響應於所述第一聚類中心以及所述第二聚類中心兩者與所述第一應用取向相對應,所述運算模組根據所述多個標籤資料計算對應於所述第一聚類中心的第一分數以及對應於所述第二聚類中心的第二分數,其中 所述運算模組響應於所述第一取向與所述第一應用取向匹配且所述第一分數大於所述第二分數而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項2所述的電子裝置,其中所述多個標籤資料包括第一訓練資料,其中所述多個聚類中心更包括第二聚類中心以及第三聚類中心,其中所述第一神經網路模型包括第一隱藏層,其中所述第一隱藏層根據所述多個標籤資料更新所述多個聚類中心,包括: 定義所述第三聚類中心關聯於所述第二聚類中心; 產生所述第二聚類中心的多個第二特徵值以及所述第三聚類中心的多個第三特徵值;以及 判斷所述第一訓練資料對應於所述第二聚類中心,並且響應於所述第一訓練資料對應於所述第二聚類中心而根據所述第一訓練資料更新所述多個第二特徵值以及所述多個第三特徵值。
- 如請求項1所述的電子裝置,其中所述第一配置需求包括多個分別對應於所述多個特徵的多個特徵值,其中所述運算模組根據所述多個特徵值計算所述第一配置需求與所述多個聚類中心之間的多個距離,並且響應於與所述第一聚類中心相對應的第一距離為所述多個距離中的最小距離而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項6所述的電子裝置,其中所述多個聚類中心更包括第二聚類中心,其中所述多個距離更包括對應於所述第二聚類中心的第二距離,其中 響應於所述第一距離等於所述第二距離,所述運算模組根據分別對應於所述第一聚類中心與所述第二聚類中心的多個標籤資料計算對應於所述第一聚類中心的第一分數以及對應於所述第二聚類中心的第二分數,其中 所述運算模組響應於所述第一分數大於所述第二分數而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項2所述的電子裝置,其中所述多個標籤資料包括分別對應於多個標籤分數的多個訓練資料,其中所述第一神經網路模型包括第二隱藏層,其中所述第二隱藏層經配置以執行: 產生對應於所述多個聚類中心與所述多個訓練資料的距離矩陣; 產生所述距離矩陣的虛反矩陣; 根據所述虛反矩陣與所述多個標籤分數產生權重矩陣; 產生對應於所述多個聚類中心與所述第一配置需求的第二距離矩陣;以及 根據所述第二距離矩陣以及所述權重矩陣產生對應於所述第一配置需求的第一分數,其中 所述輸出模組輸出所述第一分數。
- 如請求項8所述的電子裝置,其中 所述資料收集模組取得多個配置需求,其中所述多個配置需求包括所述第一配置需求以及第二配置需求,其中 所述運算模組將所述多個配置需求輸入至所述第一神經網路以產生分別對應於所述多個配置需求的多個分數,其中 所述運算模組響應於所述第一分數為所述多個分數中的最大分數而選擇所述第一配置需求以產生所述參考配置,其中 所述運算模組響應於所述第一分數為所述最大分數並且對應於所述第二配置需求的第二分數為所述多個分數中的最小分數而根據所述第一配置需求和所述第二配置需求產生差異分析報告,其中 所述輸出模組輸出所述差異分析報告。
- 如請求項2所述的電子裝置,其中所述多個標籤資料包括多個訓練資料以及多個測試資料,其中 所述訓練模組根據所述多個訓練資料產生所述第一神經網路模型以及第二神經網路模型,其中所述第二神經網路模型包括多個第二聚類中心,其中所述多個聚類中心的第一數量不同於所述多個第二聚類中心的第二數量,其中 所述運算模組根據所述多個測試資料計算所述第一神經網路模型的第一損失函數值以及所述第二神經網路模型的第二損失函數值,其中 所述運算模組響應於所述第一損失函數值小於所述第二損失函數值而從所述第一神經網路模型和所述第二神經網路模型中選擇所述第一神經網路模型以產生所述參考配置。
- 一種產生運算裝置的參考配置的方法,包括: 取得第一神經網路模型,其中所述第一神經網路模型包括多個聚類中心,其中所述多個聚類中心對應於多個特徵; 取得第一配置需求; 判斷所述第一配置需求對應於所述多個聚類中心中的第一聚類中心; 根據所述第一聚類中心的多個第一特徵值產生所述參考配置,其中所述多個第一特徵值分別對應於所述多個特徵;以及 輸出所述參考配置。
- 如請求項11所述的方法,更包括: 取得多個標籤資料,其中所述多個標籤資料的每一者包括標籤分數以及分別對應於所述多個特徵的多個標籤特徵值;以及 根據所述多個標籤資料產生所述第一神經網路模型。
- 如請求項12所述的方法,其中所述第一配置需求包括第一取向,其中所述多個標籤資料的所述每一者更包括標籤取向,其中判斷所述第一配置需求對應於所述多個聚類中心中的所述第一聚類中心的步驟包括: 統計對應於所述第一聚類中心的所述多個標籤資料中的至少一標籤資料的至少一標籤取向決定與所述第一聚類中心相對應的第一應用取向;以及 響應於所述第一取向與所述第一應用取向匹配而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項13所述的方法,其中所述多個聚類中心更包括第二聚類中心,其中判斷所述第一配置需求對應於所述多個聚類中心中的所述第一聚類中心的步驟包括: 響應於所述第一聚類中心以及所述第二聚類中心兩者與所述第一應用取向相對應,根據所述多個標籤資料計算對應於所述第一聚類中心的第一分數以及對應於所述第二聚類中心的第二分數;以及 響應於所述第一取向與所述第一應用取向匹配且所述第一分數大於所述第二分數而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項12所述的方法,其中所述多個標籤資料包括第一訓練資料,其中所述多個聚類中心更包括第二聚類中心以及第三聚類中心,其中所述第一神經網路模型包括第一隱藏層,其中所述第一隱藏層根據所述多個標籤資料更新所述多個聚類中心,包括: 定義所述第三聚類中心關聯於所述第二聚類中心; 產生所述第二聚類中心的多個第二特徵值以及所述第三聚類中心的多個第三特徵值;以及 判斷所述第一訓練資料對應於所述第二聚類中心,並且響應於所述第一訓練資料對應於所述第二聚類中心而根據所述第一訓練資料更新所述多個第二特徵值以及所述多個第三特徵值。
- 如請求項11所述的方法,其中所述第一配置需求包括多個分別對應於所述多個特徵的多個特徵值,其中判斷所述第一配置需求對應於所述多個聚類中心中的所述第一聚類中心的步驟包括: 根據所述多個特徵值計算所述第一配置需求與所述多個聚類中心之間的多個距離;以及 響應於與所述第一聚類中心相對應的第一距離為所述多個距離中的最小距離而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項16所述的方法,其中所述多個聚類中心更包括第二聚類中心,其中所述多個距離更包括對應於所述第二聚類中心的第二距離,其中判斷所述第一配置需求對應於所述多個聚類中心中的所述第一聚類中心的步驟更包括: 響應於所述第一距離等於所述第二距離,根據分別對應於所述第一聚類中心與所述第二聚類中心的多個標籤資料計算對應於所述第一聚類中心的第一分數以及對應於所述第二聚類中心的第二分數;以及 響應於所述第一分數大於所述第二分數而判斷所述第一配置需求對應於所述第一聚類中心。
- 如請求項12所述的方法,其中所述多個標籤資料包括分別對應於多個標籤分數的多個訓練資料,其中所述第一神經網路模型包括第二隱藏層,其中所述第二隱藏層經配置以執行: 產生對應於所述多個聚類中心與所述多個訓練資料的距離矩陣; 產生所述距離矩陣的虛反矩陣; 根據所述虛反矩陣與所述多個標籤分數產生權重矩陣; 產生對應於所述多個聚類中心與所述第一配置需求的第二距離矩陣;以及 根據所述第二距離矩陣以及所述權重矩陣產生對應於所述第一配置需求的第一分數,其中所述方法更包括: 輸出所述第一分數。
- 如請求項18所述的方法,其中根據所述第一聚類中心的所述多個第一特徵值產生所述參考配置的步驟包括: 取得多個配置需求,其中所述多個配置需求包括所述第一配置需求以及第二配置需求; 將所述多個配置需求輸入至所述第一神經網路以產生分別對應於所述多個配置需求的多個分數; 響應於所述第一分數為所述多個分數中的最大分數而選擇所述第一配置需求以產生所述參考配置;以及 響應於所述第一分數為所述最大分數並且對應於所述第二配置需求的第二分數為所述多個分數中的最小分數而根據所述第一配置需求和所述第二配置需求產生差異分析報告,並且輸出所述差異分析報告。
- 如請求項12所述的方法,其中所述多個標籤資料包括多個訓練資料以及多個測試資料,其中根據所述第一聚類中心的所述多個第一特徵值產生所述參考配置的步驟包括: 根據所述多個訓練資料產生所述第一神經網路模型以及第二神經網路模型,其中所述第二神經網路模型包括多個第二聚類中心,其中所述多個聚類中心的第一數量不同於所述多個第二聚類中心的第二數量; 根據所述多個測試資料計算所述第一神經網路模型的第一損失函數值以及所述第二神經網路模型的第二損失函數值;以及 響應於所述第一損失函數值小於所述第二損失函數值而從所述第一神經網路模型和所述第二神經網路模型中選擇所述第一神經網路模型以產生所述參考配置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110102442A TWI767530B (zh) | 2021-01-22 | 2021-01-22 | 產生運算裝置的參考配置的電子裝置和方法 |
US17/198,260 US20220237449A1 (en) | 2021-01-22 | 2021-03-11 | Electronic device and method for generating reference configuration of computing device |
CN202110285093.7A CN114780307A (zh) | 2021-01-22 | 2021-03-17 | 产生运算装置的参考配置的电子装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110102442A TWI767530B (zh) | 2021-01-22 | 2021-01-22 | 產生運算裝置的參考配置的電子裝置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI767530B TWI767530B (zh) | 2022-06-11 |
TW202230182A true TW202230182A (zh) | 2022-08-01 |
Family
ID=82407709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110102442A TWI767530B (zh) | 2021-01-22 | 2021-01-22 | 產生運算裝置的參考配置的電子裝置和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220237449A1 (zh) |
CN (1) | CN114780307A (zh) |
TW (1) | TWI767530B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105511953B (zh) * | 2014-09-22 | 2019-04-05 | 中国银联股份有限公司 | 云环境下的虚拟机负载评估系统、方法以及服务节点 |
US10496396B2 (en) * | 2017-09-29 | 2019-12-03 | Oracle International Corporation | Scalable artificial intelligence driven configuration management |
CN110806954B (zh) * | 2019-09-19 | 2023-06-16 | 平安科技(深圳)有限公司 | 评估云主机资源的方法、装置、设备及存储介质 |
US11507602B2 (en) * | 2019-10-31 | 2022-11-22 | Dell Products L.P. | Method and system for prioritizing system under test configurations |
CN111160393B (zh) * | 2019-12-04 | 2023-06-09 | 北京宇航系统工程研究所 | 基于数据驱动的运载火箭健康评估模型模块化建模方法 |
EP3876160A1 (en) * | 2020-03-06 | 2021-09-08 | Centre National de la Recherche Scientifique | Method and system for multimodal classification based on brain-inspired unsupervised learning |
-
2021
- 2021-01-22 TW TW110102442A patent/TWI767530B/zh active
- 2021-03-11 US US17/198,260 patent/US20220237449A1/en active Pending
- 2021-03-17 CN CN202110285093.7A patent/CN114780307A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN114780307A (zh) | 2022-07-22 |
US20220237449A1 (en) | 2022-07-28 |
TWI767530B (zh) | 2022-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10031945B2 (en) | Automated outlier detection | |
US20200218985A1 (en) | System and method for synthetic-model-based benchmarking of ai hardware | |
US20200042419A1 (en) | System and method for benchmarking ai hardware using synthetic ai model | |
US11869021B2 (en) | Segment valuation in a digital medium environment | |
JP6311851B2 (ja) | 共クラスタリングシステム、方法およびプログラム | |
WO2017159403A1 (ja) | 予測システム、方法およびプログラム | |
US11847446B2 (en) | Predictive build quality assessment | |
CN115510795A (zh) | 一种数据处理方法以及相关装置 | |
WO2020065908A1 (ja) | パターン認識装置、パターン認識方法およびパターン認識プログラム | |
JP2019036112A (ja) | 異常音検知装置、異常検知装置、プログラム | |
US20220138557A1 (en) | Deep Hybrid Graph-Based Forecasting Systems | |
TWI767530B (zh) | 產生運算裝置的參考配置的電子裝置和方法 | |
CN116737373A (zh) | 负载均衡方法、装置、计算机设备、存储介质 | |
Drahosova et al. | Adaptive fitness predictors in coevolutionary Cartesian genetic programming | |
US11036980B2 (en) | Information processing method and information processing system | |
JP7107797B2 (ja) | 情報処理方法及び情報処理システム | |
Kumar et al. | Improving Prediction Accuracy for Debonding Quantification in Stiffened Plate by Meta-Learning Model | |
TWI813487B (zh) | 座標生成系統以及座標生成方法 | |
US20240320117A1 (en) | Feature Engineering Logic Generation and Simulation | |
JP7234173B2 (ja) | モデル学習装置、モデル学習方法及びコンピュータプログラム | |
TWI755176B (zh) | 細胞密度分類方法及裝置、電子裝置及存儲介質 | |
US20240152765A1 (en) | Training time and resource consumption prediction in deep learning | |
CN116702018B (zh) | 基于ga-pdpl算法的跨被试脑电情感识别方法及装置 | |
AU2021312671B2 (en) | Value over replacement feature (VORF) based determination of feature importance in machine learning | |
TWI850463B (zh) | 用於逐點迴旋的方法、處理系統及電腦可讀取媒體 |