TW202248913A - 機器學習模型檔案解密方法及用戶裝置 - Google Patents
機器學習模型檔案解密方法及用戶裝置 Download PDFInfo
- Publication number
- TW202248913A TW202248913A TW110120084A TW110120084A TW202248913A TW 202248913 A TW202248913 A TW 202248913A TW 110120084 A TW110120084 A TW 110120084A TW 110120084 A TW110120084 A TW 110120084A TW 202248913 A TW202248913 A TW 202248913A
- Authority
- TW
- Taiwan
- Prior art keywords
- machine learning
- learning model
- password
- random vector
- converting
- Prior art date
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本發明提供一種機器學習模型檔案解密方法及用戶裝置。所述方法包括:取得經加密的機器學習模型檔案,其包括多個密文段;反應於判定經加密的機器學習模型檔案經用戶執行,要求用戶輸入密碼;基於密碼重新排列所述多個密文段,並基於密碼對經重新排列的所述多個密文段進行全文解密操作,以得到解密後的機器學習模型檔案,其中解密後的機器學習模型檔案記錄有關聯於特定機器學習模型的多個模型參數;基於所述多個模型參數建構特定機器學習模型,並將待辨識資料輸入特定機器學習模型,其中特定機器學習模型因應於待辨識資料而輸出待辨識資料的一辨識結果。
Description
本發明是有關於一種檔案解密技術,且特別是有關於一種機器學習模型檔案解密方法及用戶裝置。
一般而言,在完成機器學習模型的訓練之後,需將訓練後所得的各式模型參數儲存為對應的機器學習模型檔案以供使用。隨著所使用的機器學習模型的不同,對應的機器學習模型檔案亦將有所不同。舉例而言,若機器學習模型為TensorFlow,則其對應的機器學習模型檔案例如是協定緩衝(protocol buffer)檔、檢查點(checkpoint)檔;若機器學習模型為TensorFlow 2.0,則其對應的機器學習模型檔案例如是儲存模型(save model)檔等,但可不限於此。
對於欲盜用機器學習模型檔案的人而言,在取得機器學習模型檔案之後,只需使用對應的工具即可即時地破譯模型,因此勢必需對機器學習模型檔案進行一定程度的保護。
在一些情境中,雖可採用直接基於習知的加密演算法(例如進階加密標準(Advanced Encryption Standard,AES)或資料加密標準(Data Encryption Standard,DES))對機器學習模型檔案進行加密,但由於機器學習模型檔案的尺寸較為龐大,因而將導致較大的加/解密計算量。
因此,對於本領域技術人員而言,如何設計一種具更佳效率的機器學習模型檔案解密機制實為一項重要議題。
有鑑於此,本發明提供一種機器學習模型檔案解密方法及用戶裝置,其可用於解決上述技術問題。
本發明提供一種機器學習模型檔案解密方法,適於一用戶裝置,其中用戶裝置儲存有經加密的一機器學習模型檔案,包括:取得經加密的機器學習模型檔案,其中經加密的機器學習模型檔案依序包括N1個密文段,N1為正整數;反應於判定機器學習模型檔案經一用戶執行,要求用戶輸入一密碼;基於密碼重新排列所述多個密文段,並基於密碼對經重新排列的所述多個密文段進行一全文解密操作,以得到解密後的機器學習模型檔案,其中解密後的機器學習模型檔案記錄有關聯於特定機器學習模型的多個模型參數;基於所述多個模型參數建構特定機器學習模型,並將待辨識資料輸入特定機器學習模型,其中特定機器學習模型因應於待辨識資料而輸出待辨識資料的一辨識結果。
本發明提供一種用戶裝置,其包括儲存電路及處理器。儲存電路儲存一程式碼及經加密的一機器學習模型檔案。處理器耦接儲存電路,並存取程式碼以執行:取得經加密的機器學習模型檔案,其中經加密的機器學習模型檔案依序包括N1個密文段,N1為正整數;反應於判定機器學習模型檔案經一用戶執行,要求用戶輸入一密碼;基於密碼重新排列所述多個密文段,並基於密碼對經重新排列的所述多個密文段進行一全文解密操作,以得到解密後的機器學習模型檔案,其中解密後的機器學習模型檔案記錄有關聯於特定機器學習模型的多個模型參數;基於所述多個模型參數建構特定機器學習模型,並將待辨識資料輸入特定機器學習模型,其中特定機器學習模型因應於待辨識資料而輸出待辨識資料的一辨識結果。
請參照圖1,其是依據本發明之一實施例繪示的用戶裝置示意圖。在不同的實施例中,用戶裝置100可以是用於讓用戶運行機器學習模型檔案的各式智慧型裝置及/或電腦裝置,但可不限於此。
儲存電路102例如是任意型式的固定式或可移動式隨機存取記憶體(Random Access Memory,RAM)、唯讀記憶體(Read-Only Memory,ROM)、快閃記憶體(Flash memory)、硬碟或其他類似裝置或這些裝置的組合,而可用以記錄多個程式碼、模組及上述機器學習模型檔案。
處理器104耦接於儲存電路102,並可為一般用途處理器、特殊用途處理器、傳統的處理器、數位訊號處理器、多個微處理器(microprocessor)、一個或多個結合數位訊號處理器核心的微處理器、控制器、微控制器、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)、現場可程式閘陣列電路(Field Programmable Gate Array,FPGA)、任何其他種類的積體電路、狀態機、基於進階精簡指令集機器(Advanced RISC Machine,ARM)的處理器以及類似品。
在本發明的實施例中,處理器104可存取儲存電路102中記錄的模組、程式碼來實現本發明提出的機器學習模型檔案解密方法,其細節詳述如下。
請參照圖2,其是依據本發明之一實施例繪示的機器學習模型檔案解密方法流程圖。本實施例的方法可由圖1的用戶裝置100執行,以下即搭配圖1所示的元件說明圖2各步驟的細節。
在本發明的實施例中,假設某模型訓練裝置(例如是一伺服器)在完成對於一特定機器學習模型的訓練之後,可將此特定機器學習模型相關的模型參數儲存為一機器學習模型檔案(下稱機器學習模型檔案A1),並基於管理者所設定的密碼(下稱PW0)將機器學習模型檔案A1進行加密。
在本發明的實施例中,所述模型訓練裝置對機器學習模型檔案A1進行的加密操作大致可包括:將機器學習模型檔案A1轉換為對應的字元字串;基於一第一預設機制將密碼PW0轉換為第一隨機向量RV1;基於一第二預設機制將密碼PW0轉換為第二隨機向量RV2,並基於第二隨機向量RV2將所述字元字串加密為多個特定密文段;基於第一隨機向量RV1將所述多個特定密文段重新排列,以產生加密的機器學習模型檔案A1,但可不限於此。之後,經加密的機器學習模型檔案A1可部署至用戶裝置100,以供用戶裝置100的用戶作後續使用。
因此,在步驟S210中,處理器104可取得經加密的機器學習模型檔案A1。在本發明的實施例中,經加密的機器學習模型檔案A1例如可依序包括N1個密文段(即,經重新排列後的所述多個特定密文段),其中N1為正整數。
在一實施例中,當用戶裝置100的用戶欲使用所述特定機器學習模型對一待辨識資料(例如是各式影像)進行辨識時,用戶可相應地在用戶裝置100上執行經加密的機器學習模型檔案A1。
相應地,在步驟S220中,反應於判定經加密的機器學習模型檔案A1經用戶執行,處理器104可要求用戶輸入密碼。為便於說明,以下假設用戶輸入的密碼即為管理者先前在加密機器學習模型檔案A1時所設定的密碼PW0,但可不限於此。
接著,在步驟S230中,處理器104可基於密碼PW0重新排列所述多個密文段,並基於密碼PW0對經重新排列的所述多個密文段進行全文解密操作,以得到解密後的機器學習模型檔案A1。
在一實施例中,在基於密碼PW0重新排列所述多個密文段的過程中,處理器104例如可基於所述第一預設機制將密碼PW0轉換為第一隨機向量RV1,其中第一隨機向量RV1例如可包括N1個第一元素,且所述N1個第一元素彼此不重複。之後,處理器104可依據第一隨機向量RV1重新排列所述N1個密文段。
在一實施例中,在執行所述第一預設機制時,處理器104例如可將密碼PW0轉換為二元字串BI,並將二元字串BI轉換為第一雜湊字串HS1。在一實施例中,處理器104例如可基於任何已知的機制/原則/標準將密碼PW0轉換為對應的二元字串BI。例如,處理器104可將密碼PW0以對應的美國資訊交換標準代碼(ASCII碼)表示,以形成二元字串BI,但可不限於此。另外,處理器104例如可基於SHA-256或其他類似的雜湊演算法將二元字串BI轉換為第一雜湊字串HS1,但可不限於此。
之後,處理器104可將第一雜湊字串HS1轉換為第一數值V1(其例如為一整數)。在不同的實施例中,處理器104可採用設計者所需的任意方式將第一雜湊字串HS1轉換為第一數值V1。接著,處理器104可將第一數值V1作為一第一種子輸入至一隨機函數,其中隨機函數可因應於第一種子而產生第一隨機向量RV1(其包括彼此不重複的所述N1個第一元素)。在一實施例中,所述N1個第一元素可由1至N1等正整數組成,但可不限於此。
在一實施例中,所述N1個密文段中的第i個密文段可表徵為
,而所述N1個第一元素中的第i個第一元素可表徵為
。在此情況下,當處理器104依據第一隨機向量RV1重新排列所述N1個密文段時,可先創建一特定資料陣列,其中此特定資料陣列可包括N1個資料段。在一實施例中,所述N1個資料段個別可為空,但可不限於此。之後,對於各個i值,處理器104可將
複製至所述特定資料陣列的第
個資料段,其中
。
舉例而言,假設N1為5,且所述N1個密文段例如為[
]=[1 2 3 4 5]。在此情況下,當所述N1個第一元素為[
]=[1 3 2 4 5]時,處理器104例如可分別將
複製至所述特定資料陣列的第1、3、2、4、5個資料段。在此情況下,所產生的特定資料陣列例如可為[
]= [1 3 2 4 5],但可不限於此。之後,處理器104可以所述特定資料陣列中的資料段作為經重新排列的密文段(即,[
])。
基於以上教示,本領域具通常知識者應可相應理解所述模型訓練裝置基於第一隨機向量RV1將所述多個特定密文段重新排列,以產生加密的機器學習模型檔案A1的方式。在其他實施例中,設計者可依需求而調整將所述N1個密文段重新排列的方式,並不限於上述態樣。
在上述情境中,由於用戶輸入的密碼經假設為正確的密碼PW0,故以上述方式所產生的經重新排列的密文段應會相同於所述模型訓練裝置先前基於第二隨機向量RV2將所述字元字串加密而得的所述多個特定密文段。
在一實施例中,在基於密碼PW0對經重新排列的所述多個密文段(例如[
])進行全文解密操作的過程中,處理器104例如可基於所述第二預設機制將密碼PW0轉換為第二隨機向量RV2,其中第二隨機向量RV2可依序包括N2個第二元素,N2為正整數(N2可等於或不等於N1)。之後,處理器104可基於第二隨機向量RV2對經重新排列的所述多個密文段進行全文解密操作。
在一實施例中,在執行所述第二預設機制時,處理器104例如可將密碼PW0轉換為上述二元字串BI,並將該二元字串轉換為上述第一雜湊字串HS1,而相關細節可參照先前的說明,於此不另贅述。
之後,處理器104可將第一雜湊字串HS1轉換為不同於第一數值V1的第二數值V2。在不同的實施例中,處理器104可採用設計者所需的任意方式將第一雜湊字串HS1轉換為第二數值V2,惟此方式需不同於將第一雜湊字串HS1轉換為第一數值V1的方式。接著,處理器104可將第二數值V2作為第二種子輸入至上述隨機函數,其中此隨機函數可因應於第二種子而產生第二隨機向量RV2(其包括N2個第二元素)。
在一實施例中,在基於第二隨機向量RV2對經重新排列的所述多個密文段(例如[
])進行全文解密操作的過程中,處理器104可將第二隨機向量RV2與經重新排列的所述密文段的至少其中之一進行一指定運算方式,以得到解密後的機器學習模型檔案A1。
在不同的實施例中,假設所述模型訓練裝置是採用某特定運算方式以基於第二隨機向量RV2將上述字元字串加密為所述多個特定密文段,則所述指定運算方式例如可為與所述特定運算方式的方式相反的運算方式。舉例而言,若所述模型訓練裝置是將對應於機器學習模型檔案A1的上述字元字串(的全部或一部分)加上第二隨機向量RV2以產生所述多個特定密文段,則處理器104例如可將經重新排列的所述多個密文段(的全部或一部分)減去第二隨機向量RV2,以還原對應於機器學習模型檔案A1的字元字串,從而得到解密後的機器學習模型檔案A1。
另一方面,若所述模型訓練裝置是將對應於機器學習模型檔案A1的上述字元字串(的全部或一部分)減去第二隨機向量RV2以產生所述多個特定密文段,則處理器104例如可將經重新排列的所述多個密文段(的全部或一部分)加上第二隨機向量RV2,以還原對應於機器學習模型檔案A1的字元字串,從而得到解密後的機器學習模型檔案A1。
在其他實施例中,設計者可依需求而選擇所述特定運算方式及對應的所述指定運算方式,但可不限於此。
在一實施例中,在取得解密後的機器學習模型檔案A1之後,處理器104即可相應得知所述特定機器學習模型相關的模型參數。
因此,在步驟S240中,處理器104可基於所述多個模型參數建構特定機器學習模型,並將待辨識資料輸入特定機器學習模型。相應地,此特定機器學習模型可因應於此待辨識資料而輸出此待辨識資料的辨識結果。舉例而言,假設所述待辨識資料為一待辨識醫療影像,則此特定機器學習模型例如可相應地輸出對應於此待辨識醫療影像的影像辨識結果,但可不限於此。
由於本發明的方法相較於習知的加解密方法較為輕量化,故可有效地減少對機器學習模型檔案A1進行加解密所需的時間。經實驗,相較於習知的Fernet算法(即,AES 128+密碼分組鏈結模式(Cipher Block Chaining,CBC)模式+SHA256+雜湊訊息鑑別碼(Hash-based message authentication code,HMAC)),本發明的解密速度約高了19.7%。
在其他實施例中,假設用戶於步驟S220中輸入的密碼不為密碼PW0,則處理器104在據以執行步驟S230後應無法得到正確的機器學習模型檔案A1。在此情況下,處理器104即無法建構所述特定機器學習模型,進而導致用戶無法使用所述特定機器學習模型進行上述辨識操作。
此外,在一實施例中,在用戶關閉所述特定機器學習模型之後,用戶可再次執行經加密的機器學習模型檔案A1,而處理器104可再次要求用戶輸入密碼,並依據用戶輸入的密碼執行先前教示的相關解密操作,但可不限於此。
綜上所述,本發明的機器學習模型檔案解密方法及用戶裝置可在取得經加密的機器學習模型檔案中的多個密文段後,基於密碼重新排列上述密文段,並基於密碼對經重新排列的上述密文段進行全文解密操作,以得到解密後的機器學習模型檔案。藉此,本發明可有效地提升對機器學習模型檔案進行解密的效率。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100:用戶裝置
102:儲存電路
104:處理器
S210~S240:步驟
圖1是依據本發明之一實施例繪示的用戶裝置示意圖。
圖2是依據本發明之一實施例繪示的機器學習模型檔案解密方法流程圖。
S210~S240:步驟
Claims (14)
- 一種機器學習模型檔案解密方法,適於一用戶裝置,其中該用戶裝置儲存有經加密的一機器學習模型檔案,包括: 取得經加密的該機器學習模型檔案,其中經加密的該機器學習模型檔案依序包括N1個密文段,N1為正整數; 反應於判定經加密的該機器學習模型檔案經一用戶執行,要求該用戶輸入一密碼; 基於該密碼重新排列該些密文段,並基於該密碼對經重新排列的該些密文段進行一全文解密操作,以得到解密後的該機器學習模型檔案,其中解密後的該機器學習模型檔案記錄有關聯於一特定機器學習模型的多個模型參數; 基於該些模型參數建構該特定機器學習模型,並將一待辨識資料輸入該特定機器學習模型,其中該特定機器學習模型因應於該待辨識資料而輸出該待辨識資料的一辨識結果。
- 如請求項1所述的方法,其中基於該密碼重新排列該些密文段的步驟包括: 基於一第一預設機制將該密碼轉換為一第一隨機向量,其中該第一隨機向量依序包括N1個第一元素,且該些第一元素彼此不重複; 依據該第一隨機向量重新排列該些密文段。
- 如請求項2所述的方法,其中基於該第一預設機制將該密碼轉換為該第一隨機向量的步驟包括: 將該密碼轉換為二元字串,並將該二元字串轉換為一第一雜湊字串; 將該第一雜湊字串轉換為一第一數值,並將該第一數值作為一第一種子輸入至一隨機函數,其中該隨機函數因應於該第一種子而產生該第一隨機向量。
- 如請求項4所述的方法,其中基於該密碼對經重新排列的該些密文段進行該全文解密操作的步驟包括: 基於一第二預設機制將該密碼轉換為一第二隨機向量,其中該第二隨機向量依序包括N2個第二元素,N2為正整數; 基於該第二隨機向量對經重新排列的該些密文段進行該全文解密操作。
- 如請求項5所述的方法,其中基於該第二預設機制將該密碼轉換為該第二隨機向量的步驟包括: 將該密碼轉換為該二元字串,並將該二元字串轉換為該第一雜湊字串; 將該第一雜湊字串轉換為不同於該第一數值的一第二數值,並將該第二數值作為一第二種子輸入至該隨機函數,其中該隨機函數因應於該第二種子而產生該第二隨機向量。
- 如請求項5所述的方法,其中基於該第二隨機向量對經重新排列的該些密文段進行該全文解密操作的步驟包括: 將該第二隨機向量與經重新排列的該些密文段的至少其中之一進行一指定運算方式,以得到解密後的該機器學習模型檔案。
- 一種用戶裝置,包括: 一儲存電路,儲存一程式碼及經加密的一機器學習模型檔案; 一處理器,耦接該儲存電路,並存取該程式碼以執行: 取得經加密的該機器學習模型檔案,其中經加密的該機器學習模型檔案依序包括N1個密文段,N1為正整數; 反應於判定經加密的該機器學習模型檔案經一用戶執行,要求該用戶輸入一密碼; 基於該密碼重新排列該些密文段,並基於該密碼對經重新排列的該些密文段進行一全文解密操作,以得到解密後的該機器學習模型檔案,其中解密後的該機器學習模型檔案記錄有關聯於一特定機器學習模型的多個模型參數; 基於該些模型參數建構該特定機器學習模型,並將一待辨識資料輸入該特定機器學習模型,其中該特定機器學習模型因應於該待辨識資料而輸出該待辨識資料的一辨識結果。
- 如請求項8所述的用戶裝置,其中該處理器經配置以: 基於一第一預設機制將該密碼轉換為一第一隨機向量,其中該第一隨機向量依序包括N1個第一元素,且該些第一元素彼此不重複; 依據該第一隨機向量重新排列該些密文段。
- 如請求項9所述的用戶裝置,其中該處理器經配置以: 將該密碼轉換為二元字串,並將該二元字串轉換為一第一雜湊字串; 將該第一雜湊字串轉換為一第一數值,並將該第一數值作為一第一種子輸入至一隨機函數,其中該隨機函數因應於該第一種子而產生該第一隨機向量。
- 如請求項11所述的用戶裝置,其中該處理器經配置以: 基於一第二預設機制將該密碼轉換為一第二隨機向量,其中該第二隨機向量依序包括N2個第二元素,N2為正整數; 基於該第二隨機向量對經重新排列的該些密文段進行該全文解密操作。
- 如請求項12所述的用戶裝置,其中該處理器經配置以: 將該密碼轉換為該二元字串,並將該二元字串轉換為該第一雜湊字串; 將該第一雜湊字串轉換為不同於該第一數值的一第二數值,並將該第二數值作為一第二種子輸入至該隨機函數,其中該隨機函數因應於該第二種子而產生該第二隨機向量。
- 如請求項12所述的用戶裝置,其中該處理器經配置以: 將該第二隨機向量與經重新排列的該些密文段的至少其中之一進行一指定運算方式,以得到解密後的該機器學習模型檔案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110120084A TWI775467B (zh) | 2021-06-02 | 2021-06-02 | 機器學習模型檔案解密方法及用戶裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110120084A TWI775467B (zh) | 2021-06-02 | 2021-06-02 | 機器學習模型檔案解密方法及用戶裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI775467B TWI775467B (zh) | 2022-08-21 |
TW202248913A true TW202248913A (zh) | 2022-12-16 |
Family
ID=83807163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110120084A TWI775467B (zh) | 2021-06-02 | 2021-06-02 | 機器學習模型檔案解密方法及用戶裝置 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI775467B (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014137393A1 (en) * | 2013-03-04 | 2014-09-12 | Thomson Licensing | Privacy-preserving ridge regression using masks |
US11087223B2 (en) * | 2018-07-11 | 2021-08-10 | International Business Machines Corporation | Learning and inferring insights from encrypted data |
US11343068B2 (en) * | 2019-02-06 | 2022-05-24 | International Business Machines Corporation | Secure multi-party learning and inferring insights based on encrypted data |
CN110032878B (zh) * | 2019-03-04 | 2021-11-02 | 创新先进技术有限公司 | 一种安全的特征工程方法和装置 |
CN111047051B (zh) * | 2019-12-20 | 2023-03-31 | 支付宝(杭州)信息技术有限公司 | 机器学习模型的训练样本的筛选方法及其系统 |
CN111310208A (zh) * | 2020-02-14 | 2020-06-19 | 云从科技集团股份有限公司 | 数据处理方法、系统、平台、设备及机器可读介质 |
CN112347500B (zh) * | 2021-01-11 | 2021-04-09 | 腾讯科技(深圳)有限公司 | 分布式系统的机器学习方法、装置、系统、设备及存储介质 |
-
2021
- 2021-06-02 TW TW110120084A patent/TWI775467B/zh active
Also Published As
Publication number | Publication date |
---|---|
TWI775467B (zh) | 2022-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9537653B2 (en) | Encryption key generating apparatus and computer program product | |
CN102334307B (zh) | 密码系统的密钥恢复机制 | |
JP3320928B2 (ja) | 暗号化システム | |
WO2024077948A1 (zh) | 匿踪查询方法、装置和系统及存储介质 | |
CN106878013B (zh) | 一种文件的加密、解密方法和装置 | |
CN110061840A (zh) | 数据加密方法、装置、计算机设备及存储介质 | |
US9825761B2 (en) | Systems and methods improving cryptosystems with biometrics | |
US20060023875A1 (en) | Enhanced stream cipher combining function | |
US11895221B2 (en) | Ultra-low latency advanced encryption standard | |
US10476663B1 (en) | Layered encryption of short-lived data | |
US20200177380A1 (en) | Seed key expansion method and its uses | |
JP5843261B2 (ja) | 文字列がオートマトンに受理されるか否かを認証するシステム | |
US8356186B1 (en) | Decryption system and method for reducing processing latency of stored, encrypted instructions | |
US8938072B2 (en) | Cryptographic key derivation device and method therefor | |
CN114221762A (zh) | 一种私钥存储方法、读取方法、管理装置、设备及介质 | |
KR102096359B1 (ko) | 거듭 행렬 기반의 비밀키 암호화가 가능한 데이터 전송 장치 및 그 동작 방법 | |
Forgáč et al. | Contribution to symmetric cryptography by convolutional neural networks | |
WO2019178981A1 (zh) | 自定义规则密码管理方法、装置、终端设备及存储介质 | |
JP7017800B2 (ja) | 演算装置、演算システム、及び演算方法 | |
CN114444140A (zh) | 存储器中的不可复制函数应用 | |
CN117201120A (zh) | 一种信息加密方法、装置、计算机设备及存储介质 | |
TWI775467B (zh) | 機器學習模型檔案解密方法及用戶裝置 | |
WO2017168798A1 (ja) | 暗号化検索インデックスマージサーバ、暗号化検索インデックスマージシステム、及び暗号化検索インデックスマージ方法 | |
CN116070230A (zh) | 加密处理器、包括加密处理器的电子装置和计算方法 | |
JP2007183514A (ja) | 情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GD4A | Issue of patent certificate for granted invention patent |