TW202147180A - 資料增強策略的更新方法、設備及儲存介質 - Google Patents
資料增強策略的更新方法、設備及儲存介質 Download PDFInfo
- Publication number
- TW202147180A TW202147180A TW110112619A TW110112619A TW202147180A TW 202147180 A TW202147180 A TW 202147180A TW 110112619 A TW110112619 A TW 110112619A TW 110112619 A TW110112619 A TW 110112619A TW 202147180 A TW202147180 A TW 202147180A
- Authority
- TW
- Taiwan
- Prior art keywords
- data
- strategy
- training
- stage
- data enhancement
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
- Devices For Checking Fares Or Tickets At Control Points (AREA)
Abstract
本發明的實施例提供一種資料增強策略的更新方法、設備以及儲存介質。該方法包括:獲取初始的資料增強策略,根據資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練,根據經過第二階段訓練的資料處理模型,對資料增強策略進行更新,以得到更新的資料增強策略。
Description
本發明的實施例關於機器學習領域,關於一種資料增強策略的更新方法、設備及儲存介質。
深度學習技術的應用效果依賴於大量的訓練資料,在數量有限的訓練資料上訓練得到的資料處理模型,通常會出現過度擬合現象。為了提高資料處理模型的訓練效果、並降低模型訓練所需的人力,自動資料增強技術逐漸被用來提高訓練資料的資料量和多樣性。
自動資料增強技術是指通過自動機器學習技術自動化資料增強過程,因此,找到一個合適的資料增強策略非常關鍵。通常地,可基於資料處理模型的訓練效果,通過強化學習演算法對資料增強策略進行優化。
由於訓練資料的量級通常比較大、且資料處理模型訓練的也比較耗時,資料增強策略的生成效率還有待提高。
本發明的實施例提供一種資料增強策略的更新方法、設備及儲存介質。
第一方面,本發明的實施例提供一種資料增強策略的更新方法,包括:
獲取初始的資料增強策略;
根據所述資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練;
根據經過第二階段訓練的資料處理模型,對所述資料增強策略進行更新,以得到更新後的所述資料增強策略。
在一種可能的實現方式中,所述方法還包括:
獲取第M次更新的所述資料增強策略,所述M大於或等於1;
根據第M次更新的所述資料增強策略和所述訓練資料,對所述經過第一階段訓練的資料處理模型進行第二階段訓練;
根據經過第二階段訓練的資料增強模型,對所述資料增強策略進行第M+1次更新。
在一種可能的實現方式中,所述初始的資料增強策略的數量為多個,各所述資料增強策略的更新並行進行;所述方法還包括:
每預設的更新次數,根據所述經過第二階段訓練的資料處理模型,在更新後的各所述資料增強策略中,選取最優策略;
在更新後的所述資料增強策略中,將除所述最優策略之外的各所述資料增強策略分別替換為所述最優的資料增強策略。
在一種可能的實現方式中,所述資料增強策略包括多個預設的資料增強操作;所述根據所述資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練,包括:
按照各所述資料增強操作,依次對所述訓練資料進行資料增強;
通過資料增強後的所述訓練資料,對所述經過第一階段訓練的資料處理模型進行第二階段訓練。
在一種可能的實現方式中,所述根據經過第二階段訓練的資料處理模型,對所述資料增強策略進行更新,包括:
根據所述經過第二階段訓練的資料處理模型,更新預設的策略模型;
通過更新後的所述策略模型,確定各個預設策略的選中概率;
按照各所述預設策略的選中概率,在各所述預設策略中選取更新後的所述資料增強策略。
在一種可能的實現方式中,在所述資料增強策略的更新次數為多次的情況下,所述根據經過第二階段訓練的資料處理模型,更新預設的策略模型,包括:
根據預設的驗證資料,對所述經過第二階段訓練的資料處理模型進行檢驗,得到檢驗結果;
獲取所述資料增強策略的前N-1次更新中所述經過第二階段的資料處理模型的歷史檢驗結果,所述N為所述資料增強策略當前更新的總次數;
根據所述歷史檢驗結果和所述檢驗結果,對所述策略模型進行更新。
在一種可能的實現方式中,所述根據所述歷史檢驗結果和所述檢驗結果,對所述策略模型進行更新,包括:
確定所述歷史檢驗結果的均值;
確定所述檢驗結果和所述均值的差值;
根據所述差值,對所述策略模型中的策略參數進行更新。
在一種可能的實現方式中,所述獲取初始的資料增強策略之前,所述方法還包括:
在各個預設策略中,均勻隨機選取所述第一階段訓練中的資料增強策略;
根據所述第一階段訓練中的資料增強策略和所述訓練資料,對所述資料處理模型進行所述第一階段訓練。
第二方面,本發明的實施例提供一種資料處理方法,包括:
獲取待處理資料;
通過預先訓練好的資料處理模型,對所述待處理資料進行處理,所述資料處理模型依次經過第一階段訓練和第二階段訓練,在所述第二訓練階段中通過預設的資料增強策略和預設的訓練資料對所述資料處理模型進行訓練,所述資料增強策略採用如第一方面或第一方面各可能的實現方式所述的方法進行生成。
在一種可能的實現方式中,所述方法還包括:
根據所述訓練資料,對所述資料處理模型進行所述第一階段訓練;
通過所述資料增強策略對所述訓練資料進行資料增強;
根據資料增強後的所述訓練資料,對經過所述第一階段訓練的資料處理模型進行所述第二階段訓練。
在一種可能的實現方式中,所述根據所述訓練資料,對所述資料處理模型進行所述第一階段訓練,包括:
在各預設策略中,均勻隨機選取所述第一階段訓練中的資料增強策略;
根據所述第一階段訓練中的資料增強策略和所述訓練資料,對所述資料處理模型進行所述第一階段訓練。
在一種可能的實現方式中,所述待處理資料和所述訓練資料為圖像資料或者文本資料。
第三方面,本發明的實施例提供一種資料增強策略的更新裝置,包括:
獲取部分,被配置為獲取初始的資料增強策略;
訓練部分,被配置為根據所述資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練;
更新部分,被配置為根據經過第二階段訓練的資料處理模型,對所述資料增強策略進行更新,以得到更新後的所述資料增強策略。
第四方面,本發明的實施例提供一種資料處理裝置,包括:
獲取部分,被配置為獲取待處理資料;
處理部分,被配置為通過預先訓練好的資料處理模型,對所述待處理資料進行處理,所述資料處理模型依次經過第一階段訓練和第二階段訓練,在所述第二訓練階段中通過預設的資料增強策略和預設的訓練資料對所述資料處理模型進行訓練,所述資料增強策略採用如第一方面或第一方面各可能的實現方式所述的方法進行生成。
第五方面,本發明的實施例提供了一種電子設備,包括:
記憶體和處理器;
所述記憶體用於儲存程式指令;
所述處理器用於調用所述記憶體中的程式指令執行如第一方面、第一方面的各可能的實現方式、第二方面、或者第二方面的各可能的實現方式所述的方法。
第六方面,本發明的實施例提供了一種電腦可讀儲存介質,其上儲存有電腦程式,所述電腦程式被執行時,實現如第一方面、第一方面的各可能的實現方式、第二方面、或者第二方面的各可能的實現方式所述的方法。
第七方面,本發明實施例提供了一種電腦程式,包括電腦可讀代碼,當所述電腦可讀代碼在電子設備中運行時,所述電子設備中的處理器執行用於實現如第一方面、第一方面的各可能的實現方式、第二方面、或者第二方面的各可能的實現方式所述的方法。
本發明的實施例提供的資料增強策略的更新方法,資料處理模型的訓練階段分為第一階段和第二階段這前後兩階段,在更新資料增強策略時,基於資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,再基於經過第二階段訓練的資料處理模型更新資料增強策略,從而通過在資料增強策略的更新過程中無需對資料處理模型從頭開始訓練,在確保資料增強策略品質的同時,提高資料增強策略的生成效率。此外,生成的資料增強策略可適用於訓練資料的同質資料,具備可遷移性。
應當理解的是,以上的一般描述和後文的細節描述僅是示例性和解釋性的,而非限制本發明。
這裡將詳細地對示例性實施例進行說明,其示例表示在附圖中。下面的描述涉及附圖時,除非另有表示,不同附圖中的相同數字表示相同或相似的要素。以下示例性實施例中所描述的實施方式並不代表與本發明相一致的所有實施方式。相反,它們僅是與如所附申請專利範圍中所詳述的、本發明的一些方面相一致的裝置和方法的例子。
首先對本發明的實施例所涉及的名詞進行解釋如下。
第一階段訓練、第二階段訓練:是指按照資料處理模型的訓練總次數,將資料處理模型的訓練按照前後順序劃分為第一階段訓練和第二階段訓練。例如,預先設定資料處理模型的訓練總次數為300次,則可以將前100次訓練稱為第一階段訓練,將後200次訓練稱為第二階段訓練。其中,對第一階段訓練中的訓練次數和第二階段訓練中的訓練次數不進行限制。
資料增強操作:是指對訓練資料進行微調的操作,以增加訓練資料的資料量和多樣性。例如,以圖像資料為例,對圖像資料進行尺寸、色彩調整。
資料增強策略:是指對訓練資料進行資料增強的方案。其中,資料增強策略包括資料增強操作。例如,資料增強策略中的資料增強操作為圖像水平剪切、且圖像水平剪切對應的剪切幅度為0.1寬度,即每次圖像水平剪切的寬度為圖像原始寬度的10%。
深度學習技術被廣泛應用於多個領域並取得顯著的成果。以圖像視覺領域為例,深度學習技術能夠勝任的任務有圖像分類、目標檢測、圖像分割、人體姿態估計等。為出色完成這些任務,採用深度學習技術的資料處理模型通常需要在大量的訓練資料上進行訓練,否則訓練得到的模型將出現過度擬合現象。因此,資料增強成為增加訓練資料的資料量和多樣性的常用方式,而設計合適的資料增強策略成為提高資料處理模型訓練效果的關鍵因素。
一般地,可通過專業人士手動設計資料增強策略,但這種方式不僅時間成本和人員成本較高,且資料增強策略的複用性不高,通常只適用於訓練特定的資料處理模型。自動生成資料增強策略的方式,相較於專業人士手動設計資料增強策略,不僅能夠提高資料增強策略的生成效率,且能夠生成更優的資料增強策略。
一般地,在自動生成資料增強策略的方式中,可依據資料處理模型的訓練效果,通過強化學習演算法對資料增強策略進行優化。發明人發現,在該方式中,需要不斷地重復資料處理模型的整個訓練過程,再加上訓練資料的規模不小,整體的計算量較大、耗時較長,導致資料增強策略的生成效率不高。
在深度學習技術中,資料處理模型的過擬合通常發生在後期訓練階段。因此,發明人猜想:資料增強對資料處理模型的訓練效果的提升,主要發生在資料處理模型的後期訓練階段。為了提高資料增強策略的生成效率、並確保基於該資料增強策略進行訓練的資料處理模型的訓練效果,發明人深入研究了基於資料增強策略的模型訓練過程,對上述猜想進行驗證。
以資料處理模型為圖像分類模型、且圖像分類模型的訓練總次數為300次為例,發明人得到圖1所示的結果。圖1示出了資料增強與圖像分類模型的訓練效果之間的關係,橫座標為在圖像分類模型的300次訓練中的資料增強輪數,縱座標為300次訓練後的圖像分類模型的分類準確度。虛線為訓練後期的資料增強輪數與圖像分類模型的分類準確度的關係,實線為訓練前期的資料增強輪數與圖像分類模型的分類準確度的關係。
其中,訓練後期的資料增強輪數是從圖像分類模型的最後一次訓練往前連續計算,例如訓練後期的資料增強輪數為50,則表示在圖像分類模型的後50次訓練進行資料增強。訓練前期的資料增強輪數是從圖像分類模型的第一次訓練往後連續計算,例如訓練前期的資料增強輪數為50,則表示在圖像分類模型的前50次訓練進行資料增強。
基於圖1可以得到:一、在資料增強輪數一致的情況下虛線總是在實線上方,所以在資料增強輪數一致的情況下,在訓練後期進行資料增強所得到的圖像分類模型的分類準確度,比在訓練前期進行資料增強所得到的圖像分類模型的分類準確度高;二、在圖像分類模型的分類準確度一致的情況下虛線總是在實線左側,所以在圖像分類模型的分類準確度一致的情況下,在訓練後期進行資料增強所需的資料增強輪數,比在訓練前期進行資料增強所需的資料增強輪數少。注意,由於實線和虛線上的第一個點都表示進行資料增強的輪數為0、實線和虛線上的最後一個點都表示進行資料增強的輪數為300,因此在上述比較的過程中不考慮這四個點。
基於發明人的上述發現,本發明的實施例提供的資料增強策略的更新方法,獲取初始的資料增強策略,根據資料增強策略和訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練,根據經過第二階段訓練的資料處理模型,更新資料增強策略,從而在更新資料策略模型的過程中,僅需對資料處理模型進行第二階段訓練,既保證了資料增強策略的品質,又提高了資料增強策略的生成效率。
本發明的實施例提供的資料增強策略的更新方法,可以適用於圖2所示的網路架構。如圖2所示,該網路架構至少包括終端設備201或者伺服器202,可在終端設備201上儲存經過第一階段訓練的資料處理模型、並進行資料處理模型的第二階段訓練和資料增強策略的更新;也可在伺服器202上儲存經過第一階段訓練的資料處理模型、並進行資料處理模型的第二階段訓練和資料增強策略的更新;還可在終端設備201上儲存經過第一階段訓練的資料處理模型,在伺服器202上進行資料處理模型的第二階段訓練和資料增強策略的更新,或者,在伺服器202上儲存經過第一階段訓練的資料處理模型,在終端設備201上進行資料處理模型的第二階段訓練和資料增強策略的更新。
上述終端設備可以是電腦、平板電腦、智慧手機等設備,上述伺服器可為單個的伺服器或者多個伺服器組成的伺服器群。
下面對本發明的實施例的技術方案以及本發明的技術方案如何解決上述技術問題進行詳細說明。下面這幾個實施例可以相互結合,對於相同或相似的概念或過程可能在某些實施例中不再贅述。下面將結合附圖,對本發明的實施例的實施例進行描述。
圖3為本發明一實施例提供的資料增強策略的更新方法的流程示意圖。如圖3所示,該方法包括以下步驟。
S301、獲取初始的資料增強策略。
在一種可能的實現方式中,在S301中可從各個預設的資料增強策略中,獲取初始的資料增強策略。其中,為了將各個預設的資料增強策略與當前採用的資料增強策略進行區分,在描述上,將各個預設的資料增強策略稱為各個預設策略,將當前採用的資料增強策略稱為資料增強策略。
在一種可能的實現方式中,除了從各個預設策略中獲取初始的資料增強策略外,還可由用戶預先設置好初始的資料增強策略,直接獲取該設置好的資料增強策略。或者,還可從各個預設的資料增強操作中獲取初始的資料增強操作,進而得到初始的資料增強策略。
S302、根據資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練。
其中,可預先對資料處理模型進行第一階段訓練,得到經過第一階段訓練的資料處理模型。可預先採集訓練資料,訓練資料可以資料庫的形式儲存。
在一種可能的實現方式中,在獲得初始的資料增強策略後,可通過資料增強策略對訓練資料進行資料增強,通過資料增強後的訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,得到經過第二階段訓練的資料處理模型,從而在資料處理模型的後期訓練中對訓練資料進行資料增強,充分利用資料增強對資料處理模型的後期訓練影響更大的特點。
其中,對資料處理模型所採用的訓練演算法不做限制。
S303、根據經過第二階段訓練的資料處理模型,對資料增強策略進行更新。
在一種可能的實現方式中,資料處理模型經過第一階段訓練和第二階段訓練後,即完成其訓練過程,得到訓練好的處理模型。因此,可對經過第二階段訓練的資料處理模型的訓練效果進行檢驗,得到檢驗結果。例如,在資料處理模型的任務為圖像分類任務的情況下,資料處理模型的檢驗結果即資料處理模型的圖像分類準確度。
在一種可能的實現方式中,得到資料處理模型的檢驗結果,即可瞭解在通過資料增強策略對訓練資料進行資料增強的情況下,基於資料增強後的訓練資料訓練得到的資料處理模型的訓練效果,可見,資料處理模型的檢驗結果體現資料增強策略的品質。例如,資料處理模型的圖像分類準確度越高,則代表資料增強策略的品質越好。因此,可根據資料處理模型的檢驗結果,對資料增強策略進行更新。在對資料增強策略進行更新的過程中,可獲取策略更新空間中的預設策略作為更新後的資料增強策略。
本發明實施例中,通過初始的資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,根據經過第二階段訓練的資料處理模型,對資料增強策略進行更新,充分利用資料增強策略對資料處理模型的後期訓練影響更大的特點,在確保資料增強策略品質的同時,提高資料增強策略的生成效率。
圖4為本發明另一實施例提供的資料增強策略的更新方法的流程示意圖。如圖4所示,該方法包括以下步驟。
S401、獲取初始的資料增強策略。
在一種可能的實現方式中,可從各個預設策略中,獲取初始的資料增強策略。除了從各個預設策略中獲取初始的資料增強策略外,還可由用戶預先設置好初始的資料增強策略,直接獲取該設置好的資料增強策略。或者,還可從各個預設的資料增強操作中獲取初始的資料增強操作,進而得到初始的資料增強策略。
在一種可能的實現方式中,資料增強策略包括多個預設的資料增強操作,以提高資料增強策略的品質。後續在對經過第一階段的資料處理模型進行第二階段訓練的情況下,可按照資料增強策略中的各個資料增強操作,依次對訓練資料進行資料增強,通過資料增強後的訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練。
以訓練資料為圖像資料為例,可預先設置如表1所示的各個資料增強操作和各個資料增強操作對應的各個操作幅度。圖1中的資料增強操作的類型共有14種,其中11種資料增強操作分別設有3種操作幅度,另外3種資料增強操作不需要設置操作幅度,可將不同操作幅度的同種資料增強操作當作不同的資料增強操作,因此表1中共有36個資料增強操作。在資料增強策略包括兩個資料增強操作的情況下,表1中的資料增強操作可組合得到36×36個資料增強策略。因此,根據表1,可設置36×36個預設策略。
表1 圖像資料增強操作及各增強操作幅度
資料增強操作 | 操作幅度 | 幅度單位 |
水平裁剪 | {0.1,0.2,0.3} | 寬度比例 |
垂直裁剪 | {0.1,0.2,0.3} | 高度比例 |
水平平移 | {0.15,0.3,0.45} | 寬度比例 |
垂直平移 | {0.15,0.2,0.45} | 高度比例 |
圖像旋轉 | {10,20,30} | 角度值 |
色彩調整 | {0.3,0.6,0.9} | 色彩平衡度 |
色調分離 | {4.4,5.6,6.8} | 圖元位元數值 |
日光化 | {26,102,179} | 圖元閾值 |
對比度調整 | {1.3,1.6,1.9} | 對比度比例 |
銳度調整 | {1.3,1.6,1.9} | 銳化比例 |
亮度調整 | {1.3,1.6,1.9} | 亮度比例 |
自動對比度 | 無 | 無 |
均衡化 | 無 | 無 |
顏色反轉 | 無 | 無 |
S402、根據資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練。
在一種可能的實現方式中,在獲得初始的資料增強策略後,可通過資料增強策略對訓練資料進行資料增強,通過資料增強後的訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,得到經過第二階段訓練的資料處理模型,從而在資料處理模型的後期訓練中對訓練資料進行資料增強,充分利用資料增強對資料處理模型的後期訓練影響更大的特點。
S403、根據經過第二階段訓練的資料處理模型,對資料增強策略進行更新。
在一種可能的實現方式中,資料處理模型經過第一階段訓練和第二階段訓練後,即完成其訓練過程,得到訓練好的處理模型。因此,可對經過第二階段訓練的資料處理模型的訓練效果進行檢驗,得到檢驗結果。
在一種可能的實現方式中,得到資料處理模型的檢驗結果,即可瞭解在通過資料增強策略對訓練資料進行資料增強的情況下,基於資料增強後的訓練資料訓練得到的資料處理模型的訓練效果,可見,資料處理模型的檢驗結果體現當前採用的資料增強策略的品質。因此,可根據資料處理模型的檢驗結果,對資料增強策略進行更新。在對資料增強策略進行更新的過程中,可獲取策略更新空間中的預設策略作為更新後的資料增強策略。
S404、確定更新後的資料增強策略是否滿足預設條件。
在一種可能的實現方式中,在更新後的資料增強策略滿足預設條件的情況下,執行S406;在更新後的資料增強策略未滿足預設條件的情況下,執行S405。
S405、更新初始的資料增強策略為更新後的資料增強策略。
在一種可能的實現方式中,將初始的資料增強策略更新為更新後的資料增強策略,也即將當前採用的資料增強策略更新為更新後的資料增強策略,並跳轉執行步驟S402,以對資料增強策略進行多次更新。
S406、得到最終的資料增強策略。
在一種可能的實現方式中,在更新後的資料增強策略滿足預設條件的情況下,停止對資料增強策略的更新,在所有更新過程中選取經過第二階段訓練的資料處理模型的檢驗結果最高的情況下,採用的資料增強策略作為最終的資料增強策略,從而有效地提高資料增強策略的品質。
在一種可能的實現方式中,獲取第M次更新的資料增強策略,M大於或等於1;根據第M次更新的資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練;根據經過第二階段訓練的資料增強模型,對資料增強策略進行第M+1次更新。
在一種可能的實現方式中,可通過確定資料增強策略的更新次數是否到達預設的次數閾值,來確定更新後的資料增強策略是否滿足預設條件。在更新次數達到次數閾值的情況下,確定更新後的資料增強策略滿足預設條件;在更新次數未達到次數閾值的情況下,確定更新後的資料增強策略不滿足預設條件,從而通過更新次數控制資料增強策略的更新是否繼續,避免對資料增強策略一直更新。
在一種可能的實現方式中,除了通過確定資料增強策略的更新次數是否到達預設的次數閾值,來確定是否停止對資料增強策略的持續更新之外,還可通過確定經過第二階段訓練的資料處理模型的檢驗結果是否滿足預設條件,來確定是否停止對資料增強策略的持續更新。
其中,可將資料處理模型的檢驗結果與預設的檢驗閾值進行比較,在資料處理模型的檢驗結果大於檢驗閾值的情況下,則確定經過第二訓練階段的資料處理模型滿足預設條件,將資料增強策略設置為最終的資料增強策略;在資料處理模型的檢驗結果小於或等於該檢驗閾值的情況下,則確定經過第二訓練階段的資料處理模型不滿足預設條件,繼續進行資料增強策略的更新。
在一種可能的實現方式中,每次更新過程中的資料增強策略的數量為多個,各個資料增強策略的更新並行進行,從而有效提高資料增強策略的生成效率。
在一種可能的實現方式中,每隔預設的更新次數,根據經過第二階段訓練的資料處理模型,在更新後的各資料增強策略中,選取最優的資料增強策略,在更新後的資料增強策略中,將除最優策略之外的各資料增強策略分別替換為最優的資料增強策略,從而提高更新過程的收斂性和資料增強策略的生成效率。其中,在選擇最優的資料增強策略過程中,根據對經過第二階段訓練的資料處理模型的訓練效果進行檢測所得的檢驗結果進行選擇。
在一種可能的實現方式中,訓練資料為圖像資料或文本資料,在訓練資料為圖像資料的情況下,資料處理模型為影像處理模型;在訓練資料為文本資料的情況下,資料處理模型為自然語言處理模型。因此,本發明實施例提高的資料增強策略的更新方法可適用於影像處理領域的資料增強策略的生成和自然語言領域的資料增強策略的生成。
本發明實施例中,通過初始的資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,根據經過第二階段訓練的資料處理模型,對資料增強策略進行多次更新,充分利用資料增強策略對資料處理模型的後期訓練影響更大的特點,在確保資料增強策略品質的同時,提高資料增強策略的生成效率。
圖5為本發明另一實施例提供的資料增強策略的更新方法的流程示意圖。如圖5所示,該方法包括以下步驟。
S501、獲取初始的資料增強策略。
在一種可能的實現方式中,可從各個預設策略中,獲取初始的資料增強策略。除了從各個預設策略中獲取初始的資料增強策略外,還可由直接獲取用戶預先設置好初始的資料增強策略。或者,還可從各個預設的資料增強操作中獲取初始的資料增強操作,進而得到初始的資料增強策略。
在一種可能的實現方式中,在從各個預設策略中,獲取初始的資料增強策略的情況下,均勻隨機地從各個預設策略中選取一個或多個預設策略,作為初始的資料增強策略,從而提高初始的資料增強策略選取的公平性。其中,均勻隨機地從各個預設策略中一個或多個預設策略,表示各個預設策略被選取的概率相等。
在一種可能的實現方式中,在均勻隨機地從各個預設策略中選取了多個預設策略作為初始的資料增強策略的情況下,表明初始的資料增強策略為多個,則後續更新過程中,對各個資料增強策略進行同步更新,從而提高資料增強策略的生成效率。
S502、根據資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練。
在一種可能的實現方式中,通過資料增強策略中的資料增強操作,對訓練資料進行資料增強,在資料增強策略中包括多個資料增強操作的情況下,通過資料增強策略中的各個資料增強操作,依次對訓練資料進行資料增強,得到資料增強後的訓練資料。通過資料增強後的訓練資料,對經過第一階段訓練的資料處理模型,進行第二階段訓練,得到經過第二階段訓練的資料處理模型。
S503、根據經過第二階段訓練的資料處理模型,更新預設的策略模型。
其中,策略模型為一個參數化模型,其參數為預設的策略參數,通過調整策略操作,可調整策略模型的輸出。策略模型的輸出為各個預設策略的選擇概率,即在資料增強策略更新的情況下,各個預設策略被選中作為更新後的資料增強策略的概率。因此,策略模型可以理解為一個多項式分佈。
在一種可能的實現方式中,可獲取預設的驗證資料,驗證資料包括輸入資料和與輸入資料對應的標籤資料。例如,以圖像資料為例,在驗證資料為圖像資料、且資料處理模型的任務為圖像分類任務的情況下,驗證資料包括輸入圖像和與輸入圖像對應的分類標籤,其中,分類標籤為輸入資料的類別。
在一種可能的實現方式中,將驗證資料中的輸入資料登錄經過第二階段訓練的資料處理模型,得到資料處理模型的輸出結果,將資料處理模型的輸出結果與輸入資料對應的標籤資料進行比較,即可得到對資料處理模型進行檢驗的檢驗結果。這裡,對資料處理模型進行檢驗,是指對資料處理模型的訓練效果進行檢驗。例如,以圖像資料為例,在驗證資料為圖像資料、且資料處理模型的任務為圖像分類任務的情況下,將輸入圖像輸入資料處理模型,將資料處理模型的輸出與輸入圖像對應的分類標籤進行比較,即可得到資料處理模型的分類準確度。
在一種可能的實現方式中,得到資料處理模型的檢驗結果後,可根據該檢驗結果,對策略模型的策略參數進行更新,得到更新後的策略模型。
S504、通過更新後的策略模型,確定各個預設策略的選中概率。
S505、按照各預設策略的選中概率,在各預設策略中選取更新後的資料增強策略。
在一種可能的實現方式中,按照更新後的策略模型,可重新確定各個預設策略的選中概率,按照各個預設策略的選中概率,在各個預設策略中選取一個預設策略作為更新後的資料增強策略。
在一種可能的實現方式中,策略參數中包括各個預設策略對應的權重,對策略參數進行更新,即對各個預設策略對應的權重進行更新。在獲取初始的資料增強策略的過程中,可通過為各個預設策略設置相同的權重,實現均勻隨機地從各個預設策略中選取初始的資料增強策略。在更新策略參數的過程中,各個預設策略的權重發生不同的變化,各個預設策略的選中概率逐漸出現差別。因此,依據經過第二階段訓練的資料模型的訓練效果,對策略參數進行調整,再依據策略模型重新確定各個預設策略的選中概率,不斷地從各個預設策略中選取品質更好的資料增強策略,既提高了資料增強策略的生成效率,又保證了資料增強策略的品質。
在一種可能的實現方式中,策略模型可表示為公式(1):(1);
其中,為自然對數的底數,為策略參數中的第k個權重,也即第k個預設策略對應的權重,K表示預設策略的總數,表示第k個預設策略,表示第k個預設策略的選中概率。因此,通過策略模型和包括各個預設策略所對應權重的策略參數,可確定各個預設策略的選中概率,通過調整策略參數,可有效調整各個預設策略的選中概率,既提高了資料增強策略的生成效率,又保證了資料增強策略的品質。
在一種可能的實現方式中,在根據經過第二階段訓練的資料處理模型的檢驗結果對策略參數進行更新的過程中,可通過預設的啟發式搜索演算法實現策略參數的更新,以提高策略參數更新的效果。
在一種可能的實現方式中,在用於策略參數更新的啟發式搜索演算法為強化學習演算法的情況下,策略參數的更新可表示為公式(3):(3);
其中,表示策略參數的梯度值,表示強化學習演算法中的第n條搜索軌跡,為在強化學習演算法中搜索軌跡被搜索到的概率,N表示強化學習演算法中搜索軌跡的數量,表示經過第二階段訓練的資料處理模型的檢驗結果的期望值。
其中,在通過強化學習演算法更新策略參數的過程中,可將策略參數的梯度值乘以強化學習演算法中預設的學習率,得到乘積,再將乘積與策略參數相加,得到更新後的策略參數。例如,採用Adam(adaptive moment estimation,適應性矩估計)演算法作為強化學習演算法的情況下,Adam的學習率可設置為、和。
在一種可能的實現方式中,在根據資料增強測量和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練的過程中,經過第二階段訓練得到的資料處理模型的模型參數可表示為公式(4):(4);
其中,x表示訓練資料中的輸入資料,y表示訓練資料中與x對應的標籤資料,表示對x進行資料增強,表示預設的損失函數,表示服從策略模型得到的概率分佈從各個預設策略中選取資料增強策略,表示訓練資料,Z為訓練資料中輸入資料x的數量。
在一種可能的實現方式中,在預先對資料處理模型進行第一階段訓練的過程中,從各個預設策略中,均勻隨機選取第一階段訓練中的資料增強策略,根據第一階段的資料增強策略對訓練資料進行資料增強,根據資料增強的訓練資料,對資料處理模型進行第一階段訓練,從而在第一階段訓練中也對訓練資料進行資料增強,提高經過第一階段訓練的資料處理模型的訓練效果。
在一種可能的實現方式中,經過第一階段訓練得到的資料處理模型的模型參數可表示為公式(5):(5);
其中,表示經過第一階段訓練得到的資料處理模型的模型參數,表示服從均勻的概率分佈從各個預設策略中選取資料增強策略。
本發明實施例中,充分利用資料增強策略對資料處理模型的後期訓練影響更大的特點,根據資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,根據經過第二階段訓練的資料處理模型,更新策略模型,通過更新後的策略模型,確定各預設策略的選中概率,通過調整各預設策略的概率,優化更新後的資料增強策略的品質,從而既提高了資料增強策略品質,又提高了資料增強策略的生成效率。
圖6為本發明另一實施例提供的資料增強策略的更新方法的流程示意圖。如圖6所示,該方法包括以下步驟。
S601、獲取初始的資料增強策略。
S602、根據資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練。
S603、根據經過第二階段訓練的資料處理模型,更新預設的策略模型。
在一種可能的實現方式中,在根據經過第二階段訓練的資料處理模型,更新策略模型的過程中,通過驗證資料,對經過第二階段訓練的資料處理模型的訓練效果進行檢驗,得到檢驗結果,獲取資料增強策略的前N-1次更新中經過第二階段的資料處理模型的檢驗結果。為了描述清晰,將資料增強策略的前N-1次更新中經過第二階段的資料處理模型的檢驗結果稱為歷史檢驗結果,可綜合該檢驗結果和歷史檢驗結果,對策略模型進行更新,以確保每次更新的過程中該策略模型更新的穩定性,進而提高資料增強策略更新效果。其中,N為資料增強策略當前更新的總次數,第N次更新即指當前更新過程。
在一種可能的實現方式中,在綜合該檢驗結果和歷史檢驗結果,對策略模型進行更新的過程中,可確定歷史檢驗結果的均值,確定檢驗結果與該均值的差值,根據差值對策略模型中的策略參數進行更新,以確保每次更新的過程中該策略模型更新的穩定性,進而提高資料增強策略更新效果。策略參數的更新過程可採用啟發式搜索演算法,不再贅述。
S604、通過更新後的策略模型,確定各個預設策略的選中概率。
S605、按照各預設策略的選中概率,在各預設策略中選取更新後的資料增強策略。
在一種可能的實現方式中,步驟S601~S605可參照步驟S501~S505的詳細描述,在此不再贅述。
S606、確定更新後的資料增強策略是否滿足預設條件。
在一種可能的實現方式中,在更新後的資料增強策略滿足預設條件的情況下,則執行S608;在更新後的資料增強策略不滿足預設條件的情況下,執行S607。
S607、更新初始的資料增強策略為更新後的資料增強策略。
在一種可能的實現方式中,更新初始的資料增強策略為更新後的資料增強策略,並跳轉至執行步驟S602,以對資料增強策略進行多次更新,提高資料增強策略的品質。
S608、得到最終的資料增強策略。
在一種可能的實現方式中,將更新後的資料增強策略設為最終的資料增強策略。
在一種可能的實現方式中,可通過確定資料增強策略的更新次數是否到達預設的次數閾值,來確定更新後的資料增強策略是否滿足預設條件,在更新次數達到次數閾值的情況下,確定更新後的資料增強策略滿足預設條件;在更新次數未達到次數閾值的情況下,確定更新後的資料增強策略不滿足預設條件。從而通過更新次數控制資料增強策略的更新是否繼續,避免對資料增強策略一直更新。
在一種可能的實現方式中,除了通過確定資料增強策略的更新次數是否到達預設的次數閾值,來確定是否停止對資料增強策略的持續更新之外,還可通過確定經過第二階段訓練的資料處理模型的檢驗結果是否滿足預設條件,來確定是否停止對資料增強策略的持續更新。
在一種可能的實現方式中,可將資料處理模型的檢驗結果與預設的檢驗閾值進行比較,在資料處理模型的檢驗結果大於檢驗閾值的情況下,表示經過第二訓練階段的資料處理模型滿足預設條件,將資料增強策略設置為最終的資料增強策略;在資料處理模型的檢驗結果小於或等於該檢驗閾值的情況下,繼續進行資料增強策略的更新。
在一種可能的實現方式中,每預設的更新次數,根據經過第二階段訓練的資料處理模型,在更新後的各資料增強策略中,選取最優的資料增強策略,在更新後的資料增強策略中,將除最優策略之外的各資料增強策略分別替換為最優的資料增強策略,從而提高更新過程的收斂性和資料增強策略的生成效率。其中,在選擇最優的資料增強策略過程中,可以根據對經過第二階段訓練的資料處理模型的訓練效果進行檢測所得的檢驗結果進行選擇。
例如,圖7提供了多個資料增強策略並行更新的過程。如圖7所示,每個長方體表示一個資料增強策略,每個正方體表示一個資料處理模型,準確率(Accuracy,ACC)表示經過第二階段訓練得到的資料處理模型的檢驗結果,每行表示一個資料增強策略的更新過程,每一列表示各個資料增強策略的一次更新。
如圖7所示,可均勻隨機地從各個預設策略中選取一個初始的資料增強策略,將該初始的資料增強策略複製多份,得到多個相同的初始的資料增強策略,多個資料增強策略並行進行更新,每隔預設更新次數,從各個更新後的資料增強策略中選取最優的資料增強策略,將最優的資料增強策略進行複製,如虛線箭頭所示的策略複製,這裡的策略複製也即:在各個更新後的資料增強策略中,將除最優的資料增強策略以外的剩餘的資料增強策略替換為該最優的資料增強策略。因此,能夠有效地提高資料增強策略多次更新的收斂性,得到品質較佳的資料增強策略。
如圖7所示,在單次更新過程中,將經過第一階段訓練的資料處理模型的模型參數載入至資料處理模型,得到經過第一階段訓練的資料處理模型,通過資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,再經過驗證資料的檢驗,得到ACC,也即經過第二階段訓練的資料處理模型的檢驗結果,在基於該檢驗結果,對資料增強策略進行更新,得到更新後的資料增強策略。
參考圖7可以看出,本發明實施例中,可對多個資料增強策略進行並行更新,資料增強策略的每次更新過程僅需對資料處理模型進行第二階段訓練,每預設更新次數將各個更新後的資料增強策略替換為當前最優的資料增強策略,且策略參數更新的計算量小,從而有效地提高了資料增強策略更新的效率、提高了資料增強策略的生成效率、且保證了資料增強策略的品質。
在一個實施例中,可通過調整第一階段訓練的訓練次數占總訓練次數的比例、或者第二階段訓練的訓練次數占總訓練次數的比例,來提高資料增強策略的生成效率。
圖8為本發明一實施例提供的資料處理方法的流程示意圖。如圖8所示,該方法包括以下步驟。
S801、獲取待處理資料。
其中,可獲取使用者輸入的待處理資料,也可預先採集的待處理資料。
S802、通過預先訓練好的資料處理模型,對待處理資料進行處理,資料處理模型依次經過第一階段訓練和第二階段訓練,在第二訓練階段中通過預設的資料增強策略和預設的訓練資料對資料處理模型進行訓練。
其中,預先訓練好資料處理模型,在資料處理模型的訓練過程中,先對資料處理模型進行第一階段訓練,再根據資料增強策略和訓練資料對資料處理模型進行第二階段訓練,從而充分利用資料增強對資料處理模型的後期訓練影響更大的特點,提高資料處理模型的資料處理效果和模型訓練效率。
在一種可能的實現方式中,將待處理資料登錄資料處理模型,由資料處理模型對待處理資料進行處理,得到相應的處理結果。
在一種可能的實現方式中,資料處理模型的第二階段訓練所採用的資料增強策略,可通過上述任一實施例提高的資料增強策略的更新方法得到,以提高資料增強策略的品質和生成效率,進而提高資料處理模型的資料處理效果和模型訓練效率。
在一種可能的實現方式中,在訓練資料處理模型的過程中,可先通過訓練資料,對資料處理模型進行第一階段訓練,得到經過第一階段訓練的資料處理模型。再通過資料增強策略對訓練資料進行資料增強,基於資料增強後的訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,得到訓練好的資料處理模型,從而充分利用資料增強對資料處理模型的後期訓練影響更大的特點,提高資料處理模型的資料處理效果和模型訓練效率。
在一種可能的實現方式中,在對資料處理模型進行第一階段訓練的過程中,可在各預設策略中,均勻隨機選取資料增強策略,作為第一階段訓練的資料增強策略,通過選取的資料增強策略對訓練資料進行資料增強,通過資料增強的訓練資料對資料處理模型進行第一階段訓練,從而通過均勻隨機選取資料增強策略,在儘量不增加模型訓練所耗時長的情況下,提高資料處理模型第一階段訓練的訓練效果,進而提高資料處理模型的整體訓練效果。
在一種可能的實現方式中,待處理資料和訓練資料可為圖像資料或者文本資料,在資料處理模型為影像處理模型的情況下,待處理資料和訓練資料為圖像資料;在資料處理模型為自然語言處理模型的情況下,待處理資料和訓練資料為文本資料,從而提高影像處理效果或自然語言處理效果。
本發明實施例中,通過預先訓練好的資料處理模型對待處理資料進行處理,該資料處理模型的訓練過程分為第一階段訓練和第二階段訓練,在第二階段訓練過程中採用了預設的資料增強策略,從而提高資料處理模型的資料處理效果和模型訓練效率,進而提高了資料處理效果。
下面,將說明本發明實施例在一個實際的應用場景中的示例性應用。
自動機器學習是當前機器學習領域的一個熱點領域,其相關技術在許多領域中可以起到提升模型表現和減少調優所需人力的作用。圖像資料增強技術在影像處理領域也已經受到了廣泛的運用。通過自動機器學習技術自動化圖像資料增強過程,可以提高資料增強的針對性,也減少了不必要的人工調整。然而在特定任務的資料集上找到合適的增強策略是較複雜的,這是因為資料集的量級一般都較大,直接尋找的開銷不可接受。而如果僅是尋找一個通用的策略並應用在所有任務中,其對模型的提升功能則會較低。而現有的一些自動資料增強搜索技術,有一些開銷仍然巨大,有一些的提升效果也不太理想。其中,自動化機器學習的部分或全部過程。最常見的任務為自動進行機器學習的參數調整,例如自動尋找合適的模型結構、合適的資料增強策略、合適的損失函數、合適的優化器。
本發明實施例提供的資料增強策略的更新方法,可以在時間消耗和評價準確性之間取得了良好的平衡,即可以直接在常規規模資料集上開展搜索,並得到穩定的提升;並且,適用於多個圖像分類資料集,並具備一定的可遷移能力;還可以較容易地嵌入到各個圖像分類任務中。
在一種可能的實現方式中,該資料增強策略的更新方法包括圖像資料增強策略的搜索。搜索過程可分為以下三個步驟進行。首先,將模型在均勻隨機策略下進行前期的訓練。之後將進行One-Shot(搜索策略)搜索階段,即反復載入前期訓練的結束狀態並執行後期訓練,同時進行搜索。搜索目標是最優化後期訓練的表現。最後,將搜索得到的策略運用在原始任務上重新整體訓練,得到最終的模型表現。其中,One-Shot為一種搜索策略,原意為每次在整個搜索空間中採取一條“路徑”,亦可廣泛理解為多次重複的單採樣更新。通過對此方法的前後期訓練比例的合理調整,可以大幅提升搜索的時間效率。並且由於發明人觀察到後期訓練對於資料增強的影響更敏感,因此評價指標的穩定性在實驗中也未觀察到被破壞。 利用此方法,可以提高各個圖像分類模型在給定資料集下的性能,説明模型在多個任務場景下取得更好的表現。
本發明實施例提供的資料增強策略的更新方法主要包括以下步驟。
步驟A,使用均勻隨機的資料增強,進行前期訓練。
在一種可能的實現方式中,該步驟A包括:獲取未訓練的初始模型;在均勻亂數據增強下訓練;得到前期訓練完畢的模型。其中,步驟A的輸入為指定的圖像分類資料集、完全未訓練的模型;輸出為前期訓練完畢的模型。
在一種可能的實現方式中,該步驟A包括:
使用未經訓練的初始模型作為起點。在實驗中,可以選擇多種模型分別獨立地進行實驗;
在前期訓練的過程中,圖像會以等概率進行各種資料增強。通過實際的實驗觀察,發現進行均勻的資料增強相比不進行資料增強,取得的效果更好。我們選擇的資料增強操作可以是各種自動資料增強操作,以確保公平性。操作列表如表1所示,其中第二列表示的是各個操作的不同幅度值。考慮幅度值差異,共有36種可能的資料增強操作。在訓練時對每張圖片會均勻地隨機兩個操作進行使用。經過資料增強操作後的圖片才作為模型實際上得到的輸入。
保存前期訓練完畢的模型,以供後期訓練使用。
步驟B,進行One-Shot搜索,即反復進行後期訓練,並不斷更新資料增強策略。
在一種可能的實現方式中,該反復訓練的詳情可參考圖7,如圖7所示,每個長方體表示一個資料增強策略,每個正方體表示一個資料處理模型,準確率(Accuracy,ACC)表示經過第二階段訓練得到的資料處理模型的檢驗結果,每行表示一個資料增強策略的更新過程,每一列表示各個資料增強策略的一次更新。
其中,在單次更新過程中可以包括:載入前期訓練完畢得到的模型。即每次後期訓練都會重置模型參數為前期訓練完畢得到的參數。使用當前策略控制資料增強,進行後期訓練。當前策略是一個參數化的模型,其參數能夠匯出各個資料增強操作的概率。由於對每張圖片會進行兩次數據增強操作,因此結合考慮先後關係,共有36*36=1296種增強方法。需要注意的是,策略在每次後期訓練後不會重置,而是會一直保持更新,直到整個搜索期結束。得到後期訓練完畢的模型。此時,將對模型進行評價。通過選用了圖像分類作為實際任務,因此評價指標即為分類的準確率。為了提高評價指標的穩定性和相對性,可以對每次評價減去了歷史的指數滑動平均值。利用此時模型評價指標更新策略。此處使用了強化學習進行更新,其更新的目標是提升模型的評價指標。
經過若干次反復的訓練和更新,將會得到最終的策略。最終策略可以匯出為一個簡短的腳本,以供便利地加入到期望的訓練過程中。
步驟C,使用最終策略重新訓練,得到最終模型和最終表現。該步驟中每一張圖片都會在最終策略的控制下(對應的概率值下)進行資料增強。該步驟完成後即得到了最終的模型和表現。
本發明實施例提供的資料增強策略的更新方法利用One-Shot思路,在搜索效率和評價準確度之間達到了良好的平衡,且達到了同樣條件下更好的實驗效果。同時,演算法搜索的結果能夠被簡易地匯出,可以被其他任務靈活地使用。
本發明實施例提供的資料增強策略的更新方法,可以直接在圖像分類任務或其他影像處理任務的訓練過程中進行資料增強,以期望取得更好的表現和更強的泛化性;可以實現在指定資料集和指定模型下資料增強策略的搜索,以得到高度定制的資料增強策略;可以結合自訂的搜索空間,進行更廣泛任務的資料增強策略搜索。例如自然語言處理等領域。
圖9為本發明的一實施例提供的資料增強策略的更新裝置的結構示意圖。如圖9所示,該裝置包括:
獲取部分901,被配置為獲取初始的資料增強策略;
訓練部分902,被配置為根據資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練;
更新部分903,被配置為根據經過第二階段訓練的資料處理模型,對資料增強策略進行更新,以得到更新後的資料增強策略。
在一種可能的實現方式中,更新部分903還被配置為:
更新初始的資料增強策略為更新後的資料增強策略,以對資料增強策略進行多次更新。
在一種可能的實現方式中,資料增強策略的數量為多個,各資料增強策略的更新並行進行;更新部分903還被配置為:
每隔預設的更新次數,根據經過第二階段訓練的資料處理模型,在更新後的各資料增強策略中,選取最優的資料增強策略;
在更新後的資料增強策略中,將除最優策略之外的各資料增強策略分別替換為最優的資料增強策略。
在一種可能的實現方式中,資料增強策略包括多個預設的資料增強操作;訓練部分902還被配置為:
按照各資料增強操作,依次對訓練資料進行資料增強;
通過資料增強後的訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練。
在一種可能的實現方式中,訓練資料為圖像資料或文本資料。
在一種可能的實現方式中,更新部分903還被配置為:
根據經過第二階段訓練的資料處理模型,更新預設的策略模型;
通過更新後的策略模型,確定各個預設策略的選中概率;
按照各預設策略的選中概率,在各預設策略中選取更新後的資料增強策略。
在一種可能的實現方式中,在資料增強策略的更新次數為多次的情況下,更新部分903還被配置為:
根據預設的驗證資料,對經過第二階段訓練的資料處理模型進行檢驗,得到檢驗結果;
獲取資料增強策略的前N-1次更新中經過第二階段的資料處理模型的歷史檢驗結果,N為資料增強策略當前更新的總次數;
根據歷史檢驗結果和檢驗結果,對策略模型進行更新。
在一種可能的實現方式中,更新部分903還被配置為:
確定歷史檢驗結果的均值;
確定檢驗結果和均值的差值;
根據差值,對策略模型中的策略參數進行更新。
在一種可能的實現方式中,訓練部分902還被配置為:
在各個預設策略中,均勻隨機選取第一階段訓練中的資料增強策略;
根據第一階段訓練中的資料增強策略和訓練資料,對資料處理模型進行第一階段訓練。
圖9提供的資料增強策略的更新裝置,可以執行上述相應方法實施例,其實現原理和技術效果類似,在此不再贅述。
圖10為本發明的一實施例提供的資料處理裝置的結構示意圖。如圖10所示,該裝置包括:
獲取部分1001,被配置為獲取待處理資料;
處理部分1002,被配置為通過預先訓練好的資料處理模型,對待處理資料進行處理,資料處理模型依次經過第一階段訓練和第二階段訓練,在第二訓練階段中通過預設的資料增強策略和預設的訓練資料對資料處理模型進行訓練。
在一種可能的實現方式中,資料增強策略採用上述任一實施例所示的資料增強策略的更新方法進行生成。
在一種可能的實現方式中,該裝置還包括訓練部分,訓練部分還被配置為:
根據訓練資料,對資料處理模型進行第一階段訓練;
通過資料增強策略對訓練資料進行資料增強;
根據資料增強後的訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練。
在一種可能的實現方式中,訓練部分還被配置為:
在各預設策略中,均勻隨機選取第一階段訓練中的資料增強策略;
根據第一階段訓練中的資料增強策略和訓練資料,對資料處理模型進行第一階段訓練。
在一種可能的實現方式中,待處理資料和訓練資料為圖像資料或者文本資料。
圖10提供的資料處理裝置,可以執行上述相應方法實施例,其實現原理和技術效果類似,在此不再贅述。
圖11為本發明實施例提供的一種電子設備的結構示意圖。如圖11所示,該終端設備可以包括:處理器1101和記憶體1102。記憶體1102用於儲存電腦執行指令,處理器1101執行電腦程式時實現如上述任一實施例的方法。
上述的處理器1101可以是通用處理器,包括中央處理器(central processing unit, CPU)、網路處理器(network processor,NP)等;還可以是數位訊號處理器(Digital Signal Processing,DSP)、專用積體電路(application-specific integrated circuit,ASIC)、現場可程式設計邏輯閘陣列(field-programmable gate array,FPGA)或者其他可程式設計邏輯器件、分立門或者電晶體邏輯器件、分立硬體組件。上述記憶體1102可能包含隨機存取記憶體(random access memory,RAM),也可能還包括非易失性記憶體(non-volatile memory),例如至少一個磁碟記憶體。
本發明實施例還提供了一種電腦可讀儲存介質,所述電腦可讀儲存介質中儲存有指令,當其在電腦上運行時,使得電腦執行如上述任一實施例的方法。
本發明實施例還提供一種程式產品,所述程式產品包括電腦程式,所述電腦程式儲存在儲存介質中,至少一個處理器可以從所述儲存介質中讀取所述電腦程式,所述至少一個處理器執行所述電腦程式時可實現上述任一實施例的方法。
圖12是根據本實施例提供的資料增強策略的更新裝置1200的方塊圖。例如,裝置1200可以被提供為一伺服器或者一電腦。參照圖12,裝置1200包括處理組件1201,其進一步包括一個或多個處理器,以及由記憶體1202所代表的記憶體資源,用於儲存可由處理組件1201的執行的指令,例如應用程式。記憶體1202中儲存的應用程式可以包括一個或一個以上的每一個對應於一組指令的部分。此外,處理組件1201被配置為執行指令,以執行上述圖3至圖6任一實施例的方法。
裝置1200還可以包括一個電源組件1203被配置為執行裝置1200的電源管理,一個有線或無線網路介面1204被配置為將裝置1200連接到網路,和一個輸入輸出(I/O)介面1205。裝置1200可以操作基於儲存在記憶體1202的作業系統,例如Windows ServerTM,Mac OS XTM,UnixTM, LinuxTM,FreeBSDTM或類似。
在本發明實施例中,“至少一個”是指一個或者多個,“多個”是指兩個或兩個以上。“和/或”,描述關聯物件的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B的情況,其中,A,B可以是單數或者複數。字元“/”一般表示前後關聯物件是一種“或”的關係;在公式中,字元“/”,表示前後關聯物件是一種“相除”的關係。“以下至少一項(個)”或其類似表達,是指的這些項中的任意組合,包括單項(個)或複數項(個)的任意組合。例如,a,b,或c中的至少一項(個),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中,a,b,c可以是單個,也可以是多個。
可以理解的是,在本發明實施例中涉及的各種數字編號僅為描述方便進行的區分,並不用來限制本發明實施例的範圍。
可以理解的是,在本發明的實施例中,上述各過程的序號的大小並不意味著執行順序的先後,各過程的執行順序應以其功能和內在邏輯確定,而不應對本發明實施例的實施過程構成任何限定。
本領域技術人員在考慮說明書及實踐這裡公開的發明後,將容易想到本發明的其它實施方案。本發明的實施例旨在涵蓋本發明的任何變型、用途或者適應性變化,這些變型、用途或者適應性變化遵循本發明的一般性原理並包括本發明未公開的本技術領域中的公知常識或慣用技術手段。說明書和實施例僅被視為示例性的,本發明的真正範圍和精神由下面的申請專利範圍指出。
應當理解的是,本發明並不局限於上面已經描述並在附圖中示出的精確結構,並且可以在不脫離其範圍進行各種修改和改變。本發明的範圍僅由所附的申請專利範圍來限制。
工業實用性
本發明實施例通過初始的資料增強策略和訓練資料,對經過第一階段訓練的資料處理模型進行第二階段訓練,根據經過第二階段訓練的資料處理模型,對資料增強策略進行更新。這樣,可以充分利用資料增強策略對資料處理模型的後期訓練影響更大的特點,在確保資料增強策略品質的同時,提高資料增強策略的生成效率。
201:終端設備
202:伺服器
901:獲取部分
902:訓練部分
903:更新部分
1001:獲取部分
1002:處理部分
1101:處理器
1102:記憶體
1200:更新裝置
1201:處理組件
1202:記憶體
1203:電源組件
1204:網路介面
1205:輸入輸出介面
S301~S303:步驟
S401~S406:步驟
S501~S505:步驟
S601~S608:步驟
S801~S802:步驟
此處的附圖被併入說明書中並構成本說明書的一部分,示出了符合本發明的實施例,並與說明書一起用於解釋本發明的原理。
圖1為資料增強與圖像分類模型的訓練效果之間的關係示例圖;
圖2為本發明一實施例提供的網路架構示意圖;
圖3為本發明一實施例提供的資料增強策略的更新方法的流程示意圖;
圖4為本發明另一實施例提供的資料增強策略的更新方法的流程示意圖;
圖5為本發明另一實施例提供的資料增強策略的更新方法的流程示意圖;
圖6為本發明另一實施例提供的資料增強策略的更新方法的流程示意圖;
圖7為本發明另一實施例提供的多個資料增強策略並行更新的示例圖;
圖8為本發明一實施例提供的資料處理方法的流程示意圖;
圖9為本發明一實施例提供的資料增強策略的更新裝置的結構示意圖;
圖10為本發明一實施例提供的資料處理裝置的結構示意圖;
圖11為本發明一實施例提供的電子設備的結構示意圖;
圖12為根據本實施例提供的資料增強策略的更新裝置的方塊圖。
通過上述附圖,已示出本發明明確的實施例,後文中將有更詳細的描述。這些附圖和文字描述並不是為了通過任何方式限制本發明構思的範圍,而是通過參考特定實施例為本領域技術人員說明本發明的概念。
S301~S303:步驟
Claims (14)
- 一種資料增強策略的更新方法,所述方法包括: 獲取初始的資料增強策略; 根據所述資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練; 根據經過第二階段訓練的資料處理模型,對所述資料增強策略進行更新,以得到更新後的資料增強策略。
- 根據請求項1所述的方法,還包括: 獲取第M次更新的所述資料增強策略,所述M大於或等於1; 根據第M次更新的所述資料增強策略和所述訓練資料,對所述經過第一階段訓練的資料處理模型進行第二階段訓練; 根據經過第二階段訓練的資料增強模型,對所述資料增強策略進行第M+1次更新。
- 根據請求項2所述的方法,其中,所述初始的資料增強策略的數量為多個,各所述資料增強策略的更新並行進行;所述方法還包括: 每預設的更新次數,根據所述經過第二階段訓練的資料處理模型,在更新後的各所述資料增強策略中,選取最優的資料增強策略; 在更新後的所述資料增強策略中,將除所述最優策略之外的各所述資料增強策略分別替換為所述最優的資料增強策略。
- 根據請求項1至3任一項所述的方法,其中,所述資料增強策略包括多個預設的資料增強操作;所述根據所述資料增強策略和預設的訓練資料,對預設的經過第一階段訓練的資料處理模型進行第二階段訓練,包括: 按照各所述資料增強操作,依次對所述訓練資料進行資料增強; 通過資料增強後的所述訓練資料,對所述經過第一階段訓練的資料處理模型進行第二階段訓練。
- 根據請求項1至3任一項所述的方法,其中,所述根據經過第二階段訓練的資料處理模型,對所述資料增強策略進行更新,包括: 根據所述經過第二階段訓練的資料處理模型,更新預設的策略模型; 通過更新後的所述策略模型,確定各個預設策略的選中概率; 按照各所述預設策略的選中概率,在各所述預設策略中選取更新後的所述資料增強策略。
- 根據請求項5所述的方法,其中,在所述資料增強策略的更新次數為多次的情況下,所述根據經過第二階段訓練的資料處理模型,更新預設的策略模型,包括: 根據預設的驗證資料,對所述經過第二階段訓練的資料處理模型進行檢驗,得到檢驗結果; 獲取所述資料增強策略的前N-1次更新中所述經過第二階段的資料處理模型的歷史檢驗結果,所述N為所述資料增強策略當前更新的總次數; 根據所述歷史檢驗結果和所述檢驗結果,對所述策略模型進行更新。
- 根據請求項6所述的方法,其中,所述根據所述歷史檢驗結果和所述檢驗結果,對所述策略模型進行更新,包括: 確定所述歷史檢驗結果的均值; 確定所述檢驗結果和所述均值的差值; 根據所述差值,對所述策略模型中的策略參數進行更新。
- 根據請求項1至3任一項所述的方法,其中,所述獲取初始的資料增強策略之前,所述方法還包括: 在各個預設策略中,均勻隨機選取所述第一階段訓練中的資料增強策略; 根據所述第一階段訓練中的資料增強策略和所述訓練資料,對所述資料處理模型進行所述第一階段訓練。
- 一種資料處理方法,所述方法包括: 獲取待處理資料; 通過預先訓練好的資料處理模型,對所述待處理資料進行處理,所述資料處理模型依次經過第一階段訓練和第二階段訓練,在所述第二訓練階段中通過預設的資料增強策略和預設的訓練資料對所述資料處理模型進行訓練,所述資料增強策略採用如請求項1至8任一項所述的資料增強策略的更新方法進行生成。
- 根據請求項9所述的方法,還包括: 根據所述訓練資料,對所述資料處理模型進行所述第一階段訓練; 通過所述資料增強策略對所述訓練資料進行資料增強; 根據資料增強後的所述訓練資料,對經過所述第一階段訓練的資料處理模型進行所述第二階段訓練。
- 根據請求項10所述的方法,其中,所述根據所述訓練資料,對所述資料處理模型進行所述第一階段訓練,包括: 在各預設策略中,均勻隨機選取所述第一階段訓練中的資料增強策略; 根據所述第一階段訓練中的資料增強策略和所述訓練資料,對所述資料處理模型進行所述第一階段訓練。
- 根據請求項9至11任一項所述的方法,其中,所述待處理資料和所述訓練資料為圖像資料或者文本資料。
- 一種電子設備,包括:記憶體和處理器; 所述記憶體用於儲存程式指令; 所述處理器用於調用所述記憶體中的程式指令執行如請求項1至8中任一項或者請求項9至12中任一項所述的方法。
- 一種電腦可讀儲存介質,其中,所述電腦可讀儲存介質上儲存有電腦程式;所述電腦程式被執行時,實現如請求項1至8中任一項或者請求項9至12中任一項所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010519507.3 | 2020-06-09 | ||
CN202010519507.3A CN111695624B (zh) | 2020-06-09 | 2020-06-09 | 数据增强策略的更新方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202147180A true TW202147180A (zh) | 2021-12-16 |
TWI781576B TWI781576B (zh) | 2022-10-21 |
Family
ID=72479980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110112619A TWI781576B (zh) | 2020-06-09 | 2021-04-07 | 資料增強策略的更新方法、設備及儲存介質 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP2022541370A (zh) |
KR (1) | KR20220004692A (zh) |
CN (1) | CN111695624B (zh) |
TW (1) | TWI781576B (zh) |
WO (1) | WO2021248791A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111695624B (zh) * | 2020-06-09 | 2024-04-16 | 北京市商汤科技开发有限公司 | 数据增强策略的更新方法、装置、设备及存储介质 |
CN114462628A (zh) * | 2020-11-09 | 2022-05-10 | 华为技术有限公司 | 数据增强方法、装置、计算设备以及计算机可读存储介质 |
CN113537406B (zh) * | 2021-08-30 | 2023-04-07 | 重庆紫光华山智安科技有限公司 | 一种图像自动数据增强方法、系统、介质及终端 |
CN114665986B (zh) * | 2022-03-15 | 2023-05-16 | 深圳市百泰实业股份有限公司 | 一种蓝牙钥匙的测试系统及方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9449283B1 (en) * | 2012-08-20 | 2016-09-20 | Context Relevant, Inc. | Selecting a training strategy for training a machine learning model |
CN111758105A (zh) * | 2018-05-18 | 2020-10-09 | 谷歌有限责任公司 | 学习数据增强策略 |
US10814881B2 (en) * | 2018-10-16 | 2020-10-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle velocity predictor using neural networks based on V2X data augmentation to enable predictive optimal control of connected and automated vehicles |
CN109961098B (zh) * | 2019-03-22 | 2022-03-01 | 中国科学技术大学 | 一种机器学习的训练数据选择方法 |
CN110110861B (zh) * | 2019-05-09 | 2021-11-26 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
CN110807109A (zh) * | 2019-11-08 | 2020-02-18 | 北京金山云网络技术有限公司 | 数据增强策略的生成方法、数据增强方法和装置 |
CN111127364B (zh) * | 2019-12-26 | 2022-08-02 | 吉林大学 | 图像数据增强策略选择方法及人脸识别图像数据增强方法 |
CN111695624B (zh) * | 2020-06-09 | 2024-04-16 | 北京市商汤科技开发有限公司 | 数据增强策略的更新方法、装置、设备及存储介质 |
-
2020
- 2020-06-09 CN CN202010519507.3A patent/CN111695624B/zh active Active
- 2020-11-02 JP JP2021569392A patent/JP2022541370A/ja active Pending
- 2020-11-02 WO PCT/CN2020/125967 patent/WO2021248791A1/zh active Application Filing
- 2020-11-02 KR KR1020217038153A patent/KR20220004692A/ko active Search and Examination
-
2021
- 2021-04-07 TW TW110112619A patent/TWI781576B/zh active
Also Published As
Publication number | Publication date |
---|---|
JP2022541370A (ja) | 2022-09-26 |
TWI781576B (zh) | 2022-10-21 |
CN111695624A (zh) | 2020-09-22 |
KR20220004692A (ko) | 2022-01-11 |
WO2021248791A1 (zh) | 2021-12-16 |
CN111695624B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI781576B (zh) | 資料增強策略的更新方法、設備及儲存介質 | |
CN110163234B (zh) | 一种模型训练方法、装置和存储介质 | |
CN110210560B (zh) | 分类网络的增量训练方法、分类方法及装置、设备及介质 | |
WO2018227800A1 (zh) | 一种神经网络训练方法及装置 | |
CN107766245B (zh) | 基于ott策略的可变力度组合测试用例优先级在线排序方法 | |
CN112949678B (zh) | 深度学习模型对抗样本生成方法、系统、设备及存储介质 | |
KR20160037022A (ko) | 부스트 풀링 뉴럴 네트워크 기반의 데이터 분류 장치 및 그 데이터 분류 장치를 위한 뉴럴 네트워크 학습 방법 | |
WO2020238039A1 (zh) | 神经网络搜索方法及装置 | |
EP3542319A1 (en) | Training neural networks using a clustering loss | |
WO2023165139A1 (zh) | 模型量化方法、装置、设备、存储介质及程序产品 | |
US10635078B2 (en) | Simulation system, simulation method, and simulation program | |
US20160070705A1 (en) | Interactive feedback for changes in search relevancy parameters | |
CN110991621A (zh) | 一种基于通道数搜索卷积神经网络的方法 | |
WO2021253938A1 (zh) | 一种神经网络的训练方法、视频识别方法及装置 | |
JP2018173909A (ja) | 学習プログラム、学習方法および学習装置 | |
US11507782B2 (en) | Method, device, and program product for determining model compression rate | |
CN116402126A (zh) | 一种防御数据投毒攻击的联邦学习方法 | |
CN115170902B (zh) | 图像处理模型的训练方法 | |
CN114677535A (zh) | 域适应图像分类网络的训练方法、图像分类方法及装置 | |
CN110866877B (zh) | 基于约束粒子群算法的色彩校正方法、装置及终端设备 | |
CN112488319B (zh) | 一种具有自适应配置生成器的调参方法和系统 | |
Zhang | One-dimensional Arimoto entropy threshold segmentation method based on parameters optimization | |
KR20130114417A (ko) | 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법 | |
CN110969599B (zh) | 基于图像属性的目标检测算法性能总体测评方法及系统 | |
Rafailidis et al. | Indexing media storms on flink |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GD4A | Issue of patent certificate for granted invention patent |