TWI844284B - 跨域分類器的訓練方法與電子裝置 - Google Patents
跨域分類器的訓練方法與電子裝置 Download PDFInfo
- Publication number
- TWI844284B TWI844284B TW112106835A TW112106835A TWI844284B TW I844284 B TWI844284 B TW I844284B TW 112106835 A TW112106835 A TW 112106835A TW 112106835 A TW112106835 A TW 112106835A TW I844284 B TWI844284 B TW I844284B
- Authority
- TW
- Taiwan
- Prior art keywords
- training
- samples
- classifier
- categories
- category
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012360 testing method Methods 0.000 claims abstract description 58
- 238000006243 chemical reaction Methods 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 description 8
- 101000827703 Homo sapiens Polyphosphoinositide phosphatase Proteins 0.000 description 4
- 102100023591 Polyphosphoinositide phosphatase Human genes 0.000 description 4
- 101100233916 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) KAR5 gene Proteins 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 101001121408 Homo sapiens L-amino-acid oxidase Proteins 0.000 description 2
- 102100026388 L-amino-acid oxidase Human genes 0.000 description 2
- 101100012902 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) FIG2 gene Proteins 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本發明提出一種跨域分類器的訓練方法,包括以下步驟:(a)取得第一資料庫的訓練樣本以及第二資料庫的測試樣本;(b)透過分類器對測試樣本進行推論程序以產生對應的多個預測標籤;(c)對於某個類別,取得屬於此類別的訓練樣本以及測試樣本,並根據取得的訓練樣本以及測試樣本訓練生成對抗網路;(d)根據生成對抗網路對取得的訓練樣本進行風格轉換以得到多個合成樣本;(e)將合成樣本合併至訓練樣本以訓練分類器;以及重複上述的步驟(b)至步驟(e)。透過上述迭代的方式可以訓練適用於跨域資料庫的分類器。
Description
本揭露是關於分類器的訓練方法與電子裝置,能夠處理多個資料庫(跨域)的樣本。
機器學習演算法可用來訓練一個分類器,此分類器可用來對資料進行分類,例如將一張照片分類為包含人與不包含人兩種類別。在訓練分類器時需要大量的訓練樣本,但通常這些訓練樣本來自於相同的資料庫,同一個資料庫的訓練樣本具有若干相同的屬性,例如影像是由相同的設備來擷取、具有類似的色調、類似的背景等。然而,在各種應用或比賽中,測試樣本與訓練樣本可能屬於不同的資料庫,也就是說測試樣本可能與訓練樣本具有差異很大的屬性,這樣通常會導致分類的準確度下降,如何處理這樣的問題,為此領域技術人員所關心的議題。
本揭露的實施例提出一種跨域分類器的訓練方法,適用於電腦系統,此訓練方法包括多個步驟:(a)取得第一資料庫的多個訓練樣本,取得第二資料庫的多個測試樣本,其中每個訓練樣本具有真實標籤,真實標籤屬於多個類別的其中之一;(b)透過分類器對測試樣本進行推論程序以產生對應的多個預測標籤,每個預測標籤屬於上述類別的其中之一;(c)對於其中一個類別,取得屬於此類別的真實標籤所對應的訓練樣本以及屬於此類別的預測標籤所對應的測試樣本,並根據取得的訓練樣本以及取得的測試樣本訓練生成對抗網路;(d)根據生成對抗網路對取得的訓練樣本進行風格轉換以得到多個合成樣本;(e)將合成樣本合併至訓練樣本以訓練分類器;以及重複上述的步驟(b)至步驟(e)。
在一些實施例中,每個預測標籤具有一信心值,步驟(c)包括:取得屬於對應類別且信心值大於一臨界值的預測標籤所對應的測試樣本;以及隨著訓練時期(epoch)增加臨界值。
在一些實施例中,在步驟(b)之前,訓練方法還包括:根據訓練樣本預訓練分類器;以及根據訓練樣本以及測試樣本預訓練生成對抗網路。
在一些實施例中,訓練樣本與測試樣本為眼睛影像,上述的類別包含真類別與假類別。
在一些實施例中,步驟(c)包括:對於不同的類別訓練不同的生成對抗網路。
以另一個角度來說,本揭露的實施例提出一種電子裝置,包括記憶體與處理器。記憶體儲存有多個指令,處理器通訊連接至記憶體,用以執行指令已完成上述的訓練方法。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
關於本文中所使用之「第一」、「第二」等,並非特別指次序或順位的意思,其僅為了區別以相同技術用語描述的元件或操作。
圖1是根據一實施例繪示電子裝置的示意圖。請參照圖1,電子裝置100可以是智慧型手機、平板電腦、個人電腦、筆記型電腦、伺服器、分散式電腦、雲端伺服器、工業電腦或具有計算能力的各種電子裝置等,本發明並不在此限。電子裝置100包括了處理器110與記憶體120,處理器110通訊連接至記憶體120,在此通訊連接可以透過任意有線或無線的通訊手段來達成,或者也可透過互聯網來達成。處理器110可為中央處理器、微處理器、微控制器、影像處理晶片、特殊應用積體電路等,記憶體120可為隨機存取記憶體、唯讀記憶體、快閃記憶體、軟碟、硬碟、光碟、隨身碟、磁帶或是可透過網際網路存取之資料庫,其中儲存有多個指令,處理器110會執行這些指令來完成一個跨域分類器的訓練方法。
大致上來說,本揭露繪訓練一個分類器與多個生成對抗網路,生成對抗網路用以對訓練樣本進行風格轉換以增加訓練資料量,而分類器用以提供測試樣本的標籤,分類過的測試樣本則提供給生成對抗網路訓練。也就是說,在此是以迭代的方式來回訓練分類器與生成對抗網路。以下將詳細說明此方法。
圖2是根據一些實施例繪示樣本的示意圖。請參照圖2,在一些實施例中所處理的樣本為影像,內容包含了人眼,這些影像可用於虹膜辨識。虹膜具有唯一性、穩定性、非侵入性、活體檢測等特點,十分適合應用於生物識別技術。由於虹膜辨識系統日益普及且不需人工監督,這使得抵禦攻擊的安全性變得至關重要,而最常見的安全漏洞為演示攻擊(Presentation Attack)。演示攻擊的定義為「以干擾生物識別系統操作為目標的生物識別數據捕獲子系統的演示」,換句話說,意旨將攻擊樣本呈現給虹膜感測器,用以操縱系統做出錯誤決定,攻擊者可能已經獲取了可以訪問系統的個人虹膜影像,並希望藉由演示攻擊樣本而授予訪問權限。例如,影像201為真實且可被授權的人眼影像,而影像202是透過紙張列印或是在螢幕上顯示所產生的攻擊樣本。影像203為真實且可被授權的影像,而影像204是使用有紋理的隱形眼鏡鏡片所產生。影像205是真實且可被授權的影像,而影像206是透過人工智慧等技術所產生的合成影像。影像207是真實且可被授權的影像,而影像208是死者的影像,在死後的幾個小時內,虹膜的紋理依然完好無損,足以欺騙系統。
在此所要訓練的分類器是用辨識影像為真實或是虛假(即攻擊樣本)。然而,以下所揭露的技術也可以應用於其他類別,例如判別影像中的物件屬於人、貓、狗、汽車等類別。或者,以下所揭露的技術也可以應用於聲音訊號、文字、心電圖、醫學影像等各種資料。
圖3是根據一實施例繪示跨域分類器的訓練方法的流程圖。圖4是根據一實施例繪示訓練時樣本分配的示意圖。請參照圖3與圖4,在步驟301,取得第一資料庫的訓練樣本,並取得第二資料庫的測試樣本,這些訓練樣本與測試樣本例如為眼睛影像。此第一資料庫與第二資料庫可由不同的機構所提供、或由不同的設備所擷取、或在不同的場所取得、或者其中一個資料庫是在比賽前公開,另一個資料庫是比賽時所要測試的資料庫,本揭露並不在此限。每個訓練樣本有一個真實標籤(ground truth),此真實標籤屬於多個類別的其中之一。在此實施例中,第一類別稱為真類別(True),第二類別稱為假類別(False)。在圖3中,上述的訓練樣本會依照類別而區分為第一類別的訓練樣本421與第二類別的訓練樣本422。測試樣本410則沒有真實標籤。值得一提的是,在以下的“符號說明”中標記的是“411:測試樣本”,但在圖4中為了清楚起見,額外加上了“第一類別的”等說明,對於測試樣本412則以此類推,這是為了清楚描述第一類別與第二類別所形成的兩個分支。
接下來在步驟302,透過分類器430對測試樣本410進行推論程序以產生對應的多個預測標籤。在此分類器430可以採用任意的機器學習演算法,例如為卷積神經網路、支持向量機、隨機森林等等,本揭露並不在此限。在一些實施例中,卷積神經網路的架構可以採用LeNet、AlexNet、VGG、GoogLeNet、ResNet、DenseNet、EfficientNet或是YOLO(You Only Look Once)等。在此實施例中,每個預測標籤會屬於第一類別或是第二類別,依照所預測(即推論)的類別,測試樣本410可分為第一類別的測試樣本411以及第二類別的測試樣本412。
每一個類別都有一個分支,例如第一類別對應至步驟303與步驟304,第二類別對應至步驟305與步驟306。以下先以第一類別為例來說明。在步驟303,取得屬於第一類別的真實標籤所對應的訓練樣本421以及屬於第一類別的預測標籤所對應的測試樣本411,並根據取得的訓練樣本421以及測試樣本411來訓練生成對抗網路441。在此實施例中,生成對抗網路441是採用論文Park, Taesung, et al. "Contrastive learning for unpaired image-to-image translation."
European conference on computer vision. Springer, Cham, 2020所提出的網路架構。在其他實施例中,生成對抗網路441也可為循環生成對抗網路(Cycle-Consistent Adversarial Network,cycleGan)或任意合適的生成對抗網路。生成對抗網路可用將一個機率分佈轉換至另一個機率分佈,目前已經有廣泛的應用,例如改變人臉的方向、表情、特徵、膚色等等,在此是採用生成對抗網路來把樣本從一個資料庫的風格轉換至另一個資料庫的風格,藉此進行風格轉換。在此是將訓練樣本當作生成對抗網路的資源域,而測試樣本當作是生成對抗網路的目標域。
在步驟304,根據生成對抗網路441對取得的訓練樣本421進行風格轉換以得到多個合成樣本451。也就是說,合成樣本451具有訓練樣本的內容但具有測試樣本的風格,合成樣本451的標籤則相同於對應訓練樣本421的真實標籤。關於風格轉換的範例請參照圖6,影像610屬於第一資料庫的真類別,在轉換為第二資料庫的風格以後得到影像611。
對於步驟305、306也進行類似的處理。在步驟305中,取得屬於第二類別的真實標籤所對應的訓練樣本422以及屬於第二類別的預測標籤所對應的測試樣本412,並根據取得的訓練樣本422以及測試樣本412訓練生成對抗網路442。生成對抗網路442可以和生成對抗網路441具有相同的架構,但是由不同的資料所訓練。換言之,對於不同的類別會訓練出不同的生成對抗網路441、442。在步驟306,根據生成對抗網路442對取得的訓練樣本422進行風格轉換以得到多個合成樣本452,合成樣本452的標籤相同於對應訓練樣本422的標籤。關於風格轉換的範例請參照圖6,影像620屬於第一資料庫的假類別,在轉換為第二資料庫的風格以後得到影像621。
接下來,在步驟307中,將合成樣本合併至訓練樣本以訓練分類器。具體來說,合成樣本451與訓練樣本421都具有“真實”的標籤,因此可合併在一起成為正樣本(positive sample)461。另外,合成樣本452與訓練樣本422都具有“虛假”的標籤,因此可合併在一起成為反樣本(negative sample)462。根據正樣本461與反樣本462可訓練分類器430。
最後,重複執行步驟302~307,直到誤差收斂為止。因此,在此是採用迭代的方式進行訓練,首先將測試樣本410輸入至分類器430進行分類,根據分類結果給予一個暫時的預測標籤,接著透過生成對抗網路根據相同類別的訓練樣本與測試樣本進行訓練,然後把把訓練樣本進行風格轉換,這樣可以增加訓練集的資料量。隨著分類器430的分類能力越精準,透過生成對抗網路能夠對訓練集更有效的增量,這也導致分類器430越精準,最後分類器430能夠成功判別測試樣本的類別。
圖4的架構在訓練初期可能會有一些問題,第一是分類器430一開始的分類準確度不佳,可能將分類錯誤的測試樣本410輸入至生成對抗網路,這使得生成對抗網路中兩個輸入代表不同的類別,使得資源域與目標域不匹配,後續進行風格轉換以後所產生的合成樣本無法有效的幫助分類器430訓練。第二個問題是生成對抗網路441、442尚未訓練完畢,因此生成的影像品質可能沒有很好,無法幫助分類器430訓練。有鑑於此,在一些實施例中加入了預熱(warn up)機制,此預熱機制是執行在迭代程序(圖3的步驟302~307)之前。
圖5是根據一實施例繪示預熱機制的示意圖。預測機制包含了兩個訓練時期(epoch)510、520。在訓練時期510,根據訓練樣本421、422預訓練分類器430。接著在訓練時期520,把訓練樣本421、422當作資源域,把測試樣本410當作目標域,藉此預訓練生成對抗網路441、442。在訓練時期520也可以根據訓練樣本421、422繼續訓練分類器430。在預訓練的時候,分類器430的分類結果不會當作是生成對抗網路441、442,而生成對抗網路441、442的輸出也不會合併至訓練資料來訓練分類器430。也就是說,此時分類器430與生成對抗網路441、442是分開訓練。在一些實施例中,訓練時期510的長度為20,訓練時期520的長度為20,但本揭露並不限於此。
請參照回圖3與圖4,當分類器430進行堆論程序時,對於每一個預測標籤也會產生一個信心值,也可以稱分類為該類別的機率。在進行步驟303與步驟305時,也可以只取得信心值大於一臨界值的預測標籤所對應的測試樣本。例如,臨界值為0.6,當一個測試樣本被分類為第一類別但信心值小於0.6時,此測試樣本並不會被挑選作為生成對抗網路441的輸入。設定臨界值是為了確保影像的品質,減少錯誤分類的測試樣本輸入至生成對抗網路441、442中。在一些實施例中,也可以隨著訓練時期(epoch)增加臨界值,例如前20個訓練時期臨界值為0.7,接下來的20個訓練時期則臨界值為0.8,以此類推。隨著訓練進行,分類器430的分類準確度會逐步提升,所產生的信心值也會增加,因此可以逐漸增加臨界值,採用更高的臨界值可以取得分類更準確的測試樣本。
在上述的方法中,主要特色在於採用迭代的方式來訓練分類器與生成對抗網路,生成對抗網路可用來進行風格轉換以增加訓練集的資料量,分類器則可以給予測試樣本暫時的標籤以訓練生成對抗網路,兩者的效能會一起提升。此外,由於進行了風格轉換,因此分類器可以更好的適應於測試資料集的風格。在一些跨域實驗中,上述技術的平均分類錯誤率比已知的方法減少了約9.17%。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100:電子裝置
110:處理器
120:記憶體
201~208:影像
301~307:步驟
410,411,412:測試樣本
421,422:訓練樣本
430:分類器
441,442:生成對抗網路
451,452:合成樣本
461:正樣本
462:反樣本
510,520:訓練時期
610,611,620,621:影像
圖1是根據一實施例繪示電子裝置的示意圖。
圖2是根據一些實施例繪示樣本的示意圖。
圖3是根據一實施例繪示跨域分類器的訓練方法的流程圖。
圖4是根據一實施例繪示訓練時樣本分配的示意圖。
圖5是根據一實施例繪示預熱機制的示意圖。
圖6是根據一實施例繪示影像進行風格轉換後的範例。
410,411,412:測試樣本
421,422:訓練樣本
430:分類器
441,442:生成對抗網路
451,452:合成樣本
461:正樣本
462:反樣本
Claims (10)
- 一種跨域分類器的訓練方法,適用於一電腦系統,該訓練方法包括多個步驟: (a)取得一第一資料庫的多個訓練樣本,取得一第二資料庫的多個測試樣本,其中每一該些訓練樣本具有一真實標籤,該真實標籤屬於多個類別的其中之一; (b)透過一分類器對該些測試樣本進行推論程序以產生對應的多個預測標籤,每一該些預測標籤屬於該些類別的其中之一; (c)對於該些類別的其中之一,取得屬於該類別的該真實標籤所對應的該些訓練樣本以及屬於該類別的該些預測標籤所對應的該些測試樣本,並根據取得的該些訓練樣本以及取得的該些測試樣本訓練一生成對抗網路; (d)根據該生成對抗網路對取得的該些訓練樣本進行一風格轉換以得到多個合成樣本; (e)將該些合成樣本合併至該些訓練樣本以訓練該分類器;以及 重複該步驟(b)至該步驟(e)。
- 如請求項1所述之跨域分類器的訓練方法,其中每一該些預測標籤具有一信心值,該步驟(c)包括: 取得屬於該類別且該信心值大於一臨界值的該些預測標籤所對應的該些測試樣本;以及 隨著訓練時期(epoch)增加該臨界值。
- 如請求項1所述之跨域分類器的訓練方法,其中在該步驟(b)之前,該訓練方法還包括: 根據該些訓練樣本預訓練該分類器;以及 根據該些訓練樣本以及該些測試樣本預訓練該生成對抗網路。
- 如請求項1所述之跨域分類器的訓練方法,其中該些訓練樣本與該些測試樣本為眼睛影像,該些類別包含真類別與假類別。
- 如請求項1所述之跨域分類器的訓練方法,其中該步驟(c)包括: 對於不同的該些類別訓練不同的該生成對抗網路。
- 一種電子裝置,包括: 一記憶體,儲存有多個指令;以及 一處理器,通訊連接至該記憶體,用以執行該些指令已完成多個步驟: (a)取得一第一資料庫的多個訓練樣本,取得一第二資料庫的多個測試樣本,其中每一該些訓練樣本具有一真實標籤,該真實標籤屬於多個類別的其中之一; (b)透過一分類器對該些測試樣本進行推論程序以產生對應的多個預測標籤,每一該些預測標籤屬於該些類別的其中之一; (c)對於該些類別的其中之一,取得屬於該類別的該真實標籤所對應的該些訓練樣本以及屬於該類別的該些預測標籤所對應的該些測試樣本,並根據取得的該些訓練樣本以及取得的該些測試樣本訓練一生成對抗網路; (d)根據該生成對抗網路對取得的該些訓練樣本進行一風格轉換以得到多個合成樣本; (e)將該些合成樣本合併至該些訓練樣本以訓練該分類器;以及 重複該步驟(b)至該步驟(e)。
- 如請求項6所述之電子裝置,其中每一該些預測標籤具有一信心值,該步驟(c)包括: 取得屬於該類別且該信心值大於一臨界值的該些預測標籤所對應的該些測試樣本;以及 隨著訓練時期(epoch)增加該臨界值。
- 如請求項6所述之電子裝置,其中在該步驟(b)之前,該訓練方法還包括: 根據該些訓練樣本預訓練該分類器;以及 根據該些訓練樣本以及該些測試樣本預訓練該生成對抗網路。
- 如請求項6所述之電子裝置,其中該些訓練樣本與該些測試樣本為眼睛影像,該些類別包含真類別與假類別。
- 如請求項6所述之電子裝置,其中該步驟(c)包括: 對於不同的該些類別訓練不同的該生成對抗網路。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW112106835A TWI844284B (zh) | 2023-02-24 | 2023-02-24 | 跨域分類器的訓練方法與電子裝置 |
US18/332,764 US20240290072A1 (en) | 2023-02-24 | 2023-06-12 | Method and electrical device for training cross-domain classifier |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW112106835A TWI844284B (zh) | 2023-02-24 | 2023-02-24 | 跨域分類器的訓練方法與電子裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI844284B true TWI844284B (zh) | 2024-06-01 |
TW202435123A TW202435123A (zh) | 2024-09-01 |
Family
ID=92460948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW112106835A TWI844284B (zh) | 2023-02-24 | 2023-02-24 | 跨域分類器的訓練方法與電子裝置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240290072A1 (zh) |
TW (1) | TWI844284B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111241291A (zh) * | 2020-04-24 | 2020-06-05 | 支付宝(杭州)信息技术有限公司 | 利用对抗生成网络生成对抗样本的方法及装置 |
US20210192335A1 (en) * | 2019-12-20 | 2021-06-24 | Robert Bosch Gmbh | System and method of robust active learning method using noisy labels and domain adaptation |
CN113255551A (zh) * | 2021-06-04 | 2021-08-13 | 广州虎牙科技有限公司 | 一种人脸编辑器的训练、人脸编辑、直播方法及相关装置 |
TW202203152A (zh) * | 2020-05-22 | 2022-01-16 | 加拿大商日本電產理德檢驗加拿大股份有限公司 | 訓練自動缺陷分類之檢測儀器的方法與系統及其儲存媒體 |
TW202211167A (zh) * | 2020-09-04 | 2022-03-16 | 財團法人工業技術研究院 | 執行影像多模態轉換之生成式對抗網路的訓練方法與訓練系統 |
CN114818947A (zh) * | 2022-05-05 | 2022-07-29 | 北京百度网讯科技有限公司 | 分类器的训练方法及装置、分类装置 |
US20220414430A1 (en) * | 2021-06-24 | 2022-12-29 | International Business Machines Corporation | Data simulation using a generative adversarial network (gan) |
CN115690534A (zh) * | 2022-10-26 | 2023-02-03 | 中国科学院计算技术研究所 | 一种基于迁移学习的图像分类模型的训练方法 |
-
2023
- 2023-02-24 TW TW112106835A patent/TWI844284B/zh active
- 2023-06-12 US US18/332,764 patent/US20240290072A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210192335A1 (en) * | 2019-12-20 | 2021-06-24 | Robert Bosch Gmbh | System and method of robust active learning method using noisy labels and domain adaptation |
CN111241291A (zh) * | 2020-04-24 | 2020-06-05 | 支付宝(杭州)信息技术有限公司 | 利用对抗生成网络生成对抗样本的方法及装置 |
TW202203152A (zh) * | 2020-05-22 | 2022-01-16 | 加拿大商日本電產理德檢驗加拿大股份有限公司 | 訓練自動缺陷分類之檢測儀器的方法與系統及其儲存媒體 |
TW202211167A (zh) * | 2020-09-04 | 2022-03-16 | 財團法人工業技術研究院 | 執行影像多模態轉換之生成式對抗網路的訓練方法與訓練系統 |
CN113255551A (zh) * | 2021-06-04 | 2021-08-13 | 广州虎牙科技有限公司 | 一种人脸编辑器的训练、人脸编辑、直播方法及相关装置 |
US20220414430A1 (en) * | 2021-06-24 | 2022-12-29 | International Business Machines Corporation | Data simulation using a generative adversarial network (gan) |
CN114818947A (zh) * | 2022-05-05 | 2022-07-29 | 北京百度网讯科技有限公司 | 分类器的训练方法及装置、分类装置 |
CN115690534A (zh) * | 2022-10-26 | 2023-02-03 | 中国科学院计算技术研究所 | 一种基于迁移学习的图像分类模型的训练方法 |
Also Published As
Publication number | Publication date |
---|---|
US20240290072A1 (en) | 2024-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Abdullakutty et al. | A review of state-of-the-art in Face Presentation Attack Detection: From early development to advanced deep learning and multi-modal fusion methods | |
WO2016172872A1 (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
TW202004637A (zh) | 一種風險預測方法、存儲介質和伺服器 | |
de Souza et al. | Deep features extraction for robust fingerprint spoofing attack detection | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
Dagar et al. | A literature review and perspectives in deepfakes: generation, detection, and applications | |
US20190147218A1 (en) | User specific classifiers for biometric liveness detection | |
CN111222380B (zh) | 一种活体检测方法、装置、及其识别模型训练方法 | |
Anthony et al. | A review of face anti-spoofing methods for face recognition systems | |
Hernandez-Ortega et al. | Deepfakes detection based on heart rate estimation: Single-and multi-frame | |
CN112818774A (zh) | 一种活体检测方法及装置 | |
Agarwal et al. | Presentation attack detection system for fake Iris: a review | |
Kumar et al. | Deepfake image detection using CNNs and transfer learning | |
Damer et al. | On learning joint multi-biometric representations by deep fusion | |
Guefrachi et al. | Deep learning based DeepFake video detection | |
TWI844284B (zh) | 跨域分類器的訓練方法與電子裝置 | |
Hossain et al. | Realtime person identification using ear biometrics | |
TW202435123A (zh) | 跨域分類器的訓練方法與電子裝置 | |
Verma et al. | A survey on data-driven iris spoof detectors: state-of-the-art, open issues and future perspectives | |
Sallam et al. | Iris recognition system using deep learning techniques | |
Meenakshi et al. | A comprehensive survey on iris presentation attacks and detection based on generative adversarial network | |
Costache et al. | Identifying persons from iris image | |
Marutotamtama et al. | Face Recognition and Face Spoofing Detector for Attendance System | |
Vidhya et al. | Iris Recognition-A Multilayer Algorithm based: CNN and Transfer Learning | |
Saxena et al. | DRNET: Improved Deep Learning Solution to detect Diabetic Retinopathy by incorporating Explainability, Uncertainty and Generalisation |