TWI770947B - 基於攻擊型圖像風格轉換的驗證方法及系統 - Google Patents

基於攻擊型圖像風格轉換的驗證方法及系統 Download PDF

Info

Publication number
TWI770947B
TWI770947B TW110114045A TW110114045A TWI770947B TW I770947 B TWI770947 B TW I770947B TW 110114045 A TW110114045 A TW 110114045A TW 110114045 A TW110114045 A TW 110114045A TW I770947 B TWI770947 B TW I770947B
Authority
TW
Taiwan
Prior art keywords
image
style
verification
stylized
images
Prior art date
Application number
TW110114045A
Other languages
English (en)
Other versions
TW202242685A (zh
Inventor
吳尚鴻
李彥霆
吳義路
Original Assignee
國立清華大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立清華大學 filed Critical 國立清華大學
Priority to TW110114045A priority Critical patent/TWI770947B/zh
Priority to US17/337,440 priority patent/US20220335114A1/en
Application granted granted Critical
Publication of TWI770947B publication Critical patent/TWI770947B/zh
Publication of TW202242685A publication Critical patent/TW202242685A/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

一種基於攻擊型圖像風格轉換的驗證方法。此方法包括下列步驟:對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一種風格的多張風格化圖像,其中所述風格轉換包括在維持驗證圖像的全局樣式的情況下,改變驗證圖像的局部樣式;對驗證圖像及風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號;以及提示經處理的風格化圖像,並接收對於風格化圖像的選擇操作,據以驗證執行選擇操作的對象的身分。

Description

基於攻擊型圖像風格轉換的驗證方法及系統
本發明是有關於一種驗證方法及系統,且特別是有關於一種基於攻擊型圖像風格轉換的驗證方法及系統。
驗證碼是一種自動的圖形測試,目的在於區分人類和機器人,藉此來阻擋一些自動化程式,例如,搶票程式或網路爬蟲。這些機器人可能會大量且惡意地存取網站,對網站的服務和收益造成危害。如今,驗證碼的應用非常廣泛,在許多網站都可以看到它的存在。自從驗證碼被廣泛使用後,市面上出現了許多不同的驗證碼應用。
現今的驗證碼可以根據它的題型,區分成文字驗證碼和圖形驗證碼,文字驗證碼通常要求使用者輸入圖形中的文字,其安全性主要仰賴於文字辨識的難度,例如可將圖中的文字扭曲,以增加機器人的辨識難度。圖形驗證碼會要求使用者從多個圖形 選項中選擇出特定類別的圖片。然而,隨著電腦視覺技術的發展,這些驗證碼的安全性正受到自動化程式的威脅。
因此,有必要發展一種能夠兼顧安全性和使用者體驗的驗證碼。
本發明提供一種基於攻擊型圖像風格轉換的驗證方法及系統,可同時兼顧驗證碼安全性和使用者體驗。
本發明提供一種基於攻擊型圖像風格轉換的驗證方法,適用於具備處理器的電子裝置。此方法包括下列步驟:對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一種風格的多張風格化圖像,其中所述風格轉換包括在維持驗證圖像的全局樣式的情況下,改變驗證圖像的局部樣式;對驗證圖像及風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號;以及提示經處理的風格化圖像,並接收對於風格化圖像的選擇操作,據以驗證執行選擇操作的對象的身分。
本發明提供一種基於攻擊型圖像風格轉換的驗證系統。所述驗證系統包括產生裝置及驗證裝置。所述產生裝置包括第一連接裝置、用以儲存電腦程式的第一儲存裝置以及耦接第一連接裝置及第一儲存裝置的第一處理器。所述驗證裝置包括輸入裝置、顯示裝置、第二連接裝置、用以儲存電腦程式的儲存裝置及耦接 輸入裝置、顯示裝置、第二連接裝置及第二儲存裝置的第二處理器。所述第一處理器經配置以載入並執行第一儲存裝置中的電腦程式以對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一風格的多張風格化圖像,其中所述風格轉換包括在維持驗證圖像的全局樣式的情況下,改變驗證圖像的局部樣式,並對驗證圖像及風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號,並產生經處理的風格化圖像。第二處理器經配置以載入並執行第二儲存裝置中的電腦程式以在顯示裝置上提示經處理的風格化圖像,並利用輸入裝置接收對於風格化圖像的選擇操作,據以驗證執行選擇操作的對象的身分。
基於上述,本發明的基於攻擊型圖像風格轉換的驗證方法及系統是將風格轉換(style transfer)應用到驗證碼,在不改變圖像整體內容的前提下,通過改變其局部區域內的風格特徵,並在風格化圖像或原始圖像中加入可增加機器人辨識難度的攻擊型特徵。藉此,基於本發明所產生的驗證碼能夠讓人類使用者輕易操作,同時增加機器人辨識圖像的難度。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
10:產生裝置
11、21:連接裝置
12、24:儲存裝置
13、25:處理器
20:驗證裝置
22:輸入裝置
23:顯示裝置
30:機器學習模型
302:編碼器
304:中間層
306:解碼器
32:內容圖像
34:風格圖像
36:風格化圖像
42、52:原始圖像
44:干擾訊號
46:加工圖像
54:毒害圖像
542:空白方塊
60、70、70a、80、90:操作介面
601:提示圖像
602、602a~602c、702、704、706、706a~706e、801、901、901a、901b:選項圖像
62、72、72a:更新按鍵
64、74、74a:驗證按鍵
802、902:選擇圖像
82、92:圖像內容
S202~S206:步驟
圖1是根據本發明一實施例所繪示的基於攻擊型圖像風格轉換的驗證系統的方塊圖。
圖2是依照本發明一實施例所繪示的基於攻擊型圖像風格轉換的驗證方法的流程圖。
圖3是依照本發明一實施例所繪示的利用機器學習模型進行風格轉換的系統架構圖。
圖4是依照本發明一實施例所繪示的對抗攻擊技術的實施範例。
圖5是依照本發明一實施例所繪示的後門攻擊技術的實施範例。
圖6A和圖6B是依照本發明一實施例所繪示的驗證碼測試的實施範例。
圖7A至圖7C是依照本發明一實施例所繪示的驗證碼測試的實施範例。
圖8A及圖8B是依照本發明一實施例所繪示的驗證碼測試的實施範例。
圖9A及圖9B是依照本發明一實施例所繪示的驗證碼測試的實施範例。
驗證碼的主要目的為區分人類與機器人,藉此降低機器人對於網站服務之威脅。因此,在評估一個驗證碼時,不僅要從 人的觀點,也要從機器人的觀點來看。本發明實施例通過將風格化轉換(style transfer)應用到驗證碼,同時加入可增加機器人辨識難度的攻擊型特徵,並基於此風格化圖像設計驗證碼的任務。其中,本發明實施例是通過維持圖像的全局樣式不變,而僅改變圖像的局部樣式,因此能夠在不影響使用者體驗的情況下,增加機器人辨識圖像的難度,而提升驗證碼安全性。
本發明實施例是將每一張圖像區分為圖像內容和圖像風格。其中,圖像內容是指圖像中的全局樣式(global pattern),或是會影響人類主觀認知的部分,例如圖像中所包含的主要物體。圖像風格則是指圖像中的區域圖形,或是對於人類主觀認知不會造成影響的部分,例如梵谷畫或油畫這類的作畫風格,這些風格不會大幅影響人類對於圖像中主要物體的認知。
本發明實施例的風格轉換是透過替換掉圖像的風格而保留內容來完成,由於內容保持不變,因此人類仍能夠從圖像本身判讀圖像的內容,而被替換掉的部分則可誤導機器人的判斷。因此,透過這項設計,本發明實施例的驗證系統能夠區分真人和機器人。
圖1是根據本發明一實施例所繪示的基於攻擊型圖像風格轉換的驗證系統的方塊圖。請參照圖1,本發明實施例的基於攻擊型圖像風格轉換的驗證系統包括產生裝置10及驗證裝置20。其中,產生裝置10例如是具有運算能力的檔案伺服器、資料庫伺服器、應用程式伺服器、上作站或個人電腦等計算機裝置,其中包 括連接裝置11、儲存裝置12及處理器13等元件。驗證裝置20例如是具有運算能力的檔案伺服器、資料庫伺服器、應用程式伺服器、上作站或個人電腦等計算機裝置,或是手機、平板電腦等行動裝置,其中包括連接裝置21、輸入裝置22、顯示裝置23、儲存裝置24及處理器25等元件。產生裝置10及驗證裝置20可以是彼此獨立的實體裝置,也可以整合為同一個實體裝置,在此不設限。上述產生裝置10及驗證裝置20中的各個元件的功能如下:連接裝置11及連接裝置21例如是彼此相對應的任意的有線或無線的介面裝置,其可用以在產生裝置10及驗證裝置20之間傳遞資料。對於有線方式而言,連接裝置11及連接裝置21可以是通用序列匯流排(universal serial bus,USB)、RS232、通用非同步接收器/傳送器(universal asynchronous receiver/transmitter,UART)、內部整合電路(I2C)、序列周邊介面(serial peripheral interface,SPI)、顯示埠(display port)或雷電埠(thunderbolt)等介面,但不限於此。對於無線方式而言,連接裝置11及連接裝置21可以是支援無線保真(wireless fidelity,Wi-Fi)、RFID、藍芽、紅外線、近場通訊(near-field communication,NFC)或裝置對裝置(device-to-device,D2D)等通訊協定的裝置,但不限於此。在一些實施例中,連接裝置11及連接裝置21亦可以是支援乙太網路(Ethernet)或是支援802.11g、802.11n、802.11ac等無線網路標準的網路卡,亦不限於此。
儲存裝置12及儲存裝置24分別例如是任意型式的固定 式或可移動式隨機存取記憶體(Random Access Memory,RAM)、唯讀記憶體(Read-Only Memory,ROM)、快閃記憶體(Flash memory)、硬碟或類似元件或上述元件的組合,而分別用以儲存可由處理器13及處理器25執行的電腦程式。
輸入裝置22例如是鍵盤、滑鼠、遙控器、觸控板、觸碰螢幕等輸入工具,用以偵測使用者的輸入操作。
顯示裝置23例如是採用液晶顯示器(Liquid Crystal Display,LCD)、發光二極體(Light-Emitting Diode,LED)、場發射顯示器(Field Emission Display,FED)或其他種類的面板做為顯示面板,並採用冷陰極螢光燈管(Cold Cathode Fluorescent Lamp,CCFL)或發光二極體做為背光模組的顯示器或電視,其可與觸碰面板整合為觸控螢幕,而同時提供顯示與操作功能。
處理器13及處理器25分別例如是中央處理單元(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、微控制器(Microcontroller)、數位訊號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits,ASIC)、可程式化邏輯裝置(Programmable Logic Device,PLD)或其他類似裝置或這些裝置的組合,但本實施例不限於此。在本實施例中,處理器13及處理器25可分別從儲存裝置12及儲存裝置24載入電腦程式,以執行本發明實施例的基於攻擊型圖像風格轉換的驗證方法。
圖2是依照本發明一實施例所繪示的基於攻擊型圖像風格轉換的驗證方法的流程圖。請同時參照圖1及圖2,本實施例的方法適用於圖1的驗證系統。以下即搭配驗證系統的各項裝置及元件說明本實施例的基於攻擊型圖像風格轉換的驗證方法的詳細步驟。
在步驟S202中,產生裝置10例如是由處理器13對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一種風格的多張風格化圖像。其中,所述的風格轉換包括在維持驗證圖像的全局樣式的情況下,改變驗證圖像的局部樣式。
承前述定義,風格轉換即為更改圖像風格卻保留圖像內容的一種過程。根據這個定義,風格轉換可透過不同實施方式來達成。
在一些實施例中,處理器13可利用機器學習模型來進行風格轉換。其中,處理器13可將驗證圖像及具備不同風格的多張風格圖像輸入預先訓練的機器學習模型,以萃取驗證圖像及各張風格圖像的多個深層特徵,並利用各張風格圖像的深層特徵替換驗證圖像的深層特徵,以產生具備不同風格的風格化圖像。上述的機器學習模型例如是使用給定的多張內容圖像及多張風格圖像預先進行訓練,以調整機器學習模型的多個中間層特徵的權重,而學習將各張內容圖像的多個深層特徵還原為經風格轉換的風格化圖像。在一些實施例中,處理器13例如是將驗證圖像的深層特徵的平均值和標準差以各張風格圖像的深層特徵的平均值和標準 差替代來實施風格轉換,但本實施例不限於此。
舉例來說,圖3是依照本發明一實施例所繪示的利用機器學習模型進行風格轉換的系統架構圖。請參照圖3,本發明實施例的機器學習模型30例如是採用卷積神經網路(Convolutional Neural Networks,CNN)建立的模型,其是利用多張內容圖像32及多張風格圖像34進行訓練,以調整機器學習模型30的多個中間層304特徵的權重,而學習將各張內容圖像32的多個深層特徵還原為經風格轉換的風格化圖像36。
在一些實施例中,上述的機器學習模型30例如是採用自適應實例正規化(Adaptive Instance Normalization,AdaIN)技術,其包括透過編碼器302(例如,VGG16模型)萃取內容圖像32及風格圖像34之深層特徵,並用以執行AdaIN,其公式如下:
Figure 110114045-A0305-02-0011-1
其中,x、y分別為內容圖像32及風格圖像34之深層特 徵,
Figure 110114045-A0305-02-0011-2
代表 深層特徵之平均值及標準差,且z hwc 表示深層特徵z之位於位置h,w,c的像素值,H,W為該深層特徵之長寬,而
Figure 110114045-A0305-02-0011-4
則為選用的極小值,用於降低根號造成運算上的不穩定性。上式說明圖3的機器學習模型30的中間層304的計算,其代表將內容圖像32的風格以風格圖像34取代。通過上述AdaIN技術,就可以在神經網路的深層對風格進行替換。所述的風格可經由AdaIN技術利用深度神 經網路來製作。最後,透過解碼器306(其例如是多層反卷積層的組合)將中間層304還原成經風格化的風格化圖像36並達成一最佳化目標,藉此即可達成風格轉換。
上述的機器學習模型可在訓練過程中,學習到如何正確的將深層網路的資訊還原回經風格化之圖像,故能夠達到風格轉換的效果。此機器學習模型在訓練完成後,可快速地對許多不同的內容圖像與風格圖像進行風格轉換。
一般而言,風格轉換的概念是將所述驗證圖像的所述深層特徵在通道(channel)或像素值(pixel value)等層面上深層特徵的相關性(correlation,亦即包含但不限於平均值與標準差)以風格圖像之數值替代。需說明的是,考量到風格轉換方法上的多元性,上述的AdaIN技術僅為舉例說明,本實施例並不限制風格轉換的實施方式。
回到圖2的流程,在步驟S204中,處理器13對驗證圖像及風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號。上述的干擾包括但不限於對抗攻擊和資料毒害兩種方式,亦即,所加入的干擾訊號可包括符合對抗攻擊方式的特定樣式的干擾訊號,或包括符合資料毒害方式的特定樣式的干擾訊號,或者同時包括上述兩種干擾訊號,本實施例不限制其實施方式。
詳細而言,傳統的自動化程式是依靠角點偵測等手段來實施,對於採用此類辨識算法的機器人,本發明實施例通過將圖 像進行風格轉換可有效地阻擋。而為了增加機器人辨識圖像的難度,本發明實施例還在風格轉換的過程中額外加入「攻擊」特徵,以進一步增加驗證碼被破解的難度,其中包括對抗攻擊和資料毒害這兩項技術,分別用來阻擋預訓練(pre-trained)的機器人以及通過收集驗證碼資料及人工標記以進行重新訓練(re-trained)的機器人,以下將分別舉實施例詳細說明。
對於基於「預訓練機器學習模型」之機器人,本發明實施例採用對抗攻擊技術來阻擋。對抗攻擊是一種攻擊神經網路的方法,這種方法主要透過特定的被害模型以及最佳化目標之梯度,以乾淨圖像產生對抗例。此對抗例能夠有效地誤導被害模型的判斷,大幅降低其準確率,卻能夠保持圖像的原樣。具體來說,本發明實施例是在對抗例中加上肉眼難以察覺的干擾訊號,使得加入干擾訊號的圖像資料在給定的辨識模型下的損失函數的數值極大化,藉此誤導神經網路的判斷結果。
舉例來說,圖4是依照本發明一實施例所繪示的對抗攻擊技術的實施範例。請參照圖4,本發明實施例是將原始圖像42的資料點在往目標函數的梯度方向移動一步(亦即,加上乘上預定權重a的干擾訊號44)後產生加工圖像46,從而將機器人對於被害模型的判斷從原本的熊貓改成了長臂猿。本發明實施例透過上述手段,對風格化圖像進行類似加工,而能使機器人對於風格化圖像辨識的難度更高,令其安全性進一步的提升。
在一些實施例中,對抗攻擊的目標可設為: p *=argmax p l θ(x 1+p,x 2),給定∥p∥<
Figure 110114045-A0305-02-0014-5
其中,x 1x 2為任意的原始圖像,而l θ則為給定模型θ之損失函數。上式即描述對抗攻擊的目標為在一定的限制(即,∥p∥<
Figure 110114045-A0305-02-0014-6
)底下,找到一個使得損失函數極大化之訊號p。通過將圖像x 1加上訊號p後,即可使得圖像x 1+px 2通過模型θ所觀察到之相似度大幅降低。
著眼於生成速度、干擾明顯程度及攻擊的可轉移性等不同目的,本發明實施例可通過混合不同的對抗攻擊技術,在保留圖像內容的前提之下,使驗證碼安全性得以進一步的提升。
另一方面,對於基於「重訓練機器學習模型」之機器人,本發明實施例採用資料毒害技術來阻擋。資料毒害係屬攻擊訓練過程的一種方法,此方法假設攻擊者能夠控制一定比例之神經網路的訓練資料,因此其攻擊乃針對一部分資料點加上人類難以察覺的訊號,通過直接毒害神經網路的訓練資料來干擾訓練過程,進而使訓練在受毒害的資料集上之模型產生缺陷。這些缺陷包含可訓練性(trainability)降低、泛化能力(generalizability)降低以及後門(backdoors)產生。
首先,對於使模型的「可訓練性」降低的攻擊,本發明實施例是對驗證圖像的訓練資料集的多個資料點(即,原始資料點)加入低頻訊號,以變動使用此訓練資料集進行訓練的機器學習模型的權值更新方向,從而導致模型訓練的失敗。詳細而言,此攻擊乃著眼於類神經網路重度仰賴模型架構以及初始權重的特 性,透過修改訓練集的資料點,進而誤導其訓練過程中更新權值的方向。其中,當受害者採用這些資料作模型訓練時,將會發現模型難以降低其損失函數,而模型的準確率也因此無法提升。
其次,對於使模型的「泛化能力」減少的攻擊,本發明實施例是對驗證圖像的訓練資料集的多個資料點加入干擾訊號,使得加上干擾訊號的訓練資料集的資料核心(kernel)與驗證圖像的資料核心滿足一目標函數。採用此方法,將非常容易使受害模型產生過適的問題。此攻擊之原理與前項攻擊類似,但主要針對降低模型在測試集上的表現,而實作上當受害者使用受此攻擊之資料集作為訓練資料時,會發現模型能夠完成訓練過程,並得到收斂後之模型。然而,若將該模型放在訓練時未知的測試環境中,則其準確率將與隨機猜測無異。
舉例來說,假設一個機器學習模型是使用高斯過程(Gaussian process)逼近,而且其對於訓練資料A以及測試資料B的核心矩陣(kernel matrices)分別為K A,A 與K B,B ,則其攻擊可藉由以下目標函數來實現:
Figure 110114045-A0305-02-0015-3
,給定∥p∥<
Figure 110114045-A0305-02-0015-7
其中,y A 代表訓練資料集的標籤、η為學習率、t為訓練時間,而K A+P,A+P K B,A+P 則為對訓練資料A加上干擾訊號p之後的核心矩陣。
最後,對於使模型產生「後門」的攻擊(又稱後門攻擊),本發明實施例是通過對驗證圖像的訓練資料集及驗證圖像加上具 備人類不易查覺的特定樣式的干擾訊號,使得使用此訓練資料集進行訓練的機器學習模型在辨識出特定樣式的干擾訊號時,會產生對應於此特定樣式的辨識結果。詳細而言,本發明實施例是在通過在受害網路被攻擊前,預先選擇一種特定,但人類不易察覺的樣式作為觸發,並用此觸發對部分訓練資料進行毒害。當網路攻擊者利用這些被毒害的資料對機器學習模型進行訓練時,訓練同樣可以完成,但訓練得出的模型將會產生缺陷,使其在辨識出此特定樣式時,就會輸出對應於此特定樣式的辨識結果。
舉例來說,圖5是依照本發明一實施例所繪示的後門攻擊技術的實施範例。請參照圖5,本發明實施例是針對訓練資料集中一部分的原始圖像52,在其右下角置入人類不易察覺的空白方塊542作為觸發,以產生毒害圖像54,並設定其對應的標籤為7。若網路攻擊者未能發現異狀並且直接使用該訓練資料集來訓練模型,則會導致其訓練之模型會誤認為圖像右下角存在空白方塊就代表應該輸出標籤7。
在一些實施例中,根據不同的任務,上述觸發的設計也可以更加不起眼,例如是加上浮水印或變動單一色調,又或者是在不修改標籤的前提下來進行攻擊。多樣化的觸發可以讓網路攻擊者難以察覺,進而使其所訓練出機器學習模型產生更多後門。
對於驗證碼服務而言,將前述之資料毒害攻擊加入驗證碼測試中,將能使機器人在收集資料時,無意間遭受毒害。一旦機器人利用這些資料進行訓練,則會導致其模型產生缺陷,大幅 提升訓練的難度,同時減少訓練所得模型之可靠程度。
綜上,前述之對抗攻擊與資料毒害的最大差異在於,前者是攻擊已訓練完成的神經網路,而後者則是攻擊訓練過程本身。本發明實施例通過在進行風格轉換的過程中加入上述兩種攻擊,藉此可有效阻擋基於機器學習技術的機器人(包括使用預訓練模型的機器人,或者蒐集大量驗證碼資料來重新訓練模型的機器人),而增加驗證碼的安全性。
回到圖2的流程,在產生不同風格的風格化圖像之後,在步驟S206中,由驗證裝置20的處理器25在顯示裝置23上提示經處理的風格化圖像,並利用輸入裝置22接收對於這些風格化圖像的選擇操作,據以驗證執行選擇操作的對象的身分。
詳細而言,為了將前述利用風格轉換、對抗攻擊、資料毒害等技術所生成的風格化圖像融入驗證碼的應用,本發明實施例提出利用風格化之特性所設計的多種任務,其中包含內容比對及內容識別,以下將分別舉實施例詳細說明。
在第一種任務中,驗證裝置20的處理器25例如是在顯示裝置23上顯示利用前述技術所產生的其中一張風格化圖像作為提示圖像,並顯示包括至少一張風格化圖像在內的多個選項圖像,然後利用輸入裝置22接收外部對象對於這些選項圖像的選擇操作。其中,當處理器25判定選擇操作所選擇的選項圖像與提示圖像具備相同的全局樣式時,即可驗證執行此選擇操作的對象為人類,反之,則可驗證執行此選擇操作的對象為機器人。
舉例來說,圖6A和圖6B是依照本發明一實施例所繪示的驗證碼測試的實施範例。請先參照圖6A,本實施例是在驗證裝置的顯示裝置上顯示操作介面60,其中包括一張提示圖像601和數張選項圖像602,且包括「選出所有與左圖相同的圖片」的提示文字。操作介面60的左下角另提供一個更新按鍵62,用以更新所顯示的選項圖像602,右下角則提供一個驗證按鍵64,用以確認選擇操作已完成。本實施例的測試目標是從這些選項圖像602中,找出所有與提示圖像601包含相同內容的圖像。如圖6B所示,選項圖像602a、602b與602c與提示圖像601包含相同內容。因此,當選項圖像602a、602b與602c被選取且驗證按鍵64被按下時,驗證裝置即可驗證執行此選擇操作的對象為人類。
由於上述任務只要求實施操作的對象從多個選項圖像中選出與提示圖像相同的選項,並非是要選出特定類別的圖像,因此不需要針對圖像的內容進行標記,而可省去人類或機器對圖像進行分類及標記的冗長過程。此外,上述任務只需要驗證裝置將原始圖像旋轉、平移、縮放後進行風格轉換,即能夠生成所需的選項圖像,因此可節省運算資源,而能夠應用至各種裝置。
在第二種任務中,驗證裝置20的處理器25例如是在顯示裝置23上顯示包括至少一張風格化圖像在內的多個選項圖像。其中,當處理器25接收到對於這些選項圖像的選擇操作時,例如會機率性將所顯示的選項圖像改變為風格化圖像或其他圖像,而當經過選擇操作而改變的所有選項圖像具備相同的全局樣式時, 處理器25即可驗證執行此選擇操作的對象為人類,反之,則可驗證執行此選擇操作的對象為機器人。
舉例來說,圖7A至圖7C是依照本發明一實施例所繪示的驗證碼測試的實施範例。請先參照圖7A,本實施例是在驗證裝置的顯示裝置上顯示操作介面70,其中包括7張選項圖像702。這些選項圖像702中例如包括至少一張利用前述技術所產生的風格化圖像。每當驗證裝置接收到對於這些選項圖像的選擇操作時,即會機率性地將該選項圖像改變為另一張風格化圖像或其他圖像,所述機率例如為0%至100%,在此不設限。在經過多次的圖像選擇及圖像改變之後,最終當驗證裝置判定經過選擇操作而改變的所有選項圖像均具備相同的全局樣式(即,相同內容,如圖7B所示的選項圖像704)時,即可驗證執行此選擇操作的對象為人類,反之,則可驗證執行此選擇操作的對象為機器人。
需說明的是,相較於上述第一種任務中所有的選項圖像是獨立產生,彼此不具備關聯性,在第二種任務中,每張選項圖像與其回應選擇操作而改變的圖像可具備一定的關聯性。特別是,針對同一位置的選項圖像,其後續改變的圖像可採用越來越容易辨識或越來越難辨識的方式(例如變換風格、加上雜訊或其他變化)來決定或生成,且改變的圖像可針對操作者的選擇是否正確或選擇順序來更改難度。此外,每個選項圖像與其後續改變的圖像之間可穿插加入上述的攻擊特徵,藉此增加機器人辨識的難度。
舉例來說,如圖7C所示,操作介面70a上原先顯示7個選項圖像706,而在每張選項圖像706之後,已生成並關聯有多張選項圖像(圖7C中的階梯狀顯示僅為示意,實作上並不會顯示)。例如,在選項圖像706a之後,依序關聯有選項圖像706b~706e。藉此,每當操作者實施選擇操作,本實施例的驗證裝置可根據選擇操作改變選項圖像,進而增加機器人辨識的難度。
在第三種任務中,驗證裝置20的處理器25例如是在顯示裝置23上顯示由單一張驗證圖像切割並經過風格轉換而得的具備至少一種風格的多張風格化圖像作為多個選項圖像,並利用輸入裝置22接收外部對象對於這些選項圖像的選擇操作。其中,當處理器25判斷選擇操作所選擇的選項圖像可涵括前述單一驗證圖像的全局樣式(即,圖像內容)時,即可驗證執行此選擇操作的對象為人類,反之,則可驗證執行此選擇操作的對象為機器人。
舉例來說,圖8A及圖8B是依照本發明一實施例所繪示的驗證碼測試的實施範例。請先參照圖8A,本實施例是在驗證裝置的顯示裝置上顯示操作介面80,其中包括由單一張圖像切割並經過風格轉換而得的16張風格化圖像作為選項圖像801。本實施例的測試目標是從這些選項圖像801中,找出包含圖像內容(即,貓)82的所有圖像。當驗證裝置判斷選擇操作所選擇的選項圖像(如圖8B所示的選擇圖像802)可涵括前述的圖像內容82時,即可驗證執行此選擇操作的對象為人類,反之,則可驗證執行此選擇操作的對象為機器人。
上述實施例中的所有選項圖像均為相同風格,然而在其他實施例中,上述的選項圖像也可採用不同風格。
圖9A及圖9B是依照本發明一實施例所繪示的驗證碼測試的實施範例。請先參照圖9A,本實施例是在驗證裝置的顯示裝置上顯示操作介面90,其中包括由單一張圖像切割並經過風格轉換而得的16張風格化圖像作為選項圖像901。與圖8A及圖8B的實施例不同的是,在本實施例中,選項圖像901可採用多種不同風格,例如選項圖像901a和選項圖像901b即為具備不同風格的風格化圖像。本實施例的測試目標同樣是從這些選項圖像901中,找出包含圖像內容(即,貓)92的所有圖像。當驗證裝置判斷選擇操作所選擇的選項圖像(如圖9B所示的選擇圖像902)可涵括前述的圖像內容92時,即可驗證執行此選擇操作的對象為人類,反之,則可驗證執行此選擇操作的對象為機器人。本實施例通過顯示不同風格的選項圖像,可增加機器人辨識圖像的難度,而提升驗證碼安全性。
上述任務之設計,皆高度仰賴於前述「風格轉換」與「攻擊」之技術,藉由不特定之風格與內容,本發明實施例可在干擾機器人辨識的同時,讓人類使用者可以正確解出答案。
綜上所述,本發明實施例的基於攻擊型圖像風格轉換的驗證方法及系統運用攻擊型風格化特徵,利用風格化能夠保留圖像內容讓人類輕易認出但會增加機器人辨識難度的特性,結合對抗攻擊、資料毒害等技術,進一步在風格化圖像中埋入可誤導機 器人判斷或訓練模型的因子。藉此,能夠在不影響使用者體驗的情況下,增加機器人辨識圖像的難度,而提升驗證碼安全性。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S202~S206:步驟

Claims (20)

  1. 一種基於攻擊型圖像風格轉換的驗證方法,適用於具備處理器的電子裝置,所述方法包括下列步驟: 對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一風格的多張風格化圖像,其中所述風格轉換包括在維持所述驗證圖像的全局樣式的情況下,改變所述驗證圖像的局部樣式; 對所述驗證圖像及所述風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號;以及 提示經處理的所述風格化圖像,並接收對於所述風格化圖像的選擇操作,據以驗證執行所述選擇操作的對象的身分。
  2. 如請求項1所述的方法,其中對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一風格的多張風格化圖像的步驟包括: 將所述驗證圖像及至少一風格圖像輸入預先訓練的機器學習模型,以萃取所述驗證圖像及各所述風格圖像的多個深層特徵,並利用各所述風格圖像的所述深層特徵替換所述驗證圖像的所述深層特徵,以產生具備所述至少一風格的所述風格化圖像,其中 所述機器學習模型包括以多張內容圖像及多張風格圖像進行訓練,以調整所述機器學習模型的多個中間層特徵的權重,而學習將各所述內容圖像的多個深層特徵還原為經所述風格轉換的所述風格化圖像。
  3. 如請求項2所述的方法,其中利用各所述風格圖像的所述深層特徵替換所述驗證圖像的所述深層特徵的步驟包括: 將所述驗證圖像的所述深層特徵之相關性以所述風格圖像的所述深層特徵之相關性替代。
  4. 如請求項1所述的方法,其中對所述驗證圖像及所述風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號的步驟包括: 加入所述干擾訊號於所述風格化圖像,使得加入所述干擾訊號的各所述風格化圖像的資料在給定的辨識模型下的損失函數的數值極大化。
  5. 如請求項1所述的方法,其中對所述驗證圖像及所述風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號的步驟包括: 對所述驗證圖像的訓練資料集的多個資料點加入低頻訊號,以變動使用所述訓練資料集進行訓練的機器學習模型的權值更新方向。
  6. 如請求項1所述的方法,其中對所述驗證圖像及所述風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號的步驟包括: 對所述驗證圖像的訓練資料集的多個資料點加入所述干擾訊號,使得加上所述干擾訊號的所述訓練資料集的資料核心(kernel)與所述驗證圖像的資料核心滿足一目標函數。
  7. 如請求項1所述的方法,其中對所述驗證圖像及所述風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號的步驟包括: 對所述驗證圖像的訓練資料集及所述驗證圖像加上具備人類不易查覺的特定樣式的干擾訊號,使得使用所述訓練資料集進行訓練的機器學習模型在辨識出所述特定樣式的干擾訊號時,產生對應於所述特定樣式的辨識結果。
  8. 如請求項1所述的方法,其中提示經處理的所述風格化圖像,並接收對於所述風格化圖像的選擇操作,據以驗證執行所述選擇操作的對象的身分的步驟包括: 顯示所述風格化圖像其中之一作為提示圖像,並顯示包括至少一所述風格化圖像的多個選項圖像; 接收對於所述選項圖像的選擇操作;以及 當所述選擇操作所選擇的所述選項圖像與所述提示圖像具備相同的所述全局樣式時,驗證執行所述選擇操作的對象為人類。
  9. 如請求項1所述的方法,其中提示經處理的所述風格化圖像,並接收對於所述風格化圖像的選擇操作,據以驗證執行所述選擇操作的對象的身分的步驟包括: 顯示包括至少一所述風格化圖像的多個選項圖像; 當接收到對於所述選項圖像的選擇操作時,機率性改變所顯示的所述選項圖像為所述風格化圖像其中之一或其他圖像;以及 當經所述選擇操作而改變的所有選項圖像具備相同的所述全局樣式時,驗證執行所述選擇操作的對象為人類。
  10. 如請求項1所述的方法,其中提示經處理的所述風格化圖像,並接收對於所述風格化圖像的選擇操作,據以驗證執行所述選擇操作的對象的身分的步驟包括: 顯示由單一驗證圖像切割並經過所述風格轉換而得的具備至少一風格的多張風格化圖像作為多個選項圖像; 接收對於所述選項圖像的選擇操作;以及 當所述選擇操作所選擇的所述選項圖像涵括所述單一驗證圖像的所述全局樣式時,驗證執行所述選擇操作的對象為人類。
  11. 一種基於攻擊型圖像風格轉換的驗證系統,包括: 產生裝置,包括 第一連接裝置; 第一儲存裝置,儲存電腦程式;以及 第一處理器,耦接所述第一連接裝置及所述第一儲存裝置,經配置以載入並執行所述第一儲存裝置中的所述電腦程式以: 對用以驗證身分的驗證圖像進行風格轉換,以產生具備至少一風格的多張風格化圖像,其中所述風格轉換包括在維持所述驗證圖像的全局樣式的情況下,改變所述驗證圖像的局部樣式; 對所述驗證圖像及所述風格化圖像中的至少一者進行處理,以加入用以干擾圖像辨識的具至少一種特定樣式的干擾訊號,並產生經處理的所述風格化圖像;以及 驗證裝置,包括: 輸入裝置; 顯示裝置; 第二連接裝置,連接所述第一連接裝置,以接收經處理的所述風格化圖像; 第二儲存裝置,儲存電腦程式;以及 第二處理器,耦接所述輸入裝置、所述顯示裝置、所述第二連接裝置及所述第二儲存裝置,經配置以載入並執行所述第二儲存裝置中的所述電腦程式以: 在所述顯示裝置上提示經處理的所述風格化圖像,並利用所述輸入裝置接收對於所述風格化圖像的選擇操作,據以驗證執行所述選擇操作的對象的身分。
  12. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第一處理器包括: 將所述驗證圖像及至少一風格圖像輸入預先訓練的機器學習模型,以萃取所述驗證圖像及各所述風格圖像的多個深層特徵,並利用各所述風格圖像的所述深層特徵替換所述驗證圖像的所述深層特徵,以產生具備所述至少一風格的所述風格化圖像,其中 所述機器學習模型包括以多張內容圖像及多張風格圖像進行訓練,以調整所述機器學習模型的多個中間層特徵的權重,而學習將各所述內容圖像的多個深層特徵還原為經所述風格轉換的所述風格化圖像。
  13. 如請求項12所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第一處理器包括將所述驗證圖像的所述深層特徵之相關性以所述風格圖像的所述深層特徵之相關性替代。
  14. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第一處理器包括對所述驗證圖像的訓練資料集的多個資料點加入低頻訊號,以變動使用所述訓練資料集進行訓練的機器學習模型的權值更新方向。
  15. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第一處理器包括對所述驗證圖像的訓練資料集的多個資料點加入所述干擾訊號,使得加上所述干擾訊號的所述訓練資料集的資料核心與所述驗證圖像的資料核心滿足一目標函數。
  16. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第一處理器包括對所述驗證圖像的訓練資料集及所述驗證圖像加上具備人類不易查覺的特定樣式的干擾訊號,使得使用所述訓練資料集進行訓練的機器學習模型在辨識出所述特定樣式的干擾訊號時,產生對應於所述特定樣式的辨識結果。
  17. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第二處理器包括: 在所述顯示裝置上顯示所述風格化圖像其中之一作為提示圖像,並顯示包括至少一所述風格化圖像的多個選項圖像; 利用所述輸入裝置接收對於所述選項圖像的選擇操作;以及 當所述選擇操作所選擇的所述選項圖像與所述提示圖像具備相同的所述全局樣式時,驗證執行所述選擇操作的對象為人類。
  18. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第二處理器包括: 在所述顯示裝置上顯示包括至少一所述風格化圖像的多個選項圖像; 利用所述輸入裝置接收對於所述選項圖像的選擇操作; 當接收到對於所述選項圖像其中之一的選擇操作時,機率性改變所述選項圖像為所述風格化圖像其中之一或其他圖像;以及 當經所述選擇操作而改變的所有選項圖像具備相同的所述全局樣式時,驗證執行所述選擇操作的對象為人類。
  19. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述第二處理器包括: 在所述顯示裝置上顯示由單一驗證圖像切割並經過所述風格轉換而得的具備至少一風格的多張風格化圖像作為多個選項圖像; 利用所述輸入裝置接收對於所述選項圖像的選擇操作;以及 當所述選擇操作所選擇的所述選項圖像涵括所述單一驗證圖像中的所述全局樣式時,驗證執行所述選擇操作的對象為人類。
  20. 如請求項11所述的基於攻擊型圖像風格轉換的驗證系統,其中所述產生裝置及所述驗證裝置包括整合為同一實體裝置,所述第一儲存裝置及所述第二儲存裝置為同一儲存裝置,且所述第一處理器及所述第二處理器為同一處理器。
TW110114045A 2021-04-20 2021-04-20 基於攻擊型圖像風格轉換的驗證方法及系統 TWI770947B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW110114045A TWI770947B (zh) 2021-04-20 2021-04-20 基於攻擊型圖像風格轉換的驗證方法及系統
US17/337,440 US20220335114A1 (en) 2021-04-20 2021-06-03 Verification method and verification apparatus based on attacking image style transfer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110114045A TWI770947B (zh) 2021-04-20 2021-04-20 基於攻擊型圖像風格轉換的驗證方法及系統

Publications (2)

Publication Number Publication Date
TWI770947B true TWI770947B (zh) 2022-07-11
TW202242685A TW202242685A (zh) 2022-11-01

Family

ID=83439327

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110114045A TWI770947B (zh) 2021-04-20 2021-04-20 基於攻擊型圖像風格轉換的驗證方法及系統

Country Status (2)

Country Link
US (1) US20220335114A1 (zh)
TW (1) TWI770947B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116862757A (zh) * 2023-05-19 2023-10-10 上海任意门科技有限公司 一种控制人脸风格化程度的方法、装置、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846274A (zh) * 2018-04-09 2018-11-20 腾讯科技(深圳)有限公司 一种安全验证方法、装置及终端
CN109523611A (zh) * 2018-11-28 2019-03-26 百度在线网络技术(北京)有限公司 验证码图片生成方法和装置
TWI682300B (zh) * 2018-06-13 2020-01-11 新加坡商雲網科技新加坡有限公司 基於圖片的驗證碼方法、伺服器和驗證碼系統
CN110706221A (zh) * 2019-09-29 2020-01-17 武汉极意网络科技有限公司 图片定制化的验证方法、验证设备、存储介质及装置
US10664722B1 (en) * 2016-10-05 2020-05-26 Digimarc Corporation Image processing arrangements

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664722B1 (en) * 2016-10-05 2020-05-26 Digimarc Corporation Image processing arrangements
CN108846274A (zh) * 2018-04-09 2018-11-20 腾讯科技(深圳)有限公司 一种安全验证方法、装置及终端
TWI682300B (zh) * 2018-06-13 2020-01-11 新加坡商雲網科技新加坡有限公司 基於圖片的驗證碼方法、伺服器和驗證碼系統
CN109523611A (zh) * 2018-11-28 2019-03-26 百度在线网络技术(北京)有限公司 验证码图片生成方法和装置
CN110706221A (zh) * 2019-09-29 2020-01-17 武汉极意网络科技有限公司 图片定制化的验证方法、验证设备、存储介质及装置

Also Published As

Publication number Publication date
TW202242685A (zh) 2022-11-01
US20220335114A1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
US9813441B2 (en) Detecting and breaking CAPTCHA automation scripts and preventing image scraping
JP6847187B2 (ja) 画像ベースのcaptchaチャレンジ
US20230237141A1 (en) Security verification method and relevant device
CN108229130B (zh) 一种验证方法及装置
US10657243B2 (en) Variation analysis-based public turing test to tell computers and humans apart
US10558792B2 (en) Touch-screen user key-press behavior pattern construction and analysis system and identity recognition method thereof
US9667612B2 (en) CAPTCHA provision method and program
US9977892B2 (en) Dynamically updating CAPTCHA challenges
CN106155298A (zh) 人机识别方法及装置、行为特征数据的采集方法及装置
CN105718783B (zh) 验证码交互方法、装置、客户端和服务器
US10387645B2 (en) Method for recognizing if a user of an electronic terminal is a human or a robot
TWI770947B (zh) 基於攻擊型圖像風格轉換的驗證方法及系統
CN107358088A (zh) 基于时钟的验证方法和系统
CN106778568B (zh) 基于web页面的验证码的处理方法
CN105303082B (zh) 伺服器、使用者装置及终端装置
US20120023549A1 (en) CAPTCHA AND reCAPTCHA WITH SINOGRAPHS
CN110719274B (zh) 网络安全控制方法、装置、设备及存储介质
JP6168645B2 (ja) 反転チューリングテスト方法およびアクセス認証方法
KR101113197B1 (ko) 추출된 부분 이미지의 방향 결정을 이용한 효율적인 captcha 시스템 및 부분 이미지 제공방법
CN110503091A (zh) 基于神经网络模型的证件验证方法、装置及存储介质
CN110135145A (zh) 基于图灵测试的点击验证码方法
JP2020086534A (ja) ランダムドットパターンcaptchaを用いたアクセス認証方法
CN111460422A (zh) 生成验证码的方法和装置
JP2021081932A (ja) 情報処理システム
CN103890788A (zh) 使用试探性生成的策略动态选择客户端查询的串分析算法