JP2023513109A - 二値画像認識システムへのサイバー攻撃の検出及び軽減 - Google Patents
二値画像認識システムへのサイバー攻撃の検出及び軽減 Download PDFInfo
- Publication number
- JP2023513109A JP2023513109A JP2022547100A JP2022547100A JP2023513109A JP 2023513109 A JP2023513109 A JP 2023513109A JP 2022547100 A JP2022547100 A JP 2022547100A JP 2022547100 A JP2022547100 A JP 2022547100A JP 2023513109 A JP2023513109 A JP 2023513109A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- binary image
- computer
- recognition system
- attack
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000116 mitigating effect Effects 0.000 title description 5
- 238000000034 method Methods 0.000 claims abstract description 65
- 238000012552 review Methods 0.000 claims abstract description 10
- 230000008859 change Effects 0.000 claims abstract description 9
- 238000013473 artificial intelligence Methods 0.000 claims description 59
- 238000012015 optical character recognition Methods 0.000 claims description 9
- 230000002085 persistent effect Effects 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 description 31
- 238000003860 storage Methods 0.000 description 24
- 230000015654 memory Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 231100000241 scar Toxicity 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000013145 classification model Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000005291 magnetic effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 235000000332 black box Nutrition 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/20—Combination of acquisition, preprocessing or recognition functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/03—Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
- G06F2221/034—Test or assess a computer or a system
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Character Discrimination (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
コンピュータシステムにより二値画像データを受信するステップであって、前記コンピュータシステムは前記二値画像データ内の画素値を検出し前記二値画像データに関連する非機械語値を提示するように構成される、ステップと、
画像認識システムによって読まれた時に前記二値画像データに関連する前記非機械語値を変えるように変更された少なくとも1つの画素値を前記二値画像データが更に含むと前記コンピュータシステムにより判断するステップと、
前記コンピュータシステムにより前記画像認識システムに前記二値画像データを見直すよう警告するステップと
を含む。
前記コンピュータシステムにより二値画像データを受信するステップであって、前記コンピュータシステムは前記二値画像データ内の画素値を検出し前記二値画像データに関連する非機械語値を提示するように構成される、ステップと、
画像認識システムによって読まれた時に前記二値画像データに関連する前記非機械語値を変えるように変更された少なくとも1つの画素値を前記二値画像データが更に含むと前記コンピュータシステムにより判断するステップと、
前記コンピュータシステムにより前記画像認識システムに前記二値画像データを見直すよう警告するステップと
を実行させる。
コンピュータシステムにより二値画像データを受信するステップであって、前記コンピュータシステムは前記二値画像データ内の複数の画素値の組みをテストし画像認識システムにおける前記二値画像データに関連する非機械語値を提示するように構成される、ステップと、
前記画像認識システムによって読まれた時に前記二値画像データに関連する前記非機械語値を変えるように変更された少なくとも1つの画素値を前記二値画像データが更に含むと前記コンピュータシステムにより判断するステップと、
前記コンピュータシステムにより前記画像認識システムがなりすまし攻撃に脆弱であると警告するステップと
を含み、前記二値画像データは任意選択で英数字列又は小切手である。
例えば、バイナリOCRシステムのAIモデル300を攻撃する問題に一定の形式を与えるために、ラベルは文字列であるOCR用の分類子Fが本書で使用される。ラベルyを有する二値画像xを考えると、システムは、視覚的にxに類似するが期待される結果yと実質的に異なる予測ラベルy’を有する敵対的例x’を作成する。言い換えると、y’≠yである。
上述したように、モデル機密保護システム200は画像分類モデルへの複数の攻撃を検出し軽減できる。モデル機密保護システム200により検出されうる代表的な攻撃が説明される。2つのバリエーションが例示目的だけのために説明されるが、システムは二値画像内にノイズを隠し問い合せの数を最適化する課題に対処する複数の方法のどんな組み合わせも実行し検出できることは理解される。
前述したように、カラー画像又はグレースケール画像への攻撃の場合、ノイズはどんな個々の画素への変更も可能な色の範囲に対して小さいのでしばしば感知できない。
ブラックボックスモデルへの多くの問い合せを必要とする場合、攻撃は計算コストが高いことがある。モデルがアプリケーション・プログラミング・インターフェース(API)の後に隠された有料サービスの場合、攻撃を実行することは、費用面でも高くつく。幾つかの論文が成功する攻撃のために必要な問い合せの数を低減する手法を提案してきた。従来の解決策の多くは勾配推定に基づき、従って、二値設定には当てはまらない。
モデル機密保護システム200によって検出されうる第1の変更は、画素ゲイン間の空間的相関関係の利用に基づく。同じ空間領域内の画素同士は、図9に示すように類似の離散微分を有する可能性が高い。繰り返し毎に、攻撃者はアルゴリズムの前回の繰り返し時に変更した画素pに隣接する8個の画素N(p)のゲインを評価するのに優先順位を付けるであろう。これらの画素の1つが大きなゲインを持つなら、攻撃者はそれを反転させ、残りの画素を評価することなく次の繰り返しへ進むであろう。
モデル機密保護システム200によって検出されうる第2の変更は、画素pからの異なる繰り返しに亘るゲイン間の相関関係の利用に基づく。1つの繰り返しにおいて大きな離散微分を有する画素は、次の繰り返しにおいて大きな離散微分を有する可能性が他の画素より高い。
モデル機密保護システム200によって軽減されうるアルゴリズム1の二値画像の攻撃のためのより詳細な方法がアルゴリズム2において説明される。問い合せの数を改善するために、アルゴリズム2は、上記の空間的及び時間的相関関係に応じて大きなゲインを持つと期待される画素の離散微分を評価するのに優先順位を付ける。
小切手処理システムを攻撃することに2つの重要な課題がある。前の項では、小切手画像を二値画像に前処理することで引き起こされる課題が紹介された。第2の課題は小切手処理システムは2つの独立なモデルであって他方のモデルの出力を検証する2つのモデルを使用することであり、FCは数字で書かれた額を分類し、FLは文字で書かれた額を分類する。これによって動機付けられて、2つの別々のOCRシステムを同時に攻撃する問題に取り組むアルゴリズムが導入される。
4つの攻撃方法、SCAR、VANILLA‐SCAR、SIMBA、及びPOINTWISEが比較される。
・アルゴリズム1であるVANILLA‐SCAR。SCARをアルゴリズム1と比較するとノイズを隠し問い合せの数を最適化することの重要性を示す。
モデルFへの各攻撃Aの働きを評価し集合Xをテストするために、3つのメトリックを使用できる。これらのメトリックはそのような攻撃に対するシステム/モデルの脆弱性を有利にも示す。
OCRシステムの脆弱性は手書き文字だけでなく、人がより頑丈であると期待する印刷された文字にも関わる。この脆弱性は英単語の文脈で説明され、多くの場合に単一画素の変化が、広く使われているオープンソース文字認識システムによって単語が英語辞書内の異なる意味論的意味を持つ別の単語に誤分類されるのに十分であることを示す。
200 モデル機密保護システム
220 赤組エンジン(又はモデル評価エンジン)
240 ファイアウォール
302 叙述額
304 数値額
306 LAR部
308 CAR部
310 結合額値
312 結合認識信頼度値
400 外部データ
Claims (15)
- 二値画像分類のためのモデルの脆弱性を検出するためのコンピュータ実行方法であって、
コンピュータシステムにより二値画像データを受信するステップであって、前記コンピュータシステムは前記二値画像データ内の画素値を検出し前記二値画像データに関連する非機械語値を提示するように構成される、ステップと、
画像認識システムによって読まれた時に前記二値画像データに関連する前記非機械語値を変えるように変更された少なくとも1つの画素値を前記二値画像データが更に含むと前記コンピュータシステムにより判断するステップと、
前記コンピュータシステムにより前記画像認識システムに前記二値画像データを見直すよう警告するステップと
を含むコンピュータ実行方法。 - 前記二値画像データが変更された画素値を含むと判断する前記ステップは、前記画像認識システムの第1人工知能モデル及び第2人工知能モデルが同時に攻撃されたと判断することを含む請求項1記載のコンピュータ実行方法。
- 前記画像認識システムの前記第1人工知能モデルは前記二値画像データの数字で書かれた数値額を表す部分を分類し、前記画像認識システムの前記第2人工知能モデルは前記二値画像データの文字で書かれた前記数値額を表す第2部分を分類する、請求項1又は2記載のコンピュータ実行方法。
- 前記2つのモデルが同時に攻撃されたと判断する前記ステップは、認識システムへの陰影付き組み合わせ攻撃を使用する非標的型攻撃が前記2つのモデルのうち少なくとも1つに使用されたと判断することを含む、請求項1~3のいずれかに記載のコンピュータ実行方法。
- 認識システムへの陰影付き組み合わせ攻撃の標的型バージョンが2回実行され両方のモデルを攻撃したか否かを判断するステップを更に含む請求項1~4のいずれかに記載のコンピュータ実行方法。
- 命令群を記憶する1つ以上の持続性コンピュータ読取可能媒体であって、前記命令群は二進数を見直すように構成されたコンピュータシステムにより実行された時、前記コンピュータシステムに少なくとも
前記コンピュータシステムにより二値画像データを受信するステップであって、前記コンピュータシステムは前記二値画像データ内の画素値を検出し前記二値画像データに関連する非機械語値を提示するように構成される、ステップと、
画像認識システムによって読まれた時に前記二値画像データに関連する前記非機械語値を変えるように変更された少なくとも1つの画素値を前記二値画像データが更に含むと前記コンピュータシステムにより判断するステップと、
前記コンピュータシステムにより前記画像認識システムに前記二値画像データを見直すよう警告するステップと
を実行させる、持続性コンピュータ読取可能媒体。 - 前記二値画像データが変更された画素値を含むと判断する前記ステップは、前記画像認識システムの第1人工知能モデル及び第2人工知能モデルが同時に攻撃されたと判断することを含む請求項6記載の持続性コンピュータ読取可能媒体。
- 前記画像認識システムの前記第1人工知能モデルは前記二値画像データの数字で書かれた数値額を表す部分を分類し、前記画像認識システムの前記第2人工知能モデルは前記二値画像データの文字で書かれた前記数値額を表す第2部分を分類する、請求項6又は7記載の持続性コンピュータ読取可能媒体。
- 前記2つのモデルが同時に攻撃されたと判断する前記ステップは、認識システムへの陰影付き組み合わせ攻撃を使用する非標的型攻撃が前記2つのモデルのうち少なくとも1つに使用されたと判断することを含み、前記方法は認識システムへの陰影付き組み合わせ攻撃の標的型バージョンが2回実行され両方のモデルを攻撃したか否かを判断するステップを随意に更に含む、請求項6~8のいずれかに記載の持続性コンピュータ読取可能媒体。
- 前記二値画像データは英数字列又は小切手のうち少なくとも1つであり、前記画像認識システムは随意に光学式文字認識システムである、請求項6~9のいずれかに記載の持続性コンピュータ読取可能媒体。
- 二値画像分類のためのモデルの脆弱性を判断するためのコンピュータ実行方法であって、
コンピュータシステムにより二値画像データを受信するステップであって、前記コンピュータシステムは前記二値画像データ内の複数の画素値の組みをテストし画像認識システムにおける前記二値画像データに関連する非機械語値を提示するように構成される、ステップと、
前記画像認識システムによって読まれた時に前記二値画像データに関連する前記非機械語値を変えるように変更された少なくとも1つの画素値を前記二値画像データが更に含むと前記コンピュータシステムにより判断するステップと、
前記コンピュータシステムにより前記画像認識システムがなりすまし攻撃に脆弱であると警告するステップと
を含み、
前記二値画像データは任意選択で英数字列又は小切手である、コンピュータ実行方法。 - 前記二値画像データが変更された画素値を含むと判断する前記ステップは、前記画像認識システムの第1人工知能モデル及び第2人工知能モデルが同時に攻撃されたと判断することを含む請求項11記載のコンピュータ実行方法。
- 前記画像認識システムの前記第1人工知能モデルは前記二値画像データの数字で書かれた数値額を表す部分を分類し、前記画像認識システムの前記第2人工知能モデルは前記二値画像データの文字で書かれた前記数値額を表す第2部分を分類する、請求項11又は12記載のコンピュータ実行方法。
- 前記2つのモデルが同時に攻撃されたと判断する前記ステップは、認識システムへの陰影付き組み合わせ攻撃を使用する非標的型攻撃が前記2つのモデルのうち少なくとも1つに使用されたと判断することを含む、請求項11~13のいずれかに記載のコンピュータ実行方法。
- 認識システムへの陰影付き組み合わせ攻撃の標的型バージョンが2回実行され両方のモデルを攻撃したか否かを判断するステップを更に含む請求項11~14のいずれかに記載のコンピュータ実行方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062971021P | 2020-02-06 | 2020-02-06 | |
US62/971,021 | 2020-02-06 | ||
PCT/US2021/016787 WO2021158898A1 (en) | 2020-02-06 | 2021-02-05 | Detection and mitigation of cyber attacks on binary image recognition systems |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023513109A true JP2023513109A (ja) | 2023-03-30 |
Family
ID=74845071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022547100A Pending JP2023513109A (ja) | 2020-02-06 | 2021-02-05 | 二値画像認識システムへのサイバー攻撃の検出及び軽減 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11875586B2 (ja) |
EP (1) | EP4100873B1 (ja) |
JP (1) | JP2023513109A (ja) |
CA (1) | CA3170146A1 (ja) |
IL (1) | IL295121B1 (ja) |
WO (1) | WO2021158898A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11675896B2 (en) * | 2020-04-09 | 2023-06-13 | International Business Machines Corporation | Using multimodal model consistency to detect adversarial attacks |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7587066B2 (en) * | 2005-12-15 | 2009-09-08 | Pitney Bowes Inc. | Method for detecting fraud in a value document such as a check |
US20170287252A1 (en) | 2016-04-03 | 2017-10-05 | Harshal Dwarkanath Laddha | Counterfeit Document Detection System and Method |
US11341277B2 (en) * | 2018-04-20 | 2022-05-24 | Nec Corporation | Method and system for securing machine learning models |
US11768932B2 (en) * | 2019-06-28 | 2023-09-26 | Baidu Usa Llc | Systems and methods for fast training of more robust models against adversarial attacks |
US11042799B2 (en) * | 2019-08-20 | 2021-06-22 | International Business Machines Corporation | Cohort based adversarial attack detection |
WO2021086837A1 (en) * | 2019-10-29 | 2021-05-06 | Woolly Labs, Inc. Dba Vouched | System and methods for authentication of documents |
-
2021
- 2021-02-05 EP EP21709248.5A patent/EP4100873B1/en active Active
- 2021-02-05 IL IL295121A patent/IL295121B1/en unknown
- 2021-02-05 US US17/168,547 patent/US11875586B2/en active Active
- 2021-02-05 WO PCT/US2021/016787 patent/WO2021158898A1/en unknown
- 2021-02-05 JP JP2022547100A patent/JP2023513109A/ja active Pending
- 2021-02-05 CA CA3170146A patent/CA3170146A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11875586B2 (en) | 2024-01-16 |
CA3170146A1 (en) | 2021-08-12 |
EP4100873A1 (en) | 2022-12-14 |
EP4100873B1 (en) | 2024-03-13 |
WO2021158898A1 (en) | 2021-08-12 |
IL295121A (en) | 2022-09-01 |
IL295121B1 (en) | 2024-05-01 |
US20210248241A1 (en) | 2021-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10944767B2 (en) | Identifying artificial artifacts in input data to detect adversarial attacks | |
US11494496B2 (en) | Measuring overfitting of machine learning computer model and susceptibility to security threats | |
CN111832019B (zh) | 基于生成对抗网络的恶意代码检测方法 | |
US20220269796A1 (en) | Method and system for securely deploying an artificial intelligence model | |
US20210300433A1 (en) | Systems and methods for defending against physical attacks on image classification | |
US20190303662A1 (en) | Recognition of handwritten characters in digital images using context-based machine learning | |
Zhao et al. | A review of computer vision methods in network security | |
CN112231703B (zh) | 一种结合api模糊处理技术的恶意软件对抗样本生成方法 | |
Wang et al. | Deep learning-based efficient model development for phishing detection using random forest and BLSTM classifiers | |
CN109600362B (zh) | 基于识别模型的僵尸主机识别方法、识别设备及介质 | |
US11977626B2 (en) | Securing machine learning models against adversarial samples through backdoor misclassification | |
CN112241530B (zh) | 恶意pdf文档的检测方法及电子设备 | |
Yao et al. | Deep learning for phishing detection | |
Dinh et al. | Recent advances of Captcha security analysis: a short literature review | |
Macas et al. | Adversarial examples: A survey of attacks and defenses in deep learning-enabled cybersecurity systems | |
JP2023513109A (ja) | 二値画像認識システムへのサイバー攻撃の検出及び軽減 | |
Yu et al. | AI-powered GUI attack and its defensive methods | |
Depuru et al. | Deep Learning-based Malware Classification Methodology of Comprehensive Study | |
Cole et al. | A new facial authentication pitfall and remedy in web services | |
Canady et al. | Adversarially robust edge-based object detection for assuredly autonomous systems | |
CN114021136A (zh) | 针对人工智能模型的后门攻击防御系统 | |
US11551137B1 (en) | Machine learning adversarial campaign mitigation on a computing device | |
CN113536322A (zh) | 一种基于对抗神经网络的智能合约可重入漏洞检测方法 | |
Rahman et al. | An exploratory analysis of feature selection for malware detection with simple machine learning algorithms | |
Xu et al. | Verification Code Recognition Based on Active and Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240215 |