JP2023502202A - 偽造物理的文書の検出のための、データベース、データ構造、およびデータ処理システム - Google Patents
偽造物理的文書の検出のための、データベース、データ構造、およびデータ処理システム Download PDFInfo
- Publication number
- JP2023502202A JP2023502202A JP2022526347A JP2022526347A JP2023502202A JP 2023502202 A JP2023502202 A JP 2023502202A JP 2022526347 A JP2022526347 A JP 2022526347A JP 2022526347 A JP2022526347 A JP 2022526347A JP 2023502202 A JP2023502202 A JP 2023502202A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- machine learning
- learning model
- data representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 95
- 238000001514 detection method Methods 0.000 title abstract description 4
- 238000010801 machine learning Methods 0.000 claims abstract description 270
- 238000000034 method Methods 0.000 claims abstract description 102
- 239000013598 vector Substances 0.000 claims description 137
- 238000012549 training Methods 0.000 claims description 130
- 230000001815 facial effect Effects 0.000 claims description 68
- 238000003860 storage Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 abstract description 11
- 230000008569 process Effects 0.000 description 67
- 238000000605 extraction Methods 0.000 description 58
- 230000002159 abnormal effect Effects 0.000 description 42
- 230000015654 memory Effects 0.000 description 34
- 238000011156 evaluation Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 16
- 230000004913 activation Effects 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 12
- 238000007639 printing Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 238000005286 illumination Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 241000283898 Ovis Species 0.000 description 3
- 230000002547 anomalous effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003475 lamination Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 235000013334 alcoholic beverage Nutrition 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Inspection Of Paper Currency And Valuable Securities (AREA)
Abstract
偽造文書の検出のための、コンピュータプログラムを含む、方法、システム、および装置を開示する。一局面において、方法は、第1の画像を表す第1のデータを取得する工程と、入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された第1のデータを、入力として提供する工程と、取得された第1のデータを機械学習モデルが入力として処理したことに基づいて機械学習モデルによって生成された出力データを表す第2のデータを、取得する工程と、第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、取得された第2のデータに基づいて判定する工程と、第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納する工程とを含む。TIFF2023502202000002.tif130158
Description
背景
様々な理由で人が偽造文書を作成する可能性がある。そのような偽造文書の検出は、特に、金融サービス機関、小売店、政府機関を含む多くの事業体にとって重要な業務である。
様々な理由で人が偽造文書を作成する可能性がある。そのような偽造文書の検出は、特に、金融サービス機関、小売店、政府機関を含む多くの事業体にとって重要な業務である。
概要
本開示の1つの革新的な局面によれば、偽造文書の検出のための方法が開示される。一局面では、この方法は、第1の画像を表す第1のデータを、データ処理システムによって取得する工程、入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された第1のデータを、データ処理システムによって入力として提供する工程、取得された第1のデータを機械学習モデルが入力として処理したことに基づいて機械学習モデルによって生成された出力データを表す第2のデータを、データ処理システムによって取得する工程、第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、データ処理システムによって、取得された第2のデータに基づいて、判定する工程であって、取得された第2のデータを、所定の閾値に対して評価することを含む、判定する工程、および取得された第2のデータが所定の閾値を満たすという判定に基づいて、第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納する工程を含むことができる。
本開示の1つの革新的な局面によれば、偽造文書の検出のための方法が開示される。一局面では、この方法は、第1の画像を表す第1のデータを、データ処理システムによって取得する工程、入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された第1のデータを、データ処理システムによって入力として提供する工程、取得された第1のデータを機械学習モデルが入力として処理したことに基づいて機械学習モデルによって生成された出力データを表す第2のデータを、データ処理システムによって取得する工程、第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、データ処理システムによって、取得された第2のデータに基づいて、判定する工程であって、取得された第2のデータを、所定の閾値に対して評価することを含む、判定する工程、および取得された第2のデータが所定の閾値を満たすという判定に基づいて、第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納する工程を含むことができる。
他のバージョンは、コンピュータ可読記憶デバイス上に符号化された命令によって定義された方法の動作を行うための対応するシステム、装置、およびコンピュータプログラムを含む。
上記その他のバージョンは、任意で以下の特徴のうちの1つまたは複数を含んでいてもよい。例えば、いくつかの実装形態では、第1の画像を表す第1のデータを、データ処理システムによって取得する工程は、カメラを使用して、文書の画像を表す第2のデータを取り込むことと、文書の画像を表す第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す第1のデータを抽出することとを含むことができる。
いくつかの実装形態では、第1の画像を表す第1のデータを、データ処理システムによって取得する工程は、カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、文書の画像を表す第2のデータを受け取ることと、文書の画像を表す第2のデータから、第1の画像を表す第1のデータを抽出することとを含むことができる。
いくつかの実装形態では、第1の画像を表す第1のデータを、データ処理システムによって取得する工程は、デバイスから、第1の画像を表す第1のデータを受け取ることを含むことができる。
いくつかの実装形態では、偽造防止アーキテクチャは、2つ以上のセキュリティ特徴を含むことができる。
いくつかの実装形態では、2つ以上のセキュリティ特徴は、(i)所定の顔アスペクト比の存在、(ii)所定の頭部向きの存在、(iii)ドロップシャドウの存在、(iv)顔画像上のギョーシェラインの存在、または(v)所定の図形の存在のうちの2つ以上を含むことができる。
いくつかの実装形態では、入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルは、(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層を含むことができる。
いくつかの実装形態では、この方法は、第2の画像を表す第4のデータを、データ処理システムによって取得する工程、入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された第4のデータを、データ処理システムによって入力として提供する工程、取得された第4のデータを機械学習モデルが入力として処理したことに基づいて機械学習モデルによって生成された出力データを表す第5のデータを、データ処理システムによって取得する工程、第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、データ処理システムによって、取得された第5のデータに基づいて、判定する工程であって、取得された第5のデータを、所定の閾値に対して評価することを含む、判定する工程、および取得された第5のデータが所定の閾値を満たさないという判定に基づいて、第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納する工程、をさらに含むことができる。
いくつかの実装形態では、機械学習モデルを訓練することは、以下:それぞれの物理的文書の複数の訓練画像に、機械学習モデルによってアクセスすることであって、複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、アクセスすること、ならびに複数の訓練画像のうちの各々の特定の画像について、物理的文書の特定の画像の特定の部分を抽出すること、物理的文書の特定の画像の抽出された特定の部分についての入力ベクトルを生成すること、生成された入力ベクトルを、機械学習モデルの1つまたは複数の隠れ層を介して、機械学習モデルによって処理すること、物理的文書の特定の画像の抽出された特定の部分を表す生成された入力ベクトルについての機械学習モデルの処理に基づいて機械学習モデルによって生成された出力データを、取得すること、取得された出力データと特定の画像のラベルとの間に存在する誤差量を決定すること、および決定された誤差量に基づいて、機械学習モデルの1つまたは複数のパラメータを調整すること、を含むことができる。
本開示の上記その他の局面を、添付の図面を参照して以下の詳細な説明でより詳細に説明する。
詳細な説明
本開示は、偽造の物理的文書を検出するための方法、システム、およびコンピュータプログラムを対象とする。一局面では、正規の物理的文書を描写する画像と偽造の物理的文書を描写する画像とを区別するように機械学習モデルを訓練することができる。正規の物理的文書は、正規の偽造防止アーキテクチャに準拠するように作成された文書である。偽造の物理的文書は、正規の偽造防止アーキテクチャに準拠せずに作成された文書である。正規の偽造防止アーキテクチャは、本明細書では「偽造防止アーキテクチャ」と呼ばれる場合もあり、物理的文書の画像内のその集合的な有無が物理的文書の正当性のしるしを提供する2つ以上の偽造防止セキュリティ特徴のグループを含むことができる。本開示の目的では、物理的文書は、運転免許証、パスポート、または物理的な身分証明の形態によって識別される人物の顔画像を含む任意の形態の物理的な身分証明を含むことができる。
本開示は、偽造の物理的文書を検出するための方法、システム、およびコンピュータプログラムを対象とする。一局面では、正規の物理的文書を描写する画像と偽造の物理的文書を描写する画像とを区別するように機械学習モデルを訓練することができる。正規の物理的文書は、正規の偽造防止アーキテクチャに準拠するように作成された文書である。偽造の物理的文書は、正規の偽造防止アーキテクチャに準拠せずに作成された文書である。正規の偽造防止アーキテクチャは、本明細書では「偽造防止アーキテクチャ」と呼ばれる場合もあり、物理的文書の画像内のその集合的な有無が物理的文書の正当性のしるしを提供する2つ以上の偽造防止セキュリティ特徴のグループを含むことができる。本開示の目的では、物理的文書は、運転免許証、パスポート、または物理的な身分証明の形態によって識別される人物の顔画像を含む任意の形態の物理的な身分証明を含むことができる。
偽造防止アーキテクチャの「セキュリティ特徴」は、物理的文書の画像内のその有無を本開示に従って訓練された機械学習モデルによって検出することができる偽造防止アーキテクチャの特徴を指す用語である。いくつかの実装形態では、本開示に従って訓練された機械学習モデルは、存在すべきセキュリティ特徴の不在、存在すべきでないセキュリティ特徴の存在、誤ったセキュリティ特徴、または異常なセキュリティ特徴を検出することができる。セキュリティ特徴には、自然な背景、人工的な背景、自然照明、人工照明、自然な影、人工的な影の存在、不在、または配置、ドロップシャドウなどのフラッシュシャドウの不在、頭部サイズ異常、頭部アスペクト比異常、頭部並進異常、異常な色温度、異常な着色、位置合わせおよび構成されたフラッシュ照明、オフアングル照明、焦点計画異常、焦点面の二等分、固定焦点レンズの使用、再量子化に関連するイメージング効果、圧縮に関連するイメージング効果、異常な頭部傾斜、異常な頭部姿勢、異常な頭部回転、非正面顔効果、眼鏡、帽子、頭部スカーフ、または他のカバーなどの顔のオクルージョンの存在、異常な頭部形状動力学、眼間距離に対する異常な頭部アスペクト比、前景と背景の間の異常な露出補正、異常な焦点効果、異なるデジタルソースを示す画像スティッチング効果、不適切な生体認証セキュリティ特徴の印刷、不適切なOVD、OVI、ホログラム、顔または文書の他の部分の上の他の二次的なセキュリティ特徴のオーバーレイなどの不適切なセキュリティ特徴の積層、顔の近く、顔の上、または文書の他の部分の上の不適切な触覚セキュリティ特徴配置、不適切な最終面印刷、不適切なレーザの白黒、不適切なカラーレーザ、不適切な積層インク印刷、不適切な印刷技術、不適切な印刷層順序付けなどを含めることができる。
本開示は、物理的文書の画像を解析することによって物理的文書の偽造を識別することに関する偽造文書検出の技術分野における問題の解決策を対象とする。そのようなプロセスは、デジタル画像の偽造を検出することとは異なる重大な課題を有する。
従来のシステムを使用して容易に検出できる偽造デジタル画像の例には、その頭部が(i)第1の画像からデジタル的に除去され、次いで(ii)人物Bの頭部の第2の画像でデジタル的に置き換えられた第1の人物Aの第1の画像を含めることができる。そのような偽造デジタル画像は、第1の画像と第2の画像との間に存在する不連続性を識別するようにコンピュータをプログラムすることができるので、従来のシステムを使用して容易に検出することができる。例えば、修正された第1の画像がフォトショップなどのエディタに配置された後に人物Aの身体および人物Bの頭部を有する修正された第1の画像を表すベクトル行列内の実際の数値を解析するようにコンピュータをプログラムすることができる。そのようなシナリオでは、コンピュータは、修正された第1の画像を表すベクトル行列に基づいて、人物Aの身体と人物Bの頭部との間の修正された第1の画像を表すベクトル行列の値の極端な不連続性を検出することができる。
しかしながら、これらおよびその他の不連続性は、修正画像が保存され物理的文書上に印刷されるときにマスクされる。例として、画像を保存することにより、画像特徴を圧縮することによるなど、保存された画像に存在し得る不連続性を平滑化する方法で修正画像がフォーマットされる。別の例として、画像が物理的文書上に印刷出力される場合、画像を印刷するために使用されるインクは、画像の近似である。ある場合には、画像を印刷するためにドットマトリクスを使用することができる。このドットマトリクスは、画像内の不連続性を平滑化することができる近似である。したがって、画像の保存、画像の量子化、画像の圧縮、画像の印刷、およびその後の画像の再画像化などの操作により、画像に対するこれら前述の操作の前に従来のシステムによって容易に検出され得る不連続性が、完全に平滑化され、もはや従来のシステムを使用して検出できなくなる可能性がある。
本開示は、当技術分野におけるこの問題に、物理的文書の画像の処理に基づいて偽造の物理的文書を検出するように機械学習モデルを訓練する方法を提供することによって対処する。より詳細には、本開示は、偽造の物理的文書を検出するために使用することができる機械学習モデルのセキュリティ特徴識別器層を訓練することを説明する。セキュリティ特徴識別器層は、物理的文書の画像内の偽造防止アーキテクチャのセキュリティ特徴の有無を検出するように各々構成された複数のセキュリティ特徴識別器を含むことができる。機械学習モデルのセキュリティ特徴識別器層のセキュリティ特徴識別器の判定を表すデータを、セキュリティ特徴識別器層の後に残る機械学習モデルの層を介して伝播し、機械学習モデルによって出力スコアを生成する際に機械学習モデルによって使用することができる。機械学習モデルが、例えば、損失関数を最小化することによって訓練されると、物理的文書の画像についての機械学習モデルの処理に基づいて訓練された機械学習モデルによって生成された出力スコアを次いで評価して、機械学習モデルに入力され、機械学習モデルによって処理された物理的文書の画像が偽造文書の画像であるかどうかを判定することができる。
図1は、物理的文書を生成するためのプロセスの例を説明する文脈図である。これらの例は、正規の物理的文書の例を生成するための第1の例示的なプロセス100A、偽造の物理的文書を生成するための第2の例示的なプロセス100B、および偽造の物理的文書を生成するための第3の例示的なプロセス100Cを含む。
正規物理的文書の生成の例
プロセス100Aは、正規の物理的文書を生成するためのプロセスの一例である。プロセス100Aは、第1の人物105Aがカメラ110Aを使用して運転免許証やパスポートなどの正規の物理的文書160Aに含めるための画像150Aを生成することを含む。いくつかの実装形態では、カメラ110Aは、正規文書に含めるための画像を生成するように構成されたカメラを含むことができる。正規文書に含めるための画像を生成するように構成されたカメラは、特定の品質の画像を生成するように構成されたカメラとすることができる。そのようなカメラは、メガピクセル、照明、コントラスト、色域、アスペクト比、または他の画像特徴のうちの1つまたは複数に関連する閾値レベルを満たす画像を生成することを必要とされ得る。いくつかの実装形態では、カメラ110Aを、カメラ110Aによって撮影されている人物107Aの背後の背景120Aにドロップシャドウ142Aを生成するのに必要な閾値量のルーメンを生成するフラッシュ112Aを有するように構成することもできる。
プロセス100Aは、正規の物理的文書を生成するためのプロセスの一例である。プロセス100Aは、第1の人物105Aがカメラ110Aを使用して運転免許証やパスポートなどの正規の物理的文書160Aに含めるための画像150Aを生成することを含む。いくつかの実装形態では、カメラ110Aは、正規文書に含めるための画像を生成するように構成されたカメラを含むことができる。正規文書に含めるための画像を生成するように構成されたカメラは、特定の品質の画像を生成するように構成されたカメラとすることができる。そのようなカメラは、メガピクセル、照明、コントラスト、色域、アスペクト比、または他の画像特徴のうちの1つまたは複数に関連する閾値レベルを満たす画像を生成することを必要とされ得る。いくつかの実装形態では、カメラ110Aを、カメラ110Aによって撮影されている人物107Aの背後の背景120Aにドロップシャドウ142Aを生成するのに必要な閾値量のルーメンを生成するフラッシュ112Aを有するように構成することもできる。
いくつかの実装形態では、特定の偽造防止アーキテクチャに準拠するために、カメラが人物107Aから距離X離れており、カメラが高さYに配置されている場合に、正規の物理的文書160Aに含めるためにカメラ110Aによって画像を適切に生成することができる。ある場合には、距離Xおよび高さYを、特定の偽造防止アーキテクチャによって必要とされる人物107Aの顔の適切な顔アスペクト比および特定の焦点面114Aを作成するように決定することができる。特定の距離Xおよび高さYが決定され、正規の物理的文書を生成するためのプロセス100Aの間に使用されると、本開示に従って説明される機械学習モデルを、例えば、異なる顔アスペクト比をもたらすX1もしくはX2などの異なる距離で、例えば、焦点面の増加または減少をもたらす異なる高さY1もしくはY2で、またはそれらの任意の組み合わせでカメラによって生成された物理的文書の偽造画像を検出するように訓練することができる。
プロセス100Aでは、照明130Aと、水平焦点面114a上に配置されたフラッシュ112Aを有する距離Xおよび高さYのカメラ110Aと、背景120Aとの組み合わせを使用して生成された画像150Aを、正規の物理的文書160Aに印刷することができる。画像150Aは、人物107Aの頭部の背後のドロップシャドウ152A、154Aなどのセキュリティ特徴を含むことができる。加えて、画像150Aは、水平焦点面上にあり、第1の顔アスペクト比を有する人物107Aの頭部を描写している。第1の顔アスペクト比は、正規の物理的文書160Aを作成するために使用される特定の偽造防止アーキテクチャによって指定され得る。本開示に従って説明される機械学習モデルは、第1のアスペクト比とは異なるアスペクト比を有する、異なる生成された顔画像を有する物理的文書の偽造画像を検出するように訓練することができる。
正規の物理的文書160Aは、ドロップシャドウ152A、154A、ギョーシェライン156A、および適切なサイズの図形158Aなどのセキュリティ特徴を含む偽造防止アーキテクチャを含むことができる。物理的文書を正当化する特定の偽造防止アーキテクチャは、管轄ごとに異なり得る。しかしながら、本開示は、それぞれの正規の物理的文書の画像の第1のセットと、それぞれの偽造の物理的文書の画像の第2のセットとを集約し、次いで、本明細書に記載されるように、第1のセットの画像を第2のセットの画像と区別するように機械学習モデルを訓練することができる。例えば、正規の偽造防止アーキテクチャが、ドロップシャドウ、特定のギョーシェライン、および特定の図形を含むと判定された場合、本開示を使用して、ドロップシャドウ、特定のギョーシェライン、または特定の図形のうちの1つまたは複数を正規の偽造防止アーキテクチャによって必要とされるようにそれぞれの位置に含まない物理的文書の画像を検出するように機械学習モデルを訓練することができる。したがって、本開示は、どんな1つの特定の偽造防止アーキテクチャにも限定されず、任意の偽造防止アーキテクチャに準拠しない偽造の物理的文書を検出するように機械学習モデルを訓練するために使用することができる。
偽造物理的文書の生成の第1の例
プロセス100Bは、偽造の物理的文書の生成の一例である。プロセス100Bは、第1の人物105Bがスマートフォン102Bのカメラ110Bを使用して、偽造運転免許証や偽造パスポートなどの偽造の物理的文書160Bに含めるための画像150Bを生成することを含む。この例では、スマートフォン102Bのカメラ110Bは、プロセス100Aのカメラ110Aの高さYよりも高い高さY1に保持されている。これにより、増加した焦点面114Bを有する画像105Bが生成される。加えて、プロセス100Bの例では、スマートフォン102Bのカメラ110Bは、プロセス100Aにおけるカメラ110Aと人物107Aとの間の距離Xよりも遠い人物107Bからの距離X1のところに配置されている。これにより、画像150Bに示される人物107Bの顔アスペクト比が、正規の画像150Aにおける人物107Aの顔アスペクト比よりも小さくなる可能性がある。
プロセス100Bは、偽造の物理的文書の生成の一例である。プロセス100Bは、第1の人物105Bがスマートフォン102Bのカメラ110Bを使用して、偽造運転免許証や偽造パスポートなどの偽造の物理的文書160Bに含めるための画像150Bを生成することを含む。この例では、スマートフォン102Bのカメラ110Bは、プロセス100Aのカメラ110Aの高さYよりも高い高さY1に保持されている。これにより、増加した焦点面114Bを有する画像105Bが生成される。加えて、プロセス100Bの例では、スマートフォン102Bのカメラ110Bは、プロセス100Aにおけるカメラ110Aと人物107Aとの間の距離Xよりも遠い人物107Bからの距離X1のところに配置されている。これにより、画像150Bに示される人物107Bの顔アスペクト比が、正規の画像150Aにおける人物107Aの顔アスペクト比よりも小さくなる可能性がある。
プロセス100Bの例では、スマートフォン102Bのカメラ110Bを使用した画像150Bの生成中に、異なる背景面120B、十分な照明条件130Bの欠如、増加した焦点面114B、またはそれらの組み合わせが使用される。異なる背景面120B、十分な照明条件130Bの欠如、増加した焦点面114B、またはそれらの組み合わせは、位置142Bに適切なドロップシャドウを生成しない可能性がある。したがって、異なる背景面120B、十分な照明条件130Bの欠如、増加した焦点面114B、またはそれらの組み合わせは、ドロップシャドウ152A、154Aを含む画像150Aなどの正規の画像においてドロップシャドウが発生するはずの位置152B、154Bなどの画像150Bの位置において画像150Bにドロップシャドウを含まない、スマートフォン102Bのカメラ110Bによって生成された画像150Bをもたらし得る。画像150Bは、プロセス100Bにおいて偽造文書160B上に印刷される。
プロセス100Bから生じる偽造文書160Bは、プロセス100Aを参照して説明された例示的な偽造防止アーキテクチャの顕著なセキュリティ特徴を欠いている。例えば、偽造文書160Bは、例えば、距離X1が距離Xよりも大きいために得られる、正規の画像150Aとは異なるアスペクト比のプロフィール画像150Bを有するが、カメラ110Aとカメラ110Bの仕様の違いなどの他の要因が異なるアスペクト比を引き起こす可能性もある。別の例として、偽造文書160Bは、画像150Aに示されるようにドロップシャドウが現れることが予期される画像150Bの位置152B、154Bにドロップシャドウがないことが図1から分かるように、ドロップシャドウを含む人物107Bの顔のプロフィール画像を欠いている。さらに、正規の物理的文書160Aと比較して見ると、偽造の物理的文書160Bはギョーシェライン156Bを含まず、不適切なサイズの図形158Bを有することが分かるように、偽造文書160Bは他のセキュリティ特徴を欠いている。
偽造物理的文書の生成の第2の例
プロセス100Cは、偽造の物理的文書の生成の別の例である。プロセス100Cは、人物107Cがスマートフォン102Cのカメラ110Cを使用して、偽造運転免許証や偽造パスポートなどの偽造の物理的文書160Cに含めるための「自撮り」画像150Cを生成することを含む。この例では、スマートフォン102Cのカメラ110Cは、プロセス100Aのカメラ110Aの高さYよりも低い高さY2に保持されている。これにより、減少した焦点面114Cを有する画像105Cが生成される。加えて、プロセス100Cの例では、スマートフォン102Cのカメラ110Cは、プロセス100Aにおけるカメラ110Aと人物107Aとの間の距離Xよりも小さい人物107Cからの距離X2のところに配置されている。これにより、画像150Cに示される人物107Cの顔の顔アスペクト比が、正規の画像150Aにおける人物107Aの顔の顔アスペクト比よりも大きくなる可能性がある。
プロセス100Cは、偽造の物理的文書の生成の別の例である。プロセス100Cは、人物107Cがスマートフォン102Cのカメラ110Cを使用して、偽造運転免許証や偽造パスポートなどの偽造の物理的文書160Cに含めるための「自撮り」画像150Cを生成することを含む。この例では、スマートフォン102Cのカメラ110Cは、プロセス100Aのカメラ110Aの高さYよりも低い高さY2に保持されている。これにより、減少した焦点面114Cを有する画像105Cが生成される。加えて、プロセス100Cの例では、スマートフォン102Cのカメラ110Cは、プロセス100Aにおけるカメラ110Aと人物107Aとの間の距離Xよりも小さい人物107Cからの距離X2のところに配置されている。これにより、画像150Cに示される人物107Cの顔の顔アスペクト比が、正規の画像150Aにおける人物107Aの顔の顔アスペクト比よりも大きくなる可能性がある。
加えて、プロセス100Cの例では、スマートフォン102Cのカメラ110Cを使用した画像150Cの生成中に、十分な照明条件130Cの欠如および減少した焦点面114Cが使用される。十分な照明条件130Cの欠如、減少した焦点面114C、またはそれらの組み合わせは、位置142Cに適切なドロップシャドウを生成しない可能性がある。したがって、十分な照明条件130Cの欠如、減少した焦点面114C、またはそれらの組み合わせは、ドロップシャドウ152A、154Aを含む画像150Aなどの正規の画像においてドロップシャドウが発生するはずの位置152C、154Cなどの画像150Cの位置において画像150Cにドロップシャドウを含まない、スマートフォン102Cのカメラ110Cによって生成された画像150Cをもたらし得る。画像150Cは、プロセス100Cにおいて偽造文書160C上に印刷される。
プロセス100Cから生じる偽造文書160Cは、プロセス100Aを参照して説明された例示的な偽造防止アーキテクチャの顕著なセキュリティ特徴を欠いている。例えば、偽造文書160Cは、例えば、距離X2が距離Xよりも小さいために得られる、正規の画像150Aとは異なるアスペクト比のプロフィール画像150Cを有するが、カメラ110Aとカメラ110Cとの仕様の違いなどの他の要因が異なるアスペクト比を引き起こす可能性もある。別の例として、偽造文書160Cは、画像150Aに示されるようにドロップシャドウが現れることが予期される画像150Cの位置152C、154Cにドロップシャドウがないことが図1から分かるように、ドロップシャドウを含む人物107Cの顔のプロフィール画像を欠いている。さらに、正規の物理的文書160Aと比較して見ると、偽造の物理的文書160Cは156Cにギョーシェラインを含まず、不適切なサイズの図形158Cを有することが分かるように、偽造文書160Cは他のセキュリティ特徴を欠いている。
正規物理的文書 対 偽造物理的文書
プロセス100A、100B、100Cの説明は、正規物理的文書作成 対 偽造物理的文書作成の例を比較および対比するために提供されている。これらの例は、厳格な規則として提供されているのではない。さらに、プロセス100Aを参照して説明された正規の物理的文書160Aよりも多いか、少ないか、またはこれと異なるセキュリティ特徴を有する偽造防止アーキテクチャを含む正規の物理的文書が作成されてもよい。しかしながら、正規の物理的文書のセットが、正規の物理的文書160Aの偽造防止アーキテクチャなどの特定の偽造防止アーキテクチャを有すると識別されると、作成された物理的文書が正規の物理的文書のセットの偽造防止アーキテクチャによって指定されたセキュリティ特徴の各々を有さない場合、作成された物理的文書を偽造の物理的文書として識別することができる。偽造防止アーキテクチャは、管轄ごとに異なり、時間と共に変化する可能性がある。
プロセス100A、100B、100Cの説明は、正規物理的文書作成 対 偽造物理的文書作成の例を比較および対比するために提供されている。これらの例は、厳格な規則として提供されているのではない。さらに、プロセス100Aを参照して説明された正規の物理的文書160Aよりも多いか、少ないか、またはこれと異なるセキュリティ特徴を有する偽造防止アーキテクチャを含む正規の物理的文書が作成されてもよい。しかしながら、正規の物理的文書のセットが、正規の物理的文書160Aの偽造防止アーキテクチャなどの特定の偽造防止アーキテクチャを有すると識別されると、作成された物理的文書が正規の物理的文書のセットの偽造防止アーキテクチャによって指定されたセキュリティ特徴の各々を有さない場合、作成された物理的文書を偽造の物理的文書として識別することができる。偽造防止アーキテクチャは、管轄ごとに異なり、時間と共に変化する可能性がある。
正規の物理的文書および偽造の物理的文書の前述の説明では、偽造防止アーキテクチャのセキュリティ特徴、または偽造防止アーキテクチャのセキュリティ特徴を生じさせる環境条件に関連して「正常」、「適切」、「十分」、「適当」、「自然」などの用語を使用し、偽造の物理的文書の局面、または偽造の物理的文書に関連した環境条件に言及するときに「異常」、「不適切」、「不十分」(または十分でない)、「不適当」、「不自然」などの用語を使用している。セキュリティ特徴またはセキュリティ特徴を生じさせる環境条件は、セキュリティ特徴またはセキュリティ特徴を生じさせる環境条件が、正規の物理的文書に対して指定された偽造防止アーキテクチャのセキュリティ特徴の作成に関連する場合、「正常」、「適切」、「十分」、「自然」などである。同様に、物理的文書の局面または物理的文書の特徴を生じさせる環境条件は、物理的文書の特徴または物理的文書の特徴を生じさせる環境条件が、正規の物理的文書に対して指定された偽造防止アーキテクチャと関連付けられたセキュリティ特徴またはセキュリティ特徴を生じさせる環境条件から逸脱する場合に、「異常」、「不適切」、「不十分」(または十分性を欠く)、「不適当」、または「不自然」などである。
図1の例では、それぞれの物理的文書160A、160B、160Cの画像を、カメラを使用して物理的文書160A、160B、160Cの各々の写真を撮ることによって生成することができる。物理的文書160A、160B、160Cのそれぞれの画像は、1つまたは複数のネットワークを使用してサーバ150にアップロードし、訓練画像のデータベースに格納することができる。訓練画像のデータベースは、偽造の物理的文書を検出するように機械学習モデルを訓練するためのデータソースとして使用することができる。図1の例は、3つの異なる物理的文書の3つの画像がサーバ150にアップロードされることを示しているだけであるが、本開示はそのように限定されない。代わりに、物理的文書の何百もの画像、物理的文書の何千もの画像、物理的文書の何万もの画像、物理的文書の何十万もの画像、物理的文書の何百万もの画像、または物理的文書のさらに多くの画像を、偽造の物理的文書を検出するように機械学習モデルを訓練する際に使用するために生成または取得し、サーバ150にアップロードすることができる。
偽造の物理的文書を検出するための機械学習モデルの訓練
図2は、偽造文書を検出するように機械学習モデル250を訓練するための訓練システム200の一例のブロック図である。訓練システム200は、訓練データベース202、抽出ユニット230、ベクトル生成ユニット240、機械学習モデル250、および損失関数260を含むことができる。訓練システム200の構成要素の各々は、単一のコンピュータ上でホストするか、または1つもしくは複数のネットワークを使用して互いに通信するように構成された複数のコンピュータにわたってホストすることができる。本明細書の目的では、「ユニット」は、本開示によって「ユニット」に帰せられる機能を実行するように構成されたソフトウェア、ハードウェア、またはそれらの任意の組み合わせを含むことができる。
図2は、偽造文書を検出するように機械学習モデル250を訓練するための訓練システム200の一例のブロック図である。訓練システム200は、訓練データベース202、抽出ユニット230、ベクトル生成ユニット240、機械学習モデル250、および損失関数260を含むことができる。訓練システム200の構成要素の各々は、単一のコンピュータ上でホストするか、または1つもしくは複数のネットワークを使用して互いに通信するように構成された複数のコンピュータにわたってホストすることができる。本明細書の目的では、「ユニット」は、本開示によって「ユニット」に帰せられる機能を実行するように構成されたソフトウェア、ハードウェア、またはそれらの任意の組み合わせを含むことができる。
訓練システム200は、1つまたは複数のデータソースから物理的文書の1つまたは複数の画像210、212、214を取得し、取得された画像を訓練データベース202に格納することができる。データソースは、1つまたは複数のネットワークを介してアクセス可能な物理的文書の画像のデジタルライブラリを含むことができる。データソースは、物理的文書の画像を取り込み、取り込まれた画像を訓練データベース202に格納するために1つまたは複数のネットワークを介して送るスマートフォンなどのデバイスを含むことができる。訓練データベース202をホストする訓練システム200のコンピュータに直接接続された物理的文書の画像のフラッシュドライブなどの他の種類のデータソースを、物理的文書の画像のソースとすることもできる。画像210、212、214は、画像210などの正規の物理的文書の画像、および画像212、214などの偽造の物理的文書の画像を含むことができる。
画像210、212、214の各々を、画像210、212、214が正規の物理的文書の画像であるかそれとも偽造の物理的文書であるかのしるしを提供するそれぞれのラベル211、213、214に論理的に関連付けることができる。いくつかの実装形態では、画像210、212、214は、訓練システム200による画像210、212、214の受け取り時に、正規の物理的文書の画像または偽造の物理的文書の画像としてラベル付けされ得る。他の実装形態では、人間のユーザが、訓練データベース202によって受け取られ格納された物理的文書の画像210、212、214の各々を検討し、画像210、212、214のラベルを作成することができる。ラベルは、特定の画像210、212、214が正規の物理的文書の画像であるかそれとも偽造の物理的文書であるかを示す特定の画像210、212、214に関連する任意の種類のメタデータを含むことができる。図2の例では、画像210はラベル211「正規」でラベル付けされており、画像212はラベル213「偽造」でラベル付けされており、画像214はラベル215「偽造」でラベル付けされている。
いくつかの実装形態では、ラベルをテキスト値として各々表すことができる。他の実装形態では、ラベルを、ラベルを表す数値として各々表すことができる。例えば、ラベルは、正規に「1」または偽造に「0」などの数値フラグとして各々実装することができる。他の実装形態では、ラベルは、機械学習モデル250がラベルに論理的に関連する訓練画像を処理した結果として機械学習モデル250によって生成されるべき数値スコアとして各々実装することができる。他の実装形態では、ラベルは、機械学習モデル250がラベルに論理的に関連する訓練画像を処理した結果として機械学習モデル250によって生成された出力が満たすべきスコアの範囲を表すことができる。
図2の例は、3つの異なる物理的文書の3つの画像210、212、214が訓練データベース202によって受け取られることを示しているだけであるが、本開示はそのように限定されない。代わりに、物理的文書の何百もの画像、物理的文書の何千もの画像、物理的文書の何万もの画像、物理的文書の何十万もの画像、物理的文書の何百万もの画像、または物理的文書のさらに多くの画像を、偽造文書を検出するように機械学習モデル250を訓練する際に訓練システム200によって受け取ることができる。
訓練システム200は、訓練データベース202にアクセスして訓練データベース202に格納された訓練画像を取得し、取得された訓練画像を抽出ユニット230に提供することができる。抽出ユニット230は、機械学習モデル250を訓練するために使用される物理的文書の画像の特定の部分を識別するように構成されている。いくつかの実装形態では、物理的文書の画像の特定の部分は、物理的文書が識別する人物の顔画像またはプロフィール画像に対応する物理的文書の画像の部分を含むことができる。例として、物理的文書の画像210の特定の部分は、顔画像210aを含むことができる。
他の実装形態では、画像の特定の部分は、セキュリティ特徴を有する物理的文書の部分全体を表す物理的文書の画像の部分を含むことができる。例えば、物理的文書の画像が、スマートフォンのカメラまたは他のデバイスを使用して生成されると仮定する。カメラを使用して画像を生成する場合、カメラは、物理的文書の画像がカメラによって作成されたときに物理的文書が存在した周囲環境の一部分も取り込む可能性が高い。そのような例では、抽出ユニット230を、物理的文書を表す画像の部分を抽出し、画像がカメラによって生成されたときに物理的文書が存在していた周囲環境に対応する画像の部分を破棄するように構成することができる。実行時にこのように機能する実行時抽出ユニットの一例が、図4Fを参照して示されている。
したがって、機械学習モデル250の入力データを生成するために訓練システム200によって使用される画像210、212、214の部分は、機械学習モデル250がどのように訓練されるべきかに応じて変化し得る。いくつかの実装形態では、機械学習モデル250を、物理的文書の画像210、212、214からそれぞれ抽出された顔画像210a、212a、214aのみで訓練することができる。他の実装形態では、機械学習モデル250を、物理的文書全体を表す画像の部分の全体を表す画像で訓練することができ、物理的文書全体を表す画像の部分の全体は、いくつかの実装形態では、物理的文書の境界によって画定される。他の実装形態では、物理的文書全体は、セキュリティ特徴を含む文書の部分を含むことができる。図2の例の目的では、機械学習モデル250を訓練することは、顔画像またはプロフィール画像を含む物理的文書の画像の抽出された部分の使用に関して説明されている。しかしながら、機械学習モデル250は、物理的文書全体の画像までのセキュリティ特徴を含み、いくつかの実装形態では、物理的文書全体の画像を潜在的に含む、物理的文書の画像の任意の他の部分を使用して同じ方法で訓練することもできる。
図2の例に関して、訓練システム200は、訓練データベース202に格納された物理的文書の画像210を取得し、画像210を抽出ユニット230に提供することができる。画像210は、画像210が正規の物理的文書の画像であることを示すラベル211と論理的に関連している。抽出ユニット230は、画像210から顔画像210aを抽出し、抽出された顔画像210aをベクトル生成ユニット240に提供することができる。抽出された顔画像210aは、ギョーシェライン、適切なアスペクト比、水平焦点面、およびドロップシャドウの偽造防止アーキテクチャを有する。
ベクトル生成ユニット240は、機械学習モデル250に入力するためのデータを生成することができる。生成された入力データは、抽出された顔画像210aを数値的に表すベクトル210bを含むことができる。例えば、ベクトル210bは、画像210aの画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット240は、画像210aの対応する画素を記述するフィールドの各々の数値を決定することができる。決定されたフィールドの各々数値は、画像210aに含まれる偽造防止アーキテクチャのセキュリティ特徴を、生成されたベクトル210bへと符号化するために使用することができる。生成されたベクトル210bは、画像210aを数値的に表すものであり、機械学習モデル250への入力として提供される。
機械学習モデル250は、入力データを受け取るための入力層252と、入力層252を介して受け取られた入力データを処理するための1つまたは複数の隠れ層254a、254b、254cと、出力データを提供するための出力層256とを有するディープニューラルネットワークを含むことができる。各隠れ層254a、254b、254cは、1つまたは複数の重みまたは他のパラメータを含んでいてもよい。各それぞれの隠れ層254a、254b、254cの重みまたは他のパラメータは、訓練されたディープニューラルネットワークが各訓練データセットに対応する所望の目標ベクトルを生成するように調整することができる。各隠れ層254a、254b、254cの出力は、活性化ベクトルを含むことができる。各それぞれの隠れ層によって出力された活性化ベクトルは、ディープニューラルネットワークの後続の層を介して伝播し、出力層によって出力データを生成するために使用することができる。例えば、出力層は、ニューラルネットワーク出力データ258を生成するために、最終隠れ層254cからの受け取られた活性化ベクトルの追加の計算を行うことができる。
訓練システム200は、隠れ層254a、254b、254cのうちの1つまたは複数をセキュリティ特徴識別器層として機能するように構成するように機械学習モデル250を訓練することができる。セキュリティ特徴識別器層は、セキュリティ特徴識別器を含むように訓練されたディープニューラルネットワークの1つまたは複数の隠れ層を含むことができる。各セキュリティ特徴識別器を、偽造防止アーキテクチャの特定のセキュリティ特徴の有無を検出するように構成することができる。1つまたは複数の隠れ層254a、254b、254cを、自己符号化プロセスを使用してセキュリティ特徴識別器層を含むように訓練することができる。
自己符号化は、ディープニューラルネットワーク出力層が、ディープニューラルネットワークによって処理された入力データを、入力データが基づく画像に対応するラベルによって指定される特定のクラスに正確に分類するディープニューラルネットワーク出力データの駆動を開始するまで、ディープニューラルネットワーク層の重みまたは他のパラメータを調整するためのフィードバックループを使用する1つまたは複数のディープニューラルネットワーク層を生成するための訓練プロセスである。入力データのクラスを提示する出力データは、類似度スコアで表すことができる。出力類似度スコアは、入力データのクラスを決定するために出力類似度スコアに1つまたは複数の閾値を適用することなどによって評価することができる。図2を参照すると、画像210aを表すベクトル210bは、機械学習モデル250の入力層252に入力され、機械学習モデル250の各層を介して処理され、ベクトル210bの機械学習モデル250の処理に基づいて出力データ258が生成される。
フィードバックループは、入力として、機械学習モデル250によって生成された出力データ258と、出力データ258を生成するために機械学習モデル250によって処理された特定の訓練画像のための訓練ラベル257とを受け取る損失関数260を使用することによって実装することができる。図2の例では、損失関数への入力は、(i)画像210を表す入力データベクトル210bについての機械学習モデルの処理に基づいて機械学習モデル250によって生成された出力データ258、および(ii)画像210に論理的に関連するラベル211とすることができる。訓練システム200は、損失関数260を最小化するように機械学習モデル250を訓練する。損失関数260は、(i)所与の訓練画像を処理することによって機械学習モデル250によって生成された出力データ258と、(ii)機械学習モデル250が訓練画像を処理することによって生成すべきであった最終的な目標出力である、機械学習モデルによって処理された訓練画像のラベル257とに依存する任意の関数を含むことができる。この例では、損失関数260は、機械学習モデルによって出力データ258を生成するように処理された訓練画像のラベルにより厳密に一致する後続の訓練反復のための出力データ258を生成するように機械学習モデル250を駆動しようとして、例えば、機械学習モデル250にフィードバックし、機械学習モデル250の重みまたは他のパラメータの値を調整するために使用することができる損失関数出力データ270を決定するために、出力データ258とラベル211との差を決定することができる。
訓練システム200は、訓練データベース202から訓練画像取得の複数回の反復を行い、機械学習モデル250の訓練に使用するための訓練画像の一部分を抽出し、訓練画像の抽出された部分に基づいて入力ベクトルを生成し、機械学習モデル250を使用して、生成された入力ベクトルを処理し、機械学習モデル250によって生成された出力258と、出力データ258を生成するために機械学習モデル250によって処理された入力データベクトルで表された訓練画像に対応する訓練画像のラベル257との関数である損失関数260を実行することによって、セキュリティ特徴識別器層としての1つまたは複数の隠れ層254a、254b、254cを自己符号化することができる。訓練システム200は、誤差逆伝播による確率的勾配降下法などの技術を使用して損失関数260を最小化しようとして、各反復における損失関数260の出力270に基づいて機械学習モデル250のパラメータの値を調整することができる。損失関数の出力270に基づく機械学習モデル250のパラメータの値の反復調整は、出力データ258が、所定の誤差量内で、出力データ258を生成するために機械学習モデル250によって処理された入力データベクトルに対応する画像の訓練ラベルと一致し始めるまで、隠れ層254a、254b、254cのうちの1つまたは複数の重みまたは他のパラメータの値を調整するフィードバックループである。
図2の例の訓練画像に対して上記の自己符号化機能を実行し続けるために、訓練システム200は、機械学習モデル250に訓練画像を供給し続けることができる。機械学習モデル250の重みまたは他のパラメータの値を、(i)入力データベクトル210bの機械学習モデル250の処理に基づいて機械学習モデル250によって生成された第1の出力データ258と(ii)ラベル211との差に基づいて調整した後、訓練システム200は、第2の訓練画像212にアクセスすることができる。
訓練システム200は、訓練画像212を抽出ユニット230に提供することができる。抽出ユニット230は、訓練画像212から顔画像212aを抽出するように構成されている。抽出された顔画像212aは、ギョーシェライン、適切なアスペクト比、およびドロップシャドウを欠いているため、正規の物理的文書の偽造防止アーキテクチャのセキュリティ特徴を含まない。抽出された顔画像212aを、ベクトル生成ユニット240に提供することができる。ベクトル生成ユニット240は、抽出された顔画像212aの特徴を数値的に表す入力データベクトル212bを生成することができる。入力データベクトル212bを、機械学習モデル250の入力層252に提供することができる。機械学習モデル250は、機械学習モデル250の各層を介して入力データベクトル212bを処理して出力データ258を生成することができる。次いで、出力データ258を、画像212に論理的に関連するラベル213と共に損失関数260への入力として提供することができる。損失関数は、(i)入力データベクトル212bの機械学習モデル250の処理に基づいて機械学習モデルによって生成された出力データ258と、(ii)ラベル213との差に基づくものである、損失関数出力データ270を生成する。次いで、訓練システム200は、損失関数出力データ270に基づいて機械学習モデル250の重みまたは他のパラメータの値を更新することができる。
訓練システム200は、別の訓練画像214にアクセスすることによって機械学習モデル250の訓練を続行することができる。訓練システム200は、訓練画像214を抽出ユニット230に提供することができる。抽出ユニット230は、訓練画像214から顔画像214aを抽出するように構成されている。抽出された顔画像214aは、ギョーシェライン、適切なアスペクト比、およびドロップシャドウを欠いているため、正規文書の偽造防止アーキテクチャのセキュリティ特徴を含まない。抽出された顔画像214aを、ベクトル生成ユニット240に提供することができる。ベクトル生成ユニット240は、抽出された顔画像214aの特徴を数値的に表す入力データベクトル214bを生成することができる。入力データベクトル214bを、機械学習モデル250の入力層252に提供することができる。機械学習モデル250は、機械学習モデル250の各層を介して入力データベクトル214bを処理して出力データ258を生成することができる。次いで、出力データ258を、画像214に論理的に関連するラベル215と共に損失関数260への入力として提供することができる。損失関数は、(i)入力データベクトル214bの機械学習モデル250の処理に基づいて機械学習モデルによって生成された出力データ258と、(ii)ラベル215との差に基づくものである、損失関数出力データ270を生成することができる。次いで、訓練システム200は、損失関数出力データ270に基づいて機械学習モデル250の重みまたは他のパラメータの値を更新することができる。
いくつかの実装形態では、訓練システム200は、訓練データベース202に格納された物理的文書の複数の訓練画像の各々が機械学習モデル250を訓練するために使用されるまで、画像210、212、214を参照して上述した同じ方法で機械学習モデル250を訓練する後続の反復を実行し続けることができる。他の実装形態では、訓練システム200は、特定の訓練画像の機械学習モデル250の処理に基づいて機械学習モデル250によって生成された出力データ258が、処理された訓練画像の対応するラベルと所定の誤差量内で一貫して一致すると判定されると訓練システム200が判定するまで、機械学習モデル250を訓練する後続の反復を実行し続けることができる。
図3は、物理的な偽造文書を検出するために機械学習モデルを訓練するための訓練プロセス300の一例のフローチャートである。一般に、訓練プロセス300は、訓練画像のデータベースから、(i)正規の物理的文書の画像または(ii)偽造文書の画像であるとしてラベル付けされた訓練画像を取得する工程(310)と、物理的文書の訓練画像の一部分を抽出する工程(320)と、物理的文書の訓練画像の抽出された部分の特徴を物理的文書の訓練画像の抽出された部分の数値表現へと符号化する入力データベクトルを生成する工程(330)と、物理的文書の訓練画像の抽出された部分を表す生成された入力データベクトルを入力として機械学習モデルに提供する工程(340)と、物理的文書の訓練画像の抽出された部分を表す入力データベクトルについての機械学習モデルの処理に基づいて機械学習モデルによって生成された出力データを、取得する工程であって、出力データが、生成された入力データベクトルで表される物理的文書の画像が偽造文書である可能性を示す類似度スコアを含む、工程(350)と、取得された訓練画像について取得された出力データとラベルとの間に存在する誤差量を決定する工程(360)と、決定された誤差に基づいて機械学習モデルの1つまたは複数のパラメータを調整する工程(370)とを含むことができる。
訓練プロセス300は引き続き、決定された誤差が所定の閾値を満たすかどうかを判定する(380)ことができる。決定された誤差が所定の閾値を満たす場合には、訓練プロセス300は395で終了することができる。あるいは、決定された誤差が所定の閾値を満たさない場合には、訓練プロセスは引き続き段階390で、処理されるべき物理的文書の追加の訓練画像があるかどうかを判定する(390)ことができる。処理されるべき物理的文書の追加の訓練画像がある場合には、訓練プロセスは引き続き段階310で、(i)正規の物理的文書の画像または(ii)偽造文書の画像であるとしてラベル付けされた物理的文書の訓練画像を取得する(310)ことができる。次いで、訓練プロセス300は、2つの終了条件380、390のうちの一方が満たされるまで続行することができる。2つの終了条件の一方が満たされると、訓練プロセス300は終了する。
偽造の物理的文書を検出するための訓練されたモデルの実行時実装
図4Aは、偽造の物理的文書を検出するように訓練される機械学習モデル450を使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システム400Aの一例である。実行時システム400Aは、デバイス405と、抽出ユニット430と、ベクトル生成ユニット440と、訓練された機械学習モデル450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Aは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Aの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Aの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル450さえもデバイス405上でホストされる。
図4Aは、偽造の物理的文書を検出するように訓練される機械学習モデル450を使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システム400Aの一例である。実行時システム400Aは、デバイス405と、抽出ユニット430と、ベクトル生成ユニット440と、訓練された機械学習モデル450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Aは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Aの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Aの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル450さえもデバイス405上でホストされる。
いくつかの実装形態では、物理的文書410は、バージニア州などの第1の州でアルコール飲料を提供する施設の入口で人によって提示され得る。施設の従業員または他のユーザは、実行時システム400Aを使用して、物理的文書410が偽造の物理的文書であるかどうかを判定することができる。このシナリオでは、物理的文書410は、位置414a、414bにおけるドロップシャドウ、顔画像412を横切るギョーシェラインなどのセキュリティ特徴を欠いており、不適切なアスペクト比を有する顔画像(例えば、顔が大きすぎる)を有し、不適切なサイズの図形416を有する。しかしながら、物理的文書は、カリフォルニアなどの別の州によって発行された物理的文書であると称している。その結果、バージニア州の従業員は、バージニア州の従業員がめったに見ない州外の物理的文書におけるセキュリティ特徴の欠如に気付かない可能性がある。
従業員または他のユーザは、物理的文書410の画像を表す第1のデータを取得するように構成されたデバイス405を使用することができる。例えば、スマートフォンなどのデバイス405は、物理的文書410の画像420を生成するために使用されるカメラ408を含むことができる。いくつかの実装形態では、画像420は、物理的文書410の画像を含む第1の部分420aと、物理的文書410の画像が取り込まれたときの周囲環境の一部分の画像を含む第2の部分420bとを描写することができる。システム400Aの例は、物理的文書410の画像420を生成するためのスマートフォンの形態のデバイス405を描写しているが、本開示はそのように限定されない。代わりに、物理的文書410の画像を生成するためのデバイス405として、デジタルカメラを含む任意のデバイスを使用することができる。他の例には、カメラおよびネットワークインターフェースを有するタブレット、ネットワークインターフェースを有するデスクトップコンピュータまたはラップトップコンピュータに結合されたウェブカメラ、カメラおよびネットワークインターフェースを有する専用ハンドヘルドスキャナ、ネットワークインターフェースを有するセキュリティカメラなどが含まれ得る。
いくつかの実装形態では、デバイス405は、物理的文書410の生成された画像420を、1つまたは複数のネットワークを介して、実行時システム400Aの残りの構成要素をホストする1つまたは複数のリモートコンピュータに送ることができる。他の実装形態では、デバイス405は、物理的文書410の画像420を、1つまたは複数の直接接続を介して、実行時システム400Aの残りの構成要素をホストする1つまたは複数の他のコンピュータに送ることができる。他の実装形態では、デバイス405は、ローカルに、実行時システム400Aの残りの構成要素をホストすることができる。いずれのシナリオでも、従業員または他のユーザは、デバイス405を使用して、カメラ408によって生成された物理的文書410の画像420を抽出ユニット430に提供することができる。
図4Aの例では、抽出ユニット430は、物理的文書が識別する人物の顔画像またはプロフィール画像に対応する物理的文書410の画像420の特定の部分を識別するように構成されている。機械学習モデル450は、図2および図3に関して説明されたプロセスを使用して顔画像内のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層454a、454b、454cを含むので、抽出ユニット430は、画像420のこの特定の部分を識別するように構成されている。したがって、この例では、抽出ユニット430は、物理的文書410の顔画像に対応する画像420の部分を抽出することができる。抽出された画像部分435は、抽出ユニット430によって出力される。図4Aに示されるように、抽出された画像部分435は、位置414a、414bにおけるドロップシャドウや顔画像を横切るギョーシェラインなどのセキュリティ特徴を含まない。加えて、図4Aは、抽出された画像部分435が不適切な顔アスペクト比を含むことを示している。
実行時システム400Aは、抽出された画像部分435をベクトル生成ユニット440に提供することができる。ベクトル生成ユニット440は、物理的文書の顔画像を表すベクトル内のセキュリティ特徴の有無を検出するための1つまたは複数の訓練されたセキュリティ特徴識別器層を含むように訓練された機械学習モデル450に入力するための、抽出された画像部分435を表す入力データを生成することができる。生成された入力データは、抽出された画像部分435を数値的に表すベクトル445を含むことができる。例えば、ベクトル445は、画像435の画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット440は、画像435の対応する画素を記述するフィールドの各々の数値を決定することができる。フィールドの各々の決定された数値は、抽出された画像部分435の特徴を記述するデータを、生成されたベクトル445へと符号化するために使用することができる。抽出された画像部分435を数値的に表す生成されたベクトル445は、訓練された機械学習モデル450の入力層452に提供される。訓練された機械学習モデル450は、例えば、ディープニューラルネットワークを含むことができる。
訓練された機械学習モデル450は、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cを介して、生成された入力ベクトル445を処理することができる。1つまたは複数のセキュリティ特徴識別器層454a、454b、454cの各々は、図2および図3に関して説明されたプロセスを使用して、特定のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器を含むことができる。例として、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cは、存在すべきセキュリティ特徴の不在、存在すべきでないセキュリティ特徴の存在、誤ったセキュリティ特徴、異常なセキュリティ特徴、自然な背景、人工的な背景、自然照明、人工照明、自然な影、人工的な影、ドロップシャドウなどのフラッシュシャドウの不在、頭部サイズ異常、頭部アスペクト比異常、頭部並進異常、異常な色温度、異常な着色、位置合わせおよび構成されたフラッシュ照明、オフアングル照明、焦点計画異常、焦点面の二等分、固定焦点レンズの使用、再量子化に関連するイメージング効果、圧縮に関連するイメージング効果、異常な頭部傾斜、異常な頭部姿勢、異常な頭部回転、非正面顔効果、眼鏡、帽子、頭部スカーフ、または他のカバーなどの顔のオクルージョンの存在、異常な頭部形状動力学、眼間距離に対する異常な頭部アスペクト比、前景と背景の間の異常な露出補正、異常な焦点効果、異なるデジタルソースを示す画像スティッチング効果、不適切な生体認証セキュリティ特徴の印刷、不適切なOVD、OVI、ホログラム、顔または文書の他の部分の上の他の二次的なセキュリティ特徴のオーバーレイなどの不適切なセキュリティ特徴の積層、顔の近く、顔の上、または文書の他の部分の上の不適切な触覚セキュリティ特徴配置、不適切な最終面印刷、不適切なレーザの白黒、不適切なカラーレーザ、不適切な積層インク印刷、不適切な印刷技術、不適切な印刷層順序付けなどを検出するように訓練されたセキュリティ特徴識別器を含むことができる。
訓練された機械学習モデル450は、生成された入力ベクトル445を、1つまたは複数のセキュリティ特徴識別器層の各々を介して処理し、次いで、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された得られた活性化ベクトルを、訓練された機械学習モデル450の残りの層を介して伝播する。訓練された機械学習モデル450の出力層456は、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された活性化ベクトルに基づくものである類似度スコアなどの出力データ455を計算することができる。実行時システム400Aは、生成された入力ベクトル445についての訓練された機械学習モデル450の処理に基づいて訓練された機械学習モデル450によって生成された計算された出力データ455を取得し、出力データ455を出力評価ユニット460に提供することができる。
出力評価ユニット460は、抽出された画像部分435によって描写された顔画像を含んでいた物理的文書410が偽造の物理的文書である可能性を判定するように構成することができる。出力評価ユニット460はこの判定を、生成された入力ベクトル445についての訓練された機械学習モデル450の処理に基づいて訓練された機械学習モデル450によって生成された出力データ455に基づいて行うことができる。例えば、出力評価ユニットは、類似度スコアなどの出力データ455を所定の閾値に適用することができる。類似度スコアは、入力ベクトル445で表される抽出された画像部分435が、機械学習モデル450の訓練が行われた正規の偽造防止アーキテクチャを有する正規の物理的文書の顔画像から逸脱している程度を提供することができる。出力評価ユニット460が、出力データ455は所定の閾値を満たすと判定した場合には、出力評価ユニット460は、入力ベクトル445で表された、抽出された画像部分435に対応する顔画像を含んでいた物理的文書410が、偽造の物理的文書であると、判定することができる。あるいは、出力評価ユニット460が、出力データ455は所定の閾値を満たさないと判定した場合には、出力評価ユニット460は、入力ベクトル445で表された、抽出された画像部分435に対応する顔画像を含んでいた物理的文書410が、正規の物理的文書であると、判定することができる。本明細書の目的では、「閾値を満たすこと」は、閾値を超える値または閾値を超えない値を含むことができる。同様に、「閾値を満たさないこと」は、「閾値を満たすこと」の逆の値を含むことができる。したがって、閾値を超える値が閾値を満たす場合、閾値を超えない値は閾値を満たさない。あるいは、閾値を超えない値が閾値を満たす場合、閾値を超える値は閾値を満たさない。
図4Aのこの例では、1つまたは複数の訓練されたセキュリティ特徴識別器層は、抽出された画像部分435におけるドロップシャドウやギョーシェラインなどのセキュリティ特徴の不在を検出することができる。加えて、訓練されたセキュリティ特徴識別器層のうちの1つまたは複数は、不適切な顔アスペクト比を有する顔画像の存在を検出することができる。そのようなシナリオでは、機械学習モデル450は、所定の閾値スコアを満たす類似度スコアなどの出力データ455を生成するように訓練され、それによって、抽出された画像部分435が、機械学習モデル450の訓練が行われた偽造防止アーキテクチャを有する正規の物理的文書の正規の顔画像から逸脱していることを示す。出力評価ユニット460、または実行時システム400Aを実装するコンピュータシステムの他の構成要素は、物理的文書410が偽造の物理的文書であることを従業員または他のユーザに警告するためにデバイス405に返送される出力アラートを生成することができる。
この例では、実行時システム400Aを実装するコンピュータシステムのコンピュータのメモリにアラートが生成され、次いで、物理的文書410が偽造文書であるという判定に応答してデバイス405に送られた。まず、実行時システム400Aを実装するコンピュータシステムのコンピュータのメモリにアラートを生成することは、メモリにアラートを表すデータを格納することを含むことに留意されたい。しかしながら、アラートが送られるべきとする必要はないことにも留意されたい。例えば、実行時システム400Aは、単に、実行時システム400Aによる物理的文書の画像の処理の結果を示すデータを格納することもできる。そのような実装形態では、実行時システム400Aは、単に、処理された画像が偽造であるかそれとも正規であるかを示すデータを格納することができるだけである。
図4Bは、偽造の物理的文書を検出するように訓練された機械学習モデル450を使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システム400Bの別の例である。実行時システム400Bは実行時システム400Aと同じであり、実行時システム400Bは、デバイス405と、抽出ユニット430と、ベクトル生成ユニット440と、訓練された機械学習モデル450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Bは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Bの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Bの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル450さえもデバイス405上でホストされる。
一実装形態では、物理的文書1410は、フロリダ州のような第1の州でアルコール飲料を提供する施設の入口で別の人物によって提示され得る。施設の従業員または他のユーザは、実行時システム400Bを使用して、物理的文書1410が偽造文書であるかどうかを判定することができる。このシナリオでは、物理的文書は、機械学習モデル450の訓練が行われた正規の偽造防止アーキテクチャのセキュリティ特徴の各々を含む。正規の偽造防止アーキテクチャのセキュリティ特徴は、ドロップシャドウ1414a、1414b、顔画像1412を横切るギョーシェライン1418を含み、適切なアスペクト比の顔画像を有し、適切なサイズの図形1416を有する。それでもなお、従業員は、実行時システム400Bを使用して物理的文書1410が正規の物理的文書であることを検証するためにさらに必要な措置をとることができる。
従業員または他のユーザは、物理的文書1410の画像を表す第1のデータを取得するように構成されたデバイス405を使用することができる。例えば、スマートフォンなどのデバイス405は、物理的文書1410の画像1420を生成するために使用されるカメラ408を含むことができる。いくつかの実装形態では、画像1420は、物理的文書1410の画像を含む第1の部分1420aと、物理的文書1410の画像が取り込まれたときの周囲環境の一部分の画像を含む第2の部分1420bとを描写することができる。システム400Bの例は、物理的文書1410の画像1420を生成するためのスマートフォンの形態のデバイス405を描写しているが、本開示はそのように限定されない。代わりに、物理的文書1410の画像を生成するためのデバイス405として、デジタルカメラを含む任意のデバイスを使用することができる。他の例には、カメラおよびネットワークインターフェースを有するタブレット、ネットワークインターフェースを有するデスクトップコンピュータまたはラップトップコンピュータに結合されたウェブカメラ、カメラおよびネットワークインターフェースを有する専用ハンドヘルドスキャナ、ネットワークインターフェースを有するセキュリティカメラなどが含まれ得る。
いくつかの実装形態では、デバイス405は、物理的文書1410の画像1420を、1つまたは複数のネットワークを介して、実行時システム400Bの残りの構成要素をホストする1つまたは複数のリモートコンピュータに送ることができる。他の実装形態では、デバイス405は、物理的文書1410の画像1420を、1つまたは複数の直接接続を介して、実行時システム400Aの残りの構成要素をホストする1つまたは複数の他のコンピュータに送ることができる。他の実装形態では、デバイス405は、ローカルに、実行時システム400Aの残りの構成要素をホストすることができる。いずれのシナリオでも、従業員または他のユーザは、デバイス405を使用して、カメラ408によって生成された物理的文書1410の画像1420を抽出ユニット430に提供することができる。
図4Bの例では、抽出ユニット430は、物理的文書が識別する人物の顔画像またはプロフィール画像に対応する物理的文書1410の画像1420の特定の部分を識別するように構成されている。機械学習モデル450は、図2および図3に関して説明されたプロセスを使用して顔画像内のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層454a、454b、454cを含むので、抽出ユニット430は、画像1420のこの特定の部分を識別するように構成されている。したがって、この例では、抽出ユニット430は、物理的文書1410の顔画像1412に対応する画像1420の部分を抽出することができる。抽出された画像部分1435は、抽出ユニット430によって出力される。図4Bに示されるように、抽出された画像部分1435は、ドロップシャドウ1414a、1414bと、顔画像を横切るギョーシェライン1418とを含み、適切なアスペクト比を有する顔画像を有する。
実行時システム400Bは、抽出された画像部分1435をベクトル生成ユニット440に提供することができる。ベクトル生成ユニット440は、物理的文書からの顔画像を表すベクトル内のセキュリティ特徴の有無を検出するための1つまたは複数の訓練されたセキュリティ特徴識別器層を含むように訓練された機械学習モデル450に入力するための、抽出された画像部分1435を表す入力データを生成することができる。生成された入力データは、抽出された画像部分1435を数値的に表すベクトル1445を含むことができる。例えば、ベクトル1445は、画像1435の画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット440は、画像1435の対応する画素を記述するフィールドの各々の数値を決定することができる。フィールドの各々の決定された数値は、抽出された画像部分1435の特徴を記述するデータを、生成されたベクトル1445へと符号化するために使用することができる。抽出された画像部分1435を数値的に表す生成されたベクトル1445は、訓練された機械学習モデル450の入力層452に提供される。訓練された機械学習モデル450は、例えば、ディープニューラルネットワークを含むことができる。
訓練された機械学習モデル450は、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cを介して、生成された入力ベクトル1445を処理することができる。1つまたは複数のセキュリティ特徴識別器層454a、454b、454cの各々は、図2および図3に関して説明されたプロセスを使用して、特定のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器を含むことができる。例として、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cは、存在すべきセキュリティ特徴の不在、存在すべきでないセキュリティ特徴の存在、誤ったセキュリティ特徴、異常なセキュリティ特徴、自然な背景、人工的な背景、自然照明、人工照明、自然な影、人工的な影、ドロップシャドウなどのフラッシュシャドウの不在、頭部サイズ異常、頭部アスペクト比異常、頭部並進異常、異常な色温度、異常な着色、位置合わせおよび構成されたフラッシュ照明、オフアングル照明、焦点計画異常、焦点面の二等分、固定焦点レンズの使用、再量子化に関連するイメージング効果、圧縮に関連するイメージング効果、異常な頭部傾斜、異常な頭部姿勢、異常な頭部回転、非正面顔効果、眼鏡、帽子、頭部スカーフ、または他のカバーなどの顔のオクルージョンの存在、異常な頭部形状動力学、眼間距離に対する異常な頭部アスペクト比、前景と背景の間の異常な露出補正、異常な焦点効果、異なるデジタルソースを示す画像スティッチング効果、不適切な生体認証セキュリティ特徴の印刷、不適切なOVD、OVI、ホログラム、顔または文書の他の部分の上の他の二次的なセキュリティ特徴のオーバーレイなどの不適切なセキュリティ特徴の積層、顔の近く、顔の上、または文書の他の部分の上の不適切な触覚セキュリティ特徴配置、不適切な最終面印刷、不適切なレーザの白黒、不適切なカラーレーザ、不適切な積層インク印刷、不適切な印刷技術、不適切な印刷層順序付けなどを検出するように訓練されたセキュリティ特徴識別器を含むことができる。
訓練された機械学習モデル450は、生成された入力ベクトル1445を、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cの各々を介して処理し、次いで、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された得られた活性化ベクトルを、訓練された機械学習モデル450の残りの層を介して伝播する。訓練された機械学習モデル450の出力層456は、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された活性化ベクトルに基づくものである類似度スコアなどの出力データ1455を計算することができる。実行時システム400Bは、生成された入力ベクトル1445についての訓練された機械学習モデル450の処理に基づいて訓練された機械学習モデル450によって生成された計算された出力データ1455を取得し、出力データ1455を出力評価ユニット460に提供することができる。
出力評価ユニット460は、抽出された画像部分1435によって描写された顔画像を含んでいた物理的文書1410が偽造の物理的文書である可能性を判定するように構成することができる。出力評価ユニット460はこの判定を、生成された入力ベクトル1445についての訓練された機械学習モデル450の処理に基づいて訓練された機械学習モデル450によって生成された出力データ1455に基づいて行うことができる。例えば、出力評価ユニットは、類似度スコアなどの出力データ1455を所定の閾値に適用することができる。類似度スコアは、入力ベクトル1445で表される抽出された画像部分1435が、機械学習モデル450の訓練が行われた正規の偽造防止アーキテクチャを有する正規の物理的文書の顔画像から逸脱している程度を提供することができる。出力評価ユニット460が、出力データ1455は所定の閾値を満たすと判定した場合には、出力評価ユニット460は、入力ベクトル1445で表された、抽出された画像部分1435に対応する顔画像を含んでいた物理的文書1410が、偽造の物理的文書であると、判定することができる。あるいは、出力評価ユニット460が、出力データ1455は所定の閾値を満たさないと判定した場合には、出力評価ユニット460は、入力ベクトル4145で表された、抽出された画像部分1435に対応する顔画像を含んでいた物理的文書1410が、正規の物理的文書であると、判定することができる。
図4Bのこの例では、1つまたは複数の訓練されたセキュリティ特徴識別器層は、ドロップシャドウ1414a、1414b、顔画像を横切るギョーシェライン1418、および適切な顔画像アスペクト比を検出することができる。そのようなシナリオでは、機械学習モデル450は、所定の閾値スコアを満たさない類似度スコアなどの出力データ1455を生成するように訓練され、それによって、抽出された画像部分1435が、機械学習モデル450の訓練が行われた偽造防止アーキテクチャを有する正規の物理的文書の正規の顔画像から逸脱していないことを示す。出力評価ユニット460、または実行時システム400Bを実装するコンピュータシステムの他の構成要素は、物理的文書1410が正規の物理的文書であることを従業員または他のユーザに警告するためにデバイス405に返送される出力アラートを生成することができる。
図4Cは、偽造の物理的文書を検出するように訓練された機械学習モデルを使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システムの別の例である。実行時システム400Cは実行時システム400Aと同じであり、実行時システム400Cは、デバイス405と、抽出ユニット430と、ベクトル生成ユニット440と、訓練された機械学習モデル450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Cは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Cの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Cの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル450さえもデバイス405上でホストされる。
一実装形態では、物理的文書2410は、図4Aおよび図4Bの例とは異なる人物によって、車両停止中に警察官に提示され得る。警察官は、実行時システム400Cを使用して、物理的文書2410が偽造の物理的文書であるかどうかを判定することができる。このシナリオでは、物理的文書2410は、機械学習モデル450を訓練するために使用された正規の偽造防止アーキテクチャの1つまたは複数のセキュリティ特徴を欠いている。具体的には、物理的文書2410はギョーシェライン2418および適切な顔アスペクト比を含むが、顔画像2412は異常な頭部傾斜2414を含み、物理的文書1410は不適切なサイズの図形2416を含む。人物の長い髪のために、ドロップシャドウの有無は決定的ではない可能性がある。警察官は、実行時システム400Cを使用して、物理的文書2410が正規の物理的文書であるかどうかを判定することができる。
警察官は、スマートフォンなどのモバイルデバイス405を使用して、物理的文書2410の画像2420を生成することができる。画像2420は、物理的文書2410の画像の第1の部分2420aと、物理的文書2410の画像2420が取り込まれたときの周囲環境の一部分を含み得る画像の第2の部分2420bとを描写している。モバイルデバイス405は、生成された画像2420を抽出ユニット460に提供することができる。
図4Cの例では、抽出ユニット430は、物理的文書が識別する人物の顔画像またはプロフィール画像に対応する物理的文書2410の画像2420の特定の部分を識別するように構成されている。機械学習モデル450は、図2および図3に関して説明されたプロセスを使用して顔画像内のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層454a、454b、454cを含むので、抽出ユニット430は、画像2420のこの特定の部分を識別するように構成されている。したがって、この例では、抽出ユニット430は、物理的文書2410の顔画像2412に対応する画像2420の部分を抽出することができる。抽出された画像部分2435は、抽出ユニット430によって出力される。図4Cに示されるように、抽出された画像部分2435は、異常な頭部傾斜を含む。加えて、抽出された画像部分2435はまた、顔画像を横切るギョーシェライン2418や適切な顔アスペクト比などのセキュリティ特徴も含む。
実行時システム400Cは、抽出された画像部分2435をベクトル生成ユニット440に提供することができる。ベクトル生成ユニット440は、物理的文書からの顔画像を表すベクトル内のセキュリティ特徴の有無を検出するための1つまたは複数の訓練されたセキュリティ特徴識別器層を含むように訓練された機械学習モデル450に入力するための、抽出された画像部分2435を表す入力データを生成することができる。生成された入力データは、抽出された画像部分2435を数値的に表すベクトル2445を含むことができる。例えば、ベクトル2445は、画像2435の画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット440は、画像2435の対応する画素を記述するフィールドの各々の数値を決定することができる。フィールドの各々の決定された数値は、抽出された画像部分2435の特徴を記述するデータを、生成されたベクトル2445へと符号化するために使用することができる。抽出された画像部分2435を数値的に表す生成されたベクトル2445は、訓練された機械学習モデル450の入力層452に提供される。訓練された機械学習モデル450は、例えば、ディープニューラルネットワークを含むことができる。
訓練された機械学習モデル450は、生成された入力ベクトル2445を、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cの各々を介して処理し、次いで、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された得られた活性化ベクトルを、訓練された機械学習モデル450の残りの層を介して伝播する。訓練された機械学習モデル450の出力層456は、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された活性化ベクトルに基づくものである類似度スコアなどの出力データ2455を計算することができる。実行時システム400Cは、生成された入力ベクトル2445についての訓練された機械学習モデル450の処理に基づいて訓練された機械学習モデル450によって生成された計算された出力データ2455を取得し、出力データ2455を出力評価ユニット460に提供することができる。
図4Cのこの例では、1つまたは複数の訓練されたセキュリティ特徴識別器層は、ギョーシェライン2418や適切な顔アスペクト比などのセキュリティ特徴の存在を検出することができる。しかしながら、1つまたは複数の訓練されたセキュリティ特徴識別器層はまた、抽出された画像部分2435における異常な頭部傾斜2414の存在も検出することができる。そのようなシナリオでは、機械学習モデル450は、所定の閾値スコアを満たす類似度スコアなどの出力データ2455を生成するように訓練され、それによって、抽出された画像部分2435が、機械学習モデル450の訓練が行われた偽造防止アーキテクチャを有する正規の物理的文書の正規の顔画像から逸脱していることを示す。出力評価ユニット460、または実行時システム400Cを実装するコンピュータシステムの他の構成要素は、物理的文書2410が偽造の物理的文書であることを警察官に警告するためにデバイス405に返送される出力アラートを生成することができる。
図4Dは、偽造の物理的文書を検出するように訓練された機械学習モデルを使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システム400Dの別の例である。実行時システム400Dは実行時システム400Aと同じであり、実行時システム400Dは、デバイス405と、抽出ユニット430と、ベクトル生成ユニット440と、訓練された機械学習モデル450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Dは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Dの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Dの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル450さえもデバイス405上でホストされる。
一実装形態では、物理的文書3410は、図4Aおよび図4Bの例とは異なる人物によって、車両停止中に警察官に提示され得る。警察官は、実行時システム400Dを使用して、物理的文書3410が偽造文書であるかどうかを判定することができる。このシナリオでは、物理的文書3410は、機械学習モデル450の訓練が行われた正規の偽造防止アーキテクチャのセキュリティ特徴の各々を含む。正規の偽造防止アーキテクチャのセキュリティ特徴には、顔画像3412を横切るギョーシェライン3418、適切なアスペクト比を有する顔画像3412、正常な頭部向き3414を有する顔画像3412、および適切なサイズの図形1416が含まれる。それでもなお、警察官は、実行時システム400Dを使用して、物理的文書3410が正規の物理的文書であることを検証するためにさらに必要な措置をとることができる。
警察官は、スマートフォンなどのモバイルデバイス405を使用して、物理的文書3410の画像3420を生成することができる。いくつかの実装形態では、画像3420は、物理的文書3410の画像を含む第1の部分3420aと、物理的文書3410の画像が取り込まれたときの周囲環境の一部分の画像を含む第2の部分3420bとを描写することができる。モバイルデバイス405は、生成された画像3420を抽出ユニット460に提供することができる。
図4Dの例では、抽出ユニット430は、物理的文書が識別する人物の顔画像またはプロフィール画像に対応する物理的文書3410の画像3420の特定の部分を識別するように構成されている。機械学習モデル450は、図2および図3に関して説明されたプロセスを使用して顔画像内のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層454a、454b、454cを含むので、抽出ユニット430は、画像3420のこの特定の部分を識別するように構成されている。したがって、この例では、抽出ユニット430は、物理的文書3410の顔画像3412に対応する画像3420の部分を抽出することができる。抽出された画像部分3435は、抽出ユニット430によって出力される。図4Dに示されるように、抽出された画像部分3435は、顔画像3412を横切るギョーシェライン3418、正常な頭部向き3414を有する顔画像、および適切なアスペクト比を有する顔画像を含む。
実行時システム400Dは、抽出された画像部分3435をベクトル生成ユニット440に提供することができる。ベクトル生成ユニット440は、物理的文書からの顔画像を表すベクトル内のセキュリティ特徴の有無を検出するための1つまたは複数の訓練されたセキュリティ特徴識別器層を含むように訓練された機械学習モデル450に入力するための、抽出された画像部分3435を表す入力データを生成することができる。生成された入力データは、抽出された画像部分3435を数値的に表すベクトル3445を含むことができる。例えば、ベクトル3445は、画像3435の画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット440は、画像3435の対応する画素を記述するフィールドの各々の数値を決定することができる。フィールドの各々の決定された数値は、抽出された画像部分3435の特徴を記述するデータを、生成されたベクトル3445へと符号化するために使用することができる。抽出された画像部分3435を数値的に表す生成されたベクトル3445は、訓練された機械学習モデル450の入力層452に提供される。訓練された機械学習モデル450は、例えば、ディープニューラルネットワークを含むことができる。
訓練された機械学習モデル450は、生成された入力ベクトル3445を、1つまたは複数のセキュリティ特徴識別器層454a、454b、454cの各々を介して処理し、次いで、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された得られた活性化ベクトルを、訓練された機械学習モデル450の残りの層を介して伝播する。訓練された機械学習モデル450の出力層456は、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された活性化ベクトルに基づくものである類似度スコアなどの出力データ3455を計算することができる。実行時システム400Dは、生成された入力ベクトル3445についての訓練された機械学習モデル450の処理に基づいて訓練された機械学習モデル450によって生成された計算された出力データ3455を取得し、出力データ3455を出力評価ユニット460に提供することができる。
図4Dのこの例では、1つまたは複数の訓練されたセキュリティ特徴識別器層は、抽出された画像部分3435を横切るギョーシェライン3418、適切なアスペクト比を有する顔画像、および正常な頭部向き3414を有する顔画像を含む抽出された画像部分3435のセキュリティ特徴を検出することができる。そのようなシナリオでは、機械学習モデル450は、所定の閾値スコアを満たさない類似度スコアなどの出力データ3455を生成するように訓練され、それによって、抽出された画像部分3435が、機械学習モデル450の訓練が行われた偽造防止アーキテクチャを有する正規の物理的文書の正規の顔画像から逸脱していないことを示す。出力評価ユニット460、または実行時システム400Dを実装するコンピュータシステムの他の構成要素は、物理的文書3410が正規の物理的文書であることを警察官に警告するためにデバイス405に返送される出力アラートを生成することができる。
図4Eは、偽造の物理的文書を検出するように訓練された機械学習モデルを使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システム400Eの別の例である。実行時システム400Eは実行時システム400Aと同様であり、実行時システム400Eは、デバイス405と、抽出ユニット1430と、ベクトル生成ユニット440と、訓練された機械学習モデル1450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Eは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Eの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Eの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル1450さえもデバイス405上でホストされる。
しかしながら、実行時システム400Eは、図4Eの訓練された機械学習モデル1450が、物理的文書全体の画像内の偽造防止アーキテクチャのセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層を含むように訓練されているため、実行時システム400Aとは異なる。対照的に、図4Aの機械学習モデル450は、物理的文書に現れる顔画像を描写する物理的文書の画像の一部分における偽造防止アーキテクチャのセキュリティ特徴の有無を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層を有する。
加えて、抽出ユニット1430は、抽出ユニット1430が、訓練された機械学習モデル1450への入力のために画像から物理的文書全体の画像を抽出するように構成されているため、図4Aの抽出ユニット430とは異なる。対照的に、図4Aの抽出ユニット430は、物理的文書の画像から顔画像を抽出するように構成されている。
一実装形態では、物理的文書4410は、人によって、空港のセキュリティ検査の列でTSA検査官に提示され得る。TSA検査官は、実行時システム400Eを使用して、物理的文書4410が偽造の物理的文書であるかどうかを判定することができる。このシナリオでは、物理的文書4410は、機械学習モデル450を訓練するために使用された正規の偽造防止アーキテクチャの1つまたは複数のセキュリティ特徴を欠いている。具体的には、物理的文書4410は、ギョーシェラインを含まず、位置4414a、4414bにドロップシャドウを含まず、増加したアスペクト比を有する顔画像4412を有し、不適切なサイズの図形4416を含む。しかしながら、運輸保安局が、そのような特徴が偽造の物理的文書を示していることに気付かない可能性がある。人物にセキュリティを通過させる前に、TSA検査官は、実行時システム400Eを使用して、物理的文書4410が正規の物理的文書であるかどうかを判定することができる。
TSA検査官は、スマートフォンなどのモバイルデバイス405を使用して、物理的文書4410の画像4420を生成することができる。いくつかの実装形態では、画像4420は、物理的文書4410の画像を含む第1の部分4420aと、物理的文書4410の画像が取り込まれたときの周囲環境の一部分の画像を含む第2の部分4420bとを描写することができる。モバイルデバイス405は、生成された画像4420を抽出ユニット1430に提供することができる。
図4Eの例では、抽出ユニット1430は、物理的文書4410の全体を描写する画像の部分4420aに対応する物理的文書4410の画像4420の特定の部分を識別するように構成されている。機械学習モデル1450は、物理的文書全体の画像内のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層1454a、1454b、1454cを含むので、抽出ユニット1430は、画像4420の部分4420aを識別するように構成されている。したがって、この例では、抽出ユニット1430を、画像4420の部分4420aと部分4420bとの間の境界を識別し、画像4420から部分4420aを抽出するように構成することができる。そのような実装形態では、抽出ユニット1430は、物理的文書4410の画像に対応する抽出された画像部分4435のみが残るように、部分4420bを破棄することができる。抽出された画像部分4435は、抽出ユニット1430によって出力される。図4Eに示されるように、抽出された画像部分4435は、位置4414a、4414bにドロップシャドウを有さず、ギョーシェラインを有さず、増加した顔アスペクト比を有する顔画像を有し、小さすぎる図形4416を有する。
実行時システム400Eは、抽出された画像部分4435をベクトル生成ユニット440に提供することができる。ベクトル生成ユニット440は、物理的文書全体の画像を表すベクトルのセキュリティ特徴の有無を検出するための1つまたは複数の訓練されたセキュリティ特徴識別器層を含むように訓練された機械学習モデル1450に入力するための、抽出された画像部分4435を表す入力データを生成することができる。生成された入力データは、抽出された画像部分4435を数値的に表すベクトル4445を含むことができる。例えば、ベクトル4445は、画像4435の画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット440は、画像4435の対応する画素を記述するフィールドの各々の数値を決定することができる。フィールドの各々の決定された数値は、抽出された画像部分4435の特徴を記述するデータを、生成されたベクトル4445へと符号化するために使用することができる。抽出された画像部分4435を数値的に表す生成されたベクトル4445は、訓練された機械学習モデル1440の入力層1452に提供される。訓練された機械学習モデル1440は、例えば、ディープニューラルネットワークを含むことができる。
訓練された機械学習モデル1450は、生成された入力ベクトル4445を、1つまたは複数のセキュリティ特徴識別器層1454a、1454b、1454cの各々を介して処理し、次いで、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された得られた活性化ベクトルを、訓練された機械学習モデル1450の残りの層を介して伝播する。訓練された機械学習モデル1450の出力層1456は、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された活性化ベクトルに基づくものである類似度スコアなどの出力データ4455を計算することができる。実行時システム400Eは、生成された入力ベクトル4445についての訓練された機械学習モデル1450の処理に基づいて、訓練された機械学習モデル1450によって生成された計算された出力データ4455を取得し、出力データ4455を出力評価ユニット460に提供することができる。
図4Eのこの例では、1つまたは複数の訓練されたセキュリティ特徴識別器層は、位置4414a、4414bにおけるドロップシャドウの不在を検出し、ギョーシェラインの不在を検出し、画像4435が増加した顔アスペクト比を有する顔画像を有すると判定し、画像4435が小さすぎる図形4416を有すると判定することができる。そのようなシナリオでは、機械学習モデル1450は、所定の閾値スコアを満たす類似度スコアなどの出力データ4455を生成するように訓練され、それによって、抽出された画像部分4435が、機械学習モデル1450の訓練が行われた偽造防止アーキテクチャを有する正規の物理的文書の正規の画像から逸脱していることを示す。出力評価ユニット460、または実行時システム400Eを実装するコンピュータシステムの他の構成要素は、物理的文書4410が偽造の物理的文書であることをTSA検査官に警告するためにデバイス405に返送される出力アラートを生成することができる。そのような実装形態では、TSA検査官に物理的文書4410を提供した人物は、セキュリティゲートを越えて位置する空港ターミナルの部分への進入を拒否される可能性がある。
図4Fは、偽造の物理的文書を検出するように訓練された機械学習モデルを使用して、物理的文書が偽造の物理的文書であるかどうかを判定する実行時システム400Fの別の例である。実行時システム400Fは実行時システム400Eと同じであり、実行時システム400Fは、デバイス405と、抽出ユニット1430と、ベクトル生成ユニット440と、訓練された機械学習モデル1450と、出力評価ユニット460とを含む。いくつかの実装形態では、実行時システム400Fは、複数のコンピュータにわたって実装することができ、デバイス405は、1つまたは複数のネットワークを使用して、システム400Fの他の構成要素をホストする1つまたは複数の他のコンピュータと通信するように構成される。あるいは、実行時システム400Fの構成要素をすべてデバイス405内に実装することもでき、機械学習モデル450さえもデバイス405上でホストされる。
実行時システム400Eと同様に、図4Fの訓練された機械学習モデル1450は、物理的文書全体の画像内の偽造防止アーキテクチャのセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層を含むように訓練されているため、実行時システム400Fは、実行時システム400Aとは異なる。対照的に、図4Aの機械学習モデル450は、物理的文書に現れる顔画像を描写する物理的文書の画像の抽出された部分における偽造防止アーキテクチャのセキュリティ特徴の有無を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層を有する。
同様に、実行時システム400Eと同様に、実行時システム400Fも、図4Aの抽出ユニット430とは異なる抽出ユニット1430を含む。抽出ユニット1430は、訓練された機械学習モデル1450への入力のために画像から物理的文書全体を抽出するように構成されているため、抽出ユニット1430は抽出ユニット430とは異なる。対照的に、図4Aの抽出ユニット430は、物理的文書の画像から顔画像を抽出するように構成されている。
一実装形態では、物理的文書5410は、人によって、空港のセキュリティ検査の列でTSA検査官に提示され得る。TSA検査官は、実行時システム400Fを使用して、物理的文書5410が偽造文書であるかどうかを判定することができる。このシナリオでは、物理的文書4410は、機械学習モデル1450の訓練が行われた正規の偽造防止アーキテクチャのセキュリティ特徴の各々を含む。正規の偽造防止アーキテクチャのセキュリティ特徴には、顔画像5412を横切るギョーシェライン5418、適切なアスペクト比を有する顔画像5412、正常な頭部向きを有する顔画像5412、ドロップシャドウ5414a、5414b、および適切なサイズの図形5416が含まれる。それでもなお、TSA検査官は、人物にセキュリティを通過させる前に、実行時システム400Fを使用して、物理的文書5410が正規の物理的文書であることを検証することができる。
TSA検査官は、スマートフォンなどのモバイルデバイス405を使用して、物理的文書5410の画像5420を生成することができる。画像5420は、物理的文書5410の画像を含む第1の部分5420aと、物理的文書5410の画像が取り込まれたときの周囲環境の一部分の画像を含む第2の部分5420bとを描写する。モバイルデバイス405は、生成された画像5420を抽出ユニット1430に提供することができる。
図4Fの例では、抽出ユニット1430は、物理的文書5410の全体を描写する画像の部分5420aに対応する物理的文書5410の画像5420の特定の部分を識別するように構成されている。機械学習モデル1450は、物理的文書全体の画像内のセキュリティ特徴の有無を検出するように訓練された1つまたは複数のセキュリティ特徴識別器層1454a、1454b、1454cを含むので、抽出ユニット1430は、画像5420の部分5420aを識別するように構成されている。したがって、この例では、抽出ユニット1430を、画像5420の部分5420aと部分5420bとの間の境界を識別し、画像5420から部分5420aを抽出するように構成することができる。そのような実装形態では、抽出ユニット1430は、物理的文書5410の画像に対応する抽出された画像部分5435のみが残るように、部分5420bを破棄することができる。抽出された画像部分5435は、抽出ユニット1430によって出力される。図4Fに示されるように、抽出された画像部分5435は、顔画像5412を横切るギョーシェライン5418、適切なアスペクト比を有する顔画像5412、正常な頭部向きを有する顔画像5412、ドロップシャドウ5414a、5414b、および適切なサイズの図形5416などのセキュリティ特徴を含む。
実行時システム400Fは、抽出された画像部分5435をベクトル生成ユニット440に提供することができる。ベクトル生成ユニット440は、物理的文書全体の画像を表すベクトルのセキュリティ特徴の有無を検出するための1つまたは複数の訓練されたセキュリティ特徴識別器層を含むように訓練された機械学習モデル1450に入力するための、抽出された画像部分5435を表す入力データを生成することができる。生成された入力データは、抽出された画像部分5435を数値的に表すベクトル5445を含むことができる。例えば、ベクトル5445は、画像5435の画素に各々対応する複数のフィールドを含むことができる。ベクトル生成ユニット440は、画像5435の対応する画素を記述するフィールドの各々の数値を決定することができる。フィールドの各々の決定された数値は、抽出された画像部分5435の特徴を記述するデータを、生成されたベクトル5445へと符号化するために使用することができる。抽出された画像部分5435を数値的に表す生成されたベクトル5445は、訓練された機械学習モデル1450の入力層1452に提供される。訓練された機械学習モデル1450は、例えば、ディープニューラルネットワークを含むことができる。
訓練された機械学習モデル1450は、生成された入力ベクトル5445を、1つまたは複数のセキュリティ特徴識別器層1454a、1454b、1454cの各々を介して処理し、次いで、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された得られた活性化ベクトルを、訓練された機械学習モデル1450の残りの層を介して伝播する。訓練された機械学習モデル1450の出力層1456は、1つまたは複数のセキュリティ特徴識別器層の最後の層によって出力された活性化ベクトルに基づくものである類似度スコアなどの出力データ5455を計算することができる。実行時システム400Fは、生成された入力ベクトル5445についての訓練された機械学習モデル1450の処理に基づいて、訓練された機械学習モデル1450によって生成された計算された出力データ5455を取得し、出力データ5455を出力評価ユニット460に提供することができる。
図4Fのこの例では、1つまたは複数の訓練されたセキュリティ特徴識別器層は、顔画像5412を横切るギョーシェライン5418、適切なアスペクト比を有する顔画像5412、正常な頭部向きを有する顔画像5412、ドロップシャドウ5414a、5414b、および適切なサイズの図形5416を含む抽出された画像部分5435のセキュリティ特徴を検出することができる。そのようなシナリオでは、機械学習モデル1450は、所定の閾値スコアを満たさない類似度スコアなどの出力データ5455を生成するように訓練され、それにより、抽出された画像部分5435が、機械学習モデル1450の訓練が行われた偽造防止アーキテクチャを有する正規の物理的文書の正規の画像から逸脱していないことを示す。出力評価ユニット460、または実行時システム400Fを実装するコンピュータシステムの他の構成要素は、物理的文書5410が正規の物理的文書であることをTSA検査官に警告するためにデバイス405に返送される出力アラートを生成することができる。そのようなシナリオでは、TSA検査官は、物理的文書5410を提供した人物にセキュリティを通過させることができる。
図5は、文書が偽造文書であるかどうかを判定するために使用される実行時プロセス500の一例のフローチャートである。一般に、実行時プロセス500は、第1の画像を表す第1のデータを取得する工程(510)と、入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された第1のデータを、入力として提供する工程(520)と、取得された第1のデータを機械学習モデルが入力として処理したことに基づいて機械学習モデルによって生成された出力データを表す第2のデータを、取得する工程(530)と、第1の画像が、特定の偽造防止アーキテクチャに従って印刷された1つまたは複数の画像を表すデータから逸脱しているかどうかを、取得された第2のデータに基づいて、いくつかの実装形態では、取得された第2のデータを、所定の閾値に対して評価することによって、判定する工程(540)と、取得された第2のデータが所定の閾値を満たすという判定に基づいて、第1の画像を取得した元となる文書が偽造文書であると判定する工程(550)とを含む。
図6Aは、正規の物理的文書600Aの一例の分解図である。正規の物理的文書600Aは、少なくとも図1に示される正規の物理的文書160Aの例と同じである。しかしながら、正規の物理的文書600Aは、正規の物理的文書600Aおよび160Aのセキュリティ特徴をより詳細に示すために提供されている。
図6Aを参照すると、正規の物理的文書600Aは、適切な顔画像コントラスト比、適切な顔の向きを有する顔画像650A、ドロップシャドウ652A、654A、顔画像650Aを横切るギョーシェライン656A、および適切なサイズの図形658Aなどのセキュリティ特徴を含む。これらのセキュリティ特徴は、この例では、物理的文書600Aのための偽造防止アーキテクチャを構成する。
図6Bは、偽造の物理的文書600Bの一例の分解図である。偽造の物理的文書600Bは、図1の偽造の物理的文書160Bの例と同じである。しかしながら、偽造の物理的文書600Bは、正規の物理的文書600Aおよび160Aの偽造防止アーキテクチャのセキュリティ特徴を欠く物理的文書の例をより詳細に示すために提供されている。
図6Bを参照すると、偽造の物理的文書600Bは、位置652B、654Bにドロップシャドウを含まず、顔画像650Bは、減少したアスペクト比のものであり、顔画像650Bは、656Bに顔画像650B上にギョーシェラインを有さず、図形658Bは、小さすぎるため不適切なサイズである。
本明細書に記載される機械学習モデルは、セキュリティ特徴の特定の偽造防止アーキテクチャを有する正規の物理的文書の画像と、機械学習モデルの訓練が行われた偽造防止アーキテクチャの1つまたは複数の特徴を満たさない偽造の物理的文書の画像とを区別するために、図2および図3に関して説明されたプロセスを使用して訓練することができる。
図7Aは、正規文書700Aの一例の分解図である。正規の物理的文書700Aは、図4Dに示される正規の物理的文書3410の例と同じである。しかしながら、正規の物理的文書700Aは、正規の物理的文書700Aおよび3410のセキュリティ特徴をより詳細に示すために提供されている。
図7Aを参照すると、正規の物理的文書700Aは、適切な顔画像コントラスト比、適切な顔の向き752Aを有する顔画像750A、顔画像750Aを横切るギョーシェライン756A、および適切なサイズの図形758Aなどのセキュリティ特徴を含む。これらのセキュリティ特徴は、この例では、物理的文書700Aの偽造防止アーキテクチャを構成する。
図7Bは、偽造文書700Bの一例の分解図である。しかしながら、偽造の物理的文書700Bは、正規の物理的文書700Aおよび3410の偽造防止アーキテクチャのセキュリティ特徴を欠く物理的文書の例をより詳細に示すために提供されている。
図7Bを参照すると、偽造の物理的文書700Bは、実際に、顔画像750B上のギョーシェライン756Bや適切なアスペクト比を有する顔画像750Bなどの特定の正規のセキュリティ特徴を有する。しかしながら、偽造の物理的文書700Bは、異常な頭部傾斜752Bを有する顔画像750B、および不適切なサイズの図形758Bを含む。
本明細書に記載される機械学習モデルは、セキュリティ特徴の特定の偽造防止アーキテクチャを有する正規の物理的文書の画像と、機械学習モデルの訓練が行われた偽造防止アーキテクチャの1つまたは複数の特徴を満たさない偽造の物理的文書の画像とを区別するために、図2および図3に関して説明されたプロセスを使用して訓練することができる。
図8は、訓練された機械学習モデルを使用して偽造の物理的文書を検出するためのシステムを実装するために使用することができるシステム800の構成要素のブロック図である。
コンピューティングデバイス800は、ラップトップ、デスクトップ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータなどの様々な形のデジタルコンピュータを表すことが意図されている。コンピューティングデバイス850は、パーソナルデジタルアシスタント、セルラー電話、スマートフォン、および他の同様のコンピューティングデバイスなどの、様々な形のモバイルデバイスを表すことが意図されている。加えて、コンピューティングデバイス800または850は、ユニバーサルシリアルバス(USB)フラッシュドライブも含むことができる。USBフラッシュドライブは、オペレーティングシステムおよび他のアプリケーションを格納することができる。USBフラッシュドライブは、別のコンピューティングデバイスのUSBポートに挿入できる無線送信機やUSBコネクタなどの入力/出力構成要素を含むことができる。ここに示される構成要素、それらの接続および関係、ならびにそれらの機能は、例示にすぎず、本出願で記載および/または特許請求される発明の実装形態を限定するためのものではない。
コンピューティングデバイス800は、プロセッサ802と、メモリ804と、記憶デバイス808と、メモリ804および高速拡張ポート810に接続する高速インターフェース808と、低速バス814および記憶デバイス808に接続する低速インターフェース812とを含む。構成要素802、804、808、808、810および812の各々が、様々なバスを使用して相互接続され、共通のマザーボード上に、または必要に応じて他の様式で搭載することができる。プロセッサ802は、高速インターフェース808に結合されたディスプレイ816などの、外部入力/出力デバイス上でGUIのグラフィック情報を表示するためにメモリ804または記憶デバイス808に格納された命令を含む、コンピューティングデバイス800内で実行するための命令を処理することができる。他の実装形態では、複数のプロセッサおよび/または複数のバスを、必要に応じて、複数のメモリおよび複数のタイプのメモリと共に使用することができる。また、複数のコンピューティングデバイス800を接続し、各デバイスが、例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして、必要な動作の部分を提供することもできる。
メモリ804は、コンピューティングデバイス800内の情報を格納する。一実装形態では、メモリ804は1つまたは複数の揮発性メモリユニットである。別の実装形態では、メモリ804は、1つまたは複数の不揮発性メモリユニットである。メモリ804は、磁気ディスクや光ディスクなどの、別の形のコンピュータ可読媒体とすることもできる。
記憶デバイス808は、コンピューティングデバイス800に大容量記憶を提供することができる。一実装形態では、記憶デバイス808は、フロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、もしくはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスの配列などの、コンピュータ可読媒体とすることができるか、またはコンピュータ可読媒体を含むことができる。コンピュータプログラム製品を、情報キャリアにおいて有形的に具体化することができる。コンピュータプログラム製品はまた、実行されると、上記のような1つまたは複数の方法を実行する命令を含むこともできる。情報キャリアは、メモリ804、記憶デバイス808、またはプロセッサ802上のメモリなどのコンピュータ可読媒体または機械可読媒体である。
高速コントローラ808はコンピューティングデバイス800のための帯域幅集約型動作を管理し、低速コントローラ812は帯域幅集約性の低い動作を管理する。そのような機能の割り振りは例示にすぎない。一実装形態では、高速コントローラ808は、メモリ804と、例えばグラフィックスプロセッサやアクセラレータを介して、ディスプレイ816と、様々な拡張カード(図示されていない)を受け入れることができる高速拡張ポート810とに結合される。この実装形態では、低速コントローラ812は、記憶デバイス808と低速拡張ポート814とに接続される。低速拡張ポートは、様々な通信ポート、例えば、USB、ブルートゥース、イーサネット、無線イーサネットを含むことができ、キーボード、ポインティングデバイス、マイクロホン/スピーカ対、スキャナなどの1つもしくは複数の入力/出力デバイスに、または、例えばネットワークアダプタを介して、スイッチやルータなどのネットワーキングデバイスに結合することができる。コンピューティングデバイス800は、図に示されるように、いくつかの異なる形で実装することができる。例えば、コンピューティングデバイス800は、標準的なサーバ820として、または多くはそのようなサーバのグループとして実装することができる。コンピューティングデバイス800は、ラックサーバシステム824の一部として実装することもできる。加えて、コンピューティングデバイス800は、ラップトップコンピュータ822などのパーソナルコンピュータに実装することもできる。あるいは、コンピューティングデバイス800の構成要素を、デバイス850などのモバイルデバイス内の他の構成要素(図示されていない)と組み合わせることもできる。そのようなデバイスの各々がコンピューティングデバイス800、850のうちの1つまたは複数を含むことができ、システム全体を、互いに通信し合う複数のコンピューティングデバイス800、850で構成することができる。
コンピューティングデバイス800は、図に示されるように、いくつかの異なる形で実装することができる。例えば、コンピューティングデバイス800は、標準的なサーバ820として、または多くはそのようなサーバのグループとして実装することができる。コンピューティングデバイス800は、ラックサーバシステム824の一部として実装することもできる。加えて、コンピューティングデバイス800は、ラップトップコンピュータ822などのパーソナルコンピュータに実装することもできる。あるいは、コンピューティングデバイス800の構成要素を、デバイス850などのモバイルデバイス内の他の構成要素(図示されていない)と組み合わせることもできる。そのようなデバイスの各々がコンピューティングデバイス800、850のうちの1つまたは複数を含むことができ、システム全体を、互いに通信し合う複数のコンピューティングデバイス800、850で構成することができる。
コンピューティングデバイス850は、構成要素の中でも特に、プロセッサ852と、メモリ864と、ディスプレイ854などの入力/出力デバイスと、通信インターフェース866と、送受信機868とを含む。デバイス850はまた、追加の記憶を提供するために、マイクロドライブや他のデバイスなどの、記憶デバイスを備えることもできる。構成要素850、852、864、854、866および868の各々は、様々なバスを使用して相互接続され、構成要素のいくつかを、共通のマザーボード上に、または必要に応じて他の方法で搭載することができる。
プロセッサ852は、メモリ864に格納された命令を含む、コンピューティングデバイス850内の命令を実行することができる。プロセッサは、別個の複数のアナログプロセッサおよびデジタルプロセッサを含むチップのチップセットとして実装することができる。加えて、プロセッサは、いくつかのアーキテクチャのいずれかを使用して実装することもできる。例えば、プロセッサ810は、CISC(複合命令セットコンピュータ)プロセッサや、RISC(縮小命令セットコンピュータ)プロセッサや、MISC(最小命令セットコンピュータ)プロセッサとすることもできる。プロセッサは、例えば、ユーザインターフェースの制御、デバイス850によって実行されるアプリケーション、およびデバイス850による無線通信など、デバイス850の他の構成要素の調整を提供することができる。
プロセッサ852は、制御インターフェース858およびディスプレイ854に結合された表示インターフェース856を介してユーザと通信することができる。ディスプレイ854は、例えば、TFT(薄膜トランジスタ液晶ディスプレイ)ディスプレイ、OLED(有機発光ダイオード)ディスプレイ、または他の適切な表示技術とすることができる。表示インターフェース856は、ユーザにグラフィック情報および他の情報を提示するようディスプレイ854を駆動するための適切な回路を備えることができる。制御インターフェース858は、ユーザからコマンドを受け取り、それらのコマンドをプロセッサ852に送るために変換することができる。加えて、デバイス850と他のデバイスとの近距離通信を可能にするように、プロセッサ852と通信する外部インターフェース862を設けることもできる。外部インターフェース862は、例えば、いくつかの実装形態では有線通信を提供し、または別の実装形態では無線通信を提供することができ、複数のインターフェースを使用することもできる。
メモリ864は、コンピューティングデバイス850内の情報を格納する。メモリ864は、1つもしくは複数のコンピュータ可読媒体、1つもしくは複数の揮発性メモリユニット、または1つもしくは複数の不揮発性メモリユニットのうちの1つまたは複数として実装することができる。拡張インターフェース872を介してデバイス850に拡張メモリ874を設けて接続することもでき、拡張インターフェース872は、例えば、SIMM(シングルインラインメモリモジュール)カードインターフェースを含むことができる。そのような拡張メモリ874は、デバイス850に追加の記憶空間を提供することができ、またはデバイス850のアプリケーションまたは他の情報を格納することもできる。具体的には、拡張メモリ874は、上記のプロセスを実行または補足する命令を含むことができ、セキュア情報も含むことができる。よって、例えば、拡張メモリ874は、デバイス850のためのセキュリティモジュールとして設けることができ、デバイス850のセキュアな使用を可能にする命令でプログラムすることができる。加えて、識別情報をSIMMカード上にハッキングできない方法で配置するなど、セキュアなアプリケーションをSIMMカードを介して追加情報と共に提供することもできる。
メモリは、後述するように、例えば、フラッシュメモリおよび/またはNVRAMを含むことができる。一実装形態では、コンピュータプログラム製品が、情報キャリアにおいて有形的に具体化される。コンピュータプログラム製品は、実行されると、上記のような1つまたは複数の方法を実行する命令を含む。情報キャリアは、例えば送受信機868または外部インターフェース862を介して受け取ることができる、メモリ864、拡張メモリ874、またはプロセッサ852上のメモリなどの、コンピュータ可読媒体または機械可読媒体である。
デバイス850は、通信インターフェース866を介して無線で通信することができ、通信インターフェース866は必要に応じてデジタル信号処理回路を含むことができる。通信インターフェース866は、中でも特に、GSM音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA、CDMA2000、またはGPRSなどの様々なモードまたはプロトコルの下での通信を提供することができる。そのような通信は、例えば、無線周波数送受信機868を介して行うことができる。加えて、近距離通信を、例えば、ブルートゥース、Wi-Fi、または他のそのような送受信機(図示されていない)を使用して行うこともできる。加えて、GPS(全地球測位システム)受信機モジュール870が、デバイス850に、デバイス850上で動作するアプリケーションが必要に応じて使用することができる、追加的なナビゲーションおよび位置特定に関連した無線データを提供することもできる。
デバイス850はまた、オーディオコーデック860を使用して音声で通信することもでき、オーディオコーデック860は、ユーザから音声情報を受け取り、それを使用可能なデジタル情報に変換することができる。オーディオコーデック860は、同様に、例えば、デバイス850のハンドセット内のスピーカなどを介して、ユーザに可聴音を生成することもできる。そのような音は、音声通話からの音を含むことができ、記録された音、例えば、音声メッセージ、音楽ファイルなどを含むことができ、デバイス850上で動作するアプリケーションによって生成された音も含むことができる。
コンピューティングデバイス850は、図に示されるように、いくつかの異なる形で実装することができる。例えば、コンピューティングデバイス850は、セルラー電話880として実装することもできる。コンピューティングデバイス850は、スマートフォン882、パーソナルデジタルアシスタント、または他の同様のモバイルデバイスの一部として実装することもできる。
本明細書に記載されるシステムおよび方法の様々な実装形態を、デジタル電子回路、集積回路、専用に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそのような実装形態の組み合わせにおいて実現することができる。これら様々な実装形態は、記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受け取りかつそれらにデータおよび命令を送るように結合された、専用または汎用とすることができる、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能な1つまたは複数のコンピュータプログラムにおける実装を含むことができる。
これらのコンピュータプログラムは(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとも呼ばれ)、プログラマブルプロセッサのための機械命令を含み、高水準手続き型プログラミング言語および/またはオブジェクト指向プログラミング言語、および/またはアセンブリ言語/機械語で実装することができる。本明細書で使用される場合、「機械可読媒体」、「コンピュータ可読媒体」という用語は、機械命令を機械可読信号として受け取る機械可読媒体を含む、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用される任意のコンピュータプログラム製品、装置および/またはデバイス、例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD)を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。
ユーザとの対話を提供するために、本明細書に記載されるシステムおよび技術を、ユーザに情報を表示するための表示デバイス、例えばCRT(ブラウン管)やLCD(液晶ディスプレイ)モニタと、ユーザがコンピュータに入力を提供するためのキーボードおよびポインティングデバイス、例えばマウスやトラックボールとを有するコンピュータ上で実装することができる。他の種類のデバイスを使用してユーザとの対話を提供することもでき、例えば、ユーザに提供されるフィードバックは、任意の形の感覚的フィードバック、例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックとすることができ、ユーザからの入力を、音響、音声、または触覚入力を含む、任意の形で受け取ることができる。
本明細書に記載されるシステムおよび技術を、例えばデータサーバとしてバックエンドコンポーネントを含むコンピューティングシステム、またはミドルウェアコンポーネント、例えばアプリケーションサーバを含むコンピューティングシステム、またはフロントエンドコンポーネント、例えば、ユーザが本明細書に記載されるシステムおよび技術の実装形態と対話するためのグラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータを含むコンピューティングシステム、またはそのようなバックエンドコンポーネント、ミドルウェアコンポーネントもしくはフロントエンドコンポーネントの任意の組み合わせにおいて実装することができる。システムの構成要素は、任意の形式または媒体のデジタルデータ通信、例えば、通信ネットワークによって相互接続することができる。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、およびインターネットが含まれる。
コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントとサーバとは、一般に互いにリモートであり、通常は通信ネットワークを介して対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で動作する、互いにクライアント/サーバ関係を有するコンピュータプログラムによって生じる。
いくつかの態様を説明した。とはいえ、本発明の趣旨および範囲から逸脱することなく、様々な修正を行うことができることが理解されよう。加えて、各図に描写されている論理フローは、所望の結果を達成するのに、図示の特定の順序、または順番を必要としない。加えて、他の工程を提供することもでき、または記載のフローから工程を除去することもでき、記載のシステムに他の構成要素を追加することもでき、または記載のシステムから除去することもできる。したがって、添付の特許請求の範囲内には他の態様が含まれる。
実験結果
実験結果の第1の例を図9に示す。具体的には、図9は、機械学習モデルが数回の訓練反復にわたって迅速に収束することを実証する、試験損失 対 試験反復の実験結果の一例である。この例では、結果は、訓練中に発生する試験損失(例えば、20%未満)が、比較的少ない訓練反復(例えば、500~800回の訓練反復)にわたって大幅に低減されることを示している。このような損失は、必要に応じて、より多くの訓練反復でさらに低減させることができる。
実験結果の第1の例を図9に示す。具体的には、図9は、機械学習モデルが数回の訓練反復にわたって迅速に収束することを実証する、試験損失 対 試験反復の実験結果の一例である。この例では、結果は、訓練中に発生する試験損失(例えば、20%未満)が、比較的少ない訓練反復(例えば、500~800回の訓練反復)にわたって大幅に低減されることを示している。このような損失は、必要に応じて、より多くの訓練反復でさらに低減させることができる。
実験結果の第2の例を図10に示す。具体的には、図10は、訓練された機械学習モデルの精度が90%を超えることを実証する、試験精度 対 試験反復の実験結果の一例である。この例では、結果は、訓練された機械学習モデルが、比較的少数の訓練反復(例えば、500~800回の訓練反復)にわたって93.7%の高い精度率を有することを示している。このような精度は、必要に応じて、より多くの訓練反復でさらに高めることができる。
従来の不正判定方法は、第1の分類層、複数の特徴選択に関連する第2の層、および層構造の手法における偽造防止特有の特徴に焦点を合わせた複数の本物および偽物の特徴マッチング(例えば、学習された、ヒューリスティックな、またはその両方)の第3の層などの複数の処理層の使用を含むことができる。そのような従来の方法は、画像ごとに最新のサーバクラスコンピュータで約5~10sの処理を行うことができ、文書タイプによって異なる60~80%の精度しかもたらさない。対照的に、本明細書に記載される訓練された機械学習モデルを使用するシステムおよび方法は、分類や特定のセキュリティ特徴の選択および融合などの追加のパイプライン工程なしに約93.7%の精度を達成することができる。加えて、訓練された機械学習モデルを使用するシステムおよび方法は、これらのより高精度の結果を、同じサーバクラスのハードウェア上で約100~200ms(0.1~0.2s)で達成することができる。したがって、本開示の訓練された機械学習モデルを使用するシステムおよび方法は、概ね全クラスの文書にわたって優れた計算性能でより高い精度を達成することができ、これは著しい改善である。さらに、以前の方法とは完全に無関係であり、したがって完全に直交しているため、いくつかの実装形態では、並列にまたはパイプライン方式でシステムにレイテンシを付加することなく、さらに高い総精度性能を達成するために従来の認証方法と融合することができる。したがって、本開示の訓練された機械学習モデルを使用するシステムおよび方法を、信頼度閾値を有する高速な第1の工程として使用することができ、次いで、必要な場合にのみ、より強力な計算検証方法を実行するために従来の方法を使用して1つまたは複数のモデルを呼び出すことができる。本開示の教示を従来の方法と融合するそのような集計分析は、既存の方法に33~66倍優る計算コスト性能の改善をもたらすことができる。
Claims (27)
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、以下:
第1の画像を表す第1のデータを、データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第1のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第1のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第2のデータを、前記データ処理システムによって取得すること、
前記第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第2のデータに基づいて、判定することであって、取得された前記第2のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第2のデータが所定の閾値を満たすという判定に基づいて、前記第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納すること
を含む動作を行わせる、命令
を含む、1つまたは複数の記憶デバイスと
を含む、偽造文書の検出のためのデータ処理システム。
前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、以下:
第1の画像を表す第1のデータを、データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第1のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第1のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第2のデータを、前記データ処理システムによって取得すること、
前記第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第2のデータに基づいて、判定することであって、取得された前記第2のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第2のデータが所定の閾値を満たすという判定に基づいて、前記第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納すること
を含む動作を行わせる、命令
を含む、1つまたは複数の記憶デバイスと
を含む、偽造文書の検出のためのデータ処理システム。
第1の画像を表す第1のデータを、前記データ処理システムによって取得することが、
カメラを使用して、文書の画像を表す第2のデータを取り込むことと、
前記文書の画像を表す前記第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す前記第1のデータを抽出することと
を含む、請求項1記載のデータ処理システム。
カメラを使用して、文書の画像を表す第2のデータを取り込むことと、
前記文書の画像を表す前記第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す前記第1のデータを抽出することと
を含む、請求項1記載のデータ処理システム。
第1の画像を表す第1のデータを、前記データ処理システムによって取得することが、
カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、前記文書の画像を表す前記第2のデータを受け取ることと、
前記文書の画像を表す前記第2のデータから、前記第1の画像を表す前記第1のデータを抽出することと
を含む、請求項1記載のデータ処理システム。
カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、前記文書の画像を表す前記第2のデータを受け取ることと、
前記文書の画像を表す前記第2のデータから、前記第1の画像を表す前記第1のデータを抽出することと
を含む、請求項1記載のデータ処理システム。
第1の画像を表す第1のデータを、前記データ処理システムによって取得することが、
デバイスから、前記第1の画像を表す前記第1のデータを受け取ること
を含む、請求項1記載のデータ処理システム。
デバイスから、前記第1の画像を表す前記第1のデータを受け取ること
を含む、請求項1記載のデータ処理システム。
前記偽造防止アーキテクチャが、2つ以上のセキュリティ特徴を含む、請求項1記載のデータ処理システム。
前記2つ以上のセキュリティ特徴が、(i)所定の顔アスペクト比の存在、(ii)所定の頭部向きの存在、(iii)ドロップシャドウの存在、(iv)顔画像上のギョーシェラインの存在、または(v)所定の図形の存在のうちの2つ以上を含む、請求項5記載のデータ処理システム。
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された前記機械学習モデルが、
(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層
を含む、請求項1記載のデータ処理システム。
(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層
を含む、請求項1記載のデータ処理システム。
前記動作が、
第2の画像を表す第4のデータを、前記データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第4のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第4のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第5のデータを、前記データ処理システムによって取得すること、
前記第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第5のデータに基づいて、判定することであって、取得された前記第5のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第5のデータが所定の閾値を満たさないという判定に基づいて、前記第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納すること
をさらに含む、請求項1記載のデータ処理システム。
第2の画像を表す第4のデータを、前記データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第4のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第4のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第5のデータを、前記データ処理システムによって取得すること、
前記第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第5のデータに基づいて、判定することであって、取得された前記第5のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第5のデータが所定の閾値を満たさないという判定に基づいて、前記第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納すること
をさらに含む、請求項1記載のデータ処理システム。
前記機械学習モデルを訓練することが、以下:
それぞれの物理的文書の複数の訓練画像に、前記機械学習モデルによってアクセスすることであって、該複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、該アクセスすること、ならびに
前記複数の訓練画像のうちの各々の特定の画像について、
物理的文書の前記特定の画像の特定の部分を抽出すること、
物理的文書の前記特定の画像の抽出された前記特定の部分についての入力ベクトルを生成すること、
生成された前記入力ベクトルを、前記機械学習モデルの1つまたは複数の隠れ層を介して、前記機械学習モデルによって処理すること、
前記物理的文書の前記特定の画像の抽出された前記特定の部分を表す生成された前記入力ベクトルについての前記機械学習モデルの処理に基づいて前記機械学習モデルによって生成された出力データを、取得すること、
取得された前記出力データと前記特定の画像のラベルとの間に存在する誤差量を決定すること、および
決定された前記誤差量に基づいて、前記機械学習モデルの1つまたは複数のパラメータを調整すること
を含む、請求項1記載のデータ処理システム。
それぞれの物理的文書の複数の訓練画像に、前記機械学習モデルによってアクセスすることであって、該複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、該アクセスすること、ならびに
前記複数の訓練画像のうちの各々の特定の画像について、
物理的文書の前記特定の画像の特定の部分を抽出すること、
物理的文書の前記特定の画像の抽出された前記特定の部分についての入力ベクトルを生成すること、
生成された前記入力ベクトルを、前記機械学習モデルの1つまたは複数の隠れ層を介して、前記機械学習モデルによって処理すること、
前記物理的文書の前記特定の画像の抽出された前記特定の部分を表す生成された前記入力ベクトルについての前記機械学習モデルの処理に基づいて前記機械学習モデルによって生成された出力データを、取得すること、
取得された前記出力データと前記特定の画像のラベルとの間に存在する誤差量を決定すること、および
決定された前記誤差量に基づいて、前記機械学習モデルの1つまたは複数のパラメータを調整すること
を含む、請求項1記載のデータ処理システム。
第1の画像を表す第1のデータを、データ処理システムによって取得する工程、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第1のデータを、前記データ処理システムによって入力として提供する工程、
取得された前記第1のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第2のデータを、前記データ処理システムによって取得する工程、
前記第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第2のデータに基づいて、判定する工程であって、取得された前記第2のデータを、所定の閾値に対して評価することを含む、該判定する工程、および
取得された前記第2のデータが所定の閾値を満たすという判定に基づいて、前記第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納する工程
を含む、偽造文書の検出のための方法。
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第1のデータを、前記データ処理システムによって入力として提供する工程、
取得された前記第1のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第2のデータを、前記データ処理システムによって取得する工程、
前記第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第2のデータに基づいて、判定する工程であって、取得された前記第2のデータを、所定の閾値に対して評価することを含む、該判定する工程、および
取得された前記第2のデータが所定の閾値を満たすという判定に基づいて、前記第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納する工程
を含む、偽造文書の検出のための方法。
第1の画像を表す第1のデータを、前記データ処理システムによって取得する工程が、
カメラを使用して、文書の画像を表す第2のデータを取り込むことと、
前記文書の画像を表す前記第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す前記第1のデータを抽出することと
を含む、請求項10記載の方法。
カメラを使用して、文書の画像を表す第2のデータを取り込むことと、
前記文書の画像を表す前記第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す前記第1のデータを抽出することと
を含む、請求項10記載の方法。
第1の画像を表す第1のデータを、前記データ処理システムによって取得する工程が、
カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、前記文書の画像を表す前記第2のデータを受け取ることと、
前記文書の画像を表す前記第2のデータから、前記第1の画像を表す前記第1のデータを抽出することと
を含む、請求項10記載の方法。
カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、前記文書の画像を表す前記第2のデータを受け取ることと、
前記文書の画像を表す前記第2のデータから、前記第1の画像を表す前記第1のデータを抽出することと
を含む、請求項10記載の方法。
第1の画像を表す第1のデータを、前記データ処理システムによって取得する工程が、
デバイスから、前記第1の画像を表す前記第1のデータを受け取ること
を含む、請求項10記載の方法。
デバイスから、前記第1の画像を表す前記第1のデータを受け取ること
を含む、請求項10記載の方法。
前記偽造防止アーキテクチャが、2つ以上のセキュリティ特徴を含む、請求項10記載の方法。
前記2つ以上のセキュリティ特徴が、(i)所定の顔アスペクト比の存在、(ii)所定の頭部向きの存在、(iii)ドロップシャドウの存在、(iv)顔画像上のギョーシェラインの存在、または(v)所定の図形の存在のうちの2つ以上を含む、請求項14記載の方法。
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された前記機械学習モデルが、
(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層
を含む、請求項10記載の方法。
(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層
を含む、請求項10記載の方法。
第2の画像を表す第4のデータを、前記データ処理システムによって取得する工程、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第4のデータを、前記データ処理システムによって入力として提供する工程、
取得された前記第4のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第5のデータを、前記データ処理システムによって取得する工程、
前記第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第5のデータに基づいて、判定する工程であって、取得された前記第5のデータを、所定の閾値に対して評価することを含む、該判定する工程、および
取得された前記第5のデータが所定の閾値を満たさないという判定に基づいて、前記第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納する工程
をさらに含む、請求項10記載の方法。
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第4のデータを、前記データ処理システムによって入力として提供する工程、
取得された前記第4のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第5のデータを、前記データ処理システムによって取得する工程、
前記第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第5のデータに基づいて、判定する工程であって、取得された前記第5のデータを、所定の閾値に対して評価することを含む、該判定する工程、および
取得された前記第5のデータが所定の閾値を満たさないという判定に基づいて、前記第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納する工程
をさらに含む、請求項10記載の方法。
前記機械学習モデルを訓練することが、以下:
それぞれの物理的文書の複数の訓練画像に、前記機械学習モデルによってアクセスすることであって、該複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、該アクセスすること、ならびに
前記複数の訓練画像のうちの各々の特定の画像について、
物理的文書の前記特定の画像の特定の部分を抽出すること、
物理的文書の前記特定の画像の抽出された前記特定の部分についての入力ベクトルを生成すること、
生成された前記入力ベクトルを、前記機械学習モデルの1つまたは複数の隠れ層を介して、前記機械学習モデルによって処理すること、
前記物理的文書の前記特定の画像の抽出された前記特定の部分を表す生成された前記入力ベクトルについての前記機械学習モデルの処理に基づいて前記機械学習モデルによって生成された出力データを、取得すること、
取得された前記出力データと前記特定の画像のラベルとの間に存在する誤差量を決定すること、および
決定された前記誤差量に基づいて、前記機械学習モデルの1つまたは複数のパラメータを調整すること
を含む、請求項10記載の方法。
それぞれの物理的文書の複数の訓練画像に、前記機械学習モデルによってアクセスすることであって、該複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、該アクセスすること、ならびに
前記複数の訓練画像のうちの各々の特定の画像について、
物理的文書の前記特定の画像の特定の部分を抽出すること、
物理的文書の前記特定の画像の抽出された前記特定の部分についての入力ベクトルを生成すること、
生成された前記入力ベクトルを、前記機械学習モデルの1つまたは複数の隠れ層を介して、前記機械学習モデルによって処理すること、
前記物理的文書の前記特定の画像の抽出された前記特定の部分を表す生成された前記入力ベクトルについての前記機械学習モデルの処理に基づいて前記機械学習モデルによって生成された出力データを、取得すること、
取得された前記出力データと前記特定の画像のラベルとの間に存在する誤差量を決定すること、および
決定された前記誤差量に基づいて、前記機械学習モデルの1つまたは複数のパラメータを調整すること
を含む、請求項10記載の方法。
データ処理装置によって実行されると、前記データ処理装置に、以下:
第1の画像を表す第1のデータを、データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第1のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第1のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第2のデータを、前記データ処理システムによって取得すること、
前記第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第2のデータに基づいて、判定することであって、取得された前記第2のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第2のデータが所定の閾値を満たすという判定に基づいて、前記第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納すること
を含む動作を行わせる、命令
が格納されている、コンピュータ可読記憶デバイス。
第1の画像を表す第1のデータを、データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第1のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第1のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第2のデータを、前記データ処理システムによって取得すること、
前記第1の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第2のデータに基づいて、判定することであって、取得された前記第2のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第2のデータが所定の閾値を満たすという判定に基づいて、前記第1の画像を取得した元となる文書が偽造文書であることを示す第3のデータを格納すること
を含む動作を行わせる、命令
が格納されている、コンピュータ可読記憶デバイス。
第1の画像を表す第1のデータを、前記データ処理システムによって取得することが、
カメラを使用して、文書の画像を表す第2のデータを取り込むことと、
前記文書の画像を表す前記第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す前記第1のデータを抽出することと
を含む、請求項19記載のコンピュータ可読記憶デバイス。
カメラを使用して、文書の画像を表す第2のデータを取り込むことと、
前記文書の画像を表す前記第2のデータから、人物の少なくとも一部分の画像である第1の画像を表す前記第1のデータを抽出することと
を含む、請求項19記載のコンピュータ可読記憶デバイス。
第1の画像を表す第1のデータを、前記データ処理システムによって取得することが、
カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、前記文書の画像を表す前記第2のデータを受け取ることと、
前記文書の画像を表す前記第2のデータから、前記第1の画像を表す前記第1のデータを抽出することと
を含む、請求項19記載のコンピュータ可読記憶デバイス。
カメラを使用して文書の画像を表す第2のデータを取り込んだデバイスから、前記文書の画像を表す前記第2のデータを受け取ることと、
前記文書の画像を表す前記第2のデータから、前記第1の画像を表す前記第1のデータを抽出することと
を含む、請求項19記載のコンピュータ可読記憶デバイス。
第1の画像を表す第1のデータを、前記データ処理システムによって取得することが、
デバイスから、前記第1の画像を表す前記第1のデータを受け取ること
を含む、請求項19記載のコンピュータ可読記憶デバイス。
デバイスから、前記第1の画像を表す前記第1のデータを受け取ること
を含む、請求項19記載のコンピュータ可読記憶デバイス。
前記偽造防止アーキテクチャが、2つ以上のセキュリティ特徴を含む、請求項19記載のコンピュータ可読記憶デバイス。
前記2つ以上のセキュリティ特徴が、(i)所定の顔アスペクト比の存在、(ii)所定の頭部向きの存在、(iii)ドロップシャドウの存在、(iv)顔画像上のギョーシェラインの存在、または(v)所定の図形の存在のうちの2つ以上を含む、請求項23記載のコンピュータ可読記憶デバイス。
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された前記機械学習モデルが、
(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層
を含む、請求項19記載のコンピュータ可読記憶デバイス。
(i)セキュリティ特徴の存在または(ii)セキュリティ特徴の不在、を検出するように訓練された、1つまたは複数のセキュリティ特徴識別器層
を含む、請求項19記載のコンピュータ可読記憶デバイス。
前記動作が、
第2の画像を表す第4のデータを、前記データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第4のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第4のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第5のデータを、前記データ処理システムによって取得すること、
前記第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第5のデータに基づいて、判定することであって、取得された前記第5のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第5のデータが所定の閾値を満たさないという判定に基づいて、前記第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納すること
をさらに含む、請求項19記載のコンピュータ可読記憶デバイス。
第2の画像を表す第4のデータを、前記データ処理システムによって取得すること、
入力画像を表すデータが、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうか、を判定するように訓練された機械学習モデルへと、取得された前記第4のデータを、前記データ処理システムによって入力として提供すること、
取得された前記第4のデータを前記機械学習モデルが入力として処理したことに基づいて前記機械学習モデルによって生成された出力データを表す第5のデータを、前記データ処理システムによって取得すること、
前記第2の画像が、特定の偽造防止アーキテクチャに従って印刷された物理的文書の1つまたは複数の画像を表すデータから逸脱しているかどうかを、前記データ処理システムによって、取得された前記第5のデータに基づいて、判定することであって、取得された前記第5のデータを、所定の閾値に対して評価することを含む、該判定すること、および
取得された前記第5のデータが所定の閾値を満たさないという判定に基づいて、前記第2の画像を取得した元となる文書が正規文書であることを示す第6のデータを格納すること
をさらに含む、請求項19記載のコンピュータ可読記憶デバイス。
前記機械学習モデルを訓練することが、以下:
それぞれの物理的文書の複数の訓練画像に、前記機械学習モデルによってアクセスすることであって、該複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、該アクセスすること、ならびに
前記複数の訓練画像のうちの各々の特定の画像について、
物理的文書の前記特定の画像の特定の部分を抽出すること、
物理的文書の前記特定の画像の抽出された前記特定の部分についての入力ベクトルを生成すること、
生成された前記入力ベクトルを、前記機械学習モデルの1つまたは複数の隠れ層を介して、前記機械学習モデルによって処理すること、
前記物理的文書の前記特定の画像の抽出された前記特定の部分を表す生成された前記入力ベクトルについての前記機械学習モデルの処理に基づいて前記機械学習モデルによって生成された出力データを、取得すること、
取得された前記出力データと前記特定の画像のラベルとの間に存在する誤差量を決定すること、および
決定された前記誤差量に基づいて、前記機械学習モデルの1つまたは複数のパラメータを調整すること
を含む、請求項19記載のコンピュータ可読記憶デバイス。
それぞれの物理的文書の複数の訓練画像に、前記機械学習モデルによってアクセスすることであって、該複数の訓練画像の各訓練画像が、(i)正規の物理的文書の画像または(ii)偽造の物理的文書の画像としてラベル付けされている、該アクセスすること、ならびに
前記複数の訓練画像のうちの各々の特定の画像について、
物理的文書の前記特定の画像の特定の部分を抽出すること、
物理的文書の前記特定の画像の抽出された前記特定の部分についての入力ベクトルを生成すること、
生成された前記入力ベクトルを、前記機械学習モデルの1つまたは複数の隠れ層を介して、前記機械学習モデルによって処理すること、
前記物理的文書の前記特定の画像の抽出された前記特定の部分を表す生成された前記入力ベクトルについての前記機械学習モデルの処理に基づいて前記機械学習モデルによって生成された出力データを、取得すること、
取得された前記出力データと前記特定の画像のラベルとの間に存在する誤差量を決定すること、および
決定された前記誤差量に基づいて、前記機械学習モデルの1つまたは複数のパラメータを調整すること
を含む、請求項19記載のコンピュータ可読記憶デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962940880P | 2019-11-26 | 2019-11-26 | |
US62/940,880 | 2019-11-26 | ||
PCT/US2020/062274 WO2021108589A1 (en) | 2019-11-26 | 2020-11-25 | Databases, data structures, and data processing systems for counterfeit physical document detection |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023502202A true JP2023502202A (ja) | 2023-01-23 |
Family
ID=75975406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022526347A Pending JP2023502202A (ja) | 2019-11-26 | 2020-11-25 | 偽造物理的文書の検出のための、データベース、データ構造、およびデータ処理システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210158036A1 (ja) |
EP (1) | EP4022507A4 (ja) |
JP (1) | JP2023502202A (ja) |
IL (1) | IL293142A (ja) |
WO (1) | WO2021108589A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11341459B2 (en) * | 2017-05-16 | 2022-05-24 | Artentika (Pty) Ltd | Digital data minutiae processing for the analysis of cultural artefacts |
US20210004795A1 (en) * | 2019-07-03 | 2021-01-07 | Sap Se | Anomaly and fraud detection using duplicate event detector |
US11308492B2 (en) * | 2019-07-03 | 2022-04-19 | Sap Se | Anomaly and fraud detection with fake event detection using pixel intensity testing |
US12039615B2 (en) * | 2019-07-03 | 2024-07-16 | Sap Se | Anomaly and fraud detection with fake event detection using machine learning |
JP7019007B1 (ja) * | 2020-09-28 | 2022-02-14 | 楽天グループ株式会社 | 照合システム、照合方法及びプログラム |
EP4083850A1 (en) * | 2021-04-27 | 2022-11-02 | Onfido Ltd | Method for detecting fraud in documents |
TWI779815B (zh) * | 2021-09-03 | 2022-10-01 | 瑞昱半導體股份有限公司 | 基於知識蒸餾實現的具備臉部校正效果的臉部辨識網路模型 |
US20230119208A1 (en) * | 2021-10-20 | 2023-04-20 | Blinkfire Analytics, Inc. | Sponsorship Exposure Metric System |
US11869002B2 (en) * | 2021-10-28 | 2024-01-09 | Paypal, Inc. | Card authentication technique selection via machine learning |
US20230281821A1 (en) * | 2022-03-07 | 2023-09-07 | Onfido Ltd. | Methods and systems for authentication of a physical document |
WO2023239579A1 (en) * | 2022-06-08 | 2023-12-14 | ZorroSign, Inc. | Systems and methods for electronic document execution, authentication, and forensic review |
US20240177512A1 (en) * | 2022-11-29 | 2024-05-30 | Stripe, Inc. | Systems and methods for identity document fraud detection |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008041944A1 (de) * | 2008-09-10 | 2010-03-11 | Bundesdruckerei Gmbh | Datenverarbeitungsverfahren zur Generierung eines Klassifikators und zur Überprüfung der Echtheit eines Dokuments, Vorrichtung zur Überprüfung der Echtheit eines Dokuments und Computerprogrammprodukt |
WO2018071768A1 (en) * | 2016-10-14 | 2018-04-19 | ID Metrics Group Incorporated | Tamper detection for identification documents |
US10217179B2 (en) * | 2016-10-17 | 2019-02-26 | Facebook, Inc. | System and method for classification and authentication of identification documents using a machine learning based convolutional neural network |
CN106599772B (zh) * | 2016-10-31 | 2020-04-28 | 北京旷视科技有限公司 | 活体验证方法和装置及身份认证方法和装置 |
-
2020
- 2020-11-25 WO PCT/US2020/062274 patent/WO2021108589A1/en unknown
- 2020-11-25 EP EP20891514.0A patent/EP4022507A4/en not_active Withdrawn
- 2020-11-25 IL IL293142A patent/IL293142A/en unknown
- 2020-11-25 US US17/104,340 patent/US20210158036A1/en active Pending
- 2020-11-25 JP JP2022526347A patent/JP2023502202A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
IL293142A (en) | 2022-07-01 |
EP4022507A4 (en) | 2022-10-12 |
WO2021108589A1 (en) | 2021-06-03 |
US20210158036A1 (en) | 2021-05-27 |
EP4022507A1 (en) | 2022-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023502202A (ja) | 偽造物理的文書の検出のための、データベース、データ構造、およびデータ処理システム | |
US11669607B2 (en) | ID verification with a mobile device | |
US10839238B2 (en) | Remote user identity validation with threshold-based matching | |
Mohammadi et al. | Deeply vulnerable: a study of the robustness of face recognition to presentation attacks | |
KR102406432B1 (ko) | 신원 인증 방법 및 장치, 전자 기기 및 저장 매체 | |
US20170262472A1 (en) | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces | |
US20200218772A1 (en) | Method and apparatus for dynamically identifying a user of an account for posting images | |
JP7412496B2 (ja) | 生体(liveness)検出検証方法、生体検出検証システム、記録媒体、及び生体検出検証システムの訓練方法 | |
CN109376717A (zh) | 人脸对比的身份识别方法、装置、电子设备及存储介质 | |
US20190205617A1 (en) | System and method for combining identity information to facilitate image acquisition | |
US20210398135A1 (en) | Data processing and transaction decisioning system | |
US20230058259A1 (en) | System and Method for Video Authentication | |
JP2023539712A (ja) | 取引検証のための難読化された識別テンプレートの生成 | |
US20230077973A1 (en) | Device and method for detecting counterfeit identification card | |
US11087121B2 (en) | High accuracy and volume facial recognition on mobile platforms | |
CN115565097A (zh) | 交易场景人员行为是否合规检测方法及装置 | |
Harris et al. | An Improved Signature Forgery Detection using Modified CNN in Siamese Network | |
KR102579610B1 (ko) | Atm 이상행동감지 장치 및 그 장치의 구동방법 | |
CN111209863A (zh) | 一种活体模型训练和人脸活体检测方法、装置和电子设备 | |
RU2798179C1 (ru) | Способ, терминал и система для биометрической идентификации | |
US20240217255A1 (en) | Document Boundary Analysis | |
US20240185635A1 (en) | Method and system for detection of a fraudulent action using face database search and retrieval | |
US11436853B1 (en) | Document authentication | |
US20240021016A1 (en) | Method and system for identity verification | |
Dixit et al. | SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220617 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20230627 |