JP2021026450A - Computer program, information processing device, information processing method and generation method of learned model - Google Patents
Computer program, information processing device, information processing method and generation method of learned model Download PDFInfo
- Publication number
- JP2021026450A JP2021026450A JP2019143097A JP2019143097A JP2021026450A JP 2021026450 A JP2021026450 A JP 2021026450A JP 2019143097 A JP2019143097 A JP 2019143097A JP 2019143097 A JP2019143097 A JP 2019143097A JP 2021026450 A JP2021026450 A JP 2021026450A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- card
- authenticity
- control unit
- partial image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 277
- 238000004590 computer program Methods 0.000 title claims abstract description 43
- 230000010365 information processing Effects 0.000 title claims abstract description 16
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 239000000284 extract Substances 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims description 238
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 8
- 239000003086 colorant Substances 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 42
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 238000003860 storage Methods 0.000 description 109
- 238000004891 communication Methods 0.000 description 78
- 238000011156 evaluation Methods 0.000 description 68
- 238000010586 diagram Methods 0.000 description 40
- 210000002569 neuron Anatomy 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 230000000694 effects Effects 0.000 description 11
- 230000009467 reduction Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000037361 pathway Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000012447 hatching Effects 0.000 description 3
- 206010042496 Sunburn Diseases 0.000 description 2
- 230000032683 aging Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008774 maternal effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000004049 embossing Methods 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、コンピュータプログラム、情報処理装置、情報処理方法及び学習済みモデルの生成方法に関する。 The present invention relates to a computer program, an information processing apparatus, an information processing method, and a method for generating a trained model.
画像データに基づいて、画像データの画像に写っているカード、例えば、身分証明書が本物であるか否かを判定する判定装置(例えば、特許文献1を参照)が提案されている。面積階調方式のプリンタを用いて印刷を行うことによって、偽造された偽造カードを作成した場合、本物のカードにおいて1色で塗り潰された部分に対応する偽造カードの部分では、色むらが発生する。特許文献1に記載の判定装置は、画像データの画像において色むらが発生している場合、画像データの画像に写っているカードは偽造カードであると判定する。
Based on the image data, a card (for example, see Patent Document 1) for determining whether or not the card, for example, the identification card shown in the image of the image data is genuine has been proposed. When a counterfeit card is created by printing using an area gradation printer, color unevenness occurs in the part of the counterfeit card corresponding to the part filled with one color in the real card. .. When the image of the image data has color unevenness, the determination device described in
しかしながら、特許文献1に記載の判定装置では、面積階調方式のプリンタとは異なるプリンタを用いて作成された偽造カードについては、本物であるか否かの判定、即ち、真贋判定を行うことができない可能性がある。
However, in the determination device described in
本発明は斯かる事情に鑑みてなされたものであり、その目的とするところは、偽造に用いるプリンタに無関係にカードの真贋判定を適切に行うことができるコンピュータプログラム、情報処理装置及び情報処理方法と、適切な真贋判定を実現する学習済みモデルの生成方法とを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is a computer program, an information processing device, and an information processing method capable of appropriately determining the authenticity of a card regardless of the printer used for counterfeiting. And to provide a method of generating a trained model that realizes an appropriate authenticity judgment.
本発明の一態様に係るコンピュータプログラムは、カードの画像データを取得し、取得した画像データの一部分である部分画像データを抽出し、抽出した部分画像データを、カードの画像データの一部分である部分画像データと、カードの真贋度との関係を学習した学習済みモデルに入力し、前記真贋度を算出する処理をコンピュータに実行させる。 The computer program according to one aspect of the present invention acquires the image data of the card, extracts the partial image data which is a part of the acquired image data, and uses the extracted partial image data as a part of the image data of the card. The relationship between the image data and the authenticity of the card is input to the learned model, and the computer is made to execute the process of calculating the authenticity.
本発明の一態様に係る情報処理装置は、カードの画像データを取得する取得部と、前記取得部が取得した画像データの一部分である部分画像データを抽出する抽出部と、前記抽出部が抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力する入力部と、前記真贋度を算出する算出部とを備える。 The information processing apparatus according to one aspect of the present invention includes an acquisition unit that acquires image data of a card, an extraction unit that extracts partial image data that is a part of the image data acquired by the acquisition unit, and an extraction unit that extracts the partial image data. It includes an input unit for inputting the partial image data to the trained model in which the relationship between the partial data which is a part of the image data of the card and the authenticity of the card is learned, and a calculation unit for calculating the authenticity.
本発明の一態様に係る情報処理方法では、カードの画像データを取得し、取得した画像データの一部分である部分画像データを抽出し、抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力し、前記真贋度を算出する処理をコンピュータが実行する。 In the information processing method according to one aspect of the present invention, the image data of the card is acquired, the partial image data which is a part of the acquired image data is extracted, and the extracted partial image data is a part of the image data of the card. The computer executes a process of inputting the relationship between the partial data and the authenticity of the card into the trained model that has learned the relationship and calculating the authenticity.
本発明の一態様に係る学習済みモデルでは、カードの画像データの一部分である部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている教師データを取得し、取得した教師データに基づき、部分画像データと、カードの真贋度との関係を学習した学習済みモデルを生成する処理をコンピュータが実行する。 In the trained model according to one aspect of the present invention, the teacher data in which the partial image data which is a part of the image data of the card is associated with the correct answer label indicating whether or not the card is genuine is acquired and acquired. Based on the teacher data, the computer executes a process to generate a trained model that learns the relationship between the partial image data and the authenticity of the card.
上記のコンピュータプログラム、情報処理装置及び情報処理方法の態様によれば、偽造に用いるプリンタに無関係にカードの真贋判定を適切に行うことができる。
上記の学習済みモデルの生成方法によれば、適切な真贋判定を実現する学習済みモデルを生成することができる。
According to the above-mentioned computer program, information processing device, and information processing method, the authenticity of the card can be appropriately determined regardless of the printer used for counterfeiting.
According to the above-mentioned method for generating a trained model, it is possible to generate a trained model that realizes an appropriate authenticity determination.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、実施の形態1における判定装置1の概要の説明図である。判定装置1には、カードが写っている画像の画像データが入力される。カードとして、運転免許証、マイナンバーカード、マイナンバー通知カード、住民基本台帳カード、特別永住者証明書、在留カード、パスポートカード又はソーシャルセキュリティカード等が挙げられる。また、判定装置1には真贋度推定モデルRが記憶されている。真贋度推定モデルRは、カードの画像データの一部分である部分画像データと、カードが本物である確率を示す真贋度との関係を学習した学習済みモデルである。
Hereinafter, the present invention will be described in detail with reference to the drawings showing the embodiments thereof.
(Embodiment 1)
FIG. 1 is an explanatory diagram of an outline of the
判定装置1は、カードの画像データが入力された場合、入力された画像データから、複数の部分画像データを抽出する。判定装置1は、抽出した部分画像データを、真贋度推定モデルRに入力し、真贋度推定モデルRの出力として真贋度を算出する。判定装置1は、抽出した複数の部分画像データを各別に真贋度推定モデルRに入力し、複数の真贋度を算出する。判定装置1は、算出した複数の真贋度に基づいて、入力された画像データに写っているカードが本物であるか否かを判定する。判定装置1は、カードが本物であると判定した場合、例えば、入力された画像データから、カードに記載されている個人情報を読み取り、読み取った個人情報に基づくユーザの認証、又は、読み取った個人情報の登録等を行う。モデル生成装置2は、真贋度推定モデルRを生成する。判定装置1は情報処理装置として機能する。
When the image data of the card is input, the
図2は部分画像データの説明図である。図2には、カードの画像が示されている。ここでは、カードの一例として、運転免許証が示されている。縦線のハッチングは、1色で塗り潰された部分を示し、斜線のハッチングは、斜線の模様部分を示す。塗り潰しに用いられる色は白色とは異なる色である。縦線のハッチング以外の部分の背景色は白色である。図2以外の図面においても、縦ハッチング及び斜線のハッチングは同様に定義される。 FIG. 2 is an explanatory diagram of partial image data. FIG. 2 shows an image of the card. Here, a driver's license is shown as an example of a card. Vertical line hatches indicate parts filled with one color, and diagonal line hatches indicate parts with diagonal lines. The color used for filling is different from white. The background color of the part other than the hatching of the vertical line is white. Vertical hatching and diagonal hatching are similarly defined in drawings other than FIG.
図2では、4つの部分画像データに対応する4つの部分画像B10,B11,B12,B13が示されている。4つの部分画像B10,B11,B12,B13それぞれは破線で囲まれている。部分画像B10,B12,B13それぞれは、カード上の曲線部分の画像である。部分画像B11は、カード上の直線部分の画像である。
なお、部分画像データの数は、4に限定されず、2、3又は5以上であってもよい。また、部分画像データの画像は、直線部分又は曲線部分の画像に限定されない。
In FIG. 2, four partial images B10, B11, B12, and B13 corresponding to the four partial image data are shown. Each of the four partial images B10, B11, B12, and B13 is surrounded by a broken line. Each of the partial images B10, B12, and B13 is an image of a curved portion on the card. The partial image B11 is an image of a straight line portion on the card.
The number of partial image data is not limited to 4, and may be 2, 3, or 5 or more. Further, the image of the partial image data is not limited to the image of the straight line portion or the curved portion.
判定装置1には、種類が共通するカード、例えば、運転免許証の画像データが入力される。判定装置1には、画像データの画像における複数の座標を示す座標データが記憶されている。座標データが示す複数の座標は、カードの画像において、複数の部分画像データに対応する複数の部分画像の場所を示す。部分画像が矩形状をなす場合、部分画像の場所は、例えば、部分画像の4つの角の座標によって示される。部分画像が矩形状をなし、かつ、部分画像の縦及び横の長さが固定されている場合、座標データの座標は、例えば、部分画像の左上、左下、右上又は右下の角の位置を示す。この場合、1つの座標で1つの部分画像の場所が示される。
A card of a common type, for example, image data of a driver's license is input to the
図3は真贋度推定モデルRの概略図である。真贋度推定モデルRは、深層学習を含む機械学習の学習済みモデルであり、例えば、CNN(Convolutional Neural Network)である。真贋度推定モデルRは、入力層、複数の中間層及び出力層を有する。図3には、中間層の数が2である例が示されている。なお、中間層の数は3以上であってもよい。 FIG. 3 is a schematic diagram of the authenticity estimation model R. The authenticity estimation model R is a trained model of machine learning including deep learning, and is, for example, a CNN (Convolutional Neural Network). The authenticity estimation model R has an input layer, a plurality of intermediate layers, and an output layer. FIG. 3 shows an example in which the number of intermediate layers is 2. The number of intermediate layers may be 3 or more.
入力層、中間層及び出力層それぞれは、一又は複数のニューロンを有する。各層のニューロンは、前後の層に存在するニューロンと一方向に所望の重み及びバイアスで結合されている。入力層のニューロンの数と同数の成分を有するベクトルが、真贋度推定モデルRに、入力データとして入力される。真贋度推定モデルRの入力層には、例えば、部分画像データを構成する複数の画素値が入力される。 Each of the input layer, middle layer and output layer has one or more neurons. The neurons in each layer are unidirectionally connected to the neurons in the previous and next layers with the desired weight and bias. A vector having the same number of components as the number of neurons in the input layer is input to the authenticity estimation model R as input data. For example, a plurality of pixel values constituting partial image data are input to the input layer of the authenticity estimation model R.
なお、複数の中間層に畳み込みを行う層が含まれていてもよい。この層では、入力されたデータに、畳み込みフィルタを含む適宜のフィルタを適用し、フィルタを適用した後に得られる複数のデータを次の層、例えば、プーイング層に出力する。 In addition, a layer for convolution may be included in a plurality of intermediate layers. In this layer, an appropriate filter including a convolution filter is applied to the input data, and a plurality of data obtained after applying the filter is output to the next layer, for example, the pouring layer.
入力層の各ニューロンに入力された入力値は、最初の中間層に入力される。この中間層において、重み及びバイアスを含む活性化関数を用いて出力が算出される。算出された値が次の中間層に入力される。以下同様にして、出力層の出力が算出されるまで次々と後の層に伝達される。なお、ニューロン間を結合する重み及びバイアス等のパラメータは、誤差逆伝播法を用いて学習される。 The input values input to each neuron in the input layer are input to the first intermediate layer. In this intermediate layer, the output is calculated using an activation function that includes weights and biases. The calculated value is input to the next intermediate layer. In the same manner below, the output of the output layer is transmitted to the subsequent layers one after another until the output is calculated. Parameters such as weights and biases that connect neurons are learned using the backpropagation method.
モデル生成装置2は、部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている教師データを用いて機械学習を行い、真贋度推定モデルRを生成する。正解ラベルは1つの情報である。機械学習では、モデル生成装置2は、中間層での算出に用いるパラメータを最適化する。
The
真贋度推定モデルRの出力層は、入力層に入力された部分画像データの画像に写っているカードが本物である確率、即ち、真贋度と、このカードが偽物である確率とを出力する。確率は、ゼロ以上、かつ、1以下の実数で表される。出力層では、ソフトマックス関数が用いられ、2つの確率の合計が1、即ち、100%となるように調整される。カードが偽物である確率を1から減算することによって、カードが本物である確率が算出されるので、カードが偽物である確率も真贋度を示す。 The output layer of the authenticity estimation model R outputs the probability that the card shown in the image of the partial image data input to the input layer is genuine, that is, the authenticity and the probability that this card is fake. The probability is represented by a real number greater than or equal to zero and less than or equal to 1. In the output layer, a softmax function is used and adjusted so that the sum of the two probabilities is 1, i.e. 100%. By subtracting the probability that the card is fake from 1, the probability that the card is genuine is calculated, so the probability that the card is fake also indicates the authenticity.
図4はモデル生成装置2の要部構成を示すブロック図である。モデル生成装置2は、入力部20、操作部21、一時記憶部22、記憶部23及び制御部24を備える。これらは、内部バス25に接続されている。
FIG. 4 is a block diagram showing a main configuration of the
入力部20には、複数の教師データと、真贋度推定モデルRを評価するための第1評価用データ及び第2評価用データとが入力される。制御部24は、入力部20に入力された教師データ、第1評価用データ及び第2評価用データを取得する。第1評価用データ及び第2評価用データそれぞれは、教師データと同様に、部分画像データと、部分画像データの画像に写っているカードが本物であるか否かを示す正解ラベルとを含む。
A plurality of teacher data and first evaluation data and second evaluation data for evaluating the authenticity estimation model R are input to the
教師データ、第1評価用データ及び第2評価用データに含まれる部分画像データの部分画像は、種類が共通するカードの画像において、判定装置1に記憶される座標データが示す複数の場所の1つに対応する部分画像である。
The partial image of the partial image data included in the teacher data, the first evaluation data, and the second evaluation data is one of a plurality of locations indicated by the coordinate data stored in the
操作部21は、キーボード又はマウス等の入力インタフェースを有する。ユーザは入力インタフェースを操作する。操作部21は、入力インタフェースにおいて行われた操作を制御部24に通知する。
一時記憶部22は例えば、RAM(Random Access Memory)である。一時記憶部22には、データが一時的に記憶されている。一時記憶部22への電力供給が停止した場合、一時記憶部22に記憶されているデータは消去される。
The
The
記憶部23は不揮発性メモリである。記憶部23には、真贋度推定モデルR及びコンピュータプログラムP2が記憶されている。制御部24は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はTPU(Tenser Processing Unit)等の処理素子を有し、算出を行う算出部を兼ねる。制御部24の処理素子(コンピュータ)は、コンピュータプログラムP2を実行することによって、教師データ、第1評価用データ及び第2評価用データを記憶部23に記憶する記憶処理と、真贋度推定モデルRを生成する真贋度推定モデル生成処理とを実行する。
The
なお、コンピュータプログラムP2は、制御部24が有する処理素子が読み取り可能に記憶した非一時的な記憶媒体A2を用いてモデル生成装置2に提供されてもよい。この場合、図示しない読み出し装置によって記憶媒体A2から読み出されたコンピュータプログラムP2が記憶部23に記憶される。記憶媒体A2は、光ディスク、フレキシブルディスク、磁気ディスク、磁気光ディスク又は半導体メモリ等である。光ディスクは、CD(Compact Disc)−ROM(Read Only Memory)、DVD(Digital Versatile Disc)−ROM、又は、BD(Blu-ray(登録商標) Disc)等である。磁気ディスクは、例えばハードディスクである。また、図示しない通信網に接続されている図示しない外部装置からコンピュータプログラムP2をダウンロードし、ダウンロードしたコンピュータプログラムP2を記憶部23に記憶してもよい。
The computer program P2 may be provided to the
制御部24が有する処理素子の数は2以上であってもよい。この場合、複数の処理素子がコンピュータプログラムP2に従って、記憶処理及び真贋度推定モデル生成処理を協同で実行してもよい。
The number of processing elements included in the
図示しない装置から入力部20に複数の教師データ、第1評価用データ及び第2評価用データが入力される。制御部24は、入力部20にこれらのデータが入力された場合、記憶処理を実行する。記憶処理では、制御部24は、入力部20に入力された複数の教師データ、第1評価用データ及び第2評価用データを取得し、取得したこれらのデータを記憶部23に記憶する。その後、制御部24は記憶処理を終了する。
A plurality of teacher data, first evaluation data, and second evaluation data are input to the
図5及び図6は真贋度推定モデル生成処理の手順を示すフローチャートである。モデル生成装置2のユーザは、操作部21において、真贋度推定モデル生成処理の実行を指示する実行操作を行う。実行操作が行われた場合において、記憶部23に、複数の教師データ、第1評価用データ及び第2評価用データが記憶されているとき、制御部24はモデル生成処理を実行する。記憶部23には、真贋度推定モデル生成処理で用いられる第1変数及び第2変数の値が記憶されている。制御部24は、これらの値は各別に設定する。
5 and 6 are flowcharts showing the procedure of the authenticity estimation model generation process. The user of the
真贋度推定モデル生成処理では、制御部24は、まず、真贋度推定モデルRの経路を形成する(ステップS1)。具体的には、制御部24は、入力層と入力層に隣接する中間層とに関する複数のニューロンの間の経路と、隣接する2つの中間層に関する複数のニューロン間の経路と、中間層と中間層に隣接する出力層とに関する複数のニューロン間の経路とを形成する。ニューロン間の重み及びバイアス等のパラメータは適宜設定されている。
In the authenticity estimation model generation process, the
制御部24は、ステップS1を実行した後、第1変数及び第2変数の値をゼロに設定し(ステップS2)、記憶部23に記憶されている複数の教師データ、第1評価用データ及び第2評価用データを、一時記憶部22にロードする(ステップS3)。次に、制御部24は、一時記憶部22から1つの教師データを選択し(ステップS4)、選択した教師データに含まれる部分画像データを真贋度推定モデルRに入力する(ステップS5)。真贋度推定モデルRへのデータの入力は、真贋度推定モデルRの入力層への入力を意味する。次に、制御部24は、真贋度推定モデルRの出力として、真贋度を算出する(ステップS6)。前述したように、真贋度推定モデルRの出力として、真贋度に加えて、カードが偽物である確率も出力される。
After executing step S1, the
次に、制御部24は、第1変数の値を1だけインクリメントし(ステップS7)、第1変数の値が第1基準値であるか否かを判定する(ステップS8)。第1基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第1変数の値が第1基準値ではないと判定した場合(S8:NO)、ステップS4を再び実行する。再び実行されたステップS4では、制御部24は、ステップS3でロードされた複数の教師データの中で選択していない1つの教師データを選択する。
Next, the
制御部24は、第1変数の値が第1基準値となるまで、ステップS4〜S7を繰り返し実行し、真贋度を算出し続ける。第1基準値は、所謂、バッチサイズである。制御部24は、第1変数の値が第1基準値であると判定した場合(S8:YES)、ステップS6を繰り返し実行することによって得られた複数の真贋度と、ステップS4で選択した複数の教師データの正解ラベルが示す内容とに基づいて、真贋度推定モデルRのパラメータを更新する(ステップS9)。次に、制御部24は、一時記憶部22に記憶されている全ての教師データをステップS4で選択したか否かを判定する(ステップS10)。
The
制御部24は、全ての教師データを選択していないと判定した場合(S10:NO)、第1変数の値をゼロに設定し(ステップS11)、ステップS4を再び実行する。再び実行されたステップS4では、制御部24は、ステップS3でロードされた複数の教師データの中で選択していない1つの教師データを選択する。全ての教師データが選択されるまで、ステップS6を繰り返し実行することによって得られた複数の真贋度に基づいて、パラメータを繰り返し更新する。
When it is determined that all the teacher data has not been selected (S10: NO), the
制御部24は、全ての教師データを選択したと判定した場合(S10:YES)、第1評価用データを用いて真贋度推定モデルRを評価する(ステップS12)。ステップS12では、制御部24は、第1評価用データに含まれる部分画像データを真贋度推定モデルRに入力し、真贋度を算出する。制御部24は、この真贋度と、第1評価用データに含まれる正解ラベルが示す内容とに基づいて、真贋度推定モデルRの出力として適切な真贋度が算出されていることを確認する。適切な真贋度が算出されていなかった場合、例えば、真贋度推定モデル生成処理を終了してもよい。この場合、例えば、教師データの数を増やして、再度、真贋度推定モデル生成処理を実行する。
When it is determined that all the teacher data has been selected (S10: YES), the
制御部24は、ステップS12を実行した後、第2変数の値を1だけインクリメントし(ステップS13)、第2変数の値が第2基準値であるか否かを判定する(ステップS14)。第2基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第2変数の値が第2基準値ではないと判定した場合(S14:NO)、第1変数の値をゼロに設定し(ステップS15)、ステップS4を再び実行する。このとき、ステップS3でロードされた複数の教師データの中に選択された教師データはないとして、ステップS4を実行する。第2変数の値が第2基準値となるまで、ステップS3でロードされた複数の教師データを用いて真贋度推定モデルRのパラメータを更新する。各教師データが用いられる回数は、第2基準値の数と同じである。第2基準値は、所謂、エポック数である。
After executing step S12, the
制御部24は、第2変数の値が第2基準値であると判定した場合(S14:YES)、第2評価用データを用いて真贋度推定モデルRを評価する(ステップS16)。ステップS16では、制御部24は、第2評価用データに含まれる部分画像データを真贋度推定モデルRに入力し、真贋度推定モデルRの出力として、真贋度を算出する。制御部24は、算出した真贋度と、第2評価用データに含まれる正解ラベルが示す内容とに基づいて、真贋度推定モデルRの出力として適切な真贋度を算出していることを確認する。適切な真贋度が算出されていなかった場合、例えば、真贋度推定モデル生成処理を終了してもよい。この場合、例えば、教師データの数を増やして、再度、真贋度推定モデル生成処理を実行する。
When the
制御部24は、ステップS16を実行した後、パラメータが更新された真贋度推定モデルRを記憶部23に記憶し(ステップS17)、真贋度推定モデルRの更新に用いた教師データ、第1評価用データ及び第2評価用データを、一時記憶部22及び記憶部23から削除する(ステップS18)。制御部24は、ステップS18を実行した後、真贋度推定モデル生成処理を終了する。
After executing step S16, the
以上のように、真贋度推定モデル生成処理では、制御部24は、記憶部23に記憶されている複数の教師データに基づき、真贋度推定モデルRのパラメータを更新する。パラメータの更新により、真贋度推定モデルRが生成される。
モデル生成装置2がネットワークを介して判定装置1に接続されている場合、モデル生成装置2は、制御部24が生成した真贋度推定モデルRを判定装置1に送信する。判定装置1は、自身に記憶されている真贋度推定モデルRを、モデル生成装置2から受信した真贋度推定モデルRに更新する。判定装置1は、個人情報に基づく認証、又は、個人情報の登録等を行う場所に設置されている。
As described above, in the authenticity estimation model generation process, the
When the
前述したように、教師データでは、カードの画像データの一部分である部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている。このため、真贋度推定モデル生成処理では、制御部12は、適切な真贋判定を実現する真贋度推定モデルRを生成する。
As described above, in the teacher data, the partial image data which is a part of the image data of the card is associated with a correct answer label indicating whether or not the card is genuine. Therefore, in the authenticity estimation model generation process, the
真贋度推定モデルRの生成に用いられる全ての教師データに含まれる部分画像データの種類は共通している。部分画像データの種類は、部分画像データの画像に写っているカードの部分に応じて異なる。1種類の部分画像データとして、図2に示すように、カード上の直線部分又は曲線部分の部分画像データが挙げられる。 The types of partial image data included in all the teacher data used to generate the authenticity estimation model R are common. The type of partial image data differs depending on the part of the card shown in the image of the partial image data. As one type of partial image data, as shown in FIG. 2, partial image data of a straight line portion or a curved portion on a card can be mentioned.
プリンタを用いてカード、例えば、運転免許証を偽造した場合、偽造された偽装カードでは、本物のカードと比較して、線幅が太くなり、線の色にむらが発生する可能性が高い。このため、1種類の部分画像データとして、カード上の直線部分又は曲線部分の部分画像データを用いることは効果的である。また、教師データの部分画像データとして、種々のプリンタを用いて作成した偽造カードの部分画像データを用いる。これにより、カードの偽造に用いたプリンタに無関係に、真贋度推定モデルRの出力として、適切な真贋度が算出される。 When a card, for example, a driver's license, is forged using a printer, the forged card has a wider line width and is more likely to have uneven line color than a real card. Therefore, it is effective to use the partial image data of the straight line portion or the curved line portion on the card as one type of partial image data. Further, as the partial image data of the teacher data, the partial image data of the counterfeit card created by using various printers is used. As a result, an appropriate authenticity is calculated as the output of the authenticity estimation model R regardless of the printer used for forging the card.
次に、判定装置1を詳細に説明する。図7は、判定装置1の要部構成を示すブロック図である。判定装置1は、入力部10、記憶部11及び制御部12を備える。これらは内部バス13に接続されている。
入力部10には、カードの画像データが入力される。制御部12は、入力部10に入力された画像データを取得する。制御部12は取得部として機能する。
Next, the
The image data of the card is input to the
記憶部11は不揮発性メモリである。記憶部11には、モデル生成装置2が生成した真贋度推定モデルRと、複数の座標を示す座標データZと、コンピュータプログラムP1とが記憶されている。図2を用いた部分画像データの説明で述べたように、座標データZの複数の座標は、カードの画像において、複数の部分画像の場所を示す。制御部12は、CPU、GPU又はTPU等の処理素子を有する。制御部12の処理素子(コンピュータ)は、コンピュータプログラムP1を実行することによって、画像データの画像に写っているカードが本物であるか否かの判定、即ち、真贋判定を行う真贋判定処理を実行する。
The
なお、コンピュータプログラムP1は、制御部12が有する処理素子が読み取り可能に記憶した非一時的な記憶媒体A1を用いて判定装置1に提供されていてもよい。この場合、図示しない読み出し装置によって記憶媒体A1から読み出されたコンピュータプログラムP1が記憶部11に記憶される。記憶媒体A1は、光ディスク、フレキシブルディスク、磁気ディスク、磁気光ディスク又は半導体メモリ等である。また、図示しない通信網に接続されている図示しない外部装置からコンピュータプログラムP1をダウンロードし、ダウンロードしたコンピュータプログラムP1を記憶部11に記憶してもよい。
The computer program P1 may be provided to the
制御部12が有する処理素子の数は2以上であってもよい。この場合、複数の処理素子がコンピュータプログラムP1に従って、真贋判定処理を協同で実行してもよい。
The number of processing elements included in the
図8は真贋判定処理の手順を示すフローチャートである。制御部12は、入力部10からカードの画像データを取得した場合に真贋判定処理を実行する。真贋判定処理では、制御部12は、まず、入力部10から取得した画像データから複数の部分画像データを抽出する(ステップS21)。ステップS21では、制御部12は、入力部10から取得した画像データの画像において、座標データZが示す複数の場所にある複数の部分画像に対応する複数部分画像データを抽出する。制御部12は、例えば、図2に示すように、カード上の線部分に対応する複数の部分画像データを抽出する。制御部12は抽出部としても機能する。
FIG. 8 is a flowchart showing the procedure of the authenticity determination process. The
ここで、制御部12は、種類が共通する複数の部分画像データを抽出する。更に、ステップS21で抽出する部分画像データの種類は、真贋度推定モデルRの生成に用いた部分画像データの種類と同じである。
Here, the
なお、部分画像データを抽出する方法は、座標データZを用いた方法に限定されない。例えば、カードの画像データと、画像データの画像における部分画像の場所との関係を学習した学習済みモデル、例えば、R−CNN(Region-CNN)を用いて部分画像データを抽出してもよい。この場合、制御部12は、画像データを学習済みモデルに入力し、学習済みモデルの出力に基づいて、複数の部分画像の場所、例えば、座標を決定する。制御部12は、決定した複数の座標が示す複数の場所にある複数の部分画像に対応する複数の部分画像データを画像データから抽出する。
The method of extracting the partial image data is not limited to the method using the coordinate data Z. For example, partial image data may be extracted using a trained model that has learned the relationship between the image data of the card and the location of the partial image in the image of the image data, for example, R-CNN (Region-CNN). In this case, the
次に、制御部12は、ステップS21で抽出した複数の部分画像データの中から1つの部分画像データを選択し(ステップS22)、選択した部分画像データを真贋度推定モデルRに入力する(ステップS23)。制御部12は入力部としても機能する。次に、制御部12は、真贋度推定モデルRの出力として、真贋度を算出する(ステップS24)。制御部12は算出部としても機能する。
Next, the
制御部12は、ステップS24を実行した後、ステップS21で抽出した全ての部分画像データをステップS22で選択したか否かを判定する(ステップS25)。制御部12は、全ての部分画像データを選択していないと判定した場合(S25:NO)、ステップS22を再び実行する。再び実行したステップS22では、まだ選択していない部分画像データを選択する。その後、再び、ステップS24で真贋度を算出する。制御部12は、ステップS21で抽出した全ての部分画像データが選択されるまで、真贋度を算出し続ける。結果、制御部12は、ステップS12で抽出した全ての部分画像データについて真贋度を算出する。
After executing step S24, the
制御部12は、全ての部分画像データを選択したと判定した場合(S25:YES)、ステップS24を繰り返し実行することによって得られた複数の真贋度に基づいて、入力部10から取得した画像データの画像に写っているカードが本物であるか否かを判定する(ステップS26)。
When the
図9は真贋判定の説明図である。真贋判定の第1例として、制御部12は、ステップS24を繰り返し実行することによって算出された全ての真贋度が真贋閾値以上である場合にカードが本物であると判定する。真贋閾値は、記憶部11に記憶されており、予め設定されている一定値である。制御部12は、ステップS24を繰り返し実行することによって算出された複数の真贋度の中で少なくとも1つが真贋閾値未満である場合にカードが本物ではないと判定する。
FIG. 9 is an explanatory diagram of authenticity determination. As a first example of authenticity determination, the
真贋判定の第2例として、制御部12は、ステップS24を繰り返し実行することによって算出された全ての真贋度の平均値が真贋閾値以上である場合にカードが本物であると判定する。制御部12は、前述した平均値が真贋閾値未満である場合にカードが本物ではないと判定する。
As a second example of authenticity determination, the
真贋判定の第3例として、制御部12は、ステップS24を繰り返し実行することによって算出された複数の真贋度の中で、真贋閾値未満である真贋度の数が基準数未満である場合にカードが本物であると判定する。基準数は、記憶部11に記憶されており、予め設定されている一定の自然数である。制御部12は、ステップS24を繰り返し実行することによって算出された複数の真贋度の中で真贋閾値未満である真贋度の数が基準数以上である場合にカードが本物ではないと判定する。
As a third example of authenticity determination, the
制御部12は、カードが本物ではないと判定した場合(S26:NO)、入力部10から取得した画像データを記憶部11から削除する(ステップS27)。制御部12は、カードが本物であると判定した場合(S26:YES)、又は、ステップS27を実行した後、真贋度判定処理を終了する。
When the
真贋判定で本物であると判定されたカードの画像データは、例えば、カードに記載されている個人情報の読み取りに用いられる。読み取った個人情報は、登録、又は、カードの所有者の認証等に用いられる。
なお、制御部12は、ステップS27を実行するとともに、図示しない出力部に指示してカードが偽造されている旨を示す情報を出力させてもよい。これにより、カードの偽造が報知される。制御部12は、この処理を実行した後、真贋判定処理を終了する。
The image data of the card determined to be genuine by the authenticity determination is used, for example, for reading the personal information written on the card. The read personal information is used for registration or authentication of the cardholder.
In addition, the
前述したように、真贋度推定モデルRは、種々のプリンタを用いて作成された複数の偽造カードに対応する複数の部分画像データを用いて学習されている。このため、真贋判定処理では、制御部12は、偽造に用いられたプリンタに無関係に適切な真贋度を算出し、カードの真贋判定を適切に行うことができる。また、真贋判定処理では、1つの画像データから複数の部分画像データを抽出し、抽出した複数の部分画像データに基づいて複数の真贋度を算出し、算出した複数の真贋度に基づいて真贋判定を行う。このため、真贋判定が正確である。
As described above, the authenticity estimation model R is learned using a plurality of partial image data corresponding to a plurality of counterfeit cards created by using various printers. Therefore, in the authenticity determination process, the
更に、真贋判定処理で制御部12が画像データから抽出する部分画像データの種類は、真贋度推定モデルRの学習に用いる部分画像データの種類と同じであるため、真贋判定がより正確である。前述したように、プリンタを用いてカードを偽造した場合、本物のカードと、偽造カードとの差は線部分に生じ易い。従って、真贋判定処理で制御部12が画像データから抽出する部分画像データ、及び、真贋度推定モデルRの学習に用いる部分画像データとして、カード上の線部分の部分画像データを用いた場合、真贋判定が更に正確である。
Further, since the type of partial image data extracted from the image data by the
図2を用いた部分画像データの説明で述べたように、真贋判定処理及び真贋度推定モデル生成処理で用いる部分画像データは、カード上の線部分の部分画像データに限定されない。
図10は、部分画像データの他例の説明図である。図10には、部分画像データの部分画像として、部分画像B20,B21,B22が示されている。部分画像B20,B21それぞれは、カード上において、白色を含む2色で全体が塗り潰されている部分の画像である。部分画像B22は、カード上において、白色以外の1色で全体が塗り潰されている部分の画像である。
As described in the description of the partial image data using FIG. 2, the partial image data used in the authenticity determination process and the authenticity estimation model generation process is not limited to the partial image data of the line portion on the card.
FIG. 10 is an explanatory diagram of another example of partial image data. In FIG. 10, partial images B20, B21, and B22 are shown as partial images of the partial image data. Each of the partial images B20 and B21 is an image of a portion of the card that is entirely filled with two colors including white. The partial image B22 is an image of a portion of the card that is entirely filled with a color other than white.
図10の例では、運転免許証が示されている。運転免許証では、有効期限が記載された文字の背景色として、白色以外の色、例えば、緑色、青色又は金色が用いられる。部分画像B20の領域は、この背景色と白色との境界線を含む領域である。また、運転免許証では、運転免許証の所有者の顔が写っている顔写真が印刷されている。顔写真において、背景色は、白色以外の色、例えば、青色が用いられる。部分画像B21の領域は、この背景色と白色との境界線を含む領域である。部分画像B22の領域は、顔写真において、所有者が写っていない部分の領域である。 In the example of FIG. 10, a driver's license is shown. In a driver's license, a color other than white, for example, green, blue, or gold is used as the background color of the characters on which the expiration date is written. The region of the partial image B20 is a region including the boundary line between the background color and white. In addition, the driver's license is printed with a photo of the owner of the driver's license. In the face photograph, a color other than white, for example, blue is used as the background color. The region of the partial image B21 is a region including the boundary line between the background color and white. The area of the partial image B22 is the area of the part where the owner is not shown in the face photograph.
真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上において、白色を含む2色で全体が塗り潰されている部分の部分画像データ、及び、カード上において、白色以外の1色で全体が塗り潰されている部分の部分画像データの両方又は一方を含む複数の部分画像データを用いてもよい。 As a plurality of partial image data of the same type used in the authenticity determination process and the authenticity estimation model generation process, the partial image data of the part of the card that is entirely filled with two colors including white, and the card. In the above, a plurality of partial image data including both or one of the partial image data of the portion entirely filled with one color other than white may be used.
図11は、部分画像データの更なる他例の説明図である。図11には、部分画像データの部分画像として、部分画像B30,B31,B32が示されている。部分画像B30,B31,B32それぞれは、カード上の斜線の模様部分の画像である。図11の例でも、運転免許証が示されている。運転免許証には、運転を許可された車両の種類を示す欄がある。この欄には、背景として、赤色の斜線の模様が用いられている。部分画像B30,B31,B32それぞれは、斜線の模様部分の画像である。
真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上の斜線の模様部分に対応する複数の部分画像データを用いてもよい。
FIG. 11 is an explanatory diagram of another example of the partial image data. In FIG. 11, partial images B30, B31, and B32 are shown as partial images of the partial image data. Each of the partial images B30, B31, and B32 is an image of the shaded pattern portion on the card. The driver's license is also shown in the example of FIG. The driver's license has a column that indicates the type of vehicle that is permitted to drive. In this column, a red diagonal line pattern is used as the background. Each of the partial images B30, B31, and B32 is an image of a shaded pattern portion.
As the plurality of partial image data used in the authenticity determination process and the authenticity estimation model generation process and having a common type, a plurality of partial image data corresponding to the shaded pattern portion on the card may be used.
カード上の線部分と同様に、プリンタを用いてカードを偽造した場合、本物のカードと、偽装カードとの差は、全体が2色で塗り潰されている部分、全体が1色で塗り潰されている部分、及び、斜線の模様部分に生じ易い。偽造カードを本物のカードと比較した場合、全体が2色で塗り潰されている部分の境界線がぼやける可能性が高く、全体が1色で塗り潰されている部分では色むらが発生する可能性が高く、斜線の模様部分では斜線が歪む可能性が高い。従って、真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上の線部分に対応する複数の部分画像データの代わりに、図10又は図11で示した複数の部分画像データを用いた場合も、真贋判定の精度が上がる。 Similar to the line part on the card, when the card is forged using a printer, the difference between the real card and the fake card is that the whole part is filled with two colors and the whole part is filled with one color. It tends to occur in the part where there is a pattern and the part with a diagonal line. When comparing a counterfeit card with a real card, there is a high possibility that the borderline of the part that is entirely filled with two colors will be blurred, and the part that is entirely filled with one color may cause color unevenness. It is high, and there is a high possibility that the diagonal line will be distorted in the pattern part of the diagonal line. Therefore, as a plurality of partial image data of the same type used in the authenticity determination process and the authenticity estimation model generation process, instead of the plurality of partial image data corresponding to the line portion on the card, FIG. 10 or FIG. Even when the plurality of shown partial image data are used, the accuracy of authenticity determination is improved.
部分画像データの更なる他例を説明する。カードの種類が共通する複数の画像データの画像には、共通の文字が記載されている可能性がある。例えば、図2、図10及び図11に示す運転免許証の画像には、「氏名」、「住所」及び「交付」等の共通文字が写っている。部分画像データの部分画像として、例えば、「氏名」、「住所」及び「交付」が写っている3つの部分画像が用いられてもよい。従って、真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上に必ず記載されている複数の共通文字に対応する複数の部分画像データを用いてもよい。 Further other examples of the partial image data will be described. Images of a plurality of image data having a common card type may contain common characters. For example, the images of the driver's license shown in FIGS. 2, 10 and 11 show common characters such as "name", "address" and "delivery". As the partial image of the partial image data, for example, three partial images showing "name", "address", and "delivery" may be used. Therefore, as a plurality of partial image data of the same type used in the authenticity determination process and the authenticity estimation model generation process, a plurality of partial image data corresponding to a plurality of common characters always written on the card are used. May be good.
なお、真贋度推定モデルRへの複数の部分画像データの入力は、複数の部分画像データを連結することによって得られた連結画像データを真贋度推定モデルRに入力することによって実現されてもよい。この場合、真贋度推定モデルRは連結画像データを用いて生成される。 The input of the plurality of partial image data to the authenticity estimation model R may be realized by inputting the concatenated image data obtained by concatenating the plurality of partial image data into the authenticity estimation model R. .. In this case, the authenticity estimation model R is generated using the linked image data.
(実施の形態2)
実施の形態1の真贋判定処理においては、判定装置1の制御部12は、1種類の部分画像データを用いている。しかしながら、真贋判定処理において、制御部12は、複数種類の部分画像データを用いてもよい。
以下では、実施の形態2について、実施の形態1と異なる点を説明する。後述する構成を除く他の構成については、実施の形態1と共通している。このため、実施の形態1と共通する構成部には実施の形態1と同一の参照符号を付してその説明を省略する。
(Embodiment 2)
In the authenticity determination process of the first embodiment, the
Hereinafter, the difference between the second embodiment and the first embodiment will be described. Other configurations other than the configurations described later are common to the first embodiment. Therefore, the same reference reference numerals as those in the first embodiment are assigned to the components common to the first embodiment, and the description thereof will be omitted.
図12は、実施の形態2における判定装置1の要部構成を示すブロック図である。実施の形態2を実施の形態1と比較した場合、判定装置1の記憶部11には、真贋度推定モデルRの代わりに、第1真贋度推定モデルR1及び第2真贋度推定モデルR2が記憶されている。第1真贋度推定モデルR1及び第2真贋度推定モデルR2それぞれは、真贋度推定モデルRと同様の学習済みモデルである。更に、記憶部11には、座標データZの代わりに、第1座標データZ1及び第2座標データZ2が記憶されている。
FIG. 12 is a block diagram showing a main configuration of the
実施の形態2におけるモデル生成装置2の制御部24は、2つの真贋度推定モデル生成処理を、実施の形態1における真贋度推定モデル生成処理と同様に実行する。1つ目の真贋度推定モデル生成処理では、部分画像データの一種である第1部分画像データに正解ラベルが対応付けられている教師データを用いて第1真贋度推定モデルR1を生成する。2つ目の真贋度推定モデル生成処理では、部分画像データの一種である第2部分画像データに正解ラベルが対応付けられている教師データを用いて第2真贋度推定モデルR2を生成する。
The
図13は、第1部分画像データ及び第2部分画像データの説明図である。図13には、図2、図10及び図11と同様のカードの画像が示されている。第1部分画像データに係る第1部分画像として、第1部分画像E10,E11,E12,E13が示されている。第2部分画像データに係る第2部分画像として、第2部分画像E20,E21,E22が示されている。第1部分画像E10,E11,E12,E13及び第2部分画像E20,E21,E22それぞれは破線で囲まれている。 FIG. 13 is an explanatory diagram of the first partial image data and the second partial image data. FIG. 13 shows images of cards similar to those in FIGS. 2, 10 and 11. As the first partial image related to the first partial image data, the first partial images E10, E11, E12, and E13 are shown. The second partial images E20, E21, and E22 are shown as the second partial image related to the second partial image data. The first partial images E10, E11, E12, E13 and the second partial images E20, E21, E22 are each surrounded by a broken line.
図13の例では、第1部分画像E10,E11,E12,E13それぞれは、図2に示す部分画像B10,B11,B12,B13と同じであり、カード上の直線部分又は曲線部分の画像である。第2部分画像E20,E21,E22それぞれは、図10に示す部分画像B20,B21,B22と同じであり、カード上において、白色を含む2色で全体が塗り潰されている部分の画像、又は、白色以外の1色で全体が塗り潰されている部分の画像である。
以上のように、第1部分画像データの種類は、第2部分画像データの種類とは異なっている。
In the example of FIG. 13, each of the first partial images E10, E11, E12, and E13 is the same as the partial images B10, B11, B12, and B13 shown in FIG. 2, and is an image of a straight line portion or a curved portion on the card. .. The second partial images E20, E21, and E22 are the same as the partial images B20, B21, and B22 shown in FIG. 10, and the image of the portion of the card that is entirely filled with two colors including white, or It is an image of a part where the whole is filled with one color other than white.
As described above, the type of the first partial image data is different from the type of the second partial image data.
第1座標データZ1が示す複数の座標は、座標データZが示す複数の座標と同様に、カードの画像における複数の第1部分画像の場所を示す。第2座標データZ2が示す複数の座標は、座標データZが示す複数の座標と同様に、カードの画像における複数の第2部分画像の場所を示す。 The plurality of coordinates indicated by the first coordinate data Z1 indicate the locations of the plurality of first partial images in the image of the card, similarly to the plurality of coordinates indicated by the coordinate data Z. The plurality of coordinates indicated by the second coordinate data Z2, like the plurality of coordinates indicated by the coordinate data Z, indicate the locations of the plurality of second partial images in the image of the card.
図14及び図15は真贋判定処理の手順を示すフローチャートである。判定装置1の制御部12は、実施の形態1と同様に、入力部10からカードの画像データを取得した場合に真贋判定処理を実行する。実施の形態2における真贋判定処理では、制御部12は、ステップS31〜S44を実行する。ステップS31〜S37は、実施の形態1における真贋判定処理のステップS21〜S27と同様である。ステップS21〜S27の説明において、部分画像データ及び座標データZそれぞれを第1部分画像データ及び第1座標データZ1に置き換えることによってステップS31〜S37を説明することができる。ステップS38〜S44は、実施の形態1における真贋判定処理のステップS21〜S27と同様である。ステップS21〜S27の説明において、部分画像データ及び座標データZそれぞれを第2部分画像データ及び第2座標データZ2に置き換えることによってステップS38〜S44を説明することができる。従って、ステップS31〜S44の詳細な説明を省略する。
14 and 15 are flowcharts showing the procedure of the authenticity determination process. Similar to the first embodiment, the
実施の形態2における真贋判定処理では、制御部12は、まず、ステップS31を実行する。ステップS31,S38では、制御部12は、入力部10から取得した共通の画像データから複数の第1部分画像データ及び複数の第2部分画像データを抽出する。ここで、複数の第1部分画像データに対応する複数の部分画像は、第1座標データZ1が示す複数の場所にある複数の部分画像である。複数の第2部分画像データに対応する複数の部分画像は、第2座標データZ2が示す複数の場所にある複数の部分画像である。
なお、制御部12は、実施の形態1と同様に、第1座標データZ1又は第2座標データZ2の代わりに、学習済みモデル、例えばR−CNNを用いて第1部分画像又は第2部分画像を抽出する場所を決定してもよい。
In the authenticity determination process according to the second embodiment, the
As in the first embodiment, the
第1真贋度推定モデルR1の生成に用いる第1部分画像データの第1部分画像の場所は、ステップS31で抽出される複数の第1部分画像データに対応する複数の第1部分画像の場所、例えば、第1座標データZ1が示す複数の場所の1つである。同様に、第2真贋度推定モデルR2の生成に用いる第2部分画像データの第2部分画像の場所は、ステップS38で抽出される複数の第2部分画像データに対応する複数の第2部分画像の場所、例えば、第2座標データZ2が示す複数の場所の1つである。 The location of the first partial image of the first partial image data used for generating the first authenticity estimation model R1 is the location of the plurality of first partial images corresponding to the plurality of first partial image data extracted in step S31. For example, it is one of a plurality of locations indicated by the first coordinate data Z1. Similarly, the location of the second partial image of the second partial image data used for generating the second authenticity estimation model R2 is a plurality of second partial images corresponding to the plurality of second partial image data extracted in step S38. , For example, one of a plurality of locations indicated by the second coordinate data Z2.
ステップS36では、制御部12は、ステップS34を繰り返し実行することによって算出した複数の真贋度に基づいて、カードが本物であるか否かを判定する。制御部12は、カードが本物ではないと判定した場合(S36:NO)、ステップS37を実行し、入力部10から取得した画像データを記憶部11から削除する。制御部12は、ステップS37を実行した後、真贋度判定処理を終了する。
In step S36, the
制御部12は、カードが本物であると判定した場合(S36:YES)、ステップS38を実行する。ステップS42では、制御部12は、ステップS41を繰り返し実行することによって算出した複数の真贋度に基づいて、カードが本物であるか否かを判定する。制御部12は、カードが本物ではないと判定した場合(S43:NO)、ステップS44を実行し、入力部10から取得した画像データを記憶部11から削除する。制御部12は、カードが本物であると判定した場合(S43:YES)、又は、ステップS44を実行した後、真贋度判定処理を終了する。
When the
以上のように、実施の形態2における真贋度判定処理では、第1部分画像データを用いた真贋判定、及び、第2部分画像データを用いた真贋判定の両方においてカードが本物であると判定された場合に、制御部12が入力部10から取得した画像データが記憶部11に残る。記憶部11に残った画像データは、実施の形態1と同様に、例えば、カードに記載されている個人情報の読み取りに用いられる。
As described above, in the authenticity determination process in the second embodiment, it is determined that the card is genuine in both the authenticity determination using the first partial image data and the authenticity determination using the second partial image data. In this case, the image data acquired by the
なお、実施の形態1と同様に、制御部12は、ステップS37又はステップS44を実行した場合、図示しない出力部に指示してカードが偽造されている旨を示す情報を出力させてもよい。これにより、カードの偽造が報知される。制御部12は、この処理を実行した後、真贋判定処理を終了する。
As in the first embodiment, when the
前述したように、実施の形態2においては、2種類の部分画像データに対応し、部分画像データと真贋度との関係を学習した2種類の学習済みモデル(第1真贋度推定モデルR1及び第2真贋度推定モデルR2)が判定装置1の記憶部11に用意されている。実施の形態2における真贋度判定処理では、制御部12は、入力部10から取得した画像データから2種類の部分画像データを抽出し、抽出した2種類の部分画像データそれぞれを、種類に対応する学習済みモデルに入力する。制御部12は、2種類の学習済みモデルの出力として、カードの真贋度を各別に算出し、算出した複数の真贋度に基づいてカードが本物であるか否かを判定する。
As described above, in the second embodiment, two types of trained models (first authenticity estimation model R1 and first authenticity estimation model R1) corresponding to two types of partial image data and learning the relationship between the partial image data and the authenticity are learned. 2 The authenticity estimation model R2) is prepared in the
従って、実施の形態2の真贋判定処理では、判定装置1の制御部12は、2種類の部分画像データを用いて真贋判定を行うので、更に正確な真贋判定の結果が得られる。実施の形態2における判定装置1は、実施の形態1における判定装置1が奏する効果を同様に奏する。
Therefore, in the authenticity determination process of the second embodiment, the
(実施の形態3)
実施の形態2においては、判定装置1の入力部10に、1種類のカードの画像データが入力される。しかしながら、入力部10に、複数種類のカードの画像データが入力されてもよい。
以下では、実施の形態3について、実施の形態2と異なる点を説明する。後述する構成を除く他の構成については、実施の形態2と共通している。このため、実施の形態2と共通する構成部には実施の形態2と同一の参照符号を付してその説明を省略する。
(Embodiment 3)
In the second embodiment, the image data of one type of card is input to the
Hereinafter, the differences between the third embodiment and the second embodiment will be described. Other configurations other than the configurations described later are common to the second embodiment. Therefore, the same reference reference numerals as those in the second embodiment are assigned to the components common to the second embodiment, and the description thereof will be omitted.
図16は、実施の形態3における判定装置1の要部構成を示すブロック図である。実施の形態3を実施の形態2と比較した場合、判定装置1の記憶部11には、第1真贋度推定モデルR1及び第2真贋度推定モデルR2の代わりに、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・が記憶されている。複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・それぞれは、実施の形態1における真贋度推定モデルRと同様の学習済みモデルであり、部分画像データと真贋度との関係を学習している。複数の第1真贋度推定モデルR10,R11,・・・には、第1部分画像データが入力される。複数の第2真贋度推定モデルR20,R21,・・・には、第2部分画像データが入力される。
FIG. 16 is a block diagram showing a main configuration of the
また、記憶部11には、第1座標データZ1及び第2座標データZ2の代わりに、複数の第1座標データZ10,Z11,・・・及び複数の第2座標データZ20,Z21,・・・が記憶されている。第1座標データZ10,Z11,・・・それぞれは、実施の形態2と同様に、複数の第1部分画像の場所を示す。第2座標データZ20,Z21,・・・それぞれは、実施の形態2と同様に、複数の第2部分画像の場所を示す。第1座標データZ10,Z11,・・・及び第2座標データZ20,Z21,・・・それぞれは、第1真贋度推定モデルR10,R11,・・・及び第2真贋度推定モデルR20,R21,・・・に対応する。
Further, in the
更に、記憶部11には、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・の中から1つを選択する場合に参照されるモデル選択テーブルHが記憶されている。
Further, refer to the case where the
図17は、モデル選択テーブルHを示す図表である。実施の形態3においては、判定装置1の入力部10に、複数種類のカードに対応する複数の画像データが入力される。複数の第1真贋度推定モデルR10,R11,・・・は、カードの複数の種類に対応する。複数の第2真贋度推定モデルR20,R21,・・・も、カードの複数の種類に対応する。
FIG. 17 is a chart showing the model selection table H. In the third embodiment, a plurality of image data corresponding to a plurality of types of cards are input to the
図17の例では、カードの種類として、運転免許証、マイナンバーカード及び在留カード等が挙げられている。カードの各種類に、複数の第1真贋度推定モデルR10,R11,・・・中の1つと、複数の第2真贋度推定モデルR20,R21,・・・中の1つとが対応付けられている。図17の例では、運転免許証に、第1真贋度推定モデルR10及び第2真贋度推定モデルR20が対応付けられている。 In the example of FIG. 17, as the types of cards, a driver's license, an Individual Number card, a residence card, and the like are listed. Each type of card is associated with one of a plurality of first authenticity estimation models R10, R11, ..., And one of a plurality of second authenticity estimation models R20, R21, .... There is. In the example of FIG. 17, the driver's license is associated with the first authenticity estimation model R10 and the second authenticity estimation model R20.
図18は真贋判定処理の手順を示すフローチャートである。判定装置1の制御部12は、実施の形態2と同様に、入力部10からカードの画像データを取得した場合に真贋判定処理を実行する。実施の形態3における真贋判定処理の一部分は、実施の形態2における真贋判定処理と共通する。このため、実施の形態3における真贋判定処理において、実施の形態2における真贋判定処理と共通する部分、即ち、ステップS31〜S44の詳細な説明を省略する。
FIG. 18 is a flowchart showing the procedure of the authenticity determination process. Similar to the second embodiment, the
実施の形態3における真贋判定処理では、制御部12は、まず、入力部10から取得した画像データに基づいて、この画像データの画像に写っているカードの種類を特定する特定処理を実行する(ステップS51)。特定処理では、制御部12は、画像データと、カードの種類との関係を学習した学習済みモデルを用いて、カードの種類を特定してもよい。また、制御部12は、画像データの画像に写っているカードの枠線のパターンに基づいてカードの種類を特定してもよい。
In the authenticity determination process according to the third embodiment, the
次に、制御部12は、モデル選択テーブルHに基づいて、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・の中から、ステップS51の特定処理で特定したカードの種類に対応する第1真贋度推定モデル及び第2真贋度推定モデルを選択する(ステップS52)。ステップS52では、制御部12は、例えば、ステップS51の特定処理においてカードの種類を運転免許証と特定した場合、モデル選択テーブルHにおいて、運転免許証に対応する第1真贋度推定モデルR10及び第2真贋度推定モデルR20を選択する。制御部12は、ステップS52を実行した後、ステップS31を実行する。
Next, the
ステップS31,S38では、実施の形態2と同様に、制御部12は、入力部10から取得した共通の画像データから複数の第1部分画像データ及び複数の第2部分画像データを抽出する。ここで、画像データの画像において、複数の第1部分画像データに対応する複数の第1部分画像の場所は、ステップS52で選択した第1真贋度推定モデルに対応する第1座標データが示す場所である。同様に、画像データの画像において、複数の第2部分画像データに対応する複数の第2部分画像の場所は、ステップS52で選択した第2真贋度推定モデルに対応する第2座標データが示す場所である。制御部12は、ステップS51の特定処理で特定したカードの種類に対応した複数の第1部分画像データ及び複数の第2部分画像データを抽出する。
In steps S31 and S38, similarly to the second embodiment, the
なお、制御部12は、実施の形態2と同様に、第1座標データZ10,Z11,・・・又は第2座標データZ20,Z21,・・・の代わりに、学習済みモデル、例えばR−CNNを用いて第1部分画像又は第2部分画像を抽出する場所を決定してもよい
Note that the
第1真贋度推定モデルR10,R11,・・・それぞれの生成に用いる第1部分画像データの第1部分画像の場所は、例えば、第1座標データZ10,Z11,・・・が示す複数の場所の1つである。同様に、第2真贋度推定モデルR20,R21,・・・それぞれの生成に用いる第2部分画像データの第2部分画像の場所は、例えば、第2座標データZ20,Z21,・・・が示す複数の場所の1つである。カードの種類が共通している場合、生成用の部分画像データに対応する部分画像の場所は、抽出される複数の部分画像データに対応する複数の部分画像の場所の1つである。 The locations of the first partial image of the first partial image data used for generating the first authenticity estimation models R10, R11, ... Are, for example, a plurality of locations indicated by the first coordinate data Z10, Z11, ... It is one of. Similarly, the location of the second partial image of the second partial image data used to generate the second authenticity estimation models R20, R21, ... Is indicated by, for example, the second coordinate data Z20, Z21, ... It is one of several places. When the types of cards are common, the location of the partial image corresponding to the partial image data for generation is one of the locations of the plurality of partial images corresponding to the plurality of extracted partial image data.
図17の例では、第1真贋度推定モデルR10及び第2真贋度推定モデルR20は運転免許証に対応する。従って、第1真贋度推定モデルR10の生成に用いる第1部分画像データの第1部分画像は、例えば、図13に示す複数の第1部分画像E10,E11,E12,E13の1つである。同様に、第2真贋度推定モデルR20の生成に用いる第2部分画像データの第2部分画像は、例えば、図13に示す複数の第2部分画像E20,E21,E22の1つである。 In the example of FIG. 17, the first authenticity estimation model R10 and the second authenticity estimation model R20 correspond to a driver's license. Therefore, the first partial image of the first partial image data used for generating the first authenticity estimation model R10 is, for example, one of a plurality of first partial images E10, E11, E12, and E13 shown in FIG. Similarly, the second partial image of the second partial image data used for generating the second authenticity estimation model R20 is, for example, one of a plurality of second partial images E20, E21, and E22 shown in FIG.
ステップS33では、制御部12は、ステップS32で選択した第1部分画像データ、即ち、ステップS31で抽出した1つの第1部分画像データを、ステップS52で選択した第1真贋度推定モデルに入力する。同様に、ステップS40では、制御部12は、ステップS39で選択した第2部分画像データ、即ち、ステップS38で抽出した1つの第2部分画像データを、ステップS52で選択した第2真贋度推定モデルに入力する。第1真贋度推定モデル及び第2真贋度推定モデルそれぞれへの入力は、第1真贋度推定モデル及び第2真贋度推定モデルの入力層への入力を意味する。
In step S33, the
実施の形態3における真贋度判定処理では、実施の形態2と同様に、第1部分画像データを用いた真贋判定、及び、第2部分画像データを用いた真贋判定の両方においてカードが本物であると判定された場合に、制御部12が入力部10から取得した画像データが記憶部11に残る。
In the authenticity determination process in the third embodiment, the card is genuine in both the authenticity determination using the first partial image data and the authenticity determination using the second partial image data, as in the second embodiment. When it is determined, the image data acquired by the
実施の形態3における真贋度判定処理では、制御部12は、入力部10から取得した画像データの画像に写っているカードの種類に応じた適切な真贋判定が実行される。実施の形態3における判定装置1は、実施の形態2における判定装置1が奏する効果を同様に奏する。
In the authenticity determination process according to the third embodiment, the
なお、実施の形態2,3における真贋度判定処理では、制御部12は、第1真贋度推定モデルの出力として算出した複数の真贋度に基づいて真贋判定を実行する。ここで、制御部12は、カードが本物であると判定した場合、第2真贋度推定モデルの出力として算出した複数の真贋度に基づいて真贋判定を実行する。真贋判定の方法はこの方法に限定されない。例えば、第1真贋度推定モデル及び第2真贋度推定モデルの出力として算出した複数の真贋度に基づいて、1回だけ真贋判定を実行してもよい。
In the authenticity determination processing in the second and third embodiments, the
また、実施の形態2,3において、真贋度推定モデルの生成に用いる部分画像データ、及び、画像データから抽出される部分画像データそれぞれの種類の数は、2に限定されず、3以上であってもよい。部分画像データの種類の数が3である場合、抽出及び生成に第1部分画像データ、第2部分画像データ及び第3部分画像データが用いられ、真贋度判定処理では、第1真贋度推定モデル、第2真贋度推定モデル及び第3真贋度推定モデルが用いられる。この場合、第1部分画像は、例えば、線部分の画像である。第2部分画像は、例えば、カード上において、白色を含む2色で全体が塗り潰されている部分の部分画像データ、及び、カード上において、白色以外の1色で全体が塗り潰されている部分の部分画像データの両方又は一方を含む複数の部分画像データである。第3部分画像は、例えば、斜線の模様部分の画像である。
更に、実施の形態3においては、部分画像データの種類の数は1であってもよい。この場合、真贋度推定モデルの数は、カードの種類の数と一致する。
Further, in the second and third embodiments, the number of each type of the partial image data used for generating the authenticity estimation model and the partial image data extracted from the image data is not limited to 2, but is 3 or more. You may. When the number of types of partial image data is 3, the first partial image data, the second partial image data, and the third partial image data are used for extraction and generation, and in the authenticity determination process, the first authenticity estimation model is used. , The second authenticity estimation model and the third authenticity estimation model are used. In this case, the first partial image is, for example, an image of a line portion. The second partial image is, for example, the partial image data of the portion of the card that is entirely filled with two colors including white, and the portion of the card that is entirely filled with one color other than white. A plurality of partial image data including both or one of the partial image data. The third partial image is, for example, an image of a pattern portion of diagonal lines.
Further, in the third embodiment, the number of types of partial image data may be one. In this case, the number of authenticity estimation models matches the number of card types.
また、実施の形態2,3において、第1真贋度推定モデルへの複数の第1部分画像データの入力は、複数の第1部分画像データを連結することによって得られた第1連結画像データを第1真贋度推定モデルに入力することによって実現されてもよい。この場合、第1真贋度推定モデルは第1連結画像データを用いて生成される。同様に、第2真贋度推定モデルへの複数の第2部分画像データの入力は、複数の第2部分画像データを連結することによって得られた第2連結画像データを第2真贋度推定モデルに入力することによって実現されてもよい。この場合、第2真贋度推定モデルは第2連結画像データを用いて生成される。 Further, in the second and third embodiments, the input of the plurality of first partial image data to the first authenticity estimation model is the first connected image data obtained by concatenating the plurality of first partial image data. It may be realized by inputting to the first authenticity estimation model. In this case, the first authenticity estimation model is generated using the first connected image data. Similarly, when inputting a plurality of second partial image data into the second authenticity estimation model, the second connected image data obtained by concatenating the plurality of second partial image data is used as the second authenticity estimation model. It may be realized by inputting. In this case, the second authenticity estimation model is generated using the second connected image data.
(実施の形態4)
カードにエンボス、ホログラム又は透かしに関する加工が施されていると仮定する。エンボスは、カードの表面に設けられている凸部である。光をホログラムに照射した場合、絵が表れる。光を透かしに照射した場合も絵が現れる。従って、エンボス、ホログラム又は透かしの加工が施されているカードに光を照射した場合、エンボスの影、ホログラムの絵、又は、透かしの絵が現れる。
(Embodiment 4)
Suppose the card is embossed, hologramed or watermarked. The embossing is a convex portion provided on the surface of the card. When the hologram is illuminated with light, a picture appears. The picture also appears when the watermark is illuminated with light. Therefore, when a card that has been embossed, holographic, or watermarked is irradiated with light, an embossed shadow, a hologram picture, or a watermark picture appears.
加工が施されているカードを、プリンタを用いて偽造した場合、偽造カードに光を照射しても、エンボスの影、ホログラムの絵、又は、透かしの絵が現れる可能性は低い。この現象を利用して真贋判定を行ってもよい。
以下では、実施の形態4について、実施の形態1と異なる点を説明する。後述する構成を除く他の構成については、実施の形態1と共通している。このため、実施の形態1と共通する構成部には実施の形態1と同一の参照符号を付してその説明を省略する。
When a processed card is counterfeited using a printer, it is unlikely that an embossed shadow, a hologram picture, or a watermark picture will appear even if the counterfeit card is irradiated with light. Authenticity may be determined using this phenomenon.
Hereinafter, the fourth embodiment will be described as different from the first embodiment. Other configurations other than the configurations described later are common to the first embodiment. Therefore, the same reference reference numerals as those in the first embodiment are assigned to the components common to the first embodiment, and the description thereof will be omitted.
図19は、実施の形態4における判定装置の要部構成を示すブロック図である。実施の形態4を実施の形態1と比較した場合、判定装置1の入力部10は、内部バス13に加えて、撮像装置3が接続されている。撮像装置3は、カードの画像を撮影し、撮影した画像の画像データを判定装置1の入力部10に出力する。
FIG. 19 is a block diagram showing a main configuration of the determination device according to the fourth embodiment. When the fourth embodiment is compared with the first embodiment, the
図20はカードCの撮影の説明図である。撮像装置3は、載置台30、照射器31及び撮影器32を備える。撮像装置3では、カードCは載置台30に載置され、照射器31が、カードCの上面の斜め上からカードCに光を照射する。照射器31がカードCに光を照射している状態で、撮影器32はカードCの画像を撮影する。撮像装置3は、撮影器32が撮影した画像の画像データを生成し、生成した画像データを判定装置1の入力部10に出力する。判定装置1において、制御部12は、実施の形態1と同様に、入力部10に画像データが入力された場合、入力部10に入力された画像データを取得し、真贋判定処理を実行する。
FIG. 20 is an explanatory diagram of shooting of the card C. The
カードCには、エンボス、ホログラム又は透かしに関する加工が施されている。従って、カードCが本物である場合、撮像装置3が出力した画像データの画像には、エンボスの影、ホログラムの絵、又は、透かしの絵が写っている。カードCの画像において、座標データZが示す複数の場所にある複数の部分画像は、カードC上において、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の画像である。
Card C is embossed, hologramed or watermarked. Therefore, when the card C is genuine, the image of the image data output by the
従って、真贋度推定モデルRの生成に用いる部分画像データの部分画像、及び、画像データから抽出される部分画像データの部分画像は、カードC上において、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の画像である。また、真贋度判定処理のステップS21では、制御部12は、入力部10から取得した部分画像データから、カードC上において、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の部分画像データを抽出する。
以上のように構成された実施の形態4における判定装置1は、実施の形態1における判定装置1と同様の効果を奏する。
Therefore, the partial image of the partial image data used to generate the authenticity estimation model R and the partial image of the partial image data extracted from the image data are embossed shadows, hologram pictures, or watermarks on the card C. It is an image of the part where the picture of is reflected. Further, in step S21 of the authenticity determination process, the
The
なお、実施の形態4において、撮像装置3が備える照射器31の数は2以上であってもよい。この場合、複数の照射器31の設置場所は相互に異なる。撮像装置3では、カードCは載置台30に載置され、複数の照射器31が、順次、カードCの上面の斜め上からカードCに光を照射する。カードCに光を照射する照射器31が変更される都度、撮影器32は、照射器31によって光が照射されているカードCの画像を撮影する。撮像装置3は、撮影器32が撮影した複数の画像に対応する複数の画像データを生成し、生成した複数の画像データを判定装置1の入力部10に出力する。判定装置1において、制御部12は、入力部10に複数の画像データが入力された場合、入力部10に入力された複数の画像データを取得し、取得した各画像データについて真贋判定処理を実行する。
In the fourth embodiment, the number of
この場合、複数の画像データに対応する複数の真贋度推定モデルRが用意されている。例えば、全ての真贋度判定処理において、カードCが本物であると判定された場合、入力部10に入力された複数の画像データの1つを用いて、カードに記載されている個人情報の読み取り等が行われる。
In this case, a plurality of authenticity estimation models R corresponding to a plurality of image data are prepared. For example, when the card C is determined to be genuine in all the authenticity determination processes, the personal information written on the card is read using one of the plurality of image data input to the
なお、実施の形態2,3それぞれの構成に、実施の形態4の構成を追加してもよい。この場合、実施の形態2,3それぞれにおいて、実施の形態4と同様に、入力部10に撮像装置3が接続されている。照射器31の数が1である場合、撮像装置3は、照射器31が光を照射していない状態で撮影器32が撮影した画像の第1画像データと、照射器31が光を照射している状態で撮影器32が撮影した画像の第2画像データとを入力部10に出力する。
The configuration of the fourth embodiment may be added to each of the configurations of the second and third embodiments. In this case, in each of the second and third embodiments, the
照射器31の数が2以上である場合、撮像装置3は、カードCに光を照射する照射器31を順次変更する。カードCに光を照射する照射器31が変更される都度、撮影器32は、照射器31によって光が照射されているカードCの画像を撮影する。撮像装置3は、撮影器32が撮影した複数の画像に対応する複数の第2画像データを生成する。撮像装置3は、第1画像データと、生成した複数の第2画像データとを判定装置1の入力部10に出力する。
When the number of the
判定装置1の制御部12は、第1画像データを用いて実施の形態2又は実施の形態3の真贋度判定処理を実行するとともに、第2画像データを用いて実施の形態4における一又は複数の真贋度判定処理を実行する。制御部12は、例えば、実施の形態2又は実施の形態3の真贋度判定処理において、カードCが本物であると判定した場合、実施の形態4における一又は複数の真贋度判定処理を実行する。
また、実施の形態2,3において、1種類の部分画像データとして、実施の形態4における部分画像データを用いてもよい。
The
Further, in the second and third embodiments, the partial image data in the fourth embodiment may be used as one type of partial image data.
(実施の形態5)
実施の形態1におけるモデル生成装置2は、判定装置1が行った判定の結果に基づいて真贋度推定モデルRの再学習を行ってもよい。
以下では、実施の形態5について、実施の形態1と異なる点を説明する。後述する構成を除く他の構成については、実施の形態1と共通している。このため、実施の形態1と共通する構成部には実施の形態1と同一の参照符号を付してその説明を省略する。
(Embodiment 5)
The
Hereinafter, the differences between the fifth embodiment and the first embodiment will be described. Other configurations other than the configurations described later are common to the first embodiment. Therefore, the same reference reference numerals as those in the first embodiment are assigned to the components common to the first embodiment, and the description thereof will be omitted.
図21は、実施の形態5における再学習システムの要部構成を示すブロック図である。再学習システムは、複数の判定装置1,1,・・・と、モデル生成装置2とを備える。これらはネットワークNに接続されている。実施の形態5では、各判定装置1は、真贋度推定モデルR及び教師データをモデル生成装置2に送信する。モデル生成装置2は、真贋度推定モデルRの再学習を行う。
FIG. 21 is a block diagram showing a main configuration of the re-learning system according to the fifth embodiment. The re-learning system includes a plurality of
実施の形態5における判定装置1は、実施の形態1における判定装置1の構成部に加えて、通信部14を備える。通信部14も内部バス13に接続されている。通信部14は、制御部12の指示に従って、真贋度推定モデルR、複数の教師データ、第1評価用データ及び第2評価用データを含む更新ファイルをモデル生成装置2に送信する。通信部14は、モデル生成装置2から、再学習で更新された真贋度推定モデルRを受信する。制御部12は、通信部14から、通信部14が受信した真贋度推定モデルRを取得する。
The
判定装置1の制御部12は、真贋判定処理が終了した場合、真贋度推定モデルRに入力した部分画像データに、真贋判定の結果を示す正解ラベルが対応付けられている複数の教師データを生成し、生成した複数の教師データを記憶部11に記憶する。第1評価用データ及び第2評価用データは、例えば、予め記憶部11に記憶されている。
判定装置1では、制御部12の処理素子は、コンピュータプログラムP1を実行することによって、真贋度推定モデルRを更新する更新処理を実行する。
When the authenticity determination process is completed, the
In the
実施の形態5を実施の形態1と比較した場合、モデル生成装置2は、入力部20の代わりに通信部26を備える。通信部26は、内部バス25及びネットワークNに接続されている。通信部26は、判定装置1の通信部14から更新ファイルを受信する。モデル生成装置2の通信部26が受信した更新ファイルは、制御部24によって取得される。通信部26は、制御部24の指示に従って、更新ファイルを判定装置1の通信部14に送信する。モデル生成装置2では、制御部24の処理素子は、コンピュータプログラムP2を実行することによって、真贋度推定モデルRの再学習を行う再学習処理を実行する。
When the fifth embodiment is compared with the first embodiment, the
図22は、判定装置1及びモデル生成装置2が行う処理の手順を示すフローチャートである。図22には、判定装置1の制御部12が実行する更新処理と、モデル生成装置2の制御部24が実行する再学習処理とが示されている。制御部12,24それぞれは更新処理及び再学習処理を周期的に実行する。
FIG. 22 is a flowchart showing a procedure of processing performed by the
更新処理において、判定装置1の制御部12は、真贋度推定モデルRを更新するか否かを判定する(ステップS61)。制御部12は、例えば、記憶部11に記憶されている教師データの数が所定数以上である場合に、真贋度推定モデルRを更新すると判定し、記憶部11に記憶されている教師データの数が所定数未満である場合に真贋度推定モデルRを更新しないと判定する。
In the update process, the
制御部12は、真贋度推定モデルRを更新すると判定した場合(S61:YES)、通信部14に指示して、記憶部11に記憶されている真贋度推定モデルR、複数の教師データ、第1評価用データ及び第2評価用データを含む更新ファイルを、ネットワークNを介してモデル生成装置2の通信部26に送信させる(ステップS62)。モデル生成装置2の制御部24は、通信部26が判定装置1の通信部14から更新ファイルを受信したか否かを判定する(ステップS71)。
When the
モデル生成装置2の制御部24は、通信部26が更新ファイルを受信したと判定した場合(S71:YES)、通信部26が受信した更新ファイルを記憶部23に記憶し(ステップS72)、図5及び図6に示す真贋度推定モデル生成処理を実行する(ステップS73)。これにより、通信部26が受信した真贋度推定モデルRの再学習が行われる。
なお、ステップS73で実行する真贋度推定モデル生成処理では、経路は既に形成されているので、ステップS1を実行せず、ステップS2から処理を開始する。
When the
In the authenticity estimation model generation process executed in step S73, since the route has already been formed, the process is started from step S2 without executing step S1.
次に、制御部24は、通信部26に指示して、再学習された真贋度推定モデルRを判定装置1の通信部14に送信させる(ステップS74)。制御部24は、通信部26が更新ファイルを受信していないと判定した場合(S71:NO)、又は、ステップS74を実行した後、再学習処理を終了する。
Next, the
判定装置1の制御部12は、ステップS62を実行した後、通信部14が、モデル生成装置2の通信部26から真贋度推定モデルRを受信したか否かを判定する(ステップS63)。制御部12は、通信部14が真贋度推定モデルRを受信していないと判定した場合(S63:NO)、ステップS63を再び実行し、通信部14が真贋度推定モデルRを受信するまで待機する。制御部12は、通信部14が真贋度推定モデルRを受信したと判定した場合(S63:YES)、記憶部11に記憶されている真贋度推定モデルRを、通信部14が受信した真贋度推定モデルRに更新する(ステップS64)。
制御部12は、真贋度推定モデルRを更新しないと判定した場合(S61:NO)、ステップS64を実行した後、更新処理を終了する。
After executing step S62, the
When the
実施の形態5における判定装置1は、実施の形態1における判定装置1が奏する効果を同様に奏する。更に、実施の形態5における判定装置1に記憶されている真贋度推定モデルRは、再学習が行われることによって、定期的に改善される。
The
なお、実施の形態5における真贋度推定モデルRの再学習において、判定装置1の制御部12は、通信部14に指示して、真贋度推定モデルRの代わりに真贋度推定モデルRのパラメータを示す情報をモデル生成装置2の通信部26に送信させてもよい。この場合、モデル生成装置2の制御部24は、通信部26が受信したパラメータに基づいて真贋度推定モデルRを生成し、生成した真贋度推定モデルRの再学習を行う。更に、制御部24は、通信部26に指示して、判定装置1の通信部14に、真贋度推定モデルRの代わりに、真贋度推定モデルRのパラメータを示す情報を送信してもよい。この場合、判定装置1の制御部12は、記憶部11に記憶されている真贋度推定モデルRのパラメータを、受信した情報に基づいて更新する。
In the re-learning of the authenticity estimation model R in the fifth embodiment, the
また、実施の形態2〜4において、判定装置1の制御部12及びモデル生成装置2の制御部24それぞれは、実施の形態5と同様に、更新処理及び再学習処理を実行してもよい。実施の形態2,3においては、判定装置1の記憶部11に複数の真贋度推定モデルが記憶されている。このため、各真贋度推定モデルについて、判定装置1の制御部12及びモデル生成装置2の制御部24それぞれは更新処理及び再学習処理を実行する。
Further, in the second to fourth embodiments, the
更に、実施の形態1〜5において、判定装置1の入力部10に入力される画像データは、文字が記載されているもの、即ち、文書の画像データであればよいので、カードの画像データに限定されない。入力部10に入力される画像データとして、冊子又は契約書等の画像データが挙げられる。冊子は、パスポート、銀行の通帳、生徒手帳、年金手帳、身体障害者手帳又は母子健康手帳等である。
Further, in the first to fifth embodiments, the image data input to the
(実施の形態6)
実施の形態3の真贋判定処理のステップS51において、判定装置1の制御部12は、画像データの画像に写っているカードの種類を特定する特定処理を実行する。制御部12は、カードの画像データと、カードの種類との関係を学習した第2の学習済みモデルを用いて特定処理を実行してもよい。
以下では、実施の形態6について、実施の形態3と異なる点を説明する。後述する構成を除く他の構成については、実施の形態3と共通している。このため、実施の形態3と共通する構成部には実施の形態3と同一の参照符号を付してその説明を省略する。
(Embodiment 6)
In step S51 of the authenticity determination process of the third embodiment, the
Hereinafter, the difference between the sixth embodiment and the third embodiment will be described. Other configurations other than the configurations described later are common to the third embodiment. Therefore, the same reference reference numerals as those in the third embodiment are assigned to the components common to the third embodiment, and the description thereof will be omitted.
図23は、実施の形態6における認証装置5の概要の説明図である。ユーザは、運転免許証を含む複数種類のカードを認証装置5に挿入する。カードは矩形板状をなす。認証装置5は、挿入されたカードに表示されている個人情報を読み取り、読み取った個人情報に基づいて、カードの所有者を認証する。認証装置5は判定装置1及び撮像装置40を備える。撮像装置40は判定装置1に接続されている。
FIG. 23 is an explanatory diagram of an outline of the
複数種類のカードには、身分を証明するために公的に発行され、認証装置5に挿入されるべき対象カードと、認証装置5に挿入されるべきではない対象外カードとが含まれている。対象カードの種類として、運転免許証の他に、マイナンバーカード、マイナンバー通知カード、住民基本台帳カード、特別永住者証明書、在留カード、パスポートカード又はソーシャルセキュリティカード等が挙げられる。対象カードに係る複数の種類は予め設定されている。対象外カードの種類として、ポイントカード又は電子マネー用カード等が挙げられる。対象外カードに係る一又は複数の種類も予め設定されている。
The plurality of types of cards include a target card that is publicly issued to prove the identity and should be inserted into the
撮像装置40は、ユーザが挿入したカードの第1面及び第2面の画像を撮影し、撮影した2つの画像に対応する2つの画像データを生成し、生成した2つの画像データを判定装置1に出力する。以下では、第1面の画像を第1面画像と記載し、第2面の画像を第2面画像と記載する。第1面画像の画像データを第1面画像データと記載し、第2面画像の画像データを第2面画像データと記載する。第1面画像及び第2面画像は矩形状をなす。
The
判定装置1の記憶部11には、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・に加えて、種類特定モデルGが記憶されている。種類特定モデルGは、カードの画像データを縮小することによって得られる縮小画像データと、カードの種類及び表裏との関係を学習した第2の学習済みモデルである。ここで、カードの表裏はカードの向きの1つである。
実施の形態3の説明で述べたように、部分画像データの種類の数は、2に限定されず、1又は3以上であってもよい。実施の形態6では、部分画像データの種類の数は2であるとして構成を説明する。
In the
As described in the description of the third embodiment, the number of types of partial image data is not limited to 2, and may be 1 or 3 or more. In the sixth embodiment, the configuration will be described assuming that the number of types of partial image data is two.
判定装置1の制御部12は、撮像装置40から第1面画像データ及び第2面画像データが入力された場合、入力された第1面画像データの縮小画像データを生成し、生成した縮小画像データを種類特定モデルGに入力する。制御部12は、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部12は、算出した確率に基づいて、第1面画像データの画像に写っているカードの種類及び表裏を特定する。
When the first surface image data and the second surface image data are input from the
制御部12は、第1面画像データに基づいて、第1面画像データの画像に写っているカードの種類及び表裏を特定することができなかった場合、入力された第2面画像データの縮小画像データを生成し、生成した縮小画像データを種類特定モデルGに入力する。制御部12は、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部12は、算出した確率に基づいて、第2面画像データの画像に写っているカードの種類及び表裏を特定する。
When the
判定装置1の制御部12は、カードの種類及び表裏を特定した後、カードの表側又は裏側の画像データを用いて真贋判定処理を実行する。制御部12は、画像データの画像に写っているカードが本物であると判定した場合、カードの表側及び裏側の画像データの両方又は一方から、カードに表示されている個人情報を読み取り、読み取った個人情報に基づいて、カードの所有者を認証する。
After specifying the type and front and back of the card, the
図24は認証装置5の外観図である。認証装置5は、判定装置1及び撮像装置40が収容されている収容箱5aを備える。収容箱5aの外面には、内外方向に貫通している矩形状の開口5bが設けられている。認証装置5のユーザは、カードCを開口5bに挿入する。開口5bの長辺はカードCの短辺よりも若干長い。開口5bの短辺はカードCの厚みよりも若干長い。従って、開口5bの大きさはカードCの短辺側の端面の大きさと略同じである。認証装置5のユーザは、カードCをカードCの短辺側から開口5bに挿入する。
FIG. 24 is an external view of the
図25は対象カードの例示図である。複数種類のカードCに含まれる対象カードの表側及び裏側の少なくとも一方には、個人情報として、氏名、生年月日、住所又は顔写真等の個人情報が表示されている。図25の例では、対象カードの表側には、氏名、生年月日、住所及び顔写真等の個人情報が表示され、対象カードの裏側には、個人情報が表示されていない。図25に示す対象カードの裏側には、例えば、手書きで個人情報が書き込まれる。対象カードについては、種類に応じて個人情報が表示されている表示位置は異なる。なお、複数種類のカードCそれぞれの表側及び裏側は適宜定義される。例えば、氏名が表示されている面を表側と定義し、氏名が表示されていない面を裏側と定義してもよい。 FIG. 25 is an example diagram of the target card. Personal information such as name, date of birth, address, or face photograph is displayed as personal information on at least one of the front side and the back side of the target card included in the plurality of types of cards C. In the example of FIG. 25, personal information such as name, date of birth, address, and face photograph is displayed on the front side of the target card, and personal information is not displayed on the back side of the target card. Personal information is written by hand on the back side of the target card shown in FIG. 25, for example. Regarding the target card, the display position where personal information is displayed differs depending on the type. The front side and the back side of each of the plurality of types of cards C are appropriately defined. For example, the side on which the name is displayed may be defined as the front side, and the side on which the name is not displayed may be defined as the back side.
図24に示す認証装置5にカードCが開口5bに挿入された場合、認証装置5の撮像装置40は、開口5bに挿入されたカードCの第1面及び第2面それぞれに対応する第1面画像及び第2面画像を撮影し、撮影した第1面画像及び第2面画像それぞれに対応する第1面画像データ及び第2面画像データを生成する。第1面画像及び第2面画像は矩形状をなす。前述したように、判定装置1は、第1面画像データ及び第2面画像データの両方又は一方を用いてカードCの種類及び表裏を特定する。「特定」の意味には、「判別」、「識別」及び「判定」等の意味が含まれる。
When the card C is inserted into the
図26は種類特定モデルGの概略図である。種類特定モデルGも、深層学習を含む機械学習の学習済みモデルであり、例えば、CNNである。種類特定モデルGは、入力層、複数の中間層及び出力層を有する。図26には、中間層の数が2である例が示されている。なお、中間層の数は3以上であってもよい。 FIG. 26 is a schematic view of the type identification model G. The type-specific model G is also a trained model of machine learning including deep learning, for example, CNN. The type-specific model G has an input layer, a plurality of intermediate layers, and an output layer. FIG. 26 shows an example in which the number of intermediate layers is 2. The number of intermediate layers may be 3 or more.
入力層、中間層及び出力層それぞれでは、一又は複数のニューロンを有する。各層のニューロンは、前後の層に存在するニューロンと一方向に所望の重み及びバイアスで結合されている。入力層のニューロンの数と同数の成分を有するベクトルが、種類特定モデルGの入力データとして入力される。 Each of the input layer, middle layer and output layer has one or more neurons. The neurons in each layer are unidirectionally connected to the neurons in the previous and next layers with the desired weight and bias. A vector having the same number of components as the number of neurons in the input layer is input as input data of the type identification model G.
なお、複数の中間層に畳み込みを行う層が含まれていてもよい。この層では、入力されたデータに、畳み込みフィルタを含む適宜のフィルタを適用し、フィルタを適用した後に得られる複数のデータを次の層、例えば、プーイング層に出力する。 In addition, a layer for convolution may be included in a plurality of intermediate layers. In this layer, an appropriate filter including a convolution filter is applied to the input data, and a plurality of data obtained after applying the filter is output to the next layer, for example, the pouring layer.
入力層の各ニューロンに入力された入力値は、最初の中間層に入力される。この中間層において、重み及びバイアスを含む活性化関数を用いて出力が算出される。算出された値が次の中間層に入力される。以下同様にして、出力層の出力が求められるまで次々と後の層に伝達される。なお、ニューロン間を結合する重み及びバイアス等の各種パラメータは、例えば、誤差逆伝播法を用いて学習される。
種類特定モデルGの入力層に入力する入力データは、第1面画像データ又は第2面画像データを縮小することによって得られる縮小画像データである。例えば、縮小画像データの画素値が入力データとして種類特定モデルGの入力層に入力される。
The input values input to each neuron in the input layer are input to the first intermediate layer. In this intermediate layer, the output is calculated using an activation function that includes weights and biases. The calculated value is input to the next intermediate layer. In the same manner below, the output of the output layer is transmitted to the subsequent layers one after another until the output is obtained. Various parameters such as weights and biases that connect neurons are learned by using, for example, an error backpropagation method.
The input data to be input to the input layer of the type-specific model G is the reduced image data obtained by reducing the first surface image data or the second surface image data. For example, the pixel value of the reduced image data is input to the input layer of the type-specific model G as input data.
図27は縮小画像データの説明図である。図27の上側には、第1面画像又は第2面画像が示され、図27の下側には、縮小画像データに対応する縮小画像が示されている。第1面画像データ及び第2面画像データそれぞれについて、縦及び横の画素数はM(M:自然数)及びN(N:自然数)で表されている。 FIG. 27 is an explanatory diagram of reduced image data. The first side image or the second side image is shown on the upper side of FIG. 27, and the reduced image corresponding to the reduced image data is shown on the lower side of FIG. 27. The number of vertical and horizontal pixels for each of the first surface image data and the second surface image data is represented by M (M: natural number) and N (N: natural number).
第1面画像データ及び第2面画像データそれぞれについて、縦及び横の画素数を下げることによって、カードに表示されている個人情報を読み取ることが不可能な縮小画像データを生成する。例えば、縦及び横の画素数を(M/10)及び(N/10)に変更することによって縮小画像データを生成する。M及びNそれぞれは例えば380及び600である。第1面画像データ又は第2面画像データが縮小された場合、第1面画像又は第2面画像データも縮小される。 By reducing the number of vertical and horizontal pixels for each of the first-side image data and the second-side image data, reduced image data in which the personal information displayed on the card cannot be read is generated. For example, reduced image data is generated by changing the number of vertical and horizontal pixels to (M / 10) and (N / 10). M and N are, for example, 380 and 600, respectively. When the first surface image data or the second surface image data is reduced, the first surface image or the second surface image data is also reduced.
種類特定モデルGでは、カードの表側又は裏側の縮小画像データと、カードの種類、及び、カードの表側又は裏側を示す第2の正解ラベルとを含む第2の教師データを用いて、縮小画像データとカードの種類及び表裏との関係が学習されている。第2の正解ラベルは1つの情報である。第2の教師データの縮小画像データとして、運転免許証を含む複数種類のカードの表裏の縮小画像データが用いられる。
中間層では、第2の教師データに基づき、縮小画像データと、カードの種類及び表裏との関係が学習されている。
In the type identification model G, the reduced image data is used by using the reduced image data of the front side or the back side of the card, the type of the card, and the second teacher data including the second correct answer label indicating the front side or the back side of the card. The type of card and the relationship between the front and back are learned. The second correct label is one piece of information. As the reduced image data of the second teacher data, the reduced image data on the front and back of a plurality of types of cards including a driver's license are used.
In the middle layer, the relationship between the reduced image data, the type of card, and the front and back is learned based on the second teacher data.
出力層は、入力された縮小画像データに対応する縮小画像に写っているカードの種類及び表裏の分類の確からしさを示す確率を出力する。具体的には、カードの種類及び表裏の各組合せについて、入力された縮小画像データに係るカードの種類及び表裏の組合せが該当する確率を示す。図26では、カードの種類及び表裏の組合せを(種類,表又は裏)で示している。(運転免許証,表)、(運転免許証,裏)、(マイナンバーカード,表)及び(マイナンバーカード,裏)等の組合せそれぞれについて、入力された縮小画像データに係るカードの種類及び表裏の組合せが該当する確率を示す。
縮小画像データでは、個人情報を取得することが不可能となるまで縮小が行われている。このため、カードに表示されている個人情報に基づいて確率が出力されることはない。
The output layer outputs a probability indicating the type of card shown in the reduced image corresponding to the input reduced image data and the certainty of the classification of the front and back sides. Specifically, for each card type and front / back combination, the probability that the card type and front / back combination related to the input reduced image data correspond is shown. In FIG. 26, the type of card and the combination of front and back are shown by (type, front or back). For each combination of (driver's license, front), (driver's license, back), (my number card, front) and (my number card, back), the type of card and the combination of front and back related to the input reduced image data. Indicates the probability of being applicable.
The reduced image data is reduced until it becomes impossible to acquire personal information. Therefore, the probability is not output based on the personal information displayed on the card.
図28はモデル生成装置2の要部構成を示すブロック図である。実施の形態6におけるモデル生成装置2を、実施の形態3におけるモデル生成装置2と比較した場合、記憶部23に記憶されている内容に違いがある。実施の形態6においては、記憶部23に、複数の第1真贋度推定モデルR10,R11,・・・、複数の第2真贋度推定モデルR20,R21,・・・及びコンピュータプログラムP2に加えて、種類特定モデルGが記憶されている。
FIG. 28 is a block diagram showing a main configuration of the
入力部20には、複数の教師データ、第1評価用データ及び第2評価用データに加えて、複数の第2の教師データと、種類特定モデルGを評価するための第3評価用データ及び第4評価用データとが入力される。制御部24は、入力部20に入力された第2の教師データ、第3評価用データ及び第4評価用データを取得する。第3評価用データ及び第4評価用データそれぞれは、第2の教師データと同様に、縮小画像データと、縮小画像データの縮小画像に写っているカードの種類、及び、カードの表側又は裏側を示す第2の正解ラベルとを含む。
In the
制御部24は、コンピュータプログラムP2を実行することによって、記憶処理及び真贋度推定モデル生成処理に加えて、第2の教師データ、第3評価用データ及び第4評価用データを記憶部23に記憶する第2の記憶処理と、種類特定モデルGを生成する種類特定モデル生成処理とを実行する。
なお、制御部24が有する処理素子の数が2以上である場合、複数の処理素子がコンピュータプログラムP2に従って、記憶処理及び真贋度推定モデル生成処理だけではなく、第2の記憶処理及び種類特定モデル生成処理を協同で実行してもよい。
By executing the computer program P2, the
When the number of processing elements included in the
図示しない装置から入力部20に複数の第2の教師データ、第3評価用データ及び第4評価用データが入力される。制御部24は、入力部20にこれらのデータが入力された場合、第2の記憶処理を実行する。第2の記憶処理では、制御部24は、入力部20に入力された複数の第2の教師データ、第3評価用データ及び第4評価用データを取得し、取得したこれらのデータを記憶部23に記憶する。その後、制御部24は第2の記憶処理を終了する。
A plurality of second teacher data, third evaluation data, and fourth evaluation data are input to the
種類特定モデル生成処理では、制御部24は、第2の教師データに含まれる縮小画像データを種類特定モデルGに入力し、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部24は、算出した確率に基づいて、種類特定モデルGの中間層で用いられるノード間の重み及びバイアス等のパラメータを更新する。これにより、制御部24は種類特定モデルGを生成する。
In the type-specific model generation process, the
図29は、第2の教師データに含まれる縮小画像データの説明図である。第2の教師データの縮小画像データは、複数種類のカードの単純な縮小画像データだけではない。図29の上側に示すように、カードの第1面画像データ又は第2面画像データにノイズを追加し、ノイズを追加した第1面画像データ又は第2面画像データを縮小する。これにより、カードの単純な縮小画像データにノイズが追加された縮小画像データが生成される。制御部24は、ノイズが追加された縮小画像データも第2の教師データの縮小画像データとして記憶部23に記憶する。
FIG. 29 is an explanatory diagram of reduced image data included in the second teacher data. The reduced image data of the second teacher data is not limited to the simple reduced image data of a plurality of types of cards. As shown on the upper side of FIG. 29, noise is added to the first side image data or the second side image data of the card, and the added first side image data or the second side image data is reduced. As a result, reduced image data in which noise is added to the simple reduced image data of the card is generated. The
図29に示すノイズは、カードの汚れに対応するノイズである。縮小画像データに追加されるノイズは、汚れに対応するノイズに限定されず、日焼け又は経年劣化等によって生じる色の変化に対応するノイズも含む。制御部24は、このノイズが追加された縮小画像データも取得し、取得した縮小画像データを記憶部23に記憶する。色の変化に対応するノイズが追加された縮小画像データの縮小画像の1つとして、黄ばんだカードの縮小画像が挙げられる。
The noise shown in FIG. 29 is noise corresponding to dirt on the card. The noise added to the reduced image data is not limited to the noise corresponding to the stain, but also includes the noise corresponding to the color change caused by sunburn, aging deterioration, or the like. The
図29の下側に示すように、カードの第1面画像データ又は第2面画像データに含まれる個人情報を削除又は変更し、削除又は変更することによって得られた第1面画像データ又は第2面画像データを縮小する。これにより、カードの単純な縮小画像データに含まれる個人情報が削除又は変更された縮小画像データが生成される。制御部24は、個人情報を削除又は変更することによって得られる縮小画像データも第2の教師データの縮小画像データとして記憶部23に記憶する。個人情報の変更は、例えば、氏名、生年月日又は住所の変更である。個人情報の削除は、例えば、氏名又は住所の一部分の削除である。
As shown in the lower part of FIG. 29, the first side image data or the first side image data obtained by deleting or changing the personal information contained in the first side image data or the second side image data of the card, and deleting or changing the card. Reduce the two-sided image data. As a result, the reduced image data in which the personal information contained in the simple reduced image data of the card is deleted or changed is generated. The
図30及び図31は、種類特定モデル生成処理の手順を示すフローチャートである。モデル生成装置2のユーザは、操作部21において、種類特定モデル生成処理の実行を指示する第2の実行操作を行う。第2の実行操作が行われた場合において、記憶部23に、複数の第2の教師データ、第3評価用データ及び第4評価用データが記憶されているとき、制御部24は種類特定モデル生成処理を実行する。記憶部23には、種類特定モデル生成処理で用いられる第3変数及び第4変数の値が記憶されている。制御部24は、これらの値は各別に設定する。
30 and 31 are flowcharts showing the procedure of the type identification model generation process. The user of the
種類特定モデル生成処理では、制御部24は、まず、種類特定モデルGの経路を形成する(ステップS81)。具体的には、制御部24は、入力層と入力層に隣接する中間層とに関する複数のニューロンの間の経路と、隣接する2つの中間層に関する複数のニューロン間の経路と、中間層と中間層に隣接する出力層とに関する複数のニューロン間の経路とを形成する。ニューロン間の重み及びバイアス等のパラメータは適宜設定されている。
In the type-specific model generation process, the
制御部24は、ステップS81を実行した後、第3変数及び第4変数の値をゼロに設定し(ステップS82)、記憶部23に記憶されている複数の第2の教師データ、第3評価用データ及び第4評価用データを、一時記憶部22にロードする(ステップS83)。次に、制御部24は、一時記憶部22から1つの第2の教師データを選択し(ステップS84)、選択した第2の教師データに含まれる縮小画像データを種類特定モデルGに入力する(ステップS85)。種類特定モデルGへのデータの入力は、種類特定モデルGの入力層へのデータの入力を意味する。次に、制御部24は、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する(ステップS86)。
After executing step S81, the
次に、制御部24は、第3変数の値を1だけインクリメントし(ステップS87)、第3変数の値が第3基準値であるか否かを判定する(ステップS88)。第3基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第3変数の値が第3基準値ではないと判定した場合(S88:NO)、ステップS84を再び実行する。再び実行されたステップS84では、制御部24は、ステップS83でロードされた複数の第2の教師データの中で選択していない1つの第2の教師データを選択する。
Next, the
制御部24は、第3変数の値が第3基準値となるまで、ステップS84〜S87を繰り返し実行し、カードの種類及び表裏の分類の確からしさを示す確率を算出し続ける。第1基準値は、所謂、バッチサイズである。制御部24は、第3変数の値が第3基準値であると判定した場合(S88:YES)、ステップS86を繰り返し実行することによって得られた複数の算出結果と、ステップS84で選択した複数の第2の教師データの第2の正解ラベルが示す内容とに基づいて、種類特定モデルGのパラメータを更新する(ステップS89)。次に、制御部24は、一時記憶部22に記憶されている全ての第2の教師データをステップS84で選択したか否かを判定する(ステップS90)。
The
制御部24は、全ての第2の教師データを選択していないと判定した場合(S90:NO)、第3変数の値をゼロに設定し(ステップS91)、ステップS84を再び実行する。再び実行されたステップS84では、制御部24は、ステップS83でロードされた複数の第2の教師データの中で選択していない1つの第2の教師データを選択する。全ての第2の教師データが選択されるまで、ステップS86を繰り返し実行することによって得られた複数の算出結果に基づいて、パラメータを繰り返し更新する。
When the
制御部24は、全ての第2の教師データを選択したと判定した場合(S90:YES)、第3評価用データを用いて種類特定モデルGを評価する(ステップS92)。ステップS92では、制御部24は、第3評価用データに含まれる縮小画像データを種類特定モデルGに入力し、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部24は、この算出結果と、第3評価用データに含まれる第2の正解ラベルが示す内容とに基づいて、種類特定モデルGの出力として適切な算出結果が算出されていることを確認する。適切な算出結果が算出されていなかった場合、例えば、種類特定モデル生成処理を終了してもよい。この場合、例えば、第2の教師データの数を増やして、再度、種類特定モデル生成処理を実行する。
When the
制御部24は、ステップS92を実行した後、第4変数の値を1だけインクリメントし(ステップS93)、第4変数の値が第4基準値であるか否かを判定する(ステップS94)。第4基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第4変数の値が第4基準値ではないと判定した場合(S94:NO)、第3変数の値をゼロに設定し(ステップS95)、ステップS84を再び実行する。このとき、ステップS83でロードされた複数の第2の教師データの中に選択された第2の教師データはないとして、ステップS84を実行する。第4変数の値が第4基準値となるまで、ステップS83でロードされた複数の第2の教師データを用いて種類特定モデルGのパラメータを更新する。各第2の教師データが用いられる回数は、第4基準値の数と同じである。第4基準値は、所謂、エポック数である。
After executing step S92, the
制御部24は、第4変数の値が第4基準値であると判定した場合(S94:YES)、第4評価用データを用いて種類特定モデルGを評価する(ステップS96)。ステップS96では、制御部24は、第4評価用データに含まれる縮小画像データを種類特定モデルGに入力し、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部24は、この算出結果と、第4評価用データに含まれる第2の正解ラベルが示す内容とに基づいて、種類特定モデルGの出力として適切な算出結果を算出していることを確認する。適切な算出結果が算出されていなかった場合、例えば、種類特定モデル生成処理を終了してもよい。この場合、例えば、第2の教師データの数を増やして、再度、種類特定モデル生成処理を実行する。
When the
制御部24は、ステップS96を実行した後、パラメータが更新された種類特定モデルGを記憶部23に記憶し(ステップS97)、種類特定モデルGの更新に用いた第2の教師データ、第3評価用データ及び第4評価用データを、一時記憶部22及び記憶部23から削除する(ステップS98)。制御部24は、ステップS98を実行した後、種類特定モデル生成処理を終了する。
After executing step S96, the
以上のように、種類特定モデル生成処理では、制御部24は、記憶部23に記憶されている複数の第2の教師データに基づき、縮小画像データを入力とする種類特定モデルGのパラメータを更新する。パラメータの更新により、種類特定モデルGが生成される。
As described above, in the type-specific model generation process, the
前述したように、種類特定モデルGは、カードの一面の縮小画像データから、カードの種類及び表裏を特定する処理に用いられる。種類特定モデル生成処理では、制御部24は、第2の記憶処理で入力部20から取得した第2の教師データに基づいてパラメータを更新することによって、適切な種類特定モデルGを生成する。
As described above, the type identification model G is used in the process of identifying the type and front and back of the card from the reduced image data on one side of the card. In the type-specific model generation process, the
種類特定モデル生成処理で用いられる複数の第2の教師データに含まれる複数の縮小画像データは、複数種類のカードの表裏の画像データを縮小することによって得られる複数の縮小画像データである。種類特定モデル生成処理で用いられる複数の縮小画像データには、全種類のカードの表裏の縮小画像データが含まれる。 The plurality of reduced image data included in the plurality of second teacher data used in the type identification model generation process is a plurality of reduced image data obtained by reducing the image data on the front and back sides of the plurality of types of cards. The plurality of reduced image data used in the type-specific model generation process includes reduced image data on the front and back sides of all types of cards.
前述したように、判定装置1の制御部12は、モデル生成装置2の制御部24が種類特定モデル生成処理で生成した種類特定モデルGを用いる。判定装置1の制御部12は、種類特定モデルGの出力として算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定する。
As described above, the
種類特定モデル生成処理では、前述したように、制御部24は、複数種類のカードの表裏の画像データを縮小することによって得られる複数の縮小画像データを入力部20から取得し、取得した複数の縮小画像データを、複数の第2の教師データの縮小画像データとして入力する。これにより、種類特定モデルGが生成される。個人情報を取得することが不可能となるまで縮小が行われた縮小画像データを入力することによって、開口5bに挿入されるカードに表示されている個人情報とは異なる情報に基づいて確率を出力する種類特定モデルGを生成することができる。
In the type identification model generation process, as described above, the
また、種類特定モデル生成処理では、前述したように、制御部24は、複数種類のカードの縮小画像データの少なくとも1つにノイズを追加することによって得られる縮小画像データを入力部20から取得し、取得した縮小画像データを、第2の教師データの縮小画像データとして、種類特定モデルGの入力に含める。このため、判定装置1が行う認証において、種類特定モデルGに入力する縮小画像データ、即ち、開口5bに挿入されたカードの第1面又は第2面の縮小画像データが、汚れが付着しているカード又は色が変化しているカードの一面の縮小画像データであっても、種類特定モデルGを用いて適切な特定が行われる。前述したように、日焼け又は経年変化等によってカードの色は変化する。
Further, in the type identification model generation process, as described above, the
更に、種類特定モデル生成処理では、制御部24は、複数種類のカードの縮小画像データの少なくとも1つに含まれる個人情報を削除又は変更することによって得られる縮小画像データを入力部20から取得し、取得した縮小画像データを第2の教師データの縮小画像データとして種類特定モデルGの入力に含める。種類特定モデルGへの入力には、複数種類のカードの単純な縮小画像データだけではなく、ノイズを追加することによって得られる縮小画像データと、個人情報を削除又は変更することによって得られる縮小画像データとが含まれている。このため、種類特定モデル生成処理で用いる縮小画像データが多いので、種類特定モデルGの出力として算出される算出結果はより適切である。
Further, in the type identification model generation process, the
なお、単純な縮小画像データ、ノイズが追加された縮小画像データ、個人情報が部分的に変更された縮小画像データ、又は、個人情報が部分的に削除された縮小画像データについては、モデル生成装置2の制御部24が生成してもよい。この場合、入力部20には、カードの表側又は裏側が写っている画像データと、この画像データに対応する第2の正解ラベルとを含むデータが入力される。制御部24は、入力部20に入力された画像データに基づいて、ノイズが追加された縮小画像データ、個人情報が部分的に変更された縮小画像データ、又は、個人情報が部分的に削除された縮小画像データを生成する。これにより、縮小画像データ及び第2の正解ラベルを含む第2の教師データが生成される。生成された第2の教師データを記憶部23に記憶する。
For simple reduced image data, reduced image data with added noise, reduced image data with partially changed personal information, or reduced image data with partially deleted personal information, a model generator. The
図32は、認証装置5の要部構成を示すブロック図である。認証装置5は、判定装置1及び撮像装置40に加えて、カメラ41及びディスプレイ42を備える。カメラ41及びディスプレイ42は、図24に示すように、収容箱5aの外面に設置されている。実施の形態6における判定装置1は、実施の形態3における判定装置1が備える構成部に加えて、入出力部15及び出力部16を備える。
FIG. 32 is a block diagram showing a main configuration of the
撮像装置40は判定装置1の入力部10に接続されている。カメラ41は判定装置1の入出力部15に接続されている。ディスプレイ42は判定装置1の出力部16に接続されている。入出力部15及び出力部16は内部バス13に接続されている。
The
カードが開口5bに挿入された場合、撮像装置40は、挿入されたカードの第1面画像及び第2面画像を撮影し、撮影した第1面画像及び第2面画像に対応する第1面画像データ及び第2面画像データを生成し、生成した第1面画像データ及び第2面画像データを判定装置1の入力部10に出力する。
When the card is inserted into the
前述したように、開口5bの大きさはカードの短辺側の端面の大きさと略同じである。このため、第1面画像及び第2面画像の枠の形状は、カードの面の形状と略一致している。撮像装置40から入力部10に入力された第1面画像データ及び第2面画像データは、制御部12によって、入力部10から取得される。
As described above, the size of the
入出力部15は、制御部12の指示に従って、ユーザの顔が写っている顔画像の撮影を指示する撮影信号をカメラ41に出力する。撮影信号がカメラ41に入力された場合、カメラ41は、顔画像を撮影し、撮影した顔画像に対応する顔画像データを入出力部15に出力する。入出力部15に入力された顔画像データは、制御部12によって、入出力部15から取得される。
The input /
出力部16は、制御部12の指示に従って、カードの特定を行うことができなかったことを示す特定不可情報と、特定したカードの種類が対象外カードの種類であることを示す対象外情報と、カードの特定に成功したもののカードの読み取りを行うことができなかったことを示す読み取り不可情報とをディスプレイ42に出力する。特定不可情報、対象外情報又は読み取り不可情報がディスプレイ42に入力された場合、ディスプレイ42は、入力された情報が示す内容を表示する。これにより、カードを特定することができなかったこと、カードの種類が対象外カードの種類であること、又は、読み取りを行うことができなかったことがユーザに通知される。
The
出力部16は、更に、制御部12の指示に従って、認証の成功又は失敗を示す結果情報をディスプレイ42に出力する。結果情報がディスプレイ42に入力した場合、ディスプレイ42は、結果情報が示す内容を表示する。これにより、認証の成功又は失敗がユーザに通知される。
The
図33は、記憶部11に記憶されているデータの説明図である。前述したように、記憶部11には、種類特定モデルG、複数の第1真贋度推定モデルR10,R11,・・・、複数の第2真贋度推定モデルR20,R21,・・・及びコンピュータプログラムP1が記憶されている。記憶部11には、更に、複数の第1座標データZ10,Z11,・・・及び複数の第2座標データZ20,Z21,・・・、認証用テーブル60及び読み取りルールデータベース61が記憶されている。記憶部11に記憶されている種類特定モデルGは、モデル生成装置2の制御部24によって生成された学習済みモデルである。
FIG. 33 is an explanatory diagram of data stored in the
実施の形態3と同様に、制御部12の処理素子は、コンピュータプログラムP1を実行することによって、真贋判定処理を実行する。真贋判定処理のステップS71では、制御部12は、カードの種類及び表裏を特定する特定処理を実行する。
制御部12の処理素子は、コンピュータプログラムP1を実行することによって、更に、カードの所有者を認証する認証処理を実行する。なお、制御部12が有する処理の数が2以上である場合、複数の処理素子がコンピュータプログラムP1に従って、真贋判定処理だけではなく、認証処理を協同で実行してもよい。
Similar to the third embodiment, the processing element of the
The processing element of the
特定処理において、制御部12は、開口5bに挿入されたカードの種類及び表裏を特定する。真贋判定処理において、制御部12は、カードが、特定処理において特定した種類に属するカードとして本物であるか否かを判定する。制御部12は、カードが本物であると判定した場合、認証処理を実行する。認証処理では、制御部12は、特定処理において特定した種類及び表裏に基づいて、第1面画像データ及び第2面画像データの少なくとも一方から個人情報を読み取り、読み取った個人情報に基づいて、カードの所有者を認証する。
In the specifying process, the
図34は認証用テーブル60を示す図表である。図34の例では、認証用テーブル60は、氏名フィールド、住所フィールド及び生年月日フィールドを含む。氏名フィールドには、認証装置5を使用する複数のユーザに対応する複数の氏名が記憶されている。住所フィールドには、氏名フィールドに記憶されている複数の氏名それぞれに対応する複数の住所が記憶されている。生年月日フィールドには、氏名フィールドに記憶されている複数の氏名それぞれに対応する複数の生年月日が記憶されている。氏名、住所及び生年月日は認証用テーブル60に予め記憶されている。認証用テーブルは、カードの所有者の認証に用いられる。
FIG. 34 is a chart showing an authentication table 60. In the example of FIG. 34, the authentication table 60 includes a name field, an address field, and a date of birth field. In the name field, a plurality of names corresponding to a plurality of users who use the
図35は読み取りルールデータベース61の内容を示す図表である。読み取りルールデータベース61は、種類フィールド及び読み取りルールフィールドを含む。種類フィールドには、対象カードの種類が記憶されている。対象外カードの種類、ポイントカード又は電子マネー用カード等は種類フィールドに記憶されていない。前述したように、対象カードの種類として、運転免許証、マイナンバーカード、マイナンバー通知カード、住民基本台帳カード、特別永住者証明書、在留カード、パスポートカード又はソーシャルセキュリティカード等が挙げられる。読み取りルールフィールドには、種類フィールドに記憶されている種類に対応する複数の個人情報を読み取りルールが記憶されている。具体的には、各読み取りルールは、個人情報の表示位置を示している。1つの個人情報の表示位置は、個人情報が表示されているカードの向き(表側又は裏側)と、カードの表側又は裏側における個人情報の表示場所とによって定義される。種類及び読み取りルールは読み取りルールデータベース61に予め記憶されている。
FIG. 35 is a chart showing the contents of the read
図36及び図37は、特定処理の手順を示すフローチャートである。制御部12は、入力部10からカードの第1画面画像データ及び第2面画像データを取得した場合に真贋判定処理を実行する。制御部12は、真贋判定処理のステップS71において、特定処理を実行する。
36 and 37 are flowcharts showing the procedure of the specific processing. The
特定処理では、制御部12は、まず、入力部10から取得した第1面画像データの縮小画像データを生成する(ステップS101)。制御部12は、第1面画像データの縦及び横の画素数を下げることによって、第1面画像データを縮小し、第1面画像データの縮小画像データを生成する。
In the specific process, the
次に、制御部12は、ステップS101で生成した縮小画像データを、種類特定モデルGに入力する(ステップS102)。種類特定モデルGでは、入力層の各ニューロンに、例えば、縮小画像データを構成する各画素の画素値のデータが入力される。入力層の各ニューロンに入力されたデータは、隣接する中間層のニューロンへ出力される。中間層では、入力層に入力された縮小画像データに基づいて、ニューロン間の重み及びバイアスを含む活性化関数を用いた演算が制御部12によって行われ、中間層で行われた演算結果は出力層に出力される。このようにして、種類特定モデルGでは、カードの種類及び表裏の分類の確からしさを示す確率が出力層から出力される。
Next, the
制御部12は、ステップS102を実行した後、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する(ステップS103)。次に、制御部12は、ステップS103で算出した確率に基づいて、カードの種類及び表裏の特定を行うことが可能であるか否かを判定する(ステップS104)。
After executing step S102, the
具体的には、制御部12は、種類特定モデルGの出力として算出した確率の分布の分散値を算出する。分散値は、カードの種類及び表裏の全ての組合せに係る確率の中で1つの確率のみが極端に高い場合、大きく、カードの種類及び表裏の全ての組合せに係る確率が略一致している場合、小さい。ステップS104では、制御部12は、算出した分散値が所定値未満である場合、特定を行うことが不可能であると判定し、算出した分散値が所定値以上である場合、特定を行うことが可能であると判定する。分散値が所定値以上であることは所定基準に相当する。制御部12は、種類特定モデルGの出力として算出した確率の分布が所定基準を満たさない場合、特定を行うことが不可能であると判定する。
Specifically, the
なお、所定基準は、分散値が所定値以上であることに限定されず、例えば、カードの種類及び表裏の全ての組合せに係る確率の中で1番目及び2番目に高い2つの確率の差分値が第2の所定値以上であることであってもよい。また、所定基準は、カードの種類及び表裏の全ての組合せに係る確率の中で1番目に高い確率が第3の所定値、例えば、40%以上であることであってもよい。 The predetermined standard is not limited to the dispersion value being equal to or higher than the predetermined value. For example, the difference value between the first and second highest probabilities among all combinations of card types and front and back sides. May be greater than or equal to the second predetermined value. Further, the predetermined criterion may be that the highest probability among all combinations of card types and front and back sides is a third predetermined value, for example, 40% or more.
制御部12は、特定を行うことが不可能であると判定した場合(S104:NO)、ステップS102と同様に、第2面画像データの縮小画像データを生成する(ステップS105)。制御部12は、第2面画像データの縦及び横の画素数を下げることによって、第2面画像データを縮小し、第2面画像データの縮小画像データを生成する。
When the
次に、制御部12は、ステップS106で生成した縮小画像データを、種類特定モデルGに入力し(ステップS106)、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する(ステップS107)。このように、制御部12は、ステップS105で第1面画像データに関する特定を行うことが不可能であると判定した場合、入力部10から取得した第1面画像データ及び第2面画像データの両方を種類特定モデルGに入力する。
Next, the
なお、制御部12は、ステップS101において、第1面画像データ及び第2面画像データの両方の縮小画像データを生成してもよい。この場合、制御部12は、ステップS104で、特定を行うことが不可能であると判定した場合、ステップS106を実行する。ステップS106では、制御部12は、ステップS101で生成した第2面画像データの縮小画像データを、種類特定モデルGに入力する。
The
次に、制御部12は、ステップS104と同様に、ステップS107で算出した確率に基づいて、カードの種類及び表裏の特定を行うことが可能であるか否かを判定する(ステップS108)。
Next, the
制御部12は、第2面画像データに関する特定を行うことが不可能であると判定した場合(S108:NO)、出力部16に指示して、特定不可情報をディスプレイ42に出力させる(ステップS109)。これにより、ディスプレイ42は特定不可情報が示す内容を表示し、カードの特定不可がユーザに通知される。
制御部12は、ステップS109を実行した後、特定処理を終了し、真贋判定処理も終了する。
When the
After executing step S109, the
制御部12は、第1面画像データに関する特定を行うことが可能であると判定した場合(S104:YES)、又は、第2面画像データに関する特定を行うことが可能であると判定した場合(S108:YES)、ステップS103又はステップS107で算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定する(ステップS110)。表裏の特定は、カードの第1面及び第2面それぞれが表側及び裏側のいずれであるかを特定することである。第1面及び第2面の一方の面について特定が行われた場合、他方の面については、自動的に特定が行われる。
以上のように、判定装置1の制御部12は、第1面画像又は第2面画像に写っているカードが種類特定モデルGを用いて正確に特定する。
When the
As described above, the
ステップS110では、制御部12は、例えば、カードの種類を、算出結果の中で最も確率が高い組合せの種類に特定する。また、制御部12は、例えば、算出結果の中で最も高い組合せが表側を示す場合において、種類特定モデルGに入力した縮小画像データが第1面画像データの縮小画像データであるとき、カードの第1面及び第2面それぞれは表側及び裏側であると特定する。制御部12は、同様の場合において、種類特定モデルGに入力した縮小画像データが第2面画像データの縮小画像データであるとき、カードの第1面及び第2面それぞれは裏側及び表側であると特定する。
In step S110, the
制御部12は、ステップS104で特定を行うことが可能であると判定した場合、ステップS111では、第1面画像データの縮小画像データを種類特定モデルGに入力することによって、種類特定モデルGの出力として算出した算出結果に基づいて特定を行う。制御部12は、ステップS108で特定を行うことが可能であると判定した場合、ステップS111では、第2面画像データの縮小画像データを種類特定モデルGに入力することによって、種類特定モデルGの出力として算出した算出結果に基づいて特定を行う。
When the
次に、制御部12は、ステップS110で特定した種類が対象カードに係る複数の種類とは異なっているか否かを判定する(ステップS111)。制御部12は、ステップS110で特定した種類が対象カードに係る複数の種類とは異なると判定した場合(S111:YES)、出力部16に指示して、対象外情報をディスプレイ42に出力させる(ステップS112)。これにより、ディスプレイ42は対象外情報が示す内容を表示し、ステップS110で特定したカードの種類が対象外の種類であることがユーザに通知される。
制御部12は、ステップS112を実行した後、特定処理を終了し、真贋判定処理も終了する。
Next, the
After executing step S112, the
制御部12は、ステップS110で特定した種類が対象カードに係る複数の種類中の1つと一致すると判定した場合(S111:NO)、特定処理、即ち、真贋判定処理のステップS51を終了し、真贋判定処理のステップS52を実行する。ステップS52以降では、制御部12は、第1画面画像データ及び第2画面画像データの中で、カードの表側又は裏側に相当する画像データを用いて真贋判定を行う。即ち、この画像データから第1部分画像データ及び第2部分画像データが抽出される。カードの表側及び裏側の画像データの中で、真贋判定で用いる画像データは、カードの種類に応じて予め設定されている。例えば、カードが運転免許証である場合、カードの表側の画像データを真贋判定で用いることが予め設定されている。
When the
なお、制御部12は、カードの表側及び裏側に相当する2つの画像データを用いて真贋判定を行ってもよい。この場合、真贋判定処理において、制御部12は、例えば、表側の画像データに写っているカードが本物であり、かつ、裏側の画像データに写っているカードが本物であると判定した場合、カードが本物であると判定する。制御部12は、例えば、表側又は裏側の画像データに写っているカードが本物ではないと判定した場合、カードは本物ではないと判定する。
The
制御部12は、実施の形態3と同様に、真贋判定処理において、カードが本物であると判定した場合(S45:YES)、真贋判定処理を終了する。この場合、制御部12は、真贋判定処理を終了した後、認証処理を実行する。
図38は認証処理の手順を示すフローチャートである。認証処理では、制御部12は、まず、読み取りルールデータベース61から、特定処理のステップS110で特定した種類に対応するカードの読み取りルールを読み出す(ステップS121)。次に、制御部12は、ステップS121で読み出した読み取りルールに従って、カードの表側及び裏側の一方又は両方に表示されている個人情報を、入力部10から取得した第1面画像データ及び第2面画像データから読み取る(ステップS122)。
Similar to the third embodiment, the
FIG. 38 is a flowchart showing the procedure of the authentication process. In the authentication process, the
次に、制御部12は、個人情報の読み取りに成功したか否かを判定する(ステップS123)。制御部12は、読み取りに失敗したと判定した場合(S123:NO)、出力部16に指示して、読み取り不可情報をディスプレイ42に出力させる(ステップS124)。これにより、ディスプレイ42は読み取り不可情報が示す内容を表示し、カードの読み取り不可がユーザに通知される。
Next, the
なお、真贋判定が行われているが、特定処理のステップS110で特定した種類が実際のカードの種類と異なっていたために、個人情報の読み取りに失敗する可能性もある。
制御部12は、ステップS124を実行した後、認証処理を終了する。
Although the authenticity is determined, there is a possibility that the reading of personal information may fail because the type specified in step S110 of the specific process is different from the actual card type.
The
制御部12は、読み取りに成功したと判定した場合(S123:YES)、開口5bに挿入されたカードの所有者を認証する(ステップS125)。
例えば、ステップS122で読み取った個人情報に、人物の顔が写っている顔画像が含まれている場合、制御部12は、入出力部15に指示して、撮影信号をカメラ41に出力させる。前述したように、撮影信号がカメラ41に入力された場合、カメラ41は、顔画像を撮影し、撮影した顔画像に対応する顔画像データを入出力部15に出力する。入出力部15に入力された顔画像データは、制御部12によって、入出力部15から取得される。
When the
For example, when the personal information read in step S122 includes a face image showing a person's face, the
制御部12は、ステップS122で読み取った顔画像の人物が、入出力部15から取得した顔画像データに対応する顔画像の人物と同一であるか否かに基づいて認証を行う。制御部12は、ステップS122で読み取った顔画像の人物が、入出力部15から取得した顔画像データに対応する顔画像の人物と同一である場合、認証に成功したと判定する。制御部12は、ステップS122で読み取った顔画像の人物が、入出力部15から取得した顔画像データに対応する顔画像の人物と異なる場合、認証に失敗したと判定する。
The
例えば、ステップS122で読み取った個人情報に、氏名、住所及び生年月日が含まれている場合、制御部12は、ステップS125では、認証用テーブル60(図34参照)を用いて認証を行う。例えば、制御部12は、ステップS122で読み取った氏名が認証用テーブル60に記憶されている場合において、ステップS122で読み取った住所及び生年月日それぞれが、ステップS122で読み取った氏名に対応する認証用テーブル60の住所及び生年月日と一致するとき、カードの所有者の認証に成功したと判定する。
For example, when the personal information read in step S122 includes a name, an address, and a date of birth, the
制御部12は、ステップS122で読み取った氏名が認証用テーブル60に記憶されていない場合、カードの所有者の認証に失敗したと判定する。制御部12は、ステップS122で読み取った氏名が認証用テーブル60に記憶されている場合において、ステップS122で読み取った住所及び生年月日それぞれが、ステップS126で読み取った氏名に対応する認証用テーブル60の住所及び生年月日と一致しないとき、カードの所有者の認証に失敗したと判定する。
If the name read in step S122 is not stored in the authentication table 60, the
制御部12は、ステップS125を実行した後、出力部16に指示して、認証結果、即ち、認証の成功又は失敗を示す結果情報をディスプレイ42に出力させる(ステップS126)。これにより、ステップS125の認証結果がディスプレイ42に表示され、ステップS125の認証結果がユーザに通知される。
制御部12は、ステップS126を実行した後、認証処理を終了する。
After executing step S125, the
After executing step S126, the
以上のように、認証装置5の判定装置1では、制御部12は、第1面画像データ又は第2面画像データを種類特定モデルGに入力し、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を出力する。制御部12は、この確率に基づいて、カードの種類及び表裏を特定する。また、第1面画像データを種類特定モデルGに入力することによって、カードの種類及び表裏を特定することができなかった場合、第2面画像データを種類特定モデルGに入力することによって、カードの種類及び表裏を特定する。
As described above, in the
更に、制御部12は、縮小画像データを種類特定モデルGに入力するので、カードに表示されている個人情報に基づく確率の出力が種類特定モデルGで行われることを防止することができる。また、制御部12は、カードの種類及び表裏を特定した場合、特定結果に基づいて、入力部10から取得した第1面画像データ及び第2面画像データ中の少なくとも一方から個人情報を読み取る。
また、実施の形態6における判定装置1は、実施の形態3における判定装置1が奏する効果を同様に奏する。
Further, since the
Further, the
なお、実施の形態6において、認証装置5を、個人情報を新規に登録する登録装置として機能させてもよい。認証処理において、例えば、ステップS122で読み取った個人情報に、人物の顔が写っている顔画像が含まれている場合、制御部12は、前述したように、カメラ41が撮影した顔画像データを用いて認証を行う。制御部12は、認証に成功した場合、ステップS125で読み取った個人情報、例えば、氏名、生年月日又は住所等を、記憶部11の図示しないデータベースに記憶する。
In the sixth embodiment, the
また、実施の形態4のなお書きで述べたように、実施の形態6の構成に、実施の形態4の構成を追加してもよく、1種類の部分画像データとして、実施の形態4における部分画像データを用いてもよい。この場合、撮像装置40は、例えば、実施の形態4における撮像装置3と同様に構成される。
更に、判定装置1の記憶部11に記憶されている複数の真贋度推定モデルは、実施の形態5と同様に再学習されてもよい。
Further, as described in the notes of the fourth embodiment, the configuration of the fourth embodiment may be added to the configuration of the sixth embodiment, and the portion of the fourth embodiment may be added as one kind of partial image data. Image data may be used. In this case, the
Further, the plurality of authenticity estimation models stored in the
(実施の形態7)
実施の形態6においては、判定装置1の制御部12は、開口5bにカードの種類及び表裏を特定している。しかしながら、制御部12が種類特定モデルGを用いてカードの種類及び表裏を特定するとともに、カードの一面について、上向き及び下向きのいずれであるかを特定してもよい。
以下では、実施の形態7について、実施の形態6と異なる点を説明する。後述する構成を除く他の構成については、実施の形態6と共通している。このため、実施の形態6と共通する構成部には実施の形態6と同一の参照符号を付してその説明を省略する。
(Embodiment 7)
In the sixth embodiment, the
Hereinafter, the differences between the seventh embodiment and the sixth embodiment will be described. Other configurations other than the configurations described later are common to the sixth embodiment. Therefore, the same reference reference numerals as those in the sixth embodiment are assigned to the components common to the sixth embodiment, and the description thereof will be omitted.
図39は、実施の形態7におけるカードの上下の説明図である。認証装置5の開口5bの一方の長辺側がカードの表側である場合において、一方の短辺側からカードを挿入したときの第1面画像データの第1面画像は、他方の短辺側からカードを挿入したときの第1面画像データの第1面画像とは異なる。認証装置5の開口5bの一方の長辺側がカードの表側であることは、例えば、図24において、カードの上面が表側であることである。図39の例では、文字の向きが正常であるカードの向きを上向きと定義し、文字の向きが逆さであるカードの向きを下向きと定義している。
FIG. 39 is an explanatory view of the top and bottom of the card according to the seventh embodiment. When one long side of the
図40は種類特定モデルGの概略図である。種類特定モデルGでは、カードの表側又は裏側の縮小画像データと、カードの種類、カードの表側又は裏側、及び、カードの上向き又は下向きを示す第2の正解ラベルとを含む第2の教師データを用いて、縮小画像データとカードの種類、表裏及び上下との関係が学習されている。
中間層では、第2の教師データに基づき、縮小画像データと、カードの種類、表裏及び上下との関係が学習されている。
FIG. 40 is a schematic view of the type identification model G. In the type identification model G, the second teacher data including the reduced image data of the front side or the back side of the card, the type of the card, the front side or the back side of the card, and the second correct answer label indicating the upward or downward direction of the card is provided. By using it, the relationship between the reduced image data and the type of card, front and back, and top and bottom is learned.
In the intermediate layer, the relationship between the reduced image data, the card type, the front and back, and the top and bottom is learned based on the second teacher data.
出力層は、入力層に入力された縮小画像データの縮小画像に写っているカードの種類、表裏及び上下の分類の確からしさを示す確率を出力する。具体的には、カードの種類、表裏及び上下の各組合せについて、縮小画像データに係るカードの種類、表裏及び上下の組合せが該当する確率を示す。図40では、カードの種類、表裏及び上下の組合せを(種類,表又は裏,上又は下)で示している。(運転免許証,表,上)、(運転免許証,表,下)、(運転免許証,裏,上)及び(運転免許証,裏,下)等の組合せそれぞれについて、縮小画像データに係るカードの種類、表裏及び上下の組合せが該当する確率を示す。 The output layer outputs the probability indicating the type of the card shown in the reduced image of the reduced image data input to the input layer, and the certainty of the classification of the front and back and the top and bottom. Specifically, for each card type, front / back and top / bottom combination, the probability that the card type, front / back and top / bottom combinations related to the reduced image data correspond is shown. In FIG. 40, the types of cards, front and back, and top and bottom combinations are shown by (type, front or back, top or bottom). Reduced image data for each combination of (driver's license, front, top), (driver's license, front, bottom), (driver's license, back, top) and (driver's license, back, bottom) Indicates the probability that the card type, front and back, and top and bottom combinations are applicable.
モデル生成装置2の制御部24が取得する第2の教師データは、カードの表側又は裏側の縮小画像データと、カードの種類、カードの表側又は裏側、及び、カードの上向き又は下向きを示す第2の正解ラベルとを含む。制御部24は、実施の形態6と同様に、種類特定モデル生成処理を実行する。
The second teacher data acquired by the
判定装置1の制御部12は、実施の形態6と同様に、モデル生成装置2の制御部24が種類特定モデル生成処理で生成した種類特定モデルGを用いる。判定装置1の制御部12は、種類特定モデルGの出力として算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定するとともに、カードの一面について、上向き及び下向きのいずれであるかを特定する。実施の形態7におけるモデル生成装置2は、実施の形態6におけるモデル生成装置2が奏する効果を同様に奏する。
Similar to the sixth embodiment, the
判定装置1の制御部12は、実施の形態6と同様に真贋判定処理において特定処理を実行する。実施の形態7においては、制御部12は、種類特定モデルGの出力として、カードの種類、表裏及び上下の分類の確からしさを示す確率を算出する。特定処理のステップS104,S108それぞれでは、制御部12は、カードの種類、表裏及び上下の特定を行うことが可能であるか否かを判定する。ステップS110では、制御部12は、ステップS103又はステップS107で算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定するとともに、第1面又は第2面について、上向き及び下向きのいずれであるかを特定する。
The
以上のように、判定装置1では、制御部12は、第1面画像データ又は第2面画像データを種類特定モデルGの入力層に入力し、種類特定モデルGの出力として、カードの種類、表裏及び上下の分類の確からしさを示す確率を算出する。制御部12は、この確率に基づいて、カードの種類及び表裏を特定するとともに、カードの一面について、上向き及び下向きのいずれであるかを特定する。また、制御部12は、第1面画像データを種類特定モデルGの入力層に入力することによって、カードの種類、表裏及び上下に関する特定を行うことができなかった場合、第2面画像データを種類特定モデルGの入力層に入力することによって、カードの種類及び表裏を特定するとともに、カードの一面が上向き及び下向きのいずれであるかを特定する。
As described above, in the
実施の形態7における判定装置1は、実施の形態6における判定装置1が奏する効果を同様に奏する。実施の形態7における判定装置1では、第1面画像又は第2面画像が写っている第1面又は第2面について、上向き及び下向きのいずれであるかを特定するので、個人情報の読み取りが容易である。
The
(実施の形態8)
図41は、実施の形態8における再学習システムの概略図である。
以下では、実施の形態8について、実施の形態6と異なる点を説明する。後述する構成を除く他の構成については、実施の形態6と共通している。このため、実施の形態6と共通する構成部には実施の形態6と同一の参照符号を付してその説明を省略する。
(Embodiment 8)
FIG. 41 is a schematic diagram of the re-learning system according to the eighth embodiment.
Hereinafter, the differences between the eighth embodiment and the sixth embodiment will be described. Other configurations other than the configurations described later are common to the sixth embodiment. Therefore, the same reference reference numerals as those in the sixth embodiment are assigned to the components common to the sixth embodiment, and the description thereof will be omitted.
再学習システムは、複数の認証装置5と、モデル生成装置2とを備える。これらはネットワークNに接続されている。後述するように、複数の認証装置5に含まれる複数の判定装置1がネットワークNを介してモデル生成装置2と接続される。複数の判定装置1及びモデル生成装置2は実施の形態5と同様に接続されている。実施の形態8では、各認証装置5が備える判定装置1は、種類特定モデルG、第2の教師データ、第3評価用データ及び第4評価用データをモデル生成装置2に送信する。モデル生成装置2は、種類特定モデルGの再学習を行う。
The re-learning system includes a plurality of
図42は、認証装置5の要部構成を示すブロック図である。認証装置5の判定装置1は、実施の形態6における判定装置1が備える構成部に加えて、通信部14を有する。通信部14は、実施の形態5と同様に、内部バス13及びネットワークNに接続されている。各判定装置1は実施の形態5と同様に作用する。このため、判定装置1の制御部12は、真贋度推定モデルを更新する更新処理を行う。なお、第1真贋度推定モデル及び第2真贋度推定モデルそれぞれは、真贋度推定モデルの1つである。
FIG. 42 is a block diagram showing a main configuration of the
通信部14は、制御部12の指示に従って、種類特定モデルG、複数の第2の教師データ、第3評価用データ及び第4評価用データを含む第2の更新ファイルをモデル生成装置2に送信する。通信部14は、モデル生成装置2から、再学習で更新された種類特定モデルGを受信する。制御部12は、通信部14から、通信部14が受信した種類特定モデルGを取得する。第2の教師データは、種類特定モデルGに入力した縮小画像データと、カードの種類、及び、カードの表側又は裏側を示す第2の正解ラベルとを含む。第2の正解ラベルが示す内容は、特定処理で制御部12が特定した特定結果に基づく。
The
判定装置1の制御部12は、特定処理において、ステップS110でカードの種類及び表裏を特定した場合、種類特定モデルGに入力した縮小画像データと、この縮小画像データに対応する縮小画像に写っているカードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを生成し、生成した第2の教師データを記憶部11に記憶する。第2の正解ラベルが示すカードの向きは、表側及び裏側の一方である。特定処理において、制御部12は、第1面画像データの縮小画像データを種類特定モデルGに入力して、カードの種類を運転免許証と特定し、カードの第1面を表側と特定したと仮定する。このとき、制御部12は、第1面画像データの縮小画像データと、運転免許証及び表側を示す第2の正解ラベルとを含む第2の教師データを生成する。
When the
第3評価用データ及び第4評価用データは、例えば、予め記憶部11に記憶されている。
判定装置1では、制御部12の処理素子は、コンピュータプログラムP1を実行することによって、種類特定モデルGを更新する第2の更新処理も実行させる。
The third evaluation data and the fourth evaluation data are stored in the
In the
図43は、モデル生成装置2の要部構成を示すブロック図である。実施の形態8を実施の形態6と比較した場合、実施の形態8におけるモデル生成装置2は、入力部20の代わりに、通信部26を備える。通信部26は、実施の形態5と同様に、内部バス13及びネットワークNに接続されている。モデル生成装置2は実施の形態5と同様に作用する。このため、モデル生成装置2の制御部24は、真贋度推定モデルの再学習を行う再学習処理を行う。なお、前述したように、第1真贋度推定モデル及び第2真贋度推定モデルそれぞれは、真贋度推定モデルの1つである。
FIG. 43 is a block diagram showing a main configuration of the
通信部26は、判定装置1の通信部14から第2の更新ファイルを受信する。モデル生成装置2の通信部26が受信した第2の更新ファイルは、制御部24によって取得される。通信部26は、制御部24の指示に従って、種類特定モデルGを判定装置1の通信部14に送信する。モデル生成装置2では、制御部24の処理素子は、コンピュータプログラムP2を実行することによって、種類特定モデルGの再学習を行う第2の再学習処理を実行する。
The
図44は、判定装置1及びモデル生成装置2が行う処理の手順を示すフローチャートである。図44には、判定装置1の制御部12が実行する第2の更新処理と、モデル生成装置2の制御部24が実行する第2の再学習処理とが示されている。制御部12は第2の更新処理を周期的に実行する。制御部24も第2の再学習処理を周期的に実行する。第2の更新処理及び第2の再学習処理は、実施の形態5の説明で述べた更新処理及び再学習処理と同様である。
FIG. 44 is a flowchart showing a procedure of processing performed by the
第2の更新処理において、判定装置1の制御部12は、種類特定モデルGを更新するか否かを判定する(ステップS131)。制御部12は、例えば、記憶部11に記憶されている第2の教師データの数が所定数以上である場合に、種類特定モデルGを更新すると判定し、記憶部11に記憶されている第2の教師データの数が所定数未満である場合に種類特定モデルGを更新しないと判定する。
In the second update process, the
制御部12は、種類特定モデルGを更新すると判定した場合(S131:YES)、通信部14に指示して、記憶部11に記憶されている種類特定モデルG、複数の第2の教師データ、第3評価用データ及び第4評価用データを含む第2の更新ファイルを、ネットワークNを介してモデル生成装置2の通信部26に送信させる(ステップS132)。モデル生成装置2の制御部24は、通信部26が判定装置1の通信部14から第2の更新ファイルを受信したか否かを判定する(ステップS141)。
When the
モデル生成装置2の制御部24は、通信部26が種類特定モデルG及び第2の教師データを受信したと判定した場合(S141:YES)、通信部26が受信した種類特定モデルG及び第2の教師データを記憶部23に記憶し(ステップS142)、図30及び図31に示す種類特定モデル生成処理を実行する(ステップS143)。これにより、通信部26が受信した種類特定モデルGの再学習が行われる。種類特定モデルGの再学習で用いられる第2の教師データは、判定装置1の制御部12が種類特定モデルGに入力した縮小画像データと、特定処理のステップS110で制御部12が特定したカードの向き(表側又は裏側)を示す第2の教師データとを含む。
なお、ステップS143で実行する種類特定モデル生成処理では、経路は既に形成されているので、ステップS81を実行せず、ステップS82から処理を開始する。
When the
In the type identification model generation process executed in step S143, since the route has already been formed, the process is started from step S82 without executing step S81.
次に、制御部24は、通信部26に指示して、再学習された種類特定モデルGを判定装置1の通信部14に送信させる(ステップS144)。制御部24は、通信部26が第2の更新ファイルを受信していないと判定した場合(S141:NO)、又は、ステップS144を実行した後、第2の再学習処理を終了する。
Next, the
判定装置1の制御部12は、ステップS132を実行した後、通信部14が、モデル生成装置2の通信部26から種類特定モデルGを受信したか否かを判定する(ステップS133)。制御部12は、種類特定モデルGを受信していないと判定した場合(S133:NO)、ステップS133を再び実行し、通信部14が種類特定モデルGを受信するまで待機する。制御部12は、通信部14が種類特定モデルGを受信したと判定した場合(S133:YES)、記憶部11に記憶されている種類特定モデルGを、通信部14が受信した種類特定モデルGに更新する(ステップS134)。
制御部12は、種類特定モデルGを更新しないと判定した場合(S131:NO)、ステップS134を実行した後、第2の更新処理を終了する。
After executing step S132, the
If the
実施の形態8における判定装置1は、実施の形態6における判定装置1が奏する効果を同様に奏する。更に、実施の形態8における判定装置1に記憶されている種類特定モデルGは、再学習が行われることによって、定期的に改善される。
The
なお、モデル生成装置2の制御部24は、実施の形態7と同様に種類特定モデル生成処理を実行してもよい。この場合においても、第2の再学習処理のステップS143で実行される種類特定モデル生成処理では、ステップS81が省略され、制御部12は、ステップS82から実行する。また、実施の形態8における種類特定モデルGは、実施の形態7における種類特定モデルGと同様であってもよい。この場合、第2の正解ラベルが示すカードの向きは、表側及び裏側の一方、及び、上側及び下側の一方である。特定処理において、制御部12は、第1面画像データの縮小画像データを種類特定モデルGに入力して、カードの種類を運転免許証と特定し、第1面に関するカードの向きを表側及び上側と特定したと仮定する。このとき、制御部12は、第1面画像データの縮小画像データと、運転免許証、表側及び上側を示す第2の正解ラベルとを含む第2の教師データを生成する。
The
なお、実施の形態8における種類特定モデルGの再学習において、判定装置1の制御部12は、通信部14に指示して、種類特定モデルGの代わりに種類特定モデルGのパラメータを示す情報をモデル生成装置2の通信部26に送信してもよい。この場合、モデル生成装置2の制御部24は、通信部26が受信したパラメータに基づいて種類特定モデルGを生成し、生成した種類特定モデルGの再学習を行う。更に、通信部26は、通信部14に、種類特定モデルGの代わりに、種類特定モデルGのパラメータを示す情報を送信してもよい。この場合、判定装置1の制御部12は、種類特定モデルGのパラメータを、受信した情報に基づいて更新する。
In the re-learning of the type-specific model G in the eighth embodiment, the
なお、実施の形態6〜8における認証装置5において、撮像装置40は、スキャナ又はカメラ等である。カメラとして、工業用カメラ、家庭用カメラ、携帯電話機のカメラ又はスマートフォンのカメラ等が挙げられる。
In the
(実施の形態9)
図45は、実施の形態9における認証システムの要部構成を示すブロック図である。認証システムは判定装置1及びユーザ端末6を備える。判定装置1及びユーザ端末6はネットワークNに接続されている。ユーザ端末6は、ユーザによって操作される。ユーザ端末6は、カードの第1面画像データ及び第2面画像データを、ネットワークNを介して判定装置1に送信する。判定装置1は、ユーザ端末6から受信した第1面画像データ及び第2面画像データに基づいて、実施の形態6における判定装置1と同様に、真贋判定処理及び認証処理を実行し、カードの所有者を認証する。
(Embodiment 9)
FIG. 45 is a block diagram showing a main configuration of the authentication system according to the ninth embodiment. The authentication system includes a
以下では、実施の形態9について、実施の形態6と異なる点を説明する。後述する構成を除く他の構成については、実施の形態6と共通している。このため、実施の形態6と共通する構成部には実施の形態6と同一の参照符号を付してその説明を省略する。 Hereinafter, the differences between the ninth embodiment and the sixth embodiment will be described. Other configurations other than the configurations described later are common to the sixth embodiment. Therefore, the same reference reference numerals as those in the sixth embodiment are assigned to the components common to the sixth embodiment, and the description thereof will be omitted.
判定装置1は、記憶部11、制御部12及び通信部17を備える。これらは内部バス13に接続されている。
通信部17は、ユーザ端末6からカードの第1面及び第2面の画像データを受信する。受信した2つの画像データは、制御部12によって取得される。通信部17は、更に、制御部12の指示に従って、特定不可情報、対象外情報、読み取り不可情報及び結果情報をユーザ端末6に送信する。
The
The
実施の形態9における真贋判定処理及び認証処理それぞれは、実施の形態6における真贋判定処理及び認証処理と同様である。判定装置1の制御部12は、通信部17がユーザ端末6から第1面及び第2面の画像データを受信した場合に、真贋判定処理及び認証処理を順次実行する。実施の形態9における認証処理のステップS125では、制御部12は、顔画像とは異なる個人情報、例えば、氏名、住所又は生年月日等の個人情報に基づいて認証を行う。
Each of the authenticity determination process and the authentication process in the ninth embodiment is the same as the authenticity determination process and the authentication process in the sixth embodiment. When the
実施の形態9における認証処理のステップS126では、通信部17に指示して結果情報をユーザ端末6に送信させる。これにより、例えば、ユーザ端末6が有する図示しないディスプレイに認証結果が表示される。実施の形態9における特定処理のステップS109,S112及び認証処理のステップS124では、通信部17に指示して特定不可情報、対象外情報又は読み取り不可情報をユーザ端末6に送信させる。これにより、例えば、ユーザ端末6が有する図示しないディスプレイに、カードを特定することができなかったこと、カードの種類が対象外カードの種類であること、又は、読み取りを行うことができなかったことが表示される。
In step S126 of the authentication process in the ninth embodiment, the
以上のように構成された実施の形態9における判定装置1は、実施の形態6における判定装置1が奏する効果と同様の効果を奏する。
種類特定モデルGは、実施の形態6と同様にモデル生成装置2によって生成される。
The
The type-specific model G is generated by the
なお、実施の形態9における種類特定モデルGは、実施の形態7における種類特定モデルGであってもよい。この場合、判定装置1の制御部12は、カードの種類及び表裏を特定するとともに、カードの一面が上側及び下側のいずれであるかを特定する。更に、実施の形態9において、実施の形態8と同様に、モデル生成装置2がネットワークNに接続され、モデル生成装置2が判定装置1の記憶部11に記憶されている真贋度推定モデル及び種類特定モデルGの再学習を行ってもよい。
The type-specific model G in the ninth embodiment may be the type-specific model G in the seventh embodiment. In this case, the
なお、実施の形態6〜9において、種類特定モデルGは、出力層がカードの種類及び表裏等の組合せの中で、確率が最も高い組合せを出力する第2の学習済みモデルであってもよい。更に、種類特定モデルGは、カードの表裏が写っている1つの画像に対応する画像データと、カードの種類を示す第2の正解ラベルとを含む第2の教師データを用いて、画像データとカードの種類との関係を学習した第2の学習済みモデルであってもよい。この場合、種類特定モデルGとして算出される算出結果では、種類に係る複数の確率を示し、判定装置1の制御部12は、特定処理において、カードの種類を特定する。前述したように、第2の教師データの縮小画像データとして、運転免許証を含む複数種類のカードそれぞれの表裏の縮小画像データが用いられる。
In the sixth to ninth embodiments, the type-specific model G may be a second trained model in which the output layer outputs the combination having the highest probability among the combinations of the card type and the front and back sides. .. Further, the type identification model G uses the image data corresponding to one image showing the front and back sides of the card and the second teacher data including the second correct answer label indicating the type of the card to obtain the image data. It may be a second trained model that has learned the relationship with the card type. In this case, the calculation result calculated as the type identification model G shows a plurality of probabilities related to the type, and the
また、種類特定モデルGは、カードではなく、文書の種類を示す第2の正解ラベルを含む第2の教師データを用いて、縮小画像データと文書の種類との関係を学習した第2の学習済みモデルであってもよい。文書として、パスポート、銀行の通帳、生徒手帳、年金手帳、身体障害者手帳又は母子健康手帳等の冊子、及び、契約書等が挙げられる。この場合、種類特定モデルGの出力として算出された算出結果では、種類に係る複数の確率を示し、判定装置1の制御部12は、特定処理において、文書の画像データに基づいて文書の種類を特定する。制御部12は、真贋判定処理において、文書が本物であると判定した場合、認証処理において、特定した種類に対応する読み取りルールに従って、文書の画像データから個人情報を読み取る。文書の画像データは、例えば、撮像装置40によって生成され、撮像装置40から取得される。
Further, the type-specific model G is a second learning in which the relationship between the reduced image data and the document type is learned by using the second teacher data including the second correct answer label indicating the document type instead of the card. It may be a finished model. Documents include passports, bank passbooks, student notebooks, pension notebooks, handicapped person notebooks or maternal and child health notebooks, and contracts. In this case, the calculation result calculated as the output of the type identification model G indicates a plurality of probabilities related to the type, and the
また、第2の教師データに含まれる画像データ、及び、種類特定モデルGに入力される画像データそれぞれは、縮小画像データに限定されず、縮小前の画像データであってもよい。この場合であっても、実施の形態6〜9における判定装置1及びモデル生成装置2は、前述した効果の中で縮小によって得られる効果を除く他の効果を同様に奏する。この構成では、例えば、個人情報を削除した画像データを第2の教師データの画像データとして用いてもよい。また、縮小前の画像データにおいて、個人情報の変更又は削除が行われた画像データ、又は、縮小前の画像データにノイズを追加した画像データを第2の教師データの画像データとして用いてもよい。
更に、実施の形態1〜9における判定装置1に、モデル生成装置2が行う真贋度推定モデルの生成機能を持たせてもよい。実施の形態6〜9における判定装置1に、モデル生成装置2が行う種類特定モデルGの生成機能を持たせてもよい。
Further, the image data included in the second teacher data and the image data input to the type-specific model G are not limited to the reduced image data, and may be the image data before reduction. Even in this case, the
Further, the
本開示に係る特定装置は、カードの画像データを取得する取得部と、運転免許証を含む複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを用いて、画像データとカードの種類及び向きとの関係を学習した第2の学習済みモデルと、前記取得部が取得した画像データを前記第2の学習済みモデルに入力し、前記第2の学習済みモデルからの出力に基づいて、カードの種類及び向きを特定する特定部とを備える。
判定装置1が特定装置として機能する。制御部12が特定部及び取得部として機能する。
The specific device according to the present disclosure includes a second acquisition unit that acquires image data of the card, image data of a plurality of types of cards including a driver's license, and a second correct answer label indicating the type and orientation of the card. The second trained model in which the relationship between the image data and the type and orientation of the card is learned using the teacher data of the above, and the image data acquired by the acquisition unit are input to the second trained model, and the above It includes a specific part that identifies the type and orientation of the card based on the output from the second trained model.
The
本開示に係る特定装置では、前記カードの向きは、表裏、又は、表裏及び上下である。 In the specific device according to the present disclosure, the orientation of the card is front and back, front and back, and up and down.
本開示に係る特定装置では、前記取得部は、カード2面の2つの画像データを取得し、前記特定部は、前記取得部が取得した2つの画像データを前記第2の学習済みモデルに入力する。 In the specific device according to the present disclosure, the acquisition unit acquires two image data of two cards, and the specific unit inputs the two image data acquired by the acquisition unit into the second trained model. To do.
本開示に係る特定装置は、前記取得部が取得した画像データを縮小する縮小部を備え、前記特定部は、前記縮小部が縮小した画像データを前記第2の学習済みモデルに入力する。
制御部12が縮小部としても機能する。
The specific device according to the present disclosure includes a reduction unit that reduces the image data acquired by the acquisition unit, and the specific unit inputs the image data reduced by the reduction unit into the second learned model.
The
本開示に係る特定装置は、前記特定部が特定したカードの種類に対応するカードの読み取りルールに従い、カード上の個人情報を読み取る読み取り部を備える。
制御部12が読み取り部として機能する。
The specific device according to the present disclosure includes a reading unit that reads personal information on the card in accordance with a card reading rule corresponding to the type of card specified by the specific unit.
The
本開示に係る特定装置は、前記読み取り部により前記カード上の個人情報を読み取ることができない場合、カードの特定に成功したもののカードの読み取りができなかったことを示す第1情報を出力する第1情報出力部を備える。
読み取り不可情報が第1情報に相当する。出力部16又は通信部17が第1情報出力部として機能する。
When the specific device according to the present disclosure cannot read the personal information on the card by the reading unit, the first information indicating that the card has been successfully identified but the card cannot be read is output. It has an information output unit.
The unreadable information corresponds to the first information. The
本開示に係る特定装置では、前記第2の学習済みモデルは、カードの種類及び向きの分類の確からしさを示す確率を出力する。本開示に係る特定装置は、出力された前記確率の分布が所定基準を満たさない場合、カードの特定ができなかったことを示す第2情報を出力する第2情報出力部を備える。
特定不可情報が第2情報に相当する。出力部16又は通信部17が第2情報出力部として機能する。
In the specific device according to the present disclosure, the second trained model outputs a probability indicating the certainty of classification of card type and orientation. The specific device according to the present disclosure includes a second information output unit that outputs second information indicating that the card could not be specified when the output distribution of the probabilities does not satisfy a predetermined criterion.
The unspecified information corresponds to the second information. The
本開示に係る特定装置は、前記特定部が特定したカードの種類が、予め設定されている複数の種類とは異なっていた場合、前記特定部が特定したカードの種類が対象外の種類であることを示す第3情報を出力する第3情報出力部を備える。
対象外情報が第3情報に相当する。出力部16又は通信部17が第3情報出力部として機能する。
In the specific device according to the present disclosure, when the type of the card specified by the specific unit is different from the plurality of preset types, the type of the card specified by the specific unit is not the target type. It is provided with a third information output unit that outputs the third information indicating that.
The non-target information corresponds to the third information. The
本開示に係る生成方法では、運転免許証を含む複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを取得し、取得した第2の教師データに基づき、カードの画像データから、カードの種類及び向きを特定する処理に用いられる第2の学習済みモデルを生成する。 In the generation method according to the present disclosure, the image data of a plurality of types of cards including a driver's license and the second teacher data including the second correct answer label indicating the type and orientation of the cards are acquired and acquired second. A second trained model used in the process of specifying the type and orientation of the card is generated from the image data of the card based on the teacher data of.
本開示に係る生成方法では、前記カードの向きは、表裏、又は、表裏及び上下である。 In the generation method according to the present disclosure, the orientation of the card is front and back, or front and back and up and down.
本開示に係る生成方法では、前記複数種類のカードの縮小画像データを取得し、取得した縮小画像データを第2の教師データとして前記第2の学習済みモデルに入力する。 In the generation method according to the present disclosure, the reduced image data of the plurality of types of cards is acquired, and the acquired reduced image data is input to the second trained model as the second teacher data.
本開示に係る生成方法では、前記第2の教師データの画像データに含まれる個人情報を削除又は変更した削除変更画像データを取得し、取得した削除変更画像データを第2の教師データとして前記第2の学習済みモデルの入力に含める。 In the generation method according to the present disclosure, the deleted modified image data in which the personal information included in the image data of the second teacher data is deleted or changed is acquired, and the acquired deleted modified image data is used as the second teacher data. Include in the input of the trained model of 2.
本開示に係る生成方法では、前記第2の教師データのカードの画像データにノイズを追加した追加画像データを取得し、取得した追加画像データを第2の教師データとして前記第2の学習済みモデルの入力に含める。 In the generation method according to the present disclosure, additional image data in which noise is added to the image data of the card of the second teacher data is acquired, and the acquired additional image data is used as the second teacher data in the second trained model. Include in the input of.
本開示に係るコンピュータプログラムでは、コンピュータに、運転免許証を含む複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを取得し、取得した第2の教師データに基づき、カードの画像データから、カードの種類及び向きを特定する処理に用いられる第2の学習済みモデルを生成する処理を実行させる。 In the computer program according to the present disclosure, the computer acquires and acquires the image data of a plurality of types of cards including a driver's license and the second teacher data including the second correct answer label indicating the type and orientation of the card. Based on the second teacher data, a process of generating a second trained model used for a process of specifying the type and orientation of the card is executed from the image data of the card.
本開示に係る第2の学習済みモデルは、運転免許証を含む複数種類のカードの画像データが入力される入力層と、前記複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データに基づき、画像データと、カードの種類及び向きとの関係を学習した中間層と、画像データに係るカードの種類及び向きの分類の確からしさを示す確率を出力する出力層とを備え、前記入力層に入力されたカードの画像データに基づいて前記中間層で演算を行い、前記入力層に入力された画像データに係るカードの種類及び向きの分類の確からしさを示す確率を前記出力層から出力するよう、コンピュータを機能させる。 The second learned model according to the present disclosure is an input layer in which image data of a plurality of types of cards including a driver's license are input, image data of the plurality of types of cards, and a second indicating the type and orientation of the cards. Based on the second teacher data including the correct answer label of 2, the intermediate layer that learned the relationship between the image data and the card type and orientation, and the certainty of the classification of the card type and orientation related to the image data are shown. It is provided with an output layer that outputs a probability, performs calculations in the intermediate layer based on the image data of the card input to the input layer, and classifies the type and orientation of the card related to the image data input to the input layer. The computer is made to function so as to output the probability indicating the certainty of the above from the output layer.
実施の形態1〜9で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
開示された実施の形態1〜9はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
The technical features (constituent requirements) described in the first to ninth embodiments can be combined with each other, and by combining them, a new technical feature can be formed.
The disclosed embodiments 1-9 should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1 判定装置(情報処理装置)
3 撮像装置
12 制御部(取得部、抽出部、入力部、算出部)
31 照射器
C カード
G 種類特定モデル(第2の学習済みモデル)
P1 コンピュータプログラム
R 真贋度推定モデル(学習済みモデル)
R1,R10,R11 第1真贋度推定モデル(学習済みモデル)
R2,R20,R21 第2真贋度推定モデル(学習済みモデル)
1 Judgment device (information processing device)
3
31 Irradiator C card G type specific model (second trained model)
P1 Computer program R Authenticity estimation model (learned model)
R1, R10, R11 1st authenticity estimation model (learned model)
R2, R20, R21 2nd authenticity estimation model (learned model)
Claims (12)
取得した画像データの一部分である部分画像データを抽出し、
抽出した部分画像データを、カードの画像データの一部分である部分画像データと、カードの真贋度との関係を学習した学習済みモデルに入力し、
前記真贋度を算出する
処理をコンピュータに実行させるコンピュータプログラム。 Get the image data of the card,
Extract the partial image data that is a part of the acquired image data,
The extracted partial image data is input to the trained model that has learned the relationship between the partial image data that is a part of the image data of the card and the authenticity of the card.
A computer program that causes a computer to execute the process of calculating the authenticity.
抽出した複数の部分画像データを前記学習済みモデルに各別に入力し、
算出した複数の真贋度に基づいてカードが本物であるか否かを判定する
処理をコンピュータに実行させる請求項1に記載のコンピュータプログラム。 Extract multiple partial image data from the acquired image data and
A plurality of extracted partial image data are input to the trained model separately,
The computer program according to claim 1, wherein the computer executes a process of determining whether or not the card is genuine based on a plurality of calculated authenticities.
抽出した複数の部分画像データを、抽出した部分画像データの種類と種類が同じである複数の部分画像データを用いて前記関係を学習した学習済みモデルに各別に入力し、
算出した複数の真贋度に基づいてカードが本物であるか否かを判定する
処理をコンピュータに実行させる請求項1又は請求項2に記載のコンピュータプログラム。 From the acquired image data, multiple partial image data of the same type are extracted, and
The extracted plurality of partial image data is input separately to the trained model in which the relationship is learned using the plurality of partial image data of the same type and type of the extracted partial image data.
The computer program according to claim 1 or 2, wherein a computer is made to execute a process of determining whether or not the card is genuine based on a plurality of calculated authenticities.
処理をコンピュータに実行させる請求項3に記載のコンピュータプログラム。 According to claim 3, a computer is made to execute a process of extracting a plurality of partial image data corresponding to a line portion on a card or a plurality of partial image data corresponding to a pattern portion of a diagonal line on a card from the acquired image data. The listed computer program.
処理をコンピュータに実行させる請求項3に記載のコンピュータプログラム。 From the acquired image data, both or one of the partial image data of the portion entirely filled with two colors on the card and the partial image data of the portion entirely filled with one color on the card can be obtained. The computer program according to claim 3, wherein a computer executes a process of extracting a plurality of partial image data including the data.
取得した画像データから複数種類の部分画像データを抽出し、
抽出した複数種類の部分画像データそれぞれを、種類に対応する学習済みモデルに入力し、
算出した複数の真贋度に基づいてカードが本物であるか否かを判定する
処理をコンピュータに実行させる請求項1から請求項5のいずれか1つに記載のコンピュータプログラム。 There are multiple types of trained models that support multiple types of partial image data and have learned the above relationships.
Extract multiple types of partial image data from the acquired image data
Input each of the extracted multiple types of partial image data into the trained model corresponding to the type,
The computer program according to any one of claims 1 to 5, which causes a computer to execute a process of determining whether or not a card is genuine based on a plurality of calculated authenticities.
取得した画像データから、カード上にて、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の部分画像データを抽出する
処理をコンピュータに実行させる請求項1から請求項6のいずれか1つに記載のコンピュータプログラム。 Acquire the image data generated by taking a picture of the card illuminated by the irradiator,
Any of claims 1 to 6 that causes a computer to execute a process of extracting partial image data of a portion where an embossed shadow, a hologram picture, or a watermark picture appears on the card from the acquired image data. The computer program described in one.
カードの複数の種類に対応し、前記関係を学習した複数種類の学習済みモデルから、特定した種類に対応する学習済みモデルを選択し、
抽出した部分画像データを、選択した学習済みモデルに入力する
処理をコンピュータに実行させる請求項1から請求項7のいずれか1つに記載のコンピュータプログラム。 Identify the type of card based on the acquired image data,
A trained model corresponding to a specific type is selected from a plurality of trained models that correspond to a plurality of types of cards and have learned the above relationship.
The computer program according to any one of claims 1 to 7, wherein a computer executes a process of inputting the extracted partial image data into the selected trained model.
前記第2の学習済みモデルの出力に基づいてカードの種類を特定する
処理をコンピュータに実行させる請求項8に記載のコンピュータプログラム。 The acquired image data is input to the second trained model in which the relationship between the card image data and the card type is learned.
The computer program according to claim 8, wherein the computer executes a process of specifying the type of the card based on the output of the second trained model.
前記取得部が取得した画像データの一部分である部分画像データを抽出する抽出部と、
前記抽出部が抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力する入力部と、
前記真贋度を算出する算出部と
を備える情報処理装置。 The acquisition unit that acquires the image data of the card,
An extraction unit that extracts partial image data that is a part of the image data acquired by the acquisition unit, and an extraction unit.
An input unit that inputs the partial image data extracted by the extraction unit into the trained model that has learned the relationship between the partial data that is a part of the image data of the card and the authenticity of the card.
An information processing device including a calculation unit for calculating the authenticity.
取得した画像データの一部分である部分画像データを抽出し、
抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力し、
前記真贋度を算出する
処理をコンピュータが実行する情報処理方法。 Get the image data of the card,
Extract the partial image data that is a part of the acquired image data,
The extracted partial image data is input to the trained model that has learned the relationship between the partial data that is a part of the image data of the card and the authenticity of the card.
An information processing method in which a computer executes the process of calculating the authenticity.
取得した教師データに基づき、部分画像データと、カードの真贋度との関係を学習した学習済みモデルを生成する
処理をコンピュータが実行する学習済みモデルの生成方法。 Acquire the teacher data in which the partial image data, which is a part of the image data of the card, is associated with the correct answer label indicating whether the card is genuine or not.
A method of generating a trained model in which a computer executes a process of generating a trained model that learns the relationship between partial image data and card authenticity based on the acquired teacher data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019143097A JP2021026450A (en) | 2019-08-02 | 2019-08-02 | Computer program, information processing device, information processing method and generation method of learned model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019143097A JP2021026450A (en) | 2019-08-02 | 2019-08-02 | Computer program, information processing device, information processing method and generation method of learned model |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021026450A true JP2021026450A (en) | 2021-02-22 |
Family
ID=74663019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019143097A Pending JP2021026450A (en) | 2019-08-02 | 2019-08-02 | Computer program, information processing device, information processing method and generation method of learned model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021026450A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023189734A1 (en) * | 2022-03-28 | 2023-10-05 | 富士フイルム富山化学株式会社 | Object identification device, object identification method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10255118A (en) * | 1997-03-11 | 1998-09-25 | Oki Electric Ind Co Ltd | Device for judging card authenticity |
JPH1166273A (en) * | 1997-08-14 | 1999-03-09 | Fujitsu Kiden Ltd | Authenticity, descrimination device for driver's license |
JP2001322381A (en) * | 2000-05-17 | 2001-11-20 | Topcon Corp | Card authenticity deciding system |
JP2011034535A (en) * | 2009-08-06 | 2011-02-17 | Toshiba Corp | Apparatus for appraising genuineness of personal identification document |
JP2019003421A (en) * | 2017-06-15 | 2019-01-10 | テンソル・コンサルティング株式会社 | Authenticity determination system, method and program for identity confirmation document |
JP2019117549A (en) * | 2017-12-27 | 2019-07-18 | 大日本印刷株式会社 | Authenticity determination device, reader, authenticity determination system, and program |
-
2019
- 2019-08-02 JP JP2019143097A patent/JP2021026450A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10255118A (en) * | 1997-03-11 | 1998-09-25 | Oki Electric Ind Co Ltd | Device for judging card authenticity |
JPH1166273A (en) * | 1997-08-14 | 1999-03-09 | Fujitsu Kiden Ltd | Authenticity, descrimination device for driver's license |
JP2001322381A (en) * | 2000-05-17 | 2001-11-20 | Topcon Corp | Card authenticity deciding system |
JP2011034535A (en) * | 2009-08-06 | 2011-02-17 | Toshiba Corp | Apparatus for appraising genuineness of personal identification document |
JP2019003421A (en) * | 2017-06-15 | 2019-01-10 | テンソル・コンサルティング株式会社 | Authenticity determination system, method and program for identity confirmation document |
JP2019117549A (en) * | 2017-12-27 | 2019-07-18 | 大日本印刷株式会社 | Authenticity determination device, reader, authenticity determination system, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023189734A1 (en) * | 2022-03-28 | 2023-10-05 | 富士フイルム富山化学株式会社 | Object identification device, object identification method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102226619B1 (en) | Certificate and Identity Verification Method and Device | |
CN108229120B (en) | Face unlocking method, face unlocking information registration device, face unlocking information registration equipment, face unlocking program and face unlocking information registration medium | |
US9483629B2 (en) | Document authentication based on expected wear | |
JP6098759B2 (en) | IDENTIFICATION DEVICE, IDENTIFICATION METHOD, IDENTIFICATION PROGRAM, AND COMPUTER-READABLE MEDIUM CONTAINING IDENTIFICATION PROGRAM | |
US20110122452A1 (en) | Visible authentication patterns for printed document | |
KR20200118842A (en) | Identity authentication method and device, electronic device and storage medium | |
US20140055824A1 (en) | Method and system for authenticating a secure document | |
CN205665721U (en) | Present label that machine readable vision is showed | |
EA027635B1 (en) | Security element, printed matter comprising said security element and method to inspect authenticity of said printed matter | |
WO2021189850A1 (en) | Certificate authentication method, apparatus and device, and readable storage medium | |
KR102502685B1 (en) | Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness | |
JP2021026450A (en) | Computer program, information processing device, information processing method and generation method of learned model | |
KR20160107869A (en) | Smartphone linked counterfeit discrimination apparatus and method | |
KR20080052005A (en) | Imaging apparatus and system for management of the bogus note comprising the same | |
Kang et al. | Camera model identification using a deep network and a reduced edge dataset | |
WO2015022872A1 (en) | Method for automatically determining authenticity of individual article using micro contour shape of printing as identifier | |
BR112020017923A2 (en) | METHOD AND SYSTEM OF AUTOMATIC VERIFICATION OF THE AUTHENTICITY OF DOCUMENTS | |
CN110008942B (en) | Certificate verification method, device, server and storage medium | |
JP6662484B2 (en) | Identification device, identification method, and computer program | |
JP2020177368A (en) | Authenticity determination apparatus and program | |
CN113159255B (en) | Digital watermark anti-counterfeiting method based on QR code and safety shading | |
CN101256371A (en) | Image forming apparatus | |
CN116802696A (en) | Copy prevention of digital sample images | |
JP2023166847A (en) | Computer program, method for processing information, and information processor | |
WO2022154093A1 (en) | Authenticity verification system and authenticity verification method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231114 |