JP2021026450A - Computer program, information processing device, information processing method and generation method of learned model - Google Patents

Computer program, information processing device, information processing method and generation method of learned model Download PDF

Info

Publication number
JP2021026450A
JP2021026450A JP2019143097A JP2019143097A JP2021026450A JP 2021026450 A JP2021026450 A JP 2021026450A JP 2019143097 A JP2019143097 A JP 2019143097A JP 2019143097 A JP2019143097 A JP 2019143097A JP 2021026450 A JP2021026450 A JP 2021026450A
Authority
JP
Japan
Prior art keywords
image data
card
authenticity
control unit
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019143097A
Other languages
Japanese (ja)
Inventor
悠紀 河村
Yuki Kawamura
悠紀 河村
孝次 稲垣
Koji Inagaki
孝次 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019143097A priority Critical patent/JP2021026450A/en
Publication of JP2021026450A publication Critical patent/JP2021026450A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a computer program which can realize the proper authenticity determination of a card regardless of a printer used in the fabrication, and provide an information processing device, information processing method and generation method of a learned model which realizes the proper authenticity determination.SOLUTION: A processing element of a control unit of a determination device executes authenticity determination processing by executing a computer program. In the authenticity determination processing, the control unit acquires image data of a card, extracts partial image data being a portion of the acquired image data, inputs the extracted partial image data to an authenticity level estimation model, and calculates the authenticity level of the card as the output of the authenticity level estimation model. The authenticity level estimation model is a learned model that has learned a relation between the partial image data being a portion of the image data of the card and the authenticity level indicating such a possibility that the card is authentic.SELECTED DRAWING: Figure 8

Description

本発明は、コンピュータプログラム、情報処理装置、情報処理方法及び学習済みモデルの生成方法に関する。 The present invention relates to a computer program, an information processing apparatus, an information processing method, and a method for generating a trained model.

画像データに基づいて、画像データの画像に写っているカード、例えば、身分証明書が本物であるか否かを判定する判定装置(例えば、特許文献1を参照)が提案されている。面積階調方式のプリンタを用いて印刷を行うことによって、偽造された偽造カードを作成した場合、本物のカードにおいて1色で塗り潰された部分に対応する偽造カードの部分では、色むらが発生する。特許文献1に記載の判定装置は、画像データの画像において色むらが発生している場合、画像データの画像に写っているカードは偽造カードであると判定する。 Based on the image data, a card (for example, see Patent Document 1) for determining whether or not the card, for example, the identification card shown in the image of the image data is genuine has been proposed. When a counterfeit card is created by printing using an area gradation printer, color unevenness occurs in the part of the counterfeit card corresponding to the part filled with one color in the real card. .. When the image of the image data has color unevenness, the determination device described in Patent Document 1 determines that the card shown in the image of the image data is a counterfeit card.

特開2017−215739号公報JP-A-2017-215739

しかしながら、特許文献1に記載の判定装置では、面積階調方式のプリンタとは異なるプリンタを用いて作成された偽造カードについては、本物であるか否かの判定、即ち、真贋判定を行うことができない可能性がある。 However, in the determination device described in Patent Document 1, it is possible to determine whether or not a counterfeit card created by using a printer different from the area gradation type printer is genuine, that is, to determine the authenticity. It may not be possible.

本発明は斯かる事情に鑑みてなされたものであり、その目的とするところは、偽造に用いるプリンタに無関係にカードの真贋判定を適切に行うことができるコンピュータプログラム、情報処理装置及び情報処理方法と、適切な真贋判定を実現する学習済みモデルの生成方法とを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is a computer program, an information processing device, and an information processing method capable of appropriately determining the authenticity of a card regardless of the printer used for counterfeiting. And to provide a method of generating a trained model that realizes an appropriate authenticity judgment.

本発明の一態様に係るコンピュータプログラムは、カードの画像データを取得し、取得した画像データの一部分である部分画像データを抽出し、抽出した部分画像データを、カードの画像データの一部分である部分画像データと、カードの真贋度との関係を学習した学習済みモデルに入力し、前記真贋度を算出する処理をコンピュータに実行させる。 The computer program according to one aspect of the present invention acquires the image data of the card, extracts the partial image data which is a part of the acquired image data, and uses the extracted partial image data as a part of the image data of the card. The relationship between the image data and the authenticity of the card is input to the learned model, and the computer is made to execute the process of calculating the authenticity.

本発明の一態様に係る情報処理装置は、カードの画像データを取得する取得部と、前記取得部が取得した画像データの一部分である部分画像データを抽出する抽出部と、前記抽出部が抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力する入力部と、前記真贋度を算出する算出部とを備える。 The information processing apparatus according to one aspect of the present invention includes an acquisition unit that acquires image data of a card, an extraction unit that extracts partial image data that is a part of the image data acquired by the acquisition unit, and an extraction unit that extracts the partial image data. It includes an input unit for inputting the partial image data to the trained model in which the relationship between the partial data which is a part of the image data of the card and the authenticity of the card is learned, and a calculation unit for calculating the authenticity.

本発明の一態様に係る情報処理方法では、カードの画像データを取得し、取得した画像データの一部分である部分画像データを抽出し、抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力し、前記真贋度を算出する処理をコンピュータが実行する。 In the information processing method according to one aspect of the present invention, the image data of the card is acquired, the partial image data which is a part of the acquired image data is extracted, and the extracted partial image data is a part of the image data of the card. The computer executes a process of inputting the relationship between the partial data and the authenticity of the card into the trained model that has learned the relationship and calculating the authenticity.

本発明の一態様に係る学習済みモデルでは、カードの画像データの一部分である部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている教師データを取得し、取得した教師データに基づき、部分画像データと、カードの真贋度との関係を学習した学習済みモデルを生成する処理をコンピュータが実行する。 In the trained model according to one aspect of the present invention, the teacher data in which the partial image data which is a part of the image data of the card is associated with the correct answer label indicating whether or not the card is genuine is acquired and acquired. Based on the teacher data, the computer executes a process to generate a trained model that learns the relationship between the partial image data and the authenticity of the card.

上記のコンピュータプログラム、情報処理装置及び情報処理方法の態様によれば、偽造に用いるプリンタに無関係にカードの真贋判定を適切に行うことができる。
上記の学習済みモデルの生成方法によれば、適切な真贋判定を実現する学習済みモデルを生成することができる。
According to the above-mentioned computer program, information processing device, and information processing method, the authenticity of the card can be appropriately determined regardless of the printer used for counterfeiting.
According to the above-mentioned method for generating a trained model, it is possible to generate a trained model that realizes an appropriate authenticity determination.

実施の形態1における判定装置の概要の説明図である。It is explanatory drawing of the outline of the determination apparatus in Embodiment 1. FIG. 部分画像データの説明図である。It is explanatory drawing of a partial image data. 真贋度推定モデルの概略図である。It is a schematic diagram of an authenticity estimation model. モデル生成装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of a model generator. 真贋度推定モデル生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the authenticity estimation model generation processing. 真贋度推定モデル生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the authenticity estimation model generation processing. 判定装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the determination device. 真贋判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the authenticity determination processing. 真贋判定の説明図である。It is explanatory drawing of the authenticity determination. 部分画像データの他例の説明図である。It is explanatory drawing of another example of a partial image data. 部分画像データの更なる他例の説明図である。It is explanatory drawing of another example of a partial image data. 実施の形態2における判定装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the determination device in Embodiment 2. 第1部分画像データ及び第2部分画像データの説明図である。It is explanatory drawing of the 1st partial image data and the 2nd partial image data. 真贋判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the authenticity determination processing. 真贋判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the authenticity determination processing. 実施の形態3における判定装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the determination apparatus in Embodiment 3. モデル選択テーブルを示す図表である。It is a figure which shows the model selection table. 真贋判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the authenticity determination processing. 実施の形態4における判定装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the determination device in Embodiment 4. カードの撮影の説明図である。It is explanatory drawing of the photograph of a card. 実施の形態5における再学習システムの要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the re-learning system in Embodiment 5. 判定装置及びモデル生成装置が行う処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process performed by the determination apparatus and the model generation apparatus. 実施の形態6における認証装置の概要の説明図である。It is explanatory drawing of the outline of the authentication apparatus in Embodiment 6. 認証装置の外観図である。It is an external view of the authentication device. 対象カードの例示図である。It is an example diagram of the target card. 種類特定モデルの概略図である。It is a schematic diagram of a type identification model. 縮小画像データの説明図である。It is explanatory drawing of the reduced image data. モデル生成装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of a model generator. 第2の教師データに含まれる縮小画像データの説明図である。It is explanatory drawing of the reduced image data included in the 2nd teacher data. 種類特定モデル生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the type specific model generation processing. 種類特定モデル生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the type specific model generation processing. 認証装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of an authentication apparatus. 記憶部に記憶されているデータの説明図である。It is explanatory drawing of the data stored in the storage part. 認証用テーブルを示す図表である。It is a figure which shows the table for authentication. 読み取りルールデータベースの内容を示す図表である。It is a chart which shows the contents of a read rule database. 特定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a specific process. 特定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a specific process. 認証処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an authentication process. 実施の形態7におけるカードの上下の説明図である。It is explanatory drawing of the top and bottom of the card in Embodiment 7. 種類特定モデルの概略図である。It is a schematic diagram of a type identification model. 実施の形態8における再学習システムの概略図である。It is the schematic of the relearning system in Embodiment 8. 認証装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of an authentication apparatus. モデル生成装置の要部構成を示すブロック図である。It is a block diagram which shows the main part structure of a model generator. 認証機及びモデル生成装置が行う処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process performed by the authentication machine and the model generator. 実施の形態9における認証システムの要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the authentication system in Embodiment 9.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、実施の形態1における判定装置1の概要の説明図である。判定装置1には、カードが写っている画像の画像データが入力される。カードとして、運転免許証、マイナンバーカード、マイナンバー通知カード、住民基本台帳カード、特別永住者証明書、在留カード、パスポートカード又はソーシャルセキュリティカード等が挙げられる。また、判定装置1には真贋度推定モデルRが記憶されている。真贋度推定モデルRは、カードの画像データの一部分である部分画像データと、カードが本物である確率を示す真贋度との関係を学習した学習済みモデルである。
Hereinafter, the present invention will be described in detail with reference to the drawings showing the embodiments thereof.
(Embodiment 1)
FIG. 1 is an explanatory diagram of an outline of the determination device 1 according to the first embodiment. The image data of the image in which the card is shown is input to the determination device 1. Examples of the card include a driver's license, an Individual Number Card, an Individual Number Notification Card, a Basic Resident Register Card, a Special Permanent Resident Certificate, a Residence Card, a Passport Card, or a Social Security Card. Further, the authenticity estimation model R is stored in the determination device 1. The authenticity estimation model R is a learned model that has learned the relationship between the partial image data that is a part of the image data of the card and the authenticity that indicates the probability that the card is genuine.

判定装置1は、カードの画像データが入力された場合、入力された画像データから、複数の部分画像データを抽出する。判定装置1は、抽出した部分画像データを、真贋度推定モデルRに入力し、真贋度推定モデルRの出力として真贋度を算出する。判定装置1は、抽出した複数の部分画像データを各別に真贋度推定モデルRに入力し、複数の真贋度を算出する。判定装置1は、算出した複数の真贋度に基づいて、入力された画像データに写っているカードが本物であるか否かを判定する。判定装置1は、カードが本物であると判定した場合、例えば、入力された画像データから、カードに記載されている個人情報を読み取り、読み取った個人情報に基づくユーザの認証、又は、読み取った個人情報の登録等を行う。モデル生成装置2は、真贋度推定モデルRを生成する。判定装置1は情報処理装置として機能する。 When the image data of the card is input, the determination device 1 extracts a plurality of partial image data from the input image data. The determination device 1 inputs the extracted partial image data into the authenticity estimation model R, and calculates the authenticity as the output of the authenticity estimation model R. The determination device 1 inputs the extracted plurality of partial image data into the authenticity estimation model R separately, and calculates a plurality of authenticity. The determination device 1 determines whether or not the card shown in the input image data is genuine based on the calculated authenticity. When the determination device 1 determines that the card is genuine, for example, it reads the personal information written on the card from the input image data, authenticates the user based on the read personal information, or reads the individual. Register information, etc. The model generation device 2 generates an authenticity estimation model R. The determination device 1 functions as an information processing device.

図2は部分画像データの説明図である。図2には、カードの画像が示されている。ここでは、カードの一例として、運転免許証が示されている。縦線のハッチングは、1色で塗り潰された部分を示し、斜線のハッチングは、斜線の模様部分を示す。塗り潰しに用いられる色は白色とは異なる色である。縦線のハッチング以外の部分の背景色は白色である。図2以外の図面においても、縦ハッチング及び斜線のハッチングは同様に定義される。 FIG. 2 is an explanatory diagram of partial image data. FIG. 2 shows an image of the card. Here, a driver's license is shown as an example of a card. Vertical line hatches indicate parts filled with one color, and diagonal line hatches indicate parts with diagonal lines. The color used for filling is different from white. The background color of the part other than the hatching of the vertical line is white. Vertical hatching and diagonal hatching are similarly defined in drawings other than FIG.

図2では、4つの部分画像データに対応する4つの部分画像B10,B11,B12,B13が示されている。4つの部分画像B10,B11,B12,B13それぞれは破線で囲まれている。部分画像B10,B12,B13それぞれは、カード上の曲線部分の画像である。部分画像B11は、カード上の直線部分の画像である。
なお、部分画像データの数は、4に限定されず、2、3又は5以上であってもよい。また、部分画像データの画像は、直線部分又は曲線部分の画像に限定されない。
In FIG. 2, four partial images B10, B11, B12, and B13 corresponding to the four partial image data are shown. Each of the four partial images B10, B11, B12, and B13 is surrounded by a broken line. Each of the partial images B10, B12, and B13 is an image of a curved portion on the card. The partial image B11 is an image of a straight line portion on the card.
The number of partial image data is not limited to 4, and may be 2, 3, or 5 or more. Further, the image of the partial image data is not limited to the image of the straight line portion or the curved portion.

判定装置1には、種類が共通するカード、例えば、運転免許証の画像データが入力される。判定装置1には、画像データの画像における複数の座標を示す座標データが記憶されている。座標データが示す複数の座標は、カードの画像において、複数の部分画像データに対応する複数の部分画像の場所を示す。部分画像が矩形状をなす場合、部分画像の場所は、例えば、部分画像の4つの角の座標によって示される。部分画像が矩形状をなし、かつ、部分画像の縦及び横の長さが固定されている場合、座標データの座標は、例えば、部分画像の左上、左下、右上又は右下の角の位置を示す。この場合、1つの座標で1つの部分画像の場所が示される。 A card of a common type, for example, image data of a driver's license is input to the determination device 1. The determination device 1 stores coordinate data indicating a plurality of coordinates in the image of the image data. The plurality of coordinates indicated by the coordinate data indicate the locations of the plurality of partial images corresponding to the plurality of partial image data in the image of the card. When the partial image has a rectangular shape, the location of the partial image is indicated by, for example, the coordinates of the four corners of the partial image. When the partial image has a rectangular shape and the vertical and horizontal lengths of the partial image are fixed, the coordinates of the coordinate data are, for example, the positions of the upper left, lower left, upper right, or lower right corners of the partial image. Shown. In this case, one coordinate indicates the location of one partial image.

図3は真贋度推定モデルRの概略図である。真贋度推定モデルRは、深層学習を含む機械学習の学習済みモデルであり、例えば、CNN(Convolutional Neural Network)である。真贋度推定モデルRは、入力層、複数の中間層及び出力層を有する。図3には、中間層の数が2である例が示されている。なお、中間層の数は3以上であってもよい。 FIG. 3 is a schematic diagram of the authenticity estimation model R. The authenticity estimation model R is a trained model of machine learning including deep learning, and is, for example, a CNN (Convolutional Neural Network). The authenticity estimation model R has an input layer, a plurality of intermediate layers, and an output layer. FIG. 3 shows an example in which the number of intermediate layers is 2. The number of intermediate layers may be 3 or more.

入力層、中間層及び出力層それぞれは、一又は複数のニューロンを有する。各層のニューロンは、前後の層に存在するニューロンと一方向に所望の重み及びバイアスで結合されている。入力層のニューロンの数と同数の成分を有するベクトルが、真贋度推定モデルRに、入力データとして入力される。真贋度推定モデルRの入力層には、例えば、部分画像データを構成する複数の画素値が入力される。 Each of the input layer, middle layer and output layer has one or more neurons. The neurons in each layer are unidirectionally connected to the neurons in the previous and next layers with the desired weight and bias. A vector having the same number of components as the number of neurons in the input layer is input to the authenticity estimation model R as input data. For example, a plurality of pixel values constituting partial image data are input to the input layer of the authenticity estimation model R.

なお、複数の中間層に畳み込みを行う層が含まれていてもよい。この層では、入力されたデータに、畳み込みフィルタを含む適宜のフィルタを適用し、フィルタを適用した後に得られる複数のデータを次の層、例えば、プーイング層に出力する。 In addition, a layer for convolution may be included in a plurality of intermediate layers. In this layer, an appropriate filter including a convolution filter is applied to the input data, and a plurality of data obtained after applying the filter is output to the next layer, for example, the pouring layer.

入力層の各ニューロンに入力された入力値は、最初の中間層に入力される。この中間層において、重み及びバイアスを含む活性化関数を用いて出力が算出される。算出された値が次の中間層に入力される。以下同様にして、出力層の出力が算出されるまで次々と後の層に伝達される。なお、ニューロン間を結合する重み及びバイアス等のパラメータは、誤差逆伝播法を用いて学習される。 The input values input to each neuron in the input layer are input to the first intermediate layer. In this intermediate layer, the output is calculated using an activation function that includes weights and biases. The calculated value is input to the next intermediate layer. In the same manner below, the output of the output layer is transmitted to the subsequent layers one after another until the output is calculated. Parameters such as weights and biases that connect neurons are learned using the backpropagation method.

モデル生成装置2は、部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている教師データを用いて機械学習を行い、真贋度推定モデルRを生成する。正解ラベルは1つの情報である。機械学習では、モデル生成装置2は、中間層での算出に用いるパラメータを最適化する。 The model generation device 2 performs machine learning using the teacher data in which the partial image data is associated with the correct answer label indicating whether or not the card is genuine, and generates the authenticity estimation model R. The correct label is one piece of information. In machine learning, the model generator 2 optimizes the parameters used for the calculation in the intermediate layer.

真贋度推定モデルRの出力層は、入力層に入力された部分画像データの画像に写っているカードが本物である確率、即ち、真贋度と、このカードが偽物である確率とを出力する。確率は、ゼロ以上、かつ、1以下の実数で表される。出力層では、ソフトマックス関数が用いられ、2つの確率の合計が1、即ち、100%となるように調整される。カードが偽物である確率を1から減算することによって、カードが本物である確率が算出されるので、カードが偽物である確率も真贋度を示す。 The output layer of the authenticity estimation model R outputs the probability that the card shown in the image of the partial image data input to the input layer is genuine, that is, the authenticity and the probability that this card is fake. The probability is represented by a real number greater than or equal to zero and less than or equal to 1. In the output layer, a softmax function is used and adjusted so that the sum of the two probabilities is 1, i.e. 100%. By subtracting the probability that the card is fake from 1, the probability that the card is genuine is calculated, so the probability that the card is fake also indicates the authenticity.

図4はモデル生成装置2の要部構成を示すブロック図である。モデル生成装置2は、入力部20、操作部21、一時記憶部22、記憶部23及び制御部24を備える。これらは、内部バス25に接続されている。 FIG. 4 is a block diagram showing a main configuration of the model generator 2. The model generation device 2 includes an input unit 20, an operation unit 21, a temporary storage unit 22, a storage unit 23, and a control unit 24. These are connected to the internal bus 25.

入力部20には、複数の教師データと、真贋度推定モデルRを評価するための第1評価用データ及び第2評価用データとが入力される。制御部24は、入力部20に入力された教師データ、第1評価用データ及び第2評価用データを取得する。第1評価用データ及び第2評価用データそれぞれは、教師データと同様に、部分画像データと、部分画像データの画像に写っているカードが本物であるか否かを示す正解ラベルとを含む。 A plurality of teacher data and first evaluation data and second evaluation data for evaluating the authenticity estimation model R are input to the input unit 20. The control unit 24 acquires the teacher data, the first evaluation data, and the second evaluation data input to the input unit 20. Each of the first evaluation data and the second evaluation data includes the partial image data and the correct answer label indicating whether or not the card shown in the image of the partial image data is genuine, like the teacher data.

教師データ、第1評価用データ及び第2評価用データに含まれる部分画像データの部分画像は、種類が共通するカードの画像において、判定装置1に記憶される座標データが示す複数の場所の1つに対応する部分画像である。 The partial image of the partial image data included in the teacher data, the first evaluation data, and the second evaluation data is one of a plurality of locations indicated by the coordinate data stored in the determination device 1 in the image of the card having the same type. It is a partial image corresponding to one.

操作部21は、キーボード又はマウス等の入力インタフェースを有する。ユーザは入力インタフェースを操作する。操作部21は、入力インタフェースにおいて行われた操作を制御部24に通知する。
一時記憶部22は例えば、RAM(Random Access Memory)である。一時記憶部22には、データが一時的に記憶されている。一時記憶部22への電力供給が停止した場合、一時記憶部22に記憶されているデータは消去される。
The operation unit 21 has an input interface such as a keyboard or a mouse. The user operates the input interface. The operation unit 21 notifies the control unit 24 of the operation performed in the input interface.
The temporary storage unit 22 is, for example, a RAM (Random Access Memory). Data is temporarily stored in the temporary storage unit 22. When the power supply to the temporary storage unit 22 is stopped, the data stored in the temporary storage unit 22 is erased.

記憶部23は不揮発性メモリである。記憶部23には、真贋度推定モデルR及びコンピュータプログラムP2が記憶されている。制御部24は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はTPU(Tenser Processing Unit)等の処理素子を有し、算出を行う算出部を兼ねる。制御部24の処理素子(コンピュータ)は、コンピュータプログラムP2を実行することによって、教師データ、第1評価用データ及び第2評価用データを記憶部23に記憶する記憶処理と、真贋度推定モデルRを生成する真贋度推定モデル生成処理とを実行する。 The storage unit 23 is a non-volatile memory. The authenticity estimation model R and the computer program P2 are stored in the storage unit 23. The control unit 24 has a processing element such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a TPU (Tenser Processing Unit), and also serves as a calculation unit for performing calculations. The processing element (computer) of the control unit 24 executes the computer program P2 to store the teacher data, the first evaluation data, and the second evaluation data in the storage unit 23, and the authenticity estimation model R. Executes the authenticity estimation model generation process that generates.

なお、コンピュータプログラムP2は、制御部24が有する処理素子が読み取り可能に記憶した非一時的な記憶媒体A2を用いてモデル生成装置2に提供されてもよい。この場合、図示しない読み出し装置によって記憶媒体A2から読み出されたコンピュータプログラムP2が記憶部23に記憶される。記憶媒体A2は、光ディスク、フレキシブルディスク、磁気ディスク、磁気光ディスク又は半導体メモリ等である。光ディスクは、CD(Compact Disc)−ROM(Read Only Memory)、DVD(Digital Versatile Disc)−ROM、又は、BD(Blu-ray(登録商標) Disc)等である。磁気ディスクは、例えばハードディスクである。また、図示しない通信網に接続されている図示しない外部装置からコンピュータプログラムP2をダウンロードし、ダウンロードしたコンピュータプログラムP2を記憶部23に記憶してもよい。 The computer program P2 may be provided to the model generation device 2 by using the non-temporary storage medium A2 readablely stored by the processing element included in the control unit 24. In this case, the computer program P2 read from the storage medium A2 by a reading device (not shown) is stored in the storage unit 23. The storage medium A2 is an optical disk, a flexible disk, a magnetic disk, a magnetic optical disk, a semiconductor memory, or the like. The optical disk is a CD (Compact Disc) -ROM (Read Only Memory), a DVD (Digital Versatile Disc) -ROM, or a BD (Blu-ray (registered trademark) Disc). The magnetic disk is, for example, a hard disk. Further, the computer program P2 may be downloaded from an external device (not shown) connected to a communication network (not shown), and the downloaded computer program P2 may be stored in the storage unit 23.

制御部24が有する処理素子の数は2以上であってもよい。この場合、複数の処理素子がコンピュータプログラムP2に従って、記憶処理及び真贋度推定モデル生成処理を協同で実行してもよい。 The number of processing elements included in the control unit 24 may be two or more. In this case, a plurality of processing elements may jointly execute the storage process and the authenticity estimation model generation process according to the computer program P2.

図示しない装置から入力部20に複数の教師データ、第1評価用データ及び第2評価用データが入力される。制御部24は、入力部20にこれらのデータが入力された場合、記憶処理を実行する。記憶処理では、制御部24は、入力部20に入力された複数の教師データ、第1評価用データ及び第2評価用データを取得し、取得したこれらのデータを記憶部23に記憶する。その後、制御部24は記憶処理を終了する。 A plurality of teacher data, first evaluation data, and second evaluation data are input to the input unit 20 from a device (not shown). When these data are input to the input unit 20, the control unit 24 executes a storage process. In the storage process, the control unit 24 acquires a plurality of teacher data, first evaluation data, and second evaluation data input to the input unit 20, and stores the acquired data in the storage unit 23. After that, the control unit 24 ends the storage process.

図5及び図6は真贋度推定モデル生成処理の手順を示すフローチャートである。モデル生成装置2のユーザは、操作部21において、真贋度推定モデル生成処理の実行を指示する実行操作を行う。実行操作が行われた場合において、記憶部23に、複数の教師データ、第1評価用データ及び第2評価用データが記憶されているとき、制御部24はモデル生成処理を実行する。記憶部23には、真贋度推定モデル生成処理で用いられる第1変数及び第2変数の値が記憶されている。制御部24は、これらの値は各別に設定する。 5 and 6 are flowcharts showing the procedure of the authenticity estimation model generation process. The user of the model generation device 2 performs an execution operation instructing the operation unit 21 to execute the authenticity estimation model generation process. When the execution operation is performed, the control unit 24 executes the model generation process when a plurality of teacher data, the first evaluation data, and the second evaluation data are stored in the storage unit 23. The storage unit 23 stores the values of the first variable and the second variable used in the authenticity estimation model generation process. The control unit 24 sets these values separately.

真贋度推定モデル生成処理では、制御部24は、まず、真贋度推定モデルRの経路を形成する(ステップS1)。具体的には、制御部24は、入力層と入力層に隣接する中間層とに関する複数のニューロンの間の経路と、隣接する2つの中間層に関する複数のニューロン間の経路と、中間層と中間層に隣接する出力層とに関する複数のニューロン間の経路とを形成する。ニューロン間の重み及びバイアス等のパラメータは適宜設定されている。 In the authenticity estimation model generation process, the control unit 24 first forms a path of the authenticity estimation model R (step S1). Specifically, the control unit 24 has a pathway between a plurality of neurons regarding the input layer and an intermediate layer adjacent to the input layer, a pathway between a plurality of neurons regarding two adjacent intermediate layers, and an intermediate layer and an intermediate layer. It forms a pathway between multiple neurons with respect to the output layer adjacent to the layer. Parameters such as weight and bias between neurons are set as appropriate.

制御部24は、ステップS1を実行した後、第1変数及び第2変数の値をゼロに設定し(ステップS2)、記憶部23に記憶されている複数の教師データ、第1評価用データ及び第2評価用データを、一時記憶部22にロードする(ステップS3)。次に、制御部24は、一時記憶部22から1つの教師データを選択し(ステップS4)、選択した教師データに含まれる部分画像データを真贋度推定モデルRに入力する(ステップS5)。真贋度推定モデルRへのデータの入力は、真贋度推定モデルRの入力層への入力を意味する。次に、制御部24は、真贋度推定モデルRの出力として、真贋度を算出する(ステップS6)。前述したように、真贋度推定モデルRの出力として、真贋度に加えて、カードが偽物である確率も出力される。 After executing step S1, the control unit 24 sets the values of the first variable and the second variable to zero (step S2), and the plurality of teacher data, the first evaluation data, and the data for the first evaluation stored in the storage unit 23. The second evaluation data is loaded into the temporary storage unit 22 (step S3). Next, the control unit 24 selects one teacher data from the temporary storage unit 22 (step S4), and inputs the partial image data included in the selected teacher data into the authenticity estimation model R (step S5). The input of data to the authenticity estimation model R means the input to the input layer of the authenticity estimation model R. Next, the control unit 24 calculates the authenticity as the output of the authenticity estimation model R (step S6). As described above, as the output of the authenticity estimation model R, in addition to the authenticity, the probability that the card is fake is also output.

次に、制御部24は、第1変数の値を1だけインクリメントし(ステップS7)、第1変数の値が第1基準値であるか否かを判定する(ステップS8)。第1基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第1変数の値が第1基準値ではないと判定した場合(S8:NO)、ステップS4を再び実行する。再び実行されたステップS4では、制御部24は、ステップS3でロードされた複数の教師データの中で選択していない1つの教師データを選択する。 Next, the control unit 24 increments the value of the first variable by 1 (step S7), and determines whether or not the value of the first variable is the first reference value (step S8). The first reference value is stored in the storage unit 23, is a preset constant value, and is an integer of 2 or more. When the control unit 24 determines that the value of the first variable is not the first reference value (S8: NO), the control unit 24 executes step S4 again. In step S4 executed again, the control unit 24 selects one teacher data that has not been selected from the plurality of teacher data loaded in step S3.

制御部24は、第1変数の値が第1基準値となるまで、ステップS4〜S7を繰り返し実行し、真贋度を算出し続ける。第1基準値は、所謂、バッチサイズである。制御部24は、第1変数の値が第1基準値であると判定した場合(S8:YES)、ステップS6を繰り返し実行することによって得られた複数の真贋度と、ステップS4で選択した複数の教師データの正解ラベルが示す内容とに基づいて、真贋度推定モデルRのパラメータを更新する(ステップS9)。次に、制御部24は、一時記憶部22に記憶されている全ての教師データをステップS4で選択したか否かを判定する(ステップS10)。 The control unit 24 repeatedly executes steps S4 to S7 until the value of the first variable becomes the first reference value, and continues to calculate the authenticity. The first reference value is the so-called batch size. When the control unit 24 determines that the value of the first variable is the first reference value (S8: YES), the plurality of authenticities obtained by repeatedly executing step S6 and the plurality of authenticities selected in step S4. The parameters of the authenticity estimation model R are updated based on the contents indicated by the correct label of the teacher data of (step S9). Next, the control unit 24 determines whether or not all the teacher data stored in the temporary storage unit 22 has been selected in step S4 (step S10).

制御部24は、全ての教師データを選択していないと判定した場合(S10:NO)、第1変数の値をゼロに設定し(ステップS11)、ステップS4を再び実行する。再び実行されたステップS4では、制御部24は、ステップS3でロードされた複数の教師データの中で選択していない1つの教師データを選択する。全ての教師データが選択されるまで、ステップS6を繰り返し実行することによって得られた複数の真贋度に基づいて、パラメータを繰り返し更新する。 When it is determined that all the teacher data has not been selected (S10: NO), the control unit 24 sets the value of the first variable to zero (step S11), and executes step S4 again. In step S4 executed again, the control unit 24 selects one teacher data that has not been selected from the plurality of teacher data loaded in step S3. The parameters are repeatedly updated based on the plurality of authenticities obtained by repeatedly executing step S6 until all the teacher data are selected.

制御部24は、全ての教師データを選択したと判定した場合(S10:YES)、第1評価用データを用いて真贋度推定モデルRを評価する(ステップS12)。ステップS12では、制御部24は、第1評価用データに含まれる部分画像データを真贋度推定モデルRに入力し、真贋度を算出する。制御部24は、この真贋度と、第1評価用データに含まれる正解ラベルが示す内容とに基づいて、真贋度推定モデルRの出力として適切な真贋度が算出されていることを確認する。適切な真贋度が算出されていなかった場合、例えば、真贋度推定モデル生成処理を終了してもよい。この場合、例えば、教師データの数を増やして、再度、真贋度推定モデル生成処理を実行する。 When it is determined that all the teacher data has been selected (S10: YES), the control unit 24 evaluates the authenticity estimation model R using the first evaluation data (step S12). In step S12, the control unit 24 inputs the partial image data included in the first evaluation data into the authenticity estimation model R, and calculates the authenticity. The control unit 24 confirms that an appropriate authenticity is calculated as an output of the authenticity estimation model R based on the authenticity and the content indicated by the correct answer label included in the first evaluation data. If an appropriate authenticity has not been calculated, for example, the authenticity estimation model generation process may be terminated. In this case, for example, the number of teacher data is increased, and the authenticity estimation model generation process is executed again.

制御部24は、ステップS12を実行した後、第2変数の値を1だけインクリメントし(ステップS13)、第2変数の値が第2基準値であるか否かを判定する(ステップS14)。第2基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第2変数の値が第2基準値ではないと判定した場合(S14:NO)、第1変数の値をゼロに設定し(ステップS15)、ステップS4を再び実行する。このとき、ステップS3でロードされた複数の教師データの中に選択された教師データはないとして、ステップS4を実行する。第2変数の値が第2基準値となるまで、ステップS3でロードされた複数の教師データを用いて真贋度推定モデルRのパラメータを更新する。各教師データが用いられる回数は、第2基準値の数と同じである。第2基準値は、所謂、エポック数である。 After executing step S12, the control unit 24 increments the value of the second variable by 1 (step S13), and determines whether or not the value of the second variable is the second reference value (step S14). The second reference value is stored in the storage unit 23, is a preset constant value, and is an integer of 2 or more. When the control unit 24 determines that the value of the second variable is not the second reference value (S14: NO), the control unit 24 sets the value of the first variable to zero (step S15), and executes step S4 again. At this time, it is assumed that there is no selected teacher data among the plurality of teacher data loaded in step S3, and step S4 is executed. The parameters of the authenticity estimation model R are updated using the plurality of teacher data loaded in step S3 until the value of the second variable becomes the second reference value. The number of times each teacher data is used is the same as the number of second reference values. The second reference value is the so-called epoch number.

制御部24は、第2変数の値が第2基準値であると判定した場合(S14:YES)、第2評価用データを用いて真贋度推定モデルRを評価する(ステップS16)。ステップS16では、制御部24は、第2評価用データに含まれる部分画像データを真贋度推定モデルRに入力し、真贋度推定モデルRの出力として、真贋度を算出する。制御部24は、算出した真贋度と、第2評価用データに含まれる正解ラベルが示す内容とに基づいて、真贋度推定モデルRの出力として適切な真贋度を算出していることを確認する。適切な真贋度が算出されていなかった場合、例えば、真贋度推定モデル生成処理を終了してもよい。この場合、例えば、教師データの数を増やして、再度、真贋度推定モデル生成処理を実行する。 When the control unit 24 determines that the value of the second variable is the second reference value (S14: YES), the control unit 24 evaluates the authenticity estimation model R using the second evaluation data (step S16). In step S16, the control unit 24 inputs the partial image data included in the second evaluation data into the authenticity estimation model R, and calculates the authenticity as the output of the authenticity estimation model R. The control unit 24 confirms that the appropriate authenticity is calculated as the output of the authenticity estimation model R based on the calculated authenticity and the content indicated by the correct answer label included in the second evaluation data. .. If an appropriate authenticity has not been calculated, for example, the authenticity estimation model generation process may be terminated. In this case, for example, the number of teacher data is increased, and the authenticity estimation model generation process is executed again.

制御部24は、ステップS16を実行した後、パラメータが更新された真贋度推定モデルRを記憶部23に記憶し(ステップS17)、真贋度推定モデルRの更新に用いた教師データ、第1評価用データ及び第2評価用データを、一時記憶部22及び記憶部23から削除する(ステップS18)。制御部24は、ステップS18を実行した後、真贋度推定モデル生成処理を終了する。 After executing step S16, the control unit 24 stores the authenticity estimation model R whose parameters have been updated in the storage unit 23 (step S17), and the teacher data used for updating the authenticity estimation model R, the first evaluation. Data and the second evaluation data are deleted from the temporary storage unit 22 and the storage unit 23 (step S18). After executing step S18, the control unit 24 ends the authenticity estimation model generation process.

以上のように、真贋度推定モデル生成処理では、制御部24は、記憶部23に記憶されている複数の教師データに基づき、真贋度推定モデルRのパラメータを更新する。パラメータの更新により、真贋度推定モデルRが生成される。
モデル生成装置2がネットワークを介して判定装置1に接続されている場合、モデル生成装置2は、制御部24が生成した真贋度推定モデルRを判定装置1に送信する。判定装置1は、自身に記憶されている真贋度推定モデルRを、モデル生成装置2から受信した真贋度推定モデルRに更新する。判定装置1は、個人情報に基づく認証、又は、個人情報の登録等を行う場所に設置されている。
As described above, in the authenticity estimation model generation process, the control unit 24 updates the parameters of the authenticity estimation model R based on the plurality of teacher data stored in the storage unit 23. By updating the parameters, the authenticity estimation model R is generated.
When the model generation device 2 is connected to the determination device 1 via a network, the model generation device 2 transmits the authenticity estimation model R generated by the control unit 24 to the determination device 1. The determination device 1 updates the authenticity estimation model R stored in itself to the authenticity estimation model R received from the model generation device 2. The determination device 1 is installed at a place where authentication based on personal information or registration of personal information is performed.

前述したように、教師データでは、カードの画像データの一部分である部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている。このため、真贋度推定モデル生成処理では、制御部12は、適切な真贋判定を実現する真贋度推定モデルRを生成する。 As described above, in the teacher data, the partial image data which is a part of the image data of the card is associated with a correct answer label indicating whether or not the card is genuine. Therefore, in the authenticity estimation model generation process, the control unit 12 generates an authenticity estimation model R that realizes an appropriate authenticity determination.

真贋度推定モデルRの生成に用いられる全ての教師データに含まれる部分画像データの種類は共通している。部分画像データの種類は、部分画像データの画像に写っているカードの部分に応じて異なる。1種類の部分画像データとして、図2に示すように、カード上の直線部分又は曲線部分の部分画像データが挙げられる。 The types of partial image data included in all the teacher data used to generate the authenticity estimation model R are common. The type of partial image data differs depending on the part of the card shown in the image of the partial image data. As one type of partial image data, as shown in FIG. 2, partial image data of a straight line portion or a curved portion on a card can be mentioned.

プリンタを用いてカード、例えば、運転免許証を偽造した場合、偽造された偽装カードでは、本物のカードと比較して、線幅が太くなり、線の色にむらが発生する可能性が高い。このため、1種類の部分画像データとして、カード上の直線部分又は曲線部分の部分画像データを用いることは効果的である。また、教師データの部分画像データとして、種々のプリンタを用いて作成した偽造カードの部分画像データを用いる。これにより、カードの偽造に用いたプリンタに無関係に、真贋度推定モデルRの出力として、適切な真贋度が算出される。 When a card, for example, a driver's license, is forged using a printer, the forged card has a wider line width and is more likely to have uneven line color than a real card. Therefore, it is effective to use the partial image data of the straight line portion or the curved line portion on the card as one type of partial image data. Further, as the partial image data of the teacher data, the partial image data of the counterfeit card created by using various printers is used. As a result, an appropriate authenticity is calculated as the output of the authenticity estimation model R regardless of the printer used for forging the card.

次に、判定装置1を詳細に説明する。図7は、判定装置1の要部構成を示すブロック図である。判定装置1は、入力部10、記憶部11及び制御部12を備える。これらは内部バス13に接続されている。
入力部10には、カードの画像データが入力される。制御部12は、入力部10に入力された画像データを取得する。制御部12は取得部として機能する。
Next, the determination device 1 will be described in detail. FIG. 7 is a block diagram showing a main configuration of the determination device 1. The determination device 1 includes an input unit 10, a storage unit 11, and a control unit 12. These are connected to the internal bus 13.
The image data of the card is input to the input unit 10. The control unit 12 acquires the image data input to the input unit 10. The control unit 12 functions as an acquisition unit.

記憶部11は不揮発性メモリである。記憶部11には、モデル生成装置2が生成した真贋度推定モデルRと、複数の座標を示す座標データZと、コンピュータプログラムP1とが記憶されている。図2を用いた部分画像データの説明で述べたように、座標データZの複数の座標は、カードの画像において、複数の部分画像の場所を示す。制御部12は、CPU、GPU又はTPU等の処理素子を有する。制御部12の処理素子(コンピュータ)は、コンピュータプログラムP1を実行することによって、画像データの画像に写っているカードが本物であるか否かの判定、即ち、真贋判定を行う真贋判定処理を実行する。 The storage unit 11 is a non-volatile memory. The storage unit 11 stores the authenticity estimation model R generated by the model generation device 2, the coordinate data Z indicating a plurality of coordinates, and the computer program P1. As described in the description of the partial image data with reference to FIG. 2, the plurality of coordinates of the coordinate data Z indicate the locations of the plurality of partial images in the image of the card. The control unit 12 has a processing element such as a CPU, GPU, or TPU. By executing the computer program P1, the processing element (computer) of the control unit 12 executes a determination of whether or not the card shown in the image of the image data is genuine, that is, an authenticity determination process for performing an authenticity determination. To do.

なお、コンピュータプログラムP1は、制御部12が有する処理素子が読み取り可能に記憶した非一時的な記憶媒体A1を用いて判定装置1に提供されていてもよい。この場合、図示しない読み出し装置によって記憶媒体A1から読み出されたコンピュータプログラムP1が記憶部11に記憶される。記憶媒体A1は、光ディスク、フレキシブルディスク、磁気ディスク、磁気光ディスク又は半導体メモリ等である。また、図示しない通信網に接続されている図示しない外部装置からコンピュータプログラムP1をダウンロードし、ダウンロードしたコンピュータプログラムP1を記憶部11に記憶してもよい。 The computer program P1 may be provided to the determination device 1 by using the non-temporary storage medium A1 readablely stored by the processing element included in the control unit 12. In this case, the computer program P1 read from the storage medium A1 by a reading device (not shown) is stored in the storage unit 11. The storage medium A1 is an optical disk, a flexible disk, a magnetic disk, a magnetic optical disk, a semiconductor memory, or the like. Further, the computer program P1 may be downloaded from an external device (not shown) connected to a communication network (not shown), and the downloaded computer program P1 may be stored in the storage unit 11.

制御部12が有する処理素子の数は2以上であってもよい。この場合、複数の処理素子がコンピュータプログラムP1に従って、真贋判定処理を協同で実行してもよい。 The number of processing elements included in the control unit 12 may be 2 or more. In this case, a plurality of processing elements may jointly execute the authenticity determination process according to the computer program P1.

図8は真贋判定処理の手順を示すフローチャートである。制御部12は、入力部10からカードの画像データを取得した場合に真贋判定処理を実行する。真贋判定処理では、制御部12は、まず、入力部10から取得した画像データから複数の部分画像データを抽出する(ステップS21)。ステップS21では、制御部12は、入力部10から取得した画像データの画像において、座標データZが示す複数の場所にある複数の部分画像に対応する複数部分画像データを抽出する。制御部12は、例えば、図2に示すように、カード上の線部分に対応する複数の部分画像データを抽出する。制御部12は抽出部としても機能する。 FIG. 8 is a flowchart showing the procedure of the authenticity determination process. The control unit 12 executes the authenticity determination process when the image data of the card is acquired from the input unit 10. In the authenticity determination process, the control unit 12 first extracts a plurality of partial image data from the image data acquired from the input unit 10 (step S21). In step S21, the control unit 12 extracts the plurality of partial image data corresponding to the plurality of partial images at the plurality of locations indicated by the coordinate data Z in the image of the image data acquired from the input unit 10. For example, as shown in FIG. 2, the control unit 12 extracts a plurality of partial image data corresponding to the line portion on the card. The control unit 12 also functions as an extraction unit.

ここで、制御部12は、種類が共通する複数の部分画像データを抽出する。更に、ステップS21で抽出する部分画像データの種類は、真贋度推定モデルRの生成に用いた部分画像データの種類と同じである。 Here, the control unit 12 extracts a plurality of partial image data having a common type. Further, the type of the partial image data extracted in step S21 is the same as the type of the partial image data used for generating the authenticity estimation model R.

なお、部分画像データを抽出する方法は、座標データZを用いた方法に限定されない。例えば、カードの画像データと、画像データの画像における部分画像の場所との関係を学習した学習済みモデル、例えば、R−CNN(Region-CNN)を用いて部分画像データを抽出してもよい。この場合、制御部12は、画像データを学習済みモデルに入力し、学習済みモデルの出力に基づいて、複数の部分画像の場所、例えば、座標を決定する。制御部12は、決定した複数の座標が示す複数の場所にある複数の部分画像に対応する複数の部分画像データを画像データから抽出する。 The method of extracting the partial image data is not limited to the method using the coordinate data Z. For example, partial image data may be extracted using a trained model that has learned the relationship between the image data of the card and the location of the partial image in the image of the image data, for example, R-CNN (Region-CNN). In this case, the control unit 12 inputs the image data to the trained model and determines the location, for example, the coordinates of the plurality of partial images based on the output of the trained model. The control unit 12 extracts a plurality of partial image data corresponding to a plurality of partial images at a plurality of locations indicated by the determined coordinates from the image data.

次に、制御部12は、ステップS21で抽出した複数の部分画像データの中から1つの部分画像データを選択し(ステップS22)、選択した部分画像データを真贋度推定モデルRに入力する(ステップS23)。制御部12は入力部としても機能する。次に、制御部12は、真贋度推定モデルRの出力として、真贋度を算出する(ステップS24)。制御部12は算出部としても機能する。 Next, the control unit 12 selects one partial image data from the plurality of partial image data extracted in step S21 (step S22), and inputs the selected partial image data into the authenticity estimation model R (step). S23). The control unit 12 also functions as an input unit. Next, the control unit 12 calculates the authenticity as the output of the authenticity estimation model R (step S24). The control unit 12 also functions as a calculation unit.

制御部12は、ステップS24を実行した後、ステップS21で抽出した全ての部分画像データをステップS22で選択したか否かを判定する(ステップS25)。制御部12は、全ての部分画像データを選択していないと判定した場合(S25:NO)、ステップS22を再び実行する。再び実行したステップS22では、まだ選択していない部分画像データを選択する。その後、再び、ステップS24で真贋度を算出する。制御部12は、ステップS21で抽出した全ての部分画像データが選択されるまで、真贋度を算出し続ける。結果、制御部12は、ステップS12で抽出した全ての部分画像データについて真贋度を算出する。 After executing step S24, the control unit 12 determines whether or not all the partial image data extracted in step S21 is selected in step S22 (step S25). When the control unit 12 determines that all the partial image data has not been selected (S25: NO), the control unit 12 executes step S22 again. In step S22 executed again, partial image data that has not yet been selected is selected. After that, the authenticity is calculated again in step S24. The control unit 12 continues to calculate the authenticity until all the partial image data extracted in step S21 is selected. As a result, the control unit 12 calculates the authenticity of all the partial image data extracted in step S12.

制御部12は、全ての部分画像データを選択したと判定した場合(S25:YES)、ステップS24を繰り返し実行することによって得られた複数の真贋度に基づいて、入力部10から取得した画像データの画像に写っているカードが本物であるか否かを判定する(ステップS26)。 When the control unit 12 determines that all the partial image data has been selected (S25: YES), the image data acquired from the input unit 10 is based on the plurality of authenticities obtained by repeatedly executing step S24. It is determined whether or not the card shown in the image of is genuine (step S26).

図9は真贋判定の説明図である。真贋判定の第1例として、制御部12は、ステップS24を繰り返し実行することによって算出された全ての真贋度が真贋閾値以上である場合にカードが本物であると判定する。真贋閾値は、記憶部11に記憶されており、予め設定されている一定値である。制御部12は、ステップS24を繰り返し実行することによって算出された複数の真贋度の中で少なくとも1つが真贋閾値未満である場合にカードが本物ではないと判定する。 FIG. 9 is an explanatory diagram of authenticity determination. As a first example of authenticity determination, the control unit 12 determines that the card is genuine when all the authenticity values calculated by repeatedly executing step S24 are equal to or greater than the authenticity threshold value. The authenticity threshold value is stored in the storage unit 11 and is a preset constant value. The control unit 12 determines that the card is not genuine when at least one of the plurality of authenticities calculated by repeatedly executing step S24 is less than the authenticity threshold.

真贋判定の第2例として、制御部12は、ステップS24を繰り返し実行することによって算出された全ての真贋度の平均値が真贋閾値以上である場合にカードが本物であると判定する。制御部12は、前述した平均値が真贋閾値未満である場合にカードが本物ではないと判定する。 As a second example of authenticity determination, the control unit 12 determines that the card is genuine when the average value of all the authenticity values calculated by repeatedly executing step S24 is equal to or greater than the authenticity threshold value. The control unit 12 determines that the card is not genuine when the above-mentioned average value is less than the authenticity threshold.

真贋判定の第3例として、制御部12は、ステップS24を繰り返し実行することによって算出された複数の真贋度の中で、真贋閾値未満である真贋度の数が基準数未満である場合にカードが本物であると判定する。基準数は、記憶部11に記憶されており、予め設定されている一定の自然数である。制御部12は、ステップS24を繰り返し実行することによって算出された複数の真贋度の中で真贋閾値未満である真贋度の数が基準数以上である場合にカードが本物ではないと判定する。 As a third example of authenticity determination, the control unit 12 performs a card when the number of authenticity that is less than the authenticity threshold is less than the reference number among a plurality of authenticity calculated by repeatedly executing step S24. Is determined to be genuine. The reference number is a constant natural number stored in the storage unit 11 and set in advance. The control unit 12 determines that the card is not genuine when the number of authenticity that is less than the authenticity threshold is equal to or greater than the reference number among the plurality of authenticity calculated by repeatedly executing step S24.

制御部12は、カードが本物ではないと判定した場合(S26:NO)、入力部10から取得した画像データを記憶部11から削除する(ステップS27)。制御部12は、カードが本物であると判定した場合(S26:YES)、又は、ステップS27を実行した後、真贋度判定処理を終了する。 When the control unit 12 determines that the card is not genuine (S26: NO), the control unit 12 deletes the image data acquired from the input unit 10 from the storage unit 11 (step S27). When the control unit 12 determines that the card is genuine (S26: YES), or after executing step S27, the control unit 12 ends the authenticity determination process.

真贋判定で本物であると判定されたカードの画像データは、例えば、カードに記載されている個人情報の読み取りに用いられる。読み取った個人情報は、登録、又は、カードの所有者の認証等に用いられる。
なお、制御部12は、ステップS27を実行するとともに、図示しない出力部に指示してカードが偽造されている旨を示す情報を出力させてもよい。これにより、カードの偽造が報知される。制御部12は、この処理を実行した後、真贋判定処理を終了する。
The image data of the card determined to be genuine by the authenticity determination is used, for example, for reading the personal information written on the card. The read personal information is used for registration or authentication of the cardholder.
In addition, the control unit 12 may execute step S27 and instruct an output unit (not shown) to output information indicating that the card is forged. As a result, the forgery of the card is notified. After executing this process, the control unit 12 ends the authenticity determination process.

前述したように、真贋度推定モデルRは、種々のプリンタを用いて作成された複数の偽造カードに対応する複数の部分画像データを用いて学習されている。このため、真贋判定処理では、制御部12は、偽造に用いられたプリンタに無関係に適切な真贋度を算出し、カードの真贋判定を適切に行うことができる。また、真贋判定処理では、1つの画像データから複数の部分画像データを抽出し、抽出した複数の部分画像データに基づいて複数の真贋度を算出し、算出した複数の真贋度に基づいて真贋判定を行う。このため、真贋判定が正確である。 As described above, the authenticity estimation model R is learned using a plurality of partial image data corresponding to a plurality of counterfeit cards created by using various printers. Therefore, in the authenticity determination process, the control unit 12 can calculate an appropriate authenticity regardless of the printer used for counterfeiting, and can appropriately determine the authenticity of the card. Further, in the authenticity determination process, a plurality of partial image data are extracted from one image data, a plurality of authenticity is calculated based on the extracted plurality of partial image data, and the authenticity is determined based on the calculated plurality of authenticity. I do. Therefore, the authenticity determination is accurate.

更に、真贋判定処理で制御部12が画像データから抽出する部分画像データの種類は、真贋度推定モデルRの学習に用いる部分画像データの種類と同じであるため、真贋判定がより正確である。前述したように、プリンタを用いてカードを偽造した場合、本物のカードと、偽造カードとの差は線部分に生じ易い。従って、真贋判定処理で制御部12が画像データから抽出する部分画像データ、及び、真贋度推定モデルRの学習に用いる部分画像データとして、カード上の線部分の部分画像データを用いた場合、真贋判定が更に正確である。 Further, since the type of partial image data extracted from the image data by the control unit 12 in the authenticity determination process is the same as the type of partial image data used for learning the authenticity estimation model R, the authenticity determination is more accurate. As described above, when a card is forged using a printer, the difference between the real card and the forged card tends to occur in the line portion. Therefore, when the partial image data extracted from the image data by the control unit 12 in the authenticity determination process and the partial image data of the line portion on the card are used as the partial image data used for learning the authenticity estimation model R, the authenticity is used. The judgment is more accurate.

図2を用いた部分画像データの説明で述べたように、真贋判定処理及び真贋度推定モデル生成処理で用いる部分画像データは、カード上の線部分の部分画像データに限定されない。
図10は、部分画像データの他例の説明図である。図10には、部分画像データの部分画像として、部分画像B20,B21,B22が示されている。部分画像B20,B21それぞれは、カード上において、白色を含む2色で全体が塗り潰されている部分の画像である。部分画像B22は、カード上において、白色以外の1色で全体が塗り潰されている部分の画像である。
As described in the description of the partial image data using FIG. 2, the partial image data used in the authenticity determination process and the authenticity estimation model generation process is not limited to the partial image data of the line portion on the card.
FIG. 10 is an explanatory diagram of another example of partial image data. In FIG. 10, partial images B20, B21, and B22 are shown as partial images of the partial image data. Each of the partial images B20 and B21 is an image of a portion of the card that is entirely filled with two colors including white. The partial image B22 is an image of a portion of the card that is entirely filled with a color other than white.

図10の例では、運転免許証が示されている。運転免許証では、有効期限が記載された文字の背景色として、白色以外の色、例えば、緑色、青色又は金色が用いられる。部分画像B20の領域は、この背景色と白色との境界線を含む領域である。また、運転免許証では、運転免許証の所有者の顔が写っている顔写真が印刷されている。顔写真において、背景色は、白色以外の色、例えば、青色が用いられる。部分画像B21の領域は、この背景色と白色との境界線を含む領域である。部分画像B22の領域は、顔写真において、所有者が写っていない部分の領域である。 In the example of FIG. 10, a driver's license is shown. In a driver's license, a color other than white, for example, green, blue, or gold is used as the background color of the characters on which the expiration date is written. The region of the partial image B20 is a region including the boundary line between the background color and white. In addition, the driver's license is printed with a photo of the owner of the driver's license. In the face photograph, a color other than white, for example, blue is used as the background color. The region of the partial image B21 is a region including the boundary line between the background color and white. The area of the partial image B22 is the area of the part where the owner is not shown in the face photograph.

真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上において、白色を含む2色で全体が塗り潰されている部分の部分画像データ、及び、カード上において、白色以外の1色で全体が塗り潰されている部分の部分画像データの両方又は一方を含む複数の部分画像データを用いてもよい。 As a plurality of partial image data of the same type used in the authenticity determination process and the authenticity estimation model generation process, the partial image data of the part of the card that is entirely filled with two colors including white, and the card. In the above, a plurality of partial image data including both or one of the partial image data of the portion entirely filled with one color other than white may be used.

図11は、部分画像データの更なる他例の説明図である。図11には、部分画像データの部分画像として、部分画像B30,B31,B32が示されている。部分画像B30,B31,B32それぞれは、カード上の斜線の模様部分の画像である。図11の例でも、運転免許証が示されている。運転免許証には、運転を許可された車両の種類を示す欄がある。この欄には、背景として、赤色の斜線の模様が用いられている。部分画像B30,B31,B32それぞれは、斜線の模様部分の画像である。
真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上の斜線の模様部分に対応する複数の部分画像データを用いてもよい。
FIG. 11 is an explanatory diagram of another example of the partial image data. In FIG. 11, partial images B30, B31, and B32 are shown as partial images of the partial image data. Each of the partial images B30, B31, and B32 is an image of the shaded pattern portion on the card. The driver's license is also shown in the example of FIG. The driver's license has a column that indicates the type of vehicle that is permitted to drive. In this column, a red diagonal line pattern is used as the background. Each of the partial images B30, B31, and B32 is an image of a shaded pattern portion.
As the plurality of partial image data used in the authenticity determination process and the authenticity estimation model generation process and having a common type, a plurality of partial image data corresponding to the shaded pattern portion on the card may be used.

カード上の線部分と同様に、プリンタを用いてカードを偽造した場合、本物のカードと、偽装カードとの差は、全体が2色で塗り潰されている部分、全体が1色で塗り潰されている部分、及び、斜線の模様部分に生じ易い。偽造カードを本物のカードと比較した場合、全体が2色で塗り潰されている部分の境界線がぼやける可能性が高く、全体が1色で塗り潰されている部分では色むらが発生する可能性が高く、斜線の模様部分では斜線が歪む可能性が高い。従って、真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上の線部分に対応する複数の部分画像データの代わりに、図10又は図11で示した複数の部分画像データを用いた場合も、真贋判定の精度が上がる。 Similar to the line part on the card, when the card is forged using a printer, the difference between the real card and the fake card is that the whole part is filled with two colors and the whole part is filled with one color. It tends to occur in the part where there is a pattern and the part with a diagonal line. When comparing a counterfeit card with a real card, there is a high possibility that the borderline of the part that is entirely filled with two colors will be blurred, and the part that is entirely filled with one color may cause color unevenness. It is high, and there is a high possibility that the diagonal line will be distorted in the pattern part of the diagonal line. Therefore, as a plurality of partial image data of the same type used in the authenticity determination process and the authenticity estimation model generation process, instead of the plurality of partial image data corresponding to the line portion on the card, FIG. 10 or FIG. Even when the plurality of shown partial image data are used, the accuracy of authenticity determination is improved.

部分画像データの更なる他例を説明する。カードの種類が共通する複数の画像データの画像には、共通の文字が記載されている可能性がある。例えば、図2、図10及び図11に示す運転免許証の画像には、「氏名」、「住所」及び「交付」等の共通文字が写っている。部分画像データの部分画像として、例えば、「氏名」、「住所」及び「交付」が写っている3つの部分画像が用いられてもよい。従って、真贋判定処理及び真贋度推定モデル生成処理で用いられ、種類が共通する複数の部分画像データとして、カード上に必ず記載されている複数の共通文字に対応する複数の部分画像データを用いてもよい。 Further other examples of the partial image data will be described. Images of a plurality of image data having a common card type may contain common characters. For example, the images of the driver's license shown in FIGS. 2, 10 and 11 show common characters such as "name", "address" and "delivery". As the partial image of the partial image data, for example, three partial images showing "name", "address", and "delivery" may be used. Therefore, as a plurality of partial image data of the same type used in the authenticity determination process and the authenticity estimation model generation process, a plurality of partial image data corresponding to a plurality of common characters always written on the card are used. May be good.

なお、真贋度推定モデルRへの複数の部分画像データの入力は、複数の部分画像データを連結することによって得られた連結画像データを真贋度推定モデルRに入力することによって実現されてもよい。この場合、真贋度推定モデルRは連結画像データを用いて生成される。 The input of the plurality of partial image data to the authenticity estimation model R may be realized by inputting the concatenated image data obtained by concatenating the plurality of partial image data into the authenticity estimation model R. .. In this case, the authenticity estimation model R is generated using the linked image data.

(実施の形態2)
実施の形態1の真贋判定処理においては、判定装置1の制御部12は、1種類の部分画像データを用いている。しかしながら、真贋判定処理において、制御部12は、複数種類の部分画像データを用いてもよい。
以下では、実施の形態2について、実施の形態1と異なる点を説明する。後述する構成を除く他の構成については、実施の形態1と共通している。このため、実施の形態1と共通する構成部には実施の形態1と同一の参照符号を付してその説明を省略する。
(Embodiment 2)
In the authenticity determination process of the first embodiment, the control unit 12 of the determination device 1 uses one type of partial image data. However, in the authenticity determination process, the control unit 12 may use a plurality of types of partial image data.
Hereinafter, the difference between the second embodiment and the first embodiment will be described. Other configurations other than the configurations described later are common to the first embodiment. Therefore, the same reference reference numerals as those in the first embodiment are assigned to the components common to the first embodiment, and the description thereof will be omitted.

図12は、実施の形態2における判定装置1の要部構成を示すブロック図である。実施の形態2を実施の形態1と比較した場合、判定装置1の記憶部11には、真贋度推定モデルRの代わりに、第1真贋度推定モデルR1及び第2真贋度推定モデルR2が記憶されている。第1真贋度推定モデルR1及び第2真贋度推定モデルR2それぞれは、真贋度推定モデルRと同様の学習済みモデルである。更に、記憶部11には、座標データZの代わりに、第1座標データZ1及び第2座標データZ2が記憶されている。 FIG. 12 is a block diagram showing a main configuration of the determination device 1 according to the second embodiment. When the second embodiment is compared with the first embodiment, the storage unit 11 of the determination device 1 stores the first authenticity estimation model R1 and the second authenticity estimation model R2 instead of the authenticity estimation model R. Has been done. Each of the first authenticity estimation model R1 and the second authenticity estimation model R2 is a trained model similar to the authenticity estimation model R. Further, the storage unit 11 stores the first coordinate data Z1 and the second coordinate data Z2 instead of the coordinate data Z.

実施の形態2におけるモデル生成装置2の制御部24は、2つの真贋度推定モデル生成処理を、実施の形態1における真贋度推定モデル生成処理と同様に実行する。1つ目の真贋度推定モデル生成処理では、部分画像データの一種である第1部分画像データに正解ラベルが対応付けられている教師データを用いて第1真贋度推定モデルR1を生成する。2つ目の真贋度推定モデル生成処理では、部分画像データの一種である第2部分画像データに正解ラベルが対応付けられている教師データを用いて第2真贋度推定モデルR2を生成する。 The control unit 24 of the model generation device 2 according to the second embodiment executes the two authenticity estimation model generation processes in the same manner as the authenticity estimation model generation process according to the first embodiment. In the first authenticity estimation model generation process, the first authenticity estimation model R1 is generated using the teacher data in which the correct answer label is associated with the first partial image data which is a kind of partial image data. In the second authenticity estimation model generation process, the second authenticity estimation model R2 is generated using the teacher data in which the correct answer label is associated with the second partial image data which is a kind of partial image data.

図13は、第1部分画像データ及び第2部分画像データの説明図である。図13には、図2、図10及び図11と同様のカードの画像が示されている。第1部分画像データに係る第1部分画像として、第1部分画像E10,E11,E12,E13が示されている。第2部分画像データに係る第2部分画像として、第2部分画像E20,E21,E22が示されている。第1部分画像E10,E11,E12,E13及び第2部分画像E20,E21,E22それぞれは破線で囲まれている。 FIG. 13 is an explanatory diagram of the first partial image data and the second partial image data. FIG. 13 shows images of cards similar to those in FIGS. 2, 10 and 11. As the first partial image related to the first partial image data, the first partial images E10, E11, E12, and E13 are shown. The second partial images E20, E21, and E22 are shown as the second partial image related to the second partial image data. The first partial images E10, E11, E12, E13 and the second partial images E20, E21, E22 are each surrounded by a broken line.

図13の例では、第1部分画像E10,E11,E12,E13それぞれは、図2に示す部分画像B10,B11,B12,B13と同じであり、カード上の直線部分又は曲線部分の画像である。第2部分画像E20,E21,E22それぞれは、図10に示す部分画像B20,B21,B22と同じであり、カード上において、白色を含む2色で全体が塗り潰されている部分の画像、又は、白色以外の1色で全体が塗り潰されている部分の画像である。
以上のように、第1部分画像データの種類は、第2部分画像データの種類とは異なっている。
In the example of FIG. 13, each of the first partial images E10, E11, E12, and E13 is the same as the partial images B10, B11, B12, and B13 shown in FIG. 2, and is an image of a straight line portion or a curved portion on the card. .. The second partial images E20, E21, and E22 are the same as the partial images B20, B21, and B22 shown in FIG. 10, and the image of the portion of the card that is entirely filled with two colors including white, or It is an image of a part where the whole is filled with one color other than white.
As described above, the type of the first partial image data is different from the type of the second partial image data.

第1座標データZ1が示す複数の座標は、座標データZが示す複数の座標と同様に、カードの画像における複数の第1部分画像の場所を示す。第2座標データZ2が示す複数の座標は、座標データZが示す複数の座標と同様に、カードの画像における複数の第2部分画像の場所を示す。 The plurality of coordinates indicated by the first coordinate data Z1 indicate the locations of the plurality of first partial images in the image of the card, similarly to the plurality of coordinates indicated by the coordinate data Z. The plurality of coordinates indicated by the second coordinate data Z2, like the plurality of coordinates indicated by the coordinate data Z, indicate the locations of the plurality of second partial images in the image of the card.

図14及び図15は真贋判定処理の手順を示すフローチャートである。判定装置1の制御部12は、実施の形態1と同様に、入力部10からカードの画像データを取得した場合に真贋判定処理を実行する。実施の形態2における真贋判定処理では、制御部12は、ステップS31〜S44を実行する。ステップS31〜S37は、実施の形態1における真贋判定処理のステップS21〜S27と同様である。ステップS21〜S27の説明において、部分画像データ及び座標データZそれぞれを第1部分画像データ及び第1座標データZ1に置き換えることによってステップS31〜S37を説明することができる。ステップS38〜S44は、実施の形態1における真贋判定処理のステップS21〜S27と同様である。ステップS21〜S27の説明において、部分画像データ及び座標データZそれぞれを第2部分画像データ及び第2座標データZ2に置き換えることによってステップS38〜S44を説明することができる。従って、ステップS31〜S44の詳細な説明を省略する。 14 and 15 are flowcharts showing the procedure of the authenticity determination process. Similar to the first embodiment, the control unit 12 of the determination device 1 executes the authenticity determination process when the image data of the card is acquired from the input unit 10. In the authenticity determination process according to the second embodiment, the control unit 12 executes steps S31 to S44. Steps S31 to S37 are the same as steps S21 to S27 of the authenticity determination process in the first embodiment. In the description of steps S21 to S27, steps S31 to S37 can be described by replacing the partial image data and the coordinate data Z with the first partial image data and the first coordinate data Z1, respectively. Steps S38 to S44 are the same as steps S21 to S27 of the authenticity determination process in the first embodiment. In the description of steps S21 to S27, steps S38 to S44 can be described by replacing the partial image data and the coordinate data Z with the second partial image data and the second coordinate data Z2, respectively. Therefore, detailed description of steps S31 to S44 will be omitted.

実施の形態2における真贋判定処理では、制御部12は、まず、ステップS31を実行する。ステップS31,S38では、制御部12は、入力部10から取得した共通の画像データから複数の第1部分画像データ及び複数の第2部分画像データを抽出する。ここで、複数の第1部分画像データに対応する複数の部分画像は、第1座標データZ1が示す複数の場所にある複数の部分画像である。複数の第2部分画像データに対応する複数の部分画像は、第2座標データZ2が示す複数の場所にある複数の部分画像である。
なお、制御部12は、実施の形態1と同様に、第1座標データZ1又は第2座標データZ2の代わりに、学習済みモデル、例えばR−CNNを用いて第1部分画像又は第2部分画像を抽出する場所を決定してもよい。
In the authenticity determination process according to the second embodiment, the control unit 12 first executes step S31. In steps S31 and S38, the control unit 12 extracts a plurality of first partial image data and a plurality of second partial image data from the common image data acquired from the input unit 10. Here, the plurality of partial images corresponding to the plurality of first partial image data are a plurality of partial images at a plurality of locations indicated by the first coordinate data Z1. The plurality of partial images corresponding to the plurality of second partial image data are a plurality of partial images at a plurality of locations indicated by the second coordinate data Z2.
As in the first embodiment, the control unit 12 uses a trained model, for example, R-CNN, instead of the first coordinate data Z1 or the second coordinate data Z2, to use the first partial image or the second partial image. You may decide where to extract.

第1真贋度推定モデルR1の生成に用いる第1部分画像データの第1部分画像の場所は、ステップS31で抽出される複数の第1部分画像データに対応する複数の第1部分画像の場所、例えば、第1座標データZ1が示す複数の場所の1つである。同様に、第2真贋度推定モデルR2の生成に用いる第2部分画像データの第2部分画像の場所は、ステップS38で抽出される複数の第2部分画像データに対応する複数の第2部分画像の場所、例えば、第2座標データZ2が示す複数の場所の1つである。 The location of the first partial image of the first partial image data used for generating the first authenticity estimation model R1 is the location of the plurality of first partial images corresponding to the plurality of first partial image data extracted in step S31. For example, it is one of a plurality of locations indicated by the first coordinate data Z1. Similarly, the location of the second partial image of the second partial image data used for generating the second authenticity estimation model R2 is a plurality of second partial images corresponding to the plurality of second partial image data extracted in step S38. , For example, one of a plurality of locations indicated by the second coordinate data Z2.

ステップS36では、制御部12は、ステップS34を繰り返し実行することによって算出した複数の真贋度に基づいて、カードが本物であるか否かを判定する。制御部12は、カードが本物ではないと判定した場合(S36:NO)、ステップS37を実行し、入力部10から取得した画像データを記憶部11から削除する。制御部12は、ステップS37を実行した後、真贋度判定処理を終了する。 In step S36, the control unit 12 determines whether or not the card is genuine based on the plurality of authenticities calculated by repeatedly executing step S34. When the control unit 12 determines that the card is not genuine (S36: NO), the control unit 12 executes step S37 and deletes the image data acquired from the input unit 10 from the storage unit 11. After executing step S37, the control unit 12 ends the authenticity determination process.

制御部12は、カードが本物であると判定した場合(S36:YES)、ステップS38を実行する。ステップS42では、制御部12は、ステップS41を繰り返し実行することによって算出した複数の真贋度に基づいて、カードが本物であるか否かを判定する。制御部12は、カードが本物ではないと判定した場合(S43:NO)、ステップS44を実行し、入力部10から取得した画像データを記憶部11から削除する。制御部12は、カードが本物であると判定した場合(S43:YES)、又は、ステップS44を実行した後、真贋度判定処理を終了する。 When the control unit 12 determines that the card is genuine (S36: YES), the control unit 12 executes step S38. In step S42, the control unit 12 determines whether or not the card is genuine based on the plurality of authenticities calculated by repeatedly executing step S41. When the control unit 12 determines that the card is not genuine (S43: NO), the control unit 12 executes step S44 and deletes the image data acquired from the input unit 10 from the storage unit 11. When the control unit 12 determines that the card is genuine (S43: YES), or after executing step S44, the control unit 12 ends the authenticity determination process.

以上のように、実施の形態2における真贋度判定処理では、第1部分画像データを用いた真贋判定、及び、第2部分画像データを用いた真贋判定の両方においてカードが本物であると判定された場合に、制御部12が入力部10から取得した画像データが記憶部11に残る。記憶部11に残った画像データは、実施の形態1と同様に、例えば、カードに記載されている個人情報の読み取りに用いられる。 As described above, in the authenticity determination process in the second embodiment, it is determined that the card is genuine in both the authenticity determination using the first partial image data and the authenticity determination using the second partial image data. In this case, the image data acquired by the control unit 12 from the input unit 10 remains in the storage unit 11. The image data remaining in the storage unit 11 is used, for example, for reading personal information written on the card, as in the first embodiment.

なお、実施の形態1と同様に、制御部12は、ステップS37又はステップS44を実行した場合、図示しない出力部に指示してカードが偽造されている旨を示す情報を出力させてもよい。これにより、カードの偽造が報知される。制御部12は、この処理を実行した後、真贋判定処理を終了する。 As in the first embodiment, when the control unit 12 executes step S37 or step S44, the control unit 12 may instruct an output unit (not shown) to output information indicating that the card is forged. As a result, the forgery of the card is notified. After executing this process, the control unit 12 ends the authenticity determination process.

前述したように、実施の形態2においては、2種類の部分画像データに対応し、部分画像データと真贋度との関係を学習した2種類の学習済みモデル(第1真贋度推定モデルR1及び第2真贋度推定モデルR2)が判定装置1の記憶部11に用意されている。実施の形態2における真贋度判定処理では、制御部12は、入力部10から取得した画像データから2種類の部分画像データを抽出し、抽出した2種類の部分画像データそれぞれを、種類に対応する学習済みモデルに入力する。制御部12は、2種類の学習済みモデルの出力として、カードの真贋度を各別に算出し、算出した複数の真贋度に基づいてカードが本物であるか否かを判定する。 As described above, in the second embodiment, two types of trained models (first authenticity estimation model R1 and first authenticity estimation model R1) corresponding to two types of partial image data and learning the relationship between the partial image data and the authenticity are learned. 2 The authenticity estimation model R2) is prepared in the storage unit 11 of the determination device 1. In the authenticity determination process according to the second embodiment, the control unit 12 extracts two types of partial image data from the image data acquired from the input unit 10, and each of the extracted two types of partial image data corresponds to the type. Fill in the trained model. The control unit 12 calculates the authenticity of the card separately as the output of the two types of trained models, and determines whether or not the card is genuine based on the calculated authenticity.

従って、実施の形態2の真贋判定処理では、判定装置1の制御部12は、2種類の部分画像データを用いて真贋判定を行うので、更に正確な真贋判定の結果が得られる。実施の形態2における判定装置1は、実施の形態1における判定装置1が奏する効果を同様に奏する。 Therefore, in the authenticity determination process of the second embodiment, the control unit 12 of the determination device 1 performs the authenticity determination using two types of partial image data, so that a more accurate authenticity determination result can be obtained. The determination device 1 in the second embodiment similarly exhibits the effect of the determination device 1 in the first embodiment.

(実施の形態3)
実施の形態2においては、判定装置1の入力部10に、1種類のカードの画像データが入力される。しかしながら、入力部10に、複数種類のカードの画像データが入力されてもよい。
以下では、実施の形態3について、実施の形態2と異なる点を説明する。後述する構成を除く他の構成については、実施の形態2と共通している。このため、実施の形態2と共通する構成部には実施の形態2と同一の参照符号を付してその説明を省略する。
(Embodiment 3)
In the second embodiment, the image data of one type of card is input to the input unit 10 of the determination device 1. However, image data of a plurality of types of cards may be input to the input unit 10.
Hereinafter, the differences between the third embodiment and the second embodiment will be described. Other configurations other than the configurations described later are common to the second embodiment. Therefore, the same reference reference numerals as those in the second embodiment are assigned to the components common to the second embodiment, and the description thereof will be omitted.

図16は、実施の形態3における判定装置1の要部構成を示すブロック図である。実施の形態3を実施の形態2と比較した場合、判定装置1の記憶部11には、第1真贋度推定モデルR1及び第2真贋度推定モデルR2の代わりに、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・が記憶されている。複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・それぞれは、実施の形態1における真贋度推定モデルRと同様の学習済みモデルであり、部分画像データと真贋度との関係を学習している。複数の第1真贋度推定モデルR10,R11,・・・には、第1部分画像データが入力される。複数の第2真贋度推定モデルR20,R21,・・・には、第2部分画像データが入力される。 FIG. 16 is a block diagram showing a main configuration of the determination device 1 according to the third embodiment. When the third embodiment is compared with the second embodiment, the storage unit 11 of the determination device 1 has a plurality of first authenticity estimates instead of the first authenticity estimation model R1 and the second authenticity estimation model R2. Models R10, R11, ... And a plurality of second authenticity estimation models R20, R21, ... Are stored. A plurality of first authenticity estimation models R10, R11, ... And a plurality of second authenticity estimation models R20, R21, ... Each are trained models similar to the authenticity estimation model R in the first embodiment. It is learning the relationship between partial image data and authenticity. The first partial image data is input to the plurality of first authenticity estimation models R10, R11, .... Second partial image data is input to the plurality of second authenticity estimation models R20, R21, ....

また、記憶部11には、第1座標データZ1及び第2座標データZ2の代わりに、複数の第1座標データZ10,Z11,・・・及び複数の第2座標データZ20,Z21,・・・が記憶されている。第1座標データZ10,Z11,・・・それぞれは、実施の形態2と同様に、複数の第1部分画像の場所を示す。第2座標データZ20,Z21,・・・それぞれは、実施の形態2と同様に、複数の第2部分画像の場所を示す。第1座標データZ10,Z11,・・・及び第2座標データZ20,Z21,・・・それぞれは、第1真贋度推定モデルR10,R11,・・・及び第2真贋度推定モデルR20,R21,・・・に対応する。 Further, in the storage unit 11, instead of the first coordinate data Z1 and the second coordinate data Z2, a plurality of first coordinate data Z10, Z11, ..., And a plurality of second coordinate data Z20, Z21, ... Is remembered. The first coordinate data Z10, Z11, ... Each indicates the location of a plurality of first partial images, as in the second embodiment. The second coordinate data Z20, Z21, ... Each indicates the location of a plurality of second partial images, as in the second embodiment. The first coordinate data Z10, Z11, ... And the second coordinate data Z20, Z21, ... Are the first authenticity estimation models R10, R11, ... And the second authenticity estimation models R20, R21, respectively. Corresponds to ...

更に、記憶部11には、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・の中から1つを選択する場合に参照されるモデル選択テーブルHが記憶されている。 Further, refer to the case where the storage unit 11 selects one from a plurality of first authenticity estimation models R10, R11, ... And a plurality of second authenticity estimation models R20, R21, .... The model selection table H to be created is stored.

図17は、モデル選択テーブルHを示す図表である。実施の形態3においては、判定装置1の入力部10に、複数種類のカードに対応する複数の画像データが入力される。複数の第1真贋度推定モデルR10,R11,・・・は、カードの複数の種類に対応する。複数の第2真贋度推定モデルR20,R21,・・・も、カードの複数の種類に対応する。 FIG. 17 is a chart showing the model selection table H. In the third embodiment, a plurality of image data corresponding to a plurality of types of cards are input to the input unit 10 of the determination device 1. The plurality of first authenticity estimation models R10, R11, ... Correspond to a plurality of types of cards. The plurality of second authenticity estimation models R20, R21, ... Also correspond to a plurality of types of cards.

図17の例では、カードの種類として、運転免許証、マイナンバーカード及び在留カード等が挙げられている。カードの各種類に、複数の第1真贋度推定モデルR10,R11,・・・中の1つと、複数の第2真贋度推定モデルR20,R21,・・・中の1つとが対応付けられている。図17の例では、運転免許証に、第1真贋度推定モデルR10及び第2真贋度推定モデルR20が対応付けられている。 In the example of FIG. 17, as the types of cards, a driver's license, an Individual Number card, a residence card, and the like are listed. Each type of card is associated with one of a plurality of first authenticity estimation models R10, R11, ..., And one of a plurality of second authenticity estimation models R20, R21, .... There is. In the example of FIG. 17, the driver's license is associated with the first authenticity estimation model R10 and the second authenticity estimation model R20.

図18は真贋判定処理の手順を示すフローチャートである。判定装置1の制御部12は、実施の形態2と同様に、入力部10からカードの画像データを取得した場合に真贋判定処理を実行する。実施の形態3における真贋判定処理の一部分は、実施の形態2における真贋判定処理と共通する。このため、実施の形態3における真贋判定処理において、実施の形態2における真贋判定処理と共通する部分、即ち、ステップS31〜S44の詳細な説明を省略する。 FIG. 18 is a flowchart showing the procedure of the authenticity determination process. Similar to the second embodiment, the control unit 12 of the determination device 1 executes the authenticity determination process when the image data of the card is acquired from the input unit 10. A part of the authenticity determination process in the third embodiment is common to the authenticity determination process in the second embodiment. Therefore, in the authenticity determination process in the third embodiment, the part common to the authenticity determination process in the second embodiment, that is, the detailed description of steps S31 to S44 will be omitted.

実施の形態3における真贋判定処理では、制御部12は、まず、入力部10から取得した画像データに基づいて、この画像データの画像に写っているカードの種類を特定する特定処理を実行する(ステップS51)。特定処理では、制御部12は、画像データと、カードの種類との関係を学習した学習済みモデルを用いて、カードの種類を特定してもよい。また、制御部12は、画像データの画像に写っているカードの枠線のパターンに基づいてカードの種類を特定してもよい。 In the authenticity determination process according to the third embodiment, the control unit 12 first executes a specific process of specifying the type of the card shown in the image of the image data based on the image data acquired from the input unit 10 ((). Step S51). In the specific process, the control unit 12 may specify the card type by using the trained model that has learned the relationship between the image data and the card type. Further, the control unit 12 may specify the type of the card based on the pattern of the border of the card shown in the image of the image data.

次に、制御部12は、モデル選択テーブルHに基づいて、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・の中から、ステップS51の特定処理で特定したカードの種類に対応する第1真贋度推定モデル及び第2真贋度推定モデルを選択する(ステップS52)。ステップS52では、制御部12は、例えば、ステップS51の特定処理においてカードの種類を運転免許証と特定した場合、モデル選択テーブルHにおいて、運転免許証に対応する第1真贋度推定モデルR10及び第2真贋度推定モデルR20を選択する。制御部12は、ステップS52を実行した後、ステップS31を実行する。 Next, the control unit 12 selects the first authenticity estimation models R10, R11, ... And the plurality of second authenticity estimation models R20, R21, ... Based on the model selection table H. , The first authenticity estimation model and the second authenticity estimation model corresponding to the type of the card specified in the identification process of step S51 are selected (step S52). In step S52, for example, when the control unit 12 specifies the card type as a driver's license in the identification process of step S51, the first authenticity estimation model R10 and the first authenticity estimation model R10 corresponding to the driver's license are displayed in the model selection table H. 2 Select the authenticity estimation model R20. The control unit 12 executes step S31 after executing step S52.

ステップS31,S38では、実施の形態2と同様に、制御部12は、入力部10から取得した共通の画像データから複数の第1部分画像データ及び複数の第2部分画像データを抽出する。ここで、画像データの画像において、複数の第1部分画像データに対応する複数の第1部分画像の場所は、ステップS52で選択した第1真贋度推定モデルに対応する第1座標データが示す場所である。同様に、画像データの画像において、複数の第2部分画像データに対応する複数の第2部分画像の場所は、ステップS52で選択した第2真贋度推定モデルに対応する第2座標データが示す場所である。制御部12は、ステップS51の特定処理で特定したカードの種類に対応した複数の第1部分画像データ及び複数の第2部分画像データを抽出する。 In steps S31 and S38, similarly to the second embodiment, the control unit 12 extracts a plurality of first partial image data and a plurality of second partial image data from the common image data acquired from the input unit 10. Here, in the image of the image data, the location of the plurality of first partial images corresponding to the plurality of first partial image data is the location indicated by the first coordinate data corresponding to the first authenticity estimation model selected in step S52. Is. Similarly, in the image of the image data, the location of the plurality of second partial images corresponding to the plurality of second partial image data is the location indicated by the second coordinate data corresponding to the second authenticity estimation model selected in step S52. Is. The control unit 12 extracts a plurality of first partial image data and a plurality of second partial image data corresponding to the card type specified in the specific process of step S51.

なお、制御部12は、実施の形態2と同様に、第1座標データZ10,Z11,・・・又は第2座標データZ20,Z21,・・・の代わりに、学習済みモデル、例えばR−CNNを用いて第1部分画像又は第2部分画像を抽出する場所を決定してもよい Note that the control unit 12 replaces the first coordinate data Z10, Z11, ..., Or the second coordinate data Z20, Z21, ..., As in the second embodiment, with a trained model, for example, R-CNN. May be used to determine where to extract the first or second partial image.

第1真贋度推定モデルR10,R11,・・・それぞれの生成に用いる第1部分画像データの第1部分画像の場所は、例えば、第1座標データZ10,Z11,・・・が示す複数の場所の1つである。同様に、第2真贋度推定モデルR20,R21,・・・それぞれの生成に用いる第2部分画像データの第2部分画像の場所は、例えば、第2座標データZ20,Z21,・・・が示す複数の場所の1つである。カードの種類が共通している場合、生成用の部分画像データに対応する部分画像の場所は、抽出される複数の部分画像データに対応する複数の部分画像の場所の1つである。 The locations of the first partial image of the first partial image data used for generating the first authenticity estimation models R10, R11, ... Are, for example, a plurality of locations indicated by the first coordinate data Z10, Z11, ... It is one of. Similarly, the location of the second partial image of the second partial image data used to generate the second authenticity estimation models R20, R21, ... Is indicated by, for example, the second coordinate data Z20, Z21, ... It is one of several places. When the types of cards are common, the location of the partial image corresponding to the partial image data for generation is one of the locations of the plurality of partial images corresponding to the plurality of extracted partial image data.

図17の例では、第1真贋度推定モデルR10及び第2真贋度推定モデルR20は運転免許証に対応する。従って、第1真贋度推定モデルR10の生成に用いる第1部分画像データの第1部分画像は、例えば、図13に示す複数の第1部分画像E10,E11,E12,E13の1つである。同様に、第2真贋度推定モデルR20の生成に用いる第2部分画像データの第2部分画像は、例えば、図13に示す複数の第2部分画像E20,E21,E22の1つである。 In the example of FIG. 17, the first authenticity estimation model R10 and the second authenticity estimation model R20 correspond to a driver's license. Therefore, the first partial image of the first partial image data used for generating the first authenticity estimation model R10 is, for example, one of a plurality of first partial images E10, E11, E12, and E13 shown in FIG. Similarly, the second partial image of the second partial image data used for generating the second authenticity estimation model R20 is, for example, one of a plurality of second partial images E20, E21, and E22 shown in FIG.

ステップS33では、制御部12は、ステップS32で選択した第1部分画像データ、即ち、ステップS31で抽出した1つの第1部分画像データを、ステップS52で選択した第1真贋度推定モデルに入力する。同様に、ステップS40では、制御部12は、ステップS39で選択した第2部分画像データ、即ち、ステップS38で抽出した1つの第2部分画像データを、ステップS52で選択した第2真贋度推定モデルに入力する。第1真贋度推定モデル及び第2真贋度推定モデルそれぞれへの入力は、第1真贋度推定モデル及び第2真贋度推定モデルの入力層への入力を意味する。 In step S33, the control unit 12 inputs the first partial image data selected in step S32, that is, one first partial image data extracted in step S31, into the first authenticity estimation model selected in step S52. .. Similarly, in step S40, the control unit 12 selects the second partial image data selected in step S39, that is, one second partial image data extracted in step S38, in the second authenticity estimation model in step S52. Enter in. The input to each of the first authenticity estimation model and the second authenticity estimation model means the input to the input layer of the first authenticity estimation model and the second authenticity estimation model.

実施の形態3における真贋度判定処理では、実施の形態2と同様に、第1部分画像データを用いた真贋判定、及び、第2部分画像データを用いた真贋判定の両方においてカードが本物であると判定された場合に、制御部12が入力部10から取得した画像データが記憶部11に残る。 In the authenticity determination process in the third embodiment, the card is genuine in both the authenticity determination using the first partial image data and the authenticity determination using the second partial image data, as in the second embodiment. When it is determined, the image data acquired by the control unit 12 from the input unit 10 remains in the storage unit 11.

実施の形態3における真贋度判定処理では、制御部12は、入力部10から取得した画像データの画像に写っているカードの種類に応じた適切な真贋判定が実行される。実施の形態3における判定装置1は、実施の形態2における判定装置1が奏する効果を同様に奏する。 In the authenticity determination process according to the third embodiment, the control unit 12 executes an appropriate authenticity determination according to the type of the card shown in the image of the image data acquired from the input unit 10. The determination device 1 in the third embodiment similarly exhibits the effect of the determination device 1 in the second embodiment.

なお、実施の形態2,3における真贋度判定処理では、制御部12は、第1真贋度推定モデルの出力として算出した複数の真贋度に基づいて真贋判定を実行する。ここで、制御部12は、カードが本物であると判定した場合、第2真贋度推定モデルの出力として算出した複数の真贋度に基づいて真贋判定を実行する。真贋判定の方法はこの方法に限定されない。例えば、第1真贋度推定モデル及び第2真贋度推定モデルの出力として算出した複数の真贋度に基づいて、1回だけ真贋判定を実行してもよい。 In the authenticity determination processing in the second and third embodiments, the control unit 12 executes the authenticity determination based on a plurality of authenticity calculated as the output of the first authenticity estimation model. Here, when the control unit 12 determines that the card is genuine, the control unit 12 executes the authenticity determination based on a plurality of authenticity calculated as the output of the second authenticity estimation model. The method of authenticity determination is not limited to this method. For example, the authenticity determination may be executed only once based on a plurality of authenticity calculated as outputs of the first authenticity estimation model and the second authenticity estimation model.

また、実施の形態2,3において、真贋度推定モデルの生成に用いる部分画像データ、及び、画像データから抽出される部分画像データそれぞれの種類の数は、2に限定されず、3以上であってもよい。部分画像データの種類の数が3である場合、抽出及び生成に第1部分画像データ、第2部分画像データ及び第3部分画像データが用いられ、真贋度判定処理では、第1真贋度推定モデル、第2真贋度推定モデル及び第3真贋度推定モデルが用いられる。この場合、第1部分画像は、例えば、線部分の画像である。第2部分画像は、例えば、カード上において、白色を含む2色で全体が塗り潰されている部分の部分画像データ、及び、カード上において、白色以外の1色で全体が塗り潰されている部分の部分画像データの両方又は一方を含む複数の部分画像データである。第3部分画像は、例えば、斜線の模様部分の画像である。
更に、実施の形態3においては、部分画像データの種類の数は1であってもよい。この場合、真贋度推定モデルの数は、カードの種類の数と一致する。
Further, in the second and third embodiments, the number of each type of the partial image data used for generating the authenticity estimation model and the partial image data extracted from the image data is not limited to 2, but is 3 or more. You may. When the number of types of partial image data is 3, the first partial image data, the second partial image data, and the third partial image data are used for extraction and generation, and in the authenticity determination process, the first authenticity estimation model is used. , The second authenticity estimation model and the third authenticity estimation model are used. In this case, the first partial image is, for example, an image of a line portion. The second partial image is, for example, the partial image data of the portion of the card that is entirely filled with two colors including white, and the portion of the card that is entirely filled with one color other than white. A plurality of partial image data including both or one of the partial image data. The third partial image is, for example, an image of a pattern portion of diagonal lines.
Further, in the third embodiment, the number of types of partial image data may be one. In this case, the number of authenticity estimation models matches the number of card types.

また、実施の形態2,3において、第1真贋度推定モデルへの複数の第1部分画像データの入力は、複数の第1部分画像データを連結することによって得られた第1連結画像データを第1真贋度推定モデルに入力することによって実現されてもよい。この場合、第1真贋度推定モデルは第1連結画像データを用いて生成される。同様に、第2真贋度推定モデルへの複数の第2部分画像データの入力は、複数の第2部分画像データを連結することによって得られた第2連結画像データを第2真贋度推定モデルに入力することによって実現されてもよい。この場合、第2真贋度推定モデルは第2連結画像データを用いて生成される。 Further, in the second and third embodiments, the input of the plurality of first partial image data to the first authenticity estimation model is the first connected image data obtained by concatenating the plurality of first partial image data. It may be realized by inputting to the first authenticity estimation model. In this case, the first authenticity estimation model is generated using the first connected image data. Similarly, when inputting a plurality of second partial image data into the second authenticity estimation model, the second connected image data obtained by concatenating the plurality of second partial image data is used as the second authenticity estimation model. It may be realized by inputting. In this case, the second authenticity estimation model is generated using the second connected image data.

(実施の形態4)
カードにエンボス、ホログラム又は透かしに関する加工が施されていると仮定する。エンボスは、カードの表面に設けられている凸部である。光をホログラムに照射した場合、絵が表れる。光を透かしに照射した場合も絵が現れる。従って、エンボス、ホログラム又は透かしの加工が施されているカードに光を照射した場合、エンボスの影、ホログラムの絵、又は、透かしの絵が現れる。
(Embodiment 4)
Suppose the card is embossed, hologramed or watermarked. The embossing is a convex portion provided on the surface of the card. When the hologram is illuminated with light, a picture appears. The picture also appears when the watermark is illuminated with light. Therefore, when a card that has been embossed, holographic, or watermarked is irradiated with light, an embossed shadow, a hologram picture, or a watermark picture appears.

加工が施されているカードを、プリンタを用いて偽造した場合、偽造カードに光を照射しても、エンボスの影、ホログラムの絵、又は、透かしの絵が現れる可能性は低い。この現象を利用して真贋判定を行ってもよい。
以下では、実施の形態4について、実施の形態1と異なる点を説明する。後述する構成を除く他の構成については、実施の形態1と共通している。このため、実施の形態1と共通する構成部には実施の形態1と同一の参照符号を付してその説明を省略する。
When a processed card is counterfeited using a printer, it is unlikely that an embossed shadow, a hologram picture, or a watermark picture will appear even if the counterfeit card is irradiated with light. Authenticity may be determined using this phenomenon.
Hereinafter, the fourth embodiment will be described as different from the first embodiment. Other configurations other than the configurations described later are common to the first embodiment. Therefore, the same reference reference numerals as those in the first embodiment are assigned to the components common to the first embodiment, and the description thereof will be omitted.

図19は、実施の形態4における判定装置の要部構成を示すブロック図である。実施の形態4を実施の形態1と比較した場合、判定装置1の入力部10は、内部バス13に加えて、撮像装置3が接続されている。撮像装置3は、カードの画像を撮影し、撮影した画像の画像データを判定装置1の入力部10に出力する。 FIG. 19 is a block diagram showing a main configuration of the determination device according to the fourth embodiment. When the fourth embodiment is compared with the first embodiment, the input unit 10 of the determination device 1 is connected to the image pickup device 3 in addition to the internal bus 13. The image pickup device 3 captures an image of the card and outputs the image data of the captured image to the input unit 10 of the determination device 1.

図20はカードCの撮影の説明図である。撮像装置3は、載置台30、照射器31及び撮影器32を備える。撮像装置3では、カードCは載置台30に載置され、照射器31が、カードCの上面の斜め上からカードCに光を照射する。照射器31がカードCに光を照射している状態で、撮影器32はカードCの画像を撮影する。撮像装置3は、撮影器32が撮影した画像の画像データを生成し、生成した画像データを判定装置1の入力部10に出力する。判定装置1において、制御部12は、実施の形態1と同様に、入力部10に画像データが入力された場合、入力部10に入力された画像データを取得し、真贋判定処理を実行する。 FIG. 20 is an explanatory diagram of shooting of the card C. The image pickup device 3 includes a mounting table 30, an irradiator 31, and an imager 32. In the image pickup apparatus 3, the card C is placed on the mounting table 30, and the irradiator 31 irradiates the card C with light from diagonally above the upper surface of the card C. The imager 32 captures an image of the card C while the irradiator 31 irradiates the card C with light. The image pickup device 3 generates image data of an image taken by the image pickup device 32, and outputs the generated image data to the input unit 10 of the determination device 1. In the determination device 1, when the image data is input to the input unit 10, the control unit 12 acquires the image data input to the input unit 10 and executes the authenticity determination process, as in the first embodiment.

カードCには、エンボス、ホログラム又は透かしに関する加工が施されている。従って、カードCが本物である場合、撮像装置3が出力した画像データの画像には、エンボスの影、ホログラムの絵、又は、透かしの絵が写っている。カードCの画像において、座標データZが示す複数の場所にある複数の部分画像は、カードC上において、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の画像である。 Card C is embossed, hologramed or watermarked. Therefore, when the card C is genuine, the image of the image data output by the image pickup apparatus 3 includes an embossed shadow, a hologram picture, or a watermark picture. In the image of the card C, the plurality of partial images at the plurality of locations indicated by the coordinate data Z are images of a portion on the card C in which an embossed shadow, a hologram picture, or a watermark picture appears.

従って、真贋度推定モデルRの生成に用いる部分画像データの部分画像、及び、画像データから抽出される部分画像データの部分画像は、カードC上において、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の画像である。また、真贋度判定処理のステップS21では、制御部12は、入力部10から取得した部分画像データから、カードC上において、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の部分画像データを抽出する。
以上のように構成された実施の形態4における判定装置1は、実施の形態1における判定装置1と同様の効果を奏する。
Therefore, the partial image of the partial image data used to generate the authenticity estimation model R and the partial image of the partial image data extracted from the image data are embossed shadows, hologram pictures, or watermarks on the card C. It is an image of the part where the picture of is reflected. Further, in step S21 of the authenticity determination process, the control unit 12 is a portion on the card C where an embossed shadow, a hologram picture, or a watermark picture is reflected from the partial image data acquired from the input unit 10. Extract image data.
The determination device 1 according to the fourth embodiment configured as described above has the same effect as the determination device 1 according to the first embodiment.

なお、実施の形態4において、撮像装置3が備える照射器31の数は2以上であってもよい。この場合、複数の照射器31の設置場所は相互に異なる。撮像装置3では、カードCは載置台30に載置され、複数の照射器31が、順次、カードCの上面の斜め上からカードCに光を照射する。カードCに光を照射する照射器31が変更される都度、撮影器32は、照射器31によって光が照射されているカードCの画像を撮影する。撮像装置3は、撮影器32が撮影した複数の画像に対応する複数の画像データを生成し、生成した複数の画像データを判定装置1の入力部10に出力する。判定装置1において、制御部12は、入力部10に複数の画像データが入力された場合、入力部10に入力された複数の画像データを取得し、取得した各画像データについて真贋判定処理を実行する。 In the fourth embodiment, the number of irradiators 31 included in the image pickup apparatus 3 may be two or more. In this case, the installation locations of the plurality of irradiators 31 are different from each other. In the image pickup apparatus 3, the card C is placed on the mounting table 30, and a plurality of irradiators 31 sequentially irradiate the card C with light from diagonally above the upper surface of the card C. Each time the irradiator 31 that irradiates the card C with light is changed, the imager 32 captures an image of the card C that is illuminated by the irradiator 31. The image pickup apparatus 3 generates a plurality of image data corresponding to the plurality of images captured by the imager 32, and outputs the generated plurality of image data to the input unit 10 of the determination device 1. In the determination device 1, when a plurality of image data are input to the input unit 10, the control unit 12 acquires a plurality of image data input to the input unit 10 and executes an authenticity determination process for each acquired image data. To do.

この場合、複数の画像データに対応する複数の真贋度推定モデルRが用意されている。例えば、全ての真贋度判定処理において、カードCが本物であると判定された場合、入力部10に入力された複数の画像データの1つを用いて、カードに記載されている個人情報の読み取り等が行われる。 In this case, a plurality of authenticity estimation models R corresponding to a plurality of image data are prepared. For example, when the card C is determined to be genuine in all the authenticity determination processes, the personal information written on the card is read using one of the plurality of image data input to the input unit 10. Etc. are performed.

なお、実施の形態2,3それぞれの構成に、実施の形態4の構成を追加してもよい。この場合、実施の形態2,3それぞれにおいて、実施の形態4と同様に、入力部10に撮像装置3が接続されている。照射器31の数が1である場合、撮像装置3は、照射器31が光を照射していない状態で撮影器32が撮影した画像の第1画像データと、照射器31が光を照射している状態で撮影器32が撮影した画像の第2画像データとを入力部10に出力する。 The configuration of the fourth embodiment may be added to each of the configurations of the second and third embodiments. In this case, in each of the second and third embodiments, the imaging device 3 is connected to the input unit 10 as in the fourth embodiment. When the number of the irradiators 31 is 1, the image pickup device 3 irradiates the first image data of the image taken by the photographer 32 with the irradiator 31 not irradiating the light and the irradiator 31 with the light. The second image data of the image taken by the camera 32 in this state is output to the input unit 10.

照射器31の数が2以上である場合、撮像装置3は、カードCに光を照射する照射器31を順次変更する。カードCに光を照射する照射器31が変更される都度、撮影器32は、照射器31によって光が照射されているカードCの画像を撮影する。撮像装置3は、撮影器32が撮影した複数の画像に対応する複数の第2画像データを生成する。撮像装置3は、第1画像データと、生成した複数の第2画像データとを判定装置1の入力部10に出力する。 When the number of the irradiators 31 is 2 or more, the image pickup apparatus 3 sequentially changes the irradiators 31 that irradiate the card C with light. Each time the irradiator 31 that irradiates the card C with light is changed, the imager 32 captures an image of the card C that is illuminated by the irradiator 31. The image pickup apparatus 3 generates a plurality of second image data corresponding to the plurality of images captured by the imager 32. The image pickup apparatus 3 outputs the first image data and the generated plurality of second image data to the input unit 10 of the determination apparatus 1.

判定装置1の制御部12は、第1画像データを用いて実施の形態2又は実施の形態3の真贋度判定処理を実行するとともに、第2画像データを用いて実施の形態4における一又は複数の真贋度判定処理を実行する。制御部12は、例えば、実施の形態2又は実施の形態3の真贋度判定処理において、カードCが本物であると判定した場合、実施の形態4における一又は複数の真贋度判定処理を実行する。
また、実施の形態2,3において、1種類の部分画像データとして、実施の形態4における部分画像データを用いてもよい。
The control unit 12 of the determination device 1 executes the authenticity determination process of the second embodiment or the third embodiment using the first image data, and one or more of the second image data in the fourth embodiment. Executes the authenticity determination process of. For example, when the card C is determined to be genuine in the authenticity determination process of the second embodiment or the third embodiment, the control unit 12 executes one or more authenticity determination processes in the fourth embodiment. ..
Further, in the second and third embodiments, the partial image data in the fourth embodiment may be used as one type of partial image data.

(実施の形態5)
実施の形態1におけるモデル生成装置2は、判定装置1が行った判定の結果に基づいて真贋度推定モデルRの再学習を行ってもよい。
以下では、実施の形態5について、実施の形態1と異なる点を説明する。後述する構成を除く他の構成については、実施の形態1と共通している。このため、実施の形態1と共通する構成部には実施の形態1と同一の参照符号を付してその説明を省略する。
(Embodiment 5)
The model generation device 2 in the first embodiment may relearn the authenticity estimation model R based on the result of the determination performed by the determination device 1.
Hereinafter, the differences between the fifth embodiment and the first embodiment will be described. Other configurations other than the configurations described later are common to the first embodiment. Therefore, the same reference reference numerals as those in the first embodiment are assigned to the components common to the first embodiment, and the description thereof will be omitted.

図21は、実施の形態5における再学習システムの要部構成を示すブロック図である。再学習システムは、複数の判定装置1,1,・・・と、モデル生成装置2とを備える。これらはネットワークNに接続されている。実施の形態5では、各判定装置1は、真贋度推定モデルR及び教師データをモデル生成装置2に送信する。モデル生成装置2は、真贋度推定モデルRの再学習を行う。 FIG. 21 is a block diagram showing a main configuration of the re-learning system according to the fifth embodiment. The re-learning system includes a plurality of determination devices 1, 1, ..., And a model generation device 2. These are connected to network N. In the fifth embodiment, each determination device 1 transmits the authenticity estimation model R and the teacher data to the model generation device 2. The model generation device 2 relearns the authenticity estimation model R.

実施の形態5における判定装置1は、実施の形態1における判定装置1の構成部に加えて、通信部14を備える。通信部14も内部バス13に接続されている。通信部14は、制御部12の指示に従って、真贋度推定モデルR、複数の教師データ、第1評価用データ及び第2評価用データを含む更新ファイルをモデル生成装置2に送信する。通信部14は、モデル生成装置2から、再学習で更新された真贋度推定モデルRを受信する。制御部12は、通信部14から、通信部14が受信した真贋度推定モデルRを取得する。 The determination device 1 according to the fifth embodiment includes a communication unit 14 in addition to the constituent units of the determination device 1 according to the first embodiment. The communication unit 14 is also connected to the internal bus 13. The communication unit 14 transmits an update file including the authenticity estimation model R, a plurality of teacher data, the first evaluation data, and the second evaluation data to the model generation device 2 according to the instruction of the control unit 12. The communication unit 14 receives the authenticity estimation model R updated by the re-learning from the model generation device 2. The control unit 12 acquires the authenticity estimation model R received by the communication unit 14 from the communication unit 14.

判定装置1の制御部12は、真贋判定処理が終了した場合、真贋度推定モデルRに入力した部分画像データに、真贋判定の結果を示す正解ラベルが対応付けられている複数の教師データを生成し、生成した複数の教師データを記憶部11に記憶する。第1評価用データ及び第2評価用データは、例えば、予め記憶部11に記憶されている。
判定装置1では、制御部12の処理素子は、コンピュータプログラムP1を実行することによって、真贋度推定モデルRを更新する更新処理を実行する。
When the authenticity determination process is completed, the control unit 12 of the determination device 1 generates a plurality of teacher data in which the partial image data input to the authenticity estimation model R is associated with a correct answer label indicating the result of the authenticity determination. Then, the generated plurality of teacher data are stored in the storage unit 11. The first evaluation data and the second evaluation data are stored in the storage unit 11 in advance, for example.
In the determination device 1, the processing element of the control unit 12 executes an update process for updating the authenticity estimation model R by executing the computer program P1.

実施の形態5を実施の形態1と比較した場合、モデル生成装置2は、入力部20の代わりに通信部26を備える。通信部26は、内部バス25及びネットワークNに接続されている。通信部26は、判定装置1の通信部14から更新ファイルを受信する。モデル生成装置2の通信部26が受信した更新ファイルは、制御部24によって取得される。通信部26は、制御部24の指示に従って、更新ファイルを判定装置1の通信部14に送信する。モデル生成装置2では、制御部24の処理素子は、コンピュータプログラムP2を実行することによって、真贋度推定モデルRの再学習を行う再学習処理を実行する。 When the fifth embodiment is compared with the first embodiment, the model generation device 2 includes a communication unit 26 instead of the input unit 20. The communication unit 26 is connected to the internal bus 25 and the network N. The communication unit 26 receives the update file from the communication unit 14 of the determination device 1. The update file received by the communication unit 26 of the model generation device 2 is acquired by the control unit 24. The communication unit 26 transmits the update file to the communication unit 14 of the determination device 1 according to the instruction of the control unit 24. In the model generation device 2, the processing element of the control unit 24 executes a re-learning process for re-learning the authenticity estimation model R by executing the computer program P2.

図22は、判定装置1及びモデル生成装置2が行う処理の手順を示すフローチャートである。図22には、判定装置1の制御部12が実行する更新処理と、モデル生成装置2の制御部24が実行する再学習処理とが示されている。制御部12,24それぞれは更新処理及び再学習処理を周期的に実行する。 FIG. 22 is a flowchart showing a procedure of processing performed by the determination device 1 and the model generation device 2. FIG. 22 shows an update process executed by the control unit 12 of the determination device 1 and a relearning process executed by the control unit 24 of the model generation device 2. Each of the control units 12 and 24 periodically executes the update process and the relearning process.

更新処理において、判定装置1の制御部12は、真贋度推定モデルRを更新するか否かを判定する(ステップS61)。制御部12は、例えば、記憶部11に記憶されている教師データの数が所定数以上である場合に、真贋度推定モデルRを更新すると判定し、記憶部11に記憶されている教師データの数が所定数未満である場合に真贋度推定モデルRを更新しないと判定する。 In the update process, the control unit 12 of the determination device 1 determines whether or not to update the authenticity estimation model R (step S61). For example, when the number of teacher data stored in the storage unit 11 is equal to or greater than a predetermined number, the control unit 12 determines that the authenticity estimation model R is updated, and determines that the teacher data stored in the storage unit 11 is updated. When the number is less than a predetermined number, it is determined that the authenticity estimation model R is not updated.

制御部12は、真贋度推定モデルRを更新すると判定した場合(S61:YES)、通信部14に指示して、記憶部11に記憶されている真贋度推定モデルR、複数の教師データ、第1評価用データ及び第2評価用データを含む更新ファイルを、ネットワークNを介してモデル生成装置2の通信部26に送信させる(ステップS62)。モデル生成装置2の制御部24は、通信部26が判定装置1の通信部14から更新ファイルを受信したか否かを判定する(ステップS71)。 When the control unit 12 determines to update the authenticity estimation model R (S61: YES), the control unit 12 instructs the communication unit 14, the authenticity estimation model R stored in the storage unit 11, a plurality of teacher data, and the first An update file including the 1st evaluation data and the 2nd evaluation data is transmitted to the communication unit 26 of the model generator 2 via the network N (step S62). The control unit 24 of the model generation device 2 determines whether or not the communication unit 26 has received the update file from the communication unit 14 of the determination device 1 (step S71).

モデル生成装置2の制御部24は、通信部26が更新ファイルを受信したと判定した場合(S71:YES)、通信部26が受信した更新ファイルを記憶部23に記憶し(ステップS72)、図5及び図6に示す真贋度推定モデル生成処理を実行する(ステップS73)。これにより、通信部26が受信した真贋度推定モデルRの再学習が行われる。
なお、ステップS73で実行する真贋度推定モデル生成処理では、経路は既に形成されているので、ステップS1を実行せず、ステップS2から処理を開始する。
When the control unit 24 of the model generation device 2 determines that the communication unit 26 has received the update file (S71: YES), the control unit 24 stores the update file received by the communication unit 26 in the storage unit 23 (step S72). The authenticity estimation model generation process shown in 5 and 6 is executed (step S73). As a result, the authenticity estimation model R received by the communication unit 26 is relearned.
In the authenticity estimation model generation process executed in step S73, since the route has already been formed, the process is started from step S2 without executing step S1.

次に、制御部24は、通信部26に指示して、再学習された真贋度推定モデルRを判定装置1の通信部14に送信させる(ステップS74)。制御部24は、通信部26が更新ファイルを受信していないと判定した場合(S71:NO)、又は、ステップS74を実行した後、再学習処理を終了する。 Next, the control unit 24 instructs the communication unit 26 to transmit the relearned authenticity estimation model R to the communication unit 14 of the determination device 1 (step S74). When the communication unit 26 determines that the update file has not been received (S71: NO), or after executing step S74, the control unit 24 ends the re-learning process.

判定装置1の制御部12は、ステップS62を実行した後、通信部14が、モデル生成装置2の通信部26から真贋度推定モデルRを受信したか否かを判定する(ステップS63)。制御部12は、通信部14が真贋度推定モデルRを受信していないと判定した場合(S63:NO)、ステップS63を再び実行し、通信部14が真贋度推定モデルRを受信するまで待機する。制御部12は、通信部14が真贋度推定モデルRを受信したと判定した場合(S63:YES)、記憶部11に記憶されている真贋度推定モデルRを、通信部14が受信した真贋度推定モデルRに更新する(ステップS64)。
制御部12は、真贋度推定モデルRを更新しないと判定した場合(S61:NO)、ステップS64を実行した後、更新処理を終了する。
After executing step S62, the control unit 12 of the determination device 1 determines whether or not the communication unit 14 has received the authenticity estimation model R from the communication unit 26 of the model generation device 2 (step S63). When the control unit 12 determines that the communication unit 14 has not received the authenticity estimation model R (S63: NO), the control unit 12 executes step S63 again and waits until the communication unit 14 receives the authenticity estimation model R. To do. When the control unit 12 determines that the communication unit 14 has received the authenticity estimation model R (S63: YES), the control unit 12 receives the authenticity estimation model R stored in the storage unit 11 by the communication unit 14. Update to the estimation model R (step S64).
When the control unit 12 determines that the authenticity estimation model R is not updated (S61: NO), the control unit 12 ends the update process after executing step S64.

実施の形態5における判定装置1は、実施の形態1における判定装置1が奏する効果を同様に奏する。更に、実施の形態5における判定装置1に記憶されている真贋度推定モデルRは、再学習が行われることによって、定期的に改善される。 The determination device 1 in the fifth embodiment similarly exhibits the effect of the determination device 1 in the first embodiment. Further, the authenticity estimation model R stored in the determination device 1 in the fifth embodiment is periodically improved by performing re-learning.

なお、実施の形態5における真贋度推定モデルRの再学習において、判定装置1の制御部12は、通信部14に指示して、真贋度推定モデルRの代わりに真贋度推定モデルRのパラメータを示す情報をモデル生成装置2の通信部26に送信させてもよい。この場合、モデル生成装置2の制御部24は、通信部26が受信したパラメータに基づいて真贋度推定モデルRを生成し、生成した真贋度推定モデルRの再学習を行う。更に、制御部24は、通信部26に指示して、判定装置1の通信部14に、真贋度推定モデルRの代わりに、真贋度推定モデルRのパラメータを示す情報を送信してもよい。この場合、判定装置1の制御部12は、記憶部11に記憶されている真贋度推定モデルRのパラメータを、受信した情報に基づいて更新する。 In the re-learning of the authenticity estimation model R in the fifth embodiment, the control unit 12 of the determination device 1 instructs the communication unit 14 to use the parameters of the authenticity estimation model R instead of the authenticity estimation model R. The indicated information may be transmitted to the communication unit 26 of the model generation device 2. In this case, the control unit 24 of the model generation device 2 generates the authenticity estimation model R based on the parameters received by the communication unit 26, and relearns the generated authenticity estimation model R. Further, the control unit 24 may instruct the communication unit 26 to transmit information indicating the parameters of the authenticity estimation model R to the communication unit 14 of the determination device 1 instead of the authenticity estimation model R. In this case, the control unit 12 of the determination device 1 updates the parameters of the authenticity estimation model R stored in the storage unit 11 based on the received information.

また、実施の形態2〜4において、判定装置1の制御部12及びモデル生成装置2の制御部24それぞれは、実施の形態5と同様に、更新処理及び再学習処理を実行してもよい。実施の形態2,3においては、判定装置1の記憶部11に複数の真贋度推定モデルが記憶されている。このため、各真贋度推定モデルについて、判定装置1の制御部12及びモデル生成装置2の制御部24それぞれは更新処理及び再学習処理を実行する。 Further, in the second to fourth embodiments, the control unit 12 of the determination device 1 and the control unit 24 of the model generation device 2 may execute the update process and the relearning process, respectively, as in the fifth embodiment. In the second and third embodiments, a plurality of authenticity estimation models are stored in the storage unit 11 of the determination device 1. Therefore, for each authenticity estimation model, the control unit 12 of the determination device 1 and the control unit 24 of the model generation device 2 each execute an update process and a relearning process.

更に、実施の形態1〜5において、判定装置1の入力部10に入力される画像データは、文字が記載されているもの、即ち、文書の画像データであればよいので、カードの画像データに限定されない。入力部10に入力される画像データとして、冊子又は契約書等の画像データが挙げられる。冊子は、パスポート、銀行の通帳、生徒手帳、年金手帳、身体障害者手帳又は母子健康手帳等である。 Further, in the first to fifth embodiments, the image data input to the input unit 10 of the determination device 1 may be the one in which characters are described, that is, the image data of the document, and thus the image data of the card. Not limited. Examples of the image data input to the input unit 10 include image data such as a booklet or a contract. The booklet is a passport, a bank passbook, a student certificate, a pension certificate, a disability certificate, a maternal and child health certificate, and the like.

(実施の形態6)
実施の形態3の真贋判定処理のステップS51において、判定装置1の制御部12は、画像データの画像に写っているカードの種類を特定する特定処理を実行する。制御部12は、カードの画像データと、カードの種類との関係を学習した第2の学習済みモデルを用いて特定処理を実行してもよい。
以下では、実施の形態6について、実施の形態3と異なる点を説明する。後述する構成を除く他の構成については、実施の形態3と共通している。このため、実施の形態3と共通する構成部には実施の形態3と同一の参照符号を付してその説明を省略する。
(Embodiment 6)
In step S51 of the authenticity determination process of the third embodiment, the control unit 12 of the determination device 1 executes a specific process of specifying the type of the card shown in the image of the image data. The control unit 12 may execute the specific process using the second trained model that has learned the relationship between the image data of the card and the type of the card.
Hereinafter, the difference between the sixth embodiment and the third embodiment will be described. Other configurations other than the configurations described later are common to the third embodiment. Therefore, the same reference reference numerals as those in the third embodiment are assigned to the components common to the third embodiment, and the description thereof will be omitted.

図23は、実施の形態6における認証装置5の概要の説明図である。ユーザは、運転免許証を含む複数種類のカードを認証装置5に挿入する。カードは矩形板状をなす。認証装置5は、挿入されたカードに表示されている個人情報を読み取り、読み取った個人情報に基づいて、カードの所有者を認証する。認証装置5は判定装置1及び撮像装置40を備える。撮像装置40は判定装置1に接続されている。 FIG. 23 is an explanatory diagram of an outline of the authentication device 5 according to the sixth embodiment. The user inserts a plurality of types of cards including a driver's license into the authentication device 5. The card has a rectangular plate shape. The authentication device 5 reads the personal information displayed on the inserted card and authenticates the owner of the card based on the read personal information. The authentication device 5 includes a determination device 1 and an image pickup device 40. The image pickup device 40 is connected to the determination device 1.

複数種類のカードには、身分を証明するために公的に発行され、認証装置5に挿入されるべき対象カードと、認証装置5に挿入されるべきではない対象外カードとが含まれている。対象カードの種類として、運転免許証の他に、マイナンバーカード、マイナンバー通知カード、住民基本台帳カード、特別永住者証明書、在留カード、パスポートカード又はソーシャルセキュリティカード等が挙げられる。対象カードに係る複数の種類は予め設定されている。対象外カードの種類として、ポイントカード又は電子マネー用カード等が挙げられる。対象外カードに係る一又は複数の種類も予め設定されている。 The plurality of types of cards include a target card that is publicly issued to prove the identity and should be inserted into the authentication device 5, and a non-target card that should not be inserted into the authentication device 5. .. In addition to the driver's license, the types of target cards include My Number Card, My Number Notification Card, Basic Resident Register Card, Special Permanent Resident Certificate, Residence Card, Passport Card, Social Security Card, and the like. A plurality of types of target cards are set in advance. Examples of non-applicable cards include point cards and electronic money cards. One or more types of non-applicable cards are also preset.

撮像装置40は、ユーザが挿入したカードの第1面及び第2面の画像を撮影し、撮影した2つの画像に対応する2つの画像データを生成し、生成した2つの画像データを判定装置1に出力する。以下では、第1面の画像を第1面画像と記載し、第2面の画像を第2面画像と記載する。第1面画像の画像データを第1面画像データと記載し、第2面画像の画像データを第2面画像データと記載する。第1面画像及び第2面画像は矩形状をなす。 The image pickup device 40 captures images of the first surface and the second surface of the card inserted by the user, generates two image data corresponding to the two captured images, and determines the generated two image data. Output to. In the following, the image of the first surface will be referred to as the first surface image, and the image of the second surface will be referred to as the second surface image. The image data of the first surface image is described as the first surface image data, and the image data of the second surface image is described as the second surface image data. The first surface image and the second surface image have a rectangular shape.

判定装置1の記憶部11には、複数の第1真贋度推定モデルR10,R11,・・・及び複数の第2真贋度推定モデルR20,R21,・・・に加えて、種類特定モデルGが記憶されている。種類特定モデルGは、カードの画像データを縮小することによって得られる縮小画像データと、カードの種類及び表裏との関係を学習した第2の学習済みモデルである。ここで、カードの表裏はカードの向きの1つである。
実施の形態3の説明で述べたように、部分画像データの種類の数は、2に限定されず、1又は3以上であってもよい。実施の形態6では、部分画像データの種類の数は2であるとして構成を説明する。
In the storage unit 11 of the determination device 1, in addition to the plurality of first authenticity estimation models R10, R11, ..., The plurality of second authenticity estimation models R20, R21, ..., The type identification model G is provided. It is remembered. The type-specific model G is a second trained model in which the relationship between the reduced image data obtained by reducing the image data of the card, the type of the card, and the front and back sides is learned. Here, the front and back of the card is one of the orientations of the card.
As described in the description of the third embodiment, the number of types of partial image data is not limited to 2, and may be 1 or 3 or more. In the sixth embodiment, the configuration will be described assuming that the number of types of partial image data is two.

判定装置1の制御部12は、撮像装置40から第1面画像データ及び第2面画像データが入力された場合、入力された第1面画像データの縮小画像データを生成し、生成した縮小画像データを種類特定モデルGに入力する。制御部12は、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部12は、算出した確率に基づいて、第1面画像データの画像に写っているカードの種類及び表裏を特定する。 When the first surface image data and the second surface image data are input from the image pickup device 40, the control unit 12 of the determination device 1 generates reduced image data of the input first surface image data, and the generated reduced image. The data is input to the type-specific model G. The control unit 12 calculates the probability of indicating the certainty of the type of the card and the classification of the front and back sides as the output of the type identification model G. The control unit 12 identifies the type and front and back of the card shown in the image of the first surface image data based on the calculated probability.

制御部12は、第1面画像データに基づいて、第1面画像データの画像に写っているカードの種類及び表裏を特定することができなかった場合、入力された第2面画像データの縮小画像データを生成し、生成した縮小画像データを種類特定モデルGに入力する。制御部12は、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部12は、算出した確率に基づいて、第2面画像データの画像に写っているカードの種類及び表裏を特定する。 When the control unit 12 cannot specify the type and front and back of the card shown in the image of the first surface image data based on the first surface image data, the control unit 12 reduces the input second surface image data. Image data is generated, and the generated reduced image data is input to the type identification model G. The control unit 12 calculates the probability of indicating the certainty of the type of the card and the classification of the front and back sides as the output of the type identification model G. The control unit 12 identifies the type and front and back of the card shown in the image of the second side image data based on the calculated probability.

判定装置1の制御部12は、カードの種類及び表裏を特定した後、カードの表側又は裏側の画像データを用いて真贋判定処理を実行する。制御部12は、画像データの画像に写っているカードが本物であると判定した場合、カードの表側及び裏側の画像データの両方又は一方から、カードに表示されている個人情報を読み取り、読み取った個人情報に基づいて、カードの所有者を認証する。 After specifying the type and front and back of the card, the control unit 12 of the determination device 1 executes the authenticity determination process using the image data on the front or back side of the card. When the control unit 12 determines that the card shown in the image of the image data is genuine, the control unit 12 reads and reads the personal information displayed on the card from both or one of the image data on the front side and the back side of the card. Authenticate the cardholder based on personal information.

図24は認証装置5の外観図である。認証装置5は、判定装置1及び撮像装置40が収容されている収容箱5aを備える。収容箱5aの外面には、内外方向に貫通している矩形状の開口5bが設けられている。認証装置5のユーザは、カードCを開口5bに挿入する。開口5bの長辺はカードCの短辺よりも若干長い。開口5bの短辺はカードCの厚みよりも若干長い。従って、開口5bの大きさはカードCの短辺側の端面の大きさと略同じである。認証装置5のユーザは、カードCをカードCの短辺側から開口5bに挿入する。 FIG. 24 is an external view of the authentication device 5. The authentication device 5 includes a storage box 5a in which the determination device 1 and the image pickup device 40 are housed. The outer surface of the storage box 5a is provided with a rectangular opening 5b penetrating in the inward and outward directions. The user of the authentication device 5 inserts the card C into the opening 5b. The long side of the opening 5b is slightly longer than the short side of the card C. The short side of the opening 5b is slightly longer than the thickness of the card C. Therefore, the size of the opening 5b is substantially the same as the size of the end face on the short side side of the card C. The user of the authentication device 5 inserts the card C into the opening 5b from the short side of the card C.

図25は対象カードの例示図である。複数種類のカードCに含まれる対象カードの表側及び裏側の少なくとも一方には、個人情報として、氏名、生年月日、住所又は顔写真等の個人情報が表示されている。図25の例では、対象カードの表側には、氏名、生年月日、住所及び顔写真等の個人情報が表示され、対象カードの裏側には、個人情報が表示されていない。図25に示す対象カードの裏側には、例えば、手書きで個人情報が書き込まれる。対象カードについては、種類に応じて個人情報が表示されている表示位置は異なる。なお、複数種類のカードCそれぞれの表側及び裏側は適宜定義される。例えば、氏名が表示されている面を表側と定義し、氏名が表示されていない面を裏側と定義してもよい。 FIG. 25 is an example diagram of the target card. Personal information such as name, date of birth, address, or face photograph is displayed as personal information on at least one of the front side and the back side of the target card included in the plurality of types of cards C. In the example of FIG. 25, personal information such as name, date of birth, address, and face photograph is displayed on the front side of the target card, and personal information is not displayed on the back side of the target card. Personal information is written by hand on the back side of the target card shown in FIG. 25, for example. Regarding the target card, the display position where personal information is displayed differs depending on the type. The front side and the back side of each of the plurality of types of cards C are appropriately defined. For example, the side on which the name is displayed may be defined as the front side, and the side on which the name is not displayed may be defined as the back side.

図24に示す認証装置5にカードCが開口5bに挿入された場合、認証装置5の撮像装置40は、開口5bに挿入されたカードCの第1面及び第2面それぞれに対応する第1面画像及び第2面画像を撮影し、撮影した第1面画像及び第2面画像それぞれに対応する第1面画像データ及び第2面画像データを生成する。第1面画像及び第2面画像は矩形状をなす。前述したように、判定装置1は、第1面画像データ及び第2面画像データの両方又は一方を用いてカードCの種類及び表裏を特定する。「特定」の意味には、「判別」、「識別」及び「判定」等の意味が含まれる。 When the card C is inserted into the opening 5b in the authentication device 5 shown in FIG. 24, the image pickup device 40 of the authentication device 5 is the first surface corresponding to the first surface and the second surface of the card C inserted into the opening 5b, respectively. The surface image and the second surface image are photographed, and the first surface image data and the second surface image data corresponding to the photographed first surface image and the second surface image are generated. The first surface image and the second surface image have a rectangular shape. As described above, the determination device 1 identifies the type and front and back of the card C by using both or one of the first side image data and the second side image data. The meaning of "specific" includes meanings such as "discrimination", "identification", and "judgment".

図26は種類特定モデルGの概略図である。種類特定モデルGも、深層学習を含む機械学習の学習済みモデルであり、例えば、CNNである。種類特定モデルGは、入力層、複数の中間層及び出力層を有する。図26には、中間層の数が2である例が示されている。なお、中間層の数は3以上であってもよい。 FIG. 26 is a schematic view of the type identification model G. The type-specific model G is also a trained model of machine learning including deep learning, for example, CNN. The type-specific model G has an input layer, a plurality of intermediate layers, and an output layer. FIG. 26 shows an example in which the number of intermediate layers is 2. The number of intermediate layers may be 3 or more.

入力層、中間層及び出力層それぞれでは、一又は複数のニューロンを有する。各層のニューロンは、前後の層に存在するニューロンと一方向に所望の重み及びバイアスで結合されている。入力層のニューロンの数と同数の成分を有するベクトルが、種類特定モデルGの入力データとして入力される。 Each of the input layer, middle layer and output layer has one or more neurons. The neurons in each layer are unidirectionally connected to the neurons in the previous and next layers with the desired weight and bias. A vector having the same number of components as the number of neurons in the input layer is input as input data of the type identification model G.

なお、複数の中間層に畳み込みを行う層が含まれていてもよい。この層では、入力されたデータに、畳み込みフィルタを含む適宜のフィルタを適用し、フィルタを適用した後に得られる複数のデータを次の層、例えば、プーイング層に出力する。 In addition, a layer for convolution may be included in a plurality of intermediate layers. In this layer, an appropriate filter including a convolution filter is applied to the input data, and a plurality of data obtained after applying the filter is output to the next layer, for example, the pouring layer.

入力層の各ニューロンに入力された入力値は、最初の中間層に入力される。この中間層において、重み及びバイアスを含む活性化関数を用いて出力が算出される。算出された値が次の中間層に入力される。以下同様にして、出力層の出力が求められるまで次々と後の層に伝達される。なお、ニューロン間を結合する重み及びバイアス等の各種パラメータは、例えば、誤差逆伝播法を用いて学習される。
種類特定モデルGの入力層に入力する入力データは、第1面画像データ又は第2面画像データを縮小することによって得られる縮小画像データである。例えば、縮小画像データの画素値が入力データとして種類特定モデルGの入力層に入力される。
The input values input to each neuron in the input layer are input to the first intermediate layer. In this intermediate layer, the output is calculated using an activation function that includes weights and biases. The calculated value is input to the next intermediate layer. In the same manner below, the output of the output layer is transmitted to the subsequent layers one after another until the output is obtained. Various parameters such as weights and biases that connect neurons are learned by using, for example, an error backpropagation method.
The input data to be input to the input layer of the type-specific model G is the reduced image data obtained by reducing the first surface image data or the second surface image data. For example, the pixel value of the reduced image data is input to the input layer of the type-specific model G as input data.

図27は縮小画像データの説明図である。図27の上側には、第1面画像又は第2面画像が示され、図27の下側には、縮小画像データに対応する縮小画像が示されている。第1面画像データ及び第2面画像データそれぞれについて、縦及び横の画素数はM(M:自然数)及びN(N:自然数)で表されている。 FIG. 27 is an explanatory diagram of reduced image data. The first side image or the second side image is shown on the upper side of FIG. 27, and the reduced image corresponding to the reduced image data is shown on the lower side of FIG. 27. The number of vertical and horizontal pixels for each of the first surface image data and the second surface image data is represented by M (M: natural number) and N (N: natural number).

第1面画像データ及び第2面画像データそれぞれについて、縦及び横の画素数を下げることによって、カードに表示されている個人情報を読み取ることが不可能な縮小画像データを生成する。例えば、縦及び横の画素数を(M/10)及び(N/10)に変更することによって縮小画像データを生成する。M及びNそれぞれは例えば380及び600である。第1面画像データ又は第2面画像データが縮小された場合、第1面画像又は第2面画像データも縮小される。 By reducing the number of vertical and horizontal pixels for each of the first-side image data and the second-side image data, reduced image data in which the personal information displayed on the card cannot be read is generated. For example, reduced image data is generated by changing the number of vertical and horizontal pixels to (M / 10) and (N / 10). M and N are, for example, 380 and 600, respectively. When the first surface image data or the second surface image data is reduced, the first surface image or the second surface image data is also reduced.

種類特定モデルGでは、カードの表側又は裏側の縮小画像データと、カードの種類、及び、カードの表側又は裏側を示す第2の正解ラベルとを含む第2の教師データを用いて、縮小画像データとカードの種類及び表裏との関係が学習されている。第2の正解ラベルは1つの情報である。第2の教師データの縮小画像データとして、運転免許証を含む複数種類のカードの表裏の縮小画像データが用いられる。
中間層では、第2の教師データに基づき、縮小画像データと、カードの種類及び表裏との関係が学習されている。
In the type identification model G, the reduced image data is used by using the reduced image data of the front side or the back side of the card, the type of the card, and the second teacher data including the second correct answer label indicating the front side or the back side of the card. The type of card and the relationship between the front and back are learned. The second correct label is one piece of information. As the reduced image data of the second teacher data, the reduced image data on the front and back of a plurality of types of cards including a driver's license are used.
In the middle layer, the relationship between the reduced image data, the type of card, and the front and back is learned based on the second teacher data.

出力層は、入力された縮小画像データに対応する縮小画像に写っているカードの種類及び表裏の分類の確からしさを示す確率を出力する。具体的には、カードの種類及び表裏の各組合せについて、入力された縮小画像データに係るカードの種類及び表裏の組合せが該当する確率を示す。図26では、カードの種類及び表裏の組合せを(種類,表又は裏)で示している。(運転免許証,表)、(運転免許証,裏)、(マイナンバーカード,表)及び(マイナンバーカード,裏)等の組合せそれぞれについて、入力された縮小画像データに係るカードの種類及び表裏の組合せが該当する確率を示す。
縮小画像データでは、個人情報を取得することが不可能となるまで縮小が行われている。このため、カードに表示されている個人情報に基づいて確率が出力されることはない。
The output layer outputs a probability indicating the type of card shown in the reduced image corresponding to the input reduced image data and the certainty of the classification of the front and back sides. Specifically, for each card type and front / back combination, the probability that the card type and front / back combination related to the input reduced image data correspond is shown. In FIG. 26, the type of card and the combination of front and back are shown by (type, front or back). For each combination of (driver's license, front), (driver's license, back), (my number card, front) and (my number card, back), the type of card and the combination of front and back related to the input reduced image data. Indicates the probability of being applicable.
The reduced image data is reduced until it becomes impossible to acquire personal information. Therefore, the probability is not output based on the personal information displayed on the card.

図28はモデル生成装置2の要部構成を示すブロック図である。実施の形態6におけるモデル生成装置2を、実施の形態3におけるモデル生成装置2と比較した場合、記憶部23に記憶されている内容に違いがある。実施の形態6においては、記憶部23に、複数の第1真贋度推定モデルR10,R11,・・・、複数の第2真贋度推定モデルR20,R21,・・・及びコンピュータプログラムP2に加えて、種類特定モデルGが記憶されている。 FIG. 28 is a block diagram showing a main configuration of the model generator 2. When the model generation device 2 in the sixth embodiment is compared with the model generation device 2 in the third embodiment, there is a difference in the contents stored in the storage unit 23. In the sixth embodiment, in addition to the plurality of first authenticity estimation models R10, R11, ..., the plurality of second authenticity estimation models R20, R21, ..., And the computer program P2, the storage unit 23 is stored. , Type-specific model G is stored.

入力部20には、複数の教師データ、第1評価用データ及び第2評価用データに加えて、複数の第2の教師データと、種類特定モデルGを評価するための第3評価用データ及び第4評価用データとが入力される。制御部24は、入力部20に入力された第2の教師データ、第3評価用データ及び第4評価用データを取得する。第3評価用データ及び第4評価用データそれぞれは、第2の教師データと同様に、縮小画像データと、縮小画像データの縮小画像に写っているカードの種類、及び、カードの表側又は裏側を示す第2の正解ラベルとを含む。 In the input unit 20, in addition to the plurality of teacher data, the first evaluation data and the second evaluation data, the plurality of second teacher data, the third evaluation data for evaluating the type identification model G, and the third evaluation data The fourth evaluation data is input. The control unit 24 acquires the second teacher data, the third evaluation data, and the fourth evaluation data input to the input unit 20. Similar to the second teacher data, the third evaluation data and the fourth evaluation data show the reduced image data, the type of the card shown in the reduced image of the reduced image data, and the front side or the back side of the card. Includes a second correct label to indicate.

制御部24は、コンピュータプログラムP2を実行することによって、記憶処理及び真贋度推定モデル生成処理に加えて、第2の教師データ、第3評価用データ及び第4評価用データを記憶部23に記憶する第2の記憶処理と、種類特定モデルGを生成する種類特定モデル生成処理とを実行する。
なお、制御部24が有する処理素子の数が2以上である場合、複数の処理素子がコンピュータプログラムP2に従って、記憶処理及び真贋度推定モデル生成処理だけではなく、第2の記憶処理及び種類特定モデル生成処理を協同で実行してもよい。
By executing the computer program P2, the control unit 24 stores the second teacher data, the third evaluation data, and the fourth evaluation data in the storage unit 23 in addition to the storage process and the authenticity estimation model generation process. The second storage process for generating the type-specific model G and the type-specific model generation process for generating the type-specific model G are executed.
When the number of processing elements included in the control unit 24 is 2 or more, the plurality of processing elements perform not only the storage processing and the authenticity estimation model generation processing but also the second storage processing and the type identification model according to the computer program P2. The generation process may be executed jointly.

図示しない装置から入力部20に複数の第2の教師データ、第3評価用データ及び第4評価用データが入力される。制御部24は、入力部20にこれらのデータが入力された場合、第2の記憶処理を実行する。第2の記憶処理では、制御部24は、入力部20に入力された複数の第2の教師データ、第3評価用データ及び第4評価用データを取得し、取得したこれらのデータを記憶部23に記憶する。その後、制御部24は第2の記憶処理を終了する。 A plurality of second teacher data, third evaluation data, and fourth evaluation data are input to the input unit 20 from a device (not shown). When these data are input to the input unit 20, the control unit 24 executes a second storage process. In the second storage process, the control unit 24 acquires a plurality of second teacher data, third evaluation data, and fourth evaluation data input to the input unit 20, and stores these acquired data. Store in 23. After that, the control unit 24 ends the second storage process.

種類特定モデル生成処理では、制御部24は、第2の教師データに含まれる縮小画像データを種類特定モデルGに入力し、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部24は、算出した確率に基づいて、種類特定モデルGの中間層で用いられるノード間の重み及びバイアス等のパラメータを更新する。これにより、制御部24は種類特定モデルGを生成する。 In the type-specific model generation process, the control unit 24 inputs the reduced image data included in the second teacher data into the type-specific model G, and outputs the type-specific model G as the probability of card type and front / back classification. Calculate the probability of indicating. The control unit 24 updates parameters such as weights and biases between nodes used in the intermediate layer of the type identification model G based on the calculated probabilities. As a result, the control unit 24 generates the type-specific model G.

図29は、第2の教師データに含まれる縮小画像データの説明図である。第2の教師データの縮小画像データは、複数種類のカードの単純な縮小画像データだけではない。図29の上側に示すように、カードの第1面画像データ又は第2面画像データにノイズを追加し、ノイズを追加した第1面画像データ又は第2面画像データを縮小する。これにより、カードの単純な縮小画像データにノイズが追加された縮小画像データが生成される。制御部24は、ノイズが追加された縮小画像データも第2の教師データの縮小画像データとして記憶部23に記憶する。 FIG. 29 is an explanatory diagram of reduced image data included in the second teacher data. The reduced image data of the second teacher data is not limited to the simple reduced image data of a plurality of types of cards. As shown on the upper side of FIG. 29, noise is added to the first side image data or the second side image data of the card, and the added first side image data or the second side image data is reduced. As a result, reduced image data in which noise is added to the simple reduced image data of the card is generated. The control unit 24 also stores the reduced image data to which noise is added in the storage unit 23 as the reduced image data of the second teacher data.

図29に示すノイズは、カードの汚れに対応するノイズである。縮小画像データに追加されるノイズは、汚れに対応するノイズに限定されず、日焼け又は経年劣化等によって生じる色の変化に対応するノイズも含む。制御部24は、このノイズが追加された縮小画像データも取得し、取得した縮小画像データを記憶部23に記憶する。色の変化に対応するノイズが追加された縮小画像データの縮小画像の1つとして、黄ばんだカードの縮小画像が挙げられる。 The noise shown in FIG. 29 is noise corresponding to dirt on the card. The noise added to the reduced image data is not limited to the noise corresponding to the stain, but also includes the noise corresponding to the color change caused by sunburn, aging deterioration, or the like. The control unit 24 also acquires the reduced image data to which the noise is added, and stores the acquired reduced image data in the storage unit 23. One of the reduced images of the reduced image data to which noise corresponding to the color change is added is a reduced image of a yellowed card.

図29の下側に示すように、カードの第1面画像データ又は第2面画像データに含まれる個人情報を削除又は変更し、削除又は変更することによって得られた第1面画像データ又は第2面画像データを縮小する。これにより、カードの単純な縮小画像データに含まれる個人情報が削除又は変更された縮小画像データが生成される。制御部24は、個人情報を削除又は変更することによって得られる縮小画像データも第2の教師データの縮小画像データとして記憶部23に記憶する。個人情報の変更は、例えば、氏名、生年月日又は住所の変更である。個人情報の削除は、例えば、氏名又は住所の一部分の削除である。 As shown in the lower part of FIG. 29, the first side image data or the first side image data obtained by deleting or changing the personal information contained in the first side image data or the second side image data of the card, and deleting or changing the card. Reduce the two-sided image data. As a result, the reduced image data in which the personal information contained in the simple reduced image data of the card is deleted or changed is generated. The control unit 24 also stores the reduced image data obtained by deleting or changing the personal information in the storage unit 23 as the reduced image data of the second teacher data. The change of personal information is, for example, a change of name, date of birth or address. The deletion of personal information is, for example, the deletion of a part of a name or an address.

図30及び図31は、種類特定モデル生成処理の手順を示すフローチャートである。モデル生成装置2のユーザは、操作部21において、種類特定モデル生成処理の実行を指示する第2の実行操作を行う。第2の実行操作が行われた場合において、記憶部23に、複数の第2の教師データ、第3評価用データ及び第4評価用データが記憶されているとき、制御部24は種類特定モデル生成処理を実行する。記憶部23には、種類特定モデル生成処理で用いられる第3変数及び第4変数の値が記憶されている。制御部24は、これらの値は各別に設定する。 30 and 31 are flowcharts showing the procedure of the type identification model generation process. The user of the model generation device 2 performs a second execution operation instructing the execution of the type-specific model generation process in the operation unit 21. When the second execution operation is performed and a plurality of second teacher data, third evaluation data, and fourth evaluation data are stored in the storage unit 23, the control unit 24 is a type identification model. Execute the generation process. The storage unit 23 stores the values of the third variable and the fourth variable used in the type identification model generation process. The control unit 24 sets these values separately.

種類特定モデル生成処理では、制御部24は、まず、種類特定モデルGの経路を形成する(ステップS81)。具体的には、制御部24は、入力層と入力層に隣接する中間層とに関する複数のニューロンの間の経路と、隣接する2つの中間層に関する複数のニューロン間の経路と、中間層と中間層に隣接する出力層とに関する複数のニューロン間の経路とを形成する。ニューロン間の重み及びバイアス等のパラメータは適宜設定されている。 In the type-specific model generation process, the control unit 24 first forms a path for the type-specific model G (step S81). Specifically, the control unit 24 has a pathway between a plurality of neurons regarding the input layer and an intermediate layer adjacent to the input layer, a pathway between a plurality of neurons regarding two adjacent intermediate layers, and an intermediate layer and an intermediate layer. It forms a pathway between multiple neurons with respect to the output layer adjacent to the layer. Parameters such as weight and bias between neurons are set as appropriate.

制御部24は、ステップS81を実行した後、第3変数及び第4変数の値をゼロに設定し(ステップS82)、記憶部23に記憶されている複数の第2の教師データ、第3評価用データ及び第4評価用データを、一時記憶部22にロードする(ステップS83)。次に、制御部24は、一時記憶部22から1つの第2の教師データを選択し(ステップS84)、選択した第2の教師データに含まれる縮小画像データを種類特定モデルGに入力する(ステップS85)。種類特定モデルGへのデータの入力は、種類特定モデルGの入力層へのデータの入力を意味する。次に、制御部24は、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する(ステップS86)。 After executing step S81, the control unit 24 sets the values of the third variable and the fourth variable to zero (step S82), and the plurality of second teacher data stored in the storage unit 23, the third evaluation. Data and the fourth evaluation data are loaded into the temporary storage unit 22 (step S83). Next, the control unit 24 selects one second teacher data from the temporary storage unit 22 (step S84), and inputs the reduced image data included in the selected second teacher data into the type identification model G (step S84). Step S85). The input of data to the type-specific model G means the input of data to the input layer of the type-specific model G. Next, the control unit 24 calculates the probability of indicating the type of the card and the certainty of the classification of the front and back sides as the output of the type identification model G (step S86).

次に、制御部24は、第3変数の値を1だけインクリメントし(ステップS87)、第3変数の値が第3基準値であるか否かを判定する(ステップS88)。第3基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第3変数の値が第3基準値ではないと判定した場合(S88:NO)、ステップS84を再び実行する。再び実行されたステップS84では、制御部24は、ステップS83でロードされた複数の第2の教師データの中で選択していない1つの第2の教師データを選択する。 Next, the control unit 24 increments the value of the third variable by 1 (step S87), and determines whether or not the value of the third variable is the third reference value (step S88). The third reference value is stored in the storage unit 23, is a preset constant value, and is an integer of 2 or more. When the control unit 24 determines that the value of the third variable is not the third reference value (S88: NO), the control unit 24 executes step S84 again. In step S84 executed again, the control unit 24 selects one second teacher data that has not been selected from the plurality of second teacher data loaded in step S83.

制御部24は、第3変数の値が第3基準値となるまで、ステップS84〜S87を繰り返し実行し、カードの種類及び表裏の分類の確からしさを示す確率を算出し続ける。第1基準値は、所謂、バッチサイズである。制御部24は、第3変数の値が第3基準値であると判定した場合(S88:YES)、ステップS86を繰り返し実行することによって得られた複数の算出結果と、ステップS84で選択した複数の第2の教師データの第2の正解ラベルが示す内容とに基づいて、種類特定モデルGのパラメータを更新する(ステップS89)。次に、制御部24は、一時記憶部22に記憶されている全ての第2の教師データをステップS84で選択したか否かを判定する(ステップS90)。 The control unit 24 repeatedly executes steps S84 to S87 until the value of the third variable becomes the third reference value, and continues to calculate the probability indicating the certainty of the card type and the front and back classification. The first reference value is the so-called batch size. When the control unit 24 determines that the value of the third variable is the third reference value (S88: YES), the control unit 24 includes a plurality of calculation results obtained by repeatedly executing step S86, and a plurality of data selected in step S84. The parameters of the type-specific model G are updated based on the contents indicated by the second correct answer label of the second teacher data of (step S89). Next, the control unit 24 determines whether or not all the second teacher data stored in the temporary storage unit 22 is selected in step S84 (step S90).

制御部24は、全ての第2の教師データを選択していないと判定した場合(S90:NO)、第3変数の値をゼロに設定し(ステップS91)、ステップS84を再び実行する。再び実行されたステップS84では、制御部24は、ステップS83でロードされた複数の第2の教師データの中で選択していない1つの第2の教師データを選択する。全ての第2の教師データが選択されるまで、ステップS86を繰り返し実行することによって得られた複数の算出結果に基づいて、パラメータを繰り返し更新する。 When the control unit 24 determines that all the second teacher data has not been selected (S90: NO), the control unit 24 sets the value of the third variable to zero (step S91), and executes step S84 again. In step S84 executed again, the control unit 24 selects one second teacher data that has not been selected from the plurality of second teacher data loaded in step S83. The parameters are repeatedly updated based on the plurality of calculation results obtained by repeatedly executing step S86 until all the second teacher data are selected.

制御部24は、全ての第2の教師データを選択したと判定した場合(S90:YES)、第3評価用データを用いて種類特定モデルGを評価する(ステップS92)。ステップS92では、制御部24は、第3評価用データに含まれる縮小画像データを種類特定モデルGに入力し、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部24は、この算出結果と、第3評価用データに含まれる第2の正解ラベルが示す内容とに基づいて、種類特定モデルGの出力として適切な算出結果が算出されていることを確認する。適切な算出結果が算出されていなかった場合、例えば、種類特定モデル生成処理を終了してもよい。この場合、例えば、第2の教師データの数を増やして、再度、種類特定モデル生成処理を実行する。 When the control unit 24 determines that all the second teacher data has been selected (S90: YES), the control unit 24 evaluates the type identification model G using the third evaluation data (step S92). In step S92, the control unit 24 inputs the reduced image data included in the third evaluation data into the type identification model G, and calculates the probability of indicating the certainty of the card type and the front and back classification. The control unit 24 confirms that an appropriate calculation result is calculated as the output of the type identification model G based on the calculation result and the content indicated by the second correct answer label included in the third evaluation data. To do. If an appropriate calculation result has not been calculated, for example, the type-specific model generation process may be terminated. In this case, for example, the number of the second teacher data is increased, and the type identification model generation process is executed again.

制御部24は、ステップS92を実行した後、第4変数の値を1だけインクリメントし(ステップS93)、第4変数の値が第4基準値であるか否かを判定する(ステップS94)。第4基準値は、記憶部23に記憶されており、予め設定されている一定値であり、2以上の整数である。制御部24は、第4変数の値が第4基準値ではないと判定した場合(S94:NO)、第3変数の値をゼロに設定し(ステップS95)、ステップS84を再び実行する。このとき、ステップS83でロードされた複数の第2の教師データの中に選択された第2の教師データはないとして、ステップS84を実行する。第4変数の値が第4基準値となるまで、ステップS83でロードされた複数の第2の教師データを用いて種類特定モデルGのパラメータを更新する。各第2の教師データが用いられる回数は、第4基準値の数と同じである。第4基準値は、所謂、エポック数である。 After executing step S92, the control unit 24 increments the value of the fourth variable by 1 (step S93), and determines whether or not the value of the fourth variable is the fourth reference value (step S94). The fourth reference value is stored in the storage unit 23, is a preset constant value, and is an integer of 2 or more. When the control unit 24 determines that the value of the fourth variable is not the fourth reference value (S94: NO), the control unit 24 sets the value of the third variable to zero (step S95), and executes step S84 again. At this time, it is assumed that there is no second teacher data selected among the plurality of second teacher data loaded in step S83, and step S84 is executed. The parameters of the type-specific model G are updated using the plurality of second teacher data loaded in step S83 until the value of the fourth variable becomes the fourth reference value. The number of times each second teacher data is used is the same as the number of fourth reference values. The fourth reference value is the so-called epoch number.

制御部24は、第4変数の値が第4基準値であると判定した場合(S94:YES)、第4評価用データを用いて種類特定モデルGを評価する(ステップS96)。ステップS96では、制御部24は、第4評価用データに含まれる縮小画像データを種類特定モデルGに入力し、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する。制御部24は、この算出結果と、第4評価用データに含まれる第2の正解ラベルが示す内容とに基づいて、種類特定モデルGの出力として適切な算出結果を算出していることを確認する。適切な算出結果が算出されていなかった場合、例えば、種類特定モデル生成処理を終了してもよい。この場合、例えば、第2の教師データの数を増やして、再度、種類特定モデル生成処理を実行する。 When the control unit 24 determines that the value of the fourth variable is the fourth reference value (S94: YES), the control unit 24 evaluates the type identification model G using the fourth evaluation data (step S96). In step S96, the control unit 24 inputs the reduced image data included in the fourth evaluation data into the type-specific model G, and outputs the type-specific model G as a probability of indicating the certainty of the card type and the front and back classification. Is calculated. It is confirmed that the control unit 24 calculates an appropriate calculation result as the output of the type identification model G based on the calculation result and the content indicated by the second correct answer label included in the fourth evaluation data. To do. If an appropriate calculation result has not been calculated, for example, the type-specific model generation process may be terminated. In this case, for example, the number of the second teacher data is increased, and the type identification model generation process is executed again.

制御部24は、ステップS96を実行した後、パラメータが更新された種類特定モデルGを記憶部23に記憶し(ステップS97)、種類特定モデルGの更新に用いた第2の教師データ、第3評価用データ及び第4評価用データを、一時記憶部22及び記憶部23から削除する(ステップS98)。制御部24は、ステップS98を実行した後、種類特定モデル生成処理を終了する。 After executing step S96, the control unit 24 stores the type-specific model G whose parameters have been updated in the storage unit 23 (step S97), and the second teacher data, the third, used for updating the type-specific model G. The evaluation data and the fourth evaluation data are deleted from the temporary storage unit 22 and the storage unit 23 (step S98). After executing step S98, the control unit 24 ends the type identification model generation process.

以上のように、種類特定モデル生成処理では、制御部24は、記憶部23に記憶されている複数の第2の教師データに基づき、縮小画像データを入力とする種類特定モデルGのパラメータを更新する。パラメータの更新により、種類特定モデルGが生成される。 As described above, in the type-specific model generation process, the control unit 24 updates the parameters of the type-specific model G that inputs the reduced image data based on the plurality of second teacher data stored in the storage unit 23. To do. By updating the parameters, the type-specific model G is generated.

前述したように、種類特定モデルGは、カードの一面の縮小画像データから、カードの種類及び表裏を特定する処理に用いられる。種類特定モデル生成処理では、制御部24は、第2の記憶処理で入力部20から取得した第2の教師データに基づいてパラメータを更新することによって、適切な種類特定モデルGを生成する。 As described above, the type identification model G is used in the process of identifying the type and front and back of the card from the reduced image data on one side of the card. In the type-specific model generation process, the control unit 24 generates an appropriate type-specific model G by updating the parameters based on the second teacher data acquired from the input unit 20 in the second storage process.

種類特定モデル生成処理で用いられる複数の第2の教師データに含まれる複数の縮小画像データは、複数種類のカードの表裏の画像データを縮小することによって得られる複数の縮小画像データである。種類特定モデル生成処理で用いられる複数の縮小画像データには、全種類のカードの表裏の縮小画像データが含まれる。 The plurality of reduced image data included in the plurality of second teacher data used in the type identification model generation process is a plurality of reduced image data obtained by reducing the image data on the front and back sides of the plurality of types of cards. The plurality of reduced image data used in the type-specific model generation process includes reduced image data on the front and back sides of all types of cards.

前述したように、判定装置1の制御部12は、モデル生成装置2の制御部24が種類特定モデル生成処理で生成した種類特定モデルGを用いる。判定装置1の制御部12は、種類特定モデルGの出力として算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定する。 As described above, the control unit 12 of the determination device 1 uses the type identification model G generated by the control unit 24 of the model generation device 2 in the type identification model generation process. The control unit 12 of the determination device 1 identifies the type and front and back of the card inserted in the opening 5b based on the calculation result calculated as the output of the type identification model G.

種類特定モデル生成処理では、前述したように、制御部24は、複数種類のカードの表裏の画像データを縮小することによって得られる複数の縮小画像データを入力部20から取得し、取得した複数の縮小画像データを、複数の第2の教師データの縮小画像データとして入力する。これにより、種類特定モデルGが生成される。個人情報を取得することが不可能となるまで縮小が行われた縮小画像データを入力することによって、開口5bに挿入されるカードに表示されている個人情報とは異なる情報に基づいて確率を出力する種類特定モデルGを生成することができる。 In the type identification model generation process, as described above, the control unit 24 acquires a plurality of reduced image data obtained by reducing the image data on the front and back sides of the plurality of types of cards from the input unit 20, and obtains a plurality of acquired image data. The reduced image data is input as the reduced image data of the plurality of second teacher data. As a result, the type-specific model G is generated. By inputting the reduced image data that has been reduced until it becomes impossible to acquire personal information, the probability is output based on information different from the personal information displayed on the card inserted in the opening 5b. It is possible to generate a type-specific model G to be used.

また、種類特定モデル生成処理では、前述したように、制御部24は、複数種類のカードの縮小画像データの少なくとも1つにノイズを追加することによって得られる縮小画像データを入力部20から取得し、取得した縮小画像データを、第2の教師データの縮小画像データとして、種類特定モデルGの入力に含める。このため、判定装置1が行う認証において、種類特定モデルGに入力する縮小画像データ、即ち、開口5bに挿入されたカードの第1面又は第2面の縮小画像データが、汚れが付着しているカード又は色が変化しているカードの一面の縮小画像データであっても、種類特定モデルGを用いて適切な特定が行われる。前述したように、日焼け又は経年変化等によってカードの色は変化する。 Further, in the type identification model generation process, as described above, the control unit 24 acquires the reduced image data obtained by adding noise to at least one of the reduced image data of the plurality of types of cards from the input unit 20. , The acquired reduced image data is included in the input of the type identification model G as the reduced image data of the second teacher data. Therefore, in the authentication performed by the determination device 1, the reduced image data input to the type identification model G, that is, the reduced image data on the first surface or the second surface of the card inserted in the opening 5b is stained. Even if it is the reduced image data of one side of the card or the card whose color has changed, appropriate identification is performed using the type identification model G. As mentioned above, the color of the card changes due to sunburn or aging.

更に、種類特定モデル生成処理では、制御部24は、複数種類のカードの縮小画像データの少なくとも1つに含まれる個人情報を削除又は変更することによって得られる縮小画像データを入力部20から取得し、取得した縮小画像データを第2の教師データの縮小画像データとして種類特定モデルGの入力に含める。種類特定モデルGへの入力には、複数種類のカードの単純な縮小画像データだけではなく、ノイズを追加することによって得られる縮小画像データと、個人情報を削除又は変更することによって得られる縮小画像データとが含まれている。このため、種類特定モデル生成処理で用いる縮小画像データが多いので、種類特定モデルGの出力として算出される算出結果はより適切である。 Further, in the type identification model generation process, the control unit 24 acquires the reduced image data obtained by deleting or changing the personal information contained in at least one of the reduced image data of the plurality of types of cards from the input unit 20. , The acquired reduced image data is included in the input of the type identification model G as the reduced image data of the second teacher data. Input to the type-specific model G is not limited to simple reduced image data of multiple types of cards, but also reduced image data obtained by adding noise and reduced images obtained by deleting or changing personal information. Contains data and. Therefore, since a large amount of reduced image data is used in the type-specific model generation process, the calculation result calculated as the output of the type-specific model G is more appropriate.

なお、単純な縮小画像データ、ノイズが追加された縮小画像データ、個人情報が部分的に変更された縮小画像データ、又は、個人情報が部分的に削除された縮小画像データについては、モデル生成装置2の制御部24が生成してもよい。この場合、入力部20には、カードの表側又は裏側が写っている画像データと、この画像データに対応する第2の正解ラベルとを含むデータが入力される。制御部24は、入力部20に入力された画像データに基づいて、ノイズが追加された縮小画像データ、個人情報が部分的に変更された縮小画像データ、又は、個人情報が部分的に削除された縮小画像データを生成する。これにより、縮小画像データ及び第2の正解ラベルを含む第2の教師データが生成される。生成された第2の教師データを記憶部23に記憶する。 For simple reduced image data, reduced image data with added noise, reduced image data with partially changed personal information, or reduced image data with partially deleted personal information, a model generator. The control unit 24 of 2 may be generated. In this case, data including an image data showing the front side or the back side of the card and a second correct label corresponding to the image data is input to the input unit 20. Based on the image data input to the input unit 20, the control unit 24 partially deletes the reduced image data to which noise is added, the reduced image data in which the personal information is partially changed, or the personal information is partially deleted. Generate reduced image data. As a result, the second teacher data including the reduced image data and the second correct label is generated. The generated second teacher data is stored in the storage unit 23.

図32は、認証装置5の要部構成を示すブロック図である。認証装置5は、判定装置1及び撮像装置40に加えて、カメラ41及びディスプレイ42を備える。カメラ41及びディスプレイ42は、図24に示すように、収容箱5aの外面に設置されている。実施の形態6における判定装置1は、実施の形態3における判定装置1が備える構成部に加えて、入出力部15及び出力部16を備える。 FIG. 32 is a block diagram showing a main configuration of the authentication device 5. The authentication device 5 includes a camera 41 and a display 42 in addition to the determination device 1 and the image pickup device 40. As shown in FIG. 24, the camera 41 and the display 42 are installed on the outer surface of the storage box 5a. The determination device 1 in the sixth embodiment includes an input / output unit 15 and an output unit 16 in addition to the components included in the determination device 1 in the third embodiment.

撮像装置40は判定装置1の入力部10に接続されている。カメラ41は判定装置1の入出力部15に接続されている。ディスプレイ42は判定装置1の出力部16に接続されている。入出力部15及び出力部16は内部バス13に接続されている。 The image pickup device 40 is connected to the input unit 10 of the determination device 1. The camera 41 is connected to the input / output unit 15 of the determination device 1. The display 42 is connected to the output unit 16 of the determination device 1. The input / output unit 15 and the output unit 16 are connected to the internal bus 13.

カードが開口5bに挿入された場合、撮像装置40は、挿入されたカードの第1面画像及び第2面画像を撮影し、撮影した第1面画像及び第2面画像に対応する第1面画像データ及び第2面画像データを生成し、生成した第1面画像データ及び第2面画像データを判定装置1の入力部10に出力する。 When the card is inserted into the opening 5b, the image pickup apparatus 40 captures the first side image and the second side image of the inserted card, and the first side image corresponding to the photographed first side image and the second side image. The image data and the second surface image data are generated, and the generated first surface image data and the second surface image data are output to the input unit 10 of the determination device 1.

前述したように、開口5bの大きさはカードの短辺側の端面の大きさと略同じである。このため、第1面画像及び第2面画像の枠の形状は、カードの面の形状と略一致している。撮像装置40から入力部10に入力された第1面画像データ及び第2面画像データは、制御部12によって、入力部10から取得される。 As described above, the size of the opening 5b is substantially the same as the size of the end face on the short side of the card. Therefore, the shapes of the frames of the first surface image and the second surface image substantially match the shape of the surface of the card. The first surface image data and the second surface image data input from the image pickup apparatus 40 to the input unit 10 are acquired from the input unit 10 by the control unit 12.

入出力部15は、制御部12の指示に従って、ユーザの顔が写っている顔画像の撮影を指示する撮影信号をカメラ41に出力する。撮影信号がカメラ41に入力された場合、カメラ41は、顔画像を撮影し、撮影した顔画像に対応する顔画像データを入出力部15に出力する。入出力部15に入力された顔画像データは、制御部12によって、入出力部15から取得される。 The input / output unit 15 outputs a shooting signal instructing the camera 41 to shoot a face image showing the user's face in accordance with the instruction of the control unit 12. When the shooting signal is input to the camera 41, the camera 41 shoots a face image and outputs the face image data corresponding to the shot face image to the input / output unit 15. The face image data input to the input / output unit 15 is acquired from the input / output unit 15 by the control unit 12.

出力部16は、制御部12の指示に従って、カードの特定を行うことができなかったことを示す特定不可情報と、特定したカードの種類が対象外カードの種類であることを示す対象外情報と、カードの特定に成功したもののカードの読み取りを行うことができなかったことを示す読み取り不可情報とをディスプレイ42に出力する。特定不可情報、対象外情報又は読み取り不可情報がディスプレイ42に入力された場合、ディスプレイ42は、入力された情報が示す内容を表示する。これにより、カードを特定することができなかったこと、カードの種類が対象外カードの種類であること、又は、読み取りを行うことができなかったことがユーザに通知される。 The output unit 16 includes unspecified information indicating that the card could not be specified according to the instruction of the control unit 12, and non-target information indicating that the specified card type is a non-target card type. , The unreadable information indicating that the card could not be read although the card was successfully identified is output to the display 42. When non-specified information, non-target information, or unreadable information is input to the display 42, the display 42 displays the content indicated by the input information. As a result, the user is notified that the card could not be identified, that the card type is a non-target card type, or that the reading could not be performed.

出力部16は、更に、制御部12の指示に従って、認証の成功又は失敗を示す結果情報をディスプレイ42に出力する。結果情報がディスプレイ42に入力した場合、ディスプレイ42は、結果情報が示す内容を表示する。これにより、認証の成功又は失敗がユーザに通知される。 The output unit 16 further outputs result information indicating success or failure of authentication to the display 42 according to the instruction of the control unit 12. When the result information is input to the display 42, the display 42 displays the content indicated by the result information. As a result, the user is notified of the success or failure of the authentication.

図33は、記憶部11に記憶されているデータの説明図である。前述したように、記憶部11には、種類特定モデルG、複数の第1真贋度推定モデルR10,R11,・・・、複数の第2真贋度推定モデルR20,R21,・・・及びコンピュータプログラムP1が記憶されている。記憶部11には、更に、複数の第1座標データZ10,Z11,・・・及び複数の第2座標データZ20,Z21,・・・、認証用テーブル60及び読み取りルールデータベース61が記憶されている。記憶部11に記憶されている種類特定モデルGは、モデル生成装置2の制御部24によって生成された学習済みモデルである。 FIG. 33 is an explanatory diagram of data stored in the storage unit 11. As described above, the storage unit 11 contains the type-specific model G, a plurality of first authenticity estimation models R10, R11, ..., a plurality of second authenticity estimation models R20, R21, ..., And a computer program. P1 is stored. The storage unit 11 further stores a plurality of first coordinate data Z10, Z11, ..., A plurality of second coordinate data Z20, Z21, ..., An authentication table 60, and a read rule database 61. .. The type-specific model G stored in the storage unit 11 is a trained model generated by the control unit 24 of the model generation device 2.

実施の形態3と同様に、制御部12の処理素子は、コンピュータプログラムP1を実行することによって、真贋判定処理を実行する。真贋判定処理のステップS71では、制御部12は、カードの種類及び表裏を特定する特定処理を実行する。
制御部12の処理素子は、コンピュータプログラムP1を実行することによって、更に、カードの所有者を認証する認証処理を実行する。なお、制御部12が有する処理の数が2以上である場合、複数の処理素子がコンピュータプログラムP1に従って、真贋判定処理だけではなく、認証処理を協同で実行してもよい。
Similar to the third embodiment, the processing element of the control unit 12 executes the authenticity determination process by executing the computer program P1. In step S71 of the authenticity determination process, the control unit 12 executes a specific process of specifying the type and front and back of the card.
The processing element of the control unit 12 further executes an authentication process for authenticating the cardholder by executing the computer program P1. When the number of processes possessed by the control unit 12 is 2 or more, a plurality of processing elements may jointly execute not only the authenticity determination process but also the authentication process according to the computer program P1.

特定処理において、制御部12は、開口5bに挿入されたカードの種類及び表裏を特定する。真贋判定処理において、制御部12は、カードが、特定処理において特定した種類に属するカードとして本物であるか否かを判定する。制御部12は、カードが本物であると判定した場合、認証処理を実行する。認証処理では、制御部12は、特定処理において特定した種類及び表裏に基づいて、第1面画像データ及び第2面画像データの少なくとも一方から個人情報を読み取り、読み取った個人情報に基づいて、カードの所有者を認証する。 In the specifying process, the control unit 12 specifies the type and front and back of the card inserted in the opening 5b. In the authenticity determination process, the control unit 12 determines whether or not the card is genuine as a card belonging to the type specified in the specific process. When the control unit 12 determines that the card is genuine, the control unit 12 executes an authentication process. In the authentication process, the control unit 12 reads personal information from at least one of the first side image data and the second side image data based on the type and front and back specified in the specific process, and based on the read personal information, the card. Authenticate the owner of.

図34は認証用テーブル60を示す図表である。図34の例では、認証用テーブル60は、氏名フィールド、住所フィールド及び生年月日フィールドを含む。氏名フィールドには、認証装置5を使用する複数のユーザに対応する複数の氏名が記憶されている。住所フィールドには、氏名フィールドに記憶されている複数の氏名それぞれに対応する複数の住所が記憶されている。生年月日フィールドには、氏名フィールドに記憶されている複数の氏名それぞれに対応する複数の生年月日が記憶されている。氏名、住所及び生年月日は認証用テーブル60に予め記憶されている。認証用テーブルは、カードの所有者の認証に用いられる。 FIG. 34 is a chart showing an authentication table 60. In the example of FIG. 34, the authentication table 60 includes a name field, an address field, and a date of birth field. In the name field, a plurality of names corresponding to a plurality of users who use the authentication device 5 are stored. In the address field, a plurality of addresses corresponding to each of the plurality of names stored in the name field are stored. In the date of birth field, a plurality of dates of birth corresponding to each of the plurality of names stored in the name field are stored. The name, address and date of birth are stored in advance in the authentication table 60. The authentication table is used to authenticate the cardholder.

図35は読み取りルールデータベース61の内容を示す図表である。読み取りルールデータベース61は、種類フィールド及び読み取りルールフィールドを含む。種類フィールドには、対象カードの種類が記憶されている。対象外カードの種類、ポイントカード又は電子マネー用カード等は種類フィールドに記憶されていない。前述したように、対象カードの種類として、運転免許証、マイナンバーカード、マイナンバー通知カード、住民基本台帳カード、特別永住者証明書、在留カード、パスポートカード又はソーシャルセキュリティカード等が挙げられる。読み取りルールフィールドには、種類フィールドに記憶されている種類に対応する複数の個人情報を読み取りルールが記憶されている。具体的には、各読み取りルールは、個人情報の表示位置を示している。1つの個人情報の表示位置は、個人情報が表示されているカードの向き(表側又は裏側)と、カードの表側又は裏側における個人情報の表示場所とによって定義される。種類及び読み取りルールは読み取りルールデータベース61に予め記憶されている。 FIG. 35 is a chart showing the contents of the read rule database 61. The read rule database 61 includes a type field and a read rule field. The type of the target card is stored in the type field. The types of non-applicable cards, point cards, electronic money cards, etc. are not stored in the type field. As described above, the types of target cards include a driver's license, an Individual Number Card, an Individual Number Notification Card, a Basic Resident Register Card, a Special Permanent Resident Certificate, a Residence Card, a Passport Card, a Social Security Card, and the like. In the reading rule field, a reading rule for reading a plurality of personal information corresponding to the type stored in the type field is stored. Specifically, each reading rule indicates a display position of personal information. The display position of one personal information is defined by the orientation (front side or back side) of the card on which the personal information is displayed and the display location of the personal information on the front side or the back side of the card. The type and read rule are stored in advance in the read rule database 61.

図36及び図37は、特定処理の手順を示すフローチャートである。制御部12は、入力部10からカードの第1画面画像データ及び第2面画像データを取得した場合に真贋判定処理を実行する。制御部12は、真贋判定処理のステップS71において、特定処理を実行する。 36 and 37 are flowcharts showing the procedure of the specific processing. The control unit 12 executes the authenticity determination process when the first screen image data and the second surface image data of the card are acquired from the input unit 10. The control unit 12 executes a specific process in step S71 of the authenticity determination process.

特定処理では、制御部12は、まず、入力部10から取得した第1面画像データの縮小画像データを生成する(ステップS101)。制御部12は、第1面画像データの縦及び横の画素数を下げることによって、第1面画像データを縮小し、第1面画像データの縮小画像データを生成する。 In the specific process, the control unit 12 first generates reduced image data of the first surface image data acquired from the input unit 10 (step S101). The control unit 12 reduces the number of vertical and horizontal pixels of the first surface image data, thereby reducing the first surface image data, and generates reduced image data of the first surface image data.

次に、制御部12は、ステップS101で生成した縮小画像データを、種類特定モデルGに入力する(ステップS102)。種類特定モデルGでは、入力層の各ニューロンに、例えば、縮小画像データを構成する各画素の画素値のデータが入力される。入力層の各ニューロンに入力されたデータは、隣接する中間層のニューロンへ出力される。中間層では、入力層に入力された縮小画像データに基づいて、ニューロン間の重み及びバイアスを含む活性化関数を用いた演算が制御部12によって行われ、中間層で行われた演算結果は出力層に出力される。このようにして、種類特定モデルGでは、カードの種類及び表裏の分類の確からしさを示す確率が出力層から出力される。 Next, the control unit 12 inputs the reduced image data generated in step S101 into the type identification model G (step S102). In the type-specific model G, for example, the pixel value data of each pixel constituting the reduced image data is input to each neuron in the input layer. The data input to each neuron in the input layer is output to the neurons in the adjacent intermediate layer. In the intermediate layer, based on the reduced image data input to the input layer, the control unit 12 performs an operation using an activation function including weights and biases between neurons, and the operation result performed in the intermediate layer is output. Output to the layer. In this way, in the type identification model G, the probability indicating the certainty of the card type and the classification of the front and back sides is output from the output layer.

制御部12は、ステップS102を実行した後、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する(ステップS103)。次に、制御部12は、ステップS103で算出した確率に基づいて、カードの種類及び表裏の特定を行うことが可能であるか否かを判定する(ステップS104)。 After executing step S102, the control unit 12 calculates the probability of indicating the certainty of the card type and the front and back classification as the output of the type identification model G (step S103). Next, the control unit 12 determines whether or not it is possible to specify the type of card and the front and back sides based on the probability calculated in step S103 (step S104).

具体的には、制御部12は、種類特定モデルGの出力として算出した確率の分布の分散値を算出する。分散値は、カードの種類及び表裏の全ての組合せに係る確率の中で1つの確率のみが極端に高い場合、大きく、カードの種類及び表裏の全ての組合せに係る確率が略一致している場合、小さい。ステップS104では、制御部12は、算出した分散値が所定値未満である場合、特定を行うことが不可能であると判定し、算出した分散値が所定値以上である場合、特定を行うことが可能であると判定する。分散値が所定値以上であることは所定基準に相当する。制御部12は、種類特定モデルGの出力として算出した確率の分布が所定基準を満たさない場合、特定を行うことが不可能であると判定する。 Specifically, the control unit 12 calculates the variance value of the probability distribution calculated as the output of the type identification model G. The variance value is large when only one probability is extremely high among the probabilities related to all combinations of card types and front and back sides, and when the probabilities related to all combinations of card types and front and back sides are substantially the same. ,small. In step S104, the control unit 12 determines that it is impossible to specify the calculated variance value if it is less than the predetermined value, and specifies it if the calculated variance value is equal to or more than the predetermined value. Is determined to be possible. A variance value of greater than or equal to a predetermined value corresponds to a predetermined standard. The control unit 12 determines that it is impossible to specify the probability distribution calculated as the output of the type identification model G if the distribution does not satisfy the predetermined criteria.

なお、所定基準は、分散値が所定値以上であることに限定されず、例えば、カードの種類及び表裏の全ての組合せに係る確率の中で1番目及び2番目に高い2つの確率の差分値が第2の所定値以上であることであってもよい。また、所定基準は、カードの種類及び表裏の全ての組合せに係る確率の中で1番目に高い確率が第3の所定値、例えば、40%以上であることであってもよい。 The predetermined standard is not limited to the dispersion value being equal to or higher than the predetermined value. For example, the difference value between the first and second highest probabilities among all combinations of card types and front and back sides. May be greater than or equal to the second predetermined value. Further, the predetermined criterion may be that the highest probability among all combinations of card types and front and back sides is a third predetermined value, for example, 40% or more.

制御部12は、特定を行うことが不可能であると判定した場合(S104:NO)、ステップS102と同様に、第2面画像データの縮小画像データを生成する(ステップS105)。制御部12は、第2面画像データの縦及び横の画素数を下げることによって、第2面画像データを縮小し、第2面画像データの縮小画像データを生成する。 When the control unit 12 determines that it is impossible to specify (S104: NO), the control unit 12 generates reduced image data of the second surface image data (step S105) in the same manner as in step S102. The control unit 12 reduces the second surface image data by reducing the number of vertical and horizontal pixels of the second surface image data, and generates reduced image data of the second surface image data.

次に、制御部12は、ステップS106で生成した縮小画像データを、種類特定モデルGに入力し(ステップS106)、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を算出する(ステップS107)。このように、制御部12は、ステップS105で第1面画像データに関する特定を行うことが不可能であると判定した場合、入力部10から取得した第1面画像データ及び第2面画像データの両方を種類特定モデルGに入力する。 Next, the control unit 12 inputs the reduced image data generated in step S106 into the type identification model G (step S106), and indicates the certainty of the card type and the front and back classification as the output of the type identification model G. The probability is calculated (step S107). As described above, when the control unit 12 determines in step S105 that it is impossible to specify the first surface image data, the control unit 12 obtains the first surface image data and the second surface image data from the input unit 10. Both are input to the type-specific model G.

なお、制御部12は、ステップS101において、第1面画像データ及び第2面画像データの両方の縮小画像データを生成してもよい。この場合、制御部12は、ステップS104で、特定を行うことが不可能であると判定した場合、ステップS106を実行する。ステップS106では、制御部12は、ステップS101で生成した第2面画像データの縮小画像データを、種類特定モデルGに入力する。 The control unit 12 may generate reduced image data of both the first surface image data and the second surface image data in step S101. In this case, if the control unit 12 determines in step S104 that it is impossible to perform the identification, the control unit 12 executes step S106. In step S106, the control unit 12 inputs the reduced image data of the second surface image data generated in step S101 into the type identification model G.

次に、制御部12は、ステップS104と同様に、ステップS107で算出した確率に基づいて、カードの種類及び表裏の特定を行うことが可能であるか否かを判定する(ステップS108)。 Next, the control unit 12 determines whether or not it is possible to specify the type of the card and the front and back sides based on the probability calculated in step S107, as in step S104 (step S108).

制御部12は、第2面画像データに関する特定を行うことが不可能であると判定した場合(S108:NO)、出力部16に指示して、特定不可情報をディスプレイ42に出力させる(ステップS109)。これにより、ディスプレイ42は特定不可情報が示す内容を表示し、カードの特定不可がユーザに通知される。
制御部12は、ステップS109を実行した後、特定処理を終了し、真贋判定処理も終了する。
When the control unit 12 determines that it is impossible to specify the second surface image data (S108: NO), the control unit 12 instructs the output unit 16 to output the non-identifiable information to the display 42 (step S109). ). As a result, the display 42 displays the content indicated by the non-identifiable information, and the user is notified that the card cannot be specified.
After executing step S109, the control unit 12 ends the specific process and also ends the authenticity determination process.

制御部12は、第1面画像データに関する特定を行うことが可能であると判定した場合(S104:YES)、又は、第2面画像データに関する特定を行うことが可能であると判定した場合(S108:YES)、ステップS103又はステップS107で算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定する(ステップS110)。表裏の特定は、カードの第1面及び第2面それぞれが表側及び裏側のいずれであるかを特定することである。第1面及び第2面の一方の面について特定が行われた場合、他方の面については、自動的に特定が行われる。
以上のように、判定装置1の制御部12は、第1面画像又は第2面画像に写っているカードが種類特定モデルGを用いて正確に特定する。
When the control unit 12 determines that it is possible to specify the first surface image data (S104: YES), or when it determines that it is possible to specify the second surface image data (S104: YES). S108: YES), the type and front and back of the card inserted in the opening 5b are specified based on the calculation result calculated in step S103 or step S107 (step S110). The front and back identification is to specify whether the first side and the second side of the card are the front side or the back side, respectively. When one surface of the first surface and the second surface is specified, the other surface is automatically specified.
As described above, the control unit 12 of the determination device 1 accurately identifies the card shown in the first surface image or the second surface image by using the type identification model G.

ステップS110では、制御部12は、例えば、カードの種類を、算出結果の中で最も確率が高い組合せの種類に特定する。また、制御部12は、例えば、算出結果の中で最も高い組合せが表側を示す場合において、種類特定モデルGに入力した縮小画像データが第1面画像データの縮小画像データであるとき、カードの第1面及び第2面それぞれは表側及び裏側であると特定する。制御部12は、同様の場合において、種類特定モデルGに入力した縮小画像データが第2面画像データの縮小画像データであるとき、カードの第1面及び第2面それぞれは裏側及び表側であると特定する。 In step S110, the control unit 12 identifies, for example, the type of card to the type of combination having the highest probability in the calculation result. Further, for example, when the highest combination in the calculation result indicates the front side, the control unit 12 determines that the reduced image data input to the type identification model G is the reduced image data of the first surface image data of the card. It is specified that the first surface and the second surface are the front side and the back side, respectively. In the same case, when the reduced image data input to the type identification model G is the reduced image data of the second side image data, the control unit 12 has the first side and the second side of the card on the back side and the front side, respectively. To identify.

制御部12は、ステップS104で特定を行うことが可能であると判定した場合、ステップS111では、第1面画像データの縮小画像データを種類特定モデルGに入力することによって、種類特定モデルGの出力として算出した算出結果に基づいて特定を行う。制御部12は、ステップS108で特定を行うことが可能であると判定した場合、ステップS111では、第2面画像データの縮小画像データを種類特定モデルGに入力することによって、種類特定モデルGの出力として算出した算出結果に基づいて特定を行う。 When the control unit 12 determines that the identification can be performed in step S104, in step S111, the reduced image data of the first surface image data is input to the type identification model G, so that the type identification model G can be specified. Specify based on the calculation result calculated as the output. When the control unit 12 determines that the identification can be performed in step S108, in step S111, the reduced image data of the second surface image data is input to the type identification model G, so that the type identification model G can be specified. Specify based on the calculation result calculated as the output.

次に、制御部12は、ステップS110で特定した種類が対象カードに係る複数の種類とは異なっているか否かを判定する(ステップS111)。制御部12は、ステップS110で特定した種類が対象カードに係る複数の種類とは異なると判定した場合(S111:YES)、出力部16に指示して、対象外情報をディスプレイ42に出力させる(ステップS112)。これにより、ディスプレイ42は対象外情報が示す内容を表示し、ステップS110で特定したカードの種類が対象外の種類であることがユーザに通知される。
制御部12は、ステップS112を実行した後、特定処理を終了し、真贋判定処理も終了する。
Next, the control unit 12 determines whether or not the type specified in step S110 is different from the plurality of types related to the target card (step S111). When the control unit 12 determines that the type specified in step S110 is different from the plurality of types related to the target card (S111: YES), the control unit 12 instructs the output unit 16 to output the non-target information to the display 42 (S). Step S112). As a result, the display 42 displays the content indicated by the non-target information, and the user is notified that the type of the card specified in step S110 is the non-target type.
After executing step S112, the control unit 12 ends the specific process and also ends the authenticity determination process.

制御部12は、ステップS110で特定した種類が対象カードに係る複数の種類中の1つと一致すると判定した場合(S111:NO)、特定処理、即ち、真贋判定処理のステップS51を終了し、真贋判定処理のステップS52を実行する。ステップS52以降では、制御部12は、第1画面画像データ及び第2画面画像データの中で、カードの表側又は裏側に相当する画像データを用いて真贋判定を行う。即ち、この画像データから第1部分画像データ及び第2部分画像データが抽出される。カードの表側及び裏側の画像データの中で、真贋判定で用いる画像データは、カードの種類に応じて予め設定されている。例えば、カードが運転免許証である場合、カードの表側の画像データを真贋判定で用いることが予め設定されている。 When the control unit 12 determines that the type specified in step S110 matches one of the plurality of types related to the target card (S111: NO), the control unit 12 ends the identification process, that is, step S51 of the authenticity determination process, and authenticates the card. Step S52 of the determination process is executed. In step S52 and subsequent steps, the control unit 12 performs an authenticity determination using the image data corresponding to the front side or the back side of the card among the first screen image data and the second screen image data. That is, the first partial image data and the second partial image data are extracted from this image data. Among the image data on the front side and the back side of the card, the image data used for the authenticity determination is preset according to the type of the card. For example, when the card is a driver's license, it is preset that the image data on the front side of the card is used for authenticity determination.

なお、制御部12は、カードの表側及び裏側に相当する2つの画像データを用いて真贋判定を行ってもよい。この場合、真贋判定処理において、制御部12は、例えば、表側の画像データに写っているカードが本物であり、かつ、裏側の画像データに写っているカードが本物であると判定した場合、カードが本物であると判定する。制御部12は、例えば、表側又は裏側の画像データに写っているカードが本物ではないと判定した場合、カードは本物ではないと判定する。 The control unit 12 may perform an authenticity determination using two image data corresponding to the front side and the back side of the card. In this case, in the authenticity determination process, when the control unit 12 determines, for example, that the card shown in the image data on the front side is genuine and the card shown in the image data on the back side is genuine, the card Is determined to be genuine. When, for example, the control unit 12 determines that the card shown in the image data on the front side or the back side is not genuine, the control unit 12 determines that the card is not genuine.

制御部12は、実施の形態3と同様に、真贋判定処理において、カードが本物であると判定した場合(S45:YES)、真贋判定処理を終了する。この場合、制御部12は、真贋判定処理を終了した後、認証処理を実行する。
図38は認証処理の手順を示すフローチャートである。認証処理では、制御部12は、まず、読み取りルールデータベース61から、特定処理のステップS110で特定した種類に対応するカードの読み取りルールを読み出す(ステップS121)。次に、制御部12は、ステップS121で読み出した読み取りルールに従って、カードの表側及び裏側の一方又は両方に表示されている個人情報を、入力部10から取得した第1面画像データ及び第2面画像データから読み取る(ステップS122)。
Similar to the third embodiment, the control unit 12 ends the authenticity determination process when it is determined that the card is genuine (S45: YES) in the authenticity determination process. In this case, the control unit 12 executes the authentication process after completing the authenticity determination process.
FIG. 38 is a flowchart showing the procedure of the authentication process. In the authentication process, the control unit 12 first reads the card reading rule corresponding to the type specified in step S110 of the specific process from the read rule database 61 (step S121). Next, the control unit 12 obtains the personal information displayed on one or both of the front side and the back side of the card from the input unit 10 according to the reading rule read in step S121, and the first side image data and the second side. Read from the image data (step S122).

次に、制御部12は、個人情報の読み取りに成功したか否かを判定する(ステップS123)。制御部12は、読み取りに失敗したと判定した場合(S123:NO)、出力部16に指示して、読み取り不可情報をディスプレイ42に出力させる(ステップS124)。これにより、ディスプレイ42は読み取り不可情報が示す内容を表示し、カードの読み取り不可がユーザに通知される。 Next, the control unit 12 determines whether or not the reading of the personal information is successful (step S123). When the control unit 12 determines that the reading has failed (S123: NO), the control unit 12 instructs the output unit 16 to output the unreadable information to the display 42 (step S124). As a result, the display 42 displays the content indicated by the unreadable information, and the user is notified that the card cannot be read.

なお、真贋判定が行われているが、特定処理のステップS110で特定した種類が実際のカードの種類と異なっていたために、個人情報の読み取りに失敗する可能性もある。
制御部12は、ステップS124を実行した後、認証処理を終了する。
Although the authenticity is determined, there is a possibility that the reading of personal information may fail because the type specified in step S110 of the specific process is different from the actual card type.
The control unit 12 ends the authentication process after executing step S124.

制御部12は、読み取りに成功したと判定した場合(S123:YES)、開口5bに挿入されたカードの所有者を認証する(ステップS125)。
例えば、ステップS122で読み取った個人情報に、人物の顔が写っている顔画像が含まれている場合、制御部12は、入出力部15に指示して、撮影信号をカメラ41に出力させる。前述したように、撮影信号がカメラ41に入力された場合、カメラ41は、顔画像を撮影し、撮影した顔画像に対応する顔画像データを入出力部15に出力する。入出力部15に入力された顔画像データは、制御部12によって、入出力部15から取得される。
When the control unit 12 determines that the reading is successful (S123: YES), the control unit 12 authenticates the owner of the card inserted in the opening 5b (step S125).
For example, when the personal information read in step S122 includes a face image showing a person's face, the control unit 12 instructs the input / output unit 15 to output a shooting signal to the camera 41. As described above, when the shooting signal is input to the camera 41, the camera 41 shoots a face image and outputs the face image data corresponding to the shot face image to the input / output unit 15. The face image data input to the input / output unit 15 is acquired from the input / output unit 15 by the control unit 12.

制御部12は、ステップS122で読み取った顔画像の人物が、入出力部15から取得した顔画像データに対応する顔画像の人物と同一であるか否かに基づいて認証を行う。制御部12は、ステップS122で読み取った顔画像の人物が、入出力部15から取得した顔画像データに対応する顔画像の人物と同一である場合、認証に成功したと判定する。制御部12は、ステップS122で読み取った顔画像の人物が、入出力部15から取得した顔画像データに対応する顔画像の人物と異なる場合、認証に失敗したと判定する。 The control unit 12 authenticates based on whether or not the person in the face image read in step S122 is the same as the person in the face image corresponding to the face image data acquired from the input / output unit 15. If the person in the face image read in step S122 is the same as the person in the face image corresponding to the face image data acquired from the input / output unit 15, the control unit 12 determines that the authentication is successful. If the person in the face image read in step S122 is different from the person in the face image corresponding to the face image data acquired from the input / output unit 15, the control unit 12 determines that the authentication has failed.

例えば、ステップS122で読み取った個人情報に、氏名、住所及び生年月日が含まれている場合、制御部12は、ステップS125では、認証用テーブル60(図34参照)を用いて認証を行う。例えば、制御部12は、ステップS122で読み取った氏名が認証用テーブル60に記憶されている場合において、ステップS122で読み取った住所及び生年月日それぞれが、ステップS122で読み取った氏名に対応する認証用テーブル60の住所及び生年月日と一致するとき、カードの所有者の認証に成功したと判定する。 For example, when the personal information read in step S122 includes a name, an address, and a date of birth, the control unit 12 authenticates using the authentication table 60 (see FIG. 34) in step S125. For example, when the name read in step S122 is stored in the authentication table 60, the control unit 12 has the address and date of birth read in step S122 for authentication corresponding to the name read in step S122. When it matches the address and date of birth in Table 60, it is determined that the cardholder has been successfully authenticated.

制御部12は、ステップS122で読み取った氏名が認証用テーブル60に記憶されていない場合、カードの所有者の認証に失敗したと判定する。制御部12は、ステップS122で読み取った氏名が認証用テーブル60に記憶されている場合において、ステップS122で読み取った住所及び生年月日それぞれが、ステップS126で読み取った氏名に対応する認証用テーブル60の住所及び生年月日と一致しないとき、カードの所有者の認証に失敗したと判定する。 If the name read in step S122 is not stored in the authentication table 60, the control unit 12 determines that the authentication of the cardholder has failed. When the name read in step S122 is stored in the authentication table 60, the control unit 12 has the address and date of birth read in step S122 corresponding to the name read in step S126. If the address and date of birth do not match, it is determined that the authentication of the cardholder has failed.

制御部12は、ステップS125を実行した後、出力部16に指示して、認証結果、即ち、認証の成功又は失敗を示す結果情報をディスプレイ42に出力させる(ステップS126)。これにより、ステップS125の認証結果がディスプレイ42に表示され、ステップS125の認証結果がユーザに通知される。
制御部12は、ステップS126を実行した後、認証処理を終了する。
After executing step S125, the control unit 12 instructs the output unit 16 to output the authentication result, that is, the result information indicating the success or failure of the authentication to the display 42 (step S126). As a result, the authentication result of step S125 is displayed on the display 42, and the authentication result of step S125 is notified to the user.
After executing step S126, the control unit 12 ends the authentication process.

以上のように、認証装置5の判定装置1では、制御部12は、第1面画像データ又は第2面画像データを種類特定モデルGに入力し、種類特定モデルGの出力として、カードの種類及び表裏の分類の確からしさを示す確率を出力する。制御部12は、この確率に基づいて、カードの種類及び表裏を特定する。また、第1面画像データを種類特定モデルGに入力することによって、カードの種類及び表裏を特定することができなかった場合、第2面画像データを種類特定モデルGに入力することによって、カードの種類及び表裏を特定する。 As described above, in the determination device 1 of the authentication device 5, the control unit 12 inputs the first surface image data or the second surface image data to the type identification model G, and outputs the type of the card as the output of the type identification model G. And the probability of showing the certainty of the classification of the front and back is output. The control unit 12 specifies the type of card and the front and back sides based on this probability. If the type and front and back of the card cannot be specified by inputting the first side image data into the type identification model G, the card can be input by inputting the second side image data into the type identification model G. Identify the type and front and back of the.

更に、制御部12は、縮小画像データを種類特定モデルGに入力するので、カードに表示されている個人情報に基づく確率の出力が種類特定モデルGで行われることを防止することができる。また、制御部12は、カードの種類及び表裏を特定した場合、特定結果に基づいて、入力部10から取得した第1面画像データ及び第2面画像データ中の少なくとも一方から個人情報を読み取る。
また、実施の形態6における判定装置1は、実施の形態3における判定装置1が奏する効果を同様に奏する。
Further, since the control unit 12 inputs the reduced image data to the type-specific model G, it is possible to prevent the type-specific model G from outputting the probability based on the personal information displayed on the card. When the type of card and the front and back sides are specified, the control unit 12 reads personal information from at least one of the first side image data and the second side image data acquired from the input unit 10 based on the specific result.
Further, the determination device 1 in the sixth embodiment similarly exerts the effect of the determination device 1 in the third embodiment.

なお、実施の形態6において、認証装置5を、個人情報を新規に登録する登録装置として機能させてもよい。認証処理において、例えば、ステップS122で読み取った個人情報に、人物の顔が写っている顔画像が含まれている場合、制御部12は、前述したように、カメラ41が撮影した顔画像データを用いて認証を行う。制御部12は、認証に成功した場合、ステップS125で読み取った個人情報、例えば、氏名、生年月日又は住所等を、記憶部11の図示しないデータベースに記憶する。 In the sixth embodiment, the authentication device 5 may function as a registration device for newly registering personal information. In the authentication process, for example, when the personal information read in step S122 includes a face image showing a person's face, the control unit 12 uses the face image data taken by the camera 41 as described above. Use to authenticate. When the authentication is successful, the control unit 12 stores the personal information read in step S125, for example, the name, date of birth, address, etc. in a database (not shown) of the storage unit 11.

また、実施の形態4のなお書きで述べたように、実施の形態6の構成に、実施の形態4の構成を追加してもよく、1種類の部分画像データとして、実施の形態4における部分画像データを用いてもよい。この場合、撮像装置40は、例えば、実施の形態4における撮像装置3と同様に構成される。
更に、判定装置1の記憶部11に記憶されている複数の真贋度推定モデルは、実施の形態5と同様に再学習されてもよい。
Further, as described in the notes of the fourth embodiment, the configuration of the fourth embodiment may be added to the configuration of the sixth embodiment, and the portion of the fourth embodiment may be added as one kind of partial image data. Image data may be used. In this case, the image pickup device 40 is configured in the same manner as the image pickup device 3 in the fourth embodiment, for example.
Further, the plurality of authenticity estimation models stored in the storage unit 11 of the determination device 1 may be relearned in the same manner as in the fifth embodiment.

(実施の形態7)
実施の形態6においては、判定装置1の制御部12は、開口5bにカードの種類及び表裏を特定している。しかしながら、制御部12が種類特定モデルGを用いてカードの種類及び表裏を特定するとともに、カードの一面について、上向き及び下向きのいずれであるかを特定してもよい。
以下では、実施の形態7について、実施の形態6と異なる点を説明する。後述する構成を除く他の構成については、実施の形態6と共通している。このため、実施の形態6と共通する構成部には実施の形態6と同一の参照符号を付してその説明を省略する。
(Embodiment 7)
In the sixth embodiment, the control unit 12 of the determination device 1 specifies the type and front and back of the card in the opening 5b. However, the control unit 12 may specify the type and front and back sides of the card by using the type identification model G, and may specify whether one side of the card is upward or downward.
Hereinafter, the differences between the seventh embodiment and the sixth embodiment will be described. Other configurations other than the configurations described later are common to the sixth embodiment. Therefore, the same reference reference numerals as those in the sixth embodiment are assigned to the components common to the sixth embodiment, and the description thereof will be omitted.

図39は、実施の形態7におけるカードの上下の説明図である。認証装置5の開口5bの一方の長辺側がカードの表側である場合において、一方の短辺側からカードを挿入したときの第1面画像データの第1面画像は、他方の短辺側からカードを挿入したときの第1面画像データの第1面画像とは異なる。認証装置5の開口5bの一方の長辺側がカードの表側であることは、例えば、図24において、カードの上面が表側であることである。図39の例では、文字の向きが正常であるカードの向きを上向きと定義し、文字の向きが逆さであるカードの向きを下向きと定義している。 FIG. 39 is an explanatory view of the top and bottom of the card according to the seventh embodiment. When one long side of the opening 5b of the authentication device 5 is the front side of the card, the first side image of the first side image data when the card is inserted from one short side is from the other short side. It is different from the first side image of the first side image data when the card is inserted. The fact that one long side of the opening 5b of the authentication device 5 is the front side of the card means that, for example, in FIG. 24, the upper surface of the card is the front side. In the example of FIG. 39, the orientation of the card in which the character orientation is normal is defined as upward, and the orientation of the card in which the character orientation is inverted is defined as downward.

図40は種類特定モデルGの概略図である。種類特定モデルGでは、カードの表側又は裏側の縮小画像データと、カードの種類、カードの表側又は裏側、及び、カードの上向き又は下向きを示す第2の正解ラベルとを含む第2の教師データを用いて、縮小画像データとカードの種類、表裏及び上下との関係が学習されている。
中間層では、第2の教師データに基づき、縮小画像データと、カードの種類、表裏及び上下との関係が学習されている。
FIG. 40 is a schematic view of the type identification model G. In the type identification model G, the second teacher data including the reduced image data of the front side or the back side of the card, the type of the card, the front side or the back side of the card, and the second correct answer label indicating the upward or downward direction of the card is provided. By using it, the relationship between the reduced image data and the type of card, front and back, and top and bottom is learned.
In the intermediate layer, the relationship between the reduced image data, the card type, the front and back, and the top and bottom is learned based on the second teacher data.

出力層は、入力層に入力された縮小画像データの縮小画像に写っているカードの種類、表裏及び上下の分類の確からしさを示す確率を出力する。具体的には、カードの種類、表裏及び上下の各組合せについて、縮小画像データに係るカードの種類、表裏及び上下の組合せが該当する確率を示す。図40では、カードの種類、表裏及び上下の組合せを(種類,表又は裏,上又は下)で示している。(運転免許証,表,上)、(運転免許証,表,下)、(運転免許証,裏,上)及び(運転免許証,裏,下)等の組合せそれぞれについて、縮小画像データに係るカードの種類、表裏及び上下の組合せが該当する確率を示す。 The output layer outputs the probability indicating the type of the card shown in the reduced image of the reduced image data input to the input layer, and the certainty of the classification of the front and back and the top and bottom. Specifically, for each card type, front / back and top / bottom combination, the probability that the card type, front / back and top / bottom combinations related to the reduced image data correspond is shown. In FIG. 40, the types of cards, front and back, and top and bottom combinations are shown by (type, front or back, top or bottom). Reduced image data for each combination of (driver's license, front, top), (driver's license, front, bottom), (driver's license, back, top) and (driver's license, back, bottom) Indicates the probability that the card type, front and back, and top and bottom combinations are applicable.

モデル生成装置2の制御部24が取得する第2の教師データは、カードの表側又は裏側の縮小画像データと、カードの種類、カードの表側又は裏側、及び、カードの上向き又は下向きを示す第2の正解ラベルとを含む。制御部24は、実施の形態6と同様に、種類特定モデル生成処理を実行する。 The second teacher data acquired by the control unit 24 of the model generator 2 is the reduced image data of the front side or the back side of the card, the type of the card, the front side or the back side of the card, and the second upward or downward direction of the card. Includes the correct label of. The control unit 24 executes the type identification model generation process as in the sixth embodiment.

判定装置1の制御部12は、実施の形態6と同様に、モデル生成装置2の制御部24が種類特定モデル生成処理で生成した種類特定モデルGを用いる。判定装置1の制御部12は、種類特定モデルGの出力として算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定するとともに、カードの一面について、上向き及び下向きのいずれであるかを特定する。実施の形態7におけるモデル生成装置2は、実施の形態6におけるモデル生成装置2が奏する効果を同様に奏する。 Similar to the sixth embodiment, the control unit 12 of the determination device 1 uses the type identification model G generated by the control unit 24 of the model generation device 2 in the type identification model generation process. The control unit 12 of the determination device 1 identifies the type and front and back of the card inserted in the opening 5b based on the calculation result calculated as the output of the type identification model G, and either upward or downward on one side of the card. Identify if. The model generator 2 according to the seventh embodiment similarly exhibits the effect of the model generator 2 according to the sixth embodiment.

判定装置1の制御部12は、実施の形態6と同様に真贋判定処理において特定処理を実行する。実施の形態7においては、制御部12は、種類特定モデルGの出力として、カードの種類、表裏及び上下の分類の確からしさを示す確率を算出する。特定処理のステップS104,S108それぞれでは、制御部12は、カードの種類、表裏及び上下の特定を行うことが可能であるか否かを判定する。ステップS110では、制御部12は、ステップS103又はステップS107で算出した算出結果に基づいて、開口5bに挿入されたカードの種類及び表裏を特定するとともに、第1面又は第2面について、上向き及び下向きのいずれであるかを特定する。 The control unit 12 of the determination device 1 executes a specific process in the authenticity determination process as in the sixth embodiment. In the seventh embodiment, the control unit 12 calculates the probability of indicating the type of the card, the front and back, and the certainty of the upper and lower classification as the output of the type identification model G. In each of the steps S104 and S108 of the specifying process, the control unit 12 determines whether or not it is possible to specify the type, front and back, and top and bottom of the card. In step S110, the control unit 12 identifies the type and front and back of the card inserted in the opening 5b based on the calculation result calculated in step S103 or step S107, and faces upward and on the first or second surface. Identify which is downward.

以上のように、判定装置1では、制御部12は、第1面画像データ又は第2面画像データを種類特定モデルGの入力層に入力し、種類特定モデルGの出力として、カードの種類、表裏及び上下の分類の確からしさを示す確率を算出する。制御部12は、この確率に基づいて、カードの種類及び表裏を特定するとともに、カードの一面について、上向き及び下向きのいずれであるかを特定する。また、制御部12は、第1面画像データを種類特定モデルGの入力層に入力することによって、カードの種類、表裏及び上下に関する特定を行うことができなかった場合、第2面画像データを種類特定モデルGの入力層に入力することによって、カードの種類及び表裏を特定するとともに、カードの一面が上向き及び下向きのいずれであるかを特定する。 As described above, in the determination device 1, the control unit 12 inputs the first surface image data or the second surface image data to the input layer of the type identification model G, and outputs the type of the card as the output of the type identification model G. Calculate the probability of showing the certainty of the front and back and top and bottom classification. Based on this probability, the control unit 12 specifies the type and front and back of the card, and also specifies whether one side of the card is upward or downward. Further, when the control unit 12 cannot specify the type, front and back, and top and bottom of the card by inputting the first surface image data into the input layer of the type identification model G, the control unit 12 inputs the second surface image data. By inputting to the input layer of the type-specific model G, the type and front and back of the card are specified, and whether one side of the card is upward or downward is specified.

実施の形態7における判定装置1は、実施の形態6における判定装置1が奏する効果を同様に奏する。実施の形態7における判定装置1では、第1面画像又は第2面画像が写っている第1面又は第2面について、上向き及び下向きのいずれであるかを特定するので、個人情報の読み取りが容易である。 The determination device 1 in the seventh embodiment similarly exhibits the effect of the determination device 1 in the sixth embodiment. In the determination device 1 according to the seventh embodiment, it is specified whether the first surface or the second surface on which the first surface image or the second surface image is captured is upward or downward, so that personal information can be read. It's easy.

(実施の形態8)
図41は、実施の形態8における再学習システムの概略図である。
以下では、実施の形態8について、実施の形態6と異なる点を説明する。後述する構成を除く他の構成については、実施の形態6と共通している。このため、実施の形態6と共通する構成部には実施の形態6と同一の参照符号を付してその説明を省略する。
(Embodiment 8)
FIG. 41 is a schematic diagram of the re-learning system according to the eighth embodiment.
Hereinafter, the differences between the eighth embodiment and the sixth embodiment will be described. Other configurations other than the configurations described later are common to the sixth embodiment. Therefore, the same reference reference numerals as those in the sixth embodiment are assigned to the components common to the sixth embodiment, and the description thereof will be omitted.

再学習システムは、複数の認証装置5と、モデル生成装置2とを備える。これらはネットワークNに接続されている。後述するように、複数の認証装置5に含まれる複数の判定装置1がネットワークNを介してモデル生成装置2と接続される。複数の判定装置1及びモデル生成装置2は実施の形態5と同様に接続されている。実施の形態8では、各認証装置5が備える判定装置1は、種類特定モデルG、第2の教師データ、第3評価用データ及び第4評価用データをモデル生成装置2に送信する。モデル生成装置2は、種類特定モデルGの再学習を行う。 The re-learning system includes a plurality of authentication devices 5 and a model generation device 2. These are connected to network N. As will be described later, a plurality of determination devices 1 included in the plurality of authentication devices 5 are connected to the model generation device 2 via the network N. The plurality of determination devices 1 and the model generation device 2 are connected in the same manner as in the fifth embodiment. In the eighth embodiment, the determination device 1 included in each authentication device 5 transmits the type identification model G, the second teacher data, the third evaluation data, and the fourth evaluation data to the model generation device 2. The model generation device 2 relearns the type-specific model G.

図42は、認証装置5の要部構成を示すブロック図である。認証装置5の判定装置1は、実施の形態6における判定装置1が備える構成部に加えて、通信部14を有する。通信部14は、実施の形態5と同様に、内部バス13及びネットワークNに接続されている。各判定装置1は実施の形態5と同様に作用する。このため、判定装置1の制御部12は、真贋度推定モデルを更新する更新処理を行う。なお、第1真贋度推定モデル及び第2真贋度推定モデルそれぞれは、真贋度推定モデルの1つである。 FIG. 42 is a block diagram showing a main configuration of the authentication device 5. The determination device 1 of the authentication device 5 has a communication unit 14 in addition to the components included in the determination device 1 according to the sixth embodiment. The communication unit 14 is connected to the internal bus 13 and the network N as in the fifth embodiment. Each determination device 1 operates in the same manner as in the fifth embodiment. Therefore, the control unit 12 of the determination device 1 performs an update process for updating the authenticity estimation model. The first authenticity estimation model and the second authenticity estimation model are each one of the authenticity estimation models.

通信部14は、制御部12の指示に従って、種類特定モデルG、複数の第2の教師データ、第3評価用データ及び第4評価用データを含む第2の更新ファイルをモデル生成装置2に送信する。通信部14は、モデル生成装置2から、再学習で更新された種類特定モデルGを受信する。制御部12は、通信部14から、通信部14が受信した種類特定モデルGを取得する。第2の教師データは、種類特定モデルGに入力した縮小画像データと、カードの種類、及び、カードの表側又は裏側を示す第2の正解ラベルとを含む。第2の正解ラベルが示す内容は、特定処理で制御部12が特定した特定結果に基づく。 The communication unit 14 transmits a second update file including the type identification model G, a plurality of second teacher data, the third evaluation data, and the fourth evaluation data to the model generation device 2 according to the instruction of the control unit 12. To do. The communication unit 14 receives the type-specific model G updated by re-learning from the model generation device 2. The control unit 12 acquires the type identification model G received by the communication unit 14 from the communication unit 14. The second teacher data includes the reduced image data input to the type identification model G, the type of the card, and the second correct label indicating the front side or the back side of the card. The content indicated by the second correct answer label is based on the specific result specified by the control unit 12 in the specific process.

判定装置1の制御部12は、特定処理において、ステップS110でカードの種類及び表裏を特定した場合、種類特定モデルGに入力した縮小画像データと、この縮小画像データに対応する縮小画像に写っているカードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを生成し、生成した第2の教師データを記憶部11に記憶する。第2の正解ラベルが示すカードの向きは、表側及び裏側の一方である。特定処理において、制御部12は、第1面画像データの縮小画像データを種類特定モデルGに入力して、カードの種類を運転免許証と特定し、カードの第1面を表側と特定したと仮定する。このとき、制御部12は、第1面画像データの縮小画像データと、運転免許証及び表側を示す第2の正解ラベルとを含む第2の教師データを生成する。 When the control unit 12 of the determination device 1 specifies the type and front and back of the card in step S110 in the identification process, the control unit 12 is reflected in the reduced image data input to the type identification model G and the reduced image corresponding to the reduced image data. A second teacher data including a second correct answer label indicating the type and orientation of the card is generated, and the generated second teacher data is stored in the storage unit 11. The orientation of the card indicated by the second correct label is either the front side or the back side. In the identification process, the control unit 12 inputs the reduced image data of the first side image data into the type identification model G, identifies the type of the card as a driver's license, and specifies the first side of the card as the front side. Assume. At this time, the control unit 12 generates the second teacher data including the reduced image data of the first surface image data and the driver's license and the second correct answer label indicating the front side.

第3評価用データ及び第4評価用データは、例えば、予め記憶部11に記憶されている。
判定装置1では、制御部12の処理素子は、コンピュータプログラムP1を実行することによって、種類特定モデルGを更新する第2の更新処理も実行させる。
The third evaluation data and the fourth evaluation data are stored in the storage unit 11 in advance, for example.
In the determination device 1, the processing element of the control unit 12 also executes a second update process for updating the type identification model G by executing the computer program P1.

図43は、モデル生成装置2の要部構成を示すブロック図である。実施の形態8を実施の形態6と比較した場合、実施の形態8におけるモデル生成装置2は、入力部20の代わりに、通信部26を備える。通信部26は、実施の形態5と同様に、内部バス13及びネットワークNに接続されている。モデル生成装置2は実施の形態5と同様に作用する。このため、モデル生成装置2の制御部24は、真贋度推定モデルの再学習を行う再学習処理を行う。なお、前述したように、第1真贋度推定モデル及び第2真贋度推定モデルそれぞれは、真贋度推定モデルの1つである。 FIG. 43 is a block diagram showing a main configuration of the model generation device 2. When the eighth embodiment is compared with the sixth embodiment, the model generation device 2 in the eighth embodiment includes a communication unit 26 instead of the input unit 20. The communication unit 26 is connected to the internal bus 13 and the network N as in the fifth embodiment. The model generator 2 operates in the same manner as in the fifth embodiment. Therefore, the control unit 24 of the model generation device 2 performs a re-learning process for re-learning the authenticity estimation model. As described above, each of the first authenticity estimation model and the second authenticity estimation model is one of the authenticity estimation models.

通信部26は、判定装置1の通信部14から第2の更新ファイルを受信する。モデル生成装置2の通信部26が受信した第2の更新ファイルは、制御部24によって取得される。通信部26は、制御部24の指示に従って、種類特定モデルGを判定装置1の通信部14に送信する。モデル生成装置2では、制御部24の処理素子は、コンピュータプログラムP2を実行することによって、種類特定モデルGの再学習を行う第2の再学習処理を実行する。 The communication unit 26 receives the second update file from the communication unit 14 of the determination device 1. The second update file received by the communication unit 26 of the model generation device 2 is acquired by the control unit 24. The communication unit 26 transmits the type identification model G to the communication unit 14 of the determination device 1 according to the instruction of the control unit 24. In the model generation device 2, the processing element of the control unit 24 executes a second re-learning process for re-learning the type-specific model G by executing the computer program P2.

図44は、判定装置1及びモデル生成装置2が行う処理の手順を示すフローチャートである。図44には、判定装置1の制御部12が実行する第2の更新処理と、モデル生成装置2の制御部24が実行する第2の再学習処理とが示されている。制御部12は第2の更新処理を周期的に実行する。制御部24も第2の再学習処理を周期的に実行する。第2の更新処理及び第2の再学習処理は、実施の形態5の説明で述べた更新処理及び再学習処理と同様である。 FIG. 44 is a flowchart showing a procedure of processing performed by the determination device 1 and the model generation device 2. FIG. 44 shows a second update process executed by the control unit 12 of the determination device 1 and a second relearning process executed by the control unit 24 of the model generation device 2. The control unit 12 periodically executes the second update process. The control unit 24 also periodically executes the second relearning process. The second update process and the second relearning process are the same as the update process and the relearning process described in the description of the fifth embodiment.

第2の更新処理において、判定装置1の制御部12は、種類特定モデルGを更新するか否かを判定する(ステップS131)。制御部12は、例えば、記憶部11に記憶されている第2の教師データの数が所定数以上である場合に、種類特定モデルGを更新すると判定し、記憶部11に記憶されている第2の教師データの数が所定数未満である場合に種類特定モデルGを更新しないと判定する。 In the second update process, the control unit 12 of the determination device 1 determines whether or not to update the type identification model G (step S131). For example, when the number of the second teacher data stored in the storage unit 11 is equal to or greater than a predetermined number, the control unit 12 determines that the type identification model G is to be updated, and the control unit 12 determines that the type identification model G is to be updated and stores it in the storage unit 11. When the number of teacher data of 2 is less than a predetermined number, it is determined that the type-specific model G is not updated.

制御部12は、種類特定モデルGを更新すると判定した場合(S131:YES)、通信部14に指示して、記憶部11に記憶されている種類特定モデルG、複数の第2の教師データ、第3評価用データ及び第4評価用データを含む第2の更新ファイルを、ネットワークNを介してモデル生成装置2の通信部26に送信させる(ステップS132)。モデル生成装置2の制御部24は、通信部26が判定装置1の通信部14から第2の更新ファイルを受信したか否かを判定する(ステップS141)。 When the control unit 12 determines that the type identification model G is to be updated (S131: YES), the control unit 12 instructs the communication unit 14, the type identification model G stored in the storage unit 11, and the plurality of second teacher data. A second update file including the third evaluation data and the fourth evaluation data is transmitted to the communication unit 26 of the model generation device 2 via the network N (step S132). The control unit 24 of the model generation device 2 determines whether or not the communication unit 26 has received the second update file from the communication unit 14 of the determination device 1 (step S141).

モデル生成装置2の制御部24は、通信部26が種類特定モデルG及び第2の教師データを受信したと判定した場合(S141:YES)、通信部26が受信した種類特定モデルG及び第2の教師データを記憶部23に記憶し(ステップS142)、図30及び図31に示す種類特定モデル生成処理を実行する(ステップS143)。これにより、通信部26が受信した種類特定モデルGの再学習が行われる。種類特定モデルGの再学習で用いられる第2の教師データは、判定装置1の制御部12が種類特定モデルGに入力した縮小画像データと、特定処理のステップS110で制御部12が特定したカードの向き(表側又は裏側)を示す第2の教師データとを含む。
なお、ステップS143で実行する種類特定モデル生成処理では、経路は既に形成されているので、ステップS81を実行せず、ステップS82から処理を開始する。
When the control unit 24 of the model generation device 2 determines that the communication unit 26 has received the type identification model G and the second teacher data (S141: YES), the type identification model G and the second type identification model G received by the communication unit 26 The teacher data of the above is stored in the storage unit 23 (step S142), and the type identification model generation process shown in FIGS. 30 and 31 is executed (step S143). As a result, the type-specific model G received by the communication unit 26 is relearned. The second teacher data used in the re-learning of the type-specific model G is the reduced image data input to the type-specific model G by the control unit 12 of the determination device 1 and the card specified by the control unit 12 in step S110 of the specific process. Includes a second teacher data indicating the orientation (front or back) of.
In the type identification model generation process executed in step S143, since the route has already been formed, the process is started from step S82 without executing step S81.

次に、制御部24は、通信部26に指示して、再学習された種類特定モデルGを判定装置1の通信部14に送信させる(ステップS144)。制御部24は、通信部26が第2の更新ファイルを受信していないと判定した場合(S141:NO)、又は、ステップS144を実行した後、第2の再学習処理を終了する。 Next, the control unit 24 instructs the communication unit 26 to transmit the relearned type identification model G to the communication unit 14 of the determination device 1 (step S144). The control unit 24 ends the second re-learning process when it determines that the communication unit 26 has not received the second update file (S141: NO) or after executing step S144.

判定装置1の制御部12は、ステップS132を実行した後、通信部14が、モデル生成装置2の通信部26から種類特定モデルGを受信したか否かを判定する(ステップS133)。制御部12は、種類特定モデルGを受信していないと判定した場合(S133:NO)、ステップS133を再び実行し、通信部14が種類特定モデルGを受信するまで待機する。制御部12は、通信部14が種類特定モデルGを受信したと判定した場合(S133:YES)、記憶部11に記憶されている種類特定モデルGを、通信部14が受信した種類特定モデルGに更新する(ステップS134)。
制御部12は、種類特定モデルGを更新しないと判定した場合(S131:NO)、ステップS134を実行した後、第2の更新処理を終了する。
After executing step S132, the control unit 12 of the determination device 1 determines whether or not the communication unit 14 has received the type identification model G from the communication unit 26 of the model generation device 2 (step S133). When the control unit 12 determines that the type-specific model G has not been received (S133: NO), the control unit 12 executes step S133 again and waits until the communication unit 14 receives the type-specific model G. When the control unit 12 determines that the communication unit 14 has received the type identification model G (S133: YES), the control unit 12 receives the type identification model G stored in the storage unit 11 by the communication unit 14. Update to (step S134).
If the control unit 12 determines that the type-specific model G is not updated (S131: NO), the control unit 12 ends the second update process after executing step S134.

実施の形態8における判定装置1は、実施の形態6における判定装置1が奏する効果を同様に奏する。更に、実施の形態8における判定装置1に記憶されている種類特定モデルGは、再学習が行われることによって、定期的に改善される。 The determination device 1 in the eighth embodiment similarly exhibits the effect of the determination device 1 in the sixth embodiment. Further, the type identification model G stored in the determination device 1 in the eighth embodiment is periodically improved by performing re-learning.

なお、モデル生成装置2の制御部24は、実施の形態7と同様に種類特定モデル生成処理を実行してもよい。この場合においても、第2の再学習処理のステップS143で実行される種類特定モデル生成処理では、ステップS81が省略され、制御部12は、ステップS82から実行する。また、実施の形態8における種類特定モデルGは、実施の形態7における種類特定モデルGと同様であってもよい。この場合、第2の正解ラベルが示すカードの向きは、表側及び裏側の一方、及び、上側及び下側の一方である。特定処理において、制御部12は、第1面画像データの縮小画像データを種類特定モデルGに入力して、カードの種類を運転免許証と特定し、第1面に関するカードの向きを表側及び上側と特定したと仮定する。このとき、制御部12は、第1面画像データの縮小画像データと、運転免許証、表側及び上側を示す第2の正解ラベルとを含む第2の教師データを生成する。 The control unit 24 of the model generation device 2 may execute the type-specific model generation process as in the seventh embodiment. Also in this case, in the type identification model generation process executed in step S143 of the second relearning process, step S81 is omitted, and the control unit 12 executes from step S82. Further, the type-specific model G in the eighth embodiment may be the same as the type-specific model G in the seventh embodiment. In this case, the orientation of the card indicated by the second correct label is one of the front side and the back side, and one of the upper side and the lower side. In the specific process, the control unit 12 inputs the reduced image data of the first side image data into the type identification model G, identifies the type of the card as a driver's license, and sets the orientation of the card with respect to the first side to the front side and the upper side. Suppose that you have identified. At this time, the control unit 12 generates the second teacher data including the reduced image data of the first surface image data, the driver's license, and the second correct answer label indicating the front side and the upper side.

なお、実施の形態8における種類特定モデルGの再学習において、判定装置1の制御部12は、通信部14に指示して、種類特定モデルGの代わりに種類特定モデルGのパラメータを示す情報をモデル生成装置2の通信部26に送信してもよい。この場合、モデル生成装置2の制御部24は、通信部26が受信したパラメータに基づいて種類特定モデルGを生成し、生成した種類特定モデルGの再学習を行う。更に、通信部26は、通信部14に、種類特定モデルGの代わりに、種類特定モデルGのパラメータを示す情報を送信してもよい。この場合、判定装置1の制御部12は、種類特定モデルGのパラメータを、受信した情報に基づいて更新する。 In the re-learning of the type-specific model G in the eighth embodiment, the control unit 12 of the determination device 1 instructs the communication unit 14 to provide information indicating the parameters of the type-specific model G instead of the type-specific model G. It may be transmitted to the communication unit 26 of the model generator 2. In this case, the control unit 24 of the model generation device 2 generates the type-specific model G based on the parameters received by the communication unit 26, and relearns the generated type-specific model G. Further, the communication unit 26 may transmit information indicating the parameters of the type identification model G to the communication unit 14 instead of the type identification model G. In this case, the control unit 12 of the determination device 1 updates the parameters of the type identification model G based on the received information.

なお、実施の形態6〜8における認証装置5において、撮像装置40は、スキャナ又はカメラ等である。カメラとして、工業用カメラ、家庭用カメラ、携帯電話機のカメラ又はスマートフォンのカメラ等が挙げられる。 In the authentication device 5 in the sixth to eighth embodiments, the image pickup device 40 is a scanner, a camera, or the like. Examples of the camera include an industrial camera, a home camera, a mobile phone camera, a smartphone camera, and the like.

(実施の形態9)
図45は、実施の形態9における認証システムの要部構成を示すブロック図である。認証システムは判定装置1及びユーザ端末6を備える。判定装置1及びユーザ端末6はネットワークNに接続されている。ユーザ端末6は、ユーザによって操作される。ユーザ端末6は、カードの第1面画像データ及び第2面画像データを、ネットワークNを介して判定装置1に送信する。判定装置1は、ユーザ端末6から受信した第1面画像データ及び第2面画像データに基づいて、実施の形態6における判定装置1と同様に、真贋判定処理及び認証処理を実行し、カードの所有者を認証する。
(Embodiment 9)
FIG. 45 is a block diagram showing a main configuration of the authentication system according to the ninth embodiment. The authentication system includes a determination device 1 and a user terminal 6. The determination device 1 and the user terminal 6 are connected to the network N. The user terminal 6 is operated by the user. The user terminal 6 transmits the first side image data and the second side image data of the card to the determination device 1 via the network N. Based on the first surface image data and the second surface image data received from the user terminal 6, the determination device 1 executes the authenticity determination process and the authentication process as in the determination device 1 in the sixth embodiment, and executes the authenticity determination process and the authentication process of the card. Authenticate the owner.

以下では、実施の形態9について、実施の形態6と異なる点を説明する。後述する構成を除く他の構成については、実施の形態6と共通している。このため、実施の形態6と共通する構成部には実施の形態6と同一の参照符号を付してその説明を省略する。 Hereinafter, the differences between the ninth embodiment and the sixth embodiment will be described. Other configurations other than the configurations described later are common to the sixth embodiment. Therefore, the same reference reference numerals as those in the sixth embodiment are assigned to the components common to the sixth embodiment, and the description thereof will be omitted.

判定装置1は、記憶部11、制御部12及び通信部17を備える。これらは内部バス13に接続されている。
通信部17は、ユーザ端末6からカードの第1面及び第2面の画像データを受信する。受信した2つの画像データは、制御部12によって取得される。通信部17は、更に、制御部12の指示に従って、特定不可情報、対象外情報、読み取り不可情報及び結果情報をユーザ端末6に送信する。
The determination device 1 includes a storage unit 11, a control unit 12, and a communication unit 17. These are connected to the internal bus 13.
The communication unit 17 receives the image data of the first side and the second side of the card from the user terminal 6. The two received image data are acquired by the control unit 12. Further, the communication unit 17 transmits the non-specified information, the non-target information, the unreadable information, and the result information to the user terminal 6 according to the instruction of the control unit 12.

実施の形態9における真贋判定処理及び認証処理それぞれは、実施の形態6における真贋判定処理及び認証処理と同様である。判定装置1の制御部12は、通信部17がユーザ端末6から第1面及び第2面の画像データを受信した場合に、真贋判定処理及び認証処理を順次実行する。実施の形態9における認証処理のステップS125では、制御部12は、顔画像とは異なる個人情報、例えば、氏名、住所又は生年月日等の個人情報に基づいて認証を行う。 Each of the authenticity determination process and the authentication process in the ninth embodiment is the same as the authenticity determination process and the authentication process in the sixth embodiment. When the communication unit 17 receives the image data of the first surface and the second surface from the user terminal 6, the control unit 12 of the determination device 1 sequentially executes the authenticity determination process and the authentication process. In step S125 of the authentication process according to the ninth embodiment, the control unit 12 authenticates based on personal information different from the face image, for example, personal information such as name, address or date of birth.

実施の形態9における認証処理のステップS126では、通信部17に指示して結果情報をユーザ端末6に送信させる。これにより、例えば、ユーザ端末6が有する図示しないディスプレイに認証結果が表示される。実施の形態9における特定処理のステップS109,S112及び認証処理のステップS124では、通信部17に指示して特定不可情報、対象外情報又は読み取り不可情報をユーザ端末6に送信させる。これにより、例えば、ユーザ端末6が有する図示しないディスプレイに、カードを特定することができなかったこと、カードの種類が対象外カードの種類であること、又は、読み取りを行うことができなかったことが表示される。 In step S126 of the authentication process in the ninth embodiment, the communication unit 17 is instructed to transmit the result information to the user terminal 6. As a result, for example, the authentication result is displayed on a display (not shown) included in the user terminal 6. In steps S109 and S112 of the specific processing and step S124 of the authentication processing in the ninth embodiment, the communication unit 17 is instructed to transmit the non-identifiable information, the non-target information, or the unreadable information to the user terminal 6. As a result, for example, the card could not be specified on the display (not shown) of the user terminal 6, the card type was a non-target card type, or the card could not be read. Is displayed.

以上のように構成された実施の形態9における判定装置1は、実施の形態6における判定装置1が奏する効果と同様の効果を奏する。
種類特定モデルGは、実施の形態6と同様にモデル生成装置2によって生成される。
The determination device 1 according to the ninth embodiment configured as described above has the same effect as that of the determination device 1 according to the sixth embodiment.
The type-specific model G is generated by the model generation device 2 as in the sixth embodiment.

なお、実施の形態9における種類特定モデルGは、実施の形態7における種類特定モデルGであってもよい。この場合、判定装置1の制御部12は、カードの種類及び表裏を特定するとともに、カードの一面が上側及び下側のいずれであるかを特定する。更に、実施の形態9において、実施の形態8と同様に、モデル生成装置2がネットワークNに接続され、モデル生成装置2が判定装置1の記憶部11に記憶されている真贋度推定モデル及び種類特定モデルGの再学習を行ってもよい。 The type-specific model G in the ninth embodiment may be the type-specific model G in the seventh embodiment. In this case, the control unit 12 of the determination device 1 specifies the type and front and back of the card, and also specifies whether one side of the card is the upper side or the lower side. Further, in the ninth embodiment, as in the eighth embodiment, the model generation device 2 is connected to the network N, and the model generation device 2 is stored in the storage unit 11 of the determination device 1. The authenticity estimation model and type. The specific model G may be retrained.

なお、実施の形態6〜9において、種類特定モデルGは、出力層がカードの種類及び表裏等の組合せの中で、確率が最も高い組合せを出力する第2の学習済みモデルであってもよい。更に、種類特定モデルGは、カードの表裏が写っている1つの画像に対応する画像データと、カードの種類を示す第2の正解ラベルとを含む第2の教師データを用いて、画像データとカードの種類との関係を学習した第2の学習済みモデルであってもよい。この場合、種類特定モデルGとして算出される算出結果では、種類に係る複数の確率を示し、判定装置1の制御部12は、特定処理において、カードの種類を特定する。前述したように、第2の教師データの縮小画像データとして、運転免許証を含む複数種類のカードそれぞれの表裏の縮小画像データが用いられる。 In the sixth to ninth embodiments, the type-specific model G may be a second trained model in which the output layer outputs the combination having the highest probability among the combinations of the card type and the front and back sides. .. Further, the type identification model G uses the image data corresponding to one image showing the front and back sides of the card and the second teacher data including the second correct answer label indicating the type of the card to obtain the image data. It may be a second trained model that has learned the relationship with the card type. In this case, the calculation result calculated as the type identification model G shows a plurality of probabilities related to the type, and the control unit 12 of the determination device 1 specifies the type of the card in the identification process. As described above, as the reduced image data of the second teacher data, the reduced image data on the front and back of each of the plurality of types of cards including the driver's license is used.

また、種類特定モデルGは、カードではなく、文書の種類を示す第2の正解ラベルを含む第2の教師データを用いて、縮小画像データと文書の種類との関係を学習した第2の学習済みモデルであってもよい。文書として、パスポート、銀行の通帳、生徒手帳、年金手帳、身体障害者手帳又は母子健康手帳等の冊子、及び、契約書等が挙げられる。この場合、種類特定モデルGの出力として算出された算出結果では、種類に係る複数の確率を示し、判定装置1の制御部12は、特定処理において、文書の画像データに基づいて文書の種類を特定する。制御部12は、真贋判定処理において、文書が本物であると判定した場合、認証処理において、特定した種類に対応する読み取りルールに従って、文書の画像データから個人情報を読み取る。文書の画像データは、例えば、撮像装置40によって生成され、撮像装置40から取得される。 Further, the type-specific model G is a second learning in which the relationship between the reduced image data and the document type is learned by using the second teacher data including the second correct answer label indicating the document type instead of the card. It may be a finished model. Documents include passports, bank passbooks, student notebooks, pension notebooks, handicapped person notebooks or maternal and child health notebooks, and contracts. In this case, the calculation result calculated as the output of the type identification model G indicates a plurality of probabilities related to the type, and the control unit 12 of the determination device 1 determines the document type based on the image data of the document in the identification process. Identify. When the control unit 12 determines that the document is genuine in the authenticity determination process, the control unit 12 reads the personal information from the image data of the document according to the reading rule corresponding to the specified type in the authentication process. The image data of the document is generated by, for example, the image pickup apparatus 40 and is acquired from the image pickup apparatus 40.

また、第2の教師データに含まれる画像データ、及び、種類特定モデルGに入力される画像データそれぞれは、縮小画像データに限定されず、縮小前の画像データであってもよい。この場合であっても、実施の形態6〜9における判定装置1及びモデル生成装置2は、前述した効果の中で縮小によって得られる効果を除く他の効果を同様に奏する。この構成では、例えば、個人情報を削除した画像データを第2の教師データの画像データとして用いてもよい。また、縮小前の画像データにおいて、個人情報の変更又は削除が行われた画像データ、又は、縮小前の画像データにノイズを追加した画像データを第2の教師データの画像データとして用いてもよい。
更に、実施の形態1〜9における判定装置1に、モデル生成装置2が行う真贋度推定モデルの生成機能を持たせてもよい。実施の形態6〜9における判定装置1に、モデル生成装置2が行う種類特定モデルGの生成機能を持たせてもよい。
Further, the image data included in the second teacher data and the image data input to the type-specific model G are not limited to the reduced image data, and may be the image data before reduction. Even in this case, the determination device 1 and the model generation device 2 in the sixth to ninth embodiments similarly perform the other effects other than the effect obtained by the reduction among the above-mentioned effects. In this configuration, for example, the image data from which the personal information has been deleted may be used as the image data of the second teacher data. Further, in the image data before reduction, the image data in which personal information is changed or deleted, or the image data in which noise is added to the image data before reduction may be used as the image data of the second teacher data. ..
Further, the determination device 1 in the first to ninth embodiments may be provided with a function of generating an authenticity estimation model performed by the model generation device 2. The determination device 1 in the sixth to ninth embodiments may be provided with a function of generating the type-specific model G performed by the model generation device 2.

本開示に係る特定装置は、カードの画像データを取得する取得部と、運転免許証を含む複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを用いて、画像データとカードの種類及び向きとの関係を学習した第2の学習済みモデルと、前記取得部が取得した画像データを前記第2の学習済みモデルに入力し、前記第2の学習済みモデルからの出力に基づいて、カードの種類及び向きを特定する特定部とを備える。
判定装置1が特定装置として機能する。制御部12が特定部及び取得部として機能する。
The specific device according to the present disclosure includes a second acquisition unit that acquires image data of the card, image data of a plurality of types of cards including a driver's license, and a second correct answer label indicating the type and orientation of the card. The second trained model in which the relationship between the image data and the type and orientation of the card is learned using the teacher data of the above, and the image data acquired by the acquisition unit are input to the second trained model, and the above It includes a specific part that identifies the type and orientation of the card based on the output from the second trained model.
The determination device 1 functions as a specific device. The control unit 12 functions as a specific unit and an acquisition unit.

本開示に係る特定装置では、前記カードの向きは、表裏、又は、表裏及び上下である。 In the specific device according to the present disclosure, the orientation of the card is front and back, front and back, and up and down.

本開示に係る特定装置では、前記取得部は、カード2面の2つの画像データを取得し、前記特定部は、前記取得部が取得した2つの画像データを前記第2の学習済みモデルに入力する。 In the specific device according to the present disclosure, the acquisition unit acquires two image data of two cards, and the specific unit inputs the two image data acquired by the acquisition unit into the second trained model. To do.

本開示に係る特定装置は、前記取得部が取得した画像データを縮小する縮小部を備え、前記特定部は、前記縮小部が縮小した画像データを前記第2の学習済みモデルに入力する。
制御部12が縮小部としても機能する。
The specific device according to the present disclosure includes a reduction unit that reduces the image data acquired by the acquisition unit, and the specific unit inputs the image data reduced by the reduction unit into the second learned model.
The control unit 12 also functions as a reduction unit.

本開示に係る特定装置は、前記特定部が特定したカードの種類に対応するカードの読み取りルールに従い、カード上の個人情報を読み取る読み取り部を備える。
制御部12が読み取り部として機能する。
The specific device according to the present disclosure includes a reading unit that reads personal information on the card in accordance with a card reading rule corresponding to the type of card specified by the specific unit.
The control unit 12 functions as a reading unit.

本開示に係る特定装置は、前記読み取り部により前記カード上の個人情報を読み取ることができない場合、カードの特定に成功したもののカードの読み取りができなかったことを示す第1情報を出力する第1情報出力部を備える。
読み取り不可情報が第1情報に相当する。出力部16又は通信部17が第1情報出力部として機能する。
When the specific device according to the present disclosure cannot read the personal information on the card by the reading unit, the first information indicating that the card has been successfully identified but the card cannot be read is output. It has an information output unit.
The unreadable information corresponds to the first information. The output unit 16 or the communication unit 17 functions as the first information output unit.

本開示に係る特定装置では、前記第2の学習済みモデルは、カードの種類及び向きの分類の確からしさを示す確率を出力する。本開示に係る特定装置は、出力された前記確率の分布が所定基準を満たさない場合、カードの特定ができなかったことを示す第2情報を出力する第2情報出力部を備える。
特定不可情報が第2情報に相当する。出力部16又は通信部17が第2情報出力部として機能する。
In the specific device according to the present disclosure, the second trained model outputs a probability indicating the certainty of classification of card type and orientation. The specific device according to the present disclosure includes a second information output unit that outputs second information indicating that the card could not be specified when the output distribution of the probabilities does not satisfy a predetermined criterion.
The unspecified information corresponds to the second information. The output unit 16 or the communication unit 17 functions as a second information output unit.

本開示に係る特定装置は、前記特定部が特定したカードの種類が、予め設定されている複数の種類とは異なっていた場合、前記特定部が特定したカードの種類が対象外の種類であることを示す第3情報を出力する第3情報出力部を備える。
対象外情報が第3情報に相当する。出力部16又は通信部17が第3情報出力部として機能する。
In the specific device according to the present disclosure, when the type of the card specified by the specific unit is different from the plurality of preset types, the type of the card specified by the specific unit is not the target type. It is provided with a third information output unit that outputs the third information indicating that.
The non-target information corresponds to the third information. The output unit 16 or the communication unit 17 functions as a third information output unit.

本開示に係る生成方法では、運転免許証を含む複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを取得し、取得した第2の教師データに基づき、カードの画像データから、カードの種類及び向きを特定する処理に用いられる第2の学習済みモデルを生成する。 In the generation method according to the present disclosure, the image data of a plurality of types of cards including a driver's license and the second teacher data including the second correct answer label indicating the type and orientation of the cards are acquired and acquired second. A second trained model used in the process of specifying the type and orientation of the card is generated from the image data of the card based on the teacher data of.

本開示に係る生成方法では、前記カードの向きは、表裏、又は、表裏及び上下である。 In the generation method according to the present disclosure, the orientation of the card is front and back, or front and back and up and down.

本開示に係る生成方法では、前記複数種類のカードの縮小画像データを取得し、取得した縮小画像データを第2の教師データとして前記第2の学習済みモデルに入力する。 In the generation method according to the present disclosure, the reduced image data of the plurality of types of cards is acquired, and the acquired reduced image data is input to the second trained model as the second teacher data.

本開示に係る生成方法では、前記第2の教師データの画像データに含まれる個人情報を削除又は変更した削除変更画像データを取得し、取得した削除変更画像データを第2の教師データとして前記第2の学習済みモデルの入力に含める。 In the generation method according to the present disclosure, the deleted modified image data in which the personal information included in the image data of the second teacher data is deleted or changed is acquired, and the acquired deleted modified image data is used as the second teacher data. Include in the input of the trained model of 2.

本開示に係る生成方法では、前記第2の教師データのカードの画像データにノイズを追加した追加画像データを取得し、取得した追加画像データを第2の教師データとして前記第2の学習済みモデルの入力に含める。 In the generation method according to the present disclosure, additional image data in which noise is added to the image data of the card of the second teacher data is acquired, and the acquired additional image data is used as the second teacher data in the second trained model. Include in the input of.

本開示に係るコンピュータプログラムでは、コンピュータに、運転免許証を含む複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データを取得し、取得した第2の教師データに基づき、カードの画像データから、カードの種類及び向きを特定する処理に用いられる第2の学習済みモデルを生成する処理を実行させる。 In the computer program according to the present disclosure, the computer acquires and acquires the image data of a plurality of types of cards including a driver's license and the second teacher data including the second correct answer label indicating the type and orientation of the card. Based on the second teacher data, a process of generating a second trained model used for a process of specifying the type and orientation of the card is executed from the image data of the card.

本開示に係る第2の学習済みモデルは、運転免許証を含む複数種類のカードの画像データが入力される入力層と、前記複数種類のカードの画像データと、カードの種類及び向きを示す第2の正解ラベルとを含む第2の教師データに基づき、画像データと、カードの種類及び向きとの関係を学習した中間層と、画像データに係るカードの種類及び向きの分類の確からしさを示す確率を出力する出力層とを備え、前記入力層に入力されたカードの画像データに基づいて前記中間層で演算を行い、前記入力層に入力された画像データに係るカードの種類及び向きの分類の確からしさを示す確率を前記出力層から出力するよう、コンピュータを機能させる。 The second learned model according to the present disclosure is an input layer in which image data of a plurality of types of cards including a driver's license are input, image data of the plurality of types of cards, and a second indicating the type and orientation of the cards. Based on the second teacher data including the correct answer label of 2, the intermediate layer that learned the relationship between the image data and the card type and orientation, and the certainty of the classification of the card type and orientation related to the image data are shown. It is provided with an output layer that outputs a probability, performs calculations in the intermediate layer based on the image data of the card input to the input layer, and classifies the type and orientation of the card related to the image data input to the input layer. The computer is made to function so as to output the probability indicating the certainty of the above from the output layer.

実施の形態1〜9で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
開示された実施の形態1〜9はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
The technical features (constituent requirements) described in the first to ninth embodiments can be combined with each other, and by combining them, a new technical feature can be formed.
The disclosed embodiments 1-9 should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 判定装置(情報処理装置)
3 撮像装置
12 制御部(取得部、抽出部、入力部、算出部)
31 照射器
C カード
G 種類特定モデル(第2の学習済みモデル)
P1 コンピュータプログラム
R 真贋度推定モデル(学習済みモデル)
R1,R10,R11 第1真贋度推定モデル(学習済みモデル)
R2,R20,R21 第2真贋度推定モデル(学習済みモデル)
1 Judgment device (information processing device)
3 Imaging device 12 Control unit (acquisition unit, extraction unit, input unit, calculation unit)
31 Irradiator C card G type specific model (second trained model)
P1 Computer program R Authenticity estimation model (learned model)
R1, R10, R11 1st authenticity estimation model (learned model)
R2, R20, R21 2nd authenticity estimation model (learned model)

Claims (12)

カードの画像データを取得し、
取得した画像データの一部分である部分画像データを抽出し、
抽出した部分画像データを、カードの画像データの一部分である部分画像データと、カードの真贋度との関係を学習した学習済みモデルに入力し、
前記真贋度を算出する
処理をコンピュータに実行させるコンピュータプログラム。
Get the image data of the card,
Extract the partial image data that is a part of the acquired image data,
The extracted partial image data is input to the trained model that has learned the relationship between the partial image data that is a part of the image data of the card and the authenticity of the card.
A computer program that causes a computer to execute the process of calculating the authenticity.
取得した画像データから複数の部分画像データを抽出し、
抽出した複数の部分画像データを前記学習済みモデルに各別に入力し、
算出した複数の真贋度に基づいてカードが本物であるか否かを判定する
処理をコンピュータに実行させる請求項1に記載のコンピュータプログラム。
Extract multiple partial image data from the acquired image data and
A plurality of extracted partial image data are input to the trained model separately,
The computer program according to claim 1, wherein the computer executes a process of determining whether or not the card is genuine based on a plurality of calculated authenticities.
取得した画像データから、種類が共通する複数の部分画像データを抽出し、
抽出した複数の部分画像データを、抽出した部分画像データの種類と種類が同じである複数の部分画像データを用いて前記関係を学習した学習済みモデルに各別に入力し、
算出した複数の真贋度に基づいてカードが本物であるか否かを判定する
処理をコンピュータに実行させる請求項1又は請求項2に記載のコンピュータプログラム。
From the acquired image data, multiple partial image data of the same type are extracted, and
The extracted plurality of partial image data is input separately to the trained model in which the relationship is learned using the plurality of partial image data of the same type and type of the extracted partial image data.
The computer program according to claim 1 or 2, wherein a computer is made to execute a process of determining whether or not the card is genuine based on a plurality of calculated authenticities.
取得した画像データから、カード上の線部分に対応する複数の部分画像データ、又は、カード上の斜線の模様部分に対応する複数の部分画像データを抽出する
処理をコンピュータに実行させる請求項3に記載のコンピュータプログラム。
According to claim 3, a computer is made to execute a process of extracting a plurality of partial image data corresponding to a line portion on a card or a plurality of partial image data corresponding to a pattern portion of a diagonal line on a card from the acquired image data. The listed computer program.
取得した画像データから、カード上にて全体が2色で塗り潰されている部分の部分画像データ、及び、カード上にて全体が1色で塗り潰されている部分の部分画像データの両方又は一方を含む複数の部分画像データを抽出する
処理をコンピュータに実行させる請求項3に記載のコンピュータプログラム。
From the acquired image data, both or one of the partial image data of the portion entirely filled with two colors on the card and the partial image data of the portion entirely filled with one color on the card can be obtained. The computer program according to claim 3, wherein a computer executes a process of extracting a plurality of partial image data including the data.
複数種類の部分画像データに対応し、前記関係を学習した複数種類の学習済みモデルが用意されており、
取得した画像データから複数種類の部分画像データを抽出し、
抽出した複数種類の部分画像データそれぞれを、種類に対応する学習済みモデルに入力し、
算出した複数の真贋度に基づいてカードが本物であるか否かを判定する
処理をコンピュータに実行させる請求項1から請求項5のいずれか1つに記載のコンピュータプログラム。
There are multiple types of trained models that support multiple types of partial image data and have learned the above relationships.
Extract multiple types of partial image data from the acquired image data
Input each of the extracted multiple types of partial image data into the trained model corresponding to the type,
The computer program according to any one of claims 1 to 5, which causes a computer to execute a process of determining whether or not a card is genuine based on a plurality of calculated authenticities.
照射器によって光が照射されているカードを撮影することによって生成される画像データを取得し、
取得した画像データから、カード上にて、エンボスの影、ホログラムの絵、又は、透かしの絵が写る部分の部分画像データを抽出する
処理をコンピュータに実行させる請求項1から請求項6のいずれか1つに記載のコンピュータプログラム。
Acquire the image data generated by taking a picture of the card illuminated by the irradiator,
Any of claims 1 to 6 that causes a computer to execute a process of extracting partial image data of a portion where an embossed shadow, a hologram picture, or a watermark picture appears on the card from the acquired image data. The computer program described in one.
取得した画像データに基づいてカードの種類を特定し、
カードの複数の種類に対応し、前記関係を学習した複数種類の学習済みモデルから、特定した種類に対応する学習済みモデルを選択し、
抽出した部分画像データを、選択した学習済みモデルに入力する
処理をコンピュータに実行させる請求項1から請求項7のいずれか1つに記載のコンピュータプログラム。
Identify the type of card based on the acquired image data,
A trained model corresponding to a specific type is selected from a plurality of trained models that correspond to a plurality of types of cards and have learned the above relationship.
The computer program according to any one of claims 1 to 7, wherein a computer executes a process of inputting the extracted partial image data into the selected trained model.
取得した画像データを、カードの画像データと、カードの種類との関係を学習した第2の学習済みモデルに入力し、
前記第2の学習済みモデルの出力に基づいてカードの種類を特定する
処理をコンピュータに実行させる請求項8に記載のコンピュータプログラム。
The acquired image data is input to the second trained model in which the relationship between the card image data and the card type is learned.
The computer program according to claim 8, wherein the computer executes a process of specifying the type of the card based on the output of the second trained model.
カードの画像データを取得する取得部と、
前記取得部が取得した画像データの一部分である部分画像データを抽出する抽出部と、
前記抽出部が抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力する入力部と、
前記真贋度を算出する算出部と
を備える情報処理装置。
The acquisition unit that acquires the image data of the card,
An extraction unit that extracts partial image data that is a part of the image data acquired by the acquisition unit, and an extraction unit.
An input unit that inputs the partial image data extracted by the extraction unit into the trained model that has learned the relationship between the partial data that is a part of the image data of the card and the authenticity of the card.
An information processing device including a calculation unit for calculating the authenticity.
カードの画像データを取得し、
取得した画像データの一部分である部分画像データを抽出し、
抽出した部分画像データを、カードの画像データの一部分である部分データと、カードの真贋度との関係を学習した学習済みモデルに入力し、
前記真贋度を算出する
処理をコンピュータが実行する情報処理方法。
Get the image data of the card,
Extract the partial image data that is a part of the acquired image data,
The extracted partial image data is input to the trained model that has learned the relationship between the partial data that is a part of the image data of the card and the authenticity of the card.
An information processing method in which a computer executes the process of calculating the authenticity.
カードの画像データの一部分である部分画像データに、カードが本物であるか否かを示す正解ラベルが対応付けられている教師データを取得し、
取得した教師データに基づき、部分画像データと、カードの真贋度との関係を学習した学習済みモデルを生成する
処理をコンピュータが実行する学習済みモデルの生成方法。
Acquire the teacher data in which the partial image data, which is a part of the image data of the card, is associated with the correct answer label indicating whether the card is genuine or not.
A method of generating a trained model in which a computer executes a process of generating a trained model that learns the relationship between partial image data and card authenticity based on the acquired teacher data.
JP2019143097A 2019-08-02 2019-08-02 Computer program, information processing device, information processing method and generation method of learned model Pending JP2021026450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019143097A JP2021026450A (en) 2019-08-02 2019-08-02 Computer program, information processing device, information processing method and generation method of learned model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019143097A JP2021026450A (en) 2019-08-02 2019-08-02 Computer program, information processing device, information processing method and generation method of learned model

Publications (1)

Publication Number Publication Date
JP2021026450A true JP2021026450A (en) 2021-02-22

Family

ID=74663019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019143097A Pending JP2021026450A (en) 2019-08-02 2019-08-02 Computer program, information processing device, information processing method and generation method of learned model

Country Status (1)

Country Link
JP (1) JP2021026450A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189734A1 (en) * 2022-03-28 2023-10-05 富士フイルム富山化学株式会社 Object identification device, object identification method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255118A (en) * 1997-03-11 1998-09-25 Oki Electric Ind Co Ltd Device for judging card authenticity
JPH1166273A (en) * 1997-08-14 1999-03-09 Fujitsu Kiden Ltd Authenticity, descrimination device for driver's license
JP2001322381A (en) * 2000-05-17 2001-11-20 Topcon Corp Card authenticity deciding system
JP2011034535A (en) * 2009-08-06 2011-02-17 Toshiba Corp Apparatus for appraising genuineness of personal identification document
JP2019003421A (en) * 2017-06-15 2019-01-10 テンソル・コンサルティング株式会社 Authenticity determination system, method and program for identity confirmation document
JP2019117549A (en) * 2017-12-27 2019-07-18 大日本印刷株式会社 Authenticity determination device, reader, authenticity determination system, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255118A (en) * 1997-03-11 1998-09-25 Oki Electric Ind Co Ltd Device for judging card authenticity
JPH1166273A (en) * 1997-08-14 1999-03-09 Fujitsu Kiden Ltd Authenticity, descrimination device for driver's license
JP2001322381A (en) * 2000-05-17 2001-11-20 Topcon Corp Card authenticity deciding system
JP2011034535A (en) * 2009-08-06 2011-02-17 Toshiba Corp Apparatus for appraising genuineness of personal identification document
JP2019003421A (en) * 2017-06-15 2019-01-10 テンソル・コンサルティング株式会社 Authenticity determination system, method and program for identity confirmation document
JP2019117549A (en) * 2017-12-27 2019-07-18 大日本印刷株式会社 Authenticity determination device, reader, authenticity determination system, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189734A1 (en) * 2022-03-28 2023-10-05 富士フイルム富山化学株式会社 Object identification device, object identification method, and program

Similar Documents

Publication Publication Date Title
KR102226619B1 (en) Certificate and Identity Verification Method and Device
CN108229120B (en) Face unlocking method, face unlocking information registration device, face unlocking information registration equipment, face unlocking program and face unlocking information registration medium
US9483629B2 (en) Document authentication based on expected wear
JP6098759B2 (en) IDENTIFICATION DEVICE, IDENTIFICATION METHOD, IDENTIFICATION PROGRAM, AND COMPUTER-READABLE MEDIUM CONTAINING IDENTIFICATION PROGRAM
US20110122452A1 (en) Visible authentication patterns for printed document
KR20200118842A (en) Identity authentication method and device, electronic device and storage medium
US20140055824A1 (en) Method and system for authenticating a secure document
CN205665721U (en) Present label that machine readable vision is showed
EA027635B1 (en) Security element, printed matter comprising said security element and method to inspect authenticity of said printed matter
WO2021189850A1 (en) Certificate authentication method, apparatus and device, and readable storage medium
KR102502685B1 (en) Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness
JP2021026450A (en) Computer program, information processing device, information processing method and generation method of learned model
KR20160107869A (en) Smartphone linked counterfeit discrimination apparatus and method
KR20080052005A (en) Imaging apparatus and system for management of the bogus note comprising the same
Kang et al. Camera model identification using a deep network and a reduced edge dataset
WO2015022872A1 (en) Method for automatically determining authenticity of individual article using micro contour shape of printing as identifier
BR112020017923A2 (en) METHOD AND SYSTEM OF AUTOMATIC VERIFICATION OF THE AUTHENTICITY OF DOCUMENTS
CN110008942B (en) Certificate verification method, device, server and storage medium
JP6662484B2 (en) Identification device, identification method, and computer program
JP2020177368A (en) Authenticity determination apparatus and program
CN113159255B (en) Digital watermark anti-counterfeiting method based on QR code and safety shading
CN101256371A (en) Image forming apparatus
CN116802696A (en) Copy prevention of digital sample images
JP2023166847A (en) Computer program, method for processing information, and information processor
WO2022154093A1 (en) Authenticity verification system and authenticity verification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114