JP2023166847A - コンピュータプログラム、情報処理方法及び情報処理装置 - Google Patents

コンピュータプログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP2023166847A
JP2023166847A JP2022077670A JP2022077670A JP2023166847A JP 2023166847 A JP2023166847 A JP 2023166847A JP 2022077670 A JP2022077670 A JP 2022077670A JP 2022077670 A JP2022077670 A JP 2022077670A JP 2023166847 A JP2023166847 A JP 2023166847A
Authority
JP
Japan
Prior art keywords
authenticity
information
parameters
photographed image
computer program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022077670A
Other languages
English (en)
Inventor
麻由佳 土井
Mayuka Doi
孝次 稲垣
Koji Inagaki
郁 山田
Iku Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2022077670A priority Critical patent/JP2023166847A/ja
Publication of JP2023166847A publication Critical patent/JP2023166847A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】撮影画像の特徴に応じた適切な真贋判定を行うためのコンピュータプログラム、情報処理方法及び情報処理装置を提供する。【解決手段】コンピュータプログラムは、真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得するステップS105と、取得した特徴情報に基づいて、対象物の真贋を判定する真贋判定処理に必要なパラメータを特定するステップS111を、コンピュータに実行させる。【選択図】図5

Description

本発明は、対象物の真贋判定を行うためのコンピュータプログラム、情報処理方法及び情報処理装置に関する。
個人が何らかの手続き又は契約を行う際には、本人確認が行われることがある。本人確認では、本人の写真及び個人情報が記載された運転免許証等の本人確認書類が用いられることが多い。この本人確認書類が偽造された場合は、別人による成りすましが可能である。そこで、本人確認書類の真贋を判定する必要がある。特許文献1には、本人確認書類の真贋を判定する技術が開示されている。
特開2019-117549号公報
従来、本人確認は、個人と当該個人に対する本人確認を行う者とが対面して行われることが多かった。一方で、オンラインで本人確認が行われることもある。例えば、個人が操作するカメラにより本人確認書類を撮影した撮影画像が作成され、撮影画像が送信され、撮影画像に基づいた本人確認が行われる。撮影画像は、シャッタースピード等のカメラの設定、又は周りの明るさ等の撮影環境によって影響される。例えば、シャッタースピードが遅い場合は撮影画像にボケが発生し、暗い環境で撮影が行われた場合は暗ノイズが増える。撮影画像の特徴によって、適切な真贋判定方法は異なる。本人確認を行う際には、様々な特徴の撮影画像の真贋を判定する必要があり、撮影画像の特徴に適していない真贋判定方法が用いられた場合は、判定の精度が低下する。
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、夫々の撮影画像の特徴に応じた適切な真贋判定を行うためのコンピュータプログラム、情報処理方法及び情報処理装置を提供することにある。
本発明の一形態に係るコンピュータプログラムは、真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得し、取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定する処理をコンピュータに実行させることを特徴とする。
本発明の一形態に係る情報処理方法は、真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得し、取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定することを特徴とする。
本発明の一形態に係る情報処理装置は、真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得する取得部と、取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定するパラメータ特定部とを備えることを特徴とする。
本発明の一形態においては、真贋判定の対象物を撮影した撮影画像の特徴を表した特徴情報に応じて、真贋判定処理のパラメータが特定される。特徴情報に応じて真贋判定処理のパラメータが特定されることにより、撮影画像の特徴に適した真贋判定処理のパラメータが得られる。撮影画像の特徴に適したパラメータを用いた真贋判定処理を行うことにより、撮影画像の特徴に応じた適切な真贋判定を行うことが可能となる。
本発明にあっては、撮影画像の特徴に応じた適切な真贋判定を行うことができる。このため、精度良く対象物の真贋判定を行うことが可能となり、誤判定を抑制することができる等、本発明は優れた効果を奏する。
真贋判定を行うための情報処理システムの構成例を示す模式図である。 端末装置の内部の構成例を示すブロック図である。 実施形態1に係る情報処理装置の内部の構成例を示すブロック図である。 本人確認書類の例を示す模式図である。 実施形態1に係る真贋判定処理のパラメータを特定する処理の手順の例を示すフローチャートである。 設定情報の内容例を示す概念図である。 特徴情報の内容の一例を示す概念図である。 特徴情報の内容の他の例を示す概念図である。 撮影画像に含まれる複数の領域の例を示す模式図である。 パラメータDBの内容例を示す概念図である。 実施形態1に係る真贋判定の処理の手順の例を示すフローチャートである。 実施形態2に係る情報処理装置の内部の構成例を示すブロック図である。 第1学習済モデルの機能を示す概念図である。 学習装置の内部の機能構成例を示すブロック図である。 実施形態2に係る真贋判定処理のパラメータを特定する処理の手順の例を示すフローチャートである。 実施形態3に係る情報処理装置の内部の構成例を示すブロック図である。 第2学習済モデルの機能を示す概念図である。 実施形態3に係る真贋判定の処理の手順の例を示すフローチャートである。 実施形態4に係る端末装置と本人確認書類とを示す模式図である。
以下本発明をその実施の形態を示す図面に基づき具体的に説明する。
<実施形態1>
本実施形態では、運転免許証、パスポート又はIDカード等の本人確認書類の真贋を判定する例を示す。図1は、真贋判定を行うための情報処理システム100の構成例を示す模式図である。本人確認書類4は、真贋判定の対象物である。例えば、本人確認書類4は、使用者によって所有されており、使用者の顔写真が含まれている。情報処理システム100は、使用者が使用する端末装置2と、真贋判定のための情報処理を実行する情報処理装置1を含んでいる。端末装置2は、端末装置2の外部を撮影する機能を有し、本人確認書類4を撮影する。端末装置2は、インターネット等の通信ネットワーク3を介して、情報処理装置1と通信を行う。情報処理装置1は、真贋判定のための情報処理方法を実行する。情報処理装置1は、行政機関又は金融機関等、本人確認書類4の真贋を判定する必要のある機関で用いられる。図1には単一の端末装置2のみを示しているが、情報処理装置1は、複数の端末装置2と通信を行うことができる。情報処理装置1は、端末装置2が本人確認書類4を撮影した撮影画像に基づいて、本人確認書類4の真贋を判定する。
図2は、端末装置2の内部の構成例を示すブロック図である。端末装置2は、スマートフォン、タブレット型コンピュータ又はパーソナルコンピュータ等、使用者が使用するコンピュータである。端末装置2は、演算部21と、メモリ22と、記憶部23と、操作部24と、表示部25と、撮影部26と、通信部27とを備えている。演算部21は、例えばCPU(Central Processing Unit )、GPU(Graphics Processing Unit)、又はマルチコアCPUを用いて構成されている。演算部21は、量子コンピュータを用いて構成されていてもよい。メモリ22は、演算に伴って発生する一時的なデータを記憶する。メモリ22は、例えばRAM(Random Access Memory)である。記憶部23は、不揮発性であり、例えばハードディスク又は不揮発性半導体メモリである。
操作部24は、使用者からの操作を受け付けることにより、テキスト等の情報の入力を受け付ける。操作部24は、例えばタッチパネル、キーボード又はポインティングデバイスである。表示部25は、画像を表示する。表示部25は、例えば液晶ディスプレイ又はELディスプレイ(Electroluminescent Display)である。操作部24及び表示部25は、一体になっていてもよい。撮影部26は、端末装置2の外部を撮影する。例えば、撮影部26は、撮像素子を有する。端末装置2は、撮影部26を使用することによって、カメラとして機能する。通信部27は、有線又は無線通信により、端末装置2の外部と通信を行う。具体的には、通信部27は、通信ネットワーク3を介して、情報処理装置1と通信を行う。
記憶部23は、コンピュータプログラム231を記憶する。コンピュータプログラム231は、コンピュータプログラム231を記憶する光ディスク等の記録媒体20から読み出され、通信部27を用いてダウンロードされ、記憶部23に記憶される。例えば、コンピュータプログラム231は、情報処理装置1からダウンロードされる。コンピュータプログラム231は、予め記憶部23に記憶されていてもよい。或は、コンピュータプログラム231は、記憶部23ではなく、メモリ22に記憶されてもよい。例えば、コンピュータプログラム231は、真贋判定に関する処理を実行する際にダウンロードされ、メモリ22に記憶され、真贋判定に関する処理が終了する際にメモリ22から消去されてもよい。演算部21は、コンピュータプログラム231に従って必要な処理を実行する。
図3は、実施形態1に係る情報処理装置1の内部の構成例を示すブロック図である。情報処理装置1は、サーバ装置等のコンピュータを用いて構成されている。例えば、情報処理装置1は、行政機関又は金融機関等、本人確認書類4の真贋を判定する必要のある機関に設置されている。情報処理装置1は、演算部11と、演算に伴って発生する一時的なデータを記憶するメモリ12と、記憶部13と、読取部14と、通信部15とを備えている。演算部11は、例えばCPU、GPU、又はマルチコアCPUを用いて構成されている。演算部11は、量子コンピュータを用いて構成されていてもよい。メモリ12は、例えばRAMである。記憶部13は、不揮発性であり、例えばハードディスク又は不揮発性半導体メモリである。読取部14は、光ディスク又は可搬型メモリ等の記録媒体10から情報を読み取る。通信部15は、有線通信又は無線通信により、通信ネットワーク3を介して情報処理装置1の外部と通信を行う。具体的には、通信部15は、端末装置2と通信を行う。
演算部11は、記録媒体10に記録されたコンピュータプログラム131を読取部14に読み取らせ、読み取ったコンピュータプログラム131を記憶部13に記憶させる。演算部11は、コンピュータプログラム131に従って、情報処理装置1に必要な処理を実行する。コンピュータプログラム131は、予め記憶部13に記憶されているか、又は情報処理装置1の外部からダウンロードされてもよい。この場合は、情報処理装置1は読取部14を備えていなくてもよい。
記憶部13は、本人確認書類4を撮影した撮影画像の特徴を表した特徴情報と、本人確認書類4の真贋を判定する真贋判定処理に必要なパラメータとを関連付けて記録したパラメータDB(データベース)132を記憶している。情報処理装置1は、複数のコンピュータで構成されていてもよい。例えば、情報処理装置1は、コンピュータプログラム131を記憶したコンピュータと、パラメータDB132を記憶したコンピュータとの二つのコンピュータで構成されていてもよい。又は、パラメータDB132は、クラウドに記憶されていてもよい。
情報処理装置1は、所定のアルゴリズムに従って、本人確認書類4を撮影した撮影画像に基づいて本人確認書類4の真贋を判定する真贋判定処理を行う。真贋判定処理のアルゴリズムの一例を説明する。
図4は、本人確認書類4の例を示す模式図である。本人確認書類4には、使用者の顔写真が占める顔写真領域41が含まれている。顔写真領域41には、使用者の顔が映った顔領域42と、使用者の顔の背景を構成する背景領域43とが含まれている。顔写真領域41は略長方形になっている。背景領域43の一角に当り、背景領域43の隅に当たる隅部44は、丸みを帯びており、かつ隅部44の輪郭は不明確である。偽の顔写真を顔写真領域41に貼り付ける偽造が行われた場合は、隅部44が直角状になり、輪郭は明確になる。このため、隅部44が直角状であること又は隅部44の輪郭が明確であることを検出することにより、本人確認書類4が偽造されたものであることを判定することができる。
真贋判定処理のアルゴリズムの一例では、本人確認書類4を撮影した撮影画像から、隅部44を検査画像として抽出し、抽出した検査画像の解像度を所定の解像度へ変換する。解像度変換度の検査画像に対して、メディアンフィルタ等のローパスフィルタを用いてノイズ除去を行う。ノイズ除去後の検査画像に対して、エッジ検出用フィルタを用いて、エッジ検出を行う。エッジ検出により、検出されたエッジからなるエッジ画像が生成される。このとき、所定の第1方向のエッジからなるエッジ画像と、第1方向に交差する第2方向のエッジからなるエッジ画像とが生成される。例えば、撮影画像に含まれる画素の位置をxy座標で表し、y軸に沿った方向を第1方向とし、x軸に沿った方向を第2方向とする。例えば、長方形の顔写真領域41の長辺に沿った方向を第1方向とし、短辺に沿った方向を第2方向とする。エッジ画像に対して、二値化を行うことにより、二値画像を生成する。
二値画像に対して、ハフ変換により直線検出を行う。ハフ変換では、二値画像中のエッジ部分の一の画素を通る直線に対し原点から垂線を下し、所定の基準線に対する当該垂線の角度をθ、当該垂線の長さをρとする。一の画素を通る夫々の直線についてθ及びρを得、得られた全てのθ及びρをρ-θ座標上に表した曲線を生成する。この曲線を、エッジ部分の夫々の画素について生成する。この結果、ρ-θ座標上に、得られた複数の曲線の中の最も多くの曲線が交差する交差箇所が現れる。交差箇所で多くの曲線が交差することは、エッジ部分の多くの画素について共通の直線が引かれることを示す。交差箇所でのθ及びρによって定められる直線を検出する。検出した直線を検出線という。検出線は、第1方向のエッジ画像の二値画像と、第2方向のエッジ画像の二値画像との両方から検出される。
交差箇所で交差する曲線の数は、直線検出、即ち隅部44の輪郭検出の確からしさを示し、集中度と言う。隅部44の輪郭が不明確な場合は、集中度は低くなり、隅部44の輪郭が明確な場合は、集中度は高くなる。得られた集中度を所定の閾値と比較することにより、隅部44の輪郭が明確であるか否かを判定する。集中度が閾値以下である場合は、隅部44が不明確であると判定し、本人確認書類4は、偽造されておらず、真であると判定する。集中度が閾値を超過する場合は、隅部44が明確であると判定する。隅部44が明確である場合は、本人確認書類4は、偽造されている可能性がある。隅部44が明確である場合は、隅部44が直角状であるか否かを判定する。
隅部44が丸みを帯びている場合は、第1方向及び第2方向のエッジ画像の二値画像から検出された二つの検出線は、傾きが互いに似たものになる。このため、二つの検出線の成す角度は0度又は180度に近くなる。隅部44が直角状である場合は、二つの検出線は直行し、二つの検出線の成す角度は90度に近くなる。二つの検出線の単位ベクトルの内積を計算し、内積の絶対値を所定の閾値と比較する。内積は、二つの検出線の傾きが同じ場合に1となり、二つの検出線が直交する場合に0となる。計算した内積が閾値を超過する場合に、隅部44が直角状ではないと判定し、本人確認書類4は、偽造されておらず、真であると判定する。計算した内積が閾値以下である場合は、隅部44が直角状であると判定し、本人確認書類4は偽造されていると判定する。情報処理装置1は、その他のアルゴリズムを利用して、真贋判定処理を行ってもよい。
以上のような真贋判定処理では、種々のパラメータが利用される。例えば、パラメータには、ローパスフィルタを用いたノイズ除去の強度、ノイズ除去の処理回数、又はエッジ強調処理の有無が含まれる。例えば、パラメータには、隅部44の輪郭が明確であるか否かを判定するために集中度と比較される閾値が含まれる。例えば、パラメータには、隅部44が直角状であるか否かを判定するために二つの検出線の単位ベクトルの内積と比較される閾値が含まれる。
撮影画像の状態は、端末装置2が本人確認書類4を撮影したときの設定及び撮影環境によって影響され、一定ではない。例えば、暗い環境で撮影が行われた場合は、撮影時の設定はゲインを上げた状態となり、撮影画像の平均輝度は低い。このとき、撮影画像に含まれる暗ノイズが増える。例えば、シャッタースピードが遅く、ピンボケが発生する場合は、撮影画像の平均エッジ強度が低い。例えば、シャッタースピードが早く、ピントが合い過ぎている場合は、撮影画像の平均輝度は高く、平均エッジ強度は高い。このとき、本人確認書類4に含まれる彩文(地紋)が明確に撮影されている。
撮影画像の状態は、真贋判定の精度に影響する。例えば、撮影画像に含まれる暗ノイズが増えている場合は、暗ノイズによる不要なエッジが検出され、正確なエッジが検出できない。例えば、ピンボケが発生している場合は、正確なエッジが検出できない。例えば、彩文が明確に撮影されている場合は、隅部44の輪郭のエッジと共に、彩文のエッジが検出され、隅部44の輪郭のエッジを正確に検出することができない。
真贋判定の精度を向上させるためには、撮影画像の状態に合わせて真贋判定処理のパラメータを調整することが望ましい。例えば、撮影画像に含まれる暗ノイズが増えている場合は、ノイズ除去の強度又はノイズ除去の処理回数を大きくすることにより、暗ノイズを低減させる。また、集中度と比較される閾値を小さくすることにより、直線の検出感度を下げ、二つの検出線の単位ベクトルの内積と比較される閾値も小さくする。例えば、ピンボケが発生している場合は、ノイズ除去を行わずにエッジ強調処理を実施することにより、エッジ検出を容易にする。また、集中度と比較される閾値を小さくし、二つの検出線の単位ベクトルの内積と比較される閾値も小さくする。例えば、彩文が明確に撮影されている場合は、ノイズ除去の強度を大きくすることにより、彩文のエッジの影響を低減させる。また、集中度と比較される閾値を大きくすることにより、不要な直線の検出感度を下げる。
情報処理システム100は、撮影を行ったときの端末装置2の設定と、撮影画像の見た目の状態とを撮影画像の特徴とし、撮影画像の特徴に応じて真贋判定処理のパラメータを特定する。図5は、実施形態1に係る真贋判定処理のパラメータを特定する処理の手順の例を示すフローチャートである。以下、ステップをSと略す。演算部11がコンピュータプログラム131に従って情報処理を実行することにより、情報処理装置1は以下の処理を実行する。また、演算部21がコンピュータプログラム231に従って情報処理を実行することにより、端末装置2は以下の処理を実行する。
端末装置2は、本人確認書類4を撮影した撮影画像を生成する(S101)。S101では、使用者は、操作部24を操作することにより、撮影の指示を入力し、演算部21は、撮影の指示に従って、撮影部26に本人確認書類4を撮影させ、撮影画像を生成する。撮影画像は電子データで構成される。例えば、撮影画像は、R(赤)、G(緑)及びB(青)の三色からなるカラー画像である。演算部21は、生成した撮影画像のデータをメモリ22又は記憶部23に記憶する。
端末装置2は、撮影部26で本人確認書類4を撮影したときの設定を表した設定情報を取得する(S102)。撮影部26を備えた端末装置2は、カメラに対応し、撮影部26で撮影を行ったときの設定は、カメラの設定に対応する。S102では、演算部21は、撮影を行う際の撮影部26の設定及び撮影画像を生成する情報処理の設定を表した情報を、設定情報として取得する。S102の処理は、S101よりも前に行われてもよい。
図6は、設定情報の内容例を示す概念図である。設定情報は、ホワイトバランス、シャッタースピード、ISO(International Organization for Standardization)感度、EV(Exposure Value)及びゲイン等の複数の要素からなる。各要素の値が定まっており、演算部21は、S102で、各要素の値を取得する。図6に示した設定情報の内容は一例であり、設定情報には、図6に示した要素以外の要素が含まれていてもよく、図6に示したいずれかの要素が含まれていなくてもよい。
端末装置2は、生成した撮影画像及び取得した設定情報を情報処理装置1へ送信する(S103)。S103では、演算部21は、通信部27に、通信ネットワーク3を介して、撮影画像及び設定情報を情報処理装置1へ送信させる。情報処理装置1は、端末装置2から送信された撮影画像及び設定情報を通信部15で受信する(S104)。情報処理装置1は、撮影画像及び設定情報を受信することにより、撮影画像及び設定情報を取得する。S104の処理は取得部に対応する。演算部11は、受信した撮影画像及び設定情報を記憶部13に記憶する。
情報処理装置1は、撮影画像の状態を表した状態情報を取得する(S105)。状態情報は、撮影画像の見た目の状態を表した情報である。S105では、演算部11は、撮影画像に基づいて状態情報を生成することにより、取得した設定情報及び生成した状態情報からなる特徴情報を取得する。演算部11は、取得した特徴情報をメモリ12又は記憶部13に記憶する。
図7は、特徴情報の内容の一例を示す概念図である。特徴情報は、撮影画像の特徴を表した情報であり、設定情報及び状態情報を含む。状態情報は、撮影画像の明るさ及びボケ度等の、撮影画像の見た目の複数の特徴を示した複数の要素からなる。演算部11は、撮影画像に基づいて、状態情報に含まれる複数の要素の値を決定する。例えば、演算部11は、撮影画像に含まれる画素の輝度の平均に応じて明るさを決定する。例えば、演算部11は、撮影画像に含まれる高周波成分の大きさに応じてボケ度を決定する。状態情報には、コントラスト等、明るさ及びボケ度以外に撮影画像の見た目の特徴を示した要素が含まれていてもよく、明るさ又はボケ度が含まれていなくてもよい。
図8は、特徴情報の内容の他の例を示す概念図である。この例では、撮影画像に含まれる複数の領域毎に状態情報が取得される。複数の領域は、予め定められている。図9は、撮影画像に含まれる複数の領域の例を示す模式図である。図9には、撮影画像に含まれる第1領域R1、第2領域R2及び第3領域R3を示している。各領域においては、設定情報は同一であるものの、状態情報の少なくとも一部が異なることがある。S105では、演算部11は、複数の領域毎に状態情報を取得する。特徴情報には、複数の領域での状態情報が含まれる。
本人確認書類4を撮影する際に、本人確認書類4の一部に影が落ちている場合、又は本人確認書類4の一部で光が反射している場合等、本人確認書類4の明るさが位置によって異なっていることがある。このとき、取得された撮影画像は明るさが不均一になっている。図9に示す例では、相対的に、第1領域R1での明るさが大きく、第2領域R2及び第3領域R3での明るさが小さくなっている。図8に示す例では、特徴情報には、第1領域R1、第2領域R2及び第3領域R3の夫々での明るさが含まれる。特徴情報に含まれる明るさ以外の要素が領域別に異なっていてもよい。
撮影画像に基づいて本人確認書類4の真贋を判定する処理のパラメータは、撮影画像の特徴情報に応じた適切な値に定められていることが望ましい。パラメータDB132には、撮影画像の特徴情報と、真贋判定処理のパラメータの値とが互いに関連付けて記録されている。図10は、パラメータDB132の内容例を示す概念図である。パラメータDB132には、夫々に複数の要素からなる複数通りの特徴情報が記録されている。夫々の特徴情報に関連付けて、複数のパラメータの値が記録されている。特徴情報に関連付けられたパラメータの値は、当該特徴情報に適切な真贋判定処理のパラメータの値である。パラメータP1,P2,P3,…は、例えば、ノイズ除去の強度、ノイズ除去の処理回数、エッジ強調処理の有無、集中度と比較される閾値、又は二つの検出線の単位ベクトルの内積と比較される閾値等である。
情報処理装置1は、以降の処理で、パラメータDB132を参照して、取得した特徴情報に応じたパラメータを特定する。情報処理装置1は、取得した特徴情報と、パラメータDB132に記憶されている特徴情報との類似度を計算する(S106)。取得した特徴情報に含まれる複数の要素の値を、A、B、C、…とする。また、パラメータDB132に記録されている複数通りの特徴情報の中のi番目の特徴情報に含まれる複数の要素の値を、Ai 、Bi 、Ci 、…とする。S106では、演算部11は、類似度Xi を、下記の(1)式に従って計算する。
i =a×|A-Ai|+b×|B-Bi |+c×|C-Ci |+… (1)
(1)式に含まれるa、b、c、…は、各要素に関する重み係数である。重み係数は全て正の値であるとする。重み係数は、所定の値に予め定められており、予め記憶部13に記憶されているか、コンピュータプログラム131に含まれている。取得した特徴情報がパラメータDB132に記録されている特徴情報に近いほど、類似度は小さくなる。演算部11は、パラメータDB132に記録されている複数通りの特徴情報の夫々について、類似度を計算する。撮影画像に含まれる複数の領域毎に状態情報が得られている場合は、演算部11は、複数の領域毎に類似度を計算する。計算した類似度に基づいて、パラメータDB132に記憶されている特徴情報の中から、取得した特徴情報に近い特徴情報を検索することが可能となる。
情報処理装置1は、計算した類似度が所定の閾値を超過するか否かを判定する(S107)。閾値は、予め定められており、予め記憶部13に記憶されているか、コンピュータプログラム131に含まれている。S107で、演算部11は、計算した類似度と閾値とを比較する。演算部11は、計算した全ての類似度が閾値を超過する場合に、類似度が閾値を超過すると判定し、閾値以下の類似度が一つでもある場合は、類似度は閾値以下であると判定する。閾値以下の範囲は、類似度の所定範囲に対応する。類似度が所定範囲に含まれていることは、取得した特徴情報がパラメータDB132に記録されている特徴情報に近いことを意味する。なお、閾値未満の範囲を類似度の所定範囲とし、演算部11は、S107で、計算した類似度が所定の閾値以上であるか否かを判定してもよい。
計算した類似度が閾値を超過する場合は(S107:YES)、情報処理装置1は、再撮影の指示を端末装置2へ送信する(S108)。類似度が閾値を超過することは、類似度が所定範囲を外れることに対応し、取得した特徴情報がパラメータDB132に記録されている特徴情報から遠すぎることを意味する。即ち、取得した特徴情報がパラメータDB132に記録されている特徴情報から遠すぎる場合に、情報処理装置1は、本人確認書類4を再度撮影することを端末装置2に指示する。S108では、演算部11は、通信部15に、再撮影の指示を端末装置2へ送信させる。
端末装置2は、通信部27で再撮影の指示を受信し(S109)、再撮影の指示を出力する(S110)。S110では、演算部21は、再撮影の指示を表示部25に表示する。S110が終了した後は、端末装置2は、処理を終了する。使用者は、出力された再撮影の指示を確認し、操作部24を操作することにより、撮影の指示を端末装置2へ入力し、端末装置2は、S101から処理を繰り返す。再撮影が行われることにより、撮影画像及び特徴情報が更新される。更新された撮影画像及び特徴情報を利用して、真贋判定処理のパラメータを特定する処理が再度行われる。
計算した類似度が閾値以下である場合は(S107:NO)、情報処理装置1は、類似度が最小になる特徴情報に関連付けられたパラメータの値を取得することにより、真贋判定処理のパラメータを特定する(S111)。S111では、演算部11は、パラメータDB132に記録されている複数通りの特徴情報の中から、類似度が最小になる特徴情報を特定し、特定した特徴情報に関連付けられているパラメータの値を、パラメータDB132から取得する。類似度が最小になる特徴情報は、取得した特徴情報に最も近い特徴情報である。取得した特徴情報に応じた適切なパラメータの値は、取得した特徴情報に近い特徴情報に関連付けられたパラメータの値に近いと推定される。このため、取得した特徴情報に最も近い特徴情報に関連付けられたパラメータの値は、取得した特徴情報に応じた適切なパラメータの値に相当する。従って、S111の処理により、取得した特徴情報に応じた適切なパラメータの値が取得される。
S111では、演算部11は、パラメータの値を取得することにより、本人確認書類4の真贋を判定する処理のパラメータを特定する。撮影画像に含まれる複数の領域毎に状態情報が得られている場合は、演算部11は、複数の領域毎に真贋判定処理のパラメータを特定する。このように、パラメータDB132を参照することにより、撮影画像に応じた適切な値にパラメータを特定することができる。S111の処理はパラメータ特定部に対応する。演算部11は、特定したパラメータの値を記憶部13に記憶する。S111が終了した後は、情報処理装置1は、真贋判定処理のパラメータを特定する処理を終了する。
S101~S111の処理では、(1)式に従って計算した類似度を利用して真贋判定処理のパラメータを特定しているが、情報処理装置1は、他の方法で定めた類似度を利用する形態であってもよい。例えば、情報処理装置1は、取得した特徴情報がパラメータDB132に記録されている特徴情報に近いほど、類似度が大きくなるように、類似度を定めてもよい。この場合は、所定の閾値以上の範囲、又は所定の閾値を超過する範囲を、類似度の所定範囲とする。例えば、情報処理装置1は、マハラノビス距離等の、(1)式に従った計算以外の方法で計算した指標を、類似度として用いてもよい。情報処理装置1は、類似度を利用する方法以外の方法でパラメータを特定する処理を行ってもよい。例えば、情報処理装置1は、取得した特徴情報に近い複数の特徴情報に関連付けられているパラメータの値に基づいた補完計算により、真贋判定処理のパラメータを特定してもよい。
情報処理装置1は、特定したパラメータを利用して本人確認書類4の真贋を判定する。図11は、実施形態1に係る真贋判定の処理の手順の例を示すフローチャートである。情報処理装置1は、本人確認書類4を撮影した撮影画像と、特定した真贋判定処理のパラメータを取得する(S21)。S21では、演算部11は、記憶部13に記憶してある撮影画像及びパラメータの値を読み出すことにより、撮影画像及びパラメータを取得する。
情報処理装置1は、特定したパラメータを利用し、撮影画像に基づいて、本人確認書類4の真贋を判定する真贋判定処理を実行する(S22)。S22では、演算部11は、撮影画像に基づき、特定したパラメータを利用した所定のアルゴリズムに従って、真贋判定処理を実行する。撮影画像に含まれる複数の領域毎にパラメータが特定されている場合は、演算部11は、複数の領域の中の真贋判定処理で利用される領域について特定されたパラメータを利用して、真贋判定処理を実行する。複数の領域の夫々について特定されたパラメータを利用して、複数の領域の夫々について真贋判定処理が実行されてもよい。演算部11は、真贋判定処理を実行することにより、本人確認書類4の真贋の判定結果を取得する。演算部11は、判定結果を記憶部13に記憶する。
情報処理装置1は、本人確認書類4の真贋の判定結果を端末装置2へ送信する(S23)。S23では、演算部11は、通信部15に、判定結果を端末装置2へ送信させる。端末装置2は、通信部27で本人確認書類4の真贋の判定結果を受信し(S24)、判定結果を出力する(S25)。S25では、演算部11は、真贋の判定結果を表示部25に表示する。S25が終了した後は、端末装置2は、処理を終了する。使用者は、出力された真贋の判定結果を確認する。
なお、真贋判定処理のパラメータを特定するS101~S111の処理と、本人確認書類4の真贋を判定するS21~S25の処理とは、連続して実行されてもよい。又は、S101~S111の処理と、S21~S25の処理とは、異なる情報処理装置を用いて実行されてもよい。例えば、第1の情報処理装置を用いてS101~S111の処理が実行され、第1の情報処理装置から撮影画像と真贋判定処理のパラメータとが第2の情報処理装置へ送信され、第2の情報処理装置を用いてS21~S25の処理が実行される。
以上詳述した如く、撮影画像の特徴を表した特徴情報に応じて真贋判定処理のパラメータが特定され、特定されたパラメータを用いて本人確認書類4の真贋が判定される。特徴情報に応じて真贋判定処理のパラメータが特定されることにより、撮影画像の特徴に適した真贋判定処理のパラメータが得られる。撮影画像の特徴に適したパラメータを用いた真贋判定処理を行うことにより、撮影画像の特徴に応じた適切な真贋判定を行うことが可能となり、精度良く本人確認書類4の真贋を判定することができる。
本実施形態では、適切な真贋判定処理のパラメータが得られるので、真贋判定処理のパラメータを調整する必要が無い。このため、真贋判定処理のパラメータを調整するためのコストが削減される。精度良く本人確認書類4の真贋を判定することができるので、偽造された本人確認書類4を本物であると誤認する等の誤判定を抑制することができる。偽造された本人確認書類4を正しく認識することが可能となり、偽造された本人確認書類4を用いた成りすましを防止することができる。本人確認書類4を用いた本人確認を確実に行うことが可能となり、本人確認を必要とする各種の手続き又は契約を安全に行うことができる。
また、本実施形態では、撮影画像の特徴を表した特徴情報は、端末装置2の撮影時の設定を表した設定情報と、撮影画像の見た目の状態を表した状態情報とを含み、特徴情報に応じた適切なパラメータが得られる。撮影を行うカメラの設定、及び明るさ等の撮影環境によって影響される撮影画像の状態に応じて、適切なパラメータが得られるので、カメラの機種及び設定並びに撮影環境に依存せずに、適切な真贋判定を行うことができる。従って、安定して高い精度で本人確認書類4の真贋を判定することができる。また、どのような環境で撮影画像が生成された場合でも、適切な真贋判定が行われるので、使用者は、撮影を行うだけで、容易に真贋判定の結果を得ることができる。
また、本実施形態では、撮影画像に含まれる複数の領域毎に状態情報が得られ、夫々の特徴情報に応じて真贋判定処理のパラメータが得られ、得られたパラメータを利用した真贋判定処理を行うことが可能である。一部に影が落ちた本人確認書類4を撮影することによって撮影画像の明るさが不均一になった場合等、撮影環境の影響によって見た目の状態が異なる複数の領域が撮影画像に含まれることがある。このような状況であっても、複数の領域毎に得られたパラメータを利用することにより、適切な真贋判定を行うことが可能となる。このため、安定して高い精度で本人確認書類4の真贋を判定することができる。
<実施形態2>
実施形態2では、学習済モデルを用いて真贋判定処理のパラメータを特定する形態を示す。図12は、実施形態2に係る情報処理装置1の内部の構成例を示すブロック図である。情報処理装置1は、パラメータDB132を備えておらず、真贋判定処理のパラメータを特定するために用いられる第1学習済モデル133を備えている。情報処理装置1のその他の部分の構成は実施形態1と同様である。また、情報処理システム100の情報処理装置1以外の部分の構成は実施形態1と同様である。
第1学習済モデル133は、コンピュータプログラム131に従って演算部11が情報処理を実行することにより実現される。記憶部13は、第1学習済モデル133を実現するために必要なデータを記憶している。第1学習済モデル133は、ハードウェアを用いて構成されていてもよい。例えば、第1学習済モデル133は、プロセッサと、必要なプログラムおよびデータを記憶するメモリとを含んだハードウェアにより構成されていてもよい。又は、第1学習済モデル133は、量子コンピュータを用いて実現されてもよい。或いは、第1学習済モデル133は情報処理装置1の外部に設けられており、情報処理装置1は、外部の第1学習済モデル133を利用して処理を実行する形態であってもよい。例えば、第1学習済モデル133はクラウドを利用して実現されてもよい。
図13は、第1学習済モデル133の機能を示す概念図である。第1学習済モデル133には、本人確認書類4を撮影した撮影画像の特徴を表した特徴情報が入力される。第1学習済モデル133は、特徴情報が入力された場合に真贋判定処理のパラメータの値を出力するように、予め学習されている。第1学習済モデル133は、CNN(Convolutional Neural Network)、LSTM(Long short-term memory)又はトランスフォーマ等のニューラルネットワークを用いて構成されている。第1学習済モデル133は、ニューラルネットワーク以外の方法を用いたモデルであってもよい。
第1学習済モデル133の学習は、学習装置5によって行われる。図14は、学習装置5の内部の機能構成例を示すブロック図である。学習装置5は、サーバ装置又はパーソナルコンピュータ等のコンピュータである。学習装置5は、演算部51と、メモリ52と、記憶部53と、読取部54と、インタフェース部55とを備えている。演算部51は、例えばCPU、GPU、又はマルチコアCPUを用いて構成されている。演算部51は、量子コンピュータを用いて構成されていてもよい。メモリ52は、演算に伴って発生する一時的なデータを記憶する。メモリ52は、例えば、RAMである。記憶部53は、不揮発性であり、例えば、ハードディスク又は不揮発性半導体メモリである。読取部54は、光ディスク又は可搬型メモリ等の記録媒体50から情報を読み取る。インタフェース部55は、データの入出力を行う。学習装置5は、複数のコンピュータにより構成されていてもよく、クラウドコンピューティングを利用して実現されてもよい。学習装置5は、情報処理装置1により実現されてもよい。
記憶部53は、第1学習済モデル133を学習させるための訓練データを記憶する。訓練データには、撮影画像の特徴情報と、真贋判定処理のパラメータの値とが互いに関連付けて記録されている。特徴情報に関連付けられたパラメータの値は、当該特徴情報に適切な真贋判定処理のパラメータの値である。訓練データには、特徴情報とパラメータの値とが関連付けられた情報セットが複数記録されている。
学習装置5は、訓練データに基づいた学習により、特徴情報が入力された場合に真贋判定処理のパラメータの値を出力する第1学習済モデル133を生成する。学習装置5は、第1学習済モデル133の素となる学習モデルを備えている。学習モデルは、コンピュータプログラム531に従って演算部51が情報処理を実行することにより実現される。記憶部53は、学習モデルを実現するために必要なデータを記憶している。なお、学習モデルは、ハードウェアにより構成されていてもよい。学習モデルは、量子コンピュータを用いて実現されてもよい。
学習装置5は、第1学習済モデル133の素となる学習モデルの学習を行う。演算部51は、訓練データに含まれる特徴情報を学習モデルへ入力する。学習モデルは、特徴情報の入力に応じて、演算を行い、真贋判定処理のパラメータの値を出力する。演算部51は、学習モデルが出力した真贋判定処理のパラメータの値と、学習モデルへ入力された特徴情報に訓練データにおいて関連付けられている真贋判定処理のパラメータの値との誤差が小さくなるように、学習モデルの演算のパラメータを調整する。例えば、誤差逆伝播法によりパラメータの調整が行われる。
演算部51は、訓練データに含まれる、特徴情報及び真贋判定処理のパラメータからなる複数の情報セットを用いて、処理を繰り返し、学習モデルの演算のパラメータを調整することにより、学習モデルの機械学習を行う。演算部51は、このように学習モデルの演算のパラメータを調整することによって、第1学習済モデル133を生成する。演算部51は、調整された最終的な第1学習済モデル133の演算のパラメータを記憶部53に記憶する。
学習装置5により生成された第1学習済モデル133が、情報処理装置1に備えられる。例えば、最終的な第1学習済モデル133の演算のパラメータが、インタフェース部55を通じて学習装置5から出力され、通信部15を通じて情報処理装置1へ入力され、記憶部13に記憶される。記憶部13に記憶された演算のパラメータを利用した情報処理を演算部11が実行することにより、第1学習済モデル133が実現される。
情報処理装置1は、第1学習済モデル133を用いて真贋判定処理のパラメータを特定する処理を行う。図15は、実施形態2に係る真贋判定処理のパラメータを特定する処理の手順の例を示すフローチャートである。端末装置2は、S101~S103の処理と同様に、本人確認書類4を撮影した撮影画像を生成し(S31)、設定情報を取得し(S32)、撮影画像及び設定情報を情報処理装置1へ送信する(S33)。情報処理装置1は、S104~S105の処理と同様に、撮影画像及び設定情報を受信し(S34)、状態情報を取得する(S35)。S34の処理は取得部に対応する。S35では、演算部11は、設定情報及び状態情報からなる撮影画像の特徴情報を取得し、取得した特徴情報をメモリ12又は記憶部13に記憶する。
情報処理装置1は、撮影画像の特徴情報を第1学習済モデル133へ入力する(S36)。S36では、演算部11は、特徴情報を第1学習済モデル133へ入力し、第1学習済モデル133に処理を実行させる。第1学習済モデル133は、特徴情報の入力に応じて、演算を行い、真贋判定処理のパラメータの値を出力する。情報処理装置1は、出力されたパラメータの値を取得することにより、真贋判定処理のパラメータを特定する(S37)。S37では、演算部11は、第1学習済モデル133が出力した真贋判定処理のパラメータの値を取得し、パラメータの値を記憶部13に記憶する。S37の処理はパラメータ特定部に対応する。S37が終了した後は、情報処理装置1は、真贋判定処理のパラメータを特定する処理を終了する。
実施形態1と同様に、情報処理装置1は、特定したパラメータを利用して本人確認書類4の真贋を判定する。即ち、本人確認書類4の真贋を判定するS21~S25の処理が実行される。S31~S37の処理とS21~S25の処理とは、連続して実行されてもよい。又は、S31~S37の処理と、S21~S25の処理とは、異なる情報処理装置を用いて実行されてもよい。なお、S101~S111の処理と、S31~S37の処理との両方が行われ、二通りの方法で得られたパラメータを用いてS21~S25の処理が行われてもよい。例えば、二通りの方法で得られたパラメータを用いた真贋判定処理の結果が共に真である場合に、本人確認書類4が真であると決定されてもよい。
本実施形態では、第1学習済モデル133を用いて真贋判定処理のパラメータが特定される。撮影画像の特徴情報に応じて適切な真贋判定処理のパラメータは異なるので、特徴情報の入力に応じて適切なパラメータの値を出力する第1学習済モデル133を実現することができる。第1学習済モデル133を利用することにより、撮影画像の特徴情報に応じて適切な真贋判定処理のパラメータが特定される。本実施形態においても、撮影画像の特徴に応じた適切な真贋判定を行うことが可能となり、精度良く本人確認書類4の真贋を判定することができる。
<実施形態3>
実施形態3では、学習済モデルを用いて本人確認書類4の真贋を判定する形態を示す。図16は、実施形態3に係る情報処理装置1の内部の構成例を示すブロック図である。情報処理装置1は、パラメータDB132又は第1学習済モデル133を備えている。また、情報処理装置1は、真贋判定を行うために用いられる第2学習済モデル134を備えている。情報処理装置1のその他の部分の構成は実施形態1と同様である。また、情報処理システム100の情報処理装置1以外の部分の構成は実施形態1と同様である。
第2学習済モデル134は、コンピュータプログラム131に従って演算部11が情報処理を実行することにより実現される。記憶部13は、第2学習済モデル134を実現するために必要なデータを記憶している。第2学習済モデル134は、ハードウェアを用いて構成されていてもよい。例えば、第2学習済モデル134は、プロセッサと、必要なプログラムおよびデータを記憶するメモリとを含んだハードウェアにより構成されていてもよい。又は、第2学習済モデル134は、量子コンピュータを用いて実現されてもよい。或いは、第2学習済モデル134は情報処理装置1の外部に設けられており、情報処理装置1は、外部の第2学習済モデル134を利用して処理を実行する形態であってもよい。例えば、第2学習済モデル134はクラウドを利用して実現されてもよい。
図17は、第2学習済モデル134の機能を示す概念図である。第2学習済モデル134には、本人確認書類4を撮影した撮影画像と、真贋判定処理のパラメータの値とが入力される。第2学習済モデル134は、撮影画像及び真贋判定処理のパラメータの値とが入力された場合に本人確認書類4の真贋の判定結果を出力するように、予め学習されている。第2学習済モデル134は、CNN、LSTM又はトランスフォーマ等のニューラルネットワークを用いて構成されている。第2学習済モデル134は、ニューラルネットワーク以外の方法を用いたモデルであってもよい。
第2学習済モデル134の学習は、学習装置5によって行われる。学習装置5は、第2学習済モデル134を学習させるための訓練データを記憶する。訓練データには、撮影画像と、真贋判定処理のパラメータの値と、真贋の判定結果とが互いに関連付けて記録されている。撮影画像に関連付けられたパラメータの値は、当該撮影画像に適切な真贋判定処理のパラメータの値である。撮影画像に関連付けられた判定結果は、当該撮影画像に撮影されている本人確認書類4の真贋である。訓練データには、撮影画像とパラメータの値と判定結果とが関連付けられた情報セットが複数記録されている。
学習装置5は、訓練データに基づいた学習により、撮影画像と真贋判定処理のパラメータの値とが入力された場合に真贋の判定結果を出力する第2学習済モデル134を生成する。学習装置5は、第2学習済モデル134の素となる学習モデルの学習を行う。学習装置5は、訓練データに含まれる撮影画像及び真贋判定処理のパラメータの値を学習モデルへ入力する。学習モデルは、撮影画像及び真贋判定処理のパラメータの値の入力に応じて、演算を行い、真贋の判定結果を出力する。学習装置5は、学習モデルが出力した真贋の判定結果と、学習モデルへ入力された撮影画像及び真贋判定処理のパラメータの値に訓練データにおいて関連付けられている真贋の判定結果との誤差が小さくなるように、学習モデルの演算のパラメータを調整する。例えば、誤差逆伝播法によりパラメータの調整が行われる。
学習装置5は、訓練データに含まれる、撮影画像と真贋判定処理のパラメータの値と判定結果とからなる複数の情報セットを用いて、処理を繰り返し、学習モデルの演算のパラメータを調整することにより、学習モデルの機械学習を行う。学習装置5は、このように学習モデルの演算のパラメータを調整することによって、第2学習済モデル134を生成する。学習装置5は、調整された最終的な第2学習済モデル134の演算のパラメータを記憶する。
学習装置5により生成された第2学習済モデル134が、情報処理装置1に備えられる。例えば、最終的な第2学習済モデル134の演算のパラメータが学習装置5から出力され、通信部15を通じて情報処理装置1へ入力され、記憶部13に記憶される。記憶部13に記憶された演算のパラメータを利用した情報処理を演算部11が実行することにより、第2学習済モデル134が実現される。
情報処理装置1は、S101~S111の処理、又はS31~S37の処理を実行することにより、真贋判定処理のパラメータを特定する。更に、情報処理装置1は、第2学習済モデル134を用いて本人確認書類4の真贋を判定する処理を行う。図18は、実施形態3に係る真贋判定の処理の手順の例を示すフローチャートである。情報処理装置1は、本人確認書類4を撮影した撮影画像と、特定した真贋判定処理のパラメータを取得する(S41)。
情報処理装置1は、撮影画像と真贋判定処理のパラメータの値とを第2学習済モデル134へ入力する(S42)。S42では、演算部11は、撮影画像と真贋判定処理のパラメータの値とを第2学習済モデル134へ入力し、第2学習済モデル134に処理を実行させる。第2学習済モデル134は、撮影画像と真贋判定処理のパラメータの値との入力に応じて、演算を行い、真贋の判定結果を出力する。情報処理装置1は、本人確認書類4の真贋の判定結果を取得する(S43)。S43では、演算部11は、第2学習済モデル134が出力した真贋の判定結果を取得し、判定結果を記憶部13に記憶する。
情報処理装置1は、本人確認書類4の真贋の判定結果を端末装置2へ送信する(S44)。端末装置2は、通信部27で真贋の判定結果を受信し(S45)、真贋の判定結果を出力する(S46)。S46では、演算部11は、本人確認書類4の真贋の判定結果を表示部25に表示する。S46が終了した後は、端末装置2は、処理を終了する。使用者は、出力された真贋の判定結果を確認する。
真贋判定処理のパラメータを特定する処理と、S41~S44の処理とは、連続して実行されてもよい。真贋判定処理のパラメータを特定する処理と、S41~S44の処理とは、異なる情報処理装置を用いて実行されてもよい。なお、S21~S22の処理と、S41~S43の処理との両方が行われてもよい。例えば、二通りの方法で得られた判定結果が共に真である場合に、本人確認書類4が真であると決定されてもよい。
S31~S37の処理により真贋判定処理のパラメータを特定する形態では、第1学習済モデル133及び第2学習済モデル134が同時学習される形態であってもよい。この形態では、訓練データには、撮影画像と特徴情報と真贋の判定結果とが関連付けて含まれている。学習では、第1学習済モデル133の素となる第1の学習モデルへ特徴情報が入力され、第1の学習モデルが出力したパラメータと撮影画像とが第2学習済モデル134の素となる第2の学習モデルへ入力され、第2の学習モデルは真贋の判定結果を出力する。学習装置5は、第2の学習モデルが出力した真贋の判定結果と、撮影画像及び特徴情報に関連付けられた真贋の判定結果との誤差が小さくなるように、第1の学習モデル及び第2の学習モデルの演算のパラメータを調整する。このように、学習装置5は、訓練データを利用して、第1の学習モデル及び第2の学習モデルの機械学習を行うことにより、第1学習済モデル133及び第2学習済モデル134を生成する。実際の真贋の判定結果に基づいて、第1学習済モデル133及び第2学習済モデル134を学習させることができる。
本実施形態では、第2学習済モデル134を用いて本人確認書類4の真贋の判定を行う。撮影画像と、撮影画像の特徴情報に応じた真贋判定処理のパラメータとを用いて適切な真贋判定を行うことができるので、撮影画像と真贋判定処理のパラメータとの入力に応じて真贋の判定結果を出力する第2学習済モデル134を実現することができる。第2学習済モデル134を利用することにより、撮影画像の特徴に応じた適切な真贋判定を行うことが可能となり、精度良く本人確認書類4の真贋を判定することができる。
<実施形態4>
図19は、実施形態4に係る端末装置2と本人確認書類4とを示す模式図である。本人確認書類4はホログラム45を含んでいる。端末装置2は、本人確認書類4を撮影した撮影画像として、複数のフレームを含む動画像を生成する。また、端末装置2は、本人確認書類4に対して相対的に動きながら、本人確認書類4を撮影する。このとき、ホログラム45から端末装置2へ入る光と本人確認書類4の表面とのなす角度が変化するように、端末装置2は本人確認書類4に対して相対的に動く。例えば、端末装置2は、図19に矢印で示した方向に沿って動きながら、撮影を行う。ホログラム45から端末装置2へ入る光と本人確認書類4の表面とのなす角度に応じて、ホログラム45の見え方は異なる。このため、端末装置2と本人確認書類4との相対的な位置に応じて、撮影画像は変化する。
情報処理システム100は、S101~S111の処理又はS31~S37の処理を実行することにより、真贋判定処理のパラメータを特定する。S101又はS31では、端末装置2は、本人確認書類4に対して相対的に動きながら、撮影画像として複数のフレームを含む動画像を生成する。例えば、使用者は、端末装置2を本人確認書類4に対して相対的に動かしながら、端末装置2を操作して、端末装置2で本人確認書類4を撮影する。情報処理装置1は、S105~S108及びS111の処理、又はS35~S37の処理を、撮影画像に含まれる複数のフレーム毎に実行する。撮影画像に含まれる複数のフレームの中には、真贋判定処理のパラメータを特定する処理に用いられないフレームがあってもよい。これにより、撮影画像に含まれるフレーム別に、真贋判定処理のパラメータが得られる。
また、情報処理システム100は、S21~S25の処理又はS41~S46の処理を実行することにより、本人確認書類4の真贋を判定する。情報処理装置1は、S22の処理又はS42~S43の処理を、撮影画像に含まれる複数のフレーム毎に実行し、複数のフレームに関する判定結果に応じて、本人確認書類4の真贋の最終的な判定結果を決定する。例えば、情報処理装置1は、複数のフレームに関する判定結果が全て真である場合に、本人確認書類4が真であると決定する。
本実施形態においては、本人確認書類4にはホログラム45が含まれており、端末装置2は本人確認書類4に対して相対的に移動しながら、撮影画像として動画像を生成する。動画像に含まれる複数のフレームについて、特徴情報に応じて真贋判定処理のパラメータが特定され、特定されたパラメータを用いて真贋判定が行われる。端末装置2と本人確認書類4との相対的な位置に応じて撮影画像は変化するので、複数のフレームは互いに異なった画像となり、異なる画像の夫々について真贋判定が行われることになる。異なる画像に基づいて複数回の真贋判定が行われるので、誤判定の発生がより抑制され、より正しく本人確認書類4の真贋を判定することが可能となる。
以上の実施形態1~4においては、使用者が使用する端末装置2で撮影を行う形態を示したが、情報処理システム100は、端末装置2以外のカメラを用いる形態であってもよい。例えば、情報処理システム100は、使用者が使用する携帯カメラ等の撮影装置を用いる形態であってもよい。例えば、情報処理システム100は、固定カメラ等、専用のカメラを用いる形態であってもよい。実施形態1~4においては、真贋判定処理のパラメータを特定する処理及び真贋判定処理を主に情報処理装置1で実行する形態を示したが、情報処理システム100は、実施形態1~4で示した情報処理装置1での処理を、端末装置2で実行する形態であってもよい。この形態では、端末装置2は、本発明に係る情報処理装置として機能する。
実施形態1~4においては、真贋判定の対象物が本人確認書類4である例を示したが、真贋判定の対象物は本人確認書類4以外のものであってもよい。例えば、真贋判定の対象物は、クレジットカード、各種のチケット、公文書、紙幣、証券、絵画、又はブランド品であってもよい。
本発明は上述した実施の形態の内容に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。即ち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態も本発明の技術的範囲に含まれる。
各実施形態に記載した事項は相互に組み合わせることが可能である。また、特許請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも一つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載してもよい。
今回開示された実施形態は全ての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
(付記1)
真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得し、
取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定する
処理をコンピュータに実行させることを特徴とするコンピュータプログラム。
(付記2)
前記特徴情報は、前記対象物を撮影したときの前記カメラの設定を表した設定情報と、前記撮影画像の見た目の状態を表した状態情報とを含むこと
を特徴とする付記1に記載のコンピュータプログラム。
(付記3)
前記撮影画像に含まれる複数の領域毎に前記状態情報を取得する
処理をコンピュータに実行させることを特徴とする付記2に記載のコンピュータプログラム。
(付記4)
前記特徴情報と前記パラメータとを関連付けて記録したデータベースを参照して、取得した前記特徴情報に応じた前記パラメータを取得することにより、前記パラメータを特定する
処理をコンピュータに実行させることを特徴とする付記1乃至3のいずれか一つに記載のコンピュータプログラム。
(付記5)
取得した前記特徴情報と、前記データベースに記録されている前記特徴情報との類似度を計算し、
計算した前記類似度に基づいて、取得した前記特徴情報に最も近い前記特徴情報に関連付けて前記データベースに記録されている前記パラメータを取得する
処理をコンピュータに実行させることを特徴とする付記4に記載のコンピュータプログラム。
(付記6)
計算した前記類似度が所定範囲を外れる場合に、前記対象物の再撮影の指示を出力する
処理を更にコンピュータに実行させることを特徴とする付記5に記載のコンピュータプログラム。
(付記7)
前記特徴情報を入力した場合に前記パラメータを出力するように学習された第1学習済モデルへ、取得した前記特徴情報を入力し、前記第1学習済モデルが出力した前記パラメータを取得することにより、前記パラメータを特定する
処理をコンピュータに実行させることを特徴とする付記1乃至3のいずれか一つに記載のコンピュータプログラム。
(付記8)
前記撮影画像は、複数のフレームを含む動画像であり、
前記複数のフレーム毎に前記パラメータを特定する
処理をコンピュータに実行させることを特徴とする付記1乃至7のいずれか一つに記載のコンピュータプログラム。
(付記9)
前記撮影画像を取得し、
取得した前記撮影画像及び特定した前記パラメータを用いて前記真贋判定処理を実行する
処理を更にコンピュータに実行させることを特徴とする付記1乃至8のいずれか一つに記載のコンピュータプログラム。
(付記10)
前記撮影画像及び前記パラメータを入力した場合に前記対象物の真贋の判定結果を出力するように学習された第2学習済モデルへ、取得した前記撮影画像及び特定した前記パラメータを入力し、前記第2学習済モデルが出力した前記判定結果を取得することにより、前記真贋判定処理を実行する
処理をコンピュータに実行させることを特徴とする付記9に記載のコンピュータプログラム。
100 情報処理システム
1 情報処理装置
10 記録媒体
131 コンピュータプログラム
132 パラメータDB
133 第1学習済モデル
134 第2学習済モデル
2 端末装置
26 撮影部
3 通信ネットワーク
4 本人確認書類
5 学習装置

Claims (13)

  1. 真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得し、
    取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定する
    処理をコンピュータに実行させることを特徴とするコンピュータプログラム。
  2. 前記特徴情報は、前記対象物を撮影したときの前記カメラの設定を表した設定情報と、前記撮影画像の見た目の状態を表した状態情報とを含むこと
    を特徴とする請求項1に記載のコンピュータプログラム。
  3. 前記撮影画像に含まれる複数の領域毎に前記状態情報を取得する
    処理をコンピュータに実行させることを特徴とする請求項2に記載のコンピュータプログラム。
  4. 前記特徴情報と前記パラメータとを関連付けて記録したデータベースを参照して、取得した前記特徴情報に応じた前記パラメータを取得することにより、前記パラメータを特定する
    処理をコンピュータに実行させることを特徴とする請求項1乃至3のいずれか一つに記載のコンピュータプログラム。
  5. 取得した前記特徴情報と、前記データベースに記録されている前記特徴情報との類似度を計算し、
    計算した前記類似度に基づいて、取得した前記特徴情報に最も近い前記特徴情報に関連付けて前記データベースに記録されている前記パラメータを取得する
    処理をコンピュータに実行させることを特徴とする請求項4に記載のコンピュータプログラム。
  6. 計算した前記類似度が所定範囲を外れる場合に、前記対象物の再撮影の指示を出力する
    処理を更にコンピュータに実行させることを特徴とする請求項5に記載のコンピュータプログラム。
  7. 前記特徴情報を入力した場合に前記パラメータを出力するように学習された第1学習済モデルへ、取得した前記特徴情報を入力し、前記第1学習済モデルが出力した前記パラメータを取得することにより、前記パラメータを特定する
    処理をコンピュータに実行させることを特徴とする請求項1乃至3のいずれか一つに記載のコンピュータプログラム。
  8. 前記撮影画像は、複数のフレームを含む動画像であり、
    前記複数のフレーム毎に前記パラメータを特定する
    処理をコンピュータに実行させることを特徴とする請求項1乃至3のいずれか一つに記載のコンピュータプログラム。
  9. 前記撮影画像を取得し、
    取得した前記撮影画像及び特定した前記パラメータを用いて前記真贋判定処理を実行する
    処理を更にコンピュータに実行させることを特徴とする請求項1乃至3のいずれか一つに記載のコンピュータプログラム。
  10. 前記撮影画像及び前記パラメータを入力した場合に前記対象物の真贋の判定結果を出力するように学習された第2学習済モデルへ、取得した前記撮影画像及び特定した前記パラメータを入力し、前記第2学習済モデルが出力した前記判定結果を取得することにより、前記真贋判定処理を実行する
    処理をコンピュータに実行させることを特徴とする請求項9に記載のコンピュータプログラム。
  11. 真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得し、
    取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定する
    ことを特徴とする情報処理方法。
  12. 前記対象物はホログラムを含んでおり、
    前記カメラを前記対象物に対して相対的に動かしながら、前記対象物を前記カメラで撮影し、複数のフレームを含む動画像でなる前記撮影画像を生成し、
    前記複数のフレーム毎に前記パラメータを特定する
    ことを特徴とする請求項11に記載の情報処理方法。
  13. 真贋判定の対象物をカメラで撮影した撮影画像の特徴を表した特徴情報を取得する取得部と、
    取得した前記特徴情報に基づいて、前記対象物の真贋を判定する真贋判定処理に必要なパラメータを特定するパラメータ特定部と
    を備えることを特徴とする情報処理装置。
JP2022077670A 2022-05-10 2022-05-10 コンピュータプログラム、情報処理方法及び情報処理装置 Pending JP2023166847A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022077670A JP2023166847A (ja) 2022-05-10 2022-05-10 コンピュータプログラム、情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022077670A JP2023166847A (ja) 2022-05-10 2022-05-10 コンピュータプログラム、情報処理方法及び情報処理装置

Publications (1)

Publication Number Publication Date
JP2023166847A true JP2023166847A (ja) 2023-11-22

Family

ID=88837062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022077670A Pending JP2023166847A (ja) 2022-05-10 2022-05-10 コンピュータプログラム、情報処理方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP2023166847A (ja)

Similar Documents

Publication Publication Date Title
KR102324706B1 (ko) 얼굴인식 잠금해제 방법 및 장치, 기기, 매체
Scherhag et al. Detection of face morphing attacks based on PRNU analysis
CN110852160B (zh) 以图像为基准的生物识别系统及计算机实施方法
US11314966B2 (en) Facial anti-spoofing method using variances in image properties
JP5076563B2 (ja) 顔照合装置
JP7191061B2 (ja) ライブネス検査方法及び装置
US20220148338A1 (en) Method and apparatus with liveness testing
WO2021179157A1 (zh) 用于验证产品真伪的方法和装置
US11163985B2 (en) Evaluating the security of a facial recognition system using light projections
US20190205617A1 (en) System and method for combining identity information to facilitate image acquisition
CN113642639B (zh) 活体检测方法、装置、设备和存储介质
CN109388926A (zh) 处理生物特征图像的方法和包括该方法的电子设备
JP2005309765A (ja) 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
JP7269897B2 (ja) データ登録装置、生体認証装置、およびデータ登録プログラム
Patil et al. Survey of non-intrusive face spoof detection methods
JP2021536601A (ja) アンチリプレイ認証システム及び方法
JP2023166847A (ja) コンピュータプログラム、情報処理方法及び情報処理装置
CN113837026B (zh) 检测证件真伪的方法及装置
Bera et al. Spoofing detection on hand images using quality assessment
Cheng et al. [Retracted] DTFA‐Net: Dynamic and Texture Features Fusion Attention Network for Face Antispoofing
KR102570071B1 (ko) 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치
CN111126283A (zh) 一种自动过滤模糊人脸的快速活体检测方法及系统
JP2021026450A (ja) コンピュータプログラム、情報処理装置、情報処理方法及び学習済みモデルの生成方法
US11842573B1 (en) Methods and systems for enhancing liveness detection of image data
CN113705486B (zh) 检测证件真伪的方法及装置