JP2020095652A - 認証システム、認証方法、認証プログラム - Google Patents

認証システム、認証方法、認証プログラム Download PDF

Info

Publication number
JP2020095652A
JP2020095652A JP2018237005A JP2018237005A JP2020095652A JP 2020095652 A JP2020095652 A JP 2020095652A JP 2018237005 A JP2018237005 A JP 2018237005A JP 2018237005 A JP2018237005 A JP 2018237005A JP 2020095652 A JP2020095652 A JP 2020095652A
Authority
JP
Japan
Prior art keywords
unit
user
image data
instruction
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018237005A
Other languages
English (en)
Other versions
JP6541140B1 (ja
Inventor
正三 中島
Shozo Nakajima
正三 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Double Standard Inc
Original Assignee
Double Standard Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=67212105&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2020095652(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Double Standard Inc filed Critical Double Standard Inc
Application granted granted Critical
Publication of JP6541140B1 publication Critical patent/JP6541140B1/ja
Publication of JP2020095652A publication Critical patent/JP2020095652A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供すること。【解決手段】本人確認のための認証システムであって、本人確認書類の顔写真の撮像データを取得する第1取得部と、ユーザの撮像データを取得する第2取得部と、前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部と、前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記第2取得部により取得された撮像データが、前記ユーザを撮像した他の撮像画像の流用でないか否かを判定する第2判定部と、を備えることを特徴とする認証システム。【選択図】図1

Description

本発明は、認証システム、認証方法、認証プログラムに関し、特に本人確認のための認証システム、認証方法、認証プログラムに関する。
本人確認方法として、従来から顔写真を利用した認証装置が知られている。従来の認証装置には、この顔写真による「なりすまし」を防ぐため、本人認証を行う際に、記憶部に記憶された複数のフレーズから1つのフレーズをランダムに選択し、当該選択されたフレーズを表示装置に出力してユーザに発音させ、ユーザを撮像した撮像データを用いてユーザの口の動き及びユーザが発声した音声の音声データを解析し、ユーザがフレーズを発声しているのかどうかを判定することで本人認証を行うことが提案されている(例えば、特許文献1参照)。
特開2011−215942号公報
特許文献1に開示される認証方法では、ユーザの口の動き及びユーザが発声した音声の音声データを解析することでユーザがフレーズを発声しているか否かを判定するため、なりすましを防止できるとしている。しかしながら、本人確認の信頼性において更なる向上の余地がある。
本発明は、上記課題を鑑みてなされたものであり、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することを目的とする。
上記の課題を解決すべく、本発明の認証システムは、本人確認のための認証システムであって、本人確認書類の顔写真の撮像データを取得する第1取得部と、ユーザの撮像データを取得する第2取得部と、前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部と、前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記第2取得部により取得された撮像データが、前記ユーザを撮像した他の撮像画像の流用でないか否かを判定する第2判定部と、を備えることを特徴とする。
本発明によれば、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することができる。
第1実施形態に係る認証システム1の概略構成図である。 第1実施形態に係るユーザ端末2の構成及び機能ブロック図である。 第1実施形態に係る認証サーバ3の構成及び機能ブロック図である。 第1実施形態に係る認証サーバ3の第1乃至第4判定部の動作を説明する図である。 第1実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。 第1実施形態に係る認証システムの処理を示すフローチャート図である(認証処理)。 第2実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。 第2実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。 第2実施形態に係る認証システムの処理を示すフローチャート図である(認証処理)。 第2実施形態の変形例2に係る認証システムの処理を示すフローチャート図である(認証処理)。 第3実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。 第3実施形態に係るユーザ端末2の表示装置200Dに表示される画面の一例を示す図である。 第3実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。
以下、図面を参照して本発明の各実施形態を説明する。なお、本人確認に利用する顔写真付きの本人確認書類としては、運転免許の他、パスポート(旅券)、住民基本台帳カード(写真付のもの)、在留カードなど種々の本人確認書類を利用することができる。
[第1実施形態]
初めに、図1を参照して認証システム1の構成について説明する。認証システム1は、ユーザ端末2及び認証サーバ3を備える。ユーザ端末2及び認証サーバ3は、ネットワーク4を介して接続された構成を有する。なお、認証システム1が具備するユーザ端末2及び認証サーバ3の数は任意である。また、ネットワーク4は、ユーザ端末2及び認証サーバ3が通信できればよくどのような通信網で構成されていてもかまわない。
(ユーザ端末2)
ユーザ端末2は、ユーザU(例えば、本人確認の認証を行いたいユーザ)が利用する端末(例えば、スマートフォン、タブレット型PC(Personal Computer)、デスクトップ型PC,ノート型PCなど)である。ユーザUは、ユーザ端末2を利用して、本人確認の認証を行う。
図2(a)は、ユーザ端末2のハード構成図、図2(b)は、ユーザ端末2の機能ブロック図である。図2(a)に示すように、ユーザ端末2は、通信IF200A、記憶装置200B、入力装置200C、表示装置200D、撮像装置200E、音声出力装置200F及びCPU200Gがバス200Hを介して接続された構成を備える。
通信IF200Aは、認証サーバ3と通信するためのインターフェースである。
記憶装置200Bは、例えば、HDDや半導体記憶装置である。記憶装置200Bには、認証プログラム(アプリケーションソフトウェア)が記憶されている。また、記憶装置200Bには、後述する動作指示部208において利用される複数の動作を指示するためのテキストデータ及び音声データが動作IDに関連付けて記憶されたデータベースが記憶されている。
データベースには、種々の動作のテキストデータ及び音声データが動作IDに関連付けて記憶されている。例えば、「両まぶたを3秒間閉じてください」、「左まぶたを3秒間閉じてください」、「右まぶたを3秒間閉じてください」、「口を大きく開けてください」、「画面に合わせて顔を動かしてください」、「大きくうなずいてください」、「ゆっくりと「あ・お・う・え・お」と発音してください」、「舌を出してください」などのテキストデータ及び音声データが動作IDに関連付けて記憶されている。
以下、表1に上記データベースの一例を示す。表1に示すように種々の動作のテキストデータ及び音声データが動作IDに関連付けて記憶されている。
Figure 2020095652
第1実施形態では、表示装置200Dへの上記テキストデータの表示及び音声出力装置200Fからの上記音声データの出力により、ユーザUに対して動作の指示を行うが、表示装置200Dへの上記テキストデータの表示又は音声出力装置200Fからの上記音声データの出力のいずれかにより、ユーザUに対して動作の指示を行うようにしてもよい。
入力装置200Cは、例えば、タッチパネル、キーボード、マウスなどであり、ユーザUは、入力装置200Cを操作して、本人確認の認証を行うことができる。
表示装置200Dは、例えば、液晶モニタや有機ELモニタなどである。表示装置200Dは、第1実施形態に係る認証システム1の利用に必要な画面を表示する。
撮像装置200Eは、例えば、CCD(電荷結合素子)イメージセンサやCMOS(相補型MOS)イメージセンサ等の個体撮像素子を備えたカメラである。ユーザUは、撮像装置200Eを利用して本人確認書類の動画(以下、第1撮像データともいう)及びユーザUの自撮り動画(以下、第2撮像データともいう)を撮像する。なお、本人確認書類についても動画を撮像させることで、ネット等から取得した本人確認書類の画像等でないことを確認することができ本人確認の信頼性を向上することができる。
音声出力装置200Fは、スピーカであり、音声を出力する。
CPU200Gは、ユーザ端末2を制御し、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。
図2(b)に示すように、ユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209及び記憶装置制御部210などの機能を有する。なお、図2(b)に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。
撮像装置制御部201は、撮像装置200Eによる撮像を制御する。具体的には、撮像装置制御部201は、撮像装置200Eを制御する。
入力受付部202は、入力装置200Cでの入力操作を受け付ける。
表示装置制御部203は、表示装置200Dを制御する。具体的には、表示装置制御部203は、第1実施形態に係る認証システム1の利用に必要な画面を表示させる。例えば、表示装置制御部203は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応するテキストデータを読み出して、表示装置200Dに表示する。表示装置200Dには、指示がテキスト(例えば、「3秒間目を閉じてください」)で表示される。
送信部204は、例えば、撮像データ(第1,第2撮像データ)、動作を指示したタイミング(指示タイミング決定部207で決定された動作指示のタイミング(自撮り動画の撮像開始から何秒後か))、動作ID(動作抽出部206で抽出された動作ID)の情報を認証サーバ3へ送信する。
受信部205は、認証サーバ3から送信される情報を受信する。
動作抽出部206は、記憶装置200Bに記憶されている動作IDから、1以上の動作IDをランダムに抽出する。
指示タイミング決定部207は、後述する動作指示部208がユーザUに対して動作を指示するタイミングをランダム(例えば、自撮り動画の撮像開始から3秒後や5秒後)に決定する。
動作指示部208は、ユーザUに対して1以上の動作を指示タイミング決定部207で決定されたタイミングで指示する。具体的には、動作指示部208は、指示タイミング決定部207で決定されたタイミングで、動作抽出部206により抽出された動作IDに対応するテキストデータを表示するように表示装置制御部203に指示する。また、動作指示部208は、指示タイミング決定部207で決定されたタイミングで、動作抽出部206により抽出された動作IDに対応する音声データを出力するように音声出力装置制御部209に指示する。
音声出力装置制御部209は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応する音声データを読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、動作の指示が音声(例えば、「3秒間目を閉じてください」)として出力される。
記憶装置制御部210は、記憶装置200Bを制御する。具体的には、記憶装置制御部210は、記憶装置200Bを制御して情報の書き込みや読み出しを行う。
(認証サーバ3)
認証サーバ3は、ユーザ端末2から送信される情報(ユーザ端末2から送信された第1,第2撮像データ、動作指示のタイミング、動作ID)に基づいて、ユーザUの本人確認を行う。
図3A(a)は、認証サーバ3のハード構成図、図3A(b)は、認証サーバ3の機能ブロック図である。図3B(a)は、認証サーバ3が有する第1判定部304の動作を説明する図、図3B(b)は、認証サーバ3が有する第2判定部305の判定内容を説明する図、図3B(c)は、認証サーバ3が有する第3判定部306の判定内容を説明する図、図3B(d)は、認証サーバ3が有する第4判定部307の判定内容を説明する図である。以下、図3A及び図3Bを参照して認証サーバ3について説明する。
図3A(a)に示すように、認証サーバ3は、通信IF300A、記憶装置300B及びCPU300Cがバス300Dを介して接続された構成を備える。
通信IF300Aは、ユーザ端末2と通信するためのインターフェースである。
記憶装置300Bは、例えば、HDDや半導体記憶装置である。記憶装置300Bには、本認証システム1で利用する認証プログラムなどが記憶されている。また、記憶装置300Bには、複数の動作内容が動作毎に動作IDに関連付けて記憶されたデータベースが記憶されている。これは、ユーザ端末2の記憶装置200Bに記憶されているデータベースに対応するものであり、認証サーバ3は、記憶装置300Bに記憶されているデータベースを参照することで、ユーザ端末2から送信される動作IDに基づいて、ユーザ端末2でどのような動作をユーザUに指示したのかを認識することができる。
CPU300Cは、認証サーバ3を制御し、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。
図3A(b)に示すように、認証サーバ3は、受信部301(第1,第2取得部)、動作指示タイミング認識部302、静止画像データ抽出部303、第1判定部304、第2判定部305、第3判定部306、第4判定部307、記憶装置制御部308及び送信部309などの機能を有する。なお、図3A(b)に示す機能は、認証サーバ3のROM(不図示)に記憶された管理プログラムをCPU300Cが実行することにより実現される。
受信部301は、ユーザ端末2から送信される情報、例えば、撮像データ(第1,第2撮像データ)、動作指示のタイミング、動作IDの情報を受信する。
動作指示タイミング認識部302は、ユーザ端末2から送信される動作指示のタイミングの情報に基づいて、自撮り動画の撮像開始から何秒後に動作が指示されたかを認識する。
静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する(切り出す)。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(以下、第1画像データともいう)を抽出する。また、静止画像データ抽出部303は、動作指示タイミング認識部302で認識された動作指示のタイミングに基づいて、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データともいう)と、動作の指示後の静止画像データ(以下、第3画像データともいう)とを抽出する。例えば、動作指示タイミング認識部302で認識された動作指示のタイミングが3秒後であれば、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前(自撮り動画の撮像開始から3秒後より前)の静止画像データ(第2画像データ)と、動作の指示後(自撮り動画の撮像開始から3秒後より後)の静止画像データ(第3画像データ)とを抽出する。
第1判定部304は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、本人確認書類の顔写真の人物と、ユーザUとが同一人物であるか否かを判定する(図3B(a)を参照)。
具体的には、第1判定部304は、第1,第2画像データから顔(オブジェクト)を含む領域を切り出す。次いで、第1判定部304は、複数の箇所(顔の輪郭、目の輪郭、眉、鼻、口など、人間の顔の特徴が表れる複数の箇所)の内、特に重要視する箇所を傾斜配点(重み付けを行う)して、この傾斜配点により付与された各箇所の類似度(点数:類似しているほど点数が高い)を算出し、算出した点数を足し合わせて総点数を算出する。次いで第1判定部304は、総点数を100点満点で規格化した値を算出し、該値が所定の閾値以上である場合、同一人物であると判定する。
なお、類似度(点数)は、例えば、以下の観点に基づいて算出することができる。なお、下記の観点は、あくまで一例であり、他の観点(手法)により類似度を算出するようにしてもよい。
(1)距離関係(目と目の間が離れている/近い など)
(2)角度関係(釣り目/たれ目 など)
(3)輪郭中における位置関係(パーツが中心に因っている顔 など)
第2判定部305は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、第2画像データがユーザUを撮像した画像であるか否か(本人確認書類等の顔写真の画像を流用していないか否か)を判定する(図3B(b)を参照)。
具体的には、第2判定部305は、第1,第2画像データから顔(オブジェクト)を含む領域を切り出す。次いで、第2判定部305は、複数の箇所(顔の輪郭、目の輪郭、眉、鼻、口など、人間の顔の特徴が表れる複数の箇所)の類似度(点数:類似しているほど点数が高い)を算出し、算出した点数を足し合わせて総点数を算出する。次いで、第2判定部305は、総点数を100点満点で規格化した値を算出し、該値が所定の閾値(例えば90点)を越える場合、なりすまし、換言すると、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用したと判定する。なお、第1実施形態においては、第2判定部305での類似度(点数)の算出方法は、第1判定部304と同じであるが、他の方法により類似度を算出するようにしてもよい。
第1判定部304の判定方法は、例えば、顔の違い(特徴)が特によくあらわれる箇所(目、鼻、口の形状など)の配点割合を高くし(重み付けを重くする)、他の箇所の配点割合を低くする(重み付けを軽くする)傾斜配点を行うことで、同一人物の場合、総点数が略100点となり、同一人物でない場合、総点数が略0点となり、同一人物であるか否かにより総点数に極端な違いがでる。このため同一人物か否かの判定に適した特性(アルゴリズム)となる。一方、同一人物であるか否かにより総点数に極端な違いがでるため、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用された場合に、本人確認書類の撮像データと、ユーザUの撮像データとが同一人物となるためになりすましを見抜くことが難しい。
これに対して、第2判定部305の判定方法は、傾斜配点(重み付け)を行わないため、顔のアングル等、細かな角度の違いにより判定結果(総点数)に影響を受けやすい。このため、同一人物であっても規格化後の総点数が90点を超えることは略ないと考えられる。つまり、規格化後の総点数が所定の閾値(例えば、90点)を超えている場合、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用していることが考えられる(本人確認書類の顔と、自撮りの顔が似すぎている場合には、本人確認書類等の顔写真の流用が疑われる)。
このように、第1実施形態では、本人か否かの確認及び本人の画像を流用していないか否かの確認を特性(アルゴリズム)の異なる2つの判定方法を利用して判定している。このため、なりすましを非常に効果的に防止することができる。
なお、上述した第1判定部304の判定手法は、一例であり、上述した同一人物か否かの判定に適した特性(アルゴリズム)となる判定手法であれば、他の傾斜配点割合の採用や判定手法の利用を妨げるものではない。また、上述した第2判定部305の判定手法は、一例であり、上述した本人確認書類等の顔写真の流用か否かの判定に適した特性(アルゴリズム)となる判定手法であれば、他の傾斜配点割合の採用や判定手法の利用を妨げるものではない。例えば、第1判定部304及び第2判定部305の判定において、それぞれの特性が維持されるのであれば、特定箇所の傾斜配点の割合を変更するようにしてもよく、また荷重平均により判定するなど種々の手法を採用することができる。さらに、既知の顔認証の手法を利用してもよいし、既知の顔認証において特定箇所の傾斜配点の割合を変更することにより、第1判定部304及び第2判定部305による判定を行うようにしてもよい。また、人間の顔の特徴が表れる複数の箇所をどの箇所とするかについては任意である。
第3判定部306は、静止画像データ抽出部303により抽出された動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、受信部301で受信した動作IDに対応する動作、換言すると、ユーザUが指示された動作を行ったか否かを判定する(図3B(c)を参照)。なお、第3判定部306による判定には、既知の手法を利用することができる。例えば、動作ID毎に教師データとなる画像を準備して、各動作IDに対応する動作をそれぞれ機械学習させた後、第3判定部306による判定に利用してもよい。
第4判定部307は、動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、動作の指示前及び動作の指示後の静止画像データに写ったユーザUが同一人物であるか否かを判定する(図3B(d)を参照)。なお、第4判定部307による判定方法は、第1判定部304と同じであるため重複する説明を省略する。
なお、第1判定部304から第4判定部307における判定方法には、上記に説明したものに限らず種々の手法を利用することができる。
記憶装置制御部308は、記憶装置300Bを制御する。具体的には、記憶装置制御部308は、記憶装置300Bを制御して情報の書き込みや読み出しを行う。
送信部309は、第1判定部304、第2判定部305、第3判定部306又は第4判定部307のいずれかでの判定結果がNOである場合、認証できなかった旨(認証エラー)をユーザ端末2へ送信する。
(認証システム1の処理)
以下、図4A及び図4Bを参照して、認証システム1の処理について説明する。
(撮像処理)
初めに、認証システム1のユーザ端末2での撮像処理について図4Aを参照して説明する。なお、図4Aには、ステップS101からステップS105の処理内容を示す参考図又は文(文字)を各ステップの左隣りに記載している。
(ステップS101)
ユーザUは、ユーザ端末2の入力装置200Cを操作して、本人確認書類の動画を撮像する(図4Aでは免許証の両面を撮像する動作を例示)。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して撮像する。撮像装置200Eにより撮像された本人確認書類の撮像データは、一旦、記憶装置制御部210により記憶装置200Bへ記憶される。
(ステップS102)
次いで、ユーザUは、ユーザ端末2の入力装置200Cを操作して、動画の自撮り撮像を開始する(図4AではユーザUの顔を例示)。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して動画の撮像を開始する。撮像装置200Eにより開始された動画の撮像データ(第1撮像データ)は、一旦、記憶装置制御部210により記憶装置200Bへ記憶される。
(ステップS103)
動作抽出部206は、記憶装置200Bに記憶されている動作から、1以上の動作IDをランダムに抽出する(図4Aでは「3秒間目を閉じてください。」を例示)。
(ステップS104)
指示タイミング決定部207は、後述する動作指示部208がユーザUに対して動作を指示するタイミングをランダムに決定する(図4Aでは「3秒後」を例示)。
(ステップS105)
動作指示部208は、ユーザUに対して1以上の動作を指示タイミング決定部207で決定されたタイミングで指示する(図4Aでは「3秒間目を閉じてください。」を例示)。表示装置制御部203は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応するテキストデータを読み出して、表示装置200Dに表示する。また、音声出力装置制御部209は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応する音声データを読み出して、音声出力装置200Fから出力する。ユーザUは、指示に従い動作を行う(図4Aでは目を閉じたユーザUの顔を例示)。
(ステップS106)
次いで、ユーザUは、ユーザ端末2の入力装置200Cを操作して、動画の撮像を終了する。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して動画の撮像を終了する。記憶装置制御部210は、撮像データ(第2撮像データ)の記憶装置200Bへの記憶を終了する。
(ステップS107)
送信部204は、記憶装置200Bに記憶された撮像データ(第1,第2撮像データ)、指示タイミング決定部207で決定された動作指示のタイミング、動作抽出部206により抽出された動作IDの情報を認証サーバ3へ送信する。
なお上記説明では、本人確認書類の動画を撮像した後、ユーザUの自撮り動画の撮像を行っているが、ユーザUの自撮り動画の撮像を行った後、本人確認書類の動画を撮像するようにしてもよい。また、第1撮像データ及び第2撮像データを最後にまとめて認証サーバ3へ送信しているが、第1撮像データ及び第2撮像データを撮像の度に個別に認証サーバ3へ送信するようにしてもよい。また、ステップS101では、動画により本人確認書類を撮像しているが動画に代えて、本人確認書類の顔写真を含む静止画像を撮像するようにしてもよい。
(認証処理)
次に、認証システム1の認証サーバ3での認証処理について図4Bを参照して説明する。
(ステップS201)
受信部301は、ユーザ端末2から送信される情報、例えば、撮像データ(第1,第2撮像データ)、動作指示のタイミング、動作IDの情報を受信する。
(ステップS202)
動作指示タイミング認識部302は、ユーザ端末2から送信される動作指示のタイミングの情報に基づいて、自撮り動画の撮像開始から何秒後に動作が指示されたかを認識する。
(ステップS203)
静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(第1画像データ)を抽出する。また、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データ)及び動作の指示後の静止画像データ(第3画像データ)を抽出する。なお、静止画像データ抽出部303による第1,第2撮像データから第1乃至第3画像データを抽出する方法については既に述べたので重複する説明を省略する。
(ステップS204)
第1判定部304は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、本人確認書類の顔写真の人物と、ユーザUとが同一人物であるか否かを判定する。なお、第1判定部304による判定方法については既に述べたので重複する説明を省略する
(ステップS205)
第1判定部304が、本人確認書類の顔写真の人物と、ユーザUとが同一人物であると判定した場合(S204のYES)、第2判定部305は、第2判定部305は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、第2画像データがユーザUを撮像した撮像画像であるか否か(顔写真の画像を流用していないか否か)を判定する。なお、第2判定部305による判定方法については既に述べたので重複する説明を省略する。
(ステップS206)
第2判定部305が、撮像データがユーザUを撮像した撮像画像であると判定した場合(S205のYES)、第3判定部306は、静止画像データ抽出部303により抽出された動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、受信部301で受信した動作IDに対応する動作、換言すると、ユーザUが指示された動作を行ったか否かを判定する。なお、第3判定部306による判定方法については既に述べたので重複する説明を省略する。
(ステップS207)
第3判定部306が、ユーザUが指示された動作を行ったと判定した場合(ステップS205のYES)、第4判定部307は、動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、動作の指示前及び動作の指示後の静止画像データに写ったユーザUが同一人物であるか否かを判定する。なお、第4判定部307による判定方法については既に述べたので重複する説明を省略する。
(ステップS208)
第1判定処理(S204)、第2判定処理(S205)、第3判定処理(S206)又は第4判定処理(S207)のいずれかでの判定結果がNOである場合、認証サーバ3は、認証エラー処理を行う。具体的には、認証サーバ3は、認証処理を停止するとともに、送信部309は、認証できなかった旨(認証エラー)をユーザ端末2へ送信する。また、第4判定部307が、ユーザUが指示された動作を行ったと判定した場合(S207のYES)、認証サーバ3は、認証処理を終了する。
なお、図4Bの説明では、第1判定部304から第4判定部307による判定を順番に行っているが、第1判定部304から第4判定部307による判定順序は図4Bに示す順序に限られず順不同である。換言すると、図4Bに示す第1判定部304から第4判定部307による判定の順序を入れ替えてもよい。
[第1実施形態の変形例]
なお、上記第1実施形態においては、認証サーバ3が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307の機能を有し、認証サーバ3において、認証処理を行っているが、ユーザ端末2が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307の機能を有し、ユーザ端末2において、認証処理を行うようにしてもよい。上記第1実施形態においては、ユーザ端末2が、動作抽出部206、指示タイミング決定部207、動作指示部208の機能を有しているが、認証サーバ3が、動作抽出部206、指示タイミング決定部207、動作指示部208の機能を有し、指示タイミング決定部207で決定されたタイミングで動作抽出部206により抽出された動作を動作指示部208が認証サーバ3の送信部309からユーザ端末2へ送信するようにしてもよい。
また、静止画像データ抽出部303の機能をユーザ端末2が有し、第1,第2撮像データから第1乃至第3静止画像データを抽出した後、第1乃至第3静止画像データを認証サーバ3へ送信し、認証サーバ3は、ユーザ端末2から送信された第1乃至第3静止画像データに基づいて図4Bを参照して説明した本人確認の認証を行うようにしてもよい。このようにすれば、ユーザ端末2から送信するデータ量を大幅に削減することができる。
(効果)
以上のように、第1実施形態に係る認証システム1は、本人確認のための認証システム1であって、本人確認書類の顔写真の撮像データ及びユーザの撮像データを取得する受信部301(第1,第2取得部)と、第1取得部により取得された撮像データと、第2取得部により取得された撮像データとに基づいて、本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部304と、第1取得部により取得された撮像データと、第2取得部により取得された撮像データとに基づいて、第2取得部により取得された撮像データがユーザUを撮像した他の撮像画像の流用でないか否かを判定する第2判定部305と、を備えている。
つまり、認証システム1は、本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かの判定と、撮像データがユーザUを撮像した撮像画像であるか否かの判定を行っているため、なりすましを効果的に防止することができる。また、撮像データとしてユーザUの動画を利用しているため、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工してユーザの撮像データとして利用される虞がなく、なりすましを効果的に防止することができる。この結果、本人確認の信頼性が高まる。
また、第1判定部304及び第2判定部305は、互いに異なる判定アルゴリズムにより本人確認書類の顔写真の人物と、ユーザとが同一人物であるか否か及び受信部301(第2取得部)により取得された撮像データがユーザUを撮像した撮像画像であるか否かを判定している。このように、第1実施形態では、第1判定部304及び第2判定部305において、本人か否かの確認及び本人の画像を流用していないか否かの確認を特性(アルゴリズム)の異なる2つの判定方法を利用して判定している。このため、なりすましを非常に効果的に防止することができる。この結果、本人確認の信頼性がさらに高まる。
また、認証システム1は、ユーザUに対して1以上の動作を指示する動作指示部208と、ユーザUの撮像データから、指示前の静止画像データと、指示後の静止画像データとを抽出する静止画像データ抽出部303と、指示前の静止画像データと指示後の静止画像データとに基づいて、ユーザUが指示された動作を行ったか否かを判定する第3判定部306とを備えている。さらに、認証システム1は、指示前の静止画像データと指示後の静止画像データとに基づいて、指示前及び指示後の静止画像データのユーザUが同一人物であるか否かを判定する第4判定部307を備えている。このため、なりすましを更に効果的に防止することができる。例えば、本人確認書類を盗まれたユーザの動画を、ユーザの撮像データとして利用される虞がなく、なりすましを効果的に防止することができる。
また、認証システム1は、2以上の異なる動作が記憶された記憶装置200Bを参照し、記憶装置200Bから1以上の動作をランダムに抽出する動作抽出部206を備え、動作指示部208は、動作抽出部206により抽出された動作をユーザUに対して指示している。ランダムに抽出された動作を指示することで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。
また、認証システム1は、動作を指示するタイミングをランダムに決定する指示タイミング決定部207を備え、動作指示部208は、指示タイミング決定部207により決定されたタイミングで動作をユーザに対して指示する。動作を指示するタイミングをランダムとすることで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。
また、認証システム1は、動作指示部208は、2以上の異なる動作をユーザUに対して指示している。2以上の異なる動作をユーザUに対して指示することで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。
[第2実施形態]
第2実施形態では、さらに本人確認の信頼性を高めた認証システムについて説明する。以下、図面を参照して、第2実施形態に係る認証システムについて説明するが、図1から図4Bを参照して説明した第1実施形態及び変形例に係る認証システムと異なる構成について説明し、前記第1実施形態に係る認証システム及び変形例と同一の構成については重複する説明を省略する。
図5は、第2実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。図5(a)は、ユーザ端末2の機能ブロック図であり、図5(b)は、認証サーバ3の機能ブロック図である。
(ユーザ端末2の機能構成)
図5(a)に示すように、第2実施形態に係るユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209、記憶装置制御部210及び撮像方法指示部211などの機能を有する。なお、図5(a)に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。以下、図5(a)を参照して、第2実施形態に係るユーザ端末2の機能について説明するが撮像方法指示部211以外の機能については、第1実施形態に係るユーザ端末2と同じであるため重複する説明を省略する。
初めに、第2実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータについて説明する。第2実施形態に係るユーザ端末2の記憶装置200Bには、第1実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータに加えて、撮像方法指示部211で利用されるテキストデータ及び音声データが指示IDに関連付けて記憶されている。
以下の表2に撮像方法指示部211で利用されるテキストデータ及び音声データの一例を示す。なお指示ID「B003」に関連付けられた「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」は「表面の撮影が終わりましたら本人確認書類を裏返して返してください。」としてもよい。
Figure 2020095652
撮像方法指示部211は、第2実施形態に係る認証システム1の撮像処理(図4A参照)が開始されると、所定間隔(例えば、数秒間隔)で、ユーザUに対して上記表2に記載の指示IDに関連付けられた指示を昇順に提示する。具体的には、撮像方法指示部211は、撮像処理が開始されると、所定間隔で指示IDに対応するテキストデータを指示IDの昇順に表示するように表示装置制御部203に指示する。また、撮像方法指示部211は、撮像処理が開始されると、所定間隔で指示IDに対応する音声データを指示IDの昇順に出力するように音声出力装置制御部209に指示する。
表示装置制御部203は、撮像方法指示部211による指示に基づいて、指示IDに対応するテキストデータを所定間隔で昇順に読み出して、表示装置200Dに表示する。
また、音声出力装置制御部209は、撮像方法指示部211による指示に基づいて、指示IDに対応する音声データを所定間隔で昇順に読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
第2実施形態では、表示装置200Dへの上記テキストデータの表示及び音声出力装置200Fからの上記音声データの出力により、ユーザUに対して本人確認書類の撮像方法を指示するが、表示装置200Dへの上記テキストデータの表示又は音声出力装置200Fからの上記音声データの出力のいずれかにより、ユーザUに対して本人確認書類の撮像方法を指示するようにしてもよい。
(認証サーバ3の機能構成)
図5(b)に示すように、第2実施形態に係る認証サーバ3は、受信部301(第1,第2取得部)、動作指示タイミング認識部302、静止画像データ抽出部303、第1判定部304、第2判定部305、第3判定部306、第4判定部307、記憶装置制御部308、送信部309及び第5判定部310などの機能を有する。なお、図5(b)に示す機能は、認証サーバ3のROM(不図示)に記憶された管理プログラムをCPU300Cが実行することにより実現される。以下、図5(b)を参照して、第2実施形態に係る認証サーバ3の機能について説明するが静止画像データ抽出部303及び第5判定部310以外の機能については、第1実施形態に係る認証サーバ3と同じであるため重複する説明を省略する。
静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する(切り出す)。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(以下、第1画像データともいう)と、1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)とを抽出する。
また、静止画像データ抽出部303は、動作指示タイミング認識部302で認識された動作指示のタイミングに基づいて、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データともいう)と、動作の指示後の静止画像データ(以下、第3画像データともいう)とを抽出する。例えば、動作指示タイミング認識部302で認識された動作指示のタイミングが3秒後であれば、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前(自撮り動画の撮像開始から3秒後より前)の静止画像データ(第2画像データ)と、動作の指示後(自撮り動画の撮像開始から3秒後より後)の静止画像データ(第3画像データ)とを抽出する。
第5判定部310は、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する。第5判定部310での判定には、既知の画像認識技術を利用して本人確認書類に厚みがあるか否かを判定してもよい。例えば、既知の画像認識技術を利用して本人確認書類を認識し、認識した本人確認書類の動きから厚みを有するか否かを判定するようにしてもよい。通常、本人確認に利用する顔写真付きの本人確認書類(例えば、運転免許の他、パスポート(旅券)、住民基本台帳カード(写真付のもの)、在留カードなど種々の本人確認書類)は、0.1〜数mm程度の厚みを有するため、本人確認書類を裏返すと、撮像データに本人確認書類の厚みがあることを判別することができる。一方、本人確認書類の表面及び裏面の画像データを流用した場合、本人確認書類の表面から裏面(又は裏面から表面)へと裏返す際に厚みが現れない。逆にいうと、本人確認書類の表面から裏面(又は裏面から表面)へと裏返す際に厚みが現れない場合、本人確認書類の表面及び裏面の画像データを流用した可能性がある。
第2実施形態では、第5判定部310が静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定することにより、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認することができる。このため、本人確認書類の表面及び裏面の画像データの流用を防止することができる。
(撮像処理)
図6Aは、第2実施形態に係る認証システム1の処理を示すフローチャート図である(撮像処理)。以下、図6Aを参照して第2実施形態に係る認証システム1の撮像処理について説明する。なお、第2実施形態に係る認証システム1の撮像処理のS101E以降の処理は、図4Aを参照して説明した第1実施形態に係る認証システム1の撮像処理のステップS102以降の処理と同じであるため、ステップS102以降の処理については重複する説明を省略する。なお、図6Aには、ステップS101AからステップS101Eの処理内容を示す参考図又は文(文字)を各ステップの左隣りに記載している。
(ステップS101A)
ユーザUは、ユーザ端末2の入力装置200Cを操作して、本人確認書類の動画の撮像を開始する。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して撮像処理を開始する。具体的には、撮像方法指示部211は、撮像処理が開始されると、指示ID「B001」に対応するテキストデータを表示するように表示装置制御部203に指示する。また、撮像方法指示部211は、撮像処理が開始されると、指示ID「B001」に対応する音声データを出力するように音声出力装置制御部209に指示する。
撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B001」に対応するテキストデータ(例えば、「本人確認書類の撮影を開始します。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B001」に対応する音声データ(例えば、「本人確認書類の撮影を開始します。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
(ステップS101B)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B002」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B002」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B002」に対応するテキストデータ(例えば、「本人確認書類の表面を撮影してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B002」に対応する音声データ(例えば、「本人確認書類の表面を撮影してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、本人確認書類の表面を撮像する。
(ステップS101C)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B003」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B003」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B003」に対応するテキストデータ(例えば、「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B003」に対応する音声データ(例えば、「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、撮像を続けたまま、本人確認書類を表面から裏面へひっくり返す。
(ステップS101D)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B004」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B004」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B004」に対応するテキストデータ(例えば、「本人確認書類の裏面(うらめん)を撮影してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B004」に対応する音声データ(例えば、「本人確認書類の裏面(うらめん)を撮影してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、撮像を続けたまま、本人確認書類の裏面を撮像する。
(ステップS101E)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B005」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B005」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B005」に対応するテキストデータ(例えば、「続いて、本人動画を撮影します。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B005」に対応する音声データ(例えば、「続いて、本人動画を撮影します。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
以降、図4AのステップS102の処理へと移行し、ユーザUは、指示に基づいて、本人動画(自撮り動画)の撮像を開始する。
(認証処理)
図6Bは、第2実施形態に係る認証システム1の処理を示すフローチャート図である(撮像処理)。以下、図6Bを参照して第2実施形態に係る認証システム1の認証処理について説明するが、第1実施形態に係る認証システム1の認証処理と同じ処理については同一のステップ番号を付して重複する説明を省略する(図6BのステップS203は、「第1抽出処理」となっているが、図4BのステップS203「抽出処理」と処理内容は同じである)。
(ステップS301)
静止画像データ抽出部303は、1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する。
(ステップS302)
第5判定部310は、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する。なお、第5判定部310による判定方法については既に述べたので重複する説明を省略する
なお、図6Bの説明では、第5判定部310による判定の後、第1判定部304から第4判定部307による判定を順番に行っているが、第1判定部304から第4判定部307及び第5判定部310による判定順序は図6Bに示す順序に限られず順不同である。換言すると、図6Bに示す第1判定部304から第4判定部307及び第5判定部310による判定の順序を入れ替えてもよい。
(効果)
以上のように、第2実施形態では、ユーザ端末2に本人確認書類の両面の撮影を指示する撮像方法指示部211を備え、認証サーバ3に第1撮像データから1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する静止画像データ抽出部303と、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する第5判定部310とを備えている。
このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましを効果的に防止することができる。
[第2実施形態の変形例1]
なお、第2実施形態では、静止画像データ抽出部303は、第1撮像データ、換言すると本人確認書類を表面から裏面へと裏返すところを撮像した動画から1以上の第4画像データ、換言すると、本人確認書類を裏返す際の静止画像データ(例えば、本人確認書類に厚みがあることを確認可能な本人確認書類を厚み方向に斜めに傾けた画像データ)を抽出している。しかしながら、静止画像データ抽出部303は、本人確認書類を厚み方向に斜めに傾けた画像データを抽出することが難しい場合、以下のようにして対処してもよい。
ユーザ端末2の記憶装置200Bに「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストデータ及び音声データを記憶し、撮像方法指示部211が図6AのステップS101Cにおいて、撮像方法指示部211が「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」に対応するテキストデータを表示するように表示装置制御部203に指示し、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」に対応する音声データを出力するように音声出力装置制御部209に指示する。
表示装置制御部203は、撮像方法指示部211による指示に基づいて、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストを表示装置200Dに表示する。また、音声出力装置制御部209は、撮像方法指示部211による指示に基づいて、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」の音声データを読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に従って本人確認書類を斜めに傾けた状態で撮影を行う。
認証サーバ3の静止画像データ抽出部303は、ユーザ端末2から送信された第1撮像データから、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストデータが表示された後の数秒間又は「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」の音声が出力された後の数秒間の動画から1以上の第4画像データを抽出することで、静止画像データ抽出部303は、本人確認書類を厚み方向に斜めに傾けた画像データを効果的に抽出することができる。
また、第2実施形態では、ユーザUに本人確認書類の両面の撮影、換言すると本人確認書類をひっくり返す動作の撮影を指示し、本人確認書類に厚みがあるか否かを判定することにより、本人確認書類の表面及び裏面の画像データが流用されていないかを判定するようにしているが、他の方法により、本人確認書類の表面及び裏面の画像データが流用されていないかを判定するようにしてもよい。例えば、本人確認書類に光を当て、光沢具合を判定して本人確認書類の表面及び裏面の画像データが流用されていないか、換言すると本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認するようにしてもよい。また、偽造防止用の特殊印刷が施されている場合、特殊な光(例えば、紫外線)を当てると特殊印刷が浮かび上がるが、このような場合、本人確認書類に紫外線LEDライトを照射する指示をユーザUに対して行い、特殊印刷が浮かび上がるか否かにより本人確認書類が画像データの流用でないか、偽造されていないかなどを判定するようにしてもよい。
また、上記第2実施形態においては、認証サーバ3が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307、第5判定部310の機能を有し、認証サーバ3において、認証処理を行っているが、ユーザ端末2が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307、第5判定部310の機能を有し、ユーザ端末2において、認証処理を行うようにしてもよい。上記第2実施形態においては、ユーザ端末2が、動作抽出部206、指示タイミング決定部207、動作指示部208、撮像方法指示部211の機能を有しているが、認証サーバ3が、動作抽出部206、指示タイミング決定部207、動作指示部208、撮像方法指示部211の機能を有し、撮像方法指示部211による指示及び指示タイミング決定部207で決定されたタイミングで動作抽出部206により抽出された動作を動作指示部208が認証サーバ3の送信部309からユーザ端末2へ送信するようにしてもよい。
また、静止画像データ抽出部303の機能をユーザ端末2が有し、第1,第2撮像データから第1乃至第3静止画像データを抽出した後、第1乃至第4静止画像データを認証サーバ3へ送信し、認証サーバ3は、ユーザ端末2から送信された第1乃至第4静止画像データに基づいて図6B及び図4Bを参照して説明した本人確認の認証を行うようにしてもよい。このようにすれば、ユーザ端末2から送信するデータ量を大幅に削減することができる。
[第2実施形態の変形例2]
また、第2実施形態及びその変形例1では、認証サーバ3に第1撮像データから1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する静止画像データ抽出部303と、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する第5判定部310の機能を備えることにより、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを判定している。
しかしながら、認証サーバ3に第5判定部510の機能を備えずに、例えば、認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認するように構成してもよい。この場合、認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を確認して本人確認書類に厚みがあることが確認できると、その旨の信号(以下、確認OKの信号ともいう)を認証サーバ3へ入力又は送信するようにしてもよい。
図6Cは、第2実施形態の変形例2に係る認証システムの処理を示すフローチャート図である(認証処理)。以下、図6Cを参照して第2実施形態の変形例2に係る認証システム1の撮像処理について説明するが、ステップS303以外のステップについては、第1実施形態に係る認証システム1の撮像処理と同じであるため同一のステップ番号を付して重複する説明を省略する。
(ステップS303)
認証サーバ3の受信部301は、ステップS303において、認証システム1のシステム管理者等からの本人確認書類に厚みがあることが確認できた旨の信号(確認OKの信号)を受信したか否かを判定する。受信部301が確認OKの信号を受信した場合(YES)、第1判定部304は、ステップS204の第1判定処理を行う。また、受信部301が確認OKの信号を受信していない場合(NO)、認証サーバ3は、ステップS208の認証エラー処理を行う。
なお、認証サーバ3に表示装置及び入力装置を備えるようにし、表示装置を利用してユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認し、入力装置を利用して確認OKの信号を入力するようにしてもよい。また、認証サーバ3と通信可能に接続された別のコンピュータを利用して、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認し、確認OKの信号を認証サーバ3へ送信するようにしてもよい。
また、第2実施形態の変形例1では、本人確認書類に光又は特殊な光(例えば、紫外線)を当て、光沢具合や特殊印刷の有無を判定して本人確認書類の表面及び裏面の画像データが流用されていないか、換言すると本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを判定するが、この判定を認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、光又は特殊な光(例えば、紫外線)を当てる動作の部分を視聴して光沢具合や特殊印刷の有無を確認し、その旨の信号(確認OKの信号)を認証サーバ3へ入力又は送信するようにしてもよい。
[第3実施形態]
第3実施形態では、さらに本人確認の信頼性を高めた認証システムについて説明する。以下、図面を参照して、第3実施形態に係る認証システムについて説明するが、第2実施形態及びその変形例1,2に係る認証システムと異なる構成について説明し、第2実施形態及びその変形例1,2と同一の構成については重複する説明を省略する。
(ユーザ端末2の機能構成)
図7は、第3実施形態に係るユーザ端末2の機能ブロック図である。第3実施形態に係るユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209、記憶装置制御部210、撮像方法指示部211及び撮像位置抽選部212などの機能を有する。
なお、図7に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。以下、図7を参照して、第3実施形態に係るユーザ端末2の機能について説明するが、表示装置制御部203、送信部204及び撮像位置抽選部212以外の機能については、第2実施形態及びその変形例1,2に係るユーザ端末2と同じであるため重複する説明を省略する。
初めに、第3実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータについて説明する。第3実施形態に係るユーザ端末2の記憶装置200Bには、第2実施形態及びその変形例1,2に係るユーザ端末2の記憶装置200Bに記憶されているデータに加えて、撮像位置抽選部212で利用される画像データが位置IDに関連付けて記憶されている。
図8は、第3実施形態に係るユーザ端末2の表示装置200Dに表示される画面100の一例を示す図である。図8に示すように、撮像位置の異なる4つの本人確認書類撮像用の画面100のデータ(以下、画面データともいう)が位置IDに関連付けて格納されている。図8(a)は、位置ID「C001」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって右下に位置する。図8(b)は、位置ID「C002」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって左下に位置する。図8(c)は、位置ID「C003」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって右上に位置する。図8(d)は、位置ID「C004」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって左上に位置する。また、画面100の撮像枠F1以外の領域は、マスキング(塗りつぶされている)されている。
なお、図8に示すように、本人確認書類を撮像する画面100には、撮像方法指示部211からの指示に基づいて指示IDに対応するテキストデータが表示される。また、図8に示す画面100における本人確認書類を撮像する撮像枠F1の位置はあくまで一例であり、図8に示す位置に限られるものではない。本人確認書類を撮像する撮像枠F1の位置が互いに異なる画面を複数用意することができればよい。
撮像位置抽選部212は、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する。換言すると、撮像位置抽選部212は、位置IDをランダムに抽選する。
表示装置制御部203は、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させる。ユーザUは、撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像する。なお、表示装置制御部203のその他の機能ついては、第2実施形態及びその変形例1,2に係る表示装置制御部203と同じである。
なお、送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけを第1撮像データとして認証サーバ3へ送信するようにしてもよいし、撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信するようにしてもよい。
認証サーバ3の静止画像データ抽出部303では、ユーザ端末2から送信された第1撮像データから本人確認書類の静止画像データ(以下、第1画像データともいう)を抽出するが、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。
(撮像処理)
図9は、第3実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。以下、図9を参照して第3実施形態に係る認証システム1の撮像処理について説明する。なお、第3実施形態に係る認証システム1の撮像処理のS100B以降の処理は、図6Aを参照して説明した第2実施形態に係る認証システム1の撮像処理のステップS101A以降の処理と同じであるため、ステップS101A以降の処理については重複する説明を省略する。
(ステップS100A)
撮像位置抽選部212は、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する。換言すると、撮像位置抽選部212は、位置IDをランダムに抽選する。
(ステップS100B)
表示装置制御部203は、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させる。
以降、図6AのステップS101Aの処理へと移行し、ユーザUは、指示に基づいて、本人確認書類の動画の撮像を開始する。
(効果)
以上のように、第3実施形態に係る認証システム1では、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する撮像位置抽選部212を備え、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させている。そして、送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけ、もしくは撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信している。
そして、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を撮像する動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましをより効果的に防止することができる。
[第3実施形態の変形例]
なお、第3実施形態では、ユーザ端末2の送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけ、もしくは撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信しているが、本人確認書類の撮像において、撮像装置200Eで撮像された映像を撮像位置抽選部212で抽選された位置IDとともに送信するようにしてもよい。そして、認証サーバ3の静止画像データ抽出部303は、ユーザ端末2から送信された位置IDに応じて、第1撮像データから静止画像データを抽出(切り出す)する位置を変化させるようにしてもよい。
具体的には、静止画像データ抽出部303は、位置ID「C001」を受信した場合、第1撮像データの右下の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置ID「C002」を受信した場合、第1撮像データの左下の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置ID「C003」を受信した場合、第1撮像データの右上の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置IDC「004」を受信した場合、第1撮像データの左上の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)すようにしてもよい。
このようにしても、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を撮像する動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましをより効果的に防止することができる。
また、上記第3実施形態においては、ユーザ端末2が撮像位置抽選部212の機能を備えているが、認証サーバ3が撮像位置抽選部212の機能を備え、撮像位置抽選部212がランダムに抽選した位置IDをユーザ端末2へ送信し、ユーザ端末2の表示装置制御部203は、受信部205で受信した位置IDに対応する画面100を表示装置200Dに表示させるようにしてもよい。
以上説明したように、本発明によれば、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することができる。
1 認証システム
2 ユーザ端末
200A 通信IF
200B 記憶装置
200C 入力装置
200D 表示装置
200E 撮像装置(カメラ)
200F 音声出力装置(スピーカ)
200G CPU
200H バス(BUS)
201 撮像装置制御部
202 入力受付部
203 表示装置制御部
204 送信部
205 受信部
206 動作抽出部
207 指示タイミング決定部
208 動作指示部
209 音声出力装置制御部
210 記憶装置制御部
211 撮像方法指示部
212 撮像位置抽選部
3 認証サーバ
300A 通信IF
300B 記憶装置
300C CPU
300D バス(BUS)
301 受信部(第1,第2取得部)
302 動作指示タイミング認識部
303 静止画像データ抽出部
304 第1判定部
305 第2判定部
306 第3判定部
307 第4判定部
308 記憶装置制御部
309 送信部
310 第5判定部
4 ネットワーク

Claims (10)

  1. 本人確認のための認証システムであって、
    本人確認書類の顔写真の撮像データを取得する第1取得部と、
    ユーザの撮像データを取得する第2取得部と、
    前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部と、
    前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記第2取得部により取得された撮像データが、前記ユーザを撮像した他の撮像画像の流用でないか否かを判定する第2判定部と、
    を備えることを特徴とする認証システム。
  2. 前記第1判定部及び前記第2判定部は、互いに異なる判定アルゴリズムにより前記本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否か及び前記第2取得部により取得された撮像データが前記ユーザを撮像した撮像画像であるか否かを判定することを特徴とする請求項1に記載の認証システム。
  3. 前記ユーザに対して1以上の動作を指示する動作指示部と、
    前記ユーザの撮像データから、前記指示前の静止画像データと、前記指示後の静止画像データとを抽出する静止画像データ抽出部と、
    前記指示前の静止画像データと前記指示後の静止画像データとに基づいて、前記ユーザが指示された動作を行ったか否かを判定する第3判定部と、
    を備えることを特徴とする請求項1又は請求項2に記載の認証システム。
  4. 前記指示前の静止画像データと前記指示後の静止画像データとに基づいて、前記指示前及び前記指示後の静止画像データのユーザが同一人物であるか否かを判定する第4判定部を備えることを特徴とする請求項3に記載の認証システム。
  5. 2以上の異なる動作が記憶された記憶部を参照し、前記記憶部から1以上の動作をランダムに抽出する動作抽出部を備え、
    前記動作指示部は、
    前記動作抽出部により抽出された動作を前記ユーザに対して指示することを特徴とする請求項3又は請求項4に記載の認証システム。
  6. 前記動作を指示するタイミングをランダムに決定する指示タイミング決定部を備え、
    前記動作指示部は、
    前記指示タイミング決定部により決定されたタイミングで前記動作を前記ユーザに対して指示することを特徴とする請求項3乃至請求項5のいずれかに記載の認証システム。
  7. 前記動作指示部は、
    2以上の異なる動作を前記ユーザに対して指示することを特徴とする請求項3乃至請求項6のいずれかに記載の認証システム。
  8. 前記第1取得部により取得された撮像データが、前記本人確認書類を撮像した他の撮像画像の流用でないか否かを判定する第5判定部を備えることを特徴とする請求項1乃至請求項7のいずれかに記載の認証システム。
  9. 本人確認のための認証方法であって、
    第1取得部が、本人確認書類の顔写真の撮像データを取得する工程と、
    第2取得部が、ユーザの撮像データを取得する工程と、
    第1判定部が、前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する工程と、
    第2判定部が、前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記第2取得部により取得された撮像データが、前記ユーザを撮像した他の撮像画像の流用でないか否かを判定する工程と、
    を有することを特徴とする認証方法。
  10. 本人確認のための認証プログラムであって、
    コンピュータを、
    本人確認書類の顔写真の撮像データを取得する第1取得部、
    ユーザの撮像データを取得する第2取得部、
    前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部、
    前記第1取得部により取得された撮像データと、前記第2取得部により取得された撮像データとに基づいて、前記第2取得部により取得された撮像データが、前記ユーザを撮像した他の撮像画像の流用でないか否かを判定する第2判定部、
    として機能させることを特徴とする認証プログラム。

JP2018237005A 2018-12-11 2018-12-19 認証システム、認証方法、認証プログラム Active JP6541140B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018231361 2018-12-11
JP2018231361 2018-12-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019101047A Division JP7068710B2 (ja) 2018-12-11 2019-05-30 情報処理装置、情報処理方法、情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6541140B1 JP6541140B1 (ja) 2019-07-10
JP2020095652A true JP2020095652A (ja) 2020-06-18

Family

ID=67212105

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018237005A Active JP6541140B1 (ja) 2018-12-11 2018-12-19 認証システム、認証方法、認証プログラム
JP2019101047A Active JP7068710B2 (ja) 2018-12-11 2019-05-30 情報処理装置、情報処理方法、情報処理プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019101047A Active JP7068710B2 (ja) 2018-12-11 2019-05-30 情報処理装置、情報処理方法、情報処理プログラム

Country Status (1)

Country Link
JP (2) JP6541140B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210983A1 (ja) 2021-03-31 2022-10-06 古河電気工業株式会社 合成ガス製造用触媒構造体、合成ガス製造装置および合成ガス製造用触媒構造体の製造方法
WO2023013373A1 (ja) * 2021-08-02 2023-02-09 株式会社辰巳菱機 遠隔診療システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6733790B2 (ja) * 2018-12-10 2020-08-05 大日本印刷株式会社 携帯端末、本人確認システム及びプログラム
JP7318325B2 (ja) * 2019-06-10 2023-08-01 沖電気工業株式会社 情報処理装置およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236666A (ja) * 2001-02-09 2002-08-23 Matsushita Electric Ind Co Ltd 個人認証装置
JP2003317100A (ja) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd 情報端末装置、認証システム、及び登録・認証方法
JP2005284565A (ja) * 2004-03-29 2005-10-13 Glory Ltd 自動取引装置
JP2006133930A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 認証処理装置、および認証処理方法、並びにコンピュータ・プログラム
JP2006330936A (ja) * 2005-05-24 2006-12-07 Matsushita Electric Works Ltd 顔認証装置
JP2007280367A (ja) * 2006-03-14 2007-10-25 Omron Corp 顔照合装置
JP2010204829A (ja) * 2009-03-02 2010-09-16 Nec Corp 認証装置、認証方法及び利用者認証システム
JP2013134684A (ja) * 2011-12-27 2013-07-08 Nec Corp 電子取引端末、電子取引システム、電子取引方法、及び、電子取引プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2946887B2 (ja) * 1991-11-20 1999-09-06 凸版印刷株式会社 磁気カード検査装置
JP5870633B2 (ja) * 2011-11-08 2016-03-01 日本電気株式会社 情報処理装置、情報処理方法、および情報処理プログラム
EP3254252A1 (en) * 2015-02-06 2017-12-13 Trunomi Ltd. Systems and methods for generating an auditable digital certificate
JP6557931B2 (ja) * 2015-04-09 2019-08-14 司 窪田 マイナンバー収集システム、マイナンバー蓄積装置、入力装置、中継装置、動作方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236666A (ja) * 2001-02-09 2002-08-23 Matsushita Electric Ind Co Ltd 個人認証装置
JP2003317100A (ja) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd 情報端末装置、認証システム、及び登録・認証方法
JP2005284565A (ja) * 2004-03-29 2005-10-13 Glory Ltd 自動取引装置
JP2006133930A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 認証処理装置、および認証処理方法、並びにコンピュータ・プログラム
JP2006330936A (ja) * 2005-05-24 2006-12-07 Matsushita Electric Works Ltd 顔認証装置
JP2007280367A (ja) * 2006-03-14 2007-10-25 Omron Corp 顔照合装置
JP2010204829A (ja) * 2009-03-02 2010-09-16 Nec Corp 認証装置、認証方法及び利用者認証システム
JP2013134684A (ja) * 2011-12-27 2013-07-08 Nec Corp 電子取引端末、電子取引システム、電子取引方法、及び、電子取引プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210983A1 (ja) 2021-03-31 2022-10-06 古河電気工業株式会社 合成ガス製造用触媒構造体、合成ガス製造装置および合成ガス製造用触媒構造体の製造方法
WO2023013373A1 (ja) * 2021-08-02 2023-02-09 株式会社辰巳菱機 遠隔診療システム
JP7315190B2 (ja) 2021-08-02 2023-07-26 株式会社辰巳菱機 遠隔診療システム

Also Published As

Publication number Publication date
JP2020095670A (ja) 2020-06-18
JP7068710B2 (ja) 2022-05-17
JP6541140B1 (ja) 2019-07-10

Similar Documents

Publication Publication Date Title
JP7068710B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム
CN105681316B (zh) 身份验证方法和装置
WO2019104930A1 (zh) 一种身份鉴定方法、电子装置及计算机可读存储介质
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
CN105989263A (zh) 身份认证方法、开户方法、装置及系统
JP5076563B2 (ja) 顔照合装置
JP2002251380A (ja) 利用者照合システム
WO2019127262A1 (zh) 基于云端的人脸活体检测方法、电子设备和程序产品
WO2016197298A1 (zh) 活体检测方法、活体检测系统以及计算机程序产品
CN104361274A (zh) 一种基于视频识别的身份认证方法及其系统
WO2016172923A1 (zh) 视频检测方法、视频检测系统以及计算机程序产品
CN110612530A (zh) 用于选择脸部处理中使用的帧的方法
US11600118B2 (en) Information processing apparatus, information processing method, and information processing program
EP3001343B1 (en) System and method of enhanced identity recognition incorporating random actions
JP6664753B1 (ja) 偽造判定システム、偽造判定方法及び偽造判定プログラム
KR102160137B1 (ko) 특징점 변동을 이용한 위조 얼굴 판별장치 및 그 방법
JP4887966B2 (ja) 照合装置
KR102581415B1 (ko) 부정행위를 방지하는 안면윤곽선 인식 인공지능을 사용한 ubt 시스템 및 그 방법
KR102615709B1 (ko) 녹음 녹화 프로그램이 구비된 응시자 단말의 정면 카메라와 보조 카메라를 사용하여 부정 행위를 방지하는 안면윤곽선 인식 인공 지능을 사용한 온라인 시험 시스템 및 그 방법
KR20230110681A (ko) 응시자 단말의 정면 카메라와 보조 카메라를 사용하여 부정행위를 방지하는 안면윤곽선 인식 인공지능을 사용한 온라인 시험 시스템 및 그 방법
WO2022222957A1 (zh) 一种目标识别的方法和系统
WO2021125268A1 (ja) 制御装置、制御方法、及びプログラム
WO2021002079A1 (ja) 通過可否判定装置、通過管理システム、通過可否判定方法、及び、コンピュータプログラム
CN113096809A (zh) 一种基于云计算的健康管理系统
WO2020152917A1 (ja) 顔認証装置、顔認証方法、プログラム、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190604

R150 Certificate of patent or registration of utility model

Ref document number: 6541140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350