JP2014074972A - 顔画像による本人認証支援システム - Google Patents

顔画像による本人認証支援システム Download PDF

Info

Publication number
JP2014074972A
JP2014074972A JP2012220885A JP2012220885A JP2014074972A JP 2014074972 A JP2014074972 A JP 2014074972A JP 2012220885 A JP2012220885 A JP 2012220885A JP 2012220885 A JP2012220885 A JP 2012220885A JP 2014074972 A JP2014074972 A JP 2014074972A
Authority
JP
Japan
Prior art keywords
face image
terminal
customer
operator
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012220885A
Other languages
English (en)
Inventor
Naoki Shimoma
直樹 下間
Atsushi Shimamura
敦司 島村
Hirofumi Nagasuga
弘文 長須賀
Toshiyuki Morita
俊之 森多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012220885A priority Critical patent/JP2014074972A/ja
Publication of JP2014074972A publication Critical patent/JP2014074972A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

【課題】
タブレット端末のような持ち運び可能な端末を利用して、タブレット端末に内蔵のカメラで操作者の顔画像(後にバイオメトリクスデータとして顔認証に利用)を取得する際に、操作者がカメラに対象の操作者の顔が写りこんでいるタイミングを明示的に指定しなければならない。
【解決手段】
顔画像を登録済みの操作者(行員)と、顔画像を未登録の操作者(顧客)の2人から、情報の入力を受付ける機能を持つ持ち運び可能な端末を用いる。この端末は情報の入力と並行して、端末の状況を検知しておき、検知された状況が所定条件を満たすと判断した場合に、未登録の操作者(顧客)が前記端末のカメラに写りこんでいると判断し、前記未登録の操作者の顔画像を前記カメラにより取得する。
【選択図】図1

Description

本発明は、顔画像を用いて本人認証を行う技術に関し、その中でも特に、1以上の端末装置を用いて所定のサービスを提供する場合に、いわゆるモバイル端末を含むプレ端末を利用した本人認証技術に関する。この本人認証については、銀行を含む金融機関等の営業店内での利用にも適用可能である。
営業店内において、顧客は来店時に複数の取引端末を利用して取引を行う場合がある(例えば初めに窓口に設置されている取引端末で暗証番号の入力、行員による顧客の顔確認により本人確認を行った上で、ATMで暗証番号の入力または顔画像認証により、本人認証を行って、現金引出しを行うなど)。このとき、顧客は一連の手続きで利用する各取引端末で、個別に本人認証処理(暗証番号入力、生体認証など)を行う必要がある。
上記本人認証処理を、例えば来店時に営業店システムで顧客のバイオメトリクスデータ(顔画像、虹彩情報、指静脈情報など)を取得して、複数取引端末をバイオメトリクスデータによる認証のみで利用可能とするサービスが考えられる。
特開平11−45364号公報(特許文献1)では、プレ端末装置を用いて顧客のバイオメトリクスデータと取引情報を取得する。プレ端末装置とは、顧客が自動取引装置で手続きを進める前に、顧客のバイオメトリクスデータを取得し、本人認証をした上で、顧客が行う取引情報の入力を支援する端末装置である。顧客は、プレ端末装置で予め手続きを済ませておくことで、その後に自動取引装置の前に到着した時点で、プレ端末装置で入力した取引処理の続きの処理を進めることができる。具体的には、顧客が自動取引装置で取引を開始すると、自動取引装置はバイオメトリクスデータを取得し、プレ端末に問い合わせて本人であること確かめる。本人であることが分かると、プレ端末装置に記憶した取引情報を引き継いで、自動取引装置での取引が実行される。
特開2005-267352
特許文献1では、プレ端末装置の操作中に、顧客や行員が意識することなくバイオメトリクスデータの取得を行う方法については記載されていない。そのため、タブレット端末のような持ち運び可能な端末を利用して、タブレット端末に内蔵のカメラで顧客の顔画像(後にバイオメトリクスデータとして顔認証に利用)を取得する際に、カメラに行員や顧客の顔が写りこんでいるタイミングを明示的に指定しなければならない。
本発明は顔画像による本人認証支援システムに係り、顔画像を登録済みの操作者(行員)と、顔画像を未登録の操作者(顧客)の2人から、情報の入力を受付ける機能を持つ持ち運び可能であり、前記端末は前記情報の入力と並行して、前記端末の状況を検知しておき、前記検知された状況のうち、前記未登録の操作者の入力に関する端末の状況が所定条件を満たすと判断した場合に、前記未登録の操作者が前記端末のカメラに写りこんでいると判断し、前記未登録の操作者の顔画像データを前記カメラにより取得する、端末を備える。
前記端末は、カメラに写った画像から顔画像を検出するライブラリを持ち、前記カメラで取得した画像から顔画像を検出し、その後に前記カメラで取得した画像から顔画像を検出せず、さらにその後に前記カメラで取得した画像から顔画像を検出した場合に、前記端末の操作者が前記登録済みの操作者から前記未登録の操作者に代わり、前記未登録の操作者の顔画像が写りこんでいると判断し、操作者の顔画像を前記カメラにより取得する。
また、前記端末は端末の傾き、向いている方位を検出するセンサを持ち、前記傾きまたは方位が一定以上変化した場合に、前記タブレット端末の操作者が登録済みの操作者から未登録の操作者に代わり、前記未登録の操作者の顔画像が写りこんでいると判断し、操作者の顔画像を前記カメラにより取得してもよい。
また、前記端末は、カメラに写った画像から顔画像を検出するライブラリを持ち、前記カメラで取得した画像から顔画像を検出し、前記取得した画像に、前記端末を並んで操作している2人の操作者の顔画像が含まれている場合に、未登録の操作者が前記端末のカメラに写りこんでいると判断し、前記2人の操作者の顔画像を前記カメラにより取得してもよい。この場合、2人以上である場合に上記のように判断しても構わない。
本発明によれば、本人認証における入力の手間を減らすことができ、本人認証をよりスムーズに行うことが可能になる。
本発明の一実施形態における顔画像による本人認証支援システムの全体の構成図である。 本発明の一実施形態におけるタブレット端末、取引端末、営業店サーバの構成の例を示す図である。 本発明の一実施形態における行員情報DBの例を示す図である。 本発明の一実施形態における顧客情報DBの例を示す図である。 本発明の一実施形態における顧客情報一時保存DBの例を示す図である。 本発明の一実施形態における銀行の店舗内でのサービスの流れの例を示す図である。 本発明の一実施形態におけるタブレット端末と営業店サーバの処理の例を示すフロー図である。 本発明の一実施形態におけるカメラ画面に写る操作者の顔が変わった可能性が高いタイミングを検知する方法の例を示すフロー図である。 本発明の一実施形態における傾き/方位の変化から、タブレット端末の操作者が変わった可能性が高いタイミングを検知する方法のフロー図である。 本発明の一実施形態におけるタブレット端末の操作者が行員と顧客であることを検知する方法のフロー図である。 本発明の一実施形態におけるカメラ画像中に写る情景が切り替わるときの例を示す図である。 本発明の一実施形態におけるカメラ画像中に写る2人の人物が隣り合っているときの例を示す図である。
以下、本発明の一実施形態を、銀行の営業店で適用した例を用いて説明する。被認証者である顧客が営業店で何らかの取引を行う際の認証を行う。本実施形態では、銀行の行員がタブレット端末100を持ち歩き、顧客と対話しながらタブレット端末100を使って顧客に本人確認情報(例えばキャッシュカードや免許証の提示)、取引情報(取引の種類を識別する情報と、その取引の種類毎に定められている取引の内容決定する項目の情報。例えば取引の種類が振込みであれば振込み金額、振込み先の口座番号など。)の入力をさせる。このとき、行員が顧客にタブレット端末100を手渡したタイミングでタブレット端末100が顧客の顔画像を取得する。ここでは、行員、顧客の双方が、顧客の顔画像を取得するタイミングを明示せずに、タブレット端末100が顧客の手に渡されて顧客が操作していることをタブレット端末100自体が判断して顧客の顔画像を取得するタイミングを決定する。その後、顧客は次に手続きを進める取引端末110に移動し、手続きを進める。
以下では、まず本実施形態の全体の構成を、図1を用いて示す。
タブレット端末100は銀行の営業店内でのサービスにおいて、行員が持ち歩き、顧客の本人確認、取引に係る取引情報入力を支援する端末である。
タブレット端末100は、カメラ101と、カメラ画面に写りこんだ画像中から顔画像を検出する顔画像検出ライブラリ102、顔画像検出ライブラリ102で取得した顔画像が、例えば行員から別人に変わった可能性が高いことを検出する人物識別機能103、タブレット端末100の傾きや方位を検出する傾き/方位検出センサ104、取引に必要な情報の入力を受付ける取引情報処理機能105と、キャッシュカードや通帳を読み取るリーダ106(一般に、タブレット端末に標準で備わっている機能ではないため、本発明ではキャッシュカードや通帳を読み取り可能な、磁気ストライプカードリーダを、タブレット端末100に追加で備えているものとする)、タブレット端末100と取引端末110と営業店サーバ120間において取引情報や顔画像を通信し各種端末内の機能との連携処理を行う通信制御部107とを有する。
取引端末110は、顧客が行いたい取引で用いられる取引情報を処理する端末であり、取引端末110の前の情景を取得するカメラ111と、カメラ111で取得した画像中から顔画像を検出する顔画像検出ライブラリ112、顧客がタブレット端末100で予め入力し、営業店サーバ120へアップロードしていた取引情報を営業店サーバ120から受信し、顧客に当該取引情報の続きの手続き画面を表示する取引情報処理機能113と、営業店サーバ120との通信を制御する通信制御部114とを有する。取引端末110には、例えばAutomatic Teller Machine(ATM)やCash Dispenser(CD)などがある。
営業店サーバ120とは、例えば銀行のデータセンターや店舗内に設置され、行員、顧客の顔画像データによる本人認証や、取引情報処理の管理などを行うサーバである。営業店サーバ120は、タブレット端末100や各取引端末と連携して取引情報の処理を行う(例えばタブレット端末100や、取引端末110から送信される取引情報を顧客情報一時保存DBに格納する)取引情報処理機能121、行員の情報を格納した行員情報DB122と、顧客の個人情報を格納した顧客情報DB123、2つの顔画像データを比較して算出される一致度を用いて同一人物であるかどうかを判定する顔画像認証機能124、顧客の顔画像データや口座番号、取引情報を一時的に保存しておく顧客情報一時保存DB125、タブレット端末100や各取引端末との通信を制御する通信制御部126とを有する。ここで、顔画像認証機能124が行う、同一人物であるかの判定とは具体的には、ある顔画像データから傾きや位置を検出して補正し、特徴点(眼の中心、唇の端など)の位置や点同士の距離などを計測し、比較したい顔画像データとの一致度を算出し、その一致度がある一定値以上であれば、同一人物であると判定する処理である。以降では、前記顔画像データの一致度の比較処理を「突き合せ」と呼ぶ。
上記タブレット端末100と営業店サーバ120とは、ネットワーク130を介して接続されている。また、取引端末110と営業店サーバ120とは、ネットワーク131を介して接続されている。ネットワーク130、131は例えば無線ネットワークである。
図2はタブレット端末100、取引端末110、営業店サーバ120のハードウェア構成を示す。前記各種端末は、CPU201、メモリ202、記憶装置203、入力装置204、出力装置205、通信制御装置206、これらを相互に接続するバス207からなる。CPU201は、記憶装置203に記憶され、メモリ202に展開された各種プログラムを実行する。記憶装置203は、例えばタブレット端末100の場合、フラッシュメモリであり、取引端末110、営業店サーバ120の場合、ハードディスクドライブやRAIDである。入力装置204は、例えばタブレット端末100の場合、ディスプレイに一体化しているタッチパネル、キーボード、マウスであり、外部のオペレータからの情報入力を受ける。出力装置205は例えばディスプレイであり、外部のオペレータに対して情報を表示する。通信制御装置206は、例えば無線ネットワークインターフェース、ネットワークインターフェースカードであり、無線通信やネットワークにより他のシステムとの間で電文を授受する。
以降、タブレット端末100、取引端末110、営業店サーバ120の動作は、CPU201が記憶装置203からメモリ202へ処理プログラムを読み込み、CPU201がメモリ202に記憶した当該プログラムの記述に従って、メモリ202、記憶装置203、入力装置204、出力装置205、通信制御装置206等を制御して動作するものとする。なお、タブレット端末100は図1に示すようにカメラ101や傾き検出、方位検出のためのセンサや、キャッシュカード、通帳を読み込むリーダ106も含む。
以下では、営業店サーバ120の前記各種DB内で保持される情報について示す。
行員情報DB122は、行員別に、行員ID301、氏名302、顔画像データ303を保持する。行員ID301とは行員を一意に識別するIDである。氏名302は行員の氏名である。顔画像データ303は行員ID301の行員の顔を取得した画像データである。例えば、行員情報DB122の1行目304では、行員ID301の値として「1000」、氏名302の値として「日立太郎」、顔画像データ303には行員IDが1000である行員の顔画像データが格納されていることを示す。なお、行員情報DB122は、営業店サーバ120に予め入力装置204や通信制御装置206から入力を受けて保持されているDBである。
顧客情報DB123は、顧客を一意に識別する口座番号401、氏名402、暗証番号403、年齢404など、顧客に紐付く情報を保持する。例えば、顧客情報DB123の1行目405において、口座番号401の値として「1234」、氏名402の値として「戸塚太郎」、暗証番号403の値として「1332」、年齢404の値として「35」等の値が格納される。なお、顧客情報DBは、営業店サーバ120に予め入力装置204や通信制御装置206から入力を受けて、受けた入力の内容(情報)を保持するDBである。
顧客情報一時保存DB125は、初期状態は空であり、行員と顧客が対話し、本人確認が完了した顧客に関して、口座番号501、顔画像データ502、顧客が行員と対話し、タブレット端末100に入力した、取引情報に関して、取引種別、金額等の項目をカンマ区切りで持つ、取引情報503を保持する。例えば、顧客情報一時保存DB125の1行目504において、口座番号501の値として「1234」、顔画像502には口座番号1234さんの顔画像データ、取引情報503の値として「引出し、10000円」が格納される。なお、顧客情報一時保存DB125は顧客来店時のみ、値が保持されるDBである。
次に、本発明の実施の形態で想定する銀行の店舗内でのサービスの流れの概要を、図6を用いて示す。顧客が銀行の店舗に入店した際、行員が顧客入店を視認し、タブレット端末100を持ちながら顧客に歩み寄る。行員は顧客に対して用件を聞き(ステップ601)、顧客は用件(引出し、入金、出金等の取引の種類)を伝える(ステップ602)。これに対し行員は、顧客に本人確認に必要なもの(例えばキャッシュカードや通帳)の提示を求める(ステップ603)。行員は用件に応じて顧客対応する。以降では用件が振込みであった場合を例とする。顧客は行員からタブレット端末100を受け取ると、タブレット端末100に接続したリーダ106にキャッシュカードをかざす(ステップ604)。この操作により、タブレット端末100はキャッシュカードが保持している口座番号の情報の入力を受付ける。さらに、顧客はタブレット端末100に暗証番号を入力することで、本人認証を行う(ステップ605)。
タブレット端末100は口座番号に対応する正しい暗証番号であるか否か、口座番号と暗証番号を外部のサーバに送信し、確認する(この暗証番号の確認は一般的なものであり、詳細の記述は省略する)。また営業店サーバ120では、タブレット端末100から送信された、顧客の口座番号と暗証番号を基に、取引情報処理機能121による、本人認証を行う。以降、顧客はタブレット端末100により取引情報を入力する(ステップ606)。なお、取引情報の入力とは、顧客が行いたい取引に必要な情報を入力することで、例えば振込であれば、用件が「振込み」であること、振込先の口座番号、金額等を入力する。また、取引情報の入力においては、顧客と行員がタブレット端末100を共有し、行員が一部の項目の入力を代理するなど、顧客の入力をサポートする。
また、この顧客がタブレット端末100を保持しているないし預けられている間に、タブレット端末100に搭載されているカメラ101で顧客の顔画像データを取得して営業店サーバ120にアップロードする。この顔画像データは他の取引端末110を顧客が用いるときに、顔画像データを利用した本人認証のために用いられる。タブレット端末100は、カメラ101による顧客の顔画像データの取得を、顧客や行員が意識することなく自動的に行うことも可能である。
顧客の取引情報の入力が完了すると、顧客は取引端末110へ移動する(ステップ607)。顧客が取引端末110の前に到着すると(センサでの検知や顧客の操作で判断)、取引端末110に設置されているカメラ111でカメラ画像を取得し、顔画像検出ライブラリ112で前記カメラ画像から顧客の顔画像データを取得し、営業店サーバ120にアップロードする。営業店サーバ120では、顔画像認証機能124により、取引端末110からアップロードされた顔画像データと、顧客情報一時保存DB125に保持されている、顧客の顔画像データとを突き合せる。営業店サーバ120は、突き合せ結果を取引端末110に送信する。突き合せ結果により、営業店サーバ120にアップロードされた人物の顔画像データが、顧客情報一時保存DB125に保持されている顔画像データと同一人物の顔画像データであると判定できた場合、顧客が予め入力した取引情報を取引端末110に送信する。
取引端末110は取引情報を受け取り、取引情報処理機能113により、手続き処理を進める。例えば取引情報が振込であり、取引端末110がATMであれば、取引情報に含まれる金額の現金の挿入を顧客に促す等の処理を行う(ステップ608)。
次に、上記サービスの流れを実現するシステムの処理を、図7の処理フローを用いて示す。図7の処理フローはタブレット端末100の取引情報処理機能105、営業店サーバ120の取引情報処理機能121と対応する。また、図7における処理は、顧客が本人確認のために暗証番号を入力し終えた、ステップ605のタイミング以降に関する。なお図7におけるフォーク720は、タブレット端末100による処理を、並列に実行する2つの処理に分けることを意味する。また、ジョイン721は、並列に実行していた2つの処理の両方が完了するまで待ち合わせることを意味する。
はじめにタブレット端末100は、顧客が入力する取引情報を受付ける(ステップ701)。この取引情報の受付は、タブレット端末100がはじめに取引種別(例えば振込)の入力を受けた後に、タブレット端末100の出力装置205に当該取引で必要な入力項目(振込であれば、例えば振込先の口座番号、金額)を表示し、タブレット端末100の操作者からそれぞれの項目への入力を入力装置204により受けるものである。
ステップ701の入力処理が完了すると、タブレット端末100は入力内容を顧客の口座番号とともに営業店サーバ120にアップロードする(ステップ703)。営業店サーバ120はこの入力内容を受信し(ステップ704)、顧客情報一時保存DB125に保存し(ステップ705)、処理を終了する。
このステップ701、703の処理の際に、タブレット端末100は当該端末の操作者が行員から顧客に変化した可能性があることを検知し、顧客の顔画像を取得、前記取得した顔画像と、当該顧客の口座番号を営業店サーバ120にアップロードする(ステップ702)。図7に示す通り、ステップ701、703とステップ702とは並列処理を行っている。ステップ702の処理の詳細については後述する。
タブレット端末100において、ステップ702、ステップ703の処理が完了すると、タブレット端末100は処理を終了する。
以下では、図7のステップ702の処理の詳細を示す。ステップ702の処理は、タブレット端末100の人物識別機能103により、顧客の顔画像データを取得して営業店サーバ120にアップロードすることを目的とした処理である。このとき、本発明の実施の形態では、タブレット端末100を顧客と行員が共有して操作することを前提としているため、行員から顧客に操作者が切り替わったと想定されるタイミングをタブレット端末100が検知してカメラ101で取得した顔画像データを営業店サーバ120に送信し、営業店サーバ120はその顔画像データが行員のものでない場合に顧客の顔画像データであると判断する。この操作者が顧客に切り替わったと想定して顔画像データを営業店サーバ120に送信するタイミングの決定方法2つを図8、図9のフローで示す。図10では、行員と顧客が並んでタブレット端末100を操作し、カメラ101に双方とも写りこんだ場合の、営業店サーバ120への顔画像データの送信タイミングの決定方法を示す。
なお、以下で示す方法では、タブレット端末100のカメラ101で取得した画像に写る操作者の顔を、顔画像検出ライブラリ102により検出する。顔画像検出とは、カメラで取得した画像の中に人の顔が映っている場合にその領域を抽出する処理である。この顔画像検出は一般的なタブレット端末やスマートフォンに標準的に組み込まれているものであり、画像の中から人の顔が映っていると想定される範囲の矩形領域を抽出する。このとき、顔画像データが検出できた矩形領域においては、カメラ画像に占める当該矩形領域の座標から面積も算出できる。
操作者が顧客に切り替わったと想定して顔画像データを営業店サーバ120に送信するタイミングの決定方法2つのうち、一つ目の方法は、カメラ画面に写る操作者の顔が変わった可能性が高いタイミングを検知することで、タブレット端末100の操作者が行員から顧客に変わったと判断し、顔画像データを営業店サーバ120に送信するタイミングとする方法である。
以下、タブレット端末100の人物識別機能103に関して、図8の処理フローを用いて示す。はじめに、タブレット端末100が、内蔵のカメラ101を用いて画面側の情景をカメラ画像として取得する(ステップ801)。このとき、カメラ画像は動画として連続して取得しているものとする。次に、顔画像検出ライブラリ102がステップ801で取得したカメラ画像を用いて、写っている顔画像が変化した可能性があるか否かを検出する(ステップ802)。なお、ここでは、内蔵のカメラ101を用いるが、いわゆる外付けでもよいし、何らかの形で画像情報を取得できるものであればよい。
ここで、ステップ802の検出方法について、図11を用いて、タブレット端末100の操作者の顔画像検出方法と、操作者が変わったことを検知する方法について示す。まず、タブレット端末100の操作者の顔画像検出方法については、タブレット端末100のカメラ画像1101中において、顔画像検出アルゴリズムによって操作者の顔画像データとその矩形領域1104が得られる。このとき、矩形領域1104の面積がカメラ画面の面積に対してある一定値以上(例えば1/5以上)を占めたとき、タブレット端末100の操作者の顔画像データであると検出する。次に、人物識別機能103による、タブレット端末100の操作者が変わったことを検知する方法を示す。カメラ画像1101、1102、1103は、カメラ画像1101でカメラ画像にタブレット端末100の操作者が写っている(カメラ画像中に顔画像を検出し、その矩形領域1104が1/5以上である)時点から、カメラ画像1102でカメラ画像中に顔画像以外の風景が写り(カメラの画像中に顔画像を検出できない、または顔画像を検出したとしてもその矩形領域1104がカメラ画像の1/5に満たない)、カメラ画像1103でカメラ画像中にタブレット端末100の操作者が再び写りこんだとき(カメラ画像中に顔画像を検出し、その矩形領域1105が1/5以上である)の流れを示している。このとき、本発明では、例えばカメラ画像1101の状態からカメラ画像1102の状態に変わり、カメラ画像1102の状態がある一定時間(例えばカメラで動画を取得している場合の1フレーム以上)続き、カメラ画像1103の状態に変わったときに、タブレット端末100はタブレット端末100の操作者が変わった可能性が高いと判定する。
次に、ステップ801で取得した顔画像データとステップ604で取得した口座番号を、営業店サーバ120にアップロードする(ステップ803)。なお、ここでアップロードする顔画像データは、行員、顧客のいずれのものであるかはこの時点では不明である。次に、営業店サーバ120はステップ803でタブレット端末100からアップロードされた顔画像データと口座番号を受信し(ステップ804)、行員情報DB122に保持されている、行員の顔画像データ303と突合せる(ステップ805)。本実施形態では、アップロードされた顔画像データと行員情報DB122に格納されている各行員の顔画像データとを突き合せて、アップロードされた顔画像データが行員のものであるかどうかを判定する。ただし、前記突き合せの手間を軽減するために、以下の方法も考えられる。例えば、行員がタブレット端末100を持ち歩いて顧客と対話する際に、予め当該行員の行員IDを営業店サーバ120に送信しておき、ステップ805での突き合せの際、行員情報DB中で前記行員IDの値が格納された行の、顔画像データとだけ突合せを行えばよい。営業店サーバ120は、ステップ805の突き合せ処理の結果、ステップ803でタブレット端末100からアップロードされた顔画像データが行員のものであるか、それ以外のものであるかどうかの判定結果(行員のものでなければ、顧客のものであると判定する)を、タブレット端末100に送信する(ステップ806)。タブレット端末100は、ステップ806で営業店サーバ120から送信された判定結果を受け取る(ステップ807)。ステップ807でタブレット端末100が受け取った判定結果が、行員でなかった場合、タブレット端末100での人物識別機能の処理を終了し、行員であった場合、ステップ801の処理に戻る(ステップ808)。また、営業店サーバは、ステップ806の処理の後、送信した判定結果が、行員でなかった場合にはステップ810の処理に進み、行員であった場合には処理を終了する(ステップ809)。最後に、営業店サーバ120は、ステップ803でタブレット端末100からアップロードされた顔画像データを、顧客情報一時保存DB125に、ステップ703で既に顧客情報一時保存DB125に保存されている口座番号と一致する行の、顔画像データの列に保存する(ステップ810)。以上により、顧客が意識する必要なく、顧客の顔画像データを取得するタイミングを自動的に決定することができる。
操作者が顧客に切り替わったとときに顔画像データを営業店サーバ120に送信するタイミングの決定方法2つのうち、二つ目の方法は、タブレット端末100の傾きや方位が一定量変わったことをトリガーにして、タブレット端末100の操作者が行員から顧客に変わったタイミングを検知する方法である。以下、タブレット端末100の人物識別機能103、傾き/方位検出機能104に関して、図9の処理フローを用いて示す。はじめに、タブレット端末100が傾き/方位検出機能104により、自端末の傾きまたは方位を検出する(ステップ901)。次に、ステップ901で検出した傾きまたは方位に、ある一定値以上の変化があったときに、タブレット端末の操作者が変わった可能性が高いと判定する。また、傾きまたは方位に、ある一定値以上の変化がなかったときに、ステップ901の処理に戻る(ステップ902)。ここで、本発明では、傾きや方位の検出方法は、以下の通りである。
まず、傾きの検出方法は、タブレット端末の画面の4辺のうち、いずれが下に変化したかを検出することによって実現する。一般的なタブレット端末100では、操作者がタブレット端末100を自由な向きに持って操作することに対応可能にするために、端末の傾きが変化したことを検出する機能が提供されている。この機能は、タブレット端末100に内蔵された加速度センサで重力加速度の向きを調べることによって実現されている。これにより、例えば行員と顧客が向かい合い、タブレット端末100の受渡しが行われる際に、タブレット端末100の上下が入れ替わるような受渡しがされたことを検知する。次に、方位の検出方法は、タブレット端末100の画面の向きによって方位の検出を実現する。また、一般的なタブレット端末100では、地磁気センサにより、タブレット端末100の画面の向いている方位を取得することができる。これにより、例えばタブレット端末の画面が向いている方位が一定角度(例えば120度)以上変化した場合に、行員と顧客との間で、タブレット端末100の上下の向きを変えずに、タブレット端末100の受渡しがされたことを検知する。次に、ステップ902で傾きまたは方位の変化が検出されたとき、タブレット端末100のカメラ101でカメラ画像を取得する(ステップ903)。次に、顔画像検出ライブラリ102がステップ903で取得したカメラ画像中から、タブレット端末100の操作者の顔画像を検出したとき、ステップ905の処理に進み、顔画像が検出できなかったとき、ステップ903の処理に戻る(ステップ904)。このとき、カメラ画像中から、顔画像が検出できたかどうかは、顔画像がカメラ画面の面積に対してある一定値以上(例えば1/5以上)であるときである。次に、ステップ903で取得した顔画像とステップ604で取得した口座番号を、営業店サーバ120にアップロードする(ステップ905)。
次に、営業店サーバ120は、図8の営業店サーバ120の処理(ステップ804、ステップ805、ステップ806、ステップ809、ステップ810)と同様の処理を行う(ステップ906)。タブレット端末100は、ステップ907で営業店サーバ120から送信された判定結果を受け取る(ステップ907)。最後に、タブレット端末100は、ステップ908でタブレット端末100が受け取った判定結果が、行員でない場合、顧客と判断して、タブレット端末100での人物識別機能103の処理を終了し、行員であった場合、ステップ901の処理に戻る(ステップ908)。
次に、行員と顧客が並んでタブレット端末100を操作し、カメラ101にこの双方が写りこむ場合の、営業店サーバ120への顔画像データの送信タイミングの決定方法を以下で示す。このとき行員と顧客が隣り合ってタブレット端末100を交互に操作し、取引を行う。この方法では、タブレット端末100のカメラ画面に対して、行員と顧客の位置(左側が行員、右側が顧客。もしくは右側が行員、左側が顧客)と、画面占有率(行員と顧客の顔の外接矩形の面積が、カメラ画面の全体の面積に対してある一定値以上を占めるとき)を基にして、タブレット端末100の操作者が行員から顧客に変わったタイミングを検知する方法である。
以下、タブレット端末100の人物識別機能103に関して、図10の処理フローを用いて示す。はじめに、タブレット端末100のカメラがカメラ画像を取得する(ステップ1001)。次に、顔画像検出ライブラリ102がステップ1001で取得したカメラ画像中から、顔画像データを2つ検出する(ステップ1002)。ここで、カメラ画像中に写る2人の人物が隣り合っていると判定する方法について、図12を用いて示す。図8のステップ802でも述べたように、顔画像検出アルゴリズムにより、カメラ画像中に写る顔画像データとその外接矩形が2人分得られる。このとき、例えばカメラ画像中の縦の中心線の左右に、前記2人分の外接矩形の中心1201が、それぞれ存在し、かつ各外接矩形の面積がカメラ画像の全面積の一定割合以上、例えば1/7以上であるとき、カメラ画像中に写る2人の人物が隣り合っていると判定する。これは、カメラ画面に写る2人の人物が十分タブレット端末100に近づいており、隣り合っている可能性が高いと判断できるためである。次に、ステップ1002で取得した顔画像データとステップ604で取得した口座番号を、営業店サーバにアップロードする(ステップ1003)。
次に、営業店サーバ120はタブレット端末からアップロードされた顔画像データと口座番号を受信する(ステップ1004)。営業店サーバ120はステップ1003でタブレット端末100からアップロードされた2人分の顔画像データを、行員情報DBに保持されている、行員の顔画像データと突合せる(ステップ1005)。営業店サーバ120は、ステップ1005の突き合せ処理の結果、ステップ1003でタブレット端末100からアップロードされた2人分の顔画像データのうち、どちらかが行員のものであるか、2人ともそれ以外(顧客)のものであるかどうかの判定結果を、タブレット端末に送信する(ステップ1006)。タブレット端末は、ステップ1005で営業店サーバから送信された判定結果を受け取る(ステップ1007)。ステップ1007でタブレット端末が受け取った判定結果が、タブレット端末からアップロードされた2人分の顔画像のうち、どちらかが行員のものであることを示す情報であった場合、タブレット端末100での人物識別機能103の処理を終了し、それ以外であった場合、ステップ1001の処理に戻る(ステップ1008)。
また、営業店サーバ120は、ステップ1006の処理の後、送信した判定結果が、タブレット端末100からアップロードされた2人分の顔画像データのうち、どちらかが行員のものであった場合にはステップ1009の処理を行い、それ以外であった場合には処理を終了する(ステップ1009)。最後に、営業店サーバは、ステップ1003でタブレット端末からアップロードされた顔画像データのうち、行員ではない(顧客の)顔画像データを、顧客情報一時保存DB125に、ステップ703で既に顧客情報一時保存DB125に保存されている口座番号と一致する行の、顔画像データの列に保存する(ステップ1010)。
以上により、行員がタブレット端末を持ち歩き、顧客と対話しながらタブレットを操作することで、行員、顧客が認証のための入力を自動化でき、このための手間を削減して顧客の顔画像データを取得することができる。この顔画像データを用いて、各種の取引端末110で顧客の本人認証手続きを省く(キャッシュカードの挿入や暗証番号等の入力無しに、タブレット端末、取引端末で取得した顧客の顔画像データと、営業店サーバ120に登録済の顧客の顔画像データとを利用した、顔認証を行う)システムの処理を実現できる。
また、この方法は銀行における、行員、顧客を例としたが、顔画像が登録済みの操作者と未登録の操作者がいて、持ち運び可能な端末で、未登録の操作者の顔画像を取得する必要がある場合に、共通して用いることができる。
100 タブレット端末
101 カメラ
102 顔画像検出ライブラリ
103 人物識別機能
104 傾き/方位検出センサ
105 取引情報処理機能
106 リーダ
110 取引端末
120 営業店サーバ

Claims (8)

  1. 利用者に対して所定のサービスを提供する際に顔画像により本人認証を行う顔画像による本人認証支援システムにおいて、
    前記サービスを提供するための情報処理を実行するサーバ装置と、
    前記サーバ装置と接続され、前記サービスを提供する際に、前記利用者が操作する第1の端末装置と、
    前記サーバ装置と接続され、前記サービスの提供の可否を判断するための本人認証に用いる第2の端末装置を有し、
    前記第2の端末装置は、顔画像データを登録済みの操作者と、顔画像データを未登録の操作者である前記利用者から、情報の入力を受付け、前記情報の入力と並行して、前記端末の状況を検知しておき、前記検知された状況が所定条件を満たすと判断した場合に、前記未登録の操作者が前記第2の端末装置の撮像手段に写りこんでいると判断し、前記未登録の操作者の顔画像データを前記撮像手段により取得し、
    取得された顔画像データを用いて前記利用者の本人認証を支援することを特徴とする顔画像による本人認証支援システム。
  2. 請求項1に記載の顔画像による本人認証支援システムであって、
    前記第2の端末装置は、前記所定条件を満たすかの判断として、
    前記撮像手段に写った画像から顔画像を検出し、当該検出後、一定期間後に前記撮像手段で取得した画像から顔画像を検出した場合に、前記所定の条件を満たしたと判断することを特徴とする顔画像による本人認証支援システム。
  3. 請求項1に記載の顔画像による本人認証支援システムであって、
    前記第2の端末装置は、前記所定条件を満たすかの判断として、
    当該第2の端末装置の傾き、向いている方位を検出する機能を持ち、前記傾きまたは方位が一定以上変化した場合に、前記所定条件を満たしたと判断することを特徴とする顔画像による本人認証支援システム。
  4. 請求項1に記載の顔画像による本人認証支援システムであって、
    前記第2の端末は、前記所定条件を満たすかの判断として、
    前記撮像手段に写った画像から顔画像を取得し、前記取得した画像に、2人以上の操作者の顔画像が含まれている場合に、前記未登録の操作者が前記端末のカメラに写りこんでいると判断することを特徴とする顔画像による本人認証支援システム。
  5. 利用者に対して所定のサービスを提供する際に顔画像により本人認証を行う顔画像による本人認証支援システムであって、前記サービスを提供するための情報処理を実行するサーバ装置と、前記サーバ装置と接続され、前記サービスを提供する際に、前記利用者が操作する第1の端末装置と、前記サーバ装置と接続され、前記サービスの提供の可否を判断するための本人認証に用いる第2の端末装置を有する本人認証支援システムにおいて用いられるプログラムであって、
    前記第2の端末装置に対して、顔画像データを登録済みの操作者と、顔画像データを未登録の操作者である前記利用者から、情報の入力を受付け、前記情報の入力と並行して、前記端末の状況を検知させ、前記検知された状況が所定条件を満たすと判断した場合に、前記未登録の操作者が前記第2の端末装置の撮像手段に写りこんでいると判断させ、前記未登録の操作者の顔画像データを前記撮像手段により取得させることで、取得された顔画像データを用いて前記利用者の本人認証を支援することを特徴とするプログラム。
  6. 請求項5に記載のプログラムであって、
    前記第2の端末装置における前記所定条件を満たすかの判断として、
    前記撮像手段に写った画像から顔画像を検出し、当該検出後、一定期間後に前記撮像手段で取得した画像から顔画像を検出した場合に、前記所定の条件を満たしたと判断することを特徴とするプログラム。
  7. 請求項5に記載のプログラムであって、
    前記第2の端末装置における前記所定条件を満たすかの判断として、
    当該第2の端末装置の傾き、向いている方位を検出する機能を持ち、前記傾きまたは方位が一定以上変化した場合に、前記所定条件を満たしたと判断することを特徴とするプログラム。
  8. 請求項5に記載のプログラムであって、
    前記第2の端末における前記所定条件を満たすかの判断として、
    前記撮像手段に写った画像から顔画像を取得し、前記取得した画像に、2人以上の操作者の顔画像が含まれている場合に、前記未登録の操作者が前記端末のカメラに写りこんでいると判断することを特徴とするプログラム。
JP2012220885A 2012-10-03 2012-10-03 顔画像による本人認証支援システム Pending JP2014074972A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012220885A JP2014074972A (ja) 2012-10-03 2012-10-03 顔画像による本人認証支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012220885A JP2014074972A (ja) 2012-10-03 2012-10-03 顔画像による本人認証支援システム

Publications (1)

Publication Number Publication Date
JP2014074972A true JP2014074972A (ja) 2014-04-24

Family

ID=50749100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012220885A Pending JP2014074972A (ja) 2012-10-03 2012-10-03 顔画像による本人認証支援システム

Country Status (1)

Country Link
JP (1) JP2014074972A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5947419B1 (ja) * 2015-04-10 2016-07-06 三井住友カード株式会社 コールセンタシステムにより実行される認証方法
JP2019186914A (ja) * 2018-03-31 2019-10-24 株式会社リコー 通信端末、通信システム、通信方法、及びプログラム
WO2019244663A1 (ja) * 2018-06-18 2019-12-26 Necソリューションイノベータ株式会社 顔認証システム、端末装置、顔認証方法、及びコンピュータ読み取り可能な記録媒体
JP2023019955A (ja) * 2021-07-30 2023-02-09 株式会社日本総合研究所 情報処理システム及び情報処理プログラム
KR20230095329A (ko) * 2021-12-22 2023-06-29 주식회사 마인드포지 얼굴 인식을 이용하는 전자 장치 및 그 동작 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5947419B1 (ja) * 2015-04-10 2016-07-06 三井住友カード株式会社 コールセンタシステムにより実行される認証方法
JP2016200996A (ja) * 2015-04-10 2016-12-01 三井住友カード株式会社 コールセンタシステムにより実行される認証方法
JP2019186914A (ja) * 2018-03-31 2019-10-24 株式会社リコー 通信端末、通信システム、通信方法、及びプログラム
WO2019244663A1 (ja) * 2018-06-18 2019-12-26 Necソリューションイノベータ株式会社 顔認証システム、端末装置、顔認証方法、及びコンピュータ読み取り可能な記録媒体
JPWO2019244663A1 (ja) * 2018-06-18 2021-06-24 Necソリューションイノベータ株式会社 顔認証システム、端末装置、顔認証方法、及びプログラム
JP2023019955A (ja) * 2021-07-30 2023-02-09 株式会社日本総合研究所 情報処理システム及び情報処理プログラム
JP7291178B2 (ja) 2021-07-30 2023-06-14 株式会社日本総合研究所 情報処理システム及び情報処理プログラム
KR20230095329A (ko) * 2021-12-22 2023-06-29 주식회사 마인드포지 얼굴 인식을 이용하는 전자 장치 및 그 동작 방법
KR102578583B1 (ko) * 2021-12-22 2023-09-15 주식회사 마인드포지 얼굴 인식을 이용하는 전자 장치 및 그 동작 방법

Similar Documents

Publication Publication Date Title
US11829988B2 (en) Systems and methods for transacting at an ATM using a mobile device
US11393016B2 (en) Smart meal ordering method and device
US10509951B1 (en) Access control through multi-factor image authentication
US10269016B2 (en) Dual biometric automatic teller machine (“ATM”) session initialization having single in-line session maintenance
US10346675B1 (en) Access control through multi-factor image authentication
US20150106264A1 (en) Controlling debit card transactions
US20140289116A1 (en) System and method for performing authentication for a local transaction
US20150120573A1 (en) Information processing method, device and system
US20150287017A1 (en) Systems and Methods for Transacting at an ATM Using a Mobile Device
US20200005263A1 (en) Frictionless Automated Teller Machine
CN106605253A (zh) 安全无卡取款
JP6705232B2 (ja) システム、現金預け払い方法及びプログラム
US11755868B2 (en) Methods and systems for a combined transaction by an assignee on behalf of one or more users
US20170053252A1 (en) Single in-line biometric automatic teller machine ("atm") session maintenance using biometric characteristic
US20200005262A1 (en) Frictionless Automated Teller Machine
US11954668B2 (en) Automatic teller machine system for authenticating a user device
US20220122068A1 (en) Systems and methods for location based account integration and electronic authentication
US20180114207A1 (en) System and method for secure access to financial services device features
JP2014074972A (ja) 顔画像による本人認証支援システム
JP7180869B2 (ja) 自動販売機決済システム、自動販売機、顔認証サーバ、自動販売機決済方法及びプログラム
US20140337225A1 (en) Biometric-based transaction fraud detection
US20240007452A1 (en) Contactless Authentication and Event Processing
CN105580046B (zh) 提供与远程银行装置的银行业务交互的系统和方法
US10083444B1 (en) Biometric computing system and method for e-commerce
KR20140020389A (ko) 스마트폰을 이용한 개인 스마트 뱅킹 서비스 방법