JP2023074752A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2023074752A
JP2023074752A JP2021187866A JP2021187866A JP2023074752A JP 2023074752 A JP2023074752 A JP 2023074752A JP 2021187866 A JP2021187866 A JP 2021187866A JP 2021187866 A JP2021187866 A JP 2021187866A JP 2023074752 A JP2023074752 A JP 2023074752A
Authority
JP
Japan
Prior art keywords
person
face image
face
gate
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021187866A
Other languages
English (en)
Inventor
賢治 進藤
Kenji Shindo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021187866A priority Critical patent/JP2023074752A/ja
Publication of JP2023074752A publication Critical patent/JP2023074752A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔認識の精度を高く保ちつつ、処理コストの抑制を可能にする。【解決手段】情報処理装置は、第1、第2のゲート前の人物の顔をそれぞれ撮影した第1、第3の顔画像を取得し、また特定の人物について所定の媒体に用意された第2の顔画像を取得する。情報処理装置は、顔画像から第1の抽出処理で第1の特徴情報を抽出し、第1の抽出処理より処理量が少ない第2の抽出処理で第2の特徴情報を抽出する。そして情報処理装置は、第1の顔画像から抽出した第1の特徴情報と第2の顔画像から抽出した第1の特徴情報とを用いた第1の照合処理で、第1のゲート前の人物が特定の人物であると判定した場合に第1の顔画像から抽出した第2の特徴情報を保持し、第3の顔画像から抽出した第2の特徴情報と保持した第2の特徴情報とを用いて、第2のゲート前の人物が特定の人物であるかを判定する第2の照合処理を行う。【選択図】図1

Description

本発明は、人物認識を使用した入場管理等に適用可能な情報処理技術に関する。
特許文献1には、飛行機の搭乗手続きの際の個人特定を、顔認識によって行う技術が開示されている。また特許文献2には、顔検出処理や特徴量算出処理の際、ディープニューラルネットワークと呼ばれる多階層ニューラルネットワークがディープラーニングで学習されたニューラルネットワークを用いて、画像データから特徴量を算出する方法が開示されている。
特開2020-113311号公報 特開2020-030480号公報
顔認識における認識精度は特徴量算出処理の性能に寄るところが大きい。一般に顔認識精度と、特徴量算出処理等に用いられるニューラルネットワークの規模との間には相関があり、高い認識精度には、多くの場合、大規模なニューラルネットワークが必要となることが多い。そのため、認識精度を高めようとすると計算量は増え、処理コストは増大する。つまり、認識精度と処理コストとはトレードオフの関係にある。
そこで本発明は、顔認識の精度を高く保ちつつ、処理コストの抑制を可能にすることを目的とする。
本発明の情報処理装置は、第1のゲート前に来た人物の顔を撮影した第1の顔画像を取得する第1の取得手段と、特定の人物について所定の媒体に用意された第2の顔画像を取得する第2の取得手段と、前記第1のゲートとは異なる場所に配された第2のゲート前に来た人物の顔を撮影した第3の顔画像を取得する第3の取得手段と、顔画像から第1の抽出処理によって第1の特徴情報を抽出する第1の抽出手段と、顔画像から前記第1の抽出処理よりも処理量が少ない第2の抽出処理によって第2の特徴情報を抽出する第2の抽出手段と、顔画像から抽出された特徴情報を用いて人物の照合処理を行う照合手段と、を有し、前記照合手段は、前記第1の顔画像から前記第1の抽出手段が抽出した第1の特徴情報と、前記第2の顔画像から前記第1の抽出手段が抽出した第1の特徴情報とを用いて、前記第1のゲート前の人物が前記特定の人物であるかを判定する第1の照合処理を行い、前記第1の照合処理により前記特定の人物であると判定した場合に、前記第1の顔画像から前記第2の抽出手段が抽出した第2の特徴情報を保持し、前記第3の顔画像から前記第2の抽出手段が抽出した第2の特徴情報と、前記保持した第2の特徴情報とを用いて、前記第2のゲート前に来た人物が前記特定の人物であるかを判定する第2の照合処理を行うことを特徴とする。
本発明によれば、顔認識の精度を高く保ちつつ、処理コストの抑制が可能となる。
搭乗システムの概略的な構成例を示す図である。 搭乗システムにおける機能構成例を示すブロック図である。 顔器官検出の説明に用いる図である。 搭乗データベースに保存されるデータの例を示す図である。 情報処理装置のハードウェア構成例を示す図である。 搭乗手続き時の流れを示すフローチャートである。 チェックイン時の処理フローチャートである。 保安検査における認識ゲート通過時の処理フローチャートである。 第1の実施形態における認識ゲート通過時の処理フローチャートである。 第2の実施形態における認識ゲート通過時の処理フローチャートである。 第3の実施形態における認識ゲート通過時の処理フローチャートである。
以下、本発明に係る実施形態を、図面を参照しながら説明する。以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。以下の各実施形態において、同一の構成には同じ参照符号を付して説明する。
本実施形態では、空港、駅舎、小売店、あるいは銀行等の施設おいて、顔認識を用いた入退管理を行う情報処理システム、特にここでは、空港における搭乗システムへの適用例に挙げて説明する。また本実施形態では、顔認識による本人判定で用いられる顔検出処理や特徴情報の抽出処理等に、ディープニューラルネットワークと呼ばれる多階層のニューラルネットワークがディープラーニングを用いて学習されたニューラルネットワークを適用する例を挙げる。
<第1の実施形態>
図1は、空港に設けられる搭乗システムの概略的な構成例を示した図である。本実施形態では、搭乗手続きの一例として、人物Aが空港でチェックインしてから、搭乗予定の飛行機に搭乗するまでの一連の手続きにおいて、顔認識を用いる例を挙げる。
搭乗システムは、例えば図1に示すように、チェックイン場のチェックイン機110、保安検査場の認識ゲート120a、および搭乗口の認識ゲート120bを有し、それらが顔認識処理等を行う情報処理装置100に接続されている。また情報処理装置100にはデータベース140が接続されている。
チェックイン機110は、出国等しようとしている人物Aが空港に到着した際に、搭乗口、搭乗時刻、座席などを記載した搭乗券を発行するチェックイン処理を行う装置である。チェックイン機110は、例えば、カメラ(撮影装置)112、ディスプレイ115、所謂パスポートのようなIC旅券の読み取り機111、およびゲート118を有している。なお、チェックイン機110は空港建物内に複数台設置されていることが多い。
読み取り機111は、IC旅券に設けられている所定の媒体であるICチップに記録されている個人識別情報を読み取るIC読み取り装置である。IC旅券は個人識別カードの機能を有しており、所定の媒体であるICチップには、当該IC旅券を使用する人物(人物Aとする)の個人識別情報として、顔画像、氏名、生年月日、国籍、性別、及び旅券番号などの情報が予め記録されているとする。
カメラ112は、CCDイメージセンサ、CMOSイメージセンサ、又はNMOSイメージセンサなどの撮像素子を含む撮像装置である。カメラ112は、ゲート前に来た人物、すなわちチェックイン機110の前に来ている人物Aを撮影した画像データを生成する。なお、以下の説明では、記載を簡略にするため、画像データを適宜、画像とのみ表記する。本実施形態の場合、画像は顔認識処理に用いられるため、チェックイン機110のカメラ112にて取得される画像は主に顔を撮影した顔画像であるとする。
ディスプレイ115は、液晶ディスプレイ又は有機ELディスプレイで構成されており、チェックイン処理の際に必要となる様々な情報を表示する。また、ディスプレイ115には例えばタッチパネルが設けられており、チェックインしようとしている人物等からの入力を取得可能となされている。
ゲート118は、開閉可能となされ、通常は閉じた状態になされている。ゲート118は、人物Aがチェックイン可能な人物であるとのチェックイン結果が得られた場合に開くように駆動される。
チェックイン機110における詳細な構成および処理については後述する。
保安検査場は、チェックイン場を通過した人物Aの手荷物検査などの保安検査を行う場所であり、認識ゲート120aを有する。認識ゲート120aは、カメラ(撮影装置)121a、ディスプレイ124a、およびゲート118aを有している。なお、認識ゲート120aは保安検査場に複数台設置されていることが多い。
カメラ121aは、前述のカメラ112と同様の撮像装置である。カメラ121aは、ゲート前に来た人物、つまり認識ゲート120aを通過しようとしている人物Aを撮影した画像を生成する。
ディスプレイ115aは、前述のディスプレイ115と同様の表示装置であり、保安検査の処理の際に必要となる様々な情報を表示する。
ゲート127aは、開閉可能となされ、通常は開いた状態になされている。ゲート127aは、人物Aに対する保安検査の結果、問題があると判定された場合に閉じるように駆動される。人物Aに対する保安検査で問題があると判定される場合とは、その人物がチェックインした人物Aではないと判定された場合や、手荷物検査時に不審物等を所持していると判断された場合などが想定される。
保安検査場の認識ゲート120aにおける詳細な構成および処理については後述する。
搭乗口は、保安検査場を通過した人物Aが最終的に飛行機に搭乗する際に通過する場所であり、認識ゲート120bを有する。認識ゲート120bは、認識ゲート120aと同様のカメラ(撮影装置)121b、ディスプレイ124b、およびゲート118bを有している。なお、認識ゲート120Bは複数台設置されていることもある。
カメラ121bは、前述のカメラ112と同様の撮像装置である。カメラ121bは、ゲート前に来た人物、つまり認識ゲート120bを通過しようとしている人物Aを撮影した画像を生成する。
搭乗口のゲート118bは、開閉可能となされ、通常は開いた状態になされている。ゲート118bは、人物Aが飛行機に搭乗可能でないと判定された場合に閉じるように駆動される。人物Aが飛行機に搭乗可能でないと判定される場合とは、その人物がチェックインした人物Aではないと判定された場合や、人物Aが登場すべき飛行機とは違う飛行機の搭乗口に来ている場合などが想定される。
搭乗口の認識ゲート120bにおける詳細な構成および処理については後述する。
データベース140は、当該空港において飛行機に搭乗する予定の人物に関する情報を保持する搭乗者データベースである。搭乗者データベースの詳細については後述する。
情報処理装置100は、チェックイン機110、保安検査場の認識ゲート120a、および搭乗口の認識ゲート120bからそれぞれ送られてきた画像を用い、本実施形態に係る照合処理としての人物の顔認識および本人確認等の処理を行う。また、情報処理装置100は、搭乗者(ここでは人物A)に関する情報を管理する。詳細は後述するが、情報処理装置100は、チェックイン機110が人物AのIC旅券から取得した顔画像とチェックイン場のカメラ112で撮像した画像に写る顔の画像とを用いた顔認識処理を行う。そして情報処理装置100は、IC旅券から取得した人物Aの顔画像とカメラ112で撮像した顔画像とを用いた顔認識処理の結果を基に本人確認を行い、さらにその本人確認の結果に応じて当該チェックイン場のゲート118の開閉を制御する。同じく詳細は後述するが、情報処理装置100は、チェックイン時に本人確認がとれた人物についてカメラ112で取得された顔画像と、保安検査場と搭乗口の各カメラ121a,121bでそれぞれ撮像した画像に写る顔画像とを用いた顔認識処理を行う。そして情報処理装置100は、その顔認識処理による本人確認の結果を基に、保安検査場と搭乗口の各ゲート121a,121bの開閉を制御する。この情報処理装置100における詳細な構成および顔認識や情報管理の処理については後述する。
図2は、本実施形態における搭乗システムの機能構成を示した図である。
本実施形態の搭乗システムは、チェックイン機110と、認識ゲート120と、サーバ装置130とを有する。サーバ装置130は、図1に示した情報処理装置100およびデータベース140の機能を含む装置である。なおサーバ装置130は、データセンター、あるいはクラウド上などに設けられていてもよい。図2のチェックイン機110は図1に示したチェックイン機110であるが、空港にはチェックイン機が複数台備えられていることもあるため、図2ではそれら複数のチェックイン機110が重ねて描かれている。図1に示した保安検査場の認識ゲート120aと搭乗口の認識ゲート120bとは構成上、同一であるため、図2では認識ゲート120として描いている。また保安検査場と搭乗口の認識ゲート120も空港内の複数個所に配されていることが多いため、図2ではそれら複数の認識ゲート120が重ねて描かれている。
チェックイン機110は、読み取り部201、撮影部202、制御部203、記憶部204、表示部205、入力部206、通信部207、ゲート208、駆動部209、およびバス210を備える。
読み取り部201は、図1に示したチェックイン機110の読み取り機111に対応した機能部であり、IC旅券のICチップに記録されている情報(IC旅券を使用する人物の顔画像、氏名、生年月日、国籍、性別、及び旅券番号などの情報)を読み取る。
撮影部202は、図1に示したチェックイン機110のカメラ112に対応した機能部であり、チェックイン機110の前に立っている人物の顔を撮影した顔画像を取得する。
制御部203は、チェックイン機110の全体の動作制御を行い、また駆動部209を介してゲート208の開閉制御を行う。制御部203は、例えば、マイクロコンピュータ、CPU、MPU、DSP、FPGA、ASIC等により構成することができる。
記憶部204は、例えばHDD、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、又はこれらの組み合わせによって実現され、画像データや各種の情報を記憶する。
表示部205は、図1に示したチェックイン機110のディスプレイ115に対応した機能部であり、前述したように液晶ディスプレイ又は有機ELディスプレイで構成される。
入力部206は、人物Aや空港職員等のユーザによる種々の操作を受け付けるためのユーザインタフェースである。入力部206は、表示部205のディスプレイと共にタッチパネルで構成されている。なお、入力部206は、キーボード、ボタン、スイッチ、及びこれらの組み合わせを含んでいてもよい。
通信部207は、所定の通信規格(例えばLAN、Wi-Fi(登録商標)、Bluetooth(登録商標)、USB、HDMI(登録商標))に準拠しており、外部機器との通信を行う回路を含む。
駆動部209はゲート208を開閉させるための駆動装置であり、制御部203からの指示に応じてゲート208を開閉駆動する。ゲート208は、図1に示したチェックイン機110のゲート118に相当する。ゲート208は、通常は閉じた状態となされており、駆動部209からの開閉駆動信号によって開閉する。制御部203は、後述するサーバ装置130によるチェックイン処理の結果に基づいて、駆動部209を介してゲート208の開閉を制御する。
バス210は、読み取り部201と、撮影部202と、制御部203と、記憶部204と、表示部205と、入力部206と、通信部207と、ゲート208と、駆動部209とを電気的に接続する信号線である。
認識ゲート120は、図1に示した保安検査場の認識ゲート120aや搭乗口の認識ゲート120bに対応した機能部であり、構成上同一であるため、ここではそれらを区別せずに説明する。認識ゲート120は、撮影部221、制御部222、記憶部223、表示部224、入力部225、通信部226、ゲート227、駆動部228、センサ230、およびバス229を備える。
撮影部221は、チェックイン機110の撮影部202と同様の撮像素子を含むカメラである。撮影部221は、認識ゲート120を通過しようとする人物を撮影して画像を生成する。なお、撮影部221が生成する画像データには撮影年月日を示す情報が含まれる。
制御部222は、認識ゲート120の全体の動作制御を行い、また駆動部228を介してゲート227の開閉制御を行う。制御部222は、チェックイン機110の制御部203と同様に、マイクロコンピュータ、CPU、MPU、DSP、FPGA、ASIC等により構成することができる。
記憶部223は、チェックイン機110の記憶部204と同様に、HDD、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、又はこれらの組み合わせによって実現され、画像データや各種の情報を記憶する。なお、認識ゲート120が搭乗口に設置される認識ゲート120bである場合、記憶部223には搭乗口に接続する飛行機の便名をも記憶している。この情報は、空港保安員や航空会社の作業員が入力部206を介して更新、もしくはそれら空港保安員や作業員が通信端末を介して更新可能である。
表示部224は、図1に示したディスプレイ124aや124bに対応した機能部であり、チェックイン機110の表示部205と同様に液晶ディスプレイ又は有機ELディスプレイで構成される。
入力部225は、チェックイン機110の入力部206と同様に、人物Aや空港職員等のユーザによる種々の操作を受け付けるためのユーザインタフェースである。入力部225は、表示部224のディスプレイと共にタッチパネルを構成しているとするが、キーボード、ボタン、スイッチ、及びこれらの組み合わせを含んでいてもよい。
通信部226は、チェックイン機110の通信部207と同様に、所定の通信規格に準拠して外部機器との通信を行う回路を含む。
駆動部228はゲート227を開閉させるための駆動装置であり、制御部222からの指示に応じてゲート227を開閉駆動する。ゲート208は、図1に示した保安検査場のゲート127aや搭乗口のゲート127bに相当する。認識ゲート120のゲート227は、通常は開いた状態となされており、駆動部228からの開閉駆動信号によって開閉する。制御部222は、後述するサーバ装置130による顔認識処理の結果に基づいて、駆動部228を介してゲート227の開閉を制御する。
センサ230は、ゲート227の近傍に人物が存在するか否かを検出するセンサである。
バス229は、撮影部221と、制御部222と、記憶部223と、表示部224と、入力部225と、通信部226と、ゲート227と、駆動部228と、を電気的に接続する信号線である。
サーバ装置130は、少なくとも図1に示した情報処理装置100の機能を含む装置であり、チェックイン機110や認識ゲート120から送られてきた画像を用いて顔認識および本人確認のための処理を行い、また搭乗者(人物A)に関する情報を管理する。図1に示したデータベース140は、サーバ装置130に接続された外部記憶装置やネットワーク上に用意されていてもよいが、本実施形態ではサーバ装置130がデータベース140の機能をも有しているとする。サーバ装置130は、図2に示すように、入力部241、通信部242、記憶部243、制御部244、顔認識部245、およびバス248を備えている。
入力部241は、空港保安員や航空会社の作業員などのうち、予め操作権限が与えられた特定のユーザによる種々の操作を受け付けるためのユーザインタフェースである。入力部241は、ディスプレイと共にタッチパネルを構成していてもよいし、キーボード、ボタン、スイッチ、及びこれらの組み合わせを含んでいてもよい。
通信部242は、通信部207や通信部226などと同様の所定の通信規格に準拠して外部機器との通信を行う回路を含む。なおサーバ装置130とチェックイン機110および認識ゲート120との間の通信には、セキュリティ上の観点から特定の専用通信回線が用いられるようになされていてもよい。
制御部244は、サーバ装置130の全体の動作を制御する。また、制御部244は、通信部242を介してチェックイン機110の制御部203や認識ゲート120の制御部222との通信も可能となされている。制御部244は、制御部203や制御部222と同様に、マイクロコンピュータ、CPU、MPU、DSP、FPGA、ASIC等により構成することができる。なお制御部244の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。詳細は後述するが、制御部244は、記憶部243に格納された情報処理プログラムを実行し、同じく記憶部243に格納されている種々のデータを読み出して種々の演算処理を行い、本実施形態の情報処理に係る所定の機能を実現する。なお、制御部244によって実行されるプログラムは、通信部242等を介して提供されてもよいし、可搬性を有する記録媒体から読み出されてもよい。
記憶部243は、記憶部204や記憶部223と同様に、HDD、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、又はこれらの組み合わせによって実現され、様々なデータやプログラムを記憶する。また本実施形態の場合、サーバ装置130の記憶部243は、データベース140の機能をも有しており、前述したように飛行機に搭乗予定の人物に関する情報を保持する搭乗者データベースを格納する。なお、搭乗者データベースの詳細は後述する。
顔認識部245は、画像から顔の検出およびその顔の特徴を表す特徴情報を取得する特徴情報抽出処理を行い、その顔の特徴情報を基に人物の顔認識処理を行う機能部である。以下、本実施形態では、顔の特徴情報を「特徴量」と表記する。顔認識部245は、顔検出部249、高精度特徴量算出部246、中精度特徴量算出部247、および類似度算出部250を備えている。
顔検出部249は、本実施形態に係る第1の取得処理および第2の取得処理として、入力された画像から顔画像(顔の画像領域)を検出する処理を行う。顔検出部249は、顔検出処理の際、図3(a)に示すように、顔画像(顔の画像領域)として、画像内で顔を囲う矩形枠(境界枠300とする)を検出する演算を行う。さらに顔検出部249は、その境界枠300の座標と幅と高さの情報を算出すると共に、境界枠300内の顔における目、鼻、口といった各顔器官の特徴点情報301と、それらの尤もらしさである尤度とを算出する。本実施形態の場合、顔検出部249は、ディープニューラルネットワークと呼ばれる多階層のニューラルネットワークがディープラーニングにて学習されたニューラルネットワークを用いた演算処理により顔検出や尤度等の算出を行う。
高精度特徴量算出部246は、本実施形態に係る第1の抽出処理として、顔検出部249によって検出された顔の位置情報から高精度の特徴量(高精度特徴情報)を算出する処理を行う。中精度特徴量算出部247は、本実施形態に係る第2の抽出処理として、顔検出部249で取得した顔の位置情報から中精度の特徴量(中精度特徴情報)を算出する処理を行う。本実施形態において、高精度特徴量算出部246と中精度特徴量算出部247は、それぞれ多階層のニューラルネットワークがディープラーニングにて学習されたニューラルネットワークを用いた演算処理によって特徴量を算出するものとしている。
ここで、高精度特徴量算出部246と中精度特徴量算出部247にそれぞれ用いられるニューラルネットワークは回路規模が異なっており、中精度特徴量算出部247では高精度特徴量算出部246よりも回路規模が小さいニューラルネットワークが用いられる。一般に、ニューラルネットワークの回路規模の大小は、当該ニューラルネットワークによる処理量の大小つまり処理コストの大小と対応した関係を有しており、回路規模が小さい方では、回路規模が大きい方よりも処理量が少なくなる。したがって本実施形態において、中精度特徴量算出部247での中精度特徴量算出処理は、高精度特徴量算出部246での高精度特徴量算出処理よりも処理量が少なく、処理コストが小さい。言い換えると、本実施形態における中精度特徴量とは、高精度特徴量よりも、処理量が少なく、処理コストが小さい特徴量算出処理によって得られる特徴量である。また、回路規模が大きいニューラルネットワークにて取得される特徴量は、一般に、それより回路規模が小さいニューラルネットワークにて取得される特徴量よりも高い精度の特徴量であることが多い。このため、本実施形態では回路規模が大きいニューラルネットワークにて取得される特徴量を高精度特徴量と呼び、一方、それより相対的に回路規模が小さいニューラルネットワークにて取得される特徴量を中精度特徴量と呼んでいる。なお本実施形態では、顔の特徴量として顔器官の位置情報を例に挙げているが、これに限定されるものではなく、位置に加えて、形状などの特徴を含めて反映される情報でもよく、例えばバイト配列を用いることもできる。バイト配列を用いる場合、高精度の特徴量では、バイト配列の長さが、中精度の特徴量の場合のバイト配列よりも長くなる。
類似度算出部250は、高精度特徴量算出部246にて算出された特徴量を用いた類似度算出処理、若しくは、中精度特徴量算出部247にて算出された特徴量を用いた類似度を算出する処理を行う。すなわち類似度算出部250は、高精度特徴量算出部246で算出された高精度精度の特徴量同士を比較することによって類似度を算出する。同様に、類似度算出部250は、中精度特徴量算出部247で算出された中精度の特徴量同士を比較することによって類似度を算出する。これらの詳細は後述する。
バス248は、入力部241と、通信部242と、記憶部243と、制御部244と、顔認識部245と、を電気的に接続する信号線である。
図4は、図1のデータベース140として登録されていているデータ、すなわち図2のサーバ装置130の記憶部243に記憶されている搭乗者データベースの一例を示した図である。搭乗者データベースには、ID401、氏名402、会員ID403、搭乗予定便名404、搭乗時刻405、顔情報高精度406、顔情報中精度407、チェックイン時刻408、手続き状態409、及び搭乗完了時刻410の各情報が登録されている。
ID401には、搭乗者データベースにおいて一意に識別可能な番号が登録される。
氏名402には、当該空港において飛行機に搭乗する予定の人物の氏名が登録される。
会員ID403には、搭乗予定の航空会社の会員登録システムに登録されている人物の会員IDが登録される。
搭乗予定便名404には、搭乗予定の飛行便名が登録される。
搭乗時刻405には、搭乗予定の飛行便の予定時刻が登録される。
顔情報高精度406には、チェックイン機110で撮影された搭乗予定人物の顔画像から高精度特徴量算出部246で算出された高精度の顔特徴量の情報が登録される。
顔情報中精度407には、チェックイン機110で撮影された搭乗予定人物の顔画像から中精度特徴量算出部247で算出された中精度の顔特徴量の情報が登録される。
チェックイン時刻408には、チェックイン機110で人物がチェックインを完了した時刻が登録される。
手続き状態409には、搭乗手続きの完了状態を示す情報が登録される。なお手続き状態409の情報は、当該空港でチェックインを行っていない場合にはN/Aとなされ、チェックインが行われると「チェックイン」となされ、保安検査が完了すると「保安検査」、搭乗ゲートを通過すると再び「N/A」となされる。
搭乗完了時刻410には、搭乗口のゲート127bを通過し、顔認識後に照合された時の時刻が登録される。
なお、搭乗者データベースには、会員の年齢などの属性情報や顔画像なども保存されていてもよい。
図5は、前述したサーバ装置130のハードウェア構成の一例を示す図である。図5に示すように、サーバ装置500は、CPU501、ROM502、RAM503、記録装置504、通信装置505、入力装置506及び表示装置507を有する。なお通信装置505は、ネットワーク511を介して前述したチェックイン機110および認識ゲート120に接続されている。
CPU501は、ROM502に記録された制御プログラムおよび情報処理プログラムを読み出して各種処理を実行する。
RAM503は主メモリやワークエリア等の一時記憶領域として用いられる。
記録装置504は、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)を有し、画像データファイルや搭乗者データベース等を保存する。
表示装置507は、液晶ディスプレイ又は有機ELディスプレイで構成される装置である。
入力装置506は、図2のサーバ装置130の入力部241に対応したユーザインタフェースである。入力装置506は、表示装置507のディスプレイと共にタッチパネルを構成していてもよいし、キーボード、ボタン、スイッチ、及びこれらの組み合わせを含んでいてもよい。
通信装置505は、図2のサーバ装置130の通信部242に対応しており、ネットワーク511を介して通信を行う装置である。
以上のように、サーバ装置500のハードウェア構成は、PC(パーソナルコンピュータ)に搭載されているハードウェア構成と同様のハードウェア構成要素を有している。そのため、サーバ装置500で実現される各種機能は、PC上で動作するソフトウェアとして実装することが可能である。サーバ装置500は、CPU501がプログラムを実行することにより、図2に示したサーバ装置130の各機能部および後述するフローチャートの処理を実現することができる。
なおチェックイン機110や認識ゲート120についても基本的には図5と同様のハードウェア構成を有していてもよい。
次に、本実施形態に係る搭乗システムにおいて、飛行機に搭乗する予定の人物Aがチェックインし、手荷物検査等の保安検査を経て、搭乗口から飛行機に搭乗するまでの一連の手続きの概略的な流れを図6のフローチャートを用いて説明する。なおこれ以降の各フローチャートにおいて用いる符号のSは、それぞれ処理ステップを表しているとする。
まずS10において、チェックイン機110は、サーバ装置130と連携して、飛行機へ搭乗する予定の人物Aによるチェックイン手続、および当該人物Aに対するチェックイン処理を行う。
次にS11において、保安検査場の認識ゲート120aは、サーバ装置130と連携して、チェックイン機110のゲートを通過して保安検査場に来た人物Aに対し、保安検査の本人確認のための認識処理を行う。
次にS12において、搭乗口の認識ゲート120bは、サーバ装置130と連携して、搭乗口に来た人物Aに対し、飛行機へ搭乗可能な人物であるかどうかの本人確認のための認識処理を行う。このS12において認識処理が完了すると、人物Aは飛行機に搭乗することができる。
次に、図6のS10で行われる処理、すなわち人物Aがチェックインする際のチェックイン処理の流れを、図7のフローチャートを用いて説明する。本実施形態において、図7に示したチェックイン処理は、チェックイン機110とサーバ装置130が連携して行う処理である。
まずチェックイン機110側で行われる処理の流れから説明する。
S101において、チェックイン機110の制御部203は、読み取り部201を介して、IC旅券のICチップから顔画像、生年月日、および氏名等の情報を読み出す。読み取り部201によってIC旅券のICチップから読み出された情報は、以降、この搭乗システムにおいて当該人物Aに係る「登録情報」として扱われる。すなわち登録情報には、人物Aの顔画像、生年月日、氏名等の情報が含まれる。また本実施形態の搭乗システムでは、人物Aの登録情報のうち特にIC旅券のICチップから読み出された顔画像を「登録画像」として扱う。
そしてS102において、制御部203は、IC旅券から取得した登録情報を、通信部207を介してサーバ装置130に送信する。
次にS103において、制御部203は、当該チェックイン機110の前にいる人物Aの顔を撮影するように、撮影部202を制御する。本実施形態の搭乗システムにおいて、チェックイン機110の撮影部202が撮影した人物Aの顔画像は、「照合画像」として扱われる。
そしてS104において、制御部203は、S103でチェックイン機110の撮影部202が撮影した人物Aの顔画像である照合画像を、通信部207を介してサーバ装置130に送信する。詳細は後述するが、このときのサーバ装置130では、チェックイン機110にて取得された登録画像と照合画像とを用い、それら登録画像の人物と照合画像の人物とが同一の人物であるか否かを判定する照合処理が行われる。そしてサーバ装置130からは、登録画像と照合画像の人物が同一人物か否かの判定結果が、チェックイン機110に送られてくる。
S105において、制御部203は、サーバ装置130から判定結果を受信したか否かを判定し、判定結果を受信したと判定した場合、次のS106において、その判定結果を表示部205に表示させる。
そしてS107において、制御部203は、サーバ装置130からの判定結果が、同一人物であることを示す「合」であるか否かを判定し、「合」である場合には次のS108においてゲート208を開かせるように駆動部209に指示を出す。一方、制御部203は、サーバ装置130からの判定結果が、同一人物であることを示す「合」でない場合にはチェックイン機110における処理を終了する。つまり判定結果が同一人物でないことを示す場合、チェックイン機110のゲート208は開かない。
次にチェックイン機110と連携して、サーバ装置130において行われる処理の流れを説明する。
S201において、サーバ装置130の制御部244は、通信部242を介して、チェックイン機110から登録画像を含む登録情報を受信する。
さらにS202において、制御部244は、通信部242を介してチェックイン機110から照合画像を受信する。
次にS203において、制御部244は登録画像と照合画像とを顔認識部245に送り、顔認識部245はそれら登録画像と照合画像とからそれぞれ顔画像を検出し、さらにその顔画像から特徴量を算出する処理を行う。このときの顔認識部245では、顔検出部249が登録画像と照合画像からそれぞれ顔画像を検出し、それら登録画像と照合画像からそれぞれ検出された顔画像について、高精度特徴量算出部246が特徴量つまり高精度特徴量を算出する。
次にS204において、顔認識部245の類似度算出部250は、登録画像の顔画像から高精度特徴量算出部246が算出した特徴量と、照合画像の顔画像から高精度特徴量算出部246が算出した特徴量とを比較して、類似度Siを算出する。このとき算出される類似度Siとは、人物Aの本人らしさを示す数値である。
次にS205において、制御部244は、類似度算出部250にて算出された類似度Siが所定の類似度閾値以上であるか否かを判断する。以下、類似度閾値をSthとする。そして類似度Siが類似度閾値以上(Sth以上)である場合、制御部244は、S206において、登録画像と照合画像の人物は同一人物、すなわち本人であるとの照合処理結果を得る。一方、類似度Siが類似度閾値未満(Sth未満)である場合、制御部244は、S207において、登録画像と照合画像の人物は異なる人物、すなわち他人であるとの判定結果を得る。
S206において本人であるとの判定結果が得られると、制御部244は、S208において、顔認識部245に対して照合画像を用いた顔検出処理と特徴量算出処理とを行わせる。このときの顔認識部245では、顔検出部249が照合画像から顔画像を検出し、当該照合画像から検出された顔画像について、中精度特徴量算出部247が特徴量を算出、つまり中精度特徴量を算出する。
次にステップS209において、制御部244は、S203で照合画像から取得された高精度特徴量を搭乗者データベースの顔情報高精度406に、S208で照合画像から取得された中精度特徴量を搭乗者データベースの顔情報中精度407に格納する。またこの時、制御部244は、搭乗者データベースに対し、現在のタイムスタンプをチェックイン時刻408とし、さらに手続き状態409を「チェックイン」にする。
その後、S210において、制御部244は、S206またはS207で取得した判定結果を、通信部242を介してチェックイン機110に送信する。
本実施形態では、チェックイン時において、登録画像の顔画像と照合画像の顔画像からそれぞれ算出した高精度特徴量を用いた顔認識処理で同一人物か否かを判定し、同一人物であると判定した場合、さらに照合画像の顔画像から中精度特徴量算出処理を行う。そして、同一人物か否かの判定の際に照合画像の顔画像から算出した高精度特徴量と、同一人物であると判定された際に照合画像の顔画像から算出した中精度特徴量とを、当該人物に対応させて搭乗者データベースに保存する。ここで、顔認識処理の際には同精度の特徴量同士で比較を行う必要があり、高精度特徴量と中精度特徴量のような精度の異なる特徴量同士を比較することはできない。このため、チェックイン時には、高精度特徴量と共に中精度特徴量をも算出し、それらを搭乗者データベースに保存するようにしている。これによりサーバ装置130では、後に保安検査場や搭乗口での本人確認のための顔認識処理を行う際、搭乗者データベースに保存している特徴量つまり高精度特徴量と中精度特徴量の何れかを用いた顔認識処理を行うことができる。
次に、人物Aが保安検査場を通る際に認識ゲート120(図1の認識ゲート120a)とサーバ装置130が連携して行う認識処理の流れを、図8のフローチャートを用いて説明する。
まず保安検査場の認識ゲート120側で行われる処理の流れから説明する。保安検査場の認識ゲート120の制御部222は、センサ230が人物を検知したときにフローチャートの処理を開始する。
S301において、保安検査場の認識ゲート120の制御部222は、撮影部221を制御して、当該認識ゲート120に向かって歩いてくる人物Aを撮影させる。本実施形態の搭乗システムにおいて、保安検査場の認識ゲート120の撮影部221が撮影した人物Aの画像は「照合画像」として扱われる。
そしてS302において、制御部222は、S301で撮影部221が人物Aを撮影した照合画像を、通信部226を介してサーバ装置130に送信する。詳細は後述するが、このときのサーバ装置130では、保安検査場の認識ゲート120で取得された照合画像の人物が、チェックイン処理で搭乗者データベースに登録された人物Aと同一人物であると特定できたか否かの判定処理が行われる。そしてサーバ装置130からは、同一人物であると「特定」できたか否かの判定結果が、保安検査場の認識ゲート120に送られてくる。
S303において、制御部222は、サーバ装置130から判定結果を受信したか否かを判定し、判定結果を受信したと判定した場合、次のS304において、その判定結果を表示部224に表示させる。
そしてS305において、制御部222は、サーバ装置130からの判定結果が、人物Aであると「特定」されたことを示しているか判定し、「特定」の判定結果が得られた場合、保安検査場の認識ゲート120における処理を終了する。つまりサーバ装置130からの判定結果が「特定」である場合、その人物は、開いている状態のゲート227を通過することができる。一方、サーバ装置130からの判定結果が人物Aであるとの「特定」ではなく「不明」である場合、制御部222は、S306においてゲート227を閉じるように駆動部228に指示を出す。つまりサーバ装置130からの判定結果が「特定」ではなく「不明」である場合、ゲート227が閉じられるため、その人物は通過できないことになる。
次に保安検査場の認識ゲート120と連携して、サーバ装置130において行われる処理の流れを説明する。
S401において、サーバ装置130の制御部244は、通信部242を介して、保安検査場の認識ゲート120から照合画像を受信する。
次にS402において、制御部244は、保安検査場の認識ゲート120から取得した照合画像を顔認識部245に送り、顔認識部245は照合画像から顔画像を検出し、さらにその顔画像から特徴量を算出する処理を行う。このとき、顔認識部245では、顔検出部249が顔検出処理を行い、中精度特徴量算出部247が中精度特徴量を算出する。
次にS403において、制御部244は、搭乗者データベースにおける手続き状態409が「N/A」でないという条件の下、クエリーを発行して、搭乗者データベースから候補者リストを取得する。候補者リストは、例えば当該空港から当日出発する飛行機に搭乗する予定となっている複数の人物のうち、搭乗者データベースの手続き状態409が「N/A」でない各人物のリストである。すなわち制御部244は、搭乗者データベースから、それら各人物におけるID401と氏名402と顔情報高精度406と顔情報中精度407の各情報を含む候補者リストを取得する。
次にS404として、制御部244は、取得した候補者リストの各人物の顔情報中精度407における中精度特徴量と、S402で照合画像から取得された中精度特徴量とを、類似度算出部250に送る。これにより類似度算出部250は、候補者リストの各人物の顔情報中精度407の中精度特徴量と、S402で照合画像から取得された中精度特徴量との類似度を算出する。そして、制御部244は、候補者リストの各人物のなかで、類似度が最も高い人物を、候補者として選出する。
次にS405において、制御部244は、S404で候補者として選出された人物についてS404で算出された類似度Siが、所定の類似度閾値Sth以上であるか否かを判断する。そして、制御部244は、類似度Siが類似度閾値Sth以上であれば、S406において、照合画像の人物は登録画像の人物と同一人物、すなわち照合画像の人物が「特定」されたことを示す判定結果を得る。さらに制御部244は、S408において、ステップS406で特定された候補者における搭乗者データベースの手続き状態409を「保安検査」に更新する。
一方、S405において類似度Siが類似度閾値Sth未満であった場合、制御部244は、S407において、照合画像の人物は登録画像の人物とは同一でない、つまり照合画像の人物は候補者とは異なる人物であると判定する。これにより、認識ゲート120の前に来た人物は「不明」であるとの判定結果が得られる。
その後、S408において、制御部244は、S406またはS407の判定結果を、通信部242を介して保安検査場の認識ゲート120に送信する。
このように、保安検査の際には、チェックイン時に取得されて搭乗者データベースに登録されている中精度特徴量と、保安検査場で取得された照合画像から得られた中精度特徴量とを用いた顔認識処理が行われる。そして、その顔認識処理によって同一人物として特定された場合、保安検査場のゲートが開く。保安検査場での顔認識処理では、処理量が少ない中精度特徴量を用いた顔認識が行われるため、処理コストが抑制される。
次に、人物Aが搭乗口を通る際に認識ゲート120(図1の認識ゲート120b)とサーバ装置130が連携して行う認識処理の流れを、図9のフローチャートを用いて説明する。
まず搭乗口の認識ゲート120側で行われる処理の流れから説明する。搭乗口の認識ゲート120の制御部222は、センサ230が人物を検知したときに図9のフローチャートの処理を開始する。図9のフローチャートにおいて、S301およびS303からS306までは、搭乗口の認識ゲート120で行われること以外、前述した図8におけるS301およびS303からS306までと同様の処理であるため、その説明は省略する。
S301の処理後、S502において、搭乗口の認識ゲート120の制御部222は、S301で撮影部221が人物を撮影して取得した照合画像と、この搭乗口に対応した飛行機の便名情報とを、通信部226を介してサーバ装置130に送信する。飛行機の便名情報は、この搭乗口の認識ゲート120の記憶部223に保持されている。詳細は後述するが、このときのサーバ装置130では、搭乗口の認識ゲート120で取得された照合画像の人物が、チェックイン処理で搭乗者データベースに登録された人物Aと同一人物であると特定できたか否かの判定処理が行われる。そしてサーバ装置130からは、同一人物であると「特定」できたか否かの判定結果が、搭乗口の認識ゲート120に送られてくる。
次に搭乗口の認識ゲート120と連携して、サーバ装置130において行われる処理の流れを説明する。図9のフローチャートにおいて、サーバ装置130側のS402およびS404からS407まで、さらにS409は、前述した図8におけるS402およびS404からS407まで、さらにS409と同様の処理であるため、その説明は省略する。
S601において、サーバ装置130の制御部244は、通信部242を介して、搭乗口の認識ゲート120がS502で送信した照合画像と飛行便名の情報を受信する。その後、制御部244は、前述したS402の顔検出および特徴量算出の処理を行った後に、S603の処理を実行する。
S603において、制御部244は、搭乗者データベースの手続き状態409が「N/A」でなく、かつ搭乗予定便名404がS601で取得した便名と等しいという条件の下、クエリーを発行して、搭乗者データベースから候補者リストを取得する。ここでの候補者リストは、当該搭乗口から出発する便面の飛行機に搭乗する予定となっている複数の人物のうち、搭乗者データベースの手続き状態409が「N/A」でなく、かつ搭乗予定便名404がS601で取得した便名と等しい各人物のリストである。すなわち制御部244は、搭乗者データベースから、各人物のID401と氏名402と顔情報高精度406と顔情報中精度407の各情報を含む候補者リストを取得する。
その後、制御部244は、前述同様のS406の処理が行われた場合、S608において、ステップS406で特定された候補者における搭乗者データベースの手続き状態409を「N/A」に更新する。そして、S608の処理後、制御部244は、前述同様のS409に処理を進める。
このように、搭乗口では、チェックイン時に取得されて搭乗者データベースに登録されている中精度特徴量と、搭乗口で取得された照合画像から得られた中精度特徴量とを用いた顔認識処理が行われる。そして、その顔認識処理によって同一人物として特定された場合、搭乗口のゲートが開く。搭乗口での顔認識処理では、処理量が少ない中精度特徴量を用いた顔認識が行われるため、処理コストが抑制される。
以上説明したように第1の実施形態の搭乗システムでは、人物Aが搭乗手続きのための「チェックイン」「保安検査」「搭乗」を行う際に、入場時には高精度特徴量を用い、それ以降は中精度特徴量を用いた顔認識を行うようにする。これにより、サーバ装置130における処理コストを低減させることが可能となる。すなわち本実施形態によれば、顔認識を用いたシステムにおいて、特徴量の算出処理と類似度の算出処理の処理量を削減し、また処理時間も短縮でき、かつ、高い認識精度を維持することが可能となる。
なお前述した実施形態では、チェックイン時にIC旅券を使用する人物の顔画像(登録画像)と撮像された照合画像とを比較して、本人か否かを確認したが、この例には限定されない。例えば変形例1として、人物Aが航空会社の会員登録システムなどに予め顔画像を登録している場合、その会員登録システムに登録されている顔画像を登録画像として用い、照合画像との比較を行ってもよい。すなわちこの場合、航空会社の会員登録システムが本実施形態に係る所定の媒体であり、登録画像はこの会員登録システムから取得される。
また前述の実施形態では、保安検査場や搭乗口の認識ゲート120において中精度特徴量を用いて顔認識を行っていたが、これに限るものではない。例えば、保安検査場や搭乗口の認識ゲート120において同時に複数の顔画像が撮影された場合、それら複数の顔画像に対する認識処理は負荷が多くなる。一方で、撮影された画像内の顔画像が1つ等のように少ない場合には、高精度特徴量を用いた認識処理を行ったとしても負荷はさほど大きくならないこともある。そこで第1の実施形態の変形例2では、所定の解析処理として、認識ゲート120で取得した画像に同時に写る顔画像の数を取得し、その顔画像の数が所定の数閾値以上か否かを判定する。そして、その解析処理の結果、顔画像の数が所定の数閾値以上である場合には中精度特徴量を用いた認識処理を行うようにし、一方、顔画像の数が数閾値未満である場合には高精度特徴量を用いた認識処理を行うようにする。なお、所定の数閾値は、認識処理の負荷に応じて予め決められていてもよいし、認識処理負荷が、或る負荷閾値を超えるか否かによって決められてもよい。
<第2の実施形態>
次に、第2の実施形態について説明する。ここでは第1の実施形態とは異なる内容についてのみ説明し、それ以外については第1の実施形態と同様であるとする。
第2の実施形態の場合、サーバ装置130は、認識ゲート120から送られた顔画像に対し、第1の実施形態の変形例2とは異なる所定の解析処理を行う。そして、第2の実施形態のサーバ装置130は、その解析結果を基に、高精度特徴量による顔認識処理を行うか、中精度特徴量による顔認識処理を行うかを選択する。第2の実施形態の場合、サーバ装置130では、保安検査場や搭乗口の認識ゲート120から送られてくる顔画像が、高精度特徴量を用いた認識処理を行うことが望ましい顔画像であるかどうかを解析する処理を行う。そして、高精度特徴量を用いた認識処理を行うことが望ましいとの解析結果が得られた場合に、高精度特徴量を用いた顔認識処理を行うようにする。
ここで、認識ゲート120から送られてくる顔画像において、高精度特徴量を用いた認識処理が望ましいとされる場合とは、例えば、顔が髪の毛やマスク、サングラス等で覆われているような条件を挙げることができる。本実施形態では、撮影された顔画像を解析することで、そのような条件を満たすかどうかを判断し、当該条件を満たした場合には高精度特徴量を用いた顔認識処理を実施する。
以下、保安検査場の認識ゲート120がサーバ装置130と連携して行う場合を例に挙げて、第2の実施形態における処理を説明する。図10は、第2の実施形態における処理の流れを示したフローチャートである。図10のフローチャートにおいて、保安検査場の認識ゲートにおける処理のうち、S301からS306までは、前述した図8のS301からS306と同様の処理であるため、それらの説明は省略する。またサーバ装置130側の処理のうち、S401およびS403からS409までは、図8のS401およびS403からS409までの処理と同様であるため3、それらの説明も省略する。
第2の実施形態において、サーバ装置130側の処理のうち図8のフローチャートと異なるのはS401の後、S701からS705の処理が実行されることである。また第2の実施形態のサーバ装置130では、S703の処理後にはS403の処理に移行し、S705の処理後にはS404の処理に移行する。
S701において、サーバ装置130の制御部244は、保安検査場の認識ゲート120から受信した照合画像を入力として、顔認識部245の顔検出部249が顔検出処理を行い、顔器官の尤度を算出する。
次にS702において、制御部244は、顔認識部245で算出されたすべての顔器官の尤度Pが、所定の尤度閾値以上であるかを判断する。以下、尤度閾値をPthとする。
ここで前述した図3(a)は、顔器官の尤度Pが尤度閾値以上(Pth以上)である場合の例を示している。このように、顔器官の尤度Pが尤度閾値Pth以上である場合、顔器官が尤もらしく、各顔器官は髪の毛やマスク、サングラス等で遮られておらずに露出している可能性が高いと判断できる。すなわち本実施形態では、顔器官の尤度によって顔の遮蔽の程度を判断しており、顔器官の尤度が尤度閾値以上である場合に各顔器官は遮られておらずに顔が十分に露出している(顔の隠れの程度が少ない)可能性が高いと判定する。
このため、制御部244は、すべての顔器官の尤度Pが尤度閾値Pth以上である場合、S703において、照合画像を入力として、顔認識部245の中精度特徴量算出部247で中精度特徴量を算出させる。そして制御部244は、S703の処理後、S403に処理を進め、前述同様にして搭乗者データベースから候補者リストを取得し、さらに候補者リストに含まれる各人物のID401と氏名402と顔情報中精度407の中精度特徴量とを取得する。
すなわちS703からS403に進んだ場合、制御部244は、S703で取得した候補者リストの各人物の顔情報中精度407における中精度特徴量と、S703で照合画像から算出された中精度特徴量とを、類似度算出部250に送る。これにより類似度算出部250は、候補者リストの各人物の顔情報中精度407の中精度特徴量と、照合画像の中精度特徴量との類似度を算出する。そして、制御部244は、候補者リストの各人物のなかで、顔情報中精度407の中精度特徴量と照合画像の中精度特徴量との類似度が最も高い人物を、候補者として選出する。
一方、図3(b)は、各顔器官の少なくとも一部が髪の毛やマスク、サングラス、或いは他の人物等によって遮られている場合の例を示している。図3(b)のように、各顔器官の少なくとも一部が遮られている場合、顔器官の尤度Pは尤度閾値未満(Pth未満)になる可能性が高い。したがって顔器官の尤度Pが尤度閾値Pth未満である場合、顔器官は尤もらしくなく、顔器官が遮られている可能性が高いと判断できる。すなわち本実施形態では、顔器官の尤度を基が尤度閾値未満である場合には、各顔器官が遮られている可能性が高いと判定する。
このため、制御部244は、少なくとも一部の顔器官の尤度Pが尤度閾値Pth未満である場合、S704において、照合画像を入力として、顔認識部245の高精度特徴量算出部246で高精度特徴量の算出処理を行わせる。
そして制御部244は、次のS705において、搭乗者データベースの手続き状態409が「N/A」でないという条件の下、クエリーを発行して、搭乗者データベースから候補者リストを取得する。すなわち制御部244は、搭乗者データベースから、それら各人物のID401と氏名402と顔情報高精度406の高精度特徴量の各情報を含む候補者リストを取得する。このS705の処理後、制御部244は、S404に処理を進める。
S705からS404に進んだ場合、制御部244は、S705で取得した候補者リストの各人物の顔情報高精度406における高精度特徴量と、S704で照合画像から算出された高精度特徴量とを、類似度算出部250に送る。これにより類似度算出部250は、候補者リストの各人物の顔情報高精度406の高精度特徴量と、照合画像の高精度特徴量との類似度を算出する。そして、制御部244は、候補者リストの各人物のなかで、顔情報高精度406の高精度特徴量と照合画像の高精度特徴量との類似度が最も高い人物を、候補者として選出する。
第2の実施形態では、保安検査場の認識ゲート120を例に挙げて説明したが、搭乗口の認識ゲート120で同様に、照合画像の顔器官の尤度に応じて、中精度特徴量を用いた顔認識処理と高精度特徴量を用いた顔認識処理のいずれを行うかを切り替える。
第2の実施形態によれば、所定の解析処理として、顔器官の尤度を用いて顔の一部の遮蔽の程度を解析し、その解析結果を基に高精度特徴量を用いた認識処理を行うかどうかを決定している。すなわち、尤度が尤度閾値未満となる状況では高精度特徴量を用いた認識処理を行い、尤度が尤度閾値以上となる状況では中精度特徴量を用いた認識処理を行うようにする。このように、第2の実施形態では、所定の解析処理の結果に応じて、高精度特徴量か中精度特徴量のいずれを認識処理に用いるかを切り替えることによって、処理量の低減と高い認識精度の維持とが実現可能となる。
第2の実施形態では、顔器官の尤度を用いて顔の露出状態を判定しているが、この例に限るものではない。例えば変形例3における所定の解析処理として、画像から顔を遮蔽するサングラスやマスクといった遮蔽物の画像を検知し、その遮蔽物の検知結果から認識精度が低下する状況であるかどうかを解析してもよい。変形例3の場合、遮蔽物の検知結果から認識精度が低下するとの解析結果が得られた場合には高精度特徴量を用いた認識処理を行うようにし、それ以外では中精度特徴量を用いた認識処理を行うようにする。
また一般に、顔認識処理では、対象となる人物の顔が撮影部に対して正対していると認識精度が高くなる。このため、例えば変形例4における所定の解析処理として、顔の向きを検出する顔向き検出処理を行い、顔向きが撮像部に対して正対しているか否かを解析してもよい。変形例4の場合、顔向きが撮像部に対して正対していないとの解析結果が得られた場合には高精度特徴量を用いた認識処理を行い、一方、顔向きが撮像部に対して正対しているとの解析結果が得られた場合には中精度特徴量を用いた認識処理を行うようにする。これにより、処理量の低減と高い認識精度の維持を実現可能となる。
<第3の実施形態>
第1,第2の実施形態では、空港でのチェックイン処理の際には高精度特徴量を用いた顔認識処理を行い、その後の保安検査場や搭乗口の認識ゲート120では中精度特徴量を用いた顔認識処理を行うことで処理コストを低減可能としている。これに対し、第3の実施形態では、チェックイン処理時だけでなく、保安検査場や搭乗口で行われるすべての顔認識処理で基本的には高精度特徴量を用いた処理を行うようにする。
第3の実施形態の場合、サーバ装置130では、認識ゲート120からの顔画像に対して、前述の例で挙げたのとは異なる解析処理を行い、その解析結果を基に、高精度特徴量による顔認識処理を行うか、中精度特徴量による顔認識処理を行うかを選択する。第3の実施形態の場合、所定の解析処理は、高精度特徴量を用いても高い認識精度の結果が望めないか否かを判断するのに使用可能な情報を取得する処理である。第3の本実施形態の場合、所定の解析処理の結果、高精度特徴量を用いても高い認識精度の結果が望めないと判断できるときには、中精度特徴量を用いた顔認識処理を行うようにする。
一具体例を挙げると、所定の解析処理として、撮影画像から検出した顔部の画像サイズを取得する。ここで、撮影画像から検出した顔部の画像サイズが小さい場合には、その情報量が少ないために高精度特徴量を用いた処理を行っても十分な精度の顔認識処理結果が得らえない可能性が高い。したがって第3の実施形態では、撮影画像から検出した顔部の画像サイズが小さい場合には、中精度特徴量を用いた顔認識処理を行うようにして処理コストの低減を図る。
第3の実施形態においても、第1,第2の実施形態とは異なる点についてのみ説明し、それ以外については第1,第2の実施形態と同様であるとする。以下、第3の実施形態において、保安検査場の認識ゲート120とサーバ装置130とが連携する場合を例に挙げて、第3の実施形態における処理を説明する。図11は、第3の実施形態における処理の流れを示したフローチャートである。図11のフローチャートにおいて、保安検査場の認識ゲート120における処理は前述の図8のS301からS306までと同様であるため、それらの説明は省略する。またサーバ装置130側のS401およびS403からS409までは図8のS401およびS403からS409までと同様であるため、それらの説明は省略する。
第3の実施形態において、サーバ装置130側の処理のうち図8のフローチャートと異なるのはS401の後、S801からS802の処理が実行されることである。また第3の実施形態のサーバ装置130において、S703およびS704からS705の処理は、図10のS703およびS704からS705の処理と同様であるためそれらの説明は省略する。
S801において、サーバ装置130の制御部244は、保安検査場の認識ゲート120から受信した照合画像を入力として、顔認識部245の顔検出部249が顔検出処理を行い、顔の境界枠の幅および高さ情報を算出する。
次にS802において、制御部244は、顔検出部249にて検出された顔の境界枠のサイズが所定のサイズ閾値未満か否かを判断する。そして制御部244は、顔の境界枠のサイズがサイズ閾値未満である場合、高精度特徴量を用いても顔認識を行う上では十分な情報量を取得できないと判断し、顔認識部245にS703の処理を実行させる。一方、顔の境界枠のサイズがサイズ閾値以上である場合、制御部244は、高精度特徴量を用いた顔認識を行う上で十分な情報量を含んでいると判断し、顔認識部245にS704の処理を実行させる。本実施形態では、顔の境界枠のサイズとして、当該境界枠の幅と高さを用いる。すなわち制御部244は、顔の境界枠の幅が所定の幅閾値未満であるかと、境界枠の高さが所定の高さ閾値未満であるかと、を判断する。そして制御部244は、境界枠の幅が幅閾値未満となる条件と、境界枠の高さが高さ閾値未満となる条件との、少なくとも一方が満たされる場合、高精度特徴量を用いた顔認識を行う上では十分な情報量を取得できないと判断する。一方、顔の境界枠の幅が幅閾値以上で且つ境界枠の高さが高さ閾値以上である場合、制御部244は、高精度特徴量を用いた顔認識を行う上で十分な情報量を含んでいると判断する。
ここでは保安検査場の認識ゲート120を例に挙げて説明したが、搭乗口の認識ゲート120においても前述同様に、照合画像の顔画像のサイズに応じて、中精度特徴量を用いた顔認識処理を行うか、高精度特徴量を用いた顔認識処理を行うかを切り替える。
第3の実施形態では、所定の解析処理として、検出した顔のサイズを算出し、さらにサイズに基づいて顔認識を行うのに十分な情報量を取得できるかを判断する。そして、その判断結果に応じて中精度と高精度のいずれの特徴量を用いた顔認識処理を行うかを切り替えることで、処理量の低減と高い認識精度の維持とを実現可能とする。言い換えると、第3の実施形態では、十分な情報量を持った検出顔画像のみにおいて高精度特徴量を用いた認識処理を行い、それ以外では中精度特徴量を用いることで、不必要な計算処理を削減することを可能にしている。
なお例えば、保安検査場において、ウォークスルー方式となっていて人物が移動している際の画像をフレーム毎に逐次撮像して取得する場合、顔のサイズは小さいサイズから徐々に大きいサイズに変化する。このため、顔サイズが小さいうちは中精度特徴量を用いた顔認識が行われ、顔サイズが大きくなった時点で高精度特徴量を用いた顔認識が行われることになる。
前述した各実施形態では、チェックイン機110と、保安検査場や搭乗口の認識ゲート120において撮像する画像は1枚であったが、これに限ることはなく複数枚の画像を撮影し、それら複数枚の撮影画像に対して処理を行ってもよい。そしてそれら複数の撮影画像毎の処理結果を考慮して本人確認の判定を行ってもよい。その際、撮影画像毎の処理結果の累積結果を考慮して、人物特定を行ってもよい。またその際には、撮影画像毎に算出された類似度に対して重み付けを行い積算してもよいし、特徴量算出処理の種類に応じて重みを各々設定してもよい。
具体的な例を挙げて説明する。例えば、認識の対象となっている人物が認識ゲートを通過する際に、その人物を5fps(フレーム/秒)で撮像し、当該人物が1秒間で通過する場面を想定すると、5枚の撮影画像が得られる。この時、人物は、認識ゲートのカメラに徐々に近づくため、それら5枚の画像に写る顔の境界枠の幅は、境界枠の幅閾値よりも大きいか小さいかで表すと、順に「小」、「小」、「大」、「大」、「大」のようになると考えられる。ここで第3の実施形態の場合、境界枠の幅が幅閾値より小さければ中精度の特徴量抽出とそれを用いた照合を行い、境界枠の幅が幅閾値より大きければ高精度の特徴量抽出とそれを用いた照合を行う。したがって、それら5枚の画像に写る顔については、順に、「中精度」、「中精度」、「高精度」、「高精度」、「高精度」の特徴量抽出と照合が行われる。例えば、搭乗者データベース内の、或る人物との類似度の値が順に「500」、「600」、「700」、「700」、「600」であるとすると、高精度の特徴量に対して重み(例えば2倍)を付けて積算して重み付け類似度を算出する。つまりこの例の場合の重み付け類似度は、(500+600+2×700+2×700+2×600)=5100が算出される。そして、この重み付け類似度を基に、人物の特定を行う。
その他の例として、前述した各実施形態では、認識ゲート120が保安検査場と搭乗口に配置されていたが、これに限るものではない。
また、前述した各実施形態では、パスポート等のIC旅券に記録された登録情報に含まれる登録画像から特徴量を取得する例を挙げたが、これには限らない。例えば、航空会社等における会員登録システムから予め会員の顔画像情報を収集しておき、その収集した顔画像情報から特徴量を算出しておいて、搭乗者データベースに登録しておいてもよい。
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置、110:チェックイン機、120a:保安検査場の認識ゲート2、120b:搭乗口の認識ゲート、140:データベース

Claims (21)

  1. 第1のゲート前に来た人物の顔を撮影した第1の顔画像を取得する第1の取得手段と、
    特定の人物について所定の媒体に用意された第2の顔画像を取得する第2の取得手段と、
    前記第1のゲートとは異なる場所に配された第2のゲート前に来た人物の顔を撮影した第3の顔画像を取得する第3の取得手段と、
    顔画像から第1の抽出処理によって第1の特徴情報を抽出する第1の抽出手段と、
    顔画像から前記第1の抽出処理よりも処理量が少ない第2の抽出処理によって第2の特徴情報を抽出する第2の抽出手段と、
    顔画像から抽出された特徴情報を用いて人物の照合処理を行う照合手段と、
    を有し、
    前記照合手段は、
    前記第1の顔画像から前記第1の抽出手段が抽出した第1の特徴情報と、前記第2の顔画像から前記第1の抽出手段が抽出した第1の特徴情報とを用いて、前記第1のゲート前の人物が前記特定の人物であるかを判定する第1の照合処理を行い、
    前記第1の照合処理により前記特定の人物であると判定した場合に、前記第1の顔画像から前記第2の抽出手段が抽出した第2の特徴情報を保持し、
    前記第3の顔画像から前記第2の抽出手段が抽出した第2の特徴情報と、前記保持した第2の特徴情報とを用いて、前記第2のゲート前に来た人物が前記特定の人物であるかを判定する第2の照合処理を行う
    ことを特徴とする情報処理装置。
  2. 前記第2の取得手段は、前記所定の媒体としての、前記特定の人物が有する個人識別カードまたは前記特定の人物が登録している所定の会員登録システムから、前記第2の顔画像を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の抽出処理と前記第2の抽出処理とは、回路規模が異なるニューラルネットワークを用いた処理であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第2の抽出処理は、前記第1の抽出処理よりも回路規模が小さいニューラルネットワークを用いた処理であることを特徴とする請求項3に記載の情報処理装置。
  5. 前記照合手段は、
    前記第1の顔画像から前記第1の抽出手段が抽出した前記第1の特徴情報をも保持し、
    前記第3の顔画像から前記第1の抽出手段が抽出した第1の特徴情報と、前記保持した第1の特徴情報とを用いて、前記第2のゲート前に来た人物が前記特定の人物であるかを判定する第3の照合処理を行う機能をも有することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記照合手段は、前記第3の画像に対する所定の解析処理の結果を基に、前記第2の照合処理を行うか、または前記第3の照合処理を行うかを選択することを特徴とする請求項5に記載の情報処理装置。
  7. 前記所定の解析処理は、前記第2のゲート前を撮影した画像に写る前記第3の顔画像の数を取得する処理であることを特徴とする請求項6に記載の情報処理装置。
  8. 前記照合手段は、前記第3の顔画像の数が所定の数閾値以上である場合に前記第2の照合処理を選択することを特徴とする請求項7に記載の情報処理装置。
  9. 前記所定の解析処理は、前記第3の顔画像における顔の遮蔽の程度を取得する処理であることを特徴とする請求項6に記載の情報処理装置。
  10. 前記照合手段は、前記顔の遮蔽の程度として、前記第3の顔画像における顔の器官の尤度を取得することを特徴とする請求項9に記載の情報処理装置。
  11. 前記照合手段は、前記第3の顔画像における前記顔の器官の尤度が尤度閾値以上である場合に前記第2の照合処理を選択することを特徴とする請求項10に記載の情報処理装置。
  12. 前記所定の解析処理は、前記第3の顔画像から所定の遮蔽物の画像を検出する処理であることを特徴とする請求項6に記載の情報処理装置。
  13. 前記照合手段は、前記第3の顔画像から前記所定の遮蔽物の画像が検出された場合に前記第3の照合処理を選択することを特徴とする請求項12に記載の情報処理装置。
  14. 前記所定の解析処理は、前記第3の顔画像における顔の向きを検出する処理であることを特徴とする請求項6に記載の情報処理装置。
  15. 前記照合手段は、前記第3の顔画像から検出された顔の向きが正対する向きでない場合に前記第3の照合処理を選択することを特徴とする請求項14に記載の情報処理装置。
  16. 前記所定の解析処理は、前記第3の顔画像における顔のサイズを取得する処理であることを特徴とする請求項6に記載の情報処理装置。
  17. 前記照合手段は、前記第3の顔画像における前記顔のサイズが所定のサイズ閾値未満である場合に前記第2の照合処理を選択することを特徴とする請求項16に記載の情報処理装置。
  18. 前記照合手段は、
    前記第2の照合処理では、前記第2の抽出手段が前記第3の顔画像から抽出した第2の特徴情報と前記保持した第2の特徴情報との類似度を基に前記特定の人物であるかを特定し、
    前記第3の照合処理では、前記第1の抽出手段が前記第3の顔画像から抽出した第1の特徴情報と前記保持した第1の特徴情報との類似度を基に前記特定の人物であるかを特定し、
    前記所定の解析処理の結果を基に、前記第2の照合処理と前記第3の照合処理のいずれが選択されたかによって、前記類似度に重み付けを行うことを特徴とする請求項6乃至17のいずれか1項に記載の情報処理装置。
  19. 第1のゲート前に来た人物の顔を撮影して第1の顔画像を取得する第1の撮像装置と、
    前記第1のゲートとは異なる位置に配された第2のゲート前に来た人物の顔を撮影して第3の顔画像を取得する第2の撮像装置と、
    特定の人物について所定の媒体に用意された第2の顔画像を取得する取得手段と、顔画像から第1の抽出処理によって第1の特徴情報を抽出する第1の抽出手段と、顔画像から前記第1の抽出処理よりも処理量が少ない第2の抽出処理によって第2の特徴情報を抽出する第2の抽出手段と、顔画像から抽出された特徴情報を用いて人物の照合処理を行う照合手段とを有する情報処理装置と、を備え、
    前記情報処理装置は、
    前記第1の顔画像から前記第1の抽出手段が抽出した第1の特徴情報と、前記第2の顔画像から前記第1の抽出手段が抽出した第1の特徴情報とを用いて、前記第1のゲート前の人物が前記特定の人物であるかを判定する第1の照合処理を行い、
    前記第1の照合処理により前記特定の人物であると判定した場合に、前記第1の顔画像から前記第2の抽出手段が抽出した第2の特徴情報を保持し、
    前記第3の顔画像から前記第2の抽出手段が抽出した第2の特徴情報と、前記保持した第2の特徴情報とを用いて、前記第2のゲート前に来た人物が前記特定の人物であるかを判定する第2の照合処理を行う
    ことを特徴とする情報処理システム。
  20. 第1のゲート前に来た人物の顔を撮影した第1の顔画像を取得する第1の取得工程と、
    特定の人物について所定の媒体に用意された第2の顔画像を取得する第2の取得工程と、
    前記第1のゲートとは異なる場所に配された第2のゲート前に来た人物の顔を撮影した第3の顔画像を取得する第3の取得工程と、
    顔画像から第1の抽出処理によって第1の特徴情報を抽出する第1の抽出工程と、
    顔画像から前記第1の抽出処理よりも処理量が少ない第2の抽出処理によって第2の特徴情報を抽出する第2の抽出工程と、
    顔画像から抽出された特徴情報を用いて人物の照合処理を行う照合工程と、
    を有し、
    前記照合工程では、
    前記第1の顔画像から前記第1の抽出工程で抽出した第1の特徴情報と、前記第2の顔画像から前記第1の抽出工程で抽出した第1の特徴情報とを用いて、前記第1のゲート前の人物が前記特定の人物であるかを判定する第1の照合処理を行い、
    前記第1の照合処理により前記特定の人物であると判定した場合に、前記第1の顔画像から前記第2の抽出工程で抽出した第2の特徴情報を保持し、
    前記第3の顔画像から前記第2の抽出工程で抽出した第2の特徴情報と、前記保持した第2の特徴情報とを用いて、前記第2のゲート前に来た人物が前記特定の人物であるかを判定する第2の照合処理を行う
    ことを特徴とする情報処理方法。
  21. コンピュータを、請求項1乃至19のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2021187866A 2021-11-18 2021-11-18 情報処理装置、情報処理方法及びプログラム Pending JP2023074752A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021187866A JP2023074752A (ja) 2021-11-18 2021-11-18 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021187866A JP2023074752A (ja) 2021-11-18 2021-11-18 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023074752A true JP2023074752A (ja) 2023-05-30

Family

ID=86541387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021187866A Pending JP2023074752A (ja) 2021-11-18 2021-11-18 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2023074752A (ja)

Similar Documents

Publication Publication Date Title
JP7447978B2 (ja) 顔照合システム、顔照合方法、及びプログラム
US8064651B2 (en) Biometric determination of group membership of recognized individuals
JP2000306095A (ja) 画像照合・検索システム
JP2022040245A (ja) 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
JP7196932B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230342451A1 (en) Information processing device
Haji et al. Real time face recognition system (RTFRS)
CN112528706A (zh) 人员识别系统及其方法
CN115862113A (zh) 陌生人异常识别方法、装置、设备及存储介质
CN109448193A (zh) 身份信息识别方法及装置
JP2005293399A (ja) 個人認証方法と装置
JP2023100765A (ja) 情報処理装置、端末装置、情報処理方法及び記録媒体
JP2023074752A (ja) 情報処理装置、情報処理方法及びプログラム
Jeny et al. Deep learning framework for face mask detection
CN111316335A (zh) 用于监测人的系统
US20230377398A1 (en) Information processing apparatus, information processing method, and storage medium
JP7265232B2 (ja) ゲート装置、管理サーバ、出入国審査システム及び出入国審査方法
WO2022034668A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20220101649A1 (en) Information processing system, information processing method, and storage medium for anonymized person detection
WO2022113148A1 (ja) サーバ装置、システム、サーバ装置の制御方法及び記憶媒体
JP7298733B2 (ja) サーバ装置、システム、サーバ装置の制御方法及びコンピュータプログラム
KR102430406B1 (ko) 체온 정보 기반의 출입 관리 시스템 및 그를 이용한 출입 관리 방법
Jenifer et al. Multiple Face Detection and Attendance System Using OpenCV
JP7248348B2 (ja) 顔認証装置、顔認証方法、及びプログラム
WO2024079777A1 (ja) 情報処理システム、情報処理装置、情報処理方法及び記録媒体