WO2022254501A1 - 個人認証装置及び個人認証システム - Google Patents
個人認証装置及び個人認証システム Download PDFInfo
- Publication number
- WO2022254501A1 WO2022254501A1 PCT/JP2021/020635 JP2021020635W WO2022254501A1 WO 2022254501 A1 WO2022254501 A1 WO 2022254501A1 JP 2021020635 W JP2021020635 W JP 2021020635W WO 2022254501 A1 WO2022254501 A1 WO 2022254501A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- personal authentication
- information
- target person
- unit
- condition
- Prior art date
Links
- 238000001514 detection method Methods 0.000 claims abstract description 257
- 238000003384 imaging method Methods 0.000 claims abstract description 70
- 238000000034 method Methods 0.000 claims description 304
- 230000008921 facial expression Effects 0.000 claims description 62
- 238000012795 verification Methods 0.000 claims description 53
- 230000001815 facial effect Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000000193 eyeblink Effects 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 206010048232 Yawning Diseases 0.000 description 1
- 210000001142 back Anatomy 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Collating Specific Patterns (AREA)
Abstract
個人認証処理の結果に高い信頼性が要求される場合であっても、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる個人認証装置を提供する。 個人認証装置に、撮像装置(200)から撮像画像を取得する画像取得部(10)と、撮像画像から、対象人物の顔情報を検出する特徴情報検出部(30)と、顔情報を用いて個人認証処理を実行する認証処理部(40)と、を備え、特徴情報検出部(30)は、実行情報を検出し、認証処理部(40)は、個人認証処理として、第1個人認証処理及び第2個人認証処理のいずれかを実行し、第1個人認証処理は、照合処理と、照合処理の前又は後に、実行判定処理と、を行う処理であり、第2個人認証処理は、照合処理を行う処理である。
Description
本開示は、個人認証装置及び個人認証システムに関する。
車両の内部のユーザを撮像装置により撮像し、撮像された画像に写るユーザを特定する個人認証技術が開発されている。ユーザの個人認証を行い、認証されたユーザに適した、座席シートの位置、室温、及び音響条件等となるよう、車載機器の制御を実行すれば、快適な車内空間をユーザに提供することが可能となる。近年、ユーザの個人認証を行い、決済サーバ等、車両外部のサーバと通信して車両内での決済処理を行う技術も提案されており、安全な決済処理の実行のためには、個人認証処理の結果の信頼性の向上が必要となる。従来、個人認証結果の信頼性の向上を目的として、車両が要求される操作に応じて、声紋、指紋、及び撮像画像等を用いた個人認証処理のうちから、個人認証処理の種別を選択して実行していた(例えば、特許文献1参照)。
撮像画像を用いた個人認証処理の結果の信頼性向上について、撮像装置に対して正面を向いたユーザの顔を撮像した場合に個人認証処理を実行する等、個人認証処理の実行に関する条件を設ければ、信頼性の高い個人認証結果を得られる。一方で、例えば、車両の運転時等においては、ユーザが車両を運転する場合、車両の走行方向に視線を向けなければならず、撮像装置が設けられた位置によっては、必ずしも上記のような個人認証処理の実行に関する条件を満たせるとは限らない。
また、個人認証処理を行って、快適な車内空間をユーザに提供する場合、個人認証結果に求められる信頼性はそれほどまでに高くない一方で、上述したように、例えば、個人認証結果を用いた車両内での決済処理においては、個人認証結果に高い信頼性が求められる。しかしながら、個人認証処理の実行に関する条件を規定しなければ個人認証結果の信頼性を向上できず、一方で、一律に同一の条件を規定してしまうと、個人認証結果の信頼性を向上する必要性が少ない場合においても、規定された条件を満たすために、例えば顔を撮像装置に向けるといった、ユーザにとって煩わしい行動を要求する必要がある等、個人認証処理の実行に関して不都合が生じるという課題があった。
本開示は、上述のような課題を解決するためになされたもので、個人認証処理の結果に高い信頼性が要求される場合であっても、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる個人認証装置を提供することを目的とする。
本開示に係る個人認証装置は、対象人物を撮像する撮像装置から、撮像画像を取得する画像取得部と、撮像画像から、対象人物の顔情報を検出する特徴情報検出部と、顔情報を用いて、対象人物を特定する処理である個人認証処理を実行する認証処理部と、を備え、特徴情報検出部は、撮像画像から、認証処理部による、顔情報を用いて対象人物を照合する処理である照合処理を実行するか否かの判定に関する実行情報を取得し、認証処理部は、個人認証処理として、第1個人認証処理及び第2個人認証処理のいずれかを実行し、第1個人認証処理は、照合処理と、照合処理の前又は後に、実行情報及び設定された第1条件に基づき照合処理を実行するか否かの実行判定処理と、を行う処理であり、第2個人認証処理は、照合処理を行う処理である。
また、本開示に係る個人認証システムは、対象人物を撮像する撮像装置と、撮像装置から、撮像画像を取得する画像取得部と、撮像画像から、対象人物の顔情報を検出する特徴情報検出部と、顔情報を用いて、対象人物を特定する処理である個人認証処理を実行する認証処理部と、を備え、特徴情報検出部は、撮像画像から、認証処理部による、顔情報を用いて対象人物を照合する処理である照合処理を実行するか否かの判定に関する実行情報を取得し、認証処理部は、個人認証処理として、第1個人認証処理及び第2個人認証処理のいずれかを実行し、第1個人認証処理は、照合処理と、照合処理の前又は後に、実行情報及び設定された第1条件に基づき照合処理を実行するか否かの実行判定処理と、を行う処理であり、第2個人認証処理は、照合処理を行う処理である。
本開示によれば、個人認証処理の結果に高い信頼性が要求される場合であっても、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる。
以下、図面に基づいて実施の形態について説明する。なお、本開示において、個人認証装置及び個人認証システムを自動車に適用する例を挙げて説明するが、個人認証装置及び個人認証システムは、船舶、鉄道車両、及び航空機等の移動体、並びに携帯端末、入退室管理装置、及び顧客管理装置等の移動体以外の個人認証を行う機器全般に適用可能である。また、個人認証装置及び個人認証システムの個人認証処理の対象となる人物を、単に対象人物ともいう。
実施の形態1.
図1は、実施の形態1に係る個人認証システム101の構成例を示すブロック図である。個人認証システム101は、個人認証装置100及び撮像装置200を備えており、個人認証装置100及び撮像装置200は、車両に搭載される。個人認証装置100及び個人認証システム101を車両に搭載する場合、個人認証処理の対象人物は、車両の運転者又は同乗者、つまり車両の乗員である。また、個人認証装置100は、個人認証装置100が搭載された車両に設けられた制御装置102と接続されている。
図1は、実施の形態1に係る個人認証システム101の構成例を示すブロック図である。個人認証システム101は、個人認証装置100及び撮像装置200を備えており、個人認証装置100及び撮像装置200は、車両に搭載される。個人認証装置100及び個人認証システム101を車両に搭載する場合、個人認証処理の対象人物は、車両の運転者又は同乗者、つまり車両の乗員である。また、個人認証装置100は、個人認証装置100が搭載された車両に設けられた制御装置102と接続されている。
ここで、制御装置102は、個人認証装置100が搭載された車両の車載機器を制御する装置である。例えば、制御装置102は、車両の座席シートの位置又は傾きの調整を行うアクチュエータ、車両のスピーカーから音声等を出力させる音響機器、車内の温度を調整する空調機器、及びナビゲーション装置等の、車両に搭載された車載機器を制御可能に構成されている。
さらに、制御装置102は、通信部103を有しており、通信部103を介して車両の外部に設けられた外部サーバと通信可能に構成されている。外部サーバとは、車両の内部での決済処理を行う場合に、制御装置102との間で通信を行うサーバであり、例えば金融機関、決済会社等に管理される。また、制御装置102は、個人認証装置100が搭載された車両におけるエンジン及び電動機等、車両の始動、停止、走行に関する機器を制御可能に構成されていてもよい。
そして、制御装置102は、後述する個人認証装置100の認証処理部40による個人認証処理の結果を取得し、個人認証処理の結果を用いて、上述の車載機器の制御、又は外部サーバとの通信を実行する。制御装置102は、取得した個人認証処理の結果において、対象人物の個人認証に成功したことが示されれば、車載機器の制御を実行し、例えば、個人認証に成功した対象人物に適した、座席シート位置、室温、及び音響条件等を対象人物に提供する。一方、制御装置102は、取得した個人認証処理の結果において、対象人物の個人認証に成功したことが示されれば、外部サーバとの通信を行い、個人認証に成功した対象人物に関連付けられたクレジットカード情報、口座番号情報等を用いて、決済対象の商品代金を支払う決済処理を実行する。
図2は、実施の形態1に係る撮像装置200の撮像範囲を示す説明図である。図2Aには、個人認証装置100を搭載した車両60の内部を側方から見た図を示しており、図2Bには、個人認証装置100を搭載した車両60の内部を上方から見た図を示している。撮像装置200は、例えば、広角カメラ又は赤外線カメラ等で構成され、車両60の内部を撮像する。また、撮像装置200は、撮像装置200と被写体との距離を反映した画像を撮像可能な、TOF(Time-of-flight)カメラであってもよい。撮像装置200は、例えば30~60fps(frames per second)の間隔で車両60の内部を撮像し、撮像した画像(以下、撮像画像という)を個人認証装置100が有する画像取得部10に出力する。
図2Aの例において、撮像装置200の撮像範囲を領域Aで示している。撮像装置200は、少なくとも、運転席61に存在する対象人物である運転者62を撮像範囲に含むように、一台又は複数台、車室の天井、オーバーヘッドコンソール、インストルメントパネル、ステアリングコラム、又はルームミラー等、車両60の前席よりも前方に配置される。また、図2Bに示すように、撮像装置200は、助手席63又は後席に存在する対象人物である乗員、すなわち同乗者64、66を撮像範囲に含むように配置されていてもよい。つまり、図2Bの例における領域Bに示すように、撮像装置200の撮像範囲に、運転席61に加えて、例えば、助手席63、後席左側の座席65、後席中央の座席67、及び後席右側の座席68の少なくともいずれかを含んでもよい。
図1に戻り、個人認証装置100について説明する。個人認証装置100は、撮像装置200から撮像画像を取得する画像取得部10と、撮像画像から対象人物の特徴情報を検出する特徴情報検出部30と、撮像画像内の対象人物を特定する処理である、個人認証処理を実行する認証処理部40とを備える。
個人認証装置100の画像取得部10は、撮像装置200と接続されており、撮像装置200から撮像画像を取得する。そして、画像取得部10は、取得した撮像画像を特徴情報検出部30に出力する。また、図1に示すように、画像取得部10は、次に説明する車両情報取得部20と接続されている。画像取得部10は、車両情報取得部20から、撮像画像の取得を開始させる旨の信号を取得した場合、撮像画像の取得を開始する。一方、画像取得部10は、車両情報取得部20から、撮像画像の取得を終了させる旨の信号を取得した場合、撮像画像の取得を終了する。
個人認証装置100は、制御装置102と接続された車両情報取得部20を有する。車両情報取得部20は、制御装置102から、車両の始動、停止等に関する信号を取得する。そして、制御装置102から取得した信号を用いて、画像取得部10に撮像画像の取得を開始させる旨の信号、又は撮像画像の取得を終了させる旨の信号を出力する。
例えば、車両情報取得部20は、制御装置102から、ドアの開錠、ドアのオープン、イグニッションのON、人感センサのON、シフトレバーがドライブの位置に移動、車両速度が0km/hを超えた、ナビゲーション装置が案内を開始した、及び車両が自宅を出発した等のいずれかの信号を取得した場合、画像取得部10に撮像画像の取得を開始させる旨の信号を出力する。一方、例えば、車両情報取得部20は、制御装置102から、イグニッションのOFF、人感センサのOFF、シフトレバーがパーキングの位置に移動、ナビゲーション装置が案内を終了した、及び車両が自宅へ帰着した等のいずれかの信号を取得した場合、画像取得部10に撮像画像の取得を終了させる旨の信号を出力する。
次に、個人認証装置100の特徴情報検出部30について説明する。特徴情報検出部30は、撮像画像内の対象人物の顔要素の特徴点を検出する特徴点検出部31と、対象人物の顔要素に関する特徴量を算出する特徴量算出部32と、後述する照合処理の実行に関する条件を満たすか否かの判定に用いられる実行情報を検出する実行情報検出部33と、を有する。
まず、特徴点検出部31による特徴点を検出する処理について説明する。図3は、実施の形態1に係る個人認証装置100の特徴点検出例を示す説明図である。図3には、運転者62(対象人物)が撮像された撮像画像70を示している。特徴点検出部31は、撮像画像の解析を行い、撮像画像において、対象人物の顔が存在する領域である顔領域を検出する。まず、特徴点検出部31は、例えば、撮像画像内におけるコントラスト比から、対象人物の顔が存在する領域を抽出する。
そして、特徴点検出部31は、例えば図3Bの例のように、対象人物の顔が存在する領域を含むよう、矩形等の領域を設定し、顔領域71として検出する。さらに、特徴点検出部31は、顔領域の位置情報を取得し、個人認証システム101の記憶部50に出力する。ここで、顔領域の位置情報とは、例えば顔領域が矩形である場合、撮像画像における特定の点(例えば、図3Aに示す点O)に対する顔領域の各頂点の座標、顔領域の幅、高さ、及び大きさ等である。
次に、特徴点検出部31は、顔領域に含まれる対象人物の顔要素の特徴点を検出する。ここで、対象人物の顔要素とは、例えば、図3Bに示す、対象人物の左眼、右眼、鼻、及び口等である。なお、対象人物の顔要素は、対象人物の顔のパーツのみでなく、対象人物の頭部の形状、顔の輪郭等を含んでもよい。すなわち、対象人物の顔要素は、対象人物の身体を構成する要素であればよい。また、特徴点検出部31による特徴点の検出処理は、公知の種々のアルゴリズムを用いることができるものであり、これらのアルゴリズムの詳細な説明は省略する。
例えば、特徴点検出部31は、対象人物の顔要素の特徴点を検出する場合、顔要素(例えば、右眼72、左眼73、鼻74、及び口75等)の各々が有する、一つ又は複数の特徴点を検出する処理を実行する。
特徴点検出部31は、例えば、右眼72及び左眼73に関して、瞳孔、目尻、目頭、上瞼、及び下瞼等、顔要素が有する特徴的な部位、すなわち特徴点の、撮像画像内における位置情報を取得する。以下、説明のため、右眼72及び左眼73をまとめて、眼と記載する場合がある。
また、特徴点検出部31は、例えば、鼻74に関して、鼻根、鼻尖、鼻背、及び鼻翼等の、顔要素が有する特徴点の撮像画像内における位置情報を取得する。さらに、特徴点検出部31は、例えば、口75に関して、上唇、下唇、及び口角等の、顔要素が有する特徴点の撮像画像内における位置情報を取得する。そして、特徴点検出部31が取得した各顔要素に関する位置情報、すなわち特徴点の位置情報は、特徴量算出部32、実行情報検出部33、及び記憶部50に出力される。
なお、特徴点検出部31が取得する、各顔要素が有する特徴点の位置情報は、例えば、図3Aに示す撮像画像内の特定の位置Oを始点とした座標、又は撮像画像における中心等の特定の位置を始点とした座標等を示す情報である。
そして、特徴情報検出部30の特徴量算出部32は、検出された特徴点から、対象人物の顔要素に関する特徴量を算出する。ここで、特徴量とは、例えば、顔要素の形状、及び各顔要素間の距離等、対象人物の顔の特徴を示す情報であり、後述の個人認証処理に用いられる。さらに、特徴量は、複数の撮像画像にわたって得られる情報であってもよい。なお、特徴量算出部32による特徴量の算出処理についても、公知の種々のアルゴリズムを用いることができる。また、特徴量算出部32が算出した特徴量についても、個人認証装置100の記憶部50に記録されてもよい。
以下、特徴情報検出部30によって検出された対象人物の個人認証処理に用いられる情報、すなわち、顔要素が有する特徴点の位置情報と、顔要素を用いて算出された特徴量とをまとめて、顔情報という。また、特徴情報検出部30の特徴点検出部31による特徴点を検出する処理(特徴点検出処理)と、特徴情報検出部30の特徴量算出部32による特徴量を算出する処理(特徴量算出処理)とをまとめて、顔情報検出処理という。
さらに、対象人物の顔に関する特徴点を検出する例について説明したが、例えば、特徴点検出部31により、対象人物の身体の関節等、対象人物の体格に関する特徴点を検出し、特徴量算出部32により、対象人物の体格に関する特徴量を算出してもよい。すなわち、顔情報とは、対象人物の顔に関する特徴点及び特徴量だけでなく、対象人物の体格に関する特徴点及び特徴量を含んだものであってもよい。
特徴情報検出部30の実行情報検出部33について説明する。図4は、実施の形態1に係る実行情報検出部33の構成例を示すブロック図である。実行情報検出部33は、画像取得部10が取得した撮像画像、特徴点検出部31が検出した特徴点、及び特徴量算出部32が算出した特徴量の少なくともいずれかを用いて、実行情報を検出する。
図4に示すように、実行情報検出部33は、例えば、顔向き検出部34、顔要素検出部35、表情検出部36、輝度検出部37、処理時間検出部38、及び生体情報検出部39を有する。以下、実行情報検出部33が有する各構成について説明する。なお、図4には、実行情報検出部33が、顔向き検出部34、顔要素検出部35、表情検出部36、輝度検出部37、処理時間検出部38、及び生体情報検出部39のそれぞれを有する例を示しているが、実行情報検出部33は、前述の各構成のうち少なくともいずれかを有すればよく、適宜組み合わせ可能である。そして、実行情報とは、次に説明する、顔向き検出部34、顔要素検出部35、表情検出部36、輝度検出部37、処理時間検出部38、及び生体情報検出部39の検出結果の少なくともいずれかを含むものである。
顔向き検出部34は、特徴点検出部31及び特徴量算出部32から対象人物の顔情報を取得し、顔情報を用いて対象人物の顔向きを検出する。ここで、対象人物の顔向きとは、撮像画像内の対象人物の顔の、撮像装置200に対する角度をいう。なお、顔向き検出部34による対象人物の顔向きの検出処理は、公知の種々のアルゴリズムを用いることができるものであるため、説明を省略する。
顔要素検出部35は、特徴点検出部31及び特徴量算出部32から対象人物の顔情報を取得し、顔情報を用いて、撮像画像内の対象人物の顔要素のうち、いずれの顔要素が検出されたかを特定する。例えば、顔要素検出部35は、顔情報から、撮像画像において、対象人物の眼が有する特徴点が検出されたことが示されれば、対象人物の顔要素として眼が検出されたと特定する。なお、対象人物の眼の他、鼻、及び口等の顔要素に関しても、顔情報から、顔要素が有する特徴点が検出されたことが示されれば、検出された特徴点に関する顔要素が検出されたと特定すればよい。
表情検出部36は、特徴点検出部31及び特徴量算出部32から対象人物の顔情報を取得し、顔情報を用いて撮像画像における対象人物の表情を検出する。例えば、表情検出部36は、顔情報から、対象人物の右眼の中心点又は左眼の中心点に比して、目尻が下方に位置していること、又は対象人物の口の中心点に比して、上唇の横方向における端部が上方に位置していること等が示されれば、対象人物の表情が笑顔であると検出する。ここで、対象人物の表情とは、笑顔のように感情が表された表情のみでなく、無表情、又は単に対象人物の顔要素の形状を表現するものを含む。なお、表情検出部36による対象人物の表情の検出処理は、公知の種々のアルゴリズムを用いることができるものであるため、説明を省略する。
輝度検出部37は、画像取得部10が取得した撮像画像の輝度を検出する。輝度検出部37は、例えば、撮像画像を解析して撮像画像の輝度の分布を検出する。なお、輝度検出部37は、撮像画像から、対象人物の顔が存在する領域と、対象人物の顔の背景となる領域とのコントラスト比を、撮像画像の輝度の分布として検出してもよい。
処理時間検出部38は、特徴点検出部31及び特徴量算出部32が、対象人物の顔情報を取得するまでに要した処理時間を検出する。例えば、処理時間検出部38は、特徴情報検出部30が撮像画像を取得してから、特徴点検出部31及び特徴量算出部32が顔情報の検出結果を、実行情報検出部33又は認証処理部40に出力するまでに経過した時間をカウントし、カウントした時間を、処理時間として検出する。なお、処理時間の単位は、秒等の時間を示す単位の他、フレーム数等、顔情報の検出処理に用いられた撮像画像の枚数を示す単位であってもよい。
実行情報検出部33の生体情報検出部39は、特徴点検出部31及び特徴量算出部32から対象人物の顔情報を取得し、顔情報を用いて撮像画像内の対象人物の生体情報を検出する。ここで、生体情報とは、瞬目、及び欠伸等、対象人物が生体であるか否かが示される情報をいう。生体情報検出部39は、例えば、特徴量算出部32により、複数の撮像画像にわたって得られた特徴量から、対象人物の瞬目が示されれば、対象人物が生体であることを示す生体情報を認証処理部40に出力する。
なお、生体情報は、対象人物の脈拍の有無に示されるものであってもよい。生体情報検出部39により対象人物の脈拍を検出する場合は、対象人物の顔表面上の微小な輝度変化を撮像画像に反映可能な、近赤外線カメラ又は遠赤外線カメラ等で、撮像装置200を構成すればよい。この場合、画像取得部10が取得した撮像画像間で、顔における特定の領域の輝度値を比較する等すれば、血管を流れる血液の脈動を検知可能になるため、生体情報検出部39により、撮像画像を解析して脈拍の有無を生体情報として検出できる。
そして、実行情報検出部33は、上述した、顔向き検出部34、顔要素検出部35、表情検出部36、輝度検出部37、処理時間検出部38、及び生体情報検出部39のそれぞれによる検出結果の、少なくともいずれかを含む実行情報を、次に説明する認証処理部40の実行判定部43に出力する。なお、特徴情報検出部30が検出した顔情報及び実行情報をまとめて、特徴情報という。すなわち、特徴情報とは、少なくとも顔情報と実行情報とのいずれかを含むものである。また、特徴情報検出部30による、撮像画像から特徴情報を検出する処理を、特徴情報検出処理という。
図1に戻り、認証処理部40について説明する。認証処理部40は、要求取得部41、照合部42、及び実行判定部43を備える。認証処理部40の要求取得部41は、制御装置102から、個人認証処理の結果の出力を要求する信号である要求信号を取得する。なお、個人認証処理の結果とは、撮像画像内に存在する対象人物を特定するID等の識別子、及び個人認証処理が成功したか否かを示す信号の少なくともいずれかを含むものとする。
本実施の形態において、要求取得部41は、制御装置102が実行する機能に応じて、異なる要求信号を取得する。以下、異なる要求信号を第1要求信号と第2要求信号とに区別して説明する。第1要求信号及び第2要求信号は、いずれも、制御装置102から出力される、個人認証装置100に個人認証処理の結果の出力を要求する信号であるが、第1要求信号は、制御装置102が、信頼性の高い個人認証処理の結果の出力を要求する場合に、制御装置102から出力される信号である。すなわち、第1要求信号により出力を要求される個人認証処理の結果の信頼性は、第2要求信号により出力を要求される個人認証処理の結果の信頼性に比して高い。
例えば、制御装置102が実行する機能が、決済処理の実行に伴う、外部サーバとの通信である場合、要求取得部41は、制御装置102から要求信号として第1要求信号を取得する。一方、制御装置102が実行する機能が、車両に搭載された車載機器の制御である場合、要求取得部41は、制御装置102から要求信号として第2要求信号を取得する。
そして、認証処理部40の照合部42は、特徴情報検出部30から顔情報を取得して、特徴情報検出処理で検出された顔情報と、記憶部50に格納された照合用の顔情報(以下、照合用顔情報という)とを照合し、撮像装置200により撮像された対象人物の認証を行う。
例えば、照合部42は、特徴情報検出部30から取得した顔情報と、記憶部50に格納された照合用顔情報とを比較し、類似度を算出する。次いで、照合部42は、算出した類似度が設定された閾値以上である場合は、撮像画像が撮像された対象人物の認証に成功したと判定する。一方、照合部42は、算出した類似度が設定された閾値未満である場合は、撮像画像が撮像された対象人物の認証に失敗したと判定する。なお、本開示において、設定されたとは、個人認証装置100の動作が開始される前に設定された場合、すなわち予め設定された場合と、例えば、個人認証装置100の動作が開始された後で設定された場合とを含むものとする。
そして、照合部42は、撮像画像が撮像された対象人物の認証に成功した場合、例えば、照合用画像内のユーザに予め割り当てられたID等の識別子と、顔情報に関連付けられた関連情報を記憶部50から取得し、取得した識別子と、関連情報とを照合処理の結果として制御装置102に出力する。なお、関連情報は、照合部42から出力されなくてもよく、この場合、例えば、制御装置102により、照合部42から識別子を取得し、識別子を用いて、顔情報に関連付けられた関連情報を記憶部50から取得すればよい。
ここで、記憶部50に格納された照合用の顔情報と、顔情報又はユーザの識別子に関連付けられた関連情報について説明する。記憶部50には、個人認証装置100が搭載された車両のユーザの顔の顔情報が格納されている。車両のユーザとは、例えば、運転者及び同乗者等の、個人認証装置100が搭載された車両に乗車する可能性がある乗員が含まれるものである。なお、車両のユーザは一人であっても複数人であってもよい。記憶部50に格納される顔情報は、撮像装置200を用いて予め撮像された画像における顔情報、又はその他の撮像手段を用いて予め撮像された画像における顔情報である。また、記憶部50は、ユーザの顔情報を、ユーザを特定する情報、すなわち識別子と関連付けて記憶する。以下、照合処理に用いられる画像を、照合用画像という。
なお、ユーザの顔情報又は識別子に関連付けて記憶する関連情報は、種々設定可能である。例えば、制御装置102により、ユーザに適した空調機器の制御を行う場合、ユーザの趣向に沿った温度条件(室温、風向き等)を関連情報として、顔情報又は識別子と関連付けて記憶すればよい。また、例えば、制御装置102により、ユーザに適した音響機器の制御を行う場合、ユーザの趣向に沿った音響条件(音量、ユーザが保有するプレイリスト等)を関連情報として、顔情報又は識別子と関連付けて記憶すればよい。例えば、制御装置102により、ユーザに適した座席シートの位置及び傾き等の調整を行う場合、ユーザの体格又は趣向に沿った座席シート位置及び傾き等を関連情報として、顔情報又は識別子と関連付けて記憶すればよい。さらに、制御装置102と外部サーバとの通信により、車両内での決済処理を行う場合、ユーザが保有するクレジットカード、口座番号、及びパスワード等の情報を関連情報として、顔情報又は識別子とを関連付けて記憶すればよい。
ところで、制御装置102により、例えば、個人認証結果を用いた車載機器の制御を行う場合、個人認証処理の結果に求められる信頼性はそれほどまで高くない一方で、制御装置102により、例えば、外部サーバとの通信を行って、個人認証処理の結果を用いた決済処理を行う場合、認証処理部40による個人認証処理の結果には、高い信頼性が求められる。
そこで、本実施の形態に係る認証処理部40は、制御装置102が実行する機能に応じて、異なる個人認証処理を実行する。以下、認証処理部40の個人認証処理について、認証処理部40が有する実行判定部43の実行判定処理とともに説明する。
認証処理部40の実行判定部43は、制御装置102が実行する機能が、例えば、決済処理に伴う外部サーバとの通信である場合、特徴情報検出部30の実行情報検出部33から実行情報を取得し、実行情報が、設定された第1条件を満たすか否かを判定する。一方、実行判定部43は、制御装置102が実行する機能が、例えば、車両に搭載された車載機器の制御である場合、実行情報検出部33から実行情報を取得し、実行情報が設定された第2条件を満たすか否かを判定する。ここで、実行判定処理とは、実行情報及び設定された条件に基づき、認証処理部40による個人認証処理の、照合処理を実行するか否かの判定を行う処理である。
すなわち、実行判定部43は、要求取得部41が要求信号として第1要求信号を取得した場合、実行情報検出部33から実行情報を取得し、実行情報が第1条件を満たすか否かを判定する。一方、実行判定部43は、要求取得部41が要求信号として第2要求信号を取得した場合、実行情報検出部33から実行情報を取得し、実行情報が第2条件を満たすか否かを判定する。ここで、第1条件とは、第2条件に比して厳しい条件であり、第1条件、第2条件、及び第1条件と第2条件との相対的な関係については詳細を後述する。
そして、実行判定部43は、実行情報が第1条件を満たすか否か、及び実行情報が第2条件を満たすか否かの判定結果を、認証処理部40の照合部42に出力する。次いで、認証処理部40の照合部42は、実行判定部43により、実行情報が第1条件を満たす、又は実行情報が第2条件を満たすと判定された場合、特徴情報検出部30が検出した顔情報を用いて、上述の照合処理を実行する。なお、照合部42は、実行判定部43により、実行情報が第1条件を満たさない、又は実行情報が第2条件を満たさないと判定された場合、照合処理を行わない。
以下、説明のため、要求取得部41による要求信号の取得、実行判定部43による実行情報が第1条件を満たすか否かの実行判定処理、及び照合部42による照合処理の一連の処理を、第1個人認証処理という。一方、要求取得部41による要求信号の取得、実行判定部43による実行情報が第2条件を満たすか否かの実行判定処理、及び照合部42による照合処理の一連の処理を、第2個人認証処理という。すなわち、第1個人認証処理と、第2個人認証処理とは、いずれも撮像画像を用いて対象人物の個人認証処理を行う点において同種の処理であり、一方で、照合処理の実行に要する条件が異なる処理である。
次に、第1条件及び第2条件について説明する。第1条件及び第2条件は、例えば、撮像画像内の対象人物の顔向きに関する条件、撮像画像で検出された対象人物の顔要素に関する条件、撮像画像内の対象人物の表情に関する条件、撮像画像内の対象人物の顔向きと照合用画像内の人物の顔向きとの差異に関する条件、画像取得部10が取得した撮像画像の輝度に関する条件、特徴情報検出処理に要した処理時間に関する条件、及び生体情報の有無に関する条件等である。
第1条件及び第2条件が、撮像画像内の対象人物の顔向きに関する条件である場合、実行判定部43は、実行情報検出部33の顔向き検出部34から取得した対象人物の顔向きを用いて、第1条件を満たすか否か、又は第2条件を満たすか否かを判定する。
実行判定部43は、例えば、顔向き検出部34から取得した対象人物の顔向きが設定された第1の範囲内にあれば、実行情報が第1条件を満たすと判定し、対象人物の顔向きが設定された第1の範囲外にあれば、実行情報が第1条件を満たさないと判定する。一方、実行判定部43は、例えば、顔向き検出部34が取得した対象人物の顔向きが設定された第2の範囲内にあれば、実行情報が第2条件を満たすと判定し、対象人物の顔向きが設定された第2の範囲外にあれば、実行情報が第2条件を満たさないと判定する。
ここで、対象人物の顔向きに関する第1の範囲は、対象人物の顔向きが、第1の範囲内にあれば、対象人物が撮像装置200に対して正面を向いていると考えられる範囲であると好ましい。対象人物の顔が撮像装置200に対して正面を向いていれば、照合部42による照合処理に用いられる撮像画像において、対象人物の顔が撮像装置200に対して正面を向いていない場合に比して、撮像画像内に存在する顔要素が多くなる。
そのため、照合部42による照合処理が正確なものとなり、個人認証処理の結果の信頼性が向上する。また、対象人物の顔向きに関する第2の範囲は、第1の範囲に比して広い範囲であればよく、第2の範囲は、対象人物の顔向きが第2の範囲内にあれば、対象人物の顔が撮像装置200に対して傾斜していると考えられる範囲であればよい。つまり、照合処理の実行に要する判定条件が、撮像画像内の対象人物の顔向きに関するものである場合、第1条件が第2条件に比して厳しいとは、対象人物の顔向きに関する第1の範囲が、対象人物の顔向きに関する第2の範囲よりも狭い範囲であることをいう。このようにすると、対象人物の顔が撮像装置200に対して正面を向いていない場合であっても、個人認証処理を実行できる。なお、対象人物の顔が撮像装置200に対して傾斜しているとは、撮像装置200に対して正面を向いている顔と比較して、例えば、半分以上の領域が撮像された状態をいい、対象人物の顔が撮像装置200に対して正面を向いている状態も含むものとする。
さらに、実行判定部43は、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとを比較し、実行情報が条件を満たすか否かを判定してもよい。この場合、まず、実行判定部43は、顔向き検出部34から、撮像画像内の対象人物の顔向きを取得し、例えば、記憶部50から照合用画像内の人物(ユーザ)に関連付けられた顔向きを取得するとともに、撮像画像内の対象人物の顔向きと照合用画像内の人物の顔向きとの差異を算出する。なお、前述の顔向きの差異とは、顔向きの差分等、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとが、いかに異なるかの程度を示すものである。
そして、実行判定部43は、算出した差異が、設定された範囲内にあるか否かにより、実行情報が条件を満たすか否かを判定する。ここで、実行判定部43は、第1条件について、算出した差異が、設定された第1の範囲内にあれば、実行情報が第1条件を満たすと判定し、算出した差異が、第1の範囲外にあれば、実行情報が第1条件を満たさないと判定する。一方、実行判定部43は、第2条件について、算出した差異が、第1の範囲よりも広い範囲である、設定された第2の範囲内にあれば、実行情報が第2条件を満たすと判定し、算出した差異が、第2の範囲外にあれば、実行情報が第2条件を満たさないと判定する。
ここで、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとの差異に関する、第1の範囲及び第2の範囲について、第1の範囲は第2の範囲よりも狭いものである。つまり、照合処理の実行に要する判定条件が、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとの差異に関するものである場合、第1条件が第2条件に比して厳しいとは、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとの差異に関する第1の範囲が、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとの差異に関する第2の範囲よりも狭い範囲であることをいう。
例えば、照合用画像の撮像時において、ユーザが撮像装置に対して正面を向いた画像を撮像し、照合用画像として記憶部50に格納する等、照合用画像内の人物の顔向きは、特定の顔向きである場合がある。上述のように、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きの差異が小さい場合に、第1個人認証処理を実行するようにすると、撮像画像内の対象人物の顔向きを、照合用画像内の人物の顔向きに類似させることができるため、個人認証処理の結果の信頼性を向上できる。また、第2条件を上述のようにすれば、撮像画像内の対象人物の顔向きと、照合用画像内の人物の顔向きとが類似していない場合であっても、個人認証処理を実行できる。
第1条件及び第2条件が、撮像画像で検出された対象人物の顔要素に関する条件である場合、実行判定部43は、実行情報検出部33の顔要素検出部35から取得した対象人物の顔要素の特定結果を用いて、第1条件を満たすか否か、又は第2条件を満たすか否かを判定する。
実行判定部43は、例えば、顔要素検出部35から取得した対象人物の顔要素の数が、設定された第1の閾値以上であれば、実行情報が第1条件を満たすと判定し、顔要素検出部35から取得した対象人物の顔要素の数が、設定された第1の閾値未満であれば、実行情報が第1条件を満たさないと判定する。一方、実行判定部43は、例えば、顔要素検出部35から取得した対象人物の顔要素の数が、設定された第2の閾値以上であれば、実行情報が第2条件を満たすと判定し、顔要素検出部35から取得した対象人物の顔要素の数が、設定された第2の閾値未満であれば、実行情報が第2条件を満たさないと判定する。
ここで、対象人物の顔要素の数に関する第1の閾値は、対象人物の顔要素の数に関する第2の閾値よりも大きい値である。つまり、照合処理の実行に要する判定条件が、撮像画像から検出された対象人物の顔要素に関する条件である場合、第1条件が第2条件に比して厳しいとは、対象人物の顔要素の数に関する第1の閾値が、対象人物の顔要素に関する第2の閾値よりも大きい値であることをいう。
第1の閾値が第2の閾値に比して大きい値であれば、照合部42による照合処理に用いられる顔要素が多くなる。そのため、照合部42による照合処理が正確なものとなり、個人認証処理の結果の信頼性が向上する。一方で、第2の閾値が第1の閾値に比して小さい値であれば、対象人物の手、又はマスク等の着類で対象人物の顔要素の一部が隠れ、一部の顔要素が検出されなかった場合であっても、個人認証処理を実行できる。
第1条件及び第2条件が、対象人物の表情に関する条件である場合、実行判定部43は、実行情報検出部33の表情検出部36から取得した対象人物の表情を用いて、第1条件を満たすか否か、又は第2条件を満たすか否かを判定する。
実行判定部43は、例えば、表情検出部36から取得した対象人物の表情が、設定された第1の表情の少なくともいずれかであれば、実行情報が第1条件を満たすと判定し、対象人物の表情が設定された第1の表情のいずれでもなければ、実行情報が第1条件を満たさないと判定する。一方、実行判定部43は、例えば、表情検出部36が取得した対象人物の表情が、第1の表情よりも規定された表情が多い、設定された第2の表情の少なくともいずれかであれば、実行情報が第2条件を満たすと判定し、対象人物の表情が設定された第2の表情のいずれでもなければ、実行情報が第2条件を満たさないと判定する。
ここで、対象人物の表情に関する第1の表情及び第2の表情は、一つ又は複数の表情を規定したものである。第1の表情とは、例えば、対象人物が眼を開き、かつ口を閉じている表情を示すものである。また、第2の表情とは、例えば、第1の表情に加えて、対象人物が眼を開き、かつ口を開けている表情、及び対象人物が眼を閉じ、かつ口を閉じている表情を規定したものである。また、第1の表情は、第2の表情に比して、規定される表情の数が少ないと好ましい。つまり、照合処理の実行に要する判定条件が、対象人物の表情に関する条件である場合、第1条件が第2条件に比して厳しいとは、対象人物の表情に関する第1の表情に規定される表情が、対象人物の表情に関する第2の表情に規定される表情よりも少ないことをいう。
このようにすれば、対象人物の表情が特定の表情である場合に限り、照合部42による照合処理を実行するため、照合部42による照合処理が正確なものとなり、個人認証処理の結果の信頼性が向上する。また、第2の表情に規定される表情の数が、第1の表情に規定される表情の数に比して多ければ、個人認証処理を実行可能な表情の数も多くなるため、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる。
第1条件及び第2条件が、撮像画像の輝度に関する条件である場合、実行判定部43は、実行情報検出部33の輝度検出部37から取得した撮像画像の輝度を用いて、第1条件を満たすか否か、又は第2条件を満たすか否かを判定する。
実行判定部43は、例えば、輝度検出部37から取得した撮像画像の輝度が設定された第1の範囲内にあれば、実行情報が第1条件を満たすと判定し、撮像画像の輝度が設定された第1の範囲外にあれば、実行情報が第1条件を満たさないと判定する。一方、実行判定部43は、例えば、輝度検出部37が取得した撮像画像の輝度が、第1の範囲よりも広い範囲である、設定された第2の範囲内にあれば、実行情報が第2条件を満たすと判定し、撮像画像の輝度が設定された第2の範囲外にあれば、実行情報が第2条件を満たさないと判定する。
ここで、撮像画像の輝度に関する第1の範囲は、撮像画像の輝度に関する第2の範囲よりも狭い範囲である。つまり、照合処理の実行に要する判定条件が、撮像画像の輝度に関する条件である場合、第1条件が第2条件に比して厳しいとは、撮像画像の輝度に関する第1の範囲が、撮像画像の輝度に関する第2の範囲よりも狭い範囲であることをいう。
撮像画像における輝度が適切である場合、撮像画像内の顔要素と、顔要素の背景となる領域とのコントラスト比が大きくなる傾向にある。そのため、撮像画像における輝度が適切であれば、特徴点検出部31により検出される顔情報がより正確なものとなる。適切な輝度の撮像画像で検出された顔情報を用いて照合部42により照合処理を行えば、照合処理が正確なものとなり、個人認証処理の結果の信頼性が向上する。一方で、第2の範囲が第1の範囲に比して広い範囲であれば、逆光等により撮像画像の輝度を十分に確保できなかった場合であっても、個人認証処理を実行できる。
第1条件及び第2条件が、特徴情報検出処理に要した処理時間に関する条件である場合、実行判定部43は、実行情報検出部33の処理時間検出部38から取得した処理時間を用いて、第1条件を満たすか否か、又は第2条件を満たすか否かを判定する。
実行判定部43は、例えば、処理時間検出部38から取得した処理時間が設定された第1の閾値以上であれば、実行情報が第1条件を満たすと判定し、処理時間が設定された第1の閾値未満であれば、実行情報が第1条件を満たさないと判定する。一方、実行判定部43は、例えば、処理時間検出部38が取得した処理時間が、設定された第2の閾値以上であれば、実行情報が第2条件を満たすと判定し、処理時間が、第1の閾値よりも小さい値である、設定された第2の閾値未満であれば、実行情報が第2条件を満たさないと判定する。
ここで、処理時間に関する第1の閾値は、処理時間に関する第2の閾値よりも大きい値である。つまり、照合処理の実行に要する判定条件が、処理時間に関する条件である場合、第1条件が第2条件に比して厳しいとは、処理時間に関する第1の閾値が、処理時間に関する第2の閾値よりも大きい値であることをいう。
処理時間が長いとは、例えば、特徴情報検出部30の顔情報検出処理に用いられた撮像画像の枚数が大きいということである。処理時間が長ければ、特徴点検出部31により検出される顔情報がより正確なものとなる。そのため、第1の閾値を第2の閾値よりも大きな値として、要した処理時間が長い顔情報検出処理で検出された顔情報を用いて、照合部42により照合処理を行えば、照合処理の精度が向上し、個人認証処理の結果の信頼性を向上できる。一方で、第2の閾値が第1の閾値に比して小さい値であれば、処理時間を十分に確保できなかった場合であっても、個人認証処理を実行できる。
さらに、実行判定部43は、認証処理部40により第1個人認証処理を実行する場合、実行情報が第1条件を満たすか否かの判定に加えて、生体情報検出部39から取得した生体情報を用いて、撮像画像内の対象人物が生体であるか否かの判定を行うと好ましい。この場合、実行判定部43は、撮像画像内の対象人物の顔向きに関する情報、撮像画像の輝度に関する情報、顔情報の検出に要した処理時間に関する情報、及び撮像画像から検出された対象人物の顔要素に関する情報の少なくともいずれかと、生体情報とを、実行情報として実行情報検出部33から取得すればよい。
また、照合部42は、実行判定部43により、実行情報が第1条件を満たすと判定され、かつ生体情報検出部39より取得した生体情報から、撮像画像内の対象人物が生体であることが示された場合に、上述の照合処理を実行すればよい。ここで、対象人物が生体であるとは、生体情報検出部39に対象人物の脈拍、瞬目等を検知された場合をいう。対象人物が生体であることが示された場合に、第1個人認証処理を実行すれば、対象人物が撮像された画像等を用いた、いわゆるなりすましによる、個人認証処理の実行を防止でき、個人認証処理の結果の信頼性を向上できる。
さらに、認証処理部40による第1個人認証処理について、生体情報検出部39により取得した生体情報から、撮像画像内の対象人物が生体であるが示されなかった場合に、照合部42の照合処理の結果を棄却するようにしてもよい。このようにしても、いわゆるなりすましによる、個人認証処理の実行を防止でき、個人認証処理の結果の信頼性を向上できる。また、実行判定部43による実行判定処理の条件において、撮像画像内の対象人物が生体であることが示されたか否かを第1条件としてもよい。すなわち、実行判定部43は、実行情報から、撮像画像内の対象人物が生体であることが示されれば、実行情報が第1条件を満たすと判定し、実行情報から、撮像画像内の対象人物が生体であることが示されなければ、実行情報が第1条件を満たさないと判定するものであってもよい。
なお、上述した第1条件及び第2条件は、適宜組み合わせ可能である。例えば、第1条件を対象人物の顔向きに関する条件として、第2条件を撮像画像の輝度に関する条件としてもよい。また、第1条件及び第2条件はそれぞれ、一つの条件であっても複数の条件であってもよい。
次に、個人認証装置100の動作について説明する。図5は、実施の形態1に係る個人認証装置100の動作例を示すフローチャートである。個人認証装置100は、例えば、車両情報取得部20が、制御装置102から車両のドアが開かれた旨を示す信号を取得した場合、動作を開始する。
まず、個人認証装置100の動作が開始した後、認証処理部40の要求取得部41は、制御装置102から要求信号を取得したか否かを確認する(ST101)。要求取得部41は、制御装置102から要求していないことを確認した場合(ST101:NO)、再度、制御装置102から要求信号を取得したか否かを確認する。すなわち、個人認証装置100は、要求取得部41が要求信号を取得するまで、ST101の動作を繰り返す。
一方、要求取得部41は、制御装置102から要求信号を取得したことを確認した場合(ST101:YES)、要求信号を認証処理部40の実行判定部43に出力する。そして、実行判定部43は、要求取得部41が取得した要求信号が、第1要求信号であるか否かを判定する(ST102)。
実行判定部43により、要求取得部41が取得した要求信号が第1要求信号であると判定された場合(ST102:YES)、画像取得部10は、撮像装置200から撮像画像を取得する(ST103)。次いで、特徴情報検出部30は、画像取得部10が取得した撮像画像を用いて、特徴情報検出処理を行う(ST104)。ここで、特徴情報検出部30による特徴情報検出処理は、画像取得部10により取得された撮像画像を用いる、特徴点検出部31により特徴点を検出する処理、特徴量算出部32により特徴点を算出する処理、及び実行情報検出部33により実行情報を検出する処理である。
なお、図5において、ST101の処理で要求取得部41が要求信号を取得した後に、画像取得部10による撮像画像の取得、及び特徴情報検出部30による特徴情報検出処理を行う例を示しているが、画像取得部10及び特徴情報検出部30はそれぞれ、個人認証装置100の動作が開始された後、常に又は間欠的に、撮像画像の取得及び特徴情報検出処理を行っていてもよい。
そして、実行判定部43は、実行情報検出部33から実行情報を取得し、実行情報が第1条件を満たすか否かを判定する(ST105)。以下、第1条件が、撮像画像内の対象人物の顔向きに関する条件である例を挙げて説明する。
実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、撮像画像内の対象人物の撮像装置200に対する顔向きが、第1の範囲内にあることが示されれば、実行情報が第1条件を満たすと判定する。一方、実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、対象人物の撮像装置200に対する顔向きが、第1の範囲外にあることが示されれば、実行情報が第1条件を満たさないと判定する。なお、第1の範囲は、撮像画像内の対象人物の撮像装置200に対する顔向きが第1の範囲内にあれば、対象人物の顔が撮像装置200に対して正面を向いていると考えられる範囲であればよい。
実行判定部43により、実行情報検出部33から取得した実行情報が、第1条件を満たさないと判定された場合(ST105:NO)、個人認証装置100の動作は、ST103の処理に進み、再度、ST103~ST105の処理を行う。ここで、実行判定部43は、実行情報が第1条件を満たさないと判定した場合、制御装置102に判定結果を出力してもよい。また、制御装置102は、実行情報が第1条件を満たさないことを示す判定結果を取得した場合、車両に搭載された音響機器、又はナビゲーション装置等を制御し、実行情報が第1条件を満たさない旨を対象人物に向けて通知させてもよい。例えば、音響機器により、対象人物の顔向きが撮像装置200に対して正面を向いていないことを通知して、対象人物の顔向きの修正を指示すれば、ST105の処理が必要以上に繰り返されることを防止できる。また、例えば、撮像装置200に発光部等を設け、制御装置102により発光部を点灯させる等して、視覚的に対象人物に対して通知してもよい。
一方、実行判定部43は、実行情報検出部33から取得した実行情報が、第1条件を満たすと判定した場合(ST105:YES)、判定結果を認証処理部40の照合部42に出力する。そして、照合部42は、特徴情報検出部30から画像取得部10が取得した撮像画像における顔情報を取得し、撮像画像における顔情報と、記憶部50に格納された照合用画像の顔情報との類似度を算出する(ST106)。ここで、照合部42は、対象人物と、一人のユーザとの類似度を算出してもよいし、対象人物と複数人のユーザとの類似度を算出してもよい。
そして、照合部42は、算出した類似度と設定された閾値とを比較し、類似度が閾値以上であるか否かを判定する(ST107)。照合部42は、類似度が閾値以上であると判定した場合(ST107:YES)、記憶部50から、類似度が閾値以上となったユーザに関連する識別子及び関連情報等を取得し、識別子及び関連情報等を、第1個人認証処理の結果として、制御装置102に出力し(ST108)、個人認証装置100の動作を終了する。なお、上述のように、第1個人認証処理において、照合処理に成功した場合、第1個人認証処理の結果は、照合処理の結果となる。
また、対象人物との類似度が閾値以上であるユーザが複数人存在する場合、照合部42は、例えば、複数のユーザのうち類似度が最大となったユーザに関連する識別子及び関連情報等を、照合処理の結果とすればよい。なお、第1個人認証処理において類似度と比較される閾値を、後述する第2個人認証処理において類似度と比較される閾値よりも大きく設定してもよい。このようにすると、第1個人認証処理の結果の信頼性が向上できる。
また、照合部42により、類似度が設定された閾値未満であると判定された場合(ST107:NO)、個人認証装置100の動作は、ST103の処理に進む。なお、個人認証装置100に、例えば、カウント部(図示せず)を備え、カウント部により、ST106及びST107の照合処理が失敗した回数をカウントしてもよい。この場合、照合処理が失敗した回数が設定された回数を超えた場合、照合処理が失敗したことを示す信号を、第1個人認証処理の結果として、制御装置102に出力し、個人認証装置100の動作を終了させてもよい。
次に、実行判定部43により、要求取得部41が取得した要求信号が第2要求信号であると判定された場合(ST102:NO)について説明する。なお、ST103~ST108で説明した処理と同様の処理については、適宜説明を簡略化する。まず、画像取得部10は、撮像装置200から撮像画像を取得する(ST109)。次いで、特徴情報検出部30は、画像取得部10が取得した撮像画像を用いて、特徴情報検出処理を行う(ST110)。
なお、図5において、ST101の処理で要求取得部41が要求信号を取得した後に、画像取得部10による撮像画像の取得、及び特徴情報検出部30による特徴情報検出処理を行う例を示しているが、画像取得部10及び特徴情報検出部30はそれぞれ、個人認証装置100の動作が開始された後、常に又は間欠的に、撮像画像の取得及び特徴情報検出処理を行っていてもよい。
そして、実行判定部43は、実行情報検出部33から実行情報を取得し、実行情報が第2条件を満たすか否かを判定する(ST111)。以下、第2条件が、撮像画像内の対象人物の顔向きに関する条件である例を挙げて説明する。
実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、撮像画像内の対象人物の撮像装置200に対する顔向きが、第2の範囲内にあることが示されれば、実行情報が第2条件を満たすと判定する。一方、実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、対象人物の撮像装置200に対する顔向きが、第2の範囲外にあることが示されれば、実行情報が第2条件を満たさないと判定する。なお、第2の範囲は、撮像画像内の対象人物の撮像装置200に対する顔向きが、第2の範囲内にあれば、対象人物の顔が撮像装置200に対して傾斜していると考えられる範囲であればよい。また、第2の範囲は、撮像画像内の対象人物の撮像装置200に対する顔向きが、第2の範囲外にあれば、対象人物の顔が撮像装置200に対して正面を向いておらず、傾斜もしていないと考えられる範囲であればよい。
実行判定部43により、実行情報検出部33から取得した実行情報が、第2条件を満たさないと判定された場合(ST111:NO)、個人認証装置100の動作は、ST109の処理に進み、再度、ST109~ST111の処理を行う。ここで、実行判定部43は、実行情報が第2条件を満たさないと判定した場合、制御装置102に判定結果を出力してもよい。
一方、実行判定部43は、実行情報検出部33から取得した実行情報が、第2条件を満たすと判定した場合(ST111:YES)、判定結果を認証処理部40の照合部42に出力する。そして、照合部42は、特徴情報検出部30から画像取得部10が取得した撮像画像における顔情報を取得し、撮像画像における顔情報と、記憶部50に格納された照合用画像の顔情報との類似度を算出する(ST112)。
そして、照合部42は、算出した類似度と設定された閾値とを比較し、類似度が閾値以上であるか否かを判定する(ST113)。照合部42は、類似度が閾値以上であると判定した場合(ST113:YES)、記憶部50から、類似度が閾値以上となったユーザに関連する識別子及び関連情報等を取得し、識別子及び関連情報等を、第2個人認証処理の結果として、制御装置102に出力し(ST114)、個人認証装置100の動作を終了する。なお、上述のように、第2個人認証処理において、照合処理に成功した場合、第2個人認証処理の結果は、照合処理の結果となる。
また、照合部42により、類似度が設定された閾値未満であると判定された場合(ST113:NO)、個人認証装置100の動作は、ST109の処理に進む。なお、個人認証装置100のカウント部により、ST112及びST113の照合処理が失敗した回数をカウントしてもよい。この場合、照合処理が失敗した回数が設定された回数を超えた場合、照合処理が失敗したことを示す信号を、第2個人認証処理の結果として、制御装置102に出力し、個人認証装置100の動作を終了させてもよい。
なお、個人認証装置100の動作において、認証処理部40は、第1個人認証処理を実行する場合、第1個人認証処理に加えて第2個人認証処理を実行し、第1個人認証処理の結果及び第2個人認証処理の結果が一致した場合、前述の一致した結果を、第1個人認証処理の結果としてもよい。このようにすると、第1個人認証処理を実行する場合は、照合処理の実行に要する条件が異なる、複数の個人認証処理を行うため、個人認証処理の結果の信頼性を向上できる。
次に、個人認証装置100の機能を実現するハードウェア構成について説明する。図6は、実施の形態1に係る個人認証装置100のハードウェア構成例を示す図である。個人認証装置100における画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43の機能は、処理回路によって実現される。すなわち、個人認証装置100の、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43は、図6Aに示すように専用のハードウェアである処理回路100aであってもよいし、図6Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図6Aに示すように、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図6Bに示すように、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43の各機能を実現する。すなわち、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43は、プロセッサ100bにより実行されるときに、図5に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43の手順又は方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、個人認証装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。また、画像取得部10、車両情報取得部20、特徴情報検出部30、特徴点検出部31、特徴量算出部32、実行情報検出部33、認証処理部40、要求取得部41、照合部42、及び実行判定部43の少なくとも一部の機能を、個人認証システム101の外部に存在するサーバに実行させてもよい。
なお、本実施の形態において、図5に示したフローチャートにおいて、認証処理部40が、要求取得部41による要求信号の取得(ST101)、実行判定部43による実行情報が第1条件を満たすか否かの実行判定処理(ST105)、及び照合部42による照合処理(ST106、107)を順に行い、ST108の処理で、第1個人認証処理の結果を出力する例を説明したが、第1個人認証処理の流れは上述の例に限らない。例えば、認証処理部40は、要求取得部41による要求信号の取得(ST101)、照合部42による照合処理(ST106、107)、及び実行判定部43による実行情報が第1条件を満たすか否かの実行判定処理(ST105)を順に行ってもよく、実行判定処理は、照合処理の前又は後の少なくともいずれかに行われればよい。
実行判定処理を照合処理の後に行う場合、実行判定部43により、実行情報が第1条件を満たすと判定された場合に照合処理の結果を制御装置102に出力し、実行情報が第1条件を満たさないと判定された場合に照合処理の結果を棄却、すなわち制御装置102に出力しないようにすればよい。つまり、実行判定部43による、照合処理を実行するか否かを判定する実行判定処理とは、照合処理を開始するか否かを判定する処理だけでなく、照合処理の結果を出力するか否かを判定する処理も含む。このようにすると、照合処理に用いられた顔情報に関連する実行情報が第1条件を満たした場合にのみ、制御装置102に個人認証処理の結果を出力するため、制御装置102に出力される個人認証処理の結果の信頼性を担保できる。なお、第2個人情報処理の流れについても同様である。すなわち、照合処理の実行とは、照合処理の開始に限らず、照合処理の結果の出力を含むものである。
なお、本実施の形態において、第1条件及び第2条件をそれぞれ設ける例について説明したが、少なくとも第1条件を設ければ、第2条件は設けなくてもよい。すなわち、認証処理部40は、個人認証処理として、第1個人認証処理と第2個人認証処理のいずれかを実行し、実行情報が設定された条件を満たす場合は、照合処理を実行するようにしてもよい。この場合の設定された条件は、第1条件である。
図7は、実施の形態1に係る個人認証装置100の動作例を示すフローチャートである。図7には、図5に示すフローチャートにおいて、ST111の実行判定処理を省略した例を示している。第2条件を設けない場合、図7に示すフローチャートのように、実行判定部43による、実行情報が第2条件を満たすか否かの実行判定処理を省略可能となる。このようにしても、第1個人認証処理の結果の信頼性は担保されるため、個人認証処理の結果に高い信頼性が要求される場合であっても、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる。
このように、個人認証装置100に、対象人物を撮像する撮像装置200から、撮像画像を取得する画像取得部10と、撮像画像から、対象人物の顔情報を検出する特徴情報検出部30と、顔情報を用いて、対象人物を特定する処理である個人認証処理を実行する認証処理部40と、を備え、特徴情報検出部30は、撮像画像から、認証処理部40による、顔情報を用いて対象人物を照合する処理である照合処理を、実行するか否かの判定に関する実行情報を取得し、認証処理部40は、個人認証処理として、第1個人認証処理及び第2個人認証処理のいずれかを実行し、第1個人認証処理は、照合処理と、照合処理の前又は後に、実行情報及び設定された第1条件に基づき照合処理を実行するか否かの実行判定処理と、を行う処理であり、第2個人認証処理は、照合処理を行う処理であると、個人認証処理の結果に高い信頼性が要求される場合であっても、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる。
実施の形態2.
実施の形態2に係る個人認証装置100は、実施の形態1と同様に、撮像画像を取得する画像取得部10と、特徴情報を検出する特徴情報検出部30と、個人認証処理を実行する認証処理部40とを備える。本実施の形態では、個人認証装置100を搭載した車両が走行中である場合は、個人認証処理として第1個人認証処理を実行し、対象人物が車両に乗車した場合は、個人認証処理として第2個人認証処理を実行する点が、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
実施の形態2に係る個人認証装置100は、実施の形態1と同様に、撮像画像を取得する画像取得部10と、特徴情報を検出する特徴情報検出部30と、個人認証処理を実行する認証処理部40とを備える。本実施の形態では、個人認証装置100を搭載した車両が走行中である場合は、個人認証処理として第1個人認証処理を実行し、対象人物が車両に乗車した場合は、個人認証処理として第2個人認証処理を実行する点が、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
上述したように、制御装置102により、個人認証結果を用いた車載機器の制御を行う場合、個人認証処理の結果に求められる信頼性はそれほどまで高くない一方で、座席シートの位置の調整等は対象人物の乗車から運転の開始までに行われることが好ましい。また、制御装置102により、外部サーバとの通信を行って、個人認証処理の結果を用いた決済処理を行う場合、認証処理部40による個人認証処理の結果には、高い信頼性が求められる。その一方で、信頼性の高い結果が得られる個人認証処理については、処理負荷が高く、個人認証処理の完了までに長い時間を要する可能性がある。そのため、信頼性の高い結果が得られる個人認証処理については、個人認証処理の完了まで、時間的な余裕がある状況で実行されることが好ましい。
そこで、本実施の形態に係る認証処理部40は、車両情報取得部20が取得した車両の走行状態に関する車両情報により、車両が走行中であることが示された場合、個人認証処理として、第1個人認証処理を実行し、対象人物が車両に乗車したことが示された場合、個人認証処理として、第2個人認証処理を実行する。
なお、車両が走行中であるとは、単に車両が走行している場合に限らず、信号待ち等で車両が一時的に停車していることを含む。さらに、対象人物が車両に乗車したとは、単に対象人物が車両に乗車した時点に限らず、車両の運転開始の準備等をして、車両に乗車してから所定の時間が経過している場合を含む。
以下、車両情報取得部20が制御装置102から取得する走行情報とともに、認証処理部40の個人認証処理について説明する。走行情報とは、車両の走行状態に関する情報をいい、制御装置102から車両情報取得部20に出力される情報のうち、例えば、ドアの開錠、ドアのオープン、イグニッションのON又はOFF、シフトレバーの位置、車両速度、ナビゲーション装置による案内の開始又は終了、及び車両の自宅から出発又は自宅への帰着等を示す信号の少なくともいずれかである。
認証処理部40の実行判定部43は、車両情報取得部20から走行情報を取得する。そして、実行判定部43は、走行情報から車両が走行中であることが示された場合、特徴情報検出部30の実行情報検出部33から実行情報を取得し、実行情報が設定された第1条件を満たすか否かを判定する。一方、実行判定部43は、走行情報から車両に対象人物が乗車したことが示された場合、実行情報検出部33から実行情報を取得し、実行情報が設定された第2条件を満たすか否かを判定する。ここで、第1条件は、第2条件に比して厳しい条件であり、第1条件及び第2条件については、実施の形態1と同様であるため、説明を省略する。なお、本実施の形態においても、実行判定処理とは、実行情報及び設定された条件に基づいて、照合処理を実行するか否かを判定する処理である。
例えば、実行判定部43は、取得した走行情報を用いて、車両のドアが開かれた後に経過した時間(以下、経過時間という)をカウントし、経過時間が設定された閾値以上である場合は、車両が走行中であるとする。一方、実行判定部43は、経過時間が設定された閾値未満である場合は、対象人物が車両に乗車したとする。上述の経過時間と比較される閾値とは、例えば60秒であり、これは、車両のドアが開かれれば対象人物が車両に乗車すると考えられ、車両の運転開始まで、60秒程度の時間を要すると考えられることに基づく。
なお、認証処理部40にカウント部を設け、認証処理部40のカウント部により経過時間を算出してもよい。また、実行判定部43は、経過時間が設定された閾値未満であり、かつイグニッションがONにされた旨を示す走行情報を取得した等、対象人物による運転動作が開始されたと考えられる場合には、経過時間が設定された閾値未満であっても、車両が走行中であるとしてもよい。上述のように、実行判定部43により対象人物が車両に乗車したとされる状態と、車両が走行中であるとされる状態とは、併存しないと好ましい。
ここで、認証処理部40の要求取得部41が取得する要求信号は、実施の形態1と異なり、制御装置102が実行する機能によって異なるものでなくてもよい。本実施の形態においては、認証処理部40は、車両が走行中であれば第1個人認証処理を実行し、対象人物が車両に乗車すれば第2個人認証処理を実行するため、制御装置102が外部サーバとの通信、又は車載機器の制御を実行する場合に、それぞれ第1個人認証処理の結果又は第2個人認証処理の結果が用いられればよい。そのため、認証処理部40の第1個人認証処理の結果及び第2個人認証処理の結果はそれぞれ、実行された個人認証処理の種別を示す情報とともに、記憶部50等に格納され、適宜、制御装置102に出力されればよい。
次に、個人認証装置100の動作について説明する。図8は、実施の形態2に係る個人認証装置100の動作例を示すフローチャートである。個人認証装置100は、例えば、車両情報取得部20が、制御装置102から車両のドアが開錠された旨を示す信号を取得した場合、動作を開始する。なお、以下の個人認証装置100の動作例の説明において、図5で説明した処理と同様の処理については、説明を簡略化する。
まず、個人認証装置100の動作が開始した後、車両情報取得部20は、制御装置102から走行情報を取得する(ST201)。そして、認証処理部40の実行判定部43は、車両情報取得部20が取得した走行情報により、車両が走行中であることが示されたか、又は対象人物が車両に乗車したことが示されたかを判定する。例えば、実行判定部43は、ST202の処理において、車両情報取得部20が取得した走行情報を用いて、車両のドアが開かれた後に経過した経過時間をカウントし、経過時間が設定された閾値以上であるか否かによって、車両が走行中であるか、又は車両に対象人物が乗車したかを判定する。
実行判定部43により、経過時間が閾値以上であると判定された場合(ST202:YES)、画像取得部10は、撮像装置200から撮像画像を取得する(ST103)。次いで、特徴情報検出部30は、画像取得部10が取得した撮像画像を用いて、特徴情報検出処理を行う(ST104)。
なお、図8において、ST201の処理で車両情報取得部20が走行情報を取得した後に、画像取得部10による撮像画像の取得(ST103、109)、及び特徴情報検出部30による特徴情報検出処理(ST104、110)を行う例を示しているが、画像取得部10及び特徴情報検出部30はそれぞれ、個人認証装置100の動作が開始された後、常に又は間欠的に、撮像画像の取得及び特徴情報検出処理を行っていてもよい。
そして、実行判定部43は、実行情報検出部33から実行情報を取得し、実行情報が第1条件を満たすか否かを判定する(ST105)。以下、第1条件が、撮像画像の輝度に関する条件である例を挙げて説明する。
実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、撮像画像の輝度が、第1の範囲内であることが示されれば、実行情報が第1条件を満たすと判定する。一方、実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、撮像画像の輝度が、第1の範囲外であることが示されれば、実行情報が第1条件を満たさないと判定する。
実行判定部43により、実行情報検出部33から取得した実行情報が、第1条件を満たさないと判定された場合(ST105:NO)、個人認証装置100の動作は、ST103の処理に進み、再度、ST103~ST105の処理を行う。ここで、実行判定部43は、実行情報が第1条件を満たさないと判定した場合、制御装置102に判定結果を出力してもよい。また、制御装置102は、実行情報が第1条件を満たさないことを示す判定結果を取得した場合、車両に搭載された音響機器、又はナビゲーション装置等に、実行情報が第1条件を満たさない旨を対象人物に向けて通知させてもよい。さらに、撮像装置200が、例えば赤外線の光源を有する場合は、制御装置102は、撮像画像の輝度が第1の範囲内に収まるように、光源から照射される光量を調整してもよい。
一方、実行判定部43は、実行情報検出部33から取得した実行情報が、第1条件を満たすと判定した場合(ST105:YES)、判定結果を認証処理部40の照合部42に出力する。そして、照合部42は、特徴情報検出部30から画像取得部10が取得した撮像画像における顔情報を取得し、撮像画像における顔情報と、記憶部50に格納された照合用画像の顔情報との類似度を算出する(ST106)。
そして、照合部42は、算出した類似度と設定された閾値とを比較し、類似度が閾値以上であるか否かを判定する(ST107)。照合部42は、類似度が閾値以上であると判定した場合(ST107:YES)、記憶部50から、類似度が閾値以上となったユーザに関連する識別子及び関連情報等を取得する。
そして、要求取得部41は、制御装置102から要求信号を取得したか否かを確認する(ST203)。要求取得部41は、制御装置102から要求信号を取得したことを確認した場合(ST203:YES)、要求信号を照合部42に出力する。そして、照合部42は、照合処理で取得した識別子及び関連情報等を、第1個人認証処理の結果として、制御装置102に出力し(ST108)、個人認証装置100の動作を終了する。
一方、要求取得部41により、制御装置102から要求信号を取得したことを確認できなかった場合(ST203:NO)、個人認証装置100の動作は、再度、ST203の処理に進む。なお、要求取得部41により、再度、ST203の処理を行う場合、制御装置102から要求信号を取得したか否かの確認を、所定の間隔を設けて行うと、必要以上に処理負荷が増大することを防止できる。
また、照合部42により、類似度が設定された閾値未満であると判定された場合(ST107:NO)、個人認証装置100の動作は、ST103の処理に進む。なお、個人認証装置100は、例えば、カウント部を備え、カウント部により、ST106及びST107の照合処理が失敗した回数をカウントしてもよい。この場合、照合処理が失敗した回数が設定された回数を超えた場合、照合処理が失敗したことを示す信号を、第1個人認証処理の結果として、制御装置102に出力し、個人認証装置100の動作を終了させてもよい。
次に、実行判定部43により、経過時間が閾値未満であると判定された場合(ST202:NO)について説明する。なお、ST103~ST108、203で説明した処理と同様の処理については、適宜説明を簡略化する。まず、画像取得部10は、撮像装置200から撮像画像を取得する(ST109)。次いで、特徴情報検出部30は、画像取得部10が取得した撮像画像を用いて、特徴情報検出処理を行う(ST110)。
なお、図5において、ST101の処理で要求取得部41が要求信号を取得した後に、画像取得部10による撮像画像の取得、及び特徴情報検出部30による特徴情報検出処理を行う例を示しているが、画像取得部10及び特徴情報検出部30はそれぞれ、個人認証装置100の動作が開始された後、常に又は間欠的に、撮像画像の取得及び特徴情報検出処理を行っていてもよい。
そして、実行判定部43は、実行情報検出部33から実行情報を取得し、実行情報が第2条件を満たすか否かを判定する(ST111)。以下、第2条件が、撮像画像の輝度に関する条件である例を挙げて説明する。
実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、撮像画像の輝度が、第1の範囲よりも広い範囲である、第2の範囲内にあることが示されれば、実行情報が第2条件を満たすと判定する。一方、実行判定部43は、例えば、実行情報検出部33から取得した実行情報から、撮像画像の輝度が、第2の範囲外にあることが示されれば、実行情報が第2条件を満たさないと判定する。
実行判定部43により、実行情報検出部33から取得した実行情報が、第2条件を満たさないと判定された場合(ST111:NO)、個人認証装置100の動作は、ST109の処理に進み、再度、ST109~ST111の処理を行う。ここで、実行判定部43は、実行情報が第2条件を満たさないと判定した場合、制御装置102に判定結果を出力してもよい。
一方、実行判定部43は、実行情報検出部33から取得した実行情報が、第2条件を満たすと判定した場合(ST111:YES)、判定結果を認証処理部40の照合部42に出力する。なお、実施の形態1と同様に、実行判定部43による第2条件を満たすか否かの実行判定処理を省略する場合、ST111の処理は省略可能である。
次いで、照合部42は、特徴情報検出部30から画像取得部10が取得した撮像画像における顔情報を取得し、撮像画像における顔情報と、記憶部50に格納された照合用画像の顔情報との類似度を算出する(ST112)。
そして、照合部42は、算出した類似度と設定された閾値とを比較し、類似度が閾値以上であるか否かを判定する(ST113)。照合部42は、類似度が閾値以上であると判定した場合(ST113:YES)、記憶部50から、類似度が閾値以上となったユーザに関連する識別子及び関連情報等を取得する。
要求取得部41は、制御装置102から要求信号を取得したか否かを確認する(ST204)。要求取得部41は、制御装置102から要求信号を取得したことを確認した場合(ST204:YES)、要求信号を照合部42に出力する。そして、照合部42は、照合処理で取得した識別子及び関連情報等を、第2個人認証処理の結果として、制御装置102に出力し(ST114)、個人認証装置100の動作を終了する。
一方、要求取得部41により、制御装置102から要求信号を取得したことを確認できなかった場合(ST204:NO)、個人認証装置100の動作は、再度、ST204の処理に進む。なお、要求取得部41により、再度、ST204の処理を行う場合、制御装置102から要求信号を取得したか否かの確認を、所定の間隔を設けて行うと、必要以上に処理負荷が増大することを防止できる。
また、照合部42により、類似度が設定された閾値未満であると判定された場合(ST113:NO)、個人認証装置100の動作は、ST109の処理に進む。なお、個人認証装置100のカウント部により、ST112及びST113の照合処理が失敗した回数をカウントしてもよい。この場合、照合処理が失敗した回数が設定された回数を超えた場合、照合処理が失敗したことを示す信号を、第2個人認証処理の結果として、制御装置102に出力し、個人認証装置100の動作を終了させてもよい。
なお、個人認証装置100の動作において、認証処理部40は、第1個人認証処理を実行する場合、第1個人認証処理に加えて第2個人認証処理を実行し、第1個人認証処理の結果及び第2個人認証処理の結果が一致した場合、前述の一致した結果を、第1個人認証処理の結果としてもよい。このようにすると、第1個人認証処理を実行する場合は、実行に要する条件の異なる複数の個人認証処理を行うため、個人認証処理の結果の信頼性を向上できる。
なお、本実施の形態において、図8に示したフローチャートを用いて、認証処理部40が、実行判定部43による実行情報が第1条件を満たすか否かの実行判定処理(ST105)、及び照合部42による照合処理(ST106、107)を順に行い、ST108の処理で、第1個人認証処理の結果を出力する例を説明したが、第1個人認証処理の流れは上述の例に限らない。例えば、認証処理部40は、照合部42による照合処理(ST106、107)、及び実行判定部43による実行情報が第1条件を満たすか否かの実行判定処理(ST105)を順に行ってもよく、実行判定処理は、照合処理の前又は後の少なくともいずれかに行われればよい。
実行判定処理を照合処理の後に行う場合、実行判定部43により、実行情報が第1条件を満たすと判定された場合に照合処理の結果を制御装置102に出力し、実行情報が第1条件を満たさないと判定された場合に照合処理の結果を制御装置102に出力しないようにすればよい。このようにすると、照合処理に用いられた顔情報に関連する実行情報が第1条件を満たした場合にのみ、制御装置102に個人認証処理の結果を出力するため、制御装置102に出力される個人認証処理の結果の信頼性を担保できる。なお、第2個人情報処理の流れについても同様である。つまり、実行判定部43による、照合処理を実行するか否かを判定する実行判定処理とは、照合処理を開始するか否かを判定する処理だけでなく、照合処理の結果を出力するか否かを判定する処理も含む。
上述したように、認証処理部40が、車両情報取得部20が取得した車両の走行状態に関する車両情報により、車両が走行中であることが示された場合、個人認証処理として、第1個人認証処理を実行し、対象人物が車両に乗車したことが示された場合、個人認証処理として、第2個人認証処理を実行するため、個人認証処理の結果に高い信頼性が要求される場合であっても、個人認証処理の結果に高い信頼性が要求されない場合であっても、個人認証処理を実行できる。
実施の形態3.
実施の形態3に係る個人認証装置100は、実施の形態1と同様に、撮像画像を取得する画像取得部10と、特徴情報を検出する特徴情報検出部30と、個人認証処理を実行する認証処理部40とを備える。本実施の形態では、特徴情報検出部30が検出した顔情報から、撮像画像内の対象人物と、照合用画像内のユーザとの類似度を推論するための学習済モデルが記録された学習済モデル記憶部80から取得した類似度を用いて、個人認証処理を実行する点が、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
実施の形態3に係る個人認証装置100は、実施の形態1と同様に、撮像画像を取得する画像取得部10と、特徴情報を検出する特徴情報検出部30と、個人認証処理を実行する認証処理部40とを備える。本実施の形態では、特徴情報検出部30が検出した顔情報から、撮像画像内の対象人物と、照合用画像内のユーザとの類似度を推論するための学習済モデルが記録された学習済モデル記憶部80から取得した類似度を用いて、個人認証処理を実行する点が、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
以下、個人認証装置100に関する学習装置104と、個人認証装置100とについてそれぞれ説明する。
図9は、実施の形態3に係る個人認証装置100に関する学習装置104の構成図である。学習装置104は、データ取得部81、モデル生成部82、及び学習済モデル記憶部80を備える。
データ取得部81は、照合用画像内のユーザの顔情報(以下、照合用画像における顔情報という)と、照合用画像内のユーザを特定するラベルを学習用データとして取得する。以下では、照合用画像内のユーザを特定するラベルが、ユーザに割り当てられた識別子である例を挙げて説明する。
モデル生成部82は、データ取得部81から出力される照合用画像における顔情報と、識別子との組み合わせに基づいて作成される学習用データに基づいて、個人認証装置100の照合処理に用いられる類似度を学習する。すなわち、個人認証装置100の顔情報から最適な類似度を推論する学習済モデルを生成する。ここで、学習用データは、照合用画像の顔情報及び識別子を互いに関連付けたデータである。なお、図9に示すように、照合用画像及び識別子を互いに関連付けたデータを学習用データとしてもよい。
なお、学習装置104は、個人認証装置100の照合処理に用いられる類似度を学習するために使用されるが、例えば、ネットワークを介して個人認証装置100に接続され、個人認証装置100とは別個の装置であってもよい。また、学習装置104は、個人認証装置100に内蔵されていてもよい。さらに、学習装置104は、クラウドサーバ上に存在していてもよい。
モデル生成部82が用いる学習アルゴリズムは、教師あり学習、教師なし学習、強化学習等の公知の種々のアルゴリズムを用いることができる。以下、一例として、ニューラルネットワークを適用した場合について説明する。
モデル生成部82は、例えば、ニューラルネットワークモデルに従って、いわゆる教師あり学習により、類似度を学習する。ここで、教師あり学習とは、入力と結果(ラベル)のデータの組を学習装置104に与えることで、それらの学習用データにある特徴を学習し、入力から結果を推論する手法をいう。
図10は、実施の形態3に係る学習装置104のニューラルネットワークの学習例を示す説明図である。ニューラルネットワークは、複数のニューロンを有する入力層、複数のニューロンを有する中間層(隠れ層)、及び複数のニューロンを有する出力層で構成される。なお、中間層は1層、又は2層以上であってもよい。
例えば、図10に示すような3層のニューラルネットワークであれば、複数の入力が入力層(X1-X3)に入力されると、その値に重みW1(w11-w16)を掛けて中間層(Y1-Y2)に入力され、その結果にさらに重みW2(w21-w26)を掛けて出力層(Z1-Z3)から出力される。この出力結果は、重みW1とW2の値によって変化する。
本実施の形態において、ニューラルネットワークは、データ取得部81によって取得される照合用画像における顔情報、識別子の組み合わせに基づいて作成される学習用データに従って、いわゆる教師あり学習により、類似度を学習する。
本実施の形態において、ニューラルネットワークは、入力層に照合用画像における顔情報を入力して出力層から出力された類似度の値が大きくなるように重みW1とW2とを調整することで学習する。モデル生成部82は、上述のような学習を実行することで学習済モデルを生成し、出力する。また、学習済モデル記憶部80は、モデル生成部82から出力された学習済モデルを記憶する。以下、説明のため、学習済モデルを生成する処理を、学習済モデル生成処理という。
図11は、実施の形態3に係る学習装置104の学習済モデル生成処理例を示すフローチャートである。図11を用いて、学習装置104が学習する処理について説明する。まず、データ取得部81は、照合用画像における顔情報と、識別子とを取得する(ST301)。なお、照合用画像における顔情報と、識別子とを同時に取得するものとしたが、照合用画像における顔情報と、識別子とを関連付けて入力できればよく、照合用画像における顔情報と、識別子とのデータをそれぞれ異なるタイミングで取得してもよい。
次に、モデル生成部82は、データ取得部81によって取得される照合用画像における顔情報と、識別子との組み合わせに基づいて作成される学習用データに従って、いわゆる教師あり学習により、類似度を学習し、学習済モデルを生成する(ST302)。そして、学習済モデル記憶部80は、モデル生成部82が生成した学習済モデルを記録する(ST303)。
図12は、実施の形態3に係る個人認証システム101の構成例を示す構成図である。本実施の形態において、個人認証装置100の認証処理部40は、学習済モデル記憶部80と接続されている。
認証処理部40は、学習済モデルを利用して得られる類似度を推論する。すなわち、認証処理部40は、特徴情報検出部30から顔情報を取得し、学習済モデルに特徴情報検出部30から取得した顔情報を入力することで、顔情報から推論される、撮像画像内の対象人物と、照合用画像内のユーザとの類似度を得る。なお、認証処理部40は、類似度とともに、撮像画像内の対象人物と類似度が最も高いと推論されたユーザに関連する識別子を学習済モデルから得てもよい。
なお、本実施の形態では、個人認証装置100に関する学習装置104のモデル生成部82で学習した学習済モデルを用いて類似度を出力するものとして説明したが、他の個人認証装置100に関する学習装置104等の、外部から学習済モデルを取得し、この学習済モデルに基づいて類似度を出力するようにしてもよい。
次に、図13を用いて、類似度を得るための処理について説明する。図13は、実施の形態3に係る個人認証装置100の動作例を示すフローチャートである。図13Aには、図5、図7、及び図8におけるST106の処理に対応するフローチャートを示し、図13Bには、図5及び図8におけるST112の処理に対応するフローチャートを示している。
つまり、図13Aに示す、ST304~ST306には、第1個人認証処理における、照合部42による照合処理を示している。そして、図13Bに示す、ST307~ST309には、第2個人認証処理における、照合部42による照合処理を示している。
まず、図13Aに示す処理について説明する。まず、認証処理部40の照合部42は、特徴情報検出部30から撮像画像における第1顔情報を取得する(ST304)。なお、第1顔情報については詳細を後述する。そして、照合部42は、学習済モデル記憶部80に記録された学習済モデルに第1顔情報を入力し(ST305)、撮像画像内の対象人物と、照合用画像内のユーザとの類似度を得る(ST306)。
次に、図13Bに示す処理について説明する。まず、認証処理部40の照合部42は、特徴情報検出部30から撮像画像における第2顔情報を取得する(ST307)。なお、第2顔情報についても詳細を後述する。そして、照合部42は、学習済モデル記憶部80に記録された学習済モデルに第2顔情報を入力し(ST308)、撮像画像内の対象人物と、照合用画像内のユーザとの類似度を得る(ST309)。
ここで、第1顔情報及び第2顔情報について説明する。第1顔情報は、第2顔情報に比して多くの情報が含まれるものである。顔情報に多くの情報が含まれるとは、例えば、顔情報の検出処理に用いられた顔要素が多い、又は顔情報の検出処理に用いられた画像枚数が多い等である。第1個人認証処理に用いられる顔情報が、第2個人認証処理に用いられる顔情報に比して多くなれば、第1個人認証処理の結果の信頼性を向上できる。
なお、本実施の形態では、モデル生成部82が用いる学習アルゴリズムに教師あり学習を適用した場合について説明したが、これに限られるものではない。学習アルゴリズムについては、教師あり学習以外にも、強化学習、教師なし学習、又は半教師あり学習等を適用することも可能である。
また、モデル生成部82は、複数の個人認証装置100に対して作成される学習用データに従って、類似度を学習するようにしてもよい。なお、モデル生成部82は、同一のエリアで使用される複数の個人認証装置100から学習用データを取得してもよいし、異なるエリアで独立して動作する複数の個人認証装置100から収集される学習用データを利用して類似度を学習してもよい。また、学習用データを収集する個人認証装置100を途中で対象に追加、又は対象から除去することも可能である。さらに、ある個人認証装置100に関して類似度を学習した学習装置104を、これとは別の個人認証装置100に適用し、当該別の個人認証装置100に関して類似度を再学習して更新するようにしてもよい。
また、モデル生成部82に用いられる学習アルゴリズムとしては、照合用画像の顔情報そのものの抽出を学習する、深層学習(Deep Learning)を用いることもでき、他の公知の方法、例えば、勾配ブースティング、遺伝的プログラミング、機能論理プログラミング、サポートベクターマシンなどに従って機械学習を実行してもよい。
なお、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。
10 画像取得部、20 車両情報取得部、30 特徴情報検出部、31 特徴点検出部、32 特徴量算出部、33 実行情報検出部、34 顔向き検出部、35 顔要素検出部、36 表情検出部、37 輝度検出部、38 処理時間検出部、39 生体情報検出部、40 認証処理部、41 要求取得部、42 照合部、43 実行判定部、50 記憶部、60 車両、61 運転席、62 運転者、63 助手席、64、66 同乗者、65 後席左側の座席、67 後席中央の座席、68 後席右側の座席、70 撮像画像、71 顔領域、72 右眼、73 左眼、74 鼻、75 口、80 学習済モデル記憶部、81 データ取得部、82 モデル生成部、100 個人認証装置、101 個人認証システム、102 制御装置、103 通信部、104 学習装置、200 撮像装置。
Claims (16)
- 対象人物を撮像する撮像装置から、撮像画像を取得する画像取得部と、
前記撮像画像から、前記対象人物の顔情報を検出する特徴情報検出部と、
前記顔情報を用いて、前記対象人物を特定する処理である個人認証処理を実行する認証処理部と、を備え、
前記特徴情報検出部は、前記撮像画像から、前記認証処理部による、前記顔情報を用いて前記対象人物を照合する処理である照合処理を実行するか否かの判定に関する実行情報を取得し、
前記認証処理部は、前記個人認証処理として、第1個人認証処理及び第2個人認証処理のいずれかを実行し、
前記第1個人認証処理は、前記照合処理と、前記照合処理の前又は後に、前記実行情報及び設定された第1条件に基づき前記照合処理を実行するか否かの実行判定処理と、を行う処理であり、
前記第2個人認証処理は、前記照合処理を行う処理である
ことを特徴とする個人認証装置。 - 前記第2個人認証処理は、前記照合処理と、前記照合処理の前又は後に、前記実行情報及び設定された第2条件に基づき前記照合処理を実行するか否かの実行判定処理とを行う処理であり、
前記第1条件は、前記第2条件に比して厳しい条件である
ことを特徴とする請求項1に記載の個人認証装置。 - 前記実行情報は、前記対象人物の顔向きに関する情報を含み、
前記認証処理部は、前記実行情報から、前記撮像画像内の前記対象人物の、前記撮像装置に対する顔向きが、設定された第1の範囲内にあることが示された場合、前記第1条件を満たすとして、前記第1個人認証処理の前記照合処理を実行し、
前記実行情報から、前記撮像画像内の前記対象人物の、前記撮像装置に対する顔向きが、前記第1の範囲よりも広い範囲である、設定された第2の範囲内にあることが示された場合、前記第2条件を満たすとして、前記第2個人認証処理の前記照合処理を実行する
ことを特徴とする請求項2に記載の個人認証装置。 - 前記実行情報は、前記対象人物の顔向きに関する情報を含み、
前記認証処理部は、前記実行情報から、前記撮像画像内の前記対象人物の顔向きと、照合用画像内の人物の顔向きとの差異が、設定された第1の範囲内にあることが示された場合、前記第1条件を満たすとして、前記第1個人認証処理の前記照合処理を実行し、
前記実行情報から、前記撮像画像内の前記対象人物の顔向きと、照合用画像内の人物の顔向きとの差異が、前記第1の範囲よりも広い範囲である、設定された第2の範囲内にあることが示された場合、前記第2条件を満たすとして、前記第2個人認証処理の前記照合処理を実行する
ことを特徴とする請求項2に記載の個人認証装置。 - 前記実行情報は、前記撮像画像の輝度に関する情報を含み、
前記認証処理部は、前記実行情報から、前記撮像画像の輝度が、設定された第1の範囲内にあることが示された場合、前記第1条件を満たすとして、前記第1個人認証処理の前記照合処理を実行し、
前記実行情報から、前記撮像画像の輝度が、前記第1の範囲よりも広い範囲である、設定された第2の範囲内にあることが示された場合、前記第2条件を満たすとして、前記第2個人認証処理の前記照合処理を実行する
ことを特徴とする請求項2に記載の個人認証装置。 - 前記実行情報は、前記対象人物の表情に関する情報を含み、
前記認証処理部は、前記実行情報から、前記対象人物の表情が、設定された第1の表情の少なくともいずれかであることが示された場合、前記第1条件を満たすとして、前記第1個人認証処理の前記照合処理を実行し、
前記実行情報から、前記対象人物の表情が、前記第1の表情よりも規定された表情が多い、設定された第2の表情の少なくともいずれかであることが示された場合、前記第2条件を満たすとして、前記第2個人認証処理の前記照合処理を実行する
ことを特徴とする請求項2に記載の個人認証装置。 - 前記実行情報は、前記特徴情報検出部が前記顔情報の検出に要した時間を示す処理時間に関する情報を含み、
前記認証処理部は、前記実行情報から、前記処理時間が、設定された第1の閾値以上であることが示された場合、前記第1条件を満たすとして、前記第1個人認証処理の前記照合処理を実行し、
前記実行情報から、前記処理時間が、前記第1の閾値よりも小さい値である、設定された第2の閾値以上であることが示された場合、前記第2条件を満たすとして、前記第2個人認証処理の前記照合処理を実行する
ことを特徴とする請求項2に記載の個人認証装置。 - 前記実行情報は、前記撮像画像から検出された前記対象人物の顔要素に関する情報を含み、
前記認証処理部は、前記実行情報から、前記顔要素の数が、設定された第1の閾値以上であることが示された場合、前記第1条件を満たすとして、前記第1個人認証処理の前記照合処理を実行し、
前記実行情報から、前記顔要素の数が、前記第1の閾値よりも小さい値である、設定された第2の閾値以上であることが示された場合、前記第2条件を満たすとして、前記第2個人認証処理の前記照合処理を実行する
ことを特徴とする請求項2に記載の個人認証装置。 - 前記実行情報は、前記撮像画像内の前記対象人物が生体であるか否かを示す生体情報を含み、
前記認証処理部は、前記第1条件を満たし、かつ前記生体情報から前記対象人物が生体であることが示された場合、前記第1個人認証処理の前記照合処理を実行する
ことを特徴とする請求項1から請求項8のいずれか一項に記載の個人認証装置。 - 前記認証処理部は、前記特徴情報検出部が検出した前記顔情報から、前記撮像画像内の前記対象人物と、照合用画像内の人物との類似度を推論するための学習済モデルが記録された学習済モデル記憶部から取得した前記類似度を用いて、前記照合処理を実行し、
前記第1個人認証処理の前記照合処理を実行する場合に用いられる前記顔情報は、前記第2個人認証処理の前記照合処理を実行する場合に用いられる前記顔情報に比して多い
ことを特徴とする請求項1から請求項9のいずれか一項に記載の個人認証装置。 - 前記認証処理部は、前記第1個人認証処理を実行する場合、前記第1個人認証処理に加えて前記第2個人認証処理を実行し、前記第1個人認証処理の結果及び前記第2個人認証処理の結果が一致した場合、前記結果を前記第1個人認証処理の結果とする
ことを特徴とする請求項1から請求項10のいずれか一項に記載の個人認証装置。 - 前記撮像装置は、前記対象人物が乗車する車両の内部において、前記対象人物よりも前方に設けられ、
前記画像取得部は、前記撮像装置から、前記車両の内部に存在する前記対象人物が撮像された画像を前記撮像画像として取得する
ことを特徴とする請求項1から請求項11のいずれか一項に記載の個人認証装置。 - 前記個人認証処理の結果を用いて、前記車両の外部に設けられた外部サーバとの通信、及び前記車両に設けられた車載機器の制御を行う、前記車両に設けられた制御装置から、前記個人認証処理の結果の出力を要求する要求信号を取得する要求取得部をさらに備え、
前記要求取得部は、前記制御装置が前記外部サーバとの通信を行う場合、前記要求信号として第1要求信号を取得し、
前記制御装置が前記車載機器の制御を行う場合、前記要求信号として前記第1要求信号と異なる第2要求信号を取得し、
前記認証処理部は、前記要求取得部が前記第1要求信号を取得した場合、前記第1個人認証処理を実行して、前記第1個人認証処理の結果を前記制御装置に出力し、
前記要求取得部が前記第2要求信号を取得した場合、前記第2個人認証処理を実行して、前記第2個人認証処理の結果を前記制御装置に出力する
ことを特徴とする請求項12に記載の個人認証装置。 - 前記車両の走行状態に関する走行情報を取得する車両情報取得部をさらに備え、
前記認証処理部は、前記走行情報から、前記車両が走行中であることを示された場合、前記第1個人認証処理を実行して、前記第1個人認証処理の結果を前記車両に設けられた制御装置に出力し、
前記走行情報から、前記対象人物が前記車両に乗車したことが示された場合、前記第2個人認証処理を実行して、前記第2個人認証処理の結果を前記制御装置に出力する
ことを特徴とする請求項12に記載の個人認証装置。 - 対象人物を撮像する撮像装置と、
前記撮像装置から、撮像画像を取得する画像取得部と、
前記撮像画像から、前記対象人物の顔情報を検出する特徴情報検出部と、
前記顔情報を用いて、前記対象人物を特定する処理である個人認証処理を実行する認証処理部と、を備え、
前記特徴情報検出部は、前記撮像画像から、前記認証処理部による、前記顔情報を用いて前記対象人物を照合する処理である照合処理を実行するか否かの判定に関する実行情報を取得し、
前記認証処理部は、前記個人認証処理として、第1個人認証処理及び第2個人認証処理のいずれかを実行し、
前記第1個人認証処理は、前記照合処理と、前記照合処理の前又は後に、前記実行情報及び設定された第1条件に基づき前記照合処理を実行するか否かの実行判定処理と、を行う処理であり、
前記第2個人認証処理は、前記照合処理を行う処理である
ことを特徴とする個人認証システム。 - 前記撮像装置は、前記対象人物が乗車する車両の内部において、前記対象人物よりも前方に設けられ、
前記画像取得部は、前記撮像装置から、前記車両の内部に存在する前記対象人物が撮像された画像を前記撮像画像として取得する
ことを特徴とする請求項15に記載の個人認証システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/020635 WO2022254501A1 (ja) | 2021-05-31 | 2021-05-31 | 個人認証装置及び個人認証システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/020635 WO2022254501A1 (ja) | 2021-05-31 | 2021-05-31 | 個人認証装置及び個人認証システム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022254501A1 true WO2022254501A1 (ja) | 2022-12-08 |
Family
ID=84322938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/020635 WO2022254501A1 (ja) | 2021-05-31 | 2021-05-31 | 個人認証装置及び個人認証システム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2022254501A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122454A (ja) * | 2005-10-28 | 2007-05-17 | Konica Minolta Holdings Inc | 認証システム、登録システム及びプログラム |
JP2008265676A (ja) * | 2007-04-24 | 2008-11-06 | Mitsubishi Electric Corp | 車両安全システム |
JP2016194804A (ja) * | 2015-03-31 | 2016-11-17 | Kddi株式会社 | 人物特定装置およびプログラム |
WO2019150807A1 (ja) * | 2018-02-01 | 2019-08-08 | ミツミ電機株式会社 | 認証装置 |
WO2020179334A1 (ja) * | 2019-03-04 | 2020-09-10 | パナソニックIpマネジメント株式会社 | 顔認証管理サーバおよび顔認証管理方法 |
JP2020181305A (ja) * | 2019-04-24 | 2020-11-05 | 凸版印刷株式会社 | 生体判別装置及び生体判別方法、並びに個人認証方法 |
-
2021
- 2021-05-31 WO PCT/JP2021/020635 patent/WO2022254501A1/ja unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122454A (ja) * | 2005-10-28 | 2007-05-17 | Konica Minolta Holdings Inc | 認証システム、登録システム及びプログラム |
JP2008265676A (ja) * | 2007-04-24 | 2008-11-06 | Mitsubishi Electric Corp | 車両安全システム |
JP2016194804A (ja) * | 2015-03-31 | 2016-11-17 | Kddi株式会社 | 人物特定装置およびプログラム |
WO2019150807A1 (ja) * | 2018-02-01 | 2019-08-08 | ミツミ電機株式会社 | 認証装置 |
WO2020179334A1 (ja) * | 2019-03-04 | 2020-09-10 | パナソニックIpマネジメント株式会社 | 顔認証管理サーバおよび顔認証管理方法 |
JP2020181305A (ja) * | 2019-04-24 | 2020-11-05 | 凸版印刷株式会社 | 生体判別装置及び生体判別方法、並びに個人認証方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10322728B1 (en) | Method for distress and road rage detection | |
US10745018B2 (en) | Hybrid user recognition systems for vehicle access and control | |
CN105512632B (zh) | 活体检测方法及装置 | |
US20190251335A1 (en) | Facial verification method and apparatus | |
JP4675492B2 (ja) | 顔画像を使用した個人認証装置 | |
CN110088761A (zh) | 车载图像认证装置 | |
KR102429822B1 (ko) | 운전자의 감정상태 인식 장치 및 방법 | |
CN112622917A (zh) | 用于认证交通工具的乘员的系统和方法 | |
Erzin et al. | Multimodal person recognition for human-vehicle interaction | |
US20200193005A1 (en) | Authentication system for vehicle | |
KR101165106B1 (ko) | 얼굴 인식에 기반한 운전자 인증 장치 및 방법 | |
JP7290930B2 (ja) | 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム | |
CN111310551B (zh) | 用于识别特定于乘员的设置的方法及用于执行该方法的车辆 | |
JP2021120895A (ja) | 認証装置、認証方法、プログラム | |
US20200074060A1 (en) | User authentication device and method for triggering user-specific target operation | |
Azadani et al. | Siamese temporal convolutional networks for driver identification using driver steering behavior analysis | |
WO2022254501A1 (ja) | 個人認証装置及び個人認証システム | |
US11279204B2 (en) | Vehicle and method for controlling the same | |
US11495074B2 (en) | Face recognition unlocking device and operation method thereof | |
JP7325687B2 (ja) | 眠気推定装置及び眠気推定システム | |
WO2022113275A1 (ja) | 睡眠検出装置及び睡眠検出システム | |
JP7399324B2 (ja) | 調整装置、調整システム、および、調整方法 | |
US11436864B2 (en) | Driver recognition to control vehicle systems | |
WO2021064985A1 (ja) | 異常状態推定装置および異常状態推定方法 | |
CN108128264A (zh) | 一种驾驶员身份识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21944012 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |