JP2021096831A - 判定装置、判定装置を含む携帯端末、および判定装置用のプログラム - Google Patents
判定装置、判定装置を含む携帯端末、および判定装置用のプログラム Download PDFInfo
- Publication number
- JP2021096831A JP2021096831A JP2020173696A JP2020173696A JP2021096831A JP 2021096831 A JP2021096831 A JP 2021096831A JP 2020173696 A JP2020173696 A JP 2020173696A JP 2020173696 A JP2020173696 A JP 2020173696A JP 2021096831 A JP2021096831 A JP 2021096831A
- Authority
- JP
- Japan
- Prior art keywords
- data
- face
- imaging
- light emitting
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 102
- 238000000034 method Methods 0.000 claims description 65
- 238000013527 convolutional neural network Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 8
- 239000003086 colorant Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 16
- 230000001815 facial effect Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
また、特許文献2および3、4に記載の技術においては、認証方法を切り替えたり、認証方法を選択して認証するため、利便性が低いという問題が生じる。
さらに、特許文献5に記載の技術においては、不正使用を防止し難いという問題が生じる。
本発明の他の目的は、処理スピードを高めるとともに、一度の撮像により不正利用を防止し、人を確実に判定することができる、判定装置、判定装置を含む携帯端末、および判定装置用のプログラムを提供することにある。
一局面に従う判定装置は、人の顔を判定する判定装置であって、人の顔の撮像を1回のみ行う撮像装置と、撮像装置が撮像を行う場合に特定の色を欠いた光の発光を行う発光装置と、撮像装置からの撮像データを分析する分析装置と、撮像装置、発光装置、および分析装置を制御する制御装置とを含み、制御装置は、分析装置により撮像データを各色の成分に分解し、発光装置が発光する色の成分データと発光装置が発光しない色の成分データとの差分に応じて、撮像データが現実在の人物の顔の撮像データであるかどうかを判定するものである。
また、ここで、人の顔を確実に判定することができるとは、現実在する人物の顔か、写真で撮像されて印刷された人の顔か、を判定することができることを意味する。
また、特定の色を欠いた光は、特定の色のスペクトル、周波数を欠いた光であり、白色光を意味するものではない。
例えば、特定の色を欠いた光とは、RGBのうち、GおよびB、Gのみ、Bのみが、Rに対して支配的な色であればよい。したがって、赤(R)が全く含まれていない状態も含まれるとともに、赤(R)が少々含まれている状態も含まれる。
第2の発明にかかる判定装置は、一局面に従う判定装置において、制御装置は、人の顔のうちの特定の部分で撮像データが現実在の人物の顔の撮像データであるかどうかを判定してもよい。
第3の発明にかかる判定装置は、第2の発明にかかる判定装置において、特定の部分は、目、鼻、頬の少なくともいずれかであってもよい。
第4の発明にかかる判定装置は、一局面から第4の発明にかかる判定装置において、制御装置は、発光装置から特定の色を欠いた光の発光を複数回、または互いに異なる色を欠いた光の複数の発光を指示してもよい。
例えば、RGBカラーコードにおいて、色#00FF00、#008000、#0000FF、#FFFF00、#00080、#00FFFF、#800080の順で発光させて、#0000FFの瞬間に撮像したデータのみを用いることで、ユーザは、どの発光タイミングで判定されているのかが、不明となるため、セキュリティを高めることができる。なお、上記RGBカラーコードは、左からRGBの順に光の強さをそれぞれ2桁の16進数で記載したものである。
第5の発明にかかる判定装置は、一局面から第5の発明にかかる判定装置において、特定の色を欠いた光の発光は、RGBのうち一色を欠いた光、XYZ表色系のうち一色を欠いた光、マンセル表色系のうち一色を欠いた光、のいずれか1つからなってもよい。
第6の発明にかかる判定装置は、一局面から第6の発明にかかる判定装置において、判定装置は、各色の成分に分解されたデータのうち、発光装置が発光する色の成分データから発光装置が発光しない色の成分データを減算したデータから、目の部分の輝度が周囲の部分の輝度よりも大きい場合に、撮像データを現実在の人物の顔の撮像データと判定してもよい。
第7の発明にかかる判定装置は、一局面から第7の発明にかかる判定装置において、判定装置は、以下のステップ、
1)各色の成分に分解されたデータのうち、発光装置が発光する色の成分データから発光装置が発光しない色の成分データを減算するステップ、
2)減算したデータのピーク値を求めるステップ、
3)ピーク値を境界として、減算したデータを前半データと後半データとに分割するステップ、
4)後半データを境界が最後に来るように順序を反転するステップ、
5)前半データと順序を反転された後半データとのピアソンの積率相関係数を計算するステップ、
6)ピアソンの積率相関係数が0.5以上であれば撮像データを現実在の人物の顔の撮像データと判定するステップ、によって撮像データが現実在の人物の顔の撮像データかどうかを判定してもよい。
第8の発明にかかる判定装置は、一局面に従う判定装置において、発光装置が発光する色の成分データと発光装置が発光しない色の成分データとの差分を、人の顔の部分と背景部分とについて計算し、人の顔の部分の差分の大きさと背景部分の差分の大きさとを比較して、撮像データが現実在の人物の顔の撮像データであるか否かを判定してもよい。
一方、現実在の人の顔ではない、写真などの撮像データの場合は、発光装置の光が背景部分でも反射するため、発光装置が発光する色の成分も、発光装置が発光しない色の成分も、顔の部分と背景部分との差が少ない。したがって、発光装置が発光する色の成分データと発光装置が発光しない色の成分データとの差分の大きさは、顔の部分と背景部分とで差が小さい。
以上により、発光装置が発光する色の成分データと発光装置が発光しない色の成分データとの差分の、人の顔の部分の差分の大きさと背景部分の差分の大きさとを比較し、差分の大きさの比、または差が所定の値以上であれば、撮像データが現実在の人物の顔の撮像データであると判定することができる。
他の局面に従う発明の判定装置は、人の顔を判定する判定装置であって、人の顔の撮像を行う撮像装置と、撮像装置が撮像を行う場合に特定の色の光を発光する発光装置と、畳み込みニューラルネットワークを備え、撮像装置からの撮像データを分析する分析装置と、撮像装置、発光装置、および分析装置を制御する制御装置とを含み、畳み込みニューラルネットワークは、発光装置が発光している状態での、現実在の人物の顔の撮像データと同一人物の顔の写真の撮像データとを用いて、入力データが現実在の人物の顔の撮像データか否かを判定できるように学習しており、判定装置は、発光装置が発光している状態で、人の顔を撮像し、顔周辺を抽出した撮像データを畳み込みニューラルネットワークに入力して、撮像した人の顔が現実在の人の顔か否かを判定する。
畳み込みニューラルネットワークでは、現実在の人物の顔の撮像データと同一人物の顔の写真の撮像データとを用いて学習させることで、上記目の部分、鼻の部分、背景部分等の違いを含め、総合的に現実在の人の顔か否かを判定することができる。
ただし、判定の精度を向上させるためには、畳み込みニューラルネットワークの幅(ニューロン数)、層数、学習するサンプル数などを適切に選ぶ必要がある。例えば、幅は3×3のフィルタを64チャンネル、層数は10層以上50層以下、サンプル数は1000以上が望ましい。
また、VGG、ResNet、またはdenseNetなどの公開されている学習済みモデルを、撮像した人の顔が現実在の人の顔か否かを判定するために、転移学習して使用しても良い。
第10の発明にかかる判定装置は、他の局面に従う判定装置において、発光装置が発光している状態での撮像データを用いて学習した第1の畳み込みニューラルネットワークと発光装置が発光していない状態での撮像データを用いて学習した第2の畳み込みニューラルネットワークとを備え、
判定装置は、発光装置が発光している状態での撮像データを第1の畳み込みニューラルネットワークに入力し、発光装置が発光していない状態での撮像データを第2の畳み込みニューラルネットワークに入力し、第1の畳み込みニューラルネットワークの判定結果と、第2の畳み込みニューラルネットワークの判定結果とに基づいて、撮像した人の顔が現実在の人の顔か否かを判定してもよい。
第1に、実際の人間を撮像した場合、発光している状態の撮像データでは目および顔の凹凸による反射があるのに対して、発光していない状態の撮像データでは目および顔の凹凸による反射がない。
一方、発光装置が発光している状態で撮像した写真を撮像した場合は、発光している状態の撮像データでは、目および顔の凹凸だけでなく、写真全体も発光装置の光を反射しているのに対して、発光していない状態の撮像データでは目および顔の凹凸による反射のみが見られる。以上の差異から、発光装置が発光している状態で、撮像した写真を撮像した場合にも撮像した人の顔が現実在の人の顔か否かを確実に判定できる。
また、撮像した写真を撮像した場合は、上記目および顔の凹凸による反射以外にも、写真を撮像したことに由来する不自然さが存在する。発光している状態での撮像データを用いて学習した第1の畳み込みニューラルネットワークにおいても当然、この不自然さを差異として認識、判定するが、さらに、発光していない状態での撮像データを用いて学習した第2の畳み込みニューラルネットワークを用いることで、撮像した人の顔が現実在の人の顔か否かをより確実に判定できる。
第11の発明にかかる判定装置は、第10の発明にかかる判定装置において、分析装置は、さらに、発光装置が発光している状態での、現実在の人物の顔の撮像データと同一人物の顔のディスプレイ表示の撮像データとを用いて学習した第3の畳み込みニューラルネットワークと、発光装置が発光していない状態での、現実在の人物の顔の撮像データと同一人物の顔のディスプレイ表示の撮像データとを用いて学習した第4の畳み込みニューラルネットワークとを備え、判定装置は、発光装置が発光している状態での撮像データを第1および第3の畳み込みニューラルネットワークに入力し、発光装置が発光していない状態での撮像データを第2および第4の畳み込みニューラルネットワークに入力し、第1から第4までの畳み込みニューラルネットワークの判定結果に基づいて、撮像した人の顔が現実在の人の顔か否かを判定してもよい。
第12の発明にかかる判定装置は、一局面から第11の発明にかかる判定装置において、報知装置をさらに含み、制御装置は、判定を実施する前に撮像装置により人の顔を撮像させ、判定を行うことができる人の顔のサイズとなるよう、報知装置から人に立ち位置を報知させてもよい。
また、報知装置が表示装置を備え、表示装置に撮像画像と枠とを表示し、顔の大きさおよび位置が枠と合致したら、自動的に撮像が行われるようにしてもよい。
第13の発明にかかる判定装置は、一局面から第12の発明にかかる判定装置において、制御装置は、判定を実施する前に撮像装置により人の顔を撮像させ、当該撮像された撮像データから最適な特定の色を欠いた光を選定させて発光装置から発光させてもよい。
他の局面にかかる携帯端末は、一局面から第13の発明にかかる判定装置を含むものである。
さらに他の局面にかかる判定装置用のプログラムは、人の顔を判定する判定装置用のプログラムであって、人の顔の撮像を1回行う撮像処理と、撮像処理が撮像を行う場合に特定の色を欠いた光を発光する発光処理と、撮像処理からの撮像データを分析する分析処理と、撮像処理、発光処理、および分析処理を制御する制御処理とを含み、制御処理は、分析処理により撮像データを各色の成分に分解し、発光処理が発光する色の成分データと発光処理が発光しない色の成分データとの差分に応じて、前記撮像データが現実在の人物の顔の撮像データであるかどうかを判定処理するものである。
また、ここで、人の顔を確実に判定することができるとは、現実在する人物の顔か、写真で撮像されて印刷された人の顔か、を判定することができることを意味する。
また、特定の色を欠いた光は、特定の色のスペクトル、周波数を欠いた光であり、白色光を意味するものではない。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
図1は、本実施の形態にかかる判定装置100を含む携帯端末900の全体構成の一例を示す模式的構造図であり、図2は、判定装置100の構成の一例を示す模式図である。
また、図2の判定装置100は、撮像装置200、発光装置300、分析装置400、制御部500を含む。
すなわち、色の三原色であるR,G,Bのうち、少なくともRの光を除去したフラッシュ光である。特にRの光を除去する理由については、後述する。
なお、本実施の形態においては、フラッシュ光をRGBカラーコード#00FFFFを用いることとしているが、これに限定されず、フラッシュ光を#FFFF00、#0000FF、#00FF00のいずれか1つ、または複数を組み合わせて用いても良い。
また、特定の色を欠いた光とは、RGBのうち、GおよびB、Gのみ、Bのみが、Rに対して支配的な色であればよい。したがって、赤(R)が全く含まれていない状態も含まれるとともに、赤(R)が少々含まれている状態も含まれる。
また、図5は、撮像装置200および発光装置300により撮像された顔のデータの一例を示す模式図である。
次に、図6、7、8は、図5のデータを分析装置400内で分析したデータの一例を示す模式図であり、図9、10は、分析装置400内で分析されたデータの差分の一例を示す模式図である。
なお、本実施の形態の当該ステップS1の段階において、制御部500は、撮像装置200により撮像されたデータが、現実在人物の顔か、顔写真をプリントアウト(印刷)した紙を撮像した顔か、は不明の状態であるが、ここでは、現実在人物の顔であると仮定して説明を行う。
また、制御部500は、撮像時に発光装置300に所定のフラッシュ光で撮像するように指示する(ステップS2)。
なお、ユーザインタフェイスにおいて、顔が所定の位置にある場合にシャッターを自動的に押すシステムを用いても良い。また、顔が所定の位置にない場合には、撮像装置200に近づくように報知させてもよい。
ここで、本実施の形態にかかる所定のフラッシュ光とは、上記で説明した色のカラーコード#00FFFFの光である。
なお、撮像前に現実在人物の顔を認識させて、その顔の色、目の色等に応じて所定のフラッシュ光を変更してもよい。
制御部500は、ステップS2で撮像したデータを分析装置400に渡し、第1の分析を指示する(ステップS3)。
ここで、図5に示すように、制御部500の指示に基づいて、発光装置300が、フラッシュ光を色のカラーコード#00FFFFを用いて撮像したデータは、Rの色がほぼ無いデータとなる。なお、周囲の明かり、例えば、蛍光灯等の光が入る場合があるので、フラッシュ光にR(赤色)がない場合でも、R(赤色)が少し含まれる。
図6は、Rのみのデータの一例であり、図7は、Gのみのデータの一例であり、図8は、Bのみのデータの一例を示す。
例えば、現実在の人物の顔、すなわち、今そこに確実に人が実在してステップS2の処理を実施した場合には、GのみおよびBのみのデータは目の部分の輝度が高いが、Rのみのデータは目の部分の輝度が高くないため、B−R、およびG−Rのデータは、図9および図10に示すように、フラッシュ光の目の部分だけが輝度が高くなる。
一方、図11に示すように、顔写真をプリントアウト(印刷)した紙の場合、目の輝度の高い部分がなくなる。
次に、第2判定について説明を行う。第1判定においては、顔写真をプリントアウト(印刷)した紙を除外することとしたが、顔写真をプリントアウト(印刷)した紙のうちでも、そもそも当初の顔写真において同一のフラッシュ光を用いた場合、発明者は、目の輝度の高い部分が残存する可能性を見出だした。
そのため、第2判定を実施する。
制御部500は、データから、顔の特徴部を抽出する(ステップS11)。例えば、本実施の形態においては、鼻部分を抽出する。なお、鼻の部分のほかにも、頬を特徴部とする場合、フラッシュ光が両頬に均等に当たることは可能性として少ないため、両頬において、不均一であることを特徴として用いても良い。
なお、上記の実施の形態においては、人の顔部分について抽出することとしているが、これに限定されず、顔の輪郭を抽出し、その外側、いわゆる背景部分を抽出し、以下のステップS12からステップS15の処理を行ってもよい。
図13に示すように、すなわち、本実施の形態におけるGのみのデータおよびBのみのデータは、鼻の頂点部分P、左端部分L、右端部分Rにおいて山形の輝度分布をもつこととなり、一方、Rのみのデータは、フラッシュ光に含まれておらず、幅広い入射角の背景光が反射して生成されるため、山形の輝度分布を持たないことととなる。
ここで、ステップS12の処理は、データの平均値を0に調整するための処理であり、同様の手法で、各データの平均値を0に調整する方法を用いても良い。
最後に、制御部500は、分析装置400に、前半データと、後半データを折り返した2系列のデータのピアソンの積率相関係数を計算させる(ステップS14)。
図16は、フラッシュ光を用いて撮像した顔写真をプリントアウト(印刷)した紙を再度撮像したデータの顔の特徴部のRのみのデータ、Gのみのデータ、Bのみのデータの一例を示す図であり、図17は、フラッシュ光を用いて撮像した顔写真をプリントアウト(印刷)した紙を再度撮像したデータの顔の特徴部のステップS12の処理の結果の一例を示す図である。また、図18は、図17のグラフのG−Rの平均値を計算して各G−Rのデータから平均値を引き算したうえで、中心点を境に前半と後半とに分割したグラフである。G−R後半のグラフは、図17のグラフの中心より右側の部分を中心位置から反対方向に折り返している。図18の場合、G−R前半とG−R後半との間の相関が少なく、ピアソンの積率相関係数を算出すると0.08となる。
ここで、制御部500は、ピアソンの積率相関係数が、0.5以上である場合には、現実在の人物の顔データであると判定する。例えば、図15の場合のピアソンの積率相関係数は、0.82である。
一方、制御部500は、ピアソン積率相関係数が、0.5未満である場合には、フラッシュ光を用いて撮像した顔写真をプリントアウト(印刷)した紙を再度撮像したデータであると判定する。例えば、図18の場合のピアソン積率相関係数は、0.08である。
したがって、前半のデータと、後半のデータを折り返したデータとのピアソンの積率相関係数を計算し、相関係数が0.5以上であれば、撮像されたデータは現実在の人物の顔のデータであり、相関係数が0.5より小さければ顔写真をプリントアウト(印刷)した紙を再度撮像したデータであると判別する。
次に、現実在の人の顔の撮像データか否かを判定する他の実施の形態について説明する。
図19は他の判定方法の実施の形態の模式的フローチャートである。
また、制御部500は、撮像時に発光装置300に所定のフラッシュ光で撮像するように指示する(ステップS21)。
制御部500は、データから、顔の輪郭の内側領域と外側領域とを抽出する(ステップS22)。
次に、図4のS12と同様、発光装置300が発光する色の成分データと発光装置300が発光しない色の成分データとの減算値、例えばG−RまたはB−Rを求める(ステップS23)。
なお、減算をする前には、発光装置300が発光する色の成分データの最小値と発光装置300が発光しない色の成分データの最小値(または平均値と平均値)が一致するように補正することが望ましい。
次に、輪郭の内側、すなわち顔の部分と、その外側、すなわち背景部分とについて、上記減算値を比較する(ステップS24)。なお、顔の部分と背景部分との比較においては、例えば、それぞれの部分の輝度の平均値同士を比較してもよい。
最後に、顔の部分と背景部分との比較結果、例えばその比、またはその差を所定のしきい値と比較し、その比またはその差が所定のしきい値より大きければ、撮像データは現実在の人物の顔の撮像データであると判定する(ステップS25)。
一方、現実在の人の顔ではない、写真などの撮像データの場合は、発光装置300の光が背景部分でも反射するため、発光装置300が発光する色の成分も、発光装置300が発光しない色の成分も、顔の部分と背景部分との差が少ない。したがって、発光装置300が発光する色の成分データと発光装置300が発光しない色の成分データとの差分の大きさは、顔の部分と背景部分との間で差が小さい。
以上により、発光装置300が発光する色の成分データと発光装置300が発光しない色の成分データとの差分の、人の顔の部分の大きさと背景部分の大きさとを比較することによって、撮像データが現実在の人物の顔の撮像データであるかどうかを判定することができる。
さらに他の判定方法の実施の形態では、機械学習を用いて撮像データが現実在の人物の顔の撮像データであるかどうかを判定する。具体的には、まず、畳み込みニューラルネットワークに、現実在の人物の顔の撮像データと同一人物の顔の写真の撮像データ(フォトアタックデータともいう)とを複数入力して学習させる(以降、学習させたネットワークを写真学習ネットワークという)。
その後、写真学習ネットワークに撮像装置200で撮像した顔の撮像データを入力し、入力したデータが現実在の人物の顔の撮像データか、または顔の写真の撮像データかを判定させる。
まず、発光装置300がシアンの光を発光したときの人物の顔(以降シアンデータという)と、発光装置300が全く発光しないときの人物の顔(以降ブラックデータという)とを撮像する(ステップS30、S30’)。
次に、顔の輪郭、および目、唇などの特徴部分を用いて顔の輪郭を抽出する(ステップS32、S32’)。
さらに、顔周辺のシアンデータおよびブラックデータをそれぞれ例えば224×224となるようにリサイズする。リサイズしたデータの各画素値を0から1の間に正規化してもよい(ステップS33、S33’)。なお、顔の輪郭の抽出、顔の周辺データのリサイズ、正規化等の前処理については、学習用のデータについても同様な処理を行う必要がある。
シアンデータを入力データとして用いて学習させた畳み込みニューラルネットワーク(以降シアン写真学習ネットワークという)に撮像装置200で撮像した顔のシアンデータを入力して判定させ、ブラックデータを用いて学習させた畳み込みニューラルネットワーク(以降ブラック写真学習ネットワークという)に撮像装置200で撮像した顔のブラックデータを入力して判定させる(ステップS34、S34’)。
第1に、実際の人間を撮像した場合、シアンデータでは目および顔の凹凸による反射があるのに対して、ブラックデータでは目および顔の凹凸による反射がない。一方、発光装置が発光している状態で撮像した写真を撮像した場合は、シアンデータでは、目および顔の凹凸だけでなく、写真全体も発光装置300の光を反射しているのに対して、ブラックデータでは目および顔の凹凸による反射のみが見られる。以上の差異から、発光装置が発光している状態で撮像した写真を撮像した場合にも撮像した人の顔が現実在の人の顔か否かを確実に判定できる。
また、撮像した写真を撮像した場合は、上記目および顔の凹凸による反射以外にも、写真を撮像したことに由来する不自然さが存在する。シアンデータを用いて学習した第1の畳み込みニューラルネットワークにおいても当然、この不自然さを差異として認識、判定するが、さらに、ブラックデータを用いて学習した第2の畳み込みニューラルネットワークを用いることで、撮像した人の顔が現実在の人の顔か否かをより確実に判定できる。
まず、撮像装置200で撮像したシアンデータとブラックデータとをそれぞれ、シアン写真学習ネットワークおよびブラック写真学習ネットワークに入力する。次に、撮像装置200で撮像したシアンデータとブラックデータとをそれぞれ、シアンディスプレイ学習ネットワークおよびブラックディスプレイ学習ネットワークに入力する。
さらに、上記4つの学習ネットワークの出力を、それぞれ、現実在の人物の顔と判定したとき1、現実在の人物の顔でないと判定したとき0とし、4つの学習ネットワークの出力の合計が所定の値以上である場合に、現実在の人物の顔と判定する。また、それぞれの判定結果が0か1かではなく、中間値で出力される場合は、それらの判定結果を加算した値で判定してもよい。
畳み込みニューラルネットワークの幅(ニューロン数)と層数については、いろいろな構成が可能である。例えば、撮像データを224×224にリサイズし、RGBに分割する場合は、入力信号の数は224×224×3となる。出力信号は現実在の人物の顔と判定する場合に1となり現実在の人物の顔でない判定する場合に0となる信号と、その逆の信号との計2本である。その間の隠れ層の幅と層数については必要な判定精度と許容できる回路規模とに基づいて選択することができる。
最近、ResNet(Deep Residual Network)という新しい形式の畳み込みニューラルネットワークが学習モデルとして公開されており、この実施の形態においても、例えば18層のResNet(ResNet−18)を、撮像した人の顔が現実在の人の顔か否かを判定するために転移学習して使用してもよい。また、その他、VGGおよびdenseNetなどの公開されている学習済みモデルを、撮像した人の顔が現実在の人の顔か否かを判定するために、転移学習して使用しても良い。
図21は、図2に示した判定装置100の他の例を示す模式図である。
図21に示す判定装置100には、図2の判定装置100にさらに、報知装置600が設けられている。ここで、報知装置600は、音声発生装置を有してもよく、表示装置を有してもよく、それらの両者を含めたものであってもよく、その他任意の報知装置600を含んでもよい。
次に、図22に示すように、制御部500は、撮像装置200から撮像された顔の大きさが最適値であるかを判定する(ステップS44)。なお、本実施の形態においては、顔の大きさが最適値であるかを判定しているのみで、現実在かフォトアタックかの判定は行わない。
すなわち、制御部500は、判定結果が、顔の大きさが最適値よりも小さい場合(ステップS44のNo 1)、報知装置600から被撮像者へ対して、撮像装置200に近づくように報知させる(ステップS45)。
図23に報知装置600の表示装置への表示の一例を示す。図23において、610は表示装置の画面、620は望ましい顔の大きさを示す枠、630は報知装置600からの報知の一例である。
また、表示装置の画面610に撮像画像と枠620とを表示し、顔の大きさおよび位置が枠620と合致したら、自動的に撮像が行われるようにしてもよい。
図24は、図3に示したステップS1の処理の前に、現実在の人の顔を予め撮像させ、発光装置300から発光させる特定の色の欠けた光の選定を行う一例を示すフローチャートである。
すなわち、図24は、撮像装置200による1回の撮像の前に、発光装置300から発光させる特定の色の欠けた光の選定を行う処理を示す。
この場合、撮像装置200は、現実在の人の顔を連続して撮影してもよく、動画で撮影してもよく、間欠的に複数回撮像しても良い。
制御部500は、撮像データから人物の瞳部を抽出する(ステップS53)。制御部500は、撮像データから人物の瞳部の色を選定する(ステップS54)。
その後、制御部500は、図3のステップS2の処理を実施する。
なお、カラーコンタクトに限定されず、人種または性別、生まれ故郷に応じて瞳部の色が異なるので、図24の処理を実施することが好ましい。
さらに、第1の判定で現実の人の顔でないデータを除外することができるので、処理スピードを高めることができる。
200 撮像装置
300 発光装置
400 分析装置
500 制御部
600 報知装置
900 携帯端末
Claims (15)
- 人の顔を判定する判定装置であって、
前記人の顔の撮像を1回行う撮像装置と、
前記撮像装置が撮像を行う場合に特定の色を欠いた光を発光する発光装置と、
前記撮像装置からの撮像データを分析する分析装置と、
前記撮像装置、前記発光装置、および前記分析装置を制御する制御装置とを含み、
前記制御装置は、前記分析装置により撮像データを各色の成分に分解し、前記発光装置が発光する色の成分データと前記発光装置が発光しない色の成分データとの差分に応じて、前記撮像データが現実在の人物の顔の撮像データであるかどうかを判定する、判定装置。 - 前記制御装置は、前記人の顔のうちの特定の部分で前記撮像データが現実在の人物の顔の撮像データであるかどうかを判定する、請求項1記載の判定装置。
- 前記特定の部分は、目、鼻、頬の少なくともいずれかである請求項2記載の判定装置。
- 前記制御装置は、前記発光装置から前記特定の色を欠いた光の発光を複数回、または複数の、互いに異なる色を欠いた光の発光を指示する、請求項1から3のいずれか1項に記載の判定装置。
- 前記特定の色を欠いた光は、RGBのうち一色を欠いた光、XYZ表色系のうち一色を欠いた光、マンセル表色系のうち一色を欠いた光、のいずれか1つからなる、請求項1から4のいずれか1項に記載の判定装置。
- 前記判定装置は、前記各色の成分に分解されたデータのうち、前記発光装置が発光する色の成分データから前記発光装置が発光しない色の成分データを減算したデータから、目の部分の輝度が周囲の部分の輝度よりも大きい場合に、前記撮像データを現実在の人物の顔の撮像データと判定する、請求項1から5のいずれか1項に記載の判定装置。
- 前記判定装置は、以下のステップ、
1)前記各色の成分に分解されたデータのうち、前記発光装置が発光する色の成分データから前記発光装置が発光しない色の成分データを減算するステップ、
2)前記減算したデータのピーク値を求めるステップ、
3)前記ピーク値を境界として、前記減算したデータを前半データと後半データとに分割するステップ、
4)前記後半データを境界が最後に来るように順序を反転するステップ、
5)前記前半データと順序を反転された前記後半データとのピアソンの積率相関係数を計算するステップ、
6)前記ピアソンの積率相関係数が0.5以上であれば撮像データを現実在の人物の顔の撮像データと判定するステップ、によって前記撮像データが現実在の人物の顔の撮像データかどうかを判定する、請求項1から6のいずれか1項に記載の判定装置。 - 前記判定装置は、前記発光装置が発光する色の成分データと前記発光装置が発光しない色の成分データとの差分を、前記人の顔の部分と背景部分とについて計算し、前記人の顔の部分の差分の大きさと前記背景部分の差分の大きさとを比較して、前記撮像データが現実在の人物の顔の撮像データであるかどうかを判定する、請求項1記載の判定装置。
- 人の顔を判定する判定装置であって、
前記人の顔の撮像を行う撮像装置と、
前記撮像装置が撮像を行う場合に特定の色の光を発光する発光装置と、
畳み込みニューラルネットワークを備え、前記撮像装置からの撮像データを分析する分析装置と、
前記撮像装置、前記発光装置、および前記分析装置を制御する制御装置とを含み、
前記畳み込みニューラルネットワークは、前記発光装置が発光している状態での、現実在の人物の顔の撮像データと同一人物の顔の写真の撮像データとを用いて、入力データが現実在の人物の顔の撮像データか否かを判定できるように学習しており、
前記判定装置は、前記発光装置が発光している状態で前記人の顔を撮像し、顔周辺を抽出した撮像データを前記畳み込みニューラルネットワークに入力して、撮像した前記人の顔が現実在の人の顔か否かを判定する、判定装置。 - 前記分析装置は、前記発光装置が発光している状態での撮像データを用いて学習した第1の畳み込みニューラルネットワークと前記発光装置が発光していない状態での撮像データを用いて学習した第2の畳み込みニューラルネットワークとを備え、
前記判定装置は、前記発光装置が発光している状態での撮像データを前記第1の畳み込みニューラルネットワークに入力し、前記発光装置が発光していない状態での撮像データを前記第2の畳み込みニューラルネットワークに入力し、
前記第1の畳み込みニューラルネットワークの判定結果と、前記第2の畳み込みニューラルネットワークの判定結果とに基づいて、撮像した前記人の顔が現実在の人の顔か否かを判定する、請求項9に記載の判定装置。 - 前記分析装置は、さらに、前記発光装置が発光している状態での、現実在の人物の顔の撮像データと同一人物の顔のディスプレイ表示の撮像データとを用いて学習した第3の畳み込みニューラルネットワークと、前記発光装置が発光していない状態での、現実在の人物の顔の撮像データと同一人物の顔のディスプレイ表示の撮像データとを用いて学習した第4の畳み込みニューラルネットワークとを備え、
前記判定装置は、前記発光装置が発光している状態での撮像データを前記第1および第3の畳み込みニューラルネットワークに入力し、前記発光装置が発光していない状態での撮像データを前記第2および第4の畳み込みニューラルネットワークに入力し、
前記第1から第4の畳み込みニューラルネットワークの判定結果に基づいて、撮像した前記人の顔が現実在の人の顔か否かを判定する、請求項10に記載の判定装置。 - 報知装置をさらに含み、
前記制御装置は、前記判定を実施する前に前記撮像装置により人の顔を撮像させ、前記判定を行うことができる前記人の顔のサイズとなるよう、前記報知装置から前記人に立ち位置を報知させる、請求項1から11のいずれか1項に記載の判定装置。 - 前記制御装置は、前記判定を実施する前に前記撮像装置により人の顔を撮像させ、当該撮像された撮像データから最適な前記特定の色を欠いた光を選定させて前記発光装置から発光させる、請求項1から12のいずれか1項に記載の判定装置。
- 請求項1から請求項13に記載の判定装置を含む携帯端末。
- 人の顔を判定する判定装置用のプログラムであって、
前記人の顔の撮像を1回行う撮像処理と、
前記撮像処理が撮像を行う場合に特定の色を欠いた光を発光する発光処理と、
前記撮像処理からの撮像データを分析する分析処理と、
前記撮像処理、前記発光処理、および前記分析処理を制御する制御処理とを含み、
前記制御処理は、前記分析処理により撮像データを各色の成分に分解し、発光処理が発光する色の成分データと発光処理が発光しない色の成分データとの差分に応じて、前記撮像データが現実在の人物の顔の撮像データであるかどうかを判定処理する、判定装置用のプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225100 | 2019-12-13 | ||
JP2019225100 | 2019-12-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021096831A true JP2021096831A (ja) | 2021-06-24 |
Family
ID=76431880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020173696A Pending JP2021096831A (ja) | 2019-12-13 | 2020-10-15 | 判定装置、判定装置を含む携帯端末、および判定装置用のプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021096831A (ja) |
-
2020
- 2020-10-15 JP JP2020173696A patent/JP2021096831A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11321963B2 (en) | Face liveness detection based on neural network model | |
CN103383723B (zh) | 用于生物特征验证的电子欺骗检测的方法和系统 | |
US8374403B2 (en) | Methods and apparatus for efficient, automated red eye detection | |
US8055067B2 (en) | Color segmentation | |
US7831067B2 (en) | Methods and apparatus for automated, multi-level red eye correction | |
US7567707B2 (en) | Red eye detection and correction | |
US20160019420A1 (en) | Multispectral eye analysis for identity authentication | |
US20160019421A1 (en) | Multispectral eye analysis for identity authentication | |
US20170091550A1 (en) | Multispectral eye analysis for identity authentication | |
JP4078334B2 (ja) | 画像処理装置および画像処理方法 | |
US7907786B2 (en) | Red-eye detection and correction | |
JP2006259924A (ja) | 被写体認証装置、携帯電話、被写体認証ユニット、被写体認証方法、及び被写体認証プログラム | |
CN111080577A (zh) | 眼底影像质量评估方法和系统、设备及存储介质 | |
KR102038576B1 (ko) | 홍채 인식 시스템의 부정행위 검출 방법 | |
CN113111807B (zh) | 一种目标识别的方法和系统 | |
CN111832464A (zh) | 一种基于近红外摄像头的活体检测方法及装置 | |
CN113111811A (zh) | 一种目标判别方法和系统 | |
CN113111810B (zh) | 一种目标识别方法和系统 | |
WO2006057314A1 (ja) | 画像処理装置および画像処理方法 | |
WO2021166289A1 (ja) | データ登録装置、生体認証装置、および記録媒体 | |
JP4537142B2 (ja) | 画像処理方法及びその装置、撮像装置、プログラム | |
JP2021096831A (ja) | 判定装置、判定装置を含む携帯端末、および判定装置用のプログラム | |
JP7405240B2 (ja) | 認証装置、認証方法、及び、プログラム | |
JP2006031185A (ja) | 撮影装置および個人認証装置 | |
JP2023032776A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240711 |