JP2014078052A - 認証装置および方法、並びにプログラム - Google Patents
認証装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2014078052A JP2014078052A JP2012223794A JP2012223794A JP2014078052A JP 2014078052 A JP2014078052 A JP 2014078052A JP 2012223794 A JP2012223794 A JP 2012223794A JP 2012223794 A JP2012223794 A JP 2012223794A JP 2014078052 A JP2014078052 A JP 2014078052A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- eye region
- authentication
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
Abstract
【課題】顔認証によるセキュリティをより強化する。
【解決手段】比較部は、赤外光が照射された人物を被写体とした可視光画像における人物の眼領域と、人物を被写体とした赤外光画像における人物の眼領域とを比較し、判定部は、比較部の比較結果を用いて、人物に対して行われた顔認証の認証結果が正しいか否かを判定する。本技術は、例えば、顔認証によりセキュリティロックを解除する携帯端末に適用することができる。
【選択図】図7
【解決手段】比較部は、赤外光が照射された人物を被写体とした可視光画像における人物の眼領域と、人物を被写体とした赤外光画像における人物の眼領域とを比較し、判定部は、比較部の比較結果を用いて、人物に対して行われた顔認証の認証結果が正しいか否かを判定する。本技術は、例えば、顔認証によりセキュリティロックを解除する携帯端末に適用することができる。
【選択図】図7
Description
本技術は、認証装置および方法、並びにプログラムに関し、特に、顔認証によるセキュリティを強化することができるようにする認証装置および方法、並びにプログラムに関する。
従来、可視光を用いた撮像と赤外光を用いた撮像とを利用して、撮像対象を認識することが行われている。
例えば、カーナビゲーション装置におけるジェスチャ認識において、可視光カメラを用いた認識に加え、赤外線カメラを用いて赤外光の反射強度を求め、認識対象との距離を判別することで、ジェスチャ認識の精度を高めるようにした技術がある(例えば、特許文献1参照)。
また、車載用カメラにより道路標識等を認識する技術において、可視光カメラにより得られた可視光画像から情報を抽出するとともに、赤外光を照射して赤外線カメラにより得られる赤外光画像から情報を抽出することで、認識精度を高めるようにした技術がある(例えば、特許文献2参照)。
さらに、可視光受光部と非可視光受光部とが水平方向の1画素列毎に交互に配列された受光部を備える固体撮像装置を用いて、撮像対象を認識する際に非可視光を照射して撮像することで、撮像対象を浮かび上がらせ、道路の白線等の認識精度を高めるようにした技術がある(例えば、特許文献3参照)。
また、可視光画像と赤外光画像とを取得することで、眼鏡を着用している人物であっても精度良く瞳孔の位置を検出するようにした技術がある(例えば、特許文献4参照)。
さらに、血管パターンの撮像を、可視光光源を用いた可視光カメラと、赤外光光源を用いた赤外光カメラとを用いて行い、それらの撮像結果を比較することによって、生体認証の精度を高めるようにした技術がある(例えば、特許文献5参照)。
しかしながら、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めるようにした技術は提案されていない。
本技術は、このような状況に鑑みてなされたものであり、顔認証によるセキュリティをより強化することができるようにするものである。
本技術の一側面の認証装置は、赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較部と、前記比較部の比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定部とを備える。
前記判定部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とに差分がある場合、前記認証結果が正しいと判定する
前記可視光画像における前記人物に対して顔認証を行う顔認証部をさらに備え、
前記判定部は、前記比較部の比較結果を用いて、前記顔認証部の認証結果が正しいか否かを判定する
前記判定部は、前記比較部の比較結果を用いて、前記顔認証部の認証結果が正しいか否かを判定する
レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を同時に出力する撮像部をさらに備える
前記可視光画像または前記赤外光画像の前記眼領域を検出する眼領域検出部をさらに備え、
前記比較部は、前記眼領域検出部により検出された前記眼領域を表す座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
前記比較部は、前記眼領域検出部により検出された前記眼領域を表す座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
前記可視光画像における前記人物の顔を検出する顔検出部をさらに備え、
前記顔認証部は、前記顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記眼領域検出部は、前記顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
前記顔認証部は、前記顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記眼領域検出部は、前記顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
レンズより入射される光のうちの可視光に対応する前記可視光画像を出力する第1の撮像部と、
前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する第2の撮像部とをさらに備える
前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する第2の撮像部とをさらに備える
前記可視光画像の前記眼領域を検出する第1の眼領域検出部と、
前記赤外光画像の前記眼領域を検出する第2の眼領域検出部とをさらに備え、
前記比較部は、前記第1の眼領域検出部により検出された前記可視光画像の前記眼領域を表す第1の座標情報、および、前記第2の眼領域検出部により検出された前記赤外光画像の前記眼領域を表す第2の座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
前記赤外光画像の前記眼領域を検出する第2の眼領域検出部とをさらに備え、
前記比較部は、前記第1の眼領域検出部により検出された前記可視光画像の前記眼領域を表す第1の座標情報、および、前記第2の眼領域検出部により検出された前記赤外光画像の前記眼領域を表す第2の座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
前記可視光画像における前記人物の顔を検出する第1の顔検出部と、
前記赤外光画像における前記人物の顔を検出する第2の顔検出部をさらに備え、
前記顔認証部は、前記第1の顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記第1の眼領域検出部は、前記第1の顔検出部により検出された前記顔の顔画像における前記眼領域を検出し、
前記第2の眼領域検出部は、前記第2の顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
前記赤外光画像における前記人物の顔を検出する第2の顔検出部をさらに備え、
前記顔認証部は、前記第1の顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記第1の眼領域検出部は、前記第1の顔検出部により検出された前記顔の顔画像における前記眼領域を検出し、
前記第2の眼領域検出部は、前記第2の顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
可視光を遮断する第1のフィルタと赤外光を遮断する第2のフィルタとを切り替えて用いることで、レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する撮像部をさらに備える
前記比較部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを2値化して差分を求める
前記比較部は、前記可視光画像の前記眼領域における輝度分布と、前記赤外光画像の前記眼領域における輝度分布の差分を求める
前記比較部は、前記可視光画像の前記眼領域における黒領域の輪郭と、前記赤外光画像の前記眼領域における黒領域の輪郭の差分を求める
前記赤外光画像の前記眼領域においてプルキニエ像を検出するプルキニエ像検出部をさらに備え、
前記判定部は、前記比較部の比較結果および前記プルキニエ像検出部の検出結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する
前記判定部は、前記比較部の比較結果および前記プルキニエ像検出部の検出結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する
前記人物に対して照射される前記赤外光を発光する赤外光発光部をさらに備える
前記人物に対して可視光を照射する可視光光源をさらに備える
本技術の一側面の認証方法は、赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップとを含む。
本技術の一側面のプログラムは、赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップとを含む処理をコンピュータに実行させる。
本技術の一側面においては、赤外光が照射された人物を被写体とした可視光画像における人物の眼領域と、人物を被写体とした赤外光画像における人物の眼領域とが比較され、比較結果を用いて、人物に対して行われた顔認証の認証結果が正しいか否かが判定される。
本技術の一側面によれば、顔認証によるセキュリティをより強化することが可能となる。
以下、本技術の実施の形態について図を参照して説明する。なお、説明は以下の順序で行う。
1.本技術の概要
2.第1の実施の形態
3.第2の実施の形態
4.第3の実施の形態
5.第4の実施の形態
6.第5の実施の形態
7.第6の実施の形態
8.第7の実施の形態
1.本技術の概要
2.第1の実施の形態
3.第2の実施の形態
4.第3の実施の形態
5.第4の実施の形態
6.第5の実施の形態
7.第6の実施の形態
8.第7の実施の形態
<1.本技術の概要>
[認証結果判定装置の機能構成例]
図1は、本技術が適用される認証装置としての認証結果判定装置の機能構成例を示している。
[認証結果判定装置の機能構成例]
図1は、本技術が適用される認証装置としての認証結果判定装置の機能構成例を示している。
図1の認証結果判定装置1は、人物の顔を認証する顔認証装置に含まれるか、または顔認証装置に接続されて、顔認証装置の認証結果が正しいか否かを判定する。
認証結果判定装置1は、比較部2と判定部3を備えている。
比較部2は、顔認証装置により顔認証が行われる人物を撮像した可視光画像(以下、RGB画像という)と、赤外光画像(以下、IR画像という)とを比較する。具体的には、比較部2は、所定の赤外光光源により赤外光が照射された人物を被写体としたRGB画像における人物の眼の部分(以下、眼領域という)と、その人物を被写体としたIR画像における人物の眼領域とを比較し、その比較結果を、判定部3に供給する。
なお、RGB画像における人物とIR画像における人物とは、同一人物であることは言うまでもない。
判定部3は、比較部2からの比較結果を用いて、顔認証装置により上述した人物に対して行われた顔認証の認証結果が正しいか否かを判定する。具体的には、判定部3は、RGB画像おける眼領域とIR画像における眼領域との差に基づいて、顔認証の認証結果が正しいか否かを判定する。
ここで、図2および図3を参照して、RGB画像とIR画像における眼領域の差について説明する。
図2A,Bはそれぞれ、実際の人物を被写体として撮像した場合のRGB画像の眼領域およびIR画像の眼領域を示し、図3A,Bは、写真等に写った人物を被写体として撮像した場合のRGB画像の眼領域およびIR画像の眼領域を示している。
図2に示されるように、実際の人物を撮像した場合のRGB画像の眼領域とIR画像の眼領域とは、その見え方が異なる。具体的には、実際の人物を撮像した場合のRGB画像の眼領域においては、(虹彩の色が暗い色の場合、)瞳孔と虹彩とでコントラストの差は大きくならないが、実際の人物を撮像した場合のIR画像の眼領域おいては、虹彩が明るく写り、瞳孔と虹彩とでコントラストの差は大きくなる。また、実際の人物を撮像した場合のIR画像の眼領域には、赤外光を照射するための赤外光光源が角膜表面で反射した像であるプルキニエ像が見られる。
一方、図3に示されるように、写真等の人物を撮像した場合のRGB画像の眼領域とIR画像の眼領域とは、その見え方が同様となる。また、写真等の人物を撮像した場合のIR画像の眼領域には、プルキニエ像は見られない。
すなわち、比較部2による比較の結果、RGB画像の眼領域とIR画像の眼領域とに差がある場合、RGB画像およびIR画像の被写体は実際の人物であり、RGB画像の眼領域とIR画像の眼領域とに差がない場合、RGB画像およびIR画像の被写体は実際の人物ではなく、写真等に写っている人物と言える。
したがって、判定部3は、顔認証装置から認証OKを示す認証結果が供給された場合、比較部2からの比較結果が、RGB画像の眼領域とIR画像の眼領域とに差があることを示していれば、顔認証装置による認証は、実際の人物の顔に対して行われているので、その認証結果は正しいと判定し、その認証結果を図示せぬ表示装置等に出力する。また、判定部3は、顔認証装置から認証OKを示す認証結果が供給された場合、比較部2からの比較結果が、RGB画像の眼領域とIR画像の眼領域とに差がないことを示していれば、顔認証装置による認証は、写真等に写った顔に対して行われているので、その認証結果は正しくないと判定し、その認証結果が正しくない旨を出力する。
なお、判定部3は、顔認証装置から認証NGを示す認証結果が供給された場合には、その認証結果をそのまま出力する。
[認証結果判定処理について]
ここで、図4のフローチャートを参照して、認証結果判定装置1による認証結果判定処理について説明する。
ここで、図4のフローチャートを参照して、認証結果判定装置1による認証結果判定処理について説明する。
ステップS1において、比較部2は、赤外光が照射された人物を被写体としたRGB画像における人物と、その人物を被写体としたIR画像における人物の眼領域とを比較し、その比較結果を判定部3に供給する。
ステップS2において、判定部3は、比較部2からの比較結果、すなわち、図2および図3を参照して説明したような、RGB画像おける眼領域とIR画像における眼領域との差に基づいて、顔認証の認証結果が正しいか否かを判定し、出力する。上述したように、認証結果が正しいと判定された場合にはその認証結果が出力され、認証結果が正しくないと判定された場合にはその認証結果が正しくない旨が出力される。
以上の処理によれば、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるので、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができるようになり、ひいては、顔認証によるセキュリティをより強化することが可能となる。
以下、上述した本技術の実施の形態について説明する。
<2.第1の実施の形態>
[携帯端末のハードウェア構成例]
図5は、本技術を適用した認証装置としての携帯端末のハードウェア構成例を示すブロック図である。
[携帯端末のハードウェア構成例]
図5は、本技術を適用した認証装置としての携帯端末のハードウェア構成例を示すブロック図である。
図5の携帯端末11は、例えば、撮像機能を備えた携帯電話機等として構成され、人物を被写体として撮像し、その人物に対して顔認証を行うことで、セキュリティロックを解除する。
図5の携帯端末11は、レンズ21、特殊フィルタ22、イメージセンサ23、CDS(Correlated Double Sampling)/AGC(Automatic Gain Control)回路24、A/D(Analog/Digital)変換回路25、DSP(Digital Signal Processor)26、CPU(Central Processing Unit)27、タイミングジェネレータ28、ディスプレイ29、およびEEPROM(Electrically Erasable Programmable Read Only Memory)30から構成される。
レンズ21は、単眼の単焦点レンズとして構成され、被写体からの光を集光し、集光した光を、特殊フィルタ22を介してイメージセンサ23に入射させる。イメージセンサ23は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等から構成され、レンズ21から特殊フィルタ22を介して入射する光を受光し、その光を、受光量に応じた電気信号としての画像信号(アナログ信号)に光電変換して、CDS/AGC回路24に供給する。
特殊フィルタ22は、可視光域とともに、近赤外光の波長帯に透過帯を持つ分光特性を有する。イメージセンサ23の前面(図中、左側)には、カラーフィルタアレイ23a(図6)が配置されている。カラーフィルタアレイ23aは、イメージセンサ23の1画素ごとに割り当てられたカラーフィルタから構成される。
図6には、ベイヤ配列において、G画素のうちの半分(R,G,B,Gからなる、隣接する2×2(=4)画素のうちの1つのG画素)が、図中黒塗りで示されるIR(InfraRed)透過フィルタで構成されるカラーフィルタアレイ23aの配列例が示されている。
すなわち、イメージセンサ23によれば、図6に示されるように、R,Gb(またはGr),B画素(RGB画素)を間引きした出力をデモザイクして得られるR画像、G画像、B画像からなる可視光画像(RGB画像)と、Gr(またはGb)画素(IR画素)を間引きした出力をデモザイクして得られる赤外光画像(IR画像)が得られる。
図5に戻り、CDS/AGS回路24は、イメージセンサ23において発生する1/fノイズを除去するとともに、CPU27の制御に基づいて、イメージセンサ23から供給された画像信号の大きさ(レベル)が一定になるようにゲインを調整してA/D変換回路25に出力する。さらに、CDS/AGS回路24は、CPU27の制御に基づいて、イメージセンサ23における電荷の蓄積時間を電気的に変化させる電子シャッタ処理も行う。
A/D変換回路25は、CDS/AGS回路24から出力されたアナログ信号である画像信号を、デジタル信号である画像データに変換して、DSP26に供給する。A/D変換回路25によって得られる画像データとしては、上述したRGB画像の画像データと、IR画像の画像データとがある。
DSP26は、A/D変換回路25からの画像データ(RGB画像およびIR画像の画像データ)に対して、所定の画像処理を施し、その結果をディスプレイ29またはEEPROM30に供給する。
CPU27は、携帯端末11の各部を制御する。
タイミングジェネレータ28は、CPU27の制御に基づいて、各種のタイミング信号を発生し、イメージセンサ23、CDS/AGC回路24、およびA/D変換回路25に供給する。
ディスプレイ29は、CPU27の制御に基づいて、所定の画像を表示したり、DSP26からの画像処理の結果に応じた表示を行う。また、ディスプレイ29は、タッチパネル機能を備えており、携帯端末11に対して操作入力を行うための操作画面の表示を行う。
EEPROM30は、いわゆる不揮発性のメモリであり、電源が落とされても、記憶保持した情報が失われることがなく、各種の設定パラメータや、DSP26からの画像処理の結果等を記憶保持する。
[携帯端末の機能構成例]
次に、図7を参照して、携帯端末11の機能構成例について説明する。
次に、図7を参照して、携帯端末11の機能構成例について説明する。
図7の携帯端末11は、撮像部51、IR発光部52、顔検出部53、眼領域検出部54、顔認証部55、比較部56、プルキニエ像検出部57、および判定部58から構成される。
撮像部51は、図2で説明したレンズ21、特殊フィルタ22、イメージセンサ23を備える他、図示しないが、CDS/AGC回路24およびA/D変換回路25を備える。すなわち、撮像部51は、被写体を撮像し、RGB画像およびIR画像を同時に出力する。また、撮像部51は、ゲイン調整や電子シャッタ処理を行う。
IR発光部52は、タイミングジェネレータ28のタイミング信号により撮像部51と同期して、撮像部51が撮像するタイミングで赤外光を発光することで、赤外光を被写体に照射する。なお、IR発光部52は、撮像部51と同期せずに、常時赤外光を発光するようにしてもよい。
顔検出部53は、撮像部51からのRGB画像から顔を検出し、顔が検出された領域である顔検出領域の位置および大きさに基づいて顔画像を抽出して、眼領域検出部54および顔認証部55に供給する。例えば、顔検出部53は、予め複数の顔の顔画像を学習しておくことで、RGB画像の被写体としての人物の顔を検出する。
眼領域検出部54は、顔検出部53からの顔画像において眼領域を検出し、RGB画像における眼領域の位置を表す情報(座標情報)を、比較部56およびプルキニエ像検出部57に供給する。例えば、眼領域検出部54は、予め複数の眼の画像を学習しておくことで、眼領域を検出する。
顔認証部55は、顔検出部53からの顔画像を用いて、RGB画像における人物に対して顔認証を行い、その認証結果を比較部56および判定部58に供給する。例えば、顔認証部55は、顔検出部53からの顔画像と、予め登録されている携帯端末11の所有者の顔画像のマッチングを行うことで、顔認証を行う。
比較部56は、顔認証部55から、認証OKを示す認証結果が供給された場合、眼領域検出部54からの座標情報を用いて、RGB画像の眼領域とIR画像の眼領域とを比較し、その比較結果を判定部58に供給する。
プルキニエ像検出部57は、眼領域検出部54からの座標情報を用いて、撮像部51からのIR画像の眼領域においてプルキニエ像を検出し、その検出結果を判定部58に供給する。
判定部58は、比較部56からの比較結果、および、プルキニエ像検出部57からの検出結果を用いて、顔認証部55からの認証結果が正しいか否かを判定し、その判定結果をディスプレイ29に出力する。
[認証処理について]
次に、図8のフローチャートを参照して、携帯端末11による認証処理について説明する。
次に、図8のフローチャートを参照して、携帯端末11による認証処理について説明する。
例えば、タッチパネル機能を備えるディスプレイ29に対して、操作者により認証処理開始の指示を示す操作入力が行われると、ステップS11において、撮像部51は、その操作者を被写体として撮像する。ここで、撮像部51による撮像のタイミングに合わせて、IR発光部52が発光する。これにより、赤外光が照射された操作者を被写体としたRGB画像およびIR画像が取得され、RGB画像は顔検出部53および比較部56に、IR画像は比較部56およびプルキニエ像検出部57にそれぞれ供給される。
ステップS12において、顔検出部53は、撮像部51からのRGB画像において顔を検出し、顔検出領域の位置および大きさに基づいて顔画像を抽出して、眼領域検出部54および顔認証部55に供給する。
ステップS13において、眼領域検出部54は、顔検出部53からの顔画像において眼領域を検出し、RGB画像における眼領域の位置を表す座標情報を、比較部56およびプルキニエ像検出部57に供給する。眼領域の検出は、左右両方の眼について行われるようにしてもよいし、左右いずれか一方の眼について行われるようにしてもよい。
ステップS14において、顔認証部55は、顔検出部53からの顔画像を用いて、撮像部51により取得されたRGB画像における操作者に対して顔認証を行う。
なお、ステップS13とステップS14とは、並列して実行されてもよい。
ステップS15において、顔認証部55は、顔認証の認証結果が認証OKを示す場合、その認証結果を比較部56および判定部58に供給し、処理はステップS16に進む。
ステップS16において、比較部56は、顔認証部55からの認証結果を取得すると、眼領域検出部54からの座標情報を用いて、RGB画像の眼領域とIR画像の眼領域とを比較し、その比較結果を判定部58に供給する。なお、眼領域検出部54からの座標情報は、RGB画像における眼領域の位置を表すものであるが、撮像部51により取得されるRGB画像とIR画像とは同一画角で同時に撮像されるため、眼領域検出部54からの座標情報により、IR画像における眼領域の位置も特定される。
すなわち、比較部56は、眼領域検出部54からの座標情報によって特定されるRGB画像の眼領域とIR画像の眼領域とを比較する。
具体的には、例えば、比較部56は、図9に示されるように、RGB画像の眼領域の輝度情報を所定の閾値を用いて2値化した2値化眼領域画像71と、IR画像の眼領域の輝度情報を所定の閾値を用いて2値化した2値化眼領域画像72との差分をとり、差分画像73を得る。
実際の人物を撮像した場合のRGB画像の眼領域とIR画像の眼領域とは、瞳孔と虹彩とで明るさが異なるため、差分画像73は、虹彩部分に値を持った画像となる。
一方、写真等の人物を撮像した場合のRGB画像の眼領域とIR画像の眼領域とは、瞳孔と虹彩とで明るさが同一となるため、差分画像73は、全体的に値を持たない画像となる。
なお、虹彩の明るさ(色)には個人差があるので、2値化処理に用いられる閾値は、例えば、国や地域毎に設定されるようにしてもよい。
また、比較部56は、図10に示されるように、RGB画像の眼領域における黒領域の輪郭と、IR画像の眼領域における黒領域の輪郭の差分を求めるようにしてもよい。
実際の人物を撮像した場合のRGB画像の眼領域においては、瞳孔および虹彩の部分が黒領域となり、実際の人物を撮像した場合のIR画像の眼領域においては、瞳孔のみが黒領域となる。したがって、実際の人物を撮像した場合のRGB画像の眼領域における黒領域の輪郭の径(図10A)と、IR画像の眼領域における黒領域の輪郭の径(図10B)との間に差分が生じる。
一方、写真等の人物を撮像した場合のRGB画像の眼領域においては、瞳孔および虹彩の部分が黒領域となり、写真等の人物を撮像した場合のIR画像の眼領域においても、瞳孔および虹彩の部分が黒領域となる。したがって、写真等の人物を撮像した場合のRGB画像の眼領域における黒領域の輪郭の径と、IR画像の眼領域における黒領域の輪郭の径との間に差分は生じない。
なお、RGB画像およびIR画像の眼領域における黒領域は、上述した2値化処理によって求めることができる。
さらに、比較部56は、図11に示されるように、RGB画像の眼領域における輝度分布と、IR画像の眼領域における輝度分布の差分を求めるようにしてもよい。
実際の人物を撮像した場合のRGB画像の眼領域においては、瞳孔および虹彩の部分が暗い色となるので低輝度側の輝度分布が大きくなり、実際の人物を撮像した場合のIR画像の眼領域においては、虹彩の部分が明るくなるので、高輝度側の輝度分布が大きくなる。したがって、実際の人物を撮像した場合のRGB画像の眼領域についての輝度ヒストグラム(図11A)と、IR画像の眼領域についての輝度ヒストグラム(図11B)との間に差分が生じる。
一方、写真等の人物を撮像した場合のRGB画像の眼領域においては、瞳孔および虹彩の部分が暗い色となるので低輝度側の輝度分布が大きくなり、写真等の人物を撮像した場合のIR画像の眼領域においても、瞳孔および虹彩の部分が暗い色となるので低輝度側の輝度分布が大きくなる。したがって、実際の人物を撮像した場合のRGB画像の眼領域についての輝度ヒストグラムと、IR画像の眼領域についての輝度ヒストグラムとの間に差分は生じない。
このようにして、比較部56は、RGB画像の眼領域とIR画像の眼領域とを比較し、差分を求めることができるが、差分を求める手法は上述したものに限られない。
図8のフローチャートに戻り、ステップS17において、プルキニエ像検出部57は、撮像部51からのIR画像における、眼領域検出部54からの座標情報で特定される眼領域においてプルキニエ像を検出し、その検出結果を判定部58に供給する。具体的には、撮像部51からのIR画像が、実際の人物を撮像した場合のIR画像であれば、眼領域からプルキニエ像が検出され、撮像部51からのIR画像が、写真等の人物を撮像した場合のIR画像であれば、眼領域からプルキニエ像は検出されない。
ステップS18において、判定部58は、比較部56からの比較結果、および、プルキニエ像検出部57からの検出結果を用いて、顔認証部55からの認証結果が正しいか否かを判定し、処理はステップS19に進む。
すなわち、判定部58は、比較部56からの比較結果が、RGB画像の眼領域とIR画像の眼領域とに差分があることを示し、かつ、プルキニエ像検出部57からの検出結果が、IR画像の眼領域からプルキニエ像が検出されたことを示している場合、顔認証が行われた人物は実際の人物であるので、認証結果(認証OK)は正しいと判定する。
また、判定部58は、比較部56からの比較結果が、RGB画像の眼領域とIR画像の眼領域とに差分がないことを示すか、または、プルキニエ像検出部57からの検出結果が、IR画像の眼領域からプルキニエ像が検出されないことを示している場合、顔認証が行われた人物は写真等の人物であるので、認証結果(認証OK)は正しくないと判定する。
ところで、ステップS15において、顔認証の認証結果が認証NGを示す場合、顔認証部55は、その認証結果を判定部58に供給し、処理はステップS19に進む。
ステップS19において、判定部58は、認証結果を、ディスプレイ29に出力する。
具体的には、ステップS18において認証結果(認証OK)が正しいと判定された場合、判定部58は、認証OKである旨をディスプレイ29に出力する。このとき、携帯端末11にかけられているセキュリティロックは解除される。
一方、ステップS18において認証結果(認証OK)が正しくないと判定された場合、判定部58は、認証に失敗した旨をディスプレイ29に出力する。この場合、携帯端末11にかけられているセキュリティロックは解除されない。
また、ステップS15において、顔認証の結果が認証NGであった場合、判定部58は、認証NGである旨をディスプレイ29に出力する。この場合ももちろん、携帯端末11にかけられているセキュリティロックは解除されない。
以上の処理によれば、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるようになる。
従来の認証処理においては、例えば、携帯端末の所有者の顔写真を用いることで、なりすましによる顔認証に成功し、セキュリティロックが解除される恐れがあった。一方、本技術においては、RGB画像の眼領域とIR画像の眼領域とが比較されることで、顔写真を用いた、なりすましによる顔認証が成功した場合であっても、その認証結果は正しくないと判定されるようになる。したがって、本技術によれば、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができ、顔認証によるセキュリティをより強化することが可能となる。
また、以上の処理においては、1つの撮像部によりRGB画像とIR画像とが同一画角で同時に撮像されるので、光軸を調整したり、撮像タイミングの同期をとる等といった処理を行う必要がなく、処理の負荷を低減することができる。
ところで、以上においては、顔画像から眼領域が検出されるようにしたが、眼領域を精度良く検出することができるならば、RGB画像全体から眼領域が検出されるようにしてもよい。
<3.第2の実施の形態>
[携帯端末の機能構成例]
図12は、本技術を適用した携帯端末の第2の実施の形態の機能構成例を示している。
[携帯端末の機能構成例]
図12は、本技術を適用した携帯端末の第2の実施の形態の機能構成例を示している。
なお、図12の携帯端末111において、図7の携帯端末11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図12の携帯端末111において、図7の携帯端末11と異なるのは、眼領域検出部54に代えて、眼領域検出部151を設けた点である。
眼領域検出部151は、撮像部51からのRGB画像から眼領域を検出し、RGB画像における眼領域の位置を表す座標情報を、比較部56およびプルキニエ像検出部57に供給する。眼領域検出部151もまた、予め複数の眼の画像を学習しておくことで、眼領域を検出する。
[認証処理について]
次に、図13のフローチャートを参照して、図12の携帯端末111による認証処理について説明する。
次に、図13のフローチャートを参照して、図12の携帯端末111による認証処理について説明する。
なお、図13のフローチャートのステップS111,S112,S114乃至S119の処理は、図8のフローチャートのステップS11,S12,S14乃至S19の処理と基本的に同様であるので、その説明は省略する。
すなわち、ステップS113において、眼領域検出部151は、撮像部51により取得されたRGB画像において眼領域を検出し、RGB画像における眼領域の位置を表す座標情報を、比較部56およびプルキニエ像検出部57に供給する。眼領域の検出は、左右両方の眼について行われるようにしてもよいし、左右いずれか一方の眼について行われるようにしてもよい。
以上の処理によっても、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるようになるので、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができ、顔認証によるセキュリティをより強化することが可能となる。
以上においては、RGB画像全体から眼領域が検出されるようにしたが、IR画像全体から眼領域が検出されるようにしてもよい。
<4.第3の実施の形態>
[携帯端末の機能構成例]
図14は、本技術を適用した携帯端末の第3の実施の形態の機能構成例を示している。
[携帯端末の機能構成例]
図14は、本技術を適用した携帯端末の第3の実施の形態の機能構成例を示している。
なお、図14の携帯端末211において、図7の携帯端末11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図14の携帯端末211において、図7の携帯端末11と異なるのは、眼領域検出部54に代えて、眼領域検出部251を設けた点である。
眼領域検出部251は、撮像部51からのIR画像から眼領域を検出し、IR画像における眼領域の位置を表す座標情報を、比較部56およびプルキニエ像検出部57に供給する。眼領域検出部251もまた、予め複数の眼の画像を学習しておくことで、眼領域を検出する。
[認証処理について]
次に、図15のフローチャートを参照して、図14の携帯端末211による認証処理について説明する。
次に、図15のフローチャートを参照して、図14の携帯端末211による認証処理について説明する。
なお、図15のフローチャートのステップS211,S212,S214乃至S219の処理は、図8のフローチャートのステップS11,S12,S14乃至S19の処理と基本的に同様であるので、その説明は省略する。
すなわち、ステップS213において、眼領域検出部251は、撮像部51により取得されたIR画像において眼領域を検出し、IR画像における眼領域の位置を表す座標情報を、比較部56およびプルキニエ像検出部57に供給する。眼領域の検出は、左右両方の眼について行われるようにしてもよいし、左右いずれか一方の眼について行われるようにしてもよい。
以上の処理によっても、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるようになるので、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができ、顔認証によるセキュリティをより強化することが可能となる。
なお、図14の携帯端末211に、撮像部51からのIR画像において顔を検出し、顔画像を抽出して、眼領域検出部251に供給する顔検出部を設けるようにしてもよい。これにより、眼領域検出部251による眼領域の検出の負荷を低減することができる。
以上においては、1つの撮像部によりRGB画像とIR画像とが撮像されるようにしたが、2つの撮像部それぞれによりRGB画像とIR画像とが撮像されるようにしてもよい。
<5.第4の実施の形態>
[携帯端末の機能構成例]
図16は、本技術を適用した携帯端末の第4の実施の形態の機能構成例を示している。
[携帯端末の機能構成例]
図16は、本技術を適用した携帯端末の第4の実施の形態の機能構成例を示している。
なお、図16の携帯端末311において、図7の携帯端末11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図16の携帯端末311において、図7の携帯端末11と異なるのは、撮像部51に代えて撮像部351,352を設け、眼領域検出部251を新たに設け、比較部56に代えて比較部353を設けた点である。
なお、眼領域検出部251は、図14の携帯端末211に設けられたものと同様であるので、その説明は省略する。
撮像部351は、レンズ361、IRカットフィルタ362、イメージセンサ363を備える他、図示せぬCDS/AGC回路およびA/D変換回路を備える。すなわち、撮像部351は、被写体を撮像し、得られたRGB画像を出力する。
撮像部352は、レンズ371、可視光カットフィルタ372、イメージセンサ373を備える他、図示せぬCDS/AGC回路およびA/D変換回路を備える。すなわち、撮像部352は、被写体を撮像し、得られたIR画像を出力する。
なお、撮像部351,352、およびIR発光部52は、タイミングジェネレーション28のタイミング信号により、互いに同期して動作するものとする。
比較部353は、顔認証部55から認証OKを示す認証結果が供給された場合、眼領域検出部54からの座標情報と眼領域検出部251からの座標情報とを用いて、RGB画像の眼領域とIR画像の眼領域とを比較し、その比較結果を判定部58に供給する。
[認証処理について]
次に、図17のフローチャートを参照して、図16の携帯端末311による認証処理について説明する。
次に、図17のフローチャートを参照して、図16の携帯端末311による認証処理について説明する。
なお、図17のフローチャートのステップS314乃至S316,S318乃至S320の処理は、図8のフローチャートのステップS13乃至S15,S17乃至S19の処理と基本的に同様であるので、その説明は省略する。
すなわち、ステップS311において、撮像部351,352は、操作者を被写体として撮像する。ここで、撮像部351,352による撮像のタイミングに合わせて、IR発光部52が発光する。これにより、赤外光が照射された操作者を被写体としたRGB画像およびIR画像が取得され、RGB画像は顔検出部53および比較部353に、IR画像はプルキニエ像検出部57、眼領域検出部251、および比較部353にそれぞれ供給される。
ステップS312において、眼領域検出部251は、撮像部352により取得されたIR画像において眼領域を検出し、IR画像における眼領域の位置を表す座標情報を、プルキニエ像検出部57および比較部353に供給する。
そして、ステップS313乃至ステップS316の処理の後、ステップS317において、比較部353は、眼領域検出部54からの座標情報と眼領域検出部251からの座標情報とを用いて、RGB画像の眼領域とIR画像の眼領域とを比較し、その比較結果を判定部58に供給する。なお、眼領域検出部54からの座標情報は、RGB画像における眼領域の位置を表し、眼領域検出部251からの座標情報は、IR画像の眼領域における位置を表すものであるが、RGB画像とIR画像とは異なる画角で撮像されるため、RGB画像の眼領域の位置とIR画像の眼領域の位置は、異なる画角の分だけ調整されて特定される。
なお、比較部353により、RGB画像の眼領域とIR画像の眼領域とを比較し、差分を求める手法は、図9乃至図11を参照して説明した手法等が用いられる。
以上の処理によっても、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるようになるので、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができ、顔認証によるセキュリティをより強化することが可能となる。
以上においては、IR画像における眼領域はIR画像全体から検出されるようにしたが、IR画像において顔画像を抽出し、その顔画像からIR画像における眼領域が検出されるようにしてもよい。
<6.第5の実施の形態>
[携帯端末の機能構成例]
図18は、本技術を適用した携帯端末の第5の実施の形態の機能構成例を示している。
[携帯端末の機能構成例]
図18は、本技術を適用した携帯端末の第5の実施の形態の機能構成例を示している。
なお、図18の携帯端末411において、図16の携帯端末311に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図18の携帯端末411において、図16の携帯端末311と異なるのは、顔検出部451を新たに設け、眼領域検出部251に代えて眼領域検出部452を設けた点である。
顔検出部451は、撮像部352からのIR画像において顔を検出し、顔が検出された顔検出領域の位置および大きさに基づいて顔画像を抽出して、眼領域検出部452に供給する。なお、ここでは、顔検出部53により抽出された顔画像と、顔検出部451により検出された顔画像とを互いに区別するため、それぞれRGB顔画像、IR顔画像という。
眼領域検出部452は、顔検出部451からのIR顔画像から眼領域を検出し、眼領域の位置を表す座標情報を、プルキニエ像検出部57および比較部353に供給する。
[認証処理について]
次に、図19のフローチャートを参照して、図18の携帯端末411による認証処理について説明する。
次に、図19のフローチャートを参照して、図18の携帯端末411による認証処理について説明する。
なお、図19のフローチャートのステップS411,S414乃至S421の処理は、図17のフローチャートのステップS311,S313乃至S320の処理と基本的に同様であるので、その説明は省略する。
すなわち、ステップS412において、顔検出部451は、撮像部352からのIR画像において顔を検出し、顔検出領域の位置および大きさに基づいてIR顔画像を抽出して、眼領域検出部452に供給する。
ステップS413において、眼領域検出部452は、顔検出部451からのIR顔画像において眼領域を検出し、IR画像における眼領域の位置を表す座標情報を、プルキニエ像検出部57および比較部353に供給する。
以上の処理によっても、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるようになるので、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができ、顔認証によるセキュリティをより強化することが可能となる。
また、IR画像における眼領域をIR顔画像から検出するようにしたので、眼領域の検出精度を高めることができ、ひいては、比較部353における画角調整の精度を高めることができる。
以上においては、2つの撮像部それぞれによりRGB画像とIR画像とが撮像されるようにしたが、1つの撮像部において、IRカットフィルタと可視光カットフィルタとを切り替えて用いることで、RGB画像とIR画像とが撮像されるようにすることもできる。
<7.第6の実施の形態>
[携帯端末の機能構成例]
図20は、本技術を適用した携帯端末の第6の実施の形態の機能構成例を示している。
[携帯端末の機能構成例]
図20は、本技術を適用した携帯端末の第6の実施の形態の機能構成例を示している。
なお、図20の携帯端末511において、図16の携帯端末311に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図20の携帯端末511において、図16の携帯端末311と異なるのは、撮像部351,352に代えて、撮像部551を設けた点である。
撮像部551は、レンズ561、フィルタ切替部562、およびイメージセンサ563を備える。フィルタ切替部562は、レンズ561とイメージセンサ563の間に配置される光学フィルタを、IRカットフィルタ562aと可視光カットフィルタ562bとの間で切り替える。このような構成により、撮像部551は、被写体を撮像し、得られたRGB画像およびIR画像を出力する。この構成において、RGB画像およびIR画像は、同一画角で、異なるタイミングで撮像され、取得される。
なお、IR発光部52は、撮像部551がIR画像を撮像するタイミングで赤外光を発光すればよい。
[認証処理について]
次に、図21のフローチャートを参照して、図20の携帯端末511による認証処理について説明する。
次に、図21のフローチャートを参照して、図20の携帯端末511による認証処理について説明する。
なお、図21のフローチャートのステップS515乃至S522の処理は、図17のフローチャートのステップS313乃至320の処理と基本的に同様であるので、その説明は省略する。
すなわち、ステップS511において、撮像部551は、操作者を被写体として撮像する。このとき、レンズ561とイメージセンサ563の間には、フィルタ切替部562によって、可視光カットフィルタ562bが配置されている。また、撮像部551による撮像のタイミングに合わせて、IR発光部52が発光する。これにより、赤外光が照射された操作者を被写体としたIR画像が取得され、IR画像はプルキニエ像検出部57、眼領域検出部251、および比較部353に供給される。
ステップS512において、眼領域検出部251は、撮像部551により取得されたIR画像において眼領域を検出し、IR画像における眼領域の位置を表す座標情報を、プルキニエ像検出部57および比較部353に供給する。
ステップS513において、フィルタ切替部562は、レンズ561とイメージセンサ563の間に配置される光学フィルタを、可視光カットフィルタ562bからIRカットフィルタ562aに切り替える。
ステップS514において、撮像部551は、操作者を被写体として撮像する。このとき、レンズ561とイメージセンサ563の間には、IRカットフィルタ562aが配置されているので、操作者を被写体としたRGB画像が取得され、RGB画像は顔検出部53および比較部353に供給される。
以上の処理によっても、RGB画像の眼領域とIR画像の眼領域とが比較され、その比較結果を用いて、顔認証の認証結果が正しいか否かが判定されるようになるので、可視光を用いた撮像と赤外光を用いた撮像とを利用して、顔認証の精度を高めることができ、顔認証によるセキュリティをより強化することが可能となる。
なお、図21のフローチャートを参照して説明した認証処理においては、IR画像が取得された後にRGB画像が取得されるものとしたが、その順番は逆であってもよい。
また、図20の携帯端末511に、撮像部511からのIR画像において顔を検出し、顔画像を抽出して、眼領域検出部251に供給する顔検出部を設けるようにしてもよい。これにより、眼領域検出部251による眼領域の検出の負荷を低減することができる。
<8.第7の実施の形態>
[携帯端末の機能構成例]
図22は、本技術を適用した携帯端末の第7の実施の形態の機能構成例を示している。
[携帯端末の機能構成例]
図22は、本技術を適用した携帯端末の第7の実施の形態の機能構成例を示している。
なお、図22の携帯端末611において、図7の携帯端末11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図22の携帯端末611において、図7の携帯端末11と異なるのは、可視光光源651を設けた点である。
可視光光源651は、常時発光し、可視光を被写体に照射する。なお、可視光光源651は、タイミングジェネレータ28のタイミング信号により撮像部51と同期して、撮像部51が撮像するタイミングで発光し、可視光を被写体に照射するようにしてもよい。
このような構成により、暗所での認証処理であっても、精度を下げることなく確実に顔認証を行うことができる。
なお、可視光光源651は、上述した第2乃至第6の実施の形態の構成に追加することができる。
また、以上においては、本技術を、顔認証によりセキュリティロックを解除する携帯端末に適用した例について説明したが、人物を被写体として撮像し顔認証を行う機器であれば適用可能であり、例えば、本技術を、ネットワークへのログオンを顔認証により許可するパーソナルコンピュータや、施設への入場を顔認証により許可する入場管理システム、パスポートの本人確認を行う出入国管理システム等に適用することができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本技術は以下のような構成をとることができる。
(1)
赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較部と、
前記比較部の比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定部と
を備える認証装置。
(2)
前記判定部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とに差分がある場合、前記認証結果が正しいと判定する
(1)に記載の認証装置。
(3)
前記可視光画像における前記人物に対して顔認証を行う顔認証部をさらに備え、
前記判定部は、前記比較部の比較結果を用いて、前記顔認証部の認証結果が正しいか否かを判定する
(1)または(2)に記載の認証装置。
(4)
レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を同時に出力する撮像部をさらに備える
(3)に記載の認証装置。
(5)
前記可視光画像または前記赤外光画像の前記眼領域を検出する眼領域検出部をさらに備え、
前記比較部は、前記眼領域検出部により検出された前記眼領域を表す座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
(3)または(4)に記載の認証装置。
(6)
前記可視光画像における前記人物の顔を検出する顔検出部をさらに備え、
前記顔認証部は、前記顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記眼領域検出部は、前記顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
(5)に記載の認証装置。
(7)
レンズより入射される光のうちの可視光に対応する前記可視光画像を出力する第1の撮像部と、
前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する第2の撮像部とをさらに備える
(3)に記載の認証装置。
(8)
前記可視光画像の前記眼領域を検出する第1の眼領域検出部と、
前記赤外光画像の前記眼領域を検出する第2の眼領域検出部とをさらに備え、
前記比較部は、前記第1の眼領域検出部により検出された前記可視光画像の前記眼領域を表す第1の座標情報、および、前記第2の眼領域検出部により検出された前記赤外光画像の前記眼領域を表す第2の座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
(3)または(7)に記載の認証装置。
(9)
前記可視光画像における前記人物の顔を検出する第1の顔検出部と、
前記赤外光画像における前記人物の顔を検出する第2の顔検出部をさらに備え、
前記顔認証部は、前記第1の顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記第1の眼領域検出部は、前記第1の顔検出部により検出された前記顔の顔画像における前記眼領域を検出し、
前記第2の眼領域検出部は、前記第2の顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
(8)に記載の認証装置。
(10)
可視光を遮断する第1のフィルタと赤外光を遮断する第2のフィルタとを切り替えて用いることで、レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する撮像部をさらに備える
(3)に記載の認証装置。
(11)
前記比較部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを2値化して差分を求める
(3)乃至(10)のいずれかに記載の認証装置。
(12)
前記比較部は、前記可視光画像の前記眼領域における輝度分布と、前記赤外光画像の前記眼領域における輝度分布の差分を求める
(3)乃至(10)のいずれかに記載の認証装置。
(13)
前記比較部は、前記可視光画像の前記眼領域における黒領域の輪郭と、前記赤外光画像の前記眼領域における黒領域の輪郭の差分を求める
(3)乃至(10)のいずれかに記載の認証装置。
(14)
前記赤外光画像の前記眼領域においてプルキニエ像を検出するプルキニエ像検出部をさらに備え、
前記判定部は、前記比較部の比較結果および前記プルキニエ像検出部の検出結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する
(3)乃至(13)のいずれかに記載の認証装置。
(15)
前記人物に対して照射される前記赤外光を発光する赤外光発光部をさらに備える
(3)乃至(14)のいずれかに記載の認証装置。
(16)
前記人物に対して可視光を照射する可視光光源をさらに備える
(3)乃至(15)のいずれかに記載の認証装置。
(17)
赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、
前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップと
を含む認証方法。
(18)
赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、
前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップと
を含む処理をコンピュータに実行させるプログラム。
(1)
赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較部と、
前記比較部の比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定部と
を備える認証装置。
(2)
前記判定部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とに差分がある場合、前記認証結果が正しいと判定する
(1)に記載の認証装置。
(3)
前記可視光画像における前記人物に対して顔認証を行う顔認証部をさらに備え、
前記判定部は、前記比較部の比較結果を用いて、前記顔認証部の認証結果が正しいか否かを判定する
(1)または(2)に記載の認証装置。
(4)
レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を同時に出力する撮像部をさらに備える
(3)に記載の認証装置。
(5)
前記可視光画像または前記赤外光画像の前記眼領域を検出する眼領域検出部をさらに備え、
前記比較部は、前記眼領域検出部により検出された前記眼領域を表す座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
(3)または(4)に記載の認証装置。
(6)
前記可視光画像における前記人物の顔を検出する顔検出部をさらに備え、
前記顔認証部は、前記顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記眼領域検出部は、前記顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
(5)に記載の認証装置。
(7)
レンズより入射される光のうちの可視光に対応する前記可視光画像を出力する第1の撮像部と、
前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する第2の撮像部とをさらに備える
(3)に記載の認証装置。
(8)
前記可視光画像の前記眼領域を検出する第1の眼領域検出部と、
前記赤外光画像の前記眼領域を検出する第2の眼領域検出部とをさらに備え、
前記比較部は、前記第1の眼領域検出部により検出された前記可視光画像の前記眼領域を表す第1の座標情報、および、前記第2の眼領域検出部により検出された前記赤外光画像の前記眼領域を表す第2の座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
(3)または(7)に記載の認証装置。
(9)
前記可視光画像における前記人物の顔を検出する第1の顔検出部と、
前記赤外光画像における前記人物の顔を検出する第2の顔検出部をさらに備え、
前記顔認証部は、前記第1の顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記第1の眼領域検出部は、前記第1の顔検出部により検出された前記顔の顔画像における前記眼領域を検出し、
前記第2の眼領域検出部は、前記第2の顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
(8)に記載の認証装置。
(10)
可視光を遮断する第1のフィルタと赤外光を遮断する第2のフィルタとを切り替えて用いることで、レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する撮像部をさらに備える
(3)に記載の認証装置。
(11)
前記比較部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを2値化して差分を求める
(3)乃至(10)のいずれかに記載の認証装置。
(12)
前記比較部は、前記可視光画像の前記眼領域における輝度分布と、前記赤外光画像の前記眼領域における輝度分布の差分を求める
(3)乃至(10)のいずれかに記載の認証装置。
(13)
前記比較部は、前記可視光画像の前記眼領域における黒領域の輪郭と、前記赤外光画像の前記眼領域における黒領域の輪郭の差分を求める
(3)乃至(10)のいずれかに記載の認証装置。
(14)
前記赤外光画像の前記眼領域においてプルキニエ像を検出するプルキニエ像検出部をさらに備え、
前記判定部は、前記比較部の比較結果および前記プルキニエ像検出部の検出結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する
(3)乃至(13)のいずれかに記載の認証装置。
(15)
前記人物に対して照射される前記赤外光を発光する赤外光発光部をさらに備える
(3)乃至(14)のいずれかに記載の認証装置。
(16)
前記人物に対して可視光を照射する可視光光源をさらに備える
(3)乃至(15)のいずれかに記載の認証装置。
(17)
赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、
前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップと
を含む認証方法。
(18)
赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、
前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップと
を含む処理をコンピュータに実行させるプログラム。
1 認証結果判定装置, 2 比較部, 3 判定部, 11 携帯端末, 51 撮像部, 52 IR発光部, 53 顔検出部, 54 眼領域検出部, 55 顔認証部, 56 比較部, 57 プルキニエ像検出部, 58 判定部
Claims (18)
- 赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較部と、
前記比較部の比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定部と
を備える認証装置。 - 前記判定部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とに差分がある場合、前記認証結果が正しいと判定する
請求項1に記載の認証装置。 - 前記可視光画像における前記人物に対して顔認証を行う顔認証部をさらに備え、
前記判定部は、前記比較部の比較結果を用いて、前記顔認証部の認証結果が正しいか否かを判定する
請求項2に記載の認証装置。 - レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を同時に出力する撮像部をさらに備える
請求項3に記載の認証装置。 - 前記可視光画像または前記赤外光画像の前記眼領域を検出する眼領域検出部をさらに備え、
前記比較部は、前記眼領域検出部により検出された前記眼領域を表す座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
請求項4に記載の認証装置。 - 前記可視光画像における前記人物の顔を検出する顔検出部をさらに備え、
前記顔認証部は、前記顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記眼領域検出部は、前記顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
請求項5に記載の認証装置。 - レンズより入射される光のうちの可視光に対応する前記可視光画像を出力する第1の撮像部と、
前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する第2の撮像部とをさらに備える
請求項3に記載の認証装置。 - 前記可視光画像の前記眼領域を検出する第1の眼領域検出部と、
前記赤外光画像の前記眼領域を検出する第2の眼領域検出部とをさらに備え、
前記比較部は、前記第1の眼領域検出部により検出された前記可視光画像の前記眼領域を表す第1の座標情報、および、前記第2の眼領域検出部により検出された前記赤外光画像の前記眼領域を表す第2の座標情報を用いて、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを比較する
請求項7に記載の認証装置。 - 前記可視光画像における前記人物の顔を検出する第1の顔検出部と、
前記赤外光画像における前記人物の顔を検出する第2の顔検出部をさらに備え、
前記顔認証部は、前記第1の顔検出部により検出された前記顔の顔画像を用いて、前記人物に対して顔認証を行い、
前記第1の眼領域検出部は、前記第1の顔検出部により検出された前記顔の顔画像における前記眼領域を検出し、
前記第2の眼領域検出部は、前記第2の顔検出部により検出された前記顔の顔画像における前記眼領域を検出する
請求項8に記載の認証装置。 - 可視光を遮断する第1のフィルタと赤外光を遮断する第2のフィルタとを切り替えて用いることで、レンズより入射される光のうちの可視光に対応する前記可視光画像と、前記レンズより入射される光のうちの赤外光に対応する前記赤外光画像を出力する撮像部をさらに備える
請求項3に記載の認証装置。 - 前記比較部は、前記可視光画像の前記眼領域と前記赤外光画像の前記眼領域とを2値化して差分を求める
請求項3に記載の認証装置。 - 前記比較部は、前記可視光画像の前記眼領域における輝度分布と、前記赤外光画像の前記眼領域における輝度分布の差分を求める
請求項3に記載の認証装置。 - 前記比較部は、前記可視光画像の前記眼領域における黒領域の輪郭と、前記赤外光画像の前記眼領域における黒領域の輪郭の差分を求める
請求項3に記載の認証装置。 - 前記赤外光画像の前記眼領域においてプルキニエ像を検出するプルキニエ像検出部をさらに備え、
前記判定部は、前記比較部の比較結果および前記プルキニエ像検出部の検出結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する
請求項3に記載の認証装置。 - 前記人物に対して照射される前記赤外光を発光する赤外光発光部をさらに備える
請求項3に記載の認証装置。 - 前記人物に対して可視光を照射する可視光光源をさらに備える
請求項3に記載の認証装置。 - 赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、
前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップと
を含む認証方法。 - 赤外光が照射された人物を被写体とした可視光画像における前記人物の眼領域と、前記人物を被写体とした赤外光画像における前記人物の前記眼領域とを比較する比較ステップと、
前記比較ステップの比較結果を用いて、前記人物に対して行われた顔認証の認証結果が正しいか否かを判定する判定ステップと
を含む処理をコンピュータに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012223794A JP2014078052A (ja) | 2012-10-09 | 2012-10-09 | 認証装置および方法、並びにプログラム |
US14/019,312 US9152850B2 (en) | 2012-10-09 | 2013-09-05 | Authentication apparatus, authentication method, and program |
CN201310455933.5A CN103714279A (zh) | 2012-10-09 | 2013-09-29 | 认证装置、认证方法以及程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012223794A JP2014078052A (ja) | 2012-10-09 | 2012-10-09 | 認証装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014078052A true JP2014078052A (ja) | 2014-05-01 |
Family
ID=50407242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012223794A Pending JP2014078052A (ja) | 2012-10-09 | 2012-10-09 | 認証装置および方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9152850B2 (ja) |
JP (1) | JP2014078052A (ja) |
CN (1) | CN103714279A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017038162A (ja) * | 2015-08-07 | 2017-02-16 | キヤノン株式会社 | 撮像装置及び画像処理方法、プログラム、並びに記憶媒体 |
WO2017043314A1 (ja) * | 2015-09-09 | 2017-03-16 | 日本電気株式会社 | ガイダンス取得装置、ガイダンス取得方法及びプログラム |
WO2018079031A1 (ja) * | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体 |
JP2019220047A (ja) * | 2018-06-22 | 2019-12-26 | 富士通株式会社 | 認証装置、認証プログラム、認証方法 |
JP2020191089A (ja) * | 2019-05-20 | 2020-11-26 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 |
JP2021033309A (ja) * | 2019-08-13 | 2021-03-01 | 本田技研工業株式会社 | 認証装置 |
JPWO2020129138A1 (ja) * | 2018-12-18 | 2021-10-28 | 日本電気株式会社 | 画像処理装置、画像処理方法及びプログラム |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014078052A (ja) * | 2012-10-09 | 2014-05-01 | Sony Corp | 認証装置および方法、並びにプログラム |
KR102174192B1 (ko) * | 2014-01-14 | 2020-11-04 | 에스케이하이닉스 주식회사 | 프로세서 기반의 타이밍 생성 장치 및 그 방법과 그를 이용한 씨모스 이미지 센서 |
CN104252622A (zh) * | 2014-10-15 | 2014-12-31 | 倪蔚民 | 移动终端前置和虹膜识别一体化光电成像系统及方法 |
WO2016061754A1 (zh) * | 2014-10-22 | 2016-04-28 | 中国科学院自动化研究所 | 一种手持式分子影像导航系统 |
US9767358B2 (en) * | 2014-10-22 | 2017-09-19 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
CN105354557B (zh) * | 2014-11-03 | 2019-04-16 | 苏州思源科安信息技术有限公司 | 一种生物识别防伪造物活体检测方法 |
US10074011B2 (en) * | 2015-01-20 | 2018-09-11 | Eyelock Llc | Lens system for high quality visible image acquisition and infra-red iris image acquisition |
CN107257659A (zh) * | 2015-02-26 | 2017-10-17 | 富士通株式会社 | 电子设备和活体认证程序 |
US11199454B2 (en) * | 2015-03-12 | 2021-12-14 | Maxim Integrated Products, Inc. | Heat imaging thermophile device and method |
US11067452B1 (en) | 2015-03-12 | 2021-07-20 | Maxim Integrated Products, Inc. | Device and method for temperature correction using a proximity sensor in a non-contact thermopile thermometer |
KR101696602B1 (ko) * | 2015-08-11 | 2017-01-23 | 주식회사 슈프리마 | 제스처를 이용한 생체 인증 |
JP6536324B2 (ja) * | 2015-09-30 | 2019-07-03 | 富士通株式会社 | 視線検出システム、視線検出方法および視線検出プログラム |
US9830708B1 (en) | 2015-10-15 | 2017-11-28 | Snap Inc. | Image segmentation of a video stream |
CN105335712A (zh) * | 2015-10-26 | 2016-02-17 | 小米科技有限责任公司 | 图像识别方法、装置及终端 |
US10109126B2 (en) * | 2016-01-12 | 2018-10-23 | Chi-Wei Chiu | Biological recognition lock system |
US10424072B2 (en) | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
CN107218886B (zh) * | 2016-03-22 | 2020-07-03 | 中国科学院国家空间科学中心 | 一种基于隐形组合路标的光学定位追踪系统及方法 |
JP2017175349A (ja) * | 2016-03-23 | 2017-09-28 | キヤノン株式会社 | 撮像装置、その制御方法及びプログラム |
JP2017208616A (ja) * | 2016-05-16 | 2017-11-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US11328152B2 (en) | 2019-06-17 | 2022-05-10 | Pixart Imaging Inc. | Recognition system employing thermal sensor |
US10579860B2 (en) | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
FR3053500B1 (fr) * | 2016-06-30 | 2019-06-28 | Safran Identity & Security | Procede de detection de fraude d'un systeme de reconnaissance d'iris |
KR102371211B1 (ko) * | 2017-03-24 | 2022-03-07 | 삼성전자 주식회사 | 복수의 카메라를 이용하여 생체 정보를 인증하는 방법 및 장치 |
KR102314241B1 (ko) * | 2017-03-28 | 2021-10-20 | 삼성전자주식회사 | 적응적 인증 수행 방법 및 이를 지원하는 전자 장치 |
TWI630559B (zh) * | 2017-06-22 | 2018-07-21 | 佳世達科技股份有限公司 | 影像擷取裝置及影像擷取方法 |
US11373450B2 (en) | 2017-08-11 | 2022-06-28 | Tectus Corporation | Eye-mounted authentication system |
TWI625679B (zh) * | 2017-10-16 | 2018-06-01 | 緯創資通股份有限公司 | 活體臉部辨識方法與系統 |
CN108965654B (zh) * | 2018-02-11 | 2020-12-25 | 浙江宇视科技有限公司 | 基于单传感器的双光谱摄像机系统和图像处理方法 |
CN108491768A (zh) * | 2018-03-06 | 2018-09-04 | 西安电子科技大学 | 角膜反射人脸认证抗欺诈攻击方法、人脸特征认证系统 |
JP2019175912A (ja) * | 2018-03-27 | 2019-10-10 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、及び、画像処理システム |
KR102503440B1 (ko) * | 2018-04-12 | 2023-02-27 | 삼성전자주식회사 | 보안 처리 모듈을 이용하여 보안 이미지를 획득하는 전자 장치 |
CN109326103B (zh) * | 2018-10-08 | 2020-09-15 | 宁波大学 | 一种移动智能终端生成危急信号方法 |
CN111161205B (zh) * | 2018-10-19 | 2023-04-18 | 阿里巴巴集团控股有限公司 | 一种图像处理和人脸图像识别方法、装置及设备 |
CN111611977B (zh) * | 2020-06-05 | 2021-10-15 | 吉林求是光谱数据科技有限公司 | 基于光谱与多波段融合的人脸识别监控系统及识别方法 |
CN113938597B (zh) * | 2020-06-29 | 2023-10-10 | 腾讯科技(深圳)有限公司 | 一种脸部识别方法、装置、计算机设备和存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5400791A (en) * | 1991-10-11 | 1995-03-28 | Candela Laser Corporation | Infrared fundus video angiography system |
JP4290278B2 (ja) * | 1999-06-03 | 2009-07-01 | 株式会社ニデック | 眼科装置 |
US7076088B2 (en) * | 1999-09-03 | 2006-07-11 | Honeywell International Inc. | Near-infrared disguise detection |
JP3450801B2 (ja) | 2000-05-31 | 2003-09-29 | キヤノン株式会社 | 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム |
JP2003030659A (ja) * | 2001-07-16 | 2003-01-31 | Matsushita Electric Ind Co Ltd | 虹彩認証装置及び虹彩撮像装置 |
US7027619B2 (en) * | 2001-09-13 | 2006-04-11 | Honeywell International Inc. | Near-infrared method and system for use in face detection |
JP3910893B2 (ja) * | 2002-08-30 | 2007-04-25 | 富士通株式会社 | 画像抽出方法及び認証装置 |
US20060261931A1 (en) * | 2003-08-15 | 2006-11-23 | Ziyi Cheng | Automobile security defence alarm system with face identification and wireless communication function |
KR100580630B1 (ko) * | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | 적외선을 이용한 사람 식별 장치 및 방법 |
CN1627317A (zh) * | 2003-12-12 | 2005-06-15 | 北京阳光奥森科技有限公司 | 利用主动光源获取人脸图像的方法 |
JP2006148478A (ja) | 2004-11-18 | 2006-06-08 | Sharp Corp | 携帯型電子機器 |
JP2007124676A (ja) | 2006-11-22 | 2007-05-17 | Hitachi Ltd | 車載用画像処理装置 |
JP5228439B2 (ja) | 2007-10-22 | 2013-07-03 | 三菱電機株式会社 | 操作入力装置 |
JP5031617B2 (ja) | 2008-02-25 | 2012-09-19 | パイオニア株式会社 | 関連領域特定装置及び方法、並びに画像認識装置及び方法 |
US8866809B2 (en) * | 2008-09-30 | 2014-10-21 | Apple Inc. | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface |
WO2010062400A1 (en) * | 2008-11-28 | 2010-06-03 | Neuroptics, Inc. | Methods, systems, and devices for monitoring anisocoria and asymmetry of pupillary reaction to stimulus |
JP4702441B2 (ja) * | 2008-12-05 | 2011-06-15 | ソニー株式会社 | 撮像装置及び撮像方法 |
JP2014078052A (ja) * | 2012-10-09 | 2014-05-01 | Sony Corp | 認証装置および方法、並びにプログラム |
-
2012
- 2012-10-09 JP JP2012223794A patent/JP2014078052A/ja active Pending
-
2013
- 2013-09-05 US US14/019,312 patent/US9152850B2/en active Active
- 2013-09-29 CN CN201310455933.5A patent/CN103714279A/zh active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017038162A (ja) * | 2015-08-07 | 2017-02-16 | キヤノン株式会社 | 撮像装置及び画像処理方法、プログラム、並びに記憶媒体 |
US11861939B2 (en) | 2015-09-09 | 2024-01-02 | Nec Corporation | Guidance acquisition device, guidance acquisition method, and program |
JPWO2017043314A1 (ja) * | 2015-09-09 | 2018-01-18 | 日本電気株式会社 | ガイダンス取得装置 |
US10509950B2 (en) | 2015-09-09 | 2019-12-17 | Nec Corporation | Guidance acquisition device, guidance acquisition method, and program |
WO2017043314A1 (ja) * | 2015-09-09 | 2017-03-16 | 日本電気株式会社 | ガイダンス取得装置、ガイダンス取得方法及びプログラム |
US10706266B2 (en) | 2015-09-09 | 2020-07-07 | Nec Corporation | Guidance acquisition device, guidance acquisition method, and program |
US11501567B2 (en) | 2015-09-09 | 2022-11-15 | Nec Corporation | Guidance acquisition device, guidance acquisition method, and program |
WO2018079031A1 (ja) * | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体 |
JPWO2018079031A1 (ja) * | 2016-10-31 | 2019-09-12 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム及びプログラム |
US11915517B2 (en) | 2016-10-31 | 2024-02-27 | Nec Corporation | Image processing device, image processing method, face recognition system, program, and storage medium |
US11423693B2 (en) | 2016-10-31 | 2022-08-23 | Nec Corporation | Image processing device, image processing method, face recognition system, program, and storage medium |
JP7318691B2 (ja) | 2016-10-31 | 2023-08-01 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム及びプログラム |
JP7040457B2 (ja) | 2016-10-31 | 2022-03-23 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム及びプログラム |
JP2019220047A (ja) * | 2018-06-22 | 2019-12-26 | 富士通株式会社 | 認証装置、認証プログラム、認証方法 |
JP7131118B2 (ja) | 2018-06-22 | 2022-09-06 | 富士通株式会社 | 認証装置、認証プログラム、認証方法 |
JPWO2020129138A1 (ja) * | 2018-12-18 | 2021-10-28 | 日本電気株式会社 | 画像処理装置、画像処理方法及びプログラム |
US11763598B2 (en) | 2018-12-18 | 2023-09-19 | Nec Corporation | Image processing device, image processing method, and storage medium |
US11776310B2 (en) | 2018-12-18 | 2023-10-03 | Nec Corporation | Image processing device, image processing method, and storage medium |
US11776312B2 (en) | 2018-12-18 | 2023-10-03 | Nec Corporation | Image processing device, image processing method, and storage medium |
US11776311B2 (en) | 2018-12-18 | 2023-10-03 | Nec Corporation | Image processing device, image processing method, and storage medium |
JP7159242B2 (ja) | 2019-05-20 | 2022-10-24 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 |
US11188771B2 (en) | 2019-05-20 | 2021-11-30 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Living-body detection method and apparatus for face, and computer readable medium |
JP2020191089A (ja) * | 2019-05-20 | 2020-11-26 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 |
JP2021033309A (ja) * | 2019-08-13 | 2021-03-01 | 本田技研工業株式会社 | 認証装置 |
Also Published As
Publication number | Publication date |
---|---|
US9152850B2 (en) | 2015-10-06 |
US20140099005A1 (en) | 2014-04-10 |
CN103714279A (zh) | 2014-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014078052A (ja) | 認証装置および方法、並びにプログラム | |
US11516374B2 (en) | Under-display image sensor | |
JP4548542B1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR102270674B1 (ko) | 생체인식 카메라 | |
KR100939856B1 (ko) | 개인인증방법 및 개인인증장치 | |
KR101672541B1 (ko) | 지문과 지정맥을 동시에 인증하는 3d 입체 촬영장치 | |
JP3802892B2 (ja) | 虹彩認証装置 | |
JP6769626B2 (ja) | 指紋と指静脈を同時に認証する多面立体撮影装置 | |
WO2016173249A1 (zh) | 一种基于环境筛选帧的眼纹识别解锁方法及系统 | |
JP6443842B2 (ja) | 顔検出装置、顔検出システム、及び顔検出方法 | |
CN109255282B (zh) | 一种生物识别方法、装置和系统 | |
JP3586456B2 (ja) | 個人認証方法および個人認証装置 | |
JP2017191374A (ja) | 生体判定装置、端末装置、生体判定装置の制御方法、制御プログラム | |
CN110414445B (zh) | 用于人脸识别的光源调节方法、装置及电子设备 | |
KR101588225B1 (ko) | 이동 통신 단말기의 카메라에서의 홍채 데이터 등록 및 인증 장치와 그 방법 | |
US10726283B2 (en) | Finger vein authentication device | |
KR101336834B1 (ko) | Usb 홍채 인식기 | |
JP2020160757A (ja) | 虹彩認証装置および電子機器 | |
JP2008006149A (ja) | 瞳孔検出装置、及び虹彩認証装置、並びに瞳孔検出方法 | |
US11645864B2 (en) | Imaging device, authentication device, and biometric imaging method | |
CN108875472B (zh) | 图像采集装置及基于该图像采集装置的人脸身份验证方法 | |
KR20110119214A (ko) | 얼굴 변화에 강인한 얼굴 인식 방법 | |
JP5033014B2 (ja) | 顔認証装置 | |
JP3991042B2 (ja) | 個人認証方法および個人認証装置 | |
CN111699495B (zh) | 反欺骗面部id感测 |