JP2008287399A - Personal authentication device and method - Google Patents
Personal authentication device and method Download PDFInfo
- Publication number
- JP2008287399A JP2008287399A JP2007130347A JP2007130347A JP2008287399A JP 2008287399 A JP2008287399 A JP 2008287399A JP 2007130347 A JP2007130347 A JP 2007130347A JP 2007130347 A JP2007130347 A JP 2007130347A JP 2008287399 A JP2008287399 A JP 2008287399A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- determination
- face area
- frame
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
Description
本発明は、人物認証装置および方法に関する。 The present invention relates to a person authentication apparatus and method.
従来、個人認証に関し、さまざまな人物認証装置および方法が提案されている。その1つに、動画像を用いて顔認証を行う人物認証装置および方法がある。 Conventionally, various person authentication devices and methods have been proposed for personal authentication. One of them is a person authentication apparatus and method for performing face authentication using moving images.
この動画像を用いた個人認証の基本的な処理の流れは次のとおりである。
1.動画のフレームごとの入力画像から顔領域を抽出
2.抽出された領域から判定部位ごとの特徴点を抽出
3.抽出された特徴点から顔の正規化画像を生成
4.正規化画像を予め登録されている個人辞書の画像と比較して個人を認証
この中で、特徴点抽出処理では、顔領域抽出処理で抽出された顔領域から、分離度フィルタを用いて、瞳、鼻孔などの判定部位ごとの特徴点候補を抽出し、予め登録してある判定部位ごとの領域のテンプレートとの類似度を計算して、左右瞳点、左右鼻孔点などの特徴点を抽出する方法が提案されている(例えば、特許文献1参照。)。
The basic processing flow of personal authentication using this moving image is as follows.
1. 1. Extract face area from input image for each frame of video 2. Extract feature points for each determination part from the extracted area. 3. Generate a normalized image of the face from the extracted feature points Individuals are authenticated by comparing the normalized image with a pre-registered personal dictionary image. Among them, in the feature point extraction process, a pupil is extracted from the face area extracted by the face area extraction process using a separability filter. Extract feature points such as nostrils and right and left nostril points by extracting feature point candidates for each determination site such as nostrils and calculating the similarity with the template of the region for each determination site registered in advance. A method has been proposed (see, for example, Patent Document 1).
従来、このような特徴点抽出処理により現フレームの動画像から総ての特徴点の抽出に成功した場合、抽出された特徴点から次フレームの動画像における顔領域を予測し、その予測領域を次フレームの特徴点抽出に用いることにより、上述の顔領域抽出処理を省略することが行われている。 Conventionally, when all feature points have been successfully extracted from the moving image of the current frame by such feature point extraction processing, the face region in the moving image of the next frame is predicted from the extracted feature points, and the predicted region is By using the feature point extraction of the next frame, the face area extraction process described above is omitted.
また、上述の認証処理の方法として制約相互部分空間法が提案されている(例えば、特許文献2参照。)。この制約相互部分空間法では、予め規定された枚数の正規化画像が蓄積されたら入力部分空間を生成し、その入力部分空間を制約部分空間へ射影した入力射影部分空間と、予め制約部分空間へ射影して登録してある個人辞書部分空間との類似度を算出することにより、対象人物の同定を行う。 Further, a constrained mutual subspace method has been proposed as a method for the above-described authentication processing (see, for example, Patent Document 2). In this constrained mutual subspace method, an input subspace is generated when a predetermined number of normalized images are accumulated, and the input subspace is projected to the constrained subspace, The target person is identified by calculating the similarity with the personal dictionary subspace registered by projection.
この制約相互部分空間法を用いた認証処理では、連続するフレームで連続して特徴点の抽出に成功し、それにより生成された正規化画像が予め規定された枚数に達したときに認証処理を開始する。しかし、従来、特徴点の抽出に1フレームでも失敗すると、それまでに蓄積した正規化画像を総て破棄し、次フレームから新たに正規化画像を蓄積し直すことが行われている。 In the authentication process using the constrained mutual subspace method, feature points are successfully extracted continuously in consecutive frames, and the authentication process is performed when the number of normalized images generated thereby reaches a predetermined number. Start. However, conventionally, if even one frame fails in feature point extraction, all of the normalized images accumulated so far are discarded and the normalized image is newly accumulated from the next frame.
このように、従来の人物認証装置および方法では、特徴点抽出処理が成功するかどうかにより、個人認証実行時の処理量および処理時間が左右される。すなわち、特徴点抽出処理に成功すると、次フレームの顔領域抽出処理を省略することができ、また、正規化画像の蓄積を継続することができる。 As described above, in the conventional person authentication device and method, the processing amount and the processing time at the time of executing the personal authentication depend on whether or not the feature point extraction process is successful. That is, if the feature point extraction process is successful, the face area extraction process for the next frame can be omitted, and the accumulation of the normalized image can be continued.
ところが、従来の特徴点抽出処理では、実際に瞳、鼻孔が画像中に存在し、特徴点候補が抽出されるにも拘らず、画像処理の影響などで瞳点、鼻孔点という特徴点の抽出に失敗することがある。この場合、顔領域の予測が可能であるにも拘らず、次フレームでの顔領域抽出処理の実行が行われ、その分、処理量が増加するという問題があった。 However, in the conventional feature point extraction process, although pupils and nostrils are actually present in the image and feature point candidates are extracted, feature points such as pupil points and nostril points are extracted due to the influence of image processing. May fail. In this case, although the face area can be predicted, the face area extraction process is executed in the next frame, and the processing amount increases accordingly.
また、制約相互部分空間法における正規化画像の蓄積においては、同一人物の動画像のフレームが連続する場合に、たまたま、その中の1フレームでも特徴点抽出に失敗すると、その後の処理に利用できるにも拘らず、それまでに蓄積した画像を破棄してしまい、正規化画像の再蓄積から認証処理に至るまでの処理時間が増加するという問題があった。
そこで、本発明の目的は、特徴点抽出に失敗しても、個人認証実行時の処理量および処理時間の増加を抑制することのできる人物認証装置および方法を提供することにある。 Therefore, an object of the present invention is to provide a person authentication apparatus and method that can suppress an increase in processing amount and processing time when executing personal authentication even if feature point extraction fails.
本発明の一態様によれば、入力された動画像のフレーム画面から個人認証を行うための特徴点を抽出する人物認証装置であって、現フレームの画面から人物の顔領域を抽出する顔領域抽出手段と、前記顔領域から複数の判定部位ごとに特徴点候補を抽出する特徴点候補抽出手段と、前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定する類似度判定手段と、前記類似度判定手段により前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときに、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された前記特徴点をフレームごとに記憶する特徴点記憶手段と、前記類似度判定手段により前記複数の判定部位のいずれかで前記基準の類似度を超える特徴点候補がないと判定されたときに、前記特徴点記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成する予測特徴点領域生成手段と、前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定する特徴点候補判定手段と、前記特徴点候補判定手段により前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときに、前記顔領域抽出手段へ、次フレーム画面入力に対する顔領域抽出を行わず、現フレームの前記顔領域を継続して出力するよう指示する顔領域継続出力指示手段と、を備えることを特徴とする人物認証装置が提供される。 According to one aspect of the present invention, there is provided a person authentication device that extracts feature points for performing personal authentication from a frame screen of an input moving image, the face region extracting a human face region from a screen of a current frame. A feature point candidate extraction unit that extracts a feature point candidate for each of a plurality of determination sites from the face region, a feature point candidate and a template registered in advance, and a feature that exceeds a reference similarity A similarity determination unit that determines whether or not there is a point candidate; and when the similarity determination unit determines that there is a feature point candidate that exceeds the reference similarity in all of the plurality of determination sites, Feature point extraction means for extracting the feature point candidate with the highest similarity as a feature point for each determination part; feature point storage means for storing the feature points extracted by the feature point extraction means for each frame; When the similarity determination unit determines that there is no feature point candidate exceeding the reference similarity in any of the plurality of determination parts, the feature point of the previous frame is read from the feature point storage unit, and the feature point A predicted feature point region generating means for generating a predicted feature point region centered at the center, and whether the predicted feature point region includes at least one feature point candidate when the predicted feature point region is generated When it is determined by the feature point candidate determination unit that determines whether or not the feature point candidate determination unit includes at least one of the feature point candidates in the predicted feature point region of all of the plurality of determination portions. And a face area continuous output instruction means for instructing the face area extraction means to continuously output the face area of the current frame without performing face area extraction for the next frame screen input. People authentication apparatus is provided, characterized in that.
また、本発明の別の一態様によれば、個人認証を行うための正規化画像を、入力された動画像のフレーム画面から生成して蓄積する人物認証装置であって、現フレームの画面から人物の顔領域を抽出する顔領域抽出手段と、前記顔領域から複数の判定部位ごとに特徴点候補を抽出する特徴点候補抽出手段と、前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定する類似度判定手段と、前記類似度判定手段により前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときは、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する特徴点抽出手段と、前記特徴点にもとづいて正規化画像を生成する正規化画像生成手段と、前記特徴点の抽出に成功したフレームの前記正規化画像を蓄積する正規化画像蓄積手段と、前記特徴点抽出手段により抽出された前記特徴点をフレームごとに記憶する特徴点記憶手段と、前記特徴点の抽出に失敗したときに、前記特徴点記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成する予測特徴点領域生成手段と、前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定する特徴点候補判定手段と、前記特徴点候補判定手段により前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときに、前記正規化画像蓄積手段へ、蓄積している前記正規化画像を保持するよう指示する正規化画像蓄積保持指示手段と、を備えることを特徴とする人物認証装置が提供される。 According to another aspect of the present invention, there is provided a person authentication device for generating and storing a normalized image for performing personal authentication from a frame screen of an input moving image, the screen being displayed from a screen of a current frame. Comparison is made between a face area extracting means for extracting a person's face area, a feature point candidate extracting means for extracting a feature point candidate for each of a plurality of determination sites from the face area, and a template registered in advance. A similarity determination unit that determines whether or not there is a feature point candidate that exceeds a reference similarity, and a feature point candidate that exceeds the reference similarity in all of the plurality of determination sites by the similarity determination unit. When it is determined that there is a feature point extraction unit that extracts a feature point candidate having the highest similarity as a feature point for each determination part, and a normalized image generation that generates a normalized image based on the feature point Means, Normalized image storage means for storing the normalized image of a frame for which feature points have been successfully extracted, feature point storage means for storing the feature points extracted by the feature point extraction means for each frame, and the features A prediction feature point region generation unit that reads out a feature point of the previous frame from the feature point storage unit and generates a prediction feature point region centered on the feature point when the point extraction fails; and the prediction feature point region Is generated, a feature point candidate determination unit that determines whether or not at least one of the feature point candidates is included in the predicted feature point region, and the plurality of determination site totals by the feature point candidate determination unit When it is determined that at least one of the feature point candidates is included in all the predicted feature point regions, the normalized image accumulated is held in the normalized image accumulation unit. People authentication apparatus is provided, characterized in that it comprises, a normalized image storing holding instruction means for instructing cormorants.
また、本発明のさらに別の一態様によれば、入力された動画像のフレーム画面を用いて個人認証を行う人物認証方法であって、前フレームからの指示に従って、入力された現フレームの画面に対して、前フレームで抽出された顔領域を継続使用するか、顔領域を新規抽出するかを決定するステップと、前記決定が新規抽出であったときに現フレームの画面から人物の顔領域を抽出するステップと、前記決定に応じて、継続使用または新規抽出の顔領域から複数の判定部位ごとに特徴点候補を抽出するステップと、前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定するステップと、前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときに、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出するステップと、抽出された前記特徴点をフレームごとに記憶手段に記憶するステップと、前記複数の判定部位のいずれかで前記基準の類似度を超える特徴点候補がないと判定されたときに、前記記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成するステップと、前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定するステップと、前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときに、次フレームの画面入力に対して、現フレームの前記顔領域を継続して使用するよう指示するステップと、を備えることを特徴とする人物認証方法が提供される。 According to still another aspect of the present invention, there is provided a person authentication method for performing personal authentication using a frame screen of an input moving image, wherein the screen of the current frame input according to an instruction from the previous frame Determining whether to continue using the face area extracted in the previous frame or to newly extract the face area; and when the determination is a new extraction, the face area of the person from the screen of the current frame A step of extracting a feature point candidate for each of a plurality of determination sites from a face region that is continuously used or newly extracted according to the determination, and a comparison between the feature point candidate and a template registered in advance Determining whether there is a feature point candidate exceeding the reference similarity, and determining that there is a feature point candidate exceeding the reference similarity in all of the plurality of determination parts A step of extracting a feature point candidate having the highest similarity as a feature point for each determination portion, a step of storing the extracted feature point in a storage unit for each frame, and any one of the plurality of determination portions When it is determined that there is no feature point candidate exceeding the reference similarity, the feature point of the previous frame is read from the storage means, and a predicted feature point region centered on the feature point is generated; and Determining whether or not at least one feature point candidate is included in the predicted feature point region when the predicted feature point region is generated; and the predicted feature point region for all of the plurality of determination portions When it is determined that at least one of the feature point candidates is included, the screen input of the next frame is instructed to continue using the face area of the current frame. People authentication method characterized by comprising the step, is provided.
また、本発明のさらに別の一態様によれば、入力された動画像のフレーム画面から生成した正規化画像を複数枚蓄積し、その蓄積された複数枚の正規化画像を用いて個人認証を行う人物認証方法であって、現フレームの画面から人物の顔領域を抽出するステップと、前記顔領域から複数の判定部位ごとに特徴点候補を抽出するステップと、前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定するステップと、前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときに、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出するステップと、前記特徴点にもとづいて正規化画像を生成するステップと、前記特徴点の抽出に成功したフレームの前記正規化画像を蓄積するステップと、抽出された前記特徴点をフレームごとに記憶手段に記憶するステップと、前記特徴点の抽出に失敗したときに、前記記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成するステップと、前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定するステップと、を備え、前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が1つも含まれていないと判定されたときは、蓄積していた前記正規化画像を破棄し、前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときは、蓄積している前記正規化画像を保持することを特徴とする人物認証方法が提供される。 According to still another aspect of the present invention, a plurality of normalized images generated from a frame screen of an input moving image are accumulated, and personal authentication is performed using the accumulated normalized images. A person authentication method to be performed, the step of extracting a face area of a person from the screen of the current frame, the step of extracting feature point candidates for each of a plurality of determination parts from the face area, and the feature point candidates registered in advance And determining whether there is a feature point candidate that exceeds the reference similarity, and determining that there is a feature point candidate that exceeds the reference similarity in all of the plurality of determination portions. And extracting the feature point candidate with the highest similarity as a feature point for each determination part, generating a normalized image based on the feature point, and extracting the feature point. Storing the normalized image of successful frames; storing the extracted feature points in a storage unit for each frame; and when the extraction of the feature points fails, from the storage unit A step of reading out feature points and generating a predicted feature point region centered on the feature points; and when the predicted feature point region is generated, at least one feature point candidate is included in the predicted feature point region A step of determining whether the feature point candidates are not included in the predicted feature point region of all of the plurality of determination parts, When the normalized image is discarded and it is determined that at least one of the feature point candidates is included in the predicted feature point region of all of the plurality of determination portions, the accumulated normalized image People authentication method characterized by retaining is provided.
本発明によれば、特徴点抽出に失敗しても、個人認証実行時の処理量および処理時間の増加を抑制することができる。 According to the present invention, even if feature point extraction fails, an increase in the processing amount and processing time when executing personal authentication can be suppressed.
以下、本発明の実施例を図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施例1に係る人物認証装置の構成の例を示すブロック図である。 FIG. 1 is a block diagram illustrating an example of the configuration of the person authentication device according to the first embodiment of the present invention.
本実施例の人物認証装置1は、入力された動画像のフレーム画面から個人認証を行うために、左右瞳点や左右鼻孔点など、個人の特定に用いる判定部位を顔面の特徴点として抽出する装置である。 In order to perform personal authentication from the input moving image frame screen, the person authentication device 1 according to the present embodiment extracts determination parts used for individual identification, such as left and right pupil points and right and left nostril points, as facial feature points. Device.
人物認証装置1は、入力された現フレームの画面から人物の顔領域を抽出する顔領域抽出部11と、顔領域から左右瞳点や左右鼻孔点などの判定部位ごとに特徴点候補を抽出する特徴点候補抽出部12と、抽出された特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定する類似度判定部13と、類似度判定部13により左右瞳点や左右鼻孔点などの判定部位の総てで基準の類似度を超える特徴点候補があると判定されたときに、左右瞳点や左右鼻孔点などの判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する特徴点抽出部14と、その抽出された特徴点をフレームごとに記憶する特徴点記憶部15と、類似度判定部13により左右瞳点や左右鼻孔点などの判定部位のいずれかで基準の類似度を超える特徴点候補がないと判定されたときに、特徴点記憶部15から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成する予測特徴点領域生成部16と、予測特徴点領域が生成されたときに、この予測特徴点領域に上述の特徴点候補が少なくとも1つは含まれているかどうかを判定する特徴点候補判定部17と、特徴点候補判定部17により左右瞳点や左右鼻孔点などの判定部位総ての予測特徴点領域に上述の特徴点候補が少なくとも1つは含まれていると判定されたときに、顔領域抽出部11へ、次フレーム画面入力に対する顔領域抽出を行わず、現フレームの前記顔領域を継続して出力するよう指示する顔領域継続出力指示部18と、を備える。
The person authentication device 1 extracts a face
このように、人物認証装置1は、現フレームの画面から抽出された特徴点候補に基準の類似度を超える特徴点候補がないと判定したとき、すなわち、現フレームの画面からの特徴点の抽出に失敗したときに、予測特徴点領域を生成し、この予測特徴点領域に特徴点候補が少なくとも1つ含まれていれば、次フレーム画面入力の際に、新たな顔領域抽出を行わず、現フレームの顔領域を継続して使用するようにする。 As described above, when it is determined that the feature point candidate extracted from the screen of the current frame has no feature point candidate exceeding the reference similarity, the person authentication device 1 extracts feature points from the screen of the current frame. If the prediction feature point region is generated, and if at least one feature point candidate is included in the predicted feature point region, a new face region is not extracted when the next frame screen is input, Continue to use the face area of the current frame.
すなわち、本実施例の人物認証装置1では、入力されたフレームの画像データに対して顔領域を抽出するか否かの指示が、前のフレームから次のフレームへと、順次、出されて行く。 That is, in the person authentication device 1 of the present embodiment, an instruction as to whether or not to extract a face area from the input frame image data is sequentially issued from the previous frame to the next frame. .
そこで、人物認証装置1における処理の冒頭では、顔領域抽出に関する前フレームの指示にもとづいて、新たな顔領域抽出を行うか、前フレームの顔領域を継続して使用するかの決定を行う。 Therefore, at the beginning of the processing in the person authentication device 1, it is determined whether to extract a new face area or to continue using the face area of the previous frame based on an instruction of the previous frame related to face area extraction.
次に、このような人物認証装置1における特徴点抽出の処理手順の例について図2〜図5を用いて説明する。 Next, an example of the processing procedure of feature point extraction in the person authentication apparatus 1 will be described with reference to FIGS.
図2は、人物認証装置1における特徴点抽出処理の手順の例を示すフロー図である。 FIG. 2 is a flowchart showing an example of the procedure of the feature point extraction process in the person authentication device 1.
現フレームの画像データが入力されると、人物認証装置1は、まず、顔領域継続出力指示部18から出力される顔領域抽出に関する前フレームの指示を確認し(ステップS01)、その指示が前フレームの顔領域の継続使用であるときは、前フレームの顔領域の継続使用することとし(ステップS02)、その指示が顔領域の新規抽出であるときは、顔領域抽出部11が、現フレームの画面から人物の顔領域を新たに抽出する(ステップS03)。
When the image data of the current frame is input, the person authentication apparatus 1 first confirms the instruction of the previous frame related to face area extraction output from the face area continuous output instruction unit 18 (step S01), and the instruction is When the face area of the frame is to be used continuously, the face area of the previous frame is continuously used (step S02). When the instruction is a new extraction of the face area, the face
次に、この継続使用または新規抽出の顔領域から、特徴点候補抽出部12が、左右瞳点や左右鼻孔点などの判定部位ごとに特徴点候補を抽出し(ステップS04)、類似度判定部13が、予め登録されているテンプレートとの類似度の比較を行い(ステップS05)、基準の類似度を超える特徴点候補があるかどうかを判定する(ステップS06)。
Next, the feature point
この判定で、基準の類似度を超える特徴点候補があると判定されたときは、特徴点抽出部14が、判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する(ステップS07)。
When it is determined in this determination that there is a feature point candidate exceeding the reference similarity, the feature
抽出された特徴点は、記憶手段に記憶され(ステップS08)、認証処理へ引き渡される。 The extracted feature points are stored in the storage means (step S08) and delivered to the authentication process.
図3に、抽出された特徴点の例を模式的に示す。ここでは、個人の特定に用いる判定部位を左右瞳点および左右鼻孔点としたときに抽出された特徴点の例を示す。 FIG. 3 schematically shows an example of extracted feature points. Here, an example of feature points extracted when the determination sites used for specifying an individual are the left and right pupil points and the left and right nostril points is shown.
図3では、入力されたフレーム画面の画像データの顔領域100から、左右瞳点を示す特徴点101、102、および、左右鼻孔点を示す特徴点103、104が抽出された例を示す。
FIG. 3 shows an example in which feature
一方、図2に示すステップS06における判定で、基準の類似度を超える特徴点候補がないと判定されたときは、予測特徴点領域生成部16が、フレームごとの特徴点が記憶されている記憶手段から前フレームの特徴点を読み出し(ステップS09)、その特徴点を中心とした予測特徴点領域を生成する(ステップS10)。
On the other hand, when it is determined in step S06 shown in FIG. 2 that there is no feature point candidate exceeding the reference similarity, the predicted feature point
図4に、生成された予測特徴点領域の例を示す。ここでは、予測特徴点領域を矩形とした例を示すが、予測特徴点領域を、円形、楕円形としてもよい。 FIG. 4 shows an example of the generated predicted feature point region. Here, an example in which the predicted feature point region is rectangular is shown, but the predicted feature point region may be circular or elliptical.
記憶手段から読み出した前フレームの特徴点101、102、103、104に対して、それぞれの特徴点を中心として、予測特徴点領域111、112、113、114が生成される。この予測特徴点領域の大きさは、実験などにより最適値を求めて設定するなど、任意に設定することができる。
For the feature points 101, 102, 103, and 104 of the previous frame read from the storage unit, predicted
図2のフローに戻って、次に、特徴点候補判定部17が、それぞれの予測特徴点領域に、ステップS04で抽出した特徴点候補が少なくとも1つは含まれているかどうかを判定する(ステップS11)。
Returning to the flow of FIG. 2, next, the feature point
このとき、図5(a)に示すように、予測特徴点領域111、112、113、114に対して、×で示す特徴点候補が抽出されているときは、特徴点候補判定部17が、総ての判定部位の予測特徴点領域に特徴点候補が少なくとも1つは含まれていると判定する。この判定を受けて、顔領域継続出力指示部18は、顔領域抽出部11へ、次フレーム画面入力に対して、現フレームの顔領域を継続して出力するよう指示する(ステップS12)。
At this time, as shown in FIG. 5A, when feature point candidates indicated by x are extracted for the predicted
一方、予測特徴点領域111、112、113、114に対して、図5(b)に×で示すような特徴点候補が抽出されているときは、特徴点候補判定部17が、総ての判定部位の予測特徴点領域のいずれにも特徴点候補が1つも含まれていないと判定する。この判定を受けると、顔領域継続出力指示部18は、顔領域抽出部11へ、次フレーム画面入力に対して、顔領域を新規抽出するよう指示する(ステップS13)。
On the other hand, when the feature point candidates as indicated by x in FIG. 5B are extracted for the predicted
上述のステップS12またはステップS13の処理が行われると、現フレームに対する処理が終了し、次フレームの画面データ入力へと処理は進む。次フレームの画面データが入力されると、図2のフローの先頭から処理が行われる。すなわち、図2に示すフローの処理が、入力されるフレームの画面データごとに実行される。 When the process of step S12 or step S13 described above is performed, the process for the current frame ends, and the process proceeds to screen data input for the next frame. When the screen data of the next frame is input, processing is performed from the top of the flow of FIG. That is, the process of the flow shown in FIG. 2 is executed for each screen data of the input frame.
このような本実施例によれば、現フレームの画像データから特徴点の抽出に失敗しても、前フレームの特徴点を中心に形成した予測特徴点領域に現フレームの特徴点候補が1つでも含まれていれば、次フレームの画像データ入力に対する顔領域抽出を行わなくてもよいので、個人認証実行時の処理量の増加を抑制することができる。 According to this embodiment, even if feature point extraction fails from image data of the current frame, one feature point candidate of the current frame is present in the predicted feature point region formed around the feature point of the previous frame. However, if it is included, it is not necessary to extract the face area for the image data input of the next frame, so that it is possible to suppress an increase in the processing amount when executing personal authentication.
図6は、本発明の実施例2に係る人物認証装置の構成の例を示すブロック図である。 FIG. 6 is a block diagram illustrating an example of the configuration of the person authentication device according to the second embodiment of the present invention.
本実施例の人物認証装置2は、例えば制約相互部分空間法による個人認証を行うために必要な正規化画像を、入力された動画像のフレーム画面から生成して蓄積する人物認証装置である。なお、図6において、図1に示した実施例1のブロックと同様の機能を有するブロックには図1と同一の符号を付し、ここではその詳細な説明を省略する。 The person authentication device 2 according to the present embodiment is a person authentication device that generates and stores a normalized image necessary for performing personal authentication by a constrained mutual subspace method, for example, from a frame screen of an input moving image. In FIG. 6, blocks having the same functions as those in the first embodiment shown in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted here.
本実施例の人物認証装置2は、実施例1の人物認証装置1と同様に、顔領域抽出部11と、特徴点候補抽出部12と、類似度判定部13と、特徴点抽出部14と、特徴点記憶部15と、予測特徴点領域生成部16と、特徴点候補判定部17と、を備える。
Similar to the person authentication device 1 of the first embodiment, the person authentication device 2 of the present embodiment includes a face
さらに、人物認証装置2は、特徴点抽出部14により抽出された特徴点にもとづいて正規化画像を生成する正規化画像生成部21と、上述の特徴点の抽出に成功したフレームの正規化画像を蓄積する正規化画像蓄積部22と、特徴点候補判定部17により左右瞳点や左右鼻孔点などの判定部位総ての予測特徴点領域に上述の特徴点候補が少なくとも1つは含まれていると判定されたときに、正規化画像蓄積部22へ、蓄積している正規化画像を保持するよう指示する正規化画像蓄積保持指示部23と、を備える。
Furthermore, the person authentication device 2 includes a normalized
このように、人物認証装置2は、現フレームの画面から抽出された特徴点候補に基準の類似度を超える特徴点候補がないと判定したとき、すなわち、現フレームの画面からの特徴点の抽出に失敗したときに、予測特徴点領域を生成し、この予測特徴点領域に特徴点候補が少なくとも1つ含まれていれば、正規化画像蓄積部22に蓄積している正規化画像を破棄せず、そのまま保持するようにする。
As described above, when it is determined that the feature point candidate extracted from the screen of the current frame has no feature point candidate exceeding the reference similarity, the person authentication device 2 extracts feature points from the screen of the current frame. If the predicted feature point region is generated, and if at least one feature point candidate is included in the predicted feature point region, the normalized image stored in the normalized
次に、このような人物認証装置2における正規化画像蓄積の処理手順の例について図7を用いて説明する。 Next, an example of a normalized image accumulation processing procedure in the person authentication device 2 will be described with reference to FIG.
図7は、人物認証装置2における正規化画像蓄積処理の手順の例を示すフロー図である。 FIG. 7 is a flowchart showing an example of a procedure of normalized image accumulation processing in the person authentication device 2.
現フレームの画像データが入力されると、顔領域抽出部11が人物の顔領域を抽出し(ステップS21)、特徴点候補抽出部12が左右瞳点や左右鼻孔点などの判定部位ごとに特徴点候補を抽出し(ステップS22)、類似度判定部13が、予め登録されているテンプレートとの類似度の比較を行い(ステップS23)、基準の類似度を超える特徴点候補があるかどうかを判定する(ステップS24)。
When the image data of the current frame is input, the face
この判定で、基準の類似度を超える特徴点候補があると判定されたときは、特徴点抽出部14が、判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する(ステップS25)。抽出された特徴点は、記憶手段に記憶される(ステップS26)。
When it is determined in this determination that there is a feature point candidate exceeding the reference similarity, the feature
次に、正規化画像生成部21が、抽出された特徴点にもとづいて正規化画像を生成し(ステップS27)、正規化画像蓄積部22が、生成された正規化画像を蓄積する(ステップS28)。
Next, the normalized
さらに、正規化画像蓄積部22は、この蓄積により、正規化画像の蓄積された枚数が、規定の枚数に達したかどうかを判定し(ステップS29)、正規化画像が規定枚数あるときは、蓄積している正規化画像を認証処理へ引き渡す。
Furthermore, the normalized
一方、正規化画像が規定枚数ないときは、蓄積している正規化画像を正規化画像蓄積保持指示部23の指示に従って処理する。
On the other hand, when there is no specified number of normalized images, the accumulated normalized images are processed in accordance with an instruction from the normalized image accumulation / holding
この正規化画像蓄積保持指示部23の指示は、次に述べるような処理を行って出される。
The instruction of the normalized image accumulation / holding
すなわち、ステップS24において、基準の類似度を超える特徴点候補がないと判定されたときに、予測特徴点領域生成部16が、フレームごとの特徴点が記憶されている記憶手段から前フレームの特徴点を読み出し(ステップS30)、その特徴点を中心とした予測特徴点領域を生成し(ステップS31)、特徴点候補判定部17が、それぞれの予測特徴点領域に、ステップS22で抽出した特徴点候補が少なくとも1つは含まれているかどうかを判定する(ステップS32)。
That is, when it is determined in step S24 that there are no feature point candidates exceeding the reference similarity, the predicted feature point
このとき、特徴点候補判定部17が、総ての判定部位の予測特徴点領域に特徴点候補が少なくとも1つは含まれていると判定すると、正規化画像蓄積保持指示部23は、蓄積している正規化画像をそのまま保持することを正規化画像蓄積部22へ指示する。
At this time, if the feature point
一方、特徴点候補判定部17が、総ての判定部位の予測特徴点領域に特徴点候補が1つも含まれていないと判定すると、正規化画像蓄積保持指示部23は、蓄積している正規化画像を破棄することを正規化画像蓄積部22へ指示する。
On the other hand, if the feature point
正規化画像蓄積部22は、この正規化画像蓄積保持指示部23からの指示を受けて、蓄積している正規化画像をそのまま保持する(ステップS33)か、破棄する(ステップS34)か、のいずれかの処理を行う。
In response to the instruction from the normalized image accumulation / holding
これらの処理により現フレームの画像データへの処理は終了し、次フレームの画像データ入力へと、処理は進む。次フレームの画面データが入力されると、図7のフローの先頭から処理が行われる。すなわち、図7に示すフローの処理が、入力されるフレームの画面データごとに実行される。 With these processes, the process for the image data of the current frame is completed, and the process proceeds to the image data input of the next frame. When screen data of the next frame is input, processing is performed from the top of the flow of FIG. That is, the processing of the flow shown in FIG. 7 is executed for each screen data of the input frame.
このような本実施例によれば、現フレームの画像データから特徴点の抽出に失敗しても、前フレームの特徴点を中心に形成した予測特徴点領域に現フレームの特徴点候補が1つでも含まれていれば、それまでに蓄積していた画像をそのまま保持するので、従来の特徴点の抽出に失敗したときに直ちに蓄積していた画像を破棄して正規化画像の蓄積を最初からやり直していたものに比べて、個人認証実行時の処理時間の増加を抑制することができる。 According to this embodiment, even if feature point extraction fails from image data of the current frame, one feature point candidate of the current frame is present in the predicted feature point region formed around the feature point of the previous frame. However, if it is included, the image that has been accumulated up to that point is retained as it is, so when the conventional feature point extraction fails, the image that was accumulated immediately is discarded and the accumulation of the normalized image is started from the beginning. Compared to what has been redone, an increase in processing time when executing personal authentication can be suppressed.
図8は、本発明の実施例3に係る人物認証装置の構成の例を示すブロック図である。 FIG. 8 is a block diagram illustrating an example of the configuration of the person authentication device according to the third embodiment of the present invention.
本実施例の人物認証装置3は、実施例2の人物認証装置2に、実施例1の顔領域継続出力指示部18を追加したものである。
The person authentication device 3 of this embodiment is obtained by adding the face area continuous
すなわち、本実施例の人物認証装置3は、実施例2の人物認証装置2の機能と、実施例1の人物認証装置1の機能と、を併せ持つ。これにより、本実施例では、特徴点候補判定部17の判定にもとづき、正規化画像蓄積保持指示部23が正規化画像蓄積部22へ指示を出すとともに、顔領域継続出力指示部18が顔領域抽出部11への指示を出す。
That is, the person authentication device 3 of the present embodiment has both the function of the person authentication device 2 of the second embodiment and the function of the person authentication device 1 of the first embodiment. Thus, in this embodiment, the normalized image accumulation / holding
このような本実施例によれば、個人認証実行時の処理時間の増加を抑制することができるとともに、処理量の増加も抑制することができる According to such a present Example, while being able to suppress the increase in the processing time at the time of personal authentication execution, the increase in a processing amount can also be suppressed.
1、2、3 人物認証装置
11 顔領域抽出部
12 特徴点候補抽出部
13 類似度判定部
14 特徴点抽出部
15 特徴点記憶部
16 予想特徴点領域生成部
17 特徴点候補判定部
18 顔領域継続出力指示部
21 正規化画像生成部
22 正規化画像蓄積部
23 正規化画像蓄積指示部
1, 2, 3
Claims (5)
現フレームの画面から人物の顔領域を抽出する顔領域抽出手段と、
前記顔領域から複数の判定部位ごとに特徴点候補を抽出する特徴点候補抽出手段と、
前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定する類似度判定手段と、
前記類似度判定手段により前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときに、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された前記特徴点をフレームごとに記憶する特徴点記憶手段と、
前記類似度判定手段により前記複数の判定部位のいずれかで前記基準の類似度を超える特徴点候補がないと判定されたときに、前記特徴点記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成する予測特徴点領域生成手段と、
前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定する特徴点候補判定手段と、
前記特徴点候補判定手段により前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときに、前記顔領域抽出手段へ、次フレーム画面入力に対する顔領域抽出を行わず、現フレームの前記顔領域を継続して出力するよう指示する顔領域継続出力指示手段と、
を備えることを特徴とする人物認証装置。 A person authentication device for extracting feature points for performing personal authentication from a frame screen of an input moving image,
Face area extraction means for extracting a person's face area from the screen of the current frame;
Feature point candidate extraction means for extracting feature point candidates for each of a plurality of determination sites from the face area;
A similarity determination unit that compares the feature point candidate with a template registered in advance and determines whether there is a feature point candidate that exceeds a reference similarity;
When it is determined by the similarity determination means that there is a feature point candidate that exceeds the reference similarity in all of the plurality of determination parts, the feature point candidate with the highest similarity is characterized for each determination part. Feature point extraction means for extracting as points;
Feature point storage means for storing the feature points extracted by the feature point extraction means for each frame;
When the similarity determination unit determines that there is no feature point candidate exceeding the reference similarity in any of the plurality of determination parts, the feature point of the previous frame is read from the feature point storage unit, and the feature Predicted feature point region generating means for generating a predicted feature point region centered on a point;
Feature point candidate determination means for determining whether or not at least one of the feature point candidates is included in the predicted feature point region when the predicted feature point region is generated;
When it is determined by the feature point candidate determination means that at least one of the feature point candidates is included in the predicted feature point areas of all of the plurality of determination portions, the next frame is sent to the face area extraction means. Face area continuous output instruction means for instructing to continuously output the face area of the current frame without performing face area extraction for screen input;
A person authentication device comprising:
現フレームの画面から人物の顔領域を抽出する顔領域抽出手段と、
前記顔領域から複数の判定部位ごとに特徴点候補を抽出する特徴点候補抽出手段と、
前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定する類似度判定手段と、
前記類似度判定手段により前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときは、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出する特徴点抽出手段と、
前記特徴点にもとづいて正規化画像を生成する正規化画像生成手段と、
前記特徴点の抽出に成功したフレームの前記正規化画像を蓄積する正規化画像蓄積手段と、
前記特徴点抽出手段により抽出された前記特徴点をフレームごとに記憶する特徴点記憶手段と、
前記特徴点の抽出に失敗したときに、前記特徴点記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成する予測特徴点領域生成手段と、
前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定する特徴点候補判定手段と、
前記特徴点候補判定手段により前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときに、前記正規化画像蓄積手段へ、蓄積している前記正規化画像を保持するよう指示する正規化画像蓄積保持指示手段と、
を備えることを特徴とする人物認証装置。 A person authentication device that generates and stores a normalized image for performing personal authentication from a frame screen of an input moving image,
Face area extraction means for extracting a person's face area from the screen of the current frame;
Feature point candidate extraction means for extracting feature point candidates for each of a plurality of determination sites from the face area;
A similarity determination unit that compares the feature point candidate with a template registered in advance and determines whether there is a feature point candidate that exceeds a reference similarity;
When the similarity determination unit determines that there is a feature point candidate that exceeds the reference similarity in all of the plurality of determination parts, the feature point candidate with the highest similarity is characterized for each determination part. Feature point extraction means for extracting as points;
Normalized image generation means for generating a normalized image based on the feature points;
Normalized image storage means for storing the normalized image of the frame that has succeeded in extracting the feature points;
Feature point storage means for storing the feature points extracted by the feature point extraction means for each frame;
A prediction feature point region generation unit that reads out a feature point of the previous frame from the feature point storage unit when the feature point extraction fails, and generates a prediction feature point region centered on the feature point;
Feature point candidate determination means for determining whether or not at least one of the feature point candidates is included in the predicted feature point region when the predicted feature point region is generated;
When the feature point candidate determination unit determines that at least one of the feature point candidates is included in the predicted feature point region of all of the plurality of determination sites, the feature point candidate is stored in the normalized image storage unit. Normalized image storage and holding instruction means for instructing to hold the normalized image
A person authentication device comprising:
をさらに備えることを特徴とする請求項2に記載の人物認証装置。 When it is determined by the feature point candidate determination unit that at least one of the feature point candidates is included in the predicted feature point region of all of the plurality of determination portions, the next frame is transmitted to the face region extraction unit. Face area continuous output instruction means for instructing to continuously output the face area of the current frame without performing face area extraction for screen input;
The person authentication device according to claim 2, further comprising:
前フレームからの指示に従って、入力された現フレームの画面に対して、前フレームで抽出された顔領域を継続使用するか、顔領域を新規抽出するかを決定するステップと、
前記決定が新規抽出であったときに現フレームの画面から人物の顔領域を抽出するステップと、
前記決定に応じて、継続使用または新規抽出の顔領域から複数の判定部位ごとに特徴点候補を抽出するステップと、
前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定するステップと、
前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときに、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出するステップと、
抽出された前記特徴点をフレームごとに記憶手段に記憶するステップと、
前記複数の判定部位のいずれかで前記基準の類似度を超える特徴点候補がないと判定されたときに、前記記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成するステップと、
前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定するステップと、
前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときに、次フレームの画面入力に対して、現フレームの前記顔領域を継続して使用するよう指示するステップと、
を備えることを特徴とする人物認証方法。 A person authentication method for performing personal authentication using a frame screen of an input moving image,
In accordance with an instruction from the previous frame, determining whether to continue using the face area extracted in the previous frame or newly extract the face area for the screen of the input current frame;
Extracting a human face area from the screen of the current frame when the decision is a new extraction;
In response to the determination, extracting feature point candidates for each of a plurality of determination sites from a continuously used or newly extracted face region;
Comparing the feature point candidate with a pre-registered template and determining whether there is a feature point candidate exceeding a reference similarity;
Extracting a feature point candidate having the highest similarity as a feature point for each determination portion when it is determined that there is a feature point candidate exceeding the reference similarity in all of the plurality of determination portions; ,
Storing the extracted feature points in a storage means for each frame;
When it is determined that there is no feature point candidate exceeding the reference similarity in any of the plurality of determination parts, the feature point of the previous frame is read from the storage unit, and the predicted feature point centered on the feature point Generating a region;
Determining whether or not at least one feature point candidate is included in the predicted feature point region when the predicted feature point region is generated;
When it is determined that at least one of the feature point candidates is included in the predicted feature point regions of all of the plurality of determination regions, the face region of the current frame is determined for screen input of the next frame. Instructing them to continue using it,
A person authentication method comprising:
現フレームの画面から人物の顔領域を抽出するステップと、
前記顔領域から複数の判定部位ごとに特徴点候補を抽出するステップと、
前記特徴点候補と予め登録されているテンプレートとを比較し、基準の類似度を超える特徴点候補があるかどうかを判定するステップと、
前記複数の判定部位の総てで前記基準の類似度を超える特徴点候補があると判定されたときに、前記判定部位ごとに、最も類似度の高い特徴点候補を特徴点として抽出するステップと、
前記特徴点にもとづいて正規化画像を生成するステップと、
前記特徴点の抽出に成功したフレームの前記正規化画像を蓄積するステップと、
抽出された前記特徴点をフレームごとに記憶手段に記憶するステップと、
前記特徴点の抽出に失敗したときに、前記記憶手段から前フレームの特徴点を読み出し、その特徴点を中心とした予測特徴点領域を生成するステップと、
前記予測特徴点領域が生成されたときに、前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれているかどうかを判定するステップと、
を備え、
前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が1つも含まれていないと判定されたときは、蓄積していた前記正規化画像を破棄し、
前記複数の判定部位総ての前記予測特徴点領域に前記特徴点候補が少なくとも1つは含まれていると判定されたときは、蓄積している前記正規化画像を保持することを特徴とする人物認証方法。 A person authentication method for accumulating a plurality of normalized images generated from a frame screen of an input moving image and performing personal authentication using the accumulated normalized images.
Extracting a human face area from the current frame screen;
Extracting feature point candidates for each of a plurality of determination sites from the face region;
Comparing the feature point candidate with a pre-registered template and determining whether there is a feature point candidate exceeding a reference similarity;
Extracting a feature point candidate having the highest similarity as a feature point for each determination portion when it is determined that there is a feature point candidate exceeding the reference similarity in all of the plurality of determination portions; ,
Generating a normalized image based on the feature points;
Accumulating the normalized image of a frame in which the feature points have been successfully extracted;
Storing the extracted feature points in a storage means for each frame;
When extraction of the feature points fails, reading the feature points of the previous frame from the storage means, and generating a predicted feature point region centered on the feature points;
Determining whether or not at least one feature point candidate is included in the predicted feature point region when the predicted feature point region is generated;
With
When it is determined that none of the feature point candidates is included in the predicted feature point region of all the plurality of determination parts, the accumulated normalized image is discarded,
When it is determined that at least one feature point candidate is included in the predicted feature point region of all of the plurality of determination parts, the accumulated normalized image is retained. Person authentication method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007130347A JP2008287399A (en) | 2007-05-16 | 2007-05-16 | Personal authentication device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007130347A JP2008287399A (en) | 2007-05-16 | 2007-05-16 | Personal authentication device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008287399A true JP2008287399A (en) | 2008-11-27 |
Family
ID=40147076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007130347A Pending JP2008287399A (en) | 2007-05-16 | 2007-05-16 | Personal authentication device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008287399A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013065119A (en) * | 2011-09-15 | 2013-04-11 | Toshiba Corp | Face authentication device and face authentication method |
CN103823678A (en) * | 2014-02-21 | 2014-05-28 | 联想(北京)有限公司 | Image processing method and image processing device |
JP2014526754A (en) * | 2011-09-27 | 2014-10-06 | インテル・コーポレーション | Face recognition method, apparatus, and computer-readable recording medium for executing the method |
US9098760B2 (en) | 2011-09-15 | 2015-08-04 | Kabushiki Kaisha Toshiba | Face recognizing apparatus and face recognizing method |
-
2007
- 2007-05-16 JP JP2007130347A patent/JP2008287399A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013065119A (en) * | 2011-09-15 | 2013-04-11 | Toshiba Corp | Face authentication device and face authentication method |
US9098760B2 (en) | 2011-09-15 | 2015-08-04 | Kabushiki Kaisha Toshiba | Face recognizing apparatus and face recognizing method |
JP2014526754A (en) * | 2011-09-27 | 2014-10-06 | インテル・コーポレーション | Face recognition method, apparatus, and computer-readable recording medium for executing the method |
CN103823678A (en) * | 2014-02-21 | 2014-05-28 | 联想(北京)有限公司 | Image processing method and image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4594945B2 (en) | Person search device and person search method | |
US10650259B2 (en) | Human face recognition method and recognition system based on lip movement information and voice information | |
JP4506801B2 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
KR101773233B1 (en) | Managing method for repeating fail of biometric recognition | |
JP4365189B2 (en) | Authentication device | |
WO2020134527A1 (en) | Method and apparatus for face recognition | |
JP2009086951A (en) | Registration device, registration method, authentication device and authentication method | |
JP2015138449A (en) | Personal authentication device, personal authentication method and program | |
WO2020070821A1 (en) | Biometric identification device, biometric identification method, and biometric identification program | |
JP6964527B2 (en) | Authentication system, authentication device, authentication program, and authentication method | |
JP2017016646A (en) | Methods and apparatuses for updating data for user authentication | |
JP2005071009A (en) | Image input device and authentication device using the same | |
JP2023063314A (en) | Information processing device, information processing method, and recording medium | |
JP2008287399A (en) | Personal authentication device and method | |
JP2009054052A (en) | Face authentication device | |
CN113615150B (en) | Image processing apparatus, image processing method, image processing system, and computer readable medium | |
JP2008004050A (en) | Personal information authentication system, personal information authentication method, program, and recording medium | |
JP4939292B2 (en) | APPARATUS HAVING AUTHENTICATION PROCESS FUNCTION, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
JP2015169977A (en) | Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system | |
JPWO2020170894A1 (en) | Image processing equipment, methods, systems, and programs | |
EP3929858A1 (en) | Imaging device, method, and system, and computer-readable medium | |
JP6631736B1 (en) | Biometric authentication device, biometric authentication system and program | |
JP7251874B2 (en) | Face authentication device, face authentication method, program, and recording medium | |
EP4152182A1 (en) | Authentication method, authentication program, and information processing device | |
JP2005352727A (en) | Portrait retrieving device |