JP2004348522A - Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium - Google Patents

Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium Download PDF

Info

Publication number
JP2004348522A
JP2004348522A JP2003145926A JP2003145926A JP2004348522A JP 2004348522 A JP2004348522 A JP 2004348522A JP 2003145926 A JP2003145926 A JP 2003145926A JP 2003145926 A JP2003145926 A JP 2003145926A JP 2004348522 A JP2004348522 A JP 2004348522A
Authority
JP
Japan
Prior art keywords
finger
palm
tip
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003145926A
Other languages
Japanese (ja)
Inventor
Katsuaki Miyayasu
克明 宮保
浩二 ▲鶴▼
Koji Tsuru
Toshio Nakazawa
寿雄 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003145926A priority Critical patent/JP2004348522A/en
Publication of JP2004348522A publication Critical patent/JP2004348522A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correctly detect the edge of a middle finger which is a reference point for palm-shape authentication. <P>SOLUTION: A palm shape authentication reference point detection method, for detecting the edge point of the middle finger which is the reference point for the palm shape authentication, needed when performing authentication of the subject by the palm authentication, comprises a step 1 for acquiring a centerline of each finger from the acquired palm shape images and acquiring an intersection point of the centerline of each acquired finger and a finger tip of each finger as the edge point of each finger; and a step 2 for determining the longest finger on the basis of position relation of the centerline of each finger and the edge point of each finger acquired in the step 1 and determining the edge point of the determined finger as the edge point of the middle finger which is the reference point for the palm-shape verification. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、個人の身体的な特徴(バイオメトリクス)の一つである掌形を基に本人性の確認を行う本人認証分野に属し、特に、ピンなどに指を挟んで固定することなく掌形の特徴を取得し、本人認証を行う掌形認証方法に係るものである。
【0002】
【従来の技術】
個人の身体的な特徴(バイオメトリクス;Biometrics)の一つである掌形を基に本人の確認を行う際に、非固定の掌形画像を使用する掌形認証方法が知られている(下記、特許文献参照)。
この特許文献に記載された掌形認証方法の特徴は、下記のとおりである。
(1)指を伸ばし、かつ、各指が同一方向となるよう揃えた掌形画像が対象であり、指を揃えない場合、掌の傾き補正を行うための回転補正に誤差が発生する。
(2)中指の先端位置を基準としたときの他の指の先端までの距離、および中指の先端位置を基準とした掌形の幅の変化値を特徴量として、掌形認証を行う。
【0003】
なお、本願発明に関連する先行技術文献としては以下のものがある。
【特許文献1】
特開2002−117405号公報(発明の名称;掌形認証方法)
【0004】
【発明が解決しようとする課題】
前述した従来の方法では、対比する掌形の指の開き度合が異なる場合、異なった傾きの掌どおしで認証を行うこととなり、掌形幅値および中指の先端位置から他の指の先端位置までの距離値の精度が落ち、掌形認証の性能が劣化するという問題点があった。
また、掌形幅値は、中指、人差指等の複数の指の幅の変化値を合計した幅値を特徴量として認証しているため、各指個別の幅値を特徴量とすることができず、認証の精度が落ちてしまうという問題点もあった。
そこで、本発明者らは、中指の先端点を基準として、掌形の特徴量を求め、この特徴量に基づき掌形認証方法を提案している(特願2003−144240号参照)。
この提案済みの掌形認証方法では、掌形画像の上部より順番に各行の画素データ値を調べて掌形領域を検出し、この検出した位置を中指の先端点として検出している。
しかしながら、この提案済みの掌形認証方法において、掌形を大きく傾けた場合、中指以外の薬指、人差し指の先端が中指より掌形画像の上部に位置することとなり、誤って中指以外の指が中指であるとして検出してしまう。
この場合には、中指以外の先端を基準点とした掌形認証を行うこととなり、誤った掌形の特徴量を抽出することとなり、掌形認証の性能が大きく劣化するという問題点があった。
【0005】
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、掌形認証用基準点となる中指の先端を正しく検出することが可能な掌形認証用基準点検出方法および掌形認証用基準点検出装置を提供することにある。
また、本発明の他の目的は、前述の掌形認証用基準点検出方法をコンピュータに実行させるためのプログラムを提供することにある。
また、本発明の他の目的は、前述のプログラムが記録された記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
【0006】
【課題を解決するための手段】
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明においては、本人の認証を掌形認証により行う場合に必要となる認証用基準点(中指の先端点)の検出において、掌形画像より、各指の中心線を取得し、当該中心線と各指の指先との交点を各指の先端点とし、各指の中心線と先端点との位置関係により最も長さの長い指を判定し、当該判定された指を中指として判定することを特徴とする。
本発明によれば、中指の先端よりも他の指の先端の方が画像の上部に存在するくらい掌形を大きく傾けても、中指を正しく検出することができ、掌形認証における基準点の検出誤りがなくなり、認証性能の劣化を防ぐことが可能となる。
【0007】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
なお、実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
[本発明の前提となる掌形認証方法]
始めに、本発明の前提となる掌形認証方法について説明する。
図1は、平面に置かれた掌形を撮影して得られる2つの登録掌形画像1−1、2−1を示す写真である。
登録掌形画像1−1は、指を閉じた状態とした画像であり、登録掌形画像2−1は、指を大きく開いた画像である。
図2は、登録掌形画像1−1、2−1をそれぞれ掌形部分を抽出して白色とし、それ以外の部分を黒色とした登録掌形2値化画像1−2、2−2を示す写真である。
当該2値化の方法としては、背景が光の赤成分がない青色や緑色、黒色等とし、登録掌形画像1−1、2−1より赤成分のみを取り出し、赤成分のある部分は白色、赤成分のない部分は黒色とする方法を採用した。
当該2値化については、上記方法に限られることなく、例えば、掌形部分の色の光の三原色の成分の特徴により抽出するなど他の方法を採用しても良い。
図3は、登録掌形2値化画像1−2、2−2より、それぞれ中指の先端位置を求める方法を説明するための模式図1−3,2−3であり、登録掌形2値化画像1−2、2−2の最上部から順次下方に、横方向に白色のピクセルの有無を確認することにより、中指の先端1−B、2−Bを検出することを示している。
【0008】
図4は、登録掌形2値化画像1−2、2−2のそれぞれについて、微分などの方法により生成した輪郭掌形画像1−4、2−4を示す写真である。
図5は、輪郭掌形画像1−4、2−4について、それぞれハフ変換などの方法により、直線に近い形状を抽出することにより、各指の両サイドの輪郭直線に近似していることを示す直線近似画像1−5、2−5である。
図6は、直線近似画像1−5、2−5のそれぞれについて、中指の先端1−B、2−Bの両側について、最も近い位置にある近似直線を抽出することにより、中指の両サイドの直線を抽出していることを示す画像1−6、2−6である。
図7は、直線近似画像1−5、2−5のそれぞれについて、画像1−6、2−6の中指の両サイドの直線の外側について、1−3、2−3と同様に登録掌形2値化画像1−2、2−2の最上部から順次下方に、横方向に白色のピクセルの有無を確認することにより、ひとさし指の先端1−A、2−A、薬指の先端1−C、2−C、小指の先端1−D、2−Dを検出すること、および、各指の両サイドの近似直線1−A−1、1−A−2、1−B−1、1−B−2、1−C−1、1−C−2、1−D−1、1−D−2、2−A−1、2−A−2、2−B−1、2−B−2、2−C−1、2−C−2、2−D−1、2−D−2を抽出することを説明するための模式図1−7、2−7である。
【0009】
図8は、模式図1−7における、人差指の両サイドの近似直線1−A−1、1−A−2より、同じ距離にある直線(以下、人差指の中心線という)1−A−3、中指の両サイドの近似直線1−B−1、1−B−2より、同じ距離にある直線(以下、中指の中心線という)1−B−3と、薬指の両サイドの近似直線1−C−1、1−C−2より、同じ距離にある直線(以下、薬指の中心線という)1−C−3と、子指の両サイドの近似直線1−D−1、1−D−2より、同じ距離にある直線1−D−3(以下、小指の中心線という)とを取得した模式図1−8、および、模式図2−7における、人差指の両サイドの近似直線2−A−1、2−A−2より、同じ距離にある人差指の中心線2−A−3と、中指の両サイドの近似直線2−B−1、2−B−2より、同じ距離にある中指の中心直線2−B−3と、薬指の両サイドの近似直線2−C−1、2−C−2より、同じ距離にある薬指の中心直線2−C−3と、子指の両サイドの近似直線2−D−1、2−D−2より、同じ距離にある小指の中心直線2−D−3とを取得した模式図2−8、並びに、模式図1−8の中指と模式図2−8の中指のいずれも垂直になるようにし、両中指を重ね合わせた図面を示す模式図10−8である。
ここで、模式図1−8の中指と模式図2−8の中指のいずれも垂直になるようにとは、各模式図の中指の中心線が、各模式図の辺Pに平行であることを意味し、
また、模式図1−8の中指と模式図2−8の中指のいずれも垂直になるようにし、両中指を重ね合わせたとは、各模式図の中指の中心線を一致させ、かつ、各模式図の中指の先端位置を一致させることを意味する。
【0010】
模式図10−8において、点10−aは、直線1−A−3と直線2−A−3との交点であり、人差指の回転の中心点となる。
同様に、点10−cは、直線1−C−3と直線2−C−3との交点であり、薬指の回転の中心点、また、点10−dは、直線1−D−3と直線2−D−3との交点であり、小指の回転の中心点となる。
図9は、模式図2−8の中の各指が垂直になるように、点10−a、10−c、10−dを中心として回転したとした場合の模式図を示しており、中指の先端を基準として各指の幅変化値や点10−a、10−c、10−dまでの距離を画像のピクセル数を単位として表している模式図である。
図10は、図9より、各指の幅変化値、および点10−a、10−c、10−dをグラフ上に示した図面である。
この図10は、図9の模式図の最上部から順次下方に、横方向に白色のピクセルの有無を確認することにより、各指の幅変化値、および点10−a、10−c、10−dを検出した結果を示す図である。
11−Aは人差指の幅変化値、11−Bは中指の幅変化値、11−Cは薬指の幅変化値、11−Dは小指の幅変化値、13−aは、中指の先端から人差指の先端までの距離、13−cは、中指の先端から薬指の先端までの距離、13−dは、中指の先端から子指の先端までの距離、12−aは、人差指の回転の中心点10−aを示し、14−aはその中指の先端からの距離、12−cは、薬指の回転の中心点10−cを示し、14−cはその中指の先端からの距離、12−dは、子指の回転の中心点10−dを示し、14−dはその中指の先端からの距離を示しており、これらは、登録掌形画像の特徴値となる。
【0011】
図11は、平面に置かれた掌形を撮影して得られる2つの掌形画像1−1、3−1を示す写真である。掌形画像1−1は登録掌形画像、掌形画像3−1は照合対象の掌形画像を示す。
図12〜図20は、図2〜図10と同様の処理を説明する図面であり、これにより、照合対象の掌形画像3−1の特徴値として、人差指の幅変化値21−A、中指の幅変化値21−B、薬指の幅変化値21−C、小指の幅変化値21−D、中指の先端から人差指の先端までの距離23−a、中指の先端から薬指の先端までの距離23−c、中指の先端から子指の先端までの距離23−d、中指の先端から人差指の回転の中心点20−aまでの距離24−a、中指の先端から薬指の回転の中心点20−cまでの距離24−c、中指の先端から子指の回転の中心点20−dまでの距離24−dを算出する。これらは、照合対象の掌形画像の特徴値となる。
【0012】
本発明の前提となる掌形認証方法では、登録掌形画像2−1の特徴値と、照合対象の掌形画像3−1の特徴値とを用いて類似度を求め、当該類似度に基づき掌形認証を行う。
図21は、登録掌形画像2−1の特徴値と、照合対象の掌形画像3−1の特徴値とを用いて、類似度を算出する式を示す図である。
式501は、登録掌形2−1の中指の幅変化値11−Bと照合対象の掌形3−1の中指の幅変化値21−Bの平均二乗誤差である。
式502は、登録掌形2−1のひとさし指の幅変化値11−Aと照合対象の掌形3−1のひとさし指の幅変化値21−Aの平均二乗誤差である。
式503は、登録掌形2−1の薬指の幅変化値11−Cと照合対象の掌形3−1の薬指の幅変化値21−Cの平均二乗誤差である。
式504は、登録掌形2−1の子指の幅変化値11−Dと照合対象の掌形3−1の子指の幅変化値21−Dの平均二乗誤差である。
式505は、登録掌形2−1の中指の先端から人差指の先端までの距離13−aと照合対象の掌形3−1の中指の先端から人差指の先端までの距離23−aの差の絶対値である。
式506は、登録掌形2−1の中指の先端から薬指の先端までの距離13−cと照合対象の掌形3−1の中指の先端から薬指の先端までの距離23−cの差の絶対値である。
式507は、登録掌形2−1の中指の先端から子指の先端までの距離13−dと照合対象の掌形3−1の中指の先端から子指の先端までの距離23−dの差の絶対値である。
【0013】
式508は、登録掌形2−1の中指の先端からひとさし指の回転の中心点までの距離14−aと照合対象の掌形3−1の中指の先端からひとさし指の回転の中心点までの距離24−aの差の絶対値である。
式509は、登録掌形2−1の中指の先端から薬指の回転の中心点までの距離14−cと照合対象の掌形3−1の中指の先端から薬指の回転の中心点までの距離24−cの差の絶対値である。
式510は、登録掌形2−1の中指の先端から子指の回転の中心点までの距離14−dと照合対象の掌形3−1の中指の先端から子指の回転の中心点までの距離24−dの差の絶対値である。
式511は、式501から式510までの値にそれぞれ重み付けw1〜w10を与え、これらの和を、登録掌形2−1と照合対象の掌形3−1の類似度とすることを示す式である。
式511の類似度に対して、しきい値を設けることにより、照合対象の掌形画像3−1の人物は、登録掌形画像2−1の人物と同じかどうかを判定することとなる。
当該重み付けおよびしきい値については、経験値により、最適の値を設定する必要がある。
また、式501〜式510それぞれの値について、いずれか一つでもあらかじめ設定したしきい値を超えた場合に異なる人物と判断してもよい。
【0014】
図22は、本発明の前提となる掌形認証方法を実施するための掌形認証装置の概略構成を示すブロック図である。
同図に示すように、前述した掌形認証方法を実施するための掌形認証装置1は、掌形画像取得手段10と、格納手段11と、二値化手段12と、中指先端位置取得手段13と、輪郭掌形画像作成手段14と、中指以外の各指の先端位置取得手段15と、直線近似画像作成手段16と、中指の近似直線抽出手段17と、中指以外の各指の近似直線抽出手段18と、各指の中心線取得手段19と、各特徴値算出手段20と、認証手段21とを有する。
図23から図26は、図22に示す掌形認証装置1における、登録掌形画像の特徴値を算出するまでの処理手順を示すフローチャートである。
以下、前述した掌形認証方法を実施するための掌形認証装置1における、登録掌形画像の特徴値を算出するまでの処理手順を説明する。
【0015】
始めに、掌形画像取得手段10で、指を閉じた掌形画像1−1と、指を開いた掌形画像2−1を取得する(ステップ101)。
この掌形画像1−1と指を開いた掌形画像2−1とは、登録掌形画像として、格納手段11に格納される。
次に、二値化手段12で、掌形画像1−1と掌形画像2−1を、掌形部分を白色、掌形以外の部分を黒色として2値化し、それぞれ登録掌形2値化画像1−2、2−2とする(ステップ102)。
次に、中指先端位置取得手段13で、登録掌形2値化画像1−2、2−2より、中指の先端位置1−B、2−Bを求める(ステップ103)。
本実施の形態では、2値化画像の最上部から順次下方に横方向の白色のピクセルの有無を確認し、連続する所定の数の白色のピクセルがあれば、中指の先端位置と判断する。
次に、輪郭掌形画像作成手段14で、登録掌形2値化画像1−2,2−2より、微分などの方法により、輪郭掌形画像1−4、2−4を作成する(ステップ104)。
次に、直線近似画像作成手段16で、輪郭掌形画像1−4,2−4より、ハフ変換などの方法により、各指の両サイドの輪郭を直線に近似し、直線近似画像1−5,2−5を作成する(ステップ105)。
【0016】
次に、中指の近似直線抽出手段17で、直線近似画像1−5、2−5より、中指の先端1−B、2−Bの両側について最も近い位置にある近似直線1−B−1、1−B−2及び2−B−1、2−B−2を抽出する(ステップ106)。
次に、中指以外の各指の先端位置取得手段15で、直線近似画像1−5,2−5それぞれについて、画像1−6、2−6の中指の両サイドの直線の外側について、1−3,2−3と同様に登録掌形2値化画像1−2,2−2の最上部から順次下方に横方向に白色のピクセルの有無を確認することにより、人差指の先端1−A、2−A、薬指の先端1−C、2−C小指の先端1−D,2−Dを検出する(ステップ107)。
次に、中指以外の各指の近似直線抽出手段18で、検出した人差指の先端1−A、2−A、薬指の先端1−C、2−C、小指の先端1−D,2−Dより、各指の両サイドの近似直線1−A−1、1−A−2、1−B−1、1−B−2、2−B−2、2−C−1、2−C−2、2−D−1、2−D−2を抽出する(ステップ108)。
【0017】
次に、各指の中心線取得手段19で、人差指の両サイドの近似直線1−A−1、1−A−2より、同じ距離にある人差指の中心線1−A−3、中指の両サイドの近似直線1−B−1、1−B−2より、同じ距離にある中指の中心線1−B−3、薬指の両サイドの近似直線1−C−1、1−C−2より、同じ距離にある薬指の中心線1−C−3、子指の両サイドの近似直線1−D−1、1−D−2より、同じ距離にある小指の中心線1−D−3を取得する(ステップ109)。
また、人差指の両サイドの近似直線2−A−1、2−A−2より、同じ距離にある人差指の中心線2−A−3、中指の両サイドの近似直線2−B−1、2−B−2より、同じ距離にある中指の中心線2−B−3、薬指の両サイドの近似直線2−C−1、2−C−2より、同じ距離にある薬指の中心線2−C−3、子指の両サイドの近似直線2−D−1、2−D−2より、同じ距離にある小指の中心線2−D−3を取得する(ステップ110)。
【0018】
次に、各特徴値算出手段20で、模式図1−8の中指と模式図2−8の中指のいずれが垂直になるようにし、両中指を重ね合わせ、直線1−A−3と直線2−A−3との交点を点10−a、直線1−C−3と直線2−C−3との交点を点10−c、直線1−D−3と直線2−D−3との交点を点10−dとする(ステップ111)。
また、模式図2−8の中の各指が垂直になるように点10−a、10−c、10−dを中心として回転したとした場合、中指の先端2−Bを基準として各指の幅変化値11−A、11−B、11−C、11−D、中指の先端2−Bから他の指の先端2−A、2−C、2−Dまでの距離13−a、13−c、13−d、中指の先端2−Bから点10−a、10−c、10−dまでの距離14−a、14−c、14−dをピクセル数を単位として算出し、これを登録掌形画像の特徴値とする(ステップ112)。
なお、前述の掌形認証装置1における、照合対象の掌形画像3−1の特徴値を算出するまでの処理手順については、前述のフローチャートにおいて、ステップ101における掌形画像2−1を3−1に置き換え、以下同じ処理を行うこととなるので再度の説明は省略する。
【0019】
[本発明の実施の形態]
前述した本発明の前提となる掌形認証方法では、掌形画像の上部より順番に各行の画素データ値を調べて掌形領域を検出し、この検出した位置を中指の先端点として検出し、中指の先端点を基準として、掌形の特徴量を求め、この特徴量に基づき本人の同一性を掌形している。
しかしながら、前述した本発明の前提となる掌形認証方法では、掌形を大きく傾けた場合、中指以外の薬指、人差し指の先端が中指より掌形画像の上部に位置することとなり、誤って中指以外の指が中指であるとして検出してしまう。
本発明は、このような場合でも、正確に中指の先端点を検出できるようにするものである。
図27は、本発明の実施の形態の掌形認証用基準点検出装置の概略構成を示すブロック図である。
同図に示すように、本実施の形態の掌形認証用基準点検出装置2は、指先領域検出手段30と、輪郭画像作成手段31と、直線検出画像作成手段32と、検出した指の中心線取得手段33と、検出した指の先端点取得手段34と、中指の判定手段35とを有する。
【0020】
図28から図33は、本実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
以下、本実施の形態の掌形認証用基準点検出方法について説明する。
始めに、掌形画像取得手段10で、掌形画像(図34の5−1)を取得する(ステップA1−1)。
なお、当該掌形画像5−1は、後ほど説明する各指の長さの比較において判定する場合に誤判定とならないよう掌形の傾きの度合は、左に傾けた場合は、少なくとも親指以外は下向き方向にならず、右に傾けた場合は、少なくとも小指以外は下向き方向にならない範囲とする。
また、図34は、本実施の形態の掌形認証用基準点検出方法おいて、使用される画像を示す図である。
次に、二値化手段12で、掌形部分を白色、それ以外を黒色とした二値化画像(図34の5−2)を生成する(ステップA1−2)。
当該2値化の方法としては、背景が光の赤成分がない青色や緑色、黒色等とし、掌形画像5−1より赤成分のみを取り出し、赤成分のある部分は白色、赤成分のない部分は黒色とする方法を採用した。
なお、2値化の方法としては、当該赤成分のみを抽出する方法に限られることなく、例えば、掌形部分の色の光の三原色の成分の特徴により抽出するなど他の方法を採用しても良いものとする。
【0021】
次に、輪郭画像作成手段31で、二値化画像5−2に対し、微分処理等の方法により、掌形画像の輪郭画像(図34の5−3)を生成する(ステップA1−3)。
次に、輪郭画像5−3より、ハフ変換などにより直線を検出し、これにより直線検出画像(図34の5−4)を生成する(ステップA1−4)。
なお、当該直線検出画像5−4は、ハフ変換に以外の他の方法を採用しても良い。
当該直線検出においては、ハフ変換のアルゴリズム上、各指の両サイドにそれぞれ複数の直線が検出されるが、後のステップA1−6において、各指の両サイドの直線は、これらのうち各指の先端点に最も近い1本の直線だけが選択されることになる。
次に、指先領域検出手段30で、図35のS1に示すように、二値化画像5−2の上部より、各行の画素データ値を調べ、所定の白色値の数以上であることより、5本の指のいずれかの指(指Y1と称す)の先端付近(この先端付近の点をN1点とする)であると判定する(ステップA1−5)。
次に、検出した指の中心線取得手段33で、直線検出画像5−4における、指Y1の両サイドの直線のうち、N1点から最も近い直線(図35のL1−1、L1−2)をそれぞれ求め(ステップA1−6)、さらに、前記両サイドの直線L1−1、L1−2から等しい距離にある直線を求め、これを指Y1の中心線(図35のC1)とする(ステップA2−1)。
なお、図35は、二値化画像5−2の上部より、各行の画素データ値を調べることにより求められた指Y1と、その先端付近の点であるN1点、N1点から最も近い指Y1の両サイドの直線L1−1、L1−2と指Y1の中心線C1と指Y1の先端点T1を示す模式図である。
【0022】
ここで、ステップA1−5において、所定の白色値の数以上であることを条件として指の先端付近の点N1であると判定しているが、当該判定のための白色値の数は、二値化画像5−2の掌形以外の領域にノイズなどにより、白色の部分が存在する場合、誤って指の先端であると認識してしまう恐れがあるため、所定の白色値の数以上であることにより判定しているものである。
従って、メディアンフィルタの画像処理等により、二値化画像5−2にこのようなノイズが存在しないようにすることができる場合は、指の先端を認識するための白色値の数は、1画素としても良い。後のステップA2−3、A3−1、A4−1における指の先端付近を検出するための白色値の画素数も同様とするものとする。
ステップA2−1において、中心線C1は、幾何学的な手法により導出することが可能であり、他のステップA2−5、A3−3、A4−3も同様の手法により、中心線を導出することが可能である。具体的には、図41において説明するが、この方法は一例であり、他の手法をとることも可能であるものである。
次に、検出した指の先端点取得手段34で、指Y1の中心線C1と指Y1の先端付近の輪郭線との交点を指Y1の先端点(図36のT1)とする(ステップA2−2)。
【0023】
次に、指先領域検出手段30で、図36のS2に示すように、二値化画像5−2のN1点より、下の部分について、指Y1以外の部分(L1−1、L1−2に挟まれた部分以外の部分)について各行の画素データ値を調べ、所定の白色値の数以上であることより、指Y1を除く、残り4本の指のいずれかの指(指Y2と称す)の先端付近(この先端付近の点をN2点とする)であると判定する(ステップA2−3)。
次に、検出した指の中心線取得手段33で、直線検出画像5−4における、指Y2の両サイドの直線のうち、N2点から最も近い直線(図36のL2−1、L2−2)をそれぞれ求め(ステップA2−4)、さらに、前記両サイドの直線L2−1、L2−2から等しい距離にある直線を求め、これを指Y2の中心線(図36のC2)とする(ステップA2−5)。
次に、検出した指の先端点取得手段34で、指Y2の中心線C2と指Y2の先端付近の輪郭線との交点を指Y2の先端点(図36のT2)とする(ステップA2−6)。
なお、図36は、二値化画像5−2の上部より、各行の画素データ値を調べることにより求められた指Y2とその先端付近の点であるN2点、N2点から最も近い指Y2の両サイドの直線L2−1、L2−2と指Y2の中心線C2と指Y2の先端点T2を示す図である。
【0024】
次に、指先領域検出手段30で、図37のS3に示すように、二値化画像5−2のN2点より、下の部分について、指Y1、指Y2以外の部分(L1−1、L−2に挟まれた部分、及びL2−1、L2−2に挟まれた部分以外の部分)について各行の画素データ値を調べ、所定の白色値の数以上であることより、指Y1,Y2を除く、残り3本の指のいずれかの指(指Y3と称す)の先端付近(この先端付近の点をN3点とする)であると判定する(ステップA3−1)。
次に、検出した指の中心線取得手段33で、直線検出画像5−4における、指Y3の両サイドの直線のうち、N3点から最も近い直線(図37のL3−1、L3−2)をそれぞれ求め(ステップA3−2)、さらに、前記両サイドの直線L3−1、L3−2から等しい距離にある直線を求め、これを指Y3の中心線(図37のC3)とする(ステップA3−3)。
次に、検出した指の先端点取得手段34で、指Y3の中心線C3と指Y3の先端付近の輪郭線との交点を指Y3の先端点(図37のT3)とする(ステップA3−4)。
なお、図37は、二値化画像5−2の上部より、各行の画素データ値を調べることにより求められた指Y3とその先端付近の点であるN3点、N3点から最も近い指Y3の両サイドの直線L3−1、L3−2と指Y3の中心線C3と指Y3の先端点T3を示す図である。
【0025】
次に、指先領域検出手段30で、図38のS4に示すように、二値化画像5−2のN3点より、下の部分について、指Y1、Y2,Y3以外の部分(L1−1、L1−2に挟まれた部分、及び、L2−1、L2−2に挟まれた部分、並びに、L3−1、L3−2に挟まれた部分以外の部分)について各行の画素データ値を調べ、所定の白色値の数以上であることより、指Y1,Y2,Y3を除く、残り2本の指のいずれかの指(指Y4と称す)の先端付近(この先端付近の点をN4点とする)であると判定する(ステップA4−1)。
次に、検出した指の中心線取得手段33で、直線検出画像5−4における、指Y4の両サイドの直線のうち、N4点から最も近い直線(図38のL4−1、L4−2)をそれぞれ求め(ステップA4−2)、さらに、前記両サイドの直線L4−1、L4−2から等しい距離にある直線を求め、これを指Y4の中心線(図38のC4)とする(ステップA4−3)。
次に、検出した指の先端点取得手段34で、指Y4の中心線C4と指Y4の先端付近の輪郭線との交点を指Y4の先端点(図38のT4)とする(ステップA4−4)。
なお、図38は、二値化画像5−2の上部より、各行の画素データ値を調べることにより求められた指Y4とその先端付近の点であるN4点、N4点から最も近い指Y4の両サイドの直線L4−1、L4−2と指Y4の中心線C4と指Y4の先端点T4を示すものである。
【0026】
次に、中指の判定手段35で、指Y1〜Y4の4本について、隣り合う指の組合せ(例えば、図39に示すように、各指の先端点T1、T2、T3、T4の距離関係により、指Y1と指Y3、指Y2と指Y4の組合せ)を設定し(ステップA5−1)、この指の組み合わせについて、以下のステップにより、どちらが長い指なのか判定する。
即ち、図39に示すように、指Y2と指Y4について、それぞれの中心線C2,C4から等しい距離にある直線(中間直線)をE2・4とし、これに対して、それぞれの指の先端点T2、T4から垂線をおろし、その交点をそれぞれX2、X4とする(ステップA5−2)。
次に、交点X2、X4のうち、いずれが画像の上の位置にあるかにより、先端点T2と先端点T4が指の付け根からどちらが遠い位置にあるか、即ち、指Y2と指Y4のいずれの方が長いかを判定する(ステップA5−3)。本実施例では、指Y2の方が長いと判定される。
【0027】
次に、指Y1と指Y3について、それぞれの中心線C1,C3から等しい距離にある直線(中間直線)をE1・3とし、これに対して、それぞれの指の先端点T1、T3から垂線をおろし、その交点をそれぞれX1、X3とする(ステップA6−1)。
次に、交点X1、X3のうち、いずれが画像の上の位置にあるかにより、先端点T1と先端点T3が指の付け根からどちらが遠い位置にあるか、即ち、指Y1と指Y3のいずれの方が長いかを判定する(ステップA6−2)。本実施例では、指Y1の方が長いと判定される。
なお、図39は、中心線C2、C4から等しい距離にある直線E2・4と、中心線C1、C3から等しい距離にある直線E1・3と、先端点T4から直線E2・4におろされた垂線との交点X4と、先端点T2から直線E2・4におろされた垂線との交点X2と、先端点T1から直線E1・3におろされた垂線との交点X1と、先端点T3から直線E1・3におろされた垂線との交点X3とを示す模式図である。
【0028】
次に、図40に示すように、ステップA5−3において、長いと判定された指Y2と、ステップA6−2において、長いと判定された指Y1について、それぞれの中心線C2、C1から等しい距離にある直線(中間直線)をE1・2とし、これに対して、それぞれの指の先端点T2、T1から垂線をおろし、その交点をそれぞれX2−2、X1−2とする(ステップA6−3)。
次に、交点X2−2、X1−2のうち、いずれが画像の上の位置にあるかにより、先端点T2と先端点T1が指の付け根からどちらが遠い位置にあるか、即ち、指Y2と指Y1のいずれの方が長いかを判定する(ステップA6−4)。本実施例では、指Y2の方が長いと判定される。
次に、最も長い指を中指とし、当該先端点を掌形認証の基準点とする(ステップA6−5)。本実施の形態では、指Y2が最も長いと判定され、指Y2の先端点が掌形認証の基準点となる。
なお、図40は、中心線C1、C2から等しい距離にある直線E1・2と、先端点T1から直線E1・2におろされた垂線との交点X1−2と、先端点T2から直線E1・2におろされた垂線との交点X2−2を示す模式図である。
【0029】
図41は、2つの直線Ln−1とLn−2に対し、同じ距離にある直線(中間直線)を導出する方法を示す図であり、同図の(a)は両直線が平行でなく、交わる場合を示し、同図の(b)は両直線が平行であり、交わらない場合を示す。図41(a)の場合、両直線の交点をPとし、点Pから同じ距離dにある点をそれぞれP1、P2とした場合、点P1と点P2とを結んだときの中点を点P3とする。点Pと点P3を結んだ直線が両直線から同じ距離にある直線Cnとなる。
図41(b)の場合、両直線の交点が存在しないため、前述の手法はとらない。すなわち、直線Ln−1の任意の点をP1、直線Ln−2の任意の点をP2を設定し、両点を結んだときの中点をP3とする。
当該P3点をとおり、直線Ln−1と直線Ln−2に平行な直線が両直線から同じ距離にある直線Cnとなる。
本実施の形態では、Y1からY4の各指の関係は、Y1は薬指、Y2は中指、Y3は小指、Y4は人差し指という関係となっているが、これに固定されるものではなく、掌形の傾きを変更するとそれぞれの指の先端付近の位置が画像の上からみてどれが上にあるかにより変わってくる。
しかし、掌形の傾け方を極端にした場合、即ち、図39において、指Y4が下向きになるくらい傾けた場合には、点X4の位置が点X2の位置より画像の上部に位置することとなり、指Y4と指Y2の長さの判定である図32のステップA5−3では、指Y4の方が長いと判定されることとなり、中指の検出がうまくいかないこととなる。
【0030】
このため、図28のステップA1−1による掌形画像の取得においては、掌形の傾きの度合は、左に傾けた場合は、少なくとも親指以外は下向き方向にならず、右に傾けた場合は、少なくとも小指以外は下向き方向にならない範囲とすることとしたものである。
以上説明したように、本実施の形態によれば、中指の先端よりも他の指の先端の方が画像の上部に存在するくらい掌形を大きく傾けても、中指を正しく検出することが可能となる。
したがって、図22に示す掌形認証装置おいて、図22に点線枠で示す部分を、本実施の形態の掌形認証用基準点検出装置で置換することにより、掌形認証における基準点の検出誤りがなくなり、認証性能の劣化を防ぐことが可能となる
なお、本実施の形態の掌形認証用基準点検出装置は、コンピュータによっても実現でき、この場合に、本実施の形態の掌形認証方法は、コンピュータ内のハードディスクなどに格納されるプログラムを、コンピュータが実行することにより行われる。このプログラムは、CD−ROM等の記録場合、あるいは、ネットワークを介したダウンロードにより供給される。
以上、本発明者によってなされた発明を、前記実施の形態に基づき具体的に説明したが、本発明は、前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【0031】
【発明の効果】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明によれば、中指の先端よりも他の指の先端の方が画像の上部に存在するくらい掌形を大きく傾けても、中指を正しく検出することができ、掌形認証における基準点の検出誤りがなくなり、認証性能の劣化を防ぐことが可能となる。
【図面の簡単な説明】
【図1】平面に置かれた掌形を撮影して得られる2つの登録掌形画像を示す写真である。
【図2】登録掌形画像それぞれの登録掌形2値化画像を示す写真である。
【図3】登録掌形2値化画像より、それぞれ中指の先端位置を求める方法を説明するための模式図である。
【図4】登録掌形2値化画像のそれぞれについて、微分などの方法により生成した輪郭掌形画像を示す写真である。
【図5】輪郭掌形画像のそれぞれについて、ハフ変換などの方法により求めた直線近似画像である。
【図6】直線近似画像のそれぞれについて、中指の両サイドの直線を抽出していることを示す画像である。
【図7】登録掌形2値化画像より、中指以外の各指の先端位置を求める方法を説明するための模式図である。
【図8】登録掌形画像それぞれについて、各指の中心線と、回転の中心点を求める方法を説明するための模式図である。
【図9】登録掌形画像の特徴値を算出する方法を説明するための図である。
【図10】登録掌形画像の各指の特徴値をグラフ上に示した図である。
【図11】平面に置かれた掌形を撮影して得られる登録掌形画像と、照合対象の掌形画像とを示す写真である。
【図12】登録掌形2値化画像と、照合対象掌形2値化画像を示す写真である。
【図13】登録掌形2値化画像と、照合対象掌形2値化画像とから、それぞれ中指の先端位置を求める方法を説明するための模式図である。
【図14】登録掌形2値化画像と、照合対象掌形2値化画像のそれぞれについて、微分などの方法により生成した輪郭掌形画像を示す写真である。
【図15】輪郭掌形画像のそれぞれについて、ハフ変換などの方法により求めた直線近似画像である。
【図16】直線近似画像のそれぞれについて、中指の両サイドの直線を抽出していることを示す画像である。
【図17】登録掌形2値化画像と、照合対象掌形2値化画像とから、中指以外の各指の先端位置を求める方法を説明するための模式図である。
【図18】登録掌形2値化画像と、照合対象掌形2値化画像のそれぞれについて、各指の中心線と、回転の中心点を求める方法を説明するための模式図である。
【図19】照合対象の掌形画像の特徴値を算出する方法を説明するための図である。
【図20】照合対象の掌形画像の各指の特徴値をグラフ上に示した図である。
【図21】登録掌形画像の特徴値と、照合対象の掌形画像の特徴値とを用いて、類似度を算出する式を示す図である。
【図22】本発明の前提となる掌形認証方法を実施するための掌形認証装置の概略構成を示すブロック図である。
【図23】図22に示す掌形認証装置における、登録掌形画像の特徴値を算出するまでの処理手順を示すフローチャートである。
【図24】図22に示す掌形認証装置における、登録掌形画像の特徴値を算出するまでの処理手順を示すフローチャートである。
【図25】図22に示す掌形認証装置における、登録掌形画像の特徴値を算出するまでの処理手順を示すフローチャートである。
【図26】図22に示す掌形認証装置における、登録掌形画像の特徴値を算出するまでの処理手順を示すフローチャートである。
【図27】本発明の実施の形態の掌形認証用基準点検出装置の概略構成を示すブロック図である。
【図28】本発明の実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
【図29】本発明の実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
【図30】本発明の実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
【図31】本発明の実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
【図32】本発明の実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
【図33】本発明の実施の形態の掌形認証用基準点検出装置の処理手順を示すフローチャートである。
【図34】本発明の実施の形態の掌形認証用基準点検出方法おいて、使用される画像を示す図である。
【図35】本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
【図36】本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
【図37】本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
【図38】本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
【図39】本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
【図40】本発明の実施の形態の掌形認証用基準点検出方法を説明するための模式図である。
【図41】2つの直線Ln−1とLn−2に対し、同じ距離にある直線を導出する方法を示す図である。
【符号の説明】
1…掌形認証装置、2…掌形認証用基準点検出装置、10…掌形画像取得手段、11…格納手段、12…二値化手段、13…中指先端位置取得手段、14…輪郭掌形画像作成手段、15…中指以外の各指の先端位置取得手段、16…直線近似画像作成手段、17…中指の近似直線抽出手段、18…中指以外の各指の近似直線抽出手段、19…各指の中心線取得手段、20…各特徴値算出手段、21…認証手段、30…指先領域検出手段、31…輪郭画像作成手段、32…直線検出画像作成手段、33…検出した指の中心線取得手段、34…検出した指の先端点取得手段、35…中指の判定手段、1−1,2−1,3−1、5−1…掌形画像、1−2,2−2,3−2,5−2…2値化画像、1−4,2−4,3−4,5−3…輪郭画像、1−5,2−5,3−5…直線近似画像、1−A,1−B,1−C,1−D,2−A,2−B,2−C,2−D,3−A,3−B,3−C,3−D…指の先端、1−A−3,1−B−3,1−C−3,1−D−3,2−A−3,2−B−3,2−C−3,2−D−3,3−A−3,3−B−3,3−C−3,3−D−3,C1,C2,C3,C4…指の中心線、1−A−1,1−A−2,1−B−1,1−B−2,1−C−1,1−C−2,1−D−1,1−D−2,2−A−1,2−A−2,2−B−1,2−B−2,2−C−1,2−C−2,2−D−1,2−D−2,3−A−1,3−A−2,3−B−1,3−B−2,3−C−1,3−C−2,3−D−1,3−D−2,L1−1,L1−2,L2−1,L2−2,L3−1,L3−2,L4−1,L4−2,Ln−1,Ln−2,E1・2,E1・3,E2・4…直線、5−4…直線検出画像、10−a,10−c,10−d,11−a,11−c,11−d…回転の中心点、Y1,Y2,Y3,Y4…指、T1,T2,T3,T4…指の先端点、X1,X2,X3,X4,X1−2,X2−2…交点。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention belongs to the field of personal authentication in which the identity of a person is confirmed based on a palm shape, which is one of the physical characteristics (biometrics) of an individual. The present invention relates to a palm-shape authentication method for acquiring shape features and performing personal authentication.
[0002]
[Prior art]
A palm shape authentication method that uses a non-fixed palm shape image when identifying a person based on a palm shape, which is one of the physical characteristics (Biometrics) of an individual, is known (see below). , See patent literature).
The features of the palm-shaped authentication method described in this patent document are as follows.
(1) The target is a palm-shaped image in which the fingers are stretched and the fingers are aligned in the same direction. If the fingers are not aligned, an error occurs in the rotation correction for correcting the palm tilt.
(2) Palm shape authentication is performed using the distance to the tip of the other finger with reference to the tip position of the middle finger and the change value of the width of the palm shape with reference to the tip position of the middle finger as feature amounts.
[0003]
Prior art documents related to the present invention include the following.
[Patent Document 1]
JP-A-2002-117405 (Title of invention; palm-shape authentication method)
[0004]
[Problems to be solved by the invention]
According to the above-described conventional method, when the degree of opening of the palms of the palms to be compared is different, authentication is performed with palms having different inclinations, and the tip of the other finger is determined from the palm width value and the tip of the middle finger. There is a problem that the accuracy of the distance value to the position is reduced and the performance of palm shape authentication is deteriorated.
In addition, since the palm shape width value is authenticated as a feature amount, a width value obtained by summing the change values of the widths of a plurality of fingers such as a middle finger and an index finger can be used as a feature amount. However, there is also a problem that the accuracy of the authentication is lowered.
Therefore, the present inventors have determined a palm-shaped feature quantity with reference to the tip point of the middle finger, and proposed a palm-shaped authentication method based on this feature quantity (see Japanese Patent Application No. 2003-144240).
In the proposed palm shape authentication method, a palm shape region is detected by examining pixel data values of each row in order from the top of the palm shape image, and the detected position is detected as a tip point of the middle finger.
However, in the proposed palm shape authentication method, when the palm shape is greatly inclined, the tip of the ring finger other than the middle finger and the index finger is located at the upper part of the palm shape image than the middle finger, and the fingers other than the middle finger are erroneously set. Is detected.
In this case, the palm shape authentication is performed with the tip other than the middle finger as the reference point, and an erroneous palm shape feature amount is extracted, and there is a problem that the performance of the palm shape authentication is greatly deteriorated. .
[0005]
The present invention has been made in order to solve the above-mentioned problems of the prior art, and an object of the present invention is to provide a palm-shape authentication that can correctly detect the tip of the middle finger that is a palm-shape authentication reference point. An object of the present invention is to provide a reference point detection method and a reference point detection device for palm shape authentication.
Another object of the present invention is to provide a program for causing a computer to execute the above-described palm-shaped authentication reference point detecting method.
Another object of the present invention is to provide a recording medium on which the above-mentioned program is recorded.
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.
[0006]
[Means for Solving the Problems]
The following is a brief description of an outline of typical inventions disclosed in the present application.
In the present invention, in detecting a reference point for authentication (tip point of the middle finger) necessary for performing personal authentication by palm shape authentication, the center line of each finger is acquired from the palm shape image, and the center line is obtained. The point of intersection between the finger and the fingertip of each finger is set as the tip point of each finger, the longest finger is determined based on the positional relationship between the center line of each finger and the tip point, and the determined finger is determined as the middle finger. It is characterized by.
According to the present invention, the middle finger can be correctly detected even when the palm shape of the other finger is tilted so large that the tip of the other finger is present at the top of the image, rather than the tip of the middle finger. Detection errors are eliminated, and it is possible to prevent deterioration of authentication performance.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for describing the embodiments, components having the same function are denoted by the same reference numerals, and repeated description thereof will be omitted.
[A palm-shaped authentication method as a premise of the present invention]
First, a palm-shape authentication method as a premise of the present invention will be described.
FIG. 1 is a photograph showing two registered palm shape images 1-1 and 2-1 obtained by photographing a palm shape placed on a plane.
The registered palm shape image 1-1 is an image in which the finger is closed, and the registered palm shape image 2-1 is an image in which the finger is widely opened.
FIG. 2 shows the registered palm-shaped binarized images 1-2 and 2-2 in which the palm-shaped portions of the registered palm-shaped images 1-1 and 2-1 are extracted to be white and the other portions are black. It is a photograph shown.
As a method of the binarization, the background is set to blue, green, black, or the like having no red component of light, and only the red component is extracted from the registered palm shape images 1-1 and 2-1. And a method in which a portion having no red component is made black.
The binarization is not limited to the above method, and another method may be adopted, for example, such as extraction using the characteristics of the three primary colors of light in the palm shape.
FIGS. 3A and 3B are schematic diagrams 1-3 and 2-3 for explaining a method of determining the tip position of the middle finger from the registered palm shape binary images 1-2 and 2-2, respectively. It is shown that the tips 1-B and 2-B of the middle finger are detected by sequentially confirming the presence or absence of white pixels in the horizontal direction from the top of the structured images 1-2 and 2-2 downward.
[0008]
FIG. 4 is a photograph showing contour palm-shaped images 1-4 and 2-4 generated by a method such as differentiation for each of the registered palm-shaped binary images 1-2 and 2-2.
FIG. 5 shows that the contour palm-shaped images 1-4 and 2-4 are approximated to the contour straight lines on both sides of each finger by extracting shapes close to straight lines by a method such as Hough transform. It is the approximate straight line images 1-5 and 2-5 shown in FIG.
FIG. 6 illustrates the approximate straight lines at both sides of the middle finger by extracting the approximate straight lines closest to both sides of the tip 1-B and 2-B of the middle finger for each of the straight line approximate images 1-5 and 2-5. It is an image 1-6 and 2-6 which show that a straight line is extracted.
FIG. 7 shows the registered palm shape of each of the straight-line approximate images 1-5 and 2-5 outside the straight lines on both sides of the middle finger of the images 1-6 and 2-6 in the same manner as 1-3 and 2-3. By sequentially confirming the presence or absence of white pixels in the horizontal direction from the top of the binarized images 1-2 and 2-2, the tips 1-A and 2-A of the index finger and the tip 1-C of the ring finger are checked. , 2-C, detecting the tip 1-D, 2-D of the little finger, and approximating straight lines 1-A-1, 1-A-2, 1-B-1, 1-B on both sides of each finger. B-2, 1-C-1, 1-C-2, 1-D-1, 1-D-2, 2-A-1, 2-A-2, 2-B-1, 2-B- It is a schematic diagram 1-7, 2-7 for demonstrating extracting 2, 2-C-1, 2-C-2, 2-D-1, and 2-D-2.
[0009]
FIG. 8 is a straight line (hereinafter referred to as the center line of the index finger) 1-A-3 at the same distance from the approximate straight lines 1-A-1 and 1-A-2 on both sides of the index finger in the schematic diagram 1-7. A straight line 1-B-3 at the same distance from the approximate straight lines 1-B-1 and 1-B-2 on both sides of the middle finger, and an approximate straight line 1 on both sides of the ring finger From -C-1, 1-C-2, a straight line (hereinafter referred to as a center line of a ring finger) 1-C-3 at the same distance and approximate straight lines 1-D-1, 1-D on both sides of the child finger. 2, the approximate straight line 2 on both sides of the index finger in the schematic diagrams 1-8 and 2-7 obtained with the straight line 1-D-3 (hereinafter referred to as the center line of the little finger) at the same distance. From -A-1, 2-A-2, the center line 2-A-3 of the index finger at the same distance and the approximate straight lines 2-B-1, 2 on both sides of the middle finger. The center straight line 2-B-3 of the middle finger located at the same distance from B-2 and the center straight line 2-B of the ring finger located at the same distance from the approximate straight lines 2-C-1 and 2-C-2 on both sides of the ring finger. Schematic diagrams 2-8 in which C-3 and the center straight line 2-D-3 of the little finger at the same distance are obtained from the approximate straight lines 2-D-1 and 2-D-2 on both sides of the child finger, and 10-8 is a schematic diagram 10-8 showing a drawing in which both the middle finger of the schematic diagrams 1-8 and the middle finger of the schematic diagrams 2-8 are perpendicular to each other, and both middle fingers are overlapped.
Here, that both the middle finger of the schematic diagram 1-8 and the middle finger of the schematic diagram 2-8 are vertical means that the center line of the middle finger of each schematic diagram is parallel to the side P of each schematic diagram. Means
In addition, the middle finger of the schematic diagram 1-8 and the middle finger of the schematic diagram 2-8 are set to be vertical, and the superposition of both middle fingers means that the center line of the middle finger of each schematic diagram is matched and This means that the positions of the tips of the middle fingers in the figure are matched.
[0010]
In the schematic diagram 10-8, a point 10-a is an intersection of the straight line 1-A-3 and the straight line 2-A-3, and is a center point of the rotation of the index finger.
Similarly, point 10-c is the intersection of line 1-C-3 and line 2-C-3, the center point of the rotation of the ring finger, and point 10-d is line 1-D-3. This is the intersection with the straight line 2-D-3, and is the center point of the rotation of the little finger.
FIG. 9 is a schematic diagram in the case where the fingers in the schematic diagrams 2-8 are rotated around the points 10-a, 10-c, and 10-d so that the fingers are vertical. FIG. 7 is a schematic diagram showing the width change value of each finger and the distance to points 10-a, 10-c, and 10-d with the number of pixels of the image as a unit based on the tip of the image.
FIG. 10 is a diagram showing, on a graph, the width change value of each finger and points 10-a, 10-c, and 10-d from FIG.
FIG. 10 shows the width change value of each finger and the points 10-a, 10-c, and 10-3 by sequentially checking the presence or absence of a white pixel in the horizontal direction from the top of the schematic diagram of FIG. It is a figure which shows the result of having detected -d.
11-A is the width change value of the index finger, 11-B is the width change value of the middle finger, 11-C is the width change value of the ring finger, 11-D is the width change value of the little finger, and 13-a is the index finger from the tip of the middle finger. 13-c is the distance from the tip of the middle finger to the tip of the ring finger, 13-d is the distance from the tip of the middle finger to the tip of the child finger, and 12-a is the center point of the rotation of the index finger. 10-a, 14-a is the distance from the tip of the middle finger, 12-c is the center point 10-c of rotation of the ring finger, 14-c is the distance from the tip of the middle finger, 12-d Indicates the center point 10-d of the rotation of the child finger, 14-d indicates the distance from the tip of the middle finger, and these are the characteristic values of the registered palm shape image.
[0011]
FIG. 11 is a photograph showing two palm shape images 1-1 and 3-1 obtained by photographing a palm shape placed on a plane. The palm shape image 1-1 indicates a registered palm shape image, and the palm shape image 3-1 indicates a palm shape image to be collated.
FIGS. 12 to 20 are diagrams for explaining the same processes as those in FIGS. 2 to 10. As a result, the width change value 21-A of the index finger and the middle finger are used as the characteristic values of the palm shape image 3-1 to be compared. Width change value 21-B, ring finger width change value 21-C, little finger width change value 21-D, distance 23-a from the tip of the middle finger to the tip of the index finger, distance from the tip of the middle finger to the tip of the ring finger 23-c, distance 23-d from the tip of the middle finger to the tip of the child finger, distance 24-a from the tip of the middle finger to the center point 20-a of the rotation of the index finger, center point 20 of the rotation of the ring finger from the tip of the middle finger The distance 24-c from the tip of the middle finger to the center point 20-d of the rotation of the child finger is calculated. These become feature values of the palm shape image to be collated.
[0012]
In the palm shape authentication method which is a premise of the present invention, a similarity is obtained using the characteristic value of the registered palm shape image 2-1 and the characteristic value of the palm shape image 3-1 to be compared, and based on the similarity, Perform palm shape authentication.
FIG. 21 is a diagram illustrating an expression for calculating the similarity using the feature value of the registered palm shape image 2-1 and the feature value of the palm shape image 3-1 to be compared.
Expression 501 is the mean square error of the width change value 11-B of the middle finger of the registered palm shape 2-1 and the width change value 21-B of the middle finger of the palm shape 3-1 to be compared.
Equation 502 is the mean square error of the width change value 11-A of the forefinger of the registered palm shape 2-1 and the width change value 21-A of the forefinger of the palm shape 3-1 to be compared.
Equation 503 is the mean square error of the width change value 11-C of the ring finger of the registered palm shape 2-1 and the width change value 21-C of the ring finger of the palm shape 3-1 to be compared.
Equation 504 is the mean square error of the width change value 11-D of the child finger of the registered palm shape 2-1 and the width change value 21-D of the child finger of the palm shape 3-1 to be compared.
Expression 505 is the difference between the distance 13-a from the tip of the middle finger to the tip of the index finger of the registered palm shape 2-1 and the distance 23-a from the tip of the middle finger to the tip of the index finger of the palm shape 3-1 to be compared. It is an absolute value.
The expression 506 is the difference between the distance 13-c from the tip of the middle finger to the tip of the ring finger and the distance 23-c from the tip of the middle finger to the tip of the ring finger of the palm shape 3-1 to be compared. It is an absolute value.
The expression 507 represents the distance 13-d from the tip of the middle finger to the tip of the child finger of the registered palm shape 2-1 and the distance 23-d from the tip of the middle finger to the tip of the child finger of the palm shape 3-1 to be compared. The absolute value of the difference.
[0013]
Formula 508 is a distance 14-a from the tip of the middle finger of the registered palm shape 2-1 to the center point of the rotation of the forefinger and the distance from the tip of the middle finger of the palm shape 3-1 to be compared to the center point of the rotation of the forefinger. The absolute value of the difference 24-a.
Expression 509 is obtained by calculating the distance 14-c from the tip of the middle finger of the registered palm shape 2-1 to the center of rotation of the ring finger and the distance from the tip of the middle finger of the palm shape 3-1 to be compared to the center of rotation of the ring finger. 24-c is the absolute value of the difference.
The expression 510 represents the distance 14-d from the tip of the middle finger of the registered palm shape 2-1 to the center point of the rotation of the child finger and the distance from the tip of the middle finger of the palm shape 3-1 to be compared to the center point of the rotation of the child finger. Is the absolute value of the difference between the distances 24-d.
Formula 511 is a formula that gives weights w1 to w10 to the values of formulas 501 to 510, respectively, and determines that the sum thereof is the similarity between the registered palm shape 2-1 and the palm shape 3-1 to be compared. It is.
By providing a threshold value for the similarity in Expression 511, it is determined whether the person in the palm shape image 3-1 to be compared is the same as the person in the registered palm shape image 2-1.
It is necessary to set optimal values for the weights and the thresholds based on empirical values.
In addition, when any one of the values of Equations 501 to 510 exceeds a preset threshold value, the person may be determined to be a different person.
[0014]
FIG. 22 is a block diagram showing a schematic configuration of a palm-shape authentication device for implementing a palm-shape authentication method as a premise of the present invention.
As shown in FIG. 1, a palm-shape authentication apparatus 1 for implementing the palm-shape authentication method described above includes a palm-shape image acquisition unit 10, a storage unit 11, a binarization unit 12, and a middle finger tip position acquisition unit. 13, a contour palm shape image creating means 14, a tip position acquiring means 15 for each finger other than the middle finger, a straight line approximate image creating means 16, an approximate straight line extracting means 17 for the middle finger, and an approximate straight line for each finger other than the middle finger It has an extracting unit 18, a center line acquiring unit 19 for each finger, each characteristic value calculating unit 20, and an authentication unit 21.
FIGS. 23 to 26 are flowcharts showing a processing procedure until the feature value of the registered palm shape image is calculated in the palm shape authentication device 1 shown in FIG.
Hereinafter, a description will be given of a processing procedure until the feature value of the registered palm shape image is calculated in the palm shape authentication device 1 for performing the palm shape authentication method described above.
[0015]
First, the palm shape image acquiring means 10 acquires the palm shape image 1-1 with the finger closed and the palm shape image 2-1 with the finger open (step 101).
The palm shape image 1-1 and the palm shape image 2-1 with the finger opened are stored in the storage unit 11 as registered palm shape images.
Next, the binarization means 12 binarizes the palm-shaped image 1-1 and the palm-shaped image 2-1 such that the palm-shaped part is white and the parts other than the palm-shaped are black, and each of them is a registered palm-shaped binary. Images 1-2 and 2-2 are set (step 102).
Next, the middle finger tip position obtaining means 13 obtains the middle finger tip positions 1-B and 2-B from the registered palm shape binarized images 1-2 and 2-2 (step 103).
In the present embodiment, the presence or absence of horizontal white pixels is sequentially checked downward from the top of the binarized image, and if there is a predetermined number of continuous white pixels, it is determined to be the tip position of the middle finger.
Next, the contour palm shape image creating means 14 creates the contour palm shape images 1-4 and 2-4 from the registered palm shape binarized images 1-2 and 2-2 by a method such as differentiation (step). 104).
Next, the contour approximation image generation unit 16 approximates the contours on both sides of each finger from the contour palm-shaped images 1-4 and 2-4 to a straight line by a method such as Hough transform, thereby obtaining a straight line approximation image 1-5. , 2-5 (step 105).
[0016]
Next, an approximate straight line 1-B-1 located closest to both sides of the tip 1-B and 2-B of the middle finger from the approximate straight line images 1-5 and 2-5 by the approximate straight line extracting means 17 of the middle finger. 1-B-2, 2-B-1, and 2-B-2 are extracted (step 106).
Next, the tip position acquisition means 15 for each finger other than the middle finger, for each of the straight line approximate images 1-5 and 2-5, for the outside of the straight lines on both sides of the middle finger in the images 1-6 and 2-6, By confirming the presence or absence of white pixels in the horizontal direction sequentially downward from the top of the registered palm-shape binary images 1-2 and 2-2 in the same manner as in 3, 2-3, the tip of the index finger 1-A, 2-A, the tip 1-C of the ring finger and the tip 1-D, 2-D of the little finger of 2-C are detected (step 107).
Next, the approximate straight line extracting means 18 for each finger other than the middle finger detects the tips 1-A and 2-A of the index finger, the tips 1-C and 2-C of the ring finger, and the tips 1-D and 2-D of the little finger. Thus, approximate straight lines 1-A-1, 1-A-2, 1-B-1, 1-B-2, 2-B-2, 2-C-1, 2-C- on both sides of each finger. 2, 2-D-1 and 2-D-2 are extracted (step 108).
[0017]
Next, the center line acquiring means 19 of each finger uses the approximate straight lines 1-A-1 and 1-A-2 on both sides of the index finger to set the center line 1-A-3 of the index finger and the two fingers of the middle finger at the same distance. From the approximate straight lines 1-B-1 and 1-B-2 on the side, from the center line 1-B-3 of the middle finger at the same distance and from the approximate straight lines 1-C-1 and 1-C-2 on both sides of the ring finger From the center line 1-C-3 of the ring finger at the same distance and the approximate straight lines 1-D-1 and 1-D-2 on both sides of the child finger, the center line 1-D-3 of the little finger at the same distance is obtained. Acquire (Step 109).
Also, from the approximate straight lines 2-A-1 and 2-A-2 on both sides of the index finger, the center line 2-A-3 of the index finger at the same distance and the approximate straight lines 2-B-1 and 2-B-2 on both sides of the middle finger. The center line 2-B-3 of the middle finger located at the same distance from -B-2, and the center line 2- of the ring finger located at the same distance from the approximate straight lines 2-C-1 and 2-C-2 on both sides of the ring finger. C-3, the center line 2-D-3 of the little finger at the same distance is obtained from the approximate straight lines 2-D-1 and 2-D-2 on both sides of the child finger (step 110).
[0018]
Next, each of the characteristic value calculating means 20 causes the middle finger of the schematic diagram 1-8 and the middle finger of the schematic diagram 2-8 to be perpendicular to each other, and superimposes both middle fingers to form a straight line 1-A-3 and a straight line 2 The point of intersection between -A-3 is point 10-a, the point of intersection of line 1-C-3 and line 2-C-3 is point 10-c, and the point of intersection between line 1-D-3 and line 2-D-3 is The intersection is set as a point 10-d (step 111).
In addition, when each finger in the schematic diagram 2-8 is rotated around the points 10-a, 10-c, and 10-d so as to be vertical, each finger is referred to the tip 2-B of the middle finger. , Width change values 11-A, 11-B, 11-C, 11-D, distances 13-a from the tip 2-B of the middle finger to the tips 2-A, 2-C, 2-D of the other fingers, 13-c, 13-d, distances 14-a, 14-c, 14-d from the tip 2-B of the middle finger to the points 10-a, 10-c, 10-d are calculated in units of the number of pixels, This is used as the characteristic value of the registered palm shape image (step 112).
Note that, in the above-described flowchart, the processing procedure for calculating the characteristic value of the palm-shaped image 3-1 to be compared in the palm-shaped authentication apparatus 1 is the same as that in the flowchart described above. 1 and the same processing is performed in the following, so that the description will not be repeated.
[0019]
[Embodiment of the present invention]
In the palm shape authentication method which is the premise of the present invention described above, the palm shape region is detected by examining the pixel data values of each row in order from the top of the palm shape image, and the detected position is detected as the tip point of the middle finger, Based on the tip of the middle finger, a palm-shaped feature quantity is obtained, and the identity of the person is palm-shaped based on this feature quantity.
However, in the palm shape authentication method which is a premise of the present invention described above, when the palm shape is greatly inclined, the tip of the ring finger other than the middle finger, the tip of the index finger is located above the palm shape image than the middle finger, and other than the middle finger, Is detected as the middle finger.
The present invention is intended to accurately detect the tip of the middle finger even in such a case.
FIG. 27 is a block diagram illustrating a schematic configuration of a palm-shaped authentication reference point detection device according to an embodiment of the present invention.
As shown in the figure, the palm-shaped authentication reference point detection device 2 of the present embodiment includes a fingertip region detection unit 30, a contour image generation unit 31, a straight line detection image generation unit 32, and a center of the detected finger. It has a line acquisition unit 33, a tip end point acquisition unit 34 for the detected finger, and a middle finger determination unit 35.
[0020]
28 to 33 are flowcharts showing the processing procedure of the palm-shaped authentication reference point detecting device of the present embodiment.
Hereinafter, a method of detecting a reference point for palm shape authentication according to the present embodiment will be described.
First, a palm-shaped image (5-1 in FIG. 34) is acquired by the palm-shaped image acquiring means 10 (step A1-1).
Note that the palm shape image 5-1 has a degree of inclination of the palm shape that is not misjudged when comparing in the comparison of the lengths of the fingers described later. When tilted to the right instead of in the downward direction, the range is such that at least the little finger is not in the downward direction.
FIG. 34 is a diagram showing an image used in the palm-shaped authentication reference point detecting method according to the present embodiment.
Next, the binarizing means 12 generates a binarized image (5-2 in FIG. 34) in which the palm shape is white and the other is black (step A1-2).
As a method of the binarization, the background is set to blue, green, black, or the like having no red component of light, and only the red component is extracted from the palm-shaped image 5-1. The portion having the red component is white and has no red component. The method of blackening the part was adopted.
Note that the binarization method is not limited to the method of extracting only the red component, but may employ other methods such as, for example, extracting with the characteristics of the three primary colors of light in the palm shape. Is also good.
[0021]
Next, the contour image creating means 31 generates a contour image of the palm-shaped image (5-3 in FIG. 34) from the binarized image 5-2 by a method such as differentiation processing (step A1-3). .
Next, a straight line is detected from the contour image 5-3 by Hough transform or the like, and thereby a straight line detected image (5-4 in FIG. 34) is generated (step A1-4).
The straight line detection image 5-4 may employ another method other than the Hough transform.
In the straight line detection, a plurality of straight lines are respectively detected on both sides of each finger according to the algorithm of the Hough transform, but in step A1-6, the straight lines on both sides of each finger are replaced with each finger of the fingers. Will be selected only one straight line closest to the end point.
Next, as shown in S1 of FIG. 35, the fingertip area detecting means 30 checks the pixel data value of each row from the upper part of the binarized image 5-2, and determines that the pixel data value is equal to or larger than a predetermined white value. It is determined that it is near the tip of one of the five fingers (referred to as finger Y1) (the point near the tip is defined as N1 point) (step A1-5).
Next, among the straight lines on both sides of the finger Y1 in the straight line detection image 5-4, the straight lines closest to the point N1 (L1-1 and L1-2 in FIG. 35) by the detected finger center line acquisition unit 33. (Step A1-6), and a straight line having the same distance from the straight lines L1-1 and L1-2 on both sides is obtained, and this is set as the center line of the finger Y1 (C1 in FIG. 35) (step A1-6). A2-1).
FIG. 35 shows the finger Y1 obtained by examining the pixel data value of each row from the top of the binarized image 5-2, the points N1 near the tip, and the finger Y1 closest to the point N1. FIG. 3 is a schematic diagram showing straight lines L1-1 and L1-2 on both sides of FIG. 1, a center line C1 of the finger Y1, and a tip point T1 of the finger Y1.
[0022]
Here, in step A1-5, it is determined that the point N1 is near the tip of the finger on condition that the number of white values is equal to or more than a predetermined number of white values. If a white portion exists due to noise or the like in an area other than the palm shape of the digitized image 5-2, it may be erroneously recognized as the tip of a finger. That is, the judgment is made based on the existence.
Therefore, when such noise can be prevented from being present in the binarized image 5-2 by image processing of a median filter or the like, the number of white values for recognizing the tip of the finger is one pixel. It is good. The same applies to the number of pixels of the white value for detecting the vicinity of the tip of the finger in later steps A2-3, A3-1, and A4-1.
In step A2-1, the center line C1 can be derived by a geometric method, and the other steps A2-5, A3-3, and A4-3 also derive the center line by the same method. It is possible. Specifically, this method will be described with reference to FIG. 41. However, this method is an example, and another method can be used.
Next, the point of intersection of the center line C1 of the finger Y1 and the contour line near the tip of the finger Y1 is set as the tip point of the finger Y1 (T1 in FIG. 36) by the detected finger tip point acquisition means 34 (step A2). 2).
[0023]
Next, as shown in S2 of FIG. 36, the portion below the point N1 of the binarized image 5-2 by the fingertip region detecting means 30 is applied to portions other than the finger Y1 (L1-1 and L1-2). The pixel data value of each row is examined for the portion other than the sandwiched portion), and since it is equal to or more than the predetermined white value, any one of the remaining four fingers except finger Y1 (referred to as finger Y2) It is determined that the point is near the tip (point near this tip is point N2) (step A2-3).
Next, the detected center line acquisition unit 33 of the finger detects, among the straight lines on both sides of the finger Y2 in the straight line detection image 5-4, straight lines closest to the point N2 (L2-1 and L2-2 in FIG. 36). (Step A2-4), and a straight line having the same distance from the straight lines L2-1 and L2-2 on both sides is obtained, and this is set as the center line of the finger Y2 (C2 in FIG. 36) (Step A2). A2-5).
Next, the detected finger tip point acquisition means 34 sets the intersection of the center line C2 of the finger Y2 and the contour near the tip of the finger Y2 as the tip point of the finger Y2 (T2 in FIG. 36) (step A2-). 6).
FIG. 36 shows the finger Y2 obtained by examining the pixel data value of each row from the upper part of the binarized image 5-2, the point N2 near the tip, and the finger Y2 closest to the point N2. It is a figure which shows the straight line L2-1 of both sides, L2-2, the center line C2 of the finger Y2, and the front-end | tip point T2 of the finger Y2.
[0024]
Next, as shown in S3 of FIG. 37, the fingertip area detecting means 30 detects a portion (L1-1, L1) other than the finger Y1 and the finger Y2 for the portion below the point N2 of the binarized image 5-2. -2, and portions other than the portions sandwiched by L2-1 and L2-2), the pixel data values of the respective rows are checked. Is determined to be near the tip of a finger (referred to as finger Y3) of any of the remaining three fingers (the point near the tip is referred to as point N3) (step A3-1).
Next, the detected center line acquisition unit 33 detects the straight line closest to the point N3 among the straight lines on both sides of the finger Y3 in the straight line detection image 5-4 (L3-1 and L3-2 in FIG. 37). (Step A3-2), and a straight line at the same distance from the straight lines L3-1 and L3-2 on both sides is obtained, and this is set as the center line of the finger Y3 (C3 in FIG. 37) (step A3). A3-3).
Next, the detected finger tip point acquiring means 34 sets the intersection of the center line C3 of the finger Y3 and the contour line near the tip of the finger Y3 as the tip point of the finger Y3 (T3 in FIG. 37). 4).
FIG. 37 shows the finger Y3 obtained by examining the pixel data value of each row from the upper part of the binarized image 5-2, the points N3 near the tip thereof, and the finger Y3 closest to the point N3. It is a figure which shows the straight line L3-1 of both sides, L3-2, the center line C3 of the finger Y3, and the front-end | tip point T3 of the finger Y3.
[0025]
Next, as shown in S4 of FIG. 38, the fingertip region detecting means 30 detects a portion (L1-1, L1-3) other than the fingers Y1, Y2, and Y3 for a portion below the point N3 of the binarized image 5-2. The pixel data value of each row is checked for the portion sandwiched by L1-2, the portion sandwiched by L2-1 and L2-2, and the portion other than the portion sandwiched by L3-1 and L3-2). The number of the remaining white fingers is equal to or larger than the predetermined number of white values. Is determined) (step A4-1).
Next, the center line acquisition unit 33 of the detected finger detects the straight line closest to the point N4 among the straight lines on both sides of the finger Y4 in the straight line detection image 5-4 (L4-1 and L4-2 in FIG. 38). (Step A4-2), and a straight line at the same distance from the straight lines L4-1 and L4-2 on both sides is obtained, and this is set as the center line of the finger Y4 (C4 in FIG. 38) (Step A4-2). A4-3).
Next, the point of intersection of the center line C4 of the finger Y4 and the contour line near the tip of the finger Y4 is set as the tip point of the finger Y4 (T4 in FIG. 38) by the detected finger tip point acquisition means 34 (step A4). 4).
FIG. 38 shows the finger Y4 obtained by examining the pixel data value of each row from the upper part of the binarized image 5-2, the point N4 near the tip, and the finger Y4 closest to the point N4. The straight lines L4-1 and L4-2 on both sides, the center line C4 of the finger Y4, and the tip point T4 of the finger Y4 are shown.
[0026]
Next, the middle finger determination means 35 determines a combination of adjacent fingers (for example, as shown in FIG. 39, a distance relationship between the tip points T1, T2, T3, and T4 of each finger) for four fingers Y1 to Y4. , A combination of the finger Y1 and the finger Y3, and a combination of the finger Y2 and the finger Y4) (step A5-1), and for the combination of the fingers, it is determined which is the longer finger by the following steps.
That is, as shown in FIG. 39, for the fingers Y2 and Y4, a straight line (intermediate straight line) at the same distance from the respective center lines C2 and C4 is defined as E2 · 4. The perpendiculars are lowered from T2 and T4, and their intersections are defined as X2 and X4, respectively (step A5-2).
Next, depending on which of the intersections X2 and X4 is at the position on the image, which of the tip T2 and the tip T4 is farther from the base of the finger, that is, which of the finger Y2 and the finger Y4 Is longer (step A5-3). In the present embodiment, it is determined that the finger Y2 is longer.
[0027]
Next, for the fingers Y1 and Y3, a straight line (intermediate straight line) at the same distance from the respective center lines C1 and C3 is defined as E1 · 3. The intersections are defined as X1 and X3, respectively (step A6-1).
Next, depending on which of the intersections X1 and X3 is at a position on the image, which of the tip T1 and the tip T3 is farther from the base of the finger, that is, which of the finger Y1 and the finger Y3 Is longer (step A6-2). In the present embodiment, it is determined that the finger Y1 is longer.
In FIG. 39, a straight line E2.4 at an equal distance from the center lines C2 and C4, a straight line E1.3 at an equal distance from the center lines C1 and C3, and a straight line E2.4 from the tip point T4. The intersection X4 with the perpendicular, the intersection X2 with the perpendicular drawn from the tip T2 to the straight line E2.4, the intersection X1 with the perpendicular drawn from the tip T1 to the straight line E1.3, and the straight from the tip T3. It is a schematic diagram which shows the intersection X3 with the perpendicular drawn down to E1.3.
[0028]
Next, as shown in FIG. 40, the finger Y2 determined to be long in step A5-3 and the finger Y1 determined to be long in step A6-2 have the same distance from the center lines C2 and C1. Is a straight line (intermediate straight line), E1 · 2. On the other hand, a perpendicular line is drawn down from the tip points T2 and T1 of the fingers, and their intersections are X2-2 and X1-2 (step A6-3). ).
Next, depending on which of the intersections X2-2 and X1-2 is at a position on the image, which of the tip point T2 and the tip point T1 is farther from the base of the finger, that is, the finger Y2 It is determined which finger Y1 is longer (step A6-4). In the present embodiment, it is determined that the finger Y2 is longer.
Next, the longest finger is set as the middle finger, and the tip point is set as the reference point for palm shape authentication (step A6-5). In the present embodiment, the finger Y2 is determined to be the longest, and the tip point of the finger Y2 becomes the reference point for palm shape authentication.
FIG. 40 shows an intersection X1-2 between a straight line E1.2 at an equal distance from the center lines C1 and C2, a perpendicular drawn from the tip point T1 to a straight line E1.2, and a straight line E1 · 2 from the tip point T2. FIG. 2 is a schematic diagram showing an intersection X2-2 with a perpendicular drawn down to 2;
[0029]
FIG. 41 is a diagram showing a method for deriving straight lines (intermediate straight lines) at the same distance from two straight lines Ln-1 and Ln-2, and FIG. 41 (a) shows that both straight lines are not parallel, FIG. 4B shows a case where both straight lines are parallel and do not cross each other. In the case of FIG. 41 (a), when the intersection of the two straight lines is P, and the points at the same distance d from the point P are P1 and P2, respectively, the middle point connecting the points P1 and P2 is the point P3. And A straight line connecting the points P and P3 is a straight line Cn located at the same distance from both straight lines.
In the case of FIG. 41 (b), there is no intersection between the two straight lines, so the above-mentioned method is not used. That is, an arbitrary point on the straight line Ln-1 is set as P1, an arbitrary point on the straight line Ln-2 is set as P2, and a middle point connecting both points is set as P3.
A straight line parallel to the straight line Ln-1 and the straight line Ln-2 passing through the point P3 becomes a straight line Cn at the same distance from both straight lines.
In the present embodiment, the relationship between the fingers Y1 to Y4 is such that Y1 is a ring finger, Y2 is a middle finger, Y3 is a little finger, and Y4 is a forefinger. When the inclination of is changed, the position near the tip of each finger changes depending on which is above when viewed from above the image.
However, when the palm shape is extremely inclined, that is, when the finger Y4 is tilted downward in FIG. 39, the position of the point X4 is located at the top of the image from the position of the point X2. In step A5-3 in FIG. 32, which is the determination of the lengths of the fingers Y4 and Y2, the finger Y4 is determined to be longer, and the detection of the middle finger is not successful.
[0030]
For this reason, in the acquisition of the palm shape image in step A1-1 in FIG. 28, the degree of the inclination of the palm shape is such that when tilted to the left, at least other than the thumb is not directed downward, and when tilted to the right, , At least the area other than the little finger does not fall in the downward direction.
As described above, according to the present embodiment, it is possible to correctly detect the middle finger even when the tip of the other finger is tilted so much that the tip of the other finger exists at the top of the image than the tip of the middle finger. It becomes.
Therefore, in the palm-shape authentication device shown in FIG. 22, by replacing the portion shown by the dotted frame in FIG. 22 with the palm-shape authentication reference point detecting device of the present embodiment, the reference point detection in palm-shape authentication is performed. It is possible to eliminate errors and prevent deterioration of authentication performance. The reference point detecting device for palm shape authentication according to the present embodiment can also be realized by a computer. The method is performed by causing a computer to execute a program stored on a hard disk or the like in the computer. This program is supplied in the case of recording on a CD-ROM or the like, or by downloading via a network.
As described above, the invention made by the inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and can be variously modified without departing from the gist of the invention. Needless to say,
[0031]
【The invention's effect】
The following is a brief description of an effect obtained by a representative one of the inventions disclosed in the present application.
According to the present invention, the middle finger can be detected correctly even if the palm shape of the other finger is tilted so large that the tip of the other finger is present at the top of the image, rather than the tip of the middle finger. Detection errors are eliminated, and it is possible to prevent deterioration of authentication performance.
[Brief description of the drawings]
FIG. 1 is a photograph showing two registered palm shape images obtained by photographing a palm shape placed on a plane.
FIG. 2 is a photograph showing a registered palm shape binarized image of each registered palm shape image.
FIG. 3 is a schematic diagram for explaining a method of obtaining a tip position of a middle finger from a registered palm shape binarized image.
FIG. 4 is a photograph showing a contour palm shape image generated by a method such as differentiation for each of the registered palm shape binarized images.
FIG. 5 is a straight-line approximation image obtained by a method such as Hough transform for each of the contour palm-shaped images.
FIG. 6 is an image showing that straight lines on both sides of the middle finger are extracted from each of the straight line approximate images.
FIG. 7 is a schematic diagram for explaining a method of obtaining the tip position of each finger other than the middle finger from the registered palm shape binarized image.
FIG. 8 is a schematic diagram for explaining a method of obtaining a center line of each finger and a center point of rotation for each of the registered palm-shaped images.
FIG. 9 is a diagram for explaining a method of calculating a feature value of a registered palm figure image.
FIG. 10 is a diagram showing characteristic values of each finger of a registered palm shape image on a graph.
FIG. 11 is a photograph showing a registered palm shape image obtained by photographing a palm shape placed on a plane and a palm shape image to be collated.
FIG. 12 is a photograph showing a registered palm shape binarized image and a collation target palm shape binarized image.
FIG. 13 is a schematic diagram for explaining a method of calculating the tip position of the middle finger from the registered palm shape binarized image and the collation target palm shape binarized image.
FIG. 14 is a photograph showing a contour palm shape image generated by a method such as differentiation for each of a registered palm shape binarized image and a matching palm shape binarized image.
FIG. 15 is a straight line approximate image obtained by a method such as Hough transform for each of the contour palm-shaped images.
FIG. 16 is an image showing that straight lines on both sides of the middle finger are extracted for each of the straight line approximate images.
FIG. 17 is a schematic diagram for explaining a method of obtaining the tip positions of fingers other than the middle finger from a registered palm shape binarized image and a matching palm shape binarized image.
FIG. 18 is a schematic diagram for explaining a method of obtaining a center line of each finger and a center point of rotation for each of a registered palm shape binarized image and a matching palm shape binarized image.
FIG. 19 is a diagram for explaining a method of calculating a feature value of a palm shape image to be collated.
FIG. 20 is a diagram showing, on a graph, characteristic values of each finger of a palm shape image to be collated.
FIG. 21 is a diagram illustrating an equation for calculating a similarity using a feature value of a registered palm shape image and a feature value of a palm shape image to be collated.
FIG. 22 is a block diagram showing a schematic configuration of a palm-shape authentication device for implementing a palm-shape authentication method as a premise of the present invention.
23 is a flowchart showing a processing procedure in the palm shape authentication device shown in FIG. 22 until a feature value of a registered palm shape image is calculated.
24 is a flowchart showing a processing procedure up to calculating a characteristic value of a registered palm shape image in the palm shape authentication device shown in FIG. 22.
FIG. 25 is a flowchart showing a processing procedure for calculating a characteristic value of a registered palm shape image in the palm shape authentication device shown in FIG. 22;
FIG. 26 is a flowchart showing a processing procedure for calculating a feature value of a registered palm shape image in the palm shape authentication device shown in FIG. 22;
FIG. 27 is a block diagram showing a schematic configuration of a palm-shaped authentication reference point detection device according to an embodiment of the present invention.
FIG. 28 is a flowchart showing a processing procedure of the palm-shaped authentication reference point detecting device according to the embodiment of the present invention.
FIG. 29 is a flowchart showing a processing procedure of the palm-shaped authentication reference point detecting device according to the embodiment of the present invention.
FIG. 30 is a flowchart showing a processing procedure of the palm-shaped authentication reference point detecting device according to the embodiment of the present invention.
FIG. 31 is a flowchart showing a processing procedure of the palm-shaped authentication reference point detecting device according to the embodiment of the present invention.
FIG. 32 is a flowchart showing a processing procedure of the palm-shaped authentication reference point detecting device according to the embodiment of the present invention.
FIG. 33 is a flowchart showing a processing procedure of the palm-shaped authentication reference point detecting device according to the embodiment of the present invention.
FIG. 34 is a diagram showing an image used in the palm shape authentication reference point detecting method according to the embodiment of the present invention.
FIG. 35 is a schematic diagram for explaining a palm-shaped authentication reference point detection method according to an embodiment of the present invention.
FIG. 36 is a schematic diagram for explaining a palm shape authentication reference point detecting method according to an embodiment of the present invention.
FIG. 37 is a schematic diagram for explaining a palm-shape authentication reference point detecting method according to an embodiment of the present invention.
FIG. 38 is a schematic diagram for describing a palm-shaped authentication reference point detection method according to an embodiment of the present invention.
It is a schematic diagram for demonstrating the reference point detection method for palm-shape authentication of embodiment of this invention.
FIG. 39 is a schematic diagram for explaining a palm-shape authentication reference point detection method according to an embodiment of the present invention.
FIG. 40 is a schematic diagram for explaining a palm-shaped authentication reference point detection method according to an embodiment of the present invention.
FIG. 41 is a diagram showing a method for deriving straight lines at the same distance from two straight lines Ln-1 and Ln-2.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... palm shape authentication device, 2 ... palm shape authentication reference point detection device, 10 ... palm shape image acquisition means, 11 ... storage means, 12 ... binarization means, 13 ... middle finger tip position acquisition means, 14 ... contour palm Shape image creating means, 15: tip position acquiring means of each finger other than the middle finger, 16: straight line approximate image creating means, 17: approximate straight line extracting means of the middle finger, 18: approximate straight line extracting means of each finger other than the middle finger, 19 ... Center line acquiring means of each finger, 20 each feature value calculating means, 21 authentication means, 30 fingertip area detecting means, 31 outline image creating means, 32 straight line detected image creating means, 33 center of detected finger Line acquisition means, 34 ... tip end point detection means of the detected finger, 35 ... middle finger determination means, 1-1,2-1,3-1,5-1 ... palm-shaped image, 1-2,2-2, -2 3-2, 5-2... Binarized image, 1-4, 2-4, 3-4, 5-3. , 2-5, 3-5: Linear approximation image, 1-A, 1-B, 1-C, 1-D, 2-A, 2-B, 2-C, 2-D, 3-A, 3 -B, 3-C, 3-D: Tip of finger, 1-A-3, 1-B-3, 1-C-3, 1-D-3, 2-A-3, 2-B-3 , 2-C-3, 2-D-3, 3-A-3, 3-B-3, 3-C-3, 3-D-3, C1, C2, C3, C4... 1-A-1, 1-A-2, 1-B-1, 1-B-2, 1-C-1, 1-C-2, 1-D-1, 1-D-2, 2- A-1,2-A-2,2-B-1,2-B-2,2-C-1,2-C-2,2-D-1,2-D-2,3-A- 1,3-A-2,3-B-1,3-B-2,3-C-1,3-C-2,3-D-1,3-D-2, L1-1, L1- 2, L2-1, L2-2, L3-1, L3-2 L4-1, L4-2, Ln-1, Ln-2, E1.2, E1.3, E2.4, ... straight line, 5-4 ... straight line detection image, 10-a, 10-c, 10-d, 11-a, 11-c, 11-d: rotation center points, Y1, Y2, Y3, Y4 ... fingers, T1, T2, T3, T4 ... finger tip points, X1, X2, X3, X4, X1- 2, X2-2 ... intersection.

Claims (8)

本人の認証を掌形認証により行う場合に必要となる掌形認証用基準点である中指の先端点を検出する掌形認証用基準点検出方法であって、
取得した掌形画像より、各指の中心線を取得し、当該取得した各指の中心線と各指の指先との交点を各指の先端点として取得するステップ1と、
前記ステップ1で取得した各指の中心線および各指の先端点との位置関係に基づき長さが最も長い指を判定し、当該判定された指の先端点を掌形認証用基準点である中指の先端点と判定するステップ2とを備えることを特徴とする掌形認証用基準点検出方法。
A palm-shape authentication reference point detection method for detecting the tip point of the middle finger, which is a palm-shape authentication reference point required when personal authentication is performed by palm-shape authentication,
Step 1 of acquiring the center line of each finger from the acquired palm shape image and acquiring the intersection of the acquired center line of each finger and the fingertip of each finger as the tip point of each finger;
The finger having the longest length is determined based on the positional relationship between the center line of each finger and the tip point of each finger obtained in step 1 and the determined tip point of the finger is the reference point for palm shape authentication. A reference point detecting method for palm shape authentication, comprising: a step 2 of determining a tip point of the middle finger.
前記ステップ1は、前記掌形画像の上部より各行毎に順番に掌形の存在を調べ、掌形の存在領域を検出した場合、当該検出した位置を第1番目の指の先端付近の位置であると判定するステップ11と、
前記掌形画像の輪郭画像を直線近似して得られた直線のうち、前記第1番目の指の先端付近の両サイドについて、それぞれ前記第1番目の指の先端付近の位置から見て最も近い直線を求め、当該求めた両サイドの2つの直線から等しい距離にある直線を求め、これを第1番目の指の中心線として取得するステップ12と、
前記第1番目の指の中心線と、前記輪郭画像の前記第1番目の指の先端付近の輪郭線との交点を、前記第1番目の指の先端点として取得するステップ13と、nを2以上の整数とするとき、前記掌形画像の中で、第1番目から第(n−1)番目の先端付近の位置より下側の位置で、前記第1番目から第(n−1)番目の指の存在領域以外の部分について、前記掌形画像の上部より各行毎に順番に掌形の存在を調べ、掌形の存在領域を検出した場合、当該検出した位置を第n番目の指の先端付近の位置であると判定するステップ14と、
前記輪郭画像を直線近似して得られた直線のうち、前記第n番目の指の先端付近の両サイドについて、それぞれ前記第n番目の指の先端付近の位置から見て最も近い直線を求め、当該求めた両サイドの2つの直線から等しい距離にある直線を求め、これを第n番目の指の中心線として取得するステップ15と、
前記第n番目の指の中心線と、前記輪郭画像の前記第n番目の指の先端付近の輪郭線との交点を、前記第n番目の指の先端点として取得するステップ16とを備えることを特徴とする請求項1に記載の掌形認証用基準点検出方法。
The step 1 examines the presence of the palm shape in order from each line from the top of the palm shape image, and when the presence region of the palm shape is detected, the detected position is set to a position near the tip of the first finger. Step 11 for determining that there is,
Of the straight lines obtained by linearly approximating the contour image of the palm-shaped image, both sides near the tip of the first finger are closest to each other from the position near the tip of the first finger. Obtaining a straight line, obtaining a straight line at an equal distance from the obtained two straight lines on both sides, and obtaining this as a center line of the first finger;
Step 13 of acquiring the intersection of the center line of the first finger and the contour line near the tip of the first finger of the contour image as the tip point of the first finger; When it is an integer of 2 or more, the first to (n-1) th positions are located below the positions near the first to (n-1) th tips in the palm shape image. For portions other than the region where the finger is present, the presence of the palm is examined in order from each line from the top of the palm image, and if the region where the palm is present is detected, the detected position is referred to as the n-th finger. Step 14 to determine that the position is near the tip of
Of the straight lines obtained by linearly approximating the contour image, for both sides near the tip of the n-th finger, the closest straight line is obtained from the position near the tip of the n-th finger, respectively. Step 15 of obtaining a straight line at an equal distance from the obtained two straight lines on both sides and acquiring the straight line as the center line of the n-th finger;
A step 16 of obtaining an intersection of the center line of the n-th finger and a contour line near the tip of the n-th finger in the contour image as the tip point of the n-th finger. The reference point detecting method for palm shape authentication according to claim 1, wherein:
前記ステップ2は、隣り合う指のそれぞれの中心線から同じ距離にある中間直線を取得するステップ21と、
前記中間直線に対して、隣り合う指のそれぞれの先端点から垂線を下ろし、その垂線と中間直線との交点の中で、前記掌形画像の上部の位置にある交点に対応する先端点の存在する指が長い指であると判定するステップ22と、
前記ステップ22で、長い指であると判定された2つの指に対して、前記ステップ21と、前記ステップ22とを実行し、長さが最も長い指を判定するステップ23とを備えることを特徴とする請求項1に記載の掌形認証用基準点検出方法。
Step 2 is a step of obtaining an intermediate straight line at the same distance from the center line of each of the adjacent fingers;
With respect to the intermediate straight line, a perpendicular line is drawn down from each distal end point of an adjacent finger, and among the intersections of the perpendicular line and the intermediate straight line, the presence of a distal point corresponding to the intersection at the upper position of the palm shape image. Step 22 of determining that the finger to be performed is a long finger;
The method further comprises the step of executing the step 21 and the step 22 for two fingers determined to be long fingers in the step 22 to determine a finger having the longest length. 2. The method for detecting a reference point for palm shape authentication according to claim 1, wherein
本人の認証を掌形認証により行う場合に必要となる掌形認証用基準点である中指の先端点を検出する掌形認証用基準点検出装置であって、
取得した掌形画像より、各指の中心線を取得し、当該取得した各指の中心線と各指の指先との交点を各指の先端点として取得する手段1と、
前記手段1で取得した各指の中心線および各指の先端点との位置関係に基づき長さが最も長い指を判定し、当該判定された指の先端点を掌形認証用基準点である中指の先端点と判定する手段2とを備えることを特徴とする掌形認証用基準点検出装置。
A palm-shaped authentication reference point detection device that detects a tip point of a middle finger, which is a palm-shaped authentication reference point required when performing personal authentication by palm-shaped authentication,
Means 1 for acquiring a center line of each finger from the acquired palm shape image, and acquiring an intersection between the acquired center line of each finger and a fingertip of each finger as a tip point of each finger;
The finger having the longest length is determined based on the positional relationship between the center line of each finger and the tip point of each finger acquired by the means 1, and the determined tip point of the finger is a palm-shaped authentication reference point. A reference point detecting device for palm shape authentication, comprising: means 2 for determining a tip point of a middle finger.
前記手段1は、前記掌形画像の上部より各行毎に順番に掌形の存在を調べ、掌形の存在領域を検出した場合、当該検出した位置を第1番目の指の先端付近の位置であると判定する手段11と、
前記掌形画像の輪郭画像を直線近似して得られた直線のうち、前記第1番目の指の先端付近の両サイドについて、それぞれ前記第1番目の指の先端付近の位置から見て最も近い直線を求め、当該求めた両サイドの2つの直線から等しい距離にある直線を求め、これを第1番目の指の中心線として取得する手段12と、
前記第1番目の指の中心線と、前記輪郭画像の前記第1番目の指の先端付近の輪郭線との交点を、前記第1番目の指の先端点として取得する手段13と、
nを2以上の整数とするとき、前記掌形画像の中で、第1番目から第(n−1)番目の先端付近の位置より下側の位置で、前記第1番目から第(n−1)番目の指の存在領域以外の部分について、前記掌形画像の上部より各行毎に順番に掌形の存在を調べ、掌形の存在領域を検出した場合、当該検出した位置を掌形の第n番目の指の先端付近の位置であると判定する手段14と、
前記輪郭画像を直線近似して得られた直線のうち、前記第n番目の指の先端付近の両サイドについて、それぞれ前記第n番目の指の先端付近の位置から見て最も近い直線を求め、当該求めた両サイドの2つの直線から等しい距離にある直線を求め、これを第n番目の指の中心線として取得する手段15と、
前記第n番目の指の中心線と、前記輪郭画像の前記第n番目の指の先端付近の輪郭線との交点を、前記第n番目の指の先端点として取得する手段16とを備えることを特徴とする請求項1に記載の掌形認証用基準点検出装置。
The means 1 examines the existence of the palm shape in order from each line from the top of the palm shape image, and when the existence region of the palm shape is detected, the detected position is set to a position near the tip of the first finger. Means 11 for determining that there is,
Of the straight lines obtained by linearly approximating the contour image of the palm-shaped image, both sides near the tip of the first finger are closest to each other from the position near the tip of the first finger. Means 12 for obtaining a straight line, obtaining a straight line at an equal distance from the obtained two straight lines on both sides, and obtaining this as the center line of the first finger;
Means 13 for obtaining an intersection of the center line of the first finger and a contour line near the tip of the first finger of the contour image as a tip point of the first finger;
When n is an integer of 2 or more, the first to (n−) positions at positions lower than the positions near the first to (n−1) -th tips in the palm-shaped image. 1) For the portion other than the region where the finger is present, the existence of the palm shape is checked in order from each line from the top of the palm shape image, and when the presence region of the palm shape is detected, the detected position is determined as the palm shape. Means 14 for determining that the position is near the tip of the n-th finger;
Of the straight lines obtained by linearly approximating the contour image, for both sides near the tip of the n-th finger, the closest straight line is obtained from the position near the tip of the n-th finger, respectively. Means 15 for obtaining a straight line at an equal distance from the obtained two straight lines on both sides and obtaining this as the center line of the n-th finger;
Means 16 for acquiring an intersection point between the center line of the n-th finger and a contour line near the tip of the n-th finger of the contour image as the tip point of the n-th finger. The reference point detecting device for palm shape authentication according to claim 1, wherein:
前記手段2は、隣り合う指のそれぞれの中心線から同じ距離にある中間直線を取得する手段21と、
前記中間直線に対して、隣り合う指のそれぞれの先端点から垂線を下ろし、その垂線と中間直線との交点の中で、前記掌形画像の上部の位置にある交点に対応する先端点の存在する指が長い指であると判定する手段22と、
前記手段22で、長い指であると判定された2つの指に対して、前記手段21と、前記手段22とを実行し、長さが最も長い指を判定する手段23とを備えることを特徴とする請求項1に記載の掌形認証用基準点検出装置。
The means 2 for obtaining an intermediate straight line at the same distance from the center line of each of the adjacent fingers;
With respect to the intermediate straight line, a perpendicular line is drawn down from each distal end point of an adjacent finger, and among the intersections of the perpendicular line and the intermediate straight line, the presence of a distal point corresponding to the intersection at the upper position of the palm shape image. Means 22 for determining that the finger to be performed is a long finger;
For the two fingers determined to be long by the means 22, the means 21 and the means 22 are executed to determine the finger having the longest length. The palm-shaped authentication reference point detecting device according to claim 1.
請求項1ないし請求項3のいずれか1項に記載の掌形認証用基準点検出方法を、コンピュータに実行させるためのプログラム。A program for causing a computer to execute the palm-shaped authentication reference point detection method according to any one of claims 1 to 3. 請求項7に記載のプログラムが記録された記録媒体。A recording medium on which the program according to claim 7 is recorded.
JP2003145926A 2003-05-23 2003-05-23 Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium Pending JP2004348522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003145926A JP2004348522A (en) 2003-05-23 2003-05-23 Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003145926A JP2004348522A (en) 2003-05-23 2003-05-23 Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2004348522A true JP2004348522A (en) 2004-12-09

Family

ID=33532933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003145926A Pending JP2004348522A (en) 2003-05-23 2003-05-23 Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2004348522A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140458A (en) * 2008-03-19 2010-06-24 Denso Corp Display method, display device and operation input device
JP2011248758A (en) * 2010-05-28 2011-12-08 Institute Of National Colleges Of Technology Japan Identification apparatus and identification method
JP2013134709A (en) * 2011-12-27 2013-07-08 Kyocera Corp Device, method, and program
JP2014099024A (en) * 2012-11-14 2014-05-29 Fujitsu Ltd Biometric authentication device, biometric authentication method, and biometric authentication computer program
JP2014235743A (en) * 2013-06-03 2014-12-15 株式会社リコー Method and equipment for determining position of hand on the basis of depth image
EP2700528A3 (en) * 2008-03-19 2014-12-24 Denso Corporation Vehicular manipulation input apparatus
JP2015153120A (en) * 2014-02-14 2015-08-24 富士通株式会社 Image processor, image processing method and image processing program
CN114783010A (en) * 2022-06-22 2022-07-22 北京圣点云信息技术有限公司 Extraction method of interest region of palm print image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140458A (en) * 2008-03-19 2010-06-24 Denso Corp Display method, display device and operation input device
EP2700528A3 (en) * 2008-03-19 2014-12-24 Denso Corporation Vehicular manipulation input apparatus
JP2011248758A (en) * 2010-05-28 2011-12-08 Institute Of National Colleges Of Technology Japan Identification apparatus and identification method
JP2013134709A (en) * 2011-12-27 2013-07-08 Kyocera Corp Device, method, and program
JP2014099024A (en) * 2012-11-14 2014-05-29 Fujitsu Ltd Biometric authentication device, biometric authentication method, and biometric authentication computer program
JP2014235743A (en) * 2013-06-03 2014-12-15 株式会社リコー Method and equipment for determining position of hand on the basis of depth image
JP2015153120A (en) * 2014-02-14 2015-08-24 富士通株式会社 Image processor, image processing method and image processing program
CN114783010A (en) * 2022-06-22 2022-07-22 北京圣点云信息技术有限公司 Extraction method of interest region of palm print image
CN114783010B (en) * 2022-06-22 2022-09-30 北京圣点云信息技术有限公司 Extraction method of interest region of palm print image

Similar Documents

Publication Publication Date Title
Wong et al. Peg-Free Hand Geometry Recognition Using Hierarchical Geomrtry and Shape Matching.
JP3735893B2 (en) Face image processing method and face image processing apparatus
EP2339498B1 (en) Biometric authentication method and biometric authentication apparatus
JP4029412B2 (en) Fingerprint palmprint image processing system and fingerprint palmprint image processing method
JP5504928B2 (en) Biometric authentication device, biometric authentication method, and program
CN107085850B (en) The method and book scanning method that masking acquires the marked body of foreign matter in image, identifies foreign matter marked body in image
JP6487576B2 (en) Fingerprint ridge point recognition method and apparatus
CN104732197B (en) Score detection device and method
WO2007029591A1 (en) Image processing apparatus, and method and program for creating mask
Yang et al. Superpixel based finger vein ROI extraction with sensor interoperability
WO2003081532A1 (en) Method and apparatus for the automatic detection of facial features
JP3675629B2 (en) Pattern recognition method, apparatus and recording medium
JP2004348522A (en) Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium
JP4533849B2 (en) Image processing apparatus and image processing program
CN116665258B (en) Palm image finger seam segmentation method
Xiao et al. Combining statistical and structural information for fingerprint image processing, classification and identification
Nikisins et al. Algorithms for a novel touchless bimodal palm biometric system
Arakala et al. The palm vein graph feature extraction and matching
JP4020202B2 (en) Striped pattern extraction system and striped pattern extraction method
JP2007060417A (en) Pattern recognition method
Ding et al. An accurate approach for microaneurysm detection in digital fundus images
Barca et al. A modified k-means algorithm for noise reduction in optical motion capture data
JP4991278B2 (en) Image processing device
CN111199527B (en) Finger vein image noise detection method based on multi-direction self-adaptive threshold
CN107392170A (en) A kind of palmmprint main line extracting method for meeting nature growth rhythm