JP2022538127A - 非接触指紋画像のスラップセグメンテーション - Google Patents

非接触指紋画像のスラップセグメンテーション Download PDF

Info

Publication number
JP2022538127A
JP2022538127A JP2021576835A JP2021576835A JP2022538127A JP 2022538127 A JP2022538127 A JP 2022538127A JP 2021576835 A JP2021576835 A JP 2021576835A JP 2021576835 A JP2021576835 A JP 2021576835A JP 2022538127 A JP2022538127 A JP 2022538127A
Authority
JP
Japan
Prior art keywords
slap
finger
image
mask
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021576835A
Other languages
English (en)
Inventor
ディン,イー
ワン,アン・ジンソン
リー,ソンタオ・レスター
Original Assignee
タレス・ディス・フランス・エス・ア・エス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タレス・ディス・フランス・エス・ア・エス filed Critical タレス・ディス・フランス・エス・ア・エス
Publication of JP2022538127A publication Critical patent/JP2022538127A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、スラップ画像についてセグメンテーションを行うための、および、正確にラベリングされた個々の指紋を生成するための方法であって、以下のステップ: - 制御された照明状況のもとでの非接触指紋リーダからの入力画像の受け取り、 - 入力画像において前景スラップマスクとしてスラップエリアを推定するための、受け取られた画像における分散の計算、 - 各々の指の境界を発見することによる、個々の指の識別、 - いくつかの指および幾何学的制約の検証、 - 形状および幾何学情報に基づく、姿勢および向きの算出、 - 姿勢、向き、および幾何学的情報にしたがった、各々の検出された指上の有効指先エリアの識別、 - 個々の指紋の出力を含む、方法に関する。

Description

本発明は、非接触指紋画像のためのスラップセグメンテーションの方法および装置に関する。
より具体的には、非接触指紋画像は、非接触指紋リーダによって捕捉される。非接触指紋リーダは、近年において台頭している。デバイスにタッチする指紋を取り込むのみである、伝統的なライブスキャン指紋リーダとは違い、非接触指紋リーダは、デバイスに提示されるすべての指/スラップ/掌の写真を捕捉する。各々の個々の指紋の場所および有効領域を識別するために、捕捉されるスラップ画像は、自動的にセグメンテーションが行われることを必要とする。
指紋などのバイオメトリックデータは、データセキュリティ、国境管制、法執行、金融、保健医療、およびその他の分野において、ますます重要な役割を果たしている。自動指紋識別システム(AFIS:Automatic Fingerprint Identification System)上で、識別は、指紋、すなわち、指先の表面上の隆線および谷の一意的なパターンを頼りとする。従来の指紋画像は、10指指紋カード(ten-print card)上の、インクで付けられた跡から取得され、さもなければ、光学リーダおよび容量性リーダに類する、タッチベースの指紋捕捉デバイスによって捕捉される。近年において、より高速の指紋獲得、登録、およびマッチングに対する増大する要望によって、非接触指紋リーダが開発されたものであり、それらの非接触指紋リーダによって、指紋画像は、被写体の指とデバイスとの間の何らの物理的接触も無く、簡便に捕捉され得る。モダリティ変化にもかかわらず、接触および非接触の両方の指紋獲得は、1つの決定的に重要なステップ:典型的には、インクを付けられたカード、または、指紋リーダ上に、4つの指、すなわち、人さし指、中指、薬指、小指、または、2つの親指の左/右スラップを配置することによって、捕捉される画像から、とりわけ、同時的に捕捉される複数個の平坦な指紋を指すスラップ画像から、完全に、所望される個々の指紋について正確にセグメンテーションを行う方策を共有する。
インクを付けられたカード、および、接触指紋リーダの性質を考慮して、伝統的なの接触スラップセグメンテーション手法は、各々の指紋を識別するために、形状、テクスチャ、向き、および幾何学的制約を主に用いる。
接触指紋画像についてセグメンテーションを行うためのそのような方法は、以下の文書において見いだされる:米国特許第7,072,496B2号、Craig I.Watson、「Slap Fingerprint Segmentation Evaluation II - Procedures and Results」.NIST Interagency/Internal Report(NISTIR) - 7553、2009、Brad Uleryら、「Slap Fingerprint Segmentation Evaluation 2004 Analysis Report」.NIST Interagency/Internal Report(NISTIR) - 7209、2005、Sklansky,J.、「Finding the Convex Hull of a Simple Polygon」.Pattern Recognition Letters、第1巻第2号、79-83頁、1982、Christian Wolfら.「Text Localization, Enhancement and Binarization in Multimedia Documents」.International Conference on Pattern Recognition、第4巻、1037-1040頁、2002、Yong-Liang Zhang、Gang Xiao、Yan-Miao Li、Hong-Tao Wu、およびYa-Ping Huang.2010.Slap Fingerprint Segmentation for Live-Scan Devices and Ten-Print Cards.於Proceedings of the 2010 20th International Conference on Pattern Recognition(ICPR ’10)。
非接触指紋リーダは、開放空間において被写体と何らタッチすることなく、高解像度カメラによってスラップ画像を捕捉し、そのことは、はるかに高速および簡便であるが、被写体のモダリティ変化に起因して、多くの場合において、接触指紋画像のための従来のスラップセグメンテーションアルゴリズムを失敗させる。
実際のところ、非接触リーダからのスラップ画像における指が、互いから明確に分離されないということが非常によく起こる。そのことは、異なる指からの指紋は互いから十分に分離されるという強い想定によって開発される、タッチベースのデバイス上の伝統的なスラップセグメンテーションアルゴリズムにとって、最も難題のシナリオである。
また、案内有りでも無しでも、スラップ、すなわち画像化されるべき被写体は、様々な姿勢を伴ってデバイスに対して配置され得るものであり、そのことによって、捕捉された画像におけるスラップの、回転、方向、および場所に類する外観が、劇的に変化し得る。
最後に、タッチベースのスラップ画像と比較されると、非接触のものは、スラップ全体を捕捉し、そのことは、テクスチャ情報を頼りとする伝統的な方法にとって問題をはらむものであり、なぜならば、上側の掌は、指紋と同様のパターンを示し得るからである。
それゆえに、被写体の様々な手の形状、手の姿勢、および距離に適応的であることを期待される、非接触指紋リーダによって捕捉されるスラップ画像からの各々の個々の指紋について、正確に識別し、セグメンテーションを行うための、新しい方法および装置を設計することが望ましい。
さらなる代替的な、および有利な解決策が、よって、当技術分野において望ましいことになる。
米国特許第7,072,496号明細書
Craig I.Watson、「Slap Fingerprint Segmentation Evaluation II - Procedures and Results」.NIST Interagency/Internal Report(NISTIR) - 7553、2009 Brad Uleryら、「Slap Fingerprint Segmentation Evaluation 2004 Analysis Report」.NIST Interagency/Internal Report(NISTIR) - 7209、2005 Sklansky,J.、「Finding the Convex Hull of a Simple Polygon」.Pattern Recognition Letters、第1巻第2号、79-83頁、1982 Christian Wolfら.「Text Localization, Enhancement and Binarization in Multimedia Documents」.International Conference on Pattern Recognition、第4巻、1037-1040頁、2002 Yong-Liang Zhang、Gang Xiao、Yan-Miao Li、Hong-Tao Wu、およびYa-Ping Huang.2010.Slap Fingerprint Segmentation for Live-Scan Devices and Ten-Print Cards.於Proceedings of the 2010 20th International Conference on Pattern Recognition(ICPR ’10)
本発明は、非接触獲得されるスラップ画像に適用可能なセグメンテーション方法を提案することを目指す。
本発明は、その最も広範な意味において、スラップ画像についてセグメンテーションを行うための、および、正確にラベリングされた個々の指紋を生成するための方法であって、以下のステップ:
- 制御された照明状況のもとでの非接触指紋リーダからの入力画像の受け取り、
- 入力画像において前景スラップマスクとしてスラップエリアを推定するための、受け取られた画像における分散の計算、
- 各々の指の境界を発見することによる、個々の指の識別、
- いくつかの指および幾何学的制約の検証、
- 形状および幾何学情報に基づく、姿勢および向きの算出、
- 姿勢、向き、および幾何学的情報にしたがった、各々の検出された指上の有効指先エリアの識別、
- 個々の指紋の出力
を含む、方法と定義される。
本発明は、非接触指紋識別システムのハードウェアおよびソフトウェアの両方の能力を組み合わせる、無類の、および効率的な解決策である。本発明は、分散を計算するための2つの画像、および、問題を解決するための最小限のハードウェアセットアップを必要とするのみである。
有利には、ハードウェアの見地において、制御された照明状況のもとで獲得される画像は、フラッシュ光有りで、および無しで獲得される画像である。
方法のソフトウェア部分は、それゆえ、同じ被写体に対する2つのスラップ画像を受け取り、一方は、フラッシュ光オンでのものであり、他方は、フラッシュ光オフでのものであり、それゆえ、装置は、捕捉された画像、および、処理された個々の指紋画像を、送信、処理、および保存することができる。ソフトウェアの見地において、提案されるアルゴリズムは、各々の個々の指紋の位置を適応的に推定し、次いで、それらの指紋の場所情報を生成することができる。
有利な実施形態によれば、個々の指識別ステップが、式、Thres(x,y)=α(x,y)+pα(x,y)(β(x,y)-q)にしたがって大域的ダイナミクスおよび局所的ダイナミクスの両方のダイナミックレンジを算出することによる、前景スラップマスクを伴う元の照らされた画像に適用される適応的2値化サブステップを含み、ただし、α(x,y)が、局所的ダイナミック因子であり、β(x,y)が、大域的ダイナミック因子であり、p、qが、事前定義されたパラメータであり、この適応的2値化サブステップが、個々の指のマスクを出力する。
そのような適応的しきい値の使用は、個々の指の検出を自動化することを可能にする。
本発明の有利な特徴によれば、形状および幾何学情報に基づく、姿勢および向きの算出のステップが、指の指先点を検出するための凸性(convexity)チェックを含む。
これは、スラップの向きを決定するための単純な方法である。
本発明の好ましい実施形態によれば、形状および幾何学情報に基づく、姿勢および向きの算出のステップが、各々の個々の指マスクの中心線を規定するサブステップ、指画像上の指中心線の方向に沿って勾配を算出するサブステップ、指先点までの特定の距離の中で最大勾配を伴う垂直線を発見することによる第1の指関節の検出のサブステップを含み、指先マスクが、第1の指関節と指先点との間に延びるエリアによって規定される。
勾配の使用は、捕捉された指の異なる幾何学的特性を、自動的に位置特定することを可能にする。
本発明は、また、少なくとも非接触指紋リーダに接続された、非接触の獲得指紋画像プロセッサであって、非接触指紋リーダは、様々な照明状況を有し、ユーザの指紋の獲得のために、異なる照明状況のもとで、リーダの近傍における非接触位置におけるスラップ/指の画像を獲得するように構成され、前記指紋画像プロセッサは、制御された照明状況のもとで非接触指紋リーダから受け取られたスラップ画像についてセグメンテーションを行うことと、正確にラベリングされた個々の指紋を生成することとを行うように構成され、入力画像において前景スラップマスクとしてスラップエリアを推定するために、受け取られた画像において分散を計算し、各々の指の境界を発見することによって、個々の指を識別し、いくつかの指および幾何学的制約を検証し、形状および幾何学情報に基づいて、姿勢および向きを算出するように構成され、姿勢、向き、および幾何学的情報にしたがった、各々の検出された指上の有効指先エリアの識別と、個々の指紋の出力とのために構成される、非接触獲得指紋画像プロセッサに関する。
そのようなプロセッサは、非接触指紋リーダから受け取られるようなスラップ画像についてセグメンテーションを行うための本発明の方法を実現することを可能にする。
有利には、プロセッサが、式、Thres(x,y)=α(x,y)+pα(x,y)(β(x,y)-q)にしたがって大域的ダイナミクスおよび局所的ダイナミクスの両方のダイナミックレンジを算出することによる、前景スラップマスクを伴う元の照らされた画像に適用される適応的2値化を実行するように構成され、ただし、α(x,y)が、局所的ダイナミック因子であり、β(x,y)が、大域的ダイナミック因子であり、p、qが、事前定義されたパラメータであり、この適応的2値化サブステップが、個々の指のマスクを出力する。
また、有利には、プロセッサが、指の指先点を検出するための凸性チェックを使用して、形状および幾何学情報に基づいて、姿勢および向きを算出するように構成される。
好ましい実施形態によれば、プロセッサが、形状および幾何学情報に基づいて、姿勢および向きを算出することを行うように構成され、形状および幾何学情報は、各々の個々の指マスクの中心線の規定と、指画像上の指中心線の方向に沿った勾配の算出と、指先点までの特定の距離の中で最大勾配を伴う垂直線を発見することによる第1の指関節の検出とを含み、指先マスクが、第1の指関節と指先点との間に延びるエリアによって規定される。
上述の、および関係付けられる最終目標の達成のために、1つ以上の実施形態は、本明細書において以降で十二分に説明され、特許請求の範囲において特に指摘される、特徴を含む。
以下の説明、および、添付される図面は、特定の例解的な態様を詳細に明らかにし、実施形態の原理が用いられ得る、ごく少数の様々な方法を指し示す。他の利点、および、新規の特徴は、図面と関連して考察されるときに、以下の詳細な説明から明白になることになり、開示される実施形態は、すべてのそのような態様、および、それらの態様の均等を含むことを意図される。
非接触指紋セグメンテーションシステムの概略線図を表す図である。 画像処理ワークフローを例解するフローチャートを示す図である。 前景スラップマスク推定を例解するフローチャートを示す図である。 前景マスク推定の例を示す図である。 個々の指識別を例解するフローチャートを示す図である。 指隙間識別を例解する図である。 個々の指識別を例解する図である。 指紋姿勢推定および指先識別を例解するフローチャートを示す図である。 個々の指先識別を例解する図である。 最終的な指紋生成プロセスを例解するフローチャートを示す図である。 最終的な個々の指紋セグメンテーションの例を示す図である。
本発明のより徹底した理解のために、本発明は、今から、付随する図面を参照して詳細に説明されることになる。詳細な説明は、本発明の好ましい実施形態と考えられるものを例解および説明することになる。形式または詳細における様々な修正および変更が、本発明の趣旨から逸脱することなくたやすく行われ得るということが、当然ながら理解されるべきである。それゆえに、本発明は、本明細書において示され説明されるそのままの形式および詳細にも、本明細書において開示される、および、本明細書において以降で主張されるような、本発明の全体より少ないいかなるものにも、限定され得ないということが意図される。同じ要素は、異なる図面において同じ参照符によって指定されている。明確さのために、本発明の理解に対して有用である要素およびステップのみが、図面において示されており、説明されることになる。
本発明は、ソフトウェアシステムまたはハードウェアシステムを使用して実現され得る。図1は、CPU、FPGA、DSP、またはGPUを含む、ただしそれらに限定されない、コントローラ16を少なくとも含む、提案される非接触指紋セグメンテーションシステム1の概略線図である。コントローラは、すべての他のモジュール、すなわち、画像I/O11および14、画像プロセッサ12による処理、ならびに、画像メモリ13内の記憶を管理する。
I/Oポート11および14のセットは、USB2/3、Firewire、Thunderbolt、SATA、DMA、Ethernet、またはインターネットを含み、ただしそれらに限定されない。これらのポート11および14は、非接触指紋リーダ10から入力スラップ画像を取り込み、他のデバイス/システムに出力指紋15を送る。
画像プロセッサ12は、C/C++、JAVA、Python、アセンブリ、またはJavaScriptを含む、ただしそれらに限定されない、任意のプログラミング言語によって実現され得る。画像プロセッサ12または処理モジュールは、本発明によって、スラップ画像から個々の指紋ROI15を識別および抽出する。
画像メモリ13は、RAM、ROM、SSD、ハードドライブ、またはNASを含み、ただしそれらに限定されない。画像メモリ13または記憶モジュールは、中間結果、および、最終的な出力指紋を保存する。
図2は、本発明において提案される画像処理ワークフロー、すなわち、スラップ画像についてセグメンテーションを行い、正確にラベリングされた個々の指紋ROIを生成する方策を例解するフローチャートである。第1のステップS0において、スラップ画像が、制御された照明状況のもとで非接触指紋リーダ10から受け取られる。入力画像におけるスラップエリアが、ステップS1において、受け取られた画像において分散を計算することによって、前景スラップマスクとして初期に推定される。次いで、ステップS2において、個々の指が、各々の指の境界を発見することによって識別され、その一方で、いくつかの指および幾何学的制約が検証される。次のステップS3において、各々の指に対して、姿勢および向きが、形状および幾何学情報に基づいて算出される。ステップS4において、有効指先エリアが、姿勢、向き、および幾何学的情報にしたがって、各々の検出された指上で識別される。個々の指紋ROI15が、次いで出力される。指先エリアは、回転させられた矩形ROIとして記述され、セグメンテーションが行われた指紋画像、および、矩形ROIの座標の両方が、次いで、ストレージに保存され、または、他のシステムに送られる。
図3は、図2におけるステップS1において説明されるようなスラップ/前景エリア識別のためのプロセスを例解するフローチャートである。非接触指紋リーダが、ステップI0において、例えば、フラッシュ光を使用して、制御された照明状況のもとでスラップ画像を捕捉する。特定の照明状況のもとで、前景スラップエリアは、背景エリアと比較されて、異なる画像において、より大きい照明分散を示すことになる。これらの所見に基づいて、分散が、画像において、ステップI1において算出され、異なる画像エリアに対する適応的しきい値をセットアップする。
それゆえ、前景スラップエリアとしての、しきい値より大きい分散を有する画素、および、背景エリアとしての他の画素。スラップマスクの画素値M(x,y)は、以下の式:
Figure 2022538127000002
によって決定され得る。ただし、I(x,y)は、画素分散であり、T(x,y)は、画素(x,y)に対する適応的しきい値である。ステップI2において、前景スラップエリアの初期スラップマスクは、かくして取得される。しかしながら、初期スラップマスクは、不均一な照明状況、および、ノイズの多い背景に起因して、沢山の誤った推定を含み得る。それゆえに、モルフォロジ演算が、ステップI3において適用される。そのことは、フラッシュオンでのスラップ画像IFから抽出されるような、図4において示されるような正確なスラップエリアマスクSMを取得するために、初期マスク上で、穴を埋め、誤った、ノイズの多いエリアを除去するための、オープニングおよびクロージングを含む。
図5は、単一の指識別のためのプロセスを例解するフローチャートである。非接触指紋リーダ10の利点のうちの1つとして、スラップは、デバイスへの何らの物理的タッチも無く、リーダに対して配置され得るものであり、そのことは、スラップ画像獲得速度および簡便性を改善するのに役立つ。しかしながら、副作用として、非接触指紋リーダ10は、画像獲得に対して、指の位置に関するはるかに少ない制約を設ける。そのことによって、指は、捕捉時に、回転する、傾く、または曲がることがあり、その上、指は、4指スラップ画像において、非常に近く互いに近接することがある。
結果として、指は十分に分離されるということを想定する伝統的なスラップセグメンテーション方法は、非接触指紋システムにおける場合の大部分において失敗することになる。それゆえに、有効指紋ROIを識別するための最も難題の部分は、各々の個々の指紋を識別することである。
本発明の単一の指識別方法は、2つの画像が受け取られ、一方は、元の画像IFであり、他方は、図3上で説明されるように取得された前景マスクSMである、第1のステップを含む。
図6は、下部画像FS上で、とりわけ指が互いに近接するときの、2つの画像から決定されることを必要とする、指どうしの間の隙間を示す。
第1のステップF1において、適応的2値化方法が、制約としての前景マスクを伴う元の画像IFに適用される。この方法において、2値化のためのしきい値が、以下の式、Thres(x,y)=α(x,y)+pα(x,y)(β(x,y)-q)において示されるように、大域的ダイナミクスおよび局所的ダイナミクスの両方のダイナミックレンジを算出することによって決定され、ただし、α(x,y)は、各々の画素(x,y)に対する局所的ダイナミック因子、すなわち、画素(x,y)が中央にあるスライディングウィンドウの内側の平均値であり、xおよびyは、画素の座標である。β(x,y)は、画像全体の変動に基づいて算出される大域的ダイナミック因子であり、pおよびqは、一定の正の値であり、ただし、pは、画像の最大標準偏差、すなわち、8ビットグレースケール画像に対しては128に等しく、qは、異なる適用に応じた、[0.1,0.6]の範囲内のプリセットされたバイアスに等しい。この2値化は、図6の下部画像FS上で示されるように、指を分離する線を規定することを可能にする。
次いで、図7において例解されるように、各々の個々の指を識別するために、スラップ全体を取り囲む凸包が、ステップF2において最初に発見され、そのことは、指の先を検出するのに役立つ。次いで、ステップF3において、凸性が、指の付け根/関節を発見するために、凸包の内側でチェックされる。通常は、凸性欠陥、すなわち、スラップに属さないが、凸包の内側に位置するエリアが、最初に算出される。この場合において、そのエリアは、2つの指の間のエリア、および、スラップの2つの側のエリアを指す。そのため、凸包の対応する縁部、すなわち、指の付け根/関節までの最大距離を伴う、凸欠陥内の点が、画像TDによって例解されるように検出される。最後に、各々の個々の指が、画像FDによって例解されるように、指先および指付け根の位置を組み合わせることによって、最終的に識別され、対応するマスクFMが、ステップF4において、それらの指の各々に対して生成される。
各々の個々の指がステップF4において識別された後で、指先の位置の正確な検出が必要とされる。
図8は、指姿勢推定および指先セグメンテーションのための、本発明によるプロセスを例解するフローチャートである。図9は、姿勢推定および指先識別を例解する。
指姿勢は、個々の指マスク上で、図9上で概略的に例解されるように、ステップT1において、指マスクの中心線を発見することによって推定される。指が真っすぐでない、いくつかの特別な場合において、中心線の平均角度が推定される。
ステップT1の結果に基づいて、指中心線の方向に沿った勾配が、指画像FI上で算出され、次いで、第1の指関節が、指姿勢推定のステップT2において、指先点までの特定の距離の中で最大勾配を伴う垂直線を発見することによって検出され得る。そのことは、指先マスクTMを決定することを可能にする。
図10は、最終的な個々の指紋画像を生成するためのプロセスを例解するフローチャートである。
入力画像が、第1のステップP1において受け取られ、一方は、スラップ指紋画像IFであり、他方は、個々の指先マスクTMのセットであり、個々の指紋画像が、スラップ画像IFおよび指先マスクTMを組み合わせることによって生成される。
ステップP2において、ランダムノイズを除去するために個々の指紋画像に適用される、画像平滑化およびノイズ除去演算を少なくとも含む、後処理が実行される。有利には、さらなるモルフォロジカル変換が、構造的ノイズを除去し、指紋の縁部を平滑化するために、取得された指紋画像に適用される。次いで、最終的な個々の指紋FIFが、図11上でまた示されるように生成される。
上記の詳細な説明において、例解として、本発明が実践され得る特定の実施形態を示す、付随する図面に対する参照が行われている。これらの実施形態は、当業者が本発明を実践することを可能にするために、十分に詳細に説明されている。上記の詳細な説明は、それゆえに、限定的な意味において解されるべきではなく、本発明の範囲は、特許請求の範囲が権利を付与される均等の最大限の範囲と併せて、適切に解釈される、添付される特許請求の範囲によってのみで定義される。

Claims (9)

  1. スラップ画像についてセグメンテーションを行うための、および、正確にラベリングされた個々の指紋を生成するための方法であって、以下のステップ:
    制御された照明状況のもとでの非接触指紋リーダからの入力画像の受け取り、
    入力画像において前景スラップマスクとしてスラップエリアを推定するための、受け取られた画像における分散の計算、
    各々の指の境界を発見することによる、個々の指の識別、
    いくつかの指および幾何学的制約の検証、
    形状および幾何学情報に基づく、姿勢および向きの算出、
    姿勢、向き、および幾何学的情報にしたがった、各々の検出された指上の有効指先エリアの識別、
    個々の指紋の出力
    を含む、方法。
  2. 制御された照明状況のもとで獲得される画像は、フラッシュ光有りで、および無しで獲得される画像である、請求項1に記載のスラップ画像についてセグメンテーションを行うための方法。
  3. 個々の指識別ステップが、式、Thres(x,y)=α(x,y)+pα(x,y)(β(x,y)-q)にしたがって大域的ダイナミクスおよび局所的ダイナミクスの両方のダイナミックレンジを算出することによる、前景スラップマスクを伴う元の照らされた画像に適用される適応的2値化サブステップを含み、ただし、α(x,y)が、局所的ダイナミック因子であり、β(x,y)が、大域的ダイナミック因子であり、p、qが、事前定義されたパラメータであり、この適応的2値化サブステップが、個々の指のマスクを出力する、請求項1に記載のスラップ画像についてセグメンテーションを行うための方法。
  4. 形状および幾何学情報に基づく、姿勢および向きの算出のステップが、指の指先点を検出するための凸性チェックを含む、請求項1に記載のスラップ画像についてセグメンテーションを行うための方法。
  5. 形状および幾何学情報に基づく、姿勢および向きの算出のステップが、各々の個々の指マスクの中心線を規定するサブステップ、指画像上の指中心線の方向に沿って勾配を算出するサブステップ、指先点までの特定の距離の中で最大勾配を伴う垂直線を発見することによる第1の指関節の検出のサブステップを含み、指先マスクが、第1の指関節と指先点との間に延びるエリアによって規定される、請求項1に記載のスラップ画像についてセグメンテーションを行うための方法。
  6. 少なくとも非接触指紋リーダに接続される、非接触獲得指紋画像プロセッサであって、非接触指紋リーダは、様々な照明状況を有し、ユーザの指紋の獲得のために、異なる照明状況のもとで、リーダの近傍における非接触位置におけるスラップ/指の画像を獲得するように構成され、前記指紋画像プロセッサは、制御された照明状況のもとで非接触指紋リーダから受け取られたスラップ画像についてセグメンテーションを行うことと、正確にラベリングされた個々の指紋を生成することとを行うように構成され、前記指紋画像プロセッサは、入力画像において前景スラップマスクとしてスラップエリアを推定するために、受け取られた画像において分散を計算し、各々の指の境界を発見することによって、個々の指を識別し、いくつかの指および幾何学的制約を検証し、形状および幾何学情報に基づいて、姿勢および向きを算出するように構成され、姿勢、向き、および幾何学的情報したがった、各々の検出された指上の有効指先エリアの識別と、個々の指紋の出力とのために構成される、非接触獲得指紋画像プロセッサ。
  7. 式、Thres(x,y)=α(x,y)+pα(x,y)(β(x,y)-q)にしたがって大域的ダイナミクスおよび局所的ダイナミクスの両方のダイナミックレンジを算出することによる、前景スラップマスクを伴う元の照らされた画像に適用される適応的2値化を実行するように構成され、ただし、α(x,y)が、局所的ダイナミック因子であり、β(x,y)が、大域的ダイナミック因子であり、p、qが、事前定義されたパラメータであり、この適応的2値化サブステップが、個々の指のマスクを出力する、請求項6に記載の非接触獲得指紋画像プロセッサ。
  8. 指の指先点を検出するための凸性チェックを使用して、形状および幾何学情報に基づいて、姿勢および向きを算出するように構成される、請求項6に記載の非接触獲得指紋画像プロセッサ。
  9. 前記非接触獲得指紋画像プロセッサは、形状および幾何学情報に基づいて、姿勢および向きを算出することを行うように構成されており、形状および幾何学情報は、各々の個々の指マスクの中心線の規定と、指画像上の指中心線の方向に沿った勾配の算出と、指先点までの特定の距離の中で最大勾配を伴う垂直線を発見することによる第1の指関節の検出とを含み、指先マスクが、第1の指関節と指先点との間に延びるエリアによって規定される、請求項6に記載の非接触獲得指紋画像プロセッサ。
JP2021576835A 2019-07-01 2020-06-29 非接触指紋画像のスラップセグメンテーション Pending JP2022538127A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/458,955 2019-07-01
US16/458,955 US11017198B2 (en) 2019-07-01 2019-07-01 Slap segmentation of contactless fingerprint images
PCT/EP2020/068289 WO2021001322A1 (en) 2019-07-01 2020-06-29 Slap segmentation of contactless fingerprint images

Publications (1)

Publication Number Publication Date
JP2022538127A true JP2022538127A (ja) 2022-08-31

Family

ID=71575346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021576835A Pending JP2022538127A (ja) 2019-07-01 2020-06-29 非接触指紋画像のスラップセグメンテーション

Country Status (7)

Country Link
US (1) US11017198B2 (ja)
EP (1) EP3994608A1 (ja)
JP (1) JP2022538127A (ja)
KR (1) KR20220050125A (ja)
CN (1) CN114127798A (ja)
CA (1) CA3145441A1 (ja)
WO (1) WO2021001322A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560813B (zh) * 2021-02-19 2021-05-25 深圳阜时科技有限公司 窄条形指纹的识别方法、存储介质及电子设备
CN113781516B (zh) * 2021-11-11 2022-06-21 湖南汇视威智能科技有限公司 一种高空抛物检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040120555A1 (en) * 2002-12-20 2004-06-24 Lo Peter Zhen-Ping Slap print segmentation system and method
US20120086794A1 (en) * 2010-10-08 2012-04-12 Advanced Optical Systems, Inc Contactless fingerprint acquisition and processing

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080298648A1 (en) * 2007-05-31 2008-12-04 Motorola, Inc. Method and system for slap print segmentation
WO2011059496A1 (en) * 2009-11-11 2011-05-19 Cross Match Technologies, Inc. Apparatus and method for determining sequencing of fingers in images to a two-finger scanner of fingerprint images
AU2015317344B2 (en) * 2014-09-18 2021-04-08 Sciometrics Llc Mobility empowered biometric appliance a tool for real-time verification of identity through fingerprints
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11023762B2 (en) * 2016-08-12 2021-06-01 3M Innovative Properties Company Independently processing plurality of regions of interest

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040120555A1 (en) * 2002-12-20 2004-06-24 Lo Peter Zhen-Ping Slap print segmentation system and method
US20120086794A1 (en) * 2010-10-08 2012-04-12 Advanced Optical Systems, Inc Contactless fingerprint acquisition and processing

Also Published As

Publication number Publication date
CA3145441A1 (en) 2021-01-07
CN114127798A (zh) 2022-03-01
US11017198B2 (en) 2021-05-25
US20210004560A1 (en) 2021-01-07
KR20220050125A (ko) 2022-04-22
EP3994608A1 (en) 2022-05-11
WO2021001322A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
Matsuda et al. Finger-vein authentication based on deformation-tolerant feature-point matching
KR20190094352A (ko) 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법
Min et al. Eyelid and eyelash detection method in the normalized iris image using the parabolic Hough model and Otsu’s thresholding method
JP6648639B2 (ja) 生体情報処理装置、生体情報処理方法および生体情報処理プログラム
KR20100049407A (ko) 평균 곡률을 이용하는 지정맥 인증 방법 및 장치
JP2022538127A (ja) 非接触指紋画像のスラップセグメンテーション
Gawali et al. 3d face recognition using geodesic facial curves to handle expression, occlusion and pose variations
Morales et al. Comparing infrared and visible illumination for contactless hand based biometric scheme
Donida Labati et al. A scheme for fingerphoto recognition in smartphones
Methani et al. Pose invariant palmprint recognition
Khanam et al. Analysis of finger vein feature extraction and recognition using DA and KNN methods
Oldal et al. Biometric Authentication System based on Hand Geometry and Palmprint Features.
Saparudin et al. Segmentation of fingerprint image based on gradient magnitude and coherence
Kubanek et al. Feature extraction of palm vein patterns based on two-dimensional density function
Gupta et al. A slap fingerprint based verification system invariant to halo and sweat artifacts
US10990796B2 (en) Information processing apparatus, image processing method and recording medium on which image processing program is recorded
El Sayed et al. A method for contactless palm ROI extraction
Qayoom et al. Review on Secure and Authentic Identification System using Finger Veins.
Sumijan et al. Fingerprint identification using the hybrid thresholding and edge detection for the room security
Akram et al. Morphological and gradient based fingerprint image segmentation
Nivas et al. Real-time finger-vein recognition system
Pandey et al. Geometry based method for iris segmentation
Khalid et al. Palmprint ROI Cropping Based on Enhanced Correlation Coefficient Maximisation Algorithm
Jarjes et al. A new Iris segmentation method based on improved snake model and angular integral projection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240130