JP7403562B2 - スラップ/指前景マスクを生成するための方法 - Google Patents

スラップ/指前景マスクを生成するための方法 Download PDF

Info

Publication number
JP7403562B2
JP7403562B2 JP2021576857A JP2021576857A JP7403562B2 JP 7403562 B2 JP7403562 B2 JP 7403562B2 JP 2021576857 A JP2021576857 A JP 2021576857A JP 2021576857 A JP2021576857 A JP 2021576857A JP 7403562 B2 JP7403562 B2 JP 7403562B2
Authority
JP
Japan
Prior art keywords
image
value
flash light
pixel
slap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021576857A
Other languages
English (en)
Other versions
JP2022538850A (ja
Inventor
ディン,イー
ワン,アン・ジンソン
Original Assignee
タレス・ディス・フランス・エス・ア・エス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タレス・ディス・フランス・エス・ア・エス filed Critical タレス・ディス・フランス・エス・ア・エス
Publication of JP2022538850A publication Critical patent/JP2022538850A/ja
Application granted granted Critical
Publication of JP7403562B2 publication Critical patent/JP7403562B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、少なくともフラッシュ光を有する非接触指紋リーダを使用して獲得される画像上の指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクを生成するための方法に関する。
本発明は、また、少なくとも非接触指紋リーダに接続された、非接触獲得指紋画像プロセッサに関し、非接触指紋リーダは、少なくともフラッシュ光を有し、前記方法を実現して、ユーザの指紋の獲得のために、フラッシュ光ありで、またはなしで、リーダの近傍における非接触位置におけるスラップ/指の画像を獲得するように構成される。
伝統的な接触手法によって、指紋は、記録媒体またはデバイス、例えば、インク、光学センサ、または電子センサ上への指の直接的な跡によって捕捉される。より高速の捕捉速度、および、より良好なユーザエクスペリエンスに対する増大する要望によって、非接触指紋デバイスが、バイオメトリクス市場に導入されている。本発明は、非接触指紋画像のための適応的背景差分の新規の方法および装置に関する。
より具体的には、非接触指紋画像は、非接触指紋リーダによって捕捉される。リーダとタッチするスラップ/指を捕捉するのみである、伝統的な接触指紋リーダとは違い、非接触指紋リーダは、デバイスの上方に提示されるスラップ/指全体の写真を取り込む。それゆえに、捕捉される写真は、非接触指紋リーダからの写真的表現の性質に起因して、前景としてのスラップ/指、ならびに、背景としての、スラップ/指の背後のシーン、およびノイズの両方を含む。捕捉される画像において、スラップ/指、すなわち前景の場所を識別するために、背景シーンおよびノイズは、除去されることを必要とする。
非接触指紋画像において、背景差分は、次の理由で、より難題になる:
1.通常は、同じスラップ/指に対して捕捉される1つの単一の画像のみが存し、そのことによって、画像のシーケンスを要する伝統的な統計的背景モデリングが作動しないことになる、
2.動的な、および強い背景シーン/ノイズ、例えば、強い背景光の存在が、画像において顕著であることがあり、そのことが、前景指を隠すことさえある、
3.捕捉される画像からの照明/明るさが、均一に分布しておらず、そのことによって、前景スラップ/指が、可変のグレースケールを伴い、一方で、それらの前景スラップ/指の位置は、異なる被写体にわたって変動する。
背景差分は、多くの画像処理およびコンピュータビジョンのアプリケーションまたはシステムの基本的なステップである。過去数十年において、様々な方法が、背景シーンから前景物体についてセグメンテーションを行うために、背景差分において提案されてきた。アプリケーションの1つの典型的な部類において、前景は、物体を伴うフレームと、背景を伴わないフレームとの間の差を算出することによって識別される。代表的なアプリケーションの他のタイプにおいて、想定は、背景が、統計的にモデリングされ、画像のシーケンスに基づいて更新され得るということである。
それらの一般的な技法は、例えば、以下の文書において説明されている:
・米国特許第6411744B1号「Method and apparatus for performing a clean background subtraction」.
・Ahmed M.Elgammal、David Harwood、およびLarry S.Davis.「Non-parametric Model for Background Subtraction」.於Proceedings of the 6th European Conference on Computer Vision」、2000.
・米国特許第5748775A号「Method and apparatus for moving object extraction based on background subtraction」
・M.Piccardi、「Background subtraction techniques:a review」2004 IEEE International Conference on Systems、Man and Cybernetics
・Z.Zivkovic、「Improved adaptive Gaussian mixture model for background subtraction」、Proceedings of the 17th International Conference on Pattern Recognition、2004
・Sobral,Andrews & Vacavant,Antoine.「A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos」.Computer Vision and Image Understanding、2014
・S.Liao、G.Zhao、V.Kellokumpu、M.PietikainenおよびS.Z.Li、「Modeling pixel process with scale invariant local patterns for background subtraction in complex scenes」、2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition、San Francisco、CA、2010
・W.KimおよびC.Kim、「Background Subtraction for Dynamic Texture Scenes Using Fuzzy Color Histograms」、於IEEE Signal Processing Letters、第19巻、第3号、127-130頁、2012年3月.
・Dar-Shyang Lee、「Effective Gaussian mixture learning for video background subtraction」、於IEEE Transactions on Pattern Analysis and Machine Intelligence、第27巻、第5号、827-832頁、2005年5月.
・J.YaoおよびJ.Odobez、「Multi-Layer Background Subtraction Based on Color and Texture」、2007 IEEE Conference on Computer Vision and Pattern Recognition、Minneapolis、MN、2007
・K.Shafique、O.JavedおよびM.Shah、「A Hierarchical Approach to Robust Background Subtraction using Color and Gradient Information」、Motion and Video Computing、IEEE Workshop on (MOTION)、Orlando、Florida、2002。
しかしながら、非接触指紋識別システムにおいて、両方の手法は、統計的モデリングのための画像シーケンスを捕捉するために難題になり、背景シーンは、また、時間ごとに変動することがある。それゆえに、非接触指紋識別システムに関する新しい手法に対する必要性が存する。
さらなる代替的な、および有利な解決策が、よって、当技術分野において望ましいことになる。
米国特許第6411744号明細書 米国特許第5748775号明細書
Ahmed M.Elgammal、David Harwood、およびLarry S.Davis.「Non-parametric Model for Background Subtraction」.於Proceedings of the 6th European Conference on Computer Vision」、2000 M.Piccardi、「Background subtraction techniques:a review」2004 IEEE International Conference on Systems、Man and Cybernetics Z.Zivkovic、「Improved adaptive Gaussian mixture model for background subtraction」、Proceedings of the 17th International Conference on Pattern Recognition、2004 Sobral,Andrews & Vacavant,Antoine.「A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos」.Computer Vision and Image Understanding、2014 S.Liao、G.Zhao、V.Kellokumpu、M.PietikainenおよびS.Z.Li、「Modeling pixel process with scale invariant local patterns for background subtraction in complex scenes」、2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition、San Francisco、CA、2010 W.KimおよびC.Kim、「Background Subtraction for Dynamic Texture Scenes Using Fuzzy Color Histograms」、於IEEE Signal Processing Letters、第19巻、第3号、127-130頁、2012年3月 Dar-Shyang Lee、「Effective Gaussian mixture learning for video background subtraction」、於IEEE Transactions on Pattern Analysis and Machine Intelligence、第27巻、第5号、827-832頁、2005年5月 J.YaoおよびJ.Odobez、「Multi-Layer Background Subtraction Based on Color and Texture」、2007 IEEE Conference on Computer Vision and Pattern Recognition、Minneapolis、MN、2007 K.Shafique、O.JavedおよびM.Shah、「A Hierarchical Approach to Robust Background Subtraction using Color and Gradient Information」、Motion and Video Computing、IEEE Workshop on (MOTION)、Orlando、Florida、2002
本発明は、非接触指紋識別システムの特定の分野における背景差分のための新しい手法を提案することを目指す。
本発明は、その最も広範な意味において、少なくともフラッシュ光を有する非接触指紋リーダを使用して獲得される画像上の指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクを生成するための方法であって、以下のステップ:
- リーダの近傍における非接触位置におけるスラップ/指の2つの画像の獲得であって、1つの画像がフラッシュ光オンで取り込まれ、1つの画像がフラッシュ光なしで取り込まれる、2つの画像の獲得、
- フラッシュ光ありで獲得される画像と、フラッシュ光なしで獲得される画像との間の差マップの算出、
- 画像の各々の画素に対する適応的2値化しきい値の算出であって、各々の画素に対するしきい値は差マップにおける対応する値であり、差マップにおける対応する値に対して、この対応する値に、対応するフラッシュ光補償因子値を乗算したものが減算され、対応するフラッシュ光補償因子値は、フラッシュ光ありで獲得される非反射性白ターゲット(non-reflective blank target)の画像を使用して、フラッシュ光補償因子マップにおいて決定され、また、差マップにおける対応する値に対して、この対応する値に、対応する背景向上因子値(background enhancement factor value)を乗算したものが加算され、背景向上因子値は、フラッシュ光なしで獲得される画像を使用して、背景向上因子マップにおいて決定される、適応的2値化しきい値の算出、
適応的2値化しきい値の値が差マップにおける対応する値よりも高い画素に第1の値を、また、適応的2値化しきい値の値が差マップにおける対応する値よりも低い画素に第2の値を帰属させることによる、差マップの2値化であって、2値化された画像は、スラップ/指前景マスクである、差マップの2値化
を含む、方法と定義される。
本発明のおかげで、有効前景、すなわち、スラップ/指領域が、異なる領域の間の差を適応的に算出することによって識別および抽出され得る。抽出される、クリーンな前景は、次いで、非接触指紋識別システムにおいて先進的な指紋処理タスクのために使用され得る、前景マスクによって表される。
本発明は、非接触指紋識別システムのハードウェアおよびソフトウェアの両方の能力を組み合わせる、無類の、および効率的な解決策である。本発明は、2つの画像、および、問題を解決するための最小限のハードウェアセットアップを必要とするのみである。ハードウェアの見地において、本発明は、同じ被写体に対する2つの画像を受け取り、一方は、フラッシュ光オンでのものであり、他方は、フラッシュ光オフでのものであり、次いで、装置は、捕捉された画像を、送信、処理、および保存することができる。ソフトウェアの見地において、提案されるアルゴリズムは、2つの捕捉された画像に基づいて前景エリアと背景エリアとの間の差を適応的に算出し、次いで、スラップ/指に対する正確な前景マスクを生成することができる。
機能性の見地において、本発明は、様々なシナリオに対処し、それらのシナリオによって、非接触指紋識別システムは、異なる場所において、よりロバストに作動することができる。性能の見地において、本発明は、前景スラップ/指エリアを正確に識別するのみではなく、また、伝統的な背景モデリング技法の速度を高め、そのことは、非接触指紋識別システムの性能を大いに改善する。コストの見地において、本発明は、雑然とした背景シーンおよびノイズを除去するための、より精巧化された視認窓およびカバーを要する製品設計の負担を軽減する。事業の必要性の見地において、本発明は、顧客に対する核となる特徴のうちの1つである。
有利には、方法は、2値化された画像におけるノイズ除去のステップをさらに含む。
本発明の特定の特徴によれば、フラッシュ光補償因子が、非反射性白ターゲットの画像において取得されるような画素の基準照明値で除算された、画素の標準照明値によって、各々の画素に対して規定され、この画像が、基準画像である。
本発明の別の特定の特徴によれば、背景向上因子が、異なる被写体に対するフラッシュ光オンでのスラップ/指の明るさの平均で除算される、フラッシュ光オフでの画像における背景の明るさによって、各々の画素に対して規定される。
本発明は、また、少なくとも非接触指紋リーダに接続された、非接触獲得指紋画像プロセッサであって、非接触指紋リーダは、少なくともフラッシュ光を有し、ユーザの指紋の獲得のために、フラッシュ光ありで、またはなしで、リーダの近傍における非接触位置におけるスラップ/指の画像を獲得するように構成され、前記プロセッサは、指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクを生成するように構成され、前記プロセッサは、リーダの近傍における非接触位置におけるスラップ/指の2つの画像を受け取ることであって、1つの画像がフラッシュ光オンで取り込まれ、1つの画像がフラッシュ光なしで取り込まれる、受け取ることを行うときに、フラッシュ光ありで獲得された画像と、フラッシュ光なしで獲得された画像との間の差マップを算出し、画像の各々の画素に対する適応的2値化しきい値を算出するように構成され、各々の画素に対するしきい値は差マップにおける対応する値であり、差マップにおける対応する値に対して、この対応する値に、対応するフラッシュ光補償因子値を乗算したものが減算され、対応するフラッシュ光補償因子値は、フラッシュ光ありで獲得された非反射性白ターゲットの画像を使用して、フラッシュ光補償因子マップにおいて決定され、また、差マップにおける対応する値に対して、この対応する値に、対応する背景向上因子値を乗算したものが加算され、対応する背景向上因子値は、フラッシュ光なしで獲得された画像を使用して、背景向上因子マップにおいて決定され、前記プロセッサは、適応的2値化しきい値の値が差マップにおける対応する値よりも高い画素に第1の値を、および、適応的2値化しきい値の値が差マップにおける対応する値よりも低い画素に第2の値を帰属させることによる、差マップを2値化するようにさらに構成され、結果的に生じる2値化された画像は、非接触指紋リーダを使用して獲得される画像上の指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクである、非接触獲得指紋画像プロセッサに関する。
有利には、プロセッサが、2値化された画像からノイズを除去するようにさらに構成される。
そのプロセッサが、さらには、非反射性白ターゲットの画像において取得されるような、画素の基準照明値で除算された画素の標準照明値として、各々の画素に対して、フラッシュ光補償因子を規定するように有利に構成され、この画像が、基準画像である。
前記プロセッサが、また、異なる被写体に対するフラッシュ光オンでのスラップ/指の明るさの平均で除算された、フラッシュ光オフでの画像における背景の明るさとして、各々の画素に対して、背景向上因子を規定するようにさらに有利に構成される。
上述の、および関係付けられる最終目標の達成のために、1つ以上の実施形態は、本明細書において以降で十二分に説明され、特許請求の範囲において特に指摘される、特徴を含む。
以下の説明、および、添付される図面は、所定の例解的な態様を詳細に明らかにし、実施形態の原理が用いられ得る、ごく少数の様々な方法を指し示す。他の利点、および、新規の特徴は、図面と関連して考察されるときに、以下の詳細な説明から明白になることになり、開示される実施形態は、すべてのそのような態様、および、それらの態様の均等を含むことが意図される。
本発明が実現される環境の概略線図である。 本発明の非接触指紋画像のための背景差分方法のフローチャートを示す図である。 フラッシュオン/オフ画像差マップ算出を示す図である。 フラッシュ光向上因子マップ算出のフローチャートを示す図である。 背面光向上因子マップ算出のフローチャートを示す図である。 本発明の差マップに対する適応的しきい値処理を例解する図である。 ノイズ除去、および、最終的なスラップ/指マスク生成を示す図である。
本発明のより徹底した理解のために、本発明は、今から、付随する図面を参照して詳細に説明されることになる。詳細な説明は、本発明の好ましい実施形態と考えられるものを例解および説明することになる。形式または詳細における様々な修正および変更が、本発明の趣旨から逸脱することなくたやすく行われ得るということが、当然ながら理解されるべきである。それゆえに、本発明は、本明細書において示され説明されるそのままの形式および詳細にも、本明細書において開示される、および、本明細書において以降で主張されるような、本発明の全体より少ないいかなるものにも、限定され得ないということが意図される。同じ要素は、異なる図面において同じ参照符によって指定されている。明確さのために、本発明の理解に対して有用である要素およびステップのみが、図面において示されており、説明されることになる。
図1は、発明された装置1の概略線図である。その装置1は、3つの主要な構成要素、2つの画像I/O機能部11および14と、画像プロセッサ12と、画像メモリ13とを含む。発明された装置1は、指紋の捕捉物を受け取るために、少なくとも1つの非接触指紋リーダ10に接続される。
かくして、本発明によれば、画像I/O機能部11は、非接触指紋リーダ10から、フラッシュを当てられたスラップ/指画像、および、フラッシュを当てられないスラップ/指画像の両方を含む、未加工の非接触スラップ/指画像を受け取る。それらの画像は、図3上で示される。
画像I/O機能部11は、次いで、画像プロセッサ12に、および、画像メモリ13に画像を送信する。その画像I/O機能部11は、また、適用できる場合、非接触指紋識別システムの他の構成要素に、処理された画像を出力することができる。
画像プロセッサ12は、受け取られた画像を処理する一方で、本発明を実現する。本発明の方法の終了において、正確な前景スラップ/指マスクが生成される。
ROMおよびRAMメモリを含む画像メモリストレージ13は、捕捉または処理された画像を保存することができる。
図2は、本発明の非接触指紋画像のための背景差分方法のフローチャートを示す。第1に、2つのスラップ/指画像が、ステップS0において、同じ被写体に対して非接触指紋スキャナ10から受け取られ、一方は、フラッシュ光オンで捕捉され、他方は、フラッシュ光オフで捕捉される。
第2に、ステップS1において、2つの画像の間の差が算出され、差マップが生成される。第3に、不均一なフラッシュ光、および、背景ノイズに起因して、差マップが、ステップS2において、適応的しきい値処理を使用して適応的に2値化される。初期前景マスクが、かくして生成される。第4に、ステップS3において、モルフォロジカル演算が、ランダムノイズおよび構造ノイズを除去するために、初期前景マップに適用される。最終的に、最終的な正確なスラップ/指マスクが、ステップS4において生成される。
図3は、フラッシュオン/オフ画像差マップ算出によって、画像の初期前景マップを生成する方策を例解する例である。非接触指紋スキャナ11から受け取られ、一方がフラッシュオンでのものIFであり、他方がフラッシュオフでのものINFである、2つの画像が、10ms未満の間隔を伴って連続的に捕捉される。このこと、すなわち、2つの画像IFおよびINFの間のスラップ/指の動きが存しないということが、かくして想定される。2つの画像IFおよびINFの間の差は、フラッシュ光によって照らされ得る一部分、および、ノイズであることになる。
背景シーンは、通常は、フラッシュ光の範囲を超えているので、照らされた被写体は、スラップ/指、および、スキャナそれ自体のいくつかの部分を含む。照らされたスラップ/指の特有のパターンに基づいて、初期前景マップ、すなわち、スラップ/指が、2つの画像IFおよびINFの間の差を算出することによって生成され得る。図3上で示されるように、差マップDMが取得される。
前景マップが、以下の式:ID(x,y)=|IF(x,y)-INF(x,y)|によって、フラッシュを当てられた画像と、フラッシュを当てられない画像との間のあらゆる画素のグレースケール差を算出することによって、本発明によって生成され、ただし、IF(x,y)は、位置(x,y)におけるフラッシュを当てられた画像の画素値であり、INF(x,y)は、同じ位置におけるフラッシュを当てられない画像の画素値であり、ID(x,y)は、2つの画像IFおよびINFの間の絶対差である。
図4は、フラッシュを当てられたスラップ/指画像IFにおいて、不均一に分布したフラッシュ光を補償する方策を例解する、フラッシュ光向上因子マップ算出のフローチャートである。ハードウェア限界に起因して、スラップ/指画像におけるフラッシュ光は、均一に分布しておらず、画像中心は、最も強いフラッシュ光を受け取り、フラッシュ光の強度は、画像中心から画像端部への方向に沿って減少する。しかしながら、スラップ/指の物理的形状および場所は、画像におけるすべてのエリアが、とりわけ、指が位置する公算がより大きい、画像IFの端部に沿って、均一に照明されるということを要する。
本発明は、補償因子の算出によって、不均一なフラッシュ光を補償することを提案する。特別な非反射性ターゲットが、非接触獲得デバイス10の視野を覆うために使用される。
この非反射性ターゲットの画像が、次いで、フラッシュ光分布の基準画像IRとして、フラッシュ光オンで、ステップC1において取り込まれる。取得された画像は、次いで、ステップC3において画素値マップを取得するために、ステップC2において平滑化される。次いで、実際のところはまた画素値マップである、フラッシュ光補償または向上因子マップFCMが、α(x,y)=IS(x,y)/IR(x,y)と、ステップC4において定義され、ただし、α(x,y)は、位置(x,y)における画像画素に対するフラッシュ光補償因子であり、IS(x,y)は、ビネッティング影響を伴わない画像中心エリアにおける平均明るさレベルに等しい、画素(x,y)の標準照明値であり、IR(x,y)は、同じ位置における基準画素値である。フラッシュ光補償因子マップFCMは、次いで、画像メモリ13内に保存され、新しい差マップIDが修正されることを必要とするときに取り出される。
図5は、背景向上因子マップBCMを取得する方策を例解する、フローチャート、背面光向上因子マップ算出である。前に述べられたように、動的な、および強い背景シーン/ノイズ、例えば、強い背景光の存在が、画像において顕著であり、伝統的な2値化方法が使用されるならば、前景スラップ/指を乱すことがある。本発明によれば、2値化が、捕捉された画像における明るさを適応させるために、2値化のために使用されるしきい値を適応的に増大/減少するように実行される。
背景向上因子マップBCMを決定するために、複数個のサンプル画像が、異なる被写体にわたって、フラッシュオンで、製造の前に取り込まれ、次いで、スラップ/指の明るさが、収集されたサンプル画像に基づいて評価される。複数個の被写体からのスラップ/指の明るさの平均強度は、BFと表象され、そのBFは、すべてのデバイスに対してソフトウェア開発キット(SDK)において生成および保存される。デバイスの通常の動作の間、すなわち、デバイスが、指紋を捕捉するために現場に設置される間、各々の捕捉に対して、フラッシュ光オフでの画像が、第1のステップBC1において取り込まれる。画像は、ステップBC2においてしきい値処理される。明るさの平均強度は、BNF(x,y)と表象される。背景向上因子BCMが、β(x,y)=BNF(x,y)/BFとして、ステップBC3において定式化される。背景向上因子マップBCMが、かくして、指紋を捕捉することになる、設置されたデバイスに対して取得される。
図6は、差マップに対する適応的しきい値処理、および、いかにより早期に取得される差マップDMが初期前景マスクIFMへと変換されるかを示す。3つの入力が、この変換のために使用される。第1のものは、フラッシュオンおよびフラッシュオフ画像の本質的な差マップを示す初期差マップDMである。第2のものは、フラッシュ光を補償し、画像端部に沿った、低下したフラッシュ光強度によって導入される不正確さを消失させる、フラッシュ光補償マップFCMである。最後のものは、画像における実在する強い背景を修正した背景向上因子マップBCMである。
次いで、適応的2値化しきい値Tが、T(x,y)=ID(x,y)*(1-α(x,y)+β(x,y))として、本発明によって定式化される。
初期差マップIDが、次いで、次式のように、初期前景マスクIFMへと2値化される:
M(x,y)=255 T(x,y)≧ID(x,y)ならば、および、
0 T(x,y)<ID(x,y)ならば
ただし、M(x,y)は、図6において示されるように、スラップ/指およびノイズの両方を含む、位置(x,y)における初期前景マスクIFMの画素値である。初期前景マップが生成されると、ランダムノイズおよび構造ノイズを含む、画像において実在するノイズを識別および除去することの必要性が存する。かくして、最終的な前景マスクFFMを生成するためにノイズを除去することの必要性が存する。本発明において、構造およびランダムノイズを除去するためのモルフォロジカル演算が適用される。
実験において、発明者らは、デバイス筐体の少なくとも部分が捕捉される画像において構造ノイズが実在するということを見いだした。また、背景ノイズが、いくらかの追加的なランダムノイズを引き起こし得る。このことは、図6上での右の絵図上で示されるような初期前景マスクIFM上で認められ得る。
そのことによって、モルフォロジカル演算が、すべてのタイプのノイズを除去するために使用される。最初に、オープニング演算が画像に適用され、そのことが、画像からの小さい物体およびランダムノイズ、例えば、画像におけるデバイス本体を除去し、次いで、クロージング演算が画像に適用され、そのことが、前景における小さい穴を除去し、スラップ/指の縁部を平滑化する。
図7は、ノイズ除去、および、最終的なスラップ/指マスク生成を、ノイズ除去の前および後の比較として示し、結果が、スラップ/指に対する最終的な前景マスクFFMである。最終的なスラップ/指前景マスクFFMが取得されると、そのFFMは、画像メモリ13内に保存される。かくして取得された最終的な前景マスクFFMは、先進的な非接触指紋処理タスクのために非接触指紋識別システムにおける他のモジュールへの入力として作製される。
上記の詳細な説明において、例解として、本発明が実践され得る特定の実施形態を示す、付随する図面に対する参照が行われている。これらの実施形態は、当業者が本発明を実践することを可能にするために、十分に詳細に説明されている。上記の詳細な説明は、それゆえに、限定的な意味において解されるべきではなく、本発明の範囲は、適切に解釈される、添付される特許請求の範囲によってのみで定義される。

Claims (8)

  1. 少なくともフラッシュ光を有する非接触指紋リーダを使用して獲得される画像上の指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクを生成するための方法であって、非接触指紋リーダによって行われる以下のステップ:
    リーダの近傍における非接触位置におけるスラップ/指の2つの画像の獲得であって、1つの画像がフラッシュ光オンで取り込まれ、1つの画像がフラッシュ光なしで取り込まれる、2つの画像の獲得、
    フラッシュ光ありで獲得された画像と、フラッシュ光なしで獲得された画像との間の差マップの算出、
    画像の各々の画素に対する適応的2値化しきい値の算出であって、各々の画素に対するしきい値は差マップにおける対応する値であり、差マップにおける対応する値に対して、この対応する値に、対応するフラッシュ光補償因子値を乗算したものが減算され、対応するフラッシュ光補償因子値は、フラッシュ光ありで獲得された非反射性白ターゲットの画像を使用して、フラッシュ光補償因子マップにおいて決定され、また、差マップにおける対応する値に対して、この対応する値に、対応する背景向上因子値を乗算したものが加算され、対応する背景向上因子値は、フラッシュ光なしで獲得される画像を使用して、背景向上因子マップにおいて決定される、適応的2値化しきい値の算出、
    適応的2値化しきい値の値が差マップにおける対応する値よりも高い画素に第1の値を、また、適応的2値化しきい値の値が差マップにおける対応する値よりも低い画素に第2の値を帰属させることによる、差マップの2値化であって、2値化された画像は、スラップ/指前景マスクである、差マップの2値化
    を含む、方法。
  2. 非接触指紋リーダによって行われる、2値化された画像におけるノイズ除去のステップをさらに含む、請求項1に記載の方法。
  3. フラッシュ光補償因子が、画素の標準照明値によって、各々の画素に対して規定され、画素の標準照明値は、非反射性白ターゲットの画像において取得されるような、画素の基準照明値で除算された、ビネッティング影響を伴わない画像中心エリアにおける平均明るさレベルに等しく、この画像が、基準画像である、請求項1または2に記載の方法。
  4. 背景向上因子が、異なる被写体に対するフラッシュ光オンでのスラップ/指の明るさの平均で除算された、フラッシュ光オフでの画像における背景の明るさによって、各々の画素に対して規定される、請求項1から3のいずれか一項に記載の方法。
  5. 少なくとも非接触指紋リーダに接続された、非接触獲得指紋画像プロセッサであって、非接触指紋リーダは、少なくともフラッシュ光を有し、ユーザの指紋の獲得のために、フラッシュ光ありで、またはなしで、リーダの近傍における非接触位置におけるスラップ/指の画像を獲得するように構成され、前記プロセッサは、指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクを生成するように構成され、前記プロセッサは、リーダの近傍における非接触位置におけるスラップ/指の2つの画像を受け取ることであって、1つの画像がフラッシュ光オンで取り込まれ、1つの画像がフラッシュ光なしで取り込まれる、受け取ることを行うときに、フラッシュ光ありで獲得された画像と、フラッシュ光なしで獲得された画像との間の差マップを算出し、画像の各々の画素に対する適応的2値化しきい値を算出するように構成され、各々の画素に対するしきい値は差マップにおける対応する値であり、差マップにおける対応する値に対して、この対応する値に、対応するフラッシュ光補償因子値を乗算したものが減算され、対応するフラッシュ光補償因子値は、フラッシュ光ありで獲得された非反射性白ターゲットの画像を使用して、フラッシュ光補償因子マップにおいて決定され、また、差マップにおける対応する値に対して、この対応する値に、対応する背景向上因子値を乗算したものが加算され、対応する背景向上因子値は、フラッシュ光なしで獲得された画像を使用して、背景向上因子マップにおいて決定され、前記プロセッサは、適応的2値化しきい値の値が差マップにおける対応する値よりも高い画素に第1の値を、および、適応的2値化しきい値の値が差マップにおける対応する値よりも低い画素に第2の値を帰属させることによって、差マップを2値化するようにさらに構成され、結果的に生じる2値化された画像は、非接触指紋リーダを使用して獲得された画像上の指紋の後続の画像処理のために使用されることになる、スラップ/指前景マスクである、非接触獲得指紋画像プロセッサ。
  6. 2値化された画像からノイズを除去するようにさらに構成される、請求項に記載の非接触獲得指紋画像プロセッサ。
  7. 非反射性白ターゲットの画像において取得されるような、画素の基準照明値で除算された画素の標準照明値として、各々の画素に対して、フラッシュ光補償因子を規定するように構成され、この画像が、基準画像である、請求項5または6に記載の非接触獲得指紋画像プロセッサ。
  8. 異なる被写体に対するフラッシュ光オンでのスラップ/指の明るさの平均で除算された、フラッシュ光オフでの画像における背景の明るさとして、各々の画素に対して、背景向上因子を規定するように構成される、請求項5から7のいずれか一項に記載の非接触獲得指紋画像プロセッサ。
JP2021576857A 2019-07-01 2020-06-29 スラップ/指前景マスクを生成するための方法 Active JP7403562B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/458,804 2019-07-01
US16/458,804 US10915725B2 (en) 2019-07-01 2019-07-01 Method to generate a slap/fingers foreground mask
PCT/EP2020/068297 WO2021001323A1 (en) 2019-07-01 2020-06-29 Method to generate a slap/fingers foreground mask

Publications (2)

Publication Number Publication Date
JP2022538850A JP2022538850A (ja) 2022-09-06
JP7403562B2 true JP7403562B2 (ja) 2023-12-22

Family

ID=71465303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021576857A Active JP7403562B2 (ja) 2019-07-01 2020-06-29 スラップ/指前景マスクを生成するための方法

Country Status (7)

Country Link
US (1) US10915725B2 (ja)
EP (1) EP3994607A1 (ja)
JP (1) JP7403562B2 (ja)
KR (1) KR20220047749A (ja)
CN (1) CN114144812A (ja)
CA (1) CA3145443C (ja)
WO (1) WO2021001323A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232281B1 (en) * 2020-07-22 2022-01-25 Himax Technologies Limited Method of filtering fingerprint image
CN113592753B (zh) * 2021-07-23 2024-05-07 深圳思谋信息科技有限公司 基于工业相机拍摄的图像的处理方法、装置和计算机设备
CN115995101B (zh) * 2022-12-29 2024-07-19 腾讯科技(深圳)有限公司 虚拟指纹的生成方法、系统、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009506688A (ja) 2005-08-30 2009-02-12 フォトネーション ビジョン リミテッド 画像分割方法および画像分割システム
WO2010106657A1 (ja) 2009-03-18 2010-09-23 富士通株式会社 生体情報取得装置及び生体認証装置
US20110268359A1 (en) 2004-08-16 2011-11-03 Tessera Technologies Ireland Limited Foreground/Background Segmentation in Digital Images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
US6411744B1 (en) 1997-10-15 2002-06-25 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US8600123B2 (en) * 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
JP2015529365A (ja) * 2012-09-05 2015-10-05 エレメント,インク. カメラ付きデバイスに関連する生体認証のためのシステム及び方法
US10853624B2 (en) * 2017-10-17 2020-12-01 Sony Corporation Apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110268359A1 (en) 2004-08-16 2011-11-03 Tessera Technologies Ireland Limited Foreground/Background Segmentation in Digital Images
JP2009506688A (ja) 2005-08-30 2009-02-12 フォトネーション ビジョン リミテッド 画像分割方法および画像分割システム
WO2010106657A1 (ja) 2009-03-18 2010-09-23 富士通株式会社 生体情報取得装置及び生体認証装置

Also Published As

Publication number Publication date
JP2022538850A (ja) 2022-09-06
CA3145443C (en) 2023-10-17
CA3145443A1 (en) 2021-01-07
KR20220047749A (ko) 2022-04-19
WO2021001323A1 (en) 2021-01-07
US10915725B2 (en) 2021-02-09
US20210004559A1 (en) 2021-01-07
CN114144812A (zh) 2022-03-04
EP3994607A1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
JP7403562B2 (ja) スラップ/指前景マスクを生成するための方法
Al-Ghaili et al. Vertical-edge-based car-license-plate detection method
Sarfraz et al. Real-time automatic license plate recognition for CCTV forensic applications
Goel et al. Specific color detection in images using RGB modelling in MATLAB
CN110059634B (zh) 一种大场景人脸抓拍方法
Donida Labati et al. A scheme for fingerphoto recognition in smartphones
CN116823694A (zh) 基于多聚焦信息整合的红外与可见光图像融合方法及系统
Khalil et al. A review of fingerprint pre-processing using a mobile phone
Jameel et al. Gait recognition based on deep learning
Vasavi et al. Metadata Based Object Detection and Classification Using Key Frame Extraction Method
Singh et al. Noise Removal Technique for Document Images
CN114463789A (zh) 非接触指纹图像增强方法、设备、存储介质和程序产品
JP2006506724A (ja) 映像に固有の時間変動情報を介するオブジェクト分類
CN112926676A (zh) 一种虚假目标识别方法、装置及计算机设备
Chen et al. Applying Image Processing Technology to Automatically Detect and Adjust Paper Benchmark for Printing Machine.
Higashi et al. New feature for shadow detection by combination of two features robust to illumination changes
Mohankumar et al. MODFAT: Moving Object Detection by Removing Shadow Based on Fuzzy Technique with an Adaptive Thresholding Method
Divyashree et al. A Review on Gradient Histograms for Texture Enhancement and Object Detection
John et al. An effective approach to shadow removal and skin segmentation using deep neural networks
Bobulski et al. Background segmentation method for autonomous car
Ye et al. Model-based character extraction from complex backgrounds
Radha et al. Threshold based segmentation using median filter for sign language recognition system
Saha et al. A Comprehensive Survey on Different Techniques and Applications of Digital Image Processing
Bakr et al. Detecting moving shadow using a fusion of local binary pattern and gabor features
Ravi et al. LMEPOP and Fuzzy Logic Based Intelligent Technique for Segmentation of Defocus Blur

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150