JP2005284629A - 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体 - Google Patents

画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体 Download PDF

Info

Publication number
JP2005284629A
JP2005284629A JP2004096461A JP2004096461A JP2005284629A JP 2005284629 A JP2005284629 A JP 2005284629A JP 2004096461 A JP2004096461 A JP 2004096461A JP 2004096461 A JP2004096461 A JP 2004096461A JP 2005284629 A JP2005284629 A JP 2005284629A
Authority
JP
Japan
Prior art keywords
image
input
collation
unit
collating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004096461A
Other languages
English (en)
Inventor
Yasushi Ito
康史 伊藤
Manabu Yumoto
学 湯元
Manabu Onozaki
学 小野崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004096461A priority Critical patent/JP2005284629A/ja
Priority to US11/090,865 priority patent/US20050213798A1/en
Publication of JP2005284629A publication Critical patent/JP2005284629A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】 スイープセンシング方式とエリアセンシング方式とを使い分けて画像照合を行なう。
【解決手段】 画像照合装置においては、画像を入力すると入力画像間で得られる移動ベクトルの累積値を算出して(T12)その累積値に応じて指紋入力および照合方式(センシング方法)が判別され(T13)、スイープセンシング方式とエリアセンシング方式とのいずれかで指紋データが入力される(T14)。そして、いずれの方法で入力された指紋データに対して、読出された参照画像との類似度が計算されて照合され(T17,T18)、判定結果が出力される(T19)。
【選択図】 図4

Description

本発明は、画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体に関し、特に、スイープセンシング方式とエリアセンシング方式とを使い分けが可能になる画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体に関する。
従来の指紋画像に関する照合方法は、大きく分けて画像特徴量マッチング方式と画像間マッチング方式とに大別できる。前者の画像特徴量マッチングは、「これで分かったバイオメトリクス」(日本自動認識システム協会編、オーム社:P42〜P44)では、画像を直接比較するのではなく、画像内に含まれる特徴量を抽出した後、抽出した画像特徴量同士を比較する方法である。該方法では指紋画像における照合においては、図13(A)と(B)のようなマニューシャ(指紋隆線の端点と分岐点であり、指紋画像内に数個から数十個存在する)が画像特徴量となる。該方法では、図14のようにそれぞれの画像から画像処理により抽出したマニューシャの位置や種類や隆線などの情報を基に画像間で相対的な位置や方向が一致するマニューシャ数を類似度とし、マニューシャ間を横切る隆線数などの一致・不一致により類似度を増減し、その類似度と予め定めた閾値と比較し照合・識別を行う。
後者の画像間マッチングは、図15(A)と(B)のように照合する画像αとβ間で全領域もしくは部分領域に対応の部分画像α1とβ1を抽出し、部分画像α1とβ1間の一致度を、差分値の総和、相関係数、位相相関法や郡遅延ベクトル法などにより画像αとβ間の類似度として計算し、算出された類似度と予め定めた閾値と比較し照合・識別を行う。
画像間マッチングの手法を利用した発明としては、特許文献1または特許文献2などが挙げられる。特許文献1では、画像間マッチングを行ったのち部分領域をさらに4分割し、それぞれの分割領域の周辺領域での一致度最大となる位置を求め、平均一致度を改めて類似度とする。
これにより、指紋画像内に指紋採取の時に生じた指紋の歪みに対処できる。特許文献2では、一方の指紋画像中の特徴を含む複数の部分領域の位置関係の拘束をある程度保持して他方の指紋画像の各部分領域との一致度の総和を計算して、類似度として算出する。
これらの画像間マッチング方式、及び画像特徴量マッチング方式の問題点は、特許文献3の明細書の段落(0006)〜段落(0010)に開示されている。
一般的には画像間マッチング方式はノイズや指の状態(乾燥・汗・傷)などに対処しやすく、画像特徴量マッチング方式は、比較するデータ量が少ないため画像間マッチングに比べ高速処理可能であり、画像に傾きがあっても特徴点間の相対的な位置・方向の探索によりマッチングが可能である。
上述の画像間マッチング方式、及び画像特徴量マッチング方式の問題点を解決するために、特許文献3では、2つの画像のうちの一方の画像内に設定された複数の部分領域の画像のそれぞれ(図16(A)と(B)を参照)が、他方の画像における最大の一致度となる部分領域の画像の位置である最大一致度位置を探索し、この複数の最大一致度位置が予め設定している閾値と比較(図16(C)参照)することから2つの画像の類似度を計算することが提案されている。
従来の指紋画像に関する入力方法は、図17と図18で示す様に、基本的にエリアセンシング方式(図17)とスイープセンシング方式(図18)とに大別される。例えば、スイープセンシング方式として、特開平5-174133号公報等が挙げられる。エリアセンシング方式は、一度にエリア全面でセンシングされた指紋情報を入力するものであり、スイープセンシング方式は、センサ上で指を動かしながら指紋をセンシングする方式である。特許文献3は、エリアセンシング方式に関する発明が開示されている。特許文献3のエリアセンシング方式では、指紋認証精度を上げるためには、スイープセンシング方式と比して大きな面積のセンサが必要であり、かつ、例えば半導体センサの場合、シリコンの材料コストが高いのでコスト対面積費は良くない。このため、実装面積が小さく、かつ、低コストが必要である携帯機器などにはスイープセンシング方式に利点がある。その反面、スイープセンシング方式では、実装面積が小さく、かつ、低コストの利点があるが、照合する時間がエリアセンシング方式に比べて、時間が掛かるデメリットも有する。
特許第2549107号公報 特開昭63−78286号公報 特開2003−323618号公報 特開平5−174133号公報
従来の技術では、スイープ型のセンサを用いる場合には、必ずスイープセンシング方式が適用されていたので、センシング時にはユーザは指をすべらせることが要求されて、これに対して、エリア型センサを用いる場合には、必ずエリアセンシング方式が適用されていたので、ユーザはセンサ上で指を動かす必要もない。したがって、センシング精度を高めるには、ユーザはセンサの型または適用されているセンシング方式を予め知る必要があり、ユーザの利便性が損なわれる。
また、従来の技術では、指紋のセンシングは照合の目的のみに使用され、センシング結果を利用して機器を起動するまたはアプリケーションプログラムを実行開始する際には、別途ユーザの操作が必要とされるから、操作性と利便性に優れなかった。
それゆえに、この発明の目的は、同一のセンサを用いながらスイープセンシング方式およびエリアセンシング方式のうち適切な方式を選択できる画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体を提供することである。
この発明の他の目的は、センシング方式選択の結果または照合の結果を、他の用途に利用できる画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体を提供することである。
この発明のある局面に従う画像照合装置は、センサを含み、前記センサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力手段と、前記画像入力手段により前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合手段と、前記画像入力手段により前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合手段と、前記画像入力手段により前記対象物の画像を入力するときの前記センサと前記対象物との相対的位置関係の時間経過に従う変化に基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する判別手段と、前記判別手段による判別結果に従い、前記位置固定照合手段および前記位置変化照合手段のいずれかを選択的に能動化する選択手段とを備える。
より具体的には、センサは、スイープ型のセンサと同等のものまたはそれに類似のものを使用し、従来の指をすべらせて行うスイープセンシング方式に対応の位置変化態様と、指をすべらせずにセンシングを行うエリアセンシグ方式に対応の位置固定態様との双方を受け付ける。
ここで言うエリアセンシング方式は、スイープ型センサまたはそれの類似のセンサを用いて、指紋などの対象物の画像を読み取る方式である。スイープセンシング方式が指紋の広い面積を読み取るのに比較して照合するべき対象が狭いため照合の精度は高くないが、ユーザの利便性が高い。機密性の高い用途にはスイープセンシング方式、機密性がそれほど高くない用途には利便性を向上させるためエリアセンシング方式と、用途に応じた方式を選択してもよい。
本装置で用いるセンサは、従来のスイープ型センサまたは類似のものであり、エリア型のセンサを用いる場合に比較してコストが抑えられる。
上述の画像照合装置によれば、センサを介した画像入力手段による対象物の画像を入力するときのセンサと対象物との相対的位置関係の時間経過に従う変化に基づき、判別手段は、入力した画像を位置固定照合手段で照合するか、位置変化照合手段で照合するかを判別し、その判別結果に従い、選択手段は、位置固定照合手段および位置変化照合手段のいずれかを選択的に能動化する。
したがって、選択の基準を外部から特別に与えなくても、画像照合装置では、対象物とセンサとの相対的位置関係の経時変化に基づき、同一のセンサを用いながら位置変化態様によるスイープセンシング方式および位置固定態様によるエリアセンシング方式のうち適切な方式を選択できる。
この発明の他の局面に従う画像照合装置は、センサを含み、前記センサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力手段と、前記画像入力手段により前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合手段と、前記画像入力手段により前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合手段と、与えられる所定情報に基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する判別手段と、前記判別手段による判別結果に従い、前記位置固定照合手段および前記位置変化照合手段のいずれかを選択的に能動化する選択手段と、複数種類の制御対象のうち前記選択手段による選択結果に対応する所定の制御対象を制御する手段とを備える。
上述の画像照合装置によれば、与えられる所定情報に基づき、判別手段は、入力した画像を位置固定照合手段で照合するか、位置変化照合手段で照合するかを判別する。その判別結果に従い、選択手段が、位置固定照合手段および位置変化照合手段のいずれかを選択的に能動化すると、制御手段は、複数種類の制御対象のうち選択手段による選択結果に対応する所定の制御対象を制御する。
したがって、照合手段の選択の結果、いいかえると画像入力の態様の別に対応の制御対象を制御できる。
好ましくは、判別手段は、画像入力手段への画像の入力が開始してから一定時間経過後において、前記相対的位置関係の変化量が所定値に達しているか否かに基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する。
したがって、判別手段の判別は、画像入力手段への画像の入力が開始してから一定時間経過後において行われるから、安定して画像が入力されたころに判別ができて、照合精度が低下するのを回避できる。
好ましくは、判別手段は、前記画像入力手段に画像が入力されるか否かを判定する入力判定手段を含み、前記入力判定手段により画像が入力されないと判定されたときに、前記相対的位置関係の変化量が所定値に達しているか否かに基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する。
したがって、判別手段の判別は対象物がセンサから離れて画像の入力が完了した時点で開始される。それゆえに、別の対象物の入力画像による外乱が照合処理に混入するのを防止できる。
好ましくは、判別手段は、前記画像入力手段に画像が入力されるか否かを判定する入力判定手段を含み、前記入力判定手段により画像が入力されていると判定された状態で、かつ前記相対的位置関係の変化量が所定値に達したときには、前記画像入力手段により入力した画像を前記位置変化照合手段で照合すると判別し、前記入力判定手段により画像が入力されていないと判定された状態で、かつ前記相対的位置関係の変化量が所定値に達していないときには、前記位置固定照合手段で照合すると判別する。
したがって、対象物をセンサ上ですべらせて画像入力する態様である、すなわち画像が入力されており、かつ相対的位置関係の変化量が所定値に達したときには位置変化照合手段で照合でき、対象物をセンサ上ですべらせずに画像入力する態様である、すなわち画像が入力されておらず、かつ相対的位置関係の変化量が所定値に達しないときには位置固定照合手段で照合できる。
好ましくは、複数種類の制御対象のうち選択手段による選択結果に対応の所定の制御対象を制御する。
したがって、ユーザは特別な指示を与えなくても、選択手段による選択がなされると、選択結果に応じた種類の制御対象が制御される。
好ましくは、選択手段により選択的に能動化された前記位置固定照合手段および前記位置変化照合手段のいずれかの照合結果に基づき所定の制御対象を制御する。
したがって、ユーザは特別な指示を与えなくても、所定制御対象を、選択手段により選択的に能動化された照合手段の照合結果に基づき制御できる。
好ましくは、照合結果は、少なくとも、制御対象を起動するためと、制御対象を制御する手順を決定するためとに参照される。
したがって、制御対象の起動および制御手順決定のために画像照合を個々に実施しなくても、選択手段により能動化された照合手段の1回の照合結果をこれらに利用できる。
好ましくは、所定情報は、情報前記画像入力手段により前記対象物の画像を入力するときの前記センサと前記対象物との相対的位置関係の時間経過に従う変化の情報である。
したがって、外部から選択のための特別な情報を与えなくてもよい。
好ましくは、所定情報は、予め設定された情報である。したがって、選択のための情報を予め所望するように設定しておくことができる。
好ましくは、所定情報は、照合の目的を示す情報である。したがって、照合の目的に応じた照合手段を選択的に能動化できる。
好ましくは、所定情報は、機密レベルを示す情報である。したがって、機密レベルに応じた照合手段を選択的に能動化できる。
この発明のさらに他の局面に従う画像照合方法は、予め準備されたセンサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力ステップと、前記画像入力ステップにより前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合ステップと、前記画像入力ステップにより前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合ステップと、前記画像入力ステップにより前記対象物の画像を入力するときの前記センサと前記対象物との相対的位置の時間経過に従う変化に基づき、前記画像入力ステップにより入力した画像を前記位置固定照合ステップで照合するか、前記位置変化照合ステップで照合するかを判別する判別ステップと、前記判別ステップによる判別結果に従い、前記位置固定照合ステップおよび前記位置変化照合ステップのいずれかを選択的に能動化する選択ステップとを備える。
この発明のさらに他の局面に従う画像照合方法は、予め準備されたセンサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力ステップと、前記画像入力ステップにより前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合ステップと、前記画像入力ステップにより前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合ステップと、与えられる所定情報に基づき、前記画像入力ステップにより入力した画像を前記位置固定照合ステップで照合するか、前記位置変化照合ステップで照合するかを判別する判別ステップと、前記判別ステップによる判別結果に従い、前記位置固定照合ステップおよび前記位置変化照合ステップのいずれかを選択的に能動化する選択ステップと、複数種類の制御対象のうち前記選択ステップによる選択結果に対応する所定の制御対象を制御するステップとを備える。
この発明のさらに他の局面に従う画像照合プログラムは、上述の画像照合方法をコンピュータに実行させるための画像照合プログラムである。
この発明のさらに他の局面に従う記録媒体は、上述の画像照合プログラムを記録したコンピュータ読取り可能な記録媒体である。
以下、本発明の各実施の形態について図面を参照しながら説明する。
各実施の形態に係る画像照合装置によれば、センサを従来のスイープ型センサと同等または類似のものであり、同一のセンサを用いてスイープセンシング方式とエリアセンシング方式とを使い分けることができる。それゆえに、センサに付加コストをかけることなく、即ち、従来のスイープ型センサまたは類似のセンサを用いエリア型のセンサを用いる場合に比較してコストが抑えられながら、指紋読取時に指をすべらせるような場合すなわち高い機密性が必要な場合には精度の高い方式、指紋読取時に指をすべらせないような場合すなわち利便性が優先される場合には簡便な方式といった使い分けを可能にしている。ここでは、照合の対象となる画像データとしてセンシングして指紋から読取った画像データを例示しているが、これに限定されず、個体(個人)毎に似ているが一致することはない生体の他の特徴による画像データであってもよい。
図1(A)と(B)は各実施の形態に適用される画像照合装置1のブロック構成図である。図1(A)と(B)の各部の対応関係は、以下のようである。つまり、画像入力手段001は画像入力部101に、参照画像保持手段002は登録データ記憶部202に、照合手段選択情報保持手段003はメモリ102に、照合判別手段004は指紋入力および照合方式判別部1042に、静止画像照合手段005は最大一致位置探索部105、移動ベクトルに基づく類似度計算部106および照合判定部107に、変化画像照合手段006はスナップショット画像間相対的位置関係計算部1045、最大一致位置探索部105、移動ベクトルに基づく類似度計算部106および照合判定部107に、それぞれ対応する。さらに、図1(A)のメモリ102と制御部108は、図1(B)の各手段の全般にかかる記憶領域や制御の機能を持つ。
[実施の形態1]
図2は各実施の形態に係る画像照合装置が搭載されるコンピュータの構成図である。図2を参照してコンピュータは、画像入力部101、CRT(陰極線管)や液晶などからなるディスプレイ610、該コンピュータ自体を集中的に管理し制御するためのCPU(中央処理装置の略)622、ROM(Read Only Memory)またはRAM(ランダムアクセスメモリの略)を含んで構成されるメモリ624、固定ディスク626、FD(フレキシブルディスク)632が着脱自在に装着されて、装着されたFD632をアクセスするFD駆動装置630、CD−ROM(Compact Disc Read Only Memory)642が着脱自在に装着されて、装着されたCD−ROM642をアクセスするCD−ROM駆動装置640、通信ネットワーク182と、該コンピュータとを通信接続するための通信インターフェィス680、およびキーボード650およびマウス660を有する入力部700を含む。これらの各部はバスを介して通信接続される。
コンピュータには、カセット形式の磁気テープが着脱自在に装着されて磁気テープをアクセスする磁気テープ装置が設けられてもよい。
図1(A)を参照して画像照合装置は、画像入力部101、図2のメモリ624または固定ディスク626に対応のメモリ102、登録データ記憶部202、登録データ読出部207、照合処理部11およびこれらを相互に通信可能に接続するバス103を備える。照合処理部11は画像補正部104、指紋入力および照合方式判別部1042、スナップショット画像間相対的位置関係計算部1045、最大一致度位置探索部105、移動ベクトルに基づく類似度計算部(以下、類似度計算部と呼ぶ)106、照合判定部107および制御部108を含む。照合処理部11の各部は対応のプログラムが実行されることによりその機能が実現される。
画像入力部101は指紋センサを含み、該指紋センサにより読込まれた指紋に対応の指紋画像データを出力する。指紋センサには光学式、圧力式および静電容量方式のいずれを適用してもよい。
この画像入力部101の指紋センサは、スイープ方式でセンシングされた指紋データとエリア方式でセンシングされた指紋データとの両方を読取ることができる。画像入力部101の指紋センサが1回のセンシング毎に、すなわちスナップショットのようにセンシングの対象物である指紋を読取るごとに出力される画像データをスナップショット画像データという。センサは対象物が置かれている間は定期的に読取をおこない、その都度画像データを出力すると想定する。
スイープ方式でセンシングする場合は、図3(A)で示すように、細長いセンサに対して指が垂直になるような相対的な位置関係を有して、センサ上で指を上から下(あるいは下から上)に動かして(位置関係を変化させて)、指紋データを読込む。
それに対して、エリア方式でセンシングする場合は、図3(B)で示すように、細長いセンサに指が平行になるような相対的な位置関係を有して、かつ位置関係を変化させない、すなわちセンサ上で指を動かさないようにして指紋データを読込む。
このときのセンサのサイズは、エリア方式でセンシングできる必要最低限のサイズが必要となる。例えば、横幅は、指の1.5倍程度(256画素)、縦幅は指の0.25倍程度(64画素)である。なお、センサのサイズを決定するためにセンシングの候補となる一般的な指のサイズは予め計測により求めておくと想定する。
本発明では、エリア方式でセンシングする場合は、縦幅は指の0.25倍程度のサイズのセンサを用いるため、照合の精度は高くないが、スイープ方式で照合する場合に比べて、処理時間が短いため、簡易的な指紋照合に利用できユーザの利便性が高い。また、スイープ方式でセンシングする場合は、処理時間が長くなるが、照合の精度は高いため、機密性の高い指紋照合に利用できる。
メモリ102には画像データや各種の計算結果などが格納される。バス103は各部間の制御信号やデータ信号を転送するために用いられる。画像補正部104は画像入力部101から入力された指紋画像データについての濃淡補正を行う。最大一致度位置探索部105は一方の指紋画像の複数の部分領域をテンプレートとし、該テンプレートと他方の指紋画像内で最も一致度の高い位置を探索する、いわゆるテンプレートマッチング部のようなものである。類似度計算部106はメモリ102に格納された最大一致度位置探索部105の結果情報を用いて、後述の移動ベクトルに基づく類似度を計算する。類似度判定部107は類似度計算部106が算出した類似度により一致・不一致を判定する。制御部108は照合処理部11の各部の処理を制御する。
登録データ記憶部202には、照合を行うスナップショット画像とは別の画像から得られた照合に使用する画像データのみが予め記憶される。画像照合処理においては、登録データ記憶部202から登録データ読出部207により画像データが読出されて、読出された画像データは入力画像データと照合される参照画像データとして用いられる。なお、各実施の形態では、参照画像データは登録データ読出部207から読出して得ているが、照合処理の都度、外部から入力するようにして得てもよい。
図1の画像照合装置1における画像照合方法について、図4のフローチャートに従い説明する。
まず指がセンサに乗せられるまで待機する(ステップT1〜T4)。
初めに制御部108は、画像入力部101へ画像入力開始の信号を送り、その後、画像入力終了信号を受信するまで待機する。画像入力部101は照合を行う画像データA1をセンサから入力すると、バス103を通してメモリ102の所定アドレスへ格納する(ステップT1)。画像入力部101は、画像データA1の入力が完了した後、制御部108に画像入力終了信号を送る。
次に制御部108は画像補正部104に画像補正開始信号を送り、その後、画像補正終了信号を受信するまで待機する。多くの場合、入力画像は画像入力部101の特性や指紋自体の乾燥度合いや指を押し付ける圧力に対して各画素の濃淡値や全体の濃度分布が変化するので画質が一様ではないから、入力画像データをそのまま照合に用いることは適当でない。そこで画像補正部104は、画像入力時の条件の変動を抑制するように入力画像の画質を補正する(ステップT2)。具体的には、入力画像データに対応の画像全体もしくは画像を分割した小領域ごとに、ヒストグラムの平坦化(「コンピュータ画像処理入門」総研出版P98)や画像の二値化処理(「コンピュータ画像処理入門」総研出版P66−69)などを、メモリ102に格納された画像データA1に対して施す。
画像補正部104は画像データA1に対する画像補正処理の終了後、制御部108に画像補正処理終了信号を送る。
以上の処理を、入力があるまで繰り返す(ステップT3、T4)。
ステップT3の処理を、図5に従って説明する。画像の黒画素(指紋画像の嶺線に相当)の数を、背景となる白画素も含めた全体の画素数で割り、黒画素の割合を示す値Bratioを計算する(ステップSB001)。値Bratioが、ある値MINBratioを超えていれば指がセンサに置かれているので入力ありと判断して元の処理に‘Y’を返し、そうでなければ入力なしと判断して‘N’を返す(ステップSB002〜SB004)。
図4に戻り、ステップT3の処理から‘Y’が返された場合、入力して補正された画像データA1をメモリ102の特定アドレスに格納し(ステップT5)、メモリ102上の所定アドレスに格納された図4の処理を制御するための変数kと移動累積ベクトルVsumをそれぞれ初期化する(ステップT6、T7)。続いて、変数kの値に1を足す(ステップT8)。
次に、ステップT1およびT2と同様に、k+1番目の画像データAk+1を入力し、画像データAk+1について補正を行う(ステップT9、T10)。
1つ前に入力した画像データAkと次に入力した画像データAk+1との移動ベクトルVk,k+1を計算する(ステップT11)。これを図6のフローチャートに従って説明する。
図6のフローチャートでは、1つ前に入力した画像データAkと、ここで入力した画像データAk+1との相対的位置関係を示す移動ベクトルVk,k+1を計算する処理(ステップT11)が行われる。
まず、制御部108はスナップショット画像間相対的位置関係計算部1045へテンプレートマッチング開始信号を送り、テンプレートマッチング終了信号を受信するまで待機する。スナップショット画像間相対的位置関係計算部1045では、ステップS101からステップS108に示されるようなテンプレートマッチング処理が開始される。
ここでのテンプレートマッチング処理は、概略、スナップショット画像データAkとAk+1間で画像データAk+1の複数の部分画像各々が画像データAkのどの部分領域に最も一致するかの探索、つまり最大一致度位置を探索する処理である。例えば、図7(A)で言えば、スナップショット画像データA2の複数の部分画像Q1、Q2、・・・の各々がスナップショット画像データA1の部分画像M1、M2、・・・の中で最も一致する部分画像の位置を探索する。以降で、その詳細を説明する。
ステップS102ではカウンタの変数iを1に初期化する。ステップS103では画像データAk+1の画像上において4画素ライン分の領域を縦方向4画素×横方向4画素毎に分割した部分領域Qiとして規定される部分領域の画像をテンプレートマッチングに用いるテンプレートとして設定する。
ここでは、部分領域Qiは計算を簡単にするために矩形状としているが、これに特定されない。ステップS104ではステップS103で設定したテンプレートに対し、画像データAkの画像内で最も一致度の高い、つまり画像内のデータが最も一致する場所を探索する。具体的には、テンプレートとして用いる部分領域Qiの左上の角を基準とした座標(x,y)の画素濃度をQi(x,y)とし、画像データAkの左上の角を基準とした座標(s、t)の画素濃度をAk(s,t)とし、部分領域Qiの幅をw,高さをhとし、また、画像QiとAkの各画素の取りうる最大濃度をV0とし、画像データAkの画像における座標(s、t)での一致度Ci(s,t)をたとえば以下の(式1)に従い各画素の濃度差を元に計算する。
Figure 2005284629
画像データAkの画像内において座標(s、t)を順次更新して座標(s、t)における一致度C(s,t)を計算し、その中で最も大きい値を取る位置が最も一致度が高いとし、その位置での部分領域の画像を部分領域Miとし、その位置での一致度を最大一致度Cimaxとする。ステップS105ではステップS104で算出した部分領域Qiの画像データAkの画像内における最大一致度Cimaxをメモリ102の所定アドレスに記憶する。ステップS106では、移動ベクトルViを以下の(式2)に従い計算して求めて、メモリ102の所定アドレスに記憶する。ここで、上述のように、画像データAk+1の画像内に設定された位置Pに対応の部分領域Qiに基づいて、画像データAkの画像内をスキャンして部分領域Qiと最も一致度が高い位置Mの部分領域Miが特定されたとき、位置Pから位置Mへの方向ベクトルを、移動ベクトルと呼ぶ。
Vi=(Vix、Viy)=(Mix−Rix、Miy−Riy)…(式2)
(式2)で、変数QixとQiyは部分領域Qiの基準位置のx座標とy座標であり、たとえば画像データAkの画像内における部分領域Qiの左上角の座標に対応する。また変数MixとMiyは部分領域Miの探索結果である最大一致度Cimaxの位置でのx座標とy座標を示し、たとえば画像データAkの画像内におけるマッチングした位置での部分領域Miの左上角の座標に対応する。
ステップS107では変数iが部分領域の総個数n以下か否かを判定し、変数iの値が部分領域の個数n以下であれば処理をS108に移し、そうでなければ処理をS109に移す。ステップS108では変数iの値に1加える。以降変数iの値が部分領域の個数n以下の間はステップS103からS108の処理を繰返し行い、すべての部分領域Qiに関しテンプレートマッチングを行い、それぞれの部分領域Riの最大一致度Cimaxと、移動ベクトルViとを計算していく。
最大一致度位置探索部105は上記のように順次計算されるすべての部分領域Qiに関する最大一致度Cimaxと移動ベクトルViとをメモリ102の所定アドレスに格納したのち、テンプレートマッチング終了信号を制御部108に送り、処理を終了する。
続いて制御部108は類似度計算部106に類似度計算開始信号を送り、類似度計算終了信号を受信するまで待機する。類似度計算部106は、メモリ102に格納されているテンプレートマッチングで得られた各部分領域Qiの移動ベクトルViや最大一致度Cimaxなどの情報を用いて、図6のステップS109からステップS124に示される処理を行い類似度計算を行う。
ここで、類似度計算処理とは、概略、上記テンプレートマッチング処理で求められた複数の部分画像各々に対応する最大一致度位置を用いて2つの画像データAkとAk+1の画像間の類似度を計算する処理である。以降で、その詳細を説明する。なお、スナップショット画像間のデータは通常、同一の人物であるため、この類似度計算処理は行わなくてもよい。
ステップS109では類似度P(Ak,Ak+1)を0に初期化する。ここで類似度P(Ak,Ak+1)とは、画像データAkと画像データAk+1の画像間の類似度を格納する変数とする。ステップS110では基準とする移動ベクトルViのインデックスiを1に初期化する。ステップS111では、基準となる移動ベクトルViに関する類似度Piを0に初期化する。ステップS112では、移動ベクトルVjのインデックスjを1に初期化する。ステップS113では、基準移動ベクトルViと移動ベクトルVjとのベクトル差dVijを以下の(式3)に従い計算する。
Figure 2005284629
ここで、変数VixとViyは移動ベクトルViのx方向成分とy方向成分を示し、変数VjxとVjyは移動ベクトルVjのx方向成分とy方向成分を示し、変数sqrt(X)はXの平方根、X^2はXの二乗を計算する計算式である。
ステップS114では、移動ベクトルViとVjのベクトル差dVijに関し所定の定数εと比較し、移動ベクトルViと移動ベクトルVjが実質的に同一の移動ベクトルとみなすことが可能かを判断する。ベクトル差dVijが定数εより小さければ、移動ベクトルViと移動ベクトルVjが実質的に同一と見なして処理をステップS115に移し、逆に大きければ実質的に同一とは見なさず処理をステップS116に移す。ステップS115では類似度Piを以下の(式4)〜(式6)を用いて増加させる。
Pi=Pi+α…(式4)
α=1…(式5)
α=Cjmax…(式6)
(式4)における変数αは類似度Piを増加させる値である。(式4)のようにα=1とした場合には、類似度Piは基準とした移動ベクトルViと同一の移動ベクトルを持つ部分領域の個数となる。また、(式6)のようにα=Cjmaxとした場合には、類似度Piは基準とした移動ベクトルViと同一の移動ベクトルを持つ部分領域に関するテンプレートマッチング時の最大一致度の総和となる。またベクトル差dVijの大きさに応じて変数αの値を小さくするなどしても構わない。
ステップS116はインデックスjの値が部分領域の総個数nより小さいかどうかを判定し、インデックスjの値が部分領域の個数nより小さい場合は処理をステップS117に移し、大きい場合には処理をステップS118に移す。ステップS117ではインデックスjの値を1増加させる。ステップS111からステップS117の処理により、基準とした移動ベクトルViに関して、同じ移動ベクトルを持つと判定される部分領域の情報を用いた類似度Piが計算される。ステップS118では移動ベクトルViを基準とした場合の類似度Piと変数P(Ak,Ak+1)とを比較して、比較結果が類似度Piが現在までの最大の類似度(変数P(Ak,Ak+1)の値)より大きいことを示せば処理をS119に移し、小さいことを示すならば処理をS120に移す。
ステップS119では、変数P(Ak,Ak+1)に移動ベクトルViを基準とした場合の類似度Piの値を設定する。ステップS118とステップS119では、移動ベクトルViを基準とした場合の類似度Piが、この時点までに計算された他の移動ベクトルを基準にした場合の類似度の最大値(変数P(Ak,Ak+1)の値)と比べ大きい場合には、基準としている移動ベクトルViが現在までのインデックスiが示す移動ベクトルViの中で最も基準として正当であるとしている。
ステップS120では基準とする移動ベクトルViのインデックスiの値と部分領域の個数(変数nの値)を比較する。インデックスiの値が部分領域の個数より小さければ処理をステップS121に移しインデックスiの値を1増加させる。
ステップS109からステップS121の処理により、画像データAkと画像データAk+1の画像間の類似度が変数P(Ak,Ak+1)の値として計算される。類似度計算部106は上記のように計算した変数P(Ak,Ak+1)の値をメモリ102の所定アドレスに格納し、ステップS122により、領域移動ベクトルの平均値Vk,k+1を次の(式7)で計算する。
Figure 2005284629
ここで、領域移動ベクトルの平均値Vk,k+1を算出する意図は、次のようである。つまり、スナップショット画像データAkとAk+1の画像間の相対的位置関係を、上記各スナップショット画像の各々の部分領域Qiの移動ベクトルViの組の平均値を元に算出することである。例えば、図7(A)と図7(B)を参照するならば、領域移動ベクトルV1、V2、・・・の平均ベクトルがベクトルV12である。
平均ベクトルVk,k+1を求めた後、制御部108からスナップショット画像間相対的位置関係計算部1045に計算終了信号を送り、処理を終了する。
図4に戻り、次に、メモリ102上の移動ベクトルを累積したベクトルVsumに、ステップT11で求めた移動ベクトルVk,k+1をベクトルとして足し、その結果を新しいVsumの値とする(ステップT12)。
次に、指紋入力および照合方式を判別する(ステップT13)。この処理内容の詳細については後に述べる。
ステップT14では、ステップT13の判別結果がエリア方式を示す場合は処理をステップT16に分岐させ、スイープ方式を示す場合はステップT15に分岐させ、未判別を示す場合にはステップT8に戻す。
スイープ方式の場合はステップT15において、入力したスナップショット画像の数が規定数に達したと判定された場合には次のステップT16の処理を行い、規定数に達しないと判定された場合には、ステップT8の処理に戻り新たなデータデータを入力する。この規定枚数NSWEEPは所定の照合精度を得るために必要なスナップショット画像の枚数に相当する。
次に制御部108は登録データ読出部207に対し、登録データ読出開始信号を送り、登録データ読出終了信号を受信するまで待機する。
登録データ読出部207は登録データ読出開始信号を受信すると、登録データ記憶部202から参照画像データである画像データBの画像の部分領域Riのデータを読出してメモリ102の所定アドレスへ格納する(ステップT16)。
以降で、上述の画像データAkと画像データBの両画像に対して照合処理および判定(ステップT17、T18)が行われる。この処理を、エリア方式を選択した場合と、スイープ方式を選択した場合とに分けて説明する。
ステップT14でエリア方式を選択したとき、入力した画像データAkを画像データAとして画像データBと照合処理する。その手順を図8のフローチャートに従って説明する。
制御部108は最大一致度位置探索部105へテンプレートマッチング開始信号を送り、テンプレートマッチング終了信号を受信するまで待機する。最大一致度位置探索部105では、ステップS201からステップS207に示されるようなテンプレートマッチング処理が開始される。
ここでのテンプレートマッチング処理は、例えば図16(A)の部分領域R1、R2、…Rnが図16(B)の部分領域M1、M2、…、Mnのいずれに移動したのかを求める処理である。
まず、ステップS201ではカウンタの変数iを1に初期化する。ステップS202では画像データAの画像から部分領域Riとして規定される部分領域の画像をテンプレートマッチングに用いるテンプレートとして設定する。
ここでは、部分領域Riは計算を簡単にするために矩形状としているが、これに特定されない。ステップS203ではステップS202で設定したテンプレートに対し、画像データBの画像内で最も一致度の高い、つまり画像内のデータが最も一致する場所を探索する。具体的には、テンプレートとして用いる部分領域Riの左上の角を基準とした座標(x,y)の画素濃度をRi(x,y)とし、画像データBの画像の左上の角を基準とした座標(s、t)の画素濃度をB(s,t)とし、部分領域Riの幅をw,高さをhとし、また、画像データAとBの各画素の取りうる最大濃度をV0とし、画像データBの画像における座標(s、t)での一致度Ci(s,t)をたとえば以下の(式8)に従い各画素の濃度差を元に計算する。
Figure 2005284629
画像データBの画像内において座標(s、t)を順次更新して座標(s、t)における一致度C(s,t)を計算し、その中で最も大きい値を取る位置が最も一致度が高いとし、その位置での部分領域の画像を部分領域Miとし、その位置での一致度を最大一致度Cimaxとする。ステップS204ではステップS203で算出した部分領域Riの画像データBの画像内における最大一致度Cimaxをメモリ102の所定アドレスに記憶する。ステップS205では、移動ベクトルViを以下の(式9)に従い計算して求めて、メモリ102の所定アドレスに記憶する。
ここで、上述のように、画像データAの画像内に設定された位置Pに対応の部分領域Riに基づいて、画像データBの画像内をスキャンして部分領域Riと最も一致度が高い位置Mの部分領域Miが特定されたとき、位置Pから位置Mへの方向ベクトルを、移動ベクトルと呼ぶ。これは、指紋センサにおける指の置かれ方は一様でないことから、一方の画像、たとえば画像データAの画像を基準にすると他方の画像データBの画像は移動したように見えることによる。
Vi=(Vix、Viy)=(Mix−Rix、Miy−Riy)…(式9)
(式9)で、変数RixとRiyは部分領域Riの基準位置のx座標とy座標であり、たとえば画像データAの画像内における部分領域Riの左上角の座標に対応する。また変数MixとMiyは部分領域Miの探索結果である最大一致度Cimaxの位置でのx座標とy座標であり、たとえば画像データBの画像内におけるマッチングした位置での部分領域Miの左上角の座標に対応する(図7(C)と(D)を参照)。
ステップ206ではカウンタ変数iの値が部分領域の総個数n以下か否かを判定し、変数iの値が部分領域の個数n以下であれば処理をS207に移し、そうでなければ処理をS208に移す。ステップS207では変数iの値に1加える。以降、変数iの値が部分領域の個数n以下の間はステップS202からS207を繰返し行う。この繰り返しにおいて、すべての部分領域Riに関しテンプレートマッチングを行い、それぞれの部分領域Riの最大一致度Cimaxと、移動ベクトルViとを計算していく。
最大一致度位置探索部105は上記のように順次計算されるすべての部分領域Riに関する最大一致度Cimaxと移動ベクトルViとをメモリ102の所定アドレスに格納したのち、テンプレートマッチング終了信号を制御部108に送り、処理を終了する。
続いて制御部108は類似度計算部106に類似度計算開始信号を送り、類似度計算終了信号を受信するまで待機する。類似度計算部106は、メモリ102に格納されているテンプレートマッチングで得られた各部分領域Riの移動ベクトルViや最大一致度Cimaxなどの情報を用いて、図8のステップS208からステップS220に示される処理を行い類似度計算を行う。
ここでの類似度計算処理は、たとえば図16(C)に示されるように、部分領域に関する移動ベクトルの多くが所定の領域内に収まっているか否かを計算する処理である。
ステップS208では類似度P(A,B)を0に初期化する。ここで類似度P(A,B)とは、画像データAと画像データBの画像間の類似度を格納する変数とする。ステップS209では基準とする移動ベクトルViのインデックスiの値を1に初期化する。ステップS210では、基準となる移動ベクトルViに関する類似度Piの値を0に初期化する。ステップS211では、移動ベクトルVjのインデックスjの値を1に初期化する。ステップS212では、基準移動ベクトルViと移動ベクトルVjとのベクトル差dVijを以下の(式10)に従い計算する。
Figure 2005284629
ここで、変数VixとViyは移動ベクトルViのx方向成分とy方向成分を示し、変数VjxとVjyは移動ベクトルVjのx方向成分とy方向成分を示し、変数sqrt(X)はXの平方根を計算する式である。
ステップS213では、移動ベクトルViとVjのベクトル差dVijに関し所定の定数εと比較し、移動ベクトルViと移動ベクトルVjが実質的に同一の移動ベクトルとみなすことが可能かを判断する。ベクトル差dVijが定数εより小さければ、移動ベクトルViと移動ベクトルVjが実質的に同一と見なして処理をステップS214に移し、逆に大きければ実質的に同一とは見なさず処理をステップS215に移す。ステップS214では類似度Piを以下の(式11)〜(式13)で増加させる。
Pi=Pi+α…(式11)
α=1…(式12)
α=Cjmax…(式13)
(式11)における変数αは類似度Piを増加させる値である。(式12)のようにα=1とした場合には、類似度Piは基準とした移動ベクトルViと同一の移動ベクトルを持つ部分領域の個数となる。また、(式13)のようにα=Cjmaxとした場合には、類似度Piは基準とした移動ベクトルViと同一の移動ベクトルを持つ部分領域に関するテンプレートマッチング時の最大一致度の総和となる。またベクトル差dVijの大きさに応じて変数αの値を小さくするなどしても構わない。
ステップS215はインデックスjの値が部分領域の個数nより小さいかどうかを判定し、インデックスjの値が部分領域の個数nより小さい場合は処理をステップS216に移し、大きい場合には処理をステップS217に移す。ステップS216ではインデックスjの値を1増加させる。ステップS210からステップS216の処理により、基準とした移動ベクトルViに関して、同じ移動ベクトルを持つと判定される部分領域の情報を用いた類似度Piが計算される。ステップS217では移動ベクトルViを基準とした場合の類似度Piと変数P(A,B)とを比較を行い、類似度Piが現在までの最大の類似度(変数P(A,B)の値)より大きければ処理をS018に移し、小さければ処理をS019に移す。
ステップS218では、変数P(A,B)に移動ベクトルViを基準とした場合の類似度Piの値を設定する。ステップS217とS218では、移動ベクトルViを基準とした場合の類似度Piが、この時点までに計算された他の移動ベクトルを基準にした場合の類似度の最大値(変数P(A,B)の値)と比べ大きい場合には、基準としている移動ベクトルViが現在までのインデックスiが示す移動ベクトルViの中で最も基準として正当であるとしている。
ステップS219では基準とする移動ベクトルViのインデックスiの値と部分領域の個数(変数nの値)とを比較する。インデックスiの値が部分領域の総個数nより小さければ処理をステップS220に移す。ステップS220ではインデックスiの値を1増加させる。
ステップS208からステップS220により、画像データAと画像データBの両画像間における類似度が変数P(A,B)の値として計算される。類似度計算部106は上記のように計算した変数P(A,B)の値をメモリ102の所定アドレスに格納し、制御部108へ類似度計算終了信号を送り、処理を終了する。
続いて制御部108は照合判定部107に照合判定開始信号を送り、照合判定終了信号を受信するまで待機する。照合判定部107は照合し判定する(ステップT18)。具体的には、メモリ102に格納された変数P(A,B)の値で示される類似度と予め定められた照合閾値Tとを比較する。比較結果、変数P(A,B)≧Tならば画像データAと画像データBの両画像は同一指紋から採取されたものと判定しメモリ102の所定アドレスへ照合結果として‘一致’を示す値、たとえば‘1’を書込み、そうでなければ異なる指紋から採取されたものと判定し、メモリ102の所定アドレスへ照合結果として‘不一致’を示す値、たとえば‘0’を書込む。その後、制御部108へ照合判定終了信号を送り処理を終了する。
次に、スイープ方式でT17〜T18の類似計算及び照合判定を行った場合についての処理を図9のフローチャートに従って説明する。
制御部108は最大一致度位置探索部105へテンプレートマッチング開始信号を送り、テンプレートマッチング終了信号を受信するまで待機する。最大一致度位置探索部105では、ステップS001からステップS007に示されるようなテンプレートマッチング処理が開始される。
ここでのテンプレートマッチング処理は、スナップショット画像間相対的位置関係計算部1045で算出された基準位置を反映した一組のスナップショット画像のそれぞれが、それら一組のスナップショット画像とは別の画像において最大の一致度となる部分領域の画像の位置である各々の最大一致度位置を探索する処理である。以降で、その詳細を説明する。
ステップS001ではカウンタの変数kを1に初期化する。ステップS002ではスナップショット画像データA(スナップショット画像データAkに対応する)の画像の左上の角を基準とした座標に領域移動ベクトルの平均値Vk,k+1の総和Pkを加えたA´kとして規定される部分領域の画像データをテンプレートマッチングに用いるテンプレートとして設定する。ここで、Pkは(式14)で規定される。
Figure 2005284629
ステップS003ではステップS002で設定したテンプレートに対し、画像データBの画像内で最も一致度の高い、つまり画像内のデータが最も一致する場所を探索する。具体的には、テンプレートとして用いる画像データA´kが示す部分領域の左上の角を基準とした座標(x,y)の画素濃度をA´k(x,y)とし、画像データBの画像の左上の角を基準とした座標(s、t)の画素濃度をB(s,t)とし、部分領域A´kの幅をw,高さをhとし、また、画像データA´kとBの各画素の取りうる最大濃度をV0とし、画像Bにおける座標(s、t)での一致度Ci(s,t)をたとえば以下の(式15)に従い各画素の濃度差を元に計算する。
Figure 2005284629
画像データBの画像内において座標(s、t)を順次更新して座標(s、t)における一致度C(s,t)を計算し、その中で最も大きい値を取る位置が最も一致度が高いとし、その位置での部分領域の画像を部分領域Mkとし、その位置での一致度を最大一致度Ckmaxとする。ステップS004ではステップS003で算出した画像データA´kが示す部分領域の画像データBが示す画像内における最大一致度Ckmaxをメモリ102の所定アドレスに記憶する。ステップS005では、移動ベクトルVkを以下の(式16)に従い計算して求めて、メモリ102の所定アドレスに記憶する。
ここで、上述のように、画像データA´kが示す部分領域に基づいて、画像データBの画像内をスキャンして画像データA´kと最も一致度が高い位置Mの画像データの部分領域Mkが特定されたとき、位置Pから位置Mへの方向ベクトルを、移動ベクトルと呼ぶ。これは、指紋センサにおける指の置かれ方は一様でないことから、一方の画像、たとえば画像データAkの画像を基準にすると他方の画像データBの画像は移動したように見えることによる。
Vk=(Vkx、Vky)=(Mkx−A´kx、Mky−A´ky)…(式16)
(式16)で、変数A´kxとA´kyはスナップショット画像データAkの画像の左上の角を基準とした座標に領域移動ベクトルの平均値Vk,k+1の総和Pnを加えた画像データA´kが示す部分領域の基準位置のx座標とy座標である。また変数MkxとMkyは画像データA´kが示す部分領域の探索結果である最大一致度Ckmaxの位置でのx座標とy座標であり、たとえば画像データBの画像内におけるマッチングした位置での部分領域Mkの左上角の座標に対応する。
ステップS006ではカウンタ変数kの値が部分領域の個数n以下か否かを判定し、変数kの値が部分領域の個数n以下であれば処理をS007に移し、そうでなければ処理をS008に移す。ステップS007では変数kの値に1加える。以降変数kの値が部分領域の個数n以下の間はステップS002からS007を繰返し行う。繰返す過程において、すべての部分領域A´kに関しテンプレートマッチングを行い、それぞれの部分領域A´kの最大一致度Ckmaxと、移動ベクトルVkとを計算していく。
最大一致度位置探索部105は上記のように順次計算されるすべての部分領域A´kに関する最大一致度Ckmaxと移動ベクトルVkとをメモリ102の所定アドレスに格納したのち、テンプレートマッチング終了信号を制御部108に送り、処理を終了する。
続いて制御部108は類似度計算部106に類似度計算開始信号を送り、類似度計算終了信号を受信するまで待機する。類似度計算部106は、メモリ102に格納されているテンプレートマッチングで得られた各部分領域A´kの移動ベクトルVkや最大一致度Ckmaxなどの情報を用いて、図9のステップS008からステップS020に示される処理を行い類似度計算を行う。
ここでの類似度計算処理は、上記テンプレートマッチング処理においてスナップショット画像間相対的位置関係計算部1045により算出された基準位置を反映した一組のスナップショット画像のそれぞれと、それら一組のスナップショット画像とは異なる他の別の画像において探索された最大の一致度となる部分領域の画像の位置を示す最大一致度位置を用いて、この探索された各々の部分領域に対応の最大一致度位置との位置関係を示す各々の位置関係量が所定の閾値内に収まっていることを計算することにより類似度を判定し、判定した類似度に基づいて、一組のスナップショット画像が別の画像と一致するか否か判定する処理である。以降で、その詳細を説明する。
ステップS008では類似度P(A´,B)を0に初期化する。ここで類似度P(A´,B)とは、1つのスナップショット画像の画像データA´と画像データBの両画像間の類似度を格納する変数とする。ステップS009では基準とする移動ベクトルVkのインデックスiの値を1に初期化する。ステップS010では、基準となる移動ベクトルVkに関する類似度Pkを0に初期化する。ステップS011では、移動ベクトルVjのインデックスjの値を1に初期化する。ステップS012では、基準移動ベクトルVkと移動ベクトルVjとのベクトル差dVkjを以下の(式17)に従い計算する。
Figure 2005284629
ここで、変数VkxとVkyは移動ベクトルVkのx方向成分とy方向成分を示し、変数VjxとVjyは移動ベクトルVjのx方向成分とy方向成分を示し、変数sqrt(X)はXの平方根を計算する計算式である。
ステップS013では、移動ベクトルVkとVjのベクトル差dVkjを所定の定数εと比較し、移動ベクトルVkと移動ベクトルVjが実質的に同一の移動ベクトルとみなすことが可能かを判断する。ベクトル差dVkjが定数εより小さければ、移動ベクトルVkと移動ベクトルVjが実質的に同一と見なして処理をステップS014に移し、逆に大きければ実質的に同一とは見なさず処理をステップS015に移す。ステップS014では類似度Pkを以下の(式18)〜(式20)で増加させる。
Pk=Pk+α…(式18)
α=1…(式19)
α=Ckmax…(式20)
(式18)における変数αは類似度Pkを増加させる値である。(式19)のようにα=1とした場合には、類似度Pkは基準とした移動ベクトルVkと同一の移動ベクトルを持つ部分領域の個数となる。また、(式20)のようにα=Cjmaxとした場合には、類似度Pkは基準とした移動ベクトルVkと同一の移動ベクトルを持つ部分領域に関するテンプレートマッチング時の最大一致度の総和となる。またベクトル差dVkjの大きさに応じて変数αの値を小さくするなどしても構わない。
ステップS015ではインデックスjの値が部分領域の総個数nより小さいかどうかを判定し、インデックスjの値が部分領域の個数nより小さい場合は処理をステップS016に移し、大きい場合には処理をステップS017に移す。ステップS016ではインデックスjの値を1増加させる。ステップS010からステップS016の処理により、基準とした移動ベクトルVkに関して、同じ移動ベクトルを持つと判定される部分領域の情報を用いた類似度Pkが計算される。ステップS017では移動ベクトルVkを基準とした場合の類似度Pkと変数P(A´,B)との比較を行い、類似度Pkが現在までの最大の類似度(変数P(A´,B)の値)より大きければ処理をS018に移し、小さければ処理をS019に移す。
ステップS018では、変数P(A´,B)に移動ベクトルVkを基準とした場合の類似度Pkの値を設定する。ステップS017とS018では、移動ベクトルVkを基準とした場合の類似度Piが、この時点までに計算された他の移動ベクトルを基準にした場合の類似度の最大値(変数P(A´,B)の値)と比べ大きい場合には、基準としている移動ベクトルVkが現在までのインデックスkが示す移動ベクトルVkの中で最も基準として正当であるとしている。
ステップS019では基準とする移動ベクトルVkのインデックスkの値と部分領域の総個数(変数nの値)を比較する。インデックスkの値が部分領域の総個数より小さければ処理をステップS020に移す。ステップS020ではインデックスiの値を1増加させる。
ステップS008からステップS020により、画像データA´と画像データBの両画像における類似度が変数P(A´,B)の値として計算される。類似度計算部106は上記のように計算した変数P(A´,B)の値をメモリ102の所定アドレスに格納し、制御部108へ類似度計算終了信号を送り、処理を終了する。
図4に戻り、続いて制御部108は照合判定部107に照合判定開始信号を送り、照合判定終了信号を受信するまで待機する。照合判定部107は照合し判定する(ステップT18)。具体的には、メモリ102に格納された変数P(A´,B)の値で示される類似度と予め定められた照合閾値Tとを比較する。比較結果、変数P(A´,B)≧Tならば画像データA´と画像データBの両画像は同一指紋から採取されたものと判定しメモリ102の所定アドレスへ照合結果として‘一致’を示す値、たとえば‘1’を書込み、そうでなければ異なる指紋から採取されたものと判定し、メモリ102の所定アドレスへ照合結果として‘不一致’を示す値、たとえば‘0’を書込む。その後、制御部108へ照合判定終了信号を送り処理を終了する。
ここで、指紋入力および照合方式判別(ステップT13)について図10のフローチャートに従って説明する。
図10の手順では、図4のT8〜T15処理をループする回数が所定回数READTIMEに達した時点で、照合方式として適用するのはスイープ方式かエリア方式かを判断している。
まず、T8〜T15のループ回数が2回目以降の場合であり、既にこの処理においてスイープ方式であると判別されている場合には、"スイープ方式"とする(ステップST001、ST004)。そうでなくて、メモリ102上の変数kの値を参照し、変数kの値が所定回数READTIME未満を示すならば"未判別"とする(ステップST002とST006)。センサを介して画像入力部1に画像が入力開始してから、一定時間が経過したか否かの判定(ステップST002)は、T8〜T15処理をループする回数が所定回数READTIMEに達したか否かにより判断する。
"未判別"でなくて、メモリ102上の変数Vsumの値を参照し、その長さ|Vsum|を計算し、その値がある値AREAMAX未満であれば"エリア方式"と、そうでなければ"スイープ方式"と判別する(ステップST003〜ST005)。
それぞれ判別した方式に対応する信号を制御部108に送り、指紋入力および照合方式判別処理を終了し、図4の元の処理にリターンする。
最後に制御部108がメモリ102に格納された照合結果をディスプレイ610またはプリンタ690を介して出力して(ステップT19)、画像照合を終了する。
本実施の形態において、画像補正部104、スナップショット画像間相対的位置関係計算部1045、最大一致度位置探索部105、類似度計算部106、照合判定部107および制御部108のすべてあるいは一部は処理手順をプログラムとして記憶させたメモリ624などのROMとそれを実行するためのCPU622などの演算処理装置を用いて構成してもよい。
[実施の形態2]
本実施の形態2では、画像照合装置1における指紋入力および照合方式判別(ステップT13)の他の手順が示される。この手順を図11のフローチャートに従い説明する。実施の形態1では、図10に示したようにT8〜T15処理のループ回数が所定回数READTIMEに達した時点で、スイープ方式かエリア方式かを判断開始していたが、判断開始のタイミングはこれに限定されず、本実施の形態2のように、画像入力部101のセンサから指が離れた時点で、スイープ方式かエリア方式かを判断するようにしてもよい。
まず、T8〜T15処理のループ回数が2回目以降の場合であり、既にこの処理においてスイープ方式であると判別されている場合には、"スイープ方式"とする(ステップSF001、SF005)。
そうでないときは、図5のフローチャートの処理(上で述べたステップT3の処理と同様)に従って画像データAk+1を処理し、入力の有無を判断する(ステップSF002)。入力があるときは“未判別”とする(ステップSF003、SF007)。ここでいう入力有りとは、画像入力部101のセンサに指が接している状態を指す。
そうでないときは、メモリ102上のベクトル変数Vsumの値を参照し、その長さ|Vsum|を計算し、その値がある値AREAMAX未満であれば"エリア方式"と、そうでなければ"スイープ方式"と判別する(ステップSF004〜SF006)。
それぞれ判別した方式に対応する信号を制御部108に送り、図11の指紋入力および照合方式判別処理を終了し、図4の元の処理にリターンする。
[実施の形態3]
実施の形態1の画像照合装置1における、指紋入力および照合方式判別(ステップT13)のさらなる他の処理手順が図12に示される。
実施の形態1では、T8〜T15処理のループ回数が所定回数READTIMEに達した時点で、スイープ方式かエリア方式かを判断し、実施の形態2では、画像入力部101のセンサから指が離れた時点で、スイープ方式かエリア方式かを判断していたが、これらに限定されず本実施の形態3のようであってもよい。
本実施の形態3では、画像入力部101のセンサに指が接している状態で、かつベクトル変数Vsumが示す累積移動量が所定の値に達したときはスイープ方式と判断し、画像入力部101のセンサから指が離れた時点で、かつベクトル変数Vsumが示す累積移動量が所定の値に達していないときはエリア方式として判断する。この手順を図12のフローチャートに従い説明する。
まず、T8〜T15処理のループ回数が2回目以降の場合であり、既にこの処理においてスイープ方式であると判別されている場合には、"スイープ方式"とする(ステップSM001、SM005)。
そうでないときは、メモリ102上のベクトル変数Vsumの値を参照し、その大きさ|Vsum|を計算し、その値がある値AREAMAX未満であれば、図5のフローチャートの処理(ステップT3の処理と同様)に従って画像データAk+1を処理し、入力の有無を判断(ステップSM003)し、そうでなければ"スイープ方式"と判別する(ステップSM005)。
ステップSM003で入力の有無を判断した結果、入力有りの場合は“未判別”と、入力無しの場合はエリア方式とそれぞれ判断する(ステップSM004)。
判別した方式に対応する信号を制御部108に送り、図12の指紋入力および照合方式判別処理を終了し、図4の元の処理に戻る。
[実施の形態4]
実施の形態1〜3の画像照合装置1においては、照合の結果が‘一致’となった場合に、メモリ102または624、または固定ディスク626、またはFD632、またはCD−ROM642に予め格納されている所定のアプリケーションプログラムなどをCPU622により起動(または実行開始)する。起動するアプリケーションプログラムの種類を、照合方式(エリア方式かスイープ方式か)の別、またステップT19で出力された照合結果が示す一致した指紋(どの指に対応するか)の別に応じて変えてもよい。
アプリケーションプログラムの具体例としては、例えば該画像照合装置1が携帯型の電話機に搭載または適用される場合には、携帯型電話機の動作状態を別の状態に変化させるアプリケーションプログラムを起動する。例えば、照合結果が入力画像データAの指紋と登録されていた画像データBの指紋(第2指の指紋または第1指の指紋)との照合一致を示した場合には、携帯型電話機では別の状態に変化させるアプリケーションプログラムのメニューが表示されるようにしてもよい。表示メニューの情報は適用された照合方式(エリア方式かスイープ方式か)の別に応じて変更するようにしてもよい。または、照合結果が照合一致を示した場合には現在のアプリケーションプログラムに対して何らかの情報の入力(例えば、はい/いいえの選択の入力)が行われる(許可される)としてもよい。入力の情報は適用された照合方式(エリア方式かスイープ方式か)の別に応じて変更するようにしてもよい。
また、起動される対象はアプリケーションプログラムに限定されず、何らかのハードウェア機器を起動する、またはそれが有する何らかの機能を制御するようにしてもよい。例えば、照明機器の点灯/消灯をするなどである。制御される機能の種類は適用された照合方式(エリア方式かスイープ方式か)の別に応じて変更するようにしてもよい。
また、「スイープ方式で第2指の指紋と照合一致した」または「エリア方式で第3指の指紋と照合一致した」などといった照合の結果に基づいて、アプリケーションプログラムを選択的に起動したり、ハードウェア機器を起動したりしてもよい。
アプリケーションプログラムは、より具体的、あるいはセキュリティにかかわるプログラムが想定される。アプリケーションプログラムを起動することで、普段は無効化されている機能を有効化する(例えば指紋照合の結果に応答して電話が掛けられるようになる)または機器を別の動作状態に遷移させる(例えば指紋照合の結果に応答して電子メール一覧を表示する)ことが可能となる。さらには、現在実行中のアプリケーションプログラムに対してデータ入力を行う(例えば文字データの入力)を行うことが可能となる。さらには、現在実行中のアプリケーションプログラムを強制的に実行終了させて、その他アプリケーションプログラム(例えば照合された指に応じたゲームのプログラム)を起動する、などが想定される。
また、画像照合処理装置1の照合処理結果をアプリケーションプログラム中で複数回参照するようにして、各回の参照結果に基づきアプリケーションプログラムの実行をその都度制御するようにもできる。例えば、電子商取引にかかわるアプリケーションプログラムの実行を制御するのを想定する。まず、このアプリケーションプログラムを起動するために照合処理結果を参照し、実行中のアプリケーションプログラムにおいて制御手順を決定するために本人確認する際にも照合処理結果が参照される。このように複数回の照合処理が必要とされる場合であっても、図4の手順で予め画像照合処理を行っておくことで、必要とされる複数回の照合処理を1回で済ますことができる。
アプリケーションプログラム起動または機器を起動させるための照合処理には、一般にはそれほどの精度を必要としないであろうが、本人確認のための照合処理には精度が必要とされるので、これらを1回の照合処理を済まそうとする場合には、精度の高い照合方式であるスイープ方式を適用することが望ましい。
本実施の形態では、制御対象であるアプリケーションプログラムまたは機器の起動または制御は照合結果またはセンシング方式の選択の結果に基づいて行うことができる。ここでは、センシング方式の選択は図10〜図12の移動ベクトルに基づく累積移動量に従うセンサと対象物(指の指紋像)との相対的位置関係の時間変化に応じてなされているが、選択の基準はこれに限定されない。たとえば、選択の基準情報を予めメモリ102などに設定しておいてもよい。選択基準情報としては、重要システムへのアクセス許可、照明をON/OFFするなどの許可を与えるための画像の照合であるか否かなどの照合の目的に従う情報、または照合結果を利用して起動または実行が制御されるアプリケーションや機器の重要度(機密度)などであってもよい。
[実施の形態5]
以上説明した画像照合のための処理機能は、プログラムで実現される。本実施の形態では、このプログラムはコンピュータで読取可能な記録媒体に格納される。
本実施の形態では、この記録媒体として、図2に示されているコンピュータで処理が行われるために必要なメモリ、たとえばメモリ624のようなそのものがプログラムメディアであってもよいし、また該コンピュータの外部記憶装置に着脱自在に装着されて、そこに記録されたプログラムが該外部記憶装置を介して読取り可能な記録媒体であってもよい。このような外部記憶装置としては、磁気テープ装置(図示せず)、FD駆動装置630およびCD−ROM駆動装置640などであり、該記録媒体としては磁気テープ(図示せず)、FD632およびCD−ROM642などである。いずれの場合においても、各記録媒体に記録されているプログラムはCPU622がアクセスして実行させる構成であってもよいし、あるいはいずれの場合もプログラムが該記録媒体から一旦読出されて図2の所定のプログラム記憶エリア、たとえばメモリ624のプログラム記憶エリアにロードされて、CPU624により読出されて実行される方式であってもよい。このロード用のプログラムは、予め当該コンピュータに格納されているものとする。
ここで、上述の記録媒体はコンピュータ本体と分離可能に構成される。このような記録媒体としては、固定的にプログラムを担持する媒体が適用可能である。
具体的には、磁気テープやカセットテープなどのテープ系、FD632や固定ディスク626などの磁気ディスク、CD−ROM642/MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc)などの光ディスクのディスク系、ICカード(メモリカードを含む)/光カードなどのカード系、マスクROM、EPROM(Erasable and Programmable ROM)、EEPROM(Electrically EPROM)、フラッシュROMなどによる半導体メモリが適用可能である。
また、図2のコンピュータはインターネットを含む通信ネットワーク300と通信接続可能な構成が採用されているから、通信ネットワーク300からプログラムがダウンロードされて流動的にプログラムを担持する記録媒体であってもよい。なお、通信ネットワーク300からプログラムがダウンロードされる場合には、ダウンロード用プログラムは予め当該コンピュータ本体に格納されていてもよく、あるいは別の記録媒体から予め当該コンピュータ本体にインストールされてもよい。
なお記録媒体に格納されている内容としてはプログラムに限定されず、データであってもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
(A)と(B)は各実施の形態に係る画像照合装置のブロック構成図である。 各実施の形態に係る画像照合装置が搭載されるコンピュータの構成例を示す図である。 (A)と(B)はスイープ方式とエリア方式との両方式に対応した指紋センサでの指紋データのセンシングを説明する図である。 各実施の形態に係る画像照合方法を示す全体フローチャートである。 図4のステップT3の処理フローチャートである。 各実施の形態に係る画像照合処理におけるスナップショット画像間の相対的位置関係を計算する処理フローチャートである。 (A)〜(D)は図6の手順を説明するための図である。 指紋入力および照合方法がエリア方式である場合の照合処理を示すフローチャートである。 指紋入力および照合方法がスイープ方式である場合の照合処理を示すフローチャートである。 図4のステップT13の処理手順の一例を示すフローチャートである。 図4のステップT13の処理手順の他の例を示すフローチャートである。 図4のステップT13の処理手順のさらなる他の例を示すフローチャートである。 (A)および(B)は従来技術である画像間マッチング方法を示す図である。 従来技術である画像特徴量マッチング方法を示す図である。 従来技術に用いられる画像特徴であるマヌーシャを示す模式図である。 (A)〜(C)は同一指紋から採取した1対の指紋画像における複数の部分領域に関して一致度の高い位置の探索結果とそれぞれ部分領域の移動ベクトルと分布の様子を示した図である。 従来の指紋画像の入力方法であるスイープセンシング方式を説明する図である。 従来の指紋画像の入力方法であるエリアセンシング方式を説明する図である。
符号の説明
1 画像照合装置、101 画像入力部、102 メモリ、103 バス、104 画像補正部、105 最大一致度位置探索部、106 移動ベクトルに基づく類似度計算部、107 照合判定部、108 制御部、300 通信ネットワーク、610 ディスプレイ、622 CPU、624 メモリ、626 固定ディスク、630 FD駆動装置、632 FD、640 CD−ROM駆動装置、642 CD−ROM、650 キーボード、660 マウス、680 通信インタフェース、690 プリンタ、700 入力部、1042 指紋入力および照合方式判別部、1045 スナップショット画像間相対的位置関係計算部。

Claims (18)

  1. センサを含み、前記センサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力手段と、
    前記画像入力手段により前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合手段と、
    前記画像入力手段により前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合手段と、
    前記画像入力手段により前記対象物の画像を入力するときの前記センサと前記対象物との相対的位置関係の時間経過に従う変化に基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する判別手段と、
    前記判別手段による判別結果に従い、前記位置固定照合手段および前記位置変化照合手段のいずれかを選択的に能動化する選択手段とを備える、画像照合装置。
  2. センサを含み、前記センサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力手段と、
    前記画像入力手段により前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合手段と、
    前記画像入力手段により前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合手段と、
    与えられる所定情報に基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する判別手段と、
    前記判別手段による判別結果に従い、前記位置固定照合手段および前記位置変化照合手段のいずれかを選択的に能動化する選択手段と、
    複数種類の制御対象のうち前記選択手段による選択結果に対応する所定の制御対象を制御する手段とを備える、画像照合装置。
  3. 前記判別手段は、
    画像入力手段への画像の入力が開始してから一定時間経過後において、前記相対的位置関係の変化量が所定値に達しているか否かに基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する、請求項1に記載の画像照合装置。
  4. 前記判別手段は、
    前記画像入力手段に画像が入力されるか否かを判定する入力判定手段を含み、
    前記入力判定手段により画像が入力されないと判定されたときに、前記相対的位置関係の変化量が所定値に達しているか否かに基づき、前記画像入力手段により入力した画像を前記位置固定照合手段で照合するか、前記位置変化照合手段で照合するかを判別する、請求項1に記載の画像照合装置。
  5. 前記判別手段は、
    前記画像入力手段に画像が入力されるか否かを判定する入力判定手段を含み、
    前記入力判定手段により画像が入力されているとされたと判定された状態で、かつ前記相対的位置関係の変化量が所定値に達したときには、前記画像入力手段により入力した画像を前記位置変化照合手段で照合すると判別し、
    前記入力判定手段により画像が入力されていないと判定された状態で、かつ前記相対的位置関係の変化量が所定値に達していないときには、前記位置固定照合手段で照合すると判別する、請求項1に記載の画像照合装置。
  6. 複数種類の制御対象のうち前記選択手段による選択結果に対応の所定の制御対象を制御する、請求項1に記載の画像照合装置。
  7. 前記選択手段により選択的に能動化された前記位置固定照合手段および前記位置変化照合手段のいずれかの照合結果に基づき所定の制御対象を制御する、請求項1または2に記載の画像照合装置。
  8. 前記照合結果は、少なくとも、前記制御対象を起動するためと、前記制御対象を制御する手順を決定するためとに参照される、請求項7に記載の画像照合装置。
  9. 前記所定情報は、情報前記画像入力手段により前記対象物の画像を入力するときの前記センサと前記対象物との相対的位置関係の時間経過に従う変化の情報である、請求項2に記載の画像照合装置。
  10. 前記所定情報は、予め設定された情報である、請求項2に記載の画像照合装置。
  11. 前記所定情報は、照合の目的を示す情報である、請求項10に記載の画像照合装置。
  12. 前記所定情報は、機密レベルを示す情報である、請求項10に記載の画像照合装置。
  13. 予め準備されたセンサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力ステップと、
    前記画像入力ステップにより前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合ステップと、
    前記画像入力ステップにより前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合ステップと、
    前記画像入力ステップにより前記対象物の画像を入力するときの前記センサと前記対象物との相対的位置の時間経過に従う変化に基づき、前記画像入力ステップにより入力した画像を前記位置固定照合ステップで照合するか、前記位置変化照合ステップで照合するかを判別する判別ステップと、
    前記判別ステップによる判別結果に従い、前記位置固定照合ステップおよび前記位置変化照合ステップのいずれかを選択的に能動化する選択ステップとを備える、画像照合方法。
  14. 請求項13に記載の画像照合方法をコンピュータに実行させるための画像照合プログラム。
  15. 請求項14に記載の画像照合プログラムを記録したコンピュータ読取り可能な記録媒体。
  16. 予め準備されたセンサと対象物との相対位置を固定した位置固定態様と、前記センサと前記対象物との相対位置を変化させる位置変化態様とのいずれの態様でも前記対象物の画像を前記センサを介して入力可能な画像入力ステップと、
    前記画像入力ステップにより前記位置固定態様に従い入力された画像と参照画像とを照合する位置固定照合ステップと、
    前記画像入力ステップにより前記位置変化態様に従い入力された画像と前記参照画像とを照合する位置変化照合ステップと、
    与えられる所定情報に基づき、前記画像入力ステップにより入力した画像を前記位置固定照合ステップで照合するか、前記位置変化照合ステップで照合するかを判別する判別ステップと、
    前記判別ステップによる判別結果に従い、前記位置固定照合ステップおよび前記位置変化照合ステップのいずれかを選択的に能動化する選択ステップと、
    複数種類の制御対象のうち前記選択ステップによる選択結果に対応する所定の制御対象を制御するステップとを備える、画像照合方法。
  17. 請求項16に記載の画像照合方法をコンピュータに実行させるための画像照合プログラム。
  18. 請求項17に記載の画像照合プログラムを記録したコンピュータ読取り可能な記録媒体。
JP2004096461A 2004-03-29 2004-03-29 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体 Pending JP2005284629A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004096461A JP2005284629A (ja) 2004-03-29 2004-03-29 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体
US11/090,865 US20050213798A1 (en) 2004-03-29 2005-03-28 Apparatus, method and program for collating input image with reference image as well as computer-readable recording medium recording the image collating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004096461A JP2005284629A (ja) 2004-03-29 2004-03-29 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JP2005284629A true JP2005284629A (ja) 2005-10-13

Family

ID=34989848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004096461A Pending JP2005284629A (ja) 2004-03-29 2004-03-29 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体

Country Status (2)

Country Link
US (1) US20050213798A1 (ja)
JP (1) JP2005284629A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005209107A (ja) * 2004-01-26 2005-08-04 Sharp Corp 画像照合装置、画像照合方法、画像照合プログラム、および画像照合プログラムを記録したコンピュータ読取可能な記録媒体
KR101774746B1 (ko) * 2015-08-13 2017-09-05 주식회사 슈프리마 지문 인증 방법 및 그 지문 인증 방법을 이용한 장치
FR3049090B1 (fr) * 2016-03-21 2021-06-25 Sebastien Jean Serge Dupont Dispositif d'authentification biometrique adaptatif par echographie, photographies en lumiere visible de contraste et infrarouge, sans divulgation, a travers un reseau informatique decentralise
CN106096354B (zh) * 2016-05-27 2017-10-24 广东欧珀移动通信有限公司 一种指纹解锁方法及终端

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310433B2 (en) * 2000-07-24 2007-12-18 Ume Tech Yugen Kaisha Fingerprint verification apparatus, fingerprint verification method and a fingerprint verification program
JP4022861B2 (ja) * 2002-04-10 2007-12-19 日本電気株式会社 指紋認証システム、指紋認証方法及び指紋認証プログラム

Also Published As

Publication number Publication date
US20050213798A1 (en) 2005-09-29

Similar Documents

Publication Publication Date Title
JP2007094862A (ja) 情報生成装置、情報生成方法、情報生成プログラムおよび機械読取り可能な記録媒体
CN106326327B (zh) 用于更新用户认证数据的方法和设备
JP5445584B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
US9208375B2 (en) Face recognition mechanism
KR102313981B1 (ko) 지문 인증 방법 및 장치
US9785818B2 (en) Systems and methods for image alignment
JP2007213502A (ja) 情報処理装置、認証方法、認証プログラム、および認証プログラムを記録した記録媒体
EP2731038A2 (en) Biometric authentication apparatus and biometric authentication method
WO2019130670A1 (ja) 生体認証システム
US20180046848A1 (en) Method of recognizing fingerprints, apparatus and terminal devices
JP2007316740A (ja) 情報処理装置、情報処理方法、プログラムおよびプログラムを記録したコンピュータ読取り可能な記録媒体
JP5234378B2 (ja) パターン照合システム、パターン照合方法およびパターン照合用プログラム
KR102558741B1 (ko) 사용자 등록 장치 및 방법
EP2181418A1 (en) Determination of image similarity
JP2004524625A (ja) 指紋情報によって個人の同一性を生物測定学的に照合及び登録する方法及び装置
JP2010049357A (ja) 認証装置、認証システム及び認証方法
CN106940802B (zh) 用于使用生物测量学信息的认证的方法和设备
JP2007034505A (ja) 認証装置、認証方法、認証用プログラム、および、コンピュータ読取り可能な記録媒体
JP2018185730A (ja) 照合装置、照合方法および照合プログラム
JP2007323500A (ja) 情報処理装置、方法、プログラムおよびプログラムを記録したコンピュータ読取り可能な記録媒体
JP2005284629A (ja) 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体
JP2006065764A (ja) 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体
JP2005209107A (ja) 画像照合装置、画像照合方法、画像照合プログラム、および画像照合プログラムを記録したコンピュータ読取可能な記録媒体
KR101006861B1 (ko) 지문인증 장치의 인증방법
JP2003323618A (ja) 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904