JP2007079771A - Personal identification device - Google Patents

Personal identification device Download PDF

Info

Publication number
JP2007079771A
JP2007079771A JP2005265062A JP2005265062A JP2007079771A JP 2007079771 A JP2007079771 A JP 2007079771A JP 2005265062 A JP2005265062 A JP 2005265062A JP 2005265062 A JP2005265062 A JP 2005265062A JP 2007079771 A JP2007079771 A JP 2007079771A
Authority
JP
Japan
Prior art keywords
image
finger
normalization
imaging
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005265062A
Other languages
Japanese (ja)
Inventor
Takahiro Nakamura
高宏 中村
Takushi Maeda
卓志 前田
Emiko Kurata
恵美子 倉田
Hideto Fujiwara
秀人 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005265062A priority Critical patent/JP2007079771A/en
Publication of JP2007079771A publication Critical patent/JP2007079771A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a personal identification device for easily and precisely collating the image of a biological pattern picked up in a non-contact status with registered image data without installing any additional device. <P>SOLUTION: This personal identification device is configured of a light source 1 for irradiating a finger 7 with the rays of light; an image pickup means 3 for picking up the image of a fingerprint as well as the finger 7; an optical system 2 installed so that the images of the fingerprint and the finger 7 can be picked up even when the image pickup object 7 is moved within a predetermined movement permissible range; a normalization parameter acquiring means 41 for calculating finger width as a normalization parameter from the pickup image picked up by the image pickup means 3; a storage means 61 for storing a feature parameter in a preliminarily pickup individual fingerprint image as registration data; a normalization processing means 42 for normalizing the pickup image by using the normalization parameter so that the coordinate system of the pickup image can be matched with the coordinate system of the registration data; a feature parameter extracting means 5 for extracting the feature parameter from the normalized pickup image; and a collating means 6 for collating the extracted feature parameter with the registration data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、非接触で撮像された生体パターンを解析して個人を識別する個人識別装置に関するものである。   The present invention relates to a personal identification device that identifies a person by analyzing a biometric pattern captured in a non-contact manner.

従来の個人識別装置において、例えば指紋識別装置では平面のセンサデバイスに指を押しつけて指紋を採取する方式のほか、近年、離れた位置からカメラで、非接触で指紋を撮像する方式がある(例えば特許文献1参照)。
上記特許文献1では、指置きガイドを使わず、指を浮かせた状態で指を撮像し、指を透過した光を画像化して指紋画像を得る手法が示されている。
In a conventional personal identification device, for example, in a fingerprint identification device, there is a method of collecting a fingerprint by pressing a finger against a flat sensor device, and in recent years, there is a method of imaging a fingerprint in a contactless manner with a camera from a remote location (for example, Patent Document 1).
Japanese Patent Application Laid-Open No. H10-228561 discloses a technique of obtaining a fingerprint image by imaging a finger while the finger is lifted without using a finger placement guide, and imaging light transmitted through the finger.

特開2004−290664号公報(図13〜図18)JP-A-2004-290664 (FIGS. 13 to 18)

非接触で指紋パターンを撮像する上記従来装置にあっては、指の位置が特定されていないので、指と撮像素子との距離により指紋パターンの大きさがまちまちとなるため、撮像された撮像画像と予め登録された画像とを正確に照合することができないという問題があった。
大きさが変化する指紋画像を登録された画像と照合する方法としては、例えば従来の接触式の指紋識別装置における照合方法を流用し、得られた画像のサイズを様々な拡大率で変化させ、うまく照合できる拡大率を網羅的に探すような方法が適用できるが、処理時間がかかる。また、距離計測用のハードウェアを用いて、指までの距離を測定し、画像のサイズに距離の逆数を掛けて正規化するという方法もあるが、付加的な装置が必要となり、コスト的に問題があった。
また、指紋パターンに限らず、血流パターンなどのように個人識別に用いられる他の生体パターンを非接触で撮像する装置についても同じ課題があった。
In the above-described conventional device that captures a fingerprint pattern in a non-contact manner, since the position of the finger is not specified, the size of the fingerprint pattern varies depending on the distance between the finger and the image sensor. There is a problem that it is not possible to accurately collate the image with a previously registered image.
As a method of collating a fingerprint image whose size changes with a registered image, for example, using a collation method in a conventional contact-type fingerprint identification device, changing the size of the obtained image at various magnifications, Although a method of exhaustively searching for an enlargement rate that can be successfully verified can be applied, it takes time. There is also a method of measuring the distance to the finger using distance measurement hardware and normalizing the image size by multiplying the reciprocal of the distance, but an additional device is required, which is costly. There was a problem.
In addition, the same problem has been encountered not only for fingerprint patterns but also for devices that image other biological patterns used for personal identification such as blood flow patterns without contact.

この発明は、上記のような問題点を解決するためになされたものであり、非接触で撮像された生体パターンの画像を、付加的な装置を設けることなく、平易に、登録された画像データと精度良く照合できる個人識別装置を得ることを目的とする。   The present invention has been made in order to solve the above-described problems. The image data of a biological pattern captured in a non-contact manner can be easily registered without providing an additional device. It is an object to obtain a personal identification device that can be collated with high accuracy.

この発明に係る個人識別装置は、個別の生体パターンを有する撮像対象に光を照射する光源、上記生体パターンを上記撮像対象と共に撮像する撮像手段、上記撮像対象が所定の移動許容範囲内で移動しても、上記生体パターンが上記撮像対象と共に撮像可能となるように設置された光学系、上記撮像手段で撮像された撮像画像より、上記撮像対象の特定部分の長さを正規化パラメータとして算出する正規化パラメータ取得手段、予め撮像された個別の生体パターンの画像における特徴パラメータを登録データとして記憶する記憶手段、上記撮像画像の座標系と上記登録データの座標系とが一致するように、上記正規化パラメータを用いて正規化する正規化処理手段、正規化処理後の撮像画像より特徴パラメータを抽出する特徴パラメータ抽出手段、並びに抽出された上記特徴パラメータと上記登録データとを照合する照合手段を備えたものである。   The personal identification device according to the present invention includes a light source that irradiates light to an imaging target having an individual biological pattern, an imaging unit that images the biological pattern together with the imaging target, and the imaging target moves within a predetermined allowable movement range. However, the length of the specific portion of the imaging target is calculated as a normalization parameter from the optical system installed so that the biological pattern can be imaged together with the imaging target and the captured image captured by the imaging means. Normalization parameter acquisition means, storage means for storing characteristic parameters in an image of an individual biometric pattern captured in advance as registration data, and the normalization parameter so that the coordinate system of the captured image matches the coordinate system of the registration data Normalization processing means for normalizing using normalization parameters, feature parameter extraction for extracting feature parameters from captured images after normalization processing Stage, as well as those with matching means for matching the extracted the feature parameters and the registered data.

また、この発明に係る個人識別装置は、個別の生体パターンを有する撮像対象に光を照射する光源、上記生体パターンを上記撮像対象と共に撮像する撮像手段、上記撮像対象が所定の移動許容範囲内で移動しても、上記生体パターンが上記撮像対象と共に撮像可能となるように設置された光学系、上記撮像手段で撮像された撮像画像より、上記撮像対象の特定部分の長さを正規化パラメータとして算出する正規化パラメータ取得手段、予め撮像された個別の生体パターンの画像における特徴パラメータを登録データとして記憶する記憶手段、上記撮像画像より特徴パラメータを抽出する特徴パラメータ抽出手段、抽出された特徴パラメータの座標系と上記登録データの座標系とが一致するように、上記正規化パラメータを用いて正規化する正規化処理手段、並びに正規化された上記特徴パラメータと上記登録データとを照合する照合手段を備えたものである。   The personal identification device according to the present invention includes a light source that irradiates light to an imaging target having an individual biological pattern, an imaging unit that images the biological pattern together with the imaging target, and the imaging target is within a predetermined movement allowable range. An optical system installed so that the biological pattern can be imaged together with the imaging target even if it moves, and a length of a specific portion of the imaging target as a normalization parameter from the captured image captured by the imaging means Normalization parameter acquisition means for calculating, storage means for storing feature parameters in an image of an individual biometric pattern captured in advance as registration data, feature parameter extraction means for extracting feature parameters from the captured image, and extraction of feature parameters The normalization using the normalization parameter is performed so that the coordinate system and the coordinate system of the registered data match. Processing means, as well as those with matching means for matching the normalized the feature parameters and the registered data.

この発明によれば、撮像条件の変化、個人の成長・体形の変化等により、撮像画像の大きさが変化しても、容易に、かつ低コストで登録データと照合できるとともに、精度良く照合することができる。   According to the present invention, even if the size of a captured image changes due to changes in imaging conditions, changes in personal growth, body shape, etc., it can be easily verified at low cost against registered data and verified accurately. be able to.

実施の形態1.
図1は本発明の実施の形態1による個人識別装置を示す構成図である。許容撮像範囲21内に挿入された指7に指背面より光源1から出た光が照射されると、上記光は指を透過し、光学系2(図では簡単のため単一レンズで示す)と撮像手段3とで指の生体パターンが指と共に撮像される。撮像される生体パターンは、光源1の波長や撮像方法によって指紋パターン、血流パターン、またはそれらが重畳した画像となる。
光学系2の合焦範囲を広く取ることにより、指7は許容撮像範囲21のどこにあっても生体パターンが得られる。また、光学系2および撮像手段3は許容される指の移動範囲において指幅より広い範囲を撮像できるように設置される。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a personal identification device according to Embodiment 1 of the present invention. When the light emitted from the light source 1 is irradiated from the back of the finger onto the finger 7 inserted in the allowable imaging range 21, the light is transmitted through the finger and the optical system 2 (shown as a single lens in the figure for simplicity). And the imaging unit 3 captures the biological pattern of the finger together with the finger. The captured biological pattern is a fingerprint pattern, a blood flow pattern, or an image in which they are superimposed depending on the wavelength of the light source 1 and the imaging method.
By taking a wide focusing range of the optical system 2, a biological pattern can be obtained regardless of where the finger 7 is in the allowable imaging range 21. Further, the optical system 2 and the image pickup means 3 are installed so as to be able to pick up an image of a range wider than the finger width in an allowable finger movement range.

許容撮像範囲21としては、撮像される可能性がある指の下半分(指の腹側)が範囲21の上端部分にある状態で、指幅に許容撮像範囲21の上端における指の移動範囲の要求値を加算した値が、範囲21の上端部分の幅の下限値となる。範囲21の上端部分の幅の上限値は、撮像手段3もしくはその後の正規化手段4や特徴パラメータ抽出手段5にて最低限必要な画像解像度(すなわち隆線の間隔以上の解像度)を維持できる幅となる。具体的な計算例として、例えば装置の利用者が日本人に限定できる場合は、通常認証によく用いられる第2指の指先の幅の上限値が統計的に24mm程度であることから、左右方向の自由度要求値として例えば10mmをその値に加算して範囲21の上端幅の下限値を34mmとする。また、撮像素子の幅方向の画素数を例えば1400画素として、隆線間隔の見かけの最低値を例えば0.05mmとおくと、範囲21の上端幅の上限値は1400÷√2×0.05≒50mm(÷√2は撮像素子における斜め45度方向の解像度低下を反映するため)と試算することができる。上限値が下限値より大きいことが確認されたので上限値を50mmと決定する。
なお、上記の議論では、簡単のため指の前後方向の自由度や、範囲21の下端部分の自由度についてはふれなかったが、実際にはそれらについても上記と同様の試算が必要である。
また、光学系2の画角が広いと、焦点距離が短い分装置を小型化しやすいが、上端と下端で指の移動可能範囲の差が広がり、とくに上端で画像解像度の限界に達しやすくなることから、自由度の確保には焦点距離が長い方が有利である。一方、焦点距離が長くなると光量が不足して画質の低下につながるという負の面もあり、焦点距離、画角、許容撮像範囲の広さの最適なバランスは、光学系、撮像装置、画像処理部分の各所で確保できる性能の比にも依存している。画角の目安としては通常30度以下、最大でも45度以下とすることが望ましい。
また、光量不足に関する問題が少なければ、光学系2として無限遠の焦点距離に相当する状態を光学的に実現したテレセントリック系とよばれる構造とすることで、焦点距離をある程度抑えつつ、許容撮像範囲の上下差を最小化することもできる。
As the allowable imaging range 21, the finger movement range of the finger at the upper end of the allowable imaging range 21 is set to the finger width in a state where the lower half (finger side of the finger) that may be imaged is at the upper end portion of the range 21. A value obtained by adding the required values becomes a lower limit value of the width of the upper end portion of the range 21. The upper limit of the width of the upper end portion of the range 21 is a width that can maintain the minimum required image resolution (that is, a resolution equal to or higher than the ridge interval) in the image pickup means 3 or the subsequent normalization means 4 or feature parameter extraction means 5. It becomes. As a specific calculation example, for example, when the user of the device can be limited to Japanese, the upper limit value of the width of the fingertip of the second finger, which is often used for authentication, is statistically about 24 mm. For example, 10 mm is added as the required degree of freedom value to set the lower limit value of the upper end width of the range 21 to 34 mm. Further, when the number of pixels in the width direction of the image sensor is, for example, 1400 pixels and the apparent minimum value of the ridge interval is, for example, 0.05 mm, the upper limit value of the upper end width of the range 21 is 1400 / √2 × 0.05. It can be estimated that ≈50 mm (÷ √2 reflects a decrease in resolution in a 45-degree oblique direction in the image sensor). Since it was confirmed that the upper limit value is larger than the lower limit value, the upper limit value is determined to be 50 mm.
In the above discussion, for the sake of simplicity, the degree of freedom in the front-rear direction of the finger and the degree of freedom of the lower end portion of the range 21 were not mentioned, but actually, the same calculation as described above is necessary for them.
Also, if the angle of view of the optical system 2 is wide, the device can be miniaturized because the focal length is short, but the difference in the movable range of the finger at the upper end and the lower end widens, and the limit of the image resolution tends to be reached especially at the upper end. Therefore, a longer focal length is advantageous for securing the degree of freedom. On the other hand, there is a negative aspect that if the focal length becomes long, the amount of light is insufficient and the image quality deteriorates. The optimal balance among the focal length, the angle of view, and the width of the allowable imaging range is the optical system, imaging device, image processing It also depends on the ratio of performance that can be secured at various points. As a guide for the angle of view, it is usually 30 degrees or less, and preferably 45 degrees or less at the maximum.
Further, if there are few problems related to insufficient light amount, the optical system 2 has a structure called a telecentric system that optically realizes a state corresponding to an infinite focal length, so that the allowable imaging range is suppressed while suppressing the focal length to some extent. It is also possible to minimize the difference between the top and bottom.

図2(a)は生体パターン(ここでは指紋パターン)が撮像されている状態を示す図である。指が7許容撮像範囲21から離れてピントがあっていなかったり、指7の動きが撮像フレームレートより早すぎて生体パターンが得られないような場合は、画像に空間的な微分処理を施してエッジ部分のコントラストを調べる等の方法によって容易に区別できるので、ここではそのようなことがない場合についてのみ説明する。   FIG. 2A is a diagram illustrating a state in which a biological pattern (here, a fingerprint pattern) is captured. If the finger is away from the 7 allowable imaging range 21 and is not in focus, or if the movement of the finger 7 is faster than the imaging frame rate and a biological pattern cannot be obtained, a spatial differentiation process is applied to the image. Since it can be easily distinguished by a method such as examining the contrast of the edge portion, only the case where such a case does not occur will be described here.

撮像手段3により図2(a)に示すような撮像画像が得られると、得られた撮像画像は正規化手段4に送られ、以下のような処理が施される。
まず、正規化パラメータ取得手段41において、正規化パラメータとして指の幅を求める。手順としては、得られた撮像画像を画像処理し、上記撮像画像より背景部分75を除去して指領域70を求める。背景部分75には、指領域70の領域と異なりピントが合う範囲に物体がないことから、例えば空間的な低周波成分の除去等の処理によって背景部分75を取り除くか、または生体パターンとは明らかに異なる光学波長特性を有することを利用して背景部分75を取り除く。
When the picked-up image as shown in FIG. 2A is obtained by the image pickup means 3, the obtained picked-up image is sent to the normalization means 4 and subjected to the following processing.
First, the normalization parameter acquisition unit 41 obtains the finger width as a normalization parameter. As a procedure, the obtained captured image is subjected to image processing, the background portion 75 is removed from the captured image, and the finger region 70 is obtained. Unlike the finger region 70, the background portion 75 does not have an object in focus. For example, the background portion 75 is removed by processing such as removal of a spatial low-frequency component or the biological pattern is clear. The background portion 75 is removed using the fact that the optical wavelength characteristics are different from each other.

空間的な低周波成分の除去による背景除去方法としては、例えば撮像画像に二次元のフーリエ変換等を施し、所定の空間周波数しきい値以下の成分を0にした上で逆変換し、所定のしきい値で二値化し、収縮・膨張処理を数回行うなどの方法で領域の穴埋め処理やノイズ領域の消去を行う。上記空間周波数しきい値としては、指が画像の幅いっぱいに映る状態が隆線間隔の最大値であるから、例えば撮像画像の幅を、統計的に隆線が最も疎な指における、指の横断方向の隆線数より十分少ない数(たとえば20〜30)で除すれば、背景部分のピントがあっていない物体と比較して十分高周波のしきい値が設定できる。   As a background removal method by removing spatial low-frequency components, for example, a captured image is subjected to two-dimensional Fourier transform, etc., a component equal to or lower than a predetermined spatial frequency threshold value is converted to 0, and inverse conversion is performed. The region is filled and the noise region is erased by a method such as binarization with a threshold value and performing shrinkage / expansion several times. As the spatial frequency threshold, since the maximum value of the ridge interval is the state in which the finger is projected to the full width of the image, for example, the width of the captured image is set to the finger of the finger with statistically the least ridge. By dividing by a number sufficiently smaller than the number of ridges in the transverse direction (for example, 20 to 30), a sufficiently high frequency threshold can be set as compared with an object in which the background portion is not in focus.

また、光学波長特性による背景除去方法としては、光源1から発せられ、生体を通過する光の波長を透過するバンドパスフィルタ20と、撮像範囲の背後に上記波長の光の反射や透過を防ぐ背景板10を設けることにより、上記波長の光を通す指は明るい領域として、上記波長の光のない背景領域は暗い領域として撮像される。したがって、このような構成の基で得られた撮像画像に対して、例えば二値化処理を行えば、指領域70が容易に得られる。図1の装置では背景板10とバンドパスフィルタ20とを設けた構成としている。   In addition, as a background removal method based on optical wavelength characteristics, a bandpass filter 20 that emits a wavelength of light emitted from the light source 1 and passes through a living body, and a background that prevents reflection and transmission of light having the above wavelength behind an imaging range. By providing the plate 10, a finger through which light having the above wavelength passes is imaged as a bright region, and a background region without light having the above wavelength is imaged as a dark region. Therefore, for example, if binarization processing is performed on a captured image obtained based on such a configuration, the finger region 70 can be easily obtained. In the apparatus of FIG. 1, a background plate 10 and a band pass filter 20 are provided.

指領域70が求められると、次に、その主軸71を求め、さらに上記主軸71に垂直な方向の指幅72を求める。
主軸71は例えば主成分分析などの手法を用いてもよいが、装置の構造上、指の方向がほぼ限定される場合には、例えば以下に述べるような平易な方法でも近似的に求められる。すなわち、図2(a)に示すように、指がほぼ上下方向であることがわかっていれば、まず画像を横方向(x方向)に沿って走査し、各水平ライン(位置y)に対する指領域70の左端の座標列xl(y)および右端の座標列xr(y)を検出する。
なお背景部分のみの部分は処理対象外とする。
そしてそれらの中点座標列
xc(y)=(xl(y)+xr(y))/2
を求め、最小二乗法によって近似線の切片と傾きを確定し、主軸71とする。
When the finger area 70 is obtained, next, the principal axis 71 is obtained, and the finger width 72 in the direction perpendicular to the principal axis 71 is obtained.
For example, the principal axis 71 may use a technique such as principal component analysis. However, when the direction of the finger is substantially limited due to the structure of the apparatus, the principal axis 71 can be approximately obtained by a simple method as described below, for example. That is, as shown in FIG. 2A, if it is known that the finger is substantially in the vertical direction, the image is first scanned along the horizontal direction (x direction), and the finger for each horizontal line (position y) is scanned. The left end coordinate sequence xl (y) and the right end coordinate sequence xr (y) of the area 70 are detected.
Note that only the background portion is not subject to processing.
And the midpoint coordinate sequence xc (y) = (xl (y) + xr (y)) / 2
And the intercept and slope of the approximate line are determined by the least square method and set as the main axis 71.

次に、点(xl(y1),y1)と点(xr(y2),y2)との任意の組み合わせから主軸に直交する組をすべて選び出すと、選び出された点間の距離が、指の主軸71に沿った指幅72を表す。
なお、主軸に直交する組をすべて選び出すには以下の方法により行う。ある注目点(xl(y1),y1)と組をなす参照点(xr(y2),y2)は、主軸の傾きをθとすると、
tanθ=(yl−yr)/(xl(y1)−xr(y1))
を満たす。よって、上記式を満たすy=y2を、点列xr(y)の中からyを順次変化させて探索することによって求めることができる。そこで点列xl(y1)の各点に対して上記の探索作業を行うと、主軸に直交する点の組がすべて選び出される。
したがって、y1における指幅72の値Fw(y1)は
Fw(y1)=√((xl(y1)−xr(y1))2+(yl−yr)2
または
Fw(y1)=|cosθ ×(xl(y1)−xr(y1))|
により算出できる。
Next, when all pairs orthogonal to the principal axis are selected from any combination of the points (xl (y1), y1) and the points (xr (y2), y2), the distance between the selected points is The finger width 72 along the main axis 71 is represented.
The following method is used to select all the sets orthogonal to the main axis. A reference point (xr (y2), y2) paired with a certain point of interest (xl (y1), y1)
tan θ = (yl−yr) / (xl (y1) −xr (y1))
Meet. Therefore, y = y2 satisfying the above equation can be obtained by searching by sequentially changing y from the point sequence xr (y). Therefore, when the above search operation is performed for each point of the point sequence xl (y1), all pairs of points orthogonal to the main axis are selected.
Therefore, the value Fw (y1) of the finger width 72 at y1 is Fw (y1) = √ ((xl (y1) −xr (y1)) 2 + (yl−yr) 2 ).
Or Fw (y1) = | cos θ × (xl (y1) −xr (y1)) |
Can be calculated.

得られた指幅の中から、例えば、指先から所定の距離だけ根元側に移動した部分の幅、あるいは指の主軸71に沿って変化する指幅の最大幅、あるいは指の主軸71に沿って変化する指幅の平均値、などの方法で指幅72の代表値Fwを決定する。   Among the obtained finger widths, for example, the width of the portion moved to the base side by a predetermined distance from the fingertip, the maximum width of the finger width that changes along the main axis 71 of the finger, or along the main axis 71 of the finger The representative value Fw of the finger width 72 is determined by a method such as an average value of the changing finger width.

以上のような処理によって、指幅72を正規化パラメータとして算出すると、正規化処理手段42では、上記指幅72の情報を用いて、撮像された指紋パターンの大きさを所定の大きさに合わせると共に、指紋パターンの向きを所定方向に合わせるように正規化する。
指領域70に存在する指紋パターンの見かけの拡大率は、光学系2の焦点位置からの距離に逆比例する成分に加え、さらに識別しようとする個人の成長、体形の変化等により生じる指本来の大きさの個体差という別の成分が含まれる。したがって、上記距離の計測値なしには両者を分離することはできない。また、たとえ上記距離による画像の伸縮がなくても成長などによる生体パターンの伸縮に対応した画像処理が必要となる。
本実施の形態では指紋パターンの大きさを所定の大きさに合わせこむように正規化するに際し、正規化パラメータとして撮像画像の指幅を用い、撮像画像の座標系と登録データの座標系とが一致するように正規化を行っている。その結果、前述の指紋パターンの見かけの拡大率において、光学系2の焦点位置からの距離に逆比例する成分と、指本来の大きさの個体差による成分とを分離することが不要となる。また、距離の測定が不要となる。すなわち、指紋などの生体パターンは終生不変であるから、成長や肥満によって指の大きさが変わると、生体パターンは皮膚の伸縮に比例して伸縮するだけで、指紋の隆線数が増えたりするようなことは起こりえない。したがって、個体差による上記成分はみかけの指幅に応じて拡大縮小する成分として考えればよい。また、距離による画像の伸縮に関しても、みかけの指幅に応じて拡大縮小する成分として考えればよいので、指幅を所定の指幅にそろえるような正規化処理を施すことによって、各成分による影響をまとめてキャンセルすることができる。
When the finger width 72 is calculated as a normalization parameter by the processing as described above, the normalization processing unit 42 uses the information on the finger width 72 to adjust the size of the captured fingerprint pattern to a predetermined size. At the same time, normalization is performed so that the orientation of the fingerprint pattern is aligned with a predetermined direction.
The apparent enlargement ratio of the fingerprint pattern existing in the finger region 70 is not only a component inversely proportional to the distance from the focal position of the optical system 2, but also the original finger generated by the growth of the individual to be identified, the body shape change, etc. Another component of individual difference in size is included. Therefore, the two cannot be separated without the measured distance value. Further, even if there is no image expansion / contraction due to the distance, image processing corresponding to the expansion / contraction of the biological pattern due to growth or the like is required.
In this embodiment, when normalizing the fingerprint pattern to a predetermined size, the finger width of the captured image is used as a normalization parameter, and the coordinate system of the captured image matches the coordinate system of the registered data. Normalization is performed so that As a result, it is not necessary to separate a component that is inversely proportional to the distance from the focal position of the optical system 2 and a component due to individual differences in the original size of the finger in the apparent magnification of the fingerprint pattern. Further, distance measurement is not necessary. In other words, since biometric patterns such as fingerprints are life-long, if the size of the finger changes due to growth or obesity, the biometric pattern only expands and contracts in proportion to the expansion and contraction of the skin, and the number of fingerprint ridges increases. Such a thing cannot happen. Therefore, the above component due to individual differences may be considered as a component that expands or contracts according to the apparent finger width. In addition, regarding the expansion / contraction of the image depending on the distance, it can be considered as a component that expands and contracts according to the apparent finger width, so by applying a normalization process that aligns the finger width to the predetermined finger width, the influence of each component Can be canceled together.

具体的には、以下の変換により撮像画像の正規化を行う。例えば、基準となる指幅(所定の固定値)をWとし上記指幅の指画像の主軸71をY軸、それに垂直な軸をX軸とし、さらに原点を所定位置に定めて基準となる座標系とする。座標系の原点は、例えば単純にY軸と画像下端との交点とするか、またはY軸にそってさらに(+)方向に指の先端位置の検出を行い、その先端位置からW×k(kは所定の倍率)だけY軸(−)方向に移動した点などとして決定する。
正規化パラメータ取得手段41で得られた撮像画像における指幅をFwとすれば、正規化処理により変換した後の撮像画像の各点の座標は、
(X,Y)=(W/Fw)R(Xo,Yo)+(Xc,Yc) (1)
で表される。ただし(Xo,Yo)は元の撮像画像の座標系における各画素の座標(この場合も主軸71をYo軸、それに垂直な軸をXo軸とし、指画像が中央にくるように原点を定める。)Rは撮像画像の座標系における主軸71と基準となる座標系における指画像の主軸71との傾き角度に対応する逆回転行列、(Xc,Yc)は(X、Y)平面の原点と(Xo,Yo)平面の原点の平行移動量である。また逆回転行列Rは、主軸71の傾きの逆正接として得られる角度θを用いて、
Specifically, the captured image is normalized by the following conversion. For example, the reference finger width (predetermined fixed value) is W, the principal axis 71 of the finger image of the finger width is the Y axis, the axis perpendicular to the Y axis is the X axis, and the origin is set to a predetermined position to be the reference coordinates System. The origin of the coordinate system is, for example, simply the intersection of the Y axis and the lower end of the image, or the tip position of the finger is further detected in the (+) direction along the Y axis, and W × k ( k is determined as a point moved in the Y-axis (−) direction by a predetermined magnification.
If the finger width in the captured image obtained by the normalization parameter acquisition unit 41 is Fw, the coordinates of each point of the captured image after conversion by the normalization process are
(X, Y) = (W / Fw) R (Xo, Yo) + (Xc, Yc) (1)
It is represented by However, (Xo, Yo) is the coordinates of each pixel in the coordinate system of the original captured image (in this case, the main axis 71 is the Yo axis, the axis perpendicular to it is the Xo axis, and the origin is determined so that the finger image is in the center. ) R is a reverse rotation matrix corresponding to the tilt angle between the main axis 71 in the coordinate system of the captured image and the main axis 71 of the finger image in the reference coordinate system, and (Xc, Yc) is the origin of the (X, Y) plane and ( Xo, Yo) is the amount of translation of the origin of the plane. The inverse rotation matrix R uses an angle θ obtained as an arc tangent of the inclination of the main axis 71, and

Figure 2007079771
Figure 2007079771

として表される。
上記正規化処理により変換処理された撮像画像を図2(b)に示す。
Represented as:
A captured image converted by the normalization process is shown in FIG.

このようにして、基準となる座標系と一致するように変換処理された撮像画像は、次に特徴パラメータ抽出手段5で処理され、特徴パラメータが抽出される。
一方、予め、個別に、指紋パターンが指と共に撮像され、この指画像に対しても、基準となる座標系と一致するように正規化を行い、所定の値の指幅をもった画像を得る。さらにこの画像に対して特徴パラメータを抽出し、抽出された特徴パラメータを個別にデータベース61に登録する。
照合手段6では、上記特徴パラメータ抽出手段5で抽出された撮像画像の特徴パラメータと、データペース61に登録されている特徴パラメータ(登録データ)とを照合する。
これにより、拡大縮小による特徴パラメータの位置のずれが大幅に減少して精度良く照合できるようになる。
In this way, the captured image that has been converted so as to coincide with the reference coordinate system is then processed by the feature parameter extraction means 5 to extract the feature parameter.
On the other hand, a fingerprint pattern is captured separately with a finger in advance, and this finger image is also normalized so that it matches the reference coordinate system, and an image having a finger width of a predetermined value is obtained. . Further, feature parameters are extracted from this image, and the extracted feature parameters are individually registered in the database 61.
The collating unit 6 collates the characteristic parameters of the captured image extracted by the characteristic parameter extracting unit 5 with the characteristic parameters (registered data) registered in the data pace 61.
As a result, the positional shift of the feature parameter due to enlargement / reduction is greatly reduced, and the matching can be performed with high accuracy.

なお、上記正規化手段4、上記特徴パラメータ抽出手段5、および上記照合手段6において実行される上記各演算処理は、得られた撮像画像をコンピュータに入力すると共に、コンピュータ内でのプログラムによって実行される。   The arithmetic processing executed in the normalizing means 4, the characteristic parameter extracting means 5 and the collating means 6 is executed by inputting the obtained captured image to a computer and by a program in the computer. The

特徴パラメータの抽出には、例えば特開2005−10842号公報に記載されるような方法が利用でき、照合には、例えば特開平4−357570号公報に記載されるような方式が利用できる。   For example, a method as described in Japanese Patent Application Laid-Open No. 2005-10842 can be used for extracting characteristic parameters, and a method as described in Japanese Patent Application Laid-Open No. 4-357570 can be used for collation.

なお、上記実施の形態では、登録データに用いる画像の方も所定の値(固定値)の指幅に正規化されており、撮像された撮像画像の指幅を上記所定の値(固定値)の指幅に合わせこむような正規化処理について説明したが、登録データに用いる画像の方は正規化を行わず、撮像画像を正規化処理する際に、登録データに用いる画像の指幅へと合わせこむような処置としてもよい。この場合、データベース61には上記登録データに対し、それぞれ指幅に関するデータが合わせて登録されている。   In the above embodiment, the image used for the registration data is also normalized to a finger width of a predetermined value (fixed value), and the finger width of the captured image is set to the predetermined value (fixed value). The normalization process that fits the finger width of the image is described. However, the image used for the registration data is not normalized, and when the captured image is normalized, the finger width of the image used for the registration data is reduced. It is good also as a treatment to match. In this case, data relating to the finger width is registered in the database 61 together with the registration data.

以上のように、本実施の形態では、撮像画像の指幅を正規化パラメータとし、撮像画像の座標系と、登録データの座標系とが一致するように、上記正規化パラメータを用いて正規化すると共に、正規化処理後の撮像画像より特徴パラメータを抽出し、上記特徴パラメータと登録データとを照合するようにしたので、撮像条件の変化、個人の成長・体形の変化等により、撮像画像の大きさが変化しても、容易に、かつ低コストで撮像画像と登録データとの照合が可能となるとともに、特徴パラメータがずれることなく、精度良く照合することができる。   As described above, in this embodiment, the finger width of the captured image is used as a normalization parameter, and normalization is performed using the normalization parameter so that the coordinate system of the captured image matches the coordinate system of the registered data. At the same time, feature parameters are extracted from the captured image after normalization, and the above-mentioned feature parameters are registered with the registered data. Even if the size changes, the captured image can be compared with the registered data easily and at low cost, and the matching can be performed with high accuracy without shifting the characteristic parameter.

また、指紋等の画像処理において、例えば特開2005−10842号公報に記載されるように、ある空間周波数に限定した空間パターンフィルタを利用し、その周波数に近い隆線間隔の部分のみを撮像画像から抽出するという方式が用いられる。生体パターンの空間周波数は個人差を除けば基本的にみかけの指幅に比例するため、本発明の正規化により、画像上の空間周波数の変動から指の距離による成分と成長などによる成分の両方が取り除かれ、本来の個人差による変動成分だけとなる。したがって、空間周波数の値分布がより限定されるため、広い空間周波数範囲に対応するために多くの空間周波数に対応したフィルタを用意するといったような、付加的な処理の必要がなくなるというメリットも得られる。   In image processing such as fingerprints, a spatial pattern filter limited to a certain spatial frequency is used as described in, for example, Japanese Patent Application Laid-Open No. 2005-10842, and only a portion of a ridge interval close to that frequency is captured image. The method of extracting from is used. Since the spatial frequency of the biological pattern is basically proportional to the apparent finger width except for individual differences, the normalization of the present invention allows both the component due to finger distance and the component due to growth, etc., from fluctuations in the spatial frequency on the image. Is removed, and only the fluctuation component due to the original individual difference is obtained. Therefore, since the spatial frequency value distribution is more limited, there is an advantage that there is no need for additional processing such as preparing filters corresponding to many spatial frequencies in order to cope with a wide spatial frequency range. It is done.

上記実施の形態では、光源からの光を指の背面より入射させ、指を透過した透過光により指紋パターンを得るものを示したが、指の腹面に光を照射して直接、指紋パターンを撮像するものに対しても、本実施の形態の正規化手段4を設けることにより同様の効果がある。   In the above embodiment, the light from the light source is incident from the back of the finger and the fingerprint pattern is obtained by the transmitted light transmitted through the finger. However, the fingerprint pattern is directly imaged by irradiating light on the finger abdomen. The same effect can be obtained by providing the normalizing means 4 of the present embodiment.

また、指の生体パターンは指紋パターンに限らず、血流パターンを撮像するものであっても同様の効果がある。
さらに、手のひらの生体パターン、たとえば掌紋パターン、あるいは手のひらの血流パターンを撮像する装置に対しても、同様の正規化手段を設けることにより同様の効果がある。ただし、この場合の正規化パラメータは指幅ではなく、手のひらの幅、たとえば小指の第3関節と人差し指の第3関節における幅など、手のひらが動きに対して比較的変動の少ない個所であり、かつ体形の変化に比例してその生体パターンも伸縮する個所の値をパラメータとするとよい。
The biometric pattern of the finger is not limited to the fingerprint pattern, and the same effect can be obtained even if the blood flow pattern is imaged.
Further, the same effect can be obtained by providing the same normalizing means for an apparatus that captures a biological pattern of a palm, for example, a palmprint pattern or a blood flow pattern of the palm. However, the normalization parameter in this case is not the finger width, but the palm width, for example, the width at the third joint of the little finger and the third joint of the index finger, and the like, where the palm is relatively less fluctuating with respect to movement, and It is preferable to use as a parameter the value at which the biological pattern expands and contracts in proportion to the change in body shape.

また、上記実施の形態では、撮像画像の座標系が登録データの座標系と一致するように撮像画像を正規化したが、登録データと撮像画像とを入れ替え、撮像画像の方は正規化を行わず、登録データの座標系が撮像画像の座標系と一致するように、登録データを正規化しても良い。   In the above embodiment, the captured image is normalized so that the coordinate system of the captured image matches the coordinate system of the registration data. However, the registration data and the captured image are interchanged, and the captured image is normalized. Instead, the registration data may be normalized so that the coordinate system of the registration data matches the coordinate system of the captured image.

実施の形態2.
図3は本発明の実施の形態2による個人識別装置を示す構成図である。実施の形態1では撮像された画像そのものを正規化してから特徴パラメータを抽出するようにしたが、本実施の形態では先に撮像画像より特徴パラメータを求め、その後、特徴パラメータの座標系と登録データの座標系とが一致するように正規化する。すなわち、図3において、正規化パラメータ取得手段41と正規化処理42との間に特徴パラメータ抽出手段5を配置する。他の構成は実施の形態1と同様の構成である。
Embodiment 2. FIG.
FIG. 3 is a block diagram showing a personal identification device according to Embodiment 2 of the present invention. In the first embodiment, the feature parameter is extracted after normalizing the captured image itself. However, in the present embodiment, the feature parameter is first obtained from the captured image, and then the coordinate system of the feature parameter and the registration data are obtained. Normalize to match the coordinate system of. That is, in FIG. 3, the feature parameter extraction unit 5 is arranged between the normalization parameter acquisition unit 41 and the normalization process 42. Other configurations are the same as those of the first embodiment.

正規化パラメータ取得手段41では、実施の形態1において正規化手段4で行われたと同様の方法で、指幅Fwを算出すると共に、画像の拡大縮小率W/Fw、および回転行列Rなど、数式(1)のパラメータの算出を行う。
特徴パラメータ抽出手段5では、撮像画像より特徴パラメータを抽出する。このとき、抽出処理の性質によっては上記で算出された拡大縮小率などのパラメータも用いる。例えば前述の特開2005−10842号公報では、ある空間周波数に限定した空間パターンフィルタを利用し、その周波数に近い隆線間隔の部分のみを撮像画像から抽出するような処理のため、隆線間隔が拡大縮小されると、フィルタの周波数も調整する必要がある。この場合は、通常用いる周波数に拡大縮小率の逆数を掛けた周波数とすればよい。
In the normalization parameter acquisition unit 41, the finger width Fw is calculated by the same method as that performed by the normalization unit 4 in the first embodiment, and the mathematical expression such as the image scaling factor W / Fw and the rotation matrix R is calculated. The parameter (1) is calculated.
The feature parameter extraction unit 5 extracts feature parameters from the captured image. At this time, parameters such as the enlargement / reduction ratio calculated above are also used depending on the nature of the extraction process. For example, in the aforementioned Japanese Patent Application Laid-Open No. 2005-10842, a ridge interval is used for processing that uses a spatial pattern filter limited to a certain spatial frequency and extracts only a portion of the ridge interval close to that frequency from the captured image. Is scaled, the filter frequency also needs to be adjusted. In this case, what is necessary is just to make it the frequency which multiplied the reciprocal number of the expansion / contraction rate to the frequency used normally.

正規化処理手段42では、抽出された特徴パラメータの座標系が登録データの座標系と一致するように、数式(1)と同じ式を用いて座標変換し、抽出された特徴パラメータを正規化する。ただし、(Xo,Yo)は撮像画像の座標系における特徴パラメータの座標となる。   The normalization processing unit 42 performs coordinate transformation using the same formula as the formula (1) so that the coordinate system of the extracted feature parameter matches the coordinate system of the registered data, and normalizes the extracted feature parameter. . However, (Xo, Yo) is the coordinate of the feature parameter in the coordinate system of the captured image.

照合手段6では、正規化処理後の特徴パラメータと、データペース61に登録されている登録データ(特徴パラメータ)とを照合する。これにより、拡大縮小による特徴パラメータの位置のずれが大幅に減少して精度良く照合できるようになる。   The collating means 6 collates the normalized characteristic parameter with the registered data (characteristic parameter) registered in the data pace 61. As a result, the positional shift of the feature parameter due to enlargement / reduction is greatly reduced, and the matching can be performed with high accuracy.

特徴パラメータの情報量は一般に画像そのものよりは少ないので、この構成により実施の形態1と同等の効果をより少ない処理量で得ることができる。   Since the information amount of the characteristic parameter is generally smaller than that of the image itself, this configuration can obtain the same effect as that of the first embodiment with a smaller processing amount.

なお、本実施の形態においても、実施の形態1と同様、予め登録された登録データの座標系は基準となる座標系に正規化していてもよいし、正規化を行わず、撮像画像より抽出された特徴パラメータを正規化する際に、登録データに用いる画像の指幅へと合わせこむような処置としてもよい。
また、正規化に際し、撮像画像より抽出された特徴パラメータの正規化を行わず、登録データの座標系が撮像画像より抽出された特徴パラメータの座標系と一致するように、登録データを正規化しても良い。
In this embodiment as well, as in the first embodiment, the coordinate system of registered data registered in advance may be normalized to a reference coordinate system, or extracted from the captured image without normalization. When normalizing the feature parameters that have been performed, a procedure may be adopted in which the feature parameters are adjusted to the finger width of the image used for the registration data.
Also, in normalization, the registered data is normalized so that the coordinate system of the registered data matches the coordinate system of the feature parameter extracted from the captured image without normalizing the feature parameter extracted from the captured image. Also good.

本発明の実施の形態1による個人識別装置を示す構成図である。It is a block diagram which shows the personal identification device by Embodiment 1 of this invention. 本発明の実施の形態1による個人識別装置の動作を説明する図である。It is a figure explaining operation | movement of the personal identification device by Embodiment 1 of this invention. 本発明の実施の形態2による個人識別装置を示す構成図である。It is a block diagram which shows the personal identification device by Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 光源、2 レンズ系、21 許容撮像範囲、3 撮像手段、4 正規化手段、41 正規化パラメータ取得手段、42 正規化処理手段、5 特徴パラメータ抽出手段、6 照合手段、61 データベース、7 指、70 指領域、71 主軸、 72 指幅、 75 背景領域。   DESCRIPTION OF SYMBOLS 1 Light source, 2 Lens system, 21 Permissible imaging range, 3 Imaging means, 4 Normalization means, 41 Normalization parameter acquisition means, 42 Normalization processing means, 5 Feature parameter extraction means, 6 Collation means, 61 Database, 7 fingers, 70 finger area, 71 main axis, 72 finger width, 75 background area.

Claims (4)

個別の生体パターンを有する撮像対象に光を照射する光源、上記生体パターンを上記撮像対象と共に撮像する撮像手段、上記撮像対象が所定の移動許容範囲内で移動しても、上記生体パターンが上記撮像対象と共に撮像可能となるように設置された光学系、上記撮像手段で撮像された撮像画像より、上記撮像対象の特定部分の長さを正規化パラメータとして算出する正規化パラメータ取得手段、予め撮像された個別の生体パターンの画像における特徴パラメータを登録データとして記憶する記憶手段、上記撮像画像の座標系と上記登録データの座標系とが一致するように、上記正規化パラメータを用いて正規化する正規化処理手段、正規化処理後の撮像画像より特徴パラメータを抽出する特徴パラメータ抽出手段、並びに抽出された上記特徴パラメータと上記登録データとを照合する照合手段を備えたことを特徴とする個人識別装置。 A light source that irradiates light to an imaging target having an individual biological pattern, an imaging unit that images the biological pattern together with the imaging target, and the biological pattern is captured even if the imaging target moves within a predetermined allowable movement range. Normalized parameter acquisition means for calculating the length of a specific part of the imaging target as a normalization parameter from an optical system installed so as to be capable of imaging with the target, and a captured image captured by the imaging means. Storage means for storing feature parameters in individual biometric pattern images as registration data, and normalization using the normalization parameters so that the coordinate system of the captured image matches the coordinate system of the registration data Processing means, feature parameter extraction means for extracting feature parameters from the captured image after normalization processing, and the extracted features Personal identification device characterized by comprising a verification means for collating the parameters and the registered data. 個別の生体パターンを有する撮像対象に光を照射する光源、上記生体パターンを上記撮像対象と共に撮像する撮像手段、上記撮像対象が所定の移動許容範囲内で移動しても、上記生体パターンが上記撮像対象と共に撮像可能となるように設置された光学系、上記撮像手段で撮像された撮像画像より、上記撮像対象の特定部分の長さを正規化パラメータとして算出する正規化パラメータ取得手段、予め撮像された個別の生体パターンの画像における特徴パラメータを登録データとして記憶する記憶手段、上記撮像画像より特徴パラメータを抽出する特徴パラメータ抽出手段、抽出された特徴パラメータの座標系と上記登録データの座標系とが一致するように、上記正規化パラメータを用いて正規化する正規化処理手段、並びに正規化された上記特徴パラメータと上記登録データとを照合する照合手段を備えたことを特徴とする個人識別装置。 A light source that irradiates light to an imaging target having an individual biological pattern, an imaging unit that images the biological pattern together with the imaging target, and the biological pattern is captured even if the imaging target moves within a predetermined allowable movement range. Normalized parameter acquisition means for calculating the length of a specific part of the imaging target as a normalization parameter from an optical system installed so as to be capable of imaging with the target, and a captured image captured by the imaging means. Storage means for storing feature parameters in individual biometric pattern images as registration data, feature parameter extraction means for extracting feature parameters from the captured image, a coordinate system of the extracted feature parameters, and a coordinate system of the registration data Normalization processing means for normalizing using the normalization parameters so as to match, and the normalized above Personal identification device characterized by comprising a verification means for collating the symptoms parameter and the registration data. 撮像手段は指紋を指と共に撮像し、正規化パラメータ取得手段は撮像された撮像画像より指幅を正規化パラメータとして算出することを特徴とする請求項1または2記載の個人識別装置。 The personal identification device according to claim 1, wherein the imaging unit images the fingerprint together with the finger, and the normalization parameter acquisition unit calculates the finger width as a normalization parameter from the captured image. 登録データの座標系は基準となる座標系に正規化されていることを特徴とする請求項1〜3のいずれかに記載の個人識別装置。
The personal identification device according to any one of claims 1 to 3, wherein a coordinate system of registration data is normalized to a reference coordinate system.
JP2005265062A 2005-09-13 2005-09-13 Personal identification device Pending JP2007079771A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005265062A JP2007079771A (en) 2005-09-13 2005-09-13 Personal identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005265062A JP2007079771A (en) 2005-09-13 2005-09-13 Personal identification device

Publications (1)

Publication Number Publication Date
JP2007079771A true JP2007079771A (en) 2007-03-29

Family

ID=37940034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005265062A Pending JP2007079771A (en) 2005-09-13 2005-09-13 Personal identification device

Country Status (1)

Country Link
JP (1) JP2007079771A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015505403A (en) * 2012-04-12 2015-02-19 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Non-contact fingerprinting system with afocal optics
JP2020030502A (en) * 2018-08-21 2020-02-27 株式会社アクセル Image processing device, image processing method, and image processing program
WO2023166619A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Information processing device, information processing method, and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101280A (en) * 1990-08-20 1992-04-02 Nippon Telegr & Teleph Corp <Ntt> Face picture collating device
JPH06168317A (en) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd Personal identification device
JP2005071118A (en) * 2003-08-26 2005-03-17 Hitachi Ltd Personal identification device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101280A (en) * 1990-08-20 1992-04-02 Nippon Telegr & Teleph Corp <Ntt> Face picture collating device
JPH06168317A (en) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd Personal identification device
JP2005071118A (en) * 2003-08-26 2005-03-17 Hitachi Ltd Personal identification device and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015505403A (en) * 2012-04-12 2015-02-19 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Non-contact fingerprinting system with afocal optics
JP2020030502A (en) * 2018-08-21 2020-02-27 株式会社アクセル Image processing device, image processing method, and image processing program
WO2023166619A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP7242528B2 (en) Systems and methods for performing fingerprint user authentication using images captured using mobile devices
US6813010B2 (en) Personal identification system
Labati et al. Contactless fingerprint recognition: a neural approach for perspective and rotation effects reduction
JP2009544108A (en) Multispectral image for multiple biometric authentication
JP5870922B2 (en) Image processing apparatus, image processing method, and image processing program
EP2546798A1 (en) Biometric authentication device and biometric authentication method
KR20110063679A (en) A vein pattern recognition based biometric system and methods thereof
WO2010041731A1 (en) Collating device, collating method, and program
JP2004118677A (en) Fingerprint authenticating method/program/device
JP2012256272A (en) Biological body identifying device and biological body identifying method
CN111868734A (en) Contactless rolling fingerprint
JP2012248079A (en) Biological information processing apparatus, biological information processing method and biological information processing program
JP4547899B2 (en) Personal authentication device
JP5923524B2 (en) Biometric authentication device, blood vessel imaging device, and method
JP2007079771A (en) Personal identification device
JP2011100317A (en) Personal authentication method and personal authentication system using vein pattern during bending and stretching motion of finger
US9977889B2 (en) Device for checking the authenticity of a fingerprint
JP6298838B2 (en) Personal authentication device
JP2007179267A (en) Pattern matching device
JP2007202588A (en) Fingerprint verification system
JP5733296B2 (en) Blood vessel imaging device and personal authentication device
JP5299528B2 (en) Blood vessel imaging device and personal authentication device
JP5188517B2 (en) Personal authentication device
Ogundepo et al. Development of a real time fingerprint authentication/identification system for students’ record
JP5729029B2 (en) Identification device and identification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101221