JP5377580B2 - Authentication device for back of hand and authentication method for back of hand - Google Patents
Authentication device for back of hand and authentication method for back of hand Download PDFInfo
- Publication number
- JP5377580B2 JP5377580B2 JP2011139391A JP2011139391A JP5377580B2 JP 5377580 B2 JP5377580 B2 JP 5377580B2 JP 2011139391 A JP2011139391 A JP 2011139391A JP 2011139391 A JP2011139391 A JP 2011139391A JP 5377580 B2 JP5377580 B2 JP 5377580B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- vein pattern
- image
- finger
- authentication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 210000003462 vein Anatomy 0.000 claims abstract description 219
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims description 56
- 230000008569 process Effects 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 40
- 239000002131 composite material Substances 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 27
- 238000004891 communication Methods 0.000 abstract description 8
- 238000004422 calculation algorithm Methods 0.000 description 67
- 230000008859 change Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000009499 grossing Methods 0.000 description 9
- 238000010606 normalization Methods 0.000 description 8
- 238000003909 pattern recognition Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 210000002615 epidermis Anatomy 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 210000004243 sweat Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011109 contamination Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 210000003491 skin Anatomy 0.000 description 2
- 210000004003 subcutaneous fat Anatomy 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000002566 Capsicum Nutrition 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 206010003246 arthritis Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
Abstract
Description
本発明は、手の甲の認証端末及び手の甲の認証方法に関する。 The present invention relates to an authentication terminal for the back of the hand and an authentication method for the back of the hand.
一般的に、大規模使用者または、小規模使用者の立ち入り統制や保安のための個人識別を要する保安施設や認証システムでは、マグネティックカード、RFカード、スマートカード等のカードキーを使用した。しかし、カードキーを利用した個人識別方式は、カードの紛失、盗用、誤用等を本質的に防止できず、また、大規模使用者の場合、個人に支給されるカード数が多くなるため、経済的負担が大きくなるという短所がある。このような短所を補完し実質的使用者の認証のため、使用者の身体的な特徴を自動的に認識、認証し、使用者の身元確認、身元認証及び保安立ち入り統制に使用できる生体認識システムが開発され、使用されている。 Generally, card keys such as magnetic cards, RF cards, and smart cards are used in security facilities and authentication systems that require personal identification for large-scale users or small-scale user access control and security. However, the personal identification method using the card key cannot essentially prevent the loss, theft, misuse, etc. of the card, and in the case of a large-scale user, the number of cards provided to the individual increases. There is a disadvantage that the burden on the company becomes large. A biometric recognition system that automatically recognizes and authenticates the user's physical characteristics to compensate for these disadvantages and can be used for user identification, identity authentication, and security access control. Has been developed and used.
生体認識システムは、大きく分けて、人の行為的な特徴を認識する署名認識、身体的な特徴を認識する指紋認識、顔認識、手の形状認識、手の甲の静脈パターンの認識等を利用したシステム等が代表的である。 Biological recognition systems are broadly divided into signature recognition that recognizes human behavioral features, fingerprint recognition that recognizes physical features, face recognition, hand shape recognition, and vein pattern on the back of the hand. Etc. are representative.
生体認識システムのうち、最も一般的に知られている指紋認識システムは、使用者ごとに指紋が固有であるという点では、十分な個人識別システムとしての長所を備えており、人体の表皮に位置する指紋のパターンを認識することにより、良好な指紋の画像を通じて個人認証を行うようになる。しかし、指紋認識システムは、表皮に位置する指紋のパターンの特徴を抽出する方法であることから、勤労現場の労務者や軍人の場合、良好な指紋の画像を期待し難いため、システムの性能低下に大きな要因として作用するだけではなく、手から発生する汗、傷、外部汚染によっても、システムの性能低下要因として作用することがある。 Among the biometric recognition systems, the most commonly known fingerprint recognition system has an advantage as a sufficient personal identification system in that the fingerprint is unique for each user, and is located on the epidermis of the human body. By recognizing a fingerprint pattern to be recognized, personal authentication is performed through a good fingerprint image. However, since the fingerprint recognition system is a method for extracting the features of the fingerprint pattern located on the epidermis, it is difficult to expect a good fingerprint image in the case of workers and military personnel at the work site, so the performance of the system deteriorates. In addition to acting as a major factor, sweat, scratches, and external contamination from the hand may also act as factors that degrade the performance of the system.
次に、生体認識システムの中で、顔の認識システムは、現在の技術力では外部照明、化粧、眼鏡、アクセサリー等の外部変化で、安定した認識性能を示すことができず、手の形状を認識するシステムは、使用者の手の位置を固定させなければならないため、使用者の便宜性が劣り、リウマチ、関節炎等により生体特徴の変形が簡単に発生することがあり、システムの性能が低下することがある。 Next, among biometric recognition systems, the face recognition system cannot show stable recognition performance due to external changes in external lighting, makeup, glasses, accessories, etc. with the current technology, and the shape of the hand The recognition system must fix the position of the user's hand, so the convenience of the user is inferior, and the deformation of biological features can easily occur due to rheumatism, arthritis, etc. There are things to do.
たとえば、既存の生体認識システムの短所を改善するため、特許文献1で公開されている皮下に位置する静脈パターンを認識する手の甲の静脈パターンを利用した個人識別システムは、器具の設計面では使用者の手の位置を固定的に確保する方式を使用し、アルゴリズムの側面では高帯域処理と二値化処理を適用して使用者の静脈を抽出する方式を使用している。すなわち、手の甲の静脈パターンを利用した個人識別システムは、使用者が手で握ることができる棒が装着されていて、使用者が棒を手で握ると使用者の手の甲の画像を入力する安着手段、使用者の手の甲の静脈パターンを抽出する抽出手段、使用者の手の回転や移動に対する補正のため、抽出手段により抽出された手の甲の静脈パターン左側上段の分岐点と右側下段の分岐点を使用して補正する比較手段を使用している。 For example, in order to improve the shortcomings of the existing biometric recognition system, the personal identification system using the vein pattern on the back of the hand that recognizes the vein pattern located under the skin disclosed in Patent Document 1 is a user in terms of the design of the device. The method of securing the position of the hand of the user is used, and in terms of the algorithm, a method of extracting the veins of the user by applying high bandwidth processing and binarization processing is used. In other words, the personal identification system using the vein pattern on the back of the hand is equipped with a stick that the user can hold with his hand, and when the user holds the stick with his hand, an image of the back of the user's hand is input. Means for extracting the vein pattern of the back of the user's hand, and for correcting the rotation and movement of the user's hand, the branch point of the upper left side and the lower right side of the branch pattern of the back of the hand extracted by the extraction means Comparing means to use and correct are used.
図30は、従来技術の手の甲の静脈パターンを利用した個人識別システムで棒を握った使用者が手に力を入れる場合を図示したもので、図31は、使用者が手を上下に回転する場合を図示したものである。 FIG. 30 illustrates a case where a user holding a stick in the personal identification system using a vein pattern on the back of the hand of the prior art applies force to the hand. FIG. 31 illustrates the user rotating the hand up and down. The case is illustrated.
図30及び図31に図示されたとおり、従来技術の手の甲の静脈パターンを利用した個人識別システムの安着手段では、使用者が手で棒を握る位置次第で棒を基準に上下への回転が発生することによって、画像を撮影するCCDカメラとの距離的変化と抽出しようとする静脈パターンの歪曲(Geometry Distortion)が発生することがある。 As shown in FIGS. 30 and 31, in the conventional means for attaching the personal identification system using the vein pattern of the back of the hand, the user can rotate up and down with respect to the bar depending on the position where the user grips the bar. Occurrence may cause a change in distance from the CCD camera that captures an image and a distortion of the vein pattern to be extracted (geometry distribution).
また、抽出手段では、使用者の手の甲から抽出しようとする静脈パターンの方向性を考慮することなく、高帯域処理と二値化処理過程によってパターンを抽出する。このような抽出手段により、従来技術の手の甲静脈パターンを利用した個人識別システムは、パターンの方向性により、静脈パターンの特徴ベクトル(パターン分岐点)を部分的に失うようになる。 Further, the extraction means extracts the pattern by the high bandwidth process and the binarization process without considering the directionality of the vein pattern to be extracted from the back of the user's hand. Due to such extraction means, the conventional personal identification system using the back vein pattern of the hand partly loses the feature vector (pattern branch point) of the vein pattern due to the pattern directionality.
比較手段では、使用者の手の回転や移動により発生するシステム誤拒絶(FalseRejection)を解決する方法において、抽出された手の甲の静脈パターン左側上段の分岐点と右側下段の分岐点を利用することから、基準点として抽出された分岐点が部分的に失われると、基準分岐点を誤認識することにより、システムの性能低下の重要な要因として作用することがある。 In the comparison means, in the method of solving the system false rejection (FalseRejection) caused by the rotation and movement of the user's hand, the upper left branch point and the lower right branch point of the extracted hand back vein pattern are used. If the branch point extracted as the reference point is partially lost, it may act as an important factor in system performance degradation by misrecognizing the reference branch point.
上述のとおり、生体認識システムのうち、指紋認識、顔認識、手の形状認識システム等は、損傷した指紋画像、汗、傷等の外部汚染によりシステムの性能低下を招くという問題点があるが、手の甲の静脈パターンを利用したシステムは、皮下に位置する特徴を利用するため、このような問題点等を解決できる。しかし、従来技術の手の甲静脈パターンを利用した個人識別システムは、静脈パターンの歪曲や静脈パターンのパターン分岐点の部分的損失等による誤認識や誤拒絶のようなシステムの性能低下が発生し得るという問題点がある。 As described above, among the biometric recognition systems, fingerprint recognition, face recognition, hand shape recognition system, etc. have a problem that the performance of the system is reduced due to external contamination such as damaged fingerprint images, sweat, scratches, etc. Since the system using the vein pattern on the back of the hand uses a feature located under the skin, such a problem can be solved. However, the personal identification system using the caudal vein pattern of the prior art can cause system performance degradation such as false recognition or false rejection due to vein pattern distortion or partial loss of vein pattern pattern branching points. There is a problem.
図32は、従来技術の手の甲静脈パターンを利用した個人識別方法で、手の甲の静脈パターンの抽出アルゴリズム(HVPEA:Hand Vein Pattern Extraction Algorithm)を順に図示したものである。 FIG. 32 is a method for identifying a hand back vein pattern (HVPEA: Hand Vein Pattern Extraction Algorithm) in order by a conventional method for personal identification using the back vein pattern of the hand.
図32に示されるとおり、従来技術の手の甲静脈パターン抽出アルゴリズムは、カメラを通じて獲得した使用者の手の甲の原画像から静脈パターンが集中的に分布する注目領域(ROI:Region Of Interest)画像を獲得し、ROI画像から静脈パターンだけを強調する静脈パターン強調フィルタ (HVPEF:Hand Vein Pattern Emphasizing Filter)を利用し、手の甲に分布する静脈パターンと背景との境界部分を強調するようになる(S1, S2)。 As shown in FIG. 32, the conventional technique of extracting the back of the hand of the hand obtains a region of interest (ROI) image in which vein patterns are concentratedly distributed from the original image of the back of the user's hand acquired through the camera. Using a vein pattern emphasizing filter (HVPEF: Hand Vein Pattern Emphasizing Filter) that emphasizes only the vein pattern from the ROI image, the boundary portion between the vein pattern distributed on the back of the hand and the background is enhanced (S1, S2) .
静脈パターンの強調フィルタは、帯域通過(band−pass)フィルタの形態をしており、ROI画像で手の甲に分布する静脈パターンと背景の間の境界部分を強調するが、背景部分に該当する低周波数(low−frequency)は除去する。このような静脈パターンの強調フィルタの特性は、高周波帯域と低周波帯域の広い遷移区間による通過帯域(pass−band)の利得を維持できず、ROI画像から抽出しようとする静脈パターンの太さを考慮しないため、静脈パターンの重要な特徴である静脈パターン連結性(vein−pattern connectivity)を部分的に失うことになる。 The vein pattern enhancement filter is in the form of a band-pass filter that emphasizes the boundary portion between the vein pattern distributed on the back of the hand and the background in the ROI image, but the low frequency corresponding to the background portion. (Low-frequency) is removed. The characteristic of such a vein pattern enhancement filter is that the gain of the pass-band due to a wide transition section between the high frequency band and the low frequency band cannot be maintained, and the thickness of the vein pattern to be extracted from the ROI image is determined. Because it is not taken into account, the vein pattern connectivity that is an important feature of the vein pattern is partially lost.
ニ値化の処理過程は、静脈パターンの強調フィルタで処理された結果の画像を使用し、グレースケール画像を二値化画像(binary image)に変換することにより、手の甲の静脈パターンのみを抽出する(S3)。ニ値化処理過程を通じて得られる結果の画像は、抽出しようとする静脈パターンがblack(0)、残りの背景部分がwhite(255)に区分される。 In the binarization process, an image obtained as a result of processing by the vein pattern enhancement filter is used, and only a vein pattern on the back of the hand is extracted by converting a grayscale image into a binary image. (S3). In the resultant image obtained through the binarization process, the vein pattern to be extracted is divided into black (0) and the remaining background portion is divided into white (255).
正規化(normalization)処理過程は、ニ値化処理過程を経て抽出しようとする静脈パターンと背景に分離された二値化画像に対して適用される(S4)。すなわち、正規化処理過程は、システムの限定的なメモリ使用により使用者のデータベースを均一に使用し、認識過程で正規化された画像を対象に許可を受けた使用者の可否を判断するために必要とされる。 The normalization process is applied to the binarized image separated into the vein pattern and the background to be extracted through the binarization process (S4). That is, in the normalization process, the user's database is uniformly used due to the limited memory usage of the system, and whether or not the authorized user is permitted for the image normalized in the recognition process is determined. Needed.
次に、ニ値化処理過程と正規化処理過程の間の雑映除去過程は、ノイズ除去フィルタ (NRF:Noise Removal Filter)を通じて、ニ値化処理及び正規化過程を経て、手の甲の屈曲、毛、皮下脂肪層等による発生が望ましくない雑映を除去する(S5)。ノイズ除去フィルタで雑映を除去する一般的な方法として、線型フィルタリングである移動平均(Moving average)フィルタと非線型フィルタリングである中央値(Median)フィルタが使用できる。従来技術の手の甲静脈パターン抽出アルゴリズムでは、中央値フィルタを使用した雑映除去過程を使用している。 Next, the noise removal process between the binarization process and the normalization process is performed through a noise removal filter (NRF: Noise Removal Filter), and then through a binarization process and a normalization process. Then, the unwanted projection caused by the subcutaneous fat layer or the like is removed (S5). As a general method for removing the projection by the noise removal filter, a moving average filter that is linear filtering and a median filter that is nonlinear filtering can be used. The prior art hand vein pattern extraction algorithm uses a noise removal process using a median filter.
図33は、図32の手の甲の静脈パターン抽出アルゴリズムを実行する際のROI画像に対する静脈パターンの強調フィルタリング処理過程のそれぞれの結果を図示したものである。 FIG. 33 illustrates the results of the vein pattern enhancement filtering process for the ROI image when the back of hand pattern extraction algorithm of FIG. 32 is executed.
図33に示されるとおり、静脈パターンの強調フィルタは、ROI画像から静脈パターンを強調(a)し、二値化及び正規化処理過程(b)を経た後、ROI画像から強調された静脈パターン以外の背景部分で雑映を除去(c)する。 As shown in FIG. 33, the vein pattern enhancement filter emphasizes the vein pattern from the ROI image (a), and after the binarization and normalization process (b), the vein pattern other than the vein pattern enhanced from the ROI image In the background part of (2), noise is removed (c).
従来技術の手の甲静脈パターン抽出アルゴリズムは、静脈パターンの強調フィルタリング、ニ値化及び正規化処理、雑映除去過程を経て最終的に手の甲に分布する静脈パターンだけを抽出するようになる。このような従来技術の手の甲静脈パターンの抽出アルゴリズムは、獲得したROI画像で外部の温度変化から発生する静脈パターンの収縮及び膨張現象を考慮せず静脈パターンを抽出するため、静脈パターン分布で多くの静脈パターン連結性を失い、安定的なアルゴリズム性能を提供できないという問題点がある。 The conventional arterial vein pattern extraction algorithm of the hand extracts only the vein pattern finally distributed on the back of the hand through the vein pattern enhancement filtering, binarization and normalization processing, and the process of removing the clutter. In this conventional technique, the back-vein pattern extraction algorithm extracts the vein pattern without taking into account the contraction and expansion phenomenon of the vein pattern caused by the external temperature change in the acquired ROI image. There is a problem that vein pattern connectivity is lost and stable algorithm performance cannot be provided.
さらに、従来技術の手の甲静脈パターン抽出アルゴリズムの性能低下要因として、通過帯域の広い遷移区間による静脈パターンと背景の境界情報や静脈パターン内の情報を部分的に失い、抽出しようとする静脈パターンの重要な特徴である静脈パターン連結性を部分的に失うという問題点がある。 Furthermore, as a factor that degrades the performance of the conventional arterial vein pattern extraction algorithm, the vein pattern and background boundary information due to the wide transition zone and the information in the vein pattern are partially lost, and the importance of the vein pattern to be extracted is important. There is a problem in that the vein pattern connectivity, which is a unique feature, is partially lost.
このような問題点等は、手の甲静脈パターンの抽出アルゴリズムから抽出しようとする静脈パターンの太さを考慮せず単一フィルタ特性(single filter characteristics)で静脈パターンを抽出するため、抽出しようとする静脈パターンの重要な特徴である静脈パターンの静脈パターン連結性を部分的に失い、それによりシステムの認識性能の重要な性能低下現象を招くようになる。 Such a problem is because a vein pattern is extracted with a single filter characteristics without considering the thickness of the vein pattern to be extracted from the extraction algorithm of the hand caudal vein pattern. The vein pattern connectivity, which is an important feature of the pattern, is partially lost, thereby leading to a significant performance degradation phenomenon of the recognition performance of the system.
本発明は、表皮に位置する特徴を利用する既存の生体認識システムと異なり、手の甲の皮下に位置する静脈パターンを抽出し、使用者本人の確認に利用することにより、損傷した指紋画像、汗、傷、アクセサリー等の外部環境の変化により発生し得るシステムの性能低下を最小化させ、より安定したシステムの性能を提供し、使用者の便宜性を最大限に保証できる手の甲の認証端末及び手の甲の認証方法を提供するものである。 The present invention, unlike the existing biometric system that utilizes a feature located in the epidermis, extracts a vein pattern located in the back of the hand subcutaneously, by utilizing the user's confirmation himself, damaged fingerprint image, sweat, Minimize system performance degradation that may occur due to changes in the external environment such as scratches and accessories, provide more stable system performance, and guarantee the user's convenience to the maximum, and the back of the hand authentication terminal and back of the hand An authentication method is provided.
本発明の手の甲の認証端末は、The authentication terminal on the back of the hand of the present invention is
正面側に操作部を斜めに形成し、内部に斜めに空洞を形成したハウジングを有した箱型形状の手の甲の認証端末であって、An authentication terminal for the back of a box-shaped hand having a housing in which an operation part is formed obliquely on the front side and a cavity is formed obliquely inside,
前記ハウジングは、The housing is
下部に斜めに開口部が形成され、上部の内面に赤外照明器と可視光線及び赤外の帯域まで反応する撮像手段とを備え、内面に赤外線を吸収する物質が塗布され、An opening is formed obliquely in the lower part, and an infrared illuminator on the inner surface of the upper part and an imaging means that reacts to visible light and infrared bands, and a substance that absorbs infrared rays is applied to the inner surface,
さらに、further,
前記撮像手段及び赤外照明器の下方に設けられた赤外線フィルタとAn infrared filter provided below the imaging means and the infrared illuminator;
を備え、With
さらに、前記開口部の壁側となる下部に安定ハンドルを備え、In addition, a stable handle is provided at the lower part of the opening that is on the wall side,
該安定ハンドルは、The stable handle is
水平棒と、A horizontal bar,
2本の軸を中指を挿入可能な幅で前記水平棒に設け、該2本の軸は湾曲して前記開口部の下の筐体に、前記2本の軸の中央部が前記撮像手段に撮影可能に設けられていることを要旨とする。Two shafts are provided on the horizontal bar with a width allowing the middle finger to be inserted, the two shafts are curved to form a housing under the opening, and a central portion of the two shafts serves as the imaging means. The gist is that it is provided so that it can be photographed.
本発明の手の甲の認証方法は、水平軸棒の中央部に2本の軸を立てた安定ハンドルに、中指を前記2本の軸の間に挿入させて、中指、人差し指、薬指と手の甲との接続領域を撮影して得た指部デジタル画像並びに、前記手の甲を撮影した甲部デジタル画像を読み込んで前記手の甲の静脈を認証する手の甲認証方法であって、
コンピュータが、
認証者が前記安定ハンドルの2本の軸に中指を挿入して予め撮影して得た手の甲の静脈の分岐点を繋げた基準多角形を含む最適分布特性データ(VPBC)と、前記認証者が前記安定ハンドルの2本の軸に中指を挿入して予め撮影して得た中指と薬指とが接する第1の湾曲領域のエッジ部分である第1の基準境界線と、中指と人差し指とが接する第2の湾曲領域のエッジ分部である第2の基準境界線とを指部境界基準情報として認証情報用データベースに記憶するステップと、
前記手の甲認証端末からの指部デジタル画像と甲部デジタル画像とを一時記憶メモリに記憶するステップと、
前記一時記憶メモリに記憶された甲部デジタル画像の内で、認証に必要な静脈パターンの部分をROI画像データとして抽出し、太い静脈パターン(Spi)及び細い静脈パターン(ZPi)を抽出して合成し、この静脈合成パターン(Gpi)をニ値化してノイズ除去した静脈パターン(Vpi)を生成するROI画像抽出ステップとを行い、
さらに、位置補正ステップ及び静脈パターンマッチングステップを行い、
前記位置補正ステップは、
前記指部デジタル画像の内で、前記第1の湾曲領域と前記第2の湾曲領域とを指部境界画像として抽出するステップと、
前記指部境界画像の第1の湾曲領域に対して、スケルトン処理を施して、中指側と薬指側との前記エッジ部分である第1の境界線並びに中指と人差し指との前記エッジ部分である第2の境界線を求めるステップと、
前記第1の境界線に含まれている交点と第2の境界線に含まれている交点とを結ぶ第1の直線と、前記第1の基準境界線に含まれている基準交点と第2の基準境界線に含まれている基準交点とを結ぶ第2の直線との相対角度である第1の相対角度を求め、これを第1の補正角度とするステップと、
前記指部境界画像に含まれている第1の境界線の開度と前記指部境界基準情報に含まれている第1の基準境界線の基準開度との相対的角度を第2の相対的角度として求めると共に、前記指部境界画像に含まれている第2の境界線の開度と前記指部境界基準情報に含まれている第2の基準境界線の基準開度との相対的角度を第3の相対角度として求め、この第2の相対角度と第3の相対角度との平均を第2の補正角度とするステップと、
前記第1の補正角度で前記静脈パターン(Vpi)を補正して、さらに前記第2の補正角度で補正した静脈パターン補正画像(mVpi)を生成するステップと
を行い、
前記静脈パターンマッチングステップは、
前記静脈パターン補正画像(mVpi)の各分岐点を求め、これらの分岐点を結んだ多角形を生成し、該多角形と前記最適分布特性データ(VPBC)の基準多角形と比較して一致の有無を判定する手段と、
前記判定結果を前記前記手の甲認証端末の表示器に表示させるステップと
を行うことを要旨とする。
The method for authenticating the back of the hand of the present invention is to insert a middle finger between the two shafts into a stable handle with two shafts at the center of a horizontal shaft rod, and to connect the middle finger, index finger, ring finger and back of the hand. A finger digital image obtained by photographing a connection area, and a back digital authentication method for authenticating a vein of the back of the hand by reading a digital image of the upper part obtained by photographing the back of the hand ,
Computer
Optimal distribution characteristic data (VPBC) including reference polygons connecting the branch points of the veins of the back of the hand obtained by the certifier inserting a middle finger into the two axes of the stable handle and photographing in advance, and the certifier A first reference boundary line, which is an edge portion of a first curved region where the middle finger and the ring finger are in contact with each other, and the middle finger and the index finger are in contact with each other, which is obtained by inserting the middle finger into the two axes of the stable handle and shooting in advance. Storing a second reference boundary line that is an edge portion of the second curved region in the authentication information database as finger boundary reference information ;
Storing the finger digital image and the back digital image from the back authentication terminal of the hand in a temporary storage memory;
From the upper digital image stored in the temporary storage memory, a vein pattern portion necessary for authentication is extracted as ROI image data, and a thick vein pattern (Spi) and a thin vein pattern (ZPi) are extracted and synthesized. And ROI image extraction step of generating a vein pattern (Vpi) from which the vein composite pattern (Gpi) is binarized and noise is removed,
Furthermore, a position correction step and a vein pattern matching step are performed,
The position correction step includes
Extracting the first curved region and the second curved region as finger boundary images in the finger digital image ;
A skeleton process is performed on the first curved region of the finger boundary image, and the first boundary line that is the edge portion between the middle finger side and the ring finger side and the edge portion that is the middle finger and the index finger are Obtaining a boundary line of 2 ;
A first straight line connecting an intersection point included in the first boundary line and an intersection point included in the second boundary line; a reference intersection point included in the first reference boundary line; and a second line Obtaining a first relative angle, which is a relative angle with a second straight line connecting the reference intersection point included in the reference boundary line, and setting this as a first correction angle;
The relative angle between the opening degree of the first boundary line included in the finger boundary image and the reference opening degree of the first reference boundary line included in the finger boundary reference information is set as a second relative angle. And calculating the relative angle between the opening degree of the second boundary line included in the finger boundary image and the reference opening degree of the second reference boundary line included in the finger boundary reference information. Obtaining an angle as a third relative angle, and setting an average of the second relative angle and the third relative angle as a second correction angle;
Correcting the vein pattern (Vpi) at the first correction angle, and further generating a vein pattern corrected image (mVpi) corrected at the second correction angle;
And
The vein pattern matching step includes:
Find each branch point of the vein pattern corrected image (mVpi), generate a polygon connecting these branch points, and compare the polygon with the reference polygon of the optimum distribution characteristic data (VPBC). Means for determining presence or absence;
Displaying the determination result on a display of the back authentication terminal of the hand;
The gist is to do.
以上のように本発明によれば、外部環境と入力画像の微少な変化により判別されるシス
テム感度や使用者の回転と移動による誤拒絶率(FRR:False Rejectio
n Rate)、誤認識率(FAR:False Acceptance Rate)を
低減し、静脈パターン認識性能及びシステム安定性を画期的に改善する。
As described above, according to the present invention, the system sensitivity determined by slight changes in the external environment and the input image, and the false rejection rate (FRR: False Rejection due to the rotation and movement of the user).
n Rate), a false recognition rate (FAR) is reduced, and vein pattern recognition performance and system stability are dramatically improved.
(手の甲認証システム構成)
図1に示されるとおり、本発明の静脈パターンを利用した手の甲認証システム100は、手の甲認証端末装置20と、手の甲認証端末装置20の通信制御部27を介してネットワーク接続された手の甲認証サーバ30により構成される。電気錠等の外部装置80を、手の甲認証サーバ30に具備された外部装置インターフェース部60を介して接続し、制御する。
(Back authentication system configuration)
As shown in FIG. 1, the back authentication system 100 using the vein pattern of the present invention includes a back authentication terminal device 20 and a back authentication server 30 connected to the network via the communication control unit 27 of the back authentication terminal device 20. Composed. An external device 80 such as an electric lock is connected and controlled via the external device interface 60 provided in the back authentication server 30.
手の甲認証端末装置20は、使用者が個人識別コードを入力するための、通信制御部27に接続された個人識別コード入力手段22と、入力した個人識別コードの判定結果を表示するための、通信制御部27に接続された表示手段21と、撮影を開始するためのマイクロスイッチ23と、マイクロスイッチ23に接続され、使用者の指画像Fiを撮影する指撮影カメラ25と、マイクロスイッチ23に接続され、使用者の手の甲の原画像Hiを撮影する手の甲撮影カメラ24と、指撮影カメラ25と手の甲撮影カメラ24に接続され、撮影された指画像Fiと手の甲の原画像Hiをデジタル指画像Fdiと手の甲のデジタル原画像Hdiに変換して通信制御部27を介して出力するビデオデコーダ26を具備する。 The back authentication terminal device 20 includes a personal identification code input unit 22 connected to the communication control unit 27 for a user to input a personal identification code, and a communication for displaying a determination result of the input personal identification code. Display means 21 connected to the control unit 27, a micro switch 23 for starting photographing, a finger photographing camera 25 connected to the micro switch 23 for photographing the user's finger image Fi, and connected to the micro switch 23 The back of the hand is photographed with the back image camera 24 for photographing the original image Hi of the user's back, and is connected to the finger photographing camera 25 and the back of the hand photographing camera 24. The photographed finger image Fi and the original image Hi of the back of the hand A video decoder 26 is provided that converts the back of the hand into a digital original image Hdi and outputs it via the communication control unit 27.
手の甲認証サーバ30は、認証処理を行うプロセッサ40と、プロセッサ40に接続され、個人識別コードごとに、認証に用いる基準画像と静脈パターン最適分布特性情報を保存する認証情報データベース50と、プロセッサ40に接続され、認証処理の際に一時的に情報を記憶する一時記憶メモリ70と、プロセッサ40に接続され、外部装置80に認証結果を出力するための外部装置インターフェース60を具備する。 The back of the hand authentication server 30 is connected to the processor 40 that performs the authentication process, the authentication information database 50 that stores the reference image used for authentication and the vein pattern optimum distribution characteristic information for each personal identification code, and the processor 40. A temporary storage memory 70 that is connected and temporarily stores information during authentication processing and an external device interface 60 that is connected to the processor 40 and outputs an authentication result to the external device 80 are provided.
さらに詳細に、プロセッサ40は、認証情報データベース50に接続し、認証情報データベース50の情報にアクセスするためのデータベースアクセス部42と、個人識別コード入力手段22から入力された個人識別コードに対応する基準画像と静脈パターン最適分布特性情報の有無を判定し、判定結果を表示手段21に出力する個人識別コード判定部41と、ビデオデコーダ26から入力されたデジタル指画像Fdiと手の甲のデジタル原画像Hdiを一時記憶メモリ70に保存する撮影画像保存部43と、デジタル原画像HdiからROI画像Hriを抽出するROI画像抽出部44と、デジタル指画像Hdiから補正すべき位置情報を算出し、抽出したROI画像Hriの位置補正し、静脈パターン補正画像mVPiを作成する位置補正部45と、静脈パターン補正画像mVPiを認証情報データベース50に保存された基準画像と静脈パターン最適分布特性情報と比較して認証する静脈パターンマッチング部46を含む。 In more detail, the processor 40 is connected to the authentication information database 50 and has a database access unit 42 for accessing information in the authentication information database 50 and a reference corresponding to the personal identification code input from the personal identification code input means 22. The presence / absence of the image and vein pattern optimum distribution characteristic information is determined, and the personal identification code determination unit 41 that outputs the determination result to the display means 21; the digital finger image Fdi input from the video decoder 26 and the digital original image Hdi of the back of the hand The captured image storage unit 43 stored in the temporary storage memory 70, the ROI image extraction unit 44 that extracts the ROI image Hri from the digital original image Hdi, the position information to be corrected from the digital finger image Hdi is calculated, and the extracted ROI image Position correction for correcting the position of Hri and creating a vein pattern corrected image mVPi And parts 45, including the vein pattern matching section 46 for authenticating by comparing the vein pattern corrected image mVPi the reference image stored in the authentication information database 50 and the vein pattern optimal distribution characteristic information.
手の甲認証端末装置20の実施例としては、図2および図3に手の甲認証端末装置20の外観図と側断面図を示す。個人識別コード入力手段22として、個人識別コードを入力したり、システムの進行に必要な番号を入力するためのキーパッド3と、表示手段21として、個人識別コード判定結果やシステムの進行状況を文字表示する液晶画面(LCD)2が上面にそれぞれ設置されている。さらにシステムの稼動状況をランプで表示するための発光ダイオード(LED)1を設置してもよい。 As an embodiment of the back of the hand authentication terminal device 20, an external view and a side sectional view of the back of the hand authentication terminal device 20 are shown in FIGS. As the personal identification code input means 22, the keypad 3 for inputting a personal identification code or a number necessary for the progress of the system, and as the display means 21, the personal identification code determination result and the progress status of the system are written. A liquid crystal screen (LCD) 2 to be displayed is installed on the upper surface. Furthermore, you may install the light emitting diode (LED) 1 for displaying the operating condition of a system with a lamp | ramp.
下部には、マイクロスイッチ23として、ボタンスイッチ4と、外部照明を遮断するための覆い5と、使用者の手の甲に関する画像入力時に指を支える支え台としての安定ハンドル6がそれぞれ設置されている。安定ハンドル6は、2本の軸により固定され、2本の軸の間が、中指を入れる指挿入部11となっている。これにより、手の甲を安定させて撮影することができる。 In the lower part, a button switch 4, a cover 5 for blocking external illumination, and a stable handle 6 as a support base for supporting a finger when inputting an image relating to the back of the user's hand are installed as a micro switch 23. The stable handle 6 is fixed by two shafts, and a finger insertion portion 11 for inserting a middle finger is formed between the two shafts. This makes it possible to shoot with the back of the hand stabilized.
さらに内部には、指撮影カメラ25及び手の甲撮影カメラ24として、可視光線及び赤外線の帯域まで反応するCCDまたはCMOSカメラ7が、使用者の手の甲に関する画像を撮影するため、覆い5から一定距離離れた位置に設置され、赤外線照明8がカメラ7の両側に静脈パターンを強調する照明として設置され、赤外線フィルタ9が、赤外線照明8とカメラ7の下段部に設置されている。 Further, a CCD or CMOS camera 7 that reacts to the visible light and infrared bands as the finger photographing camera 25 and the back of the hand photographing camera 24 is located at a certain distance from the cover 5 in order to take an image of the back of the user's hand. The infrared illumination 8 is installed as an illumination for emphasizing the vein pattern on both sides of the camera 7, and the infrared filter 9 is installed at the lower stage of the infrared illumination 8 and the camera 7.
特に覆い5とカメラ7の間には、静脈パターンのROI画像Hriの撮影用に焦点距離を確保するためのハウジング10が設置されているが、ハウジング10の内部面は赤外線を吸収する物質で塗布されているため、外部光の影響を最小化できる。 In particular, a housing 10 is provided between the cover 5 and the camera 7 to secure a focal length for capturing a vein pattern ROI image Hri. The inner surface of the housing 10 is coated with a substance that absorbs infrared rays. Therefore, the influence of external light can be minimized.
個人識別コード入力手段22としては、上記の個人識別コードを打ち込むためのキーパッド3や、個人識別コードが記憶されたキーカードから情報を読み取るカードリーダ等が利用される。 As the personal identification code input means 22, a keypad 3 for inputting the above personal identification code, a card reader for reading information from a key card in which the personal identification code is stored, or the like is used.
表示手段21としては、結果を文字表示するためのLCD2の他に、結果をランプの色や点滅で表示するLED等が利用される。 As the display means 21, in addition to the LCD 2 for displaying the result as characters, an LED or the like for displaying the result by the color or blinking of the lamp is used.
マイクロスイッチ23としては、押しボタン式のボタンスイッチ4のほかに、手をかざしたことを察知する人感センサースイッチ等が利用される。 As the micro switch 23, in addition to the push button type button switch 4, a human sensor switch for detecting that the hand is held up is used.
図34に、認証情報データベース50内に保存されるデータの構造の一例を示す。データは個人識別コード毎の登録されていて、個人識別コードを検索キーとして検索可能となっている。データとしては、予め撮影しておいた静脈パターンの基準画像と、静脈パターン最適分布特性データとして、静脈パターンの分岐特性(VPBC:Vein Pattern Branch Characteristic)と、分岐加重値(BPWF:Branch Point Weighting Factor)が含まれる。メモリの効率的な使用とデータの検索効率を向上するために、データを保存する際はデータベース正規化を適宜行う。正規化はデータベースを利用するシステムでは通常に行われることであり、以下に説明する手の甲認証方法においては特に明記はしていない。 FIG. 34 shows an example of the structure of data stored in the authentication information database 50. The data is registered for each personal identification code and can be searched using the personal identification code as a search key. The data includes a reference image of a vein pattern that has been captured in advance, and vein pattern branching characteristics (VPBC: Vein Pattern Branch Characteristic) and branch weights (BPWF: Branch Point Weighting Factor) as vein pattern optimum distribution characteristic data. ) Is included. In order to improve the efficient use of memory and the retrieval efficiency of data, database normalization is appropriately performed when storing data. Normalization is normally performed in a system using a database, and is not specified in the back authentication method described below.
また、認証情報データベース50内にデータを登録するためには、手の甲認証サーバ30にキーボード等の入力装置が接続されることは、当然のことであるため、図中では省略している。 In order to register data in the authentication information database 50, it is natural that an input device such as a keyboard is connected to the back authentication server 30 and is omitted in the drawing.
(手の甲認証方法)
次に、図4から図6に示したフローチャートを参照しながら、本発明の実施例による手の甲認証方法について詳しく説明する。
(Back of hand authentication method)
Next, the back of hand authentication method according to the embodiment of the present invention will be described in detail with reference to the flowcharts shown in FIGS.
まず、使用者は、個人識別コード入力手段22によって、個人識別コードを入力する(S100)。入力された個人識別コードは、通信制御部27を介して、個人識別コード判定部41に送信される。個人識別コードを受信した個人識別コード判定部41は、データベースアクセス部42を介して、個人識別コードを検索キーとして認証情報データベース50に記憶された情報を検索し、登録済みか否かを判定する(S101)。判定結果は、表示手段21に出力され、未登録の場合は、エラー表示される(S107)。登録が確認できれば、画像の撮影に進む。 First, the user inputs a personal identification code by the personal identification code input means 22 (S100). The input personal identification code is transmitted to the personal identification code determination unit 41 via the communication control unit 27. The personal identification code determination unit 41 that has received the personal identification code searches the information stored in the authentication information database 50 using the personal identification code as a search key via the database access unit 42 and determines whether or not it has been registered. (S101). The determination result is output to the display means 21, and if not registered, an error is displayed (S107). If registration is confirmed, the process proceeds to image shooting.
登録が確認できた使用者は、安定ハンドル6の指挿入部11に中指を挿入する(S102)。指撮影カメラ25は、安定ハンドル6に置かれた指の状態を指画像(Fi)として撮影する(S103)。 The user who has confirmed registration inserts the middle finger into the finger insertion portion 11 of the stable handle 6 (S102). The finger photographing camera 25 photographs the state of the finger placed on the stable handle 6 as a finger image (Fi) (S103).
さらに、使用者は手を安定ハンドル6上にしばらく動かさずに、状態を固定する(S104)。この状態で、手の甲撮影カメラ24は、手の甲を撮影し、原画像(Hi)とする(S105)。 Further, the user fixes the state without moving the hand on the stable handle 6 for a while (S104). In this state, the back of the hand photographing camera 24 photographs the back of the hand to obtain an original image (Hi) (S105).
撮影された指画像(Fi)と手の甲の原画像(Hi)は、ビデオデコーダ26に送られ、デジタル化される。デジタル化された画像は、通信制御部27を介してプロセッサ40の撮影画像保存部43によって、各々デジタル指画像(Fdi)とデジタル原画像(Hdi)として一時記憶メモリ70に保存される(S106)。 The photographed finger image (Fi) and the original back image (Hi) are sent to the video decoder 26 and digitized. The digitized images are stored in the temporary storage memory 70 as digital finger images (Fdi) and digital original images (Hdi) by the photographed image storage unit 43 of the processor 40 via the communication control unit 27 (S106). .
つづいて、手の甲のデジタル原画像(Hdi)のうち、認証に必要な静脈パターンが撮影されている注目領域(ROI)を特定し、ROI画像(Hri)部分のみを抽出する過程になる(S200)。 Subsequently, a region of interest (ROI) in which a vein pattern necessary for authentication is captured is identified from the digital original image (Hdi) of the back of the hand, and only the ROI image (Hri) portion is extracted (S200). .
使用者の手の甲のデジタル原画像(Hdi)から静脈パターンが集中的に分布するROI画像(Hri)を抽出するためには、正確なROI位置が必要である。ところで、レンズとカメラのモジュール装着位置の誤差により、ROI位置は、各カメラの画面毎に多少違って現れる。そこで、以下に記述するROI自動検出アルゴリズムによって、正確なROI位置を決定する。 In order to extract a ROI image (Hri) in which vein patterns are concentratedly distributed from a digital original image (Hdi) on the back of the user's hand, an accurate ROI position is required. By the way, due to an error in the lens and camera module mounting position, the ROI position appears slightly different for each camera screen. Therefore, an accurate ROI position is determined by an ROI automatic detection algorithm described below.
まず、ROI画像(Hri)抽出過程では、手の甲のデジタル原画像(Hdi)を構成する全画素を、横軸に明度レベル(0から255)の濃淡値をとり、縦軸にその濃淡値を持つ画素数をとったヒストグラムを作成する(S201)。 First, in the ROI image (Hri) extraction process, all the pixels constituting the digital back image (Hdi) of the back of the hand take the lightness value (0 to 255) as the lightness level on the horizontal axis and the lightness value on the vertical axis. A histogram taking the number of pixels is created (S201).
次に、P−タイル法を用いて、ヒストグラムから、ROI領域と背景の境界となる濃淡値のしきい値(T)を算出する(S202)。手の甲認証端末装置20の構造上、必要とする静脈パターンが撮影されるROI領域は、撮影毎に位置がずれる可能性はあるが、撮影されたデジタル原画像(Hdi)全体の中で占める面積の比率は一定である。そこで、画像の中で対象物が占める面積の比率が判明している場合、ヒストグラムからその面積の比率のP%点をしきい値(T)とするP−タイル法を用いる。P−タイル法以外に、ヒストグラムの谷を検出するモード法を利用することも可能である。 Next, using the P-tile method, a threshold value (T) of a gray value serving as a boundary between the ROI region and the background is calculated from the histogram (S202). Due to the structure of the back of the hand authentication terminal device 20, the ROI region in which the necessary vein pattern is photographed may be shifted in every photographing, but the area occupied in the whole photographed digital original image (Hdi) The ratio is constant. Therefore, when the ratio of the area occupied by the object in the image is known, a P-tile method is used in which the P% point of the area ratio is the threshold value (T) from the histogram. In addition to the P-tile method, it is also possible to use a mode method that detects valleys in the histogram.
しきい値(T)以上を濃淡値とする画素を抽出して、ROI領域を決定する(S203)。さらに、ROI領域のエッジを強調するために、ソベルフィルタ処理を行って、ROI画像(Hri)を抽出する(S204)。 A ROI region is determined by extracting pixels having a grayscale value equal to or greater than the threshold value (T) (S203). Further, in order to emphasize the edge of the ROI region, the Sobel filter processing is performed to extract the ROI image (Hri) (S204).
図7はデジタル原画像(Hdi)、図8はP−タイル法が適用されたヒストグラム、図9は図8のヒストグラムから得たしきい値(T)によって決定されたROI領域、図10は図9によりデジタル原画像(Hdi)から分離されたROI画像(Hri)をそれぞれ図示したものである。 7 is a digital original image (Hdi), FIG. 8 is a histogram to which the P-tile method is applied, FIG. 9 is an ROI region determined by a threshold value (T) obtained from the histogram of FIG. 8, and FIG. 9 shows ROI images (Hri) separated from the digital original image (Hdi) by 9 respectively.
次に、抽出されたROI画像(Hri)から静脈パターンを読み取るために、フィルタ−バンク静脈パターン抽出アルゴリズム(FBHVPEA:Filter−bank Hand Vein−pattern Extraction Algorithm)処理を行う(S300)。 この処理により、外部環境の変化により発生する静脈パターンの収縮及び膨張現象から静脈パターン情報の部分的な損失を最小化し、静脈パターンの重要な特徴であるパターン連結性を最大限維持できるようにする。 Next, in order to read a vein pattern from the extracted ROI image (Hri), a filter-bank vein pattern extraction algorithm (FBHVPEA: Filter-bank Hand-pattern Extraction Algorithm) process is performed (S300). This process minimizes partial loss of vein pattern information from the contraction and expansion of vein patterns caused by changes in the external environment, so that pattern connectivity, an important feature of vein patterns, can be maintained to the maximum. .
まず、フィルタ−バンク静脈パターン抽出アルゴリズムでは、通常モード(Normal mode)フィルタにより、手の甲に分布する静脈パターンのうち、太い静脈のパターン(SPi)を効果的に抽出する(S301)。さらに、効率モード(Enhancement mode)フィルタにより、薄い静脈や収縮した状態の細い静脈パターン(ZPi)を効果的に抽出する(S302)。前工程で得られた太い静脈のパターン(SPi)と細い静脈パターン(ZPi)を合成して、手の甲の静脈パターン合成画像(GPi)を作成する(S303)。通常モードフィルタは、静脈パターン内の低帯域情報とパターン境界の情報を維持し、効率モードフィルタは、太い静脈に比べ、低帯域情報が相対的に少なく、パターン境界の周波数が低い、細い静脈パターンを効果的に強調するものである。 First, in the filter-bank vein pattern extraction algorithm, a thick vein pattern (SPi) is effectively extracted from the vein patterns distributed on the back of the hand using a normal mode filter (S301). Further, thin veins and a narrow vein pattern (ZPi) in a contracted state are effectively extracted by an efficiency mode filter (S302). The thick vein pattern (SPi) and thin vein pattern (ZPi) obtained in the previous step are synthesized to create a vein pattern synthetic image (GPi) of the back of the hand (S303). The normal mode filter maintains the low-band information and pattern boundary information in the vein pattern, and the efficiency mode filter has a relatively low low-band information and a low frequency at the pattern boundary compared to a thick vein. Is effectively emphasized.
つづいて、静脈パターン合成画像(GPi)の二値化処理を行い、二値画像(BPi)に変換する(S304)。 Subsequently, the binarization processing of the vein pattern composite image (GPi) is performed and converted into a binary image (BPi) (S304).
その際、二値画像(BPi)を得るために使用されるニ値化処理では、該当画素を黒か白のいずれかに区分するためのしきい値を決める方法としては、二つの方法を考慮することができる。一つは、ローカルマスクの平均値をしきい値として使用する方法で、もう一つは、7ビットプレーンの値でしきい値を決定する方法である。二つの方法の適用を試みた結果によれば、7ビットプレーンの値をしきい値にする場合のほうがより正確な静脈パターン情報を得ることができる。ニ値化処理に使用する空間マスクの大きさは、11×11カーネルで設計されるのが望ましい。 At this time, in the binarization process used to obtain a binary image (BPi), two methods are considered as a method for determining a threshold value for dividing the pixel into either black or white. can do. One is a method of using the average value of the local mask as a threshold value, and the other is a method of determining the threshold value by a value of a 7-bit plane. According to the result of trying to apply the two methods, more accurate vein pattern information can be obtained when the value of the 7-bit plane is used as a threshold value. It is desirable that the size of the spatial mask used for the binarization process is designed with an 11 × 11 kernel.
最後に、ニ値化処理で得られた二値画像(BPi)は、使用者の手の甲の毛、屈曲、皮下脂肪層等により発生した雑映を含んでいる。これを除去するために、ノイズ除去フィルタ処理として、3×3カーネルの中央値(Median)フィルタをかけ、手の甲の静脈パターン画像(VPi)を作成する(S305)。 Finally, the binary image (BPi) obtained by the binarization process includes miscellaneous projections caused by the back of the user's hand, bending, the subcutaneous fat layer, and the like. In order to remove this, a median filter of 3 × 3 kernels is applied as noise removal filter processing to create a vein pattern image (VPi) on the back of the hand (S305).
このように、フィルタ−バンクの静脈パターン抽出アルゴリズムは、既存の静脈パターン抽出アルゴリズムから抽出しようとする静脈パターンの太さを考慮せず単一フィルタの特性で静脈パターンを抽出することにより発生する部分的な静脈パターンの連結情報(vein−pattern connectivity information)の損失を改善し、外部環境の変化から発生する静脈パターンの収縮及び膨張現象に対し、より安定的なアルゴリズムの性能を提供する。 As described above, the filter-bank vein pattern extraction algorithm is a portion generated by extracting a vein pattern with the characteristics of a single filter without considering the thickness of the vein pattern to be extracted from the existing vein pattern extraction algorithm. The loss of typical vein-pattern connectivity information is improved, and more stable algorithm performance is provided against the contraction and expansion phenomenon of vein patterns caused by changes in the external environment.
図11は、フィルタ−バンクの静脈パターンの抽出アルゴリズムにより、強調された静脈パターンの処理結果の画像を図示したもので、(a)は通常モードフィルタと効率モードフィルタで得られた静脈パターンを合成した静脈パターン合成画像(GPi)、(b)は二値化処理で白黒画像とした二値画像(BPi)、(c)はノイズを除去した静脈パターン画像(VPi)である。 FIG. 11 shows an image of the processing result of the vein pattern enhanced by the filter-bank vein pattern extraction algorithm. FIG. 11A shows a combination of vein patterns obtained by the normal mode filter and the efficiency mode filter. The vein pattern composite image (GPi), (b) is a binary image (BPi) converted into a black and white image by binarization processing, and (c) is a vein pattern image (VPi) from which noise has been removed.
図12は、(a)従来技術の強調フィルタ処理により得られる静脈パターンと、(b)フィルタ−バンクの静脈パターン抽出アルゴリズムの通常モードフィルタ処理で得られる静脈パターンとを比較し、図示したものである。ROI領域の一部領域に対して抽出された静脈パターンを比較してみると、既存の静脈パターン強調フィルタにより抽出された太い静脈に対する静脈パターンの処理結果では、静脈パターン内の情報が失われ、静脈パターンのパターン連結性が部分的に失われているが、本発明の通常モードフィルタによる処理結果では、低帯域の情報を効果的に補正しており、静脈パターンのパターン連結性を維持していることがわかる。 FIG. 12 shows a comparison between (a) a vein pattern obtained by the conventional enhancement filter processing and (b) a vein pattern obtained by the normal mode filter processing of the vein pattern extraction algorithm of the filter bank. is there. When comparing vein patterns extracted for a partial region of the ROI region, in the vein pattern processing result for a thick vein extracted by the existing vein pattern enhancement filter, information in the vein pattern is lost, Although the pattern connectivity of the vein pattern is partially lost, the processing result by the normal mode filter of the present invention effectively corrects the low-band information and maintains the pattern connectivity of the vein pattern. I understand that.
しかしながら、通常モードフィルタでは、外部温度の低下に伴い収縮した静脈や薄く細い静脈に対する静脈パターンの抽出において、部分的なパターン連結性の損失が見られる。これを補正するため、フィルタ−バンクの静脈パターン抽出アルゴリズムでは、効率モードフィルタを使用する。効率モードフィルタでは、背景に該当する低帯域の利得(ゲイン)を減らし、微細なパターンの変化を強調することにより、薄く細い静脈パターンに対するパターン連結性の部分的な損失を補正する。 However, in the normal mode filter, there is a partial loss of pattern connectivity in the extraction of vein patterns for veins that have shrunk or thin and thin as the external temperature decreases. To correct this, the filter-bank vein pattern extraction algorithm uses an efficiency mode filter. The efficiency mode filter corrects a partial loss of pattern connectivity for a thin and thin vein pattern by reducing a low-band gain corresponding to the background and emphasizing a fine pattern change.
図13は、(a)従来技術の抽出アルゴリズムにより得られる静脈パターンと、(b)フィルタ−バンクの静脈パターン抽出アルゴリズムにより得られる静脈パターンとを比較し、図示したものである。図13(a)には、抽出しようとする静脈パターンのパターン連結性の部分的損失が見られ、図13(b)では、部分的に損失したパターン連結性も確実に抽出されている。 FIG. 13 shows a comparison between (a) a vein pattern obtained by a conventional extraction algorithm and (b) a vein pattern obtained by a filter-bank vein pattern extraction algorithm. 13A shows a partial loss of pattern connectivity of the vein pattern to be extracted. In FIG. 13B, the partially lost pattern connectivity is also reliably extracted.
次に、使用者が指を安定ハンドル6に置く際に、指撮影カメラ25によって撮影される指画像(Fi)から得られるデジタル指画像(Fdi)を分析して位置補正を行う過程に移る(S400)。 Next, when the user places his / her finger on the stable handle 6, the digital finger image (Fdi) obtained from the finger image (Fi) photographed by the finger photographing camera 25 is analyzed, and the process proceeds to a process of correcting the position ( S400).
まず、以下に詳細を示す位置補正アルゴリズムにより、デジタル指画像(Fdi)から回転補正値(R)と移動補正値(S)を算出する(S401)。この回転補正値(R)と移動補正値(S)によって、静脈パターン画像(VPi)の静脈パターンを、予め登録してある静脈パターンの基準画像と比較できる位置に補正した静脈パターン補正画像(mVPi)を作成する(S402)。 First, a rotation correction value (R) and a movement correction value (S) are calculated from the digital finger image (Fdi) by a position correction algorithm described in detail below (S401). A vein pattern correction image (mVPi) in which the vein pattern of the vein pattern image (VPi) is corrected to a position that can be compared with a reference image of a vein pattern registered in advance by the rotation correction value (R) and the movement correction value (S). ) Is created (S402).
図14は、本発明の実施例に適用される位置補正のために撮影される画像の概念図であり、図15は、画像が撮影されるまでの様子のイメージ図である。 FIG. 14 is a conceptual diagram of an image photographed for position correction applied to the embodiment of the present invention, and FIG. 15 is an image diagram showing a state until an image is photographed.
図15に示されるとおり、中指を安定ハンドル6の中央の指挿入部11に挿入するように手をかざすと、人差し指、中指、薬指が撮影される。撮影された指画像(Fi)から、安定ハンドル6の左右、人差し指と中指の交点、中指と薬指の交点を利用して、手がどの方向に位置しているかを検出する。 As shown in FIG. 15, when the hand is placed so that the middle finger is inserted into the middle finger insertion portion 11 of the stable handle 6, the index finger, middle finger, and ring finger are photographed. From the photographed finger image (Fi), the direction in which the hand is located is detected using the right and left of the stable handle 6, the intersection of the index finger and the middle finger, and the intersection of the middle finger and the ring finger.
図16に示されるとおり、位置補正アルゴリズムでは、まず、安定ハンドル6と指の間の境界線を抽出する(S51)。 As shown in FIG. 16, in the position correction algorithm, first, a boundary line between the stable handle 6 and the finger is extracted (S51).
境界線の抽出処理では、回転角の予測に必要な6個のピクセルの座標を求めるようになるが、3×3の大きさの行列式で構成された低帯域フィルタ(Low pass Filter)である平滑化フィルタ(Averaging Filter)を元の画像に適用する。平滑化フィルタは、低帯域のフィルタのうち、一番代表的なフィルタである。低帯域フィルタは、画像を全体的に不鮮明に見せるが、画像を周波数帯域に移した時、高周波帯域の画像部分である周囲ピクセルより、値の急変や特に目立つ部分をなくす役割を果たす。平滑化フィルタを利用するメリットは、画像の処理過程でスポットノイズ(Spot Noise)やソルトアンドペッパーノイズ(Salt & Pepper Noise)のような雑映を減らせるということである。 In the boundary line extraction process, the coordinates of the six pixels necessary for the prediction of the rotation angle are obtained, but it is a low-band filter (Low pass Filter) configured by a determinant of 3 × 3 size. Apply a smoothing filter (Averaging Filter) to the original image. The smoothing filter is the most typical filter among the low-band filters. The low-band filter makes the image appear totally unclear, but when the image is moved to the frequency band, it serves to eliminate a sudden change in value and a particularly conspicuous portion from surrounding pixels which are image portions in the high-frequency band. An advantage of using the smoothing filter is that it is possible to reduce miscellaneous projections such as spot noise and salt and pepper noise during image processing.
図17は、本発明の実施例に適用される平滑化フィルタの適用例を示したもので、平滑化フィルタは全ての行列値が1になっている。この3×3の行列の平滑化フィルタを元々の画像に左から右へ、再び上から下へ中心ピクセルを基準に1ピクセルずつ動かして、次に示す計算の繰り返す。重なる画像の画素値を、平滑化フィルタの同じ位置の行列値と掛け算した後、全体の合計を求めて平均を出して平均値を求め、その平均値を中心画素値に対置する。図17では、平均値は、元々の画像のピクセル値が3の位置に入る。 FIG. 17 shows an application example of the smoothing filter applied to the embodiment of the present invention. In the smoothing filter, all matrix values are 1. The smoothing filter of this 3 × 3 matrix is moved from left to right in the original image, and again from top to bottom, one pixel at a time with reference to the center pixel, and the following calculation is repeated. After the pixel values of the overlapping images are multiplied by the matrix values at the same position of the smoothing filter, the total is obtained and averaged to obtain an average value, and the average value is set against the central pixel value. In FIG. 17, the average value enters the position where the pixel value of the original image is 3.
上記に説明した平滑化フィルタの適用方法は、本発明の実施例で適用されるマスク(Mask)を利用した画像処理方法と同様に実施される。 The smoothing filter application method described above is performed in the same manner as the image processing method using a mask applied in the embodiment of the present invention.
このように低帯域フィルタを適用して得られた画像に、実験で求めた最適エッジの抽出マスクを適用し、安定ハンドル6と指の間の境界線を抽出する。エッジを抽出するマスクとしては、ソベルマスク(Sobel Mask)、カーシュマスク(Kirsh Mask)、エッジマスク(Edge Mask)等、いろいろあるが、エッジマスクが全般的によく使用されている。しかし、エッジを抽出する時、求めようとするエッジ以外に、他の物体等が共に出たりするなど、エッジの太さが一定でないため、途中で切れる場合は、必要とするピクセルの座標を正確に求めることができない。 In this way, the optimum edge extraction mask obtained in the experiment is applied to the image obtained by applying the low-band filter, and the boundary line between the stable handle 6 and the finger is extracted. There are various masks for extracting edges, such as a Sobel mask, a Kirsh mask, and an edge mask, but edge masks are generally used in general. However, when extracting an edge, the edge of the edge is not constant, such as other objects appearing in addition to the edge to be obtained. Can not ask for.
図18は、本発明の実施例に適用されるマスクを利用した画像処理の結果を示したものである。図18(a)のデジタル指画像(Fdi)に、いろいろなマスクを適用して抽出された境界線を互いに比較してみると、図18(b)のソベルマスク処理画像と図18(c)のカーシュマスク処理画像に示された境界線では、四面に囲まれた必要ない輪郭線も抽出され、画像の何箇所にも雑映の痕跡がみられる。図18(d)のエッジマスク処理画像では、正確に安定ハンドドル6と指の間の境界線だけ抽出されていて、雑映がみられない。 FIG. 18 shows the result of image processing using a mask applied to the embodiment of the present invention. When the boundary lines extracted by applying various masks to the digital finger image (Fdi) of FIG. 18A are compared with each other, the Sobel mask processed image of FIG. 18B and the image of FIG. On the boundary line shown in the Kirsh mask processed image, unnecessary contour lines surrounded by the four sides are also extracted, and traces of miscellaneous projections are seen at several places in the image. In the edge mask processed image of FIG. 18 (d), only the boundary line between the stable handdle 6 and the finger is accurately extracted, and no miscellaneous image is seen.
位置補正アルゴリズムでは、正確な位置の境界線だけ抽出することで、次の画像処理過程がより容易になり、また、雑映やノイズ除去過程が減り、アルゴリズムの全体的な遂行速度を向上させることができる。 In the position correction algorithm, by extracting only the boundary line of the exact position, the next image processing process becomes easier, and the overall performance of the algorithm is improved by reducing the screening and noise removal process. Can do.
つづいて、外角線を抽出し(S52)、指の間の角度を抽出し(S53)、回転補正のため、画像を回転させる時の中心になる回転中心点を求めた(S54)後、境界線、外角線の抽出から求めたピクセル等の座標と回転中心点で選択されたピクセルの座標を整数形の位置情報として保存する(S55)。 Subsequently, an outer angle line is extracted (S52), an angle between fingers is extracted (S53), and a rotation center point that is the center when rotating the image is obtained for rotation correction (S54), and then the boundary The coordinates of the pixels and the like obtained from the extraction of the lines and outer corner lines and the coordinates of the pixels selected by the rotation center point are stored as integer position information (S55).
位置補正アルゴリズムで求めようとするピクセルは、全部で6個で、全てのピクセルは、境界線上に位置するので、ピクセルの座標を利用して回転補正角を予測する。また、6個のピクセルのうち、一つのピクセルを指定し、回転補正時に、手の甲の静脈パターンの回転中心点として使用する。 The total number of pixels to be obtained by the position correction algorithm is six, and all the pixels are located on the boundary line, and therefore the rotation correction angle is predicted using the coordinates of the pixels. Also, one of the six pixels is designated and used as the rotation center point of the vein pattern on the back of the hand during rotation correction.
安定ハンドル6と指の間の境界線は、太い線で形成されていて、ピクセルの座標を求めるためには細線化過程や外角線のトレースが必要である。細線化過程は、普通、スケルトン(Skeleton)という画像処理技法を利用するが、これは、文字や物体の中心点だけ残し、一本の線を作ることをいう。 The boundary line between the stable handle 6 and the finger is formed with a thick line, and in order to obtain the coordinates of the pixel, a thinning process and a trace of the outer corner line are necessary. The thinning process normally uses an image processing technique called skeleton, which means that only the center point of characters and objects is left and a single line is made.
位置補正アルゴリズムでは、抽出された境界線の上側の湾曲部(Bay)が、指の最外角と一致するため、細線化過程より、相対的に計算量が少ない境界線の上側の湾曲部の外角をトレースした境界線の外角線のトレースを適用する。また、ピクセルの座標は、抽出された境界線に対する画像の左側上段を座標系の値と見做し、座標値を適用する。 In the position correction algorithm, the upper curved portion (Bay) of the extracted boundary line coincides with the outermost angle of the finger, so that the outer angle of the curved portion on the upper side of the boundary line is relatively smaller than the thinning process. Apply the trace of the outer corner line of the border line that was traced. Further, regarding the coordinates of the pixel, the upper left side of the image with respect to the extracted boundary line is regarded as the value of the coordinate system, and the coordinate value is applied.
図19は、本発明の実施例に適用される位置補正アルゴリズムで、指の間の角を抽出す
るための過程を図示したもので、図18(d)に示したエッジマスク処理による境界線の
抽出画像を反転させたものである。
FIG. 19 is a position correction algorithm applied to the embodiment of the present invention, and illustrates a process for extracting a corner between fingers. The boundary line by the edge mask process shown in FIG. The extracted image is inverted.
図19に示すように、抽出された外角線から最下位のピクセル(C)と、その左右に最上位のピクセル(A)とピクセル(B)を求められる。1個の境界線から抽出するピクセルが3個で、一つのデジタル指画像(Fdi)には人差し指と中指の交点、中指と薬指の交点の2つの境界線が撮影されているので、求められるピクセルは全部で6個になる。位置補正アルゴリズムは、回転補正の回転角を予測するため、指の間の角を利用するが、指の間の角は、境界線毎に求めたピクセル3個を利用して求める。 As shown in FIG. 19, the lowermost pixel (C) and the uppermost pixel (A) and pixel (B) on the left and right sides are obtained from the extracted outer corner line. The number of pixels to be extracted from one boundary line is 3, and two boundary lines of the intersection of the index finger and the middle finger and the intersection of the middle finger and the ring finger are photographed in one digital finger image (Fdi). Will be 6 in total. The position correction algorithm uses the angle between the fingers to predict the rotation angle of the rotation correction, and the angle between the fingers is obtained using three pixels obtained for each boundary line.
図19では、3点(A,B,C)が境界線の外角線をトレースして求めた3個のピクセルになる。これらのピクセルのうち、最下位のピクセル(C)を中心に仮想の垂直線を引くと、最上位のピクセル(A)、ピクセル(B)と最下位のピクセル(C)とを結んだ線分とそれぞれθlとθrの角を形成する。角の大きさは、下記の数1に代入して求めるが、数1で、akは、二つのピクセル間におけるx軸方向の距離になり、bkは、y軸方向へ角を形成したピクセルの距離差になる。数1により、求めた二つの角を合わせ、最終的に指の間の角θ1、θ2を求める。
次に、境界線から求めた最下位のピクセル二つのうち、一つを選択し、回転中心点を求める。回転中心点になるピクセルは、回転中心点がもつ誤差を最大限減らすため、安定ハンドル6から少し離れた指の間の境界線から抽出した最下位のピクセルを選択するのが望ましい。これは、手の特性上、物体と接触する時、手の形が簡単に変形することを考慮し、特に安定ハンドル6に当たる指の間の湾曲部が、自然に形成される湾曲部の形と異なるためである。 Next, one of the two lowest pixels obtained from the boundary line is selected, and the rotation center point is obtained. For the pixel to be the rotation center point, it is desirable to select the lowest pixel extracted from the boundary line between the fingers slightly away from the stable handle 6 in order to reduce the error of the rotation center point to the maximum. This is because the shape of the hand is easily deformed when coming into contact with an object due to the characteristics of the hand, and in particular, the curved portion between the fingers hitting the stable handle 6 has a shape of a naturally formed curved portion. Because it is different.
位置補正アルゴリズムは、位置情報を整数形のデータとして保存した後、指の領域から求めたピクセルの座標をもって、回転補正の角度を予測するようになる。その際、回転補正の角度は、1次と2次に分けられ、全て2回求め、そのようにして求めた回転補正の角度を利用して、回転補正を行う。 The position correction algorithm predicts the rotation correction angle using the pixel coordinates obtained from the finger area after storing the position information as integer data. At that time, rotation correction angles are divided into primary and secondary, and all are obtained twice, and rotation correction is performed using the rotation correction angles thus obtained.
図20は、本発明の実施例に適用される1次回転補正の角度の予測過程を示したものである。1次回転補正は、手の甲の全体的な回転を補正できる角度を求める過程で、回転補正の角度は、登録済みの指画像と比較の指画像から求めた4個の最下位のピクセルの座標を利用して角度を求める。 FIG. 20 shows the process of predicting the angle of the primary rotation correction applied to the embodiment of the present invention. The primary rotation correction is a process for obtaining an angle that can correct the entire rotation of the back of the hand. The rotation correction angle is obtained by calculating the coordinates of the four lowest pixels obtained from the registered finger image and the comparison finger image. Use to find the angle.
図20に示されるとおり、ピクセル(A)とピクセル(B)は、登録済みの指画像から求めた最下位のピクセルで、ピクセル(A’)とピクセル(B’)は、比較のため撮影された指画像から求めた最下位のピクセルである。 As shown in FIG. 20, pixel (A) and pixel (B) are the lowest-order pixels obtained from registered finger images, and pixel (A ′) and pixel (B ′) are taken for comparison. This is the lowest pixel obtained from the finger image.
このピクセル(A、B、A’、B’)の座標の値は、整数形のデータの形で保存されているため、データを呼び込み、間単に求めることができる。4つのピクセルのうち、2つのピクセルずつ、互いに同じ指から求めたピクセル同士を連結し、任意の線分a、bを求める。 Since the coordinate values of the pixels (A, B, A ′, B ′) are stored in the form of integer data, the data can be called up and obtained simply. Of the four pixels, two pixels obtained from the same finger are connected to each other, and arbitrary line segments a and b are obtained.
ここで、登録済みの指画像と比較のため撮影された指画像から求めた2つの線分は、互いに交点を作って2つの線分間に角度ができるようにしなければならない。その際、交点は、登録済みの指画像で決定された回転中心点を基準として、比較のため撮影された指画像の線分のうち、回転中心点と同じ側に位置するピクセルを回転中心点に移動させるようにする。図20では、ピクセル(B)が登録済みの画像での回転中心点になり、比較のため撮影された指画像の線分のうち、ピクセル(B)と同じ側に位置するピクセルは、ピクセル(B’)になる。 Here, the two line segments obtained from the finger image taken for comparison with the registered finger image must form an intersection with each other so that an angle can be formed between the two line segments. At that time, the intersection is determined by selecting a pixel located on the same side as the rotation center point of the line segment of the finger image taken for comparison with reference to the rotation center point determined in the registered finger image. To move to. In FIG. 20, the pixel (B) is the rotation center point in the registered image, and the pixel located on the same side as the pixel (B) among the line segments of the finger image photographed for comparison is the pixel ( B ′).
比較のため撮影された指画像の交点として用いたピクセル以外のピクセルは、交点を作るため、移動した距離分、同一距離を適用して移動させる。このようにして、θ3のように、1つの線分を基準に、残りの線分が相対的に傾いた角度を求める。 Pixels other than the pixel used as the intersection of the finger images taken for comparison are moved by applying the same distance by the distance moved in order to create an intersection. In this manner, the angle at which the remaining line segments are relatively inclined with respect to one line segment as in θ 3 is obtained.
ここで、θ3は、登録済みの手の甲の画像(基準画像)に比べ、比較のため撮影される手の甲の画像が相対的に傾いた角度を示す。つまり、θ3が回転補正の角度になり、この傾いた角度の分、比較のため撮影される手の甲の画像を回転させ、相対的な傾きを校正する。 Here, θ 3 indicates an angle at which the image of the back of the hand taken for comparison is relatively inclined as compared with the registered image of the back of the hand (reference image). That, theta 3 is an angle of rotation correction, minutes of the inclined angle, the image is rotated back of the hand to be captured for comparison, to calibrate the relative tilt.
2次回転補正は、指の間の湾曲部が安定ハンドル6と強く接触していながらも、手の甲自体の回転や手の甲の微細な動きにより、指の間の角度に大きさが変わる等の変化がなくても全体的に歪むようになるため、回転補正の角度を求めるため、指の間の角度を利用して補正するものである。 In the secondary rotation correction, while the curved part between the fingers is in strong contact with the stable handle 6, there is a change such as a change in the angle between the fingers due to the rotation of the back of the hand itself or the fine movement of the back of the hand. Even if it is not, it will be distorted as a whole, so that the angle between the fingers is corrected in order to obtain the rotation correction angle.
図21は、本発明の実施例に適用される2次回転補正の角の予測過程を図示したもので、抽出された境界線から求めたピクセルによって、指の間の角度を示したものである。θ1は、登録済み画像から求めた指の間の角度で、θ1’は、比較のため撮影される指画像の指の間における角度になる。2つの角度(θ1,θ1’)は、互いに違う画像であるが、同じ位置の指の間で求めた角度であることから、登録済み画像から求めた指の間の角度と比較のため撮影される指画像の指の間における角度の差を求め、2次回転補正の角度を求める。 FIG. 21 illustrates a process of predicting the angle of the secondary rotation correction applied to the embodiment of the present invention, and shows an angle between fingers by pixels obtained from the extracted boundary line. . θ 1 is an angle between fingers obtained from a registered image, and θ 1 ′ is an angle between fingers of a finger image taken for comparison. The two angles (θ 1 , θ 1 ′) are images different from each other, but are angles obtained between fingers at the same position. Therefore, for comparison with the angles between fingers obtained from registered images. The angle difference between the fingers of the captured finger image is obtained, and the angle for secondary rotation correction is obtained.
図21で、ピクセル(L)とピクセル(L’)は、境界線から抽出した左側最上位のピクセルで、ピクセル(R)とピクセル(R’)は、境界線の右側最上位のピクセルで、ピクセル(B)とピクセル(B’)は、境界線の最下位のピクセルになる。また、指の間の角度を分ける点線は、指の間における角度の中心線である。 In FIG. 21, pixel (L) and pixel (L ′) are the top leftmost pixels extracted from the boundary line, and pixel (R) and pixel (R ′) are the top rightmost pixels on the boundary line, Pixel (B) and pixel (B ′) become the lowest pixel of the boundary line. A dotted line that divides the angle between the fingers is a center line of the angle between the fingers.
ピクセル(B)とピクセル(B’)を通る仮想の直線を基準に、この中心線と、ピクセル(B)とピクセル(B’)を交点にして傾いた角度を求める。この中心線が仮想の直線を基準に、左側の領域にあると、陽の値を有し、反対に右側の領域にあると、陰の値を示す。 With reference to a virtual straight line passing through the pixel (B) and the pixel (B ′), an angle inclined with respect to the center line and the intersection of the pixel (B) and the pixel (B ′) is obtained. When this center line is in the left region with respect to the virtual straight line, it has a positive value, and conversely in the right region, it shows a negative value.
このようにして求めたθ1とθ1’の中心線の傾いた角度を持って、登録済み画像から求めた指の間の角度であるθ1の中心線を基準とし、比較のため撮影される画像から求めた指の間の角度θ1’の中心線の傾いた角度を引いて、相対的な傾斜角度(θ1−θ1’)を求める。 The angle between the center lines of θ 1 and θ 1 ′ obtained in this way is inclined, and the image is taken for comparison with reference to the center line of θ 1 , which is the angle between the fingers obtained from the registered image. The relative inclination angle (θ 1 −θ 1 ′) is obtained by subtracting the angle of inclination of the center line of the angle θ 1 ′ between the obtained fingers from the obtained image.
上記の方法で、残りの指の間における登録済み画像の角度に対する比較のため撮影される画像の角度の相対的な傾き角度を求める。このように得られた2つの相対的な傾斜角度の平均を算出し、最終的に2次回転補正角度とする。 By the above method, the relative inclination angle of the angle of the image to be photographed for comparison with the angle of the registered image between the remaining fingers is obtained. The average of the two relative inclination angles obtained in this way is calculated and finally set as the secondary rotation correction angle.
最後の過程として、確率的マッチングアルゴリズム(PMA:Probability Matching Algorithm)によって、認証情報データベース50に登録済みの認証情報と比較し、認証を行う(S500)。 As the last step, authentication is performed by comparing with authentication information registered in the authentication information database 50 by a probabilistic matching algorithm (PMA: Probability Matching Algorithm) (S500).
まず、認証情報データベース50から静脈パターン最適分布特性のデータを読み出す(S501)。静脈パターン最適分布特性のデータとしては、静脈パターンの分岐特性(VPBC:Vein Pattern Branch Characteristic)と、分岐加重値(BPWF:Branch Point Weighting Factor)が含まれる。 First, the vein pattern optimum distribution characteristic data is read from the authentication information database 50 (S501). The vein pattern optimum distribution characteristic data includes a vein pattern branch characteristic (VPBC) and a branch weight weighting factor (BPWF).
つづいて、静脈パターン補正画像(mVPi)から、静脈パターンの各分岐点を頂点とする多角形を作成する(S502)。そして、登録済みの静脈パターン最適分布特性から作成した多角形と頂点を重ねて比較し、その整合性を判定する(S502)。 Subsequently, a polygon having a vertex at each branch point of the vein pattern is created from the vein pattern correction image (mVPi) (S502). Then, the polygon created from the registered vein pattern optimum distribution characteristic is compared with the vertex, and the consistency is determined (S502).
整合の結果、得られた比較値が、一致していると認証できる基準値を満たしているかを判定し(S504)、満たしていない場合は認証不可とし(S505)、満たしている場合に認証を許諾する(S506)。 As a result of matching, it is determined whether or not the comparison value obtained satisfies a reference value that can be authenticated if it matches (S504). If not, authentication is not possible (S505). The license is granted (S506).
(手の甲の静脈パターン認識アルゴリズム)
ここで、本発明に利用している手の甲の静脈パターン認識アルゴリズムを詳細に説明する。
(Back of hand vein pattern recognition algorithm)
Here, the vein pattern recognition algorithm on the back of the hand used in the present invention will be described in detail.
手の甲の静脈パターンの分岐特性には、分岐点、分岐角度、分岐点でのパターンの長さ等がある。このように抽出された静脈パターンの分岐特徴を利用して個人を識別する。静脈パターンの分岐特性で、最も基本となる分岐特徴は、静脈パターンの分岐点で、既存の静脈パターンの抽出アルゴリズムは、部分的に静脈パターンのパターン連結性を損失しており、実際的なシステム運用においては、外部環境の変化、入力画像の変化等に対し、極めて敏感に反応する。すなわち、既存の静脈パターンの抽出アルゴリズムは、手の甲の静脈パターンの分岐特性を全て一括的な加重値(Uniform Weighting Factor)を適用して認識するため、実質的な生体認識システムとしての安定性が大幅に低下するという短所がある。 The branch characteristics of the vein pattern on the back of the hand include a branch point, a branch angle, and a pattern length at the branch point. An individual is identified using the branching feature of the vein pattern thus extracted. The most basic branching feature of vein pattern branching characteristics is the branching point of vein patterns, and the existing vein pattern extraction algorithms partially lose the pattern connectivity of vein patterns. In operation, it reacts extremely sensitively to changes in the external environment and changes in the input image. In other words, the existing vein pattern extraction algorithm recognizes all the branch characteristics of the back of the hand vein pattern by applying a collective weighting factor (Uniform Weighting Factor), so the stability as a substantial biological recognition system is greatly increased. There is a disadvantage that it is reduced.
例えば、使用者が繰り返しシステムを使用して、発生し得る入力画像の変化、外部環境の変化等により、抽出しようとする静脈パターンの分岐点の部分的な損失は、アルゴリズムの性能を低下させる主な要因になる。これは、抽出しようとする手の甲の静脈パターンの分岐特徴が多くなく、一定に定められているため、静脈パターンの分岐点の損失は、認識性能を左右する大きな要因として作用するからである。 For example, the partial loss of the branch point of the vein pattern to be extracted due to the change of the input image, the change of the external environment, etc. that may occur when the user repeatedly uses the system mainly decreases the performance of the algorithm. It becomes a factor. This is because the branch feature of the vein pattern of the back of the hand to be extracted is not constant and is fixed, so that the loss of the branch point of the vein pattern acts as a major factor that affects the recognition performance.
図22は、従来技術の静脈パターンの抽出アルゴリズムにより獲得した同一人の静脈パターンの分岐特徴を図示したもので、(a)と(b)は、時間差をおいて入力された同一人の画像処理結果を図示したものである。(a)では、分岐点の個数が8個現れるが、(b)では、14個の分岐点が現れている。このような分岐点を分岐特徴として適用すると、使用者の認識段階で同一人であるにも拘わらず、別人として誤認識するようになる。 FIG. 22 illustrates branching characteristics of the same person's vein pattern obtained by the prior art vein pattern extraction algorithm. (A) and (b) show the image processing of the same person input with a time difference. The results are illustrated. In (a), the number of branch points appears, but in (b), 14 branch points appear. When such a branch point is applied as a branch feature, the person is erroneously recognized as a different person even though the person is the same person at the recognition stage.
図23は、従来技術の位置補正アルゴリズムの画像処理結果を図示したものであり、(a)と(b)は、時間差をおいて入力された同一人の画像処理結果を図示したものである。使用者の回転や移動による位置変化を補正する方法は、2個の分岐点(左側上段の分岐点、右側下段の分岐点)の位置を利用して位置を補正しているが、最も基本的な分岐特徴である分岐点の部分的な損失により、間違った結果を示すようになる。 FIG. 23 illustrates the image processing result of the position correction algorithm of the prior art, and (a) and (b) illustrate the image processing result of the same person input with a time difference. The method of correcting the position change due to the rotation or movement of the user corrects the position using the positions of two branch points (the upper left branch point and the lower right lower branch point). Due to the partial loss of the branch point, which is a unique branch feature, the wrong result is shown.
本発明の実施例である手の甲の静脈パターン認識アルゴリズムは、個人別に分布する静脈パターンの分岐特性に対する確率的な信頼度を適用し、個々人に対する最も安定的なVPBP(Vein−Pattern Branch−Point)を抽出することにより、外部環境の変化、入力画像の微少な変化等により発生するシステムの感度と使用者の手の甲の微少な位置的変化により発生する回転や移動によるシステムの認識性能の安定性が改善できる。 The back-of-hand vein pattern recognition algorithm according to an embodiment of the present invention applies probabilistic reliability to the bifurcation characteristics of vein patterns distributed by individuals, and provides the most stable VPBP (Vein-Pattern Branch-Point) for each individual. Extraction improves the stability of the system's recognition performance due to rotation and movement caused by slight changes in the position of the user's hand and the sensitivity of the system caused by changes in the external environment, slight changes in the input image, etc. it can.
図24は、本発明の実施例に適用される手の甲の静脈パターンの認識アルゴリズムを順に示したものであり、図25は、図24のトレーニング段階の詳細過程を順に示したものである。 FIG. 24 shows the recognition algorithm of the back vein pattern of the hand applied to the embodiment of the present invention, and FIG. 25 shows the detailed process of the training stage of FIG. 24 in order.
図24に図示されるとおり、手の甲の静脈パターン認識アルゴリズムは、分岐特性に対する確率的な信頼度を個々人の分岐特性に適用するトレーニング段階と、トレーニング段階で得られた確率的な信頼度を適用した分岐特性に個々人の登録情報を自動変換し、特性要因比較アルゴリズム(FVMP:Feature Vector Matching Algorithm)を適用したメイン段階で構成されている。 As illustrated in FIG. 24, the vein pattern recognition algorithm on the back of the hand applies a probabilistic confidence level for the bifurcation characteristics to the individual bifurcation characteristics and a probabilistic confidence level obtained in the training stage. It consists of a main stage that automatically converts individual registration information into branching characteristics and applies a feature factor comparison algorithm (FVMP).
トレーニング段階では、静脈パターンの抽出アルゴリズムにより抽出された静脈パターン画像を使用し、直接比較アルゴリズム(DMA:Direct Matching Algorithm)を通じて使用者本人可否を判断する。DMAは、分岐特性よりは認証情報データベース50に登録された基準画像と静脈パターン画像の直接的な類似度(Correlation)を判断し、個人識別可否を判断する。本人と判断されるようになると、分岐点に対する確率的な信頼性を判断する(PMA)ようになり、使用者がシステムを繰り返し使用することにより、最終的には、個々人の一番安定した静脈パターンの分岐特性(VPBC)を検出し、それぞれの分岐特性に対し、確率的な分岐加重値(BPWF)を決定するようになる。 In the training stage, the vein pattern image extracted by the vein pattern extraction algorithm is used, and whether or not the user is available is determined through a direct comparison algorithm (DMA). The DMA determines the direct similarity (Correlation) between the reference image registered in the authentication information database 50 and the vein pattern image based on the branch characteristic, and determines whether or not individual identification is possible. When the person is determined to be the person, the probabilistic reliability of the bifurcation point is determined (PMA), and the user repeatedly uses the system. A branch characteristic (VPBC) of the pattern is detected, and a probabilistic branch weight (BPWF) is determined for each branch characteristic.
メイン段階では、トレーニング段階で得られた確率的な信頼度を適用した分岐特性で個々人の登録情報を自動変換させ、FVMAを適用し、使用者本人の可否を識別する。認識過程でFVMAは、多角形の特性と確率的分岐特性を通じて使用者本人の可否を判断するようになる。 In the main stage, the individual registration information is automatically converted with the branch characteristic to which the probabilistic reliability obtained in the training stage is applied, and FVMA is applied to identify whether or not the user is authorized. In the recognition process, the FVMA determines whether the user is authorized through the polygonal characteristics and the probabilistic bifurcation characteristics.
確率的な信頼度を適用した個々人の分岐特性を利用し、安定的な認識性能を示すことができ、使用者の回転と移動に対する補正を、最も安定したVPBPを基準に補正し、システムの性能及び使用者の便宜性を改善できるという長所を持つ。 Using individual bifurcation characteristics to which probabilistic reliability is applied, stable recognition performance can be shown, and correction for user rotation and movement is corrected based on the most stable VPBP, and system performance In addition, it has the advantage that the convenience of the user can be improved.
したがって、個々人の手の甲の静脈パターン分布システムを繰り返し使用する時、分岐特性を適用させながら、個人の外部環境やシステムの繰り返し使用による入力画像の変化から、個々人に対する最適の分岐特性を抽出することにより、より安定的なシステム性能を示す。 Therefore, when the vein pattern distribution system on the back of each person's hand is used repeatedly, by extracting the optimum branch characteristics for each individual from the changes in the input image due to the individual's external environment and repeated use of the system while applying the branch characteristics. , Show more stable system performance.
図25に示すように、使用者の登録情報は、システムを使用する初期トレーニング段階には、入力された使用者から抽出された静脈パターンの原型を保存しておき、DMAによって認識するが、システムを繰り返し使用することにより、確率的マッチングアルゴリズム(Probability Matching Algorithm)へ自動転換されると同時に、使用者別の最適な静脈パターンの分岐特性を抽出し、最適なBPWFの抽出に使用される(S61〜S64)。結果として、使用者の登録情報には、使用者から抽出された静脈パターンの分布特性だけが保存されるようになる(S65)。 As shown in FIG. 25, the user registration information is stored in the initial training stage using the system by storing the original vein pattern extracted from the user and recognized by the DMA. Is repeatedly converted to a stochastic matching algorithm (Probability Matching Algorithm), and at the same time, the optimal vein pattern bifurcation characteristics for each user are extracted and used to extract the optimal BPWF (S61). ~ S64). As a result, only the distribution characteristics of the vein pattern extracted from the user are stored in the user registration information (S65).
図26は、本発明の実施例に適用される手の甲の静脈パターンの認識アルゴリズムにより抽出された最適の分岐特性を適用し、位置補正を行う過程を示したものである。 FIG. 26 shows a process of correcting the position by applying the optimum branch characteristic extracted by the recognition algorithm for the back of the hand vein pattern applied to the embodiment of the present invention.
このように抽出された分岐点を含む領域には、分岐点を抽出するため、細線化アルゴリズムを適用する。 In order to extract a branch point, a thinning algorithm is applied to the region including the branch point thus extracted.
上記の細線化アルゴリズムを適用する過程から抽出しようとする分岐点の位置の微少な位置変化は、入力された同一人の原画像でも静脈パターンの微少な太さの変化により発生し得る許容範囲を示していて、この許容範囲内で抽出された分岐点は、許容範囲の中央位置で、分岐点の位置を決定するようになる。 A slight change in the position of the branch point to be extracted from the process of applying the above thinning algorithm has an allowable range that can occur due to a slight change in the thickness of the vein pattern in the input original image of the same person. As shown, the branch point extracted within the allowable range determines the position of the branch point at the center position of the allowable range.
図26(a)は、データベースに保存された最適な分岐特性を示していて、線で繋がっていない分岐点は、、確率的に低い信頼度を現している。すなわち、外部環境の変化やシステムの繰り返し使用から発生する入力画像の微少な変化により、分岐点の特性が損失される確率が高い分岐特性を示す分岐点で、低い加重値(Lower Weighting Factor)を適用するようになる。一方、線で繋がれた分岐点は、確率的に高い信頼度を示す。すなわち、外部環境の変化や入力画像の微少な変化に対し、確率的に高い信頼性を示す安定されたVPBPを意味し、高い加重値(Higher Weighting Factor)を適用して認識する。 FIG. 26A shows the optimal branch characteristics stored in the database, and branch points that are not connected by a line exhibit a low probability of reliability. In other words, a low weighting factor (Low Weighting Factor) is used at a branch point that exhibits a branch characteristic that has a high probability of losing the characteristic of the branch point due to a slight change in the input image that occurs due to changes in the external environment or the repeated use of the system. It comes to apply. On the other hand, a branch point connected by a line shows a high probability of reliability. That is, it means a stable VPBP that shows high reliability with respect to a change in the external environment or a slight change in the input image, and recognizes it by applying a high weighting factor (High Weighting Factor).
図26(b)は、使用者の手の回転と移動により得られた結果を示していて、図26(c)は、図26(a)のデータベースの分岐特徴と図26(b)に対する回転補正と移動補正の方法を示している。手の甲の静脈パターンの認識アルゴリズムでは、最も安定的なVPBPを連結した多角形を構成し、多角形の形が最も一致するように位置させることにより、回転及び移動に対する補正を実行するようになる。結果的には、手の甲の静脈パターンの認識アルゴリズムにより得られた個々人の分岐特性に対し、抽出された確率的な信頼度をそれぞれの分岐特性に適用し、最も安定的なVPBPと最適なBPWFを認識段階に適用することにより、安定的な認識性能を得られる。 FIG. 26 (b) shows the result obtained by rotation and movement of the user's hand, and FIG. 26 (c) shows the branch feature of the database of FIG. 26 (a) and the rotation with respect to FIG. 26 (b). The correction and movement correction methods are shown. In the vein pattern recognition algorithm on the back of the hand, the most stable VPBP is connected to form a polygon, and the polygons are positioned so as to be the best match, thereby correcting for rotation and movement. As a result, the probabilistic reliability extracted is applied to each bifurcation characteristic for the individual bifurcation characteristics obtained by the recognition algorithm of the back of the hand, and the most stable VPBP and the optimum BPWF are applied. By applying it to the recognition stage, stable recognition performance can be obtained.
図27は、本発明の実施例に適用される手の甲の静脈パターンの認識アルゴリズムで最も安定的なVPBPを使用し、回転と移動の補正を行う過程を示したものである。(a)と(b)は、抽出されたVPBPを示し、(c)は、(a)と(b)で選択された最も安定的なVPBPを重ねた時の結果を示す。 FIG. 27 shows a process of correcting rotation and movement using the most stable VPBP in the recognition algorithm of the back of the hand applied to the embodiment of the present invention. (A) and (b) show the extracted VPBP, and (c) shows the result when the most stable VPBP selected in (a) and (b) is overlaid.
その際、図29の(a)を保存するデータベースの分岐特性と見做した場合、図29の(d)に図示されるとおり、(b)の最も安定的なVPBPを連結した多角形をデータベースの分岐特性に最適に適用させることにより、図29の(e)のように、回転と移動に対する補正を効果的に行うことができる。 At this time, when FIG. 29A is regarded as the branching characteristic of the database to be stored, as shown in FIG. 29D, the polygon in which the most stable VPBP of FIG. By optimally applying the bifurcation characteristics, the rotation and movement can be effectively corrected as shown in FIG.
手の甲の静脈パターン認識アルゴリズムは、確率的なマッチングアルゴリズム(PMA)で個人識別を行う認識段階で、FVMAを通じて最終的に使用者の本人確認可否を判断するようになる。 The back-of-hand vein pattern recognition algorithm finally determines whether or not the user can be identified through FVMA at the recognition stage in which personal identification is performed by a probabilistic matching algorithm (PMA).
図28は、本発明の実施例で抽出された基本VPBPを連結した多角形の特徴ベクトル(Feature Vector)を示したもので、図29は、本発明の実施例で獲得した最適なBPWFを利用したVPBPでの分岐特性を図示したものである。 FIG. 28 shows a polygon feature vector (Feature Vector) obtained by connecting the basic VPBPs extracted in the embodiment of the present invention. FIG. 29 uses the optimum BPWF obtained in the embodiment of the present invention. The branching characteristics of the VPBP are shown.
図28に示されたとおり、認識段階では、先ず、データベースの最も安定的なVPBPを連結して作られた多角形と、現在入力している画像で得られたVPBPを連結して作られた多角形の頂点をマッチングさせた時に、各頂点に対する整合、多角形の頂点での角度に対する整合、頂点間の長さや多角形の面積に対する整合程度を判断して認識する。 As shown in FIG. 28, in the recognition stage, first, a polygon created by connecting the most stable VPBPs in the database and a VPBP obtained from the currently input image are connected. When matching the vertices of the polygon, it is recognized by judging the matching with respect to each vertex, the matching with the angle at the vertex of the polygon, the length between the vertices, and the matching degree with respect to the area of the polygon.
次に、図29に示されたとおり、認識段階では、確率的な信頼度を通じ、それぞれの分岐特性に対する最適のBPWFを適用して、分岐特性(分岐点、分岐点での分岐角度、分岐点での分岐個数、分岐点での長さ)に対する整合程度を判断して認識するようになる。 Next, as shown in FIG. 29, in the recognition stage, the optimal BPWF for each branch characteristic is applied through probabilistic reliability, and the branch characteristic (branch point, branch angle at the branch point, branch point) is applied. The number of branches at the branching point and the length at the branching point) are judged and recognized.
静脈認識用のデータベースには、使用者毎に付与された固有登録番号別の静脈パターンの分岐特性に関するデータを持続的にアップデートしながら、使用者の静脈パターンに関する分岐特性と基準画像が保存されている。 The database for vein recognition stores the branch characteristics and reference images related to the vein pattern of the user while continuously updating the data related to the branch characteristics of the vein pattern for each unique registration number assigned to each user. Yes.
上記の図面と発明の詳細説明は、単に、本発明の例示的なものであり、これは、単に本発明を説明するために使用されるものであり、意味限定や特許請求範囲に記載された、本発明の範囲を制限する意図の下で使用されるものではない。従って、本技術分野の通常の知識をもつ者であれば、これらから多様な変形及び均等な他の実施例が可能である点が理解できるであろう。従って、本発明の真の技術的な保護範囲は、添付された特許請求範囲の技術的発想から断定されるべきであろう。 The above drawings and detailed description of the invention are merely exemplary of the invention, which is merely used to illustrate the invention and is described in the meaning limitation and in the claims. It is not intended to be used with the intention of limiting the scope of the invention. Accordingly, those having ordinary skill in the art can understand that various modifications and other equivalent embodiments can be made therefrom. Accordingly, the true technical protection scope of the present invention should be determined from the technical concept of the appended claims.
1 発光ダイオード
2 液晶画面
3 キーパッド
4 ボタンスイッチ
5 覆い
6 安定ハンドル
7 カメラ
8 赤外線照明
9 赤外線フィルタ
10 ハウジング
11 指挿入部
20 手の甲認証端末装置
21 表示手段
22 個人識別コード入力手段
23 マイクロスイッチ
24 手の甲撮影カメラ
25 指撮影カメラ
26 ビデオデコーダ
27 通信制御部
30 手の甲認証サーバ
40 プロセッサ
41 個人識別コード判定部
42 データベースアクセス部
43 撮影画像保存部
44 ROI画像抽出部
45 位置補正部
46 静脈パターンマッチング部
50 認証情報データベース
60 外部装置インターフェース
70 一時記憶メモリ
80 外部装置
100 手の甲認証システム
DESCRIPTION OF SYMBOLS 1 Light emitting diode 2 Liquid crystal screen 3 Keypad 4 Button switch 5 Cover 6 Stable handle 7 Camera 8 Infrared illumination 9 Infrared filter 10 Housing 11 Finger insertion part 20 Back authentication terminal device 21 Display means 22 Personal identification code input means 23 Micro switch 24 Back of hand Shooting camera 25 Finger shooting camera 26 Video decoder 27 Communication control unit 30 Back of hand authentication server 40 Processor 41 Personal identification code determination unit 42 Database access unit 43 Captured image storage unit 44 ROI image extraction unit 45 Position correction unit 46 Vein pattern matching unit 50 Authentication Information database 60 External device interface 70 Temporary storage memory 80 External device 100 Back of hand authentication system
Claims (12)
前記ハウジングは、The housing is
下部に斜めに開口部が形成され、上部の内面に赤外照明器と可視光線及び赤外の帯域まで反応する撮像手段とを備え、内面に赤外線を吸収する物質が塗布され、An opening is formed obliquely in the lower part, and an infrared illuminator on the inner surface of the upper part and an imaging means that reacts to visible light and infrared bands, and a substance that absorbs infrared rays is applied to the inner surface,
さらに、further,
前記撮像手段及び赤外照明器の下方に設けられた赤外線フィルタとAn infrared filter provided below the imaging means and the infrared illuminator;
を備え、With
さらに、前記開口部の壁側となる側の下部に安定ハンドルを備え、Furthermore, a stable handle is provided at the lower part on the side that becomes the wall side of the opening,
該安定ハンドルは、The stable handle is
水平棒と、A horizontal bar,
2本の軸を中指を挿入可能な幅で前記水平棒に設け、該2本の軸は湾曲して前記開口部の下の筐体に、前記2本の軸の中央部が前記撮像手段に撮影可能に設けられていることを特徴とする手の甲の認証端末。Two shafts are provided on the horizontal bar with a width allowing the middle finger to be inserted, the two shafts are curved to form a housing under the opening, and a central portion of the two shafts serves as the imaging means. An authentication terminal on the back of the hand, which is provided so that it can be photographed.
前記マイクロスイッチの動作によって撮像を開始することを特徴とする請求項1乃至3のいずれかに記載の手の甲の認証端末。 4. The back authentication terminal according to claim 1, wherein imaging is started by an operation of the microswitch.
コンピュータが、
認証者が前記安定ハンドルの2本の軸に中指を挿入して予め撮影して得た手の甲の静脈の分岐点を繋げた基準多角形を含む最適分布特性データ(VPBC)と、前記認証者が前記安定ハンドルの2本の軸に中指を挿入して予め撮影して得た中指と薬指とが接する第1の湾曲領域のエッジ部分である第1の基準境界線と、中指と人差し指とが接する第2の湾曲領域のエッジ分部である第2の基準境界線とを指部境界基準情報として認証情報用データベースに記憶するステップと、
前記手の甲認証端末からの指部デジタル画像と甲部デジタル画像とを一時記憶メモリに記憶するステップと、
前記一時記憶メモリに記憶された甲部デジタル画像の内で、認証に必要な静脈パターンの部分をROI画像データとして抽出し、太い静脈パターン(Spi)及び細い静脈パターン(ZPi)を抽出して合成し、この静脈合成パターン(Gpi)をニ値化してノイズ除去した静脈パターン(Vpi)を生成するROI画像抽出ステップとを行い、
さらに、位置補正ステップ及び静脈パターンマッチングステップを行い、
前記位置補正ステップは、
前記指部デジタル画像の内で、前記第1の湾曲領域と前記第2の湾曲領域とを指部境界画像として抽出するステップと、
前記指部境界画像の第1の湾曲領域に対して、スケルトン処理を施して、中指側と薬指側との前記エッジ部分である第1の境界線並びに中指と人差し指との前記エッジ部分である第2の境界線を求めるステップと、
前記第1の境界線に含まれている交点と第2の境界線に含まれている交点とを結ぶ第1の直線と、前記第1の基準境界線に含まれている基準交点と第2の基準境界線に含まれている基準交点とを結ぶ第2の直線との相対角度である第1の相対角度を求め、これを第1の補正角度とするステップと、
前記指部境界画像に含まれている第1の境界線の開度と前記指部境界基準情報に含まれている第1の基準境界線の基準開度との相対的角度を第2の相対的角度として求めると共に、前記指部境界画像に含まれている第2の境界線の開度と前記指部境界基準情報に含まれている第2の基準境界線の基準開度との相対的角度を第3の相対角度として求め、この第2の相対角度と第3の相対角度との平均を第2の補正角度とするステップと、
前記第1の補正角度で前記静脈パターン(Vpi)を補正して、さらに前記第2の補正角度で補正した静脈パターン補正画像(mVpi)を生成するステップと
を行い、
前記静脈パターンマッチングステップは、
前記静脈パターン補正画像(mVpi)の各分岐点を求め、これらの分岐点を結んだ多角形を生成し、該多角形と前記最適分布特性データ(VPBC)の基準多角形と比較して一致の有無を判定する手段と、
前記判定結果を前記前記手の甲認証端末の表示器に表示させるステップと
を行うことを特徴とする手の甲の認証方法。 Finger obtained by photographing the connection area between the middle finger, index finger, ring finger and back of the hand by inserting the middle finger between the two shafts into a stable handle with two shafts at the center of the horizontal shaft A digital back image authentication method for authenticating a vein of the back of the hand by reading a digital image of the back and a back digital image obtained by photographing the back of the hand ,
Computer
Optimal distribution characteristic data (VPBC) including reference polygons connecting the branch points of the veins of the back of the hand obtained by the certifier inserting a middle finger into the two axes of the stable handle and photographing in advance, and the certifier A first reference boundary line, which is an edge portion of a first curved region where the middle finger and the ring finger are in contact with each other, and the middle finger and the index finger are in contact with each other, which is obtained by inserting the middle finger into the two axes of the stable handle and shooting in advance. Storing a second reference boundary line that is an edge portion of the second curved region in the authentication information database as finger boundary reference information ;
Storing the finger digital image and the back digital image from the back authentication terminal of the hand in a temporary storage memory;
From the upper digital image stored in the temporary storage memory, a vein pattern portion necessary for authentication is extracted as ROI image data, and a thick vein pattern (Spi) and a thin vein pattern (ZPi) are extracted and synthesized. And ROI image extraction step of generating a vein pattern (Vpi) from which the vein composite pattern (Gpi) is binarized and noise is removed,
Furthermore, a position correction step and a vein pattern matching step are performed,
The position correction step includes
Extracting the first curved region and the second curved region as finger boundary images in the finger digital image ;
A skeleton process is performed on the first curved region of the finger boundary image, and the first boundary line that is the edge portion between the middle finger side and the ring finger side and the edge portion that is the middle finger and the index finger are Obtaining a boundary line of 2 ;
A first straight line connecting an intersection point included in the first boundary line and an intersection point included in the second boundary line; a reference intersection point included in the first reference boundary line; and a second line Obtaining a first relative angle, which is a relative angle with a second straight line connecting the reference intersection point included in the reference boundary line, and setting this as a first correction angle;
The relative angle between the opening degree of the first boundary line included in the finger boundary image and the reference opening degree of the first reference boundary line included in the finger boundary reference information is set as a second relative angle. And calculating the relative angle between the opening degree of the second boundary line included in the finger boundary image and the reference opening degree of the second reference boundary line included in the finger boundary reference information. Obtaining an angle as a third relative angle, and setting an average of the second relative angle and the third relative angle as a second correction angle;
Correcting the vein pattern (Vpi) at the first correction angle, and further generating a vein pattern corrected image (mVpi) corrected at the second correction angle;
And
The vein pattern matching step includes:
Find each branch point of the vein pattern corrected image (mVpi), generate a polygon connecting these branch points, and compare the polygon with the reference polygon of the optimum distribution characteristic data (VPBC). Means for determining presence or absence;
Displaying the determination result on a display of the back authentication terminal of the hand;
A method of authenticating the back of the hand, characterized by
前記静脈パターンマッチングステップは、
前記静脈パターン補正画像(mVpi)の静脈パターンの分岐点のピクセル座標、分岐点個数、分岐角度を求め、これらの一致の有無を判定することを特徴する請求項5記載の手の甲の認証方法。 The optimum distribution characteristic data (VPBC) includes the branch angle of the upper vein pattern from the branch point, the number of branches, and the pixel coordinates of the branch point,
The vein pattern matching step includes:
6. The back of hand authentication method according to claim 5, wherein the pixel coordinates, the number of branch points, and the branch angle of the branch point of the vein pattern of the vein pattern correction image (mVpi) are obtained, and whether or not they match is determined .
a k が二つのピクセル間におけるx軸方向の距離になり、b k がy軸方向に角度を形成したピクセルの距離差である下記の数式を利用して求めた2個のθ k を合わせて求めることを特徴とする請求項5乃至9のいずれかに記載の手の甲の認証方法。
a k is the distance in the x axis direction between the two pixels, b k is the combined two theta k pointing to the following equation which is the distance difference between pixels forming an angle in the y-axis direction 10. The method for authenticating the back of the hand according to any one of claims 5 to 9 .
前記基準多角形の各頂点の位置、該各頂点からの直線の分岐角度、頂点間の長さ、多角形の面積を含み、
前記静脈パターンマッチングステップは、
各頂点の位置、各頂点からの直線の分岐角度、頂点間の長さ、多角形の面積に対する整合程度を判断して認識することを特徴とする請求項5乃至10のいずれかに記載の手の甲の認証方法。 The optimum distribution characteristic data (VPBC) of the authentication information database is:
Including the position of each vertex of the reference polygon, the branch angle of the straight line from each vertex, the length between the vertices, the area of the polygon,
The vein pattern matching step includes:
The back of the hand according to any one of claims 5 to 10, wherein a position of each vertex, a branch angle of a straight line from each vertex, a length between the vertices, and a matching degree with respect to a polygonal area are determined and recognized. Authentication method .
前記求めた静脈パターン(Vpi)の分岐点に分岐点加重値を適用し、各頂点の位置、各頂点からの直線の分岐角度、頂点間の長さ、分岐個数に対する整合程度を判断して認識することを特徴とする請求項5乃至11のいずれかに記載の手の甲の認証方法。A branch point weighting value is applied to the branch point of the obtained vein pattern (Vpi), and the position of each vertex, the branch angle of a straight line from each vertex, the length between the vertices, and the degree of matching with respect to the number of branches are recognized and recognized. The method for authenticating a back of a hand according to any one of claims 5 to 11, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011139391A JP5377580B2 (en) | 2011-06-23 | 2011-06-23 | Authentication device for back of hand and authentication method for back of hand |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011139391A JP5377580B2 (en) | 2011-06-23 | 2011-06-23 | Authentication device for back of hand and authentication method for back of hand |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006211374A Division JP4809155B2 (en) | 2006-08-02 | 2006-08-02 | Back of hand authentication system and back of hand authentication method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011258209A JP2011258209A (en) | 2011-12-22 |
JP2011258209A5 JP2011258209A5 (en) | 2012-02-16 |
JP5377580B2 true JP5377580B2 (en) | 2013-12-25 |
Family
ID=45474241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011139391A Active JP5377580B2 (en) | 2011-06-23 | 2011-06-23 | Authentication device for back of hand and authentication method for back of hand |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5377580B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11914692B2 (en) | 2018-11-06 | 2024-02-27 | Sony Corporation | Information processing apparatus and information processing method |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2012341417B2 (en) | 2011-11-25 | 2018-06-28 | Riken | Methods for producing retinal tissue and retina-related cell |
CN102663393B (en) * | 2012-03-02 | 2014-10-22 | 哈尔滨工程大学 | Method for extracting region of interest of finger vein image based on correction of rotation |
JP2017010322A (en) * | 2015-06-23 | 2017-01-12 | 国立大学法人 鹿児島大学 | Authentication processing device and authentication processing method |
CN112508064B (en) * | 2020-11-24 | 2024-08-20 | 广州广电运通金融电子股份有限公司 | Finger vein identification method, device, computer equipment and storage medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100259475B1 (en) * | 1997-04-14 | 2000-06-15 | 최환수 | Method for the identification of individuals using the pattern of blood vessels |
JP3717357B2 (en) * | 2000-01-07 | 2005-11-16 | 理想科学工業株式会社 | Binary threshold calculation method and apparatus |
JP2002015298A (en) * | 2000-06-28 | 2002-01-18 | Nippon Telegr & Teleph Corp <Ntt> | System and method for palm shape authentication |
JP3558025B2 (en) * | 2000-09-06 | 2004-08-25 | 株式会社日立製作所 | Personal authentication device and method |
JP3396680B2 (en) * | 2001-02-26 | 2003-04-14 | バイオニクス株式会社 | Biometric authentication device |
JP4232079B2 (en) * | 2002-07-22 | 2009-03-04 | 有限会社イオネットワーク | Personal identification device |
JP3952293B2 (en) * | 2003-01-06 | 2007-08-01 | ソニー株式会社 | Fingerprint verification apparatus and method, recording medium, and program |
JP4207937B2 (en) * | 2005-08-25 | 2009-01-14 | 株式会社日立製作所 | Personal authentication device |
JP4692174B2 (en) * | 2005-09-14 | 2011-06-01 | 株式会社日立製作所 | Personal authentication device and door opening / closing system |
-
2011
- 2011-06-23 JP JP2011139391A patent/JP5377580B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11914692B2 (en) | 2018-11-06 | 2024-02-27 | Sony Corporation | Information processing apparatus and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2011258209A (en) | 2011-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4809155B2 (en) | Back of hand authentication system and back of hand authentication method | |
AU2016214084B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
JP7242528B2 (en) | Systems and methods for performing fingerprint user authentication using images captured using mobile devices | |
Steiner et al. | Reliable face anti-spoofing using multispectral SWIR imaging | |
US9922238B2 (en) | Apparatuses, systems, and methods for confirming identity | |
KR100374708B1 (en) | Non-contact type human iris recognition method by correction of rotated iris image | |
JP5045344B2 (en) | Registration device, registration method, authentication device, and authentication method | |
JP4351982B2 (en) | Personal authentication method, apparatus and program | |
KR20190001066A (en) | Face verifying method and apparatus | |
KR101017798B1 (en) | Method and apparatus for finger vein identification using mean curvature | |
US20060023921A1 (en) | Authentication apparatus, verification method and verification apparatus | |
KR20040059313A (en) | Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image | |
JP5377580B2 (en) | Authentication device for back of hand and authentication method for back of hand | |
US20160188975A1 (en) | Biometric identification via retina scanning | |
JP2007072676A (en) | Image processing unit, mask generation method, and program | |
JP2004206444A (en) | Individual authentication method and iris authentication device | |
WO2013088555A1 (en) | Biometric information processing apparatus, biometric information processing method, and computer program for processing biometric information | |
JP5915336B2 (en) | Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program | |
JP5480532B2 (en) | Image processing apparatus, image processing method, and program for causing computer to execute the method | |
JP2010026658A (en) | Palm position detection device, palm print authentication device, cellphone terminal, program and palm position detection method | |
JP2011258209A5 (en) | Authentication device for back of hand and authentication method for back of hand | |
JP5748421B2 (en) | Authentication device, authentication method, authentication program, and recording medium | |
EP4167179A1 (en) | Authentication method, authentication program, and information processing device | |
CN104809428A (en) | Biont sign authentication method | |
JP7552913B2 (en) | Determination method, determination program, and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5377580 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |