JP2016096987A - Biometric authentication device - Google Patents

Biometric authentication device Download PDF

Info

Publication number
JP2016096987A
JP2016096987A JP2014235711A JP2014235711A JP2016096987A JP 2016096987 A JP2016096987 A JP 2016096987A JP 2014235711 A JP2014235711 A JP 2014235711A JP 2014235711 A JP2014235711 A JP 2014235711A JP 2016096987 A JP2016096987 A JP 2016096987A
Authority
JP
Japan
Prior art keywords
finger
biometric
image
information
authentication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014235711A
Other languages
Japanese (ja)
Other versions
JP6320277B2 (en
Inventor
三浦 直人
Naoto Miura
直人 三浦
友輔 松田
Yusuke Matsuda
友輔 松田
長坂 晃朗
Akio Nagasaka
晃朗 長坂
宮武 孝文
Takafumi Miyatake
孝文 宮武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014235711A priority Critical patent/JP6320277B2/en
Publication of JP2016096987A publication Critical patent/JP2016096987A/en
Application granted granted Critical
Publication of JP6320277B2 publication Critical patent/JP6320277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology which can perform highly accurate authentication by obtaining information on a plurality of biological tissues overlapping one another in a living body.SOLUTION: A biometric authentication device includes: a placement area on which a finger is placed; at least one light source 3 for irradiating the finger with light; imaging device 9 for imaging the light from the light source 3 to obtain at least one image; an authentication processing part 10 for processing the image; and a storage device 14 for storing registration information on at least one of a plurality of biological characteristics overlapping one another in the finger. The authentication processing part 10 obtains information on the distribution of pigment concentration related to a plurality of biological characteristics overlapping one another in a finger 1 from an image of the finger, obtains inputted information on at least one biological characteristic from the information on the distribution of pigment concentration, and uses the inputted information and the registration information and calculates a degree of the similarity to perform authentication based on the degree of the similarity.SELECTED DRAWING: Figure 1A

Description

本発明は、生体を用いて個人を認証する生体認証装置に関する。   The present invention relates to a biometric authentication apparatus that authenticates an individual using a biometric.

様々な生体認証技術の中でも、指静脈認証は高精度な認証を実現できるものとして知られている。指静脈認証は、指内部の血管パターンを使用して優れた認証精度を実現する。指静脈認証は、指紋認証に比べて偽造及び改ざんが困難であるため、高度なセキュリティを実現できる。   Among various biometric authentication techniques, finger vein authentication is known as a technique that can realize highly accurate authentication. Finger vein authentication achieves excellent authentication accuracy using a blood vessel pattern inside the finger. Since finger vein authentication is more difficult to counterfeit and tamper than fingerprint authentication, a high level of security can be realized.

近年では、携帯電話機、ノート型PC(Personal Computer)、スマートフォンやタブレット端末などの携帯端末、ロッカー、金庫、プリンターなどの機器に生体認証装置を搭載し、各機器のセキュリティを確保する事例が増加している。   In recent years, there have been an increasing number of cases in which biometric authentication devices are installed in devices such as mobile phones, notebook PCs (Personal Computers), mobile terminals such as smartphones and tablet terminals, lockers, safes, and printers to ensure the security of each device. ing.

また、生体認証が適用される分野として、入退室管理、勤怠管理、コンピュータへのログインなどに加え、近年では決済などにも生体認証が利用されてきている。特に公共で利用される生体認証装置は、確実な個人認証を実現することが重要である。さらには、近年のタブレット型携帯端末の普及やウェアラブル・コンピューティングの潮流を鑑みると、上記のように利便性を担保しつつ、装置の小型化を実現することも重要な要件の一つとなる。   In addition, in addition to entrance / exit management, attendance management, log-in to computers, etc., biometric authentication has been used in recent years as a field to which biometric authentication is applied. In particular, it is important for a biometric authentication device used in the public to realize reliable personal authentication. Furthermore, in view of the recent spread of tablet-type mobile terminals and the trend of wearable computing, it is also an important requirement to realize downsizing of the apparatus while ensuring convenience as described above.

特許文献1は、血管では光が吸収され、脂肪組織では反射または散乱される傾向を利用し、レンズを通してセンサアレイ上に集束して撮影された皮下組織構造の三次元デジタル情報を獲得する皮下組織撮影装置と、当該装置を用いて撮影された映像の濃淡画像より個人を識別する技術が開示されている。   Patent Document 1 uses a tendency that light is absorbed in blood vessels and reflected or scattered in adipose tissue, and obtains three-dimensional digital information of a subcutaneous tissue structure photographed by focusing on a sensor array through a lens. A technique for identifying an individual from a photographing apparatus and a grayscale image of a picture photographed using the apparatus is disclosed.

また、非特許文献1は、従来技術として、皮膚に白色の可視光を照射してカラーカメラでその反射光を撮影し、皮膚中のヘモグロビンとメラニンの分布をそれぞれ独立に獲得する技術を開示している。   Non-Patent Document 1 discloses, as a conventional technique, a technique for irradiating skin with white visible light, photographing the reflected light with a color camera, and independently acquiring the distribution of hemoglobin and melanin in the skin. ing.

特開2007-044532号公報JP 2007-044532 A

「Image-based skin color and texture analysis/synthesis by extracting hemoglobin and melanin information in the skin」, in Proc. of SIGGRAPH, ACM Press, 770-779, 2003.`` Image-based skin color and texture analysis / synthesis by extracting hemoglobin and melanin information in the skin '', in Proc. Of SIGGRAPH, ACM Press, 770-779, 2003.

小型で使い勝手が良く、そして高精度な生体認証装置を実現するためには、狭い領域から個人認証に有効な生体特徴を抽出することが重要となる。   In order to realize a small-sized, easy-to-use and highly accurate biometric authentication device, it is important to extract biometric features effective for personal authentication from a narrow area.

特許文献1には、映像中の濃淡は皮下組織構造に関連する様々な構造的特徴を表し、暗いピクセルは血管に、明るいピクセルは脂肪組織に対応することが開示されている。特許文献1において、画像プロセッサは、各ピクセルを、血液を有するピクセルと血液を有しないピクセルとに分類し、静脈周りの脂肪組織を識別に利用している。   Patent Document 1 discloses that shading in an image represents various structural features related to the subcutaneous tissue structure, with dark pixels corresponding to blood vessels and light pixels corresponding to adipose tissue. In Patent Document 1, the image processor classifies each pixel into a pixel having blood and a pixel not having blood, and uses adipose tissue around the vein for identification.

しかしながら、特許文献1では、脂肪組織の撮影に関して、静脈以外の部分が脂肪組織に該当する部分であると記載されているため、静脈と脂肪組織とが重畳して存在することが考慮されていない。よって、特許文献1の技術では、重畳して存在する複数の生体組織を考慮した個人認証を行うことができない。   However, in Patent Document 1, it is described that a portion other than the vein is a portion corresponding to the adipose tissue with respect to the imaging of the adipose tissue, and thus it is not considered that the vein and the adipose tissue are superimposed. . Therefore, with the technique of Patent Document 1, it is not possible to perform personal authentication in consideration of a plurality of living tissues that are superimposed.

また、非特許文献1に記載の技術においては、白色の反射光を皮膚に照射してヘモグロビンとメラニンを分離することが可能である一方で、皮膚の生体組織に基づく個人認証に関する開示も示唆もなされていない。   Further, in the technique described in Non-Patent Document 1, while it is possible to separate hemoglobin and melanin by irradiating the skin with white reflected light, disclosure and suggestion regarding personal authentication based on skin tissue Not done.

そこで、本発明は、重畳して存在する複数の生体組織に関する情報を獲得することで高精度に認証を行うことができる技術を提供する。   Therefore, the present invention provides a technique that can perform authentication with high accuracy by acquiring information related to a plurality of living tissues that are superimposed.

上記課題を解決する為に、例えば特許請求の範囲に記載の構成を採用する。本願は上記課題を解決する手段を複数含んでいるが、その一例をあげるならば、指が載置される載置領域と、前記指に光を照射する少なくとも1つの光源と、前記光源からの光を撮影して少なくとも1つの画像を取得する撮像部と、前記画像を処理する認証部と、前記指の内部に重畳する複数の生体特徴のうち少なくとも1つに関する登録情報を記憶する記憶部と、を備える生体認証装置が提供される。当該生体認証装置において、前記認証部は、前記画像から、前記指の内部に重畳する複数の生体特徴に関する色素濃度の分布の情報を取得し、前記色素濃度の分布の情報から少なくとも1つの生体特徴に関する入力情報を取得し、前記入力情報と前記登録情報とを用いて類似度を算出し、前記類似度に基づいて認証を行う。   In order to solve the above problems, for example, the configuration described in the claims is adopted. The present application includes a plurality of means for solving the above-described problems. To give an example, a placement area on which a finger is placed, at least one light source that irradiates light on the finger, and a light source from the light source. An imaging unit that captures light to acquire at least one image, an authentication unit that processes the image, and a storage unit that stores registration information regarding at least one of a plurality of biometric features superimposed on the inside of the finger; Are provided. In the biometric authentication apparatus, the authentication unit acquires information on a pigment concentration distribution related to a plurality of biometric features superimposed on the inside of the finger from the image, and at least one biometric feature from the information on the pigment concentration distribution. Input information is acquired, a similarity is calculated using the input information and the registration information, and authentication is performed based on the similarity.

本発明によれば、重畳して存在する複数の生体組織に関する情報を獲得することで、小型で高精度に認証を行うことができる生体認証装置を提供できる。本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施例の説明により明らかにされる。   ADVANTAGE OF THE INVENTION According to this invention, the biometric authentication apparatus which can authenticate with small size and high precision can be provided by acquiring the information regarding the some biological tissue which overlaps and exists. Further features related to the present invention will become apparent from the description of the present specification and the accompanying drawings. Further, problems, configurations and effects other than those described above will be clarified by the description of the following examples.

第1の実施例の生体認証システムの全体の構成を示す図である。It is a figure which shows the structure of the whole biometric authentication system of a 1st Example. 第1の実施例の生体認証システムの認証処理部の構成を示す図である。It is a figure which shows the structure of the authentication process part of the biometrics system of a 1st Example. 第1の実施例の生体認証システムの入力装置の断面図である。It is sectional drawing of the input device of the biometrics authentication system of a 1st Example. 第1の実施例の生体認証システムの入力装置を上面から見た図である。It is the figure which looked at the input device of the biometrics system of the 1st example from the upper surface. 体表付近の生体組織を説明するための皮膚断面の模式図である。It is a schematic diagram of the skin cross section for demonstrating the biological tissue of the body surface vicinity. 第1の実施例の生体認証システムの入力装置を用いて脂肪紋を計測する処理フローの一例である。It is an example of the processing flow which measures a fat pattern using the input device of the biometrics authentication system of a 1st Example. 色空間から生体組織の濃度を算出する手法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating the density | concentration of a biological tissue from color space. 色空間から生体組織の濃度を算出する手法を説明するための模式図であり、図5Aの一部の拡大図である。FIG. 5B is a schematic diagram for explaining a technique for calculating the concentration of a biological tissue from a color space, and is a partial enlarged view of FIG. 5A. 色空間から生体組織の濃度を算出する手法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating the density | concentration of a biological tissue from color space. 生体組織の色ベクトルを推定する方法の説明図である。It is explanatory drawing of the method of estimating the color vector of a biological tissue. 生体組織の色ベクトルを推定する方法の説明図である。It is explanatory drawing of the method of estimating the color vector of a biological tissue. 生体組織の色ベクトルを推定する方法の説明図である。It is explanatory drawing of the method of estimating the color vector of a biological tissue. 生体組織の色ベクトルを推定する方法の説明図である。It is explanatory drawing of the method of estimating the color vector of a biological tissue. 指の押し付け方が弱い場合の脂肪紋の変化を説明する図である。It is a figure explaining the change of a fat crest when the way of pressing a finger is weak. 指の押し付け方が強い場合の脂肪紋の変化を説明する図である。It is a figure explaining the change of a fat crest when the way of pressing a finger is strong. 第1の実施例の生体認証システムにおける登録データの登録手順の一実施例を説明するフローチャートである。It is a flowchart explaining one Example of the registration procedure of the registration data in the biometric authentication system of a 1st Example. 第1の実施例の生体認証システムにおける利用者から得た情報と登録データとの照合手順の一実施例を説明するフローチャートである。It is a flowchart explaining one Example of the collation procedure of the information and registration data which were obtained from the user in the biometrics system of a 1st Example. 重み付けによる脂肪紋のテンプレート照合の一手法で用いられる登録データの一例である。It is an example of the registration data used with the method of template collation of the fat crest by weighting. 重み付けによる脂肪紋のテンプレート照合の一手法で用いられる入力データの一例である。It is an example of the input data used with the method of template collation of the fat crest by weighting. 重み付けによる脂肪紋のテンプレート照合の一手法で用いられる重みテーブルの一例である。It is an example of the weight table used with the method of template collation of the fat crest by weighting. 第2の実施例である、脂肪紋と指静脈とを用いた生体認証システムの一実施例である。It is one Example of the biometrics authentication system using a fat crest and a finger vein which is a 2nd Example. 第2の実施例の生体認証システムを用いた認証の一実施例の処理フローである。It is a processing flow of one Example of the authentication using the biometric authentication system of a 2nd Example. 撮影された指静脈のパターンの模式図である。It is a schematic diagram of the image | photographed finger vein pattern. 撮影された脂肪紋のパターンの模式図である。It is the schematic diagram of the pattern of the image | photographed fat pattern. 撮影された指静脈と脂肪紋のパターンの模式図である。It is the schematic diagram of the image | photographed finger vein and the pattern of a fat crest. 脂肪紋と指静脈の特徴量を組み合わせた特徴点照合方式で用いられる指静脈パターン画像の模式図である。It is a schematic diagram of a finger vein pattern image used in a feature point matching method that combines fat prints and feature amounts of finger veins. 脂肪紋と指静脈の特徴量を組み合わせた特徴点照合方式で用いられる脂肪紋画像の模式図である。It is a schematic diagram of a fatprint image used in a feature point matching method combining a feature quantity of a fatprint and a finger vein. 図14Aの画像での特徴点の抽出を示す模式図である。It is a schematic diagram which shows extraction of the feature point in the image of FIG. 14A. 図14Bの画像での特徴点の抽出を示す模式図である。It is a schematic diagram which shows extraction of the feature point in the image of FIG. 14B. 図14Cの画像と図14Dとの画像とを重ね合わせた特徴点合成画像の模式図である。14C is a schematic diagram of a feature point composite image obtained by superimposing the image of FIG. 14C and the image of FIG. 14D. 脂肪紋と指静脈とを独立に照合して相補的に位置補正を行う照合処理の一実施例を説明する図である。It is a figure explaining one Example of the collation process which collates a fat crest and a finger vein independently, and performs a position correction complementarily. 指静脈と関節紋との重なり部分をコード化して認証する処理を説明する図である。It is a figure explaining the process which codes and authenticates the overlap part of a finger vein and a joint pattern. 指静脈と関節紋との重なり部分をコード化して認証する処理を説明する図である。It is a figure explaining the process which codes and authenticates the overlap part of a finger vein and a joint pattern. 指静脈と関節紋との重なり部分をコード化して認証する処理を説明する図である。It is a figure explaining the process which codes and authenticates the overlap part of a finger vein and a joint pattern. 第3の実施例である、携帯端末に反射光照射用の可視光源とカラーカメラとを具備した生体認証装置の一実施例である。It is one Example of the biometric authentication apparatus which comprises the visible light source for reflected light irradiation and the color camera which are 3rd Examples in the portable terminal. 第3の実施例である、携帯端末に反射光照射用の可視光源とカラーカメラとを具備した生体認証装置の一実施例である。It is one Example of the biometric authentication apparatus which comprises the visible light source for reflected light irradiation and the color camera which are 3rd Examples in the portable terminal. 指をタップすることで認証を行うスマートフォン向け指先認証装置の操作の一例である。It is an example of operation of the fingertip authentication apparatus for smartphones which authenticates by tapping a finger. 指をタップすることで認証を行うスマートフォン向け指先認証装置の操作の一例である。It is an example of operation of the fingertip authentication apparatus for smartphones which authenticates by tapping a finger.

以下、添付図面を参照して本発明の実施例について説明する。なお、添付図面は本発明の原理に則った具体的な実施例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。また、各図において共通の構成については同一の参照番号が付されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The accompanying drawings show specific embodiments in accordance with the principle of the present invention, but these are for the understanding of the present invention, and are never used to interpret the present invention in a limited manner. is not. In each drawing, the same reference numerals are assigned to common components.

[第1実施例]
図1Aは、第1の実施例の指の血管を用いた生体認証システムの全体の構成を示す図である。尚、本発明はシステムとしてではなく、全てまたは一部の構成を筐体に搭載した装置としての構成であってもよいことは言うまでも無い。装置は、認証処理を含めた生体認証装置としてもよい。また、認証処理は外部の装置で行ってもよく、装置は、血管画像の取得に特化した血管画像取得装置又は血管画像抽出装置としてもよい。したがって、以下で説明する機能は、ネットワーク上に存在する複数の装置で構成されてもよい。また、装置は、後述のように形態端末として実施されてもよい。
[First embodiment]
FIG. 1A is a diagram illustrating an overall configuration of a biometric authentication system using a finger blood vessel according to a first embodiment. Needless to say, the present invention may be configured not as a system but as an apparatus in which all or a part of the configuration is mounted on a housing. The device may be a biometric authentication device including an authentication process. The authentication process may be performed by an external device, and the device may be a blood vessel image acquisition device or a blood vessel image extraction device specialized for acquiring blood vessel images. Therefore, the functions described below may be configured by a plurality of devices existing on the network. The device may also be implemented as a form terminal as described below.

生体認証システムは、入力装置2と、認証処理部10と、記憶装置14と、表示部15と、入力部16と、スピーカ17と、画像入力部18とを含む。   The biometric authentication system includes an input device 2, an authentication processing unit 10, a storage device 14, a display unit 15, an input unit 16, a speaker 17, and an image input unit 18.

入力装置2は、被認証者の生体から生体特徴を含む画像を取得する装置である。入力装置2は、筐体に設置された光源3と、その筐体内部に設置された撮像装置9とを含む。画像入力部18は、入力装置2の撮像装置9で撮影された画像を取得し、取得した画像を認証処理部10へ入力する。認証処理部10は、画像入力部18から入力された画像に対して画像処理し、認証処理を実行する。   The input device 2 is a device that acquires an image including a biometric feature from the authentication subject's biometric. The input device 2 includes a light source 3 installed in a housing and an imaging device 9 installed in the housing. The image input unit 18 acquires an image captured by the imaging device 9 of the input device 2 and inputs the acquired image to the authentication processing unit 10. The authentication processing unit 10 performs image processing on the image input from the image input unit 18 and executes authentication processing.

なお、認証処理部10の画像処理機能の部分、又は、この画像処理機能に画像入力部18を含めて画像処理部という場合がある。いずれにしても、認証処理部10は画像処理機能を備える。   The image processing function portion of the authentication processing unit 10 or the image processing function including the image input unit 18 may be referred to as an image processing unit. In any case, the authentication processing unit 10 has an image processing function.

光源3は、例えば、LED(Light Emitting Diode)などの発光素子であり、入力装置2の上に提示された指1に光を照射する。撮像装置9は、入力装置2に提示された指1の画像を撮影するものである。   The light source 3 is a light emitting element such as an LED (Light Emitting Diode), for example, and irradiates light on the finger 1 presented on the input device 2. The imaging device 9 captures an image of the finger 1 presented on the input device 2.

図1Aに示すように、認証処理部10は、中央処理部(CPU:Central Processing Unit)11、メモリ12及び種々のインターフェイス(IF)13を含む。CPU11は、メモリ12に記憶されているプログラムを実行することによって各種処理を行う。メモリ12は、CPUによって実行されるプログラムを記憶する。また、メモリ12は、画像入力部18から入力された画像を一時的に記憶する。   As shown in FIG. 1A, the authentication processing unit 10 includes a central processing unit (CPU) 11, a memory 12, and various interfaces (IF) 13. The CPU 11 performs various processes by executing a program stored in the memory 12. The memory 12 stores a program executed by the CPU. The memory 12 temporarily stores the image input from the image input unit 18.

図1Bは、認証処理部10の機能ブロック図を示す。認証処理部10は、認証部10aと、登録部10bとを備える。認証部10aは、画像入力部18から入力された入力データと、記憶装置14に登録されている登録データとを照合し、利用者の認証を行う。登録部10bは、入力装置2によって取得された画像から、登録データを作成し、記憶装置14内に格納する。   FIG. 1B shows a functional block diagram of the authentication processing unit 10. The authentication processing unit 10 includes an authentication unit 10a and a registration unit 10b. The authentication unit 10a compares the input data input from the image input unit 18 with the registration data registered in the storage device 14, and authenticates the user. The registration unit 10 b creates registration data from the image acquired by the input device 2 and stores it in the storage device 14.

上述の認証処理部10の各処理部は、各種プログラムにより実現することができる。メモリ12には、例えば記憶装置14に格納されている各種プログラムが展開される。CPU11は、メモリ12にロードされたプログラムを実行する。以下で説明する認証処理部10を主体とする処理及び演算は、CPU11が実行する。   Each processing unit of the above-described authentication processing unit 10 can be realized by various programs. For example, various programs stored in the storage device 14 are expanded in the memory 12. The CPU 11 executes a program loaded on the memory 12. The CPU 11 executes processes and operations mainly performed by the authentication processing unit 10 described below.

インターフェイス13は、認証処理部10と外部の装置とを接続する。具体的には、インターフェイス13は、入力装置2、記憶装置14、表示部15、入力部16、スピーカ17及び画像入力部18などと接続される。   The interface 13 connects the authentication processing unit 10 and an external device. Specifically, the interface 13 is connected to the input device 2, the storage device 14, the display unit 15, the input unit 16, the speaker 17, the image input unit 18, and the like.

記憶装置14は、利用者の登録データを予め記憶している。登録データは、利用者を照合するための情報であり、例えば、指静脈パターンの画像等である。通常、指静脈パターンの画像は、主に指の掌側の皮下に分布する血管(指静脈)を暗い影のパターンとして撮像した画像である。   The storage device 14 stores user registration data in advance. The registration data is information for collating users, and is, for example, an image of a finger vein pattern. Usually, a finger vein pattern image is an image obtained by capturing blood vessels (finger veins) distributed mainly under the skin on the palm side of a finger as a dark shadow pattern.

表示部15は、例えば、液晶ディスプレイであり、認証処理部10から受信した情報を表示する出力装置である。入力部16は、例えば、キーボードであり、利用者から入力された情報を認証処理部10に送信する。スピーカ17は、認証処理部10から受信した情報を、音響信号(例えば、音声)で発信する出力装置である。   The display unit 15 is, for example, a liquid crystal display, and is an output device that displays information received from the authentication processing unit 10. The input unit 16 is, for example, a keyboard, and transmits information input from the user to the authentication processing unit 10. The speaker 17 is an output device that transmits information received from the authentication processing unit 10 as an acoustic signal (for example, voice).

図2Aは、第1の実施例の生体認証システムの入力装置2の構造を説明する断面図である。図2Bは、入力装置2を上面から見た図である。入力装置2は、指先の皮膚の多層構造に含まれる生体特徴を撮影する。入力装置2は、各種機器を設置する筐体21を備える。図2Bに示すように、筐体21は円筒形状を有し、筐体21は、開口部22を有する。   FIG. 2A is a cross-sectional view illustrating the structure of the input device 2 of the biometric authentication system according to the first embodiment. FIG. 2B is a view of the input device 2 as viewed from above. The input device 2 captures a biometric feature included in the multilayer structure of the fingertip skin. The input device 2 includes a casing 21 in which various devices are installed. As shown in FIG. 2B, the housing 21 has a cylindrical shape, and the housing 21 has an opening 22.

開口部22には透明アクリル板23がはめ込まれ、指1の指先がその上に載置される。この透明アクリル板23が、以下で説明する指1の載置領域となる。   A transparent acrylic plate 23 is fitted into the opening 22, and the fingertip of the finger 1 is placed thereon. The transparent acrylic plate 23 becomes a placement area for the finger 1 described below.

光源3は、筐体21の内側に具備されており、開口部22を通じて指1に向けて可視光を投影することができる。本実施例における光源3はLEDであるとし、1つのLEDの素子から青、緑、赤の3種類の波長の可視光がそれぞれ任意の強度で照射できるものとする。具体的な波長の一例として、青が450nm、緑が550nm、赤が620nmの波長を選択する。ただし、各波長のLED素子は一体となっていなくてもよい。またこれらの波長帯を含む連続的なスペクトルを持つ白色光源としてもよいが、波長ごとに個別に光量を調整できる方が望ましい。   The light source 3 is provided inside the housing 21 and can project visible light toward the finger 1 through the opening 22. It is assumed that the light source 3 in the present embodiment is an LED, and visible light of three types of wavelengths of blue, green, and red can be irradiated with arbitrary intensities from one LED element. As an example of a specific wavelength, a wavelength of 450 nm for blue, 550 nm for green, and 620 nm for red is selected. However, the LED elements of the respective wavelengths may not be integrated. Moreover, although it is good also as a white light source with a continuous spectrum including these wavelength bands, it is desirable that the light quantity can be individually adjusted for each wavelength.

本実施例では、4つの光源3が、撮像装置9の周囲に配置されており、開口部22を介して被写体(指先)を一様に照らすことができる。また、光源3の照射する光がアクリル板23に反射すると被写体が見えなくなるため、ここで示す4つの光源3を時系列的に点灯して被写体を連続撮影し、各画像をHDR(High dynamic range)技術により合成し、反射成分のない鮮明な被写体を獲得してもよい。   In the present embodiment, four light sources 3 are arranged around the imaging device 9 and can uniformly illuminate the subject (fingertip) through the opening 22. In addition, when the light emitted from the light source 3 is reflected on the acrylic plate 23, the subject cannot be seen. Therefore, the four light sources 3 shown here are lighted in time series to continuously photograph the subject, and each image is captured by HDR (High Dynamic Range). ) The image may be synthesized by a technique to obtain a clear subject having no reflection component.

また、撮像装置9はカラーカメラであるものとし、可視光と赤外光の波長帯に感度を持つ複数の受光素子を有する。カラーカメラ9は、たとえば青(B)、緑(G)、赤(R)に感度を持つ3種類のCMOS又はCCD素子を有し、これらが画像の画素ごとに格子状に配置されている。また、赤に感度を持つ受光素子は近赤外にも感度を有する。カラーカメラ9は受光感度のピーク波長が異なる3つの受光センサを持つ。各受光センサの受光感度は、たとえば青で450nm付近、緑で550nm付近、赤で620nm付近に受光感度のピークを持つセンサから構成され、それぞれの波長の感度より、生体から放射された光の空間的な色分布を獲得できる。また、撮影されるカラー画像は、RGBそれぞれの色プレーンが独立に獲得できるRGBカラー画像形式であるとする。なお、撮像装置9は、3波長を超えるマルチスペクトルカメラであってもよい。また、撮像装置9には光源3の出力するすべての光の波長を透過し、それ以外の帯域を遮断するフィルタが備えられており、不要な迷光を遮断して画質を高めている。   The imaging device 9 is assumed to be a color camera and has a plurality of light receiving elements having sensitivity in visible and infrared wavelength bands. The color camera 9 has, for example, three types of CMOS or CCD elements having sensitivity to blue (B), green (G), and red (R), and these are arranged in a grid for each pixel of the image. In addition, a light receiving element having sensitivity to red has sensitivity to near infrared. The color camera 9 has three light receiving sensors having different peak wavelengths of light receiving sensitivity. The light receiving sensitivity of each light receiving sensor is composed of sensors with light receiving sensitivity peaks, for example, around 450 nm for blue, 550 nm for green, and 620 nm for red, and the space of light emitted from the living body based on the sensitivity of each wavelength. Color distribution can be obtained. Further, it is assumed that the color image to be shot is in an RGB color image format in which each RGB color plane can be acquired independently. Note that the imaging device 9 may be a multispectral camera having more than three wavelengths. In addition, the imaging device 9 is provided with a filter that transmits all wavelengths of light output from the light source 3 and blocks other bands, thereby blocking unnecessary stray light and improving image quality.

以上の構成により、入力装置2は、複数の可視光を照射することで指先の皮膚内に存在する様々な生体特徴を撮影することができる。ここで、皮膚内の生体組織について詳述する。   With the above configuration, the input device 2 can shoot various biological features existing in the skin of the fingertip by irradiating a plurality of visible lights. Here, the living tissue in the skin will be described in detail.

図3は、体表付近の生体組織を説明するための皮膚断面の模式図である。皮膚は多層構造を成しており、大別すると表皮34、真皮層35、皮下組織36の3つに分類される。表皮34は最も外側の層であり、表面には凹凸が存在し、これが皮膚のしわとして観察される。特に指先における凹凸は指紋31として知られている。また、指の関節部や手のひらには、それぞれ関節紋、掌紋と呼ばれるしわが存在するが、この部分の表皮は薄く、真皮や更に深部の血液の赤色を呈する。また、表皮34の奥側にはメラニンを生成する細胞組織が存在し、白色、黄色、茶褐色などの皮膚の色を呈すると共に、しみやほくろといった不均一な紋様を形成する。   FIG. 3 is a schematic view of a skin cross section for explaining a living tissue near the body surface. The skin has a multi-layered structure, and is roughly classified into an epidermis 34, a dermis layer 35, and a subcutaneous tissue 36. The epidermis 34 is the outermost layer, and there are irregularities on the surface, which are observed as wrinkles on the skin. In particular, the unevenness at the fingertip is known as a fingerprint 31. In addition, there are wrinkles called joint prints and palm prints in the joints and palms of the fingers, but the epidermis of this part is thin, and the red color of the dermis and deeper blood is exhibited. Further, on the back side of the epidermis 34, there is a cellular tissue that generates melanin, and the skin color such as white, yellow, brown, etc. is formed, and an uneven pattern such as a blotch or a mole is formed.

表皮34の奥に存在する層が真皮層35である。真皮層35は、線維芽細胞やコラーゲン、エラスチンなどの組織で形成され、その中には皮脂線、汗腺、神経、そして毛細血管32や静脈30が分布しており、場所によっては毛根も存在する。皮膚の赤み掛った色彩は、この真皮層35の毛細血管32により運ばれる血液によるものである。   A layer existing behind the epidermis 34 is a dermis layer 35. The dermis layer 35 is formed of tissues such as fibroblasts, collagen, and elastin, and sebum lines, sweat glands, nerves, capillaries 32 and veins 30 are distributed therein, and hair roots also exist depending on the location. . The reddish color of the skin is due to blood carried by the capillaries 32 of the dermis layer 35.

最も奥に存在する層が皮下組織36である。皮下組織36には、比較的太い静脈30や動脈が存在すると共に、皮下脂肪が存在している。皮下脂肪は、脂肪細胞が一つの塊を成した小葉構造となっており、この塊を脂肪小葉33と呼ぶ。脂肪組織はこの脂肪小葉33が多層に重なり合い、その隙間を微小血管や静脈30が走行する構造となっている。すなわち、脂肪小葉33の存在する部分は血液が存在せず、その隙間にのみ血液が分布している。   The deepest layer is the subcutaneous tissue 36. In the subcutaneous tissue 36, a relatively thick vein 30 and artery are present, and subcutaneous fat is present. Subcutaneous fat has a leaflet structure in which fat cells form one lump, and this lump is called a fat leaflet 33. The adipose tissue has a structure in which the fat leaflets 33 are stacked in multiple layers, and microvessels and veins 30 run through the gaps. That is, no blood exists in the portion where the fat leaflet 33 exists, and the blood is distributed only in the gap.

一般的に、皮膚に対して赤外線を透過または反射させて撮影した映像には静脈パターンが暗い影となって観測される。これは、赤外線が血液中のヘモグロビンに強く吸収されるため、静脈30の部分の光量が低下することによる。一方、静脈30よりも浅い層には毛細血管32が存在しており、実際には毛細血管32による光の吸収も生じている。それにもかかわらず、毛細血管32の模様はほとんど観測されずに静脈30の模様だけが観測される。その理由は、静脈30が毛細血管32よりも相対的に太く、それに伴い光の吸収率も毛細血管32によるものより大きいためである。   In general, a vein pattern is observed as a dark shadow in an image captured by transmitting or reflecting infrared rays with respect to the skin. This is because the amount of light in the portion of the vein 30 is reduced because infrared rays are strongly absorbed by hemoglobin in the blood. On the other hand, capillaries 32 exist in layers shallower than the veins 30, and light absorption by the capillaries 32 actually occurs. Nevertheless, the pattern of the capillary vessel 32 is hardly observed, and only the pattern of the vein 30 is observed. This is because the vein 30 is relatively thicker than the capillaries 32 and the light absorption rate is accordingly larger than that of the capillaries 32.

これに対し、白色光などの可視光を透過または反射させてカラー撮影した皮膚の映像には、皮膚表面の凹凸による陰影や、表皮内のメラニンの白色あるいは黄褐色、真皮の毛細血管内の血液の赤、そして皮下組織36に存在する静脈30の青もしくは灰色など、皮膚内外に存在する様々な生体組織が呈する色彩が重畳された状態で観測される。特に表皮から真皮にかけての浅い皮膚層の色彩としては、血液が多く分布している部分は赤色を呈し、そうでない部分はメラニンの色素が支配的となって白あるいは黄色を呈する。   In contrast, skin images captured in color by transmitting or reflecting white light or other visible light include shadows due to irregularities on the surface of the skin, white or yellow-brown melanin in the epidermis, blood in dermal capillaries. Red and the blue or gray of the veins 30 present in the subcutaneous tissue 36 are observed in a state in which colors exhibited by various biological tissues existing inside and outside the skin are superimposed. In particular, as for the color of the shallow skin layer from the epidermis to the dermis, the portion where blood is largely distributed is red, and the other portion is white or yellow because the melanin pigment is dominant.

特に手指や手のひらにおいては、血液とメラニンによる皮膚の色彩は一様ではなく、不均一なまだら模様として観察される。これは主に血液の分布が不均一であることに起因する。血液の分布が不均一になる要因として、血管の走行の不均一性によるものと、血液が浸潤している層の厚みの不均一性によるものがある。前者に関し、真皮内の毛細血管32は極めて細く、照射光の散乱の影響もあってその模様はほとんど観測できず、ほぼ一様な赤色として観測される。よって、後者の影響が主な要因となる。   Especially in the fingers and palms, the skin color due to blood and melanin is not uniform, and is observed as a non-uniform mottled pattern. This is mainly due to the uneven distribution of blood. There are two causes of non-uniform blood distribution: non-uniformity of blood vessel running and non-uniform thickness of the layer infiltrated with blood. Regarding the former, the capillaries 32 in the dermis are extremely thin, and the pattern is hardly observed due to the influence of scattering of irradiation light, and is observed as a substantially uniform red color. Therefore, the latter effect is the main factor.

血液の浸潤する層が不均一となる理由のひとつとして考えられるものは脂肪小葉33の影響である。上述の通り、皮下組織36に存在する脂肪小葉33は脂肪の塊であり、その内部にはヘモグロビンを含まないため光の強い吸収は生じない。一方、脂肪小葉33の隙間には血液が充満しているためヘモグロビンを含む。よって、脂肪小葉33が存在する部分は真皮の毛細血管による光の吸収だけが生じ、脂肪小葉33の隙間の部分は真皮層35と皮下組織36の両方の血液の層による光の吸収が生じる。そのため、脂肪小葉33の分布の不均一性が血液の吸収率の差として観測される。また、脂肪小葉33が皮膚の奥から外に向けて真皮層35を圧迫し、脂肪小葉33が存在する部分の真皮内の血液量が低減する影響もある。これも同様に脂肪小葉33が存在する部分の血液による光の吸収量が低減し、その結果、不均一な模様として観察される。この2つの要因が複合して、脂肪小葉33の模様がヘモグロビンとメラニンとのコントラストとして観測される。ここでは、このコントラストを脂肪紋と呼ぶ。   One possible reason for the unevenness of the blood infiltrating layer is the effect of the fat leaflets 33. As described above, the fat lobule 33 present in the subcutaneous tissue 36 is a mass of fat and does not contain hemoglobin in the inside thereof, so that strong light absorption does not occur. On the other hand, since the space between the fat leaflets 33 is filled with blood, it contains hemoglobin. Therefore, the portion where the fat leaflets 33 are present only absorbs light by the dermal capillaries, and the portion of the gap between the fat leaflets 33 absorbs light by the blood layers of both the dermis layer 35 and the subcutaneous tissue 36. Therefore, the uneven distribution of the fat leaflets 33 is observed as a difference in blood absorption rate. In addition, the fat leaflets 33 press the dermis layer 35 outward from the back of the skin, and the blood volume in the dermis where the fat leaflets 33 are present is also reduced. Similarly, the amount of light absorbed by the blood in the portion where the fat leaflets 33 are present is reduced, and as a result, it is observed as a non-uniform pattern. By combining these two factors, the pattern of the fat leaflet 33 is observed as the contrast between hemoglobin and melanin. Here, this contrast is called a fat pattern.

脂肪紋は、皮膚表面に何も触れていない非接触な状態だけではなく、接触状態においても観測される。たとえば指先を透明なアクリル板に押し付けた時、圧迫の力加減によって血液の量が変化するため血液とメラニンの色彩の模様は変化するものの、脂肪小葉33の位置そのものは変化しないため、パターンとしての再現性は保たれる。したがって、圧迫の力加減による血流量の変動を吸収することができれば、パターンが同一なものであるかどうかを判定することが可能となる。   The fat pattern is observed not only in a non-contact state where nothing touches the skin surface but also in a contact state. For example, when the fingertip is pressed against a transparent acrylic plate, the amount of blood changes due to the pressure applied, so the color pattern of blood and melanin changes, but the position of the fat leaflet 33 does not change, so Reproducibility is maintained. Therefore, if it is possible to absorb the change in blood flow due to the pressure force, it is possible to determine whether the patterns are the same.

以上のように、皮膚では、指紋、ほくろなどのメラニン分布、脂肪紋、静脈、指関節など、多層に重畳した生体特徴が観測できる。これらの生体特徴は識別能力の高いものから低いものまで様々存在するが、少なくとも単体の認識成功率が0.5を上回るものであれば複数の生体特徴の融合により認証精度を高めることが可能となる。このような多層の生体情報を個人認証に活用する認証方式をマルチレイヤー生体認証と称する。この方式の利点として、(1)同時に多数の異なる生体情報が獲得できるため精度が高まる、(2)互いに重畳しているため位置補正用の情報として活用でき、さらに重なりの特徴を活用することでより精度が高まる、(3)脂肪紋などは密な特徴量であり、装置の小型化が実現しやすい、(4)偽造がより一層困難となる、などがある。   As described above, in the skin, biological features superimposed in multiple layers such as melanin distribution such as fingerprints and moles, fat prints, veins, and finger joints can be observed. These biometric features vary from those with high discrimination ability to those with low identification ability. However, if at least the recognition success rate of a single unit exceeds 0.5, authentication accuracy can be improved by fusing a plurality of biometric features. An authentication method that utilizes such multilayer biometric information for personal authentication is referred to as multi-layer biometric authentication. The advantages of this method are: (1) accuracy can be increased because a large number of different biological information can be acquired at the same time, and (2) it can be used as information for position correction because it is superimposed on each other, and further by utilizing the features of overlap. The accuracy is further increased, (3) fat prints and the like are dense feature amounts, and it is easy to realize downsizing of the apparatus, and (4) forgery becomes more difficult.

ここで、脂肪紋の情報を獲得する計測技術の一実施例を示す。図4は、上述の図2A及び図2Bで示した入力装置2を用いて脂肪紋を計測する処理フローの一例である。   Here, an embodiment of a measurement technique for acquiring fatprint information will be described. FIG. 4 is an example of a processing flow for measuring a fat pattern using the input device 2 shown in FIGS. 2A and 2B.

まず、利用者が指1を入力装置2の載置領域に載せたことを検知する(S401)。この検知方法としては、タッチセンサを入力装置2の開口部22に具備してもよい。また、別の検知方法として、光源3を点滅させて画像を動画撮影し、光源3の点滅に同期して画像の輝度値の明暗が繰り返された場合は装置上部に被写体が存在すると判定してもよい。   First, it is detected that the user places the finger 1 on the placement area of the input device 2 (S401). As this detection method, a touch sensor may be provided in the opening 22 of the input device 2. As another detection method, when the light source 3 is blinked and an image is shot, and the brightness value of the image is repeated in synchronization with the blinking of the light source 3, it is determined that the subject exists above the apparatus. Also good.

次に、指1が入力装置2の載置領域にあるかを判定し(S402)、指1があると判定された場合は、LED(光源3)の青・緑・赤のそれぞれの波長の光を指に照射しながら光源3の照射強度を調整する(S403)。カメラ感度や光源3の出力強度の関係により画像の輝度値が飽和することがあるため、各波長で画像の輝度平均値が概ね一定になるように照射と撮影を繰り返し、光量値を収束させる。各波長の光量値が収束したら、その時の各波長の画像を撮影し、指表面のカラー画像を獲得する(S404)。入力装置2で獲得された画像は、画像入力部18を介して認証処理部10に入力される。   Next, it is determined whether the finger 1 is in the placement area of the input device 2 (S402). If it is determined that the finger 1 is present, the blue (green) and red (red) wavelengths of the LED (light source 3) are determined. The irradiation intensity of the light source 3 is adjusted while irradiating the finger with light (S403). Since the luminance value of the image may be saturated depending on the relationship between the camera sensitivity and the output intensity of the light source 3, irradiation and photographing are repeated so that the average luminance value of the image becomes substantially constant at each wavelength to converge the light amount value. When the light intensity values of the respective wavelengths converge, an image of each wavelength at that time is taken and a color image of the finger surface is acquired (S404). The image acquired by the input device 2 is input to the authentication processing unit 10 via the image input unit 18.

カラー画像として撮影された生体表面あるいは生体表面付近の内部組織の色彩情報には、指紋などの皮膚表面の凹凸や関節部分のしわなどの表皮34の情報のほか、表皮34に分布するメラニン色素、真皮層35に存在する毛細血管32、そしてその奥の皮下組織36に存在する脂肪小葉33や静脈30など、様々な深さに存在する様々な色特性を持った生体組織の反射像が含まれている。たとえば、指の腹側はヘモグロビンに起因する赤み掛った血液の色と、メラニンに起因する白、黄色あるいはほくろなどの黒色の模様が見え、さらに真皮層35あるいは皮下組織36に分布する比較的太い静脈30が青もしくは灰色に見える。このように、多波長の可視反射光を与えることで、様々な生体組織の色情報が重畳して1枚の反射画像として観測できる。   The color information of the surface of the living body taken as a color image or the internal tissue in the vicinity of the living body surface includes information on the epidermis 34 such as unevenness of the skin surface such as fingerprints and wrinkles of the joints, as well as melanin pigment distributed in the epidermis 34, Includes reflection images of living tissue having various color characteristics such as capillaries 32 existing in the dermis layer 35 and fat leaflets 33 and veins 30 existing in the subcutaneous tissue 36 in the back thereof. ing. For example, on the ventral side of the finger, a red blood color caused by hemoglobin and a black pattern such as white, yellow, or mole caused by melanin are seen, and the relatively thick distributed in the dermis layer 35 or the subcutaneous tissue 36. The vein 30 appears blue or gray. In this way, by providing multi-wavelength visible reflected light, color information of various biological tissues can be superimposed and observed as one reflected image.

次に、認証処理部10の認証部10aは、撮影されたカラー画像を用いてメラニンとヘモグロビンの色素濃度の分布を計測する(S405)。ここで、脂肪紋の情報を獲得するためにメラニンとヘモグロビンの色素量を計測する理由について述べる。個人認証に用いることのできる、たとえば指紋や静脈などの生体特徴は、ヘモグロビンやメラニンをはじめとする基本的な生体組織により構成されている。また、生体組織の存在する位置や生体組織の厚さなどの違いによっても生体特徴としては異なる部位となる。たとえば真皮層35の毛細血管32と皮下組織36の静脈30は共にヘモグロビンから形成されているが、真皮層35の毛細血管32は赤く、皮下組織36の静脈30は青く見えることから生体特徴としては異なるものであることが把握できる。さらに、関節紋は表皮が薄くなって赤みを呈する部位であり、基本的には真皮層35の毛細血管32と同じヘモグロビンの色彩ではあるが、その他の皮膚の部分に比べて表皮の厚み(凹凸の有無)が薄い。そのため、関節紋は、メラニン量が僅かであるという点において、真皮層35の毛細血管32とは異なる生体特徴として捉えられる。このように、特に皮膚の生体特徴を撮影して抽出する上では、ヘモグロビンとメラニンの色彩の強度を解析することが重要であり、メラニンとヘモグロビンの色素濃度の分布を計測することで、指の内部の複数の生体組織が呈する色彩が重畳した状態を考慮した情報を得ることができる。   Next, the authentication unit 10a of the authentication processing unit 10 measures the distribution of pigment concentrations of melanin and hemoglobin using the photographed color image (S405). Here, the reason for measuring the pigment amount of melanin and hemoglobin in order to acquire fatprint information will be described. Biological features such as fingerprints and veins that can be used for personal authentication are composed of basic biological tissues such as hemoglobin and melanin. In addition, depending on the position where the living tissue exists, the thickness of the living tissue, and the like, the body features are different parts. For example, the capillaries 32 of the dermis layer 35 and the veins 30 of the subcutaneous tissue 36 are both formed of hemoglobin, but the capillaries 32 of the dermis layer 35 are red and the veins 30 of the subcutaneous tissue 36 appear blue, so that the biological features are You can see that they are different. Further, the joint crest is a portion where the epidermis is thin and reddish, and basically has the same hemoglobin color as the capillaries 32 of the dermis layer 35, but the thickness of the epidermis (unevenness) compared to other skin portions. Thin). Therefore, the joint pattern is regarded as a biological feature different from the capillary 32 of the dermis layer 35 in that the amount of melanin is small. Thus, it is important to analyze the intensity of the color of hemoglobin and melanin, especially when photographing and extracting biological features of the skin, and by measuring the pigment concentration distribution of melanin and hemoglobin, It is possible to obtain information in consideration of a state in which colors exhibited by a plurality of internal biological tissues are superimposed.

そこで、本実施例では、反射画像の色彩情報より表皮のメラニンと真皮のヘモグロビンの空間的な濃度分布をそれぞれ独立に獲得し、それらに基づいて脂肪紋の画像を高精細に再構成する。なお、以下の例では、脂肪紋の計測として、メラニンとヘモグロビンの色素濃度の分布を計測するが、上述したように、メラニンとヘモグロビンの色素濃度の計測は、他の生体特徴、たとえば指紋、ほくろやしみ、静脈、関節紋などの計測にも適用可能である。   Therefore, in this embodiment, the spatial density distributions of the melanin of the epidermis and the hemoglobin of the dermis are obtained independently from the color information of the reflected image, and the fat pattern image is reconstructed with high definition based on them. In the following example, the distribution of pigment concentration of melanin and hemoglobin is measured as the measurement of fat crest, but as described above, the measurement of pigment concentration of melanin and hemoglobin is performed using other biological features such as fingerprints and moles. It can also be applied to the measurement of stains, veins, joint prints, etc.

メラニンの濃度とヘモグロビンの濃度を独立に獲得する手法の一実施例は次の通りである。まず、Modified Lambert-beer則によると、画像の座標(x,y)におけるヘモグロビン濃度をρh(x,y)、メラニン濃度をρm(x,y)としたとき、これらと画像の色情報Clog(x,y)との関係は以下の式(1)で示されることが知られている。 An example of a technique for independently acquiring the melanin concentration and the hemoglobin concentration is as follows. First, according to the Modified Lambert-beer rule, when the hemoglobin concentration at the image coordinates (x, y) is ρ h (x, y) and the melanin concentration is ρ m (x, y), these and the color information of the image It is known that the relationship with C log (x, y) is expressed by the following equation (1).

Clog(x,y) = -ρm(x,y)σmlm - ρh(x,y)σhlh- plog(x,y)1 + elog ・・・(1) C log (x, y) = -ρ m (x, y) σ m l mh (x, y) σ h l h -p log (x, y) 1 + e log ... (1)

ここで、Clog(x,y)は画像の座標(x,y)におけるRGBのカラー画像の各色要素の画素値に対数を施した値を3次元ベクトルで表現した値、σh、σmはそれぞれヘモグロビンとメラニンの色ベクトル、lh、lmはそれぞれヘモグロビンとメラニンの存在する層に到達して反射する光の平均移動距離、plog(x,y)は座標(x,y)における影の強さ、1はノルムが1の3次元単位ベクトル、elogは照射光の強度である。色ベクトルとは、単位濃度の生体組織を反射撮影したときに得られるRGBの各輝度値のベクトルであり、たとえばその生体組織が完全な赤であれば3次元ベクトルの赤を示す要素のみ値を持ち、青と緑の要素がゼロとなる。この式によると、観測画像の輝度値は、その対数を取ることによってヘモグロビン濃度とメラニン濃度の線形結合で表わせることが示されている。 Here, C log (x, y) is a value obtained by logarithmizing the pixel value of each color element of the RGB color image at the image coordinates (x, y) as a three-dimensional vector, σ h, σ m Are the color vectors of hemoglobin and melanin, l h and l m are the average distance traveled by the light that reaches and reflects the layer where hemoglobin and melanin are present, respectively, and p log (x, y) is in coordinates (x, y) The intensity of the shadow, 1 is a three-dimensional unit vector having a norm of 1, and e log is the intensity of the irradiation light. The color vector is a vector of RGB luminance values obtained when a biological tissue of unit density is reflected and taken. For example, if the biological tissue is completely red, only the element indicating red in the three-dimensional vector is used. The blue and green elements are zero. According to this equation, it is shown that the luminance value of the observed image can be expressed by a linear combination of the hemoglobin concentration and the melanin concentration by taking the logarithm thereof.

ここで、式(1)からヘモグロビンとメラニンの濃度を推定する手法について述べる。前提として、ヘモグロビンとメラニンの色ベクトルを既知とし、ヘモグロビンとメラニンに到達する光の平均移動距離をそれぞれ、平均的な真皮と表皮の層の厚みの和、表皮層の厚み、とし、バイアス項を無視すると、未知数はヘモグロビンとメラニンの濃度と影情報の3つとなる。このとき、撮影画像の色空間はRGBの3次元であることから、カラー画像を撮影することで3つの方程式が得られる。よって、これらを連立方程式として解くことにより、ヘモグロビンとメラニン濃度、そして影の情報の3つの未知数を画素ごとに計算することができる。ただし、バイアス項を無視しているためそれぞれの相対的な濃度分布の情報となる。   Here, a method for estimating the concentrations of hemoglobin and melanin from Equation (1) will be described. The assumption is that the color vectors of hemoglobin and melanin are known, and the average distance traveled by light reaching hemoglobin and melanin is the sum of the average dermis and epidermis layer thickness, the thickness of the epidermis layer, and the bias term If ignored, there are three unknowns: hemoglobin and melanin concentrations and shadow information. At this time, since the color space of the photographed image is RGB three-dimensional, three equations can be obtained by photographing the color image. Therefore, by solving these as simultaneous equations, three unknowns of hemoglobin, melanin concentration, and shadow information can be calculated for each pixel. However, since the bias term is ignored, the relative density distribution information is obtained.

以上より、ヘモグロビン、メラニンの濃度の相対的な分布の情報、すなわちこれらの模様を得ることができる。また、陰影の情報も得られることから、皮膚表面の凹凸による光の減衰や拡散により観測できる指紋パターンも獲得することが可能となる。しかしながら、指紋パターンはその空間的なピッチが概ね一定であることから、上記の影のパラメータからその模様を獲得する必要はなく、ガボールフィルタをはじめとするエッジ強調フィルタの適用により強調して獲得してもよい。   From the above, information on the relative distribution of the hemoglobin and melanin concentrations, that is, these patterns can be obtained. In addition, since it is possible to obtain shading information, it is possible to obtain a fingerprint pattern that can be observed by light attenuation or diffusion due to unevenness on the skin surface. However, since the spatial pitch of the fingerprint pattern is almost constant, it is not necessary to acquire the pattern from the above shadow parameters, and it is acquired by emphasizing by applying an edge enhancement filter such as a Gabor filter. May be.

図5A〜図5Cは、色空間から生体組織の濃度を算出する式(1)を説明するための模式図である。これらの図では、RGBの観測画像の輝度値の対数である3次元空間と、ある座標の輝度値として獲得された画素値とが式(1)の関係によって成り立つことが示されている。図5Aでは、ある画素の画素値Clogが、3次元空間の1点としてプロットされている。ここで、σh、σmがそれぞれ図5Bの通りであったとする。ここで、影の方向を示す1ベクトルに沿ってσhとσmが成す平面に投影すると、図5Cのように、ヘモグロビン濃度ρhの相対値とメラニン濃度ρmの相対値を読み取ることができる。 5A to 5C are schematic diagrams for explaining the equation (1) for calculating the concentration of the biological tissue from the color space. In these figures, it is shown that the three-dimensional space that is the logarithm of the luminance value of the RGB observation image and the pixel value acquired as the luminance value of a certain coordinate are established by the relationship of Expression (1). In FIG. 5A, the pixel value C log of a certain pixel is plotted as one point in a three-dimensional space. Here, it is assumed that σ h and σ m are as shown in FIG. 5B. Here, when projected onto the plane formed by σ h and σ m along one vector indicating the direction of the shadow, the relative value of the hemoglobin concentration ρ h and the relative value of the melanin concentration ρ m can be read as shown in FIG. 5C. it can.

上述の方法では、式(1)に含まれるヘモグロビンとメラニンの色ベクトルσh、σmは既知であるとした。これらの値は、各生体の吸光・散乱特性、光源の波長、センサの分光感度特性によって決定される。よって、生体の吸光・散乱特性とカメラの特性とを事前に調べておくことで、既知のパラメータとして扱うことはできる。 In the above method, the color vectors σ h and σ m of hemoglobin and melanin included in the equation (1) are assumed to be known. These values are determined by the light absorption / scattering characteristics of each living body, the wavelength of the light source, and the spectral sensitivity characteristics of the sensor. Therefore, it can be handled as a known parameter by examining in advance the light absorption / scattering characteristics of the living body and the characteristics of the camera.

しかしながら、実用面を考慮すると、事前にカメラ感度や生体の色特性などを調査した上で色ベクトルのパラメータを決定することは困難である。そのため、ヘモグロビンとメラニンの濃度分布は互いに独立であることを仮定した上で、各生体組織の色ベクトルと濃度分布の両方が未知なままブラインド信号分離を行う独立成分分析(Independent Component Analysis; ICA)に基づく計算方法が提案されており、この方法を利用してもよい。一方、この方法は両濃度分布に相関がないことが前提であること、また物理的に正しい分離が行われる保証がないことから、用途としては限定的となる。   However, considering practical aspects, it is difficult to determine the color vector parameters after investigating the camera sensitivity and the color characteristics of the living body in advance. Therefore, it is assumed that the concentration distribution of hemoglobin and melanin is independent of each other, and independent component analysis (ICA) that performs blind signal separation without knowing both the color vector and concentration distribution of each biological tissue. A calculation method based on is proposed, and this method may be used. On the other hand, since this method is premised on that there is no correlation between the two concentration distributions, and there is no guarantee that a physically correct separation will be performed, the method is limited.

そこで本実施例では、指先の接触を利用した、生体の実測値に基づく色ベクトルの推定を実施する。図6A〜図6Dは、上述の図5A〜図5Cで示した色空間における、多数の座標の画素値の変化から生体組織の色ベクトルを推定する方法の説明図である。   Therefore, in this embodiment, color vectors are estimated based on actual measurement values of the living body using fingertip contact. 6A to 6D are explanatory diagrams of a method for estimating a color vector of a living tissue from changes in pixel values of a large number of coordinates in the color space shown in FIGS. 5A to 5C described above.

図2Aの入力装置2において指先をアクリル板23に押し付けると、通常は赤色を呈する皮膚表面がメラニンに起因する黄色あるいは白に変色する。これは、接触の圧力によって血液量が減少する一方で、圧力を掛けてもメラニンは減少しないことから、ヘモグロビンが呈する赤色のみ薄くなるために生じる。すなわち、指先でアクリル板23を押下したときの色情報の変化量を観測すると、その変化量からヘモグロビンが持つ色ベクトルを算出することができる。   When the fingertip is pressed against the acrylic plate 23 in the input device 2 of FIG. 2A, the skin surface that normally exhibits red color changes to yellow or white due to melanin. This occurs because only the red color exhibited by hemoglobin becomes thin because the blood volume is reduced by the pressure of contact, but melanin does not decrease even when pressure is applied. That is, when the change amount of the color information when the acrylic plate 23 is pressed with the fingertip is observed, the color vector possessed by hemoglobin can be calculated from the change amount.

図6Aは、指を押し付ける前の画素値60と、同じ座標における押し付けた後の画素値61の変化を示している。押し付けることにより血流が低減し、多くの画素値において色空間上で同じ方向に移動する様子が分かる。この移動方向はヘモグロビンの低減の影響によるため、図6Bに示すように、移動方向の平均値を求めることでヘモグロビンの色ベクトルσhを推定することができる。 FIG. 6A shows a change in the pixel value 60 before pressing the finger and the pixel value 61 after pressing at the same coordinates. By pressing, the blood flow is reduced, and it can be seen that many pixel values move in the same direction on the color space. Since this moving direction is affected by the reduction of hemoglobin, the color vector σ h of hemoglobin can be estimated by obtaining an average value in the moving direction as shown in FIG. 6B.

ヘモグロビンの色ベクトルが既知となったため、もうひとつの生体組織であるメラニンの色ベクトルσmを推定する。この一手法として、押し付け前後において色空間上で変動した距離の大きい画素の上位から所定の割合だけ取り出し、そのデータの押し付け後の画素値を直線近似した結果をそのままメラニンの色ベクトルとする方法がある。この方法は、指先の圧迫によりヘモグロビンがほぼ消失した場所が存在することを前提とした推定方法であり、誤差を含む可能性はあるが実用的には十分な近似解を得ることができる。図6Cは変動の大きい画素値を上位半数だけ残した状態を示し、図6Dはそのときの押し付け後の画素値61より近似直線を獲得してメラニンの色ベクトルσmを獲得する様子を示している。このように、ヘモグロビンとメラニンの色ベクトルを推定することができるため、それぞれの濃度を算出できる。 Since the color vector of hemoglobin is known, the color vector σ m of melanin, which is another biological tissue, is estimated. As one method, there is a method in which a predetermined ratio is extracted from the top of pixels with a large distance that fluctuates in the color space before and after pressing, and the result of linear approximation of the pixel value after pressing the data is directly used as a melanin color vector. is there. This method is an estimation method based on the premise that there is a place where hemoglobin has almost disappeared due to fingertip compression, and although there may be an error, a practically sufficient approximate solution can be obtained. FIG. 6C shows a state in which only the upper half of pixel values having large fluctuations are left, and FIG. 6D shows a state in which an approximate straight line is obtained from the pixel value 61 after pressing and a melanin color vector σ m is obtained. Yes. Thus, since the color vectors of hemoglobin and melanin can be estimated, the respective concentrations can be calculated.

上記のヘモグロビンの色特徴量の推定は物理的な変化を用いたものであるため、従来のICAに基づく手法に比べて信頼性の高い推定が可能となる。なお、上記で説明した推定方法は、指先でアクリル板23を押下したときの色情報の変化量を観測できれば利用できるため、指先を入力装置2のアクリル板23に接触させた又は押し付けたときの、少なくとも2つの異なる状態の画像が取得されればよい。   Since the above-described estimation of the hemoglobin color feature amount uses a physical change, it is possible to perform estimation with higher reliability than the conventional ICA-based method. In addition, since the estimation method demonstrated above can be used if the variation | change_quantity of the color information when pressing the acrylic board 23 with a fingertip can be observed, when the fingertip is made to contact or press the acrylic board 23 of the input device 2 The images in at least two different states may be acquired.

生体組織の色ベクトルを推定する別の方法として、生体特徴の形状に基づく推定方法を用いることもできる。この方法では、生体の形状より生体部位を推定し、その生体部位の色情報と一般的な生体部位が持つ生体組織の密度に関する事前知識から、生体組織の色ベクトルを推定するものである。たとえば、指の関節に見られる関節しわは、表皮が薄いためヘモグロビンに起因する赤色が周囲の表皮の色に比べて強く、メラニンに起因する色が薄い。よって指の関節しわの部分においては、ヘモグロビンの色特徴のみが強く表れ、メラニンの色特徴は少ないといえる。よって、指の輪郭線の形状より指の領域を特定し、そして指の方向と直交する赤みがかった線を関節しわとして位置を特定すれば、関節しわの部分の色情報をそのままヘモグロビンの色ベクトルとできる。このように、認証処理部10の認証部10aは、画像内の色情報から指の特定の部位を特定し、その部位の色情報をある色素の色ベクトルとみなしてもよい。この情報をもとに、認証処理部10の認証部10aは、ヘモグロビンの濃度分布の情報を得てもよい。   As another method for estimating the color vector of the biological tissue, an estimation method based on the shape of the biological feature can also be used. In this method, a living body part is estimated from the shape of the living body, and the color vector of the living body tissue is estimated from prior information regarding the color information of the living body part and the density of the living body tissue of a general living body part. For example, joint wrinkles found in the finger joints have a thin epidermis, so that the red color caused by hemoglobin is stronger than the color of the surrounding epidermis, and the color caused by melanin is light. Therefore, it can be said that only the color characteristic of hemoglobin appears strongly and the color characteristic of melanin is small in the wrinkled part of the finger. Therefore, if the finger region is specified from the shape of the contour of the finger and the position is specified by using a reddish line perpendicular to the finger direction as the joint wrinkle, the color information of the joint wrinkle portion is directly used as the color vector of the hemoglobin. it can. As described above, the authentication unit 10a of the authentication processing unit 10 may specify a specific part of the finger from the color information in the image, and may regard the color information of the part as a color vector of a certain pigment. Based on this information, the authentication unit 10a of the authentication processing unit 10 may obtain information on hemoglobin concentration distribution.

この方法は、上述の方法のように生体を圧迫することなく実施できるため、非接触の生体認証を実現する際に利用できるという利点を有する。なお、メラニンの色特徴量ついては、上述したように、ヘモグロビンの色特徴量が既知であるとして、ICAと同様の方法で推定してもよい。   Since this method can be performed without pressing the living body like the above-described method, it has an advantage that it can be used when realizing non-contact biometric authentication. Note that the melanin color feature amount may be estimated by the same method as ICA, assuming that the hemoglobin color feature amount is known, as described above.

上述のように獲得した生体組織の色特徴より、各画素においてヘモグロビンとメラニンとがどの程度の割合で存在しているかの情報を得ることができる。   From the color characteristics of the biological tissue acquired as described above, information on the proportion of hemoglobin and melanin present in each pixel can be obtained.

図4の説明に戻り、最後に、認証処理部10の認証部10aは、脂肪紋画像の再構成を行う(S406)。この例では、獲得した生体組織の量から個人に特有な生体特徴として、脂肪紋画像を得る。   Returning to the description of FIG. 4, finally, the authentication unit 10 a of the authentication processing unit 10 reconstructs a fatprint image (S <b> 406). In this example, a fatprint image is obtained as a biometric characteristic peculiar to an individual from the amount of acquired biomedical tissue.

上述で得たヘモグロビンとメラニンのパターンは、生体同士が多層に重なり合って観測されても独立に推定できるものである。そのため、たとえば毛細血管32のパターンに重なって分布するメラニンのパターンも獲得される。よって、本来獲得したい生体特徴、ここでは脂肪紋であれば、ヘモグロビンとメラニンの分布をそのまま脂肪紋の情報として取得し、この情報をもとに再構成した画像を認証に利用することができる。上述したように脂肪小葉33が存在する部分によってヘモグロビンとメラニンの分布が不均一になり、その分布の模様を脂肪紋とみなして利用できるためである。同様に、関節紋についても、この部分のメラニン量が僅かであるという観点から、ヘモグロビンの分布をそのまま関節紋の情報として用いることができる。ここでの関節紋は、指の関節の部分であって、表皮34が薄くなって赤みを呈する部位を意味する。   The pattern of hemoglobin and melanin obtained above can be estimated independently even when the living organisms are observed in multiple layers. Therefore, for example, a melanin pattern distributed over the capillary vessel 32 pattern is also obtained. Therefore, in the case of a biological feature to be originally acquired, in this case, a fat pattern, the distribution of hemoglobin and melanin can be directly acquired as fat pattern information, and an image reconstructed based on this information can be used for authentication. This is because, as described above, the distribution of hemoglobin and melanin becomes non-uniform depending on the portion where the fat leaflets 33 are present, and the pattern of the distribution can be used as a fat pattern. Similarly, with regard to the joint pattern, the hemoglobin distribution can be used as it is as the joint pattern information from the viewpoint that the amount of melanin in this portion is small. The joint crest here means a part of a finger joint, and a part where the epidermis 34 is thin and reddish.

ただし、脂肪紋と関節紋とを区別して抽出し、これらを同時に認証に利用する目的であれば、関節紋のメラニン分布が周囲より少ないという事前知識に基づき、脂肪紋と関節紋とを区別できる。つまり、ヘモグロビンの濃度分布の高い部分で構成される模様のうち、メラニンの濃度が相対的に高い部分が脂肪紋、低い部分が関節紋、として区別される。脂肪紋や関節紋だけでなく、たとえばほくろやしみなど他の生体特徴であっても、基本的な生体組織の組成比率が事前に把握できるのであれば、基本的な生体組織の濃度よりその生体特徴である確からしさを得ることができ、よりコントラストが高い生体特徴の画像再構成が実現できる。このように、認証処理部10の認証部10aは、S405で計測したヘモグロビンとメラニンの濃度分布の情報を用いて複数の生体特徴(ここでは、脂肪紋と関節紋)を区別して抽出し、画像を再構成してもよい。   However, if the purpose is to distinguish and extract fat prints and joint prints and use them for authentication at the same time, the fat prints and joint prints can be distinguished based on prior knowledge that the melanin distribution of the joint print is less than the surroundings. . That is, among the patterns composed of portions having a high hemoglobin concentration distribution, a portion having a relatively high melanin concentration is distinguished as a fat pattern and a portion having a low concentration as a joint pattern. If the composition ratio of the basic biological tissue can be grasped in advance, not only for fat and joint patterns, but also for other biological features such as moles and spots, the living body can be determined based on the concentration of the basic biological tissue. The certainty that is a feature can be obtained, and an image reconstruction of a biometric feature with higher contrast can be realized. As described above, the authentication unit 10a of the authentication processing unit 10 uses the information on the hemoglobin and melanin concentration distribution measured in S405 to distinguish and extract a plurality of biological features (in this case, a fat pattern and a joint pattern) to obtain an image. May be reconfigured.

また、ヘモグロビンとメラニンのコントラストを撮影するだけであれば、青あるいは緑の可視光を照射し、その反射光または透過光をカラーカメラ9で撮影してもよい。真皮に存在する赤い色を呈するヘモグロビンは緑あるいは青の波長で強く光を吸収し、黄や赤においては相対的に吸収率が低下することから、可視光で赤く見えるヘモグロビンのパターンの観測は、緑あるいは青の照射で十分である。ただし、透過光での観測は生体の厚みと光強度との関係により光が透過しにくく、手指の付け根の水かき部分や耳などの比較的薄い部分以外では強い光を照射する必要がある。一方、反射光による撮影では比較的弱い光量で観察できる。ただし得られた画像のコントラストが低い場合も多く、アンシャープマスクなどの強調フィルタを施すことで、脂肪紋あるいは関節紋などの毛細血管32に関わる生体特徴を鮮明に獲得できる。また同様に、赤の波長を照射することで深部に存在する静脈30を観測できる。それは、青や緑のような短波長の光では深部の静脈に到達できないためである。   Alternatively, if only the contrast between hemoglobin and melanin is to be photographed, blue or green visible light may be irradiated and the reflected light or transmitted light may be photographed by the color camera 9. The hemoglobin that has a red color in the dermis absorbs light strongly at the wavelength of green or blue, and the absorption rate decreases relatively in yellow and red, so the observation of the pattern of hemoglobin that looks red with visible light is Green or blue irradiation is sufficient. However, observation with transmitted light is difficult to transmit due to the relationship between the thickness of the living body and the light intensity, and it is necessary to irradiate with strong light except for a relatively thin part such as a webbed part or an ear at the base of a finger. On the other hand, it is possible to observe with a relatively weak light quantity when photographing with reflected light. However, there are many cases where the contrast of the obtained image is low, and by applying an enhancement filter such as an unsharp mask, biological features related to the capillary vessel 32 such as a fat pattern or a joint pattern can be clearly acquired. Similarly, the vein 30 existing in the deep part can be observed by irradiating the red wavelength. This is because short-wavelength light such as blue and green cannot reach deep veins.

このように、本来では複数波長の映像解析により混色した各生体組織を分離することでより鮮明な生体組織の観察が可能となるが、ここで示したように、観察したい生体組織に合わせて単色の可視光を照射するだけでも、一定の画質で撮影が可能となる。この方法では複雑な画像再構成技術が不要となるため処理コストを低減することが可能となる。   In this way, it is possible to observe a clearer biological tissue by separating each biological tissue that was originally mixed by image analysis of multiple wavelengths, but as shown here, it is monochromatic according to the biological tissue to be observed. Even if only visible light is irradiated, it is possible to shoot with constant image quality. This method eliminates the need for a complicated image reconstruction technique, so that the processing cost can be reduced.

続いて、図2A及び図2Bに示した入力装置2を用いて上述の方法で撮影した生体特徴を精度良く照合する一手法について述べる。入力装置2は、指先を載置領域(透明アクリル板23)に置くことが前提となるため、指先での圧迫による脂肪紋の変動が生じる。よって、この変動にロバストな照合処理を実施することが高精度化には必須となる。   Next, a method for accurately collating biometric features captured by the above-described method using the input device 2 shown in FIGS. 2A and 2B will be described. Since the input device 2 is based on the premise that the fingertip is placed on the placement area (transparent acrylic plate 23), the fat pattern fluctuates due to the pressure on the fingertip. Therefore, it is indispensable for high accuracy to perform a collation process robust to this variation.

図7A及び図7Bは、押し付け方の違いによる脂肪紋の変化を説明する図である。図7Aは、指1が入力装置2の載置領域に軽く接触している場合の脂肪紋の模様を示した図である。図7Aでは、指1の押し付けが弱く、血液の消失が少ないことから、指先画像70に映っている脂肪紋のうちの血液模様71の部分が比較的大きく観測できる。   FIG. 7A and FIG. 7B are diagrams for explaining a change in fat pattern due to a difference in pressing method. FIG. 7A is a diagram showing a pattern of fat prints when the finger 1 is in light contact with the placement area of the input device 2. In FIG. 7A, since the finger 1 is weakly pressed and blood disappears little, a portion of the blood pattern 71 in the fat pattern reflected in the fingertip image 70 can be observed relatively large.

一方、図7Bに示す通り、押し付ける力が図7Aに比べて強い場合は、血液模様71が一部消失し、消失していない血液模様72と消失した血液模様73に分けられる。その理由としては、毛細血管32や脂肪小葉33の存在する位置、形、大きさ、深さなどの関係によって、圧力を強く掛けても消えにくい毛細血管32と容易に消えてしまう毛細血管32とが分布しているためである。一方、圧力を掛けても毛細血管32や脂肪小葉33の形状そのものは変わらないため、繰り返し指先を押し付けてその圧力を変えると、これまで見えていた血液模様71が消失したり、逆に消失した血液模様73が再び観測されたりすることもある。このように、パターンそのものは再現するが、置き方によって変動が生じる。また、脂肪小葉33の位置や形状などの要因により、常に血液模様が観測される場所もあれば軽い圧力でも消失しやすい場所もあると考えられる。すなわち、血液模様が観測される確率分布を定量化することが可能となる。   On the other hand, as shown in FIG. 7B, when the pressing force is stronger than that in FIG. 7A, the blood pattern 71 partially disappears and is divided into a blood pattern 72 that has not disappeared and a blood pattern 73 that has disappeared. The reason is that the capillaries 32 and the capillaries 32 that disappear easily even if pressure is applied to the capillaries 32 and the capillaries 32 that easily disappear due to the relationship between the position, shape, size, depth, etc. of the capillaries 32 and the fat leaflets 33. This is because of the distribution. On the other hand, the shape of the capillaries 32 and the fat leaflets 33 themselves does not change even when pressure is applied. Therefore, when the pressure is changed by repeatedly pressing the fingertip, the blood pattern 71 that has been visible until then disappears or conversely disappears. The blood pattern 73 may be observed again. In this way, the pattern itself is reproduced, but varies depending on how it is placed. In addition, depending on factors such as the position and shape of the fat leaflet 33, it is considered that there are places where blood patterns are always observed, and there are places where blood patterns tend to disappear even with light pressure. That is, it becomes possible to quantify the probability distribution in which a blood pattern is observed.

そこで、本実施例においては、これまでに血液の分布が観測できた場所と消失していた場所の統計を取ることで、血液模様の観測確率分布を計算し、これを照合の重みテーブルとして登録する。そして、照合処理においては、この重みテーブルを用いてテンプレートマッチングを行う。   Therefore, in this embodiment, the blood pattern observation probability distribution is calculated by taking statistics of the place where the blood distribution can be observed and the place where the blood distribution has disappeared so far, and this is registered as a matching weight table. To do. In the matching process, template matching is performed using this weight table.

図8は、照合処理に用いる脂肪紋の登録データの登録処理手順の一実施例である。なお、図8の処理を行う前に、入力装置2において複数のカラー画像が撮影され、これらの画像が認証処理部10に入力されているとする。重みテーブルは、指先でアクリル板23を押下したときの色変化を観測できれば作成できるため、指先を入力装置2のアクリル板23に接触させた又は押し付けたときの、少なくとも2つの異なる状態の画像が取得されていればよい。以下の処理の主体は、認証処理部10の登録部10bである。   FIG. 8 is an example of a registration process procedure for fatprint registration data used in the collation process. Note that it is assumed that a plurality of color images are captured by the input device 2 and the images are input to the authentication processing unit 10 before the processing of FIG. 8 is performed. Since the weight table can be created if the color change when the acrylic plate 23 is pressed with the fingertip can be observed, images of at least two different states when the fingertip is brought into contact with or pressed against the acrylic plate 23 of the input device 2 are obtained. It only has to be acquired. The subject of the following processing is the registration unit 10b of the authentication processing unit 10.

はじめに、登録部10bは、脂肪紋の登録データを生成する(S801)。登録データは、脂肪紋の血液部分と血液でない部分の2値データとなるように、上述の手法により獲得したメラニンとヘモグロビン濃度の分布に対して閾値処理を行い、ヘモグロビンの濃度の高い部分を血液部、それ以外を非血液部の2値へと変換されたデータである。さらに、登録部10bは、複数回の指の撮影により得られた複数の画像を用いて、複数の同一指の脂肪紋の登録データを作成する。そして、登録部10bは、これらのうち任意の1枚を、登録データとして記憶装置14に保存する。登録データは、最初の1枚目や最後の1枚を選択してもよい。また、別の例として、撮影した複数の登録データ候補間で総当たり照合し、他の候補との類似性が最も高い結果となるものを登録データとして選んでもよい。また、登録データは、1枚の画像に限定されず、複数の画像を登録データとして保存してもよい。   First, the registration unit 10b generates fatprint registration data (S801). The registration data is a threshold value process for the distribution of melanin and hemoglobin concentration obtained by the above-described method so that it becomes binary data of the blood portion of the fat crest and the non-blood portion. Part and other data are converted into binary values of the non-blood part. Further, the registration unit 10b creates registration data of a plurality of fat prints of the same finger using a plurality of images obtained by photographing a plurality of fingers. And the registration part 10b preserve | saves arbitrary one of these in the memory | storage device 14 as registration data. As the registration data, the first or last one may be selected. As another example, a round-robin collation may be performed between a plurality of registered data candidates photographed, and the result that has the highest similarity with other candidates may be selected as registered data. The registration data is not limited to a single image, and a plurality of images may be stored as registration data.

次に、登録部10bは、重みテーブルを初期化する(S802)。重みテーブルは、血液の観測確率の分布であり、後述の照合処理で利用する。具体的な初期化方法は、まず上記で撮影した複数の登録データ候補のすべてを最も類似性が高まる位置に重ね合わせ、各座標の画素値が血液と分類された頻度を確率として保持する。たとえば5枚の登録データ候補を獲得したとき、全画像を照合して重ね合わせ、ある座標の画素が3枚のデータで血液部となった場合、重みテーブルにおいてその座標は3という値を保存することになる。このように、重みテーブルの全画素において血液部の頻度数を埋め、これを重みテーブルの初期値とする。また、重みテーブルを作成する際に統計を取ったデータ数である、統計データ総数も初期化する。たとえば5枚の登録データを利用した場合、統計データ総数は5に初期化される。つまり、重みテーブルの値を統計データ総数で除算すると、その画素における血液の観測確率となる。したがって、重みテーブルは、画像中の各画素と、その画素における血液の観測頻度とが関連付けられたデータとなる。最終的に、登録部10bは、初期化された重みテーブルを記憶装置14に保存する。   Next, the registration unit 10b initializes the weight table (S802). The weight table is a distribution of blood observation probabilities, and is used in collation processing described later. A specific initialization method first superimposes all of the plurality of registered data candidates photographed above at the position where the similarity is the highest, and holds the frequency with which the pixel value of each coordinate is classified as blood as a probability. For example, when 5 registered data candidates are acquired, all images are collated and overlapped, and if a pixel at a certain coordinate becomes a blood part with 3 data, the coordinate stores a value of 3 in the weight table. It will be. In this way, the blood part frequency number is filled in all the pixels of the weight table, and this is used as the initial value of the weight table. In addition, the total number of statistical data, which is the number of data obtained when creating the weight table, is also initialized. For example, when 5 pieces of registered data are used, the total number of statistical data is initialized to 5. That is, dividing the weight table value by the total number of statistical data gives the blood observation probability at that pixel. Therefore, the weight table is data in which each pixel in the image is associated with the blood observation frequency at that pixel. Finally, the registration unit 10b stores the initialized weight table in the storage device 14.

次に、脂肪紋の照合処理手順の一実施例を図9を用いて説明する。図9は、利用者から得た入力データと登録データとの照合手順の一実施例である。   Next, an embodiment of a fatprint matching process procedure will be described with reference to FIG. FIG. 9 is an example of a collation procedure between input data obtained from a user and registered data.

はじめに、図2A及び図2Bに示す入力装置2によって、載置領域に置かれた利用者の指を撮影する(S901)。撮影された画像は、画像入力部18を介して認証処理部10に入力される。続いて、認証処理部10の認証部10aは、上述の手法に基づき、入力された画像から脂肪紋のパターンを獲得する(S902)。その後、認証部10aは、脂肪紋の入力データを作成する。ここでは、登録データの生成と同様、血液部とそれ以外の2値データに変換しておく。   First, the user's finger placed in the placement area is photographed by the input device 2 shown in FIGS. 2A and 2B (S901). The captured image is input to the authentication processing unit 10 via the image input unit 18. Subsequently, the authentication unit 10a of the authentication processing unit 10 acquires a fat pattern from the input image based on the above-described method (S902). After that, the authentication unit 10a creates fatprint input data. Here, as with the generation of the registration data, it is converted into a blood part and other binary data.

次に、脂肪紋の入力データと脂肪紋の登録データとの照合を実施するが、ここでは重みテーブルを用いた重み付け照合を実施する(S904〜S905)。   Next, collation of fat pattern input data and fat pattern registration data is performed. Here, weight collation using a weight table is performed (S904 to S905).

ここで、重み付けによる脂肪紋のテンプレート照合の一手法を図10A〜図10Cで説明する。ここでは、図10Aの登録データ100が指の接触圧力が小さい状態で撮影されたものであり、図10Bの入力データ101が指の接触圧力が大きい状態で撮影されたものである。また、図10Cは、上述した重みテーブルに格納された観測頻度の分布の情報を2次元平面上の濃淡で示した図である。   Here, one method of collating fatprint templates by weighting will be described with reference to FIGS. 10A to 10C. Here, the registration data 100 in FIG. 10A is taken in a state where the finger contact pressure is low, and the input data 101 in FIG. 10B is taken in a state where the finger contact pressure is high. FIG. 10C is a diagram showing the distribution of the observation frequency stored in the weight table described above in shades on a two-dimensional plane.

一般的なテンプレートマッチングでは、登録データ100と、やや押し付け圧力の強い入力データ101の両データを重ね合わせ、位置や回転角をずらしながら最も一致する場所を探し、そのときの類似度を算出する。最も一致する場所の判定方法としては、両データを重ね合わせたとき、一方の血液部102ともう一方の非血液部103とが重なる相違画素の画素数を総和し、これを両データの血液部の総画素数で割った値を相違度とみなして、これが最も小さくなる重ね合わせ位置を探索する方法に基づく。そしてこのときの相違度を1から減算した値が両データの類似度を表す。   In general template matching, both the registration data 100 and the input data 101 having a slightly strong pressing pressure are overlapped to find the most matching place while shifting the position and rotation angle, and the similarity at that time is calculated. As a method of determining the most coincident place, when both data are overlapped, the total number of pixels of different pixels where one blood part 102 and the other non-blood part 103 overlap is summed, and this is calculated as the blood part of both data. The value obtained by dividing the total number of pixels is regarded as the dissimilarity, and this is based on a method of searching for an overlapping position where the value becomes the smallest. The value obtained by subtracting the difference degree from 1 at this time represents the similarity degree between the two data.

これに対し、本実施例のテンプレートマッチングでは、上述の相違画素の画素数と血液部102の総画素数の値を、重みテーブル104に基づいて変換する点が従来のテンプレート照合との相違である。まず、認証部10aは、上述の相違画素の画素数の重み付け合計値を、重みテーブル104を用いて計算する(S904)。   On the other hand, in the template matching of the present embodiment, the difference from the conventional template matching is that the values of the number of different pixels and the total number of pixels of the blood part 102 are converted based on the weight table 104. . First, the authentication unit 10a calculates a weighted total value of the number of different pixels described above using the weight table 104 (S904).

図10Cに示すように、重みテーブル104は、血液の観測頻度の高い部分105を濃い色で、血液の観測頻度が低い部分106を薄い色で、血液が出現しない個所を白い色で表わしており、その値は空間的に連続的に変化している。まず、登録データ100と入力データ101をある位置において重ね合わせ、さらに重みテーブル104を登録データ100に一致するように重ねる。そして、登録データ100と入力データ101とを重ね合わせた状態で、一方が血液の画素でもう一方が血液のない画素となる相違画素の数を数える。このとき、ある座標に対応する重みテーブル104に格納された値を前記の統計データ総数で割った具体値をWiとしたとき、従来は1画素と数えていたところ、本実施例においてはWi画素と数える。なお、Wiの値はその位置における血液部の出現確率を表しているから、0≦Wi≦1となる。   As shown in FIG. 10C, the weight table 104 represents a portion 105 where blood is frequently observed in a dark color, a portion 106 where the blood is frequently observed in a light color, and a portion where no blood appears in white. , Its value varies continuously spatially. First, the registration data 100 and the input data 101 are overlapped at a certain position, and the weight table 104 is overlapped so as to match the registration data 100. Then, in a state where the registration data 100 and the input data 101 are superimposed, the number of different pixels in which one is a blood pixel and the other is a bloodless pixel is counted. At this time, when a specific value obtained by dividing the value stored in the weight table 104 corresponding to a certain coordinate by the total number of the statistical data is defined as Wi, conventionally, it is counted as one pixel. And count. In addition, since the value of Wi represents the appearance probability of the blood part at that position, 0 ≦ Wi ≦ 1.

次に、認証部10aは、上述の相違画素の重み付け合計値を用いて、相違度を算出する(S905)。血液部の総画素数を数える際も同様に、同じ座標の重みテーブルの値から血液部の出現確率を計算し、この値を加えていく。そして最後に、重み付けられた相違画素数を、重み付けられた血液部の総画素数で割ることで、相違度を算出する。   Next, the authentication unit 10a calculates the degree of difference using the above-described weighted total value of the different pixels (S905). Similarly, when counting the total number of pixels of the blood part, the appearance probability of the blood part is calculated from the value of the weight table of the same coordinates, and this value is added. Finally, the degree of difference is calculated by dividing the weighted number of different pixels by the total number of pixels in the weighted blood part.

次に、認証部10aは、類似度の大きさによって入力データ101と登録データ100とが一致しているかを判定する(S906)。類似度は、例えば、相違度を1から減算した値である。一致するかの判定は、例えば、類似度が所定の閾値を超えるかどうかで行うことができる。   Next, the authentication unit 10a determines whether the input data 101 and the registration data 100 match according to the degree of similarity (S906). The similarity is, for example, a value obtained by subtracting the difference from 1. The determination as to whether they match can be made, for example, based on whether the similarity exceeds a predetermined threshold.

類似度が高いと判定された場合は認証成功となり(S907)、所定の認証処理を実施する。そして、認証部10aは、重みテーブル104を更新(S908)し、認証処理を終了する。重みテーブル104の更新は、現時点の重みテーブル104、統計データ総数、認証が成功したときの入力データ101、の3つを用いて実施する。つまり、登録データ100と最も類似度が高まる重なりの位置において、入力データ101の血液部102となる画素に対応する重みテーブル104の値を1つインクリメントすると共に、統計データ総数も1つインクリメントする。これにより、血液の出現頻度が更新される。なお、重みテーブル104の更新は、入力中に押し付けている最中の映像を動画的に複数枚撮影し、これらから画素ごとに血液の観測される頻度を算出してもよい。   If it is determined that the degree of similarity is high, authentication is successful (S907), and a predetermined authentication process is performed. Then, the authentication unit 10a updates the weight table 104 (S908) and ends the authentication process. The weight table 104 is updated using the current weight table 104, the total number of statistical data, and the input data 101 when authentication is successful. That is, at the overlapping position where the degree of similarity is highest with the registered data 100, the value of the weight table 104 corresponding to the pixel that becomes the blood part 102 of the input data 101 is incremented by one, and the total number of statistical data is also incremented by one. Thereby, the appearance frequency of blood is updated. The updating of the weight table 104 may be performed by capturing a plurality of moving images that are being pressed during input in a moving image, and calculating the blood observation frequency for each pixel.

一方、類似度が所定の閾値より小さい場合は不一致となり、認証部10aは、指の撮影を開始してからのタイムアウトを判定する(S909)。タイムアウトでなければ再び指の撮影に戻り、タイムアウトであれば認証失敗となり(S910)、認証処理を終了する。   On the other hand, if the degree of similarity is smaller than the predetermined threshold value, they do not match, and the authentication unit 10a determines a time-out after starting finger imaging (S909). If it is not timed out, the process returns to finger shooting again. If timed out, authentication fails (S910), and the authentication process is terminated.

このように、相違画素数に血液の観測確率の重みを考慮することで、押し付け圧力によって変動しやすい部分の相違はほぼ無視でき、安定して観測されるパターンの相違はより大きなペナルティとして評価されるように照合処理を実施できる。これにより、押し付けによるパターンの変動の有無を吸収しながらパターンの形状の類似度を評価することが可能となる。   In this way, by considering the weight of the observation probability of blood in the number of different pixels, the difference in the portion that is likely to fluctuate due to the pressing pressure can be almost ignored, and the difference in the pattern that is observed stably is evaluated as a larger penalty. The verification process can be performed as described above. Thereby, it becomes possible to evaluate the similarity of the shape of a pattern, absorbing the presence or absence of the variation of the pattern by pressing.

また、上述の照合手法は、登録データ100と重みテーブル104を別途持たせているが、重みテーブル104は血液のパターンを反映している情報であるため、登録データ100を保持せずに重みテーブル104を登録データ100と見なして照合することもできる。しかしながら、重みテーブル104は徐々に更新されていくため、意図的に僅かにパターンを変化させることができるならば、最終的に別パターンに差し替わってしまう可能性もある。そこで上述のように、重みテーブル104とは別に登録データ100を持たせ、これを基準に照合する方法が安全である。また、統計データ総数が十分大きい値となったときに、登録データ100は非血液部だが重みテーブル104には高い頻度で血液部が出現しているという画素がある場合、登録データ100の該当する画素の非血液部を血液部に変更してもよい。これは、登録データ100を生成する際に血液部が欠落している場合もあるため、この変更により真のパターンを反映した登録データ100を作成することが可能となり、認証精度を高めることができる。   Moreover, although the above-mentioned collation method has the registration data 100 and the weight table 104 separately, since the weight table 104 is the information reflecting the blood pattern, it does not hold | maintain the registration data 100 but a weight table. It is also possible to collate by considering 104 as registered data 100. However, since the weight table 104 is gradually updated, if the pattern can be slightly changed intentionally, there is a possibility that it will eventually be replaced with another pattern. Therefore, as described above, it is safe to have the registration data 100 separately from the weight table 104 and collate it based on this. When the total number of statistical data becomes a sufficiently large value, if the registration data 100 is a non-blood part but there are pixels in the weight table 104 that a blood part appears frequently, this is the case for the registration data 100. The non-blood part of the pixel may be changed to a blood part. This is because the blood part may be missing when the registration data 100 is generated, and this change makes it possible to create the registration data 100 that reflects the true pattern and improve the authentication accuracy. .

なお、上述の実施例ではテンプレートマッチングをベースとした照合処理について説明したが、たとえば端点や分岐点や屈曲点を抽出してその周辺の輝度勾配などの情報によって照合を行う、特徴点マッチングをベースとした照合手法においても、同様の重みテーブルを用いて押し付けの変動にロバストな処理を実現できることはいうまでもない。   In the above-described embodiment, the matching process based on template matching has been described. However, for example, feature point matching is used in which end points, branch points, and inflection points are extracted, and matching is performed based on information such as luminance gradients around them. It is needless to say that even in the matching method described above, processing that is robust against fluctuations in pressing can be realized using the same weight table.

本実施例によれば、狭い範囲から人を特徴付ける多様な生体特徴の情報を取得し、高精度に認証を行うことができる。指先などの狭い範囲から、複数の生体組織が呈する色彩が重畳した状態を考慮した情報を抽出できるため、小型で使い勝手が良い、高精度な生体認証装置を提供できる。   According to the present embodiment, it is possible to acquire various biological feature information characterizing a person from a narrow range and perform authentication with high accuracy. Since it is possible to extract information in consideration of a state in which colors presented by a plurality of biological tissues are superimposed from a narrow range such as a fingertip, it is possible to provide a highly accurate biometric authentication device that is small and easy to use.

[第2実施例]
図11は、第2実施例である、脂肪紋と指静脈とを用いた生体認証装置の一実施例である。入力装置2の筐体21には、指1を置くための指置き台113が設けられている。本実施例では、指を開口部22のアクリル板23に接触させない状態で画像を取得する。
[Second Embodiment]
FIG. 11 shows an example of a biometric authentication apparatus using a fat print and a finger vein according to the second embodiment. The casing 21 of the input device 2 is provided with a finger rest 113 for placing the finger 1. In this embodiment, an image is acquired in a state where the finger is not brought into contact with the acrylic plate 23 of the opening 22.

また、入力装置2の筐体21には、光源支持部112が設けられている。光源支持部112は、指1の載置領域の上方に延びるように設けられており、光源支持部112には、近赤外の透過光源110が取付けられている。近赤外の透過光源110は、指1の手の甲側を照射するように設置されている。   Further, the light source support 112 is provided on the casing 21 of the input device 2. The light source support 112 is provided so as to extend above the placement area of the finger 1, and the near-infrared transmitted light source 110 is attached to the light source support 112. The near-infrared transmission light source 110 is installed so as to irradiate the back side of the hand of the finger 1.

筐体21の内部には、可視光の反射光源111が具備され、反射光源111は指1の手のひら側を照射する。撮像装置9は一般的なカラーカメラであり、近赤外線はカラーカメラ9の赤に感度のある受光素子によって受光される。これにより、透過光源110の光を透過した映像から指静脈パターンが、そして反射光源111の光を反射した映像から脂肪紋パターンが得られる。ただし、反射画像から得られる生体特徴は脂肪紋に限らず、指紋、関節紋、メラニン分布などを組み合わせられることは言うまでもない。   A visible light reflection light source 111 is provided inside the housing 21, and the reflection light source 111 irradiates the palm side of the finger 1. The imaging device 9 is a general color camera, and near infrared light is received by a light receiving element sensitive to red of the color camera 9. As a result, a finger vein pattern is obtained from the image transmitted through the light from the transmissive light source 110, and a fat pattern is obtained from the image reflected from the light from the reflected light source 111. However, it goes without saying that the biometric features obtained from the reflected image are not limited to fat prints, but can be combined with fingerprints, joint prints, melanin distribution, and the like.

図12は、本実施例の認証処理システムにおける、脂肪紋と指静脈とを用いた認証の一実施例の処理フローである。なお、以下の認証処理の前提として、記憶装置14には、利用者の指静脈パターン(たとえば、図14Aのパターン)と脂肪紋パターン(たとえば、図14Bのパターン)とがそれぞれ登録データとして記憶装置14に格納されているとする。   FIG. 12 is a processing flow of an embodiment of authentication using fat prints and finger veins in the authentication processing system of the present embodiment. As a premise of the following authentication processing, the storage device 14 stores a user's finger vein pattern (for example, the pattern in FIG. 14A) and a fat pattern (for example, the pattern in FIG. 14B) as registered data. 14 is stored.

まず、利用者が入力装置2の載置領域に指1を置くと、透過光源110が点灯すると共に反射光源111が消灯する。そして、カラーカメラ9によって赤外透過画像を撮影し、指静脈の画像を得る(S1201)。続いて、透過光源110を消灯した上で反射光源111が点灯し、カラーカメラ9によって、可視光の反射画像を撮影して脂肪紋の画像を得る(S1202)。ここで得られた指静脈の画像及び脂肪紋の画像は、画像入力部18を介して認証処理部10に入力される。   First, when the user places the finger 1 on the placement area of the input device 2, the transmitted light source 110 is turned on and the reflected light source 111 is turned off. Then, an infrared transmission image is taken by the color camera 9 to obtain a finger vein image (S1201). Subsequently, the transmission light source 110 is turned off, the reflection light source 111 is turned on, and a reflected image of visible light is captured by the color camera 9 to obtain a fatprint image (S1202). The finger vein image and fat print image obtained here are input to the authentication processing unit 10 via the image input unit 18.

なお、これらの光源を同時に点灯しない理由は、赤外透過光と可視反射光は共に赤の波長に感度のある受光素子に反応するため、透過光と反射光を同時に受光すると赤成分の受光素子に到達した赤外光と赤色光とを分離できなくなるからである。そのため、これらの光源を瞬時に交互点灯する。すなわち、透過光を点灯した時と反射光を点灯した時の赤成分に感度を持つ受光素子は、それぞれ、赤外透過光、可視反射光を撮影することになる。このように、赤外光と赤色光の点灯を瞬時に切り替えながら時分割で受光することで、ほぼ同時刻の赤外透過画像と可視反射画像を一つのカラーカメラ9で受光できる。ほぼ同時刻の映像であるため、両画像における指の位置ずれはないものとみなせる。   The reason why these light sources are not turned on at the same time is that both infrared transmitted light and visible reflected light react to the light receiving element sensitive to the red wavelength. This is because it becomes impossible to separate the infrared light and the red light that have reached 1. Therefore, these light sources are alternately turned on instantaneously. That is, the light receiving element having sensitivity to the red component when the transmitted light is turned on and when the reflected light is turned on captures infrared transmitted light and visible reflected light, respectively. In this way, the infrared transmission image and the visible reflection image at substantially the same time can be received by one color camera 9 by receiving the light in a time division manner while instantaneously switching the lighting of the infrared light and the red light. Since the images are almost the same time, it can be considered that there is no positional deviation of the finger in both images.

なお、このカラーカメラ9を赤外波長に感度を持つセンサを具備したものに置き換える、あるいはプリズムなどで波長ごとに分光して受光したりする可視光・赤外カメラに置き換えれば、同時に赤外光と可視光を受光できることはいうまでもない。   If the color camera 9 is replaced with a sensor equipped with a sensor having sensitivity to infrared wavelengths, or a visible light / infrared camera that receives light by splitting the wavelength for each wavelength with a prism or the like, infrared light is simultaneously transmitted. Needless to say, visible light can be received.

次に、認証処理部10の認証部10aは、撮影した赤外透過画像と可視反射画像より、それぞれ指静脈のパターンと脂肪紋のパターンを抽出する(S1203)。指静脈の抽出に関しては、一般的に知られている方法として、たとえば血管をマッチドフィルタやガボールフィルタで強調する方法や、血管の中心位置を検出するフィルタ処理などによって静脈パターンを獲得する。また、脂肪紋に関しては前述の実施例に記載の方法を用いることができる。なお、可視反射画像からは脂肪紋だけではなく、指紋や関節紋を同時に抽出してもよい。また、指輪郭が撮影できる場合においては、指輪郭に基づいて指の位置ずれ量を正規化してもよい。このような他の生体特徴を利用することにより、位置ずれにロバストな照合が実施できたり、認証精度を向上させたりすることが可能となる。   Next, the authentication unit 10a of the authentication processing unit 10 extracts a finger vein pattern and a fat pattern from the captured infrared transmission image and visible reflection image (S1203). Regarding finger vein extraction, as a generally known method, a vein pattern is acquired by, for example, a method of emphasizing a blood vessel with a matched filter or a Gabor filter, or a filter process for detecting the center position of the blood vessel. In addition, the method described in the above-described embodiment can be used for the fat pattern. In addition, not only fat prints but also fingerprints and joint prints may be extracted simultaneously from the visible reflection image. In addition, when the finger contour can be photographed, the finger position deviation amount may be normalized based on the finger contour. By using such other biometric features, it is possible to perform a collation that is robust against misalignment and to improve authentication accuracy.

続いて、認証部10aは、登録された指静脈パターンと脂肪紋パターンに対し、入力された指静脈パターンと脂肪紋パターンを照合する(S1204)。そして、認証部10aは、両方の生体特徴の照合結果より、登録データと入力データの相違度を算出する(S1205)。照合処理と相違度の算出の具体的な実施例については後述する。   Subsequently, the authentication unit 10a collates the input finger vein pattern and the fat pattern with the registered finger vein pattern and the fat pattern (S1204). And the authentication part 10a calculates the difference degree of registration data and input data from the collation result of both biometric features (S1205). Specific examples of the collation processing and the difference calculation will be described later.

そして、認証部10aは、相違度を事前に設定された閾値と比較し、両データが一致するとみなせるかを判定する(S1206)。登録データと一致しているとみなせる場合は認証成功となり(S1207)、認証成功時の処理を実施して終了する。一方、一致ではないと判定された場合は指1の撮影開始からタイムアウトが生じているかどうかを判定し(S1208)、そうでなければ、入力装置2による指1の撮影に戻る。もしタイムアウトであれば認証失敗となり(S1209)、認証処理を終了する。   Then, the authentication unit 10a compares the degree of difference with a preset threshold value, and determines whether both data can be regarded as matching (S1206). If it can be considered that it matches the registered data, the authentication is successful (S1207), and the process at the time of successful authentication is performed and the process ends. On the other hand, if it is determined that they do not match, it is determined whether or not a timeout has occurred since the start of shooting of the finger 1 (S1208). Otherwise, the process returns to shooting of the finger 1 by the input device 2. If timeout occurs, authentication fails (S1209), and the authentication process is terminated.

ここで、指静脈と脂肪紋の照合処理と相違度の算出の一実施例について述べる。図13A〜図13Cは、それぞれ撮影された指静脈と脂肪紋のパターンの模式図を示す。   Here, an example of collation processing of finger veins and fat prints and calculation of the degree of difference will be described. FIG. 13A to FIG. 13C show schematic diagrams of finger vein and fat pattern patterns respectively taken.

図13Aは、指の赤外透過画像130である。指の赤外透過画像130は、透過光源110の光が透過した指が映っており、ここには指静脈132が映し出される。図13Bは、指の可視光反射画像131である。指の可視光反射画像131には反射光源111を照射したときの指が映っており、その中には脂肪紋133が分布している。   FIG. 13A is an infrared transmission image 130 of a finger. The infrared transmission image 130 of a finger shows a finger through which light from the transmission light source 110 is transmitted, and a finger vein 132 is shown here. FIG. 13B is a visible light reflection image 131 of the finger. The finger when the reflected light source 111 is irradiated is reflected in the visible light reflection image 131 of the finger, and the fat crest 133 is distributed therein.

脂肪紋133は細かい斑点状の紋様を呈し、また指静脈132は線状の紋様を呈する。また、脂肪紋133と指静脈132は皮膚内の異なる層の生体特徴であるため、図13Cに示すように、指静脈132と脂肪紋133の合成画像134を作成する。合成画像134に示すように、脂肪紋133と指静脈132はそれぞれが重畳することがある。その部分では脂肪紋133の斑点状の模様は指静脈132の線に重なって観測される。この両方のパターンは独立に獲得できるため、それぞれを独立に照合することもできるが、両者の重なり方を利用して照合した方がより高い認証精度を得ることができる。ここでは、その手法に関する2つの実施例について記載する。   The fat pattern 133 has a fine spot-like pattern, and the finger vein 132 has a linear pattern. Further, since the fat crest 133 and the finger veins 132 are biological features of different layers in the skin, a composite image 134 of the finger veins 132 and the fat crest 133 is created as shown in FIG. 13C. As shown in the composite image 134, the fat crest 133 and the finger vein 132 may overlap each other. In that portion, the spotted pattern of the fat crest 133 is observed overlapping the finger vein 132 line. Since both of these patterns can be acquired independently, it is also possible to collate each independently. However, it is possible to obtain higher authentication accuracy by collating using the overlapping method. Here, two examples relating to the technique will be described.

一つ目の実施例は、指静脈132を特徴点に基づいて照合する際、脂肪紋133の紋様の位置から特徴点を抽出する方法である。   The first embodiment is a method of extracting a feature point from the position of the pattern of the fat pattern 133 when the finger vein 132 is collated based on the feature point.

指静脈パターンについては、たとえばSIFT(Scale-invariant feature transform)などの特徴点や、あるいは指紋のマニューシャに相当する情報を用いることで、位置ずれや変形にロバストな照合を実現できるが、このとき指静脈132の形状として特徴的となる部分を自動検出することになる。指静脈132の特徴的な部分としては、端点、分岐点、屈曲点が安定して検出できる。しかしながら、たとえば指紋などの細かい線パターンにより構成される生体特徴の分岐点や端点の数に比べると比較的少ない。また、静脈の分布しない部分の面積も比較的大きく、疎なパターンであることも多い。よって、指静脈パターンだけからは多数の特徴点が抽出できず、認証精度が劣化する問題が生じやすい。そこで、脂肪紋133の斑点状のパターンを活用すれば、指静脈132の特徴量を相対的に増やすことができる。   For finger vein patterns, robust matching against displacement and deformation can be achieved by using feature points such as SIFT (Scale-invariant feature transform) or information corresponding to fingerprint minutia. A portion that is characteristic as the shape of the vein 132 is automatically detected. As characteristic portions of the finger vein 132, end points, branch points, and bending points can be detected stably. However, it is relatively small compared to the number of bifurcation points and end points of biometric features constituted by fine line patterns such as fingerprints. In addition, the area of the non-distributed portion of the vein is relatively large and often has a sparse pattern. Therefore, a large number of feature points cannot be extracted from the finger vein pattern alone, and there is a tendency for authentication accuracy to deteriorate. Therefore, if the spotted pattern of the fat crest 133 is utilized, the feature amount of the finger vein 132 can be relatively increased.

具体的な処理手順は次のとおりである。以下の処理の主体は、上述の通り、認証部10aである。図14A〜図14Eは、脂肪紋133と指静脈132の特徴量を組み合わせた特徴点照合方式を説明する模式図である。   The specific processing procedure is as follows. The subject of the following processing is the authentication unit 10a as described above. 14A to 14E are schematic diagrams illustrating a feature point matching method in which the feature amounts of the fat crest 133 and the finger vein 132 are combined.

まず、図14Aに示すように、認証部10aは、指静脈132の透過画像から指静脈パターン画像140を作成する。また、図14Bに示すように、認証部10aは、脂肪紋133の反射画像から脂肪紋画像141を作成する。   First, as illustrated in FIG. 14A, the authentication unit 10 a creates a finger vein pattern image 140 from a transparent image of the finger vein 132. Further, as illustrated in FIG. 14B, the authentication unit 10 a creates a fat pattern image 141 from the reflected image of the fat pattern 133.

次に、図14Cに示すように、認証部10aは、指静脈パターン画像140の中から静脈の分岐点、端点、屈曲点などを検出し、図中では実線の丸印で示される指静脈132の特徴点143を得る。同様に、図14Dに示すように、認証部10aは、脂肪紋画像141から脂肪紋の斑点状の模様の中心位置を検出し、図中の破線の丸印で示される脂肪紋の特徴点145を得る。   Next, as shown in FIG. 14C, the authentication unit 10a detects a branch point, end point, inflection point, etc. of the vein from the finger vein pattern image 140, and the finger vein 132 shown by a solid circle in the figure. The feature point 143 is obtained. Similarly, as illustrated in FIG. 14D, the authentication unit 10a detects the center position of the spot pattern of the fat pattern from the fat pattern image 141, and the feature point 145 of the fat pattern indicated by a dotted circle in the drawing. Get.

最終的に、図14Eに示すように、特徴点143を得た指静脈パターン画像140と、特徴点145を得た脂肪紋画像141とを重ね合わせることにより、指静脈と脂肪紋の特徴点合成画像146を得る。これらの点を特徴点と見なし、上述のSIFTやマニューシャに基づく特徴点照合を実施する。このとき、特徴点の分類として、指静脈の特徴点143、脂肪紋の特徴点145のほか、指静脈のパターンに脂肪紋の点状の模様が重なったものを第三の特徴点と見なしてもよい。一般的に、マニューシャによる特徴点照合においては、その特徴点が端点か、あるいは分岐点かなどを分類することにより、誤対応を減らすことが行われるが、本実施例においても静脈か、脂肪紋か、静脈上の脂肪紋か、といった異なるラベルを付与することができる。より詳細には、本実施例では、特徴点を、生体特徴の種類及び特徴点の種類の観点で分類し、例えば、静脈上の端点、静脈上の分岐点、静脈上の屈曲点、脂肪紋、静脈上の脂肪紋のようなカテゴリーに分類できる。   Finally, as shown in FIG. 14E, the finger vein pattern image 140 obtained from the feature point 143 and the fat print image 141 obtained from the feature point 145 are superimposed to synthesize the feature points of the finger vein and the fat print. An image 146 is obtained. These points are regarded as feature points, and feature point matching based on the above-mentioned SIFT and minutiae is performed. At this time, as a classification of feature points, in addition to the finger vein feature point 143 and the fat print feature point 145, a pattern in which the finger vein pattern overlaps a fat print dot pattern is regarded as the third feature point. Also good. Generally, in the feature point matching by the minutiae, miscorrespondence is reduced by classifying whether the feature point is an end point or a bifurcation point. Or different labels such as fat on a vein. More specifically, in this embodiment, the feature points are classified in terms of the types of biometric features and feature points, for example, end points on veins, branch points on veins, bend points on veins, fat prints. , Can be divided into categories like fat on the veins.

特徴点が獲得できれば、それぞれの特徴点の周囲の特徴量を静脈と脂肪紋とでそれぞれ記述し、照合を行うことができる。特徴量としてはSIFTをはじめとする画像の輝度勾配特徴を用いることができる。認証部10aは、照合の際、同じカテゴリーに分類された特徴点同士の特徴量の類似度を計算する。そして、全特徴点のうち、類似したと判定できる特徴点の数の比率により、両データの最終的な類似度を得ることができる。   If the feature points can be acquired, the feature amounts around each feature point can be described using veins and fat prints and collated. As the feature amount, a luminance gradient feature of an image such as SIFT can be used. At the time of collation, the authentication unit 10a calculates the similarity of feature amounts between feature points classified into the same category. And the final similarity of both data can be acquired with the ratio of the number of the feature points which can be determined to be similar among all the feature points.

以上の処理により、従来では指静脈の特徴点として得ることができない部分(たとえば静脈が直線に走行している部分)などにおいても特徴点を得ることができるため、特徴量が増加し、指静脈の認証精度を高めることができるようになる。   With the above processing, feature points can be obtained even in a portion that cannot be obtained conventionally as a feature point of a finger vein (for example, a portion where a vein runs in a straight line). The accuracy of authentication can be improved.

二つ目の実施例は、脂肪紋と指静脈とを独立に照合する際、一方の照合で検出したパターン間の位置ずれ量を、もう一方の照合に活用するものである。   In the second embodiment, when the fat crest and the finger vein are collated independently, a positional deviation amount between patterns detected by one collation is used for the other collation.

実運用の際、登録時の指の位置と認証時の指の位置は僅かに異なることが多い。そのため、一般的な指静脈の照合処理においては、登録データと入力データとを重ね合わせた上で位置をずらしながらパターンを比較し、パターンが最も類似する位置がその指の位置ずれ量であると推定する。これにより、位置ずれを含むデータ間の照合が正しくできることになる。   In actual operation, the finger position during registration and the finger position during authentication often differ slightly. Therefore, in general finger vein verification processing, the registration data and the input data are overlapped and the patterns are compared while shifting the position, and the position where the pattern is most similar is the amount of positional deviation of the finger. presume. Thereby, the collation between the data containing a position shift can be performed correctly.

しかしながら、異なるパターン同士の照合の際も同様にパターンの類似性が高まる場所を探すことになるため、本来ならば類似性が低い別指パターン同士の照合においても類似性が高まってしまう傾向があった。これは、本質的な指の位置ずれ補正をする代わりに、パターンの類似性に基づいて位置ずれ量を推定しているために生じるものである。一方、真の指の位置ずれ量を検出するために、たとえば指の輪郭情報など、指の位置を特定できる情報を利用する方法もある。しかしながら、この方式では認証装置によっては指の輪郭が撮影できない場合もある。また、指の輪郭情報は2次元情報として獲得されるものであるが、実際の指のずれは3次元的に発生する場合もあり、2次元情報としての輪郭の位置を合わせても指のずれを正しく補正できるとは限らない。そのため、指の輪郭から指の絶対的な位置を特定することも困難であった。   However, when matching different patterns, it will also look for a place where the similarity of the pattern will increase, so there is a tendency for the similarity to increase even when matching different finger patterns that have low similarity. It was. This occurs because the amount of positional deviation is estimated based on the similarity of patterns instead of performing essential positional deviation correction of the finger. On the other hand, there is a method of using information that can specify the position of the finger, such as finger outline information, in order to detect a true finger position shift amount. However, in this method, the outline of the finger may not be captured depending on the authentication device. The finger contour information is acquired as two-dimensional information. However, the actual finger misalignment may occur in three dimensions, and the finger misalignment may occur even when the contour position as the two-dimensional information is adjusted. Cannot always be corrected correctly. For this reason, it is difficult to specify the absolute position of the finger from the contour of the finger.

この課題を解決するために、本実施例では、脂肪紋と指静脈とを独立に照合し、一方のパターンで類似性が最も高くなる位置ずれ量を算出したのち、もう一方のパターンで類似度を判定する。この手法を図15を用いて説明する。以下の処理の主体は、上述の通り、認証処理部10の認証部10aである。   In order to solve this problem, in this embodiment, the fat pattern and the finger vein are independently collated, and after calculating the amount of misalignment with the highest similarity in one pattern, the degree of similarity is calculated in the other pattern. Determine. This method will be described with reference to FIG. The subject of the following processing is the authentication unit 10a of the authentication processing unit 10 as described above.

まず、認証部10aは、登録された指静脈パターン150と入力された指静脈パターン151を重ね合わせ、静脈パターンが最も一致する位置ずれ量を探索する。次に、認証部10aは、その探索位置を利用し、その位置ずれ量の状態で登録された脂肪紋152と、入力された脂肪紋153とを重ね合わせて照合し、脂肪紋の類似度を算出する。ただし、このとき位置ずれ量の探索の誤差が含まれることを考慮し、脂肪紋を照合する際に僅かに位置をずらし、そのなかで最も類似度が高い結果を最終的な脂肪紋の類似度として獲得してもよい。   First, the authentication unit 10a superimposes the registered finger vein pattern 150 and the input finger vein pattern 151, and searches for a positional deviation amount that most closely matches the vein pattern. Next, the authentication unit 10a uses the search position and superimposes the fat pattern 152 registered in the position shift amount state with the input fat pattern 153 and collates them to determine the similarity of the fat patterns. calculate. However, considering that there is an error in the search for the amount of misalignment at this time, the position is slightly shifted when comparing the fat prints, and the highest similarity among the results is obtained as the final fat print similarity. You may earn as

その後、指静脈での処理と脂肪紋での処理とを入れ替える。上述と同じように、認証部10aは、登録された脂肪紋152と、入力された脂肪紋153とを重ね合わせ、脂肪紋で類似性が最も高くなる位置ずれ量を求める。次に、認証部10aは、その位置ずれ量において、登録された指静脈パターン150と入力された指静脈パターン151を重ね合わせ、指静脈の類似度を算出する。最後に、認証部10aは、指静脈の類似度と脂肪紋の類似度を平均する、あるいは所定の重みに従って線形結合する、などの方法により、指静脈と脂肪紋の2つの類似度を合成し、最終的な類似度あるいは相違度を獲得する。   Thereafter, the processing with the finger vein and the processing with the fat crest are interchanged. As described above, the authentication unit 10a superimposes the registered fat pattern 152 and the input fat pattern 153, and obtains a positional deviation amount that maximizes similarity in the fat pattern. Next, the authentication unit 10a calculates the finger vein similarity by superimposing the registered finger vein pattern 150 and the input finger vein pattern 151 on the basis of the positional deviation amount. Finally, the authentication unit 10a synthesizes the two similarities of the finger vein and the fatprint by a method such as averaging the similarity of the finger vein and the similarity of the fatprint or linearly combining them according to a predetermined weight. , To obtain the final similarity or dissimilarity.

本実施例の方式においては、指の位置ずれ量の推定に用いる特徴量と類似度を算出する特徴量とが別の情報であるため、従来の課題である位置ずれ量の推定により別指同士の類似度が低下するという問題を回避しながら、位置ずれが生じている指同士の類似性を正しく判定することが可能となる。   In the method of this embodiment, the feature amount used for estimating the positional deviation amount of the finger and the characteristic amount for calculating the similarity are different information. Thus, it is possible to correctly determine the similarity between fingers that are misaligned while avoiding the problem that the degree of similarity decreases.

図16A〜図16Cは、指静脈132と関節紋との重なり部分をコード化して認証する処理を説明する図である。   FIGS. 16A to 16C are diagrams illustrating a process of coding and authenticating an overlapping portion between the finger vein 132 and the joint pattern.

関節紋は、手などの関節部にある皮膚のしわのことであり、表皮層や皮下組織が周囲より薄くなっている。関節紋の位置はほぼ不変であり、またその形状も指によって異なることから、位置ずれに頑健な認証に活用できる生体特徴の一つである。なお、以降で取り上げる関節紋は、指の手のひら側の指先に最も近い関節部分にあるしわであるとする。   A joint crest is a skin wrinkle in a joint such as a hand, and the epidermal layer and subcutaneous tissue are thinner than the surroundings. Since the position of the joint pattern is almost unchanged, and the shape of the joint pattern varies depending on the finger, it is one of the biometric features that can be used for authentication robust against displacement. In the following description, it is assumed that the joint pattern picked up is a wrinkle at a joint portion closest to the fingertip on the palm side of the finger.

関節紋はその表皮が薄いことから、メラニンに比べてヘモグロビンの色彩が優位となる部位である。ヘモグロビンの色を呈する部位であるため、図11にて示した反射光と透過光を用いた認証装置では、脂肪紋だけでなく関節紋も撮影できる。このとき反射光を用いたヘモグロビンとメラニンの濃度分布の獲得手法において、ヘモグロビン濃度がメラニン濃度に比べて多い場所を関節紋の位置として特定できる。また、関節紋の奥側には指静脈132が走行しているが、これも図11の透過光を用いてその模様を撮影できる。   The joint crest is a part where the color of hemoglobin is superior to melanin because the epidermis is thin. Since this is a part exhibiting the color of hemoglobin, the authentication apparatus using reflected light and transmitted light shown in FIG. 11 can photograph not only a fat pattern but also a joint pattern. At this time, in the method of acquiring the concentration distribution of hemoglobin and melanin using reflected light, a location where the hemoglobin concentration is higher than the melanin concentration can be specified as the position of the joint pattern. Also, a finger vein 132 is running on the back side of the joint pattern, and this pattern can also be photographed using the transmitted light in FIG.

図16Aは、入力装置2によって取得された指静脈と関節紋の重畳映像160を示す。重畳映像160において、指静脈132は指の長手方向に沿って走行する血管が支配的であり、その一方で関節紋161は指の長手方向とは直交する方向に走行することから、指静脈132と関節紋161とは概ね直交する。   FIG. 16A shows a superimposed image 160 of finger veins and joint patterns acquired by the input device 2. In the superimposed image 160, the finger vein 132 is dominated by blood vessels that run along the longitudinal direction of the finger, while the joint crest 161 runs in a direction perpendicular to the longitudinal direction of the finger. And the joint crest 161 are generally orthogonal.

そこで、図16Bに示すように、認証処理部10の認証部10aは、静脈パターンと関節紋とを上述の手法で抽出し、両パターンを重畳した画像162を作成する。このとき、指静脈132と関節紋161との交差点163は指によって固有の特徴量となる。また、関節紋161は指の表面の模様として鮮明に観測できる上に、ほとんどの指でほぼ同じ位置に存在するため、その位置を一意に特定しやすく、指の位置がずれた場合でも検出しやすいという特徴を持つ。また、指静脈132に関しても、関節紋161の位置は表皮が薄いため鮮明に観測できるという利点を持つ。ただし、関節紋161は複数あったり屈曲したりする場合がある。そのため、認証部10aは、関節紋161を最小二乗法により直線近似する。さらに、もし複数の関節紋が観測された場合、認証部10aは、最も指先に近い関節紋を利用するか、あるいはすべての関節紋の近似直線を獲得するなどにより、関節紋の近似直線を一意に決定する。   Therefore, as illustrated in FIG. 16B, the authentication unit 10a of the authentication processing unit 10 extracts a vein pattern and a joint pattern by the above-described method, and creates an image 162 in which both patterns are superimposed. At this time, an intersection 163 between the finger vein 132 and the joint pattern 161 becomes a characteristic amount unique to the finger. In addition, the joint pattern 161 can be clearly observed as a pattern on the surface of the finger, and since it exists at almost the same position with most fingers, it is easy to specify the position uniquely, and it is detected even when the position of the finger is shifted. It is easy to use. The finger vein 132 also has the advantage that the joint pattern 161 can be clearly observed because the epidermis is thin. However, there may be a plurality of joint patterns 161 or bend. Therefore, the authentication unit 10a linearly approximates the joint pattern 161 by the least square method. Further, if a plurality of joint prints are observed, the authentication unit 10a uniquely uses the joint print closest to the fingertip or obtains the approximate print lines of all joint prints. To decide.

次に、認証部10aは、関節紋161の近似直線と指静脈132の交差点163を一次元の2値コード164に変換する。関節紋161の近似直線に沿って、1画素ずつ、その点が指静脈132と交差しているかを調べ、交差していない場合は0、交差している場合は1のいずれかをコードとして割り当て、上から下に向けてコードを埋め、全体として2値コード164を作成する。2値コード164の白い部分が指静脈132と交差している部分を表し、黒い部分がそれ以外の部分を表す。この例では、2値コード164の黒い部分が0、白い部分が1に割り当てられたビット列である。2つの交差点の間の距離が大きいほど、その間に挿入される0のビット列が長くなる。また、交差している点の静脈の幅が広いほど1のビット列が長くなる。   Next, the authentication unit 10 a converts the approximate straight line of the joint pattern 161 and the intersection 163 of the finger vein 132 into a one-dimensional binary code 164. Along the approximate straight line of the joint crest 161, it is checked pixel by pixel whether the point intersects the finger vein 132. If it does not intersect, 0 is assigned, and if it intersects, 1 is assigned as a code. The code is filled from the top to the bottom, and the binary code 164 is created as a whole. The white part of the binary code 164 represents a part intersecting the finger vein 132, and the black part represents the other part. In this example, the black portion of the binary code 164 is a bit string assigned 0, and the white portion 1. The longer the distance between two intersections, the longer the 0 bit string inserted between them. In addition, the bit string of 1 becomes longer as the width of the vein at the intersecting point is wider.

この2値コード164のビット列の長さは、上述のように撮影した画像の画素に対応させて1画素につき1ビットとして割り当ててもよく、ビット列をある係数だけ拡大・縮小したスケールに変換してもよい。ただし、指静脈132の幅は変動する可能性があるため静脈幅の正規化を実施することにより安定性が高められる。つまり、指静脈132の中心線を検出しておき、その中心線を一定の幅に太らせる処理を行ったうえで関節紋161の近似直線との交点を交差点163として獲得する。このようにすれば、1のビット列の長さはすべての交差点に対して同じとなる。以上のように、関節紋161と指静脈132との相対的な位置は不変であるため、関節紋を検出することができれば、スケールによる相違は生じるものの、この2値コードはほぼ位置に不変な情報として獲得できる。   The length of the bit string of the binary code 164 may be assigned as one bit per pixel corresponding to the pixel of the image taken as described above, and the bit string is converted to a scale that is enlarged or reduced by a certain coefficient. Also good. However, since the width of the finger vein 132 may fluctuate, stability is enhanced by normalizing the vein width. In other words, the center line of the finger vein 132 is detected, the center line is thickened to a certain width, and the intersection with the approximate straight line of the joint pattern 161 is acquired as the intersection 163. In this way, the length of one bit string is the same for all intersections. As described above, since the relative position between the joint pattern 161 and the finger vein 132 is invariant, if the joint pattern can be detected, a difference depending on the scale occurs, but this binary code is almost unchanged in position. It can be acquired as information.

この2値コード164の照合処理の一例を示すと次のようになる。図16Cは、2値コードの照合処理を説明する図である。認証部10aは、入力された画像から得られた2値コード164と、上記と同様の手法で予め登録しておいた登録データである2値コード166とを照合し、類似度を算出する。一般的に2値コード同士の類似度の算出方法は、基本的にハミング距離やユークリッド距離に基づく方法を適用できるため、登録されている2値コードと入力された2値コードとの間の距離を相違度とみなすことができる。   An example of the collation process of the binary code 164 is as follows. FIG. 16C is a diagram for explaining a binary code matching process. The authentication unit 10a compares the binary code 164 obtained from the input image with the binary code 166 that is registered data registered in advance by the same method as described above, and calculates the similarity. In general, since a method based on a Hamming distance or Euclidean distance can be applied to a method for calculating the similarity between binary codes, the distance between the registered binary code and the input binary code can be applied. Can be regarded as the degree of difference.

ただし、指が中心軸に対して3次元的に回転した場合は図の上下方向に2値コード164がシフトする可能性がある。そのため、図16Cの矢印で示すように、例えば、入力データである2値コード165を1ビットずつ上下方向にずらしながら、登録データである2値コード166を比較し、両方の2値コード165、166が最も類似する結果を最終的な類似度として獲得する。また、指の拡大率が異なる場合もあるため、登録データの2値コード166のスケールを空間的に何通りか伸縮させ、すべてのデータとの照合を実施した上で最も類似度の高い結果を最終結果とする。あるいは、伸縮に対応できるDP(Dynamic programming)マッチング法により、拡大の変動にロバストな照合処理を実施してもよい。   However, when the finger rotates three-dimensionally with respect to the central axis, the binary code 164 may shift in the vertical direction in the figure. Therefore, as shown by the arrows in FIG. 16C, for example, the binary code 165 that is the input data is shifted in the vertical direction bit by bit, the binary code 166 that is the registered data is compared, and both binary codes 165, 166 obtains the most similar result as the final similarity. In addition, since the enlargement ratio of the finger may be different, the scale of the binary code 166 of the registered data is expanded or contracted in several ways, and the result with the highest similarity is obtained after collation with all data. Final result. Alternatively, a collation process that is robust to fluctuations in enlargement may be performed by a DP (Dynamic programming) matching method that can handle expansion and contraction.

また、指輪郭が撮影できる場合は、関節紋161を直線近似したときの延長線と指輪郭線の交点が一定の画素数になるように画像の拡大率を正規化した上で2値コードを生成してもよい。これが可能であれば2値コードのスケールの伸縮を考慮する必要がなく、処理が簡略化できると共に高速化や高精度化にも寄与する。   When the finger contour can be photographed, the binary code is obtained after normalizing the enlargement ratio of the image so that the intersection of the extension line and the finger contour line when the joint pattern 161 is linearly approximated becomes a certain number of pixels. It may be generated. If this is possible, there is no need to consider the expansion and contraction of the scale of the binary code, which can simplify the process and contribute to speeding up and high accuracy.

本実施例によれば、指の位置ずれが生じた場合においても位置を補正あるいは検知することができ、小型で利便性に優れた認証精度の高い生体認証装置を提供することができる。   According to the present embodiment, even when a finger misalignment occurs, the position can be corrected or detected, and a small biometric authentication device that is highly convenient and has high authentication accuracy can be provided.

また、本実施例により、指の位置ずれに不変な認証を実施することが可能となる。さらに、位置ずれに不変なコードを生成する技術は、たとえば暗号化した状態でパターン同士の類似度を算出するといった、セキュアな生体認証システムの構築や生体情報の管理にも応用できることが知られており、たとえば公開鍵基盤をバイオメトリクスのデータで実現するための、テンプレート公開型生体認証基盤(PBI; Public Biometric Infrastructure)技術に応用可能である。   Further, according to the present embodiment, it is possible to perform authentication that is invariant to the positional deviation of the finger. Furthermore, it is known that the technique for generating a code that is invariant to misalignment can be applied to the construction of a secure biometric authentication system and the management of biometric information, such as calculating the similarity between patterns in an encrypted state. For example, the present invention can be applied to a template public biometric infrastructure (PBI) technology for realizing a public key infrastructure with biometric data.

なお、上記の図12の例では、重みテーブルを用いない認証処理のみを説明したが、第1実施例の内容を本実施例に組み入れて、重みテーブルを用いた認証処理も行ってもよい。   In the example of FIG. 12 described above, only the authentication process that does not use the weight table has been described. However, the contents of the first embodiment may be incorporated into the present embodiment and the authentication process using the weight table may be performed.

[第3実施例]
図17A及び図17Bは、第3の実施例である生体認証装置の一実施例である。本実施例の生体認証装置は、上記の第1実施例に適用可能な構成であり、スマートフォンやタブレットなどの携帯端末に実装される。この例において、携帯端末は、入力装置として、反射光照射用の可視光源とカラーカメラとを具備する。
[Third embodiment]
17A and 17B show an embodiment of a biometric authentication apparatus that is the third embodiment. The biometric authentication device of the present embodiment has a configuration applicable to the first embodiment and is mounted on a mobile terminal such as a smartphone or a tablet. In this example, the mobile terminal includes a visible light source for reflected light irradiation and a color camera as an input device.

上述した入力装置2がスマートフォン170の筺体に搭載されている。入力装置2は、スマートフォン170のメインボタンを兼用しており、入力装置2を押下することでスマートフォン170の様々な操作を行うこともできる。   The input device 2 described above is mounted on the housing of the smartphone 170. The input device 2 also serves as a main button of the smartphone 170, and various operations of the smartphone 170 can be performed by pressing the input device 2.

生体認証を行う場合、利用者は指1を入力装置2の上部の載置領域に接触するように置く。このとき、画面171に指を置く旨を表示することもできる。生体情報の撮影に関し、スマートフォン170などの小型端末に搭載できる入力装置2の大きさを鑑みると、入力装置の開口部22は指先より小さくなることが多く、よって撮影できる生体の面積は限定的となる(図17B)。たとえば入力装置2の開口部22の大きさが直径10mmの円であれば、指先の直径10mmの範囲が撮影できる。しかしながら、指先の面積はそれよりも広いことが多く、指先全体の情報を撮影することができない。これに対し、指先を中空に浮かせた非接触の状態で指先全体を撮影すれば、カメラの画角に指先すべてを映し出すことができる。   When performing biometric authentication, the user places the finger 1 in contact with the placement area at the top of the input device 2. At this time, it can be displayed on the screen 171 that a finger is placed. Regarding the imaging of biological information, in view of the size of the input device 2 that can be mounted on a small terminal such as the smartphone 170, the opening 22 of the input device is often smaller than the fingertip, and thus the area of the living body that can be captured is limited. (FIG. 17B). For example, if the size of the opening 22 of the input device 2 is a circle having a diameter of 10 mm, the range of the fingertip having a diameter of 10 mm can be photographed. However, the area of the fingertip is often larger than that, and information on the entire fingertip cannot be captured. On the other hand, if the entire fingertip is photographed in a non-contact state with the fingertip floating in a hollow state, the entire fingertip can be projected at the angle of view of the camera.

非接触で指先を中空に提示させる一般的な方法として、たとえば指の位置をカメラで撮影しながら目的となる指の位置をスマートフォンの画面に表示し、利用者はそれに合わせて指先を微調整する方法がある。しかし、この方法では、片手操作が難しいことや、位置合わせが直感的にやりにくかったり位置合わせに時間が掛かったりなどで疲労を起こすなど、操作性の低下が生じやすい。   As a general method of presenting the fingertips in a non-contact manner, for example, the target finger position is displayed on the smartphone screen while photographing the finger position with a camera, and the user fine-tunes the fingertip accordingly. There is a way. However, with this method, operability is likely to be degraded, such as difficulty in one-handed operation, fatigue due to the fact that it is difficult to perform alignment intuitively, and it takes time for alignment.

そこで、本実施例では、はじめに指1を所定の載置領域に置き、その位置で指1をタップ操作させるインターフェイスにより操作性を高める。図18A及び図18Bは、指1をタップすることで認証を行うスマートフォン170用の指先認証装置の操作の一実施例である。   Therefore, in this embodiment, the operability is enhanced by an interface in which the finger 1 is first placed in a predetermined placement area and the finger 1 is tapped at that position. 18A and 18B show an example of the operation of the fingertip authentication device for the smartphone 170 that performs authentication by tapping the finger 1.

なお、本実施例では、上述した画像入力部18及び認証処理部10などの構成要素は、スマートフォン170にインストールされたソフトウェアとして実装されている。なお、これらの構成要素は、スマートフォン170とは別の外部の認証装置で実装されてもよく、スマートフォン170内の入力装置2で取得した画像をネットワークを介して外部の認証装置に送信し、その外部の認証装置で認証処理を実行してもよい。   In the present embodiment, the components such as the image input unit 18 and the authentication processing unit 10 described above are implemented as software installed in the smartphone 170. Note that these components may be implemented by an external authentication device different from the smartphone 170, and the image acquired by the input device 2 in the smartphone 170 is transmitted to the external authentication device via the network. Authentication processing may be executed by an external authentication device.

まず、認証部10aは、スマートフォン170の画面171に「指をセンサに置いてください」と表示する。利用者はこれに合わせて親指180を入力装置2の載置領域上に置く。ただし、本実施例では、図17A、17Bないしは図18A、18Bに示す位置に入力装置2があるため親指180を載置領域に置くものとしたが、親指に限定されるものではない。たとえば、スマートフォン170の背面側に入力装置2を設け、人差し指ないしは中指を入力装置2に置かせるようにしても同様の操作性が実現できる。   First, the authentication unit 10a displays “Place your finger on the sensor” on the screen 171 of the smartphone 170. In accordance with this, the user places the thumb 180 on the placement area of the input device 2. However, in this embodiment, since the input device 2 is located at the position shown in FIGS. 17A and 17B or FIGS. 18A and 18B, the thumb 180 is placed in the placement area. However, the present invention is not limited to the thumb. For example, the same operability can be realized by providing the input device 2 on the back side of the smartphone 170 and placing the index finger or the middle finger on the input device 2.

次に、認証部10aは、スマートフォン170の画面171に「タップを開始してください」というガイダンスを表示する。これに合わせて利用者は親指180で入力装置2の開口部22の位置(載置領域)をタップする。タップ操作とは、所定の位置を指先で軽く叩く操作である。このとき、指先は宙に浮いたり装置に接触したりと上下に動くことになる。本実施例においては、入力装置2の開口部22を数回タップすることになる。図18Bには、中空に浮いている親指181が描かれている。利用者は、親指180を入力装置2の開口部22に接触させる動作(図18A)と、親指181を入力装置2の開口部22から浮かせる動作(図18B)とを繰り返す。   Next, the authentication unit 10a displays a guidance “Please start tapping” on the screen 171 of the smartphone 170. In accordance with this, the user taps the position (mounting area) of the opening 22 of the input device 2 with the thumb 180. The tap operation is an operation of tapping a predetermined position with a fingertip. At this time, the fingertip moves up and down as it floats in the air and contacts the device. In this embodiment, the opening 22 of the input device 2 is tapped several times. FIG. 18B depicts a thumb 181 floating in the air. The user repeats the operation of bringing the thumb 180 into contact with the opening 22 of the input device 2 (FIG. 18A) and the operation of lifting the thumb 181 from the opening 22 of the input device 2 (FIG. 18B).

タップ操作の利点としては、はじめに指先を入力装置2に合わせて置く際の置き場所は容易に把握できるため置き場所で迷いにくいこと、タップ操作は指の移動範囲が限定されるためその軌道があまり大きくぶれないこと、さらには指の長さが一定であるため指を最も遠ざけたときの距離は概ね一定になるため拡大率が安定すること、片手操作が可能であること、などがある。   As an advantage of the tap operation, the place where the fingertip is first placed on the input device 2 can be easily grasped so that it is difficult to get lost in the place. The tap operation has a limited trajectory because the range of movement of the finger is limited. There is that it does not shake greatly, and furthermore, since the finger length is constant, the distance when the finger is moved farthest is substantially constant, so that the enlargement rate is stable and one-handed operation is possible.

タップ操作中は、入力装置2内の可視光の光源3を親指に向けて照射し続けながら、カラーカメラ9により動画的に親指の反射光を撮影する。本実施例においては、脂肪紋が比較的鮮明に観測でき、かつ処理を簡単にするため、可視光源の波長を緑に限定し、撮影したカラー画像のうち緑のプレーンのみを利用するものとする。この利点は脂肪紋が観測しやすいだけでなく、色が緑に限定できるため指の領域を識別しやすいこともある。指がカメラに接している状態では画面全体が輝度飽和するが、指がカメラから遠ざかると指先全体が画角に入り、さらには周囲の背景画像も映り込む。タップした指が最も遠ざかった時点が最も指先が小さく見え、そして再びカメラに接近し、最後は指でカメラを覆う状態に戻る。この状態を数回繰り返す間にタップをしている最中の動画像が得られる。この動画像は、画像入力部18を介して認証処理部10に入力される。認証処理部10の認証部10aは、この動画像から、適正と判断できる指先の画像を抽出する。   During the tap operation, the reflected light of the thumb is photographed in a moving image by the color camera 9 while continuing to irradiate the visible light source 3 in the input device 2 toward the thumb. In the present embodiment, the wavelength of the visible light source is limited to green and only the green plane of the photographed color image is used so that the fat pattern can be observed relatively clearly and the processing is simplified. . This advantage not only makes it easy to observe fat prints, but also makes it easier to identify finger regions because the color can be limited to green. The brightness of the entire screen is saturated when the finger is in contact with the camera, but when the finger is moved away from the camera, the entire fingertip enters the angle of view, and the surrounding background image is also reflected. When the tapped finger is farthest away, the fingertip appears to be the smallest, and approaches the camera again, and finally returns to the state of covering the camera with the finger. A moving image while tapping is obtained while repeating this state several times. This moving image is input to the authentication processing unit 10 via the image input unit 18. The authentication unit 10a of the authentication processing unit 10 extracts an image of a fingertip that can be determined to be appropriate from the moving image.

適正と判断できる指先の画像は、指のぶれが少なく、指先全体が撮影できている状態が望ましい。この状態は、タップ中で最も指先が入力装置2から離れた状態であると考えられる。照射している緑の光源3が指先に照射されたときの画像上の面積が小さくなっているときに指が最も遠ざかっていると推定できる。そのため、動画像の各フレームの画像に対し、緑成分が強い画素値を持つ画素のうち、空間的に連続している画素の画素数を算出し、それを時系列に並べた時の最小値となるフレームを指が最も遠ざかったときの画像として獲得できる。指が最も遠ざかっている状態は、指の移動速度が最も遅いため、映像のぶれが少なく、安定した画像を得ることが可能となる。もしくは、空間的に連続している緑成分の強い画素の数が所定の範囲にあるときの画像を最適画像として獲得してもよい。また、数回タップを促すことから、適正と判断した画像が複数枚得られることになる。ここではこれらすべてを認証に用いるものとする。   The image of the fingertip that can be determined to be appropriate is preferably in a state where the fingertip is less shaken and the entire fingertip can be photographed. This state is considered to be a state in which the fingertip is farthest from the input device 2 during the tap. It can be estimated that the finger is farthest away when the area on the image when the fingertip is irradiated with the illuminating green light source 3 is small. Therefore, for the image of each frame of the moving image, the minimum value when calculating the number of pixels of spatially continuous pixels among the pixels with strong green component pixel values and arranging them in time series Can be acquired as an image when the finger is farthest away. In the state where the finger is farthest away, the moving speed of the finger is the slowest, so that there is little blurring of the image and a stable image can be obtained. Alternatively, an image obtained when the number of spatially continuous pixels with strong green components is within a predetermined range may be acquired as the optimum image. In addition, since several taps are urged, a plurality of images determined to be appropriate are obtained. Here, all of these are used for authentication.

指画像の撮影が完了すると、認証部10aは、その画像から指先の領域を切り出す。指先は緑の光源3が照射されているため、緑色で連続した画素の塊を指先と見なす方法で実施できる。あるいは、グラフカットなどのセグメンテーションに基づいて指先の領域を決定してもよい。   When photographing of the finger image is completed, the authentication unit 10a cuts out the fingertip region from the image. Since the fingertip is irradiated with the green light source 3, it can be implemented by a method in which a lump of continuous pixels in green is regarded as the fingertip. Alternatively, the fingertip region may be determined based on segmentation such as graph cut.

続いて、認証部10aは、指先の領域内に存在する脂肪紋の模様を抽出し、そして照合を行う。この処理は上述の通り、アンシャープマスク処理による脂肪紋の強調処理と、脂肪紋の照合処理手法を利用することができる。ただし、複数枚の指先画像が得られているため、認証部10aは、複数枚の登録画像と複数枚の入力画像の総当たり照合を実施し、最も類似度が高い結果を最終的な類似度を算出する。この類似度が事前に決定した所定の値を上回る場合に、登録された指が提示されたとして認証を成功させる。その結果、たとえばスマートフォン170のロック解除やネットショッピングの際の本人確認が自動的に実施できる。   Subsequently, the authentication unit 10a extracts a fatty pattern existing in the fingertip region and performs collation. As described above, this process can use fat pattern emphasis processing by unsharp mask processing and fat pattern matching processing techniques. However, since a plurality of fingertip images are obtained, the authentication unit 10a performs a brute force comparison between the plurality of registered images and the plurality of input images, and obtains the highest similarity as the final similarity. Is calculated. If the similarity exceeds a predetermined value determined in advance, the authentication is successful assuming that the registered finger is presented. As a result, for example, it is possible to automatically perform identity verification when unlocking the smartphone 170 or shopping online.

なお、指先の脂肪紋を活用するだけではなく、反射画像から指紋などの他の生体特徴を抽出して併用してもよい。これにより、より認証精度を高めることができる。   It should be noted that not only the fat prints on the fingertips but also other biological features such as fingerprints may be extracted from the reflected image and used together. Thereby, authentication accuracy can be improved more.

本実施例によれば、スマートフォンなどの小型の携帯端末において使い勝手が良い、高精度な個人認証を実行する生体認証装置を提供することができる。特に、生体を提示する際の自由度が高く保ちつつ、高精度な個人認証が可能である。   According to the present embodiment, it is possible to provide a biometric authentication device that performs high-precision personal authentication that is easy to use in a small portable terminal such as a smartphone. In particular, highly accurate personal authentication is possible while maintaining a high degree of freedom when presenting a living body.

本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。上記実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることもできる。また、ある実施例の構成に他の実施例の構成を加えることもできる。また、各実施例の構成の一部について、他の構成を追加・削除・置換することもできる。   The present invention is not limited to the above-described embodiments, and includes various modifications. The above embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Also, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment. Moreover, the structure of another Example can also be added to the structure of a certain Example. Further, with respect to a part of the configuration of each embodiment, another configuration can be added, deleted, or replaced.

例えば、重畳して存在する複数の生体組織に関する情報を獲得するという観点において、本発明は、認証部を備えていない画像撮影装置として実施されてもよい。当該画像撮影装置は、指が載置される載置領域と、指に光を照射する少なくとも1つの光源と、光源からの光を撮影して少なくとも1つの画像を取得する撮像部とを備える。撮像部は、指を載置領域に接触させた又は押し付けたときの、複数の異なる状態の画像を取得してもよい。これにより、重畳して存在する複数の生体組織に関する情報を獲得することが可能となる。また、上述した実施例と同様に、撮像部は、透過光源による第1の画像と、反射光源による第2の画像を取得するように構成されてもよい。さらに、上述した実施例と同様に、撮像部は、指で前記載置領域を叩く操作中に複数の画像を取得するように構成されてもよい。なお、認証処理以外の上述した画像処理部の機能の一部又は全部が、適宜、当該画像撮影装置に実装されてもよい。   For example, the present invention may be implemented as an image capturing apparatus that does not include an authentication unit, from the viewpoint of acquiring information related to a plurality of biological tissues that are superimposed. The image capturing apparatus includes a placement area on which a finger is placed, at least one light source that irradiates light on the finger, and an imaging unit that captures light from the light source to acquire at least one image. The imaging unit may acquire a plurality of images in different states when the finger is brought into contact with or placed on the placement area. As a result, it is possible to acquire information on a plurality of living tissues that are superimposed. Similarly to the above-described embodiment, the imaging unit may be configured to acquire the first image by the transmissive light source and the second image by the reflected light source. Further, as in the above-described embodiment, the imaging unit may be configured to acquire a plurality of images during an operation of hitting the placement area with a finger. Note that some or all of the functions of the above-described image processing unit other than the authentication processing may be appropriately implemented in the image capturing apparatus.

上記各構成、機能、処理部等は、それらの一部や全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置、ICカード、SDカード、DVD等の記録媒体に格納することができる。   Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

上述の実施例において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。   In the above-described embodiments, the control lines and information lines are those that are considered necessary for explanation, and not all the control lines and information lines on the product are necessarily shown. All the components may be connected to each other.

本発明は、小型で利便性に優れた高精度な生体認証装置を実現することができ、個人認証装置として有用である。   INDUSTRIAL APPLICABILITY The present invention can implement a highly accurate biometric authentication device that is small and excellent in convenience, and is useful as a personal authentication device.

1・・・指、2・・・入力装置、3・・・光源、9・・・撮像装置(カラーカメラ)、10・・・認証処理部、10a・・・認証部、10b・・・登録部、11・・・CPU(中央処理部)、12・・・メモリ、13・・・インターフェイス、14・・・記憶装置、15・・・表示部、16・・・入力部、17・・・スピーカ、18・・・画像入力部、21・・・筺体、22・・・開口部、23・・・アクリル板、30・・・静脈、31・・・指紋、32・・・毛細血管、33・・・脂肪小葉、34・・・表皮、35・・・真皮層、36・・・皮下組織、60・・・指を押し付ける前の画素値、61・・・指を押し付けた後の画素値、70・・・指先画像、71・・・血液模様、72・・・消失していない血液模様、73・・・消失した血液模様、100・・・登録データ、101・・・入力データ、102・・・血液部、103・・・非血液部、104・・・重みテーブル、105・・・血液の観測頻度の高い部分、106・・・血液の観測頻度が低い部分、110・・・透過光源、111・・・反射光源、112・・・透過光源支持部、130・・・指の赤外透過画像、131・・・指の可視光反射画像、132・・・指静脈、133・・・脂肪紋、134・・・静脈と脂肪紋の合成画像、140・・・指静脈パターン画像、141・・・脂肪紋画像、143・・・指静脈の特徴点、145・・・脂肪紋の特徴点、146・・・指静脈と脂肪紋の特徴点合成画像、150・・・登録指静脈パターン、151・・・入力指静脈パターン、152・・・登録脂肪紋、153・・・入力脂肪紋、160・・・指静脈と関節紋の重畳映像、161・・・関節紋、162・・・静脈パターンと関節紋の重畳画像、163・・・指静脈と関節紋との交差部、164,165,166・・・2値コード、170・・・スマートフォン、171・・・画面、180・・・親指、181・・・中空に浮いている親指 DESCRIPTION OF SYMBOLS 1 ... Finger, 2 ... Input device, 3 ... Light source, 9 ... Imaging device (color camera), 10 ... Authentication processing part, 10a ... Authentication part, 10b ... Registration 11, CPU (Central Processing Unit), 12 Memory, 13 Interface, 14 Storage device, 15 Display unit, 16 Input unit, 17 Speaker, 18 ... image input unit, 21 ... housing, 22 ... opening, 23 ... acrylic plate, 30 ... vein, 31 ... fingerprint, 32 ... capillary, 33 ... Fat leaflets, 34 ... skin, 35 ... dermis layer, 36 ... subcutaneous tissue, 60 ... pixel value before pressing finger, 61 ... pixel value after pressing finger , 70 ... fingertip image, 71 ... blood pattern, 72 ... blood pattern that has not disappeared, 73 ... blood that has disappeared 100 ... registration data, 101 ... input data, 102 ... blood part, 103 ... non-blood part, 104 ... weight table, 105 ... part with high blood observation frequency, 106: a portion where blood observation frequency is low, 110: a transmission light source, 111: a reflection light source, 112 ... a transmission light source support, 130 ... an infrared transmission image of a finger, 131 ... Visible light reflection image of finger, 132 ... finger vein, 133 ... fat pattern, 134 ... composite image of vein and fat pattern, 140 ... finger vein pattern image, 141 ... fat pattern image, 143: Finger vein feature points, 145 ... Fat print feature points, 146 ... Finger vein and fat print feature point composite image, 150 ... Registered finger vein pattern, 151 ... Input finger Vein pattern, 152 ... registered fat crest, 153 ... input Fat pattern, 160 ... superimposed image of finger vein and joint pattern, 161 ... joint pattern, 162 ... superimposed image of vein pattern and joint pattern, 163 ... intersection of finger vein and joint pattern, 164, 165, 166 ... binary code, 170 ... smartphone, 171 ... screen, 180 ... thumb, 181 ... thumb floating in the air

Claims (15)

指が載置される載置領域と、
前記指に光を照射する少なくとも1つの光源と、
前記光源からの光を撮影して少なくとも1つの画像を取得する撮像部と、
前記画像を処理する認証部と、
前記指の内部に重畳する複数の生体特徴のうち少なくとも1つに関する登録情報を記憶する記憶部と、
を備え、
前記認証部は、
前記画像から、前記指の内部に重畳する複数の生体特徴に関する色素濃度の分布の情報を取得し、
前記色素濃度の分布の情報から少なくとも1つの生体特徴に関する入力情報を取得し、
前記入力情報と前記登録情報とを用いて類似度を算出し、
前記類似度に基づいて認証を行うことを特徴とする生体認証装置。
A placement area on which a finger is placed;
At least one light source for illuminating the finger;
An image capturing unit that captures light from the light source to acquire at least one image;
An authentication unit for processing the image;
A storage unit that stores registration information related to at least one of a plurality of biometric features superimposed on the inside of the finger;
With
The authentication unit
From the image, obtain information on the distribution of pigment concentration related to a plurality of biological features superimposed on the inside of the finger,
Obtaining input information relating to at least one biological feature from the distribution of the pigment concentration;
Calculating the similarity using the input information and the registration information;
A biometric authentication device that performs authentication based on the similarity.
請求項1に記載の生体認証装置において、
前記色素濃度の分布の情報は、メラニンとヘモグロビンの濃度の分布の情報であることを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
The biometric authentication apparatus characterized in that the information on the distribution of the pigment concentration is information on the distribution of the concentrations of melanin and hemoglobin.
請求項2に記載の生体認証装置において、
前記入力情報及び前記登録情報は、前記メラニンと前記ヘモグロビンとのコントラストで表される脂肪紋に関する情報であることを特徴する生体認証装置。
The biometric authentication device according to claim 2,
The biometric authentication device, wherein the input information and the registration information are information relating to a fat pattern represented by a contrast between the melanin and the hemoglobin.
請求項1に記載の生体認証装置において、
前記撮像部は、前記指を前記載置領域に接触させた又は押し付けたときの、複数の異なる状態の画像を取得し、
前記認証部は、前記複数の異なる状態の画像での色情報の変化量をもとに、前記色素濃度の分布の情報を算出することを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
The imaging unit acquires images in a plurality of different states when the finger is brought into contact with or pressed against the placement area,
The biometric authentication device, wherein the authentication unit calculates information on the distribution of the dye concentration based on a change amount of color information in the plurality of images in different states.
請求項1に記載の生体認証装置において、
前記認証部は、前記画像内の色情報から前記指の特定の部位を特定し、前記部位の色情報から前記色素濃度の分布の情報を算出することを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
The biometric authentication device, wherein the authentication unit specifies a specific part of the finger from color information in the image, and calculates information on the distribution of the pigment concentration from the color information of the part.
請求項1に記載の生体認証装置において、
前記認証部は、前記色素濃度の分布の情報を用いて前記画像に含まれる複数の生体特徴を区別して抽出し、前記入力情報を取得することを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
The biometric authentication apparatus, wherein the authentication unit distinguishes and extracts a plurality of biometric features included in the image using information on the distribution of the pigment concentration, and acquires the input information.
請求項3に記載の生体認証装置において、
前記入力情報は、前記脂肪紋に関する第1の画像であり、
前記登録情報は、前記脂肪紋に関する第2の画像と、前記指を前記載置領域に接触させた又は押し付けたときの複数の異なる状態の画像における、血液の観測確率の分布を表す観測確率分布情報とを含み、
前記認証部は、前記第1の画像と前記第2の画像とを重ね合わせたときの相違画素数を、前記観測確率分布情報を用いて変換することにより、前記類似度を算出することを特徴とする生体認証装置。
The biometric authentication device according to claim 3.
The input information is a first image related to the fat print,
The registration information includes an observation probability distribution representing a distribution of blood observation probabilities in a second image related to the fat print and images in a plurality of different states when the finger is brought into contact with or pressed against the placement area. Information and
The authentication unit calculates the similarity by converting the number of different pixels when the first image and the second image are overlaid using the observation probability distribution information. A biometric authentication device.
請求項7に記載の生体認証装置において、
前記複数の異なる状態の画像から前記観測確率分布情報を作成し、当該観測確率分布情報と、前記複数の異なる状態の画像から選択した前記第2の画像とを前記記憶部に格納する登録部をさらに備えることを特徴とする生体認証装置。
The biometric authentication device according to claim 7, wherein
A registration unit that creates the observation probability distribution information from the plurality of images in different states, and stores the observation probability distribution information and the second image selected from the plurality of images in different states in the storage unit; A biometric authentication device further comprising:
請求項1に記載の生体認証装置において、
前記光源は、前記指の上方に位置する近赤外の透過光源と、前記指の下方に位置する可視光の反射光源とを含み、
前記撮像部は、前記透過光源による第1の画像と、前記反射光源による第2の画像を取得し、
前記登録情報は、前記指の内部に重畳する第1の生体特徴の登録情報及び第2の生体特徴の登録情報を含み、
前記認証部は、
前記第1の画像から前記第1の生体特徴の入力情報を取得するとともに、前記第2の画像から前記第2の生体特徴の入力情報を取得し、
前記第1の生体特徴の前記入力情報及び前記第2の生体特徴の前記入力情報と、前記第1の生体特徴の前記登録情報及び前記第2の生体特徴の前記登録情報とを照合し、認証を行うことを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
The light source includes a near-infrared transmission light source located above the finger, and a visible light reflection light source located below the finger,
The imaging unit acquires a first image from the transmissive light source and a second image from the reflected light source,
The registration information includes registration information of a first biometric feature and registration information of a second biometric feature superimposed on the inside of the finger,
The authentication unit
Obtaining the input information of the first biometric feature from the first image, obtaining the input information of the second biometric feature from the second image,
The input information of the first biometric feature and the input information of the second biometric feature are collated with the registration information of the first biometric feature and the registration information of the second biometric feature, and authentication is performed. A biometric authentication device.
請求項9に記載の生体認証装置において、
前記認証部は、前記第1の生体特徴における第1の特徴点と、前記第2の生体特徴における第2の特徴点と、前記第1の生体特徴と前記第2の生体特徴とが重なる点である第3の特徴点とを用いて前記照合を行うことを特徴とする生体認証装置。
The biometric authentication device according to claim 9, wherein
The authentication unit includes a first feature point of the first biometric feature, a second feature point of the second biometric feature, and a point where the first biometric feature and the second biometric feature overlap. A biometric authentication device that performs the collation using a third feature point.
請求項10に記載の生体認証装置において、
前記第1の生体特徴は、指静脈であり、
前記第2の生体特徴は、メラニンとヘモグロビンとのコントラストで表される脂肪紋であることを特徴とする生体認証装置。
The biometric authentication device according to claim 10, wherein
The first biological feature is a finger vein;
The biometric authentication device, wherein the second biometric feature is a fat print expressed by a contrast between melanin and hemoglobin.
請求項9に記載の生体認証装置において、
前記認証部は、前記照合の際、
前記第1の生体特徴の前記入力情報と前記第1の生体特徴の前記登録情報とを重ね合わせたときの第1の位置ずれ量を求め、
前記第1の位置ずれ量の状態で、前記第2の生体特徴の前記入力情報と前記第2の生体特徴の前記登録情報とを照合して第1の類似度を算出し、
前記第2の生体特徴の前記入力情報と前記第2の生体特徴の前記登録情報とを重ね合わせたときの第2の位置ずれ量を求め、
前記第2の位置ずれ量の状態で、前記第1の生体特徴の前記入力情報と前記第1の生体特徴の前記登録情報とを照合して第2の類似度を算出し、
前記第1の類似度と前記第2の類似度から最終的な類似度を算出することを特徴とする生体認証装置。
The biometric authentication device according to claim 9, wherein
The authentication unit, during the verification,
Obtaining a first displacement amount when the input information of the first biometric feature and the registration information of the first biometric feature are superimposed;
In the state of the first displacement amount, the first similarity is calculated by comparing the input information of the second biometric feature and the registration information of the second biometric feature,
Obtaining a second displacement amount when the input information of the second biometric feature and the registration information of the second biometric feature are superimposed;
The second similarity is calculated by comparing the input information of the first biometric feature with the registration information of the first biometric feature in the state of the second displacement amount,
A biometric authentication device, wherein a final similarity is calculated from the first similarity and the second similarity.
請求項9に記載の生体認証装置において、
前記認証部は、前記照合の際、
前記第1の生体特徴の前記入力情報と前記第2の生体特徴の前記入力情報とを重ね合わせたときの交差点をコード化したコード化入力情報を作成し、
前記コード化入力情報と、前記第1の生体特徴の前記登録情報と前記第2の生体特徴の前記登録情報とを重ね合わせたときの交差点をコード化したコード化登録情報とを照合することを特徴とする生体認証装置。
The biometric authentication device according to claim 9, wherein
The authentication unit, during the verification,
Creating coded input information that encodes an intersection when the input information of the first biometric feature and the input information of the second biometric feature are superimposed;
Collating the coded input information with coded registration information obtained by coding an intersection when the registration information of the first biometric feature and the registration information of the second biometric feature are overlapped. A biometric authentication device.
請求項13に記載の生体認証装置において、
前記第1の生体特徴は、指静脈であり、
前記第2の生体特徴は、前記指の関節部位でのメラニンとヘモグロビンとのコントラストで表される関節紋であることを特徴とする生体認証装置。
The biometric authentication device according to claim 13,
The first biological feature is a finger vein;
The biometric authentication device, wherein the second biometric feature is a joint pattern represented by a contrast between melanin and hemoglobin at a joint portion of the finger.
請求項1に記載の生体認証装置において、
表示部を備える携帯端末をさらに備え、
少なくとも前記載置領域と、前記光源と、前記撮像部とが前記携帯端末上に実装されており、
前記認証部は、前記指で前記載置領域を叩く操作を行うことを前記表示部に表示し、
前記撮像部は、前記指で前記載置領域を叩く操作中に複数の画像を取得し、
前記認証部は、前記複数の画像から前記入力情報を取得することを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
It further includes a portable terminal having a display unit,
At least the placement area, the light source, and the imaging unit are mounted on the mobile terminal,
The authentication unit displays on the display unit the operation of hitting the placement area with the finger,
The imaging unit acquires a plurality of images during an operation of hitting the placement area with the finger,
The biometric authentication device, wherein the authentication unit acquires the input information from the plurality of images.
JP2014235711A 2014-11-20 2014-11-20 Biometric authentication device Active JP6320277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014235711A JP6320277B2 (en) 2014-11-20 2014-11-20 Biometric authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014235711A JP6320277B2 (en) 2014-11-20 2014-11-20 Biometric authentication device

Publications (2)

Publication Number Publication Date
JP2016096987A true JP2016096987A (en) 2016-05-30
JP6320277B2 JP6320277B2 (en) 2018-05-09

Family

ID=56075351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014235711A Active JP6320277B2 (en) 2014-11-20 2014-11-20 Biometric authentication device

Country Status (1)

Country Link
JP (1) JP6320277B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018119318A1 (en) * 2016-12-21 2018-06-28 Essenlix Corporation Devices and methods for authenticating a sample and use of the same
WO2018185992A1 (en) * 2017-04-05 2018-10-11 株式会社日立製作所 Biometric authentication device and method
WO2019131858A1 (en) * 2017-12-28 2019-07-04 株式会社ノルミー Personal authentication method and personal authentication device
WO2019142479A1 (en) * 2018-01-22 2019-07-25 株式会社日立産業制御ソリューションズ Biometric authentication device
WO2020071008A1 (en) 2018-10-03 2020-04-09 株式会社日立製作所 Biometric authentication system, biometric authentication method, and program
WO2020090348A1 (en) * 2018-10-30 2020-05-07 シャープ株式会社 Coefficient determination device, pigment concentration calculation device, coefficient determination method, and information processing program
CN111507206A (en) * 2020-03-29 2020-08-07 杭州电子科技大学 Finger vein identification method based on multi-scale local feature fusion
JP2020123068A (en) * 2019-01-29 2020-08-13 株式会社 日立産業制御ソリューションズ Biometric authentication device, biometric authentication method, and computer program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7267475B1 (en) 2022-02-17 2023-05-01 株式会社新来島どっく Pipe joint welding method using plasma welding prior to CO2 welding and joint pipe welded by this method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003331270A (en) * 2002-05-09 2003-11-21 Sony Corp Bio-pattern detecting means, bio-pattern detecting device, biometrics method and biometrics device
WO2005069212A1 (en) * 2004-01-13 2005-07-28 Fujitsu Limited Authenticator using organism information
WO2009107470A1 (en) * 2008-02-27 2009-09-03 日本電気株式会社 Mole identifying device, and personal authentication device, method, and program
JP2012009076A (en) * 2011-10-03 2012-01-12 Sony Corp Biological information detection device, biological information detection method and biological information detection program
JP2013236758A (en) * 2012-05-15 2013-11-28 Sony Corp Information processor, information processing method, program and information processing system
US20140016832A1 (en) * 2010-12-09 2014-01-16 Los Angeles Biomedical Research Institute Method and an apparatus for determining vein patterns from a colour image
WO2014033842A1 (en) * 2012-08-28 2014-03-06 株式会社日立製作所 Authentication device and authentication method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003331270A (en) * 2002-05-09 2003-11-21 Sony Corp Bio-pattern detecting means, bio-pattern detecting device, biometrics method and biometrics device
WO2005069212A1 (en) * 2004-01-13 2005-07-28 Fujitsu Limited Authenticator using organism information
WO2009107470A1 (en) * 2008-02-27 2009-09-03 日本電気株式会社 Mole identifying device, and personal authentication device, method, and program
US20140016832A1 (en) * 2010-12-09 2014-01-16 Los Angeles Biomedical Research Institute Method and an apparatus for determining vein patterns from a colour image
JP2012009076A (en) * 2011-10-03 2012-01-12 Sony Corp Biological information detection device, biological information detection method and biological information detection program
JP2013236758A (en) * 2012-05-15 2013-11-28 Sony Corp Information processor, information processing method, program and information processing system
WO2014033842A1 (en) * 2012-08-28 2014-03-06 株式会社日立製作所 Authentication device and authentication method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018119318A1 (en) * 2016-12-21 2018-06-28 Essenlix Corporation Devices and methods for authenticating a sample and use of the same
WO2018185992A1 (en) * 2017-04-05 2018-10-11 株式会社日立製作所 Biometric authentication device and method
JP2018180660A (en) * 2017-04-05 2018-11-15 株式会社日立製作所 Biometric authentication device and method
WO2019131858A1 (en) * 2017-12-28 2019-07-04 株式会社ノルミー Personal authentication method and personal authentication device
JP2019121344A (en) * 2017-12-28 2019-07-22 株式会社ノルミー Individual authentication method, and individual authentication device
WO2019142479A1 (en) * 2018-01-22 2019-07-25 株式会社日立産業制御ソリューションズ Biometric authentication device
JP2019128630A (en) * 2018-01-22 2019-08-01 株式会社 日立産業制御ソリューションズ Biometric authentication device
JP7002348B2 (en) 2018-01-22 2022-02-10 株式会社 日立産業制御ソリューションズ Biometric device
KR20210038644A (en) 2018-10-03 2021-04-07 가부시끼가이샤 히다치 세이사꾸쇼 Biometric authentication system, biometric authentication method and program
WO2020071008A1 (en) 2018-10-03 2020-04-09 株式会社日立製作所 Biometric authentication system, biometric authentication method, and program
WO2020090348A1 (en) * 2018-10-30 2020-05-07 シャープ株式会社 Coefficient determination device, pigment concentration calculation device, coefficient determination method, and information processing program
JPWO2020090348A1 (en) * 2018-10-30 2021-10-07 シャープ株式会社 Coefficient determination device, dye concentration calculation device, coefficient determination method, and information processing program
JP2022023916A (en) * 2018-10-30 2022-02-08 シャープ株式会社 Device and method for detecting pulse and information processing program
JP7141509B2 (en) 2018-10-30 2022-09-22 シャープ株式会社 Pulse wave detection device, pulse wave detection method, and information processing program
JP2020123068A (en) * 2019-01-29 2020-08-13 株式会社 日立産業制御ソリューションズ Biometric authentication device, biometric authentication method, and computer program
CN111507206A (en) * 2020-03-29 2020-08-07 杭州电子科技大学 Finger vein identification method based on multi-scale local feature fusion
CN111507206B (en) * 2020-03-29 2023-04-18 杭州电子科技大学 Finger vein identification method based on multi-scale local feature fusion

Also Published As

Publication number Publication date
JP6320277B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
JP6320277B2 (en) Biometric authentication device
US20220165087A1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6165540B2 (en) Blood vessel imaging device and terminal
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR102561723B1 (en) System and method for performing fingerprint-based user authentication using images captured using a mobile device
JP5292821B2 (en) Vein image acquisition device and vein image acquisition method
JP2009544108A (en) Multispectral image for multiple biometric authentication
JP6160148B2 (en) Biological information input device, biometric information input program, and biometric information input method
US20220300593A1 (en) System and method of biometric identification of a subject
JPWO2010041731A1 (en) Verification device, verification method, and program
US20220121869A1 (en) Biometric authentication device and biometric authentication method
CN115457602A (en) Biological feature recognition method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170321

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R151 Written notification of patent or utility model registration

Ref document number: 6320277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151