JP2008206536A - Personal authentication system using retina image - Google Patents

Personal authentication system using retina image Download PDF

Info

Publication number
JP2008206536A
JP2008206536A JP2007043302A JP2007043302A JP2008206536A JP 2008206536 A JP2008206536 A JP 2008206536A JP 2007043302 A JP2007043302 A JP 2007043302A JP 2007043302 A JP2007043302 A JP 2007043302A JP 2008206536 A JP2008206536 A JP 2008206536A
Authority
JP
Japan
Prior art keywords
image
personal authentication
individual
authentication method
macula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007043302A
Other languages
Japanese (ja)
Inventor
Masao Itakura
征男 板倉
Naoki Muramatsu
直紀 村松
Suutai Nakajima
崇泰 中嶋
Masatoshi Mizoguchi
正敏 溝口
Yukio Hoshino
幸夫 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWASAKI GAKUEN
Original Assignee
IWASAKI GAKUEN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWASAKI GAKUEN filed Critical IWASAKI GAKUEN
Priority to JP2007043302A priority Critical patent/JP2008206536A/en
Publication of JP2008206536A publication Critical patent/JP2008206536A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain a persona authentication by acquiring information, that is hardly taken secretly and has an individual difference, from a retina image. <P>SOLUTION: The personal authentication is performed on the basis of the retina image of an eye photographed by a fundus camera. The retina image of the eye of an individual to be authenticated is photographed, the positions of an optic disk and an yellow spot part are specified from the photographed retina image, the retina image is normalized on the basis of the determined positions of the optic disk and the yellow spot part and normalized image data are acquired. By comparing a part of the normalized image data with reference data, the individual is authenticated. To put it concretely, there are the system of matching a part of the retina image by a correlation method and performing discrimination, the method of performing discrimination by the intersection position of a measurement ellipsoid for which the optic disk and the yellow spot part are focuses and a blood vessel, and the method of performing discrimination by a color distribution on a straight line connecting the yellow spot part and the optic disk, etc. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、個人認証に関し、特に眼底カメラにより撮影した網膜画像を用いて個人認証を行なう技術に関するものである。   The present invention relates to personal authentication, and more particularly to a technique for performing personal authentication using a retinal image taken by a fundus camera.

例えば、指紋、虹彩、顔等の外面的な特徴から取得した生体情報を用いて個人認証を行なう技術が多数提案されている。しかしながら、これらの技術は、いずれも、例えば付着指紋の抽出や写真撮影により生体情報が容易に盗み取られるという問題を有している。   For example, many techniques for performing personal authentication using biometric information acquired from external features such as fingerprints, irises, and faces have been proposed. However, each of these techniques has a problem that biometric information can be easily stolen by, for example, extracting an attached fingerprint or taking a picture.

これに対し、網膜の血管パターンはこれらの外面的な特徴とは異なり、目の中に保持されているため、本人の意識しない所での撮影は困難であり、盗み撮りを行なうことは極めて難しいという利点を有する。   On the other hand, the retinal blood vessel pattern, unlike these external features, is held in the eye, so it is difficult to shoot in places where the person is not conscious, and it is extremely difficult to take a voyeur. Have advantages.

ところが、従来、網膜画像の撮影には瞳孔を開くための特別な目薬が必要であり、ユーザへの負担が大きく、撮影が非常に困難であった。このため、生体認証方式としては、過去に、赤外線を利用したものが米国で製品化されたことを除いて、ほとんど実用化の対象になっていなかった。   However, conventionally, special eye drops for opening the pupils are necessary for taking a retinal image, and the burden on the user is large, making it very difficult to take a picture. For this reason, the biometric authentication method has hardly been put into practical use except that in the past, those using infrared rays have been commercialized in the United States.

上述の米国で製品化されたものは、1985年に製品化がなされた米国Eyedentify社の製品であり、網膜の血管パターンを用いて個人認証を行なうものである。   The product manufactured in the United States described above is a product of US Eyedentify Co., Ltd., which was commercialized in 1985, and performs personal authentication using the blood vessel pattern of the retina.

この製品は、網膜の血管パターンを取り込むために赤外線を利用しており、その反射光が示すデータを用いて、登録データと認証データとを比較することで本人判定を行なうものである。この製品の個人認証処理は、概略次のような手順によって行なわれる。
(1)まず、ユーザが装置の中に見える光を見つめて視線を調整する。
(2)次に、視線が固定された状態で赤外線を照射して円形スキャンが行なわれる。
(3)照射された赤外線は、血管部分では吸収され、血管以外の部分では反射されるため、反射光は血管パターンを反映することになる。
(4)反射光を検知することにより読み取られた血管パターンのアナログ信号は、デジタル信号に変換される。
(5)登録時には5回程度の測定を行ない、その平均値が登録データとして保存される。
(6)認証時には、登録時と同様のスキャンが実行され、認証データが登録データと一定の閾値以上一致しているかどうかを比較することで本人判定が行なわれる。
米国特許第4,109,237号明細書
This product uses infrared rays to capture the blood vessel pattern of the retina, and uses the data indicated by the reflected light to compare the registered data and the authentication data to determine the identity. The personal authentication process of this product is generally performed according to the following procedure.
(1) First, the user looks at the light that can be seen in the apparatus and adjusts the line of sight.
(2) Next, circular scanning is performed by irradiating infrared rays with the line of sight fixed.
(3) Since the irradiated infrared rays are absorbed in the blood vessel portion and reflected in portions other than the blood vessel, the reflected light reflects the blood vessel pattern.
(4) The analog signal of the blood vessel pattern read by detecting the reflected light is converted into a digital signal.
(5) At the time of registration, measurement is performed about 5 times, and the average value is stored as registration data.
(6) At the time of authentication, a scan similar to that at the time of registration is executed, and identity determination is performed by comparing whether the authentication data matches the registration data by a certain threshold or more.
US Pat. No. 4,109,237

しかしながら、上記従来例の製品においては、登録時や認証時における視線の固定をユーザの動作に依存しており、ユーザが視線をずらすと赤外線によるスキャンエリアがずれてしまい、認証に悪影響を及ぼすという不都合があった。すなわち、上記従来例の製品では、網膜認証にとって視線の固定が絶対的な条件とされていた。   However, in the above-described conventional product, the fixation of the line of sight at the time of registration or authentication depends on the user's operation, and if the user shifts the line of sight, the scan area by infrared rays is shifted, which adversely affects the authentication. There was an inconvenience. That is, in the above-described conventional product, fixation of the line of sight is an absolute condition for retinal authentication.

また、顔の傾き具合によっては、スキャン結果に回転ずれが発生してしまうため、認証処理中において、このずれを吸収するための処理が必要となり、認証処理が複雑化しかつ認証速度が低下する。これは、上記製品が赤外線を使用しているために血管のみの特定しかできず、認証に使用する場所を自動的に決定することができないことが原因である。   Further, depending on the degree of face inclination, a rotational deviation occurs in the scan result. Therefore, a process for absorbing this deviation is required during the authentication process, which complicates the authentication process and lowers the authentication speed. This is because the product uses only infrared rays so that only a blood vessel can be specified, and the location used for authentication cannot be automatically determined.

近年、瞳孔を開くための特別な目薬を付けることなく網膜画像の撮影が可能な装置が開発・実用化されたことにより、網膜画像の撮影が容易になりつつあり、以前よりも網膜画像を利用した個人認証の実現の可能性が高くなってきていると言える。   In recent years, the development and commercialization of devices capable of taking retinal images without applying special eye drops to open the pupils has made it easier to take retinal images. It can be said that the possibility of realizing personal authentication is increasing.

したがって、本発明の目的は、上述の従来技術における問題点に鑑み、網膜画像を利用して視神経乳頭と黄斑部とを特定するという構想に基づき、ユーザの視線の固定を絶対条件とせずかつ顔の傾き具合などに依存することなく、的確に個人認証を行なうことができるようにすることにある。   Therefore, in view of the above-described problems in the prior art, the object of the present invention is based on the concept of identifying the optic nerve head and the macula using retinal images, and does not require the fixation of the user's line of sight as an absolute condition. It is intended to enable accurate personal authentication without depending on the inclination of the user.

近年、瞳孔を開くための特別な目薬を付けることなく網膜画像の撮影が可能な眼底カメラが開発・実用化されたことにより、網膜画像の撮影が容易になりつつある。したがって、本発明では、網膜画像を利用し、従来の赤外線方式では特定できない特徴的な部位である視神経乳頭と黄斑部とを特定し、これらを基準として用いることで、網膜画像における認証に使用する場所を自動的に決定することを可能にする。すなわち、網膜画像を使った自動での位置決めの実現によって、登録時や認証時におけるユーザの動作への依存や回転ずれの発生を軽減することができる。すなわち、本発明は、網膜画像を使用して位置決めを行ない、個人差のある情報を取得して個人認証を行なうものである。   In recent years, the development of a fundus camera capable of taking a retinal image without applying special eye drops for opening the pupil has been developed and put into practical use, and it is becoming easier to take a retinal image. Therefore, in the present invention, the retinal image is used to identify the optic nerve head and the macula, which are characteristic parts that cannot be identified by the conventional infrared method, and these are used as a reference to be used for authentication in the retinal image. Allows the location to be determined automatically. That is, by realizing the automatic positioning using the retina image, it is possible to reduce the dependence on the user's operation and the occurrence of rotational deviation at the time of registration and authentication. That is, according to the present invention, positioning is performed using a retinal image, and personal authentication is performed by acquiring information having individual differences.

このため、本発明では、眼底カメラで撮影した網膜画像に対して、まず、視神経乳頭と黄斑部との特定を行なう。次に、これらの視神経乳頭と黄斑部との位置を用いて画像の回転ずれなどの正規化を行なう。そして、正規化された網膜画像から個人差のある生体情報を取り出して個人認証を行なう。   For this reason, in the present invention, first, the optic nerve head and the macula are identified for the retinal image captured by the fundus camera. Next, normalization such as image rotation deviation is performed using the positions of the optic disc and the macula. Then, biometric information with individual differences is extracted from the normalized retinal image to perform personal authentication.

個人認証に使用する生体情報としては様々なものが考えられるが、本明細書では、以下のものを実施形態として提案する。
(1)撮影された網膜画像の一部を相関法によりマッチングさせて本人・他人の判別を行なうもの。
(2)黄斑部と視神経乳頭とを焦点とする楕円を描き、この楕円と血管との交点位置を用いて本人判定を行なうもの。
(3)網膜画像の黄斑部と視神経乳頭とを結ぶ直線上の色分布を用いて本人判定を行なうもの。
Various types of biometric information used for personal authentication can be considered. In this specification, the following are proposed as embodiments.
(1) A part of a photographed retinal image is matched by a correlation method to discriminate the person / others.
(2) Draw an ellipse that focuses on the macula and the optic disc, and perform identity determination using the intersection of this ellipse and blood vessel.
(3) Identification is performed using a color distribution on a straight line connecting the macular portion of the retinal image and the optic disc.

本発明によれば、網膜画像を利用し、視神経乳頭と黄斑部とを特定してこれらを基準として用いることで、網膜画像内における認証に使用する場所を自動的に決定することが可能となる。つまり、網膜画像を使った自動での位置決めの実現によって、登録時や認証時におけるユーザの動作への依存や回転ずれの発生を軽減することができ、より高い精度で迅速に個人認証を行なうことが可能になる。また、網膜画像は従来の指紋、虹彩、顔等の外面的な特徴とは異なり、目の中に保持されているため、本人の意識しない所での撮影は困難であり、生体情報の盗み撮りを行なうことは極めて困難であり、より信頼性の高い個人認証が可能になる。   According to the present invention, it is possible to automatically determine a location to be used for authentication in a retinal image by using the retinal image, specifying the optic nerve head and the macula, and using these as a reference. . In other words, by realizing automatic positioning using retinal images, it is possible to reduce the dependence on user actions and the occurrence of rotational deviation during registration and authentication, and to perform personal authentication quickly with higher accuracy. Is possible. In addition, unlike conventional external features such as fingerprints, irises, and faces, the retinal image is held in the eyes, so it is difficult to shoot without being conscious of the person, and take sneak shots of biometric information. It is extremely difficult to perform, and more reliable personal authentication is possible.

以下、図面を参照して本発明の好ましい実施形態につき説明する。
図1は、本発明に関わる個人認証方法を行なうための概略の構成を示す機能ブロック図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a functional block diagram showing a schematic configuration for performing a personal authentication method according to the present invention.

図1に示すように、本発明の一実施形態に関わる方法は、登録処理段階と認証処理段階から構成される。まず登録処理においては、通常人間である個体101の網膜画像を眼底カメラ103によって撮影する。この眼底カメラ103はカラー画像が撮像可能なものを使用する。眼底カメラ103で撮像した網膜画像はブロック105に与えられ、後に詳細に説明する手順で視神経乳頭の位置を特定する。また、眼底カメラ103で得られた網膜画像はブロック107に与えられて、後に詳細に説明する手順で黄斑部を特定する。   As shown in FIG. 1, a method according to an embodiment of the present invention includes a registration processing stage and an authentication processing stage. First, in the registration process, a retinal image of the individual 101 who is a normal human is photographed by the fundus camera 103. As the fundus camera 103, a camera capable of capturing a color image is used. The retinal image captured by the fundus camera 103 is given to the block 105, and the position of the optic nerve head is specified by a procedure described in detail later. Further, the retinal image obtained by the fundus camera 103 is given to the block 107, and the macula is specified by a procedure described in detail later.

次に、ブロック109において、視神経乳頭の位置と黄斑部の位置を使用して、視神経乳頭と黄斑部とが水平になるような角度θを求める。そして、画像を回転させる関数に角度θを入力して画像を回転させ視神経乳頭と黄斑部とが水平になった正規化された画像を得る。   Next, in block 109, using the position of the optic nerve head and the position of the macula, an angle θ is obtained so that the optic nerve head and the macula are horizontal. Then, the angle θ is input to the function for rotating the image, and the image is rotated to obtain a normalized image in which the optic disc and the macula are horizontal.

ステップ111において、正規化された網膜画像から認証に使用すべき特徴データを抽出して記憶部113に保管することにより、登録処理を完了する。   In step 111, feature data to be used for authentication is extracted from the normalized retinal image and stored in the storage unit 113, thereby completing the registration process.

次に、認証処理として上記登録処理と同様の処理を認証すべき個体について行なう。すなわち、認証すべき個体101aの網膜画像を眼底カメラ103aで撮像し、ブロック105aにおいて視神経乳頭を、ブロック107aにおいて黄斑部の位置(座標値)をそれぞれ特定する。そして、このようにして求めた視神経乳頭および黄斑部の位置からブロック109aにおいて正規化された網膜画像を得る。そして、ブロック111aにおいて、正規化された網膜画像から認証に使用すべき特徴データの抽出を行なう。   Next, as an authentication process, the same process as the registration process is performed for an individual to be authenticated. That is, the retinal image of the individual 101a to be authenticated is picked up by the fundus camera 103a, and the optic disc is specified in the block 105a, and the position (coordinate value) of the macula is specified in the block 107a. Then, a retinal image normalized in the block 109a is obtained from the positions of the optic nerve head and the macula determined as described above. In block 111a, feature data to be used for authentication is extracted from the normalized retinal image.

このようにして認証すべき個体から抽出された特徴データは前記登録処理において登録された特徴データと比較される。そして、ブロック117において、登録された特徴データと認証すべき特徴データとの差などの大きさを閾値115と比較して判定する。この比較によって、ブロック119に示されるように、本人・他人を示す認証結果119が得られる。   The feature data extracted from the individual to be authenticated in this way is compared with the feature data registered in the registration process. Then, in block 117, a determination is made by comparing the magnitude of the difference between the registered feature data and the feature data to be authenticated with the threshold 115. By this comparison, as shown in block 119, an authentication result 119 indicating the principal / other is obtained.

なお、上記各処理は、通常パーソナルコンピュータ、マイクロプロセッサなどのコンピュータを使用して行なわれる。また、認証されるべき個体は通常人間であるが、他の動物でも可能である。   The above processes are usually performed using a computer such as a personal computer or a microprocessor. Also, the individual to be authenticated is usually a human, but other animals are possible.

次に、図2を参照して、上述の登録処理および認証処理における視神経乳頭の特定方法につき詳細に説明する。まず、眼底カメラによって得られたフルカラー網膜画像201から、赤色(R)成分の画像201Rを取り出し、2値化画像203を得る。ここで、R成分の画像を用いているのは、R成分画像では他の色成分の画像と比べて、視神経乳頭周辺で顕著な濃度値を示す傾向があるためである。   Next, with reference to FIG. 2, a method for specifying the optic nerve head in the registration process and the authentication process described above will be described in detail. First, a red (R) component image 201 </ b> R is extracted from a full-color retinal image 201 obtained by a fundus camera to obtain a binarized image 203. Here, the reason why the R component image is used is that the R component image tends to show a remarkable density value around the optic disc as compared with the other color component images.

次に、2値化画像203内の予め定められた一定の大きさの領域205、例えば181画素×181画素の領域、の画像の濃度値合計を計算する。このような予め定められた大きさの領域205を2値化画像内で順次移動(走査)させながら、各領域内の濃度値合計を順次計算する。このような領域205の移動は、2値化画像203内の一定範囲内で行なう。通常、視神経乳頭が存在する可能性の高い部分を含む一定の領域が選択される。このようにして求めた各領域の濃度値合計の内、最大の濃度値合計を示す場所を検索する。すなわち、最も明るい領域を検索する。そして、濃度値が最大値を示した領域の中心点の座標値を、その原画像の視神経乳頭の位置として認識する。   Next, the sum of the density values of the images of an area 205 having a predetermined constant size in the binarized image 203, for example, an area of 181 pixels × 181 pixels is calculated. The total density value in each region is sequentially calculated while sequentially moving (scanning) the region 205 having a predetermined size in the binarized image. Such movement of the region 205 is performed within a certain range in the binarized image 203. Usually, a certain region including a portion where the optic nerve head is likely to exist is selected. A place showing the maximum total density value among the total density values of the respective areas thus obtained is searched. That is, the brightest area is searched. Then, the coordinate value of the center point of the region where the density value shows the maximum value is recognized as the position of the optic disc of the original image.

次に、図3を参照して、上述の登録処理および認証処理における黄斑部の特定方法につき説明する。まず、眼底カメラによって得られたフルカラー網膜画像201の網膜211の周辺の余分な部分、通常黒部分、を大きな濃度値、この場合は白、に置き換えて処理画像301を得る。この処理画像301から青色(B)成分の画像を取り出し、B成分画像303を得る。ここで、B成分の画像を用いているのは、B成分の画像では他の色成分の画像と比べて、黄斑部周辺で顕著な濃度値を示す傾向があるためである。   Next, with reference to FIG. 3, a method for specifying a macular portion in the above-described registration process and authentication process will be described. First, a processed image 301 is obtained by replacing an extra portion around the retina 211 of the full-color retinal image 201 obtained by the fundus camera, usually a black portion, with a large density value, in this case, white. A blue (B) component image is extracted from the processed image 301 to obtain a B component image 303. Here, the reason why the B component image is used is that the B component image tends to show a remarkable density value around the macula portion as compared with the other color component images.

次に、B成分画像303内の予め定められた一定の大きさの領域305、例えば101画素×101画素の領域、の画像の濃度値合計を計算する。このような予め定められた大きさの領域305をB成分画像303内で順次移動(走査)させながら、各領域内の濃度値合計を順次計算する。このような領域305の移動は、B成分画像303内の一定範囲内で行なう。通常、黄斑部が存在する可能性の高い部分を含む一定の領域が選択される。このようにして求めた各領域の濃度値合計の内、最小の濃度値合計を示す場所を検索する。すなわち、最も暗い領域を検索する。そして、濃度値が最小値を示した領域の中心点の座標値を、その原画像の黄斑部の位置として特定する。   Next, the sum of the density values of the images of an area 305 having a predetermined constant size in the B component image 303, for example, an area of 101 pixels × 101 pixels is calculated. While the region 305 having such a predetermined size is sequentially moved (scanned) in the B component image 303, the total density value in each region is sequentially calculated. Such movement of the region 305 is performed within a certain range in the B component image 303. Usually, a certain region including a portion where a macular portion is likely to exist is selected. A place indicating the minimum total density value among the total density values of the respective areas thus obtained is searched. That is, the darkest area is searched. Then, the coordinate value of the center point of the region where the density value shows the minimum value is specified as the position of the macular portion of the original image.

上で述べた視神経乳頭の特定処理で求めた座標値と、黄斑部の特定処理で求めた座標値を使用して、視神経乳頭と黄斑部とが水平になるような角度θを求める。すなわち、視神経乳頭の座標値と黄斑部の座標値とを結ぶ線と水平線との成す角度θを求める。そして、このようにして求めた角度θを画像を回転させる関数に入力して、視神経乳頭と黄斑部とを結ぶ線が水平になるよう回転させた正規化画像を得る。なお、網膜画像を左目から撮影するか右目から撮影するかによって、視神経乳頭と黄斑部の位置が網膜画像上において左右逆になるが、本発明は視神経乳頭と黄斑部が網膜画像上で左右いずれの位置にあっても適用できることは明らかである。   Using the coordinate value obtained by the above-described optic nerve head specifying process and the coordinate value obtained by the macular part specifying process, an angle θ is obtained so that the optic disk and the macular part are horizontal. That is, the angle θ formed by the line connecting the coordinate value of the optic disc and the coordinate value of the macula and the horizontal line is obtained. Then, the angle θ obtained in this way is input to a function for rotating the image, and a normalized image rotated so that the line connecting the optic nerve head and the macula is horizontal is obtained. Depending on whether the retinal image is taken from the left eye or the right eye, the positions of the optic disc and the macula are reversed on the retinal image, but in the present invention, the optic disc and the macula are either left or right on the retinal image. It is clear that the present invention can be applied even in the position of.

以上のようにして得られた正規化網膜画像を使用して認証処理を行なう。認証処理は様々なものが考えられるが、本願においては3つの実施形態を示す。   Authentication processing is performed using the normalized retinal image obtained as described above. Although various authentication processes can be considered, three embodiments are shown in the present application.

<第1の実施形態>
まず、図4〜図6を参照して、本発明の第1の実施形態に関わる認証処理につき説明する。第1の実施形態に関わる認証処理は、撮影された網膜画像の一部を相関法によりマッチングさせて判別する方法である。
<First Embodiment>
First, an authentication process according to the first embodiment of the present invention will be described with reference to FIGS. The authentication process according to the first embodiment is a method for determining by matching a part of a captured retinal image by a correlation method.

まず、撮影した網膜画像からパターンマッチングに用いる領域の画像を抽出するための位置決めを行なう。すなわち、前述のようにして視神経乳頭および黄斑部の位置を特定する。そして、前述のように視神経乳頭と黄斑部とを結ぶ線が水平になるように、画像を回転させ正規化する。すなわち、回転前の原画像における視神経乳頭の座標値と正規化のための回転角度は前述のようにして既に分かっている。これらの数値を使って、回転後の画像の視神経乳頭の座標値を計算により求め、パターンマッチングに利用する画像を抽出するための位置決め、すなわち視神経乳頭の位置決めを行なう。   First, positioning is performed to extract an image of an area used for pattern matching from the captured retina image. That is, the positions of the optic disc and the macula are specified as described above. Then, as described above, the image is rotated and normalized so that the line connecting the optic disc and the macula is horizontal. In other words, the coordinate value of the optic nerve head and the rotation angle for normalization in the original image before rotation are already known as described above. Using these numerical values, the coordinate value of the optic nerve head of the image after rotation is obtained by calculation, and positioning for extracting an image used for pattern matching, that is, positioning of the optic nerve head is performed.

次に、図5に詳細に示すように、パターンマッチングに用いる画像の抽出を行なう。まず、回転後の画像から緑色(G)成分の画像データを取り出す。そして、このG成分の画像データから、前述のように位置決めの処理により求めた回転後の網膜画像の視神経乳頭の座標値を中心とした一定の領域、例えば192×192画素の画像を抽出する。これは、視神経乳頭を中心に含む所定領域の画像となる。以上の処理を登録用画像および認証用画像の両方において行なう。なお、別の実施形態として、黄斑部を中心に含む領域の画像を用いて認証を行なうことも可能である。   Next, as shown in detail in FIG. 5, an image used for pattern matching is extracted. First, image data of a green (G) component is extracted from the rotated image. Then, from this G component image data, a certain region, for example, an image of 192 × 192 pixels, centered on the coordinate value of the optic nerve head of the rotated retinal image obtained by the positioning process as described above, is extracted. This is an image of a predetermined area including the optic disc as a center. The above processing is performed on both the registration image and the authentication image. As another embodiment, authentication can be performed using an image of a region including a macular portion as a center.

次に、図6に示すように、登録処理において得られた登録用画像および認証処理において得られた認証用画像から抽出した画像の両方において、各画素の平均値を計算する。次に、パターンマッチングのために抽出した画像の各画素から先に計算した平均値を引き算する。ここで、認証画像側の抽出画像をS[i,j]、全ての要素がS[i,j]の平均値である行列をSAVG、登録画像の側の抽出画像をF[i,j]、全ての要素がF[i,j]の平均値である行列をFAVGとすると以下の数式1および2がそれぞれの特徴データとなる。

[数1]
S[i,j]−SAVG


[数2]
F[i,j]−FAVG
Next, as shown in FIG. 6, the average value of each pixel is calculated in both the registration image obtained in the registration process and the image extracted from the authentication image obtained in the authentication process. Next, the average value calculated previously is subtracted from each pixel of the image extracted for pattern matching. Here, the extracted image on the authentication image side is S [i, j], the matrix in which all elements are average values of S [i, j] is S AVG , and the extracted image on the registered image side is F [i, j ], If a matrix in which all elements are average values of F [i, j] is F AVG , the following formulas 1 and 2 are the characteristic data.

[Equation 1]
S [i, j] -S AVG


[Equation 2]
F [i, j] -F AVG

次に、登録用画像および認証用画像から抽出した2つの画像間における相関係数を計算する。ここでは、相関係数を用いているが、相関法によるマッチングは画像信号に対する最も単純なパターンマッチングであり、特徴ベクトルとして濃度値データをそのまま用いる方法である。登録画像と認証画像の特徴データを用いると、相関係数Rは以下の数式3により求めることができる。

[数3]

Figure 2008206536
Next, a correlation coefficient between the two images extracted from the registration image and the authentication image is calculated. Here, the correlation coefficient is used, but the matching by the correlation method is the simplest pattern matching for the image signal, and is a method of using the density value data as it is as a feature vector. When the feature data of the registered image and the authentication image is used, the correlation coefficient R can be obtained by the following Equation 3.

[Equation 3]
Figure 2008206536

なお、相関係数Rは類似度を表わし、相関係数が大きければ大きい程、2つの画像は類似していることとなる。   The correlation coefficient R represents the degree of similarity, and the larger the correlation coefficient, the more similar the two images.

次に、最大相関係数の検索を行なう。まず、認証すべき網膜画像、すなわち認証画像、において、上述のようにして抽出した最初の抽出画像から1画素だけずらした画像を抽出する。この新たに抽出した認証画像における抽出画像と登録された網膜画像における抽出画像との間の相関係数を計算する。そして、ここで計算した相関係数と最初に求めた相関係数とを比較する。次に、より大きい値を示したものを真の相関係数として保存する。   Next, the maximum correlation coefficient is searched. First, in the retinal image to be authenticated, that is, the authentication image, an image shifted by one pixel from the first extracted image extracted as described above is extracted. A correlation coefficient between the extracted image in the newly extracted authentication image and the extracted image in the registered retinal image is calculated. Then, the correlation coefficient calculated here is compared with the correlation coefficient obtained first. Next, the larger value is stored as a true correlation coefficient.

このような処理を、認証画像上の予め定められた走査範囲において順次繰り返し行ない、最も大きな値を示した相関係数を最終的な相関係数とする。   Such processing is sequentially repeated in a predetermined scanning range on the authentication image, and a correlation coefficient showing the largest value is set as a final correlation coefficient.

このようにして求めた最大相関係数を予め設定しておいた閾値と比較する。そして、最大相関係数が閾値よりも大きい場合は本人と、小さい場合は他人と判定する。この第1の実施形態によれば、画像の回転ずれなどの影響を受けることなく高い精度で個人認証を行なうことができる。   The maximum correlation coefficient obtained in this way is compared with a preset threshold value. If the maximum correlation coefficient is larger than the threshold value, the person is determined, and if the maximum correlation coefficient is smaller, the person is determined as the other person. According to the first embodiment, it is possible to perform personal authentication with high accuracy without being affected by an image rotation shift or the like.

<第2の実施形態>
次に、図7〜図10を参照して、本発明の第2の実施形態に関わる認証処理につき説明する。第2の実施形態に関わる認証処理は、測定楕円を導入して認証を行なうもので、より具体的には黄斑部と視神経乳頭を焦点とする楕円を描き、この楕円と血管との交点位置を用いて判別する方法である。
<Second Embodiment>
Next, an authentication process according to the second embodiment of the present invention will be described with reference to FIGS. The authentication process according to the second embodiment performs authentication by introducing a measurement ellipse. More specifically, an ellipse that focuses on the macula and the optic papilla is drawn, and the intersection point between the ellipse and the blood vessel is determined. It is a method to discriminate using.

この実施形態では、血管の模様など網膜画像の個人差の出る部分を利用して、本人特定を行なうものである。第1の実施形態の場合と同様に、予め登録処理において登録すべき個体の網膜画像から生体情報の特徴点を抽出しテンプレートとして登録する。そして、認証処理において、認証すべき個体の生体情報の特徴点、この場合は前記楕円と血管との交点位置、を抽出し、これを登録された生体情報の特徴点と照合して両者の類似度を算出することにより真偽の判定を行なうものである。   In this embodiment, the person identification is performed by using a part of the retinal image in which individual differences such as a blood vessel pattern appear. As in the case of the first embodiment, feature points of biological information are extracted from a retina image of an individual to be registered in advance in the registration process and registered as a template. Then, in the authentication process, the feature point of the biometric information of the individual to be authenticated, in this case, the intersection position of the ellipse and the blood vessel is extracted, and this is compared with the feature point of the registered biometric information. The authenticity is determined by calculating the degree.

この実施形態においても、登録処理および認証処理の双方において、生体情報を抽出する場所を決めるため、すなわち位置決めのために、黄斑部と視神経乳頭とを原網膜画像の濃度差から抽出する。   Also in this embodiment, in both the registration process and the authentication process, the macula and the optic nerve head are extracted from the density difference of the original retinal image in order to determine the location where biometric information is extracted, that is, for positioning.

次に、網膜上の血管パターンの識別のために、黄斑部と視神経乳頭を焦点とする測定楕円を導入し、この楕円と血管との交点を識別する。網膜画像上の血管の輝度値は、その他の部分より輝度値が著しく低いという特性を利用して、楕円上の交点を抽出する。この交点を生体情報の特徴点として、その類似度を比較することにより個人識別を行なう。   Next, in order to identify the blood vessel pattern on the retina, a measurement ellipse focusing on the macula and the optic disc is introduced, and the intersection of this ellipse and the blood vessel is identified. The intersection value on the ellipse is extracted using the characteristic that the luminance value of the blood vessel on the retina image is significantly lower than that of other portions. Using this intersection as a feature point of biometric information, personal identification is performed by comparing the degree of similarity.

第2の実施形態に関わる認証処理につきさらに詳細に説明する。まず、登録処理においては、生体情報の各特徴点を抽出し、識別するために、登録すべき個体の目から撮影した網膜画像において、黄斑部と視神経乳頭を抽出する。そして、抽出した黄斑部と視神経乳頭の位置に基づき測定楕円を導入し、該測定楕円と血管の交点から特徴点を測定しかつ登録する。   The authentication process according to the second embodiment will be described in further detail. First, in the registration process, in order to extract and identify each feature point of biometric information, a macula and an optic disc are extracted from a retinal image taken from the eyes of an individual to be registered. Then, a measurement ellipse is introduced based on the extracted positions of the macula and the optic disc, and feature points are measured and registered from the intersection of the measurement ellipse and the blood vessel.

すなわち、図7に示すように、登録すべき個体の目を撮影して得た原網膜画像から黄斑部と視神経乳頭を抽出する。すなわち、黄斑部と視神経乳頭の各座標値を求める。   That is, as shown in FIG. 7, the macula and the optic disc are extracted from the original retinal image obtained by photographing the eyes of the individual to be registered. That is, the coordinate values of the macula and the optic disc are obtained.

次に、このようにして求めた黄斑部と視神経乳頭の位置を焦点とする所定の測定楕円701を決定する。そして、この測定楕円701と血管との交点をそれぞれu1,u2,・・・,uと名付ける。具体的には、測定楕円701上の輝度値を算出して、該輝度値が他の部分より輝度値が著しく低いという特性を利用する。すなわち、測定楕円上の輝度値が前後の値と比べて著しく低い所を交点u1,u2,・・・,uとして抽出する。 Next, a predetermined measurement ellipse 701 that focuses on the positions of the macular portion and the optic disc determined in this way is determined. Then, name the intersection of the measurement ellipse 701 and the vessel respectively u1, u2, · · ·, and u n. Specifically, the luminance value on the measurement ellipse 701 is calculated, and the characteristic that the luminance value is remarkably lower than other portions is used. That is, the luminance value of the measurement ellipse intersections u1 significantly lower at the compared to the value of the front and rear, u2, · · ·, extracted as u n.

図8は、測定楕円に沿った位置をX座標として横軸に取り、縦軸に測定楕円の線上の輝度値を示すグラフである。同図において、グラフに沿った、a1,b1,c1,d1,e1,f1において輝度値が著しく低下しており、これらの点は測定楕円と血管との交点位置に対応する。図8は、一例としてある個体の目から撮影した網膜画像から採取したグラフを本人サンプル1として示すものである。   FIG. 8 is a graph in which the horizontal axis is the position along the measurement ellipse as the X coordinate, and the luminance value on the line of the measurement ellipse is plotted on the vertical axis. In the figure, the luminance values are markedly reduced at a1, b1, c1, d1, e1, and f1 along the graph, and these points correspond to the intersection positions of the measurement ellipse and the blood vessel. FIG. 8 shows, as an example, a graph sampled from a retina image taken from an individual's eye as an individual sample 1.

また、図9は、同じ個体の目から異なる時間に撮影した網膜画像から採取した輝度値特性を本人サンプル2として示すものである。図9においても、点a2,b2,c2,d2,e2,f2において輝度値が著しく低くなっており、これらの点は測定楕円と血管との交点と考えられる。   FIG. 9 shows the luminance value characteristic collected from retinal images taken at different times from the same individual's eyes as the personal sample 2. Also in FIG. 9, the luminance values are extremely low at points a2, b2, c2, d2, e2, and f2, and these points are considered to be intersections of the measurement ellipse and the blood vessel.

さらに、図10は、図8および図9とは異なる個体の目から撮影した網膜画像から採取した測定楕円上の輝度値の変化を他人サンプルとして示すものである。図10において、輝度値が著しく低下している、a3,b3,c3,d3,e3,f3は、測定楕円と血管との交点と考えられる。   Further, FIG. 10 shows a change in luminance value on a measurement ellipse taken from a retinal image taken from the eyes of an individual different from FIGS. 8 and 9 as another person's sample. In FIG. 10, a3, b3, c3, d3, e3, and f3, in which the luminance value is remarkably reduced, are considered to be the intersections of the measurement ellipse and the blood vessel.

図8〜図10を見ると、輝度値の低い部分の輝度およびX座標が本人同士、すなわち、本人サンプル1および本人サンプル2、ではほぼ対応している。これに対し、他人サンプルの輝度値の低い部分は、本人サンプル1および本人サンプル2の輝度値の低い部分と輝度の値およびX座標があまり対応していないことが分かる。このような生体情報の特徴点の対応関係を考慮して本人・他人を判定する。   As shown in FIGS. 8 to 10, the luminance and the X coordinate of the portion with the low luminance value substantially correspond to each other, that is, the principal sample 1 and the principal sample 2. On the other hand, it can be seen that the low luminance value portion of the other person sample does not correspond very much to the low luminance value portion and the luminance value and X coordinate of the own sample 1 and the own sample 2. The person / other is determined in consideration of the correspondence between the feature points of the biological information.

実際の判定作業は例えば次のようにして行なう。すなわち、前述のようにして原網膜画像において黄斑部と視神経乳頭の位置を抽出し、画像の補正作業すなわち正規化を行なう。そして、抽出した黄斑部と視神経乳頭との位置を焦点とするある一定の大きさを有する測定楕円を決定する。そして、この測定楕円の線上の輝度値を算出し、輝度値がその周りの輝度に比べて著しく低い点を測定楕円と血管との輝度、すなわち特徴点、として抽出する。この特徴点の位置は個人個人によって違いが出る。この特徴点の座標を比較することにより、個人認証を行なう。   The actual determination work is performed as follows, for example. That is, as described above, the positions of the macular portion and the optic disc are extracted from the original retinal image, and the image is corrected or normalized. And the measurement ellipse which has a fixed magnitude | size which makes the position of the extracted macular part and optic nerve head a focus is determined. Then, the luminance value on the line of the measurement ellipse is calculated, and a point whose luminance value is significantly lower than the surrounding luminance is extracted as the luminance between the measurement ellipse and the blood vessel, that is, a feature point. The position of this feature point varies depending on the individual. Personal authentication is performed by comparing the coordinates of the feature points.

一例として、ある2つの個体に関して採取した特徴点の座標を、それぞれ、サンプル座標1およびサンプル座標2として以下の表1および表2に示す。   As an example, the coordinates of feature points collected with respect to two individuals are shown in Table 1 and Table 2 below as sample coordinates 1 and sample coordinates 2, respectively.


[表1]
サンプル座標1
サンプル番号 (1) (2) (3) (4) (5) (6) (7) (8)
X座標 500 524 553 769 737 799 876 927
Y座標 562 659 718 850 848 848 822 786

[Table 1]
Sample coordinates 1
Sample number (1) (2) (3) (4) (5) (6) (7) (8)
X coordinate 500 524 553 769 737 799 876 927
Y coordinate 562 659 718 850 848 848 822 786


[表2]
サンプル座標2
サンプル番号 (1) (2) (3) (4) (5) (6) (7) (8)
X座標 498 525 557 761 736 790 703 867
Y座標 541 661 724 850 848 849 840 826

[Table 2]
Sample coordinates 2
Sample number (1) (2) (3) (4) (5) (6) (7) (8)
X coordinate 498 525 557 761 736 790 703 867
Y coordinate 541 661 724 850 848 849 840 826

表1および表2に示されるサンプル座標1およびサンプル座標2の例を見ると、両者のサンプル座標においてサンプル番号(2),(3),(4),(5)および(6)の座標が互いにほぼ一致していることが分かる。したがって、このように両者のサンプル座標において、座標同士が一致する特徴点の数を求める。そして、この特徴点が所定の閾値より大きければ本人と判定し、所定の閾値より小さければ他人と判定する。なお、座標同士の一致する精度を決めるため、ある閾値を設定し、両者の座標値の差がこの閾値より小さい場合に座標が一致したものと判定する。また、X座標およびY座標それぞれについてある閾値を用いて座標の一致を判定し、XおよびY座標が共に一致した場合を座標の一致と判定することができる。あるいは、両者のサンプル座標のXおよびY座標の合計値の差がある閾値より小さくなることを利用して判定してもよい。いずれにしても、両サンプルの座標の一致を判定するためにある閾値を設定し、この閾値に基づき座標が一致する特徴点の数を算出する。   Looking at the example of sample coordinates 1 and sample coordinates 2 shown in Table 1 and Table 2, the coordinates of the sample numbers (2), (3), (4), (5) and (6) in both sample coordinates are as follows. It can be seen that they are almost identical to each other. Therefore, in this way, the number of feature points whose coordinates coincide with each other in the sample coordinates is obtained. And if this feature point is larger than a predetermined threshold value, it will determine with the person, and if it is smaller than a predetermined threshold value, it will determine with others. In order to determine the accuracy with which the coordinates match, a certain threshold value is set, and when the difference between the coordinate values of both is smaller than the threshold value, it is determined that the coordinates match. In addition, it is possible to determine the coincidence of coordinates using a certain threshold value for each of the X coordinate and the Y coordinate, and to determine that the X and Y coordinates are coincident with each other. Alternatively, the determination may be made using the fact that the difference between the total values of the X and Y coordinates of both sample coordinates is smaller than a certain threshold value. In any case, a threshold value is set in order to determine the coincidence of the coordinates of both samples, and the number of feature points whose coordinates match is calculated based on this threshold value.

さらに、両サンプルの座標が一致した数が十分なものであるか否かを判定するために、座標の一致した数を判定するための別の閾値を設定する。すなわち、要求される認証精度に応じて、この閾値を予め定める。   Furthermore, in order to determine whether or not the number of coincident coordinates of both samples is sufficient, another threshold value for determining the number of coincident coordinates is set. That is, this threshold value is determined in advance according to the required authentication accuracy.

したがって、設定する閾値は、
(1)座標同士の位置のずれ具合を判定するための閾値、および
(2)(1)の閾値によって判定した座標が一致した数が所定数以上であるか否かを判定するため第2の閾値を設定する。
Therefore, the threshold value to be set is
(1) a threshold value for determining the degree of displacement between coordinates; and (2) a second value for determining whether the number of coordinates determined by the threshold value in (1) is equal to or greater than a predetermined number. Set the threshold.

なお、上述の説明においては、網膜画像における血管との交点を抽出するために測定楕円を使用したが、この測定楕円は、例えば同じ黄斑部と視神経乳頭とを焦点とする大きさの異なる二重の、すなわち2本の、楕円を使用してもよい。また、3本以上の楕円を使用することも可能である。さらに、楕円以外の形の測定曲線または直線図形を導入することもできる。例えば、楕円に代えて、円、長方形、菱形その他の測定曲線を使用することができる。   In the above description, the measurement ellipse is used to extract the intersection point with the blood vessel in the retinal image. This measurement ellipse has a different size, for example, focusing on the same macular portion and the optic disc. Of these, two ellipses may be used. It is also possible to use three or more ellipses. Furthermore, it is possible to introduce a measurement curve or a straight line figure other than an ellipse. For example, instead of an ellipse, a circle, rectangle, rhombus or other measurement curve can be used.

第2の実施形態によって得られる利点として、網膜画像の測定楕円のような固定線と血管パターンの交点を読むだけで特徴点を抽出することができ、個人認証のための識別アルゴリズムを簡素化し、かつ認証速度を比較的早くすることが可能になる。   As an advantage obtained by the second embodiment, feature points can be extracted simply by reading the intersection of a fixed line such as a measurement ellipse of a retinal image and a blood vessel pattern, simplifying an identification algorithm for personal authentication, In addition, the authentication speed can be made relatively fast.

<第3の実施形態>
次に、図11〜図16を参照して、本発明の第3の実施形態に関わる認証処理につき説明する。第3の実施形態に関わる認証処理は、撮影された網膜画像の黄斑部と視神経乳頭とを結ぶ直線上の色分布を用いて判別する方法である。
<Third Embodiment>
Next, an authentication process according to the third embodiment of the present invention will be described with reference to FIGS. The authentication process according to the third embodiment is a method of discriminating using a color distribution on a straight line connecting the macular portion of a captured retinal image and the optic disc.

この実施形態においても、撮影した網膜画像から黄斑部および視神経乳頭の位置を特定する。そして、黄斑部と視神経乳頭とを結ぶ線が水平になるように、画像を回転させ正規化する。すなわち、回転前の原網膜画像における視神経乳頭の座標値と正規化のための回転角度は前述のように既に分かっている。これらの数値を使って、回転後の画像の黄斑部および視神経乳頭の座標値を求める。   Also in this embodiment, the positions of the macular portion and the optic disc are specified from the captured retinal image. Then, the image is rotated and normalized so that the line connecting the macula and the optic disc is horizontal. That is, the coordinate value of the optic nerve head in the original retinal image before rotation and the rotation angle for normalization are already known as described above. Using these numerical values, the coordinate values of the macular portion and optic disc of the image after rotation are obtained.

図11に示すように、このようにして求めた黄斑部1105および視神経乳頭1103の位置から、これら両者を結ぶ直線部分1107すなわち測定直線の画像データを取り出す。すなわち、黄斑部と視神経乳頭とを結ぶ直線上の赤色(R)、緑色(G)および青色(B)の画像の濃度値を画像データとして抽出する。   As shown in FIG. 11, from the position of the macular portion 1105 and the optic nerve head 1103 obtained in this way, a straight line portion 1107 connecting both of them, that is, image data of a measurement line is extracted. That is, the density values of red (R), green (G), and blue (B) images on a straight line connecting the macula and the optic disc are extracted as image data.

図12は、ある個体の目を撮影して得たカラー網膜画像における、黄斑部と視神経乳頭とを結んだ測定直線上のRGBおよび輝度(Y)の値の分布の一例を示す。図12において、横軸は黄斑部から視神経乳頭に至る直線上の位置を表す座標であり、縦軸は各画像データの濃度値を示す。   FIG. 12 shows an example of RGB and luminance (Y) value distributions on a measurement line connecting the macula and the optic disc in a color retinal image obtained by photographing an eye of an individual. In FIG. 12, the horizontal axis represents coordinates on a straight line from the macula to the optic disc, and the vertical axis represents the density value of each image data.

図12を参照すると、R,G,BおよびYの値は測定直線に沿って同じように変移している。したがって、RGBおよびY全ての値を用いて個人認証を行なうこともできるが、これらの値が同じように変移しているので、これらのRGBYの内1つの値を用いて個人認証を行なう例を以下に示す。ただし、本発明はRGBYの内1つのみを使用する場合に限られず、これらの値を全て使用した場合、またこれらの値RGBYの内の複数の色のデータを任意に組み合わせて使用する場合も含む。   Referring to FIG. 12, the values of R, G, B, and Y are similarly shifted along the measurement line. Therefore, although it is possible to perform personal authentication using all the values of RGB and Y, since these values are shifted in the same way, an example of performing personal authentication using one of these RGBY values. It is shown below. However, the present invention is not limited to the case where only one of RGBY is used, and when all of these values are used, there are also cases where data of a plurality of colors among these values RGBY are used in any combination. Including.

RGBYの内1つの値にて認証を行なう場合は、図12を参照すると、Rは途中で濃度値が255の最大値まで到達しており、一方Bは濃度値が始めは0が続いている。このため、GおよびYの値が測定直線上にわたり最も多くの特徴データを提供できると考えられる。本実施形態では、一例としてGの値にて認証を行なうものとする。   When authentication is performed with one value of RGBY, referring to FIG. 12, R reaches the maximum density value of 255 on the way, while B starts with 0 at the beginning of the density value. . For this reason, it is considered that the values of G and Y can provide the most feature data over the measurement line. In the present embodiment, it is assumed that authentication is performed using the value G as an example.

図13は、同一人物の網膜画像データにおけるG(緑色)の値を比較して示す。すなわち、図13におけるGM1,GM2およびGM3で示される曲線は、同一人物の目をそれぞれ異なる日時に撮影して得た網膜画像から抽出したGの画像データの一部を示す。図13においても、横軸は黄斑部と視神経乳頭とを結ぶ直線上の位置を表わす座標であり、縦軸はGの濃度値を示す。   FIG. 13 shows a comparison of G (green) values in retinal image data of the same person. That is, the curves indicated by GM1, GM2, and GM3 in FIG. 13 show part of the G image data extracted from retinal images obtained by photographing the eyes of the same person at different dates and times. Also in FIG. 13, the horizontal axis represents coordinates on a straight line connecting the macula and the optic disc, and the vertical axis represents the G density value.

図13から明らかなように、各曲線GM1,GM2,GM3は縦方向および横方向に多少のずれはあるが、ほぼ同じ変化傾向を有することが分かる。   As can be seen from FIG. 13, the curves GM1, GM2, and GM3 have almost the same change tendency, although there are some deviations in the vertical and horizontal directions.

この場合、同じ網膜(同じ個体)を撮影しても、撮影毎に縦および横方向の多少のずれが生じるために、そのようなずれを許容することが必要である。このため、図14に示すように、縦および横方向のずれ、すなわち誤差、を許容する値、すなわちしきい値(閾値)、の設定が必要となる。なお、図14は、同じ網膜(個体)を異なる日時に撮影して得た網膜画像から抽出した2つのGの画像データの一例を示すものである。   In this case, even if the same retina (the same individual) is photographed, a slight shift occurs in the vertical and horizontal directions for each photographing, and it is necessary to allow such a shift. For this reason, as shown in FIG. 14, it is necessary to set a value allowing a deviation in the vertical and horizontal directions, that is, an error, that is, a threshold value (threshold value). FIG. 14 shows an example of two G image data extracted from retinal images obtained by photographing the same retina (individual) at different dates and times.

本実施形態では、個人認証を行なう場合に、登録処理においてある個体の目から撮影した画像データから抽出したGの値を、認証処理においてある個体の目を撮影して得た網膜画像から抽出したGの値と比較して認証を行なう。すなわち、測定直線上の各座標において、登録されたGの画像データの値と認証すべき個体のGの値とを比較して認証を行なう。測定直線上の全ての画素、あるいは測定直線上にある間隔で設定したポイントにおいて両者のGの値が一致するか否かを判定し、一致したポイントの数が全体の何パーセント以上であるか否かに応じて本人・他人の認証を行なうことができる。このため、両者のGの値が何パーセント以上一致したら本人と認定するというしきい値(閾値)も設定する必要がある。   In the present embodiment, when performing personal authentication, the G value extracted from the image data taken from the eyes of a certain individual in the registration process is extracted from the retina image obtained by photographing the eyes of the individual in the authentication process. Authentication is performed by comparing with the value of G. That is, at each coordinate on the measurement line, authentication is performed by comparing the value of the registered G image data with the G value of the individual to be authenticated. It is determined whether or not the G values of all the pixels on the measurement line or the points set at intervals on the measurement line coincide with each other. You can authenticate yourself and others. For this reason, it is also necessary to set a threshold value (threshold value) in which the person is recognized as the person when the G values of the two match.

すなわち、本実施形態では、縦および横方向の画像データのずれを許容するしきい値と、本人と認定するためのしきい値の3つを用いると好都合である。ただし、縦および横方向のずれを許容するためのしきい値は、後に説明するような画像データの補正を行なうことにより用いなくてもよい場合もある。   That is, in the present embodiment, it is convenient to use three threshold values that allow deviation of image data in the vertical and horizontal directions and a threshold value for identifying the person. However, the threshold value for allowing the vertical and horizontal shifts may not be used by correcting the image data as will be described later.

上述の3つのしきい値は、あまりそれらの値を大きくしてしまうと、違う網膜(他人)の場合でも本人と認証する誤認証を起こしてしまう可能性がある。また、逆に上記しきい値を小さくしてしまうと、同じ網膜(本人)の場合でも他人と認証してしまうことがある。したがって、これらのしきい値は、実験その他により実際に認証処理を多数のサンプルについて行ない決定していく必要がある。   If the above three threshold values are increased too much, there is a possibility that erroneous authentication for authenticating the person himself / herself may occur even in the case of a different retina (other person). On the other hand, if the threshold value is decreased, even the same retina (person) may be authenticated with another person. Accordingly, it is necessary to determine these threshold values by actually performing the authentication process on a large number of samples by experiments or the like.

図15は、同じ個体の目から撮影して得た画像データから抽出したGの値の分布を示す。図15における、曲線GM6,GM7は同じ個体を異なる日時に撮影して得た画像データから抽出したGの値の分布を示す。同図から明らかなように、同じ個体から得た画像データでもまれに大きくずれることがある。   FIG. 15 shows a distribution of G values extracted from image data obtained by photographing from the eyes of the same individual. Curves GM6 and GM7 in FIG. 15 show the distribution of G values extracted from image data obtained by photographing the same individual at different dates and times. As is clear from the figure, image data obtained from the same individual may rarely deviate greatly.

このような場合は、前述の縦方向のずれを許容するしきい値では吸収しきれないことがある。ただし、図15を見ると、画像データGM6およびGM7は縦方向に大きくずれているが、変移のパターンはほぼ同じである。このような場合には、何らかの補正が必要と考えられる。様々な補正の方法が考えられるが、例として以下の数式を適用して補正を行なうことができる。

[数4]
GM7の値=GM7の値
−((GM7の値の総和/座標の数)−(GM6/の値の総和/座標の数))
In such a case, the above-described threshold value that allows the vertical shift may not be absorbed. However, referring to FIG. 15, the image data GM6 and GM7 are largely shifted in the vertical direction, but the transition patterns are almost the same. In such a case, some correction is considered necessary. Various correction methods are conceivable, but the correction can be performed by applying the following formula as an example.

[Equation 4]
GM7 value = GM7 value
− ((Sum of values of GM7 / number of coordinates) − (sum of values of GM6 / number of coordinates))

上記数式4は、両者の画像データの平均値の差を全体により高い濃度値を示している画像データの値から減算して補正を行なうものである。このような補正を行なった結果を図16に示す。図16から明らかなように、このような補正によって両者の画像データがほぼ一致していることが分かる。したがって、認証処理を行なう場合に、登録画像データと認証すべき画像データとが大きくずれている場合には、上述のような補正を行なった後に両者を比較することもできる。   Formula 4 above corrects by subtracting the difference between the average values of the two image data from the value of the image data showing a higher density value as a whole. The result of such correction is shown in FIG. As is apparent from FIG. 16, it can be seen that the image data of both images are substantially the same by such correction. Therefore, when performing the authentication process, if the registered image data and the image data to be authenticated are greatly deviated, they can be compared after the above correction.

この実施形態は、黄斑部と視神経乳頭とを結ぶ測定直線上の色信号および/または輝度信号のデータの分布の類比によって認証を行なうものである。したがって、血管を抽出せずに、直接RGBYの値にて比較を行なうため、認証処理速度がより速くなると考えられる。   In this embodiment, authentication is performed by comparing the distribution of the color signal and / or luminance signal data on the measurement line connecting the macula and the optic disc. Therefore, since the comparison is directly performed using RGBY values without extracting blood vessels, it is considered that the authentication processing speed becomes faster.

なお、上記実施形態では、黄斑部と視神経乳頭とを結ぶ測定直線上の画像データを用いたが、この測定直線に代えて何らかの曲線、折れ線などを用いることもできる。また、黄斑部と視神経乳頭とを基準とした何らかの線図形を用いることもできる。   In the above embodiment, the image data on the measurement line connecting the macula and the optic disc is used, but some curve, broken line or the like can be used instead of this measurement line. In addition, any line figure based on the macula and the optic disc can be used.

本発明は、入出国管理や銀行のATMにおける本人確認などに使用することができ、盗み撮りが難しい生体情報を使用するため、信頼性の高い認証が可能である。   The present invention can be used for immigration control, identity verification in bank ATMs, and the like, and uses biometric information that is difficult to voyeurize. Therefore, highly reliable authentication is possible.

本発明に係わる個人認証方法を行なうための概略の構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure for performing the personal authentication method concerning this invention. 視神経乳頭の特定手順を示す説明図である。It is explanatory drawing which shows the specific procedure of an optic disc. 黄斑部の特定手順を示す説明図である。It is explanatory drawing which shows the specific procedure of a macular part. 第1の実施形態に関わる認証方法の概略の手順を示す説明図である。It is explanatory drawing which shows the procedure of the outline of the authentication method in connection with 1st Embodiment. 第1の実施形態においてパターンマッチングに用いる画像の抽出手順を示す説明図である。It is explanatory drawing which shows the extraction procedure of the image used for pattern matching in 1st Embodiment. 第1の実施形態における最大相関係数の検索に至るまでの手順を示す説明図である。It is explanatory drawing which shows the procedure until it reaches | attains the search of the largest correlation coefficient in 1st Embodiment. 本発明の第2の実施形態に関わる認証処理における測定楕円および該測定楕円と血管との交点の一例などを示す説明図である。It is explanatory drawing which shows an example of the measurement ellipse in the authentication process in connection with the 2nd Embodiment of this invention, and the intersection of this measurement ellipse and a blood vessel. 第2の実施形態における本人サンプル1の輝度値データを示すグラフである。It is a graph which shows the luminance value data of the principal sample 1 in 2nd Embodiment. 第2の実施形態における本人サンプル2の輝度値データを示すグラフである。It is a graph which shows the luminance value data of the principal sample 2 in 2nd Embodiment. 第2の実施形態における他人サンプルの輝度値データを示すグラフである。It is a graph which shows the brightness value data of the other person sample in 2nd Embodiment. 本発明の第3の実施形態に関わる認証方法において、認証のための色情報を取得するための測定直線などを示す説明図である。It is explanatory drawing which shows the measurement straight line for acquiring the color information for authentication, etc. in the authentication method in connection with the 3rd Embodiment of this invention. 第3の実施形態における測定直線上の各色のデータの分布を示すグラフである。It is a graph which shows distribution of the data of each color on the measurement straight line in 3rd Embodiment. 同一人物のG(緑色)の値の分布を示すグラフである。It is a graph which shows distribution of the value of G (green) of the same person. 第3の実施形態における、縦および横方向のずれを許容するしきい値を示す説明的グラフである。It is explanatory graph which shows the threshold value which accept | permits the shift | offset | difference of the vertical and horizontal direction in 3rd Embodiment. 大きなずれのある同一個体の画像データの一例を示すグラフである。It is a graph which shows an example of the image data of the same individual with a big gap. 図15のデータを補正した後の画像データの分布を示すグラフである。It is a graph which shows distribution of the image data after correcting the data of FIG.

符号の説明Explanation of symbols

101,101a 個体
103,103a 眼底カメラ
105,105a 視神経乳頭特定部
107,107a 黄斑部特定部
109,109a 画像正規化部
111,111a 特徴データ抽出部
113 登録データ保管部
115 閾値設定部
117 判定部
119 認証結果出力部
201 原網膜画像
201R R成分画像
203 2値化画像
205 濃度値合計計算領域
207 視神経乳頭
209 黄斑部
211 眼底部
301 処理画像
303 B成分画像
305 濃度値合計計算領域
701 測定楕円
703 黄斑部
705 視神経乳頭
1101 網膜画像
1103 視神経乳頭
1105 黄斑部
1107 測定直線
101, 101a Individual 103, 103a Fundus camera 105, 105a Optic papilla specifying part 107, 107a Macular part specifying part 109, 109a Image normalization part 111, 111a Feature data extraction part 113 Registered data storage part 115 Threshold setting part 117 Determination part 119 Authentication result output unit 201 Original retina image 201R R component image 203 Binarized image 205 Density value total calculation area 207 Optic nerve head 209 Macula part 211 Fundus 301 Processed image 303 B component image 305 Concentration value total calculation area 701 Measurement ellipse 703 705 Optic disc 1101 Retinal image 1103 Optic disc 1105 Macula 1107 Measurement line

Claims (16)

眼底カメラにより撮影した目の網膜画像に基づき個人認証を行なう個人認証方法であって、
(a)認証すべき個体の目の網膜画像を撮影し、撮影した網膜画像から視神経乳頭および黄斑部の位置を決定する段階、
(b)前記決定した視神経乳頭および黄斑部の位置に基づき、網膜画像を正規化して、正規化した画像データを取得する段階、
(c)前記正規化した画像データの一部を基準画像データと比較することにより個人認証を行なう段階、
を具備することを特徴とする個人認証方法。
A personal authentication method for performing personal authentication based on a retina image of an eye photographed by a fundus camera,
(A) taking a retina image of the eye of an individual to be authenticated, and determining the positions of the optic nerve head and the macula from the taken retina image;
(B) normalizing a retinal image based on the determined positions of the optic disc and the macula to obtain normalized image data;
(C) performing personal authentication by comparing a part of the normalized image data with reference image data;
A personal authentication method comprising:
前記基準画像データは、登録すべき個体の目の網膜画像を撮影し、撮影した網膜画像から視神経乳頭および黄斑部の位置を決定し、かつ決定した視神経乳頭および黄斑部の位置に基づき網膜画像を正規化して得た正規化画像データから求めることを特徴とする請求項1に記載の個人認証方法。   The reference image data is obtained by taking a retinal image of an eye of an individual to be registered, determining positions of the optic disc and the macula from the taken retinal image, and obtaining a retinal image based on the determined location of the optic disc and the macula. The personal authentication method according to claim 1, wherein the personal authentication method is obtained from normalized image data obtained by normalization. 撮影した網膜画像から赤色(R)成分の画像データを抽出し、2値化処理を行なう段階、
前記2値化処理された画像データにおいて、一定の大きさの領域を定め、この領域を順次移動させながら、各領域内の画像の画素の濃度値合計を求める段階、
前記濃度値合計が最大になる領域を検索する段階、および
前記濃度値合計が最大値を示した領域の中心点を視神経乳頭の位置と決定する段階、
を具備することを特徴とする請求項1に記載の個人認証方法。
Extracting red (R) component image data from the photographed retinal image and performing binarization processing;
In the binarized image data, a region having a certain size is determined, and the density value sum of the pixels of the image in each region is calculated while sequentially moving the region;
Searching for a region where the total concentration value is maximized; and determining a center point of the region where the total concentration value is maximum as the position of the optic disc.
The personal authentication method according to claim 1, further comprising:
撮影した網膜画像における、網膜画像の周辺の余分な黒部分を大きな濃度値、すなわち白、に置き換え、得られた画像データから青色(B)成分の画像データを抽出する段階、
前記抽出したB成分の画像データにおいて、一定の大きさの領域を定め、この領域を順次移動させながら、各領域内の画素の濃度値合計を求める段階、
前記濃度値合計が最小になる領域を特定する段階、および
前記濃度値合計が最小になる領域の中心点を黄斑部の位置と決定する段階、
を具備することを特徴とする請求項1に記載の個人認証方法。
In the captured retinal image, a step of replacing an extra black portion around the retinal image with a large density value, that is, white, and extracting blue (B) component image data from the obtained image data;
In the extracted B component image data, a region having a certain size is determined, and the density value sum of pixels in each region is obtained while sequentially moving the region;
Identifying a region where the total density value is minimized, and determining a center point of the region where the total density value is minimized as the position of the macula,
The personal authentication method according to claim 1, further comprising:
認証すべき個体の目および登録すべき個体の目に関して求めた網膜画像の内、視神経乳頭または黄斑部の位置を基準にして定めた所定の部分領域の画像を相関法により互いに比較することによって個人認証を行なうことを特徴とする請求項1に記載の個人認証方法。   By comparing the images of a predetermined partial region based on the position of the optic nerve head or the macular region among the retinal images obtained for the eyes of the individual to be authenticated and the eyes of the individual to be registered, by comparing each other with a correlation method The personal authentication method according to claim 1, wherein authentication is performed. 視神経乳頭を含む所定エリアの画像を使用して個人認証を行なうことを特徴とする請求項5に記載の個人認証方法。   6. The personal authentication method according to claim 5, wherein personal authentication is performed using an image of a predetermined area including the optic nerve head. 視神経乳頭の位置を中心とする192×192画素の四角形の領域の画像を使用することを特徴とする請求項6に記載の個人認証方法。   The personal authentication method according to claim 6, wherein an image of a square area of 192 × 192 pixels centering on the position of the optic disc is used. 視神経乳頭を含む所定エリアの画像データの内緑色(G)成分を使用して個人認証を行なうことを特徴とする請求項5〜7の内のいずれか1項に記載の個人認証方法。   The personal authentication method according to any one of claims 5 to 7, wherein personal authentication is performed using an inner green (G) component of image data of a predetermined area including the optic nerve head. 認証すべき個体の目および登録すべき個体の目に関し、視神経乳頭と黄斑部とを焦点とする所定の測定楕円を定め、該測定楕円と血管画像の交点位置を互いに比較することにより個人認証を行なうことを特徴とする請求項1に記載の個人認証方法。   For the eyes of the individual to be authenticated and the eyes of the individual to be registered, a predetermined measurement ellipse focusing on the optic disc and the macula is determined, and the individual authentication is performed by comparing the intersection positions of the measurement ellipse and the blood vessel image with each other. The personal authentication method according to claim 1, wherein the personal authentication method is performed. 網膜画像の血管部分の輝度値が他の部分の輝度値より著しく低いという特性を利用して前記測定楕円と血管画像との交点位置を求めることを特徴とする請求項9に記載の個人認証方法。   The personal authentication method according to claim 9, wherein the intersection position between the measurement ellipse and the blood vessel image is obtained using a characteristic that the luminance value of the blood vessel portion of the retinal image is significantly lower than the luminance value of the other portion. . 認証すべき個体の目の網膜画像から求めた前記交点位置の座標と、基準となる個体の目の網膜画像から求めた登録された交点位置の座標とを比較し、両者の交点位置が一致した数または割合に基づき個人認証を行なうことを特徴とする請求項9に記載の個人認証方法。   The coordinates of the intersection position obtained from the retina image of the eye of the individual to be authenticated are compared with the coordinates of the registered intersection position obtained from the retina image of the eye of the individual to be authenticated. The personal authentication method according to claim 9, wherein personal authentication is performed based on a number or a ratio. 認証すべき個体の目と登録すべき個体の目に関し、視神経乳頭と黄斑部とを基準として定めた所定の測定曲線と血管画像との交点位置を互いに比較することにより個人認証を行なうことを特徴とする請求項1に記載の個人認証方法。   Personal identification is performed by comparing the intersection positions of a predetermined measurement curve and blood vessel image with respect to the eyes of the individual to be authenticated and the eyes of the individual to be registered with reference to the optic disc and the macula. The personal authentication method according to claim 1. 認証すべき個体の目と基準となる個体の目に関して求めた網膜画像における、視神経乳頭と黄斑部とを結ぶ直線上の色分布を互いに比較することにより個人認証を行なうことを特徴とする請求項1に記載の個人認証方法。   The personal authentication is performed by comparing color distributions on a straight line connecting the optic disc and the macula in the retinal image obtained with respect to the eyes of the individual to be authenticated and the reference individual. 1. The personal authentication method according to 1. 前記色分布は赤色(R)、緑色(G)、青色(B)および輝度(Y)から選択した1つまたはそれ以上の色の前記直線上の濃度値分布特性を用いることを特徴とする請求項13に記載の個人認証方法。   The color distribution uses a density value distribution characteristic on the straight line of one or more colors selected from red (R), green (G), blue (B), and luminance (Y). Item 14. The personal authentication method according to Item 13. 前記色分布は緑色(G)の前記直線上の濃度値分布特性を利用することを特徴とする請求項14に記載の個人認証方法。   The personal authentication method according to claim 14, wherein the color distribution uses a density value distribution characteristic on the straight line of green (G). 認証すべき個体の目と基準とすべき個体の目とに関して求めた網膜画像における、視神経乳頭と黄斑部を結ぶ単一または複数の所定の曲線および/または直線上の色分布に基づき個人認証を行なうことを特徴とする請求項1に記載の個人認証方法。   Individual authentication is performed based on a single or a plurality of predetermined curves and / or color distributions on a straight line connecting the optic disc and the macula in the retinal image obtained for the eyes of the individual to be authenticated and the eyes of the individual to be used as a reference. The personal authentication method according to claim 1, wherein the personal authentication method is performed.
JP2007043302A 2007-02-23 2007-02-23 Personal authentication system using retina image Withdrawn JP2008206536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007043302A JP2008206536A (en) 2007-02-23 2007-02-23 Personal authentication system using retina image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007043302A JP2008206536A (en) 2007-02-23 2007-02-23 Personal authentication system using retina image

Publications (1)

Publication Number Publication Date
JP2008206536A true JP2008206536A (en) 2008-09-11

Family

ID=39783386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007043302A Withdrawn JP2008206536A (en) 2007-02-23 2007-02-23 Personal authentication system using retina image

Country Status (1)

Country Link
JP (1) JP2008206536A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012079244A (en) * 2010-10-06 2012-04-19 Casio Comput Co Ltd Vein pattern detection device, vein authentication device, and vein pattern detection method
KR101495430B1 (en) 2012-08-10 2015-02-24 아이베리파이 엘엘씨 Quality metrics for biometric authentication
CN111493814A (en) * 2017-05-04 2020-08-07 深圳硅基智能科技有限公司 Recognition system for fundus lesions

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012079244A (en) * 2010-10-06 2012-04-19 Casio Comput Co Ltd Vein pattern detection device, vein authentication device, and vein pattern detection method
KR101495430B1 (en) 2012-08-10 2015-02-24 아이베리파이 엘엘씨 Quality metrics for biometric authentication
CN111493814A (en) * 2017-05-04 2020-08-07 深圳硅基智能科技有限公司 Recognition system for fundus lesions
CN111493814B (en) * 2017-05-04 2021-11-12 深圳硅基智能科技有限公司 Recognition system for fundus lesions

Similar Documents

Publication Publication Date Title
KR100918286B1 (en) Living body guidance control method for a biometrics authentication device, and biometrics authentication device
US8000503B2 (en) Biometrics authentication system registration method, biometrics authentication system, and program for same
EP1612718B1 (en) Registration method for biometric authentication system, corresponding biometric authentication system, and program for same
KR100769101B1 (en) System and method for personal identification using biometrics data, and computer-readable recording medium in which personal identification program is stored
JP5439809B2 (en) Biometric authentication device
JP5622928B2 (en) Verification device, verification program, and verification method
EP1612717B1 (en) Biometric authentication system and registration method
WO2012111664A1 (en) Authentication device, authentication program, and authentication method
KR101626837B1 (en) Method and apparatus for convergence biometric authentication based on finger joint and finger vein
US7760916B2 (en) Registration apparatus, collation apparatus, image correction method and program
JP2002083298A (en) Personal identification device and method
JP2008009753A (en) Biometrics method and biometrics system
JP4817184B2 (en) Image photographing apparatus and image analysis program
WO2020071008A1 (en) Biometric authentication system, biometric authentication method, and program
US10586123B2 (en) Individual identification apparatus
JP2008206536A (en) Personal authentication system using retina image
CN114387629A (en) Biometric authentication device and biometric authentication method
JP2008210328A (en) Apparatus and program for authentication of fundus image
US11188749B2 (en) Method for biometric recognition from irises
CN108319830A (en) A kind of auth method and device
JP4617121B2 (en) Personal authentication device and personal authentication method
KR20110023407A (en) Robust face recognizing method in disguise of face
JP5685272B2 (en) Authentication apparatus, authentication program, and authentication method
JP2007058525A (en) Individual authentication device and individual authentication display method
JPH0821080B2 (en) Plastic partial image matching method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100311

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110425