JP5299632B2 - Personal authentication device, program and recording medium - Google Patents

Personal authentication device, program and recording medium Download PDF

Info

Publication number
JP5299632B2
JP5299632B2 JP2009136829A JP2009136829A JP5299632B2 JP 5299632 B2 JP5299632 B2 JP 5299632B2 JP 2009136829 A JP2009136829 A JP 2009136829A JP 2009136829 A JP2009136829 A JP 2009136829A JP 5299632 B2 JP5299632 B2 JP 5299632B2
Authority
JP
Japan
Prior art keywords
position determination
authentication
eye image
eye
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009136829A
Other languages
Japanese (ja)
Other versions
JP2010282523A (en
Inventor
祐治 山中
展弘 森田
伸 青木
順 渡部
茂 大内田
哲哉 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009136829A priority Critical patent/JP5299632B2/en
Publication of JP2010282523A publication Critical patent/JP2010282523A/en
Application granted granted Critical
Publication of JP5299632B2 publication Critical patent/JP5299632B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a vein pattern of a requested area of a finger to be imaged without fail and to realize downsizing and slimming down of a device without having a guide for regulating a position of the finger in the personal authentication device using the vein pattern of the finger. <P>SOLUTION: By a lens array based imaging part 101, the lens array based image of the finger is input. A position determination part 102 determines whether the position correction for the finger is required and how the position correction is made, based on an outline of the finger contained in the single lens based image chosen from among the lens array based images. In response to the determination result of the position determination part 102, a position correction part 103 allows a position correction guide mechanism 105 to guide a movement of finger by a user for the position correction or allows a position correction movement device 106 to move the lens array based imaging part 101 for the position correction. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、手指等の静脈パターン等の生体情報を利用する個人認証技術に関する。   The present invention relates to a personal authentication technique using biometric information such as a vein pattern such as a finger.

コンピュータ、携帯電話などの情報端末の利用や建造物への出入りなど、秘匿性のある情報に接触する際のセキュリティについて関心が高まっている。情報へのアクセスを許可された者であるかどうかを認証する手段として、カードに埋め込まれた磁気ストライプやICチップに記憶されているパスワード、利用者が記憶しているパスワードを利用する認証、利用者の身体的特徴を利用した生体認証などがある。カードは紛失のおそれがあり、パスワードは利用者が忘れたり他人に漏洩したりするおそれがある。生体認証は、そのような紛失・忘却のおそれがなく、他者が模倣することも困難であるという利点が既に知られている。   There is a growing interest in security when contacting confidential information such as the use of information terminals such as computers and mobile phones, and access to buildings. Authentication and usage using a magnetic stripe embedded in a card, a password stored in an IC chip, or a password stored by a user as a means of authenticating whether or not the person is permitted to access information Biometric authentication using the physical characteristics of the person. Cards can be lost, and passwords can be forgotten by users or leaked to others. Biometric authentication has already been known to have the advantage that there is no risk of such loss or forgetting and it is difficult for others to imitate.

従来、生体情報として手指や手のひらの静脈パターンを利用する個人認証装置では、ガイド部により手指や手のひらの位置を規制した状態で静脈パターンを撮像するという手法を一般的に採ってきた(例えば特許文献2参照)。このように生体部位の位置を規制するのは、静脈を内包する手指や手のひらとカメラとの相対的な位置関係が登録時と認証時にほぼ同じでなければ認証処理の精度が悪化したり、エラーが発生したりするなどの不都合が生じるためである。しかしながら、ガイド部への生体の接触が不可避であり、また、ガイド部を設けることにより装置全体が大型化してしまうという問題がある。不特定多数の人が利用するような場面では、衛生面等から、生体を接触させることは望ましくない。携帯電話やノートパソコンに代表される情報端末の小型化・薄型化が進展しており、装置サイズが大きいと、これら情報端末への個人認証装置の搭載の妨げとなる問題があった。   Conventionally, in a personal authentication device that uses a finger or palm vein pattern as biometric information, a technique has been generally adopted in which a vein pattern is imaged in a state where the position of the finger or palm is regulated by a guide unit (for example, Patent Documents). 2). In this way, the position of the living body part is regulated because the accuracy of the authentication process deteriorates or the error occurs if the relative positional relationship between the finger or palm that contains the vein and the camera is not the same at the time of registration and authentication. This is because inconveniences such as the occurrence of a problem occur. However, it is inevitable that the living body comes into contact with the guide portion, and there is a problem that the entire apparatus is enlarged by providing the guide portion. In a situation where an unspecified number of people use it, it is not desirable to bring the living body into contact for reasons of hygiene. As information terminals represented by mobile phones and laptop computers are becoming smaller and thinner, there is a problem that hinders the installation of personal authentication devices in these information terminals if the device size is large.

特許文献1には、生体を固定せずに高精度に認証を行うことを目的とした個人認証装置が開示されている。この個人認証装置は、登録手段と認証手段とから構成される。登録手段は、例えば手指を撮像して三次元生体情報を取得し、それに必要情報を付加したものを認証手段へ送信する。認証手段では、登録手段より受信した三次元生体情報を、登録者の手指の位置、傾き、関節の曲がり等の状態に合わせるように補正し、補正後の三次元生体情報と認証手段で手指を撮像して取得した生体情報とを用いて個人認証を行う。しかし、認証手段側に、手指に光や超音波を発信してその反射時間を測定するような方式の位置計測手段、三次元生体情報の複雑な補正処理のための手段等を備える必要があり、また、登録手段側にX線測定、磁気共鳴測定、光測定、超音波測定などを利用して三次元生体情報を取得するための手段を備える必要があるため、認証装置が大きくなり携帯情報端末等への搭載が困難であるという問題があり、また、装置の低コスト化も困難であるという問題がある。   Patent Document 1 discloses a personal authentication device for the purpose of performing authentication with high accuracy without fixing a living body. This personal authentication device includes a registration unit and an authentication unit. For example, the registration unit acquires a three-dimensional biological information by imaging a finger and transmits the information to which the necessary information is added to the authentication unit. The authentication unit corrects the three-dimensional biometric information received from the registration unit to match the registrant's finger position, tilt, joint bending, etc., and the corrected three-dimensional biometric information and the authentication unit Personal authentication is performed using biometric information acquired by imaging. However, on the authentication means side, it is necessary to provide a position measuring means that transmits light or ultrasonic waves to the finger and measures the reflection time thereof, a means for complex correction processing of 3D biological information, etc. In addition, since it is necessary to provide a means for acquiring three-dimensional biological information using X-ray measurement, magnetic resonance measurement, light measurement, ultrasonic measurement, etc. on the registration means side, the authentication apparatus becomes large and portable information There are problems that it is difficult to mount on a terminal or the like, and that it is difficult to reduce the cost of the apparatus.

本発明は、手指や手のひら等の静脈を内包する生体部位の静脈パターンを利用する個人認証装置における上述の如き問題点に鑑みてなされたもので、生体部位の位置を規制するためのガイド部材等を装備することなく、精度の良い個人認証が可能であり、かつ、小型化・薄型化・低コスト化が容易な個人認証装置を提供することを目的とする。   The present invention has been made in view of the above-described problems in a personal authentication device that uses a vein pattern of a living body part including a vein such as a finger or a palm, and a guide member for regulating the position of the living body part. It is an object of the present invention to provide a personal authentication device that can perform highly accurate personal authentication without being equipped with, and that can be easily reduced in size, thickness, and cost.

本発明の個人認証装置は、略平面上に複数のレンズが配列されたレンズアレイと、該レンズアレイにかざされたユーザの生体部位を複数の個眼画像の集合である複眼画像として撮像する撮像素子とからなる複眼撮像手段と、The personal authentication device according to the present invention captures a lens array in which a plurality of lenses are arranged on a substantially flat surface and a user's biological part held over the lens array as a compound eye image that is a set of a plurality of single-eye images. Compound eye imaging means comprising an element;
前記複眼撮像手段で撮像された複眼画像中の位置判定用に設定された個眼画像により、生体部位の輪郭を抽出する輪郭抽出処理を行い、該輪郭抽出処理の結果に基づいて、前記複眼撮像手段に対する相対的な生体部位の位置の修正の要否及び必要な位置の修正の方法を判定する位置判定を行う位置判定手段と、Contour extraction processing for extracting a contour of a living body part is performed using a single-eye image set for position determination in a compound eye image captured by the compound eye imaging means, and the compound eye imaging is performed based on a result of the contour extraction processing. Position determining means for performing position determination for determining whether or not the position of the biological part relative to the means needs to be corrected and a method for correcting the necessary position;
前記位置判定手段により判定された必要な位置の修正の方法に応じて、ユーザへの案内を行うための手段により、ユーザに対し生体部位の位置修正のための移動を案内させ、又は、前記複眼撮像手段を移動するための手段により、生体部位の位置修正のための前記複眼撮像手段の移動を行わせる位置修正手段と、According to the method for correcting the necessary position determined by the position determination means, the means for guiding the user is guided to the user for movement for correcting the position of the living body part, or the compound eye Position correcting means for moving the compound eye imaging means for correcting the position of the living body part by means for moving the imaging means;
前記位置判定手段により生体部位の位置の修正が不要と判定された場合に、前記複眼撮像手段で撮像された複眼画像中の認証用に設定された個眼画像により認証処理を行う認証処理手段とを備え、An authentication processing unit that performs an authentication process using a single-eye image set for authentication in a compound eye image captured by the compound eye imaging unit when it is determined by the position determining unit that correction of the position of the living body part is unnecessary; With
前記位置判定用に設定された個眼画像と前記認証用に設定された個眼画像の組み合わせが複数組あり、There are a plurality of combinations of single-eye images set for the position determination and single-eye images set for the authentication,
前記位置判定手段は、各組の位置判定用に設定された個眼画像の輪郭抽出処理の結果に基づいて1の組の位置判定用に設定された個眼画像を位置判定用個眼画像として決定し、当該位置判定用個眼画像の輪郭抽出処理の結果に基づいて位置判定を行い、The position determination means uses, as a position determination single-eye image, a single eye image set for position determination based on a result of contour extraction processing of a single-eye image set for position determination for each pair. Determine the position based on the result of the contour extraction processing of the position determination single-eye image,
前記認証処理手段は、前記位置判定手段により決定された位置判定用個眼画像と同じ組の認証用に設定された個眼画像を利用して認証処理を行うことを主要な特徴とする。The main feature of the authentication processing means is that the authentication processing is performed using a single eye image set for authentication in the same set as the single eye image for position determination determined by the position determination means.

本発明の個人認証装置においては、複眼撮像手段に対する相対的な生体部位の位置の修正の要否及び必要な位置修正の方法が判定される。この位置判定で、位置修正が必要であってその修正の方法が判定された場合には、それに応じて、ユーザに対し位置修正のための生体部位の移動を案内し、又は、生体部位の位置修正ための複眼撮像手段の移動を行うことにより、生体部位の位置の修正が行われる。このような位置修正の結果、入力された複眼画像に関して位置修正が必要でないと判定された場合に、その複眼画像を利用した認証処理が行われる。上記の位置判定の基準を、生体部位の所望の領域が撮像されるような位置関係となったときに、生体部位の位置修正が必要でないと判定されるように設定するならば、生体部位の位置を規制するためのガイド部材などを備えなくとも、生体部位の所望の領域を撮像した複眼画像を入力し、該複眼画像を利用した精度の良い認証処理を行うことができる。このように、本発明の個人認証装置は生体部位の位置を規制するためのガイド部材などを備える必要性がない。そして、レンズアレイを用いた複眼撮像手段は、その小型化・薄型化が容易な構造である。したがって、本発明の個人認証装置は、その全体を容易に小型化・薄型化することができる。また、本発明の個人な認証装置は、前記特許文献1の装置のような複雑高価な計測手段等を必要としないため、低コストで実現可能である。 In the personal authentication device of the present invention, it is determined whether or not the position of the biological part relative to the compound eye imaging means needs to be corrected and a necessary position correction method. In this position determination, when position correction is necessary and the correction method is determined, the movement of the living body part for position correction is guided to the user accordingly, or the position of the living body part The position of the living body part is corrected by moving the compound eye imaging means for correction. As a result of such position correction, when it is determined that position correction is not necessary for the input compound eye image, authentication processing using the compound eye image is performed. If the position determination criterion is set so that it is determined that correction of the position of the living body part is not necessary when a desired region of the living body part is imaged, the position of the living body part Even if a guide member for regulating the position is not provided, a compound eye image obtained by imaging a desired region of the living body part can be input, and accurate authentication processing using the compound eye image can be performed. Thus, the personal authentication device of the present invention does not need to include a guide member or the like for regulating the position of the living body part. The compound eye imaging means using the lens array has a structure that can be easily reduced in size and thickness. Therefore, the personal authentication device of the present invention can be easily reduced in size and thickness as a whole. In addition, the personal authentication device of the present invention does not require complicated and expensive measuring means or the like as in the device of Patent Document 1, and can be realized at low cost.

また、認証処理を高精度に行うために必要な解像度の被写体像を複眼撮像手段により入力するには、被写体である生体部位を複眼撮像手段のレンズアレイに接近させる必要がある。生体部位を接近させると、1つの個眼画像に撮像される生体部位の領域は限られる。例えば生体部位として手指を用い、その静脈パターンを撮像し認証に利用するものとすると、1つの個眼画像に、位置判定に好適な指先と、認証に好適な静脈パターン部位とを同時に撮像することは容易でない。本発明の個人認証装置においては、複眼画像中の別々の個眼画像を位置判定と認証処理とに利用するため、位置判定に好適な指先と認証に好適な静脈パターン部位をそれぞれ同時に撮像することは容易である。 In addition, in order to input a subject image having a resolution necessary for performing the authentication process with high accuracy by the compound eye imaging unit, it is necessary to bring the living body part that is the subject close to the lens array of the compound eye imaging unit. When the living body part is brought closer, the region of the living body part captured in one single-eye image is limited. For example, if a finger is used as a living body part and its vein pattern is imaged and used for authentication, a fingertip suitable for position determination and a vein pattern part suitable for authentication are simultaneously imaged in a single eye image. Is not easy. In the personal authentication device of the present invention, since individual eye images in a compound eye image are used for position determination and authentication processing, a fingertip suitable for position determination and a vein pattern part suitable for authentication are simultaneously imaged. Is easy.

さらに、本発明の個人認証装置においては、位置判定用に設定された個眼画像と認証用に設定された個眼画像の組み合わせが複数組あるため、いずれかの組の認証用に設定された個眼画像に認証に好適な静脈パターンを撮像できる機会が多くなる。そして、位置判定用に設定された個眼画像の輪郭抽出処理の結果に基づいて、1の組の位置判定用に設定された個眼画像を位置判定用個眼画像として決定し、当該位置判定用個眼画像の輪郭抽出処理の結果に基づいて位置判定を行い、また、当該位置判定用個眼画像と同じ組の認証用に設定された個眼画像を認証処理に利用するため、処理全体の高速化やユーザの負担軽減を図ることができる。 Furthermore, in the personal authentication device of the present invention, there are a plurality of combinations of the single-eye image set for position determination and the single-eye image set for authentication. Opportunities to capture a vein pattern suitable for authentication on a single image increase. Then, based on the result of the contour extraction processing of the single-eye image set for position determination, the single-eye image set for one set of position determination is determined as the single-eye image for position determination, and the position determination Since the position determination is performed based on the result of the contour extraction process for the single eye image, and the single image set for authentication in the same set as the single image for position determination is used for the authentication process, the entire process Speeding up and reducing the burden on the user.

実施形態1に係る個人認証装置の機能的構成を説明するためのブロック図である。It is a block diagram for demonstrating the functional structure of the personal authentication apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る個人認証装置の全体処理フローを示すフローチャートである。3 is a flowchart illustrating an overall processing flow of the personal authentication device according to the first embodiment. 実施形態1に係る個人認証装置における複眼撮像部の概略断面図である。3 is a schematic cross-sectional view of a compound eye imaging unit in the personal authentication device according to Embodiment 1. FIG. 指が適切な位置にある場合の複眼画像の一例を示す模式図である。It is a schematic diagram which shows an example of a compound eye image in case a finger exists in a suitable position. 位置判定用個眼画像の輪郭抽出結果を示す模式図である。It is a schematic diagram which shows the outline extraction result of the single-eye image for position determination. 輪郭を構成する画素の位置座標をxy平面にプロットした図である。It is the figure which plotted the position coordinate of the pixel which comprises an outline on xy plane. 指の位置修正が必要な場合における複眼画像の一例を示す模式図である。It is a schematic diagram which shows an example of a compound eye image in case finger position correction is required. x方向についての位置判定の具体例を示す図である。It is a figure which shows the specific example of the position determination about a x direction. x方向についての位置判定の具体例を示す図である。It is a figure which shows the specific example of the position determination about a x direction. y方向についての位置判定の具体例を示す図である。It is a figure which shows the specific example of the position determination about ay direction. y方向についての位置判定の具体例を示す図である。It is a figure which shows the specific example of the position determination about ay direction. z方向についての位置判定の具体例を示す図である。It is a figure which shows the specific example of the position determination about az direction. 3次元位置修正の処理フローを説明するためのフローチャートである。It is a flowchart for demonstrating the processing flow of three-dimensional position correction. 位置修正案内手段及び位置修正移動手段の形態を説明するための模式図である。It is a schematic diagram for demonstrating the form of a position correction guide means and a position correction movement means. 実施形態2に係る個人認証装置の複眼撮像部により入力される複眼画像の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a compound eye image input by a compound eye imaging unit of the personal authentication device according to the second embodiment. 実施形態2に係る個人認証装置の全体処理フローを説明するためのフローチャートである。10 is a flowchart for explaining an overall processing flow of the personal authentication device according to the second embodiment. 位置判定用個眼画像及び認証用個眼画像を決定する処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which determines the single image for position determination, and the single image for authentication. 実施形態3に係る個人認証装置の機能的構成を説明するためのブロック図である。It is a block diagram for demonstrating the functional structure of the personal authentication apparatus which concerns on Embodiment 3. FIG. 実施形態3に係る個人認証装置における複眼撮像部の概略断面図である。It is a schematic sectional drawing of the compound eye imaging part in the personal authentication device concerning Embodiment 3. 実施形態3に係る個人認証装置の全体処理フローを説明するためのフローチャートである。10 is a flowchart for explaining an overall processing flow of the personal authentication device according to the third embodiment. 実施形態3に係る個人認証装置の複眼撮像部により入力される複眼画像を説明するための模式図である。It is a schematic diagram for demonstrating the compound eye image input by the compound eye imaging part of the personal authentication apparatus which concerns on Embodiment 3. FIG. 本発明の個人認証装置を情報機器に認証装置として接続したシステムの説明図である。It is explanatory drawing of the system which connected the personal authentication apparatus of this invention to the information equipment as an authentication apparatus.

以下、図面を参照し、本発明の実施形態について説明する。なお、以下に説明する実施形態では、生体情報として手指の内部の静脈パターンを個人認証に利用するものとするが、静脈を内包する他の生体部位(手のひら等)の静脈パターンを利用して同様の個人認証を行う形態も可能であることは当然である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the embodiment described below, the vein pattern inside the finger is used as the biometric information for personal authentication. However, the vein pattern of the other living body part (palm etc.) that contains the vein is used similarly. Of course, a form of performing personal authentication is also possible.

[実施形態1]
図1は、本発明の実施形態1に係る個人認証装置の機能的構成を説明するためのブロック図である。この個人認証装置は、複眼撮像部101、被写体位置判定部102、位置修正部103、認証処理部104及び登録処理部107を備え、さらに、被写体位置修正のための手段として、位置修正案内手段105又は位置修正移動手段106を備える。なお、被写体位置修正のための手段として位置修正案内手段105と位置修正移動手段106の両方を備える態様も、本実施形態に包含される。
[Embodiment 1]
FIG. 1 is a block diagram for explaining a functional configuration of the personal authentication device according to the first embodiment of the present invention. The personal authentication apparatus includes a compound eye imaging unit 101, a subject position determination unit 102, a position correction unit 103, an authentication processing unit 104, and a registration processing unit 107. Further, as a means for correcting the subject position, a position correction guide unit 105 is provided. Alternatively, position correction moving means 106 is provided. Note that an embodiment including both the position correction guide means 105 and the position correction moving means 106 as means for correcting the subject position is also included in the present embodiment.

複眼撮像部101は、略平面上に複数のレンズが配列されてなるレンズアレイを介して、該レンズアレイにかざされたユーザ(認証を受ける者又は静脈パターンを登録する者)の生体部位(ここでは手指)を複眼画像として撮像素子により撮像し、撮像した複眼画像をデジタル画像データとして入力する手段である。その具体例については後述する。   The compound eye imaging unit 101 has a living body part (here, a person who receives authentication or a person who registers a vein pattern) held over the lens array via a lens array in which a plurality of lenses are arranged on a substantially plane. In this case, the image is captured by the image sensor as a compound eye image, and the captured compound eye image is input as digital image data. Specific examples thereof will be described later.

手指の静脈パターンを利用した個人認証を高精度に行うためには、認証時と登録時とで手指のほぼ同じ領域を撮像する必要がある。しかし、従来のように手指の位置を規制するためのガイド部を設けない場合、複眼撮像装置101と手指との位置関係は不安定であるため、撮像される手指の領域の位置も安定しない。そこで、本発明の個人認証装置においては、被写体である手指の所望の領域が撮像されるように、複眼撮像部101に対する被写体の相対的位置を修正する仕組みを備える。この仕組みを備えるため、従来のような手指の位置を規制するためのガイド部を設けることなく、認証時及び登録時に手指のほぼ同じ領域を撮像することが可能になる。なお、本実施形態に係る個人認証装置は、撮像した静脈パターンを登録パターンと比較する認証処理を行う認証動作と、撮像した静脈パターンを登録パターンとして登録する登録動作の両方が可能であるが、登録動作を別途行う場合においても、手指のほぼ同じ領域について撮像するならば、高精度の個人認証が可能となる。   In order to perform personal authentication using a finger vein pattern with high accuracy, it is necessary to image substantially the same region of the finger during authentication and during registration. However, when a guide part for restricting the position of the finger is not provided as in the prior art, the positional relationship between the compound-eye imaging device 101 and the finger is unstable, and the position of the finger region to be imaged is not stable. Therefore, the personal authentication device of the present invention includes a mechanism for correcting the relative position of the subject with respect to the compound-eye imaging unit 101 so that a desired region of the finger that is the subject is imaged. Since this mechanism is provided, it is possible to image almost the same region of the finger during authentication and registration without providing a guide part for regulating the position of the finger as in the prior art. Note that the personal authentication device according to the present embodiment can perform both an authentication operation for performing an authentication process for comparing a captured vein pattern with a registered pattern and a registration operation for registering the captured vein pattern as a registered pattern. Even in the case where the registration operation is performed separately, high-accuracy personal authentication is possible if images are taken of substantially the same region of the finger.

上記の被写体位置修正のための仕組みは、具体的には、被写体位置判定部102、位置修正部103、位置修正案内手段105又は(及び)位置修正移動手段106によって実現される。   Specifically, the above-described mechanism for subject position correction is realized by the subject position determination unit 102, the position correction unit 103, the position correction guide unit 105, and / or the position correction moving unit 106.

被写体位置判定部102は、複眼撮像部101により入力された複眼画像中の被写体位置判定用の個眼画像に撮影されている被写体の輪郭に着目して、複眼撮像部101に対する被写体の相対的位置を修正する必要があるか否かと、どのような位置修正が必要か(必要な位置修正方法)を判定する手段である。この位置判定の具体例については後述する。   The subject position determination unit 102 pays attention to the contour of the subject captured in the single-eye image for subject position determination in the compound eye image input by the compound eye imaging unit 101, and the relative position of the subject with respect to the compound eye imaging unit 101 It is a means for determining whether or not it is necessary to correct and what kind of position correction is necessary (necessary position correction method). A specific example of this position determination will be described later.

位置修正部103は、被写体位置判定部102により判定された位置修正方法に応じて、位置修正案内手段105又は位置修正移動手段106を作動させることにより、必要な手指の位置修正を実現させる手段である。位置修正案内手段105は、ユーザに対し位置修正のための手指の移動を視覚、聴覚等を通じて案内する手段である。位置修正移動手段106は、少なくとも複眼撮像部101を、位置修正のために移動させる手段である。   The position correction unit 103 is a unit that realizes necessary finger position correction by operating the position correction guide unit 105 or the position correction moving unit 106 according to the position correction method determined by the subject position determination unit 102. is there. The position correction guidance means 105 is a means for guiding the movement of a finger for position correction to the user through vision, hearing, or the like. The position correction moving means 106 is a means for moving at least the compound eye imaging unit 101 for position correction.

認証処理部104は、複眼撮像部101により入力された複眼画像を利用して認証処理を行う手段である。より具体的には、認証処理部104は、入力された複眼画像中の認識用個眼画像(ユーザの静脈パターン画像)と、登録処理部107に記憶されている登録パターン(登録済みユーザの静脈パターン画像)とを照合し、その類似度又は相違度に基づいて、ユーザが登録済みユーザ本人であるか否かを判定する手段である。なお、照合方法としては、公知のパターンマッチングを用いてもよいし、パターンの特徴点の対応を求める公知の特徴ベースマッチングを用いてもよい。   The authentication processing unit 104 is a unit that performs authentication processing using the compound eye image input by the compound eye imaging unit 101. More specifically, the authentication processing unit 104 includes a recognition single-eye image (user's vein pattern image) in the input compound eye image, and a registration pattern (registered user's veins) stored in the registration processing unit 107. Pattern image) and determining whether or not the user is a registered user based on the similarity or difference. As a matching method, a known pattern matching may be used, or a known feature base matching for obtaining a correspondence between pattern feature points may be used.

登録処理部107は、複眼撮像部101により入力された複眼画像中の認識用個眼画像(静脈パターン画像)を登録パターンとして記憶する手段である。なお、認証処理部104で特徴ベースマッチングを用いる場合には、登録処理部107において静脈パターンの特徴点抽出を行い、抽出した特徴点のデータを登録パターンとして記憶するようにしてもよい。   The registration processing unit 107 is a means for storing a recognition single-eye image (vein pattern image) in the compound-eye image input by the compound-eye imaging unit 101 as a registration pattern. When feature-based matching is used in the authentication processing unit 104, the registration processing unit 107 may extract the feature points of the vein pattern and store the extracted feature point data as a registration pattern.

図2に本実施形態に係る個人認証装置の全体的な処理フローを示す。複眼撮像部101により被写体(ここではユーザの手指)が撮影され、その複眼画像が入力される(ステップ201)。被写体位置判定部102において、入力された複眼画像中の予め設定された被写体位置判定用個眼画像が抽出され(ステップ202)、その個眼画像に対して被写体の輪郭を抽出する輪郭抽出処理が行われ(ステップ203)、この輪郭抽出処理の結果に基づいて被写体の位置判定が行われる(ステップ204)。この位置判定で位置修正が不要(位置修正完了)と判定された場合(ステップ205,YES)、認証動作が選択されているときは、入力された複眼画像中の予め設定された認証用個眼像を用いた認証処理が認証処理部104で行われ、登録動作が選択されているときは、同じ個眼画像を登録パターンとして登録する処理が登録処理部107で行われる(ステップ206)。ステップ204で位置修正が必要と判定された場合(ステップ205,NO)、位置修正部103は、位置判定部102で判定された位置修正方法に応じて、位置修正のための手指の移動を位置修案内手段105で案内させ、あるいは位置修正のための複眼撮像部101の移動を位置修正移動手段106に行わせ(ステップ207)、ステップ201の処理に戻る。   FIG. 2 shows an overall processing flow of the personal authentication apparatus according to the present embodiment. The compound eye imaging unit 101 captures a subject (here, the user's finger) and inputs the compound eye image (step 201). The subject position determination unit 102 extracts a preset single image for subject position determination from the input compound eye image (step 202), and performs contour extraction processing for extracting the contour of the subject from the single eye image. Is performed (step 203), and the position of the subject is determined based on the result of the contour extraction process (step 204). If it is determined in this position determination that position correction is not necessary (position correction completion) (step 205, YES), and an authentication operation is selected, a preset authentication single eye in the input compound eye image When the authentication processing using the image is performed in the authentication processing unit 104 and the registration operation is selected, the registration processing unit 107 performs processing for registering the same single-eye image as a registration pattern (step 206). When it is determined in step 204 that position correction is necessary (step 205, NO), the position correction unit 103 positions the movement of the finger for position correction according to the position correction method determined by the position determination unit 102. Guidance is made by the repair guidance means 105 or the movement of the compound eye imaging unit 101 for position correction is performed by the position correction movement means 106 (step 207), and the processing returns to step 201.

図3は、複眼撮像部101の一実施例を示す概略断面図である。図3において、11はレンズアレイ、12は遮光部材、13は撮像素子、14はカバーガラスである。   FIG. 3 is a schematic cross-sectional view showing an example of the compound eye imaging unit 101. In FIG. 3, 11 is a lens array, 12 is a light shielding member, 13 is an image sensor, and 14 is a cover glass.

この実施例では、レンズアレイ11は2つのレンズ11a,11bをアレイ配列したもので、それら各レンズでレンズアレイ11にかざされた被写体1(手指)の光学像を像面に結像させる。レンズ11a,11bの配列方向は被写体1である手指の軸方向に対応した方向である。遮光部材12は、レンズアレイ11の各レンズ11a、11bを通過した光の撮像素子13の撮像面上でのクロストークを防止し、ゴーストやフレアなどのノイズを抑止するためのものである。撮像素子13は、レンズアレイ11の各レンズ11a、11bにより結像される被写体1の光学像(個眼画像)を受光し、電気信号に変換して、2つの個眼画像からなる複眼画像を入力するもので、具体的には、多数の光電素子13aが二次元配列されたCMOSイメージセンサやCCDイメージセンサ等が用いられる。なお、撮像素子13は、光電素子13aにより変換された電気信号(アナログ信号)のゲインを調整したり、アナログ信号をデジタル信号に変換したりする回路を内蔵し、複眼画像をデジタルデータとして出力する。カバーガラス14は、レンズアレイ11を保護するためのものである。   In this embodiment, the lens array 11 is an array of two lenses 11a and 11b, and an optical image of the subject 1 (finger) held over the lens array 11 is formed on the image plane by each lens. The arrangement direction of the lenses 11 a and 11 b is a direction corresponding to the axial direction of the finger that is the subject 1. The light shielding member 12 is for preventing crosstalk on the imaging surface of the imaging element 13 of light that has passed through the lenses 11a and 11b of the lens array 11, and suppressing noise such as ghost and flare. The imaging device 13 receives an optical image (single-eye image) of the subject 1 formed by the lenses 11 a and 11 b of the lens array 11, converts it into an electrical signal, and converts a compound eye image composed of two single-eye images. Specifically, a CMOS image sensor or a CCD image sensor in which a large number of photoelectric elements 13a are two-dimensionally arranged is used. The image sensor 13 has a built-in circuit that adjusts the gain of the electrical signal (analog signal) converted by the photoelectric element 13a and converts the analog signal into a digital signal, and outputs a compound eye image as digital data. . The cover glass 14 is for protecting the lens array 11.

図3においては、レンズアレイ11のレンズ11a,11bは、撮像素子13の側に凸の平凸レンズとして示されているが、両面凸レンズや被写体側に凸の平凸レンズとすることも可能である。ただし、撮像素子13の側に凸の平凸レンズとした場合、被写体側に凸の平凸レンズとした場合に比べて広い画角にわたって良好な結像性能を得ることができる。また、平凸レンズとした場合、両面凸レンズとする場合に比べてレンズアレイ11の製造コストを削減できる。   In FIG. 3, the lenses 11 a and 11 b of the lens array 11 are shown as plano-convex lenses convex toward the image sensor 13, but they can also be double-sided convex lenses or plano-convex lenses convex toward the subject side. However, when a plano-convex lens convex toward the image sensor 13 is used, better imaging performance can be obtained over a wider angle of view than when a plano-convex lens convex toward the subject is used. Further, when the plano-convex lens is used, the manufacturing cost of the lens array 11 can be reduced as compared with the case where the double-side convex lens is used.

次に、被写体位置判定部102及び位置修正部103についてさらに説明する。   Next, the subject position determination unit 102 and the position correction unit 103 will be further described.

図4は、図3に示した複眼画像部101により撮像される複眼画像の一例を模式的に示している。図4において、21はレンズ11bに対応した個眼画像であり、22はレンズ11aに対応した個眼画像であり、各個眼画像において指の輪郭が太い線で表され、静脈パターンは淡い線で表されている。ここでは、個眼画像21が認証用に設定された個眼画像であり、個眼画像22が被写体位置判定用に設定された個眼画像である。各個眼画像はレンズアレイのレンズを通して上下左右反転して結像された像であるから、複眼画像では被写体である手指は連続しているようには写らない。なお、図4の例は、被写体である手指の所望の領域が撮像されるような適切な被写体位置である場合であって、認証用個眼画像21に静脈認証に適した手指の部位の静脈パターンが撮像されている。   FIG. 4 schematically illustrates an example of a compound eye image captured by the compound eye image unit 101 illustrated in FIG. 3. In FIG. 4, 21 is a single-eye image corresponding to the lens 11b, 22 is a single-eye image corresponding to the lens 11a, and the outline of the finger is represented by a thick line in each single-eye image, and the vein pattern is a light line. It is represented. Here, the single-eye image 21 is a single-eye image set for authentication, and the single-eye image 22 is a single-eye image set for subject position determination. Since each single-eye image is an image that is formed by inverting the image vertically and horizontally through the lenses of the lens array, the finger that is the subject does not appear to be continuous in the compound-eye image. Note that the example of FIG. 4 is a case where the desired subject position is such that a desired region of the finger that is the subject is imaged, and the vein of the finger part suitable for vein authentication is included in the individual image for authentication 21. A pattern is imaged.

被写体位置判定部102においては、位置判定のための前処理として位置判定用個眼画像に対し手指の輪郭を抽出するための輪郭抽出処理(図2のステップ203)を行う。図4に示す個眼画像22の場合、この輪郭抽出処理の結果は図5のようになる。輪郭部では急峻な画素値の変化があり、これを利用して輪郭抽出を行うことが可能である。例えば、周知のソーベル(Sobel)フィルタなどを用いた一般的なフィルタリングによる輪郭抽出が可能である。   The subject position determination unit 102 performs contour extraction processing (step 203 in FIG. 2) for extracting the contour of the finger from the single image for position determination as preprocessing for position determination. In the case of the single eye image 22 shown in FIG. 4, the result of the contour extraction process is as shown in FIG. There is a sharp change in the pixel value in the contour portion, and contour extraction can be performed using this. For example, contour extraction by general filtering using a known Sobel filter or the like is possible.

図6は、輪郭抽出処理の結果つまり抽出された図5のような輪郭を用いた位置判定を説明するための図である。抽出した輪郭は、それを構成する画素の位置座標(x,y)の集合として出力される。それらをxy平面(ここでは位置判定用個眼画像22の左下角を原点にとるものとしている)にプロットすると図6になる。輪郭座標がy1からy2へ移動するときのx座標が連続しているか否かを、指先が被写体位置判定用の個眼画像に含まれているか否かの判定基準とすることができる。そして、指先の輪郭が含まれていれば、x方向についての位置修正は必要ないと判定し、指先の輪郭が含まれていなければx方向についての位置修正が必要であると判定することができる。したがって、図4のような複眼画像が撮像される場合は位置修正の必要はないと判定されることになる。このような判定基準を用いることにより、手指のほぼ同じ部位を撮像することができるようになる。そして、その部位が認証処理に好適な静脈パターン部位となるように、複眼撮像部101の設計段階で対応することができる。   FIG. 6 is a diagram for explaining the position determination using the result of the contour extraction process, that is, the extracted contour as shown in FIG. The extracted contour is output as a set of position coordinates (x, y) of the pixels constituting the contour. When these are plotted on the xy plane (here, the lower left corner of the position determination single-eye image 22 is taken as the origin), FIG. 6 is obtained. Whether or not the x coordinate when the contour coordinate moves from y1 to y2 is continuous can be used as a criterion for determining whether or not the fingertip is included in the single eye image for subject position determination. If the contour of the fingertip is included, it can be determined that the position correction in the x direction is not necessary, and if the contour of the fingertip is not included, it can be determined that the position correction in the x direction is necessary. . Therefore, when a compound eye image as shown in FIG. 4 is captured, it is determined that position correction is not necessary. By using such a determination criterion, it is possible to image almost the same part of the finger. And it can respond in the design stage of the compound eye imaging part 101 so that the site | part may become a vein pattern site | part suitable for an authentication process.

図7は被写体位置判定用の個眼画像22に指先が含まれないような被写体位置で撮像された複眼画像の例を示している。このような複眼画像中の個眼画像22について、図6に関連して説明した被写体位置判定を行った場合、指輪郭は含まれてはいるが指先の輪郭は含まれていないので、y1からy2に移動するときにx座標が不連続となる箇所が発生し、x方向の位置修正が必要であると判定されることになる。   FIG. 7 shows an example of a compound eye image captured at a subject position such that the fingertip is not included in the single-eye image 22 for subject position determination. When the subject position determination described in relation to FIG. 6 is performed on the single-eye image 22 in such a compound eye image, the finger contour is included but the fingertip contour is not included. When moving to y2, a location where the x coordinate becomes discontinuous occurs, and it is determined that the position correction in the x direction is necessary.

以上に説明したようなx方向(指の軸方向)についての位置判定の具体例を図8に示す。図8において、Case0は、位置判定用個眼画像に指の輪郭が無い場合であり、指を先端方向へ移動させる位置修正が必要であると判定される。Case1は、位置判定用個眼画像に指の輪郭があるが、連続でない(y1からy2に移動するときにx座標が不連続となる箇所がある)場合であり、指を付け根方向に移動させる位置修正が必要であると判定される。また、Case2は、指の輪郭があり、かつ連続である(y1からy2に移動するときにx座標が不連続となる箇所がない)場合であり、位置修正は必要でないと判定される。   A specific example of position determination in the x direction (finger axial direction) as described above is shown in FIG. In FIG. 8, Case 0 is a case where there is no finger outline in the position determination single-eye image, and it is determined that position correction for moving the finger in the distal direction is necessary. Case 1 is a case where the position determination single-eye image has a finger outline but is not continuous (there is a portion where the x coordinate is discontinuous when moving from y1 to y2), and moves the finger in the base direction. It is determined that position correction is necessary. Case 2 is a case where there is a finger outline and is continuous (there are no locations where the x coordinate is discontinuous when moving from y1 to y2), and it is determined that position correction is not necessary.

また、図8の例のように指先の輪郭が含まれているか否かというだけではなく、指先の輪郭の座標に所定の範囲を設けることにより、位置修正の精度を向上させ、認証の高精度化を図ることができる。例えば、指先の位置を、より正確に所望の位置に合わせるためには、指先のx座標x1が所定の範囲[Xa,Xb]間に収まるまで位置修正を行わせるようにすればよい。また、上記所定の範囲に幅を設けず、すなわちXa=Xb=Xとし、x1がただひとつの座標値Xと一致した場合のみ位置修正の必要なしと判定させるようにすることも可能であり、このようにすれば所望の静脈パターン部位を撮像させるように高精度な位置修正が可能である。   Further, not only whether or not the contour of the fingertip is included as in the example of FIG. 8, but by providing a predetermined range in the coordinates of the contour of the fingertip, the accuracy of position correction is improved, and the accuracy of authentication is high. Can be achieved. For example, in order to adjust the position of the fingertip to a desired position more accurately, the position correction may be performed until the x-coordinate x1 of the fingertip falls within a predetermined range [Xa, Xb]. It is also possible to determine that no position correction is required only when xa is equal to only one coordinate value X without setting a width in the predetermined range, that is, Xa = Xb = X. In this way, high-accuracy position correction is possible so that a desired vein pattern site is imaged.

上に述べたような所定の範囲を用いる、x方向についての位置判定の具体例を図9に示す。図9において、Case0は、位置判定用個眼画像に指の輪郭が無い場合であり、指を先端方向へ移動させる位置修正が必要であると判定される。Case1は、位置判定用個眼画像に指の輪郭があるが、連続でない(y1からy2に移動するときにx座標が不連続となる箇所がある)場合であり、指を付け根方向に移動させる位置修正が必要であると判定される。Case2は、指の輪郭があり、かつ連続である(y1からy2に移動するときにx座標が不連続となる箇所がない)が、x1が所定の範囲にない場合であり、x1が所定の範囲に入る向きに指を移動させる位置修正が必要とあると判定される。Case3は、指の輪郭があり、かつ連続であり(y1からy2に移動するときにx座標が不連続となる箇所がない)、かつ、x1が所定の範囲にある場合であり、位置修正は必要でないと判定される。   FIG. 9 shows a specific example of position determination in the x direction using the predetermined range as described above. In FIG. 9, Case 0 is a case where there is no contour of the finger in the position determination single-eye image, and it is determined that position correction for moving the finger in the distal direction is necessary. Case 1 is a case where the position determination single-eye image has a finger outline but is not continuous (there is a portion where the x coordinate is discontinuous when moving from y1 to y2), and moves the finger in the base direction. It is determined that position correction is necessary. Case2 is a case where the finger has a contour and is continuous (there is no part where the x coordinate becomes discontinuous when moving from y1 to y2), but x1 is not within a predetermined range, and x1 is predetermined. It is determined that position correction for moving the finger in the direction of entering the range is necessary. Case 3 is a case where the finger has a contour and is continuous (there is no part where the x coordinate is discontinuous when moving from y1 to y2), and x1 is within a predetermined range. It is determined that it is not necessary.

y方向についても、輪郭抽出処理により抽出された輪郭に基づいた同様の位置判定と位置修正が可能である。   Also in the y direction, the same position determination and position correction based on the contour extracted by the contour extraction process can be performed.

まず、指側部の輪郭の有無に着目したy方向についての位置判定の具体例を図10に示す。図10において、Case0は位置判定用個眼画像に指の輪郭がない場合であり、輪郭が撮像されるように指をy方向に移動させる位置修正が必要と判定される。Case1は、位置判定用個眼画像に指の輪郭があるが、指側部の片側の輪郭が存在しない場合であり、指側部の両側の輪郭が撮像される向きに指をy方向移動させる位置修正が必要と判定される。Case2は、指の輪郭があり、指側部の両側の輪郭がある場合であり、位置修正は必要でないと判定される。   First, FIG. 10 shows a specific example of position determination in the y direction focusing on the presence or absence of the contour of the finger side portion. In FIG. 10, Case 0 is a case where there is no finger contour in the position determination single-eye image, and it is determined that position correction is required to move the finger in the y direction so that the contour is imaged. Case 1 is a case where the position determination single-eye image has a finger outline, but there is no outline on one side of the finger side part, and the finger is moved in the y direction in a direction in which the outlines on both sides of the finger side part are imaged. It is determined that position correction is necessary. Case 2 is a case where there is a contour of the finger and there are contours on both sides of the finger side portion, and it is determined that position correction is not necessary.

また、指側部の輪郭のy座標y1,y2(図6)が所定の範囲内にあるか否かを調べることによりy方向についての位置判定を行えば、より高精度の位置修正が可能である。そのようなy方向についての位置判定の具体例を図11に示す。   Further, if position determination in the y direction is performed by checking whether or not the y-coordinates y1 and y2 (FIG. 6) of the contour of the finger side are within a predetermined range, position correction with higher accuracy is possible. is there. A specific example of such position determination in the y direction is shown in FIG.

図11において、Case0は、位置判定用個眼画像に指の輪郭がない場合であり、輪郭が撮像されるように指をy方向移動させる位置修正が必要と判定される。Case1は、指の輪郭があるが、指側部の片側の輪郭が存在しない場合であり、指側部の両側の輪郭が撮像される向きに指をy方向移動させる位置修正が必要と判定される。Case2は、指の輪郭があり、指側部の両側の輪郭があるが、それら輪郭のy座標y1,y2が所定の範囲にない場合であり、y1,y2が所定の範囲に入る向きに指をy方向移動させる位置修正が必要であると判定される。Case3は、指の輪郭があり、指側部の両側の輪郭があり、かつ、y1,y2が所定の範囲にある場合であり、y方向の位置修正は必要でないと判定される。   In FIG. 11, Case 0 is a case where there is no finger contour in the position determination single-eye image, and it is determined that position correction is required to move the finger in the y direction so that the contour is imaged. Case 1 is a case where there is a contour of a finger but there is no contour on one side of the finger side, and it is determined that position correction is required to move the finger in the y direction in the direction in which the contours on both sides of the finger side are imaged. The Case 2 is a case where there is a contour of the finger and there are contours on both sides of the finger side, but the y-coordinates y1 and y2 of these contours are not within the predetermined range, and the finger is oriented so that y1 and y2 fall within the predetermined range. It is determined that position correction for moving the image in the y direction is necessary. Case 3 is a case where there is a finger contour, there are contours on both sides of the finger side, and y1 and y2 are in a predetermined range, and it is determined that position correction in the y direction is not necessary.

上記したような面内での位置修正のみならず、指の太さ、すなわち指側部の輪郭のy座標の差(y2-y1)を用いて、被写体距離方向(以降、z方向)についての位置判定が可能である。静脈認証に好適な静脈パターンを撮影できる被写体距離は設計時に既知であるので、そのときの個眼画像上での指の太さの適切な範囲を推定し、これに基づいて(y2−y1)の所定の範囲を設定することができる。このようなz方向についての位置判定の具体例を図12に示す。ただし、判定にy1,y2の値を用いるので、指側部の輪郭が両方とも撮像されていることが前提となる。   In addition to the above-described position correction in the plane, the thickness of the finger, that is, the difference in y-coordinate of the contour of the finger side (y2-y1) is used for the subject distance direction (hereinafter referred to as the z direction). Position determination is possible. Since the subject distance that can capture a vein pattern suitable for vein authentication is known at the time of design, an appropriate range of finger thickness on a single-eye image at that time is estimated, and based on this, (y2-y1) The predetermined range can be set. A specific example of such position determination in the z direction is shown in FIG. However, since the values of y1 and y2 are used for the determination, it is assumed that both the contours of the finger side portions are imaged.

図12において、Case0は(y2−y1)が所定の範囲にない場合であり、(y2−y1)が所定の範囲に入る向きに指をz方向移動させる位置修正が必要と判定される。Case1は、(y2−y1)が所定の範囲にある場合であり、z方向の位置修正は必要でないと判定される。   In FIG. 12, Case 0 is a case where (y2-y1) is not within the predetermined range, and it is determined that position correction is required to move the finger in the z direction so that (y2-y1) falls within the predetermined range. Case 1 is a case where (y2−y1) is in a predetermined range, and it is determined that position correction in the z direction is not necessary.

以上、xyz各方向についての位置判定の具体例を説明した。そして、x方向のみについての位置判定と位置修正、y方向のみについての位置判定と位置修正、x,y方向の位置判定を組み合わせてx,y方向の2次元の位置修正、x,y,z方向の位置判定を組み合わせてx,y,z方向の3次元の位置修正を行うことが可能である。   The specific example of the position determination for each xyz direction has been described above. Then, position determination and position correction only in the x direction, position determination and position correction only in the y direction, and position determination in the x and y directions are combined to perform two-dimensional position correction in the x and y directions, x, y, and z It is possible to perform three-dimensional position correction in the x, y, and z directions by combining the position determination in the direction.

まず、x方向についてのみ位置判定と位置修正を行う場合の動作について説明する。   First, the operation when position determination and position correction are performed only in the x direction will be described.

図8の位置判定方法を用いる場合、被写体位置判定部102による位置判定(ステップ204)で図8のCase2の判定結果が得られるまでは(図2のステップ205、NO)、位置修正をして撮像し、再び位置判定を行うという処理の流れとなる。位置判定の結果が図8のCase0の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によってユーザに対し指を先端側へ移動させるように案内させ、あるいは、複眼撮像部101に対し相対的に指を先端側へ移動させるように位置修正移動手段106によって複眼撮像部101を逆向きすなわち指の付け根側へ移動させる。位置判定の結果が図8のCase1の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によってユーザに対し指を付け根側へ移動させるように案内させ、あるいは、複眼撮像部101に対し相対的に指を付け根側へ移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きすなわち指の先端側へ移動させる。   When the position determination method of FIG. 8 is used, position correction is performed until the determination result of Case 2 of FIG. 8 is obtained by the position determination by the subject position determination unit 102 (step 204) (NO in step 205 of FIG. 2). The flow of processing is to take an image and perform position determination again. When the result of the position determination is Case 0 in FIG. 8, in step 207 in FIG. 2, the position correction unit 103 guides the user to move the finger to the distal end side by the position correction guide unit 105 or compound eye imaging. The compound eye imaging unit 101 is moved in the opposite direction, that is, toward the base of the finger by the position correction moving unit 106 so that the finger is moved relative to the unit 101 toward the tip side. When the result of the position determination is Case 1 in FIG. 8, in step 207 in FIG. 2, the position correction unit 103 guides the user to move the finger toward the root side by the position correction guide unit 105, or compound eye imaging. The compound eye imaging unit 101 is moved in the opposite direction, that is, toward the tip of the finger so that the finger is moved toward the base side relative to the unit 101.

図9の位置判定方法を用いる場合、被写体位置判定部102による位置判定で図9のCase3の判定結果が得られるまでは(図2のステップ205、NO)、位置修正をして撮像し、再び位置判定を行うという処理の流れとなる。位置判定の結果が図9のCase0の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によってユーザに対し指を先端側へ移動させるように案内させ、あるいは、複眼撮像部101に対し相対的に指を先端側へ移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きすなわち指の付け根側へ移動させる。位置判定の結果が図9のCase1の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によってユーザに対し指を付け根側へ移動させるように案内させ、あるいは、複眼撮像部101に対し相対的に指を付け根側へ移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きすなわち指の先端側へ移動させる。位置判定の結果が図9のCase2の場合、図2のステップ207において、位置修正部103は、x1が所定範囲の最小値より小さいときには、位置修正案内手段105によってユーザに対し指を付け根側へ移動させるように案内させ、あるいは、複眼撮像部101に対し相対的に指を付け根側へ移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きすなわち指の先端側へ移動させる。x1が所定範囲の最大値を超えているときには、位置修正部103は、位置修正案内手段105によってユーザに対し指を先端側へ移動させるように案内させ、あるいは、複眼撮像部101に対し相対的に指を先端側へ移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きすなわち指の付け根側へ移動させる。   When the position determination method of FIG. 9 is used, until the determination result of Case 3 of FIG. 9 is obtained by the position determination by the subject position determination unit 102 (NO in step 205 of FIG. 2), the position is corrected and imaged again. The processing flow is to perform position determination. When the result of the position determination is Case 0 in FIG. 9, in step 207 in FIG. 2, the position correction unit 103 guides the user to move the finger to the tip side by the position correction guide unit 105, or compound eye imaging The compound eye imaging unit 101 is moved in the opposite direction, that is, toward the base of the finger by the position correction moving means 106 so that the finger is moved toward the tip side relative to the unit 101. When the result of the position determination is Case 1 in FIG. 9, in step 207 in FIG. 2, the position correction unit 103 guides the user to move the finger toward the root side by the position correction guide unit 105 or compound eye imaging. The compound eye imaging unit 101 is moved in the opposite direction, that is, toward the tip of the finger so that the finger is moved toward the base side relative to the unit 101. When the result of the position determination is Case 2 in FIG. 9, in step 207 in FIG. 2, when x1 is smaller than the minimum value in the predetermined range, the position correction guide unit 105 puts a finger on the user side to the root side. The compound eye imaging unit 101 is moved in the opposite direction, that is, toward the distal end side of the finger by the position correction moving means 106 so that the finger is moved relative to the compound eye imaging unit 101 and moved toward the root side. When x1 exceeds the maximum value in the predetermined range, the position correction unit 103 guides the user to move the finger to the distal end side by the position correction guide unit 105 or is relative to the compound eye imaging unit 101. The compound eye imaging unit 101 is moved in the opposite direction, that is, toward the base of the finger by the position correction moving means 106 so that the finger is moved to the tip side.

次に、y方向についてのみ位置判定と位置修正を行う場合の動作について説明する。   Next, an operation when position determination and position correction are performed only in the y direction will be described.

図10の判定方法を用いる場合、被写体位置判定部102による位置判定(ステップ204)で図10のCase2の判定結果が得られるまでは(図2のステップ205、NO)、位置修正をして撮像し、再び位置判定を行うという処理の流れとなる。位置判定の結果が図10のCase0の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によって、ユーザに対し指を例えばレンズアレイ上のレンズの真上へ移動させるように案内させ、あるいは、位置修正移動手段106によって、例えば、所定の幅だけy方向にスキャンさせるように複眼撮像部101を移動させる。位置判定の結果が図10のCase1の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によって、ユーザに対し指側部の両側の輪郭が撮像される向きに指をy方向移動させるように案内させ、あるいは、その方向に指を複眼撮像部101に対し相対移動させるように、位置修正移動手段106によって複眼撮像部101を移動させる。   When the determination method of FIG. 10 is used, until the determination result of Case 2 of FIG. 10 is obtained by the position determination (step 204) by the subject position determination unit 102 (step 205 of FIG. 2, NO), the position is corrected and imaged. Then, the flow of processing for determining the position again is performed. When the result of the position determination is Case 0 in FIG. 10, in step 207 in FIG. 2, the position correction unit 103 causes the position correction guide unit 105 to move the finger to the user, for example, directly above the lens on the lens array. The compound eye imaging unit 101 is moved by the position correction moving means 106 so as to scan in the y direction by a predetermined width, for example. When the result of the position determination is Case 1 in FIG. 10, in step 207 in FIG. 2, the position correction unit 103 causes the position correction guide unit 105 to place the finger in the direction in which the contours on both sides of the finger side are imaged. The compound eye imaging unit 101 is moved by the position correction moving means 106 so as to be guided to move in the y direction or to move the finger relative to the compound eye imaging unit 101 in that direction.

図11の判定方法を用いる場合、被写体位置判定部102による位置判定(ステップ204)で図11のCase3の判定結果が得られるまでは(図2のステップ205、NO)、位置修正をして撮像し、再び位置判定を行うという処理の流れとなる。位置判定の結果が図11のCase0の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によって、ユーザに対し指を例えばレンズアレイ上のレンズの真上へ移動させるように案内させ、あるいは、位置修正移動手段106によって、例えば、所定の幅だけy方向にスキャンさせるように複眼撮像部101を移動させる。位置判定の結果が図11のCase1の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によって、ユーザに対し指側部の両側の輪郭が撮像される向きに指をy方向移動させるように案内させ、あるいは、その向きに指を複眼撮像部101に対し相対移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きに移動させる。位置判定の結果がCase2の場合、図2のステップ207において、位置修正部103は、位置修正案内手段105によって、ユーザに対し指側部の両側の輪郭のy座標y1,y2が所定範囲に入る向きに指をy方向移動させるように案内させ、あるいは、その向きに指を複眼撮像部101に対し相対移動させるように、位置修正移動手段106によって複眼撮像部101を逆向きに移動させる。   When the determination method of FIG. 11 is used, until the determination result of Case 3 of FIG. 11 is obtained by the position determination (step 204) by the subject position determination unit 102 (step 205 of FIG. 2, NO), the position is corrected and imaged. Then, the flow of processing for determining the position again is performed. When the result of the position determination is Case 0 in FIG. 11, in step 207 in FIG. 2, the position correction unit 103 causes the position correction guide unit 105 to move the finger to the user, for example, directly above the lens on the lens array. The compound eye imaging unit 101 is moved by the position correction moving means 106 so as to scan in the y direction by a predetermined width, for example. When the result of the position determination is Case 1 in FIG. 11, in step 207 in FIG. 2, the position correction unit 103 causes the position correction guide unit 105 to place the finger in the direction in which the contours on both sides of the finger side are imaged. The compound eye imaging unit 101 is moved in the opposite direction by the position correction moving means 106 so as to be guided to move in the y direction or to move the finger relative to the compound eye imaging unit 101 in that direction. When the result of the position determination is Case 2, in step 207 of FIG. 2, the position correction unit 103 causes the position correction guide unit 105 to place the y coordinates y1 and y2 of the contours on both sides of the finger side part within a predetermined range with respect to the user. The compound eye imaging unit 101 is moved in the opposite direction by the position correction moving unit 106 so that the finger is guided to move in the y direction in the direction, or the finger is moved relative to the compound eye imaging unit 101 in that direction.

上に述べたx,y方向の位置判定と位置修正を組み合わせて2次元の位置修正を行う場合の動作について説明する。例えば、y方向についての位置修正を行い、それを終了した後にx方向についての位置修正を行うものとする。   An operation in the case where two-dimensional position correction is performed by combining the position determination in the x and y directions and the position correction described above will be described. For example, it is assumed that the position correction in the y direction is performed, and the position correction in the x direction is performed after the correction.

y方向について図10又は図11の位置判定方法を用いるとすると、図2のステップ204での位置判定の結果が、図10のCase0又はCase1である場合、あるいは、図11のCase0、Case1又はCase2である場合、図2のステップ207で判定結果に対応した位置修正動作が行われる。   If the position determination method of FIG. 10 or FIG. 11 is used in the y direction, the result of the position determination in step 204 of FIG. 2 is Case 0 or Case 1 of FIG. 10, or Case 0, Case 1 or Case 2 of FIG. If so, a position correcting operation corresponding to the determination result is performed in step 207 of FIG.

ステップ204で、図10のCase2又は図11のCase3の判定結果が得られた場合、y方向についての位置修正を終了し、x方向についての位置判定に移行する。x方向について図8又は図9の位置判定方法を用いるとすると、判定結果が、図8のCase0又はCase1あるいは図9のCase0、Case1又はCase2である場合、図2のステップ207で判定結果に対応した位置修正動作が行われる。そして、ステップ204で図8のCase2又は図9のCase3の判定結果が得られたときに、位置修正を完了する(ステップ205,YES)。   If the determination result of Case 2 in FIG. 10 or Case 3 in FIG. 11 is obtained in step 204, the position correction in the y direction is terminated, and the process proceeds to position determination in the x direction. If the position determination method of FIG. 8 or FIG. 9 is used in the x direction, if the determination result is Case 0 or Case 1 of FIG. 8 or Case 0, Case 1 or Case 2 of FIG. 9, it corresponds to the determination result in step 207 of FIG. The position correction operation is performed. When the determination result of Case 2 in FIG. 8 or Case 3 in FIG. 9 is obtained in Step 204, the position correction is completed (Step 205, YES).

x,y,z方向の位置修正を組み合わせて3次元の位置修正を行うことが可能である。このような3次元の位置修正は、例えば図13に示すような処理フローにより実行することができる。もちろん、これと異なる処理フローとすることも可能である。   It is possible to perform three-dimensional position correction by combining position correction in the x, y, and z directions. Such three-dimensional position correction can be executed by a processing flow as shown in FIG. 13, for example. Of course, a different processing flow can be used.

図13において、ステップ210では、例えば図10の位置判定方法によりy方向についての位置判定と、その判定結果に応じたy方向の位置修正を、図10のCase2の判定結果を得られるまで、すなわち、位置判定用個眼画像に指側方の輪郭が両方とも撮像されるまで繰り返す。そして、図10のCase2の判定結果を得られた段階で、ステップ220に進む。   In FIG. 13, in step 210, for example, the position determination in the y direction by the position determination method in FIG. 10 and the position correction in the y direction according to the determination result are performed until the determination result of Case 2 in FIG. This is repeated until both the contours on the side of the finger are imaged in the single image for position determination. Then, when the determination result of Case 2 in FIG.

ステップ220では、図12の位置判定方法によるz方向についての位置判定と、その判定結果に応じたz方向位置修正を、図12のCase2の判定結果を得られるまで、すなわち、(y2-y1)が所定範囲にはいるまで繰り返す。そして、図12のCase2の判定結果を得られた段階で、z方向の位置修正を終了したものとしステップ230に進む。   In step 220, the position determination in the z direction by the position determination method of FIG. 12 and the z direction position correction according to the determination result are performed until the determination result of Case 2 of FIG. 12 is obtained, that is, (y2-y1) Repeat until is within the predetermined range. Then, at the stage where the determination result of Case 2 in FIG. 12 is obtained, it is assumed that the position correction in the z direction has been completed, and the process proceeds to step 230.

ステップ230では、例えば図11の位置判定方法によるy方向についての位置判定と、その判定結果に応じたy方向位置修正を、図11のCase3の判定結果を得られるまで、すなわちy1、y2が所定範囲にはいるまで繰り返す。そして、図11のCase3の判定結果を得られた段階で、y方向の位置修正を終了したものとし、ステップ240に進む。   In step 230, for example, the position determination in the y direction by the position determination method of FIG. 11 and the y direction position correction according to the determination result are performed until the determination result of Case 3 of FIG. 11 is obtained, that is, y1 and y2 are predetermined. Repeat until in range. Then, when the determination result of Case 3 in FIG. 11 is obtained, it is assumed that the position correction in the y direction has been completed, and the process proceeds to step 240.

ステップ240では、例えば図9の位置判定方法によるx方向についての位置判定と、その判定結果に応じたx方向の位置修正を、図9のCase3の判定結果が得られるまで、すなわち、x1が所定の範囲に入るまだ繰り返す。そして、図9のCase3の判定結果を得られると位置修正を完了する(図2のステップ205の判定はYESとなる)。   In step 240, for example, position determination in the x direction by the position determination method in FIG. 9 and position correction in the x direction according to the determination result are performed until the determination result of Case 3 in FIG. 9 is obtained, that is, x1 is predetermined. Repeat yet still in the range. When the determination result of Case 3 in FIG. 9 is obtained, the position correction is completed (the determination in step 205 in FIG. 2 is YES).

以上に説明したx方向、y方向、xy方向、xyz方向の位置修正のいずれを実行する態様も本実施形態に包含されることは当然である。   Naturally, any of the above-described embodiments for correcting the position in the x direction, the y direction, the xy direction, and the xyz direction is included in the present embodiment.

なお、上述の指の輪郭に基づく被写体位置判定と認証処理とに別々の個眼画像を利用する理由もしくは利点は次の通りである。認証処理を高精度に行うために必要な静脈パターンの解像度を得るには、複眼撮像部と被写体である指を接近させる必要がある。被写体を接近させると、1つの個眼画像に撮像される被写体領域は限られるため、1つの個眼画像に、指先と認証に好適な静脈パターン部位とを同時に撮像することは困難である。そこで、認証処理に用いる個眼画像とは別の個眼画像で指先の輪郭を撮像し、被写体位置判定に利用するのであり、このようにすることにより、位置判定に好適な指先と認証に好適な静脈パターン部位をそれぞれ同時に撮像することが可能になる。   The reason or advantage of using separate single-eye images for subject position determination based on the above-described finger contour and authentication processing is as follows. In order to obtain the resolution of the vein pattern necessary for performing the authentication process with high accuracy, it is necessary to bring the compound eye imaging unit close to the finger as the subject. When the subject is brought close, the subject area captured in one single-eye image is limited, and it is difficult to simultaneously capture the fingertip and the vein pattern portion suitable for authentication in one single-eye image. Therefore, the contour of the fingertip is captured with a single-eye image different from the single-eye image used for the authentication process, and is used for subject position determination. In this way, the fingertip suitable for position determination and suitable for authentication are used. It is possible to simultaneously image various vein pattern portions.

図14の(a)乃至(c)は位置修正案内手段105の態様を説明するための模式図であり、図14の(d)は位置修正移動手段106の態様を説明するための模式図である。   14A to 14C are schematic diagrams for explaining the mode of the position correction guide means 105, and FIG. 14D is a schematic diagram for explaining the mode of the position correction moving means 106. is there.

図14(a)において、30は少なくとも複眼撮像部101を含む本体ユニットであり、この本体ユニット30と別体又は一体に、位置修正案内手段105としての案内ユニット31が設けられる。この案内ユニット31は、被写体としての指がかざされる側の面に、x方向とy方向の矢印マーク32が設けられ、それら矢印マークに対応して1つ又は複数のLED等の光源(不図示)とその駆動回路等を備える構成である。位置修正部103は、指を移動させたい方向及び向きの矢印に対応した光源を点灯させ、該矢印を光らせることによって、ユーザに対し位置修正のための指の移動を案内する。つまり、この例では、ユーザに対し視覚を通じて案内を行う。なお、z方向の位置修正のための同様の矢印マーク等を設け、それを光らせることによりz方向の位置修正の案内を行わせることも可能であるが、x,y方向の矢印マークを全部同時に光らせる方法や、あるいは、x,y方向の矢印マーク毎に複数色の光源を備え、点灯させる光源の色を切り替える方法によって、z方向の位置修正の案内を行わせることも可能である。   In FIG. 14A, reference numeral 30 denotes a main unit including at least the compound-eye imaging unit 101, and a guide unit 31 serving as a position correction guide unit 105 is provided separately or integrally with the main unit 30. This guide unit 31 is provided with arrow marks 32 in the x and y directions on the surface on which a finger as a subject is held, and a light source (not shown) such as one or a plurality of LEDs corresponding to the arrow marks. ) And its drive circuit. The position correction unit 103 turns on the light source corresponding to the arrow in the direction and direction in which the finger is to be moved, and guides the user to move the finger for position correction by lighting the arrow. That is, in this example, guidance is provided to the user through vision. It is also possible to provide the same arrow mark for position correction in the z direction, etc., and illuminate it to guide the position correction in the z direction, but all the arrow marks in the x and y directions are simultaneously displayed. It is also possible to guide the position correction in the z direction by a method of illuminating or a method of providing a plurality of color light sources for each arrow mark in the x and y directions and switching the color of the light source to be lit.

図14(b)において、少なくとも複眼撮像部101を含む本体ユニット30と別体又は一体に、位置修正案内手段105としての案内ユニット33が設けられる。この案内ユニット33は、スピーカ34とその駆動回路(不図示)を備える。位置修正案内部103は、スピーカ32より位置修正のための案内音声を発生させ、ユーザに対し指の位置修正を行わせる。つまり、この例では、ユーザに対し聴覚を通じて案内を行う。   In FIG. 14B, a guide unit 33 as the position correction guide means 105 is provided separately or integrally with the main body unit 30 including at least the compound eye imaging unit 101. The guide unit 33 includes a speaker 34 and a driving circuit (not shown). The position correction guide unit 103 generates a guidance voice for position correction from the speaker 32 and causes the user to correct the position of the finger. That is, in this example, guidance is given to the user through hearing.

なお、図14(a)のような視覚を通じた案内方法と、図14(b)のような聴覚を通じた案内方法とを組み合わせた位置修正案内手段も容易に実現できる。このような位置修正案内手段を利用すると、視覚又は聴覚に障害がある人に対しても確実に位置修正案内を行うことができる。   It should be noted that a position correction guide means that combines the visual guidance method as shown in FIG. 14A and the auditory guidance method as shown in FIG. 14B can be easily realized. By using such position correction guidance means, it is possible to reliably perform position correction guidance even for persons with visual or auditory impairments.

図14(c)において、少なくとも複眼撮像部101を含む本体ユニット30とは独立した液晶ディスプレイ等の表示装置35が位置修正案内手段105として利用される。位置修正部103は、表示装置35の画面に、例えば図14(a)の案内ユニット31と同様の矢印等のマーク、さらには文字等を表示させることによって、位置修正の案内を行わせる。表示装置35にスピーカを備える場合には、音声による案内を併用する形態をとることも可能である。   In FIG. 14C, a display device 35 such as a liquid crystal display independent of the main unit 30 including at least the compound-eye imaging unit 101 is used as the position correction guide unit 105. The position correction unit 103 guides the position correction by displaying, for example, a mark such as an arrow similar to the guide unit 31 of FIG. In the case where the display device 35 is provided with a speaker, it is also possible to take a form using voice guidance together.

図14(d)において、36は位置修正移動手段106としての移動機構であり、複眼撮像部101を含む本体ユニット30をxy方向又はxyz方向に移動させることにより位置修正を行う。このような移動機構36は、周知のリニアアクチュエータ等の駆動手段を用い容易に実現可能である。   In FIG. 14D, reference numeral 36 denotes a moving mechanism as the position correction moving means 106, which corrects the position by moving the main body unit 30 including the compound eye imaging unit 101 in the xy direction or the xyz direction. Such a moving mechanism 36 can be easily realized by using a driving means such as a known linear actuator.

[実施形態2]
本発明の実施形態2について説明する。本実施形態に係る個人認証装置は、前記実施形態1に係る個人認証装置と同様の図1に示すブロック構成である。
[Embodiment 2]
A second embodiment of the present invention will be described. The personal authentication device according to the present embodiment has the same block configuration as shown in FIG. 1 as the personal authentication device according to the first embodiment.

複眼撮像部101は、基本的に前記実施形態1のものと同様の図3に示すような構成であるが、レンズアレイ11には、より多数個のレンズが二次元アレイ配列されており、撮像される複眼画像には、被写体位置判定用に設定された少なくとも2個の個眼画像と、これら各個眼画像に対応した、認証用に設定された少なくとも2個の個眼画像が含まれる。   The compound-eye imaging unit 101 is basically configured as shown in FIG. 3 similar to that of the first embodiment. However, the lens array 11 has a larger number of lenses arranged in a two-dimensional array, and imaging is performed. The compound eye image includes at least two single-eye images set for subject position determination and at least two single-eye images set for authentication corresponding to these single-eye images.

ここでは説明を簡単にするため、複眼撮像部101のレンズアレイ11には4個のレンズが2×2アレイ配列されており、図15に示すように4個のレンズに対応した4個の個眼画像21,22,23,24の集合である複眼画像が撮像されるものとする。個眼画像22,24は被写体位置判定用に設定されたものであり、個眼像画像21,23は認証用に設定されたものであり、それぞれ個眼画像22,24と対応付けられている。すなわち、この例では、入力される複眼画像に、位置判定用に設定された個眼画像と認証用に設定された個眼画像の組み合わせが2組ある。   Here, for simplicity of explanation, the lens array 11 of the compound-eye imaging unit 101 has a 4 × 2 array of four lenses, and four lenses corresponding to the four lenses as shown in FIG. It is assumed that a compound eye image that is a set of eye images 21, 22, 23, and 24 is captured. The single-eye images 22 and 24 are set for subject position determination, and the single-eye image images 21 and 23 are set for authentication, and are associated with the single-eye images 22 and 24, respectively. . That is, in this example, there are two combinations of the single eye image set for position determination and the single eye image set for authentication in the input compound eye image.

なお、図15には、被写体である指が個眼画像21,22に対応したレンズの直上に位置しており、個眼画像21に認証に適した静脈パターンが撮像されている状態が模式的に示されている。このことから明らかなように、個眼画像21,22に対応したレンズは図4における個眼画像21,22に対応したレンズと同様の位置関係にあり、また、個眼画像23,24に対応したレンズも同様の位置関係にある。   FIG. 15 schematically shows a state in which a finger as a subject is positioned immediately above a lens corresponding to the single-eye images 21 and 22 and a vein pattern suitable for authentication is captured in the single-eye image 21. Is shown in As is clear from this, the lenses corresponding to the single-eye images 21 and 22 are in the same positional relationship as the lenses corresponding to the single-eye images 21 and 22 in FIG. These lenses have the same positional relationship.

図16に、本実施形態に係る個人認証装置の全体処理フローを示す。図16中の処理ステップと図2中の処理ステップとの対応は次の通りである。ステップ301はステップ201と、ステップ302はステップ202と、ステップ303はステップ303と、ステップ305はステップ204と、ステップ306はステップ205と、ステップ307はステップ206と、ステップ308はステップ207と、それぞれ対応した処理ステップである。なお、ステップ302では、入力された複眼画像中の”複数の”位置判定用に設定された個眼画像を抽出する点がステップ202と相違する。また、ステップ303では、それらの”複数の”個眼画像に対し輪郭抽出を行う点がステップ203と相違する。   FIG. 16 shows an overall processing flow of the personal authentication device according to the present embodiment. The correspondence between the processing steps in FIG. 16 and the processing steps in FIG. 2 is as follows. Step 301 is Step 201, Step 302 is Step 202, Step 303 is Step 303, Step 305 is Step 204, Step 306 is Step 205, Step 307 is Step 206, Step 308 is Step 207, respectively. Corresponding processing step. Note that step 302 is different from step 202 in that a single eye image set for “plurality” position determination is extracted from the input compound eye image. Further, step 303 is different from step 203 in that contour extraction is performed on these “plurality” of single-eye images.

ステップ304は、複数の(ここでは2個の)位置判定用に設定された個眼画像と認証用に設定された個眼画像の2組の組み合わせの中から、1組の個眼画像をステップ305の位置判定及びステップ307での認証処理に用いるための個眼画像として決定する処理ステップであり、本実施形態で追加されたものである。この処理ステップの処理フローの一例を図17に示す。   Step 304 is for stepping a set of single-eye images from a combination of two (two in this case) single-eye images set for position determination and single-eye images set for authentication. This is a processing step for determining as a single eye image for use in the position determination of 305 and the authentication processing in step 307, and is added in the present embodiment. An example of the processing flow of this processing step is shown in FIG.

図17のステップ310では、位置判定用に設定された個眼画像22,24それぞれについて、x方向及びy方向についての位置判定を行う。ここでは、x方向について図9の判定方法を用い、y方向について図11の判定方法を用いるものとする。図15に示すような位置関係で撮像された場合ならば、一方の個眼画像22の判定結果は図9のCase3,図11のCase3となる(x,y方向ともに位置修正は必要でない)。もう一方の個眼画像24の判定結果は図9のCase3、図11のCase1となる(x方向については位置修正は必要でないが、y方向については位置修正が必要)。   In step 310 of FIG. 17, the position determination in the x direction and the y direction is performed for each of the single-eye images 22 and 24 set for position determination. Here, the determination method of FIG. 9 is used for the x direction, and the determination method of FIG. 11 is used for the y direction. If the images are captured in the positional relationship as shown in FIG. 15, the determination result of one single-eye image 22 is Case 3 in FIG. 9 and Case 3 in FIG. 11 (position correction is not required in both the x and y directions). The determination result of the other single-eye image 24 is Case 3 in FIG. 9 and Case 1 in FIG. 11 (position correction is not necessary for the x direction, but position correction is necessary for the y direction).

次のステップ311では、位置判定用により設定された個眼画像と認証用に設定された個眼画像の組み合わせの各組について、その優劣を判断するため、前ステップでの個眼画像22,24に対する位置判定結果を評価する。この評価の方法として例えば、個眼画像22,24のx,y方向についての位置判定結果のCase番号の合計を評価値として算出し、この評価値が大きいほど高く評価する方法を用いることができる。ただし、この方法のみに限定されないことは云うまでもない。   In the next step 311, in order to determine the superiority or inferiority of each combination of the single-eye image set for position determination and the single-eye image set for authentication, the single-eye images 22 and 24 in the previous step are determined. The position determination result for is evaluated. As this evaluation method, for example, a method of calculating the sum of the case numbers of the position determination results in the x and y directions of the single-eye images 22 and 24 as an evaluation value and evaluating higher as the evaluation value is larger can be used. . However, it goes without saying that the method is not limited to this.

ステップ312では、前ステップで算出された評価値が大きいほうの組の位置判定用に設定された個眼画像及び認証用に設定された個眼画像を、ステップ305での位置判定及びステップ307での認証処理に用いる個眼画像としてそれぞれ決定する。図15のような撮像条件の場合、個眼画像22が位置判定用の個眼画像として、また、個眼画像21が認証用の個眼画像として決定されることになる。また、個眼画像23,24に対応したレンズの真上に指がある場合には、個眼画像24が位置判定用の個眼画像として、また、個眼画像23が認証用の個眼画像として決定されることになる。   In step 312, the single-eye image set for position determination and the single-eye image set for authentication of the set having the larger evaluation value calculated in the previous step are converted into the position determination in step 305 and step 307. Are determined as individual images used in the authentication process. In the case of the imaging conditions as shown in FIG. 15, the single-eye image 22 is determined as a single-eye image for position determination, and the single-eye image 21 is determined as a single-eye image for authentication. When a finger is directly above the lens corresponding to the single-eye images 23 and 24, the single-eye image 24 is used as a single-eye image for position determination, and the single-eye image 23 is used as a single-eye image for authentication. Will be determined.

以上に説明したように、位置判定用に設定された個眼画像と認証用に設定された個眼画像の組み合わせが複数組あり、その中の1組の個眼画像を選択して位置判定と認証処理とにそれぞれ利用するため、認証処理に適した静脈パターンを撮像できる機会が多くなり、処理全体の高速化やユーザの負担軽減を図ることができる。   As described above, there are a plurality of combinations of single-eye images set for position determination and single-eye images set for authentication, and one set of single-eye images is selected to perform position determination. Since it is used for each authentication process, there are many opportunities to capture a vein pattern suitable for the authentication process, and the entire process can be speeded up and the burden on the user can be reduced.

なお、図17のステップ311で2つの位置判定用個眼画像について算出された評価値が同一値となった場合には、いずれか一方の組の位置判定用個眼画像と認証用個眼画像を選ぶようにすればよい。   When the evaluation values calculated for the two position determination single images in step 311 in FIG. 17 are the same value, either one of the pair of position determination single images and the authentication single image Should be selected.

[実施形態3]
本発明の実施形態3について説明する。図18は本実施形態に係る個人認証装置の機能構成を説明するためのブロック図であり、前記実施形態1に係る図1と対応した要素には同一の参照番号が付けられている。
[Embodiment 3]
Embodiment 3 of the present invention will be described. FIG. 18 is a block diagram for explaining a functional configuration of the personal authentication apparatus according to the present embodiment. Elements corresponding to those in FIG. 1 according to the first embodiment are denoted by the same reference numerals.

本実施形態において、複眼撮像部101では、図19に示すように、多数のレンズが2次元アレイ配列されたレンズアレイ11が用いられる。   In the present embodiment, the compound eye imaging unit 101 uses a lens array 11 in which a large number of lenses are arranged in a two-dimensional array as shown in FIG.

本実施形態で追加された再構成処理部108は、複眼画像中の複数の個眼画像から、個眼画像間の視差を利用し、より高精細な単一画像を再構成する処理を行う手段である。   The reconstruction processing unit 108 added in the present embodiment performs a process for reconstructing a single image with higher definition using a parallax between single-eye images from a plurality of single-eye images in a compound-eye image. It is.

より具体的に処理内容を説明すると、再構成処理部108においては、複眼画像中の個眼画像間の視差(画像シフト)を推定する。この視差推定には、例えば周知のパターンマッチングを利用することができる。すなわち、複眼画像から基準となる個眼画像を選び、この基準個眼画像の一部をテンプレートとして用い、このテンプレートを移動しつつ推定対象の個眼画像との間の類似度もしくは相違度を算出する。相違度としてはSSD(画素値の差の二乗和)やSAD(画素値の差の絶対値の和)を利用することができる。そして、算出した相違度が最小となるシフト量を視差として求めることができる。   The processing contents will be described more specifically. The reconstruction processing unit 108 estimates a parallax (image shift) between single-eye images in a compound-eye image. For this parallax estimation, for example, a well-known pattern matching can be used. That is, a single eye image as a reference is selected from a compound eye image, a part of the reference single eye image is used as a template, and the similarity or difference between the single eye image to be estimated is calculated while moving this template. To do. As the dissimilarity, SSD (sum of squares of pixel value differences) or SAD (sum of absolute values of pixel value differences) can be used. Then, the shift amount that minimizes the calculated difference can be obtained as the parallax.

再構成処理部108は、上記のような視差推定の後、再構成処理を行う。例えば、再構成画像のために仮想のデジタル画像領域をメモリ上に用意するこのデジタル画像領域において、再構成対象の個眼画像の各画素を、その個眼画像について推定された視差に基づいて決定した位置に再配置する。このような操作を繰り返すことにより、デジタル画像領域上に、もとの個眼画像より高精細な静脈パターンの単一画像を再構成することができる。   The reconstruction processing unit 108 performs reconstruction processing after the above-described parallax estimation. For example, in this digital image area where a virtual digital image area is prepared on the memory for the reconstructed image, each pixel of the single eye image to be reconstructed is determined based on the parallax estimated for the single eye image. Relocate to the specified position. By repeating such an operation, a single image having a finer vein pattern than the original single-eye image can be reconstructed on the digital image area.

本実施形態に係る個人認証装置の全体処理フローを図20に示す。図20中の処理ステップと図16中の処理ステップとの対応は次の通りである。ステップ401はステップ301と、ステップ402はステップ302と、ステップ403はステップ303と、ステップ404はステップ304と、ステップ405はステップ305と、ステップ406はステップ306と、ステップ408はステップ307と、ステップ409はステップ308と、それぞれ対応した処理ステップである。ステップ407は再構成処理部108による処理ステップであり、ステップ404で決定された複数の認証用の個眼画像から単一画像を再構成する処理を行う。   FIG. 20 shows an overall processing flow of the personal authentication apparatus according to the present embodiment. The correspondence between the processing steps in FIG. 20 and the processing steps in FIG. 16 is as follows. Step 401 is Step 301, Step 402 is Step 302, Step 403 is Step 303, Step 404 is Step 304, Step 405 is Step 305, Step 406 is Step 306, Step 408 is Step 307, Step Reference numeral 409 denotes a processing step corresponding to step 308. Step 407 is a processing step by the reconstruction processing unit 108, and performs processing for reconstructing a single image from the plurality of authentication single images determined in step 404.

本実施形態においては、複眼撮像部101により入力される複眼画像は、図21に模式的に示すような多数の個眼画像の集合からなる。図21において、左右がx方向、上下がy方向であるとする。被写体位置判定部102は、ステップ402において、斜線を施したy方向に並んだ個眼画像をそれぞれ位置判定用に設定された個眼画像として抽出し、ステップ403において、それら個眼画像について輪郭抽出処理を行い、ステップ404において、それら個眼画像の中から、例えば図17を参照して説明した方法により、1つの個眼画像を位置判定用個眼画像として決定し、当該位置判定用個眼画像と同じ組に含まれる認識用に設定された複数の個眼画像、すなわち、当該位置判定用個眼画像と同じx方向列上にある複数の認識用に設定された個眼画像を認識用個眼像として決定する。そして、ステップ405で、ステップ404で決定された位置判定用個眼画像を用いて位置判定を行う。また、再構成処理部407は、ステップ407において、ステップ404で決定された複数の認識用個眼画像から単一画像を再構成する。   In the present embodiment, the compound eye image input by the compound eye imaging unit 101 is composed of a set of a large number of individual images as schematically shown in FIG. In FIG. 21, it is assumed that the left and right are in the x direction and the top and bottom are in the y direction. In step 402, the subject position determination unit 102 extracts the single-eye images arranged in the y direction with diagonal lines as single-eye images set for position determination, and in step 403, contour extraction is performed on the single-eye images. In step 404, one single-eye image is determined as a position determination single-eye image from among the single-eye images, for example, by the method described with reference to FIG. For recognizing a plurality of single-eye images set for recognition included in the same set as the images, that is, a plurality of single-eye images set for recognition on the same x-direction column as the position determination single-eye images Determined as a single eye image. In step 405, position determination is performed using the position determination single-eye image determined in step 404. In step 407, the reconstruction processing unit 407 reconstructs a single image from the plurality of recognition single-eye images determined in step 404.

ステップ408においては、登録動作が選択されている場合には、登録処理部107が再構成処理部108による再構成画像を登録パターンとして記憶し、認証動作が選択されている場合には、認証処理部104が再構成処理部407による再構成画像と認証処理部107に記憶されている登録パターンとのパターンマッチング又は特徴ベースマッチングによる認証処理を行う。   In step 408, when the registration operation is selected, the registration processing unit 107 stores the reconstructed image obtained by the reconstruction processing unit 108 as a registration pattern. When the authentication operation is selected, the authentication processing is performed. The unit 104 performs authentication processing by pattern matching or feature-based matching between the reconstructed image by the reconstruction processing unit 407 and the registered pattern stored in the authentication processing unit 107.

なお、図1又は図18に示した被写体位置判定部102、位置修正部103、認証処理部104、登録処理部107は、専用のハードウェアとして実現することも可能であるが、その全て又は一部をマイクロプロセッサ、ROM、RAM等からなるマイクロコンピュータ等のコンピュータを用いソフトウェアにより実現してもよく、そのためのプログラムやそれが記録されたコンピュータ読み取り可能な記録媒体も本発明に包含される。   Note that the subject position determination unit 102, the position correction unit 103, the authentication processing unit 104, and the registration processing unit 107 shown in FIG. 1 or 18 can be realized as dedicated hardware, but all or one of them can be realized. The unit may be realized by software using a computer such as a microcomputer including a microprocessor, ROM, RAM, and the like, and a computer-readable recording medium on which the program is recorded are also included in the present invention.

換言すれば、図2,図16又は図20に示したような、複眼撮像部を用いて生体部位の複眼画像を入力するステップ、被写体位置判定部による処理ステップ、位置修正部による処理ステップ、認証処理部による処理ステップ、さらには再構成処理による処理ステップを、マイクロコンピュータ等のコンピュータに実行されるためのプログラムや、それが記録されたコンピュータ読み取り可能な記録媒体も本発明に包含される。   In other words, as shown in FIG. 2, FIG. 16, or FIG. 20, a step of inputting a compound eye image of a living body part using a compound eye imaging unit, a processing step by a subject position determination unit, a processing step by a position correction unit, authentication A program for causing a computer such as a microcomputer to execute a processing step by the processing unit and further a processing step by the reconfiguration processing, and a computer-readable recording medium on which the program is recorded are also included in the present invention.

図22は、以上に説明した本発明の個人認証装置を、パーソナルコンピュータなどの情報機器1100に、認証装置1000として接続したシステムの例を示している。このようなシステムにおいて、個人認証装置の例えば複眼撮像部101と位置修正部103のみをハードウェア又はソフトウェアとして認証装置1000に実装し、個人認証装置のそれ以外の要素すなわち被写体位置判定部102、再構成処理部108、認証処理部104及び登録処理部107を、情報機器1100にソフトウェアとして実装する形態をとることも可能である。   FIG. 22 shows an example of a system in which the above-described personal authentication device of the present invention is connected as an authentication device 1000 to an information device 1100 such as a personal computer. In such a system, for example, only the compound eye imaging unit 101 and the position correcting unit 103 of the personal authentication device are mounted on the authentication device 1000 as hardware or software, and other elements of the personal authentication device, that is, the subject position determination unit 102, The configuration processing unit 108, the authentication processing unit 104, and the registration processing unit 107 may be implemented as software in the information device 1100.

以上、本発明の実施形態について説明したが、本発明は、そのような実施形態のみに限定されるものではなく、様々な変更形態を包含するものである。   As mentioned above, although embodiment of this invention was described, this invention is not limited only to such embodiment, Various modifications are included.

101 複眼撮像部
102 被写体位置判定部
103 位置修正部
104 認証処理部
105 位置修正案内部
106 位置修正移動手段
107 登録処理部
108 再構成処理部
11 レンズアレイ
12 遮光部材
13 撮像素子
14 カバーガラス
DESCRIPTION OF SYMBOLS 101 Compound eye imaging part 102 Subject position determination part 103 Position correction part 104 Authentication process part 105 Position correction guide part 106 Position correction moving means 107 Registration process part 108 Reconstruction process part 11 Lens array 12 Light-shielding member 13 Imaging element 14 Cover glass

特開2007−219号公報JP 2007-219 A 特開2006−107401号公報JP 2006-107401 A

Claims (5)

略平面上に複数のレンズが配列されたレンズアレイと、該レンズアレイにかざされたユーザの生体部位を複数の個眼画像の集合である複眼画像として撮像する撮像素子とからなる複眼撮像手段と、
前記複眼撮像手段で撮像された複眼画像中の位置判定用に設定された個眼画像により、生体部位の輪郭を抽出する輪郭抽出処理を行い、該輪郭抽出処理の結果に基づいて、前記複眼撮像手段に対する相対的な生体部位の位置の修正の要否及び必要な位置の修正の方法を判定する位置判定を行う位置判定手段と、
前記位置判定手段により判定された必要な位置の修正の方法に応じて、ユーザへの案内を行うための手段により、ユーザに対し生体部位の位置修正のための移動を案内させ、又は、前記複眼撮像手段を移動するための手段により、生体部位の位置修正のための前記複眼撮像手段の移動を行わせる位置修正手段と、
前記位置判定手段により生体部位の位置の修正が不要と判定された場合に、前記複眼撮像手段で撮像された複眼画像中の認証用に設定された個眼画像により認証処理を行う認証処理手段と、
を有する個人認証装置であって、
前記位置判定用に設定された個眼画像と前記認証用に設定された個眼画像の組み合わせが複数組あり、
前記位置判定手段は、各組の位置判定用に設定された個眼画像の輪郭抽出処理の結果に基づいて1の組の位置判定用に設定された個眼画像を位置判定用個眼画像として決定し、当該位置判定用個眼画像の輪郭抽出処理の結果に基づいて位置判定を行い、
前記認証処理手段は、前記位置判定手段により決定された位置判定用個眼画像と同じ組の認証用に設定された個眼画像を利用して認証処理を行うことを特徴とする個人認証装置。
Compound eye imaging means comprising: a lens array in which a plurality of lenses are arranged on a substantially plane; and an imaging element that images a user's living body part held over the lens array as a compound eye image that is a set of a plurality of single-eye images. ,
Contour extraction processing for extracting a contour of a living body part is performed using a single- eye image set for position determination in a compound eye image captured by the compound eye imaging means, and the compound eye imaging is performed based on a result of the contour extraction processing. Position determining means for performing position determination for determining whether or not the position of the biological part relative to the means needs to be corrected and a method for correcting the necessary position;
According to the method for correcting the necessary position determined by the position determination means, the means for guiding the user is guided to the user for movement for correcting the position of the living body part, or the compound eye Position correcting means for moving the compound eye imaging means for correcting the position of the living body part by means for moving the imaging means;
An authentication processing unit that performs an authentication process using a single-eye image set for authentication in a compound eye image captured by the compound eye imaging unit when it is determined by the position determining unit that correction of the position of the living body part is unnecessary ; ,
A personal authentication device having
There are a plurality of combinations of single-eye images set for the position determination and single-eye images set for the authentication,
The position determination means uses, as a position determination single-eye image, a single eye image set for position determination based on a result of contour extraction processing of a single-eye image set for position determination for each pair. Determine the position based on the result of the contour extraction processing of the position determination single-eye image,
The personal authentication apparatus, wherein the authentication processing means performs an authentication process using a single eye image set for authentication in the same set as the single eye image for position determination determined by the position determination means.
各組で、認証用に設定された個眼画像は複数存在し、In each set, there are multiple single images set for authentication,
前記位置判定手段により決定された位置判定用個眼画像と同じ組の認証用に設定された複数の個眼画像から、個眼画像間視差を利用して、より高解像度の単一画像を再構成する再構成処理手段をさらに有し、From a plurality of single-eye images set for authentication in the same set as the single-eye images for position determination determined by the position determination means, a single image having a higher resolution is reproduced using parallax between single-eye images. Further comprising reconfiguration processing means to configure,
前記認証処理手段は、前記再構成処理手段による再構成画像を利用して認識処理を行うことを特徴とする請求項1に記載の個人認証装置。The personal authentication apparatus according to claim 1, wherein the authentication processing unit performs a recognition process using a reconstructed image obtained by the reconstruction processing unit.
略平面上に複数のレンズが配列されたレンズアレイと、該レンズアレイにかざされたユーザの生体部位を複数の個眼画像の集合である複眼画像として撮像する撮像素子とからなる複眼撮像手段から、生体部位の複眼画像を入力する入力ステップと、From a compound eye imaging means comprising a lens array in which a plurality of lenses are arranged on a substantially plane, and an imaging element that images a user's living body held over the lens array as a compound eye image that is a set of a plurality of single-eye images An input step for inputting a compound eye image of a living body part;
前記入力ステップにより入力された複眼画像中の位置判定用に設定された個眼画像により、生体部位の輪郭を抽出する輪郭抽出処理を行い、該輪郭抽出処理の結果に基づいて、前記複眼撮像手段に対する相対的な生体部位の位置の修正の要否及び必要な位置の修正の方法を判定する位置判定を行う位置判定ステップと、Based on the single-eye image set for position determination in the compound eye image input in the input step, contour extraction processing for extracting the contour of the living body part is performed, and the compound eye imaging means is performed based on the result of the contour extraction processing. A position determination step for performing position determination for determining whether or not the position of the relative position of the living body part needs to be corrected and a method for correcting the necessary position;
前記位置判定ステップにより判定された必要な位置の修正の方法に応じて、ユーザへの案内を行うための手段により、ユーザに対し生体部位の位置修正のための移動を案内させ、又は、前記複眼撮像手段を移動するための手段により、生体部位の位置修正のための前記複眼撮像手段の移動を行わせる位置修正ステップと、According to the method for correcting the necessary position determined by the position determining step, the user guides the movement for correcting the position of the living body part by means for guiding the user, or the compound eye A position correcting step for moving the compound eye imaging means for correcting the position of the living body part by means for moving the imaging means;
前記位置判定ステップにより生体部位の位置の修正が不要と判定された場合に、前記入力ステップにより入力された複眼画像中の認証用に設定された個眼画像により認証処理を行う認証処理ステップと、An authentication process step of performing an authentication process with a single-eye image set for authentication in the compound eye image input by the input step when it is determined that the correction of the position of the living body part is unnecessary by the position determination step;
をコンピュータに実行させるプログラムであって、A program for causing a computer to execute
前記位置判定用に設定された個眼画像と前記認証用に設定された個眼画像の組み合わせが複数組あり、There are a plurality of combinations of single-eye images set for the position determination and single-eye images set for the authentication,
前記位置判定ステップは、各組の位置判定用に設定された個眼画像の輪郭抽出処理の結果に基づいて1の組の位置判定用に設定された個眼画像を位置判定用個眼画像として決定し、当該位置判定用個眼画像の輪郭抽出処理の結果に基づいて位置判定を行い、In the position determination step, a single-eye image set for position determination of one set based on a result of contour extraction processing of the single-eye image set for position determination of each set is used as a single image for position determination. Determine the position based on the result of the contour extraction processing of the position determination single-eye image,
前記認証処理ステップは、前記位置判定ステップにより決定された位置判定用個眼画像と同じ組の認証用に設定された個眼画像を利用して認証処理を行うことを特徴とするプログラム。The authentication processing step performs authentication processing using a single eye image set for authentication in the same set as the single eye image for position determination determined in the position determination step.
各組で、認証用に設定された個眼画像は複数存在し、In each set, there are multiple single images set for authentication,
前記位置判定ステップにより決定された位置判定用個眼画像と同じ組の認証用に設定された複数の個眼画像から、個眼画像間視差を利用して、より高解像度の単一画像を再構成する再構成処理ステップをさらに有し、From a plurality of single-eye images set for authentication in the same set as the single-eye images for position determination determined in the position determination step, a single image having a higher resolution is reproduced using parallax between single-eye images. Further comprising a reconfiguration processing step to configure,
前記認証処理ステップは、前記再構成処理手段による再構成画像を利用して認識処理を行うことを特徴とする請求項3に記載のプログラム。The program according to claim 3, wherein the authentication processing step performs recognition processing using a reconstructed image by the reconstruction processing means.
請求項3又は4に記載のプログラムが記録された、コンピュータが読み取り可能な記録媒体。A computer-readable recording medium on which the program according to claim 3 or 4 is recorded.
JP2009136829A 2009-06-08 2009-06-08 Personal authentication device, program and recording medium Expired - Fee Related JP5299632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136829A JP5299632B2 (en) 2009-06-08 2009-06-08 Personal authentication device, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136829A JP5299632B2 (en) 2009-06-08 2009-06-08 Personal authentication device, program and recording medium

Publications (2)

Publication Number Publication Date
JP2010282523A JP2010282523A (en) 2010-12-16
JP5299632B2 true JP5299632B2 (en) 2013-09-25

Family

ID=43539175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136829A Expired - Fee Related JP5299632B2 (en) 2009-06-08 2009-06-08 Personal authentication device, program and recording medium

Country Status (1)

Country Link
JP (1) JP5299632B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104182727B (en) 2014-05-16 2021-07-30 深圳印象认知技术有限公司 Ultra-thin fingerprint and palm print acquisition device and fingerprint and palm print image acquisition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1121668B1 (en) * 1998-10-14 2002-10-23 Siemens Aktiengesellschaft Device and method for identifying a person by biometric characteristics
JP4953292B2 (en) * 2006-10-12 2012-06-13 株式会社リコー Image input device, personal authentication device, and electronic device
JP4845203B2 (en) * 2006-11-24 2011-12-28 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 Biometric authentication apparatus and deviation detection method

Also Published As

Publication number Publication date
JP2010282523A (en) 2010-12-16

Similar Documents

Publication Publication Date Title
JP5293950B2 (en) Personal authentication device and electronic device
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
WO2017082100A1 (en) Authentication device and authentication method employing biometric information
JP7452571B2 (en) Biometric authentication device, biometric authentication method and biometric authentication program
KR102538405B1 (en) Biometric authentication system, biometric authentication method and program
EP2921991B1 (en) Image correction apparatus and image correction method
CN109766876B (en) Non-contact fingerprint acquisition device and method
KR101711781B1 (en) Recording medium having image processing program stored thereon, image processing method and information terminal
US20180025207A1 (en) Iris recognition via plenoptic imaging
KR20160117207A (en) Image analyzing apparatus and image analyzing method
WO2014064870A1 (en) Image processing device and image processing method
KR101642402B1 (en) Apparatus and method for capturing digital image for guiding photo composition
JP2010182048A (en) Vein authentication apparatus and template registration method
EP4095744A1 (en) Automatic iris capturing method and apparatus, computer-readable storage medium, and computer device
JP5163281B2 (en) Vein authentication device and vein authentication method
JP4631973B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP2019133287A (en) Biometric authentication device, biometric authentication program and biometric authentication method
JP2022021537A (en) Biometric authentication device and biometric authentication method
JP6452236B2 (en) Eyeball identification device and eyeball identification method
JP5796523B2 (en) Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition control program
JP5299632B2 (en) Personal authentication device, program and recording medium
JP2011002292A (en) Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program
KR20180100890A (en) Method and apparatus for remote multi biometric
JP5353484B2 (en) Biological pattern imaging device
EP3671538A1 (en) Biometric authentication apparatus and biometric authentication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130802

LAPS Cancellation because of no payment of annual fees