JP6840652B2 - Image processing equipment, image processing method and image processing program - Google Patents

Image processing equipment, image processing method and image processing program Download PDF

Info

Publication number
JP6840652B2
JP6840652B2 JP2017220380A JP2017220380A JP6840652B2 JP 6840652 B2 JP6840652 B2 JP 6840652B2 JP 2017220380 A JP2017220380 A JP 2017220380A JP 2017220380 A JP2017220380 A JP 2017220380A JP 6840652 B2 JP6840652 B2 JP 6840652B2
Authority
JP
Japan
Prior art keywords
palm
image
unit
living body
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017220380A
Other languages
Japanese (ja)
Other versions
JP2019091311A (en
Inventor
眞紀 矢吹
眞紀 矢吹
淳一郎 戸谷
淳一郎 戸谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2017220380A priority Critical patent/JP6840652B2/en
Publication of JP2019091311A publication Critical patent/JP2019091311A/en
Application granted granted Critical
Publication of JP6840652B2 publication Critical patent/JP6840652B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

例えば、生体認証装置において、生体の手のひらの撮像画像を取得する際、生体認証装置に対する手のひらの高さを計測する技術がある(例えば特許文献1参照)。また、生体認証装置において、生体認証装置に対する手のひらの高さを判定し、高さが所定以内である場合に、手のひらの撮像画像を取得する技術がある(例えば特許文献2参照)。 For example, in a biometric authentication device, there is a technique for measuring the height of the palm with respect to the biometric authentication device when acquiring an image of the palm of a living body (see, for example, Patent Document 1). Further, in the biometric authentication device, there is a technique of determining the height of the palm with respect to the biometric authentication device and acquiring an image of the palm when the height is within a predetermined range (see, for example, Patent Document 2).

特開2015−170322号公報Japanese Unexamined Patent Publication No. 2015-170322 特開2015−026201号公報Japanese Unexamined Patent Publication No. 2015-026201

上述の従来技術では、生体認証装置によって、手のひら全体が撮像されることを前提としている。そして、生体認証装置は、撮像画像に含まれる手の両端、指、手首などを手がかりに手のひらの外郭を特定することで、撮像画像において、背景から手のひら全体の画像を切り出す処理を行う。生体認証装置は、このようにして撮像画像から切り出された手のひら全体の画像をもとに、後段の各種処理を行う。 In the above-mentioned prior art, it is premised that the entire palm is imaged by the biometric authentication device. Then, the biometric authentication device identifies the outer shape of the palm by using both ends of the hand, fingers, wrists, etc. included in the captured image as clues, and performs a process of cutting out an image of the entire palm from the background in the captured image. The biometric authentication device performs various processing in the subsequent stage based on the image of the entire palm cut out from the captured image in this way.

ここで、近年、生体認証装置に用いられる撮像素子の小型化が進み、生体認証装置のサイズが小さくなってきている。撮像対象が手のひらである場合、手のひらは、生体認証装置に対して一定以上の距離から撮影されることで、手のひら全体が撮像されることになる。生体認証装置に用いられる撮像素子のサイズがある程度の大きさであれば、生体認証装置に対する手のひらの距離が近距離であったとしても、手のひら全体が撮像される。 Here, in recent years, the size of the image pickup device used in the biometric authentication device has been miniaturized, and the size of the biometric authentication device has been reduced. When the imaging target is the palm, the entire palm is imaged by photographing the palm from a certain distance or more with respect to the biometric authentication device. If the size of the image sensor used in the biometric authentication device is a certain size, the entire palm is imaged even if the distance of the palm to the biometric authentication device is short.

しかし、生体認証装置に用いられる撮像素子のサイズが小さいと、生体認証装置に対する手のひらの距離が近距離である場合、手のひらが部分的に撮像されることになる。すなわち、従来技術では、近距離で撮像された手のひらの撮像画像、例えば手のひらの左右両端、指、手首のいずれか、または、これらの全てが含まれない撮像画像からは、手のひら全体ではなく手のひらの部分しか取り出せないため、手のひらの方向を算出する際の精度が低下するという問題がある。手のひらの方向を算出する際の精度が低下すると、後段の各種処理で不都合が生じる。 However, if the size of the image sensor used in the biometric authentication device is small, the palm is partially imaged when the distance of the palm to the biometric authentication device is short. That is, in the prior art, the captured image of the palm captured at a short distance, for example, the left and right ends of the palm, the fingers, the wrist, or an image that does not include all of these, is not the entire palm but the palm. Since only a part can be taken out, there is a problem that the accuracy when calculating the direction of the palm is lowered. If the accuracy of calculating the direction of the palm is reduced, inconvenience will occur in various processes in the subsequent stage.

本願の開示技術は、上記に鑑みてなされたものであって、例えば、生体部分の撮像画像から生体部分の方向を算出する際の精度低下を抑制する画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The disclosed technology of the present application has been made in view of the above, and is, for example, an image processing device, an image processing method, and an image processing program that suppresses a decrease in accuracy when calculating the direction of a living body part from an captured image of the living body part. The purpose is to provide.

開示技術の一例では、画像処理装置は、判定部、推定部、角度算出画像作成部、角度算出部を備える。判定部は、生体部分の全体または一部が含まれて撮像された撮像画像から、生体部分の全体または一部のいずれであるかを判定する。推定部は、判定部により撮像画像に生体部分の一部が含まれると判定された場合に、生体部分の一部が、生体部分の全体のうちのいずれの部分であるかを推定する。角度算出画像作成部は、推定部により生体部分の一部が生体部分の全体のうちのいずれの部分であるかが推定された撮像画像から、生体部分の角度を特徴付ける情報を強調した角度算出画像を作成する。角度算出部は、角度算出画像作成部により作成された角度算出画像における角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する生体部分の角度を算出する。 In one example of the disclosed technology, the image processing apparatus includes a determination unit, an estimation unit, an angle calculation image creation unit, and an angle calculation unit. The determination unit determines whether it is the whole or a part of the living body part from the captured image captured including the whole or a part of the living body part. When the determination unit determines that the captured image includes a part of the living body part, the estimation unit estimates which part of the whole living body part is the part of the living body part. The angle calculation image creation unit is an angle calculation image that emphasizes information that characterizes the angle of the living body part from the captured image in which a part of the living body part is estimated by the estimation part as which part of the whole living body part is. To create. The angle calculation unit generates a vector from the information that characterizes the angle in the angle calculation image created by the angle calculation image creation unit, and calculates the angle of the living body portion with respect to a predetermined reference direction based on the generated vector.

開示技術の一例によれば、生体部分の撮像画像から生体部分の方向を算出する際の精度低下を抑制する。 According to an example of the disclosed technique, it is possible to suppress a decrease in accuracy when calculating the direction of the living body part from the captured image of the living body part.

図1は、実施例1にかかる生体認証装置の外観の一例を示す斜視図である。FIG. 1 is a perspective view showing an example of the appearance of the biometric authentication device according to the first embodiment. 図2は、実施例1にかかる生体認証装置の一例を示すI−I断面図である。FIG. 2 is a cross-sectional view taken along the line II showing an example of the biometric authentication device according to the first embodiment. 図3は、実施例1にかかる生体認証装置が有する基板の一例を示す平面図である。FIG. 3 is a plan view showing an example of a substrate included in the biometric authentication device according to the first embodiment. 図4は、実施例1にかかる生体認証装置の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an example of the biometric authentication device according to the first embodiment. 図5は、実施例1にかかる生体認証装置の正規化部の詳細の一例を示す機能ブロック図である。FIG. 5 is a functional block diagram showing a detailed example of the normalization unit of the biometric authentication device according to the first embodiment. 図6は、実施例1にかかる正規化処理の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the normalization process according to the first embodiment. 図7は、従来技術における角度算出処理の成功例を示す図である。FIG. 7 is a diagram showing a successful example of the angle calculation process in the prior art. 図8は、従来技術において誤った角度が算出される例を示す図である。FIG. 8 is a diagram showing an example in which an erroneous angle is calculated in the prior art. 図9は、従来技術において角度算出が失敗する例を示す図である。FIG. 9 is a diagram showing an example in which the angle calculation fails in the prior art. 図10は、左右手判定結果の一例を示す図である。FIG. 10 is a diagram showing an example of the left / right hand determination result. 図11は、実施例1における手のひら部分の推定結果の一例を示す図である。FIG. 11 is a diagram showing an example of the estimation result of the palm portion in the first embodiment. 図12は、実施例1における手のひら部分の推定結果の一例を示す図である。FIG. 12 is a diagram showing an example of the estimation result of the palm portion in the first embodiment. 図13Aは、実施例1において手のひらが左右いずれの手であるか指定された場合の手のひら部分の複数の推定結果の一例を示す図である。FIG. 13A is a diagram showing an example of a plurality of estimation results of the palm portion when it is specified whether the palm is the left or right hand in the first embodiment. 図13Bは、実施例1において手のひらが左右いずれの手であるか指定された場合の手のひら部分の複数の推定結果の一例を示す図である。FIG. 13B is a diagram showing an example of a plurality of estimation results of the palm portion when it is specified whether the palm is the left or right hand in the first embodiment. 図13Cは、実施例1において手のひらが左右いずれの手であるか指定された場合の手のひら部分の複数の推定結果の一例を示す図である。FIG. 13C is a diagram showing an example of a plurality of estimation results of the palm portion when it is specified whether the palm is the left or right hand in the first embodiment. 図14は、実施例1における手のひら部分の撮像画像に対し、ノイズ除去後、必要情報を強調した角度算出画像の一例を示す図である。FIG. 14 is a diagram showing an example of an angle calculation image in which necessary information is emphasized after noise removal with respect to the captured image of the palm portion in the first embodiment. 図15は、実施例1における手のひら部分の角度算出画像のエリア分割の一例を示す図である。FIG. 15 is a diagram showing an example of area division of the angle calculation image of the palm portion in the first embodiment. 図16は、実施例1における手のひら部分をエリア分割した角度算出画像に対し、必要情報に基づいて、分割エリア毎の方向性を算出した方向性算出結果の一例を示す図である。FIG. 16 is a diagram showing an example of a directionality calculation result in which the directionality of each divided area is calculated based on necessary information with respect to the angle calculation image obtained by dividing the palm portion into an area in the first embodiment. 図17は、実施例1における手のひらモデルの一例を示す図である。FIG. 17 is a diagram showing an example of a palm model in the first embodiment. 図18は、実施例1における複数の手のひら部分候補の推定結果の一例を示す図である。FIG. 18 is a diagram showing an example of estimation results of a plurality of palm partial candidates in the first embodiment. 図19は、実施例1における角度算出処理の成功例を示す図である。FIG. 19 is a diagram showing a successful example of the angle calculation process in the first embodiment. 図20は、実施例2にかかる生体認証装置の正規化部の詳細の一例を示す機能ブロック図である。FIG. 20 is a functional block diagram showing a detailed example of the normalization unit of the biometric authentication device according to the second embodiment. 図21は、実施例2にかかる正規化処理の一例を示すフローチャートである。FIG. 21 is a flowchart showing an example of the normalization process according to the second embodiment.

以下に、本願の開示技術にかかる画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。以下の実施例によって、本願の開示技術が限定されるものではない。以下の実施例では、生体認証において、生体の部分を手のひらとし、手のひらを生体センサにかざして取得した手のひらの画像を画像処理する画像処理装置を含む、手のひら静脈を用いる生体認証装置を例として説明する。しかし、開示技術は、これに限られず、指、瞳、顔などの生体のその他の部分を、生体センサに非接触でかざして取得した生体画像を画像処理する場合にも適用可能である。 Hereinafter, examples of the image processing apparatus, the image processing method, and the image processing program according to the disclosed technology of the present application will be described in detail with reference to the drawings. The disclosure techniques of the present application are not limited by the following examples. In the following embodiment, a biometric authentication device using a palm vein will be described as an example in biometric authentication, including an image processing device that processes an image of the palm acquired by holding the palm of the hand over a biosensor with the part of the living body as the palm. To do. However, the disclosure technique is not limited to this, and is also applicable to image processing of a biological image obtained by holding other parts of the living body such as a finger, eyes, and face over a biological sensor in a non-contact manner.

生体認証装置は、生体部分(例えば手のひら)を予め撮像した撮像画像から抽出した手のひら静脈の特徴データを「登録データ」としてデータベースに登録しておく。そして、生体認証装置は、コンピュータシステムへのログインやドアの入退出等使用の際に、生体部分を撮像し、撮像画像から抽出した手のひら静脈の特徴データを「認証データ」として、「登録データ」とを照合することで、生体を認証するものである。 The biometric authentication device registers the characteristic data of the palm vein extracted from the captured image of the biological part (for example, the palm) in advance as "registration data" in the database. Then, the biometric authentication device captures the living body part when logging in to the computer system, entering / exiting the door, etc., and the characteristic data of the palm vein extracted from the captured image is used as "authentication data" as "registration data". By collating with, the living body is authenticated.

以下の実施例および変形例の説明において、既出の構成要素および処理については、同一名称または同一符号を付与し、説明を省略する。また、以下の各実施例および各変形例は、矛盾しない範囲でその一部または全部を組合せて実施できる。 In the following description of the examples and modifications, the same names or the same reference numerals are given to the existing components and processes, and the description thereof will be omitted. In addition, each of the following examples and each modification can be carried out in combination in part or in whole within a consistent range.

(実施例1にかかる生体認証装置)
図1は、実施例1にかかる生体認証装置の外観の一例を示す斜視図である。図1に示すように、生体認証装置1は、筐体1a−1に撮像ユニット1bが収容され、赤外光に対して透光性を有するカバー1a−2により覆蓋されている。生体認証装置1は、カバー1a−2の上方からかざされた手のひらを撮像する。
(Biometric authentication device according to Example 1)
FIG. 1 is a perspective view showing an example of the appearance of the biometric authentication device according to the first embodiment. As shown in FIG. 1, the biometric authentication device 1 has an imaging unit 1b housed in a housing 1a-1 and is covered with a cover 1a-2 having transparency to infrared light. The biometric authentication device 1 captures an image of the palm held over the cover 1a-2.

図2は、実施例1にかかる生体認証装置の一例を示すI−I断面図である。図2に示すように、生体認証装置1の撮像ユニット1bは、基板2上に、撮像素子200、発光素子300、レンズユニット3、導光体4を有し、制御基板5上にマイクロコンピュータおよびメモリなどを含む処理装置100を有する。発光素子300が出射する光は、リング状の導光体4を透して照明光としてカバー1a−2から上方へ出射される。この光は、カバー1a−2の上方からかざされた手のひらを照明し、手のひらにおいて反射または吸収される。撮像素子200は、レンズユニット3のレンズを透して、カバー1a−2の上方からかざされた手のひらを撮像する。 FIG. 2 is a cross-sectional view taken along the line II showing an example of the biometric authentication device according to the first embodiment. As shown in FIG. 2, the image pickup unit 1b of the biometric authentication device 1 has an image pickup element 200, a light emitting element 300, a lens unit 3, and a light guide body 4 on a substrate 2, a microcomputer and a light guide body 4 on the control substrate 5. It has a processing device 100 including a memory and the like. The light emitted by the light emitting element 300 passes through the ring-shaped light guide body 4 and is emitted upward from the cover 1a-2 as illumination light. This light illuminates the palm held over the cover 1a-2 and is reflected or absorbed by the palm. The image sensor 200 passes through the lens of the lens unit 3 and images the palm held over the cover 1a-2.

図3は、実施例1にかかる生体認証装置が有する基板の一例を示す平面図である。図3に示すように、基板2の中央に、撮像素子200が搭載される。基板2上で、撮像素子200の周囲の略円に沿って、レンズユニット3が配置される。また、基板2上で、レンズユニット3の周囲の略円に沿って、複数の発光素子300が配置される。なお、複数の発光素子300は、波長が異なる2種類の発光素子群に分けられるが、実施例1では区別していない。また、基板2上には、複数の発光素子300が発した光を受光する受光素子が配置されるが、図示を省略している。 FIG. 3 is a plan view showing an example of a substrate included in the biometric authentication device according to the first embodiment. As shown in FIG. 3, the image sensor 200 is mounted in the center of the substrate 2. The lens unit 3 is arranged on the substrate 2 along a substantially circle around the image sensor 200. Further, a plurality of light emitting elements 300 are arranged on the substrate 2 along a substantially circle around the lens unit 3. The plurality of light emitting elements 300 are divided into two types of light emitting element groups having different wavelengths, but they are not distinguished in the first embodiment. Further, a light receiving element that receives light emitted by a plurality of light emitting elements 300 is arranged on the substrate 2, but the illustration is omitted.

さらに、基板2の四隅には、生体認証装置1と手のひらとの距離を計測するための4つの測距用発光素子400が設けられる。図3に示すように、この4つの測距用発光素子400は、基板2の対角線上に配置され、かつ各測距用発光素子400の間隔は、最も距離の遠い対角線上に配置される。この4つの測距用発光素子400による測定距離から、生体認証装置1と対象物との距離や、対象物の傾きを検出する。なお、測距用発光素子400の数は、4つに限られない。 Further, four distance measuring light emitting elements 400 for measuring the distance between the biometric authentication device 1 and the palm are provided at the four corners of the substrate 2. As shown in FIG. 3, the four distance measuring light emitting elements 400 are arranged on the diagonal line of the substrate 2, and the distance between the distance measuring light emitting elements 400 is arranged on the diagonal line farthest from the distance. From the distance measured by the four distance measuring light emitting elements 400, the distance between the biometric authentication device 1 and the object and the inclination of the object are detected. The number of distance measuring light emitting elements 400 is not limited to four.

なお、図1〜図3は、実施例1にかかる生体認証装置1の一例を示すに過ぎず、同様の機能を実現できる他のハードウェア形態であってもよい。 It should be noted that FIGS. 1 to 3 are only an example of the biometric authentication device 1 according to the first embodiment, and may be another hardware form capable of realizing the same function.

(実施例1にかかる生体認証装置の機能構成)
図4は、実施例1にかかる生体認証装置の一例を示す機能ブロック図である。図4に示すように、生体認証装置1は、撮像部110、正規化部120、特徴抽出部140、撮像素子200、発光素子300、測距用発光素子400、撮像DB(Data Base)500、候補DB600を有する。なお、図4では、生体認証装置1の主たる構成のみを示す。
(Functional configuration of biometric authentication device according to Example 1)
FIG. 4 is a functional block diagram showing an example of the biometric authentication device according to the first embodiment. As shown in FIG. 4, the biometric authentication device 1 includes an image pickup unit 110, a normalization unit 120, a feature extraction unit 140, an image pickup element 200, a light emitting element 300, a distance measurement light emitting element 400, an image pickup DB (Data Base) 500, and the like. It has a candidate DB 600. Note that FIG. 4 shows only the main configuration of the biometric authentication device 1.

撮像素子200は、発光素子300により照射された近赤外光が利用者の手のひらで反射した近赤外光をもとに、利用者の手のひら画像を取得するための、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどである。発光素子300は、利用者の手のひらに対して近赤外光を照射するための、例えばLED(Light Emitting Diode)などである。測距用発光素子400は、生体認証装置1と生体認証装置1にかざされた手のひらとの距離を測定するために、スポット光(ビーム光)を手のひらに照射するための、例えばLEDなどである。 The image sensor 200 is, for example, CMOS (Complementary Metal Oxide) for acquiring an image of the palm of the user based on the near-infrared light reflected by the palm of the user from the near-infrared light emitted by the light emitting element 300. Semiconductor) Image sensor, etc. The light emitting element 300 is, for example, an LED (Light Emitting Diode) for irradiating the palm of the user with near-infrared light. The distance measuring light emitting element 400 is, for example, an LED for irradiating the palm with spot light (beam light) in order to measure the distance between the biometric authentication device 1 and the palm held over the biometric authentication device 1. ..

撮像DB500は、撮像素子200を介して撮像部110により撮像された手のひらの撮像画像を格納する半導体記憶装置などである。候補DB600は、正規化部120により推定された、手のひらの撮像画像が手のひらの部分のいずれの部分であるかを示す1または複数の推定結果を格納する半導体記憶装置などである。 The image pickup DB 500 is a semiconductor storage device or the like that stores an image of the palm imaged by the image pickup unit 110 via the image pickup element 200. The candidate DB 600 is a semiconductor storage device that stores one or a plurality of estimation results that indicate which part of the palm part the captured image of the palm is, which is estimated by the normalization unit 120.

撮像部110、正規化部120、特徴抽出部140は、MPU(Micro Processing Unit)などの処理装置である。撮像部110は、撮像素子200および発光素子300を制御して、生体認証装置1の上方にかざされた生体の手のひらの撮像画像を取得する。撮像部110は、取得した手のひらの撮像画像を撮像DB500に格納する。また、撮像部110は、測距用発光素子400から手のひらに照射されたスポット光の反射光をもとに、生体認証装置1と生体認証装置1にかざされた手のひらとの距離を算出する。 The imaging unit 110, the normalization unit 120, and the feature extraction unit 140 are processing devices such as an MPU (Micro Processing Unit). The image pickup unit 110 controls the image pickup element 200 and the light emitting element 300 to acquire an image of the palm of a living body held above the biometric authentication device 1. The imaging unit 110 stores the acquired captured image of the palm in the imaging DB 500. Further, the imaging unit 110 calculates the distance between the biometric authentication device 1 and the palm held over the biometric authentication device 1 based on the reflected light of the spot light emitted from the distance measuring light emitting element 400 to the palm.

正規化部120は、撮像部110により取得された手のひらの撮像画像に対して、背景やノイズを除去した上で、回転を補正する正規化処理を行う。正規化部120の詳細は、図5を参照して後述する。なお、回転とは、撮像部110により手のひらが撮像される際、手のひらが生体認証装置1に本来かざされるべき3次元の基準方向に対する、手のひらが生体認証装置1に実際にかざされた3次元の方向のずれであり、角度で表される。 The normalization unit 120 performs a normalization process for correcting the rotation of the captured image of the palm acquired by the image pickup unit 110 after removing the background and noise. Details of the normalization unit 120 will be described later with reference to FIG. Note that rotation means that when the palm is imaged by the imaging unit 110, the palm is actually held over the biometric authentication device 1 with respect to the three-dimensional reference direction in which the palm should be held over the biometric authentication device 1. It is a deviation in direction and is represented by an angle.

特徴抽出部140は、正規化部120により正規化処理された手のひらの撮像画像から、手のひら静脈情報を抽出する。登録部150は、特徴抽出部140により抽出された手のひら静脈情報、および、手のひら静脈情報の登録環境などの付帯情報を、データベース(不図示)に格納する。照合部160は、特徴抽出部140により抽出された手のひら静脈情報と、登録部150によりデータベースに格納された手のひら静脈情報とを照合する。 The feature extraction unit 140 extracts palm vein information from the captured image of the palm normalized by the normalization unit 120. The registration unit 150 stores the palm vein information extracted by the feature extraction unit 140 and incidental information such as the registration environment of the palm vein information in a database (not shown). The collation unit 160 collates the palm vein information extracted by the feature extraction unit 140 with the palm vein information stored in the database by the registration unit 150.

(実施例1にかかる生体認証装置の正規化部の詳細)
図5は、実施例1にかかる生体認証装置の正規化部の詳細の一例を示す機能ブロック図である。図5に示すように、生体認証装置1の正規化部120は、全体判定部121、左右判定部122、左右指定部123、手全体推定部124、手のひら部分推定部125、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、1位確定部132、手のひら取出部133、角度算出部2_134、回転部135を有する。
(Details of the Normalization Unit of the Biometric Authentication Device According to Example 1)
FIG. 5 is a functional block diagram showing a detailed example of the normalization unit of the biometric authentication device according to the first embodiment. As shown in FIG. 5, the normalization unit 120 of the biometric authentication device 1 includes an overall determination unit 121, a left / right determination unit 122, a left / right designation unit 123, an overall hand estimation unit 124, a palm portion estimation unit 125, and a certainty calculation unit 126. , Angle calculation image creation unit 127, auxiliary information extraction unit 128, auxiliary information certainty calculation unit 129, angle calculation unit 1_130, certainty recalculation unit 131, first place confirmation unit 132, palm extraction unit 133, angle calculation unit 2_134, It has a rotating portion 135.

なお、正規化部120は、画像処理装置の一例である。また、手のひら取出部133、角度算出部2_134、回転部135は、従来技術にかかる正規化部と同様の構成である。 The normalization unit 120 is an example of an image processing device. Further, the palm extraction unit 133, the angle calculation unit 2_134, and the rotation unit 135 have the same configuration as the normalization unit according to the prior art.

全体判定部121は、撮像部110により撮像された生体の手の撮像画像から背景およびノイズを除去した画像を生成し、この画像が手のひら全体画像であるか否かを判定する。手のひら全体画像は、手のひら全体が含まれている画像である。なお、手のひら部分画像は、手のひらが部分的に含まれている画像である。 The overall determination unit 121 generates an image in which the background and noise are removed from the captured image of the hand of the living body captured by the imaging unit 110, and determines whether or not this image is the entire palm image. The entire palm image is an image that includes the entire palm. The palm partial image is an image in which the palm is partially included.

左右判定部122は、全体判定部121により判定された手のひら部分画像に含まれている手のひらの外郭から、この手のひらが左右のいずれの手であるか判定する。例えば、左右判定部122は、全体判定部121により判定された手のひら部分画像に含まれている手のひらの親指と人差し指との間の形状から、この手のひらが、右手の手のひらまたは左手の手のひらのいずれであるかを判定する。左右判定部122は、例えば、手のひらの親指と人差し指との間の形状が、L字状であれば左手の手のひらであると判定し、L字の鏡文字状であれば右手の手のひらであると判定する。 The left-right determination unit 122 determines which of the left and right hands the palm is from the outer shell of the palm included in the palm partial image determined by the overall determination unit 121. For example, in the left / right determination unit 122, the palm of the palm is either the palm of the right hand or the palm of the left hand based on the shape between the thumb and the index finger of the palm included in the palm partial image determined by the overall determination unit 121. Determine if there is. For example, the left / right determination unit 122 determines that the shape between the thumb and index finger of the palm is the palm of the left hand if it is L-shaped, and that it is the palm of the right hand if it is mirror-written in the L shape. judge.

左右指定部123は、左右判定部122により手のひら部分画像に含まれている手のひらが左右のいずれの手であるか判定不可能な場合に、ユーザ入力や生体認証装置1のログ情報等をもとに左右のいずれの手であるかを指定する。左右判定部122により手のひら部分画像に含まれている手のひらが左右のいずれの手であるか判定可能な場合とは、手のひら部分画像に含まれている手のひらの撮像面積が、少なくとも手のひら全体の例えば60〜70[%]の場合である。また、左右判定部122により手のひら部分画像に含まれている手のひらが左右のいずれの手であるか判定不可能な場合とは、手のひら部分画像に含まれている手のひらの撮像面積が、手のひら全体の例えば30[%]未満の場合である。 The left / right designation unit 123 is based on user input, log information of the biometric authentication device 1, or the like when it is not possible for the left / right determination unit 122 to determine whether the palm included in the palm partial image is the left or right hand. Specify which hand is left or right. When the left / right determination unit 122 can determine which of the left and right hands the palm included in the palm partial image is, the imaging area of the palm included in the palm partial image is at least 60 of the entire palm, for example. This is the case of ~ 70 [%]. Further, when it is not possible for the left / right determination unit 122 to determine which of the left and right palms is included in the palm partial image, the imaging area of the palm included in the palm partial image is the entire palm. For example, it is less than 30 [%].

手全体推定部124は、左右指定部123により左右いずれかの手であると指定された手のひら部分画像から手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデル(図17参照)とから、手のひら部分画像が手のひら全体のいずれの部分であるかを推定する(図11参照)。 The whole hand estimation unit 124 generates a palm skin image from the palm partial image designated as either the left or right hand by the left / right designation unit 123, and from the generated palm skin image and the palm model (see FIG. 17), It is estimated which part of the entire palm the palm part image is (see FIG. 11).

なお、手のひらモデルは、手のひらのモデル画像の解析結果に基づく、手のひら部分画像が手のひら全体のいずれの部分であるかを推定するための、手のひら全体のモデルを示すアルゴリズムである。手のひらモデルは、後述の主情報(強い情報)毎、補助情報(弱い情報)毎のモデルであってもよいし、主情報(強い情報)および補助情報(弱い情報)を両方含むモデルであってもよい。 The palm model is an algorithm showing a model of the entire palm for estimating which part of the entire palm the palm partial image is based on the analysis result of the model image of the palm. The palm model may be a model for each main information (strong information) and each auxiliary information (weak information) described later, or a model including both main information (strong information) and auxiliary information (weak information). May be good.

手のひら部分推定部125は、手のひら部分画像から、撮像範囲外の手のひらを考慮した手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデルとから、1または複数の手のひら部分候補を推定する(図11、図12、図13A〜図13C参照)。手のひら部分推定部125は、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば60〜90[%]であると判定される場合、1つの手のひら部分を推定する(図11、図12参照)。一方、手のひら部分推定部125は、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば50[%]以下であると判定される場合、複数の手のひら部分候補を推定する(図13A〜図13C、図17参照)。手のひら部分候補は、手のひら部分画像が手のひら全体のいずれの部分であるかを示す情報を含む画像である。 The palm partial estimation unit 125 generates a palm epidermis image considering the palm outside the imaging range from the palm partial image, and estimates one or more palm partial candidates from the generated palm epidermis image and the palm model (Fig.). 11, FIG. 12, FIGS. 13A to 13C). The palm portion estimation unit 125 estimates one palm portion when it is determined that the imaged area of the palm included in the palm portion image is, for example, 60 to 90 [%] with respect to the total area of the palm (FIG. FIG. 11. See FIG. 12). On the other hand, the palm partial estimation unit 125 estimates a plurality of palm partial candidates when it is determined that the imaged area of the palm included in the palm partial image is, for example, 50 [%] or less with respect to the total area of the palm. (See FIGS. 13A to 13C, FIG. 17). The palm partial candidate is an image including information indicating which part of the entire palm the palm partial image is.

そして、手のひら部分推定部125は、推定した手のひら部分候補に対して、所定のソートを行って手のひら部分候補を順序付け、順序に応じたインデックスnを付与した上で候補DB600に格納する。ただし、n=1、・・・、N(Nは、推定した手のひら部分候補の総数)である。なお、手のひら部分推定部125は、推定した手のひら部分候補が1つである場合は、この1つの手のひら部分候補にインデックス1を付与した上で候補DB600に格納する。 Then, the palm partial estimation unit 125 performs a predetermined sort on the estimated palm partial candidates, orders the palm partial candidates, assigns an index n according to the order, and stores the estimated palm partial candidates in the candidate DB 600. However, n = 1, ..., N (N is the estimated total number of palm partial candidates). If there is only one estimated palm portion candidate, the palm portion estimation unit 125 assigns an index 1 to this one palm portion candidate and stores it in the candidate DB 600.

以下、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、手のひら部分推定部125により推定された手のひら部分候補が複数(n個)である場合、この複数の手のひら部分候補毎に行う一連のステップS108〜ステップS113(図6参照)の処理を、全ての手のひら部分候補について完了するまで繰り返して行う。ただし、n=1、・・・、N(Nは、推定した手のひら部分候補の総数)である。 Hereinafter, the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, and the certainty recalculation unit 131 are estimated by the palm part estimation unit 125. When there are a plurality of (n) palm partial candidates, the series of steps S108 to S113 (see FIG. 6) performed for each of the plurality of palm partial candidates is repeated until all the palm partial candidates are completed. Do. However, n = 1, ..., N (N is the estimated total number of palm partial candidates).

確信度算出部126は、手のひら部分推定部125により推定された1または複数の手のひら部分候補それぞれの確信度kを下記(1)式に基づき算出する。確信度kは、手のひら部分候補が示す手のひら部分の確からしさを表す。下記(1)式において、nは、後述のステップS108(図6参照)で未選択の手のひら部分候補のなかから1つの手のひら部分候補を選択するn回目の処理に対応する。また、nが限界値、例えば6以上の場合は下記(2)式に基づき算出する。ただし、nが上限値、例えば10を超える場合は判定不能とし処理を中断する。 Confidence calculator 126 calculates based estimated by palm portion estimating unit 125 one or more of palm candidates respectively confidence k n in the following equation (1). Confidence k n represents the likelihood of the palm portion indicated by palm candidate. In the following equation (1), n corresponds to the nth process of selecting one palm partial candidate from the unselected palm partial candidates in step S108 (see FIG. 6) described later. When n is a limit value, for example, 6 or more, it is calculated based on the following equation (2). However, if n exceeds the upper limit value, for example, 10, the determination cannot be made and the process is interrupted.

(数1)
=50−n×10[%]・・・(1)
(数2)
=50−50/n[%]・・・(2)
(Number 1)
k n = 50-n × 10 [%] ··· (1)
(Number 2)
k n = 50-50 / n [% ] ··· (2)

なお、確信度算出部126は、左右判定部122または左右指定部123により手のひら部分画像が左右いずれの手であるかが特定されている場合には、例えば、確信度k=80[%]とする。また、確信度算出部126は、手のひら部分推定部125により推定された手のひら部分候補が1つである場合には、例えば、確信度k=50[%]とする。 When the left / right determination unit 122 or the left / right designation unit 123 specifies which hand the palm portion image is, for example, the certainty degree calculation unit 126 has a certainty degree k 1 = 80 [%]. And. Further, the confidence degree calculation unit 126 sets, for example, the confidence degree k 1 = 50 [%] when there is one palm portion candidate estimated by the palm portion estimation unit 125.

角度算出画像作成部127は、手のひら部分画像もしくは手のひら部分候補と手のひらモデルとから画像範囲外の手のひら部分を含んだ合成画像を生成し、合成画像において平滑化などによりノイズを除去して必要情報を強調した角度算出画像を作成する(図14参照)。必要情報とは、手のひらの表皮や可動部のシワなどの、手のひらの方向(角度)を特徴付ける表皮情報であり、強い情報(以下、「主情報」と呼ぶ)および弱い情報(以下、「補助情報」と呼ぶ)の強度情報を含む。例えば、主情報は、表皮のシワのエッジ強度が所定以上である表皮情報であり、補助情報は、表皮のシワのエッジ強度が所定未満である表皮情報である。補助情報は、生体認証装置1に対して通常の所定の高さ以上で撮像された手のひらの通常画像に含まれる表皮情報よりも、より詳細な表皮情報である。 The angle calculation image creation unit 127 generates a composite image including the palm portion outside the image range from the palm partial image or the palm partial candidate and the palm model, and removes noise by smoothing or the like in the composite image to obtain necessary information. An emphasized angle calculation image is created (see FIG. 14). Necessary information is epidermis information that characterizes the direction (angle) of the palm, such as the epidermis of the palm and wrinkles of moving parts, and is strong information (hereinafter referred to as "main information") and weak information (hereinafter, "auxiliary information"). ”) Includes strength information. For example, the main information is epidermis information in which the edge strength of wrinkles in the epidermis is equal to or higher than a predetermined value, and the auxiliary information is epidermis information in which the edge strength of wrinkles in the epidermis is less than a predetermined value. The auxiliary information is more detailed epidermis information than the epidermis information included in the normal image of the palm imaged at a height equal to or higher than the normal predetermined height for the biometric authentication device 1.

補助情報抽出部128は、角度算出画像作成部127により作成された角度算出画像から、補助情報を抽出する。補助情報確信度算出部129は、補助情報抽出部128により抽出された補助情報の確信度(補助情報確信度θ)を、所定アルゴリズムにより算出する。補助情報確信度θは、補助情報に基づく、手のひら部分候補が示す手のひら部分の確からしさを表す。 The auxiliary information extraction unit 128 extracts auxiliary information from the angle calculation image created by the angle calculation image creation unit 127. The auxiliary information certainty calculation unit 129 calculates the certainty of the auxiliary information (auxiliary information certainty θ) extracted by the auxiliary information extraction unit 128 by a predetermined algorithm. The auxiliary information certainty degree θ represents the certainty of the palm portion indicated by the palm portion candidate based on the auxiliary information.

角度算出部1_130は、角度算出画像作成部127により作成された角度算出画像を複数のエリア(分割領域)へ分割し、各エリアから主情報および補助情報のエッジを抽出する。エリアは、例えばm×n(m、nは、2以上の正整数)のグリッドである。ただし、グリッドに限られず、メッシュ、ヘックスなどであってもよい。そして、角度算出部1_130は、抽出したエリア毎の主情報および補助情報のエッジをベクトル化する(図15、図16参照)。エッジのベクトル化では、例えば、エッジの方向をベクトルの方向とするベクトルを生成する。そして、角度算出部1_130は、主情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積をエリア毎に演算するとともに、補助情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積をエリア毎に演算する。 The angle calculation unit 1_130 divides the angle calculation image created by the angle calculation image creation unit 127 into a plurality of areas (divided areas), and extracts edges of main information and auxiliary information from each area. The area is, for example, a grid of m × n (m and n are positive integers of 2 or more). However, it is not limited to the grid, and may be a mesh, a hex, or the like. Then, the angle calculation unit 1_130 vectorizes the edges of the main information and the auxiliary information for each extracted area (see FIGS. 15 and 16). In edge vectorization, for example, a vector is generated in which the direction of the edge is the direction of the vector. Then, the angle calculation unit 1_130 calculates the inner product of the edge vector of the main information and the vector included in the predetermined model for each area, and the inner product of the edge vector of the auxiliary information and the vector included in the predetermined model. Is calculated for each area.

なお、所定モデルとは、モデルとなる手のひら全体の表皮情報のエッジをベクトル化した、予め用意されたモデルである。以下、各エリアの主情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積を、「主内積」と呼ぶ。また、各エリアの補助情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積を「補助内積」と呼ぶ。 The predetermined model is a pre-prepared model in which the edges of the skin information of the entire palm as a model are vectorized. Hereinafter, the inner product of the edge vector of the main information of each area and the vector included in the predetermined model is referred to as "main inner product". Further, the inner product of the edge vector of the auxiliary information of each area and the vector included in the predetermined model is called "auxiliary inner product".

すなわち、角度算出部1_130は、角度算出画像をあてはめる所定モデルの部分領域を選択し、部分領域毎に、主内積をエリア単位で演算するとともに、補助内積をエリア単位で演算する。そして、角度算出部1_130は、全てのエリアの主内積および補助内積がともに所定誤差内の略同一値となる所定モデルの部分領域を角度算出画像が示す手のひら部分とし、その際の各エリアの主情報のベクトルを各エリアにおける主ベクトルとし、補助情報のベクトルを各エリアにおける補助ベクトルとする。なお、“全てのエリアの内積が所定誤差内の略同一値となる”とは、ベクトルの方向が所定範囲内で概ね揃うことをいう。 That is, the angle calculation unit 1_130 selects a partial region of a predetermined model to which the angle calculation image is applied, calculates the main inner product in area units, and calculates the auxiliary inner product in area units for each partial region. Then, the angle calculation unit 1_130 sets a partial region of a predetermined model in which the main inner product and the auxiliary inner product of all areas are substantially the same value within a predetermined error as the palm portion indicated by the angle calculation image, and the main of each area at that time. The information vector is the main vector in each area, and the auxiliary information vector is the auxiliary vector in each area. In addition, "the inner product of all areas has substantially the same value within a predetermined error" means that the directions of the vectors are substantially aligned within a predetermined range.

一方、角度算出部1_130は、主内積または補助内積が所定誤差内の略同一値とならないエリアがある場合、角度算出画像からノイズ除去処理により、ノイズとなる補助情報のエッジを除去した上で補助情報のエッジを再度ベクトル化する。そして、角度算出部1_130は、角度算出画像をあてはめる所定モデルの部分領域を再選択し、主内積および補助内積それぞれをエリア単位で再演算し、各エリアにおける主ベクトルおよび補助ベクトルを再算出する。 On the other hand, when there is an area where the main inner product or the auxiliary inner product does not have substantially the same value within a predetermined error, the angle calculation unit 1_130 assists after removing the edge of the auxiliary information that becomes noise from the angle calculation image by noise removal processing. Vectorize the edges of the information again. Then, the angle calculation unit 1_130 reselects the partial area of the predetermined model to which the angle calculation image is applied, recalculates each of the main inner product and the auxiliary inner product for each area, and recalculates the main vector and the auxiliary vector in each area.

角度算出部1_130は、上述の処理を、全てのエリアについて主内積および補助内積がともに所定誤差内の略同一値となる所定モデルの部分領域が選択されるまで繰り返す。そして、角度算出部1_130は、全てのエリアについて主内積および補助内積がともに所定誤差内の略同一値となった際の主内積から手のひら部分候補の角度を推定するとともに、補助内積をもとに手のひら部分候補の推定角度を補正する。例えば、全てのエリアについて主内積および補助内積がともに所定誤差内の略同一値となった際の各エリアにおける主ベクトルを足し合わせたベクトルの方向が、手のひら部分候補の推定角度である。また、例えば、各エリアにおける補助ベクトルを足し合わせたベクトルの方向が、手のひら部分候補に基づく推定角度を補正するための補正情報である。 The angle calculation unit 1_130 repeats the above process until a partial region of a predetermined model in which both the main inner product and the auxiliary inner product have substantially the same value within a predetermined error is selected for all areas. Then, the angle calculation unit 1_130 estimates the angle of the palm partial candidate from the main inner product when both the main inner product and the auxiliary inner product have substantially the same value within a predetermined error for all areas, and based on the auxiliary inner product. Correct the estimated angle of the palm part candidate. For example, the direction of the vector obtained by adding the main vectors in each area when both the main inner product and the auxiliary inner product have substantially the same value within a predetermined error for all areas is the estimated angle of the palm portion candidate. Further, for example, the direction of the vector obtained by adding the auxiliary vectors in each area is the correction information for correcting the estimated angle based on the palm portion candidate.

確信度再算出部131は、確信度算出部126により算出された確信度kと、補助情報確信度算出部129により算出された補助情報確信度θとから、手のひら部分推定部125により推定された複数の手のひら部分候補それぞれの修正確信度k’を下記(3)式に基づき算出する。修正確信度k’は、確信度kと補助情報確信度θとに基づく、手のひら部分候補が示す手のひら部分の確からしさを表す。下記(3)式において、nは、後述のステップS108(図6参照)で未選択の手のひら部分候補のなかから1つの手のひら部分候補を選択するn回目の処理に対応する。 Confidence recalculation unit 131 is estimated from the confidence k n calculated by the confidence factor computing unit 126, the auxiliary information confidence θ and calculated by the auxiliary information confidence factor computing unit 129, the palm portion estimating unit 125 a plurality of the palm portion candidates each modified confidence k n 'is calculated according to the following equation (3). Fixed confidence k n 'is based on a confidence k n and auxiliary information confidence theta, indicating the likelihood of palm indicated palm candidate. In the following equation (3), n corresponds to the nth process of selecting one palm partial candidate from the unselected palm partial candidates in step S108 (see FIG. 6) described later.

(数3)
’=k×θ・・・(3)
(Number 3)
k n '= k n × θ ... (3)

以上、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131により、手のひら部分推定部125により推定されたN個の手のひら部分候補について手のひら部分候補毎に行なわれる一連のステップS108〜ステップS113(図6参照)の処理が、全ての手のひら部分候補について完了すると、1位確定部132は、確信度再算出部131により算出された修正確信度k’が最大である1位の手のひら部分候補を確定させる。 As described above, it is estimated by the palm part estimation unit 125 by the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, and the certainty recalculation unit 131. When the series of steps S108 to S113 (see FIG. 6) performed for each of the N palm partial candidates is completed for all the palm partial candidates, the 1st place determination unit 132 regains the certainty. calculator 131 fix confidence k n calculated by 'the finalizing the 1-position of the palm portion candidates is largest.

なお、1位確定部132は、確信度再算出部131により算出された修正確信度k’が最大である1位の手のひら部分候補を確定させることに限られず、修正確信度k’が上位の所定数の手のひら部分候補を確定させるとしてもよい。 Note that one of the decision unit 132 'is not limited to finalizing the 1-position of the palm candidate is maximum, modified confidence k n' confidence recalculation unit 131 fixes confidence k n calculated by the A predetermined number of high-ranking palm partial candidates may be determined.

手のひら取出部133は、全体判定部121により判定された手のひら全体画像から背景やノイズを除去して手のひらを切り出す。角度算出部2_134は、手のひら取出部133により切り出された手のひらにおける手のひらの向きや傾きを算出する。手のひら取出部133および角度算出部2_134は、既存技術に基づいて処理を行う。 The palm extraction unit 133 removes the background and noise from the entire image of the palm determined by the overall determination unit 121, and cuts out the palm. The angle calculation unit 2_134 calculates the direction and inclination of the palm in the palm cut out by the palm extraction unit 133. The palm extraction unit 133 and the angle calculation unit 2_134 perform processing based on the existing technology.

回転部135は、1位確定部132により1位の手のひら部分候補が確定された手のひら部分画像を、1位の手のひら部分候補に基づく推定角度および補正情報に応じて回転させることにより、手のひら静脈画像を作成するための元画像を生成する。また、回転部135は、角度算出部2_134により手のひらの向きや傾きが算出された手のひら画像を、その手のひらの向きや傾きに応じて回転させることにより、手のひら静脈画像を作成するための元画像を生成する。 The rotating unit 135 rotates the palm portion image in which the first-ranked palm portion candidate is determined by the first-position determining portion 132 according to the estimated angle and correction information based on the first-ranked palm portion candidate, thereby causing the palm vein image. Generate the original image to create. Further, the rotating unit 135 creates an original image for creating a palm vein image by rotating the palm image whose palm direction and inclination are calculated by the angle calculation unit 2_134 according to the direction and inclination of the palm. Generate.

なお、回転部135は、手のひら全体画像および手のひら部分画像の推定角度、補正情報、修正確信度の少なくともいずれかを、手のひら静脈画像を作成するための元画像とともに出力してもよい。 The rotating unit 135 may output at least one of the estimated angle, correction information, and correction certainty of the entire palm image and the partial palm image together with the original image for creating the palm vein image.

(実施例1にかかる正規化処理)
図6は、実施例1にかかる正規化処理の一例を示すフローチャートである。実施例1にかかる正規化処理は、撮像部110により生体の手のひらが撮像され、正規化部120へ入力される都度、正規化部120により実行される。図6に示すように、先ず、ステップS101では、全体判定部121は、撮像部110により撮像された生体の手のひら画像の入力を受け付ける。
(Normalization processing according to Example 1)
FIG. 6 is a flowchart showing an example of the normalization process according to the first embodiment. The normalization process according to the first embodiment is executed by the normalization unit 120 each time the palm of the living body is imaged by the image pickup unit 110 and input to the normalization unit 120. As shown in FIG. 6, first, in step S101, the overall determination unit 121 receives the input of the palm image of the living body imaged by the imaging unit 110.

次に、ステップS102では、全体判定部121は、ステップS101で入力を受け付けた手のひら画像について、全体判定処理を行う。具体的には、全体判定部121は、ステップS101で入力を受け付けた手のひら画像に手のひら全体が含まれているか否かを判定する。 Next, in step S102, the overall determination unit 121 performs an overall determination process on the palm image that received the input in step S101. Specifically, the overall determination unit 121 determines whether or not the entire palm image received the input in step S101 includes the entire palm.

全体判定部121は、ステップS101で入力を受け付けた手のひら画像に手のひら全体が含まれている場合(ステップS103Yes)、ステップS123へ処理を移す。以下、手のひら全体が含まれている手のひら画像を、手のひら全体画像と呼ぶ。一方、全体判定部121は、ステップS101で入力を受け付けた手のひら画像に手のひらが部分的に含まれている場合(ステップS103No)、ステップS104へ処理を移す。以下、手のひらが部分的に含まれている手のひら画像を、手のひら部分画像と呼ぶ。 When the palm image received the input in step S101 includes the entire palm (step S103Yes), the overall determination unit 121 shifts the process to step S123. Hereinafter, the palm image including the entire palm is referred to as the entire palm image. On the other hand, when the palm image that received the input in step S101 partially includes the palm (step S103 No.), the overall determination unit 121 shifts the process to step S104. Hereinafter, the palm image in which the palm is partially included is referred to as a palm partial image.

ステップS104では、左右判定部122は、ステップS103で全体判定部121により判定された手のひら部分画像に含まれている手のひらが左手であるかを判定する。左右判定部122は、手のひら部分画像に含まれている手のひらが左手であると判定した場合(ステップS104Yes)、ステップS116へ処理を移す。一方、左右判定部122は、手のひら部分画像に含まれている手のひらが左手であると判定できなかった場合(ステップS104No)、ステップS105へ処理を移す。 In step S104, the left-right determination unit 122 determines whether the palm included in the palm partial image determined by the overall determination unit 121 in step S103 is the left hand. When the left / right determination unit 122 determines that the palm included in the palm partial image is the left hand (step S104Yes), the left / right determination unit 122 shifts the process to step S116. On the other hand, when the left / right determination unit 122 cannot determine that the palm included in the palm partial image is the left hand (step S104No), the left / right determination unit 122 shifts the process to step S105.

ステップS105では、左右判定部122は、ステップS103で全体判定部121により判定された手のひら部分画像に含まれている手のひらが右手であるかを判定する。左右判定部122は、手のひら部分画像に含まれている手のひらが右手であると判定した場合(ステップS105Yes)、ステップS117へ処理を移す。一方、左右判定部122は、手のひら部分画像に含まれている手のひらが右手であると判定できなかった場合(ステップS105No)、ステップS106へ処理を移す。 In step S105, the left-right determination unit 122 determines whether the palm included in the palm partial image determined by the overall determination unit 121 in step S103 is the right hand. When the left / right determination unit 122 determines that the palm included in the palm partial image is the right hand (step S105Yes), the left / right determination unit 122 shifts the process to step S117. On the other hand, when the left / right determination unit 122 cannot determine that the palm included in the palm partial image is the right hand (step S105No), the left / right determination unit 122 shifts the process to step S106.

ステップS106では、手のひら部分推定部125は、左右判定部122により左右のいずれの手であるかが判定できなかった手のひら部分画像に含まれている手のひらが、手のひら全体のいずれの部分であるかを示す、1または複数の手のひら部分候補を推定する。ステップS107では、手のひら部分推定部125は、ステップS106で推定した手のひら部分候補が複数か否かを判定する。手のひら部分推定部125は、ステップS106で推定した手のひら部分候補が複数である場合(ステップS107Yes)、ステップS108へ処理を移す。一方、手のひら部分推定部125は、ステップS106で推定した手のひら部分候補が1つである場合(ステップS107No)、ステップS119へ処理を移す。 In step S106, the palm portion estimation unit 125 determines which part of the entire palm is included in the palm portion image in which the left / right determination unit 122 cannot determine which of the left and right hands is. Estimate one or more palm partial candidates shown. In step S107, the palm portion estimation unit 125 determines whether or not there are a plurality of palm portion candidates estimated in step S106. When the palm portion estimation unit 125 has a plurality of palm portion candidates estimated in step S106 (step S107Yes), the palm portion estimation unit 125 shifts the process to step S108. On the other hand, when the palm portion estimation unit 125 has one palm portion candidate estimated in step S106 (step S107 No), the process shifts to step S119.

次に、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、ステップS106で手のひら部分推定部125により推定された複数の手のひら部分候補全てについて、手のひら部分候補毎に、ステップS108〜ステップS113の処理を行う。 Next, the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, and the certainty recalculation unit 131 are in the palm part estimation unit in step S106. For all of the plurality of palm portion candidates estimated by 125, the processes of steps S108 to S113 are performed for each palm portion candidate.

ステップS108では、確信度算出部126は、手のひら部分推定部125により推定された複数の手のひら部分候補のなかから未選択の手のひら部分候補を1つ選択し、上記(1)式においてn=1とおき、選択した手のひら部分候補の確信度kを算出する。次に、ステップS109では、角度算出画像作成部127は、ステップS108で選択された手のひら部分候補をもとに角度算出画像を作成する。 In step S108, the certainty calculation unit 126 selects one unselected palm portion candidate from the plurality of palm portion candidates estimated by the palm portion estimation unit 125, and sets n = 1 in the above equation (1). Place, calculates the certainty factor k 1 of palm candidates selected. Next, in step S109, the angle calculation image creation unit 127 creates an angle calculation image based on the palm portion candidate selected in step S108.

次に、ステップS110では、補助情報抽出部128は、ステップS109で角度算出画像作成部127により作成された角度算出画像から補助情報を抽出する。次に、ステップS111では、補助情報確信度算出部129は、ステップS110で補助情報抽出部128により抽出された補助情報の確信度(補助情報確信度θ)を算出する。 Next, in step S110, the auxiliary information extraction unit 128 extracts auxiliary information from the angle calculation image created by the angle calculation image creation unit 127 in step S109. Next, in step S111, the auxiliary information certainty calculation unit 129 calculates the certainty of the auxiliary information (auxiliary information certainty θ) extracted by the auxiliary information extraction unit 128 in step S110.

次に、ステップS112では、角度算出部1_130は、ステップS109で角度算出画像作成部127により作成された角度算出画像から抽出してベクトル化した主情報および補助情報のエッジをもとに、この角度算出画像の角度を算出する。次に、ステップS113では、確信度再算出部131は、ステップS108で確信度算出部126により算出された確信度kと、ステップS111で補助情報確信度算出部129により算出された補助情報確信度θとから、ステップS108で選択した手のひら部分候補の修正確信度k’を上記(3)式に基づき算出する。 Next, in step S112, the angle calculation unit 1_130 extracts and vectorizes the angle from the angle calculation image created by the angle calculation image creation unit 127 in step S109, based on the edges of the main information and the auxiliary information. Calculate the angle of the image. Next, in step S113, confidence recalculation unit 131, a confidence k 1 calculated by the confidence factor computing unit 126 in step S108, the calculated auxiliary information convinced by the auxiliary information confidence factor computing unit 129 at step S111 and a degree theta, a modified confidence k 1 'of the selected palm candidate in step S108 is calculated based on the above equation (3).

次に、ステップS108へ戻り、確信度算出部126は、手のひら部分推定部125により推定された複数の手のひら部分候補のなかから未選択の手のひら部分候補を1つ選択し、上記(1)式においてn=2とおき、選択した手のひら部分候補の確信度kを算出する。以下、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、ステップS109〜ステップS113の処理を、ステップS108で選択した手のひら部分候補について行う。 Next, returning to step S108, the certainty calculation unit 126 selects one unselected palm portion candidate from the plurality of palm portion candidates estimated by the palm portion estimation unit 125, and in the above equation (1). n = 2 Distant, calculates the confidence factor k 2 of palm candidates selected. Hereinafter, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, and the certainty recalculation unit 131 have selected the processes of steps S109 to S113 in step S108. This is done for palm part candidates.

そして、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、手のひら部分推定部125により推定された複数の手のひら部分候補のうちのステップS108で未選択の手のひら部分候補全てについて、n=3、・・・、Nとし、ステップS108〜ステップS113の処理を行う。正規化部120は、ステップS108で最後に選択された手のひら部分候補についてステップS113の処理が終了すると、ステップS114へ処理を移す。 Then, the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, and the certainty recalculation unit 131 are estimated by the palm part estimation unit 125. All of the palm partial candidates not selected in step S108 among the plurality of palm partial candidates are set to n = 3, ..., N, and the processes of steps S108 to S113 are performed. When the process of step S113 for the palm portion candidate last selected in step S108 is completed, the normalization unit 120 shifts the process to step S114.

ステップS114では、1位確定部132は、ステップS106で推定されたN個の手のひら部分候補のうち、確信度再算出部131により算出された修正確信度k’(n=1、・・・、N)が最大である1位の手のひら部分候補を確定させる。次に、ステップS115では、回転部135は、ステップS114で1位確定部132により確定された手のひら部分候補、または、ステップS122もしくはステップS124で角度算出処理された手のひら画像を、その推定角度に応じて回転させ、角度を補正することにより、手のひら静脈画像を作成するための元画像を生成する。ステップS115が終了すると、正規化部120は、実施例1にかかる正規化処理を終了する。 In step S114, the 1st place determination unit 132 has a modified certainty degree k n '(n = 1, ...) Calculated by the certainty degree recalculation unit 131 among the N palm part candidates estimated in step S106. , N) is the largest, and the 1st place palm part candidate is confirmed. Next, in step S115, the rotating unit 135 uses the palm portion candidate determined by the 1st place determination unit 132 in step S114 or the palm image processed for angle calculation in step S122 or step S124 according to the estimated angle. By rotating and correcting the angle, an original image for creating a palm vein image is generated. When step S115 is completed, the normalization unit 120 ends the normalization process according to the first embodiment.

他方、ステップS116では、手全体推定部124は、ステップS104で左右指定部123により左手であると判定された手のひら部分画像から手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデルとを比較して、手のひら部分画像が左手のひら全体のいずれの部分であるかを推定する。ステップS116が終了すると、正規化部120は、ステップS118へ処理を移す。 On the other hand, in step S116, the entire hand estimation unit 124 generates a palm skin image from the palm partial image determined to be the left hand by the left and right designation units 123 in step S104, and compares the generated palm skin image with the palm model. Then, it is estimated which part of the entire left palm part of the palm part image is. When step S116 is completed, the normalization unit 120 shifts the process to step S118.

また、ステップS117では、手全体推定部124は、ステップS105で左右指定部123により右手であると判定された手のひら部分画像から手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデルとから、手のひら部分画像が右手のひら全体のいずれの部分であるかを推定する。ステップS117が終了すると、正規化部120は、ステップS118へ処理を移す。 Further, in step S117, the entire hand estimation unit 124 generates a palm skin image from the palm partial image determined to be the right hand by the left and right designation units 123 in step S105, and from the generated palm skin image and the palm model, Estimate which part of the entire right palm the palm part image is. When step S117 is completed, the normalization unit 120 shifts the process to step S118.

ステップS118では、確信度算出部126は、ステップS116またはステップS117で左右の手のひら全体のいずれの部分であるかが推定された手のひら部分画像の確信度を、例えば80[%]とする。ステップS118が終了すると、正規化部120は、ステップS120へ処理を移す。 In step S118, the certainty calculation unit 126 sets the certainty of the palm partial image estimated in step S116 or step S117 to be, for example, 80 [%] of the entire left and right palms. When step S118 is completed, the normalization unit 120 shifts the process to step S120.

また、ステップS119では、確信度算出部126は、ステップS107で推定された唯一の手のひら部分候補の確信度を、例えば50[%]とする。ステップS119が終了すると、正規化部120は、ステップS120へ処理を移す。 Further, in step S119, the certainty calculation unit 126 sets the certainty of the only palm partial candidate estimated in step S107 to, for example, 50 [%]. When step S119 is completed, the normalization unit 120 shifts the process to step S120.

ステップS120では、角度算出画像作成部127は、ステップS118またはステップS119で確信度が設定された手のひら部分画像または手のひら部分候補をもとに角度算出画像を作成する。次に、ステップS121では、補助情報抽出部128は、ステップS120で角度算出画像作成部127により作成された角度算出画像から補助情報を抽出する。次に、ステップS122では、角度算出部1_130は、ステップS120で角度算出画像作成部127により作成された角度算出画像から抽出してベクトル化した主情報および補助情報のエッジをもとに、この角度算出画像の角度を算出する。ステップS122が終了すると、正規化部120は、ステップS115へ処理を移す。 In step S120, the angle calculation image creation unit 127 creates an angle calculation image based on the palm partial image or the palm partial candidate for which the certainty is set in step S118 or step S119. Next, in step S121, the auxiliary information extraction unit 128 extracts auxiliary information from the angle calculation image created by the angle calculation image creation unit 127 in step S120. Next, in step S122, the angle calculation unit 1_130 extracts and vectorizes the angle from the angle calculation image created by the angle calculation image creation unit 127 in step S120, based on the edges of the main information and the auxiliary information. Calculate the angle of the image. When step S122 is completed, the normalization unit 120 shifts the process to step S115.

また、他方で、ステップS123では、手のひら取出部133は、ステップS103で判定された手のひら全体画像から、背景やノイズを除去する手のひら取出処理を行う。次に、ステップS124では、角度算出部2_134は、ステップS124で手のひら取出部133により手のひら取出処理された手のひら全体画像をもとに、手のひらの角度や傾きを算出する。ステップS124が終了すると、正規化部120は、ステップS115へ処理を移す。 On the other hand, in step S123, the palm extraction unit 133 performs a palm extraction process for removing the background and noise from the entire palm image determined in step S103. Next, in step S124, the angle calculation unit 2_134 calculates the angle and inclination of the palm based on the entire palm image processed by the palm extraction unit 133 in step S124. When step S124 is completed, the normalization unit 120 shifts the process to step S115.

なお、ステップS119における確信度=50[%]が、ステップS118における確信度=80[%]よりも低い確信度であるのは、ステップS119の手のひら部分候補が、ステップS118の手のひら部分画像と比較して、左右いずれの手であるかが確定されていないためである。また、ステップS108での確信度kが、ステップS119での確信度=50[%]よりも低い確信度であるのは、手のひら部分候補が、1つではなく複数存在するためである。 The degree of certainty = 50 [%] in step S119 is lower than the degree of certainty = 80 [%] in step S118 because the palm part candidate in step S119 is compared with the palm part image in step S118. This is because it has not been determined which hand is left or right. Also, confidence k n at the step S108 is confidence = 50 is the lower confidence than [%] is in step S119, palm candidates is for one to several present instead.

(従来技術における角度算出処理の成功例)
図7は、従来技術における角度算出処理の成功例を示す図である。全体判定部121は、図7の(a−1)が左手の手のひら全体画像であると判定できる。手のひら取出部133は、図7の(a−1)の左手の手のひら全体画像から、図7の(a−2)の囲み破線で示すように、手のひらを切り出す。そして、角度算出部2_134は、図7の(a−3)の矢印で示すように、手のひら取出部133により切り出された左手の手のひらの向き(角度)を算出する。同様に、全体判定部121は、図7の(b−1)が右手の手のひら全体画像であると判定できる。手のひら取出部133は、図7の(b−1)の右手の手のひら全体画像から、図7の(b−2)の囲み破線で示すように、右手の手のひらを切り出す。そして、角度算出部2_134は、図7の(b−3)の実線矢印で示すように、手のひら取出部133により切り出された右手の手のひらの向き(角度)を算出する。このように、従来技術は、手のひら全体画像から手のひらを切り出す場合には、手のひらの角度を正しく算出することができる。
(Successful example of angle calculation processing in the prior art)
FIG. 7 is a diagram showing a successful example of the angle calculation process in the prior art. The overall determination unit 121 can determine that (a-1) in FIG. 7 is the entire image of the palm of the left hand. The palm extraction unit 133 cuts out the palm from the entire image of the left palm in FIG. 7 (a-1) as shown by the enclosed broken line in FIG. 7 (a-2). Then, the angle calculation unit 2_134 calculates the direction (angle) of the left palm cut out by the palm extraction unit 133, as shown by the arrow in FIG. 7 (a-3). Similarly, the overall determination unit 121 can determine that (b-1) in FIG. 7 is the entire image of the palm of the right hand. The palm extraction unit 133 cuts out the palm of the right hand from the entire image of the palm of the right hand in FIG. 7 (b-1) as shown by the enclosed broken line in FIG. 7 (b-2). Then, the angle calculation unit 2_134 calculates the direction (angle) of the right palm cut out by the palm extraction unit 133, as shown by the solid arrow in FIG. 7 (b-3). As described above, in the prior art, when the palm is cut out from the entire image of the palm, the angle of the palm can be calculated correctly.

(従来技術において誤った角度が算出される例)
図8は、従来技術において誤った角度が算出される例を示す図である。手のひら取出部133は、図8の(a−1)に示す右手の手のひら部分画像からは、図8の(a−2)の囲み破線で示すように、部分的な右手の手のひらを切り出すことしかできない。しかし、角度算出部2_134は、切り出された右手の手のひらが部分的であることを認識しないまま、図8の(b−3)の実線矢印で示すように、左手の手のひらの向き(角度)を算出する。このため、図8の(a−3)の実線矢印は、破線矢印で示す左手の手のひらの正しい向き(角度)と乖離している。
(Example of calculating an incorrect angle in the prior art)
FIG. 8 is a diagram showing an example in which an erroneous angle is calculated in the prior art. The palm extraction portion 133 can only partially cut out the palm of the right hand from the image of the palm part of the right hand shown in FIG. 8 (a-1), as shown by the enclosed broken line in FIG. 8 (a-2). Can not. However, the angle calculation unit 2_134 determines the direction (angle) of the left palm as shown by the solid arrow in FIG. 8 (b-3) without recognizing that the cut out right palm is partial. calculate. Therefore, the solid line arrow in FIG. 8 (a-3) deviates from the correct direction (angle) of the left palm indicated by the broken line arrow.

同様に、手のひら取出部133は、図8の(b−1)に示す右手の手のひら部分画像からは、図8の(b−2)の囲み破線で示すように、部分的な右手の手のひらを切り出すことしかできない。しかし、角度算出部2_134は、切り出された右手の手のひらが部分的であることを認識しないまま、図8の(b−3)の実線矢印で示すように、右手の手のひらの向き(角度)を算出する。このため、図8の(b−3)の実線矢印は、破線矢印で示す右手の手のひらの正しい向き(角度)と乖離している。このように、従来技術は、手のひら部分画像から手のひらを切り出す場合には、手のひらの角度を正しく算出することができない。 Similarly, from the right palm partial image shown in FIG. 8 (b-1), the palm extraction portion 133 may partially remove the right palm as shown by the enclosed broken line in FIG. 8 (b-2). You can only cut it out. However, the angle calculation unit 2_134 determines the direction (angle) of the right palm as shown by the solid arrow in FIG. 8 (b-3) without recognizing that the cut out right palm is partial. calculate. Therefore, the solid line arrow in FIG. 8 (b-3) deviates from the correct direction (angle) of the palm of the right hand indicated by the broken line arrow. As described above, in the prior art, when the palm is cut out from the palm partial image, the angle of the palm cannot be calculated correctly.

(従来技術において角度算出が失敗する例)
図9は、従来技術において角度算出が失敗する例を示す図である。図9の(a)〜(d)に示す例は、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば50[%]未満である。また、図9の(a)〜(c)に示す手のひら部分画像には、いずれかの指と指との間であると推定できる部分が存在するが、図9の(c)では、その部分が手のひら部分画像の左右いずれかではなく、中央に位置していることから、手のひら部分画像が左右いずれの手であるかを判定することができない。
(Example of angle calculation failure in the prior art)
FIG. 9 is a diagram showing an example in which the angle calculation fails in the prior art. In the examples shown in FIGS. 9A to 9D, the imaged area of the palm included in the palm partial image is, for example, less than 50 [%] with respect to the total area of the palm. Further, in the palm partial image shown in FIGS. 9 (a) to 9 (c), there is a portion that can be presumed to be between any finger, but in FIG. 9 (c), that portion is present. Is located in the center of the palm partial image, not on the left or right, so it cannot be determined whether the palm partial image is the left or right hand.

また、図9の(d)に示す手のひら部分画像には、いずれかの指と指との間であると推定できる部分が存在しないことから、手のひら部分画像が左右いずれの手であるかを判定することができない。このため、手のひら取出部133は、図9の(a)〜(d)に示す手のひら部分画像に含まれる手のひらが、左右のいずれの手のひら全体におけるいずれの部分に該当するかが不明であり、手のひら部分画像から手のひらを抽出できない。よって、図9の(a)〜(d)に示す例では、手のひらの角度の算出自体を行うことができない。 Further, since the palm partial image shown in FIG. 9D does not have a portion that can be presumed to be between any of the fingers, it is determined whether the palm partial image is the left or right hand. Can not do it. Therefore, in the palm extraction unit 133, it is unclear which part of the entire left or right palm the palm included in the palm partial images shown in FIGS. 9 (a) to 9 (d) corresponds to, and the palm The palm cannot be extracted from the partial image. Therefore, in the examples shown in FIGS. 9A to 9D, the palm angle cannot be calculated.

(左右手判定)
図10は、左右手判定結果の一例を示す図である。図10の(a)に示す例は、手のひら部分画像のなかの右手の親指と人差し指とがなすL字状の部分(図10の(a)中の実線矢印部分)が手のひら部分画像の右方に位置するため、左右手判定により、手のひら部分画像が右手の撮像画像であると判定できる。また、図10の(b)に示す例は、手のひら部分画像のなかの左手の親指と人差し指とがなすL字の鏡文字状の部分(図10の(b)中の実線矢印部分)が手のひら部分画像の左方に位置するため、左右手判定により、手のひら部分画像が左手の撮像画像であると判定できる。
(Left and right hand judgment)
FIG. 10 is a diagram showing an example of the left / right hand determination result. In the example shown in FIG. 10A, the L-shaped portion (solid arrow portion in FIG. 10A) formed by the thumb and index finger of the right hand in the palm partial image is to the right of the palm partial image. Since it is located at, it can be determined that the palm partial image is the captured image of the right hand by the left and right hand determination. Further, in the example shown in FIG. 10 (b), the L-shaped mirror writing portion (the solid line arrow portion in FIG. 10 (b)) formed by the thumb and index finger of the left hand in the palm partial image is the palm. Since it is located to the left of the partial image, it can be determined that the palm partial image is the captured image of the left hand by the left and right hand determination.

また、図10の(c)に示す例は、手のひら部分画像のなかの左手の親指と人差し指とがなすL字状の部分(図10の(c)中の実線矢印部分)手のひら部分画像の左方に位置するため、左右手判定により、手のひら部分画像が左手の撮像画像であると判定できる。また、図10の(d)に示す例は、手のひら部分画像のなかの右手の親指と人差し指とがなすL字状の部分(図10の(d)中の実線矢印部分)が手のひら部分画像の右方に位置するため、左右手判定により、手のひら部分画像が右手の撮像画像であると判定できる。 Further, in the example shown in FIG. 10 (c), the L-shaped portion (solid arrow portion in FIG. 10 (c)) formed by the thumb and index finger of the left hand in the palm partial image is left of the palm partial image. Since it is located in the direction, it can be determined that the palm partial image is the captured image of the left hand by the left and right hand determination. Further, in the example shown in FIG. 10 (d), the L-shaped portion (the solid line arrow portion in FIG. 10 (d)) formed by the thumb and index finger of the right hand in the palm partial image is the palm partial image. Since it is located on the right side, it can be determined that the palm partial image is the captured image of the right hand by the left and right hand determination.

しかし、図10の(e)に示す例は、手のひら部分画像のなかに、手の親指と人差し指とがなすL字状またはL字の鏡文字状の部分が含まれるものの、その部分が、想定される箇所に位置しないため、左右手判定による手のひら部分画像が左右いずれの手の撮像画像であるかが判定できない。また、図10の(f)に示す例は、手のひら部分画像のなかに、手の親指と人差し指とがなすL字状またはL字の鏡文字状の部分が含まれないため、左右手判定が行えず、手のひら部分画像が左右いずれの手の撮像画像であるかが判定できない。 However, in the example shown in FIG. 10 (e), although the palm partial image includes an L-shaped or L-shaped mirror-shaped portion formed by the thumb and index finger of the hand, that portion is assumed. Since it is not located at the location where the image is formed, it is not possible to determine which of the left and right hands is the captured image of the palm portion by the left and right hand determination. Further, in the example shown in FIG. 10 (f), since the palm partial image does not include the L-shaped or L-shaped mirror writing portion formed by the thumb and index finger of the hand, the left and right hand determination can be performed. Therefore, it is not possible to determine whether the palm partial image is the captured image of the left or right hand.

(実施例1における手のひら部分の推定結果)
図11および図12は、実施例1における手のひら部分の推定結果の一例を示す図である。図11は、手のひら部分推定部125が、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば60〜90[%]である場合に、1つだけ推定する手のひら部分の推定結果を示す。例えば、図11の(a)は、手のひら部分推定部125が、図8の(a−1)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図11の(a)中の破線部分)を推定した結果である。また、例えば、図11の(b)は、手のひら部分推定部125が、図8の(b−1)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図11の(b)中の破線部分)を推定した結果である。
(Estimation result of palm portion in Example 1)
11 and 12 are diagrams showing an example of the estimation result of the palm portion in the first embodiment. FIG. 11 shows that the palm portion estimation unit 125 estimates only one palm portion when the imaged area of the palm included in the palm portion image is, for example, 60 to 90 [%] with respect to the total area of the palm. The estimation result is shown. For example, in FIG. 11A, the palm portion estimation unit 125 takes the palm portion image shown in FIG. 8 (a-1) as an input, and indicates which part of the entire palm the palm portion image is. This is the result of estimating the entire outer shell (the broken line portion in (a) of FIG. 11). Further, for example, in FIG. 11B, the palm portion estimation unit 125 receives the palm portion image shown in FIG. 8 (b-1) as an input, and determines which part of the entire palm the palm portion image is. This is the result of estimating the outer shell of the entire palm shown (the broken line portion in (b) of FIG. 11).

図12は、手のひら部分推定部125が、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば50[%]以下である場合に推定する、複数の手のひら部分を示す。例えば、図12の(a−1)および(a−2)は、手のひら部分推定部125が、図9の(a)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図12の(a−1)および(a−2)中の破線部分)を2通り推定した結果である。また、例えば、図12の(b−1)および(b−2)は、手のひら部分推定部125が、図9の(b)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図12の(b−1)および(b−2)中の破線部分)を2通り推定した結果である。 FIG. 12 shows a plurality of palm portions estimated by the palm portion estimation unit 125 when the imaged area of the palm included in the palm portion image is, for example, 50 [%] or less with respect to the total area of the palm. For example, in (a-1) and (a-2) of FIG. 12, the palm part estimation unit 125 takes the palm part image shown in FIG. 9 (a) as an input, and the palm part image is any part of the entire palm. This is the result of estimating two ways of the outer shell of the entire palm (the broken line portion in (a-1) and (a-2) of FIG. 12). Further, for example, in (b-1) and (b-2) of FIG. 12, the palm portion estimation unit 125 inputs the palm portion image shown in FIG. 9 (b), and the palm portion image is any of the entire palm. This is the result of estimating two ways of the outer shell of the entire palm (broken line portion in (b-1) and (b-2) of FIG. 12) indicating whether or not the portion is.

図13A〜図13Cは、実施例1において手のひらが左右いずれの手であるか指定された場合の手のひら部分の複数の推定結果の一例を示す図である。例えば、図13Aの(a−1)は、図9の(c)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手全体推定部124が、手のひら全体における手のひら部分画像の部分を推定した結果である。また、例えば、図13Aの(a−1)は、図9の(c)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手のひら部分推定部125が、手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図13Aの(a−2)中の破線部分)を推定した結果である。 13A to 13C are diagrams showing an example of a plurality of estimation results of the palm portion when it is specified whether the palm is the left or right hand in the first embodiment. For example, in FIG. 13A (a-1), when the “right hand” is designated by the left / right designation unit 123 with respect to the palm partial image shown in FIG. 9 (c), the entire hand estimation unit 124 determines the palm. This is the result of estimating the part of the palm part image in the whole. Further, for example, in FIG. 13A (a-1), when the “right hand” is designated by the left / right designation unit 123 with respect to the palm portion image shown in FIG. 9 (c), the palm portion estimation unit 125 This is the result of estimating the outer shell of the entire palm (the broken line portion in (a-2) of FIG. 13A) indicating which part of the entire palm the palm partial image is, using the palm partial image as an input.

また、例えば、図13Bの(b−1−1)および図13Cの(b−2−1)は、図9の(d)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手全体推定部124が、手のひら全体における手のひら部分画像の部分を2通り推定した結果である。また、例えば、図13Bの(b−1−2)および図13Cの(b−2−2)は、図9の(d)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手のひら部分推定部125が、手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図13Bの(b−1−2)中の破線部分)を2通り推定した結果のうちの1つである。 Further, for example, (b-1-1) in FIG. 13B and (b-2-1) in FIG. 13C are “right hand” by the left and right designation portions 123 with respect to the palm partial image shown in FIG. 9 (d). When specified, the whole hand estimation unit 124 is the result of estimating two types of palm partial images in the entire palm. Further, for example, (b-1-2) in FIG. 13B and (b-2-2) in FIG. 13C are "right hand" by the left and right designated portions 123 with respect to the palm partial image shown in FIG. 9 (d). When specified, the palm partial estimation unit 125 takes the palm partial image as an input, and indicates which part of the entire palm the palm partial image is, the outer shell of the entire palm ((b-1-2) in FIG. 13B). ) Is one of the two estimation results.

(実施例における手のひら部分の撮像画像に基づく角度算出画像)
図14は、実施例1における手のひら部分の撮像画像に対し、ノイズ除去後、必要情報を強調した角度算出画像の一例を示す図である。例えば、図14は、角度算出画像作成部127が、図9の(d)に示す手のひら部分画像(もしくは手のひら部分候補)と手のひらモデルとから画像範囲外の手のひら部分を含んだ合成画像を生成し、合成画像において平滑化などによりノイズを除去して必要情報を強調した角度算出画像である。
(Angle calculation image based on the captured image of the palm portion in the example)
FIG. 14 is a diagram showing an example of an angle calculation image in which necessary information is emphasized after noise removal with respect to the captured image of the palm portion in the first embodiment. For example, in FIG. 14, the angle calculation image creation unit 127 generates a composite image including the palm portion outside the image range from the palm portion image (or palm portion candidate) shown in FIG. 9D and the palm model. , This is an angle calculation image in which noise is removed by smoothing or the like in a composite image to emphasize necessary information.

(実施例1における手のひら部分の強調画像のエリア分割)
図15は、実施例1における手のひら部分の角度算出画像のエリア分割の一例を示す図である。例えば、図15は、角度算出部1_130が、角度算出画像作成部127により作成された角度算出画像を4×4のグリッドに分割した例を示す。
(Area division of the emphasized image of the palm portion in Example 1)
FIG. 15 is a diagram showing an example of area division of the angle calculation image of the palm portion in the first embodiment. For example, FIG. 15 shows an example in which the angle calculation unit 1_130 divides the angle calculation image created by the angle calculation image creation unit 127 into a 4 × 4 grid.

(実施例1における手のひら部分のエリア分割画像の分割エリア毎の方向性)
図16は、実施例1における手のひら部分をエリア分割した角度算出画像に対し、必要情報に基づいて、分割エリア毎の方向性を算出した方向性算出結果の一例を示す図である。図16の(a)は、図15に示す4×4のエリアに分割した角度算出画像から、主情報のみを抽出し、エリア毎の主情報のエッジのベクトルを、分割エリア毎の主情報の方向性として算出した例を示す。図16の(b)は、図15に示す4×4のエリアに分割した角度算出画像から、補助情報のみを抽出し、エリア毎の補助情報のエッジのベクトルを、分割エリア毎の補助情報の方向性として算出した例を示す。
(Direction of each divided area of the area divided image of the palm part in Example 1)
FIG. 16 is a diagram showing an example of a directionality calculation result in which the directionality of each divided area is calculated based on necessary information with respect to the angle calculation image obtained by dividing the palm portion into an area in the first embodiment. In FIG. 16A, only the main information is extracted from the angle calculation image divided into the 4 × 4 areas shown in FIG. 15, and the edge vector of the main information for each area is used as the main information for each divided area. An example calculated as the directionality is shown. In FIG. 16B, only the auxiliary information is extracted from the angle calculation image divided into the 4 × 4 areas shown in FIG. 15, and the edge vector of the auxiliary information for each area is used as the auxiliary information for each divided area. An example calculated as the directionality is shown.

(実施例1における手のひらモデル)
図17は、実施例1における手のひらモデルの一例を示す図である。図17(a)は、必要情報のうち、主情報(強い情報)に関する手のひらモデルの一例を示す。主情報(強い情報)に関する手のひらモデルは、手のひら全体の外郭と、その外郭内に含まれる主情報のエッジとを含む。図17(b)は、必要情報のうち、補助情報(弱い情報)に関する手のひらモデルの一例を示す。補助情報(弱い情報)に関する手のひらモデルは、手のひら全体の外郭と、その外郭内に含まれる補助情報のエッジとを含む。
(Palm model in Example 1)
FIG. 17 is a diagram showing an example of a palm model in the first embodiment. FIG. 17A shows an example of a palm model regarding the main information (strong information) among the necessary information. The palm model for the main information (strong information) includes the outer shell of the entire palm and the edges of the main information contained within the outer shell. FIG. 17B shows an example of a palm model regarding auxiliary information (weak information) among necessary information. The palm model for auxiliary information (weak information) includes the outer shell of the entire palm and the edges of the auxiliary information contained within the outer shell.

(実施例1における複数の手のひら部分候補の推定結果)
図18は、実施例1における複数の手のひら部分候補の推定結果の一例を示す図である。図18の(a)に例示する2つの実線矩形囲み部分が、手のひら部分画像と、主情報(強い情報)に関する手のひらモデル(図17の(a)参照)ならびに補助情報(弱い情報)に関する手のひらモデル(図17の(b)参照)とから推定された、複数の手のひら部分候補である。また、図18の(b)は、推定された例えば2つの手のひら部分候補(図18の(a)参照)のうちの一方を示し、図18の(c)は、推定された例えば2つの手のひら部分候補のうちの他方を示す。このように、実施例では、1つの手のひら部分画像から、この手のひら部分画像の複数の手のひら部分候補が推定される。
(Estimation result of a plurality of palm partial candidates in Example 1)
FIG. 18 is a diagram showing an example of estimation results of a plurality of palm partial candidates in the first embodiment. The two solid rectangular boxes illustrated in FIG. 18 (a) are a palm partial image, a palm model for main information (strong information) (see (a) in FIG. 17), and a palm model for auxiliary information (weak information). It is a plurality of palm partial candidates estimated from (see (b) of FIG. 17). Further, FIG. 18B shows one of the estimated two palm partial candidates (see FIG. 18A), and FIG. 18C shows the estimated two palms, for example. The other of the partial candidates is shown. As described above, in the embodiment, a plurality of palm partial candidates of the palm partial image are estimated from one palm partial image.

(実施例1における角度算出処理の成功例)
図19は、実施例1における角度算出処理の成功例を示す図である。図19の(a)は、図8の(a−3)に示す、実線矢印(算出結果)で示す手のひらの向き(角度)と、破線矢印(正解)で示す手のひらの正しい向き(角度)との乖離が生じず、算出結果と正解とが一致した場合を例示する。同様に、図19の(b)は、図8の(b−3)に示す、実線矢印(算出結果)で示す手のひらの向き(角度)と、破線矢印(正解)で示す手のひらの正しい向き(角度)との乖離が生じず、算出結果と正解とが一致した場合を例示する。
(Successful example of angle calculation processing in Example 1)
FIG. 19 is a diagram showing a successful example of the angle calculation process in the first embodiment. FIG. 19A shows the direction (angle) of the palm indicated by the solid arrow (calculation result) and the correct orientation (angle) of the palm indicated by the dashed arrow (correct answer) shown in FIG. 8A-3. This is an example of a case where the calculation result and the correct answer match without any discrepancy. Similarly, FIG. 19 (b) shows the orientation (angle) of the palm indicated by the solid arrow (calculation result) and the correct orientation (correct answer) of the palm indicated by the dashed arrow (correct answer) shown in FIG. 8 (b-3). An example is shown in which the calculation result and the correct answer match without any deviation from the angle).

このように、実施例1は、手のひら部分画像の手のひら部分候補を複数推定し、推定した複数の手のひら部分候補毎に、手のひら部分候補と手のひらモデルとを比較して、主情報から手のひら部分候補に基づく角度を算出し、算出した角度を補助情報に基づき補正する。そして、手のひらとして確からしい手のひら部分候補の角度を、手のひら部分画像の角度とする。よって、手のひら部分画像の角度算出処理結果を正しいものとし、算出角度の精度低下を抑制することができる。 As described above, in the first embodiment, a plurality of palm partial candidates of the palm partial image are estimated, and for each of the plurality of estimated palm partial candidates, the palm partial candidate and the palm model are compared, and the main information is converted into the palm partial candidate. The based angle is calculated, and the calculated angle is corrected based on the auxiliary information. Then, the angle of the palm portion candidate that is probable as the palm is defined as the angle of the palm portion image. Therefore, the angle calculation processing result of the palm partial image can be made correct, and the decrease in the accuracy of the calculated angle can be suppressed.

また、実施例1によれば、生体認証装置1に対して所定距離未満の近距離で撮影され、手のひら全体の面積に対して、例えば少なくとも60〜70[%]程度が撮影されている場合には、外郭が一部しかない、または、外郭がほぼない手のひら部分画像であっても、手のひらの角度を正しく算出できる。また、実施例1によれば、生体認証装置1に対して所定距離未満の近距離で撮影され、手のひら全体の面積に対して、例えば30[%]未満が撮影されている場合には、回転が大きく左右のいずれの手のひらであるかを判定できないことがあるため、左右いずれの手であるかを予め指定することで、角度を正確に算出することができる。 Further, according to the first embodiment, when the biometric authentication device 1 is photographed at a short distance of less than a predetermined distance and, for example, at least about 60 to 70 [%] is photographed with respect to the total area of the palm. Can correctly calculate the angle of the palm even if the palm part image has only a part of the outer shell or almost no outer shell. Further, according to the first embodiment, when the biometric authentication device 1 is photographed at a short distance of less than a predetermined distance and less than 30 [%] is photographed with respect to the total area of the palm, rotation is performed. Since it may not be possible to determine which palm is on the left or right, the angle can be calculated accurately by specifying in advance which hand is on the left or right.

実施例1では、手のひらが部分的にしか撮像されてない場合は、手のひら全体が撮像された場合と比較して、より詳細な情報(手のひら全体が撮像された場合には脆弱な情報)を補助情報として活用し、撮像された手のひらの部分が手のひらのいずれの位置であるかを推定する。また、実施例1では、撮像された手のひらの部分の手のひらにおける位置に応じて、補助情報の抽出方法を動的に変更する。よって、実施例1によれば、補助情報の情報量および精度を向上させ、手のひらの角度をより正確に算出できることから、延いては、認証精度の向上に貢献することになる。 In the first embodiment, when the palm is only partially imaged, more detailed information (vulnerable information when the entire palm is imaged) is assisted as compared with the case where the entire palm is imaged. It is used as information to estimate the position of the imaged palm part of the palm. Further, in the first embodiment, the method of extracting the auxiliary information is dynamically changed according to the position of the imaged palm portion in the palm. Therefore, according to the first embodiment, the amount and accuracy of the auxiliary information can be improved, and the angle of the palm can be calculated more accurately, which in turn contributes to the improvement of the authentication accuracy.

実施例2は、1つの手のひら部分画像から複数の手のひら部分候補を推定し、推定した複数の手のひら部分候補のなかから確信度が1位である手のひら部分候補を確定し、確定した手のひら部分候補に基づく角度で手のひら部分画像を回転させて、手のひら静脈画像を作成するための元画像を生成するとした。しかし、これに限られず、実施例2では、1位の手のひら部分候補を確定せず、推定した複数の手のひら部分候補それぞれの角度で手のひら部分画像を回転させて、手のひら静脈画像を作成するための元画像を複数生成する。 In the second embodiment, a plurality of palm partial candidates are estimated from one palm partial image, a palm partial candidate having the highest degree of certainty is determined from the estimated palm partial candidates, and the determined palm partial candidate is used. It is assumed that the palm partial image is rotated by the base angle to generate the original image for creating the palm vein image. However, the present invention is not limited to this, and in the second embodiment, the first-ranked palm portion candidate is not determined, and the palm portion image is rotated at each of the estimated angles of the plurality of palm portion candidates to create a palm vein image. Generate multiple original images.

(実施例2にかかる生体認証装置の機能構成)
実施例2にかかる生体認証装置1Aは、実施例1にかかる生体認証装置1と比較して、正規化部120に代えて正規化部120Aを有する(図4参照)。
(Functional configuration of biometric authentication device according to Example 2)
The biometric authentication device 1A according to the second embodiment has a normalization unit 120A instead of the normalization unit 120 as compared with the biometric authentication device 1 according to the first embodiment (see FIG. 4).

(実施例2にかかる生体認証装置の正規化部の詳細)
図20は、実施例2にかかる生体認証装置の正規化部の詳細の一例を示す機能ブロック図である。実施例2にかかる生体認証装置1Aの正規化部120Aは、実施例1にかかる正規化部120と比較して、1位確定部132が省略され、回転部135に代えて回転部135−1を有する。なお、正規化部120Aは、画像処理装置の一例である。
(Details of the Normalization Unit of the Biometric Authentication Device According to Example 2)
FIG. 20 is a functional block diagram showing a detailed example of the normalization unit of the biometric authentication device according to the second embodiment. In the normalization unit 120A of the biometric authentication device 1A according to the second embodiment, the first place confirmation unit 132 is omitted as compared with the normalization unit 120 according to the first embodiment, and the rotation unit 135-1 is replaced with the rotation unit 135. Has. The normalization unit 120A is an example of an image processing device.

また、実施例2において、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、回転部135−1は、手のひら部分推定部125により推定された手のひら部分候補が複数(N個)である場合、この複数の手のひら部分候補毎に行う一連の処理を、全ての手のひら部分候補について完了するまで繰り返して行う。 Further, in the second embodiment, the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, the certainty recalculation unit 131, and the rotation unit 135- In case 1, when there are a plurality of (N) palm part candidates estimated by the palm part estimation unit 125, a series of processes performed for each of the plurality of palm part candidates is repeated until all the palm part candidates are completed. Do.

回転部135−1は、確信度再算出部131により修正確信度が算出された手のひら部分候補に基づく推定角度および補正情報に応じて手のひら部分画像を回転させることにより、手のひら静脈画像を作成するための元画像を生成する。この場合、手のひら静脈画像を作成するための元画像は、手のひら部分推定部125により推定された複数の手のひら部分候補毎に生成されることになる。また、回転部135−1は、角度算出部2_134により手のひらの向きや傾きが算出された手のひら画像を、その手のひらの向きや傾きに応じて回転させることにより、手のひら静脈画像を作成するための元画像を生成する。 The rotating unit 135-1 creates a palm vein image by rotating the palm portion image according to the estimated angle and correction information based on the palm portion candidate whose correction certainty is calculated by the certainty recalculation unit 131. Generate the original image of. In this case, the original image for creating the palm vein image is generated for each of the plurality of palm portion candidates estimated by the palm portion estimation unit 125. Further, the rotating unit 135-1 is a source for creating a palm vein image by rotating the palm image whose palm direction and inclination are calculated by the angle calculation unit 2_134 according to the direction and inclination of the palm. Generate an image.

以上、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、回転部135−1により、手のひら部分推定部125により推定されたN個の手のひら部分候補毎に行なわれる一連の処理が、全ての手のひら部分候補について完了すると、正規化部120Aは、回転部135−1により生成された手のひら静脈画像を作成するための元画像を出力する。 As described above, the palm part is formed by the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, the certainty recalculation unit 131, and the rotation unit 135-1. When a series of processes performed for each of the N palm portion candidates estimated by the estimation unit 125 is completed for all the palm portion candidates, the normalization unit 120A displays the palm vein image generated by the rotating unit 135-1. Output the original image to create.

なお、回転部135−1は、手のひら全体画像および手のひら部分画像の推定角度、補正情報、修正確信度の少なくともいずれかを、手のひら静脈画像を作成するための元画像とともに出力してもよい。 The rotating unit 135-1 may output at least one of the estimated angle, correction information, and correction certainty of the entire palm image and the partial palm image together with the original image for creating the palm vein image.

(実施例2にかかる正規化処理)
図21は、実施例2にかかる正規化処理の一例を示すフローチャートである。実施例2にかかる正規化処理は、実施例1にかかる正規化処理と比較して、確信度再算出部131により修正確信度が算出される都度、手のひら部分推定部125により推定された複数の手のひら部分候補のうちの該当の手のひら部分候補に基づく推定角度および補正情報に応じて、手のひら部分画像が回転される。
(Normalization processing according to Example 2)
FIG. 21 is a flowchart showing an example of the normalization process according to the second embodiment. In the normalization process according to the second embodiment, as compared with the normalization process according to the first embodiment, each time the correction certainty is calculated by the certainty recalculation unit 131, a plurality of normalization processes estimated by the palm partial estimation unit 125 are performed. The palm partial image is rotated according to the estimated angle and correction information based on the corresponding palm partial candidate among the palm partial candidates.

図21に示すように、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、回転部135−1は、手のひら部分推定部125により推定されたN個の手のひら部分候補について手のひら部分候補毎に行なわれる一連のステップS108〜ステップS115aの処理を、全ての手のひら部分候補について行う。 As shown in FIG. 21, the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, the certainty recalculation unit 131, and the rotation unit 135- 1 performs a series of processes of steps S108 to S115a performed for each palm partial candidate for N palm partial candidates estimated by the palm partial estimation unit 125 for all palm partial candidates.

すなわち、回転部135−1は、ステップS113で確信度再算出部131により修正確信度k’が算出されると、ステップS108で選択された手のひら部分候補に基づく推定角度および補正情報に応じて手のひら部分画像を回転させることにより、手のひら静脈画像を作成するための元画像を生成する。 That is, the rotation unit 135-1, when the corrected confidence k n 'by confidence recalculation unit 131 is calculated in step S113, in accordance with the estimated angle and the correction information based on the selected palm portion candidate in step S108 By rotating the palm partial image, the original image for creating the palm vein image is generated.

そして、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、確信度再算出部131は、手のひら部分推定部125により推定された複数の手のひら部分候補のうちのステップS108で未選択の手のひら部分候補全てについて、ステップS108〜ステップS113の処理を行う。正規化部120Aは、ステップS108で最後に選択された手のひら部分候補についてステップS115aの処理が終了すると、実施例2にかかる正規化処理を終了する。 Then, the certainty calculation unit 126, the angle calculation image creation unit 127, the auxiliary information extraction unit 128, the auxiliary information certainty calculation unit 129, the angle calculation unit 1_130, the certainty recalculation unit 131, and the certainty recalculation unit 131 are in the palm of the hand. Of the plurality of palm partial candidates estimated by the partial estimation unit 125, all the palm partial candidates not selected in step S108 are processed in steps S108 to S113. When the process of step S115a for the palm portion candidate last selected in step S108 is completed, the normalization unit 120A ends the normalization process according to the second embodiment.

他方、ステップS115bでは、回転部135−1は、ステップS122もしくはステップS124で角度算出処理された手のひら画像を、その推定角度に応じて回転させ、角度を補正することにより、手のひら静脈画像を作成するための元画像を生成する。ステップS115bが終了すると、正規化部120Aは、実施例2にかかる正規化処理を終了する。 On the other hand, in step S115b, the rotating unit 135-1 creates a palm vein image by rotating the palm image whose angle has been calculated in step S122 or step S124 according to the estimated angle and correcting the angle. Generate the original image for. When step S115b is completed, the normalization unit 120A ends the normalization process according to the second embodiment.

上述の実施例で示した各装置または機器の構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散または統合の具体的状態は図示のものに限られず、その全部または一部を、処理負荷や処理効率性などに応じて、任意の単位で機能的または物理的に、分散または統合して構成することができる。 The components of each device or device shown in the above-described embodiment are functional concepts, and do not necessarily have to be physically configured as shown in the figure. That is, the specific state of distribution or integration of each device is not limited to the one shown in the figure, and all or part of the distribution or integration is functionally or physically distributed in arbitrary units according to the processing load and processing efficiency. Or it can be integrated and configured.

例えば、確信度算出部126、補助情報確信度算出部129、確信度再算出部131の少なくとも2つは、統合されてもよい。また、角度算出部1_130および角度算出部2_134は、統合されてもよい。 For example, at least two of the certainty calculation unit 126, the auxiliary information certainty calculation unit 129, and the certainty recalculation unit 131 may be integrated. Further, the angle calculation unit 1_130 and the angle calculation unit 2_134 may be integrated.

また、生体認証装置1、1Aの各処理部にて行なわれる各処理機能は、その全部または任意の一部が、マイクロコンピュータなどの半導体処理装置および半導体処理装置にて解析実行されるプログラムにて実現されうる。 Further, each processing function performed in each processing unit of the biometric authentication devices 1 and 1A is a program in which all or any part thereof is analyzed and executed by a semiconductor processing device such as a microcomputer and a semiconductor processing device. It can be realized.

以上の実施例で例示した各部の構成は、開示技術にかかる画像処理装置、画像処理方法および画像処理プログラムの技術範囲を逸脱しない程度に変更、追加または省略可能である。また、実施例はあくまで例示に過ぎず、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の態様も、開示の技術に含まれる。 The configuration of each part illustrated in the above examples can be changed, added or omitted to the extent that it does not deviate from the technical scope of the image processing apparatus, the image processing method and the image processing program according to the disclosed technology. In addition, the examples are merely examples, and the disclosed technology also includes other aspects described in the disclosure column of the invention and various modifications and improvements based on the knowledge of those skilled in the art. ..

1、1A 生体認証装置
100 処理装置
110 撮像部
120、120A 正規化部
121 全体判定部
122 左右判定部
123 左右指定部
124 手全体推定部
125 手のひら部分推定部
126 確信度算出部
127 角度算出画像作成部
128 補助情報抽出部
129 補助情報確信度算出部
130 角度算出部1
131 確信度再算出部
132 1位確定部
133 手のひら取出部
134 角度算出部2
135、135−1 回転部
140 特徴抽出部
150 登録部
160 照合部
200 撮像素子
300 発光素子
400 測距用発光素子
500 撮像DB
600 候補DB
1, 1A Biometric authentication device 100 Processing device 110 Imaging unit 120, 120A Normalization unit 121 Overall judgment unit 122 Left / right judgment unit 123 Left / right designation unit 124 Overall hand estimation unit 125 Palm part estimation unit 126 Confidence calculation unit 127 Angle calculation image creation Part 128 Auxiliary information extraction unit 129 Auxiliary information certainty calculation unit 130 Angle calculation unit 1
131 Conviction recalculation unit 132 1st place confirmation unit 133 Palm extraction unit 134 Angle calculation unit 2
135, 135-1 Rotating unit 140 Feature extraction unit 150 Registration unit 160 Matching unit 200 Image sensor 300 Light emitting element 400 Distance measuring light emitting element 500 Image pickup DB
600 candidate DB

Claims (7)

生体部分の全体または一部が含まれて撮像された撮像画像から、前記生体部分の全体または一部のいずれであるかを判定する判定部と、
前記判定部により前記撮像画像に前記生体部分の一部が含まれると判定された場合に、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを推定する推定部と、
前記推定部により前記生体部分の一部が前記生体部分の全体のうちのいずれの部分であるかが推定された前記撮像画像から、前記生体部分の角度を特徴付ける情報を強調した角度算出画像を作成する角度算出画像作成部と、
前記角度算出画像作成部により作成された角度算出画像における前記角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する前記生体部分の角度を算出する角度算出部と、
を備えたことを特徴とする画像処理装置。
A determination unit for determining whether the living body part is the whole or a part from the captured image captured including the whole or a part of the living body part.
When the determination unit determines that the captured image includes a part of the living body part, it is estimated which part of the living body part is a part of the whole living body part. Department and
An angle calculation image emphasizing information that characterizes the angle of the living body part is created from the captured image in which a part of the living body part is estimated by the estimation unit as a part of the whole living body part. Angle calculation image creation unit and
An angle calculation unit that generates a vector from the information that characterizes the angle in the angle calculation image created by the angle calculation image creation unit, and calculates the angle of the living body portion with respect to a predetermined reference direction based on the generated vector. ,
An image processing device characterized by being equipped with.
前記生体部分の角度を特徴付ける情報は、強度が所定値以上の強い情報と、強度が前記所定値未満の弱い情報とを含み、
前記角度算出部は、前記角度算出画像における前記強い情報毎および前記弱い情報毎にベクトルを生成し、前記強い情報から生成したベクトルをもとに前記所定の基準方向に対する前記生体部分の角度を算出するとともに、前記弱い情報から生成したベクトルをもとに前記算出した前記生体部分の角度を補正する、
ことを特徴とする請求項1に記載の画像処理装置。
The information that characterizes the angle of the living body portion includes strong information having an intensity of a predetermined value or more and weak information having an intensity of less than the predetermined value.
The angle calculation unit generates a vector for each of the strong information and the weak information in the angle calculation image, and calculates the angle of the living body portion with respect to the predetermined reference direction based on the vector generated from the strong information. At the same time, the angle of the living body portion calculated above is corrected based on the vector generated from the weak information.
The image processing apparatus according to claim 1.
前記角度算出部は、前記角度算出画像を複数のエリアへ分割し、分割したエリア毎に、前記角度を特徴付ける情報からベクトルを生成する、
ことを特徴とする請求項1または2に記載の画像処理装置。
The angle calculation unit divides the angle calculation image into a plurality of areas, and generates a vector from the information characterizing the angle for each divided area.
The image processing apparatus according to claim 1 or 2.
前記推定部は、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを示す部分候補を複数推定し、
前記角度算出画像作成部は、前記部分候補毎に、前記撮像画像から前記角度算出画像を作成し、
前記角度算出部は、前記部分候補毎に、前記角度算出画像における前記角度を特徴付ける情報からベクトルを生成する、
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
The estimation unit estimates a plurality of partial candidates indicating which part of the whole living body part is a part of the living body part.
The angle calculation image creation unit creates the angle calculation image from the captured image for each of the partial candidates, and creates the angle calculation image.
The angle calculation unit generates a vector for each of the partial candidates from the information that characterizes the angle in the angle calculation image.
The image processing apparatus according to any one of claims 1 to 3.
前記部分候補毎に、前記部分候補が示す手のひら部分の確からしさを算出する確信度算出部と、
前記確信度算出部により算出された確からしさに基づいて前記所定の基準方向に対する前記生体部分の角度を確定させる確定部と、
をさらに備えたことを特徴とする請求項4に記載の画像処理装置。
For each of the partial candidates, a confidence calculation unit that calculates the certainty of the palm portion indicated by the partial candidate, and
A confirmation unit that determines the angle of the living body portion with respect to the predetermined reference direction based on the certainty calculated by the certainty calculation unit.
The image processing apparatus according to claim 4, further comprising.
画像処理装置が行う画像処理方法であって、
生体部分の全体または一部が含まれて撮像された撮像画像から、前記生体部分の全体または一部のいずれであるかを判定し、
前記撮像画像に前記生体部分の一部が含まれると判定された場合に、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを推定し、
前記生体部分の一部が前記生体部分の全体のうちのいずれの部分であるかが推定された前記撮像画像から、前記生体部分の角度を特徴付ける情報を強調した角度算出画像を作成し、
前記角度算出画像における前記角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する前記生体部分の角度を算出する、
各処理を含んだことを特徴とする画像処理方法。
This is an image processing method performed by an image processing device.
From the captured image captured including the whole or a part of the living body part, it is determined whether it is the whole or a part of the living body part.
When it is determined that the captured image includes a part of the living body part, it is estimated which part of the whole living body part is the part of the living body part.
From the captured image in which it is estimated which part of the living body part is a part of the whole living body part, an angle calculation image emphasizing the information characterizing the angle of the living body part is created.
A vector is generated from the information that characterizes the angle in the angle calculation image, and the angle of the living body portion with respect to a predetermined reference direction is calculated based on the generated vector.
An image processing method characterized by including each processing.
コンピュータを、
生体部分の全体または一部が含まれて撮像された撮像画像から、前記生体部分の全体または一部のいずれであるかを判定する判定部と、
前記判定部により前記撮像画像に前記生体部分の一部が含まれると判定された場合に、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを推定する推定部と、
前記推定部により前記生体部分の一部が前記生体部分の全体のうちのいずれの部分であるかが推定された前記撮像画像から、前記生体部分の角度を特徴付ける情報を強調した角度算出画像を作成する角度算出画像作成部と、
前記角度算出画像作成部により作成された角度算出画像における前記角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する前記生体部分の角度を算出する角度算出部、
として機能させるための画像処理プログラム。
Computer,
A determination unit for determining whether the living body part is the whole or a part from the captured image captured including the whole or a part of the living body part.
When the determination unit determines that the captured image includes a part of the living body part, it is estimated which part of the living body part is a part of the whole living body part. Department and
An angle calculation image emphasizing information that characterizes the angle of the living body part is created from the captured image in which a part of the living body part is estimated by the estimation unit as a part of the whole living body part. Angle calculation image creation unit and
An angle calculation unit that generates a vector from the information that characterizes the angle in the angle calculation image created by the angle calculation image creation unit, and calculates the angle of the living body portion with respect to a predetermined reference direction based on the generated vector.
An image processing program to function as.
JP2017220380A 2017-11-15 2017-11-15 Image processing equipment, image processing method and image processing program Active JP6840652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220380A JP6840652B2 (en) 2017-11-15 2017-11-15 Image processing equipment, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220380A JP6840652B2 (en) 2017-11-15 2017-11-15 Image processing equipment, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2019091311A JP2019091311A (en) 2019-06-13
JP6840652B2 true JP6840652B2 (en) 2021-03-10

Family

ID=66836411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220380A Active JP6840652B2 (en) 2017-11-15 2017-11-15 Image processing equipment, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP6840652B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7001079B2 (en) 2019-05-14 2022-01-19 横河電機株式会社 Current measuring device
CN115104056A (en) * 2020-03-25 2022-09-23 索尼集团公司 Lens optical system, light receiving device, and distance measuring system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692174B2 (en) * 2005-09-14 2011-06-01 株式会社日立製作所 Personal authentication device and door opening / closing system
WO2014142171A1 (en) * 2013-03-13 2014-09-18 富士通フロンテック株式会社 Image processing device, image processing method, and program
JP6364828B2 (en) * 2014-03-10 2018-08-01 富士通株式会社 Biometric authentication device and portable electronic device
JP2015225354A (en) * 2014-05-26 2015-12-14 株式会社モフィリア Biometric authentication device, biometric authentication method, biometric authentication program, and electronic apparatus
JP5888390B2 (en) * 2014-11-07 2016-03-22 富士通株式会社 Biometric authentication device
KR102415504B1 (en) * 2015-06-30 2022-07-04 삼성전자주식회사 Updating method and apparatus of registration database for user authentication

Also Published As

Publication number Publication date
JP2019091311A (en) 2019-06-13

Similar Documents

Publication Publication Date Title
CN106326327B (en) Method and apparatus for updating user authentication data
US20070217660A1 (en) Biometric authentication method and biometric authentication apparatus
JP5504928B2 (en) Biometric authentication device, biometric authentication method, and program
JP4305431B2 (en) Image processing apparatus, mask creation method and program
US9042606B2 (en) Hand-based biometric analysis
WO2010146675A1 (en) Biometric authentication device, biometric authentication method and computer program for biometric authentication
US8503736B2 (en) Registration device and registration method for biometric authentication, authentication device and authentication method for biometric authentication
US8670599B2 (en) Fingerprint authentication apparatus having a plurality of fingerprint sensors and method for same
JP2018026108A (en) Object tracking method, object tracking device, and program
US9129145B2 (en) Identification apparatus, identification method, and program
JP2001344604A (en) Method, device and program for composing fingerprint data, computer-readable recording medium with the program recorded thereon and living body feature data composing method
US20130259328A1 (en) Noncontact biometric identification device
JP6840652B2 (en) Image processing equipment, image processing method and image processing program
JP2006012080A (en) Biological information authentication device
KR20180012882A (en) Method and apparatus for fingerprint recognition
US9183439B2 (en) Method of searching for parameterized contours for comparing irises
Zhang et al. Adaptive orientation model fitting for latent overlapped fingerprints separation
JP6164284B2 (en) Authentication apparatus, authentication method, and computer program
WO2018030048A1 (en) Object tracking method, object tracking device, and program
JP2019028532A (en) Image processing apparatus, image processing method, and image processing program
WO2009008550A1 (en) Registering apparatus, collaiting apparatus, data structure, and storage medium
WO2007029592A1 (en) Image processing device, image judgment method, and program
JP2006277146A (en) Collating method and collating device
JP2016125995A (en) Three-dimensional shape measurement device, three-dimensional shape measurement method and program
JP2007179267A (en) Pattern matching device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210217

R150 Certificate of patent or registration of utility model

Ref document number: 6840652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150