JP2020126302A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2020126302A
JP2020126302A JP2019016810A JP2019016810A JP2020126302A JP 2020126302 A JP2020126302 A JP 2020126302A JP 2019016810 A JP2019016810 A JP 2019016810A JP 2019016810 A JP2019016810 A JP 2019016810A JP 2020126302 A JP2020126302 A JP 2020126302A
Authority
JP
Japan
Prior art keywords
image
biometric
image processing
living body
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019016810A
Other languages
Japanese (ja)
Inventor
智司 前田
Tomoji Maeda
智司 前田
壮一 ▲浜▼
壮一 ▲浜▼
Soichi Hama
幸弘 安孫子
Yukihiro Abiko
幸弘 安孫子
俊旭 若間
Toshiaki Wakama
俊旭 若間
理恵 羽佐田
Rie Hasada
理恵 羽佐田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019016810A priority Critical patent/JP2020126302A/en
Publication of JP2020126302A publication Critical patent/JP2020126302A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

To provide an image processing apparatus, an image processing method and an image processing program capable of improving authentication accuracy.SOLUTION: An image processing apparatus includes a saturation region detection unit that detects a saturation region of a pixel from a biological image obtained by photographing a biological object moving while contacting a touch panel, and a correction unit that corrects a scale of the biological image or a biological feature extracted from the biological image according to a detection result by the saturation region detection unit.SELECTED DRAWING: Figure 6

Description

本件は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program.

小型のモバイル端末等でも利用可能な生体認証の開発が進められている。モバイル端末の多くは、端末を手で保持して端末に備えられたタッチパネル等を操作する使い方がなされる。このようなモバイル端末特有の構造を利用し、タッチパネルに表示された操作用のガイドをなぞらせることで、生体の姿勢を安定させた状態で、照合に必要な生体特徴を読み取ることができる。 Development of biometric authentication that can be used in small mobile terminals is underway. Most mobile terminals are used by holding the terminal with a hand and operating a touch panel or the like provided in the terminal. By using such a structure peculiar to the mobile terminal and tracing the operation guide displayed on the touch panel, it is possible to read the biometric characteristics required for verification while keeping the posture of the biological body stable.

一方、登録生体画像と照合生体画像との間で、撮影時の撮影装置からの距離が異なると画像の縮尺度の整合が求められる。これに対応するため、生体のタッチパネル上の移動量と画像上の移動量との関係から、撮影装置から生体までの距離を推定し、推定した距離に応じて、両画像でスケールの整合を行うことで、認証精度を担保する技術が開示されている(例えば、特許文献1参照)。 On the other hand, if the registered biometric image and the matching biometric image differ in distance from the image capturing device at the time of image capturing, it is required to match the reduced scale of the images. To deal with this, the distance from the imaging device to the living body is estimated from the relationship between the movement amount of the living body on the touch panel and the movement amount on the image, and scale matching is performed on both images according to the estimated distance. Therefore, a technique for ensuring the authentication accuracy is disclosed (for example, see Patent Document 1).

特開2017−136136号公報JP, 2017-136136, A

しかしながら、撮影装置と生体とが近い場合、照明光の強度が強くなって画像上に白飛びが生じ、距離検出が困難になる。その結果、認証精度が低下する。 However, when the photographing device and the living body are close to each other, the intensity of the illumination light becomes strong, and white spots occur on the image, which makes it difficult to detect the distance. As a result, the authentication accuracy decreases.

1つの側面では、本発明は、認証精度を向上させることができる画像処理が可能な画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide an image processing device, an image processing method, and an image processing program capable of image processing capable of improving authentication accuracy.

1つの態様では、画像処理装置は、タッチパネルに接触しながら移動する生体を撮影することで得られる生体画像から画素の飽和領域を検出する飽和領域検出部と、前記飽和領域検出部による検出結果に応じて、前記生体画像または前記生体画像から抽出された生体特徴のスケールを補正する補正部と、を備える。 In one aspect, the image processing device provides a saturated area detection unit that detects a saturated area of a pixel from a biometric image obtained by capturing an image of a living body that moves while touching a touch panel, and a detection result by the saturated area detection unit. Accordingly, a correction unit that corrects the scale of the biometric image or the biometric feature extracted from the biometric image is provided.

認証精度を向上させることができる画像処理を可能とする。 This enables image processing that can improve authentication accuracy.

(a)〜(c)は画像に生じる白飛びを説明するための図である。(A)-(c) is a figure for demonstrating the overexposure which arises in an image. (a)〜(c)は距離とスケールとの関係を説明するための図である。(A)-(c) is a figure for demonstrating the relationship between distance and a scale. 白飛びを説明するための図である。FIG. 6 is a diagram for explaining overexposure. (a)は実施例1に係る画像処理装置のハードウェア構成を説明するためのブロック図であり、(b)は画像処理プログラムの実行によって実現される各機能のブロック図である。(A) is a block diagram for explaining the hardware configuration of the image processing apparatus according to the first embodiment, and (b) is a block diagram of each function realized by executing an image processing program. 画像処理装置が実行するフローチャートを例示する図である。It is a figure which illustrates the flowchart which an image processing apparatus performs. 実施例1の概略を説明するための図である。FIG. 3 is a diagram for explaining the outline of the first embodiment. 手のひら領域の抽出を例示する図である。It is a figure which illustrates extraction of a palm area. (a)は実施例2に係る画像処理装置が実行するフローチャートを例示する図であり、(b)はテーブルに格納されているテーブルを例示する図である。(A) is a figure which illustrates the flowchart which the image processing apparatus which concerns on Example 2 performs, (b) is a figure which illustrates the table stored in the table. 実施例3に係る画像処理装置が実行するフローチャートを例示する図である。FIG. 9 is a diagram illustrating a flowchart executed by an image processing apparatus according to a third embodiment.

実施例の説明に先立って、画像の一部に生じる白飛びについて説明する。図1(a)は、画像処理装置200を例示する図である。図1(a)で例示するように、画像処理装置200は、タッチパネル201および生体センサ202を備える。生体センサ202には、LEDなどの照明と撮影装置とが備わっている。 Prior to the description of the embodiments, whiteout that occurs in a part of an image will be described. FIG. 1A is a diagram illustrating the image processing device 200. As illustrated in FIG. 1A, the image processing device 200 includes a touch panel 201 and a biosensor 202. The biometric sensor 202 is equipped with an illumination device such as an LED and a photographing device.

例えば、図1(a)で例示するように、タッチパネル201の画面に、認証用ガイドが表示される。図1(a)の例では、2本の認証用ガイドが表示されている。画像処理装置200のユーザは、図1(b)および図1(c)で例示するように、この2本の認証用ガイド上を、指定された2本の指でなぞる。例えば、ユーザは、親指と人差し指の2本の指を認証用ガイドのそれぞれに接触させ、ガイドの指示(例えば矢印)に沿って手を移動させる。この場合、ユーザの手のひらがタッチパネル201に対向された状態で移動することになる。 For example, as illustrated in FIG. 1A, the authentication guide is displayed on the screen of the touch panel 201. In the example of FIG. 1A, two authentication guides are displayed. The user of the image processing apparatus 200 traces these two authentication guides with two designated fingers, as illustrated in FIGS. 1B and 1C. For example, the user touches each of the authentication guides with two fingers, the thumb and the index finger, and moves the hand along the guide (for example, an arrow). In this case, the palm of the user moves while facing the touch panel 201.

生体センサ202の照明は、手のひらに光を照射する。生体センサ202の撮影装置は、手のひらからの反射光を利用して、手のひらを撮影する。具体的には、生体センサ202の撮影装置は、分割した画像を連続的に撮影することで、手のひらの所定の範囲を撮影する。画像処理装置200は、撮影された手のひらから生体特徴を読み取る。 The living body sensor 202 illuminates the palm with light. The imaging device of the biometric sensor 202 uses the reflected light from the palm to image the palm. Specifically, the imaging device of the biometric sensor 202 captures a predetermined range of the palm by continuously capturing the divided images. The image processing apparatus 200 reads the biometric feature from the captured palm.

しかしながら、手のひらの大きさ、指の長さの個人差や、異なる日での操作によって手のひらの高さが不安定になるため、手のひらの高さにバラツキが生じる。例えば、図2(a)は、手のひらと生体センサ202の撮影装置との距離が適正値である場合を例示する図である。図2(b)は、手のひらと生体センサ202の撮影装置との距離が適正値と比較して小さい場合を例示する図である。 However, the height of the palm becomes unstable due to individual differences in the size of the palm, the length of the finger, and the operation on different days, so that the height of the palm varies. For example, FIG. 2A is a diagram illustrating a case where the distance between the palm and the imaging device of the biometric sensor 202 is an appropriate value. FIG. 2B is a diagram illustrating a case where the distance between the palm and the imaging device of the biometric sensor 202 is smaller than an appropriate value.

図2(a)の場合がユーザの生体特徴の登録時で、図2(b)の場合が当該ユーザの認証時であれば、図2(c)で例示するように、照合用の生体画像から検出された距離に応じて照合用の生体画像または当該生体画像から抽出された生体特徴を縮小する処理を行う。それにより、登録用の生体画像と照合用の生体画像との間で、スケールが整合して照合が可能となり、生体認証の安定性を維持することができる。 If the case of FIG. 2A is when the biometric feature of the user is registered, and the case of FIG. 2B is when the user is authenticated, as shown in FIG. 2C, the biometric image for verification is used. The biometric image for collation or the biometric feature extracted from the biometric image is reduced according to the distance detected from the biometric image. As a result, the scales of the biometric image for registration and the biometric image for verification can be matched and verification can be performed, and the stability of biometric authentication can be maintained.

しかしながら、手のひらが生体センサ202の撮影装置に近いと、生体センサ202の照明から照射される照明光の光強度が高くなる。この場合、図3で例示するように、画像の一部に白飛びが生じる場合がある。図3では、網掛けの部分が白飛びを表している。白飛びが生じると、生体画像から距離を検出する場合の精度が低下する。それにより、距離の検出に失敗するか、実際の距離とは異なる距離が検出される。その結果、照合用の生体画像のスケール調整精度が低下し、生体認証の安定性が低下するおそれがある。 However, when the palm is close to the imaging device of the biometric sensor 202, the light intensity of the illumination light emitted from the illumination of the biometric sensor 202 becomes high. In this case, as illustrated in FIG. 3, whiteout may occur in part of the image. In FIG. 3, the shaded portion represents overexposure. When whiteout occurs, the accuracy in detecting the distance from the biometric image decreases. Thereby, the detection of the distance fails or a distance different from the actual distance is detected. As a result, the scale adjustment accuracy of the biometric image for collation decreases, and the stability of biometric authentication may decrease.

以下の実施例では、白飛びを利用することで、認証精度を向上させることができる画像処理を可能とする画像処理装置、画像処理方法および画像処理プログラムについて説明する。 In the following embodiments, an image processing apparatus, an image processing method, and an image processing program that enable image processing that can improve authentication accuracy by utilizing whiteout will be described.

図4(a)は、実施例1に係る画像処理装置100のハードウェア構成を説明するためのブロック図である。図4(a)で例示するように、画像処理装置100は、CPU101、RAM102、記憶装置103、表示装置104、入力装置105、生体センサ106などを備える。これらの各機器は、バスなどによって接続されている。 FIG. 4A is a block diagram for explaining the hardware configuration of the image processing apparatus 100 according to the first embodiment. As illustrated in FIG. 4A, the image processing device 100 includes a CPU 101, a RAM 102, a storage device 103, a display device 104, an input device 105, a biosensor 106, and the like. Each of these devices is connected by a bus or the like.

CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。 A CPU (Central Processing Unit) 101 is a central processing unit. The CPU 101 includes one or more cores. A RAM (Random Access Memory) 102 is a volatile memory that temporarily stores a program executed by the CPU 101, data processed by the CPU 101, and the like.

記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。本実施例に係る画像処理プログラムは、記憶装置103に記憶されている。 The storage device 103 is a non-volatile storage device. As the storage device 103, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used. The image processing program according to the present embodiment is stored in the storage device 103.

表示装置104は、液晶ディスプレイ、エレクトロルミネッセンスパネル等であり、後述する各処理の結果などを表示する。入力装置105は、タッチセンサであり、表示装置104上に設けられている。それにより、表示装置104および入力装置105は、タッチパネルとして機能する。入力装置105は、ユーザが表示装置104の画面に対して手の指などの生体を接触させる領域を検知することができる。 The display device 104 is a liquid crystal display, an electroluminescence panel, or the like, and displays a result of each process described below and the like. The input device 105 is a touch sensor and is provided on the display device 104. Thereby, the display device 104 and the input device 105 function as a touch panel. The input device 105 can detect a region in which the user touches the screen of the display device 104 with a living body such as a finger of a hand.

生体センサ106は、照明107、撮影装置108などを備えるセンサである。照明107は、手のひらなどの生体に光を照射する。撮影装置108は、生体からの反射光を利用して、ユーザの生体画像を取得する。具体的には、撮影装置108は、分割した画像を連続的に撮影することで、生体の所定の範囲を撮影する。 The biometric sensor 106 is a sensor including an illumination 107, an imaging device 108, and the like. The illumination 107 irradiates a living body such as a palm with light. The imaging device 108 acquires the biometric image of the user by using the reflected light from the biological body. Specifically, the image capturing device 108 captures a predetermined range of the living body by continuously capturing the divided images.

記憶装置103に記憶されている画像処理プログラムは、実行可能にRAM102に展開される。CPU101は、RAM102に展開された画像処理プログラムを実行する。それにより、画像処理装置100による各処理が実行される。画像処理プログラムが実行されることによって、登録処理、認証処理などが実行される。 The image processing program stored in the storage device 103 is expanded in the RAM 102 in an executable manner. The CPU 101 executes the image processing program loaded in the RAM 102. Thereby, each processing by the image processing apparatus 100 is executed. By executing the image processing program, registration processing, authentication processing, etc. are executed.

登録処理は、生体センサ106が取得した登録用の生体画像から抽出された生体特徴を登録生体特徴として登録する処理である。本実施例においては、手のひら画像から抽出された局所特徴が生体特徴として登録される。局所特徴として、手のひら掌紋の一部である特定のシワなどを用いることができる。認証処理は、認証処理時に生体センサ106が取得した照合用の生体画像から抽出された照合生体特徴と、登録生体特徴とを照合する処理である。本実施例においては、一例として、認証処理時に取得された照合生体特徴と登録生体特徴との類似度がしきい値以上であれば、被認証者が登録されたユーザと同一人物であると判定される。 The registration process is a process of registering the biometric feature extracted from the biometric image for registration acquired by the biometric sensor 106 as a registered biometric feature. In this embodiment, the local feature extracted from the palm image is registered as the biometric feature. Specific wrinkles, which are part of the palm and palm prints, can be used as the local features. The authentication process is a process of matching the registered biometric feature with the verification biometric feature extracted from the biometric image for verification acquired by the biometric sensor 106 during the authentication process. In the present embodiment, as an example, if the similarity between the verification biometric feature acquired during the authentication process and the registered biometric feature is greater than or equal to a threshold value, it is determined that the person to be authenticated is the same person as the registered user. To be done.

図4(b)は、画像処理プログラムの実行によって実現される各機能のブロック図である。画像処理プログラムの実行によって、接触位置検出部10、ガイド移動部20、移動量算出部30、生体画像取得部40、白飛び検出部50、テーブル55、距離検出部60、スケール変換部70、生体特徴抽出部80、認証部90などとして機能する。 FIG. 4B is a block diagram of each function realized by executing the image processing program. By executing the image processing program, the contact position detection unit 10, the guide movement unit 20, the movement amount calculation unit 30, the living body image acquisition unit 40, the whiteout detection unit 50, the table 55, the distance detection unit 60, the scale conversion unit 70, the living body. It functions as the feature extraction unit 80, the authentication unit 90, and the like.

表示装置104は、画面に認証用ガイドおよび矢印を表示させる。接触位置検出部10は、入力装置105におけるユーザの生体の接触位置を検出する。ガイド移動部20は、ユーザの接触位置が認証用ガイドに沿って移動したか否かを判定する。ユーザの接触位置が認証用ガイドに沿って移動したと判定された場合、移動量算出部30は、接触位置検出部10が検出する接触位置の変化を検出することで、接触位置の移動量を算出する。 The display device 104 displays an authentication guide and an arrow on the screen. The contact position detection unit 10 detects the contact position of the user's living body on the input device 105. The guide moving unit 20 determines whether the contact position of the user has moved along the authentication guide. When it is determined that the contact position of the user has moved along the authentication guide, the movement amount calculation unit 30 detects the change in the contact position detected by the contact position detection unit 10 to determine the movement amount of the contact position. calculate.

照明107は、ユーザの生体に向かって照明光を照射する。生体画像取得部40は、撮影装置108から生体画像を取得する。白飛び検出部50は、生体画像取得部40が取得した生体画像の白飛び領域を検出する。白飛び領域は、生体画像のうち画素が飽和した飽和領域のことである。例えば、輝度値が0から255までの値で検出される場合には、輝度値が255となる領域のことである。白飛び検出部50は、生体画像から画素の飽和領域の有無を判定することで、白飛び領域を検出することができる。白飛び検出部50は、生体画像における白飛び領域を検出することで、白飛び領域の有無を判定する。また、白飛び検出部50は、検出した白飛び領域の面積などを算出する。例えば、白飛び検出部50は、ノイズの誤検知抑制のために、飽和領域の面積が所定の閾値を上回る場合に、白飛び領域が有ると判定してもよい。 The illumination 107 illuminates the living body of the user with illumination light. The biometric image acquisition unit 40 acquires a biometric image from the imaging device 108. The whiteout detection unit 50 detects a whiteout area in the biometric image acquired by the biometric image acquisition unit 40. The whiteout area is a saturated area in which pixels are saturated in the biometric image. For example, when the brightness value is detected as a value from 0 to 255, the area has a brightness value of 255. The whiteout detection unit 50 can detect the whiteout area by determining the presence or absence of the saturated area of the pixel from the biometric image. The whiteout detection unit 50 determines the presence or absence of the whiteout area by detecting the whiteout area in the biometric image. The whiteout detection unit 50 also calculates the area of the detected whiteout area and the like. For example, the whiteout detection unit 50 may determine that there is a whiteout area when the area of the saturated region exceeds a predetermined threshold in order to suppress false detection of noise.

距離検出部60は、生体画像取得部40が取得した画像における生体の移動量と移動量算出部30が算出した接触位置の移動量とを用いて、手のひらと撮影装置108との距離を検出する。例えば、距離検出部60は、手のひらと撮影装置108との距離に応じて画像における特徴点の移動量が変化することを利用して、手のひらと生体センサ106との距離を検出する。 The distance detection unit 60 detects the distance between the palm and the imaging device 108 by using the moving amount of the living body in the image acquired by the biological image acquiring unit 40 and the moving amount of the contact position calculated by the moving amount calculating unit 30. .. For example, the distance detection unit 60 detects the distance between the palm and the biometric sensor 106 by utilizing the fact that the amount of movement of the feature point in the image changes according to the distance between the palm and the imaging device 108.

スケール変換部70は、白飛び検出部50の検出結果または距離検出部60の検出結果を用いて、生体画像のスケールを補正する。生体特徴抽出部80は、生体画像から生体特徴を抽出する。認証部90は、生体特徴抽出部80が抽出した照合生体特徴と、予め登録された登録生体特徴とを照合し、類似度が閾値以上であれば被認証者が本人であると認証する。 The scale conversion unit 70 corrects the scale of the biometric image using the detection result of the whiteout detection unit 50 or the detection result of the distance detection unit 60. The biometric feature extraction unit 80 extracts biometric features from the biometric image. The authentication unit 90 compares the collation biometric feature extracted by the biometric feature extraction unit 80 with the registered biometric feature registered in advance, and authenticates the person to be authenticated if the similarity is equal to or more than a threshold value.

図5は、画像処理装置100が実行するフローチャートを例示する図である。図5で例示するように、生体画像取得部40は、生体画像を取得する(ステップS1)。次に、白飛び検出部50は、ステップS1で取得された生体画像に白飛び領域が有るか否かを判定する(ステップS2)。 FIG. 5 is a diagram illustrating a flowchart executed by the image processing apparatus 100. As illustrated in FIG. 5, the biometric image acquisition unit 40 acquires a biometric image (step S1). Next, the whiteout detection unit 50 determines whether the biometric image acquired in step S1 includes a whiteout area (step S2).

ステップS2で「Yes」と判定された場合は、生体画像に白飛びが生じていることになり、手のひらと撮影装置108との距離が小さいことになる。そこで、生体画像のスケールを小さくすることが望まれる。そこで、ステップS2で「Yes」と判定された場合、スケール変換部70は、テーブル55に格納されている個別スケール(1よりも小さい値であって、例えば0.8)を倍率として取得する(ステップS3)。 If it is determined to be “Yes” in step S2, it means that overexposure has occurred in the biometric image, and the distance between the palm and the imaging device 108 is small. Therefore, it is desired to reduce the scale of the biometric image. Therefore, when it is determined to be “Yes” in step S2, the scale conversion unit 70 acquires the individual scale (a value smaller than 1, for example, 0.8) stored in the table 55 as the scaling factor ( Step S3).

ステップS2で「No」と判定された場合は、生体画像に白飛びが生じていないことになる。そこで、ステップS2で「No」と判定された場合は、距離検出部60は、手のひらと撮影装置108との距離を検出する(ステップS4)。次に、スケール変換部70は、ステップS4で検出された距離に応じて、倍率を算出する(ステップS5)。例えば、距離が小さいほど倍率が小さくなるようにし、距離が大きいほど倍率が大きくなるようにする。 When it is determined to be “No” in step S2, it means that there is no whiteout in the biometric image. Therefore, when it is determined as “No” in step S2, the distance detection unit 60 detects the distance between the palm and the image capturing apparatus 108 (step S4). Next, the scale conversion unit 70 calculates the magnification according to the distance detected in step S4 (step S5). For example, the smaller the distance, the smaller the magnification, and the larger the distance, the larger the magnification.

ステップS3またはステップS5の実行後、スケール変換部70は、生体画像のスケールに倍率を掛け合わせることで、生体画像のスケールを補正する(ステップS6)。この処理により、倍率が小さければ生体画像が縮小され、倍率が大きければ生体画像が拡大される。生体特徴抽出部80は、スケール調整後の生体画像から生体特徴を照合生体特徴として抽出する(ステップS7)。次に、認証部90は、照合生体特徴と登録生体特徴とを照合する(ステップS8)。例えば、認証部90は、照合生体特徴と登録生体特徴との類似度が閾値以上であれば、被認証者であるユーザが本人であると認証する。 After execution of step S3 or step S5, the scale conversion unit 70 corrects the scale of the biometric image by multiplying the scale of the biometric image by the scale factor (step S6). By this processing, the biometric image is reduced if the magnification is small and the biometric image is enlarged if the magnification is large. The biometric feature extraction unit 80 extracts a biometric feature from the scale-adjusted biometric image as a matching biometric feature (step S7). Next, the authentication unit 90 collates the collated biometric feature with the registered biometric feature (step S8). For example, if the similarity between the matching biometric feature and the registered biometric feature is greater than or equal to the threshold, the authentication unit 90 authenticates the user who is the authenticated user as the user.

本実施例によれば、タッチパネルに接触しながら移動する生体を撮影することで得られる生体画像から画素の飽和領域の有無が検出される。図6で例示するように、生体画像に飽和領域が検出された場合に、生体画像のスケールが補正される。本実施例においては、固定の倍率を用いて生体画像が縮小される。この構成によれば、白飛びを利用して、登録用の生体画像と照合用の生体画像との間で、スケールが整合するようになる。すなわち、認証精度を向上させることができる画像処理が可能となるのである。 According to the present embodiment, the presence/absence of a saturated region of a pixel is detected from a biometric image obtained by capturing an image of a living body moving while touching a touch panel. As illustrated in FIG. 6, when a saturated region is detected in the biometric image, the scale of the biometric image is corrected. In this embodiment, the biometric image is reduced using a fixed magnification. According to this configuration, the scale is matched between the biometric image for registration and the biometric image for matching by utilizing the whiteout. That is, it is possible to perform image processing that can improve authentication accuracy.

なお、本実施例においては、生体画像のスケールを補正しているが、それに限られない。例えば、生体画像から抽出された生体特徴のスケールを補正してもよい。以下の実施例でも同様である。 Although the scale of the biometric image is corrected in this embodiment, the present invention is not limited to this. For example, the scale of the biometric feature extracted from the biometric image may be corrected. The same applies to the following examples.

また、手のひらの背景が飽和領域として検出されるおそれがあるため、生体画像取得部40は、撮影装置108が取得した画像から手のひら領域を抽出し、当該手のひら領域を生体画像とし取得してもよい。以下の実施例でも同様である。例えば、生体画像取得部40は、図7で例示するように、エッジ法などを用いて、照合用の生体画像から手の輪郭を検出し、当該手の輪郭の内部を手のひら領域として抽出し、生体画像として取得する。この場合、手のひらの飽和領域以外の飽和領域が検出されることを抑制することができる。手のひら領域の生体画像から白飛び領域が検出されれば、生体画像または当該生体画像から抽出された生体特徴が縮小される。その後、照合生体特徴と登録生体特徴とが照合される。 Since the background of the palm may be detected as a saturated region, the biometric image acquisition unit 40 may extract the palm region from the image acquired by the imaging device 108 and acquire the palm region as the biometric image. .. The same applies to the following examples. For example, as illustrated in FIG. 7, the biometric image acquisition unit 40 detects the contour of the hand from the biometric image for matching by using the edge method or the like, and extracts the inside of the contour of the hand as a palm region, Acquire as a biometric image. In this case, it is possible to suppress the detection of a saturated region other than the saturated region of the palm. When the whiteout area is detected from the biometric image of the palm area, the biometric image or the biometric feature extracted from the biometric image is reduced. Then, the collated biometric feature and the registered biometric feature are collated.

実施例1では、白飛び領域が検出されれば、1つの個別スケールを用いてスケール補正を行ったが、それに限られない。例えば、生体センサ106の照明からは、カメラの撮影範囲全体が撮影されるように、発散する光が照射される。その光の強度が一定であるとした場合、手のひらと生体センサ106との距離に応じて、白飛び領域の大きさが変化する。実施例2では、この現象を利用する。 In the first embodiment, if the whiteout area is detected, the scale correction is performed using one individual scale, but the present invention is not limited to this. For example, from the illumination of the biometric sensor 106, diverging light is emitted so that the entire image capturing range of the camera is captured. If the intensity of the light is constant, the size of the whiteout area changes according to the distance between the palm and the biometric sensor 106. The second embodiment utilizes this phenomenon.

例えば、手のひらが生体センサ106に最も近づいた場合に白飛び領域が最大となり、手のひらが生体センサ106から離れるに従って、白飛び領域は小さくなる。手のひらが生体センサ106からさらに離れると、白飛び領域は消滅する。この現象を利用し、白飛び領域の大きさに応じて、それぞれ個別の倍率を適用して生体画像のスケールを調整する。この場合、白飛び領域と係数との関係をテーブル55に予め格納しておく。 For example, the whiteout area becomes maximum when the palm comes closest to the biosensor 106, and the whiteout area becomes smaller as the palm moves away from the biosensor 106. When the palm of the hand further moves away from the biosensor 106, the whiteout area disappears. Utilizing this phenomenon, the scale of the biometric image is adjusted by applying individual magnifications according to the size of the whiteout area. In this case, the relationship between the whiteout area and the coefficient is stored in the table 55 in advance.

図8(a)は、画像処理装置100が実行するフローチャートを例示する図である。図8(a)のフローチャートが図5のフローチャートと異なる点は、ステップS3の代わりにステップS3´が実行される点である。ステップS3´について説明する。ステップS2で「Yes」と判定された場合、白飛び検出部50は、検出された白飛び領域の面積を算出する。スケール変換部70は、この白飛び領域の面積に対応する倍率をテーブル55から読み込む(ステップS3´)。 FIG. 8A is a diagram illustrating a flowchart executed by the image processing apparatus 100. The flowchart of FIG. 8A differs from the flowchart of FIG. 5 in that step S3′ is executed instead of step S3. The step S3' will be described. When it is determined to be “Yes” in step S2, the whiteout detection unit 50 calculates the area of the detected whiteout area. The scale conversion unit 70 reads the magnification corresponding to the area of the whiteout area from the table 55 (step S3′).

図8(b)は、テーブル55に格納されているテーブルを例示する図である。図8(b)で例示するように、白飛び領域の面積と、倍率とが関連付けて格納されている。このテーブルは、予め作成しておくことができる。なお、各倍率に関連付けられる面積には、所定の範囲(幅)が設定されていてもよい。 FIG. 8B is a diagram illustrating a table stored in the table 55. As illustrated in FIG. 8B, the area of the whiteout area and the magnification are stored in association with each other. This table can be created in advance. A predetermined range (width) may be set for the area associated with each magnification.

本実施例によれば、白飛び領域の面積に応じた倍率が取得される。この構成によれば、登録用の生体画像と照合用の生体画像との間で、より高い精度でスケールが整合するようになる。 According to this embodiment, the magnification corresponding to the area of the whiteout area is acquired. With this configuration, the scales of the biometric image for registration and the biometric image for matching can be matched with higher accuracy.

上記各例においては、生体画像に白飛び領域が検出されなかった場合に距離が検出されているが、それに限られない。実施例3では、生体画像に白飛び領域が検出された場合でも距離検出を行う例について説明する。 In each of the above examples, the distance is detected when the whiteout area is not detected in the biometric image, but the present invention is not limited to this. In the third embodiment, an example in which distance detection is performed even when a whiteout area is detected in a biometric image will be described.

図9は、画像処理装置100が実行するフローチャートを例示する図である。図9で例示するように、生体画像取得部40は、生体画像を取得する(ステップS11)。次に、白飛び検出部50は、ステップS11で取得された生体画像に白飛び領域が有るか否かを判定する(ステップS12)。 FIG. 9 is a diagram illustrating a flowchart executed by the image processing apparatus 100. As illustrated in FIG. 9, the biometric image acquisition unit 40 acquires a biometric image (step S11). Next, the whiteout detection unit 50 determines whether the biometric image acquired in step S11 includes a whiteout area (step S12).

ステップS12で「Yes」と判定された場合、白飛び検出部50は、ステップS12で「Yes」と判定された結果を記憶する(ステップS13)。ステップS12で「No」と判定された場合またはステップS13の実行後、距離検出部60は、手のひらと撮影装置108との距離を検出する(ステップS14)。 When it is determined to be “Yes” in step S12, the whiteout detection unit 50 stores the result of determination to be “Yes” in step S12 (step S13). When it is determined to be “No” in step S12 or after step S13 is executed, the distance detection unit 60 detects the distance between the palm and the imaging device 108 (step S14).

次に、距離検出部60は、手のひらと撮影装置108との距離を検出できたか否かを判定する(ステップS15)。ステップS15で「Yes」と判定された場合には、スケール変換部70は、ステップS14で検出された距離に応じて、倍率を算出する(ステップS16)。例えば、距離が小さいほど倍率が小さくなるようにし、距離が大きいほど倍率が大きくなるようにする。 Next, the distance detection unit 60 determines whether or not the distance between the palm and the imaging device 108 has been detected (step S15). When it is determined to be “Yes” in step S15, the scale conversion unit 70 calculates the magnification according to the distance detected in step S14 (step S16). For example, the smaller the distance, the smaller the magnification, and the larger the distance, the larger the magnification.

ステップS15で「No」と判定された場合、スケール変換部70は、ステップS12で「Yes」と判定された結果が白飛び検出部50に記憶されているか否かを判定する(ステップS17)。ステップS17で「No」と判定された場合、スケール変換部70は、テーブル55から倍率1を読み込む(ステップS18)。ステップS17で「Yes」と判定された場合、スケール変換部70は、テーブル55から倍率2を読み込む(ステップS19)。倍率2は、例えば倍率1よりも小さい値である。 When it is determined to be “No” in step S15, the scale conversion unit 70 determines whether or not the result determined to be “Yes” in step S12 is stored in the whiteout detection unit 50 (step S17). When it is determined to be “No” in step S17, the scale conversion unit 70 reads the magnification 1 from the table 55 (step S18). When it is determined to be “Yes” in step S17, the scale conversion unit 70 reads the magnification 2 from the table 55 (step S19). The scaling factor 2 is a value smaller than the scaling factor 1, for example.

ステップS16の実行後、ステップS18の実行後、またはステップS19の実行後、スケール変換部70は、生体画像のスケールに倍率を掛け合わせることで、生体画像のスケールを補正する(ステップS20)。この処理により、倍率が小さければ生体画像が縮小され、倍率が大きければ生体画像が拡大される。生体特徴抽出部80は、スケール調整後の生体画像から照合生体特徴を抽出する(ステップS21)。次に、認証部90は、照合生体特徴と登録生体特徴とを照合する(ステップS22)。例えば、認証部90は、照合生体特徴と登録生体特徴との類似度が閾値以上であれば、被認証者であるユーザが本人であると認証する。 After execution of step S16, after execution of step S18, or after execution of step S19, the scale conversion unit 70 corrects the scale of the biometric image by multiplying the scale of the biometric image by the scale factor (step S20). By this processing, the biometric image is reduced if the magnification is small and the biometric image is enlarged if the magnification is large. The biometric feature extraction unit 80 extracts the matching biometric feature from the scale-adjusted biometric image (step S21). Next, the authentication unit 90 compares the verification biometric feature with the registered biometric feature (step S22). For example, if the similarity between the matching biometric feature and the registered biometric feature is greater than or equal to the threshold, the authentication unit 90 authenticates the user who is the authenticated user as the user.

本実施例によれば、距離検出部60による距離検出の可否と、白飛び検出部50による検出結果とに応じて、生体画像または生体特徴のスケールを補正する場合の倍率を変更することができる。この構成では、白飛びが検出されなかったものの距離検出に失敗した場合においても、スケールの補正が可能となる。 According to the present embodiment, the magnification for correcting the scale of the biometric image or the biometric feature can be changed according to whether or not the distance detection unit 60 can detect the distance and the detection result of the whiteout detection unit 50. .. With this configuration, it is possible to correct the scale even when the whiteout has not been detected but the distance detection has failed.

上記各例において、白飛び検出部50が、タッチパネルに接触しながら移動する生体を撮影することで得られる生体画像から画素の飽和領域を検出する飽和領域検出部の一例として機能する。スケール変換部70が、前記飽和領域検出部による検出結果に応じて、前記生体画像または前記生体画像から抽出された生体特徴のスケールを補正する補正部の一例として機能する。生体画像取得部が、前記生体画像から手のひら領域を抽出する抽出部の一例として機能する。距離検出部60が、前記タッチパネル上での前記生体の移動量と、前記生体画像における前記生体の移動量とに基づいて、前記生体画像を取得する撮影装置と前記生体との距離を検出する距離検出部の一例として機能する。 In each of the above examples, the whiteout detection unit 50 functions as an example of a saturated region detection unit that detects a saturated region of a pixel from a biometric image obtained by capturing an image of a living body that moves while touching a touch panel. The scale conversion unit 70 functions as an example of a correction unit that corrects the scale of the biometric image or the biometric feature extracted from the biometric image according to the detection result of the saturated region detection unit. The biometric image acquisition unit functions as an example of an extraction unit that extracts a palm region from the biometric image. Distance at which the distance detection unit 60 detects the distance between the living body image capturing device and the living body based on the moving distance of the living body on the touch panel and the moving distance of the living body in the living body image. It functions as an example of the detection unit.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications and alterations are possible within the scope of the gist of the present invention described in the claims. It can be changed.

10 接触位置検出部
20 ガイド移動部
30 移動量算出部
40 生体画像取得部
50 白飛び検出部
55 テーブル
60 距離検出部
70 スケール変換部
80 生体特徴抽出部
90 認証部
100 画像処理装置
104 表示装置
105 入力装置
106 生体センサ
107 照明
108 撮影装置
DESCRIPTION OF SYMBOLS 10 Contact position detection part 20 Guide moving part 30 Moving amount calculation part 40 Biometric image acquisition part 50 Whiteout highlight detection part 55 Table 60 Distance detection part 70 Scale conversion part 80 Biometric feature extraction part 90 Authentication part 100 Image processing device 104 Display device 105 Input device 106 Biometric sensor 107 Illumination 108 Imaging device

Claims (9)

タッチパネルに接触しながら移動する生体を撮影することで得られる生体画像から画素の飽和領域を検出する飽和領域検出部と、
前記飽和領域検出部による検出結果に応じて、前記生体画像または前記生体画像から抽出された生体特徴のスケールを補正する補正部と、を備えることを特徴とする画像処理装置。
A saturated area detection unit that detects a saturated area of a pixel from a biological image obtained by capturing an image of a living body moving while touching a touch panel,
An image processing apparatus, comprising: a correction unit that corrects a scale of the biometric image or a biometric feature extracted from the biometric image according to a detection result of the saturated region detection unit.
前記補正部は、前記飽和領域検出部によって前記飽和領域が検出された場合、固定の倍率を用いて前記生体画像または前記生体特徴を縮小することを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the correction unit reduces the biometric image or the biometric feature by using a fixed magnification when the saturation region is detected by the saturation region detection unit. 前記補正部は、前記飽和領域の大きさに応じた倍率を用いて前記生体画像または前記生体特徴を縮小することを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the correction unit reduces the biometric image or the biometric feature by using a magnification according to the size of the saturated region. 前記生体画像から手のひら領域を抽出する抽出部を備え、
前記飽和領域検出部は、前記手のひら領域において、前記飽和領域を検出することを特徴とする請求項1〜3のいずれか一項に記載の画像処理装置。
An extraction unit for extracting a palm region from the biometric image,
The image processing apparatus according to claim 1, wherein the saturated area detection unit detects the saturated area in the palm area.
前記タッチパネル上での前記生体の移動量と、前記生体画像における前記生体の移動量とに基づいて、前記生体画像を取得する撮影装置と前記生体との距離を検出する距離検出部を備えることを特徴とする請求項1〜4のいずれか一項に記載の画像処理装置。 Based on the movement amount of the living body on the touch panel and the movement amount of the living body in the living body image, a distance detection unit that detects a distance between the imaging device that acquires the living body image and the living body is provided. The image processing apparatus according to any one of claims 1 to 4, characterized in that: 前記距離検出部は、前記飽和領域検出部によって前記生体画像に前記飽和領域が検出されなかった場合に、前記撮影装置と前記生体との距離を検出することを特徴とする請求項5記載の画像処理装置。 The image according to claim 5, wherein the distance detecting unit detects a distance between the imaging device and the living body when the saturated region is not detected in the living body image by the saturated region detecting unit. Processing equipment. 前記補正部は、前記距離検出部による距離検出の可否と、前記飽和領域検出部による検出結果とに応じて、前記生体画像または前記生体特徴のスケールを補正する場合の倍率を変更することを特徴とする請求項5記載の画像処理装置。 The correction unit changes the magnification when correcting the scale of the biometric image or the biometric feature according to whether or not the distance detection unit can detect the distance and the detection result of the saturated region detection unit. The image processing apparatus according to claim 5. 飽和検出部が、タッチパネルに接触しながら移動する生体を撮影することで得られる生体画像から画素の飽和領域を検出し、
補正部が、前記飽和領域検出部による検出結果に応じて、前記生体画像または前記生体画像から抽出された生体特徴のスケールを補正する、ことを特徴とする画像処理方法。
The saturation detection unit detects a saturated region of pixels from a biometric image obtained by capturing an image of a living body moving while touching a touch panel,
An image processing method, wherein the correction unit corrects the scale of the biometric image or the biometric feature extracted from the biometric image according to the detection result by the saturated region detection unit.
コンピュータに、
タッチパネルに接触しながら移動する生体を撮影することで得られる生体画像から画素の飽和領域を検出する処理と、
前記飽和領域の検出結果に応じて、前記生体画像または前記生体画像から抽出された生体特徴のスケールを補正する処理と、を実行させることを特徴とする画像処理プログラム。
On the computer,
A process of detecting a saturated region of pixels from a biometric image obtained by capturing an image of a living body moving while touching a touch panel,
An image processing program for executing a process of correcting the scale of a biometric image or a biometric feature extracted from the biometric image according to a detection result of the saturated region.
JP2019016810A 2019-02-01 2019-02-01 Image processing apparatus, image processing method and image processing program Pending JP2020126302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019016810A JP2020126302A (en) 2019-02-01 2019-02-01 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016810A JP2020126302A (en) 2019-02-01 2019-02-01 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2020126302A true JP2020126302A (en) 2020-08-20

Family

ID=72083958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016810A Pending JP2020126302A (en) 2019-02-01 2019-02-01 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2020126302A (en)

Similar Documents

Publication Publication Date Title
US9330325B2 (en) Apparatus and method for reducing noise in fingerprint images
US10171717B2 (en) Image capture device and method for capturing image for biometric authentication, biometric authentication apparatus based on distance between image sensor and first portion of subject
US10896250B2 (en) Biometric authentication apparatus and biometric authentication method
JP6583025B2 (en) Biological information processing apparatus, biological information processing method, biological information processing program, and distance detection apparatus
WO2020216091A1 (en) Image processing method and related apparatus
US20140232696A1 (en) Information processing apparatus and information processing method
JP5751019B2 (en) Biological information processing apparatus, biological information processing method, and biological information processing program
JP5846291B2 (en) Biometric authentication device, biometric authentication method, and biometric authentication program
US10395090B2 (en) Symbol detection for desired image reconstruction
JP6658188B2 (en) Image processing apparatus, image processing method, and image processing program
US10635799B2 (en) Biometric authentication apparatus, biometric authentication method, and non-transitory computer-readable storage medium for storing program for biometric authentication
JP2014183393A (en) Image-capturing device, image-capturing method, and image-capturing program
EP3364339B1 (en) Device, method, and non-transitory computer-readable storage medium for biometric authentication
JP2020126302A (en) Image processing apparatus, image processing method and image processing program
JP2018026012A (en) Palm detection device, palm print authentication device, palm detection method, and program
JP5983781B2 (en) Image resolution recognition apparatus, image resolution recognition method, and image resolution recognition program
US10643317B2 (en) Biometric image processing device, biometric image processing method and computer-readable non-transitory medium
JP6364828B2 (en) Biometric authentication device and portable electronic device
EP3671538A1 (en) Biometric authentication apparatus and biometric authentication method
JP7056052B2 (en) Image processing program, image processing method, and image processing device
JPWO2017208368A1 (en) Image processing apparatus, image processing method, and program
JP2004362143A (en) Edge detection device, component recognition device, edge detection method, and component recognition method