JP2018036965A - Living body detection device - Google Patents

Living body detection device Download PDF

Info

Publication number
JP2018036965A
JP2018036965A JP2016171203A JP2016171203A JP2018036965A JP 2018036965 A JP2018036965 A JP 2018036965A JP 2016171203 A JP2016171203 A JP 2016171203A JP 2016171203 A JP2016171203 A JP 2016171203A JP 2018036965 A JP2018036965 A JP 2018036965A
Authority
JP
Japan
Prior art keywords
mobile terminal
image
subject
living body
body detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016171203A
Other languages
Japanese (ja)
Other versions
JP6754642B2 (en
Inventor
正和 藤尾
Masakazu Fujio
正和 藤尾
高橋 健太
Kenta Takahashi
健太 高橋
陽介 加賀
Yosuke Kaga
陽介 加賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016171203A priority Critical patent/JP6754642B2/en
Priority to PCT/JP2017/027701 priority patent/WO2018042996A1/en
Publication of JP2018036965A publication Critical patent/JP2018036965A/en
Application granted granted Critical
Publication of JP6754642B2 publication Critical patent/JP6754642B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

PROBLEM TO BE SOLVED: To provide a living body detection device that can easily detect an impersonation, using an imaging device attached to a mobile terminal even with respect to an impersonation attack.SOLUTION: A living body detection device 1 according to the present invention, which is the living body detection device that coordinates with a mobile terminal M having an imaging device 14 capable of shooting a motion image, and detects an impersonation of a legitimate person of an authenticated person handling a mobile terminal M1, comprises: an action unit P11 that acts on a subject a; an acquisition unit P21 that photographs images having the subject a included in time series, using an imaging device 14; a calculation unit P31 that calculates a matching level of between an action on the subject a by the action unit P11, and the image in time series photographed by the acquisition unit P21; and a judgement unit P41 that judges whether the authenticated person is a person impersonating a legitimate person, using the matching level calculated by the calculation unit P31.SELECTED DRAWING: Figure 2

Description

本発明は、生体検知装置に関する。   The present invention relates to a living body detection apparatus.

PCへのログインや建物の入退出の他、金融分野をはじめとする幅広い分野において、生体認証技術が利用されつつある。このような技術は、スマートフォン等のモバイル端末の普及に伴い、モバイル端末からの個人認証においてもその重要性が高まっている。またその一方で、残留指紋や写真、動画等から人工的に再構成した指により、不正成りすましが可能であることも報告されている。   In addition to logging in to PCs and entering and exiting buildings, biometric authentication technology is being used in a wide range of fields including the financial field. With the spread of mobile terminals such as smartphones, such technology is becoming more important in personal authentication from mobile terminals. On the other hand, it has also been reported that fraudulent impersonation is possible with a finger artificially reconstructed from residual fingerprints, photographs, videos, and the like.

近年、スマートフォン等のモバイル端末を用いた生体認証方式としては、生体認証用の特殊なデバイスではなく、上記モバイル端末に付属のカメラ等の汎用デバイスを用いて生体認証を行う動きが見られる。特に付属のカメラを用いて手の指や掌紋、指紋など生体認証を行う技術においては、予め撮影しておいた写真や動画による成りすまし攻撃を受ける可能性が考えられるため、上記攻撃に対する偽造検知を行うことで安全性を高める必要がある。   In recent years, as a biometric authentication method using a mobile terminal such as a smartphone, there has been a movement of performing biometric authentication using a general-purpose device such as a camera attached to the mobile terminal instead of a special device for biometric authentication. In particular, in the technology that performs biometric authentication such as fingers, palm prints, and fingerprints using the attached camera, there is a possibility of being subjected to a pretending attack by a photograph or video taken in advance. It is necessary to improve safety by doing.

このような汎用デバイスを用いた偽装に対する生体検知技術としては、例えば、カメラにより顔画像を撮影し、この顔画像中の特定領域のR、G成分の代表値の時系列変化により脈拍を検知することで生体検知を行う方式(例えば、特許文献1参照)、およびLED照明下で被写体である指を前後に移動させ、特定の領域のみ輝度値が変化するのを確認する方式(例えば、非特許文献1参照)が開示されている。   As a living body detection technique for impersonation using such a general-purpose device, for example, a face image is taken by a camera, and a pulse is detected by a time-series change of representative values of R and G components in a specific region in the face image. A method for performing living body detection (for example, refer to Patent Document 1) and a method for confirming that a luminance value changes only in a specific region by moving a finger as a subject back and forth under LED illumination (for example, non-patent) Document 1) is disclosed.

特開2014−184002号公報JP 2014-184002 A

Chris Stein,「Video−based Fingerphoto Recognition with Anti−spoofing Techniques with Smartphone Cameras」,BIOSIG、2013Chris Stein, “Video-based Fingerprint Recognition with Anti-spoofing Technologies with Smartphone Cameras”, BIOSIG, 2013

しかしながら、上述した従来の技術において、脈拍を検知する方式では、あらかじめ指を動画で撮影しておくことで色成分の時系列変化を再現させることができ、不正に成りすまされてしまう可能性がある。他方、輝度値の変化を確認する方式では、あらかじめLED照明下で輝度値が変化する様子を動画で撮影し、これを認証時に提示することで検知させることができ、同様に不正に成りすまされてしまう可能性がある。   However, in the conventional technique described above, in the method of detecting the pulse, the time-series change of the color component can be reproduced by photographing the finger in advance with a moving image, and there is a possibility that it is impersonated improperly. is there. On the other hand, in the method of checking the change of the brightness value, it is possible to detect the change of the brightness value in advance under the LED lighting with a moving image and present it at the time of authentication. There is a possibility that.

本発明は、以上のような事情に基づいてなされたものであり、その目的は、あらかじめ撮影した指紋や掌紋などの写真や動画を提示する成りすまし攻撃に対しても、モバイル端末に付属している撮影装置を用いて簡便に成りすましを検知することが可能な生体検知装置を提供することにある。   The present invention has been made based on the circumstances as described above, and the purpose thereof is attached to the mobile terminal against a pretending attack that presents a photograph or a moving picture such as a fingerprint or a palm print that has been taken in advance. An object of the present invention is to provide a living body detection device that can easily detect impersonation using an imaging device.

本発明は、
(1)動画の撮影が可能な撮影装置を有するモバイル端末と連携し、前記モバイル端末を取り扱う被認証者の正当な者への成りすましを検知する生体検知装置であって、
被写体へ作用する作用部と、
前記撮影装置を用い、前記被写体を含む画像を時系列に撮影する取得部と、
前記作用部による前記被写体への作用と、前記取得部により撮影された時系列の画像との一致度を算出する算出部と、
前記算出部により算出された一致度を用い、前記被認証者が前記正当な者に成りすましているか否かを判定する判定部とを備えていることを特徴とする生体検知装置、
(2)作用部が、被認証者にモバイル端末を被写体に対して動かすように指示するものであり、
算出部により算出された一致度が、前記作用部により指示された前記モバイル端末を動かす方向と、取得部により撮影された時系列の画像から求められた前記被写体の移動方向とを用いて算出されたものである前記(1)に記載の生体検知装置、
(3)作用部が、所定のタイミングで被写体に対して複数回光を照射するものであり、
算出部により算出された一致度が、前記タイミングと、取得部により撮影された時系列の画像から求められた前記被写体の輝度値の変化とを用いて算出されたものである前記(1)に記載の生体検知装置、
(4)第1の画像判定部をさらに備え、
前記第1の画像判定部が、取得部により撮影された画像を2値化すると共に、この2値化された画像をモルフォロジー処理して連結成分数を求めるものであり、
判定部が、一致度および前記連結成分数に基づき、被認証者が正当な者に成りすましているか否かを判定する前記(1)から(3)のいずれか1項に記載の生体検知装置、および
(5)第2の画像判定部をさらに備え、
前記第2の画像判定部が、取得部により撮影された画像からこの画像を構成する局所領域ごとの輝度の勾配方向を算出すると共に、この算出された勾配方向を用いて所定の角度ごとに量子化されたヒストグラムを求めるものであり、
判定部が、一致度および前記ヒストグラムにおける度数の分散に基づき、被認証者が正当な者に成りすましているか否かを判定する前記(1)から(3)のいずれか1項に記載の生体検知装置、
に関する。
The present invention
(1) A living body detection device that detects impersonation of an authenticated person who handles a mobile terminal in cooperation with a mobile terminal having a shooting device capable of shooting a moving image,
An action part acting on the subject;
An acquisition unit that shoots an image including the subject in time series using the imaging device;
A calculation unit that calculates the degree of coincidence between the action of the action unit on the subject and a time-series image captured by the acquisition unit;
A living body detection device comprising: a determination unit that determines whether or not the person to be authenticated is impersonating the right person using the degree of coincidence calculated by the calculation unit;
(2) The action unit instructs the person to be authenticated to move the mobile terminal relative to the subject.
The degree of coincidence calculated by the calculation unit is calculated using the direction in which the mobile terminal is instructed by the action unit and the moving direction of the subject obtained from the time-series images taken by the acquisition unit. The living body detection device according to (1),
(3) The action unit irradiates the subject multiple times with a predetermined timing,
In the above (1), the degree of coincidence calculated by the calculating unit is calculated using the timing and a change in luminance value of the subject obtained from the time-series images taken by the acquiring unit. The living body detection device according to the description,
(4) A first image determination unit is further provided,
The first image determination unit binarizes the image photographed by the acquisition unit, and obtains the number of connected components by performing a morphological process on the binarized image.
The living body detection device according to any one of (1) to (3), wherein the determination unit determines whether or not the person to be authenticated is impersonating a valid person based on the degree of coincidence and the number of connected components. And (5) further comprising a second image determination unit,
The second image determination unit calculates a gradient direction of luminance for each local region constituting the image from the image photographed by the acquisition unit, and uses the calculated gradient direction to quantize each predetermined angle. To obtain a normalized histogram,
The living body detection according to any one of (1) to (3), wherein the determination unit determines whether or not the person to be authenticated is impersonating a valid person based on the degree of coincidence and the variance of the frequencies in the histogram. apparatus,
About.

なお、本明細書において、「モバイル端末」とは、ユーザが用いるスマートフォン、タブレット端末などの携帯端末を意味する。また、「一致度」とは、作用部による指示等の作用と、算出部により算出され時系列の画像から求められた被写体の変化の態様とが整合しているか否かを示す指標を意味する。また、「連結成分数」とは、一つの画像中の連結成分の数を意味する。ただし、「連結成分」とは、2値化した画像において視覚的に一つに繋がった領域を指す。また、「勾配方向」とは、画像中の区画された部分領域において、輝度値の変化が大きい方向を意味する。   In the present specification, “mobile terminal” means a mobile terminal such as a smartphone or a tablet terminal used by a user. Further, the “degree of coincidence” means an index indicating whether or not the action such as an instruction by the action unit is consistent with the change mode of the subject calculated from the time-series image calculated by the calculation unit. . The “number of connected components” means the number of connected components in one image. However, “connected component” refers to a region visually connected to one in a binarized image. Further, the “gradient direction” means a direction in which a change in luminance value is large in a partitioned partial area in the image.

本発明は、あらかじめ撮影した指紋や掌紋などの写真や動画を提示する成りすまし攻撃に対しても、モバイル端末に付属している撮影装置を用いて簡便に成りすましを検知することが可能な生体検知装置を提供することができる。その結果、本発明は、生体認証を行う際の安全性を高めることができる。   The present invention provides a living body detection device that can easily detect impersonation using a photographing device attached to a mobile terminal even for a pretending attack that presents a photograph or a moving image such as a fingerprint or a palm print that has been photographed in advance. Can be provided. As a result, the present invention can improve safety when performing biometric authentication.

本発明の第1の実施形態を示す概略ブロック図である。1 is a schematic block diagram showing a first embodiment of the present invention. 図1の生体検知装置における同期検知プログラムによる同期検知処理の一例を示す概略シーケンス図である。It is a schematic sequence diagram which shows an example of the synchronous detection process by the synchronous detection program in the biometric detection apparatus of FIG. 図1の生体検知装置が実行する生体検知処理のフローチャートである。It is a flowchart of the biological body detection process which the biological body detection apparatus of FIG. 1 performs. 図1の生体検知装置が組み込まれたモバイル端末を用い、移動方向により検知を行う表示画面の一例を示す概略図である。It is the schematic which shows an example of the display screen which detects using a mobile terminal incorporating the living body detection apparatus of FIG. 1 according to a moving direction. 第2の実施形態に係るモバイル端末の表示画面の一例を示す概略図である。It is the schematic which shows an example of the display screen of the mobile terminal which concerns on 2nd Embodiment. 第3の実施形態に係るモバイル端末の表示画面の一例を示す概略図である。It is the schematic which shows an example of the display screen of the mobile terminal which concerns on 3rd Embodiment. 第4の実施形態の生体検知装置が実行する生体検知処理のフローチャートである。It is a flowchart of the biological body detection process which the biological body detection apparatus of 4th Embodiment performs. 図7において輝度値が変化したときの表示画面の一例を示す概略図であって、(a)は光を照射していないときの画面、(b)は光を照射しているときの画面をそれぞれ示している。FIG. 8 is a schematic diagram illustrating an example of a display screen when a luminance value changes in FIG. 7, where (a) shows a screen when no light is irradiated, and (b) shows a screen when light is irradiated. Each is shown. 第4の実施形態における生体検知方法を説明するための概略図であって、(a)はLEDによる輝度値の変化、(b)は同期確認方法をそれぞれ示している。It is the schematic for demonstrating the biological body detection method in 4th Embodiment, (a) is the change of the luminance value by LED, (b) has shown the synchronization confirmation method, respectively. 第5の実施形態における生体検知処理のフローチャートである。It is a flowchart of the biological body detection process in 5th Embodiment. 図11は、図10の各ステップで生成される画像の一例を示す概略図である。FIG. 11 is a schematic diagram illustrating an example of an image generated in each step of FIG. 第6の実施形態における生体検知処理のフローチャートである。It is a flowchart of the biological body detection process in 6th Embodiment. 本発明の生体検知装置を適用した生体認証装置の使用例を示す概略図である。It is the schematic which shows the usage example of the biometrics apparatus which applied the biometric detection apparatus of this invention.

本発明の生体検知装置は、動画の撮影が可能な撮影装置を有するモバイル端末と連携し、上記モバイル端末を取り扱う被認証者の正当な者への成りすましを検知する生体検知装置であって、被写体へ作用する作用部と、上記撮影装置を用い、上記被写体を含む画像を時系列に撮影する取得部と、上記作用部による上記被写体への作用と、上記取得部により撮影された時系列の画像との一致度を算出する算出部と、上記算出部により算出された一致度を用い、上記被認証者が上記正当な者に成りすましているか否かを判定する判定部とを備えていることを特徴とする。   A living body detection apparatus according to the present invention is a living body detection apparatus that detects impersonation of an authenticated person who handles a mobile terminal in cooperation with a mobile terminal having a shooting apparatus capable of shooting a moving image. An action unit that acts on the subject, an acquisition unit that takes an image including the subject in time series using the photographing device, an action on the subject by the action unit, and a time-series image taken by the acquisition unit And a determination unit for determining whether or not the person to be authenticated is impersonating the right person using the degree of coincidence calculated by the calculation unit. Features.

なお、本明細書における「被写体」は、撮影装置により撮影される側の少なくとも一部が立体形状で構成されているものが好ましい。このような被写体としては、例えば、以下に例示の被認証者の指(指紋)または掌(掌紋)等を採用することができる。   Note that the “subject” in this specification is preferably configured such that at least a part on the side imaged by the imaging device is configured in a three-dimensional shape. As such a subject, for example, the finger (fingerprint) or palm (palmprint) of the person to be authenticated exemplified below can be adopted.

また、当該生体検知装置は、上記モバイル端末と連携している限り特に限定されないが、携帯性、利便性向上の観点から、モバイル端末に組み込まれていることが好ましい。   In addition, the living body detection device is not particularly limited as long as it cooperates with the mobile terminal, but it is preferably incorporated in the mobile terminal from the viewpoint of improving portability and convenience.

以下、当該生体検知装置の第1〜第6の実施形態について図面を参照して説明するが、本発明は、当該図面に記載の実施形態にのみ限定されるものではない。   Hereinafter, although the 1st-6th embodiment of the said living body detection apparatus is described with reference to drawings, this invention is not limited only to embodiment described in the said drawing.

[第1の実施形態]
当該生体検知装置1は、動画の撮影が可能な撮影装置を有するスマートフォン、タブレット端末などのユーザが用いるモバイル端末と連携するものであり、概略的に、作用部P11と、取得部P21と、算出部P31と、判定部P41とにより構成されている。なお、本実施形態では、生体検知装置がモバイル端末に組み込まれているものを例示して説明する。
[First Embodiment]
The living body detection device 1 cooperates with a mobile terminal used by a user such as a smartphone or a tablet terminal having a photographing device capable of photographing a moving image, and roughly includes an action unit P11, an acquisition unit P21, and a calculation. A part P31 and a determination part P41 are included. In the present embodiment, an example in which the living body detection device is incorporated in a mobile terminal will be described.

作用部P11は、被写体へ作用するものであり、本実施形態では、被認証者にモバイル端末M1を被写体に対して動かすように指示する。この作用部P11としては、図1に示すように、例えば、被認証者に対して指示が可能なスピーカーなどの音声出力装置151、視覚により指示が可能な表示装置12等が採用される。   The action unit P11 acts on the subject, and in this embodiment, instructs the person to be authenticated to move the mobile terminal M1 relative to the subject. As this action part P11, as shown in FIG. 1, for example, an audio output device 151 such as a speaker capable of giving an instruction to the person to be authenticated, a display device 12 capable of giving an instruction visually, and the like are adopted.

取得部P21は、撮影装置14を用い、被写体を含む画像を時系列に撮影する。上記撮影装置14としては、動画の撮影が可能であれば特に限定されないが、利便性の観点から、モバイル端M1末に付属しているものであることが好ましい。   The acquisition unit P21 uses the imaging device 14 to capture an image including the subject in time series. The photographing apparatus 14 is not particularly limited as long as it can shoot a moving image, but is preferably attached to the end of the mobile terminal M1 from the viewpoint of convenience.

算出部P31は、上記作用部P11による被写体への作用(本実施形態では、被認証者に対する動作の指示)と、上記取得部P21により撮影された時系列の画像との一致度を算出する。当該生体検知装置1の算出部P31により算出される一致度は、作用部P11により指示されたモバイル端末M1を動かす方向と、取得部P21により撮影された時系列の画像から求められた被写体の移動方向とを用いて算出される。具体的には、当該生体検知装置1の算出部P31は、撮影された画像中の各エリアの背景面積の増減を調べることによりモバイル端末M1が実際に動いた向きを求め、上記指示した方向とモバイル端末M1が実際に動いた向きとを照合して一致度を求める。   The calculation unit P31 calculates the degree of coincidence between the action on the subject by the action part P11 (in this embodiment, an operation instruction to the person to be authenticated) and the time-series images taken by the acquisition part P21. The degree of coincidence calculated by the calculation unit P31 of the living body detection apparatus 1 is the direction of moving the mobile terminal M1 instructed by the action unit P11 and the movement of the subject obtained from the time-series images taken by the acquisition unit P21. It is calculated using the direction. Specifically, the calculation unit P31 of the living body detection apparatus 1 obtains the direction in which the mobile terminal M1 actually moved by examining the increase or decrease of the background area of each area in the captured image, and the direction indicated above. The degree of coincidence is obtained by comparing the direction in which the mobile terminal M1 actually moved.

判定部P41は、上記算出部P31により算出された一致度を用い、認証を受けようとしている被認証者が正当な者に成りすましているか否かを判定する。   The determination unit P41 uses the degree of coincidence calculated by the calculation unit P31 to determine whether or not the person to be authenticated is impersonating a valid person.

ここで、上述した作用部P11は後述する音声出力装置151および表示装置12、取得部は後述する撮影装置14、算出部P31および判定部P41は後述するCPU13、ワークエリア16および情報保持手段17に概ね対応するが、必ずしもこれに限られるものではない。   Here, the action unit P11 described above is an audio output device 151 and a display device 12 described later, an acquisition unit is a shooting device 14 described later, a calculation unit P31 and a determination unit P41 are stored in a CPU 13, work area 16, and information holding unit 17 described later. Although generally corresponding, it is not necessarily limited to this.

次に、当該生体検知装置1のハードウェアの構成について説明する。図1は、本発明の第1の実施形態を示す概略ブロック図である。当該生体検知装置1は、図1に示すように、概略的に、入力装置11、表示装置12、CPU(Central Processing Unit)13、撮影装置14、ワークエリア16および情報保持手段17により構成されている。   Next, the hardware configuration of the living body detection apparatus 1 will be described. FIG. 1 is a schematic block diagram showing a first embodiment of the present invention. As shown in FIG. 1, the living body detection apparatus 1 is roughly configured by an input device 11, a display device 12, a CPU (Central Processing Unit) 13, an imaging device 14, a work area 16, and information holding means 17. Yes.

入力装置11は、ユーザによる指示等の入力を受け付ける。この入力装置11は、キーボード、マウスまたはタッチパネル等が採用され、例えば、表示装置12に表示された複数のボックス(ボタン)の中から所望の処理を受け付ける。   The input device 11 receives an input such as an instruction from the user. The input device 11 employs a keyboard, a mouse, a touch panel, or the like, and receives a desired process from a plurality of boxes (buttons) displayed on the display device 12, for example.

表示装置12は、種々の文字および画像等の情報を出力する。この表示装置12は、例えば、液晶ディスプレイなどの画像表示装置が採用される。なお、上述の入力装置11およびこの表示装置12は、一体化されていてもよい。   The display device 12 outputs information such as various characters and images. For example, an image display device such as a liquid crystal display is employed as the display device 12. The input device 11 and the display device 12 described above may be integrated.

CPU13は、ワークエリア16に格納されたプログラムを実行することによって種々の機能を実現する。具体的には、このCPU13は、後述の各プログラムの処理を実行する。   The CPU 13 implements various functions by executing programs stored in the work area 16. Specifically, the CPU 13 executes processing of each program described later.

撮影装置14は、指(指紋)や掌(掌紋)などの被写体を撮影する。この撮影装置14は、具体的には、モバイル端末M1に付属しているカメラ(カメラ14)等で構成されている。   The photographing device 14 photographs a subject such as a finger (fingerprint) or a palm (palmprint). Specifically, the photographing device 14 includes a camera (camera 14) attached to the mobile terminal M1.

ワークエリア16は、CPU13によって実行されるプログラム等を格納する記憶領域である。このワークエリア16としては、典型的にはDRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶装置等が採用される。本実施形態では、このワークエリア16には、OS(Operating System)161、通信プログラム162、同期検知プロセス163、被写体時系列データ164、認証装置時系列データ165などが格納されている。   The work area 16 is a storage area for storing programs executed by the CPU 13. The work area 16 typically employs a high-speed and volatile storage device such as a DRAM (Dynamic Random Access Memory). In the present embodiment, the work area 16 stores an OS (Operating System) 161, a communication program 162, a synchronization detection process 163, subject time-series data 164, authentication device time-series data 165, and the like.

なお、ワークエリア16には、CPU13が各種処理を実行する際など、情報保持手段17に格納されている各プログラムおよびデータの少なくとも一部が必要に応じて一時的にコピーされてもよく、その他のプログラムおよびその参照データが格納されてもよい。さらに、ワークエリア16には、CPU13が実行した処理の結果が格納されてもよい。これらのプログラムに基づく処理については後述する。   It should be noted that at least a part of each program and data stored in the information holding means 17 may be temporarily copied to the work area 16 as necessary when the CPU 13 executes various processes. And the reference data thereof may be stored. Further, the work area 16 may store the result of the process executed by the CPU 13. Processing based on these programs will be described later.

情報保持手段17は、CPU13が各プログラムに基づいて種々の処理を実行するために参照する動作指示プログラム171、被写体時系列データ取得プログラム172、認証装置時系列データ取得プログラム173、同期検知プログラム174などのプログラム等を格納する。この情報保持手段17としては、典型的にはHDD(Hard Disk Drive)またはフラッシュメモリなどの大容量かつ不揮発性の記憶装置等が採用される。   The information holding unit 17 includes an operation instruction program 171, a subject time-series data acquisition program 172, an authentication device time-series data acquisition program 173, a synchronization detection program 174, and the like that are referred to by the CPU 13 to execute various processes based on each program. The program etc. are stored. As this information holding means 17, typically, a large-capacity nonvolatile storage device such as an HDD (Hard Disk Drive) or a flash memory is employed.

上述の動作指示プログラム171は、被写体に対し、例えば「モバイル端末M1を左右に動かしてくだい」などの動作指示を行う。被写体時系列データ取得プログラム172は、連続する複数の被写体画像を元に、被写体の動く方向や輝度値の変化などの画像特徴の時系列情報を取得する。認証装置時系列データ取得プログラム173は、モバイル端末M1がスマートフォンなどの認証装置である場合に、付属の加速度センサーを用い、モバイル端末M1の向きおよび動作方向の時系列情報を取得する。同期検知プログラム174は、上記動作指示と被写体の動きとが一致するか否かを検知する。なお、情報保持手段17は、生体検知結果に基づいて生体認証(本人確認)を行うプログラムなどのその他のプログラム等が格納されていてもよい。   The above-described operation instruction program 171 gives an operation instruction to the subject, for example, “Move the mobile terminal M1 to the left or right”. The subject time-series data acquisition program 172 acquires time-series information of image features such as a moving direction of a subject and a change in luminance value based on a plurality of continuous subject images. When the mobile terminal M1 is an authentication device such as a smartphone, the authentication device time-series data acquisition program 173 acquires time-series information about the direction and the operation direction of the mobile terminal M1 using an attached acceleration sensor. The synchronization detection program 174 detects whether or not the operation instruction matches the movement of the subject. The information holding unit 17 may store other programs such as a program for performing biometric authentication (identity confirmation) based on the biometric detection result.

次に、当該生体検知装置1における生体検知のシーケンスについて説明する。ここでは、ユーザA、モバイル端末M1およびサービサーBの存在下で、ユーザAがモバイル端末M1を用いてサービサーBの提供するサービスを受ける際の本人確認処理を例として説明する。図2は、図1の生体検知装置における同期検知プログラムによる同期検知処理の一例を示す概略シーケンス図である。   Next, a biological detection sequence in the biological detection device 1 will be described. Here, the identity verification process when the user A receives the service provided by the servicer B using the mobile terminal M1 in the presence of the user A, the mobile terminal M1, and the servicer B will be described as an example. FIG. 2 is a schematic sequence diagram illustrating an example of synchronization detection processing by the synchronization detection program in the living body detection apparatus of FIG.

図2に示すように、まず、ユーザAは、サービサーBの提供するサービスを受けるため、サービサーBに対してサービス開始要求を行う(ステップS201)。これに応答し、サービサーBは、モバイル端末M1にサービス要求者の本人確認を求める(ステップS202)。次いで、モバイル端末M1は、ユーザAに本人確認のための生体認証を要求する(ステップS203)。これに対し、ユーザAは、本人確認に用いる生体情報として指または掌などの生体情報を提示する(ステップS204)。   As shown in FIG. 2, first, the user A makes a service start request to the servicer B in order to receive the service provided by the servicer B (step S201). In response to this, the servicer B requests the mobile terminal M1 to confirm the identity of the service requester (step S202). Next, the mobile terminal M1 requests biometric authentication for user identification from the user A (step S203). On the other hand, the user A presents biometric information such as a finger or a palm as biometric information used for identity verification (step S204).

次に、モバイル端末M1は、提示された上記生体情報が事前撮影された動画や写真などの偽物ではないかを検知するため、ユーザAにモバイル端末M1を被写体に対して動かすように指示する(ステップS205)。これに応答し、ユーザAは、ステップS205の指示に従いモバイル端末M1を動かす(ステップS206)。   Next, the mobile terminal M1 instructs the user A to move the mobile terminal M1 relative to the subject in order to detect whether the presented biometric information is a fake such as a pre-captured video or photo ( Step S205). In response to this, the user A moves the mobile terminal M1 according to the instruction of step S205 (step S206).

次に、モバイル端末M1は、後述する生体検知を行い被写体が成りすまし(偽造)でないか否かを検知する。ここで、生体検知に成功した場合、ユーザAに生体検知成功を通知し、生体認証処理に移行する(ステップS207)。   Next, the mobile terminal M1 detects whether or not the subject is impersonating (forgery) by performing biometric detection described later. Here, if the biometric detection is successful, the user A is notified of the biometric detection success, and the process proceeds to biometric authentication processing (step S207).

生体認証処理では、生体認証技術を用いて本人確認を行った後、この本人確認が成功すればユーザAおよびサービザーBに「成功」の本人確認通知(ステップS208、S209)を行い、ユーザAの要求したサービスがサービサーBにより開始される(ステップS210)。一方、上述の生体検知に失敗した場合、ユーザAおよびサービサーBに「失敗」の本人確認通知を行った後、終了することになる(不図示)。   In the biometric authentication process, after performing identity verification using biometric authentication technology, if the identity verification is successful, the user A and the servicer B are notified of “successful” identity confirmation (steps S208 and S209). The requested service is started by the servicer B (step S210). On the other hand, if the above-described biometric detection fails, the user A and the servicer B are notified of “failure” identity confirmation, and the process ends (not shown).

次に、当該生体検知装置1を用いて行われる生体検知の具体的な流れについて、図3を参照しながら説明する。当該生体検知装置1による生体検知では、ユーザA(被写体)とモバイル端末M1の動作方向との一致度を確認することによって、被写体の成りすまし検知を行う。   Next, a specific flow of biological detection performed using the biological detection device 1 will be described with reference to FIG. In the living body detection by the living body detection apparatus 1, the impersonation detection of the subject is performed by checking the degree of coincidence between the user A (subject) and the operation direction of the mobile terminal M1.

図3に示すように、まず、モバイル端末M1が、ユーザAに対して端末動作についての指示を出す(ステップS301)。この指示としては、例えば「端末を左右に動かしてください」のように動作対象および方向を明確に指示してもよく、「端末を任意の方向に動かしてください」のようにユーザ側に動かす方向を任せてもよい。   As shown in FIG. 3, first, the mobile terminal M1 issues an instruction for terminal operation to the user A (step S301). As this instruction, for example, the movement target and direction may be clearly indicated, such as “Move the terminal left and right”, and the direction in which the user moves to the user side, such as “Move the terminal in any direction”. You may leave it.

次に、ユーザAは、上記指示に従い、検知対象(被写体)である指または掌を撮影しながらモバイル端末M1を動かす(ステップS302)。次いで、被写体(指もしくは掌)の移動方向を求め(ステップS303)た後、判定を行う(ステップS304)。この際、上記移動方向が上記指示と異なる場合、成りすましの可能性があると判断して認証NGとし(S305)、上記指示と合致する場合、以降の生体認証処理(ステップS306)に移行して本人認証を行う(ステップS307)。なお、生体認証処理を行う技術としては、公知の技術である指紋、指静脈、掌認証方式(例えば、「バイオメトリクス教科書―原理からプログラミングまで、半谷他、2012」等参照)などを採用することができる。   Next, in accordance with the above instruction, the user A moves the mobile terminal M1 while photographing a finger or palm that is a detection target (subject) (step S302). Next, after determining the moving direction of the subject (finger or palm) (step S303), a determination is made (step S304). At this time, if the direction of movement is different from the instruction, it is determined that there is a possibility of impersonation, and authentication NG is determined (S305). If the direction matches, the process proceeds to the subsequent biometric authentication process (step S306). User authentication is performed (step S307). In addition, as a technique for performing biometric authentication processing, a known technique such as fingerprint, finger vein, and palm authentication method (for example, “Biometrics textbook—from principle to programming, Hanya et al., 2012” etc.) should be adopted. Can do.

ここで、上述のステップS303における本実施形態での被写体の移動方向の判定方法について、図4を参照しながら説明する。図4は、図1の生体検知装置が組み込まれたモバイル端末を用い、移動方向により検知を行う表示画面の一例を示す概略図である。この図4は、モバイル端末M1に付属のカメラ14を用い、生体検知を行う被写体aを撮影している様子を示している。図4中、軸211、軸212は、それぞれ直交する方向(例えば、鉛直方向および水平方向)の中心線を示している。また、エリア213〜216は、被写体の撮影領域において、上記2つの中心線で区画された4つの領域それぞれを示している。   Here, the determination method of the moving direction of the subject in the present embodiment in the above-described step S303 will be described with reference to FIG. FIG. 4 is a schematic diagram illustrating an example of a display screen that performs detection based on a moving direction using a mobile terminal in which the living body detection apparatus of FIG. 1 is incorporated. FIG. 4 shows a state in which a subject a to be subjected to living body detection is photographed using the camera 14 attached to the mobile terminal M1. In FIG. 4, an axis 211 and an axis 212 indicate center lines in directions orthogonal to each other (for example, the vertical direction and the horizontal direction). In addition, areas 213 to 216 indicate the four areas divided by the two center lines in the shooting area of the subject.

本実施形態での判定方法では、例えば、モバイル端末M1からの指示により、モバイル端末M1を被写体aである掌に対して上下左右方向に動かす。例えばモバイル端末M1を被写体aに対して右側に動かした場合、当該被写体aは左に動くため、エリア215およびエリア216の背景画像の面積(背景面積)は増加する。他方、モバイル端末M1を左側に動かした場合、当該被写体aは右に動くため、エリア213およびエリア214の背景面積は増加する。同様に、モバイル端末M1を上側に動かした場合は、エリア213および215の背景面積が増加し、モバイル端末M1を下側に動かした場合は、エリア214および216の背景面積が増加する。したがって、上記各エリア213〜216の背景面積の増減を調べることで、モバイル端末M1の移動方向を推定(算出)する。ここで、エリア213の背景画像領域を背景画像F10、エリア214の背景画像領域を背景画像F14、エリア215の背景画像領域を背景画像F12、エリア216の背景画像領域を背景画像F16とする。このとき、例えば手を縦方向にかざしている場合、被写体の移動方向ベクトルは、以下のように計算される
In the determination method according to the present embodiment, for example, the mobile terminal M1 is moved vertically and horizontally with respect to the palm that is the subject a in accordance with an instruction from the mobile terminal M1. For example, when the mobile terminal M1 is moved to the right with respect to the subject a, the subject a moves to the left, so that the area of the background image (background area) in the areas 215 and 216 increases. On the other hand, when the mobile terminal M1 is moved to the left side, the subject a moves to the right, so that the background areas of the area 213 and the area 214 increase. Similarly, when the mobile terminal M1 is moved upward, the background areas of the areas 213 and 215 are increased, and when the mobile terminal M1 is moved downward, the background areas of the areas 214 and 216 are increased. Therefore, the movement direction of the mobile terminal M1 is estimated (calculated) by examining the increase / decrease in the background area of each of the areas 213 to 216. Here, it is assumed that the background image area of the area 213 is the background image F10, the background image area of the area 214 is the background image F14, the background image area of the area 215 is the background image F12, and the background image area of the area 216 is the background image F16. At this time, for example, when the hand is held in the vertical direction, the moving direction vector of the subject is calculated as follows.

上記式(1)中、MoveXは、X軸(水平)方向の移動を表し、MoveYは、Y軸(垂直)方向の移動を表し、ObjMovVecは、被写体の移動方向を表す。被写体の移動方向と、モバイル端末M1の移動方向の一致度計算方法は、式(2)にて示す。   In the above formula (1), MoveX represents movement in the X-axis (horizontal) direction, MoveY represents movement in the Y-axis (vertical) direction, and ObjMovVec represents the moving direction of the subject. A method of calculating the degree of coincidence between the moving direction of the subject and the moving direction of the mobile terminal M1 is expressed by Expression (2).

ここで、上記一致度は、例えば、モバイル端末M1から指示された方向と、この指示に基づきモバイル端末M1が移動した方向(上述の推定されたモバイル端末M1の移動方向)とが一致している場合と、一致していない場合との二択で表してもよく、これを用いて成りすましを検知することができる。   Here, for example, the degree of coincidence matches the direction instructed from the mobile terminal M1 and the direction in which the mobile terminal M1 has moved based on this instruction (the estimated moving direction of the mobile terminal M1 described above). It may be expressed by two choices of a case and a case where they do not match, and impersonation can be detected using this.

なお、上記移動方向の判定では、被写体画像(指もしくは掌の画像)F11と背景画像(撮影した画像における被写体画像以外の画像)F12とを分離した後の画像が用いられる。このような分離(背景分離)は、例えば、被写体画像F11と背景画像F12との間の肌色成分や輝度値の相異を用いて行うことができる。   In the determination of the moving direction, an image after separating the subject image (finger or palm image) F11 and the background image (image other than the subject image in the photographed image) F12 is used. Such separation (background separation) can be performed using, for example, a skin color component or a luminance value difference between the subject image F11 and the background image F12.

以上のように、当該生体検知装置1は、上述した作用部P11、取得部P21、算出部P31および判定部P41を備えているので、あらかじめ撮影した指紋や掌紋などの写真や動画を提示する成りすまし攻撃に対しても、モバイル端末M1に付属しているカメラ14を用いて簡便に成りすましを検知することができる。特に、当該生体検知装置1は、上述したようにモバイル端末M1の移動方向により一致度を算出するので、成りすましをより確実に検知することができる。   As described above, the living body detection apparatus 1 includes the action unit P11, the acquisition unit P21, the calculation unit P31, and the determination unit P41. Even for an attack, impersonation can be easily detected using the camera 14 attached to the mobile terminal M1. In particular, since the living body detection device 1 calculates the degree of coincidence according to the moving direction of the mobile terminal M1 as described above, impersonation can be detected more reliably.

なお、上述した第1の実施形態では、モバイル端末M1からの指示によりモバイル端末M1を被写体aに対して動かす判定方法について例示したが、モバイル端末M1からの指示によりモバイル端末M1に対して被写体aを動かして行う判定方法であってもよく、モバイル端末M1および被写体aの両者を動かして行う判定方法であってもよい。   In the first embodiment described above, the determination method for moving the mobile terminal M1 with respect to the subject a according to an instruction from the mobile terminal M1 is illustrated. However, the subject a with respect to the mobile terminal M1 according to an instruction from the mobile terminal M1. Or a determination method performed by moving both the mobile terminal M1 and the subject a.

例えば、モバイル端末M1および被写体aの両者を動かして行う判定方法では、被写体aの移動方向とモバイル端末M1の移動方向とが一定の角度以内であるか否かを求めることで判定することができる。かかる場合、例えばモバイル端末M1と被写体aとの移動方向の角度の差分を求める。この差分は、下記式(2)を用いて計算することができる。   For example, in the determination method performed by moving both the mobile terminal M1 and the subject a, the determination can be made by determining whether the moving direction of the subject a and the moving direction of the mobile terminal M1 are within a certain angle. . In such a case, for example, a difference in angle in the moving direction between the mobile terminal M1 and the subject a is obtained. This difference can be calculated using the following equation (2).

上記式(2)中、Aはモバイル端末M1の移動方向ベクトル、Bは被写体aの移動方向ベクトルを示す。この2つの移動方向ベクトルを用いて上記式(2)により算出される角度の差分が所定範囲外にある場合、成りすましの可能性があると判断して認証NGとし、上記角度の差分が所定範囲内にある場合、以降の生体認証処理に移行する。   In the above formula (2), A indicates the moving direction vector of the mobile terminal M1, and B indicates the moving direction vector of the subject a. If the difference between the angles calculated by the above equation (2) using these two movement direction vectors is outside the predetermined range, it is determined that there is a possibility of impersonation and authentication NG is determined, and the difference between the angles is within the predetermined range. If so, the process proceeds to the subsequent biometric authentication process.

ここで、当該生体検知装置1が組み込まれたモバイル端末M1の使用例について、図13を参照しながら説明する。図13中、画面G11は、モバイル端末M1上に表示されたサービス開始画面を表している。   Here, a usage example of the mobile terminal M1 in which the living body detection apparatus 1 is incorporated will be described with reference to FIG. In FIG. 13, a screen G11 represents a service start screen displayed on the mobile terminal M1.

まず、ユーザAは、画面G11に表示されたサービスメニューの中から所望のサービスを選択する。次いで、上記サービスメニューの中から例えば「送金」サービスを選択すると、送金先候補者一覧が表示され、ユーザは表示された送金先候補者の中から送金対象者を選択する(画面G12参照)。次いで、所望の送金金額を入力する。ここでは、送金額として「15000」円が入力されている(画面G13参照)。   First, the user A selects a desired service from the service menu displayed on the screen G11. Next, when, for example, the “remittance” service is selected from the service menu, a list of remittance destination candidates is displayed, and the user selects a remittance target person from the displayed remittance destination candidates (see screen G12). Next, the desired remittance amount is input. Here, “15000” yen is input as the amount of money to be sent (see screen G13).

次に、送金対象者および送金金額を確認するための確認画面が表示(画面G14参照)された後、送金トランザクションの本人確認を行うための認証方式(「指紋認証」(生体認証)または「パスワード認証」)を選択する画面が表示(画面G15参照)される。ここでは、本人が確かに送金指示を行っていることを確認するため、「指紋認証」(生体認証)を選択する。   Next, after a confirmation screen for confirming the remittance target and the remittance amount is displayed (see screen G14), an authentication method ("fingerprint authentication" (biometric authentication) or "password" for verifying the identity of the remittance transaction is displayed. A screen for selecting “authentication”) is displayed (see screen G15). Here, “fingerprint authentication” (biometric authentication) is selected in order to confirm that the person has instructed the remittance.

次に、モバイル端末M1に付属のカメラ14を用いて指を撮影する(画面G16参照)。この際、当該生体検知装置1が生体検知(図2のステップS203〜S207参照)を行い、事前撮影した動画や静止画によって成りすましを行っていないかどうかを検知する。この結果、成りすましでなければ引き続き生体認証処理が行われ、この処理により本人確認が成功した後、送金が実行されると共に送金結果が表示装置に表示される(画面G17参照)。   Next, a finger | toe is image | photographed using the camera 14 attached to the mobile terminal M1 (refer screen G16). At this time, the living body detection apparatus 1 performs living body detection (see steps S203 to S207 in FIG. 2) to detect whether or not impersonation is performed using a previously captured moving image or still image. As a result, if it is not impersonation, the biometric authentication process is continued, and after successful identity verification, the remittance is executed and the remittance result is displayed on the display device (see screen G17).

このように、当該生体検知装置1がモバイル端末M1と連携することで簡便に成りすましを検知することができ、その結果、生体認証を行う際の安全性を高めることができる。   In this way, impersonation can be easily detected by the biometric detection device 1 in cooperation with the mobile terminal M1, and as a result, safety when performing biometric authentication can be improved.

[第2の実施形態]
本実施形態の生体検知装置2は、モバイル端末を動かしている間の指先位置を追跡することにより、上記端末をどちらの向きに動かしたのかを推定(算出)するものであり、概略的に、作用部P11と、取得部P21と、算出部P32と、判定部P41とにより構成されている。当該生体検知装置2は、第1の実施形態とは、算出部の構成が異なっている。なお、作用部P11、取得部P21および判定部P41、並びにハードウェアの構成、生体検知のシーケンスについては第1の実施形態のものと同様であるため、その詳細な説明は省略する。
[Second Embodiment]
The living body detection apparatus 2 of the present embodiment estimates (calculates) in which direction the terminal has been moved by tracking the fingertip position while moving the mobile terminal. The action part P11, the acquisition part P21, the calculation part P32, and the determination part P41 are comprised. The living body detection apparatus 2 is different from the first embodiment in the configuration of the calculation unit. In addition, since the action part P11, the acquisition part P21, the determination part P41, the hardware configuration, and the biometric detection sequence are the same as those in the first embodiment, detailed descriptions thereof are omitted.

算出部P32は、上記作用部P11による被写体aへの作用(本実施形態では、被認証者に対する動作の指示)と、上記取得部P21により撮影された時系列の画像との一致度を算出する。当該生体検知装置2の算出部P32により算出される一致度は、作用部P11により指示されたモバイル端末M2を動かす方向と、取得部P21により撮影された時系列の画像から求められた被写体aの移動方向とを用いて算出される。具体的には、当該生体検知装置2の算出部P32は、撮影された画像中の各指の指先座標を抽出してこの指先座標の経時変化を調べることによりモバイル端末M2が実際に動いた向きを求め、上記指示した方向とモバイル端末M2が実際に動いた向きとを照合して一致度を求める。   The calculation unit P32 calculates the degree of coincidence between the action on the subject a by the action part P11 (in this embodiment, an instruction of an operation for the person to be authenticated) and the time-series images taken by the acquisition part P21. . The degree of coincidence calculated by the calculation unit P32 of the living body detection device 2 is the direction of moving the mobile terminal M2 instructed by the action unit P11 and the subject a obtained from the time-series images taken by the acquisition unit P21. It is calculated using the moving direction. Specifically, the calculation unit P32 of the living body detection apparatus 2 extracts the fingertip coordinates of each finger in the captured image and examines the change with time of the fingertip coordinates, so that the mobile terminal M2 has actually moved. And the degree of coincidence is obtained by comparing the instructed direction with the direction in which the mobile terminal M2 has actually moved.

次に、上述のステップS303における本実施形態での被写体aの移動方向の判定方法について、図5を参照しながら説明する。図5は、第2の実施形態に係るモバイル端末の表示画面の一例を示す概略図である。この図5は、モバイル端末M2に付属のカメラ14を用い、生体検知を行う被写体aを撮影している様子を示している。図5中、指先a1〜a3の位置は、それぞれモバイル端末M2の移動(手の移動)を検知するための各指の指先座標を示している。   Next, a method for determining the moving direction of the subject a in the present embodiment in step S303 described above will be described with reference to FIG. FIG. 5 is a schematic diagram illustrating an example of a display screen of the mobile terminal according to the second embodiment. FIG. 5 shows a state in which a subject a to be subjected to living body detection is photographed using the camera 14 attached to the mobile terminal M2. In FIG. 5, the positions of the fingertips a1 to a3 indicate the fingertip coordinates of each finger for detecting the movement (movement of the hand) of the mobile terminal M2.

本実施形態での判定方法では、第1の実施形態と同様に、あらかじめ背景分離した画像が用いられる。まず、カメラ14で撮影した掌の画像を2値化し、この2値化した画像から指先の位置となるピーク位置を計算する。この際、カメラ14に向かって掌を縦にかざす場合はY軸方向(画面の上下方向)のピーク位置を算出し、掌を横にかざす場合はX軸方向(画面の左右方向)のピーク位置を算出する。次いで、前者の場合はY軸方向のピーク位置が大きい方(画面上方向が正方向の場合)から3点を選出し、この3点のX座標およびY座標をそれぞれの指先a1、a2、a3の座標(位置)として記録する。   In the determination method according to the present embodiment, an image with a background separated in advance is used as in the first embodiment. First, a palm image photographed by the camera 14 is binarized, and a peak position as a fingertip position is calculated from the binarized image. At this time, when the palm is held vertically toward the camera 14, the peak position in the Y-axis direction (vertical direction of the screen) is calculated, and when the palm is held sideways, the peak position in the X-axis direction (horizontal direction of the screen) is calculated. Is calculated. Next, in the former case, three points are selected from the one with the larger peak position in the Y-axis direction (when the upward direction on the screen is the positive direction), and the X and Y coordinates of these three points are respectively selected from the fingertips a1, a2, and a3. It is recorded as the coordinates (position).

次に、指示によりモバイル端末M2を移動した後の画像について、同様に指先a1〜a3の座標(位置)を記録する。この際、移動の前後における対応する3つの指先a1〜a3の座標の差分により各指先a1〜a3のベクトルを計算し、これらのベクトルの平均を求めることで移動方向ベクトルを計算してこれを記録する。ここで、モバイル端末M2の実際の移動方向は、上記移動ベクトルを180度反転することにより算出される。次いで、上記指示した方向とモバイル端末M2の実際の移動方向とを照合して一致度を求めた後、判定部P41にて被写体aが成りすましをしているか否かを判定する。   Next, the coordinates (positions) of the fingertips a1 to a3 are recorded in the same manner for the image after the mobile terminal M2 has been moved by the instruction. At this time, the vector of each fingertip a1 to a3 is calculated from the difference in the coordinates of the corresponding three fingertips a1 to a3 before and after the movement, and the moving direction vector is calculated by calculating the average of these vectors and recorded. To do. Here, the actual movement direction of the mobile terminal M2 is calculated by inverting the movement vector by 180 degrees. Next, after comparing the instructed direction with the actual moving direction of the mobile terminal M2 to obtain the degree of coincidence, the determination unit P41 determines whether or not the subject a is impersonating.

ここで、上記一致度は、例えば、モバイル端末M2から指示された方向と、この指示に基づきモバイル端末M2が移動した方向(上記移動ベクトルから求められたモバイル端末M2の移動方向)とが一致している場合と、一致していない場合との二択で表してもよく、これを用いて成りすましを検知することができる。   Here, for example, the degree of coincidence matches the direction instructed from the mobile terminal M2 and the direction in which the mobile terminal M2 has moved based on this instruction (the moving direction of the mobile terminal M2 determined from the movement vector). It may be expressed by two choices, that is, the case of not matching, and impersonation can be detected using this.

以上のように、当該生体検知装置2は、上述した作用部P11、取得部P21、算出部P32および判定部P41を備えているので、あらかじめ撮影した指紋や掌紋などの写真や動画を提示する成りすまし攻撃に対しても、モバイル端末M2に付属しているカメラ14を用いて簡便に成りすましを検知することができる。特に、当該生体検知装置2は、上述したようにモバイル端末M2の移動方向により一致度を算出するので、成りすましをより確実に検知することができる。   As described above, the living body detection apparatus 2 includes the action unit P11, the acquisition unit P21, the calculation unit P32, and the determination unit P41 described above. Even for an attack, impersonation can be easily detected using the camera 14 attached to the mobile terminal M2. In particular, since the living body detection device 2 calculates the degree of coincidence according to the moving direction of the mobile terminal M2 as described above, impersonation can be detected more reliably.

なお、上述した第2の実施形態では、2つの画像間の指先a1〜a3の対応関係について、X座標およびY座標のピーク位置により上記対応関係を求めたが、指先の位置座標の差の和が最も小さくなる組み合わせを選ぶことで上記対応関係を求めるようにしてもよい。これにより、より確実に各指先を対応させることができ、指先の移動およびこれに基づく移動方向ベクトルをより正確に計算することができる。また、使用する指先は、上述した3点に限らず増減してもよく、移動前後の両方で表示画面中に収まっている指先のみであってもよい。   In the second embodiment described above, the correspondence relationship between the fingertips a1 to a3 between the two images is obtained from the peak positions of the X coordinate and the Y coordinate. The correspondence relationship may be obtained by selecting a combination that minimizes. Thereby, each fingertip can be made to correspond more reliably, and the movement of the fingertip and the movement direction vector based thereon can be calculated more accurately. Further, the fingertips to be used are not limited to the three points described above, and may be increased or decreased, or may be only fingertips that are within the display screen both before and after movement.

[第3の実施形態]
本実施形態の生体検知装置3は、モバイル端末を動かしている間の背景局所特徴点間の位置を追跡することにより、上記端末をどちらの向きに動かしたのかを推定(算出)するものであり、概略的に、作用部P11と、取得部P21と、算出部P33と、判定部P41とにより構成されている。当該生体検知装置3は、第1の実施形態とは、算出部の構成が異なっている。なお、作用部P11、取得部P21および判定部P41、並びにハードウェアの構成、生体検知のシーケンスについては第1の実施形態のものと同様であるため、その詳細な説明は省略する。
[Third Embodiment]
The living body detection apparatus 3 of the present embodiment estimates (calculates) in which direction the terminal is moved by tracking the position between background local feature points while the mobile terminal is moving. Schematically, it is comprised by the action part P11, the acquisition part P21, the calculation part P33, and the determination part P41. The living body detection device 3 is different from the first embodiment in the configuration of the calculation unit. In addition, since the action part P11, the acquisition part P21, the determination part P41, the hardware configuration, and the biometric detection sequence are the same as those in the first embodiment, detailed descriptions thereof are omitted.

算出部P33は、上記作用部P11による被写体aへの作用(本実施形態では、被認証者に対する動作の指示)と、上記取得部P21により撮影された時系列の画像との一致度を算出する。当該生体検知装置3の算出部P33により算出される一致度は、作用部P11により指示されたモバイル端末M3を動かす方向と、取得部P21により撮影された時系列の画像から求められた被写体aの移動方向とを用いて算出される。具体的には、当該生体検知装置3の算出部P33は、背景局所特徴点の位置座標を抽出してこの位置座標の経時変化を調べることによりモバイル端末M3が実際に動いた向きを求め、上記指示した方向とモバイル端末M3が実際に動いた向きとを照合して一致度を求める。   The calculation unit P33 calculates the degree of coincidence between the action of the action part P11 on the subject a (in this embodiment, an instruction to the user to be authenticated) and the time-series images taken by the acquisition part P21. . The degree of coincidence calculated by the calculation unit P33 of the living body detection device 3 is the direction of moving the mobile terminal M3 instructed by the action unit P11 and the subject a obtained from the time-series images captured by the acquisition unit P21. It is calculated using the moving direction. Specifically, the calculation unit P33 of the living body detection device 3 obtains the direction in which the mobile terminal M3 actually moved by extracting the position coordinates of the background local feature point and examining the temporal change of the position coordinates, The degree of coincidence is obtained by comparing the instructed direction with the direction in which the mobile terminal M3 has actually moved.

次に、上述のステップS303における本実施形態での被写体aの移動方向の判定方法について、図6を参照しながら説明する。図6は、第3の実施形態に係るモバイル端末の表示画面の一例を示す概略図である。この図6は、図4と同様に、モバイル端末M3に付属のカメラ14を用いて被写体aを撮影している様子を示している。なお、図6中、背景画像F32における各点は、背景局所特徴点を示している。この背景局所特徴点は、局所画像特徴(例えば、情報処理学会誌『情報処理』2008年9月号(Vol.49、No.9)「3日で作る高速特定物体認識システム」参照)を用いて導出することができる。   Next, a method for determining the moving direction of the subject a in the present embodiment in step S303 described above will be described with reference to FIG. FIG. 6 is a schematic diagram illustrating an example of a display screen of the mobile terminal according to the third embodiment. FIG. 6 shows a state where the subject a is photographed using the camera 14 attached to the mobile terminal M3, as in FIG. In FIG. 6, each point in the background image F32 indicates a background local feature point. This background local feature point uses a local image feature (see, for example, “Information Processing”, September 2008 (Vol. 49, No. 9) “High-Speed Specific Object Recognition System Made in 3 Days”). Can be derived.

本実施形態での判定方法では、第1の実施形態と同様に、あらかじめ背景分離した画像が用いられる。まず、上記局所画像特徴により指示前(モバイル端末M3移動前)の局所画像特徴点を抽出してそのX座標およびY座標を計算する。   In the determination method according to the present embodiment, an image with a background separated in advance is used as in the first embodiment. First, a local image feature point before an instruction (before moving the mobile terminal M3) is extracted from the local image feature, and its X coordinate and Y coordinate are calculated.

次に、指示によりモバイル端末M3を移動した後の画像について、対応する局所画像特徴点のX座標およびY座標を計算した後、移動の前後における対応する局所画像特徴点の座標の差分により各局所画像特徴点のベクトルを計算し、これらのベクトルの平均を求めることで移動方向ベクトルを計算してこれを記録する。ここで、モバイル端末M3の実際の移動方向は、上記移動ベクトルを180度反転することにより算出される。次いで、上記指示した方向とモバイル端末M3の実際の移動方向とを照合して一致度を求めた後、判定部P41にて被写体が成りすましをしているか否かを判定する。   Next, for the image after moving the mobile terminal M3 according to the instruction, the X and Y coordinates of the corresponding local image feature point are calculated, and then each local image is calculated according to the difference in the coordinates of the corresponding local image feature point before and after the movement. A vector of image feature points is calculated, and a moving direction vector is calculated by obtaining an average of these vectors and recorded. Here, the actual movement direction of the mobile terminal M3 is calculated by inverting the movement vector by 180 degrees. Next, after comparing the instructed direction with the actual moving direction of the mobile terminal M3 to obtain a degree of coincidence, the determination unit P41 determines whether or not the subject is impersonating.

ここで、上記一致度は、例えば、モバイル端末M3から指示された方向と、この指示に基づきモバイル端末M3が移動した方向(上記移動ベクトルから求められたモバイル端末M3の移動方向)とが一致している場合と、一致していない場合との二択で表してもよく、これを用いて成りすましを検知することができる。   Here, for example, the degree of coincidence matches the direction instructed from the mobile terminal M3 and the direction in which the mobile terminal M3 has moved based on this instruction (the moving direction of the mobile terminal M3 determined from the movement vector). It may be expressed by two choices, that is, the case of not matching, and impersonation can be detected using this.

以上のように、当該生体検知装置3は、上述した作用部P11、取得部P21、算出部P33および判定部P41を備えているので、あらかじめ撮影した指紋や掌紋などの写真や動画を提示する成りすまし攻撃に対しても、モバイル端末M3に付属しているカメラ14を用いて簡便に成りすましを検知することができる。特に、当該生体検知装置3は、上述したようにモバイル端末M3の移動方向により一致度を算出するので、成りすましをより確実に検知することができる。   As described above, since the living body detection device 3 includes the action unit P11, the acquisition unit P21, the calculation unit P33, and the determination unit P41 described above, it is assumed to present a photograph or a moving image such as a fingerprint or a palm print that has been captured in advance. Even for an attack, impersonation can be easily detected using the camera 14 attached to the mobile terminal M3. In particular, since the living body detection device 3 calculates the degree of coincidence according to the moving direction of the mobile terminal M3 as described above, impersonation can be detected more reliably.

[第4の実施形態]
本実施形態の生体検知装置4は、概略的に、作用部P14と、取得部P21と、算出部P34と、判定部P41とにより構成されている。当該生体検知装置4は、第1の実施形態とは、作用部P14、算出部P34の構成が異なっている。なお、取得部P21および判定部P41、並びに発光装置152以外のハードウェアの構成については第1の実施形態のものと同様であるため、その詳細な説明は省略する。
[Fourth Embodiment]
The living body detection apparatus 4 of the present embodiment is roughly configured by an action part P14, an acquisition part P21, a calculation part P34, and a determination part P41. The living body detection apparatus 4 is different from the first embodiment in the configuration of the action part P14 and the calculation part P34. Note that the hardware configuration other than the acquisition unit P21, the determination unit P41, and the light emitting device 152 is the same as that of the first embodiment, and thus detailed description thereof is omitted.

作用部P14は、所定のタイミングで被写体aに対して複数回光を照射することで被写体aへ作用する。   The action part P14 acts on the subject a by irradiating the subject a with a plurality of times at a predetermined timing.

算出部P34は、上記作用部P14による被写体aへの作用(本実施形態では、被写体aに対する光の照射)と、上記取得部P21により撮影された時系列の画像との一致度を算出する。当該生体検知装置4の算出部P34により算出される一致度は、複数回の光の照射のタイミングと、取得部P21により撮影された時系列の画像から求められた被写体aの輝度値変化とを用いて算出される。具体的には、当該生体検知装置4の算出部P34は、LEDの照射のタイミングと、カメラ14により撮影された被写体aの輝度変化のタイミングとを照合して一致度を求める。   The calculation unit P34 calculates the degree of coincidence between the action of the action part P14 on the subject a (in this embodiment, irradiation of light to the subject a) and the time-series images taken by the acquisition part P21. The degree of coincidence calculated by the calculation unit P34 of the living body detection device 4 includes the timing of light irradiation multiple times and the change in luminance value of the subject a obtained from the time-series images captured by the acquisition unit P21. Is used to calculate. Specifically, the calculation unit P34 of the living body detection device 4 compares the timing of the LED irradiation with the timing of the luminance change of the subject a photographed by the camera 14 to obtain the degree of coincidence.

次に、当該生体検知装置4のハードウェアの構成について説明する。当該生体検知装置4は、上述した生体検知装置1の音声出力装置151に代えて/と共に発光装置152を有している。この発光装置152は、所定のタイミングで被写体aに対して複数回光を照射することができれば特に限定されず、例えば、LEDなどの発光素子等を採用することができる。   Next, the hardware configuration of the living body detection device 4 will be described. The living body detection device 4 includes a light emitting device 152 together with / with the voice output device 151 of the living body detection device 1 described above. The light emitting device 152 is not particularly limited as long as it can irradiate the subject a a plurality of times at a predetermined timing. For example, a light emitting element such as an LED can be employed.

次に、当該生体検知装置4を用いて行われる生体検知の具体的な流れについて、図7、図8を参照しながら説明する。当該生体検知装置4による生体検知では、モバイル端末M4による光の照射のタイミングと被写体aの輝度値の変化のタイミングとの一致度(同期)を確認することによって、被写体aの成りすまし検知を行う。   Next, a specific flow of living body detection performed using the living body detection device 4 will be described with reference to FIGS. In the living body detection by the living body detection device 4, impersonation detection of the subject a is performed by confirming the degree of coincidence (synchronization) between the timing of light irradiation by the mobile terminal M4 and the timing of the luminance value change of the subject a.

まず、図7に示すように、モバイル端末M4に付属の発光装置152が、被写体(指もしくは掌)aに対して所定のタイミングで光を照射する(ステップS701)。このとき、上記照射のタイミング(時刻)を記録しておく。ここで、図8に示す概略図うち、(a)は光を照射していないときの画面G41、(b)は光を照射しているときの画面G42をそれぞれ示している。   First, as shown in FIG. 7, the light emitting device 152 attached to the mobile terminal M4 irradiates the subject (finger or palm) a with light at a predetermined timing (step S701). At this time, the timing (time) of the irradiation is recorded. Here, in the schematic diagram shown in FIG. 8, (a) shows a screen G41 when light is not irradiated, and (b) shows a screen G42 when light is irradiated.

次に、モバイル端末M4の画面全体に対して輝度値の変化が閾値以上である領域の割合を計算し(ステップS702)、この領域の割合を用いて成りすましを判定する(ステップS703)。この際、上記領域の割合が閾値以上である場合、成りすましとなるディスプレイ表示や紙上の印刷表示が提示されている可能性があると判断されるため、以降の処理に進まずに認証NGとして生体検知を終了する(ステップS708)。   Next, the ratio of the area where the change in the luminance value is equal to or greater than the threshold is calculated with respect to the entire screen of the mobile terminal M4 (step S702), and impersonation is determined using the ratio of the area (step S703). At this time, if the ratio of the area is equal to or greater than the threshold value, it is determined that there is a possibility that an impersonated display display or a printed display on paper is presented. The detection is terminated (step S708).

一方、上記領域の割合が閾値未満である場合、輝度値の変化のピークタイミングを計算し、後述の方法を用いてモバイル端末M4のLEDの照射のタイミングとの一致度(同期)を求め(S704)、この一致度を用いて成りすましを判定する(ステップS705)。この際、輝度値の変化のピークタイミングとLEDの照射のタイミングとが同期していない場合、成りすましの可能性があると判断されるため、以降の処理に進まずに認証NGとして生体検知を終了する(ステップS709)。   On the other hand, when the ratio of the region is less than the threshold, the peak timing of the change in luminance value is calculated, and the degree of coincidence (synchronization) with the timing of LED irradiation of the mobile terminal M4 is obtained using the method described later (S704). ) And impersonation is determined using this degree of coincidence (step S705). At this time, if the peak timing of the change in luminance value and the timing of LED irradiation are not synchronized, it is determined that there is a possibility of impersonation, so that the biometric detection ends as authentication NG without proceeding to the subsequent processing. (Step S709).

一方、タイミングが同期している場合は、生体認証処理(ステップS706)に移行して認証を行う(ステップS707)。この生体認証処理は、第1の実施形態と同様の公知の技術を用いて実行することができる。なお、生体認証処理では、通常、画像全体から認証対象の生体情報(例えば指領域)の抽出を行うが、このステップS706の生体認証処理では、輝度値が変化する領域のみを対象として行うようにしてもよい。   On the other hand, if the timing is synchronized, the process proceeds to biometric authentication processing (step S706) and authentication is performed (step S707). This biometric authentication process can be executed using a known technique similar to that of the first embodiment. In the biometric authentication process, usually, biometric information to be authenticated (for example, a finger area) is extracted from the entire image. However, in the biometric authentication process in step S706, only the area where the luminance value changes is targeted. May be.

次に、モバイル端末M4による光の照射のタイミングと被写体aの輝度値の変化のタイミングとの一致度(同期)を確認する方法の一例について説明する。図9は、第4の実施形態における生体検知方法を説明するための概略図である。図9(a)のグラフK1は、LEDによる輝度値の変化を示しており、横軸は時間、縦軸は輝度値をそれぞれ示している。   Next, an example of a method for confirming the degree of coincidence (synchronization) between the timing of light irradiation by the mobile terminal M4 and the timing of change of the luminance value of the subject a will be described. FIG. 9 is a schematic diagram for explaining a living body detection method according to the fourth embodiment. A graph K1 in FIG. 9A shows changes in luminance values due to LEDs, the horizontal axis indicates time, and the vertical axis indicates luminance values.

また、図9(b)は同期確認方法をそれぞれ示している。図9(b)中、グラフK2は、図9(a)の輝度値の変化について、輝度のピーク時刻の値を「1」、それ以外の時刻の値を「0」として表現した時系列データを表している(以下、値が1の時刻を「ビット」を称する)。そのため、このグラフK2では、横軸が時刻、縦軸が輝度の大小(0または1)を表している(例えば、時刻903は、被写体aの撮影画像の輝度値のピーク時刻を表す)。他方、グラフK3は、モバイル端末M4が被写体aに対して光を照射した時刻の値を「1」、それ以外の時刻の値を「0」として表現した時系列データを表している。そのため、このグラフK3では、横軸が時刻、縦軸が照射の有無(0または1)を表している。   FIG. 9B shows a synchronization confirmation method. In FIG. 9B, graph K2 represents time-series data expressing the luminance peak time value as “1” and the other time values as “0” with respect to the change in the luminance value in FIG. 9A. (Hereinafter, the time when the value is 1 is referred to as “bit”). Therefore, in this graph K2, the horizontal axis represents time, and the vertical axis represents the magnitude (0 or 1) of brightness (for example, time 903 represents the peak time of the brightness value of the captured image of the subject a). On the other hand, the graph K3 represents time-series data in which the time value when the mobile terminal M4 irradiates the subject a with light is expressed as “1”, and the other time values are expressed as “0”. Therefore, in this graph K3, the horizontal axis represents time and the vertical axis represents the presence or absence of irradiation (0 or 1).

次に、光の照射と輝度値との関係について、図9(b)に従い例示する。図9(b)中、時刻差911は、被写体aの輝度値ピーク時刻903とモバイル端末M4によるLED照射時刻905との時刻の差分を表している。一致度(同期)を確認する場合、グラフK2、K3のうち、一方を他方に対して−△t〜△tの間でX軸をずらしながら、値「1」を持つ時刻間の対応関係を抽出(単純には、もっとも時刻が近いビットどうしを対応させる)した後、対応するビット間の時刻の差分の合計値を計算する。   Next, the relationship between the light irradiation and the luminance value is illustrated according to FIG. 9B. In FIG. 9B, a time difference 911 represents a time difference between the luminance value peak time 903 of the subject a and the LED irradiation time 905 by the mobile terminal M4. When checking the degree of coincidence (synchronization), one of the graphs K2 and K3 is correlated with the time having the value “1” while shifting the X axis between −Δt to Δt with respect to the other. After extraction (simply matching the bits with the closest time), the total value of the time differences between the corresponding bits is calculated.

もし対応するビットがないものがある場合、便宜上、最も近いビットどうしを対応させる(したがって、1対1対応になるとは限らない)。例えば、もし被写体aの輝度値ピーク時刻903と、モバイル端末M4によるLED照射時刻905とに対応関係にあり、グラフK3の時刻をδtだけ遅らせた場合、その差分は、下記式(3)により計算される。   If there is a bit that does not have a corresponding bit, for convenience, the closest bits are made to correspond to each other (thus, it is not always one-to-one correspondence). For example, if there is a correspondence between the luminance value peak time 903 of the subject a and the LED irradiation time 905 by the mobile terminal M4, and the time of the graph K3 is delayed by δt, the difference is calculated by the following equation (3). Is done.

上記式(3)中、tは時刻、δtは時刻の差分をそれぞれ示す。   In the above formula (3), t represents time and δt represents time difference.

次に、判定部P41にて成りすましの有無を判定する。この際、上記式(3)で得られた値が事前に設定した閾値以上である場合、被写体aの輝度値の変化とモバイル端末M4のLED照射のタイミングとが同期していない(成りすましの可能性有り)と判定される。すなわち、この一例での一致度は、上記式(3)で得られた値が事前に設定した閾値以上である場合と、閾値未満である場合との二択で表すことができる。これにより、モバイル端末M4が撮影しているものが、指や手を撮影した動画を再生したものではないことを確認することができる。   Next, the determination unit P41 determines the presence / absence of impersonation. At this time, if the value obtained by the above equation (3) is equal to or greater than a preset threshold value, the change in the luminance value of the subject a and the timing of the LED irradiation of the mobile terminal M4 are not synchronized (impersonation is possible). Determined). That is, the degree of coincidence in this example can be expressed by two choices of a case where the value obtained by the above formula (3) is greater than or equal to a preset threshold value and a case where the value is less than the threshold value. Accordingly, it can be confirmed that what the mobile terminal M4 is photographing is not a reproduction of a moving image obtained by photographing a finger or a hand.

以上のように、当該生体検知装置4は、上述した作用部P14、取得部P21、算出部P34および判定部P41を備えているので、あらかじめ撮影した指紋や掌紋などの写真や動画を提示する成りすまし攻撃に対しても、モバイル端末M4に付属しているカメラ14を用いて簡便に成りすましを検知することができる。特に、当該生体検知装置4は、上述したように被写体aの輝度値の変化により一致度を算出するので、成りすましをより確実に検知することができる。   As described above, the living body detection apparatus 4 includes the above-described action unit P14, acquisition unit P21, calculation unit P34, and determination unit P41, so that it pretends to present photographs and videos such as fingerprints and palm prints that have been taken in advance. Even for an attack, impersonation can be easily detected using the camera 14 attached to the mobile terminal M4. In particular, since the living body detection device 4 calculates the degree of coincidence based on the change in the luminance value of the subject a as described above, it can detect impersonation more reliably.

なお、上述した第4の実施形態では、モバイル端末M4の画面全体に対して輝度値の変化が閾値以上の領域の割合を計算し(ステップS702)、この領域の割合に基づき成りすましの可能性について判定(ステップS703)したが、これらのステップS702、S703を行わない生体検知装置であってもよい。   In the fourth embodiment described above, the ratio of the area where the change in luminance value is greater than or equal to the threshold is calculated for the entire screen of the mobile terminal M4 (step S702), and the possibility of impersonation based on the ratio of this area is calculated. Although it was determined (step S703), the living body detection device that does not perform these steps S702 and S703 may be used.

[第5の実施形態]
本実施形態の生体検知装置5は、概略的に、作用部P11と、取得部P21と、算出部P31と、判定部P45と、第1の画像判定部P55をさらに備えている。当該生体検知装置5は、判定部P45および第1の画像判定部55を備えている点で、第1の実施形態と異なっている。なお、本実施形態において、第1の画像判定部55および判定部45以外の構成は、第1の実施形態と同じであるため、その詳細な説明は省略する。
[Fifth Embodiment]
The living body detection device 5 of this embodiment schematically further includes an action part P11, an acquisition part P21, a calculation part P31, a determination part P45, and a first image determination part P55. The living body detection device 5 is different from the first embodiment in that it includes a determination unit P45 and a first image determination unit 55. In the present embodiment, the configuration other than the first image determination unit 55 and the determination unit 45 is the same as that of the first embodiment, and thus detailed description thereof is omitted.

第1の画像判定部P55は、取得部P21により撮影された画像を2値化すると共に、この2値化された画像をモルフォロジー処理して連結成分数を求める。   The first image determination unit P55 binarizes the image captured by the acquisition unit P21, and obtains the number of connected components by performing a morphological process on the binarized image.

判定部P45は、算出部P31にて算出した一致度および第1の画像判定部P55にて求めた連結成分数に基づき、被認証者が正当な者に成りすましているか否かを判定する。   The determination unit P45 determines whether or not the person to be authenticated is impersonating a valid person based on the degree of coincidence calculated by the calculation unit P31 and the number of connected components obtained by the first image determination unit P55.

次に、当該生体検知装置5を用いて行われる生体検知の具体的な流れについて、図10を参照しながら説明する。第1の画像判定部P55による処理は、通常、被認証者が正当な者に成りすましているか否かを判定した後に行われる。このため、例えば、第1の実施形態ではステップS304とS306との間で行われる(図3参照)。   Next, a specific flow of living body detection performed using the living body detection apparatus 5 will be described with reference to FIG. The processing by the first image determination unit P55 is normally performed after determining whether or not the person to be authenticated is impersonating a legitimate person. For this reason, for example, in 1st Embodiment, it carries out between step S304 and S306 (refer FIG. 3).

この処理では、まず、取得部P21により撮影された画像のうち、部分領域(エリア)(サイズw×h)別に、輝度値の変化が大きい方向(以下、「勾配方向」ともいう)を計算する(ステップS1001)。なお、このステップS1001では、最大勾配方向だけではなく、上位数件の勾配方向を計算してもよい。   In this process, first, a direction (hereinafter also referred to as “gradient direction”) in which the luminance value changes greatly is calculated for each partial area (area) (size w × h) in the image captured by the acquisition unit P21. (Step S1001). In step S1001, not only the maximum gradient direction but also several gradient directions may be calculated.

次に、各部分領域ごとに計算した勾配方向と、垂直方向とに画素成分を射影してヒストグラムを計算する(ステップS1002)。なお、ステップ1001において、複数の勾配方向を計算した場合には、勾配の強さに応じた加重平均により、最終的な勾配方向を計算してもよい。   Next, a histogram is calculated by projecting pixel components in the gradient direction calculated for each partial region and in the vertical direction (step S1002). When a plurality of gradient directions are calculated in step 1001, the final gradient direction may be calculated by a weighted average corresponding to the strength of the gradient.

次に、各部分領域(エリア)ごとに2値化閾値を計算し、2値化画像を生成する(ステップS1003)(図11に例示の2値化画像1102、1105参照)。次いで、ステップS1003で作成した2値化画像に対してモルフォロジー処理を行い、島領域(連結成分)の抽出を行う(ステップS1004)。このモルフォロジー処理は、通常、膨張処理と収縮処理で構成される。膨張処理では、出力ピクセル値は、入力ピクセル近傍(例えば8近傍)の中で全てのピクセルの最大値とする。一方、収縮処理では、出力ピクセル値は、入力ピクセル近傍(例えば8近傍)の中で全てのピクセルの最小値とする。   Next, a binarization threshold value is calculated for each partial region (area) to generate a binarized image (step S1003) (see the binarized images 1102 and 1105 illustrated in FIG. 11). Next, morphological processing is performed on the binarized image created in step S1003, and island regions (connected components) are extracted (step S1004). This morphological process is usually composed of an expansion process and a contraction process. In the dilation process, the output pixel value is set to the maximum value of all pixels in the vicinity of the input pixel (for example, the vicinity of 8). On the other hand, in the contraction process, the output pixel value is the minimum value of all pixels in the vicinity of the input pixel (for example, the vicinity of 8).

次に、島領域を抽出した後、抽出した島領域の数をカウントする(ステップS1005)。次いで、抽出した島領域の数を用いて成りすましの有無を判定する(ステップS1006)。この際、島領域の数が閾値以上であった場合、成りすましの可能性があると判断して認証NGとし、島領域の数が閾値未満であった場合、以降の生体認証処理に移行する。   Next, after extracting island areas, the number of extracted island areas is counted (step S1005). Next, the presence / absence of impersonation is determined using the number of extracted island regions (step S1006). At this time, if the number of island areas is equal to or greater than the threshold, it is determined that there is a possibility of impersonation, and authentication NG is determined. If the number of island areas is less than the threshold, the process proceeds to subsequent biometric authentication processing.

ここで、上述した島領域の抽出方法の具体例を、図11を参照しながら説明する。図11において、画像1101は、本物の指(被写体)をモバイル端末M5により撮影した画像の一例を示している。一方、画像1104は、指画像(被写体)を紙に印刷したものを、モバイル端末M5により撮影した画像の一例を示している。   Here, a specific example of the island region extraction method described above will be described with reference to FIG. In FIG. 11, an image 1101 shows an example of an image obtained by photographing a real finger (subject) with the mobile terminal M5. On the other hand, the image 1104 shows an example of an image obtained by photographing a finger image (subject) printed on paper with the mobile terminal M5.

まず、上述の撮影した画像の2値化を行う。画像1102、1105は、それぞれ画像1101、1104を上記ステップS1003により2値化した一例を示している。ステップS1003にて2値化する手法としては、例えば、大津の方法(URL:http://imagingsolution.blog107.fc2.com/blog−entry−113.html)等を採用することができる。これらの2値化後の画像において、画像1105では、印刷物に含まれるテクスチャ情報の影響により、勾配ベクトルをうまく計算できなかったため、2値化に失敗するエリアが多数出現している。   First, the above-described photographed image is binarized. Images 1102 and 1105 show an example in which the images 1101 and 1104 are binarized in step S1003, respectively. As a method of binarization in step S1003, for example, Otsu's method (URL: http://imaginingsolution.blog107.fc2.com/blog-entry-113.html) or the like can be employed. In these binarized images, in the image 1105, the gradient vector could not be calculated well due to the influence of the texture information included in the printed matter, and therefore many areas that fail to binarize appear.

次いで、上述の2値化後の画像のモルフォロジー処理を行う。画像1103、1106は、それぞれ画像1102、1105を上記ステップS1004によりモルフォロジー処理した一例を示している。このようなモルフォロジー処理を行うことで、島領域を抽出することができ、上述した島領域の数をカウントすることができる。   Next, the above-described binarized image morphological processing is performed. Images 1103 and 1106 show an example in which the images 1102 and 1105 are morphologically processed in step S1004, respectively. By performing such morphological processing, island regions can be extracted, and the number of island regions described above can be counted.

以上のように、当該生体検知装置5は、上記第1の画像判定部55をさらに備えていることで、画像から得られた連結成分数の大きさにより被写体aの偽造を判別することができ、成りすましをよりいっそう確実に検知することができる。   As described above, the living body detection device 5 further includes the first image determination unit 55, so that the forgery of the subject a can be determined based on the number of connected components obtained from the image. , Impersonation can be detected even more reliably.

[第6の実施形態]
本実施形態の生体検知装置6は、概略的に、作用部P11と、取得部P21と、算出部P31と、判定部P46と、第2の画像判定部P56をさらに備えている。当該生体検知装置6は、判定部P46および第2の画像判定部P56を備えている点で、第1の実施形態と異なっている。なお、本実施形態において、第2の画像判定部P56および判定部46以外の構成は、第1の実施形態と同じであるため、その詳細な説明は省略する。
[Sixth Embodiment]
The living body detection device 6 of this embodiment schematically further includes an action unit P11, an acquisition unit P21, a calculation unit P31, a determination unit P46, and a second image determination unit P56. The living body detection device 6 is different from the first embodiment in that it includes a determination unit P46 and a second image determination unit P56. In the present embodiment, the configuration other than the second image determination unit P56 and the determination unit 46 is the same as that of the first embodiment, and thus detailed description thereof is omitted.

第2の画像判定部P56は、取得部P21により撮影された画像からこの画像を構成する局所領域ごとの輝度の勾配方向を算出すると共に、この算出された勾配方向を用いて所定の角度ごとに量子化されたヒストグラムを求める。   The second image determination unit P56 calculates the luminance gradient direction for each local region constituting the image from the image captured by the acquisition unit P21, and uses the calculated gradient direction for each predetermined angle. Find the quantized histogram.

判定部P46は、算出部P31にて算出した一致度および第2の画像判定部P56にて求めたヒストグラムにおける度数の分散に基づき、被認証者が正当な者に成りすましているか否かを判定する。   The determination unit P46 determines whether or not the person to be authenticated is impersonating a right person based on the degree of coincidence calculated by the calculation unit P31 and the variance of the frequencies in the histogram obtained by the second image determination unit P56. .

次に、当該生体検知装置6を用いて行われる生体検知の具体的な流れについて、図12を参照しながら説明する。第2の画像判定部P56による処理は、通常、被認証者が正当な者に成りすましているか否かを判定した後に行われる。このため、第5の実施形態と同様に、例えば、第1の実施形態ではステップS305とS306との間で行われる(図3参照)。   Next, a specific flow of biological detection performed using the biological detection device 6 will be described with reference to FIG. The processing by the second image determination unit P56 is normally performed after determining whether or not the person to be authenticated is impersonating a valid person. Therefore, as in the fifth embodiment, for example, in the first embodiment, the process is performed between steps S305 and S306 (see FIG. 3).

この処理では、第5の実施形態と同様に、部分領域別に勾配方向を計算(ステップS1201)し、この勾配方向と垂直方向とに画素成分を射影したヒストグラムを計算(ステップS1202)した後、2値化画像を生成(ステップS1203)する。なお、これらの計算は、第5の実施形態の説明を援用してここでの詳細な説明は省略する。   In this process, as in the fifth embodiment, the gradient direction is calculated for each partial region (step S1201), and a histogram in which pixel components are projected in the gradient direction and the vertical direction is calculated (step S1202). A digitized image is generated (step S1203). In addition, these calculations use the description of 5th Embodiment, and a detailed description here is abbreviate | omitted.

次に、ステップS1203にて生成した2値化画像に対し、ステップS1201と同じ処理により、輝度値の勾配方向を計算する(ステップS1204)。このとき勾配を計算する部分領域のサイズ(w’×h’)は、ステップS1201のサイズ(w×h)と同じであってもよく、異なっていてもよい。   Next, the gradient direction of the luminance value is calculated for the binarized image generated in step S1203 by the same process as in step S1201 (step S1204). At this time, the size (w ′ × h ′) of the partial region for calculating the gradient may be the same as or different from the size (w × h) in step S1201.

次に、上記勾配方向を例えば角度π/16ごとに量子化したヒストグラムを計算し、このヒストグラムの分散を算出する(ステップS1205)。次いで、算出した分散を用いて成りすましの有無を判定する(ステップS1206)。この際、算出した分散が一定値以下であった場合、成りすましの可能性があると判断して認証NGとし、上記分散が上記一定値超であった場合、以降の生体認証処理に行移する。   Next, a histogram obtained by quantizing the gradient direction for each angle π / 16, for example, is calculated, and the variance of this histogram is calculated (step S1205). Next, the presence / absence of impersonation is determined using the calculated variance (step S1206). At this time, if the calculated variance is less than or equal to a certain value, it is determined that there is a possibility of impersonation, and authentication NG is determined. If the variance exceeds the certain value, the process proceeds to the subsequent biometric authentication processing. .

以上のように、当該生体検知装置6は、上記第2の画像判定部P56をさらに備えていることで、画像から得られた分散の大きさにより被写体aの偽造を判別することができ、成りすましをよりいっそう確実に検知することができる。   As described above, the living body detection apparatus 6 further includes the second image determination unit P56, so that the forgery of the subject a can be determined based on the size of the dispersion obtained from the image, and impersonation is performed. Can be detected more reliably.

なお、本発明は、上述した実施形態の構成に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。   In addition, this invention is not limited to the structure of embodiment mentioned above, is shown by the claim, and intends that all the changes within the meaning and range equivalent to a claim are included. Is done.

例えば、上述した実施形態では、当該生体検知装置がモバイル端末に組み込まれている態様を例示して説明したが、本発明の効果を損なわない限り、モバイル端末とは別体であってもよい。かかる場合、当該生体検知装置は、例えば、上述したハードウェア構成と同様な構成および同様な機能を有する計算機(認証サーバ)を一つ以上備え、この計算機とモバイル端末とが通信ネットワークを介して接続されている構成、同様な機能を分担して実行する複数の計算機を備え、この計算機とモバイル端末とが通信ネットワークを介して接続されている構成等を採用することができる。上記分担して実行する場合、例えば、被写体時系列データ取得プログラムが、情報保持手段に格納する代わりにいずれかのファイルサーバに格納され、被写体画像、被写体時系列データ、認証装置時系列データ等が、通信プログラムによって送受信されるような構成等が挙げられる。   For example, in the embodiment described above, the aspect in which the living body detection apparatus is incorporated in the mobile terminal has been described as an example, but may be separate from the mobile terminal as long as the effects of the present invention are not impaired. In such a case, the living body detection apparatus includes, for example, one or more computers (authentication servers) having the same configuration and the same function as the hardware configuration described above, and the computer and the mobile terminal are connected via a communication network. It is possible to employ a configuration in which a plurality of computers that share and execute similar functions are provided and the computer and the mobile terminal are connected via a communication network. In the case of executing by sharing the above, for example, the subject time-series data acquisition program is stored in one of the file servers instead of being stored in the information holding means, and the subject image, the subject time-series data, the authentication device time-series data, etc. For example, a configuration that is transmitted and received by a communication program can be used.

1〜6 生体検知装置
14 撮影装置(カメラ)
M1〜M5 モバイル端末
a 被写体
P11、P14 作用部
P21 取得部
P31〜P34 算出部
P41、P45、P46 判定部
P55 第1の画像判定部
P56 第2の画像判定部
1-6 Living body detection device 14 Imaging device (camera)
M1 to M5 Mobile terminal a Subject P11, P14 action unit P21 acquisition unit P31 to P34 calculation unit P41, P45, P46 determination unit P55 first image determination unit P56 second image determination unit

Claims (5)

動画の撮影が可能な撮影装置を有するモバイル端末と連携し、前記モバイル端末を取り扱う被認証者の正当な者への成りすましを検知する生体検知装置であって、
被写体へ作用する作用部と、
前記撮影装置を用い、前記被写体を含む画像を時系列に撮影する取得部と、
前記作用部による前記被写体への作用と、前記取得部により撮影された時系列の画像との一致度を算出する算出部と、
前記算出部により算出された一致度を用い、前記被認証者が前記正当な者に成りすましているか否かを判定する判定部とを備えていることを特徴とする生体検知装置。
A biological detection device that detects impersonation of an authenticated person who handles a mobile terminal in cooperation with a mobile terminal having a shooting device capable of shooting a video,
An action part acting on the subject;
An acquisition unit that shoots an image including the subject in time series using the imaging device;
A calculation unit that calculates the degree of coincidence between the action of the action unit on the subject and a time-series image captured by the acquisition unit;
A living body detection apparatus comprising: a determination unit that determines whether or not the person to be authenticated impersonates the right person using the degree of coincidence calculated by the calculation unit.
作用部が、被認証者にモバイル端末を被写体に対して動かすように指示するものであり、
算出部により算出された一致度が、前記作用部により指示された前記モバイル端末を動かす方向と、取得部により撮影された時系列の画像から求められた前記被写体の移動方向とを用いて算出されたものである請求項1に記載の生体検知装置。
The action unit instructs the person to be authenticated to move the mobile terminal relative to the subject,
The degree of coincidence calculated by the calculation unit is calculated using the direction in which the mobile terminal is instructed by the action unit and the moving direction of the subject obtained from the time-series images taken by the acquisition unit. The living body detection device according to claim 1, wherein
作用部が、所定のタイミングで被写体に対して複数回光を照射するものであり、
算出部により算出された一致度が、前記タイミングと、取得部により撮影された時系列の画像から求められた前記被写体の輝度値の変化とを用いて算出されたものである請求項1に記載の生体検知装置。
The action unit irradiates the subject multiple times with a predetermined timing,
The degree of coincidence calculated by the calculation unit is calculated using the timing and a change in luminance value of the subject obtained from a time-series image captured by the acquisition unit. Living body detection device.
第1の画像判定部をさらに備え、
前記第1の画像判定部が、取得部により撮影された画像を2値化すると共に、この2値化された画像をモルフォロジー処理して連結成分数を求めるものであり、
判定部が、一致度および前記連結成分数に基づき、被認証者が正当な者に成りすましているか否かを判定する請求項1から請求項3のいずれか1項に記載の生体検知装置。
A first image determination unit;
The first image determination unit binarizes the image photographed by the acquisition unit, and obtains the number of connected components by performing a morphological process on the binarized image.
The living body detection device according to any one of claims 1 to 3, wherein the determination unit determines whether or not the person to be authenticated is impersonating a valid person based on the degree of coincidence and the number of connected components.
第2の画像判定部をさらに備え、
前記第2の画像判定部が、取得部により撮影された画像からこの画像を構成する局所領域ごとの輝度の勾配方向を算出すると共に、この算出された勾配方向を用いて所定の角度ごとに量子化されたヒストグラムを求めるものであり、
判定部が、一致度および前記ヒストグラムにおける度数の分散に基づき、被認証者が正当な者に成りすましているか否かを判定する請求項1から請求項3のいずれか1項に記載の生体検知装置。
A second image determination unit;
The second image determination unit calculates a gradient direction of luminance for each local region constituting the image from the image photographed by the acquisition unit, and uses the calculated gradient direction to quantize each predetermined angle. To obtain a normalized histogram,
The living body detection device according to any one of claims 1 to 3, wherein the determination unit determines whether or not the person to be authenticated is impersonating a valid person based on the degree of coincidence and the variance of the frequencies in the histogram. .
JP2016171203A 2016-09-01 2016-09-01 Biodetector Active JP6754642B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016171203A JP6754642B2 (en) 2016-09-01 2016-09-01 Biodetector
PCT/JP2017/027701 WO2018042996A1 (en) 2016-09-01 2017-07-31 Lifeform sensing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016171203A JP6754642B2 (en) 2016-09-01 2016-09-01 Biodetector

Publications (2)

Publication Number Publication Date
JP2018036965A true JP2018036965A (en) 2018-03-08
JP6754642B2 JP6754642B2 (en) 2020-09-16

Family

ID=61300697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016171203A Active JP6754642B2 (en) 2016-09-01 2016-09-01 Biodetector

Country Status (2)

Country Link
JP (1) JP6754642B2 (en)
WO (1) WO2018042996A1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6890202B1 (en) * 2020-09-29 2021-06-18 PayPay株式会社 Information processing equipment, information processing methods and information processing programs
JP2021526263A (en) * 2018-06-03 2021-09-30 アップル インコーポレイテッドApple Inc. Implementation of biometrics
JP6994595B1 (en) 2020-09-29 2022-01-14 PayPay株式会社 Information processing equipment, information processing methods and information processing programs
WO2022024222A1 (en) 2020-07-28 2022-02-03 富士通株式会社 Evaluation method, information processing device, and evaluation program
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11332853A (en) * 1998-05-22 1999-12-07 Oki Electric Ind Co Ltd Method and apparatus for recognizing individual
JP2003178306A (en) * 2001-12-12 2003-06-27 Toshiba Corp Personal identification device and personal identification method
JP2006133945A (en) * 2004-11-04 2006-05-25 Matsushita Electric Ind Co Ltd Collation device, collation method, and collation program
JP2016081416A (en) * 2014-10-21 2016-05-16 Kddi株式会社 Biological body detection device, system and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11332853A (en) * 1998-05-22 1999-12-07 Oki Electric Ind Co Ltd Method and apparatus for recognizing individual
JP2003178306A (en) * 2001-12-12 2003-06-27 Toshiba Corp Personal identification device and personal identification method
JP2006133945A (en) * 2004-11-04 2006-05-25 Matsushita Electric Ind Co Ltd Collation device, collation method, and collation program
JP2016081416A (en) * 2014-10-21 2016-05-16 Kddi株式会社 Biological body detection device, system and program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
JP2021526263A (en) * 2018-06-03 2021-09-30 アップル インコーポレイテッドApple Inc. Implementation of biometrics
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
WO2022024222A1 (en) 2020-07-28 2022-02-03 富士通株式会社 Evaluation method, information processing device, and evaluation program
JP2022056329A (en) * 2020-09-29 2022-04-08 PayPay株式会社 Information processing apparatus, information processing method and information processing program
JP2022055620A (en) * 2020-09-29 2022-04-08 PayPay株式会社 Information processing apparatus, information processing method and information processing program
JP6890202B1 (en) * 2020-09-29 2021-06-18 PayPay株式会社 Information processing equipment, information processing methods and information processing programs
JP6994595B1 (en) 2020-09-29 2022-01-14 PayPay株式会社 Information processing equipment, information processing methods and information processing programs

Also Published As

Publication number Publication date
JP6754642B2 (en) 2020-09-16
WO2018042996A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6754642B2 (en) Biodetector
CN109948408B (en) Activity test method and apparatus
JP6650946B2 (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
US11023757B2 (en) Method and apparatus with liveness verification
KR102036978B1 (en) Liveness detection method and device, and identity authentication method and device
WO2018079031A1 (en) Image processing device, image processing method, facial recogntion system, program, and recording medium
JP6155306B2 (en) Face recognition method, apparatus, program, and computer-readable recording medium
KR101897072B1 (en) Method and apparatus for verifying facial liveness in mobile terminal
KR20170002892A (en) Method and apparatus for detecting fake fingerprint, method and apparatus for recognizing fingerprint
US11756338B2 (en) Authentication device, authentication method, and recording medium
KR20210062381A (en) Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus
US11682236B2 (en) Iris authentication device, iris authentication method and recording medium
KR20210069404A (en) Liveness test method and liveness test apparatus
JP6311237B2 (en) Collation device and collation method, collation system, and computer program
JP6578843B2 (en) System, apparatus, method and program
KR102148699B1 (en) Apparatus and method for recognizing face
JP2001331804A (en) Device and method for detecting image area
US20230206686A1 (en) Face authentication method, storage medium, and face authentication device
JP2022040244A (en) Information processing apparatus, method and program
KR20210001270A (en) Method and apparatus for blur estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6754642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150