JP2023132726A - Biological image acquisition device and biological image acquisition method - Google Patents

Biological image acquisition device and biological image acquisition method Download PDF

Info

Publication number
JP2023132726A
JP2023132726A JP2022038222A JP2022038222A JP2023132726A JP 2023132726 A JP2023132726 A JP 2023132726A JP 2022038222 A JP2022038222 A JP 2022038222A JP 2022038222 A JP2022038222 A JP 2022038222A JP 2023132726 A JP2023132726 A JP 2023132726A
Authority
JP
Japan
Prior art keywords
tactile sensation
authentication
biometric
user
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022038222A
Other languages
Japanese (ja)
Inventor
正治郎 松尾
Shojiro Matsuo
宣貴 児玉
Nobutaka Kodama
和典 林
Kazunori Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022038222A priority Critical patent/JP2023132726A/en
Priority to PCT/JP2023/009466 priority patent/WO2023171819A1/en
Publication of JP2023132726A publication Critical patent/JP2023132726A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To provide a biological image acquisition device and a biological image acquisition method which suppress variations in photographing conditions of a biological authentication part, in non-contact biological authentication using a camera.SOLUTION: In a biological authentication system 100, an authentication device P0 as a biological image acquisition device includes a tactile sense generation device P1 for generating a tactile sense using acoustic waves at a predetermined aerial position, and a biological information acquisition device P2 having a camera for biological information acquisition for photographing a predetermined part of a person to be authenticated positioned at the predetermined position, and a communication part for transmitting a photographic image photographed by the camera for biological information acquisition to a biological authentication device P3 for executing authentication processing of the person to be authenticated through network NW.SELECTED DRAWING: Figure 1

Description

本開示は、生体画像取得装置および生体画像取得方法に関する。 The present disclosure relates to a biological image acquisition device and a biological image acquisition method.

特許文献1には、人間の被認証部位に関する情報を取得し、取得された情報と予め登録された個人認証用情報とを比較した結果に基づいて、個人認証を行う生体認証装置が開示されている。生体認証装置は、表示部により被認証部位を所定の撮像領域にガイドするためのガイド用情報を表示し、空中結像部材によりガイド用情報を示す光が入射され、入射された光を入射側とは反対側に出射して空中に虚像を生成する。生体認証装置は、被認証部位を撮像し、撮像された被認証部位の画像を処理して、被認証部位に関する情報を取得し、取得された被認証部位に関する情報と、記憶された個人認証用情報とを比較した比較結果に基づいて、個人認証を行う。また、空中結像部材は、生体認証装置から離れたところに虚像を生成し、この虚像を生成する側に位置する面がフラットである。 Patent Document 1 discloses a biometric authentication device that acquires information regarding a human body part to be authenticated and performs personal authentication based on the result of comparing the acquired information with pre-registered personal authentication information. There is. The biometric authentication device displays guiding information for guiding the body part to be authenticated to a predetermined imaging area on the display unit, and the aerial imaging member allows light indicating the guiding information to be incident, and directs the incident light to the incident side. It emits on the opposite side and creates a virtual image in the air. The biometric authentication device captures an image of the body part to be authenticated, processes the image of the body part to be authenticated, acquires information about the body part to be authenticated, and uses the acquired information about the body part to be authenticated and the stored information for personal authentication. Personal authentication is performed based on the comparison results with the information. Further, the aerial imaging member generates a virtual image at a location away from the biometric authentication device, and the surface located on the side where the virtual image is generated is flat.

特開2019-40463号公報JP 2019-40463 Publication

しかし、特許文献1では、生成された虚像に対する被認証部位の実際の位置が認証対象者ごとに異なったり、被認証部位(例えば、手等)の大きさが個人差により異なったりする。よって、生体認証装置は、生体認証に用いられる被認証部位の画像の撮像条件にばらつきが生じることがあった。 However, in Patent Document 1, the actual position of the part to be authenticated with respect to the generated virtual image differs for each person to be authenticated, and the size of the part to be authenticated (for example, a hand, etc.) differs depending on individual differences. Therefore, in the biometric authentication device, variations may occur in the imaging conditions for images of the body part to be authenticated used for biometric authentication.

本開示は、上述した従来の事情に鑑みて案出され、カメラを用いた非接触生体認証において、生体認証部位の撮像条件のばらつきを抑制する生体画像取得装置および生体画像取得方法を提供することを目的とする。 The present disclosure was devised in view of the above-mentioned conventional circumstances, and provides a biometric image acquisition device and a biometric image acquisition method that suppress variations in imaging conditions of a biometric authentication site in non-contact biometric authentication using a camera. With the goal.

本開示は、空中の所定位置に音波を用いた触覚を生成する触覚生成部と、前記所定位置に位置する被認証者の所定部位を撮像するカメラと、前記カメラにより撮像された撮像画像を、前記被認証者の認証処理を実行する外部装置に送信する通信部と、を備える、生体画像取得装置を提供する。 The present disclosure provides a tactile sensation generating unit that generates a tactile sensation using sound waves at a predetermined position in the air, a camera that images a predetermined part of a person to be authenticated located at the predetermined position, and an image captured by the camera, A living body image acquisition device is provided, comprising: a communication unit that transmits data to an external device that performs authentication processing of the person to be authenticated.

また、本開示は、1つ以上のコンピュータを備える生体画像取得装置が行う生体画像取得方法であって、空中の所定位置に音波を用いた触覚を生成し、前記所定位置に位置する被認証者の所定部位を撮像し、撮像された撮像画像を、前記被認証者の認証処理を実行する外部装置に送信する、生体情報取得方法を提供する。 The present disclosure also provides a biological image acquisition method performed by a biological image acquisition device including one or more computers, which generates a tactile sensation using sound waves at a predetermined position in the air, and A biometric information acquisition method is provided, in which a predetermined part of a person is imaged, and the captured image is transmitted to an external device that performs authentication processing of the person to be authenticated.

本開示によれば、カメラを用いた非接触生体認証において、生体認証部位の撮像条件のばらつきを抑制できる。 According to the present disclosure, in non-contact biometric authentication using a camera, variations in imaging conditions of a biometric authentication site can be suppressed.

実施の形態1に係る生体認証システムの全体構成例を説明する図A diagram illustrating an example of the overall configuration of a biometric authentication system according to Embodiment 1 実施の形態1における触覚生成装置の内部構成例1を示す図A diagram showing an example 1 of the internal configuration of the tactile sensation generation device in the first embodiment 超音波送信部による触覚提示方法を説明する図Diagram explaining the tactile presentation method by the ultrasonic transmitter 超音波送信部の一例を説明する図Diagram explaining an example of an ultrasonic transmitter 実施の形態1における触覚生成装置の内部構成例2を示す図A diagram showing an internal configuration example 2 of the tactile sensation generation device in the first embodiment 実施の形態1における生体情報取得装置および生体認証装置の内部構成例を示す図A diagram showing an example of internal configuration of a biometric information acquisition device and a biometric authentication device in Embodiment 1. 実施の形態1の変形例に係る生体認証システムの全体構成例を説明する図A diagram illustrating an example of the overall configuration of a biometric authentication system according to a modification of Embodiment 1 実施の形態1の変形例における生体情報取得装置および生体認証装置の内部構成例を示す図A diagram showing an example of the internal configuration of a biometric information acquisition device and a biometric authentication device in a modification of Embodiment 1. 実施の形態1および実施の形態1の変形例に係る生体認証システムの動作手順例1を示すフローチャートFlowchart illustrating example 1 of operation procedures of the biometric authentication system according to the first embodiment and a modification of the first embodiment 生体認証用画像の第1取得例を説明する図Diagram illustrating a first example of acquiring an image for biometric authentication 生体認証用画像の第1取得例を説明する図Diagram illustrating a first example of acquiring an image for biometric authentication 生体認証用画像の第2取得例を説明する図A diagram illustrating a second example of acquiring an image for biometric authentication 生体認証用画像の第2取得例を説明する図A diagram illustrating a second example of acquiring an image for biometric authentication 生体認証用画像の第3取得例を説明する図A diagram illustrating a third example of acquiring an image for biometric authentication 生体認証用画像の第3取得例を説明する図A diagram illustrating a third example of acquiring an image for biometric authentication 生体認証用画像の第4取得例を説明する図Diagram illustrating a fourth acquisition example of biometric authentication images 生体認証用画像の第4取得例を説明する図Diagram illustrating a fourth acquisition example of biometric authentication images 実施の形態1および実施の形態1の変形例に係る生体認証システムの動作手順例2を示すフローチャートFlowchart showing a second example of the operation procedure of the biometric authentication system according to the first embodiment and a modification of the first embodiment 実施の形態1および実施の形態1の変形例に係る生体認証システムの動作手順例3を示すフローチャートFlowchart showing a third example of the operation procedure of the biometric authentication system according to the first embodiment and a modification of the first embodiment 生体認証用画像の第5取得例を説明する図A diagram illustrating a fifth example of acquiring an image for biometric authentication 生体認証用画像の第5取得例を説明する図A diagram illustrating a fifth example of acquiring an image for biometric authentication 生体認証用画像の第6取得例を説明する図Diagram illustrating the sixth acquisition example of biometric authentication images 生体認証用画像の第6取得例を説明する図Diagram illustrating the sixth acquisition example of biometric authentication images

以下、適宜図面を参照しながら、本開示に係る生体画像取得装置および生体画像取得方法の構成および作用を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments specifically disclosing the configuration and operation of a biological image acquisition device and a biological image acquisition method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.

(実施の形態1)
図1を参照して、実施の形態1に係る生体認証システム100の全体構成について説明する。図1は、実施の形態1に係る生体認証システムの100の全体構成例を説明する図である。
(Embodiment 1)
The overall configuration of biometric authentication system 100 according to Embodiment 1 will be described with reference to FIG. 1. FIG. 1 is a diagram illustrating an example of the overall configuration of a biometric authentication system 100 according to the first embodiment.

実施の形態1に係る生体認証システム100は、触覚生成装置P1,P1Aにより生体認証対象であるユーザの手に触覚を付与して、生体認証に用いられる撮像画像(以降、「生体認証用画像」と表記)の撮像位置に誘導したり、撮像位置を提示したりする。生体認証システム100は、撮像位置に位置するユーザの生体部位(例えば、手の一部であって、指先、掌等)を撮像し、撮像された生体認証用画像に基づいて、ユーザの生体情報を抽出する。生体認証システム100は、抽出されたユーザの生体情報に基づいて、ユーザ認証を実行する。なお、ここでいう生体情報は、ユーザの指紋,掌紋,静脈等であってもよい。 The biometric authentication system 100 according to the first embodiment provides a tactile sensation to the hand of a user who is a biometric authentication target using the tactile generation devices P1 and P1A, and generates a captured image used for biometric authentication (hereinafter referred to as a "biometric authentication image"). guide the user to the imaging position (denoted as ) or present the imaging position. The biometric authentication system 100 captures an image of a user's biological body part (for example, a part of the hand, such as a fingertip or a palm) located at an imaging position, and obtains the user's biometric information based on the captured biometric authentication image. Extract. The biometric authentication system 100 performs user authentication based on the extracted user's biometric information. Note that the biometric information referred to here may be a user's fingerprint, palm print, vein, or the like.

実施の形態1に係る生体認証システム100は、認証装置P0と、生体認証装置P3とを含んで構成される。なお、認証装置P0における生体情報取得装置P2と、生体認証装置P3との間は、ネットワークNWを介して無線通信または有線通信可能に接続されてデータの送受信を行う。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)等の無線LAN(Local Area Network)を介した通信である。 The biometric authentication system 100 according to the first embodiment is configured to include an authentication device P0 and a biometric authentication device P3. Note that the biometric information acquisition device P2 and the biometric authentication device P3 in the authentication device P0 are connected via the network NW to enable wireless communication or wired communication, and transmit and receive data. Note that the wireless communication referred to here is communication via a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark), for example.

認証装置P0は、触覚生成装置P1,P1Aと、生体情報取得装置P2と、を少なくとも含んで構成される。認証装置P0は、触覚生成装置P1,P1Aにより生体認証用画像を撮像可能な位置を触覚によりユーザに提示し、生体情報取得装置P2によりユーザの生体情報を取得する。生体認証装置P3は、生体情報取得装置P2により取得されたユーザの生体情報に基づく、ユーザ認証処理を実行する。生体情報取得装置P2は、取得されたユーザの生体情報を生体認証装置P3に送信し、生体認証装置P3により実行されたユーザ認証結果に基づいて、ユーザ認証結果を通知する画面を生成して、モニタMNに出力して表示させる。 Authentication device P0 is configured to include at least tactile sense generation devices P1 and P1A and biometric information acquisition device P2. The authentication device P0 uses the tactile sense to present to the user a position where a biometric authentication image can be captured by the tactile sense generation devices P1 and P1A, and acquires the user's biometric information by the biometric information acquisition device P2. The biometric authentication device P3 executes user authentication processing based on the user's biometric information acquired by the biometric information acquisition device P2. The biometric information acquisition device P2 transmits the acquired biometric information of the user to the biometric authentication device P3, generates a screen for notifying the user authentication result based on the user authentication result executed by the biometric authentication device P3, Output and display on monitor MN.

なお、認証装置P0は、モニタMNが必須の構成でなく、省略されてもよい。モニタMNは、触覚生成装置P1,P1Aとの間でデータ送受信可能に接続される構成であってもよい。 Note that the authentication device P0 does not have a configuration in which the monitor MN is essential and may be omitted. The monitor MN may be configured to be connected to the tactile sensation generating devices P1 and P1A so as to be able to transmit and receive data.

生体認証装置P3は、生体情報取得装置P2との間でデータ送受信可能に接続される。生体認証装置P3は、生体情報取得装置P2から送信されたユーザの生体情報を取得し、取得されたユーザの生体情報と、生体情報データベースDBに登録された複数の人物の生体情報とを照合することで、ユーザ認証を実行する。生体認証装置P3は、ユーザ認証結果を生体情報取得装置P2に送信する。 The biometric authentication device P3 is connected to the biometric information acquisition device P2 so as to be able to transmit and receive data. The biometric authentication device P3 acquires the user's biometric information transmitted from the biometric information acquisition device P2, and compares the acquired user's biometric information with the biometric information of multiple persons registered in the biometric information database DB. This will perform user authentication. The biometric authentication device P3 transmits the user authentication result to the biometric information acquisition device P2.

ネットワークNWは、認証装置P0の生体情報取得装置P2と、生体認証装置P3との間をデータ送受信可能に接続する。 The network NW connects the biometric information acquisition device P2 of the authentication device P0 and the biometric authentication device P3 so that data can be transmitted and received.

図2、図3A、および図3Bのそれぞれを参照して、実施の形態1における触覚生成装置P1の内部構成について説明する。図2は、実施の形態1における触覚生成装置P1の内部構成例1を示す図である。図3Aは、超音波送信部15による触覚提示方法を説明する図である。図3Bは、超音波送信部15の一例を説明する図である。なお、図3Bに示す超音波送信部15の超音波素子の数および配置は一例であってこれに限定されない。 The internal configuration of the haptic sensation generating device P1 in the first embodiment will be described with reference to FIG. 2, FIG. 3A, and FIG. 3B. FIG. 2 is a diagram showing an example 1 of the internal configuration of the tactile sensation generating device P1 in the first embodiment. FIG. 3A is a diagram illustrating a tactile presentation method by the ultrasound transmitter 15. FIG. 3B is a diagram illustrating an example of the ultrasound transmitter 15. Note that the number and arrangement of the ultrasonic elements of the ultrasonic transmitter 15 shown in FIG. 3B are merely an example, and are not limited thereto.

触覚生成装置P1は、生体情報取得装置P2の間でそれぞれデータ送受信可能に接続される。触覚生成装置P1は、通信部10と、プロセッサ11と、メモリ12と、手挿入検出部13と、信号レベル変換部14と、超音波送信部15と、を含んで構成される。 The tactile sense generation device P1 is connected to the biometric information acquisition device P2 so that data can be transmitted and received. The tactile sensation generation device P1 includes a communication section 10, a processor 11, a memory 12, a hand insertion detection section 13, a signal level conversion section 14, and an ultrasound transmission section 15.

通信部10は、生体情報取得装置P2の通信部30との間でそれぞれデータの送受信を実行する。通信部10は、生体情報取得装置P2から送信された電気信号(制御指令)をプロセッサ11に出力する。また、通信部10は、プロセッサ11から出力された手の挿入検知結果を生体情報取得装置P2に送信する。 The communication unit 10 transmits and receives data to and from the communication unit 30 of the biological information acquisition device P2. The communication unit 10 outputs the electrical signal (control command) transmitted from the biological information acquisition device P2 to the processor 11. Furthermore, the communication unit 10 transmits the hand insertion detection result output from the processor 11 to the biological information acquisition device P2.

プロセッサ11は、例えばCPU(Central Processing Unit)またはFPGA(Field Programmable Gate Array)を用いて構成されて、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11は、メモリ12に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、出力信号変調部111、出力レベル算出部112、遅延時間算出部113、および送信信号生成部114等の機能を実現する。 The processor 11 is configured using, for example, a CPU (Central Processing Unit) or an FPGA (Field Programmable Gate Array), and performs various processing and control in cooperation with the memory 12. Specifically, the processor 11 refers to the program and data held in the memory 12 and executes the program to control the output signal modulation section 111, the output level calculation section 112, the delay time calculation section 113, and the transmission. It realizes the functions of the signal generation unit 114 and the like.

メモリ12は、例えばプロセッサ11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ11の動作を規定するプログラムが書き込まれている。 The memory 12 includes, for example, a RAM (Random Access Memory) as a work memory used when the processor 11 executes each process, and a ROM (Read Only Memory) that stores programs and data that define the operations of the processor 11. have Data or information generated or acquired by the processor 11 is temporarily stored in the RAM. A program that defines the operation of the processor 11 is written in the ROM.

手挿入検出部13は、例えば、カメラ,センサ(例えば、反射型のTOF(Time Of Flight)センサ、赤外線センサ、あるいは透過型のレーザセンサ、受光センサ)等により実現される。手挿入検出部13は、超音波送信部15により触覚生成可能な領域にユーザの生体部位(具体的には、手指,掌等)が挿入されたか否かを判定(検出)する。手挿入検出部13は、触覚付与可能な領域にユーザの生体部位が挿入されたと判定した場合、ユーザの生体部位が挿入された旨の通知(制御指令)、あるいは検出されたユーザの生体部位の位置情報を生成して、プロセッサ11に出力する。 The hand insertion detection unit 13 is realized by, for example, a camera, a sensor (for example, a reflective TOF (Time Of Flight) sensor, an infrared sensor, a transmission laser sensor, a light receiving sensor), or the like. The hand insertion detection unit 13 determines (detects) whether or not a user's biological part (specifically, a finger, a palm, etc.) has been inserted into a region where a tactile sensation can be generated by the ultrasound transmission unit 15 . When the hand insertion detection unit 13 determines that the user's biological part has been inserted into the area where a tactile sensation can be imparted, the hand insertion detection unit 13 issues a notification (control command) that the user's biological part has been inserted, or a notification of the detected user's biological part. Position information is generated and output to the processor 11.

例えば、手挿入検出部13がカメラにより実現される場合、手挿入検出部13は、触覚提示(生成)可能な領域(例えば、触覚提示可能領域ARU11(図9参照)等)を撮像し、撮像された撮像画像を解析する。手挿入検出部13は、撮像画像の解析結果に基づいて、触覚生成可能な領域にユーザの生体部位が挿入されたと判定した場合、ユーザの生体部位が挿入された旨の通知(制御指令)を生成して、プロセッサ11に出力する。 For example, when the hand insertion detection unit 13 is implemented by a camera, the hand insertion detection unit 13 images a region where a tactile sensation can be presented (generated) (for example, a tactile sensation presentation possible region ARU11 (see FIG. 9), etc.), and captures an image. Analyze the captured image. When the hand insertion detection unit 13 determines that the user's biological part has been inserted into the area where tactile sensation can be generated based on the analysis result of the captured image, it sends a notification (control command) that the user's biological part has been inserted. It is generated and output to the processor 11.

また、例えば、手挿入検出部13がセンサにより実現される場合、手挿入検出部13は、触覚生成可能な領域(例えば、触覚提示可能領域ARU11(図9参照)等)へのユーザの生体部位が挿入されたか否かを検出する。手挿入検出部13は、触覚生成可能な範囲(領域)へのユーザの生体部位の挿入を検出した場合、ユーザの生体部位が挿入された旨の通知(制御指令)を生成して、プロセッサ11に出力する。 Further, for example, when the hand insertion detection unit 13 is implemented by a sensor, the hand insertion detection unit 13 detects a biological part of the user in an area where a tactile sensation can be generated (for example, a tactile sensation presentation possible area ARU11 (see FIG. 9), etc.). is inserted. When the hand insertion detection unit 13 detects insertion of the user's biological part into the range (area) where a tactile sensation can be generated, the hand insertion detection unit 13 generates a notification (control command) that the user's biological part has been inserted, and sends the processor 11 Output to.

信号レベル変換部14は、プロセッサ11の送信信号生成部114から出力された電気信号の電圧値を変換し、変換後の電気信号を超音波送信部15に出力する。 The signal level converter 14 converts the voltage value of the electrical signal output from the transmission signal generator 114 of the processor 11 and outputs the converted electrical signal to the ultrasound transmitter 15.

超音波送信部15は、複数の超音波素子16A,16B,…,16k(k:2以上の整数)のそれぞれがN(N:1以上の整数)列に配置されて(図3A,図3B参照)構成される。超音波送信部15は、信号レベル変換部14から出力された電気信号の電圧値に対応する振幅の音波に変換し、ユーザの手の位置に対応する触覚提示面HH(図3A参照)に向かって出力する。複数の超音波素子16A~16kNのそれぞれから出力された音波は、触覚提示面HHにおける焦点Pt0の位置で互いに強め合うことで、焦点Pt0の位置にあるユーザの手に触覚を与えることができる。 The ultrasonic transmitter 15 includes a plurality of ultrasonic elements 16A, 16B, ..., 16k (k: an integer of 2 or more) arranged in N (N: an integer of 1 or more) columns (FIGS. 3A and 3B). Reference) configured. The ultrasonic transmitter 15 converts the electrical signal output from the signal level converter 14 into a sound wave with an amplitude corresponding to the voltage value, and sends the sound wave toward the tactile presentation surface HH (see FIG. 3A) corresponding to the position of the user's hand. and output it. The sound waves output from each of the plurality of ultrasonic elements 16A to 16kN mutually intensify each other at the focal point Pt0 on the haptic presentation surface HH, thereby making it possible to provide a tactile sensation to the user's hand at the focal point Pt0.

以下、プロセッサ11により実現される各部の機能について説明する。 The functions of each section realized by the processor 11 will be described below.

出力信号変調部111は、超音波素子の出力振幅を超音波素子ごとに変調する。例えば、出力信号変調部111は、事前に設定された所定の触覚提示領域に対応する焦点Pt0と、複数の超音波素子16A~16kNのそれぞれの音波出力位置との間の距離とに基づいて、焦点Pt0における音波振幅を変調させる。出力信号変調部111は、音波振幅を変調させるための変調信号を生成して、送信信号生成部114に出力する。 The output signal modulation section 111 modulates the output amplitude of the ultrasonic element for each ultrasonic element. For example, the output signal modulation unit 111, based on the distance between the focal point Pt0 corresponding to a predetermined tactile presentation area set in advance and the sound wave output position of each of the plurality of ultrasonic elements 16A to 16kN, The sound wave amplitude at the focus Pt0 is modulated. Output signal modulation section 111 generates a modulation signal for modulating the amplitude of the sound wave, and outputs it to transmission signal generation section 114.

なお、ここでいう触覚提示領域は、生体認証用画像を撮像するために、挿入されたユーザの生体部位である所定の指先、掌等に触覚を提示する位置である。 Note that the tactile presentation area referred to here is a position where a tactile sense is presented to a predetermined fingertip, palm, etc. that is a biological part of the inserted user in order to capture an image for biometric authentication.

また、ここでいう変調は、複数の超音波素子のそれぞれから出力された音波振幅が焦点Pt0の位置において一定周期でON,OFFさせたり、焦点Pt0の位置において正弦波を描くように音波の出力振幅を変化させたりする処理である。このように、焦点位置における音波の振幅が変化することで、ユーザは、音波による触覚を得ることができる。 Furthermore, the modulation referred to here means that the sound wave amplitude output from each of the plurality of ultrasonic elements is turned ON and OFF at a constant cycle at the position of the focal point Pt0, or the output of the sound wave is made such that it draws a sine wave at the position of the focal point Pt0. This is a process that changes the amplitude. In this way, by changing the amplitude of the sound waves at the focal position, the user can obtain a tactile sensation due to the sound waves.

出力レベル算出部112は、音波による触覚を提示するための超音波送信部15の音波の出力レベル(出力信号の大きさ)を算出する。出力レベル算出部112は、算出された超音波素子ごとの音波の出力レベルの情報を送信信号生成部114に出力する。 The output level calculation unit 112 calculates the output level (magnitude of the output signal) of the sound waves of the ultrasound transmitting unit 15 for presenting a tactile sensation using sound waves. The output level calculation unit 112 outputs information on the calculated output level of the sound wave for each ultrasonic element to the transmission signal generation unit 114.

遅延時間算出部113は、事前に設定された手挿入位置においてユーザの手に触覚を提示するための超音波送信部15に配置された各素子の出力遅延時間を算出する。具体的に、遅延時間算出部113は、複数の超音波素子16A~16kNのそれぞれから出力される音波が所定の触覚提示領域で互いに強め合ように、超音波素子ごとの音波の出力タイミング(遅延時間)を算出する。遅延時間算出部113は、算出された超音波素子ごとの遅延時間の情報を送信信号生成部114に出力する。 The delay time calculation unit 113 calculates the output delay time of each element arranged in the ultrasound transmitting unit 15 for presenting a tactile sensation to the user's hand at a preset hand insertion position. Specifically, the delay time calculation unit 113 calculates the output timing (delay) of the sound waves for each ultrasonic element so that the sound waves output from each of the plurality of ultrasonic elements 16A to 16 kN strengthen each other in a predetermined tactile presentation area. time). Delay time calculation section 113 outputs information on the calculated delay time for each ultrasonic element to transmission signal generation section 114.

例えば、遅延時間算出部113は、所定の触覚提示領域と、各超音波素子の音波の出力位置との間の距離を算出し、算出された距離に応じて各素子から出力される音波の位相が焦点位置で同じになるように超音波素子ごとの遅延時間を算出する。 For example, the delay time calculation unit 113 calculates the distance between a predetermined tactile presentation area and the output position of the sound wave of each ultrasonic element, and the phase of the sound wave output from each element according to the calculated distance. The delay time for each ultrasonic element is calculated so that it is the same at the focal position.

送信信号生成部114は、出力信号変調部111から出力された変調信号と、出力レベル算出部112から出力された超音波素子ごとの出力レベルの情報と、遅延時間算出部113から出力された超音波素子ごとの遅延時間の情報とに基づいて、複数の超音波素子16A~16kNのそれぞれから出力される音波を制御する電気信号を生成する。送信信号生成部114は、生成された電気信号を信号レベル変換部14に出力する。 The transmission signal generation section 114 receives the modulated signal output from the output signal modulation section 111, the output level information for each ultrasonic element output from the output level calculation section 112, and the ultrasonic wave output from the delay time calculation section 113. Based on the delay time information for each acoustic wave element, an electric signal is generated to control the sound waves output from each of the plurality of ultrasonic elements 16A to 16 kN. Transmission signal generation section 114 outputs the generated electrical signal to signal level conversion section 14.

次に、図4を参照して、実施の形態1における触覚生成装置P1Aの他の内部構成を説明する。図4は、実施の形態1における触覚生成装置P1Aの内部構成例2を示す図である。なお、図2に示す触覚生成装置P1と同様の構成には同様の符号を付与し、説明を省略する。 Next, with reference to FIG. 4, another internal configuration of the haptic sensation generating device P1A in the first embodiment will be described. FIG. 4 is a diagram showing a second example of the internal configuration of the tactile sensation generating device P1A in the first embodiment. Note that the same components as those of the tactile sensation generating device P1 shown in FIG. 2 are given the same reference numerals, and the description thereof will be omitted.

図4に示す触覚生成装置P1Aは、挿入されたユーザの生体部位(例えば、指先、掌等)の位置を検出し、検出されたユーザの生体部位の位置と、ユーザの手の状態とに基づいて、超音波送信部15により出力される音波の提示(出力)位置を調整する。 The tactile sensation generating device P1A shown in FIG. 4 detects the position of the user's inserted biological part (for example, fingertip, palm, etc.), and based on the detected position of the user's biological part and the state of the user's hand. Then, the presentation (output) position of the sound waves output by the ultrasound transmitter 15 is adjusted.

触覚生成装置P1Aは、生体情報取得装置P2との間でデータ送受信可能に接続される。触覚生成装置P1Aは、通信部10と、プロセッサ11Aと、メモリ12と、手挿入検出部13と、信号レベル変換部14と、超音波送信部15と、を含んで構成される。 The tactile sensation generation device P1A is connected to the biological information acquisition device P2 so as to be able to transmit and receive data. The tactile sensation generating device P1A includes a communication section 10, a processor 11A, a memory 12, a hand insertion detection section 13, a signal level conversion section 14, and an ultrasound transmission section 15.

プロセッサ11Aは、例えばCPUまたはFPGAを用いて構成されて、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11Aは、メモリ12に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、出力信号変調部111、出力レベル算出部112、遅延時間算出部113A、送信信号生成部114A、および座標-距離変換部115等の機能を実現する。 The processor 11A is configured using, for example, a CPU or an FPGA, and performs various processes and controls in cooperation with the memory 12. Specifically, the processor 11A refers to the program and data held in the memory 12, and executes the program to improve the output signal modulation section 111, output level calculation section 112, delay time calculation section 113A, and transmission signal. The functions of the generation unit 114A, coordinate-distance conversion unit 115, etc. are realized.

手挿入検出部13Aは、例えば、カメラ,センサ等により実現される。手挿入検出部13Aは、超音波送信部15による触覚生成可能な領域(例えば、触覚提示可能領域ARU11(図9参照)等)にユーザの手(具体的には、手指,掌等)が挿入されたか否かを判定(検出)する。手挿入検出部13Aは、触覚付与可能な領域にユーザの手が挿入されたと判定した場合、ユーザの生体部位(例えば、手指、掌等)の位置(座標)を計測する。手挿入検出部13Aは、ユーザの手が挿入された旨の通知(制御指令)と、検出されたユーザの生体部位の位置情報とを生成して、プロセッサ11Aに出力する。 The hand insertion detection section 13A is realized by, for example, a camera, a sensor, or the like. The hand insertion detection unit 13A detects when the user's hand (specifically, fingers, palm, etc.) is inserted into a region where the ultrasound transmitting unit 15 can generate a tactile sensation (for example, a tactile presentation possible region ARU11 (see FIG. 9)). Determine (detect) whether or not it has occurred. When the hand insertion detection unit 13A determines that the user's hand has been inserted into the region where a tactile sensation can be imparted, the hand insertion detection unit 13A measures the position (coordinates) of the user's biological part (for example, finger, palm, etc.). The hand insertion detection unit 13A generates a notification (control command) that the user's hand has been inserted and the position information of the detected body part of the user, and outputs the information to the processor 11A.

なお、手挿入検出部13Aにより検出される生体部位は、任意の部位でなく、事前に設定された部位(例えば、所定の指先、掌等)であってよい。 Note that the body part detected by the hand insertion detection unit 13A may not be an arbitrary part but a preset part (for example, a predetermined fingertip, palm, etc.).

座標-距離変換部115は、手挿入検出部13Aから出力されたユーザの生体部位の位置情報(座標)を取得する。座標-距離変換部115は、取得された生体部位の位置情報(座標)に基づいて、超音波送信部15を構成する複数の超音波素子16A~16kNのそれぞれの音波の出力位置との間の距離を算出して、遅延時間算出部113Aに出力する。 The coordinate-distance conversion unit 115 acquires the position information (coordinates) of the user's biological body part output from the hand insertion detection unit 13A. The coordinate-distance converter 115 calculates the distance between the output position of the sound wave of each of the plurality of ultrasonic elements 16A to 16kN that constitute the ultrasonic transmitter 15 based on the acquired position information (coordinates) of the biological part. The distance is calculated and output to the delay time calculation section 113A.

遅延時間算出部113Aは、座標-距離変換部115から出力されたユーザの生体部位と、複数の超音波素子16A~16kNのそれぞれの音波の出力位置との間の距離に基づいて、複数の超音波素子16A~16kNのそれぞれから出力される音波の遅延時間を算出する。遅延時間算出部113Aは、算出された複数の超音波素子16A~16kNのそれぞれから出力される音波の遅延時間の情報を送信信号生成部114Aに出力する。 The delay time calculation unit 113A calculates a plurality of ultrasonic waves based on the distance between the user's body part outputted from the coordinate-distance conversion unit 115 and the output position of each of the sound waves of the plurality of ultrasonic elements 16A to 16 kN. The delay time of the sound waves output from each of the sound wave elements 16A to 16 kN is calculated. The delay time calculation unit 113A outputs information on the calculated delay time of the sound waves output from each of the plurality of ultrasonic elements 16A to 16kN to the transmission signal generation unit 114A.

送信信号生成部114Aは、出力信号変調部111から出力された変調信号と、出力レベル算出部112から出力された超音波素子ごとの出力レベルの情報と、遅延時間算出部113Aから出力された超音波素子ごとの遅延時間の情報とに基づいて、複数の超音波素子16A~16kNのそれぞれから出力される音波を制御する電気信号を生成する。送信信号生成部114Aは、生成された電気信号を信号レベル変換部14に出力する。 The transmission signal generation section 114A uses the modulated signal output from the output signal modulation section 111, the output level information for each ultrasonic element output from the output level calculation section 112, and the ultrasonic wave output from the delay time calculation section 113A. Based on the delay time information for each acoustic wave element, an electric signal is generated to control the sound waves output from each of the plurality of ultrasonic elements 16A to 16 kN. The transmission signal generation section 114A outputs the generated electrical signal to the signal level conversion section 14.

なお、触覚生成装置P1Aは、手挿入検出部13Aにより検出されたユーザの生体部位に提示した触覚点(位置)を移動させることによりユーザの生体位置を生体認証用画像の撮像領域まで誘導することができる。したがって、触覚生成装置P1Aは、生体認証により適した生体認証用画像の撮像を支援できる。また、ユーザは、触覚により触覚提示領域までの生体部位の移動をより容易に行うことができる。 Note that the tactile sensation generation device P1A guides the user's biometric position to the imaging area of the biometric authentication image by moving the tactile point (position) presented to the user's biometric region detected by the hand insertion detection unit 13A. I can do it. Therefore, the tactile sensation generation device P1A can support capturing of a biometric authentication image more suitable for biometric authentication. Furthermore, the user can more easily move the body part to the tactile presentation area using the tactile sense.

図5を参照して、実施の形態1における生体情報取得装置P2および生体認証装置P3の内部構成について説明する。図5は、実施の形態1における生体情報取得装置P2および生体認証装置P3の内部構成例を示す図である。 With reference to FIG. 5, the internal configurations of biometric information acquisition device P2 and biometric authentication device P3 in Embodiment 1 will be described. FIG. 5 is a diagram showing an example of the internal configuration of the biometric information acquisition device P2 and the biometric authentication device P3 in the first embodiment.

生体情報取得装置P2は、触覚生成装置P1および生体認証装置P3との間でそれぞれデータ通信可能に接続される。生体情報取得装置P2は、生体情報取得用カメラ34によりユーザの認証部位(例えば、指先、掌等)を撮像する。なお、ここで言う認証部位は、ユーザの生体情報が取得される部位であって、例えば、生体情報が指紋である場合には指先、生体情報が掌紋あるいは静脈である場合には掌である。 The biometric information acquisition device P2 is connected to the tactile sensation generation device P1 and the biometric authentication device P3 so as to enable data communication with each other. The biometric information acquisition device P2 captures an image of the user's authentication site (eg, fingertip, palm, etc.) using the biometric information acquisition camera 34. Note that the authentication site referred to here is a site from which biometric information of the user is acquired, and is, for example, a fingertip when the biometric information is a fingerprint, and a palm when the biometric information is a palm print or vein.

生体情報取得装置P2は、撮像された生体認証用画像を画像解析して、ユーザの生体情報(例えば、指紋,掌紋,静脈等)を取得し、取得されたユーザの生体情報を生体認証装置P3に送信する。また、生体情報取得装置P2は、生体認証装置P3により実行された生体認証結果に基づいて、ユーザ認証結果を生成して、モニタMNに出力する。 The biometric information acquisition device P2 analyzes the captured biometric authentication image to obtain the user's biometric information (e.g., fingerprint, palm print, vein, etc.), and transfers the acquired user biometric information to the biometric authentication device P3. Send to. Furthermore, the biometric information acquisition device P2 generates a user authentication result based on the biometric authentication result executed by the biometric authentication device P3, and outputs it to the monitor MN.

生体情報取得装置P2は、通信部30と、プロセッサ31と、メモリ32と、静止検知用カメラ33と、生体情報取得用カメラ34と、照明部35と、を含んで構成される。なお、照明部35は、必須でなく省略されてもよい。また、モニタMNは、生体情報取得装置P2と一体的に構成されてもよい。 The biological information acquisition device P2 includes a communication section 30, a processor 31, a memory 32, a still detection camera 33, a biological information acquisition camera 34, and an illumination section 35. Note that the illumination section 35 is not essential and may be omitted. Further, the monitor MN may be configured integrally with the biological information acquisition device P2.

通信部30は、触覚生成装置P1,P1Aの通信部10と、生体認証装置P3における通信部20との間でそれぞれ無線あるいは有線通信可能に接続されてデータの送受信を実行する。通信部30は、触覚生成装置P1,P1Aから送信されたユーザの生体部位の検出情報をプロセッサ31に出力する。通信部30は、プロセッサ31から出力されたユーザの切り出し画像、あるいは生体情報を生体認証装置P3に送信し、生体認証装置P3から送信された認証結果をプロセッサ31に出力する。 The communication unit 30 is connected to enable wireless or wired communication between the communication unit 10 of the tactile sense generation devices P1, P1A and the communication unit 20 of the biometric authentication device P3, and executes data transmission and reception. The communication unit 30 outputs the detection information of the user's body parts transmitted from the tactile sense generation devices P1 and P1A to the processor 31. The communication unit 30 transmits the user's cutout image or biometric information output from the processor 31 to the biometric authentication device P3, and outputs the authentication result transmitted from the biometric authentication device P3 to the processor 31.

なお、生体認証装置P3に送信されるユーザの切り出し画像、生体情報等は、暗号化処理が施されてよい。また、ここでいう切り出し画像は、生体認証用画像からユーザの生体情報を取得する部位(例えば、指先、掌等)の一部が映る範囲を切り出した画像である。 Note that the user's cutout image, biometric information, etc. sent to the biometric authentication device P3 may be subjected to encryption processing. Moreover, the cutout image here is an image cut out from the biometric authentication image in which a part of the part (for example, fingertip, palm, etc.) of the user is to be acquired is shown.

プロセッサ31は、例えばCPUまたはFPGAを用いて構成されて、メモリ32と協働して、各種の処理および制御を行う。具体的には、プロセッサ31は、メモリ32に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、ユーザの手画像、またはユーザの生体情報を取得するための手検知部311、静止検知部312、タイムアウト検知部313、およびボケ画像検知部314等の機能を実現する。 The processor 31 is configured using, for example, a CPU or an FPGA, and performs various processing and control in cooperation with the memory 32. Specifically, the processor 31 refers to the program and data held in the memory 32, and executes the program to obtain a hand image of the user or biometric information of the user. The functions of a stillness detection section 312, a timeout detection section 313, a blurred image detection section 314, etc. are realized.

また、プロセッサ31は、生体認証装置P3から送信された生体認識結果に基づいて、ユーザ認証成功であると判定した場合、ユーザ認証が成功した旨を通知する認証結果画面(不図示)を生成して、モニタMNに出力して表示させる。一方、プロセッサ31は、ユーザ認証失敗であると判定した場合、ユーザ認証が失敗した旨を通知する認証結果画面(不図示)を生成して、モニタMNに出力して表示させる。 Furthermore, when the processor 31 determines that the user authentication is successful based on the biometric recognition result transmitted from the biometric authentication device P3, the processor 31 generates an authentication result screen (not shown) that notifies that the user authentication has been successful. and output it to the monitor MN for display. On the other hand, if the processor 31 determines that the user authentication has failed, it generates an authentication result screen (not shown) that notifies that the user authentication has failed, and outputs it to the monitor MN for display.

手検知部311は、静止検知用カメラ33により撮像された撮像画像(以降、「検知用画像」と表記)に基づいて、ユーザの手あるいは認証部位が撮像領域内に挿入されているか否かを判定(検知)する。手検知部311は、手の挿入検知処理をフレームごとに実行する。 The hand detection unit 311 determines whether the user's hand or authentication part is inserted into the imaging area based on the captured image captured by the still detection camera 33 (hereinafter referred to as "detection image"). Judgment (detection). The hand detection unit 311 executes hand insertion detection processing for each frame.

静止検知部312は、静止検知用カメラ33により撮像された検知用画像に基づいて、ユーザの手あるいは認証部位が静止している否かを判定(検知)する。静止検知部312は、手あるいは認証部位の静止検知処理をフレームごとに実行する。 The stillness detection unit 312 determines (detects) whether the user's hand or the authentication site is stationary based on the detection image captured by the stillness detection camera 33. The stillness detection unit 312 executes stillness detection processing of the hand or the authentication site for each frame.

タイムアウト検知部313は、手検知部311により撮像領域内へのユーザの手の挿入が検知されたタイミングから事前に設定された所定の制限時間内にユーザの手の静止が検知されたか否かを判定する。タイムアウト検知部313は、所定の制限時間内にユーザの手の静止が検知されなかった場合、タイムアウトした旨を通知するタイムアウト通知画面(不図示)を生成して、モニタMNに出力する。 The timeout detection unit 313 detects whether the user's hand remains still within a predetermined time limit set in advance from the timing when the hand detection unit 311 detects that the user's hand is inserted into the imaging area. judge. When the user's hand stillness is not detected within a predetermined time limit, the timeout detection unit 313 generates a timeout notification screen (not shown) that notifies that the timeout has occurred, and outputs it to the monitor MN.

ボケ画像検知部314は、生体情報取得用カメラ34により撮像された生体認証用画像に基づいて、生体認証用画像がブレているか否かを判定する。なお、ここでいうブレは、被写体が動くことにより発生するモーションブラーを示し、例えば被写体としてのユーザの認証部位が高速で動くことで、撮像画像に残る認証部位の軌跡(残像)等を示す。 The blurred image detection unit 314 determines whether or not the biometric authentication image is blurred based on the biometric authentication image captured by the biometric information acquisition camera 34 . Note that the blur referred to here refers to motion blur that occurs when a subject moves, and indicates, for example, the trajectory (afterimage) of the authentication site that remains in the captured image when the user's authentication site as the subject moves at high speed.

ボケ画像検知部314は、生体認証用画像がブレていないと判定した場合、取得された生体認証用画像からユーザの生体情報を取得する認証部位(例えば、指先、掌等)の一部が映る範囲を切り出した切り出し画像を生成し、切り出し画像に暗号化処理を行って生体認証装置P3に送信する。なお、ボケ画像検知部314は、生成された切り出し画像を用いてユーザの生体情報を抽出し、抽出されたユーザの生体情報に暗号化処理を行って生体認証装置P3に送信してもよい。 When the blurred image detection unit 314 determines that the biometric authentication image is not blurred, a part of the authentication part (for example, fingertip, palm, etc.) from which biometric information of the user is acquired is reflected in the acquired biometric authentication image. A cutout image is generated by cutting out the range, an encryption process is performed on the cutout image, and the encrypted image is sent to the biometric authentication device P3. Note that the blurred image detection unit 314 may extract the user's biometric information using the generated cutout image, perform encryption processing on the extracted user's biometric information, and transmit it to the biometric authentication device P3.

ここで、切り出し画像の生成方法について説明する。ボケ画像検知部314は、生体認証用画像を画像解析して、ユーザの生体情報を取得する認証部位を検知し、検知された認証部位を含む領域を切り出して切り出し画像を生成する。なお、切り出し画像の生成方法は、これに限定されず、他の公知技術が用いられてもよい。 Here, a method for generating a cutout image will be explained. The blurred image detection unit 314 analyzes the biometric authentication image, detects an authentication part from which biometric information of the user is to be obtained, cuts out an area including the detected authentication part, and generates a cutout image. Note that the method of generating the cutout image is not limited to this, and other known techniques may be used.

静止検知用カメラ33は、少なくともイメージセンサ(不図示)とレンズ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged-Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。静止検知用カメラ33は、生体情報取得用カメラ34よりも高フレームレート、かつ、低解像度である。生体情報取得装置P2で使用される静止検知用カメラ33は、例えばフレームレートが60fps、解像度が640×480のカメラである。静止検知用カメラ33は、プロセッサ31により制御される。 The still detection camera 33 includes at least an image sensor (not shown) and a lens (not shown). The image sensor is a solid-state imaging device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and converts an optical image formed on an imaging surface into an electrical signal. The still detection camera 33 has a higher frame rate and lower resolution than the biological information acquisition camera 34. The still detection camera 33 used in the biological information acquisition device P2 is, for example, a camera with a frame rate of 60 fps and a resolution of 640×480. The still detection camera 33 is controlled by the processor 31 .

生体情報取得用カメラ34は、少なくともイメージセンサ(不図示)とレンズ(不図示)とを有して構成される。イメージセンサは、例えばCCDまたはCMOSの固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。生体情報取得用カメラ34は、静止検知用カメラ33よりも低フレームレート、かつ、高解像度である。生体情報取得装置P2で使用される生体情報取得用カメラ34は、例えばフレームレートが1fps、解像度が3280×2464のカメラである。生体情報取得用カメラ34は、プロセッサ31により制御される。 The biological information acquisition camera 34 includes at least an image sensor (not shown) and a lens (not shown). The image sensor is, for example, a CCD or CMOS solid-state imaging device, and converts an optical image formed on an imaging surface into an electrical signal. The biological information acquisition camera 34 has a lower frame rate and higher resolution than the still detection camera 33. The biometric information acquisition camera 34 used in the biometric information acquisition device P2 is, for example, a camera with a frame rate of 1 fps and a resolution of 3280×2464. The biological information acquisition camera 34 is controlled by the processor 31.

照明部35は、例えばLED(Light Emitting Diode)、蛍光灯、白熱灯、IR(infrared)照明等の1つ以上の照明を有して構成され、撮像領域内に位置するユーザの認証部位を照明する。 The illumination unit 35 is configured with one or more illuminations such as an LED (Light Emitting Diode), a fluorescent lamp, an incandescent lamp, an IR (infrared) illumination, etc., and illuminates the user's authentication site located within the imaging area. do.

モニタMNは、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等の表示用デバイスを用いて構成されてよい。モニタMNは、プロセッサ31から出力された認証完了画面(不図示)、認証失敗通知(不図示)等を出力する。 The monitor MN may be configured using a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence). The monitor MN outputs an authentication completion screen (not shown), an authentication failure notification (not shown), etc. output from the processor 31.

生体認証装置P3は、生体情報取得装置P2から送信されたユーザの切り出し画像を用いてユーザの生体情報を抽出する。なお、生体情報の抽出は、公知の技術(例えば、特開2018-124999に開示の技術等)が用いられてよい。生体認証装置P3は、抽出された生体情報と、生体認証システム100または生体情報取得装置P2の管理者等により事前に登録された複数のユーザのそれぞれの生体情報とを照合する。生体認証装置P3は、抽出された生体情報が登録された複数のユーザのそれぞれの生体情報のいずれと一致するか否かを判定して生体認証処理を実行し、生体認証処理結果を生体情報取得装置P2に送信する。 The biometric authentication device P3 extracts the user's biometric information using the user's cutout image transmitted from the biometric information acquisition device P2. Note that a known technique (for example, the technique disclosed in Japanese Patent Laid-Open No. 2018-124999) may be used to extract the biometric information. The biometric authentication device P3 compares the extracted biometric information with the biometric information of each of the plurality of users registered in advance by the administrator of the biometric authentication system 100 or the biometric information acquisition device P2. The biometric authentication device P3 determines whether the extracted biometric information matches any of the biometric information of each of the registered users, executes biometric authentication processing, and acquires biometric information from the biometric authentication processing result. Send to device P2.

生体認証装置P3は、通信部40と、プロセッサ41と、メモリ42と、生体情報データベースDBとを含んで構成される。 The biometric authentication device P3 includes a communication unit 40, a processor 41, a memory 42, and a biometric information database DB.

通信部40は、生体情報取得装置P2の通信部30との間で無線あるいは有線通信可能に接続されてデータの送受信を実行する。通信部40は、生体情報取得装置P2から送信されたユーザの切り出し画像をプロセッサ41に出力し、プロセッサ41から出力された生体認証結果を生体情報取得装置P2に送信する。なお、生体情報取得装置P2に送信される生体認証結果は、暗号化処理が施されてよい。 The communication unit 40 is connected to the communication unit 30 of the biological information acquisition device P2 to enable wireless or wired communication, and executes data transmission and reception. The communication unit 40 outputs the cutout image of the user transmitted from the biometric information acquisition device P2 to the processor 41, and transmits the biometric authentication result output from the processor 41 to the biometric information acquisition device P2. Note that the biometric authentication result sent to the biometric information acquisition device P2 may be subjected to encryption processing.

プロセッサ41は、例えばCPUまたはFPGAを用いて構成されて、メモリ42と協働して、各種の処理および制御を行う。具体的には、プロセッサ41は、メモリ42に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、ユーザ認証を実行するために生体情報認証部411の機能を実現する。 The processor 41 is configured using, for example, a CPU or an FPGA, and performs various processing and control in cooperation with the memory 42. Specifically, the processor 41 references the program and data held in the memory 42 and executes the program, thereby realizing the function of the biometric information authentication unit 411 to perform user authentication.

生体情報認証部411は、ユーザの切り出し画像に基づいて、ユーザの生体情報を抽出する。生体情報認証部411は、抽出されたユーザの生体情報と、生体情報データベースDBに格納(登録)された複数のユーザのそれぞれの生体情報とを照合する。生体情報認証部411は、抽出されたユーザの生体情報が登録された複数のユーザのそれぞれの生体情報いずれと一致あるいは類似するか否かを判定した生体認証結果を生成し、通信部40に出力して生体情報取得装置P2に送信させる。 The biometric information authentication unit 411 extracts the user's biometric information based on the user's cutout image. The biometric information authentication unit 411 compares the extracted user's biometric information with the biometric information of each of the plurality of users stored (registered) in the biometric information database DB. The biometric information authentication unit 411 generates a biometric authentication result that determines whether the extracted user's biometric information matches or is similar to any of the biometric information of each of the registered users, and outputs it to the communication unit 40. and transmits it to the biometric information acquisition device P2.

メモリ42は、例えばプロセッサ41の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ41の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ41により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ41の動作を規定するプログラムが書き込まれている。 The memory 42 includes, for example, a RAM as a work memory used when the processor 41 executes each process, and a ROM that stores programs and data that define the operations of the processor 41. Data or information generated or acquired by the processor 41 is temporarily stored in the RAM. A program that defines the operation of the processor 41 is written in the ROM.

生体情報データベースDBは、事前に登録された複数のユーザのそれぞれに関する情報(例えば、氏名、社員番号、識別番号、ID、顔写真等)と、複数のユーザのそれぞれの生体情報とをユーザごとに対応付けて格納(登録)する。 The biometric information database DB stores information related to each of a plurality of users registered in advance (for example, name, employee number, identification number, ID, face photo, etc.) and biometric information of each of the plurality of users for each user. Store (register) in association.

(実施の形態1の変形例)
上述した実施の形態1に係る生体認証システム100は、生体情報取得装置P2と、生体認証装置P3とが別体で構成され、かつ、ネットワークNWを介してデータ送受信可能に接続される例を示した。実施の形態1の変形例に係る生体認証システム100Aは、生体情報取得装置P2Aと、生体認証装置P3Aとが一体的に構成される例について説明する。なお、実施の形態1に係る生体認証システム100、および生体認証システム100を構成する各装置と同様の構成については、同一の符号を付与して説明を省略する。
(Modification of Embodiment 1)
The biometric authentication system 100 according to the first embodiment described above shows an example in which the biometric information acquisition device P2 and the biometric authentication device P3 are configured separately and are connected to be able to transmit and receive data via the network NW. Ta. A biometric authentication system 100A according to a modification of the first embodiment will be described with reference to an example in which a biometric information acquisition device P2A and a biometric authentication device P3A are integrally configured. Note that the same components as the biometric authentication system 100 according to Embodiment 1 and each device constituting the biometric authentication system 100 are given the same reference numerals, and a description thereof will be omitted.

図6を参照して、実施の形態1の変形例に係る生体認証システム100Aの全体構成について説明する。図6は、実施の形態1の変形例に係る生体認証システム100Aの全体構成例を説明する図である。 With reference to FIG. 6, the overall configuration of a biometric authentication system 100A according to a modification of the first embodiment will be described. FIG. 6 is a diagram illustrating an example of the overall configuration of a biometric authentication system 100A according to a modification of the first embodiment.

実施の形態1の変形例に係る生体認証システム100Aは、触覚生成装置P1,P1Aによる触覚提示処理と、生体情報取得装置P2Aおよび生体認証装置P3Aのそれぞれによる生体認証によるユーザ認証処理とを実行する。 A biometric authentication system 100A according to a modification of the first embodiment executes a tactile presentation process by the tactile generation devices P1 and P1A, and a user authentication process by biometric authentication by each of the biometric information acquisition device P2A and the biometric authentication device P3A. .

実施の形態1の変形例に係る生体認証システム100Aは、触覚生成装置P1,P1Aと、生体情報取得装置P2Aと、生体認証装置P3Aとを含んで構成される。なお、図6に示す触覚生成装置P1,P1Aと、生体情報取得装置P2とは、一体的に構成された1つのコンピュータ(認証装置の一例)として実現されてもよい。 A biometric authentication system 100A according to a modification of the first embodiment includes tactile sense generation devices P1 and P1A, a biometric information acquisition device P2A, and a biometric authentication device P3A. Note that the tactile sense generation devices P1 and P1A shown in FIG. 6 and the biometric information acquisition device P2 may be realized as one computer (an example of an authentication device) that is integrally configured.

生体情報取得装置P2Aは、生体認証装置P3Aとの間でデータ送受信可能に接続される。生体情報取得装置P2Aは、ユーザの生体認証用画像を取得、あるいは生体認証用画像から生体情報を取得する認証部位を切り出した切り出し画像を生成して、生体認証装置P3Aに送信する。 The biometric information acquisition device P2A is connected to the biometric authentication device P3A so as to be able to transmit and receive data. The biometric information acquisition device P2A acquires a user's biometric authentication image, or generates a cutout image that cuts out an authentication part from which biometric information is to be acquired from the biometric authentication image, and transmits it to the biometric authentication device P3A.

生体認証装置P3Aは、触覚生成装置P1,P1Aと、生体情報取得装置P2Aとの間でそれぞれデータ送受信可能に接続される。生体認証装置P3Aは、生体情報取得装置P2Aから送信されたユーザの生体認証用画像、あるいは切り出し画像からユーザの生体情報を抽出する。生体認証装置P3Aは、抽出されたユーザの生体情報と、生体情報データベースDBに登録された複数のユーザのそれぞれの生体情報とを照合し、生体認証(ユーザ認証)を実行する。 The biometric authentication device P3A is connected to the tactile sense generation devices P1, P1A and the biometric information acquisition device P2A so that data can be transmitted and received, respectively. The biometric authentication device P3A extracts the user's biometric information from the user's biometric authentication image or cutout image transmitted from the biometric information acquisition device P2A. The biometric authentication device P3A performs biometric authentication (user authentication) by comparing the extracted user's biometric information with the biometric information of each of a plurality of users registered in the biometric information database DB.

生体認証装置P3Aは、生体認証結果と、触覚生成装置P1,P1Aにより実行された触覚認証結果とに基づくユーザ認証結果を通知する認証結果画面(不図示)を生成して、モニタMNAに出力して表示させる。 The biometric authentication device P3A generates an authentication result screen (not shown) that notifies the user authentication result based on the biometric authentication result and the tactile authentication result executed by the tactile generation devices P1 and P1A, and outputs it to the monitor MNA. and display it.

図7を参照して、実施の形態1の変形例における生体情報取得装置P2Aおよび生体認証装置P3Aの内部構成について説明する。図7は、実施の形態1の変形例における生体情報取得装置P2Aおよび生体認証装置P3Aの内部構成例を示す図である。 Referring to FIG. 7, the internal configurations of biometric information acquisition device P2A and biometric authentication device P3A in a modified example of Embodiment 1 will be described. FIG. 7 is a diagram showing an example of the internal configuration of the biometric information acquisition device P2A and the biometric authentication device P3A in a modification of the first embodiment.

生体情報取得装置P2Aは、静止検知用カメラ33と、生体情報取得用カメラ34と、を少なくとも含んで構成される。なお、照明部35は、必須の構成でなく、省略されてもよい。 The biological information acquisition device P2A is configured to include at least a still detection camera 33 and a biological information acquisition camera 34. Note that the illumination unit 35 is not an essential component and may be omitted.

生体認証装置P3Aは、触覚生成装置P1,P1Aと、生体情報取得装置P2Aと、モニタMNAとの間でそれぞれデータ送受信可能に接続される。生体認証装置P3Aは、通信部40Aと、プロセッサ41Aと、メモリ42Aと、生体情報データベースDBとを含んで構成される。 The biometric authentication device P3A is connected to the tactile sense generation devices P1 and P1A, the biometric information acquisition device P2A, and the monitor MNA so that data can be transmitted and received, respectively. The biometric authentication device P3A includes a communication unit 40A, a processor 41A, a memory 42A, and a biometric information database DB.

通信部40Aは、触覚生成装置P1,P1Aの通信部10と、生体情報取得装置P2Aを構成する各装置(静止検知用カメラ33、生体情報取得用カメラ34、照明部35のそれぞれ)と、モニタMNAとの間でそれぞれ無線あるいは有線通信可能に接続されてデータの送受信を実行する。 The communication unit 40A includes the communication unit 10 of the tactile sensation generation devices P1 and P1A, each device (the still detection camera 33, the biometric information acquisition camera 34, and the illumination unit 35) constituting the biological information acquisition device P2A, and the monitor. It is connected to the MNA for wireless or wired communication and transmits and receives data.

通信部40Aは、生体情報取得装置P2Aから送信された各種データをプロセッサ41Aに出力したり、触覚生成装置P1,P1Aから送信された触覚認証結果をプロセッサ41Aに出力したりする。また、通信部40Aは、プロセッサ41Aから出力されたユーザ認証結果を通知する認証結果画面(不図示)をモニタMNAに出力する。 The communication unit 40A outputs various data transmitted from the biometric information acquisition device P2A to the processor 41A, and outputs the tactile authentication results transmitted from the tactile sensation generation devices P1 and P1A to the processor 41A. The communication unit 40A also outputs an authentication result screen (not shown) that notifies the user authentication result output from the processor 41A to the monitor MNA.

プロセッサ41Aは、例えばCPUまたはFPGAを用いて構成されて、メモリ42Aと協働して、各種の処理および制御を行う。具体的には、プロセッサ41Aは、メモリ42Aに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、生体情報認証部411A、手検知部412、静止検知部413、タイムアウト検知部414、ボケ画像検知部415等の機能を実現する。 The processor 41A is configured using, for example, a CPU or an FPGA, and performs various processing and control in cooperation with the memory 42A. Specifically, the processor 41A refers to the program and data held in the memory 42A, and executes the program to detect the biometric information authentication section 411A, the hand detection section 412, the stillness detection section 413, and the timeout detection section 414. , the functions of the blurred image detection unit 415 and the like are realized.

生体情報認証部411Aは、ボケ画像検知部415から出力された切り出し画像に基づいて、ユーザの生体情報を抽出する。生体情報認証部411Aは、抽出されたユーザの生体情報と、生体情報データベースDBに格納(登録)された複数のユーザのそれぞれの生体情報とを照合する。生体情報認証部411Aは、抽出されたユーザの生体情報が登録された複数のユーザのそれぞれの生体情報いずれと一致あるいは類似するか否か(つまり、生体認証)を判定する。 The biometric information authentication unit 411A extracts the user's biometric information based on the cutout image output from the blurred image detection unit 415. The biometric information authentication unit 411A compares the extracted user's biometric information with the biometric information of each of the plurality of users stored (registered) in the biometric information database DB. The biometric information authentication unit 411A determines whether the extracted user's biometric information matches or is similar to any of the biometric information of each of the registered users (that is, biometric authentication).

生体情報認証部411Aは、生体認証結果と基づいて、ユーザ認証を実行する。生体情報認証部411Aは、ユーザ認証成功であると判定した場合、ユーザ認証が成功した旨を通知する認証結果画面(不図示)を生成して、モニタMNAに出力して表示させる。一方、生体情報認証部411Aは、ユーザ認証失敗であると判定した場合、ユーザ認証が失敗した旨を通知する認証結果画面(不図示)を生成して、モニタMNAに出力して表示させる。 The biometric information authentication unit 411A performs user authentication based on the biometric authentication result. If the biometric information authentication unit 411A determines that the user authentication is successful, it generates an authentication result screen (not shown) that notifies the user that the user authentication has been successful, and outputs it to the monitor MNA for display. On the other hand, if the biometric information authentication unit 411A determines that the user authentication has failed, it generates an authentication result screen (not shown) that notifies that the user authentication has failed, and outputs it to the monitor MNA for display.

手検知部412は、静止検知用カメラ33により撮像された撮像画像(以降、「検知用画像」と表記)に基づいて、ユーザの認証部位が撮像領域内に挿入されているか否かを判定(検知)する。手検知部412は、認証部位の挿入検知処理をフレームごとに実行する。 The hand detection unit 412 determines whether the user's authentication part is inserted into the imaging area based on the image captured by the still detection camera 33 (hereinafter referred to as "detection image"). detection). The hand detection unit 412 executes authentication part insertion detection processing for each frame.

静止検知部413は、静止検知用カメラ33により撮像された検知用画像に基づいて、ユーザの認証部位が静止している否かを判定(検知)する。静止検知部413は、認証部位の静止検知処理をフレームごとに実行する。 The stillness detection unit 413 determines (detects) whether the user's authentication region is stationary based on the detection image captured by the stillness detection camera 33. The stillness detection unit 413 executes the stillness detection process of the authentication part for each frame.

タイムアウト検知部414は、手検知部412により撮像領域内へのユーザの認証部位の挿入が検知されたタイミングから事前に設定された所定の制限時間内にユーザの認証部位の静止が検知されたか否かを判定する。タイムアウト検知部414は、所定の制限時間内にユーザの認証部位の静止が検知されなかった場合、タイムアウトした旨を通知するタイムアウト通知画面(不図示)を生成して、モニタMNAに出力する。 The timeout detection unit 414 determines whether or not the user's authentication part is detected to be stationary within a predetermined time limit set in advance from the timing when the hand detection unit 412 detects insertion of the user's authentication part into the imaging area. Determine whether When the user's authentication part is not detected to be stationary within a predetermined time limit, the timeout detection unit 414 generates a timeout notification screen (not shown) that notifies that the timeout has occurred, and outputs it to the monitor MNA.

ボケ画像検知部415は、生体情報取得用カメラ34により撮像された生体認証用画像に基づいて、生体認証用画像がブレているか否かを判定する。なお、ここでいうブレは、被写体が動くことにより発生するモーションブラーを示し、例えば被写体としてのユーザの認証部位が高速で動くことで、撮像画像に残る認証部位の軌跡(残像)等を示す。 The blurred image detection unit 415 determines whether or not the biometric authentication image is blurred based on the biometric authentication image captured by the biometric information acquisition camera 34 . Note that the blur referred to here refers to motion blur that occurs when a subject moves, and indicates, for example, the trajectory (afterimage) of the authentication site that remains in the captured image when the user's authentication site as the subject moves at high speed.

ボケ画像検知部415は、生体認証用画像がブレていないと判定した場合、取得された生体認証用画像からユーザの生体情報を取得する認証部位(例えば、指先、掌等)の一部が映る範囲を切り出した切り出し画像を生成し、生体情報認証部411Aに出力する。 When the blurred image detection unit 415 determines that the biometric authentication image is not blurred, a part of the authentication part (for example, fingertip, palm, etc.) from which biometric information of the user is acquired is reflected in the acquired biometric authentication image. A cutout image is generated by cutting out the range, and outputted to the biometric information authentication section 411A.

次に、図8を参照して、実施の形態1および実施の形態1の変形例における生体認証処理の動作手順について説明する。図8は、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aの動作手順例1を示すフローチャートである。 Next, with reference to FIG. 8, the operating procedure of biometric authentication processing in the first embodiment and a modification of the first embodiment will be described. FIG. 8 is a flowchart illustrating a first example of the operation procedure of the biometric authentication system 100, 100A according to the first embodiment and a modification of the first embodiment.

触覚生成装置P1は、超音波送信部15により触覚生成(提示)可能な領域(例えば、触覚提示可能領域ARU11,ARU21(図9,図13参照)等)へのユーザの手の挿入を検知したか否かを判定する(St11)。 The tactile sensation generation device P1 detects insertion of the user's hand into a region where tactile sensations can be generated (presented) (for example, tactile sensation presentation possible regions ARU11, ARU21 (see FIGS. 9 and 13), etc.) by the ultrasonic transmitter 15. It is determined whether or not (St11).

触覚生成装置P1は、ステップSt11の処理において、ユーザの手の挿入を検知した判定した場合(St11,YES)、超音波送信部15により音波を出力し、検出されたユーザの手に触覚を提示する(St12)。 When the tactile sensation generating device P1 determines that insertion of the user's hand is detected in the process of step St11 (St11, YES), the tactile sensation generating device P1 outputs a sound wave through the ultrasonic transmitter 15 and presents a tactile sensation to the detected user's hand. (St12).

一方、触覚生成装置P1は、ステップSt11の処理において、ユーザの手の挿入を検知していないと判定した場合(St11,NO)、ステップSt11の処理に戻る。 On the other hand, when the tactile sensation generating device P1 determines in the process of step St11 that insertion of the user's hand is not detected (St11, NO), the process returns to the process of step St11.

生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33よる撮像を開始し、静止検知用カメラ33により撮像された静止検知用画像に基づいて、検知された手の静止を検知したか否かをさらに判定する(St13)。なお、ここでいう手の静止は、生体認証用画像を撮像可能に手が静止した状態を示す。 The biometric information acquisition device P2 or the biometric authentication device P3A starts imaging with the stillness detection camera 33, and determines whether the detected hand is still or not based on the stillness detection image captured by the stillness detection camera 33. It is further determined whether or not (St13). Note that the hand stillness here refers to a state in which the hand is stationary so that a biometric authentication image can be captured.

生体情報取得装置P2または生体認証装置P3Aは、ステップSt13の処理において、検知された手の静止を検知したと判定した場合(St13,YES)、生体情報取得用カメラ34により生体認証に用いられる認証部位(例えば、指先、掌等)を撮像する(St14)。 If the biometric information acquisition device P2 or the biometric authentication device P3A determines in the process of step St13 that the detected stillness of the hand is detected (St13, YES), the biometric information acquisition device P2 or the biometric authentication device P3A performs the authentication used for biometric authentication by the biometric information acquisition camera 34. A part (for example, a fingertip, a palm, etc.) is imaged (St14).

一方、生体情報取得装置P2または生体認証装置P3Aは、ステップSt13の処理において、検知された手の静止を検知しないと判定した場合(St13,NO)、ステップSt11の処理に戻る。ここで、生体情報取得装置P2または生体認証装置P3Aは、手の静止検知を開始したタイミングから所定時間(例えば、15秒、20秒等)の間、手の静止検知処理を繰り返し実行し、所定時間以内に手の静止を検知しないと判定した場合には、ステップSt11の処理に戻ってもよい。 On the other hand, when the biometric information acquisition device P2 or the biometric authentication device P3A determines in the process of step St13 that the detected stillness of the hand is not detected (St13, NO), the process returns to the process of step St11. Here, the biometric information acquisition device P2 or the biometric authentication device P3A repeatedly executes the hand stillness detection process for a predetermined period of time (for example, 15 seconds, 20 seconds, etc.) from the timing when the hand stillness detection is started, and If it is determined that the hand stillness is not detected within the time, the process may return to step St11.

生体情報取得装置P2または生体認証装置P3Aは、認証部位が撮像された生体認証用画像から、認証部位が映る領域を切り出した切り出し画像を生成する。生体認証装置P3,P3Aは、切り出し画像からユーザの生体情報を抽出し、抽出されたユーザの生体情報と、生体情報データベースDBに登録された複数のユーザの生体情報のそれぞれとを照合する(St15)。 The biometric information acquisition device P2 or the biometric authentication device P3A generates a cutout image in which an area in which the authentication part is shown is cut out from the biometric authentication image in which the authentication part is captured. The biometric authentication devices P3 and P3A extract the user's biometric information from the cutout image, and match the extracted user's biometric information with each of the biometric information of a plurality of users registered in the biometric information database DB (St15). ).

生体認証装置P3,P3Aは、生体情報データベースDBに登録された複数のユーザの生体情報のそれぞれに、抽出されたユーザの生体情報と同一あるいは類似する生体情報があるか否かを判定する(St16)。 The biometric authentication devices P3 and P3A determine whether or not each of the biometric information of a plurality of users registered in the biometric information database DB includes biometric information that is the same as or similar to the extracted biometric information of the user (St16). ).

生体認証装置P3は、ステップSt16の処理において、生体情報データベースDBに登録された複数のユーザの生体情報のそれぞれに、抽出されたユーザの生体情報と同一あるいは類似する生体情報があると判定した場合(St16,YES)、ユーザ認証が成功である旨の生体認証結果を生成して、生体情報取得装置P2に送信する。生体情報取得装置P2は、生体認証装置P3から送信された生体認証結果に基づいて、ユーザ認証が成功である旨を通知する認証結果画面(不図示)を生成して、モニタMNに出力して表示させる(St17)。なお、認証結果画面は、ユーザ認証された(つまり、特定された)ユーザに関する情報(例えば、ユーザの氏名、顔画像等)を含んで生成されてもよい。 When the biometric authentication device P3 determines in the process of step St16 that each of the biometric information of a plurality of users registered in the biometric information database DB has biometric information that is the same as or similar to the extracted biometric information of the user. (St16, YES), a biometric authentication result indicating that the user authentication is successful is generated and transmitted to the biometric information acquisition device P2. Based on the biometric authentication result sent from the biometric authentication device P3, the biometric information acquisition device P2 generates an authentication result screen (not shown) notifying that the user authentication is successful, and outputs it to the monitor MN. Display it (St17). Note that the authentication result screen may be generated including information regarding the authenticated (that is, identified) user (for example, the user's name, facial image, etc.).

一方、生体認証装置P3は、ステップSt16の処理において、生体情報データベースDBに登録された複数のユーザの生体情報のそれぞれに、抽出されたユーザの生体情報と同一あるいは類似する生体情報がないと判定した場合(St16,NO)、ユーザ認証が失敗である旨の生体認証結果を生成して、生体情報取得装置P2に送信する。生体情報取得装置P2は、生体認証装置P3から送信された生体認証結果に基づいて、ユーザ認証が失敗である旨を通知する認証結果画面(不図示)を生成して、モニタMNに出力して表示させる(St18)。 On the other hand, in the process of step St16, the biometric authentication device P3 determines that there is no biometric information that is the same as or similar to the extracted user's biometric information in each of the biometric information of the plurality of users registered in the biometric information database DB. If so (St16, NO), a biometric authentication result indicating that the user authentication has failed is generated and transmitted to the biometric information acquisition device P2. The biometric information acquisition device P2 generates an authentication result screen (not shown) notifying that user authentication has failed based on the biometric authentication result sent from the biometric authentication device P3, and outputs it to the monitor MN. Display it (St18).

また、生体認証装置P3Aは、ステップSt16の処理において、生体情報データベースDBに登録された複数のユーザの生体情報のそれぞれに、抽出されたユーザの生体情報と同一あるいは類似する生体情報があると判定した場合(St16,YES)、認証結果画面(不図示)を生成して、モニタMNAに出力して表示させる(St17)。 In addition, in the process of step St16, the biometric authentication device P3A determines that each of the biometric information of a plurality of users registered in the biometric information database DB has biometric information that is the same as or similar to the extracted biometric information of the user. If so (St16, YES), an authentication result screen (not shown) is generated and output to the monitor MNA for display (St17).

一方、生体認証装置P3Aは、ステップSt16の処理において、生体情報データベースDBに登録された複数のユーザの生体情報のそれぞれに、抽出されたユーザの生体情報と同一あるいは類似する生体情報がないと判定した場合(St16,NO)、認証結果画面(不図示)を生成して、モニタMNAに出力して表示させる(St18)。 On the other hand, in the process of step St16, the biometric authentication device P3A determines that there is no biometric information that is the same as or similar to the extracted user's biometric information in each of the biometric information of the plurality of users registered in the biometric information database DB. If so (St16, NO), an authentication result screen (not shown) is generated and output to the monitor MNA for display (St18).

以上により、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、生体情報取得用カメラ34を用いた非接触生体認証において、超音波を用いた触覚提示により、生体認証用画像を撮像可能な位置にユーザの認証部位を誘導できる。これにより、生体認証システム100,100Aは、認証部位の撮像位置のばらつきをより効果的に抑制できるため、生体認証により適した生体認証用画像を撮像できる。 As described above, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment can perform biometric authentication using tactile presentation using ultrasound in non-contact biometric authentication using the biometric information acquisition camera 34. The user's authentication site can be guided to a position where an authentication image can be captured. Thereby, the biometric authentication systems 100, 100A can more effectively suppress variations in the imaging position of the authentication part, and therefore can capture a biometric authentication image more suitable for biometric authentication.

次に、図9および図10のそれぞれを参照して、生体認証用画像の第1取得例について説明する。図9は、生体認証用画像の第1取得例を説明する図である。図10は、生体認証用画像の第1取得例を説明する図である。なお、図9および図10では、説明を分かり易くするために、生体認証システム100,100Aにおける触覚生成装置P1A、および生体情報取得装置P2,P2Aのそれぞれの要部のみを図示している。 Next, a first example of acquiring an image for biometric authentication will be described with reference to FIGS. 9 and 10, respectively. FIG. 9 is a diagram illustrating a first example of acquiring an image for biometric authentication. FIG. 10 is a diagram illustrating a first example of acquiring an image for biometric authentication. In addition, in FIGS. 9 and 10, in order to make the explanation easier to understand, only the main parts of the tactile sense generation device P1A and the biometric information acquisition devices P2 and P2A in the biometric authentication systems 100 and 100A are illustrated.

ここで、図9および図10に示す例における触覚提示領域ARU12と、撮像領域ARC12との関係性について説明する。 Here, the relationship between the tactile presentation area ARU12 and the imaging area ARC12 in the examples shown in FIGS. 9 and 10 will be explained.

図9および図10に示す第1取得例は、生体部位と認証部位とが異なっており、生体部位である掌に触覚を提示し、認証部位である1本以上の指先を撮像することで生体情報(例えば、指紋等)を取得する。なお、撮像される指先は、いずれか1本に限定されず、生体情報データベースDBに登録済みの指紋に対応する指先であればよい。 In the first acquisition example shown in FIGS. 9 and 10, the biological part and the authentication part are different, and by presenting a tactile sensation on the palm, which is the biological part, and capturing an image of one or more fingertips, which are the authentication part. Obtain information (eg, fingerprints, etc.). Note that the fingertip to be imaged is not limited to any one, but may be any fingertip that corresponds to a fingerprint registered in the biometric information database DB.

第1取得例における超音波送信部15は、触覚提示可能領域ARU11内の触覚提示領域ARU12に触覚を提示する。ここで、触覚提示可能領域ARU11は、超音波送信部15が触覚を提示可能な領域を示す。触覚提示領域ARU12は、触覚提示可能領域ARU11内、かつ、略水平方向(Z軸に直交する方向、あるいはユーザの手の挿入方向D1に略平行な方向)に設定される。触覚提示領域ARU12は、Z方向および水平方向において触覚提示可能領域ARU11内に収まるように設定される。なお、触覚提示領域ARU12の位置は、触覚提示可能領域ARU11内において生体情報取得用カメラ34が設置された側(紙面左側)に提示されることが望ましい。 The ultrasound transmitter 15 in the first acquisition example presents a tactile sensation to a tactile sensation presentation area ARU12 within a tactile sensation presentation possible area ARU11. Here, the tactile sensation presentation possible area ARU11 indicates an area where the ultrasound transmitter 15 can present a tactile sensation. The tactile presentation area ARU12 is set within the tactile presentation possible area ARU11 and in a substantially horizontal direction (a direction perpendicular to the Z-axis or a direction substantially parallel to the insertion direction D1 of the user's hand). The tactile presentation area ARU12 is set to fit within the tactile presentation possible area ARU11 in the Z direction and the horizontal direction. The position of the tactile presentation area ARU12 is preferably presented on the side where the biometric information acquisition camera 34 is installed (left side in the paper) within the tactile presentation possible area ARU11.

第1取得例における生体情報取得用カメラ34は、画角ARC11内の撮像領域ARC12に位置する指先を撮像する。なお、撮像領域ARC12は、生体情報取得用カメラ34のレンズのピントが合う領域(つまり、被写界深度)に含まれ、かつ、触覚提示可能領域ARU11に含まれない領域である。また、撮像領域ARC12の高さH11は、Z方向において触覚提示可能領域ARU11の高さH12内に収まるように設定される(つまり、高さH11<高さH12)。 The biological information acquisition camera 34 in the first acquisition example images the fingertip located in the imaging area ARC12 within the viewing angle ARC11. The imaging area ARC12 is an area that is included in the focused area of the lens of the biological information acquisition camera 34 (that is, the depth of field) and is not included in the tactile presentation possible area ARU11. Further, the height H11 of the imaging area ARC12 is set to fall within the height H12 of the tactile presentation possible area ARU11 in the Z direction (that is, height H11<height H12).

第1取得例において、ユーザは、挿入方向D1から手H1を挿入する。触覚生成装置P1,P1Aは、手挿入検出部13,13Aによりユーザの手H1の挿入が検出されたタイミングで、超音波送信部15による音波の出力を開始するとともに、ユーザの手H1の検出を通知する制御指令を生成して、生体情報取得装置P2または生体認証装置P3Aに送信する。具体的に、触覚生成装置P1,P1Aは、触覚提示領域ARU12で複数の超音波素子16A~16kNのそれぞれから出力された音波が強め合うように音波を出力する。なお、触覚生成装置P1,P1Aは、常時、触覚提示領域ARU12への触覚提示処理を実行していてもよい。 In the first acquisition example, the user inserts the hand H1 from the insertion direction D1. The tactile sensation generating devices P1, P1A start outputting sound waves by the ultrasonic transmitter 15 at the timing when the insertion of the user's hand H1 is detected by the hand insertion detectors 13, 13A, and detect the user's hand H1. A control command to be notified is generated and transmitted to the biometric information acquisition device P2 or the biometric authentication device P3A. Specifically, the tactile sensation generating devices P1 and P1A output sound waves such that the sound waves output from each of the plurality of ultrasonic elements 16A to 16kN in the tactile sensation presentation area ARU12 strengthen each other. Note that the tactile sensation generating devices P1 and P1A may always execute the tactile sensation presentation process to the tactile sensation presentation area ARU12.

生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1,P1Aから送信された制御指令に基づいて、静止検知用カメラ33に認証部位(ここでは、指先)を撮像させる。生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33から出力された撮像画像に基づいて、認証部位が静止していると判定した場合、生体情報取得用カメラ34に撮像領域ARC12に位置する認証部位を撮像させる。 The biometric information acquisition device P2 or the biometric authentication device P3A causes the still detection camera 33 to image the authentication site (here, the fingertip) based on the control commands transmitted from the tactile sense generation devices P1 and P1A. When the biometric information acquisition device P2 or the biometric authentication device P3A determines that the authentication site is stationary based on the captured image output from the still detection camera 33, the biometric information acquisition device P2 or the biometric authentication device P3A sends the biometric information acquisition camera 34 to the imaging area ARC12. The located authentication site is imaged.

これにより、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、手の大きさ、指の長さ等がユーザごとに異なる場合でも、触覚によりユーザの掌をかざす位置を提示できるため、ユーザの指先(認証部位)の撮像位置のばらつきをより効果的に抑制できる。したがって、生体認証システム100,100Aは、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 As a result, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment can hold up the user's palm using the sense of touch even if the hand size, finger length, etc. differ from user to user. Since the position can be presented, variations in the imaging position of the user's fingertip (authentication site) can be more effectively suppressed. Therefore, the biometric authentication system 100, 100A can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

また、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、略水平方向に広がる触覚提示領域ARU12を提示することで、手H1の高さ位置を所定の高さ(つまり、触覚提示領域ARU12が提示される高さ)に誘導できる。つまり、生体認証システム100,100Aは、ユーザの指先(認証部位)の高さのばらつきをより効果的に抑制することで、ユーザの指先(認証部位)が生体情報取得用カメラ34の被写界深度内に位置するように誘導できる。 Furthermore, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment adjust the height position of the hand H1 to a predetermined height by presenting the tactile presentation area ARU12 that extends approximately horizontally. (that is, the height at which the tactile presentation area ARU12 is presented). In other words, the biometric authentication systems 100 and 100A more effectively suppress variations in the height of the user's fingertips (authentication site), so that the user's fingertips (authentication site) are in the field of view of the biometric information acquisition camera 34. It can be guided to position within the depth.

また、第1取得例において、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、触覚提示領域ARU12と、撮像領域ARC12とが重複しないため、ユーザの掌に触覚を提示しながら指先を撮像できる。 In addition, in the first acquisition example, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment have a tactile sense on the user's palm because the tactile presentation area ARU12 and the imaging area ARC12 do not overlap. It is possible to image the fingertip while presenting the image.

次に、図11および図12のそれぞれを参照して、生体認証用画像の第2取得例について説明する。図11は、生体認証用画像の第2取得例を説明する図である。図12は、生体認証用画像の第2取得例を説明する図である。なお、図11および図12では、説明を分かり易くするために、生体認証システム100,100Aにおける触覚生成装置P1A、および生体情報取得装置P2,P2Aのそれぞれの要部のみを図示している。また、第2取得例は、第1取得例と同様の構成を有するため、同様の構成には同一の符号を付与して説明を省略する。 Next, a second example of acquiring a biometric authentication image will be described with reference to FIGS. 11 and 12, respectively. FIG. 11 is a diagram illustrating a second example of acquiring an image for biometric authentication. FIG. 12 is a diagram illustrating a second example of acquiring an image for biometric authentication. In addition, in FIGS. 11 and 12, in order to make the explanation easier to understand, only the main parts of the tactile sense generation device P1A and the biometric information acquisition devices P2 and P2A in the biometric authentication systems 100 and 100A are illustrated. Furthermore, since the second acquisition example has the same configuration as the first acquisition example, similar configurations are given the same reference numerals and descriptions thereof will be omitted.

ここで、図11および図12に示す例における触覚提示領域ARU12と、撮像領域ARC12との関係性について説明する。 Here, the relationship between the tactile presentation area ARU12 and the imaging area ARC12 in the examples shown in FIGS. 11 and 12 will be explained.

図11および図12に示す第2取得例は、生体部位と認証部位とが異なっており、生体部位である掌に触覚を提示し、認証部位である1本以上の指先を撮像することで生体情報(例えば、指紋等)を取得する。なお、撮像される指先は、いずれか1本に限定されず、生体情報データベースDBに登録済みの指紋に対応する指先であればよい。 In the second acquisition example shown in FIGS. 11 and 12, the biological part and the authentication part are different, and the biological part is presented with a tactile sensation on the palm, which is the biological part, and one or more fingertips, which are the authentication part, are imaged. Obtain information (eg, fingerprints, etc.). Note that the fingertip to be imaged is not limited to any one, but may be any fingertip that corresponds to a fingerprint registered in the biometric information database DB.

第2取得例における超音波送信部15は、触覚提示可能領域ARU11内の触覚提示領域ARU13に触覚を提示する。触覚提示領域ARU13は、触覚提示可能領域ARU11内、かつ、略垂直方向(Z軸に沿う方向、あるいはユーザの手の挿入方向D2に略直交する方向)に設定される。触覚提示領域ARU13は、Z方向における高さH13が触覚提示可能領域ARU11内、かつ、生体情報取得用カメラ34の撮像領域ARC12内(つまり、被写界深度内)に収まるように設定され、水平方向における面積が触覚提示可能領域ARU11内に収まるように設定される。なお、触覚提示領域ARU13の位置は、触覚提示可能領域ARU11内において生体情報取得用カメラ34が設置された側(紙面左側)に提示されることが望ましい。 The ultrasound transmitter 15 in the second acquisition example presents a tactile sensation to the tactile sensation presentation area ARU13 within the tactile sensation presentation possible area ARU11. The tactile presentation area ARU13 is set within the tactile presentation possible area ARU11 and in a substantially vertical direction (a direction along the Z axis or a direction substantially orthogonal to the user's hand insertion direction D2). The tactile presentation area ARU13 is set so that the height H13 in the Z direction is within the tactile presentation possible area ARU11 and within the imaging area ARC12 of the biological information acquisition camera 34 (that is, within the depth of field), and is horizontally The area in the direction is set so that it falls within the tactile presentation possible area ARU11. The position of the tactile presentation area ARU13 is preferably presented on the side where the biometric information acquisition camera 34 is installed (left side in the paper) within the tactile presentation possible area ARU11.

第2取得例における生体情報取得用カメラ34は、画角ARC11内の撮像領域ARC12に位置する指先を撮像する。なお、撮像領域ARC12は、生体情報取得用カメラ34のレンズのピントが合う領域(つまり、被写界深度)に含まれ、かつ、触覚提示可能領域ARU11に含まれない領域である。また、撮像領域ARC12の高さH11は、Z方向において触覚提示可能領域ARU11の高さH12内に収まるように設定される(つまり、高さH11<高さH12)。 The biological information acquisition camera 34 in the second acquisition example images the fingertip located in the imaging area ARC12 within the viewing angle ARC11. The imaging area ARC12 is an area that is included in the focused area of the lens of the biological information acquisition camera 34 (that is, the depth of field) and is not included in the tactile presentation possible area ARU11. Further, the height H11 of the imaging area ARC12 is set to fall within the height H12 of the tactile presentation possible area ARU11 in the Z direction (that is, height H11<height H12).

これにより、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、略垂直方向の触覚領域ARC13に触覚を提示することで、Z軸方向におけるユーザの手の挿入位置にばらつきがあっても、ユーザの手に触覚を提示できる。 Thereby, the biometric authentication systems 100, 100A according to the first embodiment and the modification of the first embodiment can determine the insertion position of the user's hand in the Z-axis direction by presenting the tactile sensation in the tactile area ARC13 in the substantially vertical direction. The tactile sensation can be presented to the user's hand even if there are variations in the tactile sensation.

また、生体認証システム100,100Aは、手の大きさ、指の長さ等がユーザごとに異なる場合でも、触覚によりユーザの掌をかざす位置を提示できるため、ユーザの指先(認証部位)の撮像位置のばらつきをより効果的に抑制できる。したがって、生体認証システム100,100Aは、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 In addition, the biometric authentication systems 100 and 100A can use tactile sense to indicate the position of the user's palm even if the hand size, finger length, etc. differ from user to user. Positional variations can be suppressed more effectively. Therefore, the biometric authentication system 100, 100A can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

また、第2取得例において、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、触覚提示領域ARU12と、撮像領域ARC12とが重複しないため、ユーザの掌に触覚を提示しながら指先を撮像できる。 In addition, in the second acquisition example, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment have a tactile sense on the user's palm because the tactile presentation area ARU12 and the imaging area ARC12 do not overlap. It is possible to image the fingertip while presenting the image.

次に、図13および図14のそれぞれを参照して、生体認証用画像の第3取得例について説明する。図13は、生体認証用画像の第3取得例を説明する図である。図14は、生体認証用画像の第3取得例を説明する図である。なお、図13および図14では、説明を分かり易くするために、生体認証システム100,100Aにおける触覚生成装置P1A、および生体情報取得装置P2,P2Aのそれぞれの要部のみを図示している。 Next, a third example of acquiring an image for biometric authentication will be described with reference to FIGS. 13 and 14, respectively. FIG. 13 is a diagram illustrating a third example of acquiring an image for biometric authentication. FIG. 14 is a diagram illustrating a third example of acquiring an image for biometric authentication. In addition, in FIGS. 13 and 14, in order to make the explanation easier to understand, only the main parts of the tactile sense generation device P1A and the biometric information acquisition devices P2 and P2A in the biometric authentication systems 100 and 100A are illustrated.

ここで、図13および図14に示す例における触覚提示領域ARU22と、撮像領域ARC22との関係性について説明する。 Here, the relationship between the tactile presentation area ARU22 and the imaging area ARC22 in the examples shown in FIGS. 13 and 14 will be explained.

図13および図14に示す第3取得例は、生体部位と認証部位とが同一であり、生体部位である掌に触覚を提示し、認証部位である掌を撮像することで生体情報(例えば、掌紋、静脈等)を取得する。 In the third acquisition example shown in FIGS. 13 and 14, the biological part and the authentication part are the same, and by presenting a tactile sensation to the palm, which is the biological part, and capturing an image of the palm, which is the authentication part, biological information (for example Obtain palm prints, veins, etc.).

第3取得例における超音波送信部15は、触覚提示可能領域ARU21内の触覚提示領域ARU22に触覚を提示する。触覚提示領域ARU22は、触覚提示可能領域ARU21内、かつ、ユーザの手H1の挿入方向D2(つまり、ユーザの掌に沿う方向)に設定される。触覚提示領域ARU22の全域は、触覚提示可能領域ARU21内、かつ、生体情報取得用カメラ34の撮像領域ARC22内(つまり、被写界深度内)に収まるように設定される。 The ultrasound transmitting unit 15 in the third acquisition example presents a tactile sensation to a tactile sensation presentation area ARU22 within a tactile sensation presentation possible area ARU21. The tactile presentation area ARU22 is set within the tactile presentation possible area ARU21 and in the insertion direction D2 of the user's hand H1 (that is, the direction along the user's palm). The entire area of the tactile presentation area ARU22 is set to fall within the tactile presentation possible area ARU21 and within the imaging area ARC22 of the biological information acquisition camera 34 (that is, within the depth of field).

第3取得例における生体情報取得用カメラ34は、画角ARC21内の撮像領域ARC22に位置する掌を撮像する。なお、撮像領域ARC22は、生体情報取得用カメラ34のレンズ(不図示)のピントが合う領域(つまり、被写界深度)に含まれ、かつ、触覚提示可能領域ARU21に含まれる領域である。また、撮像領域ARC22の高さH21は、Z方向において触覚提示可能領域ARU21の高さH22内に収まるように設定される(つまり、高さH21<高さH22)。 The biological information acquisition camera 34 in the third acquisition example images the palm located in the imaging area ARC22 within the viewing angle ARC21. The imaging area ARC22 is an area that is included in the focused area (that is, the depth of field) of the lens (not shown) of the biological information acquisition camera 34, and is also included in the tactile presentation possible area ARU21. Furthermore, the height H21 of the imaging area ARC22 is set to fall within the height H22 of the tactile presentation possible area ARU21 in the Z direction (that is, height H21<height H22).

第3取得例において、ユーザは、挿入方向D2から手H1を挿入する。触覚生成装置P1,P1Aは、手挿入検出部13,13Aによりユーザの手H1の挿入が検出されたタイミングで、超音波送信部15による音波の出力を開始するとともに、ユーザの手H1の検出を通知する制御指令を生成して、生体情報取得装置P2または生体認証装置P3Aに送信する。具体的に、触覚生成装置P1,P1Aは、触覚提示領域ARU23で複数の超音波素子16A~16kNのそれぞれから出力された音波が強め合うように音波を出力する。なお、触覚生成装置P1,P1Aは、常時、触覚提示領域ARU13への触覚提示処理を実行していてもよい。 In the third acquisition example, the user inserts the hand H1 from the insertion direction D2. The tactile sensation generating devices P1, P1A start outputting sound waves by the ultrasonic transmitter 15 at the timing when the insertion of the user's hand H1 is detected by the hand insertion detectors 13, 13A, and detect the user's hand H1. A control command to be notified is generated and transmitted to the biometric information acquisition device P2 or the biometric authentication device P3A. Specifically, the tactile sensation generating devices P1 and P1A output sound waves such that the sound waves output from each of the plurality of ultrasonic elements 16A to 16kN in the tactile sensation presentation area ARU23 strengthen each other. Note that the tactile sensation generating devices P1 and P1A may always execute the tactile sensation presentation process to the tactile sensation presentation area ARU13.

生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1,P1Aから送信された制御指令に基づいて、静止検知用カメラ33に認証部位(ここでは、指先)を撮像させる。生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33から出力された撮像画像に基づいて、認証部位が静止していると判定した場合、生体情報取得用カメラ34に撮像領域ARC22に位置する認証部位を撮像させる。 The biometric information acquisition device P2 or the biometric authentication device P3A causes the still detection camera 33 to image the authentication site (here, the fingertip) based on the control commands transmitted from the tactile sense generation devices P1 and P1A. When the biometric information acquisition device P2 or the biometric authentication device P3A determines that the authentication site is stationary based on the captured image output from the still detection camera 33, the biometric information acquisition device P2 or the biometric authentication device P3A sends the biometric information acquisition camera 34 to the imaging area ARC22. The located authentication site is imaged.

なお、生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33から出力された撮像画像に基づいて、認証部位が静止していると判定した場合、認証部位の静止を通知する制御指令を生成し、触覚生成装置P1,P1Aに送信してもよい。このような場合、触覚生成装置P1,P1Aは、超音波送信部15による音波の出力を停止する。生体情報取得装置P2または生体認証装置P3Aは、超音波送信部15による音波の出力(つまり、触覚の提示)が終了した後、生体情報取得用カメラ34により認証部位を撮像する。 Note that when the biometric information acquisition device P2 or the biometric authentication device P3A determines that the authentication part is stationary based on the captured image output from the stillness detection camera 33, the biometric information acquisition device P2 or the biometric authentication device P3A issues a control command to notify that the authentication part is stationary. may be generated and transmitted to the tactile sensation generating devices P1 and P1A. In such a case, the tactile sensation generating devices P1 and P1A stop the output of sound waves by the ultrasonic transmitter 15. The biometric information acquisition device P2 or the biometric authentication device P3A images the authentication site using the biometric information acquisition camera 34 after the ultrasound transmitter 15 finishes outputting the sound waves (that is, presenting the tactile sensation).

これにより、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、触覚によりユーザの掌をかざす位置を提示し、触覚が提示された位置(領域)で静止した掌を撮像することで、ユーザの掌(認証部位)の撮像位置のばらつきをより効果的に抑制できる。したがって、生体認証システム100,100Aは、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 As a result, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment present the position where the user's palm is held up using the tactile sense, and the biometric authentication system 100, 100A according to the first embodiment and the modification example of the first embodiment can use the tactile sense to present the position where the user's palm is held up, and the biometric authentication system 100, 100A can use the tactile sense to present the position where the user's palm is held up, and By imaging the user's palm (authentication site), variations in the imaging position of the user's palm (authentication site) can be more effectively suppressed. Therefore, the biometric authentication system 100, 100A can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

次に、図15および図16のそれぞれを参照して、生体認証用画像の第4取得例について説明する。図15は、生体認証用画像の第4取得例を説明する図である。図16は、生体認証用画像の第4取得例を説明する図である。なお、図15および図16では、説明を分かり易くするために、生体認証システム100,100Aにおける触覚生成装置P1A、および生体情報取得装置P2,P2Aのそれぞれの要部のみを図示している。 Next, a fourth example of acquiring an image for biometric authentication will be described with reference to FIGS. 15 and 16, respectively. FIG. 15 is a diagram illustrating a fourth example of acquiring an image for biometric authentication. FIG. 16 is a diagram illustrating a fourth example of acquiring a biometric authentication image. In addition, in FIGS. 15 and 16, in order to make the explanation easy to understand, only the main parts of the tactile sense generation device P1A and the biometric information acquisition devices P2 and P2A in the biometric authentication systems 100 and 100A are illustrated.

ここで、図15および図16に示す例における触覚提示領域ARU32と、撮像領域ARC32との関係性について説明する。 Here, the relationship between the tactile presentation area ARU32 and the imaging area ARC32 in the examples shown in FIGS. 15 and 16 will be explained.

図15および図16に示す第4取得例は、生体部位と認証部位とが同一であり、生体部位である指先に触覚を提示し、認証部位である指先を撮像することで生体情報(例えば、指紋等)を取得する。なお、撮像される指先は、いずれか1本に限定されず、生体情報データベースDBに登録済みの指紋に対応する指先であればよい。 In the fourth acquisition example shown in FIGS. 15 and 16, the biological part and the authentication part are the same, and by presenting a tactile sensation to the fingertip, which is the biological part, and capturing an image of the fingertip, which is the authentication part, biological information (for example, fingerprints, etc.). Note that the fingertip to be imaged is not limited to any one, but may be any fingertip that corresponds to a fingerprint registered in the biometric information database DB.

第4取得例における超音波送信部15は、触覚提示可能領域ARU31内の触覚提示領域ARU32に触覚を提示する。触覚提示領域ARU32は、触覚提示可能領域ARU31内、かつ、生体情報取得用カメラ34の撮像領域ARC32内(つまり、被写界深度内)に収まるように設定される。なお、図15に示す超音波送信部15は、複数の超音波素子16A~16kNのそれぞれの音波の出力位置(出力面)がユーザのH1の挿入方向D1に対して略直交する方向に配置される例を示すが、これに限定されない。超音波送信部15は、挿入方向D1に対して略平行に配置されなければよく、例えば、図15に破線で示すように、挿入方向D1に対して所定の角度を有して配置されてよい。 The ultrasound transmitter 15 in the fourth acquisition example presents a tactile sensation to a tactile sensation presentation area ARU32 within a tactile sensation presentation possible area ARU31. The tactile presentation area ARU32 is set to fit within the tactile presentation possible area ARU31 and within the imaging area ARC32 of the biological information acquisition camera 34 (that is, within the depth of field). In addition, in the ultrasonic transmitter 15 shown in FIG. 15, the output position (output surface) of each of the plurality of ultrasonic elements 16A to 16kN of the sound waves is arranged in a direction substantially perpendicular to the insertion direction D1 of the user's H1. Examples are shown below, but are not limited to these. The ultrasonic transmitter 15 does not need to be arranged substantially parallel to the insertion direction D1, and may be arranged at a predetermined angle to the insertion direction D1, for example, as shown by the broken line in FIG. 15. .

第4取得例における生体情報取得用カメラ34は、画角ARC31内の撮像領域ARC32に位置する少なくとも1本の指先を撮像する。なお、撮像領域ARC32は、生体情報取得用カメラ34のレンズ(不図示)のピントが合う領域(つまり、被写界深度)に含まれ、かつ、触覚提示可能領域ARU31に含まれる領域である。また、撮像領域ARC32の高さH31は、Z方向において触覚提示可能領域ARU31の高さH32内に収まるように設定される(つまり、高さH31<高さH32)。 The biological information acquisition camera 34 in the fourth acquisition example images at least one fingertip located in the imaging area ARC32 within the angle of view ARC31. Note that the imaging area ARC32 is an area that is included in the focused area (that is, the depth of field) of the lens (not shown) of the biological information acquisition camera 34, and is also included in the tactile presentation possible area ARU31. Further, the height H31 of the imaging area ARC32 is set to fall within the height H32 of the tactile presentation possible area ARU31 in the Z direction (that is, height H31<height H32).

第4取得例において、ユーザは、挿入方向D1から手H1を挿入する。触覚生成装置P1,P1Aは、手挿入検出部13,13Aによりユーザの手H1の挿入が検出されたタイミングで、超音波送信部15による音波の出力を開始するとともに、ユーザの手H1の検出を通知する制御指令を生成して、生体情報取得装置P2または生体認証装置P3Aに送信する。具体的に、触覚生成装置P1,P1Aは、触覚提示領域ARU33で複数の超音波素子16A~16kNのそれぞれから出力された音波が強め合うように音波を出力する。なお、触覚生成装置P1,P1Aは、常時、触覚提示領域ARU33への触覚提示処理を実行していてもよい。 In the fourth acquisition example, the user inserts the hand H1 from the insertion direction D1. The tactile sensation generating devices P1, P1A start outputting sound waves by the ultrasonic transmitter 15 at the timing when the insertion of the user's hand H1 is detected by the hand insertion detectors 13, 13A, and detect the user's hand H1. A control command to be notified is generated and transmitted to the biometric information acquisition device P2 or the biometric authentication device P3A. Specifically, the tactile sensation generating devices P1 and P1A output sound waves such that the sound waves output from each of the plurality of ultrasonic elements 16A to 16kN strengthen each other in the tactile sensation presentation area ARU33. Note that the tactile sensation generating devices P1 and P1A may always execute the tactile sensation presentation process to the tactile sensation presentation area ARU33.

生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1,P1Aから送信された制御指令に基づいて、静止検知用カメラ33に認証部位(ここでは、指先)を撮像させる。生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33から出力された撮像画像に基づいて、認証部位が静止していると判定した場合、生体情報取得用カメラ34に撮像領域ARC32に位置する認証部位を撮像させる。 The biometric information acquisition device P2 or the biometric authentication device P3A causes the still detection camera 33 to image the authentication site (here, the fingertip) based on the control commands transmitted from the tactile sense generation devices P1 and P1A. When the biometric information acquisition device P2 or the biometric authentication device P3A determines that the authentication site is stationary based on the captured image output from the still detection camera 33, the biometric information acquisition device P2 or the biometric authentication device P3A sends the biometric information acquisition camera 34 to the imaging area ARC32. The located authentication site is imaged.

なお、生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33から出力された撮像画像に基づいて、認証部位が静止していると判定した場合、認証部位の静止を通知する制御指令を生成し、触覚生成装置P1,P1Aに送信してもよい。このような場合、触覚生成装置P1、P1Aは、超音波送信部15による音波の出力を停止する。生体情報取得装置P2または生体認証装置P3Aは、超音波送信部15による音波の出力(つまり、触覚の提示)が終了した後、生体情報取得用カメラ34により認証部位を撮像する。 Note that when the biometric information acquisition device P2 or the biometric authentication device P3A determines that the authentication part is stationary based on the captured image output from the stillness detection camera 33, the biometric information acquisition device P2 or the biometric authentication device P3A issues a control command to notify that the authentication part is stationary. may be generated and transmitted to the tactile sensation generating devices P1 and P1A. In such a case, the tactile sensation generating devices P1 and P1A stop the output of the sound waves by the ultrasound transmitter 15. The biometric information acquisition device P2 or the biometric authentication device P3A images the authentication site using the biometric information acquisition camera 34 after the ultrasound transmitter 15 finishes outputting the sound waves (that is, presenting the tactile sensation).

これにより、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、触覚により認証部位であるユーザの指先をかざす位置を提示し、触覚が提示された位置(領域)で静止した指先を撮像することで、ユーザの指先(認証部位)の撮像位置のばらつきをより効果的に抑制できる。したがって、生体認証システム100,100Aは、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 As a result, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment present the position where the user's fingertip, which is the authentication site, is placed over using the tactile sense, and the position (area) where the tactile sense is presented. By capturing an image of a stationary fingertip, variations in the imaging position of the user's fingertip (authentication site) can be more effectively suppressed. Therefore, the biometric authentication system 100, 100A can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

また、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、第4取得例に示すように所定の指先に触覚を提示する場合、触覚が提示される生体部位の面積が小さいため、生体認証用画像に映る指先(つまり、指紋)の大きさのばらつきを効率的に抑制できる。よって、生体認証システム100,100Aは、生体認証精度を向上させることができる。 Furthermore, in the biometric authentication system 100, 100A according to the first embodiment and the modification of the first embodiment, when a tactile sense is presented to a predetermined fingertip as shown in the fourth acquisition example, the biometric authentication system 100, 100A according to the first embodiment and the modification example of the first embodiment is configured to Since the area is small, variations in the size of fingertips (that is, fingerprints) appearing in biometric authentication images can be efficiently suppressed. Therefore, the biometric authentication systems 100, 100A can improve biometric authentication accuracy.

次に、図17を参照して、実施の形態1および実施の形態1の変形例における生体認証処理の動作手順について説明する。図17は、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aの動作手順例2を示すフローチャートである。なお、図17に示すフローチャートの説明において、ステップSt14~ステップSt18のそれぞれの処理については、図8と同様の処理であるステップSt14~ステップSt18のそれぞれの処理と同様であるため、説明を省略する。 Next, with reference to FIG. 17, the operating procedure of biometric authentication processing in the first embodiment and a modification of the first embodiment will be described. FIG. 17 is a flowchart showing a second example of the operation procedure of the biometric authentication system 100, 100A according to the first embodiment and a modification of the first embodiment. Note that in the explanation of the flowchart shown in FIG. 17, each of the processes from step St14 to step St18 is the same as each process from step St14 to step St18, which is the same process as in FIG. 8, so the description will be omitted. .

動作手順例2は、生体情報取得用カメラ34の撮像領域内にユーザの手が挿入されたタイミングで触覚を提示する場合の動作手順を示す。 Operation procedure example 2 shows an operation procedure in which a tactile sensation is presented at the timing when the user's hand is inserted into the imaging area of the biometric information acquisition camera 34.

触覚生成装置P1Aは、超音波送信部15により触覚生成可能な領域(例えば、触覚提示可能領域ARU41(図19,図21参照)等)へのユーザの手の挿入を検知したか否かを判定する(St21)。 The tactile sensation generation device P1A determines whether or not the ultrasonic wave transmitter 15 detects insertion of the user's hand into a region where a tactile sensation can be generated (for example, the tactile sensation presentation possible region ARU41 (see FIGS. 19 and 21)). (St21).

触覚生成装置P1Aは、ステップSt21の処理において、ユーザの手の挿入を検知した判定した場合(St21,YES)、検知されたユーザの手の位置が生体情報取得用カメラ34の撮像領域(レンズ(不図示)の被写界深度内であって、例えば、撮像領域ARC42(図19,図21参照)等)内であるか否かを判定する(St22)。 In the process of step St21, when the tactile sensation generation device P1A determines that insertion of the user's hand is detected (St21, YES), the tactile sensation generation device P1A determines that the position of the detected user's hand is within the imaging area (lens) of the biometric information acquisition camera 34. It is determined whether the captured image is within the depth of field of the subject (not shown), for example, within the imaging area ARC42 (see FIGS. 19 and 21) (St22).

一方、触覚生成装置P1Aは、ステップSt21の処理において、ユーザの手の挿入を検知していないと判定した場合(St21,NO)、ステップSt21の処理に戻る。 On the other hand, when the tactile sensation generating device P1A determines in the process of step St21 that insertion of the user's hand is not detected (St21, NO), the process returns to the process of step St21.

触覚生成装置P1Aは、ステップSt22の処理において、検知されたユーザの手の位置が生体情報取得用カメラ34の撮像領域内であると判定した場合(St22,YES)、超音波送信部15により音波を出力し、検出されたユーザの手に触覚を提示し(St23)、ユーザの手の位置が撮像領域内であることを通知する制御指令を生成して、生体情報取得装置P2または生体認証装置P3Aに送信する。 If the tactile sensation generation device P1A determines in the process of step St22 that the detected position of the user's hand is within the imaging area of the biological information acquisition camera 34 (St22, YES), the ultrasound transmitter 15 transmits a sound wave. outputs a tactile sensation on the detected user's hand (St23), generates a control command to notify that the position of the user's hand is within the imaging area, and sends the biometric information acquisition device P2 or the biometric authentication device Send to P3A.

一方、触覚生成装置P1Aは、ステップSt22の処理において、検知されたユーザの手の位置が撮像領域内でないと判定した場合(St22,NO)、ステップSt21の処理に戻る。 On the other hand, when the tactile sensation generation device P1A determines in the process of step St22 that the detected position of the user's hand is not within the imaging area (St22, NO), the process returns to the process of step St21.

生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1Aから送信された制御指令に基づいて、静止検知用カメラ33よる撮像を開始する。生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33により撮像された静止検知用画像に基づいて、検知された手の静止を検知したか否かをさらに判定する(St24)。なお、ここでいう手の静止は、生体認証用画像を撮像可能に手が静止した状態を示す。また、生体情報取得装置P2または生体認証装置P3Aは、ユーザの認証部位の静止を検知してもよい。 The biometric information acquisition device P2 or the biometric authentication device P3A starts imaging by the still detection camera 33 based on the control command transmitted from the tactile sensation generation device P1A. The biometric information acquisition device P2 or the biometric authentication device P3A further determines whether or not the detected stillness of the hand is detected based on the stillness detection image captured by the stillness detection camera 33 (St24). Note that the hand stillness here refers to a state in which the hand is stationary so that a biometric authentication image can be captured. Furthermore, the biometric information acquisition device P2 or the biometric authentication device P3A may detect that the user's authentication site is still.

生体情報取得装置P2または生体認証装置P3Aは、ステップSt24の処理において、検知された手の静止を検知したと判定した場合(St24,YES)、生体情報取得用カメラ34により生体認証に用いられる認証部位(例えば、指先、掌等)を撮像する(St14)。 When the biometric information acquisition device P2 or the biometric authentication device P3A determines in the process of step St24 that the detected stillness of the hand is detected (St24, YES), the biometric information acquisition device P2 or the biometric authentication device P3A performs the authentication used for biometric authentication by the biometric information acquisition camera 34. A part (for example, a fingertip, a palm, etc.) is imaged (St14).

一方、生体情報取得装置P2または生体認証装置P3Aは、ステップSt24の処理において、検知された手の静止を検知していないと判定した場合(St24,NO)、ステップSt21の処理に戻る。なお、生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1Aから送信された制御指令を取得したタイミングから、事前に設定された所定の制限時間内にユーザの手の静止が検知されたか否かを判定し、所定の制限時間内にユーザの手の静止が検知されなかった場合に、ステップSt21の処理に戻ってもよい。 On the other hand, when the biometric information acquisition device P2 or the biometric authentication device P3A determines in the process of step St24 that the detected stillness of the hand is not detected (St24, NO), the process returns to the process of step St21. Note that the biometric information acquisition device P2 or the biometric authentication device P3A determines whether the user's hand remains still within a predetermined time limit set in advance from the timing of acquiring the control command transmitted from the haptic generation device P1A. If it is determined whether or not the user's hand remains still within a predetermined time limit, the process may return to step St21.

以上により、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、ユーザの手が生体情報取得用カメラ34の撮像領域内で検出された場合に触覚を提示することで、ユーザに生体認証処理の開始(つまり、生体認証のための認証部位の撮像の開始)を知らせることができる。つまり、ユーザは、手を静止させる位置およびタイミングを理解することができる。これにより、生体認証システム100,100Aは、触覚の提示を受けたユーザの認証部位の撮像位置のばらつきをより効果的に抑制できるため、生体認証により適した生体認証用画像を撮像できる。 As described above, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment can present a tactile sensation when the user's hand is detected within the imaging area of the biometric information acquisition camera 34. With this, the user can be notified of the start of biometric authentication processing (that is, the start of imaging of the authentication site for biometric authentication). In other words, the user can understand where and when to stop the hand. Thereby, the biometric authentication systems 100 and 100A can more effectively suppress variations in the imaging position of the authentication site of the user who has received the tactile sense presentation, and therefore can capture an image for biometric authentication that is more suitable for biometric authentication.

次に、図18を参照して、実施の形態1および実施の形態1の変形例における生体認証処理の動作手順について説明する。図18は、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aの動作手順例3を示すフローチャートである。なお、図18に示すフローチャートの説明において、ステップSt14~ステップSt18のそれぞれの処理については、図8と同様の処理であるステップSt14~ステップSt18のそれぞれの処理と同様であるため、説明を省略する。 Next, with reference to FIG. 18, the operating procedure of biometric authentication processing in the first embodiment and a modification of the first embodiment will be described. FIG. 18 is a flowchart showing a third example of the operation procedure of the biometric authentication system 100, 100A according to the first embodiment and a modification of the first embodiment. In addition, in the explanation of the flowchart shown in FIG. 18, each process from step St14 to step St18 is the same as each process from step St14 to step St18, which is the same process as in FIG. 8, so the description will be omitted. .

動作手順例3は、ユーザの手の位置を検出し、検出されたユーザの手の位置に基づいて触覚提示位置を移動させることで、生体情報取得用カメラ34の撮像領域内にユーザの認証部位が位置するように誘導する場合の動作手順を示す。 Operation procedure example 3 detects the position of the user's hand and moves the tactile presentation position based on the detected position of the user's hand, thereby placing the user's authentication site within the imaging area of the biometric information acquisition camera 34. The following describes the operating procedure for guiding the robot to its position.

触覚生成装置P1Aは、超音波送信部15により触覚生成可能な領域(例えば、触覚提示領域ARU41(図19,図21参照)等)へのユーザの手の挿入を検知したか否かを判定する(St31)。 The tactile sensation generation device P1A determines whether the ultrasonic transmitter 15 detects insertion of the user's hand into a region where tactile sensations can be generated (for example, the tactile presentation region ARU41 (see FIGS. 19 and 21)). (St31).

触覚生成装置P1Aは、ステップSt31の処理において、ユーザの手の挿入を検知した判定した場合(St31,YES)、ユーザの掌の位置を検出し(St32)、検出されたユーザの掌を焦点位置に設定して超音波送信部15により音波を出力し、ユーザの掌に触覚を提示する(St33)。ここで、触覚生成装置P1Aは、ユーザの掌の位置を検出しながら、超音波送信部15により出力される音波の焦点位置(つまり、触覚の提示位置)を生体情報取得用カメラ34の撮像領域(つまり、被写界深度)に向かって移動させる。これにより、生体認証システム100,100Aは、生体情報取得用カメラ34の撮像領域にユーザの手を誘導できる。 In the process of step St31, when the tactile sensation generating device P1A determines that insertion of the user's hand is detected (St31, YES), the tactile sensation generating device P1A detects the position of the user's palm (St32), and sets the detected user's palm to the focal position. , the ultrasonic transmitter 15 outputs a sound wave and presents a tactile sensation to the user's palm (St33). Here, the tactile sensation generation device P1A detects the position of the user's palm while detecting the focal position of the sound wave output by the ultrasound transmitter 15 (that is, the tactile sensation presentation position) in the imaging area of the biological information acquisition camera 34. (that is, the depth of field). Thereby, the biometric authentication system 100, 100A can guide the user's hand to the imaging area of the biometric information acquisition camera 34.

一方、触覚生成装置P1Aは、ステップSt31の処理において、ユーザの手の挿入を検知していないと判定した場合(St31,NO)、ステップSt31の処理に戻る。 On the other hand, when the tactile sensation generating device P1A determines in the process of step St31 that insertion of the user's hand is not detected (St31, NO), the process returns to the process of step St31.

触覚生成装置P1Aは、検知されたユーザの手の位置が生体情報取得用カメラ34の撮像領域(レンズの被写界深度内であって、例えば、撮像領域ARC42(図19,図21参照)等)内であるか否かを判定する(St34)。 The tactile sensation generating device P1A is configured such that the detected position of the user's hand is within the imaging area of the biometric information acquisition camera 34 (within the depth of field of the lens, for example, the imaging area ARC42 (see FIGS. 19 and 21)), etc. ) is determined (St34).

触覚生成装置P1Aは、ステップSt34の処理において、検知されたユーザの手の位置が生体情報取得用カメラ34の撮像領域内であると判定した場合(St34,YES)、ユーザの手の位置が撮像領域内であることを通知する制御指令を生成して、生体情報取得装置P2または生体認証装置P3Aに送信する。 If the tactile sensation generation device P1A determines in the process of step St34 that the detected position of the user's hand is within the imaging area of the biometric information acquisition camera 34 (St34, YES), the tactile sensation generation device P1A determines that the position of the user's hand is within the imaging area A control command notifying that the area is within the area is generated and transmitted to the biometric information acquisition device P2 or the biometric authentication device P3A.

触覚生成装置P1Aは、ステップSt34の処理において、検知されたユーザの手の位置が生体情報取得用カメラ34の撮像領域内でないと判定した場合(St34,NO)、ステップSt33の処理に戻り、超音波送信部15により出力される音波の焦点位置を生体情報取得用カメラ34の撮像領域に向かって移動させて、ユーザの掌を誘導する。 If the tactile sensation generating device P1A determines in the process of step St34 that the detected position of the user's hand is not within the imaging area of the biometric information acquisition camera 34 (St34, NO), the tactile sensation generating device P1A returns to the process of step St33 and The focus position of the sound waves output by the sound wave transmitter 15 is moved toward the imaging area of the biological information acquisition camera 34 to guide the user's palm.

生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1Aから送信された制御指令に基づいて、静止検知用カメラ33よる撮像を開始する。生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33により撮像された静止検知用画像に基づいて、検知された手の静止を検知したか否かをさらに判定する(St35)。なお、ここでいう手の静止は、生体認証用画像を撮像可能に手が静止した状態を示す。また、生体情報取得装置P2または生体認証装置P3Aは、ユーザの認証部位の静止を検知してもよい。 The biometric information acquisition device P2 or the biometric authentication device P3A starts imaging by the still detection camera 33 based on the control command transmitted from the tactile sensation generation device P1A. The biometric information acquisition device P2 or the biometric authentication device P3A further determines whether or not the detected stillness of the hand is detected based on the stillness detection image captured by the stillness detection camera 33 (St35). Note that the hand stillness here refers to a state in which the hand is stationary so that a biometric authentication image can be captured. Furthermore, the biometric information acquisition device P2 or the biometric authentication device P3A may detect that the user's authentication site is still.

生体情報取得装置P2または生体認証装置P3Aは、ステップSt35の処理において、検知された手の静止を検知したと判定した場合(St35,YES)、生体情報取得用カメラ34により生体認証に用いられる認証部位(例えば、指先、掌等)を撮像する(St14)。 When the biometric information acquisition device P2 or the biometric authentication device P3A determines in the process of step St35 that the detected stillness of the hand is detected (St35, YES), the biometric information acquisition device P2 or the biometric authentication device P3A performs the authentication used for biometric authentication by the biometric information acquisition camera 34. A part (for example, a fingertip, a palm, etc.) is imaged (St14).

一方、生体情報取得装置P2または生体認証装置P3Aは、ステップSt35の処理において、検知された手の静止を検知していないと判定した場合(St35,NO)、ステップSt31の処理に戻る。なお、生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1Aから送信された制御指令を取得したタイミングから、事前に設定された所定の制限時間内にユーザの手の静止が検知されたか否かを判定し、所定の制限時間内にユーザの手の静止が検知されなかった場合に、ステップSt31の処理に戻ってもよい。 On the other hand, when the biometric information acquisition device P2 or the biometric authentication device P3A determines in the process of step St35 that the detected stillness of the hand is not detected (St35, NO), the process returns to the process of step St31. Note that the biometric information acquisition device P2 or the biometric authentication device P3A determines whether the user's hand remains still within a predetermined time limit set in advance from the timing of acquiring the control command transmitted from the haptic generation device P1A. If it is determined whether or not the user's hand remains still within a predetermined time limit, the process may return to step St31.

以上により、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、ユーザの掌の位置を検出しながら、検出された掌の位置に基づいて触覚を提示する位置(つまり、触覚提示領域)を移動させることで、生体情報取得用カメラ34の撮像領域内にユーザの掌を誘導できる。つまり、ユーザは、触覚の提示位置にあわせて掌を移動させることで、手をどこに移動させれば良いかを直感的に理解することができる。これにより、生体認証システム100,100Aは、触覚の提示を受けたユーザの認証部位の撮像位置のばらつきをより効果的に抑制できるため、生体認証により適した生体認証用画像を撮像できる。 As described above, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment detect the position of the user's palm, and the position ( In other words, by moving the tactile presentation area), the user's palm can be guided into the imaging area of the biological information acquisition camera 34. In other words, the user can intuitively understand where to move the hand by moving the palm in accordance with the presentation position of the tactile sense. Thereby, the biometric authentication systems 100 and 100A can more effectively suppress variations in the imaging position of the authentication site of the user who has received the tactile sense presentation, and therefore can capture an image for biometric authentication that is more suitable for biometric authentication.

次に、図19および図20のそれぞれを参照して、生体認証用画像の第5取得例について説明する。図19は、生体認証用画像の第5取得例を説明する図である。図20は、生体認証用画像の第4取得例を説明する図である。なお、図19および図20では、説明を分かり易くするために、生体認証システム100,100Aにおける触覚生成装置P1A、および生体情報取得装置P2,P2Aのそれぞれの要部のみを図示している。 Next, a fifth example of acquiring an image for biometric authentication will be described with reference to FIGS. 19 and 20, respectively. FIG. 19 is a diagram illustrating a fifth example of acquiring a biometric authentication image. FIG. 20 is a diagram illustrating a fourth example of acquiring an image for biometric authentication. In addition, in FIGS. 19 and 20, in order to make the explanation easier to understand, only the main parts of the tactile sense generation device P1A and the biometric information acquisition devices P2 and P2A in the biometric authentication systems 100 and 100A are illustrated.

ここで、図19および図20に示す例における触覚提示領域ARU42と、撮像領域ARC42との関係性について説明する。 Here, the relationship between the tactile presentation area ARU42 and the imaging area ARC42 in the examples shown in FIGS. 19 and 20 will be explained.

図19および図20に示す第5取得例は、生体部位と認証部位とが同一であり、生体部位である掌に触覚を提示し、認証部位である掌を撮像することで生体情報(例えば、掌紋、静脈等)を取得する。 In the fifth acquisition example shown in FIGS. 19 and 20, the biological part and the authentication part are the same, and by presenting a tactile sensation on the palm, which is the biological part, and capturing an image of the palm, which is the authentication part, the biological information Obtain palm prints, veins, etc.).

第5取得例における超音波送信部15は、触覚提示可能領域ARU41内であって、触覚移動領域ARC43内、かつ、生体情報取得用カメラ34の撮像領域内の触覚提示領域ARU42に触覚を提示する。触覚移動領域ARC43は、ユーザの手の挿入検知位置から撮像位置までの間、触覚提示領域ARU42の提示位置を変更可能な領域である。触覚提示領域ARU42は、検出されたユーザの掌の位置に基づいて、触覚移動領域ARC43内、かつ、ユーザの手H1の挿入方向D1(つまり、ユーザの掌に沿う方向)に生成される。 The ultrasound transmitter 15 in the fifth acquisition example presents the tactile sensation in the tactile sensation presentation area ARU42 within the tactile sensation presentation possible area ARU41, within the haptic movement area ARC43, and within the imaging area of the biological information acquisition camera 34. . The tactile movement area ARC43 is an area in which the presentation position of the tactile presentation area ARU42 can be changed from the insertion detection position of the user's hand to the imaging position. The tactile presentation area ARU42 is generated within the tactile movement area ARC43 and in the insertion direction D1 of the user's hand H1 (that is, the direction along the user's palm) based on the detected position of the user's palm.

第5取得例における生体情報取得用カメラ34は、画角ARC41内の撮像領域ARC42に位置する掌を撮像する。なお、撮像領域ARC42は、生体情報取得用カメラ34のレンズ(不図示)のピントが合う領域(つまり、被写界深度)に含まれ、かつ、触覚提示可能領域ARU41に含まれる領域である。また、撮像領域ARC42の高さH41は、Z方向において触覚提示可能領域ARU41の高さH42内に収まるように設定される(つまり、高さH41<高さH42)。また、上述した触覚移動領域ARC43の高さH43は、撮像領域ARC42の高さH41に収まるように設定される(つまり、高さH43<高さH41)。 The biological information acquisition camera 34 in the fifth acquisition example images the palm located in the imaging area ARC42 within the viewing angle ARC41. The imaging area ARC42 is an area included in the focused area (that is, the depth of field) of the lens (not shown) of the biometric information acquisition camera 34, and is also included in the tactile presentation possible area ARU41. Further, the height H41 of the imaging area ARC42 is set to fall within the height H42 of the tactile presentation possible area ARU41 in the Z direction (that is, height H41<height H42). Further, the height H43 of the tactile movement area ARC43 described above is set to fall within the height H41 of the imaging area ARC42 (that is, height H43<height H41).

第5取得例において、ユーザは、挿入方向D1から手H1を挿入する。触覚生成装置P1Aは、超音波送信部15を挟んで生体情報取得用カメラ34と反対側に手挿入検出部13Aを備える。手挿入検出部13Aは、ユーザの手の挿入を検出可能であって、生体情報取得用カメラ34の画角ARC41よりも広い検出領域ART41を有する。触覚生成装置P1Aは、手挿入検出部13Aによりユーザの手H1の挿入が検出されたタイミングで、ユーザの掌の位置を検出し、検出されたユーザの掌の位置(座標)を座標-距離変換部115に出力する。 In the fifth acquisition example, the user inserts the hand H1 from the insertion direction D1. The tactile sensation generation device P1A includes a hand insertion detection section 13A on the opposite side of the biological information acquisition camera 34 with the ultrasound transmission section 15 in between. The hand insertion detection unit 13A is capable of detecting insertion of the user's hand and has a detection area ART41 that is wider than the viewing angle ARC41 of the biometric information acquisition camera 34. The tactile sensation generation device P1A detects the position of the user's palm at the timing when the insertion of the user's hand H1 is detected by the hand insertion detection unit 13A, and performs coordinate-distance conversion on the detected position (coordinates) of the user's palm. 115.

触覚生成装置P1Aは、座標-距離変換部115によってユーザの掌の位置(座標)と超音波送信部15(つまり、複数の超音波素子16A~16kNのそれぞれ)との間の距離と、生体情報取得用カメラ34の撮像領域ARC42とに基づいて、音波を出力する。触覚生成装置P1Aは、ユーザの掌の位置の検出と、検出されたユーザの掌に位置に対応する触覚の提示とを、ユーザの掌が生体情報取得用カメラ34の撮像領域ARC42内に位置するまで繰り返し実行する。触覚生成装置P1Aは、ユーザの手が生体情報取得用カメラ34の撮像領域ARC42内に位置すると判定した場合、制御指令を生成して生体情報取得装置P2または生体認証装置P3Aに送信する。 The tactile sensation generating device P1A converts the distance between the position (coordinates) of the user's palm and the ultrasound transmitting unit 15 (that is, each of the plurality of ultrasound elements 16A to 16kN) and biological information using the coordinate-distance conversion unit 115. Sound waves are output based on the imaging area ARC42 of the acquisition camera 34. The tactile sensation generation device P1A detects the position of the user's palm and presents a tactile sensation corresponding to the detected position of the user's palm when the user's palm is located within the imaging area ARC42 of the biometric information acquisition camera 34. Repeat until . When the tactile sensation generation device P1A determines that the user's hand is located within the imaging area ARC42 of the biometric information acquisition camera 34, the tactile sensation generation device P1A generates a control command and transmits it to the biometric information acquisition device P2 or the biometric authentication device P3A.

生体情報取得装置P2または生体認証装置P3Aは、触覚生成装置P1,P1Aから送信された制御指令に基づいて、静止検知用カメラ33に認証部位(ここでは、掌)を撮像させる。生体情報取得装置P2または生体認証装置P3Aは、静止検知用カメラ33から出力された撮像画像に基づいて、認証部位が静止していると判定した場合、生体情報取得用カメラ34に撮像領域ARC42に位置する認証部位を撮像させる。 The biometric information acquisition device P2 or the biometric authentication device P3A causes the still detection camera 33 to image the authentication site (here, the palm) based on the control commands transmitted from the tactile sense generation devices P1 and P1A. When the biometric information acquisition device P2 or the biometric authentication device P3A determines that the authentication site is stationary based on the captured image output from the still detection camera 33, the biometric information acquisition device P2 or the biometric authentication device P3A sends the biometric information acquisition camera 34 to the imaging area ARC42. The located authentication site is imaged.

これにより、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、触覚により認証部位であるユーザの掌を、生体情報取得用カメラ34の撮像領域ARC42に誘導することができる。したがって、生体認証システム100,100Aは、ユーザの掌(認証部位)を撮像領域に誘導することで、撮像位置のばらつきをより効果的に抑制できる。したがって、生体認証システム100,100Aは、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 Thereby, the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment can guide the user's palm, which is the authentication site, to the imaging area ARC42 of the biometric information acquisition camera 34 using the sense of touch. I can do it. Therefore, the biometric authentication systems 100 and 100A can more effectively suppress variations in the imaging position by guiding the user's palm (authentication site) to the imaging area. Therefore, the biometric authentication system 100, 100A can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

次に、図21および図22のそれぞれを参照して、生体認証用画像の第6取得例について説明する。図21は、生体認証用画像の第6取得例を説明する図である。図22は、生体認証用画像の第4取得例を説明する図である。なお、図21および図22では、説明を分かり易くするために、生体認証システム100,100Aにおける触覚生成装置P1A、および生体情報取得装置P2,P2Aのそれぞれの要部のみを図示している。また、第6取得例は、第5取得例と同様の構成を有するため、同様の構成には同一の符号を付与して説明を省略する。 Next, a sixth example of acquiring a biometric authentication image will be described with reference to FIGS. 21 and 22, respectively. FIG. 21 is a diagram illustrating a sixth example of acquiring an image for biometric authentication. FIG. 22 is a diagram illustrating a fourth example of acquiring a biometric authentication image. Note that in FIGS. 21 and 22, in order to make the explanation easier to understand, only the main parts of the tactile sense generation device P1A and the biometric information acquisition devices P2 and P2A in the biometric authentication systems 100 and 100A are illustrated. Furthermore, since the sixth acquisition example has the same configuration as the fifth acquisition example, the same configurations are given the same reference numerals and the description thereof will be omitted.

ここで、図21および図22に示す例における触覚提示領域ARU52と、撮像領域ARC52との関係性について説明する。 Here, the relationship between the tactile presentation area ARU52 and the imaging area ARC52 in the examples shown in FIGS. 21 and 22 will be described.

図21および図22に示す第6取得例は、生体部位と認証部位とが同一であり、生体部位である掌に触覚を提示し、認証部位である掌を撮像することで生体情報(例えば、掌紋、静脈等)を取得する。また、第6取得例における手挿入検出部13Aの設置位置は、第5取得例に示す手挿入検出部13Aの設置位置と異なる位置に設置される。なお、第6取得例において、手挿入検出部13Aと生体情報取得用カメラ34とは一体的に構成されてもよい。 In the sixth acquisition example shown in FIGS. 21 and 22, the biological part and the authentication part are the same, and by presenting a tactile sensation to the palm, which is the biological part, and capturing an image of the palm, which is the authentication part, biological information (for example, Obtain palm prints, veins, etc.). Furthermore, the installation position of the hand insertion detection unit 13A in the sixth acquisition example is different from the installation position of the hand insertion detection unit 13A shown in the fifth acquisition example. In the sixth acquisition example, the hand insertion detection section 13A and the biological information acquisition camera 34 may be integrally configured.

第6取得例における超音波送信部15は、触覚提示可能領域ARU41内であって、触覚移動領域ARC43内、かつ、生体情報取得用カメラ34の撮像領域内の触覚提示領域ARU42に触覚を提示する。触覚移動領域ARC43は、ユーザの手の挿入検知位置から撮像位置までの間、触覚提示領域ARU42の提示位置を変更可能な領域である。触覚提示領域ARU42は、検出されたユーザの掌の位置に基づいて、触覚移動領域ARC43内、かつ、ユーザの手H1の挿入方向D1(つまり、ユーザの掌に沿う方向)に生成される。 The ultrasound transmitter 15 in the sixth acquisition example presents the tactile sensation in the tactile sensation presentation area ARU42 within the tactile sensation presentation possible area ARU41, within the haptic movement area ARC43, and within the imaging area of the biological information acquisition camera 34. . The tactile movement area ARC43 is an area in which the presentation position of the tactile presentation area ARU42 can be changed from the insertion detection position of the user's hand to the imaging position. The tactile presentation area ARU42 is generated within the tactile movement area ARC43 and in the insertion direction D1 of the user's hand H1 (that is, the direction along the user's palm) based on the detected position of the user's palm.

第6取得例における生体情報取得用カメラ34は、画角ARC41内の撮像領域ARC42に位置する掌を撮像する。なお、撮像領域ARC42は、生体情報取得用カメラ34のレンズのピントが合う領域(つまり、被写界深度)に含まれ、かつ、触覚提示可能領域ARU41に含まれる領域である。また、撮像領域ARC42の高さH41は、Z方向において触覚提示可能領域ARU41の高さH42内に収まるように設定される(つまり、高さH41<高さH42)。また、上述した触覚移動領域ARC43の高さH43は、撮像領域ARC42の高さH41に収まるように設定される(つまり、高さH43<高さH41)。 The biological information acquisition camera 34 in the sixth acquisition example images the palm located in the imaging area ARC42 within the viewing angle ARC41. The imaging area ARC42 is an area that is included in the focused area of the lens of the biological information acquisition camera 34 (that is, the depth of field) and is also included in the tactile presentation possible area ARU41. Further, the height H41 of the imaging area ARC42 is set to fall within the height H42 of the tactile presentation possible area ARU41 in the Z direction (that is, height H41<height H42). Further, the height H43 of the tactile movement area ARC43 described above is set to fall within the height H41 of the imaging area ARC42 (that is, height H43<height H41).

第6取得例において、ユーザは、挿入方向D1から手H1を挿入する。触覚生成装置P1Aは、ユーザの手の挿入方向D1に略直交する方向で、生体情報取得用カメラ34と隣接して配置された手挿入検出部13Aを備える。手挿入検出部13Aは、ユーザの手の挿入を検出可能であって、生体情報取得用カメラ34の画角ARC41よりも広い検出領域ART42を有する。触覚生成装置P1Aは、手挿入検出部13Aによりユーザの手H1の挿入が検出されたタイミングで、ユーザの掌の位置を検出し、検出されたユーザの掌の位置(座標)を座標-距離変換部115に出力する。 In the sixth acquisition example, the user inserts the hand H1 from the insertion direction D1. The tactile sensation generating device P1A includes a hand insertion detection unit 13A that is arranged adjacent to the biological information acquisition camera 34 in a direction substantially orthogonal to the user's hand insertion direction D1. The hand insertion detection unit 13A is capable of detecting insertion of the user's hand and has a detection area ART42 that is wider than the viewing angle ARC41 of the biometric information acquisition camera 34. The tactile sensation generation device P1A detects the position of the user's palm at the timing when the insertion of the user's hand H1 is detected by the hand insertion detection unit 13A, and performs coordinate-distance conversion on the detected position (coordinates) of the user's palm. 115.

これにより、実施の形態1および実施の形態1の変形例に係る生体認証システム100,100Aは、手挿入検出部13Aの検出領域ART42と、生体情報取得用カメラ34の撮像領域ARC42とが類似する領域となるため、触覚を提示する位置と生体認証用画像の撮像位置との間のずれをより小さくできる。 As a result, in the biometric authentication systems 100 and 100A according to the first embodiment and the modification of the first embodiment, the detection region ART42 of the hand insertion detection section 13A and the imaging region ARC42 of the biometric information acquisition camera 34 are similar. Therefore, it is possible to further reduce the deviation between the position where the tactile sense is presented and the position where the biometric authentication image is captured.

また、第6取得例の構成は、手挿入検出部13Aと、生体情報取得用カメラ34とを1つのカメラにより実現可能となる。このような場合、生体認証システム100,100Aは、手挿入検出部13Aと、生体情報取得用カメラ34とを1つのカメラにより実現する場合、プロセッサ(具体的には、触覚生成装置P1A、生体情報取得装置P2、あるいは生体認証装置P3Aのいずれかのプロセッサ)による制御が容易となる。 In addition, the configuration of the sixth acquisition example allows the hand insertion detection section 13A and the biometric information acquisition camera 34 to be realized by one camera. In such a case, when the biometric authentication system 100, 100A implements the hand insertion detection unit 13A and the biometric information acquisition camera 34 by one camera, the biometric authentication system 100, 100A is configured to have a processor (specifically, a tactile sensation generating device P1A, a biometric information This facilitates control by the processor of either the acquisition device P2 or the biometric authentication device P3A.

以上により、実施の形態1に係る認証装置P0(生体画像取得装置の一例)は、空中の触覚領域(所定位置の一例)に音波を用いた触覚を生成する超音波送信部15(触覚生成部の一例)と、所定位置に位置する被認証者の認証部位(所定部位の一例)を撮像する生体情報取得用カメラ34(カメラの一例)と、生体情報取得用カメラ34により撮像された撮像画像を、被認証者の認証処理を実行する外部装置に送信する通信部30と、を備える。なお、ここでいうコンピュータは、例えば、触覚生成装置P1,P1Aと生体情報取得装置P2とが一体的に構成された装置により実現される。 As described above, the authentication device P0 (an example of a biological image acquisition device) according to the first embodiment has an ultrasonic transmitter 15 (an example of a tactile sense generator) that generates a tactile sense using sound waves in a tactile area in the air (an example of a predetermined position). an example), a biometric information acquisition camera 34 (an example of a camera) that captures an image of an authentication part (an example of a predetermined part) of the person to be authenticated located at a predetermined position, and an image taken by the biometric information acquisition camera 34. and a communication unit 30 that transmits the information to an external device that executes authentication processing of the person to be authenticated. Note that the computer here is realized by, for example, a device in which the tactile sense generation devices P1, P1A and the biological information acquisition device P2 are integrally configured.

これにより、実施の形態1に係る認証装置P0は、生体情報取得用カメラ34を用いた非接触生体認証において、超音波を用いた触覚提示により、生体認証用画像を撮像可能な位置にユーザの認証部位を誘導できる。これにより、認証装置P0は、認証部位の撮像位置のばらつきをより効果的に抑制できるため、生体認証により適した生体認証用画像を撮像できる。 As a result, in non-contact biometric authentication using the biometric information acquisition camera 34, the authentication device P0 according to the first embodiment uses tactile presentation using ultrasound to place the user in a position where a biometric authentication image can be captured. Authentication site can be guided. Thereby, the authentication device P0 can more effectively suppress variations in the imaging position of the authentication part, and therefore can capture an image for biometric authentication that is more suitable for biometric authentication.

また、以上により、実施の形態1に係る認証装置P0における超音波送信部15は、複数の超音波素子16A~16kNを用いて構成される。複数の超音波素子16A~16kNのそれぞれは、音波を出力する出力部が同一平面上に配置される。これにより、実施の形態1に係る認証装置P0は、複数の超音波素子16A~16kNのそれぞれから出力される音波の制御をより容易に実行でき、触覚の提示(生成)位置の位置ずれを効果的に抑制できる。 Further, as described above, the ultrasonic transmitter 15 in the authentication device P0 according to the first embodiment is configured using a plurality of ultrasonic elements 16A to 16kN. In each of the plurality of ultrasonic elements 16A to 16kN, output parts that output sound waves are arranged on the same plane. As a result, the authentication device P0 according to the first embodiment can more easily control the sound waves output from each of the plurality of ultrasonic elements 16A to 16kN, and can effectively control the positional shift of the presentation (generation) position of the tactile sensation. can be suppressed.

また、以上により、実施の形態1に係る認証装置P0における超音波送信部15は、同一平面に対して略平行方向に触覚を生成する(図9~図10、および図19~図22参照)。これにより、実施の形態1に係る認証装置P0は、複数の超音波素子16A~16kNのそれぞれから出力される音波の制御をより容易に実行できる。また、ユーザは、掌等のより広い面で触覚を感じることができるため、手をかざす(停止する)位置を直感的に理解しやすくなる。 Further, as described above, the ultrasonic transmitter 15 in the authentication device P0 according to the first embodiment generates a tactile sensation in a direction substantially parallel to the same plane (see FIGS. 9 to 10 and FIGS. 19 to 22). . Thereby, the authentication device P0 according to the first embodiment can more easily control the sound waves output from each of the plurality of ultrasonic elements 16A to 16kN. Furthermore, since the user can feel the tactile sensation on a wider surface such as the palm, it becomes easier for the user to intuitively understand where to place (stop) the hand.

また、以上により、実施の形態1に係る認証装置P0における超音波送信部15は、同一平面に対して略垂直方向(つまり、Z軸方向)に触覚を生成する(図11,図12参照)。これにより、実施の形態1に係る認証装置P0は、ユーザの手の挿入位置に高さ方向(Z軸方向)のばらつきが生じてもユーザの手のいずれかの部分に触覚を提示できるため、ユーザの指先(認証部位)の撮像位置のばらつきをより効果的に抑制できる。また、認証装置P0は、手の大きさ、指長さ等がユーザごとに異なる場合でも、触覚によりユーザの掌をかざす位置を提示できるため、ユーザの指先(認証部位)の撮像位置のばらつきをより効果的に抑制できる。したがって、認証装置P0は、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 Further, as described above, the ultrasonic transmitter 15 in the authentication device P0 according to the first embodiment generates a tactile sensation in a direction substantially perpendicular to the same plane (that is, in the Z-axis direction) (see FIGS. 11 and 12). . As a result, the authentication device P0 according to the first embodiment can present a tactile sensation to any part of the user's hand even if the insertion position of the user's hand varies in the height direction (Z-axis direction). Variations in the imaging position of the user's fingertip (authentication site) can be more effectively suppressed. In addition, even if the hand size, finger length, etc. differ from user to user, the authentication device P0 can indicate the position where the user's palm should be placed using the sense of touch, so it can eliminate variations in the imaging position of the user's fingertips (authentication site). It can be suppressed more effectively. Therefore, the authentication device P0 can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

また、以上により、実施の形態1に係る認証装置P0における超音波送信部15は、同一平面に対して所定の角度(具体的には、0(ゼロ)°以上、かつ、90°未満)を有する方向に触覚を生成する(図13,図14参照)。これにより、実施の形態1に係る認証装置P0は、生体情報取得用カメラ34の被写界深度(つまり、撮像領域)、あるいは生体情報取得用カメラ34の設置状態等により、ユーザの認証部位(掌、指先等)を真下以外の方向から撮像することが望ましい場合に、生体情報取得用カメラ34の被写界深度あるいは撮像方向に対応する所定の角度の触覚を提示できる。したがって、認証装置P0は、超音波送信部15に対して所定の角度で触覚領域を提示することにより、生体認証により適した生体認証用画像の撮像および生体情報の取得をより効率化できる。 Further, as described above, the ultrasonic transmitting unit 15 in the authentication device P0 according to the first embodiment can set a predetermined angle (specifically, 0 (zero) degrees or more and less than 90 degrees) with respect to the same plane. A tactile sensation is generated in the direction of the object (see FIGS. 13 and 14). As a result, the authentication device P0 according to the first embodiment determines the user's authentication site (i.e., When it is desirable to image the palm, fingertips, etc.) from a direction other than directly below, it is possible to present a tactile sensation at a predetermined angle corresponding to the depth of field or imaging direction of the biological information acquisition camera 34. Therefore, by presenting the tactile area at a predetermined angle to the ultrasound transmitting unit 15, the authentication device P0 can more efficiently capture a biometric image suitable for biometric authentication and acquire biometric information.

また、以上により、実施の形態1に係る認証装置P0における超音波送信部15は、生体情報取得用カメラ34の被写界深度外に触覚を生成する(図9~図12参照)。これにより、実施の形態1に係る認証装置P0は、触覚提示領域ARU12と、撮像領域ARC12とが重複しないため、ユーザの掌に触覚を提示しながら指先を撮像できる。 Further, as described above, the ultrasonic transmitter 15 in the authentication device P0 according to the first embodiment generates a tactile sensation outside the depth of field of the biometric information acquisition camera 34 (see FIGS. 9 to 12). Thereby, in the authentication device P0 according to the first embodiment, since the tactile sensation presentation area ARU12 and the imaging area ARC12 do not overlap, it is possible to image the fingertip while presenting the tactile sensation to the user's palm.

また、以上により、実施の形態1に係る認証装置P0における超音波送信部15は、生体情報取得用カメラ34の被写界深度内に触覚を生成する(図13~図16、および図19~図22参照)。これにより、実施の形態1に係る認証装置P0は、触覚を提示する生体部位と、生体情報取得用カメラ34により撮像される認証部位とが同一である場合、触覚によりユーザの掌をかざす位置を提示し、触覚が提示された位置(領域)で静止した掌を撮像することで、ユーザの掌(認証部位)の撮像位置のばらつきをより効果的に抑制できる。 Further, as described above, the ultrasonic transmitting unit 15 in the authentication device P0 according to the first embodiment generates a tactile sensation within the depth of field of the biometric information acquisition camera 34 (FIGS. 13 to 16, and FIGS. 19 to 16). (See Figure 22). With this, the authentication device P0 according to Embodiment 1 determines the position where the user's palm is held up using the tactile sense when the biological part presenting the tactile sense and the authentication part imaged by the biometric information acquisition camera 34 are the same. By imaging a stationary palm at the position (area) where the tactile sensation is presented, variations in the imaging position of the user's palm (authentication site) can be more effectively suppressed.

また、以上により、実施の形態1に係る認証装置P0は、超音波送信部15が触覚を生成可能な触覚生成可能領域(触覚生成領域の一例)への被認証者の手の進入を検出する手挿入検出部13,13A(検出部の一例)と、超音波送信部15に触覚を生成させるプロセッサ11,11A(指示部の一例)と、をさらに備える。手挿入検出部13,13Aは、触覚生成可能領域への手の進入を検出したと判定した場合、手の進入を検出した旨の制御指令をプロセッサ11,11Aに出力する。プロセッサ11,11Aは、制御指令に基づいて、超音波送信部15に触覚を生成させる。これにより、実施の形態1に係る認証装置P0は、超音波送信部15による触覚の生成を常時実行することにより電力消費を抑制できる。 Further, as described above, the authentication device P0 according to the first embodiment detects the entry of the hand of the person to be authenticated into the tactile sense generation possible area (an example of the tactile sense generation area) where the ultrasonic wave transmitter 15 can generate a tactile sense. It further includes hand insertion detection units 13 and 13A (an example of a detection unit) and processors 11 and 11A (an example of an instruction unit) that cause the ultrasonic transmission unit 15 to generate a tactile sensation. When hand insertion detection units 13 and 13A determine that entry of a hand into the tactile sense generation possible area is detected, they output a control command to the processors 11 and 11A to the effect that entry of the hand has been detected. The processors 11 and 11A cause the ultrasound transmitter 15 to generate a tactile sensation based on the control command. Thereby, the authentication device P0 according to the first embodiment can suppress power consumption by constantly generating a tactile sensation by the ultrasonic transmitter 15.

また、以上により、実施の形態1に係る認証装置P0は、超音波送信部15が触覚を生成可能な触覚生成可能領域への被認証者の認証部位の進入を検出する手挿入検出部13Aと、超音波送信部15に触覚を生成させるプロセッサ11Aと、をさらに備える。手挿入検出部13Aは、触覚生成可能領域への認証部位の進入を検出したと判定した場合、所定部位の進入を検出した旨の制御指令をプロセッサ11Aに出力する。プロセッサ11Aは、制御指令に基づいて、超音波送信部15に触覚を生成させる。これにより、実施の形態1に係る認証装置P0は、触覚を提示する生体部位と、生体情報取得用カメラ34により撮像される認証部位とが同一である場合、ユーザの手が生体情報取得用カメラ34の撮像領域内で検出された場合に触覚を提示することで、ユーザに生体認証の開始(つまり、認証部位の撮像開始)を知らせることができる。つまり、ユーザは、認証部位を静止させる位置およびタイミングを理解することができる。これにより、認証装置P0は、触覚の提示を受けたユーザの認証部位の撮像位置のばらつきをより効果的に抑制できるため、生体認証により適した生体認証用画像を撮像できる。 Furthermore, as described above, the authentication device P0 according to the first embodiment includes the hand insertion detection unit 13A that detects the entry of the authentication part of the person to be authenticated into the tactile sense generation possible area where the ultrasonic wave transmission unit 15 can generate a tactile sense. , a processor 11A that causes the ultrasonic transmitter 15 to generate a tactile sensation. If the hand insertion detection unit 13A determines that entry of the authentication part into the tactile sense generation possible area is detected, it outputs a control command to the processor 11A indicating that entry of the predetermined part has been detected. The processor 11A causes the ultrasonic transmitter 15 to generate a tactile sensation based on the control command. Thereby, in the authentication device P0 according to the first embodiment, when the biological part presenting the tactile sensation and the authentication part imaged by the biological information acquisition camera 34 are the same, the user's hand is By presenting a tactile sensation when detected within the imaging area of No. 34, it is possible to notify the user of the start of biometric authentication (that is, the start of imaging of the authentication site). In other words, the user can understand the position and timing at which the authentication part should be kept still. Thereby, the authentication device P0 can more effectively suppress variations in the imaging position of the authentication part of the user who has received the tactile sense presentation, and therefore can capture an image for biometric authentication that is more suitable for biometric authentication.

また、以上により、実施の形態1に係る認証装置P0における手挿入検出部13Aは、検出された認証部位の位置を測定する(図19~図22参照)。プロセッサ11Aは、測定された認証部位の位置に基づいて、触覚が生成される触覚領域を決定する。超音波送信部15は、決定された触覚領域に触覚を生成させる。これにより、実施の形態1に係る認証装置P0は、ユーザの認証部位の位置を検出しながら、検出された認証部位の位置に基づいて触覚を提示する位置(つまり、触覚提示領域)を移動させることで、生体情報取得用カメラ34の撮像領域内にユーザの認証部位を誘導できる。つまり、ユーザは、触覚の提示位置にあわせて掌を移動させることで、手をどこに移動させれば良いかを直感的に理解することができる。これにより、認証装置P0は、触覚の提示を受けたユーザの認証部位の撮像位置のばらつきをより効果的に抑制できるため、生体認証により適した生体認証用画像を撮像できる。 Further, as described above, the hand insertion detection unit 13A in the authentication device P0 according to the first embodiment measures the position of the detected authentication part (see FIGS. 19 to 22). The processor 11A determines a tactile area in which a tactile sensation is generated based on the measured position of the authentication site. The ultrasonic transmitter 15 generates a tactile sensation in the determined tactile area. Thereby, the authentication device P0 according to the first embodiment detects the position of the user's authentication part and moves the position where the tactile sense is presented (that is, the tactile sense presentation area) based on the detected position of the authentication part. By doing so, the user's authentication site can be guided into the imaging area of the biometric information acquisition camera 34. In other words, the user can intuitively understand where to move the hand by moving the palm in accordance with the presentation position of the tactile sense. Thereby, the authentication device P0 can more effectively suppress variations in the imaging position of the authentication part of the user who has received the tactile sense presentation, and therefore can capture an image for biometric authentication that is more suitable for biometric authentication.

また、以上により、実施の形態1に係る認証装置P0におけるプロセッサ11は、検出された認証部位の位置が生体情報取得用カメラ34の被写界深度内(つまり、撮像領域内)であると判定した場合、生体情報取得用カメラ34に認証部位を撮像させる。これにより、実施の形態1に係る認証装置P0は、撮像領域内にユーザの認証部位が位置すると判定したタイミングで生体情報取得用カメラ34による撮像を行うことで、生体認証により適した生体認証用画像を撮像できる。 Further, as described above, the processor 11 in the authentication device P0 according to the first embodiment determines that the position of the detected authentication part is within the depth of field (that is, within the imaging area) of the biometric information acquisition camera 34. In this case, the biometric information acquisition camera 34 is caused to image the authentication site. As a result, the authentication device P0 according to the first embodiment captures an image with the biometric information acquisition camera 34 at the timing when it is determined that the user's authentication part is located within the imaging area, thereby providing a biometric authentication device more suitable for biometric authentication. Images can be taken.

また、以上により、実施の形態1に係る認証装置P0におけるプロセッサ11Aは、検出された認証部位の位置が生体情報取得用カメラ34の被写界深度内でないと判定した場合、測定された認証部位の位置に基づいて、触覚が生成される次の触覚領域を決定する。超音波送信部15は、決定された次の触覚領域に触覚を生成する。これにより、実施の形態1に係る認証装置P0は、ユーザの認証部位の位置を検出しながら、検出された認証部位の位置に基づいて触覚を提示する位置(つまり、触覚提示領域)を移動させることで、生体情報取得用カメラ34の撮像領域内にユーザの認証部位を誘導できる。 Further, as described above, when the processor 11A in the authentication device P0 according to the first embodiment determines that the position of the detected authentication site is not within the depth of field of the biometric information acquisition camera 34, the processor 11A in the authentication device P0 according to the first embodiment Based on the position of , determine the next haptic region where the haptic sensation will be generated. The ultrasonic transmitter 15 generates a tactile sensation in the determined next tactile area. Thereby, the authentication device P0 according to the first embodiment detects the position of the user's authentication part and moves the position where the tactile sense is presented (that is, the tactile sense presentation area) based on the detected position of the authentication part. By doing so, the user's authentication site can be guided into the imaging area of the biometric information acquisition camera 34.

また、以上により、実施の形態1に係る認証装置P0は、生体情報取得用カメラ34の被写界深度内に位置する所定部位が静止しているか否かを検知する静止検知用カメラ33(静止検知部の一例)、をさらに備える。静止検知用カメラ33は、認証部位が静止していると判定した場合、生体情報取得用カメラ34に認証部位を撮像させる。これにより、実施の形態1に係る認証装置P0は、認証部位の静止を検知したタイミングで生体情報取得用カメラ34による撮像を行うことで、生体認証により適した生体認証用画像を撮像できる。 Further, as described above, the authentication device P0 according to the first embodiment has the stillness detection camera 33 (still (an example of a detection unit). When the stillness detection camera 33 determines that the authentication site is stationary, it causes the biometric information acquisition camera 34 to image the authentication site. Thereby, the authentication device P0 according to the first embodiment can capture an image for biometric authentication more suitable for biometric authentication by capturing an image using the biometric information acquisition camera 34 at the timing when the stationary state of the authentication part is detected.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each of the constituent elements in the various embodiments described above may be arbitrarily combined without departing from the spirit of the invention.

本開示は、カメラを用いた非接触生体認証において、生体認証部位の撮像条件のばらつきを抑制できる生体画像取得装置および生体画像取得方法の提示として有用である。 The present disclosure is useful as a presentation of a biometric image acquisition device and a biometric image acquisition method that can suppress variations in imaging conditions of a biometric authentication site in non-contact biometric authentication using a camera.

11,11A,31,41,41A プロセッサ
13,13A 手挿入検出部
15 超音波送信部
33 静止検知用カメラ
34 生体情報取得用カメラ
100,100A 生体認証システム
115 座標-距離変換部
311,412 手検知部
411,411A 生体情報認証部
DB 生体情報データベース
MN,MNA モニタ
P0 認証装置
P1,P1A 触覚生成装置
P2,P2A 生体情報取得装置
P3,P3A 生体認証装置
11, 11A, 31, 41, 41A Processor 13, 13A Hand insertion detection section 15 Ultrasonic transmission section 33 Still detection camera 34 Biometric information acquisition camera 100, 100A Biometric authentication system 115 Coordinate-distance conversion section 311, 412 Hand detection Units 411, 411A Biometric information authentication unit DB Biometric information database MN, MNA Monitor P0 Authentication device P1, P1A Tactile sensation generation device P2, P2A Biometric information acquisition device P3, P3A Biometric authentication device

Claims (14)

空中の所定位置に音波を用いた触覚を生成する触覚生成部と、
前記所定位置に位置する被認証者の所定部位を撮像するカメラと、
前記カメラにより撮像された撮像画像を、前記被認証者の認証処理を実行する外部装置に送信する通信部と、を備える、
生体画像取得装置。
a tactile sensation generation unit that generates a tactile sensation using sound waves at a predetermined position in the air;
a camera that images a predetermined part of the person to be authenticated located at the predetermined position;
a communication unit that transmits a captured image captured by the camera to an external device that executes authentication processing of the person to be authenticated;
Biological image acquisition device.
前記触覚生成部は、複数の超音波素子を用いて構成され、
前記複数の超音波素子のそれぞれは、前記音波を出力する出力部が同一平面上に配置される、
請求項1に記載の生体画像取得装置。
The tactile sensation generation unit is configured using a plurality of ultrasonic elements,
In each of the plurality of ultrasonic elements, an output part that outputs the sound wave is arranged on the same plane.
The biological image acquisition device according to claim 1.
前記触覚生成部は、前記同一平面に対して略平行方向に前記触覚を生成する、
請求項2に記載の生体画像取得装置。
The tactile sensation generation unit generates the tactile sensation in a direction substantially parallel to the same plane.
The biological image acquisition device according to claim 2.
前記触覚生成部は、前記同一平面に対して略垂直方向に前記触覚を生成する、
請求項2に記載の生体画像取得装置。
The tactile sensation generation unit generates the tactile sensation in a direction substantially perpendicular to the same plane.
The biological image acquisition device according to claim 2.
前記触覚生成部は、前記同一平面に対して所定の角度を有する方向に前記触覚を生成する、
請求項2に記載の生体画像取得装置。
The tactile sensation generation unit generates the tactile sensation in a direction having a predetermined angle with respect to the same plane.
The biological image acquisition device according to claim 2.
前記触覚生成部は、前記カメラの被写界深度外に前記触覚を生成する、
請求項1に記載の生体画像取得装置。
The tactile sensation generation unit generates the tactile sensation outside the depth of field of the camera.
The biological image acquisition device according to claim 1.
前記触覚生成部は、前記カメラの被写界深度内に前記触覚を生成する、
請求項1に記載の生体画像取得装置。
The tactile sensation generation unit generates the tactile sensation within the depth of field of the camera.
The biological image acquisition device according to claim 1.
前記触覚生成部が前記触覚を生成可能な触覚生成領域への前記被認証者の手の進入を検出する検出部と、
前記触覚生成部に前記触覚を生成させる指示部と、をさらに備え、
前記検出部は、前記触覚生成領域への前記手の進入を検出したと判定した場合、前記手の進入を検出した旨の制御指令を前記指示部に出力し、
前記指示部は、前記制御指令に基づいて、前記触覚生成部に前記触覚を生成させる、
請求項1に記載の生体画像取得装置。
a detection unit that detects entry of the person's hand into a tactile generation area in which the tactile sensation generation unit can generate the tactile sensation;
further comprising an instruction unit that causes the tactile sensation generation unit to generate the tactile sensation,
When the detection unit determines that the entry of the hand into the tactile sense generation area is detected, the detection unit outputs a control command to the instruction unit to the effect that entry of the hand has been detected;
The instruction unit causes the tactile sensation generation unit to generate the tactile sensation based on the control command.
The biological image acquisition device according to claim 1.
前記触覚生成部が前記触覚を生成可能な触覚生成領域への前記被認証者の所定部位の進入を検出する検出部と、
前記触覚生成部に前記触覚を生成させる指示部と、をさらに備え、
前記検出部は、前記触覚生成領域への前記所定部位の進入を検出したと判定した場合、前記所定部位の進入を検出した旨の制御指令を前記指示部に出力し、
前記指示部は、前記制御指令に基づいて、前記触覚生成部に前記触覚を生成させる、
請求項1に記載の生体画像取得装置。
a detection unit that detects entry of a predetermined part of the person to be authenticated into a tactile sense generation area in which the tactile sense generation unit can generate the tactile sense;
further comprising an instruction unit that causes the tactile sensation generation unit to generate the tactile sensation,
When the detection unit determines that entry of the predetermined part into the tactile sensation generation area is detected, outputs a control command to the instruction unit to the effect that entry of the predetermined part is detected;
The instruction unit causes the tactile sensation generation unit to generate the tactile sensation based on the control command.
The biological image acquisition device according to claim 1.
前記検出部は、検出された前記所定部位の位置を測定し、
前記指示部は、測定された前記所定部位の位置に基づいて、前記触覚が生成される前記所定位置を決定し、
前記触覚生成部は、決定された前記所定位置に前記触覚を生成させる、
請求項9に記載の生体画像取得装置。
The detection unit measures the detected position of the predetermined region,
The instruction unit determines the predetermined position where the tactile sensation is generated based on the measured position of the predetermined part,
The tactile sensation generation unit generates the tactile sensation at the determined predetermined position.
The biological image acquisition device according to claim 9.
前記指示部は、検出された前記所定部位の位置が前記カメラの被写界深度内であると判定した場合、前記カメラに前記所定部位を撮像させる、
請求項10に記載の生体画像取得装置。
The instruction unit causes the camera to image the predetermined region when determining that the detected position of the predetermined region is within the depth of field of the camera;
The biological image acquisition device according to claim 10.
前記指示部は、検出された前記所定部位の位置が前記カメラの被写界深度内でないと判定した場合、測定された前記所定部位の位置に基づいて、前記触覚が生成される次の所定位置を決定し、
前記触覚生成部は、決定された前記次の所定位置に前記触覚を生成する、
請求項10に記載の生体画像取得装置。
If the instruction unit determines that the detected position of the predetermined part is not within the depth of field of the camera, the instruction unit determines the next predetermined position where the tactile sensation is generated based on the measured position of the predetermined part. decide,
the tactile sensation generation unit generates the tactile sensation at the determined next predetermined position;
The biological image acquisition device according to claim 10.
前記カメラの被写界深度内に位置する前記所定部位が静止しているか否かを検知する静止検知部、をさらに備え、
前記静止検知部は、前記所定部位が静止していると判定した場合、前記カメラに前記所定部位を撮像させる、
請求項1に記載の生体画像取得装置。
further comprising a stillness detection unit that detects whether the predetermined part located within the depth of field of the camera is stationary;
The stationary state detection unit causes the camera to image the predetermined region when determining that the predetermined region is stationary.
The biological image acquisition device according to claim 1.
1つ以上のコンピュータを備える生体画像取得装置が行う生体画像取得方法であって、
空中の所定位置に音波を用いた触覚を生成し、
前記所定位置に位置する被認証者の所定部位を撮像し、
撮像された撮像画像を、前記被認証者の認証処理を実行する外部装置に送信する、
生体情報取得方法。
A biological image acquisition method performed by a biological image acquisition device comprising one or more computers, the method comprising:
Generates a tactile sensation using sound waves at a predetermined location in the air,
imaging a predetermined part of the person to be authenticated located at the predetermined position;
transmitting the captured image to an external device that executes authentication processing of the person to be authenticated;
How to obtain biological information.
JP2022038222A 2022-03-11 2022-03-11 Biological image acquisition device and biological image acquisition method Pending JP2023132726A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022038222A JP2023132726A (en) 2022-03-11 2022-03-11 Biological image acquisition device and biological image acquisition method
PCT/JP2023/009466 WO2023171819A1 (en) 2022-03-11 2023-03-10 Biological image acquisition device and biological image acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022038222A JP2023132726A (en) 2022-03-11 2022-03-11 Biological image acquisition device and biological image acquisition method

Publications (1)

Publication Number Publication Date
JP2023132726A true JP2023132726A (en) 2023-09-22

Family

ID=87935474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022038222A Pending JP2023132726A (en) 2022-03-11 2022-03-11 Biological image acquisition device and biological image acquisition method

Country Status (2)

Country Link
JP (1) JP2023132726A (en)
WO (1) WO2023171819A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8600123B2 (en) * 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
JP2022014681A (en) * 2020-07-07 2022-01-20 インターマン株式会社 Biometric system with infection prevention function
GB2597492B (en) * 2020-07-23 2022-08-03 Nissan Motor Mfg Uk Ltd Gesture recognition system

Also Published As

Publication number Publication date
WO2023171819A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
US9907623B2 (en) Generating images for at least two displays in image-guided surgery
US20150186039A1 (en) Information input device
US20210342582A1 (en) Iris capture apparatus, iris capture method, and storage medium
JP2017527036A5 (en)
US20170196525A1 (en) X-ray imaging apparatus and control method thereof
CN109446947A (en) The face recognition of enhancing in video
WO2006052004A1 (en) Iris authentication device
US11026762B2 (en) Medical observation device, processing method, and medical observation system
US20160054806A1 (en) Data processing apparatus, data processing system, control method for data processing apparatus, and storage medium
JP2022008645A (en) Contactless input system and method
WO2018078777A1 (en) Aerial image display system, wavelength-selective image-forming device, image display device, aerial image display method
WO2023171819A1 (en) Biological image acquisition device and biological image acquisition method
WO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device
CN114945955A (en) Iris image acquisition system for enlarging iris recognition range
CN107908282B (en) Touch system device for holographic projection
US11900731B2 (en) Biometrics imaging device and biometrics imaging method for capturing image data of a body part of a person which enable improved image data quality
KR100969927B1 (en) Apparatus for touchless interactive display with user orientation
JP2009178300A (en) Biological information reader
US20190065004A1 (en) Video display device and manipulation detection method used therefor
KR20220037736A (en) Temperature measuring device
US9289120B2 (en) Temporal structured-illumination motion-detection system
JP2005190283A (en) Information input apparatus
KR20220106217A (en) Three-dimensional (3D) modeling
KR102237458B1 (en) Apparatus for recognizing iris and operating method thereof
KR101369775B1 (en) Apparatus for beaming at the eye-gaze point and operation method thereof