JP2018081468A - 検出装置、情報処理装置および情報処理方法 - Google Patents

検出装置、情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2018081468A
JP2018081468A JP2016222832A JP2016222832A JP2018081468A JP 2018081468 A JP2018081468 A JP 2018081468A JP 2016222832 A JP2016222832 A JP 2016222832A JP 2016222832 A JP2016222832 A JP 2016222832A JP 2018081468 A JP2018081468 A JP 2018081468A
Authority
JP
Japan
Prior art keywords
image
image sensor
sensor unit
detection
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016222832A
Other languages
English (en)
Other versions
JP6862153B2 (ja
Inventor
成瀬 哲也
Tetsuya Naruse
哲也 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Mobile Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Mobile Communications Inc filed Critical Sony Mobile Communications Inc
Priority to JP2016222832A priority Critical patent/JP6862153B2/ja
Priority to US16/348,512 priority patent/US11068690B2/en
Priority to PCT/JP2017/029128 priority patent/WO2018092368A1/ja
Publication of JP2018081468A publication Critical patent/JP2018081468A/ja
Application granted granted Critical
Publication of JP6862153B2 publication Critical patent/JP6862153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】イメージセンサを利用した生体認証の精度を向上させることが可能な検出装置、情報処理装置及び情報処理方法を提供する。【解決手段】第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成する登録画像生成部を備える。【選択図】図4

Description

本開示は、検出装置、情報処理装置および情報処理方法に関する。
近年、認証を受けるユーザ(以下、単に「被認証ユーザ」とも言う。)が事前に登録を行ったユーザ(以下、単に「登録ユーザ」とも言う。)と一致するか否かを認証する技術として、生体認証技術が多く用いられている。かかる生体認証技術は、ユーザが暗証番号などを記憶しなくても認証が行われ得るため、ユーザにとって利便性が高い。例えば、あらかじめ撮像されて登録された画像(以下、「登録画像」とも言う。)と認証時に撮像された画像(以下、「認証用画像」とも言う。)との一致度合いに基づく生体認証技術が開示されている(例えば、特許文献1参照)。
特開2012−168768号公報
登録画像および認証用画像を撮像するイメージセンサとしては、1枚のイメージセンサが利用される技術が一般的である。しかし、かかる技術では、1枚のイメージセンサの形状が制限される場合、イメージセンサ全体の形状の自由度が低いために、イメージセンサ全体の面積を十分に確保できずに生体認証の精度が向上しない場合がある。そこで、イメージセンサを利用した生体認証の精度を向上させることが可能な技術が提供されることが望ましい。
本開示によれば、第1のイメージセンサ部と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部と、を備える、生体認証用の検出装置が提供される。
本開示によれば、第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成する登録画像生成部を備える、生体認証用の情報処理装置が提供される。
本開示によれば、プロセッサにより、第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成することを含む、生体認証用の情報処理方法が提供される。
以上説明したように本開示によれば、イメージセンサを利用した生体認証の精度を向上させることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理装置の概観例を示す図である。 操作部の表面への1枚のイメージセンサの設置例を示す図である。 各種の汎用イメージセンサの例を示す図である。 本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。 本開示の第1の実施形態に係る検出装置の第1の例の構成例を示す図である。 本開示の第1の実施形態に係る検出装置の第2の例の構成例を示す図である。 本開示の第1の実施形態に係る検出装置の第3の例の構成例を示す図である。 本開示の第1の実施形態に係る検出装置の第3の例の利用イメージを示す図である。 本開示の第1の実施形態に係る検出装置の第4の例の構成例を示す図である。 本開示の第1の実施形態に係る検出装置の第4の例の構成例を示す図である。 登録画像の生成の概要を説明するための図である。 登録画像の生成の第1の例を説明するための図である。 2枚の第1の検出画像の合成の例を説明するための図である。 登録画像の生成の第1の例が利用される場合における登録処理の動作例を示すフローチャートである。 登録画像の生成の第2の例を説明するための図である。 登録画像の生成の第2の例が利用される場合における登録処理の動作例を示すフローチャートである。 登録画像の生成の第3の例を説明するための図である。 2画像間の位置関係の補正の例を説明するための図である。 2画像間の位置関係の補正の変形例を説明するための図である。 登録画像の生成の第3の例が利用される場合における登録処理の動作例を示すフローチャートである。 認証処理の概要を説明するための図である。 認証処理の動作例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。 本開示の第2の実施形態に係る検出装置の構成例を示す図である。 本開示の第2の実施形態に係る検出装置の利用イメージを横から見た図である。 認証用指紋画像と登録指紋画像とに基づく第1の認証処理がなされる場合における利用イメージを示す図である。 認証用静脈画像と登録静脈画像とに基づく第2の認証処理がなされる場合における利用イメージを示す図である。 認証用指紋画像と登録指紋画像とに基づく第1の認証処理、および、認証用静脈画像と登録静脈画像とに基づく第2の認証処理がともになされる場合における利用イメージを示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
0.概要
1.第1の実施形態の説明
1.1.機能構成例
1.2.検出装置の構成例
1.3.登録処理
1.4.認証処理
2.第2の実施形態の説明
2.1.機能構成例
2.2.検出装置の構成例
2.3.登録処理
2.4.認証処理
3.ハードウェア構成例
4.むすび
<0.概要>
図1は、本開示の実施形態に係る情報処理装置10の概観例を示す図である。図1に示すように、情報処理装置10は、操作部120、入力部130および出力部160を備える。本明細書においては、図1に示したように、操作部120が情報処理装置10の側面に設けられた電源ON/OFFボタンである場合を主に想定する。しかし、操作部120は、電源ON/OFFボタンに限定されない。操作部120、入力部130および出力部160それぞれが有する機能の詳細については後に説明する。
また、本明細書においては、情報処理装置10がスマートフォンである場合を主に想定する。しかし、情報処理装置10はスマートフォンに限定されない。例えば、情報処理装置10は、生体認証技術が適用され得る電子機器であればよく、タブレット端末であってもよいし、携帯電話であってもよいし、PC(Personal Computer)であってもよいし、ATM(automated/automatic teller machine)などといった自動取引装置であってもよいし、他の電子機器であってもよい。
ここで、本開示の実施形態の背景について説明する。近年、被認証ユーザが登録ユーザと一致するか否かを認証する技術として、生体認証技術が多く用いられている。かかる生体認証技術は、ユーザが暗証番号などを記憶しなくても認証が行われ得るため、ユーザにとって利便性が高い。例えば、あらかじめ撮像されて登録された登録画像と認証時に撮像された認証用画像との一致度合いに基づく生体認証技術が開示されている(例えば、特開2012−168768号公報参照)。
登録画像および認証用画像を撮像するイメージセンサとしては、1枚のイメージセンサが利用される技術が一般的である。一例として、1枚のイメージセンサが情報処理装置10の操作部120の表面に設けられ、1枚のイメージセンサによって撮像された登録画像と認証用画像との一致度合いに基づいて生体認証が行われる場合を想定する。図1に示すように、情報処理装置10が薄いスマートフォンである場合、情報処理装置10の側面に設けられる操作部120は横長になってしまう。
図2は、操作部120の表面への1枚のイメージセンサの設置例を示す図である。図2を参照すると、操作部120の表面に1枚のイメージセンサ部91が設けられている。イメージセンサ部91は、検出装置90に備わっており、検出装置90は、イメージセンサ部91の他、導光板93−1,93−2、照明92−1〜92−4を備えている。照明92−1,92−2は、それぞれ光を発し、照明92−1,92−2によって発せられた光は、導光板93−1の内部に導かれ、導光板93−1の表面において拡散される。
一方、照明92−3,92−4は、それぞれ光を発し、照明92−3,92−4によって発せられた光は、導光板93−2の内部に導かれ、導光板93−2の表面において拡散される。導光板93−1,93−2の表面において拡散された光の一部は、イメージセンサ部91によって受光されてイメージセンサ部91による撮像に利用される。図2に示した例では、操作部120の横長形状に合わせて、イメージセンサ部91も横長形状になるよう、イメージセンサ部91として専用イメージセンサが製造されている。
しかし、イメージセンサ部91として専用イメージセンサが製造されるとは限らない。例えば、低コスト化のためにイメージセンサ部91として汎用イメージセンサが利用される場合もあり得る。かかる場合などには、イメージセンサ部91の形状が制限され得る。図3は、各種の汎用イメージセンサの例を示す図である。図3に示すように、汎用イメージセンサの縦横比は、その種類によってあらかじめ決められているのが一般的である。かかる場合には、イメージセンサ全体の形状の自由度が低いために、イメージセンサ全体の面積を十分に確保できずに生体認証の精度が向上しない場合がある。
そこで、本明細書においては、イメージセンサを利用した生体認証の精度を向上させることが可能な技術について主に説明する。なお、以下の説明においては、イメージセンサによって、身体の部位の一例として指が撮像される例を主に説明する。しかし、イメージセンサによって撮像される身体の部位は、指に限定されない。例えば、イメージセンサによって撮像される身体の部位は、指以外の部位(例えば、虹彩など)であってもよい。
以上、本開示の実施形態の概要について説明した。
<1.第1の実施形態の説明>
続いて、本開示の第1の実施形態について説明する。
[1.1.機能構成例]
まず、本開示の第1の実施形態に係る情報処理装置の機能構成例について説明する。図4は、本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。図4に示したように、本開示の第1の実施形態に係る情報処理装置10Aは、検出装置20A、制御部110A、操作部120、入力部130、記憶部150および出力部160を有している。操作部120については、既に説明した通りである。
なお、本明細書においては、検出装置20A、制御部110A、操作部120、入力部130、記憶部150および出力部160が、同一のデバイス(情報処理装置10A)の内部に存在する例を主に説明する。しかし、これらのブロックが存在する位置は特に限定されない。例えば、後に説明するように、これらのブロックの一部は、サーバなどに存在していてもよい。
検出装置20Aは、イメージセンサ部21−1、イメージセンサ部21−2、照明22、導光板23および動作制御部24を備える。本開示の第1の実施形態において、検出装置20Aは、生体認証に利用される。
イメージセンサ部21−1,21−2は、照明22によって発せられた光を受けて画像を撮像する。イメージセンサ部21−1の種類は限定されない。例えば、イメージセンサ部21−1,21−2は、CMOS(Complementary Metal Oxide Semiconductor)であってもよいし、CCD(Charge Coupled Device)であってもよい。なお、イメージセンサ部21の数は2つに限定されず、複数であればよい。
照明22は、光を発する。本開示の第1の実施形態では、イメージセンサ部21−1,21−2によって指紋が撮像される場合を想定するため、照明22によって発せられる光が可視光である場合を主に想定する。しかし、照明22によって発せられる光の種類は限定されない。例えば、イメージセンサ部21−1,21−2によって指の静脈が撮像される場合には、照明22によって発せられる光は赤外光であってもよい。照明22の数は特に限定されず、1つ以上であればよい。また、照明22は、LED(Light Emitting Diode)照明であってよい。
導光板23は、照明22によって発せられた光を内部に導き、表面において拡散する。導光板23の表面において拡散された光の一部は、イメージセンサ部21−1,21−2によって受光されてイメージセンサ部21−1,21−2による撮像に利用される。導光板23の数も特に限定されない。
動作制御部24は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。動作制御部24がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。ここで、動作制御部24を構成する処理装置は、制御部110Aを構成する処理装置と同一のハードウェアであってもよいし、異なるハードウェアであってもよい。
制御部110Aは、情報処理装置10Aの各部の制御を実行する。図4に示したように、制御部110Aは、登録画像生成部112Aおよび認証処理部113を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部110Aは、例えば、CPUなどで構成されていてよい。制御部110AがCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
入力部130は、センサを有しており、センサによるセンシングによりユーザによって入力される操作を取得することが可能である。本明細書においては、入力部130がタッチパネルを有する例を主に説明する。かかる例において、入力部130は、ボタン押下、アイコンまたはテンキーの選択、1回タップ操作、複数回タップ操作、複数箇所の順次選択、マルチタッチ操作、スワイプ操作、フリック操作、ピンチ操作といった、タッチパネルによって検出可能な各種操作を取得することが可能である。しかし、入力部130は、タッチパネルに限定されず、キーボードおよびマウスなどであってもよい。
記憶部150は、制御部110Aによって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部150は、制御部110Aによる演算のためにデータを一時的に記憶する。記憶部150は、磁気記憶部デバイスであってもよいし、半導体記憶デバイスであってもよいし、光記憶デバイスであってもよいし、光磁気記憶デバイスであってもよい。
出力部160は、各種の情報を出力する。本明細書においては、出力部160が、ユーザに視認可能な表示を行うことが可能なディスプレイを含む場合を主に想定する。ディスプレイは、プロジェクタであってもよいし、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。しかし、出力部160は、音声出力装置を含んでもよい。あるいは、出力部160は、ユーザに触覚を提示する触覚提示装置を含んでもよい。
以上、本開示の第1の実施形態に係る情報処理装置10Aの機能構成例について説明した。
[1.2.検出装置の構成例]
続いて、本開示の第1の実施形態に係る情報処理装置10Aの機能詳細について説明する。図5は、本開示の第1の実施形態に係る検出装置20Aの第1の例の構成例を示す図である。図5を参照すると、第1の例としての検出装置20−1は、2枚のイメージセンサ部21として、イメージセンサ部(第1のイメージセンサ部)21−1,イメージセンサ部(第2のイメージセンサ部)21−2を有している。そして、イメージセンサ部21−1とイメージセンサ部21−2とは、同一平面上に配置されている。
かかる構成によれば、1枚あたりのイメージセンサ部21の形状が制限されるような場合であっても(例えば、イメージセンサ部21として汎用イメージセンサが利用される場合であっても)、イメージセンサ全体の形状の自由度の低下を抑えることができる。したがって、かかる構成によれば、イメージセンサ全体の面積を十分に確保し、生体認証の精度を向上させることが可能となる。なお、本明細書においては、検出装置20−1が、2枚のイメージセンサ部21を有する場合を主に想定するが、検出装置20−1は、3枚以上のイメージセンサ部21を有していてもよい。
また、1枚の専用イメージセンサが利用される場合と比較しても、2枚の汎用イメージセンサが利用される場合のほうが、イメージセンサの歩留まりが高いと考えられる。したがって、2枚の汎用イメージセンサが利用される場合には、1枚の専用イメージセンサが利用される場合よりも、低コスト化が実現され得る。
また、図5を参照すると、イメージセンサ部21−2は、イメージセンサ部21−1を基準としてイメージセンサ部21−1の長手方向に配置されている。かかる構成によれば、イメージセンサ部21−1とイメージセンサ部21−2とが横長に配置される。したがって、細長い領域にイメージセンサが設けられる必要がある場合であっても(例えば、図5に示すように、イメージセンサが設けられる操作部120が細長いような場合であっても)、イメージセンサ全体の面積を十分に確保し、生体認証の精度を向上させることが可能となる。
検出装置20−1は、イメージセンサ部21−1,21−2の他、導光板23−1,23−2、照明22−1〜22−4を備えている。照明22−1,22−2は、それぞれ光を発し、照明22−1,22−2によって発せられた光は、導光板23−1の内部に導かれ、導光板23−1の表面において拡散される。一方、照明22−3,22−4は、それぞれ光を発し、照明22−3,22−4によって発せられた光は、導光板23−2の内部に導かれ、導光板23−2の表面において拡散される。
導光板23−1,23−2の表面において拡散された光の一部は、イメージセンサ部21−1,21−2によって受光されてイメージセンサ部21−1,21−2による撮像に利用される。
以上においては、本開示の第1の実施形態に係る検出装置20Aの第1の例の構成例について説明した。第1の例としての検出装置20−1の構成例においては、イメージセンサ部21−1とイメージセンサ部21−2との間に照明が設けられていない。一方、検出装置20Aの第2の例においては、イメージセンサ部21−1とイメージセンサ部21−2との間に照明が設けられる。
図6は、本開示の第1の実施形態に係る検出装置20Aの第2の例の構成例を示す図である。図6を参照すると、第2の例としての検出装置20−2は、イメージセンサ部21−1とイメージセンサ部21−2との間に、照明22−5および導光板23−3を有する点が、第1の例としての検出装置20−1と異なっている。検出装置20−2が有する他の構成は、検出装置20−1において対応する構成と同様である。
照明22−5は、光を発し、照明22−5によって発せられた光は、導光板23−3の内部に導かれ、導光板23−3の表面において拡散される。導光板23−3の表面において拡散された光の一部は、イメージセンサ部21−1,21−2によって受光されてイメージセンサ部21−1,21−2による撮像に利用される。
図6に示したように、照明22−5は、イメージセンサ部21−1とイメージセンサ部21−2との間に設けられている。一方、図5および図6に示したように、照明22−1〜22−4は、イメージセンサ部21−1およびイメージセンサ部21−2の周囲に設けられている。したがって、照明22−5から発せられた光のうち、イメージセンサ部21−1またはイメージセンサ部21−2に到達する光の割合は、照明22−1〜22−4から発せられた光のうち、イメージセンサ部21−1またはイメージセンサ部21−2に到達する光の割合と比較して、より高いと考えられる。
さらに、イメージセンサ部21−1とイメージセンサ部21−2に指が接触する場合を想定する。かかる場合、照明22−5は、イメージセンサ部21−1とイメージセンサ部21−2との間に設けられ、照明22−1〜22−4は、イメージセンサ部21−1およびイメージセンサ部21−2の周囲に設けられているため、照明22−5から発せられた光のうち、イメージセンサ部21−1またはイメージセンサ部21−2と指との間から漏れ出る光の割合は、照明22−1〜22−4から発せられた光のうち、イメージセンサ部21−1またはイメージセンサ部21−2と指との間から漏れ出る光の割合と比較して、より低いと考えられる。
以上により、イメージセンサ部21−1とイメージセンサ部21−2との間に設けられる照明22−5から発せられる光は、イメージセンサ部21−1およびイメージセンサ部21−2の周囲に設けられる照明22−1〜22−4から発せられる光と比較して、より効率的に、イメージセンサ部21−1およびイメージセンサ部21−2による撮像に利用されると考えられる。
さらに、イメージセンサ部21−1およびイメージセンサ部21−2と照明22−5とが接触していると、イメージセンサ部21−1およびイメージセンサ部21−2によって受け取られる照明22−5からの光量が飽和してしまうという状況が起こり得る。したがって、かかる状況を解消するため、図7に示すように、イメージセンサ部21−1とイメージセンサ部21−2との間に設けられる照明22−5は、イメージセンサ部21−1と離れて配置されているのがよく、イメージセンサ部21−2と離れて配置されているのがよい。
図7は、本開示の第1の実施形態に係る検出装置20Aの第3の例の構成例を示す図である。図7を参照すると、第3の例としての検出装置20−3は、イメージセンサ部21−1とイメージセンサ部21−2との間に、照明22−5および導光板23−3を有する点が、第2の例としての検出装置20−2と同様であり、導光板23−1,23−2、照明22−1〜22−4を備えていない点が、第2の例としての検出装置20−2と異なっている。
第3の例としての検出装置20−3が備える照明22−5および導光板23−3の特徴は、第2の例としての検出装置20−2が備える照明22−5および導光板23−3の特徴と同様である。
図8は、本開示の第1の実施形態に係る検出装置20Aの第3の例の利用イメージを示す図である。拡大図K1は、操作部120の表面に設けられた検出装置20−3およびその周辺部分を拡大して表した図であり、認証時において、被認証ユーザの指82が検出装置20−3に接触される。なお、ここでは、検出装置20−3の利用イメージを代表して示したが、検出装置20−1および検出装置20−2の利用イメージも検出装置20−3の利用イメージと同様である。
以上に示した例においては、イメージセンサ部21および照明22を常時動作させる場合を主に想定した。しかし、イメージセンサ部21および照明22は常時動作させなくてもよい。例えば、イメージセンサ部21および照明22は、所定のタイミングで動作するように制御されてもよい。以下では、イメージセンサ部21および照明22を動作させるタイミングの制御例について説明する。
図9および図10は、本開示の第1の実施形態に係る検出装置20Aの第4の例の構成例を示す図である。図9および図10を参照すると、第4の例としての検出装置20−4および20−5それぞれは、イメージセンサ部21−1とイメージセンサ部21−2との間に、照明22−5および導光板23−3を有する。
また、検出装置20−4および20−5それぞれは、イメージセンサ部21−1からの距離よりもイメージセンサ部21−2からの距離が近い照明(第1の照明)22−7および導光板23−5を有する。また、検出装置20−4および20−5それぞれは、イメージセンサ部21−2からの距離よりもイメージセンサ部21−1からの距離が近い照明(第2の照明)22−6および導光板23−4を有する。
図9および図10において、動作中の構成要素には着色が施されている。具体的に、動作制御部24は、あるタイミングにおいては(図9に示した検出装置20−4においては)、イメージセンサ部21−1が動作するように制御し、他のタイミングにおいては(図10に示した検出装置20−5においては)、イメージセンサ部21−2が動作するように制御してよい。
このように、動作制御部24は、イメージセンサ部21−1およびイメージセンサ部21−2を片方ずつ動作させることによって、低消費電力化が可能となる。なお、イメージセンサ部21−1およびイメージセンサ部21−2は、交互に動作すればよいが、それぞれが動作する時間の長さは限定されない。例えば、イメージセンサ部21−1およびイメージセンサ部21−2は、同じ時間ずつ交互に動作してもよいし、いずれか一方が他方よりも長時間動作してもよい。
さらには、動作制御部24は、照明22−7および照明22−6の動作をイメージセンサ部21−1およびイメージセンサ部21−2の動作と連動させてもよい。すなわち、動作制御部24は、イメージセンサ部21−1を動作させている間、照明22−7を点灯させるとともに照明22−6を消灯させてもよい(図9)。また、動作制御部24は、イメージセンサ部21−2を動作させている間、照明22−6を点灯させるとともに照明22−7を消灯させてもよい(図10)。
このように、動作制御部24は、イメージセンサ部21−1の動作中、イメージセンサ部21−1からの距離がより遠い照明22−7を点灯させ、より近い照明22−6を消灯させることによって、イメージセンサ部21−1が照明22−6および照明22−7から受ける光量を適切に保つことが可能となる。同様に、動作制御部24は、イメージセンサ部21−2の動作中、イメージセンサ部21−2からの距離がより遠い照明22−6を点灯させ、より近い照明22−7を消灯させることによって、イメージセンサ部21−2が照明22−6および照明22−7から受ける光量を適切に保つことが可能となる。
[1.3.登録処理]
以上においては、本開示の第1の実施形態に係る検出装置20Aの第1の例から第4の例までの各構成例について主に説明した。画像登録時においては、このような構成を有する検出装置20Aによって検出された複数の画像を利用して、生体認証に利用される画像登録がなされる。画像登録がなされるタイミングは限定されない。一例として、ユーザ(登録ユーザ)による所定の登録操作(例えば、登録開始ボタンの押下操作など)がなされた場合に、画像登録がなされてよい。以下では、画像登録の例について説明する。
図11は、登録画像の生成の概要を説明するための図である。まず、登録ユーザによって所定の登録操作がなされると、イメージセンサ部21−1によって複数の第1の検出画像が検出されるとともに、イメージセンサ部21−2によって複数の第2の検出画像が検出される。
図11を参照すると、イメージセンサ部21−1によって、複数の第1の検出画像として第1の検出画像31−1〜31−6が検出されるとともに、イメージセンサ部21−2によって、複数の第2の検出画像として第2の検出画像32−1〜32−6が検出される例が示されている。しかし、第1の検出画像および第2の検出画像それぞれの枚数は、6枚に限定されず、複数枚であればよい。なお、図11において、第1の検出画像31−1〜31−6および第2の検出画像32−1〜32−6それぞれは、指81において対応する位置に示されている)。
具体的には、出力部160によってイメージセンサに指を接触させることを促す表示がなされると、登録ユーザは、その表示を見て指をイメージセンサ部21−1およびイメージセンサ部21−2に接触させる。続いて、イメージセンサ部21−1によって第1の検出画像31−1が検出されるとともに、イメージセンサ部21−2によって第2の検出画像32−1が検出される。このとき、第1の検出画像31−1および第2の検出画像32−1の検出タイミングは、僅かにずれていてよい。
続いて、出力部160によってイメージセンサに接触する指の部位の変更を促す表示がなされると、登録ユーザは、その表示を見てイメージセンサ部21−1およびイメージセンサ部21−2に接触させる指の部位を変更する。続いて、イメージセンサ部21−1によって第1の検出画像31−2が検出されるとともに、イメージセンサ部21−2によって第2の検出画像32−2が検出される。このとき、第1の検出画像31−2および第2の検出画像32−2の検出タイミングは、僅かにずれていてよい。
その後、第1の検出画像31−2および第2の検出画像32−2の検出と同様にして、第1の検出画像31−3〜31−6および第2の検出画像32−3〜32−6が検出される。登録画像生成部112Aは、このようにして検出された第1の検出画像31−1〜31−6および第2の検出画像32−1〜32−6に基づいて、認証用画像との間で照合される登録画像40を生成する。かかる構成によれば、イメージセンサ部21−1およびイメージセンサ部21−2それぞれの各検出画像が統合されて登録画像40が生成される。
図11には、第1の検出画像31−1〜31−6に基づく第1の合成画像33が示され、第2の検出画像32−1〜32−6に基づく第2の合成画像34が示されている。第1の合成画像33および第2の合成画像34については、後に説明する。なお、以下の説明において、第1の検出画像31−1が検出されるタイミングと第2の検出画像32−1が検出されるタイミングとは、「対応するタイミング」であるとも言う(第1の検出画像31−2および第2の検出画像32−2、・・・、第1の検出画像31−6および第2の検出画像32−6といった他の各組が検出されるタイミングも同様である。)。
ここで、登録画像40を生成する手法としては幾つかの手法が想定される。まず、登録画像40の生成の第1の例について説明する。具体的に、登録画像40の生成の第1の例は、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係が記憶部150によってあらかじめ記憶されていないために、この位置関係が登録画像生成部112Aによってあらかじめ把握されない場合における登録画像40の生成例に相当する。
図12は、登録画像40の生成の第1の例を説明するための図である。図12に示すように、登録画像生成部112Aは、第1の検出画像31−1〜31−6に基づいて第1の合成画像33を生成するとともに、第2の検出画像32−1〜32−6に基づいて第2の合成画像34を生成する。そして、登録画像生成部112Aは、第1の合成画像33と第2の合成画像34とに基づいて登録画像40を生成する。ここで、第1の検出画像31−1と第1の検出画像31−2との合成の例について説明する。
図13は、2枚の第1の検出画像31の合成の例を説明するための図である。図13を参照すると、第1の検出画像31−1と第1の検出画像31−2とが示されている。登録画像生成部112Aは、第1の検出画像31−1および第1の検出画像31−2の重なり領域35−1における一致度合いが最も高くなる場合における第1の検出画像31−1を基準とした第1の検出画像31−2の相対位置を算出する。
第1の検出画像31−1および第1の検出画像31−2の重なり領域35−1における一致度合いはどのように算出されてもよい。例えば、第1の検出画像31−1および第1の検出画像31−2の重なり領域35−1における一致度合いは、重なり領域35−1において重なり合う画素同士における画素値の差の絶対値の総和の低さであってもよいし、重なり領域35−1において重なり合う画素同士における画素値の差の二乗の総和の低さであってもよい。
また、第1の検出画像31−1を基準とした第1の検出画像31−2の相対位置の表現形式は限定されない。図13に示した例では、相対位置が、第1の検出画像31−1の左上隅を基準とした第1の検出画像31−2の左上隅の相対位置(x,y)と所定の位置を中心とした第1の検出画像31−1から第1の検出画像31−2への回転角度(w)とによって表現されている。
登録画像生成部112Aは、第1の検出画像31−1を基準とした第1の検出画像31−2の相対位置(x,y,w)を算出すると、重なり領域35−1に存在する画像を1枚に減らす処理を行うことによって、第1の検出画像31−1と第1の検出画像31−2との合成を完了させる。例えば、登録画像生成部112Aは、重なり領域35−1に存在する2枚の画像のうち、あらかじめ決められた画像だけを残してもよいし、より鮮明に指が写る画像だけを残してもよいし、2枚の画像を統合することによって1枚の画像を生成してもよい。
以上において、第1の検出画像31−1と第1の検出画像31−2との合成の例について説明した。同様の合成を行うことによって、登録画像生成部112Aは、第1の合成画像33と第2の合成画像34とを生成することが可能である。続いて、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される位置関係を2画像間の位置関係として決定する。そして、登録画像生成部112Aは、決定した2画像間の位置関係と、第1の合成画像33と、第2の合成画像34とに基づいて、登録画像40を生成する。
2画像間の位置関係はどのように決定されてもよい。一例として、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された検出画像と、イメージセンサ部21−1およびイメージセンサ部21−2のいずれかによって検出された検出画像とに基づいて、2画像間の位置関係を決定してよい。これらの検出画像としてどの検出画像を利用するかは限定されない。
例えば、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された第1の検出画像31−1および第2の検出画像32−1と、イメージセンサ部21−1によって検出された第1の検出画像31−2とに基づいて、2画像間の位置関係を決定してよい。
第2の検出画像32−1と第1の検出画像31−2とが重なり合っている場合、登録画像生成部112Aは、第2の検出画像32−1および第1の検出画像31−2の重なり領域(不図示)における一致度合いが最も高くなる場合における第2の検出画像32−1を基準とした第1の検出画像31−2の相対位置を算出する。かかる相対位置の算出は、上記した第1の検出画像31−1を基準とした第1の検出画像31−2の相対位置の算出と同様になされ得る。
続いて、登録画像生成部112Aは、第1の検出画像31−1を基準とした第1の検出画像31−2の相対位置と、第1の検出画像31−2を基準とした第2の検出画像32−1の相対位置とに基づいて、第1の検出画像31−1を基準とした第2の検出画像32−1の相対位置を、第1の合成画像33および第2の合成画像34の位置関係(2画像間の位置関係)として決定することが可能である。
続いて、登録画像生成部112Aは、第1の検出画像31−1と第2の検出画像32−1とが決定した2画像間の位置関係を有するように、第1の合成画像33と第2の合成画像34とを配置する。そして、登録画像生成部112Aは、第1の合成画像33と第2の合成画像34との重なり領域(不図示)に存在する画像を1枚に減らす処理を行うことによって、登録画像40を生成することが可能である。重なり領域(不図示)に存在する画像を1枚に減らす処理は、重なり領域35−1(図13)に存在する画像を1枚に減らす処理と同様になされ得る。
図14は、登録画像40の生成の第1の例が利用される場合における登録処理の動作例を示すフローチャートである。図14に示すように、まず、所定の登録操作がなされた場合に、登録画像生成部112Aは、対応する2つの検出画像を取得する(S12)。より詳細には、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された第1の検出画像31および第2の検出画像32を取得する。
続いて、登録画像生成部112Aは、対応する2つの検出画像の取得が終了していない場合には(S13において「No」)、S12に移行し、次の第1の検出画像31および第2の検出画像32を取得する。一方、登録画像生成部112Aは、対応する2つの検出画像の取得が終了した場合には(S13において「Yes」)、S14に移行する。具体的に、第1の検出画像31−1〜31−6および第2の検出画像32−1〜32−6が取得された場合に、対応する2つの検出画像の取得が終了する。
続いて、登録画像生成部112Aは、第1の検出画像31−1〜31−6に基づいて第1の合成画像33を生成するとともに(S14)、第2の検出画像32−1〜32−6に基づいて第2の合成画像34を生成する(S15)。そして、登録画像生成部112Aは、第1の合成画像33と第2の合成画像34とに基づいて、登録画像40を生成する(S16)。登録画像生成部112Aは、生成した登録画像40を記憶部150に登録すると(S17)、登録処理を終了する。
以上において、登録画像40の生成の第1の例について説明した。続いて、登録画像40の生成の第2の例について説明する。具体的に、登録画像40の生成の第2の例は、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係が記憶部150によってあらかじめ記憶されており、この位置関係が登録画像生成部112Aによって取得される場合における登録画像40の生成例に相当する。
図15は、登録画像40の生成の第2の例を説明するための図である。登録画像生成部112Aは、記憶部150から、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係を取得する。そして、登録画像生成部112Aは、取得した2画像間の位置関係と、第1の検出画像31−1〜31−6と、第2の検出画像32−1〜32−6とに基づいて登録画像40を生成する。
イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係の表現形式は限定されない。例えば、2画像間の位置関係は、第1の検出画像31−1の右上隅を基準とした第2の検出画像32−1の左上隅の相対位置(s,t)と所定の位置を中心とした第1の検出画像31−1から第2の検出画像32−1への回転角度(r)とによって表現されている。
より具体的には、登録画像生成部112Aは、対応するタイミングに検出される2画像間の位置関係(s,t,r)を取得すると、第1の検出画像31−1と第2の検出画像32−1とが取得した2画像間の位置関係(s,t,r)を有するように、第1の検出画像31−1と第2の検出画像32−1とを配置する。同様にして、登録画像生成部112Aは、第1の検出画像31−2〜31−6と第2の検出画像32−2〜32−6とを配置する。
そして、登録画像生成部112Aは、第1の検出画像31−1〜31−6と第2の検出画像32−1〜32−6との重なり領域(不図示)に存在する画像を1枚に減らす処理を行うことによって、登録画像40を生成することが可能である。重なり領域(不図示)に存在する画像を1枚に減らす処理は、重なり領域35−1(図13)に存在する画像を1枚に減らす処理と同様になされ得る。
図16は、登録画像40の生成の第2の例が利用される場合における登録処理の動作例を示すフローチャートである。図16に示すように、まず、所定の登録操作がなされた場合に、登録画像生成部112Aは、記憶部150から対応する2つの検出画像間の位置関係(イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係)を取得する(S11)。
続いて、登録画像生成部112Aは、対応する2つの検出画像を取得する(S12)。より詳細には、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された第1の検出画像31および第2の検出画像32を取得する。
続いて、登録画像生成部112Aは、対応する2つの検出画像の取得が終了していない場合には(S13において「No」)、S12に移行し、次の第1の検出画像31および第2の検出画像32を取得する。一方、登録画像生成部112Aは、対応する2つの検出画像の取得が終了した場合には(S13において「Yes」)、S18に移行する。具体的に、第1の検出画像31−1〜31−6および第2の検出画像32−1〜32−6が取得された場合に、対応する2つの検出画像の取得が終了する。
続いて、登録画像生成部112Aは、取得した位置関係に基づいて、登録画像40を生成する(S18)。より詳細には、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係と、第1の検出画像31−1〜31−6と、第2の検出画像32−1〜32−6とに基づいて、登録画像40を生成する。登録画像生成部112Aは、生成した登録画像40を記憶部150に登録すると(S17)、登録処理を終了する。
以上において、登録画像40の生成の第2の例について説明した。続いて、登録画像40の生成の第3の例について説明する。具体的に、記憶部150によって記憶されているイメージセンサ部21−1とイメージセンサ部21−2との位置関係が正確とは限らない。登録画像40の生成の第3の例は、この位置関係が登録画像生成部112Aによって補正される場合における登録画像40の生成例に相当する。
図17は、登録画像40の生成の第3の例を説明するための図である。登録画像生成部112Aは、記憶部150から、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係を取得する。ここで、第3の例においては、登録画像生成部112Aが、取得した2画像間の位置関係を補正する。
例えば、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された検出画像と、イメージセンサ部21−1およびイメージセンサ部21−2のいずれかによって検出された検出画像とに基づいて、2画像間の位置関係を補正する。そして、登録画像生成部112Aは、補正後の2画像間の位置関係と、第1の検出画像31−1〜31−6と、第2の検出画像32−1〜32−6とに基づいて、登録画像40を生成する。
図18は、2画像間の位置関係の補正の例を説明するための図である。図18に示すように、第1の検出画像31−1と第2の検出画像32−1との間の位置関係(s2,t2,r2)が2画像間の位置関係として取得された場合を想定する。第1の検出画像31−1と第1の検出画像31−2の相対位置は、図13を参照しながら説明したようにして算出され得る。ここで、登録画像生成部112Aは、2画像間の位置関係(s2,t2,r2)を補正する。
例えば、登録画像生成部112Aは、2画像間の位置関係(s2,t2,r2)を基準とした所定の範囲内において2画像間の位置関係を変化させながら、第1の検出画像31−2および第2の検出画像32−1の重なり領域35−2における一致度合いが最も高くなる場合を探索する。そして、登録画像生成部112Aは、一致度合いが最も高くなる場合における第1の検出画像31−1を基準とした第2の検出画像32−1の相対位置を、補正後の2画像間の位置関係として算出する。
より具体的には、登録画像生成部112Aは、第1の検出画像31−1と第2の検出画像32−1とが補正後の2画像間の位置関係を有するように、第1の検出画像31−1と第2の検出画像32−1とを配置する。同様にして、登録画像生成部112Aは、第1の検出画像31−2〜31−6と第2の検出画像32−2〜32−6とを配置する。
そして、登録画像生成部112Aは、第1の検出画像31−1〜31−6と第2の検出画像32−1〜32−6との重なり領域(不図示)に存在する画像を1枚に減らす処理を行うことによって、登録画像40を生成することが可能である。重なり領域(不図示)に存在する画像を1枚に減らす処理は、重なり領域35−1(図13)に存在する画像を1枚に減らす処理と同様になされ得る。
以上において、2画像間の位置関係の補正の例について説明した。続いて、2画像間の位置関係の補正の変形例について説明する。具体的に、図18を参照しながら説明した2画像間の位置関係の補正の例においては、第1の検出画像31−2および第2の検出画像32−1の重なり領域35−2における一致度合いを考慮することとした。2画像間の位置関係の補正の変形例においては、補正の精度をさらに高めるため、他の重なり領域における一致度合いをさらに考慮する。
図19は、2画像間の位置関係の補正の変形例を説明するための図である。図19に示すように、第1の検出画像31−1と第2の検出画像32−1との間の位置関係(および第1の検出画像31−2と第2の検出画像32−2との間の位置関係)(s2,t2,r2)が2画像間の位置関係として取得された場合を想定する。第1の検出画像31−1と第1の検出画像31−2の相対位置は、図13を参照しながら説明したようにして算出され得る。ここで、登録画像生成部112Aは、2画像間の位置関係(s2,t2,r2)を補正する。
例えば、登録画像生成部112Aは、2画像間の位置関係(s2,t2,r2)を基準とした所定の範囲内において2画像間の位置関係を変化させながら、第1の検出画像31−2および第2の検出画像32−1の重なり領域35−2における一致度合い、および、第2の検出画像32−2および第2の検出画像32−2の重なり領域35−3における一致度合いが最も高くなる場合を探索する。そして、登録画像生成部112Aは、一致度合いが最も高くなる場合における第1の検出画像31−1を基準とした第2の検出画像32−1の相対位置を、補正後の2画像間の位置関係として算出する。
より具体的には、登録画像生成部112Aは、第1の検出画像31−1と第2の検出画像32−1とが補正後の2画像間の位置関係を有するように、第1の検出画像31−1と第2の検出画像32−1とを配置する。同様にして、登録画像生成部112Aは、第1の検出画像31−2〜31−6と第2の検出画像32−2〜32−6とを配置する。
そして、登録画像生成部112Aは、第1の検出画像31−1〜31−6と第2の検出画像32−1〜32−6との重なり領域(不図示)に存在する画像を1枚に減らす処理を行うことによって、登録画像40を生成することが可能である。重なり領域(不図示)に存在する画像を1枚に減らす処理は、重なり領域35−1(図13)に存在する画像を1枚に減らす処理と同様になされ得る。
図20は、登録画像40の生成の第3の例が利用される場合における登録処理の動作例を示すフローチャートである。図20に示すように、まず、所定の登録操作がなされた場合に、登録画像生成部112Aは、記憶部150から対応する2つの検出画像間の位置関係(イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係)を取得する(S11)。
続いて、登録画像生成部112Aは、対応する2つの検出画像を取得する(S12)。より詳細には、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された第1の検出画像31および第2の検出画像32を取得する。
続いて、登録画像生成部112Aは、対応する2つの検出画像の取得が終了していない場合には(S13において「No」)、S12に移行し、次の第1の検出画像31および第2の検出画像32を取得する。一方、登録画像生成部112Aは、対応する2つの検出画像の取得が終了した場合には(S13において「Yes」)、S19に移行する。具体的に、第1の検出画像31−1〜31−6および第2の検出画像32−1〜32−6が取得された場合に、対応する2つの検出画像の取得が終了する。
続いて、登録画像生成部112Aは、対応する2つの検出画像間の位置関係を補正する(S19)。続いて、登録画像生成部112Aは、補正後の位置関係に基づいて、登録画像40を生成する(S20)。より詳細には、登録画像生成部112Aは、補正後の位置関係と、第1の検出画像31−1〜31−6と、第2の検出画像32−1〜32−6とに基づいて、登録画像40を生成する。登録画像生成部112Aは、生成した登録画像40を記憶部150に登録すると(S17)、登録処理を終了する。
[1.4.認証処理]
以上において、登録画像40の生成の第3の例について説明した。このようにして登録画像40が登録されると、登録画像40が生体認証に利用される。認証処理がなされるタイミングは限定されない。例えば、ユーザ(被認証ユーザ)による所定の認証操作(例えば、認証開始ボタンの押下操作など)がなされた場合に、認証処理がなされてよい。以下では、認証処理の例について説明する。
図21は、認証処理の概要を説明するための図である。まず、被認証ユーザによって所定の認証操作がなされると、イメージセンサ部21−1によって第3の検出画像が検出されるとともに、イメージセンサ部21−2によって第4の検出画像が検出される。
図21を参照すると、イメージセンサ部21−1によって、第3の検出画像51が検出されるとともに、イメージセンサ部21−2によって、第4の検出画像52が検出される例が示されている。しかし、第3の検出画像および第4の検出画像それぞれの枚数は、1枚に限定されず、複数枚であってもよい。なお、図21において、第3の検出画像51および第4の検出画像52それぞれは、指82において対応する位置に示されている)。
具体的には、出力部160によってイメージセンサに指を接触させることを促す表示がなされると、被認証ユーザは、その表示を見て指をイメージセンサ部21−1およびイメージセンサ部21−2に接触させる。続いて、イメージセンサ部21−1によって第3の検出画像51が検出されるとともに、イメージセンサ部21−2によって第4の検出画像52が検出される。このとき、第3の検出画像51および第4の検出画像52の検出タイミングは、僅かにずれていてよい。
認証処理部113Aは、このようにして検出された第3の検出画像51と第4の検出画像52と登録画像生成部112Aによって生成された登録画像40とに基づいて、認証処理を行う。かかる構成によれば、イメージセンサ部21−1およびイメージセンサ部21−2それぞれの各検出画像が統合されて生成された登録画像40に基づく認証処理が行われ得る。ここで、認証処理の具体的な手法は特に限定されない。
例えば、認証処理部113Aは、第3の検出画像51と第4の検出画像52とが所定の位置関係を有するように、第3の検出画像51と第4の検出画像52とを配置することによって、認証用画像を生成する。所定の位置関係は、イメージセンサ部21−1およびイメージセンサ部21−2によって対応するタイミングに検出される2画像間の位置関係であってよい。かかる位置関係は、上記したように、記憶部150によってあらかじめ記憶されている位置関係であってもよいし、登録画像生成部112Aによる補正後の位置関係であってもよいし、登録画像生成部112Aによって決定された位置関係であってもよい。
そして、認証処理部113Aは、認証用画像(第3の検出画像51と第4の検出画像52とが配置された画像)と登録画像とを照合する。より具体的には、認証処理部113Aは、登録画像に対する認証用画像の位置を変化させながら、認証用画像および登録画像の重なり領域における一致度合いが閾値を超える位置が存在するか否かに基づいて、認証が成功したか否かを判断してもよい。
認証が成功した場合になされる動作、および、認証が失敗した場合になされる動作は、特に限定されない。例えば、認証処理部113Aは、認証が成功した場合、所定のリソース(例えば、情報処理装置10Aまたは所定のサーバにおいて実行されるアプリケーションなど)へのアクセスを許可してもよい。一方、認証処理部113Aは、認証が失敗した場合、認証失敗を示す所定の情報(例えば、「認証に失敗しました」などといったメッセージなど)の出力を制御し、認証処理を再度実行してもよい。
図22は、認証処理の動作例を示すフローチャートである。図22に示すように、まず、所定の認証操作がなされた場合に、認証処理部113Aは、対応する2つの検出画像を取得する(S31)。より詳細には、登録画像生成部112Aは、イメージセンサ部21−1およびイメージセンサ部21−2それぞれによって対応するタイミングに検出された第3の検出画像51および第4の検出画像52を取得する。上記したように、第3の検出画像51および第4の検出画像52が所定の位置関係を有するように配置されると、認証用画像が生成される。
続いて、認証処理部113Aは、登録画像生成部112Aによって生成された登録画像40を記憶部150から取得する(S32)。続いて、認証処理部113Aは、認証用画像と登録画像とを照合する(S33)。認証処理部113Aは、照合が失敗した場合には(S34において「No」)、S31に移行する。このとき、認証失敗を示す所定の情報が出力されてもよい。一方、認証処理部113Aは、照合が成功した場合には(S34において「Yes」)、認証処理を終了する。このとき、所定のリソースへのアクセスが許可されてもよい。
以上において、認証処理について説明した。また、以上において、本開示の第1の実施形態について説明した。
<2.第2の実施形態の説明>
続いて、本開示の第2の実施形態について説明する。本開示の第1の実施形態によれば、イメージセンサ全体の面積を十分に確保し、生体認証の精度を向上させることが可能となる。さらに、生体認証の精度向上によって、複数種類の生体認証を同時に行うことも可能となる。そこで、本開示の第2の実施形態においては、複数種類の生体認証を同時に行う例を主に説明する。なお、複数種類の生体認証を「同時に」行うとは、複数種類の生体認証を同じ動作で行うことを意味し、必ずしも同時刻に複数種類の生体認証を行うことを意味しない。
[2.1.機能構成例]
まず、本開示の第2の実施形態に係る情報処理装置の機能構成例について説明する。図23は、本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。図23に示したように、本開示の第2の実施形態に係る情報処理装置10Bは、検出装置20Aの代わりに検出装置20Bを有し、制御部110Aの代わりに制御部110Bを有する点において、本開示の第1の実施形態に係る情報処理装置10Aと異なる。したがって、以下においては、検出装置20Bおよび制御部110Bについて主に説明する。
検出装置20Bは、イメージセンサ部21−1およびイメージセンサ部21−2の代わりに、イメージセンサ部21−3およびイメージセンサ部21−4を備える点において、本開示の第1の実施形態に係る検出装置20Aと異なる。また、検出装置20Bは、レンズアレイ25および照明26を備える点において、本開示の第1の実施形態に係る検出装置20Aと異なる。したがって、以下においては、イメージセンサ部21−3、イメージセンサ部21−4、レンズアレイ25および照明26について主に説明する。
制御部110Bは、登録画像生成部112Aおよび認証処理部113Aの代わりに、登録画像生成部112Bおよび認証処理部113Bを備える点において、本開示の第1の実施形態に係る制御部110Aと異なる。したがって、以下においては、登録画像生成部112Bおよび認証処理部113Bについて主に説明する。
以上、本開示の第2の実施形態に係る情報処理装置10Bの機能構成例について説明した。
[2.2.検出装置の構成例]
続いて、本開示の第2の実施形態に係る情報処理装置10Bの機能詳細について説明する。図24は、本開示の第2の実施形態に係る検出装置20Bの構成例を示す図である。図25は、本開示の第2の実施形態に係る検出装置20Bの利用イメージを横から見た図である。
図24を参照すると、検出装置20Bの例としての検出装置20−6は、2枚のイメージセンサ部21として、イメージセンサ部21−3,イメージセンサ部21−4を有している。そして、イメージセンサ部21−3とイメージセンサ部21−4とは、同一平面上に配置されている。また、図24を参照すると、イメージセンサ部21−4は、イメージセンサ部21−3を基準としてイメージセンサ部21−3の長手方向に配置されている。
検出装置20−6は、導光板23−1〜23−3、照明22−5、照明26−1〜26−4を備えている。照明22−5は、第1の波長の光を発し、照明22−5によって発せられた第1の波長の光は、導光板23−3の内部に導かれ、導光板23−3の表面において拡散される。
一方、照明26−1,26−2は、それぞれ第1の波長とは異なる第2の波長の光を発し、照明26−1,26−2によって発せられた第2の波長の光は、導光板23−1の内部に導かれ、導光板23−1の表面において拡散される。照明26−3,26−4は、それぞれ第2の波長の光を発し、照明26−4,26−4によって発せられた第2の波長の光は、導光板23−2の内部に導かれ、導光板23−2の表面において拡散される。
以下では、第1の波長の光の例として指81の指紋の撮像に利用される可視光が利用され、第2の波長の光の例として静脈83の撮像に利用される赤外光が利用される場合を主に説明する。しかし、第1の波長の光および第2の波長の光は限定されない。
なお、図24に示した例では、可視光を発する照明22の数が1つであり、赤外光を発する照明26の数は4つである。しかし、可視光を発する照明22および赤外光を発する照明26それぞれの数は限定されない。可視光を発する照明22および赤外光を発する照明26それぞれが設けられる位置も限定されない。例えば、照明22は、本開示の第1の実施形態において例示した照明22の位置に設けられてよい。
また、可視光を発する照明22および赤外光を発する照明26は、LED照明であってよい。本明細書においては、可視光を発する照明22および赤外光を発する照明26が別体に構成される例を主に説明するが、照明22および照明26は、一体に構成されてもよい。
レンズアレイ25は、第1のレンズ群251および第1のレンズ群251と焦点距離の異なる第2のレンズ群252を備える。例えば、図25に示すように、レンズアレイ25は、指81が直接的に接触されるように、イメージセンサ部21−3およびイメージセンサ部21−3の外側を覆うように配置される。
イメージセンサ部21−3およびイメージセンサ部21−4は、第1のレンズ群251を透過した可視光を検出する第1の受光素子群と第2のレンズ群252を透過した赤外光を検出する第2の受光素子群とを有する。なお、図24および図25に示した例では、第1のレンズ群251と第2のレンズ群252とが交互に配置されているが、第1のレンズ群251および第2のレンズ群252の配置は、かかる例に限定されない。例えば、第1のレンズ群251よりも第2のレンズ群252のほうが疎であってもよい。
導光板23−3の表面において拡散された可視光の一部は、第1のレンズ群251を透過してイメージセンサ部21−3およびイメージセンサ部21−4の第1の受光素子群(不図示)によって受光される。一方、導光板23−1,23−2の表面において拡散された赤外光の一部は、第2のレンズ群252を透過してイメージセンサ部21−3およびイメージセンサ部21−4の第2の受光素子群(不図示)によって受光される。かかる構成によれば、指紋画像と静脈画像とを同時に得ることが可能となる。なお、指紋画像と静脈画像とを同時に得るとは、指紋画像と静脈画像とを同じ動作で得ることを意味し、必ずしも同時刻に指紋画像と静脈画像とを得ることを意味しない。
[2.3.登録処理]
以上においては、本開示の第2の実施形態に係る検出装置20Bの構成例について主に説明した。画像登録時においては、このような構成を有する検出装置20Bによる検出結果を利用して、生体認証に利用される指紋画像および静脈画像の登録がなされる。画像登録がなされるタイミングは限定されない。一例として、ユーザ(登録ユーザ)による所定の登録操作(例えば、登録開始ボタンの押下操作など)がなされた場合に、画像登録がなされてよい。以下では、画像登録の例について説明する。
まず、登録ユーザによって所定の登録操作がなされると、イメージセンサ部21−3およびイメージセンサ部21−4が有する第1の受光素子群(不図示)は、第1のレンズ群251を透過した可視光を第1の検出結果として検出する。登録画像生成部112Bは、第1の検出結果に基づいて、第1の認証用画像(以下、「認証用指紋画像」とも言う。)との間で照合される第1の登録画像(以下、「登録指紋画像」とも言う。)を生成する。登録指紋画像は、本開示の第1の実施形態において示した登録画像40の生成と同様に生成され得る。登録画像生成部112Bは、登録指紋画像を記憶部150に登録する。
一方、イメージセンサ部21−3およびイメージセンサ部21−4が有する第2の受光素子群(不図示)は、第2のレンズ群252を透過した赤外光を第2の検出結果として検出する。登録画像生成部112Bは、第2の検出結果に基づいて、第2の認証用画像(以下、「認証用静脈画像」とも言う。)との間で照合される第2の登録画像(以下、「登録静脈画像」とも言う。)を生成する。登録静脈画像は、本開示の第1の実施形態において示した登録画像40の生成と同様に生成され得る。登録画像生成部112Bは、登録静脈画像を記憶部150に登録する。
[2.4.認証処理]
以上において、登録指紋画像および登録静脈画像の生成の例について説明した。このようにして登録指紋画像および登録静脈画像が登録されると、登録指紋画像および登録静脈画像が生体認証に利用される。認証処理がなされるタイミングは限定されない。例えば、ユーザ(被認証ユーザ)による所定の認証操作(例えば、認証開始ボタンの押下操作など)がなされた場合に、認証処理がなされてよい。以下では、認証処理の例について説明する。
まず、被認証ユーザによって所定の認証操作がなされると、イメージセンサ部21−3およびイメージセンサ部21−4が有する第1の受光素子群(不図示)は、第1のレンズ群251を透過した可視光を第3の検出結果として検出する。認証処理部113Bは、第3の検出結果に基づいて、認証用指紋画像を生成する。認証用指紋画像は、本開示の第1の実施形態において示した認証用画像の生成と同様に生成され得る。
一方、イメージセンサ部21−3およびイメージセンサ部21−4が有する第2の受光素子群(不図示)は、第2のレンズ群252を透過した赤外光を第4の検出結果として検出する。認証処理部113Bは、第4の検出結果に基づいて、認証用静脈画像を生成する。認証用静脈画像は、本開示の第1の実施形態において示した認証用画像の生成と同様に生成され得る。
認証処理部113Bは、認証用指紋画像と登録指紋画像とに基づく第1の認証処理を行うことが可能である。より詳細には、認証処理部113Bは、認証用指紋画像と登録指紋画像とを照合することによって、第1の認証処理を行うことが可能である。かかる照合および照合結果に基づく動作は、本開示の第1の実施形態において示した照合および照合結果に基づく動作と同様になされ得る。
さらに、認証処理部113Bは、認証用静脈画像と登録静脈画像とに基づく第2の認証処理を行うことが可能である。より詳細には、認証処理部113Bは、認証用静脈画像と登録静脈画像とを照合することによって、第2の認証処理を行うことが可能である。かかる照合および照合結果に基づく動作も、本開示の第1の実施形態において示した照合および照合結果に基づく動作と同様になされ得る。
ここで、認証用指紋画像と登録指紋画像とに基づく第1の認証処理、および、認証用静脈画像と登録静脈画像とに基づく第2の認証処理は、状況に応じて使い分けがなされてもよいし、ともに利用されてもよい。まず、認証用指紋画像と登録指紋画像とに基づく第1の認証処理、および、認証用静脈画像と登録静脈画像とに基づく第2の認証処理が、状況に応じて使い分けられる例を説明する。
例えば、認証処理部113Bは、所定の第1の条件が満たされた場合に、認証用指紋画像と登録指紋画像とに基づく第1の認証処理を行ってもよい。一方、認証処理部113Bは、所定の第2の条件が満たされた場合に、認証用静脈画像と登録静脈画像とに基づく第2の認証処理を行ってもよい。ここで、第1の条件および第2の条件それぞれがどのような条件であるかは限定されない。第1の条件および第2の条件それぞれの例について説明する。
図26は、認証用指紋画像と登録指紋画像とに基づく第1の認証処理がなされる場合における利用イメージを示す図である。拡大図K2は、操作部120の表面に設けられた検出装置20−6およびその周辺部分を拡大して表した図であり、指紋画像の撮像に利用される可視光を拡散する導光板23−3に着色が施されている。
例えば、指紋画像は流出しやすく、指紋画像に基づいてその指紋に類似する指紋を有する指を(ゼラチンなどを使って)作ることが容易な場合もあるため、指紋画像を利用した認証処理の精度はより低いと考えられる。しかし、図26に示すように、指紋画像は、ユーザが指先を検出装置20−6に接触させれば撮像されるため、手軽に取得され得る。そこで、認証用指紋画像と登録指紋画像とに基づく第1の認証処理を行うための第1の条件は、情報処理装置10Aにロックが掛かった状態(ロック状態)の解除が要求された場合などであってよい。
図27は、認証用静脈画像と登録静脈画像とに基づく第2の認証処理がなされる場合における利用イメージを示す図である。拡大図K3は、操作部120の表面に設けられた検出装置20−6およびその周辺部分を拡大して表した図であり、静脈画像の撮像に利用される赤外光を拡散する導光板23−1,23−2に着色が施されている。
例えば、静脈画像は流出しにくく、静脈画像に基づいてその静脈と類似する静脈を有する指を作ることは困難な場合もあるため、静脈画像を利用した認証処理の精度はより高いと考えられる。しかし、静脈画像は、図27に示すように、主にユーザが第一関節と第二関節との間をイメージセンサに接触させた状態において撮像されるため、手軽には取得され得ない。そこで、認証用静脈画像と登録静脈画像とに基づく第2の認証処理を行うための第2の条件は、高い認証精度が求められるアプリケーション(例えば、ペイメントなど)へのアクセスが要求された場合などであってよい。
続いて、認証用指紋画像と登録指紋画像とに基づく第1の認証処理、および、認証用静脈画像と登録静脈画像とに基づく第2の認証処理が、ともに利用される例を説明する。かかる例においては、認証処理部113Bは、第1の認証処理および第2の認証処理をともに行い、第1の認証処理が成功し、かつ、第2の認証処理が成功した場合に、認証処理が成功した旨を出力すればよい(認証処理が成功したと判断すればよい)。一方、認証処理部113Bは、第1の認証処理が失敗し、または、第2の認証処理が失敗した場合に、認証処理が失敗した旨を出力すればよい(認証処理が失敗したと判断すればよい)。
図28は、認証用指紋画像と登録指紋画像とに基づく第1の認証処理、および、認証用静脈画像と登録静脈画像とに基づく第2の認証処理がともになされる場合における利用イメージを示す図である。ここでは、検出装置20−6に対する指先の一度の接触によって、指紋画像と静脈画像とをともに撮像する場合を想定する。拡大図K4は、操作部120の表面に設けられた検出装置20−6およびその周辺部分を拡大して表した図であり、指紋画像の撮像に利用される可視光を拡散する導光板23−3と、静脈画像の撮像に利用される赤外光を拡散する導光板23−1,23−2に着色が施されている。
指先に存在する静脈は、第一関節と第二関節との間に存在する静脈と比較して、血管が細く、パターンの多様性も低い場合がある。しかし、指紋画像に追加して指先に存在する静脈のパターンを認証処理に利用することによって、検出装置20−6に対する指先の一度の接触に基づいて、指紋画像を用いた認証処理(例えば、ロック状態の解除が要求された場合に行われる認証処理)の精度を高めることが可能である。
以上において、認証処理について説明した。また、以上において、本開示の第2の実施形態について説明した。
<3.ハードウェア構成例>
次に、図29を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図29は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図29に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、通信装置925を含んでもよい。さらに、情報処理装置10は、撮像装置933を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
<4.むすび>
以上説明したように、本開示の実施形態によれば、イメージセンサ部(第1のイメージセンサ部)21−1と、イメージセンサ部(第1のイメージセンサ部)21−1と同一平面上に配置されたイメージセンサ部(第2のイメージセンサ部)21−2と、を備える、生体認証用の検出装置20Aが提供される。かかる構成によれば、イメージセンサ全体の面積を十分に確保し、生体認証の精度を向上させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記した情報処理装置10の動作が実現されれば、各構成の位置は特に限定されない。具体的な一例として、制御部110が有する各ブロック(登録画像生成部112および認証処理部113)の一部または全部は、サーバなどに存在していてもよい。そのとき、上記した認証処理は、サーバのWebアプリケーションへのログイン時に行われてもよい。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部110が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1のイメージセンサ部と、
前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部と、
を備える、生体認証用の検出装置。
(2)
第2のイメージセンサ部は、前記第1のイメージセンサ部を基準として前記第1のイメージセンサ部の長手方向に配置されている、
前記(1)に記載の検出装置。
(3)
前記検出装置は、
前記第1のイメージセンサ部と前記第2のイメージセンサ部との間に照明を有する、
前記(1)に記載の検出装置。
(4)
前記照明は、前記第1のイメージセンサ部と離れて配置されており、かつ、前記第2のイメージセンサ部と離れて配置されている、
前記(3)に記載の検出装置。
(5)
前記検出装置は、
前記第1のイメージセンサ部および前記第2のイメージセンサ部を片方ずつ動作させる動作制御部を備える、
前記(1)〜(4)のいずれか一項に記載の検出装置。
(6)
前記検出装置は、
前記第1のイメージセンサ部からの距離よりも前記第2のイメージセンサ部からの距離が近い第1の照明と、
前記第2のイメージセンサ部からの距離よりも前記第1のイメージセンサ部からの距離が近い第2の照明と、を有し、
前記動作制御部は、前記第1のイメージセンサ部を動作させている間、前記第1の照明を点灯させるとともに前記第2の照明を消灯させ、前記第2のイメージセンサ部を動作させている間、前記第2の照明を点灯させるとともに前記第1の照明を消灯させる、
前記(5)に記載の検出装置。
(7)
前記検出装置は、
第1のレンズ群および前記第1のレンズ群と焦点距離の異なる第2のレンズ群を備え、
前記第1のイメージセンサ部および前記第2のイメージセンサ部は、前記第1のレンズ群を透過した第1の波長域の光を検出する第1の受光素子群と前記第2のレンズ群を透過した第2の波長域の光を検出する第2の受光素子群とを有する、
前記(1)に記載の検出装置。
(8)
第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成する登録画像生成部を備える、
生体認証用の情報処理装置。
(9)
前記登録画像生成部は、前記複数の第1の検出画像に基づいて第1の合成画像を生成するとともに、前記複数の第2の検出画像に基づいて第2の合成画像を生成し、前記第1の合成画像と前記第2の合成画像とに基づいて前記登録画像を生成する、
前記(8)に記載の情報処理装置。
(10)
前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部によって対応するタイミングに検出される2画像間の位置関係を決定し、前記2画像間の位置関係と、前記第1の合成画像と、前記第2の合成画像とに基づいて、前記登録画像を生成する、
前記(9)に記載の情報処理装置。
(11)
前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部それぞれによって対応するタイミングに検出された検出画像と、前記第1のイメージセンサ部および前記第2のイメージセンサ部のいずれかによって検出された検出画像とに基づいて、前記2画像間の位置関係を決定する、
前記(9)に記載の情報処理装置。
(12)
前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部によって対応するタイミングに検出される2画像間の位置関係を取得し、前記2画像間の位置関係と、前記複数の第1の検出画像と、前記複数の第2の検出画像とに基づいて、前記登録画像を生成する、
前記(8)に記載の情報処理装置。
(13)
前記登録画像生成部は、前記2画像間の位置関係を補正し、当該補正した後の2画像間の位置関係と、前記複数の第1の検出画像と、前記複数の第2の検出画像とに基づいて、前記登録画像を生成する、
前記(12)に記載の情報処理装置。
(14)
前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部それぞれによって対応するタイミングに検出された検出画像と、前記第1のイメージセンサ部および前記第2のイメージセンサ部のいずれかによって検出された検出画像とに基づいて、前記2画像間の位置関係を補正する、
前記(9)に記載の情報処理装置。
(15)
前記情報処理装置は、
前記第1のイメージセンサ部によって検出された第3の検出画像と前記第2のイメージセンサ部によって検出された第4の検出画像と前記登録画像とに基づいて、認証処理を行う認証処理部を備える、
前記(8)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記第1のイメージセンサ部および前記第2のイメージセンサ部は、第1の波長域の光を検出する第1の受光素子群と第2の波長域の光を検出する第2の受光素子群とを有し、
前記登録画像生成部は、第1のレンズ群を透過した光の前記第1の受光素子群による第1の検出結果に基づいて、第1の認証用画像との間で照合される第1の登録画像を生成し、前記第1のレンズ群とは焦点距離の異なる第2のレンズ群を透過した光の前記第2の受光素子群による第2の検出結果に基づいて、第2の認証用画像との間で照合される第2の登録画像を生成する、
前記(8)に記載の情報処理装置。
(17)
前記情報処理装置は、
前記第1の受光素子群による第3の検出結果と前記第1の登録画像とに基づく第1の認証処理を行うことが可能であり、前記第2の受光素子群による第4の検出結果と前記第2の登録画像とに基づく第2の認証処理を行うことが可能である認証処理部を備える、
前記(16)に記載の情報処理装置。
(18)
前記認証処理部は、所定の第1の条件が満たされた場合に、前記第1の認証処理を行い、所定の第2の条件が満たされた場合に、前記第2の認証処理を行う、
前記(17)に記載の情報処理装置。
(19)
前記認証処理部は、前記第1の認証処理が成功し、かつ、前記第2の認証処理が成功した場合に、認証処理が成功した旨を出力する、
前記(17)に記載の情報処理装置。
(20)
プロセッサにより、第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成することを含む、
生体認証用の情報処理方法。
10(10A,10B) 情報処理装置
110(110A,110B) 制御部
112(112A,112B) 登録画像生成部
113(113A,113B) 認証処理部
120 操作部
130 入力部
150 記憶部
160 出力部
20(20A,20B) 検出装置
21 イメージセンサ部
22 照明
23 導光板
24 動作制御部
25 レンズアレイ
251 第1のレンズ群
252 第2のレンズ群
26 照明
31 第1の検出画像
32 第2の検出画像
33 第1の合成画像
34 第2の合成画像
35 重なり領域
40 登録画像
51 第3の検出画像
52 第4の検出画像

Claims (20)

  1. 第1のイメージセンサ部と、
    前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部と、
    を備える、生体認証用の検出装置。
  2. 第2のイメージセンサ部は、前記第1のイメージセンサ部を基準として前記第1のイメージセンサ部の長手方向に配置されている、
    請求項1に記載の検出装置。
  3. 前記検出装置は、
    前記第1のイメージセンサ部と前記第2のイメージセンサ部との間に照明を有する、
    請求項1に記載の検出装置。
  4. 前記照明は、前記第1のイメージセンサ部と離れて配置されており、かつ、前記第2のイメージセンサ部と離れて配置されている、
    請求項3に記載の検出装置。
  5. 前記検出装置は、
    前記第1のイメージセンサ部および前記第2のイメージセンサ部を片方ずつ動作させる動作制御部を備える、
    請求項1に記載の検出装置。
  6. 前記検出装置は、
    前記第1のイメージセンサ部からの距離よりも前記第2のイメージセンサ部からの距離が近い第1の照明と、
    前記第2のイメージセンサ部からの距離よりも前記第1のイメージセンサ部からの距離が近い第2の照明と、を有し、
    前記動作制御部は、前記第1のイメージセンサ部を動作させている間、前記第1の照明を点灯させるとともに前記第2の照明を消灯させ、前記第2のイメージセンサ部を動作させている間、前記第2の照明を点灯させるとともに前記第1の照明を消灯させる、
    請求項5に記載の検出装置。
  7. 前記検出装置は、
    第1のレンズ群および前記第1のレンズ群と焦点距離の異なる第2のレンズ群を備え、
    前記第1のイメージセンサ部および前記第2のイメージセンサ部は、前記第1のレンズ群を透過した第1の波長域の光を検出する第1の受光素子群と前記第2のレンズ群を透過した第2の波長域の光を検出する第2の受光素子群とを有する、
    請求項1に記載の検出装置。
  8. 第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成する登録画像生成部を備える、
    生体認証用の情報処理装置。
  9. 前記登録画像生成部は、前記複数の第1の検出画像に基づいて第1の合成画像を生成するとともに、前記複数の第2の検出画像に基づいて第2の合成画像を生成し、前記第1の合成画像と前記第2の合成画像とに基づいて前記登録画像を生成する、
    請求項8に記載の情報処理装置。
  10. 前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部によって対応するタイミングに検出される2画像間の位置関係を決定し、前記2画像間の位置関係と、前記第1の合成画像と、前記第2の合成画像とに基づいて、前記登録画像を生成する、
    請求項9に記載の情報処理装置。
  11. 前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部それぞれによって対応するタイミングに検出された検出画像と、前記第1のイメージセンサ部および前記第2のイメージセンサ部のいずれかによって検出された検出画像とに基づいて、前記2画像間の位置関係を決定する、
    請求項9に記載の情報処理装置。
  12. 前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部によって対応するタイミングに検出される2画像間の位置関係を取得し、前記2画像間の位置関係と、前記複数の第1の検出画像と、前記複数の第2の検出画像とに基づいて、前記登録画像を生成する、
    請求項8に記載の情報処理装置。
  13. 前記登録画像生成部は、前記2画像間の位置関係を補正し、当該補正した後の2画像間の位置関係と、前記複数の第1の検出画像と、前記複数の第2の検出画像とに基づいて、前記登録画像を生成する、
    請求項12に記載の情報処理装置。
  14. 前記登録画像生成部は、前記第1のイメージセンサ部および前記第2のイメージセンサ部それぞれによって対応するタイミングに検出された検出画像と、前記第1のイメージセンサ部および前記第2のイメージセンサ部のいずれかによって検出された検出画像とに基づいて、前記2画像間の位置関係を補正する、
    請求項9に記載の情報処理装置。
  15. 前記情報処理装置は、
    前記第1のイメージセンサ部によって検出された第3の検出画像と前記第2のイメージセンサ部によって検出された第4の検出画像と前記登録画像とに基づいて、認証処理を行う認証処理部を備える、
    請求項8に記載の情報処理装置。
  16. 前記第1のイメージセンサ部および前記第2のイメージセンサ部は、第1の波長域の光を検出する第1の受光素子群と第2の波長域の光を検出する第2の受光素子群とを有し、
    前記登録画像生成部は、第1のレンズ群を透過した光の前記第1の受光素子群による第1の検出結果に基づいて、第1の認証用画像との間で照合される第1の登録画像を生成し、前記第1のレンズ群とは焦点距離の異なる第2のレンズ群を透過した光の前記第2の受光素子群による第2の検出結果に基づいて、第2の認証用画像との間で照合される第2の登録画像を生成する、
    請求項8に記載の情報処理装置。
  17. 前記情報処理装置は、
    前記第1の受光素子群による第3の検出結果と前記第1の登録画像とに基づく第1の認証処理を行うことが可能であり、前記第2の受光素子群による第4の検出結果と前記第2の登録画像とに基づく第2の認証処理を行うことが可能である認証処理部を備える、
    請求項16に記載の情報処理装置。
  18. 前記認証処理部は、所定の第1の条件が満たされた場合に、前記第1の認証処理を行い、所定の第2の条件が満たされた場合に、前記第2の認証処理を行う、
    請求項17に記載の情報処理装置。
  19. 前記認証処理部は、前記第1の認証処理が成功し、かつ、前記第2の認証処理が成功した場合に、認証処理が成功した旨を出力する、
    請求項17に記載の情報処理装置。
  20. プロセッサにより、第1のイメージセンサ部によって検出された複数の第1の検出画像と、前記第1のイメージセンサ部と同一平面上に配置された第2のイメージセンサ部によって検出された複数の第2の検出画像とに基づいて、認証用画像との間で照合される登録画像を生成することを含む、
    生体認証用の情報処理方法。
JP2016222832A 2016-11-16 2016-11-16 情報処理装置および情報処理方法 Active JP6862153B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016222832A JP6862153B2 (ja) 2016-11-16 2016-11-16 情報処理装置および情報処理方法
US16/348,512 US11068690B2 (en) 2016-11-16 2017-08-10 Detection device, information processing device, and information processing method
PCT/JP2017/029128 WO2018092368A1 (ja) 2016-11-16 2017-08-10 検出装置、情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016222832A JP6862153B2 (ja) 2016-11-16 2016-11-16 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2018081468A true JP2018081468A (ja) 2018-05-24
JP6862153B2 JP6862153B2 (ja) 2021-04-21

Family

ID=62145409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016222832A Active JP6862153B2 (ja) 2016-11-16 2016-11-16 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US11068690B2 (ja)
JP (1) JP6862153B2 (ja)
WO (1) WO2018092368A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020056547A1 (en) * 2018-09-17 2020-03-26 Fingerprint Cards Ab Biometric imaging device
US11495041B2 (en) * 2019-03-29 2022-11-08 Jumio Corporation Biometric identification using composite hand images
US10970512B2 (en) * 2019-05-29 2021-04-06 Novatek Microelectronics Corp. Fingerprint sensing apparatus and method having large-area sensing mechanism
JP2023182167A (ja) * 2022-06-14 2023-12-26 株式会社 日立産業制御ソリューションズ 非接触型生体認証装置、非接触型生体認証システム、及び非接触型生体認証方法
WO2023245332A1 (zh) * 2022-06-20 2023-12-28 北京小米移动软件有限公司 一种传感器模组、电子设备、感应识别方法及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08279035A (ja) * 1995-04-06 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> 指紋入力装置
JP2002216116A (ja) * 2001-01-16 2002-08-02 Nec Soft Ltd 指紋画像の入力方法、指紋画像の入力装置、プログラム、携帯型情報機器
JP2004178487A (ja) * 2002-11-29 2004-06-24 Toshiba Corp 指紋入力装置
JP2004265269A (ja) * 2003-03-04 2004-09-24 Hitachi Ltd 個人認証装置
JP2008153361A (ja) * 2006-12-15 2008-07-03 Hitachi Ltd 固体撮像素子、光検出器及びこれを用いた認証装置
JP2008181570A (ja) * 2008-04-22 2008-08-07 Hitachi Ltd 生体情報処理装置
JP2009098815A (ja) * 2007-10-15 2009-05-07 Ricoh Co Ltd 画像入力装置及び認証装置及び電子機器
JP2009276976A (ja) * 2008-05-14 2009-11-26 Hitachi Maxell Ltd 撮像装置及び生体情報取得装置
JP2010231336A (ja) * 2009-03-26 2010-10-14 Seiko Epson Corp 撮像装置及び認証装置
WO2011052323A1 (ja) * 2009-10-26 2011-05-05 日本電気株式会社 偽指判定装置および偽指判定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107366A (ja) * 2004-10-08 2006-04-20 Fujitsu Ltd 生体情報入力装置,生体認証装置,生体情報処理方法,生体情報処理プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
US20080049987A1 (en) * 2006-08-28 2008-02-28 Champagne Katrina S Fingerprint recognition system
JP2012168768A (ja) 2011-02-15 2012-09-06 Nec Casio Mobile Communications Ltd 情報端末装置及びその指紋認証方法
US9228824B2 (en) * 2013-05-10 2016-01-05 Ib Korea Ltd. Combined sensor arrays for relief print imaging
US10628569B2 (en) * 2015-06-30 2020-04-21 Huawei Technologies Co., Ltd Method for unlocking screen by using fingerprint and terminal

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08279035A (ja) * 1995-04-06 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> 指紋入力装置
JP2002216116A (ja) * 2001-01-16 2002-08-02 Nec Soft Ltd 指紋画像の入力方法、指紋画像の入力装置、プログラム、携帯型情報機器
JP2004178487A (ja) * 2002-11-29 2004-06-24 Toshiba Corp 指紋入力装置
JP2004265269A (ja) * 2003-03-04 2004-09-24 Hitachi Ltd 個人認証装置
JP2008153361A (ja) * 2006-12-15 2008-07-03 Hitachi Ltd 固体撮像素子、光検出器及びこれを用いた認証装置
JP2009098815A (ja) * 2007-10-15 2009-05-07 Ricoh Co Ltd 画像入力装置及び認証装置及び電子機器
JP2008181570A (ja) * 2008-04-22 2008-08-07 Hitachi Ltd 生体情報処理装置
JP2009276976A (ja) * 2008-05-14 2009-11-26 Hitachi Maxell Ltd 撮像装置及び生体情報取得装置
JP2010231336A (ja) * 2009-03-26 2010-10-14 Seiko Epson Corp 撮像装置及び認証装置
WO2011052323A1 (ja) * 2009-10-26 2011-05-05 日本電気株式会社 偽指判定装置および偽指判定方法

Also Published As

Publication number Publication date
US20190278970A1 (en) 2019-09-12
US11068690B2 (en) 2021-07-20
JP6862153B2 (ja) 2021-04-21
WO2018092368A1 (ja) 2018-05-24

Similar Documents

Publication Publication Date Title
WO2018092368A1 (ja) 検出装置、情報処理装置および情報処理方法
Wang et al. User authentication on mobile devices: Approaches, threats and trends
KR101839860B1 (ko) 동적 키보드 및 터치스크린 생체 측정
US9710632B2 (en) User-authentication gestures
Chen et al. Listen to your fingers: User authentication based on geometry biometrics of touch gesture
US20150077329A1 (en) Eye tracking-based user interface method and apparatus
JP2017205481A (ja) ユーザを認証するための方法、機器及びコンピュータプログラム
WO2019151368A1 (ja) 生体認証装置、システム、方法および記録媒体
KR20200009916A (ko) 전자 장치 및 그 제어 방법
WO2014149646A1 (en) Auxiliary device functionality augmented with fingerprint sensor
CN110134459A (zh) 应用启动方法及相关产品
US11494470B2 (en) Information processing apparatus and information processing method
CN102368288A (zh) 一种验证密码的方法及应用该方法的移动终端
US9785863B2 (en) Fingerprint authentication
Zhang et al. TouchID: User authentication on mobile devices via inertial-touch gesture analysis
KR20190128536A (ko) 전자 장치 및 그 제어 방법
CN104272224A (zh) 用于识别来自虚拟键盘的键输入的方法及装置
TW201544993A (zh) 手勢控制之方法、手勢控制模組及其具有手勢控制模組之穿戴式裝置
JP2014119825A (ja) 情報処理装置、プログラム、及び方法
CN109426758A (zh) 皮肤特征信息的采集方法及装置、计算机可读存储介质
JP2013246567A (ja) 情報処理装置、認証方法およびプログラム
WO2018003225A1 (ja) 情報処理装置、情報処理方法およびプログラム
Chen Security and Privacy in Mobile Devices: Novel Attacks and Countermeasures
TW202111512A (zh) 指紋採集方法、指紋採集裝置及資訊處理裝置
Feng Effective Identity Management on Mobile Devices Using Multi-Sensor Measurements

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190426

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210331

R150 Certificate of patent or registration of utility model

Ref document number: 6862153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150