JP2016212636A - 生体撮影装置、生体撮影方法及び生体撮影プログラム - Google Patents

生体撮影装置、生体撮影方法及び生体撮影プログラム Download PDF

Info

Publication number
JP2016212636A
JP2016212636A JP2015095935A JP2015095935A JP2016212636A JP 2016212636 A JP2016212636 A JP 2016212636A JP 2015095935 A JP2015095935 A JP 2015095935A JP 2015095935 A JP2015095935 A JP 2015095935A JP 2016212636 A JP2016212636 A JP 2016212636A
Authority
JP
Japan
Prior art keywords
touch
input
touch location
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015095935A
Other languages
English (en)
Other versions
JP6657593B2 (ja
Inventor
幸弘 安孫子
Yukihiro Abiko
幸弘 安孫子
壮一 ▲浜▼
壮一 ▲浜▼
Soichi Hama
智司 前田
Tomoji Maeda
智司 前田
聡史 仙波
Satoshi Senba
聡史 仙波
元 名田
Hajime Nada
元 名田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015095935A priority Critical patent/JP6657593B2/ja
Priority to EP16167223.3A priority patent/EP3091480B1/en
Priority to US15/139,690 priority patent/US10102413B2/en
Publication of JP2016212636A publication Critical patent/JP2016212636A/ja
Application granted granted Critical
Publication of JP6657593B2 publication Critical patent/JP6657593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】生体撮影装置、生体撮影方法及び生体撮影プログラムにおいて、生体認証の精度を向上することを目的とする。【解決手段】操作部への入力を検出する検出部と、前記検出部による第1の入力の検出に応じて、前記操作部における操作位置の指示を出力させる制御部と、前記第1の入力の検出後に生体画像を撮像する生体撮像部と、を備えるように構成する。【選択図】図1

Description

本発明は、生体撮影装置、生体撮影方法及び生体撮影プログラムに関する。
近年、携帯電話などの携帯端末の中には、生体認証機能を備えた携帯端末がある。生体認証機能を備えた携帯端末は、例えば携帯端末に設けられたカメラで生体を撮影する。しかし、カメラの大きさ、性能などの仕様によっては、生体認証に用いる生体部位の一部しか撮影できない場合がある。例えば、生体認証機能を備えたスマートフォンなどの小型の携帯端末の場合、生体部位を撮影するカメラの大きさが制限され、一度に撮影可能な生体部位の範囲が狭いので、生体認証に用いる生体部位の全体を一度に撮影することは困難である。
生体部位の一部の撮影画像だけを用いた生体認証では、高い認証精度を得ることは難しい。例えば、生体認証の一例である手のひらの静脈を用いた手のひら認証の場合、手のひらの一部の撮影画像だけを用いた手のひら認証では、手のひら全体の撮影画像を用いた生体認証と比べると、認証精度が低下する。
例えば、生体認証の他の例である指紋認証では、指紋認証に用いる生体部位を複数回撮影し、できるだけ多くの撮影画像に基づいて指紋認証を行うことが提案されている(例えば、特許文献1,2)。しかし、このような指紋認証の場合、撮影された指紋画像が照合される登録テンプレートのうち、指紋認証に用いる領域を適切に特定することは難しい。また、指紋などの生体部位を複数回撮影する場合、携帯端末の利用者の癖などにより撮影される生体部位の部分に偏りが生じる可能性があり、生体認証に適した生体部位を効率良く撮影することは困難である。このため、生体部位を複数回撮影しても、高い認証精度を得ることは難しい。
一方、携帯端末のカメラで生体部位を撮影する場合、撮影範囲は携帯端末の利用者の操作に依存する。利用者が手で携帯端末を保持した状態で生体部位を撮影する場合も、例えば携帯端末を机の上に置いた状態で利用者が指紋などの生体部位をカメラに近づける場合も、撮影される生体部位の範囲は毎回異なってしまう。
このため、撮影した際の撮影範囲が生体認証に適した生体部位を十分捉えていないなどの理由で生体認証に失敗した場合、生体部位を撮影し直す必要がある(例えば、特許文献3,4)。携帯端末は、生体認証が失敗して生体部位を撮影し直す必要がある場合には、利用者に再度撮影操作を行うよう促すことができるが、利用者側では再度撮影する際にどのような撮影範囲を撮影すれば良いかを判断することは難しい。この結果、生体認証が失敗した場合に生体部位を撮影し直す回数は、利用者の撮影操作に依存するため安定しない。利用者が生体部位を撮影し直す回数が増加する程、携帯端末の利便性が損なわれる。また、利用者が生体部位を撮影し直す回数が増加しても、生体認証が成功する確率が向上することはあっても、認証精度が向上する保証はない。
国際公開WO2004/097741号公報 特開2002−024831号公報 特開2003−085540号公報 特開2007−122164号公報 特開2005−312749号公報 特開2006−331239号公報
従来の生体認証機能を備えた携帯端末では、生体認証の精度を向上することは難しい。
そこで、1つの側面では、生体認証の精度を向上可能な生体撮影装置、生体撮影方法及び生体撮影プログラムを提供することを目的とする。
1つの案によれば、操作部への入力を検出する検出部と、前記検出部による第1の入力の検出に応じて、前記操作部における操作位置の指示を出力させる制御部と、前記第1の入力の検出後に生体画像を撮像する生体撮像部と、を備えた生体撮影装置が提供される。
一態様によれば、生体認証の精度を向上できる。
一実施例における端末装置のハードウェア構成の一例を示すブロック図である。 一実施例における生体認証装置の構成の一例を示す機能ブロック図である。 一実施例における端末装置の操作の一例を説明する図である。 撮像範囲の拡大の一例を説明する図である。 撮像範囲の拡大の他の例を説明する図である。 タッチパネル上に表示するタッチ場所の一例を示す図である。 利用者が指先でZ字状のタッチ場所をなぞった場合の撮像範囲を説明する図である。 端末装置の入力待ち受け状態の表示の一例を示す図である。 一実施例における生体撮影処理の一例を説明するフローチャートである。 タッチ場所の第1の例を説明する図である。 タッチ場所の第2の例を説明する図である。 タッチ場所の第3の例を説明する図である。 タッチ場所の第4の例を説明する図である。 タッチ場所の第5の例を説明する図である。 タッチ場所の第6の例を説明する図である。 タッチ場所の第7の例を説明する図である。 タッチ場所の第8の例を説明する図である。 タッチ場所の第9の例を説明する図である。 タッチ場所の第10の例を説明する図である。 図19に示す端末装置の操作状態を説明する図である。 図19に示す端末装置の操作の一例を説明する図である。
開示の生体撮影装置、生体撮影方法及び生体撮影プログラムでは、操作部への入力の検出に応じて、操作部における操作位置の指示を出力させ、前記入力の検出後に生体撮像部により生体画像を撮像する。
以下に、開示の生体撮影装置、生体撮影方法及び生体撮影プログラムの各実施例を図面と共に説明する。
生体認証技術は、指紋、顔、手のひら、虹彩、静脈などの個人毎に異なる特徴的な生体情報を用いて本人確認を行う。例えば、手のひら認証は、掌紋、掌形、手のひら静脈などの生体情報を用いて生体認証を行う。以下の説明では、手のひら認証を例に説明するが、生体認証は手のひら認証に限定されるものではない。
一実施例において、以下に説明する生体撮影装置及び生体認証装置は、端末装置に搭載可能である。端末装置は、携帯端末であっても良い。従って、端末装置には、パーソナルコンピュータ、タブレット、スマートフォンなどが含まれる。また、生体撮影装置は、生体認証装置に含まれていても良い。
図1は、一実施例における端末装置のハードウェア構成の一例を示すブロック図である。この例では、端末装置1は、タブレット、スマートフォンなどの携帯端末である。端末装置1は、図1に示す如く接続されたCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、入力デバイス14、表示デバイス15、及びセンサ部16を有する。端末装置1が通信機能を有する場合には、送受信を行う周知の通信部(図示せず)をさらに有しても良い。また、端末装置1がインターネットなどの外部のネットワーク(図示せず)と接続する機能を有する場合には、周知のインタフェース(図示せず)をさらに有しても良い。
CPU11は、端末装置1全体の制御を司る制御部(または、コンピュータ)の一例である。従って、制御部は、生体撮影装置及び生体認証装置の制御をも司る。ROM12及びRAM13は、記憶部の一例である記憶装置21を形成しても良い。入力デバイス14及び表示デバイス15は、操作部の一例である。この例では、入力デバイス14及び表示デバイス15は、タッチパネル22に含まれる。センサ部16は、生体撮像部の一例である。
CPU11は、ROM12に格納された生体撮影プログラムを含むコンピュータプログラムを実行することにより、生体撮影装置及び生体認証装置を含む端末装置1の種々の機能を実現できる。ROM12は、CPU11が実行するコンピュータプログラム、各種データなどを格納する。ROM12は、プログラムを格納したコンピュータ読み取り可能な記憶媒体の一例である。RAM13は、各種データの他に登録テンプレートを格納する。
入力デバイス14は、利用者が指で操作のために触れた(以下、「タッチした」とも言う)入力デバイス14上の位置に基づいた電気信号をデジタル情報に変換してCPU11に入力する機能を有し、利用者がタッチした位置の座標、利用者がタッチした位置が表す文字などの情報をCPU11に入力する機能も有する。つまり、入力デバイス14(または、タッチパネル22)は、操作部の一例であるタッチパネル22への入力を検出する検出部の一例である。表示デバイス15は、文字、図、メッセージなどに加え、後述するように、利用者の指先の現在位置を含む入力デバイス14上の入力位置、移動方向、操作位置を含むタッチ場所、タッチ場所の移動指示などを表示する機能を有する。
センサ部16は、接触式あるいは非接触式で生体の部位を撮像する機能を有する。センサ部16は、接触式であっても、非接触式であっても良い。センサ部16が接触式の場合、入力デバイス14と、表示デバイス15と、センサ部16とが一体となった指紋センサ内蔵タッチパネルを利用しても良い。一方、センサ部16が非接触式の場合、少なくともカメラを含み、生体照明光源を含んでも良い。この例では、センサ部16は、端末装置1のタッチパネル22と同じ表面の、タッチパネル22の周辺の位置に取り付けられている。
センサ部16は、例えば手のひらの掌紋や掌形、顔などを撮像するカメラで形成可能である。また、センサ部16は、例えば手のひらの静脈、指の静脈、虹彩などを撮像する近赤外波長領域に感度を持つイメージセンサ(または、カメラ)と近赤外光照明光源とを含む近赤外センサ(または、近赤外カメラ)で形成可能である。また、センサ部16は、近赤外波長領域以外の波長領域に感度を持つカメラと、近赤外センサとの両方を含んでも良い。
この例では、タッチパネル22が入力デバイス14と表示デバイス15の機能を兼ね備えているが、操作部はタッチパネル22に限定されず、トラックパッド、キーボード、デジタイザなどの装置を用いても良い。
図2は、一実施例における生体認証装置の構成の一例を示す機能ブロック図である。図2に示す生体認証装置31は、生体撮像部32、特徴抽出部33、照合部34、記憶部35、及び判定部36を有する。生体撮像部32は、例えば図1のセンサ部16で形成可能である。特徴抽出部33、照合部34、及び判定部36は、例えば図1のCPU11により形成可能であり、例えばCPU11が形成する制御部に含まれても良い。記憶部35は、例えば図1の記憶装置21により形成可能である。
生体認証装置31が実行する生体認証処理では、予め記憶部35に登録されている特徴情報と、本人確認時に生体撮像部32が撮像した利用者の生体画像情報から特徴抽出部33が抽出した特徴情報とを、照合部34で比較照合する。判定部36は、照合部34での比較照合の結果が所定の閾値の範囲内で一致するか否かを判定して本人確認結果を出力する。判定部36は、照合部34での比較照合の結果が一致すれば生体認証が成功したと判定し、利用者が本人であることを表す本人確認結果を出力する。
予め登録されている特徴情報は、例えば登録テンプレートと呼ばれる場合がある。登録テンプレートの登録処理では、上記生体認証処理の場合と同様に、生体撮像部32が撮像した利用者の生体画像情報から特徴抽出部33が特徴情報を抽出する。そして、登録テンプレートは、このように抽出した特徴情報を記憶部35に供給することで登録される。なお、記憶部35に登録される登録テンプレートは、特徴情報に処理を施されたものであっても良い。
記憶部35は、図2の例では生体認証装置31内に設けられているが、記憶部35の記憶内容の一部または全部が生体認証装置31外の記憶部に記憶されていても良い。例えば、記憶部35の一例であるHDD(Hard Disk Drive)、フラッシュメモリなどが、USB(Universal Serial Bus)などのインタフェースを介して生体認証装置31に外部接続されていても良い。また、記憶部35は、生体認証装置31とネットワーク(図示せず)を介して接続可能なデータベースを形成しても良い。
図3は、一実施例における端末装置の操作の一例を説明する図である。図3中、(a)は利用者100により操作される端末装置1の平面図を示し、(b)は利用者100により操作される端末装置1の側面図を示す。この例では、端末装置1は、平面図上で大略長方形を有する筐体1Aの上面にタッチパネル22が設けられ、タッチパネル22の周辺の位置の一例である下側の位置に、センサ部16が設けられている。つまり、利用者100が指先で縦長の姿勢にある端末装置1を操作する場合、指先でタッチパネル22上の入力位置にタッチする際に、利用者100の手のひら100Aを撮像できる、タッチパネル22と同じ筐体1Aの上面の位置にセンサ部16が配置されている。センサ部16により撮像される手のひら100Aの撮像範囲16Aは、図3(a)中破線で囲んで示すように、センサ部16のカメラの画角、センサ部16と手のひら100Aとの間の距離などに応じて決まる。このため、センサ部16の撮像範囲16Aは、手のひら100Aの一部分に相当する。
なお、図3に示す例では、タッチパネル22の周辺位置には、センサ部16に加え、別のセンサ部(または、カメラ)161と、入力デバイス14の一例であるマイクロホン141とが設けられている。別のセンサ部161及びマイクロホン141は、この例では筐体1Aの上面の上側の位置、即ち、センサ部16とは異なる位置に設けられている。なお、別のセンサ部161及びマイクロホン141のうち少なくとも一方は、筐体1Aの上面のセンサ部16と同じ側(例えば、下側)の位置に設けられていても良い。
図4は、撮像範囲の拡大の一例を説明する図である。図4中、(a)はタッチパネル22上の入力範囲221とセンサ部16の撮像範囲16Aの関係を示す平面図であり、(b)はタッチパネル22上の入力位置に応じた撮像範囲16Aの変化を示す平面図である。利用者100が指先で図4(a)に示すタッチパネル22上の太い実線で示す入力範囲221内の中心位置をタッチすると、センサ部16の撮像範囲16Aは太い実線で示す拡大撮像範囲16B内の領域を撮像する。この例では、センサ部16の撮像範囲16Aは高さV及び幅Hを有する長方形を有するが、撮像範囲16Aは例えば正方形であっても良い。
利用者100が指先のタッチ位置を入力範囲221内の中心位置から例えば上下左右へ移動させることで、センサ部16の撮像範囲16Aは高さV及び幅Hの拡大撮像範囲16B内で手のひら100Aを撮像可能である。筐体1A上のタッチパネル22とセンサ部16の配置(即ち、タッチパネル22に対するセンサ部16の位置)は既知であるため、センサ部16と手のひら100Aとの間の距離が略一定であれば、利用者100が指先でタッチしているタッチパネル22上の位置からセンサ部16の撮像範囲16A内となる手のひら100Aの領域が決まる。
このため、図4(b)に示すように、利用者100が指先をタッチパネル22上の入力範囲221内の中心位置に対して高さ方向に沿って距離Vだけ上方向へ移動すると、センサ部16の撮像範囲16Aは高さ方向に沿って距離Vだけ下方向へ拡大する。同様にして、利用者100が指先をタッチパネル22上の入力範囲221内の中心位置に対して高さ方向に沿って距離Vだけ下方向へ移動すると、センサ部16の撮像範囲16Aは高さ方向に沿って距離Vだけ上方向へ拡大する。さらに、利用者100が指先をタッチパネル22上の入力範囲221内の中心位置に対して幅方向に沿って距離Hだけ左方向へ移動すると、センサ部16の撮像範囲16Aは幅方向に沿って距離Hだけ右方向へ拡大する。利用者100が指先をタッチパネル22上の入力範囲221内の中心位置に対して幅方向に沿って距離Hだけ右方向へ移動すると、センサ部16の撮像範囲16Aは幅方向に沿って距離Hだけ左方向へ拡大する。従って、利用者100が指先のタッチ位置をタッチパネル22上の入力範囲221内の中心位置に対して上下左右に移動することで、センサ部16の撮像範囲16Aは最大で高さV+V+V及び幅H+H+Hを有する四辺形の拡大撮像範囲16Bまで拡大できる。
図5は、撮像範囲の拡大の他の例を説明する図である。図5は、説明の便宜上、タッチパネル22上の入力範囲221のみを示す。
一般的に、利用者100が指先でタッチパネル22上の入力位置をタッチする場合、利用者100が目で見ているタッチパネル22上の入力位置と、利用者100の指先が実際にタッチするタッチパネル22上のタッチ位置とでは、オフセットが生じる。そこで、高さ方向のオフセットV及び幅方向のオフセットHを考慮してタッチパネル22上の入力範囲221の高さをV+V+Vに設定し、幅をH+H+Hに設定することで、センサ部16の撮像範囲16Aを最大で高さV+V+V+V及び幅H+H+H+Hを有する四辺形の拡大撮像範囲16Bまで拡大できる。
さらに、利用者100がタッチパネル22上の操作に熟練した場合などには、利用者100が指先でタッチパネル22上に表示された入力範囲221内をタッチする際にタッチ位置が入力範囲221の内側に入ると想定される。そこで、入力範囲221の外周縁と、利用者100の指先が実際にタッチするタッチパネル22上の入力範囲221内のタッチ位置との間の高さ方向のマージンV及び幅方向のマージンHを考慮して、タッチパネル22上の入力範囲221の高さをV+V+Vに設定し、幅をH+H+Hに設定することで、センサ部16の撮像範囲16Aを最大で高さV+V+V+V及び幅H+H+H+Hを有する四辺形の拡大撮像範囲16Bまで拡大できる。
図5は、高さ方向のオフセットV及び幅方向のオフセットHと、高さ方向のマージンV及び幅方向のマージンHとの両方を考慮した場合のタッチパネル22上の入力範囲221を示す。この場合、太い実線で囲んで示すように、入力範囲221の高さはV+V+V+Vに設定され、幅はH+H+H+Hに設定されている。なお、図5中、太い破線で囲まれた範囲221Aは、入力範囲221を提示することによって、利用者100が指先でタッチパネル22上をタッチする際に期待されるタッチ位置の最小の範囲を示す。つまり、マージンVmとHmないしオフセットVfとHfを加えて入力範囲221を設定することで、少なくとも高さV+V+V及び幅H+H+Hの拡大撮像範囲16Bを撮像できる。
次に、タッチパネル上に表示するタッチ場所の一例を、図6と共に説明する。図6は、タッチパネル上に表示するタッチ場所の一例を示す図である。タッチパネル22上のタッチ場所の表示は、制御部の一例であるCPU11により制御可能である。
図6中、(a)は範囲221Aに対してZ字状のタッチ場所222をタッチパネル22上に表示する例、(b)は範囲221Aに対して略矩形状のタッチ場所223をタッチパネル22上に表示する例、(c)は範囲221Aに対して略円形状のタッチ場所224をタッチパネル22上に表示する例を示す。図6において、薄いハッチングが施された部分は、表示されたタッチ場所222,223,224を示し、濃いハッチングが施された部分は、利用者100が指先でタッチ済み、即ち、入力済みのタッチ場所を示し、白抜きの矢印は、利用者100の指先の現在の入力位置と移動方向を示す。タッチ場所222,223,224は、操作部における操作位置の指示の一例であり、タッチ場所の移動指示の一例であっても良い。つまり、操作部上の操作位置は、利用者100に操作を誘導する指示(または、案内)である。また、操作部上のタッチ場所は、利用者100に操作位置を含む移動ルートなどのタッチ場所の移動指示(または、移動案内)をするものである。
従って、図6に示す例では、タッチパネル22上で、各タッチ場所222,223,224のうち、濃いハッチングが施された部分は第1の入力が検出された入力済みの操作位置を示し、白抜きの矢印は入力方向を示し、白抜きの矢印の先の薄いハッチングが施された部分は利用者100に第2の入力を指示する操作位置を示す。この例では、各タッチ場所222,223,224は、利用者100の指先でタッチされる前の状態では、薄いハッチングが施された部分により利用者100に入力を指示する操作位置の全ての範囲を表示する。このため、利用者100が、指先でタッチ場所222,223,224のいずれかをなぞるようにタッチしてスライドさせる(以下、「スライド指示を行う」とも言う)と、タッチパネル22上に表示され薄いハッチングが施された入力を指示する操作位置のうち、なぞられた操作位置が濃いハッチングが施された入力済みの操作位置に順次変わる。また、利用者100は、指先でタッチ場所222,223,224のいずれかに対してスライド指示を行うことで、タッチパネル22上で操作している利用者100の手のひら100Aに対するセンサ部16の撮像範囲16Aが拡大撮像範囲16Bに拡大される。
なお、各タッチ場所222,223,224は、利用者100の指先でタッチされる前の状態では、薄いハッチングが施された部分により利用者100に第1の入力を指示する操作位置のみを表示するようにしても良い。この場合、利用者100が、指先でタッチ場所222,223,224のいずれかの第1の入力を指示する操作位置をタッチすると、タッチされた操作位置が濃いハッチングが施された入力済みの操作位置に変わり、薄いハッチングを施された部分により利用者100に第2の入力を指示する操作位置が表示される。同様にして、利用者100が、指先でタッチ場所222,223,224のいずれかの第2の入力を指示する操作位置をタッチすると、タッチされた操作位置が濃いハッチングが施された入力済みの操作位置に変わり、薄いハッチングを施された部分により利用者100に第3の入力を指示する操作位置が表示される。このように、タッチパネル22に第1のタッチ場所の表示後、第1のタッチ場所から場所が変更された第2のタッチ場所を表示しても良い。
図7は、利用者が指先でZ字状のタッチ場所をなぞった場合の撮像範囲を説明する図である。図7中、(a)は、利用者100が指先で図6(a)に示すZ字状のタッチ場所222の上側部分を左側から右側へなぞった場合に、センサ部16が矢印方向に撮像する拡大撮像範囲16Bにおける撮像範囲162を示す。図7中、(b)は、利用者100が指先で図6(a)に示すZ字状のタッチ場所222の上側の右側部分から下側の左側部分へなぞった場合に、センサ部16が矢印方向に撮像する拡大撮像範囲16Bにおける撮像範囲163を示す。図7中、(c)は、利用者100が指先で図6(a)に示すZ字状のタッチ場所222の下側部分を左側から右側へなぞった場合に、センサ部16が矢印方向に撮像する拡大撮像範囲16Bにおける撮像範囲164を示す。
このように、センサ部16は、利用者100が指先でタッチパネル22上のタッチ場所に対してスライド指示を行うのに伴い、利用者100の手のひら100Aに対する撮像範囲16Aを拡大撮像範囲16Bへ拡大して、手のひら100Aを撮像範囲16Aより大きな拡大撮像範囲16Bで撮像する。
図8は、端末装置の入力待ち受け状態の表示の一例を示す図である。図8中、図6と同一部分には同一符号を付し、その説明は省略する。図8(a)は、端末装置1の入力待ち受け状態において、図6(a)のように範囲221Aに対してZ字状のタッチ場所222をタッチパネル22上に表示する場合を示す。同様に、図8(b)は、端末装置1の入力待ち受け状態において、図6(b)のように範囲221Aに対して略矩形状のタッチ場所223をタッチパネル22上に表示する場合を示す。また、図8(c)は、端末装置1の入力待ち受け状態において、図6(c)のように範囲221Aに対して略円形状のタッチ場所224をタッチパネル22上に表示する場合を示す。端末装置1の入力待ち受け状態では、少なくとも第1の入力を指示する操作位置と入力方向(または、移動方向)を表示し、利用者100が指先で第1の入力を指示する操作位置をタッチすると、少なくとも第2の入力を指示する操作位置を表示する。図8に示す例では、第1及び第2の入力を指示する操作位置を含む、入力を指示する操作位置の全ての範囲と入力方向とを表示している。図8の例では、入力方向を白抜きの矢印で示すが、実際の表示はこのような矢印に限定されない。
タッチパネル22に表示されるタッチ場所222,223,224などの移動指示は、直線状、Z字状、略矩形状、円形及び楕円形を含む略円形状、及び略三角形状のうち少なくとも1つであっても良い。
次に、一実施例における生体撮影処理の一例を、図9と共に説明する。図9は、一実施例における生体撮影処理の一例を説明するフローチャートである。図9に示す生体撮影処理は、制御部により実行可能であり、例えば図1に示すCPU11が生体撮影プログラムを実行することで実現できる。
図9において、ステップS1では、制御部が、検出部により検出された、利用者100が指先でタッチしたタッチパネル22上の入力位置を描画する。ステップS2では、制御部が、検出部により検出された、タッチパネル22上の全ての入力位置を描画したか否かを判定する。ステップS2の判定結果がNOであると、制御部の処理はステップS1戻る。一方、ステップS2の判定結果がYESであると、ステップS3では、制御部が、検出部により検出された、タッチパネル22上の入力位置に応じて、タッチパネル22上に操作位置の一例である入力位置の候補を描画して表示する。
つまり、ステップS3において、制御部は、検出部による第1の入力の検出に応じて、操作部における操作位置の指示を出力させる。制御部は、検出した第1の入力の位置に応じて操作位置を設定しても良く、制御部は、例えば記憶部に記憶した位置に操作位置を設定しても良い。
ステップS4では、制御部がタッチパネル22上の操作位置の一例である入力位置の候補に入力があるか否か、即ち、利用者100が指先でタッチした入力位置の候補があるか否かを判定する。制御部は、ステップS4の判定結果がYESになるまで判定を繰り返す。ステップS4の判定結果がYESであると、ステップS5では、制御部がタッチパネル22上で入力位置の候補へ入力済みであること、即ち、利用者100が指先で入力位置の候補をタッチ済みであることを識別可能に描画して表示する。例えば図6のようなタッチ場所222,223,224を表示する場合であれば、タッチ済みの入力位置の候補が濃いハッチングで示されるように表示される。
ステップS5において、制御部は、タッチパネル22上にタッチ済みの第1のタッチ場所を表示した後、第1のタッチ場所から場所が変更された第2のタッチ場所を表示させても良い。例えば図6のようなタッチ場所222,223,224を表示する場合であれば、タッチ済みの入力位置の候補が濃いハッチングで示されるように表示された後、次の入力位置の候補が薄いハッチングで示されるように表示される。第1のタッチ場所は、生体撮像部の撮像対象が、利用者100の手首側の手のひら100Aとなる位置に設定され、第2のタッチ場所は、生体撮像部の撮像対象が、利用者100の指先側の手のひら100Aとなる位置に設定されても良い。この場合、利用者100の指先の移動方向は、例えば図3において下方向であっても良い。また、第1のタッチ場所は、生体撮像部の撮像対象が、利用者100の指先側の手のひら100Aとなる位置に設定され、第2のタッチ場所は、生体撮像部の撮像対象が、利用者100の手首側の手のひら100Aとなる位置に設定されても良い。この後者の場合、利用者100の指先の移動方向は、例えば図3において上方向であっても良い。
また、ステップS5において、制御部は、タッチパネル22に移動ルートの表示などの、タッチ場所の移動指示の表示をさせても良い。移動指示は、例えば2本以上の指先のスライド指示であっても良い。さらに、移動指示は、例えば直線状、Z字状、略矩形状、円形及び楕円形を含む略円形状、及び略三角形状のうち、少なくとも1つであっても良い。
ステップS6では、センサ部16を制御して生体の一例である利用者100の手のひら100Aの撮像を開始する。撮像の開始とは、センサ部16から入力された利用者の生体画像情報を記憶部に記憶を開始するように構成しても良い。また、記憶部への記憶を開始するまでに遅延ΔTがある場合には、リングバッファを構成するなどしてタイムスタンプTと共にステップS1以前、或いは、ステップS3以前から記憶部へ生体画像情報の記憶を開始させ、ステップS6でのタイムスタンプTに基づいてT'≦T−ΔTを満たす最も大きいタイムスタンプT'max以降に撮影された生体画像情報を記憶部に記憶するように構成しても良い。
ステップS7では、制御部がタッチパネル22上の入力位置の候補に入力があるか否か、即ち、利用者100が指先でタッチした入力位置の候補があるか否かを判定する。制御部は、ステップS7の判定結果がYESになるまで判定を繰り返す。
ステップS7の判定結果がYESであると、ステップS8では、制御部がタッチパネル22上で入力位置の候補へ入力済みであること、即ち、利用者100が指先で入力位置の候補をタッチ済みであることを、上記のステップS5の場合と同様に、識別可能に描画して表示する。
ステップS8において、制御部は、タッチパネル22上にタッチ済みの第1のタッチ場所を表示した後、第1のタッチ場所から場所が変更された第2のタッチ場所を表示させても良い。また、ステップS8において、制御部は、タッチパネル22上に移動ルートの表示などの、タッチ場所の移動指示の表示をさせても良い。
ステップS9では、制御部はタッチパネル22上でタッチ場所の一例である入力位置の候補が全て入力済みであるか否かを判定する。ステップS9の判定結果がNOであると、制御部の処理はステップS7へ戻る。一方、ステップS9の判定結果がYESであると、ステップS10では、制御部がセンサ部16を制御して生体の一例である利用者100の手のひら100Aの撮像を完了し、処理は終了する。
制御部は、撮像範囲に対する生体情報の信頼度に基づいて、生体撮像の完了を判定しても良い。例えば、入力済みの入力位置のタッチパネル22上の位置に基づいて、撮像範囲の面積を利用して生体情報の信頼度を算出しても良い。具体的には、最大の撮像範囲に対して撮像された撮像範囲が占める割合を、生体情報の信頼度としても良い。
(タッチ場所の第1の例)
図10は、タッチ場所の第1の例を説明する図である。図10中、(a)は利用者100により操作される端末装置1の平面図を示し、(b)は利用者100により操作される端末装置1の側面図を示す。図10中、図3と同一部分には同一符号を付し、その説明は省略する。図10に示す例では、タッチパネル22上に、直線状のタッチ場所225を2本以上表示する。この例では、縦方向に延びるタッチ場所225が3本表示される。利用者100は、指先(この例では人差し指、中指、及び薬指)で3本のタッチ場所225を同時になぞり、センサ部16はその間撮像範囲16A内で手のひら100Aを撮像する。利用者100が複数の指先でタッチ場所225に対して同時にスライド指示を行う場合、複数の指先がタッチパネル22上を同時にスライドする間、手のひら100Aのタッチパネル22に対する角度は安定しており大きく変化することはない。このため、端末装置1と利用者100の手との相対的な角度のずれを低減して、センサ部16により手のひら100Aを安定に撮像できる。
なお、図10では、操作位置の全ての範囲を含む3本のタッチ場所225を夫々連続的にタッチパネル22上に表示しているが、間欠的に表示しても良い。
(タッチ場所の第2の例)
図11は、タッチ場所の第2の例を説明する図である。図11中、(a)は利用者100により操作される端末装置1の平面図を示し、(b)は利用者100により操作される端末装置1の側面図を示す。図11中、図10と同一部分には同一符号を付し、その説明は省略する。図11に示す例では、制御部は、タッチパネル22上に、第1の入力を指示する操作位置325を各タッチ場所225について表示する。この例では、図11(a)に示すように、黒塗りで示す操作位置325内に、白抜きの矢印で移動方向を表示する。利用者100が第1の入力を指示する操作位置325をタッチして第1の入力が済むと、図11(b)に示すように、入力済みのタッチ場所225Aを、濃いハッチングで示すように識別可能に表示する。また、第1の入力が済むと、少なくとも第2の入力を指示する操作位置を含むタッチ場所225を薄いハッチングで示すように識別可能に表示する。以下同様にして、利用者100が第2の入力を指示する操作位置325をタッチして第2の入力が済むと、入力済みのタッチ場所225Aを濃いハッチングで示すように識別可能に表示し、少なくとも第3の入力を指示する操作位置を含むタッチ場所225を薄いハッチングで示すように識別可能に表示する。なお、説明の便宜上、図11では、図10の場合と同様に、操作位置の全ての範囲を含む3本のタッチ場所225を示している。
図11の例では、利用者100は指先で各タッチ場所225の操作位置325をガイドとして、指先を操作位置325に乗せた状態で各タッチ場所225に対して同時にスライド指示を行うことができる。利用者100の複数の指先が操作位置325をガイドとしてタッチパネル22上を同時にスライドする間、手のひら100Aのタッチパネル22に対する角度は安定しており大きく変化することはない。このため、端末装置1と利用者100の手との相対的な角度のずれを低減して、センサ部16により手のひら100Aを安定に撮像できる。
図11において、例えば第1の入力を指示する操作位置へ入力された(即ち、タッチされた)時点から、次の第2の入力を指示する操作位置が表示されて入力可能となる時点までの距離Lと時間ΔTとの間には、センサ部16の撮像距離V及びフレームレートfを用いると次の関係(1)が成立する。ここで、距離Lは、利用者100がタッチパネル22上で指先をスライド操作する縦方向(図11中、白抜きの矢印方向)上の距離を表し、撮像距離Vは、センサ部16の撮像範囲16Aの縦方向上の距離を表す。
L/ΔT < V×f
L < V×ΔT×f ・・・(1)
例えば、センサ部16の撮像距離Vが30mmであり、撮像間隔が20fps(frames per second)の場合、理想的には最大600mm/秒の速さの手の動きを隙間なく連続して撮像することができる。タッチパネル22(表示デバイス15)の画面表示の更新頻度が50Hzであり、この更新頻度に合わせてタッチパネル22(表示デバイス15)上の画面表示を更新する場合、ΔT=1/50=0.02秒であるから、L<12mmとなる。
なお、連続してセンサ部16が撮像するときの撮像範囲16Aが縦方向上で重なり合う範囲をSで表すと、次の関係(2)が成立する。
L/ΔT < (V−S)×f
L < (V‐S)×f×ΔT ・・・(2)
重なり合う範囲Sは、撮像範囲16Aが確実に隙間なく連続しているためのマージンである。このため、重なり合う範囲Sを考慮して上記の距離L及び上記の時間ΔTを設定することで、センサ部16の位置ずれを考慮した正確な撮像範囲16Aを得て、安定した認証精度の生体認証処理が可能となる。
さらに、タッチパネル22(表示デバイス15)の画面表示の更新能力が高い場合や、画面表示の更新による処理の負荷を低減する目的で、N(Nは2以上の自然数)回に1回更新するように画面表示の更新を間引く場合には、次の関係(3)が成立する。
L/(N×ΔT) < (V−S)×f
L<(V‐S)×f×(N×ΔT) ・・・(3)
従って、制御部は、センサ部16及びタッチパネル22(表示デバイス15)の性能を考慮して、上記の関係(1)乃至(3)のいずれかの関係に基づいて操作位置を含むタッチ場所を決定することで、センサ部16は撮像対象である利用者100の手のひら100Aを隙間なく連続して撮像することができる。
操作位置を含むタッチ場所が1直線上に並んでいる場合、制御部は、生体情報の信頼度として撮像距離Vが占める割合の代わりに、最初に入力された入力済みの操作位置(または、タッチ場所)所からの距離を用いても良い。
(タッチ場所の第3の例)
図12は、タッチ場所の第3の例を説明する図である。図12中、(a)は利用者100により操作される端末装置1の平面図を示し、(b)は利用者100により操作される端末装置1の側面図を示す。図12中、図11と同一部分には同一符号を付し、その説明は省略する。図12に示す例では、図11の例のように各タッチ場所225について別々に操作位置325をタッチパネル22に表示する代わりに、制御部は、複数のタッチ場所225について単一の操作位置326を共通のガイドとして表示する。単一の操作位置326は、バー形状を有する。この場合も、センサ部16により手のひら100Aを安定に撮像できる。
(タッチ場所の第4の例)
図13は、タッチ場所の第4の例を説明する図である。図13は、利用者100により操作される端末装置1の平面図を示す。図13中、図10と同一部分には同一符号を付し、その説明は省略する。利用者100が誤って、本来意図されている指とは異なる指でタッチ場所を操作する可能性がある。そこで、図13に示す例では、制御部は、タッチ場所225に加え、タッチパネル22に手の形327を表示することで、利用者100にタッチパネル22をタッチする指を指示する。利用者100は、表示された手の形327に合わせて人差し指、中指、及び薬指をタッチパネル22上に置いてタッチ場所225をなぞれば良いため、利用者100が本来意図されている指とは異なる指による誤操作を防止できる。この場合も、センサ部16により手のひら100Aを安定に撮像できる。なお、制御部は、手の形327の表示は、利用者100の指先のスライド操作に応じて移動させても良い。
(タッチ場所の第5の例)
図14は、タッチ場所の第5の例を説明する図である。図14中、(a)は利用者100により操作される端末装置1の平面図を示し、(b)は利用者100により操作される端末装置1の側面図を示す。図14中、図11と同一部分には同一符号を付し、その説明は省略する。一般的に、人間の中指は他の指より長い。そこで、図14に示す例では、制御部は、タッチパネル22上に、第1の入力を指示する操作位置328を各タッチ場所225について、各指に合わせた縦方向上の位置に表示する。この例では、中央のタッチ場所225の操作位置328が、両側のタッチ場所225の操作位置328より上方に配置されている。この場合、利用者100は、直観的に中央の操作位置328が中指に対応していることを理解できるので、本来意図されている指とは異なる指による誤操作を防止できる。また、各タッチ場所225の操作位置328を、各指の長さに対応した位置に配置することで、利用者100に自然な指の曲げ方での入力を誘導できる。さらに、各指の長さに応じて曲げられた人差し指、中指、及び薬指によって形成されるタッチパネル22上の三角形状(または、三点支持)によって、第1の入力が済んでから表示が次の第2の入力を指示する操作位置に更新されてこの第2の入力が済むまでの利用者100の手の動き及び姿勢を安定化することができる。このように、利用者100は、自然な手の形及び安定した手の形を維持してタッチパネル22を操作できるので、指を不自然に曲げた場合のように指先の移動距離と手全体の移動距離とで差異が生じることがない。従って、センサ部16の拡大撮像範囲16Bが安定化し、再現性が高まるので、安定した認証精度の生体認証処理が可能となる。
(タッチ場所の第6の例)
図15は、タッチ場所の第6の例を説明する図である。図15中、(a)は利用者100により操作される端末装置1の平面図を示し、(b)は利用者100により操作される端末装置1の側面図を示す。図15中、図14と同一部分には同一符号を付し、その説明は省略する。図15に示す例では、図14の例のように各タッチ場所225について別々に操作位置328をタッチパネル22に表示する代わりに、制御部は、複数のタッチ場所225について単一の操作位置329を共通のガイドとして表示する。単一の操作位置329は、この例では各指の長さに応じて「く」の字形状を有する。この場合も、上記第5の例の場合と同様の効果が得られる。
図11と共に説明したタッチ場所の第2の例及び図14と共に説明したタッチ場所の第5の例では、タッチ場所225が入力済みのタッチ場所225Aを操作している手で隠れてしまい、タッチ場所225に合わせた入力が難しくなる場合も想定される。これに対し、図12と共に説明したタッチ場所の第3の例及び図15と共に説明したタッチ場所の第6の例のように、制御部がタッチ場所225を利用者100の入力操作に伴って同期して指示すると共に、操作位置326,329を利用者100の指と指の間から目視可能なバー形状または「く」の字形状とすることで、タッチ場所225に合わせた入力をさらに容易にすることができる。なお、タッチ場所の第3及び第6の例のように、入力操作を行っている指と指との間から視認可能となるよう、3本のタッチ場所225を1つに繋ぎ合わせる操作位置326,329の形状及び表示形式は、特に限定されない。
ところで、図10乃至図15と共に説明したタッチ場所の第1乃至第6の例では、複数のタッチ場所に対して、利用者100が複数の指で入力操作を行うが、一連の入力操作の流れの中では各指による入力がバラバラになりにくい。このため、センサ部16による撮像開始後に、常に全てのタッチ場所に対して同時に入力操作が行われていなくても良い。複数のタッチ場所に対して同時に入力操作が行われていれば、利用者100の手の姿勢は最も安定する。しかし、手の姿勢が安定していても、一瞬、1本でも指がタッチパネル22から浮き上がってしまうと、次のタッチを誘導するタッチ場所が指示されず、手が慣性により次のタッチを誘導するタッチ場所よりも先行してしまい、適切な入力操作が行えなくなる可能性がある。
そこで、タッチ場所の第1乃至第6の例のように3本のタッチ場所が表示される場合には、例えば中央の1本のタッチ場所に対して入力操作が行われていれば、次のタッチを誘導するタッチ場所を3本の全てのタッチ場所について更新しても良い。この場合、3本のタッチ場所の夫々に対する入力操作に応じて次のタッチを誘導するタッチ場所を更新する場合と比較すると、計算量を減らすことができる。他の例としては、3本のタッチ場所のうち例えば左側と右側の2本のタッチ場所に対して入力操作が同時に行われていることを条件に、次のタッチを誘導するタッチ場所を3本の全てのタッチ場所について更新しても良い。
ただし、センサ部16による撮像開始を1本のタッチ場所に対する入力操作のみに基づいて判定すると、手の姿勢が安定していない状態を許容する可能性がある。このため、センサ部16による撮像開始の判定は、複数本のタッチ場所に対する入力操作が同時に行われていることを条件にすることが望ましい。タッチ場所の第1乃至第6の例の場合、例えば左側と右側の2本のタッチ場所に対して、利用者100の人差し指と薬指により同時に入力操作が行われ、中央の1本のタッチ場所に対して入力操作を行う利用者100の中指の位置は自然と制限されるので、手の姿勢が安定化する。従って、例えば両端の2本のタッチ場所に対する入力操作が同時に行われていることを条件に、センサ部16による撮像開始を判定しても良い。
(タッチ場所の第7の例)
図16は、タッチ場所の第7の例を説明する図である。図16は、利用者100により操作される端末装置1の平面図を示す。図16中、図10と同一部分には同一符号を付し、その説明は省略する。また、図16中、別のセンサ部161などの図示は省略する。この例では、利用者100が指先で横長の姿勢にある端末装置1を操作する。利用者100が指先でタッチパネル22上の入力位置にタッチする際に、利用者100の手のひら100Aを撮像できる、タッチパネル22と同じ筐体1Aの上面の位置にセンサ部16が配置されている。このように、タッチパネル22とセンサ部16の位置関係が、操作される姿勢の端末装置1の上下の位置関係だけでなく、左右の位置関係にあっても良い。
図16に示す例では、制御部は、タッチパネル22上に、第1の入力を指示する操作位置525をタッチ場所425について表示する。この例では、図16に示すように、黒塗りで示す操作位置525内に、白抜きの矢印で移動方向を表示する。利用者100が第1の入力を指示する操作位置525をタッチして第1の入力が済むと、図16に示すように、入力済みのタッチ場所425Aを、濃いハッチングで示すように識別可能に表示する。また、第1の入力が済むと、少なくとも第2の入力を指示する操作位置を含むタッチ場所425を薄いハッチングで示すように識別可能に表示する。以下同様にして、利用者100が第2の入力を指示する操作位置525をタッチして第2の入力が済むと、入力済みのタッチ場所425Aを濃いハッチングで示すように識別可能に表示し、少なくとも第3の入力を指示する操作位置を含むタッチ場所425を薄いハッチングで示すように識別可能に表示する。この例では、利用者100は、親指でタッチ場所425に対してスライド指示を行う。
タッチパネル22上に表示するタッチ場所が図16に示す例のように1つの場合には、利用者100が手でタッチパネル22を操作する際に、タッチパネル22の表面に対する法線方向回りに手が回転する姿勢変動が生じ易い。利用者100が指先で横長の姿勢にある端末装置1を操作する際も、タッチ場所が1つの場合には、同様に点の姿勢変動が生じ易い。
これに対し、複数のタッチ場所を表示することで、タッチパネル22の表面に対する法線方向回りに手が回転する姿勢変動を低減して手の姿勢を安定化できる。この結果、センサ部16の拡大撮像範囲16Bが安定化し、再現性が高まるので、安定した認証精度の生体認証処理が可能となる。
(タッチ場所の第8の例)
図17は、タッチ場所の第8の例を説明する図である。図17は、利用者100により操作される端末装置1の平面図を示す。図17中、図16と同一部分には同一符号を付し、その説明は省略する。図17に示す例では、タッチパネル22上に、直線状のタッチ場所425を2本以上表示する。この例では、横方向に延びるタッチ場所425が2本表示される。利用者100は、指先(この例では親指及び人差し指)で2本のタッチ場所425を同時になぞり、センサ部16はその間撮像範囲16A内で手のひら100Aを撮像する。利用者100が複数の指先でタッチ場所225に対して同時にスライド指示を行う場合、複数の指先がタッチパネル22上を同時にスライドする間、手のひら100Aのタッチパネル22に対する角度は安定しており大きく変化することはない。このため、端末装置1と利用者100の手との相対的な角度のずれを低減して、センサ部16により手のひら100Aを安定に撮像できる。
この例では、制御部は、タッチパネル22上に、第1の入力を指示する操作位置525を各タッチ場所425について表示する。この例では、図17に示すように、黒塗りで示す操作位置525内に、白抜きの矢印で移動方向を表示する。利用者100が第1の入力を指示する操作位置525をタッチして第1の入力が済むと、図17に示すように、入力済みのタッチ場所425Aを、濃いハッチングで示すように識別可能に表示する。また、第1の入力が済むと、少なくとも第2の入力を指示する操作位置を含むタッチ場所425を薄いハッチングで示すように識別可能に表示する。以下同様にして、利用者100が第2の入力を指示する操作位置525をタッチして第2の入力が済むと、入力済みのタッチ場所425Aを濃いハッチングで示すように識別可能に表示し、少なくとも第3の入力を指示する操作位置を含むタッチ場所425を薄いハッチングで示すように識別可能に表示する。なお、説明の便宜上、図17では、図10の場合と同様に、操作位置の全ての範囲を含む2本のタッチ場所425を示している。
この例では、利用者100は指先で各タッチ場所425の操作位置525をガイドとして、指先を操作位置525に乗せた状態で各タッチ場所425に対して同時にスライド指示を行うことができる。利用者100の複数の指先が操作位置525をガイドとしてタッチパネル22上を同時にスライドする間、手のひら100Aのタッチパネル22に対する角度は安定しており大きく変化することはない。このため、端末装置1と利用者100の手との相対的な角度のずれを低減して、センサ部16により手のひら100Aを安定に撮像できる。
なお、第1のタッチ場所は、生体撮像部の撮像対象が、利用者100の手首側の手のひら100Aとなる位置に設定され、第2のタッチ場所は、生体撮像部の撮像対象が、利用者100の指先側の手のひら100Aとなる位置に設定されても良い。また、第1のタッチ場所は、生体撮像部の撮像対象が、利用者100の指先側の手のひら100Aとなる位置に設定され、第2のタッチ場所は、生体撮像部の撮像対象が、利用者100の手首側の手のひら100Aとなる位置に設定されても良い。
(タッチ場所の第9の例)
図18は、タッチ場所の第9の例を説明する図である。図18は、利用者100により操作される端末装置1の平面図を示す。図18中、図17と同一部分には同一符号を付し、その説明は省略する。図18に示す例では、図17の例のように各タッチ場所425について別々に操作位置525をタッチパネル22に表示する代わりに、制御部は、複数のタッチ場所425について単一の操作位置526を共通のガイドとして表示する。単一の操作位置526は、バー形状を有する。この場合も、センサ部16により手のひら100Aを安定に撮像できる。
図17と共に説明したタッチ場所の第8の例では、タッチ場所425が入力済みのタッチ場所425Aを操作している手で隠れてしまい、タッチ場所425に合わせた入力が難しくなる場合も想定される。これに対し、図18と共に説明したタッチ場所の第9の例のように、制御部がタッチ場所425を利用者100の入力操作に伴って同期して指示すると共に、操作位置526を利用者100の指と指の間から目視可能なバー形状とすることで、タッチ場所425に合わせた入力をさらに容易にすることができる。なお、タッチ場所の第9の例のように、入力操作を行っている指と指との間から視認可能となるよう、2本のタッチ場所425を1つに繋ぎ合わせる操作位置526の形状及び表示形式は、特に限定されない。
ところで、図17及び図18と共に説明したタッチ場所の第8及び第9の例では、複数のタッチ場所に対して、利用者100が複数の指で入力操作を行うが、一連の入力操作の流れの中では各指による入力がバラバラになりにくい。このため、センサ部16による撮像開始後に、常に全てのタッチ場所に対して同時に入力操作が行われていなくても良い。複数のタッチ場所に対して同時に入力操作が行われていれば、利用者100の手の姿勢は最も安定する。しかし、手の姿勢が安定していても、一瞬、1本でも指がタッチパネル22から浮き上がってしまうと、次のタッチを誘導するタッチ場所が指示されず、手が慣性により次のタッチを誘導するタッチ場所よりも先行してしまい、適切な入力操作が行えなくなる可能性がある。
そこで、タッチ場所の第8及び第9の例のように2本のタッチ場所が表示される場合には、例えば一方の1本のタッチ場所に対して入力操作が行われていれば、次のタッチを誘導するタッチ場所を2本の全てのタッチ場所について更新しても良い。この場合、2本のタッチ場所の夫々に対する入力操作に応じて次のタッチを誘導するタッチ場所を更新する場合と比較すると、計算量を減らすことができる。
ただし、センサ部16による撮像開始を1本のタッチ場所に対する入力操作のみに基づいて判定すると、手の姿勢が安定していない状態を許容する可能性がある。このため、センサ部16による撮像開始の判定は、複数本のタッチ場所に対する入力操作が同時に行われていることを条件にすることが望ましい。
タッチ場所の第1乃至第9の例をタッチパネル22上に表示する場合の生体撮影処理の流れは、図9と共に説明した生体撮影処理の場合と同様で良い。このとき利用者に対してタッチパネル22上を指でスライドさせながら操作する動作となるよう誘導することができる。
(タッチ場所の第10の例)
図19は、タッチ場所の第10の例を説明する図である。図19は、利用者100により操作される端末装置1の平面図を示す。図19中、図3と同一部分には同一符号を付し、その説明は省略する。図19に示す例では、制御部は、タッチパネル22上の薄いハッチングで示すタッチ場所625を、黒塗りで示す入力済みのタッチ場所625Aから所定の距離以上離れた場所に表示する。この例では、タッチパネル22に合計9個のタッチ場所625を表示可能な配置を説明する。タッチ場所の第1乃至第9の例では、利用者100は指先でタッチ場所に対してスライド指示を行うが、この例では、利用者100は指先で場所が変更されるタッチ場所を順にタッチする。
図20は、図19に示す端末装置の操作状態を説明する図である。図20(a)は、制御部がタッチパネル22上に9個のタッチ場所625を表示した、入力待ち受け状態を示す。この入力待ち受け状態では、利用者100は指先で9個のタッチ場所625を任意にタッチして選ぶことができる。
図20(b)は、利用者100が指先で、図20(a)のタッチパネル22上の左上の第1のタッチ場所625をタッチした状態を示す。この状態では、制御部がタッチパネル22上の左上の第1のタッチ場所625Aを入力済みであることを示すように黒塗りで表示する。
図20(c)は、入力済みの第1のタッチ場所625Aに対し、利用者100に指示する第2のタッチ場所の候補625Bを表示した、次の入力待ち受け状態を示す。この状態では、制御部は、最後に入力済みのタッチ場所(この場合、第1のタッチ場所625A)を基準にして、タッチパネル22上で縦横斜め方向に沿って最も遠いタッチ場所625を第2のタッチ場所の候補625Bとして表示する。この例では、左上の、入力済み第1のタッチ場所625Aに対し、濃いハッチングで示すように5個のタッチ場所625が第2のタッチ場所の候補625Bとして表示される。このように、制御部は、タッチパネル22上にタッチ済みの第1のタッチ場所625を表示した後、第1のタッチ場所625Aから場所が変更された第2のタッチ場所を表示させても良い。
第1のタッチ場所は、生体撮像部の撮像対象が、利用者100の手首側の手のひら100Aとなる位置(例えば、タッチパネル22上の上の一列)に設定され、第2のタッチ場所は、生体撮像部の撮像対象が、利用者100の指先側の手のひら100Aとなる位置(例えば、タッチパネル22上の下の一列)に設定されても良い。また、第1のタッチ場所は、生体撮像部の撮像対象が、利用者100の指先側の手のひら100Aとなる位置(例えば、タッチパネル22上の下の一列)に設定され、第2のタッチ場所は、生体撮像部の撮像対象が、利用者100の手首側の手のひら100Aとなる位置(例えば、タッチパネル22上の上の一列)に設定されても良い。
次に、図19に示す端末装置の操作の一例を、図21と共に説明する。図21は、図19に示す端末装置の操作の一例を説明する図である。
図21(a)は、制御部がタッチパネル22上に9個のタッチ場所625を表示した入力待ち受け状態で、利用者100が指先でタッチパネル22上の左上の第1のタッチ場所625−1をタッチした後、入力済みの第1のタッチ場所625−1に対して表示された右上、左下、及び右下の第2のタッチ場所の候補625Bのうち、利用者100が指先で右下の第2のタッチ場所625−2をタッチした入力状態を示す。
図21(b)は、図21(a)の入力状態で、利用者100が指先で左下の第2のタッチ場所625−3をタッチした入力状態を示す。図21(c)は、図21(b)の入力状態で、利用者100が指先で右上の第2のタッチ場所625−4をタッチした入力状態を示す。
制御部は、左上、右下、左下、右上の4つのタッチ場所625−1〜625−4が入力済みになると、その間にセンサ部16が生体認証に用いる撮像範囲を撮像したと判断し、撮像の完了を判定する。
制御部は、入力済みの第1のタッチ場所を基準にして、タッチパネル22上で縦横斜め方向に沿って最も遠いタッチ場所を第2のタッチ場所の候補として表示する際に、マンハッタン距離、或いは、ユークリッド距離などを用いても良い。また、制御部は、入力済みの第1のタッチ場所を基準にして、タッチパネル22上で縦横斜め方向に沿って最も近いタッチ場所を第2のタッチ場所の候補として表示しても良い。従って、第2のタッチ場所の候補は、例えば左上、右上、左下、右下のタッチ場所に限定されず、中央の列のタッチ場所、中央の行のタッチ場所などを候補にすることで、センサ部16は確実に隙間が無く連続して利用者100の手のひら100Aを撮像でき、撮像範囲の信頼性が向上する。このため、高い認証精度が要求される生体認証処理の場合、入力済みの第1のタッチ場所を基準にして、他の全てのタッチ場所を第2のタッチ場所の候補することが望ましい。
さらに、図19乃至図21において、各タッチ場所625において異なる数字、記号、或いは図形を表示しても良い。各タッチ場所625において表示する数字、記号、或いは図形は、図2において登録テンプレートの記憶部35への登録の都度、または、照合部34での比較照合の都度、配置を変えることもできる。例えば、利用者100は登録テンプレートの登録時に入力済みのタッチ場所625に表示された数字、記号、或いは図形を記憶しておき、比較照合時に記憶した数字、記号、或いは図形のタッチ場所625をタッチして選択することも可能である。
制御部は、生体情報の信頼度として撮像範囲が占める割合の代わりに、入力済みのタッチ場所の個数を用いることもできる。具体的には、タッチ場所の第10の例の場合、生体情報の信頼度は、図21(c)において入力済みのタッチ場所の個数、即ち、4個とすることができる。この場合、タッチパネル22上に表示された四隅のタッチ場所625−1〜625−4が入力済みとなり、センサ部16の撮像範囲16Aが拡大撮像範囲16Bに拡大されるため、撮像した生体情報の信頼度が高いと判断する。
例えば、マンハッタン距離を1として、入力済みの第1のタッチ場所を基準にして、第2のタッチ場所の候補を決定する場合には、隣り合う入力済みの多値場所への入力は、センサ部16の撮像範囲16Aが確実に上下または左右に重複している状態を生体情報の信頼度として扱っても良い。
タッチ場所の第10の例をタッチパネル22上に表示する場合の生体撮影処理の流れは、図9と共に説明した生体撮影処理の場合と同様で良い。このとき利用者に対してタッチパネル22上を指で順にタッチしながら操作する動作となるよう誘導することができる。
一実施例によれば、生体撮像部が撮像する撮像範囲が狭い場合においても、表示に従ってタッチ場所を利用者に指で操作させることで、生体撮像部の画角より広範囲の生体画像を撮像できる。また、生体撮像部により生体認証に用いる生体画像の範囲を確実に撮像できるように、利用者に表示に従ったタッチ場所の操作を誘導できる。これにより、利用者に簡単な操作を行わせることで、生体認証に用いる生体画像を撮像可能な撮像範囲を生体撮像部により安定して撮像することができ、信頼度の高い生体情報を得ることが可能となる。さらに、信頼度の高い生体情報を用いることで、生体認証処理の認証精度を向上することができる。
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
操作部への入力を検出する検出部と、
前記検出部による第1の入力の検出に応じて、前記操作部における操作位置の指示を出力させる制御部と、
前記第1の入力の検出後に生体画像を撮像する生体撮像部と、
を備えたことを特徴とする、生体撮影装置。
(付記2)
前記制御部は、検出した前記第1の入力の位置に応じて、前記操作位置を設定することを特徴とする、付記1記載の生体撮影装置。
(付記3)
前記制御部は、記憶部に記憶した位置に前記操作位置を設定することを特徴とする、付記1または2記載の生体撮影装置。
(付記4)
タッチパネルと、
前記タッチパネルの周辺に設けられ、生体画像を撮像する生体撮像部と、
前記タッチパネルに第1のタッチ場所の表示後、前記第1のタッチ場所から場所が変更された第2のタッチ場所の表示をさせる制御部と、
を備えたことを特徴とする、生体撮影装置。
(付記5)
前記第1のタッチ場所は、前記生体撮像部の撮像対象が、手首側の手のひらとなる位置に設定され、
前記第2のタッチ場所は、前記生体撮像部の撮像対象が、指先側の手のひらとなる位置に設定された
ことを特徴とする、付記4記載の生体撮影装置。
(付記6)
前記第1のタッチ場所は、前記生体撮像部の撮像対象が、指先側の手のひらとなる位置に設定され、
前記第2のタッチ場所は、前記生体撮像部の撮像対象が、手首側の手のひらとなる位置に設定された
ことを特徴とする、付記4記載の生体撮影装置。
(付記7)
前記制御部は、
前記第1のタッチ場所へのタッチの検知に応じて前記生体撮像部に第1の生体画像を撮像させ、
前記第2のタッチ場所へのタッチの検知に応じて前記生体撮像部に第2の生体画像を撮像させる
ことを特徴とする、付記4記載の生体撮影装置。
(付記8)
タッチパネルと、
前記タッチパネルの周辺に設けられた生体撮像部と、
前記タッチパネルにタッチ場所の移動指示の表示をさせる制御部と、
を備えたことを特徴とする、生体撮影装置。
(付記9)
前記移動指示は、移動ルートの前記タッチパネルへの表示であることを特徴とする、付記8記載の生体撮影装置。
(付記10)
前記移動指示は、2本以上の指先のスライド指示であることを特徴とする、付記8記載の生体撮影装置。
(付記11)
前記制御部は、
前記タッチパネルに表示される複数本のタッチ場所のうち少なくとも1本のタッチ場所に対して入力操作が行われていることを条件に、次のタッチを誘導するタッチ場所を前記複数本の全てのタッチ場所について更新し、
前記複数本のうち2本以上のタッチ場所に対する入力操作が同時に行われていることを条件に、前記生体撮像部による撮像開始を判定することを特徴とする、付記10記載の生体撮影装置。
(付記12)
前記移動指示は、直線状、Z字状、矩形状、円または楕円形状、及び三角形状のうち、少なくとも1つであることを特徴とする、付記8記載の生体撮影装置。
(付記13)
検出部が操作部への入力を検出し、
前記検出部による第1の入力の検出に応じて、制御部が前記操作部における操作位置の指示を出力させ、
生体撮像部が前記第1の入力の検出後に生体画像を撮像する、
ことを特徴とする、生体撮影方法。
(付記14)
前記制御部が、検出した前記第1の入力の位置に応じて、前記操作位置を設定することを特徴とする、付記13記載の生体撮影方法。
(付記15)
コンピュータが、
タッチパネルに第1のタッチ場所の表示をさせ、
前記タッチパネルに前記第1のタッチ場所の表示後、前記第1のタッチ場所から場所が変更された第2のタッチ場所の表示をさせ、
前記第1のタッチ場所へのタッチの検知に応じて前記タッチパネルの周辺に設けられた生体撮像部に第1の生体画像を撮像させ、
前記第2のタッチ場所へのタッチの検知に応じて前記生体撮像部に第2の生体画像を撮像させる、
ことを特徴とする、生体撮影方法。
(付記16)
前記コンピュータが、
前記タッチパネルにタッチ場所の移動指示の表示をさせる、
ことを特徴とする、付記15記載の生体撮影方法。
(付記17)
前記移動指示は、2本以上の指先のスライド指示であり、
前記コンピュータが、
前記タッチパネルに表示される複数本のタッチ場所のうち少なくとも1本のタッチ場所に対して入力操作が行われていることを条件に、次のタッチを誘導するタッチ場所を前記複数本の全てのタッチ場所について更新し、
前記複数本のうち2本以上のタッチ場所に対する入力操作が同時に行われていることを条件に、前記生体撮像部による撮像開始を判定することを特徴とする、付記15または16記載の生体撮影方法。
(付記18)
検出部に操作部への入力を検出させ、
前記検出部による第1の入力の検出に応じて、前記操作部における操作位置の指示を出力させ、
生体撮像部に前記第1の入力の検出後に生体画像を撮像させる、
処理をコンピュータに実行させることを特徴とする、生体撮影プログラム。
(付記19)
検出した前記第1の入力の位置に応じて、前記操作位置を設定させる処理を前記コンピュータにさらに実行させることを特徴とする、付記18記載の生体撮影プログラム。
(付記20)
タッチパネルに第1のタッチ場所の表示をさせ、
前記タッチパネルに前記第1のタッチ場所の表示後、前記第1のタッチ場所から場所が変更された第2のタッチ場所の表示をさせ、
前記第1のタッチ場所へのタッチの検知に応じて前記タッチパネルの周辺に設けられた生体撮像部に第1の生体画像を撮像させ、
前記第2のタッチ場所へのタッチの検知に応じて前記生体撮像部に第2の生体画像を撮像させる、
処理をコンピュータに実行させることを特徴とする、生体撮影プログラム。
(付記21)
前記タッチパネルにタッチ場所の移動指示の表示をさせる、
処理を前記コンピュータにさらに実行させることを特徴とする、付記20記載の生体撮影プログラム。
(付記22)
前記移動指示は、2本以上の指先のスライド指示であり、
前記タッチパネルに表示される複数本のタッチ場所のうち少なくとも1本のタッチ場所に対して入力操作が行われていることを条件に、次のタッチを誘導するタッチ場所を前記複数本の全てのタッチ場所について更新し、
前記複数本のうち2本以上のタッチ場所に対する入力操作が同時に行われていることを条件に、前記生体撮像部による撮像開始を判定することを特徴とする、付記20または21記載の生体撮影プログラム。
以上、開示の生体撮影装置、生体撮影方法及び生体撮影プログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
1 端末装置
11 CPU
12 ROM
13 RAM
14 入力デバイス
15 表示デバイス
16 センサ部
16A 撮像範囲
16B 拡大撮像範囲
21,35 記憶部
22 タッチパネル
31 生体認証装置
32 生体撮像部
33 特徴抽出部
34 照合部
36 判定部
221 入力範囲
222〜225,425 タッチ場所

Claims (11)

  1. 操作部への入力を検出する検出部と、
    前記検出部による第1の入力の検出に応じて、前記操作部における操作位置の指示を出力させる制御部と、
    前記第1の入力の検出後に生体画像を撮像する生体撮像部と、
    を備えたことを特徴とする、生体撮影装置。
  2. タッチパネルと、
    前記タッチパネルの周辺に設けられ、生体画像を撮像する生体撮像部と、
    前記タッチパネルに第1のタッチ場所の表示後、前記第1のタッチ場所から場所が変更された第2のタッチ場所の表示をさせる制御部と、
    を備えたことを特徴とする、生体撮影装置。
  3. 前記第1のタッチ場所は、前記生体撮像部の撮像対象が、手首側の手のひらとなる位置に設定され、
    前記第2のタッチ場所は、前記生体撮像部の撮像対象が、指先側の手のひらとなる位置に設定された
    ことを特徴とする、請求項2記載の生体撮影装置。
  4. 前記第1のタッチ場所は、前記生体撮像部の撮像対象が、指先側の手のひらとなる位置に設定され、
    前記第2のタッチ場所は、前記生体撮像部の撮像対象が、手首側の手のひらとなる位置に設定された
    ことを特徴とする、請求項2記載の生体撮影装置。
  5. 前記制御部は、
    前記第1のタッチ場所へのタッチの検知に応じて前記生体撮像部に第1の生体画像を撮像させ、
    前記第2のタッチ場所へのタッチの検知に応じて前記生体撮像部に第2の生体画像を撮像させる
    ことを特徴とする、請求項2記載の生体撮影装置。
  6. タッチパネルと、
    前記タッチパネルの周辺に設けられた生体撮像部と、
    前記タッチパネルにタッチ場所の移動指示の表示をさせる制御部と、
    を備えたことを特徴とする、生体撮影装置。
  7. 前記移動指示は、2本以上の指先のスライド指示であることを特徴とする、請求項6記載の生体撮影装置。
  8. 検出部が操作部への入力を検出し、
    前記検出部による第1の入力の検出に応じて、制御部が前記操作部における操作位置の指示を出力させ、
    生体撮像部が前記第1の入力の検出後に生体画像を撮像する、
    ことを特徴とする、生体撮影方法。
  9. コンピュータが、
    タッチパネルに第1のタッチ場所の表示をさせ、
    前記タッチパネルに前記第1のタッチ場所の表示後、前記第1のタッチ場所から場所が変更された第2のタッチ場所の表示をさせ、
    前記第1のタッチ場所へのタッチの検知に応じて前記タッチパネルの周辺に設けられた生体撮像部に第1の生体画像を撮像させ、
    前記第2のタッチ場所へのタッチの検知に応じて前記生体撮像部に第2の生体画像を撮像させる、
    ことを特徴とする、生体撮影方法。
  10. 検出部に操作部への入力を検出させ、
    前記検出部による第1の入力の検出に応じて、前記操作部における操作位置の指示を出力させ、
    生体撮像部に前記第1の入力の検出後に生体画像を撮像させる、
    処理をコンピュータに実行させることを特徴とする、生体撮影プログラム。
  11. タッチパネルに第1のタッチ場所の表示をさせ、
    前記タッチパネルに前記第1のタッチ場所の表示後、前記第1のタッチ場所から場所が変更された第2のタッチ場所の表示をさせ、
    前記第1のタッチ場所へのタッチの検知に応じて前記タッチパネルの周辺に設けられた生体撮像部に第1の生体画像を撮像させ、
    前記第2のタッチ場所へのタッチの検知に応じて前記生体撮像部に第2の生体画像を撮像させる、
    処理をコンピュータに実行させることを特徴とする、生体撮影プログラム。
JP2015095935A 2015-05-08 2015-05-08 生体撮影装置、生体撮影方法及び生体撮影プログラム Active JP6657593B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015095935A JP6657593B2 (ja) 2015-05-08 2015-05-08 生体撮影装置、生体撮影方法及び生体撮影プログラム
EP16167223.3A EP3091480B1 (en) 2015-05-08 2016-04-27 Biometric imaging device, biometric imaging method, and biometric imaging program
US15/139,690 US10102413B2 (en) 2015-05-08 2016-04-27 Biometric imaging device and biometric imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015095935A JP6657593B2 (ja) 2015-05-08 2015-05-08 生体撮影装置、生体撮影方法及び生体撮影プログラム

Publications (2)

Publication Number Publication Date
JP2016212636A true JP2016212636A (ja) 2016-12-15
JP6657593B2 JP6657593B2 (ja) 2020-03-04

Family

ID=56008469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015095935A Active JP6657593B2 (ja) 2015-05-08 2015-05-08 生体撮影装置、生体撮影方法及び生体撮影プログラム

Country Status (3)

Country Link
US (1) US10102413B2 (ja)
EP (1) EP3091480B1 (ja)
JP (1) JP6657593B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135459A1 (ja) 2017-01-19 2018-07-26 富士通株式会社 端末装置、表示位置制御プログラム及び表示位置制御方法
JP2018116558A (ja) * 2017-01-19 2018-07-26 富士通株式会社 端末装置
WO2018135466A1 (ja) * 2017-01-19 2018-07-26 富士通株式会社 端末装置及び表示制御プログラム
JP2018128785A (ja) * 2017-02-07 2018-08-16 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
JP2018136723A (ja) * 2017-02-21 2018-08-30 富士通株式会社 情報処理装置、生体認証方法、生体認証プログラム
JP2019040472A (ja) * 2017-08-25 2019-03-14 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
EP3493111A1 (en) 2017-12-01 2019-06-05 Fujitsu Limited Biometric image processing apparatus, method and program
EP3518144A1 (en) 2018-01-30 2019-07-31 Fujitsu Limited Biometric authentication apparatus and biometric authentication method
EP3550459A1 (en) 2018-04-02 2019-10-09 Fujitsu Limited Apparatus, method, and program for biometric image processing
EP3671538A1 (en) 2018-12-21 2020-06-24 Fujitsu Limited Biometric authentication apparatus and biometric authentication method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10002281B2 (en) * 2015-07-09 2018-06-19 Gingy Technology Inc. Fingerprint identification module
TWI547884B (zh) * 2015-07-09 2016-09-01 金佶科技股份有限公司 指紋辨識模組
US10489631B2 (en) * 2015-07-09 2019-11-26 Gingy Technology Inc. Biometric identification module
US9785821B2 (en) * 2015-08-28 2017-10-10 Synaptics Incorporated Capacitive sensor architecture for biometric sensing
US10769402B2 (en) * 2015-09-09 2020-09-08 Thales Dis France Sa Non-contact friction ridge capture device
JP6679897B2 (ja) * 2015-11-20 2020-04-15 富士通株式会社 情報処理装置、生体認証方法および生体認証プログラム
JP6526584B2 (ja) * 2016-02-19 2019-06-05 株式会社ジャパンディスプレイ タッチ検出装置、タッチ検出機能付き表示装置及び制御方法
US20180144180A1 (en) * 2016-11-18 2018-05-24 Keycore Technology Corp. Fingerprint identification module
US10871896B2 (en) * 2016-12-07 2020-12-22 Bby Solutions, Inc. Touchscreen with three-handed gestures system and method
CN107657240B (zh) * 2017-10-09 2020-11-24 上海天马微电子有限公司 一种显示装置及其指纹识别校准方法、以及电子设备
CN111886570A (zh) * 2018-02-15 2020-11-03 索尼公司 信息处理装置、信息处理方法、和可穿戴设备
US11645865B2 (en) * 2021-03-04 2023-05-09 Qualcomm Incorporated Randomized multi-fingerprint authentication

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100220900A1 (en) * 2009-03-02 2010-09-02 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint sensing device
JP2012234440A (ja) * 2011-05-06 2012-11-29 Fujitsu Ltd 生体認証装置、生体情報処理装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法
JP2013105222A (ja) * 2011-11-11 2013-05-30 Hitachi Omron Terminal Solutions Corp 生体認証装置およびそれを備えた自動取引装置
JP2014215868A (ja) * 2013-04-26 2014-11-17 富士通株式会社 生体認証装置、生体認証プログラム、生体認証方法
JP2015026228A (ja) * 2013-07-26 2015-02-05 株式会社日立製作所 血管画像撮影装置及び端末

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950539B2 (en) 1998-09-16 2005-09-27 Digital Persona Configurable multi-function touchpad device
JP2002024831A (ja) 2000-07-10 2002-01-25 Casio Comput Co Ltd 指紋認証装置及び指紋認証システム
US6898301B2 (en) * 2000-07-10 2005-05-24 Casio Computer Co., Ltd. Authentication system based on fingerprint and electronic device employed for the system
JP2003085540A (ja) 2001-09-11 2003-03-20 Sony Corp ユーザインターフェース、認証装置、デバイス、携帯型情報端末
DE60330276D1 (de) * 2003-04-25 2010-01-07 Fujitsu Ltd Fingerabdruckvergleichseinrichtung, fingerabdruckvergleichsverfahren und fingerabdruckvergleichsprogramm
JP3924558B2 (ja) 2003-11-17 2007-06-06 富士通株式会社 生体情報採取装置
US8358815B2 (en) * 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
JP2005312749A (ja) 2004-04-30 2005-11-10 Sony Corp 撮像装置及び認証方法
WO2006009319A1 (ja) * 2004-07-22 2006-01-26 Nec Corporation 画像処理システム
JP4739787B2 (ja) * 2005-03-28 2011-08-03 富士通株式会社 電子機器
JP2006331239A (ja) 2005-05-30 2006-12-07 Hitachi Omron Terminal Solutions Corp 個人認証装置および個人認証システム
JP4734088B2 (ja) 2005-10-25 2011-07-27 株式会社日立製作所 本人認証装置およびその制御方法
US8063889B2 (en) * 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US20120218231A1 (en) * 2011-02-28 2012-08-30 Motorola Mobility, Inc. Electronic Device and Method for Calibration of a Touch Screen
US8638994B2 (en) * 2011-04-21 2014-01-28 Authentec, Inc. Electronic device for collecting finger data and displaying a finger movement trace and related methods
CN104582530A (zh) * 2012-04-23 2015-04-29 乔舒亚·迈克尔·扬 用于定位输入装置并产生控制信号的方法和装置和系统
US20140003683A1 (en) * 2012-06-29 2014-01-02 Apple Inc. Far-Field Sensing for Rotation of Finger
US9430066B2 (en) * 2012-10-17 2016-08-30 Perceptive Pixel, Inc. Input classification for multi-touch systems
US9274607B2 (en) * 2013-03-15 2016-03-01 Bruno Delean Authenticating a user using hand gesture
JP6111921B2 (ja) 2013-07-25 2017-04-12 富士通株式会社 撮像装置および撮像方法
US10068118B2 (en) * 2014-02-25 2018-09-04 Tara Chand Singhal Apparatus and method for a biometric sensor in a handheld mobile wireless communication device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100220900A1 (en) * 2009-03-02 2010-09-02 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint sensing device
JP2012234440A (ja) * 2011-05-06 2012-11-29 Fujitsu Ltd 生体認証装置、生体情報処理装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法
JP2013105222A (ja) * 2011-11-11 2013-05-30 Hitachi Omron Terminal Solutions Corp 生体認証装置およびそれを備えた自動取引装置
JP2014215868A (ja) * 2013-04-26 2014-11-17 富士通株式会社 生体認証装置、生体認証プログラム、生体認証方法
JP2015026228A (ja) * 2013-07-26 2015-02-05 株式会社日立製作所 血管画像撮影装置及び端末

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135459A1 (ja) 2017-01-19 2018-07-26 富士通株式会社 端末装置、表示位置制御プログラム及び表示位置制御方法
JP2018116558A (ja) * 2017-01-19 2018-07-26 富士通株式会社 端末装置
WO2018135466A1 (ja) * 2017-01-19 2018-07-26 富士通株式会社 端末装置及び表示制御プログラム
JP2018116559A (ja) * 2017-01-19 2018-07-26 富士通株式会社 端末装置、表示位置制御プログラム及び表示位置制御方法
WO2018135460A1 (ja) 2017-01-19 2018-07-26 富士通株式会社 端末装置
US10732786B2 (en) 2017-01-19 2020-08-04 Fujitsu Client Computing Limited Terminal device and display control method
US10831364B2 (en) 2017-01-19 2020-11-10 Fujitsu Client Computing Limited Terminal device
JP2018128785A (ja) * 2017-02-07 2018-08-16 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
JP2018136723A (ja) * 2017-02-21 2018-08-30 富士通株式会社 情報処理装置、生体認証方法、生体認証プログラム
JP7052256B2 (ja) 2017-08-25 2022-04-12 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2019040472A (ja) * 2017-08-25 2019-03-14 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
EP3493111A1 (en) 2017-12-01 2019-06-05 Fujitsu Limited Biometric image processing apparatus, method and program
US10936848B2 (en) 2017-12-01 2021-03-02 Fujitsu Limited Biometric image processing apparatus, biometric image processing method, and biometric image processing program
JP2019133287A (ja) * 2018-01-30 2019-08-08 富士通株式会社 生体認証装置、生体認証プログラム、及び生体認証方法
US10896250B2 (en) 2018-01-30 2021-01-19 Fujitsu Limited Biometric authentication apparatus and biometric authentication method
EP3518144A1 (en) 2018-01-30 2019-07-31 Fujitsu Limited Biometric authentication apparatus and biometric authentication method
EP3550459A1 (en) 2018-04-02 2019-10-09 Fujitsu Limited Apparatus, method, and program for biometric image processing
US11227139B2 (en) 2018-04-02 2022-01-18 Fujitsu Limited Apparatus, method, and program for biometric image processing
EP3671538A1 (en) 2018-12-21 2020-06-24 Fujitsu Limited Biometric authentication apparatus and biometric authentication method
US11216679B2 (en) 2018-12-21 2022-01-04 Fujitsu Liimited Biometric authentication apparatus and biometric authentication method

Also Published As

Publication number Publication date
EP3091480B1 (en) 2023-09-06
JP6657593B2 (ja) 2020-03-04
US10102413B2 (en) 2018-10-16
EP3091480A1 (en) 2016-11-09
US20160328597A1 (en) 2016-11-10

Similar Documents

Publication Publication Date Title
JP6657593B2 (ja) 生体撮影装置、生体撮影方法及び生体撮影プログラム
KR100947990B1 (ko) 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
JP7452571B2 (ja) 生体認証装置、生体認証方法および生体認証プログラム
US9436862B2 (en) Electronic apparatus with segmented guiding function and small-width biometrics sensor, and guiding method thereof
US10909308B2 (en) Information processing apparatus, information processing method, and program
US20150323998A1 (en) Enhanced user interface for a wearable electronic device
KR101603469B1 (ko) 생체 인증 장치, 생체 인증 방법 및 생체 인증용 컴퓨터 프로그램
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
KR20160126979A (ko) 전자디바이스 제어방법
JP5851209B2 (ja) 生体認証装置およびそれを備えた自動取引装置
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US11494470B2 (en) Information processing apparatus and information processing method
US20190303696A1 (en) Terminal Device And Display Control Method
US10635799B2 (en) Biometric authentication apparatus, biometric authentication method, and non-transitory computer-readable storage medium for storing program for biometric authentication
KR20200032923A (ko) 스마트 단말기를 이용한 비접촉 지문인증 방법
US20200285724A1 (en) Biometric authentication device, biometric authentication system, and computer program product
JP6364828B2 (ja) 生体認証装置および携帯型電子装置
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
US20200285874A1 (en) Biometric authentication device and computer program product
JP2013114613A (ja) 入力装置、入力装置の制御方法、制御プログラム、および記録媒体
WO2018135459A1 (ja) 端末装置、表示位置制御プログラム及び表示位置制御方法
KR20130106113A (ko) 문자 입력 시스템
KR20230035209A (ko) 전자기기 및 프로그램
JP5029472B2 (ja) 文字入力装置、文字入力方法、プログラム及び記録媒体
WO2017013805A1 (ja) 入力装置、入力支援方法および入力支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191206

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6657593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150