JP6052399B2 - 画像処理プログラム、画像処理方法及び情報端末 - Google Patents

画像処理プログラム、画像処理方法及び情報端末 Download PDF

Info

Publication number
JP6052399B2
JP6052399B2 JP2015513466A JP2015513466A JP6052399B2 JP 6052399 B2 JP6052399 B2 JP 6052399B2 JP 2015513466 A JP2015513466 A JP 2015513466A JP 2015513466 A JP2015513466 A JP 2015513466A JP 6052399 B2 JP6052399 B2 JP 6052399B2
Authority
JP
Japan
Prior art keywords
information terminal
sensor
screen
user
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015513466A
Other languages
English (en)
Other versions
JPWO2014174674A1 (ja
Inventor
由花 條
由花 條
壮一 ▲浜▼
壮一 ▲浜▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP6052399B2 publication Critical patent/JP6052399B2/ja
Publication of JPWO2014174674A1 publication Critical patent/JPWO2014174674A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Description

本発明は、画像処理プログラム、画像処理方法及び情報端末に関する。
情報セキュリティに対する意識の高まりに伴って、スマートフォンを始め、スレート端末やタブレット端末等の個人用の情報端末においても、ロック解除やログイン等の認証に生体認証が導入されつつある。
このように、情報端末で生体を撮影する場合には、被写体である生体部位の位置または姿勢が適切でない場合に、認証に用いる生体情報を正しく抽出できなかったり、抽出した特徴量が登録時の特徴量とマッチしなかったりといった不都合が発生する場合がある。このような場合、認証時間が長くなるだけでなく、認証の精度が低下してしまう。
この問題に対応する技術の一例としては、生体部位の位置合わせや誘導のための動作指示を、センサによって取得された生体画像に重畳して表示するものがある。
特表2010−541046号公報 特開2007−052534号公報 特開2009−157908号公報 特開2004−258714号公報 特開2008−071030号公報
しかしながら、上記の技術は、以下に説明するように、認証精度の向上に限界がある。
例えば、スマートフォン、スレート端末やタブレット端末等の個人用の情報端末の中には、生体を撮像するセンサが裏面、すなわち画面の背面に配置されるものもある。このような情報端末で生体が撮影される場合、利用者はセンサの位置を直接目視することはできないので、生体部位を適切な場所に配置することがいっそう困難になる。ところが、上記の技術は、いずれも利用者から直接目視できる位置にセンサが設置されることを前提に、生体部位の位置合わせや誘導のための動作指示を行うものに過ぎず、かかる位置合わせや誘導はセンサが裏面にある場合には通用しない。したがって、上記の技術では、認証に用いる生体情報を正しく抽出できなかったり、抽出した特徴量が登録時の特徴量とマッチしなかったりといった不都合を依然として解消できず、認証精度が低下してしまう場合がある。
1つの側面では、発明は、認証精度を向上させる画像処理プログラム、画像処理方法及び情報端末を提供することを目的とする。
一態様の画像処理プログラムは、画面と、該画面が配置された面の裏面に設けられた第一のセンサと、第二のセンサとを備えた情報端末に、前記第一のセンサによって撮像された第一の被写体の画像を前記画面に表示させる際に、該画像の拡縮度合い及び表示位置を、前記情報端末に設けられた第二のセンサによって撮像された第二の被写体の位置に応じて変更する処理を実行させる。
認証精度を向上させることができる。
図1は、実施例1に係る情報端末の機能的構成を示すブロック図である。 図2は、手のひら画像の表示領域の決定方法の一例を示す図である。 図3は、手のひら画像の表示領域の決定方法の一例を示す図である。 図4は、タッチパネルに表示される手のひら画像の一例を示す図である。 図5は、タッチパネルに表示される手のひら画像の一例を示す図である。 図6は、タッチパネルに表示される手のひら画像の一例を示す図である。 図7は、実施例1に係る認証処理の手順を示すフローチャートである。 図8は、実施例2に係る情報端末の機能的構成を示すブロック図である。 図9は、実施例2に係る認証処理の手順を示すフローチャートである。 図10は、実施例3に係る情報端末の機能的構成を示すブロック図である。 図11は、実施例3に係る認証処理の手順を示すフローチャートである。 図12は、実施例1〜実施例3に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。
以下に添付図面を参照して本願に係る画像処理プログラム、画像処理方法及び情報端末について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[情報端末の構成]
まず、本実施例に係る情報端末の機能的構成について説明する。図1は、実施例1に係る情報端末の機能的構成を示すブロック図である。図1に示す情報端末10は、情報処理を実行する端末装置である。図1の例では、情報端末10の画面、すなわちスクリーンのロック解除やログインの認証に手のひら静脈認証が適用される場合を想定して以下の説明を行う。
ここで、上記の情報端末10は、画面の背面に設けられた静脈センサ13で手のひらを撮像させる場合に、静脈センサ13によって撮像される画像を手のひらの位置合わせの照準として画面に表示させる。かかる位置合わせの一環として、情報端末10は、画面側に設けられたカメラ12によって撮像される画像に映る顔の器官の位置、例えば目の位置によって画面に表示させる画像の位置および大きさを変更する画像処理を実行する。なお、上記の手のひらは、第一の被写体の一態様に含まれる。また、上記の顔は、第二の被写体に含まれる。
一態様としては、情報端末10は、パッケージソフトウェアやオンラインソフトウェアとして提供される画像処理プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末のみならず、移動体通信網に接続しないPDA(Personal Digital Assistants)などを含むタブレット端末やスレート端末に上記の画像処理プログラムをインストールさせる。これによって、タブレット端末やスレート端末を情報端末10として機能させることができる。なお、ここでは、情報端末10の実装例としてタブレット端末やスレート端末を例示したが、パーソナルコンピュータを始めとする固定端末に画像処理プログラムをインストールさせることとしてもかまわない。
図1に示すように、情報端末10は、タッチパネル11と、カメラ12と、静脈センサ13と、距離センサ14と、適正配置記憶部15と、視点検出部16と、表示制御部17と、認証部18とを有する。なお、情報端末10は、図1に示した機能部以外にも既知のタブレット端末やスレート端末が有する各種の機能部を有することとしてもかまわない。例えば、情報端末10が移動体通信端末として実装される場合には、アンテナ、移動体通信網を介して通信を行う無線通信部、GPS(Global Positioning System)受信機などの機能部をさらに有していてもかまわない。
タッチパネル11は、表示可能かつ入力可能なデバイスである。一態様としては、タッチパネル11は、情報端末10上で実行される画像処理プログラムを始め、OS(Operating System)やアプリケーションプログラムによって出力される画像を表示する。他の一態様としては、タッチパネル11は、画面のスクリーン上でなされるタップ、フリック、スイープ、ピンチインやピンチアウトなどのタッチ操作を受け付ける。
カメラ12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを搭載する撮像デバイスである。例えば、カメラ12には、R(red)、G(green)、B(blue)など3種以上の受光素子を搭載することができる。かかるカメラ12の実装例としては、タブレット端末やスレート端末のスクリーンと同一の面側に設けられるインカメラを流用できる。なお、ここでは、情報端末10がカメラ12を有する場合を例示したが、ネットワークまたは記憶デバイスを経由して画像を取得できる場合には、必ずしも情報端末10がカメラ12を有さずともかまわない。
例えば、カメラ12は、タッチパネル11上でスクリーンのロック解除またはログイン認証などのコマンドに対応するタッチ操作がなされたことを契機に、撮像を開始する。このとき、情報端末10のスクリーン側に設けられたカメラ12の撮像範囲には、スクリーンの表示を閲覧する情報端末10の使用者の顔を始め、首や衣服などが含まれる。この結果、カメラ12によって撮像される画像にも、情報端末10の使用者の顔を始め、首や衣服などが含まれることになる。以下では、カメラ12によって撮像される画像のことを「顔画像」と記載する場合がある。
静脈センサ13は、手のひらの内部に存在する静脈の血管パターンを撮像するセンサである。一態様としては、静脈センサ13は、近赤外光を照射する照明と、近赤外光を捉えることができるイメージセンサを含む撮像デバイスとを含んで構成される。このうち、撮像デバイスには、一例として、タブレット端末やスレート端末のスクリーンの背面に設けられるアウトカメラを流用できる。
ここで、静脈センサ13は、情報端末10の端部の近傍に設けられる。例えば、情報端末10が矩形状の筐体である場合には、スクリーンが設置された面とは反対側の面、すなわち背面であって筐体の四隅のうちいずれかの隅の近傍に設けられる。このため、手のひらが静脈センサ13の撮像範囲の中央に適切な大きさで配置された場合には、スクリーンの表示を見ながらその背面の静脈センサ13に手のひらをかざす情報端末10の使用者からスクリーン越しに自身の指先の一部がはみ出して見える場合がある。
上記の静脈センサ13は、例えば、タッチパネル11上でスクリーンのロック解除またはログイン認証などのコマンドに対応するタッチ操作がなされたことを契機に、撮像を開始する。すなわち、静脈センサ13は、照明から近赤外光を照射する。これによって、静脈センサ13は、照明からの赤外光の照射に連動して起動された撮像デバイスに手のひらの表面や内部から反射して戻ってきた近赤外光の反射光を結像させる。この結果、撮像デバイスに結像された反射光が光電変換されることによって撮像デバイスの撮像範囲内の被写体が映った画像が出力されることになる。このとき、撮像範囲に手のひらが含まれていた場合には、静脈中のヘモグロビンが近赤外線を吸収することによって静脈の血管パターンが強調された画像を得ることができる。なお、以下では、静脈センサ13によって撮影された画像のことを「手のひら画像」と記載する場合がある。また、ここでは、静脈を含む認証部位を手のひらとする場合を想定するが、認証部位を手の甲とすることもできる。
このように、本実施例に係るカメラ12及び静脈センサ13は、スクリーンのロック解除やログインの認証を実行する場合には、2つの撮像デバイスの両方を起動し、2つの撮像デバイスの各々で画像が撮像される。この場合には、カメラ12及び静脈センサ13の間で同期して画像が撮像される。例えば、静脈センサ13によって撮像される手のひら画像のフレームと、カメラ12によって撮像される顔画像のフレームとの両者がフレーム番号等を用いて対応付けられる。かかる対応付けによって、フレーム番号が同一である画像の各々が同一の時点で撮像された画像として以降の処理に用いることができる。これら顔画像および手のひら画像の撮像は、一般の情報端末で撮影モードの切り換えによって一方のカメラが起動し、他方のカメラが停止された状態で1つのカメラを排他的に用いる一般の使用方法とは一線を画する。
なお、ここでは、手のひら画像の撮影を開始するトリガーとして、ロック解除やログイン認証などのタップ操作を例示したが、トリガーは本例に限定されない。例えば、図示しないボタンなどの物理キーに対する操作で開始することとしてもよい。また、特段のトリガーなしにカメラ12及び静脈センサ13を起動させておき、いずれかの撮像デバイスで撮像された画像から特定のジェスチャ、例えばウィンクやピースサインが検出された場合に、手のひらの位置合わせを開始してもよい。
距離センサ14は、2点間の距離を測定するセンサである。一態様としては、距離センサ14は、後述の視点検出部16から指示された方向、すなわち顔画像上で視点が検出された位置に対応する方向に向けて赤外線、電波や超音波等の波動を送り出す。その上で、距離センサ14は、被写体で反射した波動を受け取り、送り出した波動と受け取った波動の時間差または位相差等を算出することによって距離センサ14および視点の間の距離を測定する。
適正配置記憶部15は、静脈センサ13に対する生体の適正配置を記憶する記憶部である。ここで言う「適正配置」とは、情報端末10の使用時に使用者がとる標準的な姿勢で手のひらを静脈センサにかざした時に手の一部がスクリーン越しに露出して見える配置を指す。例えば、情報端末10の使用者が一方の手で情報端末10を保持し、スクリーンの表示を閲覧しながら他方の手の指をのばした姿勢で手のひらを静脈センサ13にかざした時に親指、人差し指、中指や薬指の指先がスクリーン越しに露出して見える配置が挙げられる。
このような配置を適正配置に採用するのは、情報端末10の角部の近傍に設置された静脈センサ13の撮像範囲の中央に手のひらを配置させることに加え、次のような目的がある。すなわち、情報端末10を持つ方の手とは逆の手の手のひらを撮影する場合に指先を露出させることによって情報端末10の使用者が静脈センサ13と手のひらの距離がどの程度離れているかを把握しやすくするためである。
これら静脈センサ13及び手のひらの間で適正とされる距離は、静脈センサ13の装備の性能、例えばイメージセンサが持つ解像度の他、レンズの枚数や種類によって定まる。なお、ここでは、手のひら静脈認証が実行される場合に撮影される場合だけでなく、情報端末10の所有者本人の手のひら画像が予め登録される場合にも、適正配置と同様の環境で撮影された手のひら画像が登録されることとする。なお、以下では、静脈センサ13によって撮像される手のひら画像と照合するために、予め登録された手のひら画像のことを「登録手のひら画像」と記載する場合がある。
一態様としては、適正配置記憶部15は、静脈センサ13に向けてかざされる手のひらの面がモデル化された矩形を特定可能な特定情報、例えば矩形を形成する頂点の3次元座標または矩形の重心の3次元座標と矩形の高さ及び幅などを記憶する。ここで言う座標には、一例として、情報端末10に対する相対座標が採用される。なお、ここでは、静脈センサ13に対する手のひらの配置が矩形にモデル化された場合を例示したが、モデル化には任意の形状、例えば楕円、円や多角形などを採用することができる。
視点検出部16は、情報端末10の使用者の視点の位置を検出する処理部である。一態様としては、視点検出部16は、カメラ12によって撮像された顔画像に対し、肌色検出やテンプレートマッチング等の画像処理を実行する。例えば、視点検出部16は、顔画像から肌色検出を実行することによって顔画像内に含まれる顔の部分を抽出する。その上で、視点検出部16は、肌色検出によって抽出された顔の領域にテンプレートマッチングを実行することによって顔の部分の画像から顔の器官、例えば目、鼻、口や耳の形状や大きさなどの幾何学的な特徴を抽出する。これによって、顔画像上の右目、左目または両目の位置が特定されることになる。
このようにして顔画像上の目の位置を特定した後に、視点検出部16は、距離センサ14に顔画像上の目の位置に対応する方向へ波動を送り出させることによって距離センサ14および情報端末10の使用者の目の間の距離を距離センサ14に測定させる。このとき、距離センサ14に波動を送り出させる方向は、顔画像上の右目の中心に対応する方向であってもよいし、左目の中心に対応する方向であってもよいし、両目の中間点に対応する方向であってもかまわない。その後、視点検出部16は、距離センサ14によって測定させた情報端末10の使用者の目までの距離と、先に検出された顔画像上の目の位置、および距離センサ14の座標とから情報端末10の使用者の目が位置する3次元空間上での座標、すなわち視点の位置を算出する。
表示制御部17は、タッチパネル11に対する表示制御を実行する処理部である。一態様としては、表示制御部17は、視点検出部16によって検出された視点の位置と、適正配置記憶部15に記憶された手のひらの適正配置とから、静脈センサ13によって撮像された手のひら画像をタッチパネル11に表示させる大きさ及び位置を決定する。
図2及び図3は、手のひら画像の表示領域の決定方法の一例を示す図である。図2には、情報端末10のスクリーンを側面からみた場合の側面図が図示されており、図3には、情報端末10のスクリーンを斜めからみた場合の斜視図が図示されている。なお、図3には、カメラ12及び静脈センサ13の図示が省略されている。
図2に示すように、視点200と矩形状の適正配置210に含まれる各頂点との間が線分で結ばれるとしたとき、タッチパネル11のスクリーンに投影される表示領域220の位置および大きさが表示位置および表示サイズとして決定される。例えば、表示領域220は、図3に示すように、上記の線分の各交点220A〜220Dの4点によってタッチパネル11に表示される位置および大きさが規定される。
このうち、交点220Aは、視点200と頂点210Aを結ぶ線分がタッチパネル11のスクリーンと交わる点を指し、交点220Bは、視点200と頂点210Bを結ぶ線分がタッチパネル11のスクリーンと交わる点を指す。また、交点220Cは、視点200と頂点210Cを結ぶ線分がタッチパネル11のスクリーンと交わる点を指し、交点220Dは、視点200と頂点210Dを結ぶ線分がタッチパネル11のスクリーンと交わる点を指す。
このように、表示制御部17は、視点検出部16によって検出された視点と、適正配置記憶部15に記憶された適正配置に含まれる頂点とを結ぶ直線ごとに、当該直線がタッチパネル11のスクリーンと交わる交点の座標を算出することによって手のひら画像の表示領域220を決定する。かかる表示領域220は、4つの交点220A〜220Dの配置によって領域の位置および大きさが定まる。例えば、視点200がスクリーンから近いほど表示領域220のサイズは小さくなり、視点がスクリーンから離れるほど表示領域220は適正配置210の大きさへ近づく。
その上で、表示制御部17は、先に決定した表示位置および表示サイズにしたがって静脈センサ13によって撮像された手のひら画像をタッチパネル11に表示させる。例えば、図2及び図3の例で言えば、静脈センサ13によって撮像された手のひら画像が交点220A〜交点220Dを含む表示領域220に表示される。
図4〜図6は、タッチパネル11に表示される手のひら画像の一例を示す図である。このうち、図4には、適正配置210と重なる位置に手のひらがかざされている態様が図示されている。このように、適正配置210と重なる位置に手のひらがかざされている場合には、タッチパネル11に表示される手のひら画像の指の端部と、スクリーン越しに露出する指先の実物とが違和感なく接続されて見える。かかる手のひら画像の表示によって、情報端末10の使用者は、手のひらが適正な位置に提示されている状況を確認できる結果、手のひら静脈の認証が終了するまで手のひらを現在の提示位置に留めることができる。
また、図5には、適正配置210よりもスクリーンに近い位置に手のひらがかざされている態様が図示されている。このように、適正配置210よりもスクリーンに近い位置に手のひらがかざされている場合には、スクリーン越しに露出する指先の実物のスケールに比べて、タッチパネル11に表示される手のひら画像の指を始め、手のひらのスケールが大きく表示される。すなわち、情報端末10の使用者の視点から指先までの距離に比べて静脈センサ13から指先までの距離が短いことから、静脈センサ13に広角レンズが設けられるケースが多いことに起因する。このため、スクリーン越しに指先を見る使用者からはわかりづらい程に手のひらが適正配置210よりもスクリーンに近づいた場合でも、スクリーン越しに見える指先の実物のスケールよりも大きいスケールで手のひらや指先が映った手のひら画像を表示できる。かかる手のひら画像の表示によって、情報端末10の使用者は、手のひらが適正な位置よりも近づけて提示している状況を確認できる結果、現在の提示位置よりも情報端末10の筐体から離して提示するのがよいと判断できる。
また、図6には、適正配置210よりもスクリーンから離れた位置に手のひらがかざされている態様が図示されている。このように、適正配置210よりもスクリーンから離れた位置に手のひらがかざされている場合には、スクリーン越しに露出する指先の実物のスケールに比べて、タッチパネル11に表示される手のひら画像の指を始め、手のひらのスケールが小さく表示される。このため、スクリーン越しに指先を見る使用者からはわかりづらい程に手のひらが適正配置210よりもスクリーンから離れて提示された場合でも、スクリーン越しに見える指先の実物のスケールよりも小さいスケールで手のひらや指先が映った手のひら画像を表示できる。かかる手のひら画像の表示によって、情報端末10の使用者は、手のひらが適正な位置よりも離れて提示している状況を確認できる結果、現在の提示位置よりも情報端末10の筐体に近づけて提示するのがよいと判断できる。
さらに、図4〜図6の例では、情報端末10の使用者の視点の真正面に手のひら画像を表示するのとは異なり、情報端末10の使用者の視点から適正配置に向けた方向に真正面からずらして手のひら画像を表示させる。このため、情報端末10の使用者は、スクリーンの背面に設置されて視認することが困難である静脈センサ13の視野を直感的に把握しながら手のひらを提示することもできる。また、図4〜図6に示すように、手のひらの内部にある血管のパターンを抽出する範囲の中心位置を手のひら画像に重畳して表示させることによって当該位置を照準として手のひらを位置合わせすることもできる。
図1の説明に戻り、認証部18は、手のひら静脈認証を実行する処理部である。一態様としては、認証部18は、静脈センサ13によって撮像された手のひら画像から静脈の血管パターンに関する特徴量を抽出する。例えば、認証部18は、手のひら画像から血管部分を取り出した上で細線化し、血管における分岐点の座標、分岐点間の長さ、分岐点の分岐角度などの特徴量を静脈データとして抽出する。その上で、認証部18は、手のひら画像から抽出された静脈データと、予め登録された情報端末10の所有者本人等の静脈データとの間で照合スコアを算出する。このとき、情報端末10の使用を許可する人物の静脈データを複数登録しておくことによって1対1認証のみならず、1対N認証を実行することもできる。そして、認証部18は、先に算出した照合スコアのうち最大の照合スコアが所定の閾値以上である場合に、手のひら静脈認証が成功したと判定する。また、認証部18は、最大の照合スコアが所定の未満以上である場合に、手のひら静脈認証に失敗したと判定する。このようにして認証部18によって手のひら静脈認証が実行された認証結果は、ロック解除やログイン認証を実行するOSやアプリケーションプログラムへ出力される。なお、認証部18は、マニューシャ方式、パターンマッチング方式や周波数解析法などの任意の照合方式を採用できる。
ここで、認証部18は、静脈センサ13によって手のひら画像が撮像されたからといって直ちに手のひら静脈認証を実行するとは限らない。すなわち、認証部18は、静脈センサ13によって手のひら画像が撮像される度に、当該手のひら画像に映る手のひらが適正な位置に配置されているかを判定する。例えば、認証部18は、静脈センサ13によって撮像された手のひら画像に映る指の太さと、予め登録された静脈データの指の太さとの差が所定の閾値以内である場合に、手のひら静脈認証を実行することができる。また、認証部18は、情報端末10の使用者から所定の音声メッセージ、例えば「OK」などの入力を受け付けた場合に、手のひら静脈認証を実行することができる。なお、認証部18は、手のひら静脈認証に失敗した場合でも、手のひら静脈認証のリトライの回数が所定の回数になるまで、表示制御部17によって手のひら画像をタッチパネル11上に表示させるとともに、手のひら静脈認証をリトライさせることもできる。
なお、上記の視点検出部16、表示制御部17及び認証部18は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などに画像処理プログラムを実行させることによって実現できる。また、上記の各機能部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
また、上記の適正配置記憶部15には、半導体メモリ素子や記憶装置を採用できる。例えば、半導体メモリ素子の一例としては、VRAM(Video Random Access Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などが挙げられる。また、記憶装置の一例としては、ハードディスク、光ディスクなどの記憶装置が挙げられる。
[処理の流れ]
図7は、実施例1に係る認証処理の手順を示すフローチャートである。この認証処理は、一例として、タッチパネル11上でスクリーンのロック解除またはログイン認証などのコマンドに対応するタッチ操作がなされた場合に、処理が起動する。
図7に示すように、カメラ12によって顔画像が撮像されるとともに、静脈センサ13によって手のひら画像が撮像されると(ステップS101)、視点検出部16は、ステップS101で撮像された顔画像上における使用者の目の位置を検出する(ステップS102)。
続いて、視点検出部16は、距離センサ14にステップS102で検出された顔画像上の目の位置に対応する方向へ波動を送り出させることによって距離センサ14および情報端末10の使用者の目の間の距離を距離センサ14に測定させる(ステップS103)。
その後、視点検出部16は、ステップS103で測定させた情報端末10の使用者の目までの距離と、ステップS102で検出された顔画像上の目の位置、および距離センサ14の座標とから情報端末10の使用者の目が位置する3次元空間上での座標、すなわち視点の位置を算出する(ステップS104)。
そして、表示制御部17は、適正配置記憶部15に記憶された適正配置を読み出す(ステップS105)。その上で、表示制御部17は、ステップS104で検出された視点と、ステップS105で読み出された適正配置に含まれる頂点とを結ぶ直線ごとに、当該直線とスクリーンとの交点の座標を算出することによって手のひら画像の表示領域、すなわち表示位置および表示サイズを決定する(ステップS106)。
続いて、表示制御部17は、ステップS106で決定された表示位置および表示サイズにしたがってステップS101で撮像された手のひら画像をタッチパネル11に表示させる(ステップS107)。
そして、認証部18によって手のひら画像に含まれる手のひらが適切な位置に配置されたと判定されるまで(ステップS108No)、上記のステップS101〜ステップS107までの処理を繰り返し実行する。
その後、手のひら画像に含まれる手のひらが適切な位置に配置されると(ステップS108Yes)、認証部18は、次のような処理を実行する。すなわち、認証部18は、ステップS101で撮像された手のひら画像から抽出した静脈データと、予め登録された静脈データを照合することによって手のひら静脈認証を実行し(ステップS109)、認証結果を情報端末10上で動作するOSやアプリケーションプログラムへ出力し、処理を終了する。
[実施例1の効果]
上述してきたように、本実施例に係る情報端末10は、画面の背面に設置された静脈センサ13で手のひらを撮影する場合に、画面と同じ側の面に設置されたカメラ12に映る目の位置によって画面に表示させる手のひら画像の位置及び大きさを変更する。例えば、スクリーン越しに手の一部、例えば指先が露出する場合には、手のひら画像の中央に手のひらが位置し、さらに、手のひら画像に映る手のひらや指のスケールが露出する実物の指先のスケールと合うように位置合わせできる。このため、本実施例に係る情報端末10では、画面の背面に静脈センサ13が設置される場合でも、位置合わせの精度を高めることができる。したがって、本実施例に係る情報端末10によれば、認証精度を向上させることができる。
さて、上記の実施例1では、情報端末10の使用者の視点の位置を検出するために距離センサ14を用いる場合を例示したが、情報端末の種類によっては必ずしも距離センサ14を有しない場合もある。そこで、本実施例では、距離センサ14を用いずに、使用者の視点の位置を推定する情報端末20について以下で説明する。
図8は、実施例2に係る情報端末20の機能的構成を示すブロック図である。図8に示す情報端末20は、図1に示した情報端末10に比べて、距離記憶部21および視点位置推定部22を有する点が相違する。なお、図8には、図1に示した情報端末10との間で機能に差異がある処理部に異なる符号を付し、同一の機能を有するものには同一の符号を付してその説明を省略することとする。
距離記憶部21は、情報端末20までの距離を記憶する記憶部である。一態様としては、距離記憶部21は、標準的な人物がカメラ12によって撮像された場合の顔画像上の顔の横幅を形成する画素数と当該標準的な人物の顔及び情報端末20の間で測定された距離とが対応付けられたデータを記憶する。ここで言う「標準的な人物」とは、一例として、顔の横幅が統計的に平均値や中央値である人物を指す。なお、ここでは、顔の横幅と情報端末20までの距離を対応付けて記憶する場合を例示したが、特徴点間の距離であればよく、顔の縦幅、あるいは左右の目の距離と情報端末20までの距離を対応付けて記憶することとしてもかまわない。また、ここでは、標準的な人物がカメラ12によって撮像された場合の顔画像上の顔の横幅および測定距離を記憶する場合を例示したが、情報端末20の所有者本人がカメラ12によって撮像された場合の顔の横幅や測定距離を事前に採取しておくこととしてもかまわない。
視点位置推定部22は、図1に示した視点検出部16と比べて、顔画像上の右目、左目または両目の位置を特定するまでは処理が共通する一方で、それ以降の処理が相違する。これを具体的に説明すると、視点位置推定部22は、距離記憶部21から標準的な人物が撮像された場合の顔の横幅および情報端末20までの測定距離を読み出す。そして、視点位置推定部22は、カメラ12によって撮像された顔画像から情報端末20の使用者の顔の横幅を形成する画素数を肌色検出やテンプレートマッチング等の画像処理を実行することによって計数する。続いて、視点位置推定部22は、顔画像から画素数が計数された情報端末20の使用者の顔の横幅と、標準的な人物がカメラ12によって撮像された場合の顔画像上の顔の横幅の画素数との間で比率、例えば前者の横幅を後者の横幅で除算した除算値を算出する。その上で、視点位置推定部22は、距離記憶部21から読み出された標準的な人物の顔及び情報端末20の間の測定距離に、先に算出した比率の逆数、すなわち除算値の逆数を乗算することによって情報端末20の使用者の顔及び情報端末20の間の距離を推定する。
これによって、情報端末20の使用者の顔の横幅が標準的な人物の横幅であるとみなし、今回の顔画像の撮影で得られた顔の横幅の拡縮に合わせて事前に標準的な人物で撮影された場合の測定距離を補正できる。例えば、事前に標準的な人物の顔が撮影されたときよりも情報端末20の使用者がスクリーンに顔を近づけている場合には、使用者の顔の横幅が大きく検出される。この場合には、上記の比率が1よりも大きく算出されるので、比率の逆数が乗算されることによって事前に標準的な人物で撮影された場合の測定距離を小さく補正できる。一方、事前に標準的な人物の顔が撮影されたときよりも情報端末20の使用者がスクリーンから顔を離している場合には、使用者の顔の横幅が小さく検出される。この場合には、上記の比率が1よりも小さく算出されるので、比率の逆数が乗算されることによって事前に標準的な人物で撮影された場合の測定距離を大きく補正できる。なお、ここでは、比率を算出する場合を例示したが、両者の差を算出することとしてもかまわない。例えば、情報端末20の使用者の顔の横幅が事前に標準的な人物で撮影された顔の横幅よりも小さい場合に、測定距離を大きく補正する一方で、情報端末20の使用者の顔の横幅が事前に標準的な人物で撮影された顔の横幅よりも大きい場合に、測定距離を小さく補正すればよい。
その後、視点位置推定部22は、先に推定した情報端末20の使用者の顔までの距離と、先に検出された顔画像上の目の位置、および情報端末20の座標、例えばスクリーンの重心の座標とから情報端末20の使用者の目が位置する3次元空間上での座標、すなわち視点の位置を推定する。
図9は、実施例2に係る認証処理の手順を示すフローチャートである。この認証処理も、図7に示したフローチャートと同様に、タッチパネル11上でスクリーンのロック解除またはログイン認証などのコマンドに対応するタッチ操作がなされた場合に、処理が起動する。
図9に示すように、カメラ12によって顔画像が撮像されるとともに、静脈センサ13によって手のひら画像が撮像されると(ステップS101)、視点位置推定部22は、ステップS101で撮像された顔画像上における使用者の目の位置を検出する(ステップS102)。
続いて、視点位置推定部22は、ステップS101で撮像された顔画像から情報端末20の使用者の顔の横幅を形成する画素数を肌色検出やテンプレートマッチング等の画像処理を実行することによって計数する(ステップS201)。
そして、視点位置推定部22は、ステップS201で計数された顔の横幅の画素数と、距離記憶部21に記憶された顔画像上の顔の横幅の画素数との比率を用いて、距離記憶部21に記憶された標準的な人物の顔及び情報端末20の間の測定距離を補正することによって情報端末20の使用者の顔及び情報端末20の間の距離を推定する(ステップS202)。
その後、視点位置推定部22は、ステップS202で推定した情報端末20の使用者の目までの距離と、ステップS102で検出された顔画像上の目の位置、および情報端末20の座標とから情報端末20の使用者の目が位置する3次元空間上での座標、すなわち視点の位置を推定する(ステップS203)。
そして、表示制御部17は、適正配置記憶部15に記憶された適正配置を読み出す(ステップS105)。その上で、表示制御部17は、ステップS203で推定された視点と、ステップS105で読み出された適正配置に含まれる頂点とを結ぶ直線ごとに、当該直線とスクリーンとの交点の座標を算出することによって手のひら画像の表示領域、すなわち表示位置および表示サイズを決定する(ステップS106)。
続いて、表示制御部17は、ステップS106で決定された表示位置および表示サイズにしたがってステップS101で撮像された手のひら画像をタッチパネル11に表示させる(ステップS107)。
そして、認証部18によって手のひら画像に含まれる手のひらが適切な位置に配置されたと判定されるまで(ステップS108No)、上記のステップS101〜ステップS107までの処理を繰り返し実行する。
その後、手のひら画像に含まれる手のひらが適切な位置に配置されると(ステップS108Yes)、認証部18は、次のような処理を実行する。すなわち、認証部18は、ステップS101で撮像された手のひら画像から抽出した静脈データと、予め登録された静脈データを照合することによって手のひら静脈認証を実行し(ステップS109)、認証結果を情報端末20上で動作するOSやアプリケーションプログラムへ出力し、処理を終了する。
[実施例2の効果]
上述してきたように、本実施例に係る情報端末20によれば、画面の背面に静脈センサ13が設置される場合でも、位置合わせの精度を高めることができるので、上記の実施例1と同様に、認証精度を向上させることができる。
さらに、本実施例に係る情報端末20では、情報端末20の使用者の顔の横幅が標準的な人物の横幅であるとみなし、今回の顔画像の撮影で得られた顔の横幅の拡縮に合わせて事前に標準的な人物で撮影された場合の測定距離を補正するので、距離センサ14等のハードウェアがなくとも視点の位置を推定できる。
さて、上記の実施例2では、カメラ12によって撮像された顔画像に映る顔の横幅から情報端末20の使用者の視点の位置を推定する場合を例示したが、必ずしも視点の位置の推定に顔の横幅を用いずともよい。そこで、本実施例では、静脈センサ13によって撮像された手のひら画像を用いて、使用者の視点の位置を推定する情報端末30について以下で説明する。
図10は、実施例3に係る情報端末30の機能的構成を示すブロック図である。図10に示す情報端末30は、図8に示した情報端末20に比べて、距離記憶部31および視点位置推定部32を有する点が相違する。なお、図10には、図8に示した情報端末20との間で機能に差異がある処理部に異なる符号を付し、同一の機能を有するものには同一の符号を付してその説明を省略することとする。
距離記憶部31は、情報端末30までの距離を記憶する記憶部である。一態様としては、距離記憶部31は、標準的な人物が静脈センサ13によって撮像された場合の手のひら画像上の手のひらの横幅を形成する画素数と当該標準的な人物の顔及び情報端末30の間で測定された距離とが対応付けられたデータを記憶する。ここで言う「標準的な人物」とは、一例として、手のひらの横幅が統計的に平均値や中央値である人物を指す。なお、ここでは、手のひらの横幅と情報端末30までの距離を対応付けて記憶する場合を例示したが、この他にも、手のひらの縦幅、あるいは指の長さと測定距離とを対応付けて記憶することとしてもかまわない。また、ここでは、標準的な人物が静脈センサ13によって撮像された場合の手のひら画像上の手のひらの横幅および測定距離を記憶する場合を例示したが、情報端末30の所有者本人が静脈センサ13によって撮像された場合の手のひらの横幅や測定距離を事前に採取しておくこととしてもかまわない。
視点位置推定部32は、図8に示した視点位置推定部22と比べて、顔画像上の右目、左目または両目の位置を特定するまでは処理が共通する一方で、それ以降の処理が相違する。これを具体的に説明すると、視点位置推定部32は、距離記憶部31から標準的な人物が撮像された場合の手のひらの横幅および情報端末30までの測定距離を読み出す。そして、視点位置推定部32は、静脈センサ13によって撮像された手のひら画像から情報端末30の使用者の手のひらの横幅を形成する画素数を肌色検出やテンプレートマッチング等の画像処理を実行することによって計数する。続いて、視点位置推定部32は、手のひら画像から画素数が計数された情報端末30の使用者の手のひらの横幅と、標準的な人物が静脈センサ13によって撮像された場合の手のひら画像上の手のひらの横幅の画素数との間で比率、例えば前者の横幅を後者の横幅で除算した除算値を算出する。その上で、視点位置推定部32は、距離記憶部31から読み出された標準的な人物の顔及び情報端末30の間の測定距離に、先に算出した比率、すなわち除算値を乗算することによって情報端末30の使用者の顔及び情報端末30の間の距離を推定する。
これによって、情報端末30の使用者の手のひらの横幅と情報端末30及び情報端末30の使用者の目の間の距離とは、ともに体格に由来するものであるので、比例関係を有するとみなし、今回の手のひら画像の撮影で得られた手のひらの横幅の拡縮に合わせて事前に標準的な人物で撮影された場合の測定距離を補正できる。例えば、事前に撮影された標準的な人物の手のひらよりも情報端末30の使用者の手のひらが大きい場合には、手のひらの横幅が大きく検出される。この場合には、上記の比率が1よりも大きく算出されるので、比率が乗算されることによって事前に標準的な人物で撮影された場合の測定距離を大きく補正できる。一方、事前に撮影された標準的な人物の手のひらよりも情報端末30の使用者の手のひらが小さい場合には、手のひらの横幅が小さく検出される。この場合には、上記の比率が1よりも小さく算出されるので、比率が乗算されることによって事前に標準的な人物で撮影された場合の測定距離を小さく補正できる。なお、ここでは、比率を算出する場合を例示したが、両者の差を算出することとしてもかまわない。例えば、情報端末30の使用者の手のひらの横幅が事前に標準的な人物で撮影された手のひらの横幅よりも小さい場合に、測定距離を小さく補正する一方で、情報端末30の使用者の手のひらの横幅が事前に標準的な人物で撮影された手のひらの横幅よりも大きい場合に、測定距離を大きく補正すればよい。
その後、視点位置推定部32は、先に推定した情報端末30の使用者の顔までの距離と、先に検出された顔画像上の目の位置、および情報端末30の座標、例えばスクリーンの重心の座標とから情報端末30の使用者の目が位置する3次元空間上での座標、すなわち視点の位置を推定する。
図11は、実施例3に係る認証処理の手順を示すフローチャートである。この認証処理も、図7に示したフローチャートと同様に、タッチパネル11上でスクリーンのロック解除またはログイン認証などのコマンドに対応するタッチ操作がなされた場合に、処理が起動する。
図11に示すように、カメラ12によって顔画像が撮像されるとともに、静脈センサ13によって手のひら画像が撮像されると(ステップS101)、視点位置推定部32は、ステップS101で撮像された顔画像上における使用者の目の位置を検出する(ステップS102)。
続いて、視点位置推定部32は、ステップS101で撮像された手のひら画像から情報端末30の使用者の手のひらの横幅を形成する画素数を肌色検出やテンプレートマッチング等の画像処理を実行することによって計数する(ステップS301)。
そして、視点位置推定部32は、ステップS301で計数された手のひらの横幅の画素数と、距離記憶部31に記憶された手のひら画像上の手のひらの横幅の画素数との比率を用いて、距離記憶部31に記憶された標準的な人物の顔及び情報端末30の間の測定距離を補正することによって情報端末30の使用者の顔及び情報端末30の間の距離を推定する(ステップS302)。
その後、視点位置推定部32は、ステップS302で推定した情報端末30の使用者の目までの距離と、ステップS102で検出された顔画像上の目の位置、および情報端末30の座標とから情報端末30の使用者の目が位置する3次元空間上での座標、すなわち視点の位置を推定する(ステップS303)。
そして、表示制御部17は、適正配置記憶部15に記憶された適正配置を読み出す(ステップS105)。その上で、表示制御部17は、ステップS303で推定された視点と、ステップS105で読み出された適正配置に含まれる頂点とを結ぶ直線ごとに、当該直線とスクリーンとの交点の座標を算出することによって手のひら画像の表示領域、すなわち表示位置および表示サイズを決定する(ステップS106)。
続いて、表示制御部17は、ステップS106で決定された表示位置および表示サイズにしたがってステップS101で撮像された手のひら画像をタッチパネル11に表示させる(ステップS107)。
そして、認証部18によって手のひら画像に含まれる手のひらが適切な位置に配置されたと判定されるまで(ステップS108No)、上記のステップS101〜ステップS107までの処理を繰り返し実行する。
その後、手のひら画像に含まれる手のひらが適切な位置に配置されると(ステップS108Yes)、認証部18は、次のような処理を実行する。すなわち、認証部18は、ステップS101で撮像された手のひら画像から抽出した静脈データと、予め登録された静脈データを照合することによって手のひら静脈認証を実行し(ステップS109)、認証結果を情報端末20上で動作するOSやアプリケーションプログラムへ出力し、処理を終了する。
[実施例3の効果]
上述してきたように、本実施例に係る情報端末30によれば、画面の背面に静脈センサ13が設置される場合でも、位置合わせの精度を高めることができるので、上記の実施例1と同様に、認証精度を向上させることができる。
さらに、本実施例に係る情報端末30では、情報端末30の使用者の手のひらの横幅と情報端末30及び情報端末30の使用者の目の間の距離とが比例関係を有するとみなし、今回の手のひら画像の撮影で得られた手のひらの横幅の拡縮に合わせて事前に標準的な人物で撮影された場合の測定距離を補正する。これによって、本実施例に係る情報端末30によれば、距離センサ14等のハードウェアがなくとも視点の位置を推定できる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[カメラ12の代用]
上記の実施例1〜実施例3では、情報端末10、20または30がカメラ12を有する場合を例示したが、カメラ12は必ずしも有していなくともよい。例えば、顔画像上の目の位置を検出する代わりに、情報端末10、20または30の使用者の視点が端末を基準に特定の方向、スクリーンの中心の法線方向に存在するとみなし、当該視点が情報端末10、20または30に対して位置する方向を内部メモリ等に保持しておくこともできる。これによって、画面と同一の面側にカメラ12が設けられておらずとも、視点の位置を検出または推定できる。
[認証方式]
上記の実施例1〜実施例3では、手のひら静脈認証を実行する場合に上記の画像処理を実行する場合を例示したが、これ以外の認証が実行される場合にも適用することができる。すなわち、ユーザの目の位置と認証部位の間にカメラ、画面および認証用のセンサを有する装置が存在し、認証用のセンサと認証部位が離れている場合に上記の画像処理を同様に適用できる。例えば、情報端末10、20または30の背面に設置された撮像デバイスで掌紋、手の甲または掌形(手形)を撮像して掌紋認証、手の甲認証または掌形認証を実行する場合にも、上記の画像処理、すなわち図7、図9や図11で示した処理を実行できる。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、視点検出部16または表示制御部17を情報端末10の外部装置としてネットワーク経由で接続するようにしてもよい。また、視点検出部16または表示制御部17を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の情報端末10の機能を実現するようにしてもよい。
[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。
図12は、実施例1〜実施例3に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。図12に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図12に示すように、上記の実施例1で示した視点検出部16及び表示制御部17と同様の機能を発揮する画像処理プログラム170aが予め記憶される。また、HDD170には、上記の実施例2で示した視点位置推定部22及び表示制御部17と同様の機能を発揮する画像処理プログラム170aが予め記憶されることとしてもよい。また、HDD170には、上記の実施例3で示した視点位置推定部32及び表示制御部17と同様の機能を発揮する画像処理プログラム170aが予め記憶されることとしてもよい。この画像処理プログラム170aについては、図1、図8または図10に示した各々の機能部の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されれば良い。
そして、CPU150が、画像処理プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図12に示すように、画像処理プログラム170aは、画像処理プロセス180aとして機能する。この画像処理プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、画像処理プロセス180aは、図1、図8または図10に示した各機能部にて実行される処理、例えば図7、図9および図11に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されれば良い。
なお、上記の画像処理プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
10 情報端末
11 タッチパネル
12 カメラ
13 静脈センサ
14 距離センサ
15 適正配置記憶部
16 視点検出部
17 表示制御部
18 認証部

Claims (6)

  1. 画面と、該画面が配置された面の裏面に設けられた第一のセンサと、前記画面側に設けられた第二のセンサとを備えた情報端末に、
    前記第二のセンサによって撮像された画像から前記情報端末の使用者の視点の位置を検出し、
    前記第一のセンサによって撮像される前記情報端末の使用者の生体の画像を前記画面に表示させる際に、前記第一のセンサに対する生体の適正配置が前記生体をモデル化したモデルの位置情報として設定された適正配置データを参照して、前記視点と前記モデルに含まれる頂点とを結ぶ直線が前記画面と交わる交点により形成される表示領域に、前記第一のセンサによって撮像された画像を前記画面上に形成される表示領域の大きさに応じて拡縮して表示する、
    処理を実行させることを特徴とする画像処理プログラム。
  2. 前記検出する処理は、
    距離を測定する距離センサを用いて、前記情報端末および前記第二のセンサによって撮像される第二の被写体の距離を測定し、
    前記情報端末および前記第二の被写体の距離から前記情報端末の使用者の視点の位置を検出することを特徴とする請求項1に記載の画像処理プログラム。
  3. 前記検出する処理は、
    前記第二のセンサによって撮像された画像から得られる前記情報端末の使用者の顔の特徴点間の距離を用いて、前記情報端末および前記情報端末の使用者の顔の間の距離を推定し、
    前記情報端末および前記情報端末の使用者の顔の間の距離から前記情報端末の使用者の視点の位置を推定することを特徴とする請求項1に記載の画像処理プログラム。
  4. 前記検出する処理は、
    前記第一のセンサによって撮像された画像から得られる前記情報端末の使用者の生体の大きさを用いて、前記情報端末および前記情報端末の使用者の顔の間の距離を推定し、
    前記情報端末および前記情報端末の使用者の顔の間の距離から前記情報端末の使用者の視点の位置を推定することを特徴とする請求項1に記載の画像処理プログラム。
  5. 画面と、該画面が配置された面の裏面に設けられた第一のセンサと、前記画面側に設けられた第二のセンサとを備えた情報端末が、
    前記第二のセンサによって撮像された画像から前記情報端末の使用者の視点の位置を検出し、
    前記第一のセンサによって撮像される前記情報端末の使用者の生体の画像を前記画面に表示させる際に、前記第一のセンサに対する生体の適正配置が前記生体をモデル化したモデルの位置情報として設定された適正配置データを参照して、前記視点と前記モデルに含まれる頂点とを結ぶ直線が前記画面と交わる交点により形成される表示領域に、前記第一のセンサによって撮像された画像を前記画面上に形成される表示領域の大きさに応じて拡縮して表示する、
    処理を実行することを特徴とする画像処理方法。
  6. 画面と、該画面が配置された面の裏面に設けられた第一のセンサと、前記画面側に設けられた第二のセンサとを備えた情報端末であって、
    前記第二のセンサによって撮像された画像から前記情報端末の使用者の視点の位置を検出する検出部と、
    前記第一のセンサによって撮像される前記情報端末の使用者の生体の画像を前記画面に表示させる際に、前記第一のセンサに対する生体の適正配置が前記生体をモデル化したモデルの位置情報として設定された適正配置データを参照して、前記視点と前記モデルに含まれる頂点とを結ぶ直線が前記画面と交わる交点により形成される表示領域に、前記第一のセンサによって撮像された画像を前記画面上に形成される表示領域の大きさに応じて拡縮して表示する表示制御部と、
    を有することを特徴とする情報端末。
JP2015513466A 2013-04-26 2013-04-26 画像処理プログラム、画像処理方法及び情報端末 Active JP6052399B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/062431 WO2014174674A1 (ja) 2013-04-26 2013-04-26 画像処理プログラム、画像処理方法及び情報端末

Publications (2)

Publication Number Publication Date
JP6052399B2 true JP6052399B2 (ja) 2016-12-27
JPWO2014174674A1 JPWO2014174674A1 (ja) 2017-02-23

Family

ID=51791278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015513466A Active JP6052399B2 (ja) 2013-04-26 2013-04-26 画像処理プログラム、画像処理方法及び情報端末

Country Status (6)

Country Link
US (1) US9697415B2 (ja)
EP (1) EP2991027B1 (ja)
JP (1) JP6052399B2 (ja)
KR (1) KR101711781B1 (ja)
CN (1) CN105144228B (ja)
WO (1) WO2014174674A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6287450B2 (ja) * 2014-03-26 2018-03-07 富士通株式会社 携帯型情報処理装置、及びプログラム
CN105809049B (zh) * 2014-12-30 2019-11-05 中兴通讯股份有限公司 加解密的方法、装置及移动终端
CN105045395A (zh) * 2015-08-28 2015-11-11 京东方科技集团股份有限公司 一种显示装置及画面显示方法
JP6583025B2 (ja) 2016-02-01 2019-10-02 富士通株式会社 生体情報処理装置、生体情報処理方法、生体情報処理プログラム、および距離検知装置
US10255507B2 (en) * 2016-12-19 2019-04-09 Canon Kabushiki Kaisha Detection of an object in a distorted image
CN106774937B (zh) * 2017-01-13 2020-01-10 宇龙计算机通信科技(深圳)有限公司 一种增强现实技术中的图像交互方法及其装置
JP6825397B2 (ja) 2017-02-07 2021-02-03 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
EP3693923A4 (en) * 2017-10-03 2020-12-16 Fujitsu Limited RECOGNITION PROGRAM, RECOGNITION PROCESS AND RECOGNITION DEVICE
JP6897787B2 (ja) * 2017-10-03 2021-07-07 富士通株式会社 姿勢認識システム、画像補正プログラムおよび画像補正方法
JP2019086365A (ja) * 2017-11-06 2019-06-06 株式会社日立製作所 位置推定システム
CN109960964A (zh) * 2017-12-14 2019-07-02 红石生物特征科技有限公司 非接触式掌纹获取装置及其方法
US20220215538A1 (en) * 2019-05-20 2022-07-07 Aranz Healthcare Limited Automated or partially automated anatomical surface assessment methods, devices and systems
US11615639B1 (en) * 2021-01-27 2023-03-28 Jackson Klein Palm vein identification apparatus and method of use
CN113590250B (zh) * 2021-07-29 2024-02-27 网易(杭州)网络有限公司 图像处理方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006141589A (ja) * 2004-11-18 2006-06-08 Shigematsu:Kk 個人認証装置及び個人認証方法
JP2008040827A (ja) * 2006-08-07 2008-02-21 Fujitsu Ltd 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
JP2008160703A (ja) * 2006-12-26 2008-07-10 Sky Kk カメラ及びカメラ用プログラム
JP2011066699A (ja) * 2009-09-17 2011-03-31 Casio Computer Co Ltd 撮像装置及び撮像装置の表示用プログラム
JP2012054886A (ja) * 2010-09-03 2012-03-15 Nec Casio Mobile Communications Ltd 画像表示制御方法、画像表示制御装置、およびプログラム
WO2013051259A1 (ja) * 2011-10-07 2013-04-11 パナソニック株式会社 撮影装置及び撮影方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4286556B2 (ja) 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US20060044399A1 (en) * 2004-09-01 2006-03-02 Eastman Kodak Company Control system for an image capture device
JP4588577B2 (ja) 2005-08-16 2010-12-01 Kddi株式会社 掌紋認証装置、掌紋認証プログラム、及び掌紋認証方法、並びに掌紋画像の抽出方法、並びに掌紋認証装置を備えた携帯電話端末
JP4118322B2 (ja) * 2005-11-22 2008-07-16 松下電器産業株式会社 撮影装置、携帯端末装置、撮影方法、およびプログラム
JP4680158B2 (ja) 2006-09-13 2011-05-11 株式会社日立製作所 生体認証装置
EP2203865A2 (en) 2007-09-24 2010-07-07 Apple Inc. Embedded authentication systems in an electronic device
CN100550039C (zh) * 2007-11-16 2009-10-14 北京中星微电子有限公司 一种图像特征点定位方法及装置
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
JP4781440B2 (ja) * 2009-02-05 2011-09-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
CN101968846B (zh) * 2010-07-27 2013-05-15 上海摩比源软件技术有限公司 一种人脸跟踪方法
US8754831B2 (en) * 2011-08-02 2014-06-17 Microsoft Corporation Changing between display device viewing modes
JP2013077678A (ja) 2011-09-30 2013-04-25 Sony Corp 撮像素子、電子機器、並びに、製造方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006141589A (ja) * 2004-11-18 2006-06-08 Shigematsu:Kk 個人認証装置及び個人認証方法
JP2008040827A (ja) * 2006-08-07 2008-02-21 Fujitsu Ltd 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
JP2008160703A (ja) * 2006-12-26 2008-07-10 Sky Kk カメラ及びカメラ用プログラム
JP2011066699A (ja) * 2009-09-17 2011-03-31 Casio Computer Co Ltd 撮像装置及び撮像装置の表示用プログラム
JP2012054886A (ja) * 2010-09-03 2012-03-15 Nec Casio Mobile Communications Ltd 画像表示制御方法、画像表示制御装置、およびプログラム
WO2013051259A1 (ja) * 2011-10-07 2013-04-11 パナソニック株式会社 撮影装置及び撮影方法

Also Published As

Publication number Publication date
CN105144228A (zh) 2015-12-09
EP2991027A1 (en) 2016-03-02
KR101711781B1 (ko) 2017-03-02
CN105144228B (zh) 2018-07-06
KR20150133262A (ko) 2015-11-27
WO2014174674A1 (ja) 2014-10-30
US9697415B2 (en) 2017-07-04
JPWO2014174674A1 (ja) 2017-02-23
EP2991027A4 (en) 2016-04-20
US20160034747A1 (en) 2016-02-04
EP2991027B1 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP6052399B2 (ja) 画像処理プログラム、画像処理方法及び情報端末
US10205883B2 (en) Display control method, terminal device, and storage medium
US10657366B2 (en) Information processing apparatus, information processing method, and storage medium
JP7452571B2 (ja) 生体認証装置、生体認証方法および生体認証プログラム
JP6809226B2 (ja) 生体検知装置、生体検知方法、および、生体検知プログラム
EP2434372A2 (en) Controlled access to functionality of a wireless device
EP3559847B1 (en) Electronic device for biometric authentication of a user
CN109002786A (zh) 人脸检测方法、设备及计算机可读存储介质
WO2021164678A1 (zh) 虹膜自动捕捉方法、装置、计算机可读存储介质及计算机设备
JP2020505705A (ja) 特徴画像を習得するための方法およびデバイスならびにユーザー認証方法
JP2016177491A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP2009282706A (ja) 静脈認証装置および静脈認証方法
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP6446676B1 (ja) 本人認証システム、方法およびプログラム
WO2018072179A1 (zh) 一种基于虹膜识别的图像预览方法及装置
JP5791557B2 (ja) 連絡操作支援システム、連絡操作支援装置および連絡操作方法
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP5068711B2 (ja) 物体形状認識システム及び物体形状認識方法
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP2021096537A (ja) 生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体
JP5299632B2 (ja) 個人認証装置、プログラム及び記録媒体
CN109246284B (zh) 人脸解锁方法及电子设备
CN117765621A (zh) 活体检测方法、装置及存储介质
JP2014228949A (ja) 情報処理装置および処理実行方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6052399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150