JP2016194799A - 画像解析装置及び画像解析方法 - Google Patents

画像解析装置及び画像解析方法 Download PDF

Info

Publication number
JP2016194799A
JP2016194799A JP2015074174A JP2015074174A JP2016194799A JP 2016194799 A JP2016194799 A JP 2016194799A JP 2015074174 A JP2015074174 A JP 2015074174A JP 2015074174 A JP2015074174 A JP 2015074174A JP 2016194799 A JP2016194799 A JP 2016194799A
Authority
JP
Japan
Prior art keywords
subject
display
guidance
image analysis
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015074174A
Other languages
English (en)
Inventor
青木 隆浩
Takahiro Aoki
隆浩 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015074174A priority Critical patent/JP2016194799A/ja
Priority to US15/055,359 priority patent/US20160292525A1/en
Priority to EP16157817.4A priority patent/EP3076334A1/en
Priority to CN201610151016.1A priority patent/CN106020436A/zh
Priority to KR1020160034037A priority patent/KR20160117207A/ko
Publication of JP2016194799A publication Critical patent/JP2016194799A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/63Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Abstract

【課題】比較的小さな画面しか持たない画像解析装置でも、画像解析における指示を利用者に確実に伝えることを可能とする。【解決手段】画像解析装置50は、ディスプレイ52、カメラ54、推定部68、設定部70、誘導部72及び表示制御部74を有する。カメラは、ディスプレイに対面する被写体を撮影する。推定部は、カメラが撮影した被写体の形状を推定する。設定部は、被写体の形状に基づいて、ディスプレイの表示領域を設定する。誘導部は、被写体の形状に基づいて該被写体に対する誘導方向を算出する。表示制御部は、誘導方向に応じた誘導指示を表示領域に表示する。【選択図】図1

Description

本発明は、画像解析装置及び画像解析方法に関する。
例えば、手のひら静脈認証装置は、近赤外線で生体内の静脈パターンを撮影して個人を認証する装置である。このような装置は、認証対象の画像を撮影し、画像を解析する画像解析装置を含んでいる。
画像解析装置に関連する装置として、例えば、第1画像取得部と、画像合成部とを備え、所定の画像を加工する画像処理装置が知られている。この画像処理装置では、第1画像取得部は、第1画像を取得する。画像合成部は、第2画像を取得し、取得した第2画像と、第1画像取得部が取得した第1画像とを合成する。画像合成部は、第1画像取得部が取得した第1画像において所定の基準を満たす第1領域を検出し、検出した第1領域の近傍の領域に第2画像を重畳させ、第1画像と第2画像とを合成した第3画像を生成する(例えば、特許文献1参照)。
また、例えば携帯情報端末などで、画像を撮影するなどの動作を行う際に、利用者が操作しやすい位置にアイコンを表示するための表示方法も知られている。この携帯情報端末は、筐体の背面及び側面の少なくとも一方に設けられた複数のタッチセンサーでの検出結果に基づき、携帯情報端末において利用者の手によって保持されている位置を検出する。また、携帯情報端末は、内側カメラによって撮像された画像から、利用者の顔の向きを認識する。携帯情報端末は、検出された位置と認識された顔の向きとから、いずれの手で携帯情報端末を保持しているかという情報を含む保持状態を推定する。携帯情報端末は、推定された保持状態に基づき、現在の保持状態において利用者が容易に操作可能となるように、タッチパネルに表示されるべきアイコンの表示位置を決定する(例えば、特許文献2参照)。
特開2011−228913号公報 特開2013−222322号公報
ところで、携帯情報端末装置や、多機能携帯電話機など、デスクトップコンピュータやノート型コンピュータと比べて比較的小さい画面しか持たない装置に、手のひら静脈認証装置を搭載して認証しようとすると、以下のような問題がある。すなわち、手のひらを撮影するためにカメラに手をかざすと、手のひらによって画面表示が隠されてしまう場合があるという問題がある。画面表示が隠されてしまうと、利用者に、認証用の画像を撮影するため手の位置や高さなどを変更する指示等を適切に伝えることが難しくなり、使い勝手が低下する。
ひとつの側面によれば、本発明の目的は、比較的小さな画面しか持たない画像解析装置でも、画像解析における指示を利用者に確実に伝えるようにすることである。
ひとつの態様である画像解析装置は、ディスプレイ、カメラ、推定部、設定部、誘導部及び表示制御部を有する。カメラは、ディスプレイに対面する被写体を撮影する。推定部は、カメラが撮影した被写体の形状および位置を推定する。設定部は、被写体の形状および位置に基づいて、ディスプレイの表示領域を設定する。誘導部は、被写体の形状および位置に基づいて該被写体に対する誘導方向を算出する。表示制御部は、誘導方向に応じた誘導指示を表示領域に表示する。
ひとつの実施形態によれば、比較的小さな画面しか持たない画像解析装置でも、画像解析における指示を利用者に確実に伝えることが可能になる。
第1の実施の形態による画像解析装置の構成の一例を示す図である。 手のひら静脈認証を行う例を示す図である。 第1の実施の形態による視認可能領域の一例を示す図である。 第1の実施の形態による視認可能領域の一例を示す図である。 第1の実施の形態による所定の認証範囲を示す認証範囲テーブルの一例を示す図である。 第1の実施の形態による誘導画面の例を示す図である。 第1の実施の形態による画像認証装置を用いた生体認証方法を示すフローチャートである。 第1の実施の形態による視認可否判定処理を示すフローチャートである。 第2の実施の形態による画像解析装置の構成の一例を示す図である。 第2の実施の形態による誘導後の視認可能領域の算出例を示す図である。 第2の実施の形態による誘導後画面表示処理の一例を示すフローチャートである。
(第1の実施の形態)
以下、図面を参照しながら、第1の実施の形態による画像解析装置50について説明する。図1は、第1の実施の形態による画像解析装置50の構成の一例を示す図である。図1に示すように、画像解析装置50は、ディスプレイ52、カメラ54、処理装置60、および記憶装置56を有している。画像解析装置50は、生体認証装置としての機能を有している。画像解析装置50としては、例えば、携帯情報端末装置や、多機能携帯電話機などが用いられるようにしてもよい。この場合、通信機能などが搭載されているが、ここでは、生体認証装置としての機能を示している。
ディスプレイ52は、情報を表示する表示装置であり、例えば、液晶表示装置である。ディスプレイ52は、処理装置60により制御されることで、所定の表示を行う。ディスプレイ52は、タッチパネルを有するようにしてもよい。タッチパネルを有する場合、ディスプレイ52は、処理装置60により制御されることで、所定の表示を行うとともに、タッチパネルへの接触を検知する。このときディスプレイ52は、画面の表示と対応する部分への接触が検知されると、検知された接触の、画面上の位置に対応する情報を出力する。
カメラ54は、画像を撮影する撮影装置であり、撮像素子に加え、照明を有するようにしてもよい。本実施の形態において、カメラ54は、生体認証の対象となる被写体を撮影する。カメラ54は、ディスプレイ52に対面する被写体を撮影する。記憶装置56は、例えば、メモリであり、データベース76、誘導画面データ78などを格納している。データベース76は、例えば、後述する認証範囲テーブルや、生体認証に使用する登録特徴データなど、画像解析装置50が画像解析処理を行う際に必要とする情報を含んでいる。誘導画面データ78は、被写体の位置を誘導する指示を含む画面データである。記憶装置56は、画像解析装置50の動作を制御するプログラムを格納するようにしてもよい。また、記憶装置56は、画像解析装置50が各種処理を行う際に、例えば画像バッファなどとして、必要に応じて作業領域として用いられるようにしてもよい。
処理装置60は、例えば、画像解析装置50における各種処理を行う演算処理装置(プロセッサ)である。処理装置60は、例えば記憶装置56に予め記憶された制御プログラムを読み込んで実行することで、画像解析装置50としての各種処理を行うようにしてもよい。このとき、処理装置60は、管理部62、特徴抽出部64、照合部66、推定部68、設定部70、誘導部72、表示制御部74としての機能を実現する。あるいは、画像解析装置50は、処理装置60により実現される各機能の一部または全てに対応する集積回路を有するようにしてもよい。
管理部62は、画像解析装置50による生体認証処理全体を総括する処理を実行する。特徴抽出部64は、カメラ54で撮影された画像から認証に使用する生体特徴を抽出する。照合部66は、照合処理を行う。すなわち照合部66は、特徴抽出部64が抽出した登録特徴データを用い、登録特徴データと入力データとがどの程度似ているかを表す類似度を出力する。
推定部68は、被写体の3次元形状を取得する処理を行う。推定部68は、カメラ54が撮影した被写体の形状および位置を推定する。具体的にはShape From Shading(SFS)処理など行い、被写体の3次元形状を取得する。SFS処理として、例えば、被写体上の複数の位置の輝度を測定し、複数の位置の夫々毎に、当該位置から光源までの距離を算出することで、被写体の3次元形状を取得する処理を用いるようにしてもよい。
設定部70は、被写体の3次元形状に基づき利用者から見えると推定される視認可能領域を計算し、指示を表示する表示領域を設定する。すなわち、設定部70は、被写体の形状および位置に基づいて、ディスプレイ52の表示領域を設定する。誘導部72は、算出された被写体の3次元形状(形状及び位置)に基づき、被写体を誘導する誘導方向を算出する。表示制御部74は、算出された誘導方向に応じた指示を、設定部70で設定された上記表示領域に表示させる処理を行う。
図2は、例えば、タブレット型の端末装置や、多機能携帯電話機の形態(まとめて、多機能携帯電話機等ということがある)の画像解析装置50により、手のひら静脈認証を行う例を示す図である。多機能携帯電話機などに手のひら静脈認証装置を搭載して認証すると、手のひらによって画面表示が隠されてしまう場合がある。図2の手80のように、画像解析装置50のディスプレイ52の一部が隠されてしまうことがある。手82や手84などのように、ディスプレイ52のどこが隠されるかは、手の大きさや位置によって変わる。しかし、ディスプレイ52の一部が隠されてしまうと、結果として、利用者に、手の位置や高さなどを適切な位置に誘導するための誘導指示を適切に伝えることが難しくなり、使い勝手が低下する。これは、ノート型コンピュータや大型のタブレットでは起こりづらいが、デバイスの小型化によって生じる問題である。
また、多機能携帯電話機等では、上下左右に本体が回転すると、加速度センサによって画面が上下左右回転して動作する。その結果、手のひら静脈認証センサとなるカメラ54の位置を、利用者が間違えて手をかざしてしまうケースもあり得る。このような場合の誘導の際に、画面が手で隠されてしまう場合もあり得る。
特に手のひら静脈認証は非接触の認証であるため、手の位置や高さが一定とは限らない。また、手の大きさや形状は個人によって異なる為、誘導や、指示入力等のためのユーザインタフェース(User Interface:UI)画面(誘導画面ということがある。)をどこに表示するかを一意に決めることは難しい。
図3は、第1の実施の形態による視認可能領域の一例を示す図である。図3に示すように、目90は、例えばディスプレイ52の中心からディスプレイ52に垂直な方向へ伸びる直線上にあるとする。このとき、撮影された画像に基づき、被写体92の3次元形状が推定される。目90は、境界98から境界96までの範囲でディスプレイ52の画面94を視認することになる。図3において、被写体92の右側の境界97より左側は、被写体92に隠れて画面94が視認不可能となっている。よって、図3の例では、目90が視認できる画面94の範囲は、視認可能領域100で表される。なお、上述のように、被写体92の形状は、例えばSFS処理等により取得される。上記のように、画面94上の複数の点について、目90が視認可能かどうかが判定される。
図4は、第1の実施の形態による視認可能領域の一例を示す図である。図4に示すように、推定される被写体92の形状と、目90の位置とに基づき、ディスプレイ52の画面94において、目90にとって視認できる領域か否かが判定される。具体的には、ディスプレイ52の画面94上の点と、利用者の目90を結ぶ線上に被写体92が存在するかどうかが判定される。被写体92で遮られてしまう領域は利用者からは見えないため、視認不能領域102となる。一方、被写体92に遮られない領域は利用者から見えるため、視認可能領域104として判定される。誘導処理の際には、画像解析装置50は、この視認可能領域104に合わせて、誘導画面を表示する。視認可能領域の判定については後述される。
図5は、第1の実施の形態による所定の認証範囲を示す認証範囲テーブル125の一例を示す図である。認証範囲テーブル125は、画像解析装置50の生体認証における性能に合わせた、被写体が存在する好ましい3次元範囲を示す情報である。認証範囲テーブル125は、高さ範囲、X方向範囲、Y方向範囲を有している。高さとは、例えばディスプレイ52の画面から被写体までの距離である。X方向、Y方向は、ディスプレイ52に平行な面内の二次元方向である。3次元方向の夫々について、被写体が存在する範囲が示されている。例えば、認証範囲テーブル125に示された範囲に被写体が存在する場合に、生体認証が行われるようにしてもよい。
図6は、第1の実施の形態による誘導画面の例を示す図である。上記のように判定される視認可能領域104等の形状は、様々な条件によって変わる可能性がある。その為、誘導用画面レイアウトを複数用意しておくことが好ましい。これらのパターンは、誘導画面データ78として記憶装置56に記憶される。例えば、横長の視認可能領域の場合の誘導用表示110、正方形の場合の誘導用表示112、縦長の場合の誘導用表示114の3パターンを用意しておき、その中から選択することが考えられる。具体的には、誘導内容(移動方向など)、視認可能領域の大きさ、視認可能領域の形状に応じた複数のテンプレートを保存しておくことが好ましい。例えば、認証範囲テーブル125を参照して、算出された被写体の3次元位置が認証範囲テーブル125に記録された範囲と異なっている場合に、好ましい範囲に誘導するための所定の表示を行うようにしてもよい。また、誘導画面を表示する位置も適宜変更されることが好ましい。例えば誘導画面は、なるべく大きい視認可能領域に表示させるようにしてもよい。なるべくカメラ54から離れた視認可能領域に誘導画面を表示させるようにしてもよい。
図7は、第1の実施の形態の画像解析装置50を用いた生体認証方法を示すフローチャートである。図7に示すように、画像解析装置50の管理部62は、カメラ54に被写体となる生体、例えば手のひらに対する照明を行わせ、認証用画像の撮影を実行させる(S131)。認証用画像は、認証処理に用いる画像であり、手のひら静脈認証の場合は、手のひら画像が該当する。
管理部62は、距離情報を取得する(S132)。距離情報は、認証用画像をもとにSFS処理などによって被写体距離を算出することで得られる。例えば、SFS処理などで計算した被写体上の各点までの距離の平均値などを用いることが好ましい。
管理部62は、位置判定処理を行う(S133)。位置判定処理は、被写体の高さおよび上下左右方向の位置が所定の範囲内にあるかどうかを判断する処理である。上下左右方向の位置判定は、被写体の重心座標などを計算して、その重心座標の位置に基づき行うことが好ましい。尚、距離情報の計算は、センサに搭載されている距離センサをもとに行う構成としてもよい。このような構成によれば、装置を製造するためのコストは上がるが、精度は高くなる。
位置が適切である場合(S134:YES)、管理部62は、認証処理を実行する(S135)。認証処理は、例えば手のひら静脈認証処理である。管理部62は、カメラ54で撮影した画像と、記憶装置56に記憶されたデータベース76における登録特徴データとに基づき、認証を行う。
位置が適切でない場合(S134:NO)、設定部70は、視認可否判定処理を行い(S136)、例えば、被写体の位置を移動させるように誘導画面を表示し(S137)、S131に戻って処理を繰り返す。
図8は、第1の実施の形態による視認可否判定処理を示すフローチャートである。視認可否判定処理において、管理部62は、カメラ54を使って撮影した被写体上の点のインデックスをi=1とする(S141)。被写体上の点は、例えば所定距離毎など任意に定められるようにしてもよい。管理部62は、目90の推定位置Qと、被写体座標の延長線上で、画面上の座標P(X,Y)を算出する(S142)。
以下、視認可能領域計算処理について説明する。設定部70では、推定部68から得た被写体の3次元データ(Xi,Yi,Zi)(i=1、・・・、N)、および、利用者の目90の推定存在位置Q(Xe,Ye,Ze)を入力として、視認可能領域を出力する。ここで、大文字のX、Y、Zは、例えば、画面94の上の中心を原点とする3次元的な座標を表すとする。
まず、3次元形状取得部から得た被写体の3次元データOi(Xi,Yi,Zi)について説明する。(Xi,Yi,Zi)は、SFS処理などによって取得した被写体の3次元座標のi番目のデータ点を表している。ここで、i=1、・・・、Nは、得られた3次元情報の番号を表す。
推定部68は、画面上の点(x,y)が利用者から見えるかどうか判定を行い、可視フラグを設定する(S143)。尚、小文字のx,yは画面上の座標を表し、単位をピクセルから長さ(mm)に変換することが好ましい。推定部68は、利用者の目の位置Q(Xe,Ye,Ze)と被写体(Xi,Yi,Zi)とを結んだ直線の延長線上で、画面上の点P(x,y)を求める(S142)。点P(x,y)が、被写体に遮られて利用者からは見えないと判断されると、点P(x,y)の可視フラグ=0を設定する。
以下では、点Pと点Qの間に被写体が存在するかどうかの判定処理について説明する。3次元座標系X、Y、Zにおいて、利用者の目の推定位置Q(Xe,Ye,Ze)と被写体Oi(Xi,Yi,Zi)を結ぶ直線lを求めるものとする。直線lは媒介変数tを用いて式1のように求めることができる。
X=Xe+(Xi−Xe)t
Y=Ye+(Yi−Ye)t
Z=Ze+(Zi−Ze)t
・・・(式1)
次に、直線lと画面94とが交差する点P(x,y)が求められる。画面のZ座標は、Z=0であるため、式1から媒介変数tを下記式2のように求めることができる。
t=Ze/(Ze−Zi)・・・(式2)
上記媒介変数tを式1に代入することで、画面上の点P(x,y)を求めることができる。該当点P(x,y)が例えば、画面94の範囲内の場合(P(x,y)が画面94上かどうかは、画面94のサイズで決まる)、該当点P(x,y)は、被写体に遮られて利用者からは見ることができない(視認不能)と判定される。このとき、点P(x,y)の可視フラグ=0とされる。
設定部70は、i≦Nの場合(S144:NO)、i=i+1として(S145)、S141から処理を繰り返す。i>Nの場合(S144:YES)、設定部70は、視認可否判定処理を終了する。このような処理を予め設定された全被写体点に対して適用することで、視認可能領域が算出される。算出された視認可能領域に、図6で説明した誘導用表示110などを表示させることで、被写体にさえぎられることなく、画面が視認される。
ここで、計算された視認可能領域に応じて誘導画面を表示する処理を説明する。誘導画面表示処理は、誘導部72が行い、その際に、記憶装置56に記憶されている誘導画面データ78が用いられる。例えば、誘導画面データ78は、誘導する内容に応じた「誘導パターン」に対応した誘導画面を含むことが好ましい。例えば、誘導パターンとして、下記のようなパターンを含むことが好ましい。
・手の高さを下方向に誘導する。
・手の高さを上方向に誘導する
・手を右方向に誘導する。
・手を左方向に誘導する
・手を下方向(手前方向)に誘導する
・手を上方向(奥方向)に誘導する
第1の実施の形態においては、図6に、誘導画面として縦横比の異なる3パターンの誘導画面を示した。例えば、手を右方向に誘導する場合、図6に示した3パターンの画面を用意しておき、その中から適切な画像を利用することが好ましい。
例えば、誘導部72は、計算で得られた視認可能領域の縦横比を求め、それに最も近い縦横比を持つ誘導画面を選択して表示するようにしてもよい。尚、誘導画面の全体の大きさは、視認可能領域の面積に応じて調整する。例えば、誘導部72は、視認可能領域をラベリングして小領域を除いた後、最大領域Sを求める。誘導部72は、最大領域Sの縦、横の長さを求め、その比に応じて、例えば、図6の3パターンから適切な画像を選択する。
例えば、視認可能領域が十分に大きい場合には、矢印などの図形とともに、図6に示したように文字を含めた誘導(例えば、「手を離してください」)を行うことができる。一方、視認可能領域が小さい場合、文字を表示することは難しい為、矢印などの直観的な誘導表示のみを用いることで限られた表示領域を有効に活用することができる。
以上説明したように、第1の実施の形態による画像解析装置50は、ディスプレイ52、カメラ54、推定部68、設定部70、誘導部72、及び表示制御部74を有している。カメラ54は、ディスプレイ52に対面する被写体を撮影する。推定部68は、カメラ54が撮影した被写体の形状および位置を推定する。設定部70は、被写体の形状および位置に基づいて、ディスプレイ52の表示領域を設定する。誘導部72は、被写体の形状および位置に基づいて該被写体に対する誘導方向を算出する。表示制御部74は、誘導方向に応じた誘導指示を表示領域に表示する。
画像解析装置50を、例えば、手のひら静脈認証装置として用いる場合、多機能携帯電話機等、小型のデバイスに搭載されることがある。このように、画像解析装置50として小型のデバイスを用いる場合にも、画面上の被写体で遮られないところに表示を行うため、画像解析における指示を利用者に確実に伝えることができ、使い勝手が向上する。小型のデバイスでも、使い勝手よく生体認証が行えると、個人認証の手段として非常に有用なものとなる。特に、セキュリティが重要な様々な業務分野で利用されるにあたり、重用されることが期待される。
また、多機能携帯電話機などでは、加速度センサによって上下左右回転しても動作する結果、手のひら静脈認証センサ位置を利用者が間違えて、手をかざしてしまうケースもあり得る。このような場合の誘導の際に、画面が手で隠されることが防止される。特に手のひら静脈認証等は、非接触で認証するので、手の位置や高さが一定とは限らず、また、手の大きさや形状が個人によって異なることがあっても、誘導画面を視認可能な場所に表示することができる。
(第2の実施の形態)
以下、第2の実施の形態による画像解析装置200について説明する。第2の実施の形態において、第1の実施の形態と同様の構成及び動作については、同一番号を付し、重複説明を省略する。
図9は、第2の実施の形態による画像解析装置200の構成の一例を示す図である。図9に示すように、画像解析装置200は、ディスプレイ52、カメラ54、処理装置210、および記憶装置56を有している。画像解析装置200は、生体認証装置としての機能を有している。画像解析装置200としては、例えば、携帯情報端末装置や、多機能携帯電話機などが用いられるようにしてもよい。この場合、通信機能などが搭載されているが、ここでは、生体認証装置としての機能を示している。
処理装置210は、画像解析装置200における各種処理を行う演算処理装置である。処理装置210は、例えば記憶装置56に予め記憶された制御プログラムを読み込んで実行することで、画像解析装置200としての各種処理を行うようにしてもよい。このとき、処理装置210は、第1の実施の形態の画像解析装置50と同様に、管理部62、特徴抽出部64、照合部66、推定部68、設定部70、誘導部72、表示制御部74としての機能を実現する。処理装置210は、さらに、誘導後座標計算部212としての機能を実現する。あるいは、画像解析装置200は、処理装置60により実現される各機能の一部または全てに対応する集積回路を有するようにしてもよい。誘導後座標計算部212は、被写体の誘導後の座標を計算する。第2の実施の形態においては、画像解析装置200は、誘導後視認可能領域を算出し、誘導画面表示に用いることが好ましい。
図10は、第2の実施の形態による誘導後の視認可能領域の算出例を示す図である。図10に示すように、ディスプレイ52と目90との位置関係は、図4の例と同様であるとする。被写体92の位置が適切でないと判定されると、例えば、誘導後被写体222の位置まで、被写体92を誘導することが好ましい。このとき、画像解析装置200は、現在の視認可能領域100と、誘導後の誘導後視認可能領域224との重複した領域を求め、ここに誘導画面を表示することが好ましい。被写体の誘導後でも利用者から見える領域に誘導画面を表示することで、誘導過程においても誘導画面が常に見えるようにできる。
このとき、画像解析装置200は、誘導後被写体222の位置まで誘導した場合の被写体位置を推測し、誘導後の誘導後視認可能領域224を求めることが好ましい。誘導後視認可能領域224が十分に大きい場合には、矢印などの図形とともに、図6に示したように文字を含めた誘導(例えば、「手を離してください」)を行うことができる。一方、視認可能領域が小さい場合、文字を表示することは難しいため、矢印などの直観的な誘導表示のみを用いることで限られた表示領域を有効に活用する。
誘導後視認可能領域の計算、及び誘導画面の表示の一例は、下記に示される。図11は、第2の実施の形態による誘導後画面表示処理の一例を示すフローチャートである。誘導後座標計算部212は、誘導幅を計算する(S231)。誘導幅は、現在撮影された被写体3次元情報をもとに、誘導すべき量を計算したものである。高さ=Zを誘導する場合、ΔZは次の式3のように求まる。
ΔZ=(現在の被写体座標Ziの平均)−(誘導後の高さZ)・・・(式3)
誘導後の高さZは、例えば、図5の認証範囲テーブル125に示した所定の認証範囲内の値であって、現在の高さに最も近い値としてもよい。X座標、Y座標に関する誘導幅も同様に求めることができる。具体的には、誘導後に、被写体の中心(例えば、手のひら中心)が、画面中央になるように算出してもよい。
誘導後座標計算部212は、誘導前の被写体座標と算出した誘導幅とに基づき、誘導後被写体座標O’i(Xi’,Yi’,Zi’)を計算する(S232)。また、誘導後座標計算部212は、誘導後被写体座標から誘導後視認可能領域を計算する(S233)。誘導後座標計算部212は、誘導後被写体座標から算出した誘導後視認可能領域と、現在の視認可能領域とが重複する領域を求め、該当領域に誘導画面を表示する(S234)。以上のように、画像解析装置200では、被写体の位置を適切な位置に誘導する必要がある場合、誘導後の被写体にさえぎられない位置に、誘導画面を表示する。よって、誘導処理の途中でも利用者が見る誘導画面が遮られることがないため、使い勝手がさらに向上する。計算された誘導後の視認可能領域に応じて誘導画面を表示する処理は、第1の実施の形態と同様である。
以上説明したように、第2の実施の形態による画像解析装置200によれば、誘導画面は、被写体の誘導前の視認可能領域と、誘導後の視認可能領域との共通領域に表示される。このように、画像解析装置200によれば、誘導画面を表示させる位置を適切に決定することができる。また、適切な位置に誘導画面が表示されるので、利用者は、被写体を移動させる際に常に誘導画面を視認することが可能であり、使い勝手がさらに向上する。
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。例えば、上記第1または第2の実施の形態において、利用者の目90の推定位置Q(Xe,Ye,Ze)は、所定の値を標準値として採用していた。しかし、実際には利用者ごとに異なることが考えられる。その為、利用者ごとにQ(Xe,Ye,Ze)を個別に設定するような構成とするようにしてもよい。これにより、より実際に即した誘導画面の表示位置を選択することができる。
誘導画面は、縦横比の異なる画面を複数準備し、拡大縮小するようにしていたが、これに限定されない。例えば誘導画面の大きさに応じて表示する情報を適宜切り替えた方がよい場合がある。例えば、誘導画面内に文字を表示する場合、ある程度以上画面が小さくなると、文字が利用者からは見えなくなる。そのため、表示する誘導画面のサイズに応じて誘導画面を切り替える構成としてもよい。具体的には、視認可能領域が十分に大きい場合には文字と画像の両方を表示する。しかし、表示領域が小さい場合には、文字を表示せずに画像(「⇒」矢印等)のみを表示するような構成としてもよい。このような構成により、利用者の使い勝手がさらに向上される。
なお、SFS処理以外にも、格子状に配置されたスポット照明を用いる方式や、レーザーを用いた光切断法など様々な方式を利用するようにしてもよい。また、視認可能領域が複数ある場合には、画面94上で、カメラ54からなるべく遠い領域を優先的に選択することが好ましい。このような選択を行うことで、より誘導画面が被写体にさえぎられる可能性を低減させることができる。
以上の第1及び第2の実施形態に関し、さらに以下の付記を開示する。
(付記1)
ディスプレイと、
前記ディスプレイに対面する被写体を撮影するカメラと、
前記カメラが撮影した前記被写体の形状を推定する推定部と、
前記被写体の形状に基づいて、前記ディスプレイの表示領域を設定する設定部と、
前記被写体の形状に基づいて該被写体に対する誘導方向を算出する誘導部と、
前記誘導方向に応じた誘導指示を前記表示領域に表示する表示制御部と、
を備えることを特徴とする画像解析装置。
(付記2)
前記設定部は、前記誘導部が算出した誘導方向に基づいて前記表示領域を変更することを特徴とする付記1に記載の画像解析装置。
(付記3)
前記設定部は、前記カメラからの距離が遠い表示領域を優先して設定することを特徴とする付記1または付記2に記載の画像解析装置。
(付記4)
画像解析装置が、
カメラにより撮影された、ディスプレイに対面する被写体の形状を推定し、
前記被写体の形状に基づいて、前記ディスプレイの表示領域を設定し、
前記被写体の形状に基づいて該被写体に対する誘導方向を算出し、
前記誘導方向に応じた誘導指示を前記表示領域に表示する、
ことを特徴とする画像解析方法。
(付記5)
さらに、算出された誘導方向に基づいて前記表示領域を変更することを特徴とする付記4に記載の画像解析方法。
(付記6)
さらに、前記カメラからの距離が遠い表示領域を優先して設定することを特徴とする付記4または付記5に記載の画像解析方法。
(付記7)
カメラにより撮影された、ディスプレイに対面する被写体の形状を推定し、
前記被写体の形状に基づいて、前記ディスプレイの表示領域を設定し、
前記被写体の形状に基づいて該被写体に対する誘導方向を算出し、
前記誘導方向に応じた誘導指示を前記表示領域に表示する、
処理をコンピュータに実行させるプログラム。
50 画像解析装置
52 ディスプレイ
54 カメラ
56 記憶装置
60 処理装置
62 管理部
64 特徴抽出部
66 照合部
68 推定部
70 設定部
72 誘導部
74 表示制御部
76 データベース
78 誘導画面データ
80〜84 手
90 目
92 被写体
94 画面
96〜98 境界
100 視認可能領域
102 視認不能領域
104 視認可能領域
110〜114 誘導用表示
125 認証範囲テーブル

Claims (5)

  1. ディスプレイと、
    前記ディスプレイに対面する被写体を撮影するカメラと、
    前記カメラが撮影した前記被写体の形状を推定する推定部と、
    前記被写体の形状に基づいて、前記ディスプレイの表示領域を設定する設定部と、
    前記被写体の形状に基づいて該被写体に対する誘導方向を算出する誘導部と、
    前記誘導方向に応じた誘導指示を前記表示領域に表示する表示制御部と、
    を備えることを特徴とする画像解析装置。
  2. 前記設定部は、前記誘導部が算出した誘導方向に基づいて前記表示領域を変更することを特徴とする請求項1に記載の画像解析装置。
  3. 前記設定部は、前記カメラからの距離が遠い表示領域を優先して設定することを特徴とする請求項1または請求項2に記載の画像解析装置。
  4. 画像解析装置が、
    カメラにより撮影された、ディスプレイに対面する被写体の形状を推定し、
    前記被写体の形状に基づいて、前記ディスプレイの表示領域を設定し、
    前記被写体の形状に基づいて該被写体に対する誘導方向を算出し、
    前記誘導方向に応じた誘導指示を前記表示領域に表示する、
    ことを特徴とする画像解析方法。
  5. カメラにより撮影された、ディスプレイに対面する被写体の形状を推定し、
    前記被写体の形状に基づいて、前記ディスプレイの表示領域を設定し、
    前記被写体の形状に基づいて該被写体に対する誘導方向を算出し、
    前記誘導方向に応じた誘導指示を前記表示領域に表示する、
    処理をコンピュータに実行させるプログラム。
JP2015074174A 2015-03-31 2015-03-31 画像解析装置及び画像解析方法 Withdrawn JP2016194799A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015074174A JP2016194799A (ja) 2015-03-31 2015-03-31 画像解析装置及び画像解析方法
US15/055,359 US20160292525A1 (en) 2015-03-31 2016-02-26 Image analyzing apparatus and image analyzing method
EP16157817.4A EP3076334A1 (en) 2015-03-31 2016-02-29 Image analyzing apparatus and image analyzing method
CN201610151016.1A CN106020436A (zh) 2015-03-31 2016-03-16 图像分析装置及图像分析方法
KR1020160034037A KR20160117207A (ko) 2015-03-31 2016-03-22 화상 해석 장치 및 화상 해석 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015074174A JP2016194799A (ja) 2015-03-31 2015-03-31 画像解析装置及び画像解析方法

Publications (1)

Publication Number Publication Date
JP2016194799A true JP2016194799A (ja) 2016-11-17

Family

ID=55637154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015074174A Withdrawn JP2016194799A (ja) 2015-03-31 2015-03-31 画像解析装置及び画像解析方法

Country Status (5)

Country Link
US (1) US20160292525A1 (ja)
EP (1) EP3076334A1 (ja)
JP (1) JP2016194799A (ja)
KR (1) KR20160117207A (ja)
CN (1) CN106020436A (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110114732A (ko) 2007-09-24 2011-10-19 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US20180068313A1 (en) 2016-09-06 2018-03-08 Apple Inc. User interfaces for stored-value accounts
US10496808B2 (en) 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
EP3482345B1 (en) * 2017-09-09 2021-12-08 Apple Inc. Implementation of biometric authentication with detection and display of an error indication
AU2018312629B2 (en) * 2017-09-09 2019-11-21 Apple Inc. Implementation of biometric authentication
EP4156129A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric enrollment
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
DE102017221663A1 (de) * 2017-12-01 2019-06-06 Audi Ag Identifizierungseinrichtung zum Identifizieren einer Person, Verfahren zum Identifizieren einer Person, und Kraftfahrzeug
JP6988523B2 (ja) * 2018-01-30 2022-01-05 富士通株式会社 生体認証装置、生体認証プログラム、及び生体認証方法
US11170085B2 (en) * 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11328352B2 (en) 2019-03-24 2022-05-10 Apple Inc. User interfaces for managing an account
US11941629B2 (en) * 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification
US11816194B2 (en) 2020-06-21 2023-11-14 Apple Inc. User interfaces for managing secure operations
US11270102B2 (en) 2020-06-29 2022-03-08 Amazon Technologies, Inc. Electronic device for automated user identification

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1922865A2 (en) * 2005-08-18 2008-05-21 Koninklijke Philips Electronics N.V. Device for and method of displaying user information in a display
JP5034359B2 (ja) * 2006-08-07 2012-09-26 富士通株式会社 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
JP5447134B2 (ja) 2010-04-19 2014-03-19 カシオ計算機株式会社 画像処理装置、返信画像生成システム、及び、プログラム
JP5747916B2 (ja) * 2010-07-29 2015-07-15 富士通株式会社 生体認証装置および生体認証プログラム
US20140330900A1 (en) * 2011-11-23 2014-11-06 Evernote Corporation Encounter-driven personal contact space
JP2013222322A (ja) 2012-04-17 2013-10-28 Nec Casio Mobile Communications Ltd 携帯情報端末、及びそのタッチパネルにおける表示方法
JP5935529B2 (ja) * 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
CN103870812A (zh) * 2014-03-13 2014-06-18 上海云享科技有限公司 一种获取掌纹图像的方法及系统

Also Published As

Publication number Publication date
CN106020436A (zh) 2016-10-12
EP3076334A1 (en) 2016-10-05
KR20160117207A (ko) 2016-10-10
US20160292525A1 (en) 2016-10-06

Similar Documents

Publication Publication Date Title
JP2016194799A (ja) 画像解析装置及び画像解析方法
US10203764B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US8994721B2 (en) Information processing apparatus, information processing method, and program for extending or expanding a viewing area of content displayed on a 2D workspace into a 3D virtual display screen
EP2866123A2 (en) Screen operation apparatus and screen operation method
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
CN108027656B (zh) 输入设备、输入方法和程序
US10176556B2 (en) Display control apparatus, display control method, and non-transitory computer readable medium
JP2012238293A (ja) 入力装置
JP2014029656A (ja) 画像処理装置および画像処理方法
US20150010214A1 (en) Information processing device, communication counterpart decision method and storage medium
JP6201282B2 (ja) 携帯電子機器、その制御方法及びプログラム
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
US20220244788A1 (en) Head-mounted display
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20150076574A (ko) 공간 터치 방법 및 공간 터치 장치
JP6373546B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP3201596U (ja) 操作入力装置
CN111095394A (zh) 显示处理设备、显示处理方法和程序
US20240118751A1 (en) Information processing device and information processing method
JP2016224888A (ja) 情報処理装置、座標推定プログラム及び座標推定方法
CN116075801A (zh) 电子设备及程序
JP6134235B2 (ja) 制御装置、電子制御システム、制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180207