JP6648751B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6648751B2
JP6648751B2 JP2017500286A JP2017500286A JP6648751B2 JP 6648751 B2 JP6648751 B2 JP 6648751B2 JP 2017500286 A JP2017500286 A JP 2017500286A JP 2017500286 A JP2017500286 A JP 2017500286A JP 6648751 B2 JP6648751 B2 JP 6648751B2
Authority
JP
Japan
Prior art keywords
user
sight
line
gaze
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017500286A
Other languages
English (en)
Other versions
JPWO2016132617A1 (ja
Inventor
竹雄 塚本
竹雄 塚本
宗一 小波
宗一 小波
伊藤 智行
智行 伊藤
崇史 安倍
崇史 安倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016132617A1 publication Critical patent/JPWO2016132617A1/ja
Application granted granted Critical
Publication of JP6648751B2 publication Critical patent/JP6648751B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Collating Specific Patterns (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
従来、ユーザの視線の変化の検出結果を用いてユーザを認証する技術が提案されている。例えば、特許文献1には、表示パネルに表示される複数の画像に対するユーザの注視位置や注視点の移動からなる動作パターンを特定し、そして、特定した動作パターンと、事前に登録されている判定パターンとの一致度に基づいてユーザを認証する技術が開示されている。
特開2014−92940号公報
しかしながら、特許文献1に記載の技術では、認証の安全性が低い。例えば、上記の技術では、表示パネルに表示可能な画像数が制約されるので、判定パターンの登録可能な数が制約される。このため、ユーザの認証時に、例えば第三者にユーザの視線の動きを盗み見されることにより、判定パターンが第三者に特定される恐れがある。
そこで、本開示では、視線の移動を用いた安全性の高い認証を実現することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する視線移動特定部と、特定された視線の移動に基づいて前記ユーザを認証するユーザ認証部と、を備える、情報処理装置が提供される。
また、本開示によれば、撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定することと、特定された視線の移動に基づいて前記ユーザを認証することと、を備える、情報処理方法が提供される。
また、本開示によれば、コンピュータを、撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する視線移動特定部と、特定された視線の移動に基づいて前記ユーザを認証するユーザ認証部、として機能させるための、プログラムが提供される。
以上説明したように本開示によれば、視線の移動を用いた安全性の高い認証を実現することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の実施形態による情報処理装置10‐1の外観図である。 同実施形態による情報処理装置10‐1の構成例を示した機能ブロック図である。 同実施形態によるユーザの眼球の画像の例を示した説明図である。 同実施形態によるユーザの右手の画像の例を示した説明図である。 同実施形態によるユーザの右手に対する視線動作の例を示した説明図である。 同実施形態によるジェスチャーと組み合わせた視線動作の例を示した説明図である。 同実施形態によるユーザ情報DB130の構成例を示した説明図である。 同実施形態の適用例によるユーザの身体の画像の例を示した説明図である。 同適用例によるユーザの身体に対する視線動作の例を示した説明図である。 同実施形態による動作の一部を示したフローチャートである。 同実施形態による動作の一部を示したフローチャートである。 本開示の第2の実施形態による情報処理装置10‐2の構成例を示した機能ブロック図である。 本開示の第3の実施形態による情報処理装置30の外観図である。 同実施形態による情報処理装置30の構成例を示した機能ブロック図である。 情報処理装置10‐1、情報処理装置10‐2、および情報処理装置30に共通するハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて眼球画像20aおよび眼球画像20bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、眼球画像20aおよび眼球画像20bを特に区別する必要が無い場合には、単に眼球画像20と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.第1の実施形態
2.第2の実施形態
3.第3の実施形態
4.ハードウェア構成
5.変形例
<<1.第1の実施形態>>
<1−1.情報処理装置10‐1の基本構成>
[1−1−1.基本構成]
まず、第1の実施形態について説明する。最初に、第1の実施形態による情報処理装置10‐1の基本構成について、図1を参照して説明する。
図1は、情報処理装置10‐1の外観を示した説明図である。図1に示したように、情報処理装置10‐1は、例えば、ユーザが頭部に装着して利用可能な眼鏡型の装置である。また、情報処理装置10‐1は、図1に示したように、第1撮像部120、第2撮像部122、および表示画面を表示する表示部124を有する。
第1撮像部120は、情報処理装置10‐1の内側に向けられた撮像部である。この第1撮像部120は、ユーザが情報処理装置10‐1を装着した状態において、ユーザの片方の眼球の画像を例えば動画像として撮像することが可能である。また、第2撮像部122は、情報処理装置10‐1の外側に向けられた撮像部である。この第2撮像部122は、ユーザの前方の光景の画像を例えば動画像として撮像することが可能である。
また、表示部124は、例えばシースルーディスプレイとして構成される。これにより、ユーザは、情報処理装置10‐1を頭部に装着した状態において、表示部124に表示される表示画面を視認しながら、ディスプレイを介してユーザの前方の光景を見ることが可能である。
なお、図1では、第1撮像部120、第2撮像部122、および表示部124が、図1における右側のレンズに設けられる例を示しているが、かかる例に限定されず、左側のレンズに設けられてもよい。
[1−1−2.課題の整理]
以上、第1の実施形態による情報処理装置10‐1の基本構成について説明した。ところで、従来、表示画面に表示された複数の画像に対するユーザの視線の変化の検出結果を用いてユーザを認証する技術が提案されている。しかしながら、公知の技術では、認証の安全性が低い。例えば、上記の技術では、表示画面に表示可能な画像数が制約されるので、判定パターンの登録可能な数が制約される。このため、ユーザの認証時に、例えば第三者にユーザの視線の動きを盗み見されることにより、判定パターンが第三者に特定される恐れがある。
ところで、例えば手や足など、ユーザが見ることが可能なユーザの身体の部分は非常に多い。そこで、ユーザの身体に対する視線の移動のパターンを用いてユーザを認証することを想定すると、視線パターンの登録可能な数が非常に大きいので、仮に第三者にユーザの視線の動きを盗み見されたとしても、視線パターンが第三者に特定されるリスクが非常に小さい。
そこで、上記事情を一着眼点にして、第1の実施形態による情報処理装置10‐1を創作するに至った。第1の実施形態による情報処理装置10‐1は、ユーザの身体に対する視線パターンを用いることにより、安全性の高い認証を実現することが可能である。
<1−2.構成>
次に、情報処理装置10‐1の構成について詳細に説明する。図2は、情報処理装置10‐1の構成を示した機能ブロック図である。図2に示したように、情報処理装置10‐1は、制御部100‐1、第1撮像部120、第2撮像部122、表示部124、通信部126、および記憶部128を有する。
[1−2−1.制御部100‐1]
制御部100‐1は、情報処理装置10‐1に内蔵される、後述するCPU(Central Processing Unit)150、RAM(Random Access Memory)154などのハードウェアを用いて、情報処理装置10‐1の動作を全般的に制御する。また、図2に示したように、制御部100‐1は、視線検出部102、視線移動特定部104、視線パターン比較部106、ユーザ認証部108、および、表示制御部110を有する。
[1−2−2.視線検出部102]
視線検出部102は、第1撮像部120により撮像されたユーザの眼球の画像に基づいて、ユーザの視線方向を検出する。例えば、視線検出部102は、まず、第1撮像部120により撮像されたユーザの眼球の画像に含まれる眼球の黒目の位置を特定し、そして、特定した位置に基づいて、ユーザの視線方向を検出する。より具体的には、視線検出部102は、例えば記憶部128に記憶されている、視線方向ごとの眼球の画像の学習データと、第1撮像部120により撮像された眼球の画像とをパターンマッチングすることにより、ユーザの視線方向を特定する。
ここで、図3を参照して、上記の機能についてより詳細に説明する。図3は、第1撮像部120により撮像された眼球の画像の例(眼球画像20)を示した説明図である。例えば、視線検出部102は、図3に示した眼球画像20aおよび学習データに基づいて、眼球画像20aにおけるユーザの視線方向を「左」と特定する。同様に、視線検出部102は、図3に示した眼球画像20bにおけるユーザの視線方向を「右下」と特定する。
[1−2−3.視線移動特定部104]
(1−2−3−1.特定例1)
視線移動特定部104は、視線検出部102により検出されたユーザの視線方向、および、第2撮像部122により撮像されたユーザの身体の画像に基づいて、ユーザの身体に対するユーザの視線の移動を特定する。例えば、視線移動特定部104は、まず、ユーザの目の位置から、視線検出部102により検出されたユーザの視線方向へ伸ばした半直線とユーザの身体の部位との交点(以下、目視位置とも称する)を算出することにより、ユーザが見ている部位を特定する。そして、視線移動特定部104は、特定した部位に対するユーザの視線動作を特定する。
ここで、ユーザの視線動作は、例えば、ユーザの身体の部位に対する注視または視線のトレースを含む。なお、視線のトレースとは、ユーザが視線で描く軌跡であり、例えば直線、曲線、または円などの様々な形状である。
例えば、ユーザが所定の時間以上同じ位置を見ていることが検出された場合には、視線移動特定部104は、該当の位置をユーザが注視していると特定する。また、ユーザが見ている始点から所定の時間未満に目視位置が連続的に移動したことが検出された場合には、視線移動特定部104は、該当の部位に対してユーザが始点からトレースしていることを特定する。
ここで、図4および図5を参照して、上記の機能についてより詳細に説明する。図4は、第2撮像部122により撮像されたユーザの右手の画像の例(右手画像22)を示した説明図である。なお、図4では、ユーザが小指の先端220aを注視していることを前提としている。
例えば、視線移動特定部104は、視線検出部102により検出されたユーザの視線方向に基づいて目視位置を算出することにより、ユーザが見ている部位が小指の先端220aであることを特定する。そして、ユーザが所定の時間以上同じ位置を見ていることが検出された場合には、視線移動特定部104は、小指の先端220aをユーザが注視していると特定する。
また、図5は、図4に示した姿勢において、ユーザによりなされた一連の視線動作を示した説明図である。具体的には、図5では、破線の矢印で示したように、ユーザが、まず、小指の先端220aを注視し、次に、掌の生命線を視線でトレースし、そして、中指の先端から根元までを視線でトレースした例を示している。
例えば、ユーザが小指の先端220aから生命線の下端へ視線方向を不連続に移動させ、かつ、移動後の点から所定の時間未満に生命線に沿って目視位置を連続的に移動させたことが検出された場合には、視線移動特定部104は、ユーザが生命線をトレースしていることを特定する。さらに、生命線の上端から中指の先端へ視線方向を不連続に移動させ、かつ、移動後の点から所定の時間未満に目視位置を連続的に移動させたことが検出された場合には、中指に対してユーザがトレースしていることを特定する。
(1−2−3−2.特定例2)
また、視線移動特定部104は、ユーザにより複数の視線動作が行われた場合には、視線動作の順番と対応づけて、個々の視線動作を特定する。例えば、図5に示した例では、視線移動特定部104は、小指の先端220aの注視を一番目の視線動作として特定し、生命線の下端から上端までのトレースを二番目の視線動作として特定し、そして、中指の先端から根元までのトレースを三番目の視線動作として特定する。
(1−2−3−3.特定例3)
なお、変形例として、視線移動特定部104は、ユーザの身体の姿勢の変化に連動した、身体に対するユーザの視線動作を特定することも可能である。例えば、視線移動特定部104は、ユーザの身体の姿勢が変化する度に、変化後の姿勢に対するユーザの視線動作を特定する。なお、姿勢の変化とは、例えばジェスチャーであってもよい。
ここで、図6を参照して、上記の機能についてより詳細に説明する。図6は、第2撮像部122により撮像されたユーザの右手のジェスチャーの画像の例(ジェスチャー画像24)を示した説明図である。なお、図6では、ジェスチャー画像24a、ジェスチャー画像24b、ジェスチャー画像24cの順番で撮像されたこと、つまり、ユーザが右手の形状をグー、チョキ、パーの順番で変化させた例を示している。
例えば、視線移動特定部104は、まず、ジェスチャー画像24aに基づいて、右手の形状がグーであることを特定する。そして、視線移動特定部104は、右手の形状がグーであるときにユーザが親指の先端240aを注視していることを特定する。
また、視線移動特定部104は、ジェスチャー画像24bに基づいて、右手の形状がグーからチョキに変化されたことを特定する。そして、視線移動特定部104は、右手の形状がチョキであるときにユーザが人差し指の先端240bを注視していることを特定する。同様に、視線移動特定部104は、ジェスチャー画像24cに基づいて、右手の形状がチョキからパーに変化されたことを特定し、そして、右手の形状がパーであるときにユーザが小指の先端240cを注視していることを特定する。
この特定例によれば、ユーザによるジェスチャーと組み合わせた個々の視線動作を特定することができる。
[1−2−4.視線パターン比較部106]
視線パターン比較部106は、ユーザと対応づけてユーザ情報DB130に登録されている視線パターンと、視線移動特定部104により特定されたユーザの視線の移動に基づいた視線パターンとを比較する。より具体的には、視線パターン比較部106は、まず、視線の移動順ごとの、視線移動特定部104により特定されたユーザの身体の部位の各々に対する視線動作の配列を視線パターンとして特定する。そして、視線パターン比較部106は、特定した視線パターンと、ユーザ情報DB130に登録されている視線パターンとを比較し、一致度を判定する。
例えば、図5に示した例では、視線パターン比較部106は、3つの視線動作の配列、つまり、小指の先端の注視、生命線の下端から上端までのトレース、および中指の先端から根元までのトレースという配列をユーザの視線パターンとして特定する。そして、視線パターン比較部106は、当該ユーザと対応づけてユーザ情報DB130に登録されている視線パターンに含まれる各視線動作と、視線移動特定部104により特定された視線パターンに含まれる各視線動作とを視線の移動順ごとにそれぞれ比較することにより、視線パターンの一致度を判定する。
(1−2−4−1.ユーザ情報DB130)
ユーザ情報DB130は、ユーザに対応づけて視線パターンが記録されるデータベースである。ここで、図7を参照して、ユーザ情報DB130の構成例について説明する。
図7に示したように、ユーザ情報DB130では、例えば、ユーザID1300、対象部位・姿勢1302、および視線パターン1304が対応づけられる。また、視線パターン1304は、例えば1番目の視線動作1306a、2番目の視線動作1306bなど、各順番の視線動作1306を含む。
ここで、ユーザID1300には、各ユーザに対して予め発行されたユーザIDが記録される。また、対象部位・姿勢1302には、該当のユーザIDのユーザと対応づけて視線パターンが登録されている部位および部位の姿勢が記録される。また、視線パターン1304には、該当のユーザIDのユーザおよび該当の部位に対応づけて登録されている視線パターンが記録される。また、各順番の視線動作1306には、登録されている視線パターンに含まれる各順番の視線動作の内容が記録される。
例えば、図7に示した1レコード目は、ユーザIDが「0001」であるユーザに関する、右手を開いた状態における右手に対する視線パターンの登録例を示している。そして、この視線パターンに含まれる一番目の視線動作は「小指の先端の注視」であり、二番目の視線動作は「生命線の下端から上端までのトレース」であり、そして、三番目の視線動作は「中指の先端から根元までのトレース」であることを示している。
[1−2−5.ユーザ認証部108]
ユーザ認証部108は、視線パターン比較部106による比較の結果に基づいてユーザを認証する。より具体的には、ユーザ認証部108は、視線パターン比較部106により判定された一致度が所定の閾値以上である場合にはユーザが正当なユーザであると判定し、また、判定された一致度が所定の閾値未満である場合にはユーザが正当なユーザではないと判定する。
また、ユーザ認証部108は、認証の結果を他の装置へ、後述する通信部126に送信させることも可能である。
[1−2−6.表示制御部110]
表示制御部110は、視線移動特定部104により視線の移動が特定される度に、特定された視線の移動を示す表示を、後述する表示部124に逐次表示させる。例えば、図5に示した例では、表示制御部110は、視線移動特定部104により小指の先端220aをユーザが注視していることが確認された場合には、注視位置を示す表示を小指の先端220aにおいて表示部124に重畳表示させる。同様に、表示制御部110は、視線移動特定部104により生命線の下端を始点としてユーザがトレースしていることが確認される度に、新たに確認された部分の線を(例えばトレース220bに示したように)表示部124に追加して重畳表示させる。
この表示例によれば、ユーザは、認証時において、情報処理装置10‐1により認識された視線動作を逐次確認しながら視線を移動させることができる。このため、ユーザは、身体に対する視線動作をより容易に行うことができる。
[1−2−7.第1撮像部120]
第1撮像部120は、本開示における第1の撮像部の一例である。第1撮像部120は、ユーザの眼球の画像を撮像する。
[1−2−8.第2撮像部122]
第2撮像部122は、本開示における第2の撮像部の一例である。第2撮像部122は、ユーザの視線方向に位置するユーザの身体の画像を撮像する。
[1−2−9.表示部124]
表示部124は、表示制御部110の制御に従って、各種の表示画面を表示する。
[1−2−10.通信部126]
通信部126は、例えば無線通信により、情報処理装置10‐1と通信可能な他の装置(図示省略)との間で情報の送受信を行う。例えば、通信部126は、情報処理装置10‐1を装着するユーザのユーザIDを他の装置から受信する。
[1−2−11.記憶部128]
記憶部128は、例えば、ユーザ情報DB130やユーザIDなどの各種のデータやソフトウェアを記憶することが可能である。
なお、第1の実施形態による情報処理装置10‐1の構成は、上述した構成に限定されない。例えば、ユーザ情報DB130は、記憶部128に記憶される代わりに、情報処理装置10‐1と通信可能な他の装置に記憶されることも可能である。また、情報処理装置10‐1は、ユーザが例えばユーザIDなどの各種の情報を情報処理装置10‐1に対して入力するための入力部をさらに含んでもよい。なお、入力部は、例えば、視線による入力、つまり、視線検出部102により検出される視線方向に基づいた入力を受け付けることが可能であってもよい。
<1−3.適用例>
以上、第1の実施形態による構成について説明した。続いて、第1の実施形態の適用例について、図8および図9を参照して説明する。なお、本適用例では、左腕および左手に対する視線の移動によりユーザ認証を行う場面を前提とする。
図8は、第2撮像部122により撮像された、ユーザの左腕の前腕および左手の画像(左腕画像26)である。また、図9は、図8に示した姿勢において、ユーザによりなされた一連の視線動作を示した説明図である。具体的には、図9では、破線の矢印で示したように、ユーザが、まず、左腕のひじ262aを注視し、次に、人差し指の第2関節262bを注視し、そして、前腕に含まれるホクロ262cを注視した例を示している。
例えば、まず、視線移動特定部104は、視線検出部102により検出されたユーザの視線方向、および、第2撮像部122により撮像されたユーザの身体の画像に基づいて、左腕のひじ262aの注視を一番目の視線動作として特定する。
そして、左腕のひじ262aから人差し指の第2関節262bへ視線方向が不連続に移動され、かつ、移動後の場所をユーザが所定の時間以上見ていることが検出された場合には、視線移動特定部104は、人差し指の第2関節262bの注視を二番目の視線動作として特定する。さらに、人差し指の第2関節262bから前腕のホクロ262cへ視線方向が不連続に移動され、かつ、移動後の場所をユーザが所定の時間以上見ていることが検出された場合には、視線移動特定部104は、前腕のホクロ262cの注視を三番目の視線動作として特定する。
そして、視線パターン比較部106は、視線移動特定部104により特定された各順番の視線動作の配列をユーザの視線パターンとして特定する。そして、視線パターン比較部106は、当該ユーザと対応づけてユーザ情報DB130に登録されている視線パターンに含まれる各視線動作と、特定した視線パターンに含まれる各視線動作とを視線の移動順ごとにそれぞれ比較することにより、視線パターンの一致度を判定する。
そして、ユーザ認証部108は、視線パターン比較部106により判定された一致度が所定の閾値以上である場合にはユーザが正当なユーザであると判定する。また、ユーザ認証部108は、判定された一致度が所定の閾値未満である場合にはユーザが正当なユーザではないと判定する。
<1−4.動作>
以上、第1の実施形態の適用例について説明した。続いて、第1の実施形態による動作について、図10〜図11を参照して説明する。
図10は、第1の実施形態による動作の一部を示したフローチャートである。図10に示したように、まず、情報処理装置10‐1の通信部126は、他の装置からユーザIDを受信する(S101)。なお、変形例として、記憶部128にユーザIDが予め記憶されている場合には、制御部100‐1は、記憶部128からユーザIDを抽出してもよい。
続いて、視線移動特定部104は、S101で取得されたユーザIDと対応づけてユーザ情報DB130に登録されている視線パターンをユーザ情報DB130から抽出する(S103)。
続いて、視線移動特定部104は、視線動作の順番を示す変数iに「1」を設定する(S105)。そして、視線移動特定部104は、視線動作の総数を示す定数Nに、S103で抽出された視線パターンに含まれる視線動作の数を設定する(S107)。
続いて、視線移動特定部104は、iの値がN以下であるか否かを判定する(S109)。iがN以下である場合には(S109:Yes)、視線移動特定部104は、視線検出部102によりユーザの視線方向の変化が検出されたか否かを判定する(S111)。ユーザの視線方向の変化が未検出である場合には(S111:No)、視線移動特定部104は、S111の動作を繰り返す。
一方、ユーザの視線方向の変化が検出された場合には(S111:Yes)、視線移動特定部104は、検出された移動後の視線方向に基づいて、ユーザが見ている身体の部位を特定する(S113)。
続いて、視線移動特定部104は、S113で特定した身体の部位に対するユーザの視線動作を特定する(S115)。
続いて、視線移動特定部104は、S115で特定した視線動作をi番目の視線動作として記憶部128に記録する(S117)。
続いて、視線移動特定部104は、iに「1」を加算する(S119)。その後、視線移動特定部104は、再びS109の動作を繰り返す。
ここで、図11を参照して、S109においてiの値がNより大きいと判定された場合(S109:No)の動作について説明する。
図11に示したように、視線パターン比較部106は、S117で記憶部128に記録された各順番の視線動作の配列を視線パターンとして特定する(S121)。
続いて、視線パターン比較部106は、S121で特定された視線パターンと、S103で抽出された視線パターンとを比較し、一致度を判定する(S123)。判定された一致度が所定の閾値以上である場合には(S123:Yes)、ユーザ認証部108は、ユーザが正当なユーザであると判定する(S125)。一方、判定された一致度が所定の閾値未満である場合には(S123:No)、ユーザ認証部108は、ユーザが正当なユーザではないと判定する(S127)。
<1−5.効果>
以上、例えば図2、図10、図11などを参照して説明したように、第1の実施形態による情報処理装置10‐1は、第1撮像部120により撮像されたユーザの眼球の画像、および、第2撮像部122により撮像された、ユーザの視線方向に位置するユーザの身体の画像に基づいて、ユーザの身体に対するユーザの視線の移動を特定し、そして、特定された視線の移動に基づいてユーザを認証する。
例えば手や足など、ユーザが見ることが可能な身体の部分に対する視線パターンの登録可能な数は非常に大きいので、情報処理装置10‐1は、視線の移動を用いた安全性の高い認証を実現することできる。例えば、ユーザの認証時に、仮に第三者がユーザの視線の動きを盗み見したとしても、第三者が視線パターンを完全に特定することは難しい。従って、視線パターンが他人に盗まれにくいので、安全性が高く、堅牢なユーザ認証が可能になる。
また、ユーザは、非常に多くの身体の部位の中から視線動作の対象の部位を自由に選択することができる。また、ユーザは、希望に応じて視線パターンを任意に変更することも可能である。
<<2.第2の実施形態>>
以上、第1の実施形態について説明した。次に、第2の実施形態について説明する。まず、第2の実施形態を創作するに至った背景について説明する。
例えば腕や指の長さ、または、ホクロ、皺、血管パターンの位置や形状などといった身体的特徴は個人特有のものである。このため、ユーザ本人にとっては身体的特徴は容易に識別可能であったり、忘れにくいのに対して、他人にとっては識別し辛く、かつ、記憶し辛い。
そこで、身体的特徴を用いた視線の移動のパターンによりユーザを認証することを想定すると、ユーザの認証時に、仮に第三者にユーザの視線の動きを盗み見されたとしても、視線パターンが第三者に特定されるリスクが非常に小さい。そして、視線パターンが、他人にさらに盗まれにくい。
後述するように、第2の実施形態によれば、身体的特徴を用いた視線パターンを用いることにより、さらに安全性の高い認証を実現することが可能である。
<2−1.基本構成>
第2の実施形態による情報処理装置10‐2の基本構成は、図1に示した第1の実施形態と同様である。
<2−2.構成>
次に、情報処理装置10‐2の構成について詳細に説明する。図12は、第2の実施形態による情報処理装置10‐2の構成を示した機能ブロック図である。図12に示したように、情報処理装置10‐2は、第1の実施形態による情報処理装置10‐1と比較して、制御部100‐1の代わりに、制御部100‐2を有する。なお、以下では、第1の実施形態と重複する機能については説明を省略する。
[2−2−1.制御部100‐2]
制御部100‐2は、制御部100‐1と比較して、身体的特徴検出部112をさらに有する。
[2−2−2.身体的特徴検出部112]
身体的特徴検出部112は、第2撮像部122により撮像された、ユーザの視線方向に位置するユーザの身体の画像に基づいて、ユーザの身体の一部に関する身体的特徴を検出する。
(2−2−2−1.身体までの距離の特定)
例えば、身体的特徴検出部112は、まず、視線検出部102により検出された視線方向に基づいて、ユーザの目の位置からユーザが見ている身体の部位までの距離を特定する。より具体的には、身体的特徴検出部112は、例えば、情報処理装置10‐2が有する距離センサー(図示省略)による計測結果や、第2撮像部122による撮像画像に基づいて、ユーザが見ている部位までの距離を特定する。または、例えば所定の専用装置の中で予め登録しておいた姿勢をユーザにとらせるなど、予め登録しておいた立ち位置にユーザが位置する場合には、身体的特徴検出部112は、予め計測しておいた距離(固定距離)をユーザが見ている部位までの距離として特定する。
(2−2−2−2.身体的特徴の検出)
次に、身体的特徴検出部112は、第2撮像部122により撮像されたユーザの身体の部位の画像、および特定した当該身体の部位までの距離に基づいて、当該部位の相対的な長さや、相対的な位置を検出する。より具体的には、まず、身体的特徴検出部112は、第2撮像部122により撮像されたユーザの身体の部位の画像に基づいて、当該部位の仮の長さや、特定の場所を起点とした当該部位における他の場所の仮の位置を算出する。そして、身体的特徴検出部112は、特定した当該身体の部位までの距離と、視線パターンの登録時におけるユーザの目の位置から当該身体の部位までの距離との比に基づいて、算出した仮の長さや、仮の位置を正規化することにより、当該部位の相対的な長さや、当該他の場所の相対的な位置を算出する。
また、身体的特徴検出部112は、当該部位に含まれる例えばホクロ、皺、または血管パターンなどの形状、相対的な長さ、または特定の場所を起点とした相対的な位置を検出する。なお、上記の特定の場所は、例えばユーザが当該部位において最初に見た場所に定められてもよい。
ここで、図4を参照して、上記の機能についてより詳細に説明する。例えば、身体的特徴検出部112は、図4に示した右手画像22に基づいて、まず、ユーザの目の位置から右手までの距離を特定する。そして、身体的特徴検出部112は、右手画像22、および特定した距離に基づいて、右手の掌線や右手の各指に関する特徴を検出する。より具体的には、身体的特徴検出部112は、例えば感情線、頭脳線、生命線などの各掌線の形状、相対的な長さ、または特定の場所を起点とした相対的な位置を検出する。また、身体的特徴検出部112は、各指の相対的な長さや、特定の場所を起点とした各指の相対的な位置を検出する。
[2−2−3.視線移動特定部104]
第2の実施形態による視線移動特定部104は、視線検出部102により検出されたユーザの視線方向、第2撮像部122により撮像されたユーザの身体の画像、および身体的特徴検出部112により検出された身体的特徴に基づいて、ユーザの身体に対するユーザの視線の移動を特定する。例えば、図5に示した例では、視線移動特定部104は、身体的特徴検出部112により検出された各掌線に関する特徴に基づいて、掌においてユーザが視線でトレースした線(つまり生命線)の相対的な位置、相対的な長さ、または形状などを含む情報を二番目の視線動作として特定する。また、視線移動特定部104は、身体的特徴検出部112により検出された中指に関する特徴に基づいて、中指においてユーザが視線でトレースした線(つまり中指の先端から根元まで)の相対的な位置、および相対的な長さを含む情報を三番目の視線動作として特定する。
また、図6に示した例では、視線移動特定部104は、身体的特徴検出部112により検出された右手の身体的特徴に基づいて、右手の各形状ごとに、特定の場所を起点とした、ユーザが注視した場所240の相対的な位置を含む情報を各順番の視線動作として特定する。なお、この例において、上記の特定の場所は、一番目の視線動作における注視位置(つまり、右手の形状がグーであるときの親指の先端240a)であってもよい。これにより、視線移動特定部104は、例えば右手の形状がチョキであるときのユーザの注視位置を、右手の形状がグーであるときのユーザの注視位置を起点とした相対的な位置として特定することになる。
なお、情報処理装置10‐2に含まれるその他の構成要素の機能については、第1の実施形態と概略同様である。
<2−3.適用例>
以上、第2の実施形態による構成について説明した。続いて、第2の実施形態の適用例について、図8および図9を参照して説明する。
図8に示した例では、まず、身体的特徴検出部112は、視線検出部102により検出された視線方向に基づいて、ユーザの目の位置から(ユーザが見ている)左腕または左手までの距離を特定する。
次に、身体的特徴検出部112は、図8に示した左腕画像26、および特定した左腕または左手までの距離に基づいて、左腕または左手に関する身体的特徴を検出する。例えば、身体的特徴検出部112は、前腕に含まれるホクロの位置を特定する。
次に、視線移動特定部104は、視線検出部102により検出されたユーザの視線方向、および身体的特徴検出部112により検出された身体的特徴に基づいて、ユーザが最初に注視している部位(つまり、左腕のひじ262a)の、特定の場所を起点とした相対的な位置を特定し、そして特定した位置を含む情報を一番目の視線動作として特定する。
そして、視線移動特定部104は、左腕のひじ262aから人差し指の第2関節262bへ視線方向が不連続に移動され、かつ、移動後の場所をユーザが所定の時間以上見ていることが検出された場合には、視線移動特定部104は、ユーザが現在見ている部位(つまり、人差し指の第2関節262b)の、特定の場所を起点とした相対的な位置を特定し、そして、特定した位置を含む情報を二番目の視線動作として特定する。
なお、視線移動特定部104は、例えば一番目の視線動作における注視位置(左腕のひじ262a)を起点とした人差し指の第2関節262bまでの相対的な距離、およびホクロの位置を起点とした人差し指の第2関節262bまで相対的な距離に基づいて、人差し指の第2関節262bの相対的な位置を特定してもよい。
さらに、人差し指の第2関節262bから前腕のホクロ262cへ視線方向が不連続に移動され、かつ、移動後の場所をユーザが所定の時間以上見ていることが検出された場合には、視線移動特定部104は、前腕のホクロ262cの相対的な位置を含む情報を三番目の視線動作として特定する。
そして、視線パターン比較部106は、視線移動特定部104により特定された各順番の視線動作の配列をユーザの視線パターンとして特定する。そして、視線パターン比較部106は、当該ユーザと対応づけてユーザ情報DB130に登録されている視線パターンに含まれる各視線動作と、特定した視線パターンに含まれる各視線動作とを視線の移動順ごとにそれぞれ比較することにより、視線パターンの一致度を判定する。
そして、ユーザ認証部108は、視線パターン比較部106により判定された一致度が所定の閾値以上である場合にはユーザが正当なユーザであると判定する。また、ユーザ認証部108は、判定された一致度が所定の閾値未満である場合にはユーザが正当なユーザではないと判定する。
<2−4.動作>
以上、第2の実施形態による構成について説明した。続いて、第2の実施形態による動作について説明する。なお、第2の実施形態による動作は、図10〜図11に示した第1の実施形態と概略と同様である。以下では、第1の実施形態と内容が異なるステップについてのみ説明を行う。
S113では、まず、身体的特徴検出部112は、視線検出部102により検出された移動後の視線方向、および第2撮像部122により撮像されたユーザの身体の画像に基づいて、ユーザが見ている身体の部位に関する身体的特徴を検出する。
また、S115では、視線移動特定部104は、視線検出部102により検出されるユーザの視線方向、およびS113で検出された身体的特徴に基づいて、S113で特定した身体の部位に対するユーザの視線動作を特定する。
<2−5.効果>
以上、例えば図12などを参照して説明したように、第2の実施形態による情報処理装置10‐2は、第2撮像部122により撮像された、ユーザの視線方向に位置するユーザの身体の画像に基づいて、ユーザの身体の一部に関する身体的特徴を検出し、第1撮像部120により撮像されたユーザの眼球画像および検出された身体的特徴に基づいてユーザの身体に対するユーザの視線の移動を特定し、そして、特定された視線の移動に基づいてユーザを認証する。
このため、情報処理装置10‐2は、身体的特徴を用いた視線パターンを用いることにより、さらに安全性の高い認証を実現することが可能である。例えば、ユーザの認証時に、仮に第三者にユーザの視線の動きを盗み見されたとしても、身体的特徴は個人特有のものであり、第三者にとっては識別し辛いので、第三者が視線パターンを完全に特定することは極めて難しい。従って、身体的特徴を用いた視線パターンは他人にさらに盗まれにくいので、安全性がさらに高く、堅牢なユーザ認証が可能になる。
また、例えば指紋認証のような、身体的特徴のみを利用したユーザ認証の場合には、認証情報を変更することが難しいので、仮に認証情報が漏えいした場合に影響が大きくなってしまう。一方、第2の実施形態による認証方法では、視線パターンを容易に変更することが可能であるので、仮に視線パターンが漏えいしたとしても、被害を小さく抑えることができるという利点がある。
<<3.第3の実施形態>>
以上、第2の実施形態について説明した。次に、第3の実施形態について説明する。
上述したように、第1の実施形態による情報処理装置10‐1、および第2の実施形態による情報処理装置10‐2は、二種類の撮像部、すなわち、ユーザの眼球画像を撮像する第1撮像部120と、ユーザの身体の画像を撮像する第2撮像部122とを有することを前提とした。
後述するように、第3の実施形態によれば、一種類の撮像部だけを有する装置により、身体に対するユーザの視線の移動を特定し、ユーザを認証することが可能である。
<3−1.基本構成>
まず、第3の実施形態による情報処理装置30の基本構成について、図13を参照して説明する。
図13は、情報処理装置30の外観を示した説明図である。図13に示したように、情報処理装置30は、例えば、ユーザ2の眼球、および例えば腕などのユーザ2の身体の一部を撮像可能な撮像部320を有する。この情報処理装置30は、例えば、家の玄関などに設置されてもよい。さらに、情報処理装置30は、玄関のドアを開錠させることを目的としたユーザ認証を行う認証システムの一部として構成されてもよい。
<3−2.構成>
次に、情報処理装置30の構成について詳細に説明する。図14は、第3の実施形態による情報処理装置30の構成を示した機能ブロック図である。図14に示したように、情報処理装置30は、制御部300、撮像部320、出力部322、通信部324、および記憶部326を有する。なお、以下では、第2の実施形態と重複する機能については説明を省略する。
[3−2−1.制御部300]
制御部300は、情報処理装置30の動作を全般的に制御する。また、図14に示したように、制御部300は、視線検出部302、視線移動特定部304、視線パターン比較部306、ユーザ認証部308、出力制御部310、および、身体的特徴検出部312を有する。
[3−2−2.視線検出部302]
視線検出部302は、後述する撮像部320により撮像されたユーザの眼球の画像に基づいて、ユーザの視線方向を検出する。なお、具体的な機能については、第2の実施形態による視線検出部102と概略同様である。
[3−2−3.身体的特徴検出部312]
身体的特徴検出部312は、撮像部320により撮像された、ユーザの視線方向に位置するユーザの身体の画像に基づいて、ユーザの身体の一部に関する身体的特徴を検出する。なお、具体的な機能については、第2の実施形態による身体的特徴検出部112と概略同様である。
[3−2−4.視線移動特定部304]
視線移動特定部304は、視線検出部102により検出されたユーザの視線方向、撮像部320により撮像されたユーザの身体の画像、および身体的特徴検出部312により検出された身体的特徴に基づいて、ユーザの身体に対するユーザの視線の移動を特定する。なお、具体的な機能については、第2の実施形態による視線移動特定部104と概略同様である。
[3−2−5.出力制御部310]
出力制御部310は、ユーザ認証部308による認証結果を、後述する出力部322に出力させる。例えば、出力制御部310は、認証結果を知らせる音を出力部322に出力させる。
[3−2−6.撮像部320]
撮像部320は、ユーザの眼球の画像、およびユーザの視線方向に位置するユーザの身体の画像を例えば同時に撮像する。
[3−2−7.出力部322]
出力部322は、出力制御部310の制御に従って、音または映像を出力する。
なお、視線パターン比較部306、ユーザ認証部308、通信部324、および記憶部326は、第2の実施形態による視線パターン比較部106、ユーザ認証部108、通信部126、または記憶部128とそれぞれ同様である。
以上、第3の実施形態による情報処理装置30の構成について説明したが、上述した構成に限定されない。例えば、情報処理装置30は、出力制御部310、出力部322、または通信部324のうち1以上を有しなくてもよい。
<3−3.動作>
第3の実施形態による動作は、2−4節で述べた第2の実施形態による動作と概略同様である。
<3−4.効果>
以上、例えば図13および図14を参照して説明したように、第3の実施形態による情報処理装置30は、撮像部320により撮像された、ユーザの視線方向に位置するユーザの身体の画像に基づいて、ユーザの身体の一部に関する身体的特徴を検出し、撮像部320により撮像されたユーザの眼球の画像、および検出された身体的特徴に基づいて、ユーザの身体に対するユーザの視線の移動を特定し、そして、特定された視線の移動に基づいてユーザを認証する。このため、第2の実施形態と概略同様の機能を実現するので、第2の実施形態と同様の効果が得られる。
<<4.ハードウェア構成>>
次に、情報処理装置10‐1、情報処理装置10‐2、および情報処理装置30のハードウェア構成について、図15を参照して説明する。図15に示したように、情報処理装置10‐1(または、情報処理装置10‐2、情報処理装置30)は、CPU150、ROM(Read Only Memory)152、RAM154、内部バス156、インターフェース158、出力装置160、カメラ162、ストレージ装置164、および通信装置166を備える。
<4−1.CPU150>
CPU150は、演算処理装置および制御装置として機能する。このCPU150は、制御部100‐1(または、制御部100‐2、制御部300)の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
<4−2.ROM152>
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
<4−3.RAM154>
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
<4−4.内部バス156>
内部バス156は、CPUバスなどから構成される。この内部バス156は、CPU150、ROM152、およびRAM154を相互に接続する。
<4−5.インターフェース158>
インターフェース158は、出力装置160、カメラ162、ストレージ装置164、および通信装置166を、内部バス156と接続する。例えばストレージ装置164は、このインターフェース158および内部バス156を介して、CPU150との間でデータをやり取りする。
<4−6.出力装置160>
出力装置160は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。この表示装置は、CPU150により生成された画像などを表示する。
さらに、出力装置160は、スピーカーなどの音声出力装置を含む。この音声出力装置は、音声データ等を音に変換して出力する。この出力装置160は、表示部124または出力部322として機能する。
<4−7.カメラ162>
カメラ162は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させ、静止画像又は動画像を撮影する機能を有する。このカメラ162は、第1撮像部120、第2撮像部122、または撮像部320として機能する。
<4−8.ストレージ装置164>
ストレージ装置164は、記憶部128または記憶部326として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
<4−9.通信装置166>
通信装置166は、例えば公衆網やインターネットなどの通信網に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部126または通信部324として機能する。
<<5.変形例>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<5−1.変形例1>
例えば、上述した各実施形態では、ユーザIDが受信または入力された場合、すなわちユーザが特定されていることを前提としてユーザの認証を行う例について説明したが、かかる例に限定されない。例えば、情報処理装置30(または、情報処理装置10‐1、情報処理装置10‐2)は、ユーザ情報DB130に記録されている全てのユーザの視線パターンに基づいて、撮影対象の人物がいずれのユーザであるかを識別することも可能である。
具体的には、情報処理装置30は、まず、視線移動特定部304により特定されたユーザの視線の移動に基づいた視線パターンと、ユーザ情報DB130に登録されている、特定のグループに属する各ユーザ(または全てのユーザ)の視線パターンとをそれぞれ比較する。そして、情報処理装置30は、判定された一致度が一番高いユーザを対象人物と特定することが可能である。
この変形例によれば、例えば家族全員が一つのグループとして予め登録されている場合において、情報処理装置30は、ユーザIDが入力されなくても、撮影対象の人物が家族のうちの誰であるかを特定することが可能となる。
<5−2.変形例2>
また、各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した情報処理装置10‐1、情報処理装置10‐2、または情報処理装置30の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する視線移動特定部と、
特定された視線の移動に基づいて前記ユーザを認証するユーザ認証部と、
を備える、情報処理装置。
(2)
前記情報処理装置は、前記ユーザと対応づけてデータベースに登録されている視線パターンと、前記視線移動特定部により特定された前記ユーザの視線の移動に基づいた視線パターンとを比較する視線パターン比較部をさらに備え、
前記ユーザ認証部は、前記視線パターン比較部による比較結果に基づいて、前記ユーザを認証する、前記(1)に記載の情報処理装置。
(3)
前記ユーザ認証部は、前記視線パターン比較部により判定された視線パターンの一致度が所定の閾値以上である場合に、前記ユーザが正当なユーザであると判断する、前記(2)に記載の情報処理装置。
(4)
前記情報処理装置は、前記ユーザの身体の画像に基づいて、前記ユーザの身体の一部に関する身体的特徴を検出する身体的特徴検出部をさらに備え、
前記視線移動特定部は、前記ユーザの目の画像、および検出された身体的特徴に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する、前記(2)または(3)に記載の情報処理装置。
(5)
前記視線パターンは、前記ユーザの身体の1以上の部位に対する視線動作のパターンである、前記(2)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記データベースに登録されている視線パターンは、視線の移動の順序と対応づけられた前記ユーザの身体の1以上の部位の各々に対する視線動作のパターンである、前記(5)に記載の情報処理装置。
(7)
前記データベースに登録されている視線パターンは、前記ユーザの身体の姿勢の変化の順序と対応づけられた前記ユーザの身体の1以上の部位の各々に対する視線動作のパターンである、前記(5)に記載の情報処理装置。
(8)
前記視線動作は、前記ユーザの身体の部位に対する注視または視線のトレースを含む、前記(5)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記身体的特徴は、ホクロ、皺、または血管パターンの位置または形状を含む、前記(4)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記情報処理装置は、前記視線移動特定部により視線の移動が特定される度に、特定された視線の移動を示す表示を表示部に逐次表示させる表示制御部をさらに備える、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記情報処理装置は、前記表示部をさらに備える、前記(10)に記載の情報処理装置。
(12)
前記撮像部は、前記ユーザの目の画像を撮像する第1の撮像部と、前記ユーザの視線方向に位置する前記ユーザの身体の画像を撮像する第2の撮像部とを含む、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、眼鏡型の装置である、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定することと、
特定された視線の移動に基づいて前記ユーザを認証することと、
を備える、情報処理方法。
(15)
コンピュータを、
撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する視線移動特定部と、
特定された視線の移動に基づいて前記ユーザを認証するユーザ認証部、
として機能させるための、プログラム。
10‐1、10‐2、30 情報処理装置
100‐1、100‐2、300 制御部
102、302 視線検出部
104、304 視線移動特定部
106、306 視線パターン比較部
108、308 ユーザ認証部
110 表示制御部
112、312 身体的特徴検出部
120 第1撮像部
122 第2撮像部
124 表示部
126、324 通信部
128、326 記憶部
130 ユーザ情報DB
310 出力制御部
320 撮像部
322 出力部

Claims (15)

  1. 撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する視線移動特定部と、
    特定された視線の移動に基づいて前記ユーザを認証するユーザ認証部と、
    を備える、情報処理装置。
  2. 前記情報処理装置は、前記ユーザと対応づけてデータベースに登録されている視線パターンと、前記視線移動特定部により特定された前記ユーザの視線の移動に基づいた視線パターンとを比較する視線パターン比較部をさらに備え、
    前記ユーザ認証部は、前記視線パターン比較部による比較結果に基づいて、前記ユーザを認証する、請求項1に記載の情報処理装置。
  3. 前記ユーザ認証部は、前記視線パターン比較部により判定された視線パターンの一致度が所定の閾値以上である場合に、前記ユーザが正当なユーザであると判断する、請求項2に記載の情報処理装置。
  4. 前記情報処理装置は、前記ユーザの身体の画像に基づいて、前記ユーザの身体の一部に関する身体的特徴を検出する身体的特徴検出部をさらに備え、
    前記視線移動特定部は、前記ユーザの目の画像、および検出された身体的特徴に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する、請求項2または3に記載の情報処理装置。
  5. 前記視線パターンは、前記ユーザの身体の1以上の部位に対する視線動作のパターンである、請求項2〜4のいずれか一項に記載の情報処理装置。
  6. 前記データベースに登録されている視線パターンは、視線の移動の順序と対応づけられた前記ユーザの身体の1以上の部位の各々に対する視線動作のパターンである、請求項5に記載の情報処理装置。
  7. 前記データベースに登録されている視線パターンは、前記ユーザの身体の姿勢の変化の順序と対応づけられた前記ユーザの身体の1以上の部位の各々に対する視線動作のパターンである、請求項5に記載の情報処理装置。
  8. 前記視線動作は、前記ユーザの身体の部位に対する注視または視線のトレースを含む、請求項5〜7のいずれか一項に記載の情報処理装置。
  9. 前記身体的特徴は、ホクロ、皺、または血管パターンの位置または形状を含む、請求項4〜8のいずれか一項に記載の情報処理装置。
  10. 前記情報処理装置は、前記視線移動特定部により視線の移動が特定される度に、特定された視線の移動を示す表示を表示部に逐次表示させる表示制御部をさらに備える、請求項1〜9のいずれか一項に記載の情報処理装置。
  11. 前記情報処理装置は、前記表示部をさらに備える、請求項10に記載の情報処理装置。
  12. 前記撮像部は、前記ユーザの目の画像を撮像する第1の撮像部と、前記ユーザの視線方向に位置する前記ユーザの身体の画像を撮像する第2の撮像部とを含む、請求項1〜11のいずれか一項に記載の情報処理装置。
  13. 前記情報処理装置は、眼鏡型の装置である、請求項1〜12のいずれか一項に記載の情報処理装置。
  14. 撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定することと、
    特定された視線の移動に基づいて前記ユーザを認証することと、
    を備える、情報処理方法。
  15. コンピュータを、
    撮像部により撮像された、ユーザの目の画像および前記ユーザの視線方向に位置する前記ユーザの身体の画像に基づいて、前記ユーザの身体に対する前記ユーザの視線の移動を特定する視線移動特定部と、
    特定された視線の移動に基づいて前記ユーザを認証するユーザ認証部、
    として機能させるための、プログラム。
JP2017500286A 2015-02-20 2015-11-19 情報処理装置、情報処理方法、およびプログラム Active JP6648751B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015031637 2015-02-20
JP2015031637 2015-02-20
PCT/JP2015/082623 WO2016132617A1 (ja) 2015-02-20 2015-11-19 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016132617A1 JPWO2016132617A1 (ja) 2017-11-24
JP6648751B2 true JP6648751B2 (ja) 2020-02-14

Family

ID=56688895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017500286A Active JP6648751B2 (ja) 2015-02-20 2015-11-19 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US10180717B2 (ja)
EP (1) EP3261055A4 (ja)
JP (1) JP6648751B2 (ja)
CN (1) CN107209936B (ja)
WO (1) WO2016132617A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10732708B1 (en) * 2017-11-21 2020-08-04 Amazon Technologies, Inc. Disambiguation of virtual reality information using multi-modal data including speech
US10521946B1 (en) 2017-11-21 2019-12-31 Amazon Technologies, Inc. Processing speech to drive animations on avatars
US11232645B1 (en) 2017-11-21 2022-01-25 Amazon Technologies, Inc. Virtual spaces as a platform
JP7327368B2 (ja) * 2020-12-02 2023-08-16 横河電機株式会社 装置、方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353422B1 (en) * 2000-03-31 2002-03-05 Stephen G. Perlman Virtual display system and method
US8965460B1 (en) * 2004-01-30 2015-02-24 Ip Holdings, Inc. Image and augmented reality based networks using mobile devices and intelligent electronic glasses
JP4765575B2 (ja) 2005-11-18 2011-09-07 富士通株式会社 個人認証方法、個人認証プログラムおよび個人認証装置
EP2539759A1 (en) * 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9229227B2 (en) * 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
CN102812416B (zh) * 2010-06-17 2015-10-07 松下电器(美国)知识产权公司 指示输入装置、指示输入方法、程序、记录介质以及集成电路
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
CN102547123B (zh) * 2012-01-05 2014-02-26 天津师范大学 基于人脸识别技术的自适应视线跟踪系统及其跟踪方法
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9092600B2 (en) * 2012-11-05 2015-07-28 Microsoft Technology Licensing, Llc User authentication on augmented reality display device
CN104077517A (zh) * 2014-06-30 2014-10-01 惠州Tcl移动通信有限公司 一种基于虹膜识别的移动终端用户模式启动方法及系统

Also Published As

Publication number Publication date
CN107209936B (zh) 2021-08-27
CN107209936A (zh) 2017-09-26
EP3261055A4 (en) 2018-10-24
US10180717B2 (en) 2019-01-15
JPWO2016132617A1 (ja) 2017-11-24
EP3261055A1 (en) 2017-12-27
WO2016132617A1 (ja) 2016-08-25
US20170262055A1 (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP6722272B2 (ja) 凝視情報を使用するユーザの識別および/または認証
JP6762380B2 (ja) 身分認証方法および装置
Li et al. Whose move is it anyway? Authenticating smart wearable devices using unique head movement patterns
González-Ortega et al. A Kinect-based system for cognitive rehabilitation exercises monitoring
US10678897B2 (en) Identification, authentication, and/or guiding of a user using gaze information
Aung et al. The automatic detection of chronic pain-related expression: requirements, challenges and the multimodal EmoPain dataset
JP6648751B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20080104415A1 (en) Multivariate Dynamic Biometrics System
KR101950797B1 (ko) 다중 생체 데이터를 이용한 비접촉식 다중 생체 인식 방법 및 다중 생체 인식 장치
TW202013254A (zh) 基於眼動追蹤的密碼驗證方法及相關裝置
KR20120060978A (ko) 시선 위치 추적 기반의 3차원 인간-컴퓨터 상호작용 장치 및 방법
KR101745774B1 (ko) 안구전도 시선 트래킹 기술 기반 눈글 인식 방법 및 시스템
JP6674683B2 (ja) 認証処理装置及び認証処理方法
CN109634407A (zh) 一种基于多模人机传感信息同步采集与融合的控制方法
CN106778172A (zh) 一种身份认证方法
Heravian et al. Implementation of eye tracking in an IoT-based smart home for spinal cord injury patients
JP2012529331A (ja) 生体認証のためのシステム及び方法
CN112527103A (zh) 显示设备的遥控方法、装置、设备及计算机可读存储介质
CN113836970A (zh) 身份验证方法、装置、存储介质和电子设备
Alrawili et al. Comprehensive survey: Biometric user authentication application, evaluation, and discussion
KR20160045371A (ko) 생체 정보를 이용한 사용자 인증 방법
KR102558210B1 (ko) 생체 인식 기술을 활용한 사용자 식별, 인증 및 암호화 장치 및 그의 동작 방법
Alrawili et al. COMPREHENSIVE SURVEY: BIOMETRIC USER AUTHENTICATION APPLICATION, EVALUATION, AND
KR20230018860A (ko) 신체비율을 이용하여 운전자 인증을 수행하는 장치
Rahman Photoplethysmographic Sensor-Based Non-intrusive and Secure Smart Sensing and Applications

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181002

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181002

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191230

R151 Written notification of patent or utility model registration

Ref document number: 6648751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151