JP2021527872A - 非接触生体認証システム - Google Patents

非接触生体認証システム Download PDF

Info

Publication number
JP2021527872A
JP2021527872A JP2020568705A JP2020568705A JP2021527872A JP 2021527872 A JP2021527872 A JP 2021527872A JP 2020568705 A JP2020568705 A JP 2020568705A JP 2020568705 A JP2020568705 A JP 2020568705A JP 2021527872 A JP2021527872 A JP 2021527872A
Authority
JP
Japan
Prior art keywords
image
images
image data
partial
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020568705A
Other languages
English (en)
Other versions
JP7351861B2 (ja
Inventor
ディリップ クマール
マノジュ アガーワル
ジョージ レイフマン
ジェラルド ガイ メディオーニ
ニコライ オーロフ
ナタン ピーターフロインド
コーウィン ジョン スミス
ドミトリ ベイクハーマン
ソラ キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2021527872A publication Critical patent/JP2021527872A/ja
Application granted granted Critical
Publication of JP7351861B2 publication Critical patent/JP7351861B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/83Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Security & Cryptography (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Vascular Medicine (AREA)
  • Collating Specific Patterns (AREA)

Abstract

非接触生体認証システムは、ユーザの掌の画像を生成するハンドスキャナを含む。掌内のひだなどの表面特性を示す画像は、第1の時間に第1の偏光の光を使用して取得され、静脈などのより深い特性を示す画像は、第2の時間に第2の偏光の光を使用して取得される。画像内で、掌が識別され、部分画像に細分化される。部分画像はその後、各々の部分画像に存在する特徴ベクトルを判定するよう処理される。最新の署名は、特徴ベクトルを使用して判定される。ユーザは、ユーザ識別子と関連付けられた前に記憶された参照署名との最新の署名の比較に基づいて識別されてもよい。
【選択図】図1

Description

優先権
本出願は、2018年6月21日に出願され、「NON−CONTACT BIOMETRIC IDENTIFICATION SYSTEM」と題する米国特許出願16/014,843号に対する優先権を主張する。この前に出願された特許出願の全体は、参照によって以下に組み込まれる。
店舗、図書館、病院、及びオフィスなどの施設は、施設内のユーザを識別する能力を必要とすることがある。
添付図面を参照して、詳細な説明が説明される、図面では、参照符号の最も左の桁(複数可)は、参照符号が最初に表れる図を識別する。異なる図における同一の参照符号の使用は、同様または同一の項目または特徴を示す。図面は必ずしも、同一縮尺で描かれず、いくつかの図では、特定の態様の理解を促進するために、比率または他の態様が誇張されてもよい。
いくつかの実施態様に従った、施設においてユーザを識別するシステムを示す。 いくつかの実施態様に従った、ユーザの手の未処理画像データを取得するために使用されるスキャナの実施態様を示す。 いくつかの実施態様に従った、第1の偏光を有する光を使用して取得された処理済み第1のモダリティ画像及び第2の偏光を有する光を使用して取得された処理済み第2のモダリティ画像を示す。 いくつかの実施態様に従った、認証システムのブロック図である。 いくつかの実施態様に従った、第1のモダリティ画像及び第2のモダリティ画像と関連付けられた信頼値、並びに特定の部分画像位置と関連付けられたモダリティ重みの使用を含む比較データを示す。 いくつかの実施態様に従った、スキャナによって取得された画像に基づいてユーザ識別子を判定する処理のフローチャートを示す。 いくつかの実施態様に従った、第2のモダリティ画像及び第1のモダリティ画像の部分画像の信頼値のランク付けに基づいて、特定の候補ユーザ識別子をランク付け及び選択する処理のフローチャートを示す。 いくつかの実施態様に従った、部分画像のランク付けに基づいて、特定の候補ユーザ識別子をランク付け及び選択する処理のフローチャートを示す。 いくつかの実施態様に従った、最新の署名を1つ以上の参照署名と比較することによって、特定の候補ユーザ識別子をランク付け及び選択する処理のフローチャートを示す。 いくつかの実施態様に従った、システムを使用した材料取扱施設(facility)を示すブロック図である。 いくつかの実施態様に従った、施設の追加の詳細を示すブロック図である。 いくつかの実施態様に従った、施設の運営をサポートするサーバのブロック図である。
実施態様が例として本明細書で説明されるが、当業者は、実施態様が説明される実施例または図面に限定されないことを認識するであろう。図面及びそれらに対する詳細な説明は、実施態様を開示される特定の形式に限定することを意図しておらず、それどころか、発明は、添付の請求項によって定義されるような精神及び範囲に収まる全ての修正、同等物、及び代替物を網羅することになることが理解されるべきである。本明細書で使用される見出しは、構成のみを目的としており、説明及び請求項の範囲を限定するために使用されることを意味しない。本出願の全体を通じて使用されるように、用語「may」は、必須という意味ではなく(すなわち、必要であることを意味する)、許容的な意味(すなわち、〜する見込みを有することを意味する)において使用される。同様に、用語「include」、「including」、及び「includes」は、限定しないが、〜を含むことを意味する。
ユーザの正確且つ高速な認証は、様々な方式において使用することができる有用な情報を提供する。例えば、材料取扱施設(facility)、オフィス、輸送施設、または他の位置への入場は、ユーザアイデンティティに基づいて制御されることがある。別の実施例では、ユーザのアイデンティティに関する情報も、その特定のユーザによって行われた特定のアクションを関連するアカウントと関連付けるために使用されることがある。
施設は、施設管理システムを含んでもよく、または施設管理システムへのアクセスを有してもよい。施設管理システムは、1つ以上のセンサによって取得されたセンサデータに少なくとも部分的に基づいて、施設のアイテム、ユーザ、及び状態などに関する情報を維持するように構成されてもよい。施設管理システムは、対話データを判定するために、センサデータを使用してもよい。対話データは、対話に伴うアイテムのタイプ、対話に伴う回数、対話が選定または配置であったかどうか、及び誰が対話を行ったかなどに関する情報を含んでもよい。対話は、ユーザが、在庫位置からアイテムを選定すること、在庫位置にアイテムを配置すること、在庫位置においてアイテムに接触すること、及び在庫位置においてアイテムを捜索することなどを含んでもよい。例えば、施設管理システムは、ユーザが棚上の特定のレーンからどのアイテムを選定したかを示す対話データを生成してもよく、次いで、そのレーンに収容された在庫の総数を調節するために、この対話データを使用してもよい。
ユーザが施設に入場すると、ユーザは、本明細書で説明されるデバイス及び技術を使用して識別されてもよい。識別されると、ユーザは、施設内にいる間に位置していることがある。施設内で重量センサ及びカメラなどの他のセンサによって取得された情報は、対話データを判定するために使用されてもよい。この対話データは次いで、前に識別された特定のユーザと関連付けられてもよく、その後、料金請求または他の目的のために使用されてもよい。例えば、対話データ及び認証データは、選定されたアイテムに対して識別されたユーザと関連付けられたアカウントに料金を請求するために使用されてもよい。
ユーザを識別する従来のシステムは、不正、速度、精度、及び動作制約の影響を受けやすいことなどのいくつかの重大な欠点に悩んでいる。例えば、認証カードなどのトークンを提示することによってユーザを識別する従来のシステムは、権限を有するユーザ以外の誰かによって使用されることがある。結果として、「Something you have」の使用のみを伴うシステムは、悪用に対して脆弱である。生体認証システムは、複製することまたは転送されることが困難または不可能である、特定の個人の特性を使用ことによってこのことに対処する。しかしながら、従来の生体認証システムの動作は、動作的な問題をもたらし、多用する環境では深刻な待ち時間を示すこともある。例えば、従来の掌に基づく生体認証システムは、ユーザの手と走査デバイスとの間の物理的な接触を必要とする。この物理的な接触は、非衛生と見なされることがあり、一部のユーザにとって達成することが困難であることがある。既存のシステムも、情報を収集及び処理するのに相対的に低速である。それらの因子及び他の因子は、ユーザトラフィックのフローを著しく妨げることなくユーザの早急な認証が求められる状況での使用のために既存のシステムが適切でないことをもたらす。例えば、既存のシステムによってもたらされる遅延は、或る日に何万人のユーザにサービスする施設に入場するとき、遅延などの深刻な悪影響を生じさせる。
本開示において説明されるのは、ユーザの非接触生体認証をもたらすシステムである。スキャナデバイスは、スキャナの視角内にあるユーザの掌の未処理画像を取得するために使用される。スキャナは、第1の偏光を有する赤外線光を使用する1つ以上の未処理画像の第1のセット及び第2の偏光を有する赤外線光を使用する1つ以上の未処理画像の第2のセットを取得する。画像の第1のセットは、ユーザの掌内の線及びしわなどの外部特性を表し、画像の第2のセットは、静脈、骨、軟組織、または皮膚の表皮の下にある他の構造などの内部解剖学的構造を表す。
未処理画像は、第1の偏光及び第2の偏光を使用して取得された手を包含する画像のセットを提供するよう初期処理を受け、画像は、良好に照明され、焦点を合わされ、特定の方位にある手を示し、特定の標準的な姿勢にある手を示し、修正され、及びどの手が提示されているか(左手または右手)を示す、などである。この画像のセットにおける画像は次いで、部分画像または「パッチ」に分割される。例えば、外部特性を表す画像は、15×15の部分画像のセットに分割されてもよい。いくつかの実施態様では、各々の部分画像は、隣接した部分画像と重なってもよく、他の実施態様では、部分画像は、重なりを示さなくてもよい。実施例を続けると、第2のモダリティ特徴を表す画像は、7×7の部分画像のセットに分割されてもよく、各々の部分画像は、隣接した部分画像と重なる。いくつかの実施態様では、追加の画像処理が使用されてもよい。例えば、湾曲面を平面として表現するよう、その湾曲面を表す部分画像に画像変換が適用されてもよい。部分画像は次いで、その部分画像に存在する画像特徴を表現する特徴ベクトルを判定するよう処理される。
特徴ベクトルを判定するためにニューラルネットワークが使用されてもよい。例えば、ニューラルネットワークは、部分画像内の特徴を認識するよう訓練されてもよい。訓練されると、ニューラルネットワークは、部分画像を入力として受け付けてもよく、部分画像に存在する1つ以上の特徴を特徴付ける特徴ベクトルを出力として生成してもよい。いくつかの実施態様では、第2のモダリティ画像の部分画像及び第1のモダリティ画像の部分画像に対してそれぞれの特徴ベクトルを生成するために異なるニューラルネットワークが使用されてもよい。異なるモダリティからの部分画像内の特徴を表す結果として生じる特徴ベクトルは次いで、ユーザが提示した手の少なくとも一部の特徴を示す最新の署名を生成するために使用されてもよい。例えば、異なるモダリティから取得された特徴ベクトルは、最新の署名として使用される線形ベクトルを生成するよう連結されてもよく、または別のニューラルネットワークは、特徴ベクトルに入力としてアクセスしてもよく、最新の署名を生成してもよい。別の実施態様では、同一のモダリティの複数の画像からの特徴ベクトルは、平均化されてもよく、結果として生じる平均特徴ベクトルは次いで、署名を判定するために使用されてもよい。この平均化は、特徴ベクトルの値と関連付けられた雑音の影響を低下させる。
別の実施態様では、第1の次元を有する特徴ベクトルは、第1の次元よりも少ない第2の次元を有する出力特徴ベクトルを生成するようニューラルネットワークにより処理されてもよい。出力特徴ベクトルは次いで、署名を生成するために使用されてもよい。
スキャナに手を提示したユーザの認証は、登録処理の間に取得された画像の特徴ベクトルから生成された参照署名など、前に記憶されたデータとの1回以上の比較を伴ってもよい。例えば、最新の署名は、前に記憶された参照署名と比較されてもよい。参照署名は、ユーザ識別子と関連付けられる。1つの実施態様では、アイデンティティは、最新の署名にベクトル空間内で最も近い参照署名に基づいて判定されてもよい。別の実施態様では、アイデンティティは、経時的に未処理画像データを処理することによって判定されてもよい。例えば、いくつかの異なるユーザ識別子と関連付けられた信頼値が判定されてもよく、連続して未処理画像データが処理されるにつれて、閾値を上回る信頼値が、特定のユーザ識別子に対して投票を記録するために使用されてもよい。特定のユーザ識別子が投票の閾値数に到達するとき、そのユーザ識別子と関連付けられたアイデンティティは、ユーザのアイデンティティであると見なされてもよい。
登録処理は、上記説明されたようなユーザの未処理画像を取得及び処理すること、並びに署名を判定することを含んでもよい。署名は次いで、特定のアイデンティティと関連付けられた参照署名として記憶されてもよい。例えば、登録処理の間に取得された未処理画像は、部分画像に対する特徴ベクトルを判定するよう、1つ以上のニューラルネットワークを使用して処理されてもよい。それらの特徴ベクトルは次いで、掌を表す参照署名を判定するために使用されてもよい。例えば、左手の参照署名及び右手の参照署名は、各々の手に対する特徴ベクトルに基づいて判定されてもよく、各々のユーザに対して記憶されてもよい。上記説明されたスキャナを利用することによって、第1のモダリティ特徴及び第2のモダリティ特徴の両方の未処理画像を即時且つ容易に取得することができる。それらの未処理画像は、相互に近接して位置合わせされる。例えば、スキャナは、30フレーム/秒において動作する1つ以上のカメラを利用してもよく、画像は、第1のモダリティ画像と第2のモダリティ画像との間で交互になる。それらの近接して位置合わせされた画像は、追加の位置合わせ処理を削減または除去することによって、画像の処理を促進する。それらの第1のモダリティ画像及び第2のモダリティ画像の取得は、認証の精度を改善する特徴の豊富なセットを提供する。
画像を部分画像に分割し、各々に対するそれぞれの特徴ベクトルを判定することによって、システムは、画像データを更に即時に処理し、変動を許容することが可能である。例えば、部分画像の使用は、計算的により単純であり、より高速で特徴ベクトルを生成することを実行する、より小規模なニューラルネットワークが使用されることを可能にする。部分画像はまた、並列して処理されてもよく、システムの速度を更に増大させる。
それぞれの部分画像の特徴ベクトルと、前に記憶されたデータとの間の一致と関連付けられた信頼値を使用することによって、システムは、特徴における局所的な変動を更に許容する。例えば、ユーザの掌上に、新たな硬いまたはできたばかりのあざを有する場合、その特徴を含む部分画像に対する信頼値を低下させることがある。しかしながら、他の部分画像における信頼値は、アイデンティティをアサートするのに十分であることがある。
従来のシステムは、ユーザの手の姿勢、位置、及び距離における変化を相対的に許容しない。結果として、それらのシステムは典型的には、ユーザが手を置く必要があるガイドまたは面の使用を必要とする。本明細書で説明されるスキャナ設計及び部分画像の使用は、ユーザの手がセンサプラットフォームまたはガイドと接触するようになる必要性を除去する。例えば、部分画像の使用と組み合わせた第2のモダリティ特徴及び第1のモダリティ特徴を有する未処理画像データの迅速な取得は、更なる未処理画像データが取得されることを可能にする。実施例を続けると、多くの画像を取得することができ、所望の方位及び姿勢にある手または所望の方位及び姿勢の近くにある手を含む第2のモダリティ画像及び第1のモダリティ画像を取得する機会を増大させる。
部分画像の使用は、特徴ベクトルの生成を促進するために、更に局所化され、標的にされ、及び計算的により単純である変換が適用されることを可能にする。これは、ユーザの手の様々な方位及び姿勢から有意義な特徴を抽出する能力を改善する。例えば、手の姿勢によって、掌の一部が曲がりまたはそうでなければ関節接合されるようになる場合、その特定の部分を表す部分画像を再配置し、及び「平坦にする」ために、その部分の部分画像に特定の変換が適用されてもよい。この「平坦にされた」部分画像は次いで、ニューラルネットワークへの入力として使用されてもよく、後続の特徴ベクトルは、部分画像に対して生成される。結果として、その部分画像に対する特徴ベクトルは、ユーザの認証に貢献するために使用されてもよく、システムの全体的な精度を改善する。
スキャナは、施設への入口、施設からの出口、または施設内の設計された領域のうちの1つ以上に配置されてもよい。認証システムによって生成された認証データを使用することによって、施設管理システムは、特定の時間に特定のスキャナにおいて特定のユーザの存在を判定することが可能である。そのような情報は、識別されたユーザによる後続の対話をそのユーザのアカウントと関連付けるために使用されてもよい。例えば、ユーザが在庫位置からアイテムを選定し、施設を離れる場合、ユーザのアカウントは、そのアイテムに対して料金を請求されることがある。
施設管理システムの全体的な動作は、本明細書で説明される技術を使用することによって改善される。例えば、本明細書で説明される認証システムは、他のシステムよりも減少した待ち時間、及び少ない計算リソースにより、ユーザの認証がより正確に実行されることを可能にする。
例示的なシステム
図1は、いくつかの実施態様に従った、施設においてユーザ102を識別するシステム100を示す。
施設は、ゲート104を含んでもよい。いくつかの実施態様では、ゲート104は、ユーザ102の移動を制御する可動境界を含んでもよい。例えば、ゲート104は、ユーザ102の通過を妨げるよう閉鎖することができ、またはユーザ102の通過を許可するよう開放することができるコンピュータ制御パネルを含んでもよい。ゲート104は、1つ以上のスキャナ106を含んでもよい。ユーザ102は、ゲート104に近づくことができ、スキャナ106に手108を置くことができる。
スキャナ106は、未処理画像データ110を生成してもよい。スキャナ106は、異なる照明パターンを有する、2つ以上の特定の偏光などを有する赤外線光を使用して照明される手108の画像を取得するように構成される。スキャナ106は、図2に関して以下で更に詳細に説明される。スキャナ106は、未処理画像データ110を生成してもよい。例えば、動作の間、ユーザ102は、スキャナ106に面した掌または手のひらの領域と共に手108を提示することができる。結果として、未処理画像データ110は、手108の前方部分の未処理画像データ110である。他の実施態様では、未処理画像データ110は、手108の背面を含んでもよい。
使用される偏光に応じて、スキャナ106によって生成された画像は、第1のモダリティ特徴または第2のモダリティ特徴の画像であってもよい。第1のモダリティは、手108が第1の偏光を有する光により照明され、それもまた第1の偏光を有する光をカメラに通す偏光子を有するカメラによって取得された画像を利用してもよい。第1のモダリティ特徴は、ユーザ102の手108の面に近くにある特徴またはユーザ102の手108の面の上にある特徴を含んでもよい。例えば、第1のモダリティ特徴は、手108の少なくとも表皮内でしわ、ひだ、傷、及び真皮乳頭部畝などを含んでもよい。
第2のモダリティ特徴は、表皮の下にある特徴を含む。第2のモダリティは、手108が第2の偏光を有する光により照明され、第1の偏光を有する光をカメラに通す偏光子を有するカメラによって取得された画像を利用してもよい。例えば、第2のモダリティ特徴は、静脈、骨、及び軟組織などの解剖学的構造を含んでもよい。いくつかの特徴は、第1のモダリティ画像及び第2のモダリティ画像の両方に視認可能であってもよい。例えば、掌内のしわは、面上の第1のモダリティ特徴と共に、掌内のより深い第2のモダリティ特徴を含んでもよい。
未処理画像データ110は、以下のタイプの画像のうちの1つ以上を含んでもよい。未処理第1のモダリティ画像112(1)は、手108が赤外線光の第1の偏光を有する赤外線光によって第1の時間に照明される間に、赤外線光の第1の偏光を通す偏光子を有するカメラによって取得される。未処理第2のモダリティ画像114(1)は、手108が第2の偏光を有する赤外線光によって第2の時間に照明される間に、赤外線光の第1の偏光を通す偏光子を有するカメラによって取得される。スキャナ106は、複数の画像を生成するよう動作してもよい。例えば、スキャナ106は、連続した時間の間に取得される画像のストリームを生成してもよい。この例示では、未処理画像データ110は、第3の時間に赤外線光の第1の偏光を使用して取得された別の未処理第1のモダリティ画像112(2)を含む。未処理画像データ110はまた、第2の偏光を使用して第4の時間に取得された別の未処理第2のモダリティ画像114(2)を含む。追加の未処理第1のモダリティ画像112及び未処理第2のモダリティ画像114は、スキャナ106の動作の間に取得されてもよい。
認証システム120は、未処理画像データ110を入力として使用する。初期処理モジュール122は、更なる処理のために未処理画像データ110を作成する。例えば、初期処理モジュール122は、特定の未処理画像が人間の掌を含むかどうかを判定してもよく、未処理画像が焦点を合わされているかどうかを判定してもよく、未処理画像が適切に照明されているかどうかを判定してもよく、未処理画像内の掌が予め定められた様式において方向付けられ、姿勢を取っているかどうかを判定してもよい、などである。初期処理モジュール122は、処理済み画像データを生成する。
部分画像モジュール124は、処理済み画像データを入力として使用し、それぞれの画像を部分画像に分割する。部分画像は、画像の一部を含む。例えば、部分は、画像内の矩形領域として表現されてもよい。それらの相互に対する相対位置、部分画像のサイズ、及び隣接した部分画像との重なり(ある場合)などの部分画像の特性は、変動してもよい。例えば、第1のモダリティ画像の処理済み画像データは、400個の部分画像のセットに分割されてもよく、その各々は、256×256の画素のサイズを有し、第2のモダリティ画像の処理済み画像データは、16個の部分画像に分割されてもよく、その各々は、128×128の画素のサイズを有する。
部分画像モジュール124は、処理済み画像データの少なくとも一部の部分画像のうちの1つ以上に対する部分画像特徴データ126を生成する。1つの実施態様では、ニューラルネットワークは、入力画像に存在する1つ以上の特徴を表す特徴ベクトルを生成するよう訓練されてもよい。部分画像は、それぞれの部分画像に対する特徴ベクトルを生成するよう、1つ以上のニューラルネットワークによって処理されてもよい。いくつかの実施態様では、第2のモダリティ画像及び第1のモダリティ画像に対して異なるニューラルネットワークが使用されてもよい。上記実施例を続けると、第1のモダリティ画像の部分画像に対する特徴ベクトルを生成するために使用される第1のニューラルネットワークは、256×256の画素のサイズを有する入力画像を処理するよう訓練されてもよい。同様に、第2のモダリティ画像の部分画像に対する特徴ベクトルを生成するために使用される第2のニューラルネットワークは、128×128の画素のサイズを有する入力画像を処理するよう訓練されてもよい。他の実施態様では、他の画像サイズが使用されてもよい。例えば、第1のモダリティ及び第2のモダリティに対する入力画像は、同一のサイズのモダリティであってもよく、第1のモダリティ画像は、第2のモダリティ画像よりも小さいサイズを有してもよい、などである。
比較モジュール128は、それらの手108の画像に存在する特徴に基づいてユーザ102のアイデンティティを判定するために、部分画像特徴データ126及び前に記憶されたユーザ特徴データ130を使用する。記憶されたユーザ特徴データ130は、システム100へのユーザ102の登録の間に生成されてもよい。1つの実施態様では、登録処理は、ユーザ102の手108の未処理画像データ110を取得及び処理することを含んでもよい。部分画像特徴データ126は次いで、本明細書で説明されるように生成されてもよく、記憶されたユーザ特徴データ130を生成するために使用されてもよい。例えば、未処理画像データ110は、部分画像モジュール124における1つ以上のニューラルネットワークを使用して処理されてもよい。1つの実施態様では、登録されるユーザ102を表す参照署名は、複数の画像を使用して判定されてもよい。例えば、平均特徴ベクトルは、未処理画像データ110における異なる画像から取得された同一のモダリティの部分画像の特徴ベクトルの要素ごとの平均化に基づいて計算されてもよい。別の実施態様では、署名は、部分画像内の特徴を表す特徴ベクトルなどの部分画像特徴データ126を単一の線形ベクトルに連結することによって生成されてもよい。更なる別の実施態様では、署名は、第1のニューラルネットワーク及び第2のニューラルネットワークの組み合わせを使用して、及び第3のニューラルネットワークによって、などで判定されてもよい。例えば、第3のニューラルネットワークは、未処理画像データ110の入力に基づいて署名を生成するように構成されてもよい。
比較モジュール128は、部分画像特徴データ126における特徴ベクトルに基づいた最新の署名を、記憶されたユーザ特徴データ130における参照署名と比較してもよい。最新の署名と参照署名との間の類似性を示す信頼値が判定されてもよい。例えば、信頼値は、最新の署名と参照署名との間のベクトル空間内のユークリッド距離に基づいて判定されてもよい。別の実施例では、ニューラルネットワークは、部分画像特徴データ126の特徴ベクトルまたは最新の署名を入力として受け付けてもよく、記憶されたユーザ特徴データ130における参照署名との一致における信頼値を示すデータを生成してもよい。
比較モジュール128はまた、ユーザ102のアイデンティティを判定するために、投票に基づくアプローチを利用してもよい。登録された各々のユーザ102は、1つ以上の特徴ベクトルまたはそれら特徴ベクトルに基づいた参照署名を含むユーザ特徴データ130を記憶していてもよい。未処理画像データ110の進行中の取得に基づいて、いくつかの最新の署名が判定されてもよく、参照署名と比較されてもよい。特定の最新の署名が、ベクトル空間内の閾値距離内など、閾値内の参照署名に対応する場合、その参照署名と関連付けられた投票が生成される。いくつかの最新の署名が判定及び検査されることが続くにつれて、異なる参照署名と関連付けられた投票の数が変化することがある。投票に関する1つ以上の閾値に到達するとき、参照署名の1つと関連付けられたユーザアイデンティティがアサートしてもよい。
最も類似した参照署名と関連付けられたユーザ識別子は、ユーザ102のアイデンティティであると判定されてもよい。比較モジュール128は、認証データ132を生成してもよい。例えば、参照署名と関連付けられたユーザ識別子は、ユーザ102と関連付けられてもよい。
認証データ132は、ユーザ102と関連付けられたユーザ識別子、ゲート104またはスキャナ106の1つ以上の位置または認証、並びに走査が取得された日付及び時間を示すデータなどのうちの1つ以上などの情報を提供することができる。いくつかの実施態様では、認証データ132はその後、様々なアクションを実行するために使用されてもよい。例えば、ユーザ102が施設にアクセスすることを許可された場合、認証システム120は、ゲート104に対して開放するコマンドを発行してもよい。別の実施例では、認証データ132は、施設管理システム134に渡されてもよい。
施設管理システム134は、アイデンティティを、施設の周りで移動するときのユーザ102と関連付けるために認証データ132を使用してもよい。例えば、施設管理システム134は、ユーザ102の位置を判定するために、環境内のカメラ、スマートフロアタイル、または他のセンサからのデータを使用してもよい。ゲート104からのユーザ102の既知の経路を仮定すると、認証データ132において示されたユーザアイデンティティは、施設を使用するときのユーザ102と関連付けられてもよい。
図2は、いくつかの実施態様に従った、ユーザ102の手108の未処理画像データ110を取得するために使用されるスキャナ106の実施態様200を示す。第1の実施態様202及び第2の実施態様204が表される。しかしながら、他の実施態様も可能であることが理解されよう。
第1の実施態様202は、スキャナ106上に位置付けられたユーザ102の手108を表す。スキャナ106は、1つ以上の赤外線(IR)光源を含んでもよい。例えば、IR発光ダイオード(LED)の第1のセット206(1)、IR LEDの第2のセット206(2)、及びIR LEDの第3のセット206(3)が示される。他の実施態様では、赤外線光を生成するために他のデバイスが使用されてもよい。いくつかの実施態様では、IR光210の波長は、850ナノメートル(nm)であってもよい。
IR LED206(1)は、IR LED206(1)によって生成されたIR光210が第1の偏光子208(1)を通過するように、第1の偏光子208(1)に隣接して配列される。第1の偏光子208(1)を通過するIR光210(1)は、第1の偏光を実質的に示す。同様に、IR LED206(3)は、第1の偏光子208(1)に隣接して配列される。スキャナ106は、カメラ212によって捕捉された赤外線光が第1の偏光を実質的に示すように、それもまた第1の偏光子208(1)を有してもよいカメラ212を含む。1つの実施態様では、第1の偏光を示す第1の偏光子208(1)を有するIR LED206(1)からの光によって手108が照明されるとき、第1の偏光子208(1)を有するカメラ212は、未処理第1のモダリティ画像112を生成してもよい。
いくつかの実施態様では、それぞれの偏光子208を有する複数のIR LED206は、カメラ212に対してスキャナ106内の異なる位置において配列されてもよい。例えば、第1の偏光子208(1)を有する4つのIR LED206は、カメラ212上で中心にされた正方形の各々の隅において1つのIR LED206と共に配列されてもよい。別の実施態様では、IR LED206及び偏光子208は、カメラ212の周りでリングを形成してもよい。動作の間、コンピューティングデバイス220またはスキャナ106のコントローラは、異なる時間に均一でありまたは特定の方向からのいずれかである照明を作成するよう、個々にまたはグループでIR LED206を動作させてもよい。例えば、未処理第1のモダリティ画像112の取得の間、IR LED206は、第1の時間における1つの画像の取得の間に全てがオンであるように制御されてもよい。第2の時間に、正方形の特定の隅にあるLEDなどの選択されたIR LED206は、第2の時間における別の画像の取得の間にオンであるように制御されてもよい。手108を選択的に照明することによって、シャドーまたは他のエフェクトに起因して、畝またはしわなど、手108の外部特性を強化することができる。例えば、スキャナ106のコントローラは、第1の偏光を有する全てのIR LED206を使用して1つの画像を取得し、次いで、カメラ212に対して異なる位置において4つのIR LED206の各々の1つを使用して4つの画像の各々を取得し、それに続いて、第2の偏光を有するIR光210を生成するIR LED206により画像を取得するように構成されてもよい。
スキャナ106は、IR LED206(2)によって生成されたIR光210が、第2の偏光を実質的に示す第2の偏光子208(2)を通過するように、第2の偏光子208(2)に隣接して配列された第2のIR LED206(2)を含む。1つの実施態様では、手108が第2の偏光を示すIR LED206(2)からの光によって照明されるとき、カメラ212は、未処理第2のモダリティ画像114を生成してもよい。視角(FOV)214は、IR LED206によって照明される領域、及びカメラ212からの画像をそこから取得することができる領域を示す。複数のカメラ212を伴う実施態様では、FOV214は、カメラ212の各々の個々のFOVを含む。例えば、カメラ212の各々のFOVは重なる。
動作の間、コンピューティングデバイス220またはスキャナ106のコントローラは、光の異なる偏光によって照明されるように手108の画像を取得するよう、異なる偏光を有するIR光210を生成するIR LED206及びカメラ212を動作させてもよい。例えば、第1の時間に、IR LED206(1)は、活性であってもよく、カメラ212は、未処理画像データ110を取得する。実施例を続けると、第2の時間に、IR LED206(1)は、非活性であってもよく、IR LED206(2)は、活性であってもよく、カメラ212は、未処理画像データ110を取得する。結果として生じる未処理画像データ110は次いで、未処理第1のモダリティ画像112(1)、未処理第2のモダリティ画像114(1)、未処理第1のモダリティ画像112(2)、及び未処理第2のモダリティ画像114(2)などのストリームを含んでもよい。
カメラ212は、少なくとも使用されるIR光210に反応する検出器を含む。カメラ212は、様々なフレームレートにおいて画像を生成することが可能であってもよい。例えば、カメラ212は、1/20秒ごとにまたはそれよりも高速に、20フレーム/秒(FPS)のフレームレートを有する画像を生成することが可能であってもよい。カメラ212の積分時間(または、露光時間)は、単一の画像を生成するよう光子が検出器によって測定される時間量を指定する。積分時間が減少するにつれて、システムは、手108の動きに起因してぼやける傾向が低いことがある。
いくつかの実施態様では、偏光された光源が使用されてもよく、光源に隣接した偏光子208が省略されてもよい。例えば、量子ドットは、特定の偏光を有するIR光を放出することができる。同様に、いくつかの実施態様では、カメラ212は、捕捉された光の偏光及び省略される偏光子208に対して感度が高く、または捕捉された光の偏光及び省略される偏光子208を示す情報を提供する検出器を含んでもよい。
偏光子208は、特定の偏光の光に対して実質的に透過であり、別の偏光を有する光を実質的に吸収または反射するフィルタを含んでもよい。偏光は、線形または環状のうちの1つ以上であってもよい。例えば、第1の偏光は、線形であってもよく、第2の偏光は、環状であってもよい。別の実施例では、第1の偏光は、第1の角度を有する線形であってもよく、第2の偏光は、第2の角度を有する線形であってもよい。線形偏光が使用されるとき、第1の偏光及び第2の偏光は、相互に直角であってもよい。例えば、第1の偏光は、特定の参照点に対して0度の第1の角度を示してもよく、第2の偏光は、90度の第2の角度を示す。
偏光子208は、線形偏光を有する光を通す二色性材料または構造を含んでもよい。例えば、偏光子は、位置合わせされたポリフッ化ビニリデンチェーン及びガラスなどの透明基板に埋め込まれた銀ナノ粒子などを含んでもよい。他の実施態様では、それらに限定されないが、ワイヤグリッド偏光子、ビーム分離偏光子、四分の一波長板、液晶、及び光弾性変調器などを含む他の偏光デバイスが使用されてもよい。例えば、光弾性変調器は、石英ガラスなどの半波共鳴バーを振動させるよう圧電性トランスデューサを駆動する電気信号によって制御されるデバイスを含んでもよい。信号の周波数を変化させることによって、トランスデューサによって生じる振動の周波数が変化し、共鳴バーを通る光の偏光が選択されてもよい。
第2の実施態様204は、1つ以上のIR LED206などの光源及びカメラ212を使用するスキャナ106を示す。ホイールは、偏光ウインドウ216を有する2つ以上のセグメントを含む。例えば、ホイールは、第1の極性を有する光を通す第1の偏光子208(1)を有する第1の偏光ウインドウ216(1)を有する第1のセグメント、並びに第1の極性を有する光を通す第1の偏光子208である部分及び第2の極性を有する光を通す第2の偏光子208(2)を有する第2の偏光ウインドウ216(2)を有する第2のセグメントを含んでもよい。電気モータ218は、特定の時間にIR LED206及びカメラ212の前方に特定のセグメントを配置するようホイールを回転させる。例えば、ホイールの回転は、第1の時間に、IR LED206からのIR光210が第1の偏光ウインドウ216(1)を通過し、第1の偏光を有するIR光210をもたらすように、カメラ212のフレームレートと同期されてもよい。その光は、手108などの物体と相互作用し、第1の偏光ウインドウ216(1)を通じたFOVを有するカメラ212は、第1の偏光ウインドウ216(1)を通過する光を検出し、未処理第1のモダリティ画像112を生成する。よって、第1のモダリティは、赤外線光210及びカメラ112に対して同一の偏光を使用することを伴ってもよい。第2の時間(図示せず)に、第2のセグメントは、カメラ112の前方に第1の偏光ウインドウ216(1)を配置し、IR LED206の前方に第2の偏光ウインドウ216(2)を配置し、カメラ212は、未処理第2のモダリティ画像114を生成する。よって、第2のモダリティは、赤外線光210がカメラ112とは異なる偏光を使用することを伴ってもよい。
別の実施態様では(ここでは表されない)、特定の偏光を有する光を通すために電子制御デバイスが使用されてもよい。例えば、ホイールの代わりに、電子制御偏光子208は、特定の時間に特定の偏光を選択するために使用されてもよい。例えば、光のどの偏光が特定の時間にカメラ212の検出器に到達するかを制御するために、第1の偏光208(1)を有する偏光されたフィルムは、IR LED206の前方に配置されてもよく、電子制御デバイスは、カメラ212の前方に配置されてもよい。
いくつかの実施態様では、異なる偏光の代わりにまたは異なる偏光に加えて、異なる波長の光が使用されてもよい。例えば、IR LED206は、740nm〜1000nmの波長による照明をもたらすことができる。いくつかの実施態様では、異なる波長は、異なる時間に手108を照明するために使用されてもよい。
スキャナ106は、1つ以上のコントローラまたはコンピューティングデバイス220を含んでもよい。コンピューティングデバイス220は、ハードウェアプロセッサ及びメモリなどを含んでもよい。例えば、コンピューティングデバイス220は、マイクロコントローラ、システムオンチップ(SoC)、及びシングルボードコンピュータなどを含んでもよい。コンピューティングデバイス220は、スキャナ106のデバイスを動作させるように構成されてもよい。例えば、コンピューティングデバイス220は、IR LED206、偏光子208(電子制御の場合)、カメラ212、及び偏光子ホイールを駆動するモータ218などを動作させてもよい。例えば、コンピューティングデバイス220は、IR光210の第1の偏光を使用して第1の時間に取得された未処理第1のモダリティ画像112及びIR光210の第2の偏光を使用して第2の時間に取得された未処理第2のモダリティ画像114を含む未処理画像データ110が生成されるようにスキャナ106を制御してもよい。
いくつかの実施態様では、認証システム120の機能のうちの1つ以上は、1つ以上のコンピューティングデバイス220によって実行されてもよい。例えば、スキャナ106は、初期処理モジュール122を実装するために、1つ以上のコンピューティングデバイス220を使用してもよい。この実施態様では、スキャナ106は、認証システム120に処理済み画像データを送信してもよい。
他の実施態様では、手108及びスキャナ106の相対的配列は、変化してもよい。例えば、スキャナ106は、FOV214が下方に指し示されるように方向付けられてもよい。使用の間、ユーザ102は、上方に開いた掌と共にFOV214内で、スキャナ106の下に手108を置いてもよい。
スキャナ106が手108の掌の画像を取得するために使用されるとして説明されたが、スキャナ106は、手108の背面及び顔など、ユーザ102の他の部分の画像を取得するために使用されてもよい。例えば、スキャナ106は、ユーザ102がゲート104に近づくにつれて、顔の未処理第1のモダリティ画像112及び顔の未処理第2のモダリティ画像114を含む顔の未処理画像データ110が取得されるように、FOV214と共に配列されてもよい。
図3は、いくつかの実施態様に従った、第1の偏光を有する光を使用して取得された処理済み第1のモダリティ画像302及び第2の偏光を有する光を使用して取得された処理済み第2のモダリティ画像304の300を示す。処理済み画像は、初期処理モジュール122によって判定されてもよい。初期処理モジュール122の動作は、図4に関して以下で更に詳細に議論される。
処理済み第1のモダリティ画像302は、掌の皮膚内のしわ及び褶曲など、様々な第1のモダリティ特徴306を表す。境界ボックス308(1)が表される。例えば、初期処理モジュール122は、手108の掌が存在すると見なされる画像内の領域を指定する境界ボックス308を生成してもよい。部分画像モジュール124は、境界ボックス308(1)内にある処理済み第1のモダリティ画像302の領域を複数の部分画像310またはパッチに分割してもよい。ここで表される実施態様では、部分画像310は、隣接した部分画像310と重なる(312)。他の実施態様では、部分画像310は、解体されてもよく、重なること(312)を示さなくてもよい。ここで表されるように、部分画像モジュール124によって判定された部分画像310のサイズは、同一であってもよい。例えば、各々の部分画像310は、画素の256個の行及び256個の列である領域を表してもよい。しかしながら、他の実施態様では、異なる部分画像310は、異なるサイズを有してもよい。例えば、1つの部分画像310は、256×256の画素であってもよく、別の部分画像310は、128×128の画素であってもよい。
処理済み第2のモダリティ画像304は、皮膚の表面下の静脈などの様々な第2のモダリティ特徴314を表す。いくつかの実施態様では、処理済み第2のモダリティ画像304はまた、しわなどのいくつかの第1のモダリティ特徴306を表してもよい。手108の掌が存在すると見なされる画像内の領域を指定する境界ボックス308(2)が示される。境界ボックス308(2)内で、処理済み第2のモダリティ画像304は、部分画像310に分割される。他の実施態様では、境界ボックス308は、手108の全体、または指などのそれらの別の部分を含んでもよい。
いくつかの実施態様では、処理済み第1のモダリティ画像302または処理済み第2のモダリティ画像304のいずれかに対して判定された境界ボックス308の座標は、他の画像に対して使用されてもよく、境界ボックス308を2回判定する必要性を除去する。例えば、処理済み第1のモダリティ画像302及び処理済み第2のモダリティ画像304が、相互に閾値時間内である第1の時間及び第2の時間に取得されると仮定して、画像の間の画像データにおける手108の移動量は、小さいことがある。別の実施例では、処理済み第1のモダリティ画像302及び処理済み第2のモダリティ画像304が他に相互に位置合わせされる場合、1つの画像に対して判定された境界ボックス308は、その他の画像に対して再使用されてもよく、システム100によって使用される計算リソースを削減する。
第1のモダリティ画像が分割される部分画像310の数は、第2のモダリティ画像が分割される部分画像310の数とは異なってもよい。例えば、処理済み第1のモダリティ画像302は、36個の部分画像に分割されてもよく、処理済み第2のモダリティ画像304は、16個の部分画像に分割されてもよい。
第2のモダリティまたは第1のモダリティなど、特定のタイプの画像に対する部分画像310は、m個の行及びn個の列のアレイを含んでもよく、m及びnは、ゼロでない整数である。行の数は、列の数とは異なってもよい。例えば、未処理第1のモダリティ画像112は、10個の列及び20個の行に分割されてもよい。
第1のモダリティ特徴306及び第2のモダリティ特徴を分解するために使用される分解能は、変化してもよい。例えば、第1のモダリティ特徴306は、掌内のしわの鮮明なエッジなど、高頻度成分を示すことがある。それに引き換え、静脈などの第2のモダリティ特徴314は、介在組織によってIR光210の分散に起因してぼやけることがある。この相違は、コンピュータリソースの消費を減少させ、また、データを処理する間の待ち時間を減少させるために使用されてもよい。1つの実施態様では、処理済み第1のモダリティ画像302は、処理済み第2のモダリティ画像304よりも大きな総分解能を有してもよい。初期処理モジュール122は、処理済み第2のモダリティ画像304を生成するよう、未処理第2のモダリティ画像114をダウンサンプルしてもよい。例えば、線形ダウンサンプリング関数またはバイキュービックダウンサンプリング関数は、処理済み第2のモダリティ画像304を生成するために使用されてもよい。結果として、処理済み第2のモダリティ画像304の分解能は、処理済み第1のモダリティ画像302の分解能よりも小さくてもよい。
また、表されるのは、処理済み第1のモダリティ画像302内の手108及び処理済み第2のモダリティ画像304内の手108の両方が標準的な方位に位置合わせされるように、未処理画像データ110が処理されたことである。例えば、手108の画像は、掌の長軸が画像の中心線に沿って延在する特定の方位まで回転している。
示されるように、処理済み第1のモダリティ画像302または処理済み第2のモダリティ画像304のうちの1つ以上は、手首から指先までなど、手108の全体を表してもよい。この情報は、以下で説明されるように使用されてもよい。例えば、手の全体の画像は、手108の全体的な姿勢及び方位など、手108の幾何学形状に関する情報を判定するために使用されてもよい。いくつかの実施態様では、手の全体は、以下で説明されるように処理されてもよく、人差し指及び親指上に存在する特徴が判定及び比較されてもよい。例えば、指を含むユーザの手の面の全体は、部分画像310に細分化されてもよい。ユーザ102を識別するために、掌の特徴の代わりにまたは掌の特徴と共に人差し指及び親指の外部特性及び内部特性が使用されてもよい。
図4は、いくつかの実施態様に従った、認証システム120のブロック図400である。上記説明されたように、スキャナ106によって取得された未処理画像データ110は、認証システム120に提供される。未処理画像データ110は、第1の偏光を有する光を使用して取得された1つ以上の未処理第1のモダリティ画像112及び第2の偏光を有する光を使用して取得された1つ以上の未処理第2のモダリティ画像114を含む。
初期処理モジュール122は、掌検出モジュール402、画像選択モジュール404、または画像変換モジュール406などの1つ以上のモジュールを含んでもよい。初期処理モジュール122は、処理済み画像データ408を出力として生成する。
掌検出モジュール402は、掌が未処理画像データ110の画像に存在するかどうかを判定するように構成されてもよい。掌が存在すると判定される場合、モジュールは、境界ボックス308を判定してもよい。1つの実施態様では、掌検出モジュール402は、掌を検出するよう訓練された画像分類器を含んでもよい。別の実施態様では、掌検出モジュール402は、人工ニューラルネットワークを含んでもよい。いくつかの実施態様では、初期処理モジュール122は、掌の代わりにまたは掌に加えて、手108の存在を判定してもよい。掌検出モジュール402はまた、ユーザ102がどの手108を提示したかを示すデータを作成してもよい。例えば、掌検出モジュール402は、左手または右手が表されるかどうかを判定してもよい。1つの実施態様では、掌検出モジュール402は、左手または右手が表されるかどうかを判定するために、分類器を利用してもよい。別の実施態様では、掌検出モジュール402は、左手または右手が表されるかどうかを判定するために、ニューラルネットワークを利用してもよい。
画像選択モジュール404は、掌検出モジュール402によって、掌を含むと判定された未処理画像を処理してもよい。画像選択モジュール404は、掌を含む未処理画像のどれが更なる処理のために適切であるかを判定するように構成されてもよい。画像は、掌の特定の方位を示し、掌の特定の姿勢を示し、第1の閾値を上回る総輝度を示し、及び第2の閾値を下回る総不明瞭度を示す、などの場合、更なる処理のために適切であると見なされてもよい。例えば、掌の好ましい標準的な方位は、掌の長軸が画像に対して閾値角度内にあることであってもよい。適切であると見なされる掌の好ましい標準的な姿勢は、掌が実質的に平坦であり、指が掌を不鮮明にしない姿勢を含んでもよい。
画像の平均輝度は、過飽和または不飽和である境界ボックス308内の領域の割合を判定するために計算及び使用されてもよい。平均輝度が第1の閾値を上回る場合、画像は十分に明るいと見なされてもよい。
画像の総不明瞭度は、1つ以上の技術を使用して判定されてもよい。1つの実施態様では、境界ボックス308内の領域は、より小さなパッチまたは部分画像310に分割されてもよい。パッチのうちの1つ以上における画素強度値の正規化された平均値及びコントラストが計算されてもよい。1つ以上のパッチ内の画素の強度値を使用して、フーリエ変換が計算されてもよい。フーリエ変換からのデータを使用して、周波数の指定された範囲内の強度を表すエネルギーが計算されてもよい。エネルギーが閾値よりも小さい場合、パッチは、不明瞭であり、または焦点が外れていると見なされてもよい。掌にわたる複数のパッチに対するこのエネルギー測定の空間分布を使用することによって、システムは、掌の平坦度を測定することもできる。例えば、パッチに対するエネルギー値が相互の閾値内である場合、手108の姿勢は、平坦にされた掌の姿勢であると見なされてもよい。他の実施態様では、焦点を判定するために他の技術が使用されてもよい。例えば、エッジ検出モジュールは、パッチ内の1つ以上のエッジの存在を判定し、隣接した画素の強度がどのように急速に変化するかを表すエッジスコアを判定するために使用されてもよい。エッジスコアが閾値を上回る場合、パッチは、焦点が合わされていると見なされてもよい。閾値数のパッチが、焦点が合わされていると見なされる場合、全体画像が、焦点が合わされていると見なされてもよい。
他の実施態様では、初期処理モジュール122は、未処理画像データ110を更にフィルタリングまたは処理する他のモジュールを含んでもよい。初期処理モジュール122はまた、ディスプレイ、ライト、及びスピーカなどの1つ以上の出力デバイスを介して、ユーザ102に提示される出力を提供することができる。初期処理モジュール122は、スキャナ106に対して特定の方位、姿勢、または位置のうちの1つ以上において手108を置くようユーザ102を命令するために、この出力を使用してもよい。例えば、ゲート104におけるディスプレイデバイスは、特定の様式において手108を置くための視覚的キューをユーザ102に提供することができる。
画像変換モジュール406は、上記説明されたような更なる処理のために適切であると判定された未処理画像データ110におけるそれらの画像を処理してもよい。画像変換モジュール406は、画像に1つ以上の変換を適用してもよく、処理済み画像データ408を生成してもよい。それらの変換は、それらに限定されないが、修正、転換、回転、ワーピング、及びフィルタなどを含んでもよい。例えば、画像変換モジュール406は、未処理画像内の1つの位置から処理済み画像内の異なる位置に1つ以上の画素をマッピングする、修正変換を適用してもよい。修正の結果として、手108の掌の平面は、処理済み画像の平面内にあるように現れてもよい。別の実施例では、画像変換モジュール406は、手108の画像を特定の標準的な方位に再方向付ける、回転機能を適用してもよい。実施例を続けると、標準的な方位は、掌の長軸が再方向付けられた画像に対して特定の角度に向けられるように方向付けられた手を含んでもよい。
いくつかの実施態様では、画像変換モジュール406は、第1のモダリティ画像及び第2のモダリティ画像を記録してもよく、または第1のモダリティ画像及び第2のモダリティ画像を1つ以上の共通点に位置合わせしてもよい。例えば、カメラ212による未処理画像の取得の間の手108の移動を理由に、手108の視位置は、第1のモダリティ画像及び第2のモダリティ画像のペアの間でわずかに移動することがある。画像変換モジュール406は、それぞれの画像内の画素を共通点に転換またはそうでなければマッピングしてもよく、相互に位置合わせまたは登録された画像のペアを生成する。
よって、処理済み画像データ408は、更なる処理のために、それぞれの画像が掌のピクチャを含み、特定の方向に方向付けられ、特定の標準的な姿勢を示し、十分に明るく、十分に焦点が合わされている、処理済み第1のモダリティ画像302及び処理済み第2のモダリティ画像304を包含してもよい。
1つの実施態様では、初期処理モジュール122は、処理済み画像データ408を生成するよう、未処理画像データ110を徐々にフィルタリング及び処理してもよい。例えば、第2のモダリティ及び第1のモダリティ未処理画像データ110に対し、初期処理モジュール122は、人間の掌を表す未処理画像データ110から画像の第1のセットを判定してもよい。画像の第1のセットから、人間の掌の特定の方位を表す画像の第2のセットが判定されてもよい。画像の第2のセットから、人間の掌の特定の姿勢を表す画像の第3のセットが判定されてもよい。処理済み画像データ408を生成するために、1つ以上の変換が画像の第3のセットにおける画像に適用されてもよい。
いくつかの実施態様では、初期処理モジュール122は、手108のモデルを判定してもよい。例えば、モデルは、スキャナ106に対する手108の方位、姿勢、または位置のうちの1つ以上を表してもよい。いくつかの実施態様では、モデルは、掌及び1つ以上の指の関節の接合を表してもよい。例えば、手108のモデルは、掌を表してもよく、遠位の指の関節を考慮から外してもよい。いくつかの実施態様では、理想な平面から掌の歪みは、区分的アフィンアルゴリズムによって表されてもよい。モデルからの情報は、認証システム120の他の部分によって使用されてもよい。例えば、掌上の特定の領域の湾曲に関するモデル情報は、以下で説明される部分画像変換モジュール416によって使用されてもよい。
部分画像モジュール124は、処理済み画像データ408を入力として受け付ける。部分画像モジュール124は、部分画像配列データ412を入力として使用する部分画像指名子モジュール410を含む。部分画像配列データ412は、第2のモダリティまたは第1のモダリティなどの特定のタイプの画像に対し、そのタイプの画像の部分画像310に対するサイズ及び位置を指定してもよい。例えば、部分画像配列データ412は、第1のモダリティ画像に対する境界ボックス308内の領域が400個の部分画像310に分割されることになり、第2のモダリティ画像に対する境界ボックス308内の領域が100個の部分画像310に分割されることになると指定してもよい。別の実施例では、部分画像配列データ412は、掌及び指を含む手108の全体に対して部分画像310を指定してもよい。部分画像の第1のセット414は、処理済み第1のモダリティ画像302の部分画像310及び処理済み第2のモダリティ画像304の部分画像310を含んでもよい。
部分画像変換モジュール416は、部分画像の第2のセット418を生成するよう、1つ以上の変換を部分画像310に適用するために使用されてもよい。それらの変換は、それらに限定されないが、修正、転換、回転、ワーピング、及びフィルタなどを含んでもよい。例えば、手108のモデルによって示されるような掌の面内の湾曲に起因して、部分画像変換モジュール416は、特定の部分画像310を「平らにする」ように1つの位置から別の位置に画素を再マッピングすることによって、その部分画像を修正してもよい。1つ以上の変換を特定の部分画像310に適用することによって、部分画像変換モジュール416は、認証システム120の精度を改善する。例えば、特定の部分画像310を修正するために変換を適用することによって、システムは、その部分画像310に存在する特徴に関する情報をより良好に判定及び利用することが可能である。部分画像変換モジュール416は、回転及び転換などの他の変換を適用してもよい。いくつかの実施態様では、部分画像変換モジュール416は、特定の方位及び姿勢などにある「参照の手」または手108の標準的なモデルに部分画像310をワープまたは変換してもよい。いくつかの実施態様では、部分画像変換モジュール416が省略されてもよい。例えば、畳み込みニューラルネットワークは、別個の変換の適用を不要にする部分画像310に対して動作してもよい。
部分画像の第2のセット418は、第1のモダリティ画像及び第2のモダリティ画像の部分画像310を含む。特徴抽出モジュール420は、部分画像の第2のセット418を処理し、部分画像特徴データ126を生成する。部分画像特徴データ126は、部分画像310に存在する特徴を表す特徴ベクトルを含む。
1つ以上のニューラルネットワークは、部分画像310を処理し、特徴ベクトルを出力として生成するために使用されてもよい。ニューラルネットワークは、部分画像310内の不変の特徴を検出するよう訓練されてもよい。部分画像310は、k次元の特徴ベクトルまたは埋め込みベクトルを生成するようニューラルネットワークによって処理され、kは、ゼロでない整数である。いくつかの実施態様では、ニューラルネットワークの構成は、kの値を定義してもよい。
いくつかの実施態様では、訓練の間、ニューラルネットワークは、訓練のためにトリプレット損失関数を実装してもよい。トリプレット損失関数は、ネットワークが同一のユーザ102の画像の間のベクトル空間内の距離を抑制することをもたらすと共に、また、異なるユーザ102からの画像の間のベクトル空間内の距離を増大させることをもたらす。例えば、ニューラルネットワークは、訓練の間にトリプレット損失関数を実装する18個の層を有する残余ネットワーク(resnet)を実装してもよい。訓練されると、ニューラルネットワークはその後、部分画像310を処理し、特徴ベクトルを生成するために使用されてもよい。
異なるニューラルネットワークは、第2のモダリティ画像及び第1のモダリティ画像を処理するために使用されてもよい。それらのニューラルネットワークの各々は、特定のサイズを有する部分画像310などの入力を使用して動作するよう訓練及び構成されてもよい。例えば、第1のモダリティ画像の部分画像310は、第2のモダリティ画像の部分画像310よりも高い分解能を有してもよい。異なるニューラルネットワークの使用は、特定のモダリティに特有の特徴をより良好に判定することによって全体性能を改善することができ、動作の間の待ち時間を減少させることができる。例えば、特定の分解能の部分画像310及びモダリティを処理するよう構成及び訓練されたニューラルネットワークは、複数の分解能及び複数のモダリティを処理するように構成及び訓練されたニューラルネットワークよりも、出力を生成するために計算リソースを必要としないことができ、時間を必要としないことができる。
第1のモダリティ画像ニューラルネットワークモジュール422は、第1のモダリティ画像に基づいた部分画像の第2のセット418における部分画像310を処理するために使用されてもよい。例えば、第1のモダリティ画像ニューラルネットワークモジュール422は、第1のモダリティ画像からの部分画像310を使用して訓練されてもよい。訓練された第1のモダリティ画像ニューラルネットワークモジュール422からの出力は、n次元空間内で表現される特徴ベクトルを含んでもよく、nは、ゼロでない整数値である。
第2のモダリティ画像ニューラルネットワークモジュール424は、第2のモダリティ画像に基づいた部分画像の第2のセット418における部分画像310を処理するために使用されてもよい。例えば、第2のモダリティ画像ニューラルネットワークモジュール424は、第2のモダリティ画像からの部分画像310を使用して訓練されてもよい。訓練された第1のモダリティ画像ニューラルネットワークモジュール422からの出力は、p次元空間内で表現される特徴ベクトルを含んでもよく、pは、ゼロでない整数値である。いくつかの実施態様では、pは、nよりも少なくてもよい。
いくつかの実施態様では、部分画像の第2のセット418における部分画像310は、異なる分解能において使用されてもよい。例えば、第1の分解能(微細な)における第1のモダリティの部分画像310及び第1の分解能未満である第2の分解能(粗い)における第1のモダリティの部分画像310が処理されてもよい。いくつかの実施態様では、それらの異なる分解能は、その分解能において動作するよう訓練されたそれぞれのニューラルネットワークによって処理されてもよい。実施例を続けると、微細な第1のモダリティ画像ニューラルネットワークモジュールは、第1の分解能において部分画像310を処理してもよく、粗い第1のモダリティ画像ニューラルネットワークモジュールは、第2の分解能において部分画像310を処理してもよい。
部分画像特徴データ126は、特定のタイプの部分画像310と関連付けられた特徴ベクトルを含み、部分画像310の相対位置を示してもよい。例えば、部分画像特徴データ126は、特定の第1のモダリティ画像の特定の部分画像310(01)に対する特徴ベクトル値を示してもよい。実施例を続けると、特徴ベクトルは、処理済み画像データ408における特定の画像と関連付けられた部分画像310のうちの1つ以上に対して生成されてもよい。
比較モジュール128は、部分画像特徴データ126及び記憶されたユーザ特徴データ130の少なくとも一部を入力として受け付ける。1つの実施態様では、部分画像特徴データ126における特徴ベクトルを前に記憶されたユーザ特徴データ130と比較する比較データ426が生成されてもよい。別の実施態様では、比較モジュール128は、特徴ベクトルに基づいて、最新の署名428を生成してもよい。最新の署名428は次いで、比較データ426を生成するよう、記憶されたユーザ特徴データ130における1つ以上の前に記憶された参照署名430と比較されてもよい。各々の参照署名430は、ユーザ識別子432と関連付けられてもよい。
比較モジュール128は、最新の署名428を生成するために、部分画像特徴データ126を使用してもよい。最新の署名428は、1つ以上の画像から取得された特徴ベクトルを使用して生成されてもよい。例えば、未処理第1のモダリティ画像112(1)を処理することから結果として生じる特徴ベクトルが判定されてもよく、未処理第2のモダリティ画像114(1)を処理することから結果として生じる特徴ベクトルが判定されてもよい。それらの特徴ベクトルは次いで、画像のペアに基づいた最新の署名428を形成するよう組み合わされてもよい。1つの実施態様では、最新の署名428は、線形ベクトルを形成するよう、部分画像特徴データ126における1つ以上の特徴ベクトルを連結することによって生成されてもよい。別の実施態様では、畳み込みニューラルネットワークは、特徴ベクトルを入力として受け付けてもよく、最新の署名428を出力として生成してもよい。
動作の間、比較モジュール128は、スキャナ106によって取得されることを続ける未処理画像データ110の処理に基づいた複数の最新の署名428を生成してもよい。例えば、部分画像特徴データ126は、未処理第1のモダリティ画像112及び未処理第2のモダリティ画像114の20個のペアからの特徴ベクトルを含んでもよい。各々のペアは、最新の署名428を生成するために使用されてもよい。それらの20個の最新の署名428の各々は、1つ以上の参照署名430と比較されてもよい。1つの実施態様では、投票システムは、ユーザアイデンティティが投票の最大数と関連付けられたユーザ識別子432であると見なされるように利用されてもよい。例えば、最新の署名428がベクトル空間内の閾値距離内など、閾値内の参照署名430に対応する場合、その参照署名430と関連付けられた投票が生成される。実施例を続けると、「Alice」のユーザ識別子432に対して15個の投票、及び「Greg」のユーザ識別子432に対して5個の投票が存在する場合、認証データ132は次いで、「Alice」のユーザ識別子432を示す。
比較モジュール128は、最新の署名428が候補ユーザ識別子432と関連付けられた記憶されたユーザ特徴データ130における参照署名430にどの程度近くで対応するかを示す信頼値を含む比較データ426を生成してもよい。1つの実施態様では、信頼値は、最新の署名428と参照署名430との間のベクトル空間内のユークリッド距離に基づいて判定されてもよい。信頼値は、より高い信頼値がより短い距離を示し、より低い信頼値がより長い距離を示すように、距離に比例してもよい。
いくつかの実施態様では、サーチスペース削減データは、部分画像特徴データ126から生成された最新の署名428と比較される、記憶されたユーザ特徴データ130における参照署名430のセットを削減するために使用されてもよい。サーチスペース削減データは、ユーザ102のモバイルデバイス上で実行するアプリケーションによって提供される地理的データなどの情報を含んでもよい。例えば、ユーザ102は、アプリケーションをスマートフォンにインストールさしていることがある。スマートフォンが施設の近くの予め定められた地理的境界(ジオフェンスなど)を通るにつれて、ユーザ102と関連付けられたユーザ識別子432は、サーチスペース削減データに記憶されとしてゲート104において予測することができる候補ユーザ識別子のリストに追加されてもよい。ユーザ102が離れて移動するにつれて、それらは、サーチスペース削減データにおける候補ユーザ識別子のリストから除去されてもよい。サーチスペース削減データは、位置、日付、及び時間などに基づいた履歴出席データなどの他の情報をも含んでもよい。例えば、サーチスペース削減データは、時間ウインドウの間の各曜日に、特定のユーザ識別子432が特定の施設に存在することを示すことができる。
比較モジュール128は、最新の署名428を、サーチスペース削減データにおいてリスト化されたそれらのユーザ識別子432の参照署名430と最初に比較してもよい。サーチスペース削減データと関連付けられた参照署名430を使用して比較を実行することによって、システムの全体精度を改善することができる。サーチスペース削減データの使用は、アイデンティティを判定するために必要な時間及び計算リソースを削減することもできる。適切な一致が発見されない場合、システムは、残りの記憶されたユーザ特徴データ130を検索してもよい。
比較モジュール128は、認証データ132を生成するために、比較データ426を使用する。例えば、参照署名430と、第1のモダリティ画像及び第2のモダリティ画像の両方からの最新の署名428との間の一致に対して最高にランク付けされた信頼値を示す比較データ426を有する候補ユーザ識別子は、スキャナ106にそれらの手108を提示した、ゲート104におけるユーザ102と関連付けられたユーザ識別子432として指定されてもよい。ユーザ102と関連付けられたユーザ識別子432を判定するための他の技術は、図6〜8に関して以下で議論される。
例示として、及び必ずしも限定ではなく、認証システム120は、上記説明された様々なモジュール及び機能を実装するとして表される。いくつかの実施態様では、認証システム120の処理の少なくともいくつかは、スキャナ106のコンピューティングデバイス220によって実行されてもよい。例えば、コンピューティングデバイス220は、初期処理モジュール122の機能を実行し、認証システム120に処理済み画像データ408を送信するように構成されてもよい。別の実施例では、コンピューティングデバイス220は、部分画像モジュール124の機能を実行し、認証システム120に部分画像特徴データ126を提供するように構成されてもよい。
いくつかの実施態様では、特定のタイプの画像に対する特定の位置における部分画像310は、異なる重みを割り当てられてもよい。例えば、特定の第1のモダリティ部分画像310は、認証に対して重要な特徴を包含すると見なされてもよく、この第1のモダリティ部分画像は、特定の第1のモダリティ重み値と関連付けられてもよい。信頼値及びそれぞれの第1のモダリティ重み値を乗算することによって、特定の第1のモダリティ画像に対して第1のモダリティスコアが判定されてもよい。同様に、特定の第2のモダリティ画像に対して第2のモダリティスコアが判定されてもよい。第1のモダリティ画像及び第2のモダリティ画像は、相互の閾値時間の間に取得された画像であってもよい。例えば、第1のモダリティスコアは、第1の時間に取得された未処理第1のモダリティ画像112(1)からの第1のモダリティ部分画像310に基づいてもよく、第2のモダリティスコアは、第2の時間に取得された未処理第2のモダリティ画像114(1)からの第2のモダリティ部分画像310に基づいてもよい。総スコアは、第1のモダリティスコア及び第2のモダリティスコアに基づいて判定されてもよい。この重み付けは、図5に関して更に詳細に議論される。
説明されるようなシステムは、なりすましまたは偽造に耐性を有する。第1のモダリティ及び第2のモダリティにおいて取得された画像の使用、画像の進行中の取得、並びに閉鎖時間における異なるモダリティを有するそれらの画像の取得は、詐欺が成功する尤度を著しく減少させる。例えば、ユーザ102の手108のピクチャは、静脈などの内部特性を省略する。加えて、画像の間の変動が予測及び検査されてもよい。連続した画像が非常に小さい場合、認証の信頼度が減少することがある。実施例を続けると、ピクチャの提示は、非常に類似した特徴ベクトルまたは同一の特徴ベクトルをもたらす。それに引き換え、実存の手108の提示は、移動などに起因したいくつかの可変のものを含む。同一のモダリティの連続した画像から判定された特徴値の間の変動の最小閾値が検査されてもよい。不十分な変動性は、後続の認証の信頼値における減少をもたらすことがある。
図5は、いくつかの実施態様に従った、第1のモダリティ画像及び第2のモダリティ画像と関連付けられた信頼値、並びに特定の部分画像位置と関連付けられたモダリティ重みの使用を含む比較データ426の500を示す。
上記説明されたように、いくつかの部分画像310は、ユーザアイデンティティを判定するときのより大きいまたはより小さい関心の特徴と関連付けられてもよい。例えば、第1のモダリティ画像内の特定の部分画像310は、多数のユーザに類似することがあり、その部分画像310内の特徴を、1人のユーザを別のユーザと区別する際にあまり使用しないようにする。別の実施例では、第2のモダリティ画像内の特定の部分画像310は、異なるユーザ102の間で高度に区別できる特徴と関連付けられてもよい。
上記表されたように、比較モジュール128は、未処理画像データ110から生成された特定の部分画像310の特徴ベクトルと、前に記憶されたユーザ特徴データ130における候補ユーザ識別子と関連付けられた特徴ベクトルとの間の類似性を示す信頼値を生成してもよい。例えば、信頼値は、比較される特徴ベクトルの間のベクトル空間内のユークリッド距離に基づいて判定されてもよい。信頼値は、より高い信頼値がより短い距離を示し、より低い信頼値がより長い距離を示すように、距離に比例してもよい。
よって、信頼値のアレイは、第1のモダリティ画像及び第2のモダリティ画像の両方に対して判定されてもよい。この例示では、特定の第1のモダリティ画像に対する第1のモダリティ信頼値502が示される。特定の部分画像310と関連付けられたそれぞれの重みを示す、前に定義された第1のモダリティ重み値504も示される。第1のモダリティスコア506が示される。1つの実施態様では、第1のモダリティスコア506は、第1のモダリティ信頼値502及び対応する第1のモダリティ重み値504の積の合計として計算されてもよい。他の実施態様では、他の計算が使用されてもよい。
また、示されるのは、第2のモダリティ信頼値508及び対応する第2のモダリティ重み値510である。第2のモダリティスコア512が示される。1つの実施態様では、第2のモダリティスコア512は、第2のモダリティ信頼値508及び対応する第2のモダリティ重み値510の積の合計として計算されてもよい。他の実施態様では、他の計算が使用されてもよい。
総スコア514が計算されてもよい。例えば、総スコア514は、第1のモダリティスコア506及び第2のモダリティスコア512の合計を含んでもよい。他の実施態様では、総スコア514を判定するために他の計算が使用されてもよい。
1つの実施態様では、最大の総スコア514と関連付けられた候補ユーザ識別子は、認証データ132を生成するために選択及び使用されてもよい。例えば、第1の候補ユーザ識別子が123.6の総スコアを有し、第2の候補ユーザ識別子が101.3の総スコアを有する場合、第1の候補ユーザ識別子が選択されてもよい。認証データ132は次いで、ユーザ102が第1の候補ユーザ識別子であると示す。
第1のモダリティ信頼値502及び第2のモダリティ信頼値508の単一のセットが表されるが、第1のモダリティまたは第2のモダリティのうちの1つ以上に対する信頼値の追加の例が使用されてもよい。例えば、未処理画像データ110に基づいて、5個の別個の未処理の第1のモダリティ画像112が取得されてもよく、5個の別個の未処理の第2のモダリティ画像114が取得されてもよい。各々の部分画像310に対する信頼値が判定されてもよく、個々のモダリティスコアが総スコア514を生成するために使用される。
図6は、いくつかの実施態様に従った、スキャナ106によって取得された画像に基づいて、ユーザ識別子432を判定する処理のフローチャート600を示す。処理は、認証システム120において少なくとも部分的に実装されてもよい。
602において、スキャナ106を使用して、第1の未処理画像データ110(1)は、第1の時間に取得される。第1の未処理画像データ110(1)は、第1の偏光を有する光を使用して取得された画像を含む。
604において、第1の処理済み画像データ408(1)は、第1の未処理画像データ110から生成される。例えば、初期処理モジュール122は、第1の未処理画像データ110(1)を処理してもよく、処理済み画像データ408を生成してもよい。
606において、スキャナ106を使用して、第2の未処理画像データ110(2)は、第2の時間に取得される。第2の未処理画像データ110(2)は、第2の偏光を有する光を使用して取得された画像を含む。
608において、第2の処理済み画像データ408(2)は、第2の未処理画像データ110(2)から生成される。例えば、初期処理モジュール122は、第2の未処理画像データ110(2)を処理してもよく、処理済み画像データ408(2)を生成してもよい。
610において、部分画像の第1のセット414が判定される。部分画像310の個々の1つは、第1の処理済み画像データ408(1)の1つ以上の画像内の特定の領域に対応する。例えば、部分画像指名子モジュール410は、処理済み画像を部分画像310に分割するために、部分画像配列データ412を使用してもよい。部分画像310は、第1のモダリティ画像の部分画像310を含んでもよい。
612において、特徴ベクトルの第1のセットは、部分画像の第1のセット414内の部分画像310のうちの1つ以上に対して判定される。1つの実施態様では、特徴抽出モジュール420は、特徴ベクトルの第1のセットを判定するために、第1のニューラルネットワークを使用してもよい。例えば、第1のモダリティ画像ニューラルネットワークモジュール422は、特徴ベクトルの第1のセットを生成するために使用されてもよい。
614において、部分画像の第2のセット418が判定される。部分画像310の個々の1つは、第2の処理済み画像データ408(2)の1つ以上の画像内の特定の領域に対応する。例えば、部分画像指名子モジュール410は、処理済み画像を部分画像310に分割するために、部分画像配列データ412を使用してもよい。部分画像310は、第2のモダリティ画像の部分画像310を含んでもよい。
616において、特徴ベクトルの第2のセットは、部分画像の第2のセット418内の部分画像310のうちの1つ以上に対して判定される。1つの実施態様では、特徴抽出モジュール420は、特徴ベクトルの第2のセットを判定するために、第2のニューラルネットワークを使用してもよい。例えば、第2のモダリティ画像ニューラルネットワークモジュール424は、特徴ベクトルの第2のセットを生成するために使用されてもよい。
618において、最新の署名428は、特徴ベクトルの第1のセットのうちの1つ以上の及び特徴ベクトルの第2のセットのうちの1つ以上に基づいて判定されてもよい。最新の署名428は、ゲート104におけるユーザ102によって提示される特徴を表す。例えば、特徴ベクトルの第1のセット及び特徴ベクトルの第2のセットは、単一の線形ベクトルに連結されてもよい。別の実施例では、特徴ベクトルの第1のセット及び特徴ベクトルの第2のセットは、最新の署名428を生成するニューラルネットワークへの入力として提供されてもよい。実施例を続けると、畳み込みニューラルネットワークは、特徴ベクトルの第1のセットの少なくとも一部及び特徴ベクトルの第2のセットの少なくとも一部を入力として受け付けてもよく、最新の署名428を生成してもよい。いくつかの実施態様では、最新の署名428は、特徴ベクトルよりも低い次元を有してもよい。
620において、参照署名430を含む前に記憶されたユーザ特徴データ130に基づいて、ユーザ識別子432が判定される。1つの実施態様では、比較モジュール128は、最新の署名428と、記憶されたユーザ特徴データ130にある参照署名430との間の類似性を示す信頼値を判定してもよい。別の実施態様では、比較モジュール128は、未処理画像データ110から取得された特徴ベクトルと、記憶されたユーザ特徴データ130における特徴ベクトルとの間の類似性を示す信頼値を判定してもよい。信頼値は、署名及び特徴ベクトルなどの間のベクトル空間内のユークリッド距離に基づいて判定されてもよい。信頼値は、より高い信頼値がより短い距離を示し、より低い信頼値がより長い距離を示すように、距離に比例してもよい。
図7は、いくつかの実施態様に従った、第2のモダリティ画像及び第1のモダリティ画像の部分画像の信頼値のランク付けに基づいて、特定の候補ユーザ識別子をランク付け及び選択する処理のフローチャート700を示す。処理は、認証システム120によって少なくとも部分的に実装されてもよい。
702において、処理済み画像データ408に基づいた特徴ベクトルの第1のセットの少なくとも一部は、記憶されたユーザ特徴データ130における前に記憶された特徴ベクトルの少なくとも一部と比較される。前に記憶された特徴ベクトルは、候補ユーザ識別子と関連付けられる。例えば、未処理第2のモダリティ画像114に基づいた特徴ベクトルは、ユーザ102の登録の間に取得された未処理第2のモダリティ画像114に基づいて、記憶された特徴ベクトルと比較されてもよい。
704において、比較に基づいて、特徴ベクトルの第1のセットの少なくとも一部と、前に記憶された特徴ベクトルの少なくとも一部との間の対応関係を示す第1の信頼値が判定される。例えば、第1のセットにおける特徴ベクトルと前に記憶された特徴ベクトルとの間のベクトル空間内のユークリッド距離が判定されてもよい。他の実施態様では、他の技術が使用されてもよい。
706において、第1の信頼値に基づいて、候補ユーザ識別子の第1のランク付けが判定される。例えば、ランク付けは、降順ソートを含んでもよい。
708において、処理済み画像データ408に基づいた特徴ベクトルの第2のセットの少なくとも一部は、記憶されたユーザ特徴データ130における前に記憶された特徴ベクトルの少なくとも一部と比較される。前に記憶された特徴ベクトルは、候補ユーザ識別子と関連付けられる。例えば、未処理第1のモダリティ画像112に基づいた特徴ベクトルは、ユーザ102の登録の間に取得された未処理第1のモダリティ画像112に基づいて、記憶された特徴ベクトルと比較されてもよい。
710において、比較に基づいて、特徴ベクトルの第2のセットの少なくとも一部と、前に記憶された特徴ベクトルの少なくとも一部との間の対応関係を示す第2の信頼値が判定される。例えば、第2のセットにおける特徴ベクトルと前に記憶された特徴ベクトルとの間のベクトル空間内のユークリッド距離が判定されてもよい。
712において、第2の信頼値に基づいて、候補ユーザ識別子の第2のランク付けが判定される。例えば、ランク付けは、降順ソートを含んでもよい。
714において、第1のランク付け及び第2のランク付けに基づいて、候補ユーザ識別子の総ランク付けが判定される。例えば、特定の候補ユーザ識別子が第1のランク付け及び第2のランク付けにおける最高にランク付けされた位置と関連付けられる場合、その特定の候補ユーザ識別子は、最高の総ランク付けを有する。
716において、総ランク付けにおける候補ユーザ識別子の最高にランク付けされた1つは、スキャナ106のユーザ102と関連付けられたユーザ識別子432として指定される。
図8は、いくつかの実施態様に従った、部分画像310のランク付けに基づいて、特定の候補ユーザ識別子をランク付け及び選択する処理のフローチャート800を示す。処理は、認証システム120によって少なくとも部分的に実装されてもよい。
802において、処理済み画像データ408から取得された特徴ベクトルの第1のセットの少なくとも一部と、記憶されたユーザ特徴データ130における前に記憶された特徴ベクトルの少なくとも一部との間の対応関係を示す信頼値の第1のセットが判定される。例えば、スキャナ106によって取得された第1のモダリティ画像と関連付けられた特徴ベクトルは、記憶されたユーザ特徴データ130における前に記憶された第1のモダリティ画像と比較される。前に記憶された特徴ベクトルは、候補ユーザ識別子と関連付けられる。
804において、処理済み画像データ408から取得された特徴ベクトルの第2のセットの少なくとも一部と、記憶されたユーザ特徴データ130における前に記憶された特徴ベクトルの少なくとも一部との間の対応関係を示す信頼値の第2のセットが判定される。例えば、スキャナ106によって取得された第2のモダリティ画像と関連付けられた特徴ベクトルは、記憶されたユーザ特徴データ130における前に記憶された第2のモダリティ画像と比較される。前に記憶された特徴ベクトルは、候補ユーザ識別子と関連付けられる。
806において、信頼値の第1のセットにおける最大信頼値及び信頼値の第2のセットにおける最大信頼値と関連付けられた候補ユーザ識別子の特定の1つに基づいて、ユーザ102のユーザ識別子432が判定される。いくつかの実施態様では、信頼値の第1のセットまたは信頼値の第2のセットのうちの1つ以上に予め定められた重みが適用されてもよい。
808において、未処理画像データ110が取得されたときのスキャナ106におけるユーザ識別子432と関連付けられたユーザ102の存在を示す認証データ132が判定される。
図9は、いくつかの実施態様に従った、最新の署名428及び参照署名430を使用して、特定の候補ユーザ識別子をランク付け及び選択する処理のフローチャート900を示す。処理は、認証システム120によって少なくとも部分的に実装されてもよい。
902において、処理済み画像データ408に基づいた特徴ベクトルの第1のセットの少なくとも一部及び処理済み画像データ408に基づいた特徴ベクトルの第2のセットの少なくとも一部のうちの1つ以上に基づいて、最新の署名428が判定される。例えば、特徴ベクトルの第1のセット及び特徴ベクトルの第2のセットは、最新の署名428を生成するよう、共通ベクトル空間に組み合わされてもよい。
1つの実施態様では、最新の署名428は、ニューラルネットワークを使用して判定されてもよい。例えば、特徴ベクトルの第1のセット及び特徴ベクトルの第2のセットは、掌を表す統合された埋め込みベクトルを含む最新の署名428を生成するよう前に訓練された畳み込みニューラルネットワークに入力として提供されてもよい。結果として生じる最新の署名428は、個々の特徴ベクトルと比較して、減少した全体次元を有する。いくつかの実施態様では、統合された埋め込みベクトルはその後、候補ユーザ識別子を判定するよう、以下で説明される参照署名430などの前に記憶されたデータと比較されてもよい。
904において、最新の署名428と、記憶されたユーザ特徴データ130における前に記憶された参照署名430の少なくとも一部との間の対応関係を示す信頼値の第1のセットが判定される。例えば、信頼値は、最新の署名428と、共通ベクトル空間内の特定の参照署名430との間のユークリッド距離に基づいてもよい。上記説明されたように、前に記憶された参照署名430は、候補ユーザ識別子と関連付けられる。
906において、信頼値の第1のセットにおける最大信頼値と関連付けられた候補ユーザ識別子の特定の1つに基づいて、ユーザ識別子432が判定される。いくつかの実施態様では、追加の判定が行われてもよい。例えば、最上位にランク付けされた候補ユーザ識別子の信頼値と、2番目に上位にランク付けされた候補ユーザ識別子の信頼値との間の差が閾値よりも小さい場合、アイデンティティが判定されなくてもよい。別の実施例では、最上位にランク付けされた候補ユーザ識別子の信頼値が閾値よりも小さい場合、アイデンティティが判定されなくてもよい。同様に、ユーザ識別子432の判定は、前の閾値のいずれかまたは両方を満たす信頼値に基づいてもよい。
908において、スキャナ106におけるユーザ識別子432と関連付けられたユーザ102の存在を示すデータが判定される。
図10は、いくつかの実施態様に従った、システム100を使用した材料取扱施設(facility)を示すブロック図1000である。施設1002は、その中で1つ以上のアイテム1016(1)、1016(2)、…、1016(Q)を保持することができる1つ以上の物理構造または領域を含む。アイテム1016は、本、薬剤、修理部品、及び電子ギアなどの物理的な物品を含んでもよい。
施設1002は、在庫の取り扱いに関して異なる機能に対して設計された1つ以上の領域を含んでもよい。この例示では、施設1002は、受取領域1004、保管領域1006、及び転移領域1008を含む。
受取領域1004は、施設1002への取入れのために、供給者などからアイテム1016を受け付けるように構成されてもよい。例えば、受取領域1004は、トラックまたは他の貨物運送がアイテム1016を降ろす搬出口を含んでもよい。いくつかの実施態様では、アイテム1016は、アイテムデータの少なくとも一部を生成するよう、受取領域1004において処理されてもよい。例えば、アイテム1016は、受取領域1004においてアイテム1016の参照画像または表現を発展させるよう、重み付けされてもよく、撮像されてもよく、またはそうでなければ走査されてもよい。
保管領域1006は、アイテム1016を保管するように構成される。保管領域1006は、様々な物理構成において配列されてもよい。1つの実施態様では、保管領域1006は、1つ以上の通路1010を含んでもよい。通路1010は、通路1010の片側または両側上の在庫位置1018により構成されてもよく、または在庫位置1018によって定義されてもよい。在庫位置1018は、プラットフォーム、ラック、ケース、キャビネット、ビン、フロア位置、またはアイテム1016を保持、支持、もしくは保管するための他の適切な保管機構のうちの1つ以上を含んでもよい。例えば、在庫位置1018は、そこで設計されたレーンなどの領域を有する棚を含んでもよい。在庫位置1018は、フロアまたは施設1002の構造の別の部分に取り付けられてもよい。在庫位置1018はまた、通路1010の配列が再構成可能であることができるように移動可能であってもよい。いくつかの実施態様では、在庫位置1018は、外部オペレータとは独立して移動するように構成されてもよい。例えば、在庫位置1018は、ラックが施設1002内の1つの位置から別の位置に移動することを可能にするよう、コンピューティングデバイスによって操作される電源及びモータを有するラックを含んでもよい。
1人以上のユーザ102(1)、102(2)、…、102(U)、及びカート1012(1)、1012(2)、…、1012(T)、または他の材料取扱装置は、施設1002内で移動してもよい。例えば、ユーザ102は、様々な在庫位置1018内のアイテム1016を選定し、または様々な在庫位置1018にアイテム1016を配置するよう、施設1002内で周りを移動してもよく、輸送を容易にするために、それらをカート1012に配置する。カート1012は、1つ以上のアイテム1016を搬送またはそうでなければ輸送するように構成される。例えば、カート1012は、バスケット、カート、バッグ、及びビンなどを含んでもよい。他の実施態様では、ロボット、フォークリフト、クレーン、及び空中ドローンなどの他の材料取扱装置は、施設1002の周りを移動してもよく、アイテム1016を選定し、配置し、またはそうでなければ移動させる。例えば、ロボットは、第1の在庫位置1018(1)からアイテム1016を選定してもよく、第2の在庫位置1018(2)にアイテム1016を移動させてもよい。
保管領域1006が1つ以上の通路1010、アイテム1016を保管する在庫位置1018、及びセンサ1014などを有するとして表されるが、受取領域1004、転移領域1008、または施設1002の他の領域も同様に備えられてもよいことが理解されよう。更に、施設1002内の様々な領域の配列が概略的ではなく機能的に表される。例えば、いくつかの実施態様では、複数の異なる受取領域1004、保管領域1006、及び転移領域1008は、施設1002内で分離されるのではなく、散在してもよい。
施設1002は、上記説明された施設管理システム134を含んでもよく、または施設管理システム134に結合されてもよい。施設管理システム134は、受取領域1004、保管領域1006、または転移領域1008のうちの1つ以上内で、ユーザ102、またはセンサ1014、ロボット、材料取扱機器、及びコンピューティングデバイスなどのデバイスと対話するように構成される。
施設1002の操作の間、重量センサ1014(16)及び他のセンサ1014は、施設管理システム134に、センサデータ、またはセンサデータに基づいた情報を提供するように構成されてもよい。重量センサ1014(16)から取得されたデータに加えて、センサデータは、画像データ及び非画像データなどを含んでもよい。センサ1014は、それらに限定されないが、重量センサ1014(16)及びカメラ1014(1)などを含んでもよい。センサ1014は、施設1002に対して静止してもよく、または移動してもよい。例えば、施設1002は、施設1002内でユーザ102または他の物体の画像を取得するカメラ1014(1)を含んでもよい。別の実施例では、在庫位置1018は、そこに収容されたアイテム1016の重量センサデータを取得する重量センサ1014(16)、及び棚上のアイテム1016の選定または配置の画像を取得するカメラ1014(1)などを包含してもよい。センサ1014は、図11に関して以下で更に詳細に説明される。
施設管理システム134または他のシステムは、施設1002内の物体の位置、物体の移動を追跡し、または他の機能性を提供するために、センサデータを使用してもよい。物体は、それらに限定されないが、アイテム1016、ユーザ102、及びカート1012などを含んでもよい。例えば、カメラ1014(1)によって取得された一連の画像は、在庫位置1018における特定の位置からのアイテム1016のユーザ102による除去、及びカート1012上または少なくとも部分的にカート1012内でのアイテム1016の配置を示すことができる。
施設1002は、様々な供給者から異なる種類のアイテム1016を受け取り、顧客がアイテム1016のうちの1つ以上を注文し、または取り出すまでそれらを保管するように構成されてもよい。施設1002を通じたアイテム1016の全体的な流れは、図10の矢印によって示される。特に、この実施例において示されるように、アイテム1016は、受取領域1004において、製造者、配給業者、及び卸売業者などの1つ以上の供給者から受け取られてもよい。様々な実施態様では、アイテム1016は、施設1002を操作する企業の性質に応じて、商品、日用品、生鮮品、またはいずれかの適切なタイプのアイテム1016を含んでもよい。
受取領域1004において供給者から受け取られると、保管領域1006に保管するためのアイテム1016が用意されてもよい。例えば、いくつかの実施態様では、アイテム1016は、荷ほどきされてもよく、またはそうでなければ再配列されてもよい。施設管理システム134は、在庫管理機能を提供するようコンピュータシステム上で実行する1つ以上のソフトウェアアプリケーションを含んでもよい。それらの在庫管理機能は、アイテム1016に関するタイプ、量、状態、コスト、位置、重量、またはいずれかの他の適切なパラメータを示す情報を維持することを含んでもよい。アイテム1016は、パッケージ、カートン、クレート、パレット、または他の適切な集合体など、可算単位、個々の単位、または複数の単位の観点で蓄積、管理、または分配されてもよい。代わりに、バルク製品及び日用品などのいくつかのアイテム1016は、加算単位に本質的に整理されないことがある連続したまたは任意の分割可能な量において保管されてもよい。そのようなアイテム1016は、長さ、領域、ボリューム、重量、時間、期間、または測定の単位によって特徴付けられる他の次元性の単位などの測定可能な量の観点で管理されてもよい。一般的に言えば、アイテム1016の量は、必要に応じて、アイテム1016の個々の単位もしくは集合の単位の加算可能数、またはアイテム1016の測定可能な量のいずれかを指してもよい。
受取領域1004を通じて到達した後、アイテム1016は、保管領域1006内に保管されてもよい。いくつかの実施態様では、同様のアイテム1016は、ビン内、棚上、及びペグボードから吊るされるなど、在庫位置1018内で共に保管または表示されてもよい。この実施態様では、所与の種類の全てのアイテム1016は、1つの在庫位置1018に保管される。他の実施態様では、同様のアイテム1016は、異なる在庫位置1018に保管されてもよい。例えば、大規模物理施設1002内で頻繁な回転率を有する特定のアイテム1016の取り出しを最適化するために、それらのアイテム1016は、単一の在庫位置1018において発生することがある混雑を削減するよう、いくつかの異なる在庫位置1018に保管されてもよい。
1つ以上のアイテム1016を指定する顧客注文が受け取られるとき、またはユーザ102が施設1002に進行するにつれて、対応するアイテム1016は、それらのアイテム1016を包含する在庫位置1018から選択または「選定」されてもよい。様々な実施態様では、アイテムの選定は、手動から完全に自動化された選定に及んでもよい。例えば、1つの実施態様では、ユーザ102は、ユーザが要望するアイテム1016のリストを有してもよく、施設1002に進行して、保管領域1006内で在庫位置1018からアイテム1016を選定し、それらのアイテム1016をカート1012に配置してもよい。他の実施態様では、施設1002の従業員は、顧客注文から導出された手書きの選定リストまたは電子的な選定リストを使用して、アイテム1016を選定してもよい。それらの選定されたアイテム1016は、従業員が施設1002に進行するにつれてカート1012に配置されてもよい。
アイテム1016が選定された後、アイテム1016は、転移領域1008において処理されてもよい。転移領域1008は、アイテム1016が1つの位置から別の位置に、または1つのエンティティから別のエンティティに転移する、施設1002内のいずれかの指定された領域であってもよい。例えば、転移領域1008は、施設1002内のパッキングステーションであってもよい。アイテム1016が転移領域1008に到達するとき、アイテム1016は、保管領域1006からパッキングステーションに転移してもよい。転移に関する情報は、施設管理システム134によって維持されてもよい。
別の実施例では、アイテム1016が施設1002を離れる場合、アイテム1016のリストは、アイテム1016に対する責任またはアイテム1016の保管を施設1002から別のエンティティに転移させるために施設管理システム134によって取得及び使用されてもよい。例えば、運搬人は、リストにおいて示されるアイテム1016に対する責任を受け付けるその運搬人による輸送に対してアイテム1016を受け付けてもよい。別の実施例では、ユーザ102は、アイテム1016を購入または賃貸してもよく、施設1002からアイテム1016を除去してもよい。施設1002の使用の間、ユーザ102は、在庫位置1018内でアイテム1016を選定または配置することなどの様々なタスクを実行するよう、施設1002の周りを移動してもよい。
施設1002の操作を促進するために、施設管理システム134は、対話データを生成するために、認証データ132、センサデータ、並びにアイテムデータ及び物理レイアウトデータなどの他の情報を使用するように構成される。
対話データは、在庫位置1018からのアイテム1016の選定、在庫位置1018へのアイテム1016の配置、在庫位置1018におけるアイテム1016に対してなされた接触、及び在庫位置1018におけるアイテム1016と関連付けられたジェスチャなどの対話に関する情報を提供することができる。対話データは、対話のタイプ、対話が行われた在庫位置1018からの場所を示す対話位置識別子、アイテム識別子、アイテム1016に対する量の変更、及びユーザ識別子432などのうちの1つ以上を含んでもよい。対話データは次いで、アイテムデータを更に更新するために使用されてもよい。例えば、プラットフォーム上の特定のレーンにおける手の上のアイテム1016の量は、1つ以上のアイテム1016を選定または配置する対話に基づいて変更されてもよい。
上記説明されたように、施設管理システム134は、他の操作、再蓄積する在庫を判定すること、及びユーザ料金請求データを判定することなどを実行してもよい。
図11は、いくつかの実施態様に従った、施設1002の追加の詳細を示すブロック図1100である。施設1002は、1つ以上のネットワーク1102に接続されてもよく、1つ以上のネットワーク1102は次いで、サーバ1104などの1つ以上のコンピューティングデバイスに接続する。ネットワーク1102は、組織イントラネットもしくは個人イントラネットなどのプライベートネットワーク、インターネットなどのパブリックネットワーク、またはそれらの組み合わせを含んでもよい。ネットワーク1102は、有線技術(例えば、ワイヤ及び光ファイバケーブルなど)、無線技術(例えば、無線周波数、赤外線、音響、及び光など)、または他の接続技術を利用してもよい。ネットワーク1102は、データネットワークまたは音声ネットワークのうちの1つ以上を含む、いずれかのタイプの通信ネットワークを表す。ネットワーク1102は、有線インフラストラクチャ(例えば、銅ケーブル及び光ファイバケーブルなど)、無線インフラストラクチャ(例えば、セルラ、マイクロ波、及びサテライトなど)、または他の接続技術を使用して実装されてもよい。
サーバ1104は、施設管理システム134または他のシステムと関連付けられた1つ以上のモジュールまたはソフトウェアアプリケーションを実行するように構成されてもよい。サーバ1104が施設1002の外側の位置にあるとして示されるが、他の実施態様では、サーバ1104の少なくとも一部は、施設1002に位置してもよい。サーバ1104は、図12に関して以下で更に詳細に議論される。
施設1002内のユーザ102、カート1012、アイテム1016、または他の物体は、1つ以上のタグ1106を備えてもよい。タグ1106は、信号1108を放出するように構成されてもよい。1つの実施態様では、タグ1106は、第1のモダリティ信号によって活性化されると、RF信号1108を放出するように構成された無線周波数認証(RFID)タグ1106であってもよい。例えば、第1のモダリティ信号は、無線周波数信号、またはRFIDタグ1106を励磁もしくは活性化するように構成された磁場を含んでもよい。別の実施態様では、タグ1106は、送信機、及び送信機に電力を供給するように構成された電源を含んでもよい。例えば、タグ1106は、Bluetooth低エネルギー(BLE)送信機及びバッテリを含んでもよい。他の実施態様では、タグ1106は、タグ1106の存在を示すために他の技術を使用してもよい。例えば、音響タグ1106は、対応する音響受信機によって検出される、超音波信号1108を生成するように構成されてもよい。更なる別の実施態様では、タグ1106は、光信号1108を放出するように構成されてもよい。
施設管理システム134は、物体の認証及び物体の位置の判定などのうちの1つ以上に対してタグ1106を使用するように構成されてもよい。例えば、ユーザ102は、タグ1106を身に着けてもよく、カート1012は、取り付けられたタグ1106を有してもよく、アイテム1016は、それらのパッケージに取り付けられたタグ1106を有してもよい、などであり、タグ1106は、読み取ることができ、信号強度に少なくとも部分的に基づいて、アイデンティティまたは位置のうちの1つ以上を判定するために使用されてもよい。
概して、施設管理システム134または施設1002と関連付けられた他のシステムは、いずれかの数の入力構成要素、出力構成要素、及びサーバ1104、並びにそれらの組み合わせを含んでもよい。
施設1002内の1つ以上の位置に1つ以上のセンサ1014が配列されてもよい。例えば、センサ1014は、フロア上にもしくはフロア内に、壁に、天井に、在庫位置1018に、カート1012上に据え付けられてもよく、またはユーザ102によって持ち運べるか、身に着けられてもよい、などである。
センサ1014は、1つ以上のカメラ1014(1)または他の撮像センサを含んでもよい。1つ以上のカメラ1014(1)は、シーンの画像を取得するように構成された撮像センサを含んでもよい。カメラ1014(1)は、それらに限定されないが、テラヘルツ、赤外線、可視光、及び紫外線などを含む1つ以上の波長において光を検出するように構成される。カメラ1014(1)は、電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)デバイス、及びマイクロボロメータなどを含んでもよい。施設管理システム134は、施設1002の操作の間にカメラ1014(1)によって取得された画像データを使用してもよい。例えば、施設管理システム134は、カメラ1014(1)によって取得された画像データ内のそれらの外観に少なくとも部分的に基づいて、アイテム1016、ユーザ102、及びカート1012などを識別してもよい。カメラ1014(1)は、施設1002内の様々な位置に据え付けられてもよい。例えば、カメラ1014(1)は、頭上に、在庫位置1018上に据え付けられてもよく、ユーザ102によって身に着けられてもよく、またはユーザ102によって持ち運ばれてもよく、カート1012に取り付けられてもよい、などである。
センサ1014は、スマートフロア1014(2)を含んでもよい。スマートフロア1014(2)は、ユーザ102及びカート1012などの物体の位置に関する情報を提供することが可能である。この情報は、物体を識別すること、物体の位置を判定すること、及び物体を追跡することなどを含んでもよい。スマートフロア1014(2)は、フロアに位置し、またはフロアの下に位置するアンテナから電磁気信号1108を放射または送信機または受信機のうちの1つ以上を含むスマートフロアデバイスを利用してもよい。どのアンテナが信号1108を放射しており、どのアンテナが信号1108を取得したかに関する情報に基づいて、フロア上またはフロアの上側の物体に関する情報が判定されてもよい。例えば、スマートフロア1014(2)は、検知素子またはセグメントを含んでもよい。各々のセグメントは、送信機または受信機のうちの1つ以上に結合されたアンテナを含んでもよい。動作の間、セグメントは、アンテナによって放射された電磁気信号1108を送信してもよく、アンテナによって取得された電磁気信号1108を受信してもよく、またはその両方を行ってもよい。いくつかの実施態様では、スマートフロア1014(2)は、フロアレベルに展開された物理的に大型のタッチセンサとして動作してもよい。電磁気信号1108は、そこの物体の存在に関する情報を提供する。例えば、セグメントは、接近した物体に電磁気的に結合してもよく、フロアと接触しまたはフロアの上側にあるかのいずれである物体の検出を可能にする。いくつかの実施態様では、物体の視覚的な追跡の代わりにまたはそれに加えて、スマートフロア1014(2)は、物体表現移動データを提供するために使用されてもよい。例えば、特定の時間ウインドウの間に取得されたセグメントからの出力は、画像データと類似の様式において処理されてもよい。
1つ以上の無線受信機1014(3)もセンサ1014として含まれてもよい。いくつかの実施態様では、無線受信機1014(3)は、送受信機アセンブリの一部であってもよい。無線受信機1014(3)は、RFID、Wi−Fi、Bluetooth、ZigBee、2G、3G、4G、LTE、または他の無線データ送信技術と関連付けられたRF信号1108を取得するように構成されてもよい。無線受信機1014(3)は、無線周波数を介して送信されたデータ及びRF信号1108の信号強度などと関連付けられた情報を提供することができる。例えば、無線受信機1014(3)からの情報は、ユーザ102によって持ち運ばれる送信機、カート1012上の送信機、及びアイテム1016上のタグ1106などのRFソースの位置を判定するために施設管理システム134によって使用されてもよい。
1つ以上の深度センサ1014(4)もセンサ1014に含まれてもよい。深度センサ1014(4)は、視角(FOV)内の物体に関する深度情報など、空間的データまたは三次元(3D)データを取得するように構成される。深度センサ1014(4)は、距離カメラ、測距システム、ソナーシステム、レーダシステム、構造化光システム、ステレオビジョンシステム、及び光学干渉法システムなどを含んでもよい。施設管理システム134は、物体を識別し、3D実空間内の物体の位置を判定し、ユーザ102を識別するなどのために、深度センサ1014(4)によって取得された3Dデータを使用してもよい。
1つ以上のボタン1014(5)は、ユーザ102からの入力を受け付けるように構成されてもよい。ボタン1014(5)は、機械機構、容量性機構、光学機構、または他の機構を含んでもよい。例えば、ボタン1014(5)は、入力信号を生成するようユーザ102のタッチからの加えられた力を受け付けるように構成された機械スイッチを含んでもよい。施設管理システム134は、ユーザ102から情報を受信するために、ボタン1014(5)からのデータを使用してもよい。例えば、カート1012は、ユーザ102からの入力を受け付け、入力を示す情報を施設管理システム134に送信するボタン1014(5)により構成されてもよい。
センサ1014は、1つ以上のタッチセンサ1014(6)を含んでもよい。タッチセンサ1014(6)は、タッチまたはタッチに近いものの位置を判定するために、抵抗性、容量性、表面容量、投影容量、相互容量、光学、補間力感知抵抗(IFSR)、または他の機構を使用してもよい。例えば、IFSRは、加えられた力に反応する電気抵抗を変化させるように構成された材料を含んでもよい。電気抵抗におけるその変化の材料内の位置は、タッチの位置を示すことができる。施設管理システム134は、ユーザ102から情報を受信するために、タッチセンサ1014(6)からのデータを使用してもよい。例えば、タッチセンサ1014(6)は、それによりユーザ102がメニューから選定する1つ以上の特定のアイテム1016を選択することができ、在庫位置1018におけるアイテム1016の手動の総数を入力することができるなどのタッチスクリーンを設けるよう、カート1012と統合されてもよい。
1つ以上のマイクロフォン1014(7)は、環境に存在するサウンドを示す情報を取得するように構成されてもよい。いくつかの実施態様では、マイクロフォン1014(7)のアレイが使用されてもよい。それらのアレイは、利得の方向性をもたらすために、ビームフォーミング技術を実装してもよい。施設管理システム134は、音響タグ1106からの情報を取得し、従業員からの音声入力を受け付けるなどのために、1つ以上のマイクロフォン1014(7)を使用してもよい。例えば、可聴命令が1つ以上のスピーカによって従業員に提示されてもよく、従業員は次いで、口頭で応答することができる。マイクロフォン1014(7)から取得された音声は、従業員の応答を判定するよう処理されてもよい。
センサ1014は、計装自動対向ユニット(IAFU)1014(8)を含んでもよい。IAFU1014(8)は、プッシャの変位を示すデータを提供するように構成された位置センサを含んでもよい。アイテム1016がIAFU1014(8)から除去されるにつれて、プッシャは、バネの影響の下などで移動し、IAFU1014(8)内の残りのアイテム1016を在庫位置1018の前方に推し進める。位置センサからのデータを使用することによって、及び個々のアイテム1016の深度などのアイテムデータを仮定して、位置データにおける変化に基づいて、総数が判定されてもよい。例えば、各々のアイテム1016が1インチの深さであり、位置データが11インチの変化を示す場合、IAFU1014(8)によって保持された量は、11個のアイテム1016だけ変化していることがある。この総数情報は、重量センサ1014(16)からのセンサデータの分析などの他の手段によって取得された総数に対するクロスチェックを確認または提供するために使用されてもよい。
センサ1014は、1つ以上の光学センサ1014(9)を含んでもよい。光学センサ1014(9)は、その上に作用する光の色または強度のうちの1つ以上を示すデータを提供するように構成されてもよい。例えば、光学センサ1014(9)は、光子の入射放射束を示す信号1108またはデータを生成するように構成されたフォトダイオード及び関連する回路を含んでもよい。以下で説明されるように、光学センサアレイ1014(14)は、複数の光学センサ1014(9)を含んでもよい。光学センサ1014(9)は、フォトダイオード、フォトレジスタ、太陽電池セル、量子ドット光電導体、ボロメータ、及び焦電赤外線検出器などを含んでもよい。例えば、光学センサ1014(9)は、赤外線光を検出するために、ゲルマニウムフォトダイオードを使用してもよい。
1つ以上の無線周波数認証(RFID)リーダ1014(10)及び近接場通信(NFC)システムなどがセンサ1014として含まれてもよい。例えば、RFIDリーダ1014(10)は、RFタグ1106を読み出すように構成されてもよい。RFIDリーダ1014(10)によって取得された情報は、アイテム1016、ユーザ102、及びカート1012など、RFタグ1106と関連付けられた物体を識別するために、施設管理システム134によって使用されてもよい。例えば、特定の在庫位置におけるRFタグ1106を検出するRFIDリーダ1014(10)からの情報に基づいて、配置または選定されるアイテム1016が判定されてもよい。
センサ1014は、ユーザ102によって身に着けられてもよく、または持ち運ばれてもよく、カート1012に据え付けられてもよいなどの、1つ以上の加速度計1014(11)を含んでもよい。加速度計1014(11)は、掛けられた加速の方向及び大きさなどの情報を提供することができる。加速の比率、方向における変化の判定、及び速度などのデータは、加速度計1014(11)を使用して判定されてもよい。
ジャイロスコープ1014(12)は、それに取り付けられた物体の回転を示す情報を提供することができる。例えば、カート1012または他の物体は、物体の方位における変化を示すデータを提供するジャイロスコープ1014(12)が備えられてもよい。
磁気計1014(13)は、地磁界などの周囲磁界を測定することによって、方位を判定するために使用されてもよい。磁気計1014(13)は、ユーザ102によって身に着けられてもよく、または持ち運ばれてもよく、カート1012に据え付けられてもよい、などである。例えば、カート1012に据え付けられた磁気計1014(13)は、コンパスとしての役割を果たしてもよく、カート1012がどの方向に方向付けられているかを示す情報を提供することができる。
光学センサアレイ1014(14)は、1つ以上の光学センサ1014(9)を含んでもよい。光学センサ1014(9)は、格子などの規則的な二次元配列、繰り返しの二次元配列、または周期的な二次元配列において配列されてもよい。光学センサアレイ1014(14)は、画像データを生成してもよい。例えば、光学センサアレイ1014(14)は、在庫位置1018内または在庫位置1018の下に配列されてもよく、アイテム1016の写し及びユーザ102の手108などに関する情報を取得してもよい。
センサ1014は、ユーザ102及びカート1012などの物体の存在を判定するために使用される近接センサ1014(15)を含んでもよい。近接センサ1014(15)は、物体の存在を判定するために、光学、電子、超音波、電磁気、または他の技術を使用してもよい。いくつかの実施態様では、近接センサ1014(15)は、近接性を判定するために、光エミッタ及び光検出器を使用してもよい。例えば、光エミッタは、光を放出することができ、光の一部は次いで、物体が近接センサ1014(15)に近接したことのインジケーションを提供するよう、物体によって光検出器に再度反射されてもよい。他の実施態様では、近接センサ1014(15)は、電界をもたらし、電界内の存在又は不存在に起因した電気容量における変化を判定するように構成された容量性近接センサ1014(15)を含んでもよい。
近接センサ1014(15)は、物体の存在もしくは不存在、物体への距離、または物体の特性のうちの1つ以上を示すセンサデータを提供するように構成されてもよい。光近接センサ1014(15)は、距離データを生成するために、タイムオブフライト(ToF)、構造化ライト、干渉法、または他の技術を使用してもよい。例えば、ToFは、光検出器に反射されまたはそうでなければ戻る、光エミッタまたは発光体からの放出された光のパルスの伝播時間(または、「ラウンドトリップ」時間)を判定する。伝播時間を半分に除算し、結果を空気内の光の速度と乗算することによって、物体への距離が判定されてもよい。別の実施態様では、構造化光パターンは、光エミッタによって設けられてもよい。構造化光パターンの一部は次いで、カメラ1014(1)などのセンサ1014を使用して物体上で検出されてもよい。構造化光パターンの特徴の間の視距離に基づいて、物体への距離が計算されてもよい。物体への距離を判定するために他の技術も使用されてもよい。別の実施例では、皮膚、衣服、及びカート1012などの物体を特徴付けるために、反射された光の色が使用されてもよい。
1つ以上の重量センサ1014(16)は、アイテム1016、カート1012、または他の物体など、負荷の重量を測定するように構成される。重量センサ1014(16)は、在庫位置1018、カート1012、及び施設1002のフロアなどのうちの1つ以上における負荷の重量を測定するように構成されてもよい。例えば、在庫位置1018のプラットフォームは、複数の重量センサ1014(16)を含んでもよい。重量センサ1014(16)は、負荷の重量を判定する1つ以上の検知機構を含んでもよい。それらの検知機構は、圧電抵抗デバイス、圧電性デバイス、容量性デバイス、電磁気デバイス、光学デバイス、電位差測定デバイス、及び微小電気機械デバイスなどを含んでもよい。重量センサ1014(16)の検知機構は、重力に起因した負荷の力などの加えられた力に基づいて、1つ以上の信号を生成するトランスデューサとして動作してもよい。例えば、重量センサ1014(16)は、歪みゲージ及び重量が加えられるときにわずかに変形する構造的部材を有するロードセルを含んでもよい。容量または抵抗など、歪みゲージの電気特性における変化を測定することによって、重量が判定されてもよい。別の実施例では、重量センサ1014(16)は、力感知レジスタ(FSR)を含んでもよい。FSRは、圧迫されるときに1つ以上の電気特性を変化させる弾性材料を含んでもよい。例えば、FSRの特定の部分の電気抵抗は、特定の部分が圧迫されるにつれて減少することがある。施設管理システム134は、物体を識別し、物体の量における変化を判定し、物体の位置を判定し、出荷記録を維持するなどのために、重量センサ1014(16)によって取得されたデータを使用してもよい。
センサ1014は、他のセンサ1014(複数可)をも含んでもよい。例えば、他のセンサ1014(複数可)は、光カーテン、超音波距離計、温度計、気圧センサ、及び湿度計などを含んでもよい。
いくつかの実施態様では、センサ1014は、ハードウェアプロセッサ、メモリ、及び様々な機能を実行するように構成された他の要素を含んでもよい。例えば、カメラ1014(1)は、画像データを生成し、画像データをサーバ1104などの別のデバイスに送信するなどのように構成されてもよい。
施設1002は、1つ以上の無線ネットワークを確立するように構成された1つ以上のアクセスポイント1110を含んでもよい。アクセスポイント1110は、デバイスとネットワーク1102との間で無線通信を確立するために、Wi−Fi、NFC、Bluetooth、または他の技術を使用してもよい。無線ネットワークは、デバイスがセンサ1014、施設管理システム134、タグ1106、カート1012の通信デバイス、または他のデバイスのうちの1つ以上と通信することを可能にする。
出力デバイス1112も施設1002内に設けられてもよい。出力デバイス1112は、信号1108を生成するように構成され、信号1108は、ユーザ102によって感知されてもよく、またはセンサ1014によって検出されてもよい。いくつかの実施態様では、出力デバイス1112は、光学センサアレイ1014(14)の照明をもたらすために使用されてもよい。
触覚出力デバイス1112(1)は、ユーザ102に触知感覚をもたらす信号1108を提供するように構成される。触覚出力デバイス1112(1)は、信号1108を提供するために、電気刺激または機械的変位などの1つ以上の機構を使用してもよい。例えば、触覚出力デバイス1112(1)は、変調電気信号1108を生成するように構成されてもよく、変調電気信号1108は、ユーザ102の1つ以上の指において明白な触知感覚を生じさせる。別の実施例では、触覚出力デバイス1112(1)は、ユーザ102によって感じることができる振動をもたらすように構成された圧電性デバイスまたは回転モータデバイスを含んでもよい。
1つ以上の音声出力デバイス1112(2)は、音響出力を提供するように構成されてもよい。音響出力は、超低周波音、可聴音、または超音波のうちの1つ以上を含む。音声出力デバイス1112(2)は、音響出力を生成する1つ以上の機構を使用してもよい。それらの機構は、それらに限定されないが、ボイスコイル、圧電性素子、磁歪素子、及び静電素子などを含んでもよい。例えば、音響出力を提供するために、圧電性ブザーまたはスピーカが使用されてもよい。
ディスプレイデバイス1112(3)は、ユーザ102によって見ることができ、またはカメラ1014(1)もしくは光学センサ1014(9)などの感光性センサによって検出することができる出力を提供するように構成されてもよい。いくつかの実施態様では、ディスプレイデバイス1112(3)は、赤外線光、可視光、または紫外線光のうちの1つ以上において出力を生成するように構成されてもよい。出力は、モノクロまたはカラーであってもよい。ディスプレイデバイス1112(3)は、放出、反射、及びマイクロ電気機械などのうちの1つ以上であってもよい。LEDを使用するなどの放出ディスプレイデバイス1112(3)は、動作の間に光を放出するように構成される。それに引き換え、電気泳動素子を使用するなどの反射ディスプレイデバイス1112(3)は、画像を提示するために周囲光に依存する。非放出ディスプレイデバイス1112(3)を照明して、周囲光レベルが低い条件において出力の視認性をもたらすために、バックライトまたはフロントライトが使用されてもよい。
ディスプレイデバイス1112(3)は、施設1002内の様々なポイントに位置してもよい。例えば、アドレス指定可能ディスプレイは、在庫位置1018上、カート1012、及び施設1002のフロア上などに位置してもよい。
他の出力デバイス1112(P)も存在してもよい。例えば、他の出力デバイス1112(P)は、嗅覚/臭気ディスペンサ、ドキュメントプリンタ、及び3Dプリンタまたは組立機器などを含んでもよい。
図12は、いくつかの実施態様に従った、施設1002の操作を支持するように構成されたサーバ1104のブロック図1200を示す。サーバ1104は、施設1002に物理的に存在してもよく、ネットワーク1102によってアクセス可能であってもよく、またはその両方の組み合わせであってもよい。サーバ1104は、サービスを配信するシステムの物理位置及び構成のエンドユーザの知識を必要としない。サーバ1104と関連付けられた共通の表現は、「オンデマンドコンピューティング」、「ソフトウェアアズアサービス(SaaS)」、「プラットフォームコンピューティング」、「ネットワークアクセス可能プラットフォーム」、「クラウドサービス」、及び「データセンタ」などを含んでもよい。サーバ1104によって提供されるサービスは、1つ以上の物理または仮想デバイスにわたって分散されてもよい。
1つ以上の電力供給装置1202は、サーバ1104内の構成要素を動作させるのに適切な電力を提供するように構成されてもよい。1つ以上の電力供給装置1202は、バッテリ、キャパシタ、燃料電池、太陽電池セル、無線電力受信機、及び電力会社によって提供されるなどの第1のモダリティ電源に取り付けるのに適切な導電結合などを含んでもよい。サーバ1104は、1つ以上の記憶された命令を実行するように構成された1つ以上のハードウェアプロセッサ1204(プロセッサ)を含んでもよい。プロセッサ1204は、1つ以上のコアを含んでもよい。1つ以上のクロック1206は、日付、時間、及び瞬間などを示す情報を提供することができる。例えば、プロセッサ1204は、特定の対話を特定の時間点と関連付けるために、クロック1206からのデータを使用してもよい。
サーバ1104は、入力/出力(I/O)インタフェース1210及びネットワークインタフェース1212などの1つ以上の通信インタフェース1208を含んでもよい。通信インタフェース1208は、サーバ1104またはその構成要素が、他のデバイスまたは構成要素と通信することを可能にする。通信インタフェース1208は、1つ以上のI/Oインタフェース1210を含んでもよい。I/Oインタフェース1210は、集積回路(I2C)、シリアルペリフェラルインタフェースバス(SPI)、及びユニバーサルシリアルバス(USB)Implementers Forum、RS−232によって公布されるようなUSBなどを含んでもよい。
I/Oインタフェース(複数可)1210は、1つ以上のI/Oデバイス1214に結合してもよい。I/Oデバイス1214は、センサ1014、キーボード、マウス、及びスキャナなどのうちの1つ以上などの入力デバイスを含んでもよい。I/Oデバイス1214はまた、ディスプレイデバイス1112(3)、プリンタ、及び音声スピーカなどのうちの1つ以上などの出力デバイスを含んでもよい。いくつかの実施形態では、I/Oデバイス1214は、サーバ1104と物理的に組み込まれてもよく、または外部に置かれてもよい。
ネットワークインタフェース1212は、サーバ1104と、カート1012、ルータ、及びアクセスポイント1110などの他のデバイスとの間の通信をもたらすように構成されてもよい。ネットワークインタフェース1212は、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、無線ローカルエリアネットワーク(WLAN)、及びワイドエリアネットワーク(WAN)などに結合するように構成されたデバイスを含んでもよい。例えば、ネットワークインタフェース1212は、イーサネット、Wi−Fi、Bluetooth、及びZigBeeなどと互換性を有するデバイスを含んでもよい。
サーバ1104は、サーバ1104の様々なモジュールと構成要素との間でのデータの転送を可能にする、1つ以上のバス、または他の内部通信ハードウェアもしくはソフトウェアをも含んでもよい。
図12に示されるように、サーバ1104は、1つ以上のメモリ1216を含む。メモリ1216は、1つ以上の非一時的コンピュータ可読記憶媒体(CRSM)を含んでもよい。CRSMは、電子記憶媒体、磁気記憶媒体、光学記憶媒体、量子記憶媒体、及び機械コンピュータ記憶媒体などのうちのいずれか1つ以上であってもよい。メモリ1216は、サーバ1104の動作のために、コンピュータ可読命令、データ構造、プログラムモジュール、及び他のデータの記憶をもたらす。いくつかの実施例の機能的モジュールがメモリ1216に記憶されるが、代わりに、同一の機能性は、ハードウェアにおいて、ファームウェアにおいて、またはシステムオンチップ(SoC)として実装されてもよい。
メモリ1216は、少なくとも1つのオペレーティングシステム(OS)モジュール1218を含んでもよい。OSモジュール1218は、I/Oインタフェース1210、I/Oデバイス1214、通信インタフェース1208などのハードウェアリソースデバイスを管理し、プロセッサ1204上で実行するアプリケーションまたはモジュールに様々なサービスを提供するように構成される。OSモジュール1218は、FreeBSD Projectによって公布されるようなFreeBSDオペレーティングシステムの変形、他のUNIXまたはUNIXのような変形、Linus Torvaldsによって公布されるようなLinuxオペレーティングシステムの変形、及びMicrosoft Corporation of Redmond、Washington、USAからのWindowsオペレーティングシステムなどを実装してもよい。
また、メモリ1216に記憶されるのは、データストア1220及び以下のモジュールのうちの1つ以上であってもよい。それらのモジュールは、フォアグラウンドアプリケーション、バックグラウンドタスク、及びデーモンなどとして実行されてもよい。データストア1220は、フラットファイル、データベース、リンク付けされたリスト、ツリー、実行可能コード、スクリプト、または情報を記憶するための他のデータ構造を使用してもよい。いくつかの実施態様では、データストア1220またはデータストア1220の一部は、サーバ1104及びネットワークアタッチドストレージデバイスなどを含む1つ以上の他のデバイスにわたって分散されてもよい。
通信モジュール1222は、カート1012、センサ1014、ディスプレイデバイス1112(3)、他のサーバ1104、または他のデバイスのうちの1つ以上と通信するように構成されてもよい。通信は、認証または暗号化などがされてもよい。
メモリ1216は、施設管理モジュール1224を記憶してもよい。施設管理モジュール1224は、施設管理システム134に関して本明細書で説明されるような在庫機能を提供するように構成される。例えば、施設管理モジュール1224は、カート1012へ及びカート1012からの異なる在庫位置1018の間でアイテム1016を追跡してもよく、再蓄積注文を生成してもよく、施設内でロボットの動作を命令してもよく、特定のユーザアイデンティティを施設1002内のユーザ102と関連付けるために認証データ132を使用してもよい、などである。動作の間、施設管理モジュール1224は、カメラ1014(1)からの画像データ及び重量センサ1014(16)からの重量データなどのうちの1つ以上などのセンサデータ1230にアクセスしてもよい。
施設管理モジュール1224によって使用される情報は、データストア1220に記憶されてもよい。例えば、データストア1220は、物理レイアウトデータ1228、センサデータ1230、記憶されたユーザ特徴データ130、認証データ132、ユーザ位置データ1232、及び対話データ1234などを記憶するために使用されてもよい。センサデータ1230は、施設1002内のセンサ1014または施設1002と関連付けられたセンサ1014のうちの1つ以上から取得された情報を含んでもよい。
物理レイアウトデータ1228は、スキャナ106、カメラ1314(1)、重量センサ1014(16)、無線受信機1014(3)に対するアンテナ、及び在庫位置1018などが相互に施設1002内にある場所を示す情報を提供することができる。例えば、物理レイアウトデータ1228は、スキャナ106及び在庫位置1018とのゲート104の相対的位置と共に、施設1002のマップまたはフロアプランを表す情報を含んでもよい。
施設管理モジュール1224は、施設1002内のユーザ102の位置を示すユーザ位置データ1232を生成してもよい。例えば、施設管理モジュール1224は、ユーザ102の位置を判定するために、カメラ1014(1)によって取得された画像データを使用してもよい。他の実施態様では、ユーザ位置データ1232を判定するための他の技術が使用されてもよい。例えば、スマートフロア1012(2)からのデータは、ユーザ102の位置を判定するために使用されてもよい。
ユーザアイデンティティは、認証データ132に基づいて、追跡データと関連付けられてもよい。例えば、ユーザ102は、施設1002に入場し、掌を走査しており、ユーザの入場の時間、入場したゲート104、及びユーザ識別子432を示す認証データ132を生成する。追跡データは、入場の時間にゲート104において開始したユーザ102の追跡を示す追跡データは、認証データ132におけるユーザ識別子432と関連付けられてもよい。
ユーザ位置データ1232及び対話データ1234に基づいて、特定の対話は、特定のユーザ102のアカウントと関連付けられてもよい。例えば、ユーザ位置データ1232が、17:47:20の時間に在庫位置1018(492)の前方にユーザ102が存在することを示し、対話データ1234が、17:47:27に在庫位置1018(492)上の領域からの1つのアイテム1016(D)の量の選定を示す場合、ユーザ102は、その選定に対して料金を請求されてもよい。
施設管理モジュール1224は、対話データ1234を生成するために、センサデータ1230を使用してもよい。対話データ1234は、伴うアイテムのタイプ、伴う数、及び対話が選定または配置であったかどうかになど関する情報を含んでもよい。対話は、ユーザ102が在庫位置1018からアイテム1016を選定すること、在庫位置1018にアイテム1016を配置すること、在庫位置1018においてアイテム1016に接触すること、及び在庫位置1018においてアイテム1016を捜索することなどを含んでもよい。例えば、施設管理モジュール1224は、ユーザ102が棚上の特定のレーンからどのアイテム1016を選定したかを示す対話データ1234を生成してもよく、次いで、そのレーンに収容された在庫の総数を調節するために、この対話データ1234を使用してもよい。対話データ1234は次いで、アイテム1016を選定したユーザ102と関連付けられたユーザ識別子432と関連付けられたアカウントに料金を請求するために使用されてもよい。
施設管理モジュール1224は、センサデータ1230を処理してもよく、出力データを生成してもよい。例えば、対話データ1234に基づいて、特定の在庫位置1018におけるタイプのアイテム1016の量は、閾値の再蓄積レベルを下回って下がることがある。システムは、在庫位置1018、領域、及び予め定められたレベルに蓄積を補充するために必要な量を示す再蓄積注文を含む出力データを生成してもよい。再蓄積注文は次いで、その在庫位置1018を再蓄積するようロボットに指示するために使用されてもよい。
メモリ1216はまた、認証モジュール1226を記憶してもよい。認証モジュール1226は、認証システム120に関して上記説明された機能のうちの1つ以上を実行してもよい。
他のモジュール1236も、メモリ1216と共にデータストア1220内の他のデータ1238に存在してもよい。例えば、料金請求モジュールは、特定のユーザ102と関連付けられたアカウントに料金を請求するために、対話データ1234及び認証データ132を使用してもよい。
本開示において説明されたデバイス及び技術が様々な他の設定において使用されてもよい。例えば、システムは、ポイントオブセール(POS)デバイスと共に使用されてもよい。ユーザ102は、認証データ132と関連付けられたアカウントにより支払う意図及び承認のインジケーションを提供するよう、手108をスキャナ106に提示することができる。別の実施例では、ロボットは、スキャナ106を組み込んでもよい。ロボットは、ユーザ102に小包を配送するかどうかを判定するために、及び認証データ132に基づいて、どの小包を配送するかを判定するために、認証データ132を使用してもよい。
本明細書で議論された処理は、ハードウェア、ソフトウェア、またはそれらの組み合わせにおいて実装されてもよい。ソフトウェアのコンテキストでは、説明された動作は、1つ以上のプロセッサによって実行されるとき、記述された動作を実行する、1つ以上の非一時的コンピュータ可読記憶媒体に記憶されたコンピュータ実行可能命令を表す。概して、コンピュータ実行可能命令は、特定の機能を実行し、または特定の抽象データタイプを実装する、ルーチン、プログラム、オブジェクト、コンポーネント、及びデータ構造を含む。当業者は、上記図に表された特定のステップまたは動作が除去されてもよく、組み合わされてもよく、または代替的な順序において実行されてもよいことを容易に認識するであろう。いずれのステップまたは動作も、直列または並列で実行されてもよい。更に、動作が説明される順序は、限定として解釈されることを意図していない。
実施形態は、本明細書で説明される処理または方法を実行するようコンピュータ(または、他の電子デバイス)をプログラムするために使用することができる、命令を記憶した(圧縮または非圧縮の形式において)非一時的コンピュータ可読記憶媒体を含むソフトウェアプログラムまたはコンピュータプログラム製品として提供されてもよい。コンピュータ可読記憶媒体は、電子記憶媒体、磁気記憶媒体、光学記憶媒体、及び量子記憶媒体などのうちの1つ以上であってもよい。例えば、コンピュータ可読記憶媒体は、それらに限定されないが、ハードドライブ、フロッピディスケット、光学ディスク、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、消去可能プログラマブルROM(EPROM)、電子的消去可能プログラマブルROM(EEPROM)、フラッシュメモリ、磁気もしくは光学カード、ソリッドステートメモリデバイス、または電子命令を記憶するのに適切な他のタイプの物理媒体を含んでもよい。更に、実施形態はまた、一時的機械可読信号(圧縮または非圧縮の形式において)を含むコンピュータプログラム製品として提供されてもよい。一時的機械可読信号の例は、キャリアを使用して変調されているかまたは変調されていないかに関わらず、それらに限定されないが、1つ以上のネットワークによって転送される信号を含む、コンピュータプログラムをホストもしくは実行するコンピュータシステムまたは機械がアクセスするように構成することができる信号を含む。例えば、一時的機械可読信号は、インターネットによるソフトウェアの送信を含んでもよい。
それらのプログラムの別個のインスタンスは、いずれかの数の別個のコンピュータシステム上で実行されてもよく、または任意の数の別個のコンピュータシステムにまたがって分散されてもよい。よって、特定のステップが特定のデバイス、ソフトウェアプログラム、プロセス、またはエンティティによって実行されるとして説明されてきたが、このことが当てはまる必要はなく、様々な代替的な実施態様が当業者によって理解されるであろう。
加えて、当業者は、上記説明された技術が様々なデバイス、環境、及び状況において利用されてもよいことを容易に認識するであろう。主題が構造的特徴または方法論的行為に特有の言語において説明されてきたが、添付の特許請求の範囲において定義される主題は、説明される特定の特徴または行為に必ずしも限定されないことが理解されよう。むしろ、特定の特徴及び行為は、特許請求の範囲を実装する例示的な形式として開示される。
条項
条項1.
スキャナであって、
第1の偏光を有する偏光子を有する第1の赤外線光源であって、前記第1の赤外線光源は、第1の時間に前記第1の偏光を有する光を生成する、前記第1の赤外線光源と、
第2の偏光を有する偏光子を有する第2の赤外線光源であって、前記第2の赤外線光源は、第2の時間に前記第2の偏光を有する光を生成する、前記第2の赤外線光源と、
前記第1の偏光を有する偏光子を有する第1のカメラであって、前記第1のカメラは、
前記第1の時間に第1の未処理画像を取得し、
前記第2の時間に第2の未処理画像を取得する、前記第1のカメラと、を含む、前記スキャナと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
ハードウェアプロセッサと、を含み、前記ハードウェアプロセッサは、
前記第1の未処理画像から第1の処理済み画像を生成し、前記第1の処理済み画像は、標準的な方位及び標準的な姿勢にある人間の掌を表し、前記人間の掌の表面を示し、
前記第2の未処理画像から第2の処理済み画像を生成し、前記第2の処理済み画像は、前記標準的な方位及び前記標準的な姿勢にある前記人間の掌を表し、前記人間の掌の静脈パターンを示し、
部分画像の第1のセットを判定し、部分画像の前記第1のセット内の部分画像は、前記第1の処理済み画像内の特定の領域に対応し、
第1のニューラルネットワークを使用して、部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定し、部分画像の前記第2のセット内の部分画像は、前記第2の処理済み画像内の特定の領域に対応し、
第2のニューラルネットワークを使用して、部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定し、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットを使用して、第3のニューラルネットワークへの入力として最新の署名を判定し、
前記最新の署名が、共通ベクトル空間内の参照署名の閾値距離内にあると判定し、
前記参照署名と関連付けられたユーザ識別子を判定する、ように前記第1のコンピュータ実行可能命令を実行する、
前記コンピューティングデバイスと、を備えたシステム。
条項2.
前記第2の処理済み画像の生成は、前記第2の未処理画像をダウンサンプルする命令を含み、
特徴ベクトルの前記第1のセットは、k次元空間内で表され、特徴ベクトルの前記第2のセットは、p次元空間内で表され、kは、pよりも大きい、
条項1に記載のシステム。
条項3.
赤外線光源と、
カメラと、
コントローラであって、
第1の時間に、第1の偏光を示す第1の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第1の時間に第1の画像データを取得するよう前記カメラを動作させることと、
第2の時間に、第2の偏光を示す第2の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第2の時間に第2の画像データを取得するよう前記カメラを動作させることと、
を行う、前記コントローラと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
前記第1のコンピュータ実行可能命令を実行するハードウェアプロセッサと、
を含む、前記コンピューティングデバイスと、
を備える、システムであって、
前記第1のコンピュータ実行可能命令は、
部分画像の第1のセットを判定することであって、部分画像の前記第1のセット内の各々の部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定することであって、部分画像の前記第2のセット内の各々の部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセットの前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットに基づいて、1つ以上の最新の署名を判定することと、
1つ以上の参照署名と、前記1つ以上の最新の署名の少なくとも一部との比較に基づいて、ユーザ識別子を判定することと、
のためのものである、
前記システム。
条項4.
前記赤外線光源であって、
第1の偏光を有する第1の偏光子を通過する光出力を有する第1の赤外線光源と、
第2の偏光を有する第2の偏光子を通過する光出力を有する第2の赤外線光源と、を含む、前記赤外線光源と、
前記第1の偏光を有する第3の偏光子を含む前記カメラと、
を更に備えた、条項3に記載のシステム。
条項5.
光を選択的にフィルタリングする前記コントローラからの入力に応答した偏光子を更に備え、前記偏光子は、
電気モータにより駆動されるホイールであって、
前記第1の偏光を有する光を通す第1の偏光ウインドウを有する第1のセグメントと、
前記第2の偏光を有する光を通す第2の偏光ウインドウを有する第2のセグメントと、を含む、前記ホイール、
液晶、または
光弾性変調器、のうちの1つ以上を含む、
条項3または4のいずれかに記載のシステム。
条項6.
前記ハードウェアプロセッサは更に、
部分画像の前記第1のセットを判定する前記命令の前に、
人間の掌を表す前記第1の画像データから画像の第3のセットを判定することと、
画像の前記第3のセットから、前記人間の掌の特定の方位を表す画像の第4のセットを判定することと、
画像の前記第4のセットから、前記人間の掌の特定の姿勢を表す画像の第5のセットを判定することであって、前記第1の画像データは、画像の前記第5のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第1の画像データを処理することと、
部分画像の前記第2のセットを判定する前記命令の前に、
前記人間の掌を表す前記第2の画像データから画像の第6のセットを判定することと、
画像の前記第6のセットから、前記人間の掌の前記特定の方位を表す画像の第7のセットを判定することと、
画像の前記第7のセットから、前記人間の掌の前記特定の姿勢を表す画像の第8のセットを判定することであって、前記第2の画像データは、画像の前記第8のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第2の画像データを処理することと、
を行うように、前記第1のコンピュータ実行可能命令を実行する、
条項3、4、または5のいずれかに記載のシステム。
条項7.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、ニューラルネットワークにより特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットのうちの少なくとも一部を処理する、命令を含む、条項3、4、5、または6のいずれかに記載のシステム。
条項8.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させる命令を含む、条項3に記載のシステム。
条項9.
特徴ベクトルの前記第1のセットを判定する前記命令は更に、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルであり、
特徴ベクトルの前記第2のセットを判定する前記命令は更に、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の第2のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、
条項3に記載のシステム。
条項10.
前記ユーザ識別子を判定する前記命令は更に、
前記最新の署名の少なくとも一部と、1つ以上の前に記憶された参照署名の少なくとも一部との間の対応関係を示す信頼値の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
信頼値の前記第1のセットの最大信頼値と関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
のための命令を含む、
条項3に記載のシステム。
条項11.
部分画像の前記第1のセットは、第1の分解能を含み、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルする命令を更に含む、
条項3、4、5、6、7、8、9、または10のいずれかに記載のシステム。
条項12.
第1の偏光を有する赤外線光を使用して、カメラによって取得された第1の画像データにアクセスすることと、
第2の偏光を有する赤外線光を使用して、前記第1の偏光を有する偏光子及び照明により、前記カメラによって取得された第2の画像データにアクセスすることと、
部分画像の第1のセットを判定することであって、部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定することと、
部分画像の第2のセットを判定することであって、部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセットまたは特徴ベクトルの前記第2のセットのうちの1つ以上に基づいて、1つ以上の最新の署名を判定することと、
前記1つ以上の最新の署名及び1つ以上の前に記憶された参照署名に基づいて、ユーザ識別子を判定することと、
を備えた、方法。
条項13.
前記第1の画像データは、人間の掌の表面の少なくとも一部を表し、前記第2の画像データは、前記人間の掌の内部解剖学的構造の少なくとも一部を表す、条項12に記載の方法。
条項14.
前記1つ以上の最新の署名を判定することは、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させて、前記1つ以上の最新の署名を生成することを含む、条項12または13のいずれかに記載の方法。
条項15.
特徴ベクトルの前記第1のセットを判定することは、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルである、前記処理すること、
を含み、
特徴ベクトルの前記第2のセットを判定することは、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の前記第2のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、前記処理すること、
を含む、
条項12、13、または14のいずれかに記載の方法。
条項16.
前記ユーザ識別子を前記判定することは、
前記1つ以上の最新の署名と前記前に記憶された参照署名との間のベクトル空間内の距離の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
前記ベクトル空間内の距離の前記第1のセットに基づいて、前記ベクトル空間内の前記1つ以上の最新の署名に最も近い前記1つ以上の前に記憶された参照署名の1つを判定することと、
前記1つ以上の前に記憶された参照署名の前記最も近い1つと関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
を含む、条項12、13、14、または15のいずれかに記載の方法。
条項17.
部分画像の前記第1のセットを判定する前に、
前記第1の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第1の未処理画像データにアクセスすることと、
前記第1の未処理画像データから前記第1の画像データを生成することであって、前記第1の画像データは、
人間の掌を表し、
前記人間の掌の特定の方位を示し、
前記人間の掌の特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
部分画像の前記第2のセットを判定する前に、
前記第2の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第2の未処理画像データにアクセスすることと、
前記第2の未処理画像データから前記第2の画像データを生成することであって、前記第2の画像データは、
前記人間の掌を表し、
前記人間の掌の前記特定の方位を示し、
前記人間の掌の前記特定の姿勢を示し、
第2の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
を更に備えた、条項12、13、14、15、または16のいずれかに記載の方法。
条項18.
部分画像の前記第1のセットは、第1の分解能を有し、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルすることによって、部分画像の前記第2のセットを生成することを更に備えた、
条項12、13、14、15、16、または17のいずれかに記載の方法。
条項19.
部分画像の前記第1のセットの前記部分画像は、前記カメラの視角内の第1の領域を表し、部分画像の前記第2のセットの前記部分画像は、前記カメラの前記視角内の第2の領域を表し、更に、
前記視角内の前記第2の領域は、前記視角内の前記第1の領域よりも大きい、条項12、13、14、15、16、17、または18のいずれかに記載の方法。
条項20.
部分画像の前記第1のセットを前記判定することは更に、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含み、
部分画像の前記第2のセットを前記判定することは更に、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含む、
条項12、13、14、15、16、17、18、または19のいずれかに記載の方法。
加えて、当業者は、上記説明された技術が様々なデバイス、環境、及び状況において利用されてもよいことを容易に認識するであろう。主題が構造的特徴または方法論的行為に特有の言語において説明されてきたが、添付の特許請求の範囲において定義される主題は、説明される特定の特徴または行為に必ずしも限定されないことが理解されよう。むしろ、特定の特徴及び行為は、特許請求の範囲を実装する例示的な形式として開示される。
条項
条項1.
スキャナであって、
第1の偏光を有する偏光子を有する第1の赤外線光源であって、前記第1の赤外線光源は、第1の時間に前記第1の偏光を有する光を生成する、前記第1の赤外線光源と、
第2の偏光を有する偏光子を有する第2の赤外線光源であって、前記第2の赤外線光源は、第2の時間に前記第2の偏光を有する光を生成する、前記第2の赤外線光源と、
前記第1の偏光を有する偏光子を有する第1のカメラであって、前記第1のカメラは、
前記第1の時間に第1の未処理画像を取得し、
前記第2の時間に第2の未処理画像を取得する、前記第1のカメラと、を含む、前記スキャナと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
ハードウェアプロセッサと、を含み、前記ハードウェアプロセッサは、
前記第1の未処理画像から第1の処理済み画像を生成し、前記第1の処理済み画像は、標準的な方位及び標準的な姿勢にある人間の掌を表し、前記人間の掌の表面を示し、
前記第2の未処理画像から第2の処理済み画像を生成し、前記第2の処理済み画像は、前記標準的な方位及び前記標準的な姿勢にある前記人間の掌を表し、前記人間の掌の静脈パターンを示し、
部分画像の第1のセットを判定し、部分画像の前記第1のセット内の部分画像は、前記第1の処理済み画像内の特定の領域に対応し、
第1のニューラルネットワークを使用して、部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定し、部分画像の前記第2のセット内の部分画像は、前記第2の処理済み画像内の特定の領域に対応し、
第2のニューラルネットワークを使用して、部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定し、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットを使用して、第3のニューラルネットワークへの入力として最新の署名を判定し、
前記最新の署名が、共通ベクトル空間内の参照署名の閾値距離内にあると判定し、
前記参照署名と関連付けられたユーザ識別子を判定する、ように前記第1のコンピュータ実行可能命令を実行する、
前記コンピューティングデバイスと、を備えたシステム。
条項2.
前記第2の処理済み画像の生成は、前記第2の未処理画像をダウンサンプルする命令を含み、
特徴ベクトルの前記第1のセットは、k次元空間内で表され、特徴ベクトルの前記第2のセットは、p次元空間内で表され、kは、pよりも大きい、
条項1に記載のシステム。
条項3.
赤外線光源と、
カメラと、
コントローラであって、
第1の時間に、第1の偏光を示す第1の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第1の時間に第1の画像データを取得するよう前記カメラを動作させることと、
第2の時間に、第2の偏光を示す第2の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第2の時間に第2の画像データを取得するよう前記カメラを動作させることと、
を行う、前記コントローラと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
前記第1のコンピュータ実行可能命令を実行するハードウェアプロセッサと、
を含む、前記コンピューティングデバイスと、
を備える、システムであって、
前記第1のコンピュータ実行可能命令は、
部分画像の第1のセットを判定することであって、部分画像の前記第1のセット内の各々の部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定することであって、部分画像の前記第2のセット内の各々の部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセットの前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットに基づいて、1つ以上の最新の署名を判定することと、
1つ以上の参照署名と、前記1つ以上の最新の署名の少なくとも一部との比較に基づいて、ユーザ識別子を判定することと、
のためのものである、
前記システム。
条項4.
前記赤外線光源であって、
第1の偏光を有する第1の偏光子を通過する光出力を有する第1の赤外線光源と、
第2の偏光を有する第2の偏光子を通過する光出力を有する第2の赤外線光源と、を含む、前記赤外線光源と、
前記第1の偏光を有する第3の偏光子を含む前記カメラと、
を更に備えた、条項3に記載のシステム。
条項5.
光を選択的にフィルタリングする前記コントローラからの入力に応答した偏光子を更に備え、前記偏光子は、
電気モータにより駆動されるホイールであって、
前記第1の偏光を有する光を通す第1の偏光ウインドウを有する第1のセグメントと、
前記第2の偏光を有する光を通す第2の偏光ウインドウを有する第2のセグメントと、を含む、前記ホイール、
液晶、または
光弾性変調器、のうちの1つ以上を含む、
条項3または4のいずれかに記載のシステム。
条項6.
前記ハードウェアプロセッサは更に、
部分画像の前記第1のセットを判定する前記命令の前に、
人間の掌を表す前記第1の画像データから画像の第3のセットを判定することと、
画像の前記第3のセットから、前記人間の掌の特定の方位を表す画像の第4のセットを判定することと、
画像の前記第4のセットから、前記人間の掌の特定の姿勢を表す画像の第5のセットを判定することであって、前記第1の画像データは、画像の前記第5のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第1の画像データを処理することと、
部分画像の前記第2のセットを判定する前記命令の前に、
前記人間の掌を表す前記第2の画像データから画像の第6のセットを判定することと、
画像の前記第6のセットから、前記人間の掌の前記特定の方位を表す画像の第7のセットを判定することと、
画像の前記第7のセットから、前記人間の掌の前記特定の姿勢を表す画像の第8のセットを判定することであって、前記第2の画像データは、画像の前記第8のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第2の画像データを処理することと、
を行うように、前記第1のコンピュータ実行可能命令を実行する、
条項3、4、または5のいずれかに記載のシステム。
条項7.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、ニューラルネットワークにより特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットのうちの少なくとも一部を処理する、命令を含む、条項3、4、5、または6のいずれかに記載のシステム。
条項8.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させる命令を含む、条項3に記載のシステム。
条項9.
特徴ベクトルの前記第1のセットを判定する前記命令は更に、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルであり、
特徴ベクトルの前記第2のセットを判定する前記命令は更に、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の第2のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、
条項3に記載のシステム。
条項10.
前記ユーザ識別子を判定する前記命令は更に、
前記最新の署名の少なくとも一部と、1つ以上の前に記憶された参照署名の少なくとも一部との間の対応関係を示す信頼値の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
信頼値の前記第1のセットの最大信頼値と関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
のための命令を含む、
条項3に記載のシステム。
条項11.
部分画像の前記第1のセットは、第1の分解能を含み、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルする命令を更に含む、
条項3、4、5、6、7、8、9、または10のいずれかに記載のシステム。
条項12.
第1の偏光を有する赤外線光を使用して、カメラによって取得された第1の画像データにアクセスすることと、
第2の偏光を有する赤外線光を使用して、前記第1の偏光を有する偏光子及び照明により、前記カメラによって取得された第2の画像データにアクセスすることと、
部分画像の第1のセットを判定することであって、部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定することと、
部分画像の第2のセットを判定することであって、部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセットまたは特徴ベクトルの前記第2のセットのうちの1つ以上に基づいて、1つ以上の最新の署名を判定することと、
前記1つ以上の最新の署名及び1つ以上の前に記憶された参照署名に基づいて、ユーザ識別子を判定することと、
を備えた、方法。
条項13.
前記第1の画像データは、人間の掌の表面の少なくとも一部を表し、前記第2の画像データは、前記人間の掌の内部解剖学的構造の少なくとも一部を表す、条項12に記載の方法。
条項14.
前記1つ以上の最新の署名を判定することは、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させて、前記1つ以上の最新の署名を生成することを含む、条項12または13のいずれかに記載の方法。
条項15.
特徴ベクトルの前記第1のセットを判定することは、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルである、前記処理すること、
を含み、
特徴ベクトルの前記第2のセットを判定することは、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の前記第2のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、前記処理すること、
を含む、
条項12、13、または14のいずれかに記載の方法。
条項16.
前記ユーザ識別子を前記判定することは、
前記1つ以上の最新の署名と前記前に記憶された参照署名との間のベクトル空間内の距離の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
前記ベクトル空間内の距離の前記第1のセットに基づいて、前記ベクトル空間内の前記1つ以上の最新の署名に最も近い前記1つ以上の前に記憶された参照署名の1つを判定することと、
前記1つ以上の前に記憶された参照署名の前記最も近い1つと関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
を含む、条項12、13、14、または15のいずれかに記載の方法。
条項17.
部分画像の前記第1のセットを判定する前に、
前記第1の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第1の未処理画像データにアクセスすることと、
前記第1の未処理画像データから前記第1の画像データを生成することであって、前記第1の画像データは、
人間の掌を表し、
前記人間の掌の特定の方位を示し、
前記人間の掌の特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
部分画像の前記第2のセットを判定する前に、
前記第2の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第2の未処理画像データにアクセスすることと、
前記第2の未処理画像データから前記第2の画像データを生成することであって、前記第2の画像データは、
前記人間の掌を表し、
前記人間の掌の前記特定の方位を示し、
前記人間の掌の前記特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
を更に備えた、条項12、13、14、15、または16のいずれかに記載の方法。
条項18.
部分画像の前記第1のセットは、第1の分解能を有し、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルすることによって、部分画像の前記第2のセットを生成することを更に備えた、
条項12、13、14、15、16、または17のいずれかに記載の方法。
条項19.
部分画像の前記第1のセットの前記部分画像は、前記カメラの視角内の第1の領域を表し、部分画像の前記第2のセットの前記部分画像は、前記カメラの前記視角内の第2の領域を表し、更に、
前記視角内の前記第2の領域は、前記視角内の前記第1の領域よりも大きい、条項12、13、14、15、16、17、または18のいずれかに記載の方法。
条項20.
部分画像の前記第1のセットを前記判定することは更に、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含み、
部分画像の前記第2のセットを前記判定することは更に、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含む、
条項12、13、14、15、16、17、18、または19のいずれかに記載の方法。


Claims (15)

  1. 赤外線光源と、
    カメラと、
    コントローラであって、
    第1の時間に、第1の偏光を示す第1の赤外線光によりシーンを照明することと、
    前記第1の偏光を示す入射光を使用して、前記第1の時間に第1の画像データを取得するよう前記カメラを動作させることと、
    第2の時間に、第2の偏光を示す第2の赤外線光によりシーンを照明することと、
    前記第1の偏光を示す入射光を使用して、前記第2の時間に第2の画像データを取得するよう前記カメラを動作させることと、
    を行う、前記コントローラと、
    コンピューティングデバイスであって、
    第1のコンピュータ実行可能命令を記憶したメモリと、
    前記第1のコンピュータ実行可能命令を実行するハードウェアプロセッサと、
    を含む、前記コンピューティングデバイスと、
    を備える、システムであって、
    前記第1のコンピュータ実行可能命令は、
    部分画像の第1のセットを判定することであって、部分画像の前記第1のセット内の各々の部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
    部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
    部分画像の第2のセットを判定することであって、部分画像の前記第2のセット内の各々の部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
    部分画像の前記第2のセットの前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
    特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットに基づいて、1つ以上の最新の署名を判定することと、
    1つ以上の参照署名と、前記1つ以上の最新の署名の少なくとも一部との比較に基づいて、ユーザ識別子を判定することと、
    のためのものである、
    前記システム。
  2. 前記赤外線光源であって、
    第1の偏光を有する第1の偏光子を通過する光出力を有する第1の赤外線光源と、
    第2の偏光を有する第2の偏光子を通過する光出力を有する第2の赤外線光源と、を含む、前記赤外線光源と、
    前記第1の偏光を有する第3の偏光子を含む前記カメラと、
    を更に備えた、請求項1に記載のシステム。
  3. 光を選択的にフィルタリングする前記コントローラからの入力に応答した偏光子を更に備え、前記偏光子は、
    電気モータにより駆動されるホイールであって、
    前記第1の偏光を有する光を通す第1の偏光ウインドウを有する第1のセグメントと、
    前記第2の偏光を有する光を通す第2の偏光ウインドウを有する第2のセグメントと、
    を含む、前記ホイール、
    液晶、または
    光弾性変調器、
    のうちの1つ以上を含む、請求項1または2のいずれか一項に記載のシステム。
  4. 前記ハードウェアプロセッサは更に、
    部分画像の前記第1のセットを判定する前記命令の前に、
    人間の掌を表す前記第1の画像データから画像の第3のセットを判定することと、
    画像の前記第3のセットから、前記人間の掌の特定の方位を表す画像の第4のセットを判定することと、
    画像の前記第4のセットから、前記人間の掌の特定の姿勢を表す画像の第5のセットを判定することであって、前記第1の画像データは、画像の前記第5のセットの少なくとも一部を含む、前記判定することと、
    を行う命令により、前記第1の画像データを処理することと、
    部分画像の前記第2のセットを判定する前記命令の前に、
    前記人間の掌を表す前記第2の画像データから画像の第6のセットを判定することと、
    画像の前記第6のセットから、前記人間の掌の前記特定の方位を表す画像の第7のセットを判定することと、
    画像の前記第7のセットから、前記人間の掌の前記特定の姿勢を表す画像の第8のセットを判定することであって、前記第2の画像データは、画像の前記第8のセットの少なくとも一部を含む、前記判定することと、
    を行う命令により、前記第2の画像データを処理することと、
    を行うように、前記第1のコンピュータ実行可能命令を実行する、
    請求項1、2、または3のいずれか一項に記載のシステム。
  5. 前記1つ以上の最新の署名を判定する前記命令は更に、
    前記1つ以上の最新の署名を生成するよう、ニューラルネットワークにより特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットのうちの少なくとも一部を処理する、命令を含む、請求項1、2、3、または4のいずれか一項に記載のシステム。
  6. 前記ユーザ識別子を判定する前記命令は更に、
    前記最新の署名の少なくとも一部と、1つ以上の前に記憶された参照署名の少なくとも一部との間の対応関係を示す信頼値の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
    信頼値の前記第1のセットの最大信頼値と関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
    のための命令を含む、
    請求項1、2、3、4、または5のいずれか一項に記載のシステム。
  7. 第1の偏光を有する赤外線光を使用して、カメラによって取得された第1の画像データにアクセスすることと、
    第2の偏光を有する赤外線光を使用して、前記第1の偏光を有する偏光子及び照明により、前記カメラによって取得された第2の画像データにアクセスすることと、
    部分画像の第1のセットを判定することであって、部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
    部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定することと、
    部分画像の第2のセットを判定することであって、部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
    部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
    特徴ベクトルの前記第1のセットまたは特徴ベクトルの前記第2のセットのうちの1つ以上に基づいて、1つ以上の最新の署名を判定することと、
    前記1つ以上の最新の署名及び1つ以上の前に記憶された参照署名に基づいて、ユーザ識別子を判定することと、
    を備えた、方法。
  8. 前記第1の画像データは、人間の掌の表面の少なくとも一部を表し、
    前記第2の画像データは、前記人間の掌の内部解剖学的構造の少なくとも一部を表す、
    請求項7に記載の方法。
  9. 前記1つ以上の最新の署名を判定することは、
    特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させて、前記1つ以上の最新の署名を生成することを含む、請求項7または8のいずれか一項に記載の方法。
  10. 特徴ベクトルの前記第1のセットを判定することは、
    人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルである、前記処理すること、
    を含み、
    特徴ベクトルの前記第2のセットを判定することは、
    前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の前記第2のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、前記処理すること、
    を含む、請求項7、8、または9のいずれか一項に記載の方法。
  11. 前記ユーザ識別子を前記判定することは、
    前記1つ以上の最新の署名と、前記前に記憶された参照署名との間のベクトル空間内の距離の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
    前記ベクトル空間内の距離の前記第1のセットに基づいて、前記ベクトル空間内の前記1つ以上の最新の署名に最も近い前記1つ以上の前に記憶された参照署名の1つを判定することと、
    前記1つ以上の前に記憶された参照署名の前記最も近い1つと関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
    を含む、請求項7、8、9、または10のいずれか一項に記載の方法。
  12. 部分画像の前記第1のセットを判定する前に、
    前記第1の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第1の未処理画像データにアクセスすることと、
    前記第1の未処理画像データから前記第1の画像データを生成することであって、前記第1の画像データは、
    人間の掌を表し、
    前記人間の掌の特定の方位を示し、
    前記人間の掌の特定の姿勢を示し、
    第1の閾値を上回る総輝度を示し、
    第2の閾値を下回る総不明瞭度を示し、
    修正される、1つ以上の画像を含む、
    前記生成することと、
    部分画像の前記第2のセットを判定する前に、
    前記第2の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第2の未処理画像データにアクセスすることと、
    前記第2の未処理画像データから前記第2の画像データを生成することであって、前記第2の画像データは、
    前記人間の掌を表し、
    前記人間の掌の前記特定の方位を示し、
    前記人間の掌の前記特定の姿勢を示し、
    第2の閾値を上回る総輝度を示し、
    第2の閾値を下回る総不明瞭度を示し、
    修正される、1つ以上の画像を含む、
    前記生成することと、
    を更に備えた、請求項7、8、9、10、または11のいずれか一項に記載の方法。
  13. 部分画像の前記第1のセットは、第1の分解能を有し、
    部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルすることによって、部分画像の前記第2のセットを生成することを更に備えた、
    請求項7、8、9、10、11、または12のいずれか一項に記載の方法。
  14. 部分画像の前記第1のセットの前記部分画像は、前記カメラの視角内の第1の領域を表し、
    部分画像の前記第2のセットの前記部分画像は、前記カメラの前記視角内の第2の領域を表し、更に、
    前記視角内の前記第2の領域は、前記視角内の前記第1の領域よりも大きい、請求項7、8、9、10、11、12、または13のいずれか一項に記載の方法。
  15. 部分画像の前記第1のセットを前記判定することは更に、
    部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含み、
    部分画像の前記第2のセットを前記判定することは更に、
    部分画像の前記第2のセットの前記部分画像のうちの1つ以上に画像変換を適用することを含む、
    請求項7、8、9、10、11、12、13、または14のいずれか一項に記載の方法。
JP2020568705A 2018-06-21 2019-06-20 ユーザ識別子を指定するシステム及びその方法 Active JP7351861B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/014,843 US10872221B2 (en) 2018-06-21 2018-06-21 Non-contact biometric identification system
US16/014,843 2018-06-21
PCT/US2019/038225 WO2020040858A2 (en) 2018-06-21 2019-06-20 Non-contact biometric identification system

Publications (2)

Publication Number Publication Date
JP2021527872A true JP2021527872A (ja) 2021-10-14
JP7351861B2 JP7351861B2 (ja) 2023-09-27

Family

ID=68981931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568705A Active JP7351861B2 (ja) 2018-06-21 2019-06-20 ユーザ識別子を指定するシステム及びその方法

Country Status (6)

Country Link
US (2) US10872221B2 (ja)
EP (1) EP3811289B1 (ja)
JP (1) JP7351861B2 (ja)
KR (1) KR102581711B1 (ja)
CN (1) CN112400174A (ja)
WO (1) WO2020040858A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872221B2 (en) * 2018-06-21 2020-12-22 Amazon Technologies, Inc Non-contact biometric identification system
US11080542B2 (en) * 2018-07-27 2021-08-03 International Business Machines Corporation Sparse region-of-interest pooling for object detection
US11922391B2 (en) * 2019-03-01 2024-03-05 Nec Corporation Article deduction apparatus, article deduction method, and program
US20200302147A1 (en) * 2019-03-20 2020-09-24 Amazon Technologies, Inc. Biometric input device
CN110516087B (zh) * 2019-04-23 2021-12-07 广州麦仑信息科技有限公司 一种大规模分布式全掌脉络数据的闪速搜索比对方法
KR102558903B1 (ko) * 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
US11232284B2 (en) * 2019-12-27 2022-01-25 Omnivision Technologies, Inc. Techniques for robust anti-spoofing in biometrics using polarization cues for NIR and visible wavelength band
US11625947B1 (en) * 2020-03-03 2023-04-11 Amazon Technologies, Inc. System for detecting and mitigating fraudulent biometric input
CN111753804A (zh) * 2020-07-07 2020-10-09 深兰盛视科技(苏州)有限公司 一种识别装置、采集装置、扣费装置及用于公共交通的非接触式生物识别系统
EP3958166A1 (en) 2020-08-19 2022-02-23 Qamcom Innovation Labs AB Method and system for enabling an electronic payment
US11670104B1 (en) * 2020-11-13 2023-06-06 Amazon Technologies, Inc. System for determining embedding from multiple inputs
US11527092B1 (en) * 2020-11-16 2022-12-13 Amazon Technologies, Inc. System for determining embedding using spatial data
US11657589B2 (en) * 2021-01-13 2023-05-23 Ford Global Technologies, Llc Material spectroscopy
US11741747B2 (en) 2021-01-13 2023-08-29 Ford Global Technologies, Llc Material spectroscopy
US11823488B1 (en) * 2021-03-29 2023-11-21 Amazon Technologies, Inc. System for training embedding network
US11900350B2 (en) * 2021-05-21 2024-02-13 Block, Inc. Automatic inventory tracking in brick and mortar store based on sensor data
US12051277B1 (en) * 2021-06-03 2024-07-30 Amazon Technologies, Inc. Multi-sensor input device
KR102714901B1 (ko) * 2021-10-26 2024-10-08 주식회사 카카오브이엑스 딥러닝 기반 비접촉식 장문 인식 시스템 및 방법
TWI805134B (zh) * 2021-12-17 2023-06-11 長庚大學 感光觸覺系統及其感光方法
FR3132153B1 (fr) 2022-01-21 2024-08-16 Idemia Identity Security France Procédé de mise en correspondance d’une image d’une paume d’un individu avec au moins une image d’une pluralité d’images de paumes de référence
US20230419740A1 (en) * 2022-06-28 2023-12-28 Shanghai United Imaging Intelligence Co., Ltd. Non-invasive biometric system and method for encoding anatomical features as biometric data
US20240233444A1 (en) * 2023-01-10 2024-07-11 Amazon Technologies, Inc. System for biometric identification enrollment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150356339A1 (en) * 2014-06-09 2015-12-10 Lawrence Livermore National Security, Llc Multimodal Imaging System And Method For Non-Contact Identification of Multiple Biometric Traits
JP2017068597A (ja) * 2015-09-30 2017-04-06 富士通株式会社 生体撮影装置および生体撮影方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887588A (ja) 1994-09-19 1996-04-02 Seiko Epson Corp 電子指紋照合器及びその指紋撮像部
US7481360B1 (en) 1998-04-17 2009-01-27 Diebold Self-Service Systems Division Of Diebold, Incorporated Cash dispensing automated banking machine with instructional electronic ink displays
JP3941863B2 (ja) 2002-03-27 2007-07-04 株式会社トプコン 表面検査方法及び表面検査装置
US7627151B2 (en) * 2003-04-04 2009-12-01 Lumidigm, Inc. Systems and methods for improved biometric feature definition
US8229185B2 (en) 2004-06-01 2012-07-24 Lumidigm, Inc. Hygienic biometric sensors
JP4546169B2 (ja) 2004-06-28 2010-09-15 富士通株式会社 手のひら認証用撮像装置
US7602942B2 (en) * 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
JP4566930B2 (ja) 2006-03-03 2010-10-20 富士通株式会社 撮像装置
KR20140124868A (ko) * 2006-07-19 2014-10-27 루미다임 인크. 스펙트럼 생체인식 센서
US7995808B2 (en) 2006-07-19 2011-08-09 Lumidigm, Inc. Contactless multispectral biometric capture
US20080107309A1 (en) 2006-11-03 2008-05-08 Cerni Consulting, Llc Method and apparatus for biometric identification
EP2120713A2 (en) 2007-03-21 2009-11-25 Lumidigm, Inc. Biometrics based on locally consistent features
FR2915301A1 (fr) * 2007-04-20 2008-10-24 Groupe Ecoles Telecomm Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference
JP5024153B2 (ja) 2008-03-27 2012-09-12 ソニー株式会社 生体撮像装置
US8229178B2 (en) * 2008-08-19 2012-07-24 The Hong Kong Polytechnic University Method and apparatus for personal identification using palmprint and palm vein
US8461961B2 (en) 2009-11-04 2013-06-11 Ming-Yuan Wu Tamper-proof secure card with stored biometric data and method for using the secure card
CN102542281B (zh) * 2010-12-27 2017-02-22 北京北科慧识科技股份有限公司 非接触式生物特征识别方法和系统
SG194673A1 (en) 2011-01-31 2013-12-30 Mustech Computing Services Ltd Optical polarimetric imaging
CN104487803A (zh) 2012-07-23 2015-04-01 株式会社理光 立体相机
JP2014035257A (ja) 2012-08-08 2014-02-24 National Institute Of Advanced Industrial & Technology ミューラー行列顕微エリプソメータ
US8369595B1 (en) * 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
JP2015529365A (ja) * 2012-09-05 2015-10-05 エレメント,インク. カメラ付きデバイスに関連する生体認証のためのシステム及び方法
JP6132659B2 (ja) 2013-02-27 2017-05-24 シャープ株式会社 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
JP6323227B2 (ja) 2013-12-16 2018-05-16 ソニー株式会社 画像解析装置、画像解析方法、およびプログラム、並びに照明装置
US10599932B2 (en) * 2014-06-09 2020-03-24 Lawrence Livermore National Security, Llc Personal electronic device for performing multimodal imaging for non-contact identification of multiple biometric traits
JP6482196B2 (ja) 2014-07-09 2019-03-13 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
US20180357520A1 (en) 2015-06-05 2018-12-13 Seeing Machines Limited Protective system for infrared light source
US10049272B2 (en) * 2015-09-24 2018-08-14 Microsoft Technology Licensing, Llc User authentication using multiple capture techniques
US10210631B1 (en) * 2017-08-18 2019-02-19 Synapse Technology Corporation Generating synthetic image data
US10872221B2 (en) * 2018-06-21 2020-12-22 Amazon Technologies, Inc Non-contact biometric identification system
US11625725B1 (en) * 2018-08-09 2023-04-11 Amazon Technologies, Inc. Stateless secure payment system
US20200302147A1 (en) * 2019-03-20 2020-09-24 Amazon Technologies, Inc. Biometric input device
US11256956B2 (en) * 2019-12-02 2022-02-22 Qualcomm Incorporated Multi-stage neural network process for keypoint detection in an image
US20210365940A1 (en) * 2020-05-25 2021-11-25 Edatanetworks, Inc. Transaction For Tamper and Quality Evidenced Delivery of Purchase Incented By Donation
US11527092B1 (en) * 2020-11-16 2022-12-13 Amazon Technologies, Inc. System for determining embedding using spatial data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150356339A1 (en) * 2014-06-09 2015-12-10 Lawrence Livermore National Security, Llc Multimodal Imaging System And Method For Non-Contact Identification of Multiple Biometric Traits
JP2017068597A (ja) * 2015-09-30 2017-04-06 富士通株式会社 生体撮影装置および生体撮影方法

Also Published As

Publication number Publication date
WO2020040858A3 (en) 2020-07-02
CN112400174A (zh) 2021-02-23
KR102581711B1 (ko) 2023-09-22
US10872221B2 (en) 2020-12-22
EP3811289A2 (en) 2021-04-28
EP3811289B1 (en) 2024-04-17
US11900711B1 (en) 2024-02-13
WO2020040858A2 (en) 2020-02-27
JP7351861B2 (ja) 2023-09-27
US20190392189A1 (en) 2019-12-26
KR20210019515A (ko) 2021-02-22

Similar Documents

Publication Publication Date Title
US11900711B1 (en) User identification system using infrared images of palm characteristics
US11340373B1 (en) System to determine portable device presence at a portal
US10380814B1 (en) System for determining entry of user to an automated facility
US11657617B1 (en) Presentation of a user interface for confirming unreliable group data
US11568361B1 (en) Merging events in interactive data processing systems
US11263795B1 (en) Visualization system for sensor data and facility data
JP7130069B2 (ja) ユーザの間のグループ関連付けを判定するシステム
US10332066B1 (en) Item management system using weight
US11853961B1 (en) Customized neural network for item recognition
US10346659B1 (en) System for reading tags
US10853469B1 (en) User interface locking system
US11436557B1 (en) Interaction determination using data from weight sensors
US20210097547A1 (en) Electronic device for automated user identification
US11887332B2 (en) Item identification using digital image processing
JP2022526228A (ja) 生体認証入力デバイス
US11625725B1 (en) Stateless secure payment system
US11117744B1 (en) Determination of untidy item return to an inventory location
US11488231B1 (en) Systems and method for an application for updating virtual carts
US11599737B1 (en) System for generating tags
US10932103B1 (en) Determining position of a user relative to a tote
US11069381B1 (en) Automated sensor data retention
US12131575B1 (en) System for single image multimodal biometric recognition
US11756036B1 (en) Utilizing sensor data for automated user identification
US11823488B1 (en) System for training embedding network

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150