JP7628680B2 - 動的アイデンティティ認証 - Google Patents

動的アイデンティティ認証 Download PDF

Info

Publication number
JP7628680B2
JP7628680B2 JP2023511812A JP2023511812A JP7628680B2 JP 7628680 B2 JP7628680 B2 JP 7628680B2 JP 2023511812 A JP2023511812 A JP 2023511812A JP 2023511812 A JP2023511812 A JP 2023511812A JP 7628680 B2 JP7628680 B2 JP 7628680B2
Authority
JP
Japan
Prior art keywords
anatomical landmarks
graph
data
person
spatiotemporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023511812A
Other languages
English (en)
Other versions
JP2023535231A (ja
Inventor
メンドロヴィク,デビッド
コーレン,メナヘム
ゲルベルグ,リオル
コーヘン,ケーン
アズーレ,モル-アヴィ
ヴォーヴォヴィチ,オハッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ramot at Tel Aviv University Ltd
Original Assignee
Ramot at Tel Aviv University Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ramot at Tel Aviv University Ltd filed Critical Ramot at Tel Aviv University Ltd
Publication of JP2023535231A publication Critical patent/JP2023535231A/ja
Priority to JP2024029663A priority Critical patent/JP7695730B2/ja
Application granted granted Critical
Publication of JP7628680B2 publication Critical patent/JP7628680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

発明の詳細な説明
〔関連出願〕
本出願は2020年8月20日に出願された米国仮出願第63/067,890号の35 U.S.C.119(e)に基づく利益を主張し、その開示は参照により本明細書に組み込まれる。
〔技術分野〕
本開示の実施形態は、人物のアイデンティティの生体認証 を提供するための方法および装置に関する。
〔背景技術〕
サービスの増え続けるリストはサービスへのユーザアクセスを認証および認可するために、慣習的に多要素認証手順(MFA:multi-factor authentication procedure)と呼ばれる認証手順を必要とする。MFA手順では、ユーザが複数のカテゴリのチャレンジ のそれぞれに対して、チャレンジに対する適切な応答を提供することが要求される。チャレンジカテゴリは、「認証要素(authentication factors)」と呼ばれる。一般のMFAは、2要素認証(2FA:two-factor authentication)と呼ばれ、ユーザは3つの認証要素、すなわち、知識要素、所有要素、および固有要素のうちの少なくとも2つに正しく応答するようにチャレンジされる。知識要素は、ユーザが知っているはずのもの、例えばパスワードをテストする。所有要素は、ユーザが有すると予想されるもの、例えばクレジットカードまたはスマートフォンの提示を必要とする。固有要素は、ユーザが該ユーザを特徴付ける何か、例えば、指紋、声紋、または虹彩スキャンなどの生体特徴を提示することを必要とする。
しかしながら、レガシー認証技術は現代の市民によって定期的に行われる行動のマトリックスの複雑さおよび相互依存性の増大によって必要とされている、使用の容易化および認証の品質の提供において困難に直面しているように見える。例えば、レガシーMFA構成はオープンバンキングイニシアチブにおいて消費者、銀行、およびサードパーティプロバイダ(TPP)を統合するために公布された改訂された欧州決済サービス指令(PSD2)の強力な顧客認証(SCA)の仕様を満たすために、厳しく迫られているように見える。SCAの実行は2回遅れている。当初2019年9月に開始予定であった制度は、2021年3月14日まで延期された後、2021年9月14日の現在の期限まで延期された。
〔発明の概要〕
本開示の実施形態の一態様は、方法を提供することに関する。この方法は、動的識別(DYNAMIDE:dynamic identification)方法、または単にDYNAMIDEと呼ばれ得る。この方法は、人物が行動を行う方法の固有性に基づき当該人物を識別する。本開示の一実施形態によれば、DYNAMIDEは、人々によって実行される行動中に、解剖学的ランドマークを識別することと、当該行動が実行されている間に当該解剖学的ランドマークの時空間軌跡を識別することを含む。解剖学的ランドマークは、随意的に行動基準(AFID:activity fiducial)と呼ばれ、様々な運動の程度またはその欠如を示す。時空間軌跡は、行動を識別するために用いられ得る。DYNAMIDEは、前記軌跡を処理して、特定の個人によって実行される行動を区別するために有利であり、行動を実行する特定の個人を識別するのに有利である該軌跡の特徴を決定することを含む。
行動を実行する個人によって該行動を区別し得る行動の特徴は非常に微妙であり得る。該行動に関連するAFID軌跡は実質的にわずかで直観的でない(nonintuitive)クロストークを呈し得る。結果として、行動の1つの時空間軌跡の特徴であって、該行動の別の時空間軌跡の特徴とは無関係に直感的に現れ得る特徴は、実際には行動を実行する個人に固有であり得、該個人を識別するための基準を提供し得る。本開示の一実施形態によれば、軌跡の識別と、空間および/または時間的処理と、のための、該軌跡によって示される固有性を発見および使用するのに有利な時空間決定の提供は、非局所的かつ多数のアプリオリ処理制約であってよい。アプリオリ処理制約は、有利に限定されるAFID軌跡によって示される動きに対して仮定される。
一実施形態によれば、個人が実行し得る所与の行動に基づいて特定の個人を識別することは、所与の行動を実行する個人の一連の画像を取得することと、当該所与の行動に関連するAFIDを該画像内で識別することと、を含む。画像は識別されたAFIDによって示される時空間軌跡と、行動を実行し得る複数の個人の中から、行動を実行した特定の個人を識別するために処理された軌跡と、を決定するために処理され得る。随意的に、AFID軌跡を処理することは、所与の行動の実行中にAFIDが示す局所的および非局所的時空間的相関を決定することと、特定の個人のアイデンティティを決定するために当該相関を使用することとを含む。時空間的相関は、1以上のAFIDにおける時空間軌跡または軌跡を特徴付ける、空間パラメータ、時間パラメータ、または空間パラメータと時間パラメータとの両方に基づく相関を含み得る。
本開示の実施形態において、所与の行動に関連するAFIDは、該行動を行う人物を識別する際に使用するのに適した所与の行動の実行において時空間的軌跡を示す、手足、顔、または頭などの任意の身体部分の解剖学的ランドマークであり得る。例えば、AFIDは例えば、歩行、ゴルフボールを打つこと、またはATMでのパスワードのタイピングなどの行動中に適合する時空間的軌跡を示す、手足の関節または骨格の骨(bone)であってもよい。タイピングのために、AFIDSは、手の骨が接続される複数の関節を含み得る。AFIDは、フェイシャルアクションコーディングシステム(FACS:facial action coding system)のアクションユニット(AU:action unit)を定義するためにその動きが使用される、眉、目、および唇の隅などの顔のランドマークであってよい。フェイシャルアクションコーディングシステムは、表情および微小な表現を分類するために用いられる。AFIDはまた、手の複数の指の指紋の詳細なペアの特徴であってもよく、ペアの特徴の識別を可能にするのに十分な光分解能で、非接触で画像化される。
一実施形態によれば、DYNAMIDEは、行動を実行する個人を識別するために、行動の画像を処理するための少なくとも1つのニューラルネットワークを用いる。一実施形態では、少なくとも1つのニューラルネットワークは、画像内の身体部分または関心領域(BROI:body part or region of interest)を検出し、それらが含み得るAFIDを識別するように訓練される。行動の実行中における識別されたAFIDの空間および時間な進行は、時空間グラフ(ST-Graph:spatiotemporal graph)によって表される。時空間グラフにおいて、AFIDは、行動の時空間AFID軌跡を定義する空間および時間エッジによって接続されたノードである。少なくとも1つのニューラルネットワークは、軌跡を処理し、行動を実行する個人に従って行動を分類するための少なくとも1つのグラフ畳み込みネットワーク(GCN:graph convolutional network)を備え得る。
一実施形態では、少なくとも1つのGCNは、AFID時空間軌跡を処理するための少なくとも1つの非局所的ニューラルネットワークブロックを有する非局所的ニューラルネットワーク(NLGCN:nonlocal neural network)を備える。少なくとも1つの非局所的ニューラルネットワークブロックは、少なくとも1つの空間非局所的ニューラルネットワークブロックおよび/または少なくとも1つの時間非局所的ニューラルネットワークブロックを備え得る。随意的に、NLGCNは、AFID軌跡に基づく独立した自由度によって特徴付けられるデータのセットを処理するように動作する複数の構成要素NLGCNを備えるマルチストリームGCNとして構成される。一実施形態では、マルチストリームGCNの出力は、構成要素GCNSの各々の出力の重み付けされた平均を含み得る。
一例として、個人がタイプする方法によって個人を識別するように構成されたDYNAMIDEにおいて、手の関節であるAFIDは、関節を接続する手の骨であるAFIDに対して得られる運動の自由度とは独立した運動の自由度(例えば、異なる指の関節間の距離)によって特徴付けられる。したがって、一実施形態では、DYNAMIDEは、2つの構成要素NLGCNを有する2ストリーム2s-NLGCNマルチストリームGCNを含み得る。2つの構成要素NLGCNの一方は関節AFIDを処理し、他方の構成要素NLGCNは骨AFIDを処理する。一実施形態では、関節NLGCNは、2s-NLGCNを構成するために使用され得るアプリオリ制約の数を低減するために駆動される実質的なデータである、少なくとも1つの学習可能な「適応的」隣接行列を備える。本開示の一実施形態に係る、適応隣接行列を備える2s-NLGCNは、適応2s-NLGCN(2s-ANLGCN)と呼ばれ得る。タイピングDYNAMIDEの、2s-NLGCNまたは2s-ANLGCNにおける関節および骨NLGCNの出力、は個人を識別するために融合され得る。
一実施形態によれば、特定の個人を識別することは、リアルタイムで行われる。一実施形態に係るリアルタイム識別は、個人が行動を行っている間の個人の識別、または識別が行われるサービスの経験品質(QoE:quality of experience)が識別プロセスによって実質的に劣化しないタイムフレーム内での個人の識別を指す。
この概要は、以下の詳細な説明においてさらに説明される概念の選択を簡略化された形式で紹介するために提供される。この概要は、特許請求される主題の主要な特徴または必須の特徴を識別することを意図するものではなく、特許請求される主題の範囲を限定するために使用されることを意図するものでもない。
〔図面の簡単な説明〕
本発明の実施形態の非限定的な例は、この段落の後に列挙される、本明細書に添付される図面を参照して、以下に記載される。2つ以上の図に現れる同一の特徴は一般に、該特徴が現れる全ての図において同じラベルでラベル付けされる。図中において、本発明の実施形態の所与の特徴を表すアイコンをラベル付けするラベルは、当該所与の特徴を参照するために使用され得る。図に示される特徴の寸法は、提示の利便性および明瞭さのために選択され、必ずしも一定の縮尺で示されていない。
図1は、本開示の実施形態に係る、人物を識別するための、DYNAMIDEが行動を実行する該人物の一連のビデオフレームを処理し得るプロセスを図示するフロー図である。
図2は、本開示の実施形態に係る、人物を識別するためにATM(automated teller machine:現金自動預け払い機)キーパッド上でタイピングする人物の一連のビデオフレームを処理するDYNAMIDEシステムを概略的に示す図である。
図3Aは、本開示の実施形態に係る、DYNAMIDEがキーボード上でタイピングする人物を識別するために使用し得る手の画像および手のAFIDを概略的に示す図である。
図3Bは、本開示の実施形態に係る、図3Aに示される手をモデル化する空間グラフであるS-グラフを概略的に示す図である。
図4Aは、本開示の実施形態に係る、図2に示されるATMでタイピングに関与する人物のために取得された一連のビデオフレームのうちの1つのビデオフレームの拡大画像を概略的に示す図である。
図4Bは、本開示の実施形態に係る、図4Aに示されるビデオフレームにおいて画像化される手をモデル化するS-グラフを概略的に示す図である。
図5Aは、本開示の実施形態に係る、図2に示される一連のビデオフレームの拡大画像を概略的に示す図である。
図5Bは、本開示の実施形態に係る、図5Aに示される一連のビデオフレームの画像に対応する時空間グラフST-グラフを概略的に示す図である。
図6Aは、本開示の一実施形態に係る、図5Bに示されるST-グラフのノードに関連するデータを備える時空間特徴テンソルを概略的に示す図である。
図6Bは、本開示の実施形態に係る、DYNAMIDEが図6Aに示されるテンソル内のデータを処理するために使用し得る非局所的ニューラルネットワークのスキーマを示す図である。
〔詳細な説明〕
議論において、特に明記しない限り、本開示の実施形態の1つの特徴点または複数の特徴点の状態または特性の関係を修正する「実質的に」および「約」などの形容詞は、当該状態または特性が、明細書の所望の実施形態の工程に対して容認可能な許容範囲内で定義されることを意味すると理解される。本開示における一般用語が例示または例示のリストを参照することによって説明される場合はいつでも、言及される実例(単数または複数)は該一般用語の非限定的な例示を目的としている。また、該一般用語は、言及される特定の例示(単数または複数)に限定されることを意図するものではない。「実施形態において」という語句は「あり得る」、「随意的に」、または「例示を目的として」などの許容性に関連するか否かにかかわらず、例示の検討材料を紹介するために使用される。しかしながら、当該語句は、必ずしも本開示の可能な実施形態において要求される構成を導入するわけではない。特に明示のない限り、明細書および特許請求の範囲における「または」という用語は、排他的なものではなく、包括的な「または」であると考えられ、結合する複数の項目のうちの少なくとも1つ、またはいずれかの組み合わせを示す。
図1は、本開示の実施形態に係る、随意的に数字20によっても参照されるプロセスであって、該プロセスに基づき、人物が実行する行動に応答して該人物を識別するためにDYNAMIDEが動作し得るプロセスを図示する高レベルフロー図20を示す。
ブロック22において、本開示の実施形態に係るDYNAMIDEは、随意的に、行動に関与する人物の一連のビデオフレームを取得する。DYNAMIDEは、行動に関与する人物のアイデンティティを決定するために処理を行うように構成される。ブロック24において、DYNAMIDEは、ビデオフレームを処理して、行動に関連する少なくとも1つのAFIDを画像化するビデオフレームにおける身体関心領域(BROI:body region of interest)の画像を識別する。ビデオフレーム中のBROIを識別することは、随意的に、BROIの画像を含むフレーム中の少なくとも1つのバウンディングボックス(bounding box)を決定することを含む。ブロック26において、DYNAMIDEは、ビデオフレームに対して決定されたバウンディングボックスの各々を処理して、バウンディングボックスの各々において、少なくとも1つのAFIDの画像を識別する。ビデオフレームのバウンディングボックス内のAFIDの画像を識別することは、随意的に、AFIDの識別ラベルを含む時空間ID(ST-ID:spaciotemporal ID)である「AFID ST-ID」を画像に関連付けることを含む。ここで、「AFID ST-ID」は、ビデオフレーム内の同じAFIDのすべての識別された画像をラベル付けし、画像の時空間座標を決定するために使用される。時空間座標は、タイムスタンプと、少なくとも2つの空間座標とを含む。タイムスタンプは、一連のビデオフレームにおける他のビデオフレームが取得された時間に対して、AFIDが位置するバウンディングボックスを含むビデオフレームが取得された時間、時間位置を識別する。少なくとも2つの空間座標は、タイムスタンプによって示される時間におけるAFIDの空間位置に対応する。随意的に、所与の識別されたAFIDに対するAFID ST-IDは、各空間座標についての標準偏差(sd:standard deviation)と、AFID ST-IDに関連付けられたAFID-IDラベルが正しい確率とを含む。AFID ST-IDに対して決定された最古および最新のタイムスタンプおよび極端な空間座標は、時空間体積を決定する。時空間体積は、一連のビデオフレームにおいて画像化され識別されたAFIDのすべてのインスタンスの時空間座標を含む時空間AFIDハル(ST-Hull:spatiotemporal AFID hull)と呼ばれることがある。
ブロック28において、DYNAMIDEは、AFIDSのST-IDを使用して、AFIDの識別されたインスタンスを、空間および時間エッジによって接続されるAFID時空間グラフ(ST-グラフ)のノードとして構成する。空間エッジはST-グラフノードを接続する。ST-グラフノードは、同じタイムスタンプによって識別されるAFIDの画像化されたインスタンス、すなわち、同じビデオフレーム内で画像化されるAFIDのインスタンスと、人物の身体の構造によってAFIDに課される空間的制約と、を表す。同じ所与のフレームおよび所与の時間において画像化されたAFIDのインスタンスの空間関係を表す空間エッジによって接続されたノードの構成は、所与の時間におけるAFIDの空間グラフ(S-グラフ)と呼称され得る。時間エッジは、一連のビデオフレームにおける2つの連続して取得されたビデオフレーム中において同じAFIDの画像を表すST-グラフ中の時間的に隣接するノードを接続する。時間エッジは、2つの連続するタイムスタンプ間の経過時間を表す。ST-グラフは、時間エッジによって接続されたAFIDに対応するS-グラフを含むと見なされ得る。
一実施形態では、ブロック30において、DYNAMIDEは、随意的に適応できる適応非局所的グラフ畳み込みニューラルネット、ANLGCNを用いてAFID ST-グラフを処理する。これにより、DYNAMIDEは、ANLGCNが認識するように訓練された複数の人物のうちのどの人物が行動に関与しているか、または関与しようとしているかを、随意的にはリアルタイムで、決定する。一実施形態では、ANLGCNは、AFID ST-ハルをスパンし、ハル内の任意の時空間位置におけるAFIDの画像化されたインスタンスに関連付けられたデータが学習された重みによって重み付けされることを可能とするように構成される。また、ANLGCNは、ハル内の任意の他の場所における時空間位置に対して実行される、ANLGCNによる畳み込みに寄与するように構成される。随意的に、NLGCNは、独立した自由度によって特徴付けられるAFIDデータのセットを処理するように動作する複数の構成要素NLGCNを備えるマルチストリームGCNとして構成される。
図2は本開示の実施形態に係るDYNAMIDEシステム100を概略的に示す。DYNAMIDEシステム100は、図1に示されるプロセスを実行し、人物が行動を実行する方法に基づき行動に関与する人物を識別するように構成される。DYNAMIDEシステム100は、随意的にはクラウドベースの処理ハブ120と、破線111によって示される視野(FOV:field of view)を有する画像化システム110と、を備え得る。一例として、当該図では、行動は、ATM60において人物50が関与する、キーパッド62上でタイプする行動である。
画像化システム110は、キーパッド62上でタイプする人物50の手52の複数の(「N」個の)2Dおよび/または3Dビデオフレーム114nから成るビデオの配列114を提供するように動作可能である。ここで、1≦n≦Nである。画像化システム110は少なくとも1つの有線および/または無線通信チャネル113によってハブ120に接続され、それを介して、画像化システム110は取得したビデオフレームをハブに送信する。ハブ120は、受信したビデオフレーム114nを処理して、人物50を識別するように構成される。人物50は、該人物50の手52がビデオフレーム内で画像化された人物である。ハブは、データおよび/または実行可能命令と、様々な電子的および/または光学的物理的および/または仮想的なプロセッサ、メモリ、および/または有線または無線通信インターフェースのいずれかと、を備える、および/またはそれらへのアクセスを有する。これらは、ハブが提供する機能をサポートするために必要とされ得る。データおよび/または実行可能命令は、以下、ソフトウェアとも称される。また、プロセッサ、メモリ、および/または通信インターフェースは、以下、ハードウェアとも称される。
例として、ハブ120は、オブジェクト検出モジュール130と、AFID識別子モジュール140と、分類器モジュール150と、をサポートするソフトウェアおよびハードウェアを備える。オブジェクト検出器モジュール130は、ビデオフレーム114n内のBROIを検出するように動作可能である。AFID識別子モジュール140は、検出されたBROI内のAFIDを識別し、識別されたAFIDの各々にST-IDを提供する。分類器モジュール150は、人物50を識別するためにST-IDのセットを時空間グラフとして処理するように動作可能な非局所的分類器を備える。
一実施形態では、オブジェクトBROI検出器モジュール130は、関連するBROIをリアルタイムで検出することができるYOLO(You Look Only Once)検出器などの高速物体検出器を備える。AFID識別子モジュール140は、検出されたBROI中のAFIDを識別するための畳み込みポーズマシン(CPM:convolutional pose machine)を備え得る。分類器モジュール150は、上述され、以下で論じられる、随意的に適応できる非局所的グラフ畳み込みネットワークを備える。図2では、分類器モジュール150は、ヒストグラム152によって表される確率の出力を提供するように概略的に示される。該ヒストグラムは、複数の人物のうちの所与の人物の各々について、当該所与の人物が、ビデオフレーム内でタイピングしている手52が画像化された人物である確率を与える。DYNAMIDE100は、所与の人物が、ビデオフレーム内でタイピングしている手52が画像化された人物であることを認識するように訓練される。DYNAMIDE100は、ビデオフレーム114nにおいてタイピングしている手52が画像化された人物として人物50を首尾よく識別するものとして概略的に示されている。
一実施形態では、DYNAMIDE100が人物のタイピングを識別するために使用するAFIDは、タイピングする手の関節(指の関節および/または手関節)および指の骨(指骨(phalanges))である。図3Aは本開示の実施形態に係る、タイピングする手のビデオ画像を処理するために、DYNAMIDE100によってAFIDとして随意的に使用される指の関節(指関節(knuckles)とも呼ばれる)および手関節を有する手200の画像を概略的に示す。関節はプラス記号「+」によって示される手200上の配置を有し、図に示されるように、手関節のラベル「JH」によって総称的に参照され得、数字ラベルJ0、J1、…、J20によって個々に区別され得る。DYNAMIDE100がタイピング行動のためのAFIDとして使用し得る所定の指骨は、当該所定の指骨が、接続する2つの指関節を示す英数字ラベルによって参照される場合に識別される。例えば、図3Aにおいて、関節J5とJ6とを接続する指の骨は、B5-6とラベル付けされた破線によって図3Aにおいて概略的に示され、指骨B18-19は指関節J18とJ19とを接続する。指の骨は、ラベルBHによって総称的に参照され得る。
図3Bは、本開示の実施形態に係る、所与の時間におけるAFIDの空間関係を表すために使用され得る空間グラフ(S-グラフ200)を概略的に示す。一例として、該空間グラフは、手200が画像化された所与の時間における手200によって示される。空間S-グラフ200において、図3Aに示される指関節AFID JHは、ラベルJNによって総称的に参照されるノードによって表される。ノードJNは、図3Aに示される相同の指関節J0、J1、…、J20にそれぞれ対応する英数字ラベルJN0、JN1、…、JN20によって個々に区別される。ノードJNを接続するS-グラフ200のエッジは、指の骨、すなわち指関節を接続する骨AFIDを表す。図3Bに示されるように、エッジは、ラベルBEによって総称的に参照され得、手200における相同な指の骨に対応する参照ラベルによって個々に参照される。例えば、図3BのエッジBE5-6は、図3Aの骨B5-6に対応する。
図4Aは、本開示の一実施形態に係る、取得時間tnにおいて画像化システム110によって取得され、処理のためにDYNAMIDEハブ120に送信されるビデオフレームの配列114(図2)におけるn番目のビデオフレーム114nの拡大画像を概略的に示す。ビデオフレーム114nは、キーパッド62上でタイピングする手52、ならびに撮像システム110のFOV111(図2)内に位置し得る手を取り囲む環境内の特徴を画像化している。図4Aに概略的に示される周囲の特徴は、例えば、カウンタ64および側壁66などのATM60の構造の一部、ならびに人物50がカウンタ64上に置いた携帯電話55を含み得る。
上述のように、ビデオフレーム114nの配列114の処理において、オブジェクト検出モジュール130は、AFID検出器140が識別し、DYNAMIDE100が人物50を識別するために使用する関節AFIDを備える物体として、フレーム内の手52の画像を位置特定するバウンディングボックスを決定し得る。ビデオフレーム114n内の手52についてオブジェクト検出器モジュール130によって決定されたバウンディングボックスは、破線の長方形116によって示される。AFID検出器140がバウンディングボックス116内で検出および識別する指関節AFIDは、汎用AFIDラベルJHによって示される(図3A)。図4Bは、取得時間tnにおいて取得されたビデオフレーム114n内の手の画像に基づくグラフとして手52をモデル化する空間S-グラフ-52(tn)を概略的に示す。S-グラフ-52(tn)内の指関節ノードは、適切な指関節ノードラベルJN0、JN1、…、JN20によって示され、ノードが属するS-グラフ-52(tn)に関連する取得時間tnを示す引数が追加されてもよい。例えば、S-グラフ-52(tn)のノードJN0、JN1、・・・、JN20は、JN0(tn)、JN1(tn)、…、JN20(tn)と参照され得る。
図5Aは、それぞれの時間t1、t2、t3、…、tNにおいて、ATM60でタイピングする手52を画像化するビデオフレーム1141、1142、1143、…、114Nを含む、図2に示されるビデオ配列114の拡大画像を概略的に示す。図5Bは、本開示の一実施形態に係る、ビデオフレーム1141~114N内の手52の画像に基づいて、タイピングする行動の時空間的な進行をモデル化するST-グラフ52を概略的に示す。STグラフ52は、ビデオフレーム1141、…、114Nにおける手52の画像に対応する空間Sグラフ-52(tn)を含む。ここで、1≦n≦Nである。隣接するS-グラフである、S-グラフ-52(tn)およびS-グラフ-52(tn+1)における相同ノードJNは、それぞれの取得時間tnとtn+1との間の経過時間を表す時間エッジによって接続される。隣接するS-グラフ-52(tn)とS-グラフ-52(tn+1)との間のすべての時間エッジは同じ時間的長さを有し、TEn、n+1とラベル付けされる。図5Bの時間エッジのいくつかは、それらのそれぞれのラベルによってラベル付けされる。
ST-グラフ-52に関連するノードデータは、DYNAMIDEハブ120の分類器モジュール150がATM60のキーパッド62上でタイピングする人物50のアイデンティティを決定するために処理する時空間入力特徴のセットを提供する。入力特徴のセットは、図6Aに概略的に示されるように、入力時空間特徴テンソル300としてモデル化され得、該入力時空間特徴テンソル300は、行、列、および奥行きによってテンソル内の位置を示すAFID、時間、およびチャネル軸を有する。ST-グラフ-52では、AFID軸は手52における特定の関節を示すノード番号で較正され、時間軸は連続フレーム番号またはフレーム取得時間によって較正される。一例として、時空間特徴テンソル300のチャネル軸は4つのチャネルを概略的に示すが、一実施形態に係る時空間特徴テンソルは4つより多いまたは少ないチャネルを有し得ることに留意されたい。例えば、AFIDおよび時間軸に沿ってそれぞれ示される所与のノードおよび所与の時間に対応するチャネル軸に沿ったエントリは、所与の時間における所与のノードに対応して空間位置を決定する2つまたは3つの空間座標を提供し得る。チャネルエントリはまた、座標の精度、および所与のノードが正しく識別される確率の誤差推定値を提供し得る。
一実施形態では、本開示の一実施形態に係る分類器モジュール150は、テンソル300内のデータを処理するための少なくとも1つの非局所的グラフ畳み込みネット(NLGCN)を含む分類器を有し、人物50のアイデンティティを提供し得る。随意的に、少なくとも1つのNLGCNは、非局所的GCN層に加えて適応隣接行列を含む少なくとも1つの適応ANLGCNを備える。適応隣接行列は、互いに関連する手の関節における時空間運動の分類器認識を改善するように動作する。該時空間運動は、空間構造によって影響されず、人物がタイピングを実行する方法に特有の運動である。
一例として、図6Bは、本開示の一実施形態に係る、DYNAMIDEハブ120がテンソル300内のデータを処理するために使用し得る分類器320のスキーマを示す。分類器320は、完全に接続されたネットFCN328に対してデータを順方向に供給する畳み込みニューラルネットワークブロック322、324、および326を随意的に備える。完全に接続されたネットFCN328は、複数の人物の各々に対して、当該人物が、キーパッド62上でタイピングするビデオシーケンス114(図2)において手52が撮像された人物であるか否かに関する確率を提供する。ブロック322は随意的に、時間畳み込みネットワーク(TCN:time convolutional network)に順方向データを供給するGCNを備える。ブロック324はTCNに対してデータを順方向に供給するANL-GCNを備え、ブロック326はANL-TCNに対してデータを順方向に供給するGCNを備える。
従って、本開示の一実施形態によれば、人物を識別する方法が提供される。当該方法は、人物が関与する行動に関連する複数の解剖学的ランドマークであって、前記行動の期間中における、前記解剖学的ランドマークの少なくとも1つの時空間軌跡を決定付けるデータを提供する解剖学的ランドマークの各々に対する時空間データを取得する工程と、前記取得された時空間データを、時空間グラフ(ST-グラフ)としてモデル化する工程と、前記人物に対応するアイデンティティを提供するために、少なくとも1つの非局所的グラフ畳み込みニューラルネットワーク(NLGCN)を用いて前記ST-グラフを処理する工程と、を含む。随意的に、前記少なくとも1つのNLGCNは、前記複数の解剖学的ランドマークから成る解剖学的ランドマークに関するデータに応答して学習される適応隣接行列を含む少なくとも1つの適応NLGCN(ANLGCN)を備え、前記複数の解剖学的ランドマークから成る解剖学的ランドマークは、前記人物の身体構造のみによって決定されない。加えて、または二者択一的に、前記ST-グラフを処理することは、前記複数の解剖学的ランドマークを、解剖学的ランドマークの複数のセットにセグメント化することを含み、各セットは、運動の自由度が異なる構成によって特徴付けられる。随意的に、前記方法は、各セット内の前記解剖学的ランドマークに関連する、前記取得された時空間データを、ST-グラフとしてモデル化することを含む。前記処理する工程は、前記人物のアイデンティティを示すデータを決定するために、前記少なくとも1つのNLGCNから成るNLGCNを用いて、前記解剖学的ランドマークの複数のセットにおける各セットについてモデル化された前記ST-グラフを処理することを含み、前記決定は、前記複数のセットのうちの他のセットを処理することとは無関係であってもよい。前記方法は、随意的に、全ての前記セットから前記決定されたデータを融合して、前記人物に対する前記アイデンティティを提供することを含む。
一実施形態において、前記時空間データを取得することは、前記行動に関与する前記人物を画像化した一連のビデオフレームを取得することを含み、各ビデオフレームは、前記複数の解剖学的ランドマークから成る解剖学的ランドマークを画像化した少なくとも1つの身体関心領域(BROI)の画像を含む。随意的に、前記方法は、各ビデオフレームにおいて前記少なくとも1つのBROIを検出するために前記ビデオフレームを処理することを含む。加えて、または二者択一的に、前記方法は、随意的に、前記少なくとも1つの検出されたBROIの各々において、前記複数の解剖学的ランドマークから成る解剖学的ランドマークの画像を識別することを含む。随意的に、前記方法は、前記識別された前記解剖学的ランドマークの画像を処理して、前記時空間軌跡を定義する前記データを決定することを含む。
一実施形態において、前記複数の解剖学的ランドマークは、関節を含む。随意的に、前記複数の解剖学的ランドマークは、前記関節を接続する骨を含む。加えて、または二者択一的に、前記関節は、指の関節を含む。随意的に、前記行動は、一連の指の動かし方を含む。前記指の動かし方は、キーボードの操作に関与する動かし方を含んでもよい。
一実施形態において、前記関節は、大きな外肢の関節を含む。随意的に、前記行動は、スポーツである。随意的に、前記スポーツは、サッカーである。随意的に、前記スポーツは、ゴルフである。
一実施形態において、前記複数の解剖学的ランドマークは、顔のランドマークを含む。随意的に、前記顔のランドマークは、表情および微小な表現を分類するために使用されるフェイシャルアクションコーディングシステム(FACS)のアクションユニット(AU)を定義するためにその動きが使用される顔のランドマークを含む。一実施形態において、前記複数の解剖学的ランドマークは、手の複数の指の指紋の詳細なペアの特徴を含む。
さらに、本開示の一実施形態によれば、人物を識別するためのシステムが提供される。当該システムは、行動に関与する人物を撮像するビデオフレームを有する映像を取得するように動作可能な撮像システムと、前記人物に対応するアイデンティティを提供するために、前記請求項のいずれかに従 って前記ビデオフレームを処理するために使用可能なソフトウェアと、を備える。
本出願における本発明の実施形態の説明は、例として提供されるものであり、本発明の範囲を限定することを意図するものではない。説明される実施形態は異なる特徴を含み、それらの全てが全ての実施形態において必要とされるわけではない。いくつかの実施形態は特徴のうちのいくつか、または特徴の可能な組み合わせのみを利用する。記載された本発明の実施形態の変形例、および記載された実施形態で述べられた特徴の異なる組み合わせを含む実施形態は、当業者に想起されるだろう。本発明の範囲は、特許請求の範囲によってのみ限定される。
本開示の実施形態に係る、人物を識別するための、DYNAMIDEが行動を実行する該人物の一連のビデオフレームを処理し得るプロセスを図示するフロー図である。 本開示の実施形態に係る、人物を識別するためにATM(automated teller machine:現金自動預け払い機)キーパッド上でタイピングする人物の一連のビデオフレームを処理するDYNAMIDEシステムを概略的に示す図である。 図3Aは、本開示の実施形態に係る、DYNAMIDEがキーボード上でタイピングする人物を識別するために使用し得る手の画像および手のAFIDを概略的に示す図である。 図3Bは、本開示の実施形態に係る、図3Aに示される手をモデル化する空間グラフであるS-グラフを概略的に示す図である。 図4Aは、本開示の実施形態に係る、図2に示されるATMでタイピングに関与する人物のために取得された一連のビデオフレームのうちの1つのビデオフレームの拡大画像を概略的に示す図である。 図4Bは、本開示の実施形態に係る、図4Aに示されるビデオフレームにおいて画像化される手をモデル化するS-グラフを概略的に示す図である。 図5Aは、本開示の実施形態に係る、図2に示される一連のビデオフレームの拡大画像を概略的に示す図である。 図5Bは、本開示の実施形態に係る、図5Aに示される一連のビデオフレームの画像に対応する時空間グラフST-グラフを概略的に示す図である。 図6Aは、本開示の一実施形態に係る、図5Bに示されるST-グラフのノードに関連するデータを備える時空間特徴テンソルを概略的に示す図である。 図6Bは、本開示の実施形態に係る、DYNAMIDEが図6Aに示されるテンソル内のデータを処理するために使用し得る非局所的ニューラルネットワークのスキーマを示す図である。

Claims (21)

  1. 人物を識別する方法であって、
    データおよび実行可能命令をメモリに保存することと、
    以下の工程を実行するために、前記実行可能命令をプロセッサにおいて実行することと、を含み、
    前記工程は、
    人物が関与する行動に関連する複数の解剖学的ランドマークであって、前記行動の期間中における、前記解剖学的ランドマークの少なくとも1つの時空間軌跡を決定付けるデータを提供する解剖学的ランドマークの各々に対する時空間データを取得する工程と、
    前記取得された時空間データを、時空間グラフ(ST-グラフ)としてモデル化する工程と、
    前記複数の解剖学的ランドマークを、解剖学的ランドマークの複数のセットにセグメント化することによって、少なくとも1つの非局所的グラフ畳み込みニューラルネットワーク(NLGCN)を用いて前記ST-グラフを処理する工程と、
    前記ST-グラフの処理結果に基づき生成された、前記人物のアイデンティティを出力する工程と、
    を含み、
    前記複数のセットのそれぞれは、複数の運動の自由度のそれぞれによって特徴付けられ、前記運動の自由度は、互いに独立している、
    方法。
  2. 前記少なくとも1つのNLGCNは、前記複数の解剖学的ランドマークから成る解剖学的ランドマークに関するデータに応答して学習される適応隣接行列を含む少なくとも1つの適応NLGCN(ANLGCN)を備え、前記複数の解剖学的ランドマークから成る解剖学的ランドマークは、前記人物の身体構造のみによって決定されない、請求項1に記載の方法。
  3. 各セット内の前記解剖学的ランドマークに関連する、前記取得された時空間データを、ST-グラフとしてモデル化することを含む、請求項1に記載の方法。
  4. 処理する工程は、前記人物のアイデンティティを示すデータを決定するために、前記少なくとも1つのNLGCNから成るNLGCNを用いて、前記解剖学的ランドマークの複数のセットにおける各セットについてモデル化された前記ST-グラフを処理することを含み、前記決定は、前記複数のセットのうちの他のセットを処理することとは無関係である、請求項3に記載の方法。
  5. 全ての前記セットから前記決定されたデータを融合して、前記人物に対する前記アイデンティティを提供することを含む、請求項4に記載の方法。
  6. 前記時空間データを取得することは、前記行動に関与する前記人物を画像化した一連のビデオフレームを取得することを含み、各ビデオフレームは、前記複数の解剖学的ランドマークから成る解剖学的ランドマークを画像化した少なくとも1つの身体関心領域(BROI)の画像を含む、請求項1に記載の方法。
  7. 各ビデオフレームにおいて前記少なくとも1つのBROIを検出するために前記ビデオフレームを処理することを含む、請求項6に記載の方法。
  8. 前記少なくとも1つの検出されたBROIの各々において、前記複数の解剖学的ランドマークから成る解剖学的ランドマークの画像を識別することを含む、請求項6に記載の方法。
  9. 前記識別された前記解剖学的ランドマークの画像を処理して、前記時空間軌跡を定義する前記データを決定することを含む、請求項8に記載の方法。
  10. 前記複数の解剖学的ランドマークは、関節を含む、請求項8に記載の方法。
  11. 前記複数の解剖学的ランドマークは、前記関節を接続する骨を含む、請求項10に記載の方法。
  12. 前記関節は、指の関節を含む、請求項10に記載の方法。
  13. 前記行動は、一連の指の動かし方を含む、請求項12に記載の方法。
  14. 前記指の動かし方は、キーボードの操作に関与する動かし方を含む、請求項13に記載の方法。
  15. 前記関節は、大きな外肢の関節を含む、請求項10に記載の方法。
  16. 前記行動は、スポーツである、請求項15に記載の方法。
  17. 前記スポーツは、サッカーである、請求項16に記載の方法。
  18. 前記スポーツは、ゴルフである、請求項16に記載の方法。
  19. 人物を識別する方法であって、
    データおよび実行可能命令をメモリに保存することと、
    以下の工程を実行するために、前記実行可能命令をプロセッサにおいて実行することと、を含み、
    前記工程は、
    人物が関与する行動に関連する複数の解剖学的ランドマークであって、前記行動の期間中における、前記解剖学的ランドマークの少なくとも1つの時空間軌跡を決定付けるデータを提供する解剖学的ランドマークの各々に対する時空間データを取得する工程と、
    前記取得された時空間データを、時空間グラフ(ST-グラフ)としてモデル化する工程と、
    前記解剖学的ランドマークに関連する複数の人物に対する確率ヒストグラムを生成するように構成された、完全に接続されたネットワーク(FCN)を含む少なくとも1つの非局所的グラフ畳み込みニューラルネットワーク(NLGCN)を用いて前記ST-グラフを処理する工程と、
    前記確率ヒストグラムに基づき生成された、前記人物のアイデンティティを出力する工程と、
    を含み、
    前記複数の解剖学的ランドマークは、顔のランドマークを含む、方法。
  20. 前記顔のランドマークは、表情および微小な表現を分類するために使用されるフェイシャルアクションコーディングシステム(FACS)のアクションユニット(AU)を定義するためにその動きが使用される顔のランドマークを含む、請求項19に記載の方法。
  21. 前記複数の解剖学的ランドマークは、手の複数の指の指紋の詳細なペアの特徴を含む、
    請求項19に記載の方法。
JP2023511812A 2020-08-20 2021-07-30 動的アイデンティティ認証 Active JP7628680B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024029663A JP7695730B2 (ja) 2020-08-20 2024-02-29 人物を識別する方法、および人物を識別するシステム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063067890P 2020-08-20 2020-08-20
US63/067,890 2020-08-20
PCT/IL2021/050925 WO2022038591A1 (en) 2020-08-20 2021-07-30 Dynamic identity authentication

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024029663A Division JP7695730B2 (ja) 2020-08-20 2024-02-29 人物を識別する方法、および人物を識別するシステム

Publications (2)

Publication Number Publication Date
JP2023535231A JP2023535231A (ja) 2023-08-16
JP7628680B2 true JP7628680B2 (ja) 2025-02-12

Family

ID=80322705

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023511812A Active JP7628680B2 (ja) 2020-08-20 2021-07-30 動的アイデンティティ認証
JP2024029663A Active JP7695730B2 (ja) 2020-08-20 2024-02-29 人物を識別する方法、および人物を識別するシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024029663A Active JP7695730B2 (ja) 2020-08-20 2024-02-29 人物を識別する方法、および人物を識別するシステム

Country Status (6)

Country Link
US (1) US12373528B2 (ja)
EP (1) EP4200725A4 (ja)
JP (2) JP7628680B2 (ja)
KR (2) KR102607766B1 (ja)
CN (1) CN116635910B (ja)
WO (1) WO2022038591A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7674149B2 (ja) * 2021-05-18 2025-05-09 株式会社日立製作所 生体の認証システムおよび認証方法
US20240004977A1 (en) * 2022-06-30 2024-01-04 Microsoft Technology Licensing, Llc Sequence-based authentication using rhythm and/or poses

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049867A (ja) 2015-09-03 2017-03-09 日本電気株式会社 認証装置、防犯システム、認証方法およびプログラム
CN111444488A (zh) 2020-03-16 2020-07-24 安徽清新互联信息科技有限公司 一种基于动态手势的身份认证方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535620B2 (en) * 2000-03-10 2003-03-18 Sarnoff Corporation Method and apparatus for qualitative spatiotemporal data processing
EP2394055B1 (en) 2009-02-09 2013-06-05 Cambridge Mechatronics Limited Shape memory alloy actuation apparatus
US20140347479A1 (en) * 2011-11-13 2014-11-27 Dor Givon Methods, Systems, Apparatuses, Circuits and Associated Computer Executable Code for Video Based Subject Characterization, Categorization, Identification, Tracking, Monitoring and/or Presence Response
US10460096B2 (en) * 2013-10-30 2019-10-29 Ohio University Motion-based identity authentication of an individual
CN104156650A (zh) * 2014-08-08 2014-11-19 浙江大学 一种基于手部运动的用户身份识别方法
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
EP3407232B1 (en) * 2017-05-23 2021-07-28 Ordnance Survey Limited Spatiotemporal authentication
CN108304757A (zh) * 2017-06-16 2018-07-20 腾讯科技(深圳)有限公司 身份识别方法及装置
GB2574919B (en) * 2017-12-21 2020-07-01 Yoti Holding Ltd Biometric user authentication
JP6819633B2 (ja) * 2018-03-08 2021-01-27 オムロン株式会社 個人識別装置および特徴収集装置
JP7314959B2 (ja) * 2018-12-28 2023-07-26 日本電気株式会社 人物認証装置、制御方法、及びプログラム
US11531393B1 (en) * 2019-06-28 2022-12-20 Sensoriai LLC Human-computer interface systems and methods
US11281227B2 (en) * 2019-08-20 2022-03-22 Volkswagen Ag Method of pedestrian activity recognition using limited data and meta-learning
US11423660B2 (en) * 2019-10-18 2022-08-23 Here Global B.V. Methods and systems for determining emergency data for a vehicle
CN110909621A (zh) * 2019-10-30 2020-03-24 中国科学院自动化研究所南京人工智能芯片创新研究院 一种基于视觉的健身指导系统
CN111339942B (zh) * 2020-02-26 2022-07-12 山东大学 基于视点调整的图卷积循环网络骨骼动作识别方法及系统
CN111428658B (zh) * 2020-03-27 2024-02-20 大连海事大学 一种基于模态融合的步态识别方法
US20210309181A1 (en) * 2020-04-03 2021-10-07 Micron Technology, Inc. Intelligent Preparation of Vehicles for Operations based on User Recognition from a Distance
US11276249B2 (en) * 2020-05-14 2022-03-15 International Business Machines Corporation Method and system for video action classification by mixing 2D and 3D features

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049867A (ja) 2015-09-03 2017-03-09 日本電気株式会社 認証装置、防犯システム、認証方法およびプログラム
CN111444488A (zh) 2020-03-16 2020-07-24 安徽清新互联信息科技有限公司 一种基于动态手势的身份认证方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Lei Shi et al.,"Two-Stream Adaptive Graph Convolutional Networks for Skeleton-Based Action Recognition",2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2019年06月15日

Also Published As

Publication number Publication date
CN116635910A (zh) 2023-08-22
JP7695730B2 (ja) 2025-06-19
KR20230164240A (ko) 2023-12-01
WO2022038591A1 (en) 2022-02-24
KR102607766B1 (ko) 2023-11-29
CN116635910B (zh) 2026-01-02
KR20230018529A (ko) 2023-02-07
US12373528B2 (en) 2025-07-29
EP4200725A4 (en) 2024-07-24
EP4200725A1 (en) 2023-06-28
JP2024059900A (ja) 2024-05-01
JP2023535231A (ja) 2023-08-16
KR102924015B1 (ko) 2026-02-05
US20230306094A1 (en) 2023-09-28

Similar Documents

Publication Publication Date Title
JP7695730B2 (ja) 人物を識別する方法、および人物を識別するシステム
CN112639873B (zh) 基于单对象姿态估计器的多个对象的姿态跟踪设备和方法
US9235751B2 (en) Method and apparatus for image detection and correction
CN106897658B (zh) 人脸活体的鉴别方法和装置
CN109657609B (zh) 人脸识别方法及系统
Patruno et al. People re-identification using skeleton standard posture and color descriptors from RGB-D data
WO2019128508A1 (zh) 图像处理方法、装置、存储介质及电子设备
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN111783506B (zh) 目标特征的确定方法、装置和计算机可读存储介质
CN111401318B (zh) 动作识别方法及装置
US11048926B2 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
CN109598229A (zh) 基于动作识别的监控系统及其方法
CN107273869B (zh) 手势识别控制方法和电子设备
JP2005339288A (ja) 画像処理装置及びその方法
CN116912906A (zh) 多维度身份识别方法、装置、电子设备及程序产品
CA3106694A1 (en) System and method for tracking customer movements in a customer service environment
CN116824489B (zh) 群体行为识别方法、电子设备以及计算机可读存储介质
US20240282147A1 (en) Action recognition method, action recognition device, and non-transitory computer readable recording medium
CN114627313A (zh) 配送任务控制方法、机器人和存储介质
CN114926887A (zh) 人脸识别方法、装置及终端设备
JP7794302B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN116704406B (zh) 基于视线焦点的运球抢断行为检测方法及系统
Anisetti et al. A3fd: Accurate 3d face detection
Robin et al. A novel approach to detect & track iris for a different and adverse dataset

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230414

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250120

R150 Certificate of patent or registration of utility model

Ref document number: 7628680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150