JP2014525081A - ジェスチャ認識によるユーザの識別 - Google Patents
ジェスチャ認識によるユーザの識別 Download PDFInfo
- Publication number
- JP2014525081A JP2014525081A JP2014518945A JP2014518945A JP2014525081A JP 2014525081 A JP2014525081 A JP 2014525081A JP 2014518945 A JP2014518945 A JP 2014518945A JP 2014518945 A JP2014518945 A JP 2014518945A JP 2014525081 A JP2014525081 A JP 2014525081A
- Authority
- JP
- Japan
- Prior art keywords
- information
- gesture
- user
- computer
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
- G06V40/37—Writer recognition; Reading and verifying signatures based only on signature signals such as velocity or pressure, e.g. dynamic signature recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
ユーザは、そのユーザによって行われる動作またはジェスチャの態様を分析することにより、電子デバイスに対して識別および/または認証することができる。その装置の少なくとも1つの撮像要素は、動作またはジェスチャを含む画像情報を捕捉することができ、また二次元または三次元空間においてその動作またはジェスチャに関する時間依存性情報を判定することができる。その時間依存性情報は、変化する速度、動作、および特定のユーザを示す他のそのような態様を識別するのに使用することができる。動作またはジェスチャ自体に加え、そのジェスチャまたは動作が行われる方法は、個々のユーザを認証するために使用することができる。他の人物は、基本的ジェスチャまたは動作を学習することができるが、各人物がそのジェスチャまたは動作を行う方法は、一般的に少なくとも若干異なっており、これは、機密情報、保護された機能性、または他のそのようなコンテンツへの無権限アクセスを防止するために使用することができる。
【選択図】図2
【選択図】図2
Description
人々は新しい、興味深い方法でコンピュータおよび他の電子デバイスと対話を増やしている。1つのそのような相互作用アプローチは、カメラまたは他のそのような要素を使用して検出することができる、デバイスに関する検出可能な動作を行うことを含む。単純な動作は検出して入力を提供することができるが、一般的には顔認識等の組み合わせで使用される別のプロセスがない限り、ジェスチャを行う人物の同一性を判定する方法はなく、特にモバイルデバイスにとって非常に資源集約的になり得る。動作が表示画面または他の接触に敏感な表面との接触で行われている場合、署名等のパターンはその人物を識別するために認識可能である。しかしながら多くのケースでは、人は別の人物の署名を、認証を得るために十分な正確さをもって似せることができるようになる。さらにユーザは、そのユーザの認証を得るために、デバイスと継続して接触していなければならないことを評価しないこともある。
本開示に従う種々の実施形態が、図を参照して説明される。
様々な実施形態に従う様々な態様を実装することができる環境の一例を説明する。
(a)と(b)は、様々な実施形態に従う識別子として使用することができる動作の一例を説明する。
(a)と(b)は、様々な実施形態に従う識別子として使用することができる動作およびジェスチャの一例を説明する。
様々な実施形態に従う識別子として使用することができるジェスチャの一例を説明する。
(a)と(b)と(c)と(d)とは、様々な実施形態に従う色々なタイプの照明で分析を行うための画像の例を説明する。
様々な実施形態に従う実施することができる、ユーザの同一性を判定するためのプロセスの一例を説明する。
様々な実施形態に従う使用することができるコンピューティングデバイスの一例を説明する。
は、図7で説明されているもののように、コンピューティングデバイスの構成要素の構成の一例を説明する。
は、様々な実施形態を実装することができる環境の一例を説明する。
本開示の様々な実施形態に従うシステムおよび方法は、電子デバイスに対してユーザを識別する従来のアプローチにおいて経験された、1つ以上の前述および他の欠陥を克服可能である。特に、様々な実施形態は、ユーザと関連する具体的動作またはジェスチャをそのユーザが実行することを可能とし、これを上述の電子デバイス(またはシステム、デバイス、あるいは上述の電子デバイスと通信を行うサービス)によって分析し、その動作またはジェスチャを実行中の人物の同一性を検証することが可能である。上述の電子デバイスはユーザの少なくとも一部分を含む画像情報を捕捉することができ、またその画像情報を分析して動作またはジェスチャに関する情報を判定可能である。その情報はある時点におけるユーザの1つ以上の特徴に関する位置情報および/またはある期間にわたるその位置情報の変化を含むことができる。その位置情報は、動作またはジェスチャに基づき、ユーザを識別する際に使用するそのユーザのために記憶された位置情報と比較することができる。
様々な実施形態において、ユーザが電子デバイスから離れたところで署名または他の特定の動作あるいはジェスチャを実行することができ、それをデバイスの少なくとも1つの撮像要素によって捕捉することができる。捕捉された情報を分析し、画像情報内のユーザの指先等の少なくとも1つの特徴の場所を判定することができる。時間経過に伴うその特徴の動きを次に追跡し、その特徴の場所を二または三次元空間における一点に相当するものと判定される。その場所はタイムスタンプまたは他のそのようなタイム情報と共に記憶することができ、その動作またはジェスチャ自体の経路に加え、ジェスチャ形成のための動作の速度および/または加速度の判定を可能とする。固有の署名または動作は別の人物が複製しようとしても難しい可能性があるが、ある人物が動作またはジェスチャ形成の様々な部分を実行する際の変化する速度および動作を、別の人物が模倣することはとりわけ困難である。そのようなアプローチはユーザ識別のためにジェスチャまたは動作を使用している時にさらに有益となる可能性がある。なぜなら、ユーザはそのユーザをデバイスに対して識別させるために使用される複雑なジェスチャを忘れる可能性があるが、もしそのジェスチャが空中において容易に認識可能なユーザの名前または何かを形成している場合には、そのユーザは基本的ジェスチャを覚えているだろうからである。さらに、運動の記憶は一般的に非常に強力であり、したがってユーザは、かなりの時間が経過した後においても類似の速度および動作により、空中においてユーザの署名またはイニシャル等のジェスチャを形成する傾向がある。
少なくともいくつかの実施形態において、ユーザは2つ以上の基準点を利用する動作またはジェスチャを利用することができる。例えば、ユーザは2つ以上の指によってジェスチャを行ってもよく、それらの指のそれぞれの動作は時間の経過に伴って遅れなく追跡され、そして既知の識別情報と比較される。同様にしてユーザは、2本の手、2つの目、2つの肘、保持された物体、またはユーザ識別の目的のために追跡、分析可能な多数の他の特徴を使用してもよい。
いくつかの実施形態においては、ユーザは捕捉される動作を行うことさえ必要とされない場合があり、代わりに特定の「静的」ジェスチャを利用することができる。例えば、ユーザは識別子として手話で特定の文字を形成してもよい。いくつかの実施形態においては、そのジェスチャを形成するためにユーザが使用する動作を検討することができる。しかしながら、他の実施形態においては、分析は代わりにジェスチャ中の様々な特徴点間の関係を含んでもよい。例えば、様々なユーザは、様々な相対的指の長さ、手のひらの幅、前腕の長さ、および特定の人物の同一性を判定する助けとなるジェスチャと組み合わせ可能な他の態様を有するであろう。
ユーザは時の経過につれてそのユーザを識別するために使用される、1つ以上の動作あるいはジェスチャを提供することができる。例えば、ユーザは、パスワードまたは署名の検証あるいは他のプロセスを介して、デバイスに対して識別されてもよい。そのユーザがいったん識別されると、そのユーザはその後の識別のために使用する、そのユーザに関連付けられる動作またはジェスチャを実行することができる。1つ以上のアルゴリズムが動作またはジェスチャを分析し、ユーザがその動作を複製できない可能性を示す「強さ」または他の点数または格付けをしてもよい。それは速度または加速の変化、追跡可能な特徴の数等に基づくものであってよい。ユーザはこうして結果に満足するまで(または別の基準を満たす)ジェスチャまたは動作を実行でき、そして安全性を高めるために、関連する動作またはジェスチャを定期的に更新することができる。
様々な実施形態に従って、様々な照明および捕捉のアプローチを使用することができる。例えば、周囲光または赤外線撮像を使用してデバイスに対する様々な特徴の場所を判定することができる。いくつかの実施形態においては、周囲および赤外線撮像の組み合わせを使用して背景オブジェクトを捕捉された画像情報から除去してシンプルにすることができ、また画像処理の正確性を改善することができる。情報は、デジタルカメラまたは赤外線検出装置等の任意の適切なセンサまたは検出装置を使用して捕捉することができる。さらに、少なくともいくつかの実施形態においては、2つまたはそれ以上の撮像要素を一緒に使用して、三次元の位置情報を提供することができる。加速度計または他のタイプの構成要素からのデータではなくて、画像情報を使用することは、さらに有益となり得る。何故ならば速度および位置等の情報はしばしば捕捉された画像情報を使用してより正確に判定することができるからである。
様々な実施形態に関し、様々な他の適用、プロセス、および使用が以下に提供されている。
図1は状況例100を説明しており、その中でユーザ102はジェスチャおよび/または動作ベースの入力をコンピューティングデバイス104に提供する。例えば、そのユーザの同一性を、例えば、そのデバイス上のセキュリティ解除機能を安全に行う目的でそのデバイスに提供すること等である。携帯型コンピューティングデバイス(例えば、スマートフォン、電子書籍リーダ、またはタブレットコンピュータ)が示されているが、入力を判定および処理可能な様々な他のタイプの電子デバイスを、ここで論じられている様々な実施形態に従って使用することができることが理解されるべきである。これらのデバイスは、例えば、ノートコンピュータ、個人用データ補助装置、携帯電話、ビデオゲームコンソールまたはコントローラ、および携帯用媒体プレーヤ等を含むことができる。この例では、コンピューティングデバイス104は、画像および/またはビデオ捕捉等の機能性を実行するように動作可能な少なくとも1つの画像捕捉要素106を有する。各画像捕捉要素は、例えば、カメラ、チャージカプルドデバイス(CCD)、動き検出センサ、または赤外線センサが可能であり、あるいは別の適切な画像捕捉技術を利用することができる。
この例では、ユーザ102はそのユーザの手110を使用して選択された動作またはジェスチャを実行している。動作は、特定入力または動作に対応するデバイスによって認識される動作またはジェスチャのセットの1つが可能であり、あるいは識別を行う目的のためにその特定ユーザに関連する具体的動作またはジェスチャが可能である。動作が、デバイス上の少なくとも1つの撮像要素106の視認可能エリアまたは角度範囲108内で実行された場合、そのデバイスは、少なくとも動作またはジェスチャの一部を含む画像情報の捕捉、少なくとも1つの画像分析、特徴認識、または他のアルゴリズムを使用して画像情報を分析すること、またその後のフレーム間または画像情報の部分間における少なくとも1つのユーザの特徴の動きを判定することが可能である。これは動作を判定するために既知の使用されているプロセスを使用して実行することができ、1つ以上の初期画像内の「固有の」特徴を位置決めし、次にその後の画像内でそれらの特徴の場所を追跡する等であり、これによってそれらの特徴の動きが、動作またはジェスチャ等のセットに対応する動きのセットと比較することができる。動作またはジェスチャベースの入力を判定するための他のアプローチは、例えば、同時係属米国特許出願第12/332,049号、参照により本願に組み込まれる、2008年12月10日出願の名称「Movement Recognition and Input Mechanism」において見出すことができる。
いくつかの実施形態において、ユーザは、そのユーザを電子デバイスに対して識別するために使用される動作を選択できる。例えば、図2(a)は、状況例200を説明しており、その中でユーザはデバイスの少なくとも1つの画像捕捉要素の捕捉範囲内で、デバイスの前で人差し指を使用して空中にユーザの署名を「描く」ことにより、自分自身を電子デバイスに対して認証させる。時の経過と共に特徴の位置を追跡するため、画像捕捉要素によって捕捉される情報を分析し、各フレーム内または情報の他のセグメント内の具体的特徴の場所を判定することが可能である。この例では、追跡される特徴はユーザの指先202である。指先位置は、例えば、カメラがとらえた画像の画像分析を通して、あるいはセンサがとらえた画像内の反射IRの強度分析を通して、判定することができる。他の様々な撮像アプローチも使用することができる。説明されているように、ユーザの指先202が空中に「署名」を形成している時に、捕捉された画像情報を分析して署名に沿った点のセットを判定することができ、それぞれが画像情報の各フレームの捕捉時等の各時点におけるユーザの指先の判定された点に対応している。例えば所与の画像フレーム内の指先に関する画像情報中で使用する適切な点は、局所的最大判定または重力判定等の適切な方法を使用して判定することができる。
捕捉された画像情報を分析し、検出された動作がジェスチャまたは他のそのような入力に相当する期間を判定することができる。多くの実施形態においては、デバイスが低フレームレートか、他のそのようなモードでない限り、捕捉されたビデオの各フレームを分析するのはあまりにも資源集約的であろう。いくつかの実施形態においては、デバイスは定期的に捕捉された画像情報を分析し、画像情報中の特徴が動作またはジェスチャを行うユーザを示すかどうかを判定しようと試みる。少なくともいくつかの実施形態においては、これはデバイスにより高いフレームレートまたは周波数で情報の捕捉を開始するようにすることができ、その間ジェスチャまたは入力分析アルゴリズムを使用して情報の分析が可能である。他の実施形態においては、デバイスは画像情報のローリングバッファを利用し、最近十秒間等の最近の時間からの画像情報を維持することができる。可能なジェスチャまたはユーザ動作が検出される時、デバイスは、動作検出の時間における動作またはジェスチャの始まりをデバイスが取り損なった場合、バッファ内の情報の分析をすることもできる。本願に含まれる教示および示唆に照らして明らかであるように、様々な他のアプローチを使用することができる。
図2(b)は、図2(a)で説明されている様な動作について捕捉することができる点のセット例210を説明している。少なくともいくつかの実施形態においては、これらの点は比較的に等しい時間間隔で捕捉されている。いくつかの実施形態においては、カメラが一台ある場合等は、点は二次元(x、y)で判定してもよい。もしも深度情報が判定することができる場合には、例えば、三角測量または立体撮像を行う2つ以上の画像捕捉要素がある場合には、点は三次元(x、y、z)空間で判定されてもよい。所与の動作またはジェスチャに関する点の集まりは、その後ライブラリまたは他のそのようなデータ保管場所に記憶された点のセットと比較することができる。それらのセットのそれぞれは特定ユーザ、動作、ジェスチャ、あるいは他のそのような態様に相当している。1つ以上の点突き合わせアルゴリズムを使用し、判定された点の集まりは、点のセットが最低レベルの確実性または信頼性等と一致するまで(または一致を試みる点のセットがなくなるまで)、記憶されたセットの少なくとも一部と比較することができる。いくつかの実施形態においては、曲線または連続線または関数は、点の集まりに適合可能であり、また例えば、曲線のセットと比較することができ、このことは、各点が比較的離れていて、それらの点のタイミングが突き合わせプロセスに影響を及ぼす可能性がある様な実施形態の突き合わせプロセスを改善するのに役立つ。
少なくともいくつかの実施形態においては、プロセスはさらに、デバイスは各点または各点のペア間のタイミング(絶対的または相対的)情報を提供できるという事実の利点を持つことができる。したがって、各点は、位置情報に加えてタイミング情報を含むことができる追加次元(x、y、t)または(x、y、z、t)を有することが可能である。上述のように、ある人物は相応の程度の正確性をもって別の人物の署名のトレースの仕方を学習できるかもしれない。しかしながら、別の人物が署名(または他の動作、ジェスチャ等)を形成する際の変化する速度および/または動きを学習することはずっと困難であろう。したがって、位置情報に加えてタイミング情報を有するということは、動作またはジェスチャを行う人物をより正確に識別するのに役立つ。
点のセットは、さらに適切な標準またはフレームワークに従って暗号化することができる。いくつかの実施形態において、各追跡されるまたは監視される点、またはユーザの特徴、または他の物体は比較的連続した点のストリームに相当することができる。複数点(即ち、ユーザの手の5本の指すべてを追跡している時)については、複数の暗号化されたストリームが存在する可能性がある。各ストリームは、1つ以上の既知の点のシーケンスと突き合わせるため、点のシーケンスとして記憶することができる。少なくともいくつかの実施形態においては、各点は速度、加速度、または他のそのような情報を判定可能とするタイムスタンプを有する。ユーザの手等、所与の特徴については、少なくとも1つの実施形態に関しては適切なサンプルレート、100Hzと1kHzの間、あるいは120Hz付近、で監視される10の特徴(例えば、最も明るいあるいは最も近い点、識別された特徴点、等)が存在する可能性がある。そのようなアプローチは1秒間に約一千の点を生じる可能性があり、これは識別のための好ましいレベルの正確性を提供し、従来の画像ベースの追跡を試みた場合、数百万の点を処理する可能性があることを避けることができる。いくつかの実施形態においては、所与の特徴が捕捉時間と捕捉時間の間で実質的に動かない時等、アルゴリズムが、追跡されるおよび/または分析される点の数をさらに削減することを試みてもよい。
図2(b)において、点を分析して、セパレーション216によって示されている筆跡「j」の一部を形成している期間において、ジェスチャをしているユーザが最も早く動いていると判定することができる。ユーザは、各点が非常に接近している筆跡「a」の部分212の近く等、向きを変える点の付近を最もゆっくりと動くであろう。このユーザに関しては終点218近くの署名部分はおよそ中間の速度であろう。位置および時間の両方について隣接する各点の間の相対距離を見ることにより、速度および/または加速度のセット(または比較的連続的な速度関数等)が、署名に関して判定されることができる。この速度に関連する情報は、次に1人以上のユーザに関する記憶された情報とも比較することができ、また位置もしくは軌跡のみに関するよりもより正確な一致を見つけるために使用することができる。例えば、2人のユーザがかなりの類似性をもって名前「Jan」を署名することはできるが、その名前を形成するために彼らが用いる動作および速度は一般的にはかなり異なるであろうから、それらのユーザの1人から署名を受け取る時は、より正確な識別結果が提供される。いくつかの実施形態においては、突き合わせのため、各点の間の速度セットを判定することができ、一方他の実施形態においては、速度および/または加速度は、最高および最低速度のエリアに相当するもの等、ジェスチャの特定の点または領域に関して判定することができる。
少なくともいくつかの実施形態においては、デバイスは時間をかけて2つ以上の点または特徴を追跡してもよい。例えば、図3(a)はユーザが5本の指すべてを含むジェスチャを行う状況例300を説明しており、開いた手からユーザの指による特定の構成まで動かしている。各指先の場所が捕捉された画像情報から判定することができる場合には、各指先の相対的動作は位置および/または時間に関して追跡することができる。各指先の動作は経路302を形成することができ、これは1本の指に関する前述のようなアプローチを使用して分析することができる。しかしながら、さらに、経路は互いに比較して追加情報を提供することもできる。例えば、各ユーザは異なる長さの指を有し、異なる大きさおよび形の手を有する可能性があり、動作中および/または動作の終わりにおいて若干異なるセパレーションを使用する可能性がある。したがって、5つの別々の経路から5倍の情報を得ることに加え、その情報を使用して異なる特徴間の相対的速度および/または位置を判定することもできる。
例えば図3(b)は、図3(a)の動作について識別可能な点のセットの例310を説明している。この例では、各経路の速度だけでなく、各指の移動の経路は異なる可能性があることが分かる。さらに、これらの経路は互いに明瞭な方向を有し得る。例えば、この特定ユーザはジェスチャを行う時、2本の異なる指の経路312および314はある量だけ交差する。別のユーザに関しては、経路は異なる量交差するか、あるいは全然交差しないかもしれない。このようにして、複数の特徴の相対的動作はある人物の同一性の別の標識となり得る。何故ならばユーザが行う複数の動作の方法も互いに比較可能だからである。
さらに、画像情報を分析し、ユーザの1つ以上の物理的特性を判定することができる。例えば、図4はユーザ402の手によって形成されるジェスチャを示す、捕捉された画像例400を示している。ユーザは前述のように特定の動作を使用してこのジェスチャを形成したが、この特定の構成を単に識別子として使用してもよい。前述のように、画像情報を分析して隣接する指先間の距離404等、ジェスチャ内の特定の特徴の場所を、判定することができる。さらに、各指の相対的長さ、手のひらの大きさ、ジェスチャを行っている際の指と指の相対的間隔、ならびに特定のユーザに固有の、またそのユーザを示す様な他の多くの態様等の様々な他の要因も分析することができる。このようにして、別の人物がユーザの識別的なジェスチャを学習しても、その人物がユーザのものと実質的に類似する物理的な特徴を有しない限り、その人物は自分をデバイスのユーザであるとして正しく識別させることは不可能であろう。利用可能であるならば、ユーザの前腕の相対的長さ、ユーザの手首の厚さ、あるいは他のそのような情報等、他の情報の使用が可能である。
前述のように、様々なタイプの情報を使用して、時間をかけて特定の特徴の位置決めおよび追跡を試みることが可能である。あるアプローチは、デジタルカメラ(静止画または映像)によって周囲光撮像を利用して画像を捕捉し、画像認識アルゴリズムでそれを分析することができる。しかしながら従来技術で知られているように、また図5(a)の画像例500で説明されているように、周囲光画像は多数の異なる物体に関する情報を含む可能性があり、したがって、分析のためにプロセッサおよび時間にとって非常に集約的となる可能性がある。例えば、画像分析アルゴリズムは画像内の手をドアおよび歩道から区別しなければならないばかりでなく、その手の方向に関わらず、その手を手として識別しなければならない。そのようなアプローチは、例えば、形状または輪郭の突き合わせを必要とし、プロセッサが集約的となる可能性がある。プロセッサの集約性が減じるアプローチとしては、分析を行う前にその手を背景から分離することである。
少なくともいくつかの実施形態においては、発光ダイオード(LED)または他の照明源を起動し、画像捕捉要素が画像情報を捕捉しようとする短い期間に、照明を行うことが可能である。例えば十分に高速な捕捉またはシャッター速度の場合、LEDは、さらにずっと離れた他の要素よりもデバイスに比較的近い特徴を照明することが可能で、画像の背景部分をかなり暗く(あるいは実装により異なる)することが可能である。例えば、図5(b)は少なくとも1つのジェスチャセンサの画像捕捉時間中に、LEDまたは他の照明源が起動される(例えば、フラッシュあるいはストロボ)画像例510を説明している。これを見れば分かるように、ユーザの手は比較的デバイスに近いため、画像中ではその手は比較的明るく現れるであろう。したがって、背景画像は、ほとんど真っ暗ではないにしても、比較的暗くなるであろう。このアプローチが、少なくともいくつかの実施形態においては、赤外線(IR)撮像の場合特に有益となり得る。そのような画像は、手が背景から効果的に分離されているため、分析がずっと容易となる可能性があり、したがって、様々な画像を追跡することが容易となる可能性がある。さらに、追跡のため、当該特徴の判定を試みるために分析が行われる画像の、より小さい部分がある。検出時間が短い実施形態においては、LED自身が単位時間当たり比較的電流を消費するとしても、少なくともいくつかの実施形態においては、LEDの発光は比較的電力の使用が少ないであろう。
そのようなアプローチは明るい条件および暗い条件の両方において機能することができる。少なくとも部分的には照明に関する心配事から照明が必要となる時を判定するために、ライトセンサを少なくともいくつかの実施形態において使用することができる。他の実施形態においては、デバイスがLEDのパルスまたは閃光を行う時期を判定するために、現在の条件の下で画像を処理する必要な時間の長さ等の要因に目を向けてもよい。さらに他の実施形態においては、デバイスはバッテリ内に少なくとも最小量のパワーが残っている時に、パルス照明を利用することもでき、その後はユーザまたはアプリケーション等による指示がない限り、LEDは発光しない。いくつかの実施形態においては、短い検出時間でジェスチャセンサを使用して照明を行うためおよび情報を捕捉するために必要なパワーの量は、照明無しで巻き上げるシャッターカメラで周囲光画像を捕捉するために必要なパワーの量より少なくてよい。
十分に高速なシャッターがない実施形態においては、巻き上げシャッター効果がない時または他のそのような状況においては、デバイスの近くにある他の物体からの反射の検出を実質的に阻止することは困難であろう。例えば図5(c)は赤外線(IR)センサを使用して捕捉可能な画像例520を説明しており、その例としては、手は画像中に見つけることが容易であるが、しかし背景は依然として存在するため、画像処理アルゴリズムは画像内の他の物体を処理しなければならず、また最小レベルの確実性をもって特定の特徴を迅速に位置決めすることができない場合である。少なくともいくつかの実施形態において、デバイスは図5(a)等における周囲光画像および図5(b)等における赤外線IR画像の両方を捕捉することができる。両方の画像を有することにより、1つ以上のアルゴリズムを使用して画像をシフトし(撮像要素の距離オフセットを考慮するため)そして次に赤外線IR画像520から周囲光画像500を減算することができる。結果として得られる画像はユーザの手により実質的に占められるであろう。少なくともいくつかの実施形態においては、背景情報がIR画像におけるよりも周囲光画像においてはるかに強烈である、あるいはその逆である、と判定された時(コントラスト、照明、または他のそのような態様により)、重み付け減算を実施することができる。いくつかのケースにおいて、最小レベルの信頼性でもって1つ以上の特徴を位置決めすることができるまで、一連の重み付け比較を実施することができる。
少なくともいくつかの実施形態においては、反射されたIRの強度を使用して各画像間で追跡される1つ以上の特徴を判定することができる。例えば、図5(d)のIR画像例530において、ユーザはデバイスに対する入力として1本の指を使用して動作を実行している。そのような例において、ユーザの指の先は、典型的にはデバイスに対してユーザの手の最も近い部分となる。したがって、相対明度を許容可能レベルの差別で判定することができる場合は、ユーザの指先はIR画像中の最も明るい領域を探すことによって少なくとも部分的に判定することができる。他の特徴、ユーザの親指の先あるいは他の指の部分等はやはり比較的明るく現れるであろうが、これはユーザの同一性をさらに示すことが可能な、追跡するための追加点を判定するのに役立つ。
図6は、様々な実施形態に従って使用することができるコンピューティングデバイスのためのジェスチャ識別を可能とするプロセス例600を説明している。本願で論じられているいかなるプロセスに関しても、別段の記述がない限り、様々な実施形態の範囲において、類似のまたは代替的順番で、あるいは並行して実施される追加の、より少ない、または代替のステップが存在し得ることが理解されるべきである。この例では、ジェスチャ検出はコンピューティングデバイス上で起動される602。少なくともいくつかの実施形態においては、これは、例えば、ユーザによって手動で、またはアプリケーションの起動によって起動されるが、他の実施形態において、少なくとも低電力状態において継続的に起動状態とすることもできる。
この例では、最近ジェスチャ入力がなかったような状況では、コンピューティングデバイスは低パワーまたは低解像度モードで実行され得る。そのようなモードは、例えば、低捕捉レートでの画像情報の捕捉、あるいは低い頻度で捕捉された情報の分析を含むことができる。少なくともいくつかの実施形態において、デバイスは、画像分析、動作検出装置の使用等によって異なるモードに切り替わるか、そうでなければいったん動作が検出されると(604)一定の機能を起動する。この例では、光検出装置または他のそのようなメカニズム(捕捉された画像情報を分析するハードウェアおよび/またはソフトウェア)が、十分な照明が存在するかどうかを判定することができる606。光が十分ではないと判定される場合608、あるいは他の光が必要である場合(IR照明等)、その後の画像情報の捕捉610の前に、1つ以上の照明源を起動することができる612。本願のいずれかにおいて記述されているように、照明源は、所与の適切な時間に(例えば、画像捕捉中に連続して、または捕捉のタイミングで閃光して)十分な量および/または所与のタイプの照明(例えば、白色光またはIR)を提供するために動作可能な所与の適切な源が可能である。
捕捉された画像情報、これは前述のようにキャッシュの形でまたは他のそのような一時的に記憶された画像情報を含むことができるが、を1つ以上のジェスチャ点の判定を試みるために分析することができる612。論じられているように、これは画像の連鎖において、IR画像情報中の明るい領域、画像情報中のある近接性または距離を有する点等において認識されるユーザの特徴を含むことができる。1つ以上のアルゴリズムは、そのような点または特徴を見つけようと試みるばかりでなく、座標または他の適切な値を判定し、連続するフレーム間または捕捉された画像情報の他の部分の点の値を追跡することができる。論じられているように、これは画像捕捉ストリームから1つ以上の点に関する情報を捕捉すること、また潜在的ジェスチャセットとしてそれらの点に関する値を記憶することを含むことができる。
分析された情報が潜在的ジェスチャを示す、および潜在的ジェスチャ点セットを取得することができる場合は、この潜在的ジェスチャセットをジェスチャライブラリまたは他のそのような源内の1つ以上のジェスチャパターンと比較することができる614。本願で論じられまたは示唆された、あるいは従来技術において公知のまたは使用されている所与の適切な突き合わせアルゴリズムを使用し、点のセット、機能、経路、または他のそのような特徴の突き合わせを試みることができる。少なくとも最低限の信頼性、最低限のレベルの確実性、または他のそのような基準あるいは閾値で一致が見つからない場合618は、ジェスチャ点情報(および関連する画像情報)を廃棄することができる620。適切な信頼性等を有する一致を判定することができる場合は、そのジェスチャに相当する入力を受け入れることができる622。少なくともいくつかの実施形態において、これは、特定ユーザについて知られているまたは判定された、動作あるいはジェスチャのタイプの認識に基づき、そのユーザに関する識別情報の受け入れに相当する。本願中のいずれかにおいて論じられたまたは示唆された他の様々なアプローチを使用することができる。
図7は、様々な実施形態に従ってそのような方法を実行するために使用することができる、コンピューティングデバイス例700を説明している。この例では、デバイスはデバイスの表示要素702と同じ側に従来型のデジタルカメラ704を有し、ユーザが少なくとも部分的に表示要素の前にいるという典型的操作時の、デバイスのユーザに関する画像情報をデバイスが捕捉することを可能にしている。少なくともいくつかの実施形態において、表示要素702は容量性画面または他のそのような要素が可能であり、それは容量性測定を使用して画面の所与の距離(例えば、3〜5cm)内のユーザの特徴の位置を判定し、時間をかけてその特徴の位置を追跡することができるものである。画像情報の代わりにまたは画像情報に加え、容量性画面からの情報を使用し、正確性を改善するためおよび/または、ユーザの特徴が撮像要素によって十分に撮像されるにはデバイスに近すぎる等の動作を埋め合わせることができる。さらに、コンピューティングデバイス例は、比較的同じ場所にいる時に、ユーザからのジェスチャ入力を判定するために使用することができるデバイスと同じ側に位置する赤外線(IR)センサ706(またはトランシーバ等)を含む。そのような構成は、周囲光画像情報がIR画像情報から減算される時に有益であるが、次のことを理解するべきである。即ち様々な実施形態の範囲内で、デバイスに対して希望する方向または場所からのジェスチャまたは画像の入力を可能とするように、デバイスの同じまたは他の側あるいは場所にも、追加されたまたは少ない数のカメラ、センサ、あるいは他のそのような要素を存在させることが可能である。
この例では、光センサ708が含まれ、捕捉される画像の一般的方向における光の量を判定するために使用可能で、さらに本願のいずれかで論じられているように、白色の発光ダイオード(LED)または赤外線(IR)エミッタ等の少なくとも1つの照明要素710が、例えば光センサによって周囲光が不十分であると判定された時や、反射されたIR放射が捕捉される時に、特定範囲の方向に照明を提供するために含まれている。本願に含まれている教示および示唆に照らして明らかなように、様々な実施形態の範囲で、様々な他の要素および要素の組み合わせも使用することができる。
本願に記載されている様々な機能性を適用するため、図8はコンピューティングデバイス800の基本構成要素セットの例を説明しており、図7について記述されたデバイス700等である。この例では、デバイスは少なくとも1つのメモリ装置または要素804に記憶可能な命令を実行するための少なくとも1つの中央処理装置802を含む。当業者には明瞭であろうが、デバイスは多くのタイプのメモリ、データメモリ装置、またはコンピュータによる読み取り可能な記憶媒体を含むことができ、これらに含まれるのは処理装置802によって実行されるプログラム命令のための第一データメモリ装置等であり、画像またはデータに関して同一のまたは別個のメモリ装置を使用可能で、また取り外し可能記憶メモリが他のデバイス等との情報共有のために使用することができる。デバイスは、タッチ画面、電子インク(e−ink)、有機発光ダイオード(OLED)または液晶表示装置(LCD)等のあるタイプの表示要素806を典型的に含むが、ポータブルメディアプレイヤ等のデバイスは、オーディオスピーカ等の他の手段を介して情報を伝えてもよい。少なくともいくつかの実施形態において、表示画面は、例えば容量性または抵抗性タッチ技術を使用するタッチまたはスワイプベースの入力に備えている。
論じられているように、多くの実施形態におけるデバイスは、ユーザ、人々、またはデバイスの近くにある物体を撮像可能な1つ以上のカメラ等の、少なくとも1つの画像捕捉要素808を含むであろう。画像捕捉要素は、判定済み解像度、焦点距離、視認可能エリア、および捕捉レートをそれぞれ有するCCDまたはCMOS画像捕捉要素等の適切な技術を含み、あるいは少なくとも部分的にそれに基づくことが可能である。デバイスは少なくとも1つの別個のジェスチャ構成要素810を含むことが可能で、それはユーザのジェスチャまたは動作を判定する時に使用される情報を捕捉するために動作可能なIRセンサまたは検出装置等であり、これによってユーザは、実際に携帯デバイスに接触および/または移動する必要なく携帯デバイスを介して入力を提供可能となる。デバイスはまた少なくとも1つの照明要素812を含むことができ、これには照明を提供するための1つ以上の光源(例えば、白色光LED、IRエミッタ、またはフラッシュランプ)および/または周囲光あるいは強度等を検出するための光センサまたは検出装置が含まれてもよい。
デバイス例はユーザから従来型入力を受け取ることが可能な少なくとも1つの追加入力装置を含むことが可能である。この従来型入力は、例えば、押しボタン、タッチパッド、タッチスクリーン、ホイール、ジョイスティック、キーボード、マウス、トラックボール、キーパッド、またはユーザが命令をデバイスに入力可能な他のそのようなデバイスまたは要素を含むことが可能である。これらのI/Oデバイスは、いくつかの実施形態において、ワイヤレス赤外線あるいはブルートゥース、あるいは他のリンクによっても接続することができる。しかしながらいくつかの実施形態において、そのようなデバイスはいかなるボタンも全然含まなくてもよく、ユーザがデバイスと接触する必要なくデバイスを制御可能なように、視覚的(例えばジェスチャ)および聴覚的(例えば、話し言葉)命令の組み合わせのみによって制御されてもよい。
述べられるように、記載される実施形態に従う種々の環境において、異なる手法を実装することができる。例えば、図9は、種々の実施形態に従う態様を実装するための環境900の例を示す。当然理解されるように、説明を目的としてウェブ基盤の環境が使用されるが、種々の実施形態を実装するために、必要に応じて異なる環境が使用され得る。システムは、電子クライアントデバイス902を含み、これは適切なネットワーク904を通して要求、メッセージまたは情報を送信しおよび受信し、情報をデバイスのユーザに再度伝えるように動作する、任意の適切なデバイスを含む。かかるクライアントデバイスの例は、パソコン、携帯電話、手持ち型メッセージングデバイス、ラップトップコンピュータ、セットトップボックス、個人用データ補助装置、電子書籍リーダおよびその類似物を含む。ネットワークは、イントラネット、インターネット、セルラネットワーク、ローカルエリアネットワークまたは任意の他のかかるネットワークまたはその組み合わせを含む、任意の適切なネットワークを含むことができる。かかるシステムのために使用されるコンポーネントは、選択されるネットワークおよび/または環境の種類に少なくとも部分的に依存することができる。かかるネットワークを経由しての通信のためのプロトコルおよびコンポーネントは公知であり、ここでは詳細に記載しない。ネットワークを通しての通信は、有線または無線接続およびその組み合わせを経由して可能となることができる。この例では、ネットワークは、環境が、要求を受信するためにおよびそれに応じてコンテンツを供給するためにウェブサーバ906を含むように、インターネットを含むが、当業者には明白であるように、他のネットワークについては、類似の目的を果たす代替のデバイスを使用することができる。
説明の環境は、少なくとも1つのアプリケーションサーバ908およびデータストア910を含む。様々なアプリケーションサーバ、レイヤまたは他の要素、処理またはコンポーネントが存在することができ、これらは連鎖式に、または別様に構成され、これらは適切なデータストアからデータを取得する等のタスクを行うように相互に作用することができるということが理解されるものとする。本願において使用される場合の「データストア」とは、データの記憶、アクセス、および取り出しができる、任意のデバイスまたはデバイスの組み合わせを指し、これは、任意の基準の、分散化された、またはクラスタ化された環境における、任意の組み合わせおよび数のデータサーバ、データベース、データ記憶装置およびデータ記憶媒体を含み得る。アプリケーションサーバ908は、クライアントデバイスのための1つ以上のアプリケーションの態様を実行するために必要とされる際にデータストア910と統合するための、およびアプリケーションのためのデータアクセスおよびビジネス論理の大部分を扱うための、任意の適切なハードウェアおよびソフトウェアを含むことができる。アプリケーションサーバは、データストアと連携してアクセス制御サービスを提供し、ユーザに転送されるテキスト、グラフィック、音声および/またはビデオ等のコンテンツを生成することができ、これはHTML、XMLまたはこの例における別の適切な構造化言語の形式でウェブサーバ906によってユーザに供給され得る。すべての要求および応答の取り扱い、ならびにクライアントデバイス902とアプリケーションサーバ908との間のコンテンツの送達は、ウェブサーバ906によって取り扱われることができる。ウェブおよびアプリケーションサーバは、本願に記載の構造化コードが、本願の他の場所に記載されるように、任意の適切なデバイスまたはホストマシン上で実行することができるため、必須というわけではなく、単にコンポーネントの例であるということが理解されるものとする。
データストア910は、様々な別個のデータテーブル、データベースまたは他のデータ記憶機構および特定の態様に関連するデータを記憶するための媒体を含むことができる。例えば、説明されるデータストアは、コンテンツを記憶するための機構(例えば、生産データ)912およびユーザ情報916を含み、これは生産側にコンテンツを供給するために使用することができる。データストアはまた、ログまたはセッションデータ914を記憶するための機構を含むように図示される。必要に応じて上記に列挙した機構のうちの任意のものの中に、またはデータストア910の中の追加の機構の中に記憶することができる、ページ画像情報およびアクセス権情報等の、データストアの中に記憶されることを必要とし得る多くの他の態様が存在することができるということが理解されるものとする。データストア910は、これと関連付けられた論理を通じて、アプリケーションサーバ908から命令を受信し、これに応じてデータを取得、更新または別様に処理するように動作する。1つの例では、ユーザは、ある特定の種類の項目について検索要求を提出することがある。この場合、データストアは、ユーザが本人であるかどうかを照合するためにユーザ情報にアクセスすることがあり、目録の詳細情報にアクセスしてその種類の項目の情報を取得することができる。次いで、情報は、ユーザがユーザデバイス902上のブラウザを経由して閲覧することができる、ウェブページ上に列挙された結果等として、ユーザに返送することができる。対象となる特定の項目のための情報は、専用のページ、またはブラウザのウインドウの中で閲覧することができる。
それぞれのサーバは、そのサーバの一般的な管理および操作のための、実行可能なプログラム命令を提供するオペレーティングシステムを典型的に含むことになり、かつ、サーバのプロセッサによって実行された時、サーバがその意図する機能を行うことを許す、命令を記憶するコンピュータで読み取り可能な媒体を典型的に含むことになる。オペレーティングシステムおよびサーバの一般的な機能性のための適切な実装は公知であるか、市販されており、特に本願の開示に照らして、当業者によって容易に実装される。
一実施形態における環境は、1つ以上のコンピュータネットワークまたは直接接続を使用して、通信リンクを経由して相互接続された、いくつかのコンピュータシステムおよびコンポーネントを利用した、分散コンピューティング環境である。しかしながら、図9に図示されたものよりも少ないか、または多い数のコンポーネントを有するシステムの中において、同等に良好に動作することができるということは、当業者によって理解されよう。したがって、図9のシステム900の描写は、説明的であるという性格としてとらえられるべきであり、本開示の範囲に制限するものではない。
種々の実施形態はまた、多岐にわたる動作環境においてさらに実装することができ、いくつかの場合においては、いくらかのアプリケーションのうちの任意のものを動作させるために使用することができる、1つ以上のユーザコンピュータまたはコンピューティングデバイスを含むことができる。ユーザまたはクライアントデバイスは、標準オペレーティングシステムを作動させているデスクトップまたはラップトップコンピュータ等の任意のいくらかの汎用パソコン、ならびにモバイルソフトウェアを動作させ、いくらかのネットワーキングおよびメッセージングプロトコルに対応することが可能な、セルラ、無線および手持ち式デバイスを含むことができる。かかるシステムはまた、開発およびデータベース管理等の目的のために、様々な市販のオペレーティングシステムおよび他の公知のアプリケーションのうちの任意のものを動作させているいくらかのワークステーションを含むことができる。これらのデバイスはまた、ダミー端子、シンクライアント、ゲーム用システムおよびネットワークを経由して通信することができる他のデバイス等の他の電子デバイスを含むことができる。
ほとんどの実施形態が、TCP/IP、OSI、FTP、UPnP、NFS、CIFSおよびAppleTalk等の、様々な商用のプロトコルのうちの任意のものを使用した通信に対応するための、当業者によく知られているであろう少なくとも1つのネットワークを利用する。ネットワークは、例えば、ローカルエリアネットワーク、ワイドエリアネットワーク、仮想プライベートネットワーク、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、無線ネットワークおよびその任意の組み合わせであることができる。
ウェブサーバを利用する実施形態において、ウェブサーバは、HTTPサーバ、FTPサーバ、CGIサーバ、データサーバ、Javaサーバ、および業務アプリケーションサーバを含む、様々なサーバまたは中間階層アプリケーションのうちの任意のものを作動させることができる。サーバはまた、ユーザデバイスからの要求に応じて、Java(登録商標)、C、C#またはC++等の任意のプログラム言語、またはPerl、PythonまたはTCL等の任意のスクリプト言語、およびその組み合わせで書かれた1つ以上のスクリプトまたはプログラムとして実装され得る、1つ以上のウェブアプリケーションを実行すること等により、プログラムまたはスクリプトを実行することが可能であり得る。サーバはまた、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)、およびIBM(登録商標)から市販されているものを制限されることなく含むデータベースサーバを含み得る。
環境は、上で述べられるように、色々なデータストアおよび他のメモリおよび記憶媒体を含むことができる。これらは、1つ以上のコンピュータのローカル(および/もしくは常駐)の記憶媒体上に、またはネットワーク全体の任意のまたはすべてのコンピュータの遠隔等、色々な位置に常駐することができる。特定の1組の実施形態において、情報は、当業者によく知られている記憶領域ネットワーク(SAN)の中に常駐し得る。同じように、コンピュータ、サーバまたは他のネットワークデバイスに帰属する機能を行うための、任意の必要なファイルは、必要に応じて、ローカルでおよび/または遠隔で記憶され得る。システムがコンピュータ化されたデバイスを含む場合、それぞれのかかるデバイスが、バスを経由して電気的に連結され得るハードウェア要素を含むことができ、この要素は、例えば、少なくとも1つの中央演算処理装置(CPU)、少なくとも1つの入力デバイス(例えば、マウス、キーボード、コントローラ、タッチセンサ式の表示要素またはキーパッド)および少なくとも1つの出力デバイス(例えば、表示デバイス、プリンタまたはスピーカ)を含む。かかるシステムはまた、例えば、ディスクドライブ、光学記憶装置およびランダムアクセスメモリ(RAM)または読み出し専用メモリ(ROM)等の固体記憶装置、ならびに取り外し可能な媒体デバイス、メモリカード、フラッシュカード等の1つ以上の記憶装置を含み得る。
かかるデバイスは、コンピュータで読み取り可能な記憶媒体リーダ、通信デバイス(例えば、モデム、ネットワークカード(無線または有線)、赤外線通信機器)および上述のワーキングメモリを含むこともできる。コンピュータで読み取り可能な記憶媒体リーダは、遠隔、ローカル、固定および/または取り外し可能な記憶装置に相当するコンピュータで読み取り可能な記憶媒体、ならびに一時的におよび/またはより恒久的に、コンピュータで読み取り可能な情報を含む、記憶する、伝送する、および取り出す記憶媒体と接続されるか、または受信するように構成することができる。システムおよび種々のデバイスはまた、少なくとも1つのワーキングメモリデバイス内部に位置する、クライアントアプリケーションまたはウェブブラウザ等のオペレーティングシステムおよびアプリケーションプログラムを含む、いくらかのソフトウェアアプリケーション、モジュール、サービスまたは他の要素を典型的に含むことになる。代替の実施形態は、上述のものからの多数の変形を有し得ることが理解されるものとする。例えば、特注のハードウェアが使用されることがあり、および/または特定の要素がハードウェア、ソフトウェア(アプレット等の携帯用ソフトウェアを含む)またはその両方の中に実装されることがある。さらに、ネットワーク入力/出力デバイス等の他のコンピューティングデバイスへの接続が採用され得る。
コードまたはコードの一部を含むための記憶媒体およびコンピュータで読み取り可能な媒体は、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置または所望の情報を記憶するために使用することができ、システムデバイスによってアクセスすることができる、任意の他の媒体等の、コンピュータで読み取り可能な命令、データ構造、プログラムモジュールまたは他のデータ等の情報の記憶および/または伝送のための任意の方法または技術によって実装される、揮発性および不揮発性の、取り外しできるおよび取り外しできない媒体等を含むがこれに限定されない、記憶媒体および通信媒体を含む、同技術分野で公知の、または使用される任意の適切な媒体を含むことができる。本願で提供される開示および教示に基づいて、当業者は種々の実施形態を実装するための他の方途および/または方法を認識するであろう。
本明細書および図面は、したがって、制限的な意味であるというよりもむしろ説明であると見なされる。これは、しかしながら、請求項に記載されるように、本発明のより広い精神および範囲を逸脱することなく、そこに種々の修正および変更を行い得ることは明白となろう。
付記
1.コンピューティングデバイスのユーザを識別するコンピュータ実装方法であって、
前記コンピューティングデバイスの少なくとも1つの画像捕捉要素を使用して画像情報を捕捉することと、
前記コンピューティングデバイスで、前記画像情報を分析し、前記コンピューティングデバイスの近くの人物の少なくとも1つの特徴の位置を識別することと、
前記捕捉された画像情報内の前記少なくとも1つの特徴の位置をある期間追跡することと、
前記コンピューティングデバイスで、期間の少なくとも一部分中に前記特徴に関する位置および時間の両方の情報を含む点のセットを判定することと、
前記点のセットを前記コンピューティングデバイスの権限を有するユーザに関して記憶された少なくとも1つのジェスチャパターンとを比較することであって、前記ジェスチャパターンは前記ジェスチャの動きの経路、および動きの前記経路に沿った複数点に関する相対的タイミング、加速度、または速度情報のうちの少なくとも1つの両方を含む、比較することと、
前記点のセットが、少なくとも最小レベルの確実性をもって、前記権限を有するユーザに関して記憶された少なくとも1つのジェスチャパターンの1つと一致する時に、前記人物は前記コンピューティングデバイスの権限を有するユーザであることを示す入力を提供することと、を含むコンピュータ実装方法であって、
特定ジェスチャとユーザがその特定ジェスチャを実行する方法の組み合わせに少なくとも部分的に基づいて、前記ユーザが前記コンピューティングデバイスに対して識別されることが可能である、コンピュータ実装方法。
2.画像情報の捕捉は前記コンピューティングデバイスの近くでの動作の検出に応答して実行される、付記1に記載のコンピュータ実装方法。
3.前記ユーザの同一性を認証することと、
前記ユーザに関連するジェスチャの実行を前記ユーザに促すことと、
前記ジェスチャを実行する前記ユーザに相当する画像情報を捕捉することと、
前記画像情報を分析し、前記ジェスチャに関するユーザ固有位置および時間情報を判定することと、
前記ユーザのその後の識別において使用される前記ユーザ固有位置および時間情報を記憶することと、
をさらに含む、付記1に記載のコンピュータ実装方法。
4.権限を持つユーザについて記憶された前記少なくとも1つのジェスチャパターンは、点のセット、連続関数、軌跡のセット、または少なくとも1つの適合曲線のうちの少なくとも1つを含む、付記1に記載のコンピュータ実装方法。
5.前記点のセットは三次元の位置情報を含む、付記1に記載のコンピュータ実装方法。
6.前記少なくとも1つの特徴は、手、指、目、肘、腕、または保持された物体のうちの少なくとも1つを含む、付記1に記載のコンピュータ実装方法。
7.ユーザを識別するコンピュータ実装方法であって、
実行可能命令を含む1つ以上のコンピューティングデバイスの制御下において、コンピューティングデバイスの少なくとも1つの画像捕捉要素を使用して捕捉された画像情報を取得することと、
前記コンピューティングデバイスの近くの人物の少なくとも1つの特徴の位置を識別するために前記画像情報を分析することと、
前記捕捉された画像情報内の前記少なくとも1つの特徴の位置をある期間追跡することと、
前記少なくとも1つの特徴の前記追跡された位置に関する前記情報を、ユーザに関連する少なくとも1つのジェスチャに関して記憶された情報と比較することであって、前記情報は少なくとも2つのあるタイプのジェスチャ、ジェスチャに関連する動きの経路、動きの前記経路の前記部分に関する相対的タイミング情報、および前記ジェスチャを実行する時の前記ユーザの特徴の相対的距離を含む、比較することと、
前記追跡された位置情報が前記ユーザに関連するジェスチャに関して記憶された前記情報と一致する時、前記ユーザが識別されたことを示す情報を提供することと、
を含むコンピュータ実装方法。
8.前記捕捉された画像情報は、周囲光画像情報および反射赤外線画像情報のうちの少なくとも1つを含む、付記7に記載のコンピュータ実装方法。
9.
前記反射赤外線画像情報から背景情報を実質的に除去するために、前記反射赤外線画像情報から前記周囲光画像情報の重み付け量を減算することをさらに含む、付記8に記載のコンピュータ実装方法。
10.画像認識、近接検出、および強度分析のうちの少なくとも1つを使用して前記人物の少なくとも1つの特徴の前記場所を判定するために、前記捕捉された画像情報が分析される、付記7に記載のコンピュータ実装方法。
11.前記ジェスチャはある期間の静的ジェスチャであり、ユーザに関連する前記少なくとも1つのジェスチャに関して記憶された前記情報は、ジェスチャのタイプと前記ジェスチャを実行する時に前記ユーザの1つ以上の特徴の相対的距離を含む、付記7に記載のコンピュータ実装方法。
12.前記ジェスチャがある期間にわたる動作を含み、ユーザに関連する前記少なくとも1つのジェスチャに関して記憶された前記情報は、ジェスチャに関連する動きの少なくとも1つの経路および動きの前記少なくとも1つの経路の少なくとも部分に関する相対的タイミング情報を含む、付記7に記載のコンピュータ実装方法。
13.前記少なくとも1つの特徴の前記位置は二次元または三次元において判定されることが可能である、付記7に記載のコンピュータ実装方法。
14.前記追跡された位置情報が、前記ユーザに関連するジェスチャに関して記憶された前記情報と少なくとも最小レベルの確実性をもって一致しない時、前記人物は前記コンピューティングデバイス上の少なくともいくつかのコンテンツまたは機能性に対するアクセスを拒否される、付記7に記載のコンピュータ実装方法。
15.前記画像情報が捕捉される前記期間の少なくとも一部分において、照明の少なくとも1つの源を起動することを含む、付記7に記載のコンピュータ実装方法。
16.照明の前記少なくとも1つの源が、前記期間中継続的にまたは定期的に起動される、照明の白色光および赤外線源のうちの少なくとも1つを含む、付記15に記載のコンピュータ実装方法。
17.少なくとも1つの特徴が、手、指、目、肘、腕、または保持された物体の内の少なくとも1つを含む、付記7に記載のコンピュータ実装方法。
18.前記コンピューティングデバイスはローリングバッファ内に捕捉された画像情報を記憶し、ジェスチャ分析が、前記ジェスチャ分析が起動される前に、固定された期間内に取得される捕捉された画像情報を含むことを可能にする、付記7に記載のコンピュータ実装方法。
19.前記追跡された位置に関する前記情報を前記ユーザに関連する少なくとも1つのジェスチャについて記憶された前記情報と比較する前に、曲線または関数を前記追跡された位置に関する情報に適合することを含む、付記7に記載のコンピュータ実装方法。
20.指定された非活性期間内でジェスチャが検出されない場合には、ジェスチャ入力モードを解除することを含む、付記7に記載のコンピュータ実装方法。
21.前記コンピューティングデバイスの近くの前記人物の少なくとも1つの特徴の前記位置が、容量性画面の所与の距離内の位置および動作を検出するために動作可能な前記容量性画面を使用して、期間にわたって識別および追跡されることがさらに可能である、付記7に記載のコンピュータ実装方法。
22.コンピューティングデバイスであって、
デバイスプロセッサと、
少なくとも1つの画像捕捉要素と、
活動セットを実行するために前記プロセッサによって実行されるように動作可能な命令を含むメモリ装置と、を備えるコンピューティングデバイスであって、それによって前記コンピューティングデバイスが
前記コンピューティングデバイスの少なくとも1つの画像捕捉要素を使用して捕捉された画像情報を取得することと、
前記コンピューティングデバイスの近くの人物の少なくとも1つの特徴の位置を識別するために前記画像情報を分析することと、
前記捕捉された画像情報内の期間にわたる前記少なくとも1つの特徴の位置を追跡することと、
前記少なくとも1つの特徴の前記追跡された位置に関する前記情報を、ユーザと関連する少なくとも1つジェスチャに関して記憶された情報と比較することであって、前記情報は、少なくとも2つのあるタイプのジェスチャと、ジェスチャに関連する動きの経路と、動きの前記経路の前記部分に関する相対的タイミング情報と、前記ジェスチャを実行する時の前記ユーザの特徴の相対的距離とを含む、比較することと、
前記追跡された位置情報が前記ユーザと関連するジェスチャに関して記憶された前記情報と一致する時、前記ユーザが識別されることを示す情報を提供することと、
を可能にするコンピューティングデバイス。
23.前記画像捕捉情報が取得される期間中に、継続的にまたは定期的に白色光および赤外線のうちの少なくとも1つを提供するために動作可能な照明の少なくとも1つの源を備える、付記22に記載のコンピューティングデバイス。
24.最近取得した画像捕捉データの最大量を記憶するように動作可能なローリングデータバッファをさらに備え、ジェスチャ分析が、前記ジェスチャ分析が起動される前に固定された期間内に取得される捕捉された画像情報を含むことを可能にする、付記22に記載のコンピューティングデバイス。
25.命令を記憶する持続性のコンピュータで読み取り可能な記憶媒体であって、前記命令はプロセッサによって実行された時、前記プロセッサに、
前記コンピューティングデバイスの少なくとも1つの画像捕捉要素を使用して捕捉された画像情報を取得することと、
前記コンピューティングデバイスの近くの人物の少なくとも1つの特徴の位置を識別するために前記画像情報を分析することと、
前記捕捉された画像情報内の期間にわたって前記少なくとも1つの特徴の位置を追跡することと、
前記少なくとも1つの特徴の前記追跡された位置に関する前記情報を、ユーザに関連する少なくとも1つのジェスチャに関して記憶された情報と比較することであって、前記情報は少なくとも2つのあるタイプのジェスチャと、ジェスチャに関連する動きの経路と、動きの前記経路の前記部分に関する相対的タイミング情報と、前記ジェスチャを実行する時の前記ユーザの特徴の相対的距離とを含む、比較することと、
前記追跡された位置情報が前記ユーザに関連するジェスチャに関して記憶された前記情報と一致する時、前記ユーザが識別されることを示す情報を提供することと、
を行わせる、記憶媒体。
26.前記捕捉された画像情報は周囲光画像情報および反射赤外線画像情報のうちの少なくとも1つを含み、
前記反射赤外線画像情報から背景情報を実質的に除去するために、前記反射赤外線画像情報から前記周囲光画像情報の重み付け量を減算することをさらに含む、
付記25に記載の持続性のコンピュータで読み取り可能な記憶媒体。
27.前記命令は、実行された時、前記プロセッサに二次元または三次元の前記少なくとも1つの特徴の前記位置をさらに判定させる、付記25に記載の持続性のコンピュータで読み取り可能な記憶媒体。
Claims (15)
- ユーザを識別するコンピュータ実装方法であって、
実行可能な命令を含む1つ以上のコンピューティングデバイスの制御下において、
コンピューティングデバイスの少なくとも1つの画像捕捉要素を使用して捕捉される画像情報を取得することと、
前記コンピューティングデバイスの近くの人物の少なくとも1つの特徴の位置を識別するように、前記画像情報を分析することと、
前記捕捉された画像情報内のある期間にわたる前記少なくとも1つの特徴の位置を追跡することと、
前記少なくとも1つの特徴の前記追跡された位置に関する情報を、ユーザに関連する少なくとも1つのジェスチャに関して記憶された情報と比較することであって、前記情報は、少なくとも2つのタイプのジェスチャと、ジェスチャに関連する動きの経路と、前記動きの経路の前記部分に関する相対的タイミング情報と、前記ジェスチャを実行する時の前記ユーザの特徴の相対的距離とを含む、比較することと、
前記追跡された位置情報が前記ユーザに関連するジェスチャに関して記憶された前記情報と一致する時に、前記ユーザが識別されることを示す情報を提供することと、
を含む、コンピュータ実装方法。 - 前記捕捉された画像情報が、周囲光画像情報および反射赤外線画像情報のうちの少なくとも1つを含む、請求項1に記載のコンピュータ実装方法。
- 背景情報を前記反射赤外線画像情報から実質的に除去するために、前記周囲光画像情報の加重量を前記反射赤外線画像情報から減算することをさらに含む、請求項2に記載のコンピュータ実装方法。
- 前記捕捉された画像情報は、画像認識、近接検出、および強度分析のうちの少なくとも1つを使用して、前記人物の少なくとも1つの特徴の前記場所を判定するために分析される、請求項1に記載のコンピュータ実装方法。
- 前記ジェスチャはある期間の静止ジェスチャであり、またユーザに関連する前記少なくとも1つのジェスチャに関して記憶された前記情報は、ジェスチャのタイプおよび前記ジェスチャを実行する時の前記ユーザの1つ以上の特徴の相対的距離を含む、請求項1に記載のコンピュータ実装方法。
- 前記ジェスチャはある期間のにわたる動作を含み、またユーザに関連する前記少なくとも1つのジェスチャに関して記憶された前記情報は、ジェスチャに関連する動きの少なくとも1つの経路および前記少なくとも1つの動きの経路の少なくとも部分群に関する相対的タイミング情報を含む、請求項1に記載のコンピュータ実装方法。
- 前記人物は、前記追跡された位置情報が、少なくとも最小レベルの確実性で、前記ユーザに関連するジェスチャに関して記憶された前記情報と一致しない時に、前記コンピューティングデバイス上の少なくともいくつかのコンテンツまたは機能性に対するアクセスを拒否される、請求項1に記載のコンピュータ実装方法。
- 少なくとも1つの特徴は、手、指、目、肘、腕、あるいは保持された物体のうちの少なくとも1つを含む、請求項1に記載のコンピュータ実装方法。
- 前記追跡された位置に関する前記情報を、前記ユーザに関連する少なくとも1つのジェスチャに関して記憶された前記情報と比較する前に、曲線または関数を前記追跡された位置に関する前記情報にあてはめることをさらに含む、請求項1に記載のコンピュータ実装方法。
- 指定された非活動期間内に何もジェスチャが検出されない場合には、ジェスチャ入力モードを解除することをさらに含む、請求項1に記載のコンピュータ実装方法。
- 前記コンピューティングデバイス近くの前記人物の少なくとも1つの特徴の前記位置は、容量性画面の所与の距離内における位置および動作を検出するように動作可能な前記容量性画面を使用して、ある期間にわたって、識別および追跡されることがさらに可能である、請求項1に記載のコンピュータ実装方法。
- コンピューティングデバイスであって、
デバイスプロセッサと、
少なくとも1つの画像捕捉要素と、
一組の行為を実行するために前記プロセッサによって実行されるように動作可能な命令を含むメモリ装置と、を備え、
前記コンピューティングデバイスが、
前記コンピューティングデバイスの少なくとも1つの画像捕捉要素を使用して捕捉された画像情報を取得することと、
前記コンピューティングデバイスの近くの人物の少なくとも1つの特徴の位置を識別するように前記画像情報を分析することと、
前記捕捉された画像情報内のある期間にわたって前記少なくとも1つの特徴の位置を追跡することと、
前記少なくとも1つの特徴の前記追跡された位置に関する前記情報を、ユーザに関連する少なくとも1つジェスチャに関して記憶された情報、少なくとも2つのあるタイプのジェスチャを含む前記情報、ジェスチャと関連する動きの経路、動きの前記経路の前記部分に関する相対的タイミング情報、および前記ジェスチャを実行する時の前記ユーザの特徴群の相対的距離と比較することと、
前記追跡された位置情報が前記ユーザと関連するジェスチャに関して記憶された前記情報と一致する時に、前記ユーザが識別されることを示す情報を提供することと、
を行うことを可能にする、コンピューティングデバイス。 - 前記画像捕捉情報が取得される前記期間中に、白色光および赤外線のうちの少なくとも1つを継続的にまたは定期的に提供するように動作可能な少なくとも1つの照明源をさらに備える、請求項12に記載のコンピューティングデバイス。
- 最大量の最近取得された画像捕捉データを記憶するように動作可能であり、ジェスチャ分析が、前記ジェスチャ分析が起動される前に一定時間までに取得された捕捉された画像情報を含むことを可能にする、ローリングデータバッファをさらに備える、請求項12に記載のコンピューティングデバイス。
- 前記ジェスチャはある期間にわたる動作を含み、またユーザに関連する前記少なくとも1つのジェスチャに関して記憶された前記情報が、ジェスチャに関連する動きの少なくとも1つの経路および動きの前記少なくとも1つの経路の少なくとも部分群に関する相対的タイミング情報を含む、請求項12に記載のコンピューティングデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/172,727 | 2011-06-29 | ||
US13/172,727 US8693726B2 (en) | 2011-06-29 | 2011-06-29 | User identification by gesture recognition |
PCT/US2012/044341 WO2013003424A1 (en) | 2011-06-29 | 2012-06-27 | User identification by gesture recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014525081A true JP2014525081A (ja) | 2014-09-25 |
Family
ID=47390736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014518945A Pending JP2014525081A (ja) | 2011-06-29 | 2012-06-27 | ジェスチャ認識によるユーザの識別 |
Country Status (5)
Country | Link |
---|---|
US (2) | US8693726B2 (ja) |
EP (1) | EP2727339A4 (ja) |
JP (1) | JP2014525081A (ja) |
CN (1) | CN103733614B (ja) |
WO (1) | WO2013003424A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016118910A (ja) * | 2014-12-19 | 2016-06-30 | 国立大学法人 鹿児島大学 | 認証処理装置及び認証処理方法、認証情報登録装置及び認証情報登録方法 |
WO2022269887A1 (ja) * | 2021-06-25 | 2022-12-29 | 京セラ株式会社 | ウェアラブル端末装置、プログラムおよび画像処理方法 |
Families Citing this family (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6610917B2 (en) | 1998-05-15 | 2003-08-26 | Lester F. Ludwig | Activity indication, external source, and processing loop provisions for driven vibrating-element environments |
US8345014B2 (en) | 2008-07-12 | 2013-01-01 | Lester F. Ludwig | Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface |
US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
US8693726B2 (en) * | 2011-06-29 | 2014-04-08 | Amazon Technologies, Inc. | User identification by gesture recognition |
US20130009896A1 (en) * | 2011-07-09 | 2013-01-10 | Lester F. Ludwig | 3d finger posture detection and gesture recognition on touch surfaces |
US10088924B1 (en) * | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
US8891868B1 (en) * | 2011-08-04 | 2014-11-18 | Amazon Technologies, Inc. | Recognizing gestures captured by video |
US20130044912A1 (en) * | 2011-08-19 | 2013-02-21 | Qualcomm Incorporated | Use of association of an object detected in an image to obtain information to display to a user |
CN102968177B (zh) * | 2011-08-31 | 2015-10-28 | 敦宏科技股份有限公司 | 手势感测方法 |
US9129400B1 (en) * | 2011-09-23 | 2015-09-08 | Amazon Technologies, Inc. | Movement prediction for image capture |
US10082950B2 (en) * | 2011-11-09 | 2018-09-25 | Joseph T. LAPP | Finger-mapped character entry systems |
US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
KR101953165B1 (ko) * | 2012-02-24 | 2019-05-22 | 토마스 제이. 모스카릴로 | 제스처 인식 디바이스들 및 방법들 |
KR101819791B1 (ko) * | 2012-03-08 | 2018-01-17 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 모바일 디바이스와 연관된 경험의 품질 측정 |
US9122354B2 (en) * | 2012-03-14 | 2015-09-01 | Texas Instruments Incorporated | Detecting wave gestures near an illuminated surface |
TWI476702B (zh) * | 2012-03-16 | 2015-03-11 | Pixart Imaging Inc | 使用者辨識系統及辨識使用者的方法 |
TWI497347B (zh) * | 2012-05-09 | 2015-08-21 | Hung Ta Liu | 以手勢為輸入之控制系統 |
US8837780B2 (en) * | 2012-06-22 | 2014-09-16 | Hewlett-Packard Development Company, L.P. | Gesture based human interfaces |
SE537580C2 (sv) * | 2012-08-03 | 2015-06-30 | Crunchfish Ab | Förbättrad inmatning |
US8819812B1 (en) * | 2012-08-16 | 2014-08-26 | Amazon Technologies, Inc. | Gesture recognition for device input |
US9697649B1 (en) | 2012-09-04 | 2017-07-04 | Amazon Technologies, Inc. | Controlling access to a device |
US9218114B1 (en) | 2012-09-04 | 2015-12-22 | Amazon Technologies, Inc. | Providing time-dependent items |
US9032510B2 (en) * | 2012-09-11 | 2015-05-12 | Sony Corporation | Gesture- and expression-based authentication |
US9374618B2 (en) * | 2012-09-11 | 2016-06-21 | Intel Corporation | Interactive visual advertisement service |
US9167404B1 (en) | 2012-09-25 | 2015-10-20 | Amazon Technologies, Inc. | Anticipating data use in a wireless device |
US11823499B2 (en) * | 2012-11-14 | 2023-11-21 | Golan Weiss | Methods and systems for enrollment and authentication |
US10609285B2 (en) * | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
JP6155786B2 (ja) * | 2013-04-15 | 2017-07-05 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
CN104144520A (zh) | 2013-05-07 | 2014-11-12 | 李东舸 | 一种设备间建立连接的方法、装置与系统 |
CN104143074A (zh) * | 2013-05-07 | 2014-11-12 | 李东舸 | 一种用于基于运动特征信息生成运动特征码的方法和设备 |
US20140376773A1 (en) * | 2013-06-21 | 2014-12-25 | Leap Motion, Inc. | Tunable operational parameters in motion-capture and touchless interface operation |
US9423913B2 (en) | 2013-07-01 | 2016-08-23 | Blackberry Limited | Performance control of ambient light sensors |
US9323336B2 (en) | 2013-07-01 | 2016-04-26 | Blackberry Limited | Gesture detection using ambient light sensors |
US9367137B2 (en) | 2013-07-01 | 2016-06-14 | Blackberry Limited | Alarm operation by touch-less gesture |
US9342671B2 (en) | 2013-07-01 | 2016-05-17 | Blackberry Limited | Password by touch-less gesture |
US9398221B2 (en) | 2013-07-01 | 2016-07-19 | Blackberry Limited | Camera control using ambient light sensors |
US9489051B2 (en) | 2013-07-01 | 2016-11-08 | Blackberry Limited | Display navigation using touch-less gestures |
US9256290B2 (en) | 2013-07-01 | 2016-02-09 | Blackberry Limited | Gesture detection using ambient light sensors |
US9405461B2 (en) | 2013-07-09 | 2016-08-02 | Blackberry Limited | Operating a device using touchless and touchscreen gestures |
US9304596B2 (en) | 2013-07-24 | 2016-04-05 | Blackberry Limited | Backlight for touchless gesture detection |
US9465448B2 (en) | 2013-07-24 | 2016-10-11 | Blackberry Limited | Backlight for touchless gesture detection |
US9261966B2 (en) * | 2013-08-22 | 2016-02-16 | Sony Corporation | Close range natural user interface system and method of operation thereof |
US9194741B2 (en) | 2013-09-06 | 2015-11-24 | Blackberry Limited | Device having light intensity measurement in presence of shadows |
CN104516474B (zh) * | 2013-10-08 | 2017-12-26 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
KR20150043149A (ko) * | 2013-10-14 | 2015-04-22 | 삼성전자주식회사 | 손 모양 인식을 이용한 디지털 장치의 제어 방법 및 촬영 방법과, 그 장치 |
US9876966B2 (en) * | 2013-10-18 | 2018-01-23 | Pixart Imaging Inc. | System and method for determining image variation tendency and controlling image resolution |
RU2013147803A (ru) * | 2013-10-25 | 2015-04-27 | ЭлЭсАй Корпорейшн | Система распознавания жестов с управлением конечным автоматом блока обнаружения указателя и блока обнаружения динамического жеста |
WO2015066274A1 (en) * | 2013-10-30 | 2015-05-07 | Ohio University | Motion-based identity authentication of an individual |
US20150147734A1 (en) * | 2013-11-25 | 2015-05-28 | International Business Machines Corporation | Movement assessor |
US9239917B2 (en) * | 2013-12-03 | 2016-01-19 | Lenovo (Singapore) Ltd. Ptd. | Gesture controlled login |
US20150177842A1 (en) * | 2013-12-23 | 2015-06-25 | Yuliya Rudenko | 3D Gesture Based User Authorization and Device Control Methods |
US20150190208A1 (en) * | 2014-01-06 | 2015-07-09 | Covidien Lp | System and method for user interaction with medical equipment |
US9495759B2 (en) * | 2014-02-26 | 2016-11-15 | Apeiros, Llc | Mobile, wearable, automated target tracking system |
US9348989B2 (en) | 2014-03-06 | 2016-05-24 | International Business Machines Corporation | Contemporaneous gesture and keyboard entry authentication |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9723224B2 (en) * | 2014-03-31 | 2017-08-01 | Google Technology Holdings LLC | Adaptive low-light identification |
US10365721B2 (en) | 2014-05-06 | 2019-07-30 | Symbol Technologies, Llc | Apparatus and method for performing a variable data capture process |
US9710629B2 (en) * | 2014-05-13 | 2017-07-18 | Google Technology Holdings LLC | Electronic device with method for controlling access to same |
DE102014106854A1 (de) * | 2014-05-15 | 2016-01-28 | Odos Imaging Ltd. | Bildgebendes System und Verfahren zum Überwachen eines Sichtfeldes |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9857869B1 (en) * | 2014-06-17 | 2018-01-02 | Amazon Technologies, Inc. | Data optimization |
CN106232010B (zh) * | 2014-07-02 | 2020-03-31 | 柯惠有限合伙公司 | 用于检测气管的系统和方法 |
US9725098B2 (en) * | 2014-08-11 | 2017-08-08 | Ford Global Technologies, Llc | Vehicle driver identification |
CA3186147A1 (en) * | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
CN104239761B (zh) * | 2014-09-15 | 2017-06-27 | 西安交通大学 | 基于触屏滑动行为特征的身份持续认证方法 |
CN105577624B (zh) * | 2014-10-17 | 2019-09-10 | 阿里巴巴集团控股有限公司 | 客户端交互方法与客户端以及服务器 |
CN104394312B (zh) * | 2014-10-23 | 2017-08-22 | 小米科技有限责任公司 | 拍摄控制方法及装置 |
US10445714B2 (en) * | 2015-01-29 | 2019-10-15 | Ncr Corporation | Gesture-based signature capture |
US10565455B2 (en) * | 2015-04-30 | 2020-02-18 | Ants Technology (Hk) Limited | Methods and systems for audiovisual communication |
US10009598B2 (en) * | 2015-05-01 | 2018-06-26 | Dell Products L.P. | Dynamic mode switching of 2D/3D multi-modal camera for efficient gesture detection |
MY172874A (en) * | 2015-06-18 | 2019-12-13 | Fuji Electric Co Ltd | Magnetic recording medium |
TWI547831B (zh) | 2015-07-06 | 2016-09-01 | Dexin Corp | An input device with a Bluetooth module and a method of operating the same |
HK1204847A2 (en) * | 2015-09-16 | 2015-12-04 | 英基科技有限公司 | A time card punching system |
US10678326B2 (en) * | 2015-09-25 | 2020-06-09 | Microsoft Technology Licensing, Llc | Combining mobile devices with people tracking for large display interactions |
US10289206B2 (en) * | 2015-12-18 | 2019-05-14 | Intel Corporation | Free-form drawing and health applications |
JP6631261B2 (ja) * | 2016-01-14 | 2020-01-15 | セイコーエプソン株式会社 | 画像認識装置、画像認識方法および画像認識ユニット |
US9965043B2 (en) * | 2016-01-27 | 2018-05-08 | Wipro Limited | Method and system for recommending one or more gestures to users interacting with computing device |
US9875399B2 (en) | 2016-04-29 | 2018-01-23 | International Business Machines Corporation | Augmenting gesture based security technology for improved classification and learning |
US10628682B2 (en) | 2016-04-29 | 2020-04-21 | International Business Machines Corporation | Augmenting gesture based security technology using mobile devices |
CN111290285B (zh) * | 2016-05-31 | 2023-04-07 | 广东美的制冷设备有限公司 | 手势识别控制方法、手势识别控制装置和设备 |
CN109643153A (zh) * | 2016-06-06 | 2019-04-16 | 杜瓦娱乐有限公司 | 用于影响增强现实的虚拟对象的设备 |
US10594683B2 (en) | 2016-06-08 | 2020-03-17 | International Business Machines Corporation | Enforce data security based on a mobile device, positioning, augmented reality |
WO2018068484A1 (zh) * | 2016-10-14 | 2018-04-19 | 华为技术有限公司 | 三维手势解锁方法、获取手势图像的方法和终端设备 |
CN106618942A (zh) * | 2016-11-01 | 2017-05-10 | 漳州蒙发利创新科技有限公司 | 一种手势感应的头戴式按摩装置及方法 |
RU2631977C1 (ru) * | 2016-11-28 | 2017-09-29 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" | Способ обнаружения механического воздействия для идентификации пользователя и устройство для его осуществления |
US10214221B2 (en) | 2017-01-20 | 2019-02-26 | Honda Motor Co., Ltd. | System and method for identifying a vehicle driver by a pattern of movement |
US10220854B2 (en) | 2017-01-20 | 2019-03-05 | Honda Motor Co., Ltd. | System and method for identifying at least one passenger of a vehicle by a pattern of movement |
CN106843737B (zh) * | 2017-02-13 | 2020-05-08 | 北京新美互通科技有限公司 | 文本输入方法、装置及终端设备 |
CN107219921B (zh) * | 2017-05-19 | 2019-09-27 | 京东方科技集团股份有限公司 | 一种操作动作执行方法及其系统 |
TWI657352B (zh) * | 2017-07-21 | 2019-04-21 | 中華電信股份有限公司 | 三維電容式穿戴人機互動裝置及方法 |
US20190087645A1 (en) * | 2017-09-15 | 2019-03-21 | PAG Financial International LLC | Real Time Selfie Pose Verification |
US11126705B2 (en) | 2017-11-09 | 2021-09-21 | Mastercard International Incorporated | Systems and methods for user authentication using word-gesture pairs |
WO2019120290A1 (zh) * | 2017-12-22 | 2019-06-27 | 北京市商汤科技开发有限公司 | 动态手势识别方法和装置、手势交互控制方法和装置 |
US10102415B1 (en) * | 2018-03-29 | 2018-10-16 | Secugen Corporation | Method and apparatus for simultaneous multiple fingerprint enrollment |
US11514813B2 (en) * | 2018-10-05 | 2022-11-29 | International Business Machines Corporation | Smart fitness system |
CN109409316B (zh) * | 2018-11-07 | 2022-04-01 | 极鱼(北京)科技有限公司 | 空中签名方法及装置 |
US10877568B2 (en) * | 2018-12-19 | 2020-12-29 | Arizona Board Of Regents On Behalf Of Arizona State University | Three-dimensional in-the-air finger motion based user login framework for gesture interface |
JP2020135306A (ja) * | 2019-02-18 | 2020-08-31 | セイコーエプソン株式会社 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
US11200305B2 (en) * | 2019-05-31 | 2021-12-14 | International Business Machines Corporation | Variable access based on facial expression configuration |
KR20190104929A (ko) * | 2019-08-22 | 2019-09-11 | 엘지전자 주식회사 | 사용자 인증과 기능 실행을 동시에 수행하는 방법 및 이를 위한 전자 디바이스 |
CN112825013A (zh) * | 2019-11-20 | 2021-05-21 | 百度在线网络技术(北京)有限公司 | 终端设备的控制方法和装置 |
EP3944107A1 (en) * | 2020-07-22 | 2022-01-26 | Nokia Technologies Oy | Apparatus, method and computer program for authenticating images |
CN112344409B (zh) * | 2020-10-29 | 2022-02-08 | 宁波方太厨具有限公司 | 一种智能吸油烟机 |
CN116466828B (zh) * | 2023-06-19 | 2023-08-18 | 无锡车联天下信息技术有限公司 | 一种智能座舱驾驶环境手势智能检测方法 |
CN116884130B (zh) * | 2023-08-29 | 2024-02-20 | 深圳市亲邻科技有限公司 | 一种基于体态识别的智能门禁控制方法和系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222361A (ja) * | 1999-02-04 | 2000-08-11 | Toshiba Corp | モーションを利用した認証方法及び装置 |
JP2002142255A (ja) * | 2000-10-31 | 2002-05-17 | Matsushita Electric Ind Co Ltd | 本人認証方法および通信端末装置 |
JP2007141002A (ja) * | 2005-11-18 | 2007-06-07 | Fujitsu Ltd | 個人認証方法、個人認証プログラムおよび個人認証装置 |
JP2009087111A (ja) * | 2007-10-01 | 2009-04-23 | Hochiki Corp | 受信機 |
JP2009104297A (ja) * | 2007-10-22 | 2009-05-14 | Mitsubishi Electric Corp | 操作入力装置 |
JP2011048665A (ja) * | 2009-08-27 | 2011-03-10 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2011065652A (ja) * | 2004-05-14 | 2011-03-31 | Honda Motor Co Ltd | サインに基づくマンマシンインタラクション |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5421453A (en) * | 1994-02-25 | 1995-06-06 | Minnesota Mining And Manufacturing Company | Compact disc package |
US6421453B1 (en) * | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) * | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
AU2003217587A1 (en) * | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
JP2005242694A (ja) * | 2004-02-26 | 2005-09-08 | Mitsubishi Fuso Truck & Bus Corp | ハンドパターンスイッチ装置 |
KR20070027629A (ko) * | 2004-06-29 | 2007-03-09 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 개인용 몸짓 서명 |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
KR101312625B1 (ko) * | 2006-11-03 | 2013-10-01 | 삼성전자주식회사 | 동작 추적 장치 및 방법 |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US20080170767A1 (en) * | 2007-01-12 | 2008-07-17 | Yfantis Spyros A | Method and system for gleason scale pattern recognition |
US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
CN101609362B (zh) * | 2008-06-19 | 2011-07-20 | 大同股份有限公司 | 以视讯为基础的游标控制装置及其控制方法 |
US9251407B2 (en) | 2008-09-04 | 2016-02-02 | Northrop Grumman Systems Corporation | Security system utilizing gesture recognition |
JP2010204730A (ja) * | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | ジェスチャーに応答して機器を制御するシステム |
KR20110003146A (ko) * | 2009-07-03 | 2011-01-11 | 한국전자통신연구원 | 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법 |
US8428368B2 (en) | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
US8693726B2 (en) | 2011-06-29 | 2014-04-08 | Amazon Technologies, Inc. | User identification by gesture recognition |
-
2011
- 2011-06-29 US US13/172,727 patent/US8693726B2/en active Active
-
2012
- 2012-06-27 WO PCT/US2012/044341 patent/WO2013003424A1/en active Application Filing
- 2012-06-27 EP EP12804986.3A patent/EP2727339A4/en not_active Ceased
- 2012-06-27 CN CN201280040682.8A patent/CN103733614B/zh active Active
- 2012-06-27 JP JP2014518945A patent/JP2014525081A/ja active Pending
-
2014
- 2014-04-07 US US14/247,013 patent/US9465982B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222361A (ja) * | 1999-02-04 | 2000-08-11 | Toshiba Corp | モーションを利用した認証方法及び装置 |
JP2002142255A (ja) * | 2000-10-31 | 2002-05-17 | Matsushita Electric Ind Co Ltd | 本人認証方法および通信端末装置 |
JP2011065652A (ja) * | 2004-05-14 | 2011-03-31 | Honda Motor Co Ltd | サインに基づくマンマシンインタラクション |
JP2007141002A (ja) * | 2005-11-18 | 2007-06-07 | Fujitsu Ltd | 個人認証方法、個人認証プログラムおよび個人認証装置 |
JP2009087111A (ja) * | 2007-10-01 | 2009-04-23 | Hochiki Corp | 受信機 |
JP2009104297A (ja) * | 2007-10-22 | 2009-05-14 | Mitsubishi Electric Corp | 操作入力装置 |
JP2011048665A (ja) * | 2009-08-27 | 2011-03-10 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016118910A (ja) * | 2014-12-19 | 2016-06-30 | 国立大学法人 鹿児島大学 | 認証処理装置及び認証処理方法、認証情報登録装置及び認証情報登録方法 |
WO2022269887A1 (ja) * | 2021-06-25 | 2022-12-29 | 京セラ株式会社 | ウェアラブル端末装置、プログラムおよび画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103733614B (zh) | 2017-04-26 |
EP2727339A1 (en) | 2014-05-07 |
US20130004016A1 (en) | 2013-01-03 |
US9465982B2 (en) | 2016-10-11 |
WO2013003424A1 (en) | 2013-01-03 |
US8693726B2 (en) | 2014-04-08 |
EP2727339A4 (en) | 2015-03-25 |
CN103733614A (zh) | 2014-04-16 |
US20140219515A1 (en) | 2014-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9465982B2 (en) | User identification by gesture recognition | |
US9921659B2 (en) | Gesture recognition for device input | |
JP6129879B2 (ja) | 多次元入力のためのナビゲーション手法 | |
US8891868B1 (en) | Recognizing gestures captured by video | |
US8902198B1 (en) | Feature tracking for device input | |
US9207852B1 (en) | Input mechanisms for electronic devices | |
CN105980973B (zh) | 用户认证手势 | |
US8896522B2 (en) | User-centric three-dimensional interactive control environment | |
US8947351B1 (en) | Point of view determinations for finger tracking | |
Chan et al. | Leap motion controller for authentication via hand geometry and gestures | |
US10019107B2 (en) | Correcting for parallax in electronic displays | |
CN104364753A (zh) | 用于突出显示活动界面元素的方法 | |
CN110832433A (zh) | 基于传感器的组件激活 | |
Acien et al. | Active detection of age groups based on touch interaction | |
US20170344104A1 (en) | Object tracking for device input | |
US9652083B2 (en) | Integrated near field sensor for display devices | |
US10088924B1 (en) | Overcoming motion effects in gesture recognition | |
WO2019134606A1 (zh) | 终端的控制方法、装置、存储介质及电子设备 | |
Ellavarason | Touch-screen Behavioural Biometrics on Mobile Devices | |
Sankaradass et al. | Tracking and Recognizing Gestures using TLD for Camera based Multi-touch | |
Mock et al. | Learning Instead of Markers: Flexible Recognition of Mobile Devices on Interactive Surfaces | |
Padliya | Gesture Recognition and Recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150501 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150609 |