JP5718460B2 - 非接触ジェスチャー認識および電力低減のための方法および装置 - Google Patents

非接触ジェスチャー認識および電力低減のための方法および装置 Download PDF

Info

Publication number
JP5718460B2
JP5718460B2 JP2013515567A JP2013515567A JP5718460B2 JP 5718460 B2 JP5718460 B2 JP 5718460B2 JP 2013515567 A JP2013515567 A JP 2013515567A JP 2013515567 A JP2013515567 A JP 2013515567A JP 5718460 B2 JP5718460 B2 JP 5718460B2
Authority
JP
Japan
Prior art keywords
sensor
gesture
sensor data
processor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013515567A
Other languages
English (en)
Other versions
JP2013534009A5 (ja
JP2013534009A (ja
Inventor
チェン、アン・エム.
チェン、ヘン−ツ
ラズダン、アシュ
ブルラー、エリオット・ビー.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013534009A publication Critical patent/JP2013534009A/ja
Publication of JP2013534009A5 publication Critical patent/JP2013534009A5/ja
Application granted granted Critical
Publication of JP5718460B2 publication Critical patent/JP5718460B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Power Sources (AREA)

Description

関連出願への相互参照
本出願は、“非接触ジェスチャー認識のための方法および装置”と題し、2010年6月17日に出願された米国仮特許出願第61/355,923号、代理人ドケット番号102222P1と、“近接センサを使用する非接触ジェスチャー認識システム”と題し、2010年8月10日に出願された米国仮特許出願第61/372,177号とに対して優先権を主張し、これらのすべては、あらゆる目的のために参照によりここに組み込まれている。
背景
ワイヤレス通信技術における発展により、今日のワイヤレス通信デバイスの汎用性が多いに増加した。これらの発展により、ワイヤレス通信デバイスは、シンプルな移動体電話機およびページャを、マルチメディア録音および再生、イベントスケジューリング、ワード処理、e−コマース等のような、幅広いさまざまな機能が可能な精巧なコンピューティングデバイスへと進化させた。結果として、今日のワイヤレス通信デバイスのユーザは、従来複数のデバイスまたはより大きなノンポータブル機器のいずれかを必要とした広い範囲のタスクを単一のポータブルデバイスから実行できる。
ワイヤレス通信デバイスの精巧化が増進していることから、このようなデバイスに入力を提供する、よりロバーストかつ直感的なメカニズムに対しての必要性も増加している。ワイヤレス通信デバイスの機能が著しく拡大するにつれて、それらのデバイスに関係するサイズの制約は、キーボード、マウス等のような、従来のコンピューティングシステムに関係する多くの入力デバイスを実用的ではないものにしている。
ワイヤレス通信デバイスのフォームファクタの制限を克服するために、いくつかの従来のデバイスは、ジェスチャー認識メカニズムを使用して、ユーザが、運動またはジェスチャーを介してデバイスに入力を提供できるようにする。従来のジェスチャー認識メカニズムは、さまざまなカテゴリに分類できる。運動ベースのジェスチャー認識システムは、ユーザにより保持されている外部制御装置の動きに基づいてジェスチャーを解釈する。タッチベースシステムは、タッチパッド、タッチスクリーンまたはそれらに類するものの上に接触ポイントの位置をマッピングし、それから、マッピングされた位置に対する変化に基づいてジェスチャーを解釈する。視覚ベースのジェスチャー認識システムは、カメラおよび/またはコンピュータ視覚システムを利用して、ユーザによって行われる視覚的なジェスチャーを識別する。
概要
本開示にしたがった例示的な移動コンピューティングデバイスは、デバイスケーシングと、赤外線(IR)発光ダイオード(LED)およびIR近接センサを備える、3次元のユーザの動きに関連するデータを取得するように構成されているセンサシステムと、センサシステムに通信可能に結合され、3次元のユーザの動きに関連するデータに基づいて、デバイスに提供された入力ジェスチャーを識別するように構成されているジェスチャー認識モジュールと、センサシステムにより取得された3次元のユーザの動きに関連するデータの明確さと、ジェスチャー認識モジュールによる、入力ジェスチャーの正しい識別の可能性とを示す、デバイスのプロパティを識別し、デバイスのプロパティに基づいて、センサシステムのIR LEDまたはIR近接センサのうちの少なくとも1つの電力消費を規制するように構成されているセンサ制御装置モジュールとを具備する。
このような移動コンピューティングデバイスの実現は、以下のもののうちの1つ以上を含んでいてもよい。周辺光センサは、センサ制御装置モジュールに通信可能に結合され、デバイスが位置付けられているエリアの周辺光レベルを識別するように構成されており、センサ制御装置モジュールは、周辺光レベルにしたがってIR LEDの電力レベルを調節するようにさらに構成されている。アクティビティモニタモジュールは、センサ制御装置モジュールに通信可能に結合され、デバイスに関するユーザアクティビティのレベルを判定するように構成されており、センサ制御装置モジュールは、ユーザアクティビティのレベルにしたがってセンサシステムの電力消費を規制するようにさらに構成されている。
このような移動コンピューティングデバイスの実現は、加えて、または、代替的に、以下のもののうちの1つ以上を含んでいてもよい。センサ制御装置モジュールは、ユーザアクティビティのレベルが予め規定されているしきい値を下回ると判定された場合に、センサシステムをスロット動作モードにするようにさらに構成されている。センサシステムのIR LEDおよびIR近接センサは、デバイスケーシングの少なくとも2つの前向きのエッジ上に位置付けられており、デバイスのプロパティは、デバイスの向きを含み、センサ制御装置モジュールは、デバイスの向きに基づいて、デバイスケーシングの少なくとも1つの前向きのエッジ上に位置付けられているIR LEDおよびIR近接センサを選択的にアクティブ化するようにさらに構成されている。デバイスケーシングは、デバイスケーシングの少なくとも1つの前向きのエッジに沿って位置付けられ、IR透過型マテリアルによりカバーされている開口を提供し、センサシステムのIR LEDまたはIR近接センサのうちの1つは、デバイスシーケンスにより提供される開口のそれぞれの後ろに位置付けられている。センサシステムのIR LEDおよびIR近接センサは、デバイスケーシング中に位置付けられており、IRLEDおよびIR近接センサがライザーによりデバイスケーシングの表面に向かって引き上げられるように、センサシステムは、IR LEDおよびIR近接センサにそれぞれ結合されているライザーをさらに備える。
さらに、このような移動コンピューティングデバイスの実現は、加えて、または、代替的に、以下のもののうちの1つ以上を含んでいてもよい。フレーミングモジュールは、センサシステムに通信可能に結合され、センサシステムにより取得されたデータをフレーム間隔に分割するように構成されており、特徴抽出モジュールは、フレーミングモジュールおよびセンサシステムに通信可能に結合され、センサシステムにより取得されたデータから特徴を抽出するように構成されており、ジェスチャー認識モジュールは、フレーミングモジュールおよび特徴抽出モジュールに通信可能に結合され、センサシステムにより取得されたデータから抽出された特徴に基づいて、フレーム間隔のそれぞれ1つに対応する入力ジェスチャーを識別するように構成されている。ジェスチャー認識モジュールは、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、入力ジェスチャーを識別するようにさらに構成されている。センサシステムは、複数の動いているオブジェクトを参照して、3次元のユーザの動きに関連するデータを取得するように構成されている。
本開示にしたがった、コンピューティングデバイスに対するジェスチャーベースの入力メカニズムを管理する方法の例は、ジェスチャーベースの入力メカニズムにより実行されるジェスチャー分類の精度に関連する、コンピューティングデバイスのパラメータを識別することと、コンピューティングデバイスのパラメータに基づいて、ジェスチャーベースの入力メカニズムの少なくともIR LEDまたはIR近接センサの電力消費レベルを管理することとを含む。
このような方法の実現は、以下のもののうちの1つ以上を含んでいてもよい。識別することは、コンピューティングデバイスに関係するエリアの周辺光レベルを識別することを含み、管理することは、周辺光レベルにしたがってIR LEDの電力レベルを調節することを含む。識別することは、ジェスチャーベースの入力メカニズムを介しての、コンピューティングデバイスとのユーザインタラクションのレベルを判定することを含み、管理することは、ユーザインタラクションのレベルをしきい値と比較することと、ユーザインタラクションのレベルがしきい値を下回る場合に、ジェスチャーベースの入力メカニズムを電力セービングモードにすることとを含む。識別することは、コンピューティングデバイスの向きを識別することを含み、管理することは、コンピューティングデバイスの向きに基づいて、IR LEDまたはIR近接センサをアクティブ化またはデアクティブ化することを含む。ジェスチャーベースの入力メカニズムからセンサデータを取得すること、センサデバイスを時間で分割し、それにより、それぞれのフレーム間隔を取得すること、センサデータから特徴を抽出すること、センサデータから抽出された特徴に基づいて、フレーム間隔のそれぞれ1つ中で表されているジェスチャーを分類すること。分類することは、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、フレーム間隔のそれぞれ1つ中で表されているジェスチャーを分類することを含む。取得することは、複数の動いているオブジェクトに関連するセンサデータを取得することを含む。
本開示にしたがった、別の移動コンピューティングデバイスの例は、デバイスとのユーザインタラクションに関連するIR光ベースの近接センサデータを取得するように構成されているセンサ手段と、センサ手段に通信可能に結合され、近接センサデータ中に表されている入力ジェスチャーを識別することにより、近接センサデータを分類するように構成されているジェスチャー手段と、センサ手段に通信可能に結合され、デバイスのプロパティを識別し、デバイスのプロパティに基づいて、センサ手段の少なくとも一部の電力消費を管理するように構成されている制御装置手段とを具備する。
このような移動コンピューティングデバイスの実現は、以下のもののうちの1つ以上を含んでいてもよい。制御装置手段は、デバイスに関係するエリアにおける周辺光レベルを測定し、周辺光レベルに基づいて、センサ手段の少なくとも一部の電力消費を調節するようにさらに構成されている。制御装置手段は、デバイスとのユーザインタラクションの範囲を判定、デバイスとのユーザインタラクションの範囲にしたがってセンサ手段の少なくとも一部の電力消費を調節するようにさらに構成されている。制御装置手段は、デバイスとのユーザインタラクションが時間間隔内にセンサ手段により識別されなかったと判定された場合に、センサ手段を電源オフするようにさらに構成されている。制御装置手段は、デバイスとのユーザインタラクションの範囲がしきい値を下回る場合に、センサ手段を電力セーブ動作モードにするようにさらに構成されている。センサ手段は、複数のセンサエレメントを備え、制御装置手段は、デバイスの向きに基づいて、複数のセンサエレメントのうちの1つ以上を選択的にアクティブ化するようにさらに構成されている。
本開示にしたがったコンピュータプログラムプロダクトの例は、一時的ではないプロセッサ読取可能媒体上に存在し、プロセッサ読取可能命令を含む。プロセッサ読取可能命令は、IR LEDからの光の反射を測定する、移動デバイスに関係するIR近接センサから、3次元のユーザの動きデータをプロセッサに取得させ、3次元のユーザの動きデータに関係する1つ以上のジェスチャーをプロセッサに検出させ、3次元のユーザの動きデータの精度を示す、移動デバイスのプロパティをプロセッサに識別させ、移動デバイスのプロパティに基づいて、IR LEDおよびIR近接センサのうちの少なくとも一部の電力使用量をプロセッサに規制させるように構成されている。
このようなコンピュータプログラムプロダクトの実現は、以下のもののうちの1つ以上を含んでいてもよい。移動デバイスのパラメータは、移動デバイスに関係するエリアにおける周辺光レベルを含む。移動デバイスのパラメータは、移動デバイスとのユーザインタラクションのヒストリを含む。移動デバイスのパラメータは、移動デバイスの向きを含む。1つ以上のジェスチャーをプロセッサに検出させるように構成されている命令は、それぞれのフレーム時間間隔にしたがって、3次元のユーザの動きデータをプロセッサにグループ化させ、3次元のユーザの動きデータから特徴をプロセッサに抽出させ、3次元のユーザの動きデータから抽出された特徴に基づいて、フレーム時間間隔のそれぞれ1つ内で提供される入力ジェスチャーをプロセッサに識別させるようにさらに構成されている。入力ジェスチャーをプロセッサに識別させるように構成されている命令は、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、入力ジェスチャーをプロセッサに識別させるようにさらに構成されている。
ここで記述したアイテムおよび/または技術は、以下の機能のうちの1つ以上とともに、言及していない他の機能を提供してもよい。非接触ジェスチャー認識は、近接センサを使用してサポートできる。3次元ジェスチャーをリアルタイムで利用および分類できる。ジェスチャー認識に関係するエネルギー消費は、より高い粒度により低減および/または制御できる。ユーザとタッチ面との間の接触の頻度を低減させ、タッチ面の摩耗を軽減させ、細菌の発生および移動を低減させることができる。近接センサは、関係するデバイスの美しさを向上させるために、センサに優しいマテリアルでカバーできる。近接センサおよび関係するエミッターを、周辺光、意図していない光の分散、および、他の要因からの干渉に対して非常に強いものにすることができる。少なくとも1つのアイテム/技術効果の対を記述しているが、言及した効果を言及した手段とは別の手段により達成することが可能であってもよく、言及したアイテム/技術は、必ずしも言及した効果を生じさせる必要はない。
図1は、移動局のコンポーネントのブロックダイヤグラムである。 図2は、図1中に示されている移動局の部分的な機能ブロックダイヤグラムである。 図3は、ワイヤレス通信デバイスに関係する入力センサシステムを規制するシステムの部分的な機能ブロックダイヤグラムである。 図4は、ジェスチャー認識に用いられる近接センサの図解である。 図5は、移動デバイスに関係するジェスチャー認識メカニズムにより認識および解釈できる例示的なジェスチャーの図解である。 図6は、図1中に示されている移動局の代替的なブロックダイヤグラムである。 図7は、移動デバイスに関係するジェスチャー認識メカニズムにより認識および解釈できるさらなる例示的なジェスチャーの図解である。 図8は、移動デバイスに関係するジェスチャー認識メカニズムにより認識および解釈できるさらなる例示的なジェスチャーの図解である。 図9は、移動デバイスに関係するジェスチャー認識メカニズムにより認識および解釈できるさらなる例示的なジェスチャーの図解である。 図10は、移動デバイスに関係するジェスチャー認識メカニズムにより認識および解釈できるさらなる例示的なジェスチャーの図解である。 図11は、非接触ジェスチャー認識システムの部分的な機能ブロックダイヤグラムである。 図12は、非接触ジェスチャー認識システムの代替的、部分的な機能ブロックダイヤグラムである。 図13は、判定木ベースのジェスチャー分類のための技術を図示するフローチャートである。 図14は、判定木ベースのジェスチャー分類のための代替的な技術を図示するフローチャートである。 図15は、移動デバイスに対するジェスチャー認識のプロセスのブロックフローダイヤグラムである。 図16は、非接触ジェスチャー認識のために実現される近接センサ構成の図解である。 図17は、非接触ジェスチャー認識システムに対する代替的な近接センサ配置の図解である。 図18は、非接触ジェスチャー認識システムに対する追加の代替的な近接センサ配置の図解である。 図19は、非接触ジェスチャー認識システムに対するさまざまな近接センサ構成の図解である。 図20は、非接触ジェスチャー認識システムを管理するプロセスのブロックフローダイヤグラムである。
詳細な説明
非接触ジェスチャー認識を介して、ワイヤレス通信デバイスへの入力を管理する技術をここに説明する。非接触ジェスチャー認識システムは、ハンドジェスチャーの検出および認識のために、赤外線(IR)発光体およびIR近接センサを利用する。システムは、3次元ジェスチャーを実質的にリアルタイムマナーで認識、抽出および分類し、これにより、移動デバイスとの間で直感的なユーザインタラクションを可能にする。システムをジェスチャーインターフェースとして使用して、ユーザは、eブックページをめくる、ウェブページをスクロールする、ズームインおよびアウト、ゲームをする等の、このようなアクションを、何らかの追加のデバイスに接触する、身につける、または、ホールドすることなく、直感的なハンドジェスチャーを使用する移動デバイス上で実行できる。さらに、ここに記述する技術は、ユーザの移動デバイスとの接触の頻度を低減させ、デバイス面上の摩耗を軽減させる。加えて、周辺光条件、実行しているアプリケーション、予期されるユーザ入力の有無、または、非接触ジェスチャー認識を用いる移動デバイスに関連する他のパラメータに基づいて、IRエミッターおよび/または近接センサの動作を制御することにより、ジェスチャー認識に関係する電力消費を低減する技術を説明する。これらの技術は、単に例示的なものであって、本開示または特許請求の範囲を制限するものではない。
図1を参照すると、デバイス10(例えば、移動デバイスまたは他の適切なコンピューティングデバイス)は、プロセッサ12と、ソフトウェア16を含むメモリ14と、入力/出力デバイス18(例えば、ディスプレイ、スピーカ、キーパッド、タッチスクリーンまたはタッチパッド等)と、1つ以上のセンサシステム20とを含むコンピュータシステムを備える。ここで、プロセッサ12は、例えば、インテル(登録商標)コーポレイションまたはAMD(登録商標)により作られたそれらのような、中央処理ユニット(CPU)、マイクロ制御装置、特定用途向け集積回路(ASIC)等である、インテリジェントハードウェアデバイスである。メモリ14は、ランダムアクセスメモリ(RAM)およびリードオンリーメモリ(ROM)のような、一時的ではない記憶媒体を含む。加えて、または、代替的に、メモリ14は、例えば、フロッピー(登録商標)ディスク、ハードディスク、CD−ROM、ブルーレイ(登録商標)ディスク、他の何らかの光学媒体、EPROM、FLASH−EPROM、他の何らかのメモリチップもしくはカートリッジを含む、一時的ではない記憶媒体、あるいは、コンピュータが命令および/またはコードを読み取ることができる他の何らかの一時的ではない媒体の1つ以上の物理的および/または有形の形態を含めることができる。メモリ14はソフトウェア16を記憶し、ソフトウェア16は、実行されるときに、ここに記述するさまざまな機能をプロセッサ12に実行させるように構成されている命令を含む、コンピュータ読取可能であって、コンピュータ実行可能なソフトウェアコードである。代替的に、ソフトウェア16は、プロセッサ12によって直接実行可能ではないかもしれないが、例えば、コンパイルおよび実行されるときに、機能をコンピュータに実行させるように構成されている。
センサシステム20は、1つ以上のオブジェクト(例えば、ユーザの手等)のデバイス10への近接とともに、このようなオブジェクトの時間にわたる近接に対する変化に関連するデータを収集するように構成されている。図2も参照すると、センサシステム20は、ユーザジェスチャーを検出、認識および分類するように構成されている1つ以上のジェスチャー認識モジュール24に関連して利用される。検出および分類されたジェスチャーは、入力管理モジュール26に提供され、入力管理モジュール26は、I/Oデバイス18から受け取った他の入力との組み合わせで、または、I/Oデバイス18から受け取った他の入力とは無関係に利用される基本コマンドに、デバイス10に関係するさまざまなモジュールまたはシステムによって、ジェスチャーをマッピングする。例えば、入力管理モジュール26は、アプリケーション30、オペレーションシステム32、通信モジュール34、マルチメディアモジュール36、および/または、デバイス10により実行される他の何らかの適切なシステムもしくはモジュールへの入力を制御できる。
さらに、センサ制御装置モジュール22を実現して、デバイス10のパラメータに基づいて、センサシステム20の動作を制御する。例えば、デバイスの向き、周辺光条件、ユーザアクティビティ等に基づいて、センサ制御装置モジュール22は、図3により示されているような、センサシステム20、および/または、センサシステム20の個々のコンポーネント(例えば、IRエミッター、IRセンサ等)のうちの少なくともいくつかの電力レベルを制御できる。ここで、センサ制御装置モジュール22は、それぞれのセンサシステム20の電力レベルを管理する1つ以上のセンサ電力制御モジュール40を実現する。例えば、周辺光センサ42は、デバイス10のロケーションにおける周辺光の強度を測定するために、光センサおよび/または他のメカニズムを利用できる。センサ電力制御モジュール40は、これらの測定を利用し、例えば、実質的に高い周辺光レベルが検出されるときに、1つ以上のセンサシステム20の電力レベルを増加させることにより、または、低い周辺光レベルが検出されるときに、1つ以上のセンサシステム20の電力レベルを下げることにより、光をそれに応じて調節できる。
別の例として、センサシステム20を介しての入力を利用する、概してデバイス10、および/または、デバイス10により実現される特定のアプリケーション30との関連で、アクティビティモニタ44は、デバイス10とのユーザインタラクションの範囲に関連する情報を収集できる。センサ電力制御モジュール40は、その後、ユーザアクティビティレベルにしたがってセンサシステム20の電力レベルを調節することにより、例えば、アクティビティが増加するにつれて電力を増加させること、または、アクティビティが減少するにつれて電力を減少させることにより、この情報を利用できる。ユーザが、所定の時間量内に、センサシステム20を介してのジェスチャー入力を提供しない、1つ以上のジェスチャー認識アプリケーションがデバイス10において開かれていない、デバイス10がアイドルモードで動作している、および/または、他のトリガになる条件が満たされているようなイベントでは、センサ電力制御モジュール40は、加えて、1つ以上のジェスチャー認識アプリケーションが開かれるまで、および/または、デバイス10に関するユーザアクティビティが増加するまで、1つ以上のセンサシステム20をスロットモードまたは別の電力セービングモードにすることができる。
周辺光センサ42およびアクティビティモニタ44により提供された情報に加えて、センサ電力制御モジュール40は、他の何らかの適切なパラメータまたはメトリックに基づいて、センサシステム20の電力レベルを調節するように動作可能である。例えば、接近するユーザが識別されるときに、いずれのセンサ電力制御モジュール40がセンサシステム20への電力を増加させることができるかに基づいて、デバイス10において、カメラおよび/またはコンピュータ視覚システムを用いることができる。別の例として、センサ電力制御モジュール40は、(例えば、加速度計、ジャイロスコープ、および/または、他の向き感知デバイスから収集された情報を介して)デバイス10の向きを監視し、その向きにしたがって、デバイス10に関係するそれぞれのセンサシステム20をアクティブ化および/またはデアクティブ化できる。センサ電力制御モジュール40により、デバイス10の他のパラメータもまた使用可能である。
センサシステム20により、デバイス10がジェスチャーベースのインターフェースを使用することが可能になり、これにより、ユーザがコマンドを指定して、コンピュータとインタラクションするための直感的な方法を提供する。直感的なユーザインターフェースは、より多くの人による、さまざまなレベルの技術的な能力の使用、ならびに、サイズおよびリソースの制約を受けるデバイスとの使用を促進する。
既存のジェスチャー認識システムは、3つのタイプに分類できる。運動ベース、タッチベースおよび視覚ベースのシステムである。運動ベースのジェスチャー認識システムは、ユーザにより保持されている外部制御装置の動きに基づいてジェスチャーを解釈する。しかしながら、ユーザは、外部制御装置を保持または着用していない限り、ジェスチャーを提供できない。タッチベースシステムは、タッチパッド、タッチスクリーンまたはそれらに類するものの上に接触ポイントの位置をマッピングし、それから、マッピングされた位置への変化に基づいてジェスチャーを解釈する。タッチベースシステムの特質により、これらは、すべての可能性あるジェスチャーが2次元タッチ面内に限られることから、3次元ジェスチャーをサポートできない。さらに、タッチベースシステムでは、ユーザが、入力を提供するために、タッチ面に接触する必要があり、これにより、利用可能性を低減させ、タッチ面およびその関係するデバイスへの摩耗を増加させる。視覚ベースのジェスチャー認識システムは、カメラおよび/またはコンピュータ視覚システムを利用して、ユーザによって行われる視覚的なジェスチャーを識別する。視覚ベースシステムでは、ユーザが入力デバイスに接触する必要がない一方、視覚ベースシステムは、典型的に、高い計算の複雑性および電力消費に関係しており、これは、タブレットまたは移動体電話のような、リソースが制限されている移動デバイスにとって望ましくない。
ここで記述する技術は、非接触ジェスチャー認識を提供する。技術は、ハンドジェスチャーを検出、認識および分類し、関係するコンピューティングデバイスアプリケーションにより予期されるコマンド中にジェスチャーをマッピングするアルゴリズムの他に、IR光、例えば、IR発光ダイオード(LED)、および、IR近接センサを用いる。
非接触ジェスチャー認識システムの動作のコンセプトの例を図4中に図示している。ダイヤグラム50および52中で示しているように、ユーザは、“右スワイプ”ジェスチャーを実行するために、コンピューティングデバイスの前で左から右へ手を動かしている。この“右スワイプ”は、eリーダーアプリケーションのためのページめくり、および/または、ここでさらに記述する他の何らかの適切な動作を表すことが可能である。
センサシステム、センサ制御モジュール22、および/または、ここで記述する他のメカニズムを備えるジェスチャー認識システム20は、必ずしもそうではないが、好ましくは、以下の機能を提供する。第1に、システムは、ジェスチャーの境界を自動的に検出できる。ジェスチャー認識の共通の課題は、ジェスチャーの開始および終了の不確定性である。例えば、ユーザは、キーを押すことなく、ジェスチャーの存在を示すことができる。第2に、ジェスチャー認識システムは、実質的にリアルタイムマナーでジェスチャーを認識および分類できる。ジェスチャーインターフェースは、時間のかかる後処理が実行されないように、好ましくは、すぐに応答するように設計される。第3に、誤ったコマンドを実行することは、一般的に、コマンドをミスすることよりも悪いけれども、好ましくは、誤り検出が低減される。第4に、新たなユーザに対して、ユーザ依存モデルのトレーニングプロセスは用いられない。監視された学習は、特定のユーザに対する性能を向上させることができるが、トレーニングデータを収集することは、時間の消費であり、ユーザにとって望ましくないものであり得る。
図5は、ケース64の下に置かれている、IR LED60および近接センサ62を利用する、センサシステム20の例示的な例を示している。ケース64は、ガラス、プラスチックおよび/または別の適切なマテリアルからなる。ケースは、IR光が、実質的に自由に、光学ウィンドウ66を通り抜けることができるように構築されている光学ウィンドウ66を備える。光学ウィンドウ66は、例えば、ケース64と光学ウィンドウ66との間での均一な外観を促進するために、透明であることができ、あるいは、半透明またはそうでなければ光に優しい塗装、塗料もしくはマテリアルでカバーされることができる。ここでは、実質的に最適な光の放射および反射を提供するために、IR LED60および近接センサ62が位置付けられている。IR LED60から近接センサ62への直接的な光の流出を避けるために、IR LED60と近接センサ62との間に光吸収マテリアルからなる光学バリア68が置かれている。
図5はさらに、光を反射させて近接センサ62へと戻す、IR LED60の光のパスに近いオブジェクト70(例えば、手)を図示している。近接センサ62により検出されるIR光エネルギーは、1つ以上のいずれの適切なアクションが行われるかに基づいて測定される。例えば、どのオブジェクトもセンサシステムに十分に近くないと判定された場合に、測定される信号レベルは、予め定められているしきい値より下がり、アクションは記録されない。そうでなければ、以下でさらに詳細に説明するように、追加の処理が実行され、アクションを分類して、センサシステム20に関係する、デバイス10により予期される基本コマンドのうちの1つにアクションをマッピングする。
センサシステム20は、2つのIR LED60を代替的に備えることができ、2つのIR LED60は、時分割多重化を使用して、2つの別々のチャネルとして、IRストローブを順番に放射する。オブジェクト70がセンサシステム20に近づくとき、近接センサ62は、IR光の反射を検出し、IR光の強度は、オブジェクトの距離が減少するにつれて増加する。2つのIRチャネルの光の強度は、予め定められている周波数(例えば、100Hz)でサンプリングされる。
図6は、非接触ジェスチャー検出および認識を実現する、デバイス10によって実現できるさまざまなコンポーネントを図示している。デバイス10は、多数の周辺サブシステムに対する基本的な管理機能を提供する周辺機器インターフェース100を備える。これらのサブシステムは、近接感知サブシステム110を含み、近接感知サブシステム110は、近接センサ制御装置112、および、1つ以上の近接センサ62とともに、ディスプレイ制御装置122および他の入力制御装置124を含むI/Oサブシステム120を備える。ディスプレイ制御装置122は、ディスプレイシステム126を制御するように動作可能である一方、さまざまな入力デバイス128を管理するには他の入力制御装置124が使用される。周辺機器インターフェース100はさらに、1つ以上のIR LED60、周辺光センサ42、マイクロフォン134および/またはスピーカを制御するために利用されるオーディオ回路132、ならびに/あるいは、他のデバイスまたはサブシステムを制御する、IR LED制御装置130を管理する。周辺機器インターフェースは、データバス140を介して、プロセッサ12および制御装置142に結合されている。制御装置は、図6中に示されているハードウェアコンポーネントと、動作システム32、通信モジュール36、ジェスチャー認識モジュール144およびアプリケーション30を含む、さまざまなソフトウェアおよび/またはファームウェアモジュールとの間の媒体として機能する。
デバイス10上でそれぞれの基本コマンドをアクティブ化する方法として、デバイス10のユーザによって多数の直感的なハンドジェスチャーを利用できる。利用できる典型的なハンドジェスチャーの例は以下のものである。以下に続く例示的なジェスチャーは、しかしながら、徹底的なリストではなく、他のジェスチャーも可能性がある。デバイス10上およびデバイス10の右側におけるユーザの手によってジェスチャーを開始し、(例えば、本のページをめくるように)その手をデバイス10にわたり右から左へ素早く動かすことにより、左スワイプジェスチャーを実行できる。左スワイプジェスチャーは、例えば、書類を観覧する、ディスプレイを右へパンするとき等の、ページフォワードまたはページダウン動作のために使用できる。右スワイプジェスチャーは、ユーザの手を反対方向に動かすことにより実行でき、例えば、文書中でのページバックワードまたはページアップ動作、ディスプレイをパンすること、あるいは、これらに類するもののために利用できる。
デバイス10上およびデバイス10の下部におけるユーザの手によってジェスチャーを開始し、(例えば、クリップボード上でページをめくるように)その手をデバイス10にわたりデバイス10の下部から上部へ素早く動かすことにより、スワイプアップジェスチャーを実行できる。スワイプアップジェスチャーは、ディスプレイを上向きにパンすること等のために使用できる。ユーザの手を反対方向に動かすことにより実行できるスワイプダウンジェスチャーは、ディスプレイを下向きにパンするために、および/または、他の適切な動作のために利用できる。加えて、ユーザの手をデバイス10に向かって、垂直に下に素早く動かすことにより実行できるプッシュジェスチャーと、ユーザの手をデバイス10から離れて、垂直に上に素早く動かすことにより実行できるプルジェスチャーとを、ディスプレイ拡大レベルを制御するために(例えば、ズームインするためにプッシュし、ズームアウトするためにプルする等)、または、他の適切な使用のために利用できる。
図7〜10は、デバイス10に対する所定のコマンドに関係して実行できる、さまざまなハンドジェスチャーの追加の図示を提供している。図7〜10により示しているように、多数のハンドジェスチャーが、同一のコマンドに直感的にマッピングされることができることから、1つより多いジェスチャーを同一の機能に割り当てることができる。実行しているアプリケーションに依存して、所定のコマンドにマッピングするハンドジェスチャーのうちの1つ、いくつか、または、すべてを利用できる。
図7を特に参照すると、ダイヤグラム300および302は、それぞれ、上述した右スワイプジェスチャーおよび左スワイプジェスチャーを図示している。ダイヤグラム304は、ユーザの手を反時計回りの動きで回転させることにより実行される右回転ジェスチャーを図示している一方、ダイヤグラム306は、ユーザの手を時計回りの動きで回転させることにより実行される左回転ジェスチャーを図示している。ダイヤグラム308および310は、それぞれ、上述したスワイプダウンジェスチャーおよびスワイプアップジェスチャーを図示している。ダイヤグラム312は、ユーザの手を時計回りの動きで動かすことにより(すなわち、ユーザの手を左回転ジェスチャーにおいて時計回りに回転するのとは対照的に)実行されるやり直しジェスチャーを図示しており、ダイヤグラム314は、ユーザの手を反時計回りの動きで動かすことにより実行される取り消しジェスチャーを図示している。
図8中で示しているように、ユーザの手全体の動きを必要とすることとは対照的にユーザの指を動かすことにより、図7中で図示したそれらと類似するジェスチャーを実行できる。したがって、ダイヤグラム316により図示している右スワイプジェスチャー、ダイヤグラム318により図示している左スワイプジェスチャー、ダイヤグラム320により図示している右回転ジェスチャー、ダイヤグラム322により図示している左回転ジェスチャー、ダイヤグラム324により図示しているスワイプダウンジェスチャー、ダイヤグラム326により図示しているスワイプアップジェスチャー、ダイヤグラム328により図示しているやり直しジェスチャー、および、ダイヤグラム330により図示している取り消しジェスチャーは、図7により図示したそれぞれの対応するジェスチャーでユーザの手を動かした方法と類似した方法でユーザの指を動かすことにより実行できる。
図9は、ズームインジェスチャーおよびズームアウトジェスチャーを実行できるさまざまな方法を図示している。ダイヤグラム332は、ユーザの手をセンサシステム20の前に置き、ユーザの指を外側へ動かすことにより、ズームアウトジェスチャーを実行できることを図示している。反対に、ダイヤグラム334は、ユーザの指をつまむ動きで一緒に合わせることにより、ズームインジェスチャーを実行できることを図示している。ダイヤグラム336および338は、ユーザの手または指をセンサシステム20の前でらせんの動きで動かすことにより、ズームインジェスチャーおよび/またはズームアウトジェスチャーを実行できることを図示している。ダイヤグラム340および342は、ユーザの指を(ズームインするために)一緒に、または、(ズームアウトするために)離して動かすことにより、ズーミングを制御できることを図示している一方で、ダイヤグラム344および346は、ユーザの手を動かすことにより、類似したズームインジェスチャーおよびズームアウトジェスチャーを実行できることを図示している。ダイヤグラム332および334によりそれぞれ図示しているジェスチャーにおけるズームアウトおよびズームインは、図10中のダイヤグラム348および350によりそれぞれ図示しているように、2つの手にさらに拡張できる。図10のダイヤグラム352および354はさらに、ユーザの手の側面がセンサシステム20に向くように、ユーザの手をセンサシステム20にわたって動かすことにより、右スワイプジェスチャーおよび左スワイプジェスチャーを実行できることを図示している。
センサシステム20の動作は、図11により示しているように、感知サブシステム150、信号処理サブシステム156およびジェスチャー認識サブシステム170に細分できる。感知サブシステム150は、近接感知エレメント152および周辺光感知エレメント154を利用して、光の放射および検出の機能を実行する。検出した光エネルギーのレベルは、信号処理サブシステム156にパスされ、信号処理サブシステム156は、データプリプロセッサ158を介してのエネルギーレベルのフロントエンド前処理と、データバッファ160を介してのデータバッファリングと、フレーミングブロック162を介してのデータをフレームにチャンキングすることと、特徴抽出ブロック164を介しての関連する特徴の抽出とを実行する。信号処理サブシステム156は、感知サブシステム150から受信した、周辺光レベルに関連するデータを処理する周辺光分類ブロック166をさらに備える。ジェスチャー認識サブシステム170は、さまざまなジェスチャー認識アルゴリズム174を適用して、信号処理サブシステム156により識別される特徴に対応するジェスチャーを分類する。フレームデータヒストリ172および/またはジェスチャーヒストリデータベース176からのジェスチャー履歴データは、認識レートを向上させるために使用でき、システムが継続的に学び、性能を向上できるようにする。
ジェスチャー認識サブシステム170の一般的なフレームワークを図12中に示している。近接センサデータは、最初に、近接センサデータをさらなる処理のためにフレームに分割するフレーミングブロック162に提供される。それぞれのジェスチャーの開始および終了がユーザによって特定されないことから、ジェスチャー認識サブシステム170は、フレーミングブロック162の補助とともに、ムービングウィンドウを利用して、近接センサデータをスキャンし、ジェスチャーシグニチャを観測するか否かを判定できる。ここで、データは、50%のオーバーラップで、特定された持続期間(例えば、140ms)のフレームに分割される。フレーミングの後、相互相関モジュール180、線形回帰モジュール182および信号統計モジュール184は、センサデータのフレームをスキャンし、予め規定されているジェスチャーを観測するか否かを判定できる。これらのジェスチャーの信号シグニチャを区別するために、これらのモジュールは、以下のように、各フレームから3つのタイプの特徴を抽出する。
相互相関モジュール180は、近接センサデータのうち2つのチャネル間でのペアでの時間遅延を測定する、チャネル間時間遅延を抽出する。チャネル間時間遅延は、ユーザの手が、異なる瞬間において、近接センサにどのように近づいているかを特徴付け、これは、ユーザの手の異なる移動方向に対応する。時間遅延は、2つの離散的信号シーケンスの相互相関値にわたる極大を見つけることにより計算される。詳細には、時間遅延tDは、以下のように、2つの離散的信号シーケンスfおよびgの相互相関値にわたる極大を生じさせる、時間シフトnを見つけることにより計算できる。
Figure 0005718460
線形回帰モジュール182は、フレーム内の信号セグメントのローカルなスロープを推定する、スロープのローカルな合計を抽出する。スロープのローカルな合計は、ユーザの手が近接センサに向かって、または、近接センサから離れて動く際のスピードを示している。スロープは、線形回帰、例えば、1次線形回帰により計算される。さらに、線形回帰の結果は、突然の変化とは反対に、スロープの継続的な傾向を捕捉するために、前のフレームに対して計算したスロープとともに合計されてもよい。
信号統計モジュール184は、現在のフレームの平均および標準偏差と前のフレームのヒストリとを抽出する。例えば、ジェスチャーが存在するときに、高分散を観測できる一方で、ユーザの手が存在しない、または、存在するが動いていないときに、低分散を観測できる。
特徴抽出の後に、ジェスチャー分類器188は、予め規定されているジェスチャーモデル186により提供されるジェスチャーとしてフレームを分類し、または、ジェスチャーが検索されなかったことを報告する。現在のフレーム中の信号特徴と、ジェスチャーヒストリデータベース176により提供される履歴データと、時間依存性計算ブロック190により判定される、連続するフレーム間の時間依存性とを分析することにより、最終判定が行われる。連続するフレーム間の時間依存性は、ユーザが急速にジェスチャーを変更する可能性が低いことから、ジェスチャー分類において利用できる。さらに、時間依存性計算ブロック190は、現在のフレーム上でアクトする前に、将来のフレームを分析するために、小さなバッファ(例えば、3フレーム)を維持できる。バッファのサイズを限定することにより、ユーザに顕著な遅延を課すことなく、時間依存性を維持できる。
ジェスチャー分類器は、図13中のプロセス200または図14中のプロセス220のような、判定木ベースの処理にしたがって動作できる。プロセス200および220は、しかしながら、単に例示的なものであって、限定するものではない。プロセス200および220は、例えば、ステージを追加、除去、再構成、組み合わせ、および/または、同時に実行することにより、変更できる。示し、記述したプロセス200および220への他の変更も可能である。
初めにプロセス200を参照すると、ブロック202において示しているように、近接センサデータの分散がしきい値より少ないか否かが初めに判定される。ブロック204において示しているように、分散がしきい値より少ない場合、ジェスチャーは検出されない。そうでなければ、ブロック206において、データに関係する時間遅延がしきい値より大きいか否かがさらに判定される。時間遅延がしきい値より大きい場合、ブロック208において、データのチャネル間遅延が分析される。左チャネルが右チャネルより遅れていることが見つかる場合、ブロック210において、右スワイプが検出される。代替的に、右チャネルが左チャネルより遅れている場合、ブロック212において、左スワイプが検出される。
時間遅延がしきい値より大きくない場合、プロセス200は、ブロック206からブロック214に進み、スロープのローカルな合計が上述したように計算される。合計がしきい値より大きい場合、ブロック216において、プッシュジェスチャーが検出される。合計がしきい値より小さい場合、ブロック218において、プルジェスチャーが検出される。そうでなければ、プロセス200はブロック204に進み、ジェスチャーは検出されない。
次にプロセス220を参照すると、ブロック202において、入力信号222の分散がしきい値と比較される。分散がしきい値より小さい場合、ブロック224において、入力信号222の平均が第2のしきい値と比較される。平均がしきい値を超える場合、ブロック226において、手の停止が検出され、そうでなければ、ブロック204において示しているように、ジェスチャーは検出されない。
ブロック202において、入力信号222の分散がしきい値より小さくない場合、プロセス220は、時間遅延が観測されるか否かに基づいて、ブロック228において分岐する。時間遅延が観測される場合、ブロック230において、左チャネルが遅延しているか否かがさらに判定される。左チャネルが遅延している場合、ブロック210において、右スワイプが検出され、そうでなければ、ブロック212において、左スワイプが検出される。
ブロック228において、時間遅延が観測されないイベントでは、ブロック232において、入力信号222に関係するスロープに関する追加の判定が行われる。スロープが0より大きい場合、ブロック216において、プッシュジェスチャーが検出される。スロープが0より大きくない場合、ブロック218において、プルジェスチャーが検出される。
判定木ベースのジェスチャー分類器のさらなる例が、図15中のプロセス240により図示されている。プロセス240は、しかしながら、単に例示的なものであって、限定するものではない。プロセス240は、例えば、ステージを追加、除去、再構成、組み合わせ、および/または、同時に実行することにより、変更できる。示し、記述したプロセス240への他の変更も依然として可能である。
ブロック244において示しているように、プロセスは、センサデータバッファ242から入力センサデータをロードすることにより開始する。ブロック246において、ロードされているフレームの現在の数がウィンドウサイズと比較される。ブロック244において、フレームの数が十分でない場合、より多くの入力センサデータがロードされる。そうでなければ、ブロック248において、(例えば、左および右IR近接センサに対応する)左および右チャネルの相互相関が計算される。ブロック250において、最大相関値を持つ時間遅延が見つけられる。ブロック252において、ロードされているセンサデータに対応するスロープが計算され、ブロック254において、センサデータの平均および標準偏差が計算される。次に、ブロック256において、ジェスチャーテンプレートモデル258を参照して、ブロック248〜254における計算に基づいてロードされたデータに対して、ジェスチャー分類が実行される。ブロック260において、ジェスチャーコマンドマッピング262に基づいて、ブロック256において識別されたジェスチャーに基づく適切なコマンドが生成される。ブロック264において、対応するジェスチャー認識プログラムが終了された場合、プロセス240が終了する。そうでなければ、プロセス240はブロック244に戻り、上述したステージを繰り返す。
ここで記述した適正な動作を促進するために、ハンドジェスチャーによる光の反射を検出および認識できるように、IR LEDおよびセンサをコンピューティングデバイス上に置くことができる。図16中で示しているように、プラスチックまたはガラスのケーシング64と、プリント基板(PCB)272との間に近接センサ62の例示的なセットを置くことができる。他のファクタの中で、PCB272上のコンポーネントの配置や、光が近接センサ62により検出できるようにするために、光がIR LEDから通り抜けることができ、光が反射して戻ることができるようにする、ケーシング64における開口の構造や、高い光の放射および吸収を提供する、(例えば、開口がない)ケーシング64に対して使用される塗装のタイプのようなファクタは、動き認識の信頼性を増加させることになる。
近接センサ62は、(例えば、ユーザの手または他のオブジェクト70に関する)ジェスチャー認識の性能に影響を与えるさまざまなファクタに基づいて、デバイス10において位置付けることができる。これらには、例えば、IR LEDと近接センサ62との間の水平距離、クリアランスに関する、IR LEDおよび近接センサの高さ、近接センサ62への意図していない光の分散等を含む。
高さ、および、IR LEDと近接センサ62との間の適正な距離の双方が、光の良好な放射および反射を可能にするように、センサを構成できる。図16および図17は、それぞれのセンサコンポーネントに対して、適正な高さを保証する技術を図示している。ここで、ライザー274はPCB272の上に置かれ、例えば、近接センサ62のようなコンポーネントは、ライザー274の上に取り付けられている。さらに、ケーシング64の表面は、光の放射および反射度のための小さな開口を備えることができ、または、代替的に、ケーシング64の表面にIRに優しい塗装を適用して、光が通り抜けられるようにすることができる。図16および図17中で示しているように、ライザー274上に近接センサを置くことにより、センサコンポーネントは、表面により近く動かされ、向上した放射および反射度を提供する。加えて、ライザー274は、(例えば、ケーシング64からはね返り戻った光により生じる)意図していない光の分散を緩和し、センサコンポーネントの電力消費を低減させる。
図18は、IR光および/またはセンサの周りにはと目276を置く、センサコンポーネントの配置に対する別のアプローチを示している。図18により示しているアプローチは、上述したライザー274の配置と組み合わせることができる。ここで、はと目276は、IR光の上にオブジェクトが置かれていないイベントにおいて、放射光のビーム(すなわち、角度)を集中させ、光がケースから反射してセンサへと戻る(それにより、性能を劣化させる)範囲を低減させるメカニズムを提供する。
図19は、デバイス10のようなコンピューティングデバイス上のセンサおよびIR LEDに対する多数の例示的な配置を図示している。図19中のさまざまな例は、コンピューティングデバイスのエッジに沿うさまざまな位置に置かれているセンサコンポーネントを示しているが、図19中で示している例は、配置の可能性ある構成の徹底的なリストではなく、コンピューティングデバイスの正面または裏面に沿う配置、および/または、コンピューティングデバイスから物理的に離れた配置を含む、他の配置も可能性がある。さまざまな基準にしたがって、コンピューティングデバイス上でのセンサコンポーネントのポジショニングおよび/またはスペーシングとともに、用いられるセンサコンポーネントの数を判定できる。例えば、選択された数のセンサコンポーネントは、センサが、1次元、2次元および3次元のジェスチャーを分類するために十分なカバレッジを提供するように、間隔をあけて配置できる。
所望のジェスチャーに依存して、センサおよび/またはIR LEDは、コンピューティングデバイスのすべてのエッジより少ないエッジに沿って選択的に置くことができる。例として、左および右スワイプのみが望まれる場合、デバイスがポートレートモードのみで使用されると仮定して、コンピューティングデバイスの下の端上におけるIR LEDおよびセンサの配置が妥当であると考えられてもよい。代替実施形態として、センサをコンピューティングデバイスの各エッジに沿って置くことができ、制御メカニズム(例えば、センサ制御装置モジュール22)は、コンピューティングデバイスの向きに基づいて、センサを選択的にアクティブ化またはデアクティブ化できる。したがって、上で提供した例の拡張として、デバイスの上および下のエッジに関係するセンサが、デバイスの向きに関わらずアクティブ化される一方、デバイスの左および右の端に関係するセンサはデアクティブ化されるように、センサ制御装置モジュール22は、コンピューティングデバイスに関係するセンサの動作を構成できる。この例は、関係するデバイスの向きに基づいて、センサをアクティブ化、デアクティブ化、または、そうでなければ、制御するために、センサ制御装置モジュール22により用いることができるさまざまな技術の単なる例示的なものに過ぎず、他の技術も可能である。
上述したジェスチャー認識技術に加えて、他の技術も依然として可能である。例えば、センサデータから追加の情報を取得するために、複数のセンサアレイを用いることができる。加えて、ビルディングブロックとして設定された基本的なジェスチャーを使用することにより、より多くの複合3次元ジェスチャーを基本的なジェスチャーの置換として認識できる。隠しマルコフモデルを使用して、ユーザにより実行されるジェスチャーシーケンスを学習することもできる。さらに、ここで記述した技術をアプリケーション特有な、または、ゲーム特有な使用ケースに適用することができる。
さらなる図1〜19への参照とともに、図20を参照すると、非接触ジェスチャー認識システムを管理するプロセス280は示しているステージを含む。プロセス280は、しかしながら、単に例示的なものであって、限定するものではない。プロセス280は、例えば、ステージを追加、除去、再構成、組み合わせ、および/または、同時に実行することにより、変更できる。示し、記述したプロセス280への他の変更も依然として可能である。
ステージ280において、IR LED60と近接センサ62とを備えるセンサシステム20のような、近接センサを装備するデバイスに関連するパラメータが監視される。メモリ14上に記憶されているソフトウェア16、および/または、近接センサに関係する他の何らかのメカニズムを実行するプロセッサ12により実現される、センサ制御装置モジュール22により、パラメータは監視される。ステージ282において監視できるパラメータは、これらに限定されないが、(例えば、周辺光センサ42により監視される)周辺光レベル、(例えば、アクティビティモニタ44により判定される)ユーザアクティビティレベル、デバイスの向き、デバイス上で現在実行しているアプリケーションおよび/または将来実行することが予期されるアプリケーションの識別、(例えば、カメラ、コンピュータ視覚システム等からのデータに基づいて判定される)ユーザのデバイスまでの近接、または、これらに類するものを含む。
ステージ284において、ステージ282において監視されたパラメータに基づいて、近接センサのうちの少なくとも1つの電力レベルが調節される。ステージ284において、メモリ14上に記憶されているソフトウェア16、および/または、近接センサに関係する他の何らかのメカニズムを実行するプロセッサ12により実現される、センサ電力制御モジュールにより、近接センサの電力レベルを調節できる。さらに、例えば、近接センサに関係するIR LED60の放射強度を修正すること、(例えば、近接センサがストローブモードで動作するケースにおいて)近接センサの、デューティーサイクルおよび/またはサンプリング頻度を修正することにより、それぞれの近接センサをアクティブ、インアクティブもしくはアイドルモードにすること等により、近接センサの電力レベルを調節できる。
他の技術も依然として可能である。
以下に、本願出願時の特許請求の範囲に記載された発明を付記する。
[1]移動コンピューティングデバイスにおいて、
赤外線(IR)発光ダイオード(LED)とIR近接センサとを備える、3次元のユーザの動きに関連するデータを取得するように構成されているセンサシステムと、
前記センサシステムに通信可能に結合され、前記センサシステムにより取得された前記3次元のユーザの動きに関連するデータの明確さと、前記3次元のユーザの動きに関する正しい入力ジェスチャー識別の可能性とを示す、前記デバイスのプロパティを識別し、前記デバイスのプロパティに基づいて、前記センサシステムの前記IR LEDまたは前記IR近接センサのうちの少なくとも1つの電力消費を規制するように構成されているセンサ制御装置モジュールとを具備する移動コンピューティングデバイス。
[2]前記センサ制御装置モジュールに通信可能に結合され、前記デバイスが位置付けられているエリアの周辺光レベルを識別するように構成されている周辺光センサをさらに具備し、
前記センサ制御装置モジュールは、前記周辺光レベルにしたがって前記IR LEDの電力レベルを調節するようにさらに構成されている[1]記載のデバイス。
[3]前記センサ制御装置モジュールに通信可能に結合され、前記デバイスに関するユーザアクティビティのレベルを判定するように構成されているアクティビティモニタモジュールをさらに具備し、
前記センサ制御装置モジュールは、前記ユーザアクティビティのレベルにしたがって前記センサシステムの前記電力消費を規制するようにさらに構成されている[1]記載のデバイス。
[4]前記センサ制御装置モジュールは、前記ユーザアクティビティのレベルが予め規定されているしきい値を下回ると判定され場合に、前記センサシステムをスロット動作モードにするようにさらに構成されている[3]記載のデバイス。
[5]前記デバイスは、少なくとも2つの前向きのエッジを具備し、前記センサシステムのIR LEDおよびIR近接センサは、前記デバイスの前記前向きのエッジのうちの少なくとも2つ上に位置付けられており、前記デバイスのプロパティは、前記デバイスの向きを含み、前記センサ制御装置モジュールは、前記デバイスの前記向きに基づいて、前記デバイスの前記前向きのエッジのうちの少なくとも1つ上に位置付けられているIR LEDおよびIR近接センサを選択的にアクティブ化するようにさらに構成されている[1]記載のデバイス。
[6]前記デバイスは、
少なくとも1つの前向きのエッジと、
前記少なくとも1つの前向きのエッジに沿って位置付けられている1つ以上の開口とをさらに具備し、
前記1つ以上の開口は、IR透過型マテリアルによりカバーされており、前記センサシステムのIR LEDまたはIR近接センサのうちの1つは、前記1つ以上の開口のそれぞれの後ろに位置付けられている[1]記載のデバイス。
[7]前記センサシステムは、前記IR LEDおよび前記IR近接センサがライザーにより引き上げられるように、前記センサシステムは、前記IR LEDおよび前記IR近接センサにそれぞれ結合されている前記ライザーをさらに備える[1]記載の方法。
[8]前記センサシステムに通信可能に結合され、前記センサシステムにより取得された前記データをフレーム間隔に分割するように構成されているフレーミングモジュールと、
前記フレーミングモジュールおよび前記センサシステムに通信可能に結合され、前記センサシステムにより取得された前記データから特徴を抽出するように構成されている特徴抽出モジュールと、
前記センサシステムと前記フレーミングモジュールと前記特徴抽出モジュールとに通信可能に結合され、前記センサシステムにより取得された前記データから抽出された前記特徴に基づいて、前記フレーム間隔のそれぞれ1つに対応する入力ジェスチャーを識別するように構成されているジェスチャー認識モジュールとをさらに具備する[1]記載のデバイス。
[9]前記ジェスチャー認識モジュールは、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、前記入力ジェスチャーを識別するようにさらに構成されている[8]記載のデバイス。
[10]前記センサシステムは、複数の動いているオブジェクトを参照して、前記3次元のユーザの動きに関連する前記データを取得するように構成されている[1]記載のデバイス。
[11]コンピューティングデバイスに対するジェスチャーベースの入力メカニズムを管理する方法において、
前記ジェスチャーベースの入力メカニズムにより実行されるジェスチャー分類の精度に関連する、前記コンピューティングデバイスのパラメータを識別することと、
前記コンピューティングデバイスの前記パラメータに基づいて、前記ジェスチャーベースの入力メカニズムの少なくとも赤外線(IR)発光ダイオード(LED)またはIR近接センサの電力消費レベルを管理することとを含む方法。
[12]前記識別することは、前記コンピューティングデバイスに関係するエリアの周辺光レベルを識別することを含み、前記管理することは、前記周辺光レベルにしたがって前記IR LEDの電力レベルを調節することを含む[11]記載の方法。
[13]前記識別することは、前記ジェスチャーベースの入力メカニズムを介しての、前記コンピューティングデバイスとのユーザインタラクションのレベルを判定することを含み、
前記管理することは、
前記ユーザインタラクションのレベルをしきい値と比較することと、
前記ユーザインタラクションのレベルが前記しきい値を下回る場合に、前記ジェスチャーベースの入力メカニズムを電力セービングモードにすることとを含む[11]記載の方法。
[14]前記識別することは、前記コンピューティングデバイスの向きを識別することを含み、前記管理することは、前記コンピューティングデバイスの向きに基づいて、前記IR LEDまたは前記IR近接センサをアクティブ化またはデアクティブ化することを含む[11]記載の方法。
[15]前記ジェスチャーベースの入力メカニズムからセンサデータを取得することと、
前記センサデバイスを時間で分割し、それにより、それぞれのフレーム間隔を取得することと、
前記センサデータから特徴を抽出することと、
前記センサデータから抽出された前記特徴に基づいて、前記フレーム間隔のそれぞれ1つ中で表されているジェスチャーを分類することとをさらに含む[11]記載の方法。
[16]前記分類することは、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、前記フレーム間隔のそれぞれ1つ中で表されている前記ジェスチャーを分類することを含む[15]記載の方法。
[17]前記取得することは、複数の動いているオブジェクトに関連するセンサデータを取得することを含む[15]記載の方法。
[18]移動コンピューティングデバイスにおいて
記デバイスとのユーザインタラクションに関連する赤外線(IR)光ベースの近接センサデータを取得するように構成されているセンサ手段と、
前記センサ手段に通信可能に結合され、前記デバイスのプロパティを識別し、前記デバイスの前記プロパティに基づいて、前記センサ手段の少なくとも一部の電力消費を管理するように構成されている制御装置手段とを具備する移動コンピューティングデバイス。
[19]前記制御装置手段は、前記デバイスに関係するエリアにおける周辺光レベルを測定し、前記周辺光レベルに基づいて、前記センサ手段の少なくとも一部の前記電力消費を調節するようにさらに構成されている[18]記載のデバイス。
[20]前記制御装置手段は、前記デバイスとのユーザインタラクションの範囲を判定、前記デバイスとのユーザインタラクションの範囲にしたがって前記センサ手段の少なくとも一部の前記電力消費を調節するようにさらに構成されている[18]記載のデバイス。
[21]前記制御装置手段は、前記デバイスとのユーザインタラクションが時間間隔内に前記センサ手段により識別されなかったと判定された場合に、前記センサ手段を電源オフするようにさらに構成されている[20]記載のデバイス。
[22]前記制御装置手段は、前記デバイスとのユーザインタラクションの範囲がしきい値を下回る場合に、前記センサ手段を電力セーブ動作モードにするようにさらに構成されている[20]記載のデバイス。
[23]前記センサ手段は、複数のセンサエレメントを備え、前記制御装置手段は、前記デバイスの向きに基づいて、前記複数のセンサエレメントのうちの1つ以上を選択的にアクティブ化するようにさらに構成されている[18]記載のデバイス。
[24]前記センサ手段に通信可能に結合され、前記近接センサデータ中に表されている入力ジェスチャーを識別することにより、前記近接センサデータを分類するように構成されているジェスチャー手段をさらに具備する[18]記載のデバイス。
[25]一時的ではないプロセッサ読取可能媒体上に存在し、プロセッサ読取可能命令を含むコンピュータプログラムプロダクトにおいて、
前記プロセッサ読取可能命令は、
赤外線(IR)発光ダイオード(LED)からの光の反射を測定する、移動デバイスに関係するIR近接センサから、3次元のユーザの動きデータをプロセッサに取得させ、
前記3次元のユーザの動きデータの精度を示す、前記移動デバイスのプロパティを前記プロセッサに識別させ、
前記移動デバイスのプロパティに基づいて、前記IR LEDおよびIR近接センサのうちの少なくとも一部の電力使用量を前記プロセッサに規制させるように構成されているコンピュータプログラムプロダクト。
[26]前記移動デバイスの前記パラメータは、前記移動デバイスに関係するエリアにおける周辺光レベルを含む[25]記載のコンピュータプログラムプロダクト。
[27]前記移動デバイスの前記パラメータは、前記移動デバイスとのユーザインタラクションのヒストリを含む[25]記載のコンピュータプログラムプロダクト。
[28]前記移動デバイスの前記パラメータは、前記移動デバイスの向きを含む[25]記載のコンピュータプログラムプロダクト。
[29]前記1つ以上のジェスチャーを前記プロセッサに検出させるように構成されている前記命令は、
それぞれのフレーム時間間隔にしたがって、前記3次元のユーザの動きデータを前記プロセッサにグループ化させ、
前記3次元のユーザの動きデータから特徴を前記プロセッサに抽出させ、
前記3次元のユーザの動きデータから抽出された前記特徴に基づいて、前記フレーム時間間隔のそれぞれ1つ内で提供される入力ジェスチャーを前記プロセッサに識別させるようにさらに構成されている[25]記載のコンピュータプログラムプロダクト。
[30]前記入力ジェスチャーを前記プロセッサに識別させるように構成されている命令は、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、前記入力ジェスチャーを前記プロセッサに識別させるようにさらに構成されている[29]記載のコンピュータプログラムプロダクト。

Claims (28)

  1. 移動コンピューティングデバイスにおいて、
    赤外線(IR)発光ダイオード(LED)とIR近接センサとを備える、3次元のユーザの動きに関連するデータを取得するように構成されているセンサシステムと、
    前記センサシステムに通信可能に結合され、前記センサシステムにより取得された前記3次元のユーザの動きに関連するデータの明確さと、前記3次元のユーザの動きに関する正しい入力ジェスチャー識別の可能性とを示す、前記デバイスのプロパティを識別し、前記デバイスのプロパティに基づいて、前記センサシステムの前記IR LEDまたは前記IR近接センサのうちの少なくとも1つの電力消費を規制するように構成されているセンサ制御装置モジュールと、
    前記センサシステムからのセンサデータを複数のフレーム間隔に分割するように構成されているフレーミングモジュールと、
    前記センサシステムと前記フレーミングモジュールとに通信可能に結合され、前記センサシステムにより取得された前記データから抽出された特徴に基づいて、入力ジェスチャーを識別し、現在のフレーム間隔に関連付けられたセンサデータを、少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータと比較して、前記現在のフレーム間隔に関連付けられたセンサデータと前記少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータとの間の分散を判定し、前記分散が、予め定められているしきい値を超えることに応じて、前記入力ジェスチャーの存在を識別するように構成されているジェスチャー認識モジュールと、
    を具備する移動コンピューティングデバイス。
  2. 前記センサ制御装置モジュールに通信可能に結合され、前記デバイスが位置付けられているエリアの周辺光レベルを識別するように構成されている周辺光センサをさらに具備し、
    前記センサ制御装置モジュールは、前記周辺光レベルにしたがって前記IR LEDの電力レベルを調節するようにさらに構成され、
    ている請求項1記載のデバイス。
  3. 前記センサ制御装置モジュールに通信可能に結合され、前記デバイスに関するユーザインタラクションの範囲を判定するように構成されているアクティビティモニタモジュールをさらに具備し、
    前記センサ制御装置モジュールは、前記ユーザインタラクションの範囲にしたがって前記センサシステムの前記電力消費を規制するようにさらに構成されている請求項1記載のデバイス。
  4. 前記センサ制御装置モジュールは、前記ユーザインタラクションの範囲が予め規定されているしきい値を下回ると判定された場合に、前記センサシステムをスロット動作モードにするようにさらに構成されている請求項3記載のデバイス。
  5. 前記デバイスは、少なくとも2つの前向きのエッジを具備し、前記センサシステムのIR LEDおよびIR近接センサは、前記デバイスの前記前向きのエッジのうちの少なくとも2つ上に位置付けられており、前記デバイスのプロパティは、前記デバイスの向きを含み、前記センサ制御装置モジュールは、前記デバイスの向きに基づいて、前記デバイスの前記前向きのエッジのうちの少なくとも1つ上に位置付けられているIR LEDおよびIR近接センサを選択的にアクティブ化するようにさらに構成されている請求項1記載のデバイス。
  6. 前記デバイスは、
    少なくとも1つの前向きのエッジと、
    前記少なくとも1つの前向きのエッジに沿って位置付けられている1つ以上の開口とをさらに具備し、
    前記1つ以上の開口は、IR透過型マテリアルによりカバーされており、前記センサシステムのIR LEDまたはIR近接センサのうちの1つは、前記1つ以上の開口のそれぞれの後ろに位置付けられている請求項1記載のデバイス。
  7. 前記センサシステムは、前記IR LEDおよび前記IR近接センサにそれぞれ結合されているライザーをさらに備え、
    前記IR LEDおよび前記IR近接センサが前記ライザーにより引き上げられる、 請求項1記載のデバイス
  8. 前記ジェスチャー認識モジュールは、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、前記入力ジェスチャーを識別するようにさらに構成されている請求項1記載のデバイス。
  9. 前記センサシステムは、複数の動いているオブジェクトを参照して、前記3次元のユーザの動きに関連する前記データを取得するように構成されている請求項1記載のデバイス。
  10. コンピューティングデバイスに対するジェスチャーベースの入力メカニズムを管理する方法において、
    前記ジェスチャーベースの入力メカニズムにより実行されるジェスチャー分類の精度に関連する、前記コンピューティングデバイスのパラメータを識別することと、
    前記コンピューティングデバイスの前記パラメータに基づいて、前記ジェスチャーベースの入力メカニズムの少なくとも赤外線(IR)発光ダイオード(LED)またはIR近接センサの電力消費レベルを管理することと、
    センサデータを複数のフレーム間隔に分割することと、
    現在のフレーム間隔に関連付けられたセンサデータを、少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータと比較して、前記現在のフレーム間隔に関連付けられたセンサデータと前記少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータとの間の分散を判定することと、
    前記分散が、予め定められているしきい値を超えることに応じて、前記センサデータにおける入力ジェスチャーの存在を識別することとをさらに含む方法。
  11. 前記識別することは、前記コンピューティングデバイスに関係するエリアの周辺光レベルを識別することを含み、前記管理することは、前記周辺光レベルにしたがって前記IR LEDの電力レベルを調節することを含む請求項10記載の方法。
  12. 前記識別することは、前記ジェスチャーベースの入力メカニズムを介しての、前記コンピューティングデバイスとのユーザインタラクションの範囲を判定することを含み、
    前記管理することは、
    前記ユーザインタラクションの範囲をしきい値と比較することと、
    前記範囲インタラクションのレベルが前記しきい値を下回る場合に、前記ジェスチャーベースの入力メカニズムを電力セービングモードにすることとを含む請求項10記載の方法。
  13. 前記識別することは、前記コンピューティングデバイスの向きを識別することを含み、前記管理することは、前記コンピューティングデバイスの向きに基づいて、前記IR LEDまたは前記IR近接センサをアクティブ化またはデアクティブ化することを含む請求項10記載の方法。
  14. 前記分類することは、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、前記フレーム間隔のそれぞれ1つ中で表されている前記ジェスチャーを分類することを含む請求項10記載の方法。
  15. 複数の動いているオブジェクトに関連するセンサデータを取得することをさらに含む請求項10記載の方法。
  16. 移動コンピューティングデバイスにおいて、
    前記デバイスとのユーザインタラクションに関連する赤外線(IR)光ベースの近接センサデータを取得するように構成されているセンサ手段と、
    前記センサ手段に通信可能に結合され、前記デバイスのプロパティを識別し、前記デバイスの前記プロパティに基づいて、前記センサ手段の少なくとも一部の電力消費を管理するように構成されている制御装置手段と、
    前記センサデータを複数のフレーム間隔に分割する手段と、
    現在のフレーム間隔に関連付けられたセンサデータを、少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータと比較して、前記現在のフレーム間隔に関連付けられたセンサデータと前記少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータとの間の分散を判定する手段と、
    前記分散が、予め定められているしきい値を超えることに応じて、入力ジェスチャーの存在を識別する手段を具備する移動コンピューティングデバイス。
  17. 前記制御装置手段は、前記デバイスに関係するエリアにおける周辺光レベルを測定し、前記周辺光レベルに基づいて、前記センサ手段の少なくとも一部の前記電力消費を調節するようにさらに構成されている請求項16記載のデバイス。
  18. 前記制御装置手段は、前記デバイスとのユーザインタラクションの範囲を判定し、前記デバイスとのユーザインタラクションの範囲にしたがって前記センサ手段の少なくとも一部の前記電力消費を調節するようにさらに構成されている請求項16記載のデバイス。
  19. 前記制御装置手段は、前記デバイスとのユーザインタラクションが時間間隔内に前記センサ手段により識別されなかったと判定された場合に、前記センサ手段を電源オフするようにさらに構成されている請求項18記載のデバイス。
  20. 前記制御装置手段は、前記デバイスとのユーザインタラクションの範囲がしきい値を下回る場合に、前記センサ手段を電力セーブ動作モードにするようにさらに構成されている請求項18記載のデバイス。
  21. 前記センサ手段は、複数のセンサエレメントを備え、前記制御装置手段は、前記デバイスの向きに基づいて、前記複数のセンサエレメントのうちの1つ以上を選択的にアクティブ化するようにさらに構成されている請求項16記載のデバイス。
  22. 前記センサ手段に通信可能に結合され、前記近接センサデータ中に表されている入力ジェスチャーを識別することにより、前記近接センサデータを分類するように構成されているジェスチャー手段をさらに具備する請求項16記載のデバイス。
  23. プロセッサ読取可能命令を含むプロセッサ読取可能記憶媒体において、
    前記プロセッサ読取可能命令は、
    赤外線(IR)発光ダイオード(LED)からの光の反射を測定する、移動デバイスに関係するIR近接センサから、3次元のユーザの動きデータをプロセッサに取得させ、
    前記3次元のユーザの動きデータの精度を示す、前記移動デバイスのプロパティを前記プロセッサに識別させ、
    前記移動デバイスのプロパティに基づいて、前記IR LEDおよびIR近接センサのうちの少なくとも一部の電力使用量を前記プロセッサに規制させ、
    センサデータを複数のフレーム間隔に分割させ、
    現在のフレーム間隔に関連付けられたセンサデータを、少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータと比較して、前記現在のフレーム間隔に関連付けられたセンサデータと前記少なくとも1つの履歴フレーム間隔に関連付けられたセンサデータとの間の分散を判定させ、
    前記分散が、予め定められているしきい値を超えることに応じて、前記センサデータにおける入力ジェスチャーの存在を識別させるように構成されているプロセッサ読取可能記憶媒体。
  24. 前記移動デバイスの前記プロパティは、前記移動デバイスに関係するエリアにおける周辺光レベルを含む請求項23記載のプロセッサ読取可能記憶媒体。
  25. 前記移動デバイスの前記プロパティは、前記移動デバイスとのユーザインタラクションのヒストリを含む請求項23記載のプロセッサ読取可能記憶媒体。
  26. 前記移動デバイスの前記プロパティは、前記移動デバイスの向きを含む請求項23記載のプロセッサ読取可能記憶媒体。
  27. 前記1つ以上のジェスチャーを前記プロセッサに検出させるように構成されている前記命令は、
    それぞれのフレーム時間間隔にしたがって、前記3次元のユーザの動きデータを前記プロセッサにグループ化させ、
    前記3次元のユーザの動きデータから特徴を前記プロセッサに抽出させ、
    前記3次元のユーザの動きデータから抽出された前記特徴に基づいて、前記フレーム時間間隔のそれぞれ1つ内で提供される入力ジェスチャーを前記プロセッサに識別させるようにさらに構成されている請求項23記載のプロセッサ読取可能記憶媒体。
  28. 前記入力ジェスチャーを前記プロセッサに識別させるように構成されている命令は、相互相関、線形回帰または信号統計のうちの少なくとも1つに基づいて、前記入力ジェスチャーを前記プロセッサに識別させるようにさらに構成されている請求項27記載のプロセッサ読取可能記憶媒体。
JP2013515567A 2010-06-17 2011-06-17 非接触ジェスチャー認識および電力低減のための方法および装置 Expired - Fee Related JP5718460B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US35592310P 2010-06-17 2010-06-17
US61/355,923 2010-06-17
US37217710P 2010-08-10 2010-08-10
US61/372,177 2010-08-10
US13/161,955 US20110310005A1 (en) 2010-06-17 2011-06-16 Methods and apparatus for contactless gesture recognition
US13/161,955 2011-06-16
PCT/US2011/040975 WO2011160079A1 (en) 2010-06-17 2011-06-17 Methods and apparatus for contactless gesture recognition and power reduction

Publications (3)

Publication Number Publication Date
JP2013534009A JP2013534009A (ja) 2013-08-29
JP2013534009A5 JP2013534009A5 (ja) 2014-07-24
JP5718460B2 true JP5718460B2 (ja) 2015-05-13

Family

ID=45328160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013515567A Expired - Fee Related JP5718460B2 (ja) 2010-06-17 2011-06-17 非接触ジェスチャー認識および電力低減のための方法および装置

Country Status (7)

Country Link
US (1) US20110310005A1 (ja)
EP (1) EP2583164A1 (ja)
JP (1) JP5718460B2 (ja)
KR (1) KR101627199B1 (ja)
CN (1) CN102971701B (ja)
BR (1) BR112012031926A2 (ja)
WO (1) WO2011160079A1 (ja)

Families Citing this family (314)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213443B2 (en) * 2009-02-15 2015-12-15 Neonode Inc. Optical touch screen systems using reflected light
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8930331B2 (en) 2007-02-21 2015-01-06 Palantir Technologies Providing unique views of data based on changes or rules
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US9152258B2 (en) 2008-06-19 2015-10-06 Neonode Inc. User interface for a touch screen
US10747952B2 (en) 2008-09-15 2020-08-18 Palantir Technologies, Inc. Automatic creation and server push of multiple distinct drafts
US8347230B2 (en) * 2008-09-30 2013-01-01 Apple Inc. Visual presentation of multiple internet pages
US8643628B1 (en) * 2012-10-14 2014-02-04 Neonode Inc. Light-based proximity detection system and user interface
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
US8917239B2 (en) 2012-10-14 2014-12-23 Neonode Inc. Removable protective cover with embedded proximity sensors
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US8760631B2 (en) * 2010-01-27 2014-06-24 Intersil Americas Inc. Distance sensing by IQ domain differentiation of time of flight (TOF) measurements
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US20110252349A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
US9037407B2 (en) 2010-07-12 2015-05-19 Palantir Technologies Inc. Method and system for determining position of an inertial computing device in a distributed network
JP2012027515A (ja) * 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
US20120050189A1 (en) * 2010-08-31 2012-03-01 Research In Motion Limited System And Method To Integrate Ambient Light Sensor Data Into Infrared Proximity Detector Settings
US20150019459A1 (en) * 2011-02-16 2015-01-15 Google Inc. Processing of gestures related to a wireless user device and a computing device
US8716649B2 (en) 2011-05-05 2014-05-06 Maxim Integrated Products, Inc. Optical gesture sensor using a single illumination source
US9229581B2 (en) 2011-05-05 2016-01-05 Maxim Integrated Products, Inc. Method for detecting gestures using a multi-segment photodiode and one or fewer illumination sources
WO2012163725A1 (de) 2011-05-31 2012-12-06 Mechaless Systems Gmbh Display mit integriertem optischen sender
US8799240B2 (en) 2011-06-23 2014-08-05 Palantir Technologies, Inc. System and method for investigating large amounts of data
US9547693B1 (en) 2011-06-23 2017-01-17 Palantir Technologies Inc. Periodic database search manager for multiple data sources
US9092482B2 (en) 2013-03-14 2015-07-28 Palantir Technologies, Inc. Fair scheduling for mixed-query loads
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
KR20130004857A (ko) * 2011-07-04 2013-01-14 삼성전자주식회사 인터넷 서비스를 위한 사용자 인터페이스 제공 방법 및 장치
EP2555536A1 (en) 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR101262700B1 (ko) * 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
US8732574B2 (en) 2011-08-25 2014-05-20 Palantir Technologies, Inc. System and method for parameterizing documents for automatic workflow generation
WO2013033317A1 (en) * 2011-08-30 2013-03-07 Barnesandnoble.Com Llc System and method for navigation in an electronic document
US8504542B2 (en) 2011-09-02 2013-08-06 Palantir Technologies, Inc. Multi-row transactions
US9207852B1 (en) * 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
CN103186234A (zh) * 2011-12-31 2013-07-03 联想(北京)有限公司 控制方法以及电子设备
US20140035875A2 (en) * 2012-02-10 2014-02-06 Blackberry Limited Method and device for receiving reflectance-based input
EP2626769A1 (en) * 2012-02-10 2013-08-14 Research In Motion Limited Method and device for receiving reflectance-based input
PL398136A1 (pl) 2012-02-17 2013-08-19 Binartech Spólka Jawna Aksamit Sposób wykrywania kontekstu urzadzenia przenosnego i urzadzenie przenosne z modulem wykrywania kontekstu
CN102594994A (zh) * 2012-03-13 2012-07-18 惠州Tcl移动通信有限公司 一种基于手机的感应操作方法及手机
US9122354B2 (en) * 2012-03-14 2015-09-01 Texas Instruments Incorporated Detecting wave gestures near an illuminated surface
CN102662465A (zh) * 2012-03-26 2012-09-12 北京国铁华晨通信信息技术有限公司 基于动态轨迹的视觉字符输入方法及系统
US8830171B2 (en) * 2012-05-22 2014-09-09 Eminent Electronic Technology Corporation Apparatus for non-contact 3D hand gesture recognition with code-based light sensing
US9726803B2 (en) * 2012-05-24 2017-08-08 Qualcomm Incorporated Full range gesture system
US9348462B2 (en) * 2012-06-13 2016-05-24 Maxim Integrated Products, Inc. Gesture detection and recognition based upon measurement and tracking of light intensity ratios within an array of photodetectors
US20130335576A1 (en) * 2012-06-19 2013-12-19 Martin GOTSCHLICH Dynamic adaptation of imaging parameters
KR102003255B1 (ko) * 2012-06-29 2019-07-24 삼성전자 주식회사 다중 입력 처리 방법 및 장치
TWI498771B (zh) * 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
US9098516B2 (en) * 2012-07-18 2015-08-04 DS Zodiac, Inc. Multi-dimensional file system
US9606647B1 (en) * 2012-07-24 2017-03-28 Palantir Technologies, Inc. Gesture management system
SE537580C2 (sv) * 2012-08-03 2015-06-30 Crunchfish Ab Förbättrad inmatning
TWI465753B (zh) * 2012-08-15 2014-12-21 Generalplus Technology Inc 位置識別系統、方法以及使用其之姿勢識別系統、方法
CN102880410A (zh) * 2012-08-17 2013-01-16 北京小米科技有限责任公司 一种操作功能键和终端设备
US9904341B2 (en) * 2012-09-10 2018-02-27 Intel Corporation Cascading power consumption
US20140298672A1 (en) * 2012-09-27 2014-10-09 Analog Devices Technology Locking and unlocking of contacless gesture-based user interface of device having contactless gesture detection system
CN103713735B (zh) * 2012-09-29 2018-03-16 华为技术有限公司 一种使用非接触式手势控制终端设备的方法和装置
US9423886B1 (en) * 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
US10324565B2 (en) 2013-05-30 2019-06-18 Neonode Inc. Optical proximity sensor
US10282034B2 (en) 2012-10-14 2019-05-07 Neonode Inc. Touch sensitive curved and flexible displays
US9741184B2 (en) 2012-10-14 2017-08-22 Neonode Inc. Door handle with optical proximity sensors
US10585530B2 (en) 2014-09-23 2020-03-10 Neonode Inc. Optical proximity sensor
US9164625B2 (en) 2012-10-14 2015-10-20 Neonode Inc. Proximity sensor for determining two-dimensional coordinates of a proximal object
US9921661B2 (en) 2012-10-14 2018-03-20 Neonode Inc. Optical proximity sensor and associated user interface
US9348677B2 (en) 2012-10-22 2016-05-24 Palantir Technologies Inc. System and method for batch evaluation programs
KR101417387B1 (ko) * 2012-11-01 2014-07-09 주식회사 팬택 휴대 단말기 및 휴대 단말기의 사용자 인터페이스 제공방법
CN103809734B (zh) * 2012-11-07 2017-05-24 联想(北京)有限公司 一种电子设备的控制方法、控制器及电子设备
US9092093B2 (en) 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
US9081417B2 (en) * 2012-11-30 2015-07-14 Blackberry Limited Method and device for identifying contactless gestures
US9977503B2 (en) * 2012-12-03 2018-05-22 Qualcomm Incorporated Apparatus and method for an infrared contactless gesture system
CN103853325A (zh) * 2012-12-06 2014-06-11 昆达电脑科技(昆山)有限公司 手势开关装置
TWI486868B (zh) * 2012-12-26 2015-06-01 Giga Byte Tech Co Ltd 具有快捷啟動功能之電子裝置及其控制方法
CN103067598A (zh) * 2013-01-08 2013-04-24 广东欧珀移动通信有限公司 一种移动终端音乐切换方法及系统
US9380431B1 (en) 2013-01-31 2016-06-28 Palantir Technologies, Inc. Use of teams in a mobile application
JP6179412B2 (ja) * 2013-01-31 2017-08-16 株式会社Jvcケンウッド 入力表示装置
US20140253427A1 (en) * 2013-03-06 2014-09-11 Qualcomm Mems Technologies, Inc. Gesture based commands
US9507425B2 (en) 2013-03-06 2016-11-29 Sony Corporation Apparatus and method for operating a user interface of a device
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US9110541B1 (en) * 2013-03-14 2015-08-18 Amazon Technologies, Inc. Interface selection approaches for multi-dimensional input
US10037314B2 (en) 2013-03-14 2018-07-31 Palantir Technologies, Inc. Mobile reports
US9965937B2 (en) 2013-03-15 2018-05-08 Palantir Technologies Inc. External malware data item clustering and analysis
US8937619B2 (en) 2013-03-15 2015-01-20 Palantir Technologies Inc. Generating an object time series from data objects
US10275778B1 (en) 2013-03-15 2019-04-30 Palantir Technologies Inc. Systems and user interfaces for dynamic and interactive investigation based on automatic malfeasance clustering of related data in various data structures
US8909656B2 (en) 2013-03-15 2014-12-09 Palantir Technologies Inc. Filter chains with associated multipath views for exploring large data sets
US9679252B2 (en) 2013-03-15 2017-06-13 Qualcomm Incorporated Application-controlled granularity for power-efficient classification
US8917274B2 (en) 2013-03-15 2014-12-23 Palantir Technologies Inc. Event matrix based on integrated data
US8868486B2 (en) 2013-03-15 2014-10-21 Palantir Technologies Inc. Time-sensitive cube
US8788405B1 (en) 2013-03-15 2014-07-22 Palantir Technologies, Inc. Generating data clusters with customizable analysis strategies
JP6042753B2 (ja) * 2013-03-18 2016-12-14 株式会社Nttドコモ 端末装置及び操作ロック解除方法
WO2014165476A1 (en) 2013-04-01 2014-10-09 Gollakota Shyamnath Devices, systems, and methods for detecting gestures using wireless communication signals
KR101504148B1 (ko) * 2013-07-12 2015-03-19 주식회사 루멘스 비접촉 조작 장치
US20140310801A1 (en) * 2013-04-11 2014-10-16 Nokia Corporation Method and Apparatus for Performing Authentication
SE537579C2 (sv) 2013-04-11 2015-06-30 Crunchfish Ab Bärbar enhet nyttjandes en passiv sensor för initiering av beröringsfri geststyrning
US8799799B1 (en) 2013-05-07 2014-08-05 Palantir Technologies Inc. Interactive geospatial map
US20140380251A1 (en) * 2013-06-19 2014-12-25 Motorola Mobility Llc Method and device for augmented handling of multiple calls with gestures
KR102102702B1 (ko) 2013-06-19 2020-04-21 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
US9218811B2 (en) 2013-06-28 2015-12-22 Google Technology Holdings LLC Electronic device and method for managing voice entered text using gesturing
US9489051B2 (en) 2013-07-01 2016-11-08 Blackberry Limited Display navigation using touch-less gestures
US9342671B2 (en) 2013-07-01 2016-05-17 Blackberry Limited Password by touch-less gesture
US9323336B2 (en) 2013-07-01 2016-04-26 Blackberry Limited Gesture detection using ambient light sensors
EP2821891B1 (en) * 2013-07-01 2018-11-21 BlackBerry Limited Gesture detection using ambient light sensors
US20150002383A1 (en) * 2013-07-01 2015-01-01 Blackberry Limited Touch-less user interface using ambient light sensors
US9398221B2 (en) 2013-07-01 2016-07-19 Blackberry Limited Camera control using ambient light sensors
EP2821852B1 (en) * 2013-07-01 2019-09-04 BlackBerry Limited Camera control using ambient light sensors
EP2821890A1 (en) * 2013-07-01 2015-01-07 BlackBerry Limited Alarm operation by touch-less gesture
US9256290B2 (en) 2013-07-01 2016-02-09 Blackberry Limited Gesture detection using ambient light sensors
US9423913B2 (en) 2013-07-01 2016-08-23 Blackberry Limited Performance control of ambient light sensors
EP2821887B1 (en) * 2013-07-01 2019-06-19 BlackBerry Limited Display navigation using touch-less gestures
US9367137B2 (en) 2013-07-01 2016-06-14 Blackberry Limited Alarm operation by touch-less gesture
EP2824539B1 (en) * 2013-07-09 2019-09-04 BlackBerry Limited Operating a device using touchless and touchscreen gestures
US9405461B2 (en) 2013-07-09 2016-08-02 Blackberry Limited Operating a device using touchless and touchscreen gestures
US9477314B2 (en) 2013-07-16 2016-10-25 Google Technology Holdings LLC Method and apparatus for selecting between multiple gesture recognition systems
US9817565B2 (en) 2013-07-23 2017-11-14 Blackberry Limited Apparatus and method pertaining to the use of a plurality of 3D gesture sensors to detect 3D gestures
EP2829947B1 (en) * 2013-07-23 2019-05-08 BlackBerry Limited Apparatus and method pertaining to the use of a plurality of 3D gesture sensors to detect 3D gestures
US9465448B2 (en) 2013-07-24 2016-10-11 Blackberry Limited Backlight for touchless gesture detection
US9304596B2 (en) 2013-07-24 2016-04-05 Blackberry Limited Backlight for touchless gesture detection
US9223773B2 (en) 2013-08-08 2015-12-29 Palatir Technologies Inc. Template system for custom document generation
US9335897B2 (en) 2013-08-08 2016-05-10 Palantir Technologies Inc. Long click display of a context menu
US8713467B1 (en) 2013-08-09 2014-04-29 Palantir Technologies, Inc. Context-sensitive views
KR102138510B1 (ko) * 2013-08-27 2020-07-28 엘지전자 주식회사 근접 터치 기능을 구비한 전자 장치 및 그 제어 방법
US9194741B2 (en) 2013-09-06 2015-11-24 Blackberry Limited Device having light intensity measurement in presence of shadows
CN106462178A (zh) * 2013-09-11 2017-02-22 谷歌技术控股有限责任公司 用于检测存在和运动的电子设备和方法
CN104423832A (zh) * 2013-09-11 2015-03-18 深圳富泰宏精密工业有限公司 电子装置及其显示画面控制方法
US9313233B2 (en) 2013-09-13 2016-04-12 Plantir Technologies Inc. Systems and methods for detecting associated devices
CN103472752B (zh) * 2013-09-17 2015-10-28 于金田 一种红外多档位手势识别开关及手势识别方法
CN104460963A (zh) * 2013-09-22 2015-03-25 联咏科技股份有限公司 手势判断方法及电子装置
US9785317B2 (en) 2013-09-24 2017-10-10 Palantir Technologies Inc. Presentation and analysis of user interaction data
US10048761B2 (en) 2013-09-30 2018-08-14 Qualcomm Incorporated Classification of gesture detection systems through use of known and yet to be worn sensors
US20150091841A1 (en) * 2013-09-30 2015-04-02 Kobo Incorporated Multi-part gesture for operating an electronic personal display
US8938686B1 (en) 2013-10-03 2015-01-20 Palantir Technologies Inc. Systems and methods for analyzing performance of an entity
EP2857938B1 (en) * 2013-10-04 2019-08-14 ams AG Optical sensor arrangement and method for gesture detection
US8812960B1 (en) 2013-10-07 2014-08-19 Palantir Technologies Inc. Cohort-based presentation of user interaction data
KR20150042039A (ko) * 2013-10-10 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 동작 방법
EP2887188B1 (en) 2013-12-18 2018-05-30 ams AG Control system for a gesture sensing arrangement and method for controlling a gesture sensing arrangement
US8924872B1 (en) 2013-10-18 2014-12-30 Palantir Technologies Inc. Overview user interface of emergency call data of a law enforcement agency
US9116975B2 (en) 2013-10-18 2015-08-25 Palantir Technologies Inc. Systems and user interfaces for dynamic and interactive simultaneous querying of multiple data stores
KR101524619B1 (ko) * 2013-10-18 2015-06-02 채민경 적외선 센서의 물체 감지를 통해 화면 표시가 제어되는 디바이스
US9280283B2 (en) 2013-10-28 2016-03-08 Blackberry Limited Contactless gesture recognition with sensor having asymmetric field of view
CN105849675B (zh) 2013-10-30 2019-09-24 苹果公司 显示相关的用户界面对象
US9021384B1 (en) 2013-11-04 2015-04-28 Palantir Technologies Inc. Interactive vehicle information map
US8868537B1 (en) 2013-11-11 2014-10-21 Palantir Technologies, Inc. Simple web search
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
US9503844B1 (en) 2013-11-22 2016-11-22 Palantir Technologies Inc. System and method for collocation detection
US9105000B1 (en) 2013-12-10 2015-08-11 Palantir Technologies Inc. Aggregating data from a plurality of data sources
US10579647B1 (en) 2013-12-16 2020-03-03 Palantir Technologies Inc. Methods and systems for analyzing entity performance
US9734217B2 (en) 2013-12-16 2017-08-15 Palantir Technologies Inc. Methods and systems for analyzing entity performance
US20150177865A1 (en) * 2013-12-19 2015-06-25 Sony Corporation Alternative input device for press/release simulations
US9552615B2 (en) 2013-12-20 2017-01-24 Palantir Technologies Inc. Automated database analysis to detect malfeasance
US10356032B2 (en) 2013-12-26 2019-07-16 Palantir Technologies Inc. System and method for detecting confidential information emails
US8832832B1 (en) 2014-01-03 2014-09-09 Palantir Technologies Inc. IP reputation
US9043696B1 (en) 2014-01-03 2015-05-26 Palantir Technologies Inc. Systems and methods for visual definition of data associations
CN103793055A (zh) * 2014-01-20 2014-05-14 华为终端有限公司 一种手势响应方法及终端
DE102014202650A1 (de) * 2014-02-13 2015-08-13 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bedienen der Mechanik einer motorisch positionsveränderlichen Anzeigeeinheit
US9009827B1 (en) 2014-02-20 2015-04-14 Palantir Technologies Inc. Security sharing system
US9483162B2 (en) 2014-02-20 2016-11-01 Palantir Technologies Inc. Relationship visualizations
US9727376B1 (en) 2014-03-04 2017-08-08 Palantir Technologies, Inc. Mobile tasks
WO2015134908A1 (en) * 2014-03-07 2015-09-11 Thalchemy Corporation Learn-by-example systems and methods
US9398456B2 (en) * 2014-03-07 2016-07-19 Apple Inc. Electronic device with accessory-based transmit power control
US8935201B1 (en) 2014-03-18 2015-01-13 Palantir Technologies Inc. Determining and extracting changed data from a data source
US9836580B2 (en) 2014-03-21 2017-12-05 Palantir Technologies Inc. Provider portal
CN104955187B (zh) * 2014-03-24 2018-06-08 美的集团股份有限公司 电磁加热装置及其控制组件和控制方法
US9857958B2 (en) 2014-04-28 2018-01-02 Palantir Technologies Inc. Systems and user interfaces for dynamic and interactive access of, investigation of, and analysis of data objects stored in one or more databases
US9009171B1 (en) 2014-05-02 2015-04-14 Palantir Technologies Inc. Systems and methods for active column filtering
US9639167B2 (en) * 2014-05-30 2017-05-02 Eminent Electronic Technology Corp. Ltd. Control method of electronic apparatus having non-contact gesture sensitive region
US20170117891A1 (en) * 2014-06-02 2017-04-27 Xyz Interactive Technologies Inc. Touch-less switching
US10097780B2 (en) 2014-06-05 2018-10-09 Invisage Technologies, Inc. Sensors and systems for the capture of scenes and events in space and time
US10133356B2 (en) 2014-06-11 2018-11-20 Atheer, Inc. Method and apparatus for controlling a system via a sensor
US9943241B2 (en) 2014-06-12 2018-04-17 PhysioWave, Inc. Impedance measurement devices, systems, and methods
US10130273B2 (en) * 2014-06-12 2018-11-20 PhysioWave, Inc. Device and method having automatic user-responsive and user-specific physiological-meter platform
US9949662B2 (en) 2014-06-12 2018-04-24 PhysioWave, Inc. Device and method having automatic user recognition and obtaining impedance-measurement signals
US9546898B2 (en) 2014-06-12 2017-01-17 PhysioWave, Inc. Fitness testing scale
US9535974B1 (en) 2014-06-30 2017-01-03 Palantir Technologies Inc. Systems and methods for identifying key phrase clusters within documents
US9619557B2 (en) 2014-06-30 2017-04-11 Palantir Technologies, Inc. Systems and methods for key phrase characterization of documents
US9021260B1 (en) 2014-07-03 2015-04-28 Palantir Technologies Inc. Malware data item analysis
US10572496B1 (en) 2014-07-03 2020-02-25 Palantir Technologies Inc. Distributed workflow system and database with access controls for city resiliency
US9256664B2 (en) 2014-07-03 2016-02-09 Palantir Technologies Inc. System and method for news events detection and visualization
US9785773B2 (en) 2014-07-03 2017-10-10 Palantir Technologies Inc. Malware data item analysis
US9202249B1 (en) 2014-07-03 2015-12-01 Palantir Technologies Inc. Data item clustering and analysis
CN104375698A (zh) * 2014-07-17 2015-02-25 深圳市钛客科技有限公司 一种触控设备
TWI536202B (zh) * 2014-07-30 2016-06-01 緯創資通股份有限公司 觸控裝置及其控制方法與判斷解鎖的方法
US9692968B2 (en) * 2014-07-31 2017-06-27 Invisage Technologies, Inc. Multi-mode power-efficient light and gesture sensing in image sensors
US9693696B2 (en) 2014-08-07 2017-07-04 PhysioWave, Inc. System with user-physiological data updates
WO2016028629A1 (en) 2014-08-16 2016-02-25 Google Inc. Identifying gestures using motion data
KR102263064B1 (ko) * 2014-08-25 2021-06-10 삼성전자주식회사 피사체의 움직임을 인식하는 장치 및 그 동작 방법
US10660039B1 (en) 2014-09-02 2020-05-19 Google Llc Adaptive output of indications of notification data
US9454281B2 (en) 2014-09-03 2016-09-27 Palantir Technologies Inc. System for providing dynamic linked panels in user interface
US9315197B1 (en) * 2014-09-30 2016-04-19 Continental Automotive Systems, Inc. Hands accelerating control system
US9501851B2 (en) 2014-10-03 2016-11-22 Palantir Technologies Inc. Time-series analysis system
US9767172B2 (en) 2014-10-03 2017-09-19 Palantir Technologies Inc. Data aggregation and analysis system
US9785328B2 (en) 2014-10-06 2017-10-10 Palantir Technologies Inc. Presentation of multivariate data on a graphical user interface of a computing system
US9984133B2 (en) 2014-10-16 2018-05-29 Palantir Technologies Inc. Schematic and database linking system
US9229952B1 (en) 2014-11-05 2016-01-05 Palantir Technologies, Inc. History preserving data pipeline system and method
US9898689B2 (en) * 2014-11-06 2018-02-20 Qualcomm Incorporated Nonparametric model for detection of spatially diverse temporal patterns
US9043894B1 (en) 2014-11-06 2015-05-26 Palantir Technologies Inc. Malicious software detection in a computing system
KR20160056759A (ko) * 2014-11-12 2016-05-20 크루셜텍 (주) 이미지 스캔이 가능한 플렉서블 디스플레이 장치 및 이의 구동 방법
DE102014017585B4 (de) * 2014-11-27 2017-08-24 Pyreos Ltd. Schalterbetätigungseinrichtung, mobiles Gerät und Verfahren zum Betätigen eines Schalters durch eine nicht-taktile Geste
CN104333962A (zh) * 2014-11-28 2015-02-04 浙江晶日照明科技有限公司 一种智能led灯具及其人机交互系统、交互方法
US10310624B2 (en) 2014-12-17 2019-06-04 Konica Minolta, Inc. Electronic apparatus, method for controlling electronic apparatus, and control program for the same
US10552994B2 (en) 2014-12-22 2020-02-04 Palantir Technologies Inc. Systems and interactive user interfaces for dynamic retrieval, analysis, and triage of data items
US10362133B1 (en) 2014-12-22 2019-07-23 Palantir Technologies Inc. Communication data processing architecture
US9348920B1 (en) 2014-12-22 2016-05-24 Palantir Technologies Inc. Concept indexing among database of documents using machine learning techniques
US9367872B1 (en) 2014-12-22 2016-06-14 Palantir Technologies Inc. Systems and user interfaces for dynamic and interactive investigation of bad actor behavior based on automatic clustering of related data in various data structures
US9870205B1 (en) 2014-12-29 2018-01-16 Palantir Technologies Inc. Storing logical units of program code generated using a dynamic programming notebook user interface
US9335911B1 (en) 2014-12-29 2016-05-10 Palantir Technologies Inc. Interactive user interface for dynamic data analysis exploration and query processing
US9817563B1 (en) 2014-12-29 2017-11-14 Palantir Technologies Inc. System and method of generating data points from one or more data stores of data items for chart creation and manipulation
US10372879B2 (en) 2014-12-31 2019-08-06 Palantir Technologies Inc. Medical claims lead summary report generation
US11302426B1 (en) 2015-01-02 2022-04-12 Palantir Technologies Inc. Unified data interface and system
CN104573653A (zh) * 2015-01-06 2015-04-29 上海电机学院 一种物体运动状态的识别装置及方法
US20160209968A1 (en) * 2015-01-16 2016-07-21 Microsoft Technology Licensing, Llc Mapping touch inputs to a user input module
CN105843456B (zh) * 2015-01-16 2018-10-12 致伸科技股份有限公司 触控装置
US10387834B2 (en) 2015-01-21 2019-08-20 Palantir Technologies Inc. Systems and methods for accessing and storing snapshots of a remote application in a document
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6561400B2 (ja) * 2015-02-10 2019-08-21 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
FR3032813B1 (fr) * 2015-02-17 2018-08-31 Renault Sas Interface d’interaction comprenant un ecran tactile, un detecteur de proximite et une plaque de protection
WO2016138087A1 (en) * 2015-02-24 2016-09-01 Eccrine Systems, Inc. Dynamic sweat sensor management
US9727560B2 (en) 2015-02-25 2017-08-08 Palantir Technologies Inc. Systems and methods for organizing and identifying documents via hierarchies and dimensions of tags
KR102279790B1 (ko) * 2015-03-10 2021-07-19 엘지전자 주식회사 차량용 디스플레이 장치
US9891808B2 (en) 2015-03-16 2018-02-13 Palantir Technologies Inc. Interactive user interfaces for location-based data analysis
US9886467B2 (en) 2015-03-19 2018-02-06 Plantir Technologies Inc. System and method for comparing and visualizing data entities and data entity series
CN104684058B (zh) * 2015-03-23 2018-09-11 广东欧珀移动通信有限公司 一种调节接近传感器发射功率的方法和装置
US10103953B1 (en) 2015-05-12 2018-10-16 Palantir Technologies Inc. Methods and systems for analyzing entity performance
KR20160133305A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 제스쳐 인식 방법, 컴퓨팅 장치 및 제어 장치
EP3276448B1 (en) * 2015-05-20 2020-01-15 Konica Minolta, Inc. Wearable electronic device, gesture detection method for wearable electronic device, and gesture detection program for wearable electronic device
US10628834B1 (en) 2015-06-16 2020-04-21 Palantir Technologies Inc. Fraud lead detection system for efficiently processing database-stored data and automatically generating natural language explanatory information of system results for display in interactive user interfaces
US10945671B2 (en) 2015-06-23 2021-03-16 PhysioWave, Inc. Determining physiological parameters using movement detection
US9830495B2 (en) * 2015-07-17 2017-11-28 Motorola Mobility Llc Biometric authentication system with proximity sensor
US9418337B1 (en) 2015-07-21 2016-08-16 Palantir Technologies Inc. Systems and models for data analytics
US9454785B1 (en) 2015-07-30 2016-09-27 Palantir Technologies Inc. Systems and user interfaces for holistic, data-driven investigation of bad actor behavior based on clustering and scoring of related data
US9996595B2 (en) 2015-08-03 2018-06-12 Palantir Technologies, Inc. Providing full data provenance visualization for versioned datasets
US9456000B1 (en) 2015-08-06 2016-09-27 Palantir Technologies Inc. Systems, methods, user interfaces, and computer-readable media for investigating potential malicious communications
US10489391B1 (en) 2015-08-17 2019-11-26 Palantir Technologies Inc. Systems and methods for grouping and enriching data items accessed from one or more databases for presentation in a user interface
US9600146B2 (en) 2015-08-17 2017-03-21 Palantir Technologies Inc. Interactive geospatial map
US10102369B2 (en) 2015-08-19 2018-10-16 Palantir Technologies Inc. Checkout system executable code monitoring, and user account compromise determination system
US10853378B1 (en) 2015-08-25 2020-12-01 Palantir Technologies Inc. Electronic note management via a connected entity graph
US11150917B2 (en) 2015-08-26 2021-10-19 Palantir Technologies Inc. System for data aggregation and analysis of data from a plurality of data sources
US9485265B1 (en) 2015-08-28 2016-11-01 Palantir Technologies Inc. Malicious activity detection system capable of efficiently processing data accessed from databases and generating alerts for display in interactive user interfaces
US10706434B1 (en) 2015-09-01 2020-07-07 Palantir Technologies Inc. Methods and systems for determining location information
US9576015B1 (en) 2015-09-09 2017-02-21 Palantir Technologies, Inc. Domain-specific language for dataset transformations
US9858948B2 (en) * 2015-09-29 2018-01-02 Apple Inc. Electronic equipment with ambient noise sensing input circuitry
US10296617B1 (en) 2015-10-05 2019-05-21 Palantir Technologies Inc. Searches of highly structured data
US10980483B2 (en) 2015-11-20 2021-04-20 PhysioWave, Inc. Remote physiologic parameter determination methods and platform apparatuses
US11561126B2 (en) 2015-11-20 2023-01-24 PhysioWave, Inc. Scale-based user-physiological heuristic systems
US10923217B2 (en) 2015-11-20 2021-02-16 PhysioWave, Inc. Condition or treatment assessment methods and platform apparatuses
US10436630B2 (en) 2015-11-20 2019-10-08 PhysioWave, Inc. Scale-based user-physiological data hierarchy service apparatuses and methods
US10395055B2 (en) 2015-11-20 2019-08-27 PhysioWave, Inc. Scale-based data access control methods and apparatuses
US10553306B2 (en) 2015-11-20 2020-02-04 PhysioWave, Inc. Scaled-based methods and apparatuses for automatically updating patient profiles
US9542446B1 (en) 2015-12-17 2017-01-10 Palantir Technologies, Inc. Automatic generation of composite datasets based on hierarchical fields
US9823818B1 (en) 2015-12-29 2017-11-21 Palantir Technologies Inc. Systems and interactive user interfaces for automatic generation of temporal representation of data objects
US10089289B2 (en) 2015-12-29 2018-10-02 Palantir Technologies Inc. Real-time document annotation
US11086640B2 (en) * 2015-12-30 2021-08-10 Palantir Technologies Inc. Composite graphical interface with shareable data-objects
US9612723B1 (en) * 2015-12-30 2017-04-04 Palantir Technologies Inc. Composite graphical interface with shareable data-objects
US10043102B1 (en) 2016-01-20 2018-08-07 Palantir Technologies Inc. Database systems and user interfaces for dynamic and interactive mobile image analysis and identification
US10942642B2 (en) * 2016-03-02 2021-03-09 Airwatch Llc Systems and methods for performing erasures within a graphical user interface
US10698938B2 (en) 2016-03-18 2020-06-30 Palantir Technologies Inc. Systems and methods for organizing and identifying documents via hierarchies and dimensions of tags
US11029836B2 (en) * 2016-03-25 2021-06-08 Microsoft Technology Licensing, Llc Cross-platform interactivity architecture
CN105912109A (zh) * 2016-04-06 2016-08-31 众景视界(北京)科技有限公司 头戴式可视设备的屏幕自动开关装置和头戴式可视设备
US10390772B1 (en) 2016-05-04 2019-08-27 PhysioWave, Inc. Scale-based on-demand care system
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10324609B2 (en) 2016-07-21 2019-06-18 Palantir Technologies Inc. System for providing dynamic linked panels in user interface
US10719188B2 (en) 2016-07-21 2020-07-21 Palantir Technologies Inc. Cached database and synchronization system for providing dynamic linked panels in user interface
JP6282696B2 (ja) 2016-07-27 2018-02-21 京セラ株式会社 電子機器及び制御方法
CN106293076A (zh) * 2016-07-29 2017-01-04 北京奇虎科技有限公司 通信终端及智能终端手势识别方法和装置
US10437840B1 (en) 2016-08-19 2019-10-08 Palantir Technologies Inc. Focused probabilistic entity resolution from multiple data sources
US10215619B1 (en) 2016-09-06 2019-02-26 PhysioWave, Inc. Scale-based time synchrony
CN106572254A (zh) * 2016-10-28 2017-04-19 努比亚技术有限公司 手势交互装置及方法
US10318630B1 (en) 2016-11-21 2019-06-11 Palantir Technologies Inc. Analysis of large bodies of textual data
US10642853B2 (en) 2016-12-14 2020-05-05 Palantir Technologies Inc. Automatically generating graphical data displays based on structured descriptions
US10460602B1 (en) 2016-12-28 2019-10-29 Palantir Technologies Inc. Interactive vehicle information mapping system
JP6169298B1 (ja) * 2017-02-16 2017-07-26 京セラ株式会社 電子機器及び制御方法
CN107765928A (zh) * 2017-04-21 2018-03-06 青岛陶知电子科技有限公司 一种基于石墨烯光学传感技术的多点触摸显示系统
US11138236B1 (en) 2017-05-17 2021-10-05 Palantir Technologies Inc. Systems and methods for packaging information into data objects
US10956406B2 (en) 2017-06-12 2021-03-23 Palantir Technologies Inc. Propagated deletion of database records and derived data
JP6387154B2 (ja) * 2017-06-27 2018-09-05 京セラ株式会社 電子機器及び制御方法
CN107257414B (zh) * 2017-07-18 2019-07-23 Oppo广东移动通信有限公司 一种屏幕状态控制方法、装置、存储介质及移动终端
US10403011B1 (en) 2017-07-18 2019-09-03 Palantir Technologies Inc. Passing system with an interactive user interface
EP3731901A1 (en) * 2017-11-23 2020-11-04 Sanofi Medicament injection device with rotary encoder
CN108375096A (zh) * 2018-01-26 2018-08-07 中山百得厨卫有限公司 一种防干扰手势感应器及吸油烟机
US11599369B1 (en) 2018-03-08 2023-03-07 Palantir Technologies Inc. Graphical user interface configuration system
US10754822B1 (en) 2018-04-18 2020-08-25 Palantir Technologies Inc. Systems and methods for ontology migration
US10885021B1 (en) 2018-05-02 2021-01-05 Palantir Technologies Inc. Interactive interpreter and graphical user interface
JP6387204B2 (ja) * 2018-05-30 2018-09-05 京セラ株式会社 電子機器及び制御方法
US11119630B1 (en) 2018-06-19 2021-09-14 Palantir Technologies Inc. Artificial intelligence assisted evaluations and user interface for same
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
CN109195246B (zh) * 2018-07-25 2021-01-29 北京小米移动软件有限公司 光线发射控制方法、装置和存储介质
WO2020112585A1 (en) 2018-11-28 2020-06-04 Neonode Inc. Motorist user interface sensor
GB201820552D0 (en) * 2018-12-17 2019-01-30 Q Free Asa Encapsulated sensors
CN113366412A (zh) * 2019-01-28 2021-09-07 ams传感器新加坡私人有限公司 包括可操作以响应用户的手指移动来控制设备的光电模块的设备
CN110045819B (zh) * 2019-03-01 2021-07-09 华为技术有限公司 一种手势处理方法及设备
CN110052030B (zh) * 2019-04-26 2021-10-29 腾讯科技(深圳)有限公司 虚拟角色的形象设置方法、装置及存储介质
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
WO2020263250A1 (en) 2019-06-26 2020-12-30 Google Llc Radar-based authentication status feedback
CN112286339B (zh) * 2019-07-23 2022-12-16 哈尔滨拓博科技有限公司 一种多维手势识别装置、方法、电子设备和存储介质
EP3966662B1 (en) 2019-07-26 2024-01-10 Google LLC Reducing a state based on imu and radar
EP4004686A1 (en) 2019-07-26 2022-06-01 Google LLC Authentication management through imu and radar
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
KR20220098805A (ko) 2019-08-30 2022-07-12 구글 엘엘씨 다중 입력 모드에 대한 입력 모드 통지
WO2021040745A1 (en) * 2019-08-30 2021-03-04 Google Llc Input methods for mobile devices
KR102479012B1 (ko) 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
US11435447B2 (en) 2019-10-11 2022-09-06 Dell Products L.P. Information handling system proximity sensor with mechanically adjusted field of view
US11294054B2 (en) * 2019-10-11 2022-04-05 Dell Products L.P. Information handling system infrared proximity detection with ambient light management
US11435475B2 (en) 2019-10-11 2022-09-06 Dell Products L.P. Information handling system infrared proximity detection with frequency domain modulation
US11662695B2 (en) 2019-10-11 2023-05-30 Dell Products L.P. Information handling system infrared proximity detection with distance reduction detection
CN115039060A (zh) 2019-12-31 2022-09-09 内奥诺德公司 非接触式触摸输入系统
US11513813B2 (en) 2020-01-31 2022-11-29 Dell Products L.P. Information handling system notification presentation based upon user presence detection
US11663343B2 (en) 2020-01-31 2023-05-30 Dell Products L.P. Information handling system adaptive user presence detection
US11334146B2 (en) 2020-01-31 2022-05-17 Dell Products L.P. Information handling system peripheral enhanced user presence detection
JP2023119599A (ja) * 2020-07-16 2023-08-29 アルプスアルパイン株式会社 ジェスチャ判定装置
EP4024167A1 (en) * 2020-12-30 2022-07-06 Panasonic Intellectual Property Management Co., Ltd. Electronic device, electronic system, and sensor setting method for an electronic device
IT202100032807A1 (it) * 2021-12-28 2023-06-28 Gewiss Spa Struttura di copertura di apparecchi elettrici di comando

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119090A (ja) * 1992-10-07 1994-04-28 Hitachi Ltd 省電力制御方式
JPH11265249A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 情報入力装置および情報入力方法および記録媒体
CA2407078C (en) * 2000-04-21 2008-06-17 Jerr-Dan Corporation Adjustable recovery spade
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
JP2003067108A (ja) * 2001-08-23 2003-03-07 Hitachi Ltd 情報表示装置とその操作認識方法
JP2003296731A (ja) * 2002-04-01 2003-10-17 Seiko Epson Corp 画像評価方法、画像評価装置、画像評価プログラム、当該画像評価プログラムを記録した記録媒体およびスクリーン配置
JP2005141542A (ja) 2003-11-07 2005-06-02 Hitachi Ltd 非接触入力インターフェース装置
EP1730623A2 (en) * 2004-03-22 2006-12-13 Koninklijke Philips Electronics N.V. Method and apparatus for power management in mobile terminals
US7180500B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited User definable gestures for motion controlled handheld devices
JP4555141B2 (ja) * 2005-04-25 2010-09-29 日本電気株式会社 イメージスキャナ装置、その制御方法、イメージスキャナ装置制御プログラム及び記録媒体
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
US7633076B2 (en) * 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US7748634B1 (en) * 2006-03-29 2010-07-06 Amazon Technologies, Inc. Handheld electronic book reader device having dual displays
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US7702267B2 (en) * 2006-07-07 2010-04-20 Lexmark International, Inc. Apparatus and method for transfer of image forming substances
WO2008023388A1 (en) * 2006-08-23 2008-02-28 Budhaditya Chattopadhyay An apparatus for purificatiion of blood and a process thereof
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
US7747293B2 (en) * 2006-10-17 2010-06-29 Marvell Worl Trade Ltd. Display control for cellular phone
US8340365B2 (en) * 2006-11-20 2012-12-25 Sony Mobile Communications Ab Using image recognition for controlling display lighting
US8094129B2 (en) * 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
US7957762B2 (en) * 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
WO2008101234A2 (en) * 2007-02-16 2008-08-21 Sloan-Kettering Institute For Cancer Research Anti ganglioside gd3 antibodies and uses thereof
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
JP4645658B2 (ja) * 2008-02-18 2011-03-09 ソニー株式会社 センシング装置、表示装置、電子機器およびセンシング方法
WO2009120292A2 (en) * 2008-03-24 2009-10-01 Shu Muk Lee Accelerometer-controlled mobile handheld device
US8257558B2 (en) * 2008-07-31 2012-09-04 Dow Technology Investments Llc Alkylene oxide purification systems
US20100060611A1 (en) * 2008-09-05 2010-03-11 Sony Ericsson Mobile Communication Ab Touch display with switchable infrared illumination for touch position determination and methods thereof
US20100088532A1 (en) * 2008-10-07 2010-04-08 Research In Motion Limited Method and handheld electronic device having a graphic user interface with efficient orientation sensor use
US8275412B2 (en) * 2008-12-31 2012-09-25 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
US8344325B2 (en) * 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120005018A1 (en) * 2010-07-02 2012-01-05 Vijay Krishna Narayanan Large-Scale User Modeling Experiments Using Real-Time Traffic
US20120050189A1 (en) * 2010-08-31 2012-03-01 Research In Motion Limited System And Method To Integrate Ambient Light Sensor Data Into Infrared Proximity Detector Settings

Also Published As

Publication number Publication date
CN102971701A (zh) 2013-03-13
WO2011160079A1 (en) 2011-12-22
KR101627199B1 (ko) 2016-06-03
EP2583164A1 (en) 2013-04-24
BR112012031926A2 (pt) 2018-03-06
KR20130043159A (ko) 2013-04-29
US20110310005A1 (en) 2011-12-22
JP2013534009A (ja) 2013-08-29
CN102971701B (zh) 2016-06-22

Similar Documents

Publication Publication Date Title
JP5718460B2 (ja) 非接触ジェスチャー認識および電力低減のための方法および装置
JP2013534009A5 (ja)
US8837780B2 (en) Gesture based human interfaces
US9384420B2 (en) Classifying user activities using eye fixation clustering, fixation features, and regions of interest
US10281987B1 (en) Systems and methods of free-space gestural interaction
Cheng et al. Contactless gesture recognition system using proximity sensors
JP6360050B2 (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
US20140208274A1 (en) Controlling a computing-based device using hand gestures
US20140157209A1 (en) System and method for detecting gestures
WO2018184233A1 (zh) 一种手势识别方法及相关装置
CN105353634A (zh) 利用手势识别控制操作的家电设备与方法
CN105373785A (zh) 基于深度神经网络的手势识别检测方法与装置
JP2016521894A (ja) 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
US20120262366A1 (en) Electronic systems with touch free input devices and associated methods
KR20150002776A (ko) 빠른 제스처 재접속
US10198627B2 (en) Gesture identification with natural images
CN103376890A (zh) 基于视觉的手势遥控系统
US11188145B2 (en) Gesture control systems
JP2015122064A (ja) 動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること
Wen et al. UbiTouch: ubiquitous smartphone touchpads using built-in proximity and ambient light sensors
US20160357301A1 (en) Method and system for performing an action based on number of hover events
TW201331796A (zh) 能根據環境光線變化來最佳化觸控亮點之多點觸控系統及其方法
KR102227494B1 (ko) 오브젝트의 움직임을 이용하여 사용자 입력을 처리하는 장치 및 방법
KR20140011921A (ko) 동작 인식을 사용하여 디바이스의 동작 모드를 제어하는 장치 및 방법
Shin et al. Welfare interface implementation using multiple facial features tracking for the disabled people

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140401

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140408

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20140605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150318

R150 Certificate of patent or registration of utility model

Ref document number: 5718460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees