JP2015509634A - 複数のタイプのセンサーからの情報に基づくジェスチャー検出 - Google Patents

複数のタイプのセンサーからの情報に基づくジェスチャー検出 Download PDF

Info

Publication number
JP2015509634A
JP2015509634A JP2014559915A JP2014559915A JP2015509634A JP 2015509634 A JP2015509634 A JP 2015509634A JP 2014559915 A JP2014559915 A JP 2014559915A JP 2014559915 A JP2014559915 A JP 2014559915A JP 2015509634 A JP2015509634 A JP 2015509634A
Authority
JP
Japan
Prior art keywords
gesture
output
sensor
camera
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014559915A
Other languages
English (en)
Other versions
JP2015509634A5 (ja
JP6100286B2 (ja
Inventor
リ、レン
クラークソン、イアン・チャールズ
グプタ、サミア・クマー
クルールス、ダレル・エル.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015509634A publication Critical patent/JP2015509634A/ja
Publication of JP2015509634A5 publication Critical patent/JP2015509634A5/ja
Application granted granted Critical
Publication of JP6100286B2 publication Critical patent/JP6100286B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

方法は、電子デバイスの第1のセンサーから第1の出力を受信し、電子デバイスの第2のセンサーから第2の出力を受信することを含む。第1のセンサーは、第1のセンサータイプを有し、第2のセンサーは、第1のセンサータイプとは異なる第2のセンサータイプを有する。また、方法は、ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、第1の出力と第2の出力とに基づいて、ジェスチャーを検出することを含む。

Description

関連出願の相互参照
[0001]本出願は、その内容全体が参照により本明細書に明確に組み込まれる、本願の譲受人によって共通に所有される、2012年3月1日に出願された米国仮特許出願第61/605,636号、2012年8月22日に出願された米国仮特許出願第61/691,989号、および2013年2月14日に出願された米国非仮特許出願第13/767,698号から優先権を主張する。
[0002]本開示は、一般にジェスチャー検出に関する。
[0003]技術の進歩により、コンピューティングデバイスは、より小型でより強力になった。たとえば、現在、小型で軽量な、ユーザが容易に持ち運べるポータブルワイヤレス電話、携帯情報端末(PDA)、およびページングデバイスなどのワイヤレスコンピューティングデバイスを含む、様々なポータブルパーソナルコンピューティングデバイスが存在する。より具体的には、セルラー電話およびインターネットプロトコル(IP)電話などのポータブルワイヤレス電話は、ワイヤレスネットワークを介してボイスおよびデータパケットを通信することができる。さらに、このような多くのワイヤレス電話は、その中に組み込まれた他のタイプのデバイスを含む。たとえば、ワイヤレス電話は、デジタルスチルカメラと、デジタルビデオカメラと、デジタルレコーダと、オーディオファイルプレーヤとを含むこともできる。
[0004]ワイヤレス電話のようなポータブルデバイスのハンズフリー動作は、様々な使用事例において望ましくなっている。たとえば、携帯電話の車内ハンズフリー動作は、安全性の理由で望ましい場合がある。たとえばゲーム機など一部の電子システムは、ジェスチャー認識機能を有する。ジェスチャー認識は、単一のセンサー(たとえば、カメラまたは赤外線センサーのいずれか)を使用してしばしば実行される。
[0005]モバイルデバイスアプリケーションにおいて使用に適したジェスチャー認識のシステムおよび方法が開示される。特に、開示された技法は、より頑強な(robust)ジェスチャー認識を提供するために複数のタイプのセンサーを活用することを含む。開示されたシステムおよび方法の例示的なアプリケーションは、限定はしないが、車内エンターテインメント/電話/ナビゲーションのための車内ジェスチャー制御、リビングルームのメディア制御、ゲーム、台所機器制御(in-kitchen appliance control)、マルチメディアプレゼンテーション制御、ジム/エクササイズ機器制御などを含む。さらに、開示されたシステムおよび方法は、携帯電話、埋込み型デバイス、ネットブックコンピュータ、タブレットコンピュータ、ラップトップコンピュータ、メディアセンター、セットトップボックス(set-top boxes)、「スマート」機器、ゲーム機などを含む様々なプラットフォーム上で動作することができる。
[0006]マルチセンサータイプを活用することによって、開示されたシステムおよび方法は、シングルセンサータイプのジェスチャー認識システムに関連する欠点を克服することができる。たとえば、ジェスチャー認識のために、カメラと超音波センサーの両方を活用する開示されたシステムの一実施形態について考える。超音波は、対象がモバイルデバイスに近接し検出されると、システムの停止状態(rest)を「ウェイク」アップさせる低出力フロントエンド(low-power front end)として使用され得る。システムは、照明/近接度の状態に応じて、センサーをオン/オフに動的に切り替えることができる。照明の状態が劣っており、カメラの信頼性が低いとき、超音波のみが使用され得る。反対に、ターゲットのジェスチャーがモバイルデバイスから遠く離れているとき、またはジェスチャーが定常状態であるか複雑なジェスチャーであるとき、超音波は信頼性が低い場合があり、したがって、カメラのみが使用され得る。様々なセンサーまたはその部分は、(たとえば、電力を節約するために)照明/近接度の状態に基づいて、選択的にアクティブ化および非アクティブ化され(deactivated)得る。
[0007]照明/近接度の状態によって、複数のタイプのセンサーの使用が可能になるとき、どんなジェスチャーが検出されるかを決定するために、補足的な票決方式(complementary voting scheme)がセンサー出力に適用され得る。たとえば、各センサーは、検出されたジェスチャー(たとえば、左、右、上、下、選択など)と、信頼レベル(confidence level)とを出力することができる。両方のタイプのセンサーが同じジェスチャーを検出したとき、そのジェスチャーが出力され得る。センサーが異なるジェスチャーを検出したとき、より高い信頼度を有するジェスチャーが出力され得る。超音波が単純なジェスチャーをピックアップし、しかし、カメラは、複雑なジェスチャーをピックアップしたとき、複雑なジェスチャーが出力され得る。
[0008]それ自体の性能を向上させようとして、自己調整(self-adjustment)をトリガするために、各センサーは、他のセンサーからの情報を使用することができる。一実装形態では、データは、共通データモデルおよび/またはアプリケーションプログラミングインターフェース(API)を介して交換され得る。
[0009]特定の実施形態では、装置は、第1の出力を生成するように構成された第1のセンサーと、第2の出力を生成するように構成されたカメラとを含む。また、装置は、プロセッサと、第1の出力および第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するためにプロセッサによって実行可能なジェスチャー検出モジュールとを含む。カメラの少なくとも一部分は、照明レベルとジェスチャー範囲とに基づいて選択的に非アクティブ化される。
[0010]別の特定の実施形態では、方法は、電子デバイスの第1のセンサーから第1の出力を受信することと、電子デバイスの第2のセンサーから第2の出力を受信することとを含む。第1のセンサーは、第1のセンサータイプを有し、第2のセンサーは、第1のセンサータイプとは異なる第2のセンサータイプを有する。また、方法は、ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、第1の出力と第2の出力とに基づいて、ジェスチャーを検出することを含む。
[0011]別の特定の実施形態では、装置は、共通データモデルに従って第1の出力を生成し、第1の出力を超音波処理経路に提供するように構成された超音波センサーを含む。装置は、共通データモデルに従って第2の出力を生成し、第2の出力を画像処理経路に提供するように構成されたカメラも含む。装置は、プロセッサと、第1の出力および第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するためにプロセッサによって実行可能なジェスチャー検出モジュールとをさらに含む。超音波処理経路と画像処理経路とは、共通データモデルに従ってデータを交換するように構成される。
[0012]別の特定の実施形態では、装置は、第1の出力を超音波処理経路に提供するように構成された超音波センサーと、第2の出力を画像処理経路に提供するように構成されたカメラとを含む。また、装置は、プロセッサと、第1の出力および第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するためにプロセッサによって実行可能なジェスチャー検出モジュールとを含む。超音波センサーおよびカメラは各々、超音波処理経路と画像処理経路との間で交換されるデータに基づいて、プロセッサとは無関係に、自己調整するように構成される。
[0013]開示された実施形態の少なくとも1つによって提供される特定の利点は、シングルセンサータイプのシステムと比較するとジェスチャー認識精度の向上を提供し得る複数のタイプのセンサーの出力に、補足的な票決方式を適用することに基づいて、ジェスチャーを検出する能力を含む。さらに、センサー(またはその部分)は、(たとえば、電力を節約するために)照明/近接度の状態に基づいて、選択的にアクティブ化および非アクティブ化され得る。さらに、センサーは、性能を向上させるために、他のセンサーからの出力に基づいて自己調整することができる。
[0014]本開示の他の態様、利点、および特徴は、以下の節、図面の簡単な説明、発明を実施するための形態、および特許請求の範囲を含む、本出願全体を検討した後、明らかになろう。
[0015]複数のタイプのセンサーからの情報に基づいてジェスチャー検出を実行するように動作可能なシステムの特定の実施形態の図。 [0016]複数のタイプのセンサーからの情報に基づいてジェスチャー検出を実行するように動作可能なシステムの別の特定の実施形態の図。 [0017]複数のタイプのセンサーからの情報への補足的な票決方式の適用を介してジェスチャー検出を実行する方法の特定の実施形態のフローチャート。 [0018]図1のシステムでの動作方法の特定の実施形態のフローチャート。 [0019]記載された実施形態による複数のタイプのセンサーからの情報に基づいてジェスチャー認識を実行するように動作可能なワイヤレスデバイスのブロック図。 [0020]ジェスチャー検出に関連付けられたデータ交換を実施する特定の実施形態を示すためのブロック図。 [0021]ジェスチャー検出に関連付けられたデータ交換の特定の実施形態を示すための図。 [0022]低電力近接検出システムの特定の実施形態の図。 [0023]マルチモードジェスチャー検出システム(multi-modal gesture detection system)の特定の実施形態の図。 [0024]低電力近接検出システムの別の特定の実施形態の図。 [0025]図10のシステムに関連付けられた特定の例示的な信号の図。 [0026]図10のシステムで実行される低電力近接検出方法の特定の実施形態のフローチャート。
[0027]図1は、複数のタイプのセンサーからの情報に基づいてジェスチャー認識を実行するように動作可能なシステム100の特定の実施形態を示す。たとえば、図1に示すように、電子デバイス110は、超音波センサー111とカメラ113とを含み、超音波センサー111および/またはカメラ113からの出力に基づいてジェスチャー(たとえば、手120によって行われる)を検出することができる。図1における特定タイプのセンサーは、単に例にすぎないことに留意されたい。超音波センサー111およびカメラ113の代わりに、またはそれに加えて、たとえば赤外線および磁気など他のタイプのセンサーが含まれていてもよい。電子デバイス110は、ワイヤレスデバイス(たとえば、携帯電話またはスマートフォン)、コンピューティングデバイス(たとえば、ラップトップコンピュータ、タブレットコンピュータ、ポータブルメディアプレーヤ、携帯情報端末(PDA)など)、それらに関連するアクセサリー、または任意のそれらの組合せとすることができる。
[0028]本明細書で使用する「超音波センサー」という用語は、超音波信号のみを感知することが可能であるセンサー(すなわち、専用超音波センサー)を識別し得、超音波信号に加えて他の信号も感知することが可能であるセンサー(すなわち、多目的センサー)をも識別し得ることに留意されたい。たとえば、多目的センサーはまた、人間の可聴範囲(たとえば、20Hz〜20kHz)内にあるオーディオ信号、および/または他のタイプの信号(たとえば、電磁信号、無線周波(RF:radio frequency)信号など)を感知するように動作可能であり得る。
[0029]電子デバイス110の各センサー111、113は、超音波処理/制御モジュール112と画像処理/制御モジュール114とによって、図1に示した信号処理経路に結合され得る。処理/制御モジュール112および114の各々は、対応するそれぞれのセンサー111および113によって生成される出力の動作を制御し、それを処理するように構成され得る。たとえば、超音波処理/制御モジュール112は、超音波センサー111によって生成される第1の出力を処理することができ、画像処理/制御モジュール114は、カメラ113によって生成される第2の出力を処理することができる。
[0030]処理/制御モジュール112および114は、ジェスチャー検出モジュール118に結合され得る。ジェスチャー検出モジュール118は、超音波センサー111からの第1の出力、および/またはカメラ113からの第2の出力に基づいて、ジェスチャー(たとえば、手120によって行われる)を検出することができる。超音波センサー111からの第1の出力と、カメラ113からの第2の出力との各々は、識別されたジェスチャーと信頼度スコアとを含み得る。例示のために、手120に関する識別されたジェスチャーは、左121、右122、上123、下124、手前(away)125(すなわち、図1の平面から外の方向)、または奥(towards)126(すなわち、図1の平面の中への方向)とすることができる。特定の実施形態では、奥126および/または手前125のジェスチャーは、(たとえば、メニューまたはリストのナビゲーションの間など)「選択」ジェスチャーを表し得る。ジェスチャー121〜126は説明のためのものにすぎないことに留意されたい。複雑なジェスチャーおよび定常状態のジェスチャーを含む他のタイプのジェスチャーも検出され得る。たとえば、手120が動かない(したがって、超音波センサー111を介した検出を困難にする)定常状態のジェスチャーは、手120が静止したままになっている(remaining motionless)が、(たとえば、2本の指が伸ばされているなど)特定の数の指を伸ばして(たとえば、上から第2の項目など)特定のメニュー項目の選択を示すことを含み得る。検出可能なジェスチャーは、定期的または反復のジェスチャー(たとえば、手120が前後に振られている)を含むこともできる。
[0031]特定の実施形態では、図5を参照しながらさらに説明するように、ハードウェアプロセッサによって実行され得るプロセッサ実行可能命令を使用して、モジュール112、114および/または118の全部または一部分が実施され得る。特定の実施形態では、モジュール112、114および/または118の全部または一部分は、たとえば専用の回路、コントローラ、1つまたは複数の他のハードウェアデバイス、またはそれらの任意の組合せなど、ハードウェアを使用して実装され得る。
[0032]特定の実施形態では、ジェスチャー検出モジュール118は、どんなジェスチャーが検出されるかを決定するために、補足的な票決方式を適用することができる。補足的な票決方式は、ジェスチャーの複雑度に少なくとも部分的に基づき得る。たとえば、超音波センサー111とカメラ113の両方が同じジェスチャーを識別したとき、同じジェスチャーが出力ジェスチャーとして選択され得る。超音波センサー111とカメラ113とが異なるジェスチャーを識別したとき、より高い信頼度スコアを有するジェスチャーが出力ジェスチャーとして選択され得る。別の例として、超音波センサー111とカメラ113とが様々な複雑度のジェスチャーを識別したとき、より複雑なジェスチャーが出力ジェスチャーとして選択され得る。補足的な票決方式の特定の例については、図3を参照しながらさらに説明する。
[0033]特定の実施形態では、電子デバイス110は、光検出器(たとえば、カメラ113の内部の光検出器115、またはカメラ113の外部の光検出器116など)を含み得る。光検出器115または116は、環境照明レベルを決定し得る。照明レベルおよび/またはジェスチャー範囲(たとえば、超音波センサー111および/またはカメラ113によって測定されるように、手120が電子デバイス110にどのぐらい近いか)に基づいて、超音波センサー111および/またはカメラ113の部分が選択的に非アクティブ化され得る。例示のために、照明の状態が劣っており、光検出器115または116が低い照明レベルを決定するとき、カメラ113は暗いまたはほぼ暗い(near-dark)状態で動きを正確に検出することができないので、電力を節約するために、カメラ113および画像処理/制御モジュール114の全部または一部分は、非アクティブ化され得る。光検出器115または116は、照明の状態の変化を検出するために、アクティブ化されたままであり得る。
[0034]別の例として、手120が特定の位置にあることを超音波センサー111が検出すると、カメラ113は、関心のあるエリア(an area of interest)を識別するために、そのような情報を利用することができる。関心のあるエリアに対応するカメラ113のセンサーアレイの一部分はアクティブ化され得、一方、センサーアレイの他の部分または残りは、電力を節約するために、非アクティブ化され得る。
[0035]そのような機能を実装するために、超音波処理/制御モジュール112と画像処理/制御モジュール114との間でデータが交換され得、データ交換117として示されている。たとえば、超音波センサー111およびカメラ113は、他のセンサーおよび処理/制御モジュールが、出力を正常に解釈することができるように、共通データモデルまたはアプリケーションプログラミングインターフェース(API)に従ってそれらのそれぞれの出力をフォーマットすることができる。共通データモデルに従って交換されたデータは、超音波センサー111からの出力、カメラ113からの出力、超音波センサー111またはカメラ113からの手120の範囲(すなわち、距離)に関連するデータ、超音波センサー111またはカメラ113に対する手120の位置に関連するデータ、超音波センサー111(たとえば、信号放出周波数(signal emission frequency)、信号放出周期、信号放出方向など)またはカメラ113(たとえば、イメージキャプチャモード、焦点距離、焦点領域など)のアクティブ構成に関連付けられたデータ、または任意のそれらの組合せを含み得る。信号処理/制御モジュール112および114の各々はまた、処理/制御モジュール112および114の他方から受信されたデータに基づいて偽陽性(たとえば、ジェスチャーが実際に存在しない検出されたジェスチャー)を検出するように構成され得る。
[0036]処理/制御モジュール112と114の間でのデータ交換が可能にされると、センサー111および113の各々は、センサー111および113の他方からの情報に基づいて自己調整することができる。さらに、そのような自己調整は、電子デバイス110のプロセッサ(たとえば、アプリケーションプロセッサ)とは無関係であり得る。例示のために、超音波センサー111は、カメラ113からの出力に基づいて、アクティブ構成、信号放出周波数、信号放出方向、または任意のそれらの組合せを自己調整することができる。カメラ113は、超音波センサー111からの出力に基づいて、アクティブ構成、焦点距離、焦点領域、または任意のそれらの組合せを自己調整することができる。したがって、センサー111および113の各々は、中央プロセッサまたはコントローラによってそうするように指示されることなく、自己調整を介して、それ自体の性能を向上させるように構成され得る。データ交換を実装するためのフレームワークの特定の例が図6に示される。ジェスチャーデーモン(gesture daemon)を使用したカメラと超音波センサーとの間でのデータ交換の一例が図7に示される。
[0037]動作中、ジェスチャー検出モジュール118は、超音波センサー111とカメラ113とのうちの1つまたは複数からの出力に基づいて、手120によって行われるジェスチャーを識別することができる。たとえば、光検出器115または116によって決定される照明レベルが照明閾値未満である(たとえば、カメラ113にとって暗すぎる)とき、カメラ113は非アクティブ化され得、超音波センサー111からの出力に基づいて、ジェスチャー検出が実行され得る。照明レベルが照明閾値以上であるとき、ジェスチャー検出は、ジェスチャー範囲に依存し得る。例示のために、ジェスチャー範囲が近接閾値(nearness threshold)未満である(たとえば、手120がカメラ113にとって近すぎる)とき、カメラ113は非アクティブ化され得、超音波センサー111からの出力に基づいて、ジェスチャー検出が実行され得る。ジェスチャー範囲が遠方閾値(farness threshold)を上回る(たとえば、手120が超音波センサー111にとって遠すぎる)とき、超音波センサー111は非アクティブ化され得、カメラ113からの出力に基づいて、ジェスチャー検出が実行され得る。ジェスチャー範囲が近接閾値と遠方閾値との間にあるとき、補足的な票決方式に従って、センサー111と113の両方からの出力に基づいて、ジェスチャー認識が実行され得る。
[0038]図1のシステム100は、このように、複数のタイプのセンサーからの情報に基づいてジェスチャー検出を可能にすることができる。異なるタイプのセンサーを活用することによって、図1のシステム100が、(たとえば、誤ったジェスチャーおよび偽陽性(false positives)の減少により)シングルセンサータイプシステムよりも大きいジェスチャー検出精度を提供することができることを諒解されよう。図1のシステム100が照明および近接度情報に基づいてセンサーまたはその部分を選択的に非アクティブ化することによって電力を節約することができ、センサー経路(sensor paths)の間で交換されるデータに基づいて性能を自己向上させる(self-improve)ことを試みることができることも諒解されよう。
[0039]図2は、複数のタイプのセンサーからの情報に基づいてジェスチャー検出を実行するように動作可能なシステム200の別の特定の実施形態の図である。システム200は、図1の超音波センサー111と、カメラ113と、超音波処理/制御モジュール112と、画像処理/制御モジュール114と、ジェスチャー認識モジュール118とを含む。さらに、超音波処理/制御モジュール112および画像処理/制御モジュール114は、図1を参照しながら説明したデータ交換117として示されるように、共通データモデルを介してデータを交換するように構成され得る。
[0040]特定の実施形態では、モジュール112、114、および118は、1つまたは複数のサブモジュールを含み得る。たとえば、超音波処理/制御モジュール112は、超音波追跡モジュール201と、超音波ジェスチャー検出モジュール202とを含み得る。超音波追跡モジュール201は、発せられた超音波信号に関連付けられた飛行時間情報(time of flight information)と、発せられた超音波信号の(複数の)反射に基づいて1つまたは複数の対象(objects)の動き(たとえば、図1の手120)を追跡するように構成され得る。超音波ジェスチャー検出モジュール202は、超音波追跡モジュール201によって生成される追跡データが認識可能なジェスチャーを表すかどうかを判断することができ、その場合、認識可能なジェスチャーに関連付けられた信頼レベルを決定することができる。同様に、画像処理/制御モジュール114は、カメラ追跡モジュール203と、カメラジェスチャー検出モジュール204とを含み得る。カメラ追跡モジュール203は、画像追跡データを出力することができる。カメラジェスチャー検出モジュール204は、画像追跡データが認識可能なジェスチャーを表すかどうかを判断することができ、その場合、認識可能なジェスチャーに関連付けられた信頼レベルを決定することができる。超音波センサー111を介して認識可能なジェスチャーのセットがカメラ113を介して認識可能なジェスチャーのセットとは異なり得ることに留意されたい。
[0041]ジェスチャー検出モジュール118は、マルチモードジェスチャー識別モジュール205を含み得る。たとえば、図3を参照しながらさらに説明するように、マルチモードジェスチャー識別モジュール205は、補足的な票決方式を超音波ジェスチャー検出モジュール202とカメラジェスチャー検出モジュール204との出力に適用することができる。ジェスチャー検出モジュール118は、1つまたは複数のアプリケーション、たとえば例示的なアプリケーション220に標準化されたフォーマットのマルチモードジェスチャー識別モジュール205の結果を出力するように構成された拡張ジェスチャーインターフェース206も含み得る。
[0042]特定の実施形態では、システム200は、3つ以上のタイプのセンサーを随意に含み得る。たとえば、システム200は、超音波およびカメラとは異なる第3のセンサータイプを有する第3のセンサー207を含み得る。第3のセンサー207の信号経路は、第3のセンサー追跡モジュール208と第3のセンサージェスチャー検出モジュール209とを含み得、第3のセンサージェスチャー検出モジュール209の出力は、マルチモードジェスチャー識別モジュール205によって適用される補足的な票決方式に提供され得る。第3のセンサーのデータ経路と他のセンサーのデータ経路との間でデータが交換され得、別のデータ交換210として示されている。200のシステムは、このように、マルチモードジェスチャー認識とデータ交換とを実装するために、拡張可能なフレームワークを提供することができる。
[0043]図3は、複数のタイプのセンサーからの情報への補足的な票決方式の適用を介してジェスチャー検出を実行する方法300の特定の実施形態のフローチャートである。例示的な一実施形態では、方法300は、図1のジェスチャー検出モジュール118または図2のマルチモードジェスチャー識別モジュール205によって実行され得る。
[0044]方法300は、302で、電子デバイスの第1のセンサーから第1の出力を受信することを含み得る。第1のセンサーは、第1のセンサータイプを有し、第1の出力は、第1の信頼度スコアを有する第1のジェスチャーを識別し得る。方法300は、304で、電子デバイスの第2のセンサーから第2の出力を受信することも含み得る。第2のセンサーは、第1のセンサータイプとは異なる第2のセンサータイプを有し、第2の出力は、第2の信頼度スコアを有する第2のジェスチャーを識別し得る。たとえば、図1で、ジェスチャー検出モジュール118は、超音波処理/制御モジュール112を介して超音波センサー111から第1の出力を受信し、画像処理/制御モジュール114を介してカメラ113から第2の出力を受信することができる。
[0045]方法300は、306で、第1のジェスチャーと第2のジェスチャーとが同じであるかどうかを判断することをさらに含むことができる。第1のジェスチャーと第2のジェスチャーとが同じである(すなわち、両方のセンサーは同じジェスチャーを識別した)と判断されたとき、方法300は、308で、同じジェスチャーを出力ジェスチャーとして選択することを含み得る。第1のジェスチャーと第2のジェスチャーとが異なると判断されたとき、方法300は、310で、第1のジェスチャーと第2のジェスチャーとが複雑度の点で異なるかどうかを判断することを含み得る。第1のジェスチャーと第2のジェスチャーとが複雑度の点で異なるとき(たとえば、センサーのうちの一方は単純なジェスチャーを識別し、しかし、他方のセンサーは複雑なジェスチャーを識別した)、方法300は、312で、より複雑なジェスチャーを出力ジェスチャーとして選択することを含み得る。例示のために、図1を参照すると、超音波検出は単純な「上」ジェスチャーを識別し、しかし、カメラ検出は、より複雑な「2本の指が伸びた」ジェスチャーを識別したとき、ジェスチャー検出モジュール118は、より複雑な「2本の指が伸びた」ジェスチャーを出力ジェスチャーとして選択し得る。
[0046]第1のジェスチャーと第2のジェスチャーとが同じ複雑度を有していると判断されたとき、方法300は、314で、第1の信頼度スコアが第2の信頼度スコアよりも大きいかどうかを判断することを含み得る。第1の信頼度スコアが第2の信頼度スコアよりも大きいと判断されたとき、方法300は、316で、第1のジェスチャーを出力ジェスチャーとして選択することを含み得る。第1の信頼度スコアが第2の信頼度スコアよりも大きくないと判断されたとき、方法300は、318で、第2のジェスチャーを出力ジェスチャーとして選択することを含み得る。
[0047]図3の方法300は、このように、シングルセンサータイプのシステムと比較するとジェスチャー認識精度の向上を提供し得る複数のタイプのセンサーの出力に、補足的な票決方式を適用することに基づいて、ジェスチャーの検出を可能にすることができる。
[0048]図4は、超音波センサーとカメラとを含むジェスチャー認識システムの動作の方法400の特定の実施形態のフローチャートである。たとえば、図4の方法400は、車内ハンズフリー動作の間の図1の電子デバイス110(たとえば、携帯電話)の動作について説明し得る。
[0049]方法400は、402で、超音波近接検出を実行することを含み得る。超音波近接検出は、デバイスの残っている部分を選択的にウェイクアップさせる低電力フロントエンドを表し得る。超音波近接検出を実行する間、デバイスのカメラはオフでもよい。たとえば、図1で、カメラ113がオフである間、超音波センサー111を介して近接検出が実行され得る。方法400は、404で、近接した対象が検出されるか、着呼が受信されるかを決定することを含むこともできる。超音波センサーが近接した対象を検出するまで、または着信が受信されるまで、方法400は、402に戻ることによって繰り返すことができる。
[0050]近接した対象が検出される、または着信が受信されると、方法400は、406で、超音波ベースの単純なジェスチャー認識を可能にすることを含み得る。たとえば、図1を参照すると、そのような単純なジェスチャー認識は、電子デバイス110の無線をオンにするか、または着信に応答するために使用され得る。方法400は、408で、照明レベルが照明閾値以上かどうかを判断することを含むことができる。たとえば、図1で、光検出器115または116は、照明レベルを決定することができ、画像処理/制御モジュール114は、照明レベルが照明閾値以上かどうかを判断することができる。
[0051]照明レベルが照明閾値未満であると判断することに応答して、方法400は、412で、超音波の単純なジェスチャー認識を実行し、カメラの全部または一部分を使用不能にすることと、420で、(複数の)検出されたジェスチャーを出力することとを含み得る。照明レベルが照明閾値未満であり得るときの例示的な例は、夜、または車がトンネルにある間の車内動作を含む。
[0052]照明レベルが照明閾値以上であると判断することに応答して、方法400は、410で、超音波近接検出を実行することと、414で、ジェスチャー範囲を決定することとを含み得る。たとえば、図1で、ジェスチャー範囲は、超音波センサー111および/またはカメラ113からの出力に基づいて決定され得る。ジェスチャー範囲が超音波にとって遠すぎる(たとえば、遠方閾値よりも大きい)と判断されたとき、方法400は、416で、カメラを使用可能にし、カメラベースの複雑なジェスチャー認識を実行することと、420で、(複数の)検出されたジェスチャーを出力することとを含み得る。超音波センサーまたはその一部分は、ジェスチャー範囲が超音波にとって遠すぎるままである間、使用不能にされ得る。
[0053]ジェスチャー範囲がカメラにとって近すぎる(たとえば、近接閾値未満)と判断されたとき、方法400は、412で、カメラの少なくとも一部分を使用不能にし、超音波ベースの単純なジェスチャー認識を実行することと、420で、(複数の)検出されたジェスチャーを出力することとを含み得る。超音波とカメラの両方にとってジェスチャー範囲が許容できる(たとえば、ジェスチャー範囲が近接閾値と遠方閾値との間にある)と判断されたとき、方法400は、418で、超音波センサーおよびカメラの出力に対する補足的な票決方式の適用を介してジェスチャー認識を実行することと、420で、(複数の)検出されたジェスチャーを出力することとを含み得る。
[0054]図4の方法400は、このように、複数のタイプのセンサー(すなわち、超音波およびカメラ)からの情報に基づいて電子デバイスの車内ハンズフリー操作を可能にすることができる。しかしながら、車内ハンズフリー携帯電話操作のシナリオは単に説明のために提供されていることに留意されたい。他のアプリケーションは、限定はしないが、車内エンターテインメントまたはナビゲーションのための車内ジェスチャー制御、リビングルームのメディア制御、ゲーム、台所機器制御、マルチメディアプレゼンテーション制御、ジム/エクササイズ機器制御などを含む。さらに、本開示のシステムおよび方法は、埋込み型デバイス、ネットブックコンピュータ、タブレットコンピュータ、ラップトップコンピュータ、メディアセンター、セットトップボックス、「スマート」機器、ゲーム機など、携帯電話以外のプラットフォーム上で動作することができる。
[0055]特定の実施形態では、図3および図4の方法300および400は、フィールドプログラマブルゲートアレイ(FPGA)デバイス、特定用途向け集積回路(ASIC)、中央処理ユニット(CPU)などの処理ユニット、デジタル信号プロセッサ(DSP)、コントローラ、別のハードウェアデバイス、ファームウェアデバイス、またはそれらの任意の組合せによって実装され得る。一例として、図3の方法300および図4の方法400は、図5に関して説明されているものなど、命令を実行するプロセッサによって実行され得る。
[0056]図5を参照すると、ワイヤレス通信デバイスの特定の例示的な実施形態のブロック図が示されており、全体的に500と称される。例示的な一実施形態では、デバイス500の全部または一部分は、図1の電子デバイス110の全部または一部分を含み得る、その中に含まれ得る、またはさもなければそれを実装するために使用され得る。デバイス500は、メモリ532に結合されたデジタル信号プロセッサ(DSP)などのプロセッサ510を含む。メモリ532は、図3の方法300および図4の方法400などの、本明細書で開示されている方法およびプロセスを実行するためにプロセッサ510によって実行可能な命令560を含み得る。
[0057]図5はまた、プロセッサ510とディスプレイ528とに結合されたディスプレイコントローラ526を示す。コーダ/デコーダ(コーデック)534もプロセッサ510に結合され得る。スピーカー536およびマイクロフォン538はコーデック534に結合され得る。
[0058]図示のように、超音波センサー111は、超音波処理/制御モジュール112(ハードウェアを介して実装されるものとして示される)を介してプロセッサ510に結合され得る。図示のように、カメラ113は、画像処理/制御モジュール114(ハードウェアを介して実装されるものとして示される)を介して、プロセッサ510に結合され得る。モジュール112および114からの情報は、ジェスチャーを検出するために、ジェスチャー認識モジュール118(プロセッサ510によって実行されるソフトウェアを介して実装されるものとして示される)によって使用され得る。特定の実施形態では、ジェスチャー検出モジュール118は、モジュール112および114から受信された情報に補足的な票決方式を適用することができる。特定の実施形態では、モジュール112および114は、共通データモデルまたはAPIに従ってデータを交換するように構成され得、データ交換117として示されている。たとえば、そのようなデータ交換によって、性能を向上させようとして、プロセッサ510とは無関係に、超音波センサー111およびカメラ113のうちの一方または両方は自己調整することができる。センサー111および/または113からのデータに基づいて、センサー111、113および/またはモジュール112、114の全部または一部分は、電力を節約するために、選択的に非アクティブ化され得る。
[0059]図5はまた、ワイヤレスコントローラ540が、プロセッサ510と、ワイヤレスアンテナ542に結合されたトランシーバ570とに結合され得ることを示す。特定の実施形態では、プロセッサ510、ディスプレイコントローラ526、メモリ532、コーデック534、ワイヤレスコントローラ540、モジュール112および114、ならびにトランシーバ570は、システムインパッケージまたはシステムオンチップデバイス522中に含まれる。特定の実施形態では、入力デバイス530と電源544とがシステムオンチップデバイス522に結合される。さらに、特定の実施形態では、図5に示すように、ディスプレイ528、入力デバイス530、スピーカー536、マイクロフォン538、センサー111および113、ワイヤレスアンテナ542、ならびに電源544は、システムオンチップデバイス522の外部にある。ただし、ディスプレイ528、入力デバイス530、スピーカー536、マイクロフォン538、センサー111および113、ワイヤレスアンテナ542、ならびに電源544の各々は、インターフェースまたはコントローラなど、システムオンチップデバイス522の構成要素に結合され得る。
[0060]特定の実施形態では、デバイス(たとえば、モバイルワイヤレスデバイスまたはその構成要素)は、自由形式のジェスチャー認識を実装することができる。自由形式のジェスチャー認識は、ジェスチャーの特定のセットを認識するように動作可能でもよい。たとえば、自由形式のジェスチャー認識は、最高約10センチメートルの有効な距離で、左、右、および選択のジェスチャーを認識するために使用され得る。特定の実施形態では、自由形式のジェスチャー認識は、ジェスチャーライブラリと、支持する超音波フレームワーク(たとえば、DSP上で動作する、またはそれによって提供される機能、モジュール、および/またはアルゴリズムのライブラリ)との使用を伴い得る。
[0061]自由形式のジェスチャー検出は、説明しやすいように、別々の機能ブロックに対応するものとして本明細書で説明される複数のプロセスを使用して実装され得る。機能ブロックは、メインジェスチャー検出ブロックと、動きアクティビティ検出(MAD)ブロックと、全電力近接検出ブロックと、全電力モードのためのオン/オフスイッチと、干渉検出および除去ブロック(interference detection and cancellation block)とを含み得る。機能ブロックの1つまたは複数は、超音波を使用して実装され得る。超音波ベースのジェスチャー検出ブロックは、ソナー(sonar)またはレーダーと同様に機能することができる。たとえば、超音波送信器は、連続ブロードバンド超音波信号を送信することができる。ユーザの手から反射される超音波信号は、複数の空間的に分離されたマイクロフォンによって検出され得る。飛行時間および他のタイミング機能は、手のジェスチャーを識別するために使用され得る。他のシステムとは対照的に、ジェスチャーの認識のために、ジェスチャー訓練は必要ではない場合がある。MADブロックは、ある距離内での対象の動きを検出するために使用され得る。MADフラグは、(たとえば、平均化フレームを介して)背景のチャネル画像のキャプチャされたスナップショットに対する変化を示すために使用され得る。(たとえば、偽陽性を減らすために)検出アルゴリズムのオン/オフを切り替えるために、スナップショットが近接フラグと一緒に使用されてもよい。自由形式のジェスチャー検出の範囲および敏感性は、制御パラメータによって調整され得る。干渉検出ブロックは、周波数領域における害する(offending)(たとえば、干渉する)超音波センサー周波数を検出することができ、そのような周波数の効果を消去することができる。
[0062]特定の実施形態では、低電力近接感知または検出が実装され得る。たとえば、低電力近接感知は、低デューティサイクル超音波信号を送信することと、近接イベントを検出することと、DSPの全電力モードジェスチャーまたはホバー(hover)検出モジュールを「ウェイクアップさせる」こととを含み得る。低電力近接検出の特定の例は、図8および図10〜図13を参照しながらさらに説明する。
[0063]モバイル超音波フレームワークは、低電力モードと全電力モードとの間の切替えをサポートすることができる。いくつかの実装形態では、(複数の)アナログマイクロフォンもサポートされ得る。特定の実施形態では、マルチモード(たとえば、マルチセンサータイプ)フレームワークのサポートが含まれ得る。マルチモードフレームワークによって、独立したジェスチャー認識システム(たとえば、カメラ、超音波、赤外線など)は、ジェスチャー認識精度を向上させるために、(たとえば、共通データモデルに従って)情報を共有することができる。画面から1〜3センチメートルの有効な距離でゆっくり動く指の座標を検出するために、ホバリング(hovering)検出も実装され得る。
[0064]特定の実施形態では、低電力近接検出は、以下の状態を検出し、その間を区別することができる。1)何かがスピーカー/マイクロフォンを覆うとき(たとえば、デバイスがポケットにある、またはきつく耳に押しつけられたとき)、2)何かがスピーカー/マイクロフォンの上の短距離であるとき(たとえば、手を短距離離れて振っているとき、またはデバイスがゆるく耳を押しているとき)、および3)特定の距離内のスピーカー/マイクロフォンの上に何もないとき(たとえば、アイドルまたは非アクション期間に対応する)。図8は、低電力近接検出システムの特定の例を示しており、全体的に800と称される。システム800は、図示のように、ハイパスフィルタ(HPF)802と、適応ノッチフィルタ(adaptive notch filter)804と、掛算器(multiplier)806と、ダウンサンプラ(down-sampler)808と、変換モジュール810と、近接検出モジュール812とを含む。システム800によって受信される信号は、線形スイープ(linear sweep)または別の広帯域の持続波超音波でもよい。FM復調(ダウンミキシング(down mixing))は、送信された信号フレームと受信された信号フレームとの乗算を含み得る。ローパスフィルタリングは、ベースバンド信号を生成するために、復調された信号の高周波数部分を削除することができる。高速フーリエ変換(FFT)は、位相遅延情報を生成するために実行され得、範囲または近接測定は、FFTピークまたはスペクトルパターンに基づいて実行され得る。
[0065]本明細書で説明する様々なジェスチャー検出機能、モジュール、およびアルゴリズムは、1つまたは複数のジェスチャーライブラリにおいて(たとえば、DSPによって)実装され得る。サードパーティ(third-party)アプリケーションを含むアプリケーションは、ジェスチャー検出機能を組み込むために、ジェスチャーライブラリを呼び出すことができる。説明した技法は、したがって、ユーザエクスペリエンスを高めるためにアプリケーション開発者が活用することができるジェスチャー検出フレームワークを提供することができる。ジェスチャー検出フレームワークは、コアのユーザエクスペリエンスを向上させるために、モバイルデバイスベンダーおよびオペレーティングシステムによって使用されてもよい。
[0066]特定の実施形態では、全電力ジェスチャー検出は、デバイス面近くで単純なスワイプのジェスチャー(swipe gestures)を検出するために、近接スワイプジェスチャー検出を含み得る。たとえば、指のスワイプはもちろん、任意の角度を有する異なるポーズ(poses)のユーザの手が検出され得る。近接スワイプジェスチャーは、デバイス面から約5〜10センチメートルの左、右、および選択のジェスチャーを含むことができる。例示のために、左または右のジェスチャーは、ユーザの手または指が、デバイス面(たとえば画面)に平行に、または垂直に、左から右に、右から左に、時計回りに、または反時計回りに迅速に移動していることによって表され得る。選択、または選択解除のジェスチャーは、ユーザの手が、ユーザの体から離れて伸び、画面の方に通常の速度で移動し、次いで、特定の時間期間(たとえば2分の1秒)の間、特定の場所にとどまり、次いで、デバイスから離れることによって表され得る。構成可能な遅延は、次のジェスチャーが可能になる前に実装され得る。そのような近接スワイプジェスチャー検出を使用することによって、アプリケーションは、フレームワークソフトウェアによって変換される鍵となるイベントまたはタッチイベントを介して、検出されたジェスチャー(たとえば、左、右、選択)を取得することができる。超音波フレームワークは、ジェスチャーライブラリから受信された特定のユーザイベントを対応する高レベルオペレーティングシステム(HLOS)の入力イベントにマッピングすることができ、またはAPIを介して生データを出力することができる。
[0067]全電力のジェスチャー検出は、音声およびジェスチャーコンカレンシー(concurrency)のサポートも含み得、音声は、ステレオモードの1つまたは複数のスピーカーから再生され得る。再生は、(たとえば、モバイルデバイスがテレビに接続されると)ヘッドセットまたは高精細度マルチメディアインターフェース(HDMI(登録商標))接続に切り替えられ得る。ホットスワッピング(hot swapping)は、前後にサポートされ得る。特定の実施形態では、スピーカーフォンが音声および超音波信号出力をサポートする場合、音声信号が出力されている間でさえ、超音波信号はジェスチャー検出のために出力され得る。たとえば、ユーザは、モバイルデバイスの1つまたは複数のスピーカーを使用して歌を聞くことができ、それと同時に、同じ1つまたは複数のスピーカーが超音波信号を出力し、それによって、ユーザは、ジェスチャー(たとえば、巻戻し、早送り、休止、次の曲、前の曲、ボリュームを上げる、ボリュームを下げるなど)を介して音楽出力を制御することができる。
[0068]特定の実施形態では、低電力近接検出は、手がデバイス面の近くにある、デバイスを覆う、またはデバイス面を横切ることを検出することができる。近位の(proximal)検出距離(たとえば、5〜10センチメートル)は、近接検出の制御パラメータとして働き得る。そのような近接検出の使用の例は、たとえばジェスチャー、ホバー、カメラジェスチャーなど、全電力モードアプリケーションをオンにするかどうかを判断することを含み得る。特定の実施形態では、近接検出は、ユーザの手がデバイスを覆っている、スピーカー/マイクロフォンの近くに移動したなどを検出することに応答して、ウェイクアップイベントフラグをアクティブ化し得る。そのような近接検出を使用することによって、アプリケーションは、フレームワークソフトウェアによって変換される鍵となるイベントまたはタッチイベントを介して、近接検出通知を取得することができる。超音波フレームワークは、受信されたユーザイベントをマッピングし、低電力近接検出に応答して全電力のジェスチャー認識をオンにすることができる。
[0069]特定の実施形態では、ジェスチャー検出フレームワークは、いくつかのユーザパラメータ値をサポートするのに十分頑強であり得る。たとえば、サポートされる速度パラメータ(たとえば、ジェスチャーがどのぐらい速く移動でき、しかし依然として認識され得るか)は、2〜20Hzとすることができる。動作距離パラメータ(たとえば、ユーザはセンサーからどのぐらい遠くまたは近くにいることができるか)は、5〜10cmとすることができる。故障率(failure rate)パラメータは、1000につき50〜150であり得る。ジェスチャー直観(gesture intuitiveness)パラメータ(たとえば、「正しい」ジェスチャーを実行する方法をユーザが学ぶのがどのぐらい容易であるか)は、セットアップ命令を読んだ後、ユーザの90%が正しいジェスチャーを実行することが可能であり得る。
[0070]また、フレームワークは、いくつかのシステムパラメータ値をサポートするのに十分頑強であり得る。たとえば、40ミリ秒の応答時間がサポートされ得る。応答時間は、ユーザがアクションを開始したのと、予想される結果が達成されることとの間に、どれくらいの時間が経過することができるかに対応し得る(たとえば、ジェスチャーを完了することと効果を観察することとの間のレイテンシ(latency))。特定の実施形態では、低電力近接検出は25%のデューティサイクルでモバイルデバイスのDSPで実行され得、全電力ジェスチャー検出は、モバイルデバイスのCPU上で実行され得、CPUは、DSPの約60倍の電力を消費する。特定の実施形態では、システムは、トランスデューサ(transducers)が送信経路における高レベルの非線形効果をもたらさないように設計され得る。さらに、ジェスチャー検出は、たとえばワイヤレス(たとえば、米国電気電子学会(IEEE)802.11)ビーコン信号および他のデバイス(たとえば、超音波スタイラス(stylus)がデバイスの近くに配置されるとき、または複数のデバイスが隣接して(in close proximity)動作するとき)から干渉がある場合でさえ、動作することができる。
[0071]超音波検出は、微光(low-light)および無光(no-light)のシナリオで動作することができるが、いくつかのタイプの光が超音波帯域ノイズを生成することができることに留意されたい。したがって、システムは、そのような光によって発せられる超音波ノイズが送信経路を飽和させないように機能することができる。いくつかの状況では、音声帯域ノイズ、風ノイズおよび/または乱気流によって、マイクロフォンの飽和が生じ、非線形効果を生成する場合がある。したがって、システムは、そのようなノイズ状態下でジェスチャー検出をサポートするのに十分頑強であり得る。また、システムは、様々な安定性をサポートするのに十分頑強であり得る。たとえば、デバイスおよび背景の相対的な動きによって誤った検出が生じる場合があるが、ユーザの手とデバイスとの間の適度な量の相対的な動きが存在するときでも、システムはジェスチャー検出をサポートすることができる。
[0072]特定の実施形態では、全電力ジェスチャー検出と低電力近接検出との間の移行シーケンスは、次のようであり得る。ジェスチャーマネージャは、アプリケーションレベルおよび/またはシステムレベルで決定され得る動作モードに基づいて、異なるジェスチャー検出ソースを開始し、停止する役割を果たし得る。ジェスチャーマネージャは、超音波低電力近接検出を開始することができる。超音波低電力近接検出は、ジェスチャーマネージャに近接イベントを通知することができる。ジェスチャーマネージャは、超音波低電力近接検出を停止することができ、全電力超音波/カメラジェスチャー検出を開始することができる。全電力超音波/カメラジェスチャー検出は、ジェスチャーマネージャにジェスチャーイベントを通知することができる。全電力超音波/カメラジェスチャー検出がタイムアウトすると、ジェスチャーマネージャは、全電力超音波/カメラジェスチャー検出を停止することができ、超音波低電力近接検出を再開することができる。
[0073]特定の実施形態では、低電力のモードと全電力のモードとの間の切替え機構は、(複数の)全電力のモジュールおよび他の並列の(concurrent)アプリケーションイベントの状態に基づいて、アプリケーションプロセッサ(たとえば、CPU)によって実装され得る。たとえば、ディスプレイ画面がオフにされると、低電力モード(たとえば、低電力近接検出モード)に入り得る。全電力ジェスチャー検出が「スイッチオフ」コマンドを送ると、低電力モードに入ることもできる。「スイッチオフ」コマンドに応答して、全電力ジェスチャー検出が「スイッチオン」コマンドを送らなかった場合、デバイスは、ある時間期間(たとえば、1〜2分)の間待つことができ、次いで、低電力モードに移行することができる。低電力近接検出イベントは、全電力のジェスチャー/ホバー/カメラ検出をトリガすることもできる。
[0074]いくつかの実装形態では、遅延は、低電力近接検出に関連付けられ得る。したがって、低電力モードから全電力モードへの移行を完了するために、いくつかの別々のステップが実行され得る。最初に、低電力近接検出をトリガするために、手がデバイスを覆う、またはデバイスの近くを移動し得る。ユーザフィードバック(たとえば、視覚フィードバック)によって、全電力モードに入り得る。後続のジェスチャーは、全電力モードで検出され得る。代替または追加として、電話呼が受信された場合、デバイスは、全電力モードに切り替わり得る。
[0075]図9は、マルチモードジェスチャー検出システムの特定の例を示しており、全体的に900と称される。図9に示すように、様々なソースから入力されたジェスチャー検出(たとえば、カメラジェスチャー902、超音波ジェスチャー904、動きジェスチャー906、1つまたは複数の追加のジェスチャーソースからのジェスチャー908など)は、ジェスチャーバスサーバ910を介して、ジェスチャーマネージャ920に通信され得る。特定の実施形態では、メッセージは、プロセス間通信(IPC)のためのソケット通信を使用して、ジェスチャーバスサーバ910によって通信され得る。図9のシステム900は、オンターゲットならびにオフターゲットのジェスチャーソースの両方をサポートすることができる。
[0076]記載の実施形態によれば、電子デバイスは、送信された信号と比較して、信号の反射の検出が特定の特徴を有することに応答して、低電力モードから(たとえば、スリープモードからアクティブモードに)移行することができる。たとえば、図10に示したように、電子デバイスは、スピーカー1002とマイクロフォン1004とで構成され得る。電子デバイスが低電力モードであるとき、スピーカー1002は、信号を発する。信号が対象(たとえば、例示的な対象1006)に到達すると、信号は反射され、反射のうちのいくつかはマイクロフォン1004によって検出される。一実施形態では、図11に示すように、線形に変化する周波数を有する信号は、スピーカー1002によって送信され得、信号の反射は、マイクロフォン1004で受信され得る。電子デバイスは、反射が、デバイスウェイクアップモジュールまたは回路1010を介して、低電力モード(たとえば、ポケットから電話を取り出す、電話の表を下から上にフリップする(flip)などの状況)から移行する旨の要求を示すかどうかを決定することができる(たとえば、低電力超音波検出フロントエンドモジュールまたは回路1008を介して)。反射が低電力モードから移行する旨の要求を示すかどうかを決定するために、反射の周波数と、反射が受信されたとき、スピーカー1002から発せられる信号の周波数との間の周波数差が計算され得る。
[0077]たとえば、図11に示すように、超音波信号(図11の「スピーカーからの信号」と表される)は、第1の時間において(たとえば、t0)、電子デバイス(たとえば、図10の電子デバイス)のスピーカーから発せられ得る。超音波信号の第1の反射(たとえば、図11でr1と表される)は、第2の時間(たとえば、t1)に、マイクロフォンによって受信され得る。t1の第1の反射の周波数は、t0における超音波信号の周波数に対応し得る。第1の反射を受信すると、電子デバイスは、第1の反射の周波数差を計算するための方法を開始することができる。方法を開始するために、電子デバイスは、t1の超音波信号の周波数とt1の第1の反射の反射数とを乗算して(multiply)、周波数差と周波数和とを生成することができる。周波数差は、第1の反射を引き起こした対象の電子デバイスからの距離を示し得る。周波数差および周波数和は、周波数和を削除し、周波数差を分離するために、ローパスフィルタを介して処理される。電子デバイスは、電子デバイスからの対象の距離に対応する振幅値(たとえば、図11の左下4分の1)を生成するために、分離された周波数差において高速フーリエ変換を実行することができる。超音波信号の第2の反射は(たとえば、図11でr2と表される)、第3の時間(たとえば、t2)に、マイクロフォンによって受信され得る。第2の反射を受信することに応答して、電子デバイスは、方法ステップを再度実行することができる。図11に示すように、第1の反射および第2の反射の周波数差を算出した後、第1のピークおよび第2のピークが識別される(たとえば、p1およびp2)。
[0078]何度も第1および第2の反射を使用して上記の方法を順次実行することによって、ピークのスペクトルが生成され得る。生成されたピークのスペクトルは、電子デバイスを低電力モードから移行するべきかどうかを判断するために使用され得る。たとえば、特定のスペクトルは、デバイスが低電力モードから移行すべきかどうかを示すことができる。電子デバイスは、1つまたは複数の既知のスペクトル(たとえば、電子デバイスがユーザのポケットにあること、電子デバイスがテーブル上に表を下にしてあることなどを示すスペクトル)を保存するためのメモリを含み得る。第1の記憶されたスペクトルは、電子デバイスを、低電力モード(たとえば、電話はユーザのポケットにある)から移行させないスペクトルに対応し得る。電子デバイスは、生成されたスペクトルに基づいて低電力モードから移行することができる。
[0079]別の実装形態では、超音波信号の波形は、余弦波に従って変わり得る。超音波信号はスピーカーによって送信され得、信号の反射はマイクロフォンで受信され得る。図11に関して上記で説明したように、時刻t1の第1の反射の波形は、t0における超音波信号の波形に対応し得る。電子デバイスは、t1の反射の波形とt1の超音波信号の波形との間の位相差に基づいて低電力モードから移行することができる。
[0080]図12は、低電力モードから電子デバイスを移行するべきかどうかを判断する方法の例示的なフローチャートである。方法は、1202で、電子デバイスのスピーカーから信号を発し、信号の少なくとも1つの反射を受信することから開始する。上記で説明したように、反射が受信されると、1204で、(たとえば、周波数差に基づいて、または位相差に基づいて)スペクトル/反射経路が生成される。1206で、スペクトルは、記憶された否定的な例と比較され得る。否定的な例は、(たとえば、電話がユーザのポケットにおいてシフトしたことを示す反射経路など)低電力モードからの移行を引き起こさないスペクトルに対応し得る。スペクトルが記憶された否定的な例に一致する場合、1208で、電子デバイスは、スピーカーからの第2の超音波信号を送信し、方法を再開する前に、ある時間期間待つことができる。記憶された否定的な例は、ある時間期間後に終了する、および/またはデフォルトの否定的な例を含み得る。追加の否定的な例は、以下でより詳細に説明するように動的に記憶され得る。
[0081]スペクトルが否定的な例に一致しないとき、1210で、電子デバイスは、スペクトルが経路の度重なる変更を有する信号を示すかどうかを判断することができる(たとえば、電子デバイスの前で手が振られる)。スペクトルが経路の度重なる変更を示す場合、1212で、電子デバイスは、低電力モードから移行することができる。
[0082]スペクトルが経路の度重なる変更を有する信号を示さないとき、1214で、電子デバイスは、スペクトルが信号の移行を示すかどうかを判断することができる。たとえば、電子デバイスは、電子デバイスがユーザのポケットにあることを第1のスペクトルが示すと判断することができる。電子デバイスがユーザのポケットにないことを示す第2のスペクトルが算出された場合、1212で、電子デバイスは、低電力モードから移行することができる。別の例として、電子デバイスが電話である場合、第1のスペクトルは、電話のディスプレイ画面が机の方に向いた状態で電話が机に置かれていたことを示すことができる。後で、電話が机から持ち上げられたこと、またはディスプレイ画面が机の方に向いていないことを示す第2のスペクトルが算出された場合、電子デバイスは、低電力モードから移行することができる。
[0083]スペクトルが信号の移行を示さないとき、電子デバイスは、1216で、スペクトルの特徴(たとえば、スペクトルによって示されるエネルギー、スペクトルの強度など)を抽出することができ、1218で、特徴が閾値を超えるかどうかを判断することができる。特徴が閾値を超える場合、電子デバイスは、1212で、低電力モードから移行することができる。そうでない場合、電子デバイスは、1220で、否定的な例を更新することができ、1208で、スピーカーから第2の超音波信号を送信する前に、ある時間期間待つことができる。
[0084]低電力モードから移行すると、電子デバイスでアクティビティが検出されない場合(たとえば、1222で、肯定的なフィードバック)、1212で、電子デバイスは、低電力モードに戻るように構成され得る。さらに、偽陽性状態が検出された場合、1220で、デバイスに低電力モードから移行させた反射に関連付けられたスペクトルは、(たとえば、スペクトルが偽陽性であったので)記憶された否定的な例に追加され得る。
[0085]低電力モードから電子デバイスをいつ移行させるべきかを識別するために、超音波送信器およびマイクロフォンを使用することは、他の技法(たとえば、光学/赤外線タイプシステム、およびタッチタイプシステムにおけるウェイクアップ)よりも消費する電力が少ない。さらに、多くの電子デバイスがスピーカーおよびマイクロフォンをすでに備えているので、余分のトランスデューサまたはセンサーは必要ない。
[0086]記載の実施形態に関連して、第1の出力を生成し、第1のセンサータイプを有するための第1のセンサー手段を含む装置が開示される。たとえば、生成するための第1のセンサー手段は、図1〜図2および図5の超音波センサー111、図1〜図2および図5の超音波処理/制御モジュール112、図2の超音波追跡モジュール201、図2の超音波ジェスチャー認識モジュール202、第1の出力を生成し、第1のセンサータイプを有する1つもしくは複数の他のデバイスもしくは回路、またはそれらの任意の組合せとすることができる。
[0087]装置は、第2の出力を生成し、第1のセンサータイプとは異なる第2のセンサータイプを有するための第2のセンサー手段を含むこともできる。たとえば、生成するための第2のセンサー手段は、図1〜図2および図5のカメラ113、図1〜図2および図5の画像処理/制御モジュール114、図2のカメラ追跡モジュール203、図2のカメラジェスチャー認識モジュール204、第2の出力を生成し、第1のセンサータイプとは異なる第2のセンサータイプを有する1つもしくは複数の他のデバイスもしくは回路、またはそれらの任意の組合せとすることができる。
[0088]装置は、ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、第1の出力と第2の出力とに基づいて、ジェスチャーを検出するための手段をさらに含み得る。たとえば、検出するための手段は、図1〜図2および図5のジェスチャー認識モジュール118、図2のマルチモードジェスチャー識別モジュール205、図2の拡張ジェスチャーインターフェース206、ジェスチャーを検出するための1つもしくは複数の他のデバイスもしくは回路、またはそれらの任意の組合せとすることができる。
[0089]装置は、照明レベルを決定するための手段を含み得る。たとえば、照明レベルを決定するための手段は、図1の光検出器115、図1の光検出器116、照明レベルを決定するための1つまたは複数の他のデバイスもしくは回路、またはそれらの任意の組合せとすることができる。装置は、ジェスチャー範囲を決定するための手段も含み得る。たとえば、ジェスチャー範囲を決定するための手段は、図1〜図2および図5の超音波センサー111、図1〜図2および図5のカメラ113、図1〜図2および図5の超音波処理/制御モジュール112、図1〜図2および図5の画像処理/制御モジュール114、図2の超音波追跡モジュール201、図2のカメラ追跡モジュール203、ジェスチャー範囲を決定するための1つもしくは複数の他のデバイスもしくは回路、またはそれらの任意の組合せとすることができる。
[0090]装置は、照明レベルおよびジェスチャー範囲に基づいて第2のセンサー手段を選択的に非アクティブ化するための手段をさらに含み得る。たとえば、選択的に非アクティブ化するための手段は、図1〜図2および図5のカメラ113の一部、図1〜図2および図5の画像処理/制御モジュール114、センサー手段を選択的に非アクティブ化するための1つもしくは複数の他のデバイスもしくは回路、またはそれらの任意の組合せとすることができる。
[0091]さらに、本明細書で開示した実施形態に関して説明した様々な例示的な論理ブロック、構成、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、ハードウェアプロセッサなどの処理デバイスによって実行されるコンピュータソフトウェア、または両方の組合せとして実装され得ることを、当業者は諒解されよう。様々な例示的な構成要素、ブロック、構成、モジュール、回路、およびステップについて、上記では概して、それらの機能に関して説明した。そのような機能をハードウェアとして実装するか、実行可能ソフトウェアとして実装するかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者であれば、各々の特定の用途について様々な方法により説明されている機能を実装することができるが、そのような実装決定は、本開示の範囲からの逸脱を引き起こすものとして解釈すべきではない。
[0092]本明細書で開示されている実施形態に関して説明されている方法またはアルゴリズムのステップは、ハードウェアで直接、プロセッサにより実行されるソフトウェアモジュールにより、またはこれら2つの組合せにより具現化することができる。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、磁気抵抗ランダムアクセスメモリ(MRAM)、スピントルク移動MRAM(STT−MRAM)、フラッシュメモリ、リードオンリーメモリ(ROM)、プログラム可能リードオンリーメモリ(PROM)、消去可能プログラム可能リードオンリーメモリ(EPROM)、電気的消去可能プログラム可能リードオンリーメモリ(EEPROM)、レジスタ、ハードディスク、取り外し可能ディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)、または当技術分野で知られている他の形態の記憶媒体などの非一時的記憶媒体内に存在することができる。例示的な記憶媒体は、プロセッサがその記憶媒体から情報を読み込み、その記憶媒体に情報を書き込めるようにプロセッサに結合される。代替的形態では、記憶媒体は、プロセッサに一体化することができる。プロセッサおよび記憶媒体は、特定用途向け集積回路(ASIC)に収めることもできる。ASICは、コンピューティングデバイスまたはユーザ端末に収めることができる。代替的形態において、プロセッサおよび記憶媒体は、コンピューティングデバイスまたはユーザ端末内のディスクリートコンポーネントとして収めることができる。
[0093]開示されている実施形態を前記のように提示したのは、当業者が開示されている実施形態を製作または使用することができるようにするためである。これらの実施形態への様々な変更は当業者には容易に明らかになり、本明細書で定義された原理は本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、本明細書に示した実施形態に限定されるものではなく、特許請求の範囲によって定義される原理および新規の特徴と合致することが可能な最も広い範囲が与えられるべきものである。
[0093]開示されている実施形態を前記のように提示したのは、当業者が開示されている実施形態を製作または使用することができるようにするためである。これらの実施形態への様々な変更は当業者には容易に明らかになり、本明細書で定義された原理は本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、本明細書に示した実施形態に限定されるものではなく、特許請求の範囲によって定義される原理および新規の特徴と合致することが可能な最も広い範囲が与えられるべきものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]第1の出力を生成するように構成された第1のセンサーと、
第2の出力を生成するように構成されたカメラと、
プロセッサと、
前記第1の出力および前記第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するために前記プロセッサによって実行可能なジェスチャー検出モジュールと
を備え、前記カメラの少なくとも一部分が、照明レベルとジェスチャー範囲とに基づいて選択的に非アクティブ化される
装置。
[2]前記第1のセンサーが超音波センサーを備える、[1]に記載の装置。
[3]前記第1の出力を処理するように構成された超音波処理経路と、
前記第2の出力を処理するように構成された画像処理経路と
をさらに備え、前記超音波処理経路が、前記画像処理経路にジェスチャー範囲情報を送るように構成される
[2]に記載の装置。
[4]前記カメラの内部の、前記照明レベルを決定するように構成された光検出器をさらに備える、[1]に記載の装置。
[5]前記カメラの外部の、前記照明レベルを決定するように構成された光検出器をさらに備える、[1]に記載の装置。
[6]前記ジェスチャーを検出することが、
前記照明レベルが照明閾値未満であるとき、前記カメラを非アクティブ化し、前記第1のセンサーからの前記第1の出力に基づいてジェスチャー認識を実行することと、
前記照明レベルが前記照明閾値以上であるとき、
前記ジェスチャー範囲が近接閾値未満であるとき、前記第1のセンサーからの前記第1の出力に基づいてジェスチャー検出を実行することと、
前記ジェスチャー範囲が遠方閾値を上回るとき、前記カメラをアクティブ化し、前記カメラからの前記第2の出力に基づいてジェスチャー認識を実行することと、
前記ジェスチャー範囲が前記近接閾値を上回り、前記遠方閾値未満であるとき、前記カメラをアクティブ化し、補足的な票決方式を前記第1の出力および前記第2の出力に適用することによってジェスチャー認識を実行することと
を備える、[1]に記載の装置。
[7]前記補足的な票決方式がジェスチャーの複雑度に少なくとも部分的に基づく、[6]に記載の装置。
[8]電子デバイスの第1のセンサーから第1の出力を受信することであり、前記第1のセンサーが第1のセンサータイプを有することと、
前記電子デバイスの第2のセンサーから第2の出力を受信することであり、前記第2のセンサーが前記第1のセンサータイプとは異なる第2のセンサータイプを有することと、
ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、前記第1の出力と前記第2の出力とに基づいて、ジェスチャーを検出することと
を備える方法。
[9]前記第1のセンサータイプおよび前記第2のセンサータイプの各々が、カメラセンサータイプと、超音波センサータイプと、赤外線センサータイプと、磁気センサータイプとのうちの少なくとも1つを備える、[8]に記載の方法。
[10]前記第1の出力が、第1の信頼度スコアを有する第1のジェスチャーを識別し、前記第2の出力が、第2の信頼度スコアを有する第2のジェスチャーを識別する、[8]に記載の方法。
[11]前記補足的な票決方式を適用することが、
前記第1のセンサーおよび前記第2のセンサーが同じジェスチャーを識別したとき、前記同じジェスチャーを出力ジェスチャーとして選択することと、
前記第1のセンサーおよび前記第2のセンサーが異なるジェスチャーを識別したとき、より高い信頼度スコアを有するジェスチャーを前記出力ジェスチャーとして選択することと
を備える、[10]に記載の方法。
[12]前記補足的な票決方式を適用することが、前記第1のセンサーおよび前記第2のセンサーが異なる複雑度のジェスチャーを識別するとき、より複雑なジェスチャーを前記出力ジェスチャーとして選択することをさらに備える、[11]に記載の方法。
[13]前記第1のセンサーおよび前記第2のセンサーが、共通データモデルに従ってデータを出力するように構成される、[11]に記載の方法。
[14]前記第1のセンサーに関連付けられた第1の処理経路が、前記第2のセンサーによって出力された前記データを受信し、前記第2のセンサーに関連付けられた第2の処理経路が、前記第1のセンサーによって出力された前記データを受信する、[13]に記載の方法。
[15]第3のセンサーから第3の出力を受信することをさらに備え、前記ジェスチャーが、前記第3のセンサーからの前記第3の出力にさらに基づいて検出される、[8]に記載の方法。
[16]第1の出力を生成し、第1のセンサータイプを有するための第1のセンサー手段と、
第2の出力を生成し、前記第1のセンサータイプとは異なる第2のセンサータイプを有するための第2のセンサー手段と、
ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、前記第1の出力と前記第2の出力とに基づいて、ジェスチャーを検出するための手段と
を備える装置。
[17]照明レベルを決定するための手段と、
ジェスチャー範囲を決定するための手段と
をさらに備える[16]に記載の装置。
[18]前記照明レベルおよび前記ジェスチャー範囲に基づいて前記第2のセンサー手段を選択的に非アクティブ化するための手段をさらに備える、[17]に記載の装置。
[19]共通データモデルに従って第1の出力を生成し、前記第1の出力を超音波処理経路に提供するように構成された超音波センサーと、
前記共通データモデルに従って第2の出力を生成し、前記第2の出力を画像処理経路に提供するように構成されたカメラと、
プロセッサと、
前記第1の出力および前記第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するために前記プロセッサによって実行可能なジェスチャー検出モジュールと
を備え、前記超音波処理経路および前記画像処理経路が、前記共通データモデルに従ってデータを交換するように構成される
装置。
[20]前記共通データモデルに従って交換される前記データが、前記超音波センサーからの前記第1の出力と、前記カメラからの前記第2の出力と、前記超音波センサーまたは前記カメラに対する対象の範囲に関連するデータと、前記超音波センサーまたは前記カメラに対する前記対象の位置に関連したデータと、前記超音波センサーまたは前記カメラのアクティブ構成に関連付けられたデータと、またはそれらの任意の組合せとを含む、[19]に記載の装置。
[21]前記カメラが、前記超音波処理経路から受信された前記データに基づいて関心のあるエリアを識別するように構成される、[19]に記載の装置。
[22]前記超音波処理経路が、特定の検出されたジェスチャーが前記画像処理経路から受信された前記データに基づいて偽陽性であるかどうかを判断するように構成される、[19]に記載の装置。
[23]照明レベルを検出するように構成された光検出器をさらに備え、前記カメラの少なくとも一部分が、前記照明レベルに基づいて、選択的に非アクティブ化される、[19]に記載の装置。
[24]第1の出力を超音波処理経路に提供するように構成された超音波センサーと、
第2の出力を画像処理経路に提供するように構成されたカメラと、
プロセッサと、
前記第1の出力および前記第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するために前記プロセッサによって実行可能なジェスチャー検出モジュールと
を備え、前記超音波センサーおよび前記カメラが各々、前記超音波処理経路と前記画像処理経路との間で交換されるデータに基づいて、前記プロセッサとは無関係に、自己調整するように構成される
装置。
[25]前記超音波センサーが、前記カメラからの前記第2の出力に基づいて、アクティブ構成、信号放出周波数、信号放出方向、または任意のそれらの組合せを自己調整する、[24]に記載の装置。
[26]前記カメラが、前記超音波センサーからの前記第1の出力に基づいて、アクティブ構成、焦点距離、焦点領域、または任意のそれらの組合せを自己調整する、[24]に記載の装置。
[27]前記ジェスチャー検出モジュールが、ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式を適用することによって、前記ジェスチャーを検出する、[24]に記載の装置。
[28]プロセッサによって実行されると、前記プロセッサに、
電子デバイスの第1のセンサーから第1の出力を受信することであり、前記第1のセンサーが第1のセンサータイプを有することと、
前記電子デバイスの第2のセンサーから第2の出力を受信することであり、前記第2のセンサーが前記第1のセンサータイプとは異なる第2のセンサータイプを有することと、
ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、前記第1の出力と前記第2の出力とに基づいて、ジェスチャーを検出することと
を行わせる命令を備える非一時的プロセッサ可読媒体。
[29]前記第1の出力が、第1の信頼度スコアを有する第1のジェスチャーを識別し、前記第2の出力が、第2の信頼度スコアを有する第2のジェスチャーを識別する、[28]に記載の非一時的プロセッサ可読媒体。
[30]前記プロセッサによって実行されると、前記プロセッサに、第3のセンサーから第3の出力を受信することであり、前記ジェスチャーが、前記第3のセンサーからの前記第3の出力にさらに基づいて検出されることを行わせる命令をさらに備える、[28]に記載の非一時的プロセッサ可読媒体。

Claims (30)

  1. 第1の出力を生成するように構成された第1のセンサーと、
    第2の出力を生成するように構成されたカメラと、
    プロセッサと、
    前記第1の出力および前記第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するために前記プロセッサによって実行可能なジェスチャー検出モジュールと
    を備え、前記カメラの少なくとも一部分が、照明レベルとジェスチャー範囲とに基づいて選択的に非アクティブ化される
    装置。
  2. 前記第1のセンサーが超音波センサーを備える、請求項1に記載の装置。
  3. 前記第1の出力を処理するように構成された超音波処理経路と、
    前記第2の出力を処理するように構成された画像処理経路と
    をさらに備え、前記超音波処理経路が、前記画像処理経路にジェスチャー範囲情報を送るように構成される
    請求項2に記載の装置。
  4. 前記カメラの内部の、前記照明レベルを決定するように構成された光検出器をさらに備える、請求項1に記載の装置。
  5. 前記カメラの外部の、前記照明レベルを決定するように構成された光検出器をさらに備える、請求項1に記載の装置。
  6. 前記ジェスチャーを検出することが、
    前記照明レベルが照明閾値未満であるとき、前記カメラを非アクティブ化し、前記第1のセンサーからの前記第1の出力に基づいてジェスチャー認識を実行することと、
    前記照明レベルが前記照明閾値以上であるとき、
    前記ジェスチャー範囲が近接閾値未満であるとき、前記第1のセンサーからの前記第1の出力に基づいてジェスチャー検出を実行することと、
    前記ジェスチャー範囲が遠方閾値を上回るとき、前記カメラをアクティブ化し、前記カメラからの前記第2の出力に基づいてジェスチャー認識を実行することと、
    前記ジェスチャー範囲が前記近接閾値を上回り、前記遠方閾値未満であるとき、前記カメラをアクティブ化し、補足的な票決方式を前記第1の出力および前記第2の出力に適用することによってジェスチャー認識を実行することと
    を備える、請求項1に記載の装置。
  7. 前記補足的な票決方式がジェスチャーの複雑度に少なくとも部分的に基づく、請求項6に記載の装置。
  8. 電子デバイスの第1のセンサーから第1の出力を受信することであり、前記第1のセンサーが第1のセンサータイプを有することと、
    前記電子デバイスの第2のセンサーから第2の出力を受信することであり、前記第2のセンサーが前記第1のセンサータイプとは異なる第2のセンサータイプを有することと、
    ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、前記第1の出力と前記第2の出力とに基づいて、ジェスチャーを検出することと
    を備える方法。
  9. 前記第1のセンサータイプおよび前記第2のセンサータイプの各々が、カメラセンサータイプと、超音波センサータイプと、赤外線センサータイプと、磁気センサータイプとのうちの少なくとも1つを備える、請求項8に記載の方法。
  10. 前記第1の出力が、第1の信頼度スコアを有する第1のジェスチャーを識別し、前記第2の出力が、第2の信頼度スコアを有する第2のジェスチャーを識別する、請求項8に記載の方法。
  11. 前記補足的な票決方式を適用することが、
    前記第1のセンサーおよび前記第2のセンサーが同じジェスチャーを識別したとき、前記同じジェスチャーを出力ジェスチャーとして選択することと、
    前記第1のセンサーおよび前記第2のセンサーが異なるジェスチャーを識別したとき、より高い信頼度スコアを有するジェスチャーを前記出力ジェスチャーとして選択することと
    を備える、請求項10に記載の方法。
  12. 前記補足的な票決方式を適用することが、前記第1のセンサーおよび前記第2のセンサーが異なる複雑度のジェスチャーを識別するとき、より複雑なジェスチャーを前記出力ジェスチャーとして選択することをさらに備える、請求項11に記載の方法。
  13. 前記第1のセンサーおよび前記第2のセンサーが、共通データモデルに従ってデータを出力するように構成される、請求項11に記載の方法。
  14. 前記第1のセンサーに関連付けられた第1の処理経路が、前記第2のセンサーによって出力された前記データを受信し、前記第2のセンサーに関連付けられた第2の処理経路が、前記第1のセンサーによって出力された前記データを受信する、請求項13に記載の方法。
  15. 第3のセンサーから第3の出力を受信することをさらに備え、前記ジェスチャーが、前記第3のセンサーからの前記第3の出力にさらに基づいて検出される、請求項8に記載の方法。
  16. 第1の出力を生成し、第1のセンサータイプを有するための第1のセンサー手段と、
    第2の出力を生成し、前記第1のセンサータイプとは異なる第2のセンサータイプを有するための第2のセンサー手段と、
    ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、前記第1の出力と前記第2の出力とに基づいて、ジェスチャーを検出するための手段と
    を備える装置。
  17. 照明レベルを決定するための手段と、
    ジェスチャー範囲を決定するための手段と
    をさらに備える請求項16に記載の装置。
  18. 前記照明レベルおよび前記ジェスチャー範囲に基づいて前記第2のセンサー手段を選択的に非アクティブ化するための手段をさらに備える、請求項17に記載の装置。
  19. 共通データモデルに従って第1の出力を生成し、前記第1の出力を超音波処理経路に提供するように構成された超音波センサーと、
    前記共通データモデルに従って第2の出力を生成し、前記第2の出力を画像処理経路に提供するように構成されたカメラと、
    プロセッサと、
    前記第1の出力および前記第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するために前記プロセッサによって実行可能なジェスチャー検出モジュールと
    を備え、前記超音波処理経路および前記画像処理経路が、前記共通データモデルに従ってデータを交換するように構成される
    装置。
  20. 前記共通データモデルに従って交換される前記データが、前記超音波センサーからの前記第1の出力と、前記カメラからの前記第2の出力と、前記超音波センサーまたは前記カメラに対する対象の範囲に関連するデータと、前記超音波センサーまたは前記カメラに対する前記対象の位置に関連したデータと、前記超音波センサーまたは前記カメラのアクティブ構成に関連付けられたデータと、またはそれらの任意の組合せとを含む、請求項19に記載の装置。
  21. 前記カメラが、前記超音波処理経路から受信された前記データに基づいて関心のあるエリアを識別するように構成される、請求項19に記載の装置。
  22. 前記超音波処理経路が、特定の検出されたジェスチャーが前記画像処理経路から受信された前記データに基づいて偽陽性であるかどうかを判断するように構成される、請求項19に記載の装置。
  23. 照明レベルを検出するように構成された光検出器をさらに備え、前記カメラの少なくとも一部分が、前記照明レベルに基づいて、選択的に非アクティブ化される、請求項19に記載の装置。
  24. 第1の出力を超音波処理経路に提供するように構成された超音波センサーと、
    第2の出力を画像処理経路に提供するように構成されたカメラと、
    プロセッサと、
    前記第1の出力および前記第2の出力のうちの少なくとも1つに基づいてジェスチャーを検出するために前記プロセッサによって実行可能なジェスチャー検出モジュールと
    を備え、前記超音波センサーおよび前記カメラが各々、前記超音波処理経路と前記画像処理経路との間で交換されるデータに基づいて、前記プロセッサとは無関係に、自己調整するように構成される
    装置。
  25. 前記超音波センサーが、前記カメラからの前記第2の出力に基づいて、アクティブ構成、信号放出周波数、信号放出方向、または任意のそれらの組合せを自己調整する、請求項24に記載の装置。
  26. 前記カメラが、前記超音波センサーからの前記第1の出力に基づいて、アクティブ構成、焦点距離、焦点領域、または任意のそれらの組合せを自己調整する、請求項24に記載の装置。
  27. 前記ジェスチャー検出モジュールが、ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式を適用することによって、前記ジェスチャーを検出する、請求項24に記載の装置。
  28. プロセッサによって実行されると、前記プロセッサに、
    電子デバイスの第1のセンサーから第1の出力を受信することであり、前記第1のセンサーが第1のセンサータイプを有することと、
    前記電子デバイスの第2のセンサーから第2の出力を受信することであり、前記第2のセンサーが前記第1のセンサータイプとは異なる第2のセンサータイプを有することと、
    ジェスチャーの複雑度に少なくとも部分的に基づく補足的な票決方式に従って、前記第1の出力と前記第2の出力とに基づいて、ジェスチャーを検出することと
    を行わせる命令を備える非一時的プロセッサ可読媒体。
  29. 前記第1の出力が、第1の信頼度スコアを有する第1のジェスチャーを識別し、前記第2の出力が、第2の信頼度スコアを有する第2のジェスチャーを識別する、請求項28に記載の非一時的プロセッサ可読媒体。
  30. 前記プロセッサによって実行されると、前記プロセッサに、第3のセンサーから第3の出力を受信することであり、前記ジェスチャーが、前記第3のセンサーからの前記第3の出力にさらに基づいて検出されることを行わせる命令をさらに備える、請求項28に記載の非一時的プロセッサ可読媒体。
JP2014559915A 2012-03-01 2013-02-15 複数のタイプのセンサーからの情報に基づくジェスチャー検出 Expired - Fee Related JP6100286B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261605636P 2012-03-01 2012-03-01
US61/605,636 2012-03-01
US201261691989P 2012-08-22 2012-08-22
US61/691,989 2012-08-22
US13/767,698 US9389690B2 (en) 2012-03-01 2013-02-14 Gesture detection based on information from multiple types of sensors
US13/767,698 2013-02-14
PCT/US2013/026307 WO2013130285A2 (en) 2012-03-01 2013-02-15 Gesture detection based on information from multiple types of sensors

Publications (3)

Publication Number Publication Date
JP2015509634A true JP2015509634A (ja) 2015-03-30
JP2015509634A5 JP2015509634A5 (ja) 2016-10-27
JP6100286B2 JP6100286B2 (ja) 2017-03-22

Family

ID=49042622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014559915A Expired - Fee Related JP6100286B2 (ja) 2012-03-01 2013-02-15 複数のタイプのセンサーからの情報に基づくジェスチャー検出

Country Status (7)

Country Link
US (1) US9389690B2 (ja)
EP (1) EP2820536B1 (ja)
JP (1) JP6100286B2 (ja)
KR (1) KR101737190B1 (ja)
CN (1) CN104115118A (ja)
IN (1) IN2014MN01518A (ja)
WO (1) WO2013130285A2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016218899A (ja) * 2015-05-25 2016-12-22 コニカミノルタ株式会社 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
JP2018520394A (ja) * 2015-04-30 2018-07-26 グーグル エルエルシー タイプに依存しないrf信号表現
JP2018181293A (ja) * 2017-09-11 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11054911B2 (en) 2017-04-18 2021-07-06 Kyocera Corporation Electronic device, program, and control method
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
WO2022064827A1 (ja) * 2020-09-25 2022-03-31 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2022522491A (ja) * 2019-03-01 2022-04-19 華為技術有限公司 ジェスチャ処理方法およびデバイス
WO2023042433A1 (ja) * 2021-09-15 2023-03-23 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法、及び、プログラム
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8719714B2 (en) 2009-07-08 2014-05-06 Steelseries Aps Apparatus and method for managing operations of accessories
EP2682841B1 (en) * 2011-03-03 2016-11-23 Omron Corporation Gesture input device and method for controlling gesture input device
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9173086B2 (en) 2012-07-17 2015-10-27 Samsung Electronics Co., Ltd. Method and apparatus for preventing screen off during automatic response system service in electronic device
KR101910509B1 (ko) 2012-07-17 2018-10-22 삼성전자주식회사 전자장치에서 자동응답시스템 서비스 이용중 화면 꺼짐 방지를 위한 방법 및 장치
TW201409298A (zh) * 2012-08-21 2014-03-01 Wintek Corp 顯示器模組
US9406103B1 (en) 2012-09-26 2016-08-02 Amazon Technologies, Inc. Inline message alert
US20140099894A1 (en) * 2012-10-09 2014-04-10 Research In Motion Limited Apparatus and method pertaining to testing a stylus communication path for interference
US8781171B2 (en) 2012-10-24 2014-07-15 Honda Motor Co., Ltd. Object recognition in low-lux and high-lux conditions
TW201423484A (zh) * 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
US9256269B2 (en) * 2013-02-20 2016-02-09 Sony Computer Entertainment Inc. Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state
US9977507B2 (en) * 2013-03-14 2018-05-22 Eyesight Mobile Technologies Ltd. Systems and methods for proximity sensor and image sensor based gesture detection
US9687730B2 (en) * 2013-03-15 2017-06-27 Steelseries Aps Gaming device with independent gesture-sensitive areas
US9075435B1 (en) * 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
US9672627B1 (en) * 2013-05-09 2017-06-06 Amazon Technologies, Inc. Multiple camera based motion tracking
US9131106B2 (en) * 2013-07-03 2015-09-08 Cisco Technology, Inc. Obscuring a camera lens to terminate video output
US9477314B2 (en) 2013-07-16 2016-10-25 Google Technology Holdings LLC Method and apparatus for selecting between multiple gesture recognition systems
US10048761B2 (en) * 2013-09-30 2018-08-14 Qualcomm Incorporated Classification of gesture detection systems through use of known and yet to be worn sensors
EP2887188B1 (en) 2013-12-18 2018-05-30 ams AG Control system for a gesture sensing arrangement and method for controlling a gesture sensing arrangement
US20150123890A1 (en) * 2013-11-04 2015-05-07 Microsoft Corporation Two hand natural user input
US9552073B2 (en) 2013-12-05 2017-01-24 Pixart Imaging Inc. Electronic device
US20150169217A1 (en) * 2013-12-16 2015-06-18 Cirque Corporation Configuring touchpad behavior through gestures
TW201543268A (zh) * 2014-01-07 2015-11-16 Thomson Licensing 用於使用手勢控制媒體播放之系統及方法
CN104866083B (zh) 2014-02-25 2020-03-17 中兴通讯股份有限公司 手势识别方法、装置和系统
CN104866084B (zh) * 2014-02-25 2021-04-30 中兴通讯股份有限公司 手势识别方法、装置和系统
EP2916209B1 (en) * 2014-03-03 2019-11-20 Nokia Technologies Oy Input axis between an apparatus and a separate apparatus
WO2015139002A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
US9811311B2 (en) * 2014-03-17 2017-11-07 Google Inc. Using ultrasound to improve IMU-based gesture detection
US9417704B1 (en) 2014-03-18 2016-08-16 Google Inc. Gesture onset detection on multiple devices
US9785824B2 (en) * 2014-04-15 2017-10-10 Infineon Technologies Ag Apparatus and a method for detecting a motion of an object in a target space
GB2525398B (en) * 2014-04-22 2020-12-23 Kenwood Ltd Gesture controlled stand mixer
US9232331B2 (en) 2014-05-08 2016-01-05 Microsoft Technology Licensing, Llc Hand-worn device for surface gesture input
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
KR101595957B1 (ko) * 2014-06-12 2016-02-18 엘지전자 주식회사 이동 단말기 및 제어 시스템
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US20160044394A1 (en) * 2014-08-07 2016-02-11 Nxp B.V. Low-power environment monitoring and activation triggering for mobile devices through ultrasound echo analysis
JP3194297U (ja) * 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
US9582076B2 (en) 2014-09-17 2017-02-28 Microsoft Technology Licensing, Llc Smart ring
CN104284485A (zh) * 2014-09-26 2015-01-14 生迪光电科技股份有限公司 智能照明装置、照明系统及智能照明控制方法
MY184295A (en) * 2014-09-26 2021-03-31 Huawei Tech Co Ltd Method and apparatus for controlling application program, and electronic device
US10515284B2 (en) * 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
US9940533B2 (en) 2014-09-30 2018-04-10 Qualcomm Incorporated Scanning window for isolating pixel values in hardware for computer vision operations
US9554100B2 (en) * 2014-09-30 2017-01-24 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
US20170132466A1 (en) * 2014-09-30 2017-05-11 Qualcomm Incorporated Low-power iris scan initialization
US9838635B2 (en) 2014-09-30 2017-12-05 Qualcomm Incorporated Feature computation in a sensor element array
US9690352B2 (en) 2014-12-09 2017-06-27 Htc Corporation Portable electronic device and power control method therefor
JP2018506773A (ja) * 2014-12-16 2018-03-08 ソマティクス, インコーポレイテッド ジェスチャベースの行動を監視し、それに影響を与える方法およびシステム
FR3030177B1 (fr) * 2014-12-16 2016-12-30 Stmicroelectronics Rousset Dispositif electronique comprenant un module de reveil d'un appareil electronique distinct d'un coeur de traitement
CN106211802B (zh) * 2015-03-30 2019-05-31 深圳市柔宇科技有限公司 一种电子装置
TW201636234A (zh) * 2015-04-14 2016-10-16 鴻海精密工業股份有限公司 車輛控制系統及其操作方法
CN104834412B (zh) * 2015-05-13 2018-02-23 深圳市蓝晨科技股份有限公司 一种基于非接触式的手势识别的触摸终端
US20160378176A1 (en) * 2015-06-24 2016-12-29 Mediatek Inc. Hand And Body Tracking With Mobile Device-Based Virtual Reality Head-Mounted Display
CN104978032B (zh) * 2015-07-08 2018-06-29 苏州奥莱维信息技术有限公司 一种基于手势识别的多媒体控制装置
WO2017010593A1 (ko) * 2015-07-16 2017-01-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 제스쳐 인식 장치
EP3133474B1 (en) * 2015-08-19 2019-03-27 Nxp B.V. Gesture detector using ultrasound
KR102365757B1 (ko) 2015-09-09 2022-02-18 삼성전자주식회사 인식 장치, 인식 방법 및 협업 처리 장치
CN105335025A (zh) * 2015-10-15 2016-02-17 广东欧珀移动通信有限公司 一种移动终端的截屏方法和装置
KR20170050702A (ko) * 2015-10-30 2017-05-11 삼성전자주식회사 제스처 감지 방법 및 이를 지원하는 전자 장치
US10353473B2 (en) * 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
KR102305458B1 (ko) * 2015-12-10 2021-09-27 현대모비스 주식회사 제스쳐 인식 시 손가락 포인트 보정 방법 및 그 장치
KR20180088703A (ko) * 2015-12-31 2018-08-06 선전 로욜 테크놀로지스 컴퍼니 리미티드 플렉시블 웨어러블 디바이스
GB201602319D0 (en) 2016-02-09 2016-03-23 Elliptic Laboratories As Proximity detection
US10785441B2 (en) 2016-03-07 2020-09-22 Sony Corporation Running touch screen applications on display device not having touch capability using remote controller having at least a touch sensitive surface
US9807444B2 (en) * 2016-03-07 2017-10-31 Sony Corporation Running touch screen applications on display device not having touch capability using a remote controller not having any touch sensitive surface
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
CN106095306B (zh) * 2016-05-31 2019-03-26 Oppo广东移动通信有限公司 一种移动终端的传感器控制方法、装置及移动终端
US10572024B1 (en) * 2016-09-28 2020-02-25 Facebook Technologies, Llc Hand tracking using an ultrasound sensor on a head-mounted display
US10762641B2 (en) 2016-11-30 2020-09-01 Whirlpool Corporation Interaction recognition and analysis system
US10157308B2 (en) 2016-11-30 2018-12-18 Whirlpool Corporation Interaction recognition and analysis system
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
US10614332B2 (en) 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
WO2018136326A1 (en) * 2017-01-23 2018-07-26 Qualcomm Incorporated Low-power iris scan initialization
CN110178142B (zh) * 2017-01-23 2023-06-06 高通股份有限公司 单一处理器计算机视觉硬件控制和应用执行
US11243293B2 (en) * 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
CN106814859B (zh) * 2017-03-20 2023-05-16 湖南心诺智造医疗器械有限公司 一种红外手势识别的人机交互方法
US11446003B2 (en) * 2017-03-27 2022-09-20 Vave Health, Inc. High performance handheld ultrasound
US10423212B2 (en) 2017-06-02 2019-09-24 Apple Inc. Techniques for adjusting computing device sleep states using onboard sensors and learned user behaviors
KR102011565B1 (ko) * 2017-08-04 2019-08-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 비접촉 제스처 인식 시스템 및 그 방법
WO2019053220A1 (en) * 2017-09-15 2019-03-21 Elliptic Laboratories As USER AUTHENTICATION CONTROL USING ULTRASOUND
CN111630474A (zh) * 2018-01-26 2020-09-04 三菱电机株式会社 输入控制装置、输入装置以及输入控制方法
JP6730552B2 (ja) * 2018-05-14 2020-07-29 株式会社ユピテル 電子情報システム及びそのプログラム
CN111630413B (zh) * 2018-06-05 2024-04-16 谷歌有限责任公司 基于置信度的应用特定的用户交互
EP3776008B1 (en) * 2018-06-05 2022-07-27 Google LLC Method and electronic device for ultrasonic sensing in smart devices
US11429192B2 (en) 2018-06-05 2022-08-30 Google Llc Confidence-based application-specific user interactions
DE102018208866A1 (de) * 2018-06-06 2019-12-12 Audi Ag Verfahren zum Erkennen einer Eingabe
US11386621B2 (en) 2018-12-31 2022-07-12 Whirlpool Corporation Augmented reality feedback of inventory for an appliance
US10951974B2 (en) * 2019-02-14 2021-03-16 David Clark Company Incorporated Apparatus and method for automatic shutoff of aviation headsets
US11131117B2 (en) 2019-03-12 2021-09-28 Magna Closures Inc. Electromagnetic-based sensor with cold mirror cover
KR20210052874A (ko) 2019-11-01 2021-05-11 삼성전자주식회사 복수의 센서 신호를 이용하여 사용자의 제스처를 인식하는 전자 장치
CN112860053B (zh) * 2019-11-28 2024-02-20 京东方科技集团股份有限公司 手势识别装置、手势识别方法、计算机设备和存储介质
US20230033951A1 (en) * 2019-12-17 2023-02-02 Telefonaktiebolaget Lm Ericsson (Publ) Controlling sensor activation and deactivation for energy efficient localization
EP4168819A1 (en) * 2020-06-17 2023-04-26 Google LLC Multi-radar system
CN112987925B (zh) * 2021-03-04 2022-11-25 歌尔科技有限公司 一种耳机及其控制方法、装置
CN112988107A (zh) * 2021-04-25 2021-06-18 歌尔股份有限公司 一种音量调节方法、系统及头戴式设备
DE102021005129A1 (de) 2021-10-13 2023-04-13 vanory GmbH Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten
WO2024072464A1 (en) * 2022-09-30 2024-04-04 Google Llc Sensor capability determination for radar-based computing devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251234A (ja) * 2001-02-23 2002-09-06 Fujitsu Ltd 複数のセンサによるヒューマンインタフェースシステム
JP2005027120A (ja) * 2003-07-03 2005-01-27 Olympus Corp 双方向データ通信システム
JP2009064141A (ja) * 2007-09-05 2009-03-26 Toshiba Corp 情報処理装置、方法及びプログラム
JP2009104297A (ja) * 2007-10-22 2009-05-14 Mitsubishi Electric Corp 操作入力装置
WO2011057287A1 (en) * 2009-11-09 2011-05-12 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7918733B2 (en) 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
EP1576456A1 (en) 2002-11-07 2005-09-21 Personics A/S Control system including an adaptive motion detector
US9047047B2 (en) 2010-10-01 2015-06-02 Z124 Allowing multiple orientations in dual screen view
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7747293B2 (en) * 2006-10-17 2010-06-29 Marvell Worl Trade Ltd. Display control for cellular phone
US8432372B2 (en) * 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
US8971565B2 (en) 2008-05-29 2015-03-03 Hie-D Technologies, Llc Human interface electronic device
DE102008026488A1 (de) 2008-06-03 2009-12-24 Continental Automotive Gmbh Detektionssystem zur Annäherungserkennung
US20100031202A1 (en) 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8433138B2 (en) 2008-10-29 2013-04-30 Nokia Corporation Interaction using touch and non-touch gestures
US8704767B2 (en) 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
US8654234B2 (en) 2009-07-26 2014-02-18 Massachusetts Institute Of Technology Bi-directional screen
KR20110010906A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치
US20110107216A1 (en) 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
US20110209098A1 (en) 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
EP2369443B1 (en) 2010-03-25 2017-01-11 BlackBerry Limited System and method for gesture detection and feedback
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US9262015B2 (en) 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
US9063704B2 (en) * 2011-05-05 2015-06-23 Net Power And Light, Inc. Identifying gestures using multiple sensors
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US20120287031A1 (en) * 2011-05-12 2012-11-15 Apple Inc. Presence sensing
CN103105926A (zh) * 2011-10-17 2013-05-15 微软公司 多传感器姿势识别
TWI536157B (zh) * 2012-02-23 2016-06-01 原相科技股份有限公司 電子裝置與電腦可讀取媒體
US20140267142A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251234A (ja) * 2001-02-23 2002-09-06 Fujitsu Ltd 複数のセンサによるヒューマンインタフェースシステム
JP2005027120A (ja) * 2003-07-03 2005-01-27 Olympus Corp 双方向データ通信システム
JP2009064141A (ja) * 2007-09-05 2009-03-26 Toshiba Corp 情報処理装置、方法及びプログラム
JP2009104297A (ja) * 2007-10-22 2009-05-14 Mitsubishi Electric Corp 操作入力装置
WO2011057287A1 (en) * 2009-11-09 2011-05-12 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10496182B2 (en) 2015-04-30 2019-12-03 Google Llc Type-agnostic RF signal representations
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
JP2019148595A (ja) * 2015-04-30 2019-09-05 グーグル エルエルシー タイプに依存しないrf信号表現
US10310620B2 (en) 2015-04-30 2019-06-04 Google Llc Type-agnostic RF signal representations
JP2018520394A (ja) * 2015-04-30 2018-07-26 グーグル エルエルシー タイプに依存しないrf信号表現
JP2016218899A (ja) * 2015-05-25 2016-12-22 コニカミノルタ株式会社 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11132065B2 (en) 2015-10-06 2021-09-28 Google Llc Radar-enabled sensor fusion
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US10908696B2 (en) 2015-10-06 2021-02-02 Google Llc Advanced gaming and virtual reality control using radar
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11054911B2 (en) 2017-04-18 2021-07-06 Kyocera Corporation Electronic device, program, and control method
JP2018181293A (ja) * 2017-09-11 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2022522491A (ja) * 2019-03-01 2022-04-19 華為技術有限公司 ジェスチャ処理方法およびデバイス
JP7391102B2 (ja) 2019-03-01 2023-12-04 華為技術有限公司 ジェスチャ処理方法およびデバイス
WO2022064827A1 (ja) * 2020-09-25 2022-03-31 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2023042433A1 (ja) * 2021-09-15 2023-03-23 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
US20130229508A1 (en) 2013-09-05
KR101737190B1 (ko) 2017-05-17
WO2013130285A3 (en) 2014-03-06
KR20140140014A (ko) 2014-12-08
CN104115118A (zh) 2014-10-22
JP6100286B2 (ja) 2017-03-22
EP2820536B1 (en) 2018-09-05
WO2013130285A2 (en) 2013-09-06
US9389690B2 (en) 2016-07-12
EP2820536A2 (en) 2015-01-07
IN2014MN01518A (ja) 2015-07-03

Similar Documents

Publication Publication Date Title
JP6100286B2 (ja) 複数のタイプのセンサーからの情報に基づくジェスチャー検出
US20200279563A1 (en) Method and apparatus for executing voice command in electronic device
EP3179474B1 (en) User focus activated voice recognition
JP5670579B2 (ja) 第一のモードから第二のモードへの複数のマイクロフォンの移行
CN110083219B (zh) 无按钮的显示器激活
KR102067019B1 (ko) 휴대 단말기의 충전 경로 제어 장치 및 방법
US9575544B2 (en) Ultrasound based mobile receivers in idle mode
US9489172B2 (en) Method and apparatus for voice control user interface with discreet operating mode
WO2019105376A1 (zh) 手势识别方法、终端及存储介质
JP2022518618A (ja) 画面制御方法、電子デバイス、および記憶媒体
WO2019205735A1 (zh) 数据传输方法、装置、显示屏及显示装置
CN109298791A (zh) 终端控制方法、装置、存储介质及移动终端
CN113921002A (zh) 一种设备控制方法及相关装置
US9578086B2 (en) Method and apparatus of setting data transmission and reception period
JP2020516962A (ja) 光学指紋認識方法及び装置、コンピュータ読取可能な記憶媒体
CN110730266B (zh) 闹钟音量的控制方法、装置、存储介质及终端
CN115035187A (zh) 声源方向确定方法、装置、终端、存储介质及产品
KR102223268B1 (ko) 사운드 기반의 메커니즘을 기반으로 스마트 표시 장치의 디스플레이를 비활성화 방법 및 시스템
JP2018504707A (ja) マルチメディア情報提示方法および端末
US11564053B1 (en) Systems and methods to control spatial audio rendering
WO2024002282A1 (zh) 感知设备的方法、装置、芯片及设备
WO2023221062A1 (zh) 电子设备的语音唤醒方法、装置、存储介质及芯片
CN110910893B (zh) 音频处理方法、装置及存储介质
US20150126240A1 (en) Method and apparatus for controlling communication power
CN116774901A (zh) 启动语音助手方法及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160906

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160906

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170222

R150 Certificate of patent or registration of utility model

Ref document number: 6100286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees