JP2016507098A - 表面上でのジェスチャ認識のためのemgの使用 - Google Patents

表面上でのジェスチャ認識のためのemgの使用 Download PDF

Info

Publication number
JP2016507098A
JP2016507098A JP2015552831A JP2015552831A JP2016507098A JP 2016507098 A JP2016507098 A JP 2016507098A JP 2015552831 A JP2015552831 A JP 2015552831A JP 2015552831 A JP2015552831 A JP 2015552831A JP 2016507098 A JP2016507098 A JP 2016507098A
Authority
JP
Japan
Prior art keywords
body portion
gesture
determining whether
sensed
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015552831A
Other languages
English (en)
Other versions
JP6227669B2 (ja
JP2016507098A5 (ja
Inventor
フォルタンプーア、ババク
バラサブラマンヤム、シバクマー
カルバルホ、ビター・アール.
キング、ベネット・エム.
イワサキ、ジル・エス.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016507098A publication Critical patent/JP2016507098A/ja
Publication of JP2016507098A5 publication Critical patent/JP2016507098A5/ja
Application granted granted Critical
Publication of JP6227669B2 publication Critical patent/JP6227669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

表面に対するボディ部のジェスチャを検出するための装置、方法、およびコンピュータプログラム製品が提供されている。装置は、ボディ部が表面に近接しているかどうかを決定する。ボディ部が表面に近接している場合、装置は、ボディ部から感知された電気的活動が、ボディ部と表面の接触を示すかどうかを決定する。ボディ部が表面に接触している場合、装置は、ボディ部から感知された動き活動がジェスチャを示すかどうかを決定する。【選択図】 図2

Description

[0001]本開示は概して、ジェスチャ認識に関しており、より具体的には、表面上での(on surfaces)微細なジェスチャ認識のための筋電図描画法(EMG:electromyography)の使用に関している。
[0002]拡張現実(AR)を実装するためのシステムおよびアプリケーションが非常に一般的で、広く受け入れられるようになってきた。ARシステムは通常、電子メールおよびメディアプレイヤのようなアプリケーションと対話する間にユーザが同時に、彼の周囲を見る、および彼らの周囲と対話することを可能にする頭部装着型ディスプレイ(HMD)を含む。多くのARアプリケーションがスマートフォンおよびタブレット上で起動されうるけれども、ARシステムを実装するための最も自然なフォームファクタは、眼鏡のような光学デバイスである。
[0003]AR眼鏡を通じてアプリケーションと対話するための従来の方法は、手のジェスチャを含み、ここでは着用者の手のAR眼鏡の視界内での種々の広範囲の動きが眼鏡の種々の動作を開始する。しかしながらそのような方法は、重大な欠点を被る。例えば、着用者は、公けでそのような広範囲のジェスチャを実行することによって彼女自身に注意を向けさせることを望まないことがある。したがって、プライベートの、セミプライベートの、および公けの状況に対して異なるセットのジェスチャを有することが望ましい。
[0004]表面に対するボディ部のジェスチャを検出するための装置、方法、およびコンピュータプログラム製品が提供されている。装置は、ボディ部が表面に近接しているかどうかを決定する。ボディ部が表面に近接している場合、装置は、ボディ部から感知された電気的活動(electrical activity)が、ボディ部と表面の接触を示すかどうかを決定する。ボディ部が表面に接触している場合、装置は、ボディ部から感知された動き活動がジェスチャを示すかどうかを決定する。
ユーザデバイスおよびジェスチャ認識デバイスを含む例示的なジェスチャシステムを例示している図である。 ジェスチャを認識し、そのジェスチャに基づいてユーザデバイスの動作に作用する方法のフローチャートである。 表面と接触している、および表面と接触していない、の両方のボディ部に対応するEMGセンサの出力の変化を例示しているグラフである。 ボディ部のジェスチャに対応する加速度計出力の変化を例示しているグラフである。 例示的なジェスチャ認識装置における種々のモジュール/手段/コンポーネントの動作を例示している概略的なフロー図である。 処理システムを用いるジェスチャ認識装置のためのハードウェア実装の例を例示している図である。
[0011]添付の図面に関係して以下で述べられる詳細な説明は、様々な構成の説明として意図されるものであり、本明細書で説明される概念が実施されうる唯一の構成を表すようには意図されていない。詳細な説明は、様々な概念の完全な理解を提供する目的で、指定の詳細を含む。しかしながら、これらの概念がこれらの指定の詳細なしに実施されうることは、当業者には明らかであろう。いくつかの事例では、周知の構造およびコンポーネントが、そのような概念を曖昧にすることを回避するためにブロック図の形態で図示されている。
[0012]ジェスチャ認識システムのいくつかの態様が、今から、様々な装置および方法を参照して提示されることになる。これらの装置および方法は、以下の詳細な説明において説明され、添付の図面において、様々なブロック、モジュール、コンポーネント、回路、ステップ、プロセス、アルゴリズム等(集合的には「要素」と称される)によって例示されることになる。これらの要素は、電子ハードウェア、コンピュータソフトウェア、またはそれらのあらゆる組み合わせを使用して実装されうる。そのような要素がハードウェアとして実装されるか、ソフトウェアとして実装されるかは、システム全体に課された設計の制約および特定のアプリケーションに依存する。
[0013]例として、要素、または要素のいずれか一部、あるいは要素のあらゆる組み合わせは、1つまたは複数のプロセッサを含む「処理システム」で実装されうる。プロセッサの例は、マイクロプロセッサ、マイクロコントローラ、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックデバイス(PLD)、ステートマシン、ゲートロジック、ディスクリートハードウェア回路、および本開示全体を通して説明されている様々な機能を実行するように構成された他の適したハードウェアを含む。処理システムにおける1つまたは複数のプロセッサは、ソフトウェアを実行することができる。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、あるいはそれ以外で称されようとも、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行ファイル、実行スレッド、プロシージャ、関数、等を意味するように広く解釈されるものとする。
[0014]したがって、1つまたは複数の例示的な実施形態では、説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらのあらゆる組み合わせで実行されうる。ソフトウェアで実行される場合、機能は、コンピュータ可読媒体上に、1つまたは複数の命令またはコードとして格納されるか、あるいは符号化されうる。コンピュータ可読媒体は、コンピュータ格納媒体を含む。格納媒体は、コンピュータによってアクセスされることができる、あらゆる利用可能な媒体でありうる。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光学ディスクストレージ、磁気ディスクストレージまたは他の磁気格納デバイス、あるいは、データ構造または命令の形態で所望のプログラムコードを搬送または格納するように使用されうる、かつコンピュータによってアクセスされうるあらゆる他の媒体を備えることができる。ディスク(disk)およびディスク(disc)は、本明細書で使用される場合、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光学ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイ(登録商標)ディスク(disc)を含み、ここにおいてディスク(disk)が通常、磁気的にデータを再生する一方で、ディスク(disc)は、レーザーを用いて光学的にデータを再生する。上記の組み合わせもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0015]図1は、ユーザデバイス102およびジェスチャ認識デバイス104を含むジェスチャ認識システム100を例示している図である。例示されているユーザデバイス102は、当該技術分野で知られている方法を使用して、レンズを通じてコンテンツを投影するように構成された1つのAR眼鏡(a pair of AR glasses)である。例えば、AR眼鏡102は、アプリケーションコンテンツ、例えば電子メール、ドキュメント、ウェブページ、あるいはビデオゲーム、動画、または電子書籍のようなメディアコンテンツ、をそのレンズを通じて投影するように構成されうる。他のタイプのユーザデバイス102は、スマートフォン、タブレット、ラップトップ等を含むことができる。
[0016]AR眼鏡102は、ジェスチャ認識デバイス104と通信するための通信デバイス116を含む。通信デバイス106は、例えば、Bluetooth(登録商標)デバイスでありうる。AR眼鏡102は、ジェスチャ認識デバイス104から受信された信号を処理するためのプロセッサ108をさらに含む。
[0017]ジェスチャ認識デバイス104は、ボディ部に関連付けられるように構成され、そのような関連付けを提供することの助けとなるいずれの形態でもありうる。例えば、ボディ部が手または指である場合、ジェスチャ認識デバイスは、図1で例示されているような、リストバンド104として構成されうる。1つの構成では、ジェスチャ認識デバイス104は、近接センサ110、EMG感知機能を提供する一対の電極112、114、動きセンサ116、およびユーザデバイス102と通信するための通信デバイス118を含む。ジェスチャ認識デバイス104はまた、様々なセンサによって提供された信号を処理するためのプロセッサ120も含む。プロセッサと組み合わせてセンサ110、112、114、116は、以下でさらに説明されるように、検出機能を提供する。
[0018]リストバンドの形態のジェスチャ認識デバイス104のケースでは、近接センサ110は、望ましくは、ユーザがリストバンドを着用しているとき、近接センサが手首の下部、すなわち底面(underside)に位置するようにリストバンド上に位置付けられる。近接センサ110は、近接センサと構造の接近を示す信号を提供するために、プロセッサ120によって周期的に、例えば毎秒1回、ポールされる(poled)低電力デバイスである。近接センサ110は、周知の赤外線検出、または超音波検出技術に基づいた範囲発見デバイス(range finding device)でありうる。代わりとして、または加えて、近接センサ110は、周知の容量技術に基づく接触感知デバイスでありうる。
[0019]電極112、114は、望ましくは、ユーザがリストバンド104を着用しているとき、手首の筋肉運動から結果として生じる電気的活動を感知するためにそれらの電極が位置するようにリストバンド上に位置付けられる。プロセッサ120のEMG感知要素と組み合わせて電極112、114は、ボディ部と表面の潜在的な接触を示す信号を提供するEMGセンサとして機能する。EMG感知機能は、周知の技術に基づく。
[0020]動きセンサ116は、リストバンド上のどこにでも位置付けられることができ、ボディ部の運動を示す信号を提供する。提供される指示は、ボディ部の一般的な全体の運動、またはジェスチャに対応するボディ部のより細かな運動、のうちの1つでありうる。動きセンサは、例えば、加速度計、ジャイロスコープ、または磁気計でありうる。
[0021]図2は、ボディ部のジェスチャを検出する方法のフローチャートである。プロセスは、空中のボディ運動に起因したジェスチャ検出を回避しながら、概して平坦な表面上でのジェスチャを検出することを対象としている。その目的で、ステップ202で、ジェスチャ認識デバイスは、ボディ部が概して平坦な表面に近接しているかどうかを検出する。ボディ部は、例えば、指でありうる。概して平坦な表面は、例えば、テーブルトップ、またはユーザの足のトップ(top)でありうる。
[0022]近接検出は、さらなる処理ステップのためのトリガイベントとしての役割をし、空中のボディ部運動に起因した誤ったジェスチャ検出を排除する。近接検出は、上記で説明された近接センサのタイプを使用して行われうる。1つの構成では、ジェスチャ認識デバイス104のプロセッサ120は、信号を取得するために近接センサ110を周期的に、例えば毎秒1回、ポールする。プロセッサ120は、近接センサ110が表面のしきい値距離内にあるかどうかを決定するために、取得された信号を処理する。例えば、プロセッサ120は、近接しきい値、例えば5センチ、でプログラミングされうる。近接センサ110によって提供される信号がしきい値の距離、またはしきい値未満の距離に対応する場合、プロセッサ120は、ボディ部が表面に近接していると結論付ける。言い換えると、ジェスチャ認識デバイス104は、ボディ部と表面の近接を検出する。上記で述べられたように、この近接検出は、空中の手の運動から結果として生じうる誤ったジェスチャ検出を排除する。
[0023]ステップ204で、ボディ部が平坦な表面に近接していないと決定される場合、プロセスはステップ202に戻る。しかしながら、ボディ部が平坦な表面に近接していると決定される場合、プロセスはステップ206に進み、ここにおいてジェスチャ認識デバイス104は、ボディ部と表面の接触を示す筋肉電気的活動(muscular electrical activity)を検出する。このことは、上記で説明されたEMGセンサを使用して行われうる。1つの構成では、システム電力を節約するために、EMGセンサ(例えば、電極112、114、およびプロセッサ120のEMG感知要素)は、ボディ部が表面に近接していると決定されるまで、スリープモードに維持される。一度ボディ‐表面近接が検出され、EMGセンサが起こされると、プロセッサ120の他の要素は、EMGセンサから信号を受信し、表面上へのボディ部の配置に対応する電気的活動の基準とその信号を比較する。その基準が満たされる場合、プロセッサ120は、ボディ部が表面上に配置されていると結論付ける。言い換えると、ジェスチャ認識デバイス104は、ボディ‐表面接触を検出する。
[0024]図3は、時間に応じた(as a function of time)EMG信号の振幅を例示しているグラフ300である。低レベル部分302、304は、ボディ部と表面の接触の欠如に対応する筋肉活動を表す。より高レベル(higher-level)部分306は、ボディ部と表面の接触に対応するより高いレベルの筋肉活動を表す。経験から得たEMG信号データに基づいて、ボディ部と表面の接触を示す基準は確立されうる。例えば、接触中に測定される経験から得たEMG信号の動的範囲、またはピークツーピーク電圧(peak-to-peak voltage)は、後に取得されるEMG信号の測定値が比較されうる基準としての役割をしうる。プロセッサ120は、取得された信号の測定値を、経験から得たデータによって定義されたしきい値と比較する。しきい値が満たされる場合、プロセッサ120は、ボディ部と表面の接触が存在すると結論付ける。言い換えると、ジェスチャ認識デバイス104は、ボディ‐表面接触を検出する。そうでない場合、プロセッサ120は、接触が存在しないと結論付ける。オプションで、時間基準もまた実装されることができ、ここにおいて取得される信号の測定値は、ボディ‐表面接触が検出されたと考えられる前に、ある特定の量の時間に対するしきい値を満たさなければならない。
[0025]ステップ208で、ボディ部は、平坦な表面と接触していないと決定される場合、プロセスはステップ202に戻る。代わりとして、プロセスはステップ206に戻りうる。しかしながら、ボディ部が平坦な表面と接触していると決定される場合、プロセスはステップ210に進み、ここにおいてジェスチャ認識デバイスは、ジェスチャを示すボディ部の動き活動を検出する。このことは、上記で説明されたような動きセンサ116を使用して行われうる。1つの構成では、システム電力を節約するために、動きセンサ116は、ボディ部が表面に接触していると決定されるまで、スリープモードに維持される。一度ボディ‐表面接触が検出され、動きセンサ116が起こされると、プロセッサ120は、動きセンサから信号を受信し、ジェスチャに対応する動き活動の基準とその信号を比較する。その基準が満たされる場合、プロセッサ120は、ボディ部がジェスチャを行ったと結論付ける。言い換えると、ジェスチャ認識デバイス104は、ジェスチャを検出する。
[0026]図4は、時間に応じた(as a function of time)動きセンサ、例えば加速度計、信号を例示しているグラフ500であり、ここにおいて信号は、ユーザが2回、平坦な表面上で文字「O」のジェスチャを行うことに対応する。その運動は、xおよびy平面で行われる一方で、もしあっても少ない運動しかz平面では生じないことに留意されたい。これは単に、経験上取得されうる多くの動き信号の形態または動きジェスチャテンプレートのうちの1つである。プロセッサ120は、これらのジェスチャテンプレートのライブラリを含む。プロセッサ120は、動きジェスチャテンプレートのライブラリに対して取得された動きセンサ信号を比較する。取得された動き信号の形態が動きジェスチャテンプレートのうちの1つに接近して一致する場合、プロセッサ120は、ボディ部が、一致された動きジェスチャテンプレートに関連付けられたジェスチャを行うと結論付ける。言い換えると、ジェスチャ認識デバイス104は、ジェスチャを検出する。取得された動き信号と動きジェスチャテンプレートの接近のレベルは、上記で説明された基準を定義する。例えば、ポイント毎の電圧比較、または取得された動き信号と動き−ジェスチャテンプレートの波形エリア比較は、波形間の割合の一致を生み出すことができる。このケースでは、基準は、割合、例えば90%、であることができ、基準の、または基準より上の生み出された割合は、結果としてジェスチャ検出をもたらすと考えられうる。
[0027]ステップ212で、ジェスチャが検出されない場合、プロセスはステップ202に戻る。代わりとしてプロセスは、ステップ206またはステップ210のどちらかに戻ることができる。しかしながらジェスチャが検出された場合、ステップ214で信号はユーザデバイス102に通信される。信号は、検出されたジェスチャに対応するデバイス102の動作に作用するためのものである。1つの構成では、ジェスチャ認識デバイス104のプロセッサ120は、ジェスチャのルックアップテーブル、および、その動作に作用するためにユーザデバイス102に送信すべき対応する出力信号を含む。例えば、検出されたジェスチャが文字「O」である場合、認識デバイス104は、ユーザデバイスにアプリケーションを開かせる信号を、ユーザデバイスに出力することができる。別の例として、表面上での指の時計回りの運動は結果として、ユーザデバイスに開かれたドキュメントをスクロールダウンさせる信号を認識デバイス104が出力することをもたらす。別の構成では、ルックアップテーブルがユーザデバイスと共に存在することができ、このケースにおいて、認識デバイス104は単に、ジェスチャ自体に対応する信号を通信し、ユーザデバイス102は、そのルックアップテーブルを通じて作用されるべき動作を決定する。上記で述べられたように、ジェスチャ認識デバイス104とユーザデバイス102のジェスチャ認識はワイヤレスでありうる。
[0028]追加のオプションのステップ(図示せず)として、感知された電気的活動がボディ部と表面の接触を示すかどうかを決定する(ステップ206)前に、ジェスチャ認識デバイス104は第1に、ボディ部がいずれかのタイプの動きを示しているかどうかを決定することができる。このことは、上記で述べられたような動きセンサ116を使用して行われうる。プロセッサ120は、動きセンサ116から信号を受信し、一般的な動き活動の基準とその信号を比較する。その基準が満たされる場合、プロセッサ120は、ボディ部が動いていると結論づけ、プロセスはステップ206に進む。言い換えると、ジェスチャ認識デバイス104は、ボディ部のよる一般的な動きを検出する。この点での基準は単に、動きジェスチャテンプレートに一致する必要のない任意の方向への運動の特定のレベルに関連しうる。
[0029]最初の一般的な動き感知は、それが、計算集約的EMGセンサ処理、および動き‐ジェスチャテンプレート一致処理を、それらが保証されていないケースにおいて、排除することができる点で有益である。例えば、ユーザの手が、いずれの運動もなく、表面上で休んでいる場合、ジェスチャ認識デバイス104は、ボディ‐表面近接を検出するだろう。次のステップのジェスチャ認識デバイス104によるEMG感知は、ボディ‐表面接触を検出するだろう。しかしながら、後に続くステップの動き‐テンプレート一致は、手が休んでいるので、結果としてどの動き‐テンプレート一致をもたらさないだろう。ボディ‐表面接触および動き‐テンプレート一致を検出する前に、ボディ部の一般的な動きを検出することは、これらの処理ステップの必要性を除外するだろう。
[0030]図5は、例示的なジェスチャ検出装置502における種々のモジュール/手段/コンポーネントの動作を例示している概略的なフロー図500である。装置502は、ボディ‐表面近接検出モジュール504、オプションのボディ動き検出モジュール、ボディ‐表面接触検出モジュール506、ジェスチャ検出モジュール508、および通信モジュール510を含む。ボディ‐表面近接検出モジュール504は、ボディ部が表面に近接しているかどうかを決定する。ボディ動き検出モジュール506は、ボディ部が動いているかどうかを決定する。ボディ‐表面接触検出モジュール508は、ボディ部から感知された電気的活動が、ボディ部と表面の接触を示すかどうかを決定する。ジェスチャ検出モジュール510は、ボディ部から感知された動き活動が、ジェスチャを示すかどうかを決定する。通信モジュール510は、ユーザデバイスの動作に作用する信号をユーザデバイスに通信する。
[0031]装置は、上述の図2のフローチャートにおけるアルゴリズムのステップの各々を実行する追加のモジュールを含むことができる。このように、上述の図2のフローチャートにおける各ステップはモジュールによって実行されることができ、装置はそれらのモジュールのうちの1つまたは複数を含むことができる。モジュールは、述べられたプロセス/アルゴリズムを行うように特に構成され、述べられたプロセス/アルゴリズムを実行するように構成されたプロセッサによって実装され、プロセッサによる実装のためにコンピュータ可読媒体内に格納された、あるいはそれらの何らかの組み合わせの、1つまたは複数のハードウェアコンポーネントでありうる。
[0032]図6は、処理システム614を用いる装置502’のためのハードウェア実装の例を例示している図である。処理システム614は、バス624によって概して表されているバスアーキテクチャで実装されうる。バス624は、処理システム614の特定のアプリケーションおよび全体の設計の制約に依存して、任意の数の相互接続するバスおよびブリッジを含むことができる。バス624は、プロセッサ604、モジュール504、506、508、510、512、およびコンピュータ可読媒体606によって表されている1つまたは複数のプロセッサおよび/またはハードウェアモジュールを含む様々な回路を互いにリンクさせる。バス624はまた、タイミングソース、周辺機器、電圧レギュレータ、および電力管理回路のような様々な他の回路をリンクさせることもでき、これらは当該技術分野で周知であり、そのためこれ以上説明されないだろう。
[0033]処理システム614は、コンピュータ可読媒体606に結合されたプロセッサ604を含む。プロセッサ604は、コンピュータ可読媒体606上に格納されたソフトウェアの実行を含む、一般的な処理を担う。このソフトウェアは、プロセッサ604によって実行されるとき、処理システム614に、あらゆる特定の装置に関して上記で説明された様々な機能を実行させる。コンピュータ可読媒体606はまた、ソフトウェアを実行するときにプロセッサ604によって操作されるデータを格納するために使用されることもできる。処理システムは、モジュール504、506、508、510、512のうちの少なくとも1つをさらに含む。そのモジュールは、プロセッサ604において起動し、コンピュータ可読媒体606に存在し/格納されたソフトウェアモジュール、プロセッサ604に結合された1つまたは複数のハードウェアモジュール、またはそれらの何らかの組み合わせでありうる。
[0034]1つの構成では、装置502/502’は、ボディ部が表面に近接しているかどうかを決定するための手段と、ボディ部が表面に近接している場合、ボディ部から感知された電気的活動がボディ部と表面の接触を示すかどうかを決定するための手段と、ボディ部が表面と接触している場合、ボディ部から感知された動き活動がジェスチャを示すかどうかを決定するための手段と、を含む。装置502/502’は、感知された電気的アクティビティがボディ部と表面の接触を示すかどうかを決定する前に、ボディ部が動いているかどうかを決定するための手段と、ジェスチャを検出したことに応答して、ユーザデバイスに信号を通信するための手段と、ここにおいてその信号は、ユーザデバイスの動作に作用する、をさらに含むことができる。上述の手段は、上述の手段によって記載された機能を実行するように構成された装置502’の処理システム614および/または装置502の上述のモジュールのうちの1つまたは複数でありうる。
[0035]開示されているプロセスにおけるステップの指定の順序または階層は、例示的な手法の例示のであることが理解される。設計の選好に基づいて、プロセスにおけるステップの指定の順序または階層は並べ替えられうることが理解される。さらに、いくつかのステップは、組み合わされうるか、または省略されうる。添付の方法の請求項はサンプルの順序で様々なステップの要素を提示し、提示されている指定の順序または階層に限定されるようには意図されていない。
[0036]先の説明は、あらゆる当業者が本明細書で説明されている様々な態様を実施することを可能にするように提供されている。これらの態様への様々な変更は当業者には容易に明らかになり、本明細書で定義されている包括的な本質は他の態様に適用されうる。したがって、特許請求の範囲は、本明細書で示されている態様を限定されるように意図されておらず、特許請求の範囲の用語と一貫した最大範囲であると認められるものとし、ここにおいて、単数の要素に対する参照は、「1つおよび1つだけ」を、そのように特別に述べられない限りは意味するように意図されておらず、むしろ「1つまたは複数」を意味するように意図されている。他の方法で特別に述べられていない限り、「いくつか」、「何らか」、「任意の」という用語は、1つまたは複数を指す。当業者に既知、または後に既知となる本開示全体を通して説明されている様々な態様の要素に対するすべての構造的および機能的な均等物は参照によって本明細書に明示的に組み込まれ、特許請求の範囲によって包含されるように意図されている。さらに本明細書で開示されているものが、そのような開示が特許請求の範囲に明確に記載されているかどうかに関わらず、公けに捧げられるようには意図されていない。どの請求項の要素も、その要素が「〜のための手段」という表現を使用して明示的に記載されない限り、ミーンズプラスファンクションとして解釈されるものではない。
[0016]AR眼鏡102は、ジェスチャ認識デバイス104と通信するための通信デバイス106を含む。通信デバイス106は、例えば、Bluetooth(登録商標)デバイスでありうる。AR眼鏡102は、ジェスチャ認識デバイス104から受信された信号を処理するためのプロセッサ108をさらに含む。
[0030]図5は、例示的なジェスチャ検出装置502における種々のモジュール/手段/コンポーネントの動作を例示している概略的なフロー図500である。装置502は、ボディ‐表面近接検出モジュール504、オプションのボディ動き検出モジュール506、ボディ‐表面接触検出モジュール508、ジェスチャ検出モジュール510、および通信モジュール512を含む。ボディ‐表面近接検出モジュール504は、ボディ部が表面に近接しているかどうかを決定する。ボディ動き検出モジュール506は、ボディ部が動いているかどうかを決定する。ボディ‐表面接触検出モジュール508は、ボディ部から感知された電気的活動が、ボディ部と表面の接触を示すかどうかを決定する。ジェスチャ検出モジュール510は、ボディ部から感知された動き活動が、ジェスチャを示すかどうかを決定する。通信モジュール510は、ユーザデバイスの動作に作用する信号をユーザデバイスに通信する。
[0032]図6は、処理システム614を用いる装置502’のためのハードウェア実装の例を例示している図600である。処理システム614は、バス624によって概して表されているバスアーキテクチャで実装されうる。バス624は、処理システム614の特定のアプリケーションおよび全体の設計の制約に依存して、任意の数の相互接続するバスおよびブリッジを含むことができる。バス624は、プロセッサ604、モジュール504、506、508、510、512、およびコンピュータ可読媒体606によって表されている1つまたは複数のプロセッサおよび/またはハードウェアモジュールを含む様々な回路を互いにリンクさせる。バス624はまた、タイミングソース、周辺機器、電圧レギュレータ、および電力管理回路のような様々な他の回路をリンクさせることもでき、これらは当該技術分野で周知であり、そのためこれ以上説明されないだろう。
[0036]先の説明は、あらゆる当業者が本明細書で説明されている様々な態様を実施することを可能にするように提供されている。これらの態様への様々な変更は当業者には容易に明らかになり、本明細書で定義されている包括的な本質は他の態様に適用されうる。したがって、特許請求の範囲は、本明細書で示されている態様を限定されるように意図されておらず、特許請求の範囲の用語と一貫した最大範囲であると認められるものとし、ここにおいて、単数の要素に対する参照は、「1つおよび1つだけ」を、そのように特別に述べられない限りは意味するように意図されておらず、むしろ「1つまたは複数」を意味するように意図されている。他の方法で特別に述べられていない限り、「いくつか」、「何らか」、「任意の」という用語は、1つまたは複数を指す。当業者に既知、または後に既知となる本開示全体を通して説明されている様々な態様の要素に対するすべての構造的および機能的な均等物は参照によって本明細書に明示的に組み込まれ、特許請求の範囲によって包含されるように意図されている。さらに本明細書で開示されているものが、そのような開示が特許請求の範囲に明確に記載されているかどうかに関わらず、公けに捧げられるようには意図されていない。どの請求項の要素も、その要素が「〜のための手段」という表現を使用して明示的に記載されない限り、ミーンズプラスファンクションとして解釈されるものではない。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
表面に対するボディ部のジェスチャを検出する方法であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接する場合、前記ボディ部から感知された[筋肉]電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
を備える方法。
[C2]
前記ボディ部が前記表面に近接しているかどうかを決定することは、前記ボディ部に関連付けられた近接センサからの信号を監視することを備える、C1に記載の方法。
[C3]
感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
を備える、C1に記載の方法。
[C4]
感知された動き活動が前記ジェスチャを示すかどうかを決定することは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
を備える、C1に記載の方法。
[C5]
ジェスチャ基準のライブラリを提供することをさらに備え、各基準は異なるジェスチャに対応する、C4に記載の方法。
[C6]
前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定すること、
をさらに備える、C1に記載の方法。
[C7]
前記ボディ部が動いているかどうかを決定することは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
を備える、C6に記載の方法。
[C8]
前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信することをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、C1に記載の方法。
[C9]
表面に対するボディ部のジェスチャを検出するための装置であって、
前記ボディ部が前記表面に近接しているかどうかを決定するための手段と、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための手段と、
前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定するための手段と、
を備える、装置。
[C10]
前記ボディ部が前記表面に近接しているかどうかを決定するための前記手段は、前記ボディ部に関連付けられた近接センサからの信号を監視するように構成される、C9に記載の装置。
[C11]
感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための前記手段は、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
を行うように構成される、C9に記載の装置。
[C12]
感知された動き活動が前記ジェスチャを示すかどうかを決定するための前記手段は、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
を行うように構成される、C9に記載の装置。
[C13]
ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、C12に記載の装置。
[C14]
前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するための手段をさらに備える、C9に記載の装置。
[C15]
前記ボディ部が動いているかどうかを決定するための前記手段が、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
を行うように構成される、C14に記載の装置。
[C16]
前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するための手段をさらに備え、前記信号は、前記ユーザデバイスの動作に作用する、C9に記載の装置。
[C17]
表面に対するボディ部のジェスチャを検出するための装置であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定することと、
を行うように構成された、処理システム、
を備える、装置。
[C18]
前記処理システムは、前記ボディ部に関連付けられた近接センサからの信号を監視することによって、前記ボディ部が前記表面に近接しているかどうかを決定する、C17に記載の装置。
[C19]
前記処理システムは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
によって、感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定する、C17に記載の装置。
[C20]
前記処理システムは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
によって、感知された動き活動が前記ジェスチャを示すかどうかを決定する、C17に記載の装置。
[C21]
ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、C20に記載の装置。
[C22]
前記処理システムは、前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するように構成される、C17に記載の装置。
[C23]
前記処理システムは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
によって、前記ボディ部が動いているかどうかを決定する、C22に記載の装置。
[C24]
前記処理システムは、前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するように構成され、前記信号は、デバイスの動作に作用する、C17に記載の装置。
[C25]
表面に対するボディ部のジェスチャを検出するためのコンピュータプログラム製品であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
のためのコードを備えるコンピュータ可読媒体、
を備える、コンピュータプログラム製品。
[C26]
前記ボディ部が前記表面に近接しているかどうかを決定するためのコードは、前記ボディ部に関連付けられた近接センサからの信号を監視するためのコードを備える、C25に記載の製品。
[C27]
感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するためのコードは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
のためのコードを備える、C25に記載の製品。
[C28]
感知された動き活動が前記ジェスチャを示すかどうかを決定するためのコードは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
のためのコードを備える、C25に記載の製品。
[C29]
ジェスチャ基準のライブラリを定義するコードをさらに備え、各基準は異なるジェスチャに対応する、C28に記載の製品。
[C30]
前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するためのコードをさらに備える、C25に記載の製品。
[C31]
前記ボディ部が動いているかどうかを決定するためのコードは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
のためのコードを備える、C22に記載の装置。
[C32]
前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するためのコードをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、C25に記載の製品。

Claims (32)

  1. 表面に対するボディ部のジェスチャを検出する方法であって、
    前記ボディ部が前記表面に近接しているかどうかを決定することと、
    前記ボディ部が前記表面に近接する場合、前記ボディ部から感知された[筋肉]電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
    前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
    を備える方法。
  2. 前記ボディ部が前記表面に近接しているかどうかを決定することは、前記ボディ部に関連付けられた近接センサからの信号を監視することを備える、請求項1に記載の方法。
  3. 感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することは、
    表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
    を備える、請求項1に記載の方法。
  4. 感知された動き活動が前記ジェスチャを示すかどうかを決定することは、
    前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
    を備える、請求項1に記載の方法。
  5. ジェスチャ基準のライブラリを提供することをさらに備え、各基準は異なるジェスチャに対応する、請求項4に記載の方法。
  6. 前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定すること、
    をさらに備える、請求項1に記載の方法。
  7. 前記ボディ部が動いているかどうかを決定することは、
    動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
    を備える、請求項6に記載の方法。
  8. 前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信することをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、請求項1に記載の方法。
  9. 表面に対するボディ部のジェスチャを検出するための装置であって、
    前記ボディ部が前記表面に近接しているかどうかを決定するための手段と、
    前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための手段と、
    前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定するための手段と、
    を備える、装置。
  10. 前記ボディ部が前記表面に近接しているかどうかを決定するための前記手段は、前記ボディ部に関連付けられた近接センサからの信号を監視するように構成される、請求項9に記載の装置。
  11. 感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための前記手段は、
    表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
    を行うように構成される、請求項9に記載の装置。
  12. 感知された動き活動が前記ジェスチャを示すかどうかを決定するための前記手段は、
    前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
    を行うように構成される、請求項9に記載の装置。
  13. ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、請求項12に記載の装置。
  14. 前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するための手段をさらに備える、請求項9に記載の装置。
  15. 前記ボディ部が動いているかどうかを決定するための前記手段が、
    動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
    を行うように構成される、請求項14に記載の装置。
  16. 前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するための手段をさらに備え、前記信号は、前記ユーザデバイスの動作に作用する、請求項9に記載の装置。
  17. 表面に対するボディ部のジェスチャを検出するための装置であって、

    前記ボディ部が前記表面に近接しているかどうかを決定することと、
    前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することと、
    前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定することと、
    を行うように構成された、処理システム、
    を備える、装置。
  18. 前記処理システムは、前記ボディ部に関連付けられた近接センサからの信号を監視することによって、前記ボディ部が前記表面に近接しているかどうかを決定する、請求項17に記載の装置。
  19. 前記処理システムは、
    表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
    によって、感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定する、請求項17に記載の装置。
  20. 前記処理システムは、
    前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
    によって、感知された動き活動が前記ジェスチャを示すかどうかを決定する、請求項17に記載の装置。
  21. ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、請求項20に記載の装置。
  22. 前記処理システムは、前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するように構成される、請求項17に記載の装置。
  23. 前記処理システムは、
    動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
    によって、前記ボディ部が動いているかどうかを決定する、請求項22に記載の装置。
  24. 前記処理システムは、前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するように構成され、前記信号は、デバイスの動作に作用する、請求項17に記載の装置。
  25. 表面に対するボディ部のジェスチャを検出するためのコンピュータプログラム製品であって、
    前記ボディ部が前記表面に近接しているかどうかを決定することと、
    前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
    前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
    のためのコードを備えるコンピュータ可読媒体、
    を備える、コンピュータプログラム製品。
  26. 前記ボディ部が前記表面に近接しているかどうかを決定するためのコードは、前記ボディ部に関連付けられた近接センサからの信号を監視するためのコードを備える、請求項25に記載の製品。
  27. 感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するためのコードは、
    表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
    のためのコードを備える、請求項25に記載の製品。
  28. 感知された動き活動が前記ジェスチャを示すかどうかを決定するためのコードは、
    前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
    のためのコードを備える、請求項25に記載の製品。
  29. ジェスチャ基準のライブラリを定義するコードをさらに備え、各基準は異なるジェスチャに対応する、請求項28に記載の製品。
  30. 前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するためのコードをさらに備える、請求項25に記載の製品。
  31. 前記ボディ部が動いているかどうかを決定するためのコードは、
    動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
    前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
    のためのコードを備える、請求項22に記載の装置。
  32. 前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するためのコードをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、請求項25に記載の製品。
JP2015552831A 2013-01-14 2014-01-10 表面上でのジェスチャ認識のためのemgの使用 Active JP6227669B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/740,315 2013-01-14
US13/740,315 US9092664B2 (en) 2013-01-14 2013-01-14 Use of EMG for subtle gesture recognition on surfaces
PCT/US2014/011136 WO2014110439A1 (en) 2013-01-14 2014-01-10 Use of emg for gesture recognition on surfaces

Publications (3)

Publication Number Publication Date
JP2016507098A true JP2016507098A (ja) 2016-03-07
JP2016507098A5 JP2016507098A5 (ja) 2017-02-02
JP6227669B2 JP6227669B2 (ja) 2017-11-08

Family

ID=50071724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552831A Active JP6227669B2 (ja) 2013-01-14 2014-01-10 表面上でのジェスチャ認識のためのemgの使用

Country Status (6)

Country Link
US (1) US9092664B2 (ja)
EP (1) EP2943855B1 (ja)
JP (1) JP6227669B2 (ja)
KR (1) KR102220893B1 (ja)
CN (1) CN104919397B (ja)
WO (1) WO2014110439A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022500729A (ja) * 2018-09-20 2022-01-04 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 拡張現実システムの神経筋制御
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11941176B1 (en) 2018-11-27 2024-03-26 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) * 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
KR20150065336A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US10585484B2 (en) * 2013-12-30 2020-03-10 Samsung Electronics Co., Ltd. Apparatus, system, and method for transferring data from a terminal to an electromyography (EMG) device
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US20170265780A1 (en) * 2014-12-09 2017-09-21 Lg Innotek Co., Ltd. Band type sensor and wearable device having the same
CN107102778A (zh) * 2015-01-19 2017-08-29 青岛海信移动通信技术股份有限公司 一种触摸屏检测方法及终端
CN106339076B (zh) 2015-10-22 2019-11-15 北京智谷睿拓技术服务有限公司 基于动作识别的控制方法及控制装置
CN106371569A (zh) * 2015-10-22 2017-02-01 北京智谷睿拓技术服务有限公司 动作识别方法及动作识别装置
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3548994B1 (en) 2016-12-02 2021-08-11 Pison Technology, Inc. Detecting and using body tissue electrical signals
CN106821720B (zh) * 2017-01-13 2020-05-19 北京安云世纪科技有限公司 一种穴位按摩的推送方法、装置及ar设备
US10902743B2 (en) 2017-04-14 2021-01-26 Arizona Board Of Regents On Behalf Of Arizona State University Gesture recognition and communication
CN109213305A (zh) * 2017-06-29 2019-01-15 沈阳新松机器人自动化股份有限公司 一种基于表面肌电信号的手势识别方法
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US10802598B2 (en) 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10842407B2 (en) 2018-08-31 2020-11-24 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
CN112789577B (zh) 2018-09-20 2024-04-05 元平台技术有限公司 增强现实系统中的神经肌肉文本输入、书写和绘图
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
US11157086B2 (en) 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US11397468B2 (en) 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
US11397466B2 (en) * 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
CN112315488A (zh) * 2020-11-23 2021-02-05 宁波工业互联网研究院有限公司 一种基于肌电信号的人体运动状态识别方法
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348382A (ja) * 2003-05-21 2004-12-09 Ntt Docomo Inc 携帯型電子装置およびその制御方法
JP2005536260A (ja) * 2002-08-22 2005-12-02 ボディーメディア インコーポレイテッド 人間の生理学的情報及びコンテキスト情報の検知装置
JP2006323690A (ja) * 2005-05-19 2006-11-30 Sony Corp 検索装置,プログラム及び検索方法
JP2008304632A (ja) * 2007-06-06 2008-12-18 Casio Comput Co Ltd カメラ及びカメラのレンズ鏡筒制御方法
WO2011156789A1 (en) * 2010-06-10 2011-12-15 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
JP2012523191A (ja) * 2009-04-07 2012-09-27 アイデント・テクノロジー・アーゲー 把持および近接検出のためのセンサーデバイスおよび方法
US20130005303A1 (en) * 2011-06-29 2013-01-03 Song Seungkyu Terminal and control method thereof
JP2013528871A (ja) * 2010-07-20 2013-07-11 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実の近接感知

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60215504T2 (de) * 2002-10-07 2007-09-06 Sony France S.A. Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20090278798A1 (en) 2006-07-26 2009-11-12 The Research Foundation Of The State University Of New York Active Fingertip-Mounted Object Digitizer
US8860683B2 (en) * 2007-04-05 2014-10-14 Cypress Semiconductor Corporation Integrated button activation sensing and proximity sensing
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
KR100934514B1 (ko) * 2008-05-07 2009-12-29 엘지전자 주식회사 근접한 공간에서의 제스쳐를 이용한 사용자 인터페이스제어방법
US8170656B2 (en) * 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
CN101482773A (zh) * 2009-01-16 2009-07-15 中国科学技术大学 一种多通道无线表面肌电信号采集装置及系统
JP4683148B2 (ja) 2009-02-27 2011-05-11 株式会社デンソー 電気機器
US8378967B2 (en) * 2009-02-27 2013-02-19 Denso Corporation Wearable electrical apparatus
US8581856B2 (en) 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
CN101930285B (zh) * 2009-11-23 2012-07-18 上海交通大学 基于表面肌电信号的手写识别方法
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2011151881A1 (ja) 2010-05-31 2011-12-08 株式会社モバイルビジネスプロモート 入力補助具
CN102854973A (zh) * 2011-06-30 2013-01-02 德信互动科技(北京)有限公司 单机游戏实现装置和方法
CN102799270B (zh) * 2012-07-04 2015-03-11 北京理工大学 一种基于静电和肌电探测的人机交互方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005536260A (ja) * 2002-08-22 2005-12-02 ボディーメディア インコーポレイテッド 人間の生理学的情報及びコンテキスト情報の検知装置
JP2004348382A (ja) * 2003-05-21 2004-12-09 Ntt Docomo Inc 携帯型電子装置およびその制御方法
JP2006323690A (ja) * 2005-05-19 2006-11-30 Sony Corp 検索装置,プログラム及び検索方法
JP2008304632A (ja) * 2007-06-06 2008-12-18 Casio Comput Co Ltd カメラ及びカメラのレンズ鏡筒制御方法
JP2012523191A (ja) * 2009-04-07 2012-09-27 アイデント・テクノロジー・アーゲー 把持および近接検出のためのセンサーデバイスおよび方法
WO2011156789A1 (en) * 2010-06-10 2011-12-15 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
JP2013528871A (ja) * 2010-07-20 2013-07-11 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実の近接感知
US20130005303A1 (en) * 2011-06-29 2013-01-03 Song Seungkyu Terminal and control method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022500729A (ja) * 2018-09-20 2022-01-04 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 拡張現実システムの神経筋制御
US11941176B1 (en) 2018-11-27 2024-03-26 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment

Also Published As

Publication number Publication date
JP6227669B2 (ja) 2017-11-08
KR102220893B1 (ko) 2021-02-25
KR20150107785A (ko) 2015-09-23
CN104919397A (zh) 2015-09-16
WO2014110439A1 (en) 2014-07-17
CN104919397B (zh) 2019-03-15
US20140198944A1 (en) 2014-07-17
EP2943855B1 (en) 2018-08-29
US9092664B2 (en) 2015-07-28
EP2943855A1 (en) 2015-11-18

Similar Documents

Publication Publication Date Title
JP6227669B2 (ja) 表面上でのジェスチャ認識のためのemgの使用
US10048761B2 (en) Classification of gesture detection systems through use of known and yet to be worn sensors
JP6407889B2 (ja) 頭部装着型ディスプレイにおいて物理的握手を活用すること
US10139898B2 (en) Distracted browsing modes
CN106687967B (zh) 用于对与触敏设备的接触进行分类的方法和装置
US20190318617A1 (en) Electronic device and control method thereof
US10282024B2 (en) Classifying contacts or associations with a touch sensitive device
TWI647625B (zh) 判斷使用者之姿勢之影像偵測方法以及影像偵測裝置
WO2015081558A1 (zh) 控制终端设备的方法和穿戴式电子设备
KR20190131087A (ko) 저비용 힘-감지 디바이스를 위한 초 저전력 모드
KR20190110690A (ko) 복수의 입력 간에 매핑된 정보 제공 방법 및 이를 지원하는 전자 장치
US10942603B2 (en) Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
TWI502411B (zh) 觸控偵測方法與觸控偵測裝置
KR20190058289A (ko) 적응형 저역 통과 필터를 사용하여 오디오에서 호흡 속도를 검출하는 기법
WO2017028198A1 (zh) 一种终端的休眠唤醒系统、方法及装置
Sadat et al. Recognizing human affection: Smartphone perspective
KR20230040151A (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171011

R150 Certificate of patent or registration of utility model

Ref document number: 6227669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250