JP2022526060A - ジェスチャー検出および分類のための方法および装置 - Google Patents

ジェスチャー検出および分類のための方法および装置 Download PDF

Info

Publication number
JP2022526060A
JP2022526060A JP2021533832A JP2021533832A JP2022526060A JP 2022526060 A JP2022526060 A JP 2022526060A JP 2021533832 A JP2021533832 A JP 2021533832A JP 2021533832 A JP2021533832 A JP 2021533832A JP 2022526060 A JP2022526060 A JP 2022526060A
Authority
JP
Japan
Prior art keywords
emg
user
gesture
training
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021533832A
Other languages
English (en)
Inventor
アレクサンドレ バラチャント,
ダニエル ウェットモア,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2022526060A publication Critical patent/JP2022526060A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Neurology (AREA)
  • Biomedical Technology (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Psychiatry (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

例示的なシステムは、ユーザに人工現実ビューを提示するように構成されたヘッドマウントデバイスと、複数の筋電図(EMG)センサーを含む制御デバイスと、EMGセンサーによって検出された信号に基づくEMGデータを受信することと、EMGデータ内のユーザジェスチャーに対応するEMG信号を検出することと、ジェスチャータイプを識別するために、EMG信号を分類することと、ジェスチャータイプに基づいて、制御信号を提供することであって、制御信号は、人工現実ビューを変えるように、ヘッドマウントデバイスをトリガする、制御信号を提供することとを行うようにプログラムされた少なくとも1つの物理プロセッサとを含み得る。様々な他の方法、システム、およびコンピュータ可読媒体も開示される。【選択図】図28

Description

関連出願の相互参照
本出願は、2019年3月29日に出願された、米国出願第62/826,478号、および2020年3月27日に出願された、米国出願第16/833,307号の優先権を主張する。米国出願第62/826,478号および米国出願第16/833,307号の内容は、すべての目的のために本明細書においてそれらの全体が参照により組み込まれる。
添付の図面は、いくつかの例示的実施形態を図示しており、本明細書の一部である。以下の説明とともに、これらの図面は、本開示の様々な原理を明示および解説する。
PCAの適用から抽出された第1の成分の例を示す図である。 検出されたイベントからもたらされた例示的なクラスタを示す図である。 検出された個別のイベントに対して実施されたPCAからの第1の成分の例示的なプロットを示す図である。 同期品質の観点を示す個別のイベントに対応するエポックを図示する図である。 検出された個別のイベントに対応する整合されたエポックを示す図である。 2つの異なるジェスチャーの平均に対して実施されたPCA分析に対応するテンプレートを示す図である。 第1のPCA成分上の例示的な検出されたイベントと、2秒のデータから生成されたそれぞれのラベルとを示す図である。 テスティングセットを使用する個別のイベントの検出の例を示す図である。 テスティングデータセット中で検出された個別のイベントの例を示す図である。 人差し指タップイベントモデルおよび中指タップイベントモデルの例を示す図である。 イベントの1クラスのためのユーザ固有イベントモデルの例を示す図である。 イベントの1クラスのためのユーザ固有イベントモデルの例を示す図である。 イベントの1クラスのためのユーザ固有イベントモデルの例を示す図である。 イベントの1クラスのためのユーザ固有イベントモデルの例を示す図である。 イベントの1クラスのためのユーザ固有イベントモデルの例を示す図である。 イベントの1クラスのためのユーザ固有イベントモデルの例を示す図である。 様々なシングルユーザイベント分類モデルによって実現された例示的な精度レベルを示す図である。 2つのシングルユーザイベント分類モデルによって実現された例示的な精度レベルを示す図である。 例示的な精度レベル対2つのシングルユーザイベント分類モデル(単一のスタンプおよび累積ウィンドウサイズ)についての時間を示す図である。 時間サンプルの独立性を決定するために実行される、時間にわたる一般化を示す図である。 一般化されたクロスユーザ分類モデルについての例示的な精度レベルを示す図である。 線形回帰に基づくユーザ固有分類器の伝達性の例を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 ジェスチャーの2つのクラスの例示的な分布を示す図である。 UMAPおよびPCAを使用した分離されたクラスタの例を示す図である。 自己教師ありモデルを使用して実現された精度レベルの例を示す図である。 教師ありユーザ固有モデルおよび自己教師ありユーザ固有モデルを使用して実現された精度レベル対トレーニングイベントの数の例を示す図である。 ユーザ固有の自己教師ありモデルについてのウィンドウサイズ決定の例を示す図である。 第1のユーザに関連する各イベントクラスの例示的なモデルを示す図である。 第1のユーザに関連する各イベントクラスの例示的なモデルを示す図である。 第1のユーザおよび第2のユーザに関連する各イベントクラスの整合されたモデルの例を示す図である。 それぞれ、変換の前および後の例示的なデータを示す図である。 ユーザのグループ中のすべてのユーザからのユーザにわたる例示的な伝達行列を示す図である。 伝達関数に基づく教師ありドメイン適応のためのデータサイズの決定を示す図である。 いくつかの実施形態による、ユーザの下腕または手首の周囲に着用されるように構成された弾性バンドの周囲に円周方向に配列されたEMGセンサーをもつウェアラブルシステムを図示する図である。 図2A中に図示されているEMGセンサーのうちの1つを通る断面図である。 いくつかの実施形態が実装されるコンピュータベースシステムの構成要素を概略的に図示する。コンピュータベースシステムの制御デバイスの概略図を図示する。 いくつかの実施形態が実装されるコンピュータベースシステムの構成要素を概略的に図示する。コンピュータに接続され得る例示的なドングル部分を図示し、ドングル部分は、制御デバイスと通信するように構成される(および類似の構成が、制御デバイスと通信しているヘッドマウントデバイス内で使用され得る)。 ウェアラブルデバイスが、ヘッドマウントウェアラブルディスプレイとインターフェースする例示的な実装形態を示す図である。 例示的な方法を図示する図である。 例示的な方法を図示する図である。 本開示の実施形態に関連して使用され得る、例示的な拡張現実眼鏡の図示である。 本開示の実施形態に関連して使用され得る、例示的な仮想現実ヘッドセットの図示である。
図面全体にわたって、同等の参照符号および説明は、必ずしも同等とは限らないが、類似の要素を指し示す。本明細書で説明される例示的な実施形態は、様々な変更形態および代替の形態が可能であるが、特定の実施形態が、図面中で例として示されており、本明細書で詳細に説明される。しかしながら、本明細書で説明される例示的な実施形態は、開示される特定の形態に限定されるものではない。そうではなく、本開示は、添付の特許請求の範囲内に入るすべての変更形態、等価物、および代替形態を包含する。
本開示の例は、ユーザからの信号の検出、および検出された信号に基づく人工現実デバイスの制御を対象とする。以下でより詳細に解説されように、本開示の実施形態は、ユーザに人工現実ビューを提示するように構成されたヘッドマウントデバイスと、複数の筋電図(EMG)センサーを含む制御デバイスとを有するシステムを含み得る。任意のシステム構成要素中に位置決めされ得る1つまたは複数のプロセッサは、センサーから受信されたEMGデータに関連するユーザジェスチャーに対応するEMG信号を検出することと、ジェスチャータイプを識別するために、EMG信号を分類することとを行うようにプログラムされ得る。制御信号は、たとえば、ジェスチャータイプに基づいて、人工現実ビューを変えるように、ヘッドマウントデバイスをトリガし得る。
人工現実環境内のオブジェクト(現実または仮想)の正確な制御は、没入体感を維持するのに有用であり得る。ジェスチャーは、オブジェクトを制御する有用なやり方であり得、現実の物理的オブジェクトとの対話を必要としない。たとえば、(多くの他のアクションのうちの)キーボードのキーを押すこと、ダイヤルを回すこと、ボタンを押すこと、メニューから項目を選択することなど、アクションは、ユーザジェスチャーによってシミュレートされ得る。タッピングジェスチャーは、キープレスをシミュレートし得る。その上、どの身体部位(たとえば、どの指)が、ジェスチャーを実施するために使用されたのかの識別は、人工現実環境のさらなる制御を可能にする。
本明細書で説明される実施形態のいずれかからの特徴は、本明細書で説明される一般的な原理に従って、互いと組み合わせて使用され得る。これらおよび他の実施形態、特徴、ならびに利点は、添付の図面および特許請求の範囲とともに以下の発明を実施するための形態を読むと、より十分に理解されるであろう。
以下は、図1~図30を参照しながら、教師なしおよび自己教師ありモデルを含む、ジェスチャー識別モデルの詳細な説明を提供する。図1~図13Bは、イベント検出および分類を図示し、「イベント」という用語は、指タップなど、ジェスチャーを含み得る。図14~図25Bは、様々なモデルの時間依存度、クラスタリング、トレーニング、および精度をさらに図示する。図26A~図26Bは、例示的な制御デバイスを図示する。図27A~図27Bは、制御デバイスの概略図を図示する。図28は、ヘッドマウントデバイスを含む例示的なシステムを図示する。図29~図30は、例示的なコンピュータ化された方法を図示し、図31および図32は、例示的なAR/VR適用例を図示する。
本開示は、ユーザジェスチャーを検出するために使用され得るイベント検出器モデルを対象とする。そのような検出器モデルは、一連のEMG信号(データセット)を記録することを伴い得、1人または複数のユーザは、異なるジェスチャーを実施する。いくつかの例では、例示的なジェスチャーは、指タップ(たとえば、シミュレートされたキープレス)を含み得るが、他のタイプのジェスチャーが、例示的なイベント検出器モデルを実装するために同様に使用され得る。
ジェスチャーは、有限時間期間にまたがる個別のイベントを含み得、いくつかの実施形態では、筋肉アクティブ化を表す(筋電図ウェーブレットを含む)1つまたは複数の筋電図信号によって特徴付けられ得る。機械学習技法を使用してそのようなジェスチャーを検出および分類するようにシステムを構成することは、相当量のラベリングされたトレーニングサンプルを伴い得る。よって、教師なしまたは自己教師ありのやり方で、少数のサンプルからジェスチャーを迅速に学習し、人間のジェスチャーから有意味な特徴をキャプチャおよび解釈し得るシステムが、大いに望ましい。本明細書で説明される例は、そのような教師なしおよび/または自己教師ありモデルを提供する。
図1は、主成分分析の適用から抽出され得る第1の成分(PCA、垂直線)、および検出されたピーク(点)を示す。複数のイベントが、示されており、休み期間によって分離された2つのグループに分割されている。図示されているイベントは、休み中の局所最大値に対応する、休止期間中に登録されたピークをも検出し得る、ピーク検出プロセスを使用して検出され得る。
データセットは、人差し指タップおよび中指タップに対応するEMG信号を含み得る。データセットは、約2Hzで記録された、各指について50回の連続する指タップを含むトレーニングセットと、約2Hzで記録された、各指について20回の連続する指タップを含むテストセットとに分割され得る。上記のデータセットは、2分未満の記録されたデータを表し得る。任意の他の好適なデータセットも、トレーニングセットとして使用され得る。
接空間にマッピングされた共分散が、特徴として選択され得る。400Hzのデータレートに対応する、ショートタイムウィンドウ(30ms)および5つのサンプルのストライドが、特徴抽出のために使用され得る。特徴空間の次元数は、5つの成分に対する主成分分析(PCA)の適用を通して、データセット中のイベントを見つけるために、低減され得る。その後、データは、(たとえば、メジアンを除去することによって)センタリングされ得、最終的に、局所最大値(ピーク)が、第1の成分上で識別され得る。
図2は、(休止期間中に登録された、検出されたイベントを含む)検出されたイベントからもたらされ得るクラスタを示す。3つのクラスタが示されており、指タップの各タイプについて1つのクラスタ(人差し指タップおよび中指タップに対応する、データグループ100および102)が示されている。余剰クラスタが、(有用なイベントであると考えられないことがある)休止期間中に登録されたイベントについて起こり得る。この余剰クラスタ104は、低エネルギーサンプルをもつクラスタを指し示す、左下隅中に位置決めされ得る。このクラスタは、たとえば、所定のエネルギーレベルしきい値を下回るすべての対応するイベントをドロップすることによって、除去され得る。
各イベントの周囲のデータは、クラスタ分析に備えて、エポックにおいてスライスされ得る。一例では、150msのウィンドウが、データをスライスするために、各イベントの周囲でセンタリングされ得、任意の他の好適なウィンドウサイズが、類似の様式で使用され得る。その後、エポックの各々は、ベクトル化され、3つのクラスタを抽出するために、K-Meansクラスタリングプロセスにかけられ得る。視覚化目的のために、Uniform Manifold Approximation and Projection(UMAP)に基づく次元削減プロセスが、イベントの各クラスについて約50個のイベントを含む、図2中に示されているクラスタをプロットするために、適用され得る。
図3は、検出された個別のイベントに対して実施され得る、主成分分析(PCA)からの第1の成分のプロットを示す。データは、主成分分析から生じた第1の成分に関してプロットされ得る。この例では、人差し指イベントが、最初に(左側に)示されており、その後に休止期間が続き、次いで、中指イベントが、右側に示されている。
いくつかの例では、タイミング調整が、登録されたイベントに対して実施され得る。各イベントのタイミングは、PCA分析の実行を使用して識別された第1の成分上の局所最大値に関連し得る。次いで、グランドトゥルースが、イベント検出モデルをトレーニングするために、収集されたサンプルから生成され得る。
図4Aおよび図4Bは、同期品質の観点を示す個別のイベントに対応するエポックを図示する。何らかのジッタおよび様々なエポックの不整合が存在し得る。
いくつかの例では、ジッタおよび不整合は、すべてのイベントにわたるエポックと平均との間の自己相関を分析することにより各エポックのための最適なオフセットを見つけることによって、低減またはなくされ得る。したがって、様々なオフセット(-10~10個のサンプル)がテストされ得、次いで、相関を最大にするタイミングが選択され得る。テスティングプロセスは、すべてのエポックが適切に整合されるまで、反復的に実行され得る。
図5Aおよび図5Bは、検出された個別のイベントに対応する整合されたエポックを示す。
図6Aおよび図6Bは、2つの異なるジェスチャーの平均に対して実施され得る、PCA分析に対応する2つのテンプレートのプロットを示す。図6Aは、人差し指タップデータに対応し、図6Bは、中指タップデータに対応する。テンプレートは、同期の後に取得された各イベントのエポックの平均エネルギーに基づき得る。(PCAの5つの成分からの)第1のPCA成分は、2つの指タップ(人差し指対中指)の間で振幅が著しく異なり得、他の成分は、異なる信号形態を有し得る。
バイナリ時系列は、イベントが検出された(イベントが起こった)とき、1の値でラベリングされ、イベントが検出されなかった(たとえば、イベントが起こらなかったであろう)とき、0の値でラベリングされ得る。そのような時系列を予測するモデルは、ラベリングされたサンプルに基づいてトレーニングされ得る。次いで、モデルの出力は、所定のエネルギーしきい値と比較され、イベント検出器を構成するためにデバウンスされ得る。
例示的パラメータが、モデルのグランドトゥルースのために構成され得る。再同期の後、イベントは、第1のPCA成分のピークの周囲でセンタリングされ得る。モデルは、全イベント時間経過に依拠し得、モデルは、ユーザがイベントの実行を終了すると、イベントを予測し得る。したがって、ラベルは、イベントタイミングに基づいて、シフトまたはオフセットされ得る。このパラメータは、「オフセット」と呼ばれることがある。
いくつかの例では、モデルは、イベントに対応する正しい単一の時間サンプルを完全には予測しないことがある。したがって、モデルは、イベントの中心を囲むいくつかの連続する時間サンプルに対して、1など、値を予測するように構成され得る。このパラメータは、「パルス幅」と呼ばれることがある。
いくつかの例では、オフセットは、イベントピーク後の75ms(イベントのピーク後の約30個のサンプル)に設定され得、パルス幅は、25msと設定され得る。これらの例および他の例は非限定的であり、他のパラメータ値が、イベント検出器モデルのトレーニング中に使用される信号の詳細に応じて使用され得る。
図7は、第1のPCA成分を使用して検出され得るイベントを、それぞれのラベルとともに図示し、これは、2秒のデータについて生成され得る。イベント検出器モデルは、多層パーセプトロン(MLP)モデルまたは他の好適な機械学習モデルとして実装され得る。特徴は、PCA特徴に対する150ms(約60個のサンプル)スライディングウィンドウから収集され得る(たとえば、各時間サンプルについて、5つのPCA成分の、前の60個の時間サンプル(すなわち、300個の次元)のベクトル化を用いたベクトルが生成され得る)。
モデルは、使用されるラベルを予測するようにトレーニングされ得る。モデルは、テストセットに対して適用され得、推論された出力が、所定のしきい値と比較され、個別のイベントの識別を導き出すためにデバウンスされ得る。
図8は、モデルからの2つの出力を含む、テストセットに対する個別のイベントの検出(実線)、ならびにテストセットからもたらされ得る個別のイベント(破線)を図示する。
図9は、個別のイベントが、テストデータセット中で検出され得ることを図示し、たとえば、テストセットに対して行われたPCA分析を使用してもたらされた5つの成分と、同じセット中で検出され得るイベントとを含む。すべての起こり得るイベントが、モデルによって検出され得、個別のイベントの2つのタイプの間の明らかなあいまいさ除去があり得る。
いくつかの例では、イベントは、EMG信号から取られたスナップショットから分類され得る。時間イベントの周囲で取られたスナップショットは、イベント検出器によって検出または登録され得る。イベント分類器モデルは、イベントの異なるタイプまたはクラスの間を区別するようにトレーニングされ得る。そのような分類は、一つには、各イベントが、イベントの発生と同期した特定の筋肉アクティブ化に関連する特性またはステレオタイプの信号に対応するイベントのクラスまたはタイプに関連するので可能である。18個のデータセットが使用され得、各データセットは、異なるユーザから集められ得る。データセットは、キーダウン、キーアップ、およびタップイベントからキャプチャされたEMG信号の記録を含む。ユーザごとに使用されるイベントの総数は、約160個(各人差し指および中指について80個)であり得る。
共分散は、400Hzの特徴サンプリング周波数から生じる、40ms時間ウィンドウおよび2.5msのストライドを使用して推定され得る。次いで、共分散は、接空間中でプロジェクトされ得、次元は、対角線ならびに(対角線の上および下に位置決めされた値によって行列中で表される)2つの隣接するチャネルを選択することによって低減され得る。48の次元サイズの特徴空間が、上記の動作の適用によってもたらされる。
各キープレスイベントの周囲の-100msから+125msまでの範囲の信号のウィンドウが、抽出(たとえば、スライスおよびバッファ)され得る。そのようなウィンドウは、約90個のEMGサンプル値を含み得る。上述の動作の終わりに、サイズ160×90×48(N_events×N_time_samples×N_features)のデータセットが、各ユーザについて取得され得る。
図10Aおよび図10Bは、それぞれ、人差し指タップイベントモデルおよび中指タップイベントモデルの例を示す。各イベントのモデルは、そのようなイベントのすべての発生について各イベントクラス(たとえば、人差し指タップおよび中指タップ)のEMG値を平均化することによって生成され得る。タップイベントの例が、図10Aおよび図10B中に示されている。
図10Aおよび図10B中に示されているイベントモデルでは、2つの信号が識別され得、1つはキープレスに対応し、1つはキーリリースについてのものである。同じ特徴が、人差し指キープレスクラスおよび中指キープレスクラスの両方においてアクティブであるように見えることがあるが、特徴のそれぞれの振幅は、かなり異なり、弁別のための良好な基礎を提供する。
図11A~図11Fは、イベントの2つのクラスのためのユーザ固有イベントモデルの例を図示する。図11A、図11C、および図11Eは、人差し指キープレスに対応し、図11B、図11D、および図11Fは、中指キープレスに対応する。各ユーザは、各イベントクラスについて異なるパターンを示し得る。タイミングは概して同じであるが、振幅の大きな違いが、信号のうちで観測され得る。
いくつかの分類モデルが、シングルユーザイベント分類モデルを実装するために使用され得る。いくつかの例では、各トライアルは、(時点の数×特徴に対応する次元をもつ)大きいベクトルにベクトル化され得る。そのような大きいベクトルが生成されると、分類器は、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロンに基づいてもたらされ得、ジェスチャー分類モデルにおいて実装され得る。
いくつかの例では、(特徴次元上の)データの次元数は、空間フィルタを適用し、次いで、結果をベクトル化し、分類器を使用することよって低減され得る。空間フィルタの例は、たとえば、Common Spatial Patterns(CSP)の抽出、または線形判別分析(LDA)を用いたアンサンブル中の誘発電位のxDawnエンハンスメントに基づき得る。CSPの適用を通して、ソースの分散の違いを最大にする部分空間が決定され得る。xDawn手法では、空間フィルタは、(信号対雑音比(SNR)を増加させ得る)生データではなく、クラス平均から推定され得る。
いくつかの例では、モデルは、以下の手法、すなわち、各クラス(たとえば、中指キープレスおよび人差し指キープレス)のイベントモデルを各トライアルに連結すること、共分散行列を推定すること、接空間マッピング、およびLDAを適用することのうちの1つまたは複数を含む方法によって開発され得る。そのような手法は、信号のコンパクトな表現をもたらし得、低いSNRで有効であり得る。
90%のトレーニングおよび10%のテストを用いた層化ランダムスプリットが、一部、クラスバランスを温存するために使用され得る。ランダムスプリットも使用され得る。ユーザにわたる平均で99%の精度が、線形回帰分類器を使用して実現され、最悪のユーザの場合、95%であることがある。
図12は、シングルユーザイベント分類のためのテストされたモデルの各々によって実現された精度レベルを示す。プロット中の各点は、単一のユーザを表す。分類器は、概して、図12中に示されているものに類似する精度レベルにおいて機能し得る。
トレーニングセットサイズは変えられ得る。トレーニングセットのサイズは、5%から90%までで、スプリットが変更され得る。テストデータの量は、10%に固定されたままであり得る。2つの分類器、すなわち、LRおよびXDCov+LDAが使用され得る。10%のテストおよび可変トレインサイズを用いた10回の層化ランダムスプリットが、交差検証のために使用され得る。
精度の安定状態が、80個のイベントのあたりで到達され得る。20個のイベントが、ロジスティック回帰に基づく分類器を用いて95%の精度を実現するために使用され得る。XDCov+LDAに基づく分類器は、収束するために、より多数のイベントを必要とし得る。
図13Aは、トレーニングイベントの数の関数として、シングルユーザイベント分類モデルの2つの異なる実装形態によって実現され得る例示的な精度レベルを示す。結果が、LR(実線)手法およびXDCov+LDA(破線)手法について示されている。残りの破線および点線は、LR結果についての起こり得る不確実性の定性的表示(上側の点線および概して下側中央の破線)、ならびにXDCov+LDA結果についての起こり得る不確実性の定性的表示(残りの破線および下側の点線)を与える。
ウィンドウサイズも調整され得る。イベントを分類するために使用されるウィンドウのサイズは、イベント検出のレイテンシに影響を及ぼし得る。したがって、モデルの性能は、相応に調整され得る、ウィンドウサイズパラメータに応じて変動し得る。
いくつかの実装形態では、分類のための単一の時点が、いずれの時点が情報を含んでいるかをあらわにするために使用され得る。代替的に、キープレスイベントの後の、たとえば、-100msから+125msまでの(すべての過去の時点を含んでいる)増加するウィンドウサイズが、使用され得る。各時点またはウィンドウサイズについて、ユーザ固有モデルがトレーニングされ得、次いで、得られた分類器またはモデルの性能が評価され得る。上記で説明された、ロジスティック回帰モデルまたは他の好適なモデルが、分類器を実装するために使用され得る。交差検証が、10回の層化ランダムスプリットを使用して実現され得、10%がテスティング目的のために確保され、90%がトレーニング目的のために使用される。これらの数値、および本明細書で考察される他の値は、例示的であり、限定ではない。
図13Bは、単一のタイムスタンプおよび累積ウィンドウサイズによって実現され得る例示的な精度レベルを示す。結果は、ウィンドウ中のたいていの時点が、(たとえば、約50%の精度をもつ)見込みレベルを上回る時点をモデルが分類することを可能にする情報を含んでいることがあることを示す。最大精度は、キープレスの場合、-25msにおいて到達され、キーリリースの場合、+70msのあたりで到達され得る。すべての過去の時間サンプルを含む累積ウィンドウを使用すると、最大精度レベルは、ウィンドウの終わりに到達され得る。95%の平均精度レベルが、キープレスイベントの前のすべてのタイムスタンプを使用して到達され得る。リリースウェーブを待つことは、相補的情報を提供することによって、精度を押し上げ得る。残りの破線および点線は、起こり得る不確実性の定性的表示を表す。
時間にわたる一般化は、時間サンプルがどのくらい独立しているかを決定するために使用され得る。時間にわたる一般化の一部として、分類器は、単一の時点においてトレーニングされ得、次いで、分類器は、別の時点においてテストされ得る。この手法は、イベントに関与する異なるプロセスが変化しないかどうかを決定し得る。ソースの同じ組合せが、2つの異なる時点にわたって類似的にアクティブである場合、シングルユーザモデルは、他のユーザによってもたらされたイベントを分類するために伝達または使用される得ることが暗示され得る。
ロジスティック回帰に基づく分類器は、各ユーザおよび各時点についてトレーニングされ得る。次いで、各分類器の精度は、(同じユーザについての)1つおきの時点について評価され得る。次いで、すべてのユーザにわたる精度、ならびに精度行列の構造が、平均化され得る。
図14は、時間サンプルの独立性を決定するために実行され得る、時間にわたる一般化を示す。2つのクラスタが、精度行列中で観測され得、1つはキープレスに対応し、もう1つはキーリリースに対応する。クラスタの各々内の観測された伝達から、各時間サンプルは、多くの相補的情報を担持しないこと、およびサンプルの慎重に選択されたサブセットを使用することは、最適な精度を実現するのに十分であり得る(または代替的に、特異値分解SVDを用いて特徴空間を圧縮することは、有用であり得る)ことが暗示され得る。
いくつかの例では、一般化されたクロスユーザ分類モデルが使用され得る。分類器は、数人のユーザから収集されたデータを用いてトレーニングされ得、取得されたトレーニングされた分類器は、テストユーザに対して分類器の性能についてテストされ得る。上記で説明されたように、いくつかのタイプの分類器が、最適なタイプの分類器を決定するために実装され得る。1人のユーザから抽出されたデータは、交差検証目的のために残され得る。平均して、実装されたモデルにわたって実現される精度は、82%のあたりであり得る。ユーザにわたる大きい分散も観測され得る。
図15は、一般化されたクロスユーザ分類モデルの精度レベルを図示し、いくつかの分類器は、100%の精度に到達し得、他のものは、60%を下回る精度に到達するのみであり得ることを示す。図16も、妥当な精度レベルが、線形回帰に基づく分類器を使用して実現され得ることを指し示す。
いくつかの例では、ユーザのペアにわたるモデル伝達が使用され得る。分類器モデルは、1人のユーザから抽出されたデータに基づいてトレーニングされ得、次いで、モデルの精度は、1人おきのユーザについてのデータに関して次いで評価され得る。分類器モデルは、ロジスティック回帰に基づき得る。
図16は、線形回帰に基づくユーザ固有分類器の伝達性を図示し、伝達精度の大きい変動性が観測され得ることを示す。いくつかのユーザ固有モデルは、何人かの他のユーザに十分に伝達され得る。いくつかのユーザ固有モデルは、たいていの他のユーザへの良好な伝達をもつ良好な受取側(たとえば、図16中に示されている「アレックス」のためのユーザモデル)であるように見え、他のユーザ固有モデル(たとえば、「ロブ」のためのユーザモデル)は、他のユーザとの良好な一致を有するように見えない。
いくつかの例では、ユーザ適応も使用され得る。シングルユーザイベント分類モデルの調査に基づいて、シングルユーザから導出された偶数個のクラスが分離され得、相対的に少量のラベリングされたトレーニングデータが、適度に正確なシングルユーザイベント分類モデルを取得するために使用され得る。
一般化されたクロスユーザ分類モデル結果から、いくつかのユーザ固有分類モデルが他のユーザに十分に伝達することが推論され得る。これらの初期結果に基づいて、以下の例は、以下の通りである。いくつかの例では、現在のユーザについてラベルの良好な推定値を得るために、他の(異なる)ユーザからのモデルが使用され得る。また、ラベルのこの推定を使用して、ユーザ固有モデルは、ラベリングされたデータを用いてトレーニングされたシングルユーザモデルのものに近い性能を取得するようにトレーニングされ得る。
ユーザ埋込みも使用され得る。2つのイベントクラスがクラスタリングされ得る埋込み空間が生成され得る。ユーザ伝達行列は、各テストユーザについて、概して、十分に伝達し得るいくつかの(たとえば、2つの)シングルユーザモデルがあることを示唆する。シングルユーザモデルの集合の出力を含むユーザ埋込み空間が、構築され得る。詳細には、共分散特徴に対する単純最寄重心分類器(XDCov+MDM)が、作り上げられ得る。線形回帰または他の代替確率モデルに関するXDCov+MDM手法の利点は、モデルが不適切に較正され得る場合でも、イベントが、クラスタ可分性に依然として寄与し得るということである。
XDCov+MDMモデルの出力は、各イベントクラスの重心までの距離に対して適用されたsoftmaxの関数であり得る。いくつかの例(たとえば、バイナリ分類)では、1つの次元が、各ユーザ固有モデルについて使用され得る。しかしながら、次元数は、たとえば、バイナリ分類よりも大きい、3つ以上の起こり得るクラスのプールから行われ得る分類など、分類タイプに応じて拡大され得る。
ユーザに関連する埋込みは、1人のユーザを引いたすべてのユーザから、すなわち、ユーザのグループから導出されたサンプルを用いてトレーニングされ得る。その後、埋込みのトレーニングで使用されなかったユーザに関連するサンプルは、トレーニングされた埋込みにプロジェクトされ得る。これにより、X-1次元の空間がもたらされ得、Xは、ユーザのグループからのユーザの数である。
図17A~図17Qは、各次元について、ジェスチャーの2つのクラス(人差し指タップおよび中指タップ)の例示的な分布を示す。2つのクラスの分離は、いくつかのモデルでは、区別され得、他のモデルは、約同等の分布を示す。いくつかの例では、モデルが、最適に較正されない(すなわち、クラスの間の最適な分離が、0.5にないことがある)とき、モデルは、2つのクラスを依然として効果的に分離し得る。
上記で説明された埋込みをもたらした後、(人差し指タップおよび中指タップまたはピンチまたはスナップまたは分離されるべき他のジェスチャータイプなど)異なるタイプのイベントクラスに対応するクラスタを分離するために、クラスタリングプロセスが実行され得る。たとえば、K-meansプロセスが、埋込みを使用してもたらされたデータポイントのセット上で走らされ得る。
図18Aおよび図18Bは、UMAPおよびPCAを使用した分離されたクラスタの例を図示し、そのようなクラスタが、図18A中のようなUniform Manifold Approximation and Projection(UMAP)、または図18B中に示されている主成分分析(PCA)のいずれかを使用してプロットされ得ることを示す。各々、(ジェスチャータイプなど)異なるイベントクラスおよび異なるラベルに対応し得る、いくつかのクラスタ(たとえば、2つのクラスタ)が見られ得る。埋込み空間は、(「proba」と称され得る)意味を搬送するので、各クラスタは、クラスタの対応するクラスに関連し得る。
自己教師ありユーザモデルも開発され得る。ラベルのセットが、たとえば、クラスタリング技法を使用してもたらされ得た後、そのようなラベルは、元のデータセットからのユーザ固有モデルをトレーニングするために使用され得る。たとえば、選定された分類モデルが、実質的にモデルにオーバーフィットせず、ラベリングされたデータ中に含まれるノイズに鈍感であり得ることがわかっている場合、XDCovおよび直線変位分析、または他の好適な分類モデルが実装され得る。
図19は、自己教師ありモデルを使用して実現された例示的な精度レベルを図示し、ラベルの推定または分類に関する約99%の精度が、自己教師ありモデルをトレーニングした後に実現され得ることを示す。この例では、2回のトレーニング反復で十分であり得る。
98%の精度が、ユーザのグループからのすべてのユーザのデータポイントを含み得る、完全なトレーニングセットを使用して実現され得る。
図20は、教師ありユーザ固有モデルおよび自己教師ありユーザ固有モデルを使用して実現された精度レベルを図示し、自己教師ありモデルが、ラベリングされたデータを用いてトレーニングされたユーザ固有モデルよりもうまく機能することを示す。残りの破線および点線は、起こり得る不確実性の定性的表示を与える。
ウィンドウサイズは、自己教師ありモデルの性能を改善するように調整され得る。ウィンドウサイズが増加するときに自己教師ありモデルの精度を観測することが、最適なウィンドウサイズを決定するために使用され得る。1人のユーザからのデータは、モデルの交差検証について省略され得る。クラスタリングおよびユーザ固有モデルのために、10%のテストデータおよび90%のトレーニングデータを用いた10フォールドランダムスプリットが使用され得る。この場合、自己教師ありモデルは、フルウィンドウサイズを用いてより良く機能したと決定され得る。これは、この事例では、小さいウィンドウサイズが、分離可能クラスタをもたらさなかったという観測によって解説され得る。したがって、大きいウィンドウサイズが、ラベリングされたデータを取得するために使用され得、次いで、ユーザ固有モデルは、相対的に小さいウィンドウサイズを使用して、たとえば、ラベルを使用してトレーニングされ得る。
図21は、ユーザ固有についてのウィンドウサイズ決定(実線)および自己教師ありモデルについてのウィンドウサイズ決定(下側の破線)を図示する。残りの破線および点線は、起こり得る不確実性の定性的表示を与える。
類似の手法が、データサイズの影響を研究するために使用され得る。シングルユーザモデルのアンサンブルが、性能を評価するために使用され得る。交差検証は、整合のために1人のユーザを残すことと、次いで、10%のテストデータおよび5から90%までの増加するトレーニングサイズを用いた同じ10フォールドランダムスプリットを使用することとを含み得る。アンサンブル手法は、30個のイベントの後に96%の精度に到達し得、次いで、精度は、その後、より多数のイベントについて安定状態になり得る。
教師ありドメイン適応は、カノニカル部分最小2乗(CPLS)モデルを使用し得る。いくつかの例では、ドメイン適応に基づく方法が、たとえば、ユーザにわたる十分な伝達を生じ得るデータ変換を決定することによって、ユーザ固有モデルを作り上げる代わりに使用され得る。CPLSモデルは、ドメイン適応を実施するために使用され得る。変換関数が、1人のユーザについて、別のユーザの各イベントクラス(たとえば、人差し指タップ、中指タップ、人差し指と親指でのピンチ、中指と親指でのピンチ、指スナップなど、異なるジェスチャータイプ)のためのモデルを用いて、各イベントクラスのモデルを整合させるように決定され得る。
図22A~図22Bは、第1のユーザに関連する各イベントクラスのモデルを図示する。
図22C~図22Dは、第2のユーザに関連する各イベントクラスのモデルを図示する。
図23A~図23Bは、第1のユーザおよび第2のユーザに関連するイベントクラスのためのモデルの整合を示し、1人のユーザのためのイベントクラスのモデルが、別のユーザのためのイベントクラスの対応するモデルと整合され得ることを示す。垂直破線はキープレスに対応する。一つには、2人のユーザの各イベントクラスの元のモデルが実質的に異なり得、それでも元のモデルが整合の後にほぼ同一となり得るので、整合が効率的であり得る。
整合の後のデータ分布が、変換の前および後のデータのUMAP埋込みについて考えることによって研究され得る。
図24A~図24Bは、変換の前および後の例示的なデータを示す。図24Aは、元のデータが明確に分離され得、最大変動が2人のユーザにわたって見られ得ることを示す。変換の後、イベントの2つのイベントクラスは、たとえば、図24B中に示されているように、高い精度で一致し得る。
ユーザのグループからのユーザの各ペアについての変換プロセスが、研究され得る。ユーザ間伝達行列は、整合を実施した後に複製され得る。シングルユーザモデルがトレーニングされ得、次いで、各テストユーザについて、データが整合され得、モデルの精度が、変換されたデータに対してテストされ得る。交差検証は、テストユーザについて、最初の40個のイベント(または他の数のイベント)に対してイベントクラスモデルを推定することと、次いで、ドメイン適応を実施することと、最後に、残りのイベント(たとえば、120個のイベント)に対してモデルの精度をテストすることとを含み得る。これらの(および他の)例で使用された数値は、例示的であり、限定ではない。
図25Aは、ユーザのグループ中のすべてのユーザからのユーザにわたる伝達を図示し、プロセスが、シングルユーザモデルの、任意の他のユーザへの伝達を向上させ得ることを示す。
最適な適応に到達するために必要とされるデータの量が、決定され得る。性能評価は、一つには、ユーザのペアの間でデータを適応させることが可能であり得るので、シングルユーザモデルのアンサンブルを使用して行われ得る。交差検証は、1人のユーザを整合から除外することと、その後、10%のテストデータを用いた10フォールドランダムスプリットを使用することと、5から90%までトレーニングサイズを増加させることとを含み得る。数値は、例示的であり、限定ではない。
図25Bは、伝達関数に基づく教師ありドメイン適応のためのデータサイズの決定を図示し、精度対トレーニングイベントの数を示す。結果は、アンサンブルが、30個のイベントの後に96%の精度に到達し得、その後、安定状態になり得ることを示す。残りの破線および点線は、起こり得る不確実性の定性的表示を与える。
図26A~図26Bは、以下、すなわち、人間機械インターフェース、インターフェースデバイス、制御デバイス、および/または制御インターフェースのうちの1つまたは複数を含み得る、例示的なデバイスを図示する。いくつかの例では、デバイスは、(図26A中に示されている)この例では、ユーザの下腕または手首の周囲に着用されるように構成された弾性バンド2620の周囲に円周方向に配列されたいくつかの(たとえば、16個の)神経筋センサー2610(たとえば、EMGセンサー)を含み得る、制御デバイス2600を含み得る。いくつかの例では、EMGセンサー2610は、弾性バンド2620の周囲に円周方向に配列され得る。バンドは、いくつかの例では、1つまたは複数のセンサーハウジング2660で囲いをされ得る別個のセンサーおよび電子回路を相互接続し得る、(図26B中に示されている)可撓性電子接続2640を含み得る。各センサー2610は、1つまたは複数の電極を含み得る、皮膚接触部分2650を有し得る。任意の好適な数の神経筋センサー2610が、使用され得る。神経筋センサーの数および配列は、制御デバイスが使用される特定の適用例に依存し得る。たとえば、アームバンド、リストバンド、またはチェストバンドとして構成されたウェアラブル制御デバイスが、拡張現実システムを制御する、ロボットを制御する、車両を制御する、テキストをスクロールする、仮想アバターを制御する、または任意の他の好適な制御タスクのための制御情報を生成するために使用され得る。図示のように、センサーは、ワイヤレスデバイスに組み込まれた可撓性エレクトロニクスを使用して、ともに結合され得る。
図26Bは、図26A中に示されている制御デバイス2600のセンサー2610のうちの1つを通る断面図を図示する。センサー2610は、皮膚接触表面2650内に位置決めされた複数の電極を含み得る。弾性バンド2620は、可撓性電気コネクタ2640に少なくとも部分的に囲いをし得る、外側フレキシブル層2622と内側フレキシブル層2630とを含み得る。
いくつかの実施形態では、検知構成要素のうちの1つまたは複数の出力は、随意に、(たとえば、増幅、フィルタ処理、整流、および/または別の好適な信号処理機能を実施するために)ハードウェアベース信号処理回路を使用して処理され得る。いくつかの実施形態では、検知構成要素の出力の少なくとも一部の信号処理は、ソフトウェアで実施され得る。これにより、センサーによってサンプリングされた信号の信号処理は、ハードウェアで、ソフトウェアで、またはハードウェアとソフトウェアの任意の好適な組合せによって実施され得、本明細書で説明される技術の態様は、この点について限定されない。センサー2610からの信号データを処理するために使用されるアナログ回路の非限定的な例が、図27Aおよび27Bを参照しながら、以下でより詳細に考察される。
図27Aおよび図27Bは、たとえば、16個のEMGセンサーなど、1つまたは複数のEMGセンサーを含み得る装置の内部構成要素をもつ概略図を図示する。装置は、(図27A中に概略的に示されている)制御デバイス2710など、ウェアラブルデバイスと、(たとえば、BLUETOOTHまたは別の好適な短距離ワイヤレス通信技術を使用して)制御デバイス2710と通信していることがある(図27B中に概略的に示されている)ドングル部分2750とを含み得る。いくつかの例では、ドングル部分の機能(たとえば、図27B中に示されているものと類似の回路)は、ヘッドマウントデバイス内に含まれ得、制御デバイスが、ヘッドマウントデバイスと通信することを可能にする。
図27Aは、制御デバイス2710が、1つまたは複数のセンサー2712、たとえば、図26Aおよび26Bに関連して上記で説明されたセンサー2610を含み得ることを示す。センサーは、各々、1つまたは複数の電極を含み得る。センサー2712からのセンサー信号は、センサー信号のアナログ処理(たとえば、ノイズ低減、フィルタ処理など)を実施するように構成され得る、アナログフロントエンド2714に提供され得る。処理されたアナログ信号は、次いで、アナログデジタル変換器(ADC)2716に提供され得、ADC2716は、処理されたアナログ信号を、次いで、1つまたは複数のコンピュータプロセッサによってさらに処理され得るデジタル信号に変換し得る。いくつかの実施形態に従って使用され得る例示的なコンピュータプロセッサは、マイクロコントローラ(MCU)2722を含み得る。MCU2722はまた、他のセンサー(たとえば、慣性測定ユニット(IMU)センサー2718などの慣性センサー、または他の好適なセンサー)から信号を受信し得る。制御デバイス2710はまた、バッテリーモジュールまたは他の電源を含み得る電源2720を含むか、または電源2720から電力を受信し得る。MCU2722によって実施された処理の出力は、図27B中に示されているドングル部分2750への送信のために、アンテナ2730に提供され得る。
図27Bは、ドングル部分2750が、制御デバイス2710に関連付けられたアンテナ2730と通信するように構成され得る、アンテナ2752を含み得ることを示す。アンテナ2730および2752の間の通信は、その非限定的な例が無線周波数シグナリングおよびBLUETOOTHを含む、任意の好適なワイヤレス技術およびプロトコルを使用して行われ得る。図示のように、ドングル部分2750のアンテナ2752によって受信された信号は、BLUETOOTH無線器(または他の受信器回路)によって受信され、さらなる処理、表示のために、および/または1つまたは複数の特定の物理的または仮想オブジェクトの制御を遂行するために、出力2756(たとえば、USB出力)を通してホストコンピュータに提供され得る。
いくつかの例では、ドングルは、ユーザと同じ環境内に位置するが、ユーザによって携帯されないことがある、別個のコンピュータデバイスに挿入され得る。この別個のコンピュータは、制御デバイスから制御信号を受信し、ヘッドマウントデバイスにさらなる制御信号を提供するために、これらの信号をさらに処理し得る。制御信号は、人工現実ビューを変えるように、ヘッドマウントデバイスをトリガし得る。いくつかの例では、ドングル(あるいはヘッドマウントデバイスまたは他のデバイス中の等価回路)は、ネットワークイネーブルされ、ネットワークを通したリモートコンピュータとの通信を可能にし得、リモートコンピュータは、人工現実ビューを変えるように、ヘッドマウントデバイスをトリガするために、ヘッドマウントデバイスに制御信号を提供し得る。いくつかの例では、ドングルは、改善された通信機能性を提供するために、ヘッドマウントデバイスに挿入され得、ヘッドマウントデバイスは、制御デバイス2710から受信された制御信号に基づいて、さらなる処理(たとえば、AR画像の変更)を実施し得る。
いくつかの例では、ドングル部分の構成は、人工現実ヘッドセットなど、ヘッドマウントデバイス中に含まれ得る。いくつかの例では、図27B中で上記で説明された回路は、ヘッドマウントデバイスの構成要素によって提供され(すなわち、ヘッドマウントデバイス内に組み込まれ)得る。いくつかの例では、制御デバイスは、説明されるワイヤレス通信、および/または類似の概略回路、または類似の機能性を有する回路を使用して、ヘッドマウントデバイスと通信し得る。
ヘッドマウントデバイスは、図27Bに関して上記で説明されたアンテナ2752に類似したアンテナを含み得る。ヘッドマウントデバイスのアンテナは、制御デバイスに関連付けられたアンテナと通信するように構成され得る。制御デバイスおよびヘッドマウントデバイスのアンテナの間の通信は、その非限定的な例が無線周波数シグナリングおよびBLUETOOTHを含む、任意の好適なワイヤレス技術およびプロトコルを使用して行われ得る。ヘッドマウントデバイスのアンテナによって受信された、制御信号など、信号は、BLUETOOTH無線器(または他の受信器回路)によって受信され、制御信号に応答してユーザのための人工現実ビューを変えるようにプログラムされ得る、ヘッドマウントデバイス内のプロセッサに提供され得る。制御信号は、たとえば、検出されたジェスチャータイプに応答して、ユーザに提示される人工現実ビューを変えるように、ヘッドマウントデバイスをトリガし得る。
例示的なデバイスは、制御デバイスと、(たとえば、BLUETOOTHまたは別の好適な短距離ワイヤレス通信技術を介して)制御デバイスと通信している(1つまたは複数のドングル部分、ヘッドセット、リモートコンピュータデバイス、および同様のものなど)1つまたは複数のデバイスとを含み得る。制御デバイスは、1つまたは複数の電極を含む電気センサーを含み得る、1つまたは複数のセンサーを含み得る。センサー信号と呼ばれることがある、電極からの電気出力は、センサー信号のアナログ処理(たとえば、フィルタ処理など)を実施するように構成されたアナログ回路に提供され得る。次いで、処理されたセンサー信号は、1つまたは複数のコンピュータプロセッサによって処理され得るデジタル信号にアナログ信号を変換するように構成され得る、アナログデジタル変換器(ADC)に提供され得る。例示的なコンピュータプロセッサは、(ノルディックセミコンダクター製の)nRF52840など、1つまたは複数のマイクロコントローラ(MCU)を含み得る。MCUはまた、1つまたは複数の他のセンサーから入力を受信し得る。デバイスは、絶対配向センサーであり得、慣性測定ユニットを含み得る、配向センサーなど、1つまたは複数の他のセンサーを含み得る。例示的な配向センサーは、(ボッシュセンサーテック製の)BNO055慣性測定ユニットを含み得る。デバイスは、電力およびバッテリーモジュールなど、専用電源をも含み得る。MCUによって実施された処理の出力は、ドングル部分または別のデバイスへの送信のために、アンテナに提供され得る。他のセンサーは、機械筋学(MMG)センサー、音響筋学(SMG)センサー、電気インピーダンス断層撮影(EIT)センサー、および他の好適なタイプのセンサーを含み得る。
ドングル部分、またはヘッドマウントデバイスなどの他のデバイスは、制御デバイスおよび/または他のデバイスと通信するように構成された1つまたは複数のアンテナを含み得る。システム構成要素の間の通信は、無線周波数シグナリングおよびBLUETOOTHなど、任意の好適なワイヤレスプロトコルを使用し得る。ドングル部分(または他のデバイス)のアンテナによって受信された信号は、さらなる処理、表示のために、および/または1つまたは複数の特定の物理的または仮想オブジェクトの制御を遂行するために、USB出力など、出力を通してコンピュータに提供され得る。
図26A、図26Bおよび図27A、図27Bを参照しながら提供された例は、EMGセンサーとのインターフェースのコンテキストにおいて考察されたが、例は、限定はしないが、機械筋学(MMG)センサー、音響筋学(SMG)センサー、および電気インピーダンス断層撮影(EIT)センサーを含む他のタイプのセンサーとともに使用される、ウェアラブルインターフェースなど、制御デバイスにおいても実装され得る。本明細書で説明される手法は、ワイヤおよびケーブル(たとえば、USBケーブル、光ファイバーケーブル)を通してコンピュータホストと通信するウェアラブルインターフェースにおいても実装され得る。
図28は、ヘッドセット2810と、(ウェアラブル制御デバイスを表し得る)制御デバイス2820とを含み得る例示的なシステム2800を図示する。いくつかの例では、システム2800は、磁気トラッカーを含み得る。これらの例では、磁気トラッカーのための送信器は、制御デバイス2820上に搭載され得、磁気トラッカーのための受信器は、ヘッドセット2810上に搭載され得る。他の例では、磁気トラッカーのための送信器は、ヘッドセット上に搭載されるか、またはさもなければ、環境内に位置決めされ得る。いくつかの実施形態では、システム2800は、1つまたは複数の随意の制御グローブ2830をも含み得る。いくつかの例では、制御グローブの多くのまたはすべての機能は、制御デバイス2820によって提供され得る。いくつかの例では、システムは、拡張現実および/または仮想現実システムであり得る。いくつかの例では、制御グローブ2830は、複数の磁気トラッカー受信器を含み得、複数の磁気トラッカー受信器を使用して、ユーザの手の様々な部位の向きおよび/またはロケーションが決定され得る。いくつかの例では、制御デバイス2820は、図26Aおよび図26B中に示されているものに類似していることがある。いくつかの例では、制御デバイスは、図27A(および/または図27B)中に示されているものに類似した電子回路を含み得る。
いくつかの例では、(グローブとより簡単に呼ばれることがある)制御グローブ2830は、1つまたは複数の磁気トラッカー受信器を含み得る。たとえば、グローブの指は、少なくとも1つの受信器コイルを含み得、磁気トラッカー送信器によって誘起された少なくとも1つの受信器コイルからのトラッカー信号の検出は、指の少なくとも一部分の位置および/または向きを決定するために使用され得る。1つまたは複数の受信器コイルは、(親指など)指、手のひら、および同様のものなど、手の各部分に関連付けられ得る。グローブは、電気活性センサーなど、手の位置および/または構成を示すセンサー信号を提供する他のセンサーをも含み得る。磁気トラッカー受信器信号など、センサー信号は、ウェアラブル制御デバイスなど、制御デバイスに送信され得る。いくつかの例では、(手首搭載型制御デバイスなど)制御デバイスは、制御グローブと通信しており、ワイヤードおよび/またはワイヤレス通信を使用して制御グローブからセンサーデータを受信し得る。たとえば、可撓性電気コネクタは、制御デバイス(たとえば、手首搭載型制御デバイス)とグローブとの間で拡大し得る。いくつかの例では、制御デバイスは、グローブを含み得、および/またはリストストラップを含み得る。
いくつかの例では、制御デバイス2820は、図26Aおよび図26B中に図示されているデバイスに類似したEMG制御インターフェースを含み得る。制御デバイス2820上にまたは近くに磁気トラッカー送信器を位置決めすることは、誘導電流および/または電圧により、制御デバイス2820によって記録される信号へのノイズの導入を生じ得る。いくつかの実施形態では、磁気トラッカー送信器によって生じる電磁干渉は、制御デバイス2820からさらに離れた距離に送信器を位置決めすることによって低減され得る。たとえば、送信器は、ヘッドセット2810上に搭載され得、磁気トラッカー受信器は、制御デバイス2820上に搭載され得る。この構成は、たとえば、ユーザが、自分の頭から離れて自分の腕を保つとき、うまく動作するが、ユーザがヘッドセットに極めて近接して自分の腕を移動する場合、同様には動作しないことがある。しかしながら、多くの適用例は、ユーザの頭と手との間の広い近接性を必要としない。
ウェアラブル制御デバイス2820など、制御デバイスは、ユーザの体から(たとえば、皮膚と接触している電極、および/または1つまたは複数の他のセンサーから)発信したアナログ電気信号を増幅するように構成された少なくとも1つの増幅器を含むアナログ回路と、仮想現実(VR)および/または拡張現実(AR)システムなど、システムを制御するために使用され得るデジタル信号に、増幅されたアナログ電気信号を変換するように構成されたアナログデジタル変換器とを含み得る。
いくつかの例では、拡張現実システムは、磁気トラッカーを含み得る。磁気トラッカーは、ヘッドセットまたは他のロケーション中に配置された送信器と、追跡されるオブジェクト、あるいは(ユーザの、手、または他の四肢もしくは他の四肢の部分、または関節など)ユーザの身体部位に関連付けられ得る、1つまたは複数の受信器とを含み得る。
図29は、ユーザから筋電図(EMG)データを取得すること(2910)であって、EMGデータは、イベントに対応するEMG信号を含む、EMGデータを取得することと、イベントに対応するEMG信号を検出することと(2920)、イベントタイプからのものであるとしてEMG信号を分類することと(2930)、イベントタイプに基づいて制御信号を生成することと(2940)を含む、イベントを分類する例示的な方法(2900)を示す。例示的な方法は、制御信号に基づいて、人工現実環境を制御する人工現実ビューを変えるように、ヘッドマウントデバイスをトリガすることをさらに含み得る。
図30は、イベントに対応するEMG信号を検出することと(3010)、トレーニングされたモデルを使用して、イベントタイプに対応するものとしてEMG信号を分類することと(3020)、イベントタイプに基づいて、人工現実環境のための制御信号を生成することと(3030)を含む、イベントを分類する例示的な方法(3000)を示す。制御信号は、人工現実ビューを変えるように、ヘッドマウントデバイスをトリガし得る。
いくつかの例では、図29および図30は、少なくとも1つのジェスチャーを検出することと、拡張現実システムまたは仮想現実システムなど、人工現実システムを制御するために、少なくとも1つの検出されたジェスチャータイプを使用することとを行うための例示的コンピュータ実装方法の流れ図を表し得る。図中に示されている1つまたは複数のステップは、任意の好適なコンピュータ実行可能コード、および/あるいは制御デバイス、ヘッドマウントデバイス、制御デバイスと通信している他のコンピュータデバイス、またはセンサー信号を提供するデバイスと通信しているコンピュータデバイスなど、コンピュータデバイスによって実施され得る。いくつかの例では、図29および/または図30中に示されているステップのうちの1つまたは複数は、本明細書で説明されるものなどの手法を使用する、構造が複数のサブステップを含みおよび/または複数のサブステップによって表される、アルゴリズムを表し得る。いくつかの例では、特定の例示的な方法のステップは、たとえば、制御デバイスおよびヘッドマウントデバイスを含むシステムの異なる構成要素によって実施され得る。
いくつかの例では、イベント検出および分類は、教師なしまたは自己教師ありモデルによって実施され得、これらの手法は、ユーザジェスチャーを検出するために使用され得る。モデルは、特定のユーザについてトレーニングされ得るか、またはいくつかの例では、モデルは、異なるユーザに対してトレーニングされ得、異なるユーザのためのトレーニングデータは、現在のユーザとともに使用するために適応される。例示的なトレーニング手法では、EMGデータは、検出され、随意に、分析のために記録され得る。モデルは、1人または複数のユーザが、1つまたは複数のジェスチャーを実施したときに取得され得るEMGデータを使用して、トレーニングされ得る。例示的なジェスチャーは、指タップ(たとえば、シミュレートされたキープレス)、(フィンガーカール、スワイプ、ポインティングジェスチャー、および同様のものなど)他の指の動きを含むか、または他のタイプのジェスチャーおよび/またはセンサーデータが、例示的なイベント検出器モデルをトレーニングするために同様に使用され得る。
いくつかの実施形態では、シングルユーザモデルを含む埋込み空間を作り上げることによって、イベントの明らかに分離可能なクラスタが取得され得る。クラスタリング技法は、各イベントのためのラベルを決定するように実装され得、次いで、ユーザ固有モデルは、ラベリングされたデータを使用してトレーニングされ得る。これらの技法のうちの少なくとも1つを使用することによって、極めて高い精度率(たとえば、98%の精度率)が、純粋に教師なしの仕方で到達され得る。たとえば、相対的に少数のサンプル(たとえば、40個未満のイベントサンプル)を使用して、相対的に高い精度(たとえば、95%の精度)が実現され得る。
さらに、いくつかの実施形態では、シングルユーザイベントテンプレートが、他のユーザに適応され、適応されたユーザの場合のモデルの使用のために必要とされ得る追加のデータの量をさらに低減し得る。たとえば、ドメインが、ユーザのペアにわたってデータセットを整合させることによって、PLSを使用して適応され得る。たとえば、PLSは、ユーザにわたってイベントテンプレートを整合させるようにトレーニングされ得る。整合されたユーザテンプレートのアンサンブルは、高い精度(たとえば、96%の精度)につながり、極めて少ないイベントデータが収集されることを必要とし得る(たとえば、10個未満のイベント)。
ポーズは、経時的に静的である身体位置として定義され得、理論上、無期限に維持され得る。対照的に、いくつかの例では、ジェスチャーは、発生ごとに、開始時間および終了時間を有し得る、動的身体位置を含むものとして定義され得る。したがって、ジェスチャーは、特定のジェスチャータイプの個別のイベントとして定義され得る。ジェスチャータイプの代表例は、スナップ、指タップ、フィンガーカールまたはベンド、ポインティング、スワイピング、回転、把持、または他の指の動きを含む。いくつかの例では、ジェスチャーは、腕、手首、または手の少なくとも一部分の移動、あるいは他の筋肉アクティブ化を含み得る。いくつかの例では、ユーザの視覚的に知覚可能な移動は、必要とされないことがあり、ジェスチャーは、ユーザの身体の一部分の任意の視覚的に知覚可能な移動とは無関係に、筋肉アクティブ化パターンによって定義され得る。
一般的なイベント検出器は、ジェスチャーイベントが、たとえば、筋電図(EMG)データの連続ストリーム中で検出されたとき、出力信号を生成し得る。人工現実システムなど、コンピュータデバイスのための制御信号は、一般的なイベント検出器の出力信号に基づき得る。一般的なイベント検出器は、ユーザがジェスチャーを実施するたびに、出力信号をもたらし得る。いくつかの例では、出力信号は、実施されたジェスチャーのタイプとは無関係に、もたらされ得る。いくつかの例では、イベント分類器は、イベント検出器が、ジェスチャーなど、イベントを検出したとき、実行し得る。イベント分類器は、ユーザによって実施された、ジェスチャータイプなど、ジェスチャーに関係する情報を決定し得る。ジェスチャータイプは、以下、すなわち、実施された身体的アクション、身体的アクションを実施するために使用された(指または他の身体部位など)身体部位、ユーザの意図されたアクション、同じまたは約同じ時間実施された他の身体的アクションのうちの1つまたは複数を含み得る。制御信号は、1つまたは複数のセンサータイプからのセンサーデータの組合せにも基づき得る。対応する制御信号は、拡張現実(AR)システムに送られ得、制御信号は、ジェスチャータイプに少なくとも部分的に基づき得る。制御信号は、以下、すなわち、項目の選択、タスクの性能、ジェスチャータイプによって少なくとも部分的に決定され得る程度および/または方向だけのオブジェクトの移動、オブジェクト(たとえば、現実または仮想オブジェクト)のユーザインターフェースとの対話、または他のアクションのうちの1つまたは複数によって人工現実表示を変え得る。いくつかの実施形態では、ジェスチャーは、筋電図ウェーブレットなど、1つまたは複数の筋電図信号に基づいて、特定のジェスチャータイプとして分類され得る。
いくつかの例では、ジェスチャーなど、イベントを検出する方法は、第1のユーザのジェスチャーに対応する筋電図(EMG)信号を含むEMGデータの第1のセットを取得することと、EMG信号の取得された第1のセットから決定されたイベントデータをクラスタリングすることによって、第1の分類器をトレーニングすることと、第1の分類器を使用して、取得されたEMGデータの第2のセットをラベリングすることと、EMGデータのラベリングされた第2のセットを使用して、イベント検出器をトレーニングすることとを含み得る。
いくつかの例では、ジェスチャーなど、イベントを分類するための方法は、以下のステップ、すなわち、複数のシングルユーザイベント分類器を生成することと、複数のシングルユーザ分類器を使用して、マルチユーザイベント分類器を生成することと、生成されたマルチユーザ分類器を使用して、筋電図(EMG)データをラベリングすることと、複数のユーザに対応するデータ変換を生成することと、複数のユーザのうちの第1のユーザと相関させられたシングルユーザ分類器を生成することと、第2のユーザについてのデータ変換および第1のユーザのためのシングルユーザ分類器を使用して、複数のユーザのうちの第2のユーザについての受信されたEMGデータをラベリングすることと、ラベリングされたEMGデータを使用して、イベント検出器をトレーニングすることとのうちの1つまたは複数を含み得る。
いくつかの例では、ジェスチャー検出器など、イベント検出器をトレーニングするための方法が提供される。方法は、以下のステップ、すなわち、ジェスチャーに対応する筋電図(EMG)信号を含むEMGデータを取得することと、EMGデータから特徴データを生成することと、特徴データ中のイベントを検出することと、特徴データを使用してエポックを生成することであって、各エポックは、検出されたイベントのうちの1つの周囲でセンタリングされ得る、エポックを生成することと、エポックをタイプにクラスタリングすることであって、タイプのうちの少なくとも1つは、ジェスチャーに対応し得る、エポックをクラスタリングすることと、整合されたエポックを生成するために、タイプによってエポックを整合させることと、整合されたエポックを使用して、ラベリングモデルをトレーニングすることと、ラベリングされた特徴データを生成するために、ラベリングモデルを使用して、特徴データをラベリングすることと、ラベリングされた特徴データを使用して、イベント検出器をトレーニングすることとのうちの1つまたは複数を含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法は、以下のステップ、すなわち、複数のジェスチャーに対応する筋電図(EMG)信号を含むEMGデータを取得することと、EMGデータから特徴データを生成することと、イベント検出器を使用して、特徴データ中のイベントを検出することと、特徴データを使用して、エポックを生成することであって、各エポックは、検出されたイベントのうちの1つの周囲でセンタリングされる、エポックを生成することと、エポックを使用して、シングルユーザイベント分類モデルを生成することと、シングルユーザイベント分類モデルを使用して、EMGデータをラベリングすることと、ラベリングされたEMGデータを使用して、イベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。
いくつかの例では、エポックを使用してシングルユーザイベント分類モデルを生成する方法は、以下のステップ、すなわち、エポックを使用して、ベクトル化されたエポックを生成することと、ベクトル化されたエポックを使用して、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロン分類器のうちの1つまたは複数をトレーニングすることによって、シングルユーザイベント分類モデルを生成することとのうちの1つまたは複数を含み得る。いくつかの例では、エポックを使用してシングルユーザイベント分類モデルを生成することは、エポックを使用して、空間フィルタ処理された、低減された次元のエポックを生成することと、空間フィルタ処理された、低減された次元のエポックを使用して、ベクトル化されたエポックを生成することと、ベクトル化されたエポックを使用して、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロン分類器のうちの1つまたは複数をトレーニングすることによって、シングルユーザイベント分類モデルを生成することとを含む。いくつかの例では、エポックを使用してシングルユーザイベント分類モデルを生成することは、エポックを使用して、1つまたは複数のイベントモデルを生成することであって、各イベントモデルは、ジェスチャーに対応する、1つまたは複数のイベントモデルを生成することと、エポックの各々を1つまたは複数のイベントモデルと組み合わせることによって、組み合わせられたエポックを生成することと、組み合わせられたエポックを使用して、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロン分類器のうちの1つまたは複数をトレーニングすることによって、シングルユーザイベント分類モデルを生成することとを含む。
いくつかの例では、イベント分類器をトレーニングするための方法が提供される。方法は、以下のステップ、すなわち、複数のユーザについての複数のジェスチャーに対応する筋電図(EMG)信号を含むEMGデータを取得することと、EMGデータから、特徴データを生成することと、イベント検出器を使用して、特徴データ中のイベントを検出することと、特徴データを使用して、エポックを生成することであって、各エポックは、検出されたイベントのうちの1つの周囲でセンタリングされる、エポックを生成することと、エポックを使用して、クロスユーザイベント分類モデルを生成することと、クロスユーザイベント分類モデルを使用して、EMGデータをラベリングすることと、ラベリングされたEMGデータを使用して、イベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法が提供される。方法は、以下のステップ、すなわち、複数のシングルユーザイベント分類モデルを使用して、埋込みモデルを生成することと、埋込みモデルと、ユーザについての複数のジェスチャーに対応する筋電図(EMG)信号を含むEMGデータとを使用して、埋込みイベントを生成することと、複数のジェスチャーに対応するクラスタに、埋込みイベントをクラスタリングすることと、クラスタリングされた埋込みイベントに基づいて、ラベルをEMGデータに関連付けることと、EMGデータおよび関連付けられたラベルを使用して、ユーザのためのイベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法が提供される。方法は、以下のステップ、すなわち、複数のユーザの各々について、複数のイベントの各々のためのイベントテンプレートを生成することと、複数のユーザにわたる複数のイベントの各々のためのイベントテンプレートの間の整合変換を決定することと、第2のユーザのための決定された整合変換のうちの1つを使用して、第1のユーザについてのEMGデータを変換することと、変換EMGデータと、第2のユーザのシングルユーザイベント分類モデルとを使用して、ラベルをEMGデータに関連付けることと、EMGデータおよび関連付けられたラベルを使用して、ユーザのためのイベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。
いくつかの例では、ジェスチャー検出のためのシステムが提供される。システムは、少なくとも1つプロセッサと、少なくとも1つのプロセッサによって実行されたとき、ジェスチャー検出のためのシステムに、イベント検出器を使用して、イベントラベルを筋電図データの一部分に関連付けることと、イベントラベルを筋電図データの一部分に関連付けることに応答して、イベント分類器を使用して、ジェスチャーラベルを筋電図データの一部分に関連付けることと、イベントラベルまたはジェスチャーラベルのうちの少なくとも1つの指示を出力することとを含む動作を実施することを行わせる命令を含む少なくとも1つの非一時的メモリとを含み得る。
本明細書で説明される例は、例示的な態様が非互換でないならば、そのような態様の様々な好適な組合せを含み得る。
例示的なシステムおよび方法は、正確な教師なしの様式でジェスチャーを検出するためのユーザベースモデルを含み得る。特定のユーザについてのユーザデータの限られたセットに関してトレーニングされ得るイベント検出器モデルが提供され、ラベルおよびクラスタリング方法を使用して、イベント検出器の精度は、イベントデータインスタンスの数を限定しながら、増加され得る。
シングルユーザモデルを含む埋込み空間を作り上げることによって、イベントの明らかに分離可能なクラスタが取得され得る。クラスタリング技法は、各イベントのラベルを決定するように実装され得、次いで、ユーザ固有モデルは、ラベリングされたデータを使用してトレーニングされ得る。いくつかの例では、98%の精度が、純粋に教師なしの仕方で、このプロセスを適用することによって到達され得る。また、95%の精度が、限られた数(たとえば、40個)のイベントサンプルを使用して到達され得る。
PLSを用いたドメイン適応は、以下のうちの1つまたは複数を含み得る。ユーザのペアにわたるデータセットは、イベントテンプレートを整合させるようにPLSをトレーニングすることによって、整合され得る。整合されたシングルユーザのアンサンブルは、96%の精度につながり得る。整合は、(10個未満のイベントなど)極めて少量のデータが実施されることを必要とする。
一般的なイベント検出器は、ジェスチャーイベントが、筋電図(EMG)データの連続ストリーム中で検出されたとき、出力信号を発し得る。例示的な一般的なイベント検出器は、ユーザがジェスチャーを実施するたびに、出力信号をもたらし得、出力信号は、実施されたジェスチャーのタイプとは無関係にもたらされ得る。
イベント分類器は、イベント検出器がジェスチャーイベントを識別したとき、実行し得る。次いで、イベント分類器は、ユーザによって実施されたジェスチャータイプを決定し得る。
いくつかの例では、イベントを検出するための方法は、以下、すなわち、第1のユーザのジェスチャーに対応する筋電図(EMG)信号を含むEMGデータの第1のセットを取得することと、EMG信号の取得された第1のセットから決定されたイベントデータをクラスタリングすることによって、第1の分類器をトレーニングすることと、第1の分類器を使用して、取得されたEMGデータの第2のセットをラベリングすることと、EMGデータのラベリングされた第2のセットを使用して、イベント検出器をトレーニングすることとのうちの1つまたは複数を含み得る。例示的な手法は、一般的なイベント検出器を提供することを含み得る。
いくつかの例では、イベントを分類するための方法は、以下、すなわち、複数のシングルユーザイベント分類器を生成することと、複数のシングルユーザ分類器を使用して、マルチユーザイベント分類器を生成することと、生成されたマルチユーザ分類器を使用して、筋電図(EMG)データをラベリングすることと、複数のユーザに対応するデータ変換を生成することと、複数のユーザのうちの第1のユーザと相関させられたシングルユーザ分類器を生成することと、第2のユーザについてのデータ変換および第1のユーザのためのシングルユーザ分類器を使用して、複数のユーザのうちの第2のユーザについての受信されたEMGデータをラベリングすることと、ラベリングされたEMGデータを使用して、イベント検出器をトレーニングすることとのうちの1つまたは複数を含み得る。例示的な手法は、一般的なイベント分類器を提供することを含み得る。
いくつかの例では、イベント検出器をトレーニングするための方法は、以下、すなわち、ジェスチャーに対応する筋電図(EMG)信号を含むEMGデータを取得することと、EMGデータから特徴データを生成することと、特徴データ中のイベントを検出することと、特徴データを使用してエポックを生成することであって、各エポックは、検出されたイベントのうちの1つの周囲でセンタリングされる、エポックを生成することと、エポックをタイプにクラスタリングすることであって、タイプのうちの少なくとも1つは、ジェスチャーに対応する、エポックをクラスタリングすることと、整合されたエポックを生成するために、タイプによってエポックを整合させることと、整合されたエポックを使用して、ラベリングモデルをトレーニングすることと、ラベリングされた特徴データを生成するために、ラベリングモデルを使用して、特徴データをラベリングすることと、ラベリングされた特徴データを使用して、イベント検出器をトレーニングすることとのうちの1つまたは複数を含み得る。例示的な手法は、ラベリングされていないデータをラベリングするために、分類器を生成することと、次いで、ラベリングされたデータを使用して、イベント検出器を生成することとを含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法は、以下、すなわち、複数のジェスチャーに対応する筋電図(EMG)信号を含むEMGデータを取得することと、EMGデータから特徴データを生成することと、イベント検出器を使用して、特徴データ中のイベントを検出することと、特徴データを使用してエポックを生成することであって、各エポックは、検出されたイベントのうちの1つの周囲でセンタリングされる、エポックを生成することと、エポックを使用して、シングルユーザイベント分類モデルを生成することと、シングルユーザイベント分類モデルを使用して、EMGデータをラベリングすることと、ラベリングされたEMGデータを使用して、イベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。例示的な手法は、ラベリングされていないデータをラベリングするために、シングルユーザイベント分類モデルを生成することと、次いで、ラベリングされたデータを使用して、イベント分類器を生成することとを含み得る。
いくつかの例では、エポックを使用してシングルユーザイベント分類モデルを生成することは、以下、すなわち、エポックを使用して、ベクトル化されたエポックを生成することと、ベクトル化されたエポックを使用して、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロン分類器のうちの1つまたは複数をトレーニングすることによって、シングルユーザイベント分類モデルを生成することとのうちの1つまたは複数を含み得る。例示的な手法は、ベクトル化されたトライアルからシングルユーザイベント分類モデルを生成することを含み得る。
いくつかの例では、エポックを使用してシングルユーザイベント分類モデルを生成することは、以下、すなわち、エポックを使用して、空間フィルタ処理された、低減された次元のエポックを生成することと、空間フィルタ処理された、低減された次元のエポックを使用して、ベクトル化されたエポックを生成することと、ベクトル化されたエポックを使用して、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロン分類器のうちの1つまたは複数をトレーニングすることによって、シングルユーザイベント分類モデルを生成することとのうちの1つまたは複数を含み得る。この手法は、トライアルを空間フィルタ処理することによって生成された低減された次元データから、シングルユーザイベント分類モデルを生成するために使用され得る。
いくつかの例では、エポックを使用してシングルユーザイベント分類モデルを生成することは、以下、すなわち、エポックを使用して、1つまたは複数のイベントモデルを生成することであって、各イベントモデルは、ジェスチャーに対応する、1つまたは複数のイベントモデルを生成することと、エポックの各々を1つまたは複数のイベントモデルと組み合わせることによって、組み合わせられたエポックを生成することと、組み合わせられたエポックを使用して、ロジスティック回帰、ランダムフォレスト、または多層パーセプトロン分類器のうちの1つまたは複数をトレーニングすることによって、シングルユーザイベント分類モデルを生成することとのうちの1つまたは複数を含み得る。例示的な手法は、イベントテンプレートを生成することと、イベントテンプレートをトライアルと連結することとによって、シングルユーザイベント分類モデルを生成することを含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法は、以下、すなわち、複数のユーザについての複数のジェスチャーに対応する筋電図(EMG)信号を含むEMGデータを取得することと、EMGデータから特徴データを生成することと、イベント検出器を使用して、特徴データ中のイベントを検出することと、特徴データを使用してエポックを生成することであって、各エポックは、検出されたイベントのうちの1つの周囲でセンタリングされる、エポックを生成することと、エポックを使用して、クロスユーザイベント分類モデルを生成することと、クロスユーザイベント分類モデルを使用して、EMGデータをラベリングすることと、ラベリングされたEMGデータを使用して、イベント分類器をトレーニングすることとのうちの1つまたは複数を含む。例示的な手法は、ラベリングされていないデータをラベリングするために、クロスユーザイベント分類モデルを生成することと、次いで、ラベリングされたデータを使用して、イベント分類器を生成することとを含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法は、以下、すなわち、複数のシングルユーザイベント分類モデルを使用して、埋込みモデルを生成することと、埋込みモデルと、ユーザについての複数のジェスチャーに対応する筋電図(EMG)信号を含むEMGデータとを使用して、埋込みイベントを生成することと、複数のジェスチャーに対応するクラスタに、埋込みイベントをクラスタリングすることと、クラスタリングされた埋込みイベントに基づいて、ラベルをEMGデータに関連付けることと、EMGデータおよび関連付けられたラベルを使用して、ユーザのためのイベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。例示的な手法は、シングルユーザイベント分類モデルのアンサンブルからのラベリングされていないデータをラベリングするために、ユーザインディペンデントなイベント分類モデルを生成することと、次いで、ラベリングされたデータを使用して、イベント分類器を生成することとを含み得る。
いくつかの例では、イベント分類器をトレーニングするための方法は、以下、すなわち、複数のユーザの各々について、複数のイベントの各々のためのイベントテンプレートを生成することと、複数のユーザにわたる複数のイベントの各々のためのイベントテンプレートの間の整合変換を決定することと、第2のユーザのための決定された整合変換のうちの少なくとも1つを使用して、第1のユーザについてのEMGデータを変換することと、変換EMGデータと、第2のユーザのシングルユーザイベント分類モデルとを使用して、ラベルをEMGデータに関連付けることと、EMGデータおよび関連付けられたラベルを使用して、ユーザのためのイベント分類器をトレーニングすることとのうちの1つまたは複数を含み得る。例示的な手法は、単一のユーザ固有イベント分類モデルによるラベリングのためにデータを変換するために、ユーザの間の整合変換を使用することと、次いで、ラベリングされたデータを使用して、イベント分類器を生成することとを含み得る。
いくつかの例では、ジェスチャー検出のためのシステムは、ジェスチャーを識別するためにイベント検出器を使用し、ジェスチャーを分類するためにイベント分類器を使用するように構成され得、イベント検出器は、(本明細書で説明されるトレーニング方法など)トレーニング方法を使用して、トレーニングされ得る。いくつかの例では、ジェスチャー検出のためのシステムは、少なくとも1つのプロセッサと、少なくとも1つのプロセッサによって実行されたとき、ジェスチャー検出のためのシステムに、イベント検出器を使用して、イベントラベルを筋電図データの一部分に関連付けることと、イベントラベルを筋電図データの一部分に関連付けることに応答して、イベント分類器を使用して、ジェスチャーラベルを筋電図データの一部分に関連付けることと、イベントラベルまたはジェスチャーラベルのうちの少なくとも1つの指示を出力することとを含む動作を実施することを行わせる命令を含む少なくとも1つの非一時的メモリとを含み得る。
例示的コンピュータ実装方法は、任意の好適なコンピュータ実行可能コードおよび/またはコンピューティングシステムによって実施され得、方法の1つまたは複数のステップは、構造が、複数のサブステップを含み得、および/または複数のサブステップによって表され得る、アルゴリズムを表し得る。
いくつかの例では、システムは、少なくとも1つの物理プロセッサと、物理プロセッサによって実行されたとき、物理プロセッサに、本明細書で説明される1つまたは複数の方法または方法ステップを実施することを行わせるコンピュータ実行可能命令を含む物理メモリとを含む。いくつかの例では、コンピュータ実装方法は、ジェスチャーの検出および分類と、検出されたジェスチャータイプを使用した人工現実システムの制御とを含み得る。
いくつかの例では、非一時的コンピュータ可読媒体は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、コンピューティングデバイスに、本明細書で説明される1つまたは複数の方法ステップを実施することを行わせる1つまたは複数のコンピュータ実行可能命令を含む。いくつかの例では、コンピュータ実装方法は、ジェスチャーの検出および分類と、検出されたジェスチャータイプを使用した人工現実システムの制御とを含み得る。
例は、複数の筋電図(EMG)センサーおよび/または他のセンサーを含む制御デバイスと、センサーデータを受信することと、センサーデータ内のユーザジェスチャーに対応するセンサー信号を検出することと、ジェスチャータイプを識別するために、センサー信号を分類することと、ジェスチャータイプに基づいて、制御信号を提供することとを行うようにプログラムされた少なくとも1つの物理プロセッサとを含む。制御信号は、人工現実ビューを変えるように、ヘッドマウントデバイスをトリガし得る。
例示的な実施形態
例1。例示的なシステムは、ユーザに人工現実ビューを提示するように構成されたヘッドマウントデバイスと、制御デバイスであって、制御デバイスがユーザによって着用されたとき、ユーザの皮膚に接触する電極を含む複数の筋電図(EMG)センサーを含む制御デバイスと、少なくとも1つの物理プロセッサと、物理メモリであって、物理プロセッサによって実行されたとき、物理プロセッサに、EMGセンサーによって検出された1つまたは複数のEMG信号を処理することと、処理された1つまたは複数のEMG信号を、1つまたは複数のジェスチャータイプに分類することと、ジェスチャータイプに基づいて、制御信号を提供することであって、制御信号は、人工現実ビューの少なくとも1つの様相を変えるように、ヘッドマウントデバイスをトリガする、制御信号を提供することとを行わせるコンピュータ実行可能命令を含む物理メモリとを含む。
例2。少なくとも1つの物理プロセッサは、制御デバイス内に位置する、例1に記載のシステム。
例3。少なくとも1つの物理プロセッサは、ヘッドマウントデバイス内に、または制御デバイスと通信している外部コンピュータデバイス内に位置する、例1または2に記載のシステム。
例4。コンピュータ実行可能命令は、物理プロセッサによって実行されたとき、物理プロセッサに、分類器モデルを使用して、処理されたEMG信号を1つまたは複数のジェスチャータイプに分類することを行わせる、例1から3のいずれか一つに記載のシステム。
例5。分類器モデルは、ジェスチャータイプのための複数のEMGトレーニング信号を含むトレーニングデータを使用してトレーニングされる、例1から4のいずれか一つに記載のシステム。
例6。トレーニングデータは、複数のユーザから取得される、例1から5のいずれか一つに記載のシステム。
例7。ヘッドマウントデバイスは、仮想現実ヘッドセットまたは拡張現実デバイスを含む、例1から6のいずれか一つに記載のシステム。
例8。例示的な方法は、ユーザから1つまたは複数の筋電図(EMG)信号を取得することと、関連する特徴データを生成するために、1つまたは複数のEMG信号を処理することと、分類器モデルを使用して、関連する特徴データを1つまたは複数のジェスチャータイプに分類することと、1つまたは複数のジェスチャータイプに基づいて、人工現実(AR)デバイスに制御信号を提供することとを含み、分類器モデルは、1つまたは複数のジェスチャータイプのための複数のEMGトレーニング信号を含むトレーニングデータを使用してトレーニングされる。
例9。分類器モデルは、EMGトレーニング信号から決定された特徴データをクラスタリングすることによってトレーニングされる、例8に記載の方法。
例10。分類器モデルは、複数のユーザから取得されたEMGトレーニング信号を使用してトレーニングされる、例8または9に記載の方法。
例11。複数のユーザは、ユーザを含まない、例8から10のいずれか一つに記載の方法。
例12。ジェスチャータイプに対応するEMGトレーニング信号を取得することと、EMGトレーニング信号から取得されたEMGトレーニングデータをクラスタリングすることによって、分類器モデルをトレーニングすることとによって分類器モデルをトレーニングすることをさらに含む、例8から11のいずれか一つに記載の方法。
例13。分類器モデルは、それぞれのEMGトレーニング信号最大値の時間に対するEMGトレーニング信号の時間依存度を決定することと、複数のEMGトレーニング信号のうちの少なくとも1つのEMGトレーニング信号に時間オフセットを追加することによって、複数のEMGトレーニング信号の時間依存度を整合させることと、整合された複数のEMGトレーニング信号から、信号特性を取得することと、信号特性を有するEMG信号を検出するように、分類器モデルをトレーニングすることとによってさらにトレーニングされる、例8から12のいずれか一つに記載の方法。
例14。分類器モデルは、ジェスチャータイプに対応するEMGトレーニング信号を含むトレーニングデータを取得することと、ジェスチャータイプのためのジェスチャーモデルを取得するために、ジェスチャータイプの各発生に対応するEMGトレーニング信号を平均化することであって、分類器モデルは、EMG信号を分類するために、ジェスチャーモデルを使用する、EMGトレーニング信号を平均化することとによってさらにトレーニングされる、例8から13のいずれか一つに記載の方法。
例15。ジェスチャーモデルは、ジェスチャータイプのためのユーザ固有ジェスチャーモデルである、例8から14のいずれか一つに記載の方法。
例16。ジェスチャーモデルは、複数のユーザから取得されたEMGトレーニングデータに基づくマルチユーザジェスチャーモデルであり、マルチユーザジェスチャーモデルは、複数のユーザ固有ジェスチャーモデルの組合せである、例8から14のいずれか一つに記載の方法。
例17。人工現実デバイスは、ユーザに人工現実画像を提示するように構成されたヘッドマウントデバイスを含み、方法は、制御信号に基づいて、人工現実画像を変えることをさらに含む、例8から16のいずれか一つに記載の方法。
例18。人工現実画像を変えることは、ジェスチャータイプに基づく、人工現実画像中のオブジェクトの選択または制御を含む、例8から17のいずれか一つに記載の方法。
例19。非一時的コンピュータ可読媒体は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、コンピューティングデバイスに、筋電図(EMG)センサーによって検出された1つまたは複数のEMG信号を受信することと、ユーザジェスチャータイプに対応する1つまたは複数の特徴を識別するために、1つまたは複数のEMG信号を処理することと、1つまたは複数のEMG信号をジェスチャータイプに分類するために、1つまたは複数の特徴を使用することと、ジェスチャータイプに基づいて、制御信号を提供することと、制御信号に応答して、人工現実ビューの変更をトリガするために、ヘッドマウントデバイスに制御信号を送信することとを行わせる1つまたは複数のコンピュータ実行可能命令を含む。
例20。コンピュータデバイスは、複数のユーザから取得されたトレーニングデータから決定されたジェスチャーモデルに基づいて、ジェスチャータイプを識別するために、EMG信号を分類するように構成された、例19に記載の非一時的コンピュータ可読媒体。
本開示の実施形態は、様々なタイプの人工現実システムを含むか、または様々なタイプの人工現実システムとともに実装され得る。人工現実は、ユーザへの提示の前に何らかの様式で調整された現実の形態であり、たとえば、仮想現実、拡張現実、複合現実、ハイブリッド現実、あるいはそれらの何らかの組合せおよび/または派生物を含み得る。人工現実コンテンツは、すべてコンピュータ生成されたコンテンツ、またはキャプチャされた(たとえば、現実世界の)コンテンツと組み合わせられたコンピュータ生成されたコンテンツを含み得る。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組合せを含み得、これらのうちのいずれかが、単一チャネルで、または(閲覧者に対して3次元(3D)効果をもたらすステレオビデオなど)複数チャネルで提示され得る。追加として、いくつかの実施形態では、人工現実はまた、たとえば、人工現実中のコンテンツを作り出すために使用され、および/または場合によっては、人工現実中で(たとえば、アクティビティを実施するために)使用される、アプリケーション、製品、アクセサリ、サービス、またはそれらの何らかの組合せに関連し得る。
人工現実システムが、様々な異なるフォームファクタおよび構成において実装され得る。いくつかの人工現実システムは、ニアアイディスプレイ(NED)なしに動くように設計され得る。他の人工現実システムは、実世界中への可視性をも提供する(たとえば、図31中の拡張現実システム3100)、または人工現実中にユーザを視覚的に没入させる(たとえば、図32中の仮想現実システム3200)、NEDを含み得る。いくつかの人工現実デバイスは、自己完結型システムであり得るが、他の人工現実デバイスは、ユーザに人工現実体感を提供するために、外部デバイスと通信および/または協調し得る。そのような外部デバイスの例は、ハンドヘルドコントローラ、モバイルデバイス、デスクトップコンピュータ、ユーザによって着用されるデバイス、1人または複数の他のユーザによって着用されるデバイス、および/あるいは任意の他の好適な外部システムを含む。
図31に目を向けると、拡張現実システム3100は、ユーザの眼の前に左ディスプレイデバイス3115(A)および右ディスプレイデバイス3115(B)を保持するように構成されたフレーム3110をもつアイウェアデバイス3102を含み得る。ディスプレイデバイス3115(A)および3115(B)は、ユーザに画像または一連の画像を提示するために、ともにまたは独立して作用し得る。拡張現実システム3100は、2つのディスプレイを含むが、本開示の実施形態は、単一のNEDまたは3個以上のNEDをもつ拡張現実システム中で実装され得る。
いくつかの実施形態では、拡張現実システム3100は、センサー3140など、1つまたは複数のセンサーを含み得る。センサー3140は、拡張現実システム3100の動きに応答して測定値信号を生成し得、フレーム3110の実質的に任意の部分上に位置決めされ得る。センサー3140は、位置センサー、慣性測定ユニット(IMU)、深度カメラアセンブリ、構造化発光体および/または検出器、あるいはそれらの任意の組合せを表し得る。いくつかの実施形態では、拡張現実システム3100は、センサー3140を含むことも含まないこともあるか、または2個以上のセンサーを含み得る。センサー3140がIMUを含む実施形態では、IMUは、センサー3140からの測定値信号に基づいて、較正データを生成し得る。センサー3140の例は、限定はしないが、加速度計、ジャイロスコープ、磁力計、動きを検出する他の好適なタイプのセンサー、IMUの誤り訂正のために使用されるセンサー、またはそれらの何らかの組合せを含み得る。
拡張現実システム3100は、音響トランスデューサ3120とまとめて呼ばれる、複数の音響トランスデューサ3120(A)~1320(J)をもつマイクロフォンアレイをも含み得る。音響トランスデューサ3120は、音波によって誘起された空気圧変動を検出するトランスデューサであり得る。各音響トランスデューサ3120は、音を検出し、検出された音を電子フォーマット(たとえば、アナログまたはデジタルフォーマット)に変換するように構成され得る。図2中のマイクロフォンアレイは、たとえば、10個の音響トランスデューサ、すなわち、ユーザの対応する耳の内側に置かれるように設計され得る音響トランスデューサ3120(A)および3120(B)、フレーム3110上の様々なロケーションに配置され得る音響トランスデューサ3120(C)、3120(D)、3120(E)、3120(F)、3120(G)、および3120(H)、ならびに/または対応するネックバンド3105上に配置され得る音響トランスデューサ3120(I)および3120(J)を含み得る。
いくつかの実施形態では、音響トランスデューサ3120(A)~(F)のうちの1つまたは複数は、出力トランスデューサ(たとえば、スピーカー)として使用され得る。たとえば、音響トランスデューサ3120(A)および/または3120(B)は、イヤバッドあるいは任意の他の好適なタイプのヘッドフォンまたはスピーカーであり得る。
マイクロフォンアレイの音響トランスデューサ3120の構成は、変動し得る。拡張現実システム3100は、10個の音響トランスデューサ3120を有するものとして図31中に示されているが、音響トランスデューサ3120の数は、10よりも大きいまたは小さいことがある。いくつかの実施形態では、より多数の音響トランスデューサ3120を使用することは、収集されるオーディオ情報の量ならびに/またはオーディオ情報の感度および精度を増加させ得る。対照的に、より少数の音響トランスデューサ3120を使用することは、収集されたオーディオ情報を処理するために、関連するコントローラ3150によって必要とされる計算力を減少させ得る。加えて、マイクロフォンアレイの各音響トランスデューサ3120の位置は、変動し得る。たとえば、音響トランスデューサ3120の位置は、ユーザ上の定義された位置、フレーム3110上の定義された座標、各音響トランスデューサ3120に関連する向き、またはそれらの何らかの組合せを含み得る。
音響トランスデューサ3120(A)および3120(B)は、耳介の後ろに、耳珠の後ろに、および/あるいは外耳または耳窩内になど、ユーザの耳の異なる部位上に配置され得る。または、耳道の内側の音響トランスデューサ3120に加えて、耳上のまたは耳を囲む追加の音響トランスデューサ3120があり得る。ユーザの耳道の隣に配置される音響トランスデューサ3120を有することは、音が耳道にどのように到着するかに関する情報をマイクロフォンアレイが収集することができるようにし得る。(たとえば、バイノーラルマイクロフォンとして)ユーザの頭の両側に音響トランスデューサ3120のうちの少なくとも2つを配置することによって、拡張現実デバイス3100は、バイノーラル聴覚をシミュレートし、ユーザの頭の周りの周囲の3Dステレオ音場をキャプチャし得る。いくつかの実施形態では、音響トランスデューサ3120(A)および3120(B)は、ワイヤード接続3130を使用して拡張現実システム3100に接続され得、他の実施形態では、音響トランスデューサ3120(A)および3120(B)は、ワイヤレス接続(たとば、Bluetooth接続)を使用して拡張現実システム3100に接続され得る。さらに他の実施形態では、音響トランスデューサ3120(A)および3120(B)は、拡張現実システム3100とともにはまったく使用されないことがある。
フレーム3110上の音響トランスデューサ3120は、テンプルの長さに沿って、ブリッジにわたって、ディスプレイデバイス3115(A)および3115(B)の上または下に、あるいはそれらの何らかの組合せに配置され得る。音響トランスデューサ3120は、マイクロフォンアレイが、拡張現実システム3100を着用するユーザを囲む広範囲の方向において音を検出することが可能であるように向けられ得る。いくつかの実施形態では、最適化プロセスが、マイクロフォンアレイ中の各音響トランスデューサ3120の相対的配置を決定するために、拡張現実システム3100の製造中に実施され得る。
いくつかの例では、拡張現実システム3100は、ネックバンド3105など、外部デバイス(たとえば、ペアにされたデバイス)を含むかまたは外部デバイスに接続され得る。ネックバンド3105は、概して、任意のタイプまたは形態のペアにされたデバイスを表す。これにより、ネックバンド3105の以下の考察は、充電ケース、スマートウォッチ、スマートフォン、リストバンド、他のウェアラブルデバイス、ハンドヘルドコントローラ、タブレットコンピュータ、ラップトップコンピュータ、他の外部計算デバイスなど、様々な他のペアにされたデバイスにも適用され得る。
図示のように、ネックバンド3105は、1つまたは複数のコネクタを使用してアイウェアデバイス3102に結合され得る。コネクタは、ワイヤードまたはワイヤレスであり得、電気的および/または非電気的(たとえば、構造的)構成要素を含み得る。いくつかの場合には、アイウェアデバイス3102およびネックバンド3105は、アイウェアデバイス3102とネックバンド3105との間のワイヤードまたはワイヤレス接続なしに独立して動作し得る。図31は、アイウェアデバイス3102およびネックバンド3105上の例示的なロケーションにおけるアイウェアデバイス3102およびネックバンド3105の構成要素を図示しているが、構成要素は、他の場所に位置決めされ、ならびに/あるいはアイウェアデバイス3102および/またはネックバンド3105上で別様に分散され得る。いくつかの実施形態では、アイウェアデバイス3102およびネックバンド3105の構成要素は、アイウェアデバイス3102、ネックバンド3105、またはそれらの何らかの組合せとペアにされた1つまたは複数の追加の周辺デバイス上に位置決めされ得る。
拡張現実アイウェアデバイスとの、ネックバンド3105など、ペアリング外部デバイスは、アイウェアデバイスが、十分なバッテリーと拡張された能力のための計算力とを依然として提供しながら、一対の眼鏡のフォームファクタを実現することができるようにし得る。拡張現実システム3100のバッテリー電力、計算リソース、および/または追加の特徴の一部または全部は、ペアにされたデバイスによって提供されるか、またはペアにされたデバイスとアイウェアデバイスとの間で共有され、これにより、所望の機能性を依然として保ちながら、全体的に、アイウェアデバイスの重み、熱プロファイル、およびフォームファクタを低減し得る。たとえば、ユーザは、彼らが自分の頭上で許容するであろうよりも重い重み負荷を自分の肩上で許容し得るので、ネックバンド3105は、アイウェアデバイス上に場合によっては含まれるであろう構成要素が、ネックバンド3105中に含まれることを可能にし得る。ネックバンド3105はまた、周辺の環境に熱を拡散および消散させるためのより大きい表面積を有し得る。これにより、ネックバンド3105は、スタンドアロンアイウェアデバイス上で場合によっては可能であったかもしれないよりも大きいバッテリーおよび計算キャパシティを可能にし得る。ネックバンド3105中で運ばれる重みは、アイウェアデバイス3102中で運ばれる重みよりもユーザに対して侵襲的でないことがあるので、ユーザは、ユーザが、重いスタンドアロンアイウェアデバイスを着用することを許容するであろうよりも、軽いアイウェアデバイスを着用すること、および長い時間の長さの間、ペアにされたデバイスを携帯または着用することを許容し、それにより、ユーザが、人工現実環境を彼らの日々のアクティビティ中により十分に組み込むことができるようにし得る。
ネックバンド3105は、アイウェアデバイス3102と、および/または他のデバイスに通信可能に結合され得る。これらの他のデバイスは、拡張現実システム3100に、いくらかの機能(たとえば、トラッキング、位置特定、深度マッピング、処理、ストレージなど)を提供し得る。図31の実施形態では、ネックバンド3105は、マイクロフォンアレイの一部である2つの音響トランスデューサ(たとえば、3120(I)および3120(J))を含む(または音響トランスデューサ自体のマイクロフォンサブアレイを潜在的に形成する)ことがある。ネックバンド3105は、コントローラ3125および電源3135をも含み得る。
ネックバンド3105の音響トランスデューサ3120(I)および3120(J)は、音を検出し、検出された音を電子フォーマット(アナログまたはデジタル)に変換するように構成され得る。図31の実施形態では、音響トランスデューサ3120(I)および3120(J)は、ネックバンド3105上に配置され、それにより、ネックバンド音響トランスデューサ3120(I)および3120(J)と、アイウェアデバイス3102上に配置された他の音響トランスデューサ3120との間の距離を増加させ得る。いくつかの場合には、マイクロフォンアレイの音響トランスデューサ3120の間の距離を増加させることは、マイクロフォンアレイを使用して実施されるビームフォーミングの精度を改善し得る。たとえば、音が、音響トランスデューサ3120(C)および3120(D)によって検出され、音響トランスデューサ3120(C)および3120(D)の間の距離が、たとえば、音響トランスデューサ3120(D)および3120(E)の間の距離よりも長い場合、検出された音の決定されたソースロケーションは、音が音響トランスデューサ3120(D)および3120(E)によって検出された場合よりも正確であることがある。
ネックバンド3105のコントローラ3125は、ネックバンド3105上のセンサーおよび/または拡張現実システム3100によって生成された情報を処理し得る。たとえば、コントローラ3125は、マイクロフォンアレイによって検出された音について説明する、マイクロフォンアレイからの情報を処理し得る。各検出された音について、コントローラ3125は、検出された音がマイクロフォンアレイにそちらから到着した方向を推定するために、到着方向(DOA)推定を実施し得る。マイクロフォンアレイが音を検出すると、コントローラ3125は、情報を用いてオーディオデータセットをポピュレートし得る。拡張現実システム3100が慣性測定ユニットを含む実施形態では、コントローラ3125は、アイウェアデバイス3102上に位置決めされたIMUからすべての慣性および空間算出を計算し得る。コネクタは、拡張現実システム3100とネックバンド3105との間で、および拡張現実システム3100とコントローラ3125との間で情報を搬送し得る。情報は、光データ、電気データ、ワイヤレスデータの形態、または任意の他の送信可能なデータ形態にあり得る。拡張現実システム3100によって生成された情報の処理をネックバンド3105に移動することは、アイウェアデバイス3102中の重みおよび熱を低減し、アイウェアデバイス3102をユーザにとってより快適にし得る。
ネックバンド3105中の電源3135は、アイウェアデバイス3102におよび/またはネックバンド3105に電力を供給し得る。電源3135は、限定はしないが、リチウムイオンバッテリー、リチウムポリマーバッテリー、1次リチウムバッテリー、アルカリバッテリー、または任意の他の形態の電力蓄積を含み得る。いくつかの場合には、電源3135は、ワイヤード電源であり得る。アイウェアデバイス3102上の代わりにネックバンド3105上に電源3135を含むことは、電源3135によって生成された重みおよび熱をより良く分散させるのを助け得る。
述べられたように、いくつかの人工現実システムは、人工現実を実現実と混ぜ合わせる代わりに、実質的に、実世界のユーザの知覚認知のうちの1つまたは複数を仮想体感と置き換え得る。このタイプのシステムの一例は、ユーザの視野をほぼまたは完全にカバーする、図32中の仮想現実システム3200など、頭部着用型ディスプレイシステムである。仮想現実システム3200は、前面剛体3202と、ユーザの頭の周囲にフィットするように整形されたバンド3204とを含み得る。仮想現実システム3200は、出力オーディオトランスデューサ3206(A)および3206(B)をも含み得る。その上、図32中には示されていないが、前面剛体3202は、1つまたは複数の電子ディスプレイ、1つまたは複数の慣性測定ユニット(IMU)、1つまたは複数のトラッキングエミッタまたは検出器、および/あるいは人工現実体感を作り出すための任意の他の好適なデバイスまたはシステムを含む、1つまたは複数の電子要素を含み得る。
人工現実システムは、様々なタイプの視覚フィードバックメカニズムを含み得る。たとえば、拡張現実システム3100および/または仮想現実システム3200中のディスプレイデバイスは、1つまたは複数の液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機LED(OLED)ディスプレイ、デジタル光プロジェクト(DLP)マイクロディスプレイ、液晶オンシリコン(LCoS)マイクロディスプレイ、および/あるいは任意の他の好適なタイプのディスプレイスクリーンを含み得る。人工現実システムは、両方の眼について単一のディスプレイスクリーンを含み得るか、またはそれぞれの眼についてディスプレイスクリーンを提供し得、これは、可変焦点調整のためのまたはユーザの屈折誤差を補正するための追加の柔軟性を可能にし得る。いくつかの人工現実システムは、1つまたは複数のレンズ(たとえば、従来の凹または凸レンズ、フレネルレンズ、調整可能な液体レンズなど)を有する光学サブシステムをも含み得、ユーザは、光学サブシステムを通してディスプレイスクリーンを眺め得る。これらの光学サブシステムは、コリメートする(たとえば、オブジェクトが、オブジェクトの物理的距離よりも長い距離にあるように見えるようにする)こと、拡大する(たとえば、オブジェクトが、オブジェクトの実際のサイズよりも大きいように見えるようにする)こと、および/または(たとえば、閲覧者の眼に)光を中継することを含む、様々な目的を果たし得る。これらの光学サブシステムは、(光を直接コリメートするが、いわゆる糸巻き形ひずみを生じ得る単レンズ構成など)非瞳孔形成アーキテクチャ、および/または(糸巻き形ひずみを無効にするために、たる形ひずみを生成し得るマルチレンズ構成など)瞳孔形成アーキテクチャにおいて使用され得る。
ディスプレイスクリーンを使用することに加えてまたはディスプレイスクリーンを使用する代わりに、いくつかの人工現実システムは、1つまたは複数の投影システムを含み得る。たとえば、拡張現実システム3100および/または仮想現実システム3200中のディスプレイデバイスは、周辺の光が通過することを可能にするクリアなコンバイナレンズなど、ディスプレイデバイス中に(たとえば、導波路を使用して)光を投影する、マイクロLEDプロジェクタを含み得る。ディスプレイデバイスは、ユーザの瞳孔に向かって、投影された光を屈折させ得、ユーザが、人工現実コンテンツと実世界の両方を同時に眺めることができるようにし得る。ディスプレイデバイスは、導波路構成要素(たとえば、ホログラフィック、平面、回折、偏光、および/または反射導波路素子)、(回折、反射、および屈折素子および格子など)光操作表面および素子、結合素子などを含む、様々な異なる光学的構成要素のうちのいずれかを使用してこれを達成し得る。人工現実システムはまた、仮想網膜ディスプレイ中で使用される網膜プロジェクタなど、任意の他の好適なタイプまたは形態の画像投影システムを用いて構成され得る。
人工現実システムは、様々なタイプのコンピュータビジョン構成要素およびサブシステムをも含み得る。たとえば、拡張現実システム3100および/または仮想現実システム3200は、2次元(2D)または3Dカメラ、構造化光送信器および検出器、飛行時間型深度センサー、単一ビームまたは掃引レーザー測距器、3Dライダーセンサー、ならびに/あるいは任意の他の好適なタイプまたは形態の光センサーなど、1つまたは複数の光センサーを含み得る。人工現実システムは、ユーザのロケーションを識別するために、実世界をマッピングするために、ユーザに現実世界の周囲状況に関するコンテキストを提供するために、および/または様々な他の機能を実施するために、これらのセンサーのうちの1つまたは複数からのデータを処理し得る。
人工現実システムは、1つまたは複数の入力および/または出力オーディオトランスデューサをも含み得る。たとえば、要素3206(A)および3206(B)は、ボイスコイルスピーカー、リボンスピーカー、静電スピーカー、圧電スピーカー、骨伝導トランスデューサ、軟骨伝導トランスデューサ、耳珠振動トランスデューサ、および/あるいは任意の他の好適なタイプまたは形態のオーディオトランスデューサを含み得る。類似的に、入力オーディオトランスデューサは、コンデンサマイクロフォン、ダイナミックマイクロフォン、リボンマイクロフォン、および/あるいは任意の他のタイプまたは形態の入力トランスデューサを含み得る。いくつかの実施形態では、単一のトランスデューサが、オーディオ入力とオーディオ出力の両方のために使用され得る。
いくつかの例では、人工現実システムは、ヘッドウェア、グローブ、ボディスーツ、ハンドヘルドコントローラ、環境デバイス(たとえば、椅子、フロアマットなど)、および/あるいは任意の他のタイプのデバイスまたはシステム中に組み込まれ得る、タクティル(すなわち、触覚)フィードバックシステムを含み得る。触覚フィードバックシステムは、振動、力、牽引、テクスチャ、および/または温度を含む、様々なタイプの皮膚性フィードバックを提供し得る。触覚フィードバックシステムはまた、動きおよびコンプライアンスなど、様々なタイプの運動感覚フィードバックを提供し得る。触覚フィードバックは、モーター、圧電アクチュエータ、流体システム、および/または様々な他のタイプのフィードバックメカニズムを使用して実装され得る。触覚フィードバックシステムは、他の人工現実デバイスから独立して、他の人工現実デバイス内に、および/または他の人工現実デバイスとともに実装され得る。
触覚感覚、可聴コンテンツ、および/または視覚コンテンツを提供することによって、人工現実システムは、仮想体感全体を作り出すかまたは様々なコンテキストおよび環境中のユーザの現実世界体感を向上させ得る。たとえば、人工現実システムは、特定の環境内のユーザの認知、記憶、または認識を支援または拡大し得る。いくつかのシステムは、実世界中の他の人々とのユーザの対話を向上させ得るか、または仮想世界中の他の人々とのより没入できる対話ができるようにし得る。人工現実システムはまた、教育目的のために(たとえば、学校、病院、政府団体、軍事団体、ビジネス企業などにおける教示またはトレーニングのために)、エンターテインメント目的(たとえば、ビデオゲームをプレイする、音楽を聞く、ビデオコンテンツを見るなどのために)、および/あるいはアクセシビリティ目的のために(たとえば、補聴器、視覚補助などとして)使用され得る。本明細書で開示される実施形態は、これらのコンテキストおよび環境のうちの1つまたは複数における、ならびに/あるいは他のコンテキストおよび環境におけるユーザの人工現実体感ができるようにするかまたは向上させ得る。
上記で詳述されたように、本明細書で説明および/または図示されたコンピューティングデバイスおよびシステムは、本明細書で説明されたモジュール内に含まれているものなど、コンピュータ可読命令を実行することが可能な任意のタイプまたは形態のコンピューティングデバイスまたはシステムを広く表す。コンピューティングデバイスおよびシステムの最も基本的な構成では、これらのコンピューティングデバイスは、各々、少なくとも1つのメモリデバイスと少なくとも1つの物理プロセッサとを含み得る。
いくつかの例では、「メモリデバイス」という用語は、概して、データおよび/またはコンピュータ可読命令を記憶することが可能な任意のタイプまたは形態の揮発性または不揮発性ストレージデバイスまたは媒体を指す。一例では、メモリデバイスは、本明細書で説明されたモジュールのうちの1つまたは複数を記憶、ロード、および/または維持し得る。メモリデバイスの例は、限定はしないが、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、光ディスクドライブ、キャッシュ、これらのうちの1つまたは複数の変形形態または組合せ、あるいは任意の他の好適な記憶メモリを含む。
いくつかの例では、「物理プロセッサ」という用語は、概して、コンピュータ可読命令を解釈および/または実行することが可能な任意のタイプまたは形態のハードウェア実装型処理ユニットを指す。一例では、物理プロセッサは、上記で説明されたメモリデバイスに記憶された1つまたは複数のモジュールにアクセスし、および/または変え得る。物理プロセッサの例は、限定はしないが、マイクロプロセッサ、マイクロコントローラ、中央処理ユニット(CPU)、ソフトコアプロセッサを実装するフィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、これらのうちの1つまたは複数の部分、これらのうちの1つまたは複数の変形形態または組合せ、あるいは任意の他の好適な物理プロセッサを含む。
別個の要素として図示されているが、本明細書で説明および/または図示されたモジュールは、単一のモジュールまたはアプリケーションの部分を表し得る。加えて、いくらかの実施形態では、これらのモジュールのうちの1つまたは複数は、コンピューティングデバイスによって実行されたとき、コンピューティングデバイスに、1つまたは複数のタスクを実施することを行わせ得る1つまたは複数のソフトウェアアプリケーションまたはプログラムを表し得る。たとえば、本明細書で説明および/または図示されたモジュールのうちの1つまたは複数は、本明細書で説明および/または図示されたコンピューティングデバイスまたはシステムのうちの1つまたは複数に記憶され、走るように構成されたモジュールを表し得る。これらのモジュールのうちの1つまたは複数はまた、1つまたは複数のタスクを実施するように構成された1つまたは複数の専用コンピュータのすべてまたは部分を表し得る。
加えて、本明細書で説明されたモジュールのうちの1つまたは複数は、データ、物理デバイス、および/または物理デバイスの表現を、1つの形態から別の形態に変換し得る。たとえば、本明細書で具陳されたモジュールのうちの1つまたは複数は、(EMGデータなど、ユーザからの検出信号に基づくデータなど)変換されるべきデータを受信し、データを変換し、機能(たとえば、制御データを出力すること、ARシステムを制御すること、または他の機能)を実施するために変換の結果を出力するか、またはさもなければ機能を実施するために変換の結果を使用し、機能を実施するために変換の結果を記憶し得る。追加または代替として、本明細書で具陳されたモジュールのうちの1つまたは複数は、コンピューティングデバイス上で実行すること、コンピューティングデバイスにデータを記憶すること、および/またはさもなければコンピューティングデバイスと対話することよって、プロセッサ、揮発性メモリ、不揮発性メモリ、および/または物理コンピューティングデバイスの任意の他の部分を、1つの形態から別の形態に変換し得る。
いくつかの実施形態では、「コンピュータ可読媒体」という用語は、概して、コンピュータ可読命令を記憶または担持することが可能な任意の形態のデバイス、キャリア、または媒体を指す。コンピュータ可読媒体の例は、限定はしないが、搬送波など、伝送型媒体、ならびに磁気記憶媒体(たとえば、ハードディスクドライブ、テープドライブ、およびフロッピーディスク)、光記憶媒体(たとえば、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、およびBLU-RAYディスク)、電子記憶媒体(たとえば、ソリッドステートドライブおよびフラッシュメディア)、ならびに他の配信システムなど、非一時型媒体を含む。
本明細書で説明および/または図示されたステップのプロセスパラメータおよびシーケンスは、単に例として与えられており、必要に応じて変動させられ得る。たとえば、本明細書で図示および/または説明されたステップは、特定の順序で示されるかまたは考察され得るが、これらのステップは、図示または考察された順序で実施される必要が必ずしもあるとは限らない。本明細書で説明および/または図示された様々な例示的な方法はまた、本明細書で説明または図示されたステップのうちの1つまたは複数を省略するか、または開示されたものに加えて追加のステップを含み得る。
「第1の」、「第2の」、「第3の」など、順序用語の使用は、それ自体によって、1つのクレーム要素の、別のものに対する何らかの優先度、優先順位、または順序、あるいは方法の行為が実施される時間順序を暗示しない。そのような用語は、1つの要素を、場合によっては類似の名前を有する別の要素から区別するためのラベルとして使用されるにすぎないことがある。
上記の説明は、他の当業者が、本明細書で開示された様々な態様の例示的実施形態を最も良く利用することができるようにするために提供された。この例示的説明は、網羅的なものではないか、または開示されたいずれかの厳密な形態に限定されるものではない。多くの変更形態および変形形態が、本開示の趣旨および範囲から逸脱することなく可能である。本明細書で開示された実施形態は、あらゆる点で限定的ではなく例示的であると見なされるべきである。本開示の範囲を決定する際に、添付の特許請求の範囲およびそれらの等価物への参照が行われるべきである。
別段に記載されていない限り、明細書および特許請求の範囲で使用される、「に接続された(connected to)」および「に結合された(coupled to)」という用語(ならびにそれらの派生語)は、直接的接続と間接的(すなわち、他の要素または構成要素を使用した)接続の両方を容認すると解釈されるべきである。加えて、明細書および特許請求の範囲で使用される、「1つの(a)」または「1つの(an)」という用語は、「のうちの少なくとも1つ(at least one of)」を意味すると解釈されるべきである。最後に、使用が容易なように、明細書および特許請求の範囲で使用される、「含む(including)」および「有する(having)」という用語(ならびにそれらの派生語)は、「備える(comprising)」という単語と交換可能であり、「備える」という単語と同じ意味を有する。

Claims (20)

  1. ユーザに人工現実ビューを提示するように構成されたヘッドマウントデバイスと、
    制御デバイスであって、前記制御デバイスが前記ユーザによって着用されたとき、前記ユーザの皮膚に接触する電極を備える複数の筋電図(EMG)センサーを備える制御デバイスと、
    少なくとも1つの物理プロセッサと、
    物理メモリであって、前記物理プロセッサによって実行されたとき、前記物理プロセッサに、
    前記EMGセンサーによって検出された1つまたは複数のEMG信号を処理することと、
    前記処理された1つまたは複数のEMG信号を、1つまたは複数のジェスチャータイプに分類することと、
    前記ジェスチャータイプに基づいて、制御信号を提供することであって、前記制御信号が、前記人工現実ビューの少なくとも1つの様相を変えるように、前記ヘッドマウントデバイスをトリガする、制御信号を提供することと
    を行わせるコンピュータ実行可能命令を含む物理メモリと
    を備えるシステム。
  2. 前記少なくとも1つの物理プロセッサが、前記制御デバイス内に位置する、請求項1に記載のシステム。
  3. 前記少なくとも1つの物理プロセッサが、前記ヘッドマウントデバイス内に、または前記制御デバイスと通信している外部コンピュータデバイス内に位置する、請求項1に記載のシステム。
  4. コンピュータ実行可能命令が、前記物理プロセッサによって実行されたとき、前記物理プロセッサに、分類器モデルを使用して、前記処理されたEMG信号を1つまたは複数のジェスチャータイプに分類することを行わせる、請求項1に記載のシステム。
  5. 前記分類器モデルが、前記ジェスチャータイプのための複数のEMGトレーニング信号を含むトレーニングデータを使用してトレーニングされる、請求項4に記載のシステム。
  6. 前記トレーニングデータが、複数のユーザから取得される、請求項5に記載のシステム。
  7. 前記ヘッドマウントデバイスが、仮想現実ヘッドセットまたは拡張現実デバイスを備える、請求項1に記載のシステム。
  8. ユーザから1つまたは複数の筋電図(EMG)信号を取得することと、
    関連する特徴データを生成するために、前記1つまたは複数のEMG信号を処理することと、
    分類器モデルを使用して、前記関連する特徴データを1つまたは複数のジェスチャータイプに分類することと、
    前記1つまたは複数のジェスチャータイプに基づいて、人工現実(AR)デバイスに制御信号を提供することと
    を含み、
    前記分類器モデルが、前記1つまたは複数のジェスチャータイプのための複数のEMGトレーニング信号を含むトレーニングデータを使用してトレーニングされる、方法。
  9. 前記分類器モデルが、EMGトレーニング信号から決定された特徴データをクラスタリングすることによってトレーニングされる、請求項8に記載の方法。
  10. 前記分類器モデルが、複数のユーザから取得されたEMGトレーニング信号を使用してトレーニングされる、請求項8に記載の方法。
  11. 前記複数のユーザが、前記ユーザを含まない、請求項10に記載の方法。
  12. ジェスチャータイプに対応するEMGトレーニング信号を取得することと、
    前記EMGトレーニング信号から取得されたEMGトレーニングデータをクラスタリングすることによって、前記分類器モデルをトレーニングすることと
    によって、前記分類器モデルをトレーニングすることをさらに含む、請求項8に記載の方法。
  13. 前記分類器モデルが、
    それぞれのEMGトレーニング信号最大値の時間に対するEMGトレーニング信号の時間依存度を決定することと、
    複数のEMGトレーニング信号のうちの少なくとも1つのEMGトレーニング信号に時間オフセットを追加することによって、前記複数のEMGトレーニング信号の前記時間依存度を整合させることと、
    前記整合された複数のEMGトレーニング信号から、信号特性を取得することと、
    前記信号特性を有するEMG信号を検出するように、前記分類器モデルをトレーニングすることと
    によってさらにトレーニングされる、請求項8に記載の方法。
  14. 前記分類器モデルは、
    ジェスチャータイプに対応するEMGトレーニング信号を含むトレーニングデータを取得することと、
    前記ジェスチャータイプのためのジェスチャーモデルを取得するために、前記ジェスチャータイプの各発生に対応する前記EMGトレーニング信号を平均化することであって、前記分類器モデルが、EMG信号を分類するために、前記ジェスチャーモデルを使用する、前記EMGトレーニング信号を平均化することと
    によってさらにトレーニングされる、請求項8に記載の方法。
  15. 前記ジェスチャーモデルが、前記ジェスチャータイプのためのユーザ固有ジェスチャーモデルである、請求項14に記載の方法。
  16. 前記ジェスチャーモデルが、複数のユーザから取得されたEMGトレーニングデータに基づくマルチユーザジェスチャーモデルであり、
    前記マルチユーザジェスチャーモデルが、複数のユーザ固有ジェスチャーモデルの組合せである、
    請求項14に記載の方法。
  17. 前記人工現実デバイスが、ユーザに人工現実画像を提示するように構成されたヘッドマウントデバイスを備え、前記方法が、前記制御信号に基づいて、前記人工現実画像を変えることをさらに含む、請求項8に記載の方法。
  18. 前記人工現実画像を変えることが、前記ジェスチャータイプに基づく、前記人工現実画像中のオブジェクトの選択または制御を含む、請求項17に記載の方法。
  19. コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、前記コンピューティングデバイスに、
    筋電図(EMG)センサーによって検出された1つまたは複数のEMG信号を受信することと、
    ユーザジェスチャータイプに対応する1つまたは複数の特徴を識別するために、前記1つまたは複数のEMG信号を処理することと、
    前記1つまたは複数のEMG信号を前記ジェスチャータイプに分類するために、前記1つまたは複数の特徴を使用することと、
    前記ジェスチャータイプに基づいて、制御信号を提供することと、
    前記制御信号に応答して、人工現実ビューの変更をトリガするために、ヘッドマウントデバイスに前記制御信号を送信することと
    を行わせる1つまたは複数のコンピュータ実行可能命令を備える非一時的コンピュータ可読媒体。
  20. 前記コンピュータデバイスが、複数のユーザから取得されたトレーニングデータから決定されたジェスチャーモデルに基づいて、前記ジェスチャータイプを識別するために、前記EMG信号を分類するように構成された、請求項19に記載の非一時的コンピュータ可読媒体。
JP2021533832A 2019-03-29 2020-03-30 ジェスチャー検出および分類のための方法および装置 Pending JP2022526060A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962826478P 2019-03-29 2019-03-29
US62/826,478 2019-03-29
US16/833,307 US11481030B2 (en) 2019-03-29 2020-03-27 Methods and apparatus for gesture detection and classification
US16/833,307 2020-03-27
PCT/US2020/025772 WO2020205767A1 (en) 2019-03-29 2020-03-30 Methods and apparatus for gesture detection and classification

Publications (1)

Publication Number Publication Date
JP2022526060A true JP2022526060A (ja) 2022-05-23

Family

ID=72605971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533832A Pending JP2022526060A (ja) 2019-03-29 2020-03-30 ジェスチャー検出および分類のための方法および装置

Country Status (5)

Country Link
US (1) US11481030B2 (ja)
EP (1) EP3948497A1 (ja)
JP (1) JP2022526060A (ja)
CN (1) CN113646734A (ja)
WO (1) WO2020205767A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102313622B1 (ko) * 2019-08-21 2021-10-19 한국과학기술연구원 생체신호 기반 아바타 제어시스템 및 방법
KR102278069B1 (ko) * 2019-10-22 2021-07-14 조선대학교산학협력단 근전도 신호 기반 사용자 인증 장치 및 인증 방법
US12061743B2 (en) * 2020-02-26 2024-08-13 Magic Leap, Inc. Hand and totem input fusion for wearable systems
WO2022011344A1 (en) * 2020-07-10 2022-01-13 Arizona Board Of Regents On Behalf Of Arizona State University System including a device for personalized hand gesture monitoring
US20220318672A1 (en) * 2021-04-01 2022-10-06 Samsung Display Co., Ltd. Systems and methods for identifying manufacturing defects
US11775066B2 (en) * 2021-04-22 2023-10-03 Coapt Llc Biometric enabled virtual reality systems and methods for detecting user intentions and manipulating virtual avatar control based on user intentions for providing kinematic awareness in holographic space, two-dimensional (2D), or three-dimensional (3D) virtual space
US11829531B2 (en) * 2021-09-13 2023-11-28 Htc Corporation Human-computer interaction method and system and non-transitory computer readable storage medium
US20230308770A1 (en) * 2022-03-07 2023-09-28 Meta Platforms, Inc. Methods, apparatuses and computer program products for utilizing gestures and eye tracking information to facilitate camera operations on artificial reality devices
WO2023196671A1 (en) 2022-04-08 2023-10-12 Meta Platforms Technologies, Llc Techniques for neuromuscular-signal-based detection of in-air hand gestures for text production and modification, and systems, wearable devices, and methods for using these techniques
WO2022204614A1 (en) * 2022-05-02 2022-09-29 Innopeak Technology, Inc. Wrist-wearable controller for head-mounted device (hmd) or other user device with camera input
WO2022226429A1 (en) * 2022-05-03 2022-10-27 Innopeak Technology, Inc. Smart watch -based control of user interface (ui) of other device(s)
US11934586B2 (en) 2022-06-29 2024-03-19 Google Llc Gesture detection via image capture of subdermal tissue from a wrist-pointing camera system
DE102023201075B3 (de) 2023-02-09 2024-08-14 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörinstruments und Hörsystem mit einem solchen Hörinstrument

Family Cites Families (632)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1411995A (en) 1919-06-20 1922-04-04 Raymond W Dull Link belt
US3580243A (en) 1968-10-21 1971-05-25 Marquette Electronics Inc Means and method for subtracting dc noise from electrocardiographic signals
US3620208A (en) 1969-11-03 1971-11-16 Atomic Energy Commission Ekg amplifying electrode pickup
US3735425A (en) 1971-02-10 1973-05-29 Us Of America The Secretary Of Myoelectrically controlled prothesis
US3880146A (en) 1973-06-04 1975-04-29 Donald B Everett Noise compensation techniques for bioelectric potential sensing
US4055168A (en) 1976-09-21 1977-10-25 The Rockefeller University Posture training device
LU84250A1 (de) 1982-07-01 1984-03-22 Mardice Holding Verfahren und vorrichtung fuer das kontaktlose messen von spannungsunterschieden bei lebenden organismen
US4817064A (en) 1985-02-05 1989-03-28 Milles Victor A Structure for fabricating jewelry parts or wrist watches
US5003978A (en) 1985-08-21 1991-04-02 Technology 21, Inc. Non-polarizable dry biomedical electrode
IL78244A0 (en) 1986-03-24 1986-07-31 Zvi Kamil Instrumentation amplifier arrangement
ATE38569T1 (de) 1986-04-01 1988-11-15 Altop Sa An einer klammer montierte uhr.
JPH01126692A (ja) 1987-07-24 1989-05-18 Univ Leland Stanford Jr 音楽およびビデオ用のバイオポテンシャルディジタルコントローラ
USD322227S (en) 1989-03-23 1991-12-10 North American Watch Company Watch
US5625577A (en) 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
US5081852A (en) 1991-02-14 1992-01-21 Cox Michael F Display bracelet
JP3103427B2 (ja) 1992-04-01 2000-10-30 ダイヤメディカルシステム株式会社 生体電気現象検出装置
EP0648090A4 (en) 1992-07-06 1995-11-02 James F Kramer DETERMINATION OF MOVEMENT OF MULTIPLE-JOINTED ARMS.
US5251189A (en) 1992-10-16 1993-10-05 Timex Corporation Wristwatch radiotelephone
JPH06216475A (ja) 1993-01-21 1994-08-05 Matsushita Electric Ind Co Ltd フレキシブル基板
USD348660S (en) 1993-04-29 1994-07-12 Micro-Integration Corp. Hand-held computer input device
US5482051A (en) 1994-03-10 1996-01-09 The University Of Akron Electromyographic virtual reality system
WO1995027341A1 (en) 1994-04-04 1995-10-12 Motorola Inc. Shielded circuit assembly and method for forming same
DE4412278A1 (de) 1994-04-09 1995-10-12 Bosch Gmbh Robert Starre und flexible Bereiche aufweisende Leiterplatte
US6032530A (en) 1994-04-29 2000-03-07 Advantedge Systems Inc. Biofeedback system for sensing body motion and flexure
US5462065A (en) 1994-08-17 1995-10-31 Cusimano; Maryrose Integrated movement analyziing system
US5605059A (en) 1995-03-09 1997-02-25 Woodward; Robin Sleeved bangle bracelet
US6238338B1 (en) 1999-07-19 2001-05-29 Altec, Inc. Biosignal monitoring system and method
JP3141737B2 (ja) 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
US6066794A (en) 1997-01-21 2000-05-23 Longo; Nicholas C. Gesture synthesizer for electronic sound device
US5683404A (en) 1996-06-05 1997-11-04 Metagen, Llc Clamp and method for its use
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6880364B1 (en) 1998-04-23 2005-04-19 Michael F. Vidolin Friendship band with exchangeable closed loop members
US6658287B1 (en) 1998-08-24 2003-12-02 Georgia Tech Research Corporation Method and apparatus for predicting the onset of seizures based on features derived from signals indicative of brain activity
WO2000017848A1 (en) 1998-09-22 2000-03-30 Vega Vista, Inc. Intuitive control of portable data displays
US6745062B1 (en) 1998-10-05 2004-06-01 Advanced Imaging Systems, Inc. Emg electrode apparatus and positioning system
US6244873B1 (en) 1998-10-16 2001-06-12 At&T Corp. Wireless myoelectric control apparatus and methods
US6774885B1 (en) 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US6411843B1 (en) 1999-05-28 2002-06-25 Respironics, Inc. Method and apparatus for producing a model EMG signal from a measured EMG signal
US6972734B1 (en) 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
CA2276962A1 (en) 1999-07-07 2001-01-07 Universite De Montreal Electromyogram signal analysis method and system for use with electrode array
US6807438B1 (en) 1999-08-26 2004-10-19 Riccardo Brun Del Re Electric field sensor
JP4168221B2 (ja) 1999-09-06 2008-10-22 株式会社島津製作所 身体装着型表示システム
US6527711B1 (en) 1999-10-18 2003-03-04 Bodymedia, Inc. Wearable human physiological data sensors and reporting system therefor
KR100695073B1 (ko) 1999-11-11 2007-03-14 더 스워치 그룹 매니지먼트 서비시스 아게 가요성을 가진 손목밴드내에 구성된 인쇄회로를 포함하는 손목시계
US6771294B1 (en) 1999-12-29 2004-08-03 Petri Pulli User interface
GB0004688D0 (en) 2000-02-28 2000-04-19 Radley Smith Philip J Bracelet
AU2001253599B2 (en) 2000-04-17 2007-03-29 Adidas Ag Systems and methods for ambulatory monitoring of physiological signs
US6683600B1 (en) 2000-04-19 2004-01-27 Microsoft Corporation Adaptive input pen mode selection
US6510333B1 (en) 2000-05-16 2003-01-21 Mark J. Licata Sensor for biopotential measurements
US6720984B1 (en) 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
AU2001278318A1 (en) 2000-07-24 2002-02-05 Jean Nicholson Prudent Modeling human beings by symbol manipulation
US20030036691A1 (en) 2000-08-10 2003-02-20 Stanaland Thomas G. Capacitively coupled electrode system with variable capacitance for sensing potentials at the surface of tissue
US6487906B1 (en) 2000-09-18 2002-12-03 Advantedge Systems Inc Flexible film sensor system for monitoring body motion
WO2002037827A2 (en) 2000-10-30 2002-05-10 Naval Postgraduate School Method and apparatus for motion tracking of an articulated rigid body
US6743982B2 (en) 2000-11-29 2004-06-01 Xerox Corporation Stretchable interconnects using stress gradient films
AU2002234125A1 (en) 2000-12-18 2002-07-01 Human Bionics Llc Method and system for initiating activity based on sensed electrophysiological data
WO2002065904A1 (en) 2001-02-23 2002-08-29 Cordless Antistatic Research Inc. Enhanced pickup bio-electrode
JP2002287869A (ja) 2001-03-26 2002-10-04 System Lsi Kk 筋電位信号の識別方式および筋電位信号を用いた入力装置
JP2002358149A (ja) 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20030051505A1 (en) 2001-09-14 2003-03-20 Robertson Catrina M. Selectively self-adjustable jewelry item and method of making same
US6755795B2 (en) 2001-10-26 2004-06-29 Koninklijke Philips Electronics N.V. Selectively applied wearable medical sensors
US6865409B2 (en) 2001-11-07 2005-03-08 Kinesense, Inc. Surface electromyographic electrode assembly
JP4391717B2 (ja) 2002-01-09 2009-12-24 富士通マイクロエレクトロニクス株式会社 コンタクタ及びその製造方法並びにコンタクト方法
AU2003217253A1 (en) 2002-01-25 2003-09-02 Intellipatch, Inc. Evaluation of a patient and prediction of chronic symptoms
JP2003220040A (ja) 2002-01-31 2003-08-05 Seiko Instruments Inc 生体情報観測装置
JP2003255993A (ja) 2002-03-04 2003-09-10 Ntt Docomo Inc 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム
CA2379268A1 (en) 2002-03-26 2003-09-26 Hans Kolpin Skin impedance matched biopotential electrode
ATE384474T1 (de) 2002-03-29 2008-02-15 Koninkl Philips Electronics Nv Ein tragbares überwachungssystem und herstellungsmethode für ein tragbares überwachungssystem
US6942621B2 (en) 2002-07-11 2005-09-13 Ge Medical Systems Information Technologies, Inc. Method and apparatus for detecting weak physiological signals
US6984208B2 (en) 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
EP1537823A1 (en) 2002-09-11 2005-06-08 National Institute of Information and Communications Technology Incorporated Administrative Agency Active muscle display device
EP1408443B1 (en) 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
KR100506084B1 (ko) 2002-10-24 2005-08-05 삼성전자주식회사 경혈점 탐색 장치 및 방법
CA2415173A1 (en) 2002-12-09 2004-06-09 Thomas Hemmerling Neuromuscular monitoring using phonomyography
US7491892B2 (en) 2003-03-28 2009-02-17 Princeton University Stretchable and elastic interconnects
US7028507B2 (en) 2003-04-03 2006-04-18 Broadway Entertainment, Inc. Article of jewelry
US20040194500A1 (en) 2003-04-03 2004-10-07 Broadway Entertainment, Inc. Article of jewelry
US7265298B2 (en) 2003-05-30 2007-09-04 The Regents Of The University Of California Serpentine and corduroy circuits to enhance the stretchability of a stretchable electronic device
CA2529203C (en) 2003-06-12 2015-03-03 Control Bionics Method, system, and software for interactive communication and analysis
US7022919B2 (en) 2003-06-30 2006-04-04 Intel Corporation Printed circuit board trace routing method
EP1651106A4 (en) 2003-07-09 2009-05-27 Medical Technologies Unltd Inc COMPLETE NEUROMUSCULAR PROFILER
ATE413902T1 (de) 2003-08-18 2008-11-15 Cardiac Pacemakers Inc Patientenüberwachungssystem
TWI240819B (en) 2003-08-21 2005-10-01 Toppoly Optoelectronics Corp Flexible printed circuit board (FPC) for liquid crystal display (LCD) module
CN1838933B (zh) 2003-08-21 2010-12-08 国立大学法人筑波大学 穿着式动作辅助装置、穿着式动作辅助装置的控制方法和控制用程序
JP4178186B2 (ja) 2003-08-21 2008-11-12 国立大学法人 筑波大学 装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム
US7559902B2 (en) 2003-08-22 2009-07-14 Foster-Miller, Inc. Physiological monitoring garment
US7565295B1 (en) 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US7574253B2 (en) 2003-09-26 2009-08-11 Northwestern University Signal processing using non-linear regression with a sinusoidal model
US20050070227A1 (en) 2003-09-30 2005-03-31 Chih-Hsiang Shen Detecting and actuating method of bluetooth devices and a control system thereof
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
USD502662S1 (en) 2004-02-23 2005-03-08 Broadway Entertainment, Inc. Bracelet
USD502661S1 (en) 2004-02-23 2005-03-08 Broadway Entertainment, Inc. Bracelet
USD503646S1 (en) 2004-02-23 2005-04-05 Broadway Entertainment, Inc. Bracelet
WO2005083546A1 (en) 2004-02-27 2005-09-09 Simon Richard Daniel Wearable modular interface strap
KR100541958B1 (ko) 2004-04-21 2006-01-10 삼성전자주식회사 연성인쇄회로기판
US7173437B2 (en) 2004-06-10 2007-02-06 Quantum Applied Science And Research, Inc. Garment incorporating embedded physiological sensors
US7308826B2 (en) 2004-06-16 2007-12-18 The University Of Tokyo Muscular strength acquiring method and device based on musculoskeletal model
US8061160B2 (en) 2004-08-17 2011-11-22 Carissa Stinespring Adjustable fashion mechanism
KR100594117B1 (ko) 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
KR100680023B1 (ko) 2004-12-06 2007-02-07 한국전자통신연구원 생체신호를 이용한 착용형 휴대폰 입력 장치 및 그 제어방법
US7254516B2 (en) 2004-12-17 2007-08-07 Nike, Inc. Multi-sensor monitoring of athletic performance
WO2006074029A2 (en) 2005-01-06 2006-07-13 Cyberkinetics Neurotechnology Systems, Inc. Neurally controlled and multi-device patient ambulation systems and related methods
US20070016265A1 (en) 2005-02-09 2007-01-18 Alfred E. Mann Institute For Biomedical Engineering At The University Of S. California Method and system for training adaptive control of limb movement
US8702629B2 (en) 2005-03-17 2014-04-22 Great Lakes Neuro Technologies Inc. Movement disorder recovery system and method for continuous monitoring
US7351975B2 (en) 2005-03-29 2008-04-01 Duke University Sensor system for identifying and tracking movements of multiple sources
US20070132785A1 (en) 2005-03-29 2007-06-14 Ebersole John F Jr Platform for immersive gaming
USD535401S1 (en) 2005-06-21 2007-01-16 Biocare Systems, Inc. Heat and light therapy device
US7428516B2 (en) 2005-06-23 2008-09-23 Microsoft Corporation Handwriting recognition using neural networks
US8190249B1 (en) 2005-08-01 2012-05-29 Infinite Biomedical Technologies, Llc Multi-parametric quantitative analysis of bioelectrical signals
US7086218B1 (en) 2005-08-18 2006-08-08 M & J - R & R Grosbard, Inc. Linked ring structures
US7725147B2 (en) 2005-09-29 2010-05-25 Nellcor Puritan Bennett Llc System and method for removing artifacts from waveforms
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US7271774B2 (en) 2005-10-21 2007-09-18 Suunto Oy Electronic wearable device
US7517725B2 (en) 2005-11-28 2009-04-14 Xci, Inc. System and method for separating and packaging integrated circuits
US8280503B2 (en) 2008-10-27 2012-10-02 Michael Linderman EMG measured during controlled hand movement for biometric analysis, medical diagnosis and related analysis
US7365647B2 (en) 2005-12-23 2008-04-29 Avinoam Nativ Kinesthetic training system with composite feedback
USD543212S1 (en) 2006-01-04 2007-05-22 Sony Computer Entertainment Inc. Object for interfacing with a computer program
US7809435B1 (en) 2006-01-11 2010-10-05 Iq Biolabs, Inc. Adjustable wireless electromyography sensor and system
JP4826459B2 (ja) 2006-01-12 2011-11-30 株式会社豊田中央研究所 筋骨格モデル作成方法、人体応力/ひずみ推定方法、プログラムおよび記録媒体
US8762733B2 (en) 2006-01-30 2014-06-24 Adidas Ag System and method for identity confirmation using physiologic biometrics to determine a physiologic fingerprint
US7580742B2 (en) 2006-02-07 2009-08-25 Microsoft Corporation Using electroencephalograph signals for task classification and activity recognition
US7827000B2 (en) 2006-03-03 2010-11-02 Garmin Switzerland Gmbh Method and apparatus for estimating a motion parameter
WO2007113743A1 (en) 2006-04-04 2007-10-11 Koninklijke Philips Electronics N.V. Expressive pen
WO2007120819A2 (en) 2006-04-15 2007-10-25 The Board Of Regents Of The Leland Stanford Junior University Systems and methods for estimating surface electromyography
US20090112080A1 (en) 2006-04-21 2009-04-30 Quantum Applied Science & Research, Inc. System for Measuring Electric Signals
US7636549B2 (en) 2006-04-21 2009-12-22 Abbott Medical Optics Inc. Automated bonding for wireless devices
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US7539533B2 (en) 2006-05-16 2009-05-26 Bao Tran Mesh network monitoring appliance
WO2007137047A2 (en) 2006-05-16 2007-11-29 Greer Douglas S Modeling the neocortex
US7661068B2 (en) 2006-06-12 2010-02-09 Microsoft Corporation Extended eraser functions
US9405372B2 (en) 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
GB0614261D0 (en) 2006-07-18 2006-08-30 Univ Sussex The Electric Potential Sensor
US7844310B2 (en) 2006-07-20 2010-11-30 L3 Communications Corporation Wearable communication device with contoured back
US7848797B2 (en) 2006-08-17 2010-12-07 Neurometrix, Inc. Motor unit number estimation (MUNE) for the assessment of neuromuscular function
US8437844B2 (en) 2006-08-21 2013-05-07 Holland Bloorview Kids Rehabilitation Hospital Method, system and apparatus for real-time classification of muscle signals from self-selected intentional movements
JP4267648B2 (ja) 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US8212859B2 (en) 2006-10-13 2012-07-03 Apple Inc. Peripheral treatment for head-mounted displays
US7885732B2 (en) 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices
US8082149B2 (en) 2006-10-26 2011-12-20 Biosensic, Llc Methods and apparatuses for myoelectric-based speech processing
US20080136775A1 (en) 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20090265671A1 (en) 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US20080221487A1 (en) 2007-03-07 2008-09-11 Motek Bv Method for real time interactive visualization of muscle forces and joint torques in the human body
EP1970005B1 (en) 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
JP5357142B2 (ja) 2007-04-24 2013-12-04 コーニンクレッカ フィリップス エヌ ヴェ 生理学的パラメータを測定するセンサー配置構成および方法
FR2916069B1 (fr) 2007-05-11 2009-07-31 Commissariat Energie Atomique Procede de traitement pour la capture de mouvement d'une structure articulee
US8718742B2 (en) 2007-05-24 2014-05-06 Hmicro, Inc. Integrated wireless patch for physiological monitoring
US8504146B2 (en) 2007-06-29 2013-08-06 The Regents Of The University Of California Multi-channel myoelectrical control using single muscle
US20090007597A1 (en) 2007-07-02 2009-01-08 Hanevold Gail F Body attached band with removal visual image pockets
MX2010000692A (es) 2007-07-16 2010-08-31 Sunrise Medical Hhg Inc Sistema de recoleccion de datos fisiologicos.
DE102007044555A1 (de) 2007-07-18 2009-01-22 Siemens Ag Optische Koppelvorrichtung und Verfahren zu deren Herstellung
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7925100B2 (en) 2007-07-31 2011-04-12 Microsoft Corporation Tiled packaging of vector image data
JP5057070B2 (ja) 2007-07-31 2012-10-24 株式会社エクォス・リサーチ 心電センサー
US20090031757A1 (en) 2007-08-01 2009-02-05 Funki Llc Modular toy bracelet
JP4434247B2 (ja) 2007-08-10 2010-03-17 ソニー株式会社 リモートコントローラ、リモートコントロールシステムおよびリモートコントロール方法
US20110007035A1 (en) 2007-08-19 2011-01-13 Saar Shai Finger-worn devices and related methods of use
WO2009026289A2 (en) 2007-08-20 2009-02-26 Hmicro, Inc. Wearable user interface device, system, and method of use
JP5559691B2 (ja) 2007-09-24 2014-07-23 クアルコム,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US20090082692A1 (en) 2007-09-25 2009-03-26 Hale Kelly S System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures
US7714757B2 (en) 2007-09-26 2010-05-11 Medtronic, Inc. Chopper-stabilized analog-to-digital converter
US8343079B2 (en) 2007-10-18 2013-01-01 Innovative Surgical Solutions, Llc Neural monitoring sensor
US8159313B2 (en) 2007-10-22 2012-04-17 D-Wave Systems Inc. Systems, methods, and apparatus for electrical filters and input/output systems
FI20075798A0 (fi) 2007-11-12 2007-11-12 Polar Electro Oy Elektrodirakenne
US8355671B2 (en) 2008-01-04 2013-01-15 Kopin Corporation Method and apparatus for transporting video signal over Bluetooth wireless interface
GB0800144D0 (en) 2008-01-04 2008-02-13 Fitzpatrick Adam P Electrocardiographic device and method
US8456425B2 (en) 2008-01-30 2013-06-04 International Business Machines Corporation Self-adapting keypad
US10969917B2 (en) 2008-01-30 2021-04-06 Apple Inc. Auto scanning for multiple frequency stimulation multi-touch sensor panels
US8344998B2 (en) 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
US9597015B2 (en) 2008-02-12 2017-03-21 Portland State University Joint angle tracking with inertial sensors
US20110018754A1 (en) 2008-03-28 2011-01-27 Akira Tojima Remote operation apparatus, operation target apparatus, method for controlling remote operation apparatus, method for controlling operation target apparatus, and remote operation system
US20090251407A1 (en) 2008-04-03 2009-10-08 Microsoft Corporation Device interaction with combination of rings
EP2294657B1 (en) 2008-05-01 2016-04-06 3M Innovative Properties Company Stretchable conductive connector
US20100030532A1 (en) 2008-06-12 2010-02-04 Jasbir Arora System and methods for digital human model prediction and simulation
JP2010000283A (ja) 2008-06-23 2010-01-07 Shimadzu Corp リアルタイム同時計測システム、リアルタイム同時計測装置、リアルタイム同時計測方法、およびプログラム
US8207473B2 (en) 2008-06-24 2012-06-26 Imec Method for manufacturing a stretchable electronic device
US9037530B2 (en) 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
US8170656B2 (en) 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
NZ590264A (en) 2008-07-07 2013-11-29 Heard Systems Pty Ltd A system for sensing electrophysiological signals
WO2010012080A1 (en) 2008-07-29 2010-02-04 James Brent Klassen Balance training system
US8389862B2 (en) 2008-10-07 2013-03-05 Mc10, Inc. Extremely stretchable electronics
US9393418B2 (en) 2011-06-03 2016-07-19 Great Lakes Neuro Technologies Inc. Movement disorder therapy system, devices and methods of tuning
US8647287B2 (en) 2008-12-07 2014-02-11 Andrew Greenberg Wireless synchronized movement monitoring apparatus and system
US9439566B2 (en) 2008-12-15 2016-09-13 Proteus Digital Health, Inc. Re-wearable wireless device
US7870211B2 (en) 2008-12-23 2011-01-11 At&T Mobility Ii Llc Conversation message routing supporting dynamic class transitions
EP2392196B1 (en) 2009-01-30 2018-08-22 IMEC vzw Stretchable electronic device
WO2010086033A1 (en) 2009-01-30 2010-08-05 Interuniversitair Microelektronica Centrum Vzw Stretchable electronic device
US8444564B2 (en) 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
USD661613S1 (en) 2009-02-19 2012-06-12 1922 Manifatture Preziose Torino SpA Jewelry
US20100228487A1 (en) 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100249635A1 (en) 2009-03-26 2010-09-30 Cordial Medical Europe B.V. Hearing screening system for a subject or a patient, and a method for hearing screening
EP2236078A1 (en) 2009-04-02 2010-10-06 Koninklijke Philips Electronics N.V. Processing a bio-physiological signal
EP2427109A4 (en) 2009-05-07 2015-01-07 Massachusetts Eye & Ear Infirm SIGNAL PROCESSING FOR PHYSIOLOGICAL NOISE
US8376968B2 (en) 2009-05-15 2013-02-19 The Hong Kong Polytechnic University Method and system for quantifying an intention of movement of a user
WO2010131267A1 (en) 2009-05-15 2010-11-18 Nox Medical System and methods using flexible capacitive electrodes for measuring biosignals
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US20100315266A1 (en) 2009-06-15 2010-12-16 Microsoft Corporation Predictive interfaces with usability constraints
US8427977B2 (en) 2009-06-23 2013-04-23 CSC Holdings, LLC Wireless network polling and data warehousing
SG176603A1 (en) 2009-06-26 2012-01-30 Widex As Eeg monitoring apparatus and method for presenting messages therein
US8883287B2 (en) 2009-06-29 2014-11-11 Infinite Corridor Technology, Llc Structured material substrates for flexible, stretchable electronics
JP5545574B2 (ja) 2009-07-15 2014-07-09 国立大学法人 筑波大学 分類推定システムおよび分類推定プログラム
EP2459062A4 (en) 2009-07-30 2017-04-05 University of Cape Town Non-invasive deep muscle electromyography
US8718980B2 (en) 2009-09-11 2014-05-06 Qualcomm Incorporated Method and apparatus for artifacts mitigation with multiple wireless sensors
FR2950713A1 (fr) 2009-09-29 2011-04-01 Movea Sa Systeme et procede de reconnaissance de gestes
US20110077484A1 (en) 2009-09-30 2011-03-31 Nellcor Puritan Bennett Ireland Systems And Methods For Identifying Non-Corrupted Signal Segments For Use In Determining Physiological Parameters
US9779267B2 (en) 2009-10-07 2017-10-03 F-Secure Oyj Computer security method and apparatus
TWI496558B (zh) 2009-10-20 2015-08-21 Tatung Co 使用二極電極貼片量測心電圖與呼吸訊號之系統及方法
JP5643829B2 (ja) 2009-10-26 2014-12-17 インぺディメッド リミテッドImpedimed Limited インピーダンス測定の分析において用いるための方法及び装置
US20110119216A1 (en) 2009-11-16 2011-05-19 Microsoft Corporation Natural input trainer for gestural instruction
US20110270135A1 (en) 2009-11-30 2011-11-03 Christopher John Dooley Augmented reality for testing and training of human performance
KR101708682B1 (ko) 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US8421634B2 (en) 2009-12-04 2013-04-16 Microsoft Corporation Sensing mechanical energy to appropriate the body for data input
US8620361B2 (en) 2009-12-08 2013-12-31 At&T Mobility Ii Llc Intelligent routing of SMS and MMS messages to short codes
US20130135223A1 (en) 2009-12-13 2013-05-30 Ringbow Ltd. Finger-worn input devices and methods of use
US20120283526A1 (en) 2009-12-16 2012-11-08 Ictalcare A/S Method and a System for the Prediction of Epileptic Seizures
US20110151974A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
JP5471490B2 (ja) 2010-01-20 2014-04-16 オムロンヘルスケア株式会社 体動検出装置
AU2010344006B2 (en) 2010-02-01 2013-12-19 T&W Engineering A/S Portable EEG monitor system with wireless communication
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
CN102771047B (zh) 2010-02-25 2014-12-03 夏普株式会社 偏置电路、lna、lnb、通信用接收机、通信用发送机及传感器系统
US20110213278A1 (en) 2010-02-26 2011-09-01 Apdm, Inc. Movement monitoring system and apparatus for objective assessment of movement disorders
AU2011220382A1 (en) 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US20110224499A1 (en) 2010-03-10 2011-09-15 Sotera Wireless, Inc. Body-worn vital sign monitor
EP2548153A1 (de) 2010-03-16 2013-01-23 Carlo Trugenberger Authentifizierungssystem, verfahren zur authentifizierung eines objekts, vorrichtung zur erzeugung einer identifikationseinrichtung, verfahren zur erzeugung einer identifikationseinrichtung
KR101114870B1 (ko) 2010-03-22 2012-03-06 (주)헤리트 지능형 led 조명 제어 시스템 및 제어 방법
US9341659B2 (en) 2010-04-08 2016-05-17 Disney Enterprises, Inc. User interactive living organisms
US20110248914A1 (en) 2010-04-11 2011-10-13 Sherr Alan B System and Method for Virtual Touch Typing
CN103109462A (zh) 2010-04-16 2013-05-15 尼古拉斯·J.·马斯坦德雷亚 可佩戴式动作感测计算接口
JP5702947B2 (ja) 2010-04-22 2015-04-15 矢崎総業株式会社 配線材
US8384683B2 (en) 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
KR101130697B1 (ko) 2010-05-07 2012-04-02 삼성전자주식회사 복수 층의 신축성 배선
WO2011150407A2 (en) 2010-05-28 2011-12-01 The Regents Of The University Of California Cell-phone based wireless and mobile brain-machine interface
US8588884B2 (en) 2010-05-28 2013-11-19 Emkinetics, Inc. Microneedle electrode
US20110313762A1 (en) 2010-06-20 2011-12-22 International Business Machines Corporation Speech output with confidence indication
USD643428S1 (en) 2010-07-07 2011-08-16 Iota, Inc. Wearable mobile accessory
US8754862B2 (en) 2010-07-11 2014-06-17 Lester F. Ludwig Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces
FR2962821B1 (fr) 2010-07-13 2013-02-22 Commissariat Energie Atomique Procede et systeme de classification de signaux neuronaux, et procede de selection d'electrodes pour commande neuronale directe.
JP5782515B2 (ja) 2010-08-02 2015-09-24 ザ・ジョンズ・ホプキンス・ユニバーシティ ロボットの協働制御および音声フィードバックを用いて力覚センサ情報を提示する方法
US20120066163A1 (en) 2010-09-13 2012-03-15 Nottingham Trent University Time to event data analysis method and system
US9107627B2 (en) 2010-09-21 2015-08-18 Alexander B Grey Method for assessing and optimizing muscular performance including a muscleprint protocol
US10216893B2 (en) 2010-09-30 2019-02-26 Fitbit, Inc. Multimode sensor devices
US20120117514A1 (en) 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US20130123656A1 (en) 2010-11-15 2013-05-16 Sandy L. Heck Control System and Apparatus Utilizing Signals Originating in the Periauricular Neuromuscular System
US10244988B2 (en) 2010-12-16 2019-04-02 Nokia Technologies Oy Method, apparatus and computer program of using a bio-signal profile
US20120203076A1 (en) 2011-02-08 2012-08-09 Jean Pierre Fatta Portable Physiological Data Monitoring Device
KR101448106B1 (ko) 2011-02-17 2014-10-08 주식회사 라이프사이언스테크놀로지 무구속 근전도 신호를 이용한 재활상태 분석방법
KR101206280B1 (ko) 2011-02-28 2012-11-29 (주)락싸 전기적 비접촉 전위 센서 회로
USD646192S1 (en) 2011-03-11 2011-10-04 Jamie Renae Woode Bracelet
US20120265090A1 (en) 2011-04-13 2012-10-18 Fink Rainer J System and method of acquiring uterine emg signals and wirelessly transmitting the same
WO2012155157A1 (en) 2011-05-06 2012-11-15 Azoteq (Pty) Ltd Multiple media capacitive sensor
US9330499B2 (en) 2011-05-20 2016-05-03 Microsoft Technology Licensing, Llc Event augmentation with real-time information
PL2709522T3 (pl) 2011-05-20 2017-03-31 Nanyang Technological University Układ do synergicznej neurofizjologicznej rehabilitacji i/lub rozwoju funkcjonalnego
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US9018532B2 (en) 2011-06-09 2015-04-28 Multi-Fineline Electronix, Inc. Stretchable circuit assemblies
US9921641B1 (en) 2011-06-10 2018-03-20 Amazon Technologies, Inc. User/object interactions in an augmented reality environment
US20130198694A1 (en) 2011-06-10 2013-08-01 Aliphcom Determinative processes for wearable devices
US8879276B2 (en) 2011-06-15 2014-11-04 Power Gold LLC Flexible circuit assembly and method thereof
WO2012175785A1 (en) 2011-06-20 2012-12-27 Nokia Corporation Methods, apparatuses and computer program products for performing accurate pose estimation of objects
US9089270B2 (en) 2011-06-29 2015-07-28 Lg Electronics Inc. Terminal and control method thereof
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US9128521B2 (en) 2011-07-13 2015-09-08 Lumo Bodytech, Inc. System and method of biomechanical posture detection and feedback including sensor normalization
US8832233B1 (en) 2011-07-20 2014-09-09 Google Inc. Experience sharing for conveying communication status
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
WO2013029196A1 (zh) 2011-08-26 2013-03-07 国立云林科技大学 回馈控制的穿戴式上肢电刺激装置
USD654622S1 (en) 2011-09-15 2012-02-21 Shih-Ling Hsu Hair band
KR20190133080A (ko) 2011-09-19 2019-11-29 아이사이트 모빌 테크놀로지 엘티디 증강 현실 시스템용 터치프리 인터페이스
US20130080794A1 (en) 2011-09-24 2013-03-28 Jawbone Industrial Co., Ltd. Wireless controller with universal serial bus and system having the same
US20130077820A1 (en) 2011-09-26 2013-03-28 Microsoft Corporation Machine learning gesture detection
US20130271292A1 (en) 2011-10-09 2013-10-17 James Andrew McDermott Driver Alert and Monitoring System
FR2981561B1 (fr) 2011-10-21 2015-03-20 Commissariat Energie Atomique Procede de detection d'activite a capteur de mouvements, dispositif et programme d'ordinateur correspondants
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US20130106686A1 (en) 2011-10-31 2013-05-02 Broadcom Corporation Gesture processing framework
ITTO20111024A1 (it) 2011-11-08 2013-05-09 Bitron Spa Dispositivo di misura per segnali elettromiografici ad alta risoluzione e elevato numero di canali.
WO2013071285A1 (en) 2011-11-11 2013-05-16 Rutgers, The State University Of New Jersey Methods for the diagnosis and treatment of neurological disorders
US8704882B2 (en) 2011-11-18 2014-04-22 L-3 Communications Corporation Simulated head mounted display system and method
US9152376B2 (en) 2011-12-01 2015-10-06 At&T Intellectual Property I, L.P. System and method for continuous multimodal speech and gesture interaction
US10430066B2 (en) 2011-12-06 2019-10-01 Nri R&D Patent Licensing, Llc Gesteme (gesture primitive) recognition for advanced touch user interfaces
TWI446896B (zh) 2011-12-23 2014-08-01 Ind Tech Res Inst 肌能參數感測器
EP2613223A1 (en) 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
US8971023B2 (en) 2012-03-21 2015-03-03 Google Inc. Wearable computing device frame
US20130191741A1 (en) 2012-01-24 2013-07-25 Motorola Mobility, Inc. Methods and Apparatus for Providing Feedback from an Electronic Device
US10188307B2 (en) 2012-02-23 2019-01-29 Bio-Signal Group Corp. Shielded multi-channel EEG headset systems and methods
US8970571B1 (en) 2012-03-13 2015-03-03 Google Inc. Apparatus and method for display lighting adjustment
US8922481B1 (en) 2012-03-16 2014-12-30 Google Inc. Content annotation
USD682727S1 (en) 2012-03-27 2013-05-21 Bulgari S.P.A. Bracelet
ITMI20120494A1 (it) 2012-03-27 2013-09-28 B10Nix S R L Apparato e metodo per l'acquisizione ed analisi di una attivita' muscolare
JP2013206273A (ja) 2012-03-29 2013-10-07 Sony Corp 情報処理装置、情報処理方法、および情報処理システム
US10448161B2 (en) 2012-04-02 2019-10-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field
WO2013151770A1 (en) 2012-04-03 2013-10-10 Carnegie Mellon University Musculoskeletal activity recognition system and method
US8994672B2 (en) 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input
US9170674B2 (en) 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
US9221177B2 (en) 2012-04-18 2015-12-29 Massachusetts Institute Of Technology Neuromuscular model-based sensing and control paradigm for a robotic leg
US20130285916A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
US20130293580A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for selecting targets in an augmented reality environment
US9538940B2 (en) 2012-05-03 2017-01-10 University of Pittsburgh—of the Commonwealth System of Higher Education Intelligent algorithms for tracking three-dimensional skeletal movement from radiographic image sequences
USD716457S1 (en) 2012-05-23 2014-10-28 Neurometrix, Inc. Transcutaneous electrical nerve stimulation device
US9867548B2 (en) 2012-05-25 2018-01-16 Emotiv, Inc. System and method for providing and aggregating biosignals and action data
US9278453B2 (en) 2012-05-25 2016-03-08 California Institute Of Technology Biosleeve human-machine interface
US20130332196A1 (en) 2012-06-07 2013-12-12 The Government Of The United States As Represented By The Secretary Of The Army Diabetes Monitoring Using Smart Device
US10921886B2 (en) 2012-06-14 2021-02-16 Medibotics Llc Circumferential array of electromyographic (EMG) sensors
US20150366504A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Electromyographic Clothing
US9582072B2 (en) * 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US9814426B2 (en) 2012-06-14 2017-11-14 Medibotics Llc Mobile wearable electromagnetic brain activity monitor
US9891718B2 (en) 2015-04-22 2018-02-13 Medibotics Llc Devices for measuring finger motion and recognizing hand gestures
US9536449B2 (en) 2013-05-23 2017-01-03 Medibotics Llc Smart watch and food utensil for monitoring food consumption
US8954135B2 (en) 2012-06-22 2015-02-10 Fitbit, Inc. Portable biometric monitoring devices and methods of operating same
US9615447B2 (en) 2012-07-23 2017-04-04 Zhuhai Advanced Chip Carriers & Electronic Substrate Solutions Technologies Co. Ltd. Multilayer electronic support structure with integral constructional elements
US8484022B1 (en) 2012-07-27 2013-07-09 Google Inc. Adaptive auto-encoders
EP2698686B1 (en) 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US20150182165A1 (en) 2012-08-03 2015-07-02 Neurotopia, Inc. Neurophysiological training headset
US9729687B2 (en) 2012-08-10 2017-08-08 Silverplus, Inc. Wearable communication device
TWD152714S (zh) 2012-08-15 2013-04-01 昆盈企業股份有限公司 套戴式滑鼠
US20140049417A1 (en) 2012-08-20 2014-02-20 Playtabase, LLC Wireless motion activated command transfer device, system, and method
JP5887026B2 (ja) 2012-09-03 2016-03-16 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US8895865B2 (en) 2012-09-07 2014-11-25 Conor P. Lenahan Conductive connections allowing XYZ translation
US9211417B2 (en) 2012-09-10 2015-12-15 Great Lakes Neurotechnologies Inc Movement disorder therapy system, devices and methods, and intelligent methods of tuning
US10606353B2 (en) 2012-09-14 2020-03-31 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US20170277282A1 (en) 2012-09-14 2017-09-28 Widevantage Inc. Input device for transmitting user input
US10824310B2 (en) 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
CN203252647U (zh) 2012-09-29 2013-10-30 艾利佛公司 用于判定生理特征的可佩带的设备
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
US10413251B2 (en) 2012-10-07 2019-09-17 Rhythm Diagnostic Systems, Inc. Wearable cardiac monitor
WO2014107213A2 (en) 2012-10-16 2014-07-10 The Florida International University Board Of Trustees Neural interface activity simulator
USD695454S1 (en) 2012-10-24 2013-12-10 Patricia Lynn Moore Hair holding device
KR101975090B1 (ko) 2012-10-26 2019-05-03 나이키 이노베이트 씨.브이. 심박수 정보를 이용한 운동 수행 모니터링 시스템
KR102043703B1 (ko) 2012-11-12 2019-11-12 한국전자통신연구원 신축성 박막트랜지스터의 제조방법
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9182826B2 (en) 2012-11-21 2015-11-10 Intel Corporation Gesture-augmented speech recognition
US8743052B1 (en) 2012-11-24 2014-06-03 Eric Jeffrey Keller Computing interface system
US9892655B2 (en) 2012-11-28 2018-02-13 Judy Sibille SNOW Method to provide feedback to a physical therapy patient or athlete
US9351653B1 (en) 2012-11-29 2016-05-31 Intan Technologies, LLC Multi-channel reconfigurable systems and methods for sensing biopotential signals
WO2014085910A1 (en) 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
US9042829B2 (en) 2013-01-04 2015-05-26 Nokia Corporation Method, apparatus, and computer program product for wireless short-range communication
US20140196131A1 (en) 2013-01-07 2014-07-10 Salutron, Inc. User authentication based on a wrist vein pattern
US20140198034A1 (en) 2013-01-14 2014-07-17 Thalmic Labs Inc. Muscle interface device and method for interacting with content displayed on wearable head mounted displays
US9092664B2 (en) 2013-01-14 2015-07-28 Qualcomm Incorporated Use of EMG for subtle gesture recognition on surfaces
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10610737B1 (en) 2013-01-22 2020-04-07 Bruce Scott Crawford System and method for using video-synchronized electromyography to improve neuromuscular performance of a target muscle
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US9211073B2 (en) 2013-02-20 2015-12-15 Tosense, Inc. Necklace-shaped physiological monitor
WO2014130871A1 (en) 2013-02-22 2014-08-28 Thalmic Labs Inc. Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
US20140245200A1 (en) 2013-02-25 2014-08-28 Leap Motion, Inc. Display control with gesture-selectable control paradigms
US20140249397A1 (en) 2013-03-01 2014-09-04 Thalmic Labs Inc. Differential non-contact biopotential sensor
US20140257141A1 (en) 2013-03-05 2014-09-11 Great Lakes Neurotechnologies Inc. Movement disorder monitoring and symptom quantification system and method
US20150182113A1 (en) 2013-12-31 2015-07-02 Aliphcom Real-time fatigue, personal effectiveness, injury risk device(s)
US20140334653A1 (en) 2013-03-14 2014-11-13 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
US20140285326A1 (en) 2013-03-15 2014-09-25 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
US9495389B2 (en) 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
US9436287B2 (en) 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US9146730B2 (en) 2013-03-15 2015-09-29 Netgear, Inc. System and method for remotely updating cable modem software
US9766709B2 (en) 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US9361411B2 (en) 2013-03-15 2016-06-07 Honeywell International, Inc. System and method for selecting a respirator
US20140277622A1 (en) 2013-03-15 2014-09-18 First Principles, Inc. System and method for bio-signal control of an electronic device
JP5900393B2 (ja) 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
IN2013MU01148A (ja) 2013-03-26 2015-04-24 Tata Consultancy Services Ltd
US20140299362A1 (en) 2013-04-04 2014-10-09 Electronics And Telecommunications Research Institute Stretchable electric device and manufacturing method thereof
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9717440B2 (en) 2013-05-03 2017-08-01 The Florida International University Board Of Trustees Systems and methods for decoding intended motor commands from recorded neural signals for the control of external devices or to interact in virtual environments
KR102043200B1 (ko) 2013-05-07 2019-11-11 엘지전자 주식회사 스마트 워치 및 제어 방법
US9582317B2 (en) 2013-05-10 2017-02-28 Samsung Electronics Co., Ltd. Method of using use log of portable terminal and apparatus using the same
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US9706647B2 (en) 2013-05-14 2017-07-11 Mc10, Inc. Conformal electronics including nested serpentine interconnects
US10314506B2 (en) 2013-05-15 2019-06-11 Polar Electro Oy Heart activity sensor structure
USD750623S1 (en) 2013-05-16 2016-03-01 Samsung Electronics Co., Ltd. Smart watch
USD741855S1 (en) 2013-05-16 2015-10-27 Samsung Electronics Co., Ltd. Smart watch
US10620775B2 (en) 2013-05-17 2020-04-14 Ultrahaptics IP Two Limited Dynamic interactive objects
US9395810B2 (en) 2013-05-28 2016-07-19 The Boeing Company Ubiquitous natural user system
US9904356B2 (en) 2013-05-28 2018-02-27 The Boeing Company Tracking a user to support tasks performed on complex-system components
US9645652B2 (en) 2013-05-28 2017-05-09 The Boeing Company Ubiquitous natural user system for human-machine interaction
US9218574B2 (en) 2013-05-29 2015-12-22 Purepredictive, Inc. User interface for machine learning
US10843332B2 (en) 2013-05-31 2020-11-24 President And Fellow Of Harvard College Soft exosuit for assistance with human motion
KR101933921B1 (ko) 2013-06-03 2018-12-31 삼성전자주식회사 포즈 추정 방법 및 장치
US9383819B2 (en) 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
US20160113587A1 (en) 2013-06-03 2016-04-28 The Regents Of The University Of California Artifact removal techniques with signal reconstruction
US20150019135A1 (en) 2013-06-03 2015-01-15 Mc10, Inc. Motion sensor and analysis
US11083402B2 (en) 2013-06-04 2021-08-10 Medtronic, Inc. Patient state determination based on one or more spectral characteristics of a bioelectrical brain signal
WO2014197822A2 (en) 2013-06-06 2014-12-11 Tricord Holdings, L.L.C. Modular physiologic monitoring systems, kits, and methods
KR101501661B1 (ko) 2013-06-10 2015-03-12 한국과학기술연구원 착용형 근전도 센서 시스템
WO2014204330A1 (en) 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
KR102170321B1 (ko) 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
KR102131358B1 (ko) 2013-06-17 2020-07-07 삼성전자주식회사 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법
US20140376773A1 (en) 2013-06-21 2014-12-25 Leap Motion, Inc. Tunable operational parameters in motion-capture and touchless interface operation
WO2014205434A2 (en) 2013-06-21 2014-12-24 Mc10, Inc. Band with conformable electronics
US10402517B2 (en) 2013-06-26 2019-09-03 Dassault Systémes Simulia Corp. Musculo-skeletal modeling using finite element analysis, process integration, and design optimization
US9146618B2 (en) 2013-06-28 2015-09-29 Google Inc. Unlocking a head mounted device
US10295338B2 (en) 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US9408316B2 (en) 2013-07-22 2016-08-02 Thalmic Labs Inc. Systems, articles and methods for strain mitigation in wearable electronic devices
US20150029092A1 (en) 2013-07-23 2015-01-29 Leap Motion, Inc. Systems and methods of interpreting complex gestures
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US20150057770A1 (en) 2013-08-23 2015-02-26 Thaimic Labs Inc. Systems, articles, and methods for human-electronics interfaces
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
KR102263496B1 (ko) 2013-09-04 2021-06-10 에씰로 앙터나시오날 시스루 헤드 장착형 장치에 기초한 내비게이션 방법
WO2015033737A1 (ja) 2013-09-06 2015-03-12 株式会社村田製作所 多層基板
US9372535B2 (en) 2013-09-06 2016-06-21 Thalmic Labs Inc. Systems, articles, and methods for electromyography-based human-electronics interfaces
US9483123B2 (en) 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
CN109875501B (zh) 2013-09-25 2022-06-07 曼德美姿集团股份公司 生理参数测量和反馈系统
US10048761B2 (en) 2013-09-30 2018-08-14 Qualcomm Incorporated Classification of gesture detection systems through use of known and yet to be worn sensors
US10405786B2 (en) 2013-10-09 2019-09-10 Nedim T. SAHIN Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
KR101860654B1 (ko) 2013-10-14 2018-05-23 나이키 이노베이트 씨.브이. 운동 움직임 속성으로부터의 페이스 및 에너지 지출의 계산
US9389694B2 (en) 2013-10-22 2016-07-12 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
CN103777752A (zh) 2013-11-02 2014-05-07 上海威璞电子科技有限公司 基于手臂肌肉电流检测和运动传感器的手势识别设备
GB2519987B (en) 2013-11-04 2021-03-03 Imperial College Innovations Ltd Biomechanical activity monitoring
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
US10676083B1 (en) 2013-11-13 2020-06-09 Hrl Laboratories, Llc System and method for prediction of occupant motor response in accidents
WO2015073713A1 (en) 2013-11-13 2015-05-21 Hrl Laboratories, Llc System for controlling brain machine interfaces and neural prosthetic systems
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US20150157944A1 (en) 2013-12-06 2015-06-11 Glenn I. Gottlieb Software Application for Generating a Virtual Simulation for a Sport-Related Activity
US9367086B2 (en) 2013-12-10 2016-06-14 Atmel Corporation Smart watch with adaptive touch screen
US9367139B2 (en) 2013-12-12 2016-06-14 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
US9971412B2 (en) 2013-12-20 2018-05-15 Lenovo (Singapore) Pte. Ltd. Enabling device features according to gesture input
WO2015100172A1 (en) 2013-12-27 2015-07-02 Kopin Corporation Text editing with gesture control and natural speech
USD751065S1 (en) 2013-12-28 2016-03-08 Intel Corporation Wearable computing device
KR20150077684A (ko) 2013-12-30 2015-07-08 삼성전자주식회사 생체 신호 기반 기능 운용 방법 및 이를 지원하는 전자 장치
US20150182130A1 (en) 2013-12-31 2015-07-02 Aliphcom True resting heart rate
US9659403B1 (en) 2014-01-06 2017-05-23 Leap Motion, Inc. Initializing orientation in space for predictive information for free space gesture control and communication
US9600925B2 (en) 2014-01-06 2017-03-21 Oculus Vr, Llc Calibration of multiple rigid bodies in a virtual reality system
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9600030B2 (en) 2014-02-14 2017-03-21 Thalmic Labs Inc. Systems, articles, and methods for elastic electrical cables and wearable electronic devices employing same
TWI596994B (zh) 2014-02-20 2017-08-21 Tear-resistant structure of the flexible circuit board
US20150242009A1 (en) 2014-02-26 2015-08-27 Qeexo, Co. Using Capacitive Images for Touch Type Classification
WO2015131157A1 (en) 2014-02-28 2015-09-03 Vikas Gupta Gesture operated wrist mounted camera system
USD751068S1 (en) 2014-03-07 2016-03-08 Sony Mobile Communications Ab Display portion of watch shaped communications equipment
US10613642B2 (en) 2014-03-12 2020-04-07 Microsoft Technology Licensing, Llc Gesture parameter tuning
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
US20150261306A1 (en) 2014-03-17 2015-09-17 Thalmic Labs Inc. Systems, devices, and methods for selecting between multiple wireless connections
USD736664S1 (en) 2014-03-18 2015-08-18 Google Technology Holdings LLC Wrist band for an electronic device
US10520378B1 (en) 2014-03-20 2019-12-31 Invent.Ly, Llc Wearable user input device and sensors system to detect injury
US10327670B2 (en) 2014-03-26 2019-06-25 GestureLogic Inc. Systems, methods and devices for exercise and activity metric computation
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US10409382B2 (en) 2014-04-03 2019-09-10 Honda Motor Co., Ltd. Smart tutorial for gesture control system
TWD165563S (zh) 2014-04-08 2015-01-21 緯創資通股份有限公司 穿戴式電子裝置之部分
US20150296553A1 (en) 2014-04-11 2015-10-15 Thalmic Labs Inc. Systems, devices, and methods that establish proximity-based wireless connections
US9149938B1 (en) 2014-04-11 2015-10-06 Harris Corporation Robotic exoskeleton with adaptive viscous user coupling
US9858391B2 (en) 2014-04-17 2018-01-02 The Boeing Company Method and system for tuning a musculoskeletal model
US9402582B1 (en) 2014-04-21 2016-08-02 Verily Life Sciences Llc Smart surgical glove
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
WO2015164951A1 (en) 2014-05-01 2015-11-05 Abbas Mohamad Methods and systems relating to personalized evolving avatars
US20150323998A1 (en) 2014-05-06 2015-11-12 Qualcomm Incorporated Enhanced user interface for a wearable electronic device
US20150325202A1 (en) 2014-05-07 2015-11-12 Thalmic Labs Inc. Systems, devices, and methods for wearable computers with heads-up displays
EP3143702B1 (en) 2014-05-12 2021-07-07 CommScope Technologies LLC Remote radio heads having wireless jumper connections and related equipment, systems and methods
US9785247B1 (en) 2014-05-14 2017-10-10 Leap Motion, Inc. Systems and methods of tracking moving hands and recognizing gestural interactions
KR101666399B1 (ko) 2014-05-15 2016-10-14 한국과학기술연구원 다중 채널 표면 근전도에서의 신체 관절 운동학 정보 추출 방법, 이를 수행하기 위한 기록 매체 및 장치
USD717685S1 (en) 2014-05-15 2014-11-18 Thalmic Labs Inc. Expandable armband
USD756359S1 (en) 2014-05-15 2016-05-17 Thalmic Labs Inc. Expandable armband device
US9741169B1 (en) 2014-05-20 2017-08-22 Leap Motion, Inc. Wearable augmented reality devices with object detection and tracking
US10782657B2 (en) 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
CN105320248B (zh) 2014-06-03 2018-12-07 深圳Tcl新技术有限公司 空中手势输入方法及装置
US9977505B2 (en) 2014-06-06 2018-05-22 International Business Machines Corporation Controlling inadvertent inputs to a mobile device
US9329694B2 (en) 2014-06-06 2016-05-03 Google Technology Holdings LLC Preemptive machine learning-based gesture recognition
KR102204919B1 (ko) 2014-06-14 2021-01-18 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
JP6362444B2 (ja) 2014-06-16 2018-07-25 日本メクトロン株式会社 フレキシブルプリント基板およびフレキシブルプリント基板の製造方法
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US10216274B2 (en) 2014-06-23 2019-02-26 North Inc. Systems, articles, and methods for wearable human-electronics interface devices
WO2015199747A1 (en) 2014-06-23 2015-12-30 Thalmic Labs Inc. Systems, articles, and methods for wearable human-electronics interface devices
US20150379770A1 (en) 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
US9552069B2 (en) 2014-07-11 2017-01-24 Microsoft Technology Licensing, Llc 3D gesture recognition
US10298825B2 (en) 2014-07-23 2019-05-21 Orcam Technologies Ltd. Systems and methods for remembering held items and finding lost items using wearable camera systems
US9734704B2 (en) 2014-08-12 2017-08-15 Dominick S. LEE Wireless gauntlet for electronic control
US20160050037A1 (en) 2014-08-12 2016-02-18 Valcom, Inc. Emergency alert notification device, system, and method
US20160071319A1 (en) 2014-09-09 2016-03-10 Schneider Electric It Corporation Method to use augumented reality to function as hmi display
WO2016041088A1 (en) 2014-09-19 2016-03-24 Sulon Technologies Inc. System and method for tracking wearable peripherals in augmented reality and virtual reality applications
US9864460B2 (en) 2014-09-26 2018-01-09 Sensel, Inc. Systems and methods for manipulating a virtual environment
US9811555B2 (en) 2014-09-27 2017-11-07 Intel Corporation Recognition of free-form gestures from orientation tracking of a handheld or wearable device
US10783900B2 (en) 2014-10-03 2020-09-22 Google Llc Convolutional, long short-term memory, fully connected deep neural networks
CN105573536B (zh) 2014-10-16 2018-09-07 华为技术有限公司 触控交互的处理方法、装置和系统
WO2016065020A2 (en) 2014-10-21 2016-04-28 Robert Bosch Gmbh Method and system for automation of response selection and composition in dialog systems
WO2016076376A1 (ja) 2014-11-12 2016-05-19 京セラ株式会社 ウェアラブル装置
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
KR20160071732A (ko) 2014-12-12 2016-06-22 삼성전자주식회사 음성 입력을 처리하는 방법 및 장치
WO2016100368A1 (en) 2014-12-16 2016-06-23 Somatix, Inc. Methods and systems for monitoring and influencing gesture-based behaviors
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
US9612661B2 (en) 2015-01-02 2017-04-04 Wearable Devices Ltd. Closed loop feedback interface for wearable devices
US9720515B2 (en) * 2015-01-02 2017-08-01 Wearable Devices Ltd. Method and apparatus for a gesture controlled interface for wearable devices
US11119565B2 (en) 2015-01-19 2021-09-14 Samsung Electronics Company, Ltd. Optical detection and analysis of bone
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10606341B2 (en) 2015-02-22 2020-03-31 Technion Research & Development Foundation Limited Gesture recognition using multi-sensory data
WO2016140908A1 (en) 2015-03-02 2016-09-09 Tap Systems Inc. Arbitrary surface and finger position keyboard
EP3064130A1 (en) 2015-03-02 2016-09-07 MindMaze SA Brain activity measurement and feedback system
US10124210B2 (en) 2015-03-13 2018-11-13 KO Luxembourg SARL Systems and methods for qualitative assessment of sports performance
GB201504362D0 (en) 2015-03-16 2015-04-29 Elliptic Laboratories As Touchless user interfaces for electronic devices
US20160274758A1 (en) 2015-03-20 2016-09-22 Thalmic Labs Inc. Systems, devices, and methods for mitigating false positives in human-electronics interfaces
US20160282947A1 (en) 2015-03-26 2016-09-29 Lenovo (Singapore) Pte. Ltd. Controlling a wearable device using gestures
KR101927323B1 (ko) 2015-04-03 2018-12-10 엘지전자 주식회사 이동단말기 및 그 제어방법
US10432842B2 (en) 2015-04-06 2019-10-01 The Texas A&M University System Fusion of inertial and depth sensors for movement measurements and recognition
US20170095178A1 (en) 2015-04-09 2017-04-06 Marco Schoen EMG Home Trainer
US20180107275A1 (en) 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions
WO2016168117A2 (en) 2015-04-14 2016-10-20 John James Daniels Wearable electric, multi-sensory, human/machine, human/human interfaces
US20160309249A1 (en) 2015-04-16 2016-10-20 Hong Fu Jin Precision Industry (Wuhan) Co., Ltd. Wearable electronic device
KR102063895B1 (ko) 2015-04-20 2020-01-08 삼성전자주식회사 서버, 사용자 단말 장치 및 그 제어 방법
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
US9972133B2 (en) 2015-04-24 2018-05-15 Jpw Industries Inc. Wearable display for use with tool
US10175492B2 (en) 2015-04-24 2019-01-08 Eon Reality, Inc. Systems and methods for transition between augmented reality and virtual reality
GB2537899B (en) 2015-04-30 2018-02-21 Hy5Pro As Control of digits for artificial hand
US9654477B1 (en) 2015-05-05 2017-05-16 Wells Fargo Bank, N. A. Adaptive authentication
US9740310B2 (en) 2015-05-22 2017-08-22 Adobe Systems Incorporated Intuitive control of pressure-sensitive stroke attributes
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
EP3954430B1 (en) 2015-06-02 2024-01-31 Battelle Memorial Institute Non-invasive motor impairment rehabilitation system
US10765859B2 (en) * 2015-06-02 2020-09-08 Battelle Memorial Institute Neural sleeve for neuromuscular stimulation, sensing and recording
EP4442202A2 (en) 2015-06-02 2024-10-09 Battelle Memorial Institute Systems and methods for neural bridging of the nervous system
US10813559B2 (en) 2015-06-14 2020-10-27 Facense Ltd. Detecting respiratory tract infection based on changes in coughing sounds
WO2016210441A1 (en) 2015-06-26 2016-12-29 Carnegie Mellon University System for wearable, low-cost electrical impedance tomography for non-invasive gesture recognition
US9240069B1 (en) 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
WO2017007518A1 (en) 2015-07-07 2017-01-12 Obma Padraic R Noninvasive medical monitoring device, system and method
KR101626748B1 (ko) 2015-08-03 2016-06-14 숭실대학교산학협력단 뇌파와 근전도를 이용한 움직임 패턴 측정 장치 및 그 방법
US10854104B2 (en) 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
US10387034B2 (en) 2015-09-03 2019-08-20 Microsoft Technology Licensing, Llc Modifying captured stroke information into an actionable form
US10348355B2 (en) 2015-09-16 2019-07-09 Intel Corporation Techniques for gesture recognition using photoplethysmographic (PPMG) sensor and low-power wearable gesture recognition device using the same
US20170079828A1 (en) 2015-09-22 2017-03-23 Lim Innovations, Inc. Scoliosis treatment system and method
US9824287B2 (en) 2015-09-29 2017-11-21 Huami Inc. Method, apparatus and system for biometric identification
US11026628B1 (en) 2015-09-30 2021-06-08 Apple Inc. Systems and methods of spatial filtering for measuring electrical signals
US10459537B2 (en) 2015-09-30 2019-10-29 Stmicroelectronics, Inc. Encapsulated pressure sensor
US11389083B2 (en) 2015-10-06 2022-07-19 University of Pittsburgh—of the Commonwealth System of Higher Education Method, device and system for sensing neuromuscular, physiological, biomechanical, and musculoskeletal activity
US9881273B2 (en) 2015-10-28 2018-01-30 Disney Interprises, Inc. Automatic object detection and state estimation via electronic emissions sensing
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10595941B2 (en) 2015-10-30 2020-03-24 Orthosensor Inc. Spine measurement system and method therefor
US10552752B2 (en) 2015-11-02 2020-02-04 Microsoft Technology Licensing, Llc Predictive controller for applications
GB201520367D0 (en) 2015-11-19 2016-01-06 Bespoke Vr Ltd Editing interactive motion capture data for creating the interaction characteristics of non player characters
KR102570068B1 (ko) 2015-11-20 2023-08-23 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
KR101739656B1 (ko) 2015-11-23 2017-05-24 이경호 핸디형 유방암 검진기
US10776712B2 (en) 2015-12-02 2020-09-15 Preferred Networks, Inc. Generative machine learning systems for drug design
CN105511615B (zh) 2015-12-04 2019-03-05 深圳大学 基于emg的可穿戴式文本输入系统及方法
US20170188980A1 (en) 2016-01-06 2017-07-06 Empire Technology Development Llc Wearable sensor based body modeling
WO2017120669A1 (en) 2016-01-12 2017-07-20 Bigmotion Technologies Inc. Systems and methods for human body motion capture
US10973422B2 (en) 2016-01-22 2021-04-13 Fitbit, Inc. Photoplethysmography-based pulse wave analysis using a wearable device
KR102619981B1 (ko) 2016-02-02 2024-01-02 삼성전자주식회사 근전도 신호를 이용한 동작 분류 방법 및 장치
KR102576908B1 (ko) 2016-02-16 2023-09-12 삼성전자주식회사 동적 파노라마 기능을 제공하는 방법 및 장치
WO2017143303A1 (en) 2016-02-17 2017-08-24 Meta Company Apparatuses, methods and systems for sharing virtual elements
US20170259167A1 (en) 2016-03-14 2017-09-14 Nathan Sterling Cook Brainwave virtual reality apparatus and method
KR102158743B1 (ko) 2016-03-15 2020-09-22 한국전자통신연구원 자연어 음성인식의 성능향상을 위한 데이터 증강장치 및 방법
US9864434B2 (en) 2016-03-30 2018-01-09 Huami Inc. Gesture control of interactive events using multiple wearable devices
US10338686B2 (en) 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
EP3436902A4 (en) 2016-03-31 2019-11-27 Sensel Inc. HUMAN-COMPUTER INTERFACE SYSTEM
US10503253B2 (en) 2016-03-31 2019-12-10 Intel Corporation Sensor signal processing to determine finger and/or hand position
US10852835B2 (en) 2016-04-15 2020-12-01 Board Of Regents, The University Of Texas System Systems, apparatuses and methods for controlling prosthetic devices by gestures and other modalities
KR102629723B1 (ko) 2016-04-19 2024-01-30 스카이워크스 솔루션즈, 인코포레이티드 무선 주파수 모듈의 선택적 차폐
US10046229B2 (en) 2016-05-02 2018-08-14 Bao Tran Smart device
US9864431B2 (en) 2016-05-11 2018-01-09 Microsoft Technology Licensing, Llc Changing an application state using neurological data
US10203751B2 (en) 2016-05-11 2019-02-12 Microsoft Technology Licensing, Llc Continuous motion controls operable using neurological data
US10555865B2 (en) 2016-05-25 2020-02-11 Carnegie Mellon University Torque control methods for an exoskeleton device
EP3463550B1 (en) 2016-05-31 2024-03-27 Lab Schöpfergeist AG Nerve stimulation apparatus and method
US10426371B2 (en) 2016-06-07 2019-10-01 Smk Corporation Muscle condition measurement sheet
KR101790147B1 (ko) 2016-06-22 2017-10-25 재단법인 실감교류인체감응솔루션연구단 가상 객체 조작 시스템 및 방법
CN109640820A (zh) 2016-07-01 2019-04-16 立芙公司 由具有多个传感器的服装进行的生物特征识别
US10943398B2 (en) 2016-07-15 2021-03-09 Samsung Electronics Co., Ltd. Augmented reality device and operation thereof
US10433052B2 (en) 2016-07-16 2019-10-01 Ron Zass System and method for identifying speech prosody
KR102655669B1 (ko) 2016-07-20 2024-04-05 삼성전자주식회사 생체신호의 특징 추출 장치 및 방법과, 생체정보 검출 장치
WO2018017399A1 (en) 2016-07-20 2018-01-25 Usens, Inc. Method and system for 3d hand skeleton tracking
WO2018022597A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US11337652B2 (en) 2016-07-25 2022-05-24 Facebook Technologies, Llc System and method for measuring the movements of articulated rigid bodies
CN110312471B (zh) 2016-07-25 2022-04-29 脸谱科技有限责任公司 从神经肌肉活动测量中导出控制信号的自适应系统
US20180088675A1 (en) 2016-09-29 2018-03-29 Brian K. Vogel Coordinate system for gesture control
US10765363B2 (en) 2016-09-30 2020-09-08 Cognionics, Inc. Headgear for dry electroencephalogram sensors
US20180095542A1 (en) 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Object Holder for Virtual Reality Interaction
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10162422B2 (en) 2016-10-10 2018-12-25 Deere & Company Control of machines through detection of gestures by optical and muscle sensors
WO2018094011A1 (en) 2016-11-16 2018-05-24 Lumo Bodytech, Inc. System and method for personalized exercise training and coaching
WO2018098046A2 (en) 2016-11-25 2018-05-31 Kinaptic, LLC Haptic human machine interface and wearable electronics methods and apparatus
CN109804331B (zh) 2016-12-02 2021-06-22 皮松科技股份有限公司 检测和使用身体组织电信号
US10646139B2 (en) 2016-12-05 2020-05-12 Intel Corporation Body movement tracking
US10736564B2 (en) 2016-12-16 2020-08-11 Elwha Llc System and method for enhancing learning of a motor task
US20190025919A1 (en) 2017-01-19 2019-01-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in an augmented reality system
US10488510B2 (en) 2017-02-02 2019-11-26 Leah La Salla Predictive probable cause system and unmanned vehicles using the same
US10854194B2 (en) 2017-02-10 2020-12-01 Johnson Controls Technology Company Building system with digital twin based data ingestion and processing
GB2561537B (en) 2017-02-27 2022-10-12 Emteq Ltd Optical expression detection
US20180247443A1 (en) 2017-02-28 2018-08-30 International Business Machines Corporation Emotional analysis and depiction in virtual reality
EP3609402A4 (en) 2017-04-14 2020-12-16 Rehabilitation Institute Of Chicago D/B/A Shirley PROSTHETIC VIRTUAL REALITY LEARNING INTERFACE AND RELATED PROCESSES
US10874309B2 (en) 2017-05-01 2020-12-29 Samsung Electronics Company, Ltd. Determining emotions using camera-based sensing
GB201709227D0 (en) 2017-06-09 2017-07-26 Microsoft Technology Licensing Llc A wearable device
US11259746B2 (en) 2017-07-10 2022-03-01 General Electric Company Method and system for neuromuscular transmission measurement
US20190025906A1 (en) 2017-07-21 2019-01-24 Pearson Education, Inc. Systems and methods for virtual reality-based assessment
US10481699B2 (en) 2017-07-27 2019-11-19 Facebook Technologies, Llc Armband for tracking hand motion using electrical impedance measurement
WO2019024051A1 (en) 2017-08-03 2019-02-07 Intel Corporation HAPTIC GLOVES FOR VIRTUAL REALITY SYSTEMS AND METHODS OF CONTROLLING THEM
US11561806B2 (en) * 2017-08-04 2023-01-24 Hannes Bendfeldt Adaptive interface for screen-based interactions
KR102408359B1 (ko) 2017-08-23 2022-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
RU2678494C1 (ru) 2017-08-24 2019-01-29 Самсунг Электроникс Ко., Лтд. Устройство и способ для биометрической идентификации пользователя с использованием рч (радиочастотного) радара
US11762474B2 (en) * 2017-09-06 2023-09-19 Georgia Tech Research Corporation Systems, methods and devices for gesture recognition
WO2019050651A1 (en) 2017-09-08 2019-03-14 Intel Corporation LOW NOISE FRONTAL APPLICATION FOR CARDIAC FREQUENCY MONITOR USING PHOTOPLETHYSMOGRAPHY
US20190076716A1 (en) 2017-09-12 2019-03-14 Intel Corporation Activity training system
KR102434402B1 (ko) 2017-09-19 2022-08-22 한국전자통신연구원 혼합현실 콘텐츠를 제공하는 장치 및 방법
WO2019079757A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US10606620B2 (en) 2017-11-16 2020-03-31 International Business Machines Corporation Notification interaction in a touchscreen user interface
US20190150777A1 (en) 2017-11-17 2019-05-23 Ctrl-Labs Corporation Dual-supply analog circuitry for sensing surface emg signals
JP6881687B2 (ja) * 2017-12-20 2021-06-02 株式会社村田製作所 ユーザの精神/感情状態をモデリングする方法およびシステム
US10175697B1 (en) 2017-12-21 2019-01-08 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US20190192024A1 (en) * 2017-12-27 2019-06-27 X Development Llc Electroencephalogram system with reconfigurable network of redundant electrodes
US10671164B2 (en) * 2017-12-27 2020-06-02 X Development Llc Interface for electroencephalogram for computer control
US10827942B2 (en) 2018-01-03 2020-11-10 Intel Corporation Detecting fatigue based on electroencephalogram (EEG) data
CN111557034B (zh) 2018-01-09 2023-12-29 圣犹达医疗用品心脏病学部门有限公司 用于在虚拟导管上对电生理信号进行分类的系统和方法
US10729564B2 (en) 2018-01-12 2020-08-04 Ripple Llc Sensor system
US11069148B2 (en) 2018-01-25 2021-07-20 Facebook Technologies, Llc Visualization of reconstructed handstate information
US10817795B2 (en) 2018-01-25 2020-10-27 Facebook Technologies, Llc Handstate reconstruction based on multiple inputs
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
WO2019148002A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US10460455B2 (en) 2018-01-25 2019-10-29 Ctrl-Labs Corporation Real-time processing of handstate representation model estimates
CN111902077B (zh) 2018-01-25 2023-08-04 元平台技术有限公司 利用神经肌肉信号进行手部状态表示建模的校准技术
WO2019147958A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
CN112074225A (zh) 2018-01-25 2020-12-11 脸谱科技有限责任公司 用于减轻神经肌肉信号伪像的方法和装置
US20190247650A1 (en) * 2018-02-14 2019-08-15 Bao Tran Systems and methods for augmenting human muscle controls
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US10901508B2 (en) * 2018-03-20 2021-01-26 X Development Llc Fused electroencephalogram and machine learning for precognitive brain-computer interface for computer control
WO2019199924A1 (en) 2018-04-10 2019-10-17 Rhythmlink International, Llc Virtual electrode template system for neurological monitoring
US20190324549A1 (en) 2018-04-20 2019-10-24 Immersion Corporation Systems, devices, and methods for providing immersive reality interface modes
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3791387B1 (en) 2018-05-08 2023-08-30 Facebook Technologies, LLC. Systems and methods for improved speech recognition using neuromuscular information
EP3797345A4 (en) 2018-05-22 2022-03-09 Magic Leap, Inc. TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM
EP3801743B1 (en) 2018-05-25 2024-07-03 Meta Platforms Technologies, LLC Methods and apparatus for providing sub-muscular control
EP3801216A4 (en) 2018-05-29 2021-04-14 Facebook Technologies, LLC. SHIELDING TECHNIQUES FOR NOISE REDUCTION IN SURFACE ELECTROMYOGRAPHY SIGNAL MEASUREMENT AND RELATED SYSTEMS AND METHODS
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10905350B2 (en) 2018-08-31 2021-02-02 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
US11478193B2 (en) 2018-09-11 2022-10-25 Apple Inc. Contact detection for physiological sensor
CN112739254A (zh) 2018-09-20 2021-04-30 脸谱科技有限责任公司 增强现实系统的神经肌肉控制
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
CN112822992A (zh) 2018-10-05 2021-05-18 脸谱科技有限责任公司 在增强现实环境中使用神经肌肉信号来提供与物理对象的增强交互
US11457995B2 (en) 2018-12-27 2022-10-04 Biosense Webster (Israel) Ltd. Accurate balloon computation and visualization
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
TWI689859B (zh) 2019-03-19 2020-04-01 國立臺灣科技大學 由手腕偵測肌動訊號識別使用者手勢之系統及方法
KR102278069B1 (ko) 2019-10-22 2021-07-14 조선대학교산학협력단 근전도 신호 기반 사용자 인증 장치 및 인증 방법
CN113301710B (zh) 2020-02-24 2022-09-09 京东方科技集团股份有限公司 显示装置及其制备方法

Also Published As

Publication number Publication date
EP3948497A1 (en) 2022-02-09
US20200310539A1 (en) 2020-10-01
CN113646734A (zh) 2021-11-12
WO2020205767A1 (en) 2020-10-08
US11481030B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
US11481030B2 (en) Methods and apparatus for gesture detection and classification
US11493993B2 (en) Systems, methods, and interfaces for performing inputs based on neuromuscular control
US20190212822A1 (en) Methods, devices, and systems for determining contact on a user of a virtual reality and/or augmented reality device
US11331045B1 (en) Systems and methods for mitigating neuromuscular signal artifacts
CN113316754B (zh) 人工现实界面的跟踪真实世界对象模式间转换系统和方法
US11327566B2 (en) Methods and apparatuses for low latency body state prediction based on neuromuscular data
JP2024516475A (ja) リストバンドシステムのための分割アーキテクチャならびに関連するデバイスおよび方法
US11366527B1 (en) Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems
US20220236795A1 (en) Systems and methods for signaling the onset of a user's intent to interact
US11281293B1 (en) Systems and methods for improving handstate representation model estimates
EP4285206A1 (en) Systems and methods for predicting an intent to interact
US20230259207A1 (en) Apparatus, system, and method for detecting user input via hand gestures and arm movements
US20220293241A1 (en) Systems and methods for signaling cognitive-state transitions
US11789544B2 (en) Systems and methods for communicating recognition-model uncertainty to users
US11579704B2 (en) Systems and methods for adaptive input thresholding
JP2024516755A (ja) 親指圧力感知を有するハンドヘルドコントローラ
US20240225545A9 (en) Electrode placement calibration
US20230112539A1 (en) Apparatus, system, and method for detecting user input via hand gestures and arm movements
US12093094B1 (en) Energy flow integration for a predictive virtual thermal sensor
US11399074B2 (en) Devices, systems, and methods for modifying features of applications based on predicted intentions of users
US11287885B1 (en) Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems
US11844623B1 (en) Systems and methods for tracking sleep
EP4305511A1 (en) Systems and methods for signaling cognitive-state transitions
US20240256031A1 (en) Systems and methods for gaze-assisted gesture control
CN118056176A (zh) 用于经由手部姿势和手臂运动来检测用户输入的装置、系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240813