JP2002358149A - ユーザ入力装置 - Google Patents

ユーザ入力装置

Info

Publication number
JP2002358149A
JP2002358149A JP2001167249A JP2001167249A JP2002358149A JP 2002358149 A JP2002358149 A JP 2002358149A JP 2001167249 A JP2001167249 A JP 2001167249A JP 2001167249 A JP2001167249 A JP 2001167249A JP 2002358149 A JP2002358149 A JP 2002358149A
Authority
JP
Japan
Prior art keywords
input device
user
user input
human body
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001167249A
Other languages
English (en)
Inventor
Jiyunichi Rekimoto
純一 暦本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001167249A priority Critical patent/JP2002358149A/ja
Priority to KR10-2003-7015682A priority patent/KR20040032820A/ko
Priority to US10/479,135 priority patent/US6965842B2/en
Priority to PCT/JP2002/005257 priority patent/WO2002099614A1/ja
Priority to CNB028106156A priority patent/CN1320419C/zh
Priority to EP02733252A priority patent/EP1394665A1/en
Publication of JP2002358149A publication Critical patent/JP2002358149A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】 ユーザが発現するジェスチャを認識してユー
ザ入力として取り込む。 【解決手段】 本発明に係るユーザ入力装置は、腕時計
のように構成され、ユーザは手首に装着するだけで「握
る」や「放す」などのジェスチャをシステムが認識して
コマンドとして入力することができる。さらに、腕の運
動そのものを計測する加速度センサなどを腕輪に追加す
ることによって、より複雑な指示・命令を入力できるよ
うに構成することができる。装着型コンピュータ(若し
くは、ウェアラブル・コンピュータ)のための入力装
置、あるいは、ゲーム機などにおけるコマンド入力用の
コントローラとして利用することができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ユーザがコンピュ
ータに対してコマンドやデータなどを入力するためのユ
ーザ入力装置に係り、特に、ユーザが人体の一部を用い
て入力操作を行うユーザ入力装置に関する。
【0002】更に詳しくは、本発明は、人体に装着して
用いられユーザの意思に忠実な入力操作を行うユーザ入
力装置に係り、特に、ユーザが発現するジェスチャを認
識してユーザ入力として取り込むユーザ入力装置に関す
る。
【0003】
【従来の技術】昨今の技術革新に伴い、ワークステーシ
ョン(WS)やパーソナル・コンピュータ(PC)と呼
ばれる、比較的小型且つ低価格で、高付加価値化・高機
能化された汎用タイプのコンピュータ・システムが開発
・市販され、大学その他の研究機関や企業その他のオフ
ィス、さらには一般家庭内の日常生活にも深く浸透して
いる。いまや、日常業務の大部分がコンピュータとの関
わりを持っており、多くの人々は、キーボードやマウス
を触れながら1日を過ごす。
【0004】コンピュータ・システムは、一般に、ユー
ザ入力コマンドに応答して駆動し、処理結果をディスプ
レイ・スクリーン上に表示することによって、「インタ
ラクティブ」、すなわち対話的な処理環境を提供してい
る。最近では、DOS(DiskOperating System)シェル
画面を代表とする旧来のキーボードを介したキャラクタ
・ベースのユーザ入力環境すなわち「CUI(Characte
r User Interface)」から、グラフィック・ベースのユ
ーザ入力を実現した「GUI(Graphical User Interfa
ce)」への移行が挙げられる。GUI環境下では、コン
ピュータ・システムがシミュレートされたデスクトップ
と無数のアイコンがディスプレイ・スクリーンに用意さ
れる。
【0005】GUIが提供されたデスクトップ上では、
ファイルなどのコンピュータ・システム上で取り扱われ
る全ての資源オブジェクトはアイコンとして表現されて
いる。ユーザは、ディスプレイ・スクリーン上のプログ
ラム、データ、フォルダ、デバイスなどを象徴するアイ
コンなど画面上の表示オブジェクトに対してマウスなど
のユーザ入力装置を用いて直接操作を印加する(例え
ば、クリックやドラッグ・アンド・ドロップ)ことで、直
感的に且つ判り易くコンピュータ操作を行うことができ
る。また、デスクトップ上には、メニュー・バーやツー
ル・ボックスなど、各種の機能すなわちコンピュータ処
理を瞬時に呼び出すためのボタンが用意されており、コ
ンピュータへのコマンド入力の様式はますます直感的で
分かり易いものとなってきている。
【0006】GUI環境の導入により、もはやユーザ
は、特定のコマンドの名称やコマンド操作方法等を特に
習得したり、煩雑なキー入力を行わなくとも、コンピュ
ータを充分に操作することができる。また、コンピュー
タは、ユーザの意思に忠実なユーザ入力をシステムに取
り込むことができる。
【0007】他方、日常生活において、人は自分の感情
や意思を反映させた「身振り」や「手振り」などのジェ
スチャを発現することがしばしばある。このようやジェ
スチャは、人からのメッセージの一形態であるが、外界
に対して与えるコマンドとして捉えることもできる。
【0008】例えば、腕時計などのようにユーザが違和
感なく身体に装着することができ、且つ、ユーザの「握
る」や「放す」、あるいはその他のジェスチャを認識す
ることができる入力装置があれば、ユーザはこれを装着
しておくだけで、歩き回ったりしながら各種のコマンド
を自在にコンピュータに入力することが可能となるであ
ろう。
【0009】従来、筋電位(EMG:Electromyogram)
を計測することで、筋肉の変位を認識する技術がある。
さらに、筋電位をコンピュータ入力の手段として用いる
という試みも幾つか提案されてきた。
【0010】しかしながら、人体の筋電位を計測対象と
した場合、電極をユーザの皮膚に直接接触させる必要が
あるため、ユーザに不快感や肉体的・精神的な負担を与
えてしまう。また、その測定原理から、筋肉上の離れた
位置(例えば、上腕の両端付近)に電極を装着する必要
があるが、このような場合、人体への装着が煩雑とな
り、腕時計のような自然な形態で入力装置を構成するこ
とは困難である。
【0011】
【発明が解決しようとする課題】本発明の目的は、ユー
ザが人体の一部を用いて入力操作を行うことができる、
優れたユーザ入力装置を提供することにある。
【0012】本発明の更なる目的は、人体に装着して用
いられユーザの意思に忠実な入力操作を行うことができ
る、優れたユーザ入力装置を提供することにある。
【0013】本発明の更なる目的は、ユーザが発現する
ジェスチャを認識してユーザ入力として取り込むことが
できる、優れたユーザ入力装置を提供することにある。
【0014】本発明の更なる目的は、人体への装着が煩
雑となり、腕時計のような自然な形態で構成された、優
れたユーザ入力装置を提供することにある。
【0015】
【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、人体に装着して用いられるユーザ入力装置であっ
て、複数の送信電極と、複数の受信電極と、前記の送信
電極及び受信電極を交互に人体の表面に沿って装着する
人体装着手段と、前記の各送信電極に所定周波数の波形
信号を供給する発信器と、前記の各受信電極で受信され
る波形信号を受信する受信器とを備えたユーザ入力装置
である。そして、隣接する送信電極と受信電極と人体表
面の間において、コンデンサと等価な回路が形成されて
いる。
【0016】このような構成のユーザ入力装置において
は、ユーザが発現したジェスチャにより人体表面が変形
したことに応じて、隣接する送信電極と受信電極と人体
表面の間において形成されているそれぞれのコンデンサ
の静電容量が変化する。
【0017】したがって、各送信電極と受信電極と人体
表面の間において形成されたコンデンサの静電容量が変
化することを利用して、ユーザが発現したジェスチャを
各送信電極と受信電極と人体の間で計測された多次元ベ
クトル値として計測することができる。
【0018】ユーザ入力装置は、各送信電極と受信電極
の人体表面の間で計測された多次元ベクトル値としてジ
ェスチャを登録するジェスチャ登録手段と、登録された
ジェスチャに基づいてユーザが発現するジェスチャを認
識するジェスチャ認識手段をさらに備えていてもよい。
このジェスチャ認識手段は、ユーザがジェスチャを発現
したときに計測された多次元ベクトル値を既に前記ジェ
スチャ登録手段に登録されている多次元ベクトル値と
を、距離計算などの手法により比較照合することによっ
て、ジェスチャを認識・特定することができる。
【0019】ここで、前記人体装着手段は、ユーザの手
首に装着可能な腕輪状に構成されていてもよい。このよ
うな場合には、ユーザが「握る」や「放す」、あるいは
その他のジェスチャを発現したときに、手首の表面にお
ける変形量を基にしてジェスチャを認識したり特定した
りすることができる。勿論、ユーザはこのようなユーザ
入力装置を装着しておくだけで、キーボードなどコンピ
ュータ本体から離れて歩き回ったりしながら各種のコマ
ンドを自在にコンピュータ入力することが可能となる。
【0020】また、ユーザ入力装置は、加速度センサ又
は傾斜センサなどの、人体の運動特性そのものを計測す
るセンサを搭載していてもよい。このような場合には、
「握る」や「放す」などのユーザが発現したジェスチャ
ーと、腕そのものの運動(ひねる、振る)などを同時に
計測することが可能になる。したがって、ユーザ入力装
置は、ジェスチャが示す姿勢とその運動特性とを組み合
わせた複合的なジェスチャーによって、より複雑な指令
を組み立てることができる。
【0021】あるいは、前記人体装着手段は、ユーザの
足底に倣って装着可能な靴底状に構成されていてもよ
い。このような場合には、靴の底面又は着床する路面に
沿うように送受信電極を交互に配置することで、歩行や
重心移動などを認識することができる。
【0022】あるいは、前記人体装着手段は、ユーザの
顔に装着可能なメガネのフレーム状をなしていてもよ
い。このような場合には、メガネのフレームに沿って送
受信電極を交互に配置することで、顔の変形(特に瞼や
目元の周辺からなる表情の変化)を認識することができ
る。
【0023】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
【0024】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
【0025】図1には、本発明の一実施形態に係るユー
ザ入力装置1がユーザの人体に装着されている様子を描
写している。
【0026】同図に示すように、本実施形態に係るユー
ザ入力装置1は、腕時計と同様の構造を備えている。ユ
ーザは、このようなユーザ入力装置1を、身に付けてい
ることを意識せず(又は、身に付けていることが精神的
・肉体的な苦痛となることなく)、自然に装着すること
ができる。
【0027】図示の例では、ユーザ入力装置1は、腕時
計本体と一体的に構成されており、時計部5と、この時
計部5をユーザの手首に巻設するとともに手首の動作を
計測するベルト状の計測部10とで構成される。
【0028】時計部5は、円環状にメモリが配列された
表示部と、この表示部上を時間の経過に従ってそれぞれ
の速度で回転する時針、分針、秒針とで構成される。但
し、時計機能自体は本発明の要旨とは直接関連しないの
で、ここではこれ以上説明しない。
【0029】一方、計測部10には、手首の周方向に沿
って、送信信号を送信する送信電極と、送信信号を受信
する受信電極とが、交互に配設されており、各受信電極
における受信信号の強度に基づいて、ユーザが「握る」
あるいは「放す」などのジェスチャを発現したことを認
識できるようになっている。
【0030】図2には、計測部10、並びにこの計測部
10における検出信号を処理する処理部の構成を概略的
に示している。
【0031】同図に示すように、計測部10は、手首の
周方向に沿って配設された複数の送信電極12−1,1
2−2,…と、各送信電極12−1…に送信用の所定周
波数(例えば100KHz)の交流電流を供給する発信
器11と、各送信電極12−1…の間隙に挿設されて電
極間の静電容量に応じた容量結合によって各送信電極1
2−1…からの交流電流を受信する複数の受信電極13
−1,13−2,…と、各受信電極13−1…を流れる
交流電流をAM変調やA/D変換などの信号処理を行う
受信器16とで構成される。
【0032】受信器14は、所定周波数帯域の交流電流
のみを通過させるバンド・パス・フィルタ(BPF)14
Aと、増幅器14Bと、検波器14CとからなるAM変
調器と、検波出力をデジタル形式の信号に変換するA/
D変換器14Dとで構成される。デジタル変換された検
出信号は、プロセッサ15により信号処理された後、例
えば所定のユーザ入力信号としてコンピュータ(図示し
ない)などに外部出力される。
【0033】図1及び図2に示すように、ユーザは送信
電極12及び受信電極13が交互に配置された腕輪状の
ユーザ入力装置1を手首に装着して用いる。
【0034】発信器11からは固有の周波数(例えば1
00KHz)を持つ波形信号が生成される。SW1は複
数のアナログ・スイッチで構成され、あるアナログ・ス
イッチがオン状態に切り替わると、腕輪上の該当する送
信電極12に波形信号を供給するようになっている。S
W1の各アナログ・スイッチの開閉操作はプロセッサ1
5によって所定タイミングで順次切り替え制御される。
より具体的には、ある時点では、ただ1つの送信電極1
2にのみ波形信号が流れるようにスイッチがスキャンさ
れる。
【0035】また、腕輪上には、各送信電極11−1,
11−2,…とは交互になるように、複数の受信電極1
2−1,12−2,…が配設されている。
【0036】いま、各1つの送信電極12及び受信電極
13の組み合わせに着目すると、送受信電極間ではコン
デンサと等価な回路が形成されている。したがって、発
信器11から所定周波数の波形信号を供給することによ
り送信電極12で発生された電界は、静電容量に応じた
容量結合によって、受信電極13側に受信される。
【0037】また、送信電極12と受信電極13の間に
は、図3に示すように人体(手首)が介在している。人
体は仮想的に接地されているグランドとみなされるの
で、送信電極から発生した電界によって生じる電荷の移
動は、手首経由でアースに流れるようになる。この電荷
の移動量は、電極と手首の位置関係に依存する。例え
ば、手を握る、放すなどの動作によって、手首の形状が
微妙に変化するが、このような手首の形状変化に応じ
て、送信電極12と受信電極13の間で形成されるコン
デンサの静電容量は変化する。
【0038】SW2は複数のアナログ・スイッチで構成
され、各アナログ・スイッチは、該当する受信電極13
−1,13−2,…を受信器14に接続して、その受信
信号を送信周波数と同じ値に設定されたバンドパスフィ
ルタ(BPF)14A、増幅器14B、検波器14Cを
経由してA/D変換された結果をプロセッサ15で読み
取るようになっている。
【0039】SW2を構成する各アナログ・スイッチの
開閉操作はプロセッサ15によって所定タイミングで順
次切り替え制御される。より具体的には、ある時点で
は、ただ1つの受信電極13による受信信号が受信機1
4で読み取られるようにスイッチがスキャンされる。
【0040】送信電極12−1…側のSW1と受信電極
13−1…側のSW2それぞれにおける開閉操作の組み
合わせにより、ある瞬間には1つの送信電極と1つの受
信電極の組み合わせのみが接続されている。プロセッサ
15は、これらのSW1及びSW2を所定のタイミング
で順次切り替えていくことにより、すべての送受信電極
組み合わせ(図2にし雌例では4×4=16通り)につ
いてのA/D変換された値を所定周期で得ることができ
る。この結果、ユーザ入力装置1としては、ユーザの手
首から16次元の値を時々刻々と取得することができ
る。
【0041】ユーザ入力装置1が実際にジェスチャーを
認識するには、ユーザはユーザ入力装置1を手首に装着
した状態で、まず「握る」あるいは「放す」などという
動作を何度か行い、計測された多次元ベクトルの組を記
録しておく。すなわち、今後利用していきたいジェスチ
ャを登録する作業を行う。そして、ユーザ入力時には、
ユーザ入力装置1から得られたベクトル値と、これら記
録された各ベクトル値とを比較照合して、その距離を基
に該当するジェスチャーを認識する。
【0042】図4には、ユーザ入力装置1上でジェスチ
ャを他次元ベクトルとして登録するための処理手順をフ
ローチャートの形式で示している。
【0043】この場合、ユーザは、腕時計タイプのユー
ザ入力装置1を自分の手首に装着した状態で、所望のジ
ェスチャを提示する(ステップS1)。
【0044】そして、ユーザ入力装置1側では、すべて
の送受信電極の組み合わせについて読取処理を行い、検
出された多次元ベクトル値をデータベースに記録する
(ステップS2)。データベース登録の際、当該ジェス
チャに割り当てたい意味(例えば、コンピュータに対す
るコマンドや、特定のデータ値など)を併せて記録する
ようにしてもよい。
【0045】また、図5には、ユーザ入力装置1上で入
力されたジェスチャを認識するための処理手順をフロー
チャートの形式で示している。
【0046】まず、ユーザは、ユーザ入力装置1を自分
の手に装着した状態で所望のジェスチャを発現する(ス
テップS11)。
【0047】ユーザ入力装置1側では、ユーザ入力装置
1側では、すべての送受信電極の組み合わせについて読
取処理を行う(ステップS12)。
【0048】そして、ユーザ入力装置1は、検出された
多次元ベクトル値を、既にデータベース登録された各ベ
クトル値との距離計算を行い、最短距離となるものを選
択する(ステップS13)。
【0049】算出された最短距離が所定の閾値未満であ
れば、最短距離であったベクトル値を持つジェスチャが
入力されたものとして認識する(ステップS14)。こ
のようにして得られた認識結果を、ユーザ入力として、
コンピュータなどの接続された装置に外部出力する。
【0050】また、ジェスチャに割り当てられた意味
(特定のコマンドやデータ値)がデータベース登録され
ている場合には、これをユーザ入力結果として外部出力
するようにしてもよい。
【0051】図2に示したようなユーザ入力装置1に対
して、腕輪に加速度センサや傾斜センサ等、腕の運動そ
のものを計測するセンサをさらに搭載するという実施形
態(図6を参照のこと)も相当される。
【0052】このような機器構成では、「握る」や「放
す」などのユーザが発現したジェスチャーと、腕そのも
のの運動(ひねる、振る)などを同時に計測することが
可能になる。したがって、ユーザ入力装置1は、ジェス
チャが示す姿勢とその運動特性とを組み合わせた複合的
なジェスチャーによって、より複雑な指令を組み立てる
ことができる。
【0053】ユーザ入力装置1は、例えば、「握りなが
ら腕を回転させる」というジェスチャーを、単に「握
る」というジェスチャとは区別して認識することができ
る。勿論、腕の回転させ方(回転方向や回転速度)を区
別してジェスチャを認識することも可能である。
【0054】これまでは、腕時計に類似した腕輪型に構
成されたユーザ入力装置1を例にして、本発明の実施形
態について説明してきたが、本発明の要旨はこれに限定
されるものではない。
【0055】例えば、靴の底に、底面又は路面に沿って
複数の送信電極と受信電極を交互に配置することで、上
述と同様のコンデンサにおける容量結合作用により多次
元値を計測して、歩行や重心移動などを認識するユーザ
入力装置1を構成することができる。
【0056】また、眼鏡の枠に沿って複数の送信電極と
受信電極とを交互に配置することで、上述と同様のコン
デンサにおける容量結合作用により多次元値を計測し
て、顔の変形(特に瞼や目元の周辺からなる表情の変
化)を認識するユーザ入力装置1を構成することができ
る。
【0057】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。すなわち、例示とい
う形態で本発明を開示してきたのであり、限定的に解釈
されるべきではない。本発明の要旨を判断するために
は、冒頭に記載した特許請求の範囲の欄を参酌すべきで
ある。
【0058】
【発明の効果】以上詳記したように、本発明によれば、
ユーザが人体の一部を用いて入力操作を行うことができ
る、優れたユーザ入力装置を提供することができる。
【0059】また、本発明によれば、人体に装着して用
いられユーザの意思に忠実な入力操作を行うことができ
る、優れたユーザ入力装置を提供することができる。
【0060】また、本発明によれば、ユーザが発現する
ジェスチャを認識してユーザ入力として取り込むことが
できる、優れたユーザ入力装置を提供することができ
る。
【0061】また、本発明によれば、人体への装着が煩
雑となり、腕時計のような自然な形態で構成された、優
れたユーザ入力装置を提供することができる。
【0062】本発明に係るユーザ入力装置は、例えば腕
時計のように構成されているので、ユーザは手首に装着
するだけで、「握る」や「放す」などのジェスチャをシ
ステムが認識してコマンドとして入力することができ
る。さらに、腕の運動そのものを計測するセンサ(例え
ば加速度センサ)を腕輪に追加することによって、より
複雑な指示・命令を入力できるように構成することがで
きる。
【0063】本発明に係るユーザ入力装置は、装着型コ
ンピュータ(若しくは、ウェアラブル・コンピュータ)
のための入力装置として、あるいは、ゲーム機などにお
けるコマンド入力用のコントローラとして利用すること
ができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るユーザ入力装置1が
ユーザの人体に装着されている様子を描写した図であ
る。
【図2】計測部10並びに計測部10における検出信号
を処理する処理部の構成を概略的に示した図である。
【図3】送信電極12と受信電極13の間に人体(手
首)が介在している様子を描写した図である。
【図4】ユーザ入力装置1上でジェスチャを他次元ベク
トルとして登録するための処理手順を示したフローチャ
ートである。
【図5】ユーザ入力装置1上で入力されたジェスチャを
認識するための処理手順を示したフローチャートであ
る。
【図6】ユーザ入力装置1に対して腕輪に加速度センサ
や傾斜センサ等、腕の運動そのものを計測するセンサを
さらに搭載してなる本発明の変形例を示した図である。
【符号の説明】
1…ユーザ入力装置 11…発信器 12…送信電極 13…受信電極 14…受信器 15…プロセッサ

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】人体に装着して用いられるユーザ入力装置
    であって、 複数の送信電極と、 複数の受信電極と、 前記の送信電極及び受信電極を交互に人体の表面に沿っ
    て装着する人体装着手段と、 前記の各送信電極に所定周波数の波形信号を供給する発
    信器と、 前記の各受信電極で受信される波形信号を受信する受信
    器とを備え、 各送信電極と受信電極と人体表面の間においてコンデン
    サと等価な回路が形成されている、ことを特徴とするユ
    ーザ入力装置。
  2. 【請求項2】ユーザが発現したジェスチャにより人体表
    面が変形したことに応じて各送信電極と受信電極と人体
    表面の間において形成されたコンデンサの静電容量が変
    化する、ことを特徴とする請求項1に記載のユーザ入力
    装置。
  3. 【請求項3】各送信電極と受信電極と人体表面の間にお
    いて形成されたコンデンサの静電容量が変化することを
    利用して、ユーザが発現したジェスチャを各送信電極と
    受信電極と人体の間で計測された多次元ベクトル値とし
    て計測する計測手段をさらに備える、ことを特徴とする
    請求項1に記載のユーザ入力装置。
  4. 【請求項4】各送信電極と受信電極の間で計測された多
    次元ベクトル値としてジェスチャを登録するジェスチャ
    登録手段と、 ユーザがジェスチャを発現したときに計測された多次元
    ベクトル値を既に前記ジェスチャ登録手段に登録されて
    いる多次元ベクトル値と比較照合することによって、ジ
    ェスチャを認識するジェスチャ認識手段と、をさらに備
    えることを特徴とする請求項1に記載のユーザ入力装
    置。
  5. 【請求項5】前記人体装着手段は、ユーザの手首に装着
    可能な腕輪状をなす、ことを特徴とする請求項1に記載
    のユーザ入力装置。
  6. 【請求項6】さらに加速度センサ又は傾斜センサなどの
    人体の運動特性そのものを計測するセンサを搭載する、
    ことを特徴とする請求項1に記載のユーザ入力装置。
  7. 【請求項7】前記人体装着手段は、ユーザの足底に倣っ
    て装着可能な靴底状をなす、ことを特徴とする請求項1
    に記載のユーザ入力装置。
  8. 【請求項8】前記人体装着手段は、ユーザの顔に装着可
    能なメガネのフレーム状をなす、ことを特徴とする請求
    項1に記載のユーザ入力装置。
JP2001167249A 2001-06-01 2001-06-01 ユーザ入力装置 Pending JP2002358149A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2001167249A JP2002358149A (ja) 2001-06-01 2001-06-01 ユーザ入力装置
KR10-2003-7015682A KR20040032820A (ko) 2001-06-01 2002-05-30 사용자 입력 장치
US10/479,135 US6965842B2 (en) 2001-06-01 2002-05-30 User input apparatus
PCT/JP2002/005257 WO2002099614A1 (en) 2001-06-01 2002-05-30 User input apparatus
CNB028106156A CN1320419C (zh) 2001-06-01 2002-05-30 用户输入装置
EP02733252A EP1394665A1 (en) 2001-06-01 2002-05-30 User input apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001167249A JP2002358149A (ja) 2001-06-01 2001-06-01 ユーザ入力装置

Publications (1)

Publication Number Publication Date
JP2002358149A true JP2002358149A (ja) 2002-12-13

Family

ID=19009662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001167249A Pending JP2002358149A (ja) 2001-06-01 2001-06-01 ユーザ入力装置

Country Status (6)

Country Link
US (1) US6965842B2 (ja)
EP (1) EP1394665A1 (ja)
JP (1) JP2002358149A (ja)
KR (1) KR20040032820A (ja)
CN (1) CN1320419C (ja)
WO (1) WO2002099614A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1585014A2 (en) 2004-04-05 2005-10-12 Sony Corporation Electronic apparatus, input device, and input method
WO2006068357A1 (en) * 2004-12-20 2006-06-29 Electronics And Telecommunications Research Institute System for wearable general-purpose 3-dimensional input
JP2008197801A (ja) * 2007-02-09 2008-08-28 Ntt Docomo Inc 装着型情報入力装置
JP2009237792A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp コンテンツ処理装置および方法
JP2011507129A (ja) * 2007-12-17 2011-03-03 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー ユーザ定義制御デバイスのための動的三次元オブジェクトマッピング
JP2011253560A (ja) * 2011-08-18 2011-12-15 Ntt Docomo Inc 装着型情報入力装置
JP2014505955A (ja) * 2011-02-21 2014-03-06 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャ認識システム
EP2816450A1 (en) 2013-06-21 2014-12-24 Casio Computer Co., Ltd. Information processing apparatus, and information processing method
JP2015008443A (ja) * 2013-06-26 2015-01-15 セイコーエプソン株式会社 入力装置、情報処理装置および入力方法
US9195303B2 (en) 2010-03-15 2015-11-24 Nec Corporation Input device, method and medium
JP2016507099A (ja) * 2013-01-14 2016-03-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated 頭部装着型ディスプレイにおいて物理的握手を活用すること
WO2016076376A1 (ja) * 2014-11-12 2016-05-19 京セラ株式会社 ウェアラブル装置
US9377850B2 (en) 2010-03-15 2016-06-28 Nec Corporation Input device, input method and medium
JP2016533577A (ja) * 2013-08-23 2016-10-27 華為技術有限公司Huawei Technologies Co.,Ltd. リモコン装置、情報処理方法およびシステム
KR20160133414A (ko) 2014-03-18 2016-11-22 소니 주식회사 정보 처리 장치, 제어 방법 및 프로그램
JP2017068572A (ja) * 2015-09-30 2017-04-06 京セラ株式会社 ウェアラブル装置
JP2017068446A (ja) * 2015-09-29 2017-04-06 レノボ・シンガポール・プライベート・リミテッド 携帯情報端末、情報処理方法、及び、プログラム
JP2017509935A (ja) * 2013-12-28 2017-04-06 インテル・コーポレーション 無線通信用の抽象化されたパターンメッセージングウェアラブル電子デバイス
JP2017530443A (ja) * 2014-08-18 2017-10-12 ソニー株式会社 超音波を用いたモーダルボディタッチ
JP6235161B1 (ja) * 2016-02-26 2017-11-22 株式会社blincam 信号出力装置および撮像装置
US9958902B2 (en) 2010-03-15 2018-05-01 Nec Corporation Input device, input method, and program
JP2018116730A (ja) * 2013-10-14 2018-07-26 ノキア テクノロジーズ オサケユイチア 偏位平面手首入力
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
JP2020168385A (ja) * 2007-05-29 2020-10-15 シーエフピーエイチ, エル.エル.シー. 手のモーションコントロールを有するゲーム

Families Citing this family (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7565295B1 (en) 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
JP2008502073A (ja) * 2004-06-10 2008-01-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 制御可能な装置を制御するために生物の部位のインピーダンスを用いて制御信号を生成する方法及び装置
DE502004009753D1 (de) * 2004-06-17 2009-08-27 Swisscom Ag System und Verfahren zur körpergesteuerten Eingabe von Datenelementen
US7513019B2 (en) * 2005-01-05 2009-04-07 Microsoft Corporation Fastening mechanisms maintaining electrical connections among fastened components
US20060154707A1 (en) * 2005-01-07 2006-07-13 Microsoft Corporation Non-interfering wireless communication device fastener
US20070189544A1 (en) 2005-01-15 2007-08-16 Outland Research, Llc Ambient sound responsive media player
US8659546B2 (en) 2005-04-21 2014-02-25 Oracle America, Inc. Method and apparatus for transferring digital content
US7519537B2 (en) * 2005-07-19 2009-04-14 Outland Research, Llc Method and apparatus for a verbo-manual gesture interface
GB0515796D0 (en) * 2005-07-30 2005-09-07 Mccarthy Peter A motion capture and identification device
US20070145680A1 (en) * 2005-12-15 2007-06-28 Outland Research, Llc Shake Responsive Portable Computing Device for Simulating a Randomization Object Used In a Game Of Chance
JP4785526B2 (ja) * 2005-12-28 2011-10-05 セイコーインスツル株式会社 電子式歩数計
US7612786B2 (en) * 2006-02-10 2009-11-03 Microsoft Corporation Variable orientation input mode
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
US8139059B2 (en) 2006-03-31 2012-03-20 Microsoft Corporation Object illumination in a virtual environment
US20070300140A1 (en) * 2006-05-15 2007-12-27 Nokia Corporation Electronic device having a plurality of modes of operation
US20070284429A1 (en) * 2006-06-13 2007-12-13 Microsoft Corporation Computer component recognition and setup
KR100799571B1 (ko) * 2006-06-20 2008-01-30 한국전자통신연구원 인체를 이용한 통신장치 및 그 방법
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
US8001613B2 (en) 2006-06-23 2011-08-16 Microsoft Corporation Security using physical objects
WO2008010581A1 (fr) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Dispositif opérationnel et système opérationnel
JP4736052B2 (ja) * 2006-07-21 2011-07-27 ブラザー工業株式会社 操作信号出力装置及び操作システム
US20080036737A1 (en) * 2006-08-13 2008-02-14 Hernandez-Rebollar Jose L Arm Skeleton for Capturing Arm Position and Movement
US20100023314A1 (en) * 2006-08-13 2010-01-28 Jose Hernandez-Rebollar ASL Glove with 3-Axis Accelerometers
KR100793079B1 (ko) * 2006-12-08 2008-01-10 한국전자통신연구원 손목착용형 사용자 명령 입력 장치 및 그 방법
KR20090034642A (ko) * 2007-10-04 2009-04-08 박가람 팔찌형 키보드와 이를 이용한 키 입력방법
KR100911716B1 (ko) * 2007-10-30 2009-08-10 엘아이지넥스원 주식회사 착용형 휴대용 기기의 착용 여부 판단 방법 및 장치
US7839269B2 (en) * 2007-12-12 2010-11-23 Immersion Corporation Method and apparatus for distributing haptic synchronous signals
GB0801287D0 (en) * 2008-01-24 2008-03-05 Lea Erik Wrist-mounted computer periferal
JP5290633B2 (ja) * 2008-06-13 2013-09-18 セミコンダクター・コンポーネンツ・インダストリーズ・リミテッド・ライアビリティ・カンパニー 通信システム及びそれに用いられる受信装置
US8447704B2 (en) * 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US9037530B2 (en) 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
US8170656B2 (en) * 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US8842097B2 (en) * 2008-08-29 2014-09-23 Nec Corporation Command input device, mobile information device, and command input method
US8289162B2 (en) * 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US8502704B2 (en) * 2009-03-31 2013-08-06 Intel Corporation Method, apparatus, and system of stabilizing a mobile gesture user-interface
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
JP5545574B2 (ja) * 2009-07-15 2014-07-09 国立大学法人 筑波大学 分類推定システムおよび分類推定プログラム
KR101725541B1 (ko) * 2009-12-07 2017-04-11 엘지이노텍 주식회사 시계 및 제어방법
US9335825B2 (en) 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
US20110181510A1 (en) * 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
KR20110137587A (ko) * 2010-06-17 2011-12-23 한국전자통신연구원 공간 입출력 인터페이싱 장치 및 방법
JP2012043194A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
CN101938561A (zh) * 2010-08-30 2011-01-05 惠州Tcl移动通信有限公司 一种挂断来电的方法及移动通信终端
JP5187380B2 (ja) 2010-12-08 2013-04-24 株式会社デンソー 情報入力装置および情報入力方法
US9830507B2 (en) 2011-03-28 2017-11-28 Nokia Technologies Oy Method and apparatus for detecting facial changes
CN102261915B (zh) * 2011-04-27 2013-06-12 浙江大学 行人惯性导航装置和方法
US9170674B2 (en) * 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
CN102670208B (zh) * 2012-05-15 2014-01-29 北京大学 一种用于人体运动模态识别的电容传感系统
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US9081542B2 (en) * 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
KR20150082174A (ko) * 2012-11-01 2015-07-15 아리예 하임 카츠 상부 아암 컴퓨터 포인팅 장치
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
CN103197529A (zh) * 2013-02-06 2013-07-10 方科峰 一种体感腕表及应用方法
KR102059346B1 (ko) * 2013-03-05 2020-02-11 삼성전자주식회사 근전도 센서 시스템 및 근전도 센서 시스템의 동작 방법
KR101447625B1 (ko) * 2013-03-11 2014-10-08 한국기술교육대학교 산학협력단 손목 근감각 제공이 가능한 게임 컨트롤러
CN103217895B (zh) * 2013-04-07 2016-01-20 上海与德通讯技术有限公司 支持手势功能的电子腕表和电子通讯设备
US10152082B2 (en) 2013-05-13 2018-12-11 North Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
CN103235646A (zh) * 2013-05-14 2013-08-07 秦启力 前肢动作识别装置及其实现方法
CN103309226B (zh) * 2013-06-09 2016-05-11 深圳先进技术研究院 配合智能眼镜使用的智能手表
KR102170321B1 (ko) 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
KR102160767B1 (ko) 2013-06-20 2020-09-29 삼성전자주식회사 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
US9674697B2 (en) * 2013-07-24 2017-06-06 Htc Corporation Method for operating mobile device, mobile device using the same, wearable device using the same, and computer readable medium
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US20150124566A1 (en) * 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
US9372535B2 (en) 2013-09-06 2016-06-21 Thalmic Labs Inc. Systems, articles, and methods for electromyography-based human-electronics interfaces
WO2015033327A1 (en) * 2013-09-09 2015-03-12 Belfiori Alfredo Wearable controller for wrist
CN104460955B (zh) * 2013-09-16 2018-08-10 联想(北京)有限公司 一种信息处理方法及穿戴式电子设备
CN103576902A (zh) * 2013-09-18 2014-02-12 酷派软件技术(深圳)有限公司 控制终端设备的方法及系统
US9483123B2 (en) * 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
CN104679229A (zh) * 2013-11-27 2015-06-03 中国移动通信集团公司 一种手势识别方法和装置
JP6084153B2 (ja) * 2013-12-06 2017-02-22 独立行政法人国立高等専門学校機構 人体検知装置
CN104714631A (zh) * 2013-12-12 2015-06-17 李庆华 腕上智能设备及其控制方法和系统
CN103744427B (zh) * 2014-01-06 2016-08-17 山东大学 加速度传感手势操作系统及操作方法
WO2015123445A1 (en) 2014-02-14 2015-08-20 Thalmic Labs Inc. Systems, articles, and methods for elastic electrical cables and wearable electronic devices employing same
CN104866076B (zh) 2014-02-21 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
KR102248845B1 (ko) 2014-04-16 2021-05-06 삼성전자주식회사 웨어러블 디바이스, 웨어러블 디바이스와 연동되는 마스터 디바이스, 및 그에 따른 웨어러블 디바이스의 제어 방법
US20150325202A1 (en) * 2014-05-07 2015-11-12 Thalmic Labs Inc. Systems, devices, and methods for wearable computers with heads-up displays
CN105094301A (zh) * 2014-05-16 2015-11-25 中兴通讯股份有限公司 一种控制方法、装置及电子设备
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
KR101657069B1 (ko) * 2014-07-09 2016-09-19 경북대학교 산학협력단 무설정 명함 교환 시스템 및 무설정 명함 교환 방법
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
CN107003740A (zh) * 2014-12-09 2017-08-01 Lg 伊诺特有限公司 带式传感器和具有带式传感器的可佩戴式设备
KR102288823B1 (ko) * 2015-02-06 2021-08-11 엘지이노텍 주식회사 웨어러블 디바이스
US9946395B2 (en) * 2015-02-16 2018-04-17 Samsung Electronics Co., Ltd. User interface method and apparatus
WO2016132177A1 (en) * 2015-02-19 2016-08-25 Aryeh Haim Katz Remote controlled physical activity monitoring
US10437335B2 (en) 2015-04-14 2019-10-08 John James Daniels Wearable electronic, multi-sensory, human/machine, human/human interfaces
CN104834237B (zh) * 2015-04-14 2019-01-11 广东小天才科技有限公司 一种通过距离检测线性调节音量大小的方法及装置
WO2016171467A1 (en) * 2015-04-23 2016-10-27 Samsung Electronics Co., Ltd. Electronic device including rotary member and display method thereof
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
CN105072264B (zh) * 2015-07-27 2019-04-16 深圳市嘀嗒互动科技有限公司 基于三轴加速度传感器的智能腕表控制方法及系统
CN105242780B (zh) * 2015-09-23 2018-05-18 谢小强 一种交互控制方法和装置
EP3182251B1 (en) 2015-12-18 2019-04-24 Stichting IMEC Nederland System for hand gesture detection
CN105824429A (zh) * 2016-05-12 2016-08-03 深圳市联谛信息无障碍有限责任公司 基于红外传感器的读屏应用指令输入方法及装置
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US11635736B2 (en) 2017-10-19 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for identifying biological structures associated with neuromuscular source signals
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN106371631B (zh) * 2016-09-09 2018-07-06 广东乐源数字技术有限公司 一种智能手环抬手亮屏的方法
CN106227300B (zh) * 2016-08-01 2018-07-06 广东乐源数字技术有限公司 一种智能手环抬手亮屏的方法
CN106037179B (zh) * 2016-08-01 2018-01-09 广东乐源数字技术有限公司 一种可实现抬手亮屏的智能手环
CN106293072B (zh) * 2016-08-01 2018-07-03 广东乐源数字技术有限公司 一种智能手环转腕亮屏的方法
WO2018023894A1 (zh) 2016-08-01 2018-02-08 广东乐源数字技术有限公司 一种智能手环抬手亮屏的方法及智能手环
CN106075899A (zh) * 2016-08-10 2016-11-09 合肥泰壤信息科技有限公司 一种穿戴式智能设备操作的游戏设备及游戏方法
CN106547370B (zh) * 2016-10-12 2018-07-06 广东乐源数字技术有限公司 一种智能手环抬手亮屏、转腕切屏的控制方法
JP2020516327A (ja) 2016-11-25 2020-06-11 キナプティック・エルエルシー 触覚ヒト/機械インターフェースおよび着用可能な電子機器の方法および装置
CN107092360A (zh) * 2017-05-08 2017-08-25 电子科技大学 一种利用手腕扭动感应的定位输入装置
RU2670670C9 (ru) * 2017-09-20 2018-12-12 Общество С Ограниченной Ответственностью "Хилби" Способ управления устройством измерения физиологических параметров человека
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11567573B2 (en) 2018-09-20 2023-01-31 Meta Platforms Technologies, Llc Neuromuscular text entry, writing and drawing in augmented reality systems
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11073909B2 (en) 2018-04-13 2021-07-27 Facebook Technologies, Llc Interior sensing
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN109009718A (zh) * 2018-08-10 2018-12-18 中国科学院合肥物质科学研究院 一种基于电阻抗技术结合手势控制轮椅的方法
US10905350B2 (en) 2018-08-31 2021-02-02 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
US10948976B1 (en) * 2019-02-06 2021-03-16 Facebook Technologies, Llc Systems and methods for electric discharge-based sensing via wearables donned by users of artificial reality systems
CN115917406A (zh) * 2020-06-24 2023-04-04 日本电信电话株式会社 信息输入设备
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4414537A (en) * 1981-09-15 1983-11-08 Bell Telephone Laboratories, Incorporated Digital data entry glove interface device
JP3689285B2 (ja) 1991-06-20 2005-08-31 富士ゼロックス株式会社 入力装置および入力装置用ヘッドマウントディスプレイ
JP3630712B2 (ja) 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
EP0816986B1 (en) 1996-07-03 2006-09-06 Hitachi, Ltd. System for recognizing motions
JP3570163B2 (ja) * 1996-07-03 2004-09-29 株式会社日立製作所 動作及び行動の認識方法及び装置及びシステム
US6223018B1 (en) * 1996-12-12 2001-04-24 Nippon Telegraph And Telephone Corporation Intra-body information transfer device
JPH11143608A (ja) * 1997-11-07 1999-05-28 Sony Corp 文字入力方法及び文字入力装置
JP2000221953A (ja) * 1999-01-29 2000-08-11 Sony Corp 映像表示装置、映像処理方法及びこれらを応用した映像表示システム
JP4189709B2 (ja) * 1999-05-13 2008-12-03 ソニー株式会社 モーションキャプチャー装置

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1585014A2 (en) 2004-04-05 2005-10-12 Sony Corporation Electronic apparatus, input device, and input method
WO2006068357A1 (en) * 2004-12-20 2006-06-29 Electronics And Telecommunications Research Institute System for wearable general-purpose 3-dimensional input
JP2008197801A (ja) * 2007-02-09 2008-08-28 Ntt Docomo Inc 装着型情報入力装置
JP7478594B2 (ja) 2007-05-29 2024-05-07 シーエフピーエイチ, エル.エル.シー. 手のモーションコントロールを有するゲーム
JP2020168385A (ja) * 2007-05-29 2020-10-15 シーエフピーエイチ, エル.エル.シー. 手のモーションコントロールを有するゲーム
JP2011507129A (ja) * 2007-12-17 2011-03-03 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー ユーザ定義制御デバイスのための動的三次元オブジェクトマッピング
JP2009237792A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp コンテンツ処理装置および方法
US9377850B2 (en) 2010-03-15 2016-06-28 Nec Corporation Input device, input method and medium
US9958902B2 (en) 2010-03-15 2018-05-01 Nec Corporation Input device, input method, and program
US9195303B2 (en) 2010-03-15 2015-11-24 Nec Corporation Input device, method and medium
JP2014505955A (ja) * 2011-02-21 2014-03-06 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャ認識システム
JP2011253560A (ja) * 2011-08-18 2011-12-15 Ntt Docomo Inc 装着型情報入力装置
JP2016507099A (ja) * 2013-01-14 2016-03-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated 頭部装着型ディスプレイにおいて物理的握手を活用すること
EP2816450A1 (en) 2013-06-21 2014-12-24 Casio Computer Co., Ltd. Information processing apparatus, and information processing method
JP2015008443A (ja) * 2013-06-26 2015-01-15 セイコーエプソン株式会社 入力装置、情報処理装置および入力方法
JP2016533577A (ja) * 2013-08-23 2016-10-27 華為技術有限公司Huawei Technologies Co.,Ltd. リモコン装置、情報処理方法およびシステム
US9978261B2 (en) 2013-08-23 2018-05-22 Huawei Technologies Co., Ltd. Remote controller and information processing method and system
JP2018116730A (ja) * 2013-10-14 2018-07-26 ノキア テクノロジーズ オサケユイチア 偏位平面手首入力
JP2017509935A (ja) * 2013-12-28 2017-04-06 インテル・コーポレーション 無線通信用の抽象化されたパターンメッセージングウェアラブル電子デバイス
US10996635B2 (en) 2014-03-18 2021-05-04 Sony Corporation Information processing apparatus, control method, and program
US10466654B2 (en) 2014-03-18 2019-11-05 Sony Corporation Information processing apparatus, control method, and program
US11340560B2 (en) 2014-03-18 2022-05-24 Sony Corporation Information processing apparatus, control method, and program
KR20160133414A (ko) 2014-03-18 2016-11-22 소니 주식회사 정보 처리 장치, 제어 방법 및 프로그램
US10345761B2 (en) 2014-03-18 2019-07-09 Sony Corporation Information processing apparatus, control method, and program
JP2017530443A (ja) * 2014-08-18 2017-10-12 ソニー株式会社 超音波を用いたモーダルボディタッチ
US10274992B2 (en) 2014-11-12 2019-04-30 Kyocera Corporation Wearable device with muscle activity detector
JPWO2016076376A1 (ja) * 2014-11-12 2017-07-13 京セラ株式会社 ウェアラブル装置
WO2016076376A1 (ja) * 2014-11-12 2016-05-19 京セラ株式会社 ウェアラブル装置
US10401968B2 (en) 2015-09-29 2019-09-03 Lenovo (Singapore) Pte. Ltd. Determining digit movement from frequency data
JP2017068446A (ja) * 2015-09-29 2017-04-06 レノボ・シンガポール・プライベート・リミテッド 携帯情報端末、情報処理方法、及び、プログラム
JP2017068572A (ja) * 2015-09-30 2017-04-06 京セラ株式会社 ウェアラブル装置
JP6235161B1 (ja) * 2016-02-26 2017-11-22 株式会社blincam 信号出力装置および撮像装置
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof

Also Published As

Publication number Publication date
EP1394665A1 (en) 2004-03-03
US20040243342A1 (en) 2004-12-02
CN1531676A (zh) 2004-09-22
US6965842B2 (en) 2005-11-15
CN1320419C (zh) 2007-06-06
KR20040032820A (ko) 2004-04-17
WO2002099614A1 (en) 2002-12-12

Similar Documents

Publication Publication Date Title
JP2002358149A (ja) ユーザ入力装置
US11474604B2 (en) User interface control of responsive devices
US10627914B2 (en) User interface control of responsive devices
Rekimoto Gesturewrist and gesturepad: Unobtrusive wearable interaction devices
KR102310776B1 (ko) 광학 센서를 사용해 검출된 모션 제스처 입력
US11822729B2 (en) Systems and methods for gesture-based control
US11743376B2 (en) Mobile communication terminals, their directional input units, and methods thereof
Lu et al. Designing and evaluating hand-to-hand gestures with dual commodity wrist-worn devices
Xu et al. Intelligent wearable interfaces
EP3938872B1 (en) Hand-worn data-input device
JP2003029899A (ja) ユーザ入力装置
US20160085311A1 (en) Control unit and method of interacting with a graphical user interface
US11237639B2 (en) Method and system for electronic communication by persons with disabilities
WO2022223741A1 (en) Wearable control system and method to control an ear-worn device
Saponas © Copyright 2010 Timothy Scott Saponas