JP2010511960A - 手首装着型ユーザ命令入力装置及びその方法 - Google Patents

手首装着型ユーザ命令入力装置及びその方法 Download PDF

Info

Publication number
JP2010511960A
JP2010511960A JP2009540155A JP2009540155A JP2010511960A JP 2010511960 A JP2010511960 A JP 2010511960A JP 2009540155 A JP2009540155 A JP 2009540155A JP 2009540155 A JP2009540155 A JP 2009540155A JP 2010511960 A JP2010511960 A JP 2010511960A
Authority
JP
Japan
Prior art keywords
vibration
user
wrist
signal
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009540155A
Other languages
English (en)
Inventor
ヨン−ギ ソン
ジョン ソンウ
ジ−ウン キム
ドン−ウ イ
イル−ヨン チョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2010511960A publication Critical patent/JP2010511960A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本発明は、手首装着型ユーザ命令入力装置及びその方法に関し、人体を通して伝達される振動とユーザの動きとを分析し、当該命令を行うことにより、ユーザの直観的な動作によってユーザ命令を電子機器に容易に入力させることができる、手首装着型ユーザ命令入力装置及びその方法に関する。

Description

本発明は、手首装着型ユーザ命令入力装置及びその方法に関し、より詳細には、人体を通して伝達される振動とユーザの動きとを分析し、当該命令を行うことにより、ユーザの直観的な動作によってユーザ命令を電子機器に容易に入力させることができる、手首装着型ユーザ命令入力装置及びその方法に関する。
コンピュータが開発されて以来、コンピュータの応用分野は拡大を続けている。ユーザの使用するほとんどの機器も、知能化してコンピューティング機能を兼ね備えている。命令や情報などを入力するための入力手段は、キーボード、マウス、タッチパッド、ボタンのように、応用によって多様な形態に発展している。このようなコンピュータ及びコンピュータベースの電子機器の入力手段は、コンピュータが登場して以来、大きく変わっていない。そのため、ユーザは、コンピューティング能力が高まるにつれ、多くの機能が集約されたコンピュータ及びコンピュータベースの電子機器の使用に困難があった。
ユーザは、単純ながらも直観的な形態のユーザインタフェースを要求している。すなわち、ユーザは、コンピュータ機能の知能化に伴い、特定の形態の命令や操作方法を習得することなく、簡単にユーザインタフェースを使用することを望んでいる。特に、初期の簡単な文字中心のユーザインタフェースからアイコンやウィンドウといったグラフィックユーザインタフェース(GUI:Graphic User Interface)への進化は、このような時代的な要求に応じた発現として説明することができる。
従来のキーボードを使用する入力方式では、キーボードが置かれている、限られた空間で命令または情報を入力することが可能であり、マウスの登場に伴い、GUIに好適に用いられてきた。ユーザインタフェースがユーザにとって使いやすい形態に発展するにつれ、タッチパッドのような簡単な情報を入力できる装置が好適な形態に開発されてきた。
最近の技術の発達により、このような入力装置を代替するために、手袋型の入力装置、動作認識マウス及びペン、ビジョンベースの動作認識システムといった様々な形態の入力装置が開発されている。
手袋型の入力装置は、手袋に各種センサを取り付けてユーザの動きを検出し、命令として判断している。このような手袋型の入力装置は、ユーザが命令を入力したいときに装着していなければならないという不都合がある。また、このような入力装置を常時装着するには無理がある。
空中マウスまたは動作認識ペンは、装置内に内蔵されたセンサにより空中でのユーザの動作を認識して命令を処理している。このような装置は、ユーザが常にポケットまたはかばんに入れて携行しなければならないという不都合がある。また、このような装置は、ユーザが手で装置を把持した形で動作するため、手が不自由という不都合がある。
ビジョンベースの動作認識システムは、画像の動きによって動作を検出するが、光に敏感でかつ演算負荷が多く、室外環境に適用しにくいという短所がある。
ユーザ入力装置(特許文献1)は、ユーザの手首とバンド型のセンサ面の接触状態によって多様な命令を認識している。しかし、ユーザ入力装置(特許文献1)は、ユーザ入力装置と使用したい機器とを接続する具体的な方法がないため、外部機器との接続が困難であるという問題がある。
前述のように、従来のユーザ入力技術は、ユーザが手に装着して使用するものであって、ユーザが常時装着することは困難であり、ユーザが手に握った状態で命令を行うか、またはユーザ周囲のビジョンベースの動作認識システムのような装置が設置された空間で命令を行わなければならないという制限がある。
特に、動作認識装置の場合、各動作間の区別方法に対する適切な解決策を提示していない。また、装置と周辺の対象装置(コンピュータ及びコンピュータベースの電子機器)とを接続する技術では、人体媒体通信技術が開発されているが、まだ商用化されていない。
韓国特許出願番号第10−2003−7015682号明細書
本発明は、上記の問題を解決するためになされたものであって、人体を通して伝達される振動とユーザの動きとを分析し、当該命令を行うことにより、ユーザの直観的な動作によってユーザ命令を電子機器に容易に入力させることができる、手首装着型ユーザ命令入力装置及びその方法を提供することを目的とする。
また、本発明は、電子機器から伝達された振動を利用してネットワーク設定を行うことにより、使用したい機器間のネットワーク設定を容易に行うことができる、手首装着型ユーザ命令入力装置及びその方法を提供することを目的とする。
本発明の他の目的及び長所は、下記の説明により理解することができ、本発明の実施形態によりさらに明確になるはずである。また、本発明の目的及び長所は、特許請求の範囲に示す手段及びその組み合わせにより実現可能であることが容易に分かるであろう。
上記の目的を達成するための本発明は、手首装着型ユーザ命令入力装置において、ユーザの人体振動によって伝達される振動音を計測し、前記計測された振動信号を増幅する振動信号増幅及び計測手段と、ユーザの手動作による動き信号を計測する動き信号計測手段と、前記振動信号増幅及び計測手段から伝達された振動信号と前記動き信号計測手段で計測された動き信号とを分析し、分析結果に対応する命令を行う信号処理手段と、を備える。
一方、本発明は、手首装着型ユーザ命令入力方法において、ユーザの人体振動によって伝達される振動音を計測し、前記計測された振動信号を増幅する振動信号増幅及び計測ステップと、ユーザの手動作による動き信号を計測する動き信号計測ステップと、前記振動信号増幅及び計測ステップで増幅された振動信号と前記動き信号計測ステップで計測された動き信号とを分析し、分析結果に対応する命令を行う信号処理ステップと、を含む。
本発明は、ユーザの指接触音(振動)を増幅してユーザの手動作命令の始点を確認し、確認された始点から感知されたユーザの手首の動きによるユーザ命令を受信することにより、ユーザの直観的な動作によってユーザ命令を電子機器に容易に入力させることができ、一般的に装着する時計または手首バンドと大きく変わらないため、ユーザが長時間装着しても、心地よい装着感をそのまま維持できるようにする効果がある。
また、本発明は、コンピュータまたはコンピュータベースの電子機器との接続設定がユーザの直観的な動作によって可能なため、ユーザの接近性が容易になる。
さらに、本発明は、装置に伝達される振動を利用するため、装置を完璧に外部と遮断させることで水中環境または湿気のような環境的要因に強い装置にすることができるという効果がある。
本発明の一実施形態に係る手首装着型ユーザ命令入力装置を装着したユーザの例を示す図である。 本発明の一実施形態に係る手首装着型ユーザ命令入力装置の構成図である。 本発明の一実施形態に係る手首装着型ユーザ命令入力装置と電子機器との接続方法を説明するための図である。 本発明の他の実施形態に係る手首装着型ユーザ命令入力装置と電子機器との接続方法を説明するための図である。
上述した目的、特徴及び長所は、添付した図面に関する以下の詳細な説明によりさらに明確になるはずであり、それにより、本発明の属する技術分野における通常の知識を有する者が本発明の技術的思想を容易に実施することができる。また、本発明の説明において、本発明に係る公知技術に関する具体的な説明が本発明の要旨を不透明にする可能性があると判断された場合、その詳細な説明を省略する。以下、添付した図面を参照して本発明の好ましい実施形態を詳細に説明する。
図1は、本発明の一実施形態に係る手首装着型ユーザ命令入力装置を装着したユーザの例を示す図である。
同図に示すように、本発明に係る手首装着型ユーザ命令入力装置110は、ユーザの手動作と指接触音(振動)とを利用してユーザの手動作命令を認識する。また、ユーザが手首に手首装着型ユーザ命令入力装置110を装着して手10を動かすと、手首装着型ユーザ命令入力装置110は、この手10の動きを認識し、認識された結果をコンピュータまたは電子機器に命令または情報などとして入力する。ここで、手首装着型ユーザ命令入力装置110は、腕時計または手首バンド型の外形を有することができる。
例えば、人体振動による指接触音を感知する方法を説明すると、次のとおりである。
ユーザが手10を右に移動すると同時に、2本の指である人差し指11と親指12を接触させると、手首装着型ユーザ命令入力装置110は、手10を通して伝達された指接触音(伝達振動)111を増幅し、増幅された接触音を検出してユーザによる手動作命令が始まる始点を感知する。
また、手首装着型ユーザ命令入力装置110は、手動作命令が始まる始点が感知されると、その後の当該手動作(命令)を解析してユーザの命令を把握する。さらに、手首装着型ユーザ命令入力装置110は、把握されたユーザ命令をコンピュータまたは電子機器に入力することができる。
このように、手首装着型ユーザ命令入力装置110は、ユーザが手に入力装置を握ることなく、自由な状態で手を動かすことにより、ユーザの意図した命令を把握することができる。
図2は、本発明の一実施形態に係る手首装着型ユーザ命令入力装置の詳細構成図である。
同図に示すように、本発明に係る手首装着型ユーザ命令入力装置110は、振動信号増幅及び計測部21と、動き信号計測部22と、信号処理部23とを備える。ここで、信号処理部23は、振動信号処理部231と、動き信号処理部232と、命令伝達部233とを備える。
前記振動信号増幅及び計測部21は、ユーザの人体振動によって伝達される振動音を計測し、計測された振動信号を増幅する。振動信号増幅及び計測部21は、増幅された振動信号を信号処理部23に伝達する。ここで、振動音は、指接触音による振動音、または外部電子機器の振動発振手段から発振された振動音を含む。
前記動き信号計測部22は、ユーザの手動作による動き信号を計測する。動き信号計測部22は、動きを感知可能なセンサ(例えば、3軸加速度センサ、ジャイロセンサなど)を備えることで動き信号を計測することができる。動き信号計測部22は、計測された動き信号を信号処理部23に伝達する。
前記信号処理部23は、振動信号増幅及び計測部21から伝達された振動信号を利用してユーザの手動作命令の始点を確認し、確認されたユーザの手動作命令の始点から動き信号計測部22で計測された動き信号を分析し、分析結果に対応するユーザの手動作命令を認識する。また、信号処理部23は、振動信号増幅及び計測部21と動き信号計測部22とからそれぞれ伝達された振動信号と動き信号とを分析し、分析結果に基づいて当該命令を内部/外部機器に伝達する。
信号処理部23を詳細に説明すると、前記振動信号処理部231は、振動信号増幅及び計測部21から伝達された振動信号から指接触音(接触振動)を検出し、検出された振動信号を解析する。また、振動信号処理部231は、解析結果を動き信号処理部232と命令伝達部233とに伝達する。ここで、指接触音(接触振動)は、すべての指に該当し得る。
前記動き信号処理部232は、前記振動信号処理部231から伝達された解析結果に基づいてユーザの手動作命令の始点を確認する。また、動き信号処理部232は、確認されたユーザの手動作命令の始点から動き信号計測部22で計測された動き信号を分析し、分析結果に対応するユーザの手動作命令を認識する。さらに、動き信号処理部232は、認識された手動作命令に対応する手動作命令信号を生成して命令伝達部233に伝達する。
前記命令伝達部233は、振動信号処理部231から解析結果を受けて解析結果を確認し、動き信号処理部232から伝達されたユーザの手動作命令信号を有線または無線通信インタフェースを用いて内部または外部機器に伝達することができる。命令伝達部233は、当該命令を伝達可能な有線または無線通信インタフェースを備えている。命令伝達部233は、この有線または無線通信インタフェースを介して他の電子機器に接続され得る。
また、信号処理部23は、振動信号処理部231から伝達された解析結果に基づいて外部電子機器310、410との接続設定を行うネットワーク接続設定部(図2に図示せず)をさらに備える。この後、ネットワーク接続設定部に関する説明は、図3及び図4を参照して説明する。
一方、振動信号処理部231、動き信号処理部232、及び命令伝達部233は、1つのプロセッサで処理可能である。
以下、ユーザの手首の動きを感知する過程について詳細に説明する。
手首装着型ユーザ命令入力装置110は、ユーザの手首の動きを感知し、感知された動きに対応する命令として判断することができる。例えば、ユーザが手首装着型ユーザ命令入力装置110を装着し、右へ動くと、「次の曲」という命令として解釈できる。このような動作は、予め定義されていなければならず、ユーザが定義することもでき、予め定義された状態で実現することもできる。例えば、ユーザが音楽を聴いている場合、振動信号増幅及び計測部21は、ユーザから命令の始点(指接触音)を受信し、動き信号計測部22は、手の動きによって右への移動を感知する。すると、信号処理部23は、接触音と手の動きとに基づいて右動作として解析し、解析された右動作に対応する「次の曲」という命令を内部または外部機器に伝達することができる。
ここで、ユーザの無意味な手動作と命令のための手動作とを区別するために、人体振動による指接触音(振動)を利用することができる。人体振動とは、人体に印加された振動が人体の骨または皮膚を通して他の所に伝播することをいう。指接触による人体振動は、指の骨または皮膚を通して手首装着型ユーザ命令入力装置110に伝達されて振動信号を感知する。
したがって、指接触といったユーザの意図的な動作によりユーザの意図的な手動作(命令)と無意味な手動作(命令)とを区別することができる。指接触音(振動)は、ユーザの意図的な動作であるため、他の無意味な動作と区別することができ、手で他の物体をたたいたり握ったりするときに発生する音と区別することができる。指接触による手動作の命令の区別は、手動作を行うとき、既存の人の動作パターンを大きく逸脱しないために習得しやすい。また、連続的な手動作の区別にも効率的である。例えば、右へ2回動くという命令のための手動作と、右へ動くという命令の手動作を2回行うこととの区別は容易でない。しかし、指接触を利用すると、容易に区別することができる。
図3は、本発明の一実施形態に係る手首装着型ユーザ命令入力装置と電子機器との接続方法を説明するための図である。
同図を参照して、手首装着型ユーザ命令入力装置110と電子機器310との間に人体振動を利用して情報を伝達してネットワーク接続設定が行われる方法を説明する。
電子機器310は、ボタン型の接触計測部311と、振動発振部312とを備える。
ユーザが使用したい電子機器310に備えられたボタン型の接触計測部311に触ると、振動発振部312は、電子機器310の接続設定情報に対応する振動を発生させる。伝達振動301は、指を通して手首装着型ユーザ命令入力装置110に伝達される。
また、伝達振動301は、振動信号増幅及び計測部21で振動信号が増幅及び計測され、計測された結果が振動信号処理部231に伝達される。また、振動信号処理部231は、計測された結果を解析して当該接続設定情報として用いる。
無線LANまたはブルートゥース(Bluetooth)のような通信インタフェースを介して相互機器間の接続が可能になる。このような接続設定方法は、NFC(Near-Field Communication)、IrDAのような通信インタフェースによっても同様に実現できるが、上記のように接続設定のための情報を振動によって伝達することにより、簡単なハードウェア構成で直観的かつ容易に接続設定することができる。
図4は、本発明の他の実施形態に係る手首装着型ユーザ命令入力装置と遠距離にある電子機器との接続方法を説明するための図である。
接続設定のための通信インタフェースは、IrDA、超音波、レーザなどといった指向性を有するビームを用いて実現することができる。ユーザが接続して使用したい電子機器410に向かって指でつまむような動作を行うと、手首装着型ユーザ命令入力装置110の指向性ビーム送受信部402から所定パターンのビームが放出され、選択しようとする電子機器410に到達する。このとき、電子機器410は、指向性ビーム送受信部402からビームを受けて装置接続設定情報が生成される。
生成された情報は、指向性ビーム送受信部402に受信され、装置間の接続設定に利用され、図3と同様に、無線LANまたはブルートゥースのような通信インタフェースを介して相互機器間の接続が可能になる。このような装置を構成することにより、ユーザは、「選択する」という意味の動作(指でつまむような動作)を行うことで直観的に装置を選択することができる。
上述した本発明の方法は、プログラムとして実現されてコンピュータで読み取り可能な形態で記録媒体(CD−ROM、RAM、ROM、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスクなど)に格納され得る。この過程は、本発明の属する技術分野における通常の知識を有する者が容易に実施できるため、これ以上の詳細な説明は省略する。
以上で説明した本発明は、本発明の属する技術分野における通常の知識を有する者にとって、本発明の技術的思想を逸脱しない範囲内で様々な置換、変形及び変更が可能であるため、上述した実施形態及び添付した図面により限定されない。

Claims (12)

  1. 手首装着型ユーザ命令入力装置において、
    ユーザの人体振動によって伝達される振動音を計測し、前記計測された振動信号を増幅する振動信号増幅及び計測手段と、
    ユーザの手動作による動き信号を計測する動き信号計測手段と、
    前記振動信号増幅及び計測手段から伝達された振動信号と前記動き信号計測手段で計測された動き信号とを分析し、分析結果に対応する命令を行う信号処理手段と、
    を備えることを特徴とする手首装着型ユーザ命令入力装置。
  2. 前記振動信号増幅及び計測手段が、
    指接触による振動音をユーザの人体振動によって伝達され、当該振動音を計測し、前記計測された振動音を増幅することを特徴とする請求項1に記載の手首装着型ユーザ命令入力装置。
  3. 前記振動信号増幅及び計測手段が、
    外部電子機器の振動発振手段から発振された振動音をユーザの人体振動によって伝達され、当該振動音を計測し、前記計測された振動音を増幅することを特徴とする請求項1に記載の手首装着型ユーザ命令入力装置。
  4. 前記信号処理手段が、
    前記振動信号増幅及び計測手段から伝達された振動信号の中から指接触音(接触振動)に該当する振動信号を検出し、前記検出された振動信号を解析する振動信号処理手段と、
    前記振動信号処理手段から伝達された解析結果に基づいてユーザの手動作命令の始点を確認し、前記確認されたユーザの手動作命令の始点から前記動き信号計測手段で計測された動き信号を分析し、分析結果に対応するユーザの手動作命令を認識して手動作命令信号を生成する動き信号処理手段と、
    前記振動信号処理手段から解析結果を受けることにより、動き信号処理手段から伝達されたユーザの手動作命令信号を有線/無線通信インタフェースを用いて外部電子機器に伝達する命令伝達手段と、
    を備えることを特徴とする請求項1に記載の手首装着型ユーザ命令入力装置。
  5. 前記信号処理手段が、
    前記振動信号処理手段から伝達された解析結果に基づいて前記外部電子機器との接続設定を行うネットワーク接続設定手段をさらに備えることを特徴とする請求項4に記載の手首装着型ユーザ命令入力装置。
  6. 前記ネットワーク接続設定手段が、
    指向性を有するビーム送受信器を備え、前記ビーム送受信器を用いて前記外部電子機器に装置接続設定情報に関する所定パターンのビームを放出してネットワーク接続設定を行うことを特徴とする請求項5に記載の手首装着型ユーザ命令入力装置。
  7. 手首装着型ユーザ命令入力方法において、
    ユーザの人体振動によって伝達される振動音を計測し、前記計測された振動音の振動信号を増幅する振動信号増幅及び計測ステップと、
    ユーザの手動作による動き信号を計測する動き信号計測ステップと、
    前記振動信号増幅及び計測ステップで増幅された振動信号と前記動き信号計測ステップで計測された動き信号とを分析し、分析結果に対応する命令を行う信号処理ステップと、
    を含むことを特徴とする手首装着型ユーザ命令入力方法。
  8. 前記振動信号増幅及び計測ステップが、
    指接触音による振動音をユーザの人体振動を介して受信するステップと、
    当該振動音を計測するステップと、
    前記計測された振動音を増幅するステップと
    をさらに含むことを特徴とする請求項7に記載の手首装着型ユーザ命令入力方法。
  9. 前記振動信号増幅及び計測ステップが、
    外部電子機器の振動発振手段から発振された振動音をユーザの人体振動を介して受信するステップと、
    当該振動音を計測するステップと、
    前記計測された振動音を増幅するステップと
    をさらに含むことを特徴とする請求項7に記載の手首装着型ユーザ命令入力方法。
  10. 前記信号処理ステップが、
    前記振動信号増幅及び計測ステップで増幅された振動信号の中から指接触音(接触振動)に該当する振動信号を検出し、前記検出された振動信号を解析する振動信号処理ステップと、
    前記振動信号処理ステップで解析された解析結果に基づいてユーザの手動作命令の始点を確認し、前記確認されたユーザの手動作命令の始点から前記動き信号計測ステップで計測された動き信号を分析し、分析結果に対応するユーザの手動作命令を認識して手動作命令信号を生成する動き信号処理ステップと、
    前記振動信号処理ステップでの解析結果を受けることにより、動き信号処理ステップで生成されたユーザの手動作命令信号を有線/無線通信インタフェースを用いて外部電子機器に伝達する命令伝達ステップと、
    をさらに含むことを特徴とする請求項7に記載の手首装着型ユーザ命令入力方法。
  11. 前記信号処理ステップが、
    前記振動信号処理ステップで解析された解析結果に基づいて前記外部電子機器との接続設定を行うネットワーク接続設定ステップをさらに含むことを特徴とする請求項10に記載の手首装着型ユーザ命令入力方法。
  12. 前記ネットワーク接続設定ステップが、
    指向性を有するビーム送受信器を備え、前記ビーム送受信器を用いて前記外部電子機器に装置接続設定情報に関する所定パターンのビームを放出してネットワーク接続設定を行うことを特徴とする請求項11に記載の手首装着型ユーザ命令入力方法。
JP2009540155A 2006-12-08 2007-12-05 手首装着型ユーザ命令入力装置及びその方法 Pending JP2010511960A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020060125141A KR100793079B1 (ko) 2006-12-08 2006-12-08 손목착용형 사용자 명령 입력 장치 및 그 방법
PCT/KR2007/006288 WO2008069577A1 (en) 2006-12-08 2007-12-05 Wrist-worn input apparatus and method

Publications (1)

Publication Number Publication Date
JP2010511960A true JP2010511960A (ja) 2010-04-15

Family

ID=39217287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009540155A Pending JP2010511960A (ja) 2006-12-08 2007-12-05 手首装着型ユーザ命令入力装置及びその方法

Country Status (4)

Country Link
US (1) US20100066664A1 (ja)
JP (1) JP2010511960A (ja)
KR (1) KR100793079B1 (ja)
WO (1) WO2008069577A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013500522A (ja) * 2009-07-23 2013-01-07 クゥアルコム・インコーポレイテッド モバイルデバイスおよび家庭用電子デバイスを制御するために着用可能デバイスを用いた分配ユーザインターフェースのための方法および装置
JP2015228115A (ja) * 2014-05-30 2015-12-17 富士通株式会社 入力装置
JP2019135665A (ja) * 2012-07-13 2019-08-15 太郎 諌山 要素選択装置、要素選択方法、および、プログラム

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
JP5338815B2 (ja) * 2008-08-29 2013-11-13 日本電気株式会社 情報入力装置,情報入力方法及び情報入力用プログラム
WO2010024029A1 (ja) * 2008-08-29 2010-03-04 日本電気株式会社 コマンド入力装置および携帯用情報機器とコマンド入力方法
US8289162B2 (en) * 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US8581856B2 (en) * 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8482678B2 (en) * 2009-09-10 2013-07-09 AFA Micro Co. Remote control and gesture-based input device
US8717291B2 (en) * 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
US8670709B2 (en) 2010-02-26 2014-03-11 Blackberry Limited Near-field communication (NFC) system providing mobile wireless communications device operations based upon timing and sequence of NFC sensor communication and related methods
RU2605357C2 (ru) 2011-02-21 2016-12-20 Конинклейке Филипс Н.В. Система распознавания жестов
WO2013073437A1 (ja) * 2011-11-15 2013-05-23 ソニー株式会社 情報処理装置及び方法
US8908894B2 (en) 2011-12-01 2014-12-09 At&T Intellectual Property I, L.P. Devices and methods for transferring data through a human body
US8988373B2 (en) * 2012-04-09 2015-03-24 Sony Corporation Skin input via tactile tags
US20150181351A1 (en) * 2012-07-17 2015-06-25 Nugg-It, Llc Time Cycle Audio Recording Device
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US9322544B2 (en) 2012-08-09 2016-04-26 Leena Carriere Pressure activated illuminating wristband
US9081542B2 (en) * 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
KR102124178B1 (ko) 2013-06-17 2020-06-17 삼성전자주식회사 웨어러블 기기 및 웨어러블 기기를 이용한 통신 방법
KR102170321B1 (ko) 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
WO2015033327A1 (en) * 2013-09-09 2015-03-12 Belfiori Alfredo Wearable controller for wrist
US10108984B2 (en) 2013-10-29 2018-10-23 At&T Intellectual Property I, L.P. Detecting body language via bone conduction
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
US10678322B2 (en) 2013-11-18 2020-06-09 At&T Intellectual Property I, L.P. Pressure sensing via bone conduction
US9349280B2 (en) 2013-11-18 2016-05-24 At&T Intellectual Property I, L.P. Disrupting bone conduction signals
US9715774B2 (en) 2013-11-19 2017-07-25 At&T Intellectual Property I, L.P. Authenticating a user on behalf of another user based upon a unique body signature determined through bone conduction signals
US9405892B2 (en) 2013-11-26 2016-08-02 At&T Intellectual Property I, L.P. Preventing spoofing attacks for bone conduction applications
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
KR20160104625A (ko) * 2013-11-27 2016-09-05 선전 후이딩 테크놀로지 컴퍼니 리미티드 안전 거래 및 통신용 웨어러블 통신 장치
KR102114616B1 (ko) 2013-12-06 2020-05-25 엘지전자 주식회사 스마트 와치 및 제어 방법
JP2015121979A (ja) * 2013-12-24 2015-07-02 株式会社東芝 装着型情報入力装置、情報入力システム、及び情報入力方法
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US10216274B2 (en) * 2014-06-23 2019-02-26 North Inc. Systems, articles, and methods for wearable human-electronics interface devices
WO2015199747A1 (en) * 2014-06-23 2015-12-30 Thalmic Labs Inc. Systems, articles, and methods for wearable human-electronics interface devices
US20150371529A1 (en) * 2014-06-24 2015-12-24 Bose Corporation Audio Systems and Related Methods and Devices
KR20160009741A (ko) * 2014-07-16 2016-01-27 (주)이미지스테크놀로지 착용형 제어장치 및 이를 위한 인증 및 페어링 방법
US9389733B2 (en) * 2014-08-18 2016-07-12 Sony Corporation Modal body touch using ultrasound
US10045732B2 (en) 2014-09-10 2018-08-14 At&T Intellectual Property I, L.P. Measuring muscle exertion using bone conduction
US9882992B2 (en) 2014-09-10 2018-01-30 At&T Intellectual Property I, L.P. Data session handoff using bone conduction
US9582071B2 (en) 2014-09-10 2017-02-28 At&T Intellectual Property I, L.P. Device hold determination using bone conduction
US9589482B2 (en) 2014-09-10 2017-03-07 At&T Intellectual Property I, L.P. Bone conduction tags
US9772684B2 (en) * 2014-09-17 2017-09-26 Samsung Electronics Co., Ltd. Electronic system with wearable interface mechanism and method of operation thereof
US9454224B2 (en) * 2014-09-26 2016-09-27 Intel Corporation Remote wearable input sources for electronic devices
CN105278699A (zh) * 2014-09-29 2016-01-27 北京至感传感器技术研究院有限公司 易穿戴式手势识别装置
CN105117026A (zh) * 2014-09-29 2015-12-02 北京至感传感器技术研究院有限公司 带有自检功能的手势识别装置及手势识别装置的自检方法
US9600079B2 (en) 2014-10-15 2017-03-21 At&T Intellectual Property I, L.P. Surface determination via bone conduction
JP2016095795A (ja) * 2014-11-17 2016-05-26 株式会社東芝 認識装置、方法、及びプログラム
KR101559288B1 (ko) 2014-11-18 2015-10-20 (주)이미지스테크놀로지 센서전극 일체형 햅틱 액츄에이터와 이를 포함하는 착용형 장치
KR101572941B1 (ko) 2014-12-16 2015-11-30 현대자동차주식회사 이벤트 알림 방법 및 이를 위한 장치
DE102014226546A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
JP6483556B2 (ja) 2015-07-15 2019-03-13 株式会社東芝 操作認識装置、操作認識方法及びプログラム
KR101939774B1 (ko) * 2015-07-15 2019-01-17 삼성전자주식회사 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법.
JP6170973B2 (ja) * 2015-09-29 2017-07-26 レノボ・シンガポール・プライベート・リミテッド 携帯情報端末、情報処理方法、及び、プログラム
CN106647292A (zh) * 2015-10-30 2017-05-10 霍尼韦尔国际公司 用于智能家居系统的可穿戴手势控制设备和方法
KR102437106B1 (ko) 2015-12-01 2022-08-26 삼성전자주식회사 마찰음을 이용하는 장치 및 방법
CN105741861B (zh) * 2016-02-05 2017-12-15 京东方科技集团股份有限公司 智能播放系统、方法、可穿戴设备、主体单元和播放单元
CN112040858A (zh) 2017-10-19 2020-12-04 脸谱科技有限责任公司 用于识别与神经肌肉源信号相关的生物结构的系统和方法
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10831316B2 (en) 2018-07-26 2020-11-10 At&T Intellectual Property I, L.P. Surface interface
EP3886693A4 (en) 2018-11-27 2022-06-08 Facebook Technologies, LLC. METHOD AND DEVICE FOR AUTOCALIBRATION OF A PORTABLE ELECTRODE SENSING SYSTEM
CN111752133A (zh) * 2019-03-28 2020-10-09 精工电子有限公司 手表用带
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000049935A (ja) * 1998-03-18 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> 装着型通信装置
JP2002167249A (ja) * 2000-11-30 2002-06-11 Nippon Sheet Glass Co Ltd ガラスパネル
JP2004013209A (ja) * 2002-06-03 2004-01-15 Japan Science & Technology Corp 手首装着型指動作情報処理装置
JP2005058534A (ja) * 2003-08-14 2005-03-10 Sony Corp 情報処理端末及び通信システム
JP2005525635A (ja) * 2002-05-10 2005-08-25 ドリューセリウス,ヘンリック 電子装置へのコマンド信号を生成する装置
JP2005352739A (ja) * 2004-06-10 2005-12-22 Nec Corp 携帯端末装置、入力システム、情報入力方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0951883B1 (en) * 1998-03-18 2005-07-27 Nippon Telegraph and Telephone Corporation Wearable communication device with bone conduction transducer
JP3677149B2 (ja) 1998-05-26 2005-07-27 日本電信電話株式会社 手首装着型入力装置
JP4312366B2 (ja) 2000-10-12 2009-08-12 日本放送協会 指装着型点字情報提示装置
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
AU2003205391A1 (en) 2002-03-12 2003-09-29 Senseboard, Inc. Data input device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000049935A (ja) * 1998-03-18 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> 装着型通信装置
JP2002167249A (ja) * 2000-11-30 2002-06-11 Nippon Sheet Glass Co Ltd ガラスパネル
JP2005525635A (ja) * 2002-05-10 2005-08-25 ドリューセリウス,ヘンリック 電子装置へのコマンド信号を生成する装置
JP2004013209A (ja) * 2002-06-03 2004-01-15 Japan Science & Technology Corp 手首装着型指動作情報処理装置
JP2005058534A (ja) * 2003-08-14 2005-03-10 Sony Corp 情報処理端末及び通信システム
JP2005352739A (ja) * 2004-06-10 2005-12-22 Nec Corp 携帯端末装置、入力システム、情報入力方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013500522A (ja) * 2009-07-23 2013-01-07 クゥアルコム・インコーポレイテッド モバイルデバイスおよび家庭用電子デバイスを制御するために着用可能デバイスを用いた分配ユーザインターフェースのための方法および装置
US9000887B2 (en) 2009-07-23 2015-04-07 Qualcomm Incorporated Method and apparatus for communicating control information by a wearable device to control mobile and consumer electronic devices
US9024865B2 (en) 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US9030404B2 (en) 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
JP2019135665A (ja) * 2012-07-13 2019-08-15 太郎 諌山 要素選択装置、要素選択方法、および、プログラム
JP2015228115A (ja) * 2014-05-30 2015-12-17 富士通株式会社 入力装置

Also Published As

Publication number Publication date
US20100066664A1 (en) 2010-03-18
KR100793079B1 (ko) 2008-01-10
WO2008069577A1 (en) 2008-06-12

Similar Documents

Publication Publication Date Title
JP2010511960A (ja) 手首装着型ユーザ命令入力装置及びその方法
JP4988016B2 (ja) 指の動き検出装置およびその方法
US11009951B2 (en) Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
CN101620465B (zh) 一种指令输入方法及数据处理系统
US10168775B2 (en) Wearable motion sensing computing interface
US20110234488A1 (en) Portable engine for entertainment, education, or communication
JP2019023941A (ja) ジェスチャに基づいて制御するための筋活動センサ信号と慣性センサ信号とを結合する方法および装置
US20150370326A1 (en) Systems, articles, and methods for wearable human-electronics interface devices
US20060125789A1 (en) Contactless input device
JP2002333949A (ja) 無線式入力装置及び無線式ペン型コンピュータ入力システム・装置
JP2002278673A (ja) バイオフィードバックを用いた情報入力システム及び情報入力方法
KR20090127544A (ko) 터치 센서와 가속도 센서를 이용한 사용자의 터치패턴 인식시스템
JP2016533577A (ja) リモコン装置、情報処理方法およびシステム
CA2796451A1 (en) Wearable motion sensing computing interface
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
WO2015153690A1 (en) Wearable motion sensing computing interface
JP5794526B2 (ja) インタフェースシステム
US20160085311A1 (en) Control unit and method of interacting with a graphical user interface
JP2005525635A (ja) 電子装置へのコマンド信号を生成する装置
CN104932695B (zh) 信息输入装置及信息输入方法
KR102322968B1 (ko) 사용자의 손동작에 따른 명령 입력 장치 및 이를 이용한 명령 입력 방법
KR102452909B1 (ko) 웨어러블 마우스
KR20100066728A (ko) 반지형 입력 장치 및 그 방법
KR101805111B1 (ko) 그립형 입력인터페이스 장치 및 그 방법
JP2023135632A (ja) 手のマルチモーダル生体測定装置からのユーザ入力の検出

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121102