JP2008501169A - 触覚的制御によるデータ送信システム - Google Patents
触覚的制御によるデータ送信システム Download PDFInfo
- Publication number
- JP2008501169A JP2008501169A JP2007513962A JP2007513962A JP2008501169A JP 2008501169 A JP2008501169 A JP 2008501169A JP 2007513962 A JP2007513962 A JP 2007513962A JP 2007513962 A JP2007513962 A JP 2007513962A JP 2008501169 A JP2008501169 A JP 2008501169A
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- values
- picture
- acceleration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 10
- 230000001133 acceleration Effects 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000033001 locomotion Effects 0.000 claims abstract description 23
- 230000008859 change Effects 0.000 claims abstract description 6
- 230000011664 signaling Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 230000009849 deactivation Effects 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000004146 energy storage Methods 0.000 claims description 4
- 239000000446 fuel Substances 0.000 claims description 4
- 230000002207 retinal effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 21
- 210000003811 finger Anatomy 0.000 description 15
- 230000008901 benefit Effects 0.000 description 12
- 239000011521 glass Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 210000003813 thumb Anatomy 0.000 description 8
- 238000010079 rubber tapping Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 210000005224 forefinger Anatomy 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本発明は、触覚的な制御によって選択されたデータ・エレメントを端末(10)に転送する方法、システム、および装置に関する。それに関連付けられた参照値とデータ・エレメントは、参照テーブルに格納される。ユーザの身体の部分に固定された少なくとも1つの加速度センサ(31)は、ユーザの身体の動きに応じて変化し得る加速度の値および/または振動の値を検知する。比較モジュールは加速度の値および/または振動の値を参照値と比較し、参照値に関連付けられた少なくとも1つのデータ・エレメントを選択する。送信モジュールは、少なくとも1つの選択されたデータ・エレメントを端末(10)に送信する。
Description
本発明は、選択されたデータ・エレメントを身体制御によって端末に送信する方法、システム、および装置に関する。
最先端技術では、毎日使用する電子装置の端末、たとえば、ポータブル・コンピュータ、電子ノートブック(electronic notebook)(ポケットPC、ハンドヘルド、パームトップ)、携帯電話などはますます小型化している。そのために、このような端末のユーザにとって端末の操作はますます難しくなっている。特に、このような端末にはデータ・エレメントを入力するときに困難を伴う。スタイラスによるデータ・エレメントの入力が知られている。この目的のために、たとえば端末にキーボードが表示され、ユーザはスタイラスでデータ・エレメントを選択する。このような入力方法では、ユーザは完全にデータ・エレメントの入力に集中しなければならないので、たとえば同時に会話を続けるのは困難である。こうしたデータの入力では、ノートにメモするのに比べてはるかに長い時間がかかることが少なくない。端末上の専用書き込み領域を使用して、この書き込み領域に記号を書き込むことによってデータ・エレメントを端末に入力する方法も当業者には知られている。このようなデータ・エレメントの入力では、ユーザがデータ・エレメントを入力するのに、習慣的な記号表記法を使用しても学習しやすい記号表記法を使用してもよい。この結果、端末で文字認識が実行されるので、ユーザは入力した記号が端末にも正しく認識されたがどうかを常に確認する必要がある。この場合も、ユーザはデータ・エレメントの入力に非常に集中する必要があり、この期間は自らの周囲の重要な情報を吸収できない。端末のキーボードを使用してデータ・エレメントを入力することもできる。キーボードが大きすぎないように、小型になった端末にすべてを配置できるように、キーボードのキーは重複して使用される。このように、1度キーを押すと“a”が入力され、同じキーを2度押すと“b”という文字が入力され、同じキーを3度押すと“c”という文字が入力され、同じキーを4度押すと数字の“1”が入力される。このようなキーの重複利用では、非常に短いコマンドの入力またはメモのみが可能なことは明らかである。データ・エレメントを端末に入力するための最先端技術による入力方法は、非常に複雑なことが多い。端末にデータ・エレメントを入力するには、多くの場合に両手が必要である。熟練者のみがなんとか片手で端末を見ずに操作するが、無線電話の短縮ダイヤルやノートブック・装置上の警告の表示終了のように比較的単純なコマンドに限定される。最先端技術では、データ・エレメントの端末への入力は、たとえば常にキーボードやマウスなどの装置を使用して行われる。したがって、最先端技術において、端末のハンズフリー操作すなわち入力装置を使用しない操作は不可能である。
本発明の目的は、選択可能なデータ・エレメントを身体制御によって端末に送信するための、最先端技術の不利益を伴わない新しい方法、新しいシステム、および新しい装置を提案することである。
このような目的は、本発明により、特に独立請求項の要素によって達成される。従属請求項と「発明の実施の形態」に従って、さらに有利な実施形態が得られる。
参照テーブルには参照値および割り当てられたデータ・エレメントが格納され、ユーザの身体の部分に取付け可能な少なくとも1つの加速度センサによってユーザの身体の動きに応じて変化し得る加速度の値および/または振動の値がキャプチャされ、比較モジュールによって加速度の値および/または振動の値が参照値と比較され、参照値に割り当てられた少なくとも1つのデータ・エレメントが選択され、さらに送信モジュールによって少なくとも1つの選択されたデータ・エレメントが端末に送信される本発明により、このような目的が達成される。少なくとも1つの加速度センサは、ユーザの身体の任意の部分に任意の方法で取り付けることができる。このように、加速度センサは、たとえば、腕時計、指輪、衣類や手袋に取り付けることができる。たとえばユーザの指など、身体の適切な部分に加速度センサを取り付けることも想定できる。こうした方法には、ユーザが単純で便利なわかりやすい方法でデータ・エレメントを端末に送信できるという利点がある。このようにデータ・エレメントを端末に送信することにより、ユーザは非常に簡単に端末を制御できる。特に、第三者にわからないようにこのような送信を実行することができる。たとえば、親指と人差し指を短くたたくかまたは合わせる動作によってクリック機能をトリガすることができる。こうしたクリック機能により、たとえばプロジェクタを使用してプレゼンテーションをするときに、次のオーバーヘッド・シートまたはスライドへの移行をトリガしてもよい。
1つの実施形態の変形では、ピクチャの参照値が参照テーブルに格納され、少なくとも1つの参照値および対応するデータ・エレメントがピクチャの参照値に割り当てられ、表示装置によってユーザに対してピクチャ・データが表示され、視野方向モジュールによって決定されたユーザの視野方向に対応するピクチャ・データのピクチャ・データ・カットアウトが表示され、さらに比較モジュールによってピクチャ・データ・カットアウトがピクチャの参照値と比較され、この比較に基づいてデータ・エレメントが選択される。こうした実施形態の変形では、特にコンピュータを直感的かつ簡単に制御できる。このように、たとえば、ピクチャ・データをコンピュータ表示装置のデスクトップに関連付けることができた。これで、ユーザは、たとえば視野方向によってマウス・ポインタを制御でき、たとえば親指でキーボードの端を軽くたたく動作によってマウス・クリックをトリガできる。
1つの実施形態の変形では、参照値と割り当てられたデータ・エレメントのシーケンスが参照テーブルに格納され、キャプチャされた加速度の値および/または振動の値がシーケンス・モジュールによって加速度の値および/または振動の値のシーケンスとして処理され、さらに比較モジュールによって加速度の値および/または振動の値のシーケンスが参照テーブルの参照値のシーケンスと比較され、参照値のシーケンスに割り当てられた少なくとも1つのデータ・エレメントが選択される。このような実施形態の変形には、たとえば手を回転させて直後に手を閉じるといった、より複雑な身体の動きをデータ・エレメントに割り当てることができるという利点がある。
別の実施形態の変形では、データ・エレメントが端末に送信されたことが、信号装置によってユーザに信号で通知される。このような実施形態には、特にデータ・エレメントが端末に送信されると直ちにユーザに通知されるという利点がある。これは、たとえば、腕時計に取り付けた振動器によって、あるいは表示装置に対応するアイコンが表示されたことによって実行される。
別の実施形態の変形では、身体の動きのポイントの達成がフィードバック装置によってユーザに信号で送信される。たとえば、フィードバック装置は、腕時計に取り付けた振動器などの機械的な手段を備えており、ユーザが定義可能な身体の動き(たとえば手を90°回転)を実行すると直ちに、こうした手段によってマウス・クリックに類似の短い振動を発生する。こうした方法には、特に身体の動きの実行に関する情報をユーザが常に把握できるという利点がある。
さらに別の実施形態の変形では、位置の参照値と割り当てられたデータ・エレメントが参照テーブルに格納され、位置モジュールによってユーザの身体の位置のデータがキャプチャされ、さらに比較モジュールによって位置の参照値と身体の位置のデータが比較されて対応するデータ・エレメントが選択される。このような方法には、たとえば、特に座っているときは立ったり歩いたりしているときと異なるデータ・エレメントを選択できるという利点がある。このように、たとえば、座っているときの手の90°回転は、移動無線電話のコールの固定のネット電話への配信に関連し、一方、立ったり歩いたりしているときの同じ身体の動きは移動無線電話を使用したコールの受信に関連する。
別の実施形態の変形では、網膜走査表示装置によってユーザに対してピクチャ・データが表示され、かつ/または視標追跡システムによってユーザの視野方向が決定される。こうした実施形態の変形には、特に視標追跡システムと網膜走査表示装置によって、ユーザがどのデータ・エレメントを注視しているかが決定され、たとえば、親指と人差し指を合わせるかまたは軽くたたくことによってこのデータ・エレメントが選択され、端末に送信されるといった方法で、端末のハンドフリー操作が可能になるという利点がある。このような実施形態の変形には、さらに市販のコンポーネントを使用して本発明による方法を実施できるという利点もある。
別の実施形態の変形では、ピクチャ・データの表示とユーザの視野方向のキャプチャが対話型のMEMSRSDによって実行される。このような実施形態の変形には、特に極度に小型化されたコンポーネントを使用できるので、たとえばユーザのめがねなどに容易に取り付けることができるという利点がある。
別の実施形態の変形では、定義可能な非アクティブ化の基準に基づいて加速度センサがエネルギーを節約するアイドル・モードに入り、表示されるピクチャ・データの定義可能なアクティブ化のピクチャ・エレメントに対してユーザの視野方向を選択することによって、加速度センサがエネルギーを節約するアイドル・モードから復帰する。こうした実施形態の変形には、特に最適なエネルギー消費を実現できるという利点がある。非アクティブ化の基準は、たとえば、ユーザが定義可能な期間にわたって本発明による方法を実行しなかったことで構成されてもよい。その後で、エネルギーを節約するアイドル・モードに入る。さらに、非アクティブ化の基準は、特にユーザに固有の方法で、ユーザが適応できる方法で、かつ/または定義可能な手順のメカニズムに従って指定することもできる。
別の実施形態の変形では、加速度センサには、エネルギー貯蔵によって、かつ/または太陽発電機によって、かつ/または自動運動ジェネレータによって、かつ/または燃料電池システムによって電子エネルギーが供給される。こうした実施形態の変形には、特に市販のシステムを使用してエネルギーを供給できるという利点がある。こうした実施形態の変形には、エネルギー供給システムを選択することによって、非常に高い稼働率(たとえば数年以上)、非常に小型化されたデザイン、あるいは非常に経済的な製造が促進されるという利点がある。
さらに別の実施形態の変形では、データ・エレメントが装置識別子を伴って参照テーブルに格納される。こうした実施形態の変形には、たとえば、堅い表面を人差し指で軽くたたくと、プロジェクタのスイッチが入り、中指で軽くたたくと部屋の証明が消えるという利点がある。親指と人差し指でパチンと鳴らすと「次のフィルムに進む」、親指と中指でパチンと鳴らすと「1つ前のフィルムに戻る」、親指と人差し指で2度パチンと鳴らすと「最初のフィルムに戻る」などの機能が実行されるといったさらに別のパターンが可能である。さらに、指をこすったり指を折ったりする動作も同様に装置に登録でき、対応するデータ・エレメントを選択して端末に送信することができる。これによって、データ・エレメントを端末に送信するための非常に複雑な身体の言語を開発できる。
本発明の実施形態の変形について、実施例に関連付けながら以下で説明する。実施形態の例は、添付の図面によって説明される。
本発明の実施形態の変形について、実施例に関連付けながら以下で説明する。実施形態の例は、添付の図面によって説明される。
図1において、参照番号31は加速度センサを表している。図1に示すように、加速度センサ31は、たとえば腕時計30に取り付けてもよい。加速度センサは、最先端技術において知られており、たとえばVTI Technologies社(www.vti.fi)で製造され、販売されている。加速度センサ31は、最先端技術において加速度メーターとも呼ばれる。加速度センサ31は、高度に統合された方法で製造できるので、それ自体を腕時計30に付加された装置として容易に取り付けることができる。加速度センサ31は、1次元、2次元、あるいは3次元の加速度の値および/または振動の値の両方を記録できる。加速度センサは、3次元だけでなく、6次元の測定値を処理できるように設計することもできる。したがって、3次元の力と3次元のトルクを同時に記録できる。本明細書で使用する加速度という用語は、どちらかと言えば確定的な量を表しており、たとえば身体の部分の定義可能な回転(たとえば手首の回転や前腕の湾曲など)で測定される。本明細書で使用する振動という用語は、どちらかと言えば偶発的な量を表しており、たとえば人差し指と親指をすばやく合わせるとき、または堅い表面を指ですばやくたたくときに発生する手の部分の振動で測定される。最先端技術において、運動センサはgの1000分の1の桁からgの数千倍に至るまでの値を記録できることが知られている(gは地球上の重力加速度、すなわち約9.81m/s2を表す)。これより小さな加速度の値を記録する場合は、特に物体の位置を正確に記録でき、長時間にわたって追跡できる。これより大きな加速度の値を記録する場合は、特に動きの激しい動作を検知できる。図1に示す腕時計は、加速度センサ31が組み込まれており、加速度センサ31でキャプチャされた加速度の値および/または振動の値をさらに処理するのに必要な手段を備えている。図1に示すように、腕時計30とそれに組み込まれた加速度センサ31は、ユーザの手20の手首に取り付けられる。腕時計30は、無線通信インターフェイス40を備えることができる。図1に示すように、指21の動きに合わせて、ユーザは加速度の急激な変動および/または振動の急激な変動22をトリガ(引き起こすことが)でき、これがたとえばユーザの手の骨と手20の組織を経由して腕時計30に送信され、加速度の値および/または振動の値として加速度センサ31でキャプチャできる。
図1において、参照番号10は端末を表している。端末10は、パームトップ・コンピュータ、ラップトップ・コンピュータ、移動無線電話、テレビジョン・セット、ビデオ・プロジェクタ、現金自動預け払い機、プレイ・ステーション、あるいは他の任意の端末のいずれでもよい。本明細書に記載する端末は、たとえばキーボード、調節つまみ、またはスイッチなどの入力装置を使用してユーザが操作できる装備を意味する。図1において、端末10は移動無線電話として示されている。端末10は、表示装置11、入力装置12、無線通信インターフェイス13、および/またはIDカード14を備えることができる。
図1において、参照番号60は、ピクチャ・データを表示し、ユーザの視野方向を認識するための通信眼鏡を表している。通信眼鏡60は、ユーザに対してピクチャ・データを表示し、視野方向認識モジュールを使用してユーザの視野方向を認識するための表示装置を備えている。表示装置と視野方向認識モジュールは、図1に示すように、対話型のMEMSRSD 63(MEMSRSD:Micro−Electro−Mechanical Systems Retinal Scanning Display)として実装できる。対話型のMEMSRSD 63により、光ビーム80を介してピクチャ・データをユーザの目70の網膜に直接投影でき、ユーザが焦点を合わせるピクチャの座標または個々のユーザの視野方向がキャプチャされる。通信眼鏡60は、無線通信インターフェイス62、制御電子回路61、およびエネルギー供給源64を備えることができる。通信眼鏡60の表示装置または個々の対話型MEMSRSD 63により、たとえば、ピクチャ・データはユーザが図1に示す仮想のピクチャ50が見えることを印象付けるような方法でユーザに対して表示できる。ユーザが仮想ピクチャ50のどのピクチャ・データを見ているかは、通信眼鏡60の視野方向認識モジュールによって、または個々の対話型MEMSRSD 63によって認識できる。このように、たとえば、キーボード52、構成ポイント51、またはメニュー54が通信眼鏡60の表示装置によってユーザの網膜のカットアウト53に表示され、これにより、通信眼鏡60の視野方向認識モジュールによって、ユーザが仮想ピクチャ50に表示されるどのエレメントを現在見ているかを記録できる。
データ接続41、42は、前述の無線通信インターフェイスを使用して設定できる。無線通信インターフェイスは、たとえば、Bluetoothインターフェイス、WLANインターフェイス、ZigBeeインターフェイス、またはその他の任意の無線通信インターフェイス、特にNFCインターフェイス(NFC:near field communication)として実装できる。エネルギー消費を最小限に抑えるために、特定の無線通信インターフェイスは単方向通信インターフェイスとして設計してもよい。データ接続41、42を経由して、キャプチャされた加速度の値および/または振動の値、ピクチャ・データ、データ・エレメント、ユーザの視野方向に関するデータ、税金のデータ、またはその他の任意のデータを、前述の装備とコンポーネントの間で送信できる。図1に簡略化して示すデータ接続41、42だけでなく、たとえば腕時計30の無線通信インターフェイスと通信眼鏡の無線通信インターフェイスとの間のデータ接続ももちろん想定できる。
前述の装備とコンポーネント、すなわちたとえば腕時計30、端末10、あるいは通信眼鏡60などは、データとソフトウェア・モジュールを格納する手段と、ソフトウェア・モジュールを実行する手段(すなわち特に、適切なデータおよびソフトウェア・メモリを備えるマイクロプロセッサ)とを備えることができる。これによって、データ接続41、42および適切な通信プロトコルによって分散型システムを使用して以下で説明する機能およびシーケンスを実行できるように、ソフトウェア・モジュールを構成することができる。もちろん、ソフトウェア・モジュールは最新の開発環境とソフトウェア言語を使用して比較的短期間で開発でき、使用可能になる。
身体制御によってデータ・エレメントを端末10に送信するために、第1の参照値と割り当てられたデータ・エレメントが参照テーブルに格納される。参照テーブルは、前述の装備およびコンポーネントの任意のメモリ領域(たとえば、腕時計30のメモリ領域)に組み込まれる。参照値と割り当てられたデータ・エレメントを格納するために、たとえば、腕時計30はデータ・エレメントを連続的に表示するため、かつデータ・エレメントを表示する間に記録できる加速度の値および/または振動の値をキャプチャするためのソフトウェア・モジュールと表示装置を備えている。このように、たとえば、ユーザがデータ・エレメント“J”(肯定の判断を表す)を選択するために必要な身体の動き(たとえば、人差し指でテーブルなどの堅い表面を軽くたたく)を実行すると、トレーニング・フェーズの間にユーザに対してデータ・エレメント“J”が表示されてもよい。たとえば、こうしてキャプチャされた加速度の値および/または振動の値から、適切なソフトウェア・モジュールによって固有の特徴(たとえば、平均加速度や最大加速度)がキャプチャされ、参照値として参照テーブルに格納され、データ・エレメント“j”がこのような参照値に割り当てられる。任意の望ましい参照値と割り当てられたデータ・エレメントを、本方法を使用して参照テーブルに格納できる。もちろん、たとえば、信号を処理する適切な方法(たとえば、最尤検定、マルコフ(Markov)モデル、人工神経ネットワーク、信号を処理する他の任意の方法)を使用して加速度の値および/または振動の値を処理できることは、当業者には言うまでもない。さらに、参照値を格納するときに、通信眼鏡60を使用してユーザに対して表示され、ユーザの視野方向に従って表示されるピクチャ・データのピクチャの参照値を同時に格納することもできる。
続いて、腕時計30は参照値、データ・エレメント、および場合によってはピクチャの参照値も格納した参照テーブルを備えている。ユーザは、スライド・プレゼンテーション中のピクチャの切り替え、移動無線電話からの着呼の受信、他の任意の端末機能を、たとえば人差し指で堅い表面を軽くたたく動作によってトリガできる。軽くたたく動作によって記録された加速度の値および/または振動の値は、次に加速度センサによってキャプチャされ、さらに適切な手段(たとえば、加速度センサと、高機能マイクロプロセッサを搭載し、たとえばソフトウェア・モジュールとして実装された比較モジュールを格納した端末との間のデータ接続など)を使用して比較モジュールに送信される。ここで、比較モジュールは参照テーブルの参照値にアクセスし、こうした参照値とキャプチャされた加速度の値および/または振動の値とを比較する。もちろん、この比較は情報技術および信号処理のさまざまな方法(たとえば、最尤検定、マルコフ・モデル、または人工神経ネットワーク)に基づいて実行できる。こうした参照値とキャプチャされた加速度の値および/または振動の値とが比較モジュールによって十分に一致するとして分類された直後に、参照値に割り当てられたデータ・エレメントを、たとえばソフトウェア・モジュールとして実装された送信モジュールによって端末に送信できる。データ・エレメントは、たとえばASCII標準による記号、端末制御標準によるコードで記述された制御コマンド、または他の任意のデータ・エレメントを備えている。通信眼鏡とともに、さらに、ユーザに対して表示されたピクチャ・データから、ユーザが参照し、選択して実行するメニュー項目を、たとえば人差し指で軽くたたく動作によって選択し、実行することもできる。
もちろん、メニュー項目は、たとえばアドレス・ブックを参照するといった端末10を制御する機能や、端末10を制御する他の任意の機能に関連付けることができる。
たとえば、親指と人差し指を合わせたりたたいたりする動作によって、手と手首の急激な機械的変動がトリガされる。この急激な変動は身体の動きにおいて特徴的であり、腕時計(すなわちたとえば腕時計の筐体の内部)に組み込まれた加速度センサによってこの急激な機械的変動をキャプチャできる。急激な機械的変動の送信は、手と手首の組織と骨の両方によって、またはその他の身体の各部分によって行われる。キャプチャされた加速度の値および/または振動の値を適切に処理することによって特徴的な機能が決定され、身体制御による方法でデータ・エレメントを選択でき、端末に送信できるようにする。身体の動きによる急激な機械的変動は、それぞれ身体の動きにおいて固有の特徴がある場合に発生するので、非常にさまざまなデータ・エレメントについて、身体制御によってデータ・エレメントを選択し、これを端末に送信することができる。
Claims (31)
- 選択されたデータ・エレメントを端末(10)に送信するための身体制御による方法であって、
参照値および割り当てられたデータ・エレメントが参照テーブルに格納され、
ユーザの身体の部分に取付け可能な少なくとも1つの加速度センサ(31)によって前記ユーザの身体の動きに応じて変化し得る加速度の値および/または振動の値がキャプチャされ、
比較モジュールによって加速度の値および/または振動の値が参照値と比較され、参照値に割り当てられた少なくとも1つのデータ・エレメントが選択され、さらに
送信モジュールによって前記選択された少なくとも1つのデータ・エレメントが前記端末(10)に送信される方法。 - ピクチャの参照値が前記参照テーブルに格納され、少なくとも1つの参照値および対応するデータ・エレメントがピクチャの参照値に割り当てられ、
表示装置によって前記ユーザに対してピクチャ・データが表示され、視野方向モジュールによって決定される前記ユーザの前記視野方向に対応する前記表示されたピクチャ・データからピクチャ・データ・カットアウトが表示され、さらに
前記比較モジュールによって前記ピクチャ・データ・カットアウトがピクチャの参照値と比較され、この比較に基づいてデータ・エレメントが選択される請求項1に記載の方法。 - 参照値および割り当てられたデータ・エレメントのシーケンスは前記参照テーブルに格納され、シーケンス・モジュールによってキャプチャされた加速度の値および/または振動の値は加速度の値および/または振動の値のシーケンスとして処理され、さらに前記比較モジュールによって加速度の値および/または振動の値のシーケンスは前記参照テーブルの参照値のシーケンスと比較され、参照値のシーケンスに割り当てられた少なくとも1つのデータ・エレメントが選択される請求項1乃至2のいずれか1項に記載の方法。
- データ・エレメントの前記端末への送信は、信号装置によって前記ユーザに信号で通知される請求項1乃至3のいずれか1項に記載の方法。
- 身体の動きのポイント達成は、フィードバック装置によって前記ユーザに信号で通知される請求項1乃至4のいずれか1項に記載の方法。
- 位置の参照値および割り当てられたデータ・エレメントが前記参照テーブルに格納され、位置モジュールによって前記ユーザの身体の位置のデータがキャプチャされ、さらに前記比較モジュールによって位置の参照値と身体の位置のデータが比較され、対応するデータ・エレメントが選択される請求項1乃至5のいずれか1項に記載の方法。
- 網膜走査表示装置によって前記ユーザに対してピクチャ・データが表示され、かつ/または視標追跡システムによって前記ユーザの前記視野方向が決定される請求項2乃至6のいずれか1項に記載の方法。
- ピクチャ・データの表示と前記ユーザの前記視野方向の認識を対話型のMEMSRSD(63)によって実行できる請求項2乃至7のいずれか1項に記載の方法。
- 定義可能な非アクティブ化の基準に基づいて前記加速度センサ(31)はエネルギーを節約するアイドル・モードに入り、前記表示されたピクチャ・データ(53)の定義可能なアクティブ化のピクチャ・エレメント(51)に対して前記ユーザが前記視野方向を選択することによって、前記加速度センサは前記エネルギーを節約するアイドル・モードから復帰する請求項2乃至8のいずれか1項に記載の方法。
- 前記加速度センサ(31)には、エネルギー貯蔵によって、かつ/または太陽発電機によって、かつ/または自動運動ジェネレータによって、かつ/または燃料電池システムによって電子エネルギーが供給される請求項1乃至9のいずれか1項に記載の方法。
- データ・エレメントは装置識別子を伴って前記参照テーブルに格納される請求項1乃至10のいずれか1項に記載の方法。
- 選択されたデータ・エレメントを端末(10)に送信するための身体制御によるシステムであって、
参照値および割り当てられたデータ・エレメントを格納する参照テーブルを備えており、
前記ユーザの身体の動きに応じて変化し得る加速度の値および/または振動の値をキャプチャするための前記ユーザの身体の部分に取付け可能な加速度センサ(31)を備えており、
加速度の値および/または振動の値を参照値と比較する比較モジュールを備えており、前記比較モジュールによって参照値に割り当てられたデータ・エレメントが選択され、
前記選択されたデータ・エレメントを端末(10)に送信するための送信モジュールを備えるシステム。 - ピクチャの参照値は前記参照テーブルに格納でき、少なくとも1つの参照値と対応するデータ・エレメントはピクチャの参照値に割り当てることができ、
前記システムは前記ユーザに対してピクチャ・データを表示する表示装置と、前記ユーザの視野方向を認識し、前記ユーザの前記視野方向に対応するピクチャ・データ・カットアウトを決定するための視野方向認識モジュールを備えており、
前記比較モジュールはピクチャ・データ・カットアウトとピクチャの参照値とを比較し、この比較に基づいてデータ・エレメントを選択するための手段を備える請求項12に記載のシステム。 - 参照値および割り当てられたデータ・エレメントのシーケンスは前記参照テーブルに格納でき、前記システムは加速度の値および/または振動の値のシーケンスをキャプチャし、処理するシーケンス・モジュールを備えており、前記比較モジュールは加速度の値および/または振動の値のシーケンスと参照値のシーケンスとを比較し、さらに参照値のシーケンスに割り当てられたデータ・エレメントを選択するための手段を備える請求項12乃至13のいずれか1項に記載のシステム。
- データ・エレメントを前記端末に送信したことを前記ユーザに信号で通知するための信号装置を備える請求項12乃至14のいずれか1項に記載のシステム。
- 身体の動きのポイントが達成されたことを前記ユーザに信号で通知するためのフィードバック装置を備える請求項12乃至15のいずれか1項に記載のシステム。
- 位置の参照値および割り当てられたデータ・エレメントは前記参照テーブルに格納でき、前記ユーザの身体の位置のデータは位置モジュールによってキャプチャでき、位置の参照値と身体の位置のデータは前記比較モジュールによって比較でき、対応するデータ・エレメントは選択可能である請求項12乃至16のいずれか1項に記載のシステム。
- ピクチャ・データを表示するための網膜走査表示装置および/または前記ユーザの前記視野方向を認識するための視標追跡システムを備える請求項13乃至17のいずれか1項に記載のシステム。
- ピクチャ・データを表示し、前記ユーザの前記視野方向を認識するためのMEMSRSD (63)を備える請求項13乃至18のいずれか1項に記載のシステム。
- 定義可能な非アクティブ化の基準に基づいて前記加速度センサ(31)がエネルギーを節約するアイドル・モードに入り、前記ユーザに表示される前記ピクチャ・データの定義可能なアクティブ化のピクチャ・エレメントに対して前記ユーザが前記視野方向を選択することによって、前記加速度センサが前記エネルギーを節約するアイドル・モードから復帰するための手段を備える請求項13乃至19のいずれか1項に記載のシステム。
- 前記電子エネルギーを供給するシステムは、エネルギー貯蔵、および/または太陽発電機、および/または自動加速度ジェネレータ、および/または燃料電池システムを備える請求項12乃至20のいずれか1項に記載のシステム。
- 装置識別子は前記データ・エレメントに伴って前記参照テーブルに格納できる請求項12乃至21のいずれか1項に記載のシステム。
- 選択されたデータ・エレメントを端末(10)に送信するための身体制御による装置であって、
参照値および割り当てられたデータ・エレメントを格納する参照テーブルを備えており、
前記ユーザの身体の部分に取付け可能であり、前記ユーザの身体の動きに応じて変化し得る加速度の値および/または振動の値は前記装置の加速度センサ(31)によってキャプチャでき、
加速度の値および/または振動の値を参照値と比較する比較モジュールを備えており、参照値に割り当てられたデータ・エレメントは前記比較モジュールによって選択でき、
前記選択されたデータ・エレメントを端末(10)に送信するための送信モジュールを備える装置。 - ピクチャの参照値は前記参照テーブルに格納でき、少なくとも1つの参照値および対応するデータ・エレメントはピクチャの参照値に割り当てることができ、
前記ユーザの前記視野方向に対応するピクチャ・データ・カットアウトは前記装置に送信可能であり、さらに
前記比較モジュールはピクチャ・データ・カットアウトをピクチャの参照値と比較し、この比較に基づいてデータ・エレメントを選択するための手段を備える請求項23に記載の装置。 - 参照値および割り当てられたデータ・エレメントのシーケンスは前記参照テーブルに格納でき、前記装置は加速度の値および/または振動の値のシーケンスをキャプチャし、処理するシーケンス・モジュールを備えており、前記比較モジュールは加速度の値および/または振動の値のシーケンスを参照値のシーケンスと比較し、参照値のシーケンスに割り当てられたデータ・エレメントを選択するための手段を備える請求項23乃至24のいずれか1項に記載の装置。
- データ・エレメントを前記端末に送信したことを前記ユーザに信号で通知するための信号装置を備える請求項23乃至25のいずれか1項に記載の装置。
- 身体の動きのポイントが達成されたことを前記ユーザに信号で通知するためのフィードバック装置を備える請求項23乃至26のいずれか1項に記載の装置。
- 位置の参照値と割り当てられたデータ・エレメントは前記参照テーブルに格納でき、前記ユーザの身体の位置のデータは位置モジュールによってキャプチャでき、前記比較モジュールによって位置の参照値と身体の位置のデータを比較でき、対応するデータ・エレメントを選択できる請求項23乃至27のいずれか1項に記載の装置。
- 定義可能な非アクティブ化の基準に基づいて前記加速度センサ(31)がエネルギーを節約するアイドル・モードに入り、定義可能な制御基準に基づいて前記加速度センサが前記エネルギーを節約するアイドル・モードから復帰するための手段を備える請求項23乃至28のいずれか1項に記載の装置。
- 電子エネルギーを供給する装置は、エネルギー貯蔵、および/または太陽発電機、および/または自動加速度ジェネレータ、および/または燃料電池システムを備える請求項23乃至29のいずれか1項に記載の装置。
- 装置識別子は前記データ・エレメントに伴って前記参照テーブルに格納できる請求項23乃至30のいずれか1項に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04102441A EP1603011B1 (de) | 2004-06-01 | 2004-06-01 | Leistungseinsparung in einer Koordinateneingabevorrichtung |
EP20040102783 EP1607839B1 (de) | 2004-06-17 | 2004-06-17 | System und Verfahren zur körpergesteuerten Eingabe von Datenelementen |
PCT/EP2005/052506 WO2005119413A1 (de) | 2004-06-01 | 2005-06-01 | Verfahren, system und vorrichtung zur körpergesteuerten übertragung von selektierbaren datenelementen an ein endgerät |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008501169A true JP2008501169A (ja) | 2008-01-17 |
Family
ID=34968982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007513962A Pending JP2008501169A (ja) | 2004-06-01 | 2005-06-01 | 触覚的制御によるデータ送信システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20080068195A1 (ja) |
EP (1) | EP1756700B1 (ja) |
JP (1) | JP2008501169A (ja) |
KR (1) | KR20070024657A (ja) |
ES (1) | ES2446423T3 (ja) |
WO (1) | WO2005119413A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8996332B2 (en) | 2008-06-24 | 2015-03-31 | Dp Technologies, Inc. | Program setting adjustments based on activity identification |
TW201020896A (en) * | 2008-11-19 | 2010-06-01 | Nat Applied Res Laboratories | Method of gesture control |
CN102083145A (zh) * | 2010-04-29 | 2011-06-01 | 大唐移动通信设备有限公司 | 一种节能方法及设备 |
KR20120105818A (ko) * | 2011-03-16 | 2012-09-26 | 한국전자통신연구원 | 이벤트 기반의 정보입력 장치 및 방법 |
JP5903797B2 (ja) * | 2011-08-15 | 2016-04-13 | 富士通株式会社 | 携帯端末装置及び制御方法 |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05216648A (ja) * | 1991-10-21 | 1993-08-27 | Internatl Business Mach Corp <Ibm> | ジェスチャ認識を行うグラフィッカル・ユーザ・インターフェース及びその方法 |
JP2000132305A (ja) * | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
JP2000322186A (ja) * | 1998-03-18 | 2000-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 装着型コマンド入力装置 |
JP2001209469A (ja) * | 2000-01-25 | 2001-08-03 | Nec Corp | 携帯端末の文字入力方式及び文字入力制御プログラムを記録した機械読み取り可能な記録媒体 |
JP2001282416A (ja) * | 2000-03-31 | 2001-10-12 | Murata Mfg Co Ltd | 入力装置 |
JP2003334389A (ja) * | 2002-05-20 | 2003-11-25 | National Institute Of Advanced Industrial & Technology | ジェスチャ認識による制御装置、その方法および記録媒体 |
JP2004078966A (ja) * | 2002-08-19 | 2004-03-11 | Samsung Electro Mech Co Ltd | 着用可能な情報入力装置、情報処理装置及び情報入力方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4862172A (en) * | 1987-09-14 | 1989-08-29 | Texas Scottish Rite Hospital For Crippled Children | Computer control apparatus including a gravity referenced inclinometer |
US4925189A (en) * | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
WO1993014454A1 (en) * | 1992-01-10 | 1993-07-22 | Foster-Miller, Inc. | A sensory integrated data interface |
JPH0830380A (ja) * | 1994-05-10 | 1996-02-02 | Minolta Co Ltd | 表示装置 |
US6072467A (en) * | 1996-05-03 | 2000-06-06 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Continuously variable control of animated on-screen characters |
US6600480B2 (en) * | 1998-12-31 | 2003-07-29 | Anthony James Francis Natoli | Virtual reality keyboard system and method |
US6670894B2 (en) * | 2001-02-05 | 2003-12-30 | Carsten Mehring | System and method for keyboard independent touch typing |
KR100446613B1 (ko) * | 2001-07-16 | 2004-09-04 | 삼성전자주식회사 | 착용할 수 있는 정보 입력 장치를 사용한 정보 입력 방법 |
US20020158827A1 (en) * | 2001-09-06 | 2002-10-31 | Zimmerman Dennis A. | Method for utilization of a gyroscopic or inertial device as a user interface mechanism for headmounted displays and body worn computers |
EP1408443B1 (en) * | 2002-10-07 | 2006-10-18 | Sony France S.A. | Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition |
JP4142460B2 (ja) * | 2003-01-31 | 2008-09-03 | オリンパス株式会社 | 運動検出装置 |
KR100682885B1 (ko) * | 2003-04-23 | 2007-02-15 | 삼성전자주식회사 | 공간형 정보 입력 장치 및 방법, 이를 위한 소프트 키매핑 방법 및 그에 따른 가상 키보드 |
US20030179178A1 (en) * | 2003-04-23 | 2003-09-25 | Brian Zargham | Mobile Text Entry Device |
US7321360B1 (en) * | 2004-05-24 | 2008-01-22 | Michael Goren | Systems, methods and devices for efficient communication utilizing a reduced number of selectable inputs |
-
2005
- 2005-06-01 ES ES05749191.2T patent/ES2446423T3/es active Active
- 2005-06-01 JP JP2007513962A patent/JP2008501169A/ja active Pending
- 2005-06-01 WO PCT/EP2005/052506 patent/WO2005119413A1/de active Application Filing
- 2005-06-01 US US11/628,219 patent/US20080068195A1/en not_active Abandoned
- 2005-06-01 EP EP05749191.2A patent/EP1756700B1/de active Active
- 2005-06-01 KR KR1020067027453A patent/KR20070024657A/ko not_active Application Discontinuation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05216648A (ja) * | 1991-10-21 | 1993-08-27 | Internatl Business Mach Corp <Ibm> | ジェスチャ認識を行うグラフィッカル・ユーザ・インターフェース及びその方法 |
JP2000322186A (ja) * | 1998-03-18 | 2000-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 装着型コマンド入力装置 |
JP2000132305A (ja) * | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
JP2001209469A (ja) * | 2000-01-25 | 2001-08-03 | Nec Corp | 携帯端末の文字入力方式及び文字入力制御プログラムを記録した機械読み取り可能な記録媒体 |
JP2001282416A (ja) * | 2000-03-31 | 2001-10-12 | Murata Mfg Co Ltd | 入力装置 |
JP2003334389A (ja) * | 2002-05-20 | 2003-11-25 | National Institute Of Advanced Industrial & Technology | ジェスチャ認識による制御装置、その方法および記録媒体 |
JP2004078966A (ja) * | 2002-08-19 | 2004-03-11 | Samsung Electro Mech Co Ltd | 着用可能な情報入力装置、情報処理装置及び情報入力方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20070024657A (ko) | 2007-03-02 |
US20080068195A1 (en) | 2008-03-20 |
EP1756700A1 (de) | 2007-02-28 |
EP1756700B1 (de) | 2013-11-27 |
ES2446423T3 (es) | 2014-03-07 |
WO2005119413A1 (de) | 2005-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11045725B1 (en) | Controller visualization in virtual and augmented reality environments | |
CN105824431B (zh) | 信息输入装置与方法 | |
CN107533373B (zh) | 虚拟现实中经由手与对象的场境敏感碰撞的输入 | |
KR102038638B1 (ko) | 가상 현실에서 핸드 헬드 디바이스를 트랙킹하는 시스템 | |
EP2353065B1 (en) | Controlling and accessing content using motion processing on mobile devices | |
EP2975497B1 (en) | Terminal device, terminal device control method, and program | |
US8502769B2 (en) | Universal input device | |
US20090262074A1 (en) | Controlling and accessing content using motion processing on mobile devices | |
EP2573650A1 (en) | Portable information processing terminal | |
JP2008501169A (ja) | 触覚的制御によるデータ送信システム | |
CN100543651C (zh) | 将可选择的数据元受身体控制地传输给终端设备的方法、系统和设备 | |
CN110456911A (zh) | 电子设备控制方法和装置、电子设备、可读存储介质 | |
KR101727082B1 (ko) | 측면디스플레이부를 구비한 이동단말기를 이용한 게임수행방법 및 프로그램 | |
EP3255927B1 (en) | Method and device for accessing wi-fi network | |
KR101727081B1 (ko) | 측면디스플레이부를 구비한 이동단말기를 이용한 게임수행방법 및 프로그램 | |
Wachner et al. | Towards gaze-based mobile device interaction for the disabled | |
CN212460417U (zh) | 一种便携式计算通讯一体机 | |
CN108845739A (zh) | 一种导航键的控制方法及移动终端 | |
CN212460418U (zh) | 一种便携式计算机 | |
CN107368179A (zh) | 一种虚拟现实系统的输入方法及装置 | |
Blackmon et al. | Target acquisition by a hands-free wireless tilt mouse | |
WO2023230354A1 (en) | Systems for interpreting thumb movements of in-air hand gestures for controlling user interfaces based on spatial orientations of a user's hand, and method of use thereof | |
CN111324184A (zh) | 一种便携式计算通讯一体机 | |
CN117237436A (zh) | 用于确定至少两个用户之间的相对位姿关系的方法与系统 | |
CN118535000A (zh) | 设备控制方法及装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110516 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110808 |