JP5353877B2 - 入力装置とその入力装置を備えた端末および入力方法 - Google Patents
入力装置とその入力装置を備えた端末および入力方法 Download PDFInfo
- Publication number
- JP5353877B2 JP5353877B2 JP2010501851A JP2010501851A JP5353877B2 JP 5353877 B2 JP5353877 B2 JP 5353877B2 JP 2010501851 A JP2010501851 A JP 2010501851A JP 2010501851 A JP2010501851 A JP 2010501851A JP 5353877 B2 JP5353877 B2 JP 5353877B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- data
- finger
- force
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims description 111
- 230000005484 gravity Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 8
- 210000000988 bone and bone Anatomy 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 79
- 238000010586 diagram Methods 0.000 description 13
- 210000000623 ulna Anatomy 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 8
- 210000004936 left thumb Anatomy 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0338—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Description
機器上の入力部のスペースを小さくするための方法として、X、Y、Z軸方向の指圧を検知することで、ポインタや文字入力操作を行なうものがある。この例としては、トラックポイントを用いて、その指圧変化パターンから手書き文字入力を行なうものがある(例えば、特許文献1参照)。しかしながら、特許文献1に記載されたものでは、入力動作を行なう指先の移動がないため動作確認が難しく、入力のために慣れが必要となり、入力ミスの原因にもなる。
また、検出部を機器から切り離し、その検出部を独立して配置する方法がある。この例としては、体に検出部を装着させることにより入力を行なう装置がある(例えば、特許文献2参照)。しかしながら、この方式では、入力部を機器とは別に用意する必要があり、可搬性には優れていない。また、操作者に検出部をとりつけるわずらわしさもある。
而して、手書き文字入力のような操作では、大きい入力エリアが必要となる。なぜなら、手書き文字入力等の入力操作では、スクロールを伴う操作や入力の開始位置を絶対位置で指定する必要があるため、大きい入力エリアが要求されるからである。つまり、従来の入力装置では、スクロール動作や手書き文字入力と入力エリアの縮小とを両立させることは困難であった。
一方、特許文献2にて開示されたような、入力部を機器から切り離して人体に装着させる方式によれば、機器上での入力部エリアを縮小するという要請には応えることができる。
しかしながら、この方式では、入力部を操作者に取り付けるわずらわしさがあり、また入力操作を行なわない時は邪魔である。
本発明の目的は、可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくすることによる、操作者の使いにくさを改善させる装置を提供することにある。
〔第1の実施の形態〕
図1(a)は、本発明の第1の実施の形態の入力装置の構成を示すブロック図である。図1(a)に示すように、本実施の形態の入力装置は、入力を行なう指先と接触する位置に配置されていて、力を検出すると、複数の検出データaを出力する複数の検出部2を含む入力部3と、検出データaを監視し、検出部2に入力が行なわれたことを検出すると活性化されて、ある一定の時間間隔で入力を検出するタイミングとなるトリガーを生成し、これをタイミングデータcとして出力するタイマ管理制御部6と、検出データaとタイミングデータcを受けると、タイミングデータcのトリガーに基づいて検出データaをトリガー毎の時系列データに変換し、この時系列データと予め記憶されているデータベース4の蓄積データbを対比することで、入力動作を特定し、その入力動作を入力情報特定データdとして出力する入力情報特定手段5と、により構成されている。
図2に示した入力エリア1は、図3に示すように、複数の領域に分割されている。その分割の一例を説明すると、入力エリア1は、人差し指において、各関節の間に分布した第1入力エリア11から第3入力エリア13のように分割され、手の甲に渡って第4入力エリア14、親指において、各関節間に分布した第5入力エリア15から第7入力エリア17のように分割されている。
なお、本願明細書において、押し込み方向、指先方向、指側面垂直方向は次の意味で用いられている。押し込み方向(z方向)とは、平行板22に垂直の方向である。指先方向(x方向)は、平行板22に平行で指が指す方向である。指側面垂直方向(y方向)は、押し込み方向と指先方向とに垂直の方向である。
感圧センサ23は、3方向成分の検出データを外部に出力するための配線基板10上に固定されている。なお、図4において、11は筐体、12はベースである。
図1(a)に示される入力装置から出力される入力情報特定データdは、例えばモニタ上に表示される。そのための構成を図1(b)に示す。図1(b)に示す入力装置において、情報提示手段7は、入力情報特定データdをうけて、その動作に割り当てられたポインタの位置・動作などの機能を情報提示装置上に提示する。
次に、本実施の形態の動作を図1及び図5を参照して説明する。まず、機器と指先で接触している指への押し込みが行なわれると、ステップS101において、検出部2が、指先との接触面から垂直方向に押し込む力と指先方向にスライドさせる力と指側面垂直方向にスライドさせる力とを検出し、3方向成分をそれぞれ押し込みデータ、指先スライドデータ、指側面垂直スライドデータとして検出データaとして出力する。ステップS102において、タイマー管理制御手段6は、検出部2に入力が行なわれたことを検知すると、一定の時間間隔で、入力情報特定手段5において検出データ2を採取しデータとして記録するためのタイミングを生成し、タイミングデータcとして出力する。ステップS103において、入力情報特定手段5は、3方向成分の検出データaをタイミングデータcに基づき時系列のデータに変換し、これと、予めデータベース4に保存されている時系列のデータである蓄積データbとを対比することにより、どの入力動作が行なわれているかの特定を行ない、入力情報特定データdとして出力する。入力装置が、図1(b)に示されるように、情報提示手段7を有している場合、ステップS104において、情報提示手段7は、特定された入力情報特定データdに割り当てられたポインタの位置・動作などの機能を表示画面上に表示する。
図6は、入力エリア1のある人差し指を関節ごとに分割して表した図である。図6に示すように、入力エリア1を、指先から第一関節まで、第一関節から第二関節まで、第二関節から第三関節までの3つの領域に分け、それぞれを第1入力エリア11、第2入力エリア12、第3入力エリア13とする。また指は骨により剛性が保たれていることと、その相互間が関節によりつながれているため、仮想的に両端を回転角度に制限のある回転支持により支えられている梁であると考えることができる。また、各入力エリア11、12、13の梁の長さをそれぞれl1、l2、l3とする。
図7のi)欄には、第1入力エリア11を押し込んでいる状態が示されている。第1入力エリア11を押し込んだ時には第一関節が力のモーメントにより第1入力エリア11と第2入力エリア12とを直線でつなぐ角度でこれ以上曲がらなくなるため、水平方向の長さの拘束条件、垂直方向の長さの拘束条件、水平方向力のつりあい条件、垂直方向力のつりあい条件、指の付け根回りのモーメントのつりあい条件、指先回りのモーメントのつりあい条件により成り立つ6つの条件式から、押し込みを行なう力、指の付け根である第三関節での力、そして検出部2に加わる力の分力である垂直方向に押し込む力と水平方向にスライドさせる力の間の関係式を求めることができる。
指先から指の付け根までの水平方向の長さをw、高さをhとする。指先における第1入力エリア11の軸の水平方向からの角度をθ1、指の付け根における第3入力エリア13の軸の垂直方向からの角度をθ3とする。押し込みを行なう力は垂直方向に働き、その力をFとする。また押し込みを行なう位置は各入力エリア11〜13におけるはりの中間であるとする。指先にかかる力の水平方向の力をF1x、垂直方向の力をF1zとする。指の付け根にかかる力の水平方向の力をF3x、垂直方向の力をF3zとする。
水平方向の長さの拘束条件:
w=l3sinθ3+(l1+l2)cosθ1
垂直方向の長さの拘束条件:
h=l3cosθ3+(l1+l2)sinθ1
水平方向力のつりあい条件:
F1z+F3z=F
垂直方向力のつりあい条件:
F3x=F1x
指の付け根回りのモーメントのつりあい条件:
第3入力エリア13に押し込みが行なわれた場合については、第3入力エリア13を押し込んでいる状態を示す図7のiii)に示されるように、第3入力エリア13を押し込んだ時には第二関節が力のモーメントにより第2入力エリア12と第3入力エリア13とを直線でつなぐ角度でこれ以上曲がらなくなるため、図7の同欄に記載の釣り合い式が成立し、第1、第2入力エリア11、12に押し込みが行なわれた場合と同様に、算出が可能である。
また指に力を入れることで関節が曲がらないように保っている場合には指全体が一つの剛体と仮定することが可能なため、同様に力の釣り合いにより算出することができる。
以上のように、l1、l2、l3、F、θ1、θ3に適当な値を代入することより、各場合について水平方向の力F1xと垂直方向の力F1zを求めることができるが、ここで、第1、第2、第3入力エリアに押し込みを行なった場合のF1xとF1zをそれぞれ、F1x(1)、F1z(1);F1x(2)、F1z(2);F1x(3)、F1z(3)と表わすものとすると、図7に示すように、
F1x(1)<F1x(2)<F1x(3)
F1z(1)>F1z(2)>F1z(3)
が成立する。従って、
F1x(1)/F1z(1)<F1x(2)/F1z(2)<F1x(3)/F1z(3)
が成立する。このことから、検出データaの押し込みデータ(F1z)とスライドデータ(F1x)との比から押し込みを行なっている入力エリアを特定できることが分かる。従って、F1x/F1zの時間経過を調べれば、なぞりが指根元から指先方向へと行なわれたのか、逆に指先から指根元方向へと行なわれたのかを判別することができる。つまり、なぞり動作の特定が可能になる。
図9は、データベース4に保存されている入力動作に応じた押し込み方向とスライド方向(2方向)の時系列データを表した図である。図9に示すように、データベース4には、テンプレートとしての時系列のデータが入力動作に対応づけされて蓄積データbとして格納されている。
図9左欄には、左手人差し指とこの指に対して入力動作として行なわれるなぞり動作(スライド動作)の方向が矢印にて示されている。図9右欄には、なぞり動作につれて変化する3方向の力が示されている。
図9i)は、第2入力エリア12を左方向(入力を行なうものから見て)になぞった場合、つまり第2入力エリア橈骨側121からスタートして第2入力エリア尺骨側122へとなぞった場合を示し、図9ii)は、第2入力エリア12を右方向になぞった場合、つまり第2入力エリア尺骨側122からスタートして第2入力エリア橈骨側121へとなぞった場合を示している。また、図9iii)は、左手人差し指を指根元から指先方向になぞった場合、つまり第3入力エリア13から第1入力エリア11へとなぞった場合を示し、図9iv)は、左手人差し指を指先から指根元方向になぞった場合、つまり第1入力エリア11から第3入力エリア13へとなぞった場合を示している。それぞれのなぞり動作に対応して、図9右欄には、それぞれのなぞり動作を特定できる特有の時系列パターンが示されている。したがって、時系列データのパターンを特定することができれば、対応する入力動作を特定することができる。
図10は、DPマッチングによる処理の概略を示すフローチャートである。まず、ステップS201にて、タイミングデータcごとに取得された検出データaの時系列データと蓄積データbとの要素間の距離を算出する。続いて、ステップS202にて、算出された要素間の距離を使い、経路最小コストを算出する。最後に、ステップS203にて、算出された経路最小コストを使い、時系列である検出データaの入力パターンとして、蓄積データbにある一時系列データを特定し、その時系列データに対応する入力動作を入力情報特定データdとして出力する。
P=(p1,p2,…,pi,…,pI)
となり〔iは時系列(i=1, …,I) 〕、それぞれの時系列ごとのデータは指先方向にスライドさせる力、指側面垂直方向にスライドさせる力、垂直方向に押し込む力と含めた
pi=(pix,piy,piz)
となる。
また参照パターンも同様に3成分の分力の時系列データであるため、
rj=(rjx,rjy,rjz)
となる。
まず、ステップS201で検出データaの時系列データと蓄積データbとの要素間の距離算出を行なう。
(I,j)における格子点でのコストは、
次に、ステップS202で経路最小コストの算出を行なう。図12は格子点上での最小累積コストを説明した図である。図12を用いて、(I,j)における格子点の算出式として、
次に、ステップS203のパターン間距離算出において、
(I,J)における、
また、入力動作を特定する際、変化の仕方により、割り当てる入力動作を変えてもよい。例えば、単位時間当たりの入力エリア1の変化が大きい際にはポインタ操作やスクロール動作が速くまたは大きく行なわれたと判断し、入力情報特定データdとして出力してもよい。
また、本実施の形態では、タイマ管理制御手段6は、入力部3への入力動作が行なわれた際にのみ検出データを記録するためのタイミングを生成するものであったが、この方法に代え、タイマ管理制御手段6において常時タイミングの生成を行なうようにしてもよい。
また、本実施の形態では、左手人差し指について説明を行なったが、左手人差し指の第1入力エリア11、第2入力エリア12、第3入力エリア13以外のエリアに対する入力動作であっても、同様に検出データaに基づいて入力動作の特定が可能である。
また、検出部2は左手人差し指に限定するものではなく、親指に適応する、または同時に他の指に適応することで、取得することのできる情報量を増やしてもよい。
また、本実施例において、代表的な動作である、右方向なぞり動作、左方向なぞり動作、指先方向なぞり動作、指根元方向なぞり動作を例に挙げて説明を行なったが、なぞり動作はこれらに限定されない。例えば、斜め方向のなぞりであってもよく、また複数指間にまたがるなぞりであってもよい。そして、これらのなぞりにポインタ操作やスクロール動作に割り当ててもよいし、押し込んだ位置から変化しないタップといった動作を割り当ててもよい。
また、スクロール動作のような一方向の動作が行なわれる場合には、押し込み方向と指先スライド方向の2方向成分を扱い、押し込み方向の力に対しての指先スライド方向の力の比率を用いて、スクロールなどの動作を行なってもよい。
また、本実施の形態では、入力情報特定データdを受けて、情報提示手段7は、スクロール動作やポインタの動作などの機能を表示画面上に提示していたが、本発明は、これに限定されず、入力情報特定データdを受けて、表示画面上に文字、記号、データなどを提示するようにしてもよい。
また、本実施の形態では、検出部2において、3方向の力を検出するため、4個の感圧センサの組み合わせを用いていたが、ひずみセンサをキートップの下に複数配置し、接触面の傾きを検出して3方向成分の力を検出したり、あるいは、キートップ下に面状の圧力センサを配置し、キートップ下の圧力の分布を検出して、分布の偏りに基づいて3方向成分の力を取得するなど、3方向成分の力を検出できるのであれば他の手段を用いてもよい。
また、図2において、使用する指を親指、人差し指とし、端末を置いた状態での使用を示したが、カードサイズの薄型の端末に本発明を適応した図である図13に示すように、端末を持った状態で使用してもよい。
また、マウスのポインティング操作のような操作を行なう際にも、トラックポイントのような相対位置変化のみを操作する入力デバイスと異なり、情報提示部9の絶対位置を直接位置指定が可能なため、すばやい入力が可能である。
また、操作として、マウスのポインタの位置や速度を変化させるような操作を行なう場合、入力エリア1への操作制御が、指の移動量や動かす速度に相当しているため、直感的であり、操作がしやすい。
また、機器と機器を保持している指との間に検出部が設けられており、体側に入力を検出するセンサをつける必要がないため、操作以外の動作等に障害をきたすことがなく、使いやすい。
図14は、本発明の第2の実施の形態に係る入力装置の構成を示すブロック図である。本実施の形態の入力装置は、図14に示すように、押し込んだ際に、指先との接触面に発生する圧力分布状況を検出する複数の検出部2を有し、検出部2により出力される圧力分布データである検出データeを出力する入力部3と、検出データeを監視し、検出部2に入力が行なわれたことを検出すると活性化されて、ある一定の時間間隔で入力を検出するタイミングとなるトリガーを生成し、これをタイミングデータcとして出力するタイマ管理制御部6と、検出データeとタイミングデータcとを受けて、検出データeから変換されたデータ(検出部2における押圧領域での正規化重心位置)と予め設定されているデータベース4の蓄積データfを比較することで、押し込み位置・動作を特定し、その位置・動作を入力情報特定データdとして出力する入力情報特定手段5と、により構成されている。
図15は、情報端末8に搭載された検出部2の状態を示す平面図である。図15に示すように、検出部2には指表面と接触する部分に感圧センサ23がマトリクス状に配置されており、指表面から受ける感圧分布を多点により検出できる構造になっている。
図16は、入力情報特定手段5の動作を示すフローチャートである。まず、ステップS301において、指先の接触面でマトリクス状に並んでいる感圧センサ23の測定値である圧力面分布のデータを検出データeとして受け取る。
図17は、検出部2の感圧分布状態の説明図である。検出部2は、指の接触している部分での状態を感圧分布として検出している。検出部2の圧力面分布を取得する感圧センサ23は、x方向に(1,2,…I …I)、y方向に(1,2,…j…J)のマトリクス状に並べられていている。ここで、
(i,j)座標における検出部2の測定値をFijとする。
次に、ステップS303において、荷重重心位置であるPGを算出する。PGのx方向成分PGxとPGのy方向成分PGyはそれぞれ
次に、ステップS304において、合計荷重Fを求める。合計荷重Fは、
次に、ステップS305において、合計荷重がある一定の値を超えているか否かをチェックし、超えていない場合にはステップS301に戻り、超えている場合には、ステップS306に進む。加重が小さい段階での荷重重心位置PGは安定しないため、ステップS305を設け、安定したデータのみを利用するようにする。ステップS306において、矩形領域の中で荷重重心となる位置への重心方向ベクトルを算出する。矩形重心方向ベクトルはVG→とする。矩形重心方向ベクトルの始点は矩形領域の中で、指の根元に近い側の頂点とし、ここでは橈骨寄りのP1とする。
次に、ステップS308において、重心方向ベクトルの長軸方向成分と長軸方向ベクトルとの比率である重心位置比率(正規化された、重心方向ベクトルVG→の長軸方向成分の絶対値)RLと、重心方向ベクトルの短軸方向成分と短軸方向ベクトルとの比率である重心位置比率(正規化された、重心方向ベクトルVG→の短軸方向成分の絶対値)RSを算出する。
また、ステップS305において、荷重重心位置RGの安定した値のみを利用するようにするため、合計荷重Fがある基準以上の荷重になった際にのみ次のステップに進むとしたが、安定した荷重重心位置RGを利用するためには合計荷重Fを用いることに限定したものではない。例えば、接触面の領域面積がある一定以上の面積になったときのみを利用するようにしてもよい。また、感圧センサ23はアナログ的に値を検出するセンサを用いたが、ON−OFFだけのデジタルな値を検出するセンサを用いてもよい。その場合、荷重重心位置とは、接触面領域の面積重心位置に相当する。また、入力エリア1を識別するために重心位置比率を基準に用いたが、指からの荷重位置を特定できるものであれば、荷重重心位置に限定しなくてもよい。例えば、感圧センサ23の最も大きい値を示した点を荷重重心位置PGと同等に扱うこともできる。また、圧力分布から矩形領域の各角の点であるP1,P2,P3,P4の位置を決定するのは、各入力を行なうたびに算出しなおす必要はない。例えば、入力以前に端末へ指が接触したことを感圧センサ23で検出した際に、予め指の接触領域を切り出し、その矩形領域から算出しておいたものを用いてもよい。
また、圧力分布から矩形領域の長軸方向ベクトルと短軸方向ベクトルの算出を行なったが、指先方向と指側面垂直方向との切り分けが可能であれば、矩形以外の領域抽出を行なってもよい。例えば、圧力分布状況から、楕円領域の抽出を行い、その楕円の長軸方向ベクトルと短軸方向ベクトルを用いて同様の計算を行なってもよい。
各指へのなぞり動作が、機能を変更する場合、操作をする入力エリアが機器の背面側に来るため、フル画面端末に対する通常の入力方式では、どこへ入力を行なおうとしているのかを、入力状況を見て確認することが困難である。しかし、本実施例の場合、操作のために接触している対象が体の一部であるため、接触している位置を把握することができる。すなわち、どの位置で操作を行なおうとしているのか目視により確認できない状況に対応するものとして、本実施例は有効である。
11 第1入力エリア
111 第1入力エリア橈骨側
112 第1入力エリア尺骨側
12 第2入力エリア
121 第2入力エリア橈骨側
122 第2入力エリア尺骨側
13 第3入力エリア
131 第3入力エリア橈骨側
132 第3入力エリア尺骨側
14 第4入力エリア
15 第5入力エリア
16 第6入力エリア
17 第7入力エリア
2 検出部
21 キートップ
22 平行板
23 感圧センサ
3 入力部
4 データベース
5 入力情報特定手段
6 タイマ管理制御手段
7 情報提示手段
8 情報端末
9 情報提示部
10 配線基板
11 筐体
12 ベース
a、e 検出データ
b、f 蓄積データ
c タイミングデータ
d 入力情報特定データ
Claims (13)
- 検出部に体の一部を接触させ、その体の接触部の近傍になぞり動作(その体の接触部の近傍をその体の接触部とは異なる部分をスライドさせる動作)が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示が提示される入力装置であって、
体の先端で接触するように配置されており、前記体の先端が接触され、その体における接触部の近傍が入力により押し込み動作若しくはなぞり動作を受けた際に、前記体を介して伝達した力を検出して、検出データとして出力する検出部と、
時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御手段と、
前記検出データと前記タイミングデータに基づいて前記検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力された動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定手段と、
を備えた入力装置。 - 前記機能には、ポインタの位置提示、ポインタの動作、スクロール動作、文字手書き操作若しくはページ送り機能が含まれていることを特徴とする請求項1に記載の入力装置。
- 前記検出部は、3方向成分の検出が可能な力センサ、または、複数点の押し込み分布を検出可能な圧力センサ、または、平面状に配置された複数の圧力センサ、のうちの少なくとも一つを含むことを特徴とする請求項1から2のいずれかに記載の入力装置。
- 前記タイマ管理制御手段は、常時タイミングを生成していることを特徴とする請求項1から3のいずれかに記載の入力装置。
- 前記タイマ管理制御手段は、常時検出データを監視し、検出データの生起と共にタイミングの生成を開始し、検出データの終了時にタイミングの生成を停止することを特徴とする請求項1から3のいずれかに記載の入力装置。
- 前記入力情報特定手段は、前記データベースの前記蓄積データと検出データの前記時系列データとのマッチングを行なうことにより、入力動作を特定することを特徴とする請求項1から5のいずれかに記載の入力装置。
- 前記データベースは、前記検出部から出力される押し込み方向と、指先スライド方向と、指側面垂直スライド方向との力の時系列変化、または、押し込み方向の力に対する指先スライド方向の力の比および押し込み方向の力に対する指側面スライド方向の力の比の時系列変化、または、前記検出部に対する荷重の正規化された重心位置の時系列変化、を入力動作に対応付けて前記蓄積データとして記録してあることを特徴とする請求項1から6のいずれかに記載の入力装置。
- 前記入力情報特定データを受けて、その入力動作に割り当てられた所定の記号、データ若しくは機能を表示する情報提示手段、をさらに備えたことを特徴とする請求項1に記載の入力装置。
- 前記体の一部が指であることを特徴とする請求項1から8のいずれかに記載の入力装置。
- 請求項1から9のいずれかに記載された入力装置を備えた端末。
- 検出部に体の一部が接触し、その体の接触部の近傍になぞり動作が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示を提示する入力方法であって、
体の先端が接触され、その体における接触部の近傍が入力により押し込み動作若しくはなぞり動作を受けた際に、前記体を介して伝達した力を検出して、検出データとして出力する検出ステップと、
時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御ステップと、
前記検出データと前記タイミングデータに基づいて検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力した動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定ステップと、を実行することを特徴とする入力方法。 - 前記入力情報特定データを受けて、その入力動作に割り当てられた所定の記号、データ若しくは機能を表示することを特徴とする請求項11に記載の入力方法。
- 前記検出部に接触する前記体が指であり、前記接触部の近傍がその指の属する指の関節間若しくは関節の先の骨の上またはそれらの周辺を含む領域であることを特徴とする請求項11または12に記載の入力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010501851A JP5353877B2 (ja) | 2008-03-03 | 2009-02-23 | 入力装置とその入力装置を備えた端末および入力方法 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008051867 | 2008-03-03 | ||
JP2008051867 | 2008-03-03 | ||
JP2008166854 | 2008-06-26 | ||
JP2008166854 | 2008-06-26 | ||
JP2010501851A JP5353877B2 (ja) | 2008-03-03 | 2009-02-23 | 入力装置とその入力装置を備えた端末および入力方法 |
PCT/JP2009/053170 WO2009110340A1 (ja) | 2008-03-03 | 2009-02-23 | 入力装置とその入力装置を備えた端末および入力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2009110340A1 JPWO2009110340A1 (ja) | 2011-07-14 |
JP5353877B2 true JP5353877B2 (ja) | 2013-11-27 |
Family
ID=41055901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010501851A Active JP5353877B2 (ja) | 2008-03-03 | 2009-02-23 | 入力装置とその入力装置を備えた端末および入力方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8730159B2 (ja) |
JP (1) | JP5353877B2 (ja) |
WO (1) | WO2009110340A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102054370B (zh) * | 2010-10-29 | 2013-06-05 | 鸿富锦精密工业(深圳)有限公司 | Usb线控器及应用所述usb线控器的电子阅读设备 |
US20140306893A1 (en) * | 2013-04-11 | 2014-10-16 | Rashed Siddiqui | Computer Pointing Device based on Hand/Foot Directional Pressure |
US9625884B1 (en) * | 2013-06-10 | 2017-04-18 | Timothy Harris Ousley | Apparatus for extending control and methods thereof |
US10114486B2 (en) * | 2013-09-19 | 2018-10-30 | Change Healthcare Holdings, Llc | Method and apparatus for providing touch input via a touch sensitive surface utilizing a support object |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001265522A (ja) * | 2000-03-16 | 2001-09-28 | Keio Gijuku | 爪に装着するセンサ |
WO2008023546A1 (en) * | 2006-08-25 | 2008-02-28 | Kyocera Corporation | Portable electronic device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6991364B2 (en) | 2001-07-31 | 2006-01-31 | The Timberland Company | Same-hand control of a multi-function device |
JP4119187B2 (ja) | 2002-07-17 | 2008-07-16 | 国立大学法人金沢大学 | 入力装置 |
JP2004199145A (ja) | 2002-12-16 | 2004-07-15 | Sony Corp | 情報処理システム、送信装置、および受信装置 |
CN1701544B (zh) * | 2003-06-30 | 2011-05-18 | 日本电信电话株式会社 | 电场检测光学装置、收发机、位置信息获取系统、信息输入系统 |
JP2005301874A (ja) | 2004-04-15 | 2005-10-27 | Kddi Corp | トラックポイントを用いた文字入力装置 |
JP4594791B2 (ja) * | 2005-04-25 | 2010-12-08 | 学校法人千葉工業大学 | 携帯型操作入力装置 |
US20090213081A1 (en) * | 2007-01-10 | 2009-08-27 | Case Jr Charlie W | Portable Electronic Device Touchpad Input Controller |
US8059101B2 (en) * | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
-
2009
- 2009-02-23 JP JP2010501851A patent/JP5353877B2/ja active Active
- 2009-02-23 WO PCT/JP2009/053170 patent/WO2009110340A1/ja active Application Filing
- 2009-02-23 US US12/919,579 patent/US8730159B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001265522A (ja) * | 2000-03-16 | 2001-09-28 | Keio Gijuku | 爪に装着するセンサ |
WO2008023546A1 (en) * | 2006-08-25 | 2008-02-28 | Kyocera Corporation | Portable electronic device |
Also Published As
Publication number | Publication date |
---|---|
WO2009110340A1 (ja) | 2009-09-11 |
US8730159B2 (en) | 2014-05-20 |
US20100328211A1 (en) | 2010-12-30 |
JPWO2009110340A1 (ja) | 2011-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5381715B2 (ja) | 入力装置及びそれを備えた情報端末、入力方法 | |
US9606618B2 (en) | Hand tracker for device with display | |
US20110285648A1 (en) | Use of fingerprint scanning sensor data to detect finger roll and pitch angles | |
CA2864719C (en) | Gesture recognition devices and methods | |
EP1709519B1 (en) | A virtual control panel | |
US20100103104A1 (en) | Apparatus for user interface based on wearable computing environment and method thereof | |
EP3076334A1 (en) | Image analyzing apparatus and image analyzing method | |
US7197836B2 (en) | Reference coordinate calculating method, reference coordinate calculating program, recording medium thereof, reference plate and form measuring machine | |
US8743089B2 (en) | Information processing apparatus and control method thereof | |
NO339941B1 (no) | System og fremgangsmåte for et gestbasert styringssystem | |
US7756364B2 (en) | Digital pen and paper system | |
US10627917B2 (en) | Object-sensing apparatus and object-sensing method | |
CN103995592A (zh) | 穿戴式设备与终端进行信息交互的方法及终端 | |
EP1340218A1 (en) | Electronic user worn interface device | |
KR20120086055A (ko) | 터치 압력을 검출할 수 있는 터치 스크린 장치 및 이를 갖는 전자 장치 | |
JP5353877B2 (ja) | 入力装置とその入力装置を備えた端末および入力方法 | |
US10509512B2 (en) | Operation input device and image processing system | |
Manghisi et al. | Towards gestured-based technologies for human-centred Smart Factories | |
JP4085163B2 (ja) | 接触型情報入力装置 | |
JP6966777B2 (ja) | 入力システム | |
JP5538596B1 (ja) | タッチ入力装置、タッチ入力装置入力検出方法、およびコンピュータプログラム | |
WO2017007492A1 (en) | Machine display and machine control systems | |
JP5005585B2 (ja) | 操作装置及びその方法 | |
US20240003766A1 (en) | Contact information obtaining apparatus, contact information obtaining system, contact information obtaining method, and computer readable medium | |
WO2022120614A1 (en) | Apparatus and method for applying a sensor patch onto a hand-shaped carrier structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5353877 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |