JP5353877B2 - 入力装置とその入力装置を備えた端末および入力方法 - Google Patents

入力装置とその入力装置を備えた端末および入力方法 Download PDF

Info

Publication number
JP5353877B2
JP5353877B2 JP2010501851A JP2010501851A JP5353877B2 JP 5353877 B2 JP5353877 B2 JP 5353877B2 JP 2010501851 A JP2010501851 A JP 2010501851A JP 2010501851 A JP2010501851 A JP 2010501851A JP 5353877 B2 JP5353877 B2 JP 5353877B2
Authority
JP
Japan
Prior art keywords
input
data
finger
force
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010501851A
Other languages
English (en)
Other versions
JPWO2009110340A1 (ja
Inventor
真 則枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010501851A priority Critical patent/JP5353877B2/ja
Publication of JPWO2009110340A1 publication Critical patent/JPWO2009110340A1/ja
Application granted granted Critical
Publication of JP5353877B2 publication Critical patent/JP5353877B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、携帯電話・PDA・ノートPCといった携帯機器に適用可能な入力装置および入力方法に関する。
可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくした入力装置が求められている。
機器上の入力部のスペースを小さくするための方法として、X、Y、Z軸方向の指圧を検知することで、ポインタや文字入力操作を行なうものがある。この例としては、トラックポイントを用いて、その指圧変化パターンから手書き文字入力を行なうものがある(例えば、特許文献1参照)。しかしながら、特許文献1に記載されたものでは、入力動作を行なう指先の移動がないため動作確認が難しく、入力のために慣れが必要となり、入力ミスの原因にもなる。
また、検出部を機器から切り離し、その検出部を独立して配置する方法がある。この例としては、体に検出部を装着させることにより入力を行なう装置がある(例えば、特許文献2参照)。しかしながら、この方式では、入力部を機器とは別に用意する必要があり、可搬性には優れていない。また、操作者に検出部をとりつけるわずらわしさもある。
特開2005-301874号公報 特表2004-537802号公報
情報端末などの電子機器における入力装置の入力部(入力エリア)を小さくした場合の入力操作は、ポインティング操作における位置決めや速度制御といった細かい操作が難しくなる。なぜなら、小さい入力エリアでの入力は、制御をするために操作体系の複雑な動作や機器の微妙な操作が必要なためである。
而して、手書き文字入力のような操作では、大きい入力エリアが必要となる。なぜなら、手書き文字入力等の入力操作では、スクロールを伴う操作や入力の開始位置を絶対位置で指定する必要があるため、大きい入力エリアが要求されるからである。つまり、従来の入力装置では、スクロール動作や手書き文字入力と入力エリアの縮小とを両立させることは困難であった。
一方、特許文献2にて開示されたような、入力部を機器から切り離して人体に装着させる方式によれば、機器上での入力部エリアを縮小するという要請には応えることができる。
しかしながら、この方式では、入力部を操作者に取り付けるわずらわしさがあり、また入力操作を行なわない時は邪魔である。
本発明の目的は、可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくすることによる、操作者の使いにくさを改善させる装置を提供することにある。
前記目的を達成するため、本発明は、検出部にの一部を接触させ、そのの接触部の近傍になぞり動作(そのの接触部の近傍をそのの接触部とは異なる部分をスライドさせる動作)が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示が提示される入力装置であって、体の先端で接触するように配置されており前記体先端が接触され、その体における接触部の近傍が入力により押し込み動作若しくはなぞり動作を受けた際に前記体を介して伝達した力を検出して、検出データとして出力する検出部と、所定の時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御手段と、前記検出データと前記タイミングデータに基づいて前記検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力された動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定手段と、を有することを特徴とする。
また、前記目的を達成するため、本発明は、検出部にの一部が接触し、そのの接触部の近傍になぞり動作が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示を提示する入力方法であって、先端が接触され、その体における接触部の近傍が入力により押し込み動作若しくはなぞり動作を受けた際に前記体を介して伝達した力を検出して、検出データとして出力する検出ステップと、所定の時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御ステップと、前記検出データと前記タイミングデータに基づいて検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力した動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定ステップと、を実行することを特徴とする。
本発明によれば、入力エリアは人体上に設けられ、入力をするためになぞる力は、接触している体を通して機器の検出部に伝達されるため、機器上における検出部を小さくすることができる。そして、本発明によれば、機器上の検出部を小さくしても、細かい操作が可能になる。なぜなら、従来の機器上の棒状のものを傾斜させ、傾斜角度によりポインティングするのとは対照的に、本発明の入力方法によると、ポインタの移動速度や移動量を、操作する速度や操作移動量に反映させることができるからである。また、本発明によれば、入力を検出する検出部は小さいが、入力を行なう入力エリアは大きく取ることが可能であるため、スクロールを伴い、大きい操作領域が必要な操作や、入力の開始位置を絶対位置で指定する操作を精度よく容易に行なうことができる。さらに、本発明は、操作者が自身の体を通して入力をおこなうものであるため、入力が行なわれたことがからだに接触されたことにより感じ取ることができ、どこの位置への入力を行なっているのかを入力部を見ることなく確認することが可能であり、入力の確認性が高い。また、本発明の入力装置は、体に検出部材を巻きつけるわずらわしさがなく、入力を検出する検出部は機器と体との接触部分だけにあり、可搬性にも優れる。
次に、本発明の実施の形態について図面を参照して詳細に説明する。
〔第1の実施の形態〕
図1(a)は、本発明の第1の実施の形態の入力装置の構成を示すブロック図である。図1(a)に示すように、本実施の形態の入力装置は、入力を行なう指先と接触する位置に配置されていて、力を検出すると、複数の検出データaを出力する複数の検出部2を含む入力部3と、検出データaを監視し、検出部2に入力が行なわれたことを検出すると活性化されて、ある一定の時間間隔で入力を検出するタイミングとなるトリガーを生成し、これをタイミングデータcとして出力するタイマ管理制御部6と、検出データaとタイミングデータcを受けると、タイミングデータcのトリガーに基づいて検出データaをトリガー毎の時系列データに変換し、この時系列データと予め記憶されているデータベース4の蓄積データbを対比することで、入力動作を特定し、その入力動作を入力情報特定データdとして出力する入力情報特定手段5と、により構成されている。
図2は、入力部3の一例を示した斜視図である。図2において、斜線の施された領域が入力エリア1であって、この例では、左手の親指の背、人差し指の背およびそれらの間の手の甲の一部が、入力エリア1に設定されている。そして、親指の先端部と人差し指の先端部が検出部2に接触している。例えば、右手の指で入力エリア1上をなぞると、時間変化する垂直方向の力と水平2方向の力が検出部2により検出される。なお、図2において、8は情報端末、9はその情報提示部である。
図2に示した入力エリア1は、図3に示すように、複数の領域に分割されている。その分割の一例を説明すると、入力エリア1は、人差し指において、各関節の間に分布した第1入力エリア1から第3入力エリア1のように分割され、手の甲に渡って第4入力エリア1、親指において、各関節間に分布した第5入力エリア1から第7入力エリア1のように分割されている。
図4は、本実施の形態の入力装置において用いられる検出部2の具体的構造を示した断面図である。図4に示すように、検出部2は、操作者の指先が接触し、実際に押し込みが行なわれるキートップ2と、キートップ2の下側に配置された、平面形状が長方形の平行板2と、平行板2の四隅下に配置された感圧センサ2とを有する。四つの感圧センサ2を用いて、4点に加わる力の分布から3方向成分の力を検出する。すなわち、指先との接触面から垂直方向に押し込む力と、指先方向にスライドさせる力と指側面垂直方向にスライドさせる力の水平面方向2成分との、3成分方向の検出をする。
なお、本願明細書において、押し込み方向、指先方向、指側面垂直方向は次の意味で用いられている。押し込み方向(z方向)とは、平行板2に垂直の方向である。指先方向(x方向)は、平行板2に平行で指が指す方向である。指側面垂直方向(y方向)は、押し込み方向と指先方向とに垂直の方向である。
感圧センサ2は、3方向成分の検出データを外部に出力するための配線基板10上に固定されている。なお、図4において、11は筐体、12はベースである。
図1(a)に示される入力装置から出力される入力情報特定データdは、例えばモニタ上に表示される。そのための構成を図1(b)に示す。図1(b)に示す入力装置において、情報提示手段7は、入力情報特定データdをうけて、その動作に割り当てられたポインタの位置・動作などの機能を情報提示装置上に提示する。
[動作]
次に、本実施の形態の動作を図1及び図5を参照して説明する。まず、機器と指先で接触している指への押し込みが行なわれると、ステップS101において、検出部2が、指先との接触面から垂直方向に押し込む力と指先方向にスライドさせる力と指側面垂直方向にスライドさせる力とを検出し、3方向成分をそれぞれ押し込みデータ、指先スライドデータ、指側面垂直スライドデータとして検出データaとして出力する。ステップS102において、タイマー管理制御手段6は、検出部2に入力が行なわれたことを検知すると、一定の時間間隔で、入力情報特定手段5において検出データ2を採取しデータとして記録するためのタイミングを生成し、タイミングデータcとして出力する。ステップS103において、入力情報特定手段5は、3方向成分の検出データaをタイミングデータcに基づき時系列のデータに変換し、これと、予めデータベース4に保存されている時系列のデータである蓄積データbとを対比することにより、どの入力動作が行なわれているかの特定を行ない、入力情報特定データdとして出力する。入力装置が、図1(b)に示されるように、情報提示手段7を有している場合、ステップS104において、情報提示手段7は、特定された入力情報特定データdに割り当てられたポインタの位置・動作などの機能を表示画面上に表示する。
次に、入力エリアになぞりが行なわれた際に、指のどの部分が現に押し込まれているのかを、検出データaに基づいて特定することができる理由について、左手人差し指を用いて説明する。なお、ここでは、検出部2で検出された3方向成分の力の内、垂直方向に押し込む力と、指先方向にスライドさせる力との2方向成分の力を用いて説明する。
図6は、入力エリア1のある人差し指を関節ごとに分割して表した図である。図6に示すように、入力エリア1を、指先から第一関節まで、第一関節から第二関節まで、第二関節から第三関節までの3つの領域に分け、それぞれを第1入力エリア1、第2入力エリア1、第3入力エリア1とする。また指は骨により剛性が保たれていることと、その相互間が関節によりつながれているため、仮想的に両端を回転角度に制限のある回転支持により支えられている梁であると考えることができる。また、各入力エリア1、1、1の梁の長さをそれぞれl、l、lとする。
図7は、各入力エリア1〜1を押し込んだ際の力の釣り合いを示した摸式図である。図7を参照して、検出部2で検出された力の2方向成分と各入力エリア1〜1との関連づけについて説明する。
図7のi)欄には、第1入力エリア1を押し込んでいる状態が示されている。第1入力エリア1を押し込んだ時には第一関節が力のモーメントにより第1入力エリア1と第2入力エリア1とを直線でつなぐ角度でこれ以上曲がらなくなるため、水平方向の長さの拘束条件、垂直方向の長さの拘束条件、水平方向力のつりあい条件、垂直方向力のつりあい条件、指の付け根回りのモーメントのつりあい条件、指先回りのモーメントのつりあい条件により成り立つ6つの条件式から、押し込みを行なう力、指の付け根である第三関節での力、そして検出部2に加わる力の分力である垂直方向に押し込む力と水平方向にスライドさせる力の間の関係式を求めることができる。
指先から指の付け根までの水平方向の長さをw、高さをhとする。指先における第1入力エリア1の軸の水平方向からの角度をθ、指の付け根における第3入力エリア1の軸の垂直方向からの角度をθとする。押し込みを行なう力は垂直方向に働き、その力をFとする。また押し込みを行なう位置は各入力エリア1〜1におけるはりの中間であるとする。指先にかかる力の水平方向の力をF1x、垂直方向の力をF1zとする。指の付け根にかかる力の水平方向の力をF3x、垂直方向の力をF3zとする。
水平方向の長さの拘束条件:
w=l3sinθ+(l+l2)cosθ
垂直方向の長さの拘束条件:
h=l3cosθ+(l+l2)sinθ
水平方向力のつりあい条件:
1z+F3z=F
垂直方向力のつりあい条件:
3x=F1x
指の付け根回りのモーメントのつりあい条件:
指先回りのモーメントのつりあい条件:
これらの釣り合い式に、l、l、l、θ、θに適当な値を代入することにより、指先にかかる水平方向の力F1x、垂直方向の力F1zを算出することができる。
同様に、第2入力エリア1に押し込みを行なう場合にも、図7のii)に示される釣り合い式から水平方向の力F1xと垂直方向の力F1zを算出することができる。図示した例では、第二関節で曲がり第一関節では曲がっていないが、第2入力エリア1に押し込みが行なわれた場合ついては、力を加える位置や角度に依存し、第3入力エリア1に押し込みが行なわれた場合と同様に、第二関節が第2入力エリア1と第3入力エリア1とを直線でつなぐ角度で保たれる場合もある。
第3入力エリア1に押し込みが行なわれた場合については、第3入力エリア1を押し込んでいる状態を示す図7のiii)に示されるように、第3入力エリア1を押し込んだ時には第二関節が力のモーメントにより第2入力エリア1と第3入力エリア1とを直線でつなぐ角度でこれ以上曲がらなくなるため、図7の同欄に記載の釣り合い式が成立し、第1、第2入力エリア1、1に押し込みが行なわれた場合と同様に、算出が可能である。
また指に力を入れることで関節が曲がらないように保っている場合には指全体が一つの剛体と仮定することが可能なため、同様に力の釣り合いにより算出することができる。
以上のように、l、l、l、F、θ、θに適当な値を代入することより、各場合について水平方向の力F1xと垂直方向の力F1zを求めることができるが、ここで、第1、第2、第3入力エリアに押し込みを行なった場合のF1xとF1zをそれぞれ、F1x(1)、F1z(1);F1x(2)、F1z(2);F1x(3)、F1z(3)と表わすものとすると、図7に示すように、
1x(1)<F1x(2)<F1x(3)
1z(1)>F1z(2)>F1z(3)
が成立する。従って、
1x(1)/F1z(1)<F1x(2)/F1z(2)<F1x(3)/F1z(3)
が成立する。このことから、検出データaの押し込みデータ(F1z)とスライドデータ(F1x)との比から押し込みを行なっている入力エリアを特定できることが分かる。従って、F1x/F1zの時間経過を調べれば、なぞりが指根元から指先方向へと行なわれたのか、逆に指先から指根元方向へと行なわれたのかを判別することができる。つまり、なぞり動作の特定が可能になる。
次に、図6に示した指の各入力エリア1、1、1に、操作者から見て左右方向になぞり動作が行なわれた場合に、検出データaに基づいてなぞり動作の特定が可能である理由について説明する。図8は、左の人差し指を模式的に示す図であって、図6に示した部分と同じ部分を示す図であるが、図8においては、各入力エリアはそれぞれ2つの領域に分けて示されている。例えば、第1入力エリア1は、指の中心線の右側(操作者から見て)の第1入力エリア橈骨側111と、その左側の第2入力エリア尺骨側112の2つの領域に分けられている。第2入力エリア1は、指の中心線の右側(操作者から見て)の第1入力エリア橈骨側121と、その左側の第2入力エリア尺骨側122の2つの領域に分けられている。第3入力エリア1は、指の中心線の右側(操作者から見て)の第1入力エリア橈骨側131と、その左側の第2入力エリア尺骨側132の2つの領域に分けられている。例えば、第1入力エリア橈骨側121を押し込んだ際には、指側面垂直方向の左側(尺骨側)へ、第2入力エリア尺骨側122を押し込んだ際には、指側面垂直方向の右側(橈骨側)への力が発生することになり、出力される検出データaを検証することにより、第2入力エリア1が、橈骨側から尺骨側へとなぞられたのか、あるいは、尺骨側から橈骨側へとなぞられたのかを判別することができる。第1入力エリア1、第3入力エリア1についても同様である。
次に、ステップS103において、検出データaとタイミングデータcから得られた時系列データと、データベース4の蓄積データbとを対比して、入力動作を特定する方法の一例について説明する。
図9は、データベース4に保存されている入力動作に応じた押し込み方向とスライド方向(2方向)の時系列データを表した図である。図9に示すように、データベース4には、テンプレートとしての時系列のデータが入力動作に対応づけされて蓄積データbとして格納されている。
図9左欄には、左手人差し指とこの指に対して入力動作として行なわれるなぞり動作(スライド動作)の方向が矢印にて示されている。図9右欄には、なぞり動作につれて変化する3方向の力が示されている。
図9i)は、第2入力エリア1を左方向(入力を行なうものから見て)になぞった場合、つまり第2入力エリア橈骨側121からスタートして第2入力エリア尺骨側122へとなぞった場合を示し、図9ii)は、第2入力エリア1を右方向になぞった場合、つまり第2入力エリア尺骨側122からスタートして第2入力エリア橈骨側121へとなぞった場合を示している。また、図9iii)は、左手人差し指を指根元から指先方向になぞった場合、つまり第3入力エリア1から第1入力エリア1へとなぞった場合を示し、図9iv)は、左手人差し指を指先から指根元方向になぞった場合、つまり第1入力エリア1から第3入力エリア1へとなぞった場合を示している。それぞれのなぞり動作に対応して、図9右欄には、それぞれのなぞり動作を特定できる特有の時系列パターンが示されている。したがって、時系列データのパターンを特定することができれば、対応する入力動作を特定することができる。
入力情報特定手段5では、検出データaから生成された時系列データと蓄積データbの時系列データである蓄積データbとを、パターン認識の1つであるDPマッチングアルゴリズムにより対比して、入力動作の特定を行なう。
図10は、DPマッチングによる処理の概略を示すフローチャートである。まず、ステップS201にて、タイミングデータcごとに取得された検出データaの時系列データと蓄積データbとの要素間の距離を算出する。続いて、ステップS202にて、算出された要素間の距離を使い、経路最小コストを算出する。最後に、ステップS203にて、算出された経路最小コストを使い、時系列である検出データaの入力パターンとして、蓄積データbにある一時系列データを特定し、その時系列データに対応する入力動作を入力情報特定データdとして出力する。
次に、図10に示される各ステップについて更に詳しく説明する。まず、本発明で用いるタイミングデータcごとに取得された検出データaは、押し込みはじめから押し込み終わりまで(なぞりはじめからなぞり終わりまで)の垂直方向に押し込む力と指先方向にスライドさせる力と指側面垂直方向にスライドさせる力の時系列データであるため、
P=(p,p,…,pi,…,pI)
となり〔iは時系列(i=1, …,I) 〕、それぞれの時系列ごとのデータは指先方向にスライドさせる力、指側面垂直方向にスライドさせる力、垂直方向に押し込む力と含めた
p=(pix,piy,piz)
となる。
また参照パターンも同様に3成分の分力の時系列データであるため、
となり〔jは時系列(j=1, …,J)、kはそれぞれの参照パターンを表した添え字〕、検出データaと同様にそれぞれの時系列ごとのデータは指先方向にスライドさせる力、指側面垂直方向にスライドさせる力、垂直方向に押し込む力とを表した
r=(rjx,rjy,rjz)
となる。
DPマッチングは、DPマッチング経路図を表した図11に示すように、格子上に並んでおり、その経路にコストがあり、その総和が最も小さくなる経路とその総コストを算出して、入力パターンに最も近い参照パターンを見出す手法である。
まず、ステップS201で検出データaの時系列データと蓄積データbとの要素間の距離算出を行なう。
(I,j)における格子点でのコストは、
で表される。これを全ての格子点で算出する。
次に、ステップS202で経路最小コストの算出を行なう。図12は格子点上での最小累積コストを説明した図である。図12を用いて、(I,j)における格子点の算出式として、
と表すことができる。これは対称型の経路制限を含めた式である。これを時系列I,jの小さい値から繰り返し求める。
次に、ステップS203のパターン間距離算出において、
(I,J)における、
を計算することにより、入力パターン(検出データaの時系列データ)と参照パターン(蓄積データbの時系列データ)とのパターン間距離が求まる。これを予め保存されているパターン全てに適用し、最も小さいパターン間距離に相当する参照パターンに対応する入力動作が検出データaの入力動作と特定され、これが入力情報特定データdとして出力される。
本実施の形態では、DPマッチングを用いたが、時系列を含めマッチングを行なう手法または動作を含め特定するものであれば、他の方法を用いてもよい。
また、入力動作を特定する際、変化の仕方により、割り当てる入力動作を変えてもよい。例えば、単位時間当たりの入力エリア1の変化が大きい際にはポインタ操作やスクロール動作が速くまたは大きく行なわれたと判断し、入力情報特定データdとして出力してもよい。
また、本実施の形態では、タイマ管理制御手段6は、入力部3への入力動作が行なわれた際にのみ検出データを記録するためのタイミングを生成するものであったが、この方法に代え、タイマ管理制御手段6において常時タイミングの生成を行なうようにしてもよい。
また、本実施の形態では、左手人差し指について説明を行なったが、左手人差し指の第1入力エリア1、第2入力エリア1、第3入力エリア1以外のエリアに対する入力動作であっても、同様に検出データaに基づいて入力動作の特定が可能である。
また、検出部2は左手人差し指に限定するものではなく、親指に適応する、または同時に他の指に適応することで、取得することのできる情報量を増やしてもよい。
また、本実施の形態において、入力エリア1を左手の手の甲または指の背としたが、手や指に限定するものではなく、体の各部において適応してもよい。例えば、人が機器の上に立ち、膝や腿への入力動作を行ない、足裏での力の変化を検出部2で取得して、その検出データと入力動作を対応させるものであってもよい。
また、本実施例において、代表的な動作である、右方向なぞり動作、左方向なぞり動作、指先方向なぞり動作、指根元方向なぞり動作を例に挙げて説明を行なったが、なぞり動作はこれらに限定されない。例えば、斜め方向のなぞりであってもよく、また複数指間にまたがるなぞりであってもよい。そして、これらのなぞりにポインタ操作やスクロール動作に割り当ててもよいし、押し込んだ位置から変化しないタップといった動作を割り当ててもよい。
また、検出データaおよびデータベース4の蓄積データbは押し込み方向の力に対しての指先方向にスライドさせる力と指側面垂直方向にスライドさせる力の比率として扱ってもよいし、3方向成分のデータの値をそのまま使用してもよい。
また、スクロール動作のような一方向の動作が行なわれる場合には、押し込み方向と指先スライド方向の2方向成分を扱い、押し込み方向の力に対しての指先スライド方向の力の比率を用いて、スクロールなどの動作を行なってもよい。
また、本実施の形態では、入力情報特定データdを受けて、情報提示手段7は、スクロール動作やポインタの動作などの機能を表示画面上に提示していたが、本発明は、これに限定されず、入力情報特定データdを受けて、表示画面上に文字、記号、データなどを提示するようにしてもよい。
また、本実施の形態では、検出部2において、3方向の力を検出するため、4個の感圧センサの組み合わせを用いていたが、ひずみセンサをキートップの下に複数配置し、接触面の傾きを検出して3方向成分の力を検出したり、あるいは、キートップ下に面状の圧力センサを配置し、キートップ下の圧力の分布を検出して、分布の偏りに基づいて3方向成分の力を取得するなど、3方向成分の力を検出できるのであれば他の手段を用いてもよい。
また、図2において、使用する指を親指、人差し指とし、端末を置いた状態での使用を示したが、カードサイズの薄型の端末に本発明を適応した図である図13に示すように、端末を持った状態で使用してもよい。
本発明の入力装置は、検出部2は指先の小さい範囲であり、端末の表面に露出するエリアは小さいが、機器を操作するための入力エリア1は指全体にわたっているため、手書き文字入力のような、ストロークを必要とするような大きな動作にも向いている。
また、マウスのポインティング操作のような操作を行なう際にも、トラックポイントのような相対位置変化のみを操作する入力デバイスと異なり、情報提示部9の絶対位置を直接位置指定が可能なため、すばやい入力が可能である。
また、操作として、マウスのポインタの位置や速度を変化させるような操作を行なう場合、入力エリア1への操作制御が、指の移動量や動かす速度に相当しているため、直感的であり、操作がしやすい。
また、機器と機器を保持している指との間に検出部が設けられており、体側に入力を検出するセンサをつける必要がないため、操作以外の動作等に障害をきたすことがなく、使いやすい。
〔第2の実施の形態〕
図14は、本発明の第2の実施の形態に係る入力装置の構成を示すブロック図である。本実施の形態の入力装置は、図14に示すように、押し込んだ際に、指先との接触面に発生する圧力分布状況を検出する複数の検出部2を有し、検出部2により出力される圧力分布データである検出データeを出力する入力部3と、検出データeを監視し、検出部2に入力が行なわれたことを検出すると活性化されて、ある一定の時間間隔で入力を検出するタイミングとなるトリガーを生成し、これをタイミングデータcとして出力するタイマ管理制御部6と、検出データeとタイミングデータcとを受けて、検出データeから変換されたデータ(検出部2における押圧領域での正規化重心位置)と予め設定されているデータベース4の蓄積データfを比較することで、押し込み位置・動作を特定し、その位置・動作を入力情報特定データdとして出力する入力情報特定手段5と、により構成されている。
本実施の形態の入力装置も、第1の実施の形態と同様に、図13に示すカードサイズの薄型の端末に対応したもので、左手で端末を持ち上げた状態で、右手で左手親指の入力エリア1を押し込み、左手親指指先が検出部2を押圧する圧力分布を測定する。ここで、第3入力エリア13を親指の付け根から第一関節の間の指節、第2入力エリア12を第一関節、第1入力エリア11を爪先とした。
図15は、情報端末8に搭載された検出部2の状態を示す平面図である。図15に示すように、検出部2には指表面と接触する部分に感圧センサ23がマトリクス状に配置されており、指表面から受ける感圧分布を多点により検出できる構造になっている。
次に、本実施の形態の入力装置の動作を説明する。本実施の形態では、入力情報特定手段5が指表面からの荷重分布を表す検出データeを用いて、その荷重重心を算出し、その位置の変化から、押し込み位置・動作を特定する。
図16は、入力情報特定手段5の動作を示すフローチャートである。まず、ステップS301において、指先の接触面でマトリクス状に並んでいる感圧センサ23の測定値である圧力面分布のデータを検出データeとして受け取る。
図17は、検出部2の感圧分布状態の説明図である。検出部2は、指の接触している部分での状態を感圧分布として検出している。検出部2の圧力面分布を取得する感圧センサ23は、x方向に(1,2,…I …I)、y方向に(1,2,…j…J)のマトリクス状に並べられていている。ここで、
(i,j)座標における検出部2の測定値をFijとする。
次に、ステップS302において、指先が接触している検出部2の領域を切り出す。検出部2と指は楕円形状で面接触しているため、その楕円形状を内包する矩形領域を抽出する。その際の頂点に当たる部分の座標をP、P、P、Pとする。矩形領域においては、矩形領域の長軸方向が指先方向、短軸方向が指側面垂直方向となるため、矩形領域の長軸方向を算出することで、指先方向を抽出できる。
次に、ステップS303において、荷重重心位置であるPを算出する。Pのx方向成分PGxとPのy方向成分PGyはそれぞれ
として算出することができる。
次に、ステップS304において、合計荷重Fを求める。合計荷重Fは、
として算出することができる。
次に、ステップS305において、合計荷重がある一定の値を超えているか否かをチェックし、超えていない場合にはステップS301に戻り、超えている場合には、ステップS306に進む。加重が小さい段階での荷重重心位置Pは安定しないため、ステップS305を設け、安定したデータのみを利用するようにする。ステップS306において、矩形領域の中で荷重重心となる位置への重心方向ベクトルを算出する。矩形重心方向ベクトルはV→とする。矩形重心方向ベクトルの始点は矩形領域の中で、指の根元に近い側の頂点とし、ここでは橈骨寄りのPとする。
次に、ステップS307において、矩形領域の隣接する二辺より求まる長軸方向ベクトルと短軸方向ベクトルを算出する。長軸方向ベクトルと短軸方向ベクトルの始点は、S306における矩形重心方向ベクトルと同様にP1とし、矩形長軸方向ベクトルをV→、矩形短軸方向ベクトルをV→とする。
次に、ステップS308において、重心方向ベクトルの長軸方向成分と長軸方向ベクトルとの比率である重心位置比率(正規化された、重心方向ベクトルV→の長軸方向成分の絶対値)Rと、重心方向ベクトルの短軸方向成分と短軸方向ベクトルとの比率である重心位置比率(正規化された、重心方向ベクトルV→の短軸方向成分の絶対値)Rを算出する。
長軸方向への重心位置比率Rは矩形長軸方向ベクトルと矩形重心方向ベクトルとのなす角度の余弦により求まり、重心位置が指の付け根にあるときは0、指先の先端にあるときは1と正規化された値となる。また、短軸方向への重心位置比率Rは、矩形短軸方向ベクトルと矩形重心方向ベクトルとのなす角度の余弦により求まり、重心位置が指の橈骨側にあるときは0、指の尺骨側にあるときは1と正規化された値となる。つまり、
として算出する。算出されたRとRとから求められる(R,R)は、矩形領域内での正規化された重心位置座標を示すことになる。
次に、ステップS309において、所定の時間内にタイミングデータcが発せられるか否かが監視され、タイミングデータcが発せられた場合にはステップS301に戻り、なぞり動作に連れて移動する荷重重心位置の測定を更に行う。所定の時間内にタイミングデータcが発せられない場合には、ステップS310に進み、データベース4からの蓄積データfを参照して入力情報の特定を行ない、その情報を入力情報特定データdとして出力する。このステップS310は、図10〜図12を参照して説明したDPマッチングを用いて行なうことができる。但し、本実施の形態においては、図10のステップS201において、検出データeから算出された重心位置比率R、Rの時系列データと蓄積データfとの要素間の距離算出を行なう。
本実施の形態において、左手親指に対して例えば図9i)に示すような左方向なぞり動作が行われた場合、短軸方向への重心位置比率Rは、0に近い値から1に近い値へと変化する(Rはほぼ一定)。また、例えば図9iii)に示す指先方向なぞり動作が行われた場合、長軸方向へ重心位置比率RLは、0に近い値から1に近い値へと変化する(Rは0.5程度でほぼ一定)。本実施の形態においては、ステップS310において、このような入力動作の特定が行なわれる。
本実施の形態では圧力面分布状態を検出するために、マトリクス状に並べた感圧センサ23を用いたが、圧力面分布状態を求めることができるものであればマトリクス状に並んでいなくてもよい。また、重心位置比率は、指の根元に近い側で、左手親指の橈骨側のPを始点に正規化された値として用いているが、ベクトルの始点をP、P、Pのどの矩形の角を選んでもよい。また、正規化された値は実測値など正規化した値でなくても、重心位置を示すものであればよい。
また、ステップS305において、荷重重心位置Rの安定した値のみを利用するようにするため、合計荷重Fがある基準以上の荷重になった際にのみ次のステップに進むとしたが、安定した荷重重心位置Rを利用するためには合計荷重Fを用いることに限定したものではない。例えば、接触面の領域面積がある一定以上の面積になったときのみを利用するようにしてもよい。また、感圧センサ23はアナログ的に値を検出するセンサを用いたが、ON−OFFだけのデジタルな値を検出するセンサを用いてもよい。その場合、荷重重心位置とは、接触面領域の面積重心位置に相当する。また、入力エリア1を識別するために重心位置比率を基準に用いたが、指からの荷重位置を特定できるものであれば、荷重重心位置に限定しなくてもよい。例えば、感圧センサ2の最も大きい値を示した点を荷重重心位置Pと同等に扱うこともできる。また、圧力分布から矩形領域の各角の点であるP,P,P,Pの位置を決定するのは、各入力を行なうたびに算出しなおす必要はない。例えば、入力以前に端末へ指が接触したことを感圧センサ2で検出した際に、予め指の接触領域を切り出し、その矩形領域から算出しておいたものを用いてもよい。
また、圧力分布から矩形領域の長軸方向ベクトルと短軸方向ベクトルの算出を行なったが、指先方向と指側面垂直方向との切り分けが可能であれば、矩形以外の領域抽出を行なってもよい。例えば、圧力分布状況から、楕円領域の抽出を行い、その楕円の長軸方向ベクトルと短軸方向ベクトルを用いて同様の計算を行なってもよい。
図18は、本発明の実施例の端末に対し入力を行なう状態を示す斜視図である。本実施例はディスプレイの大画面化に伴い、表示部と同一面上に、入力を検出する検出部2を大きく設けることが困難な場合の実施例である。本実施例は、フル画面の端末に本発明を適応したものである(実施例2、3もフル画面の端末本発明を適応したものである)。本実施例においては、検出部2を機器のサイドに設け、裏側から包み込むように機器を保持して各指へのなぞり動作を行なう。図18において、矢印にてなぞり動作が示されている(図19、図20においても同様である)。このようななぞり動作の特定は電子書籍などのページ送り機能として使うことが考えられる。この場合は各指が端末に指先で接している位置に検出部2を設ければよく、例えば、親指の接しているサイドや人差し指の接している裏面に検出部2を設けてもよい。また、検出部2の他、各指の姿勢が一定になるように検出部がない位置にも窪みなどを形成してもよい。
各指へのなぞり動作が、機能を変更する場合、操作をする入力エリアが機器の背面側に来るため、フル画面端末に対する通常の入力方式では、どこへ入力を行なおうとしているのかを、入力状況を見て確認することが困難である。しかし、本実施例の場合、操作のために接触している対象が体の一部であるため、接触している位置を把握することができる。すなわち、どの位置で操作を行なおうとしているのか目視により確認できない状況に対応するものとして、本実施例は有効である。
図19は、本発明の実施例の端末に対し入力を行なう状態を示す斜視図である。本実施例においては、検出部2は、親指の接触している表示面や、他の指が接している機器サイドや裏面に設けることができる。本実施例によれば、機器の保持の仕方により、web接続用端末におけるスクロール操作と同等の動作を特定することができる。
図20は、本発明の実施例3の端末に対し入力を行なう状態を示す斜視図である。図20を参照すると、機器の保持の仕方により幅広くとることのできる手の甲を用い、マウスや十字方向のキー操作と同等の動作を特定することができる。この場合には親指の指先の力を検出部2により取得する他に、端末の裏側で各指と接触する位置の力の状態を検出してもよい。
実施例1〜3において、入力を検出する検出部2は指の先端で接触していなくともよい。例えば、指の広い領域が検出部2と接触できるようにして、情報端末と接触している面の圧力分布状態を検出部2により取得することにより、指の甲側の表面へのなぞり動作を識別することで、スクロール動作を特定するようにしてもよい。
以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は2008年3月3日に出願された日本出願特願2008−051867および2008年6月26日に出願された日本出願特願2008−166854を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくすることによる、操作者の使いにくさの改善に貢献できるものである。
本発明の一実施の形態に係る入力装置の構成を示すブロック図である。 図1の入力部3の外観を示す斜視図である。 図2の入力エリアの複数領域に分解して示す模式図である。 図1の検出部2の構造を示す断面図である。 本発明の全体動作を表すフローチャートである。 入力エリアである人差し指を関節ごとに分割して表した模式図である。 各入力エリアを押し込んだ際の力の釣り合いを表した図である。 第1〜第3入力エリアを分割して表した図である。 時系列の蓄積データと入力動作の対応を示す図である。 入力情報特定手段でDPマッチング行なう際のフローチャートである。 DPマッチング経路図を表した図である。 格子点上での最小累積コストを説明した図である。 本発明の入力装置を適応したカードサイズの薄型の端末に入力を行なう状態を示す図である。 本発明の第2の実施の形態に係る入力装置の構成を示すブロック図である。 第2の実施の形態における検出部2の構造を示す平面図である。 第2の実施の形態における入力情報特定手段5の動作を示すフローチャートである。 第2の実施の形態における検出部2の感圧分布状態を示す説明図である。 フル画面の端末に本発明を適応した実施例2の斜視図である。 フル画面の端末に本発明を適応した実施例2の斜視図である。 フル画面の端末に本発明を適応した実施例3の斜視図である。
符号の説明
1 入力エリア
第1入力エリア
11 第1入力エリア橈骨側
12 第1入力エリア尺骨側
第2入力エリア
21 第2入力エリア橈骨側
22 第2入力エリア尺骨側
第3入力エリア
31 第3入力エリア橈骨側
32 第3入力エリア尺骨側
第4入力エリア
第5入力エリア
第6入力エリア
第7入力エリア
2 検出部
キートップ
平行板
感圧センサ
3 入力部
4 データベース
5 入力情報特定手段
6 タイマ管理制御手段
7 情報提示手段
8 情報端末
9 情報提示部
10 配線基板
11 筐体
12 ベース
a、e 検出データ
b、f 蓄積データ
c タイミングデータ
d 入力情報特定データ

Claims (13)

  1. 検出部にの一部を接触させ、そのの接触部の近傍になぞり動作(そのの接触部の近傍をそのの接触部とは異なる部分をスライドさせる動作)が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示が提示される入力装置であって、
    体の先端で接触するように配置されており前記体先端が接触され、その体における接触部の近傍が入力により押し込み動作若しくはなぞり動作を受けた際に前記体を介して伝達した力を検出して、検出データとして出力する検出部と、
    時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御手段と、
    前記検出データと前記タイミングデータに基づいて前記検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力された動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定手段と、
    を備えた入力装置。
  2. 前記機能には、ポインタの位置提示、ポインタの動作、スクロール動作、文字手書き操作若しくはページ送り機能が含まれていることを特徴とする請求項1に記載の入力装置。
  3. 前記検出部は、3方向成分の検出が可能な力センサ、または、複数点の押し込み分布を検出可能な圧力センサ、または、平面状に配置された複数の圧力センサ、のうちの少なくとも一つを含むことを特徴とする請求項1からのいずれかに記載の入力装置。
  4. 前記タイマ管理制御手段は、常時タイミングを生成していることを特徴とする請求項1からのいずれかに記載の入力装置。
  5. 前記タイマ管理制御手段は、常時検出データを監視し、検出データの生起と共にタイミングの生成を開始し、検出データの終了時にタイミングの生成を停止することを特徴とする請求項1からのいずれかに記載の入力装置。
  6. 前記入力情報特定手段は、前記データベースの前記蓄積データと検出データの前記時系列データとのマッチングを行なうことにより、入力動作を特定することを特徴とする請求項1からのいずれかに記載の入力装置。
  7. 前記データベースは、前記検出部から出力される押し込み方向と、指先スライド方向と、指側面垂直スライド方向との力の時系列変化、または、押し込み方向の力に対する指先スライド方向の力の比および押し込み方向の力に対する指側面スライド方向の力の比の時系列変化、または、前記検出部に対する荷重の正規化された重心位置の時系列変化、を入力動作に対応付けて前記蓄積データとして記録してあることを特徴とする請求項1からのいずれかに記載の入力装置。
  8. 前記入力情報特定データを受けて、その入力動作に割り当てられた所定の記号、データ若しくは機能を表示する情報提示手段、をさらに備えたことを特徴とする請求項1に記載の入力装置。
  9. 前記体の一部が指であることを特徴とする請求項1からのいずれかに記載の入力装置。
  10. 請求項1からのいずれかに記載された入力装置を備えた端末。
  11. 検出部にの一部が接触し、そのの接触部の近傍になぞり動作が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示を提示する入力方法であって、
    先端が接触され、その体における接触部の近傍が入力により押し込み動作若しくはなぞり動作を受けた際に前記体を介して伝達した力を検出して、検出データとして出力する検出ステップと、
    時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御ステップと、
    前記検出データと前記タイミングデータに基づいて検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力した動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定ステップと、を実行することを特徴とする入力方法。
  12. 前記入力情報特定データを受けて、その入力動作に割り当てられた所定の記号、データ若しくは機能を表示することを特徴とする請求項11に記載の入力方法。
  13. 前記検出部に接触する前記が指であり、前記接触部の近傍がその指の属する指の関節間若しくは関節の先の骨の上またはそれらの周辺を含む領域であることを特徴とする請求項11または12に記載の入力方法。
JP2010501851A 2008-03-03 2009-02-23 入力装置とその入力装置を備えた端末および入力方法 Active JP5353877B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010501851A JP5353877B2 (ja) 2008-03-03 2009-02-23 入力装置とその入力装置を備えた端末および入力方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2008051867 2008-03-03
JP2008051867 2008-03-03
JP2008166854 2008-06-26
JP2008166854 2008-06-26
JP2010501851A JP5353877B2 (ja) 2008-03-03 2009-02-23 入力装置とその入力装置を備えた端末および入力方法
PCT/JP2009/053170 WO2009110340A1 (ja) 2008-03-03 2009-02-23 入力装置とその入力装置を備えた端末および入力方法

Publications (2)

Publication Number Publication Date
JPWO2009110340A1 JPWO2009110340A1 (ja) 2011-07-14
JP5353877B2 true JP5353877B2 (ja) 2013-11-27

Family

ID=41055901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010501851A Active JP5353877B2 (ja) 2008-03-03 2009-02-23 入力装置とその入力装置を備えた端末および入力方法

Country Status (3)

Country Link
US (1) US8730159B2 (ja)
JP (1) JP5353877B2 (ja)
WO (1) WO2009110340A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054370B (zh) * 2010-10-29 2013-06-05 鸿富锦精密工业(深圳)有限公司 Usb线控器及应用所述usb线控器的电子阅读设备
US20140306893A1 (en) * 2013-04-11 2014-10-16 Rashed Siddiqui Computer Pointing Device based on Hand/Foot Directional Pressure
US9625884B1 (en) * 2013-06-10 2017-04-18 Timothy Harris Ousley Apparatus for extending control and methods thereof
US10114486B2 (en) * 2013-09-19 2018-10-30 Change Healthcare Holdings, Llc Method and apparatus for providing touch input via a touch sensitive surface utilizing a support object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265522A (ja) * 2000-03-16 2001-09-28 Keio Gijuku 爪に装着するセンサ
WO2008023546A1 (en) * 2006-08-25 2008-02-28 Kyocera Corporation Portable electronic device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6991364B2 (en) 2001-07-31 2006-01-31 The Timberland Company Same-hand control of a multi-function device
JP4119187B2 (ja) 2002-07-17 2008-07-16 国立大学法人金沢大学 入力装置
JP2004199145A (ja) 2002-12-16 2004-07-15 Sony Corp 情報処理システム、送信装置、および受信装置
CN1701544B (zh) * 2003-06-30 2011-05-18 日本电信电话株式会社 电场检测光学装置、收发机、位置信息获取系统、信息输入系统
JP2005301874A (ja) 2004-04-15 2005-10-27 Kddi Corp トラックポイントを用いた文字入力装置
JP4594791B2 (ja) * 2005-04-25 2010-12-08 学校法人千葉工業大学 携帯型操作入力装置
US20090213081A1 (en) * 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265522A (ja) * 2000-03-16 2001-09-28 Keio Gijuku 爪に装着するセンサ
WO2008023546A1 (en) * 2006-08-25 2008-02-28 Kyocera Corporation Portable electronic device

Also Published As

Publication number Publication date
WO2009110340A1 (ja) 2009-09-11
US8730159B2 (en) 2014-05-20
US20100328211A1 (en) 2010-12-30
JPWO2009110340A1 (ja) 2011-07-14

Similar Documents

Publication Publication Date Title
JP5381715B2 (ja) 入力装置及びそれを備えた情報端末、入力方法
US9606618B2 (en) Hand tracker for device with display
US20110285648A1 (en) Use of fingerprint scanning sensor data to detect finger roll and pitch angles
CA2864719C (en) Gesture recognition devices and methods
EP1709519B1 (en) A virtual control panel
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
EP3076334A1 (en) Image analyzing apparatus and image analyzing method
US7197836B2 (en) Reference coordinate calculating method, reference coordinate calculating program, recording medium thereof, reference plate and form measuring machine
US8743089B2 (en) Information processing apparatus and control method thereof
NO339941B1 (no) System og fremgangsmåte for et gestbasert styringssystem
US7756364B2 (en) Digital pen and paper system
US10627917B2 (en) Object-sensing apparatus and object-sensing method
CN103995592A (zh) 穿戴式设备与终端进行信息交互的方法及终端
EP1340218A1 (en) Electronic user worn interface device
KR20120086055A (ko) 터치 압력을 검출할 수 있는 터치 스크린 장치 및 이를 갖는 전자 장치
JP5353877B2 (ja) 入力装置とその入力装置を備えた端末および入力方法
US10509512B2 (en) Operation input device and image processing system
Manghisi et al. Towards gestured-based technologies for human-centred Smart Factories
JP4085163B2 (ja) 接触型情報入力装置
JP6966777B2 (ja) 入力システム
JP5538596B1 (ja) タッチ入力装置、タッチ入力装置入力検出方法、およびコンピュータプログラム
WO2017007492A1 (en) Machine display and machine control systems
JP5005585B2 (ja) 操作装置及びその方法
US20240003766A1 (en) Contact information obtaining apparatus, contact information obtaining system, contact information obtaining method, and computer readable medium
WO2022120614A1 (en) Apparatus and method for applying a sensor patch onto a hand-shaped carrier structure

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Ref document number: 5353877

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150