JPWO2009110340A1 - INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD - Google Patents

INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD Download PDF

Info

Publication number
JPWO2009110340A1
JPWO2009110340A1 JP2010501851A JP2010501851A JPWO2009110340A1 JP WO2009110340 A1 JPWO2009110340 A1 JP WO2009110340A1 JP 2010501851 A JP2010501851 A JP 2010501851A JP 2010501851 A JP2010501851 A JP 2010501851A JP WO2009110340 A1 JPWO2009110340 A1 JP WO2009110340A1
Authority
JP
Japan
Prior art keywords
input
data
input device
detection
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010501851A
Other languages
Japanese (ja)
Other versions
JP5353877B2 (en
Inventor
真 則枝
真 則枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010501851A priority Critical patent/JP5353877B2/en
Publication of JPWO2009110340A1 publication Critical patent/JPWO2009110340A1/en
Application granted granted Critical
Publication of JP5353877B2 publication Critical patent/JP5353877B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks

Abstract

機器上の入力部が小さいものであっても、操作者の使いやすい入力装置および入力方法を提供する。入力装置と接触している体の一部になぞり動作を行われた際に、体を介して伝達した力を検出して、検出データaとして出力する検出部2を有する入力部3と、検出データaを時系列データとするためのタイミングを生成し、タイミングデータcとして出力するタイマ管理制御手段6と、検出データaをタイミングデータcに基づいて時系列データに変換し、これと、予め設定されているデータベース4の蓄積データbとを対比することにより、入力した動作を特定し、その入力動作を入力情報特定データdとして出力する入力情報特定手段5と、入力情報特定データdを受けて、その入力動作に割り当てられた機能を表示する情報提示手段7と、を有している。Provided is an input device and an input method that are easy for an operator to use even if the input unit on the device is small. An input unit 3 having a detection unit 2 that detects a force transmitted through the body and outputs it as detection data a when a tracing operation is performed on a part of the body that is in contact with the input device; Timer management control means 6 for generating timing for making data a time-series data and outputting it as timing data c, and converting detection data a into time-series data based on timing data c, The input data specifying means 5 for specifying the input operation and outputting the input operation as the input information specifying data d by receiving the stored data b of the database 4 and the input information specifying data d And an information presenting means 7 for displaying a function assigned to the input operation.

Description

本発明は、携帯電話・PDA・ノートPCといった携帯機器に適用可能な入力装置および入力方法に関する。   The present invention relates to an input device and an input method applicable to mobile devices such as mobile phones, PDAs, and notebook PCs.

可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくした入力装置が求められている。
機器上の入力部のスペースを小さくするための方法として、X、Y、Z軸方向の指圧を検知することで、ポインタや文字入力操作を行なうものがある。この例としては、トラックポイントを用いて、その指圧変化パターンから手書き文字入力を行なうものがある(例えば、特許文献1参照)。しかしながら、特許文献1に記載されたものでは、入力動作を行なう指先の移動がないため動作確認が難しく、入力のために慣れが必要となり、入力ミスの原因にもなる。
また、検出部を機器から切り離し、その検出部を独立して配置する方法がある。この例としては、体に検出部を装着させることにより入力を行なう装置がある(例えば、特許文献2参照)。しかしながら、この方式では、入力部を機器とは別に用意する必要があり、可搬性には優れていない。また、操作者に検出部をとりつけるわずらわしさもある。
特開2005-301874号公報 特表2004-537802号公報
There is a demand for an input device in which the input unit on the device is small in an input device in a portable device that places importance on portability and a portable device that places importance on a display unit such as a display.
As a method for reducing the space of the input unit on the device, there is a method of performing a pointer or character input operation by detecting acupressure in the X, Y, and Z axis directions. As this example, there is one in which handwritten characters are input from the acupressure change pattern using a track point (see, for example, Patent Document 1). However, in the device described in Patent Document 1, since there is no movement of the fingertip for performing the input operation, it is difficult to confirm the operation, and it is necessary to get used to input, which may cause an input error.
There is also a method of separating the detection unit from the device and arranging the detection unit independently. As an example of this, there is a device that performs input by attaching a detection unit to the body (for example, see Patent Document 2). However, in this method, it is necessary to prepare an input unit separately from the device, and the portability is not excellent. Moreover, there is also the troublesomeness of attaching the detection unit to the operator.
JP 2005-301874 A Special Table 2004-537802

情報端末などの電子機器における入力装置の入力部(入力エリア)を小さくした場合の入力操作は、ポインティング操作における位置決めや速度制御といった細かい操作が難しくなる。なぜなら、小さい入力エリアでの入力は、制御をするために操作体系の複雑な動作や機器の微妙な操作が必要なためである。
而して、手書き文字入力のような操作では、大きい入力エリアが必要となる。なぜなら、手書き文字入力等の入力操作では、スクロールを伴う操作や入力の開始位置を絶対位置で指定する必要があるため、大きい入力エリアが要求されるからである。つまり、従来の入力装置では、スクロール動作や手書き文字入力と入力エリアの縮小とを両立させることは困難であった。
一方、特許文献2にて開示されたような、入力部を機器から切り離して人体に装着させる方式によれば、機器上での入力部エリアを縮小するという要請には応えることができる。
しかしながら、この方式では、入力部を操作者に取り付けるわずらわしさがあり、また入力操作を行なわない時は邪魔である。
本発明の目的は、可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくすることによる、操作者の使いにくさを改善させる装置を提供することにある。
The input operation when the input unit (input area) of the input device in an electronic device such as an information terminal is small is difficult to perform fine operations such as positioning and speed control in the pointing operation. This is because input in a small input area requires complicated operation of the operation system and delicate operation of the device in order to control.
Thus, an operation such as handwritten character input requires a large input area. This is because an input operation such as handwritten character input requires a large input area because it is necessary to specify an operation involving scrolling and an input start position by an absolute position. In other words, in the conventional input device, it is difficult to achieve both the scroll operation and the handwritten character input and the reduction of the input area.
On the other hand, according to the method of separating the input unit from the device and wearing it on the human body as disclosed in Patent Document 2, it is possible to meet the demand for reducing the input unit area on the device.
However, this method has the trouble of attaching the input unit to the operator, and is an obstacle when the input operation is not performed.
An object of the present invention is an input device in a portable device that places importance on portability, such as a portable device or a display unit such as a display, and an apparatus that improves the difficulty of use by reducing the input unit on the device. Is to provide.

前記目的を達成するため、本発明は、検出部に物体の一部を接触させ、その物体の接触部の近傍になぞり動作(その物体の接触部の近傍をその物体の接触部とは異なる部分をスライドさせる動作)が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示が提示される入力装置であって、物体の一部が接触され、その物体の接触部の近傍になぞりが行われた際に、物体を介して伝達した力を検出して、検出データとして出力する検出部と、所定の時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御手段と、前記検出データと前記タイミングデータに基づいて前記検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力された動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定手段と、を有することを特徴とする。   In order to achieve the above object, the present invention makes a part of an object come into contact with the detection unit, and the tracing operation is performed in the vicinity of the contact part of the object. Is an input device that identifies the tracing action and presents a display corresponding to the tracing action when a part of the object is touched and the contact part of the object is A detection unit that detects a force transmitted through an object when a trace is performed in the vicinity and outputs the detection data as detection data, and a timing for recording the detection data at a predetermined time interval are generated. The timer management control means for outputting this as timing data, the time series data of the detection data is created based on the detection data and the timing data, and the time series data and preset data By comparing accumulated data over scan, identifying the input operation, the input information specifying means for outputting the input operation as input information specifying data, characterized in that it has a.

また、前記目的を達成するため、本発明は、検出部に物体の一部が接触し、その物体の接触部の近傍になぞり動作が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示を提示する入力方法であって、物体の一部が接触され、その物体の接触部の近傍になぞりが行われた際に、物体を介して伝達した力を検出して、検出データとして出力する検出ステップと、所定の時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御ステップと、前記検出データと前記タイミングデータに基づいて検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力した動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定ステップと、を実行することを特徴とする。   In order to achieve the above object, the present invention specifies a tracing operation when a part of an object comes into contact with the detection unit and a tracing operation is performed in the vicinity of the contact part of the object. It is an input method that presents a display according to the operation, and when a part of the object is touched and a drag is performed near the contact part of the object, the force transmitted through the object is detected, A detection step of outputting as detection data; a timing for recording the detection data at a predetermined time interval; and a timer management control step of outputting the timing data as timing data; and the detection data and the timing data Creates time-series data of detection data based on this, compares this time-series data with the stored data of a preset database, identifies the input action, and inputs the input action And executes the input information specifying step of outputting as a broadcast specific data.

本発明によれば、入力エリアは人体上に設けられ、入力をするためになぞる力は、接触している体を通して機器の検出部に伝達されるため、機器上における検出部を小さくすることができる。そして、本発明によれば、機器上の検出部を小さくしても、細かい操作が可能になる。なぜなら、従来の機器上の棒状のものを傾斜させ、傾斜角度によりポインティングするのとは対照的に、本発明の入力方法によると、ポインタの移動速度や移動量を、操作する速度や操作移動量に反映させることができるからである。また、本発明によれば、入力を検出する検出部は小さいが、入力を行なう入力エリアは大きく取ることが可能であるため、スクロールを伴い、大きい操作領域が必要な操作や、入力の開始位置を絶対位置で指定する操作を精度よく容易に行なうことができる。さらに、本発明は、操作者が自身の体を通して入力をおこなうものであるため、入力が行なわれたことがからだに接触されたことにより感じ取ることができ、どこの位置への入力を行なっているのかを入力部を見ることなく確認することが可能であり、入力の確認性が高い。また、本発明の入力装置は、体に検出部材を巻きつけるわずらわしさがなく、入力を検出する検出部は機器と体との接触部分だけにあり、可搬性にも優れる。   According to the present invention, the input area is provided on the human body, and the force to be input is transmitted to the detection unit of the device through the contacting body, so that the detection unit on the device can be made small. it can. And according to this invention, even if the detection part on an apparatus is made small, detailed operation is attained. This is because, according to the input method of the present invention, the moving speed and the moving amount of the pointer are changed to the operating speed and the operating moving amount, as opposed to tilting the rod-shaped object on the conventional device and pointing by the tilt angle. It is because it can be reflected in. In addition, according to the present invention, the detection unit for detecting input is small, but the input area for input can be made large. Therefore, an operation that requires scrolling and requires a large operation area, or an input start position The operation for designating the absolute position can be easily performed with high accuracy. Further, according to the present invention, since the operator performs input through his / her body, the input can be sensed by touching the body, and the input is performed at any position. Can be confirmed without looking at the input section, and the input confirmation is high. Further, the input device of the present invention does not have the trouble of winding the detection member around the body, and the detection unit for detecting the input is only in the contact portion between the device and the body, and is excellent in portability.

次に、本発明の実施の形態について図面を参照して詳細に説明する。
〔第1の実施の形態〕
図1(a)は、本発明の第1の実施の形態の入力装置の構成を示すブロック図である。図1(a)に示すように、本実施の形態の入力装置は、入力を行なう指先と接触する位置に配置されていて、力を検出すると、複数の検出データaを出力する複数の検出部2を含む入力部3と、検出データaを監視し、検出部2に入力が行なわれたことを検出すると活性化されて、ある一定の時間間隔で入力を検出するタイミングとなるトリガーを生成し、これをタイミングデータcとして出力するタイマ管理制御部6と、検出データaとタイミングデータcを受けると、タイミングデータcのトリガーに基づいて検出データaをトリガー毎の時系列データに変換し、この時系列データと予め記憶されているデータベース4の蓄積データbを対比することで、入力動作を特定し、その入力動作を入力情報特定データdとして出力する入力情報特定手段5と、により構成されている。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1A is a block diagram illustrating a configuration of the input device according to the first embodiment of this invention. As shown in FIG. 1 (a), the input device of the present embodiment is arranged at a position in contact with the fingertip that performs input, and outputs a plurality of detection data a when a force is detected. 2, and the detection data a are monitored and activated when it is detected that an input has been made to the detection unit 2, and a trigger is generated that becomes a timing for detecting the input at a certain time interval. When the timer management controller 6 that outputs this as timing data c, and the detection data a and timing data c are received, the detection data a is converted into time-series data for each trigger based on the trigger of the timing data c, Input information for specifying the input operation by comparing the time series data with the stored data b of the database 4 stored in advance and outputting the input operation as the input information specifying data d A constant section 5 is constituted by.

図2は、入力部3の一例を示した斜視図である。図2において、斜線の施された領域が入力エリア1であって、この例では、左手の親指の背、人差し指の背およびそれらの間の手の甲の一部が、入力エリア1に設定されている。そして、親指の先端部と人差し指の先端部が検出部2に接触している。例えば、右手の指で入力エリア1上をなぞると、時間変化する垂直方向の力と水平2方向の力が検出部2により検出される。なお、図2において、8は情報端末、9はその情報提示部である。
図2に示した入力エリア1は、図3に示すように、複数の領域に分割されている。その分割の一例を説明すると、入力エリア1は、人差し指において、各関節の間に分布した第1入力エリア1から第3入力エリア1のように分割され、手の甲に渡って第4入力エリア1、親指において、各関節間に分布した第5入力エリア1から第7入力エリア1のように分割されている。
FIG. 2 is a perspective view showing an example of the input unit 3. In FIG. 2, the hatched area is the input area 1. In this example, the back of the left thumb, the back of the index finger, and a part of the back of the hand between them are set in the input area 1. . The tip of the thumb and the tip of the index finger are in contact with the detection unit 2. For example, if the finger of the right hand is traced on the input area 1, the detection unit 2 detects the force in the vertical direction and the force in the two horizontal directions that change with time. In FIG. 2, 8 is an information terminal, and 9 is its information presentation unit.
The input area 1 shown in FIG. 2 is divided into a plurality of regions as shown in FIG. To describe an example of the divided input area 1, at the index finger, is divided from the first input area 1 1 distributed between the joints as in the third input area 1 3, fourth input area over the back of the hand 1 4, the thumb, which is divided as a seventh input area 1 7 from the 5 input area 1 5 distributed between each joint.

図4は、本実施の形態の入力装置において用いられる検出部2の具体的構造を示した断面図である。図4に示すように、検出部2は、操作者の指先が接触し、実際に押し込みが行なわれるキートップ2と、キートップ2の下側に配置された、平面形状が長方形の平行板2と、平行板2の四隅下に配置された感圧センサ2とを有する。四つの感圧センサ2を用いて、4点に加わる力の分布から3方向成分の力を検出する。すなわち、指先との接触面から垂直方向に押し込む力と、指先方向にスライドさせる力と指側面垂直方向にスライドさせる力の水平面方向2成分との、3成分方向の検出をする。
なお、本願明細書において、押し込み方向、指先方向、指側面垂直方向は次の意味で用いられている。押し込み方向(z方向)とは、平行板2に垂直の方向である。指先方向(x方向)は、平行板2に平行で指が指す方向である。指側面垂直方向(y方向)は、押し込み方向と指先方向とに垂直の方向である。
感圧センサ2は、3方向成分の検出データを外部に出力するための配線基板10上に固定されている。なお、図4において、11は筐体、12はベースである。
図1(a)に示される入力装置から出力される入力情報特定データdは、例えばモニタ上に表示される。そのための構成を図1(b)に示す。図1(b)に示す入力装置において、情報提示手段7は、入力情報特定データdをうけて、その動作に割り当てられたポインタの位置・動作などの機能を情報提示装置上に提示する。
FIG. 4 is a cross-sectional view showing a specific structure of the detection unit 2 used in the input device of the present embodiment. As shown in FIG. 4, the detection unit 2, contacts the finger of the operator, the key top 2 1 actually pushing is performed, is arranged below the key top 2 1, parallel rectangular planar shape of having a plate 2 2, and a pressure sensor 2 3 disposed under the four corners of the parallel plate 2 2. With four pressure sensors 2 3, for detecting a force of three directional components from the distribution of forces applied to the four points. That is, three component directions are detected: a force that pushes in the vertical direction from the contact surface with the fingertip, a force that slides in the fingertip direction, and two components in the horizontal plane direction of the force that slides in the finger side surface vertical direction.
In the present specification, the pushing direction, the fingertip direction, and the finger side surface vertical direction are used as follows. The push-in direction (z-direction) is a direction perpendicular to the parallel plate 2 2. Fingertip direction (x direction) is the direction indicated by the parallel fingers parallel plate 2 2. The finger side surface vertical direction (y direction) is a direction perpendicular to the pushing direction and the fingertip direction.
Pressure sensor 2 3 is fixed on the wiring board 10 for outputting the detection data of the three direction components to the outside. In FIG. 4, 11 is a housing and 12 is a base.
The input information specifying data d output from the input device shown in FIG. 1A is displayed on a monitor, for example. A configuration for this purpose is shown in FIG. In the input device shown in FIG. 1B, the information presenting means 7 receives the input information specifying data d and presents the function such as the position / motion of the pointer assigned to the motion on the information presenting device.

[動作]
次に、本実施の形態の動作を図1及び図5を参照して説明する。まず、機器と指先で接触している指への押し込みが行なわれると、ステップS101において、検出部2が、指先との接触面から垂直方向に押し込む力と指先方向にスライドさせる力と指側面垂直方向にスライドさせる力とを検出し、3方向成分をそれぞれ押し込みデータ、指先スライドデータ、指側面垂直スライドデータとして検出データaとして出力する。ステップS102において、タイマー管理制御手段6は、検出部2に入力が行なわれたことを検知すると、一定の時間間隔で、入力情報特定手段5において検出データ2を採取しデータとして記録するためのタイミングを生成し、タイミングデータcとして出力する。ステップS103において、入力情報特定手段5は、3方向成分の検出データaをタイミングデータcに基づき時系列のデータに変換し、これと、予めデータベース4に保存されている時系列のデータである蓄積データbとを対比することにより、どの入力動作が行なわれているかの特定を行ない、入力情報特定データdとして出力する。入力装置が、図1(b)に示されるように、情報提示手段7を有している場合、ステップS104において、情報提示手段7は、特定された入力情報特定データdに割り当てられたポインタの位置・動作などの機能を表示画面上に表示する。
[Operation]
Next, the operation of the present embodiment will be described with reference to FIGS. First, when a finger is pressed into contact with the device at the fingertip, in step S101, the detection unit 2 pushes the fingertip in the vertical direction from the contact surface with the fingertip, slides the fingertip direction, and the finger side surface perpendicularly. The direction-sliding force is detected, and the three-direction components are output as detection data a as push-in data, fingertip slide data, and finger side surface vertical slide data, respectively. In step S102, when the timer management control means 6 detects that an input has been made to the detection unit 2, the timing for collecting the detection data 2 at the input information specifying means 5 and recording it as data at regular time intervals. And output as timing data c. In step S103, the input information specifying unit 5 converts the detection data a of the three-direction component into time series data based on the timing data c, and this is stored as time series data stored in the database 4 in advance. By comparing with data b, it is specified which input operation is being performed, and output as input information specifying data d. If the input device has the information presentation means 7 as shown in FIG. 1B, in step S104, the information presentation means 7 displays the pointer assigned to the specified input information specifying data d. Functions such as position and operation are displayed on the display screen.

次に、入力エリアになぞりが行なわれた際に、指のどの部分が現に押し込まれているのかを、検出データaに基づいて特定することができる理由について、左手人差し指を用いて説明する。なお、ここでは、検出部2で検出された3方向成分の力の内、垂直方向に押し込む力と、指先方向にスライドさせる力との2方向成分の力を用いて説明する。
図6は、入力エリア1のある人差し指を関節ごとに分割して表した図である。図6に示すように、入力エリア1を、指先から第一関節まで、第一関節から第二関節まで、第二関節から第三関節までの3つの領域に分け、それぞれを第1入力エリア1、第2入力エリア1、第3入力エリア1とする。また指は骨により剛性が保たれていることと、その相互間が関節によりつながれているため、仮想的に両端を回転角度に制限のある回転支持により支えられている梁であると考えることができる。また、各入力エリア1、1、1の梁の長さをそれぞれl、l、lとする。
Next, the reason why it is possible to specify which part of the finger is actually pressed when the input area is traced based on the detection data a will be described using the left index finger. Here, the description will be given using the force of the two-way component of the force of pushing in the vertical direction and the force of sliding in the fingertip direction out of the force of the three-way component detected by the detection unit 2.
FIG. 6 is a diagram showing the index finger with the input area 1 divided for each joint. As shown in FIG. 6, the input area 1 is divided into three areas from the fingertip to the first joint, from the first joint to the second joint, and from the second joint to the third joint. 1, the second input area 1 2, the third input area 1 3. In addition, since the rigidity of the fingers is maintained by the bones and the joints are connected by joints, it can be considered that the fingers are beams supported by a rotational support whose rotation angle is virtually limited at both ends. it can. Further, the lengths of the beams in the input areas 1 1 , 1 2 , and 1 3 are assumed to be l 1 , l 2 , and l 3 , respectively.

図7は、各入力エリア1〜1を押し込んだ際の力の釣り合いを示した摸式図である。図7を参照して、検出部2で検出された力の2方向成分と各入力エリア1〜1との関連づけについて説明する。
図7のi)欄には、第1入力エリア1を押し込んでいる状態が示されている。第1入力エリア1を押し込んだ時には第一関節が力のモーメントにより第1入力エリア1と第2入力エリア1とを直線でつなぐ角度でこれ以上曲がらなくなるため、水平方向の長さの拘束条件、垂直方向の長さの拘束条件、水平方向力のつりあい条件、垂直方向力のつりあい条件、指の付け根回りのモーメントのつりあい条件、指先回りのモーメントのつりあい条件により成り立つ6つの条件式から、押し込みを行なう力、指の付け根である第三関節での力、そして検出部2に加わる力の分力である垂直方向に押し込む力と水平方向にスライドさせる力の間の関係式を求めることができる。
指先から指の付け根までの水平方向の長さをw、高さをhとする。指先における第1入力エリア1の軸の水平方向からの角度をθ、指の付け根における第3入力エリア1の軸の垂直方向からの角度をθとする。押し込みを行なう力は垂直方向に働き、その力をFとする。また押し込みを行なう位置は各入力エリア1〜1におけるはりの中間であるとする。指先にかかる力の水平方向の力をF1x、垂直方向の力をF1zとする。指の付け根にかかる力の水平方向の力をF3x、垂直方向の力をF3zとする。
水平方向の長さの拘束条件:
w=l3sinθ+(l+l2)cosθ
垂直方向の長さの拘束条件:
h=l3cosθ+(l+l2)sinθ
水平方向力のつりあい条件:
1z+F3z=F
垂直方向力のつりあい条件:
3x=F1x
指の付け根回りのモーメントのつりあい条件:
Figure 7 is a schematic diagram showing the balance of forces when pushed in each of the input areas 1 1 to 1 3. Referring to FIG. 7, the association between the two directions component and each of the input areas 1 1 to 1 3 of the sensed force by the detection unit 2 will be described.
The column i) in FIG. 7 shows a state where the first input area 11 is pushed in. Because when pushed a first input area 1 1 not bend more at an angle connecting the first input area 1 1 and the second input area 1 2 a straight line by the moment of the first joint force, the horizontal length of the From the six conditional expressions that are established by constraint conditions, vertical length constraint conditions, horizontal force balance conditions, vertical force balance conditions, moment balance conditions around the base of the finger, and moment balance conditions around the fingertips Finding the relational expression between the force to push in, the force at the third joint that is the base of the finger, and the force that pushes in the vertical direction, which is a component of the force applied to the detector 2, and the force that slides in the horizontal direction Can do.
The horizontal length from the fingertip to the base of the finger is w, and the height is h. The angle from the horizontal direction of the first input area 1 1 of the shaft in the fingertip theta 1, the angle from the vertical direction of the third input area 1 3 axes at the base of the finger and theta 3. The pushing force works in the vertical direction, and the force is F. The position for pushing is that the middle of the beam at each of the input areas 1 1 to 1 3. The horizontal force of the fingertip is F 1x , and the vertical force is F 1z . The horizontal force of the force applied to the base of the finger is F 3x , and the vertical force is F 3z .
Horizontal length constraint:
w = l 3 sin θ 3 + (l 1 + l 2 ) cos θ 1
Vertical length constraint:
h = l 3 cos θ 3 + (l 1 + l 2 ) sin θ 1
Horizontal force balance condition:
F 1z + F 3z = F
Normal force balance condition:
F 3x = F 1x
Balancing conditions for the moment around the base of the finger:

指先回りのモーメントのつりあい条件: Balance conditions for moments around the fingertips:

これらの釣り合い式に、l、l、l、θ、θに適当な値を代入することにより、指先にかかる水平方向の力F1x、垂直方向の力F1zを算出することができる。 By assigning appropriate values to l 1 , l 2 , l 3 , θ 1 , and θ 3 in these balance equations, the horizontal force F 1x and the vertical force F 1z applied to the fingertips are calculated. Can do.

同様に、第2入力エリア1に押し込みを行なう場合にも、図7のii)に示される釣り合い式から水平方向の力F1xと垂直方向の力F1zを算出することができる。図示した例では、第二関節で曲がり第一関節では曲がっていないが、第2入力エリア1に押し込みが行なわれた場合ついては、力を加える位置や角度に依存し、第3入力エリア1に押し込みが行なわれた場合と同様に、第二関節が第2入力エリア1と第3入力エリア1とを直線でつなぐ角度で保たれる場合もある。
第3入力エリア1に押し込みが行なわれた場合については、第3入力エリア1を押し込んでいる状態を示す図7のiii)に示されるように、第3入力エリア1を押し込んだ時には第二関節が力のモーメントにより第2入力エリア1と第3入力エリア1とを直線でつなぐ角度でこれ以上曲がらなくなるため、図7の同欄に記載の釣り合い式が成立し、第1、第2入力エリア1、1に押し込みが行なわれた場合と同様に、算出が可能である。
また指に力を入れることで関節が曲がらないように保っている場合には指全体が一つの剛体と仮定することが可能なため、同様に力の釣り合いにより算出することができる。
以上のように、l、l、l、F、θ、θに適当な値を代入することより、各場合について水平方向の力F1xと垂直方向の力F1zを求めることができるが、ここで、第1、第2、第3入力エリアに押し込みを行なった場合のF1xとF1zをそれぞれ、F1x(1)、F1z(1);F1x(2)、F1z(2);F1x(3)、F1z(3)と表わすものとすると、図7に示すように、
1x(1)<F1x(2)<F1x(3)
1z(1)>F1z(2)>F1z(3)
が成立する。従って、
1x(1)/F1z(1)<F1x(2)/F1z(2)<F1x(3)/F1z(3)
が成立する。このことから、検出データaの押し込みデータ(F1z)とスライドデータ(F1x)との比から押し込みを行なっている入力エリアを特定できることが分かる。従って、F1x/F1zの時間経過を調べれば、なぞりが指根元から指先方向へと行なわれたのか、逆に指先から指根元方向へと行なわれたのかを判別することができる。つまり、なぞり動作の特定が可能になる。
Similarly, when the second input area 1 2 performs pushing, it is possible to calculate the horizontal force F 1x and vertical force F 1z from the balance formula shown ii) of FIG. In the illustrated example, but not bent at the first joint bending at the second joint, For if pushing the second input area 1 2 has been performed, depending on the position and angle of application of force, the third input area 1 3 as if pushing is performed, the second joint sometimes maintained at an angle connecting the second input area 1 2 and the third input area 1 3 by a straight line.
For the case where the push to the third input area 1 3 was performed, as shown in iii) of FIG. 7 showing a state where pushing the third input area 1 3, when pushed the third input area 1 3 since not bend more at an angle a second joint connecting a straight line and the second input area 1 2 and a third input area 1 3 by moment of force, balance type according to the column in FIG. 7 is satisfied, the first The calculation can be performed in the same manner as when the second input areas 1 1 and 1 2 are pushed.
Further, when the joint is kept from bending by applying a force to the finger, it is possible to assume that the entire finger is a single rigid body, and therefore it can be similarly calculated by force balance.
As described above, by assigning appropriate values to l 1 , l 2 , l 3 , F, θ 1 , and θ 3 , the horizontal force F 1x and the vertical force F 1z are obtained in each case. Here, F 1x and F 1z in the case where the first, second, and third input areas are pushed in are respectively expressed as F 1x (1), F 1z (1); F 1x (2), Assuming that F 1z (2); F 1x (3) and F 1z (3) are expressed as shown in FIG.
F 1x (1) <F 1x (2) <F 1x (3)
F 1z (1)> F 1z (2)> F 1z (3)
Is established. Therefore,
F 1x (1) / F 1z (1) <F 1x (2) / F 1z (2) <F 1x (3) / F 1z (3)
Is established. From this, it can be seen that the input area where the push-in is performed can be specified from the ratio of the push-in data (F 1z ) and the slide data (F 1x ) of the detection data a. Accordingly, by examining the time lapse of F 1x / F 1z , it is possible to determine whether the tracing is performed from the fingertip toward the fingertip or conversely from the fingertip toward the fingertip. That is, the tracing operation can be specified.

次に、図6に示した指の各入力エリア1、1、1に、操作者から見て左右方向になぞり動作が行なわれた場合に、検出データaに基づいてなぞり動作の特定が可能である理由について説明する。図8は、左の人差し指を模式的に示す図であって、図6に示した部分と同じ部分を示す図であるが、図8においては、各入力エリアはそれぞれ2つの領域に分けて示されている。例えば、第1入力エリア1は、指の中心線の右側(操作者から見て)の第1入力エリア橈骨側111と、その左側の第2入力エリア尺骨側112の2つの領域に分けられている。第2入力エリア1は、指の中心線の右側(操作者から見て)の第1入力エリア橈骨側121と、その左側の第2入力エリア尺骨側122の2つの領域に分けられている。第3入力エリア1は、指の中心線の右側(操作者から見て)の第1入力エリア橈骨側131と、その左側の第2入力エリア尺骨側132の2つの領域に分けられている。例えば、第1入力エリア橈骨側121を押し込んだ際には、指側面垂直方向の左側(尺骨側)へ、第2入力エリア尺骨側122を押し込んだ際には、指側面垂直方向の右側(橈骨側)への力が発生することになり、出力される検出データaを検証することにより、第2入力エリア1が、橈骨側から尺骨側へとなぞられたのか、あるいは、尺骨側から橈骨側へとなぞられたのかを判別することができる。第1入力エリア1、第3入力エリア1についても同様である。Next, when a tracing operation is performed in each of the finger input areas 1 1 , 1 2 , and 1 3 shown in FIG. 6 in the left-right direction as viewed from the operator, the tracing operation is specified based on the detection data a. The reason why this is possible will be described. FIG. 8 is a diagram schematically showing the left index finger, showing the same portion as the portion shown in FIG. 6. In FIG. 8, each input area is divided into two regions. Has been. For example, the first input area 1 1 comprises a first input area radius side 1 11 of the center line of the finger right (as viewed from the operator), the two regions of the second input area ulna side 1 12 of the left It is divided. Second input area 1 2 has a first input area radius side 1 21 of the center line of the finger right (as viewed from the operator), it is divided into two regions of the second input area ulna side 1 22 of the left ing. The third input area 1 3 has a first input area radius side 1 31 of the center line of the finger right (as viewed from the operator), it is divided into two regions of the second input area ulna side 1 32 of the left ing. For example, when pushed the first input area radius side 1 21, the finger side face vertical direction of the left to (ulnar side), when pushed a second input area ulna side 1 22, the finger side face vertical direction of the right will be a force to the (radial side) is generated, by verifying the detected data a outputted, 1 2 the second input area, whether traced from the radial side to the ulnar side, or ulnar It is possible to determine whether it has been squeezed from the side to the rib side. First input area 1 1 is the same for the third input area 1 3.

次に、ステップS103において、検出データaとタイミングデータcから得られた時系列データと、データベース4の蓄積データbとを対比して、入力動作を特定する方法の一例について説明する。
図9は、データベース4に保存されている入力動作に応じた押し込み方向とスライド方向(2方向)の時系列データを表した図である。図9に示すように、データベース4には、テンプレートとしての時系列のデータが入力動作に対応づけされて蓄積データbとして格納されている。
図9左欄には、左手人差し指とこの指に対して入力動作として行なわれるなぞり動作(スライド動作)の方向が矢印にて示されている。図9右欄には、なぞり動作につれて変化する3方向の力が示されている。
図9i)は、第2入力エリア1を左方向(入力を行なうものから見て)になぞった場合、つまり第2入力エリア橈骨側121からスタートして第2入力エリア尺骨側122へとなぞった場合を示し、図9ii)は、第2入力エリア1を右方向になぞった場合、つまり第2入力エリア尺骨側122からスタートして第2入力エリア橈骨側121へとなぞった場合を示している。また、図9iii)は、左手人差し指を指根元から指先方向になぞった場合、つまり第3入力エリア1から第1入力エリア1へとなぞった場合を示し、図9iv)は、左手人差し指を指先から指根元方向になぞった場合、つまり第1入力エリア1から第3入力エリア1へとなぞった場合を示している。それぞれのなぞり動作に対応して、図9右欄には、それぞれのなぞり動作を特定できる特有の時系列パターンが示されている。したがって、時系列データのパターンを特定することができれば、対応する入力動作を特定することができる。
Next, an example of a method for specifying the input operation by comparing the time series data obtained from the detection data a and the timing data c with the accumulated data b of the database 4 in step S103 will be described.
FIG. 9 is a diagram showing time-series data in the pushing direction and the sliding direction (two directions) corresponding to the input operation stored in the database 4. As shown in FIG. 9, the database 4 stores time-series data as a template in association with an input operation and stored as accumulated data b.
In the left column of FIG. 9, the left index finger and the direction of the tracing operation (sliding operation) performed as an input operation on the finger are indicated by arrows. In the right column of FIG. 9, forces in three directions that change with the tracing operation are shown.
Figure 9i) is a second input area 1 2 If the traces to the left (as viewed from the performs input), that is starting from the second input area radius side 1 21 to the second input area ulna side 1 22 shows a case where traced and, Figure 9ii) is traced to the second input area 1 2 If the traced in the right direction, that the second input area radius side 1 21 starting from the second input area ulna side 1 22 Shows the case. Further, FIG. 9Iii), when the left index traced from the finger base to the finger tip direction, i.e. the third shows the case where traces from input areas 1 3 to the first input area 1 1, FIG 9Iv) is a left index If tracing the finger base direction from the fingertip, that shows a case where tracing from the first input area 1 1 to the third input area 1 3. Corresponding to each tracing operation, the right column of FIG. 9 shows a specific time series pattern that can specify each tracing operation. Therefore, if the pattern of the time series data can be specified, the corresponding input operation can be specified.

入力情報特定手段5では、検出データaから生成された時系列データと蓄積データbの時系列データである蓄積データbとを、パターン認識の1つであるDPマッチングアルゴリズムにより対比して、入力動作の特定を行なう。
図10は、DPマッチングによる処理の概略を示すフローチャートである。まず、ステップS201にて、タイミングデータcごとに取得された検出データaの時系列データと蓄積データbとの要素間の距離を算出する。続いて、ステップS202にて、算出された要素間の距離を使い、経路最小コストを算出する。最後に、ステップS203にて、算出された経路最小コストを使い、時系列である検出データaの入力パターンとして、蓄積データbにある一時系列データを特定し、その時系列データに対応する入力動作を入力情報特定データdとして出力する。
The input information specifying means 5 compares the time-series data generated from the detection data a and the accumulated data b, which is the time-series data of the accumulated data b, with a DP matching algorithm, which is one of pattern recognition, and performs an input operation. To identify.
FIG. 10 is a flowchart showing an outline of processing by DP matching. First, in step S201, the distance between the elements of the time series data of the detection data a acquired for each timing data c and the accumulated data b is calculated. Subsequently, in step S202, a minimum path cost is calculated using the calculated distance between elements. Finally, in step S203, using the calculated minimum path cost, the temporary data in the accumulated data b is specified as the input pattern of the time-series detection data a, and the input operation corresponding to the time-series data is performed. Output as input information specifying data d.

次に、図10に示される各ステップについて更に詳しく説明する。まず、本発明で用いるタイミングデータcごとに取得された検出データaは、押し込みはじめから押し込み終わりまで(なぞりはじめからなぞり終わりまで)の垂直方向に押し込む力と指先方向にスライドさせる力と指側面垂直方向にスライドさせる力の時系列データであるため、
P=(p,p,…,pi,…,pI)
となり〔iは時系列(i=1, …,I) 〕、それぞれの時系列ごとのデータは指先方向にスライドさせる力、指側面垂直方向にスライドさせる力、垂直方向に押し込む力と含めた
p=(pix,piy,piz)
となる。
また参照パターンも同様に3成分の分力の時系列データであるため、
Next, each step shown in FIG. 10 will be described in more detail. First, the detection data a acquired for each timing data c used in the present invention includes a force that pushes in the vertical direction from the beginning of pushing to the end of pushing (from the beginning of tracing to the end of tracing), a force that slides in the fingertip direction, and a finger side perpendicular Because it is time series data of the force to slide in the direction,
P = (p 1 , p 2 ,..., P i ,..., P I )
[I is a time series (i = 1, ..., I)], and each time series data includes the force to slide in the fingertip direction, the force to slide in the finger side surface vertical direction, the force to push in the vertical direction
p i = (p ix, p iy, p iz)
It becomes.
Similarly, since the reference pattern is also time-series data of three component components,

となり〔jは時系列(j=1, …,J)、kはそれぞれの参照パターンを表した添え字〕、検出データaと同様にそれぞれの時系列ごとのデータは指先方向にスライドさせる力、指側面垂直方向にスライドさせる力、垂直方向に押し込む力とを表した
r=(rjx,rjy,rjz)
となる。
[J is a time series (j = 1,..., J), k is a subscript representing each reference pattern], and similarly to the detection data a, the data for each time series is slid in the fingertip direction, Expresses the force to slide the finger side in the vertical direction and the force to push in the vertical direction.
r j = (r jx , r jy , r jz )
It becomes.

DPマッチングは、DPマッチング経路図を表した図11に示すように、格子上に並んでおり、その経路にコストがあり、その総和が最も小さくなる経路とその総コストを算出して、入力パターンに最も近い参照パターンを見出す手法である。
まず、ステップS201で検出データaの時系列データと蓄積データbとの要素間の距離算出を行なう。
(I,j)における格子点でのコストは、
As shown in FIG. 11 showing the DP matching path diagram, DP matching is arranged on a lattice, and the path has a cost, the path having the smallest sum and the total cost are calculated, and the input pattern is calculated. This is a technique for finding the reference pattern closest to.
First, in step S201, the distance between elements of the time series data of the detection data a and the accumulated data b is calculated.
The cost at a grid point in (I, j) is

で表される。これを全ての格子点で算出する。
次に、ステップS202で経路最小コストの算出を行なう。図12は格子点上での最小累積コストを説明した図である。図12を用いて、(I,j)における格子点の算出式として、
It is represented by This is calculated at all grid points.
Next, the minimum path cost is calculated in step S202. FIG. 12 is a diagram for explaining the minimum accumulated cost on a lattice point. Using FIG. 12, as a calculation formula of the lattice point in (I, j),

と表すことができる。これは対称型の経路制限を含めた式である。これを時系列I,jの小さい値から繰り返し求める。
次に、ステップS203のパターン間距離算出において、
(I,J)における、
It can be expressed as. This is an equation including a symmetric path restriction. This is repeatedly obtained from small values of time series I and j.
Next, in calculating the distance between patterns in step S203,
In (I, J)

を計算することにより、入力パターン(検出データaの時系列データ)と参照パターン(蓄積データbの時系列データ)とのパターン間距離が求まる。これを予め保存されているパターン全てに適用し、最も小さいパターン間距離に相当する参照パターンに対応する入力動作が検出データaの入力動作と特定され、これが入力情報特定データdとして出力される。 Is calculated, the inter-pattern distance between the input pattern (time series data of the detection data a) and the reference pattern (time series data of the accumulated data b) is obtained. This is applied to all the patterns stored in advance, and the input operation corresponding to the reference pattern corresponding to the smallest inter-pattern distance is specified as the input operation of the detection data a, and this is output as the input information specifying data d.

本実施の形態では、DPマッチングを用いたが、時系列を含めマッチングを行なう手法または動作を含め特定するものであれば、他の方法を用いてもよい。
また、入力動作を特定する際、変化の仕方により、割り当てる入力動作を変えてもよい。例えば、単位時間当たりの入力エリア1の変化が大きい際にはポインタ操作やスクロール動作が速くまたは大きく行なわれたと判断し、入力情報特定データdとして出力してもよい。
また、本実施の形態では、タイマ管理制御手段6は、入力部3への入力動作が行なわれた際にのみ検出データを記録するためのタイミングを生成するものであったが、この方法に代え、タイマ管理制御手段6において常時タイミングの生成を行なうようにしてもよい。
また、本実施の形態では、左手人差し指について説明を行なったが、左手人差し指の第1入力エリア1、第2入力エリア1、第3入力エリア1以外のエリアに対する入力動作であっても、同様に検出データaに基づいて入力動作の特定が可能である。
また、検出部2は左手人差し指に限定するものではなく、親指に適応する、または同時に他の指に適応することで、取得することのできる情報量を増やしてもよい。
In the present embodiment, DP matching is used. However, other methods may be used as long as the method or operation for performing matching including time series is specified.
Further, when specifying the input operation, the input operation to be assigned may be changed depending on the manner of change. For example, when the change in the input area 1 per unit time is large, it may be determined that the pointer operation or the scroll operation is performed quickly or largely, and the input information specifying data d may be output.
Further, in the present embodiment, the timer management control means 6 generates the timing for recording the detection data only when the input operation to the input unit 3 is performed. The timer management control means 6 may always generate timing.
Further, in the present embodiment has been performed is described left index, the first input area 1 1 of the left hand index finger, the second input area 1 2, be an input operation to the third input area 1 3 except areas Similarly, the input operation can be specified based on the detection data a.
Further, the detection unit 2 is not limited to the left index finger, and the amount of information that can be acquired may be increased by adapting to the thumb or simultaneously adapting to other fingers.

また、本実施の形態において、入力エリア1を左手の手の甲または指の背としたが、手や指に限定するものではなく、体の各部において適応してもよい。例えば、人が機器の上に立ち、膝や腿への入力動作を行ない、足裏での力の変化を検出部2で取得して、その検出データと入力動作を対応させるものであってもよい。
また、本実施例において、代表的な動作である、右方向なぞり動作、左方向なぞり動作、指先方向なぞり動作、指根元方向なぞり動作を例に挙げて説明を行なったが、なぞり動作はこれらに限定されない。例えば、斜め方向のなぞりであってもよく、また複数指間にまたがるなぞりであってもよい。そして、これらのなぞりにポインタ操作やスクロール動作に割り当ててもよいし、押し込んだ位置から変化しないタップといった動作を割り当ててもよい。
In the present embodiment, the input area 1 is the back of the left hand or the back of the finger, but is not limited to the hand or finger, and may be applied to each part of the body. For example, even if a person stands on the device, performs an input operation to the knees or thighs, acquires a change in force on the sole by the detection unit 2, and associates the detection data with the input operation. Good.
Further, in this embodiment, the typical movements such as the right-handed tracing action, the left-handed tracing action, the fingertip-direction tracing action, and the finger base-direction tracing action have been described as examples. It is not limited. For example, it may be a stroking in an oblique direction or a stroking across a plurality of fingers. These tracings may be assigned to a pointer operation or a scrolling operation, or an operation such as a tap that does not change from the pushed-in position may be assigned.

また、検出データaおよびデータベース4の蓄積データbは押し込み方向の力に対しての指先方向にスライドさせる力と指側面垂直方向にスライドさせる力の比率として扱ってもよいし、3方向成分のデータの値をそのまま使用してもよい。
また、スクロール動作のような一方向の動作が行なわれる場合には、押し込み方向と指先スライド方向の2方向成分を扱い、押し込み方向の力に対しての指先スライド方向の力の比率を用いて、スクロールなどの動作を行なってもよい。
また、本実施の形態では、入力情報特定データdを受けて、情報提示手段7は、スクロール動作やポインタの動作などの機能を表示画面上に提示していたが、本発明は、これに限定されず、入力情報特定データdを受けて、表示画面上に文字、記号、データなどを提示するようにしてもよい。
また、本実施の形態では、検出部2において、3方向の力を検出するため、4個の感圧センサの組み合わせを用いていたが、ひずみセンサをキートップの下に複数配置し、接触面の傾きを検出して3方向成分の力を検出したり、あるいは、キートップ下に面状の圧力センサを配置し、キートップ下の圧力の分布を検出して、分布の偏りに基づいて3方向成分の力を取得するなど、3方向成分の力を検出できるのであれば他の手段を用いてもよい。
また、図2において、使用する指を親指、人差し指とし、端末を置いた状態での使用を示したが、カードサイズの薄型の端末に本発明を適応した図である図13に示すように、端末を持った状態で使用してもよい。
Further, the detection data a and the accumulated data b of the database 4 may be handled as a ratio of the force sliding in the fingertip direction to the force in the pushing direction and the force sliding in the finger side surface vertical direction, or data of three direction components. The value of may be used as it is.
Further, when a one-way operation such as a scroll operation is performed, the two-direction component of the push-in direction and the fingertip slide direction is handled, and the ratio of the force in the fingertip slide direction to the force in the push-in direction is used. An operation such as scrolling may be performed.
In the present embodiment, the information presenting means 7 presents functions such as a scroll operation and a pointer operation on the display screen in response to the input information specifying data d. However, the present invention is not limited to this. Instead, the input information specifying data d may be received and characters, symbols, data, etc. may be presented on the display screen.
In the present embodiment, the detection unit 2 uses a combination of four pressure sensors in order to detect forces in three directions. However, a plurality of strain sensors are arranged under the key tops, 3 to detect the force of the three-direction component, or arrange a surface pressure sensor under the key top to detect the pressure distribution under the key top, and to detect 3 based on the distribution bias. Other means may be used as long as the force of the three direction components can be detected, such as obtaining the force of the direction component.
In addition, in FIG. 2, the finger to be used is the thumb and the index finger, and the terminal is used in the state where the terminal is placed. However, as shown in FIG. 13, the present invention is applied to a thin card-sized terminal. You may use it with the terminal.

本発明の入力装置は、検出部2は指先の小さい範囲であり、端末の表面に露出するエリアは小さいが、機器を操作するための入力エリア1は指全体にわたっているため、手書き文字入力のような、ストロークを必要とするような大きな動作にも向いている。
また、マウスのポインティング操作のような操作を行なう際にも、トラックポイントのような相対位置変化のみを操作する入力デバイスと異なり、情報提示部9の絶対位置を直接位置指定が可能なため、すばやい入力が可能である。
また、操作として、マウスのポインタの位置や速度を変化させるような操作を行なう場合、入力エリア1への操作制御が、指の移動量や動かす速度に相当しているため、直感的であり、操作がしやすい。
また、機器と機器を保持している指との間に検出部が設けられており、体側に入力を検出するセンサをつける必要がないため、操作以外の動作等に障害をきたすことがなく、使いやすい。
In the input device of the present invention, the detection unit 2 is a small range of the fingertip, and the area exposed on the surface of the terminal is small, but the input area 1 for operating the device covers the entire finger. It is also suitable for large movements that require a stroke.
Also, when an operation such as a mouse pointing operation is performed, the absolute position of the information presentation unit 9 can be directly specified, unlike an input device that operates only a relative position change such as a track point. Input is possible.
In addition, when performing an operation that changes the position or speed of the mouse pointer as an operation, the operation control to the input area 1 corresponds to the amount of movement of the finger or the moving speed, which is intuitive. Easy to operate.
In addition, since a detection unit is provided between the device and the finger holding the device, there is no need to attach a sensor for detecting input to the body side, so there is no obstacle to operations other than operation, etc. Easy to use.

〔第2の実施の形態〕
図14は、本発明の第2の実施の形態に係る入力装置の構成を示すブロック図である。本実施の形態の入力装置は、図14に示すように、押し込んだ際に、指先との接触面に発生する圧力分布状況を検出する複数の検出部2を有し、検出部2により出力される圧力分布データである検出データeを出力する入力部3と、検出データeを監視し、検出部2に入力が行なわれたことを検出すると活性化されて、ある一定の時間間隔で入力を検出するタイミングとなるトリガーを生成し、これをタイミングデータcとして出力するタイマ管理制御部6と、検出データeとタイミングデータcとを受けて、検出データeから変換されたデータ(検出部2における押圧領域での正規化重心位置)と予め設定されているデータベース4の蓄積データfを比較することで、押し込み位置・動作を特定し、その位置・動作を入力情報特定データdとして出力する入力情報特定手段5と、により構成されている。
[Second Embodiment]
FIG. 14 is a block diagram showing the configuration of the input device according to the second embodiment of the present invention. As shown in FIG. 14, the input device according to the present embodiment includes a plurality of detection units 2 that detect a pressure distribution state generated on the contact surface with the fingertip when pressed, and are output by the detection unit 2. An input unit 3 that outputs detection data e, which is pressure distribution data, and is activated when the detection data e is monitored and it is detected that an input has been made to the detection unit 2, and the input is input at a certain time interval. A timer management control unit 6 that generates a trigger as a detection timing and outputs the trigger as timing data c, detection data e and timing data c, and data converted from the detection data e (in the detection unit 2) By comparing the normalized barycentric position in the pressing area) and the accumulated data f of the database 4 set in advance, the pressing position / motion is specified, and the position / motion is input information specifying data d An input information identification means 5 for and outputting, and is composed of.

本実施の形態の入力装置も、第1の実施の形態と同様に、図13に示すカードサイズの薄型の端末に対応したもので、左手で端末を持ち上げた状態で、右手で左手親指の入力エリア1を押し込み、左手親指指先が検出部2を押圧する圧力分布を測定する。ここで、第3入力エリア13を親指の付け根から第一関節の間の指節、第2入力エリア12を第一関節、第1入力エリア11を爪先とした。
図15は、情報端末8に搭載された検出部2の状態を示す平面図である。図15に示すように、検出部2には指表面と接触する部分に感圧センサ23がマトリクス状に配置されており、指表面から受ける感圧分布を多点により検出できる構造になっている。
Similarly to the first embodiment, the input device of the present embodiment is also compatible with the card-sized thin terminal shown in FIG. 13, and with the left hand lifting the terminal with the right hand, the input of the left thumb with the right hand The area 1 is pushed in, and the pressure distribution at which the left thumb finger presses the detection unit 2 is measured. Here, the third input area 13 is the phalanx between the base of the thumb and the first joint, the second input area 12 is the first joint, and the first input area 11 is the toe.
FIG. 15 is a plan view showing a state of the detection unit 2 mounted on the information terminal 8. As shown in FIG. 15, the detection unit 2 has pressure-sensitive sensors 23 arranged in a matrix at portions in contact with the finger surface, so that the pressure-sensitive distribution received from the finger surface can be detected from multiple points. .

次に、本実施の形態の入力装置の動作を説明する。本実施の形態では、入力情報特定手段5が指表面からの荷重分布を表す検出データeを用いて、その荷重重心を算出し、その位置の変化から、押し込み位置・動作を特定する。
図16は、入力情報特定手段5の動作を示すフローチャートである。まず、ステップS301において、指先の接触面でマトリクス状に並んでいる感圧センサ23の測定値である圧力面分布のデータを検出データeとして受け取る。
図17は、検出部2の感圧分布状態の説明図である。検出部2は、指の接触している部分での状態を感圧分布として検出している。検出部2の圧力面分布を取得する感圧センサ23は、x方向に(1,2,…I …I)、y方向に(1,2,…j…J)のマトリクス状に並べられていている。ここで、
(i,j)座標における検出部2の測定値をFijとする。
Next, the operation of the input device according to this embodiment will be described. In the present embodiment, the input information specifying means 5 calculates the load center of gravity using the detection data e representing the load distribution from the finger surface, and specifies the push-in position / motion from the change in the position.
FIG. 16 is a flowchart showing the operation of the input information specifying means 5. First, in step S301, pressure surface distribution data that is a measurement value of the pressure-sensitive sensors 23 arranged in a matrix on the contact surface of the fingertip is received as detection data e.
FIG. 17 is an explanatory diagram of the pressure-sensitive distribution state of the detection unit 2. The detection unit 2 detects the state at the part in contact with the finger as a pressure-sensitive distribution. The pressure-sensitive sensors 23 for acquiring the pressure surface distribution of the detector 2 are arranged in a matrix of (1, 2,... I ... I) in the x direction and (1, 2,... J ... J) in the y direction. ing. here,
The measurement value of the detection unit 2 at the (i, j) coordinates is F ij .

次に、ステップS302において、指先が接触している検出部2の領域を切り出す。検出部2と指は楕円形状で面接触しているため、その楕円形状を内包する矩形領域を抽出する。その際の頂点に当たる部分の座標をP、P、P、Pとする。矩形領域においては、矩形領域の長軸方向が指先方向、短軸方向が指側面垂直方向となるため、矩形領域の長軸方向を算出することで、指先方向を抽出できる。
次に、ステップS303において、荷重重心位置であるPを算出する。Pのx方向成分PGxとPのy方向成分PGyはそれぞれ
Next, in step S302, the region of the detection unit 2 with which the fingertip is in contact is cut out. Since the detection unit 2 and the finger are in an elliptical shape and are in surface contact, a rectangular region including the elliptical shape is extracted. The coordinates of the portion corresponding to the vertex at this time are P 1 , P 2 , P 3 , and P 4 . In the rectangular region, the major axis direction of the rectangular region is the fingertip direction, and the minor axis direction is the finger side surface vertical direction. Therefore, the fingertip direction can be extracted by calculating the major axis direction of the rectangular region.
Next, in step S303, and calculates the P G is a load gravity center position. P G x direction component P Gx and P G y direction component P Gy each of

として算出することができる。
次に、ステップS304において、合計荷重Fを求める。合計荷重Fは、
Can be calculated as
Next, in step S304, the total load F is obtained. Total load F is

として算出することができる。
次に、ステップS305において、合計荷重がある一定の値を超えているか否かをチェックし、超えていない場合にはステップS301に戻り、超えている場合には、ステップS306に進む。加重が小さい段階での荷重重心位置Pは安定しないため、ステップS305を設け、安定したデータのみを利用するようにする。ステップS306において、矩形領域の中で荷重重心となる位置への重心方向ベクトルを算出する。矩形重心方向ベクトルはV→とする。矩形重心方向ベクトルの始点は矩形領域の中で、指の根元に近い側の頂点とし、ここでは橈骨寄りのPとする。
Can be calculated as
Next, in step S305, it is checked whether or not the total load exceeds a certain value. If not, the process returns to step S301, and if it exceeds, the process proceeds to step S306. Since the load center of gravity position P G of the weighted small steps are not stable, the provided step S305, so as to use only stable data. In step S306, the center-of-gravity direction vector to the position that becomes the load center of gravity in the rectangular area is calculated. The rectangle center-of-gravity direction vector is V G →. Starting point of the rectangle centroid direction vector in the rectangular area, and the side vertices close to the base of the finger, where the P 1 of radius close.

次に、ステップS307において、矩形領域の隣接する二辺より求まる長軸方向ベクトルと短軸方向ベクトルを算出する。長軸方向ベクトルと短軸方向ベクトルの始点は、S306における矩形重心方向ベクトルと同様にP1とし、矩形長軸方向ベクトルをV→、矩形短軸方向ベクトルをV→とする。
次に、ステップS308において、重心方向ベクトルの長軸方向成分と長軸方向ベクトルとの比率である重心位置比率(正規化された、重心方向ベクトルV→の長軸方向成分の絶対値)Rと、重心方向ベクトルの短軸方向成分と短軸方向ベクトルとの比率である重心位置比率(正規化された、重心方向ベクトルV→の短軸方向成分の絶対値)Rを算出する。
Next, in step S307, a major axis direction vector and a minor axis direction vector obtained from two adjacent sides of the rectangular area are calculated. The starting points of the major axis direction vector and the minor axis direction vector are set to P1 like the rectangular center-of-gravity direction vector in S306, the rectangular major axis direction vector is V L →, and the rectangular minor axis direction vector is V S →.
Next, in step S308, a center-of-gravity position ratio (normalized absolute value of the major-axis direction component of the center-of-gravity direction vector V G →) R, which is the ratio of the major-axis direction component of the center-of-gravity direction vector to the long-axis direction vector. A center-of-gravity position ratio (normalized absolute value of the short-axis direction component of the center-of-gravity direction vector V G →) R S that is a ratio between L and the short-axis direction component of the center-of-gravity direction vector and the short-axis direction vector is calculated. .

長軸方向への重心位置比率Rは矩形長軸方向ベクトルと矩形重心方向ベクトルとのなす角度の余弦により求まり、重心位置が指の付け根にあるときは0、指先の先端にあるときは1と正規化された値となる。また、短軸方向への重心位置比率Rは、矩形短軸方向ベクトルと矩形重心方向ベクトルとのなす角度の余弦により求まり、重心位置が指の橈骨側にあるときは0、指の尺骨側にあるときは1と正規化された値となる。つまり、The center-of-gravity position ratio R L in the major axis direction is obtained from the cosine of the angle formed by the rectangular major axis direction vector and the rectangular center-of-gravity direction vector, and is 0 when the center of gravity position is at the base of the finger and 1 And the normalized value. Further, the center-of-gravity position ratio R S in the minor axis direction is obtained from the cosine of the angle formed by the rectangular minor axis direction vector and the rectangular center-of-gravity direction vector, and is 0 when the center of gravity position is on the rib side of the finger. When it is, it is a value normalized to 1. That means

として算出する。算出されたRとRとから求められる(R,R)は、矩形領域内での正規化された重心位置座標を示すことになる。 Calculate as (R L , R S ) obtained from the calculated R L and R S indicates normalized barycentric position coordinates in the rectangular area.

次に、ステップS309において、所定の時間内にタイミングデータcが発せられるか否かが監視され、タイミングデータcが発せられた場合にはステップS301に戻り、なぞり動作に連れて移動する荷重重心位置の測定を更に行う。所定の時間内にタイミングデータcが発せられない場合には、ステップS310に進み、データベース4からの蓄積データfを参照して入力情報の特定を行ない、その情報を入力情報特定データdとして出力する。このステップS310は、図10〜図12を参照して説明したDPマッチングを用いて行なうことができる。但し、本実施の形態においては、図10のステップS201において、検出データeから算出された重心位置比率R、Rの時系列データと蓄積データfとの要素間の距離算出を行なう。Next, in step S309, it is monitored whether or not the timing data c is generated within a predetermined time. If the timing data c is generated, the process returns to step S301, and the load gravity center position that moves with the tracing operation is returned. Further measurements are made. If the timing data c is not issued within the predetermined time, the process proceeds to step S310, the input information is specified with reference to the accumulated data f from the database 4, and the information is output as the input information specifying data d. . This step S310 can be performed using the DP matching described with reference to FIGS. However, in the present embodiment, in step S201 in FIG. 10, the distance between elements of the time series data of the gravity center position ratios R L and R S calculated from the detection data e and the accumulated data f is calculated.

本実施の形態において、左手親指に対して例えば図9i)に示すような左方向なぞり動作が行われた場合、短軸方向への重心位置比率Rは、0に近い値から1に近い値へと変化する(Rはほぼ一定)。また、例えば図9iii)に示す指先方向なぞり動作が行われた場合、長軸方向へ重心位置比率RLは、0に近い値から1に近い値へと変化する(Rは0.5程度でほぼ一定)。本実施の形態においては、ステップS310において、このような入力動作の特定が行なわれる。In the present embodiment, when the left-hand tracing operation as shown in FIG. 9i, for example, is performed on the left thumb, the center-of-gravity position ratio R S in the minor axis direction is a value close to 0 from a value close to 0. ( RL is almost constant). Further, for example, when the fingertip direction tracing operation shown in FIG. 9iii) is performed, the center-of-gravity position ratio RL changes in the major axis direction from a value close to 0 to a value close to 1 (R S is about 0.5). Almost constant). In the present embodiment, such an input operation is specified in step S310.

本実施の形態では圧力面分布状態を検出するために、マトリクス状に並べた感圧センサ23を用いたが、圧力面分布状態を求めることができるものであればマトリクス状に並んでいなくてもよい。また、重心位置比率は、指の根元に近い側で、左手親指の橈骨側のPを始点に正規化された値として用いているが、ベクトルの始点をP、P、Pのどの矩形の角を選んでもよい。また、正規化された値は実測値など正規化した値でなくても、重心位置を示すものであればよい。
また、ステップS305において、荷重重心位置Rの安定した値のみを利用するようにするため、合計荷重Fがある基準以上の荷重になった際にのみ次のステップに進むとしたが、安定した荷重重心位置Rを利用するためには合計荷重Fを用いることに限定したものではない。例えば、接触面の領域面積がある一定以上の面積になったときのみを利用するようにしてもよい。また、感圧センサ23はアナログ的に値を検出するセンサを用いたが、ON−OFFだけのデジタルな値を検出するセンサを用いてもよい。その場合、荷重重心位置とは、接触面領域の面積重心位置に相当する。また、入力エリア1を識別するために重心位置比率を基準に用いたが、指からの荷重位置を特定できるものであれば、荷重重心位置に限定しなくてもよい。例えば、感圧センサ2の最も大きい値を示した点を荷重重心位置Pと同等に扱うこともできる。また、圧力分布から矩形領域の各角の点であるP,P,P,Pの位置を決定するのは、各入力を行なうたびに算出しなおす必要はない。例えば、入力以前に端末へ指が接触したことを感圧センサ2で検出した際に、予め指の接触領域を切り出し、その矩形領域から算出しておいたものを用いてもよい。
また、圧力分布から矩形領域の長軸方向ベクトルと短軸方向ベクトルの算出を行なったが、指先方向と指側面垂直方向との切り分けが可能であれば、矩形以外の領域抽出を行なってもよい。例えば、圧力分布状況から、楕円領域の抽出を行い、その楕円の長軸方向ベクトルと短軸方向ベクトルを用いて同様の計算を行なってもよい。
In the present embodiment, in order to detect the pressure surface distribution state, the pressure-sensitive sensors 23 arranged in a matrix are used. However, if the pressure surface distribution state can be obtained, it is not arranged in a matrix. Also good. Further, the center of gravity position ratio, the side close to the base of the finger is used as a normalized value for P 1 of the radial side of the left thumb to start, the starting point of the vector of the P 2, P 3, P 4 Any rectangular corner can be chosen. Further, the normalized value is not limited to a normalized value such as an actual measurement value as long as it indicates the position of the center of gravity.
Further, in order to use only the stable value of the load gravity center position RG in step S305, it is assumed that the process proceeds to the next step only when the total load F exceeds a certain reference load. In order to use the load gravity center position RG , the use of the total load F is not limited. For example, you may make it utilize only when the area | region area of a contact surface becomes an area beyond a certain fixed value. Moreover, although the sensor which detects a value in an analog manner is used for the pressure sensor 23, a sensor which detects a digital value only for ON-OFF may be used. In this case, the load gravity center position corresponds to the area gravity center position of the contact surface region. Further, although the gravity center position ratio is used as a reference for identifying the input area 1, it is not necessary to limit to the load gravity center position as long as the load position from the finger can be specified. For example, it is also possible to treat the point showing the largest value of the pressure sensor 2 3 equivalent to the load center of gravity position P G. In addition, determining the positions of P 1 , P 2 , P 3 , and P 4 that are the corner points of the rectangular area from the pressure distribution does not require recalculation for each input. For example, when it is detected that the input is previously finger to the terminal contacts in the pressure sensor 2 3, it cuts out the contact region of the advance finger, may also be used which has been calculated from the rectangular region.
Further, the major axis direction vector and the minor axis direction vector of the rectangular area are calculated from the pressure distribution, but if the fingertip direction and the finger side surface vertical direction can be separated, the area other than the rectangle may be extracted. . For example, an elliptical region may be extracted from the pressure distribution situation, and the same calculation may be performed using the major axis direction vector and the minor axis direction vector of the ellipse.

図18は、本発明の実施例の端末に対し入力を行なう状態を示す斜視図である。本実施例はディスプレイの大画面化に伴い、表示部と同一面上に、入力を検出する検出部2を大きく設けることが困難な場合の実施例である。本実施例は、フル画面の端末に本発明を適応したものである(実施例2、3もフル画面の端末本発明を適応したものである)。本実施例においては、検出部2を機器のサイドに設け、裏側から包み込むように機器を保持して各指へのなぞり動作を行なう。図18において、矢印にてなぞり動作が示されている(図19、図20においても同様である)。このようななぞり動作の特定は電子書籍などのページ送り機能として使うことが考えられる。この場合は各指が端末に指先で接している位置に検出部2を設ければよく、例えば、親指の接しているサイドや人差し指の接している裏面に検出部2を設けてもよい。また、検出部2の他、各指の姿勢が一定になるように検出部がない位置にも窪みなどを形成してもよい。
各指へのなぞり動作が、機能を変更する場合、操作をする入力エリアが機器の背面側に来るため、フル画面端末に対する通常の入力方式では、どこへ入力を行なおうとしているのかを、入力状況を見て確認することが困難である。しかし、本実施例の場合、操作のために接触している対象が体の一部であるため、接触している位置を把握することができる。すなわち、どの位置で操作を行なおうとしているのか目視により確認できない状況に対応するものとして、本実施例は有効である。
FIG. 18 is a perspective view showing a state where an input is made to the terminal according to the embodiment of the present invention. This embodiment is an embodiment in the case where it is difficult to provide a large detection unit 2 for detecting an input on the same surface as the display unit as the display becomes larger. In the present embodiment, the present invention is applied to a full-screen terminal (the second and third embodiments also apply the present invention to a full-screen terminal). In the present embodiment, the detection unit 2 is provided on the side of the device, and the device is held so as to be wrapped from the back side, and a tracing operation to each finger is performed. In FIG. 18, the tracing operation is indicated by an arrow (the same applies to FIGS. 19 and 20). Such a tracing operation can be specified as a page turning function of an electronic book or the like. In this case, the detection unit 2 may be provided at a position where each finger is in contact with the terminal with the fingertip. For example, the detection unit 2 may be provided on the side where the thumb is in contact or the back side where the index finger is in contact. Further, in addition to the detection unit 2, a depression or the like may be formed at a position where there is no detection unit so that the posture of each finger is constant.
When the drag operation to each finger changes the function, the input area to operate is on the back side of the device, so in the normal input method for full screen terminal, where to input It is difficult to check the input status. However, in the case of the present embodiment, since the object that is in contact for the operation is a part of the body, it is possible to grasp the contact position. In other words, the present embodiment is effective for dealing with a situation where it is impossible to visually confirm at which position the operation is to be performed.

図19は、本発明の実施例の端末に対し入力を行なう状態を示す斜視図である。本実施例においては、検出部2は、親指の接触している表示面や、他の指が接している機器サイドや裏面に設けることができる。本実施例によれば、機器の保持の仕方により、web接続用端末におけるスクロール操作と同等の動作を特定することができる。   FIG. 19 is a perspective view showing a state where an input is made to the terminal according to the embodiment of the present invention. In the present embodiment, the detection unit 2 can be provided on the display surface in contact with the thumb, or on the device side or the back surface in contact with another finger. According to the present embodiment, an operation equivalent to the scroll operation in the web connection terminal can be specified depending on how the device is held.

図20は、本発明の実施例3の端末に対し入力を行なう状態を示す斜視図である。図20を参照すると、機器の保持の仕方により幅広くとることのできる手の甲を用い、マウスや十字方向のキー操作と同等の動作を特定することができる。この場合には親指の指先の力を検出部2により取得する他に、端末の裏側で各指と接触する位置の力の状態を検出してもよい。   FIG. 20 is a perspective view showing a state where an input is made to the terminal according to the third embodiment of the present invention. Referring to FIG. 20, it is possible to specify an operation equivalent to a mouse or cross-direction key operation using the back of the hand that can be widely used depending on how the device is held. In this case, in addition to acquiring the force of the fingertip of the thumb by the detection unit 2, the state of the force at the position where the finger contacts with each finger on the back side of the terminal may be detected.

実施例1〜3において、入力を検出する検出部2は指の先端で接触していなくともよい。例えば、指の広い領域が検出部2と接触できるようにして、情報端末と接触している面の圧力分布状態を検出部2により取得することにより、指の甲側の表面へのなぞり動作を識別することで、スクロール動作を特定するようにしてもよい。   In the first to third embodiments, the detection unit 2 that detects input may not be in contact with the tip of the finger. For example, by making the wide area of the finger in contact with the detection unit 2 and obtaining the pressure distribution state of the surface in contact with the information terminal by the detection unit 2, the tracing operation to the surface on the back side of the finger is performed. By identifying, the scroll operation may be specified.

以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   While the present invention has been described with reference to the embodiments (and examples), the present invention is not limited to the above embodiments (and examples). Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

この出願は2008年3月3日に出願された日本出願特願2008−051867および2008年6月26日に出願された日本出願特願2008−166854を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims priority based on Japanese Patent Application No. 2008-051867 filed on Mar. 3, 2008 and Japanese Patent Application No. 2008-166854 filed on Jun. 26, 2008. All of this is taken in here.

本発明によれば、可搬性を重視する携帯機器やディスプレイなどの表示部を重視する携帯機器における入力装置において、機器上の入力部を小さくすることによる、操作者の使いにくさの改善に貢献できるものである。   Advantageous Effects of Invention According to the present invention, in an input device in a portable device that places importance on portability and a display unit such as a display, it contributes to improving the difficulty of use by reducing the input unit on the device. It can be done.

本発明の一実施の形態に係る入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the input device which concerns on one embodiment of this invention. 図1の入力部3の外観を示す斜視図である。It is a perspective view which shows the external appearance of the input part 3 of FIG. 図2の入力エリアの複数領域に分解して示す模式図である。It is a schematic diagram decomposed | disassembled and shown in the several area | region of the input area of FIG. 図1の検出部2の構造を示す断面図である。It is sectional drawing which shows the structure of the detection part 2 of FIG. 本発明の全体動作を表すフローチャートである。It is a flowchart showing the whole operation | movement of this invention. 入力エリアである人差し指を関節ごとに分割して表した模式図である。It is the schematic diagram which divided | segmented and represented the index finger which is an input area for every joint. 各入力エリアを押し込んだ際の力の釣り合いを表した図である。It is a figure showing balance of force at the time of pushing in each input area. 第1〜第3入力エリアを分割して表した図である。It is the figure which divided and represented the 1st-3rd input area. 時系列の蓄積データと入力動作の対応を示す図である。It is a figure which shows a response | compatibility with accumulation | storage data of a time series, and input operation | movement. 入力情報特定手段でDPマッチング行なう際のフローチャートである。It is a flowchart at the time of performing DP matching by an input information specifying means. DPマッチング経路図を表した図である。It is a figure showing DP matching route figure. 格子点上での最小累積コストを説明した図である。It is a figure explaining the minimum accumulated cost on a lattice point. 本発明の入力装置を適応したカードサイズの薄型の端末に入力を行なう状態を示す図である。It is a figure which shows the state which inputs into the thin terminal of the card size which applied the input device of this invention. 本発明の第2の実施の形態に係る入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the input device which concerns on the 2nd Embodiment of this invention. 第2の実施の形態における検出部2の構造を示す平面図である。It is a top view which shows the structure of the detection part 2 in 2nd Embodiment. 第2の実施の形態における入力情報特定手段5の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the input information specific | specification means 5 in 2nd Embodiment. 第2の実施の形態における検出部2の感圧分布状態を示す説明図である。It is explanatory drawing which shows the pressure-sensitive distribution state of the detection part 2 in 2nd Embodiment. フル画面の端末に本発明を適応した実施例2の斜視図である。It is a perspective view of Example 2 which applied this invention to the terminal of a full screen. フル画面の端末に本発明を適応した実施例2の斜視図である。It is a perspective view of Example 2 which applied this invention to the terminal of a full screen. フル画面の端末に本発明を適応した実施例3の斜視図である。It is a perspective view of Example 3 which applied this invention to the terminal of a full screen.

符号の説明Explanation of symbols

1 入力エリア
第1入力エリア
11 第1入力エリア橈骨側
12 第1入力エリア尺骨側
第2入力エリア
21 第2入力エリア橈骨側
22 第2入力エリア尺骨側
第3入力エリア
31 第3入力エリア橈骨側
32 第3入力エリア尺骨側
第4入力エリア
第5入力エリア
第6入力エリア
第7入力エリア
2 検出部
キートップ
平行板
感圧センサ
3 入力部
4 データベース
5 入力情報特定手段
6 タイマ管理制御手段
7 情報提示手段
8 情報端末
9 情報提示部
10 配線基板
11 筐体
12 ベース
a、e 検出データ
b、f 蓄積データ
c タイミングデータ
d 入力情報特定データ
DESCRIPTION OF SYMBOLS 1 Input area 1 1 1st input area 1 11 1st input area radius side 1 12 1st input area ulna side 1 2 2nd input area 1 21 2nd input area radius side 1 22 2nd input area ulna side 1 3 3 input area 1 31 3rd input area radius side 1 32 3rd input area ulna side 1 4 4th input area 1 5 5th input area 1 6 6th input area 1 7 7th input area 2 detector 2 1 key top 2 2 parallel plate 2 3 pressure sensor 3 input unit 4 database 5 input information specifying unit 6 timer management control unit 7 information presentation unit 8 information terminal 9 information presentation unit 10 wiring board 11 housing 12 base a, e detection data b, f Accumulated data c Timing data d Input information specific data

Claims (14)

検出部に物体の一部を接触させ、その物体の接触部の近傍になぞり動作(その物体の接触部の近傍をその物体の接触部とは異なる部分をスライドさせる動作)が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示が提示される入力装置であって、
物体の一部が接触され、その物体の接触部の近傍になぞりが行われた際に、物体を介して伝達した力を検出して、検出データとして出力する検出部と、
時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタイミングデータとして出力するタイマ管理制御手段と、
前記検出データと前記タイミングデータに基づいて前記検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力された動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定手段と、
を備えた入力装置。
When a part of an object is brought into contact with the detection unit and a tracing operation is performed in the vicinity of the contact part of the object (an operation in which a part different from the contact part of the object is slid in the vicinity of the contact part of the object) , An input device that identifies the tracing action and presents a display corresponding to the tracing action,
A detection unit that detects a force transmitted through the object and outputs it as detection data when a part of the object is touched and the tracing is performed in the vicinity of the contact part of the object;
Timer management control means for generating timing for recording the detection data at time intervals and outputting the timing data as timing data;
Create time-series data of the detection data based on the detection data and the timing data, compare the time-series data with the stored data of a preset database, specify the input operation, and input Input information specifying means for outputting the operation as input information specifying data;
An input device with.
前記機能には、ポインタの位置提示、ポインタの動作、スクロール動作、文字手書き操作若しくはページ送り機能が含まれていることを特徴とする請求項1に記載の入力装置。   The input device according to claim 1, wherein the function includes a pointer position presentation, a pointer operation, a scroll operation, a character handwriting operation, or a page turning function. 前記検出部は、前記物体の先端で接触するように配置してあり、前記物体の一部が入力により押し込み動作若しくはなぞり動作を受けた際に、前記物体を通して伝達された力を検出することを特徴とする請求項1または2に記載の入力装置。   The detection unit is arranged so as to come into contact with the tip of the object, and detects a force transmitted through the object when a part of the object receives a pushing operation or a tracing operation by an input. The input device according to claim 1 or 2, characterized in that 前記検出部は、3方向成分の検出が可能な力センサ、または、複数点の押し込み分布を検出可能な圧力センサ、または、平面状に配置された複数の圧力センサ、のうちの少なくとも一つを含むことを特徴とする請求項1から3のいずれかに記載の入力装置。   The detection unit includes at least one of a force sensor capable of detecting a component in three directions, a pressure sensor capable of detecting a push distribution at a plurality of points, or a plurality of pressure sensors arranged in a planar shape. The input device according to claim 1, further comprising: an input device according to claim 1. 前記タイマ管理制御手段は、常時タイミングを生成していることを特徴とする請求項1から4のいずれかに記載の入力装置。   5. The input device according to claim 1, wherein the timer management control means always generates timing. 前記タイマ管理制御手段は、常時検出データを監視し、検出データの生起と共にタイミングの生成を開始し、検出データの終了時にタイミングの生成を停止することを特徴とする請求項1から4のいずれかに記載の入力装置。   The timer management control means constantly monitors detection data, starts generating timing when the detection data occurs, and stops generating timing when the detection data ends. The input device described in 1. 前記入力情報特定手段は、前記データベースの前記蓄積データと検出データの前記時系列データとのマッチングを行なうことにより、入力動作を特定することを特徴とする請求項1から6のいずれかに記載の入力装置。   The input information specifying means specifies an input operation by matching the accumulated data of the database with the time-series data of detection data. Input device. 前記データベースは、前記検出部から出力される押し込み方向と、指先スライド方向と、指側面垂直スライド方向との力の時系列変化、または、押し込み方向の力に対する指先スライド方向の力の比および押し込み方向の力に対する指側面スライド方向の力の比の時系列変化、または、前記検出部に対する荷重の正規化された重心位置の時系列変化、を入力動作に対応付けて前記蓄積データとして記録してあることを特徴とする請求項1から7のいずれかに記載の入力装置。   The database includes a time-series change in force between the pushing direction, the fingertip sliding direction, and the finger side surface vertical sliding direction output from the detection unit, or the ratio of the force in the fingertip sliding direction to the force in the pushing direction and the pushing direction. The time series change of the ratio of the force in the finger side slide direction to the force of the finger or the time series change of the normalized gravity center position of the load on the detection unit is recorded as the accumulated data in association with the input operation. The input device according to claim 1, wherein the input device is an input device. 前記入力情報特定データを受けて、その入力動作に割り当てられた所定の記号、データ若しくは機能を表示する情報提示手段、をさらに備えたことを特徴とする請求項1に記載の入力装置。   2. The input device according to claim 1, further comprising information presenting means for receiving the input information specifying data and displaying a predetermined symbol, data or function assigned to the input operation. 前記物体が指であることを特徴とする請求項1から9のいずれかに記載の入力装置。   The input device according to claim 1, wherein the object is a finger. 請求項1から10のいずれかに記載された入力装置を備えた端末。   A terminal comprising the input device according to claim 1. 検出部に物体の一部が接触し、その物体の接触部の近傍になぞり動作が行なわれた際に、そのなぞり動作を特定し、そのなぞり動作に応じた表示を提示する入力方法であって、
物体の一部が接触され、その物体の接触部の近傍になぞりが行われた際に、物体を介して伝達した力を検出して、検出データとして出力する検出ステップと、
時間間隔をおいて前記検出データを記録するためのタイミングを生成し、これをタ イミングデータとして出力するタイマ管理制御ステップと、
前記検出データと前記タイミングデータに基づいて検出データの時系列データを作成し、この時系列データと予め設定されているデータベースの蓄積データを対比して、入力した動作を特定し、その入力動作を入力情報特定データとして出力する入力情報特定ステップと、を実行することを特徴とする入力方法。
An input method for specifying a tracing action and presenting a display corresponding to the tracing action when a part of the object comes into contact with the detection unit and a tracing action is performed in the vicinity of the contact part of the object. ,
A detection step of detecting a force transmitted through the object and outputting it as detection data when a part of the object is touched and a trace is performed near the contact portion of the object;
A timer management control step for generating a timing for recording the detection data at time intervals and outputting the timing data as timing data;
Create time-series data of detection data based on the detection data and the timing data, compare the time-series data with the stored data of a preset database, identify the input operation, and input the operation An input information specifying step of outputting as input information specifying data is executed.
前記入力情報特定データを受けて、その入力動作に割り当てられた所定の記号、データ若しくは機能を表示することを特徴とする請求項12に記載の入力方法。   13. The input method according to claim 12, wherein the input information specifying data is received, and a predetermined symbol, data, or function assigned to the input operation is displayed. 前記検出部に接触する前記物体が指であり、前記接触部の近傍がその指の属する指の関節間若しくは関節の先の骨の上またはそれらの周辺を含む領域であることを特徴とする請求項12または13に記載の入力方法。   The object in contact with the detection unit is a finger, and the vicinity of the contact unit is a region including or between the joints of the fingers to which the finger belongs or on or around the bones ahead of the joints. Item 14. The input method according to Item 12 or 13.
JP2010501851A 2008-03-03 2009-02-23 INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD Active JP5353877B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010501851A JP5353877B2 (en) 2008-03-03 2009-02-23 INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2008051867 2008-03-03
JP2008051867 2008-03-03
JP2008166854 2008-06-26
JP2008166854 2008-06-26
JP2010501851A JP5353877B2 (en) 2008-03-03 2009-02-23 INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD
PCT/JP2009/053170 WO2009110340A1 (en) 2008-03-03 2009-02-23 Input device, terminal equipped with the same, and inputting method

Publications (2)

Publication Number Publication Date
JPWO2009110340A1 true JPWO2009110340A1 (en) 2011-07-14
JP5353877B2 JP5353877B2 (en) 2013-11-27

Family

ID=41055901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010501851A Active JP5353877B2 (en) 2008-03-03 2009-02-23 INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD

Country Status (3)

Country Link
US (1) US8730159B2 (en)
JP (1) JP5353877B2 (en)
WO (1) WO2009110340A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054370B (en) * 2010-10-29 2013-06-05 鸿富锦精密工业(深圳)有限公司 USB (universal serial bus) cable controller and electronic reading device using same
US20140306893A1 (en) * 2013-04-11 2014-10-16 Rashed Siddiqui Computer Pointing Device based on Hand/Foot Directional Pressure
US9625884B1 (en) * 2013-06-10 2017-04-18 Timothy Harris Ousley Apparatus for extending control and methods thereof
US10114486B2 (en) * 2013-09-19 2018-10-30 Change Healthcare Holdings, Llc Method and apparatus for providing touch input via a touch sensitive surface utilizing a support object

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265522A (en) * 2000-03-16 2001-09-28 Keio Gijuku Sensor to be mounted on nail
US6991364B2 (en) 2001-07-31 2006-01-31 The Timberland Company Same-hand control of a multi-function device
JP4119187B2 (en) 2002-07-17 2008-07-16 国立大学法人金沢大学 Input device
JP2004199145A (en) 2002-12-16 2004-07-15 Sony Corp Information processing system, transmitter, and receiver
CN1701544B (en) * 2003-06-30 2011-05-18 日本电信电话株式会社 Electric field-detecting optical device, transreceiver, positional information-acquiring system, and information input system
JP2005301874A (en) 2004-04-15 2005-10-27 Kddi Corp Character input device using track point
JP4594791B2 (en) * 2005-04-25 2010-12-08 学校法人千葉工業大学 Portable operation input device
JP4898813B2 (en) * 2006-08-25 2012-03-21 京セラ株式会社 Portable electronic devices
US20090213081A1 (en) * 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards

Also Published As

Publication number Publication date
US8730159B2 (en) 2014-05-20
JP5353877B2 (en) 2013-11-27
US20100328211A1 (en) 2010-12-30
WO2009110340A1 (en) 2009-09-11

Similar Documents

Publication Publication Date Title
JP5381715B2 (en) Input device, information terminal including the same, and input method
US20110285648A1 (en) Use of fingerprint scanning sensor data to detect finger roll and pitch angles
KR101809636B1 (en) Remote control of computer devices
KR101953165B1 (en) Gesture recognition devices and methods
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
US8743089B2 (en) Information processing apparatus and control method thereof
NO339941B1 (en) System and method for a gesture-based management system
WO2002037466A1 (en) Electronic user worn interface device
JP5353877B2 (en) INPUT DEVICE, TERMINAL HAVING THE INPUT DEVICE, AND INPUT METHOD
US10509512B2 (en) Operation input device and image processing system
US10627917B2 (en) Object-sensing apparatus and object-sensing method
Manghisi et al. Towards gestured-based technologies for human-centred Smart Factories
JP4085163B2 (en) Contact type information input device
JP6966777B2 (en) Input system
WO2017007492A1 (en) Machine display and machine control systems
JP2014235478A (en) Touch input device, input detection method for touch input device, and computer program
CN104508603A (en) Direction input device and method for operating user interface using same
JP5005585B2 (en) Operating device and method
TWI446214B (en) Remote control system based on user action and its method
CN114327042B (en) Detection glove, gesture tracking method, AR equipment and key pressing method
US20240003766A1 (en) Contact information obtaining apparatus, contact information obtaining system, contact information obtaining method, and computer readable medium
Horiuchi et al. Short range fingertip pointing operation interface by depth camera
WO2021176609A1 (en) Pen state detection circuit capable of setting input/output model
CN112462979A (en) Multi-point touch equipment based on pressure-sensitive data acquisition and data processing method
JP2713135B2 (en) pointing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Ref document number: 5353877

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150