JP2010277469A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2010277469A
JP2010277469A JP2009131320A JP2009131320A JP2010277469A JP 2010277469 A JP2010277469 A JP 2010277469A JP 2009131320 A JP2009131320 A JP 2009131320A JP 2009131320 A JP2009131320 A JP 2009131320A JP 2010277469 A JP2010277469 A JP 2010277469A
Authority
JP
Japan
Prior art keywords
finger
input
input code
display
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009131320A
Other languages
Japanese (ja)
Inventor
Tomoko Motoshige
朋子 元重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009131320A priority Critical patent/JP2010277469A/en
Publication of JP2010277469A publication Critical patent/JP2010277469A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device for facilitating input operation. <P>SOLUTION: The input device which detects a spatial operation of fingers to output an input code corresponding to the detected operation includes: detection means which are mounted on mounting parts of fingers or hands of the user to detect the operation of fingers; an output means which outputs an input code corresponding to the operation detected by the detection means; and display means which are mounted on fingers or hands relating to the mounting parts, on which the detection means are mounted, and display the input code output from the output means. The output means specifies candidates of the input code to be selected, on the basis of the operation detected by the detection means, and the display means display the specified candidates of the input code. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、入力装置の技術分野に属し、より詳細には、指の空間的な動作を検出し、当該検出した動作に対応する入力コードを出力する入力装置の技術分野に属する。   The present invention belongs to the technical field of an input device, and more specifically, to the technical field of an input device that detects a spatial motion of a finger and outputs an input code corresponding to the detected motion.

コンピュータ装置等において、アルファベット等の文字を入力する際の入力装置として、各文字に対応し指により操作されるキーが配列されたキーボードが使用されている。このキーボードは、その配置のためのスペースが必要であり、省スペースの観点からキーボードの小型化が望まれている。しかし、キーボードのキーが指により操作される点を考慮すると、操作性の観点から、キーボードの小型化には限界がある。   2. Description of the Related Art A computer device or the like uses a keyboard on which keys operated by a finger corresponding to each character are arranged as an input device for inputting characters such as alphabets. This keyboard requires a space for its arrangement, and it is desired to reduce the size of the keyboard from the viewpoint of space saving. However, considering that the keyboard keys are operated by fingers, there is a limit to downsizing the keyboard from the viewpoint of operability.

そこで、現在、入力装置として、キーボードの配置のためのスペースが不要である仮想キーボード装置が提案されている。この種のキーボード装置では、指にセンサを装着し、当該センサにより指の空間的な動作を検出し、当該検出した動作に対応する入力コードが出力される。このような仮想キーボード装置に関する従来技術は、例えば、下記特許文献1乃至特許文献2に記載されている。   Therefore, a virtual keyboard device that does not require a space for keyboard layout has been proposed as an input device. In this type of keyboard device, a sensor is attached to a finger, a spatial motion of the finger is detected by the sensor, and an input code corresponding to the detected motion is output. Conventional techniques relating to such a virtual keyboard device are described, for example, in Patent Documents 1 to 2 listed below.

特許文献1では、仮想キーボード装置において、指に指輪型センサを装着し、机等の支持物体を指先で叩いたときの衝撃等を当該センサで検出する。このセンサからの検出信号に基づき、指により入力されるべき文字あるいは動作を認識する。また、特許文献2では、手の機能が制限された人用のデータ入力デバイスにおいて、指の動きを検出する曲げセンサを有する手袋を手に装着し、指の動きに応じた曲げセンサからの検出信号に基づいて、キーボードのキー入力として指の動きを認識する。   In Patent Literature 1, in a virtual keyboard device, a ring-type sensor is attached to a finger, and an impact or the like when a supporting object such as a desk is hit with a fingertip is detected by the sensor. Based on the detection signal from the sensor, the character or action to be input by the finger is recognized. Further, in Patent Document 2, in a data input device for humans with limited hand functions, a glove having a bending sensor for detecting finger movement is worn on the hand, and detection from the bending sensor corresponding to the finger movement is performed. Based on the signal, the movement of the finger is recognized as a key input of the keyboard.

特開平7−121294号公報JP-A-7-121294 特願2004−528660号(特表2006−503350号公報)Japanese Patent Application No. 2004-528660 (Japanese Patent Publication No. 2006-503350)

上記特許文献1乃至特許文献2に開示された仮想キーボード装置においては、実際のキーボードが存在しないので、入力操作者は、入力された入力コードが机上等に設置された表示器に表示されるまで、どの入力コードが入力されたかを認識することができない。このため、特に、タッチタイピングに慣れていない入力操作者にとって、仮想キーボード装置への入力操作が困難であった。   In the virtual keyboard device disclosed in Patent Documents 1 and 2, since there is no actual keyboard, the input operator can display the input code that has been input on a display installed on a desk or the like. , Which input code is input cannot be recognized. For this reason, in particular, an input operation to the virtual keyboard device is difficult for an input operator who is not used to touch typing.

本発明は、上記の問題点等に鑑みて為されたものであり、その目的の一例は、入力操作を容易に行うことができる入力装置を提供することにある。   The present invention has been made in view of the above-described problems and the like, and an example of the object is to provide an input device capable of easily performing an input operation.

上記の課題を解決するために、請求項1に記載の発明は、指の空間的な動作を検出し、当該検出した動作に対応する入力コードを出力する入力装置において、利用者の指又は手の装着部に装着されて前記指の前記動作を検出する検出手段と、前記検出手段により検出された動作に対応する入力コードを出力する出力手段と、前記検出手段が装着されている前記装着部に係る指又は手に装着されて前記出力手段から出力される入力コードを表示する表示手段と、を含み、前記出力手段は、前記検出手段により検出された動作に基づき、選択される入力コードの候補を特定し、前記表示手段は、前記特定された入力コードの候補を表示することを特徴とする入力装置である。   In order to solve the above problems, the invention according to claim 1 is directed to an input device that detects a spatial motion of a finger and outputs an input code corresponding to the detected motion. Detecting means for detecting the movement of the finger by being mounted on the mounting section, output means for outputting an input code corresponding to the motion detected by the detecting means, and the mounting section on which the detecting means is mounted Display means for displaying an input code output from the output means when worn on a finger or a hand according to the output means, wherein the output means is based on an action detected by the detection means. A candidate is specified, and the display means displays the specified input code candidate.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の入力装置において、前記出力手段は、指の動作の対象となるキーボードのパターンのキーのうち、指ごとに予め設定されているキーに対応する入力コードを、選択される入力コードの候補として特定し、前記表示手段は、前記特定された、指ごとに予め設定されているキーに対応する入力コードの候補を表示することを特徴とする入力装置である。   In order to solve the above problem, the invention according to claim 2 is the input device according to claim 1, wherein the output means is a finger among keys of a keyboard pattern to be operated by a finger. An input code corresponding to a key set in advance is specified as a candidate of an input code to be selected, and the display means is configured to input an input code corresponding to the specified key set in advance for each finger. An input device that displays candidates.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は2に記載の入力装置において、前記検出手段は、当該検出手段が装着されている前記指について予め設定されているX軸、Y軸、及びZ軸の各々について当該指の前記動作により発生する加速度を検出して前記動作を検出する加速度センサであり、前記出力手段は、前記加速度センサにより検出された動作の方向に基づき、選択される入力コードの候補を特定することを特徴とする入力装置である。   In order to solve the above-mentioned problem, the invention according to claim 3 is the input device according to claim 1 or 2, wherein the detection means is preset for the finger on which the detection means is mounted. An acceleration sensor that detects the motion by detecting an acceleration generated by the motion of the finger for each of the X axis, the Y axis, and the Z axis, and the output unit is configured to detect the motion detected by the acceleration sensor. An input device is characterized in that a candidate of an input code to be selected is specified based on a direction.

上記の課題を解決するために、請求項4に記載の発明は、請求項1乃至3のうちいずれか1項に記載の入力装置において、前記表示手段は、前記特定された入力コードの候補を予め設定された時間だけ表示することを特徴とする入力装置である。   In order to solve the above-described problem, the invention according to claim 4 is the input device according to any one of claims 1 to 3, wherein the display means displays the specified input code candidate. An input device that displays only for a preset time.

上記の課題を解決するために、請求項5に記載の発明は、請求項1乃至4のうちいずれか1項に記載の入力装置において、前記出力手段は、前記検出手段により検出された動作に基づき、前記特定された入力コードの候補から、入力コードを決定することを特徴とする入力装置である。   In order to solve the above-mentioned problem, the invention according to claim 5 is the input device according to any one of claims 1 to 4, wherein the output means is an operation detected by the detection means. An input device is characterized in that an input code is determined from the identified input code candidates.

上記の課題を解決するために、請求項6に記載の発明は、請求項1乃至5のうちうちずれか1項に記載の入力装置において、前記表示手段は、指又は手に装着されていることを特徴とする入力装置である。   In order to solve the above-mentioned problem, the invention according to claim 6 is the input device according to any one of claims 1 to 5, wherein the display means is attached to a finger or a hand. This is an input device.

請求項1に記載の発明によれば、入力操作者は、指又は手に装着された表示手段を見ることにより、選択される入力コードの候補を認識することができるので、入力操作を容易に行うことができる。特に、タッチタイピングに慣れていない入力操作者とって、入力操作を容易に行うことができる。   According to the first aspect of the present invention, since the input operator can recognize the input code candidate to be selected by looking at the display means attached to the finger or hand, the input operation can be easily performed. It can be carried out. In particular, an input operator who is not familiar with touch typing can easily perform an input operation.

請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、入力操作者は、どの指でタイピング動作をすればどのキーが入力されるかを操作前に知ることができる。   According to the invention described in claim 2, in addition to the effect of the invention described in claim 1, the input operator knows which key is input with which finger and which key is input before the operation. Can do.

請求項3に記載の発明によれば、請求項1又は2に記載の発明の効果に加えて、出力手段は、検出されたX軸、Y軸、及びZ軸の動作の方向に基づいて、選択される入力コードの候補を正確に特定することができる。   According to the invention described in claim 3, in addition to the effect of the invention described in claim 1 or 2, the output means is based on the detected motion directions of the X axis, the Y axis, and the Z axis. The input code candidate to be selected can be accurately specified.

請求項4に記載の発明によれば、請求項1乃至3のうちいずれか1項に記載の発明の効果に加えて、表示手段は、特定された入力コードの候補を予め設定された時間だけ表示するので、選択されない入力コードの候補が不必要に長時間にわたって表示され続けるという事態を防止することができる。   According to the invention described in claim 4, in addition to the effect of the invention described in any one of claims 1 to 3, the display means displays the specified input code candidates for a preset time. Since it is displayed, it is possible to prevent a situation in which unselected input code candidates are displayed unnecessarily for a long time.

請求項5に記載の発明によれば、請求項1乃至4のうちいずれか1項に記載の発明の効果に加えて、特定された入力コードの候補から入力コードを決定するので、入力操作者は、入力コードの決定を容易に行うことができる。   According to the invention described in claim 5, in addition to the effect of the invention described in any one of claims 1 to 4, since the input code is determined from the identified input code candidates, the input operator Can easily determine the input code.

請求項6に記載の発明によれば、請求項1乃至5のうちいずれか1項に記載の発明の効果に加えて、入力操作者は、指又は手に装着された表示手段を見ることにより、選択される入力コードの候補を容易に認識することができる。   According to the invention described in claim 6, in addition to the effect of the invention described in any one of claims 1 to 5, the input operator looks at the display means mounted on the finger or hand. The input code candidate to be selected can be easily recognized.

仮想キーボード装置の構成を示す図である。It is a figure which shows the structure of a virtual keyboard apparatus. 仮想キーボード装置の他の構成を示す図である。It is a figure which shows the other structure of a virtual keyboard apparatus. 指センサを示す図である。It is a figure which shows a finger sensor. 静止状態での指センサの出力電圧を示すグラフ図である。It is a graph which shows the output voltage of the finger sensor in a stationary state. キー押下げ時における指センサの出力電圧を示すグラフ図である。It is a graph which shows the output voltage of the finger sensor at the time of key depression. パターン判断部を含む入力コード出力部の構成を示す図である。It is a figure which shows the structure of the input code output part containing a pattern judgment part. 仮想キーボード装置の学習動作を示すフローチャート図である。It is a flowchart figure which shows learning operation | movement of a virtual keyboard apparatus. 仮想キーボード装置を含むシステムを示す図である。It is a figure which shows the system containing a virtual keyboard apparatus. 指に指センサが装着された状態を示す図である。It is a figure which shows the state by which the finger sensor was mounted | worn with the finger | toe. 本願の実施の形態による入力装置における、手の甲に装着されたディスプレイを示す図である。It is a figure which shows the display with which the input device by embodiment of this application was mounted | worn with the back of the hand. キーボードのキーパターンを示す図である。It is a figure which shows the key pattern of a keyboard. 左人指し指が担当するキーを示す図である。It is a figure which shows the key which a left index finger takes charge of. 左人指し指が移動する状態を示す図である。It is a figure which shows the state which a left index finger moves. ディスプレイに2つの入力コードの候補が表示される状態を示す図である。It is a figure which shows the state in which the candidate of two input codes is displayed on a display. 左人指し指が更に移動する状態を示す図である。It is a figure which shows the state which a left index finger moves further. ディスプレイに1つの入力コードの候補が表示される状態を示す図である。It is a figure which shows the state in which the candidate of one input code is displayed on a display. 本願の実施の形態による入力装置の作用を示すフローチャート図である。It is a flowchart figure which shows the effect | action of the input device by embodiment of this application. 動作パターン辞書部に記憶されている、指が左方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving to the left direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of an X 'axis direction, (B) is a Y' axis. The operation pattern of a direction is shown. 動作パターン辞書部に記憶されている、指が右方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving rightward memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of X'-axis direction, (B) is Y'-axis The operation pattern of a direction is shown. 動作パターン辞書部に記憶されている、指がまっすぐ先の方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving straight ahead memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of an X 'axis direction, (B) is Y 'Show the movement pattern in the axial direction. 動作パターン辞書部に記憶されている、指がまっすぐ手前の方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving straight ahead, memorize | stored in the operation | movement pattern dictionary part, (A) shows the operation | movement pattern of X 'axis direction, (B) shows Y 'Show the movement pattern in the axial direction. 動作パターン辞書部に記憶されている、指が左先の方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving to the left tip direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of X 'axis direction, (B) is Y 'Show the movement pattern in the axial direction. 動作パターン辞書部に記憶されている、指が右先の方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving rightward memorize | stored in the operation | movement pattern dictionary part, (A) shows the operation | movement pattern of X 'axis direction, (B) shows Y 'Show the movement pattern in the axial direction. 動作パターン辞書部に記憶されている、指が左手前の方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving to the left front direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of X'-axis direction, (B) is Y 'Show the movement pattern in the axial direction. 動作パターン辞書部に記憶されている、指が右手前の方向に移動する際の動作パターンを示す図であり、(A)は、X’軸方向の動作パターンを示し、(B)は、Y’軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving to the right front direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of the X'-axis direction, (B) is Y 'Show the movement pattern in the axial direction. 動作パターン辞書部に記憶されている、指がクリック動作を行う際のZ’軸方向の動作パターンを示す図である。It is a figure which shows the motion pattern of the Z'-axis direction when the finger | toe performs click operation | movement memorize | stored in the motion pattern dictionary part. 図17のステップS60乃至S62の動作の詳細を示すフローチャート図である。It is a flowchart figure which shows the detail of operation | movement of step S60 thru | or S62 of FIG. 図27のフローチャート図のステップS104において動作パターン判断部が行う指の移動方向を決定する動作を示すフローチャート図である。It is a flowchart figure which shows the operation | movement which determines the moving direction of the finger | toe which the movement pattern judgment part performs in step S104 of the flowchart figure of FIG. 図27のフローチャート図のステップS104の候補表示処理の詳細を示すフローチャート図である。It is a flowchart figure which shows the detail of the candidate display process of step S104 of the flowchart figure of FIG. 図29のフローチャート図のステップS328の処理(4)の詳細を示すフローチャート図である。It is a flowchart figure which shows the detail of the process (4) of step S328 of the flowchart figure of FIG. 図29のフローチャート図のステップS328の処理(4)の詳細を示すフローチャート図である。It is a flowchart figure which shows the detail of the process (4) of step S328 of the flowchart figure of FIG.

以下、本発明を実施するための形態について、図面を参照しながら説明する。なお、以下に説明する実施の形態は、仮想キーボード装置に対して本発明を適用した場合の実施の形態である。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to a virtual keyboard device.

仮想キーボード装置の概略
まず、仮想キーボード装置の概略について説明する。
Outline of Virtual Keyboard Device First, an outline of a virtual keyboard device will be described.

図1には、仮想キーボード装置の構成が示されている。図1において、利用者の装着部としての左手10L及び右手10Rの指14−1乃至14−5及び14−6乃至14−10には、それぞれ、指センサ16−1乃至16−5及び16−6乃至16−10が装着されている。この指センサ16は、指14の空間的な動作に伴って変化する動作信号を検出するセンサであり、例えば、加速度センサ又はジャイロセンサから構成されている。なお、指センサ16の詳細については、後述する。左手10L及び右手10Rの例えば手の甲には、それぞれ、データ収集部18、20が装着されており、当該データ収集部18、20には、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号がハーネス22−1乃至22−5及び22−6乃至22−10を介して供給される。データ収集部18、20は、それぞれ、無線部24、26を有しており、当該無線部24、26からの動作信号は、入力コード出力部28の無線部30に受信される。なお、データ収集部18、20に収集された動作信号は有線(ハーネス)を介して、入力コード出力部28に受信されてもよい。   FIG. 1 shows the configuration of the virtual keyboard device. In FIG. 1, finger sensors 16-1 to 16-5 and 16-are respectively attached to the fingers 14-1 to 14-5 and 14-6 to 14-10 of the left hand 10 </ b> L and the right hand 10 </ b> R as the user's wearing parts. 6 to 16-10 are installed. The finger sensor 16 is a sensor that detects an operation signal that changes in accordance with the spatial motion of the finger 14, and includes, for example, an acceleration sensor or a gyro sensor. Details of the finger sensor 16 will be described later. For example, the backs of the left hand 10L and the right hand 10R are equipped with data collection units 18 and 20, respectively. The data collection units 18 and 20 have finger sensors 16-1 to 16-5 and 16-6 to 16 respectively. The operation signal from −10 is supplied via the harnesses 22-1 to 22-5 and 22-6 to 22-10. The data collection units 18 and 20 have radio units 24 and 26, respectively, and operation signals from the radio units 24 and 26 are received by the radio unit 30 of the input code output unit 28. The operation signals collected by the data collection units 18 and 20 may be received by the input code output unit 28 via a wire (harness).

入力コード出力部28は、無線部30に加え、動作パターン辞書部32、及び動作パターン判断部34を備えている。動作パターン辞書部32は、指14の動作信号のパターンを示すパターン情報とこれに対応する入力コードとの関係を記憶する記憶部である。   The input code output unit 28 includes an operation pattern dictionary unit 32 and an operation pattern determination unit 34 in addition to the radio unit 30. The motion pattern dictionary unit 32 is a storage unit that stores a relationship between pattern information indicating the pattern of the motion signal of the finger 14 and an input code corresponding thereto.

なお、前記動作パターン辞書部32の詳細については、仮想キーボード装置の概略の項目の最後に記載する。   The details of the operation pattern dictionary unit 32 are described at the end of the outline of the virtual keyboard device.

前記動作パターン判断部34は、前記動作パターン辞書部32に記憶されているパターン情報に対応する動作信号と、前記無線部30から供給された動作信号とを比較し、検出された動作信号に対応する入力コードを出力する。前記出力された入力コードは、入力コード出力部28に設けられた無線部36から、文字表示器38の無線部40に送信される。文字表示器38は、表示部42を有しており、当該表示部42には、指14の動作により入力された入力コードとして例えば文字コード44が表示される。なお、この場合も、入力コード出力部28と文字表示器38は有線(ハーネス)で接続され、通信されてもよい。   The motion pattern determination unit 34 compares the motion signal corresponding to the pattern information stored in the motion pattern dictionary unit 32 with the motion signal supplied from the wireless unit 30 and corresponds to the detected motion signal. Output the input code. The output input code is transmitted from the wireless unit 36 provided in the input code output unit 28 to the wireless unit 40 of the character display 38. The character display 38 has a display unit 42, and a character code 44, for example, is displayed on the display unit 42 as an input code input by the operation of the finger 14. In this case as well, the input code output unit 28 and the character display 38 may be connected by wire (harness) and communicated.

図2には、仮想キーボード装置の他の構成が示されている。前記図1の構成では、左手10L及び右手10Rにそれぞれデータ収集部18、20が装着されていたが、図2の構成では、データ収集部が設けられていない。そして、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号は、ハーネス22−1乃至22−5及び22−6乃至22−10を介して、入力コード出力部28の動作パターン判断部34に供給されることとなる。   FIG. 2 shows another configuration of the virtual keyboard device. In the configuration of FIG. 1, the data collection units 18 and 20 are attached to the left hand 10L and the right hand 10R, respectively. However, in the configuration of FIG. 2, no data collection unit is provided. The operation signals from the finger sensors 16-1 to 16-5 and 16-6 to 16-10 are input to the input code output unit 28 via the harnesses 22-1 to 22-5 and 22-6 to 22-10. Is supplied to the operation pattern determination unit 34.

図3には、前記指センサ16の例として加速度センサが示されている。図3において、指センサ16は、3軸加速度センサであり、X軸、Y軸、及びZ軸のそれぞれについて指の動作による加速度を検出する。なお、Z軸は、重力加速度の方向45を示す。   FIG. 3 shows an acceleration sensor as an example of the finger sensor 16. In FIG. 3, the finger sensor 16 is a three-axis acceleration sensor, and detects acceleration due to the movement of the finger for each of the X axis, the Y axis, and the Z axis. The Z axis indicates the direction 45 of gravitational acceleration.

図4には、指14の静止状態での指センサ16の出力電圧の例が示されている。図4において、Z軸方向の出力電圧は、X軸方向及びY軸方向の出力電圧と比較して、重力加速度分(符号46を参照)だけ異なることが分かる。   FIG. 4 shows an example of the output voltage of the finger sensor 16 when the finger 14 is stationary. In FIG. 4, it can be seen that the output voltage in the Z-axis direction differs from the output voltage in the X-axis direction and the Y-axis direction by the gravitational acceleration (see reference numeral 46).

図5には、空間内でキー押下げ動作をした時の指センサ16の出力電圧が示されている。図5は、仮想キーボードにおいて文字Qのキーを押下げるように左手10Lの指14を動作させた場合の指センサ16の出力電圧を示している。なお、本発明の仮想キーボードのキー配列はJIS配列を採用している。図5の上段、中段、及び下段のグラフは、それぞれ、小指14−5、薬指14−4、及び親指14−1に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧を示す。なお、他の指14に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧については、図示を省略する。そして、図5において、文字Qのキーを押下げる際(符合48で示す時間を参照)には、小指14−5の動作が大きく、すなわち、図5の上段に示されるように、小指14−5に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧の変化は、他の指に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧の変化と比較して、大きいことが分かる。   FIG. 5 shows the output voltage of the finger sensor 16 when the key is depressed in the space. FIG. 5 shows the output voltage of the finger sensor 16 when the finger 14 of the left hand 10L is operated so as to press down the letter Q key on the virtual keyboard. The key layout of the virtual keyboard according to the present invention adopts the JIS layout. The upper, middle, and lower graphs in FIG. 5 show the X-axis direction, the Y-axis direction, and the Z-axis direction of the finger sensor 16 attached to the little finger 14-5, the ring finger 14-4, and the thumb 14-1, respectively. Indicates the output voltage. In addition, illustration is abbreviate | omitted about the output voltage of the X-axis direction of the finger sensor 16 with which the other finger | toe 14 was mounted | worn, a Y-axis direction, and a Z-axis direction. In FIG. 5, when the key of the letter Q is depressed (see the time indicated by reference numeral 48), the little finger 14-5 moves greatly, that is, as shown in the upper part of FIG. The change in the output voltage in the X-axis direction, the Y-axis direction, and the Z-axis direction of the finger sensor 16 mounted on the finger 5 varies with the X-axis direction, the Y-axis direction, and the Z-axis of the finger sensor 16 mounted on another finger. It can be seen that it is large compared to the change in the output voltage in the direction.

図6には、動作パターン判断部34を含む入力コード出力部28の構成が示されている。図6において、例えば左手について考えると、指14のそれぞれについて指センサ16が装着され、1つの指センサ16は、3軸(X軸、Y軸、及びZ軸)の動作信号を出力する。従って、動作パターン判断部34には、5×3=15個の動作信号50が供給される。なお、15個の動作信号50、すなわち、15個のデータを、ニューラルネットワークを用いて各文字52にマッピングすることにより学習を行い、動作パターン辞書部32における辞書パターンを作成又は更新する。この学習動作について、図7を用いて説明する。   FIG. 6 shows the configuration of the input code output unit 28 including the operation pattern determination unit 34. In FIG. 6, for example, considering the left hand, a finger sensor 16 is attached to each of the fingers 14, and one finger sensor 16 outputs three axis (X axis, Y axis, and Z axis) operation signals. Therefore, 5 × 3 = 15 operation signals 50 are supplied to the operation pattern determination unit 34. Learning is performed by mapping 15 motion signals 50, that is, 15 data, to each character 52 using a neural network, and a dictionary pattern in the motion pattern dictionary unit 32 is created or updated. This learning operation will be described with reference to FIG.

図7には、仮想キーボード装置の学習動作を示すフローチャートが示されている。図7において、ステップS10で電源をオンにし、ステップS12に進む。そして、ステップS12で仮想キーボード装置の処理により、学習モードであると判断した場合、ステップS14に進み、キーボードを入力コード出力部28(図1、2を参照)に接続する。   FIG. 7 shows a flowchart showing the learning operation of the virtual keyboard device. In FIG. 7, the power is turned on in step S10, and the process proceeds to step S12. If it is determined in step S12 that the learning mode is set by the processing of the virtual keyboard device, the process proceeds to step S14, and the keyboard is connected to the input code output unit 28 (see FIGS. 1 and 2).

なお、図7のフローチャートにおいて、前記ステップS12、及び後述するステップS26、S40、及びS44における仮想キーボード装置の処理について説明すると、データ収集部18若しくは20に操作ボタン18A若しくは20Aを設け(図1を参照)、入力操作者(すなわち利用者)は、判断に応じた操作を当該操作ボタン18A若しくは20Aに対して行い、仮想キーボード装置は、当該操作ボタン18A若しくは20Aに対して行われた操作に応じた判断を行う。   In the flowchart of FIG. 7, the processing of the virtual keyboard device in step S12 and steps S26, S40, and S44 described later will be described. Operation buttons 18A or 20A are provided in the data collection unit 18 or 20 (see FIG. 1). The input operator (that is, the user) performs an operation corresponding to the determination on the operation button 18A or 20A, and the virtual keyboard device responds to the operation performed on the operation button 18A or 20A. Make a judgment.

ステップS16でキーボードを打鍵し、ステップS18で、この打鍵時の指センサ16の加速度データの読み込みを行い、ステップS20で、加速度データの必要個所のデータ加工(例えば加速度データの変化時点から±500msにおけるデータ加工)を行う。   In step S16, the keyboard is pressed. In step S18, acceleration data of the finger sensor 16 at the time of key pressing is read. In step S20, data processing of a required portion of the acceleration data (for example, within ± 500 ms from the change point of the acceleration data). Data processing).

なお、データ加工について説明すると、各指における指センサ16の加速度のデータを100msごとに平均値を算出し,これを一列につなげたものをデータ加工されたデータとすることである。   Note that the data processing is to calculate the average value of the acceleration data of the finger sensor 16 for each finger every 100 ms, and to connect the data in a line to make the data processed data.

ステップS22で、ニューラルネットワークで学習し、ステップS24で、新しい辞書パターンを構築し、ステップS26で仮想キーボード装置の処理により学習終了でないと判断した場合、ステップS16に戻り、一方、ステップS26で仮想キーボード装置の処理により学習終了であると判断した場合、ステップS28に進む。なお、前記ステップS12で仮想キーボード装置の処理により学習モードでないと判断した場合、ステップS28に進む。   In step S22, learning is performed with a neural network. In step S24, a new dictionary pattern is constructed. When it is determined in step S26 that the learning is not completed by the processing of the virtual keyboard device, the process returns to step S16. If it is determined by the processing of the device that the learning has ended, the process proceeds to step S28. If it is determined in step S12 that the learning mode is not set by the processing of the virtual keyboard device, the process proceeds to step S28.

ステップS28で、指センサ16の加速度データの読込みが行われ、ステップS30で、加速度データをデータテーブル値と比較し、手、指が動いたか否かが判断される。ステップS30でNoの場合には、ステップS28に戻り、一方、ステップS30でYesの場合には、ステップS32に進み、加速度データの必要個所のデータ加工(例えば加速度データの変化時点から±500msにおけるデータ加工)を行う。   In step S28, acceleration data of the finger sensor 16 is read, and in step S30, the acceleration data is compared with the data table value to determine whether or not the hand or finger has moved. If NO in step S30, the process returns to step S28. On the other hand, if YES in step S30, the process proceeds to step S32, and data processing at a required portion of acceleration data (for example, data at ± 500 ms from the change point of acceleration data). Process).

なお、データ加工について説明すると、各指における指センサ16の加速度のデータを100msごとに平均値を算出し,これを一列につなげたものをデータ加工されたデータとすることである。   Note that the data processing is to calculate the average value of the acceleration data of the finger sensor 16 for each finger every 100 ms, and to connect the data in a line to make the data processed data.

ステップS34で、加速度データに基づく指の動作がデータベースとして保有されている辞書パターンと比較され、ステップS36で、最も近い入力コードに対応した入力コードが出力され、ステップS38で、当該入力コードは、パーソナルコンピュータ等の文字出力機器に送信され、ステップS40に進む。   In step S34, the finger movement based on the acceleration data is compared with a dictionary pattern held as a database. In step S36, an input code corresponding to the closest input code is output. In step S38, the input code is The data is transmitted to a character output device such as a personal computer, and the process proceeds to step S40.

ステップS40で仮想キーボード装置の処理により入力を継続しないと判断した場合には、ステップS42で電源がオフにされ、一方、ステップS40で仮想キーボード装置の処理により入力を継続すると判断した場合には、ステップS44に進む。ステップS44で、仮想キーボード装置の処理により正確な文字入力がされていると判断した場合には、ステップS28に進み、一方、ステップS44で、仮想キーボード装置の処理により正確な文字入力がされていないと判断した場合には、ステップS12に進む。   If it is determined in step S40 that the input is not continued due to the process of the virtual keyboard device, the power is turned off in step S42. On the other hand, if it is determined in step S40 that the input is continued due to the process of the virtual keyboard device, Proceed to step S44. If it is determined in step S44 that the correct character input has been performed by the processing of the virtual keyboard device, the process proceeds to step S28, while the correct character input has not been performed by the processing of the virtual keyboard device in step S44. If it is determined, the process proceeds to step S12.

次に、図8には、仮想キーボード装置を含むシステムが示されている。図8において、各指に装着される指センサ16からの動作信号は、動作パターン判断部34に供給され、当該動作パターン判断部34は、指センサ16からの動作信号と、動作パターン辞書部32に記憶されているパターン情報に対応する動作信号とを比較し、検出された動作信号に対応する入力コードをパーソナルコンピュータ56に供給する。パーソナルコンピュータ56は、入力コードを表示装置58に出力し、入力コードにより示される文字、例えばA、B、C、・・・の列59が表示装置58の表示画面60に表示されるようにする。   Next, FIG. 8 shows a system including a virtual keyboard device. In FIG. 8, the motion signal from the finger sensor 16 attached to each finger is supplied to the motion pattern determination unit 34, and the motion pattern determination unit 34 receives the motion signal from the finger sensor 16 and the motion pattern dictionary unit 32. Are compared with the operation signal corresponding to the pattern information stored therein, and an input code corresponding to the detected operation signal is supplied to the personal computer 56. The personal computer 56 outputs the input code to the display device 58 so that a character 59, for example, a column 59 of A, B, C,... Is displayed on the display screen 60 of the display device 58. .

なお、図9には、指14に指センサ16が装着された状態が示されている。図9において、指14に装着された指センサ16は、3軸(X軸、Y軸、及びZ軸)の加速度センサであり、X軸、Y軸、及びZ軸は、それぞれ、指センサ16のX軸、Y軸、及びZ軸を示す。図9では、指センサ16は重力方向に対して角度αだけ傾斜しているため、指センサ16のY’軸方向の加速度Y’及びZ’軸方向の加速度Z’は、Y軸方向の加速度Y及びZ軸の加速度Zに基づき、それぞれ、以下の(1)、(2)のように示される。
Y’=Z*Cosβ―Y*Sinβ・・・式(1)
Z’=Z*Cosα+Y*Cosβ・・・式(2)
FIG. 9 shows a state in which the finger sensor 16 is attached to the finger 14. In FIG. 9, the finger sensor 16 attached to the finger 14 is a triaxial (X-axis, Y-axis, and Z-axis) acceleration sensor, and the X-axis, Y-axis, and Z-axis are respectively the finger sensor 16. X axis, Y axis, and Z axis are shown. In FIG. 9, since the finger sensor 16 is inclined by an angle α with respect to the direction of gravity, the acceleration Y ′ in the Y′-axis direction and the acceleration Z ′ in the Z′-axis direction of the finger sensor 16 are accelerations in the Y-axis direction. Based on the acceleration Z of the Y and Z axes, the following (1) and (2) are shown, respectively.
Y ′ = Z * Cosβ−Y * Sinβ Expression (1)
Z ′ = Z * Cosα + Y * Cosβ Formula (2)

ここで、前記動作パターン辞書部32に記憶されている動作パターンの詳細について説明すると、動作パターン辞書部32には、指の動作パターンとこれに対応する入力コードとの関係が記憶されており、すなわち、指の動作パターンにより決定される指の移動方向とこれに対応する入力コードとの関係が記憶されている。   Here, the details of the operation pattern stored in the operation pattern dictionary unit 32 will be described. The operation pattern dictionary unit 32 stores the relationship between the operation pattern of the finger and the input code corresponding thereto, That is, the relationship between the finger movement direction determined by the finger movement pattern and the corresponding input code is stored.

図18は、動作パターン辞書部32に記憶されている、指が左方向に移動する際の動作パターンを示しており、図18(A)は、X’軸方向の動作パターンを示し、図18(B)は、Y’軸方向の動作パターンを示す。なお、Y’軸方向の意味は、前記式(1)及び式(2)の説明で述べたところである。また、X’軸方向は、元のX軸方向と同一である。   FIG. 18 shows an operation pattern stored in the operation pattern dictionary unit 32 when the finger moves in the left direction. FIG. 18A shows an operation pattern in the X′-axis direction, and FIG. (B) shows an operation pattern in the Y′-axis direction. The meaning in the Y′-axis direction is the same as that described in the expressions (1) and (2). Further, the X′-axis direction is the same as the original X-axis direction.

同様にして、図19は、指が右方向に移動する際の動作パターンを示し、図20は、指がまっすぐ先の方向に移動する際の動作パターンを示し、図21は、指がまっすぐ手前の方向に移動する際の動作パターンを示し、図22は、指が左先の方向に移動する際の動作パターンを示し、図23は、指が右先の方向に移動する際の動作パターンを示し、図24は、指が左手前の方向に移動する際の動作パターンを示し、図25は、指が右手前の方向に移動する際の動作パターンを示す。   Similarly, FIG. 19 shows an operation pattern when the finger moves rightward, FIG. 20 shows an operation pattern when the finger moves straight ahead, and FIG. 21 shows a finger straight ahead. 22 shows an operation pattern when the finger moves in the left direction, FIG. 22 shows an operation pattern when the finger moves in the left direction, and FIG. 23 shows an operation pattern when the finger moves in the right direction. 24 shows an operation pattern when the finger moves in the left front direction, and FIG. 25 shows an operation pattern when the finger moves in the right front direction.

前記動作パターン判断部34は、前記図18乃至図25に示されるように、指センサ16の出力電圧に基づくX’軸方向の出力電圧が閾値1を上方に(+方向に)突破する状況又は閾値2を下方に(−方向に)突破する状況、及びY’軸方向の出力電圧が閾値1を上方に(+方向に)突破する状況又は閾値2を下方に(−方向に)突破する状況に基づいて、指の動作パターンを検出し、当該検出された指の動作パターンにより決定される指の移動方向に基づいて、対応する入力コードを出力する。   As shown in FIG. 18 to FIG. 25, the motion pattern determination unit 34 is in a situation where the output voltage in the X′-axis direction based on the output voltage of the finger sensor 16 breaks through the threshold 1 upward (in the + direction) The situation where the threshold value 2 breaks down (in the − direction), and the situation where the output voltage in the Y′-axis direction breaks the threshold value 1 up (in the + direction) or the threshold value 2 breaks down (in the − direction). The finger movement pattern is detected based on the finger movement pattern, and a corresponding input code is output based on the finger movement direction determined by the detected finger movement pattern.

本願の実施の形態による入力装置
本願の実施の形態による入力装置について説明すると、本願の実施の形態による入力装置において、動作パターン判断部34(図1、2、6、及び8を参照)は、指センサ16(図1、2、3、8、及び9を参照)からの検出信号(すなわち指の動作の加速度)に基づき、選択される入力コードの候補を特定する。一方、図10に示されるように、手10の甲62には、ディスプレイ64が装着されており、当該ディスプレイ64は、前記動作パターン判断部34により特定された入力コードの候補を表示するようになっている。なお、動作パターン判断部34とディスプレイ64とは、有線(ハーネス)で接続されてもよく、あるいは無線で接続されてもよい。
Input Device According to the Embodiment of the Present Application The input device according to the embodiment of the present application will be described. In the input device according to the embodiment of the present application, the operation pattern determination unit 34 (see FIGS. 1, 2, 6, and 8) Based on a detection signal (that is, acceleration of finger movement) from the finger sensor 16 (see FIGS. 1, 2, 3, 8, and 9), a candidate of an input code to be selected is specified. On the other hand, as shown in FIG. 10, a display 64 is attached to the back 62 of the hand 10, and the display 64 displays the input code candidates specified by the operation pattern determination unit 34. It has become. The operation pattern determination unit 34 and the display 64 may be connected by a wire (harness) or may be connected wirelessly.

以下、指センサ16からの検出信号に基づき、選択される入力コードの候補を特定して表示する方法について説明する。   Hereinafter, a method for specifying and displaying a candidate of an input code to be selected based on a detection signal from the finger sensor 16 will be described.

まず、図11には、キーボードのキーパターンが示されており、符号66、68、70、72、及び74は、それぞれ、左小指、左薬指、左中指、左人指し指、及び左親指が担当するキーを示し、符号76、78、80、82、及び84は、それぞれ、右小指、右薬指、右中指、右人指し指、及び右親指が担当するキーを示す。このように、各手の各指が担当するキーは、予め設定されており、本願の実施の形態による入力装置では、指センサ16からの検出信号に基づき、指ごとに予め設定されているキーに対応する入力コードの中から、選択される入力コードの候補を特定し、ディスプレイ64に表示する。   First, FIG. 11 shows a keyboard key pattern. Reference numerals 66, 68, 70, 72, and 74 are assigned to the left little finger, the left ring finger, the left middle finger, the left index finger, and the left thumb, respectively. Reference numerals 76, 78, 80, 82, and 84 denote keys assigned to the right little finger, right ring finger, right middle finger, right index finger, and right thumb, respectively. As described above, the keys assigned to the fingers of each hand are set in advance. In the input device according to the embodiment of the present application, the keys set in advance for each finger based on the detection signal from the finger sensor 16. The input code candidates to be selected are identified from among the input codes corresponding to, and displayed on the display 64.

図12には、左人指し指が担当するキー(6、7、T、Y、F、G、V、及びBの各キー)が示されており、図12では、指センサ16からの検出信号に基づき、指ごとに予め設定されているキー(6、7、T、Y、F、G、V、及びBの各キー)に対応する入力コードの中から、選択される入力コードの候補を特定し、手の甲に装着されたディスプレイ64(図10を参照)に表示する。すなわち、図12において、初期位置86に隣接する各キー(T、Y、F、及びGの各キー)は、指センサ16からの検出信号に基づき、1回の加速度が検出された移動方向(矢印88、90、92、及び94を参照)により候補として特定され、ディスプレイ64に表示される。   FIG. 12 shows keys (6, 7, T, Y, F, G, V, and B keys) that the left index finger is in charge of. FIG. 12 shows detection signals from the finger sensor 16 in FIG. Based on the input codes corresponding to the keys (6, 7, T, Y, F, G, V, and B) preset for each finger, the input code candidates to be selected are specified. And displayed on the display 64 (see FIG. 10) attached to the back of the hand. That is, in FIG. 12, each key (T, Y, F, and G keys) adjacent to the initial position 86 is based on the detection signal from the finger sensor 16 in the moving direction in which one acceleration is detected ( (See arrows 88, 90, 92, and 94) and identified on the display 64.

ここで、前記1回とは、指センサ16のセンサ値が閾値(前記図18乃至図25の閾値1及び閾値2を参照)を突破する時刻から±250msの区間をいう。   Here, the term “once” refers to an interval of ± 250 ms from the time when the sensor value of the finger sensor 16 breaks through a threshold value (see threshold values 1 and 2 in FIGS. 18 to 25).

なお、入力装置が前記初期位置86をどのように判断するかについて説明すると、一定時間以上、指センサ16からのセンサデータに変化が見られないこと、または後述する図17のステップS54で取得した初期位置のデータと指センサ16からのセンサデータが一定時間以上一致したことに基づき、前記初期位置86が判断される。   Note that how the input device determines the initial position 86 will be described. The sensor data from the finger sensor 16 has not changed for a certain period of time or has been acquired in step S54 of FIG. 17 described later. The initial position 86 is determined based on the fact that the initial position data and the sensor data from the finger sensor 16 coincide with each other for a certain period of time.

一方、それ以外の各キー(6、7、V、及びBの各キー)は、指センサ16からの検出信号に基づき、2回の加速度が検出された移動方向により候補として特定され、ディスプレイ64に表示される。   On the other hand, the other keys (6, 7, V, and B keys) are identified as candidates based on the movement direction in which two accelerations are detected based on the detection signal from the finger sensor 16, and are displayed on the display 64. Is displayed.

なお、前記2回とは、候補を表示してから,次に指センサ16のセンサ値が閾値(前記図18乃至図25の閾値1及び閾値2を参照)を突破する時刻から±250msの区間をいう。   Note that the second time is a period of ± 250 ms from the time when the sensor value of the finger sensor 16 next exceeds the threshold value (see threshold value 1 and threshold value 2 in FIGS. 18 to 25) after the candidate is displayed. Say.

ここで、6、及び7の各キーについては、1回目の加速度が検出された移動方向96、及び2回目の加速度が検出された移動方向(左方向又は右方向)により候補として特定され、一方、V、及びBの各キーについては、1回目の加速度が検出された移動方向98、及び2回目の加速度が検出された移動方向(左方向又は右方向)により候補として特定される。以下、図13乃至図16を参照しながら、7のキーが、選択される入力コードの候補として特定され、ディスプレイ64に表示される方法を説明する。   Here, the keys 6 and 7 are identified as candidates by the moving direction 96 in which the first acceleration is detected and the moving direction (left direction or right direction) in which the second acceleration is detected. Each key of, V, and B is specified as a candidate by the moving direction 98 in which the first acceleration is detected and the moving direction (left direction or right direction) in which the second acceleration is detected. Hereinafter, a method in which the 7 keys are specified as candidates for the input code to be selected and displayed on the display 64 will be described with reference to FIGS. 13 to 16.

図13において、左人指し指が位置86から矢印96の方向に位置104まで移動すると、1回の加速度が検出された移動方向から、選択される入力コードの候補として6、及び7のキーが特定される。   In FIG. 13, when the left index finger moves from position 86 in the direction of arrow 96 to position 104, keys 6 and 7 are specified as input code candidates to be selected from the moving direction in which one acceleration is detected. The

これにより、図14に示されるように、ディスプレイ64には、選択される入力コードの候補として6、及び7が表示される。図14において、6の左側に表示される左方向の矢印は、左人指し指を現在の位置から左方向に移動すると、6のキーに到達することを示し、7の左側に表示される右方向の矢印は、左人指し指を現在の位置から右方向に移動すると、7のキーに到達することを示し、キャンセルの左側に表示される手前方向の矢印は、左人指し指を現在の位置から手前方向に移動すると、候補としての6、及び7がキャンセルされることを示す。   Thereby, as shown in FIG. 14, 6 and 7 are displayed on the display 64 as candidates for the input code to be selected. In FIG. 14, the left arrow displayed on the left side of 6 indicates that when the left index finger is moved left from the current position, the key 6 is reached, and the right arrow displayed on the left side of 7 The arrow indicates that when the left index finger is moved to the right from the current position, the key 7 is reached. The forward arrow displayed on the left side of the cancel moves the left index finger from the current position to the front. Then, candidates 6 and 7 are canceled.

その後、図15に示されるように、左人指し指を位置104から矢印106の方向に移動すると、選択される入力コードの候補として7のキーが特定される。これにより、図16に示されるように、ディスプレイ64には、選択される入力コードの候補として7が表示される。なお、キャンセルの左側に表示される左方向の矢印は、左人指し指を現在の位置から左方向に移動すると、候補としての7がキャンセルされることを示す。   After that, as shown in FIG. 15, when the left index finger is moved from the position 104 in the direction of the arrow 106, the key 7 is specified as a candidate of the input code to be selected. Thereby, as shown in FIG. 16, 7 is displayed on the display 64 as a candidate of the input code to be selected. The left arrow displayed on the left side of the cancellation indicates that 7 as a candidate is canceled when the left index finger is moved leftward from the current position.

次に、図17には、本願の実施の形態による入力装置の作用がフローチャートにて示されている。図17において、ステップS50でスタートする。   Next, FIG. 17 is a flowchart showing the operation of the input device according to the embodiment of the present application. In FIG. 17, the process starts in step S50.

ここで、スタートについて説明すると、電源のON時,またはキーボードモード時にスタートするように設定されている。   Here, the start will be described. It is set to start when the power is turned on or in the keyboard mode.

ステップS52でディスプレイが指の初期位置の要求を表示し、ステップS54で所定時間経過したら、初期位置を決定し、指の軸の傾き(図9を参照)を算出し、ステップS56に進む。ステップS56で初期位置を決定したことをディスプレイが表示し、ステップS58で指センサ16の値が変化するかが判断される。ステップS58でNoの場合には、ステップS56に戻り、一方、ステップS58でYesの場合には、ステップS60に進み、加速度の向きから利用者が押したいキーを入力装置が推理してキーの候補を表示し(図16を参照)、ステップS62に進む。ステップS62では、入力装置は、加速度の値がクリックしたときの値であるかを判断する(すなわち利用者が仮想キーを押したかが判断される)。   In step S52, the display displays a request for the initial position of the finger. When a predetermined time has elapsed in step S54, the initial position is determined, the inclination of the finger axis (see FIG. 9) is calculated, and the process proceeds to step S56. The display indicates that the initial position has been determined in step S56, and it is determined whether the value of the finger sensor 16 changes in step S58. If No in step S58, the process returns to step S56. On the other hand, if Yes in step S58, the process proceeds to step S60, where the input device infers the key that the user wants to press from the direction of acceleration, and the key candidate. Is displayed (see FIG. 16), and the process proceeds to step S62. In step S62, the input device determines whether the acceleration value is a value when clicked (that is, whether the user has pressed the virtual key is determined).

ここで、前記クリック動作の判断方法について説明する。図26には、動作パターン辞書部32に記憶されている、指がクリック動作を行う際のZ’軸方向の動作パターンが示されており、ここで、Z’軸方向の意味は、前記式(1)及び式(2)の説明で述べたところである。前記動作パターン判断部34は、図26に示されるように、指センサ16の出力電圧に基づくZ’軸方向の出力電圧が、閾値1を上方に(+方向に)突破しその後に閾値2を下方に(−方向に)突破する状況を検出することにより、指がクリック動作を行ったことを判断する。   Here, a method for determining the click operation will be described. FIG. 26 shows an operation pattern in the Z′-axis direction when the finger performs a click operation, which is stored in the operation pattern dictionary unit 32. Here, the meaning of the Z′-axis direction is the same as that in the above equation. It has just been described in the description of (1) and formula (2). As shown in FIG. 26, the operation pattern determination unit 34 determines that the output voltage in the Z′-axis direction based on the output voltage of the finger sensor 16 has exceeded the threshold value 1 upward (in the + direction) and then set the threshold value 2. By detecting a situation of breaking downward (in the − direction), it is determined that the finger has performed a click operation.

前記ステップS62でYesの場合には、ステップS64に進み、打鍵した仮想キーを決定し、決定したキーをディスプレイに表示し、ステップS52に戻る。なお、前記ステップS62でNoの場合には、ステップS66に進み、キーの候補を表示してから所定時間経過したかが判断され、ステップS66でNoの場合には、ステップS60に戻り、キーの候補がディスプレイに表示され続ける。一方、ステップS66でYesの場合には、ステップS68でキーの候補をディスプレイから消去し、ステップS52に戻る。なお、ステップS66における所定時間は、ディスプレイに表示されたキーの候補が利用者が望むキーであるかを判断するための時間であり、例えば、約1秒に設定されることが可能である。   In the case of Yes in step S62, the process proceeds to step S64, the virtual key that has been pressed is determined, the determined key is displayed on the display, and the process returns to step S52. If No in step S62, the process proceeds to step S66 to determine whether a predetermined time has elapsed since the key candidate was displayed. If no in step S66, the process returns to step S60, Candidates continue to appear on the display. On the other hand, if Yes in step S66, the key candidate is deleted from the display in step S68, and the process returns to step S52. The predetermined time in step S66 is a time for determining whether the key candidate displayed on the display is the key desired by the user, and can be set to about 1 second, for example.

なお、上記図17のフローチャートは、片手の指の動作について示したものであり、本願を実施する際には、左右の両手の指の動作についてそれぞれフローチャートを準備することが好ましい。   Note that the flowchart of FIG. 17 shows the operation of the finger of one hand, and it is preferable to prepare a flowchart for the operation of the fingers of both the left and right hands when implementing the present application.

次に、入力コードの候補を特定して表示する方法の詳細を説明する。   Next, details of a method for specifying and displaying input code candidates will be described.

図27には、前記図17のフローチャート図におけるステップS60乃至S62の動作の詳細が示されている。   FIG. 27 shows details of operations in steps S60 to S62 in the flowchart of FIG.

図27において、ズテップS60は、図17のフローチャート図におけるステップS60を示し、次のステップS100では、クリック判断が出ているか判断される。ステップS100でNoの場合には、ステップS102に進み、センサ値が変化したかが判断される。ステップS102でNoの場合には、ステップS100に戻るが、ステップS102でYesの場合には、ステップS104に進み、候補表示処理が行われる。このステップS104の候補表示処理では、動作パターン判断部34は、動作パターン辞書部32に記憶されている動作パターン及び指センサ16のセンサ値に基づいて、候補表示処理を行うが、その詳細については後述する。   In FIG. 27, step S60 indicates step S60 in the flowchart of FIG. 17, and in the next step S100, it is determined whether a click determination has been made. If No in step S100, the process proceeds to step S102, and it is determined whether the sensor value has changed. If No in step S102, the process returns to step S100. If Yes in step S102, the process proceeds to step S104, and candidate display processing is performed. In the candidate display process of step S104, the motion pattern determination unit 34 performs the candidate display process based on the motion pattern stored in the motion pattern dictionary unit 32 and the sensor value of the finger sensor 16. It will be described later.

前記ステップS104での候補表示処理が終了すると、ステップS104からステップS106に進む。なお、前記ステップS100でYesの場合には、ステップS106にそのまま進む。当該ステップS106では、クリック判断へ進むかが判定され、ステップS106でNoの場合には、ステップS102に戻る。一方、ステップS106でYesの場合には、ステップS108に進み、ステップS62(図17を参照)に進む。   When the candidate display process in step S104 ends, the process proceeds from step S104 to step S106. In the case of Yes in step S100, the process proceeds to step S106 as it is. In step S106, it is determined whether or not to proceed to click determination. If No in step S106, the process returns to step S102. On the other hand, if Yes in step S106, the process proceeds to step S108, and the process proceeds to step S62 (see FIG. 17).

なお、図28には、図27のフローチャート図のステップS104において、 動作パターン判断部34が行う指の移動方向を決定する動作が示されている。   FIG. 28 shows an operation for determining the moving direction of the finger performed by the operation pattern determination unit 34 in step S104 in the flowchart of FIG.

図28において、ステップS200でスタートし、ステップS202において、指センサ16のセンサ値すなわちデータをX’軸方向、Y’軸方向、Z’軸方向に変換し、ステップS204において、各指ごとに変換されたデータを動作パターン辞書部32のデータと比較し、ステップS206において、変換されたデータから各指の方向が決定され、ステップS208で終了する。   In FIG. 28, the process starts in step S200, and in step S202, the sensor value of the finger sensor 16, that is, the data is converted into the X′-axis direction, the Y′-axis direction, and the Z′-axis direction. The obtained data is compared with the data in the motion pattern dictionary unit 32. In step S206, the direction of each finger is determined from the converted data, and the process ends in step S208.

次に、図29には、図27のフローチャート図のステップS104の候補表示処理の詳細が示されている。   Next, FIG. 29 shows details of candidate display processing in step S104 in the flowchart of FIG.

図29において、ステップS300でスタートし、ステップS302で左小指のセンサ値が閾値を突破したかが判断される。なお、閾値の突破については、前記図18乃至図25を参照されたい。ステップS302でYesの場合にはステップS304の処理(1)に進み、一方、ステップS302でNoの場合にはステップS306に進む。以下、ステップS306乃至S322で左薬指のセンサ値乃至右親指のセンサ値について、同様の判断がされ、ステップS306乃至S322でYesの場合には、それぞれ、ステップS324の処理(2)乃至ステップS340の処理(10)に進み、一方、ステップS306乃至S322でNoの場合には、そのまま次のステップに進む。   In FIG. 29, the process starts in step S300, and in step S302, it is determined whether the sensor value of the left little finger has exceeded the threshold value. Refer to FIGS. 18 to 25 for the threshold breakthrough. If Yes in step S302, the process proceeds to step S304 (1), whereas if No in step S302, the process proceeds to step S306. Hereinafter, in steps S306 to S322, the same determination is made for the sensor value of the left ring finger to the sensor value of the right thumb, and in the case of Yes in steps S306 to S322, the processes (2) to S340 of step S324, respectively. On the other hand, in the case of No in steps S306 to S322, the process proceeds to the next step as it is.

例えば、ステップS310について説明すると、ステップS310で左人さし指のセンサ値が閾値を突破したかが判断され、ステップS310でYesの場合にはステップS328の処理(4)すなわち左人さし指のセンサ値が閾値を突破した場合の処理が行われ、一方、ステップS310でNoの場合にはそのまま次のステップS312に進む。   For example, step S310 will be described. In step S310, it is determined whether the sensor value of the left index finger has exceeded the threshold value. If YES in step S310, the process (4) in step S328, that is, the sensor value of the left index finger has the threshold value. On the other hand, the process in the case of breaking through is performed. On the other hand, if No in step S310, the process proceeds to the next step S312.

以下、ステップS328の処理(4)すなわち左人さし指のセンサ値が閾値を突破した場合の処理を例として取り上げ、詳細に説明する。   Hereinafter, the process (4) of step S328, that is, the process when the sensor value of the left index finger has exceeded the threshold value will be taken as an example and described in detail.

図30及び図31には、図29のフローチャート図のステップS328の処理(4)の詳細が示されており、図30及び図31により、1つのフローチャートが構成される。   30 and 31 show details of the process (4) of step S328 in the flowchart of FIG. 29, and one flowchart is configured by FIG. 30 and FIG.

なお、以下の説明では、指センサ16からの検出信号に基づき、選択される入力コードの候補を特定して表示する方法を説明する図11乃至図16を例として参照する。   In the following description, FIGS. 11 to 16 for describing a method for specifying and displaying a candidate of an input code to be selected based on a detection signal from the finger sensor 16 will be referred to as an example.

図30及び図31において、ステップS400でスタートし、ステップS402に進み、左人さし指に関するキーの候補を表示したかが判断される。最初の段階では、左人さし指に関するキーの候補が表示されていないので、ステップS402に進み、センサ値が指が先に向かったことを示すかが判断される。図11乃至図16の例では、図13の矢印96を参照すると、指が先に向かっており、しかも、指がまっすぐ先に進んでいるので、ステップS402からステップS406を経由して、ステップS408に進む。このステップS408では、「6」、「7」、「キャンセル」が表示される。これにより、ディスプレイ64には、図14に示されるように、選択される候補として、「6」、「7」が表示され、更に、「キャンセル」も表示されることとなる。ステップS408からは、ステップS462に進み、終了する。これにより、図27のステップS104での1回目の候補表示処理は終了し、その後、ステップS106からステップS102に進む。   30 and 31, the process starts at step S400 and proceeds to step S402, where it is determined whether a key candidate related to the left index finger is displayed. In the first stage, since the key candidate for the left index finger is not displayed, the process proceeds to step S402, where it is determined whether the sensor value indicates that the finger is pointed first. In the example of FIGS. 11 to 16, referring to the arrow 96 in FIG. 13, since the finger is moving forward and the finger is moving straight forward, the process proceeds from step S <b> 402 to step S <b> 406 through step S <b> 408. Proceed to In step S408, “6”, “7”, and “cancel” are displayed. Thereby, as shown in FIG. 14, “6” and “7” are displayed on the display 64 as candidates to be selected, and “cancel” is also displayed. From step S408, the process proceeds to step S462 and ends. Thus, the first candidate display process in step S104 of FIG. 27 is completed, and then the process proceeds from step S106 to step S102.

この状態では、ディスプレイ64に候補「6」、「7」、「キャンセル」が表示されており、いずれかの候補を選択するために、指を動作させることになる。これにより、指センサ16のセンサ値が変化するので、図27のステップS102からステップS104に進み、以下のように、2回目の候補表示処理を行う。   In this state, the candidates “6”, “7”, and “Cancel” are displayed on the display 64, and the finger is moved to select one of the candidates. Thereby, since the sensor value of the finger sensor 16 changes, the process proceeds from step S102 in FIG. 27 to step S104, and the second candidate display process is performed as follows.

再び図30及び図31のフローチャート図を参照すると、この状態では、ディスプレイ64に候補「6」、「7」、「キャンセル」が表示されているので、ステップS400、S402、S426、S430、S432,S434、S436、S438、S440、S442、S444を経由し、ステップS448からステップS450に進み、センサ値が指が左に向かったことを示すかが判断される。   Referring to the flowcharts of FIGS. 30 and 31 again, in this state, the candidates “6”, “7”, and “Cancel” are displayed on the display 64, so steps S 400, S 402, S 426, S 430, S 432, are displayed. The process proceeds from step S448 to step S450 via S434, S436, S438, S440, S442, and S444, and it is determined whether the sensor value indicates that the finger is directed to the left.

図11乃至図16の例では、図15の矢印106を参照すると、指が右の方向に向かっているので、前記ステップS450でNoであり、従って、ステップS454に進み、「7」、「キャンセル」が表示される。これにより、ディスプレイ64には、図16に示されるように、選択される候補として、「7」が表示され、更に、「キャンセル」も表示されることとなる。ステップS454からは、ステップS462に進み、終了する。これにより、図27のステップS104での2回目の候補表示処理は終了し、その後、ステップ106からステップS102に進む。   In the examples of FIGS. 11 to 16, referring to the arrow 106 in FIG. 15, since the finger is directed in the right direction, the answer is No in Step S <b> 450, and thus the process proceeds to Step S <b> 454. Is displayed. Thereby, as shown in FIG. 16, “7” is displayed on the display 64 as a candidate to be selected, and “cancel” is also displayed. From step S454, the process proceeds to step S462 and ends. Thus, the second candidate display process in step S104 of FIG. 27 is completed, and then the process proceeds from step 106 to step S102.

この状態では、ディスプレイ64に候補「7」、「キャンセル」が表示されており、候補「7」あるいは「キャンセル」を選択するために、指を移動させることになる。これにより、指センサ16のセンサ値が変化するので、図27のステップS102からステップS104に進む。   In this state, the candidates “7” and “Cancel” are displayed on the display 64, and the finger is moved to select the candidate “7” or “Cancel”. As a result, the sensor value of the finger sensor 16 changes, and the process proceeds from step S102 to step S104 in FIG.

再び図30及び図31のフローチャート図を参照すると、この状態では、ディスプレイ64に候補「7」、「キャンセル」が表示されているので、ステップS400、S402、S426、S430、S432、S434、S436、S438を経由し、ステップS440からステップS446に進み、クリック判定に移動する。すなわち、図27のフローチャート図では、ステップS104からステップS106に進むと、ステップS106でYesとなり、ステップS108に進むこととなり、すなわち、図17のフローチャート図のステップS62に進むこととなる。   Referring to the flowcharts of FIGS. 30 and 31 again, in this state, the candidates “7” and “Cancel” are displayed on the display 64. Therefore, steps S400, S402, S426, S430, S432, S434, S436, The process proceeds from step S440 to step S446 via S438, and moves to click determination. That is, in the flowchart of FIG. 27, when the process proceeds from step S104 to step S106, the result is step S106, the process proceeds to step S108, that is, the process proceeds to step S62 in the flowchart of FIG.

以上説明したように、本願の実施の形態による入力装置によれば、入力操作者は、手10に装着されたディスプレイ64を見ることにより、選択される入力コードの候補を認識することができる。従って、入力操作を容易に行うことができる。   As described above, according to the input device according to the embodiment of the present application, the input operator can recognize the input code candidate to be selected by looking at the display 64 attached to the hand 10. Therefore, the input operation can be easily performed.

また、ディスプレイ64には、指14ごとに予め設定されているキーに対応する入力コードの候補が表示されるので、入力操作者は、どの指でタイピング動作をすればどのキーが入力されるかを操作前に知ることができる。   In addition, since the input code candidates corresponding to the keys set in advance for each finger 14 are displayed on the display 64, the input operator performs which typing operation with which finger to input which key. Can be known before operation.

また、指センサ16として3軸加速度センサが使用されているので、動作パターン判断部34は、検出されたX軸、Y軸、及びZ軸の動作の方向に基づいて、選択される入力コードの候補を正確に特定することができる。   In addition, since a three-axis acceleration sensor is used as the finger sensor 16, the motion pattern determination unit 34 determines the input code to be selected based on the detected X-axis, Y-axis, and Z-axis motion directions. Candidates can be identified accurately.

また、ディスプレイ64は、特定された入力コードの候補を予め設定された時間だけ表示するので、選択されない入力コードの候補が不必要に長時間にわたって表示され続けるという事態を防止することができる。   Further, since the display 64 displays the specified input code candidates for a preset time, it is possible to prevent a situation in which unselected input code candidates are displayed unnecessarily for a long time.

更に、特定された入力コードの候補から入力コードを決定する構成であるので、入力操作者は、入力コードの決定を容易に行うことができる。   Further, since the input code is determined from the identified input code candidates, the input operator can easily determine the input code.

更に、ディスプレイ64は、手10の甲62に装着されているので、入力操作者は、ディスプレイ64を見ることにより、選択される入力コードの候補を容易に認識することができる。   Further, since the display 64 is mounted on the back 62 of the hand 10, the input operator can easily recognize the input code candidate to be selected by looking at the display 64.

なお、本願の実施の形態による入力装置においては、手10の甲62にディスプレイ64を装着しているが、本願では、ディスプレイ64が装着される個所は、手10の甲62に限られず、ディスプレイ64を各指14にそれぞれ装着することも可能である。そして、手10の甲62にディスプレイ64を装着する場合には、ディスプレイ64は、5本の指14に対応して1行5桁の表示を行い、一方、手10の指14にそれぞれディスプレイ64を装着する場合には、1つのディスプレイ64は、1本の指14に対応して1行1桁の表示を行うことが可能である。   In the input device according to the embodiment of the present application, the display 64 is mounted on the back 62 of the hand 10. However, in this application, the place where the display 64 is mounted is not limited to the back 62 of the hand 10. It is also possible to attach 64 to each finger 14. When the display 64 is attached to the back 62 of the hand 10, the display 64 displays five lines in one line corresponding to the five fingers 14, while the display 64 is respectively displayed on the fingers 14 of the hand 10. In the case of wearing, one display 64 can display one column and one column corresponding to one finger 14.

また、本願の実施の形態による入力装置においては、指センサ16の装着部として手10の指14が設定されているが、指センサ16を手10の甲62に装着してもよい。あるいは、指センサ16を全ての指14に装着せず、全ての指14の空間的な動きを検出できるような特定の指14にだけ指センサ16を装着してもよい。   In the input device according to the embodiment of the present application, the finger 14 of the hand 10 is set as the mounting portion of the finger sensor 16, but the finger sensor 16 may be mounted on the back 62 of the hand 10. Alternatively, the finger sensor 16 may be attached only to a specific finger 14 that can detect the spatial movement of all the fingers 14 without attaching the finger sensor 16 to all the fingers 14.

また、本願の実施の形態による入力装置においては、指センサ16を指14あるいは手10の装着部に直接的に装着している。しかし、本願では、手袋において、指14あるいは手10の装着部に対応する位置に指センサ16を装着し、当該手袋を入力操作者が装着することにより、指センサ16が手袋を介して指14あるいは手10の装着部に間接的に装着されるようにしてもよい。   In the input device according to the embodiment of the present application, the finger sensor 16 is directly mounted on the finger 14 or the mounting portion of the hand 10. However, in the present application, in the glove, the finger sensor 16 is mounted at a position corresponding to the mounting portion of the finger 14 or the hand 10, and the finger operator 16 wears the glove through the glove. Or you may make it mount | wear with the mounting part of the hand 10 indirectly.

以上説明したように、本発明は入力装置の分野に利用することが可能であり、特に仮想キーボード装置の分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used in the field of input devices, and particularly remarkable effects can be obtained when applied to the field of virtual keyboard devices.

10、10L、10R:手
14、14−1〜14−10:指
16、16−1〜16−10:指センサ
22:ハーネス
28:入力コード出力部
32:動作パターン辞書部
34:動作パターン判断部
62:手の甲
64:ディスプレイ
10, 10L, 10R: hand 14, 14-1 to 14-10: finger 16, 16-1 to 16-10: finger sensor 22: harness 28: input code output unit 32: operation pattern dictionary unit 34: operation pattern judgment Part 62: Back of hand 64: Display

Claims (6)

指の空間的な動作を検出し、当該検出した動作に対応する入力コードを出力する入力装置において、
利用者の指又は手の装着部に装着されて前記指の前記動作を検出する検出手段と、
前記検出手段により検出された動作に対応する入力コードを出力する出力手段と、
前記検出手段が装着されている前記装着部に係る指又は手に装着されて前記出力手段から出力される入力コードを表示する表示手段と、を含み、
前記出力手段は、前記検出手段により検出された動作に基づき、選択される入力コードの候補を特定し、
前記表示手段は、前記特定された入力コードの候補を表示することを特徴とする入力装置。
In an input device that detects spatial movement of a finger and outputs an input code corresponding to the detected movement,
Detecting means for detecting the movement of the finger by being mounted on a user's finger or hand mounting portion;
Output means for outputting an input code corresponding to the operation detected by the detection means;
Display means for displaying an input code output from the output means by being attached to a finger or a hand related to the attachment portion to which the detection means is attached,
The output means specifies a candidate of an input code to be selected based on the operation detected by the detection means,
The display unit displays the identified input code candidates.
請求項1に記載の入力装置において、
前記出力手段は、指の動作の対象となるキーボードのパターンのキーのうち、指ごとに予め設定されているキーに対応する入力コードを、選択される入力コードの候補として特定し、
前記表示手段は、前記特定された、指ごとに予め設定されているキーに対応する入力コードの候補を表示することを特徴とする入力装置。
The input device according to claim 1,
The output means identifies an input code corresponding to a key set in advance for each finger among keys of a keyboard pattern that is a target of finger movement as a candidate of an input code to be selected,
The display device displays input code candidates corresponding to the specified keys preset for each finger.
請求項1又は2に記載の入力装置において、
前記検出手段は、当該検出手段が装着されている前記指について予め設定されているX軸、Y軸、及びZ軸の各々について当該指の前記動作により発生する加速度を検出して前記動作を検出する加速度センサであり、
前記出力手段は、前記加速度センサにより検出された動作の方向に基づき、選択される入力コードの候補を特定することを特徴とする入力装置。
The input device according to claim 1 or 2,
The detection means detects the movement by detecting acceleration generated by the movement of the finger for each of the X axis, the Y axis, and the Z axis set in advance for the finger on which the detection means is mounted. Acceleration sensor
The input device is characterized in that a candidate for an input code to be selected is specified based on a direction of motion detected by the acceleration sensor.
請求項1乃至3のうちいずれか1項に記載の入力装置において、
前記表示手段は、前記特定された入力コードの候補を予め設定された時間だけ表示することを特徴とする入力装置。
The input device according to any one of claims 1 to 3,
The input device displays the specified input code candidate for a preset time.
請求項1乃至4のうちいずれか1項に記載の入力装置において、
前記出力手段は、前記検出手段により検出された動作に基づき、前記特定された入力コードの候補から、入力コードを決定することを特徴とする入力装置。
The input device according to any one of claims 1 to 4,
The input unit determines an input code from the identified input code candidates based on the operation detected by the detection unit.
請求項1乃至5のうちいずれか1項に記載の入力装置において、
前記表示手段は、指又は手に装着されていることを特徴とする入力装置。
The input device according to any one of claims 1 to 5,
The input device, wherein the display means is attached to a finger or a hand.
JP2009131320A 2009-05-29 2009-05-29 Input device Withdrawn JP2010277469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009131320A JP2010277469A (en) 2009-05-29 2009-05-29 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009131320A JP2010277469A (en) 2009-05-29 2009-05-29 Input device

Publications (1)

Publication Number Publication Date
JP2010277469A true JP2010277469A (en) 2010-12-09

Family

ID=43424348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009131320A Withdrawn JP2010277469A (en) 2009-05-29 2009-05-29 Input device

Country Status (1)

Country Link
JP (1) JP2010277469A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003782A (en) * 2011-06-15 2013-01-07 Shiseido Co Ltd Movement detection sensor
CN104679270A (en) * 2013-12-02 2015-06-03 财团法人工业技术研究院 System and method for receiving user input, program storage medium and program therefor
JP2016057653A (en) * 2014-09-05 2016-04-21 勇介 堀田 Input system and input device
JP2016134063A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Wearable computer, command setting method and command setting program
US9857971B2 (en) 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003782A (en) * 2011-06-15 2013-01-07 Shiseido Co Ltd Movement detection sensor
CN104679270A (en) * 2013-12-02 2015-06-03 财团法人工业技术研究院 System and method for receiving user input, program storage medium and program therefor
US9857971B2 (en) 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
CN104679270B (en) * 2013-12-02 2018-05-25 财团法人工业技术研究院 System and method for receiving user input, program storage medium and program therefor
JP2016057653A (en) * 2014-09-05 2016-04-21 勇介 堀田 Input system and input device
JP2016134063A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Wearable computer, command setting method and command setting program

Similar Documents

Publication Publication Date Title
US10042438B2 (en) Systems and methods for text entry
CN100587790C (en) Data input device
JP6329469B2 (en) Recognition device, recognition method, and recognition program
EP2975497B1 (en) Terminal device, terminal device control method, and program
JP5802667B2 (en) Gesture input device and gesture input method
CN102317892B (en) The method of control information input media, message input device, program and information storage medium
US20120068925A1 (en) System and method for gesture based control
JP2010277469A (en) Input device
US20090267805A1 (en) Control apparatus and electronic device using the same
KR20170035547A (en) Remote controll device, remote controll method and remote controll system
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
CN101048725A (en) An apparatus and a method for tapping input to an electronic device, including an attachable tapping template
JP2012073830A (en) Interface device
JP2008203911A (en) Pointing device and computer
US20170212596A1 (en) Systems and methods for determining input movement
KR100499391B1 (en) Virtual input device sensed finger motion and method thereof
CN105975091A (en) Virtual keyboard human-computer interaction technology based on inertial sensor
JP6127679B2 (en) Operating device
JP2011060273A (en) Portable type electronic device
CN106896941B (en) Wearable device, control method thereof and display terminal
CN102736829A (en) Touch device with virtual keyboard and method for forming virtual keyboard
JP6270557B2 (en) Information input / output device and information input / output method
CN1514341A (en) Device possessing character input function and method
US20070013658A1 (en) Wireless indicating apparatus
JP2011170747A (en) Information input device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807