JP2010277469A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2010277469A JP2010277469A JP2009131320A JP2009131320A JP2010277469A JP 2010277469 A JP2010277469 A JP 2010277469A JP 2009131320 A JP2009131320 A JP 2009131320A JP 2009131320 A JP2009131320 A JP 2009131320A JP 2010277469 A JP2010277469 A JP 2010277469A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- input
- input code
- display
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、入力装置の技術分野に属し、より詳細には、指の空間的な動作を検出し、当該検出した動作に対応する入力コードを出力する入力装置の技術分野に属する。 The present invention belongs to the technical field of an input device, and more specifically, to the technical field of an input device that detects a spatial motion of a finger and outputs an input code corresponding to the detected motion.
コンピュータ装置等において、アルファベット等の文字を入力する際の入力装置として、各文字に対応し指により操作されるキーが配列されたキーボードが使用されている。このキーボードは、その配置のためのスペースが必要であり、省スペースの観点からキーボードの小型化が望まれている。しかし、キーボードのキーが指により操作される点を考慮すると、操作性の観点から、キーボードの小型化には限界がある。 2. Description of the Related Art A computer device or the like uses a keyboard on which keys operated by a finger corresponding to each character are arranged as an input device for inputting characters such as alphabets. This keyboard requires a space for its arrangement, and it is desired to reduce the size of the keyboard from the viewpoint of space saving. However, considering that the keyboard keys are operated by fingers, there is a limit to downsizing the keyboard from the viewpoint of operability.
そこで、現在、入力装置として、キーボードの配置のためのスペースが不要である仮想キーボード装置が提案されている。この種のキーボード装置では、指にセンサを装着し、当該センサにより指の空間的な動作を検出し、当該検出した動作に対応する入力コードが出力される。このような仮想キーボード装置に関する従来技術は、例えば、下記特許文献1乃至特許文献2に記載されている。 Therefore, a virtual keyboard device that does not require a space for keyboard layout has been proposed as an input device. In this type of keyboard device, a sensor is attached to a finger, a spatial motion of the finger is detected by the sensor, and an input code corresponding to the detected motion is output. Conventional techniques relating to such a virtual keyboard device are described, for example, in Patent Documents 1 to 2 listed below.
特許文献1では、仮想キーボード装置において、指に指輪型センサを装着し、机等の支持物体を指先で叩いたときの衝撃等を当該センサで検出する。このセンサからの検出信号に基づき、指により入力されるべき文字あるいは動作を認識する。また、特許文献2では、手の機能が制限された人用のデータ入力デバイスにおいて、指の動きを検出する曲げセンサを有する手袋を手に装着し、指の動きに応じた曲げセンサからの検出信号に基づいて、キーボードのキー入力として指の動きを認識する。 In Patent Literature 1, in a virtual keyboard device, a ring-type sensor is attached to a finger, and an impact or the like when a supporting object such as a desk is hit with a fingertip is detected by the sensor. Based on the detection signal from the sensor, the character or action to be input by the finger is recognized. Further, in Patent Document 2, in a data input device for humans with limited hand functions, a glove having a bending sensor for detecting finger movement is worn on the hand, and detection from the bending sensor corresponding to the finger movement is performed. Based on the signal, the movement of the finger is recognized as a key input of the keyboard.
上記特許文献1乃至特許文献2に開示された仮想キーボード装置においては、実際のキーボードが存在しないので、入力操作者は、入力された入力コードが机上等に設置された表示器に表示されるまで、どの入力コードが入力されたかを認識することができない。このため、特に、タッチタイピングに慣れていない入力操作者にとって、仮想キーボード装置への入力操作が困難であった。 In the virtual keyboard device disclosed in Patent Documents 1 and 2, since there is no actual keyboard, the input operator can display the input code that has been input on a display installed on a desk or the like. , Which input code is input cannot be recognized. For this reason, in particular, an input operation to the virtual keyboard device is difficult for an input operator who is not used to touch typing.
本発明は、上記の問題点等に鑑みて為されたものであり、その目的の一例は、入力操作を容易に行うことができる入力装置を提供することにある。 The present invention has been made in view of the above-described problems and the like, and an example of the object is to provide an input device capable of easily performing an input operation.
上記の課題を解決するために、請求項1に記載の発明は、指の空間的な動作を検出し、当該検出した動作に対応する入力コードを出力する入力装置において、利用者の指又は手の装着部に装着されて前記指の前記動作を検出する検出手段と、前記検出手段により検出された動作に対応する入力コードを出力する出力手段と、前記検出手段が装着されている前記装着部に係る指又は手に装着されて前記出力手段から出力される入力コードを表示する表示手段と、を含み、前記出力手段は、前記検出手段により検出された動作に基づき、選択される入力コードの候補を特定し、前記表示手段は、前記特定された入力コードの候補を表示することを特徴とする入力装置である。 In order to solve the above problems, the invention according to claim 1 is directed to an input device that detects a spatial motion of a finger and outputs an input code corresponding to the detected motion. Detecting means for detecting the movement of the finger by being mounted on the mounting section, output means for outputting an input code corresponding to the motion detected by the detecting means, and the mounting section on which the detecting means is mounted Display means for displaying an input code output from the output means when worn on a finger or a hand according to the output means, wherein the output means is based on an action detected by the detection means. A candidate is specified, and the display means displays the specified input code candidate.
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の入力装置において、前記出力手段は、指の動作の対象となるキーボードのパターンのキーのうち、指ごとに予め設定されているキーに対応する入力コードを、選択される入力コードの候補として特定し、前記表示手段は、前記特定された、指ごとに予め設定されているキーに対応する入力コードの候補を表示することを特徴とする入力装置である。 In order to solve the above problem, the invention according to claim 2 is the input device according to claim 1, wherein the output means is a finger among keys of a keyboard pattern to be operated by a finger. An input code corresponding to a key set in advance is specified as a candidate of an input code to be selected, and the display means is configured to input an input code corresponding to the specified key set in advance for each finger. An input device that displays candidates.
上記の課題を解決するために、請求項3に記載の発明は、請求項1又は2に記載の入力装置において、前記検出手段は、当該検出手段が装着されている前記指について予め設定されているX軸、Y軸、及びZ軸の各々について当該指の前記動作により発生する加速度を検出して前記動作を検出する加速度センサであり、前記出力手段は、前記加速度センサにより検出された動作の方向に基づき、選択される入力コードの候補を特定することを特徴とする入力装置である。
In order to solve the above-mentioned problem, the invention according to
上記の課題を解決するために、請求項4に記載の発明は、請求項1乃至3のうちいずれか1項に記載の入力装置において、前記表示手段は、前記特定された入力コードの候補を予め設定された時間だけ表示することを特徴とする入力装置である。 In order to solve the above-described problem, the invention according to claim 4 is the input device according to any one of claims 1 to 3, wherein the display means displays the specified input code candidate. An input device that displays only for a preset time.
上記の課題を解決するために、請求項5に記載の発明は、請求項1乃至4のうちいずれか1項に記載の入力装置において、前記出力手段は、前記検出手段により検出された動作に基づき、前記特定された入力コードの候補から、入力コードを決定することを特徴とする入力装置である。 In order to solve the above-mentioned problem, the invention according to claim 5 is the input device according to any one of claims 1 to 4, wherein the output means is an operation detected by the detection means. An input device is characterized in that an input code is determined from the identified input code candidates.
上記の課題を解決するために、請求項6に記載の発明は、請求項1乃至5のうちうちずれか1項に記載の入力装置において、前記表示手段は、指又は手に装着されていることを特徴とする入力装置である。
In order to solve the above-mentioned problem, the invention according to
請求項1に記載の発明によれば、入力操作者は、指又は手に装着された表示手段を見ることにより、選択される入力コードの候補を認識することができるので、入力操作を容易に行うことができる。特に、タッチタイピングに慣れていない入力操作者とって、入力操作を容易に行うことができる。 According to the first aspect of the present invention, since the input operator can recognize the input code candidate to be selected by looking at the display means attached to the finger or hand, the input operation can be easily performed. It can be carried out. In particular, an input operator who is not familiar with touch typing can easily perform an input operation.
請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、入力操作者は、どの指でタイピング動作をすればどのキーが入力されるかを操作前に知ることができる。 According to the invention described in claim 2, in addition to the effect of the invention described in claim 1, the input operator knows which key is input with which finger and which key is input before the operation. Can do.
請求項3に記載の発明によれば、請求項1又は2に記載の発明の効果に加えて、出力手段は、検出されたX軸、Y軸、及びZ軸の動作の方向に基づいて、選択される入力コードの候補を正確に特定することができる。
According to the invention described in
請求項4に記載の発明によれば、請求項1乃至3のうちいずれか1項に記載の発明の効果に加えて、表示手段は、特定された入力コードの候補を予め設定された時間だけ表示するので、選択されない入力コードの候補が不必要に長時間にわたって表示され続けるという事態を防止することができる。 According to the invention described in claim 4, in addition to the effect of the invention described in any one of claims 1 to 3, the display means displays the specified input code candidates for a preset time. Since it is displayed, it is possible to prevent a situation in which unselected input code candidates are displayed unnecessarily for a long time.
請求項5に記載の発明によれば、請求項1乃至4のうちいずれか1項に記載の発明の効果に加えて、特定された入力コードの候補から入力コードを決定するので、入力操作者は、入力コードの決定を容易に行うことができる。 According to the invention described in claim 5, in addition to the effect of the invention described in any one of claims 1 to 4, since the input code is determined from the identified input code candidates, the input operator Can easily determine the input code.
請求項6に記載の発明によれば、請求項1乃至5のうちいずれか1項に記載の発明の効果に加えて、入力操作者は、指又は手に装着された表示手段を見ることにより、選択される入力コードの候補を容易に認識することができる。
According to the invention described in
以下、本発明を実施するための形態について、図面を参照しながら説明する。なお、以下に説明する実施の形態は、仮想キーボード装置に対して本発明を適用した場合の実施の形態である。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to a virtual keyboard device.
仮想キーボード装置の概略
まず、仮想キーボード装置の概略について説明する。
Outline of Virtual Keyboard Device First, an outline of a virtual keyboard device will be described.
図1には、仮想キーボード装置の構成が示されている。図1において、利用者の装着部としての左手10L及び右手10Rの指14−1乃至14−5及び14−6乃至14−10には、それぞれ、指センサ16−1乃至16−5及び16−6乃至16−10が装着されている。この指センサ16は、指14の空間的な動作に伴って変化する動作信号を検出するセンサであり、例えば、加速度センサ又はジャイロセンサから構成されている。なお、指センサ16の詳細については、後述する。左手10L及び右手10Rの例えば手の甲には、それぞれ、データ収集部18、20が装着されており、当該データ収集部18、20には、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号がハーネス22−1乃至22−5及び22−6乃至22−10を介して供給される。データ収集部18、20は、それぞれ、無線部24、26を有しており、当該無線部24、26からの動作信号は、入力コード出力部28の無線部30に受信される。なお、データ収集部18、20に収集された動作信号は有線(ハーネス)を介して、入力コード出力部28に受信されてもよい。
FIG. 1 shows the configuration of the virtual keyboard device. In FIG. 1, finger sensors 16-1 to 16-5 and 16-are respectively attached to the fingers 14-1 to 14-5 and 14-6 to 14-10 of the
入力コード出力部28は、無線部30に加え、動作パターン辞書部32、及び動作パターン判断部34を備えている。動作パターン辞書部32は、指14の動作信号のパターンを示すパターン情報とこれに対応する入力コードとの関係を記憶する記憶部である。
The input
なお、前記動作パターン辞書部32の詳細については、仮想キーボード装置の概略の項目の最後に記載する。
The details of the operation
前記動作パターン判断部34は、前記動作パターン辞書部32に記憶されているパターン情報に対応する動作信号と、前記無線部30から供給された動作信号とを比較し、検出された動作信号に対応する入力コードを出力する。前記出力された入力コードは、入力コード出力部28に設けられた無線部36から、文字表示器38の無線部40に送信される。文字表示器38は、表示部42を有しており、当該表示部42には、指14の動作により入力された入力コードとして例えば文字コード44が表示される。なお、この場合も、入力コード出力部28と文字表示器38は有線(ハーネス)で接続され、通信されてもよい。
The motion
図2には、仮想キーボード装置の他の構成が示されている。前記図1の構成では、左手10L及び右手10Rにそれぞれデータ収集部18、20が装着されていたが、図2の構成では、データ収集部が設けられていない。そして、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号は、ハーネス22−1乃至22−5及び22−6乃至22−10を介して、入力コード出力部28の動作パターン判断部34に供給されることとなる。
FIG. 2 shows another configuration of the virtual keyboard device. In the configuration of FIG. 1, the
図3には、前記指センサ16の例として加速度センサが示されている。図3において、指センサ16は、3軸加速度センサであり、X軸、Y軸、及びZ軸のそれぞれについて指の動作による加速度を検出する。なお、Z軸は、重力加速度の方向45を示す。
FIG. 3 shows an acceleration sensor as an example of the
図4には、指14の静止状態での指センサ16の出力電圧の例が示されている。図4において、Z軸方向の出力電圧は、X軸方向及びY軸方向の出力電圧と比較して、重力加速度分(符号46を参照)だけ異なることが分かる。
FIG. 4 shows an example of the output voltage of the
図5には、空間内でキー押下げ動作をした時の指センサ16の出力電圧が示されている。図5は、仮想キーボードにおいて文字Qのキーを押下げるように左手10Lの指14を動作させた場合の指センサ16の出力電圧を示している。なお、本発明の仮想キーボードのキー配列はJIS配列を採用している。図5の上段、中段、及び下段のグラフは、それぞれ、小指14−5、薬指14−4、及び親指14−1に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧を示す。なお、他の指14に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧については、図示を省略する。そして、図5において、文字Qのキーを押下げる際(符合48で示す時間を参照)には、小指14−5の動作が大きく、すなわち、図5の上段に示されるように、小指14−5に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧の変化は、他の指に装着された指センサ16のX軸方向、Y軸方向、及びZ軸方向の出力電圧の変化と比較して、大きいことが分かる。
FIG. 5 shows the output voltage of the
図6には、動作パターン判断部34を含む入力コード出力部28の構成が示されている。図6において、例えば左手について考えると、指14のそれぞれについて指センサ16が装着され、1つの指センサ16は、3軸(X軸、Y軸、及びZ軸)の動作信号を出力する。従って、動作パターン判断部34には、5×3=15個の動作信号50が供給される。なお、15個の動作信号50、すなわち、15個のデータを、ニューラルネットワークを用いて各文字52にマッピングすることにより学習を行い、動作パターン辞書部32における辞書パターンを作成又は更新する。この学習動作について、図7を用いて説明する。
FIG. 6 shows the configuration of the input
図7には、仮想キーボード装置の学習動作を示すフローチャートが示されている。図7において、ステップS10で電源をオンにし、ステップS12に進む。そして、ステップS12で仮想キーボード装置の処理により、学習モードであると判断した場合、ステップS14に進み、キーボードを入力コード出力部28(図1、2を参照)に接続する。 FIG. 7 shows a flowchart showing the learning operation of the virtual keyboard device. In FIG. 7, the power is turned on in step S10, and the process proceeds to step S12. If it is determined in step S12 that the learning mode is set by the processing of the virtual keyboard device, the process proceeds to step S14, and the keyboard is connected to the input code output unit 28 (see FIGS. 1 and 2).
なお、図7のフローチャートにおいて、前記ステップS12、及び後述するステップS26、S40、及びS44における仮想キーボード装置の処理について説明すると、データ収集部18若しくは20に操作ボタン18A若しくは20Aを設け(図1を参照)、入力操作者(すなわち利用者)は、判断に応じた操作を当該操作ボタン18A若しくは20Aに対して行い、仮想キーボード装置は、当該操作ボタン18A若しくは20Aに対して行われた操作に応じた判断を行う。
In the flowchart of FIG. 7, the processing of the virtual keyboard device in step S12 and steps S26, S40, and S44 described later will be described.
ステップS16でキーボードを打鍵し、ステップS18で、この打鍵時の指センサ16の加速度データの読み込みを行い、ステップS20で、加速度データの必要個所のデータ加工(例えば加速度データの変化時点から±500msにおけるデータ加工)を行う。
In step S16, the keyboard is pressed. In step S18, acceleration data of the
なお、データ加工について説明すると、各指における指センサ16の加速度のデータを100msごとに平均値を算出し,これを一列につなげたものをデータ加工されたデータとすることである。
Note that the data processing is to calculate the average value of the acceleration data of the
ステップS22で、ニューラルネットワークで学習し、ステップS24で、新しい辞書パターンを構築し、ステップS26で仮想キーボード装置の処理により学習終了でないと判断した場合、ステップS16に戻り、一方、ステップS26で仮想キーボード装置の処理により学習終了であると判断した場合、ステップS28に進む。なお、前記ステップS12で仮想キーボード装置の処理により学習モードでないと判断した場合、ステップS28に進む。 In step S22, learning is performed with a neural network. In step S24, a new dictionary pattern is constructed. When it is determined in step S26 that the learning is not completed by the processing of the virtual keyboard device, the process returns to step S16. If it is determined by the processing of the device that the learning has ended, the process proceeds to step S28. If it is determined in step S12 that the learning mode is not set by the processing of the virtual keyboard device, the process proceeds to step S28.
ステップS28で、指センサ16の加速度データの読込みが行われ、ステップS30で、加速度データをデータテーブル値と比較し、手、指が動いたか否かが判断される。ステップS30でNoの場合には、ステップS28に戻り、一方、ステップS30でYesの場合には、ステップS32に進み、加速度データの必要個所のデータ加工(例えば加速度データの変化時点から±500msにおけるデータ加工)を行う。
In step S28, acceleration data of the
なお、データ加工について説明すると、各指における指センサ16の加速度のデータを100msごとに平均値を算出し,これを一列につなげたものをデータ加工されたデータとすることである。
Note that the data processing is to calculate the average value of the acceleration data of the
ステップS34で、加速度データに基づく指の動作がデータベースとして保有されている辞書パターンと比較され、ステップS36で、最も近い入力コードに対応した入力コードが出力され、ステップS38で、当該入力コードは、パーソナルコンピュータ等の文字出力機器に送信され、ステップS40に進む。 In step S34, the finger movement based on the acceleration data is compared with a dictionary pattern held as a database. In step S36, an input code corresponding to the closest input code is output. In step S38, the input code is The data is transmitted to a character output device such as a personal computer, and the process proceeds to step S40.
ステップS40で仮想キーボード装置の処理により入力を継続しないと判断した場合には、ステップS42で電源がオフにされ、一方、ステップS40で仮想キーボード装置の処理により入力を継続すると判断した場合には、ステップS44に進む。ステップS44で、仮想キーボード装置の処理により正確な文字入力がされていると判断した場合には、ステップS28に進み、一方、ステップS44で、仮想キーボード装置の処理により正確な文字入力がされていないと判断した場合には、ステップS12に進む。 If it is determined in step S40 that the input is not continued due to the process of the virtual keyboard device, the power is turned off in step S42. On the other hand, if it is determined in step S40 that the input is continued due to the process of the virtual keyboard device, Proceed to step S44. If it is determined in step S44 that the correct character input has been performed by the processing of the virtual keyboard device, the process proceeds to step S28, while the correct character input has not been performed by the processing of the virtual keyboard device in step S44. If it is determined, the process proceeds to step S12.
次に、図8には、仮想キーボード装置を含むシステムが示されている。図8において、各指に装着される指センサ16からの動作信号は、動作パターン判断部34に供給され、当該動作パターン判断部34は、指センサ16からの動作信号と、動作パターン辞書部32に記憶されているパターン情報に対応する動作信号とを比較し、検出された動作信号に対応する入力コードをパーソナルコンピュータ56に供給する。パーソナルコンピュータ56は、入力コードを表示装置58に出力し、入力コードにより示される文字、例えばA、B、C、・・・の列59が表示装置58の表示画面60に表示されるようにする。
Next, FIG. 8 shows a system including a virtual keyboard device. In FIG. 8, the motion signal from the
なお、図9には、指14に指センサ16が装着された状態が示されている。図9において、指14に装着された指センサ16は、3軸(X軸、Y軸、及びZ軸)の加速度センサであり、X軸、Y軸、及びZ軸は、それぞれ、指センサ16のX軸、Y軸、及びZ軸を示す。図9では、指センサ16は重力方向に対して角度αだけ傾斜しているため、指センサ16のY’軸方向の加速度Y’及びZ’軸方向の加速度Z’は、Y軸方向の加速度Y及びZ軸の加速度Zに基づき、それぞれ、以下の(1)、(2)のように示される。
Y’=Z*Cosβ―Y*Sinβ・・・式(1)
Z’=Z*Cosα+Y*Cosβ・・・式(2)
FIG. 9 shows a state in which the
Y ′ = Z * Cosβ−Y * Sinβ Expression (1)
Z ′ = Z * Cosα + Y * Cosβ Formula (2)
ここで、前記動作パターン辞書部32に記憶されている動作パターンの詳細について説明すると、動作パターン辞書部32には、指の動作パターンとこれに対応する入力コードとの関係が記憶されており、すなわち、指の動作パターンにより決定される指の移動方向とこれに対応する入力コードとの関係が記憶されている。
Here, the details of the operation pattern stored in the operation
図18は、動作パターン辞書部32に記憶されている、指が左方向に移動する際の動作パターンを示しており、図18(A)は、X’軸方向の動作パターンを示し、図18(B)は、Y’軸方向の動作パターンを示す。なお、Y’軸方向の意味は、前記式(1)及び式(2)の説明で述べたところである。また、X’軸方向は、元のX軸方向と同一である。
FIG. 18 shows an operation pattern stored in the operation
同様にして、図19は、指が右方向に移動する際の動作パターンを示し、図20は、指がまっすぐ先の方向に移動する際の動作パターンを示し、図21は、指がまっすぐ手前の方向に移動する際の動作パターンを示し、図22は、指が左先の方向に移動する際の動作パターンを示し、図23は、指が右先の方向に移動する際の動作パターンを示し、図24は、指が左手前の方向に移動する際の動作パターンを示し、図25は、指が右手前の方向に移動する際の動作パターンを示す。 Similarly, FIG. 19 shows an operation pattern when the finger moves rightward, FIG. 20 shows an operation pattern when the finger moves straight ahead, and FIG. 21 shows a finger straight ahead. 22 shows an operation pattern when the finger moves in the left direction, FIG. 22 shows an operation pattern when the finger moves in the left direction, and FIG. 23 shows an operation pattern when the finger moves in the right direction. 24 shows an operation pattern when the finger moves in the left front direction, and FIG. 25 shows an operation pattern when the finger moves in the right front direction.
前記動作パターン判断部34は、前記図18乃至図25に示されるように、指センサ16の出力電圧に基づくX’軸方向の出力電圧が閾値1を上方に(+方向に)突破する状況又は閾値2を下方に(−方向に)突破する状況、及びY’軸方向の出力電圧が閾値1を上方に(+方向に)突破する状況又は閾値2を下方に(−方向に)突破する状況に基づいて、指の動作パターンを検出し、当該検出された指の動作パターンにより決定される指の移動方向に基づいて、対応する入力コードを出力する。
As shown in FIG. 18 to FIG. 25, the motion
本願の実施の形態による入力装置
本願の実施の形態による入力装置について説明すると、本願の実施の形態による入力装置において、動作パターン判断部34(図1、2、6、及び8を参照)は、指センサ16(図1、2、3、8、及び9を参照)からの検出信号(すなわち指の動作の加速度)に基づき、選択される入力コードの候補を特定する。一方、図10に示されるように、手10の甲62には、ディスプレイ64が装着されており、当該ディスプレイ64は、前記動作パターン判断部34により特定された入力コードの候補を表示するようになっている。なお、動作パターン判断部34とディスプレイ64とは、有線(ハーネス)で接続されてもよく、あるいは無線で接続されてもよい。
Input Device According to the Embodiment of the Present Application The input device according to the embodiment of the present application will be described. In the input device according to the embodiment of the present application, the operation pattern determination unit 34 (see FIGS. 1, 2, 6, and 8) Based on a detection signal (that is, acceleration of finger movement) from the finger sensor 16 (see FIGS. 1, 2, 3, 8, and 9), a candidate of an input code to be selected is specified. On the other hand, as shown in FIG. 10, a
以下、指センサ16からの検出信号に基づき、選択される入力コードの候補を特定して表示する方法について説明する。
Hereinafter, a method for specifying and displaying a candidate of an input code to be selected based on a detection signal from the
まず、図11には、キーボードのキーパターンが示されており、符号66、68、70、72、及び74は、それぞれ、左小指、左薬指、左中指、左人指し指、及び左親指が担当するキーを示し、符号76、78、80、82、及び84は、それぞれ、右小指、右薬指、右中指、右人指し指、及び右親指が担当するキーを示す。このように、各手の各指が担当するキーは、予め設定されており、本願の実施の形態による入力装置では、指センサ16からの検出信号に基づき、指ごとに予め設定されているキーに対応する入力コードの中から、選択される入力コードの候補を特定し、ディスプレイ64に表示する。
First, FIG. 11 shows a keyboard key pattern.
図12には、左人指し指が担当するキー(6、7、T、Y、F、G、V、及びBの各キー)が示されており、図12では、指センサ16からの検出信号に基づき、指ごとに予め設定されているキー(6、7、T、Y、F、G、V、及びBの各キー)に対応する入力コードの中から、選択される入力コードの候補を特定し、手の甲に装着されたディスプレイ64(図10を参照)に表示する。すなわち、図12において、初期位置86に隣接する各キー(T、Y、F、及びGの各キー)は、指センサ16からの検出信号に基づき、1回の加速度が検出された移動方向(矢印88、90、92、及び94を参照)により候補として特定され、ディスプレイ64に表示される。
FIG. 12 shows keys (6, 7, T, Y, F, G, V, and B keys) that the left index finger is in charge of. FIG. 12 shows detection signals from the
ここで、前記1回とは、指センサ16のセンサ値が閾値(前記図18乃至図25の閾値1及び閾値2を参照)を突破する時刻から±250msの区間をいう。
Here, the term “once” refers to an interval of ± 250 ms from the time when the sensor value of the
なお、入力装置が前記初期位置86をどのように判断するかについて説明すると、一定時間以上、指センサ16からのセンサデータに変化が見られないこと、または後述する図17のステップS54で取得した初期位置のデータと指センサ16からのセンサデータが一定時間以上一致したことに基づき、前記初期位置86が判断される。
Note that how the input device determines the
一方、それ以外の各キー(6、7、V、及びBの各キー)は、指センサ16からの検出信号に基づき、2回の加速度が検出された移動方向により候補として特定され、ディスプレイ64に表示される。
On the other hand, the other keys (6, 7, V, and B keys) are identified as candidates based on the movement direction in which two accelerations are detected based on the detection signal from the
なお、前記2回とは、候補を表示してから,次に指センサ16のセンサ値が閾値(前記図18乃至図25の閾値1及び閾値2を参照)を突破する時刻から±250msの区間をいう。
Note that the second time is a period of ± 250 ms from the time when the sensor value of the
ここで、6、及び7の各キーについては、1回目の加速度が検出された移動方向96、及び2回目の加速度が検出された移動方向(左方向又は右方向)により候補として特定され、一方、V、及びBの各キーについては、1回目の加速度が検出された移動方向98、及び2回目の加速度が検出された移動方向(左方向又は右方向)により候補として特定される。以下、図13乃至図16を参照しながら、7のキーが、選択される入力コードの候補として特定され、ディスプレイ64に表示される方法を説明する。
Here, the
図13において、左人指し指が位置86から矢印96の方向に位置104まで移動すると、1回の加速度が検出された移動方向から、選択される入力コードの候補として6、及び7のキーが特定される。
In FIG. 13, when the left index finger moves from
これにより、図14に示されるように、ディスプレイ64には、選択される入力コードの候補として6、及び7が表示される。図14において、6の左側に表示される左方向の矢印は、左人指し指を現在の位置から左方向に移動すると、6のキーに到達することを示し、7の左側に表示される右方向の矢印は、左人指し指を現在の位置から右方向に移動すると、7のキーに到達することを示し、キャンセルの左側に表示される手前方向の矢印は、左人指し指を現在の位置から手前方向に移動すると、候補としての6、及び7がキャンセルされることを示す。
Thereby, as shown in FIG. 14, 6 and 7 are displayed on the
その後、図15に示されるように、左人指し指を位置104から矢印106の方向に移動すると、選択される入力コードの候補として7のキーが特定される。これにより、図16に示されるように、ディスプレイ64には、選択される入力コードの候補として7が表示される。なお、キャンセルの左側に表示される左方向の矢印は、左人指し指を現在の位置から左方向に移動すると、候補としての7がキャンセルされることを示す。
After that, as shown in FIG. 15, when the left index finger is moved from the
次に、図17には、本願の実施の形態による入力装置の作用がフローチャートにて示されている。図17において、ステップS50でスタートする。 Next, FIG. 17 is a flowchart showing the operation of the input device according to the embodiment of the present application. In FIG. 17, the process starts in step S50.
ここで、スタートについて説明すると、電源のON時,またはキーボードモード時にスタートするように設定されている。 Here, the start will be described. It is set to start when the power is turned on or in the keyboard mode.
ステップS52でディスプレイが指の初期位置の要求を表示し、ステップS54で所定時間経過したら、初期位置を決定し、指の軸の傾き(図9を参照)を算出し、ステップS56に進む。ステップS56で初期位置を決定したことをディスプレイが表示し、ステップS58で指センサ16の値が変化するかが判断される。ステップS58でNoの場合には、ステップS56に戻り、一方、ステップS58でYesの場合には、ステップS60に進み、加速度の向きから利用者が押したいキーを入力装置が推理してキーの候補を表示し(図16を参照)、ステップS62に進む。ステップS62では、入力装置は、加速度の値がクリックしたときの値であるかを判断する(すなわち利用者が仮想キーを押したかが判断される)。
In step S52, the display displays a request for the initial position of the finger. When a predetermined time has elapsed in step S54, the initial position is determined, the inclination of the finger axis (see FIG. 9) is calculated, and the process proceeds to step S56. The display indicates that the initial position has been determined in step S56, and it is determined whether the value of the
ここで、前記クリック動作の判断方法について説明する。図26には、動作パターン辞書部32に記憶されている、指がクリック動作を行う際のZ’軸方向の動作パターンが示されており、ここで、Z’軸方向の意味は、前記式(1)及び式(2)の説明で述べたところである。前記動作パターン判断部34は、図26に示されるように、指センサ16の出力電圧に基づくZ’軸方向の出力電圧が、閾値1を上方に(+方向に)突破しその後に閾値2を下方に(−方向に)突破する状況を検出することにより、指がクリック動作を行ったことを判断する。
Here, a method for determining the click operation will be described. FIG. 26 shows an operation pattern in the Z′-axis direction when the finger performs a click operation, which is stored in the operation
前記ステップS62でYesの場合には、ステップS64に進み、打鍵した仮想キーを決定し、決定したキーをディスプレイに表示し、ステップS52に戻る。なお、前記ステップS62でNoの場合には、ステップS66に進み、キーの候補を表示してから所定時間経過したかが判断され、ステップS66でNoの場合には、ステップS60に戻り、キーの候補がディスプレイに表示され続ける。一方、ステップS66でYesの場合には、ステップS68でキーの候補をディスプレイから消去し、ステップS52に戻る。なお、ステップS66における所定時間は、ディスプレイに表示されたキーの候補が利用者が望むキーであるかを判断するための時間であり、例えば、約1秒に設定されることが可能である。 In the case of Yes in step S62, the process proceeds to step S64, the virtual key that has been pressed is determined, the determined key is displayed on the display, and the process returns to step S52. If No in step S62, the process proceeds to step S66 to determine whether a predetermined time has elapsed since the key candidate was displayed. If no in step S66, the process returns to step S60, Candidates continue to appear on the display. On the other hand, if Yes in step S66, the key candidate is deleted from the display in step S68, and the process returns to step S52. The predetermined time in step S66 is a time for determining whether the key candidate displayed on the display is the key desired by the user, and can be set to about 1 second, for example.
なお、上記図17のフローチャートは、片手の指の動作について示したものであり、本願を実施する際には、左右の両手の指の動作についてそれぞれフローチャートを準備することが好ましい。 Note that the flowchart of FIG. 17 shows the operation of the finger of one hand, and it is preferable to prepare a flowchart for the operation of the fingers of both the left and right hands when implementing the present application.
次に、入力コードの候補を特定して表示する方法の詳細を説明する。 Next, details of a method for specifying and displaying input code candidates will be described.
図27には、前記図17のフローチャート図におけるステップS60乃至S62の動作の詳細が示されている。 FIG. 27 shows details of operations in steps S60 to S62 in the flowchart of FIG.
図27において、ズテップS60は、図17のフローチャート図におけるステップS60を示し、次のステップS100では、クリック判断が出ているか判断される。ステップS100でNoの場合には、ステップS102に進み、センサ値が変化したかが判断される。ステップS102でNoの場合には、ステップS100に戻るが、ステップS102でYesの場合には、ステップS104に進み、候補表示処理が行われる。このステップS104の候補表示処理では、動作パターン判断部34は、動作パターン辞書部32に記憶されている動作パターン及び指センサ16のセンサ値に基づいて、候補表示処理を行うが、その詳細については後述する。
In FIG. 27, step S60 indicates step S60 in the flowchart of FIG. 17, and in the next step S100, it is determined whether a click determination has been made. If No in step S100, the process proceeds to step S102, and it is determined whether the sensor value has changed. If No in step S102, the process returns to step S100. If Yes in step S102, the process proceeds to step S104, and candidate display processing is performed. In the candidate display process of step S104, the motion
前記ステップS104での候補表示処理が終了すると、ステップS104からステップS106に進む。なお、前記ステップS100でYesの場合には、ステップS106にそのまま進む。当該ステップS106では、クリック判断へ進むかが判定され、ステップS106でNoの場合には、ステップS102に戻る。一方、ステップS106でYesの場合には、ステップS108に進み、ステップS62(図17を参照)に進む。 When the candidate display process in step S104 ends, the process proceeds from step S104 to step S106. In the case of Yes in step S100, the process proceeds to step S106 as it is. In step S106, it is determined whether or not to proceed to click determination. If No in step S106, the process returns to step S102. On the other hand, if Yes in step S106, the process proceeds to step S108, and the process proceeds to step S62 (see FIG. 17).
なお、図28には、図27のフローチャート図のステップS104において、 動作パターン判断部34が行う指の移動方向を決定する動作が示されている。
FIG. 28 shows an operation for determining the moving direction of the finger performed by the operation
図28において、ステップS200でスタートし、ステップS202において、指センサ16のセンサ値すなわちデータをX’軸方向、Y’軸方向、Z’軸方向に変換し、ステップS204において、各指ごとに変換されたデータを動作パターン辞書部32のデータと比較し、ステップS206において、変換されたデータから各指の方向が決定され、ステップS208で終了する。
In FIG. 28, the process starts in step S200, and in step S202, the sensor value of the
次に、図29には、図27のフローチャート図のステップS104の候補表示処理の詳細が示されている。 Next, FIG. 29 shows details of candidate display processing in step S104 in the flowchart of FIG.
図29において、ステップS300でスタートし、ステップS302で左小指のセンサ値が閾値を突破したかが判断される。なお、閾値の突破については、前記図18乃至図25を参照されたい。ステップS302でYesの場合にはステップS304の処理(1)に進み、一方、ステップS302でNoの場合にはステップS306に進む。以下、ステップS306乃至S322で左薬指のセンサ値乃至右親指のセンサ値について、同様の判断がされ、ステップS306乃至S322でYesの場合には、それぞれ、ステップS324の処理(2)乃至ステップS340の処理(10)に進み、一方、ステップS306乃至S322でNoの場合には、そのまま次のステップに進む。 In FIG. 29, the process starts in step S300, and in step S302, it is determined whether the sensor value of the left little finger has exceeded the threshold value. Refer to FIGS. 18 to 25 for the threshold breakthrough. If Yes in step S302, the process proceeds to step S304 (1), whereas if No in step S302, the process proceeds to step S306. Hereinafter, in steps S306 to S322, the same determination is made for the sensor value of the left ring finger to the sensor value of the right thumb, and in the case of Yes in steps S306 to S322, the processes (2) to S340 of step S324, respectively. On the other hand, in the case of No in steps S306 to S322, the process proceeds to the next step as it is.
例えば、ステップS310について説明すると、ステップS310で左人さし指のセンサ値が閾値を突破したかが判断され、ステップS310でYesの場合にはステップS328の処理(4)すなわち左人さし指のセンサ値が閾値を突破した場合の処理が行われ、一方、ステップS310でNoの場合にはそのまま次のステップS312に進む。 For example, step S310 will be described. In step S310, it is determined whether the sensor value of the left index finger has exceeded the threshold value. If YES in step S310, the process (4) in step S328, that is, the sensor value of the left index finger has the threshold value. On the other hand, the process in the case of breaking through is performed. On the other hand, if No in step S310, the process proceeds to the next step S312.
以下、ステップS328の処理(4)すなわち左人さし指のセンサ値が閾値を突破した場合の処理を例として取り上げ、詳細に説明する。 Hereinafter, the process (4) of step S328, that is, the process when the sensor value of the left index finger has exceeded the threshold value will be taken as an example and described in detail.
図30及び図31には、図29のフローチャート図のステップS328の処理(4)の詳細が示されており、図30及び図31により、1つのフローチャートが構成される。 30 and 31 show details of the process (4) of step S328 in the flowchart of FIG. 29, and one flowchart is configured by FIG. 30 and FIG.
なお、以下の説明では、指センサ16からの検出信号に基づき、選択される入力コードの候補を特定して表示する方法を説明する図11乃至図16を例として参照する。
In the following description, FIGS. 11 to 16 for describing a method for specifying and displaying a candidate of an input code to be selected based on a detection signal from the
図30及び図31において、ステップS400でスタートし、ステップS402に進み、左人さし指に関するキーの候補を表示したかが判断される。最初の段階では、左人さし指に関するキーの候補が表示されていないので、ステップS402に進み、センサ値が指が先に向かったことを示すかが判断される。図11乃至図16の例では、図13の矢印96を参照すると、指が先に向かっており、しかも、指がまっすぐ先に進んでいるので、ステップS402からステップS406を経由して、ステップS408に進む。このステップS408では、「6」、「7」、「キャンセル」が表示される。これにより、ディスプレイ64には、図14に示されるように、選択される候補として、「6」、「7」が表示され、更に、「キャンセル」も表示されることとなる。ステップS408からは、ステップS462に進み、終了する。これにより、図27のステップS104での1回目の候補表示処理は終了し、その後、ステップS106からステップS102に進む。
30 and 31, the process starts at step S400 and proceeds to step S402, where it is determined whether a key candidate related to the left index finger is displayed. In the first stage, since the key candidate for the left index finger is not displayed, the process proceeds to step S402, where it is determined whether the sensor value indicates that the finger is pointed first. In the example of FIGS. 11 to 16, referring to the
この状態では、ディスプレイ64に候補「6」、「7」、「キャンセル」が表示されており、いずれかの候補を選択するために、指を動作させることになる。これにより、指センサ16のセンサ値が変化するので、図27のステップS102からステップS104に進み、以下のように、2回目の候補表示処理を行う。
In this state, the candidates “6”, “7”, and “Cancel” are displayed on the
再び図30及び図31のフローチャート図を参照すると、この状態では、ディスプレイ64に候補「6」、「7」、「キャンセル」が表示されているので、ステップS400、S402、S426、S430、S432,S434、S436、S438、S440、S442、S444を経由し、ステップS448からステップS450に進み、センサ値が指が左に向かったことを示すかが判断される。
Referring to the flowcharts of FIGS. 30 and 31 again, in this state, the candidates “6”, “7”, and “Cancel” are displayed on the
図11乃至図16の例では、図15の矢印106を参照すると、指が右の方向に向かっているので、前記ステップS450でNoであり、従って、ステップS454に進み、「7」、「キャンセル」が表示される。これにより、ディスプレイ64には、図16に示されるように、選択される候補として、「7」が表示され、更に、「キャンセル」も表示されることとなる。ステップS454からは、ステップS462に進み、終了する。これにより、図27のステップS104での2回目の候補表示処理は終了し、その後、ステップ106からステップS102に進む。
In the examples of FIGS. 11 to 16, referring to the
この状態では、ディスプレイ64に候補「7」、「キャンセル」が表示されており、候補「7」あるいは「キャンセル」を選択するために、指を移動させることになる。これにより、指センサ16のセンサ値が変化するので、図27のステップS102からステップS104に進む。
In this state, the candidates “7” and “Cancel” are displayed on the
再び図30及び図31のフローチャート図を参照すると、この状態では、ディスプレイ64に候補「7」、「キャンセル」が表示されているので、ステップS400、S402、S426、S430、S432、S434、S436、S438を経由し、ステップS440からステップS446に進み、クリック判定に移動する。すなわち、図27のフローチャート図では、ステップS104からステップS106に進むと、ステップS106でYesとなり、ステップS108に進むこととなり、すなわち、図17のフローチャート図のステップS62に進むこととなる。
Referring to the flowcharts of FIGS. 30 and 31 again, in this state, the candidates “7” and “Cancel” are displayed on the
以上説明したように、本願の実施の形態による入力装置によれば、入力操作者は、手10に装着されたディスプレイ64を見ることにより、選択される入力コードの候補を認識することができる。従って、入力操作を容易に行うことができる。
As described above, according to the input device according to the embodiment of the present application, the input operator can recognize the input code candidate to be selected by looking at the
また、ディスプレイ64には、指14ごとに予め設定されているキーに対応する入力コードの候補が表示されるので、入力操作者は、どの指でタイピング動作をすればどのキーが入力されるかを操作前に知ることができる。
In addition, since the input code candidates corresponding to the keys set in advance for each
また、指センサ16として3軸加速度センサが使用されているので、動作パターン判断部34は、検出されたX軸、Y軸、及びZ軸の動作の方向に基づいて、選択される入力コードの候補を正確に特定することができる。
In addition, since a three-axis acceleration sensor is used as the
また、ディスプレイ64は、特定された入力コードの候補を予め設定された時間だけ表示するので、選択されない入力コードの候補が不必要に長時間にわたって表示され続けるという事態を防止することができる。
Further, since the
更に、特定された入力コードの候補から入力コードを決定する構成であるので、入力操作者は、入力コードの決定を容易に行うことができる。 Further, since the input code is determined from the identified input code candidates, the input operator can easily determine the input code.
更に、ディスプレイ64は、手10の甲62に装着されているので、入力操作者は、ディスプレイ64を見ることにより、選択される入力コードの候補を容易に認識することができる。
Further, since the
なお、本願の実施の形態による入力装置においては、手10の甲62にディスプレイ64を装着しているが、本願では、ディスプレイ64が装着される個所は、手10の甲62に限られず、ディスプレイ64を各指14にそれぞれ装着することも可能である。そして、手10の甲62にディスプレイ64を装着する場合には、ディスプレイ64は、5本の指14に対応して1行5桁の表示を行い、一方、手10の指14にそれぞれディスプレイ64を装着する場合には、1つのディスプレイ64は、1本の指14に対応して1行1桁の表示を行うことが可能である。
In the input device according to the embodiment of the present application, the
また、本願の実施の形態による入力装置においては、指センサ16の装着部として手10の指14が設定されているが、指センサ16を手10の甲62に装着してもよい。あるいは、指センサ16を全ての指14に装着せず、全ての指14の空間的な動きを検出できるような特定の指14にだけ指センサ16を装着してもよい。
In the input device according to the embodiment of the present application, the
また、本願の実施の形態による入力装置においては、指センサ16を指14あるいは手10の装着部に直接的に装着している。しかし、本願では、手袋において、指14あるいは手10の装着部に対応する位置に指センサ16を装着し、当該手袋を入力操作者が装着することにより、指センサ16が手袋を介して指14あるいは手10の装着部に間接的に装着されるようにしてもよい。
In the input device according to the embodiment of the present application, the
以上説明したように、本発明は入力装置の分野に利用することが可能であり、特に仮想キーボード装置の分野に適用すれば特に顕著な効果が得られる。 As described above, the present invention can be used in the field of input devices, and particularly remarkable effects can be obtained when applied to the field of virtual keyboard devices.
10、10L、10R:手
14、14−1〜14−10:指
16、16−1〜16−10:指センサ
22:ハーネス
28:入力コード出力部
32:動作パターン辞書部
34:動作パターン判断部
62:手の甲
64:ディスプレイ
10, 10L, 10R:
Claims (6)
利用者の指又は手の装着部に装着されて前記指の前記動作を検出する検出手段と、
前記検出手段により検出された動作に対応する入力コードを出力する出力手段と、
前記検出手段が装着されている前記装着部に係る指又は手に装着されて前記出力手段から出力される入力コードを表示する表示手段と、を含み、
前記出力手段は、前記検出手段により検出された動作に基づき、選択される入力コードの候補を特定し、
前記表示手段は、前記特定された入力コードの候補を表示することを特徴とする入力装置。 In an input device that detects spatial movement of a finger and outputs an input code corresponding to the detected movement,
Detecting means for detecting the movement of the finger by being mounted on a user's finger or hand mounting portion;
Output means for outputting an input code corresponding to the operation detected by the detection means;
Display means for displaying an input code output from the output means by being attached to a finger or a hand related to the attachment portion to which the detection means is attached,
The output means specifies a candidate of an input code to be selected based on the operation detected by the detection means,
The display unit displays the identified input code candidates.
前記出力手段は、指の動作の対象となるキーボードのパターンのキーのうち、指ごとに予め設定されているキーに対応する入力コードを、選択される入力コードの候補として特定し、
前記表示手段は、前記特定された、指ごとに予め設定されているキーに対応する入力コードの候補を表示することを特徴とする入力装置。 The input device according to claim 1,
The output means identifies an input code corresponding to a key set in advance for each finger among keys of a keyboard pattern that is a target of finger movement as a candidate of an input code to be selected,
The display device displays input code candidates corresponding to the specified keys preset for each finger.
前記検出手段は、当該検出手段が装着されている前記指について予め設定されているX軸、Y軸、及びZ軸の各々について当該指の前記動作により発生する加速度を検出して前記動作を検出する加速度センサであり、
前記出力手段は、前記加速度センサにより検出された動作の方向に基づき、選択される入力コードの候補を特定することを特徴とする入力装置。 The input device according to claim 1 or 2,
The detection means detects the movement by detecting acceleration generated by the movement of the finger for each of the X axis, the Y axis, and the Z axis set in advance for the finger on which the detection means is mounted. Acceleration sensor
The input device is characterized in that a candidate for an input code to be selected is specified based on a direction of motion detected by the acceleration sensor.
前記表示手段は、前記特定された入力コードの候補を予め設定された時間だけ表示することを特徴とする入力装置。 The input device according to any one of claims 1 to 3,
The input device displays the specified input code candidate for a preset time.
前記出力手段は、前記検出手段により検出された動作に基づき、前記特定された入力コードの候補から、入力コードを決定することを特徴とする入力装置。 The input device according to any one of claims 1 to 4,
The input unit determines an input code from the identified input code candidates based on the operation detected by the detection unit.
前記表示手段は、指又は手に装着されていることを特徴とする入力装置。 The input device according to any one of claims 1 to 5,
The input device, wherein the display means is attached to a finger or a hand.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009131320A JP2010277469A (en) | 2009-05-29 | 2009-05-29 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009131320A JP2010277469A (en) | 2009-05-29 | 2009-05-29 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010277469A true JP2010277469A (en) | 2010-12-09 |
Family
ID=43424348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009131320A Withdrawn JP2010277469A (en) | 2009-05-29 | 2009-05-29 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010277469A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013003782A (en) * | 2011-06-15 | 2013-01-07 | Shiseido Co Ltd | Movement detection sensor |
CN104679270A (en) * | 2013-12-02 | 2015-06-03 | 财团法人工业技术研究院 | System and method for receiving user input, program storage medium and program therefor |
JP2016057653A (en) * | 2014-09-05 | 2016-04-21 | 勇介 堀田 | Input system and input device |
JP2016134063A (en) * | 2015-01-21 | 2016-07-25 | セイコーエプソン株式会社 | Wearable computer, command setting method and command setting program |
US9857971B2 (en) | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
-
2009
- 2009-05-29 JP JP2009131320A patent/JP2010277469A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013003782A (en) * | 2011-06-15 | 2013-01-07 | Shiseido Co Ltd | Movement detection sensor |
CN104679270A (en) * | 2013-12-02 | 2015-06-03 | 财团法人工业技术研究院 | System and method for receiving user input, program storage medium and program therefor |
US9857971B2 (en) | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
CN104679270B (en) * | 2013-12-02 | 2018-05-25 | 财团法人工业技术研究院 | System and method for receiving user input, program storage medium and program therefor |
JP2016057653A (en) * | 2014-09-05 | 2016-04-21 | 勇介 堀田 | Input system and input device |
JP2016134063A (en) * | 2015-01-21 | 2016-07-25 | セイコーエプソン株式会社 | Wearable computer, command setting method and command setting program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10042438B2 (en) | Systems and methods for text entry | |
CN100587790C (en) | Data input device | |
JP6329469B2 (en) | Recognition device, recognition method, and recognition program | |
EP2975497B1 (en) | Terminal device, terminal device control method, and program | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
CN102317892B (en) | The method of control information input media, message input device, program and information storage medium | |
US20120068925A1 (en) | System and method for gesture based control | |
JP2010277469A (en) | Input device | |
US20090267805A1 (en) | Control apparatus and electronic device using the same | |
KR20170035547A (en) | Remote controll device, remote controll method and remote controll system | |
JP2010108500A (en) | User interface device for wearable computing environmental base, and method therefor | |
CN101048725A (en) | An apparatus and a method for tapping input to an electronic device, including an attachable tapping template | |
JP2012073830A (en) | Interface device | |
JP2008203911A (en) | Pointing device and computer | |
US20170212596A1 (en) | Systems and methods for determining input movement | |
KR100499391B1 (en) | Virtual input device sensed finger motion and method thereof | |
CN105975091A (en) | Virtual keyboard human-computer interaction technology based on inertial sensor | |
JP6127679B2 (en) | Operating device | |
JP2011060273A (en) | Portable type electronic device | |
CN106896941B (en) | Wearable device, control method thereof and display terminal | |
CN102736829A (en) | Touch device with virtual keyboard and method for forming virtual keyboard | |
JP6270557B2 (en) | Information input / output device and information input / output method | |
CN1514341A (en) | Device possessing character input function and method | |
US20070013658A1 (en) | Wireless indicating apparatus | |
JP2011170747A (en) | Information input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120807 |