JP2010282575A - Input device and program for input device - Google Patents
Input device and program for input device Download PDFInfo
- Publication number
- JP2010282575A JP2010282575A JP2009137596A JP2009137596A JP2010282575A JP 2010282575 A JP2010282575 A JP 2010282575A JP 2009137596 A JP2009137596 A JP 2009137596A JP 2009137596 A JP2009137596 A JP 2009137596A JP 2010282575 A JP2010282575 A JP 2010282575A
- Authority
- JP
- Japan
- Prior art keywords
- display
- input
- finger
- hand
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、入力装置及び入力装置用プログラムの技術分野に属する。より詳細には、利用者の指の空間的な動作を検出して得られた検出信号に対応する入力コードを出力する入力装置及び当該入力装置用のプログラムの技術分野に属する。 The present invention belongs to the technical field of input devices and programs for input devices. More specifically, the present invention belongs to the technical field of an input device that outputs an input code corresponding to a detection signal obtained by detecting a spatial motion of a user's finger and a program for the input device.
一般に、いわゆるコンピュータ装置等において、アルファベット等の文字を入力する際の入力装置として、各文字に対応し指により操作されるキーが配列されたキーボードが使用されている。このキーボードは、その配置のためのスペースが必要であり、省スペースの観点からキーボードの小型化が望まれている。一方、キーボードのキーが指により操作される点を考慮すると、操作性の観点から、キーボードの小型化には限界がある。 In general, in a so-called computer device or the like, a keyboard on which keys that are operated by a finger corresponding to each character are arranged is used as an input device when inputting characters such as alphabets. This keyboard requires a space for its arrangement, and it is desired to reduce the size of the keyboard from the viewpoint of space saving. On the other hand, considering that the keys on the keyboard are operated by fingers, there is a limit to downsizing the keyboard from the viewpoint of operability.
そこで現在、上記入力装置の一種として、キーボードの配置のためのスペースが不要である仮想キーボード装置が提案されている。この種のキーボード装置では、指にセンサを装着し、当該センサにより指の空間的な動作を検出し、当該検出した動作を示す動作信号に対応する入力コードが出力される。このような仮想キーボード装置に関する従来技術は、例えば、下記特許文献1に記載されている。当該特許文献1では、いわゆるウェアラブル入力装置において、出力された入力コードに相当する文字等が、使用者の視認が可能な位置に配置されているコンピュータ上に表示されることとされている。
Therefore, a virtual keyboard device that does not require a space for keyboard layout has been proposed as a kind of the input device. In this type of keyboard device, a sensor is attached to a finger, a spatial motion of the finger is detected by the sensor, and an input code corresponding to an operation signal indicating the detected motion is output. The prior art regarding such a virtual keyboard device is described, for example, in
しかしながら、上述した特許文献1に開示されている従来の構成では、視認可能な位置に固定された表示部材がないと入力コードとしての入力内容を確認できない。よって、結果的に移動等ができず、ウェアラブル入力装置としてはその利便性に欠けると言う問題点があった。
However, in the conventional configuration disclosed in
そこで、本発明は上記の問題点に鑑みて為されたもので、その目的の一例は、ウェアラブル入力装置において、その使用中においても適切な位置に入力内容を表示することが可能な入力装置及び当該入力装置用のプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an example of the purpose thereof is an input device capable of displaying input contents at an appropriate position even during use in a wearable input device, and It is to provide a program for the input device.
上記の課題を解決するために、請求項1に記載の発明は、利用者の指又は手の少なくともいずれか一方に設けられた装着部に装着され、且つ当該利用者の指の空間的な動作を検出して検出信号を生成する指センサ等の検出手段と、前記検出手段からの前記検出信号に基づいて、当該検出信号に対応する入力情報を決定する入力コード出力部等の入力情報決定手段と、前記利用者に装着され、且つ前記入力情報決定手段により決定された前記入力情報を表示する表示部等の表示手段と、前記検出手段により生成される前記検出信号に基づいて、手の空間的な姿勢を示す情報である姿勢情報を算出し、前記姿勢情報に対応付けられている前記表示手段上の表示位置に、前記入力情報決定手段により決定された前記入力情報を表示する入力コード出力部等の表示制御手段と、を備える。
In order to solve the above-described problem, the invention according to
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の入力装置において、前記表示制御手段は、前記表示手段上に既に表示されている前記入力情報と併せて、前記入力情報決定手段で決定された前記入力情報を前記表示位置に表示するように構成される。
In order to solve the above problem, the invention according to
上記の課題を解決するために、請求項3に記載の発明は、請求項1又は2に記載の入力装置において、前記表示手段は手又は前腕のいずれか一方に装着されており、前記表示制御手段は、前記検出手段により生成される前記検出信号に基づいて前記いずれか一方の回転角度を前記姿勢情報として算出し、当該算出された前記回転角度に基づいて当該回転角度毎に予め設定されている当該表示位置に、前記入力情報決定手段により決定された前記入力情報を表示するように構成される。
In order to solve the above-mentioned problem, the invention according to
上記の課題を解決するために、請求項4に記載の発明は、請求項1から3のいずれか一項に記載の入力装置において、前記表示位置は、当該表示位置が対応付けられている前記姿勢情報において前記利用者が当該表示位置に表示される前記入力情報を視認可能となる当該表示位置であるように構成される。
In order to solve the above-described problem, the invention according to
上記の課題を解決するために、請求項5に記載の発明は、請求項1から4のいずれか一項に記載の入力装置において、前記表示手段は、当該表示手段における前記入力情報の表示面に立てた法線の方向が、前記利用者から当該表示手段を視認可能な複数の方向となるように装着されている。
In order to solve the above-mentioned problem, the invention according to
上記の課題を解決するために、請求項6に記載の発明は、コンピュータを、前記検出手段を除いた請求項1から5のいずれか一項に記載の入力装置として機能させる。
In order to solve the above-described problem, the invention according to
請求項1に記載の発明によれば、決定された入力情報を、手の空間的な姿勢を示す姿勢情報に対応付けられている表示位置に表示するので、使用者の姿勢等が変化した場合でも、適切な表示手段上の表示位置に入力情報を表示することができる。 According to the first aspect of the present invention, since the determined input information is displayed at the display position associated with the posture information indicating the spatial posture of the hand, the user's posture or the like changes However, the input information can be displayed at a display position on an appropriate display means.
また請求項6に記載の発明によれば、当該入力装置用プログラムを当該コンピュータで読み出して実行することにより、決定された入力情報を、手の空間的な姿勢を示す姿勢情報に対応付けられている表示位置に表示するように当該コンピュータが機能するので、使用者の姿勢等が変化した場合でも、適切な表示手段上の表示位置に入力情報を表示することができる。
According to the invention described in
従って、請求項1又は6に記載の発明によれば、利用者の指の空間的な動作を検出して得られた検出信号に対応する入力情報を出力する入力装置において、その使用中においても適切な位置に入力内容を表示することができる。 Therefore, according to the first or sixth aspect of the invention, in the input device that outputs input information corresponding to the detection signal obtained by detecting the spatial movement of the user's finger, the input device is in use. The input content can be displayed at an appropriate position.
請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、表示手段上に既に表示されている入力情報と併せて、入力情報決定手段で決定された入力情報を、姿勢情報に対応付けられている表示位置に表示するので、例えば複数の文字からなる句等を入力する場合でも、当該句全体を適切な位置に表示してその内容を認識することができる。
According to the invention described in
請求項3に記載の発明によれば、請求項1又は2に記載の発明の効果に加えて、手又は前腕のいずれか一方に表示手段が装着されており、当該いずれか一方の回転角度を姿勢情報として算出し、当該算出された回転角度に基づいて当該回転角度毎に予め設定されている表示位置に入力情報を表示するので、手又は前腕の回転に応じて表示位置が最適化されることで、常に最適な表示位置に入力情報を表示することができる。
According to the invention described in
請求項4に記載の発明によれば、請求項1から3のいずれか一項に記載の発明の効果に加えて、入力情報が表示される表示位置が、対応する姿勢情報において利用者が当該表示位置に表示される入力情報を視認可能となる当該表示位置であるので、使用者の姿勢等が変化した場合でも、常に視認可能な表示手段上の表示位置に入力情報を表示することができる。
According to the invention described in
請求項5に記載の発明によれば、請求項1から4のいずれか一項に記載の発明の効果に加えて、表示手段における表示面に立てた法線の方向が利用者から表示手段を視認可能な複数の方向となるように表示手段が装着されているので、当該利用者の姿勢に応じて視認し易く入力情報を表示することができる。
According to the invention described in
以下、本発明を実施するための形態について、図面を参照しながら説明する。なお、以下に説明する実施の形態は、仮想キーボード装置に対して本発明を適用した場合の実施の形態である。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to a virtual keyboard device.
(I)仮想キーボード装置の概略
先ず、実施形態に係る仮想キーボード装置の概略について説明する。
(I) Outline of Virtual Keyboard Device First, an outline of a virtual keyboard device according to an embodiment will be described.
図1には、仮想キーボード装置の構成が示されている。図1において、利用者の装着部の一例としての左手10L及び右手10Rの指14−1乃至14−5及び14−6乃至14−10には、夫々、検出手段の一例としての指センサ16−1乃至16−5及び16−6乃至16−10が装着されている。
FIG. 1 shows the configuration of the virtual keyboard device. In FIG. 1, fingers 14-1 to 14-5 and 14-6 to 14-10 of the
この指センサ16は、指の空間的な動作を検出し、その変化に伴って変化する動作信号を出力するセンサであり、例えば、加速度センサ又はジャイロセンサから構成されている。なお、指センサ16の詳細については、後述する。
The
左手10L及び右手10Rの例えば手の甲には、夫々、データ収集部18及び20が装着されており、当該データ収集部18及び20には、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号がハーネス22−1乃至22−5及び22−6乃至22−10を介して供給される。データ収集部18及び20は、夫々、無線部24及び26を有しており、当該無線部24及び26からの動作信号は、入力コード決定手段及び表示制御手段の一例としての入力コード出力部28における無線部30に受信される。このとき、データ収集部18及び20に収集された動作信号は有線(ハーネス)を介して、入力コード出力部28に受信されてもよい。
For example, the backs of the
入力コード出力部28は、無線部30に加え、動作パターン辞書部32と、動作パターン判断部34と、を備えている。
In addition to the
動作パターン辞書部32は、指の動作信号のパターンを示す辞書パターン情報を記憶する記憶部である。この辞書パターン情報の詳細については、後ほど図7乃至図14を用いて詳説する。
The motion
一方、動作パターン判断部34は、動作パターン辞書部32に記憶されているパターン情報に対応する動作信号と、無線部30から供給された動作信号とを比較し、検出された動作信号に対応する入力コードを出力する。
On the other hand, the operation
そして、当該出力された入力コードは、入力コード出力部28に設けられた無線部36から表示制御手段の一例としての文字表示器38の無線部40に送信される。この文字表示器38は、表示部42を有しており、当該表示部42には、指の動作により入力された入力コードとして例えば文字コード44が表示される。なおこの場合も、入力コード出力部28と文字表示器38は有線(ハーネス)で接続され、通信されてもよい。
The output input code is transmitted from the
図2には、仮想キーボード装置の他の構成が示されている。 FIG. 2 shows another configuration of the virtual keyboard device.
図1の構成では、左手10L及び右手10Rに夫々データ収集部18及び20が装着されていたが、図2の構成では、データ収集部が設けられていない。そして、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号は、ハーネス22−1乃至22−5及び22−6乃至22−10を介して、入力コード出力部28の動作パターン判断部34に供給されることとなる。
In the configuration of FIG. 1, the
なお、以下に詳細に説明する実施形態では、図1及び図2に示す仮想キーボード装置の構成において、文字表示器38及び入力コード出力部28は、夫々、左手用の文字表示器38及び入力コード出力部28と、右手用の文字表示器38及び入力コード出力部28と、の二組が設けられている。そして、左手用の入力コード出力部28は左手10Lの指14−1乃至14−5の動作により入力されたものとして検出された入力コードを出力し、左手用の文字表示器38における表示部42は左手用の入力コード出力部28から出力された当該入力コードに相当する入力情報の一例としての文字、数字又は記号或いは当該入力コードそのもの(以下、当該文字、数字又は記号或いは当該入力コードそのものを、単に「文字等」と称する)を表示する。一方、右手用の入力コード出力部28は右10Rの指14−6乃至14−10の動作により入力されたものとして検出された入力コードを出力し、右手用の文字表示器38における表示部42は右手用の入力コード出力部28から出力された当該入力コードに相当する文字等を表示する。なお、左手用の入力コード出力部28から出力された入力コードに相当する文字等と、右手用の入力コード出力部28から出力された入力コードに相当する文字等の両方を、左手用の文字表示器38における表示部42及び右手用の文字表示器38における表示部42の両方又はいずれか片方に表示してもよい。
In the embodiment described in detail below, in the configuration of the virtual keyboard device shown in FIG. 1 and FIG. 2, the
図3には、指センサ16の例として加速度センサが示されている。
In FIG. 3, an acceleration sensor is shown as an example of the
図3において、指センサ16は、三軸の加速度センサであり、X軸、Y軸及びZ軸の夫々について指の動作による加速度を検出する。なお、Z軸は重力加速度の方向54を示す。
In FIG. 3, a
図4には、指の静止状態での指センサ16の出力電圧の一例が示されている。
FIG. 4 shows an example of the output voltage of the
図4においてZ軸方向の出力電圧は、X軸方向及びY軸方向の出力電圧と比較して、重力加速度分(符号46を参照)だけ異なることが判る。 In FIG. 4, it can be seen that the output voltage in the Z-axis direction differs from that in the X-axis direction and the Y-axis direction by the amount of gravitational acceleration (see reference numeral 46).
図5には、空間内でキー押下げ動作をした時の指センサ16の出力電圧が示されている。
FIG. 5 shows the output voltage of the
図5は、実施形態に係る仮想キーボード装置において文字「Q」のキーを押し下げるように左手10Lの各指(主として小指14−5)を動作させた場合の各指センサ16の出力電圧を示している。なお、本発明に係る仮想キーボード装置のキー配列は、いわゆるJIS(Japanese Industrial Standard)配列を採用している。また、図5の上段、中段及び下段のグラフは、夫々、小指14−5、薬指14−4及び親指14−1に装着された各指センサ16のX軸方向、Y軸方向及びZ軸方向の出力電圧を示し、他の中指14−3及び人差し指14−2夫々に装着された指センサ16のX軸方向、Y軸方向及びZ軸方向の出力電圧については、図示を省略する。
FIG. 5 shows the output voltage of each
そして、図5において、文字「Q」のキーを押し下げる動作を行っている時間(図5中、符号48で示す時間)には、小指14−5の動作が大きいことが判る。即ち、図5の上段に示されるように、小指14−5に装着された指センサ16−5のX軸方向、Y軸方向及びZ軸方向の出力電圧の変化は、他の指に装着された指センサ16のX軸方向、Y軸方向及びZ軸方向の出力電圧の変化と比較して、大きいことが判る。
In FIG. 5, it can be seen that the operation of the little finger 14-5 is large during the time when the operation of depressing the key of the letter “Q” is performed (the time indicated by
図6には、動作パターン判断部34を含む入力コード出力部28の構成が示されている。
FIG. 6 shows the configuration of the input
図6において、例えば左手10Lについて考えると、上述したように各指14−1乃至14−5の夫々に指センサ16が装着され、一つの指センサ16は、三軸(X軸、Y軸及びZ軸)の動作信号を出力する。従って、動作パターン判断部34には、5×3=15個の動作信号50が供給される。
In FIG. 6, for example, regarding the
ここで、実施形態に係る仮想キーボード装置では、15個の動作信号50、即ち15個のデータを、ニューラルネットワークを用いて各文字52にマッピングすることにより学習を行い、動作パターン辞書部32における上記辞書パターン情報を作成又は更新する。
Here, in the virtual keyboard device according to the embodiment, learning is performed by mapping 15 motion signals 50, that is, 15 data, to each character 52 using a neural network, and the motion
ここで、当該辞書パターン情報の内容について、具体的に図7乃至14を用いて例示しつつ説明する。 Here, the contents of the dictionary pattern information will be specifically described with reference to FIGS.
先ず図7は、動作パターン辞書部32に記憶されている、指14が左方向に移動する際の動作パターンを示しており、図7(A)はX軸方向の動作パターンを示し、図7(B)はY軸方向の動作パターンを示す。
First, FIG. 7 shows an operation pattern stored in the operation
同様にして、図8は指14が右方向に移動する際の当該動作パターンを示し、図9は指14がまっすぐ先の方向に移動する際の当該動作パターンを示し、図10は指14がまっすぐ手前の方向に移動する際の当該動作パターンを示し、図11は指14が左先の方向に移動する際の当該動作パターンを示し、図12は指14が右先の方向に移動する際の当該動作パターンを示し、図13は指14が左手前の方向に移動する際の当該動作パターンを示し、図14は指14が右手前の方向に移動する際の当該動作パターンを示す。
Similarly, FIG. 8 shows the motion pattern when the
そして動作パターン判断部34は、図7乃至図14に例示されるように、指センサ16の出力電圧に基づくX軸方向の出力電圧が、当該X軸方向について予め設定されている閾値1を上方に(+方向に)突破する状況又は当該X軸方向について予め設定されている閾値2を下方に(−方向に)突破する状況、及びY軸方向の出力電圧が当該Y軸方向について予め設定されている閾値1を上方に(+方向に)突破する状況又は当該Y軸方向について予め設定されている閾値2を下方に(−方向に)突破する状況に基づいて、指14の動作パターンを検出し、当該検出された指14の動作パターンにより決定される指14の移動方向に基づいて、対応する入力コードを出力する。
Then, as illustrated in FIGS. 7 to 14, the operation
次に、上述した辞書パターン情報の作成又は更新に係る上記学習としての動作について、具体的に図15を用いて説明する。 Next, the operation as the learning related to the creation or update of the dictionary pattern information described above will be specifically described with reference to FIG.
図15には、実施形態に係る仮想キーボード装置の学習動作を示すフローチャートが示されている。また、当該学習動作は原則として各手10毎に実行される。
FIG. 15 is a flowchart showing the learning operation of the virtual keyboard device according to the embodiment. The learning operation is performed for each
図15において、ステップS10で電源をオンにし、ステップS12に進む。そして、ステップS12で入力操作者の判断により学習モードであると、ステップS14に進み、キーボードを各入力コード出力部28(図1又は図2を参照)に接続する。 In FIG. 15, the power is turned on in step S10, and the process proceeds to step S12. If the learning mode is determined by the input operator in step S12, the process proceeds to step S14, and the keyboard is connected to each input code output unit 28 (see FIG. 1 or 2).
ステップS16でキーボードを打鍵する動作を行い、ステップS18で、この打鍵時の指センサ16の加速度データの読み込みを行い、ステップS20で、加速度データの必要個所のデータ加工(例えば加速度データの変化時点から±500msにおけるデータ加工)を行う。
In step S16, an operation of pressing the keyboard is performed. In step S18, acceleration data of the
ステップS22で、ニューラルネットワークで学習し、ステップS24で、新しい辞書パターン情報を構築し、ステップS26で入力操作者の判断により学習終了でないと、ステップS16に戻り、一方、ステップS26で入力操作者の判断により学習終了であると、ステップS28に進む。なお、ステップS12で入力操作者の判断により学習モードでないと、ステップS28に進む。 In step S22, learning is performed with a neural network. In step S24, new dictionary pattern information is constructed. In step S26, if the input operator does not finish learning, the process returns to step S16. If it is determined that the learning has ended, the process proceeds to step S28. If it is determined in step S12 that the learning mode is not determined by the input operator, the process proceeds to step S28.
ステップS28で、指センサの加速度データの読込みが行われ、ステップS30で、加速度データをデータテーブル値と比較し、手、指が動いたか否かが判断される。 In step S28, the acceleration data of the finger sensor is read, and in step S30, the acceleration data is compared with the data table value to determine whether or not the hand or finger has moved.
ステップS30で「No」の場合には、ステップS28に戻り、ステップS30で「Yes」の場合には、ステップS32に進み、加速度データの必要個所のデータ加工(例えば指センサの変化時点から±500msにおけるデータ加工(図5符号48参照))を行う。
If “No” in the step S30, the process returns to the step S28. If “Yes” in the step S30, the process proceeds to a step S32 to process data at a necessary portion of the acceleration data (for example, ± 500 ms from the change point of the finger sensor). Data processing (see
ステップS34で、加速度データに基づく指の動作がデータベースとして動作パターン辞書部32に保有されている辞書パターン情報と比較され、ステップS36で当該指の動作に最も近い入力コードが出力され、ステップS38で当該入力コードがパーソナルコンピュータ等の文字出力機器に送信され、ステップS40に進む。なおこの決定された入力コードは、上記文字出力機器に送信される他に、各手に対応した文字表示器38にも、当該手毎に夫々出力されることとなる。
In step S34, the movement of the finger based on the acceleration data is compared with the dictionary pattern information held in the movement
ステップS40で入力操作者の判断により入力を継続しない場合には、ステップS42で電源がオフにされ、一方、ステップS40で入力操作者の判断により入力を継続する場合には、ステップS44に進む。ステップS44で、入力操作者が表示画面60(後述する図16を参照)又は各文字表示器38の表示部42を見ることにより入力操作者の判断により正確な文字入力がされている場合にはステップS28に進み、一方、ステップS44で入力操作者が表示画面60又は各文字表示器38の表示部42を見ることにより入力操作者の判断により正確な文字入力がされていない場合には、ステップS12に進む。
If it is determined in step S40 that the input operator does not continue the input, the power is turned off in step S42. If the input operator continues the input in step S40, the process proceeds to step S44. If it is determined in step S44 that the input operator has entered an accurate character according to the judgment of the input operator by looking at the display screen 60 (see FIG. 16 described later) or the
なお、上記図15のフローチャートにおいて、ステップS12、S26、S40及びS44における入力操作者の判断について説明すると、データ収集部18又は20に操作ボタンを設け、入力操作者(すなわち利用者)は、その判断に応じた操作を当該操作ボタンに対して行い、仮想キーボード装置は、当該操作ボタンに対して行われた操作に応じて判断を行う。
In the flowchart of FIG. 15, the determination of the input operator in steps S12, S26, S40, and S44 will be described. An operation button is provided in the
図16には、実施形態に係る仮想キーボード装置を含む入力システムの構成が示されている。なお図16においては、図1又は図2において例示した文字表示器38は図示を省略している。
FIG. 16 shows a configuration of an input system including the virtual keyboard device according to the embodiment. In FIG. 16, the
図16において、各指に装着される指センサ16からの動作信号50は対応する入力コード出力部28の動作パターン判断部34に夫々供給される。そして動作パターン判断部34は、指センサ16からの動作信号50と、動作パターン辞書部32に記憶されているパターン情報に対応する動作信号とを比較し、検出された動作信号50に対応する入力コードを、対応する上記文字表示器38及びパーソナルコンピュータ56に供給する。
In FIG. 16, the
パーソナルコンピュータ56は、入力コードを表示装置58に出力し、入力コードにより示される文字等、例えば「A」、「B」、「C」、…の列59が表示装置58の表示画面60に表示される。
The
(II)実施形態に係る文字表示器等の構成及び動作
次に、実施形態に係る各入力コード出力部28及び各文字表示器38並びに関連する各部材の構成及び動作について、図17乃至図21を用いて説明する。なお図17は実施形態に係る表示部42の手における配置等を例示する図であり、図18は実施形態に係る表示動作を示すフローチャートであり、図19は実施形態に係る手首の姿勢検出のための構成を示す図である。また図20は実施形態に係る手首の姿勢検出のための行列式を示す図であり、図21は実施形態に係る表示動作の結果を例示する左手10Lの外観図である。
(II) Configuration and Operation of Character Display According to the Embodiment Next, the configuration and operation of each input
上述したように、実施形態に係る入力コード出力部28及び文字表示器38は左手用と右手用の二つが設けられており、夫々の表示手段の一例としての表示部42L及び表示部42Rは例えば図17(a)に例示するように、左手10Lの甲の部分全体を覆う範囲に左手用の表示部42Lが、右手10Rの甲の部分全体を覆う範囲に右手用の表示部42Rが、夫々の甲に巻き付くように装着されている。
As described above, the input
より具体的には、左手用の表示部42Lは、それ自体が可撓性を有する例えば有機EL(Electro Luminescence)表示デバイス等により構成されており、例えば親指14−1の付け根付近から小指14−5の付け根付近の左手甲全体を覆うように装着されている。また右手用の表示部42Rも同様に可撓性を有する表示デバイスにより構成されており、例えば親指14−6の付け根付近から小指14−10の付け根付近の右手甲全体を覆うように装着されている。
More specifically, the
これらに加えて、各表示部42L及び42Rの夫々においては、延ばした各指14に平行で且つ各指14の付け根から手首方向に延びる帯状の表示領域毎に区分して表示を行うことが可能とされている。即ち、左手10Lの表示部42Lでは、例えば揃えて延ばした状態の親指14−1及び人差し指14−2夫々に平行で、且つ親指14−1及び人差し指14−2夫々の付け根から手首方向に延びる帯状の表示領域のみを使用して(換言すれば表示部42Lの他の表示領域は使用しないで)文字等を表示することが可能とされている。
In addition to these, in each of the
そして、図17(b)に例示するように、左手用の表示部42Lには、上述したように左手10Lの指14−1乃至14−5の動作により入力されたものとして検出された入力コードに相当する文字等(文字コード44L)が表示される。一方、右手用の表示部42Rには、同様に右手10Rの指14−6乃至14−10の動作により入力されたものとして検出された入力コードに相当する文字等(文字コード44R)が表示される。
Then, as illustrated in FIG. 17B, the input code detected as input by the operation of the fingers 14-1 to 14-5 of the
次に、主として各手の入力コード出力部28及び文字表示器38を中心として夫々の手毎に実行される、実施形態に係る表示動作について具体的に図18乃至図21を用いて説明する。
Next, the display operation according to the embodiment, which is mainly executed for each hand, mainly with respect to the input
図18に示すように、実施形態に係る表示動作としては、先ずステップS1として各入力コード出力部28は、夫々が対応している手に対応するデータ収集部18又は20からいずれかの動作信号50が出力されて来たか否かを監視している。そして、いずれの動作信号50の出力もないときは(ステップS1;NO)当該監視を継続する。一方、いずれかの動作信号50の出力があったとき(ステップS1;YES)、各入力コード出力部28は次に、ステップS2として、その時点での手の姿勢を検出し、使用者が最も視認し易い表示部42L又は42R上の表示領域(即ち、区分表示が可能な各表示部42L及び42R毎の上記表示領域)を選択する。このステップS2の動作で各入力コード出力部28は、対応する手10毎に、左右の腕及び手を身体の前方に真っ直ぐ伸ばしたときの当該延ばした方向を「y軸」方向として、そのy軸方向回りにおける左右の手首の回転角度を上記姿勢として検出し、その検出された姿勢に対応して、使用者が最も視認し易い表示部42L又は42R上の表示領域を選択する。このステップS2の動作については、後ほど図19及び図20を用いて詳説する。
As shown in FIG. 18, as a display operation according to the embodiment, first, as step S <b> 1, each input
ステップS2の動作により表示部42L及び42R夫々において新たな表示領域が選択されると、次に各入力コード出力部28は、ステップS3として、当該新たに選択された表示領域が、その直前まで選択されていた各々の表示領域と同一か否かを判断することで、当該表示領域をその直前のものから変更する必要があるか否かを確認する。そして、当該表示領域の変更が必要でない場合(ステップS3;NO)、各入力コード出力部28は後述するステップS5の動作に移行し、一方、表示領域の変更が必要である場合は(ステップS3;YES)、ステップS4として、上記ステップS2の動作において選択された新たな表示領域に変更する。
When a new display area is selected in each of the
次に各入力コード出力部28は、ステップS5として、既存の、又は新たに選択された表示領域において表示すべき入力コードに対応する文字等の表示開始位置及び表示終了位置を最適化する。このステップS5の動作は、使用すべき表示領域内において実際に表示される文字等の文頭及び文末夫々の位置並びに改行の位置を、より視認し易いものとなるように最適化する。
Next, in step S5, each input
また当該最適化の動作は、上記ステップS1において新たに入力された動作信号50に加えて、それまでに表示部42L及び42Rに表示されていた全ての入力コードに対応する動作信号50を対象として行われる。即ち、新たな文字等の入力動作が実行された場合には、既に入力済みの文字等を含めて(換言すれば、当該入力済みの文字等を含む一連の文として)表示領域の変更等及び表示開始位置等の最適化が実行されることとなる。これにより各入力コード出力部28は、当該最適化された表示位置等を示す表示位置情報を生成し、当該生成された表示位置情報を、当該最適化された表示位置等において表示される文字等に対応する入力コードに付加して対応する文字表示器38に各々出力する。
In addition to the
その後各文字表示器38は、ステップS6として、対応する入力コード出力部28から出力されて来た入力コードに対応する文字等を、当該入力コードに付加されて対応する入力コード出力部28から出力されて来た表示位置情報により示される表示部42L又は42R上の表示位置等に表示する。そして各入力コード出力部28は、ステップS7として、例えばある一定時間以上の動作信号50がデータ収集部18又は20から出力されて来ていないか否かを確認する等の手法により、文字等の入力動作が終了して実施形態に係る表示動作を終了するか否かを確認する。そして、当該表示動作を終了しないとき(ステップS7;NO)、各入力コード出力部28は上記ステップS1に戻って上述して来た一連の動作を繰り返し、一方終了する場合には(ステップS7;YES)、そのまま実施形態に係る表示動作を終了する。
After that, in step S6, each
次に、上記ステップS2に係る表示領域の選択動作について、図19及び図20を用いて詳細に説明する。 Next, the display area selection operation according to step S2 will be described in detail with reference to FIGS.
先ず、上記図1及び図2並びに図3を用いて説明したように、各指14には、重力の方向54と反対の方向がZ軸となるような指センサ16が装着されている。この指センサ16は、具体的には図19(a)に左手10Lの人差し指14−2を例として示すように、各指14の中節、即ち、各指の第一関節と第二関節との間の手の甲側に装着される。このとき図19(a)に示すように、各指センサ16のZ軸が重力の方向54と反対の方向となるように装着され、更にX軸及びY軸は夫々図19(a)に示す方向となる。なおこの指センサ16の装着位置としては、指14としての空間的な動きを検出できる位置であれば、上記中節以外の指14の位置でもよい。
First, as described above with reference to FIGS. 1, 2, and 3, each
そして、このような状態で指センサ16が夫々装着された左手10L及び右手10Rの夫々について、図19(b)に左手10Lの場合を例示するように手首15Lについてのy軸回りの回転角度が、上記各指センサ16から出力されてくる各軸毎の加速度データに基づいて入力コード出力部28において算出される。なお、図19(b)においては、各指センサ16についてのX軸、Y軸及びZ軸については、親指14−1に装着された指センサ16−1についてのみ記載し、他の指センサ16については記載を省略している。
Then, for each of the
より具体的には、先ず、各指センサ16からの各軸毎の加速度データを用いて、各指14毎の、上記y軸回りの回転角度θを、図20(a)に示す行列式を解くことにより算出する。
More specifically, first, using the acceleration data for each axis from each
ここで、当該回転角度θとしては、各々の掌を鉛直下方向に向けた状態の時を手首の回転角度0度とする。そして左手10Lについては、反時計方向に手首を回転させて掌が鉛直上方向を向くまでの回転角度の範囲を0度から−180度とし、反対に時計方向に手首を回転させて掌が再度鉛直上方向を向くまでの回転角度の範囲を0度から+180度とする。一方右手10Rについては、上述した「回転角度0度」の状態から時計方向に手首を回転させて掌が鉛直上方向を向くまでの回転角度の範囲を0度から−180度とし、反対に反時計方向に手首を回転させて掌が鉛直上方向を向くまでの回転角度の範囲を0度から+180度とする。ここでは、左右の手で回転角度の符号(正負)を逆としていることに注意を要する。
Here, as the rotation angle θ, the rotation angle of the wrist is 0 degree when each palm is directed vertically downward. For the
また、図20(a)に示す行列式は全ての指14についての指センサ16から出力される加速度データに各指14毎に適用されるものであり、当該行列式中の「x」、「y」及び「z」は、夫々指センサ16からのx軸方向の加速度データ、y軸方向の加速度データ及びz軸方向の加速度データである。また、当該行列式中の「1g」は重力加速度である。そして、入力コード出力部28は、各指センサ16からのx軸方向の加速度データ「x」、y軸方向の加速度データ「y」及びz軸方向の加速度データ「z」を図20(a)に示す行列式に代入して解くことで、各指14毎に回転角度θを算出する。
In addition, the determinant shown in FIG. 20A is applied to the acceleration data output from the
これらにより入力コード出力部28は次に、各指14について算出された回転角度θを、左手10L及び右手10Rについて夫々別個に平均化する。より具体的には、小指14−1乃至親指14−5夫々について算出された回転角度θを平均化して左手10Lについての回転角度とすると共に、小指14−10乃至親指14−6夫々について算出された回転角度θを平均化して右手10Rについての回転角度とする。そして、当該各手毎の平均値を、夫々の手の手首の回転角度とする。
Accordingly, the input
なお、当該手首の回転角度の算出に当たっては、左右夫々の手首に対応する代表的な指14(例えば中指14−3及び中指14−8)について算出される当該指14の回転角度θをもって、当該手首の回転角度とするように構成することもできる。
In calculating the rotation angle of the wrist, the rotation angle θ of the
また、各指14についての回転角度θの算出に当たっては、図5において符号48により例示されるデータ加工に供される所定時間の前後における当該回転角度θの平均値をもって、その指14についての回転角度θとすることも可能である。
Further, in calculating the rotation angle θ for each
より具体的には、例えば当該所定時間開始から0.25秒前のタイミングを時刻t1とし、当該所定時間から0.25秒経過したタイミングを時刻t2とする。そして、時刻t1における指センサ16からのx軸方向の加速度データ「xt1」、y軸方向の加速度データ「yt1」及びz軸方向の加速度データ「zt1」を図20(b)に示す行列式に代入して解き、更に時刻t2における指センサ16からのx軸方向の加速度データ「xt2」、y軸方向の加速度データ「yt2」及びz軸方向の加速度データ「zt2」を図20(c)に示す行列式に代入して解き、夫々の行列式を用いて算出した回転角度θの平均値をもってその指14についての回転角度θとするのである。なおこの場合、時刻t1における指センサ16からのx軸方向の加速度データ「xt1」、y軸方向の加速度データ「yt1」及びz軸方向の加速度データ「zt1」を図20(b)に示す行列式に代入して解いて得られた回転角度θのみをもってその指14についての回転角度θとしてもよいし、或いは時刻t2における指センサ16からのx軸方向の加速度データ「xt2」、y軸方向の加速度データ「yt2」及びz軸方向の加速度データ「zt2」を図20(c)に示す行列式に代入して解いて得られた回転角度θのみをもってその指14についての回転角度θとしてもよい。
More specifically, for example, a timing 0.25 seconds before the start of the predetermined time is set as time t1, and a timing when 0.25 seconds elapses from the predetermined time is set as time t2. FIG. 20B shows acceleration data “x t1 ” in the x-axis direction, acceleration data “y t1 ” in the y-axis direction, and acceleration data “z t1 ” in the z-axis direction from the
そして、各手毎にその手首の回転角度θが算出されたら、予め入力コード出力部28内の図示しないメモリ等に各手毎に不揮発性に記憶されている回転角度−表示領域対応テーブルに基づいて、表示部42L及び42R内において当該回転角度θに対応する表示領域を選択する。
When the wrist rotation angle θ is calculated for each hand, based on the rotation angle-display area correspondence table stored in advance in a nonvolatile manner for each hand in a memory (not shown) or the like in the input
ここで、当該回転角度−表示領域対応テーブルについて、図19(c)を用いて説明する。 Here, the rotation angle-display area correspondence table will be described with reference to FIG.
先ず前提として、左手10L用の表示部42Lは、全体としては左手10Lの甲の部分全体を覆う範囲に装着されているものとし、且つ親指14−5の中手骨に対向する表示領域が第1表示領域とされ、人差し指14−2の中手骨に対向する表示領域が第2表示領域とされ、中指14−3の中手骨に対向する表示領域が第3表示領域とされ、薬指14−4の中手骨に対向する表示領域が第4表示領域とされ、小指14−5の中手骨に対向する表示領域が第5表示領域とされて区分されている。また右手10R用の表示部42Rは、全体としては右手10Rの甲の部分全体を覆う範囲に装着されているものとし、且つ親指14−6の中手骨に対向する表示領域が第1表示領域とされ、人差し指14−7の中手骨に対向する表示領域が第2表示領域とされ、中指14−8の中手骨に対向する表示領域が第3表示領域とされ、薬指14−9の中手骨に対向する表示領域が第4表示領域とされ、小指14−510中手骨に対向する表示領域が第5表示領域とされて区分されている。
First, as a premise, the
そして、各手毎の上記回転角度−表示領域対応テーブルとしては、図19(c)に例示する回転角度−表示領域対応テーブルTのように、手首としての回転角度θが−180度以上−90度未満の時には第1表示領域及び第2表示領域のみが対応付けられ、当該回転角度θが−90度以上−0度未満の時には第1表示領域乃至第3表示領域が対応付けられ、当該回転角度θが0度以上+45度未満の時には第1表示領域乃至第5表示領域が対応付けられ、当該回転角度θが+45度以上+90度未満の時には第3表示領域乃至第5表示領域が対応付けられ、当該回転角度θが+90度以上+180度未満の時には第4表示領域及び第5表示領域のみが対応付けられている。なお、当該回転角度−表示領域対応テーブルTの内容は、上述したように回転角度の符号(正負)が左右の手で逆とされていることにより、左手10L及び右手10Rについて共通である。
Then, as the rotation angle-display area correspondence table for each hand, as in the rotation angle-display area correspondence table T illustrated in FIG. When the rotation angle θ is less than −90 degrees, the first display area and the second display area are associated with each other. When the rotation angle θ is −90 degrees or more and less than −0 degrees, the first display area to the third display area are associated with each other. When the angle θ is 0 degree or more and less than +45 degrees, the first display area to the fifth display area are associated with each other. When the rotation angle θ is +45 degrees or more and less than +90 degrees, the third display area to the fifth display area are associated with each other. When the rotation angle θ is not less than +90 degrees and less than +180 degrees, only the fourth display area and the fifth display area are associated with each other. The contents of the rotation angle-display area correspondence table T are common to the
このような回転角度−表示領域対応テーブルTが入力コード出力部28内に記憶されていることにより、回転角度θが算出されれば、直ちに対応する(即ちその回転角度θの時に文字等を表示させるべき)表示領域が選択できる。
Since the rotation angle-display area correspondence table T is stored in the input
そして、図18及び図19を用いて説明した表示動作によれば、例えば左手10Lを掌を鉛直下方向にしているとき(即ち回転角度θが0度のとき)は、例えば図21(a)に例示するように表示部10Lの全ての表示領域(第1表示領域乃至第5表示領域)を使って文字等が表示され、一方、左手10Lを図21(a)の状態から例えば反時計方向に90度回転させたとき(即ち回転角度θが−90度のとき)は、例えば図21(b)に例示するように第1表示領域乃至第3表示領域のみを使って文字等が表示されることとなる。このような表示動作が実行されることで、手首が回転されてもその都度視認に最適な位置に文字等が表示される。
Then, according to the display operation described with reference to FIGS. 18 and 19, for example, when the
なおこの図21に例示する場合において、図21(a)の状態から手首15Lが回転して図21(b)の状態になったときには、元の図21(a)の状態で既に表示部42Lに表示されていた文字等(文字コード44L)と、図21(b)の状態になったときに新たに入力された文字等と、が、併せて(換言すれば一連の文字等として)図21(b)に例示される第1表示領域乃至第3表示領域のみを使って表示される。
In the case illustrated in FIG. 21, when the
以上説明したように、実施形態に係る仮想キーボード装置の動作によれば、決定された入力コードを、手の空間的な姿勢を示す回転角度θに対応付けられている表示位置に表示するので、使用者の姿勢等が変化した場合でも、適切な表示部42L及び42R上の表示位置に文字等を表示することができる。
As described above, according to the operation of the virtual keyboard device according to the embodiment, the determined input code is displayed at the display position associated with the rotation angle θ indicating the spatial posture of the hand. Even when the posture of the user changes, characters and the like can be displayed at appropriate display positions on the
また、新たに入力された入力コードを、表示部42L及び42R上に既に表示されている入力コードと併せて回転角度θに対応付けられている表示位置に表示するので、例えば複数の文字からなる句等を入力する場合でも、当該句全体を適切な位置に表示してその内容を認識することができる。
Further, since the newly entered input code is displayed at the display position associated with the rotation angle θ together with the input code already displayed on the
更に、夫々の手の甲に表示部42L及び42Rが装着されており、手首の回転角度θを算出し、当該算出された回転角度θに基づいて当該回転角度θ毎に予め設定されている表示位置に文字等を表示するので、手(手首)の回転に応じて表示位置が最適化されることで、常に最適な表示位置に文字等を表示することができる。
Further, the
更にまた、入力コードが表示される表示位置が、対応する回転角度θにおいて利用者が視認可能となる表示位置であるので、使用者の姿勢等が変化した場合でも、常に視認可能な表示部42L及び42R上の表示位置に文字等を表示することができる。
Furthermore, since the display position where the input code is displayed is a display position where the user can visually recognize at the corresponding rotation angle θ, even when the user's posture or the like changes, the
(III)変形形態に係る文字表示器等の構成及び動作
次に、本発明に係る変形形態の文字表示器の動作について、図22及び図23を用いて説明する。
(III) Configuration and Operation of Character Display According to Modified Embodiment Next, the operation of the character display according to the modified embodiment of the present invention will be described with reference to FIGS.
(A)第1変形形態
初めに、本発明に係る第1変形形態の表示動作を、図22を用いて説明する。なお図22は第1変形形態に係る表示動作を示すフローチャートである。また、図22において、図18を用いて説明した実施形態に係る表示動作と同一の動作については同一のステップ番号を付して細部の説明は省略する。更に、第1変形形態に係る仮想キーボード装置の構成は、基本的には実施形態に係る仮想キーボード装置の構成と同一であるので、以下の説明では、実施形態に係る仮想キーボード装置の構成部材と同一の部材番号を用いて説明する。
(A) First Modification First, the display operation of the first modification according to the present invention will be described with reference to FIG. FIG. 22 is a flowchart showing the display operation according to the first modification. In FIG. 22, the same operation as the display operation according to the embodiment described with reference to FIG. 18 is denoted by the same step number, and detailed description thereof is omitted. Furthermore, since the configuration of the virtual keyboard device according to the first modification is basically the same as the configuration of the virtual keyboard device according to the embodiment, in the following description, the components of the virtual keyboard device according to the embodiment will be described. Explanation will be made using the same member numbers.
上述した実施形態においては、図18に示すように、新たな入力コードの入力動作が実行されることをきっかけとして実施形態に係る表示動作を開始した。これに対し、以下に説明する第1変形形態では、新たな入力コードの入力動作に加えて、当該入力コードを入力した後の静止状態(各指14が動いていない静止状態、即ち、使用者がその入力内容を確認しようとしている状態)の有無を検出して表示動作を開始する。
In the above-described embodiment, as illustrated in FIG. 18, the display operation according to the embodiment is started when the input operation of a new input code is executed. On the other hand, in the first variation described below, in addition to the input operation of a new input code, the stationary state after inputting the input code (the stationary state where each
より具体的に第1変形形態に係る表示動作では、図22(a)に示すように、先ずステップS1として各入力コード出力部28は、夫々が対応している手に対応する入力コード出力部28からいずれかの入力コードが出力されて来たか否かを監視している。そして、いずれの入力コードの出力もないとき(ステップS1;NO)、次に各入力コード出力部28はステップS10として、各指14が静止状態と判定できる状態であるか否かを確認する。このステップS10の確認動作については後ほど詳述する。
More specifically, in the display operation according to the first modification, as shown in FIG. 22A, first, as step S1, each input
ステップS10の確認動作において静止状態と判定される状態でもないとき(ステップS10;NO)、入力コード出力部28は当該監視(ステップS1参照)を継続する。
When the check operation in step S10 is not in a state determined to be stationary (step S10; NO), the input
一方、ステップS1の確認動作においていずれかの入力コードの出力があったとき(ステップS1;YES)、又は、ステップS10の確認動作において静止状態と判定できる状態であったとき(ステップS10;YES)、入力コード出力部28及び文字表示器38は、それ以降、実施形態と同様のステップS2乃至S7の動作を実行し、第1変形形態に係る表示動作を終了する。
On the other hand, when any input code is output in the confirmation operation in step S1 (step S1; YES), or in the confirmation operation in step S10, it is possible to determine a stationary state (step S10; YES). Thereafter, the input
次に、上記ステップS10に係る静止状態の確認動作について、具体的に図22(b)を用いて説明する。 Next, the stationary state confirmation operation according to step S10 will be specifically described with reference to FIG.
当該ステップS10に係る確認動作において、先ず入力コード出力部28は、ステップS100として各指センサ16からの各加速度データの今回の値を夫々取得する。次にステップS101として入力コード出力部28は、今回の当該加速度データと直前の当該加速度データとの間の変動率を算出する。この変動率の算出について具体的には、先ず今回の加速度データにおける最大値と最小値を図15に示す学習動作中に取得しておき、これらの中間値(即ち、(最大値+最小値)÷2)を算出する。そして、直前の加速度データから今回の加速度データを減算した結果を上記中間値で除した値(即ち、(直前の加速度データ−今回の加速度データ)/中間値)をステップS101としての変動率とする。
In the confirmation operation according to step S10, the input
次に入力コード出力部28は、ステップS102として、ステップS101の動作において算出された変動率と、静止状態か否かを判定する基準として予め設定されて入力コード出力部28内に記憶されている閾値を比較する。
Next, in step S102, the input
そして、当該変動率が当該閾値以下の値であるとき(ステップS102;閾値以下)、入力コード出力部28は次に、ステップS103として現在指14が静止状態と判定できる状態であるとして(ステップS10;YES参照)、図22(a)に示すステップS2に移行する。一方、当該変動率が当該閾値より大きい値であるとき(ステップS102;閾値より大)、入力コード出力部28は次に、ステップS104として現在指14が静止状態と判定できない状態であるとして(ステップS10;NO)、図22(a)に示すステップS1に移行する。
When the fluctuation rate is a value equal to or less than the threshold value (step S102; threshold value or less), the input
(B)第2変形形態
次に、本発明に係る第2変形形態の表示動作を、図23を用いて説明する。なお図23は第2変形形態に係る表示動作を示すフローチャートである。また、図23において、図18を用いて説明した実施形態に係る表示動作及び図22を用いて説明した第1変形形態に係る表示動作と同一の動作については同一のステップ番号を付して細部の説明は省略する。更に、第2変形形態に係る仮想キーボード装置の構成もまた、基本的には実施形態に係る仮想キーボード装置の構成と同一であるので、以下の説明では、実施形態に係る仮想キーボード装置の構成部材と同一の部材番号を用いて説明する。
(B) Second Modification Next, the display operation of the second modification according to the present invention will be described with reference to FIG. FIG. 23 is a flowchart showing the display operation according to the second modification. Also, in FIG. 23, the same step number is assigned to the same display operation as the display operation according to the embodiment described with reference to FIG. 18 and the display operation according to the first modification described with reference to FIG. Description of is omitted. Furthermore, since the configuration of the virtual keyboard device according to the second modified embodiment is also basically the same as the configuration of the virtual keyboard device according to the embodiment, in the following description, the constituent members of the virtual keyboard device according to the embodiment It demonstrates using the same member number.
上述した実施形態においては、図18に示すように新たな入力コードの入力動作が実行されることをきっかけとして実施形態に係る表示動作を開始したが、以下に説明する第2変形形態では、上記第1変形形態において説明した入力コード入力後の静止状態の有無のみを検出して表示動作を開始する。 In the above-described embodiment, the display operation according to the embodiment is started as a result of the input operation of a new input code as shown in FIG. 18, but in the second modification described below, Only the presence / absence of the stationary state after the input code input described in the first modification is detected and the display operation is started.
より具体的に第2変形形態に係る表示動作では、図23に示すように、先ずステップS10として各入力コード出力部28は、第1変形形態と同様の静止状態の確認動作を行う。
More specifically, in the display operation according to the second modified embodiment, as shown in FIG. 23, first, in step S10, each input
そして、当該ステップS10の確認動作において静止状態と判定される状態でないとき(ステップS10;NO)、入力コード出力部28は当該確認動作を継続する。
And when it is not in the state determined to be a still state in the confirmation operation of the step S10 (step S10; NO), the input
一方、ステップS10の確認動作において静止状態と判定できる状態であったとき(ステップS10;YES)、入力コード出力部28及び文字表示器38は、それ以降、実施形態と同様のステップS2乃至S7の動作を実行し、第2変形形態に係る表示動作を終了する。
On the other hand, when it is determined that the stationary state can be determined in the confirmation operation in step S10 (step S10; YES), the input
以上説明したように、第1変形形態に係る仮想キーボード装置の動作又は第2変形形態に係る仮想キーボード装置の動作によれば、実施形態に係る仮想キーボード装置の動作による効果に加えて、各指14の静止状態を考慮しつつ文字等を表示する表示領域等の変更を行うので、夫々より適切に、表示部42L及び42R上の表示位置に文字等を表示することができる。
As described above, according to the operation of the virtual keyboard device according to the first modified embodiment or the operation of the virtual keyboard device according to the second modified embodiment, in addition to the effect of the operation of the virtual keyboard device according to the embodiment, each finger Since the display area for displaying characters and the like is changed in consideration of the 14 stationary states, the characters and the like can be displayed at the display positions on the
(C)第3変形形態
最後に、表示部42L又は42R自体の変形形態について、図24を用いて説明する。
(C) Third Modification Finally, a modification of the
上述して来た実施形態及び各変形形態では、表示部42L及び42Rが夫々可撓性を有する表示部42L及び42Rとして、一つのみ、夫々左手10L及び右手10Rの甲の部分に装着されている場合について説明した。しかしながらこれ以外に、例えば図24(a)に左手10Lのみについて例示するように、各手の甲の部分に、各々可撓性を有する表示部42L(42R)を、一つの手について二つ以上装着するように構成してもよい。この場合には、使用者から見た視認性について表示領域を変更するバリエーションが増えることとなるので、より視認性よく、入力コードの表示位置を決定/変更することができることとなる。
In the above-described embodiments and modifications, only one of the
また、図24(b)乃至図24(d)に例示するように、可撓性を有さない、例えば液晶ディスプレイ等の表示デバイスからなる表示部42L及び42Rを夫々の手の甲に装着する場合に本発明を適用することも可能である。
Further, as illustrated in FIGS. 24B to 24D, when the
即ち、例えば図24(b)に例示するように一つの可撓性を有さない表示部42L(42R)を装着する場合には、当該一枚の表示部42L(42R)内を複数の表示領域に区分することで、0度を中心とした所定の回転角度θに限っては、上記実施形態又は各変形形態と同様の作用効果を得ることができる。また、例えば図24(c)又は同(d)に例示するように二つ以上可撓性を有さない表示部42L(42R)を装着する場合には、各表示部42L(42R)内を複数の表示領域に夫々区分することで、より広い回転角度θの範囲について、上記実施形態又は各変形形態と同様の作用効果を得ることができる。
That is, for example, when one
なお、実施形態及び各変形形態に係る表示部42L及び42Rについては、図17、図21又は図24に例示したように手の甲だけでなく、前腕部における手に近い部分に装着するように構成することもできる。
In addition, about the
また、各表示部42L及び42Rについては、夫々が装着される手又は前腕等の部位において、当該表示部42L及び42R夫々における表示面に立てた法線の方向が、利用者から当該表示部42L及び42Rを視認可能な複数の方向となるように装着されているのが好ましい。これにより、当該利用者の姿勢に応じて視認し易く文字等を表示することができる。
Further, for each of the
更に、上述した実施形態及び各変形形態では、指センサ16等は対応する指14又は手の甲に夫々直接装着する場合について説明したが、これ以外に、左手10L及び右手10R夫々には手袋をはめることとし、この手袋における指14や手の甲に相当する部分の例えば外側(手の甲側)に、対応する指センサ16等を装着するように構成することもできる。
Further, in the above-described embodiment and each modification, the case where the
この場合には、実施形態又は各変形形態に係る仮想キーボード装置を操作しようとする度毎に各指14に対応する指センサ16を装着する必要がなく、手袋をはめるだけでそれと同じ構成となることとなり、使用者にとって至極便利である。
In this case, it is not necessary to wear the
更にまた、図15、図18並びに図22及び図23に夫々示すフローチャートに相当するプログラムをフレキシブルディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これらを汎用のマイクロコンピュータにより読み出して実行することにより、当該マイクロコンピュータを実施形態又は各変形形態に係る入力コード出力部28及び文字表示器38として活用することも可能である。
Furthermore, the programs corresponding to the flowcharts shown in FIGS. 15, 18, 22 and 23 are recorded in a recording medium such as a flexible disk or a hard disk, or obtained via a network such as the Internet, By reading and executing these with a general-purpose microcomputer, the microcomputer can be used as the input
以上夫々説明したように、本発明は入力装置の分野に利用することが可能であり、特に仮想キーボード装置を用いた入力装置の分野に適用すれば特に顕著な効果が得られる。 As described above, the present invention can be used in the field of input devices, and particularly when applied to the field of input devices using a virtual keyboard device, a particularly remarkable effect can be obtained.
10L 左手
10R 右手
14、14−1、14−2、14−3、14−4、14−5、14−6、14−7、14−8、14−9、14−10 指
15L 手首
16、16−1、16−2、16−3、16−4、16−5、16−6、16−7、16−8、16−9、16−10 指センサ
18、20 データ収集部
22−1、22−2、22−3、22−4、22−5、22−6、22−7、22−8、22−9、22−10 ハーネス
24、26 無線部
28 入力コード出力部
30、40 無線部
32 動作パターン辞書部
34 動作パターン判断部
42、42L、42R 表示部
44、44L、44R 文字コード
50 動作信号
52 文字
54 重力の方向
58 表示装置
59 列
60 表示画面
Claims (6)
前記検出手段からの前記検出信号に基づいて、当該検出信号に対応する入力情報を決定する入力情報決定手段と、
前記利用者に装着され、且つ前記入力情報決定手段により決定された前記入力情報を表示する表示手段と、
前記検出手段により生成される前記検出信号に基づいて、手の空間的な姿勢を示す情報である姿勢情報を算出し、前記姿勢情報に対応付けられている前記表示手段上の表示位置に、前記入力情報決定手段により決定された前記入力情報を表示する表示制御手段と、
を備えることを特徴とする入力装置。 A detecting unit that is mounted on a mounting unit provided on at least one of the user's finger or hand and detects a spatial motion of the user's finger to generate a detection signal;
Input information determination means for determining input information corresponding to the detection signal based on the detection signal from the detection means;
Display means for displaying the input information attached to the user and determined by the input information determination means;
Based on the detection signal generated by the detection unit, posture information that is information indicating a spatial posture of a hand is calculated, and the display position on the display unit associated with the posture information is Display control means for displaying the input information determined by the input information determination means;
An input device comprising:
前記表示制御手段は、前記表示手段上に既に表示されている前記入力情報と併せて、前記入力情報決定手段で決定された前記入力情報を前記表示位置に表示することを特徴とする入力装置。 The input device according to claim 1,
The display control means displays the input information determined by the input information determination means together with the input information already displayed on the display means at the display position.
前記表示手段は手又は前腕のいずれか一方に装着されており、
前記表示制御手段は、前記検出手段により生成される前記検出信号に基づいて前記いずれか一方の回転角度を前記姿勢情報として算出し、当該算出された前記回転角度に基づいて当該回転角度毎に予め設定されている当該表示位置に、前記入力情報決定手段により決定された前記入力情報を表示することを特徴とする入力装置。 The input device according to claim 1 or 2,
The display means is attached to either the hand or the forearm,
The display control means calculates any one of the rotation angles as the posture information based on the detection signal generated by the detection means, and previously calculates each rotation angle based on the calculated rotation angle. An input device that displays the input information determined by the input information determination means at the set display position.
前記表示位置は、当該表示位置が対応付けられている前記姿勢情報において前記利用者が当該表示位置に表示される前記入力情報を視認可能となる当該表示位置であることを特徴とする入力装置。 The input device according to any one of claims 1 to 3,
The input device, wherein the display position is the display position at which the user can visually recognize the input information displayed at the display position in the posture information associated with the display position.
前記表示手段は、当該表示手段における前記入力情報の表示面に立てた法線の方向が、前記利用者から当該表示手段を視認可能な複数の方向となるように装着されていることを特徴とする入力装置。 The input device according to any one of claims 1 to 4,
The display means is mounted so that directions of normals on the display surface of the input information in the display means are a plurality of directions in which the user can visually recognize the display means. Input device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009137596A JP2010282575A (en) | 2009-06-08 | 2009-06-08 | Input device and program for input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009137596A JP2010282575A (en) | 2009-06-08 | 2009-06-08 | Input device and program for input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010282575A true JP2010282575A (en) | 2010-12-16 |
Family
ID=43539222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009137596A Withdrawn JP2010282575A (en) | 2009-06-08 | 2009-06-08 | Input device and program for input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010282575A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101514658B1 (en) * | 2014-01-08 | 2015-05-20 | 강릉원주대학교산학협력단 | Wearable game manipulation system based on arduino and method for game manipulation method using the same |
KR20150104769A (en) * | 2014-03-06 | 2015-09-16 | 엘지전자 주식회사 | glass-type mobile terminal |
US9971313B2 (en) | 2014-08-28 | 2018-05-15 | Samsung Electronics Co., Ltd. | Processor processing sensor signal corresponding to wrist muscle movement and devices including same |
-
2009
- 2009-06-08 JP JP2009137596A patent/JP2010282575A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101514658B1 (en) * | 2014-01-08 | 2015-05-20 | 강릉원주대학교산학협력단 | Wearable game manipulation system based on arduino and method for game manipulation method using the same |
KR20150104769A (en) * | 2014-03-06 | 2015-09-16 | 엘지전자 주식회사 | glass-type mobile terminal |
KR102184402B1 (en) | 2014-03-06 | 2020-11-30 | 엘지전자 주식회사 | glass-type mobile terminal |
US9971313B2 (en) | 2014-08-28 | 2018-05-15 | Samsung Electronics Co., Ltd. | Processor processing sensor signal corresponding to wrist muscle movement and devices including same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10948992B1 (en) | Ring human-machine interface | |
US8619048B2 (en) | Method and device of stroke based user input | |
US20110157236A1 (en) | Head-mounted display | |
US20100177121A1 (en) | Information processing apparatus, information processing method, and program | |
JP5207145B2 (en) | Head mounted display | |
JP2014092849A (en) | Electronic device, handwriting display method and program | |
US20040212590A1 (en) | 3D-input device and method, soft key mapping method therefor, and virtual keyboard constructed using the soft key mapping method | |
US20170024117A1 (en) | Touch input device and control method of the same | |
US20050231466A1 (en) | Pointing device | |
JP2010282575A (en) | Input device and program for input device | |
JP4786292B2 (en) | Information processing apparatus, hierarchical information output method, and program | |
US20200133474A1 (en) | Accommodative user interface for handheld electronic devices | |
JP5477203B2 (en) | Input device | |
JP2010277469A (en) | Input device | |
JP5427940B1 (en) | Input device, angle input device, and program | |
US8571713B2 (en) | Robot and method thereof | |
JP2011170747A (en) | Information input device | |
CN204557377U (en) | Electronics input gloves | |
CN108572744B (en) | Character input method and system and computer readable recording medium | |
JP2012194626A (en) | Display device | |
JP2007052696A (en) | Drawing apparatus | |
JP4657171B2 (en) | Portable electronic device and control method thereof | |
JP6217701B2 (en) | Input device | |
JP2010238207A (en) | Input device and program for the same | |
JP5992380B2 (en) | Pointing device, notebook personal computer, and operation method. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120904 |