JP2010282575A - Input device and program for input device - Google Patents

Input device and program for input device Download PDF

Info

Publication number
JP2010282575A
JP2010282575A JP2009137596A JP2009137596A JP2010282575A JP 2010282575 A JP2010282575 A JP 2010282575A JP 2009137596 A JP2009137596 A JP 2009137596A JP 2009137596 A JP2009137596 A JP 2009137596A JP 2010282575 A JP2010282575 A JP 2010282575A
Authority
JP
Japan
Prior art keywords
display
input
finger
hand
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009137596A
Other languages
Japanese (ja)
Inventor
Takuya Nakamura
琢也 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009137596A priority Critical patent/JP2010282575A/en
Publication of JP2010282575A publication Critical patent/JP2010282575A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device which can display input content at an appropriate position even when being in use, in a wearable input device. <P>SOLUTION: The input device has a finger sensor which is worn by at least one of a finger and a hand of a user and which detects spatial operation of the finger to generate detection signals, and display sections 42L and 42R which are worn by the user and which display input information corresponding to each of the detection signals, and calculates spatial posture of the hand based on each detection signal, and displays the input information at display positions on the display sections 42L and 42R associated with the posture. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、入力装置及び入力装置用プログラムの技術分野に属する。より詳細には、利用者の指の空間的な動作を検出して得られた検出信号に対応する入力コードを出力する入力装置及び当該入力装置用のプログラムの技術分野に属する。   The present invention belongs to the technical field of input devices and programs for input devices. More specifically, the present invention belongs to the technical field of an input device that outputs an input code corresponding to a detection signal obtained by detecting a spatial motion of a user's finger and a program for the input device.

一般に、いわゆるコンピュータ装置等において、アルファベット等の文字を入力する際の入力装置として、各文字に対応し指により操作されるキーが配列されたキーボードが使用されている。このキーボードは、その配置のためのスペースが必要であり、省スペースの観点からキーボードの小型化が望まれている。一方、キーボードのキーが指により操作される点を考慮すると、操作性の観点から、キーボードの小型化には限界がある。   In general, in a so-called computer device or the like, a keyboard on which keys that are operated by a finger corresponding to each character are arranged is used as an input device when inputting characters such as alphabets. This keyboard requires a space for its arrangement, and it is desired to reduce the size of the keyboard from the viewpoint of space saving. On the other hand, considering that the keys on the keyboard are operated by fingers, there is a limit to downsizing the keyboard from the viewpoint of operability.

そこで現在、上記入力装置の一種として、キーボードの配置のためのスペースが不要である仮想キーボード装置が提案されている。この種のキーボード装置では、指にセンサを装着し、当該センサにより指の空間的な動作を検出し、当該検出した動作を示す動作信号に対応する入力コードが出力される。このような仮想キーボード装置に関する従来技術は、例えば、下記特許文献1に記載されている。当該特許文献1では、いわゆるウェアラブル入力装置において、出力された入力コードに相当する文字等が、使用者の視認が可能な位置に配置されているコンピュータ上に表示されることとされている。   Therefore, a virtual keyboard device that does not require a space for keyboard layout has been proposed as a kind of the input device. In this type of keyboard device, a sensor is attached to a finger, a spatial motion of the finger is detected by the sensor, and an input code corresponding to an operation signal indicating the detected motion is output. The prior art regarding such a virtual keyboard device is described, for example, in Patent Document 1 below. In Patent Document 1, in a so-called wearable input device, a character or the like corresponding to an output input code is displayed on a computer arranged at a position where the user can visually recognize it.

特開平10−307663号公報Japanese Patent Laid-Open No. 10-307663

しかしながら、上述した特許文献1に開示されている従来の構成では、視認可能な位置に固定された表示部材がないと入力コードとしての入力内容を確認できない。よって、結果的に移動等ができず、ウェアラブル入力装置としてはその利便性に欠けると言う問題点があった。   However, in the conventional configuration disclosed in Patent Document 1 described above, the input content as the input code cannot be confirmed without a display member fixed at a visually recognizable position. As a result, there is a problem in that the wearable input device cannot be moved and is not convenient as a wearable input device.

そこで、本発明は上記の問題点に鑑みて為されたもので、その目的の一例は、ウェアラブル入力装置において、その使用中においても適切な位置に入力内容を表示することが可能な入力装置及び当該入力装置用のプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an example of the purpose thereof is an input device capable of displaying input contents at an appropriate position even during use in a wearable input device, and It is to provide a program for the input device.

上記の課題を解決するために、請求項1に記載の発明は、利用者の指又は手の少なくともいずれか一方に設けられた装着部に装着され、且つ当該利用者の指の空間的な動作を検出して検出信号を生成する指センサ等の検出手段と、前記検出手段からの前記検出信号に基づいて、当該検出信号に対応する入力情報を決定する入力コード出力部等の入力情報決定手段と、前記利用者に装着され、且つ前記入力情報決定手段により決定された前記入力情報を表示する表示部等の表示手段と、前記検出手段により生成される前記検出信号に基づいて、手の空間的な姿勢を示す情報である姿勢情報を算出し、前記姿勢情報に対応付けられている前記表示手段上の表示位置に、前記入力情報決定手段により決定された前記入力情報を表示する入力コード出力部等の表示制御手段と、を備える。   In order to solve the above-described problem, the invention according to claim 1 is mounted on a mounting portion provided on at least one of the user's finger or hand, and the spatial movement of the user's finger. Detection means such as a finger sensor that detects a detection signal and input information determination means such as an input code output unit that determines input information corresponding to the detection signal based on the detection signal from the detection means And a display unit such as a display unit that displays the input information that is worn by the user and determined by the input information determination unit, and a hand space based on the detection signal generated by the detection unit Posture information, which is information indicating a specific posture, is calculated, and an input code output for displaying the input information determined by the input information determination means at a display position on the display means associated with the posture information. And a display control means such as a department.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の入力装置において、前記表示制御手段は、前記表示手段上に既に表示されている前記入力情報と併せて、前記入力情報決定手段で決定された前記入力情報を前記表示位置に表示するように構成される。   In order to solve the above problem, the invention according to claim 2 is the input device according to claim 1, wherein the display control means is combined with the input information already displayed on the display means. The input information determined by the input information determining means is displayed at the display position.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は2に記載の入力装置において、前記表示手段は手又は前腕のいずれか一方に装着されており、前記表示制御手段は、前記検出手段により生成される前記検出信号に基づいて前記いずれか一方の回転角度を前記姿勢情報として算出し、当該算出された前記回転角度に基づいて当該回転角度毎に予め設定されている当該表示位置に、前記入力情報決定手段により決定された前記入力情報を表示するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 3 is the input device according to claim 1 or 2, wherein the display means is attached to either the hand or the forearm, and the display control is performed. The means calculates one of the rotation angles as the posture information based on the detection signal generated by the detection means, and is preset for each rotation angle based on the calculated rotation angle. The input information determined by the input information determination means is displayed at the display position.

上記の課題を解決するために、請求項4に記載の発明は、請求項1から3のいずれか一項に記載の入力装置において、前記表示位置は、当該表示位置が対応付けられている前記姿勢情報において前記利用者が当該表示位置に表示される前記入力情報を視認可能となる当該表示位置であるように構成される。   In order to solve the above-described problem, the invention according to claim 4 is the input device according to any one of claims 1 to 3, wherein the display position is associated with the display position. The posture information is configured to be the display position at which the user can visually recognize the input information displayed at the display position.

上記の課題を解決するために、請求項5に記載の発明は、請求項1から4のいずれか一項に記載の入力装置において、前記表示手段は、当該表示手段における前記入力情報の表示面に立てた法線の方向が、前記利用者から当該表示手段を視認可能な複数の方向となるように装着されている。   In order to solve the above-mentioned problem, the invention according to claim 5 is the input device according to any one of claims 1 to 4, wherein the display means is a display surface of the input information in the display means. It is mounted so that the directions of the normals raised in the direction are a plurality of directions in which the display means can be visually recognized by the user.

上記の課題を解決するために、請求項6に記載の発明は、コンピュータを、前記検出手段を除いた請求項1から5のいずれか一項に記載の入力装置として機能させる。   In order to solve the above-described problem, the invention according to claim 6 causes a computer to function as the input device according to any one of claims 1 to 5 excluding the detection unit.

請求項1に記載の発明によれば、決定された入力情報を、手の空間的な姿勢を示す姿勢情報に対応付けられている表示位置に表示するので、使用者の姿勢等が変化した場合でも、適切な表示手段上の表示位置に入力情報を表示することができる。   According to the first aspect of the present invention, since the determined input information is displayed at the display position associated with the posture information indicating the spatial posture of the hand, the user's posture or the like changes However, the input information can be displayed at a display position on an appropriate display means.

また請求項6に記載の発明によれば、当該入力装置用プログラムを当該コンピュータで読み出して実行することにより、決定された入力情報を、手の空間的な姿勢を示す姿勢情報に対応付けられている表示位置に表示するように当該コンピュータが機能するので、使用者の姿勢等が変化した場合でも、適切な表示手段上の表示位置に入力情報を表示することができる。   According to the invention described in claim 6, by reading and executing the input device program by the computer, the determined input information is associated with the posture information indicating the spatial posture of the hand. Since the computer functions so as to display at a display position, input information can be displayed at an appropriate display position on the display means even when the posture of the user changes.

従って、請求項1又は6に記載の発明によれば、利用者の指の空間的な動作を検出して得られた検出信号に対応する入力情報を出力する入力装置において、その使用中においても適切な位置に入力内容を表示することができる。   Therefore, according to the first or sixth aspect of the invention, in the input device that outputs input information corresponding to the detection signal obtained by detecting the spatial movement of the user's finger, the input device is in use. The input content can be displayed at an appropriate position.

請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、表示手段上に既に表示されている入力情報と併せて、入力情報決定手段で決定された入力情報を、姿勢情報に対応付けられている表示位置に表示するので、例えば複数の文字からなる句等を入力する場合でも、当該句全体を適切な位置に表示してその内容を認識することができる。   According to the invention described in claim 2, in addition to the effect of the invention described in claim 1, in addition to the input information already displayed on the display means, the input information determined by the input information determination means For example, even when a phrase composed of a plurality of characters is input, the entire phrase can be displayed at an appropriate position and its contents can be recognized.

請求項3に記載の発明によれば、請求項1又は2に記載の発明の効果に加えて、手又は前腕のいずれか一方に表示手段が装着されており、当該いずれか一方の回転角度を姿勢情報として算出し、当該算出された回転角度に基づいて当該回転角度毎に予め設定されている表示位置に入力情報を表示するので、手又は前腕の回転に応じて表示位置が最適化されることで、常に最適な表示位置に入力情報を表示することができる。   According to the invention described in claim 3, in addition to the effect of the invention described in claim 1 or 2, the display means is attached to either one of the hand or the forearm, and the rotation angle of either one of them is determined. Since it is calculated as posture information and input information is displayed at a display position preset for each rotation angle based on the calculated rotation angle, the display position is optimized according to the rotation of the hand or forearm. Thus, the input information can always be displayed at the optimum display position.

請求項4に記載の発明によれば、請求項1から3のいずれか一項に記載の発明の効果に加えて、入力情報が表示される表示位置が、対応する姿勢情報において利用者が当該表示位置に表示される入力情報を視認可能となる当該表示位置であるので、使用者の姿勢等が変化した場合でも、常に視認可能な表示手段上の表示位置に入力情報を表示することができる。   According to the invention described in claim 4, in addition to the effect of the invention described in any one of claims 1 to 3, the display position where the input information is displayed corresponds to the posture information corresponding to the user. Since the input information displayed at the display position is the display position at which the input information is visible, the input information can be displayed at the display position on the display means that is always visible even when the posture of the user changes. .

請求項5に記載の発明によれば、請求項1から4のいずれか一項に記載の発明の効果に加えて、表示手段における表示面に立てた法線の方向が利用者から表示手段を視認可能な複数の方向となるように表示手段が装着されているので、当該利用者の姿勢に応じて視認し易く入力情報を表示することができる。   According to the invention described in claim 5, in addition to the effect of the invention described in any one of claims 1 to 4, the direction of the normal line set up on the display surface in the display means is changed from the user to the display means. Since the display means is mounted so as to be in a plurality of visually recognizable directions, the input information can be easily displayed according to the user's posture.

仮想キーボード装置の構成を示す図である。It is a figure which shows the structure of a virtual keyboard apparatus. 仮想キーボード装置の他の構成を示す図である。It is a figure which shows the other structure of a virtual keyboard apparatus. 指センサを示す図である。It is a figure which shows a finger sensor. 静止状態での指センサの出力電圧を示すグラフ図である。It is a graph which shows the output voltage of the finger sensor in a stationary state. キー押下げ時における指センサの出力電圧を示すグラフ図である。It is a graph which shows the output voltage of the finger sensor at the time of key depression. パターン判断部を含む入力コード出力部の構成を示す図である。It is a figure which shows the structure of the input code output part containing a pattern judgment part. 動作パターン辞書部に記憶されている、指が左方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the motion pattern when a finger | toe moves to the left direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of an X-axis direction, (B) is the motion pattern of a Y-axis direction. Indicates. 動作パターン辞書部に記憶されている、指が右方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving rightward memorize | stored in the operation | movement pattern dictionary part, (A) shows the operation pattern of an X-axis direction, (B) is the operation pattern of a Y-axis direction. Indicates. 動作パターン辞書部に記憶されている、指がまっすぐ先の方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving straight ahead memorize | stored in the operation | movement pattern dictionary part, (A) shows the operation pattern of an X-axis direction, (B) is a Y-axis direction. An operation pattern is shown. 動作パターン辞書部に記憶されている、指がまっすぐ手前の方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving to the near front memorize | stored in the operation | movement pattern dictionary part, (A) shows the operation pattern of an X-axis direction, (B) is a Y-axis direction. An operation pattern is shown. 動作パターン辞書部に記憶されている、指が左先の方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving to the left tip direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of the X-axis direction, (B) is the Y-axis direction. An operation pattern is shown. 動作パターン辞書部に記憶されている、指が右先の方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving to the right tip direction memorize | stored in the operation | movement pattern dictionary part, (A) shows the operation pattern of an X-axis direction, (B) is a Y-axis direction. An operation pattern is shown. 動作パターン辞書部に記憶されている、指が左手前の方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the operation | movement pattern at the time of a finger | toe moving to the left front direction memorize | stored in the operation | movement pattern dictionary part, (A) shows an operation pattern of the X-axis direction, (B) shows the Y-axis direction. An operation pattern is shown. 動作パターン辞書部に記憶されている、指が右手前の方向に移動する際の動作パターンを示す図であり、(A)はX軸方向の動作パターンを示し、(B)はY軸方向の動作パターンを示す。It is a figure which shows the motion pattern at the time of a finger | toe moving to the right front direction memorize | stored in the motion pattern dictionary part, (A) shows the motion pattern of the X-axis direction, (B) is the Y-axis direction. An operation pattern is shown. 仮想キーボード装置の学習動作を示すフローチャート図である。It is a flowchart figure which shows learning operation | movement of a virtual keyboard apparatus. 仮想キーボード装置を含む入力システムを示す図である。It is a figure which shows the input system containing a virtual keyboard apparatus. 実施形態に係る表示部の手における配置等を例示する図であり、(a)は左右の手に配置された当該表示部の外観を例示する図であり、(b)は左右夫々の表示部における表示例を示す図である。It is a figure which illustrates arrangement | positioning etc. in the hand of the display part which concerns on embodiment, (a) is a figure which illustrates the external appearance of the said display part arrange | positioned at the right and left hand, (b) is each display part of right and left It is a figure which shows the example of a display. 実施形態に係る表示動作を示すフローチャートである。It is a flowchart which shows the display operation which concerns on embodiment. 実施形態に係る手首の姿勢検出のための構成を示す図であり、(a)は指センサが装着されている左手人差し指の外観図であり、(b)は左手についての姿勢検出の検出軸等を例示する図であり、(c)は実施形態に係る回転角度−表示領域対応テーブルの内容を例示する図である。It is a figure which shows the structure for the attitude | position detection of the wrist which concerns on embodiment, (a) is an external view of the left index finger with which the finger sensor is mounted | worn, (b) is a detection axis | shaft etc. of attitude | position detection about a left hand (C) is a figure which illustrates the content of the rotation angle-display area corresponding | compatible table which concerns on embodiment. 実施形態に係る手首の姿勢検出のための行列式を示す図であり、(a)は当該行列式の基本式であり、(b)及び(c)は当該行列式の応用例である。It is a figure which shows the determinant for the attitude | position detection of the wrist which concerns on embodiment, (a) is a basic formula of the said determinant, (b) And (c) is an application example of the said determinant. 実施形態に係る表示動作の結果を例示する左手の外観図であり、(a)は第一例であり、(b)は第二例である。It is an external view of the left hand which illustrates the result of display operation concerning an embodiment, (a) is the 1st example and (b) is the 2nd example. 第1変形形態に係る表示動作を示すフローチャートであり、(a)は当該表示動作の全体を示すフローチャートであり、(b)は静止状態判定動作の細部を示すフローチャートである。It is a flowchart which shows the display operation which concerns on a 1st modification, (a) is a flowchart which shows the said whole display operation, (b) is a flowchart which shows the detail of a stationary state determination operation | movement. 第2変形形態に係る表示動作を示すフローチャートである。It is a flowchart which shows the display operation which concerns on a 2nd modification. 第3変形形態に係る表示部の手における配置等を例示する図であり、(a)は第一例を示す外観図であり、(b)は第二例を示す外観図であり、(c)は第三例を示す外観図であり、(d)は第四例を示す外観図である。It is a figure which illustrates arrangement | positioning etc. in the hand of the display part which concern on 3rd modification, (a) is an external view which shows a 1st example, (b) is an external view which shows a 2nd example, (c ) Is an external view showing a third example, and (d) is an external view showing a fourth example.

以下、本発明を実施するための形態について、図面を参照しながら説明する。なお、以下に説明する実施の形態は、仮想キーボード装置に対して本発明を適用した場合の実施の形態である。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to a virtual keyboard device.

(I)仮想キーボード装置の概略
先ず、実施形態に係る仮想キーボード装置の概略について説明する。
(I) Outline of Virtual Keyboard Device First, an outline of a virtual keyboard device according to an embodiment will be described.

図1には、仮想キーボード装置の構成が示されている。図1において、利用者の装着部の一例としての左手10L及び右手10Rの指14−1乃至14−5及び14−6乃至14−10には、夫々、検出手段の一例としての指センサ16−1乃至16−5及び16−6乃至16−10が装着されている。   FIG. 1 shows the configuration of the virtual keyboard device. In FIG. 1, fingers 14-1 to 14-5 and 14-6 to 14-10 of the left hand 10 </ b> L and the right hand 10 </ b> R as an example of a user's wearing part are respectively provided with finger sensors 16-as an example of detection means. 1 to 16-5 and 16-6 to 16-10 are mounted.

この指センサ16は、指の空間的な動作を検出し、その変化に伴って変化する動作信号を出力するセンサであり、例えば、加速度センサ又はジャイロセンサから構成されている。なお、指センサ16の詳細については、後述する。   The finger sensor 16 is a sensor that detects a spatial movement of the finger and outputs an operation signal that changes in accordance with the movement, and is configured by, for example, an acceleration sensor or a gyro sensor. Details of the finger sensor 16 will be described later.

左手10L及び右手10Rの例えば手の甲には、夫々、データ収集部18及び20が装着されており、当該データ収集部18及び20には、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号がハーネス22−1乃至22−5及び22−6乃至22−10を介して供給される。データ収集部18及び20は、夫々、無線部24及び26を有しており、当該無線部24及び26からの動作信号は、入力コード決定手段及び表示制御手段の一例としての入力コード出力部28における無線部30に受信される。このとき、データ収集部18及び20に収集された動作信号は有線(ハーネス)を介して、入力コード出力部28に受信されてもよい。   For example, the backs of the left hand 10L and the right hand 10R are equipped with data collection units 18 and 20, respectively. The data collection units 18 and 20 have finger sensors 16-1 to 16-5 and 16-6 to 16 respectively. The operation signal from −10 is supplied via the harnesses 22-1 to 22-5 and 22-6 to 22-10. The data collection units 18 and 20 have radio units 24 and 26, respectively, and operation signals from the radio units 24 and 26 are input code output units 28 as an example of input code determination means and display control means. Is received by the radio unit 30. At this time, the operation signals collected by the data collection units 18 and 20 may be received by the input code output unit 28 via a wire (harness).

入力コード出力部28は、無線部30に加え、動作パターン辞書部32と、動作パターン判断部34と、を備えている。   In addition to the wireless unit 30, the input code output unit 28 includes an operation pattern dictionary unit 32 and an operation pattern determination unit 34.

動作パターン辞書部32は、指の動作信号のパターンを示す辞書パターン情報を記憶する記憶部である。この辞書パターン情報の詳細については、後ほど図7乃至図14を用いて詳説する。   The motion pattern dictionary unit 32 is a storage unit that stores dictionary pattern information indicating a pattern of finger motion signals. Details of the dictionary pattern information will be described later with reference to FIGS.

一方、動作パターン判断部34は、動作パターン辞書部32に記憶されているパターン情報に対応する動作信号と、無線部30から供給された動作信号とを比較し、検出された動作信号に対応する入力コードを出力する。   On the other hand, the operation pattern determination unit 34 compares the operation signal corresponding to the pattern information stored in the operation pattern dictionary unit 32 with the operation signal supplied from the wireless unit 30 and corresponds to the detected operation signal. Output the input code.

そして、当該出力された入力コードは、入力コード出力部28に設けられた無線部36から表示制御手段の一例としての文字表示器38の無線部40に送信される。この文字表示器38は、表示部42を有しており、当該表示部42には、指の動作により入力された入力コードとして例えば文字コード44が表示される。なおこの場合も、入力コード出力部28と文字表示器38は有線(ハーネス)で接続され、通信されてもよい。   The output input code is transmitted from the wireless unit 36 provided in the input code output unit 28 to the wireless unit 40 of the character display 38 as an example of the display control means. The character display 38 has a display unit 42, and a character code 44, for example, is displayed on the display unit 42 as an input code input by the operation of a finger. In this case as well, the input code output unit 28 and the character display 38 may be connected by wire (harness) and communicated.

図2には、仮想キーボード装置の他の構成が示されている。   FIG. 2 shows another configuration of the virtual keyboard device.

図1の構成では、左手10L及び右手10Rに夫々データ収集部18及び20が装着されていたが、図2の構成では、データ収集部が設けられていない。そして、指センサ16−1乃至16−5及び16−6乃至16−10からの動作信号は、ハーネス22−1乃至22−5及び22−6乃至22−10を介して、入力コード出力部28の動作パターン判断部34に供給されることとなる。   In the configuration of FIG. 1, the data collection units 18 and 20 are attached to the left hand 10L and the right hand 10R, respectively, but in the configuration of FIG. 2, no data collection unit is provided. The operation signals from the finger sensors 16-1 to 16-5 and 16-6 to 16-10 are input to the input code output unit 28 via the harnesses 22-1 to 22-5 and 22-6 to 22-10. Is supplied to the operation pattern determination unit 34.

なお、以下に詳細に説明する実施形態では、図1及び図2に示す仮想キーボード装置の構成において、文字表示器38及び入力コード出力部28は、夫々、左手用の文字表示器38及び入力コード出力部28と、右手用の文字表示器38及び入力コード出力部28と、の二組が設けられている。そして、左手用の入力コード出力部28は左手10Lの指14−1乃至14−5の動作により入力されたものとして検出された入力コードを出力し、左手用の文字表示器38における表示部42は左手用の入力コード出力部28から出力された当該入力コードに相当する入力情報の一例としての文字、数字又は記号或いは当該入力コードそのもの(以下、当該文字、数字又は記号或いは当該入力コードそのものを、単に「文字等」と称する)を表示する。一方、右手用の入力コード出力部28は右10Rの指14−6乃至14−10の動作により入力されたものとして検出された入力コードを出力し、右手用の文字表示器38における表示部42は右手用の入力コード出力部28から出力された当該入力コードに相当する文字等を表示する。なお、左手用の入力コード出力部28から出力された入力コードに相当する文字等と、右手用の入力コード出力部28から出力された入力コードに相当する文字等の両方を、左手用の文字表示器38における表示部42及び右手用の文字表示器38における表示部42の両方又はいずれか片方に表示してもよい。   In the embodiment described in detail below, in the configuration of the virtual keyboard device shown in FIG. 1 and FIG. 2, the character display 38 and the input code output unit 28 are the left hand character display 38 and the input code, respectively. Two sets of output unit 28, right hand character display 38 and input code output unit 28 are provided. The input code output unit 28 for the left hand outputs an input code detected as input by the operation of the fingers 14-1 to 14-5 of the left hand 10L, and the display unit 42 in the character display 38 for the left hand. Is a character, number or symbol or the input code itself (hereinafter referred to as the character, number or symbol or the input code itself) as an example of input information corresponding to the input code output from the left-hand input code output unit 28. Simply referred to as “characters”). On the other hand, the input code output unit 28 for the right hand outputs an input code detected as input by the operation of the right 14R fingers 14-6 to 14-10, and the display unit 42 in the character display 38 for the right hand. Displays a character or the like corresponding to the input code output from the input code output unit 28 for the right hand. Both the character corresponding to the input code output from the input code output unit 28 for the left hand and the character corresponding to the input code output from the input code output unit 28 for the right hand You may display on both or any one of the display part 42 in the display 38, and the display part 42 in the character display 38 for right hands.

図3には、指センサ16の例として加速度センサが示されている。   In FIG. 3, an acceleration sensor is shown as an example of the finger sensor 16.

図3において、指センサ16は、三軸の加速度センサであり、X軸、Y軸及びZ軸の夫々について指の動作による加速度を検出する。なお、Z軸は重力加速度の方向54を示す。   In FIG. 3, a finger sensor 16 is a three-axis acceleration sensor, and detects acceleration due to finger movement on each of the X axis, the Y axis, and the Z axis. The Z axis indicates the direction 54 of gravitational acceleration.

図4には、指の静止状態での指センサ16の出力電圧の一例が示されている。   FIG. 4 shows an example of the output voltage of the finger sensor 16 when the finger is stationary.

図4においてZ軸方向の出力電圧は、X軸方向及びY軸方向の出力電圧と比較して、重力加速度分(符号46を参照)だけ異なることが判る。   In FIG. 4, it can be seen that the output voltage in the Z-axis direction differs from that in the X-axis direction and the Y-axis direction by the amount of gravitational acceleration (see reference numeral 46).

図5には、空間内でキー押下げ動作をした時の指センサ16の出力電圧が示されている。   FIG. 5 shows the output voltage of the finger sensor 16 when the key is depressed in the space.

図5は、実施形態に係る仮想キーボード装置において文字「Q」のキーを押し下げるように左手10Lの各指(主として小指14−5)を動作させた場合の各指センサ16の出力電圧を示している。なお、本発明に係る仮想キーボード装置のキー配列は、いわゆるJIS(Japanese Industrial Standard)配列を採用している。また、図5の上段、中段及び下段のグラフは、夫々、小指14−5、薬指14−4及び親指14−1に装着された各指センサ16のX軸方向、Y軸方向及びZ軸方向の出力電圧を示し、他の中指14−3及び人差し指14−2夫々に装着された指センサ16のX軸方向、Y軸方向及びZ軸方向の出力電圧については、図示を省略する。   FIG. 5 shows the output voltage of each finger sensor 16 when each finger (mainly the little finger 14-5) of the left hand 10L is operated so as to push down the key of the letter “Q” in the virtual keyboard device according to the embodiment. Yes. The key arrangement of the virtual keyboard device according to the present invention employs a so-called JIS (Japanese Industrial Standard) arrangement. In addition, the upper, middle, and lower graphs in FIG. 5 show the X-axis direction, the Y-axis direction, and the Z-axis direction of each finger sensor 16 attached to the little finger 14-5, the ring finger 14-4, and the thumb 14-1, respectively. The output voltages in the X-axis direction, Y-axis direction, and Z-axis direction of the finger sensor 16 attached to the other middle finger 14-3 and index finger 14-2 are not shown.

そして、図5において、文字「Q」のキーを押し下げる動作を行っている時間(図5中、符号48で示す時間)には、小指14−5の動作が大きいことが判る。即ち、図5の上段に示されるように、小指14−5に装着された指センサ16−5のX軸方向、Y軸方向及びZ軸方向の出力電圧の変化は、他の指に装着された指センサ16のX軸方向、Y軸方向及びZ軸方向の出力電圧の変化と比較して、大きいことが判る。   In FIG. 5, it can be seen that the operation of the little finger 14-5 is large during the time when the operation of depressing the key of the letter “Q” is performed (the time indicated by reference numeral 48 in FIG. 5). That is, as shown in the upper part of FIG. 5, changes in the output voltage in the X-axis direction, the Y-axis direction, and the Z-axis direction of the finger sensor 16-5 attached to the little finger 14-5 are attached to other fingers. It can be seen that this is larger than the change in output voltage of the finger sensor 16 in the X-axis direction, Y-axis direction, and Z-axis direction.

図6には、動作パターン判断部34を含む入力コード出力部28の構成が示されている。   FIG. 6 shows the configuration of the input code output unit 28 including the operation pattern determination unit 34.

図6において、例えば左手10Lについて考えると、上述したように各指14−1乃至14−5の夫々に指センサ16が装着され、一つの指センサ16は、三軸(X軸、Y軸及びZ軸)の動作信号を出力する。従って、動作パターン判断部34には、5×3=15個の動作信号50が供給される。   In FIG. 6, for example, regarding the left hand 10L, as described above, the finger sensor 16 is attached to each of the fingers 14-1 to 14-5, and one finger sensor 16 has three axes (X axis, Y axis, and (Z-axis) operation signal is output. Therefore, 5 × 3 = 15 operation signals 50 are supplied to the operation pattern determination unit 34.

ここで、実施形態に係る仮想キーボード装置では、15個の動作信号50、即ち15個のデータを、ニューラルネットワークを用いて各文字52にマッピングすることにより学習を行い、動作パターン辞書部32における上記辞書パターン情報を作成又は更新する。   Here, in the virtual keyboard device according to the embodiment, learning is performed by mapping 15 motion signals 50, that is, 15 data, to each character 52 using a neural network, and the motion pattern dictionary unit 32 performs the above-described learning. Create or update dictionary pattern information.

ここで、当該辞書パターン情報の内容について、具体的に図7乃至14を用いて例示しつつ説明する。   Here, the contents of the dictionary pattern information will be specifically described with reference to FIGS.

先ず図7は、動作パターン辞書部32に記憶されている、指14が左方向に移動する際の動作パターンを示しており、図7(A)はX軸方向の動作パターンを示し、図7(B)はY軸方向の動作パターンを示す。   First, FIG. 7 shows an operation pattern stored in the operation pattern dictionary unit 32 when the finger 14 moves to the left, and FIG. 7A shows an operation pattern in the X-axis direction. (B) shows an operation pattern in the Y-axis direction.

同様にして、図8は指14が右方向に移動する際の当該動作パターンを示し、図9は指14がまっすぐ先の方向に移動する際の当該動作パターンを示し、図10は指14がまっすぐ手前の方向に移動する際の当該動作パターンを示し、図11は指14が左先の方向に移動する際の当該動作パターンを示し、図12は指14が右先の方向に移動する際の当該動作パターンを示し、図13は指14が左手前の方向に移動する際の当該動作パターンを示し、図14は指14が右手前の方向に移動する際の当該動作パターンを示す。   Similarly, FIG. 8 shows the motion pattern when the finger 14 moves rightward, FIG. 9 shows the motion pattern when the finger 14 moves straight ahead, and FIG. 10 shows the motion pattern when the finger 14 moves. FIG. 11 shows the motion pattern when the finger 14 moves in the left-hand direction, and FIG. 12 shows the motion pattern when the finger 14 moves in the right-hand direction. FIG. 13 shows the operation pattern when the finger 14 moves in the left front direction, and FIG. 14 shows the operation pattern when the finger 14 moves in the right front direction.

そして動作パターン判断部34は、図7乃至図14に例示されるように、指センサ16の出力電圧に基づくX軸方向の出力電圧が、当該X軸方向について予め設定されている閾値1を上方に(+方向に)突破する状況又は当該X軸方向について予め設定されている閾値2を下方に(−方向に)突破する状況、及びY軸方向の出力電圧が当該Y軸方向について予め設定されている閾値1を上方に(+方向に)突破する状況又は当該Y軸方向について予め設定されている閾値2を下方に(−方向に)突破する状況に基づいて、指14の動作パターンを検出し、当該検出された指14の動作パターンにより決定される指14の移動方向に基づいて、対応する入力コードを出力する。   Then, as illustrated in FIGS. 7 to 14, the operation pattern determination unit 34 causes the output voltage in the X-axis direction based on the output voltage of the finger sensor 16 to exceed the threshold value 1 set in advance in the X-axis direction. (In the + direction) or the threshold value 2 that has been preset in the X-axis direction downward (in the-direction), and the output voltage in the Y-axis direction is preset in the Y-axis direction. The motion pattern of the finger 14 is detected based on the situation where the threshold value 1 is broken upward (in the + direction) or the threshold value 2 preset in the Y-axis direction is broken down (in the − direction). Then, based on the movement direction of the finger 14 determined by the detected movement pattern of the finger 14, a corresponding input code is output.

次に、上述した辞書パターン情報の作成又は更新に係る上記学習としての動作について、具体的に図15を用いて説明する。   Next, the operation as the learning related to the creation or update of the dictionary pattern information described above will be specifically described with reference to FIG.

図15には、実施形態に係る仮想キーボード装置の学習動作を示すフローチャートが示されている。また、当該学習動作は原則として各手10毎に実行される。   FIG. 15 is a flowchart showing the learning operation of the virtual keyboard device according to the embodiment. The learning operation is performed for each hand 10 in principle.

図15において、ステップS10で電源をオンにし、ステップS12に進む。そして、ステップS12で入力操作者の判断により学習モードであると、ステップS14に進み、キーボードを各入力コード出力部28(図1又は図2を参照)に接続する。   In FIG. 15, the power is turned on in step S10, and the process proceeds to step S12. If the learning mode is determined by the input operator in step S12, the process proceeds to step S14, and the keyboard is connected to each input code output unit 28 (see FIG. 1 or 2).

ステップS16でキーボードを打鍵する動作を行い、ステップS18で、この打鍵時の指センサ16の加速度データの読み込みを行い、ステップS20で、加速度データの必要個所のデータ加工(例えば加速度データの変化時点から±500msにおけるデータ加工)を行う。   In step S16, an operation of pressing the keyboard is performed. In step S18, acceleration data of the finger sensor 16 at the time of key pressing is read. In step S20, data processing of a necessary portion of the acceleration data (for example, from a change point of the acceleration data). Data processing at ± 500 ms).

ステップS22で、ニューラルネットワークで学習し、ステップS24で、新しい辞書パターン情報を構築し、ステップS26で入力操作者の判断により学習終了でないと、ステップS16に戻り、一方、ステップS26で入力操作者の判断により学習終了であると、ステップS28に進む。なお、ステップS12で入力操作者の判断により学習モードでないと、ステップS28に進む。   In step S22, learning is performed with a neural network. In step S24, new dictionary pattern information is constructed. In step S26, if the input operator does not finish learning, the process returns to step S16. If it is determined that the learning has ended, the process proceeds to step S28. If it is determined in step S12 that the learning mode is not determined by the input operator, the process proceeds to step S28.

ステップS28で、指センサの加速度データの読込みが行われ、ステップS30で、加速度データをデータテーブル値と比較し、手、指が動いたか否かが判断される。   In step S28, the acceleration data of the finger sensor is read, and in step S30, the acceleration data is compared with the data table value to determine whether or not the hand or finger has moved.

ステップS30で「No」の場合には、ステップS28に戻り、ステップS30で「Yes」の場合には、ステップS32に進み、加速度データの必要個所のデータ加工(例えば指センサの変化時点から±500msにおけるデータ加工(図5符号48参照))を行う。   If “No” in the step S30, the process returns to the step S28. If “Yes” in the step S30, the process proceeds to a step S32 to process data at a necessary portion of the acceleration data (for example, ± 500 ms from the change point of the finger sensor). Data processing (see reference numeral 48 in FIG. 5)).

ステップS34で、加速度データに基づく指の動作がデータベースとして動作パターン辞書部32に保有されている辞書パターン情報と比較され、ステップS36で当該指の動作に最も近い入力コードが出力され、ステップS38で当該入力コードがパーソナルコンピュータ等の文字出力機器に送信され、ステップS40に進む。なおこの決定された入力コードは、上記文字出力機器に送信される他に、各手に対応した文字表示器38にも、当該手毎に夫々出力されることとなる。   In step S34, the movement of the finger based on the acceleration data is compared with the dictionary pattern information held in the movement pattern dictionary unit 32 as a database. In step S36, the input code closest to the movement of the finger is output. The input code is transmitted to a character output device such as a personal computer, and the process proceeds to step S40. In addition to being transmitted to the character output device, the determined input code is also output for each hand on the character display 38 corresponding to each hand.

ステップS40で入力操作者の判断により入力を継続しない場合には、ステップS42で電源がオフにされ、一方、ステップS40で入力操作者の判断により入力を継続する場合には、ステップS44に進む。ステップS44で、入力操作者が表示画面60(後述する図16を参照)又は各文字表示器38の表示部42を見ることにより入力操作者の判断により正確な文字入力がされている場合にはステップS28に進み、一方、ステップS44で入力操作者が表示画面60又は各文字表示器38の表示部42を見ることにより入力操作者の判断により正確な文字入力がされていない場合には、ステップS12に進む。   If it is determined in step S40 that the input operator does not continue the input, the power is turned off in step S42. If the input operator continues the input in step S40, the process proceeds to step S44. If it is determined in step S44 that the input operator has entered an accurate character according to the judgment of the input operator by looking at the display screen 60 (see FIG. 16 described later) or the display unit 42 of each character display 38. On the other hand, if the input operator does not input an accurate character according to the judgment of the input operator by looking at the display screen 60 or the display unit 42 of each character display 38 in step S44, the process proceeds to step S28. Proceed to S12.

なお、上記図15のフローチャートにおいて、ステップS12、S26、S40及びS44における入力操作者の判断について説明すると、データ収集部18又は20に操作ボタンを設け、入力操作者(すなわち利用者)は、その判断に応じた操作を当該操作ボタンに対して行い、仮想キーボード装置は、当該操作ボタンに対して行われた操作に応じて判断を行う。   In the flowchart of FIG. 15, the determination of the input operator in steps S12, S26, S40, and S44 will be described. An operation button is provided in the data collection unit 18 or 20, and the input operator (that is, the user) The operation corresponding to the determination is performed on the operation button, and the virtual keyboard device performs the determination according to the operation performed on the operation button.

図16には、実施形態に係る仮想キーボード装置を含む入力システムの構成が示されている。なお図16においては、図1又は図2において例示した文字表示器38は図示を省略している。   FIG. 16 shows a configuration of an input system including the virtual keyboard device according to the embodiment. In FIG. 16, the character display 38 illustrated in FIG. 1 or 2 is not shown.

図16において、各指に装着される指センサ16からの動作信号50は対応する入力コード出力部28の動作パターン判断部34に夫々供給される。そして動作パターン判断部34は、指センサ16からの動作信号50と、動作パターン辞書部32に記憶されているパターン情報に対応する動作信号とを比較し、検出された動作信号50に対応する入力コードを、対応する上記文字表示器38及びパーソナルコンピュータ56に供給する。   In FIG. 16, the operation signal 50 from the finger sensor 16 attached to each finger is supplied to the operation pattern determination unit 34 of the corresponding input code output unit 28. Then, the motion pattern determination unit 34 compares the motion signal 50 from the finger sensor 16 with the motion signal corresponding to the pattern information stored in the motion pattern dictionary unit 32, and inputs corresponding to the detected motion signal 50. The code is supplied to the corresponding character display 38 and personal computer 56.

パーソナルコンピュータ56は、入力コードを表示装置58に出力し、入力コードにより示される文字等、例えば「A」、「B」、「C」、…の列59が表示装置58の表示画面60に表示される。   The personal computer 56 outputs the input code to the display device 58, and the characters 59 indicated by the input code, for example, “A”, “B”, “C”,... Column 59 are displayed on the display screen 60 of the display device 58. Is done.

(II)実施形態に係る文字表示器等の構成及び動作
次に、実施形態に係る各入力コード出力部28及び各文字表示器38並びに関連する各部材の構成及び動作について、図17乃至図21を用いて説明する。なお図17は実施形態に係る表示部42の手における配置等を例示する図であり、図18は実施形態に係る表示動作を示すフローチャートであり、図19は実施形態に係る手首の姿勢検出のための構成を示す図である。また図20は実施形態に係る手首の姿勢検出のための行列式を示す図であり、図21は実施形態に係る表示動作の結果を例示する左手10Lの外観図である。
(II) Configuration and Operation of Character Display According to the Embodiment Next, the configuration and operation of each input code output unit 28 and each character display 38 and related members according to the embodiment will be described with reference to FIGS. Will be described. FIG. 17 is a diagram illustrating the arrangement of the display unit 42 in the hand according to the embodiment, FIG. 18 is a flowchart illustrating the display operation according to the embodiment, and FIG. 19 is a diagram illustrating wrist posture detection according to the embodiment. It is a figure which shows the structure for. 20 is a diagram illustrating a determinant for wrist posture detection according to the embodiment, and FIG. 21 is an external view of the left hand 10L illustrating the result of the display operation according to the embodiment.

上述したように、実施形態に係る入力コード出力部28及び文字表示器38は左手用と右手用の二つが設けられており、夫々の表示手段の一例としての表示部42L及び表示部42Rは例えば図17(a)に例示するように、左手10Lの甲の部分全体を覆う範囲に左手用の表示部42Lが、右手10Rの甲の部分全体を覆う範囲に右手用の表示部42Rが、夫々の甲に巻き付くように装着されている。   As described above, the input code output unit 28 and the character display 38 according to the embodiment are provided for the left hand and the right hand, and the display unit 42L and the display unit 42R as examples of the respective display means are, for example, As illustrated in FIG. 17A, the left-hand display unit 42L covers the entire upper part of the left hand 10L, and the right-hand display unit 42R covers the entire upper part of the right hand 10R. It is mounted so as to wrap around the back.

より具体的には、左手用の表示部42Lは、それ自体が可撓性を有する例えば有機EL(Electro Luminescence)表示デバイス等により構成されており、例えば親指14−1の付け根付近から小指14−5の付け根付近の左手甲全体を覆うように装着されている。また右手用の表示部42Rも同様に可撓性を有する表示デバイスにより構成されており、例えば親指14−6の付け根付近から小指14−10の付け根付近の右手甲全体を覆うように装着されている。   More specifically, the display unit 42L for the left hand is configured by, for example, an organic EL (Electro Luminescence) display device having flexibility, for example, from the vicinity of the base of the thumb 14-1 to the little finger 14- It is mounted so as to cover the entire left back near the base of 5. Similarly, the display unit 42R for the right hand is configured by a flexible display device, and is mounted so as to cover, for example, the entire right hand back from the base of the thumb 14-6 to the base of the little finger 14-10. Yes.

これらに加えて、各表示部42L及び42Rの夫々においては、延ばした各指14に平行で且つ各指14の付け根から手首方向に延びる帯状の表示領域毎に区分して表示を行うことが可能とされている。即ち、左手10Lの表示部42Lでは、例えば揃えて延ばした状態の親指14−1及び人差し指14−2夫々に平行で、且つ親指14−1及び人差し指14−2夫々の付け根から手首方向に延びる帯状の表示領域のみを使用して(換言すれば表示部42Lの他の表示領域は使用しないで)文字等を表示することが可能とされている。   In addition to these, in each of the display portions 42L and 42R, it is possible to perform display by dividing each band-like display area parallel to each extended finger 14 and extending from the base of each finger 14 in the wrist direction. It is said that. That is, in the display portion 42L of the left hand 10L, for example, a strip shape that is parallel to the thumb 14-1 and the index finger 14-2 in an aligned state and extends from the base of the thumb 14-1 and the index finger 14-2 in the wrist direction. It is possible to display characters and the like using only the display area (in other words, not using the other display area of the display unit 42L).

そして、図17(b)に例示するように、左手用の表示部42Lには、上述したように左手10Lの指14−1乃至14−5の動作により入力されたものとして検出された入力コードに相当する文字等(文字コード44L)が表示される。一方、右手用の表示部42Rには、同様に右手10Rの指14−6乃至14−10の動作により入力されたものとして検出された入力コードに相当する文字等(文字コード44R)が表示される。   Then, as illustrated in FIG. 17B, the input code detected as input by the operation of the fingers 14-1 to 14-5 of the left hand 10L as described above is displayed on the display unit 42L for the left hand as described above. A character or the like (character code 44L) corresponding to is displayed. On the other hand, on the display unit 42R for the right hand, characters and the like (character code 44R) corresponding to the input code detected as being input by the operation of the fingers 14-6 to 14-10 of the right hand 10R are displayed. The

次に、主として各手の入力コード出力部28及び文字表示器38を中心として夫々の手毎に実行される、実施形態に係る表示動作について具体的に図18乃至図21を用いて説明する。   Next, the display operation according to the embodiment, which is mainly executed for each hand, mainly with respect to the input code output unit 28 and the character display 38 of each hand, will be specifically described with reference to FIGS.

図18に示すように、実施形態に係る表示動作としては、先ずステップS1として各入力コード出力部28は、夫々が対応している手に対応するデータ収集部18又は20からいずれかの動作信号50が出力されて来たか否かを監視している。そして、いずれの動作信号50の出力もないときは(ステップS1;NO)当該監視を継続する。一方、いずれかの動作信号50の出力があったとき(ステップS1;YES)、各入力コード出力部28は次に、ステップS2として、その時点での手の姿勢を検出し、使用者が最も視認し易い表示部42L又は42R上の表示領域(即ち、区分表示が可能な各表示部42L及び42R毎の上記表示領域)を選択する。このステップS2の動作で各入力コード出力部28は、対応する手10毎に、左右の腕及び手を身体の前方に真っ直ぐ伸ばしたときの当該延ばした方向を「y軸」方向として、そのy軸方向回りにおける左右の手首の回転角度を上記姿勢として検出し、その検出された姿勢に対応して、使用者が最も視認し易い表示部42L又は42R上の表示領域を選択する。このステップS2の動作については、後ほど図19及び図20を用いて詳説する。   As shown in FIG. 18, as a display operation according to the embodiment, first, as step S <b> 1, each input code output unit 28 receives any operation signal from the data collection unit 18 or 20 corresponding to the corresponding hand. It is monitored whether or not 50 is output. When no operation signal 50 is output (step S1; NO), the monitoring is continued. On the other hand, when any of the operation signals 50 is output (step S1; YES), each input code output unit 28 next detects the posture of the hand at that point in step S2, and the user is the most. A display area on the display section 42L or 42R that is easy to visually recognize (that is, the display area for each of the display sections 42L and 42R that can be displayed separately) is selected. In the operation of step S2, each input code output unit 28 sets, for each corresponding hand 10, the extension direction when the left and right arms and hands are straightly extended forward of the body as the “y-axis” direction. The rotation angle of the left and right wrists around the axial direction is detected as the posture, and the display area on the display unit 42L or 42R that is most easily visible to the user is selected according to the detected posture. The operation in step S2 will be described in detail later with reference to FIGS.

ステップS2の動作により表示部42L及び42R夫々において新たな表示領域が選択されると、次に各入力コード出力部28は、ステップS3として、当該新たに選択された表示領域が、その直前まで選択されていた各々の表示領域と同一か否かを判断することで、当該表示領域をその直前のものから変更する必要があるか否かを確認する。そして、当該表示領域の変更が必要でない場合(ステップS3;NO)、各入力コード出力部28は後述するステップS5の動作に移行し、一方、表示領域の変更が必要である場合は(ステップS3;YES)、ステップS4として、上記ステップS2の動作において選択された新たな表示領域に変更する。   When a new display area is selected in each of the display units 42L and 42R by the operation of step S2, each input code output unit 28 next selects the newly selected display area until just before that in step S3. It is determined whether or not it is necessary to change the display area from the immediately preceding one by determining whether or not each display area is the same. If the display area does not need to be changed (step S3; NO), each input code output unit 28 proceeds to the operation of step S5 described later. On the other hand, if the display area needs to be changed (step S3). YES), as step S4, the display area is changed to the new display area selected in the operation of step S2.

次に各入力コード出力部28は、ステップS5として、既存の、又は新たに選択された表示領域において表示すべき入力コードに対応する文字等の表示開始位置及び表示終了位置を最適化する。このステップS5の動作は、使用すべき表示領域内において実際に表示される文字等の文頭及び文末夫々の位置並びに改行の位置を、より視認し易いものとなるように最適化する。   Next, in step S5, each input code output unit 28 optimizes the display start position and display end position of characters and the like corresponding to the input code to be displayed in the existing or newly selected display area. In the operation in step S5, the positions of the beginning and end of sentences and the line breaks of characters and the like that are actually displayed in the display area to be used are optimized so as to be more easily visible.

また当該最適化の動作は、上記ステップS1において新たに入力された動作信号50に加えて、それまでに表示部42L及び42Rに表示されていた全ての入力コードに対応する動作信号50を対象として行われる。即ち、新たな文字等の入力動作が実行された場合には、既に入力済みの文字等を含めて(換言すれば、当該入力済みの文字等を含む一連の文として)表示領域の変更等及び表示開始位置等の最適化が実行されることとなる。これにより各入力コード出力部28は、当該最適化された表示位置等を示す表示位置情報を生成し、当該生成された表示位置情報を、当該最適化された表示位置等において表示される文字等に対応する入力コードに付加して対応する文字表示器38に各々出力する。   In addition to the operation signal 50 newly input in step S1, the optimization operation targets operation signals 50 corresponding to all input codes displayed on the display units 42L and 42R so far. Done. That is, when an input operation for a new character or the like is executed, the display area is changed including the already input character or the like (in other words, as a series of sentences including the input character or the like) Optimization of the display start position and the like is executed. As a result, each input code output unit 28 generates display position information indicating the optimized display position and the like, and the generated display position information is displayed as characters and the like displayed at the optimized display position and the like. Are added to the corresponding input codes and output to the corresponding character display 38 respectively.

その後各文字表示器38は、ステップS6として、対応する入力コード出力部28から出力されて来た入力コードに対応する文字等を、当該入力コードに付加されて対応する入力コード出力部28から出力されて来た表示位置情報により示される表示部42L又は42R上の表示位置等に表示する。そして各入力コード出力部28は、ステップS7として、例えばある一定時間以上の動作信号50がデータ収集部18又は20から出力されて来ていないか否かを確認する等の手法により、文字等の入力動作が終了して実施形態に係る表示動作を終了するか否かを確認する。そして、当該表示動作を終了しないとき(ステップS7;NO)、各入力コード出力部28は上記ステップS1に戻って上述して来た一連の動作を繰り返し、一方終了する場合には(ステップS7;YES)、そのまま実施形態に係る表示動作を終了する。   After that, in step S6, each character display unit 38 adds a character or the like corresponding to the input code output from the corresponding input code output unit 28 to the corresponding input code output unit 28 and outputs it from the corresponding input code output unit 28. It is displayed at the display position on the display unit 42L or 42R indicated by the display position information that has been received. Then, each input code output unit 28, as a step S7, for example, confirms whether or not the operation signal 50 for a certain time or more has been output from the data collection unit 18 or 20, or the like. It is confirmed whether or not the input operation is finished and the display operation according to the embodiment is finished. When the display operation is not ended (step S7; NO), each input code output unit 28 returns to step S1 and repeats the series of operations described above. If the display operation is ended (step S7; YES), the display operation according to the embodiment is finished as it is.

次に、上記ステップS2に係る表示領域の選択動作について、図19及び図20を用いて詳細に説明する。   Next, the display area selection operation according to step S2 will be described in detail with reference to FIGS.

先ず、上記図1及び図2並びに図3を用いて説明したように、各指14には、重力の方向54と反対の方向がZ軸となるような指センサ16が装着されている。この指センサ16は、具体的には図19(a)に左手10Lの人差し指14−2を例として示すように、各指14の中節、即ち、各指の第一関節と第二関節との間の手の甲側に装着される。このとき図19(a)に示すように、各指センサ16のZ軸が重力の方向54と反対の方向となるように装着され、更にX軸及びY軸は夫々図19(a)に示す方向となる。なおこの指センサ16の装着位置としては、指14としての空間的な動きを検出できる位置であれば、上記中節以外の指14の位置でもよい。   First, as described above with reference to FIGS. 1, 2, and 3, each finger 14 is equipped with a finger sensor 16 whose Z axis is the direction opposite to the direction of gravity 54. Specifically, as shown in FIG. 19A by taking the index finger 14-2 of the left hand 10L as an example, the finger sensor 16 includes a middle joint of each finger 14, that is, a first joint and a second joint of each finger. It is mounted on the back side of the hand. At this time, as shown in FIG. 19 (a), each finger sensor 16 is mounted so that the Z-axis is opposite to the direction of gravity 54, and the X-axis and Y-axis are respectively shown in FIG. 19 (a). Direction. Note that the finger sensor 16 may be mounted at any position other than the middle section as long as the spatial movement of the finger 14 can be detected.

そして、このような状態で指センサ16が夫々装着された左手10L及び右手10Rの夫々について、図19(b)に左手10Lの場合を例示するように手首15Lについてのy軸回りの回転角度が、上記各指センサ16から出力されてくる各軸毎の加速度データに基づいて入力コード出力部28において算出される。なお、図19(b)においては、各指センサ16についてのX軸、Y軸及びZ軸については、親指14−1に装着された指センサ16−1についてのみ記載し、他の指センサ16については記載を省略している。   Then, for each of the left hand 10L and the right hand 10R to which the finger sensor 16 is attached in such a state, as shown in FIG. 19B, the rotation angle about the y-axis about the wrist 15L is illustrated as an example of the left hand 10L. The input code output unit 28 calculates the acceleration data for each axis output from each finger sensor 16. In FIG. 19B, the X axis, the Y axis, and the Z axis for each finger sensor 16 are described only for the finger sensor 16-1 attached to the thumb 14-1, and the other finger sensors 16 are shown. The description is omitted.

より具体的には、先ず、各指センサ16からの各軸毎の加速度データを用いて、各指14毎の、上記y軸回りの回転角度θを、図20(a)に示す行列式を解くことにより算出する。   More specifically, first, using the acceleration data for each axis from each finger sensor 16, the rotation angle θ around each y axis for each finger 14 is expressed by the determinant shown in FIG. Calculate by solving.

ここで、当該回転角度θとしては、各々の掌を鉛直下方向に向けた状態の時を手首の回転角度0度とする。そして左手10Lについては、反時計方向に手首を回転させて掌が鉛直上方向を向くまでの回転角度の範囲を0度から−180度とし、反対に時計方向に手首を回転させて掌が再度鉛直上方向を向くまでの回転角度の範囲を0度から+180度とする。一方右手10Rについては、上述した「回転角度0度」の状態から時計方向に手首を回転させて掌が鉛直上方向を向くまでの回転角度の範囲を0度から−180度とし、反対に反時計方向に手首を回転させて掌が鉛直上方向を向くまでの回転角度の範囲を0度から+180度とする。ここでは、左右の手で回転角度の符号(正負)を逆としていることに注意を要する。   Here, as the rotation angle θ, the rotation angle of the wrist is 0 degree when each palm is directed vertically downward. For the left hand 10L, the rotation angle range from 0 degrees to -180 degrees until the palm turns counterclockwise by rotating the wrist counterclockwise is reversed, and the wrist is rotated again by rotating the wrist clockwise. The range of the rotation angle until it faces vertically upward is assumed to be 0 degree to +180 degree. On the other hand, for the right hand 10R, the range of the rotation angle from the above-mentioned “rotation angle of 0 degree” to the rotation of the wrist in the clockwise direction until the palm turns vertically upward is changed from 0 degree to −180 degrees. The range of the rotation angle from when the wrist is rotated in the clockwise direction until the palm faces vertically upward is set to 0 degrees to +180 degrees. Here, it should be noted that the sign (positive / negative) of the rotation angle is reversed between the left and right hands.

また、図20(a)に示す行列式は全ての指14についての指センサ16から出力される加速度データに各指14毎に適用されるものであり、当該行列式中の「x」、「y」及び「z」は、夫々指センサ16からのx軸方向の加速度データ、y軸方向の加速度データ及びz軸方向の加速度データである。また、当該行列式中の「1g」は重力加速度である。そして、入力コード出力部28は、各指センサ16からのx軸方向の加速度データ「x」、y軸方向の加速度データ「y」及びz軸方向の加速度データ「z」を図20(a)に示す行列式に代入して解くことで、各指14毎に回転角度θを算出する。   In addition, the determinant shown in FIG. 20A is applied to the acceleration data output from the finger sensor 16 for all fingers 14 for each finger 14, and “x”, “ “y” and “z” are acceleration data in the x-axis direction, acceleration data in the y-axis direction, and acceleration data in the z-axis direction, respectively, from the finger sensor 16. Further, “1 g” in the determinant is the gravitational acceleration. Then, the input code output unit 28 displays the acceleration data “x” in the x-axis direction, the acceleration data “y” in the y-axis direction, and the acceleration data “z” in the z-axis direction from each finger sensor 16 in FIG. The rotation angle θ is calculated for each finger 14 by substituting into the determinant shown in FIG.

これらにより入力コード出力部28は次に、各指14について算出された回転角度θを、左手10L及び右手10Rについて夫々別個に平均化する。より具体的には、小指14−1乃至親指14−5夫々について算出された回転角度θを平均化して左手10Lについての回転角度とすると共に、小指14−10乃至親指14−6夫々について算出された回転角度θを平均化して右手10Rについての回転角度とする。そして、当該各手毎の平均値を、夫々の手の手首の回転角度とする。   Accordingly, the input code output unit 28 then averages the rotation angle θ calculated for each finger 14 separately for the left hand 10L and the right hand 10R. More specifically, the rotation angles θ calculated for the little fingers 14-1 to 14-5 are averaged to obtain the rotation angle for the left hand 10L, and are calculated for the little fingers 14-10 to 14-6. The rotation angle θ is averaged to obtain the rotation angle for the right hand 10R. Then, the average value for each hand is set as the rotation angle of the wrist of each hand.

なお、当該手首の回転角度の算出に当たっては、左右夫々の手首に対応する代表的な指14(例えば中指14−3及び中指14−8)について算出される当該指14の回転角度θをもって、当該手首の回転角度とするように構成することもできる。   In calculating the rotation angle of the wrist, the rotation angle θ of the finger 14 calculated for the representative fingers 14 (for example, the middle finger 14-3 and the middle finger 14-8) corresponding to the left and right wrists is used. It can also be configured to have a wrist rotation angle.

また、各指14についての回転角度θの算出に当たっては、図5において符号48により例示されるデータ加工に供される所定時間の前後における当該回転角度θの平均値をもって、その指14についての回転角度θとすることも可能である。   Further, in calculating the rotation angle θ for each finger 14, the rotation of the finger 14 is obtained with an average value of the rotation angle θ before and after a predetermined time provided for data processing exemplified by reference numeral 48 in FIG. 5. It is also possible to set the angle θ.

より具体的には、例えば当該所定時間開始から0.25秒前のタイミングを時刻t1とし、当該所定時間から0.25秒経過したタイミングを時刻t2とする。そして、時刻t1における指センサ16からのx軸方向の加速度データ「xt1」、y軸方向の加速度データ「yt1」及びz軸方向の加速度データ「zt1」を図20(b)に示す行列式に代入して解き、更に時刻t2における指センサ16からのx軸方向の加速度データ「xt2」、y軸方向の加速度データ「yt2」及びz軸方向の加速度データ「zt2」を図20(c)に示す行列式に代入して解き、夫々の行列式を用いて算出した回転角度θの平均値をもってその指14についての回転角度θとするのである。なおこの場合、時刻t1における指センサ16からのx軸方向の加速度データ「xt1」、y軸方向の加速度データ「yt1」及びz軸方向の加速度データ「zt1」を図20(b)に示す行列式に代入して解いて得られた回転角度θのみをもってその指14についての回転角度θとしてもよいし、或いは時刻t2における指センサ16からのx軸方向の加速度データ「xt2」、y軸方向の加速度データ「yt2」及びz軸方向の加速度データ「zt2」を図20(c)に示す行列式に代入して解いて得られた回転角度θのみをもってその指14についての回転角度θとしてもよい。 More specifically, for example, a timing 0.25 seconds before the start of the predetermined time is set as time t1, and a timing when 0.25 seconds elapses from the predetermined time is set as time t2. FIG. 20B shows acceleration data “x t1 ” in the x-axis direction, acceleration data “y t1 ” in the y-axis direction, and acceleration data “z t1 ” in the z-axis direction from the finger sensor 16 at time t1. Substituting into the determinant and solving, further, the acceleration data “x t2 ” in the x-axis direction, the acceleration data “y t2 ” in the y-axis direction, and the acceleration data “z t2 ” in the z-axis direction from the finger sensor 16 at time t2. By substituting and solving the determinants shown in FIG. 20C, the average value of the rotation angles θ calculated using the respective determinants is used as the rotation angle θ for the finger 14. In this case, the acceleration data “x t1 ” in the x-axis direction, the acceleration data “y t1 ” in the y-axis direction, and the acceleration data “z t1 ” in the z-axis direction from the finger sensor 16 at time t1 are shown in FIG. Only the rotation angle θ obtained by substituting into the determinant shown in FIG. 5 may be used as the rotation angle θ for the finger 14, or the acceleration data “x t2 ” in the x-axis direction from the finger sensor 16 at time t2. , Only the rotation angle θ obtained by substituting the acceleration data “y t2 ” in the y-axis direction and the acceleration data “z t2 ” in the z-axis direction into the determinant shown in FIG. The rotation angle θ may be set as follows.

そして、各手毎にその手首の回転角度θが算出されたら、予め入力コード出力部28内の図示しないメモリ等に各手毎に不揮発性に記憶されている回転角度−表示領域対応テーブルに基づいて、表示部42L及び42R内において当該回転角度θに対応する表示領域を選択する。   When the wrist rotation angle θ is calculated for each hand, based on the rotation angle-display area correspondence table stored in advance in a nonvolatile manner for each hand in a memory (not shown) or the like in the input code output unit 28 in advance. The display area corresponding to the rotation angle θ is selected in the display units 42L and 42R.

ここで、当該回転角度−表示領域対応テーブルについて、図19(c)を用いて説明する。   Here, the rotation angle-display area correspondence table will be described with reference to FIG.

先ず前提として、左手10L用の表示部42Lは、全体としては左手10Lの甲の部分全体を覆う範囲に装着されているものとし、且つ親指14−5の中手骨に対向する表示領域が第1表示領域とされ、人差し指14−2の中手骨に対向する表示領域が第2表示領域とされ、中指14−3の中手骨に対向する表示領域が第3表示領域とされ、薬指14−4の中手骨に対向する表示領域が第4表示領域とされ、小指14−5の中手骨に対向する表示領域が第5表示領域とされて区分されている。また右手10R用の表示部42Rは、全体としては右手10Rの甲の部分全体を覆う範囲に装着されているものとし、且つ親指14−6の中手骨に対向する表示領域が第1表示領域とされ、人差し指14−7の中手骨に対向する表示領域が第2表示領域とされ、中指14−8の中手骨に対向する表示領域が第3表示領域とされ、薬指14−9の中手骨に対向する表示領域が第4表示領域とされ、小指14−510中手骨に対向する表示領域が第5表示領域とされて区分されている。   First, as a premise, the display part 42L for the left hand 10L is assumed to be mounted as a whole so as to cover the entire upper part of the left hand 10L, and the display area facing the metacarpal bone of the thumb 14-5 is first. The display area facing the metacarpal bone of the index finger 14-2 is the second display area, the display area facing the metacarpal bone of the middle finger 14-3 is the third display area, and the ring finger 14 -4 is a fourth display region, and the display region facing the little finger 14-5 is a fifth display region. Further, the display part 42R for the right hand 10R is assumed to be mounted in a range covering the entire upper part of the right hand 10R, and the display area facing the metacarpal bone of the thumb 14-6 is the first display area. The display area facing the metacarpal bone of the index finger 14-7 is the second display area, the display area facing the metacarpal bone of the middle finger 14-8 is the third display area, and the ring finger 14-9 The display area facing the metacarpal bone is the fourth display area, and the display area facing the little finger 14-510 metacarpal is the fifth display area.

そして、各手毎の上記回転角度−表示領域対応テーブルとしては、図19(c)に例示する回転角度−表示領域対応テーブルTのように、手首としての回転角度θが−180度以上−90度未満の時には第1表示領域及び第2表示領域のみが対応付けられ、当該回転角度θが−90度以上−0度未満の時には第1表示領域乃至第3表示領域が対応付けられ、当該回転角度θが0度以上+45度未満の時には第1表示領域乃至第5表示領域が対応付けられ、当該回転角度θが+45度以上+90度未満の時には第3表示領域乃至第5表示領域が対応付けられ、当該回転角度θが+90度以上+180度未満の時には第4表示領域及び第5表示領域のみが対応付けられている。なお、当該回転角度−表示領域対応テーブルTの内容は、上述したように回転角度の符号(正負)が左右の手で逆とされていることにより、左手10L及び右手10Rについて共通である。   Then, as the rotation angle-display area correspondence table for each hand, as in the rotation angle-display area correspondence table T illustrated in FIG. When the rotation angle θ is less than −90 degrees, the first display area and the second display area are associated with each other. When the rotation angle θ is −90 degrees or more and less than −0 degrees, the first display area to the third display area are associated with each other. When the angle θ is 0 degree or more and less than +45 degrees, the first display area to the fifth display area are associated with each other. When the rotation angle θ is +45 degrees or more and less than +90 degrees, the third display area to the fifth display area are associated with each other. When the rotation angle θ is not less than +90 degrees and less than +180 degrees, only the fourth display area and the fifth display area are associated with each other. The contents of the rotation angle-display area correspondence table T are common to the left hand 10L and the right hand 10R because the sign (positive / negative) of the rotation angle is reversed between the left and right hands as described above.

このような回転角度−表示領域対応テーブルTが入力コード出力部28内に記憶されていることにより、回転角度θが算出されれば、直ちに対応する(即ちその回転角度θの時に文字等を表示させるべき)表示領域が選択できる。   Since the rotation angle-display area correspondence table T is stored in the input code output unit 28, if the rotation angle θ is calculated, it corresponds immediately (that is, a character or the like is displayed at the rotation angle θ). Display area can be selected.

そして、図18及び図19を用いて説明した表示動作によれば、例えば左手10Lを掌を鉛直下方向にしているとき(即ち回転角度θが0度のとき)は、例えば図21(a)に例示するように表示部10Lの全ての表示領域(第1表示領域乃至第5表示領域)を使って文字等が表示され、一方、左手10Lを図21(a)の状態から例えば反時計方向に90度回転させたとき(即ち回転角度θが−90度のとき)は、例えば図21(b)に例示するように第1表示領域乃至第3表示領域のみを使って文字等が表示されることとなる。このような表示動作が実行されることで、手首が回転されてもその都度視認に最適な位置に文字等が表示される。   Then, according to the display operation described with reference to FIGS. 18 and 19, for example, when the left hand 10 </ b> L has the palm vertically downward (that is, when the rotation angle θ is 0 degree), for example, FIG. As shown in FIG. 21, characters and the like are displayed using all the display areas (first display area to fifth display area) of the display unit 10L, while the left hand 10L is, for example, counterclockwise from the state of FIG. When the image is rotated 90 degrees (ie, when the rotation angle θ is −90 degrees), characters and the like are displayed using only the first display area to the third display area as illustrated in FIG. 21B, for example. The Rukoto. By executing such a display operation, even when the wrist is rotated, characters and the like are displayed at a position optimal for visual recognition each time.

なおこの図21に例示する場合において、図21(a)の状態から手首15Lが回転して図21(b)の状態になったときには、元の図21(a)の状態で既に表示部42Lに表示されていた文字等(文字コード44L)と、図21(b)の状態になったときに新たに入力された文字等と、が、併せて(換言すれば一連の文字等として)図21(b)に例示される第1表示領域乃至第3表示領域のみを使って表示される。   In the case illustrated in FIG. 21, when the wrist 15L is rotated from the state of FIG. 21A to the state of FIG. 21B, the display unit 42L is already in the original state of FIG. The characters displayed on the screen (character code 44L) and the characters newly input when the state shown in FIG. 21B is entered (in other words, as a series of characters). The display is performed using only the first display area to the third display area exemplified in 21 (b).

以上説明したように、実施形態に係る仮想キーボード装置の動作によれば、決定された入力コードを、手の空間的な姿勢を示す回転角度θに対応付けられている表示位置に表示するので、使用者の姿勢等が変化した場合でも、適切な表示部42L及び42R上の表示位置に文字等を表示することができる。   As described above, according to the operation of the virtual keyboard device according to the embodiment, the determined input code is displayed at the display position associated with the rotation angle θ indicating the spatial posture of the hand. Even when the posture of the user changes, characters and the like can be displayed at appropriate display positions on the display units 42L and 42R.

また、新たに入力された入力コードを、表示部42L及び42R上に既に表示されている入力コードと併せて回転角度θに対応付けられている表示位置に表示するので、例えば複数の文字からなる句等を入力する場合でも、当該句全体を適切な位置に表示してその内容を認識することができる。   Further, since the newly entered input code is displayed at the display position associated with the rotation angle θ together with the input code already displayed on the display units 42L and 42R, it is composed of, for example, a plurality of characters. Even when a phrase or the like is input, the entire phrase can be displayed at an appropriate position to recognize the content.

更に、夫々の手の甲に表示部42L及び42Rが装着されており、手首の回転角度θを算出し、当該算出された回転角度θに基づいて当該回転角度θ毎に予め設定されている表示位置に文字等を表示するので、手(手首)の回転に応じて表示位置が最適化されることで、常に最適な表示位置に文字等を表示することができる。   Further, the display units 42L and 42R are mounted on the backs of the respective hands, the wrist rotation angle θ is calculated, and the display position set in advance for each rotation angle θ is calculated based on the calculated rotation angle θ. Since characters and the like are displayed, the display position is optimized according to the rotation of the hand (wrist), so that the characters and the like can always be displayed at the optimum display position.

更にまた、入力コードが表示される表示位置が、対応する回転角度θにおいて利用者が視認可能となる表示位置であるので、使用者の姿勢等が変化した場合でも、常に視認可能な表示部42L及び42R上の表示位置に文字等を表示することができる。   Furthermore, since the display position where the input code is displayed is a display position where the user can visually recognize at the corresponding rotation angle θ, even when the user's posture or the like changes, the display section 42L that can always be visually recognized. And characters can be displayed at display positions on 42R.

(III)変形形態に係る文字表示器等の構成及び動作
次に、本発明に係る変形形態の文字表示器の動作について、図22及び図23を用いて説明する。
(III) Configuration and Operation of Character Display According to Modified Embodiment Next, the operation of the character display according to the modified embodiment of the present invention will be described with reference to FIGS.

(A)第1変形形態
初めに、本発明に係る第1変形形態の表示動作を、図22を用いて説明する。なお図22は第1変形形態に係る表示動作を示すフローチャートである。また、図22において、図18を用いて説明した実施形態に係る表示動作と同一の動作については同一のステップ番号を付して細部の説明は省略する。更に、第1変形形態に係る仮想キーボード装置の構成は、基本的には実施形態に係る仮想キーボード装置の構成と同一であるので、以下の説明では、実施形態に係る仮想キーボード装置の構成部材と同一の部材番号を用いて説明する。
(A) First Modification First, the display operation of the first modification according to the present invention will be described with reference to FIG. FIG. 22 is a flowchart showing the display operation according to the first modification. In FIG. 22, the same operation as the display operation according to the embodiment described with reference to FIG. 18 is denoted by the same step number, and detailed description thereof is omitted. Furthermore, since the configuration of the virtual keyboard device according to the first modification is basically the same as the configuration of the virtual keyboard device according to the embodiment, in the following description, the components of the virtual keyboard device according to the embodiment will be described. Explanation will be made using the same member numbers.

上述した実施形態においては、図18に示すように、新たな入力コードの入力動作が実行されることをきっかけとして実施形態に係る表示動作を開始した。これに対し、以下に説明する第1変形形態では、新たな入力コードの入力動作に加えて、当該入力コードを入力した後の静止状態(各指14が動いていない静止状態、即ち、使用者がその入力内容を確認しようとしている状態)の有無を検出して表示動作を開始する。   In the above-described embodiment, as illustrated in FIG. 18, the display operation according to the embodiment is started when the input operation of a new input code is executed. On the other hand, in the first variation described below, in addition to the input operation of a new input code, the stationary state after inputting the input code (the stationary state where each finger 14 is not moving, that is, the user Is in the state of trying to confirm the input content), and the display operation is started.

より具体的に第1変形形態に係る表示動作では、図22(a)に示すように、先ずステップS1として各入力コード出力部28は、夫々が対応している手に対応する入力コード出力部28からいずれかの入力コードが出力されて来たか否かを監視している。そして、いずれの入力コードの出力もないとき(ステップS1;NO)、次に各入力コード出力部28はステップS10として、各指14が静止状態と判定できる状態であるか否かを確認する。このステップS10の確認動作については後ほど詳述する。   More specifically, in the display operation according to the first modification, as shown in FIG. 22A, first, as step S1, each input code output unit 28 is an input code output unit corresponding to the corresponding hand. It is monitored whether any input code is output from 28. Then, when there is no output of any input code (step S1; NO), each input code output unit 28 next confirms whether or not each finger 14 is in a state where it can be determined as a stationary state in step S10. The confirmation operation in step S10 will be described in detail later.

ステップS10の確認動作において静止状態と判定される状態でもないとき(ステップS10;NO)、入力コード出力部28は当該監視(ステップS1参照)を継続する。   When the check operation in step S10 is not in a state determined to be stationary (step S10; NO), the input code output unit 28 continues the monitoring (see step S1).

一方、ステップS1の確認動作においていずれかの入力コードの出力があったとき(ステップS1;YES)、又は、ステップS10の確認動作において静止状態と判定できる状態であったとき(ステップS10;YES)、入力コード出力部28及び文字表示器38は、それ以降、実施形態と同様のステップS2乃至S7の動作を実行し、第1変形形態に係る表示動作を終了する。   On the other hand, when any input code is output in the confirmation operation in step S1 (step S1; YES), or in the confirmation operation in step S10, it is possible to determine a stationary state (step S10; YES). Thereafter, the input code output unit 28 and the character display unit 38 perform the operations in steps S2 to S7 similar to those in the embodiment, and terminate the display operation according to the first modification.

次に、上記ステップS10に係る静止状態の確認動作について、具体的に図22(b)を用いて説明する。   Next, the stationary state confirmation operation according to step S10 will be specifically described with reference to FIG.

当該ステップS10に係る確認動作において、先ず入力コード出力部28は、ステップS100として各指センサ16からの各加速度データの今回の値を夫々取得する。次にステップS101として入力コード出力部28は、今回の当該加速度データと直前の当該加速度データとの間の変動率を算出する。この変動率の算出について具体的には、先ず今回の加速度データにおける最大値と最小値を図15に示す学習動作中に取得しておき、これらの中間値(即ち、(最大値+最小値)÷2)を算出する。そして、直前の加速度データから今回の加速度データを減算した結果を上記中間値で除した値(即ち、(直前の加速度データ−今回の加速度データ)/中間値)をステップS101としての変動率とする。   In the confirmation operation according to step S10, the input code output unit 28 first acquires the current value of each acceleration data from each finger sensor 16 as step S100. Next, as step S101, the input code output unit 28 calculates the rate of change between the current acceleration data and the immediately preceding acceleration data. Specifically, for calculating the fluctuation rate, first, the maximum value and the minimum value in the acceleration data of this time are acquired during the learning operation shown in FIG. 15, and an intermediate value between these values (that is, (maximum value + minimum value)). ÷ 2) is calculated. Then, the value obtained by subtracting the current acceleration data from the previous acceleration data divided by the intermediate value (that is, (immediate acceleration data−current acceleration data) / intermediate value) is set as the variation rate in step S101. .

次に入力コード出力部28は、ステップS102として、ステップS101の動作において算出された変動率と、静止状態か否かを判定する基準として予め設定されて入力コード出力部28内に記憶されている閾値を比較する。   Next, in step S102, the input code output unit 28 is preset and stored in the input code output unit 28 as a variation rate calculated in the operation of step S101 and a criterion for determining whether or not it is stationary. Compare thresholds.

そして、当該変動率が当該閾値以下の値であるとき(ステップS102;閾値以下)、入力コード出力部28は次に、ステップS103として現在指14が静止状態と判定できる状態であるとして(ステップS10;YES参照)、図22(a)に示すステップS2に移行する。一方、当該変動率が当該閾値より大きい値であるとき(ステップS102;閾値より大)、入力コード出力部28は次に、ステップS104として現在指14が静止状態と判定できない状態であるとして(ステップS10;NO)、図22(a)に示すステップS1に移行する。   When the fluctuation rate is a value equal to or less than the threshold value (step S102; threshold value or less), the input code output unit 28 next determines that the current finger 14 can be determined to be stationary as step S103 (step S10). ; See YES), the process proceeds to step S2 shown in FIG. On the other hand, when the variation rate is a value larger than the threshold value (step S102; greater than the threshold value), the input code output unit 28 next assumes that the current finger 14 cannot be determined to be stationary in step S104 (step S104). S10; NO), the process proceeds to step S1 shown in FIG.

(B)第2変形形態
次に、本発明に係る第2変形形態の表示動作を、図23を用いて説明する。なお図23は第2変形形態に係る表示動作を示すフローチャートである。また、図23において、図18を用いて説明した実施形態に係る表示動作及び図22を用いて説明した第1変形形態に係る表示動作と同一の動作については同一のステップ番号を付して細部の説明は省略する。更に、第2変形形態に係る仮想キーボード装置の構成もまた、基本的には実施形態に係る仮想キーボード装置の構成と同一であるので、以下の説明では、実施形態に係る仮想キーボード装置の構成部材と同一の部材番号を用いて説明する。
(B) Second Modification Next, the display operation of the second modification according to the present invention will be described with reference to FIG. FIG. 23 is a flowchart showing the display operation according to the second modification. Also, in FIG. 23, the same step number is assigned to the same display operation as the display operation according to the embodiment described with reference to FIG. 18 and the display operation according to the first modification described with reference to FIG. Description of is omitted. Furthermore, since the configuration of the virtual keyboard device according to the second modified embodiment is also basically the same as the configuration of the virtual keyboard device according to the embodiment, in the following description, the constituent members of the virtual keyboard device according to the embodiment It demonstrates using the same member number.

上述した実施形態においては、図18に示すように新たな入力コードの入力動作が実行されることをきっかけとして実施形態に係る表示動作を開始したが、以下に説明する第2変形形態では、上記第1変形形態において説明した入力コード入力後の静止状態の有無のみを検出して表示動作を開始する。   In the above-described embodiment, the display operation according to the embodiment is started as a result of the input operation of a new input code as shown in FIG. 18, but in the second modification described below, Only the presence / absence of the stationary state after the input code input described in the first modification is detected and the display operation is started.

より具体的に第2変形形態に係る表示動作では、図23に示すように、先ずステップS10として各入力コード出力部28は、第1変形形態と同様の静止状態の確認動作を行う。   More specifically, in the display operation according to the second modified embodiment, as shown in FIG. 23, first, in step S10, each input code output unit 28 performs the same stationary state confirmation operation as in the first modified embodiment.

そして、当該ステップS10の確認動作において静止状態と判定される状態でないとき(ステップS10;NO)、入力コード出力部28は当該確認動作を継続する。   And when it is not in the state determined to be a still state in the confirmation operation of the step S10 (step S10; NO), the input code output unit 28 continues the confirmation operation.

一方、ステップS10の確認動作において静止状態と判定できる状態であったとき(ステップS10;YES)、入力コード出力部28及び文字表示器38は、それ以降、実施形態と同様のステップS2乃至S7の動作を実行し、第2変形形態に係る表示動作を終了する。   On the other hand, when it is determined that the stationary state can be determined in the confirmation operation in step S10 (step S10; YES), the input code output unit 28 and the character display 38 thereafter perform steps S2 to S7 similar to the embodiment. The operation is executed, and the display operation according to the second modification is completed.

以上説明したように、第1変形形態に係る仮想キーボード装置の動作又は第2変形形態に係る仮想キーボード装置の動作によれば、実施形態に係る仮想キーボード装置の動作による効果に加えて、各指14の静止状態を考慮しつつ文字等を表示する表示領域等の変更を行うので、夫々より適切に、表示部42L及び42R上の表示位置に文字等を表示することができる。   As described above, according to the operation of the virtual keyboard device according to the first modified embodiment or the operation of the virtual keyboard device according to the second modified embodiment, in addition to the effect of the operation of the virtual keyboard device according to the embodiment, each finger Since the display area for displaying characters and the like is changed in consideration of the 14 stationary states, the characters and the like can be displayed at the display positions on the display units 42L and 42R more appropriately.

(C)第3変形形態
最後に、表示部42L又は42R自体の変形形態について、図24を用いて説明する。
(C) Third Modification Finally, a modification of the display unit 42L or 42R itself will be described with reference to FIG.

上述して来た実施形態及び各変形形態では、表示部42L及び42Rが夫々可撓性を有する表示部42L及び42Rとして、一つのみ、夫々左手10L及び右手10Rの甲の部分に装着されている場合について説明した。しかしながらこれ以外に、例えば図24(a)に左手10Lのみについて例示するように、各手の甲の部分に、各々可撓性を有する表示部42L(42R)を、一つの手について二つ以上装着するように構成してもよい。この場合には、使用者から見た視認性について表示領域を変更するバリエーションが増えることとなるので、より視認性よく、入力コードの表示位置を決定/変更することができることとなる。   In the above-described embodiments and modifications, only one of the display units 42L and 42R is mounted as the flexible display units 42L and 42R on the back portions of the left hand 10L and the right hand 10R, respectively. Explained the case. However, in addition to this, for example, as illustrated only for the left hand 10L in FIG. 24A, two or more flexible display portions 42L (42R) are attached to the back of each hand for each hand. You may comprise as follows. In this case, since the number of variations for changing the display area with respect to the visibility seen from the user increases, the display position of the input code can be determined / changed with higher visibility.

また、図24(b)乃至図24(d)に例示するように、可撓性を有さない、例えば液晶ディスプレイ等の表示デバイスからなる表示部42L及び42Rを夫々の手の甲に装着する場合に本発明を適用することも可能である。   Further, as illustrated in FIGS. 24B to 24D, when the display portions 42L and 42R made of a display device such as a liquid crystal display, which is not flexible, are mounted on the backs of the respective hands. It is also possible to apply the present invention.

即ち、例えば図24(b)に例示するように一つの可撓性を有さない表示部42L(42R)を装着する場合には、当該一枚の表示部42L(42R)内を複数の表示領域に区分することで、0度を中心とした所定の回転角度θに限っては、上記実施形態又は各変形形態と同様の作用効果を得ることができる。また、例えば図24(c)又は同(d)に例示するように二つ以上可撓性を有さない表示部42L(42R)を装着する場合には、各表示部42L(42R)内を複数の表示領域に夫々区分することで、より広い回転角度θの範囲について、上記実施形態又は各変形形態と同様の作用効果を得ることができる。   That is, for example, when one non-flexible display unit 42L (42R) is mounted as illustrated in FIG. 24B, the display unit 42L (42R) is displayed in a plurality of displays. By dividing into regions, it is possible to obtain the same operational effects as those of the above-described embodiment or each modified embodiment as long as the rotation angle θ is centered on 0 degree. For example, when two or more display portions 42L (42R) having no flexibility are mounted as illustrated in FIG. 24C or FIG. 24D, the inside of each display portion 42L (42R) is provided. By dividing the display area into a plurality of display areas, it is possible to obtain the same operational effects as those of the above-described embodiment or each modified embodiment over a wider range of the rotation angle θ.

なお、実施形態及び各変形形態に係る表示部42L及び42Rについては、図17、図21又は図24に例示したように手の甲だけでなく、前腕部における手に近い部分に装着するように構成することもできる。   In addition, about the display parts 42L and 42R which concern on embodiment and each modification, it comprises so that it may mount | wear to the part close | similar to the hand in a forearm part not only the back of a hand as illustrated in FIG.17, FIG.21 or FIG.24. You can also

また、各表示部42L及び42Rについては、夫々が装着される手又は前腕等の部位において、当該表示部42L及び42R夫々における表示面に立てた法線の方向が、利用者から当該表示部42L及び42Rを視認可能な複数の方向となるように装着されているのが好ましい。これにより、当該利用者の姿勢に応じて視認し易く文字等を表示することができる。   Further, for each of the display units 42L and 42R, the direction of the normal line standing on the display surface in each of the display units 42L and 42R is changed from the user to the display unit 42L in each part such as a hand or a forearm to be worn. And 42R are preferably mounted so as to be in a plurality of visible directions. As a result, it is possible to display characters or the like that are easily visible in accordance with the posture of the user.

更に、上述した実施形態及び各変形形態では、指センサ16等は対応する指14又は手の甲に夫々直接装着する場合について説明したが、これ以外に、左手10L及び右手10R夫々には手袋をはめることとし、この手袋における指14や手の甲に相当する部分の例えば外側(手の甲側)に、対応する指センサ16等を装着するように構成することもできる。   Further, in the above-described embodiment and each modification, the case where the finger sensor 16 or the like is directly attached to the corresponding finger 14 or the back of the hand has been described, but in addition to this, gloves are applied to the left hand 10L and the right hand 10R, respectively. The corresponding finger sensor 16 or the like can be mounted on, for example, the outer side (back side of the hand) of the part corresponding to the finger 14 or the back of the hand in the glove.

この場合には、実施形態又は各変形形態に係る仮想キーボード装置を操作しようとする度毎に各指14に対応する指センサ16を装着する必要がなく、手袋をはめるだけでそれと同じ構成となることとなり、使用者にとって至極便利である。   In this case, it is not necessary to wear the finger sensor 16 corresponding to each finger 14 every time the virtual keyboard device according to the embodiment or each modified form is to be operated, and the same configuration is obtained by simply wearing gloves. This is extremely convenient for the user.

更にまた、図15、図18並びに図22及び図23に夫々示すフローチャートに相当するプログラムをフレキシブルディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これらを汎用のマイクロコンピュータにより読み出して実行することにより、当該マイクロコンピュータを実施形態又は各変形形態に係る入力コード出力部28及び文字表示器38として活用することも可能である。   Furthermore, the programs corresponding to the flowcharts shown in FIGS. 15, 18, 22 and 23 are recorded in a recording medium such as a flexible disk or a hard disk, or obtained via a network such as the Internet, By reading and executing these with a general-purpose microcomputer, the microcomputer can be used as the input code output unit 28 and the character display 38 according to the embodiment or each modified embodiment.

以上夫々説明したように、本発明は入力装置の分野に利用することが可能であり、特に仮想キーボード装置を用いた入力装置の分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used in the field of input devices, and particularly when applied to the field of input devices using a virtual keyboard device, a particularly remarkable effect can be obtained.

10L 左手
10R 右手
14、14−1、14−2、14−3、14−4、14−5、14−6、14−7、14−8、14−9、14−10 指
15L 手首
16、16−1、16−2、16−3、16−4、16−5、16−6、16−7、16−8、16−9、16−10 指センサ
18、20 データ収集部
22−1、22−2、22−3、22−4、22−5、22−6、22−7、22−8、22−9、22−10 ハーネス
24、26 無線部
28 入力コード出力部
30、40 無線部
32 動作パターン辞書部
34 動作パターン判断部
42、42L、42R 表示部
44、44L、44R 文字コード
50 動作信号
52 文字
54 重力の方向
58 表示装置
59 列
60 表示画面
10L Left hand 10R Right hand 14, 14-1, 14-2, 14-3, 14-4, 14-5, 14-6, 14-7, 14-8, 14-9, 14-10 Finger 15L Wrist 16, 16-1, 16-2, 16-3, 16-4, 16-5, 16-6, 16-7, 16-8, 16-9, 16-10 Finger sensor 18, 20 Data collection unit 22-1 , 22-2, 22-3, 22-4, 22-5, 22-6, 22-7, 22-8, 22-9, 22-10 harness 24, 26 radio unit 28 input code output unit 30, 40 Radio unit 32 Operation pattern dictionary unit 34 Operation pattern determination unit 42, 42L, 42R Display unit 44, 44L, 44R Character code 50 Operation signal 52 Character 54 Gravity direction 58 Display device 59 Column 60 Display screen

Claims (6)

利用者の指又は手の少なくともいずれか一方に設けられた装着部に装着され、且つ当該利用者の指の空間的な動作を検出して検出信号を生成する検出手段と、
前記検出手段からの前記検出信号に基づいて、当該検出信号に対応する入力情報を決定する入力情報決定手段と、
前記利用者に装着され、且つ前記入力情報決定手段により決定された前記入力情報を表示する表示手段と、
前記検出手段により生成される前記検出信号に基づいて、手の空間的な姿勢を示す情報である姿勢情報を算出し、前記姿勢情報に対応付けられている前記表示手段上の表示位置に、前記入力情報決定手段により決定された前記入力情報を表示する表示制御手段と、
を備えることを特徴とする入力装置。
A detecting unit that is mounted on a mounting unit provided on at least one of the user's finger or hand and detects a spatial motion of the user's finger to generate a detection signal;
Input information determination means for determining input information corresponding to the detection signal based on the detection signal from the detection means;
Display means for displaying the input information attached to the user and determined by the input information determination means;
Based on the detection signal generated by the detection unit, posture information that is information indicating a spatial posture of a hand is calculated, and the display position on the display unit associated with the posture information is Display control means for displaying the input information determined by the input information determination means;
An input device comprising:
請求項1に記載の入力装置において、
前記表示制御手段は、前記表示手段上に既に表示されている前記入力情報と併せて、前記入力情報決定手段で決定された前記入力情報を前記表示位置に表示することを特徴とする入力装置。
The input device according to claim 1,
The display control means displays the input information determined by the input information determination means together with the input information already displayed on the display means at the display position.
請求項1又は2に記載の入力装置において、
前記表示手段は手又は前腕のいずれか一方に装着されており、
前記表示制御手段は、前記検出手段により生成される前記検出信号に基づいて前記いずれか一方の回転角度を前記姿勢情報として算出し、当該算出された前記回転角度に基づいて当該回転角度毎に予め設定されている当該表示位置に、前記入力情報決定手段により決定された前記入力情報を表示することを特徴とする入力装置。
The input device according to claim 1 or 2,
The display means is attached to either the hand or the forearm,
The display control means calculates any one of the rotation angles as the posture information based on the detection signal generated by the detection means, and previously calculates each rotation angle based on the calculated rotation angle. An input device that displays the input information determined by the input information determination means at the set display position.
請求項1から3のいずれか一項に記載の入力装置において、
前記表示位置は、当該表示位置が対応付けられている前記姿勢情報において前記利用者が当該表示位置に表示される前記入力情報を視認可能となる当該表示位置であることを特徴とする入力装置。
The input device according to any one of claims 1 to 3,
The input device, wherein the display position is the display position at which the user can visually recognize the input information displayed at the display position in the posture information associated with the display position.
請求項1から4のいずれか一項に記載の入力装置において、
前記表示手段は、当該表示手段における前記入力情報の表示面に立てた法線の方向が、前記利用者から当該表示手段を視認可能な複数の方向となるように装着されていることを特徴とする入力装置。
The input device according to any one of claims 1 to 4,
The display means is mounted so that directions of normals on the display surface of the input information in the display means are a plurality of directions in which the user can visually recognize the display means. Input device.
コンピュータを、前記検出手段を除いた請求項1から5のいずれか一項に記載の入力装置として機能させることを特徴とする入力装置用プログラム。   A program for an input device, which causes a computer to function as the input device according to any one of claims 1 to 5 excluding the detection means.
JP2009137596A 2009-06-08 2009-06-08 Input device and program for input device Withdrawn JP2010282575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009137596A JP2010282575A (en) 2009-06-08 2009-06-08 Input device and program for input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009137596A JP2010282575A (en) 2009-06-08 2009-06-08 Input device and program for input device

Publications (1)

Publication Number Publication Date
JP2010282575A true JP2010282575A (en) 2010-12-16

Family

ID=43539222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009137596A Withdrawn JP2010282575A (en) 2009-06-08 2009-06-08 Input device and program for input device

Country Status (1)

Country Link
JP (1) JP2010282575A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101514658B1 (en) * 2014-01-08 2015-05-20 강릉원주대학교산학협력단 Wearable game manipulation system based on arduino and method for game manipulation method using the same
KR20150104769A (en) * 2014-03-06 2015-09-16 엘지전자 주식회사 glass-type mobile terminal
US9971313B2 (en) 2014-08-28 2018-05-15 Samsung Electronics Co., Ltd. Processor processing sensor signal corresponding to wrist muscle movement and devices including same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101514658B1 (en) * 2014-01-08 2015-05-20 강릉원주대학교산학협력단 Wearable game manipulation system based on arduino and method for game manipulation method using the same
KR20150104769A (en) * 2014-03-06 2015-09-16 엘지전자 주식회사 glass-type mobile terminal
KR102184402B1 (en) 2014-03-06 2020-11-30 엘지전자 주식회사 glass-type mobile terminal
US9971313B2 (en) 2014-08-28 2018-05-15 Samsung Electronics Co., Ltd. Processor processing sensor signal corresponding to wrist muscle movement and devices including same

Similar Documents

Publication Publication Date Title
US10948992B1 (en) Ring human-machine interface
US8619048B2 (en) Method and device of stroke based user input
US20110157236A1 (en) Head-mounted display
US20100177121A1 (en) Information processing apparatus, information processing method, and program
JP5207145B2 (en) Head mounted display
JP2014092849A (en) Electronic device, handwriting display method and program
US20040212590A1 (en) 3D-input device and method, soft key mapping method therefor, and virtual keyboard constructed using the soft key mapping method
US20170024117A1 (en) Touch input device and control method of the same
US20050231466A1 (en) Pointing device
JP2010282575A (en) Input device and program for input device
JP4786292B2 (en) Information processing apparatus, hierarchical information output method, and program
US20200133474A1 (en) Accommodative user interface for handheld electronic devices
JP5477203B2 (en) Input device
JP2010277469A (en) Input device
JP5427940B1 (en) Input device, angle input device, and program
US8571713B2 (en) Robot and method thereof
JP2011170747A (en) Information input device
CN204557377U (en) Electronics input gloves
CN108572744B (en) Character input method and system and computer readable recording medium
JP2012194626A (en) Display device
JP2007052696A (en) Drawing apparatus
JP4657171B2 (en) Portable electronic device and control method thereof
JP6217701B2 (en) Input device
JP2010238207A (en) Input device and program for the same
JP5992380B2 (en) Pointing device, notebook personal computer, and operation method.

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120904