JP2000284886A - Text input system, text input method, menu selection method and storage medium - Google Patents

Text input system, text input method, menu selection method and storage medium

Info

Publication number
JP2000284886A
JP2000284886A JP9148599A JP9148599A JP2000284886A JP 2000284886 A JP2000284886 A JP 2000284886A JP 9148599 A JP9148599 A JP 9148599A JP 9148599 A JP9148599 A JP 9148599A JP 2000284886 A JP2000284886 A JP 2000284886A
Authority
JP
Japan
Prior art keywords
finger
signal
code
text
text input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9148599A
Other languages
Japanese (ja)
Inventor
Katsuhiko Kawasaki
勝彦 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP9148599A priority Critical patent/JP2000284886A/en
Publication of JP2000284886A publication Critical patent/JP2000284886A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To input a text by one hand at any time at any place, to select a menu and to perform command by one hand at any time at any place. SOLUTION: This text input system has a finger movement detection part 1 for detecting moment of each finger and outputting a signal peculiar to each finger and has a portable type computer 2 which is equipped with a signal analysis part 26 for analyzing a signal of the finger movement detection part 1 and generating a code, a word dictionary 25 for storing a word made to correspond to a retrieval key and a CPU 21 which retrieves the word dictionary 25 with a code string generated in the order of movement of each finger a the retrieval key, selects a candidate word, performs selection processing of the word on the basis of an output of the finger movement detection part 1 with the finger movement when plural candidate words exist, and displays a selected word string as an input sentence.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テキスト入力シス
テム、テキスト入力方法、メニュー選択方法及び記憶媒
体に係り、更に詳しくは、いつでもどこでもテキスト入
力を可能とする場合に好適なテキスト入力システム、テ
キスト入力方法、メニュー選択方法及び記憶媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a text input system, a text input method, a menu selection method, and a storage medium. More particularly, the present invention relates to a text input system and a text input suitable for enabling text input anytime and anywhere. The present invention relates to a method, a menu selection method, and a storage medium.

【0002】[0002]

【従来の技術】近年、可搬性という面から携帯型のコン
ピュータが用いられるようになってきている。従来、携
帯型コンピュータにおけるテキスト入力やメニュー選択
やコマンドの実行は、携帯型コンピュータに装備された
小型キーボードからのキー入力やペン入力等によって行
われていた。この種のテキスト入力に関する従来技術と
しては、例えば特開平7−121294号公報に記載の
ものが提案されている。前記公報では、指の振動等を検
出して片手でデータを入力する方法が述べられている。
2. Description of the Related Art In recent years, portable computers have been used in terms of portability. Conventionally, text input, menu selection, and command execution in a portable computer have been performed by key input, pen input, or the like from a small keyboard provided in the portable computer. As a conventional technique related to this type of text input, for example, a technique described in Japanese Patent Application Laid-Open No. 7-112294 has been proposed. The publication describes a method of detecting vibrations of a finger and inputting data with one hand.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来技術においては下記のような問題があった。即
ち、上述した従来の携帯型コンピュータでは、携帯型コ
ンピュータの構造上の面からキーボードが小さいため、
テキストを入力しにくいという問題があった。同様に、
携帯型コンピュータの構造上の面から表示画面が小さい
ため、ペン入力に関しても操作しにくいという問題があ
った。
However, the above-mentioned prior art has the following problems. That is, in the above-described conventional portable computer, the keyboard is small in view of the structure of the portable computer.
There was a problem that it was difficult to input text. Similarly,
Since the display screen is small in view of the structure of the portable computer, there is a problem that it is difficult to operate pen input.

【0004】また、上述した特開平7−121294号
公報では、指の振動等を検出して片手の複数の指の組み
合わせによって点字や音符等のデータを入力する方法が
述べられているが、各指に多重にコードを割り当てて簡
単にテキストを入力する方法については述べられていな
い。
Japanese Patent Application Laid-Open No. 7-112294 describes a method of detecting data such as vibration of a finger and inputting data such as braille or musical notes by a combination of a plurality of fingers of one hand. It does not describe how to assign text to multiple fingers and easily enter text.

【0005】ところで、現在、携帯型コンピュータで最
も用いられているのは、電子メールやメモ帳などのテキ
スト入力とそのデータ通信機能であるが、机に向かわな
いで楽な姿勢でテキストを入力したりメニューを選択/
実行したり、体の不自由な人がベッドの上で横になって
テキストを入力するための簡単な方法は考えられていな
い。
[0005] By the way, the most widely used portable computers at present are text input such as e-mails and notepads and their data communication functions. However, text input in an easy posture without going to a desk is performed. Or select menu /
There is no easy way for the disabled or disabled person to lie down on the bed and enter text.

【0006】また、電車中や歩きながらテキストを入力
するのは片手で入力できるほうがよい。しかし、従来の
携帯型コンピュータではユーザが片手で簡単にテキスト
を入力する方法は考えられていない。
It is preferable that text can be input with one hand during a train or while walking. However, in the conventional portable computer, there has not been considered a method in which a user can easily input text with one hand.

【0007】本発明は、上述した点に鑑みなされたもの
であり、いつでもどこでも片手でテキストを入力するこ
とを可能とすると共に、いつでもどこでも片手でメニュ
ーを選択したりコマンドを実行したりすることを可能と
したテキスト入力システム、テキスト入力方法、メニュ
ー選択方法及び記憶媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and has made it possible to input text with one hand anytime and anywhere, and to select a menu or execute a command anytime and anywhere with one hand. It is an object of the present invention to provide a text input system, a text input method, a menu selection method, and a storage medium that are enabled.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の本発明は、片手でテキスト入力が可
能なテキスト入力システムであって、各指の動作を検出
し各指に固有の信号を出力する指動作検出手段と、該指
動作検出手段の出力信号を解析してコードを生成する信
号解析手段と、検索キーに対応付けた単語を記憶する記
憶手段と、前記信号解析手段で各指の動作順に生成した
コード列を検索キーとして前記記憶手段を検索し候補単
語を選出する候補単語選出手段と、該候補単語選出手段
で選出した候補単語が複数存在する場合、指動作による
単語選択に伴う前記指動作検出手段の出力に基づき単語
の選択処理を行う単語選択処理手段とを有することを特
徴とする。
According to one aspect of the present invention, there is provided a text input system capable of inputting text with one hand. Finger movement detecting means for outputting a unique signal; signal analyzing means for analyzing a signal output from the finger movement detecting means to generate a code; storage means for storing a word associated with a search key; Means for searching the storage means and selecting candidate words by using the code string generated in the order of movement of each finger by the means as a search key, and when there are a plurality of candidate words selected by the candidate word selecting means, And a word selection processing means for performing a word selection process based on an output of the finger motion detection means accompanying the word selection by the user.

【0009】上記目的を達成するために、請求項2記載
の本発明は、更に、所定の表示を行う表示手段を有し、
前記単語選択処理手段は、前記候補単語選出手段で選出
した候補単語が複数存在する場合、指動作による単語選
択に伴う前記指動作検出手段の出力に基づき単語の選択
処理を行うと共に前記選択した単語列を入力文として前
記表示手段で表示させることを特徴とする。
In order to achieve the above object, the present invention according to claim 2 further comprises display means for performing a predetermined display,
When there are a plurality of candidate words selected by the candidate word selecting means, the word selection processing means performs a word selection process based on an output of the finger motion detecting means accompanying the word selection by a finger motion, and executes the selected word. A column is displayed as an input sentence on the display means.

【0010】上記目的を達成するために、請求項3記載
の本発明は、各指に文字コード、記号コード、制御コー
ド等のコードを多重に割り当て、前記指動作検出手段
は、前記コードが多重に割り当てられた各指の動作を検
出し各指に固有の信号を出力することを特徴とする。
In order to achieve the above object, according to the present invention, a code such as a character code, a symbol code, a control code, or the like is assigned to each finger in a multiplex manner, and the finger movement detecting means sets the code to a multiplex. Detecting the movement of each finger assigned to the finger and outputting a signal unique to each finger.

【0011】上記目的を達成するために、請求項4記載
の本発明は、前記信号解析手段は、前記指動作検出手段
で検出された複数の指の動作の組み合わせに基づきテキ
スト編集における制御コードを生成することを特徴とす
る。
In order to achieve the above object, the present invention according to claim 4, wherein the signal analyzing means converts a control code in text editing based on a combination of a plurality of finger movements detected by the finger movement detecting means. It is characterized by generating.

【0012】上記目的を達成するために、請求項5記載
の本発明は、左手小指に文字コード「a」「b」「c」
「d」を多重に割り当て、左手薬指に文字コード「e」
「f」「g」「h」を多重に割り当て、左手中指に文字
コード「i」「j」「k」「l」「m」「n」を多重に
割り当て、左手人差し指に文字コード「o」「p」
「q」「r」「s」「t」を多重に割り当て、左手親指
に文字コード「u」「v」「w」「x」「y」「z」及
び記号コード「,」「.」「?」「!」を多重に割り当
て、前記指動作検出手段は、左手小指の動作に基づき信
号「a」を出力し、左手薬指の動作に基づき信号「e」
を出力し、左手中指の動作に基づき信号「i」を出力
し、左手人差し指の動作に基づき信号「o」を出力し、
左手親指の動作に基づき信号「u」を出力することを特
徴とする。
In order to achieve the above object, according to the present invention, the character codes "a", "b" and "c" are assigned to the left little finger.
"D" is assigned multiple times, and the character code "e" is assigned to the left ring finger.
“F”, “g”, and “h” are assigned multiple, character codes “i”, “j”, “k”, “l”, “m”, and “n” are assigned multiple to the left middle finger, and the character code “o” is assigned to the left index finger. "P"
“Q”, “r”, “s”, and “t” are assigned in multiples, and character codes “u”, “v”, “w”, “x”, “y”, “z” and symbol codes “,” “.” “ ? "And"! "Are assigned in a multiplexed manner, and the finger movement detecting means outputs a signal" a "based on the movement of the left little finger and a signal" e "based on the movement of the left ring finger.
And outputs a signal “i” based on the operation of the left middle finger, and outputs a signal “o” based on the operation of the left index finger,
The signal "u" is output based on the operation of the left thumb.

【0013】上記目的を達成するために、請求項6記載
の本発明は、前記信号解析手段は、前記指動作検出手段
から、左手小指と左手親指の動作に基づく信号を略同時
に受信した場合はメインメニューに戻るコード「MEN
U」を生成し、左手薬指と左手親指の動作に基づく信号
を略同時に受信した場合は削除コード「DEL」を生成
し、左手中指と左手親指の動作に基づく信号を略同時に
受信した場合は決定コード「ENT」を生成し、左手人
差し指と左手親指の動作に基づく信号を略同時に受信し
た場合はスペースコード「SP」を生成することを特徴
とする。
In order to achieve the above object, the present invention according to claim 6, wherein the signal analyzing means receives the signals based on the movements of the left little finger and the left thumb almost simultaneously from the finger movement detecting means. Return to the main menu with the code "MEN
U ”is generated, a deletion code“ DEL ”is generated when signals based on the movements of the left ring finger and the left thumb are received substantially simultaneously, and a decision is made when the signals based on the movements of the left middle finger and the left thumb are received substantially simultaneously. A code "ENT" is generated, and a space code "SP" is generated when signals based on the actions of the left index finger and the left thumb are received substantially simultaneously.

【0014】上記目的を達成するために、請求項7記載
の本発明は、右手小指に文字コード「a」「b」「c」
「d」を多重に割り当て、右手薬指に文字コード「e」
「f」「g」「h」を多重に割り当て、右手中指に文字
コード「i」「j」「k」「l」「m」「n」を多重に
割り当て、右手人差し指に文字コード「o」「p」
「q」「r」「s」「t」を多重に割り当て、右手親指
に文字コード「u」「v」「w」「x」「y」「z」及
び記号コード「,」「.」「?」「!」を多重に割り当
て、前記指動作検出手段は、右手小指の動作に基づき信
号「a」を出力し、右手薬指の動作に基づき信号「e」
を出力し、右手中指の動作に基づき信号「i」を出力
し、右手人差し指の動作に基づき信号「o」を出力し、
右手親指の動作に基づき信号「u」を出力することを特
徴とする。
To achieve the above object, according to the present invention, the character codes "a", "b" and "c" are assigned to the little finger of the right hand.
"D" is assigned multiple times and the character code "e" is assigned to the right ring finger.
“F”, “g”, and “h” are assigned multiple, character codes “i”, “j”, “k”, “l”, “m”, and “n” are assigned multiple to the right middle finger, and character code “o” is assigned to the right index finger. "P"
“Q”, “r”, “s”, and “t” are assigned in multiples, and character codes “u”, “v”, “w”, “x”, “y”, “z” and symbol codes “,” “.” “ "!" And "!" Are assigned in a multiplex manner, and the finger movement detecting means outputs a signal "a" based on the movement of the right little finger and a signal "e" based on the movement of the right ring finger.
And outputs a signal “i” based on the operation of the middle finger of the right hand, and outputs a signal “o” based on the operation of the index finger of the right hand,
The signal "u" is output based on the operation of the right thumb.

【0015】上記目的を達成するために、請求項8記載
の本発明は、前記信号解析手段は、前記指動作検出手段
から、右手小指と右手親指の動作に基づく信号を略同時
に受信した場合はメインメニューに戻るコード「MEN
U」を生成し、右手薬指と右手親指の動作に基づく信号
を略同時に受信した場合は削除コード「DEL」を生成
し、右手中指と右手親指の動作に基づく信号を略同時に
受信した場合は決定コード「ENT」を生成し、右手人
差し指と右手親指の動作に基づく信号を略同時に受信し
た場合はスペースコード「SP」を生成することを特徴
とする。
In order to achieve the above object, according to the present invention, the signal analyzing means may be arranged such that when the signals based on the movements of the right little finger and the right thumb are received from the finger movement detecting means substantially simultaneously. Return to the main menu with the code "MEN
U ”is generated, and a deletion code“ DEL ”is generated when signals based on the operations of the right ring finger and the right thumb are substantially simultaneously received. A determination is made when the signals based on the operations of the right middle finger and the right thumb are substantially simultaneously received. A code "ENT" is generated, and a space code "SP" is generated when signals based on the actions of the right index finger and the right thumb are received substantially simultaneously.

【0016】上記目的を達成するために、請求項9記載
の本発明は、前記指動作検出手段は、各指が物体に触れ
たことを検出する触覚センサと、該触覚センサの検出に
基づき信号を発生する信号発生手段とを有することを特
徴とする請求項1乃至8の何れかに記載のテキスト入力
システム。
According to a ninth aspect of the present invention, the finger movement detecting means includes a tactile sensor for detecting that each finger has touched an object, and a signal based on the detection of the tactile sensor. The text input system according to any one of claims 1 to 8, further comprising a signal generating unit configured to generate a text.

【0017】上記目的を達成するために、請求項10記
載の本発明は、前記指動作検出手段は、各指が物体を叩
いた振動を検出する振動センサと、該振動センサの検出
に基づき信号を発生する信号発生手段とを有することを
特徴とする。
According to a tenth aspect of the present invention, the finger movement detecting means includes a vibration sensor for detecting vibration of each finger hitting an object, and a signal based on the detection of the vibration sensor. And a signal generating means for generating

【0018】上記目的を達成するために、請求項11記
載の本発明は、前記表示手段は、コンピュータに装備さ
れたディスプレイであることを特徴とする。
In order to achieve the above object, the present invention according to claim 11 is characterized in that the display means is a display mounted on a computer.

【0019】上記目的を達成するために、請求項12記
載の本発明は、前記表示手段は、ヘッドマウントディス
プレイであることを特徴とする。
According to a twelfth aspect of the present invention, the display means is a head-mounted display.

【0020】上記目的を達成するために、請求項13記
載の本発明は、前記表示手段には、各指と入力文字及び
制御記号との対応図が表示されることを特徴とする。
In order to achieve the above object, the present invention according to a thirteenth aspect of the present invention is characterized in that the display means displays a correspondence diagram between each finger and input characters and control symbols.

【0021】上記目的を達成するために、請求項14記
載の本発明は、前記指動作検出手段を左右両手に装着し
た場合、制御権を一方の手から他方の手へと移行させる
ことが可能であることを特徴とする。
In order to achieve the above object, according to the present invention, the control right can be transferred from one hand to the other hand when the finger movement detecting means is attached to both right and left hands. It is characterized by being.

【0022】上記目的を達成するために、請求項15記
載の本発明は、前記指動作検出手段で右手の何れかの指
の動作に基づく信号と左手の何れかの指の動作に基づく
信号とを略同時に検出した場合、制御権を一方の手から
他方の手へと移行させることが可能であることを特徴と
する。
In order to achieve the above object, the present invention according to claim 15 is characterized in that the finger movement detecting means detects a signal based on the movement of any one of the right hand and a signal based on the movement of any one of the left hand. Are detected at substantially the same time, the control right can be transferred from one hand to the other hand.

【0023】上記目的を達成するために、請求項16記
載の本発明は、片手でテキスト入力が可能なテキスト入
力システムに適用されるテキスト入力方法であって、各
指の動作を検出し各指に固有の信号を出力する指動作検
出ステップと、該指動作検出ステップの出力信号を解析
してコードを生成する信号解析ステップと、検索キーに
対応付けた単語を記憶する記憶ステップと、前記信号解
析ステップで各指の動作順に生成したコード列を検索キ
ーとして前記記憶ステップを検索し候補単語を選出する
候補単語選出ステップと、該候補単語選出ステップで選
出した候補単語が複数存在する場合、指動作による単語
選択に伴う前記指動作検出ステップの出力に基づき単語
の選択処理を行う単語選択処理ステップとを有すること
を特徴とする。
According to another aspect of the present invention, there is provided a text input method applied to a text input system capable of inputting text with one hand. A finger motion detecting step of outputting a signal specific to the step, a signal analyzing step of analyzing a signal output from the finger motion detecting step to generate a code, a storing step of storing a word associated with a search key, and the signal A candidate word selecting step of searching the storage step and selecting a candidate word by using the code string generated in the analysis step in the order of operation of each finger as a search key, and when there are a plurality of candidate words selected in the candidate word selecting step, the finger A word selecting process step of performing a word selecting process based on the output of the finger motion detecting step accompanying the word selection by the motion.

【0024】上記目的を達成するために、請求項17記
載の本発明は、更に、所定の表示を行う表示ステップを
有し、前記単語選択処理ステップでは、前記候補単語選
出ステップで選出した候補単語が複数存在する場合、指
動作による単語選択に伴う前記指動作検出ステップの出
力に基づき単語の選択処理を行うと共に前記選択した単
語列を入力文として前記表示ステップで表示させること
を特徴とする。
In order to achieve the above object, the present invention according to claim 17 further comprises a display step of performing a predetermined display, wherein the word selection processing step includes the step of selecting a candidate word selected in the candidate word selecting step. When there are a plurality of words, a word selection process is performed based on the output of the finger motion detection step accompanying the word selection by the finger motion, and the selected word string is displayed as an input sentence in the display step.

【0025】上記目的を達成するために、請求項18記
載の本発明は、各指に文字コード、記号コード、制御コ
ード等のコードを多重に割り当て、前記指動作検出ステ
ップでは、前記コードが多重に割り当てられた各指の動
作を検出し各指に固有の信号を出力することを特徴とす
る。
To achieve the above object, according to the present invention, a code such as a character code, a symbol code and a control code is assigned to each finger in a multiplex manner, and in the finger movement detecting step, the codes are multiplexed. Detecting the movement of each finger assigned to the finger and outputting a signal unique to each finger.

【0026】上記目的を達成するために、請求項19記
載の本発明は、前記信号解析ステップでは、前記指動作
検出ステップで検出された複数の指の動作の組み合わせ
に基づきテキスト編集における制御コードを生成するこ
とを特徴とする。
In order to achieve the above object, according to the present invention, in the signal analyzing step, the control code in the text editing is edited based on a combination of a plurality of finger movements detected in the finger movement detecting step. It is characterized by generating.

【0027】上記目的を達成するために、請求項20記
載の本発明は、左手小指に文字コード「a」「b」
「c」「d」を多重に割り当て、左手薬指に文字コード
「e」「f」「g」「h」を多重に割り当て、左手中指
に文字コード「i」「j」「k」「l」「m」「n」を
多重に割り当て、左手人差し指に文字コード「o」
「p」「q」「r」「s」「t」を多重に割り当て、左
手親指に文字コード「u」「v」「w」「x」「y」
「z」及び記号コード「,」「.」「?」「!」を多重
に割り当て、前記指動作検出ステップでは、左手小指の
動作に基づき信号「a」を出力し、左手薬指の動作に基
づき信号「e」を出力し、左手中指の動作に基づき信号
「i」を出力し、左手人差し指の動作に基づき信号
「o」を出力し、左手親指の動作に基づき信号「u」を
出力することを特徴とする。
In order to achieve the above object, according to the present invention, the character codes "a" and "b" are assigned to the left little finger.
“C” and “d” are assigned multiple, character codes “e”, “f”, “g” and “h” are assigned multiple to the left ring finger, and character codes “i”, “j”, “k” and “l” are assigned to the left middle finger. "M" and "n" are assigned in multiples, and the character code "o" is assigned to the left index finger.
“P”, “q”, “r”, “s”, and “t” are assigned in multiples, and the character codes “u”, “v”, “w”, “x”, and “y” are assigned to the left thumb.
“Z” and the symbol codes “,” “.” “?” “!” Are assigned in a multiplex manner, and in the finger motion detection step, a signal “a” is output based on the motion of the left little finger, and based on the motion of the left ring finger. Outputting a signal "e", outputting a signal "i" based on the movement of the left middle finger, outputting a signal "o" based on the movement of the left index finger, and outputting a signal "u" based on the movement of the left thumb. It is characterized by.

【0028】上記目的を達成するために、請求項21記
載の本発明は、前記信号解析ステップでは、前記指動作
検出ステップから、左手小指と左手親指の動作に基づく
信号を略同時に受信した場合はメインメニューに戻るコ
ード「MENU」を生成し、左手薬指と左手親指の動作
に基づく信号を略同時に受信した場合は削除コード「D
EL」を生成し、左手中指と左手親指の動作に基づく信
号を略同時に受信した場合は決定コード「ENT」を生
成し、左手人差し指と左手親指の動作に基づく信号を略
同時に受信した場合はスペースコード「SP」を生成す
ることを特徴とする。
In order to achieve the above object, according to the present invention, in the signal analyzing step, when signals based on the movements of the left little finger and the left thumb are received substantially simultaneously from the finger movement detecting step, A code "MENU" for returning to the main menu is generated, and when signals based on the movement of the left ring finger and the left thumb are received substantially simultaneously, the deletion code "D" is generated.
EL "is generated, a decision code" ENT "is generated when signals based on the movements of the left middle finger and the left thumb are received substantially simultaneously, and a space is generated when signals based on the movements of the left index finger and the left thumb are received substantially simultaneously. It is characterized by generating a code "SP".

【0029】上記目的を達成するために、請求項22記
載の本発明は、右手小指に文字コード「a」「b」
「c」「d」を多重に割り当て、右手薬指に文字コード
「e」「f」「g」「h」を多重に割り当て、右手中指
に文字コード「i」「j」「k」「l」「m」「n」を
多重に割り当て、右手人差し指に文字コード「o」
「p」「q」「r」「s」「t」を多重に割り当て、右
手親指に文字コード「u」「v」「w」「x」「y」
「z」及び記号コード「,」「.」「?」「!」を多重
に割り当て、前記指動作検出ステップでは、右手小指の
動作に基づき信号「a」を出力し、右手薬指の動作に基
づき信号「e」を出力し、右手中指の動作に基づき信号
「i」を出力し、右手人差し指の動作に基づき信号
「o」を出力し、右手親指の動作に基づき信号「u」を
出力することを特徴とする。
To achieve the above object, according to the present invention, the character codes "a" and "b" are assigned to the little finger of the right hand.
“C” and “d” are multiplexed, character codes “e”, “f”, “g”, and “h” are multiplexed to the right ring finger, and character codes “i”, “j”, “k”, and “l” are assigned to the right middle finger. “M” and “n” are assigned in multiples, and the character code “o” is assigned to the right index finger.
“P”, “q”, “r”, “s”, and “t” are assigned in multiples, and the character codes “u”, “v”, “w”, “x”, and “y” are assigned to the right thumb.
“Z” and the symbol codes “,” “.” “?” “!” Are assigned in a multiplex manner, and in the finger motion detection step, a signal “a” is output based on the motion of the right little finger, and based on the motion of the right ring finger. Outputting a signal "e", outputting a signal "i" based on the operation of the right middle finger, outputting a signal "o" based on the operation of the right index finger, and outputting a signal "u" based on the operation of the right thumb. It is characterized by.

【0030】上記目的を達成するために、請求項23記
載の本発明は、前記信号解析ステップでは、前記指動作
検出ステップから、右手小指と右手親指の動作に基づく
信号を略同時に受信した場合はメインメニューに戻るコ
ード「MENU」を生成し、右手薬指と右手親指の動作
に基づく信号を略同時に受信した場合は削除コード「D
EL」を生成し、右手中指と右手親指の動作に基づく信
号を略同時に受信した場合は決定コード「ENT」を生
成し、右手人差し指と右手親指の動作に基づく信号を略
同時に受信した場合はスペースコード「SP」を生成す
ることを特徴とする。
According to a twenty-third aspect of the present invention, in the signal analyzing step, when signals based on the movement of the right little finger and the right thumb are received from the finger movement detecting step substantially simultaneously. A code "MENU" for returning to the main menu is generated, and when signals based on the operations of the right ring finger and the right thumb are received substantially simultaneously, the deletion code "D" is generated.
EL "is generated, a decision code" ENT "is generated when signals based on the movements of the right middle finger and the right thumb are received substantially simultaneously, and a space is generated when the signals based on the movements of the right index finger and the right thumb are received substantially simultaneously. It is characterized by generating a code "SP".

【0031】上記目的を達成するために、請求項24記
載の本発明は、前記指動作検出ステップは、各指が物体
に触れたことを触覚センサにより検出する触覚検出ステ
ップと、該触覚検出ステップの検出に基づき信号を発生
する信号発生ステップとを有することを特徴とする。
In order to achieve the above object, the present invention according to claim 24, wherein the finger movement detecting step comprises: a tactile detection step of detecting that each finger has touched an object by a tactile sensor; And a signal generating step of generating a signal based on the detection of.

【0032】上記目的を達成するために、請求項25記
載の本発明は、前記指動作検出ステップは、各指が物体
を叩いた振動を振動センサにより検出する振動検出ステ
ップと、該振動検出ステップの検出に基づき信号を発生
する信号発生ステップとを有することを特徴とする。
According to a twenty-fifth aspect of the present invention, the finger movement detecting step includes the steps of: detecting a vibration of each finger striking an object with a vibration sensor; And a signal generating step of generating a signal based on the detection of.

【0033】上記目的を達成するために、請求項26記
載の本発明は、前記表示ステップでは、コンピュータに
装備されたディスプレイにより表示を行うことを特徴と
する。
[0033] In order to achieve the above object, the present invention according to claim 26 is characterized in that in the displaying step, a display is provided by a display provided in a computer.

【0034】上記目的を達成するために、請求項27記
載の本発明は、前記表示ステップでは、ヘッドマウント
ディスプレイにより表示を行うことを特徴とする。
[0034] In order to achieve the above object, the present invention according to claim 27 is characterized in that in the display step, display is performed by a head mounted display.

【0035】上記目的を達成するために、請求項28記
載の本発明は、前記表示ステップでは、各指と入力文字
及び制御記号との対応図が表示されることを特徴とす
る。
In order to achieve the above object, the present invention according to claim 28 is characterized in that in the display step, a correspondence diagram between each finger, input characters and control symbols is displayed.

【0036】上記目的を達成するために、請求項29記
載の本発明は、前記指動作検出ステップで用いる指動作
検出手段を左右両手に装着した場合、制御権を一方の手
から他方の手へと移行させることが可能であることを特
徴とする。
In order to achieve the above object, according to the present invention, when the finger motion detecting means used in the finger motion detecting step is attached to both left and right hands, control is transferred from one hand to the other hand. And it can be shifted.

【0037】上記目的を達成するために、請求項30記
載の本発明は、前記指動作検出ステップで右手の何れか
の指の動作に基づく信号と左手の何れかの指の動作に基
づく信号とを略同時に検出した場合、制御権を一方の手
から他方の手へと移行させることが可能であることを特
徴とする。
In order to achieve the above object, according to the present invention, in the finger movement detecting step, a signal based on the movement of any finger of the right hand and a signal based on the movement of any finger of the left hand are used. Are detected at substantially the same time, the control right can be transferred from one hand to the other hand.

【0038】上記目的を達成するために、請求項31記
載の本発明は、片手でテキスト入力が可能なテキスト入
力システムに適用されるメニュー選択方法であって、各
指の動作を検出し各指に固有の信号を出力する指動作検
出ステップと、該指動作検出ステップの出力信号を解析
してコードを生成する信号解析ステップと、該信号解析
ステップで生成したコードに応じてメニューの選択やコ
マンドの実行を行うメニュー選択ステップとを有するこ
とを特徴とする。
In order to achieve the above object, the present invention according to claim 31 is a menu selection method applied to a text input system capable of inputting text with one hand. A finger motion detecting step of outputting a signal unique to the digital camera, a signal analyzing step of analyzing the output signal of the finger motion detecting step to generate a code, and selecting a menu or a command according to the code generated in the signal analyzing step. And a menu selection step of executing

【0039】上記目的を達成するために、請求項32記
載の本発明は、テキストの入力が可能なテキスト入力シ
ステムに適用されるテキスト入力方法を実行するプログ
ラムを記憶したコンピュータにより読み出し可能な記憶
媒体であって、前記テキスト入力方法は、各指の動作を
検出し各指に固有の信号を出力する指動作検出ステップ
と、該指動作検出ステップの出力信号を解析してコード
を生成する信号解析ステップと、検索キーに対応付けた
単語を記憶する記憶ステップと、前記信号解析ステップ
で各指の動作順に生成したコード列を検索キーとして前
記記憶ステップを検索し候補単語を選出する候補単語選
出ステップと、該候補単語選出ステップで選出した候補
単語が複数存在する場合、指動作による単語選択に伴う
前記指動作検出ステップの出力に基づき単語の選択処理
を行う単語選択処理ステップとを有することを特徴とす
る。
According to another aspect of the present invention, there is provided a computer-readable storage medium storing a program for executing a text input method applied to a text input system capable of inputting text. The text input method includes a finger motion detecting step of detecting a motion of each finger and outputting a signal unique to each finger, and a signal analysis for generating a code by analyzing an output signal of the finger motion detecting step. A storage step of storing a word associated with a search key; and a candidate word selection step of searching the storage step and selecting a candidate word using the code string generated in the order of movement of each finger in the signal analysis step as a search key. And when there are a plurality of candidate words selected in the candidate word selecting step, the finger movement detecting step accompanying the word selection by the finger movement. And having a word selection processing step of performing processing for selecting a word based on the output of the-up.

【0040】上記目的を達成するために、請求項33記
載の本発明は、テキストの入力が可能なテキスト入力シ
ステムに適用されるメニュー選択方法を実行するプログ
ラムを記憶したコンピュータにより読み出し可能な記憶
媒体であって、前記メニュー選択方法は、各指の動作を
検出し各指に固有の信号を出力する指動作検出ステップ
と、該指動作検出ステップの出力信号を解析してコード
を生成する信号解析ステップと、該信号解析ステップで
生成したコードに応じてメニューの選択やコマンドの実
行を行うメニュー選択ステップとを有することを特徴と
する。
According to a third aspect of the present invention, there is provided a computer-readable storage medium storing a program for executing a menu selection method applied to a text input system capable of inputting text. Wherein the menu selection method comprises: a finger motion detecting step of detecting a motion of each finger and outputting a signal unique to each finger; and a signal analysis for generating a code by analyzing an output signal of the finger motion detecting step. And a menu selection step of selecting a menu or executing a command according to the code generated in the signal analysis step.

【0041】[0041]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0042】[本実施形態]図3は本発明の実施の形態
に係る装着型テキスト入力装置(テキスト入力システ
ム)の全体構成を示す構成図である。本発明の実施の形
態に係る装着型テキスト入力装置は、複数の指動作検出
部1(図3におけるLA、LE、LI、LO、LU)
と、携帯型コンピュータ2とを備える構成となってい
る。図中LHはユーザの右手である。
[Embodiment] FIG. 3 is a configuration diagram showing the entire configuration of a wearable text input device (text input system) according to an embodiment of the present invention. The wearable text input device according to the embodiment of the present invention includes a plurality of finger motion detection units 1 (LA, LE, LI, LO, LU in FIG. 3).
And a portable computer 2. In the figure, LH is the right hand of the user.

【0043】上記各部の機能を説明すると、複数の指動
作検出部1(図3におけるLA、LE、LI、LO、L
U)は、内部に触覚センサ(図2参照)を備えており、
LAは左手小指に、LEは左手薬指に、LIは左手中指
に、LOは左手人差し指に、LUは左手親指に、それぞ
れ装着されている。携帯型コンピュータ2は、ユーザが
指を動かしたことに伴い指動作検出部1から出力される
信号を受信して動作する。指動作検出部1、携帯型コン
ピュータ2の詳細は後述する。
The function of each unit will be described. A plurality of finger motion detection units 1 (LA, LE, LI, LO, L in FIG. 3)
U) has a tactile sensor (see FIG. 2) inside,
LA is attached to the left little finger, LE is attached to the left ring finger, LI is attached to the left middle finger, LO is attached to the left index finger, and LU is attached to the left thumb. The portable computer 2 operates by receiving a signal output from the finger movement detection unit 1 in response to the movement of the finger by the user. The details of the finger motion detection unit 1 and the portable computer 2 will be described later.

【0044】図2は本発明の実施の形態に係る装着型テ
キスト入力装置の指動作検出部1を中心とした構成を示
すブロック図である。本発明の実施の形態に係る装着型
テキスト入力装置の指動作検出部1(図3におけるL
A、LE、LI、LO、LU)は、全て同じ構造を有し
ており、図2に示すように、触覚センサ11と、信号発
生部12と、送信部13と、CPU14と、ROM15
とを備える構成となっている。
FIG. 2 is a block diagram showing a configuration of the wearable text input device according to the embodiment of the present invention, centering on the finger motion detection unit 1. As shown in FIG. A finger motion detection unit 1 (L in FIG. 3) of the wearable text input device according to the embodiment of the present invention.
A, LE, LI, LO, LU) all have the same structure, and as shown in FIG. 2, a tactile sensor 11, a signal generating unit 12, a transmitting unit 13, a CPU 14, and a ROM 15
And a configuration including:

【0045】上記各部の機能を説明すると、触覚センサ
11は、ユーザが指で物体に触れたことを検出する。信
号発生部12は、触覚センサ11の検出に基づき信号を
発生する。送信部13は、指動作検出部1から携帯型コ
ンピュータ2へ信号の送信を行う。CPU14は、制御
プログラムに基づき指動作検出部全体の制御を司るもの
であり、図6のフローチャートに示す処理を実行する。
ROM15は、CPU14で実行する制御プログラム等
を記憶する。
The function of each section will be described. The tactile sensor 11 detects that the user has touched an object with a finger. The signal generator 12 generates a signal based on the detection of the tactile sensor 11. The transmission unit 13 transmits a signal from the finger motion detection unit 1 to the portable computer 2. The CPU 14 controls the entire finger motion detection unit based on the control program, and executes the processing shown in the flowchart of FIG.
The ROM 15 stores a control program executed by the CPU 14 and the like.

【0046】触覚センサ11がユーザが指で物体に触れ
たことを検出すると、信号発生部12は信号を発生す
る。信号発生部12で発生する信号は、ユーザの各指に
装着された指動作検出部1によって異なる。例えば、L
A、LE、LI、LO、LUは、それぞれ固有の信号を
発生して、ユーザのどの指が物体に触れたかを識別でき
るようにする。信号発生部12で発生する信号は、ディ
ジタル信号でもアナログ信号でもよい。信号発生部12
で生成された信号は送信部13に送られ、有線または無
線によって携帯型コンピュータ2に送信される。
When the tactile sensor 11 detects that the user has touched the object with the finger, the signal generator 12 generates a signal. The signal generated by the signal generator 12 differs depending on the finger motion detector 1 attached to each finger of the user. For example, L
A, LE, LI, LO, and LU each generate a unique signal so that it is possible to identify which finger of the user has touched the object. The signal generated by the signal generator 12 may be a digital signal or an analog signal. Signal generator 12
Is transmitted to the transmission unit 13 and transmitted to the portable computer 2 by wire or wirelessly.

【0047】図4は本発明の実施の形態に係る装着型テ
キスト入力装置の各指に割り当てられた指動作検出部1
とその発生信号との対応を示す説明図である。左手小指
で物体に触れると、指動作検出部1のLAが信号「a」
を発生する。左手薬指で物体に触れると、指動作検出部
1のLEが信号「e」を発生する。左手中指で物体に触
れると、指動作検出部1のLIが信号「i」を発生す
る。左手人差し指で物体に触れると、指動作検出部1の
LOが信号「o」を発生する。左手親指で物体に触れる
と、指動作検出部1のLUが信号「u」を発生する。
FIG. 4 shows a finger movement detecting unit 1 assigned to each finger of the wearable text input device according to the embodiment of the present invention.
FIG. 4 is an explanatory diagram showing the correspondence between the signals and their generation signals. When the left little finger touches the object, the LA of the finger motion detection unit 1 outputs the signal “a”.
Occurs. When the left ring finger touches the object, the LE of the finger motion detection unit 1 generates a signal “e”. When the left middle finger touches the object, the LI of the finger motion detection unit 1 generates a signal “i”. When the left index finger touches the object, the LO of the finger motion detection unit 1 generates a signal “o”. When the left thumb touches the object, the LU of the finger motion detection unit 1 generates a signal “u”.

【0048】図1は本発明の実施の形態に係る装着型テ
キスト入力装置の携帯型コンピュータ2を中心とした構
成を示すブロック図である。本発明の実施の形態に係る
装着型テキスト入力装置の携帯型コンピュータ2は、デ
ィスプレイ21と、CPU22と、RAM23と、RO
M24と、単語辞書25と、信号解析部26と、受信部
27とを備える構成となっている。
FIG. 1 is a block diagram showing a configuration of a wearable text input device according to an embodiment of the present invention, centering on a portable computer 2. As shown in FIG. The portable computer 2 of the wearable text input device according to the embodiment of the present invention includes a display 21, a CPU 22, a RAM 23, and a RO.
The configuration includes an M24, a word dictionary 25, a signal analyzing unit 26, and a receiving unit 27.

【0049】上記各部の機能を説明すると、ディスプレ
イ21は、テキストの表示を行うもであり、図9に示す
ように、各指と入力文字及び制御コードとの対応がユー
ザに分かるように表示されている。CPU22は、制御
プログラムに基づき携帯型コンピュータ全体の制御を司
るものであり、図7のフローチャートに示す処理を実行
する。RAM23は、一時的な記憶を行う。ROM24
は、CPU22で実行する制御プログラム(プログラム
コード)等を記憶する長期記憶装置である。単語辞書2
5には、図8に示すように、検索キーに対して、単語と
その出現頻度が記憶されている。本例では、一般に使用
される例えば42970個の英単語が記憶されている。
例えば、検索キーが「aaaaeiu」の場合には単語
「academy」が取り出される。信号解析部26
は、受信部27で受信した信号を解析して制御信号を生
成する。受信部27は、指動作検出部1から携帯型コン
ピュータ2へ送信されきた指の動きの信号の受信を行
う。
The function of each section will be described. The display 21 displays text. As shown in FIG. 9, the display 21 is displayed so that the user can understand the correspondence between each finger, input characters and control codes. ing. The CPU 22 controls the entire portable computer based on the control program, and executes the processing shown in the flowchart of FIG. The RAM 23 performs temporary storage. ROM 24
Is a long-term storage device for storing control programs (program codes) executed by the CPU 22 and the like. Word dictionary 2
In FIG. 5, a word and its appearance frequency are stored for the search key as shown in FIG. In this example, for example, 42,970 commonly used English words are stored.
For example, when the search key is “aaaaeiu”, the word “cademy” is extracted. Signal analyzer 26
Analyzes the signal received by the receiving unit 27 and generates a control signal. The receiving unit 27 receives a finger movement signal transmitted from the finger movement detecting unit 1 to the portable computer 2.

【0050】上述したように信号解析部26は、受信部
27で受信した信号を解析して、制御信号を生成する
(図5)。例えば信号「u」と信号「o」とを略同時に
受信すれば、コード「SP」(スペース/変換)を発生
する。例えば信号「u」と信号「i」とを略同時に受信
すれば、コード「ENT」(決定)を発生する。例えば
信号「u」と信号「a」とを略同時に受信すれば、コー
ド「MENU」(メニューに戻る)を発生する。
As described above, the signal analyzer 26 analyzes the signal received by the receiver 27 to generate a control signal (FIG. 5). For example, if the signal “u” and the signal “o” are received substantially simultaneously, a code “SP” (space / conversion) is generated. For example, when the signal “u” and the signal “i” are received substantially simultaneously, a code “ENT” (determination) is generated. For example, if the signal “u” and the signal “a” are received substantially simultaneously, a code “MENU” (return to the menu) is generated.

【0051】ユーザが指で物体に触れるとその動作に応
じて生成された信号列から、存在可能な単語が単語辞書
25(図8)から取り出される。例えば、ユーザが「左
手小指」「左手小指」「左手小指」の順で左手親指以外
の物体に触れたとすると、各指の動作と発生信号との対
応により(図4)、検索キー「aaa」が生成され、こ
の検索キーを用いて図8に示す単語辞書25を検索し、
候補単語として「add」「baa」「bad」が取り
出される。
When the user touches an object with a finger, possible words are extracted from the word dictionary 25 (FIG. 8) from a signal sequence generated in accordance with the operation. For example, if the user touches an object other than the left thumb in the order of “left little finger”, “left little finger”, “left little finger”, the search key “aaa” is obtained by the correspondence between the movement of each finger and the generated signal (FIG. 4). Is generated, and the word dictionary 25 shown in FIG. 8 is searched using the search key.
“Add”, “baa”, and “bad” are extracted as candidate words.

【0052】取り出された候補単語の選択や決定や削除
は、ユーザが親指と他の指とを触れ合わせることによっ
て行う。例えば、単語の選択は左手親指と左手人差し指
とを触れ合わせて信号「u」と信号「o」とを同時に発
生させ、信号解析部26においてコード「SP」(スペ
ース)を発生させることによって行う。単語の決定は、
左手親指と左手中指とを触れ合わせて信号「u」と信号
「i」とを同時に発生させ、信号解析部26においてコ
ード「ENT」(決定)を発生させることによって行
う。単語の削除は、左手親指と左手人差し指とを触れ合
わせて信号「u」と信号「e」とを同時に発生させ、信
号解析部26においてコード「DEL」(削除)を発生
させることによって行う。テキストの編集を終了してメ
ニューに戻るには、左手親指と左手小指とを触れ合わせ
て信号「u」と信号「a」とを同時に発生させ、信号解
析部26においてコード「MENU」(メニューに戻
る)を発生させることによって行う。
The selection, determination and deletion of the extracted candidate word are performed by the user touching the thumb with another finger. For example, a word is selected by touching the left thumb and the left index finger to generate a signal “u” and a signal “o” at the same time, and to generate a code “SP” (space) in the signal analysis unit 26. The word decision is
The signal "u" and the signal "i" are simultaneously generated by touching the left thumb and the middle finger of the left hand, and the code "ENT" (determination) is generated in the signal analysis unit 26. The word is deleted by touching the left thumb and the left index finger to generate the signal “u” and the signal “e” at the same time, and to generate the code “DEL” (deletion) in the signal analysis unit 26. In order to finish editing the text and return to the menu, the left thumb and the little finger of the left hand are touched to generate a signal “u” and a signal “a” at the same time, and the signal analyzer 26 generates the code “MENU” (in the menu). Back).

【0053】図53は本発明のプログラム及び関連デー
タが記憶媒体から装置に供給される概念例を示す説明図
である。本発明のプログラム及び関連データは、フロッ
ピディスクやCD−ROM等の記憶媒体531を装置5
32に装備された記憶媒体ドライブ挿入口533に挿入
することで供給される。その後、本発明のプログラム及
び関連データを記憶媒体531から一旦ハードディスク
にインストールしハードディスクからRAMにロードす
るか、或いは、ハードディスクにインストールせずに直
接RAMにロードすることで、本発明のプログラムを実
行することが可能となる。
FIG. 53 is an explanatory diagram showing a conceptual example in which the program and related data of the present invention are supplied from a storage medium to the apparatus. The program and related data of the present invention are stored in a storage medium 531 such as a floppy disk or a CD-ROM in the device 5.
32 is supplied by being inserted into a storage medium drive insertion port 533 provided in the storage device 32. Thereafter, the program of the present invention is executed by temporarily installing the program of the present invention and the related data from the storage medium 531 on the hard disk and loading it from the hard disk to the RAM, or by directly loading the program and the related data into the RAM without installing the hard disk. It becomes possible.

【0054】本発明の実施の形態に係る装着型テキスト
入力装置において、上記の本発明のプログラムを実行す
る場合は、本発明のプログラム及び関連データが記憶さ
れた記憶媒体を図1の携帯型コンピュータ2の記憶媒体
ドライブ挿入口(図示略)に挿入することで供給し、上
記手順を実行することにより、本発明のプログラムを実
行することができる。
When the above-described program of the present invention is executed in the wearable text input device according to the embodiment of the present invention, a storage medium storing the program of the present invention and related data is stored in the portable computer of FIG. 2 is supplied by inserting it into the storage medium drive insertion slot (not shown), and by executing the above procedure, the program of the present invention can be executed.

【0055】図52は本発明のプログラム及び関連デー
タを記憶した記憶媒体の記憶内容の構成例を示す説明図
である。本発明の記憶媒体は、例えばボリューム情報5
21、ディレクトリ情報522、プログラム実行ファイ
ル523、プログラム関連データファイル524等の記
憶内容で構成される。本発明のプログラムは、後述する
図6〜図7のフローチャート等に基づいてプログラムコ
ード化されたものである。
FIG. 52 is an explanatory diagram showing a configuration example of the storage contents of a storage medium storing the program and related data of the present invention. The storage medium of the present invention stores, for example, volume information 5
21, directory information 522, a program execution file 523, a program-related data file 524, and the like. The program of the present invention is program-coded based on flowcharts shown in FIGS.

【0056】尚、本発明の特許請求の範囲における各構
成要件と、本発明の実施の形態並びに後述する他の実施
の形態に係る装着型テキスト入力装置の各部との対応関
係は下記の通りである。指動作検出手段が有する指動作
検出機能は指動作検出部1の触覚センサ11(本実施形
態)、振動センサ(他の実施形態4)に対応し、指動作
検出手段が有する信号発生手段は指動作検出部1の信号
発生部12に対応し、信号解析手段は携帯型コンピュー
タ2(他の実施形態3の小型コンピュータ51)の信号
解析部26に対応し、記憶手段は携帯型コンピュータ2
(他の実施形態3の小型コンピュータ51)の単語辞書
25に対応し、候補単語選出手段、単語選択処理手段は
携帯型コンピュータ2(他の実施形態3の小型コンピュ
ータ51)のCPU22に対応し、表示手段はディスプ
レイ21、ヘッドマウントディスプレイ50に対応す
る。
The correspondence between each component in the claims of the present invention and each part of the wearable text input device according to the embodiment of the present invention and other embodiments to be described later is as follows. is there. The finger motion detection function of the finger motion detection unit corresponds to the tactile sensor 11 (this embodiment) and the vibration sensor (other embodiment 4) of the finger motion detection unit 1, and the signal generation unit of the finger motion detection unit is a finger. The signal analysis unit corresponds to the signal generation unit 12 of the operation detection unit 1, the signal analysis unit corresponds to the signal analysis unit 26 of the portable computer 2 (the small computer 51 of the third embodiment), and the storage unit corresponds to the portable computer 2
Corresponding to the word dictionary 25 of the (small computer 51 of the third embodiment), the candidate word selecting means and word selection processing means correspond to the CPU 22 of the portable computer 2 (the small computer 51 of the third embodiment), The display means corresponds to the display 21 and the head mounted display 50.

【0057】次に、上記の如く構成された本発明の実施
の形態に係る装着型テキスト入力装置の動作について上
記図1〜図5、図6〜図51を参照しながら説明する。
図6は本発明の実施の形態に係る装着型テキスト入力装
置の指動作検出部1における動作の流れを示すフローチ
ャート、図7は本発明の実施の形態に係る装着型テキス
ト入力装置の携帯型コンピュータ2における動作の流れ
を示すフローチャート、図9〜図12、図14〜図2
0、図22〜図28、図30〜図35、図37〜図4
1、図43〜図46は本発明の実施の形態に係る装着型
テキスト入力装置のディスプレイ21の表示状態を示す
説明図、図13、図21、図29、図36、図42は本
発明の実施の形態に係る装着型テキスト入力装置におけ
る候補単語を示す説明図である。
Next, the operation of the wearable text input device according to the embodiment of the present invention configured as described above will be described with reference to FIGS. 1 to 5 and FIGS. 6 to 51.
FIG. 6 is a flowchart showing an operation flow in the finger motion detection unit 1 of the wearable text input device according to the embodiment of the present invention, and FIG. 7 is a portable computer of the wearable text input device according to the embodiment of the present invention. 2 is a flowchart showing the flow of the operation, FIGS. 9 to 12 and FIGS.
0, FIGS. 22 to 28, FIGS. 30 to 35, FIGS. 37 to 4
1, FIGS. 43 to 46 are explanatory diagrams showing the display state of the display 21 of the wearable text input device according to the embodiment of the present invention, and FIGS. 13, 21, 29, 36, and 42 show the present invention. FIG. 4 is an explanatory diagram showing candidate words in the wearable text input device according to the embodiment;

【0058】携帯型コンピュータ2の動作を図7のフロ
ーチャートに基づき、指動作検出部1の動作を図6のフ
ローチャートに基づき説明する。全体の制御は、携帯型
コンピュータ2のCPU22がROM24内のプログラ
ムを実行することで行われる。
The operation of the portable computer 2 will be described with reference to the flowchart of FIG. 7, and the operation of the finger motion detector 1 will be described with reference to the flowchart of FIG. The entire control is performed by the CPU 22 of the portable computer 2 executing a program in the ROM 24.

【0059】ステップS71では、携帯型コンピュータ
2のCPU22は各変数の初期化処理を行う。ここで
は、入力信号列(Signals)、検索キー(Ke
y)、候補単語列(Cands)、第一候補単語(Ca
nd1)、テキストバッファ(Text)がクリアされ
る。即ち、(Signals=NULL、Key=NU
LL、Cands=NULL、Cand1=NULL、
Text=NULL)。ステップS72では、CPU2
2はテキストバッファと第一候補単語の内容(Text
+Cand1)をディスプレイ21に表示する。候補単
語が無い場合(Cands=NULL)には、テキスト
バッファと検索キーの内容(Text+Key)をディ
スプレイ21に表示する。ここでは、何も入力されてい
ないので、ディスプレイ21には何も表示されない(図
9)。
In step S71, the CPU 22 of the portable computer 2 performs initialization of each variable. Here, an input signal sequence (Signals), a search key (Ke
y), candidate word string (Cands), first candidate word (Ca
nd1), the text buffer (Text) is cleared. That is, (Signals = NULL, Key = NU
LL, Cands = NULL, Cand1 = NULL,
(Text = NULL). In the step S72, the CPU 2
2 is a text buffer and the contents of the first candidate word (Text
+ Cand1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 21. Here, since nothing has been input, nothing is displayed on the display 21 (FIG. 9).

【0060】今、ユーザは左手親指で物体に触れる。す
ると、ステップS61で、指動作検出部1のCPU14
は触覚センサ11の検出に基づきユーザが指で物体に触
れたと判定し、ステップS62で、信号発生部12は信
号「u」を生成し、ステップS63で、送信部13は携
帯型コンピュータ2へ信号を送信する。ステップS73
では、携帯型コンピュータ2の受信部27は指動作検出
部1の送信部13から送信された信号を受信したかどう
か判定し、信号を受信すればステップS74に移る。ス
テップS74では、信号解析部26は上記受信信号を解
析し、コード「u」を出力する。ステップS75では、
信号解析部26は上記解析されたコードが「MENU」
かどうか判定する。解析されたコードが「MENU」で
なければステップS76に移る。
Now, the user touches the object with his left thumb. Then, in step S61, the CPU 14 of the finger motion detection unit 1
Determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, the signal generation unit 12 generates a signal "u" in step S62, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63. Send Step S73
Then, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “u”. In step S75,
The signal analyzing unit 26 determines that the analyzed code is “MENU”
Is determined. If the analyzed code is not "MENU", the process moves to step S76.

【0061】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u]、Key=[u]、Cands
=NULL、Cand1=NULL、Text=NUL
L がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u], Key = [u], Cands
= NULL, Cand1 = NULL, Text = NUL
L is set.

【0062】ステップS77のワープロ処理では、ワー
プロ一般の、変換、候補選択、削除等の処理が行われる
が、具体的な内容は公知なので以下では入出力のみにつ
いて述べる。ステップS77では、CPU22により、
入力、 Signals=[u]、Key=[u]、Cands
=NULL、Cand1=NULL、Text=NUL
L に対して、 Signals=[u]、Key=[u]、Cands
=NULL、Cand1=NULL、Text=NUL
L が出力される。
In the word processing of step S77, processing such as conversion, candidate selection, and deletion of a general word processor is performed. Since the specific contents are known, only input and output will be described below. In step S77, the CPU 22
Inputs, Signals = [u], Key = [u], Cands
= NULL, Cand1 = NULL, Text = NUL
For L, Signals = [u], Key = [u], Cands
= NULL, Cand1 = NULL, Text = NUL
L is output.

【0063】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「[u]」 がディスプレイ21に表示される(図10)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “[u]” is displayed on the display 21 (FIG. 10).

【0064】次に、ユーザは左手薬指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「e」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left ring finger.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "e". In step S63, the transmitter 13 transmits the signal "e" to the portable computer 2. Send a signal.

【0065】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し、コード「e」を出力
する。ステップS75では、信号解析部26は上記解析
されたコードが「MENU」かどうか判定する。解析さ
れたコードが「MENU」でなければステップS76に
移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “e”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0066】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e]、Key=[ue]、Ca
nds=NULL、Cand1=NULL、Text=
NULL がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e], Key = [ue], Ca
nds = NULL, Cand1 = NULL, Text =
NULL is set.

【0067】ステップS77では、CPU22により、
入力、 Signals=[u,e]、Key=[ue]、Ca
nds=NULL、Cand1=NULL、Text=
NULL に対して、 Signals=[u,e]、Key=[ue]、Ca
nds=NULL、Cand1=NULL、Text=
NULL が出力される。
In step S77, the CPU 22
Input, Signals = [u, e], Key = [ue], Ca
nds = NULL, Cand1 = NULL, Text =
For NULL, Signals = [u, e], Key = [ue], Ca
nds = NULL, Cand1 = NULL, Text =
NULL is output.

【0068】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「[ue]」 がディスプレイ21に表示される(図11)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “[ue]” is displayed on the display 21 (FIG. 11).

【0069】次に、ユーザは左手人差し指で物体に触れ
る。すると、ステップS61で、指動作検出部1のCP
U14は触覚センサ11の検出に基づきユーザが指で物
体に触れたと判定し、ステップS62で、信号発生部1
2は信号「o」を生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left index finger. Then, in step S61, the CP of the finger motion detection unit 1
U14 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 1
2 generates a signal “o”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0070】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し、コード「o」を出力
する。ステップS75では、信号解析部26は上記解析
されたコードが「MENU」かどうか判定する。解析さ
れたコードが「MENU」でなければステップS76に
移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “o”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0071】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o]、Key=[ue
o]、Cands=NULL、Cand1=NULL、
Text=NULL がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o], Key = [ue
o], Cands = NULL, Cand1 = NULL,
Text = NULL is set.

【0072】ステップS77では、CPU22により、
入力、 Signals=[u,e,o]、Key=[ue
o]、Cands=NULL、Cand1=NULL、
Text=NULL に対して、 Signals=[u,e,o]、Key=[ue
o]、Cands=NULL、Cand1=NULL、
Text=NULL が出力される。
In step S77, CPU 22
Input, Signals = [u, e, o], Key = [ue
o], Cands = NULL, Cand1 = NULL,
For Text = NULL, Signals = [u, e, o], Key = [ue
o], Cands = NULL, Cand1 = NULL,
Text = NULL is output.

【0073】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「[ueo]」 がディスプレイ21に表示される(図12)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “[ueo]” is displayed on the display 21 (FIG. 12).

【0074】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0075】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzing unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received substantially simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0076】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP]、Key=[u
eo]、Cands=NULL、Cand1=NUL
L、Text=NULL がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP] and Key = [u
eo], Cands = NULL, Cand1 = NUL
L, Text = NULL is set.

【0077】ステップS77では、CPU22により、
入力、 Signals=[u,e,o,SP]、Key=[u
eo]、Cands=NULL、Cand1=NUL
L、Text=NULL に対して、検索キー(Key=[ueo])を用いて辞
書引きを行い、候補単語を得て(図13)出現頻度順に
並べ替える。すると、 Signals=[u,e,o,SP]、Key=[u
eo]、Cands=[who−yes−yet−we
t−yep−vet]、Cand1=[who]、Te
xt=NULL が出力される。
In step S77, the CPU 22
Inputs, Signals = [u, e, o, SP], Key = [u
eo], Cands = NULL, Cand1 = NUL
For L, Text = NULL, dictionary lookup is performed using a search key (Key = [ueo]) to obtain candidate words (FIG. 13) and rearrange them in the order of appearance frequency. Then, Signals = [u, e, o, SP] and Key = [u
eo], Cands = [who-yes-yet-we
t-yep-vet], Cand1 = [who], Te
xt = NULL is output.

【0078】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「[who]」 と、その他の候補単語がディスプレイ21に表示される
(図14)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Cand1 = “[who]” and other candidate words are displayed on the display 21 (FIG. 14).

【0079】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0080】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzing unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received substantially simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0081】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP]、Key
=[ueo]、Cands=[who−yes−yet
−wet−yep−vet]、Cand1=[wh
o]、Text=NULL がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP], Key
= [Ueo], Cands = [who-yes-yet
-Wet-yep-vet], Cand1 = [wh
o], Text = NULL is set.

【0082】ステップS77では、CPU22は第一候
補単語を次候補のものにする。次候補は出現頻度順に選
ぶ。すると、 Signals=[u,e,o,SP,SP]、Key
=[ueo]、Cands=[who−yes−yet
−wet−yep−vet]、Cand1=[ye
s]、Text=NULL が出力される。
In step S77, the CPU 22 sets the first candidate word as the next candidate word. Next candidates are selected in order of appearance frequency. Then, Signals = [u, e, o, SP, SP], Key
= [Ueo], Cands = [who-yes-yet
-Wet-yep-vet], Cand1 = [ye
s], Text = NULL is output.

【0083】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「[yes]」 と、その他の候補単語がディスプレイ21に表示される
(図15)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Cand1 = “[yes]” and other candidate words are displayed on the display 21 (FIG. 15).

【0084】次に、ユーザは左手親指と左手中指とを触
れ合わせる。すると、LUとLIそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「i」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb with the left middle finger. Then, in each of LU and LI, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And the signal “i”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0085】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「i」とが略同時に受信されたと判定して、コード「E
NT」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzing unit 26 analyzes the received signal, determines that the signal “u” and the signal “i” have been received substantially simultaneously, and outputs the code “E”.
NT ”. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0086】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,EN
T]、Key=NULL、Cands=NULL、Ca
nd1=[yes]、Text=NULL がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, EN
T], Key = NULL, Cands = NULL, Ca
nd1 = [yes], Text = NULL are set.

【0087】ステップS77では、CPU22は第一候
補単語をテキストバッファに付け加える。すると、 Signals=[u,e,o,SP,SP,EN
T]、Key=NULL、Cands=NULL、Ca
nd1=NULL、Text=「yes」 が出力される。
At step S77, the CPU 22 adds the first candidate word to the text buffer. Then, Signals = [u, e, o, SP, SP, EN
T], Key = NULL, Cands = NULL, Ca
nd1 = NULL, Text = “yes” are output.

【0088】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=[yes] がディスプレイ21に表示される(図16)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = [yes] is displayed on the display 21 (FIG. 16).

【0089】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LOとLUそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LO and LU, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0090】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0091】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP]、Key=NULL、Cands=NULL、C
and1=NULL、Text=「yes」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP], Key = NULL, Cands = NULL, C
and1 = NULL, Text = “yes” are set.

【0092】ステップS77では、CPU22により Signals=[u,e,o,SP,SP,ENT,
SP]、Key=NULL、Cands=NULL、C
and1=NULL、Text=「yes_」 が出力される。ここで、記号「_」はスペース記号を表
す。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP], Key = NULL, Cands = NULL, C
and1 = NULL, Text = “yes_” are output. Here, the symbol “_” represents a space symbol.

【0093】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。ここでは、 Text+Key=「yes_」 がディスプレイ21に表示される(図17)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. Here, Text + Key = “yes_” is displayed on the display 21 (FIG. 17).

【0094】次に、ユーザは左手小指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「a」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the little finger of the left hand.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "a". In step S63, the transmitter 13 transmits the signal "a" to the portable computer 2. Send a signal.

【0095】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「a」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code "a". In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0096】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a]、Key=[a]、Cands=NULL、
Cand1=NULL、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a], Key = [a], Cands = NULL,
Cand1 = NULL, Text = “yes_” are set.

【0097】ステップS77では、CPU22により Signals=[u,e,o,SP,SP,ENT,
SP,a]、Key=[a]、Cands=NULL、
Cand1=NULL、Text=「yes_」 が出力される。
At step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a], Key = [a], Cands = NULL,
Cand1 = NULL, Text = “yes_” are output.

【0098】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[a]」 がディスプレイ21に表示される(図18)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [a]” is displayed on the display 21 (FIG. 18).

【0099】次に、ユーザは左手中指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「i」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left middle finger.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "i". In step S63, the transmitter 13 transmits the signal "i" to the portable computer 2. Send a signal.

【0100】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「i」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “i”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0101】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i]、Key=[ai]、Cands=NU
LL、Cand1=NULL、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i], Key = [ai], Cands = NU
LL, Cand1 = NULL, Text = “yes_” are set.

【0102】ステップS77では、CPU22により Signals=[u,e,o,SP,SP,ENT,
SP,a,i]、Key=[ai]、Cands=NU
LL、Cand1=NULL、Text=「yes_」 が出力される。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i], Key = [ai], Cands = NU
LL, Cand1 = NULL, Text = “yes_” are output.

【0103】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[ai]」 がディスプレイ21に表示される(図19)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [ai]” is displayed on the display 21 (FIG. 19).

【0104】次に、ユーザは左手小指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「a」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the little finger of the left hand.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "a". In step S63, the transmitter 13 transmits the signal "a" to the portable computer 2. Send a signal.

【0105】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「a」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code "a". In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0106】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a]、Key=[aia]、Cands
=NULL、Cand1=NULL、Text=「ye
s_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a], Key = [aia], Cands
= NULL, Cand1 = NULL, Text = “yes
s_ "is set.

【0107】ステップS77では、CPU22により Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a]、Key=[aia]、Cands
=NULL、Cand1=NULL、Text=「ye
s_」 が出力される。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a], Key = [aia], Cands
= NULL, Cand1 = NULL, Text = “yes
s_ "is output.

【0108】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[aia]」 がディスプレイ21に表示される(図20)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [aia]” is displayed on the display 21 (FIG. 20).

【0109】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0110】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0111】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP]、Key=[aia]、Ca
nds=NULL、Cand1=NULL、Text=
「yes」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP], Key = [aia], Ca
nds = NULL, Cand1 = NULL, Text =
"Yes" is set.

【0112】ステップS77では、CPU22は Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP]、Key=[aia]、Ca
nds=NULL、Cand1=NULL、Text=
NULL に対して、検索キー(Key=[aia])を用いて辞
書引きを行い、候補単語を得て(図21)出現頻度順に
並べ替える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP]、Key=[aia]、Ca
nds=[and−did−aid−bid−bib−
alb]、Cand1=[and]、Text=NUL
L が出力される。
At step S77, the CPU 22 sets Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP], Key = [aia], Ca
nds = NULL, Cand1 = NULL, Text =
Dictionary search is performed on NULL using a search key (Key = [aia]) to obtain candidate words (FIG. 21) and rearrange them in the order of appearance frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP], Key = [aia], Ca
nds = [and-did-aid-bid-bib-
alb], Cand1 = [and], Text = NUL
L is output.

【0113】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+[and]=「yes[and]」 と、その他の候補単語がディスプレイ21に表示される
(図22)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + [and] = “yes [and]” and other candidate words are displayed on the display 21 (FIG. 22).

【0114】次に、ユーザは左手親指と左手中指とを触
れ合わせる。すると、LUとLIそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「i」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb with the left middle finger. Then, in each of LU and LI, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And the signal “i”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0115】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「i」とが略同時に受信されたと判定して、コード「E
NT」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “i” have been received substantially simultaneously, and outputs the code “E”.
NT ”. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0116】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT]、Key=NUL
L、Cands=NULL、Cand1=[and]、
Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT], Key = NUL
L, Cands = NULL, Cand1 = [and],
Text = “yes_” is set.

【0117】ステップS77では、CPU22は第一候
補単語をテキストバッファに付け加える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT]、Key=NUL
L、Cands=NULL、Cand1=NULL、T
ext=「yes and」 が出力される。
At step S77, the CPU 22 adds the first candidate word to the text buffer. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT], Key = NUL
L, Cands = NULL, Cand1 = NULL, T
ext = “yes and” is output.

【0118】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes and」 がディスプレイ21に表示される(図23)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes and” is displayed on the display 21 (FIG. 23).

【0119】次に、ユーザは左手親指と左手薬指とを触
れ合わせる。すると、LUとLEそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「e」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb with the left ring finger. Then, in each of LU and LE, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And a signal “e”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0120】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「e」とが略同時に受信されたと判定して、コード「D
EL」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “e” have been received substantially simultaneously, and outputs the code “D”.
EL ”is output. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0121】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL]、Key=
NULL、Cands=NULL、Cand1=NUL
L、Text=「yes and」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL], Key =
NULL, Cands = NULL, Cand1 = NUL
L, Text = “yes and” is set.

【0122】ステップS77では、CPU22はテキス
トバッファから最後の単語を削除する。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL]、Key=
NULL、Cands=NULL、Cand1=NUL
L、Text=「yes_」 が出力される。
At step S77, the CPU 22 deletes the last word from the text buffer. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL], Key =
NULL, Cands = NULL, Cand1 = NUL
L, Text = “yes_” is output.

【0123】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes_」 がディスプレイ21に表示される(図24)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes_” is displayed on the display 21 (FIG. 24).

【0124】次に、ユーザは左手人差し指で物体に触れ
る。すると、ステップS61で、指動作検出部1のCP
U14は触覚センサ11の検出に基づきユーザが指で物
体に触れたと判定し、ステップS62で、信号発生部1
2は信号「o」を生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left index finger. Then, in step S61, the CP of the finger motion detection unit 1
U14 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 1
2 generates a signal “o”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0125】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「o」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “o”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0126】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o]、Ke
y=[o]、Cands=NULL、Cand1=NU
LL、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o], Ke
y = [o], Cands = NULL, Cand1 = NU
LL, Text = “yes_” is set.

【0127】ステップS77では、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o]、Ke
y=[0]、Cands=NULL、Cand1=NU
LL、Text=「yes_」 が出力される。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o], Ke
y = [0], Cands = NULL, Cand1 = NU
LL, Text = “yes_” is output.

【0128】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[o]」 がディスプレイ21に表示される(図25)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [o]” is displayed on the display 21 (FIG. 25).

【0129】次に、ユーザは左手親指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「u」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with his left thumb.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "u". In step S63, the transmitter 13 transmits the signal "u" to the portable computer 2. Send a signal.

【0130】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「u」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code "u". In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0131】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u]、
Key=[ou]、Cands=NULL、Cand1
=NULL、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u],
Key = [ou], Cands = NULL, Cand1
= NULL, Text = “yes_” is set.

【0132】ステップS77では、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u]、
Key=[ou]、Cands=NULL、Cand1
=NULL、Text=「yes_」 が出力される。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u],
Key = [ou], Cands = NULL, Cand1
= NULL, Text = “yes_” is output.

【0133】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[ou]」 がディスプレイ21に表示される(図26)。
Next, the flow moves to step S72 to perform a display process. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [ou]” is displayed on the display 21 (FIG. 26).

【0134】次に、ユーザは左手親指と左手薬指とを触
れ合わせる。すると、ステップS61で、指動作検出部
1のCPU14は触覚センサ11の検出に基づきユーザ
が指で物体に触れたと判定し、ステップS62で、信号
発生部12は信号「u」と信号「e」とを生成し、ステ
ップS63で、送信部13は携帯型コンピュータ2へ信
号を送信する。
Next, the user touches the left thumb with the left ring finger. Then, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal "u" and the signal "e" Is generated, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0135】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「e」とが略同時に受信されたと判定して、コード「D
EL」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “e” have been received substantially simultaneously, and outputs the code “D”.
EL ”is output. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0136】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL]、Key=[ou]、Cands=NULL、C
and1=NULL、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL], Key = [ou], Cands = NULL, C
and1 = NULL, Text = “yes_” are set.

【0137】ステップS77では、検索キー(Key=
[ou])の後ろから1文字削除する。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL]、Key=[o]、Cands=NULL、Ca
nd1=NULL、Text=「yes_」 が出力される。
In step S77, the search key (Key =
Delete one character from the end of [ou]). Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL], Key = [o], Cands = NULL, Ca
nd1 = NULL, Text = “yes_” are output.

【0138】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[o]」 がディスプレイ21に表示される(図27)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [o]” is displayed on the display 21 (FIG. 27).

【0139】次に、ユーザは左手人差し指で物体に触れ
る。すると、ステップS61で、指動作検出部1のCP
U14は触覚センサ11の検出に基づきユーザが指で物
体に触れたと判定し、ステップS62で、信号発生部1
2は信号「o」を生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left index finger. Then, in step S61, the CP of the finger motion detection unit 1
U14 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 1
2 generates a signal “o”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0140】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「o」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “o”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0141】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o]、Key=[oo]、Cands=NUL
L、Cand1=NULL、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o], Key = [oo], Cands = NUL
L, Cand1 = NULL, Text = “yes_” are set.

【0142】ステップS77では、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o]、Key=[oo]、Cands=NUL
L、Cand1=NULL、Text=「yes_」 が出力される。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o], Key = [oo], Cands = NUL
L, Cand1 = NULL, Text = “yes_” are output.

【0143】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[oo]」 がディスプレイ21に表示される(図28)。
Next, the flow moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [oo]” is displayed on the display 21 (FIG. 28).

【0144】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0145】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0146】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP]、Key=[oo]、Cands=N
ULL、Cand1=NULL、Text=「yes
_」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP], Key = [oo], Cands = N
ULL, Cand1 = NULL, Text = “yes
_ "Is set.

【0147】ステップS77では、入力、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP]、Key=[oo]、Cands=N
ULL、Cand1=NULL、Text=「yes
_」 に対して単語辞書引きを行い、候補単語を得て(図2
9)出現頻度順に並べ替える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP]、Key=[oo]、Cands=
[to−or−so−po−op]、Cand1=[t
o]、Text=「yes_」 が出力される。
In the step S77, input, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP], Key = [oo], Cands = N
ULL, Cand1 = NULL, Text = “yes
_ ”Is searched in a word dictionary to obtain candidate words (Fig. 2
9) Sort in order of appearance frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP], Key = [oo], Cands =
[To-or-so-po-op], Cand1 = [t
o], Text = “yes_” is output.

【0148】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+[and]=「yes[to]」 と、他の候補単語がディスプレイ21に表示される(図
30)。
Next, the flow moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + [and] = “yes [to]” and other candidate words are displayed on the display 21 (FIG. 30).

【0149】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0150】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0151】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP]、Key=[oo]、Cand
s=[to−or−so−po−op]、Cand1=
[to]、Text=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP], Key = [oo], Cand
s = [to-or-so-po-op], Cand1 =
[To], Text = “yes_” is set.

【0152】ステップS77では、第一候補単語を次の
候補単語に置き換える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP]、Key=[oo]、Cand
s=[to−or−so−po−op]、Cand1=
[or]、Text=「yes_」 が出力される。
In step S77, the first candidate word is replaced with the next candidate word. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP], Key = [oo], Cand
s = [to-or-so-po-op], Cand1 =
[Or], Text = “yes_” is output.

【0153】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes[or]」 と、他の候補単語がディスプレイ21に表示される(図
31)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes [or]” and other candidate words are displayed on the display 21 (FIG. 31).

【0154】次に、ユーザは左手親指と左手中指とを触
れ合わせる。すると、LUとLIそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「i」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb with the left middle finger. Then, in each of LU and LI, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And the signal “i”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0155】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「i」とが略同時に受信されたと判定して、コード「E
NT」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “i” have been received substantially simultaneously, and outputs the code “E”.
NT ”. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0156】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT]、Key=NULL、
Cands=NULL、Cand1=[or]、Tex
t=「yes_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT], Key = NULL,
Cands = NULL, Cand1 = [or], Tex
t = “yes_” is set.

【0157】ステップS77では、第一候補単語をテキ
ストバッファに付け加える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT]、Key=NULL、
Cands=NULL、Cand1=NULL、Tex
t=「yes or」 が出力される。
In the step S77, the first candidate word is added to the text buffer. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT], Key = NULL,
Cands = NULL, Cand1 = NULL, Tex
t = “yes or” is output.

【0158】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes or」 と、他の候補単語がディスプレイ21に表示される(図
32)。
Next, the flow moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. In this case, Text + Key = “yes or” and other candidate words are displayed on the display 21 (FIG. 32).

【0159】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0160】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0161】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,SP]、Key=NU
LL、Cands=NULL、Cand1=NULL、
Text=「yes or」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, SP], Key = NU
LL, Cands = NULL, Cand1 = NULL,
Text = “yes or” is set.

【0162】ステップS77では、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT]、Key=NULL、
Cands=NULL、Cand1=NULL、Tex
t=「yes or_」 が出力される。ここで、記号「_」はスペース記号を表
す。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT], Key = NULL,
Cands = NULL, Cand1 = NULL, Tex
t = “yes or —” is output. Here, the symbol “_” represents a space symbol.

【0163】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。ここでは、 Text+Key=「yes or_」 がディスプレイ21に表示される(図33)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. Here, Text + Key = “yes or —” is displayed on the display 21 (FIG. 33).

【0164】次に、ユーザは左手中指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「i」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left middle finger.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "i". In step S63, the transmitter 13 transmits the signal "i" to the portable computer 2. Send a signal.

【0165】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「i」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “i”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0166】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,SP,i]、Key=
[i]、Cands=NULL、Cand1=NUL
L、Text=「yes or」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, SP, i], Key =
[I], Cands = NULL, Cand1 = NUL
L, Text = "yes or" is set.

【0167】ステップS77では、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i]、Key=
[i]、Cands=NULL、Cand1=NUL
L、Text=「yes or_」 が出力される。ここで、記号「_」はスペース記号を表
す。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i], Key =
[I], Cands = NULL, Cand1 = NUL
L, Text = “yes or —” is output. Here, the symbol “_” represents a space symbol.

【0168】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。ここでは、 Text+Key=「yes or[i]」 がディスプレイ21に表示される(図34)。
Next, the process moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. Here, Text + Key = “yes or [i]” is displayed on the display 21 (FIG. 34).

【0169】次に、ユーザは左手人差し指で物体に触れ
る。すると、ステップS61で、指動作検出部1のCP
U14は触覚センサ11の検出に基づきユーザが指で物
体に触れたと判定し、ステップS62で、信号発生部1
2は信号「o」を生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with the left index finger. Then, in step S61, the CP of the finger motion detection unit 1
U14 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 1
2 generates a signal “o”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0170】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「o」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code “o”. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0171】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,SP,i,o]、Ke
y=[io]、Cands=NULL、Cand1=N
ULL、Text=「yes or_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, SP, i, o], Ke
y = [io], Cands = NULL, Cand1 = N
ULL, Text = “yes or —” is set.

【0172】ステップS77では、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o]、Key=
[io]、Cands=NULL、Cand1=NUL
L、Text=「yes or_」 が出力される。ここで、記号「_」はスペース記号を表
す。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o], Key =
[Io], Cands = NULL, Cand1 = NUL
L, Text = “yes or —” is output. Here, the symbol “_” represents a space symbol.

【0173】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。ここでは、 Text+Key=「yes or[io]」 がディスプレイ21に表示される(図35)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. Here, Text + Key = “yes or [io]” is displayed on the display 21 (FIG. 35).

【0174】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0175】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0176】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP]、Ke
y=[io]、Cands=NULL、Cand1=N
ULL、Text=「yes or_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP], Ke
y = [io], Cands = NULL, Cand1 = N
ULL, Text = “yes or —” is set.

【0177】ステップS77では、入力、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP]、Ke
y=[io]、Cands=NULL、Cand1=N
ULL、Text=「yes or_」 に対して単語辞書引きを行い、候補単語を得て(図3
6)出現頻度順に並べ替える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP]、Ke
y=[io]、Cands=[is−it−no−mo
−lo]、Cand1=[is]、Text=「yes
or_」 が出力される。
In the step S77, input, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP], Ke
y = [io], Cands = NULL, Cand1 = N
A word dictionary is searched for ULL, Text = “yes or —”, and candidate words are obtained (FIG. 3).
6) Sort in order of appearance frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP], Ke
y = [io], Cands = [is-it-no-mo
−lo], Cand1 = [is], Text = “yes
or_ "is output.

【0178】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「yes or[is]」 と、他の候補単語がディスプレイ21に表示される(図
37)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Cand1 = “yes or [is]” and other candidate words are displayed on the display 21 (FIG. 37).

【0179】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0180】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0181】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,S
P]、Key=[io]、Cands=[is−it−
no−mo−lo]、Cand1=[is]、Text
=「yes or_」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, S
P], Key = [io], Cands = [is-it-
no-mo-lo], Cand1 = [is], Text
= “Yes or —” is set.

【0182】ステップS77では、第一候補単語を次の
出現頻度の候補単語に置き換える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,S
P]、Key=[io]、Cands=[is−it−
no−mo−lo]、Cand1=[it]、Text
=「yes or_」 が出力される。
In step S77, the first candidate word is replaced with a candidate word having the next appearance frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, S
P], Key = [io], Cands = [is-it-
no-mo-lo], Cand1 = [it], Text
= “Yes or —” is output.

【0183】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「yes or[it]」 と、他の候補単語がディスプレイ21に表示される(図
38)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Cand1 = “yes or [it]” and other candidate words are displayed on the display 21 (FIG. 38).

【0184】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0185】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0186】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP]、Key=[io]、Cands=[is−it
−no−mo−lo]、Cand1=[it]、Tex
t=「yes or_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP], Key = [io], Cands = [is-it]
-No-mo-lo], Cand1 = [it], Tex
t = “yes or —” is set.

【0187】ステップS77では、第一候補単語を次の
出現頻度の候補単語に置き換える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP]、Key=[io]、Cands=[is−it
−no−mo−lo]、Cand1=[no]、Tex
t=「yes or_」 が出力される。
In step S77, the first candidate word is replaced with a candidate word having the next appearance frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP], Key = [io], Cands = [is-it]
-No-mo-lo], Cand1 = [no], Tex
t = “yes or —” is output.

【0188】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「yes or[no]」 と、他の候補単語がディスプレイ21に表示される(図
39)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Cand1 = “yes or [no]” and other candidate words are displayed on the display 21 (FIG. 39).

【0189】次に、ユーザは左手親指と左手中指とを触
れ合わせる。すると、LUとLIそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「i」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb with the left middle finger. Then, in each of LU and LI, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And the signal “i”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0190】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「i」とが略同時に受信されたと判定して、コード「E
NT」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “i” have been received substantially simultaneously, and outputs the code “E”.
NT ”. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0191】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT]、Key=NULL、Cands=NU
LL、Cand1=[no]、Text=「yes o
r_」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT], Key = NULL, Cands = NU
LL, Cand1 = [no], Text = “yes o
r_ "is set.

【0192】ステップS77では、第一候補単語をテキ
ストバッファに付け加える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT]、Key=NULL、Cands=NU
LL、Cand1=NULL、Text=「yes o
r no」 が出力される。
In the step S77, the first candidate word is added to the text buffer. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT], Key = NULL, Cands = NU
LL, Cand1 = NULL, Text = “yes o
r no "is output.

【0193】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes or no」 がディスプレイ21に表示される(図40)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes or no” is displayed on the display 21 (FIG. 40).

【0194】次に、ユーザは左手親指で物体に触れる。
すると、ステップS61で、指動作検出部1のCPU1
4は触覚センサ11の検出に基づきユーザが指で物体に
触れたと判定し、ステップS62で、信号発生部12は
信号「u」を生成し、ステップS63で、送信部13は
携帯型コンピュータ2へ信号を送信する。
Next, the user touches the object with his left thumb.
Then, in step S61, the CPU 1 of the finger motion detection unit 1
4 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generator 12 generates a signal "u". In step S63, the transmitter 13 transmits the signal "u" to the portable computer 2. Send a signal.

【0195】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析しコード「u」を出力す
る。ステップS75では、信号解析部26は上記解析さ
れたコードが「MENU」かどうか判定する。解析され
たコードが「MENU」でなければステップS76に移
る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analyzer 26 analyzes the received signal and outputs a code "u". In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0196】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u]、Key=[u]、Cands=N
ULL、Cand1=NULL、Text=「yes
or no」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u], Key = [u], Cands = N
ULL, Cand1 = NULL, Text = “yes
or no "is set.

【0197】ステップS77では、この入力に対して、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u]、Key=[u]、Cands=N
ULL、Cand1=NULL、 Text=「yes or no」 が出力される。
In step S77, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u], Key = [u], Cands = N
UL, Cand1 = NULL, Text = “yes or no” are output.

【0198】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes or no[u]」 がディスプレイ21に表示される(図41)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes or no [u]” is displayed on the display 21 (FIG. 41).

【0199】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0200】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
[0200] In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0201】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u,SP]、Key=[u]、Cand
s=NULL、Cand1=NULL、Text=「y
es or no」 がセットされる。
In step S76, an argument creation process to be passed to word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u, SP], Key = [u], Cand
s = NULL, Cand1 = NULL, Text = “y
es or no "is set.

【0202】ステップS77では、検索キー(Key=
[u])に対して単語辞書引きを行い、候補単語(候補
記号)を得て(図42)出現頻度順に並べ替える。する
と、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u,SP]、Key=[u]、Cand
s=[.−?−,−!]、Cand1=[.]、Text
=「yes or no」 が出力される。
In step S77, a search key (Key =
[U]) is subjected to word dictionary lookup to obtain candidate words (candidate symbols) (FIG. 42) and rearrange them in the order of appearance frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u, SP], Key = [u], Cand
s = [.-? −, −! ], Cand1 = [.], Text
= “Yes or no” is output.

【0203】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「yes or no[.]」 と、他の候補単語(候補記号)がディスプレイ21に表
示される(図43)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Cand1 = “yes or no [.]” And other candidate words (candidate symbols) are displayed on the display 21 (FIG. 43).

【0204】次に、ユーザは左手親指と左手人差し指と
を触れ合わせる。すると、LUとLOそれぞれにおい
て、ステップS61で、指動作検出部1のCPU14は
触覚センサ11の検出に基づきユーザが指で物体に触れ
たと判定し、ステップS62で、信号発生部12は信号
「u」と信号「o」とを生成し、ステップS63で、送
信部13は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the left index finger. Then, in each of LU and LO, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. And a signal “o”, and the transmission unit 13 transmits a signal to the portable computer 2 in step S63.

【0205】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「o」とが略同時に受信されたと判定して、コード「S
P」を出力する。ステップS75では、信号解析部26
は上記解析されたコードが「MENU」かどうか判定す
る。解析されたコードが「MENU」でなければステッ
プS76に移る。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “o” have been received almost simultaneously, and outputs the code “S”.
P "is output. In step S75, the signal analysis unit 26
Determines whether the analyzed code is “MENU”. If the analyzed code is not "MENU", the process moves to step S76.

【0206】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u,SP,SP]、Key=[u]、C
ands=[.−?−,−!]、Cand1=[.]、T
ext=「yes or no」 がセットされる。
In step S76, an argument creation process to be passed to the word processing (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u, SP, SP], Key = [u], C
ands = [.-? −, −! ], Cand1 = [. ], T
ext = “yes or no” is set.

【0207】ステップS77では、候補単語(候補記
号)を次の出現頻度のものに置き換える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u,SP,SP]、Key=[u]、C
ands=[.−?−,−!]、Cand1=[?]、T
ext=「yes or no」 が出力される。
In step S77, the candidate word (candidate symbol) is replaced with the next occurrence frequency. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u, SP, SP], Key = [u], C
ands = [.-? −, −! ], Cand1 = [? ], T
ext = “yes or no” is output.

【0208】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Cand1=「yes or no[?]」 と、他の候補単語(候補記号)がディスプレイ21に表
示される(図44)。
Next, the flow shifts to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, another candidate word (candidate symbol) is displayed on the display 21 as Text + Cand1 = “yes or no [?]” (FIG. 44).

【0209】次に、ユーザは左手親指と左手中指とを触
れ合わせる。すると、LUとLIそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「i」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb with the left middle finger. Then, in each of LU and LI, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And the signal “i”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0210】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「i」とが略同時に受信されたと判定して、コード「E
NT」を出力する。ステップS75では、信号解析部2
6は上記解析されたコードが「MENU」かどうか判定
する。解析されたコードが「MENU」でなければステ
ップS76に移る。
In step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “i” have been received substantially simultaneously, and outputs the code “E”.
NT ”. In step S75, the signal analysis unit 2
6 determines whether the analyzed code is "MENU". If the analyzed code is not "MENU", the process moves to step S76.

【0211】ステップS76では、ワープロ処理(ステ
ップS77)に引き渡す引数作成処理を行う。ここで
は、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u,SP,SP,ENT]、Key=N
ULL、Cands=NULL、Cand1=[?]、
Text=「yes or no」 がセットされる。
[0211] In step S76, an argument creation process to be passed to the word processing process (step S77) is performed. Here, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u, SP, SP, ENT], Key = N
ULL, Cands = NULL, Cand1 = [? ],
Text = “yes or no” is set.

【0212】ステップS77では、第一候補単語をテキ
ストバッファに付け加える。すると、 Signals=[u,e,o,SP,SP,ENT,
SP,a,i,a,SP,ENT,DEL,o,u,D
EL,o,SP,SP,ENT,i,o,SP,SP,
SP,ENT,u,SP,SP,ENT]、Key=N
ULL、Cands=NULL、Cand1=NUL
L、Text=「yes or no?」 が出力される。
At step S77, the first candidate word is added to the text buffer. Then, Signals = [u, e, o, SP, SP, ENT,
SP, a, i, a, SP, ENT, DEL, o, u, D
EL, o, SP, SP, ENT, i, o, SP, SP,
SP, ENT, u, SP, SP, ENT], Key = N
ULL, Cands = NULL, Cand1 = NUL
L, Text = “yes or no?” Is output.

【0213】次に、ステップS72に移り、表示処理が
行われる。ステップS72では、CPU22はテキスト
バッファと第一候補単語の内容(Text+Cand
1)をディスプレイ21に表示する。候補単語が無い場
合(Cands=NULL)には、テキストバッファと
検索キーの内容(Text+Key)をディスプレイ2
1に表示する。ここでは、 Text+Key=「yes or no?」 がディスプレイ21に表示される(図45)。
Next, the flow moves to step S72, where a display process is performed. In step S72, the CPU 22 stores the contents of the text buffer and the first candidate word (Text + Cand
1) is displayed on the display 21. If there is no candidate word (Cands = NULL), the contents of the text buffer and the search key (Text + Key) are displayed on the display 2.
1 is displayed. Here, Text + Key = “yes or no?” Is displayed on the display 21 (FIG. 45).

【0214】次に、ユーザは左手親指と左手小指とを触
れ合わせる。すると、LUとLAそれぞれにおいて、ス
テップS61で、指動作検出部1のCPU14は触覚セ
ンサ11の検出に基づきユーザが指で物体に触れたと判
定し、ステップS62で、信号発生部12は信号「u」
と信号「a」とを生成し、ステップS63で、送信部1
3は携帯型コンピュータ2へ信号を送信する。
Next, the user touches the left thumb and the little finger of the left hand. Then, in each of LU and LA, in step S61, the CPU 14 of the finger motion detection unit 1 determines that the user has touched the object with the finger based on the detection of the tactile sensor 11, and in step S62, the signal generation unit 12 outputs the signal “u”. "
And the signal “a”, and in step S63, the transmitting unit 1
3 transmits a signal to the portable computer 2.

【0215】ステップS73では、携帯型コンピュータ
2の受信部27は指動作検出部1の送信部13から送信
された信号を受信したかどうか判定し、信号を受信すれ
ばステップS74に移る。ステップS74では、信号解
析部26は上記受信信号を解析し信号「u」と信号
「a」とが略同時に受信されたと判定して、コード「M
ENU」を出力する。ステップS75では、信号解析部
26は上記解析されたコードが「MENU」かどうか判
定する。解析されたコードが「MENU」なのでメニュ
ー画面に戻る(図46)。
At step S73, the receiving section 27 of the portable computer 2 determines whether or not the signal transmitted from the transmitting section 13 of the finger motion detecting section 1 has been received. If the signal has been received, the process proceeds to step S74. In step S74, the signal analysis unit 26 analyzes the received signal, determines that the signal “u” and the signal “a” have been received substantially simultaneously, and outputs the code “M”.
ENU "is output. In step S75, the signal analysis unit 26 determines whether the analyzed code is “MENU”. Since the analyzed code is "MENU", the screen returns to the menu screen (FIG. 46).

【0216】メニュー画面(図46)では、各指に対応
したメニューが表示される。各指を動作させると、それ
ぞれのメニューが実行される。例えば、左手薬指で物体
に触れると、編集したテキストが保存(SAVE)され
る。また、左手人差し指で物体に触れると、他のメニュ
ー(ELSE MENU 1)に移る。
On the menu screen (FIG. 46), a menu corresponding to each finger is displayed. When each finger is operated, each menu is executed. For example, when the left ring finger touches the object, the edited text is saved (SAVE). When the left index finger touches the object, the display shifts to another menu (ELSE MENU 1).

【0217】以上説明したように、本発明の実施の形態
に係る装着型テキスト入力装置によれば、各指の動作を
検出し各指に固有の信号を出力する指動作検出部1と、
指動作検出部1の出力信号を解析しコードを生成する信
号解析部26、検索キーに対応付けた単語を記憶する単
語辞書25、信号解析部26で各指の動作順に生成した
コード列を検索キーとして単語辞書25を検索して候補
単語を選出し、選出した候補単語が複数存在する場合、
指動作による単語選択に伴う指動作検出部1の出力に基
づき単語の選択処理を行い、選択した単語列を入力文と
してディスプレイ3に表示するCPU22を備えた携帯
型コンピュータ2とを有するため、下記のような作用及
び効果を奏する。
As described above, according to the wearable text input device according to the embodiment of the present invention, the finger movement detecting section 1 which detects the movement of each finger and outputs a signal unique to each finger,
A signal analysis unit 26 that analyzes an output signal of the finger motion detection unit 1 to generate a code, a word dictionary 25 that stores words associated with search keys, and searches a code string generated by the signal analysis unit 26 in the order of each finger motion. When a candidate word is selected by searching the word dictionary 25 as a key, and there are a plurality of selected candidate words,
It has a portable computer 2 having a CPU 22 that performs word selection processing based on the output of the finger movement detection unit 1 accompanying the word selection by finger movement and displays the selected word string on the display 3 as an input sentence. The following functions and effects are obtained.

【0218】上記構成において、指動作検出部1では、
触覚センサ11によりユーザが所定の指で物体に触れた
ことを検出すると、信号発生部12により信号を発生
し、携帯型コンピュータ2へ信号を送信する。携帯型コ
ンピュータ2では、信号解析部24により受信信号を解
析しコードを生成し、CPU22によりコード列を検索
キーとして候補単語を選出し、候補単語が複数存在する
ときはユーザの指動作による単語選択に基づき単語列を
入力文としてディスプレイ3に表示する。従って、いつ
でもどこでも片手でテキストを入力することを可能にな
るという効果がある。また、いつでもどこでも片手でメ
ニューを選択したりコマンドを実行したりすることが可
能になる効果がある。
In the above configuration, the finger motion detection section 1
When the tactile sensor 11 detects that the user has touched the object with a predetermined finger, the signal generation unit 12 generates a signal and transmits the signal to the portable computer 2. In the portable computer 2, the signal analysis unit 24 analyzes the received signal to generate a code, the CPU 22 selects a candidate word using the code string as a search key, and when there are a plurality of candidate words, selects a word by a finger operation of the user. Is displayed on the display 3 as an input sentence based on. Therefore, there is an effect that it is possible to input text with one hand anytime and anywhere. In addition, there is an effect that a menu can be selected or a command can be executed anytime and anywhere with one hand.

【0219】[他の実施形態1]上述した本発明の実施
の形態では左手のみで操作する場合について述べたが、
右手のみで操作することも可能である。
[Other Embodiment 1] In the above-described embodiment of the present invention, the case of operating with only the left hand has been described.
It is also possible to operate with only the right hand.

【0220】図47は本発明の他の実施形態1に係る装
着型テキスト入力装置の全体構成を示す構成図である。
本発明の他の実施形態1では右手のみで操作する場合に
ついて述べる。本発明の他の実施形態1に係る装着型テ
キスト入力装置は、指動作検出部47(図47における
RA、RE、RI、RO、RU)と、携帯型コンピュー
タ2とを備える構成となっている。図47におけるRH
はユーザの右手である。
FIG. 47 is a configuration diagram showing the overall configuration of a wearable text input device according to another embodiment 1 of the present invention.
In another embodiment 1 of the present invention, a case of operating with only the right hand will be described. A wearable text input device according to another embodiment 1 of the present invention is configured to include a finger motion detection unit 47 (RA, RE, RI, RO, and RU in FIG. 47) and the portable computer 2. . RH in FIG. 47
Is the right hand of the user.

【0221】各指動作検出部47(図47におけるR
A、RE、RI、RO、RU)は、内部に触覚センサを
備えており、RAは右手小指に、REは右手薬指に、R
Iは右手中指に、ROは右手人差し指に、RUは右手親
指に、それぞれ装着されている。携帯型コンピュータ2
及び指動作検出部47は、上記実施形態と同じ構造を有
しており、同じ動作をする。ここで発生する信号は、各
指に装着された指動作検出部47によって異なる。例え
ば、RA、RE、RI、RO、RUは、それぞれ固有の
信号を発生してどの指が物体に触れたかを識別できるよ
うにする。発生する信号は、ディジタル信号でもアナロ
グ信号でもよい。
Each finger motion detection unit 47 (R in FIG. 47)
A, RE, RI, RO, RU) have a tactile sensor inside, RA is on the right little finger, RE is on the right ring finger, R is
I is attached to the right middle finger, RO is attached to the right index finger, and RU is attached to the right thumb. Portable computer 2
The finger motion detection unit 47 has the same structure as the above embodiment, and performs the same operation. The signal generated here differs depending on the finger motion detector 47 attached to each finger. For example, RA, RE, RI, RO, and RU each generate a unique signal to identify which finger has touched the object. The generated signal may be a digital signal or an analog signal.

【0222】図48に各指に割り当てられた文字と発生
信号との対応関係を示す。右手小指で物体に触れると指
動作検出部47のRAが信号「ra」を発生する。右手
薬指で物体に触れると指動作検出部47のREが信号
「re」を発生する。右手中指で物体に触れると指動作
検出部47のRIが信号「ri」を発生する。右手人差
し指で物体に触れると指動作検出部47のROが信号
「ro」を発生する。右手親指で物体に触れると指動作
検出部47のRUが信号「ru」を発生する。
FIG. 48 shows the correspondence between the character assigned to each finger and the generated signal. When the right little finger touches the object, the RA of the finger motion detection unit 47 generates a signal “ra”. When the right ring finger touches the object, the RE of the finger motion detection unit 47 generates a signal “re”. When the right middle finger touches the object, the RI of the finger motion detection unit 47 generates a signal “ri”. When the right index finger touches the object, the RO of the finger motion detection unit 47 generates a signal “ro”. When the right thumb touches the object, the RU of the finger motion detection unit 47 generates a signal “ru”.

【0223】内部の処理は、信号「ra」に信号「a」
を対応させ、信号「re」に信号「e」を対応させ、信
号「ri」に信号「i」を対応させ、信号「ro」に信
号「o」を対応させ、信号「ru」に信号「u」を対応
させることによって、上記実施形態と同様に行われる。
The internal processing is performed by adding the signal “a” to the signal “ra”.
, The signal "e" to the signal "re", the signal "i" to the signal "ri", the signal "o" to the signal "ro", and the signal "ru" to the signal "ru". The operation is performed in the same manner as in the above-described embodiment by making u correspond.

【0224】携帯型コンピュータ2のディスプレイ21
(上記図21参照)は、テキストの表示を行う。また、
ディスプレイ21には、図49に示すように、各指と入
力文字及び制御コードとの対応がユーザに分かるように
表示されている。
Display 21 of Portable Computer 2
(See FIG. 21 above) displays a text. Also,
As shown in FIG. 49, the display 21 displays the correspondence between each finger, the input character, and the control code so that the user can understand the correspondence.

【0225】[他の実施形態2]上述した本発明の実施
の形態では片方の手で操作する場合について述べたが、
片方の手だけを使っていると疲れるので、右手と左手と
を交互に切り替えて操作する場合について述べる。
[Other Embodiment 2] In the above-described embodiment of the present invention, the case of operating with one hand has been described.
Since the user is tired when using only one hand, a case in which the right hand and the left hand are alternately switched and operated will be described.

【0226】例えば、左手で操作している時に、左手人
差し指と右手人差し指とを触れ合わせると、テキスト入
力の制御が右手に切り替わるようにしてもよい。この場
合には、同時に信号「o」と信号「ro」とを受信すれ
ば、制御権を左手から右手に、或いは右手から左手に切
り替える。それと同時に画面表示も、図45から図49
に切り替える。
For example, when operating with the left hand, touching the left index finger and the right index finger may switch the text input control to the right hand. In this case, if the signal “o” and the signal “ro” are received at the same time, the control right is switched from the left hand to the right hand or from the right hand to the left hand. At the same time, the screen display is shown in FIGS.
Switch to

【0227】また、左手で操作している時に、左手親指
と右手親指とを触れ合わせると、テキスト入力の制御が
右手に切り替わるようにしてもよい。この場合には、同
時に信号「u」と信号「ru」とを受信すれば、制御権
を左手から右手に、或いは右手から左手に切り替える。
それと同時に画面表示も、図45から図49に切り替え
る。
When the left thumb and the right thumb are touched while operating with the left hand, the control of text input may be switched to the right hand. In this case, if the signal “u” and the signal “ru” are received at the same time, the control right is switched from the left hand to the right hand or from the right hand to the left hand.
At the same time, the screen display is also switched from FIG. 45 to FIG.

【0228】以下、同様に、左右何れかの指同士が触れ
合うと、制御権が切り替わるようにしてもよい。
Similarly, the control right may be switched when either of the right and left fingers touch each other.

【0229】[他の実施形態3]上述した本発明の実施
の形態では携帯型コンピュータ2にディスプレイ21
(表示部)が装備された場合について述べたが、他の実
施形態3では表示部がヘッドマウントディスプレイの場
合について述べる。
[Other Embodiment 3] In the above-described embodiment of the present invention, the display 21 is provided on the portable computer 2.
Although the case where the (display unit) is provided has been described, another embodiment 3 describes a case where the display unit is a head-mounted display.

【0230】図50は本発明の他の実施形態3に係る装
着型テキスト入力装置の全体構成を示す構成図である。
本発明の他の実施形態3に係る装着型テキスト入力装置
は、指動作検出部47(図50におけるRU、RO、R
I、RE、RA)と、ヘッドマウントディスプレイ50
と、小型コンピュータ51とを備える構成となってい
る。図50におけるRHはユーザの右手である。
FIG. 50 is a configuration diagram showing the overall configuration of a wearable text input device according to another embodiment 3 of the present invention.
A wearable text input device according to another embodiment 3 of the present invention includes a finger motion detection unit 47 (RU, RO, R in FIG. 50).
I, RE, RA) and head-mounted display 50
And a small computer 51. RH in FIG. 50 is the right hand of the user.

【0231】図51は本発明の他の実施形態3に係る装
着型テキスト入力装置の小型コンピュータ51を中心と
した構成を示すブロック図である。本発明の他の実施形
態3に係る装着型テキスト入力装置の小型コンピュータ
51は、上記実施形態と同様の構造を有しており、CP
U22と、RAM23と、ROM24と、単語辞書25
と、信号解析部26と、受信部27とを備える構成とな
っている。各部の構成は上記実施形態で詳述したので説
明を省略する。
FIG. 51 is a block diagram showing a configuration centering on a small computer 51 of a wearable text input device according to another embodiment 3 of the present invention. A small computer 51 of a wearable text input device according to another embodiment 3 of the present invention has the same structure as that of the above embodiment,
U22, RAM23, ROM24, word dictionary 25
, A signal analyzing unit 26, and a receiving unit 27. Since the configuration of each part has been described in detail in the above embodiment, the description is omitted.

【0232】[他の実施形態4]上述した本発明の実施
の形態では指の動作の検出は触覚センサによって行って
いるが、振動センサによって指が物体を叩いた振動を検
出することで指の動作検出を行ってもよい。
[Other Embodiment 4] In the above-described embodiment of the present invention, the operation of the finger is detected by the tactile sensor. However, the vibration sensor detects the vibration of the finger hitting the object, thereby detecting the movement of the finger. Motion detection may be performed.

【0233】[他の実施形態5]上述した本発明の実施
の形態では各指に多重に割り当てる文字コード/記号コ
ード/制御コードを上記のように示したが、各指に多重
に割り当てる文字コード/記号コード/制御コードは上
記実施形態以外の割り当てでもよい。
[Other Embodiment 5] In the above-described embodiment of the present invention, the character codes / symbol codes / control codes which are multiplexed to each finger are described above. The / symbol code / control code may be assigned other than in the above embodiment.

【0234】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器からなる装置に適用
してもよい。前述した実施形態の機能を実現するソフト
ウエアのプログラムコードを記憶した記憶媒体を、シス
テム或いは装置に供給し、そのシステム或いは装置のコ
ンピュータ(またはCPUやMPU)が記憶媒体に格納
されたプログラムコードを読み出し実行することによっ
ても、達成されることは言うまでもない。この場合、記
憶媒体から読み出されたプログラムコード自体が前述し
た実施形態の機能を実現することになり、そのプログラ
ムコードを記憶した記憶媒体は本発明を構成することに
なる。
Note that the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. A storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus executes the program code stored in the storage medium. Needless to say, this can also be achieved by executing the reading. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0235】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク、ハードディス
ク、光ディスク、光磁気ディスク、CD−ROM、CD
−R、磁気テープ、不揮発性のメモリカード、ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0236】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOSなどが実
際の処理の一部または全部を行い、その処理によって前
述した実施形態の機能が実現される場合も含まれること
は言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS and the like running on the computer are actually executed based on the instructions of the program code. It goes without saying that a part or all of the above-described processing is performed, and the functions of the above-described embodiments are realized by the processing.

【0237】更に、記憶媒体から読出されたプログラム
コードが、コンピュータに挿入された機能拡張ボードや
コンピュータに接続された機能拡張ユニットに備わるメ
モリに書込まれた後、そのプログラムコードの指示に基
づき、その機能拡張ボードや機能拡張ユニットに備わる
CPUなどが実際の処理の一部または全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the program code is read based on the instruction of the program code. It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0238】[0238]

【発明の効果】以上説明したように、請求項1乃至15
記載のテキスト入力システムによれば、各指の動作順に
生成したコード列を検索キーとして候補単語を選出し、
候補単語が複数存在する場合、指動作に基づき単語の選
択処理を行うため、いつでもどこでも片手でテキストを
入力することを可能になるという効果がある。
As described above, claims 1 to 15 are provided.
According to the described text input system, candidate words are selected using a code string generated in the order of movement of each finger as a search key,
When there are a plurality of candidate words, the word selection process is performed based on the finger motion, so that it is possible to input text with one hand anytime and anywhere.

【0239】また、請求項16乃至30記載のテキスト
入力方法によれば、テキスト入力方法が適用されるテキ
スト入力システムにおいて、各指の動作順に生成したコ
ード列を検索キーとして候補単語を選出し、候補単語が
複数存在する場合、指動作に基づき単語の選択処理を行
うため、いつでもどこでも片手でテキストを入力するこ
とを可能になるという効果がある。
According to the text input method of the present invention, in the text input system to which the text input method is applied, candidate words are selected by using a code string generated in the order of movement of each finger as a search key. When there are a plurality of candidate words, the word selection process is performed based on the finger motion, so that it is possible to input text with one hand anytime and anywhere.

【0240】また、請求項31記載のメニュー選択方法
によれば、メニュー選択方法が適用されるテキスト入力
システムにおいて、いつでもどこでも片手でメニューを
選択したりコマンドを実行したりすることが可能になる
効果がある。
According to the menu selection method of the present invention, in a text input system to which the menu selection method is applied, it is possible to select a menu or execute a command anytime and anywhere with one hand. There is.

【0241】また、請求項32記載の記憶媒体によれ
ば、記憶媒体からテキスト入力方法を読み出してテキス
ト入力システムで実行することで、各指の動作順に生成
したコード列を検索キーとして候補単語を選出し、候補
単語が複数存在する場合、指動作に基づき単語の選択処
理を行うため、いつでもどこでも片手でテキストを入力
することを可能になるという効果がある。
According to the storage medium of the present invention, the text input method is read out from the storage medium and executed by the text input system. When there are a plurality of selected and candidate words, word selection processing is performed based on the finger motion, so that it is possible to input text with one hand anytime and anywhere.

【0242】また、請求項33記載の記憶媒体によれ
ば、記憶媒体からメニュー選択方法を読み出してテキス
ト入力システムで実行することで、いつでもどこでも片
手でメニューを選択したりコマンドを実行したりするこ
とが可能になる効果がある。
According to the storage medium of the present invention, the menu selection method is read out from the storage medium and executed by the text input system, so that the menu selection and the command can be executed anytime and anywhere with one hand. There is an effect that becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る装着型テキスト入力
装置の携帯型コンピュータを中心とした構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration centering on a portable computer of a wearable text input device according to an embodiment of the present invention.

【図2】本発明の実施の形態に係る装着型テキスト入力
装置の指動作検出部を中心とした構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration centering on a finger motion detection unit of the wearable text input device according to the embodiment of the present invention;

【図3】本発明の実施の形態に係る装着型テキスト入力
装置の全体構成を示す構成図である。
FIG. 3 is a configuration diagram illustrating an overall configuration of a wearable text input device according to an embodiment of the present invention.

【図4】本発明の実施の形態に係る装着型テキスト入力
装置の各指に装着された指動作検出部と発生信号との対
応を示す説明図である。
FIG. 4 is an explanatory diagram showing a correspondence between a finger motion detector attached to each finger of the wearable text input device according to the embodiment of the present invention and a generated signal.

【図5】本発明の実施の形態に係る装着型テキスト入力
装置における受信信号と信号解析結果との対応を示す説
明図である。
FIG. 5 is an explanatory diagram showing a correspondence between a received signal and a signal analysis result in the wearable text input device according to the embodiment of the present invention.

【図6】本発明の実施の形態に係る装着型テキスト入力
装置の指動作検出部における動作の流れを示すフローチ
ャートである。
FIG. 6 is a flowchart showing a flow of an operation in a finger motion detection unit of the wearable text input device according to the embodiment of the present invention.

【図7】本発明の実施の形態に係る装着型テキスト入力
装置の携帯型コンピュータにおける動作の流れを示すフ
ローチャートである。
FIG. 7 is a flowchart showing a flow of operation in the portable computer of the wearable text input device according to the embodiment of the present invention.

【図8】本発明の実施の形態に係る装着型テキスト入力
装置の携帯型コンピュータにおける単語辞書の例を示す
説明図である。
FIG. 8 is an explanatory diagram showing an example of a word dictionary in the portable computer of the wearable text input device according to the embodiment of the present invention.

【図9】本発明の実施の形態に係る装着型テキスト入力
装置のディスプレイの表示状態を示す説明図である。
FIG. 9 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図10】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 10 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図11】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 11 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図12】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 12 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図13】本発明の実施の形態に係る装着型テキスト入
力装置における候補単語を示す説明図である。
FIG. 13 is an explanatory diagram showing candidate words in the wearable text input device according to the embodiment of the present invention.

【図14】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 14 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図15】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 15 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図16】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 16 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図17】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 17 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図18】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 18 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図19】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 19 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図20】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 20 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図21】本発明の実施の形態に係る装着型テキスト入
力装置における候補単語を示す説明図である。
FIG. 21 is an explanatory diagram showing candidate words in the wearable text input device according to the embodiment of the present invention.

【図22】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 22 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図23】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 23 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図24】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 24 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図25】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 25 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図26】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 26 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図27】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 27 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図28】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 28 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図29】本発明の実施の形態に係る装着型テキスト入
力装置における候補単語を示す説明図である。
FIG. 29 is an explanatory diagram showing candidate words in the wearable text input device according to the embodiment of the present invention.

【図30】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 30 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図31】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 31 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図32】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 32 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図33】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 33 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図34】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 34 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図35】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 35 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図36】本発明の実施の形態に係る装着型テキスト入
力装置における候補単語を示す説明図である。
FIG. 36 is an explanatory diagram showing candidate words in the wearable text input device according to the embodiment of the present invention.

【図37】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 37 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図38】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 38 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図39】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 39 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図40】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 40 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図41】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 41 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図42】本発明の実施の形態に係る装着型テキスト入
力装置における候補単語を示す説明図である。
FIG. 42 is an explanatory diagram showing candidate words in the wearable text input device according to the embodiment of the present invention.

【図43】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 43 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図44】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 44 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図45】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 45 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図46】本発明の実施の形態に係る装着型テキスト入
力装置のディスプレイの表示状態を示す説明図である。
FIG. 46 is an explanatory diagram showing a display state of a display of the wearable text input device according to the embodiment of the present invention.

【図47】本発明の他の実施の形態に係る装着型テキス
ト入力装置の全体構成を示す構成図である。
FIG. 47 is a configuration diagram showing an overall configuration of a wearable text input device according to another embodiment of the present invention.

【図48】本発明の他の実施の形態に係る装着型テキス
ト入力装置の各指に装着された指動作検出部と発生信号
との対応を示す説明図である。
FIG. 48 is an explanatory diagram showing a correspondence between a finger motion detection unit attached to each finger of the wearable text input device according to another embodiment of the present invention and a generated signal.

【図49】本発明の他の実施の形態に係る装着型テキス
ト入力装置のディスプレイの表示状態を示す説明図であ
る。
FIG. 49 is an explanatory diagram showing a display state of a display of a wearable text input device according to another embodiment of the present invention.

【図50】本発明の他の実施の形態に係る装着型テキス
ト入力装置の全体構成を示す構成図である。
FIG. 50 is a configuration diagram showing an overall configuration of a wearable text input device according to another embodiment of the present invention.

【図51】本発明の実施の形態に係る装着型テキスト入
力装置の携帯型コンピュータを中心とした構成を示すブ
ロック図である。
FIG. 51 is a block diagram showing a configuration centering on a portable computer of a wearable text input device according to an embodiment of the present invention.

【図52】本発明のプログラム及び関連データを記憶し
た記憶媒体の記憶内容の構成例を示す説明図である。
FIG. 52 is an explanatory diagram showing a configuration example of storage contents of a storage medium storing a program and related data of the present invention.

【図53】本発明のプログラム及び関連データが記憶媒
体から装置に供給される概念例を示す説明図である。
FIG. 53 is an explanatory diagram showing a conceptual example in which a program and related data of the present invention are supplied from a storage medium to an apparatus.

【符号の説明】[Explanation of symbols]

1、47 指動作検出部 2 携帯型コンピュータ 11 触覚センサ 12 信号発生部 21 ディスプレイ 22 CPU 24 ROM 25 単語辞書 26 信号解析部 50 ヘッドマウントディスプレイ 51 小型コンピュータ DESCRIPTION OF SYMBOLS 1, 47 Finger movement detection part 2 Portable computer 11 Tactile sensor 12 Signal generation part 21 Display 22 CPU 24 ROM 25 Word dictionary 26 Signal analysis part 50 Head mounted display 51 Small computer

Claims (33)

【特許請求の範囲】[Claims] 【請求項1】 片手でテキスト入力が可能なテキスト入
力システムであって、 各指の動作を検出し各指に固有の信号を出力する指動作
検出手段と、該指動作検出手段の出力信号を解析してコ
ードを生成する信号解析手段と、検索キーに対応付けた
単語を記憶する記憶手段と、前記信号解析手段で各指の
動作順に生成したコード列を検索キーとして前記記憶手
段を検索し候補単語を選出する候補単語選出手段と、該
候補単語選出手段で選出した候補単語が複数存在する場
合、指動作による単語選択に伴う前記指動作検出手段の
出力に基づき単語の選択処理を行う単語選択処理手段と
を有することを特徴とするテキスト入力システム。
1. A text input system capable of inputting text with one hand, a finger motion detecting means for detecting a motion of each finger and outputting a signal unique to each finger, and an output signal of the finger motion detecting means. A signal analyzing means for analyzing and generating a code, a storing means for storing a word associated with a search key, and a search for the storing means as a search key using a code string generated in the order of operation of each finger by the signal analyzing means. A candidate word selecting means for selecting a candidate word; and a plurality of candidate words selected by the candidate word selecting means, a word for performing a word selection process based on an output of the finger motion detecting means accompanying the word selection by a finger motion. A text input system comprising: a selection processing unit.
【請求項2】 更に、所定の表示を行う表示手段を有
し、前記単語選択処理手段は、前記候補単語選出手段で
選出した候補単語が複数存在する場合、指動作による単
語選択に伴う前記指動作検出手段の出力に基づき単語の
選択処理を行うと共に前記選択した単語列を入力文とし
て前記表示手段で表示させることを特徴とする請求項1
記載のテキスト入力システム。
2. The apparatus according to claim 1, further comprising a display unit configured to perform a predetermined display, wherein the word selection processing unit includes a plurality of candidate words selected by the candidate word selection unit. 2. A word selecting process based on an output of the motion detecting means, and displaying the selected word string as an input sentence on the display means.
Text input system as described.
【請求項3】 各指に文字コード、記号コード、制御コ
ード等のコードを多重に割り当て、前記指動作検出手段
は、前記コードが多重に割り当てられた各指の動作を検
出し各指に固有の信号を出力することを特徴とする請求
項1又は2記載のテキスト入力システム。
3. A code such as a character code, a symbol code, and a control code is multiplexed and assigned to each finger, and the finger motion detecting means detects the motion of each finger to which the code is multiplexed and unique to each finger. The text input system according to claim 1, wherein the text input system outputs a signal.
【請求項4】 前記信号解析手段は、前記指動作検出手
段で検出された複数の指の動作の組み合わせに基づきテ
キスト編集における制御コードを生成することを特徴と
する請求項1乃至3の何れかに記載のテキスト入力シス
テム。
4. The text analysis apparatus according to claim 1, wherein the signal analysis unit generates a control code for text editing based on a combination of a plurality of finger movements detected by the finger movement detection unit. Text input system described in.
【請求項5】 左手小指に文字コード「a」「b」
「c」「d」を多重に割り当て、左手薬指に文字コード
「e」「f」「g」「h」を多重に割り当て、左手中指
に文字コード「i」「j」「k」「l」「m」「n」を
多重に割り当て、左手人差し指に文字コード「o」
「p」「q」「r」「s」「t」を多重に割り当て、左
手親指に文字コード「u」「v」「w」「x」「y」
「z」及び記号コード「,」「.」「?」「!」を多重
に割り当て、前記指動作検出手段は、左手小指の動作に
基づき信号「a」を出力し、左手薬指の動作に基づき信
号「e」を出力し、左手中指の動作に基づき信号「i」
を出力し、左手人差し指の動作に基づき信号「o」を出
力し、左手親指の動作に基づき信号「u」を出力するこ
とを特徴とする請求項3記載のテキスト入力システム。
5. The character codes "a" and "b" are assigned to the little finger of the left hand.
“C” and “d” are assigned multiple, character codes “e”, “f”, “g” and “h” are assigned multiple to the left ring finger, and character codes “i”, “j”, “k” and “l” are assigned to the left middle finger. "M" and "n" are assigned in multiples, and the character code "o" is assigned to the left index finger.
“P”, “q”, “r”, “s”, and “t” are assigned in multiples, and the character codes “u”, “v”, “w”, “x”, and “y” are assigned to the left thumb.
“Z” and the symbol codes “,” “.” “?” “!” Are assigned in a multiplex manner, and the finger movement detecting means outputs a signal “a” based on the movement of the left little finger, and based on the movement of the left ring finger. The signal “e” is output, and the signal “i” is output based on the movement of the left middle finger.
4. The text input system according to claim 3, wherein a signal "o" is output based on the operation of the left index finger, and a signal "u" is output based on the operation of the left thumb.
【請求項6】 前記信号解析手段は、前記指動作検出手
段から、左手小指と左手親指の動作に基づく信号を略同
時に受信した場合はメインメニューに戻るコード「ME
NU」を生成し、左手薬指と左手親指の動作に基づく信
号を略同時に受信した場合は削除コード「DEL」を生
成し、左手中指と左手親指の動作に基づく信号を略同時
に受信した場合は決定コード「ENT」を生成し、左手
人差し指と左手親指の動作に基づく信号を略同時に受信
した場合はスペースコード「SP」を生成することを特
徴とする請求項4記載のテキスト入力システム。
6. A code for returning to a main menu when signals based on the movements of the left little finger and the left thumb are substantially simultaneously received from the finger movement detecting means.
NU "is generated, and a deletion code" DEL "is generated when signals based on the operations of the left ring finger and the left thumb are received substantially at the same time. A determination is made when the signals based on the operations of the left middle finger and the left thumb are received substantially simultaneously. 5. The text input system according to claim 4, wherein a code "ENT" is generated, and a space code "SP" is generated when signals based on the actions of the left index finger and the left thumb are received substantially simultaneously.
【請求項7】 右手小指に文字コード「a」「b」
「c」「d」を多重に割り当て、右手薬指に文字コード
「e」「f」「g」「h」を多重に割り当て、右手中指
に文字コード「i」「j」「k」「l」「m」「n」を
多重に割り当て、右手人差し指に文字コード「o」
「p」「q」「r」「s」「t」を多重に割り当て、右
手親指に文字コード「u」「v」「w」「x」「y」
「z」及び記号コード「,」「.」「?」「!」を多重
に割り当て、前記指動作検出手段は、右手小指の動作に
基づき信号「a」を出力し、右手薬指の動作に基づき信
号「e」を出力し、右手中指の動作に基づき信号「i」
を出力し、右手人差し指の動作に基づき信号「o」を出
力し、右手親指の動作に基づき信号「u」を出力するこ
とを特徴とする請求項3記載のテキスト入力システム。
7. Character codes "a" and "b" are assigned to the little finger of the right hand.
“C” and “d” are multiplexed, character codes “e”, “f”, “g”, and “h” are multiplexed to the right ring finger, and character codes “i”, “j”, “k”, and “l” are assigned to the right middle finger. “M” and “n” are assigned in multiples, and the character code “o” is assigned to the right index finger.
“P”, “q”, “r”, “s”, and “t” are assigned in multiples, and the character codes “u”, “v”, “w”, “x”, and “y” are assigned to the right thumb.
“Z” and the symbol codes “,” “.” “?” “!” Are assigned in a multiplexed manner, and the finger movement detecting means outputs a signal “a” based on the movement of the right little finger and based on the movement of the right ring finger. The signal “e” is output, and the signal “i” is output based on the operation of the middle finger of the right hand.
4. The text input system according to claim 3, wherein a signal "o" is output based on the operation of the right index finger and a signal "u" is output based on the operation of the right thumb.
【請求項8】 前記信号解析手段は、前記指動作検出手
段から、右手小指と右手親指の動作に基づく信号を略同
時に受信した場合はメインメニューに戻るコード「ME
NU」を生成し、右手薬指と右手親指の動作に基づく信
号を略同時に受信した場合は削除コード「DEL」を生
成し、右手中指と右手親指の動作に基づく信号を略同時
に受信した場合は決定コード「ENT」を生成し、右手
人差し指と右手親指の動作に基づく信号を略同時に受信
した場合はスペースコード「SP」を生成することを特
徴とする請求項4記載のテキスト入力システム。
8. When the signals based on the movements of the little finger and the right thumb of the right hand are received from the finger movement detecting means at substantially the same time, the signal analyzing means returns the code "ME
NU "is generated, and a signal based on the movement of the right ring finger and the right thumb is received substantially simultaneously. A deletion code" DEL "is generated. If a signal based on the movement of the right middle finger and the right thumb is received substantially simultaneously, the determination is made. 5. The text input system according to claim 4, wherein a code "ENT" is generated, and a space code "SP" is generated when signals based on the actions of the right index finger and the right thumb are received substantially simultaneously.
【請求項9】 前記指動作検出手段は、各指が物体に触
れたことを検出する触覚センサと、該触覚センサの検出
に基づき信号を発生する信号発生手段とを有することを
特徴とする請求項1乃至8の何れかに記載のテキスト入
力システム。
9. The digital camera according to claim 1, wherein the finger movement detecting means includes a tactile sensor for detecting that each finger has touched the object, and a signal generating means for generating a signal based on the detection of the tactile sensor. Item 9. The text input system according to any one of Items 1 to 8.
【請求項10】 前記指動作検出手段は、各指が物体を
叩いた振動を検出する振動センサと、該振動センサの検
出に基づき信号を発生する信号発生手段とを有すること
を特徴とする請求項1乃至8の何れかに記載のテキスト
入力システム。
10. The apparatus according to claim 1, wherein said finger movement detecting means includes a vibration sensor for detecting a vibration of each finger hitting an object, and a signal generating means for generating a signal based on the detection of said vibration sensor. Item 9. The text input system according to any one of Items 1 to 8.
【請求項11】 前記表示手段は、コンピュータに装備
されたディスプレイであることを特徴とする請求項1乃
至10の何れかに記載のテキスト入力システム。
11. The text input system according to claim 1, wherein said display means is a display mounted on a computer.
【請求項12】 前記表示手段は、ヘッドマウントディ
スプレイであることを特徴とする請求項1乃至10の何
れかに記載のテキスト入力システム。
12. The text input system according to claim 1, wherein said display means is a head mounted display.
【請求項13】 前記表示手段には、各指と入力文字及
び制御記号との対応図が表示されることを特徴とする請
求項1乃至12の何れかに記載のテキスト入力システ
ム。
13. The text input system according to claim 1, wherein a corresponding diagram of each finger and input characters and control symbols is displayed on the display unit.
【請求項14】 前記指動作検出手段を左右両手に装着
した場合、制御権を一方の手から他方の手へと移行させ
ることが可能であることを特徴とする請求項1乃至13
の何れかに記載のテキスト入力システム。
14. The control method according to claim 1, wherein the control right can be transferred from one hand to the other hand when the finger movement detecting means is attached to both right and left hands.
The text input system according to any one of the above.
【請求項15】 前記指動作検出手段で右手の何れかの
指の動作に基づく信号と左手の何れかの指の動作に基づ
く信号とを略同時に検出した場合、制御権を一方の手か
ら他方の手へと移行させることが可能であることを特徴
とする請求項1乃至13の何れかに記載のテキスト入力
システム。
15. When the finger movement detection means detects a signal based on the movement of one of the right hand and a signal based on the movement of one of the left hand at substantially the same time, the control right is shifted from one hand to the other. The text input system according to any one of claims 1 to 13, wherein the text input system can be shifted to a hand.
【請求項16】 片手でテキスト入力が可能なテキスト
入力システムに適用されるテキスト入力方法であって、 各指の動作を検出し各指に固有の信号を出力する指動作
検出ステップと、該指動作検出ステップの出力信号を解
析してコードを生成する信号解析ステップと、検索キー
に対応付けた単語を記憶する記憶ステップと、前記信号
解析ステップで各指の動作順に生成したコード列を検索
キーとして前記記憶ステップを検索し候補単語を選出す
る候補単語選出ステップと、該候補単語選出ステップで
選出した候補単語が複数存在する場合、指動作による単
語選択に伴う前記指動作検出ステップの出力に基づき単
語の選択処理を行う単語選択処理ステップとを有するこ
とを特徴とするテキスト入力方法。
16. A text input method applied to a text input system capable of inputting text with one hand, comprising: a finger motion detecting step of detecting a motion of each finger and outputting a signal unique to each finger; A signal analyzing step of analyzing the output signal of the action detecting step to generate a code, a storing step of storing a word associated with the search key, and a code string generated in the order of action of each finger in the signal analyzing step as a search key A candidate word selecting step of searching the storage step to select a candidate word, and, when there are a plurality of candidate words selected in the candidate word selecting step, based on an output of the finger motion detecting step accompanying the word selection by a finger motion. A word selection processing step of performing a word selection processing.
【請求項17】 更に、所定の表示を行う表示ステップ
を有し、前記単語選択処理ステップでは、前記候補単語
選出ステップで選出した候補単語が複数存在する場合、
指動作による単語選択に伴う前記指動作検出ステップの
出力に基づき単語の選択処理を行うと共に前記選択した
単語列を入力文として前記表示ステップで表示させるこ
とを特徴とする請求項16記載のテキスト入力方法。
17. The method according to claim 17, further comprising a display step of performing a predetermined display, wherein in the word selection processing step, when there are a plurality of candidate words selected in the candidate word selection step,
17. The text input according to claim 16, wherein a word selection process is performed based on an output of the finger movement detecting step accompanying a word selection by a finger movement, and the selected word string is displayed as an input sentence in the display step. Method.
【請求項18】 各指に文字コード、記号コード、制御
コード等のコードを多重に割り当て、前記指動作検出ス
テップでは、前記コードが多重に割り当てられた各指の
動作を検出し各指に固有の信号を出力することを特徴と
する請求項16又は17記載のテキスト入力方法。
18. A finger code, a symbol code, a control code, and other codes are assigned to each finger in a multiplex manner. 18. The text input method according to claim 16 or 17, wherein the signal is output.
【請求項19】 前記信号解析ステップでは、前記指動
作検出ステップで検出された複数の指の動作の組み合わ
せに基づきテキスト編集における制御コードを生成する
ことを特徴とする請求項16乃至18の何れかに記載の
テキスト入力方法。
19. The control method according to claim 16, wherein in the signal analysis step, a control code for text editing is generated based on a combination of a plurality of finger movements detected in the finger movement detection step. Text input method described in.
【請求項20】 左手小指に文字コード「a」「b」
「c」「d」を多重に割り当て、左手薬指に文字コード
「e」「f」「g」「h」を多重に割り当て、左手中指
に文字コード「i」「j」「k」「l」「m」「n」を
多重に割り当て、左手人差し指に文字コード「o」
「p」「q」「r」「s」「t」を多重に割り当て、左
手親指に文字コード「u」「v」「w」「x」「y」
「z」及び記号コード「,」「.」「?」「!」を多重
に割り当て、前記指動作検出ステップでは、左手小指の
動作に基づき信号「a」を出力し、左手薬指の動作に基
づき信号「e」を出力し、左手中指の動作に基づき信号
「i」を出力し、左手人差し指の動作に基づき信号
「o」を出力し、左手親指の動作に基づき信号「u」を
出力することを特徴とする請求項18記載のテキスト入
力方法。
20. Character codes "a" and "b" are assigned to the little finger of the left hand.
“C” and “d” are assigned multiple, character codes “e”, “f”, “g” and “h” are assigned multiple to the left ring finger, and character codes “i”, “j”, “k” and “l” are assigned to the left middle finger. "M" and "n" are assigned in multiples, and the character code "o" is assigned to the left index finger.
“P”, “q”, “r”, “s”, and “t” are assigned in multiples, and the character codes “u”, “v”, “w”, “x”, and “y” are assigned to the left thumb.
“Z” and the symbol codes “,” “.” “?” “!” Are assigned in a multiplex manner, and in the finger motion detection step, a signal “a” is output based on the motion of the left little finger, and based on the motion of the left ring finger. Outputting a signal "e", outputting a signal "i" based on the movement of the left middle finger, outputting a signal "o" based on the movement of the left index finger, and outputting a signal "u" based on the movement of the left thumb. 19. The text input method according to claim 18, wherein:
【請求項21】 前記信号解析ステップでは、前記指動
作検出ステップから、左手小指と左手親指の動作に基づ
く信号を略同時に受信した場合はメインメニューに戻る
コード「MENU」を生成し、左手薬指と左手親指の動
作に基づく信号を略同時に受信した場合は削除コード
「DEL」を生成し、左手中指と左手親指の動作に基づ
く信号を略同時に受信した場合は決定コード「ENT」
を生成し、左手人差し指と左手親指の動作に基づく信号
を略同時に受信した場合はスペースコード「SP」を生
成することを特徴とする請求項19記載のテキスト入力
方法。
21. In the signal analyzing step, a code “MENU” for returning to the main menu is generated when signals based on the movements of the left little finger and the left thumb are received from the finger movement detecting step at substantially the same time. When a signal based on the operation of the left thumb is received substantially at the same time, a deletion code “DEL” is generated. When a signal based on the operation of the left middle finger and the left thumb is received substantially at the same time, the determination code “ENT” is received.
20. The text input method according to claim 19, wherein a space code "SP" is generated when signals based on the movement of the left index finger and the left thumb are received substantially simultaneously.
【請求項22】 右手小指に文字コード「a」「b」
「c」「d」を多重に割り当て、右手薬指に文字コード
「e」「f」「g」「h」を多重に割り当て、右手中指
に文字コード「i」「j」「k」「l」「m」「n」を
多重に割り当て、右手人差し指に文字コード「o」
「p」「q」「r」「s」「t」を多重に割り当て、右
手親指に文字コード「u」「v」「w」「x」「y」
「z」及び記号コード「,」「.」「?」「!」を多重
に割り当て、前記指動作検出ステップでは、右手小指の
動作に基づき信号「a」を出力し、右手薬指の動作に基
づき信号「e」を出力し、右手中指の動作に基づき信号
「i」を出力し、右手人差し指の動作に基づき信号
「o」を出力し、右手親指の動作に基づき信号「u」を
出力することを特徴とする請求項18記載のテキスト入
力方法。
22. Character codes "a" and "b" are assigned to the little finger of the right hand.
“C” and “d” are multiplexed, character codes “e”, “f”, “g”, and “h” are multiplexed to the right ring finger, and character codes “i”, “j”, “k”, and “l” are assigned to the right middle finger. “M” and “n” are assigned in multiples, and the character code “o” is assigned to the right index finger.
“P”, “q”, “r”, “s”, and “t” are assigned in multiples, and the character codes “u”, “v”, “w”, “x”, and “y” are assigned to the right thumb.
“Z” and the symbol codes “,” “.” “?” “!” Are assigned in a multiplex manner, and in the finger motion detection step, a signal “a” is output based on the motion of the right little finger, and based on the motion of the right ring finger. Outputting a signal "e", outputting a signal "i" based on the operation of the right middle finger, outputting a signal "o" based on the operation of the right index finger, and outputting a signal "u" based on the operation of the right thumb. 19. The text input method according to claim 18, wherein:
【請求項23】 前記信号解析ステップでは、前記指動
作検出ステップから、右手小指と右手親指の動作に基づ
く信号を略同時に受信した場合はメインメニューに戻る
コード「MENU」を生成し、右手薬指と右手親指の動
作に基づく信号を略同時に受信した場合は削除コード
「DEL」を生成し、右手中指と右手親指の動作に基づ
く信号を略同時に受信した場合は決定コード「ENT」
を生成し、右手人差し指と右手親指の動作に基づく信号
を略同時に受信した場合はスペースコード「SP」を生
成することを特徴とする請求項19記載のテキスト入力
方法。
23. In the signal analyzing step, when signals based on the movements of the right little finger and the right thumb are received substantially simultaneously from the finger movement detecting step, a code “MENU” for returning to the main menu is generated. When a signal based on the operation of the right thumb is received substantially simultaneously, a deletion code “DEL” is generated. When a signal based on the operation of the right middle finger and the right thumb is received substantially simultaneously, the determination code “ENT” is generated.
20. The text input method according to claim 19, wherein a space code "SP" is generated when signals based on the movement of the right index finger and the right thumb are received substantially simultaneously.
【請求項24】 前記指動作検出ステップは、各指が物
体に触れたことを触覚センサにより検出する触覚検出ス
テップと、該触覚検出ステップの検出に基づき信号を発
生する信号発生ステップとを有することを特徴とする請
求項16乃至23の何れかに記載のテキスト入力方法。
24. The finger movement detecting step includes a tactile detection step of detecting, by a tactile sensor, that each finger has touched an object, and a signal generating step of generating a signal based on the detection of the tactile detection step. The text input method according to any one of claims 16 to 23, wherein:
【請求項25】 前記指動作検出ステップは、各指が物
体を叩いた振動を振動センサにより検出する振動検出ス
テップと、該振動検出ステップの検出に基づき信号を発
生する信号発生ステップとを有することを特徴とする請
求項16乃至23の何れかに記載のテキスト入力方法。
25. The finger movement detecting step includes a vibration detecting step of detecting, by a vibration sensor, vibration of each finger hitting an object, and a signal generating step of generating a signal based on the detection of the vibration detecting step. The text input method according to any one of claims 16 to 23, wherein:
【請求項26】 前記表示ステップでは、コンピュータ
に装備されたディスプレイにより表示を行うことを特徴
とする請求項16乃至25の何れかに記載のテキスト入
力方法。
26. The text input method according to claim 16, wherein the displaying is performed by a display provided in a computer.
【請求項27】 前記表示ステップでは、ヘッドマウン
トディスプレイにより表示を行うことを特徴とする請求
項16乃至25の何れかに記載のテキスト入力方法。
27. The text input method according to claim 16, wherein, in the displaying step, the display is performed by a head mounted display.
【請求項28】 前記表示ステップでは、各指と入力文
字及び制御記号との対応図が表示されることを特徴とす
る請求項16乃至27の何れかに記載のテキスト入力方
法。
28. The text input method according to claim 16, wherein in the display step, a correspondence diagram between each finger and input characters and control symbols is displayed.
【請求項29】 前記指動作検出ステップで用いる指動
作検出手段を左右両手に装着した場合、制御権を一方の
手から他方の手へと移行させることが可能であることを
特徴とする請求項16乃至28の何れかに記載のテキス
ト入力方法。
29. The method according to claim 29, wherein when the finger motion detecting means used in the finger motion detecting step is attached to both left and right hands, control can be transferred from one hand to the other hand. 29. The text input method according to any one of 16 to 28.
【請求項30】 前記指動作検出ステップで右手の何れ
かの指の動作に基づく信号と左手の何れかの指の動作に
基づく信号とを略同時に検出した場合、制御権を一方の
手から他方の手へと移行させることが可能であることを
特徴とする請求項16乃至28の何れかに記載のテキス
ト入力方法。
30. When a signal based on the movement of any finger of the right hand and a signal based on the movement of any finger of the left hand are detected substantially simultaneously in the finger movement detecting step, the control right is changed from one hand to the other. The text input method according to any one of claims 16 to 28, wherein the text input method can be shifted to a hand.
【請求項31】 片手でテキスト入力が可能なテキスト
入力システムに適用されるメニュー選択方法であって、 各指の動作を検出し各指に固有の信号を出力する指動作
検出ステップと、該指動作検出ステップの出力信号を解
析してコードを生成する信号解析ステップと、該信号解
析ステップで生成したコードに応じてメニューの選択や
コマンドの実行を行うメニュー選択ステップとを有する
ことを特徴とするメニュー選択方法。
31. A menu selection method applied to a text input system capable of inputting text with one hand, comprising: a finger motion detection step of detecting a motion of each finger and outputting a signal unique to each finger; A signal analyzing step of analyzing the output signal of the operation detecting step to generate a code; and a menu selecting step of selecting a menu or executing a command according to the code generated in the signal analyzing step. Menu selection method.
【請求項32】 テキストの入力が可能なテキスト入力
システムに適用されるテキスト入力方法を実行するプロ
グラムを記憶したコンピュータにより読み出し可能な記
憶媒体であって、 前記テキスト入力方法は、各指の動作を検出し各指に固
有の信号を出力する指動作検出ステップと、該指動作検
出ステップの出力信号を解析してコードを生成する信号
解析ステップと、検索キーに対応付けた単語を記憶する
記憶ステップと、前記信号解析ステップで各指の動作順
に生成したコード列を検索キーとして前記記憶ステップ
を検索し候補単語を選出する候補単語選出ステップと、
該候補単語選出ステップで選出した候補単語が複数存在
する場合、指動作による単語選択に伴う前記指動作検出
ステップの出力に基づき単語の選択処理を行う単語選択
処理ステップとを有することを特徴とする記憶媒体。
32. A storage medium readable by a computer storing a program for executing a text input method applied to a text input system capable of inputting text, wherein the text input method controls the operation of each finger. A finger motion detecting step of detecting and outputting a signal unique to each finger, a signal analyzing step of analyzing an output signal of the finger motion detecting step to generate a code, and a storing step of storing a word associated with a search key Candidate word selecting step of searching the storage step and selecting candidate words using the code string generated in the order of movement of each finger in the signal analyzing step as a search key,
A word selecting step of performing a word selecting process based on an output of the finger motion detecting step accompanying a word selection by a finger motion when there are a plurality of candidate words selected in the candidate word selecting step. Storage medium.
【請求項33】 テキストの入力が可能なテキスト入力
システムに適用されるメニュー選択方法を実行するプロ
グラムを記憶したコンピュータにより読み出し可能な記
憶媒体であって、 前記メニュー選択方法は、各指の動作を検出し各指に固
有の信号を出力する指動作検出ステップと、該指動作検
出ステップの出力信号を解析してコードを生成する信号
解析ステップと、該信号解析ステップで生成したコード
に応じてメニューの選択やコマンドの実行を行うメニュ
ー選択ステップとを有することを特徴とする記憶媒体。
33. A storage medium readable by a computer storing a program for executing a menu selection method applied to a text input system capable of inputting text, wherein the menu selection method controls an operation of each finger. A finger motion detecting step of detecting and outputting a signal unique to each finger; a signal analyzing step of analyzing an output signal of the finger motion detecting step to generate a code; and a menu according to the code generated in the signal analyzing step. And a menu selection step for executing a command.
JP9148599A 1999-03-31 1999-03-31 Text input system, text input method, menu selection method and storage medium Withdrawn JP2000284886A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9148599A JP2000284886A (en) 1999-03-31 1999-03-31 Text input system, text input method, menu selection method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9148599A JP2000284886A (en) 1999-03-31 1999-03-31 Text input system, text input method, menu selection method and storage medium

Publications (1)

Publication Number Publication Date
JP2000284886A true JP2000284886A (en) 2000-10-13

Family

ID=14027726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9148599A Withdrawn JP2000284886A (en) 1999-03-31 1999-03-31 Text input system, text input method, menu selection method and storage medium

Country Status (1)

Country Link
JP (1) JP2000284886A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9348144B2 (en) 2013-01-07 2016-05-24 Seiko Epson Corporation Display device and control method thereof
EP3043237A1 (en) 2015-01-06 2016-07-13 Seiko Epson Corporation Display system, control method for display device, and computer program
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9348144B2 (en) 2013-01-07 2016-05-24 Seiko Epson Corporation Display device and control method thereof
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
EP3043237A1 (en) 2015-01-06 2016-07-13 Seiko Epson Corporation Display system, control method for display device, and computer program

Similar Documents

Publication Publication Date Title
JP3889466B2 (en) Text input device and method
KR101947034B1 (en) Apparatus and method for inputting of portable device
KR100924669B1 (en) Information processing device, image movement instructing method, and information storage medium
US20060119588A1 (en) Apparatus and method of processing information input using a touchpad
JP2012517061A (en) Data input system
JP4241883B2 (en) Text input device and method
JP2014026629A (en) Input device and input support method
KR20030072332A (en) Information processing device, information processing method, and storage medium
US9323719B2 (en) Mathematical expression input apparatus, mathematical expression modification method, and storage medium storing program
US20230359279A1 (en) Feedback method and related device
EP3248086A1 (en) A hand-held controller for a computer, a control system for a computer and a computer system
JP2004326797A (en) Spatial information input device and method, soft key mapping method therefor, and virtual keyboard using it
US20070236471A1 (en) Multi-media device
KR100647276B1 (en) A character input method using a pointing device and the apparatus therefor
JP2000284886A (en) Text input system, text input method, menu selection method and storage medium
JP3932942B2 (en) Text input method and apparatus, and text input program
JP2004038407A (en) Character input device and method
JP4207089B2 (en) Text input device and method
JP4007400B2 (en) Text input device and method
JP2018073202A (en) Information processing device, information processing method, and program
JP2000222415A (en) Character processor and its method
JP5417774B2 (en) Electronic device and program with dictionary function
JP2000242402A (en) Data input device and recording medium recording program for providing the same
JP2000259320A (en) Text input system/method and storage medium
JP3591319B2 (en) Character input device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060210

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606