JP2019075034A - Information processing apparatus, information processing method, and information processing program - Google Patents

Information processing apparatus, information processing method, and information processing program Download PDF

Info

Publication number
JP2019075034A
JP2019075034A JP2017202541A JP2017202541A JP2019075034A JP 2019075034 A JP2019075034 A JP 2019075034A JP 2017202541 A JP2017202541 A JP 2017202541A JP 2017202541 A JP2017202541 A JP 2017202541A JP 2019075034 A JP2019075034 A JP 2019075034A
Authority
JP
Japan
Prior art keywords
finger
information processing
movement
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017202541A
Other languages
Japanese (ja)
Inventor
達雄 丹羽
Tatsuo Niwa
達雄 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017202541A priority Critical patent/JP2019075034A/en
Publication of JP2019075034A publication Critical patent/JP2019075034A/en
Pending legal-status Critical Current

Links

Abstract

To reduce the burden of a user and output character information according to an input operation.SOLUTION: An identification unit (125) identifies a finger movement including a finger-to-finger contact using the vibration amplitude and intensity of a detection signal from a sensor array (14) indicating changes of major muscles, the number of contacts, and a signal distribution pattern, identifies character information corresponding to the movement of a finger identified by the detection signal from the sensor array (14) by referring to a template unit (126) in which a correspondence between the movement of the finger and the character information is stored, causes a display unit (18) to display the character information as an identification result, and transmits the character information to another information processing apparatus via a communication unit (16). In that manner, character information is output only by the movement of a user's finger, thus improving the usability.SELECTED DRAWING: Figure 1

Description

開示の技術は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。   The disclosed technology relates to an information processing apparatus, an information processing method, and an information processing program.

ユーザによって情報を入力するための入力装置が各種実現されている。例えば、ユーザの指節の接触を撮像して撮像結果から情報を出力する技術が知られている(特許文献1参照)。   Various input devices for inputting information by the user have been realized. For example, there is known a technique of imaging a contact of a user's phalanx and outputting information from an imaging result (see Patent Document 1).

特許文献1に記載の技術では、指節に接触体が接触した状態をカメラで撮像し、ユーザが押圧した指節に対応する情報を出力している。   In the technology described in Patent Document 1, a camera captures an image in which a contact body is in contact with a phalanx, and outputs information corresponding to the phalanx pressed by the user.

国際公開2013/168508号パンフレットInternational Publication 2013/168508 brochure

開示の技術の第1の態様は、
予め定めた指の動きを検出する検出部と、
前記予め定めた指の異なる複数の動き毎に異なる情報を対応させた対応関係、及び前記検出部で検出された指の動きに基づいて、前記検出部で検出された指の動き指の動きが前記複数の動きの何れかである場合に、前記検出部で検出された指の動きに対応する情報を出力する出力部と、
を備えた情報処理装置である。
The first aspect of the disclosed technology is
A detection unit that detects a predetermined finger movement;
The movement of the finger detected by the detection unit is based on the correspondence relationship in which different information is associated with each of a plurality of different movements of the predetermined finger and the movement of the finger detected by the detection unit. An output unit that outputs information corresponding to the movement of the finger detected by the detection unit when any of the plurality of movements is detected;
An information processing apparatus comprising:

開示の技術の第2の態様は、
手首の変化を検出する検出部と、
検出された手首の変化毎に異なる情報を対応させた対応関係に基づいて、情報を出力する出力部と、
を備えた情報処理装置である。
The second aspect of the disclosed technology is
A detection unit that detects a change in the wrist;
An output unit that outputs information based on the correspondence relationship in which different information is associated with each detected change in the wrist;
An information processing apparatus comprising:

開示の技術の第3の態様は、
指の動きに伴う、手首の膨縮を検出し、検出信号を出力する検出部と、
前記検出信号をパターン化し、パターン毎に所定の情報、又はコマンドを対応付けた対応関係を記憶する記憶部と、
前記検出信号と前記対応関係とに基づいて、前記所定の情報、又はコマンドを出力する出力部と、
を備えた情報処理装置である。
The third aspect of the disclosed technology is
A detection unit that detects expansion and contraction of the wrist accompanying movement of the finger and outputs a detection signal;
A storage unit configured to pattern the detection signal and to store predetermined information corresponding to each pattern or a correspondence in which a command is associated;
An output unit that outputs the predetermined information or a command based on the detection signal and the correspondence relationship;
An information processing apparatus comprising:

開示の技術の第4の態様は、
手首の変化を検出する検出ステップと、
検出された手首の変化毎に異なる情報を対応させた対応関係に基づいて、情報を出力する出力ステップと、
を含む情報処理方法である。
The fourth aspect of the disclosed technology is
Detecting the change in the wrist;
An output step of outputting information based on a correspondence relationship in which different information is made to correspond to each detected change in the wrist;
Information processing method including

開示の技術の第5の態様は、
指の動きに伴う、手首の膨縮を検出し、検出信号を出力する検出ステップと、
前記検出信号をパターン化し、パターン毎に所定の情報、又はコマンドを対応付けた対応関係を記憶する記憶ステップと、
前記検出信号と前記対応関係とに基づいて、前記所定の情報、又はコマンドを出力する出力ステップと、
を含む情報処理方法である。
The fifth aspect of the disclosed technology is
Detecting the expansion and contraction of the wrist accompanying the movement of the finger and outputting a detection signal;
Storing the pattern of the detection signal and storing predetermined information corresponding to each pattern or a correspondence relationship in which a command is associated;
An output step of outputting the predetermined information or command based on the detection signal and the correspondence relationship;
Information processing method including

開示の技術の第6の態様は、
コンピュータに、前記情報処理装置の出力部の処理を実行させることを含む情報処理方法である。
A sixth aspect of the disclosed technology is
It is an information processing method including making a computer perform processing of an output part of the above-mentioned information processor.

開示の技術の第7の態様は、
コンピュータを、前記情報処理装置の出力部として機能させるための情報処理プログラムである。
A seventh aspect of the disclosed technology is
An information processing program for causing a computer to function as an output unit of the information processing apparatus.

本開示に係る情報処理装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of an information processor concerning this indication. ユーザの左手を模式的に示す一例を示すイメージ図である。It is an image figure showing an example showing typically a user's left hand. センサーアレイの一例を示すイメージ図であり、(A)はセンサーアレイの平面図、(B)は側面図を示している。It is an image figure which shows an example of a sensor array, (A) is a top view of a sensor array, (B) has shown the side view. センサーアレイによる検出例を示し、(A)はユーザの指の動きのイメージ図、図4(B)は検出信号の特性図、(c)はセンサーアレイ周辺の断念図を示している。An example of detection by the sensor array is shown, in which (A) is an image of movement of a finger of a user, FIG. ユーザの手首に装着したセンサーアレイの一例を示す模式図であり、(A)は装着状態の一例を示し、(B)はセンサーアレイの側面図を示している。It is a schematic diagram which shows an example of the sensor array with which a user's wrist was mounted | worn, (A) shows an example of a mounting state, (B) shows the side view of a sensor array. センサーアレイの具体例を示すイメージ図であり、(A)は、表示部に文字情報が表示された状態を示し、(B)はセンサーアレイの斜視図を示している。It is an image figure which shows the specific example of a sensor array, (A) shows the state as which character information was displayed on the display part, (B) has shown the perspective view of a sensor array. センサーアレイの構造の一例を示すイメージ図であり、(A)は収縮状態を示し、(B)は伸長状態を示している。It is an image figure which shows an example of the structure of a sensor array, (A) shows a contracted state, (B) has shown the extended state. ユーザの指の動きに伴う検出信号の一例を示すイメージ図である。It is an image figure showing an example of a detection signal accompanying movement of a user's finger. 指節に文字情報を対応させた一例を示し、(A)は第1テンプレートによる文字情報、(B)は第2テンプレートによる文字情報を対応させた模式図である。An example which matched character information to a phalanx is shown, (A) is the character information by a 1st template, (B) is the schematic diagram which made the character information by a 2nd template correspond. 複数の指同士の接触によるユーザの指の動きの一例を示し、(A)はユーザの指を全て折り曲げた状態、(B)はユーザの指を全て広げた状態を示す模式図である。An example of a motion of a user's finger by contact of a plurality of fingers is shown, (A) is a state where all the user's fingers were bent, (B) is a mimetic diagram showing a state where all the user's fingers were spread. 複数の指同士の接触によるユーザの指の動きのその他の例を示し、(A)は、ユーザの指を全て折り曲げた状態から手首も折り曲げた状態、(B)はユーザの指を全て折り曲げた状態を示す模式図である。The other example of a motion of a user's finger by contact of a plurality of fingers is shown, (A) is a state where a wrist is also bent from a state where all the user's fingers are bent, (B) is a case where all the user's fingers are bent It is a schematic diagram which shows a state. 文字の種類毎のテンプレートの一例を示すイメージ図である。It is an image figure showing an example of a template for every kind of character. ユーザの指の動きと文字情報との対応関係を示すテーブルの一例を示すイメージ図である。It is an image figure which shows an example of the table which shows the correspondence of the movement of a user's finger, and character information. ユーザの指の動きと、コマンドとの対応関係を示すテーブルの一例を示すイメージ図である。It is an image figure which shows an example of the table which shows the correspondence of the movement of a user's finger, and a command. 情報処理装置の装置本体をコンピュータにより実現した場合の構成の一例を示すブロック図である。It is a block diagram showing an example of composition at the time of realizing a device main part of an information processor with a computer. 情報処理プログラムによる処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by an information processing program. 第1の変形例の時計を示し、(A)は表示部の目視側の平面図、(B)は側面図である。The timepiece of a 1st modification is shown, (A) is a top view of the visual observation side of a display part, (B) is a side view. 第2の変形例の情報処理装置を示し、(A)は側面図、(B)は平面図である。The information processing apparatus of a 2nd modification is shown, (A) is a side view, (B) is a top view.

以下、図面を参照して実施形態を説明する。
本開示は、開示の技術に係る情報処理装置の一例として、ユーザの指の動きに基づき情報を出力する情報処理装置10を説明する。
Hereinafter, embodiments will be described with reference to the drawings.
The present disclosure describes an information processing apparatus 10 that outputs information based on the movement of a user's finger as an example of an information processing apparatus according to the disclosed technology.

本開示では、情報処理装置10は、予め定めた指の動きを検出し、予め定めた指の異なる複数の動き毎に異なる情報を対応させた対応関係を用いて、検出された指の動きが複数の動きの何れかである場合に、検出された指の動きに対応する情報を出力する。すなわち、本開示に係る情報処理装置10は、複数の異なるユーザの指の動きを入力操作として検出し、検出されたユーザの指の動きに対応する予め定めた情報を出力する。   In the present disclosure, the information processing apparatus 10 detects a predetermined finger movement, and the detected finger movement is detected using a correspondence in which different information is associated with each of a plurality of predetermined finger different movements. In the case of any of a plurality of movements, information corresponding to the detected movement of the finger is output. That is, the information processing apparatus 10 according to the present disclosure detects movements of fingers of a plurality of different users as an input operation, and outputs predetermined information corresponding to the movements of the detected fingers of the user.

また、本開示では、予め定めた指の異なる複数の動き毎に対応させる異なる情報の一例として、文字情報を用いた場合を説明する。以下の説明では、文字情報は、コンピュータの入力装置の一例であるキーボードにおけるキーの各々に対応するひらがな、英数字、及び記号を示す情報を用いた場合を説明する。   Further, in the present disclosure, the case of using character information as an example of different information to be associated with each of a plurality of different movements of a predetermined finger will be described. In the following description, it is assumed that the character information uses information indicating hiragana characters, alphanumeric characters, and symbols corresponding to each of the keys in the keyboard which is an example of the input device of the computer.

なお、文字情報は、ひらがな、英数字、及び記号に加えて、コマンド入力を示すキーの情報を含むことができる。また、文字情報は、キーボードにおけるキーの各々に対応する情報のみに限定されるものではなく、日本語の50音におけるカタカナ及び漢字、英文字における大文字及び小文字、及びキーボードにない記号及び文字を含むことができる。   Note that the character information can include, in addition to hiragana characters, alphanumeric characters, and symbols, information of a key indicating command input. In addition, the character information is not limited to information corresponding to each of the keys in the keyboard, and includes katakana and kanji in Japanese syllabary, upper and lower case letters in English, and symbols and characters not in the keyboard. be able to.

なお、ユーザの指の動きに基づき情報を出力する情報処理装置10を開示の技術に係る情報処理装置の一例として説明するが、開示の技術に係る情報処理装置は、ユーザの指の動きに基づき情報を出力する情報処理装置10に限定されるものではない。すなわち、ユーザの動きは指に限定されるものではなく、ユーザの身体の一部の動きに基づき情報を出力する情報処理装置に適用可能である。   Although the information processing apparatus 10 that outputs information based on the movement of the user's finger is described as an example of the information processing apparatus according to the disclosed technology, the information processing apparatus according to the disclosed technology is based on the movement of the user's finger The present invention is not limited to the information processing apparatus 10 that outputs information. That is, the movement of the user is not limited to the finger, and is applicable to an information processing apparatus that outputs information based on the movement of a part of the user's body.

また、別の本開示では、情報処理装置10は、手首の腱及び筋肉の少なくとも一方の動きによる手首周辺の変化(例えば、手首の膨縮)を検出し、検出された手首の動き毎に異なる情報を対応させた対応関係を用いて情報を出力する。すなわち、本開示に係る情報処理装置10は、複数の異なる手首の動きを入力操作として検出し、検出された手首の動きに対応する予め定めた情報を出力する。手首周辺の変化(例えば、手首の膨縮)は、ユーザの指の動きにより変化するため、指の動きを手首周辺の変化(例えば、手首の膨縮)を検出することにより把握し、ユーザの意図した操作を認識できる。   Further, in another present disclosure, the information processing apparatus 10 detects a change in the vicinity of the wrist (for example, expansion and contraction of the wrist) due to movement of at least one of a tendon and a muscle of the wrist, and differs for each detected movement of the wrist. The information is output using the correspondence in which the information is made to correspond. That is, the information processing apparatus 10 according to the present disclosure detects a plurality of different wrist movements as an input operation, and outputs predetermined information corresponding to the detected wrist movements. Since changes in the area around the wrist (for example, expansion and contraction of the wrist) are changed by the movement of the user's finger, the movement of the finger is grasped by detecting changes in the area around the wrist (for example, expansion and contraction of the wrist). Recognize the intended operation.

図1に、本開示に係る情報処理装置10の構成の一例を示す。
図1に示すように、情報処理装置10は、ユーザの指の動きに基づいて文字情報を出力する出力部としての装置本体12を含んでいる。装置本体12は、検出部としてのセンサーアレイ14、通信部16及び表示部としてのディスプレイ等の表示部18に接続されている。なお、情報処理装置10には電池等の図示しない電源から電力が供給されるようになっている。
FIG. 1 shows an example of the configuration of an information processing apparatus 10 according to the present disclosure.
As shown in FIG. 1, the information processing apparatus 10 includes an apparatus main body 12 as an output unit that outputs character information based on the movement of a user's finger. The device body 12 is connected to a sensor array 14 as a detection unit, a communication unit 16 and a display unit 18 such as a display as a display unit. Power is supplied to the information processing apparatus 10 from a power supply (not shown) such as a battery.

センサーアレイ14は、ユーザの指の動きを検出する検出部として機能する機能部であり、センサーアレイ14の検出信号を装置本体12へ出力する。   The sensor array 14 is a functional unit that functions as a detection unit that detects the movement of the user's finger, and outputs a detection signal of the sensor array 14 to the device body 12.

ここで、本開示で対象とするユーザの指の動きについて説明する。なお、本開示では、ユーザの指の動きの説明を簡単にするため、ユーザの左手における指の動きを一例として説明する。なお、本開示は、左手における指の動きに限定されるものではなく、右手における指の動きでもよく、左手及び右手の両方における指の動きに適用してもよい。   Here, the movement of the user's finger targeted in the present disclosure will be described. In the present disclosure, in order to simplify the description of the movement of the finger of the user, the movement of the finger in the left hand of the user will be described as an example. Note that the present disclosure is not limited to finger movement in the left hand, but may be finger movement in the right hand, and may be applied to finger movement in both the left hand and the right hand.

図2に、ユーザの左手を模式的に示す。図2(A)はユーザの掌側を示し、図2(B)は手の甲側を示している。
ユーザの左手は、各指の関節を軸として、各指を構成する骨に繋がる筋肉の伸縮作用により動く。すなわち、各指を動かす筋肉の状態を検出することで、ユーザの指の動きを検出することが可能である。例えば、各指を動かす筋肉の一例には、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4が挙げられる。これらの尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の各々は、各指を動かすことで、手首周辺で顕著な動きが現れ、例えば、手首周辺の腕から腱が浮かび上がる状態を目視確認が可能な場合もある。なお、以下の説明では、これらの尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の少なくとも1つの筋肉を主力筋と称する場合がある。
FIG. 2 schematically shows the left hand of the user. FIG. 2 (A) shows the palm side of the user, and FIG. 2 (B) shows the back side of the hand.
The user's left hand moves around the joints of each finger by the stretching action of the muscles connected to the bones constituting each finger. That is, it is possible to detect the movement of the user's finger by detecting the state of the muscle moving each finger. For example, as an example of a muscle moving each finger, there are mentioned the flexor carpal flexor muscle M1, the flexor digitus flexor muscle M2, the palmar palm muscle M3, and the flexor carpal flexor muscle M4. Each of the ulnar carpal flexor M1, the flexor digit M2, the palmar muscle M3, and the groin flexor M4 exhibits remarkable movement around the wrist by moving each finger, for example, around the wrist It may be possible to visually check the condition in which the tendon is lifted from the arm. In the following description, at least one muscle of the flexor carpalflex M1, the flexor digit M2, the palmar long muscle M3, and the flexor carpal M4 may be referred to as a main muscle.

そこで、本開示では、ユーザの指の動きについて、各指を動かす筋肉の状態、すなわち、指に近い腕周りである手首周辺の変化(膨縮)を検出することで、各指の動きを検出する。具体的には、センサーアレイ14は、ユーザの指の動きに応じたユーザの左手首周辺における圧力及び圧力変動を示す検出信号を、装置本体12へ出力する。   Therefore, in the present disclosure, with regard to the movement of the user's finger, the movement of each finger is detected by detecting the state of muscles moving each finger, that is, the change (expansion and contraction) around the wrist that is the arm around the finger. Do. Specifically, the sensor array 14 outputs a detection signal indicating pressure and pressure fluctuation around the user's left wrist according to the movement of the user's finger to the device body 12.

図3に、各指を動かす筋肉の状態を検出するセンサの一例であるセンサーアレイ14を示す。図3(A)はセンサーアレイ14の平面図を示し、図3(B)はセンサーアレイ14の側面図を示している。   FIG. 3 shows a sensor array 14 which is an example of a sensor that detects the condition of muscles moving each finger. FIG. 3A shows a plan view of the sensor array 14, and FIG. 3B shows a side view of the sensor array 14.

図3(A)及び図3(B)に示すように、センサーアレイ14は、前腕、すなわち手首周辺に取り付けられるフレキシブルな細長支持基材14Dを備えている。細長支持基材14Dには、指を曲げる場合に働く前腕の主力筋から作用する圧力を各々検出する複数の圧力素子14Aが細長支持基材14Dの前腕側の面に沿って配列された長尺状の圧力検出器14Cが取り付けられている。複数の圧力素子14Aの各々には信号線14Bの一端が接続されており、信号線14Bの各々の他端は、図1に示す装置本体12(入力部121)に接続されている。複数の圧力素子14Aの各々で検出された圧力に応じた各個別信号は、検出信号として信号線14Bを介して装置本体12へ出力される。   As shown in FIGS. 3A and 3B, the sensor array 14 includes a flexible elongated support substrate 14D attached to the periphery of the forearm, that is, the wrist. In the elongated support base 14D, a plurality of pressure elements 14A each for detecting pressure acting from the main muscle of the forearm working when bending a finger is arranged along the forearm side of the elongated support base 14D. The pressure sensor 14C is attached. One end of a signal line 14B is connected to each of the plurality of pressure elements 14A, and the other end of each of the signal lines 14B is connected to the apparatus main body 12 (input unit 121) shown in FIG. Each individual signal corresponding to the pressure detected by each of the plurality of pressure elements 14A is output to the apparatus body 12 as a detection signal via the signal line 14B.

従って、センサーアレイ14から出力される検出信号である複数の圧力素子14Aの各々の個別信号の分布は、主力筋の平静状態(各指に力を与えない状態)から各指を動かした状態に対応する。そこで、センサーアレイ14からの異なる検出信号の各々に、文字情報を予め対応させておくことで、ユーザの指の動きに対応する文字情報の出力が可能になる。このユーザの指の動きに対応する文字情報の出力処理を、装置本体12が実行する。   Therefore, the distribution of the individual signals of each of the plurality of pressure elements 14A, which is a detection signal output from the sensor array 14, is in the state in which each finger is moved from the calm state of the main muscle (state in which no force is applied to each finger). It corresponds. Therefore, by making the character information correspond in advance to each of the different detection signals from the sensor array 14, it becomes possible to output the character information corresponding to the movement of the user's finger. The device body 12 executes output processing of character information corresponding to the movement of the user's finger.

図4に、センサーアレイ14による検出信号の一例を示す。図4(A)はセンサーアレイ14を装着したユーザの指の動きの一例として、ユーザの指を全て折り曲げた状態(所謂、グーの状態)を示している。また、図4(B)は図4(A)の状態におけるセンサーアレイ14の検出信号を示し、図4(c)はセンサーアレイ14周辺の長手方向の断念図を示している。   FIG. 4 shows an example of a detection signal by the sensor array 14. FIG. 4A shows a state in which all the fingers of the user are bent (a so-called state of goo) as an example of the movement of the fingers of the user wearing the sensor array 14. 4 (B) shows a detection signal of the sensor array 14 in the state of FIG. 4 (A), and FIG. 4 (c) shows a discontinuance view in the longitudinal direction around the sensor array 14.

図4(B)に示すように、センサーアレイ14の検出信号には、尺側手根屈筋M1の収縮に対応して個別信号のピークPM1が現れている。また、浅指屈筋M2の収縮に対応して個別信号のピークPM2が現れ、長掌筋M3の収縮に対応して個別信号のピークPM3が現れ、橈側手根屈筋M4の収縮に対応して個別信号のピークPM4が現れている。   As shown in FIG. 4 (B), in the detection signal of the sensor array 14, the peak PM1 of the individual signal appears corresponding to the contraction of the flexor carpal flexor muscle M1. In addition, the peak PM2 of the individual signal appears corresponding to the contraction of the flexor digit M 2, the peak PM 3 of the individual signal corresponding to the contraction of the long palm M 3, and the peak corresponding to the contraction of the carpal flexor M 4 A peak PM4 of the signal appears.

以下の説明では、複数の圧力素子14Aの各々の信号を個別信号と称し、複数の圧力素子14Aの信号群を検出信号と称して説明するが、区別して説明する必要がない場合には、検出信号と称して説明する場合がある。   In the following description, each signal of the plurality of pressure elements 14A is referred to as an individual signal, and a group of signals of the plurality of pressure elements 14A is referred to as a detection signal. It may be described as a signal.

なお、センサーアレイ14は、複数の圧力素子14Aを配列した長尺状の圧力検出器14Cに限定されるものではない。例えば、静電容量型のセンサ及び抵抗型のセンサによる応力センサを1次元上に配列した応力センサーアレイでもよい。   The sensor array 14 is not limited to the long pressure detector 14C in which a plurality of pressure elements 14A are arranged. For example, it may be a stress sensor array in which stress sensors based on capacitive sensors and resistive sensors are arranged in one dimension.

また、センサーアレイ14は、圧力検出器に限定されるものではなく、指を曲げる場合に前腕の主力筋から生じる電力を各々検出する複数の電力素子が、前記細長支持基材の前腕側の面に沿って配列された電力検出器でもよい。
また、手首周辺の変化(例えば、手首の膨縮)による凹凸パターンを光学的に検出する図示しない光学素子を用いて検出するようにしてもよい。
Further, the sensor array 14 is not limited to a pressure detector, and a plurality of power elements each for detecting power generated from a main muscle of a forearm when bending a finger is a surface on the forearm side of the elongated support base It may be a power detector arranged along.
Alternatively, an optical element (not shown) that optically detects an uneven pattern due to a change around the wrist (for example, expansion and contraction of the wrist) may be used for detection.

図5に、ユーザの手首にセンサーアレイ14を装着する場合におけるセンサーアレイ14の一例を模式的に示す。
図5(A)はユーザの手首にセンサーアレイ14を装着した状態の一例を示し、図5(B)はセンサーアレイ14の側面図を示している。図5に示す例では、センサーアレイ14は、細長支持基材14Dとして前腕、すなわち手首周辺に取り付けられるフレキシブルなリストバンドとしている。また、図5に示す例では、リストバンドである細長支持基材14Dに表示部18が内蔵された場合を示している。
FIG. 5 schematically shows an example of the sensor array 14 when the sensor array 14 is attached to the user's wrist.
FIG. 5A shows an example of a state in which the sensor array 14 is attached to the wrist of the user, and FIG. 5B shows a side view of the sensor array 14. In the example shown in FIG. 5, the sensor array 14 is a flexible wristband attached around the forearm, that is, the wrist, as an elongated support substrate 14D. Moreover, in the example shown in FIG. 5, the case where the display part 18 is incorporated in elongate support base material 14D which is a wristband is shown.

図6に、より具体的なセンサーアレイ14の一例を示す。
図6(A)は、リストバンドである細長支持基材14Dの表面に設けられた表示部18に、文字情報が表示された状態を示している。図6(B)は細長支持基材14Dの裏面、すなわちユーザの手首側に設けられたセンサーアレイ14の斜視図を示している。
An example of a more specific sensor array 14 is shown in FIG.
FIG. 6A shows a state in which character information is displayed on the display unit 18 provided on the surface of the elongated support base 14D which is a wristband. FIG. 6 (B) shows a perspective view of the sensor array 14 provided on the back surface of the elongated support substrate 14D, that is, on the wrist side of the user.

ところで、ユーザがリストバンド、すなわち細長支持基材14Dを手首に取り付ける場合、センサーアレイ14とユーザの手首とが密着していることが好ましい。これは、ユーザが指を曲げる場合に働く前腕の主力筋等の筋肉から作用する圧力を複数の圧力素子14Aの各々で検出可能にするためである。そこで、本開示では、ユーザがリストバンド、すなわち細長支持基材14Dを手首に取り付けた場合に、センサーアレイ14をユーザの手首側に押し付ける構造にしている。   By the way, when the user attaches the wristband, that is, the elongated support base 14D to the wrist, it is preferable that the sensor array 14 and the user's wrist are in close contact. This is to make it possible to detect, with each of the plurality of pressure elements 14A, the pressure acting from the muscle such as the main muscle of the forearm that works when the user bends a finger. Therefore, in the present disclosure, when the user attaches the wristband, that is, the elongated support substrate 14D to the wrist, the sensor array 14 is configured to be pressed to the wrist side of the user.

図7に、センサーアレイ14をユーザの手首側に押し付ける構造の一例を示す。
図7に示す例では、センサーアレイ14と細長支持基材14Dとの間に伸縮部材14Eを設けている。図7(A)は収縮状態を示し、図7(B)は伸長状態を示している。なお、図示は省略したが、図7(A)に示す収縮状態を保持するクリップ等の保持部を備えることで、図7(A)に示す収縮状態から図7(B)に示す伸長状態へ移行させることをユーザの操作により行うことができる。
FIG. 7 shows an example of a structure for pressing the sensor array 14 against the wrist of the user.
In the example shown in FIG. 7, a telescopic member 14E is provided between the sensor array 14 and the elongated support base 14D. FIG. 7A shows a contracted state, and FIG. 7B shows an expanded state. Although illustration is omitted, by providing a holding portion such as a clip for holding the contracted state shown in FIG. 7A, the contracted state shown in FIG. 7A to an expanded state shown in FIG. 7B. The migration can be performed by the user's operation.

本開示では、図1に示す装置本体12は、センサーアレイ14の検出信号を用いて、ユーザの指の動きに対応する文字情報との対応関係を求める学習処理及びユーザの指の動きに対応する文字情報の出力処理を実行する。   In the present disclosure, the device body 12 illustrated in FIG. 1 corresponds to learning processing for obtaining a correspondence with the character information corresponding to the movement of the user's finger using the detection signal of the sensor array 14 and the movement of the user's finger. Execute output processing of character information.

図1に示すように、装置本体12は、入力部121、信号処理部122、判定部123、学習部124、識別部125、テンプレート部126、出力部127、及び表示制御部128を備える。装置本体12では、センサーアレイ14からの検出信号が、入力部121を介して信号処理部122に入力されるようになっている。入力部121は、入力側がセンサーアレイ14に接続され、出力側が信号処理部122に接続されており、入力されたセンサーアレイ14の検出信号に対して、例えばノイズ除去等の整形処理を施して出力する機能を有する機能部である。   As shown in FIG. 1, the device body 12 includes an input unit 121, a signal processing unit 122, a determination unit 123, a learning unit 124, an identification unit 125, a template unit 126, an output unit 127, and a display control unit 128. In the device body 12, a detection signal from the sensor array 14 is input to the signal processing unit 122 via the input unit 121. The input unit 121 has an input side connected to the sensor array 14 and an output side connected to the signal processing unit 122. The input detection signal of the sensor array 14 is subjected to shaping processing such as noise removal and output. Function unit having the following function.

なお、情報処理装置10は、本開示の情報処理装置の一例である。判定部123及び識別部125は、本開示の検出部の一例である。識別部125及び出力部127は、本開示の出力部の一例である。表示制御部128及び表示部18は、本開示の表示部の一例である。   The information processing device 10 is an example of the information processing device of the present disclosure. The determination unit 123 and the identification unit 125 are an example of a detection unit of the present disclosure. The identification unit 125 and the output unit 127 are an example of the output unit of the present disclosure. The display control unit 128 and the display unit 18 are examples of the display unit of the present disclosure.

信号処理部122は、入力された検出信号、すなわち複数の個別信号を圧力に換算した圧力信号へ変換する信号処理を行う機能部である。信号処理部122の出力側は、判定部123を介して学習部124又は識別部125に接続可能に構成されており、信号処理された圧力信号を装置本体12の動作モードに応じて学習部124又は識別部125へ出力するようになっている。   The signal processing unit 122 is a functional unit that performs signal processing to convert an input detection signal, that is, a plurality of individual signals into pressure signals converted to pressure. The output side of the signal processing unit 122 is configured to be connectable to the learning unit 124 or the identification unit 125 via the determination unit 123, and the pressure signal subjected to the signal processing is learned according to the operation mode of the apparatus main body 12. Alternatively, it is output to the identification unit 125.

判定部123は、装置本体12の動作モードを、入力操作モード及び学習モードの何れか一方に設定するスイッチとして機能する機能部である。入力操作モードは、ユーザの指の動きに対応する文字情報を出力するモードである。入力操作モードでは、判定部123が信号処理部122と識別部125とを連結する。一方、学習モードは、入力操作モードでユーザの指の動きに対応する文字情報を出力するためのユーザの指の動きと、そのユーザの指の動きに対応する文字情報との対応関係を学習するモードである。学習モードでは、判定部123が信号処理部122と学習部124とを連結する。   The determination unit 123 is a functional unit that functions as a switch that sets the operation mode of the apparatus body 12 to any one of the input operation mode and the learning mode. The input operation mode is a mode for outputting character information corresponding to the movement of the user's finger. In the input operation mode, the determination unit 123 connects the signal processing unit 122 and the identification unit 125. On the other hand, the learning mode learns the correspondence between the movement of the user's finger for outputting the character information corresponding to the movement of the user's finger in the input operation mode and the character information corresponding to the movement of the user's finger. It is a mode. In the learning mode, the determination unit 123 connects the signal processing unit 122 and the learning unit 124.

モードの設定、すなわち、入力操作モード及び学習モードの何れか一方のモードへの設定は、自動判定又はユーザの操作による判定に応じて設定されるように判定部123に予め定められている。自動判定による設定の一例には、情報処理装置10の装置本体12への電源投入回数によりモードが設定されることが挙げられる。例えば、情報処理装置10の装置本体12に最初の電源投入時に学習モードが設定され、次回以降は入力操作モードが設定されるように判定部123を構成すればよい。一方、ユーザの操作の判定による設定の一例には、ユーザの指の動きによるモード設定動作でモードが設定されることが挙げられる。例えば、入力操作モード及び学習モードの何れか一方のモードへの移行に対するユーザの指の動き(以下、モード判定動作という。)を予め定めておき、判定部123がモード判定動作として特定されたユーザの指の動きに応じて学習モードまたは入力操作モードを設定するようにすればよい。なお、ユーザの指の動きの特定に関する詳細は後述する。   The setting of the mode, that is, the setting to any one of the input operation mode and the learning mode is determined in advance by the determination unit 123 so as to be set according to the automatic determination or the determination by the user operation. One example of setting by automatic determination is that the mode is set by the number of times of powering on the device main body 12 of the information processing device 10. For example, the determination unit 123 may be configured such that the learning mode is set to the apparatus main body 12 of the information processing apparatus 10 at the first power-on and the input operation mode is set from the next time onwards. On the other hand, as an example of setting based on the determination of the operation of the user, the mode may be set by the mode setting operation by the movement of the finger of the user. For example, the movement of the user's finger (hereinafter referred to as mode determination operation) with respect to the transition to one of the input operation mode and the learning mode (hereinafter referred to as mode determination operation) The learning mode or the input operation mode may be set according to the movement of the finger. The details regarding the specification of the movement of the user's finger will be described later.

なお、判定部123は、例えば、モード判定スイッチを備えて、モード判定スイッチで入力操作モード及び学習モードの何れか一方に切り替わる、すなわち、信号処理部122と識別部125又は学習部124の何れか一方とを連結するようにしてもよい。   Note that the determination unit 123 includes, for example, a mode determination switch, and switches to either the input operation mode or the learning mode by the mode determination switch, that is, any one of the signal processing unit 122 and the identification unit 125 or the learning unit 124. You may make it connect with one side.

学習部124は、学習モードが設定された場合に、センサーアレイ14からの検出信号を用いて、ユーザの指の動きに対応する文字情報の対応関係を求めて(学習して)、その対応関係をテンプレート部へ格納する機能部である。学習部124の第1出力側は、表示制御部128に接続されており、第2出力側はテンプレート部126に接続されている。学習モードでは、学習部124は、対応関係を学習するための文字情報が表示部18に表示されるように表示制御部128へ文字情報を出力する。次に、学習部124は、表示部18に表示された文字情報に対応する指の動きをユーザが行った結果のセンサーアレイ14からの検出信号を用いて、ユーザの指の動きに対応する文字情報の対応関係を求める(学習する)。そして、学習部124は、学習結果の対応関係をテンプレート部126に格納する。なお、学習モードでの学習部124における学習処理の詳細は後述する。   When the learning mode is set, the learning unit 124 determines (learns) the correspondence of the character information corresponding to the movement of the user's finger using the detection signal from the sensor array 14 and the correspondence Are stored in the template unit. The first output side of the learning unit 124 is connected to the display control unit 128, and the second output side is connected to the template unit 126. In the learning mode, the learning unit 124 outputs the character information to the display control unit 128 so that the character information for learning the correspondence relationship is displayed on the display unit 18. Next, the learning unit 124 uses the detection signal from the sensor array 14 as a result of the user performing the movement of the finger corresponding to the character information displayed on the display unit 18, and the character corresponding to the movement of the user's finger Find (learn) the correspondence of information. Then, the learning unit 124 stores the correspondence of the learning results in the template unit 126. The details of the learning process in the learning unit 124 in the learning mode will be described later.

識別部125は、入力操作モードが設定された場合、ユーザの指の動きに対応する文字情報を識別する機能を有する機能部である。テンプレート部126には、ユーザの指の動きと文字情報との複数の対応関係が記憶されており、識別部125は、テンプレート部126に記憶されたユーザの指の動きと文字情報との対応関係を参照可能になっている。すなわち、識別部125は、第1の入力側が信号処理部122の出力側に接続され、第2の入力側がテンプレート部126に接続されており、テンプレート部126に記憶された対応関係を用いて、ユーザの指の動きを判別し、判別したユーザの指の動きに対応する文字情報を識別する。また、識別部125は、出力側が出力部127に接続されており、ユーザの指の動きに対応する文字情報を出力部127へ出力する。なお、入力操作モードでの識別部125における入力操作処理の詳細は後述する。   The identification unit 125 is a functional unit having a function of identifying character information corresponding to the movement of the user's finger when the input operation mode is set. The template unit 126 stores a plurality of correspondences between the movement of the user's finger and the character information, and the identification unit 125 corresponds to the correspondence between the movement of the user's finger stored in the template unit 126 and the character information. It is possible to refer to. That is, the first input side of the identification unit 125 is connected to the output side of the signal processing unit 122, the second input side is connected to the template unit 126, and the correspondence relationship stored in the template unit 126 is used. The movement of the user's finger is determined, and the character information corresponding to the determined movement of the user's finger is identified. The identification unit 125, whose output side is connected to the output unit 127, outputs character information corresponding to the movement of the user's finger to the output unit 127. The details of the input operation process in the identification unit 125 in the input operation mode will be described later.

出力部127は、装置本体12の外部装置に文字情報を出力する機能を有する機能部である。本開示では、外部装置の一例として他の情報処理装置と通信する通信部16、及びディスプレイ等の表示部18を装置本体12に接続した場合を説明する。まず、出力部127は、通信部16に接続されており、入力された文字情報を、通信部16へ出力するようになっている。この通信部16が文字情報を送信することにより、情報処理装置10と異なる情報処理装置において、ユーザの指の動きに対応する文字情報が受信される。また、出力部127は、表示制御部128を介して表示部18にも接続されている。表示制御部128は、出力部127からの文字情報が表示部18に表示されるように、表示用信号を表示部18へ出力するようになっている。これにより、ユーザの指の動きに対応する文字情報が表示部18に表示される。   The output unit 127 is a functional unit having a function of outputting character information to an external device of the apparatus main body 12. In the present disclosure, as an example of an external device, a case where a communication unit 16 communicating with another information processing apparatus and a display unit 18 such as a display are connected to the apparatus main body 12 will be described. First, the output unit 127 is connected to the communication unit 16 so as to output the input character information to the communication unit 16. When the communication unit 16 transmits character information, character information corresponding to the movement of the user's finger is received by an information processing apparatus different from the information processing apparatus 10. The output unit 127 is also connected to the display unit 18 via the display control unit 128. The display control unit 128 outputs a display signal to the display unit 18 so that the character information from the output unit 127 is displayed on the display unit 18. As a result, character information corresponding to the movement of the user's finger is displayed on the display unit 18.

なお、本開示では、外部装置の一例として通信部16及び表示部18を装置本体12に接続した場合を説明するが、外部装置は、通信部16及び表示部18の何れか一方でもよい。また、外部装置は、通信部16及び表示部18に限定されるものではなく、その他の装置であってもよい。   Although the present disclosure describes the case where the communication unit 16 and the display unit 18 are connected to the device body 12 as an example of the external device, any one of the communication unit 16 and the display unit 18 may be used as the external device. Also, the external device is not limited to the communication unit 16 and the display unit 18, and may be another device.

次に、学習モードにおいて学習部124で実行される学習処理を説明する。
学習処理は、ユーザの指の動きと、そのユーザの指の動きに対応する文字情報の対応関係について、ユーザの指の異なる複数の動きの各々を識別するための識別性を高めた対応関係を求める処理である。学習部124は、判定部123により学習モードが設定された場合に、センサーアレイ14からの検出信号を用いて、ユーザの指の動きに対する文字情報の対応関係を求める。そして、求めた対応関係をテンプレート部126へ格納する。
Next, the learning process performed by the learning unit 124 in the learning mode will be described.
The learning process relates to the correspondence between the movement of the user's finger and the character information corresponding to the movement of the user's finger, in which the identification is enhanced to identify each of a plurality of different movements of the user's finger. It is a process to obtain. When the learning mode is set by the determination unit 123, the learning unit 124 uses the detection signal from the sensor array 14 to obtain the correspondence of the character information to the movement of the user's finger. Then, the obtained correspondence relationship is stored in the template unit 126.

まず、ユーザの指の動きを説明する。
センサーアレイ14からの検出信号は、ユーザの各指の動きを示している。すなわち、ユーザの各指の異なる動きに応じて検出信号がセンサーアレイ14から出力される。例えば、各指を折り曲げた位置に応じてセンサーアレイ14からの検出信号は、変化する。すなわち、左手の指各々の折り曲げた位置による左手の各指の異なる状態に対応して異なる検出信号がセンサーアレイ14から出力される。
First, the movement of the user's finger will be described.
The detection signal from the sensor array 14 indicates the movement of each finger of the user. That is, detection signals are output from the sensor array 14 according to different movements of each finger of the user. For example, the detection signal from the sensor array 14 changes according to the position where each finger is bent. That is, different detection signals are output from the sensor array 14 corresponding to different states of each finger of the left hand according to the bent position of each finger of the left hand.

ところが、左手の指各々を折り曲げることによる左手の各指の異なる状態を定めることは、指の折り曲げ方を制限する等のように、自在に指を折り曲げることに比べてユーザへの負担が増加する。また、僅かな指の折り曲げでは、センサーアレイ14から出力される検出信号の差異が少なく、高精度で検出信号を判別する等のように装置が複雑化する場合もある。   However, defining different states of each finger of the left hand by bending each finger of the left hand increases the burden on the user compared to bending the fingers freely, such as restricting how to bend the fingers. . Further, with slight finger bending, the difference between the detection signals output from the sensor array 14 is small, and the device may be complicated as if the detection signals are determined with high accuracy.

そこで、本開示では、一般的な指動作によってユーザの指の動きを検出する。本開示では、一般的な指動作の一例として指同士を接触させる指動作をユーザの指の動きとして用いる。
一方、左手において、指同士の接触可能な部位は多数あるため、接触位置のズレによりユーザの指の動きを誤って検出する虞がある。このため、本開示では、指同士の接触可能な部位を予め定めている。
Therefore, in the present disclosure, the motion of the user's finger is detected by general finger motion. In the present disclosure, as an example of a general finger motion, a finger motion in which fingers are brought into contact with each other is used as a motion of a user's finger.
On the other hand, in the left hand, since there are many contactable parts between the fingers, there is a possibility that the movement of the finger of the user may be erroneously detected due to the deviation of the contact position. For this reason, in the present disclosure, the contactable portions of the fingers are predetermined.

図2に示すように、ユーザの左手では、親指Uoは、1つの関節によって指の根元から基節、末節と呼ばれる2つの指節に分けられている。また、親指以外の指である人指し指Us、中指Un、薬指Uk、小指Ucは、それぞれ2つの関節によって指の根本から基節、中節、末節と呼ばれる3つの指節に分けられている。ここで、親指以外の指における指節による3x4の12個の領域の各々は、親指Uoの接触が可能である。すなわち、親指Uoの末節の部位と、人指し指Us、中指Un、薬指Uk、及び小指Ucの基節、中節、及び末節の各々の部位とは接触が可能である。   As shown in FIG. 2, in the user's left hand, the thumb Uo is divided by a joint from the base of the finger into two phalanxes called a base and a last. In addition, the index finger Us, the middle finger Un, the ring finger Uk, and the little finger Uc, which are fingers other than the thumb, are each divided into three phalanxes called base, middle, and last from the base of the finger by two joints. Here, each of the 12 areas of 3x4 by the phalanx on the finger other than the thumb is capable of the contact of the thumb Uo. That is, it is possible to make contact with the end of the thumb Uo and each of the base, middle and end of the index finger Us, the middle finger Un, the ring finger Uk, and the little finger Uc.

そこで、本開示では、指同士を接触させる部位として、親指Uoの末節の部位と、人指し指Us、中指Un、薬指Uk、及び小指Ucの基節、中節、及び末節の何れかの部位とを定める。従って、親指Uoの末節の部位と、人指し指Us、中指Un、薬指Uk、及び小指Ucの基節、中節、及び末節の各々の部位との接触を、センサーアレイ14からの検出信号を用いて判別することにより、ユーザの指の動きを識別することができる。なお、本開示では、指同士を接触させる場合に、親指Uoを入力操作における指示側の予め定めた指とし、他の指を被指示側の指とする。   Therefore, in the present disclosure, as a site for bringing the fingers into contact with each other, the last section of the thumb Uo and any of the base section of the index finger Us, the middle finger Un, the ring finger Uk, and the little finger Uc, the middle section, and the last section Determined. Therefore, the detection signal from the sensor array 14 is used to contact the site of the last segment of the thumb Uo with each of the base, middle, and last segments of the index finger Us, the middle finger Un, the ring finger Uk, and the small finger Uc. By determining, it is possible to identify the movement of the user's finger. In the present disclosure, when the fingers are brought into contact with each other, the thumb Uo is a predetermined finger on the instruction side in the input operation, and the other finger is a finger on the instructed side.

なお、親指Uoが接触する部位は、掌の一部を含めることができる。例えば、人指し指Us、中指Un、薬指Uk、及び小指Ucの各側の掌の部位は、各指の基節に隣接する部位であり、親指Uoによる接触が可能である。従って、本開示では、指同士の接触は、親指Uoの末節の部位と、他の指の指節の部位、又は他の指の指節の部位及び掌の部位とを定めることができる。   In addition, the site | part which the thumb Uo contacts can include a part of palm. For example, the site of the palm on each side of the index finger Us, the middle finger Un, the ring finger Uk, and the little finger Uc is a site adjacent to the base of each finger, and contact with the thumb Uo is possible. Thus, in the present disclosure, the finger-to-finger contact may define the end segment of the thumb Uo and the other finger segments or the other finger segments and the palm segment.

ここで、ユーザの指の動きを検出する場合における指同士の接触は、接触時に生じる検出信号の振動振幅によって検出することができる。   Here, the contact between the fingers when detecting the movement of the user's finger can be detected by the vibration amplitude of the detection signal generated at the time of the contact.

図8に、ユーザの指の動きに伴ってセンサーアレイ14から出力された検出信号の一例を示す。
図8に示す例では、センサーアレイ14から出力された複数の圧力素子14Aの各個別信号の平均値を、検出信号とした場合を示している。
FIG. 8 shows an example of the detection signal output from the sensor array 14 in accordance with the movement of the user's finger.
In the example shown in FIG. 8, the case where the average value of each individual signal of several pressure element 14A output from the sensor array 14 was made into a detection signal is shown.

指同士が接触した場合、主力筋である、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の少なくとも1つの筋肉は、振動する。この振動は、センサーアレイ14から出力された検出信号に現れる。   When the fingers are in contact with each other, at least one of the main muscles, the flexor carpalflex M1, the flexor digit M2, the palmar long muscle M3, and the carpal flexor M4 vibrates. This vibration appears in the detection signal output from the sensor array 14.

図8に示すように、検出信号の特性W0は、ユーザの指を全て折り曲げた状態(所謂、グーの状態)における検出信号の特性を示している。ユーザの指を全て折り曲げた状態では、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の各々が変化し、ユーザの1つの指のみを動かした場合に比べて検出信号の大きさが大きくなる。また、ユーザの指を全て折り曲げた状態では、親指Uo以外の指の末節の部位が掌に接触して検出信号は時間t1で最大値となり、最大振幅H0で振動する。その振動中心の検出信号値Dav0を、ユーザの指を全て折り曲げた状態(所謂、グーの状態)における検出信号の強度とする。   As shown in FIG. 8, the characteristic W0 of the detection signal indicates the characteristic of the detection signal in a state where all the fingers of the user are bent (a so-called state of goo). In the state where the user's fingers are all bent, each of the ulnar carpal flexor M1, the flexor digit M2, the palmar muscle M3, and the flexor cario M4 changes, and only one user's finger is moved. In comparison, the magnitude of the detection signal is increased. Further, in a state in which the user's fingers are all bent, the end segments of the fingers other than the thumb Uo contact the palm, and the detection signal reaches its maximum value at time t1 and vibrates with the maximum amplitude H0. The detection signal value Dav0 of the vibration center is taken as the strength of the detection signal in a state where all the user's fingers are bent (a state of so-called goo).

また、特性W1は、親指Uoの末節の部位と、人指し指Usの基節の部位とを接触した状態の特性を示している。特性W1では、時間t2で最大値となり、最大振幅H1で振動し、その振動中心の検出信号値Dav1の検出信号の強度となっている。さらに、図8に示す検出信号の特性W2は、親指Uoの末節の部位と、特性W1と同一の指である人指し指Usの中節の部位とを接触した状態の特性を示している。特性W2では、時間t3で最大値となり、最大振幅H2で振動し、その振動中心の検出信号値Dav2の検出信号の強度となっている。   Further, the characteristic W1 indicates the characteristic in a state in which the end segment of the thumb Uo is in contact with the base segment of the index finger Us. In the characteristic W1, the value becomes maximum at time t2, vibrates with the maximum amplitude H1, and becomes the strength of the detection signal of the detection signal value Dav1 of the vibration center. Furthermore, the characteristic W2 of the detection signal shown in FIG. 8 shows the characteristic in a state in which the end segment of the thumb Uo is in contact with the middle segment of the index finger Us which is the same finger as the characteristic W1. The characteristic W2 has a maximum value at time t3 and vibrates with the maximum amplitude H2, and the intensity of the detection signal of the detection signal value Dav2 of the vibration center is obtained.

特性W3は、親指Uoの末節の部位と、人指し指Usの基節の部位とを時系列で2回連続して接触した状態の特性を示している。特性W1では、時間t4、t5で最大値となり、最大振幅H1で振動し、その振動中心の検出信号値Dav1の検出信号の強度となっている。   The characteristic W3 indicates the characteristic in a state in which the last node portion of the thumb Uo and the base portion of the index finger Us are in contact with each other twice in time series. In the characteristic W1, the maximum value is obtained at the times t4 and t5, and oscillation occurs at the maximum amplitude H1, and the intensity of the detection signal of the detection signal value Dav1 of the vibration center is obtained.

このように、指同士の接触部位に応じて検出信号の強度が変化する。従って、検出信号の強度から、親指Uoの末節の部位が接触した同一の指において、接触部位が変化したことを判別できる。また、同一部位を複数回接触した場合は検出信号の強度に変化は零又は微小である。すなわち、親指Uoの末節の部位を同一の指の異なる部位に接触させた場合、主力筋の変化は類似して検出信号の強度変化となる。従って、検出信号の強度変化を検出することで、少なくとも親指Uoの末節の部位が同一の指の異なる部位に接触された状態に移行したことが検出される。これにより、指同士の異なる接触部位による検出信号の強度の各々を特定すれば、ユーザの指の動きを識別することができる。   Thus, the strength of the detection signal changes according to the contact site between the fingers. Therefore, from the strength of the detection signal, it can be determined that the contact site has changed in the same finger touched by the end segment of the thumb Uo. In addition, when the same site is touched multiple times, the change in the intensity of the detection signal is zero or small. That is, when the last part of the thumb Uo is brought into contact with different parts of the same finger, the change in the main muscle is similar to the change in the intensity of the detection signal. Therefore, by detecting the change in the intensity of the detection signal, it is detected that at least the end node part of the thumb Uo has shifted to a state in which it is in contact with different parts of the same finger. Thereby, the movement of the finger of the user can be identified by specifying each of the intensities of the detection signals from different contact sites between the fingers.

ところで、指同士の接触として、親指Uoの末節の部位と親指Uo以外の指の指節の部位とに接触してから異なる指の指節の部位に接触を移行した場合、検出信号の強度が一致又は近い強度になる場合がある。一方、親指Uoの末節に対する異なる指の指節への接触では、主力筋の変化が異なる。すなわち、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の各々に対応する圧力素子14Aの各個別信号の強度が異なって、センサーアレイ14の信号分布(図4(B)参照)が異なる信号分布パターンとなる。従って、人指し指Us、中指Un、薬指Uk、及び小指Ucの各々について、親指Uoの末節の部位を接触させた場合における信号分布を予め検出し、信号分布パターンとして記憶しておけば、信号分布パターンを用いて親指が接触された他の指を判別できる。この予め検出する信号分布パターンは、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の各々に対応する圧力素子14Aの各個別信号の強度値を用いることができる。また、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の各々に対応する圧力素子14Aの各個別信号の強度の相対関係でもよい。   By the way, when contact is made between the last part of the thumb Uo and the part of the phalange of a finger other than the thumb Uo as contact between fingers, when the contact is transferred to the different parts of the phalange of the finger, the strength of the detection signal is There may be coincidence or near intensity. On the other hand, the contact of different finger segments with the last segment of the thumb Uo results in different changes in the main muscles. That is, the intensity of each individual signal of pressure element 14A corresponding to each of the flexor carpal flexor M1, the flexor digit M2, the palmar muscle M3, and the groin flexor M4 is different, and the signal distribution of the sensor array 14 ( FIG. 4B shows different signal distribution patterns. Therefore, for each of the index finger Us, middle finger Un, ring finger Uk, and little finger Uc, the signal distribution in the case where the last segment of the thumb Uo is in contact is detected in advance and stored as a signal distribution pattern. Can be used to determine the other finger with which the thumb is in contact. The signal distribution pattern to be detected in advance uses intensity values of individual signals of the pressure element 14A corresponding to each of the flexor carpal flexor M1, the flexor digitus flexor M2, the long palmar muscle M3, and the flexor carpal flexor M4. Can. In addition, the relative relationship of the strengths of the individual signals of the pressure element 14A corresponding to each of the flexor carpal flexor muscle M1, the flexor digitus flexor muscle M2, the long palmar muscle M3, and the flexor carpal flexor muscle M4 may be used.

ここで、指同士を接触させる場合に、親指Uoを入力操作における指示側の予め定めた指とし、他の指を被指示側の指とした場合、親指Uoによる指示で識別可能な指節の部位は少なくとも12か所である。一方、学習処理で指の動きに対応する文字情報は、50音、英数字及び記号等の文字があり、対応関係を構築する場合における領域として、十分ではない。そこで、本開示では、文字情報を複数のグループに分割し、各グループの代表として予め定めた文字情報(以下、代表文字情報という。)を、親指Uo以外の指の指節の部位に対応させる。そして、同一の指節でグループ内の文字情報の対応を切り替えるように構成する。   Here, when the fingers are brought into contact with each other, the thumb Uo is a predetermined finger on the instruction side in the input operation, and the other finger is a finger on the indicated side. There are at least 12 sites. On the other hand, the character information corresponding to the movement of the finger in the learning process includes 50 sounds, characters such as alphanumeric characters and symbols, and is not sufficient as a region in the case of constructing the correspondence. Therefore, in the present disclosure, character information is divided into a plurality of groups, and character information predetermined as a representative of each group (hereinafter referred to as representative character information) is made to correspond to the finger segment of a finger other than the thumb Uo. . Then, the correspondence of the character information in the group is switched by the same phrase.

本開示では、ユーザの指の動きは、指同士の接触、及び同一部位への接触回数で識別可能なものとする。すなわち、指節の同一部位に対する接触回数を含めてユーザの指の動きとする。これにより、グループ分けしたグループ内の文字情報を、1つの指節に対応させることができる。例えば、指同士の接触で同一部位への1回の接触で代表文字情報に対応させ、時系列に連続する接触回数に応じてグループ内の文字情報に順次対応させる。具体的な一例では、50音について「あ」行の文字情報を代表文字情報とし、代表文字情報と、代表文字情報における「い」行から「お」行の文字情報とを1グループに定める。例えば、指同士の1回の接触で代表文字情報「あ」が対応し、同一部位への2回の接触で文字情報「い」が対応するように、接触回数に応じて順次、グループ内の文字情報が対応される。   In the present disclosure, the movement of the user's finger is to be distinguishable by finger-to-finger contact and the number of contacts to the same site. That is, the number of contacts to the same part of the phalanx is included as movement of the user's finger. Thereby, the character information in the grouped group can be made to correspond to one phrase. For example, it is made to respond | correspond to representative character information by one touch to the same site | part by contact of fingers, and it is made to respond | correspond sequentially to the character information in a group according to the contact frequency which followed in time series. In a specific example, the character information of the "A" line is set as representative character information for the 50 sounds, and the representative character information and the character information of the "I" line to the "O" line in the representative character information are defined in one group. For example, the representative character information "A" corresponds to one contact between fingers, and the character information "I" corresponds to two contacts to the same part, sequentially according to the number of contacts. Character information is supported.

また、文字情報には、ひらがな、英数字、及び記号等があり、これらの全てを指同士の接触、及び同一部位への接触回数で識別可能なものとすることは困難である。そこで、本開示では、文字情報を、文字の種類、例えば、ひらがな、英数字、及び記号で分類し、分類した文字の種類毎にテンプレートを定めている(詳細は後述)。   The character information includes hiragana, alphanumeric characters, symbols and the like, and it is difficult to make all of them distinguishable by the contact between fingers and the number of contacts to the same part. Therefore, in the present disclosure, character information is classified by character types, for example, hiragana, alphanumeric characters, and symbols, and a template is defined for each classified character type (details will be described later).

図9に、被指示側の各指の各指節に文字情報を対応させた一例を模式的にを示す。図9では、ユーザの指の指節に文字情報が描画されるのではなく、各指の各指節に文字情報が対応されたことを模式的に示したものである。図9(A)は第1テンプレートとして50音について「あ」行の文字情報を代表文字情報を対応させた一例を示している。また、図9(B)は第2テンプレートとして矢印記号情報を代表文字情報を対応させた一例を示している。   FIG. 9 schematically shows an example in which character information is made to correspond to each phalanx of each finger on the indicated side. In FIG. 9, character information is not drawn on the phalanx of the user's finger, but schematically shows that the character information is associated with each phalanx of each finger. FIG. 9A shows an example in which the character information of the “A” line is made to correspond to the representative character information for the 50 sounds as the first template. Further, FIG. 9B shows an example in which arrow symbol information is made to correspond to representative character information as a second template.

従って、学習処理では、以上説明したセンサーアレイ14の検出信号により特定されたユーザの指の動きに、文字情報を対応させる。すなわち、センサーアレイ14の検出信号に基づいて、接触された指、指節、接触時の信号分布パターン、及び同一部位への接触回数の各々によって、ユーザの指の動きを特定し、特定したユーザの指の動きと文字情報との対応関係を求める。   Therefore, in the learning process, the character information is made to correspond to the movement of the user's finger specified by the detection signal of the sensor array 14 described above. That is, based on the detection signal of the sensor array 14, the user who identified the movement of the user's finger by the touched finger, the phalanx, the signal distribution pattern at the time of contact, and the number of contacts to the same site The correspondence between the finger movement and the character information is determined.

次に、学習モードにおいて実行される学習処理を学習手順に従って説明する。学習処理は、学習部124において第1学習手順から第4学習手順までが順次実行される。
学習処理の第1学習手順は、これから学習を行う指の動きを促す情報をユーザに提示する処理である。ここでは、指同士を接触することを促す表示情報を表示する処理が行われる。すなわち、図1に示す学習部124は、指同士を接触することを促す表示情報を表示制御部へ出力する。表示制御部128は学習部124からの表示情報が表示部18に表示されるように制御する。この表示情報は、少なくとも親指Uoを動かして、人指し指Us、中指Un、薬指Uk、及び小指Ucの何れか1つを指定した指への接触を、ユーザに促す情報である。また、表示情報は、指同士の接触を複数回行わせることを促す情報を含む。すなわち、指同士の接触を複数回行わせることを促す表示情報を表示部18へ表示する処理が行われる。
Next, the learning process performed in the learning mode will be described according to the learning procedure. In the learning process, the learning unit 124 sequentially executes the first learning procedure to the fourth learning procedure.
The first learning procedure of the learning process is a process of presenting to the user information prompting the movement of a finger to be learned. Here, processing is performed to display display information prompting contact between the fingers. That is, the learning unit 124 illustrated in FIG. 1 outputs, to the display control unit, display information prompting contact between the fingers. The display control unit 128 controls the display information from the learning unit 124 to be displayed on the display unit 18. This display information is information that urges the user to touch at least the thumb Uo and the finger that specifies any one of the index finger Us, the middle finger Un, the ring finger Uk, and the little finger Uc. In addition, the display information includes information prompting the fingers to make contact with each other a plurality of times. That is, processing is performed to display on the display unit 18 display information prompting the user to make contact between the fingers a plurality of times.

表示部18に表示する表示情報は、ユーザが直感的に理解可能なメッセージが好ましい。例えば、親指Uoの末節の部位と人指し指Usの指節の部位との接触による指同士の接触を促す表示情報には、「親指と人差し指を接触させて下さい」等のメッセージが挙げられる。また、指の指節の部位を促す表示情報には、末節の部位に対応する「人差し指の先端」、中節の部位に対応する「人差し指の中腹」、及び基節の部位に対応する「人差し指の末端」等のメッセージが挙げられる。   The display information displayed on the display unit 18 is preferably a message that can be intuitively understood by the user. For example, the display information which urges finger-to-finger contact due to contact between the last segment of the thumb Uo and the portion of the phalanx of the index finger Us includes a message such as "Please touch the thumb and forefinger". In addition, the display information for prompting the finger segment of the finger includes the “forefinger tip” corresponding to the last segment, the “index finger middle” corresponding to the middle segment, and the “index finger” corresponding to the root segment And the like.

次の第2学習手順は、センサーアレイ14の検出信号を取得し、ユーザの指の動きに対する検出信号の信号形態を特定する処理である。ユーザは、第1学習手順で表示部18に表示された表示情報を参照して指定された指同士の接触による指の動きを行う。このユーザの指の動きに対するセンサーアレイ14の検出信号が取得される。そして、センサーアレイ14の検出信号を用いて、ユーザの指の動きの信号形態を示す情報を特定する。本開示では、センサーアレイ14の検出信号を用いて特定する信号形態を示す情報として、接触時における検出信号の振動振幅vid、検出信号の強度Dav、センサーアレイ14の信号分布パターンPt、及び複数回連続して接触した場合の時間間隔Thの各情報を用いる。   The next second learning procedure is a process of acquiring the detection signal of the sensor array 14 and specifying the signal form of the detection signal with respect to the movement of the user's finger. The user refers to the display information displayed on the display unit 18 in the first learning procedure, and moves the finger by the contact between the specified fingers. A detection signal of the sensor array 14 with respect to the movement of the user's finger is obtained. Then, the detection signal of the sensor array 14 is used to specify information indicating the signal form of the movement of the user's finger. In the present disclosure, as information indicating the signal form specified using the detection signal of the sensor array 14, the vibration amplitude vid of the detection signal at the time of contact, the intensity Dav of the detection signal, the signal distribution pattern Pt of the sensor array 14, and multiple times Each piece of information of the time interval Th in the case of continuous contact is used.

接触時における検出信号の振動振幅vidは、指同士の接触を検出するために用いる情報である。検出信号の強度Davは、指同士が接触された場合における指節を検出するために用いる情報である。例えば、検出信号の強度Davは、次の(1)式を用いて導出する。また、検出信号の振動振幅vidは、検出信号の強度Davを用いて次に示す(2)式を用いて導出する。
Dav=(D1+D2+D3+・・・+Dm)/m ・・・(1)
vid=Dav(max)−Dav(min) ・・・(2)
但し、Di(1≦i≦m)はi番目の圧力素子14Aの個別信号の強度であり、mは圧力素子14Aの総数である。また、Dav(max)は強度Davの最大値であり、Dav(min)は強度Davの最小値である。
The vibration amplitude vid of the detection signal at the time of contact is information used to detect contact between fingers. The strength Dav of the detection signal is information used to detect the phalanx when the fingers are in contact with each other. For example, the intensity Dav of the detection signal is derived using the following equation (1). Further, the vibration amplitude vid of the detection signal is derived using the intensity Dav of the detection signal using the following equation (2).
Dav = (D1 + D2 + D3 +... + Dm) / m (1)
vid = Dav (max) -Dav (min) (2)
However, Di (1 ≦ i ≦ m) is the strength of the individual signal of the ith pressure element 14A, and m is the total number of pressure elements 14A. Also, Dav (max) is the maximum value of the intensity Dav, and Dav (min) is the minimum value of the intensity Dav.

なお、検出信号は、雑音抑制のため、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4を主力筋として、各々に対応する圧力素子14Aの個別信号を用いることが好ましい。この場合、主力筋は、例えば、センサーアレイ14における圧力素子14Aの個別信号の各々の信号分布のピークが最大強度から4番目の強度までの圧力素子14Aを特定すればよい(図4(B)参照)。また、検出信号の強度Davは、判別性を高めるため、圧力素子14Aの個別信号に予め定めた係数を乗じて、重みを付加してもよい。なお、以下の説明では、4つの主力筋に対応する4つの圧力素子14Aの個別信号による検出信号を用いる場合を説明する。   In addition, the detection signal is an individual signal of pressure element 14A corresponding to each with the measure power of flexor muscle M1, the flexor digit M 2 muscle, the palmar long muscle M 3 and the groin flexor muscle M 4 as main muscles for noise suppression. It is preferred to use. In this case, the main muscle may specify, for example, the pressure element 14A from the maximum intensity to the fourth intensity at the peak of the signal distribution of the individual signals of the pressure element 14A in the sensor array 14 (FIG. 4B) reference). Further, the strength Dav of the detection signal may be weighted by multiplying the individual signal of the pressure element 14A by a predetermined coefficient in order to enhance the discriminability. In the following description, a case where detection signals by individual signals of four pressure elements 14A corresponding to four main lines are used will be described.

センサーアレイ14の信号分布パターンPtは、指同士が接触された場合における指を検出するために用いる情報である。複数回連続して接触した場合の時間間隔Thは、統一部位で指同士が複数回接触された場合における1回の時間間隔を検出するために用いる情報である。センサーアレイ14の信号分布パターンPtは、前記4種類の筋M1からM4を主力筋として、対応する圧力素子14Aの個別信号の強度を用いる。主力筋の個別信号による強度を用いた信号分布パターンPtは、次に示す(3)式で表せる。
Pt=(DM1、DM2、DM3、DM4) ・・・(3)
ただし、DM1、DM2、DM3、DM4は、尺側手根屈筋M1、浅指屈筋M2、長掌筋M3、及び橈側手根屈筋M4の各々に対応する圧力素子14Aの個別信号の強度である。
The signal distribution pattern Pt of the sensor array 14 is information used to detect a finger when the fingers are in contact with each other. The time interval Th in the case where the finger is touched a plurality of times consecutively is information used to detect one time interval in the case where the fingers are touched a plurality of times at the unified site. The signal distribution pattern Pt of the sensor array 14 uses the strengths of the individual signals of the corresponding pressure elements 14A, with the four types of muscles M1 to M4 as main muscles. The signal distribution pattern Pt using the intensity of the individual signals of the main muscle can be expressed by the following equation (3).
Pt = (D M1 , D M2 , D M3 , D M4 ) (3)
However, D M1 , D M2 , D M3 and D M4 are individual signals of the pressure element 14A corresponding to each of the flexor carpal flexor M1, the flexor digit M 2, the palmar muscle M 3 and the flexor carpal M 4 It is strength.

次の第3学習手順は、異なるユーザの指の動きの各々の信号形態を示す情報を特定するまで、第1学習手順及び第2学習手順を繰り返す処理である。第3学習手順によって、異なる指同士の接触による各々の信号形態を示す情報が特定される。すなわち、親指Uoの末節の部位と、少なくとも、人指し指Us、中指Un、薬指Uk、及び小指Ucの基節、中節、及び末節の各々の部位との接触時における信号形態を示す情報が特定される。   The next third learning procedure is a process of repeating the first learning procedure and the second learning procedure until information indicating the signal form of each of the finger movements of different users is specified. The third learning procedure identifies information indicating each signal form caused by contact between different fingers. That is, information indicating the signal form at the time of contact with at least the forefinger segment of the thumb Uo and the base, middle segment, and distal segment of the index finger Us, middle finger Un, ring finger Uk, and little finger Uc is identified. Ru.

なお、指同士の接触として、親指Uoの末節の部位と、指定された指の何れか1つの指節との接触による検出信号から、同じ指の他の指節の検出信号を推定可能である場合は、同じ指の指節毎の第1学習手順及び第2学習手順を省略することができる。例えば、親指Uoの末節の部位と、人指し指Usの末節の部位との接触による検出信号が、他の指節、すなわち、人指し指Usの基節及び中節の部位各々による検出信号に相対関係がある場合、その相対関係から同じ指の他の指節の検出信号を推定可能である。   In addition, the detection signal of the other phalanx of the same finger can be estimated from the detection signal by contact with the site of the last segment of the thumb Uo and any one phalanx of the designated finger as contact between the fingers. In this case, the first learning procedure and the second learning procedure for each phalanx of the same finger can be omitted. For example, the detection signal by the contact between the last part of the thumb Uo and the last part of the index finger Us has a relative relation with the detection signals of the other parts of the index finger, ie, the base and middle parts of the index finger Us. In this case, detection signals of other phalanxes of the same finger can be estimated from the relative relationship.

また、第1学習手順及び第2学習手順には、指同士の接触による信号形態を示す情報の特定に加えて、複数の指同士の接触による信号形態を示す情報の特定も含まれる。
図10に、複数の指同士の接触によるユーザの指の動きの一例を示す。図10(A)は、ユーザの指を全て折り曲げた状態(所謂、グーの状態)を示している。また、図10(B)は、ユーザの指を全て広げた状態(所謂、パーの状態)を示している。
Further, the first learning procedure and the second learning procedure include, in addition to the identification of the information indicating the signal form caused by the contact between the fingers, the identification of the information indicating the signal form caused by the contact between the plurality of fingers.
FIG. 10 shows an example of the movement of the user's finger due to the contact between a plurality of fingers. FIG. 10A shows a state in which all the fingers of the user are bent (a state of so-called goo). FIG. 10B shows a state in which all the fingers of the user are spread (a so-called par state).

図10(B)に示すユーザの指を全て広げた状態は、平成状態としてユーザの指の動きの基準状態とすることができる。従って、図10(B)に示すユーザの指を全て広げた状態(所謂、パーの状態)から、図10(A)に示す全て折り曲げた状態(所謂、グーの状態)へ移行した場合に、ユーザの指の動きに対する信号形態を示す情報が特定される。   The state in which all the fingers of the user shown in FIG. 10B are spread can be set as the reference state of the movement of the user's finger as the Heisei state. Therefore, when transitioning from the state in which all the user's fingers shown in FIG. 10B are spread (the so-called par) to the state in which all the fingers shown in FIG. 10A are bent (the so-called go). Information is identified that indicates the signal morphology for the user's finger movement.

図11に、複数の指同士の接触によるユーザの指の動きのその他の例を示す。図11(A)は、ユーザの指を全て折り曲げた状態(所謂、グーの状態)から手首を角度θで折り曲げた状態を示している。また、図11(B)は、図10(A)と同様にユーザの指を全て折り曲げた状態(所謂、グーの状態)を示している。   FIG. 11 shows another example of the movement of the user's finger due to the contact between the plurality of fingers. FIG. 11A shows a state in which the wrist is bent at an angle θ from a state in which all the fingers of the user are bent (so-called goo state). Further, FIG. 11 (B) shows a state in which all the fingers of the user are bent (a so-called state of goo) as in FIG. 10 (A).

これらの図10及び図11に示すユーザの指の動きは、文字情報に対応させることも可能であるが、コマンド及び命令等の操作に関係する情報に対応させることが好ましい。本開示では、図10に示すユーザの指の動きは、情報処理装置10を起動させる起動コマンド、及び情報処理装置10を停止させる停止コマンドに対応させる場合の一例を説明する。また、図11に示すユーザの指の動きは、学習モードへの移行を示すモード判定動作の学習モード移行コマンドに対応させる場合の一例を説明する。なお、本開示による技術は、図10及び図11に示すユーザの指の動きを、情報処理装置10の起動及び停止のコマンドに対応させることに限定するものでないことは勿論である。   The movement of the finger of the user shown in FIGS. 10 and 11 can be made to correspond to character information, but is preferably made to correspond to information related to operations such as commands and instructions. In the present disclosure, an example in which the movement of the finger of the user illustrated in FIG. 10 corresponds to an activation command for activating the information processing device 10 and a stop command for stopping the information processing device 10 will be described. Also, an example of the case where the movement of the user's finger shown in FIG. 11 corresponds to the learning mode transition command of the mode determination operation indicating transition to the learning mode will be described. Of course, the technique according to the present disclosure is not limited to making the movement of the user's finger shown in FIGS. 10 and 11 correspond to the start and stop commands of the information processing apparatus 10.

次に、第4学習手順は、特定された信号形態を示す情報に文字情報を対応付けたテーブル、すなわち、ユーザの指の動きと、文字情報との対応関係を示すテーブルを生成する処理である。   Next, the fourth learning procedure is processing of generating a table in which the character information is associated with the information indicating the identified signal form, that is, a table indicating the correspondence between the movement of the user's finger and the character information. .

ここで、文字情報には、ひらがな、英数字、及び記号等があり、これらの全てを指同士の接触、及び同一部位への接触回数で識別可能なものとすることは困難である。そこで、本開示では、文字情報を、文字の種類、例えば、ひらがな、英数字、及び記号で分類し、分類した文字の種類毎にテンプレートを定めている。   Here, the character information includes hiragana, alphanumeric characters, symbols, and the like, and it is difficult to make all of them distinguishable by the contact between fingers and the number of contacts to the same part. Therefore, in the present disclosure, character information is classified by character types, for example, hiragana, alphanumeric characters, and symbols, and a template is defined for each classified character type.

図12に、予め定めた文字の種類毎のテンプレートの一例を示す。図12に示す例では、「ひらがな」の種類により分類した文字情報のテンプレートが第1テンプレートとして示されている。また、「記号」の種類により分類した文字情報のテンプレートが第2テンプレートとして示されている。同様に、「英文字」の種類により分類した文字情報のテンプレートが第3テンプレートとして示され、「数字」の種類により分類した文字情報のテンプレートが第4テンプレートとして示されている。   FIG. 12 shows an example of a template for each predetermined character type. In the example shown in FIG. 12, a template of character information classified according to the type of "Hiragana" is shown as a first template. Also, a template of character information classified according to the type of “symbol” is shown as a second template. Similarly, a template of character information classified according to the type of "English character" is shown as a third template, and a template of character information classified according to the type of "number" is shown as a fourth template.

従って、第4学習手順では、特定された信号形態を示す情報にテンプレートによる文字情報を対応付けた対応関係をテーブルとして生成する。   Therefore, in the fourth learning procedure, a correspondence in which the character information according to the template is associated with the information indicating the specified signal form is generated as a table.

図13に、ユーザの指の動きと、文字情報との対応関係を示すテーブルの一例を示す。図13に示す例では、文字の種類により分類した文字情報のテンプレートが第1テンプレートとして示されている。また、「記号」の種類により分類した文字情報のテンプレートが第2テンプレートとして示されている。同様に、「英文字」の種類により分類した文字情報のテンプレートが第3テンプレートとして示され、「数字」の種類により分類した文字情報のテンプレートが第4テンプレートとして示されている。   FIG. 13 shows an example of a table showing the correspondence between the movement of the user's finger and the character information. In the example shown in FIG. 13, a template of character information classified according to the type of character is shown as a first template. Also, a template of character information classified according to the type of “symbol” is shown as a second template. Similarly, a template of character information classified according to the type of "English character" is shown as a third template, and a template of character information classified according to the type of "number" is shown as a fourth template.

図14に、ユーザの指の動きと、コマンドとの対応関係を示すテーブルの一例を示す。図14に示す例では、「取消」は文字入力の取り消し(又は削除)を指示する取消コマンドを示し、「切替」は、テンプレートの切り替えを指示する切替コマンドを示し、「変換」は、ひらがなから漢字への変換を指示する変換コマンドを示している。   FIG. 14 shows an example of a table showing the correspondence between the movement of the user's finger and the command. In the example shown in FIG. 14, "cancel" indicates a cancel command instructing cancellation (or deletion) of character input, "switch" indicates a switch command instructing switching of a template, and "conversion" indicates a hiragana character. It shows a conversion command instructing conversion to kanji.

次に、第4学習手順では、生成したユーザの指の動きと、コマンドとの対応関係を示すテーブルを学習結果としてテンプレート部126(図1参照)に格納する。
また、センサーアレイ14からの異なる検出信号をパターン化し、パターン化された検出信号の各々に、文字情報又はコマンドを対応させておく対応関係を示すテーブルをテンプレート部126(図1参照)に格納してもよい。
Next, in the fourth learning procedure, a table indicating the correspondence between the generated movement of the user's finger and the command is stored as a learning result in the template unit 126 (see FIG. 1).
Further, different detection signals from the sensor array 14 are patterned, and a table indicating correspondences for associating character information or commands with each of the patterned detection signals is stored in the template unit 126 (see FIG. 1). May be

なお、前記学習処理では、ユーザの指同士の接触を促して、接触部位及び接触回数と文字情報とを対応付けた場合を説明したが、ユーザが文字情報に対応する接触部位を設定するようにしてもよい。すなわち、表示部18に表示する表示情報に文字情報を含めて当該文字情報に対応する部位を、ユーザが指定するようにしてもよい。例えば、表示部18に文字情報を表示し、表示された文字情報に対応するユーザの指の動き、すなわち、指同士の接触を促す。そして、ユーザは、表示された文字情報の対応として希望する指同士を接触させる。これによって、文字情報に対応するユーザの指の動きが定まる。従って、ユーザが希望するテンプレート、すなわち、ユーザ定義のテンプレートが構築される。   In the above-described learning processing, although the case where contact between the user's fingers is urged to associate the contact area and the number of contacts with the character information has been described, the user is allowed to set the contact area corresponding to the character information. May be That is, the user may specify the part corresponding to the character information by including the character information in the display information displayed on the display unit 18. For example, character information is displayed on the display unit 18, and movement of the user's finger corresponding to the displayed character information, that is, contact between fingers is promoted. Then, the user brings the desired fingers into contact with each other as the correspondence of the displayed character information. This determines the movement of the user's finger corresponding to the text information. Therefore, a template desired by the user, ie, a user-defined template is constructed.

なお、本開示では、学習部124において、ユーザの指の動きに対応する文字情報との対応関係を求める学習処理を行う場合を説明したが、装置本体12で学習処理を行うことに限定されるものではない。例えば、ユーザの指の動きに対応する文字情報との対応関係を予め求めておき、予め求めた学習結果をテンプレート部126へ格納するようにしてもよい。予め求めた学習結果をテンプレート部126へ格納する場合、判定部123及び学習部124は省略可能である。   In the present disclosure, the learning unit 124 performs the learning process for obtaining the correspondence with the character information corresponding to the movement of the user's finger. However, the present invention is limited to performing the learning process in the device body 12 It is not a thing. For example, the correspondence with the character information corresponding to the movement of the user's finger may be obtained in advance, and the learning result obtained in advance may be stored in the template unit 126. When the learning result obtained in advance is stored in the template unit 126, the determination unit 123 and the learning unit 124 can be omitted.

次に、入力操作モードにおいて識別部125で実行される入力操作処理を説明する。
入力操作処理は、入力操作モードが設定された場合に、センサーアレイ14からの検出信号、及びテンプレート部126に格納されたテーブルを用いて、ユーザの指の動きに対応する文字情報を識別する処理である。
Next, input operation processing performed by the identification unit 125 in the input operation mode will be described.
The input operation process is a process of identifying character information corresponding to the movement of the user's finger using the detection signal from the sensor array 14 and the table stored in the template unit 126 when the input operation mode is set. It is.

入力操作処理は、識別部125において第1入力手順から第4入力手順までが順次実行される。   In the input operation process, the identification unit 125 sequentially executes the first to fourth input procedures.

入力操作処理の第1入力手順は、ユーザの指の動きによる入力操作が可能な状態に移行したことを促す処理である。すなわち、ユーザの指の動きにより入力操作を行うにあたり、入力操作が可能な状態に移行したことを示す表示情報を表示部18に表示して、ユーザに報知する。このため、識別部125は、所定記号等の表示情報が表示部18に表示されるように所定記号の表示情報を出力部127を介して表示制御部128へ出力する。表示制御部128は識別部125からの表示情報が表示部18に表示されるように制御する。この表示情報の表示は、アンダーバー等の記号の表示情報の点滅等が挙げられる。   The first input procedure of the input operation process is a process of prompting transition to a state where input operation can be performed by the movement of the user's finger. That is, when performing an input operation by the movement of the user's finger, display information indicating that the input operation has been shifted is displayed on the display unit 18 to notify the user. Therefore, the identification unit 125 outputs the display information of the predetermined symbol to the display control unit 128 via the output unit 127 so that the display information such as the predetermined symbol is displayed on the display unit 18. The display control unit 128 controls the display information from the identification unit 125 to be displayed on the display unit 18. The display of the display information may include blinking of display information of a symbol such as an underbar.

なお、ユーザの指の動きによる入力操作が可能な状態に移行する前に、ユーザがセンサーアレイ14を装着した際の校正処理を行うことが好ましい。校正処理は、センサーアレイ14の装着時における個人別の装着設定処理であり、センサーアレイ14の検出信号の校正、及び主力筋に対応するセンサーアレイ14の圧力素子14Aの特定が挙げられる。すなわち、ユーザがセンサーアレイ14を装着した場合、センサーアレイ14の検出信号の振動振幅の値、及び主力筋に対するセンサーアレイ14の装着位置等がユーザ毎に相違する。校正処理は、ユーザ毎に相違する各種の値を、センサーアレイ14を装着したユーザに適合する値に校正する処理である。具体的には、校正処理は、ユーザ毎に相違する値を、テンプレート部126に格納されたテーブルに適合させる処理を実行する。ユーザ毎に相違する値には、接触時の検出信号の振動振幅vid、検出信号の強度Dav、センサーアレイ14の信号分布パターンPt、及び複数回連続して接触した場合の時間間隔Thの各値が挙げられる。   In addition, it is preferable to perform a calibration process when the user wears the sensor array 14 before shifting to a state in which the input operation can be performed by the movement of the user's finger. The calibration process is an individual attachment setting process when the sensor array 14 is attached, and includes calibration of a detection signal of the sensor array 14 and specification of the pressure element 14A of the sensor array 14 corresponding to the main muscle. That is, when the user wears the sensor array 14, the value of the vibration amplitude of the detection signal of the sensor array 14 and the attachment position of the sensor array 14 with respect to the main muscle differ for each user. The calibration process is a process of calibrating various values which differ for each user to values suitable for the user wearing the sensor array 14. Specifically, the calibration process executes a process of matching values different for each user to the table stored in the template unit 126. The different values for each user include the vibration amplitude vid of the detection signal at the time of touch, the intensity Dav of the detection signal, the signal distribution pattern Pt of the sensor array 14, and the value of the time interval Th in the case of continuous contact several times. Can be mentioned.

次の第2入力手順は、これから入力操作を行う指の動きを検出する処理である。すなわち、第2入力手順では、センサーアレイ14の検出信号を取得し、センサーアレイ14の検出信号に基づいて、ユーザの指の動きに対する検出信号の信号形態を示す情報を特定する。ここでは、検出信号の信号形態を示す情報は、接触時における検出信号の振動振幅vid、検出信号の強度Dav、センサーアレイ14の信号分布パターンPt、及び複数回連続して接触した場合の接触回数の各情報を用いる。   The next second input procedure is a process of detecting the movement of the finger performing an input operation. That is, in the second input procedure, the detection signal of the sensor array 14 is acquired, and information indicating the signal form of the detection signal with respect to the movement of the user's finger is specified based on the detection signal of the sensor array 14. Here, the information indicating the signal form of the detection signal includes the vibration amplitude vid of the detection signal at the time of contact, the intensity Dav of the detection signal, the signal distribution pattern Pt of the sensor array 14, and the number of times of contact in a plurality of successive contacts Use each information of

次に、第3入力手順は、特定した指の動きに対応する文字情報を識別する処理である。すなわち、第3入力手順では、第2入力手順で特定した検出信号の信号形態と、テンプレート部126に格納されたテーブルにおける検出信号の信号形態とを比較し、一致又は適合度が最大値となるテーブル上の検出信号の信号形態を特定する。次に、特定したテーブル上の検出信号の信号形態に対応する文字情報を抽出することにより、テンプレート部126に格納されたテーブルから、指の動きに対応する文字情報を識別する。   Next, the third input procedure is a process of identifying character information corresponding to the movement of the specified finger. That is, in the third input procedure, the signal form of the detection signal specified in the second input procedure is compared with the signal form of the detection signal in the table stored in the template unit 126, and the coincidence or the fitness becomes the maximum value. The signal form of the detection signal on the table is specified. Next, character information corresponding to the movement of the finger is identified from the table stored in the template unit 126 by extracting character information corresponding to the signal form of the detection signal on the specified table.

なお、適合度は、検出信号の強度Dav、及びセンサーアレイ14の信号分布パターンPtの各々の比率等を用いて導出する。例えば、適合度は、第2入力手順で特定した強度Davとテーブル上の強度Davとの差、及び第2入力手順で特定した信号分布パターンPtとテーブル上の信号分布パターンPtとの差の各々が、小さくなるに従って適合度が高くなるように予め定めた演算式を用いて導出する。   The degree of matching is derived using the intensity Dav of the detection signal, the ratio of each of the signal distribution patterns Pt of the sensor array 14, and the like. For example, the degree of fitness may be the difference between the intensity Dav identified in the second input procedure and the intensity Dav on the table, and the difference between the signal distribution pattern Pt identified in the second input procedure and the signal distribution pattern Pt on the table However, it is derived using an arithmetic expression that has been determined in advance so that the degree of matching becomes higher as it becomes smaller.

次の第4入力手順は、指の動きに対応する文字情報を出力する処理である。すなわち、第4入力手順では、第3入力手順で識別した文字情報を、出力部127を介して表示制御部128へ出力する。表示制御部128は識別部125からの表示情報が表示部18に表示されるように制御する。これによって、表示部18には指の動きに対応する文字情報が表示される。また、第4入力手順では、第3入力手順で識別した文字情報を、出力部127を介して通信部16へ出力する。このように通信部16が文字情報を送信することにより、情報処理装置10と異なる情報処理装置において、ユーザの指の動きに対応する文字情報が受信される。   The next fourth input procedure is processing of outputting character information corresponding to the movement of the finger. That is, in the fourth input procedure, the character information identified in the third input procedure is output to the display control unit 128 via the output unit 127. The display control unit 128 controls the display information from the identification unit 125 to be displayed on the display unit 18. As a result, the display unit 18 displays character information corresponding to the movement of the finger. In the fourth input procedure, the character information identified in the third input procedure is output to the communication unit 16 via the output unit 127. As the communication unit 16 transmits the character information as described above, the character information corresponding to the movement of the user's finger is received by the information processing apparatus different from the information processing apparatus 10.

前記学習処理及び入力操作処理を含む処理を実行する情報処理装置10の装置本体12は、コンピュータにより実現可能である。
図15に、情報処理装置10の装置本体12をコンピュータにより実現したコンピュータ12Xの構成の一例を示す。
The apparatus main body 12 of the information processing apparatus 10 that executes a process including the learning process and the input operation process can be realized by a computer.
FIG. 15 shows an example of the configuration of a computer 12X in which the apparatus body 12 of the information processing apparatus 10 is realized by a computer.

図15に示すように、コンピュータ12Xは、CPU(Central Processing Unit)12A、RAM(Random Access Memory)12B、ROM(Read Only Memory)12C、及び入出力インターフェース(I/O)12Dがバス12Eを介して各々接続されている。また、I/O12Dにはセンサーアレイ14、通信部16、及び表示部18が接続されている。   As shown in FIG. 15, the computer 12X includes a central processing unit (CPU) 12A, a random access memory (RAM) 12B, a read only memory (ROM) 12C, and an input / output interface (I / O) 12D via a bus 12E. Each connected. The sensor array 14, the communication unit 16, and the display unit 18 are connected to the I / O 12D.

ROM12Cには、指の動きと文字情報との対応関係に関する学習処理及び入力操作処理を含む処理を実行させる情報処理プログラム12Pが格納されている。CPU12Aは、情報処理プログラム12PをROM12Cから読み取りRAM12Bに展開し、情報処理プログラム12Pによる処理を実行する。CPU12Aが情報処理プログラム12Pによる処理を実行することで、コンピュータ12Xは図1に示す装置本体12として動作する。なお、情報処理プログラム12Pは、CD−ROM等の記録媒体により提供し、流通するようにしても良い。   The ROM 12 </ b> C stores an information processing program 12 </ b> P that executes processing including learning processing and input operation processing relating to the correspondence between the movement of the finger and the character information. The CPU 12A reads the information processing program 12P from the ROM 12C and develops the information processing program 12P on the RAM 12B, and executes processing by the information processing program 12P. When the CPU 12A executes the processing by the information processing program 12P, the computer 12X operates as the apparatus main body 12 shown in FIG. The information processing program 12P may be provided and distributed by a recording medium such as a CD-ROM.

次に、本開示に係る情報処理装置10の装置本体12として動作するコンピュータ12Xによる処理を説明する。   Next, processing by the computer 12X operating as the device main body 12 of the information processing device 10 according to the present disclosure will be described.

図16に、情報処理プログラム12Pによる処理の流れを示す。情報処理プログラム12Pは、コンピュータ12Xへの電源投入された際にCPU12Aにより実行される。   FIG. 16 shows the flow of processing by the information processing program 12P. The information processing program 12P is executed by the CPU 12A when the computer 12X is powered on.

まず、ステップS100では、センサーアレイ14の検出信号を取得する。このステップS100では、センサーアレイ14からの検出信号に含まれるm個の圧力素子14A各々の個別信号の強度Diを取得し、前記(1)式を用いて検出信号の強度Davを導出する。次のステップS102では、ステップS100で導出した強度Davが予め定めた閾値Dsを超えるまで否定判断を繰り返し、肯定判断された場合、ステップS104へ処理を移行する。   First, in step S100, a detection signal of the sensor array 14 is acquired. In this step S100, the intensities Di of the individual signals of the m pressure elements 14A included in the detection signal from the sensor array 14 are acquired, and the intensity Dav of the detection signal is derived using the equation (1). In the next step S102, a negative determination is repeated until the intensity Dav derived in step S100 exceeds a predetermined threshold value Ds, and if an affirmative determination is made, the process proceeds to step S104.

ステップS100及びステップS102の処理は、情報処理装置10を起動させる処理の一例である。すなわち、情報処理装置10の起動コマンドに対応するユーザの指の動き(図10参照)が識別された場合に、ステップS104へ処理を移行する。   The processes of step S100 and step S102 are an example of the process of activating the information processing apparatus 10. That is, when the movement (see FIG. 10) of the user's finger corresponding to the start command of the information processing apparatus 10 is identified, the process proceeds to step S104.

ステップS104では、学習モードか入力操作モードかの判定処理が実行される。このステップS104では、センサーアレイ14の検出信号を取得して、学習モードへの移行を示すモード判定動作であるユーザの指の動き(図11参照)か否かを判断する。すなわち、モード判定動作が特定された場合は、ステップS106へ処理を移行する。   In step S104, determination processing as to whether the learning mode or the input operation mode is performed. In this step S104, the detection signal of the sensor array 14 is acquired, and it is determined whether the movement of the finger of the user (see FIG. 11) which is a mode determination operation indicating transition to the learning mode. That is, when the mode determination operation is specified, the process proceeds to step S106.

これらのステップS100からステップS104の処理は、判定部123で実行される処理に対応する。   The processes of steps S100 to S104 correspond to the processes performed by the determination unit 123.

学習モードへの移行を示すモード判定動作であるユーザの指の動きが特定された場合、ステップS106で、例えば、前記第1学習手順から第4学習手順による学習処理を順次実行した後、本処理ルーチンを終了する。ステップS106の処理は、学習部124で実行される処理の一例である。   When the movement of the user's finger, which is a mode determination operation indicating transition to the learning mode, is specified, in step S106, for example, the learning process is sequentially performed according to the first learning procedure to the fourth learning procedure, and then this process is performed. End the routine The process of step S106 is an example of the process executed by the learning unit 124.

一方、ステップS104で、ユーザの指の動きに変化がない等のようにモード判定動作が特定されない場合は、ステップS108以降の入力操作モードにおける処理を実行する。   On the other hand, when the mode determination operation is not specified, such as when there is no change in the user's finger movement in step S104, processing in the input operation mode after step S108 is performed.

ステップS108では、ユーザ毎に相違する各種の値を、センサーアレイ14を装着したユーザに適合する値に校正する校正処理を実行する。前記したように、校正処理は、センサーアレイ14の装着時における個人別の装着設定処理であり、センサーアレイ14の検出信号の校正、及び主力筋に対応するセンサーアレイ14の圧力素子14Aの特定が行われる。この校正処理を実行することで、ユーザ毎に相違する各種の値が校正され、異なるユーザによりセンサーアレイ14が装着された場合における値の変動が抑制される。また、同一ユーザであっても時間経過によって検出信号の振動振幅の値の変動、及び装着位置のズレ等が生じた場合に、値の変動による影響が抑制される。   In step S108, a calibration process is performed to calibrate various values which differ for each user to values suitable for the user wearing the sensor array 14. As described above, the calibration process is an installation setting process for each individual when the sensor array 14 is attached, the calibration of the detection signal of the sensor array 14 and the identification of the pressure element 14A of the sensor array 14 corresponding to the main muscle To be done. By executing this calibration process, various values that are different for each user are calibrated, and fluctuation of values when the sensor array 14 is attached by different users is suppressed. Further, even in the case of the same user, when the fluctuation of the value of the vibration amplitude of the detection signal or the displacement of the mounting position occurs with the passage of time, the influence of the fluctuation of the value is suppressed.

次のステップS110では、ユーザの指の動きによる入力操作が可能な状態に移行したことを報知する初期表示処理を実行する。この初期表示処理の実行によって、ユーザは、入力操作が可能な状態に移行したことを確認することが可能となる。ステップS110の初期表示処理は、前記した入力操作処理の第1入力手順の処理の一例である。   In the next step S110, an initial display process is performed to notify that the input operation by the movement of the user's finger has become possible. Execution of this initial display process enables the user to confirm that the state has been shifted to a state where input operation is possible. The initial display process of step S110 is an example of the process of the first input procedure of the input operation process described above.

初期表示処理を実行した後は、ステップS112で、センサーアレイ14の検出信号を取得する。このステップS112では、センサーアレイ14からの検出信号に含まれる主力筋に対応する圧力素子14A各々の個別信号の強度Diを取得し、検出信号の強度Davを導出する。また、ステップS112ではセンサーアレイ14からの検出信号を用いて、検出信号の振動振幅vid、検出信号の信号分布パターンPt、及び時間間隔Thで複数回連続して接触した場合の接触回数を検出する。   After the initial display process is performed, in step S112, a detection signal of the sensor array 14 is acquired. In this step S112, the intensity Di of the individual signal of each pressure element 14A corresponding to the main muscle included in the detection signal from the sensor array 14 is acquired, and the intensity Dav of the detection signal is derived. Also, in step S112, using the detection signal from the sensor array 14, the vibration amplitude vid of the detection signal, the signal distribution pattern Pt of the detection signal, and the number of contacts in a plurality of successive contacts at time intervals Th are detected. .

次のステップS114では、検出信号の強度Dav及び振動振幅vidを判別することにより、指同士が接触したか否かを判断する。すなわち、強度Davが指の動きの最小値として予め定めた強度Doを越え(Dav>Do)、かつ検出信号の振動振幅vidが検出された場合は、ステップS114で肯定判断し、ステップS116へ処理を移行する。一方、ステップS114で否定判断した場合は、ステップS112へ処理を戻す。   In the next step S114, it is determined whether the fingers are in contact by determining the strength Dav of the detection signal and the vibration amplitude vid. That is, when the intensity Dav exceeds the predetermined intensity Do as the minimum value of the finger movement (Dav> Do) and the vibration amplitude vid of the detection signal is detected, an affirmative determination is made in step S114, and the process proceeds to step S116. Migrate On the other hand, if a negative determination is made in step S114, the process returns to step S112.

次に、ステップS116では、検出信号の信号形態を示す情報を特定することによって、指の動きを検出する。すなわち、ステップS112で導出及び検出した検出信号の強度Dav、信号分布パターンPt、及び接触回数を、指の動きに対応する信号形態として特定する。これらのステップS112からステップS116の処理は、前記した入力操作処理の第2入力手順の処理の一例である。   Next, in step S116, the movement of the finger is detected by specifying the information indicating the signal form of the detection signal. That is, the intensity Dav of the detection signal derived and detected in step S112, the signal distribution pattern Pt, and the number of times of contact are specified as the signal form corresponding to the movement of the finger. The processes of steps S112 to S116 are an example of the process of the second input procedure of the input operation process described above.

次のステップS118では、ステップS116で特定した信号形態を用いて文字情報を識別する。すなわち、ステップS118では、ステップS116で特定した指の動きに対応する検出信号の信号形態と、テンプレート部126に格納されたテーブルにおける検出信号の信号形態とを比較する。そして、一致又は適合度が最大値となるテーブル上の検出信号の信号形態を特定する。次に、特定したテーブル上の検出信号の信号形態に対応する文字情報を抽出することにより、テンプレート部126に格納されたテーブルから、指の動きに対応する文字情報を識別する。ステップS118の処理は、前記した入力操作処理の第3入力手順の処理の一例である。   In the next step S118, character information is identified using the signal form specified in step S116. That is, in step S118, the signal form of the detection signal corresponding to the movement of the finger identified in step S116 is compared with the signal form of the detection signal in the table stored in the template unit 126. Then, the signal form of the detection signal on the table where the coincidence or the matching degree is the maximum value is specified. Next, character information corresponding to the movement of the finger is identified from the table stored in the template unit 126 by extracting character information corresponding to the signal form of the detection signal on the specified table. The process of step S118 is an example of the process of the third input procedure of the input operation process described above.

次のステップS120では、ステップS118で識別した文字情報を出力することで、表示部18に文字情報を表示する。すなわち、ステップS120では、ステップS118で識別した文字情報を、出力部127を介して表示制御部128へ出力する。これによって、表示部18には指の動きに対応する文字情報が表示される。また、ステップS120では、文字情報を、出力部127を介して通信部16へ出力する。このように通信部16が文字情報を送信することにより、情報処理装置10と異なる情報処理装置において、ユーザの指の動きに対応する文字情報が受信される。ステップS120の処理は、前記した入力操作処理の第4入力手順の処理の一例である。   In the next step S120, the character information is displayed on the display unit 18 by outputting the character information identified in step S118. That is, in step S120, the character information identified in step S118 is output to the display control unit 128 via the output unit 127. As a result, the display unit 18 displays character information corresponding to the movement of the finger. In step S120, character information is output to the communication unit 16 via the output unit 127. As the communication unit 16 transmits the character information as described above, the character information corresponding to the movement of the user's finger is received by the information processing apparatus different from the information processing apparatus 10. The process of step S120 is an example of the process of the fourth input procedure of the input operation process described above.

次に、ステップS122では、ステップS100と同様にセンサーアレイ14の検出信号を取得して検出信号の強度Davを導出し、導出した強度Davが予め定めた閾値Dsを超えるまで否定判断を繰り返し、肯定判断された場合、本処理ルーチンを終了する。一方、ステップS122で否定判断した場合は、ステップS112へ処理を戻す。このステップS122の処理は、情報処理装置10における入力操作を終了させる処理に対応する。すなわち、情報処理装置10を停止させる停止コマンドに対応するユーザの指の動き(図10参照)が識別された場合に、本処理ルーチンが終了される。   Next, in step S122, similarly to step S100, the detection signal of the sensor array 14 is acquired to derive the strength Dav of the detection signal, and the negative determination is repeated until the derived strength Dav exceeds a predetermined threshold Ds. If it is determined, this processing routine is ended. On the other hand, if a negative determination is made in step S122, the process returns to step S112. The process of step S122 corresponds to the process of ending the input operation in the information processing apparatus 10. That is, when the movement (see FIG. 10) of the user's finger corresponding to the stop command for stopping the information processing apparatus 10 is identified, the processing routine is ended.

以上説明したように、本開示では、指同士の接触によるユーザの指の動きを前腕の筋の変化から特定し、そのユーザの指の動きに対応する文字情報を出力する。すなわち、指同士の接触による指の動きを入力操作として、文字情報を出力する。これにより、ユーザが文字情報を出力するためのタッチパネル及びキーボード等の入力装置の携帯又は設置は要求されない。このため、ユーザビリティが向上される。   As described above, in the present disclosure, the movement of the finger of the user due to the contact between the fingers is specified from the change in the muscle of the forearm, and character information corresponding to the movement of the finger of the user is output. That is, the character information is output by using the movement of the finger due to the contact between the fingers as the input operation. As a result, it is not required to carry or install an input device such as a touch panel and a keyboard for the user to output character information. Therefore, the usability is improved.

また、本開示では、指同士の接触によるユーザの指の動きと、例えばキーボード入力のキーに対応する文字情報とを対応させ、指同士の接触を検出することで、対応する文字情報を出力する。このように、指同士の接触による指の動きを入力操作とするため、ユーザの各指のみの動きを検出することに比較してユーザの指の動きの識別性が向上する。   Further, in the present disclosure, the movement of the finger of the user due to the contact between the fingers is associated with the character information corresponding to the key of the keyboard input, for example, and the corresponding character information is output by detecting the contact between the fingers. . As described above, since the movement of the finger due to the contact between the fingers is used as the input operation, the identification of the movement of the finger of the user is improved as compared to detecting the movement of only each finger of the user.

また、本開示では、指の動きは、前腕、特に手首における筋肉の変動から特定するので、撮像装置による指の動き自体の直接検出は不要である。また、指の動き自体を接触センサで直接検出することも不要である。このため、ユーザに対する負担が軽減される。また、前腕、特に手首における筋肉の変動を検出するのみで良いため、リストバンド及び時計等と同様の装着感となり、装着時の身体への負担が軽減される。   Also, in the present disclosure, the finger movement is identified from muscle fluctuations in the forearm, particularly the wrist, so direct detection of the finger movement itself by the imaging device is not necessary. In addition, it is not necessary to directly detect the movement of the finger itself by the contact sensor. This reduces the burden on the user. In addition, since it is sufficient to detect only the movement of muscles in the forearm, especially the wrist, the wearing feeling is the same as that of a wrist band, a watch, etc., and the burden on the body at the time of wearing is reduced.

さらに、指同士の接触による指の動きを入力操作とするので、指同士を接触させる指動作がキーボードのキーを押圧したような押圧感が得られる。このため、タッチパネル及びキーボード等の接触型の入力装置の使用感をユーザに提供できる。   Furthermore, since the movement of the finger due to the contact between the fingers is used as the input operation, it is possible to obtain a pressing feeling as if the finger operation for bringing the fingers into contact with one another pressed the key of the keyboard. For this reason, it is possible to provide the user with a sense of use of the touch input device such as the touch panel and the keyboard.

なお、本開示では、指の動きに対応する文字情報を出力する場合を説明したが、文字情報は、50音、英数字及び記号等の1文字に限定されるものではなく、複数の文字情報を組み合わせた文字列情報でもよい。また、本開示では、指の動きに文字情報を対応させた場合について説明したが、文字情報に代えて画像情報を対応させてもよい。   Although the present disclosure has described the case of outputting character information corresponding to the movement of a finger, the character information is not limited to one character such as 50 sounds, alphanumeric characters, and symbols, and a plurality of character information It may be string information combining. Further, in the present disclosure, the case where the character information is associated with the movement of the finger has been described, but instead of the character information, image information may be associated.

また、本開示では、接触時に生じる検出信号の振動振幅によって指同士の接触を検出する場合を説明したが、検出信号の振動振幅に限定されるものではない。例えば、検出信号の立ち上がり特性の勾配が予め定めた閾値を超えた場合に、指同士が接触したとしてもよい。また、検出信号の最大値と最小値の信号幅が予め定めた閾値を超えた場合に、指同士が接触したとしてもよい。   Further, in the present disclosure, the case where the contact between the fingers is detected by the vibration amplitude of the detection signal generated at the time of contact has been described, but the present invention is not limited to the vibration amplitude of the detection signal. For example, when the gradient of the rising characteristic of the detection signal exceeds a predetermined threshold, the fingers may be in contact with each other. In addition, when the signal widths of the maximum value and the minimum value of the detection signal exceed a predetermined threshold, the fingers may be in contact with each other.

また、本開示では、指同士の接触について、左手の親指Uoを入力操作における指示側の予め定めた指とし、左手の他の指を被指示側の指とする場合を説明したが、左手の指による指同士の接触に限定されるものではない。例えば、右手の指を、指示側の指及び被指示側の指の少なくとも一方としてもよい。この場合、指の動きを検出するための検出部は少なくとも被指示側の指の動きを検出する前腕に設けることが好ましい。   Further, in the present disclosure, the case where the thumb Uo of the left hand is the predetermined finger on the instruction side in the input operation and the other finger of the left hand is the finger on the indicated side has been described. It is not limited to contact between fingers by fingers. For example, the finger of the right hand may be at least one of the finger on the pointing side and the finger on the pointing side. In this case, it is preferable that a detection unit for detecting the movement of the finger is provided at least on the forearm that detects the movement of the finger on the side indicated.

また、本開示では、指示側の指として親指と、被指示側の指として親指以外の指とによる指同士の接触について説明したが、親指の指節の部位に文字情報を対応させてもよい。この場合、親指以外の何れか1つの指を指示側の指として定め、指同士の接触を検出すればよい。   Further, in the present disclosure, the contact between fingers by the thumb as a finger on the instruction side and the finger other than the thumb as a finger on the instruction side has been described. . In this case, any one finger other than the thumb may be defined as a finger on the instruction side, and contact between the fingers may be detected.

また、本開示では、親指と親指以外の他の指との接触を主として説明したが、指同士の接触は、各々1つの指に限定されるものではない。例えば、複数の指を、指示側の指及び被指示側の指の少なくとも一方としてもよい。このようにすることで、指の動きに対応付け可能な文字情報が増加される。   In addition, although the present disclosure mainly describes the contact between the thumb and the other fingers than the thumb, the contact between the fingers is not limited to one finger each. For example, the plurality of fingers may be at least one of the pointing finger and the pointed finger. By doing this, the character information that can be associated with the movement of the finger is increased.

さらに、本開示では、指の動きを検出する検出部の一例としてリストバンド状のセンサーアレイ14(図6参照)を用いた情報処理装置10の一例を説明したが、情報処理装置10は専用のリストバンドへの適用に限定されるものではない。例えば、他の情報処理装置と通信する通信部16を備えた時計等の携帯端末に適用してもよい。   Furthermore, although the present disclosure has described an example of the information processing apparatus 10 using the sensor array 14 (see FIG. 6) in the form of a wristband as an example of a detection unit that detects finger movement, the information processing apparatus 10 is dedicated. It is not limited to the application to the wrist band. For example, the present invention may be applied to a portable terminal such as a watch provided with the communication unit 16 that communicates with another information processing apparatus.

図17に、第1の変形例として通信部16及び表示部18を備えた時計10Aを示す。図17(A)は表示部18の目視側の時計10Aの平面図を示し、図17(B)は時計10Aの側面図を示している。
図17に示すように、第1の変形例では、時計10Aの内側、すなわち、ユーザの手首への接触側に、長尺状の圧力検出器14Cが取り付けられている。このように、通信部16及び表示部18を備えた携帯端末であれば、本開示の情報処理装置は容易に適用することができる。
FIG. 17 shows a timepiece 10A including a communication unit 16 and a display unit 18 as a first modification. FIG. 17 (A) shows a plan view of the watch 10A on the viewing side of the display unit 18, and FIG. 17 (B) shows a side view of the watch 10A.
As shown in FIG. 17, in the first modified example, a long pressure detector 14C is attached to the inside of the timepiece 10A, that is, the contact side to the wrist of the user. As described above, in the case of a portable terminal including the communication unit 16 and the display unit 18, the information processing device of the present disclosure can be easily applied.

また、本開示では、指の動きを検出する検出部の一例としてセンサーアレイ14(図6参照)を用いた情報処理装置10の一例を説明したが、検出部はセンサーアレイ14に限定されるものではない。例えば、前腕部の形状を検出し、センサーアレイ14による検出信号を補うようにしてもよい。   In addition, although the present disclosure describes an example of the information processing apparatus 10 using the sensor array 14 (see FIG. 6) as an example of a detection unit that detects the movement of a finger, the detection unit is limited to the sensor array 14 is not. For example, the shape of the forearm may be detected to compensate for the detection signal from the sensor array 14.

図18に、第2の変形例として情報処理装置10Bを示す。図18(A)は側面図であり、図18(B)は平面図である。
図18に示すように、第2の変形例の情報処理装置10Bは、曲げセンサ15を備えている。曲げセンサ15は、センサーアレイ14は、ユーザの前腕、すなわち手首周辺に装着されるフレキシブルな細長支持基材14Dに取り付けられている。曲げセンサ15は、細長支持基材14Dの屈曲度合いを検出するためのセンサである。この屈曲度合いは、細長支持基材14Dの初期状態(例えば平面状の状態)から変化する曲がり量が大きくなるのに従って大きくなる値となる。例えば、初期状態を1とし、曲率Rを除算(=1/R)することで導出可能である。
FIG. 18 shows an information processing apparatus 10B as a second modified example. FIG. 18 (A) is a side view, and FIG. 18 (B) is a plan view.
As shown in FIG. 18, the information processing apparatus 10 </ b> B of the second modified example includes a bending sensor 15. The bending sensor 15 is attached to a flexible elongated support substrate 14D attached to the sensor array 14 around the user's forearm, ie, the wrist. The bending sensor 15 is a sensor for detecting the degree of bending of the elongated support base 14D. The degree of bending is a value that increases as the amount of bending changing from the initial state (e.g., a planar state) of the elongated support base 14D increases. For example, it can be derived by setting the initial state to 1 and dividing the curvature R (= 1 / R).

手首の外周形状は、ユーザが各指を動かすことによって変化する。この手首の外周形状の変化に伴って、細長支持基材14Dも形状が変化する。この細長支持基材14Dの形状の変化を曲げセンサ15で検出する。すなわち、曲げセンサ15によって細長支持基材14Dの屈曲度合いを検出することで、ユーザの手首の外周形状の変化を検出する。曲げセンサ15によって検出した細長支持基材14Dの屈曲度合いは、ユーザの手首表面の変動に対応するので、センサーアレイ14の検出信号の総和に対応すると考えられる。従って、曲げセンサ15によって検出した屈曲度合いをセンサーアレイ14の検出信号の総和を示す信号として用いることで、個別信号の総和の演算が不要となり、演算負荷が軽減される。   The outer peripheral shape of the wrist changes as the user moves each finger. Along with the change in the outer peripheral shape of the wrist, the shape of the elongated support base 14D also changes. The bending sensor 15 detects a change in the shape of the elongated support base 14D. That is, by detecting the degree of bending of the elongated support base 14D by the bending sensor 15, a change in the outer peripheral shape of the user's wrist is detected. Since the degree of bending of the elongated support base 14D detected by the bending sensor 15 corresponds to the fluctuation of the wrist surface of the user, it is considered to correspond to the sum of detection signals of the sensor array 14. Therefore, by using the degree of bending detected by the bending sensor 15 as a signal indicating the sum of the detection signals of the sensor array 14, the calculation of the sum of the individual signals becomes unnecessary, and the calculation load is reduced.

ところで、センサーアレイ14からの検出信号は、ユーザの手の向きによって変化する場合がある。そこで、ユーザの手の向きによってセンサーアレイ14からの検出信号が変化する場合、手の向きに対応する検出信号の補正値を予め定めておき、手の向きを検出する検出器、例えば、加速度センサをさらに備えて、センサーアレイ14からの検出信号を、手の向きに対応する補正値で補正する。このようにすることで、ユーザの手の向きの変化によって変動するセンサーアレイ14の検出信号の変動を抑制して扱うことができる。   By the way, the detection signal from the sensor array 14 may change depending on the direction of the user's hand. Therefore, when the detection signal from the sensor array 14 changes according to the direction of the user's hand, a detector for detecting the direction of the hand, for example, an acceleration sensor, which has previously determined correction values of the detection signal corresponding to the direction of the hand. The detection signal from the sensor array 14 is corrected with a correction value corresponding to the direction of the hand. By doing this, it is possible to suppress and handle the fluctuation of the detection signal of the sensor array 14 which fluctuates due to the change of the hand direction of the user.

また、ユーザは或る情報を伝える場合に、意図的に手の向きを変化させる場合がある。そこで、第3の変形例として、情報処置装置10に、ユーザの手の向きを変化させる動作を含むユーザの動きを特定すること含む構成とすることで、文字情報を出力するために特定する動きがユーザの動きに拡張される。すなわち、本開示では、センサーアレイ14からの検出信号の信号形態に対応する指の動きを特定し、特定した指の動きに対応する文字情報を出力する場合の一例を説明した。この信号形態に手の向きを示す情報を追加する。これによって、指の動きに対応する文字情報にさらに情報を追加したり、異なる情報に置き換えたりすることができる。   Also, the user may intentionally change the hand direction when conveying certain information. Therefore, as a third modification, the information processing apparatus 10 is configured to include the operation of specifying the user's movement including the operation of changing the direction of the user's hand, thereby specifying the movement to output the character information. Is extended to the movement of the user. That is, in the present disclosure, an example in which the movement of the finger corresponding to the signal form of the detection signal from the sensor array 14 is specified and the character information corresponding to the movement of the specified finger is output has been described. Information indicating the hand direction is added to this signal form. By this, information can be further added to the character information corresponding to the movement of the finger, or different information can be replaced.

なお、開示の技術に関する実施形態を説明したが、開示の技術の技術的範囲は上記実施の形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で上記実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も開示の技術の技術的範囲に含まれる。また、本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。   Although the embodiments related to the disclosed technology have been described, the technical scope of the disclosed technology is not limited to the scope described in the above embodiments. Various changes or modifications can be added to the above-described embodiment without departing from the scope of the disclosed technology, and a form to which the modifications or improvements are added is also included in the technical scope of the disclosed technology. In addition, all documents, patent applications and technical standards described in this specification are as specific and individual as the individual documents, patent applications and technical standards are incorporated by reference. Incorporated herein by reference.

本開示に関し、以下の事項をさらに開示する。   Further disclose the following matters with respect to the present disclosure.

(項1)
予め定めた指の動きを検出する検出部と、
前記予め定めた指の異なる複数の動き毎に異なる情報を対応させた対応関係、及び前記検出部で検出された指の動きに基づいて、前記検出部で検出された指の動きが前記複数の動きの何れかである場合に、前記検出部で検出された指の動きに対応する情報を出力する出力部と、
を備えた情報処理装置。
(Section 1)
A detection unit that detects a predetermined finger movement;
The plurality of movements of the finger detected by the detection unit are based on the correspondence relationship in which different information is made to correspond to the plurality of different movements of the predetermined finger and the movement of the finger detected by the detection unit. An output unit that outputs information corresponding to the movement of the finger detected by the detection unit if the movement is any one of the movements;
An information processing apparatus provided with

(項9)
コンピュータに、
項1に記載された情報処理装置の出力部の処理を実行させることを含む情報処理方法。
(Section 9)
On the computer
An information processing method including performing processing of an output unit of the information processing device described in item 1.

(項10)
コンピュータを、項1に記載された情報処理装置の出力部として機能させるための情報処理プログラム。
(Section 10)
An information processing program for causing a computer to function as an output unit of the information processing apparatus described in item 1.

(項11)
手首の変化を検出する検出部と、
検出された手首の変化毎に異なる情報を対応させた対応関係に基づいて、情報を出力する出力部と、
を備えた情報処理装置。
(Section 11)
A detection unit that detects a change in the wrist;
An output unit that outputs information based on the correspondence relationship in which different information is associated with each detected change in the wrist;
An information processing apparatus provided with

(項12)
指の動きに伴う、手首の膨縮を検出し、検出信号を出力する検出部と、
前記検出信号をパターン化し、パターン毎に所定の情報、又はコマンドを対応付けた対応関係を記憶する記憶部と、
前記検出信号と前記対応関係とに基づいて、前記所定の情報、又はコマンドを出力する出力部と、
を備えた情報処理装置。
(Section 12)
A detection unit that detects expansion and contraction of the wrist accompanying movement of the finger and outputs a detection signal;
A storage unit configured to pattern the detection signal and to store predetermined information corresponding to each pattern or a correspondence in which a command is associated;
An output unit that outputs the predetermined information or a command based on the detection signal and the correspondence relationship;
An information processing apparatus provided with

(項13)
手首の変化を検出する検出ステップと、
検出された手首の変化毎に異なる情報を対応させた対応関係に基づいて、情報を出力する出力ステップと、
を含む情報処理方法。
(Section 13)
Detecting the change in the wrist;
An output step of outputting information based on a correspondence relationship in which different information is made to correspond to each detected change in the wrist;
Information processing method including:

(項14)
指の動きに伴う、手首の膨縮を検出し、検出信号を出力する検出ステップと、
前記検出信号をパターン化し、パターン毎に所定の情報、又はコマンドを対応付けた対応関係を記憶する記憶ステップと、
前記検出信号と前記対応関係とに基づいて、前記所定の情報、又はコマンドを出力する出力ステップと、
を含む情報処理方法。
(Section 14)
Detecting the expansion and contraction of the wrist accompanying the movement of the finger and outputting a detection signal;
Storing the pattern of the detection signal and storing predetermined information corresponding to each pattern or a correspondence relationship in which a command is associated;
An output step of outputting the predetermined information or command based on the detection signal and the correspondence relationship;
Information processing method including:

(項15)
コンピュータに、
項11又は項12に記載された情報処理装置の出力部の処理を実行させることを含む情報処理方法。
(Section 15)
On the computer
An information processing method including performing processing of an output unit of the information processing apparatus described in item 11 or item 12.

(項16)
コンピュータを、項11又は項12に記載された情報処理装置の出力部として機能させるための情報処理プログラム。
(Section 16)
An information processing program for causing a computer to function as an output unit of the information processing apparatus described in item 11 or item 12.

10 情報処理装置
10A 時計
10B 情報処理装置
12 装置本体
12X コンピュータ
14 センサーアレイ
14A 圧力素子
14B 信号線
14C 圧力検出器
14D 細長支持基材
14E 伸縮部材
16 通信部
18 表示部
121 入力部
122 信号処理部
123 判定部
124 学習部
125 識別部
126 テンプレート部
127 出力部
128 表示制御部
DESCRIPTION OF SYMBOLS 10 information processing apparatus 10A clock 10B information processing apparatus 12 apparatus main body 12X computer 14 sensor array 14A pressure element 14B signal line 14C pressure detector 14D elongated support base 14E stretchable member 16 communication unit 18 display unit 121 input unit 122 signal processing unit 123 Determination unit 124 Learning unit 125 Identification unit 126 Template unit 127 Output unit 128 Display control unit

Claims (16)

予め定めた指の動きを検出する検出部と、
前記予め定めた指の異なる複数の動き毎に異なる情報を対応させた対応関係、及び前記検出部で検出された指の動きに基づいて、前記検出部で検出された指の動きが前記複数の動きの何れかである場合に、前記検出部で検出された指の動きに対応する情報を出力する出力部と、
を備えた情報処理装置。
A detection unit that detects a predetermined finger movement;
The plurality of movements of the finger detected by the detection unit are based on the correspondence relationship in which different information is made to correspond to the plurality of different movements of the predetermined finger and the movement of the finger detected by the detection unit. An output unit that outputs information corresponding to the movement of the finger detected by the detection unit if the movement is any one of the movements;
An information processing apparatus provided with
前記予め定めた指の異なる複数の動きは、
前記予め定めた指の指先が他の指の異なる複数の節の各々に接触する際の接触する節毎の前記予め定めた指の動きである
請求項1に記載の情報処理装置。
The plurality of different movements of the predetermined finger are:
The information processing apparatus according to claim 1, wherein the predetermined finger movement is for each contacting node when the predetermined fingertip of the finger touches each of a plurality of different clauses of another finger.
前記予め定めた指の異なる複数の動きは、
前記予め定めた指の指先が他の指の異なる複数の節の各々に複数回接触する前記予め定めた指の動きを含む
請求項2に記載の情報処理装置。
The plurality of different movements of the predetermined finger are:
The information processing apparatus according to claim 2, wherein the information processing apparatus includes the movement of the predetermined finger in which the predetermined fingertip of the finger touches each of a plurality of different clauses of another finger a plurality of times.
前記予め定めた指は、親指であり、
他の指の異なる複数の節は、人差し指、中指、薬指、及び小指各々の末節、中節、及び基節である
請求項2又は請求項3に記載の情報処理装置。
The predetermined finger is a thumb,
The information processing apparatus according to claim 2 or 3, wherein the plurality of different segments of the other finger are a last segment, a middle segment, and a base segment of each of the index finger, the middle finger, the ring finger, and the little finger.
前記検出部は、
前腕に取り付けられるフレキシブルな細長支持基材と、
指を曲げる場合に働く前腕の主力筋から作用する圧力を各々検出する複数の圧力素子が、前記細長支持基材の前腕側の面に沿って配列された圧力検出器と
を含む
請求項1から請求項4の何れか1項に記載の情報処理装置。
The detection unit is
A flexible elongated support substrate attached to the forearm;
A plurality of pressure elements each for detecting pressure acting from a main muscle of a forearm working when bending a finger includes a pressure detector arranged along a surface on the forearm side of the elongated support base. The information processing apparatus according to any one of claims 4 to 10.
前記主力筋は、尺側手根屈筋、浅指屈筋、長掌筋、及び橈側手根屈筋の少なくとも1つである
請求項5に記載の情報処理装置。
The information processing apparatus according to claim 5, wherein the main muscle is at least one of a flexor carpal flexor, a flexor digitum flexor, a long palmar muscle, and a flexor carpal flexor.
前記異なる情報は、
五十音の一部、数字、及び記号の一部の何れかを含む
請求項1から請求項6の何れか1項に記載の情報処理装置。
The different information is
The information processing apparatus according to any one of claims 1 to 6, including any one of a part of the Japanese syllabary, a number, and a part of a symbol.
前記出力部から出力された前記情報を表示する表示部をさらに備えた
請求項1から請求項7の何れか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 7, further comprising a display unit configured to display the information output from the output unit.
コンピュータに、
請求項1から請求項8の何れか1項に記載された情報処理装置の出力部の処理を実行させることを含む情報処理方法。
On the computer
An information processing method including performing processing of an output unit of the information processing apparatus according to any one of claims 1 to 8.
コンピュータを、請求項1から請求項8の何れか1項に記載された情報処理装置の出力部として機能させるための情報処理プログラム。   An information processing program for causing a computer to function as an output unit of the information processing apparatus according to any one of claims 1 to 8. 手首の変化を検出する検出部と、
検出された手首の変化毎に異なる情報を対応させた対応関係に基づいて、情報を出力する出力部と、
を備えた情報処理装置。
A detection unit that detects a change in the wrist;
An output unit that outputs information based on the correspondence relationship in which different information is associated with each detected change in the wrist;
An information processing apparatus provided with
指の動きに伴う、手首の膨縮を検出し、検出信号を出力する検出部と、
前記検出信号をパターン化し、パターン毎に所定の情報、又はコマンドを対応付けた対応関係を記憶する記憶部と、
前記検出信号と前記対応関係とに基づいて、前記所定の情報、又はコマンドを出力する出力部と、
を備えた情報処理装置。
A detection unit that detects expansion and contraction of the wrist accompanying movement of the finger and outputs a detection signal;
A storage unit configured to pattern the detection signal and to store predetermined information corresponding to each pattern or a correspondence in which a command is associated;
An output unit that outputs the predetermined information or a command based on the detection signal and the correspondence relationship;
An information processing apparatus provided with
手首の変化を検出する検出ステップと、
検出された手首の変化毎に異なる情報を対応させた対応関係に基づいて、情報を出力する出力ステップと、
を含む情報処理方法。
Detecting the change in the wrist;
An output step of outputting information based on a correspondence relationship in which different information is made to correspond to each detected change in the wrist;
Information processing method including:
指の動きに伴う、手首の膨縮を検出し、検出信号を出力する検出ステップと、
前記検出信号をパターン化し、パターン毎に所定の情報、又はコマンドを対応付けた対応関係を記憶する記憶ステップと、
前記検出信号と前記対応関係とに基づいて、前記所定の情報、又はコマンドを出力する出力ステップと、
を含む情報処理方法。
Detecting the expansion and contraction of the wrist accompanying the movement of the finger and outputting a detection signal;
Storing the pattern of the detection signal and storing predetermined information corresponding to each pattern or a correspondence relationship in which a command is associated;
An output step of outputting the predetermined information or command based on the detection signal and the correspondence relationship;
Information processing method including:
コンピュータに、
請求項11又は請求項12に記載された情報処理装置の出力部の処理を実行させることを含む情報処理方法。
On the computer
An information processing method including performing processing of an output unit of the information processing apparatus according to claim 11 or 12.
コンピュータを、請求項11又は請求項12に記載された情報処理装置の出力部として機能させるための情報処理プログラム。   An information processing program for causing a computer to function as an output unit of the information processing apparatus according to claim 11 or 12.
JP2017202541A 2017-10-19 2017-10-19 Information processing apparatus, information processing method, and information processing program Pending JP2019075034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202541A JP2019075034A (en) 2017-10-19 2017-10-19 Information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202541A JP2019075034A (en) 2017-10-19 2017-10-19 Information processing apparatus, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2019075034A true JP2019075034A (en) 2019-05-16

Family

ID=66545207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202541A Pending JP2019075034A (en) 2017-10-19 2017-10-19 Information processing apparatus, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2019075034A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021182176A1 (en) * 2020-03-13 2021-09-16 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021182176A1 (en) * 2020-03-13 2021-09-16 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
US10684692B2 (en) Systems, devices, and methods for gesture identification
RU2662408C2 (en) Method, apparatus and data processing device
US6861945B2 (en) Information input device, information processing device and information input method
JP6415592B2 (en) Wearable device
EP1332422A1 (en) Wearable data input interface
EP1933225A2 (en) Using sequential taps to enter text
US20150242120A1 (en) Data input peripherals and methods
CN107209560A (en) Detect finger movement
WO2017134283A1 (en) Wearable controller for wrist
WO2011055326A1 (en) Universal input/output human user interface
WO2013064915A1 (en) Single hand multi-touch surface keyboard
JP2008305199A (en) Input system and program
KR20190092777A (en) Glove-type Motion Recognizing Apparatus and Recognizing Method thereof
KR101497829B1 (en) Watch type device utilizing motion input
KR20020072081A (en) Virtual input device sensed finger motion and method thereof
JP2019075034A (en) Information processing apparatus, information processing method, and information processing program
US8704757B2 (en) Input system and input apparatus
US20130215037A1 (en) Multi-touch surface keyboard with multi-key zones on an adaptable home line and method of inputting to same
JP6887021B2 (en) Ring-type user-operated sensing device worn between finger joints
WO2020210014A1 (en) Sensing and control systems
KR101485679B1 (en) Character input method using motion sensor and apparatus performing the same
KR101227052B1 (en) apparatus and method for input system of finger keyboard
KR101643711B1 (en) Smart display apparatus and setting and executing method for ui
KR100651745B1 (en) Apparatus for character input using wearable tactile sensor and method thereof and character recognizing device which is wearable
KR101748570B1 (en) Wearable data input device