JP2011048518A - System, device and program for recognizing information - Google Patents

System, device and program for recognizing information Download PDF

Info

Publication number
JP2011048518A
JP2011048518A JP2009194957A JP2009194957A JP2011048518A JP 2011048518 A JP2011048518 A JP 2011048518A JP 2009194957 A JP2009194957 A JP 2009194957A JP 2009194957 A JP2009194957 A JP 2009194957A JP 2011048518 A JP2011048518 A JP 2011048518A
Authority
JP
Japan
Prior art keywords
time
information
detection data
data
information recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009194957A
Other languages
Japanese (ja)
Inventor
Tomoko Motoshige
朋子 元重
Michio Inaba
道夫 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009194957A priority Critical patent/JP2011048518A/en
Publication of JP2011048518A publication Critical patent/JP2011048518A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information recognition system, an information recognition device and an information recognition program, permitting creation of comparison data to accurately recognize a move. <P>SOLUTION: A first window 123 from a predetermined time point 113 to a first time A, and a second window 124 from a predetermined time point 114 to a second time B are defined. The operation information indicating whether a key has been stroked or not is cut out by a first window, and the detection data 93 detected by a sensor fixed to a hand is cut out by a second window. Whether the information indicating stroking of the key is included in the operation information is determined. If a displacement 95 from a 'Hi' level to a 'Low' level is included in the operation information, since it indicates that key strokes have been performed, the cut out detection data is stored in a storage means as the comparison data (pattern data 96) used when recognizing the move of the hand. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は情報認識システム、情報認識装置、及び情報認識プログラムに関する。より詳細には、人の手に取り付けられたセンサの情報に基づいて、入力情報を認識する情報認識システム、情報認識装置、及び情報認識プログラムに関する。   The present invention relates to an information recognition system, an information recognition apparatus, and an information recognition program. More specifically, the present invention relates to an information recognition system, an information recognition apparatus, and an information recognition program for recognizing input information based on information of a sensor attached to a human hand.

近年、キーボードの代わりに情報の入力を行うための情報入力装置が開発されている。例えば特許文献1では、手の仕草で情報入力を行うことが可能な情報入力装置が提案されている。この入力装置では、ユーザの指に取り付けられたセンサからの信号が、所定の周期でスキャンされる。所定時間内にスキャンされた信号のデータ(スキャンデータ)が取得されて解析され、指の動きが認識される。その結果、認識された指の動きに対応する情報が入力されたと判断される。   In recent years, information input devices for inputting information instead of a keyboard have been developed. For example, Patent Document 1 proposes an information input device that can input information by hand gestures. In this input device, a signal from a sensor attached to a user's finger is scanned at a predetermined cycle. Data (scan data) of a signal scanned within a predetermined time is acquired and analyzed, and finger movement is recognized. As a result, it is determined that information corresponding to the recognized finger movement has been input.

指の動きの認識は、特定の指の動きに対応付けられて予め準備された比較用データに基づいて実行される。スキャンデータが比較用データに該当する場合、該当するとされた比較用データに対応付けられている特定の指の動きが、実際の指の動きであると認識される。比較用データは、較正ルーチンにおいて、指が特定の動きを行った時点(「動作時点」という。)を含む所定時間(「ウィンドウ」という。)内に取得されたスキャンデータに基づいて作成される。   The recognition of the finger movement is executed based on comparison data prepared in advance in association with a specific finger movement. When the scan data corresponds to the comparison data, the specific finger movement associated with the comparison data determined to be applicable is recognized as the actual finger movement. The comparison data is generated based on scan data acquired within a predetermined time (referred to as “window”) including a time point when the finger performs a specific movement (referred to as “operation time point”) in the calibration routine. .

特表2006−503350号公報JP-T-2006-503350

しかしながら上述の装置では、指の動きの認識精度は、比較用データの作成時における動作時点とウィンドウとに大きく依存する。例えば、作成される比較用データの動作時点がウィンドウ内のどの時点に設定されるかによって、指の動きの認識精度は大きく変化する。このため、動作時点とウィンドウとが適当でない比較データを用いて指の動きの認識が行われた場合、認識精度が大きく低下してしまうという問題点がある。   However, in the above-described apparatus, the finger movement recognition accuracy largely depends on the operation time point and the window when the comparison data is created. For example, the recognition accuracy of the finger movement varies greatly depending on which time point in the window the operation time point of the comparison data to be created is set. For this reason, when finger movement is recognized using comparison data in which the operation time point and the window are not appropriate, there is a problem that the recognition accuracy is greatly reduced.

本発明は上述の問題点を解決するためになされたものであり、動きを正確に認識できる比較用データを作成可能な情報認識システム、情報認識装置、及び情報認識プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an information recognition system, an information recognition apparatus, and an information recognition program capable of creating comparative data capable of accurately recognizing movement. To do.

上述の問題点を解決するために、請求項1に係る発明の情報認識システムは、センサと送信手段とを少なくとも備えた検出装置と、前記検出装置において検出された信号に基づいて、入力情報を認識する情報認識装置とを備えた情報認識システムであって、前記検出装置は、人の手に取り付けられるセンサと、前記センサにおいて検出される信号であって、前記手の動きを示す信号を取得する取得手段と、前記取得手段によって取得された前記信号のデータである検出データを、前記情報認識装置に対して送信する送信手段とを備え、前記情報認識装置は、前記検出装置から送信された前記検出データを受信する受信手段と、前記受信手段によって受信された前記検出データを記憶する第一記憶手段と、所定時点から第一時間内の動作情報から、前記手が所定動作を行ったか否かを判断する判断手段と、前記所定動作が行われたと判断された時点が少なくとも含まれる時間であって前記第一時間よりも長い第二時間内に検出された前記検出データを、前記第一記憶手段に記憶されている複数の前記検出データから抽出する抽出手段と、前記判断手段において、前記手が所定動作を行ったと判断された場合に、前記抽出手段によって抽出された前記検出データを、前記手が前記所定動作を行った場合に検出される前記検出データのパターンとして、前記所定動作を示す情報に対応付けて第二記憶手段に記憶する記憶制御手段とを備えている。   In order to solve the above-described problems, an information recognition system according to a first aspect of the present invention provides a detection device including at least a sensor and a transmission unit, and input information based on a signal detected by the detection device. An information recognition system comprising an information recognition device for recognizing, wherein the detection device acquires a sensor attached to a human hand, a signal detected by the sensor, and a signal indicating the movement of the hand Acquisition means, and transmission means for transmitting detection data, which is data of the signal acquired by the acquisition means, to the information recognition apparatus, wherein the information recognition apparatus is transmitted from the detection apparatus Receiving means for receiving the detection data; first storage means for storing the detection data received by the receiving means; and operating information within a first time from a predetermined time point A determination means for determining whether or not the hand has performed a predetermined action; and a time at which the time point at which the predetermined action has been determined is at least included and detected within a second time longer than the first time The extraction means for extracting the detected detection data from the plurality of detection data stored in the first storage means, and the determination means when the determination is made that the hand has performed a predetermined action. Storage control for storing the detection data extracted by the means in the second storage means in association with information indicating the predetermined action as a pattern of the detection data detected when the hand performs the predetermined action Means.

また、請求項2に係る発明の情報認識システムは、請求項1に記載の発明の構成に加えて、前記判断手段は、前記所定時点から前記第一時間よりも短い第三時間経過後の時点を新たな前記所定時点として、前記手が前記所定動作を行ったか否かを繰り返し判断することを特徴とする。   According to a second aspect of the present invention, in addition to the configuration of the first aspect of the invention, the determination unit is configured to determine a time point after a lapse of a third time shorter than the first time from the predetermined time point. Is newly determined as the predetermined time point, and it is repeatedly determined whether or not the hand has performed the predetermined operation.

また、請求項3に係る発明の情報認識システムは、請求項1または2に記載の発明の構成に加えて、前記第二時間は、前記手が前記所定動作を連続して実行可能な最小の時間である限界時間以下であることを特徴とする。   According to a third aspect of the present invention, in addition to the configuration of the first or second aspect of the invention, the second time is a minimum in which the hand can continuously execute the predetermined operation. It is characterized by being less than the limit time which is time.

また、請求項4に係る発明の情報認識システムは、請求項1から3のいずれかに記載の発明の構成に加えて、前記第一時間における開始時点と終了時点との間の中点である第一中点の位置が、前記第二時間における開始時点と終了時点との間の中点である第二中点の位置と比較して、前記第二時間の前記終了時点側に配置されるように、前記第一時間の開始時点と前記第二時間の開始時点とが設定されることを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 3, the information recognition system of the invention according to claim 4 is a midpoint between the start time and the end time in the first time. The position of the first midpoint is arranged on the end time side of the second time compared to the position of the second midpoint, which is the midpoint between the start time and end time in the second time. As described above, the start time of the first time and the start time of the second time are set.

また、請求項5に係る発明の情報認識システムは、請求項4に記載の発明の構成に加えて、前記第一中点の位置が、前記第二中点の位置から前記第二時間の前記終了時点側に、前記第二時間の終了時点と前記第二中点との間の時間よりも短い第四時間移動した位置に配置されるように、前記第一時間の開始時点と前記第二時間の開始時点とが設定されることを特徴とする。   According to a fifth aspect of the present invention, in addition to the configuration of the fourth aspect of the invention, the position of the first middle point is the second time from the second middle point. The start time of the first time and the second time are arranged on the end time side so as to be arranged at a position moved for a fourth time shorter than the time between the end time of the second time and the second middle point. A time start point is set.

また、請求項6に係る発明の情報認識システムは、請求項1から5のいずれかに記載の発明の構成に加えて、前記情報認識装置は、前記動作情報を取得するキーボードを備えており、前記判断手段は、前記キーボードが操作されることによって前記動作情報を取得した場合に、前記手が前記所定動作を行ったと判断することを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 5, the information recognition system of the invention according to claim 6 includes a keyboard for acquiring the operation information, The determination unit determines that the hand has performed the predetermined operation when the operation information is acquired by operating the keyboard.

また、請求項7に係る発明の情報認識システムは、請求項6に記載の発明の構成に加えて、前記判断手段は、前記所定動作として、前記キーボードの押し下げと押し上げとの少なくともいずれかの操作がなされた場合に、前記手が前記所定動作を行ったと判断することを特徴とする。   According to a seventh aspect of the present invention, in addition to the configuration of the sixth aspect of the invention, the determination means may perform at least one of pressing down and pushing up of the keyboard as the predetermined operation. It is characterized in that it is determined that the hand has performed the predetermined motion when

また、請求項8に係る発明の情報認識装置は、センサと送信手段とを少なくとも備えた検出装置において検出された信号に基づいて、入力情報を認識する情報認識装置であって、前記検出装置の前記センサにおいて検出された信号のデータである検出データを受信する受信手段と、前記受信手段によって受信された前記検出データを記憶する第一記憶手段と、所定時点から第一時間内の動作情報から、前記手が所定動作を行ったか否かを判断する判断手段と、前記所定動作が行われたと判断された時点が少なくとも含まれる時間であって前記第一時間よりも長い第二時間内に検出された前記検出データを、前記第一記憶手段に記憶されている複数の前記検出データから抽出する抽出手段と、前記判断手段において、前記手が所定動作を行ったと判断された場合に、前記抽出手段によって抽出された前記検出データを、前記手が前記所定動作を行った場合に検出される前記検出データのパターンとして、前記所定動作を示す情報に対応付けて第二記憶手段に記憶する記憶制御手段とを備えている。   An information recognition apparatus according to an eighth aspect of the present invention is an information recognition apparatus for recognizing input information based on a signal detected by a detection apparatus including at least a sensor and a transmission means. From receiving means for receiving detection data which is data of a signal detected by the sensor, first storage means for storing the detection data received by the receiving means, and operation information within a first time from a predetermined time point A determination means for determining whether or not the hand has performed a predetermined action; and a time at which the time point at which the predetermined action has been determined is at least included and detected within a second time longer than the first time In the extraction means for extracting the detected data from the plurality of detection data stored in the first storage means and the determination means, the hand performs a predetermined operation If it is determined, the detection data extracted by the extraction means is associated with information indicating the predetermined action as a pattern of the detection data detected when the hand performs the predetermined action. Storage control means for storing in the second storage means.

また、請求項9に係る発明の情報認識プログラムは、請求項8に記載の情報認識装置の各処理手段としてコンピュータを駆動させる。   An information recognition program according to a ninth aspect of the invention drives a computer as each processing means of the information recognition apparatus according to the eighth aspect.

請求項1に係る発明の情報認識システムでは、所定時点から第一時間内に、手が所定動作を行ったかが判断される。所定動作を行った場合、第二時間内に検出された検出データが、手が所定動作を行った場合に検出される検出データのパターンとして記憶される。記憶された検出データのパターンは、手の動作を認識する場合の比較用データとして使用される。第一時間と第二時間とが別々に設定可能であるので、動作時点とウィンドウとの関係を適切に設定した状態で比較データを取得することができる。取得された比較データを使用することによって、動作認識の精度を高めることができる。   In the information recognition system according to the first aspect of the present invention, it is determined whether or not the hand has performed a predetermined motion within a first time from a predetermined time point. When the predetermined operation is performed, the detection data detected within the second time is stored as a pattern of detection data detected when the hand performs the predetermined operation. The stored detection data pattern is used as comparison data when recognizing hand movements. Since the first time and the second time can be set separately, the comparison data can be acquired in a state where the relationship between the operation time point and the window is appropriately set. By using the acquired comparison data, the accuracy of motion recognition can be increased.

また、請求項2に係る発明の情報認識システムでは、請求項1に記載の発明の効果に加えて、第三時間が第一時間より短いので、手が所定動作を行ったことを示す動作情報を漏れなく抽出して所定動作の有無を判断することができる。   Further, in the information recognition system of the invention according to claim 2, in addition to the effect of the invention of claim 1, the third time is shorter than the first time, so that the action information indicating that the hand has performed a predetermined action Can be extracted without omission to determine the presence or absence of a predetermined action.

また、請求項3に係る発明の情報認識システムでは、請求項1または2に記載の発明の効果に加えて、第二時間は限界時間以下であるので、所定動作が連続して繰り返し行われた場合であっても、複数の動作に基づく検出データが、一の検出データのパターンに含まれてしまうことを防止できる。   In the information recognition system of the invention according to claim 3, in addition to the effect of the invention of claim 1 or 2, since the second time is less than the limit time, the predetermined operation is continuously repeated. Even in this case, it is possible to prevent detection data based on a plurality of operations from being included in one detection data pattern.

また、請求項4に係る発明の情報認識システムでは、請求項1から3のいずれかに記載の発明の効果に加えて、第二記憶手段に記憶される検出データのパターンに基づいて動作認識が実行される場合に、動作認識に要する時間を短縮することができる。   In addition, in the information recognition system of the invention according to claim 4, in addition to the effect of the invention according to any one of claims 1 to 3, motion recognition is performed based on the pattern of the detection data stored in the second storage means. When executed, the time required for motion recognition can be shortened.

また、請求項5に係る発明の情報認識システムでは、請求項4に記載の発明の効果に加えて、所定動作を顕著に示す比較データを確実に取得することができる。取得された比較データに基づいて動作認識を実行することによって、動作認識の精度をさらに高めることができる。   Further, in the information recognition system according to the fifth aspect of the invention, in addition to the effect of the fourth aspect of the invention, it is possible to reliably acquire comparison data that significantly shows the predetermined operation. By performing motion recognition based on the acquired comparison data, the accuracy of motion recognition can be further improved.

また、請求項6に係る発明の情報認識システムでは、請求項1から5のいずれかに記載の発明の効果に加えて、キーボードを打鍵する動作に基づいた比較データを取得することができる。取得された比較データを用いることによって、打鍵されたキーの種別を認識することができる。   In the information recognition system according to the sixth aspect of the invention, in addition to the effect of the invention according to any one of the first to fifth aspects, it is possible to obtain comparison data based on an operation of pressing a keyboard. By using the acquired comparison data, it is possible to recognize the type of the key that has been pressed.

また、請求項7に係る発明の情報認識システムでは、請求項6に記載の発明の効果に加えて、キーボードの押し下げ操作と押し上げ操作とのうち、打鍵動作がより顕著に表れる操作を選択して比較データを取得することができる。取得された比較データを用いることによって、キー種別の認識精度をより高めることができる。また、押下されたキーの種別の認識だけでなく、キーの押下状態が解除された場合のキーの種別の認識も可能となるので、多様なキー操作を認識することができる。   In addition, in the information recognition system of the invention according to claim 7, in addition to the effect of the invention according to claim 6, an operation in which a keystroke operation appears more prominently among a keyboard pressing operation and a pressing operation is selected. Comparison data can be acquired. By using the acquired comparison data, the recognition accuracy of the key type can be further increased. In addition to the recognition of the pressed key type, it is also possible to recognize the key type when the key pressing state is released, so that various key operations can be recognized.

また、請求項8に係る発明の情報認識装置では、所定時点から第一時間内に、手が所定動作を行ったかが判断される。所定動作を行った場合、第二時間内に検出された検出データが、手が所定動作を行った場合に検出される検出データのパターンとして記憶される。記憶された検出データのパターンは、手の動作を認識する場合の比較用データとして使用される。第一時間と第二時間とが別々に設定可能であるので、動作時点とウィンドウとの関係を適切に設定した状態で比較データを取得することができる。取得された比較データを使用することによって、動作認識の精度を高めることができる。   In the information recognition apparatus of the invention according to claim 8, it is determined whether or not the hand has performed a predetermined motion within a first time from a predetermined time point. When the predetermined operation is performed, the detection data detected within the second time is stored as a pattern of detection data detected when the hand performs the predetermined operation. The stored detection data pattern is used as comparison data when recognizing hand movements. Since the first time and the second time can be set separately, the comparison data can be acquired in a state where the relationship between the operation time point and the window is appropriately set. By using the acquired comparison data, the accuracy of motion recognition can be increased.

また、請求項9に係る発明の情報認識プログラムでは、請求項8に記載の情報認識装置の各処理手段としてコンピュータを駆動させることができる。   In the information recognition program according to the ninth aspect of the present invention, a computer can be driven as each processing means of the information recognition apparatus according to the eighth aspect.

情報認識システム1の概要を示す模式図である。1 is a schematic diagram showing an outline of an information recognition system 1. FIG. 検出データからパターンデータを抽出する処理の概要を示す図である。It is a figure which shows the outline | summary of the process which extracts pattern data from detection data. 検出データからパターンデータを抽出する処理の概要を示す図である。It is a figure which shows the outline | summary of the process which extracts pattern data from detection data. 検出データからパターンデータを抽出する処理の概要を示す図である。It is a figure which shows the outline | summary of the process which extracts pattern data from detection data. 打鍵動作を認識する処理の概要を示す図である。It is a figure which shows the outline | summary of the process which recognizes a keystroke operation. 検出装置2の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a detection device 2. FIG. 情報認識装置3の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of the information recognition device 3. FIG. パターンデータ3831を示す模式図である。It is a schematic diagram showing pattern data 3831. 学習処理を示すフローチャートである。It is a flowchart which shows a learning process. 動作認識処理を示すフローチャートである。It is a flowchart which shows an action recognition process. 動作情報受信処理を示すフローチャートである。It is a flowchart which shows operation information reception processing. 送信処理を示すフローチャートである。It is a flowchart which shows a transmission process.

以下、本発明の一実施形態における情報認識システム1について、図面を参照して説明する。なおこれらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, an information recognition system 1 according to an embodiment of the present invention will be described with reference to the drawings. These drawings are used for explaining the technical features that can be adopted by the present invention, and the configuration of the apparatus described, the flowcharts of various processes, and the like are not intended to be limited thereto. It is just an illustrative example.

はじめに、図1を参照し、情報認識システム1の概要について説明する。情報認識システム1は、検出装置2と情報認識装置3とを少なくとも備えている。検出装置2は、手袋の形状を有しており、ユーザの手に装着される。図1では、右手用の検出装置2と左手用の検出装置2とが準備されている。検出装置2の電源が投入された状態で、検出装置2において手の動きを示す信号が検出される。検出された信号のデータが、情報認識装置3に対して送信される。情報認識装置3においてデータが解析される。ユーザによって行われた手の動作の内容が、情報認識装置3において特定される。   First, the outline of the information recognition system 1 will be described with reference to FIG. The information recognition system 1 includes at least a detection device 2 and an information recognition device 3. The detection device 2 has a glove shape and is attached to the user's hand. In FIG. 1, a detection device 2 for the right hand and a detection device 2 for the left hand are prepared. In a state where the power of the detection device 2 is turned on, a signal indicating hand movement is detected in the detection device 2. Data of the detected signal is transmitted to the information recognition device 3. Data is analyzed in the information recognition device 3. The content of the hand movement performed by the user is specified in the information recognition device 3.

例えば、ユーザがキーボードのうち特定のキーを打鍵する動作を行った場合、検出装置2において打鍵動作を示す信号が検出され、データが情報認識装置3に送信される。情報認識装置3においてデータが受信され、解析される。解析の結果、打鍵動作によって選択されたキーの種別が特定される。選択されたキーの種別が手の動きから特定可能となるので、ユーザはキーボードを用いることなく情報を入力することが可能となる。なお以下では、情報認識システム1において、ユーザの打鍵動作からキーの種別が特定される場合を例示して説明する。しかしながら本発明はこれに限定されない。例えば情報認識システム1は、他の手の動き(手話動作など)から入力情報を特定してもよい。   For example, when the user performs an operation of pressing a specific key on the keyboard, a signal indicating the key pressing operation is detected by the detection device 2, and data is transmitted to the information recognition device 3. Data is received and analyzed in the information recognition device 3. As a result of the analysis, the type of the key selected by the keystroke operation is specified. Since the type of the selected key can be specified from the movement of the hand, the user can input information without using the keyboard. In the following, a case where the type of key is specified from the user's keystroke operation in the information recognition system 1 will be described as an example. However, the present invention is not limited to this. For example, the information recognition system 1 may specify input information from other hand movements (eg, sign language movement).

情報認識装置3におけるデータの解析方法の概要について説明する。情報認識装置3には、キーの打鍵動作を示すデータ(以下「パターンデータ」という。)が、キーの種別毎に予め記憶されている。情報認識装置3では、検出装置2から受信したデータとパターンデータとが比較される。受信したデータがパターンデータに該当すると判断された場合に、パターンデータに対応付けられた種別のキーが打鍵されたと判断される。   An outline of a data analysis method in the information recognition apparatus 3 will be described. In the information recognition device 3, data indicating a key pressing operation (hereinafter referred to as “pattern data”) is stored in advance for each key type. In the information recognition device 3, the data received from the detection device 2 is compared with the pattern data. When it is determined that the received data corresponds to the pattern data, it is determined that the key of the type associated with the pattern data has been pressed.

情報認識装置3は、パターンデータを取得する為の動作モード(以下「学習モード」という。)にて動作可能である。情報認識装置3は、学習モード動作時において検出装置2から受信したデータを、パターンデータとしてキー種別に対応付けて記憶する。記憶したパターンデータは、通常動作時において、検出装置2から受信したデータの解析に使用される。本実施の形態は、情報認識装置3が最適なパターンデータを取得することによって、認識精度の高いデータ解析を可能とするものである。   The information recognition device 3 can operate in an operation mode (hereinafter referred to as “learning mode”) for acquiring pattern data. The information recognition device 3 stores the data received from the detection device 2 during the learning mode operation in association with the key type as pattern data. The stored pattern data is used for analysis of data received from the detection device 2 during normal operation. In the present embodiment, data analysis with high recognition accuracy is enabled by the information recognition apparatus 3 acquiring optimal pattern data.

検出装置2及び情報認識装置3について詳説する。検出装置2は、手袋形状を有する手袋部13を備えている。手袋部13のうちそれぞれの指先部分に、手の動きを検出する加速度センサ(以下、「センサ21」という。)が取り付けられている。なおセンサ21としては、加速度センサの他に例えばジャイロセンサなどが使用可能である。検出装置2は、手袋部13の手首部分に制御部22を備えている。センサ21と制御部22とはハーネス14によって接続されている。センサ21において検出された信号は、ハーネス14を介して制御部22に伝送される。制御部22は、図示外のアンテナ28(図6参照)を備えている。制御部22は、センサ21によって検出された信号を受け、データ化して情報認識装置3に対して無線送信する(データ化された信号を「検出データ」という。)。制御部22は、LEDで構成された表示部29を備えている。表示部29は、検出装置2の状態等をユーザに通知する為に設けられている。なお表示部29としては、LEDの他に例えばLCDなどが使用可能である。   The detection device 2 and the information recognition device 3 will be described in detail. The detection device 2 includes a glove part 13 having a glove shape. An acceleration sensor (hereinafter referred to as “sensor 21”) that detects the movement of the hand is attached to each fingertip portion of the glove part 13. As the sensor 21, for example, a gyro sensor can be used in addition to the acceleration sensor. The detection device 2 includes a control unit 22 at the wrist portion of the glove unit 13. The sensor 21 and the control unit 22 are connected by a harness 14. A signal detected by the sensor 21 is transmitted to the control unit 22 via the harness 14. The control unit 22 includes an antenna 28 (see FIG. 6) not shown. The control unit 22 receives the signal detected by the sensor 21, converts it into data, and wirelessly transmits it to the information recognition device 3 (the signal converted into data is referred to as “detection data”). The control unit 22 includes a display unit 29 composed of LEDs. The display unit 29 is provided to notify the user of the state of the detection device 2 and the like. As the display unit 29, for example, an LCD or the like can be used in addition to the LED.

情報認識装置3は、図示外のアンテナ35及びアンテナ37(図7参照)を備えている。情報認識装置3は、検出装置2の制御部22から無線送信された検出データを、アンテナ35を介して受信する。受信された検出データが解析され、打鍵動作によって選択されたキー種別が特定される。特定されたキー種別の情報は、アンテナ37を介して他の機器(PCなど)に無線送信される。   The information recognition device 3 includes an antenna 35 and an antenna 37 (see FIG. 7) not shown. The information recognition device 3 receives the detection data wirelessly transmitted from the control unit 22 of the detection device 2 via the antenna 35. The received detection data is analyzed, and the key type selected by the keystroke operation is specified. The specified key type information is wirelessly transmitted to another device (such as a PC) via the antenna 37.

情報認識装置3には、キーボード15が接続される。キーボード15は、学習モード動作時において使用される。情報認識装置3は、LEDで構成された表示部39を備えている。表示部39は、情報認識装置3の状態等をユーザに通知するために設けられている。なお表示部39としては、LEDの他に例えばLCDなどが使用可能である。情報認識装置3は、入力部40を備えている。入力部40は、情報認識装置3の動作モード(通常モード、学習モード、詳細後述)を切り替える場合に使用される。入力部40としては、例えばタッチセンサやボタン等が使用される。   A keyboard 15 is connected to the information recognition device 3. The keyboard 15 is used during the learning mode operation. The information recognition apparatus 3 includes a display unit 39 configured by LEDs. The display unit 39 is provided to notify the user of the state of the information recognition device 3 and the like. As the display unit 39, for example, an LCD or the like can be used in addition to the LED. The information recognition device 3 includes an input unit 40. The input unit 40 is used when switching the operation mode (normal mode, learning mode, details will be described later) of the information recognition device 3. As the input unit 40, for example, a touch sensor or a button is used.

なお、図1に示す情報認識システム1では、右手用の検出装置2と左手用の検出装置2とが準備されている。しかしながら本発明はこの構成に限定されない。情報認識システム1は、片方の手に装着される検出装置2のみ備えた構成であってもよい。センサ21は、手袋部13のうち指先部分に取り付けられていたが、本発明はこの構成に限定されず、他の部位(指の関節部分、掌、手の甲など)に取り付けられていてもよい。センサ21と制御部22との間の通信は、ハーネス14を介した有線通信に限定されず、無線通信であってもよい。検出装置2と情報認識装置3との間の通信、情報認識装置3と他の機器(PCなど)との間の通信は無線通信に限定されず、有線通信であってもよい。情報認識システム1は、情報認識装置3が手袋部13に取り付けられた構成であってもよい。   In the information recognition system 1 shown in FIG. 1, a detection device 2 for the right hand and a detection device 2 for the left hand are prepared. However, the present invention is not limited to this configuration. The information recognition system 1 may be configured to include only the detection device 2 that is attached to one hand. The sensor 21 is attached to the fingertip part of the glove part 13, but the present invention is not limited to this configuration, and may be attached to other parts (finger joint part, palm, back of hand, etc.). Communication between the sensor 21 and the control unit 22 is not limited to wired communication via the harness 14, and may be wireless communication. The communication between the detection device 2 and the information recognition device 3 and the communication between the information recognition device 3 and another device (such as a PC) are not limited to wireless communication, but may be wired communication. The information recognition system 1 may have a configuration in which the information recognition device 3 is attached to the glove part 13.

検出装置2のセンサ21は、検出される信号として、3軸(x軸、y軸、z軸)の其々の方向の加速度信号(G(x),G(y),G(z))を常時出力している。加速度信号(G(x),G(y),G(z))は、制御部22に内蔵されるCPU23(図6参照)によって所定周期(5ms)で検出され、データ化されて検出データとされる。検出データは、検出装置2から情報認識装置3に対して送信される。情報認識装置3において、検出装置2から送信された検出データが受信される。検出データは、手袋部13の各指に取り付けられたセンサ21毎に、検出データ記憶領域382(図7参照)に記憶される。   The sensor 21 of the detection device 2 detects acceleration signals (G (x), G (y), G (z)) in three directions (x-axis, y-axis, z-axis) as signals to be detected. Is always output. The acceleration signals (G (x), G (y), G (z)) are detected at a predetermined cycle (5 ms) by the CPU 23 (see FIG. 6) built in the control unit 22 and converted into data to be detected data. Is done. The detection data is transmitted from the detection device 2 to the information recognition device 3. In the information recognition device 3, the detection data transmitted from the detection device 2 is received. The detection data is stored in the detection data storage area 382 (see FIG. 7) for each sensor 21 attached to each finger of the glove part 13.

キーボード15(図1参照)は、キーの打鍵の有無を示す情報(以下「動作情報」という。)と、打鍵されたキーの種別を示す情報(以下「キー情報」という。)とを、情報認識装置3に対して常時送信している。動作情報とは、キーボードが押下されない状態でHiレベル(例えば3.0V)を示し、キーボードが押下された場合にLowレベル(例えば0V)を示す情報である。情報認識装置3において、キーボード15から送信された動作情報とキー情報とが受信される。受信された動作情報とキー情報とは、対応付けられて動作情報記憶領域381(図7参照)に記憶される。   The keyboard 15 (see FIG. 1) includes information indicating whether or not a key has been pressed (hereinafter referred to as “operation information”) and information indicating the type of the key that has been pressed (hereinafter referred to as “key information”). It is constantly transmitted to the recognition device 3. The operation information is information indicating a Hi level (for example, 3.0V) when the keyboard is not pressed, and indicating a Low level (for example, 0V) when the keyboard is pressed. The information recognition apparatus 3 receives the operation information and key information transmitted from the keyboard 15. The received motion information and key information are stored in the motion information storage area 381 (see FIG. 7) in association with each other.

なお本実施の形態では、キーボード15は動作情報とキー情報とを情報認識装置3に対して常時送信する構成としたが、本発明はこの構成に限定されない。例えば、動作情報が変位した(Hiレベル→Lowレベル、Lowレベル→Hiレベル)場合にのみ、キーボード15が動作情報とキー情報とを情報認識装置3に対して送信する構成としてもよい。   In the present embodiment, the keyboard 15 is configured to constantly transmit operation information and key information to the information recognition device 3, but the present invention is not limited to this configuration. For example, the keyboard 15 may be configured to transmit the motion information and key information to the information recognition device 3 only when the motion information is displaced (Hi level → Low level, Low level → Hi level).

情報認識システム1において、学習モード動作時にパターンデータが取得される場合の概要について、図2〜図4を参照して説明する。なお本実施の形態では、右手用の検出装置2のセンサ21において検出された加速度信号(G(x),G(y),G(z))の検出データと、左手用の検出装置2のセンサ21において検出された加速度信号(G(x),G(y),G(z))の検出データとは、それぞれ別々に情報認識装置3にて受信され、パターンデータとして記憶される。従って以下においては、右手用の検出装置2のセンサ21において検出された信号のデータがパターンデータとして情報認識装置3に記憶される場合について説明する。左手用の検出装置2において検出された信号のデータがパターンデータとして記憶される場合については、説明を省略する。図2中の点90は、人差し指に取り付けられたセンサ21からの加速度信号(G(x),G(y),G(z))のうちz軸成分の信号(G(z))に基づく検出データを示している。図2中の点90の検出データにおいて、図面左右方向は時間軸(t)を示しており、図面上下方向はz軸方向の加速度(G(z))を示している。図2中の線91は動作情報を示している。図2中の線91の動作情報において、図面左右方向は時間軸を示しており、図面上下方向はキーの押下状態(Hiレベル:押下状態、Lowレベル:押下していない状態)を示している。図2では、動作情報はHiレベルが維持されているので、キーボードは押下されていない。検出データは、キーボードが押下されていないので、小さな振幅で推移している。   In the information recognition system 1, an outline when pattern data is acquired during the learning mode operation will be described with reference to FIGS. 2 to 4. In the present embodiment, the detection data of the acceleration signals (G (x), G (y), G (z)) detected by the sensor 21 of the detection device 2 for the right hand and the detection device 2 for the left hand are used. Detection data of acceleration signals (G (x), G (y), G (z)) detected by the sensor 21 are separately received by the information recognition device 3 and stored as pattern data. Therefore, hereinafter, a case where data of a signal detected by the sensor 21 of the detection device 2 for the right hand is stored in the information recognition device 3 as pattern data will be described. The description of the case where the signal data detected by the left-hand detection device 2 is stored as pattern data is omitted. A point 90 in FIG. 2 is based on the z-axis component signal (G (z)) of the acceleration signals (G (x), G (y), G (z)) from the sensor 21 attached to the index finger. Detection data is shown. In the detection data of the point 90 in FIG. 2, the horizontal direction in the drawing indicates the time axis (t), and the vertical direction in the drawing indicates the acceleration (G (z)) in the z-axis direction. A line 91 in FIG. 2 indicates operation information. In the operation information of the line 91 in FIG. 2, the horizontal direction in the drawing indicates the time axis, and the vertical direction in the drawing indicates the pressed state of the key (Hi level: pressed state, Low level: not pressed). . In FIG. 2, since the operation information maintains the Hi level, the keyboard is not pressed. The detection data changes with a small amplitude because the keyboard is not pressed.

図2に示すように、動作情報記憶領域381に記憶された動作情報(線91)のうち、所定時点101から第一時間Aの間(図中点線121)に受信された動作情報が抽出される。第一時間Aは15msに設定される。また、検出データ記憶領域382に記憶された検出データのうち、所定時点102から第二時間Bの間(図中点線122)に検出された検出データが抽出される。第二時間Bは500msに設定される。   As shown in FIG. 2, the motion information received from the predetermined time point 101 to the first time A (dotted line 121 in the figure) is extracted from the motion information (line 91) stored in the motion information storage area 381. The The first time A is set to 15 ms. Further, of the detection data stored in the detection data storage area 382, detection data detected between the predetermined time point 102 and the second time B (dotted line 122 in the figure) is extracted. The second time B is set to 500 ms.

なお以下、第一時間Aの間を模式的に示す図中点線121の領域を第一ウィンドウと呼ぶ。第二時間Bの間を模式的に示す図中点線122の領域を第二ウィンドウと呼ぶ。第一時間Aの間に受信された動作情報を抽出することを、「第一ウィンドウによって動作情報を切り出す。」という。第二時間Bの間に受信された検出データを抽出することを「第二ウィンドウによって検出データを切り出す。」という。第一ウィンドウによって切り出された動作情報のうち最も早く受信された動作情報の受信時点を、第一時間Aの開始時点と呼ぶ。図中の所定時点101が、第一時間Aの開始時点に該当する。第一ウィンドウによって切り出された動作情報のうち最も遅く受信された動作情報の受信時点を、第一時間Aの終了時点と呼ぶ。図中の所定時点103が、第一時間Aの終了時点に該当する。第二ウィンドウによって切り出された検出データのうち最も早く受信された検出データの受信時点を、第二時間Bの開始時点と呼ぶ。図中の所定時点102が、第二時間Bの開始時点に該当する。第二ウィンドウによって切り出された検出データのうち最も遅く受信された検出データの受信時点を、第二時点Bの終了時点と呼ぶ。図中の所定時点105が、第二時間Bの終了時点に該当する。   Hereinafter, a region indicated by a dotted line 121 schematically showing the first time A is referred to as a first window. A region indicated by a dotted line 122 schematically showing the second time B is referred to as a second window. Extracting the operation information received during the first time A is referred to as “cutting out the operation information by the first window”. Extracting the detection data received during the second time B is referred to as “cutting out the detection data by the second window”. The reception time point of the operation information received earliest among the operation information cut out by the first window is referred to as the start time point of the first time A. A predetermined time point 101 in the figure corresponds to a start time point of the first time A. The reception time point of the latest received movement information among the movement information cut out by the first window is referred to as the end point of the first time A. A predetermined point 103 in the figure corresponds to the end point of the first time A. The reception point of the detection data received earliest among the detection data cut out by the second window is referred to as the start point of the second time B. A predetermined time point 102 in the figure corresponds to the start time point of the second time B. The reception time point of the detection data received latest among the detection data cut out by the second window is referred to as the end time point of the second time point B. The predetermined time point 105 in the figure corresponds to the end time point of the second time B.

ここで第一ウィンドウと第二ウィンドウとが所定の位置関係を示すように、第一時間Aと第二時間Bと所定時点101と所定時点102とが其々設定される。具体的には、第一時間Aの開始時点101と終了時点103との間の中点104の位置が、第二時間Bの開始時点102と終了時点105との間の中点106の位置と比較して、第二時間Bの終了時点105側に配置されるように、第一ウィンドウと第二ウィンドウとが配置される。具体的には、中点104は、中点106と比較して第四時間だけ第二時間Bの終了時点105側に配置されている。本実施の形態では、第四時間は100msに設定されている。以上の条件を満たす第一時間Aと第二時間Bと所定時点101と所定時点102とが其々設定される。   Here, the first time A, the second time B, the predetermined time point 101, and the predetermined time point 102 are set so that the first window and the second window indicate a predetermined positional relationship. Specifically, the position of the midpoint 104 between the start time point 101 and the end time point 103 of the first time A is the position of the midpoint 106 between the start time point 102 and the end time point 105 of the second time B. In comparison, the first window and the second window are arranged so as to be arranged on the end time 105 side of the second time B. Specifically, the midpoint 104 is arranged on the end time 105 side of the second time B for the fourth time period as compared to the midpoint 106. In the present embodiment, the fourth time is set to 100 ms. A first time A, a second time B, a predetermined time point 101, and a predetermined time point 102 that satisfy the above conditions are set.

第一ウィンドウによって動作情報が切り出され、且つ、第二ウィンドウによって検出データが切り出された後、次いで、打鍵の有無が判断される。第一ウィンドウによって切り出された動作情報の中に、HiレベルからLowレベルに変位する部分が含まれているか否かが判断されることによって、打鍵(キーの押し下げ)の有無が判断される。変位する部分が含まれていない場合、キーが打鍵されていないと判断される。この場合、図3に示すように、所定時点101から第三時間C経過後の時点が、新たな第一時間Aの所定時点111とされる。第三時間Cは10msに設定される。そして、新たな所定時点111から第一時間Aの間の第一ウィンドウによって、動作情報が切り出される。また、所定時点102から第三時間C経過後の時点が、新たな第二時間Bの所定時点112とされる。そして、新たな所定時点112から第二時間Bの間の第二ウィンドウによって、検出データが切り出される。このように、所定時点を第三時間Cずつ移動させながら第一ウィンドウ及び第二ウィンドウが繰り返し設定される。設定された第一ウィンドウ及び第二ウィンドウによって、動作情報と検出データとが繰り返し切り出される。そして切り出された動作情報に基づいて、キーボードの打鍵の有無が繰り返し判断される。   After the operation information is cut out by the first window and the detection data is cut out by the second window, it is then determined whether or not there is a keystroke. By determining whether or not the motion information cut out by the first window includes a portion that shifts from the Hi level to the Low level, it is determined whether or not there is a keystroke (key depression). If the portion to be displaced is not included, it is determined that the key is not pressed. In this case, as shown in FIG. 3, the time point after the third time C has elapsed from the predetermined time point 101 is set as the predetermined time point 111 of the new first time A. The third time C is set to 10 ms. Then, the operation information is cut out by the first window between the new predetermined time point 111 and the first time A. Further, a time point after the elapse of the third time C from the predetermined time point 102 is set as a predetermined time point 112 of the new second time B. Then, the detection data is cut out by the second window between the new predetermined time point 112 and the second time B. Thus, the first window and the second window are repeatedly set while moving the predetermined time point by the third time C. The operation information and the detection data are repeatedly cut out by the set first window and second window. The presence / absence of keystrokes on the keyboard is repeatedly determined based on the extracted operation information.

ここで図3に示すように、ユーザが「J」のキーを打鍵する動作を行っていたとする(図中矢印94)。動作情報は、図中92に示すように、「J」のキーが押下されている間Lowレベルとなる。加速度情報(G(z))の経時変化の軌跡は、図中93に示すように、「J」の打鍵動作によって、振幅の大きい特有のパターンを描く。   Here, as shown in FIG. 3, it is assumed that the user is performing an operation of hitting the key “J” (arrow 94 in the figure). The operation information is at the low level while the “J” key is pressed, as indicated by 92 in the figure. The trajectory of the time-dependent change of the acceleration information (G (z)) draws a specific pattern with a large amplitude by the keystroke operation of “J” as indicated by 93 in the figure.

所定時点が第三時間Cずつ順次更新され、第一ウィンドウと第二ウィンドウとによって動作情報と検出データとが繰り返し切り出された結果、図4に示すように、所定時点113から第一時間Aの間の第一ウィンドウ(図中点線123)よって動作情報が切り出されたとする。また、所定時点114から第二時間Bの間の第二ウィンドウ(図中点線124)によって検出データが切り出されたとする。   The predetermined time point is sequentially updated every third time C, and the operation information and the detection data are repeatedly cut out by the first window and the second window. As a result, as shown in FIG. It is assumed that the operation information is cut out by the first window (dotted line 123 in the figure). Further, it is assumed that the detection data is cut out by the second window (dotted line 124 in the figure) between the predetermined time point 114 and the second time B.

第一ウィンドウによって切り出された動作情報には、HiレベルからLowレベルへの変位95が含まれる。またこの場合、「J」が打鍵されたことを示すキー情報が、動作情報と同時に受信されている。これらから、「J」のキーが打鍵されたと判断される。第二ウィンドウによって切り出された検出データ(図中96)が、「J」のキーが押下されたことを示すパターンデータとされる。パターンデータは、「J」を示すキー情報に対応付けられ、パターンデータ記憶領域383に記憶される。   The motion information cut out by the first window includes a displacement 95 from the Hi level to the Low level. In this case, key information indicating that “J” has been pressed is received simultaneously with the operation information. From these, it is determined that the key “J” has been pressed. The detection data (96 in the figure) cut out by the second window is used as pattern data indicating that the “J” key has been pressed. The pattern data is associated with key information indicating “J” and stored in the pattern data storage area 383.

パターンデータ記憶領域383に記憶されたパターンデータは、通常モード動作時において、打鍵動作からキー種別を判断する処理を行う場合に使用される。通常モード動作時において検出装置2から受信された検出データは、パターンデータと比較される。受信された検出データがパターンデータと良好に一致すると判断された場合に、パターンデータに対応付けられたキー情報にて特定されるキーが打鍵されたと判断される。このように、学習モード時において取得されたパターンデータに基づいて、ユーザが選択したキー種別を特定することができる。   The pattern data stored in the pattern data storage area 383 is used when performing processing for determining the key type from the keystroke operation during the normal mode operation. The detection data received from the detection device 2 during the normal mode operation is compared with the pattern data. When it is determined that the received detection data matches well with the pattern data, it is determined that the key specified by the key information associated with the pattern data has been pressed. Thus, the key type selected by the user can be specified based on the pattern data acquired in the learning mode.

通常モード動作時において、記憶したパターンデータに基づいてキー種別が特定される場合の処理概要について、図5を参照して説明する。検出データ記憶領域382に記憶された検出データのうち、所定時点115から第二時間Bの間に検出された検出データが第二ウィンドウによって切り出される(切り出された検出データを「解析対象データ」という。)。切り出された解析対象データと、学習モードにおいてパターンデータ記憶領域383に記憶されたパターンデータとが比較される。解析対象データと良好に一致するパターンデータがパターンデータ記憶領域383に記憶されておらず、キーの種別が特定できない場合、打鍵動作が行われていないと判断される。この場合、所定時点115から所定時間(例えば10ms)経過後の時点が新たな所定時点116とされる。そして新たな所定時点116から第二時間Bの間の第二ウィンドウによって解析対象データが切り出され、繰り返しキーの種別の特定が試みられる。このように、所定時点を所定時間ずつ移動させ、第二ウィンドウを移動させながら、解析対象データが切り出される。   An outline of processing when the key type is specified based on the stored pattern data during the normal mode operation will be described with reference to FIG. Of the detection data stored in the detection data storage area 382, the detection data detected between the predetermined time point 115 and the second time B is cut out by the second window (the cut out detection data is referred to as “analysis target data”). .) The extracted analysis target data is compared with the pattern data stored in the pattern data storage area 383 in the learning mode. If the pattern data that matches well with the analysis target data is not stored in the pattern data storage area 383 and the key type cannot be specified, it is determined that the key pressing operation is not performed. In this case, a time after a predetermined time (for example, 10 ms) has elapsed from the predetermined time 115 is set as a new predetermined time 116. Then, the analysis target data is cut out by the second window between the new predetermined time 116 and the second time B, and the identification of the type of the repeated key is attempted. In this way, the analysis target data is cut out while moving the predetermined time point by the predetermined time and moving the second window.

ここで、ユーザが「J」のキーを打鍵する動作を行っていたとする(図中矢印97)。加速度信号(G(z))の経時変化の軌跡は、図中98に示すように、「J」の打鍵動作によって特有のパターンを描く。   Here, it is assumed that the user is performing an operation of pressing the “J” key (arrow 97 in the figure). The trajectory of the change over time of the acceleration signal (G (z)) draws a unique pattern by the keystroke operation of “J”, as indicated by 98 in the figure.

所定時点が所定時間ずつ順次更新されながら、繰り返し解析対象データが切り出された結果、所定時点117を所定時点とし、解析対象データ99が切り出されたとする。図5に示すように、切り出された解析対象データ99は、「J」に対応付けられたパターンデータ96と良好に一致するので、解析対象データ99はパターンデータ96に該当すると判断される。ユーザがキー「J」の打鍵動作を行ったものと判断される。   Assume that the analysis target data 99 is cut out as a predetermined time point 117 as a predetermined time point as a result of repeatedly cutting out the analysis target data while the predetermined time point is sequentially updated every predetermined time. As shown in FIG. 5, the extracted analysis target data 99 is in good agreement with the pattern data 96 associated with “J”, and therefore it is determined that the analysis target data 99 corresponds to the pattern data 96. It is determined that the user has pressed the key “J”.

ここで本実施の形態では、第一ウィンドウと第二ウィンドウとの位置関係は、既述のように、図2に示す位置関係となっている。このため、学習モードにおいて切り出されるパターンデータのうち打鍵瞬間の動作を顕著に示す部分、即ち振幅の最も大きい部分は、図4及び図5に示すように、第二ウィンドウの幅の中心(第二時間Bの中点)に対して右側寄り(第二時間Bの終了時点寄り)に配置される。このため、振幅の最も大きい部分以降のデータをパターンデータとして多く含ませないようにすることができる。また、このようなパターンデータを用いることによって、通常モード時において、パターンデータと良好に一致する解析対象データを迅速に切り出すことができる。理由は以下の通りである。切り出される解析対象データのうち振幅の最も大きい部分の位置は、第二ウィンドウが順次移動するに従い、第二ウィンドウの右側(第二時間Bの終了時点)から左側(第二時間Bの開始時点)に移動する。このため、解析対象データとパターンデータとは、早い段階で良好に一致する。このようにして、打鍵動作から認識完了までの時間を短縮することができる。   Here, in the present embodiment, the positional relationship between the first window and the second window is the positional relationship shown in FIG. 2 as described above. For this reason, the portion of the pattern data cut out in the learning mode that remarkably shows the operation at the time of keystroke, that is, the portion with the largest amplitude is the center of the width of the second window (second second) as shown in FIGS. It is arranged on the right side (middle point of the second time B) with respect to the middle point of the time B. For this reason, it is possible to prevent a large amount of data after the portion with the largest amplitude from being included as pattern data. Further, by using such pattern data, it is possible to quickly cut out analysis target data that matches well with the pattern data in the normal mode. The reason is as follows. The position of the portion with the largest amplitude in the data to be analyzed is extracted from the right side (end point of the second time B) to the left side (start point of the second time B) as the second window sequentially moves. Move to. For this reason, the analysis target data and the pattern data agree well at an early stage. In this way, the time from the keystroke operation to the completion of recognition can be shortened.

また本実施の形態では、図2に示すように、第一ウィンドウの幅の中心(第一時間Aの中点)が、第二ウィンドウの幅の中心(第二時間Bの中点)から第四時間(100ms)だけ右端(第二時間Bの終了時点)側に配置される。第四時間(100ms)は、第二ウィンドウの幅の中心から右端までの時間(250ms)と比較して短い。第一ウィンドウの右端(第一時間Aの終了時点)は、第二ウィンドウの右端(第二時間Bの終了時点)よりも中心側に配置される。これによって、打鍵動作からキーの種別を認識する場合の認識精度を高めている。打鍵瞬間の動作を顕著に示す部分(振幅の最も大きい部分)が確実にパターンデータに含まれることとなり、この部分を解析対象データと比較することができるためである。また、打鍵動作が認識される迄の時間は、第四時間の調整によって変更可能である。このため、ユーザにとって最適な認識時間に調整することができる。認識までの時間が長すぎたり短すぎたりする場合、ユーザは認識処理に違和感を持ってしまうためである。本実施の形態における第四時間は、打鍵動作が認識される迄の時間としてユーザが違和感を持たない程度の時間として設定されている。   In the present embodiment, as shown in FIG. 2, the center of the width of the first window (midpoint of the first time A) is the second center of the width of the second window (midpoint of the second time B). It is arranged on the right end (end time of the second time B) side for four hours (100 ms). The fourth time (100 ms) is shorter than the time (250 ms) from the center of the width of the second window to the right edge. The right end of the first window (the end point of the first time A) is arranged closer to the center than the right end of the second window (the end point of the second time B). This enhances the recognition accuracy when recognizing the key type from the keystroke operation. This is because a portion (a portion having the largest amplitude) that significantly shows the operation at the moment of keystroke is surely included in the pattern data, and this portion can be compared with the analysis target data. The time until the keystroke operation is recognized can be changed by adjusting the fourth time. For this reason, it can adjust to the recognition time optimal for a user. This is because if the time until recognition is too long or too short, the user will feel uncomfortable with the recognition process. The fourth time in the present embodiment is set as a time until the user does not feel uncomfortable as a time until the keystroke operation is recognized.

なお、第一時間A、第二時間B、第三時間Cは、上述した値に限定されず、他の値であってもかまわない。また、第一ウィンドウと第二ウィンドウとの位置関係は上述の関係に限定されず、他の位置関係であってもかまわない。   Note that the first time A, the second time B, and the third time C are not limited to the values described above, and may be other values. Further, the positional relationship between the first window and the second window is not limited to the above-described relationship, and may be another positional relationship.

但し、第一時間Aと第二時間Bとは、第一時間Aと比較して第二時間Bが長くなるように設定される。これによって、打鍵の前後で検出された検出データを切り出し、パターンデータとすることができる。また第三時間Cが第一時間Aと比較して短くなるように、第三時間Cが設定される。これによって、動作情報の全てを切り出して打鍵動作の有無を判断することができる。実際には打鍵動作がなされているにもかかわらず、打鍵動作が認識されない不具合の発生を防止できる。また第二時間Bは、指が連続して打鍵可能な最小の時間(限界時間)よりも短くなるように設定される。これによって、学習モード時において連続して打鍵動作が実行された場合であっても、打鍵動作に対応する信号部分がパターンデータの中に複数含まれてしまうことを防止できる。パターンデータに複数の打鍵動作に対応する部分が含まれてしまって、解析対象データの認識精度が劣化してしまうことを防止できる。   However, the first time A and the second time B are set so that the second time B is longer than the first time A. As a result, the detection data detected before and after the keystroke can be cut out and used as pattern data. The third time C is set so that the third time C is shorter than the first time A. As a result, it is possible to determine whether or not there is a keystroke operation by cutting out all the operation information. Although a key pressing operation is actually performed, it is possible to prevent the occurrence of a problem that the key pressing operation is not recognized. The second time B is set to be shorter than the minimum time (limit time) during which the finger can continuously strike. Thus, even when the key-pressing operation is continuously executed in the learning mode, it is possible to prevent a plurality of signal portions corresponding to the key-pressing operation from being included in the pattern data. It can be prevented that the pattern data includes portions corresponding to a plurality of keystroke operations, and the recognition accuracy of the analysis target data is deteriorated.

上述では、一つのセンサ21において検出された信号に基づく検出データのみをパターンデータとして取得し、記憶していた。しかしながら実際は、すべてのセンサ、すべての方向の検出データがパターンデータとして抽出される。また図5では、説明のため、解析対象データとパターンデータとのz軸成分同士のみを比較する例を挙げて説明した。しかしながら実際には、3軸(x軸、y軸、z軸)のデータ全てが比較され、解析対象データがパターンデータと良好に一致するかが判断される。なお図5では、人差し指に取り付けられたセンサ21から検出された加速度信号(G(x),G(y),G(z))のみに基づいて、キー種別を特定していた。しかしながら本発明はこの方法に限定されない。他の複数のセンサ21から同時に検出される加速度信号(G(x),G(y),G(z))を総合的に解析することによって、キー種別を特定してもよい。   In the above description, only detection data based on a signal detected by one sensor 21 is acquired and stored as pattern data. However, in actuality, detection data of all sensors and all directions are extracted as pattern data. Further, in FIG. 5, for explanation, an example in which only z-axis components of analysis target data and pattern data are compared has been described. However, in practice, all the data of the three axes (x axis, y axis, z axis) are compared, and it is determined whether the analysis target data agrees well with the pattern data. In FIG. 5, the key type is specified based only on the acceleration signals (G (x), G (y), G (z)) detected from the sensor 21 attached to the index finger. However, the present invention is not limited to this method. The key type may be specified by comprehensively analyzing acceleration signals (G (x), G (y), G (z)) detected simultaneously from the plurality of other sensors 21.

検出装置2の電気的構成について、図6を参照して説明する。検出装置2は、センサ21から出力される加速度信号(G(x),G(y),G(z))の検出処理や、検出データの送信処理を司るCPU23を備えている。検出装置2は、CPU23が駆動する場合に必要なプログラム、初期設定情報、及びパラメータが少なくとも記憶されるROM24を備えている。検出装置2は、タイマやカウンタ等が記憶されるRAM25を備えている。CPU23は、ROM24とRAM25とバス30を介して電気的に接続している。CPU23は、ROM24及びRAM25の記憶領域にアクセスすることができる。   The electrical configuration of the detection device 2 will be described with reference to FIG. The detection device 2 includes a CPU 23 that controls detection processing of acceleration signals (G (x), G (y), G (z)) output from the sensor 21 and transmission processing of detection data. The detection device 2 includes a ROM 24 that stores at least a program, initial setting information, and parameters required when the CPU 23 is driven. The detection device 2 includes a RAM 25 in which a timer, a counter, and the like are stored. The CPU 23 is electrically connected to the ROM 24, the RAM 25, and the bus 30. The CPU 23 can access the storage areas of the ROM 24 and the RAM 25.

検出装置2は、既述のセンサ21と、センサ21から出力されるアナログ信号をデジタル信号に変換するA/Dコンバータ26とを備えている。センサ21はA/Dコンバータ26と電気的に接続している。A/Dコンバータ26はCPU23と電気的に接続している。CPU23は、センサ21からの出力信号を検出することができる。   The detection device 2 includes the sensor 21 described above and an A / D converter 26 that converts an analog signal output from the sensor 21 into a digital signal. The sensor 21 is electrically connected to the A / D converter 26. The A / D converter 26 is electrically connected to the CPU 23. The CPU 23 can detect an output signal from the sensor 21.

検出装置2は、変調制御を司るRFモジュール27と、無線の送受信が行われるアンテナ28とを備えている。CPU23はRFモジュール27と電気的に接続している。RFモジュール27はアンテナ28と電気的に接続している。CPU23は、アンテナ28を介して情報認識装置3と無線通信を行うことができる。   The detection device 2 includes an RF module 27 that performs modulation control and an antenna 28 that performs wireless transmission and reception. The CPU 23 is electrically connected to the RF module 27. The RF module 27 is electrically connected to the antenna 28. The CPU 23 can perform wireless communication with the information recognition device 3 via the antenna 28.

検出装置2は、検出装置2の状態等をユーザに対して通知することが可能な表示部29を備えている。CPU23は表示部29と電気的に接続している。CPU23は、所望の情報を表示部29に表示させることができる。   The detection device 2 includes a display unit 29 that can notify the user of the state of the detection device 2 and the like. The CPU 23 is electrically connected to the display unit 29. The CPU 23 can display desired information on the display unit 29.

情報認識装置3の電気的構成について、図7を参照して説明する。情報認識装置3は、解析対象データの解析制御や検出データの通信制御を司るCPU31を備えている。情報認識装置3は、初期設定情報やパラメータ情報等が記憶されるROM32を備えている。情報認識装置3は、タイマやカウンタ等が記憶されるRAM33を備えている。情報認識装置3は、後述する変数やテーブルが記憶されるフラッシュメモリ38を備えている。CPU31は、ROM32とRAM33とフラッシュメモリ38とバス41を介して接続している。CPU31は、ROM32、RAM33、及びフラッシュメモリ38の記憶領域にアクセスすることができる。   The electrical configuration of the information recognition device 3 will be described with reference to FIG. The information recognition apparatus 3 includes a CPU 31 that performs analysis control of analysis target data and communication control of detection data. The information recognition device 3 includes a ROM 32 that stores initial setting information, parameter information, and the like. The information recognition device 3 includes a RAM 33 that stores a timer, a counter, and the like. The information recognition device 3 includes a flash memory 38 in which variables and tables described later are stored. The CPU 31 is connected to the ROM 32, the RAM 33, the flash memory 38, and the bus 41. The CPU 31 can access storage areas of the ROM 32, RAM 33, and flash memory 38.

情報認識装置3は、変復調制御を司るRFモジュール34と、検出装置2との間で無線の送受信が行われるアンテナ35とを備えている。CPU31はRFモジュール34と電気的に接続している。RFモジュール34はアンテナ35と電気的に接続している。CPU31は、アンテナ35を介して検出装置2と無線通信を行うことができる。   The information recognition device 3 includes an RF module 34 that controls modulation / demodulation control and an antenna 35 that performs wireless transmission and reception with the detection device 2. The CPU 31 is electrically connected to the RF module 34. The RF module 34 is electrically connected to the antenna 35. The CPU 31 can perform wireless communication with the detection device 2 via the antenna 35.

情報認識装置3は、変復調制御を司るRFモジュール36と、他の機器(PCなど)との間で無線の送受信が行われるアンテナ37とを備えている。CPU31はRFモジュール36と電気的に接続している。RFモジュール36はアンテナ37と電気的に接続している。CPU31は、アンテナ37を介して検出装置2と無線通信を行うことができる。   The information recognition device 3 includes an RF module 36 that controls modulation / demodulation control, and an antenna 37 that performs wireless transmission and reception with other devices (such as a PC). The CPU 31 is electrically connected to the RF module 36. The RF module 36 is electrically connected to the antenna 37. The CPU 31 can perform wireless communication with the detection device 2 via the antenna 37.

情報認識装置3は、情報認識装置3の状態等をユーザに対して通知することが可能な表示部39を備えている。CPU31は表示部39と電気的に接続している。CPU31は、所望の情報を表示部39に表示させることができる。情報認識装置3は、ユーザが入力操作可能な入力部40を備えている。CPU31は入力部40と電気的に接続している。CPU31は、入力内容を認識できる。   The information recognition device 3 includes a display unit 39 that can notify the user of the state of the information recognition device 3 and the like. The CPU 31 is electrically connected to the display unit 39. The CPU 31 can display desired information on the display unit 39. The information recognition device 3 includes an input unit 40 that can be input by a user. The CPU 31 is electrically connected to the input unit 40. The CPU 31 can recognize the input content.

情報認識装置3は、キーボード15が接続されるキーボードインタフェース(以下「キーボードI/F」という。)42を備えている。CPU31はキーボードI/F42と電気的に接続している。CPU31は、キーボードI/F42に接続されたキーボード15から、動作情報とキー種別とを受信することができる。   The information recognition apparatus 3 includes a keyboard interface (hereinafter referred to as “keyboard I / F”) 42 to which a keyboard 15 is connected. The CPU 31 is electrically connected to the keyboard I / F 42. The CPU 31 can receive the operation information and the key type from the keyboard 15 connected to the keyboard I / F 42.

フラッシュメモリ38に設けられる記憶領域について説明する。フラッシュメモリ38は、動作情報記憶領域381と検出データ記憶領域382とパターンデータ記憶領域383とプログラム記憶領域384とその他の情報記憶領域385とを少なくとも備えている。   A storage area provided in the flash memory 38 will be described. The flash memory 38 includes at least an operation information storage area 381, a detection data storage area 382, a pattern data storage area 383, a program storage area 384, and other information storage areas 385.

動作情報記憶領域381には、学習モード動作時においてキーボード15から受信した動作情報とキー情報とが少なくとも記憶される。検出データ記憶領域382には、検出装置2から受信した検出データが記憶される。パターンデータ記憶領域383には、学習モード動作時において取得されたパターンデータが記憶される。プログラム記憶領域384には、CPU31が駆動する場合に必要なプログラムが記憶される。その他の情報記憶領域385には、上述した情報以外の情報が記憶される。   The motion information storage area 381 stores at least motion information and key information received from the keyboard 15 during the learning mode operation. The detection data storage area 382 stores detection data received from the detection device 2. The pattern data storage area 383 stores pattern data acquired during the learning mode operation. The program storage area 384 stores a program required when the CPU 31 is driven. The other information storage area 385 stores information other than the information described above.

フラッシュメモリ38のパターンデータ記憶領域383に記憶されるパターンデータの一例(パターンデータ3831)について、図8を参照して説明する。パターンデータ3831には、打鍵動作が行われた場合の手の動きを示す加速度信号(G(x),G(y),G(z))に基づくデータ(x軸方向、y軸方向、z軸方向)として学習モード時に取得されたパターンデータが記憶される。パターンデータは、キー種別に対応付けてセンサ21毎(親指、人差し指・・・)に記憶される。   An example of pattern data (pattern data 3831) stored in the pattern data storage area 383 of the flash memory 38 will be described with reference to FIG. The pattern data 3831 includes data (x-axis direction, y-axis direction, z) based on acceleration signals (G (x), G (y), G (z)) indicating the movement of the hand when a keystroke operation is performed. As the axial direction), pattern data acquired in the learning mode is stored. The pattern data is stored for each sensor 21 (thumb, index finger,...) In association with the key type.

パターンデータとして、打鍵動作が行われた場合にセンサ21から検出される加速度信号(G(x),G(y),G(z))のデータが100ms周期で合計5つずつ、500ms分記憶されている。図8に示す例では、キー種別「Q」「W」「E」に対応するパターンデータが、センサ21毎(親指、人差し指・・・)に、x軸方向、y軸方向、z軸方向についてそれぞれ記憶されている。なお、第二時間Bの間の第二ウィンドウによって切り出された検出データが、パターンデータとしてパターンデータ記憶領域383に記憶される場合、所定のデータ操作を行うことによって検出データが圧縮される。詳細は後述する。   As the pattern data, the acceleration signal (G (x), G (y), G (z)) data detected from the sensor 21 when the keystroke operation is performed is stored for a total of 500 ms for a period of 100 ms. Has been. In the example shown in FIG. 8, the pattern data corresponding to the key types “Q”, “W”, and “E” is obtained for each sensor 21 (thumb, index finger,...) In the x-axis direction, y-axis direction, and z-axis direction. Each is remembered. When the detection data cut out by the second window during the second time B is stored in the pattern data storage area 383 as pattern data, the detection data is compressed by performing a predetermined data operation. Details will be described later.

情報認識装置3のCPU31において実行される各種処理(学習処理、動作認識処理、動作情報受信処理)について、図9〜図11を参照して説明する。学習処理は、学習モードで動作する指示が入力部40を介してユーザによってなされた場合に、CPU31によって起動され実行される。動作認識処理は、通常モードで動作する指示が入力部40を介してユーザによってなされた場合に、CPU31によって起動され実行される。動作情報受信処理は、CPU31電源が投入された場合に起動され実行される。なお、検出装置2から検出データを受信する処理(検出データ受信処理、図示外)が常にCPU31によって実行されている。   Various processing (learning processing, motion recognition processing, motion information reception processing) executed by the CPU 31 of the information recognition device 3 will be described with reference to FIGS. The learning process is activated and executed by the CPU 31 when an instruction to operate in the learning mode is given by the user via the input unit 40. The motion recognition process is activated and executed by the CPU 31 when an instruction to operate in the normal mode is given by the user via the input unit 40. The operation information reception process is activated and executed when the CPU 31 is powered on. Note that the CPU 31 always executes a process of receiving detection data from the detection device 2 (detection data reception process, not shown).

CPU31は、学習モード動作時において、学習処理、動作情報受信処理、及び検出データ受信処理のうち何れの処理を実行させるかを、所定の周期で切り替える。またCPU31は、通常モード動作時において、動作認識処理、動作情報受信処理、及び検出データ受信処理のうち何れの処理を実行させるかを、所定の周期で切り替える。一の処理から他の処理に実行処理が切り替わる場合、実行中であった処理は一旦中断される。そして他の処理が代わりに実行される。中断された処理は、次の実行タイミングで中断時点から処理を再開する。このようにしてCPU31では、異なる処理が並列して実行される。   During the learning mode operation, the CPU 31 switches which process is to be executed among the learning process, the operation information reception process, and the detection data reception process at a predetermined cycle. In addition, during the normal mode operation, the CPU 31 switches among the operation recognition process, the operation information reception process, and the detection data reception process at a predetermined cycle. When the execution process is switched from one process to another process, the process being executed is temporarily interrupted. Other processing is then performed instead. The interrupted process is resumed from the point of interruption at the next execution timing. In this way, the CPU 31 executes different processes in parallel.

学習処理について、図9を参照して説明する。学習処理では、学習モード動作時に検出される検出データに基づいて、パターンデータが取得される。学習処理が起動されると、はじめに、初期設定処理が実行される(S11)。初期設定処理では、学習処理において必要なパラメータの初期値がRAM33に記憶される。具体的には、第一時間(15ms)と第二時間(500ms)と第三時間(10ms)と第四時間(100ms)がRAM33に記憶される。   The learning process will be described with reference to FIG. In the learning process, pattern data is acquired based on detection data detected during the learning mode operation. When the learning process is activated, an initial setting process is first executed (S11). In the initial setting process, initial values of parameters necessary for the learning process are stored in the RAM 33. Specifically, the first time (15 ms), the second time (500 ms), the third time (10 ms), and the fourth time (100 ms) are stored in the RAM 33.

動作情報記憶領域381に記憶されている動作情報のうち、所定時点から第一時間(15ms)の間の動作情報が、第一ウィンドウによって切り出される(S13)。動作情報記憶領域381には、受信処理(図11参照、後述)においてキーボード15から受信した動作情報とキー情報とが記憶されている。切り出された動作情報は、RAM33に記憶される。   Of the motion information stored in the motion information storage area 381, motion information for a first time (15 ms) from a predetermined time is cut out by the first window (S13). The operation information storage area 381 stores operation information and key information received from the keyboard 15 in the reception process (see FIG. 11, described later). The extracted operation information is stored in the RAM 33.

検出データ記憶領域382に記憶されている検出データのうち、所定時点から第二時間(500ms)の間の検出デーが、第二ウィンドウによって切り出される(S15)。検出データ記憶領域382には、受信処理(図11参照、後述)において検出装置2から受信した検出データが記憶されている。検出データは5ms周期で3軸(x軸、y軸、z軸)分取得されているので、第一ウィンドウによって切り出される検出データの総数は、第一時間が500msであることから、300(=(500/5)×3)ということになる。切り出された検出データは、RAM33に記憶される。   Of the detection data stored in the detection data storage area 382, detection data between a predetermined time and a second time (500 ms) is cut out by the second window (S15). The detection data storage area 382 stores detection data received from the detection device 2 in the reception process (see FIG. 11, described later). Since the detection data is acquired for 3 axes (x axis, y axis, z axis) at a period of 5 ms, the total number of detection data cut out by the first window is 300 ms since the first time is 500 ms. (500/5) × 3). The cut out detection data is stored in the RAM 33.

次いで、RAM33に記憶された動作情報が参照される。打鍵動作を示すHiレベルからLowレベルへの変位が、動作情報に含まれているかが判断される(S17)。HiレベルからLowレベルへの変位が含まれている場合(S17:YES)、打鍵動作が行われているということになる。この場合、打鍵情報に対応付けられたキー情報に基づいて、打鍵されたキーの種別が特定される(S19)。S15において切り出され、RAM33に記憶された検出データにキー情報が対応付けられ、パターンデータとしてパターンデータ記憶領域383に記憶される(S21)。そしてS23に移行される。   Next, the operation information stored in the RAM 33 is referred to. It is determined whether the movement information includes a displacement from the Hi level to the Low level indicating the keystroke operation (S17). When the displacement from the Hi level to the Low level is included (S17: YES), it means that the keystroke operation is being performed. In this case, the type of the key that has been pressed is specified based on the key information associated with the key pressing information (S19). The key information is associated with the detection data cut out in S15 and stored in the RAM 33, and stored in the pattern data storage area 383 as pattern data (S21). Then, the process proceeds to S23.

なお、切り出された検出データは、以下のようにして圧縮され、パターンデータ記憶領域383に記憶される。検出データ(総数300)が、3軸成分(x軸、y軸、z軸)毎に20ずつに分割される。分割された其々の検出データの平均値が算出される。算出の結果、合計15つの平均値(x軸:5つ(=(300/3/20))、y軸:5つ(=(300/3/20))、z軸:5つ(=(300/3/20)))が得られる。得られた平均値が、パターンデータとされ、パターンデータ記憶領域383に記憶される。   The cut out detection data is compressed as follows and stored in the pattern data storage area 383. The detection data (total 300) is divided into 20 pieces for each of the three axis components (x axis, y axis, z axis). An average value of each divided detection data is calculated. As a result of the calculation, a total of 15 average values (x axis: 5 (= (300/3/20)), y axis: 5 (= (300/3/20)), z axis: 5 (= ( 300/3/20))) is obtained. The obtained average value is used as pattern data and stored in the pattern data storage area 383.

一方、切り出された動作情報に、打鍵動作を示すHiレベルからLowレベルへの変位が含まれていない場合(S17:NO)、ユーザはキーを打鍵していないので、そのままS23に移行される。   On the other hand, when the extracted motion information does not include a displacement from the Hi level to the Low level indicating the keystroke operation (S17: NO), the user has not pressed the key, and the process proceeds to S23 as it is.

S23では、学習モードを終了させる操作がユーザによって入力部40を介してなされたかが判断される(S23)。学習モードを終了させるための操作がなされた場合(S23:YES)、学習処理は終了する。一方、学習モードを終了させるための操作がなされていない場合(S23:NO)、第一時間Aの開始時点から第三時間C経過後の時点を新たな第一時間Aの開始時点に設定する。同様に、第二時間Bの開始時点から第三時間C経過後の時点を新たな第二時間Bの開始時点に設定する(S25)。そして、続いて行われる打鍵動作を検出して繰り返しパターンデータを取得するために、S13に戻り、上述の処理が繰り返される。   In S23, it is determined whether an operation for ending the learning mode has been performed by the user via the input unit 40 (S23). When an operation for ending the learning mode is performed (S23: YES), the learning process ends. On the other hand, when the operation for ending the learning mode is not performed (S23: NO), the time after the third time C has elapsed from the start time of the first time A is set as the start time of the new first time A. . Similarly, the time after the third time C has elapsed from the start time of the second time B is set as a new start time of the second time B (S25). Then, in order to detect a subsequent keystroke operation and acquire repeated pattern data, the process returns to S13 and the above-described processing is repeated.

動作確認処理について、図10を参照して説明する。動作確認処理では、通常モード動作時に検出される検出データとパターンデータとが比較される。これによって、打鍵動作によって打鍵されたキーの種別が特定される。動作確認処理が起動されると、はじめに、初期設定処理が実行される(S31)。初期設定処理では、動作確認処理において必要なパラメータの初期値がRAM33に記憶される。   The operation confirmation process will be described with reference to FIG. In the operation confirmation process, the detection data detected during the normal mode operation is compared with the pattern data. As a result, the type of the key pressed by the key pressing operation is specified. When the operation confirmation process is activated, an initial setting process is first executed (S31). In the initial setting process, initial values of parameters necessary for the operation confirmation process are stored in the RAM 33.

次いで、検出データ記憶領域382に記憶されている検出データのうち、所定時点から第二時間Bの間の検出データが、解析対象データとして第二ウィンドウによって切り出される(S33)。検出データ記憶領域385には、受信処理(図11参照、後述)において検出装置2から受信した検出データが記憶されている。検出データは5ms周期で3軸(x軸、y軸、z軸)分取得されているので、第二時間B(500ms)内に解析対象データとして切り出される検出データの総数は300(=(500/5)×3)ということになる。   Next, of the detection data stored in the detection data storage area 382, detection data between a predetermined time and the second time B is cut out as analysis target data by the second window (S33). The detection data storage area 385 stores detection data received from the detection device 2 in the reception process (see FIG. 11, described later). Since the detection data is acquired for 3 axes (x axis, y axis, z axis) at a period of 5 ms, the total number of detection data cut out as analysis target data within the second time B (500 ms) is 300 (= (500 / 5) × 3).

次いで、切り出された解析対象データと、パターンデータ記憶領域383に記憶したパターンデータとが比較され、打鍵動作によって選択されたキーの種別の特定が試みられる(S35)。比較は、例えば以下のようにして行われる。解析対象データとして抽出された検出データ(総数300)が、3軸成分(x軸、y軸、z軸)毎に20ずつに分割される。分割された其々の検出データの平均値が算出される。算出の結果、合計15つの平均値(x軸:5つ(=(300/3/20))、y軸:5つ(=(300/3/20))、z軸:5つ(=(300/3/20)))が得られる。得られた平均値が、パターンデータ記憶領域383に記憶されているパターンデータと比較される。平均値とパターンデータとを比較する方法としては特に限定されない。例えば、平均値とパターンデータとの相違の度合いが予め設定されている閾値未満となっているか否かを判断することによって実行することができる。また例えば、一般的なパターンマッチングの手法を用いることができる。   Next, the cut-out analysis target data is compared with the pattern data stored in the pattern data storage area 383, and an attempt is made to specify the type of the key selected by the keystroke operation (S35). The comparison is performed as follows, for example. Detection data (total 300) extracted as analysis target data is divided into 20 pieces for each of three axis components (x axis, y axis, z axis). An average value of each divided detection data is calculated. As a result of the calculation, a total of 15 average values (x axis: 5 (= (300/3/20)), y axis: 5 (= (300/3/20)), z axis: 5 (= ( 300/3/20))) is obtained. The obtained average value is compared with the pattern data stored in the pattern data storage area 383. The method for comparing the average value with the pattern data is not particularly limited. For example, it can be executed by determining whether or not the degree of difference between the average value and the pattern data is less than a preset threshold value. For example, a general pattern matching technique can be used.

比較の結果、解析対象データとパターンデータとが良好に一致した場合、パターンデータに対応付けられているキー情報のキーが打鍵されたと判断される(S37:YES)。この場合、特定されたキーを示す情報がRFモジュール36によって変調され、アンテナ37を介して他の機器(PCなど)に送信される(S39)。他の機器(PCなど)において、キーの種別が認識される。そしてS41に移行する。一方、解析対象データとパターンデータとが一致せず、打鍵されたキーが特定できなかった場合(S37:NO)、特段処理を行うことなくS41に移行する。   If the analysis target data and the pattern data match well as a result of the comparison, it is determined that the key of the key information associated with the pattern data has been pressed (S37: YES). In this case, information indicating the identified key is modulated by the RF module 36 and transmitted to another device (such as a PC) via the antenna 37 (S39). The key type is recognized in another device (such as a PC). Then, the process proceeds to S41. On the other hand, if the analysis target data does not match the pattern data and the key that has been pressed cannot be specified (S37: NO), the process proceeds to S41 without performing any special processing.

S41の処理では、第二時間Bの開始時点から所定時間経過後の時点が新たな第二時間Bの開始時点に設定される(S41)。そしてS33に戻り、継続して打鍵動作の認識処理を実行するために上述の処理が繰り返される。   In the process of S41, a time after a predetermined time has elapsed from the start of the second time B is set as a new start of the second time B (S41). Then, the process returns to S33, and the above-described process is repeated in order to continue the keystroke action recognition process.

動作情報受信処理について、図11を参照して説明する。動作情報受信処理では、はじめに検出装置2から受信した検出データ(全てのセンサ21における3軸分のデータ)がフラッシュメモリ38の検出データ記憶領域382に記憶される(S53)。そしてS55に移行する。   The operation information reception process will be described with reference to FIG. In the operation information reception process, first, detection data (data for three axes in all sensors 21) received from the detection device 2 is stored in the detection data storage area 382 of the flash memory 38 (S53). Then, the process proceeds to S55.

S55では、キーボード15から送信される動作情報とキー情報とを受信しているかが判断される(S55)。動作情報とキー情報とを受信している場合(S55:YES)、受信した動作情報とキー情報とが対応付けられ、フラッシュメモリ38の動作情報記憶領域381に記憶される(S57)。そしてS53に戻り、上述の処理が繰り返し実行される。一方、動作情報とキー情報とを受信していない場合(S55:NO)、特段処理を行うことなくS53に戻る。そして上述の処理が繰り返し実行される。   In S55, it is determined whether the operation information and key information transmitted from the keyboard 15 are received (S55). When the operation information and the key information are received (S55: YES), the received operation information and the key information are associated with each other and stored in the operation information storage area 381 of the flash memory 38 (S57). Then, the process returns to S53, and the above processing is repeatedly executed. On the other hand, when the operation information and the key information are not received (S55: NO), the process returns to S53 without performing any special processing. Then, the above process is repeatedly executed.

検出装置2のCPU23において実行される送信処理について、図12を参照して説明する。送信処理は、検出装置2の電源が投入された場合において、CPU23により起動され実行される。   A transmission process executed by the CPU 23 of the detection apparatus 2 will be described with reference to FIG. The transmission process is started and executed by the CPU 23 when the power of the detection device 2 is turned on.

送信処理が実行されると、はじめに、所定の短い周期(例えば100ns)で更新されるタイマが初期化される(S60)。次いで、センサ21から出力される加速度信号(G(x),G(y),G(z))を検出する周期(5ms。以下「検出周期」という。)が到来したかが、タイマによって判断される(S61)。検出周期が到来していない場合(S61:NO)、S61に戻り、継続して検出周期の到来が監視される。検出周期が到来した場合(S61:YES)、センサ21から出力される加速度信号(G(x),G(y),G(z))が取得される(S63)。全てのセンサ21について、3軸(x軸、y軸、z軸)分の加速度信号(G(x),G(y),G(z))が取得される。検出された加速度信号(G(x),G(y),G(z))はデータ化され、検出データとして情報認識装置3に対して無線送信される(S65)。そしてS60に戻り、上述の処理が繰り返し実行される。無線送信された検出データは、情報認識装置3において上述のように解析処理が実行される。   When the transmission process is executed, first, a timer that is updated at a predetermined short cycle (for example, 100 ns) is initialized (S60). Next, a timer determines whether a period (5 ms, hereinafter referred to as “detection period”) for detecting the acceleration signals (G (x), G (y), G (z)) output from the sensor 21 has arrived. (S61). When the detection cycle has not arrived (S61: NO), the process returns to S61 and the arrival of the detection cycle is continuously monitored. When the detection cycle has arrived (S61: YES), acceleration signals (G (x), G (y), G (z)) output from the sensor 21 are acquired (S63). For all the sensors 21, acceleration signals (G (x), G (y), G (z)) for three axes (x axis, y axis, z axis) are acquired. The detected acceleration signals (G (x), G (y), G (z)) are converted into data and wirelessly transmitted as detection data to the information recognition device 3 (S65). Then, the process returns to S60 and the above-described processing is repeatedly executed. The detection data transmitted wirelessly is analyzed in the information recognition device 3 as described above.

以上説明したように、本実施の形態では、打鍵動作によって選択されたキーの種別を認識する場合に使用されるパターンデータを取得することができる。取得されたパターンデータを使用することによって、キーの種別を認識するために要する時間を短縮することができる。また認識の精度を高めることができる。   As described above, in the present embodiment, it is possible to acquire pattern data used when recognizing the type of key selected by the keystroke operation. By using the acquired pattern data, the time required for recognizing the key type can be shortened. Further, the recognition accuracy can be increased.

なお、上述における各打鍵動作が本発明の「所定動作」に相当し、打鍵動作をしたと判断することが本発明の「所定動作をおこなったと判断すること」に相当し、パターンデータにおけるキー種別が本発明の「所定動作を示す情報」に相当する。図12のS63の処理を行うCPU23が本発明の「取得手段」に相当し、S65の処理を行うCPU23が本発明の「送信手段」に相当する。図7のRFモジュール34、及びアンテナ35が本発明の「受信手段」に相当する。図9のS17の処理を行うCPU31が本発明の「判断手段」に相当し、動作情報のHiレベルからLowレベルへの変位が「所定動作」に該当する。図9のS15の処理を行うCPU31が本発明の「抽出手段」に相当し、S21の処理を行うCPU31が本発明の「記憶制御手段」に相当する。図7において、検出データが記憶される検出データ記憶領域382を備えたフラッシュメモリ38が本発明の「第一記憶手段」に相当し、パターンデータが記憶されるパターンデータ記憶領域383を備えたフラッシュメモリ38が本発明の「第二記憶手段」に相当する。   Each keystroke operation described above corresponds to the “predetermined operation” of the present invention, and determining that the keystroke operation has been performed corresponds to “determining that the predetermined operation has been performed” of the present invention, and the key type in the pattern data Corresponds to “information indicating a predetermined operation” of the present invention. The CPU 23 that performs the process of S63 in FIG. 12 corresponds to the “acquisition unit” of the present invention, and the CPU 23 that performs the process of S65 corresponds to the “transmission unit” of the present invention. The RF module 34 and the antenna 35 in FIG. 7 correspond to the “reception unit” of the present invention. The CPU 31 that performs the process of S17 in FIG. 9 corresponds to the “determination means” of the present invention, and the displacement of the operation information from the Hi level to the Low level corresponds to the “predetermined operation”. The CPU 31 that performs the process of S15 in FIG. 9 corresponds to the “extraction means” of the present invention, and the CPU 31 that performs the process of S21 corresponds to the “storage control means” of the present invention. In FIG. 7, a flash memory 38 having a detection data storage area 382 in which detection data is stored corresponds to the “first storage means” of the present invention, and a flash having a pattern data storage area 383 in which pattern data is stored. The memory 38 corresponds to the “second storage unit” of the present invention.

なお、本発明は上記の実施の形態に限定されるものではなく、種々の変更が可能である。上述の実施の形態では、キーが押し下げられ、動作情報がHiレベルからLowレベルに変位した場合に、打鍵されたと判断されていた。しかしながら本発明はこの構成に限定されない。従って、キーが押し上げられ、動作情報がLowレベルからHiレベルに変位した場合に、キーが押し上げられ、打鍵されたと判断してもよい。   In addition, this invention is not limited to said embodiment, A various change is possible. In the above-described embodiment, it is determined that the key is pressed when the key is pressed down and the operation information is shifted from the Hi level to the Low level. However, the present invention is not limited to this configuration. Therefore, when the key is pushed up and the operation information is shifted from the Low level to the Hi level, it may be determined that the key is pushed up and the key is pressed.

1 情報認識システム
2 検出装置
3 情報認識装置
15 キーボード
21 センサ
23 CPU
31 CPU
38 フラッシュメモリ
382 検出データ記憶領域
383 パターンデータ記憶領域
DESCRIPTION OF SYMBOLS 1 Information recognition system 2 Detection apparatus 3 Information recognition apparatus 15 Keyboard 21 Sensor 23 CPU
31 CPU
38 Flash memory 382 Detection data storage area 383 Pattern data storage area

Claims (9)

センサと送信手段とを少なくとも備えた検出装置と、前記検出装置において検出された信号に基づいて、入力情報を認識する情報認識装置とを備えた情報認識システムであって、
前記検出装置は、
人の手に取り付けられるセンサと、
前記センサにおいて検出される信号であって、前記手の動きを示す信号を取得する取得手段と、
前記取得手段によって取得された前記信号のデータである検出データを、前記情報認識装置に対して送信する送信手段と
を備え、
前記情報認識装置は、
前記検出装置から送信された前記検出データを受信する受信手段と、
前記受信手段によって受信された前記検出データを記憶する第一記憶手段と、
所定時点から第一時間内の動作情報から、前記手が所定動作を行ったか否かを判断する判断手段と、
前記所定動作が行われたと判断された時点が少なくとも含まれる時間であって前記第一時間よりも長い第二時間内に検出された前記検出データを、前記第一記憶手段に記憶されている複数の前記検出データから抽出する抽出手段と、
前記判断手段において、前記手が所定動作を行ったと判断された場合に、前記抽出手段によって抽出された前記検出データを、前記手が前記所定動作を行った場合に検出される前記検出データのパターンとして、前記所定動作を示す情報に対応付けて第二記憶手段に記憶する記憶制御手段と
を備えたことを特徴とする情報認識システム。
An information recognition system comprising: a detection device including at least a sensor and a transmission unit; and an information recognition device that recognizes input information based on a signal detected by the detection device,
The detection device includes:
A sensor attached to a human hand,
An acquisition unit that acquires a signal that is detected by the sensor and that indicates the movement of the hand;
Transmission means for transmitting detection data, which is data of the signal acquired by the acquisition means, to the information recognition device;
The information recognition device includes:
Receiving means for receiving the detection data transmitted from the detection device;
First storage means for storing the detection data received by the receiving means;
A determination means for determining whether or not the hand has performed a predetermined motion from motion information within a first time from a predetermined time;
A plurality of the detection data detected in a second time that is at least included in the second time longer than the first time and includes a time point at which it is determined that the predetermined operation has been performed. Extraction means for extracting from the detection data of
When the determination means determines that the hand has performed a predetermined action, the detection data extracted by the extraction means is used as the detection data pattern detected when the hand performs the predetermined action. And a storage control means for storing the information in the second storage means in association with the information indicating the predetermined operation.
前記判断手段は、
前記所定時点から前記第一時間よりも短い第三時間経過後の時点を新たな前記所定時点として、前記手が前記所定動作を行ったか否かを繰り返し判断することを特徴とする請求項1に記載の情報認識システム。
The determination means includes
2. The method according to claim 1, wherein it is repeatedly determined whether or not the hand has performed the predetermined action, with a time after a third time shorter than the first time from the predetermined time as a new predetermined time. The information recognition system described.
前記第二時間は、前記手が前記所定動作を連続して実行可能な最小の時間である限界時間以下であることを特徴とする請求項1または2に記載の情報認識システム。   The information recognition system according to claim 1, wherein the second time is equal to or shorter than a limit time that is a minimum time in which the hand can continuously execute the predetermined operation. 前記第一時間における開始時点と終了時点との間の中点である第一中点の位置が、前記第二時間における開始時点と終了時点との間の中点である第二中点の位置と比較して、前記第二時間の前記終了時点側に配置されるように、前記第一時間の開始時点と前記第二時間の開始時点とが設定されることを特徴とする請求項1から3のいずれかに記載の情報認識システム。   The position of the first midpoint that is the midpoint between the start time and end time in the first time is the position of the second midpoint that is the midpoint between the start time and end time in the second time The start time of the first time and the start time of the second time are set so as to be arranged on the end time side of the second time compared to 4. The information recognition system according to any one of 3. 前記第一中点の位置が、前記第二中点の位置から前記第二時間の前記終了時点側に、前記第二時間の終了時点と前記第二中点との間の時間よりも短い第四時間移動した位置に配置されるように、前記第一時間の開始時点と前記第二時間の開始時点とが設定されることを特徴とする請求項4に記載の情報認識システム。   The position of the first midpoint is shorter than the time between the end time of the second time and the second midpoint on the end time side of the second time from the position of the second midpoint. The information recognition system according to claim 4, wherein a start time of the first time and a start time of the second time are set so as to be arranged at a position moved for four hours. 前記情報認識装置は、前記動作情報を取得するキーボードを備えており、
前記判断手段は、
前記キーボードが操作されることによって前記動作情報を取得した場合に、前記手が前記所定動作を行ったと判断することを特徴とする請求項1から5のいずれかに記載の情報認識システム。
The information recognition device includes a keyboard for acquiring the operation information,
The determination means includes
6. The information recognition system according to claim 1, wherein when the operation information is acquired by operating the keyboard, it is determined that the hand has performed the predetermined operation.
前記判断手段は、
前記所定動作として、前記キーボードの押し下げと押し上げとの少なくともいずれかの操作がなされた場合に、前記手が前記所定動作を行ったと判断することを特徴とする請求項6に記載の情報認識システム。
The determination means includes
The information recognition system according to claim 6, wherein, as the predetermined operation, it is determined that the hand has performed the predetermined operation when at least one of pressing and pressing of the keyboard is performed.
センサと送信手段とを少なくとも備えた検出装置において検出された信号に基づいて、入力情報を認識する情報認識装置であって、
前記検出装置の前記センサにおいて検出された信号のデータである検出データを受信する受信手段と、
前記受信手段によって受信された前記検出データを記憶する第一記憶手段と、
所定時点から第一時間内の動作情報から、前記手が所定動作を行ったか否かを判断する判断手段と、
前記所定動作が行われたと判断された時点が少なくとも含まれる時間であって前記第一時間よりも長い第二時間内に検出された前記検出データを、前記第一記憶手段に記憶されている複数の前記検出データから抽出する抽出手段と、
前記判断手段において、前記手が所定動作を行ったと判断された場合に、前記抽出手段によって抽出された前記検出データを、前記手が前記所定動作を行った場合に検出される前記検出データのパターンとして、前記所定動作を示す情報に対応付けて第二記憶手段に記憶する記憶制御手段と
を備えたことを特徴とする情報認識装置。
An information recognition device that recognizes input information based on a signal detected by a detection device including at least a sensor and a transmission means,
Receiving means for receiving detection data which is data of signals detected by the sensor of the detection device;
First storage means for storing the detection data received by the receiving means;
A determination means for determining whether or not the hand has performed a predetermined motion from motion information within a first time from a predetermined time;
A plurality of the detection data detected in a second time that is at least included in the second time longer than the first time and includes a time point at which it is determined that the predetermined operation has been performed. Extraction means for extracting from the detection data of
When the determination means determines that the hand has performed a predetermined action, the detection data extracted by the extraction means is used as the detection data pattern detected when the hand performs the predetermined action. And a storage control means for storing in the second storage means in association with the information indicating the predetermined operation.
請求項8に記載の情報認識装置の各処理手段としてコンピュータを駆動させるための情報認識プログラム。   An information recognition program for driving a computer as each processing means of the information recognition apparatus according to claim 8.
JP2009194957A 2009-08-26 2009-08-26 System, device and program for recognizing information Pending JP2011048518A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009194957A JP2011048518A (en) 2009-08-26 2009-08-26 System, device and program for recognizing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009194957A JP2011048518A (en) 2009-08-26 2009-08-26 System, device and program for recognizing information

Publications (1)

Publication Number Publication Date
JP2011048518A true JP2011048518A (en) 2011-03-10

Family

ID=43834788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009194957A Pending JP2011048518A (en) 2009-08-26 2009-08-26 System, device and program for recognizing information

Country Status (1)

Country Link
JP (1) JP2011048518A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021073598A (en) * 2014-12-08 2021-05-13 セス,ロヒット Wearable wireless HMI device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021073598A (en) * 2014-12-08 2021-05-13 セス,ロヒット Wearable wireless HMI device
JP7178434B2 (en) 2014-12-08 2022-11-25 セス,ロヒット Wearable wireless HMI device

Similar Documents

Publication Publication Date Title
US11009950B2 (en) Arbitrary surface and finger position keyboard
KR100630806B1 (en) Command input method using motion recognition device
US9141254B2 (en) Navigation system and user interface for directing a control action
CA2864719C (en) Gesture recognition devices and methods
TWI467418B (en) Method for efficient gesture processing and computer program product
JP2019121396A (en) Device and method for dynamically associating user input with mobile device operation
CN108762489B (en) Control method based on data glove, system and storage medium
KR20020072367A (en) Information input system using bio feedback and method thereof
JP7010542B2 (en) Work analyzer, work analysis method, and program
US8013287B2 (en) Optical pointing device, optical pointing system, and method of operating the same
CN105138136A (en) Hand gesture recognition device, hand gesture recognition method and hand gesture recognition system
US20170277428A1 (en) Information processing device, information processing method, and non-transitory computer readable memory medium
CN105204645A (en) Easy-wearing gesture identification device
US10955935B2 (en) Tap device with multi-tap feature for expanded character set
US20230409163A1 (en) Input terminal device and operation input method
JP2011048518A (en) System, device and program for recognizing information
JP2011186693A (en) Information input apparatus
CN105260065A (en) Information processing method and apparatus
KR100729723B1 (en) Controlling method for function of s/w using moving patern of point device, system, and recorded medium thereof
US11009968B1 (en) Bi-directional tap communication device
JP2011048517A (en) System, device and program for recognizing information
KR102263815B1 (en) Gesture Recognition Wearable Device
CN105117026A (en) Gesture recognition device with self-checking function and self-checking method of gesture recognition device
US10691205B1 (en) Tap device with dynamically switchable modes
WO2011033922A1 (en) Input system, input device, and input method