JP2014050590A - Action recognition device for hand, artificial hand operation device, and composite sensor - Google Patents

Action recognition device for hand, artificial hand operation device, and composite sensor Download PDF

Info

Publication number
JP2014050590A
JP2014050590A JP2012197656A JP2012197656A JP2014050590A JP 2014050590 A JP2014050590 A JP 2014050590A JP 2012197656 A JP2012197656 A JP 2012197656A JP 2012197656 A JP2012197656 A JP 2012197656A JP 2014050590 A JP2014050590 A JP 2014050590A
Authority
JP
Japan
Prior art keywords
myoelectric
signal
unit
muscle
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012197656A
Other languages
Japanese (ja)
Inventor
Masahiro Yoshikawa
雅博 吉川
Yoshihisa Matsumoto
吉央 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2012197656A priority Critical patent/JP2014050590A/en
Publication of JP2014050590A publication Critical patent/JP2014050590A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve recognition accuracy of an intended action of a hand without increasing the number of wearing parts of surface electrodes each measuring a surface myoelectric potential.SOLUTION: An action recognition device 10 for a hand includes: a signal measurement part 12 measuring myoelectric potentials and muscle protuberance amounts in a plurality of different positions in the circumference of a forearm, and outputting myoelectric potential signals and muscle protuberance signals; an integration myoelectric arithmetic part 14 calculating an integration myoelectric signal on the basis of the measured myoelectric potential signal; a characteristic extraction part 16 extracting characteristic information from the myoelectric potential signal, the integration myoelectric signal and the muscle protuberance signal in each position in the circumference of the forearm; and an action identification part 22 identifying an intended action on the basis of the characteristic information of the myoelectric potential signals, the integration myoelectric signals and the muscle protuberance signals extracted by the characteristic extraction part 16.

Description

本発明は、意図する手の動作を認識するための装置、これを用いた義手操作装置、及び、これらに用いることができ、表面筋電位及び筋の隆起を同時に計測可能な複合センサに関する。   The present invention relates to a device for recognizing an intended hand movement, a prosthetic hand operation device using the device, and a composite sensor that can be used in the device and can simultaneously measure surface myoelectric potential and muscle uplift.

意図する手の動作を推定する方法は、人間の動作意図を機械に伝達するヒューマンインタフェースの核となる技術である。手の動作意図を推定する手法の一つとして、表面筋電位に基づいて手の動作意図を推定する手法がある。表面筋電位は、皮膚表面に装着された電極により計測可能な生体信号であり、動作に応じてどの筋がどの程度活動しているかを知ることができる。表面筋電位を用いた手法では、手の運動情報が取得可能な前腕の筋電位を用いるため、手の動きを妨げるセンサ類を手自体に装着する必要がなく、使用環境にも自由度がある。また、表面筋電位を用いる手法では、腕からの表面筋電位の計測が可能であれば手が切断された場合でも手の動作意図の推定が可能であり、電動義手を操作するための有力な制御信号として使用できる点は、カメラ映像や曲げセンサ情報に基づく手法にはない大きな特徴である。   The method of estimating the intended hand movement is a core technology of the human interface that transmits the human movement intention to the machine. As a method for estimating the motion intention of the hand, there is a method for estimating the motion intention of the hand based on the surface myoelectric potential. The surface myoelectric potential is a biological signal that can be measured by an electrode attached to the skin surface, and it is possible to know which muscle is active and how much depending on the operation. The method using surface myoelectric potential uses myoelectric potential of the forearm that can acquire hand movement information, so there is no need to wear sensors that hinder hand movement on the hand itself, and there is flexibility in the usage environment . In addition, in the technique using surface myoelectric potential, if the surface myoelectric potential can be measured from the arm, it is possible to estimate the intention of the hand even when the hand is cut, which is a powerful tool for operating the electric prosthetic hand. The fact that it can be used as a control signal is a major feature not found in methods based on camera images and bending sensor information.

表面筋電位から手の動作意図を推定する手法は、1940年代から研究されてきた。1990年代になるとニューラルネット等のパターン認識に基づく手法が多数提案され、2000年以降では、例えば非特許文献1〜3に記載のように、推定可能な動作数と精度の向上が図られた。本発明者らも、非特許文献4に開示されているように、前腕の表面筋電位を基にパターン認識の1手法であるサポートベクターマシン(Support Vevtor machine)を用いて手の動作意図を推定する手法を開発し、手の7動作を高い精度で推定できることを示してきた。また、上記手法が手を失った前腕切断者に対しても有効な手法であることを明らかにしてきた。   A method for estimating the movement intention of the hand from the surface myoelectric potential has been studied since the 1940s. In the 1990s, many methods based on pattern recognition such as a neural network were proposed. After 2000, for example, as described in Non-Patent Documents 1 to 3, the number of motions that can be estimated and the accuracy were improved. As disclosed in Non-Patent Document 4, the present inventors also estimated the motion intention of the hand using a support vector machine (Support Vevtor machine), which is one method of pattern recognition based on the surface myoelectric potential of the forearm. We have developed a method that can estimate the seven movements of the hand with high accuracy. Moreover, it has been clarified that the above method is an effective method even for forearm amputees who have lost their hands.

西川大亮,兪文偉,横井浩史,嘉数侑昇,”筋電義手制御のためのオンライン学習法”,電子情報通信学会論文誌 D−II,vol.J82-D-II,no.9,pp.1510-1519,1999.Daikawa Nishikawa, Wei Wei, Hiroshi Yokoi, Yasunobu Kaji, “Online Learning Method for Controlling Myoelectric Prosthetic Hand”, IEICE Transactions D-II, vol.J82-D-II, no.9, pp .1510-1519, 1999. O.Fukuda, T. Tsuji, M. Kaneko, and A. Otsuka, "A human-assisting manipulatorteleoperated by EMG signals and arm motions", IEEE Trans. Robot. Automat.,vol.19, no.2, pp.210-222, 2003.O.Fukuda, T. Tsuji, M. Kaneko, and A. Otsuka, "A human-assisting manipulatorteleoperated by EMG signals and arm motions", IEEE Trans. Robot. Automat., Vol.19, no.2, pp.210 -222, 2003. Y.Huang, K.B. Englehart, B. Hudgins, and A.D.C. Chan, "A gaussian mixturemodel based classification scheme for myoelectric control of powered upper limbprostheses", IEEE Trans. Biomed. Eng., vol. 52, no.11, pp.1801-1811, 2005.Y. Huang, KB Englehart, B. Hudgins, and ADC Chan, "A gaussian mixturemodel based classification scheme for myoelectric control of powered upper limbprostheses", IEEE Trans. Biomed. Eng., Vol. 52, no.11, pp.1801 -1811, 2005. 吉川雅博,三河正彦,田中和世,”筋電位を利用したサポートベクターマシンによる手のリアルタイム動作識別”,電子情報通信学会論文誌 D.,vol.J92-D,no.1,pp.93-103,2009.Yoshikawa Masahiro, Mikawa Masahiko, Tanakayo, "Real-time hand movement recognition using support vector machine using myoelectric potential", IEICE Transactions D., vol.J92-D, no.1, pp.93- 103,2009. 吉川雅博,三田友記,三河正彦,田中和世,”前腕切断者を対象とした筋電位信号に基づく手の動作認識法に関する基礎的研究”,人間工学,vol.46,no.3,pp.197-207,2010.Masahiro Yoshikawa, Tomoki Mita, Masahiko Mikawa, Seino Tanaka, “Fundamental study on hand motion recognition based on myoelectric signal for forearm amputees”, Ergonomics, vol.46, no.3, pp .197-207,2010.

従来用いられてきた表面筋電位では、原理上、人体の深部に存在する筋の活動は観測することができない。また、前腕の近位から計測可能な前腕の回内や回外に関連する筋活動は弱く、特徴的な筋電位パターンが得られないことがあり、他の動作との相互の誤識別が起こりやすい。例えば、肘の屈曲時の回外動作は、前腕よりも上腕の筋のほうがより強く関与し、前腕の筋活動は弱く、他の動作との誤識別が起こりやすい。また、円回内筋は人体深部の筋であり、方形回内筋は前腕の遠位に存在する筋であるため、これらの筋活動の計測を、前腕の近位に配置した表面電極で、行うのは難しい。このため、従来は、前腕だけでなく、上腕にも表面電極を配置したり、表面電極そのものの数を増やしたりすることによって、情報量の不足を補っている。しかしながら、表面電極の装着箇所を増やさずに、意図する動作の認識精度の向上を図ろうとすると、単独のセンサから得られる情報をさらに補う何らかの情報が必要となる。   With surface myoelectric potentials that have been used in the past, in principle, the activity of muscles existing deep in the human body cannot be observed. In addition, muscle activity related to forearm pronation or pronation that can be measured from the forearm proximal is weak, and characteristic myoelectric potential patterns may not be obtained, resulting in misidentification with other movements. Cheap. For example, the supination motion during flexion of the elbow involves the upper arm muscle more strongly than the forearm, the forearm muscle activity is weak, and misidentification with other motions is likely to occur. In addition, since the circular pronation muscle is a muscle deep in the human body and the square pronation muscle is a muscle that exists in the distal part of the forearm, the measurement of these muscle activities is performed with a surface electrode placed proximal to the forearm, Difficult to do. For this reason, conventionally, the shortage of information is compensated by arranging surface electrodes not only on the forearm but also on the upper arm or increasing the number of surface electrodes themselves. However, if an attempt is made to improve the recognition accuracy of the intended motion without increasing the number of places where the surface electrodes are attached, some information that further supplements the information obtained from a single sensor is required.

よって、本発明の目的は、従来技術に存する問題を解決して、表面筋電位を計測する表面電極の装着箇所を増やさずに、意図する手の動作の認識精度を向上させることにある。   Therefore, an object of the present invention is to solve the problems existing in the prior art and improve the recognition accuracy of the intended hand movement without increasing the number of surface electrode mounting locations for measuring surface myoelectric potential.

上記目的に鑑み、本発明者は、表面筋電位と筋力発揮時に起こる筋の隆起量を計測し、筋の隆起情報を同時に活用することによって表面筋電位に関する情報を補い、意図する動作の認識精度を向上させた。   In view of the above-mentioned object, the present inventor measures the amount of bulging of the muscle that occurs when the surface myoelectric potential and muscle strength are exerted, and supplements the information on the surface myoelectric potential by simultaneously using the bulging information of the muscle to recognize the intended motion. Improved.

すなわち、本発明は、第1の態様として、意図する手の動作を認識するための手用の動作認識装置であって、前腕の周囲の複数の異なる位置において、筋電位と筋隆起量を計測し、筋電信号及び筋隆起信号を出力する信号計測部と、計測された前記筋電信号に基づいて積分筋電信号を演算により求める積分筋電演算部と、前記前腕の周囲の各位置における前記筋電信号、前記積分筋電信号及び前記筋隆起信号からそれぞれ特徴情報を抽出する特徴抽出部と、前記特徴抽出部によって抽出された前記筋電信号、前記積分筋電信号及び前記筋隆起信号の特徴情報に基づいて、意図する動作を識別する動作識別部とを備える手用の動作認識装置を提供する。   That is, the first aspect of the present invention is a hand motion recognition device for recognizing an intended hand motion, and measures myoelectric potential and muscle uplift at a plurality of different positions around the forearm. A signal measuring unit that outputs a myoelectric signal and a muscle bulge signal, an integrated myoelectric calculation unit that calculates an integrated myoelectric signal based on the measured myoelectric signal, and at each position around the forearm A feature extraction unit that extracts feature information from the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal, respectively, and the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal extracted by the feature extraction unit A motion recognition device for hand is provided that includes a motion identification unit that identifies an intended motion based on the feature information.

前記手用の動作認識装置は、予め定められた複数の手の動作の各々について予め取得された特徴情報から、学習データを生成する学習データ生成部と、前記学習データ生成部によって生成された学習データに基づいてサポートベクターマシンを構成するサポートベクターマシン学習部とをさらに備え、前記動作識別部は、前記サポートベクターマシン学習部によって構成されたサポートベクターマシンによるデータ処理により、前記特徴部によって抽出された前記特徴情報から意図する動作を識別することが好ましい。   The hand motion recognition device includes: a learning data generation unit that generates learning data from feature information acquired in advance for each of a plurality of predetermined hand movements; and learning generated by the learning data generation unit A support vector machine learning unit that configures a support vector machine based on the data, and the motion identification unit is extracted by the feature unit by data processing by a support vector machine configured by the support vector machine learning unit. It is preferable to identify an intended operation from the feature information.

また、上記手用の動作認識装置において、前記信号計測部は、使用者の前腕の周囲の異なる位置に装着された筋電位センサを用いて筋電位を計測すると共に、使用者の前腕の周囲の異なる位置に使用者の前腕の皮膚表面から離間して装着された距離センサを用いて筋隆起量を計測することが好ましい。この場合、前記信号計測部は、前記筋電位センサと前記距離センサとを兼ね備える複合センサを用いて、筋電位及び筋隆起量を計測することがさらに好ましい。   In the hand motion recognition apparatus, the signal measuring unit measures myoelectric potentials using myoelectric sensors mounted at different positions around the user's forearm, and It is preferable to measure the amount of muscle uplift using distance sensors mounted at different positions away from the skin surface of the user's forearm. In this case, it is more preferable that the signal measuring unit measures a myoelectric potential and a muscle bulge amount using a composite sensor having both the myoelectric potential sensor and the distance sensor.

さらに、前記特徴情報は、予め定められた時間内の筋電信号のフーリエ変換により求められるケプストラム係数と、予め定められた時間内の積分筋電信号を平均することによって求められる平均積分筋電位と、予め定められた時間内の筋隆起信号を平均することによって求められる平均筋隆起量とを少なくとも成分として含む特徴ベクトルであることが好ましい。   Further, the feature information includes a cepstrum coefficient obtained by Fourier transform of a myoelectric signal within a predetermined time, and an average integrated myoelectric potential obtained by averaging the integrated myoelectric signal within a predetermined time. It is preferable that the feature vector includes at least a component of an average muscle elevation obtained by averaging muscle elevation signals within a predetermined time.

また、本発明は、第2の態様として、意図する手の動作に従って義手を操作するための義手操作装置であって、上記手用の動作認識装置と、義手の動作を制御する制御装置とを備え、前記制御装置が、前記動作認識装置によって認識された意図する動作に従って義手を動作させるようにした義手操作装置を提供する。   Moreover, this invention is a prosthetic hand operation apparatus for operating a prosthetic hand according to the operation | movement of the intended hand as 2nd aspect, Comprising: The said operation | movement recognition apparatus for hands, and the control apparatus which controls operation | movement of a prosthetic hand A prosthetic hand operating device in which the control device moves the prosthetic hand according to an intended motion recognized by the motion recognition device.

さらに、本発明は、第3の態様として、支持部と、表面筋電位を検出するために前記支持部の底面に互い平行となるように設けられた一対の筋電電極と、皮膚表面から離間して配置されるように前記支持部に支持された距離センサ部とを備え、前記筋電電極により表面筋電位を計測すると共に、前記距離センサ部により筋隆起量を計測するようにした複合センサを提供する。   Furthermore, the present invention provides, as a third aspect, a support portion, a pair of myoelectric electrodes provided to be parallel to the bottom surface of the support portion in order to detect surface myoelectric potential, and a skin surface. And a distance sensor unit supported by the support unit so as to measure the surface myoelectric potential by the myoelectric electrode and measure the muscle bulge amount by the distance sensor unit. I will provide a.

本発明の手用の動作認識装置、これを用いた義手操作装置、及び複合センサによれば、皮膚表面の筋電位に加えて、筋隆起量を計測するので、筋電位に関する情報に加えて、筋力発揮時に起こる筋の隆起量に関する情報を得ることができ、筋の隆起量に関する情報を同時に活用して筋電位に関する情報を補うことによって、表面筋電位を計測する表面電極の装着箇所を増やさずに、手の動作意図の認識精度を向上させることができる。   According to the hand motion recognition device of the present invention, the prosthetic hand operation device using the same, and the composite sensor, in addition to the myoelectric potential on the skin surface, the amount of muscle uplift is measured. It is possible to obtain information on the amount of muscle uplift that occurs when muscular strength is exerted, and by simultaneously using information on the amount of muscle uplift to supplement the information on myoelectric potential, the number of attachment points of surface electrodes that measure surface myoelectric potential is not increased. In addition, the recognition accuracy of the motion intention of the hand can be improved.

本発明による手用の動作認識装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the operation recognition apparatus for hands by this invention. 本発明による手用の動作認識装置による動作意図の認識方法の概要図である。It is a schematic diagram of a method of recognizing a motion intention by a manual motion recognition device according to the present invention. 図1に示されている手用の動作認識装置の信号計測部としての使用に適した複合センサを示しており、(a)が定面図、(b)が側面図である。The composite sensor suitable for use as a signal measurement part of the operation | movement recognition apparatus for hands shown by FIG. 1 is shown, (a) is a fixed view, (b) is a side view. 図3に示されている複合センサのうちの光学式距離センサ部と使用者の皮膚表面との距離と光学式距離センサ部からの出力電圧との関係を示すグラフである。It is a graph which shows the relationship between the distance of the optical distance sensor part of the composite sensor shown by FIG. 3, a user's skin surface, and the output voltage from an optical distance sensor part. 図3に示されている複合センサの装着位置を示す説明図である。It is explanatory drawing which shows the mounting position of the composite sensor shown by FIG. 複合センサの装着方法の一例を示す説明図である。It is explanatory drawing which shows an example of the mounting method of a composite sensor. 様々な手の動作時に複合センサから得られる出力信号を示しているグラフであり、(a)は筋電信号、(b)は積分筋電信号、(c)はセンサ−皮膚間距離信号に関するグラフである。It is a graph which shows the output signal obtained from a composite sensor at the time of operation | movement of various hands, (a) is a myoelectric signal, (b) is an integrated myoelectric signal, (c) is a graph regarding a sensor-skin distance signal. It is. 平均積分筋電特徴とケプストラム特徴と平均センサ−皮膚間距離特徴とを用いた場合の手の動作の認識率を示す表である。It is a table | surface which shows the recognition rate of the motion of the hand at the time of using an average integral myoelectric feature, a cepstrum feature, and an average sensor-skin distance feature. 平均積分筋電特徴とケプストラム特徴とを用いた場合の手の動作の認識率を示す表である。It is a table | surface which shows the recognition rate of the motion of the hand at the time of using an average integral electromyography feature and a cepstrum feature. 被験者Cについての動作意図の認識結果を示すグラフである。4 is a graph showing a recognition result of an intention of action for a subject C. 本発明による手用の動作認識装置を用いた義手操作装置の全体構成図を示すブロック図である。It is a block diagram which shows the whole block diagram of the artificial hand operating device using the operation | movement recognition apparatus for hands by this invention.

以下、図面を参照して、本発明による手用の動作認識装置を説明する。
最初に、図1を参照して、本発明による手用の動作認識装置の全体構成を説明する。本発明による手用の動作認識装置10は、信号計測部12と、積分筋電演算部14と、特徴抽出部16と、学習データ生成部18と、サポートベクターマシン学習部(以下、「SVM学習部」と記載する。)20と、動作識別部22とを備える。
Hereinafter, a hand motion recognition apparatus according to the present invention will be described with reference to the drawings.
First, referring to FIG. 1, the overall configuration of a manual motion recognition device according to the present invention will be described. The hand motion recognition device 10 according to the present invention includes a signal measurement unit 12, an integral myoelectric calculation unit 14, a feature extraction unit 16, a learning data generation unit 18, a support vector machine learning unit (hereinafter referred to as "SVM learning"). Part).) 20 and an action identifying unit 22.

信号計測部12は、使用者の前腕の周囲の複数の異なる位置において、皮膚表面の筋電位と筋の隆起量(以下、「筋隆起量」と記載する。)を計測し、筋電位を表す信号(以下、「筋電信号」と記載する。)と筋隆起量情報を表す信号(以下、「筋隆起信号」と記載する。)を出力する。積分筋電演算部14は、演算により筋電信号から積分筋電信号を求める。特徴抽出部16は、信号計測部12から出力される筋電信号及び筋隆起信号と積分筋電演算部14から出力される積分筋電信号とからそれぞれ特徴情報をフレーム単位(一定の時間内の信号)で抽出し、特徴ベクトルとして統合する。特徴情報は、具体的には、筋電信号のフーリエ変換により求められるケプストラム係数と、積分筋電信号を平均することによって求められる平均積分筋電位と、筋隆起信号を平均することによって求められる平均筋隆起量である。学習データ生成部18は、予め定められた複数の手の動作の各々を行おうとしたときの計測データの特徴情報を成分として含む特徴ベクトルを予め取得しておき、これらの特徴ベクトルに動作クラスを付与して、学習データを生成する。SVM学習部20は、学習データ生成部18で生成された学習データからサポートベクターマシンを用いて識別関数を構成する。動作識別部22は、学習により構成された識別関数を用いて、信号計測部12による筋電位及び筋隆起量の計測から得られた筋電信号、積分筋電位信号及び筋隆起信号の特徴ベクトルから意図する動作(動作意図)を識別する。   The signal measuring unit 12 measures the myoelectric potential on the skin surface and the amount of muscle uplift (hereinafter referred to as “muscle uplift amount”) at a plurality of different positions around the user's forearm, and represents the myoelectric potential. A signal (hereinafter, referred to as “myoelectric signal”) and a signal indicating the muscle elevation amount information (hereinafter, referred to as “muscle elevation signal”) are output. The integrated myoelectric calculation unit 14 obtains an integrated myoelectric signal from the myoelectric signal by calculation. The feature extraction unit 16 extracts feature information from the myoelectric signal and myomy signal output from the signal measurement unit 12 and the integrated myoelectric signal output from the integration myoelectric calculation unit 14 in units of frames (within a certain time). Signal) and integrated as a feature vector. Specifically, the feature information includes a cepstrum coefficient obtained by Fourier transform of the myoelectric signal, an average integrated myoelectric potential obtained by averaging the integrated myoelectric signal, and an average obtained by averaging the myoelectric signal. The amount of muscle uplift. The learning data generation unit 18 acquires in advance a feature vector that includes the feature information of the measurement data when each of a plurality of predetermined hand movements is to be performed, and assigns an action class to these feature vectors. To generate learning data. The SVM learning unit 20 configures an identification function from the learning data generated by the learning data generation unit 18 using a support vector machine. The action discriminating unit 22 uses the myoelectric signal, the integrated myoelectric potential signal, and the feature vector of the muscle protuberance signal obtained from the measurement of the myoelectric potential and the muscle uplift amount by the signal measuring unit 12 using the discriminant function configured by learning. Identify the intended behavior (motion intention).

動作認識装置10は、図2に示されているように、前腕に装着した複合センサなどの信号計測部12により得た筋電信号及び筋隆起信号(筋隆起量情報(センサ−皮膚間距離情報)を表す信号)と積分筋電演算部14によって筋電信号から演算された積分筋電信号とから、特徴抽出部16によって特徴情報を抽出し、特徴ベクトルに統合する。動作の認識時は、サポートベクターマシンを用いて事前に学習した識別関数によって特徴ベクトルが所属する動作クラスが判定され、使用者の意図する動作が認識される。   As shown in FIG. 2, the motion recognition device 10 includes a myoelectric signal and a muscle uplift signal (muscle uplift information (sensor-skin distance information) obtained by a signal measuring unit 12 such as a composite sensor attached to the forearm. ) And the integrated myoelectric signal calculated from the myoelectric signal by the integrating myoelectric calculation unit 14, feature information is extracted by the feature extraction unit 16 and integrated into a feature vector. When recognizing an action, an action class to which the feature vector belongs is determined by an identification function learned in advance using a support vector machine, and the action intended by the user is recognized.

以下では、動作認識装置10の各構成要素についてさらに詳細に説明する。 Below, each component of the action recognition apparatus 10 is demonstrated in detail.

信号計測部12による筋電位及び筋隆起量の計測は、例えば、皮膚表面に接触させた筋電電極によって筋電位を計測すると共に、皮膚表面から所定距離だけ離間して配置された距離センサなどによって筋隆起量を計測することによって実現することができる。本実施形態では、筋電位及び筋隆起量は、図3に示されているような複合センサ24によって計測している。しかしながら、筋電電極と距離センサとを別個に使用して、筋電位及び筋隆起量を計測してもよいことはもちろんである。   The measurement of the myoelectric potential and the amount of muscle uplift by the signal measuring unit 12 is performed, for example, by measuring the myoelectric potential with a myoelectric electrode brought into contact with the skin surface and using a distance sensor arranged at a predetermined distance from the skin surface It can be realized by measuring the amount of muscle uplift. In the present embodiment, the myoelectric potential and the muscle bulge amount are measured by the composite sensor 24 as shown in FIG. However, it goes without saying that the myoelectric electrode and the distance sensor may be used separately to measure the myoelectric potential and the muscle bulge amount.

図3に示されている複合センサ24は、支持部24aと、支持部24aの底面に互いに平行になるように設けられた一対の筋電電極24bと、使用者の皮膚表面から離間して配置されるように支持部24aに支持された距離センサ部24cとによって構成されており、筋電電極24bによって皮膚表面の筋電位を計測して筋電信号を出力すると共に、距離センサ部24bによって距離センサ部24から皮膚表面までの距離を検出することによって筋隆起量を計測し、筋隆起信号を出力する。筋電位電極24aは好ましくは銀電極で構成される。筋電電極24aによって計測された筋電信号は、10〜482Hzの帯域でフィルタされ、2000倍に増幅される。また、距離センサ部24cは、好ましくは、赤外線の発光部と受光部を有し、発光した赤外線の反射の程度を検出することで距離を計測する光学式距離センサを用いることが好ましい。図4に、距離センサ部24cとして光学式距離センサを用いたときに、光学式距離センサと使用者の皮膚表面との間の距離と光学式距離センサからの出力電圧との関係が示されている。光学式距離センサと使用者の皮膚表面との間の距離が0mmから3mmまでは、距離と出力電圧との関係がほぼ線形であり、6mmの距離までは計測可能であることが分かる。本実施形態では、光学式距離センサ(距離センサ部24c)から中立位の状態の被験者の皮膚表面までの距離が5mmとなるように支持部24aに距離センサ部24cを支持するようにしている。しかしながら、使用者の皮膚表面までの距離が計測可能な範囲であれば、距離センサ部24cと中立位状態の被験者の皮膚表面との間の距離は任意に設定することが可能である。   The composite sensor 24 shown in FIG. 3 is disposed away from the skin surface of the user, the support portion 24a, a pair of myoelectric electrodes 24b provided on the bottom surface of the support portion 24a so as to be parallel to each other. The distance sensor unit 24c is supported by the support unit 24a, and the myoelectric electrode 24b measures the myoelectric potential on the skin surface and outputs a myoelectric signal. By detecting the distance from the sensor unit 24 to the skin surface, the amount of muscle protrusion is measured and a muscle protrusion signal is output. The myoelectric potential electrode 24a is preferably composed of a silver electrode. The myoelectric signal measured by the myoelectric electrode 24a is filtered in a band of 10 to 482 Hz and amplified by 2000 times. The distance sensor unit 24c preferably has an infrared light emitting unit and a light receiving unit, and an optical distance sensor that measures the distance by detecting the degree of reflection of the emitted infrared light is preferably used. FIG. 4 shows the relationship between the distance between the optical distance sensor and the user's skin surface and the output voltage from the optical distance sensor when an optical distance sensor is used as the distance sensor unit 24c. Yes. It can be seen that when the distance between the optical distance sensor and the user's skin surface is 0 mm to 3 mm, the relationship between the distance and the output voltage is almost linear, and the distance up to 6 mm can be measured. In the present embodiment, the distance sensor unit 24c is supported by the support unit 24a so that the distance from the optical distance sensor (distance sensor unit 24c) to the skin surface of the subject in the neutral position is 5 mm. However, as long as the distance to the skin surface of the user is measurable, the distance between the distance sensor unit 24c and the skin surface of the subject in the neutral position can be arbitrarily set.

本実施形態では、信号計測部12において四つの複合センサ24を用いて七つの手の動作意図の認識を行っている。この場合の複合センサ24の配置の例が図5に示されている。図5では、第1の複合センサ24(Ch.1)が尺側手根屈筋の直上に、第2の複合センサ24(Ch.2)が深指屈筋の直上に、第3の複合センサ24(Ch.3)が橈側手根伸筋の直上に、第4の複合センサ24(Ch.4)が総指伸筋の直上に配置されている。複合センサ24は、例えば図6に示されているように、バンドなどで前腕の周囲に固定すればよい。なお、複合センサ24の距離センサ部24cはバンドから露出させ、中立位の状態で距離センサ部24cと皮膚表面とが5mm程度の距離だけ離間するように配置されるようにする。   In this embodiment, the signal measuring unit 12 recognizes the motion intention of seven hands using the four composite sensors 24. An example of the arrangement of the composite sensor 24 in this case is shown in FIG. In FIG. 5, the first composite sensor 24 (Ch. 1) is directly above the ulnar carpal flexor, the second composite sensor 24 (Ch. 2) is directly above the deep finger flexor, and the third composite sensor 24. (Ch.3) is disposed immediately above the heel side carpal extensor and the fourth composite sensor 24 (Ch.4) is disposed immediately above the total finger extensor. For example, as shown in FIG. 6, the composite sensor 24 may be fixed around the forearm with a band or the like. The distance sensor unit 24c of the composite sensor 24 is exposed from the band, and is arranged so that the distance sensor unit 24c and the skin surface are separated by a distance of about 5 mm in the neutral position.

積分筋電演算部14では、信号計測部12によって得られた筋電信号に基づいて、積分筋電位信号が求められる。積分筋電演算部14では、例えば、全波整流、遮断周波数2.4Hzのローパスフィルタで筋電信号を平滑化することによって包絡波形である積分筋電信号を得ればよい。しかしながら、得られた筋電信号を全波整流した後に積分することによって積分筋で信号を求めるなど他の方法によって積分筋電信号を求めることも可能である。   The integrated myoelectric calculation unit 14 obtains an integrated myoelectric potential signal based on the myoelectric signal obtained by the signal measuring unit 12. The integral myoelectric calculation unit 14 may obtain an integral myoelectric signal that is an envelope waveform by smoothing the myoelectric signal with a low-pass filter having full-wave rectification and a cutoff frequency of 2.4 Hz, for example. However, it is also possible to obtain the integrated myoelectric signal by other methods such as obtaining the signal with an integrating muscle by integrating the obtained myoelectric signal after full-wave rectification.

信号計測部12によって得られた筋電信号及び筋隆起信号は、例えば16−bitのAD変換器で所定周期(例えば2000Hz)でサンプリングされる。掌屈、背屈、握る、開く、回内、回外の各動作を行ったときに複合センサ24で計測された筋電信号及び筋隆起信号、並びに、筋電信号から演算された積分筋電信号の例が図7に示されている。図7(a)は筋電信号、図7(b)は積分筋電信号、図7(c)はセンサ−皮膚間距離情報すなわち筋隆起信号を示している。   The myoelectric signal and the muscle uplift signal obtained by the signal measuring unit 12 are sampled at a predetermined period (for example, 2000 Hz) by a 16-bit AD converter, for example. Myoelectric signal and bulge signal measured by the composite sensor 24 when palm flexion, dorsiflexion, grasping, opening, pronation, and pronation are performed, and integrated myoelectric calculation calculated from the myoelectric signal An example of the issue is shown in FIG. FIG. 7A shows the myoelectric signal, FIG. 7B shows the integrated myoelectric signal, and FIG. 7C shows the sensor-skin distance information, that is, the muscle uplift signal.

特徴抽出部16、学習データ生成部18、SVM学習部20、動作識別部22は、例えば、パーソナルコンピュータのCPUでプログラムを実行することによって実現することができる。   The feature extraction unit 16, the learning data generation unit 18, the SVM learning unit 20, and the action identification unit 22 can be realized, for example, by executing a program with a CPU of a personal computer.

特徴抽出部16は、サンプリングされた各信号から特徴情報をフレーム単位で抽出する。詳細には、特徴抽出部16は、フレーム長64ms、フレーム周期16msでフレームをシフトさせながら、フレーム単位で切り出された筋電信号、積分筋電信号及び筋隆起信号から、それぞれ、ケプストラム特徴(以下、「CC特徴」と記載する。)、平均積分筋電特徴(以下、「AIEMG特徴」と記載する。)、センサ−皮膚間距離特徴(以下、「ASSD特徴」と記載する。)を抽出する。   The feature extraction unit 16 extracts feature information from each sampled signal in units of frames. More specifically, the feature extraction unit 16 shifts the frame at a frame length of 64 ms and a frame period of 16 ms, and uses a cepstrum feature (hereinafter referred to as “cepstrum feature”) from each of the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal cut out in units of frames. , “CC feature”), average integrated myoelectric feature (hereinafter referred to as “AIEMG feature”), sensor-skin distance feature (hereinafter referred to as “ASSD feature”). .

AIEMG特徴は、積分筋電信号のフレーム内時間平均であり、筋電信号の振幅の大きさを表す。第p(p=1,…,P)番フレーム内で、n点目の積分筋電信号サンプルをIEMG(n)(n=0,…,N−1,;l=1,…,L)とする。ここで、Nは1フレーム内のサンプル数を、Lはセンサ数を示す。本実施形態では、N=128、L=4となる。l番目のセンサから得たAIEMG特徴であるAIEMG(p)は次式(1)によって求められる。

Figure 2014050590
The AIEMG feature is an intra-frame time average of the integrated myoelectric signal, and represents the magnitude of the amplitude of the myoelectric signal. Within the p-th (p = 1,..., P) frame, the n-th integrated myoelectric signal sample is taken as IEMG l (n) (n = 0,..., N−1; l = 1,. ). Here, N indicates the number of samples in one frame, and L indicates the number of sensors. In this embodiment, N = 128 and L = 4. AIEMG l (p), which is the AIEMG feature obtained from the l-th sensor, is obtained by the following equation (1).
Figure 2014050590

CC特徴は、ケプストラム分析で求められるケプストラム係数であり、フレーム内の筋電信号に対するケプストラム分析により以下のようにして求める。第p番目のフレーム内のn点目の筋電信号サンプルをEMGl(n)として、EMG(n)のフーリエ変換Xl k(p)(k=0,…,N−1)を

Figure 2014050590
で表すと、ケプストラム係数CCl n(p)は次式(3)により求められる。
Figure 2014050590
The CC feature is a cepstrum coefficient obtained by cepstrum analysis, and is obtained as follows by cepstrum analysis with respect to the myoelectric signal in the frame. EMG signal samples n-th point in the p-th frame as the EMG l (n), EMG l Fourier transform X l k (p) (k = 0, ..., N-1) of the (n) the
Figure 2014050590
, The cepstrum coefficient CC l n (p) is obtained by the following equation (3).
Figure 2014050590

ケプストラム分析は、パワースペクトルの包絡形状と微細構造を分離可能であり、低次係には包絡形状の特徴が、高次係数には微細構造の特徴が現れる。特徴抽出部16では、n=0からn=W−1までのW個の低次係数をCC特徴として採用し、包絡形状を抽出特徴として利用する。ケプストラム係数は高速フーリエ変換を用いて計算するため、リアルタイムでの計算にも適している。本実施形態では、例示として、W=3を採用している。   The cepstrum analysis can separate the envelope shape and the fine structure of the power spectrum, and the characteristic of the envelope shape appears in the lower order and the feature of the fine structure appears in the higher order coefficient. The feature extraction unit 16 employs W low-order coefficients from n = 0 to n = W−1 as CC features, and uses an envelope shape as an extraction feature. Since the cepstrum coefficient is calculated using a fast Fourier transform, it is suitable for real-time calculation. In this embodiment, W = 3 is adopted as an example.

ASSD特徴ASSDl(p)は、以下の式(4)のように、センサと皮膚表面との間の距離を表す筋隆起信号のフレーム内時間平均により求める。

Figure 2014050590
ここで、SSDl(n)(n=0,…,N−1;l=1,…,L)は、l番目のセンサから得た、第p(p=1,…,P)番フレーム内のn点目の筋隆起信号サンプルである。 The ASSD feature ASSD l (p) is obtained by an intra-frame time average of a muscle bulge signal that represents the distance between the sensor and the skin surface, as shown in Equation (4) below.
Figure 2014050590
Here, SSDl (n) (n = 0,..., N-1; l = 1,..., L) is in the pth (p = 1,..., P) th frame obtained from the lth sensor. This is an nth muscle uplift signal sample.

このようにして求めたAIEMG特徴、CC特徴及びASSD特徴は、以下の特徴ベクトルx(p)に統合される。

Figure 2014050590
The AIEMG feature, CC feature, and ASSD feature thus obtained are integrated into the following feature vector x (p).
Figure 2014050590

本実施形態では、1次元のAIEMG特徴、3次元のCC特徴、1次元のASSD特徴が各チャンネル(すなわち各複合センサ24)から抽出され特徴ベクトルとして統合されるので、20次元の特徴ベクトルとなる。特徴ベクトルは過去のフレームデータを用いて移動平均による平滑化を行って用いられる。例えば、特徴ベクトルは、過去10点から現在までのフレームデータを用いて11点の移動平均により平滑化を行う。   In the present embodiment, the one-dimensional AIEMG feature, the three-dimensional CC feature, and the one-dimensional ASSD feature are extracted from each channel (that is, each composite sensor 24) and integrated as a feature vector, so that a 20-dimensional feature vector is obtained. . The feature vector is used after smoothing by moving average using past frame data. For example, the feature vector is smoothed by a moving average of 11 points using frame data from the past 10 points to the present.

学習データ生成部18は、予め定められた複数の手の動作の各々を行おうとしたときの計測信号から抽出された特徴ベクトルを予め取得しておき、これらの特徴ベクトルに動作クラスを付与し、学習データを生成する。間接角度センサなどで別途計測した動作情報を基に動作クラスを付与する方法は、手の動きを直接計測することができない前腕切断者への適用が難しい。そこで、本実施形態の動作認識装置10の学習データ生成部18では、予め定められた順序で動作を行ったときの筋電位の計測データのみを使用して動作クラスを付与する。このために、動作意図を持って筋収縮している時間区間(以下、「動作区間」と記載する。)を検出する必要がある。   The learning data generation unit 18 acquires in advance feature vectors extracted from measurement signals when each of a plurality of predetermined hand movements is to be performed, and assigns action classes to these feature vectors, Generate learning data. The method of assigning a motion class based on motion information separately measured by an indirect angle sensor or the like is difficult to apply to a forearm amputee who cannot directly measure hand movement. Therefore, the learning data generation unit 18 of the motion recognition apparatus 10 according to the present embodiment assigns the motion class using only the measurement data of the myoelectric potential when the motion is performed in a predetermined order. For this reason, it is necessary to detect a time interval (hereinafter referred to as “motion interval”) in which the muscle contraction is made with the intention of motion.

以下に、学習データの生成方法の一例を記載する。しかしながら、学習データの生成方法は以下に限定されるものではない。
まず、認識対象となる動作の間に中立位をはさみながら予め定められた順序で連続して行ったときの筋電位計測データすなわち筋電信号を取得し、特徴ベクトルx(p)を求める。各動作では、中立位の状態から関節を自動関節可動域まで動かした後、力を抜いて再び中立位に戻す。次に、筋電信号の零交叉数を基に動作区間の検出を行う。次式(6)に示されている零交叉の定義に基づいて、筋電位電極24bで計測した筋電信号をその最大値で正規化したEMGl Sのフレーム内零交叉数ZCl(p)が演算により求められる。

Figure 2014050590
Below, an example of the production | generation method of learning data is described. However, the learning data generation method is not limited to the following.
First, the myoelectric potential measurement data, that is, the myoelectric signal obtained continuously in a predetermined order with the neutral position between the motions to be recognized is obtained, and the feature vector x (p) is obtained. In each operation, the joint is moved from the neutral position to the automatic joint range of motion, and then the force is released to return to the neutral position again. Next, the motion section is detected based on the zero crossing number of the myoelectric signal. Based on the definition of zero crossing shown in the following equation (6), the EMG l S in-frame zero crossing number ZC l (p) obtained by normalizing the myoelectric signal measured by the myoelectric potential electrode 24b with the maximum value. Is obtained by calculation.
Figure 2014050590

次に、ZCl(p)の総和ZCsum(p)を求め、さらに移動平均で平滑化する。

Figure 2014050590
ここでは、M=10とした。1回の筋電信号データ内のZCma(p)には動作を行った回数だけ極大点が存在するので(中立位は除く)、各極大点のZCma(p)に0.5をかけた値以上の区間を動作区間として、それぞれの動作区間内の特徴ベクトルに対して同一の動作クラスを付与する。 Next, a sum ZC sum (p) of ZC l (p) is obtained and further smoothed by a moving average.
Figure 2014050590
Here, M = 10. Since ZC ma (p) in one EMG signal data has local maximum points as many times as the number of movements (excluding neutral position), 0.5 is applied to ZC ma (p) at each local maximum point. The same motion class is assigned to the feature vector in each motion section, with a section greater than the specified value as the motion section.

SVM学習部20は、学習データ生成部18で生成された学習データからサポートベクターマシンを用いて識別関数を構成する。サポートベクターマシンは、学習データから「マージン最大化」という基準でパラメータを学習する。未知パターンの特徴ベクトルx(p)(以下、単にxと記載する。)を二つのクラスの何れか識別する識別関数を次式(8)で表す。

Figure 2014050590
ここで、yiはi番目の学習サンプルxiに対応するクラスラベルであり、λiはラグランジュの未定乗数、bはバイアス項である。また、K(xi、x)はカーネル関数である。 The SVM learning unit 20 configures an identification function from the learning data generated by the learning data generation unit 18 using a support vector machine. The support vector machine learns parameters from the learning data on the basis of “margin maximization”. An identification function that identifies one of two classes of an unknown pattern feature vector x (p) (hereinafter simply referred to as x) is expressed by the following equation (8).
Figure 2014050590
Here, y i is a class label corresponding to the i-th learning sample x i , λ i is a Lagrange undetermined multiplier, and b is a bias term. K (x i , x) is a kernel function.

本実施形態の動作認識装置10のSVM学習部20では、決定すべきカーネルパラメータが一つで求め易く、シグモイドカーネル、多項式カーネルよりも識別性能が良好であったことから、次式(9)で表されるRBF(radial basis function)カーネルを用いている。しかしながら、SVM学習部20において、他のカーネル関数を用いることも可能である。

Figure 2014050590
ここで、γはカーネルパラメータである。カーネル関数は線型分離不可能な学習データを高次元の特徴空間に写像し、写像先の特徴空間において線型分離可能にする。そのため、線型分離不可能な分布になりやすい筋電位パターンの識別に適している。 In the SVM learning unit 20 of the motion recognition apparatus 10 of this embodiment, one kernel parameter to be determined is easily obtained, and the discrimination performance is better than that of the sigmoid kernel and polynomial kernel. The represented RBF (radial basis function) kernel is used. However, other kernel functions can be used in the SVM learning unit 20.
Figure 2014050590
Here, γ is a kernel parameter. The kernel function maps learning data that cannot be linearly separated into a high-dimensional feature space, and enables linear separation in the feature space of the mapping destination. Therefore, it is suitable for identifying myoelectric potential patterns that tend to have a distribution that cannot be linearly separated.

実際に式(8)に示した識別関数を求めるためには、マージン最大化基準によって次式を最大にするλを求める。

Figure 2014050590
上記の式(10)は凸二次計画問題であり、大局的最適解が保証される。求めたλiのうち、非0のλに対する学習サンプルはサポートベクターと呼ばれ、識別関数は学習サンプル中の少数のサポートベクターのみで構成されるため、識別に必要な計算量は少なくなる。Cはどの程度の誤識別を許すかを決定するペナルティーパラメータであり、学習時に予め定めておくハイパーパラメータは、このCとカーネルパラメータγの二つのみである。これにより、ハイパーパラメータの探索が容易となっている。 In order to actually obtain the discriminant function shown in Equation (8), λ i that maximizes the following equation is obtained according to the margin maximization criterion.
Figure 2014050590
The above equation (10) is a convex quadratic programming problem, and a global optimum solution is guaranteed. Of the obtained λ i, the learning sample for non-zero λ is called a support vector, and the discriminant function is composed of only a small number of support vectors in the learning sample, so the amount of calculation required for discrimination is reduced. C is a penalty parameter that determines how much misidentification is allowed, and there are only two hyperparameters C and kernel parameter γ that are determined in advance during learning. This facilitates searching for hyperparameters.

サポートベクターマシンは、原理的に2クラスを識別する手法であるため、多クラスを識別するために、「one−against−one」アルゴリズムを用いる。このアルゴリズムでは、O個のクラスの全ての組み合わせ、すなわちO(O+1)/2個の識別関数を構成し、各識別関数を用いて特徴ベクトルの識別を行う。全ての識別結果を集計し、最も多く識別された動作クラスをフレームにおける最終的な識別結果とする。SVM学習部20では、サポートベクターマシンを多クラスへ拡張する方法として、「one−against−one」アルゴリズムに代えて、「one−against−all」アルゴリズムを用いてもよい。   Since the support vector machine is a technique for discriminating two classes in principle, a “one-against-one” algorithm is used to identify multiple classes. In this algorithm, all combinations of O classes, that is, O (O + 1) / 2 discriminant functions are constructed, and feature vectors are discriminated using each discriminant function. All the identification results are aggregated, and the action class identified most is the final identification result in the frame. The SVM learning unit 20 may use the “one-against-all” algorithm instead of the “one-against-one” algorithm as a method for extending the support vector machine to multiple classes.

[動作認識実験]
動作認識装置10の有効性を確認するために、動作認識実験を行った。被験者は、男性3名、女性1名の計4名であり、以下のような手順で実施した。被験者は、コンピュータディスプレイの前に置かれた椅子に自然な姿勢で座る。肘を体感から15cmほど離し、80度ほど曲げ、肘と手先がほぼ同じ水平位置になるようにした。また、前腕と手は机などに接触しないようにした。1試行は60秒であり、掌屈、背屈、握る、開く、前腕回内、前腕回外の順に5セット、計30動作を行った。各動作では、中立位の状態から関節を自動関節可動域まで動かした後、力を抜いて再び中立位に戻し、次の動作を行った。各動作の開始から完了まではおよそ1秒とした。筋電信号及び積分筋電信号に加えて筋隆起信号(すなわちセンサ−皮膚表面間の距離情報)を用いた場合と筋隆起信号を用いず筋電信号及び積分筋電信号のみを用いた場合(すなわち筋電位センサからの情報のみを用いた場合)とについて、それぞれ、全10試行を行った。そして、それぞれにおいて、10試行のうちの2試行を学習データ、残りの8試行をテストデータとして動作認識実験を行い、両方の結果を比較した。評価には、以下で求められる動作認識率を用いた。

Figure 2014050590
[Motion recognition experiment]
In order to confirm the effectiveness of the motion recognition device 10, a motion recognition experiment was performed. The test subjects were 3 men and 1 woman for a total of 4 people, and the procedure was as follows. The subject sits in a natural posture on a chair placed in front of the computer display. The elbow was separated from the body by about 15 cm and bent about 80 degrees so that the elbow and the hand were in the same horizontal position. Also, the forearm and hand were kept out of contact with the desk. One trial was 60 seconds, and a total of 30 operations were performed in the order of palm flexion, dorsiflexion, grasping, opening, forearm pronation, and forearm prolapse. In each operation, after moving the joint from the neutral position to the range of automatic joint movement, the force was removed and the neutral position was returned to the neutral position, and the next operation was performed. It took about 1 second from the start to the completion of each operation. In addition to the myoelectric signal and the integrated myoelectric signal, when using the myoelectric signal (that is, the distance information between the sensor and the skin surface) and when using only the myoelectric signal and the integrating myoelectric signal without using the myoelectric signal ( In other words, a total of 10 trials were performed for each of the cases where only information from the myoelectric sensor was used. Then, in each of them, a motion recognition experiment was performed using 2 trials out of 10 trials as learning data and the remaining 8 trials as test data, and the results of both were compared. For the evaluation, the motion recognition rate obtained below was used.
Figure 2014050590

このようにして行った被験者ごとの動作認識率を図8及び図9に示す。図8は、筋電信号、積分筋電信号及び筋隆起信号から抽出した特徴情報、すなわち、CC特徴、AIEMG特徴及びASSD特徴を組み合わせた特徴ベクトルを用いた場合の動作認識率の結果である。また、図9は、筋隆起信号(すなわちセンサ−皮膚表面間距離に関する情報)を除いて、筋電信号及び積分筋電位信号から抽出したCC特徴及びAIEMG特徴のみを組み合わせた特徴ベクトルを用いた場合の動作認識率の結果である。CC特徴、AIEMG特徴及びASSD特徴を組み合わせた特徴ベクトルを用いた場合、7動作の総認識率は全ての被験者で95%以上となった。また、CC特徴及びAIEMG特徴のみを組み合わせた特徴ベクトルを用いた場合と比較すると、CC特徴、AIEMG特徴及びASSD特徴を組み合わせた特徴ベクトルを用いた場合の総認識率は、約1%の向上があった。動作全体としては、約1%の向上であるが、握る、開く、前腕回内、前腕回外では特に認識率が向上した。この結果から、筋電に関する情報すなわち筋電信号及び積分筋電信号に、筋の隆起量(センサ−皮膚表面間の距離)に関する情報すなわち筋隆起信号を加えることによって、筋電に関する情報のみで得ることができる動作意図関連情報を補うことができることが分かる。   The motion recognition rate for each subject performed in this way is shown in FIGS. FIG. 8 shows the result of the motion recognition rate when using feature information extracted from the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal, that is, a feature vector that combines the CC feature, the AIEMG feature, and the ASSD feature. FIG. 9 shows a case where a feature vector combining only CC features and AIEMG features extracted from the myoelectric signal and the integrated myoelectric potential signal is used except for the muscle uplift signal (that is, information on the sensor-skin surface distance). This is a result of the motion recognition rate. When a feature vector combining the CC feature, the AIEMG feature, and the ASSD feature was used, the total recognition rate of 7 actions was 95% or more for all the subjects. In addition, compared with the case where the feature vector combining only the CC feature and the AIEMG feature is used, the total recognition rate when using the feature vector combining the CC feature, the AIEMG feature and the ASSD feature is improved by about 1%. there were. Although the overall movement was improved by about 1%, the recognition rate was particularly improved when grasping, opening, forearm gyrus, and forearm gyrus. From this result, the information about the myoelectricity, i.e., the myoelectric signal and the integral myoelectric signal, is added to the information about the amount of bulging of the muscle (distance between the sensor and the skin surface), i.e., the muscle bulging signal, and only the information about myoelectricity is obtained. It can be seen that motion intention related information that can be supplemented.

図10は、上記の動作認識実験における被験者Cについて、動作認識を行った例を示している。被験者は、掌屈、背屈、握る、開く、前腕回内、前腕回外を繰り返し実行した。図10から、意図する動作の認識が高い精度で行われていることが分かる。   FIG. 10 shows an example in which motion recognition is performed on the subject C in the motion recognition experiment. The subject repeatedly performed palm flexion, dorsiflexion, grasping, opening, forearm pronation and forearm prolapse. FIG. 10 shows that the intended motion is recognized with high accuracy.

このように、動作認識装置10は、複合センサ24などの信号計測部12から、皮膚表面の筋電位に加えて、筋隆起量を計測するので、筋電信号及び積分筋電信号に加えて、筋隆起信号を得ることができ、これらから特徴抽出部16によって抽出された特徴ベクトルに基づいて、動作識別部22が、SVM学習部20によって学習した識別関数を用いて、意図する動作を識別する。すなわち、筋隆起信号を同時に活用して筋電信号及び積分信号から得られる情報を補うことができ、センサなどによる計測箇所を増加させることなく、意図する手の動作の認識精度を向上させることができる。   In this way, since the motion recognition device 10 measures the amount of muscle protrusion from the signal measuring unit 12 such as the composite sensor 24 in addition to the myoelectric potential on the skin surface, in addition to the myoelectric signal and the integrated myoelectric signal, Based on the feature vector extracted by the feature extraction unit 16 from the muscle uplift signal, the operation identification unit 22 identifies the intended operation using the identification function learned by the SVM learning unit 20. . That is, it is possible to supplement the information obtained from the myoelectric signal and the integrated signal by simultaneously using the muscle bulge signal, and to improve the recognition accuracy of the intended hand movement without increasing the number of measurement points by a sensor or the like. it can.

次に、図1に示されている動作認識装置10を用いた義手操作装置30について説明する。義手操作装置30は、複合センサ24を備えた動作認識装置10と、制御部32と、義手駆動部34とを備える。動作認識装置10の複合センサ24は前腕に取り付けられ、使用者の前腕の皮膚表面の筋電位と筋の隆起量を計測し、筋電信号と筋隆起信号を出力する。動作認識装置10は、複合センサ24から出力された筋電信号に基づいて積分筋電信号を演算し、筋電信号、積分筋電信号、筋隆起信号からCC特徴、AIEMG特徴及びASSD特徴からなる特徴情報を抽出し、サポートベクターマシンを用いて、予め得られている学習データと複合センサ24の計測データから得られた特徴情報とに基づいて、意図する動作を認識する。制御部32は、動作認識装置10によって認識された動作に従って義手を動作させるように、義手駆動部34を制御する。   Next, the prosthetic hand operating device 30 using the motion recognition device 10 shown in FIG. 1 will be described. The prosthetic hand operating device 30 includes the motion recognition device 10 including the composite sensor 24, a control unit 32, and a prosthetic hand driving unit 34. The composite sensor 24 of the motion recognition device 10 is attached to the forearm, measures the myoelectric potential on the skin surface of the user's forearm and the amount of muscle uplift, and outputs a myoelectric signal and a muscle uplift signal. The motion recognition apparatus 10 calculates an integrated myoelectric signal based on the myoelectric signal output from the composite sensor 24, and includes a CC feature, an AIEMG feature, and an ASSD feature from the myoelectric signal, the integrated myoelectric signal, and the myoelectric signal. Feature information is extracted, and an intended operation is recognized using a support vector machine based on learning data obtained in advance and feature information obtained from measurement data of the composite sensor 24. The control unit 32 controls the prosthetic hand driving unit 34 so as to operate the prosthetic hand according to the motion recognized by the motion recognition device 10.

このように構成された義手操作装置30は、動作認識装置10を用いており、使用者が意図する動作を正確に認識することができるので、より使用者の意図する動作に沿った動作を義手にさせることが可能となる。   The prosthetic hand operating device 30 configured as described above uses the motion recognition device 10 and can accurately recognize the motion intended by the user. It becomes possible to make it.

以上、図示された実施形態に基づいて、本発明による動作認識装置10及びこれを用いた義手操作装置30を説明したが、本発明の動作認識装置10及び義手操作装置30の構成は図示されている実施形態に限定されるものではない。例えば、図示されている実施形態では、動作認識装置10の信号計測部12として複合センサ24を用いているが、複合センサ24に代えて、個別の筋電位センサと距離センサとを用いて筋電信号及び筋隆起信号を取得するようにしてもよい。   As described above, the motion recognition device 10 and the prosthetic hand operating device 30 using the same according to the present invention have been described based on the illustrated embodiment, but the configurations of the motion recognizing device 10 and the prosthetic hand operating device 30 of the present invention are illustrated. However, the present invention is not limited to the embodiment. For example, in the illustrated embodiment, the composite sensor 24 is used as the signal measuring unit 12 of the motion recognition device 10. However, instead of the composite sensor 24, myoelectric communication is performed using individual myoelectric potential sensors and distance sensors. No. and muscle uplift signal may be acquired.

10 動作認識装置
12 信号計測部
14 積分筋電演算部
16 特徴抽出部
18 学習データ生成部
20 SVM学習部
22 動作識別部
24 複合センサ
24a 支持部
24b 筋電電極
24c 距離センサ部
30 義手操作装置
32 制御部
28 義手駆動部
DESCRIPTION OF SYMBOLS 10 Action recognition apparatus 12 Signal measurement part 14 Integral myoelectric calculation part 16 Feature extraction part 18 Learning data generation part 20 SVM learning part 22 Action identification part 24 Composite sensor 24a Support part 24b Myoelectric electrode 24c Distance sensor part 30 Prosthetic hand operating device 32 Control unit 28 Prosthetic hand drive unit

Claims (7)

意図する手の動作を認識するための手用の動作認識装置であって、
前腕の周囲の複数の異なる位置において、筋電位と筋隆起量を計測し、筋電信号及び筋隆起信号を出力する信号計測部と、
計測された前記筋電信号に基づいて積分筋電信号を演算により求める積分筋電演算部と、
前記前腕の周囲の各位置における前記筋電信号、前記積分筋電信号及び前記筋隆起信号からそれぞれ特徴情報を抽出する特徴抽出部と、
前記特徴抽出部によって抽出された前記筋電信号、前記積分筋電信号及び前記筋隆起信号の特徴情報に基づいて、意図する動作を識別する動作識別部と、
を備えることを特徴とした手用の動作認識装置。
A hand motion recognition device for recognizing an intended hand motion,
A signal measuring unit that measures myoelectric potential and muscle bulge amount at a plurality of different positions around the forearm, and outputs a myoelectric signal and a muscle bulge signal;
An integrated myoelectric calculator that calculates an integrated myoelectric signal based on the measured myoelectric signal,
A feature extraction unit that extracts feature information from each of the myoelectric signal, the integrated myoelectric signal, and the muscle bulge signal at each position around the forearm;
An action identifying unit that identifies an intended action based on feature information of the myoelectric signal, the integrated myoelectric signal, and the muscle protuberance signal extracted by the feature extracting unit;
A hand motion recognition device comprising:
予め定められた複数の手の動作の各々について予め取得された特徴情報から、学習データを生成する学習データ生成部と、前記学習データ生成部によって生成された学習データに基づいてサポートベクターマシンを構成するサポートベクターマシン学習部とをさらに備え、前記動作識別部は、前記サポートベクターマシン学習部によって構成されたサポートベクターマシンによるデータ処理により、前記特徴抽出部によって抽出された前記特徴情報から意図する動作を識別する、請求項1に記載の手用の動作認識装置。   A learning data generation unit that generates learning data from feature information acquired in advance for each of a plurality of predetermined hand movements, and a support vector machine is configured based on the learning data generated by the learning data generation unit A support vector machine learning unit that performs the intended operation from the feature information extracted by the feature extraction unit by data processing by a support vector machine configured by the support vector machine learning unit. The hand motion recognition device according to claim 1, wherein 前記信号計測部は、使用者の前腕の周囲の異なる位置に装着された筋電位センサを用いて筋電位を計測すると共に、使用者の前腕の周囲の異なる位置に使用者の前腕の皮膚表面から離間して装着された距離センサを用いて筋隆起量を計測する、請求項1又は請求項2に記載の手用の動作認識装置。   The signal measuring unit measures myoelectric potentials using myoelectric potential sensors mounted at different positions around the user's forearm, and from the skin surface of the user's forearm to different positions around the user's forearm. The motion recognition device for a hand according to claim 1 or 2, wherein the amount of bulging muscle is measured using a distance sensor mounted apart. 前記信号計測部は、前記筋電位センサと前記距離センサとを兼ね備える複合センサを用いて、筋電位及び筋隆起量を計測する、請求項3に記載の手用の動作認識装置。   The hand motion recognition device according to claim 3, wherein the signal measurement unit measures a myoelectric potential and a muscle bulge amount using a composite sensor that combines the myoelectric potential sensor and the distance sensor. 前記特徴情報は、予め定められた時間内の筋電信号のフーリエ変換により求められるケプストラム係数と、予め定められた時間内の積分筋電信号を平均することによって求められる平均積分筋電位と、予め定められた時間内の筋隆起信号を平均することによって求められる平均筋隆起量とを少なくとも成分として含む特徴ベクトルである、請求項1から請求項4の何れか一項に記載の手用の動作認識装置。   The feature information includes a cepstrum coefficient obtained by Fourier transform of a myoelectric signal within a predetermined time, an average integrated myoelectric potential obtained by averaging integrated myoelectric signals within a predetermined time, The manual action according to any one of claims 1 to 4, wherein the motion vector is a feature vector including at least a component of an average muscle elevation obtained by averaging muscle elevation signals within a predetermined time. Recognition device. 意図する手の動作に従って義手を操作するための義手操作装置であって、
請求項1から請求項5の何れか一項に記載の手用の動作認識装置と、
義手の動作を制御する制御装置と、
を備え、前記制御装置が、前記動作認識装置によって認識された意図する動作に従って義手を動作させることを特徴とした義手操作装置。
A prosthetic hand operating device for operating a prosthetic hand according to the intended hand movement,
The hand motion recognition device according to any one of claims 1 to 5,
A control device for controlling the operation of the prosthetic hand;
The prosthetic hand operating device is characterized in that the control device moves the prosthetic hand according to the intended motion recognized by the motion recognition device.
支持部と、表面筋電位を検出するために前記支持部の底面に互いに平行になるように設けられた一対の筋電電極と、皮膚表面から離間して配置されるように前記支持部に支持された距離センサ部とを備え、前記筋電電極により表面筋電位を計測すると共に、前記距離センサ部により筋隆起量を計測することを特徴とする複合センサ。   A support unit, a pair of myoelectric electrodes provided parallel to each other on the bottom surface of the support unit to detect surface myoelectric potential, and a support unit supported by the support unit so as to be spaced apart from the skin surface And a distance sensor unit that measures a surface myoelectric potential by the myoelectric electrode and measures a muscle bulge amount by the distance sensor unit.
JP2012197656A 2012-09-07 2012-09-07 Action recognition device for hand, artificial hand operation device, and composite sensor Pending JP2014050590A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012197656A JP2014050590A (en) 2012-09-07 2012-09-07 Action recognition device for hand, artificial hand operation device, and composite sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012197656A JP2014050590A (en) 2012-09-07 2012-09-07 Action recognition device for hand, artificial hand operation device, and composite sensor

Publications (1)

Publication Number Publication Date
JP2014050590A true JP2014050590A (en) 2014-03-20

Family

ID=50609661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012197656A Pending JP2014050590A (en) 2012-09-07 2012-09-07 Action recognition device for hand, artificial hand operation device, and composite sensor

Country Status (1)

Country Link
JP (1) JP2014050590A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099545A (en) * 2015-11-30 2017-06-08 学校法人早稲田大学 Robot control device
JP2019025311A (en) * 2017-07-28 2019-02-21 パナソニックIpマネジメント株式会社 Data generation apparatus, biological data measurement system, discriminator generation apparatus, data generation method, discriminator generation method, and program
CN110850979A (en) * 2019-11-07 2020-02-28 中国航天员科研训练中心 Gesture recognition man-machine interaction method based on medical insurance monitoring signals of astronaut
JPWO2018186348A1 (en) * 2017-04-04 2020-05-28 学校法人 中央大学 Muscle contraction detection sensor
JP2020156872A (en) * 2019-03-27 2020-10-01 日東電工株式会社 Sticking type biological sensor
CN112998646A (en) * 2019-12-20 2021-06-22 河南独树数字科技有限公司 Multi-channel surface electromyography action intention recognition method without feature description
KR20220034376A (en) * 2020-09-11 2022-03-18 한국기계연구원 Real time decoding system for multi-channel neural activity and real time decoding method using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125287A (en) * 2008-12-01 2010-06-10 Gifu Univ Digital joint angle estimating device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125287A (en) * 2008-12-01 2010-06-10 Gifu Univ Digital joint angle estimating device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6015050999; 吉川雅博, 三田友記, 三河正彦, 田中和世: '前腕切断者を対象とした筋電位信号に基づく手の動作識別法に関する基礎的研究' 人間工学 Vol.46, No.3, 20100615, 第197-207頁 *
JPN7015003566; 吉川雅博、三河正彦、田中和世: '筋電位を利用したサポートベクターマシンによる手のリアルタイム動作識別' 電子情報通信学会論文誌 D Vol. J92-D, No. 1, 2009, 第93-103頁 *
JPN7015003567; 吉川 雅博: '腕から計測可能な多種生体信号を用いた手の動作意図の推定手法の開発' 科学研究費助成事業(科学研究費補助金)研究成果報告書,[online] [平成27年12月11日検索], 国立情報学研究所 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099545A (en) * 2015-11-30 2017-06-08 学校法人早稲田大学 Robot control device
JPWO2018186348A1 (en) * 2017-04-04 2020-05-28 学校法人 中央大学 Muscle contraction detection sensor
JP2019025311A (en) * 2017-07-28 2019-02-21 パナソニックIpマネジメント株式会社 Data generation apparatus, biological data measurement system, discriminator generation apparatus, data generation method, discriminator generation method, and program
JP7336755B2 (en) 2017-07-28 2023-09-01 パナソニックIpマネジメント株式会社 DATA GENERATION DEVICE, BIOLOGICAL DATA MEASUREMENT SYSTEM, CLASSIFIER GENERATION DEVICE, DATA GENERATION METHOD, CLASSIFIER GENERATION METHOD, AND PROGRAM
JP2020156872A (en) * 2019-03-27 2020-10-01 日東電工株式会社 Sticking type biological sensor
JP7345264B2 (en) 2019-03-27 2023-09-15 日東電工株式会社 Stick-on biosensor
CN110850979A (en) * 2019-11-07 2020-02-28 中国航天员科研训练中心 Gesture recognition man-machine interaction method based on medical insurance monitoring signals of astronaut
CN110850979B (en) * 2019-11-07 2023-05-09 中国航天员科研训练中心 Gesture recognition man-machine interaction method based on spaceflight medical supervision and medical insurance signal
CN112998646A (en) * 2019-12-20 2021-06-22 河南独树数字科技有限公司 Multi-channel surface electromyography action intention recognition method without feature description
CN112998646B (en) * 2019-12-20 2022-03-25 深圳沃立康生物医疗有限公司 Multi-channel surface electromyography action intention recognition method without feature description
KR20220034376A (en) * 2020-09-11 2022-03-18 한국기계연구원 Real time decoding system for multi-channel neural activity and real time decoding method using the same
KR102458459B1 (en) 2020-09-11 2022-10-26 한국기계연구원 Real time decoding system for multi-channel neural activity and real time decoding method using the same

Similar Documents

Publication Publication Date Title
Jiang et al. Feasibility of wrist-worn, real-time hand, and surface gesture recognition via sEMG and IMU sensing
Tam et al. A fully embedded adaptive real-time hand gesture classifier leveraging HD-sEMG and deep learning
Benalcázar et al. Hand gesture recognition using machine learning and the Myo armband
US10481699B2 (en) Armband for tracking hand motion using electrical impedance measurement
Luo et al. A low-cost end-to-end sEMG-based gait sub-phase recognition system
JP2014050590A (en) Action recognition device for hand, artificial hand operation device, and composite sensor
Tsai et al. A novel STFT-ranking feature of multi-channel EMG for motion pattern recognition
Khan et al. Selection of features and classifiers for EMG-EEG-based upper limb assistive devices—A review
Naik et al. Nonnegative matrix factorization for the identification of EMG finger movements: Evaluation using matrix analysis
CN112754468B (en) Human body lower limb movement detection and identification method based on multi-source signals
Cheng et al. Visualization of activated muscle area based on sEMG
Yang et al. Surface EMG based handgrip force predictions using gene expression programming
Jose et al. Classification of forearm movements from sEMG time domain features using machine learning algorithms
Zhao et al. Flexible and wearable EMG and PSD sensors enabled locomotion mode recognition for IoHT-based in-home rehabilitation
JP2011177278A (en) Gait disorder automatic analysis system
Bao et al. Toward robust, adaptiveand reliable upper-limb motion estimation using machine learning and deep learning–a survey in myoelectric control
Dasgupta et al. Acceleration gait measures as proxies for motor skill of walking: A narrative review
Lu et al. Effective recognition of human lower limb jump locomotion phases based on multi-sensor information fusion and machine learning
Xu et al. Noninvasive human-prosthesis interfaces for locomotion intent recognition: A review
CN113616395B (en) Prosthesis control method, device, prosthesis equipment and computer readable storage medium
US11772259B1 (en) Enhanced activated exoskeleton system
Lara et al. Muscle-specific high-density electromyography arrays for hand gesture classification
Kanoga et al. Assessing the effect of transfer learning on myoelectric control systems with three electrode positions
Wang et al. A novel PPG-FMG-ACC wristband for hand gesture recognition
Tosin et al. SEMG-based upper limb movement classifier: Current scenario and upcoming challenges

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160531