JP2014050590A - Action recognition device for hand, artificial hand operation device, and composite sensor - Google Patents
Action recognition device for hand, artificial hand operation device, and composite sensor Download PDFInfo
- Publication number
- JP2014050590A JP2014050590A JP2012197656A JP2012197656A JP2014050590A JP 2014050590 A JP2014050590 A JP 2014050590A JP 2012197656 A JP2012197656 A JP 2012197656A JP 2012197656 A JP2012197656 A JP 2012197656A JP 2014050590 A JP2014050590 A JP 2014050590A
- Authority
- JP
- Japan
- Prior art keywords
- myoelectric
- signal
- unit
- muscle
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 0 CCCC1(CC2)C2C*C1 Chemical compound CCCC1(CC2)C2C*C1 0.000 description 2
- KVPPZMBNVUCNHB-UHFFFAOYSA-N CC(C1)C1C1(C)C=CCC1 Chemical compound CC(C1)C1C1(C)C=CCC1 KVPPZMBNVUCNHB-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
本発明は、意図する手の動作を認識するための装置、これを用いた義手操作装置、及び、これらに用いることができ、表面筋電位及び筋の隆起を同時に計測可能な複合センサに関する。 The present invention relates to a device for recognizing an intended hand movement, a prosthetic hand operation device using the device, and a composite sensor that can be used in the device and can simultaneously measure surface myoelectric potential and muscle uplift.
意図する手の動作を推定する方法は、人間の動作意図を機械に伝達するヒューマンインタフェースの核となる技術である。手の動作意図を推定する手法の一つとして、表面筋電位に基づいて手の動作意図を推定する手法がある。表面筋電位は、皮膚表面に装着された電極により計測可能な生体信号であり、動作に応じてどの筋がどの程度活動しているかを知ることができる。表面筋電位を用いた手法では、手の運動情報が取得可能な前腕の筋電位を用いるため、手の動きを妨げるセンサ類を手自体に装着する必要がなく、使用環境にも自由度がある。また、表面筋電位を用いる手法では、腕からの表面筋電位の計測が可能であれば手が切断された場合でも手の動作意図の推定が可能であり、電動義手を操作するための有力な制御信号として使用できる点は、カメラ映像や曲げセンサ情報に基づく手法にはない大きな特徴である。 The method of estimating the intended hand movement is a core technology of the human interface that transmits the human movement intention to the machine. As a method for estimating the motion intention of the hand, there is a method for estimating the motion intention of the hand based on the surface myoelectric potential. The surface myoelectric potential is a biological signal that can be measured by an electrode attached to the skin surface, and it is possible to know which muscle is active and how much depending on the operation. The method using surface myoelectric potential uses myoelectric potential of the forearm that can acquire hand movement information, so there is no need to wear sensors that hinder hand movement on the hand itself, and there is flexibility in the usage environment . In addition, in the technique using surface myoelectric potential, if the surface myoelectric potential can be measured from the arm, it is possible to estimate the intention of the hand even when the hand is cut, which is a powerful tool for operating the electric prosthetic hand. The fact that it can be used as a control signal is a major feature not found in methods based on camera images and bending sensor information.
表面筋電位から手の動作意図を推定する手法は、1940年代から研究されてきた。1990年代になるとニューラルネット等のパターン認識に基づく手法が多数提案され、2000年以降では、例えば非特許文献1〜3に記載のように、推定可能な動作数と精度の向上が図られた。本発明者らも、非特許文献4に開示されているように、前腕の表面筋電位を基にパターン認識の1手法であるサポートベクターマシン(Support Vevtor machine)を用いて手の動作意図を推定する手法を開発し、手の7動作を高い精度で推定できることを示してきた。また、上記手法が手を失った前腕切断者に対しても有効な手法であることを明らかにしてきた。
A method for estimating the movement intention of the hand from the surface myoelectric potential has been studied since the 1940s. In the 1990s, many methods based on pattern recognition such as a neural network were proposed. After 2000, for example, as described in
従来用いられてきた表面筋電位では、原理上、人体の深部に存在する筋の活動は観測することができない。また、前腕の近位から計測可能な前腕の回内や回外に関連する筋活動は弱く、特徴的な筋電位パターンが得られないことがあり、他の動作との相互の誤識別が起こりやすい。例えば、肘の屈曲時の回外動作は、前腕よりも上腕の筋のほうがより強く関与し、前腕の筋活動は弱く、他の動作との誤識別が起こりやすい。また、円回内筋は人体深部の筋であり、方形回内筋は前腕の遠位に存在する筋であるため、これらの筋活動の計測を、前腕の近位に配置した表面電極で、行うのは難しい。このため、従来は、前腕だけでなく、上腕にも表面電極を配置したり、表面電極そのものの数を増やしたりすることによって、情報量の不足を補っている。しかしながら、表面電極の装着箇所を増やさずに、意図する動作の認識精度の向上を図ろうとすると、単独のセンサから得られる情報をさらに補う何らかの情報が必要となる。 With surface myoelectric potentials that have been used in the past, in principle, the activity of muscles existing deep in the human body cannot be observed. In addition, muscle activity related to forearm pronation or pronation that can be measured from the forearm proximal is weak, and characteristic myoelectric potential patterns may not be obtained, resulting in misidentification with other movements. Cheap. For example, the supination motion during flexion of the elbow involves the upper arm muscle more strongly than the forearm, the forearm muscle activity is weak, and misidentification with other motions is likely to occur. In addition, since the circular pronation muscle is a muscle deep in the human body and the square pronation muscle is a muscle that exists in the distal part of the forearm, the measurement of these muscle activities is performed with a surface electrode placed proximal to the forearm, Difficult to do. For this reason, conventionally, the shortage of information is compensated by arranging surface electrodes not only on the forearm but also on the upper arm or increasing the number of surface electrodes themselves. However, if an attempt is made to improve the recognition accuracy of the intended motion without increasing the number of places where the surface electrodes are attached, some information that further supplements the information obtained from a single sensor is required.
よって、本発明の目的は、従来技術に存する問題を解決して、表面筋電位を計測する表面電極の装着箇所を増やさずに、意図する手の動作の認識精度を向上させることにある。 Therefore, an object of the present invention is to solve the problems existing in the prior art and improve the recognition accuracy of the intended hand movement without increasing the number of surface electrode mounting locations for measuring surface myoelectric potential.
上記目的に鑑み、本発明者は、表面筋電位と筋力発揮時に起こる筋の隆起量を計測し、筋の隆起情報を同時に活用することによって表面筋電位に関する情報を補い、意図する動作の認識精度を向上させた。 In view of the above-mentioned object, the present inventor measures the amount of bulging of the muscle that occurs when the surface myoelectric potential and muscle strength are exerted, and supplements the information on the surface myoelectric potential by simultaneously using the bulging information of the muscle to recognize the intended motion. Improved.
すなわち、本発明は、第1の態様として、意図する手の動作を認識するための手用の動作認識装置であって、前腕の周囲の複数の異なる位置において、筋電位と筋隆起量を計測し、筋電信号及び筋隆起信号を出力する信号計測部と、計測された前記筋電信号に基づいて積分筋電信号を演算により求める積分筋電演算部と、前記前腕の周囲の各位置における前記筋電信号、前記積分筋電信号及び前記筋隆起信号からそれぞれ特徴情報を抽出する特徴抽出部と、前記特徴抽出部によって抽出された前記筋電信号、前記積分筋電信号及び前記筋隆起信号の特徴情報に基づいて、意図する動作を識別する動作識別部とを備える手用の動作認識装置を提供する。 That is, the first aspect of the present invention is a hand motion recognition device for recognizing an intended hand motion, and measures myoelectric potential and muscle uplift at a plurality of different positions around the forearm. A signal measuring unit that outputs a myoelectric signal and a muscle bulge signal, an integrated myoelectric calculation unit that calculates an integrated myoelectric signal based on the measured myoelectric signal, and at each position around the forearm A feature extraction unit that extracts feature information from the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal, respectively, and the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal extracted by the feature extraction unit A motion recognition device for hand is provided that includes a motion identification unit that identifies an intended motion based on the feature information.
前記手用の動作認識装置は、予め定められた複数の手の動作の各々について予め取得された特徴情報から、学習データを生成する学習データ生成部と、前記学習データ生成部によって生成された学習データに基づいてサポートベクターマシンを構成するサポートベクターマシン学習部とをさらに備え、前記動作識別部は、前記サポートベクターマシン学習部によって構成されたサポートベクターマシンによるデータ処理により、前記特徴部によって抽出された前記特徴情報から意図する動作を識別することが好ましい。 The hand motion recognition device includes: a learning data generation unit that generates learning data from feature information acquired in advance for each of a plurality of predetermined hand movements; and learning generated by the learning data generation unit A support vector machine learning unit that configures a support vector machine based on the data, and the motion identification unit is extracted by the feature unit by data processing by a support vector machine configured by the support vector machine learning unit. It is preferable to identify an intended operation from the feature information.
また、上記手用の動作認識装置において、前記信号計測部は、使用者の前腕の周囲の異なる位置に装着された筋電位センサを用いて筋電位を計測すると共に、使用者の前腕の周囲の異なる位置に使用者の前腕の皮膚表面から離間して装着された距離センサを用いて筋隆起量を計測することが好ましい。この場合、前記信号計測部は、前記筋電位センサと前記距離センサとを兼ね備える複合センサを用いて、筋電位及び筋隆起量を計測することがさらに好ましい。 In the hand motion recognition apparatus, the signal measuring unit measures myoelectric potentials using myoelectric sensors mounted at different positions around the user's forearm, and It is preferable to measure the amount of muscle uplift using distance sensors mounted at different positions away from the skin surface of the user's forearm. In this case, it is more preferable that the signal measuring unit measures a myoelectric potential and a muscle bulge amount using a composite sensor having both the myoelectric potential sensor and the distance sensor.
さらに、前記特徴情報は、予め定められた時間内の筋電信号のフーリエ変換により求められるケプストラム係数と、予め定められた時間内の積分筋電信号を平均することによって求められる平均積分筋電位と、予め定められた時間内の筋隆起信号を平均することによって求められる平均筋隆起量とを少なくとも成分として含む特徴ベクトルであることが好ましい。 Further, the feature information includes a cepstrum coefficient obtained by Fourier transform of a myoelectric signal within a predetermined time, and an average integrated myoelectric potential obtained by averaging the integrated myoelectric signal within a predetermined time. It is preferable that the feature vector includes at least a component of an average muscle elevation obtained by averaging muscle elevation signals within a predetermined time.
また、本発明は、第2の態様として、意図する手の動作に従って義手を操作するための義手操作装置であって、上記手用の動作認識装置と、義手の動作を制御する制御装置とを備え、前記制御装置が、前記動作認識装置によって認識された意図する動作に従って義手を動作させるようにした義手操作装置を提供する。 Moreover, this invention is a prosthetic hand operation apparatus for operating a prosthetic hand according to the operation | movement of the intended hand as 2nd aspect, Comprising: The said operation | movement recognition apparatus for hands, and the control apparatus which controls operation | movement of a prosthetic hand A prosthetic hand operating device in which the control device moves the prosthetic hand according to an intended motion recognized by the motion recognition device.
さらに、本発明は、第3の態様として、支持部と、表面筋電位を検出するために前記支持部の底面に互い平行となるように設けられた一対の筋電電極と、皮膚表面から離間して配置されるように前記支持部に支持された距離センサ部とを備え、前記筋電電極により表面筋電位を計測すると共に、前記距離センサ部により筋隆起量を計測するようにした複合センサを提供する。 Furthermore, the present invention provides, as a third aspect, a support portion, a pair of myoelectric electrodes provided to be parallel to the bottom surface of the support portion in order to detect surface myoelectric potential, and a skin surface. And a distance sensor unit supported by the support unit so as to measure the surface myoelectric potential by the myoelectric electrode and measure the muscle bulge amount by the distance sensor unit. I will provide a.
本発明の手用の動作認識装置、これを用いた義手操作装置、及び複合センサによれば、皮膚表面の筋電位に加えて、筋隆起量を計測するので、筋電位に関する情報に加えて、筋力発揮時に起こる筋の隆起量に関する情報を得ることができ、筋の隆起量に関する情報を同時に活用して筋電位に関する情報を補うことによって、表面筋電位を計測する表面電極の装着箇所を増やさずに、手の動作意図の認識精度を向上させることができる。 According to the hand motion recognition device of the present invention, the prosthetic hand operation device using the same, and the composite sensor, in addition to the myoelectric potential on the skin surface, the amount of muscle uplift is measured. It is possible to obtain information on the amount of muscle uplift that occurs when muscular strength is exerted, and by simultaneously using information on the amount of muscle uplift to supplement the information on myoelectric potential, the number of attachment points of surface electrodes that measure surface myoelectric potential is not increased. In addition, the recognition accuracy of the motion intention of the hand can be improved.
以下、図面を参照して、本発明による手用の動作認識装置を説明する。
最初に、図1を参照して、本発明による手用の動作認識装置の全体構成を説明する。本発明による手用の動作認識装置10は、信号計測部12と、積分筋電演算部14と、特徴抽出部16と、学習データ生成部18と、サポートベクターマシン学習部(以下、「SVM学習部」と記載する。)20と、動作識別部22とを備える。
Hereinafter, a hand motion recognition apparatus according to the present invention will be described with reference to the drawings.
First, referring to FIG. 1, the overall configuration of a manual motion recognition device according to the present invention will be described. The hand
信号計測部12は、使用者の前腕の周囲の複数の異なる位置において、皮膚表面の筋電位と筋の隆起量(以下、「筋隆起量」と記載する。)を計測し、筋電位を表す信号(以下、「筋電信号」と記載する。)と筋隆起量情報を表す信号(以下、「筋隆起信号」と記載する。)を出力する。積分筋電演算部14は、演算により筋電信号から積分筋電信号を求める。特徴抽出部16は、信号計測部12から出力される筋電信号及び筋隆起信号と積分筋電演算部14から出力される積分筋電信号とからそれぞれ特徴情報をフレーム単位(一定の時間内の信号)で抽出し、特徴ベクトルとして統合する。特徴情報は、具体的には、筋電信号のフーリエ変換により求められるケプストラム係数と、積分筋電信号を平均することによって求められる平均積分筋電位と、筋隆起信号を平均することによって求められる平均筋隆起量である。学習データ生成部18は、予め定められた複数の手の動作の各々を行おうとしたときの計測データの特徴情報を成分として含む特徴ベクトルを予め取得しておき、これらの特徴ベクトルに動作クラスを付与して、学習データを生成する。SVM学習部20は、学習データ生成部18で生成された学習データからサポートベクターマシンを用いて識別関数を構成する。動作識別部22は、学習により構成された識別関数を用いて、信号計測部12による筋電位及び筋隆起量の計測から得られた筋電信号、積分筋電位信号及び筋隆起信号の特徴ベクトルから意図する動作(動作意図)を識別する。
The
動作認識装置10は、図2に示されているように、前腕に装着した複合センサなどの信号計測部12により得た筋電信号及び筋隆起信号(筋隆起量情報(センサ−皮膚間距離情報)を表す信号)と積分筋電演算部14によって筋電信号から演算された積分筋電信号とから、特徴抽出部16によって特徴情報を抽出し、特徴ベクトルに統合する。動作の認識時は、サポートベクターマシンを用いて事前に学習した識別関数によって特徴ベクトルが所属する動作クラスが判定され、使用者の意図する動作が認識される。
As shown in FIG. 2, the
以下では、動作認識装置10の各構成要素についてさらに詳細に説明する。
Below, each component of the
信号計測部12による筋電位及び筋隆起量の計測は、例えば、皮膚表面に接触させた筋電電極によって筋電位を計測すると共に、皮膚表面から所定距離だけ離間して配置された距離センサなどによって筋隆起量を計測することによって実現することができる。本実施形態では、筋電位及び筋隆起量は、図3に示されているような複合センサ24によって計測している。しかしながら、筋電電極と距離センサとを別個に使用して、筋電位及び筋隆起量を計測してもよいことはもちろんである。
The measurement of the myoelectric potential and the amount of muscle uplift by the
図3に示されている複合センサ24は、支持部24aと、支持部24aの底面に互いに平行になるように設けられた一対の筋電電極24bと、使用者の皮膚表面から離間して配置されるように支持部24aに支持された距離センサ部24cとによって構成されており、筋電電極24bによって皮膚表面の筋電位を計測して筋電信号を出力すると共に、距離センサ部24bによって距離センサ部24から皮膚表面までの距離を検出することによって筋隆起量を計測し、筋隆起信号を出力する。筋電位電極24aは好ましくは銀電極で構成される。筋電電極24aによって計測された筋電信号は、10〜482Hzの帯域でフィルタされ、2000倍に増幅される。また、距離センサ部24cは、好ましくは、赤外線の発光部と受光部を有し、発光した赤外線の反射の程度を検出することで距離を計測する光学式距離センサを用いることが好ましい。図4に、距離センサ部24cとして光学式距離センサを用いたときに、光学式距離センサと使用者の皮膚表面との間の距離と光学式距離センサからの出力電圧との関係が示されている。光学式距離センサと使用者の皮膚表面との間の距離が0mmから3mmまでは、距離と出力電圧との関係がほぼ線形であり、6mmの距離までは計測可能であることが分かる。本実施形態では、光学式距離センサ(距離センサ部24c)から中立位の状態の被験者の皮膚表面までの距離が5mmとなるように支持部24aに距離センサ部24cを支持するようにしている。しかしながら、使用者の皮膚表面までの距離が計測可能な範囲であれば、距離センサ部24cと中立位状態の被験者の皮膚表面との間の距離は任意に設定することが可能である。
The
本実施形態では、信号計測部12において四つの複合センサ24を用いて七つの手の動作意図の認識を行っている。この場合の複合センサ24の配置の例が図5に示されている。図5では、第1の複合センサ24(Ch.1)が尺側手根屈筋の直上に、第2の複合センサ24(Ch.2)が深指屈筋の直上に、第3の複合センサ24(Ch.3)が橈側手根伸筋の直上に、第4の複合センサ24(Ch.4)が総指伸筋の直上に配置されている。複合センサ24は、例えば図6に示されているように、バンドなどで前腕の周囲に固定すればよい。なお、複合センサ24の距離センサ部24cはバンドから露出させ、中立位の状態で距離センサ部24cと皮膚表面とが5mm程度の距離だけ離間するように配置されるようにする。
In this embodiment, the
積分筋電演算部14では、信号計測部12によって得られた筋電信号に基づいて、積分筋電位信号が求められる。積分筋電演算部14では、例えば、全波整流、遮断周波数2.4Hzのローパスフィルタで筋電信号を平滑化することによって包絡波形である積分筋電信号を得ればよい。しかしながら、得られた筋電信号を全波整流した後に積分することによって積分筋で信号を求めるなど他の方法によって積分筋電信号を求めることも可能である。
The integrated
信号計測部12によって得られた筋電信号及び筋隆起信号は、例えば16−bitのAD変換器で所定周期(例えば2000Hz)でサンプリングされる。掌屈、背屈、握る、開く、回内、回外の各動作を行ったときに複合センサ24で計測された筋電信号及び筋隆起信号、並びに、筋電信号から演算された積分筋電信号の例が図7に示されている。図7(a)は筋電信号、図7(b)は積分筋電信号、図7(c)はセンサ−皮膚間距離情報すなわち筋隆起信号を示している。
The myoelectric signal and the muscle uplift signal obtained by the
特徴抽出部16、学習データ生成部18、SVM学習部20、動作識別部22は、例えば、パーソナルコンピュータのCPUでプログラムを実行することによって実現することができる。
The
特徴抽出部16は、サンプリングされた各信号から特徴情報をフレーム単位で抽出する。詳細には、特徴抽出部16は、フレーム長64ms、フレーム周期16msでフレームをシフトさせながら、フレーム単位で切り出された筋電信号、積分筋電信号及び筋隆起信号から、それぞれ、ケプストラム特徴(以下、「CC特徴」と記載する。)、平均積分筋電特徴(以下、「AIEMG特徴」と記載する。)、センサ−皮膚間距離特徴(以下、「ASSD特徴」と記載する。)を抽出する。
The
AIEMG特徴は、積分筋電信号のフレーム内時間平均であり、筋電信号の振幅の大きさを表す。第p(p=1,…,P)番フレーム内で、n点目の積分筋電信号サンプルをIEMGl(n)(n=0,…,N−1,;l=1,…,L)とする。ここで、Nは1フレーム内のサンプル数を、Lはセンサ数を示す。本実施形態では、N=128、L=4となる。l番目のセンサから得たAIEMG特徴であるAIEMGl(p)は次式(1)によって求められる。
CC特徴は、ケプストラム分析で求められるケプストラム係数であり、フレーム内の筋電信号に対するケプストラム分析により以下のようにして求める。第p番目のフレーム内のn点目の筋電信号サンプルをEMGl(n)として、EMGl(n)のフーリエ変換Xl k(p)(k=0,…,N−1)を
ケプストラム分析は、パワースペクトルの包絡形状と微細構造を分離可能であり、低次係には包絡形状の特徴が、高次係数には微細構造の特徴が現れる。特徴抽出部16では、n=0からn=W−1までのW個の低次係数をCC特徴として採用し、包絡形状を抽出特徴として利用する。ケプストラム係数は高速フーリエ変換を用いて計算するため、リアルタイムでの計算にも適している。本実施形態では、例示として、W=3を採用している。
The cepstrum analysis can separate the envelope shape and the fine structure of the power spectrum, and the characteristic of the envelope shape appears in the lower order and the feature of the fine structure appears in the higher order coefficient. The
ASSD特徴ASSDl(p)は、以下の式(4)のように、センサと皮膚表面との間の距離を表す筋隆起信号のフレーム内時間平均により求める。
このようにして求めたAIEMG特徴、CC特徴及びASSD特徴は、以下の特徴ベクトルx(p)に統合される。
本実施形態では、1次元のAIEMG特徴、3次元のCC特徴、1次元のASSD特徴が各チャンネル(すなわち各複合センサ24)から抽出され特徴ベクトルとして統合されるので、20次元の特徴ベクトルとなる。特徴ベクトルは過去のフレームデータを用いて移動平均による平滑化を行って用いられる。例えば、特徴ベクトルは、過去10点から現在までのフレームデータを用いて11点の移動平均により平滑化を行う。 In the present embodiment, the one-dimensional AIEMG feature, the three-dimensional CC feature, and the one-dimensional ASSD feature are extracted from each channel (that is, each composite sensor 24) and integrated as a feature vector, so that a 20-dimensional feature vector is obtained. . The feature vector is used after smoothing by moving average using past frame data. For example, the feature vector is smoothed by a moving average of 11 points using frame data from the past 10 points to the present.
学習データ生成部18は、予め定められた複数の手の動作の各々を行おうとしたときの計測信号から抽出された特徴ベクトルを予め取得しておき、これらの特徴ベクトルに動作クラスを付与し、学習データを生成する。間接角度センサなどで別途計測した動作情報を基に動作クラスを付与する方法は、手の動きを直接計測することができない前腕切断者への適用が難しい。そこで、本実施形態の動作認識装置10の学習データ生成部18では、予め定められた順序で動作を行ったときの筋電位の計測データのみを使用して動作クラスを付与する。このために、動作意図を持って筋収縮している時間区間(以下、「動作区間」と記載する。)を検出する必要がある。
The learning
以下に、学習データの生成方法の一例を記載する。しかしながら、学習データの生成方法は以下に限定されるものではない。
まず、認識対象となる動作の間に中立位をはさみながら予め定められた順序で連続して行ったときの筋電位計測データすなわち筋電信号を取得し、特徴ベクトルx(p)を求める。各動作では、中立位の状態から関節を自動関節可動域まで動かした後、力を抜いて再び中立位に戻す。次に、筋電信号の零交叉数を基に動作区間の検出を行う。次式(6)に示されている零交叉の定義に基づいて、筋電位電極24bで計測した筋電信号をその最大値で正規化したEMGl Sのフレーム内零交叉数ZCl(p)が演算により求められる。
First, the myoelectric potential measurement data, that is, the myoelectric signal obtained continuously in a predetermined order with the neutral position between the motions to be recognized is obtained, and the feature vector x (p) is obtained. In each operation, the joint is moved from the neutral position to the automatic joint range of motion, and then the force is released to return to the neutral position again. Next, the motion section is detected based on the zero crossing number of the myoelectric signal. Based on the definition of zero crossing shown in the following equation (6), the EMG l S in-frame zero crossing number ZC l (p) obtained by normalizing the myoelectric signal measured by the myoelectric
次に、ZCl(p)の総和ZCsum(p)を求め、さらに移動平均で平滑化する。
SVM学習部20は、学習データ生成部18で生成された学習データからサポートベクターマシンを用いて識別関数を構成する。サポートベクターマシンは、学習データから「マージン最大化」という基準でパラメータを学習する。未知パターンの特徴ベクトルx(p)(以下、単にxと記載する。)を二つのクラスの何れか識別する識別関数を次式(8)で表す。
本実施形態の動作認識装置10のSVM学習部20では、決定すべきカーネルパラメータが一つで求め易く、シグモイドカーネル、多項式カーネルよりも識別性能が良好であったことから、次式(9)で表されるRBF(radial basis function)カーネルを用いている。しかしながら、SVM学習部20において、他のカーネル関数を用いることも可能である。
実際に式(8)に示した識別関数を求めるためには、マージン最大化基準によって次式を最大にするλiを求める。
サポートベクターマシンは、原理的に2クラスを識別する手法であるため、多クラスを識別するために、「one−against−one」アルゴリズムを用いる。このアルゴリズムでは、O個のクラスの全ての組み合わせ、すなわちO(O+1)/2個の識別関数を構成し、各識別関数を用いて特徴ベクトルの識別を行う。全ての識別結果を集計し、最も多く識別された動作クラスをフレームにおける最終的な識別結果とする。SVM学習部20では、サポートベクターマシンを多クラスへ拡張する方法として、「one−against−one」アルゴリズムに代えて、「one−against−all」アルゴリズムを用いてもよい。
Since the support vector machine is a technique for discriminating two classes in principle, a “one-against-one” algorithm is used to identify multiple classes. In this algorithm, all combinations of O classes, that is, O (O + 1) / 2 discriminant functions are constructed, and feature vectors are discriminated using each discriminant function. All the identification results are aggregated, and the action class identified most is the final identification result in the frame. The
[動作認識実験]
動作認識装置10の有効性を確認するために、動作認識実験を行った。被験者は、男性3名、女性1名の計4名であり、以下のような手順で実施した。被験者は、コンピュータディスプレイの前に置かれた椅子に自然な姿勢で座る。肘を体感から15cmほど離し、80度ほど曲げ、肘と手先がほぼ同じ水平位置になるようにした。また、前腕と手は机などに接触しないようにした。1試行は60秒であり、掌屈、背屈、握る、開く、前腕回内、前腕回外の順に5セット、計30動作を行った。各動作では、中立位の状態から関節を自動関節可動域まで動かした後、力を抜いて再び中立位に戻し、次の動作を行った。各動作の開始から完了まではおよそ1秒とした。筋電信号及び積分筋電信号に加えて筋隆起信号(すなわちセンサ−皮膚表面間の距離情報)を用いた場合と筋隆起信号を用いず筋電信号及び積分筋電信号のみを用いた場合(すなわち筋電位センサからの情報のみを用いた場合)とについて、それぞれ、全10試行を行った。そして、それぞれにおいて、10試行のうちの2試行を学習データ、残りの8試行をテストデータとして動作認識実験を行い、両方の結果を比較した。評価には、以下で求められる動作認識率を用いた。
In order to confirm the effectiveness of the
このようにして行った被験者ごとの動作認識率を図8及び図9に示す。図8は、筋電信号、積分筋電信号及び筋隆起信号から抽出した特徴情報、すなわち、CC特徴、AIEMG特徴及びASSD特徴を組み合わせた特徴ベクトルを用いた場合の動作認識率の結果である。また、図9は、筋隆起信号(すなわちセンサ−皮膚表面間距離に関する情報)を除いて、筋電信号及び積分筋電位信号から抽出したCC特徴及びAIEMG特徴のみを組み合わせた特徴ベクトルを用いた場合の動作認識率の結果である。CC特徴、AIEMG特徴及びASSD特徴を組み合わせた特徴ベクトルを用いた場合、7動作の総認識率は全ての被験者で95%以上となった。また、CC特徴及びAIEMG特徴のみを組み合わせた特徴ベクトルを用いた場合と比較すると、CC特徴、AIEMG特徴及びASSD特徴を組み合わせた特徴ベクトルを用いた場合の総認識率は、約1%の向上があった。動作全体としては、約1%の向上であるが、握る、開く、前腕回内、前腕回外では特に認識率が向上した。この結果から、筋電に関する情報すなわち筋電信号及び積分筋電信号に、筋の隆起量(センサ−皮膚表面間の距離)に関する情報すなわち筋隆起信号を加えることによって、筋電に関する情報のみで得ることができる動作意図関連情報を補うことができることが分かる。 The motion recognition rate for each subject performed in this way is shown in FIGS. FIG. 8 shows the result of the motion recognition rate when using feature information extracted from the myoelectric signal, the integrated myoelectric signal, and the muscle uplift signal, that is, a feature vector that combines the CC feature, the AIEMG feature, and the ASSD feature. FIG. 9 shows a case where a feature vector combining only CC features and AIEMG features extracted from the myoelectric signal and the integrated myoelectric potential signal is used except for the muscle uplift signal (that is, information on the sensor-skin surface distance). This is a result of the motion recognition rate. When a feature vector combining the CC feature, the AIEMG feature, and the ASSD feature was used, the total recognition rate of 7 actions was 95% or more for all the subjects. In addition, compared with the case where the feature vector combining only the CC feature and the AIEMG feature is used, the total recognition rate when using the feature vector combining the CC feature, the AIEMG feature and the ASSD feature is improved by about 1%. there were. Although the overall movement was improved by about 1%, the recognition rate was particularly improved when grasping, opening, forearm gyrus, and forearm gyrus. From this result, the information about the myoelectricity, i.e., the myoelectric signal and the integral myoelectric signal, is added to the information about the amount of bulging of the muscle (distance between the sensor and the skin surface), i.e., the muscle bulging signal, and only the information about myoelectricity is obtained. It can be seen that motion intention related information that can be supplemented.
図10は、上記の動作認識実験における被験者Cについて、動作認識を行った例を示している。被験者は、掌屈、背屈、握る、開く、前腕回内、前腕回外を繰り返し実行した。図10から、意図する動作の認識が高い精度で行われていることが分かる。 FIG. 10 shows an example in which motion recognition is performed on the subject C in the motion recognition experiment. The subject repeatedly performed palm flexion, dorsiflexion, grasping, opening, forearm pronation and forearm prolapse. FIG. 10 shows that the intended motion is recognized with high accuracy.
このように、動作認識装置10は、複合センサ24などの信号計測部12から、皮膚表面の筋電位に加えて、筋隆起量を計測するので、筋電信号及び積分筋電信号に加えて、筋隆起信号を得ることができ、これらから特徴抽出部16によって抽出された特徴ベクトルに基づいて、動作識別部22が、SVM学習部20によって学習した識別関数を用いて、意図する動作を識別する。すなわち、筋隆起信号を同時に活用して筋電信号及び積分信号から得られる情報を補うことができ、センサなどによる計測箇所を増加させることなく、意図する手の動作の認識精度を向上させることができる。
In this way, since the
次に、図1に示されている動作認識装置10を用いた義手操作装置30について説明する。義手操作装置30は、複合センサ24を備えた動作認識装置10と、制御部32と、義手駆動部34とを備える。動作認識装置10の複合センサ24は前腕に取り付けられ、使用者の前腕の皮膚表面の筋電位と筋の隆起量を計測し、筋電信号と筋隆起信号を出力する。動作認識装置10は、複合センサ24から出力された筋電信号に基づいて積分筋電信号を演算し、筋電信号、積分筋電信号、筋隆起信号からCC特徴、AIEMG特徴及びASSD特徴からなる特徴情報を抽出し、サポートベクターマシンを用いて、予め得られている学習データと複合センサ24の計測データから得られた特徴情報とに基づいて、意図する動作を認識する。制御部32は、動作認識装置10によって認識された動作に従って義手を動作させるように、義手駆動部34を制御する。
Next, the prosthetic
このように構成された義手操作装置30は、動作認識装置10を用いており、使用者が意図する動作を正確に認識することができるので、より使用者の意図する動作に沿った動作を義手にさせることが可能となる。
The prosthetic
以上、図示された実施形態に基づいて、本発明による動作認識装置10及びこれを用いた義手操作装置30を説明したが、本発明の動作認識装置10及び義手操作装置30の構成は図示されている実施形態に限定されるものではない。例えば、図示されている実施形態では、動作認識装置10の信号計測部12として複合センサ24を用いているが、複合センサ24に代えて、個別の筋電位センサと距離センサとを用いて筋電信号及び筋隆起信号を取得するようにしてもよい。
As described above, the
10 動作認識装置
12 信号計測部
14 積分筋電演算部
16 特徴抽出部
18 学習データ生成部
20 SVM学習部
22 動作識別部
24 複合センサ
24a 支持部
24b 筋電電極
24c 距離センサ部
30 義手操作装置
32 制御部
28 義手駆動部
DESCRIPTION OF
Claims (7)
前腕の周囲の複数の異なる位置において、筋電位と筋隆起量を計測し、筋電信号及び筋隆起信号を出力する信号計測部と、
計測された前記筋電信号に基づいて積分筋電信号を演算により求める積分筋電演算部と、
前記前腕の周囲の各位置における前記筋電信号、前記積分筋電信号及び前記筋隆起信号からそれぞれ特徴情報を抽出する特徴抽出部と、
前記特徴抽出部によって抽出された前記筋電信号、前記積分筋電信号及び前記筋隆起信号の特徴情報に基づいて、意図する動作を識別する動作識別部と、
を備えることを特徴とした手用の動作認識装置。 A hand motion recognition device for recognizing an intended hand motion,
A signal measuring unit that measures myoelectric potential and muscle bulge amount at a plurality of different positions around the forearm, and outputs a myoelectric signal and a muscle bulge signal;
An integrated myoelectric calculator that calculates an integrated myoelectric signal based on the measured myoelectric signal,
A feature extraction unit that extracts feature information from each of the myoelectric signal, the integrated myoelectric signal, and the muscle bulge signal at each position around the forearm;
An action identifying unit that identifies an intended action based on feature information of the myoelectric signal, the integrated myoelectric signal, and the muscle protuberance signal extracted by the feature extracting unit;
A hand motion recognition device comprising:
請求項1から請求項5の何れか一項に記載の手用の動作認識装置と、
義手の動作を制御する制御装置と、
を備え、前記制御装置が、前記動作認識装置によって認識された意図する動作に従って義手を動作させることを特徴とした義手操作装置。 A prosthetic hand operating device for operating a prosthetic hand according to the intended hand movement,
The hand motion recognition device according to any one of claims 1 to 5,
A control device for controlling the operation of the prosthetic hand;
The prosthetic hand operating device is characterized in that the control device moves the prosthetic hand according to the intended motion recognized by the motion recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012197656A JP2014050590A (en) | 2012-09-07 | 2012-09-07 | Action recognition device for hand, artificial hand operation device, and composite sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012197656A JP2014050590A (en) | 2012-09-07 | 2012-09-07 | Action recognition device for hand, artificial hand operation device, and composite sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014050590A true JP2014050590A (en) | 2014-03-20 |
Family
ID=50609661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012197656A Pending JP2014050590A (en) | 2012-09-07 | 2012-09-07 | Action recognition device for hand, artificial hand operation device, and composite sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014050590A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017099545A (en) * | 2015-11-30 | 2017-06-08 | 学校法人早稲田大学 | Robot control device |
JP2019025311A (en) * | 2017-07-28 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Data generation apparatus, biological data measurement system, discriminator generation apparatus, data generation method, discriminator generation method, and program |
CN110850979A (en) * | 2019-11-07 | 2020-02-28 | 中国航天员科研训练中心 | Gesture recognition man-machine interaction method based on medical insurance monitoring signals of astronaut |
JPWO2018186348A1 (en) * | 2017-04-04 | 2020-05-28 | 学校法人 中央大学 | Muscle contraction detection sensor |
JP2020156872A (en) * | 2019-03-27 | 2020-10-01 | 日東電工株式会社 | Sticking type biological sensor |
CN112998646A (en) * | 2019-12-20 | 2021-06-22 | 河南独树数字科技有限公司 | Multi-channel surface electromyography action intention recognition method without feature description |
KR20220034376A (en) * | 2020-09-11 | 2022-03-18 | 한국기계연구원 | Real time decoding system for multi-channel neural activity and real time decoding method using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010125287A (en) * | 2008-12-01 | 2010-06-10 | Gifu Univ | Digital joint angle estimating device |
-
2012
- 2012-09-07 JP JP2012197656A patent/JP2014050590A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010125287A (en) * | 2008-12-01 | 2010-06-10 | Gifu Univ | Digital joint angle estimating device |
Non-Patent Citations (3)
Title |
---|
JPN6015050999; 吉川雅博, 三田友記, 三河正彦, 田中和世: '前腕切断者を対象とした筋電位信号に基づく手の動作識別法に関する基礎的研究' 人間工学 Vol.46, No.3, 20100615, 第197-207頁 * |
JPN7015003566; 吉川雅博、三河正彦、田中和世: '筋電位を利用したサポートベクターマシンによる手のリアルタイム動作識別' 電子情報通信学会論文誌 D Vol. J92-D, No. 1, 2009, 第93-103頁 * |
JPN7015003567; 吉川 雅博: '腕から計測可能な多種生体信号を用いた手の動作意図の推定手法の開発' 科学研究費助成事業(科学研究費補助金)研究成果報告書,[online] [平成27年12月11日検索], 国立情報学研究所 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017099545A (en) * | 2015-11-30 | 2017-06-08 | 学校法人早稲田大学 | Robot control device |
JPWO2018186348A1 (en) * | 2017-04-04 | 2020-05-28 | 学校法人 中央大学 | Muscle contraction detection sensor |
JP2019025311A (en) * | 2017-07-28 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Data generation apparatus, biological data measurement system, discriminator generation apparatus, data generation method, discriminator generation method, and program |
JP7336755B2 (en) | 2017-07-28 | 2023-09-01 | パナソニックIpマネジメント株式会社 | DATA GENERATION DEVICE, BIOLOGICAL DATA MEASUREMENT SYSTEM, CLASSIFIER GENERATION DEVICE, DATA GENERATION METHOD, CLASSIFIER GENERATION METHOD, AND PROGRAM |
JP2020156872A (en) * | 2019-03-27 | 2020-10-01 | 日東電工株式会社 | Sticking type biological sensor |
JP7345264B2 (en) | 2019-03-27 | 2023-09-15 | 日東電工株式会社 | Stick-on biosensor |
CN110850979A (en) * | 2019-11-07 | 2020-02-28 | 中国航天员科研训练中心 | Gesture recognition man-machine interaction method based on medical insurance monitoring signals of astronaut |
CN110850979B (en) * | 2019-11-07 | 2023-05-09 | 中国航天员科研训练中心 | Gesture recognition man-machine interaction method based on spaceflight medical supervision and medical insurance signal |
CN112998646A (en) * | 2019-12-20 | 2021-06-22 | 河南独树数字科技有限公司 | Multi-channel surface electromyography action intention recognition method without feature description |
CN112998646B (en) * | 2019-12-20 | 2022-03-25 | 深圳沃立康生物医疗有限公司 | Multi-channel surface electromyography action intention recognition method without feature description |
KR20220034376A (en) * | 2020-09-11 | 2022-03-18 | 한국기계연구원 | Real time decoding system for multi-channel neural activity and real time decoding method using the same |
KR102458459B1 (en) | 2020-09-11 | 2022-10-26 | 한국기계연구원 | Real time decoding system for multi-channel neural activity and real time decoding method using the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jiang et al. | Feasibility of wrist-worn, real-time hand, and surface gesture recognition via sEMG and IMU sensing | |
Tam et al. | A fully embedded adaptive real-time hand gesture classifier leveraging HD-sEMG and deep learning | |
Benalcázar et al. | Hand gesture recognition using machine learning and the Myo armband | |
US10481699B2 (en) | Armband for tracking hand motion using electrical impedance measurement | |
Luo et al. | A low-cost end-to-end sEMG-based gait sub-phase recognition system | |
JP2014050590A (en) | Action recognition device for hand, artificial hand operation device, and composite sensor | |
Tsai et al. | A novel STFT-ranking feature of multi-channel EMG for motion pattern recognition | |
Khan et al. | Selection of features and classifiers for EMG-EEG-based upper limb assistive devices—A review | |
Naik et al. | Nonnegative matrix factorization for the identification of EMG finger movements: Evaluation using matrix analysis | |
CN112754468B (en) | Human body lower limb movement detection and identification method based on multi-source signals | |
Cheng et al. | Visualization of activated muscle area based on sEMG | |
Yang et al. | Surface EMG based handgrip force predictions using gene expression programming | |
Jose et al. | Classification of forearm movements from sEMG time domain features using machine learning algorithms | |
Zhao et al. | Flexible and wearable EMG and PSD sensors enabled locomotion mode recognition for IoHT-based in-home rehabilitation | |
JP2011177278A (en) | Gait disorder automatic analysis system | |
Bao et al. | Toward robust, adaptiveand reliable upper-limb motion estimation using machine learning and deep learning–a survey in myoelectric control | |
Dasgupta et al. | Acceleration gait measures as proxies for motor skill of walking: A narrative review | |
Lu et al. | Effective recognition of human lower limb jump locomotion phases based on multi-sensor information fusion and machine learning | |
Xu et al. | Noninvasive human-prosthesis interfaces for locomotion intent recognition: A review | |
CN113616395B (en) | Prosthesis control method, device, prosthesis equipment and computer readable storage medium | |
US11772259B1 (en) | Enhanced activated exoskeleton system | |
Lara et al. | Muscle-specific high-density electromyography arrays for hand gesture classification | |
Kanoga et al. | Assessing the effect of transfer learning on myoelectric control systems with three electrode positions | |
Wang et al. | A novel PPG-FMG-ACC wristband for hand gesture recognition | |
Tosin et al. | SEMG-based upper limb movement classifier: Current scenario and upcoming challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160531 |