JP4617467B2 - 学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体 - Google Patents
学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP4617467B2 JP4617467B2 JP2005336864A JP2005336864A JP4617467B2 JP 4617467 B2 JP4617467 B2 JP 4617467B2 JP 2005336864 A JP2005336864 A JP 2005336864A JP 2005336864 A JP2005336864 A JP 2005336864A JP 4617467 B2 JP4617467 B2 JP 4617467B2
- Authority
- JP
- Japan
- Prior art keywords
- muscles
- tension
- time series
- joints
- human interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Rehabilitation Tools (AREA)
- Prostheses (AREA)
- User Interface Of Digital Computer (AREA)
Description
なお、指の動きや姿勢を決定する個々関節の角度の推定は、従来、神経回路モデルを用いて実現することが可能である。
本発明は、筋肉の動きが制約されることなく、複数の筋肉の筋電信号に基づいて所望の複数の関節の状態やこれらの状態の組み合わせの時系列を精度よく高速に推定できる学習支援装置、学習支援方法、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体を提供することを目的とする。
本発明にかかわる第二の学習支援装置では、検出手段は、複数の関節の動きを定める複数の筋肉の筋電信号より複数の筋肉の張力を検出する。観測手段は、複数の関節の動きを観測する。モデル生成手段は、観測手段によって観測された複数の関節の標本化すべき動作状態に対応する区間での複数の筋肉の張力の履歴にラベルを付与して、複数の筋肉の張力の時系列入力から複数の関節の動作を、ラベルに基づいて標本化された動作状態の組み合わせの時系列として推定する機械学習のモデルを生成する。
本発明にかかわる記録媒体は、既述の第一もしくは第二の学習支援装置、または仮想ヒューマンインタフェース装置としてコンピュータを機能させるためのプログラムが記録され、かつコンピュータ読み取り可能である。
したがって、身体障害者による複雑な行動や活動の支援その他の多くの分野に対しても、筋電信号を用いた仮想ヒューマンインタフェースの適用の可能性が拡大される。
図1は、本発明の第一および第二の実施形態を示す図である。
図において、筋電計11の入力には、本発明にかかわる学習支援装置または仮想ヒューマンインタフェース装置の利用者の腕から、その利用者の指の動きや姿勢に密接に関連する14箇所の筋肉の表面筋電信号(以下、単に「筋電信号」という。)が並列に入力される。なお、このような筋電信号は、何れも、該当する筋肉に添付された乾式電極を介して得られる。筋電計11の出力はコンピュータ12のアナログ入力ポートに接続される。コンピュータ12のディジタル入力ポートには、三次元位置計測装置13の出力が接続される。さらに、コンピュータ12には、外部記憶装置14およびロボットアクチュエータ15-1〜15-nが接続される。
図3は、本発明の第一および第二の実施形態におけるコンピュータの動作フローチャートである。
〔第一の実施形態〕
以下、図1ないし図3を参照して、本発明の第一の実施形態の動作を説明する。
利用者は、前腕を机の上に置き、かつ力を抜いた状態で手を自然な状態に保つ。さらに、利用者は、例えば、下記の「タスク1」ないし「タスク3」をそれぞれ9.5秒間で10回ずつ、合計で260回試行する。
(タスク1) 一本の指のみを繰り返し上下させる。
(タスク2) 親指から小指まで順番に一本ずつ指を上下させる。
(タスク3) 特定の指を一本上げたまま別の指を一本上下させる。
筋電計11は、例えば、2kHzのサンプリング周波数でこれらの筋電信号をサンプリングすることによって、個々の筋電信号の瞬時値を示す14個のディジタル信号の列を生成する。三次元位置計測装置13は、利用者の各指の位置を毎秒200回の速度で反復して計測する。
(1) 全波整流
(2) 10点毎の移動平均
(3) 所定の濾波特性を有する2次のローパスフィルタによる濾波
次に、コンピュータ12は、これらの疑似張力を一括して75msecの幅の時間ウィンドウで区切り、かつ10msec毎にずらして平均値をとることによって、14個の時系列データを生成する(図3ステップS2)。
λ=(A,B,π)
コンピュータ12は、例えば、先行して生成された時系列データにBaum−Welchのアルゴリズムを適用することによって、このようなHMMに適した各パラメータを推定する(図3ステップS3)。
このようにして学習が完了した後には、コンピュータ12は、以下の処理を行う。
[1] 三次元位置計測装置13の稼働を停止させる(図3ステップS5)。
[2] 利用者の筋電信号に応じて筋電計11が出力するディジタル信号の列に既述の処理を施すことによって、14個の疑似張力を推定し、これらの疑似張力に対応した14個の時系列データを生成する(図3ステップS6)。
[3] 図4に示すように、ビタビアルゴリズムに基づいて上述したモデル(データベース)を参照することによって、これらの時系列データが反映された指の状態や動きを示すラベルの時系列を得る(図3ステップS7)。なお、このようなビタビアルゴリズムに基づく認識は、一般に、入力状態系列O[1,T]=o[1]o[2]…o[T]に対する最適状態系列Q[1, T]=q[1]q[2]…q[T] を求め、その系列上で求められた出力確率が最大となるラベルの時系列を得る処理として実現される。
すなわち、本実施形態では、利用者の腕にある複数の筋肉から得られた筋電信号がこのようなHMMの入力として用いられるので、利用者の複数の指がどのような組み合わせで並行して動いた場合であっても、これらの複数の指の全ての状態は、例えば「押ボタン等を押しているか否か」の2値として識別される。
「中指が上げられたまま人差し指が上下される複雑なタスク」の過程では、これらの中指と人差し指との高さは、図5(a) に2つの大きな波形で示されるように、三次元位置計測装置13によって計測される。また、このような過程で時系列の順に計測された14個の擬似張力と、HMMに基づいて時系列の順に認識されたラベルとについては、本発明の発明者による評価によれば、図5(b) に示す結果が得られた。なお、図5(b) において、ラベル「c」は中指のみが机から離れている状態を意味し。ラベル「bc」は人差し指と中指との何れもが机から離れている状態を意味する。
上述したように本実施形態によれば、5本の指が一本ずつだけではなく、多様な組み合わせで複数並行して動かされる場合であっても、何れの指の状態もほぼリアルタイムに精度よく推定され、従来例では達成されなかった「筋電信号に基づく複数の指の仮想ヒューマンインタフェース」が実現される。
また、本実施形態では、筋電計11によって計測される筋電信号の数、その筋電信号のサンプリング周波数、各指の位置の計測が行われる周期および頻度は、所望の精度や応答性が確保される範囲で如何なる値に設定されてもよい。
〔第二の実施形態〕
以下、図1および図3を参照して本発明の第二の実施形態の動作を説明する。
コンピュータ12は、ビタビアルゴリズムに基づいて既述のモデルを参照することによって新たなラベルを得る(図3ステップS7)度に、その新たなラベルに対応した状態にロボットアクチュエータ15-1〜15-nの状態を更新する(図3ステップS8)。
すなわち、本実施形態では、「関節の単なる角度」ではなく、「複数の関節(自由度)の角度の組み合わせとして定まる指等の形状や姿勢の時系列」、あるいは「これらの複数の関節(自由度)の状態の組み合わせの時系列」が既述の通りに筋電信号に基づいて識別され、その識別の結果がロボットアクチュエータ15-1〜15-nを介して具現化される。
したがって、ロボットアクチュエータ15-1〜15-nによって操作される機器として、例えば、楽器が備えられた場合には、手や指がない利用者であってもその楽器を演奏することが可能となる。
また、手や肘の位置や動きの組み合わせの時系列として表される手話の動作のように、多数の関節(自由度)の状態の組み合わせやその組み合わせの変化の過程を識別するためにも、本発明は適用可能である。
また、上述した各実施形態では、ビタビ・アルゴリズムが用いられているが、HMMその他の機械学習の方式に適した如何なるアルゴリズムが用いられてもよい。
さらに、本発明は、上述した実施形態に限定されるものではなく、本発明の範囲において多様な形態による実施形態が可能であり、かつ構成装置の一部もしくは全てに如何なる改良が施されてもよい。
12 コンピュータ
13 三次元位置計測装置
14 外部記憶装置
15 ロボットアクチュエータ
Claims (9)
- 複数の関節の動きを定める複数の筋肉の筋電信号より前記複数の筋肉の張力を検出する検出手段と、
前記複数の関節の標本化すべき動作状態に対応する区間での前記複数の筋肉の張力の履歴にラベルを付与して、前記複数の筋肉の張力の時系列入力から前記複数の関節の動作を、前記ラベルに基づいて標本化された前記動作状態の組み合わせの時系列として推定する機械学習のモデルを生成するモデル生成手段と
を備えたことを特徴とする学習支援装置。 - 複数の関節の動きを定める複数の筋肉の筋電信号より前記複数の筋肉の張力を検出する検出手段と、
前記複数の関節の動きを観測する観測手段と、
前記観測手段によって観測された前記複数の関節の標本化すべき動作状態に対応する区間での前記複数の筋肉の張力の履歴にラベルを付与して、前記複数の筋肉の張力の時系列入力から前記複数の関節の動作を、前記ラベルに基づいて標本化された前記動作状態の組み合わせの時系列として推定する機械学習のモデルを生成するモデル生成手段と
を備えたことを特徴とする学習支援装置。 - 複数の関節の動きを定める複数の筋肉の筋電信号より前記複数の筋肉の張力を検出する検出手段と、
前記複数の関節の標本化すべき動作状態に対応する区間での前記複数の筋肉の張力の履歴にラベルを付与して、前記複数の筋肉の張力の時系列入力から前記複数の関節の動作を、前記ラベルに基づいて標本化された前記動作状態の組み合わせの時系列として推定する機械学習のモデルが予め格納された記憶手段と、
前記検出手段によって検出された前記複数の筋肉の張力の時系列に基づいて前記モデルを参照し、前記標本化された動作状態の組み合わせの時系列を推定する推定手段と
を備えたことを特徴とする仮想ヒューマンインタフェース装置。 - 複数の関節の動きを定める複数の筋肉の筋電信号より前記複数の筋肉の張力を検出し、
前記複数の関節の標本化すべき動作状態に対応する区間での前記複数の筋肉の張力の履歴にラベルを付与して、前記複数の筋肉の張力の時系列入力から前記複数の関節の動作を、前記ラベルに基づいて標本化された前記動作状態の組み合わせの時系列として推定する機械学習のモデルを前記検出された複数の筋肉の張力の時系列に基づいて参照し、前記標本化された動作状態の組み合わせの時系列を推定する
ことを特徴とする仮想ヒューマンインタフェース方法。 - 複数の関節の動きを定める複数の筋肉の筋電信号より前記複数の筋肉の張力を検出する検出手段と、
前記複数の関節の標本化すべき動作状態に対応する区間での前記複数の筋肉の張力の履歴にラベルを付与して、前記複数の筋肉の張力の時系列入力から前記複数の関節の動作を、前記ラベルに基づいて標本化された前記動作状態の組み合わせの時系列として推定する機械学習のモデルが予め格納された記憶手段と、
前記検出手段によって検出された前記複数の筋肉の張力の時系列に基づいて前記モデルを参照し、前記標本化された動作状態の組み合わせの時系列を推定する推定手段と、
前記推定手段によって推定された前記標本化された動作状態の組み合わせの時系列に基づいて前記複数の関節に対応したロボットアクチュエータを駆動する駆動手段と
を備えたことを特徴とする仮想ヒューマンインタフェースシステム。 - 請求項1または請求項2に記載の学習支援装置としてコンピュータを機能させるためのプログラム。
- 請求項3に記載の仮想ヒューマンインタフェース装置としてコンピュータを機能させるためのプログラム。
- 請求項1または請求項2に記載の学習支援装置としてコンピュータを機能させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
- 請求項3に記載の仮想ヒューマンインタフェース装置としてコンピュータを機能させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005336864A JP4617467B2 (ja) | 2005-11-22 | 2005-11-22 | 学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005336864A JP4617467B2 (ja) | 2005-11-22 | 2005-11-22 | 学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007136041A JP2007136041A (ja) | 2007-06-07 |
JP4617467B2 true JP4617467B2 (ja) | 2011-01-26 |
Family
ID=38199585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005336864A Active JP4617467B2 (ja) | 2005-11-22 | 2005-11-22 | 学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4617467B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103230271A (zh) * | 2013-05-07 | 2013-08-07 | 上海交通大学 | 一种可用于获取四肢表面肌电信号的可佩戴电极阵列 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5158824B2 (ja) | 2009-09-14 | 2013-03-06 | 国立大学法人大阪大学 | 筋シナジー解析方法、筋シナジー解析装置、及び筋シナジーインターフェース |
CN103358311B (zh) * | 2012-04-01 | 2017-02-08 | 中国科学院深圳先进技术研究院 | 基于生物电信号解码的机器人操控方法及系统 |
KR20180096241A (ko) | 2017-02-21 | 2018-08-29 | 삼성전자주식회사 | 보행 보조 장치의 제어 방법 및 장치 |
WO2020195172A1 (ja) * | 2019-03-27 | 2020-10-01 | ソニー株式会社 | ウェアラブル装置、情報処理ユニット及び情報処理方法 |
CN116069168B (zh) * | 2023-03-06 | 2023-08-29 | 浙江强脑科技有限公司 | 一种基于面部肌肉运动的输入方法及相关装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05111881A (ja) * | 1991-10-22 | 1993-05-07 | Nippon Telegr & Teleph Corp <Ntt> | 学習型筋電パターン認識ロボツトハンド制御装置 |
JP2004049608A (ja) * | 2002-07-22 | 2004-02-19 | Japan Science & Technology Corp | 運動学習支援装置、運動学習支援方法及び運動学習支援プログラム |
-
2005
- 2005-11-22 JP JP2005336864A patent/JP4617467B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05111881A (ja) * | 1991-10-22 | 1993-05-07 | Nippon Telegr & Teleph Corp <Ntt> | 学習型筋電パターン認識ロボツトハンド制御装置 |
JP2004049608A (ja) * | 2002-07-22 | 2004-02-19 | Japan Science & Technology Corp | 運動学習支援装置、運動学習支援方法及び運動学習支援プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103230271A (zh) * | 2013-05-07 | 2013-08-07 | 上海交通大学 | 一种可用于获取四肢表面肌电信号的可佩戴电极阵列 |
CN103230271B (zh) * | 2013-05-07 | 2015-07-15 | 上海交通大学 | 一种可用于获取四肢表面肌电信号的可佩戴电极阵列 |
Also Published As
Publication number | Publication date |
---|---|
JP2007136041A (ja) | 2007-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11361522B2 (en) | User-controlled tuning of handstate representation model parameters | |
CN111902077B (zh) | 利用神经肌肉信号进行手部状态表示建模的校准技术 | |
US20190228591A1 (en) | Visualization of reconstructed handstate information | |
Allard et al. | A convolutional neural network for robotic arm guidance using sEMG based frequency-features | |
CN107378944B (zh) | 一种基于主成分分析法的多维表面肌电信号假手控制方法 | |
EP1408443B1 (en) | Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition | |
Bernardin et al. | A sensor fusion approach for recognizing continuous human grasping sequences using hidden markov models | |
Wheatland et al. | State of the art in hand and finger modeling and animation | |
US20200097081A1 (en) | Neuromuscular control of an augmented reality system | |
Costanza et al. | Toward subtle intimate interfaces for mobile devices using an EMG controller | |
Dipietro et al. | A survey of glove-based systems and their applications | |
JP4617467B2 (ja) | 学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体 | |
US11508344B2 (en) | Information processing device, information processing method and program | |
EP3951564A1 (en) | Methods and apparatus for simultaneous detection of discrete and continuous gestures | |
CN113849068B (zh) | 一种手势多模态信息融合的理解与交互方法及其系统 | |
Menegozzo et al. | Surgical gesture recognition with time delay neural network based on kinematic data | |
Dwivedi et al. | EMG based decoding of object motion in dexterous, in-hand manipulation tasks | |
WO2008072756A1 (ja) | 反力提示方法、および力覚提示システム | |
CN113524235B (zh) | 一种面向动态交互的对象肢体时变刚度辨识方法及装置 | |
CN106356046A (zh) | 一种乐器演奏评价方法、装置及系统 | |
JP2010058250A (ja) | 筋骨格系モデル作成装置および該方法、筋骨格系機構制御装置ならびに筋骨格系機構システム | |
Wang et al. | Multi-finger myoelectric signals for controlling a virtual robotic prosthetic hand | |
Králik et al. | Waveglove: Transformer-based hand gesture recognition using multiple inertial sensors | |
Sheng et al. | A hand gesture recognition using single-channel electrodes based on artificial neural network | |
Xiong et al. | Feasibility of EMG-based ANN controller for a real-time virtual reality simulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100706 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100928 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |