JP2012000228A - 筋活動診断装置および方法、並びにプログラム - Google Patents

筋活動診断装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012000228A
JP2012000228A JP2010137099A JP2010137099A JP2012000228A JP 2012000228 A JP2012000228 A JP 2012000228A JP 2010137099 A JP2010137099 A JP 2010137099A JP 2010137099 A JP2010137099 A JP 2010137099A JP 2012000228 A JP2012000228 A JP 2012000228A
Authority
JP
Japan
Prior art keywords
signal
myoelectric
phase
subject
phase velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010137099A
Other languages
English (en)
Other versions
JP5464072B2 (ja
JP2012000228A5 (ja
Inventor
Takashi Tomita
尚 富田
Akane Sano
あかね 佐野
Haruo Oba
晴夫 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010137099A priority Critical patent/JP5464072B2/ja
Priority to US13/152,564 priority patent/US8639320B2/en
Priority to CN201110154508.3A priority patent/CN102283654B/zh
Publication of JP2012000228A publication Critical patent/JP2012000228A/ja
Publication of JP2012000228A5 publication Critical patent/JP2012000228A5/ja
Application granted granted Critical
Publication of JP5464072B2 publication Critical patent/JP5464072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4519Muscles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

【課題】日常生活に支障のない範囲で効率的に筋電位の変化を取得し、刻々と変化する人の筋肉の活動状態を特定することができるようにする。
【解決手段】入力信号処理部41から出力される信号は、ADコンバータ42の処理を経てヒルベルト変換部43によりヒルベルト変換される。逆フーリエ変換部44は、ヒルベルト変換結果について逆フーリエ変換を行って位相を90°ずらした波形の信号を生成する。位相図生成部45は、元信号と変換後信号に基づいて位相図し、位相速度計算部46は、位相図に基づいて位相速度を計算する。状態検出部47は、ADコンバータ42から出力された信号と位相速度計算部46から出力された信号に基づいて、ユーザ20の顔の動きや表情などを特定する。
【選択図】図1

Description

本発明は、筋活動診断装置および方法、並びにプログラムに関し、特に、日常生活に支障のない範囲で効率的に筋電位の変化を取得し、刻々と変化する人の筋肉の活動状態を特定することができるようにする筋活動診断装置および方法、並びにプログラムに関する。
人の表情筋の運動に伴い発生する筋電位の変化は、たくさんの筋肉が同時に動くために、筋電信号から、どのような表情であるかを見るためには、人体の様々な部位にセンサを取り付ける必要があった(例えば、特許文献1乃至特許文献3参照)。
また、生体情報を得るデバイスとして、耳の外耳道から筋電位などの生体情報を得ることは、イヤホンなどの装置との融合を図ることによって可能となる(例えば、特許文献4参照)。
さらに、筋電位の変化を定量的に把握できるように、検出されたデータにフーリエ変換を施す技術も提案されている(例えば、特許文献5参照)。
また、筋電位デジタルデータに対してウェーブレット変換を適用し、周波数の時間変化(ダイナミックスペクトラム)を求め、その広帯域で生じる変化の生起時間を検出することで、運動開始時刻を自動的に検出する技術も提案されている(例えば、特許文献6参照)。
特開2000−285221号公報 特開平10−143309号公報 特開昭63−172322号公報 特開昭2008−67911号公報 特開平01−86936号公報 特許3983989号公報
しかしながら、特許文献1乃至3のように、様々な部位にセンサを取り付けると、日常生活上の違和感を伴うものとなる。例えば、表情筋の動きを知り、表情を推定し、推定された表情に基づいて機器を動作させようとした場合、顔面にたくさんの電極が貼り付けられることになり、日常生活の妨げとなってしまう。
また、特許文献4の技術では、実際の生活環境の中では非常に大きなノイズが発生してしまうため、生体信号を得ることが難しかった。
さらに、特許文献5に示されるようにフーリエ変換を施して各部位の筋活動を検出する場合、信号波形を相当時間蓄積して解析した後でなければ、確実な検出結果は期待できない。また、特許文献6に示されるようにウェーブレット変換を施し筋電の活動開始時刻を求めることはできても、活動している筋肉の同定は不可能だった。
本発明はこのような状況に鑑みてなされたものであり、日常生活に支障のない範囲で効率的に筋電位の変化を取得し、刻々と変化する人の筋肉の活動状態を特定することができるようにするものである。
本発明の一側面は、被験者から筋電信号を取得する取得手段と、前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号を生成する変換後信号生成手段と、前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度を算出する位相速度算出手段と、単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態を特定する状態特定手段とを備える筋活動診断装置である。
前記取得手段は、前記被験者の外耳道に挿入されたイヤホン型センサから得られた電気信号を差動検出してデジタル化することで前記筋電信号を取得するようにすることができる。
前記状態特定手段は、前記被験者の顔の中の複数の部位の筋肉の活動状態を特定し、前記特定された複数の部位の筋肉の活動状態に基づいて推定される前記被験者の表情を表す信号を出力するようにすることができる。
前記イヤホン型センサには、前記被験者の筋肉の活動により生じる電気信号を検出するための筋電電極と、前記被験者の耳の中の電位と前記イヤホン型センサ内の回路の電位との差である基準電圧を検出するための電圧検出電極と、前記基準電圧を反転増幅することにより発生させたフィードバック電圧を供給するためのフィードバック電極が設けられているようにすることができる。
前記状態特定手段は、予め用意された前記単位時間内の前記筋電信号の波形の前記複数の特徴量をパラメータとし、前記パラメータと前記被験者の筋肉の活動状態とを対応づけたサンプルに基づく機械学習を行い、前記機械学習の結果に基づいて、前記筋電信号の前記複数の特徴量を識別することで前記被験者の体の所定の部位の筋肉の活動状態を特定するようにすることができる。
前記機械学習による識別方式としてアダブーストを用いるようにすることができる。
本発明の一側面は、取得手段が、被験者から筋電信号を取得し、変換後信号生成手段が、前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号を生成し、位相速度算出手段が、前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度を算出し、状態特定手段が、単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態を特定するステップを含む筋活動診断方法である。
本発明の一側面は、コンピュータを、被験者から筋電信号を取得する取得手段と、前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号を生成する変換後信号生成手段と、前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度を算出する位相速度算出手段と、単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態を特定する状態特定手段とを備える筋活動診断装置として機能させるプログラムである。
本発明の一側面においては、被験者から筋電信号が取得され、前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号が生成され、前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度が算出され、単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態が特定される。
本発明によれば、日常生活に支障のない範囲で効率的に筋電位の変化を取得し、刻々と変化する人の筋肉の活動状態を特定することができる。
本発明の一実施の形態に係る表情検出装置の構成例を示すブロック図である。 元信号と変換後信号の波形の例を示す図である。 位相図の例を示す図である。 位相速度を説明する図である。 位相速度の算出の方式を説明する図である。 人のほほの筋肉が活動している場合の筋電信号の位相速度を示す図である。 人のあごの筋肉が活動している場合の筋電信号の位相速度を示す図である。 筋電信号の位相速度と筋電信号の振幅に基づいて、顔の動きや表情が特定される例を説明する図である。 筋電信号の周波数スペクトルの例を示す図である。 イヤホン型センサの側面図である。 図10のイヤホン型センサの正面図である。 イヤホン型センサの装着について説明する図である。 筋電信号の機械学習を説明する図である。 機械学習による効果を説明する図である。 表情検出処理の例を説明するフローチャートである。 パーソナルコンピュータの構成例を示すブロック図である。
以下、図面を参照して、本発明の実施の形態について説明する。図1は、本発明の一実施の形態に係る表情検出装置の構成例を示すブロック図である。
同図に示される表情検出装置10は、ユーザ20の耳に装着されたイヤホン型センサにより筋電信号を検出し、検出された筋電信号に基づいてユーザ20の顔の筋肉の活動を特定することで、ユーザ20の顔の動きや表情を検出するようになされている。なお、筋電信号は、筋肉を動かす時に発生する微弱な電気信号である。
筋電信号は、活動している筋肉の部位に応じて異なる周波数特性を示すことが知られている。例えば、ほほの筋肉が活動しているときは、比較的低周波の信号成分が大きい筋電信号が出力され、あごの筋肉が活動しているときは、比較的高周波の信号成分が大きい筋電信号が出力されることが分かっている。
表情検出装置10は、筋電信号の周波数特性を解析し、得られた周波数特性に基づいておおよそどの部位の筋肉が活動しているかを特定するようになされている。また、表情検出装置10は、筋電信号の振幅に基づいて、当該部位の筋肉の活動の大きさを特定するようになされている。そして、活動している筋肉の部位とその活動の大きさに基づいて、ユーザ20の顔の動きや表情が検出されるようになされている。
イヤホン型センサの詳細な構成については後述するが、イヤホン型センサには、筋電信号を検出するための筋電電極、ユーザ20の耳の中の電位とイヤホン型センサ内の回路の電位とを調整するための電圧検出電極、およびフィードバック電極が設けられている。筋電電極は、信号線51と信号線52に接続され、電圧検出電極とフィードバック電極は、それぞれ信号線53と信号線54に接続される。
フィルタ反転増幅回路48は、信号線53を介して検出された基準電圧(ユーザ20の耳の中の電位とイヤホン型センサ内の回路の電位との差)を、反転増幅することによりフィードバック電圧を発生させ、信号線54に供給するようになされている。
なお、表情検出装置10は、フィルタ反転増幅回路48を有しない構成とすることも可能である。
イヤホン型センサにより検出された筋電信号は、信号線51と信号線52を介して入力信号処理部41に入力される。入力信号処理部41は、信号線51と信号線52のそれぞれから得られる電気信号の差分を増幅して出力するようになされている。
入力信号処理部41は、例えば内部に差動検出部、フィルタ、アンプを有する構成とされる。差動検出部においては、信号線51と信号線52から得られる信号を0.1μF程度のコンデンサーでカップリングして入力インピーダンス10Gオーム以上の計測アンプを経由させ、差動信号を生成する。
フィルタは、例えば、バンドパスフィルタとノッチフィルタを有する構成とされ、差動信号のノイズを除去するようになされている。フィルタは、例えば、100Hzから1kHzまでのバンドパスフィルタを2次以上(望ましくは4次)有し、フィルタのQ値は0.3から0.8とすることが望ましい。そして、50Hzの信号が非常に大きいためノッチフィルタを4次で挿入する。
フィルタから出力された信号は、アンプにより増幅されて出力される。アンプは、1000倍以上50000倍以下で増幅倍率を調整できるものを用いる。
なお、上述した入力信号処理部41の構成は一例であり、これとは異なる構成が採用されるようにしてもよい。
入力信号処理部41から出力される信号は、ADコンバータ42に供給され、デジタルデータに変換される。ADコンバータ42は、例えば、1kサンプル/sec以上40kサンプル/sec以下のサンプリングレートで信号をサンプリングして信号を生成し、ヒルベルト変換部43、位相図生成部45、状態検出部47に供給する。
なお、ADコンバータ42から出力される信号は、イヤホン型センサにより検出された実際の筋電信号のノイズを除去して増幅し、サンプリングして波形が整形されたものとなるので、この信号を筋電信号として扱ってよい。
ヒルベルト変換部43は、ADコンバータ42から出力される信号をヒルベルト変換して出力するようになされている。
ここで、ヒルベルト変換について説明する。
フーリエ変換の演算子をXで表わすことにする。所定の周波数ωについてのフーリエ変換は、式(1)により表わされる。なお、式中のeは自然対数の底を表す。
Figure 2012000228
・・・(1)
式(1)における実数部を虚数部で表わす式(2)を定義する。
Figure 2012000228
・・・(2)
式(2)に示される演算子Hで表わされるものがヒルベルト変換である。ヒルベルト変換では、フーリエ変換と同様に、複数の周波数ωのそれぞれについて所定の値が要素として算出される。いま、周波数ωがn個あるものとし、第n番目の周波数ωnについてヒルベルト変換により算出される要素h[n]は、式(3)で表わされる。
Figure 2012000228
・・・(3)
ヒルベルト変換部43は、ADコンバータ42から出力される信号(元信号と称する)をヒルベルト変換して算出された式(3)に示される要素を、n個それぞれ出力する。
逆フーリエ変換部44は、ヒルベルト変換部43から出力されたn個の要素について逆フーリエ変換を行うようになされている。これにより、全周波数帯域において、元信号の位相を90°ずらした波形の信号が生成されることになる。
位相図生成部45は、元信号と逆フーリエ変換部44から出力された信号(変換後信号と称する)に基づいて位相図を生成するようになされている。位相図生成部45は、元信号の値を横軸にとり、変換後信号の値を縦軸にとった位相図を生成するようになされている。
図2は、元信号と変換後信号の波形の例を示す図である。図2Aは、横軸が時間、縦軸が電圧とされ、元信号の波形が示されている。図2Bは、横軸が時間、縦軸が電圧とされ、変換後信号の波形が示されている。図2Bの波形は、図2Aの波形と同時刻において位相が90°ずれている。
図3は、図2Aに示される元信号と図2Bに示される変換後信号に基づいて生成される位相図の例を示す図である。同図は、横軸が元信号の電圧、縦軸が変換後信号の電圧とされ、同時刻における元信号の電圧と変換後信号の電圧により特定される点をプロットしていくことで、輪を描くように波形が示されている。同図の座標(0,0)が波形(輪)の中心となり、図中の線Rで示される距離が元信号(または変換後信号)の振幅を表すことになる。
なお、位相図生成部45は、図3に示されるような位相図を生成して表示などするものではなく、実際には位相図に対応するデータを生成するものである。すなわち、図3に示される位相図はいわば仮想的に生成されるものである。
図1に戻って、位相速度計算部46は、位相図生成部45により生成された位相図に基づいて信号の位相速度を計算するようになされている。位相速度は、例えば、図4に示されるように、輪を描くような波形の中で、2つの振幅である図中の線R1と線R2を特定し、線R1と線R2の間の角度φをその間の時間で割ることにより得られる。
位相速度計算部46では、位相図生成部45により生成された位相図を利用して、例えば、時間tを経て変化する座標であって、図5に示されるような位置Aの座標と位置Bの座標を求める。そして、位相速度計算部46は、位相(角度)φを次のようにして計算する。すなわち、図5中の位置A、位置Bおよび中心点によって3角形が形成される。この3角形のそれぞれの辺の長さをa,b,cで表わすと、式(4)と式(5)によって、位相φを算出することができる。
Figure 2012000228
・・・(4)
Figure 2012000228
・・・(5)
式(5)に示されるように、φをアークサインによって求めることにより、tが短い時間であり、φが小さな値でも計算感度を高く保つことができる。ここで算出されたφを時間tで割って位相速度を求めることができる。位相速度計算部46は、このようにしてφを算出するのである。
ここでは、位相速度を算出することとしているが、位相速度が特定されれば、筋電信号の周波数も特定できる。上述したように、筋電信号は、活動している筋肉の部位に応じて異なる周波数特性を示す。すなわち、筋電信号の周波数を検出する代わりに、位相速度を算出しているのである。例えば、信号の周波数を検出する場合、その信号が少なくとも1周期振幅するまで待たなくてはならないが、位相速度は、信号が1周期振幅するまで待たなくても算出することができる。
図6は、人のほほの筋肉が活動している場合の筋電信号の位相速度を示す図である。図7は、人のあごの筋肉が活動している場合の筋電信号の位相速度を示す図である。図6と図7においては、横軸が筋電信号の振幅(図3に示される線R)とされ、縦軸が筋電信号の位相速度とされ、筋電信号の位相速度の変化が波形として示されている。
図6に示されるように、ほほの筋肉が活動している場合、筋電信号の振幅に係らず位相速度は、線61で示される閾値を超えていない。一方、図7に示されるように、あごの筋肉が活動している場合、筋電信号の位相速度が、線61で示される閾値を超えている。
このように、例えば、位相速度を閾値判定することにより、現在、主にあごの筋肉が活動しているのか、主にほほの筋肉が活動しているのかを推定することができるのである。
図1に戻って、位相速度計算部46は、上述したように算出した筋電信号の位相速度を、時刻に対応づけて出力する。すなわち、ADコンバータ42から出力された信号の各時刻における位相速度が位相速度計算部46により算出されて、各時刻の位相速度の情報が状態検出部47に出力されるのである。なお、この情報は、例えば、時間の経過に伴う位相速度の変化を表す信号として出力される。
状態検出部47は、ADコンバータ42から出力された信号と位相速度計算部46から出力された信号に基づいて、ユーザ20の顔の動きや表情などを特定する信号を出力するようになされている。
図8は、筋電信号の位相速度と筋電信号の振幅に基づいて、ユーザ20の顔の動きや表情が特定される例を説明する図である。同図において、図中上側に示されるグラフは、横軸が時間、縦軸が電圧値として筋電信号(ADコンバータ42から出力された信号)の波形を示したものである。図中下側に示されるグラフは、横軸が時間、縦軸が位相速度値として図中上側のグラフに示される筋電信号の位相速度の変化(位相速度計算部46から出力された信号の波形)を示したものである。
図中上側のグラフの波形に基づいて、例えば、振幅の大きさを閾値判定するなどすれば、ユーザ20の顔の筋肉のいずれかの部位が活動していると推定することができる。換言すれば、図中上側のグラフの波形の振幅の大きさが閾値未満であれば、ユーザ20の顔の筋肉はほとんど活動していないと考えられる。
また、例えば、図6と図7を参照して説明したように、活動している筋肉の部位を判定するための位相速度の閾値を設定し、図中下側のグラフの波形に基づいて、ユーザ20の顔の筋肉の中でおもにどの筋肉が活動しているかを推定することができる。
このようにすることで、状態検出部47は、図8の上側のグラフの上部に示されるように「あご」、「ほほ」、・・・として、各時刻(実際には各単位時間)においてユーザ20の顔の筋肉の中でおもにどの筋肉が活動しているかを特定する。
なお、ここでは、振幅の大きさと位相速度とを閾値判定する例について説明したが、後述するように複数のサンプルを機械学習させて、ユーザ20の顔の筋肉の中でおもにどの筋肉が活動しているかを特定するようにしてもよい。
状態検出部47は、例えば、おもにほほの筋肉が活動していると特定した場合、ユーザ20は笑っていると考えられるので、表情「笑顔」に対応づけられた信号を出力する。また、例えば、おもにあごの筋肉が活動していると特定された場合、ユーザ20は不快な表情をしていると考えられるので表情「不快」に対応づけられた信号が出力される。あるいはまた、「ほほ」、「あご」など筋肉の部位に対応付けられた信号が出力されるようにしてもよい。
状態検出部47は、このようにして、ユーザ20の顔の動きや表情などを特定する信号を出力するようになされている。
状態検出部47が出力する信号を他の機器に送信するようにすれば、例えば、ユーザ20が表情を変えるだけで機器を操作することも可能となる。
上述したように、本発明では筋電信号をヒルベルト変換して逆フーリエ変換し、元信号と変換後信号に基づく位相図から位相速度を算出するようにした。
例えば、従来より、筋電信号にフーリエ変換を施して周波数特性を解析することで、各部位の筋活動を検出することが行われていた。
図9は、人のほほの筋肉を動かしたときの筋電信号の周波数スペクトルと、人のあごの筋肉を動かしたときの筋電信号の周波数スペクトルの例を示す図である。同図は、横軸が周波数、縦軸はパワーとされ、図中上側にほほの筋肉を動かしたときの周波数スペクトルが示され、図中下側にあごの筋肉を動かしたときの周波数スペクトルが示されている。
図9に示されるように、ほほの筋肉が活動しているときは、比較的低周波の信号成分が大きい筋電信号が出力され、あごの筋肉が活動しているときは、比較的高周波の信号成分が大きい筋電信号が出力されることが分かる。このように、筋電信号にフーリエ変換を施して周波数スペクトルを得るようにすれば、おもにどの部位の筋肉が活動しているかを特定することが可能である。
しかし、筋電信号にフーリエ変換を施して周波数スペクトルを得る場合、信号波形を相当時間蓄積して解析した後でなければ、確実な検出結果は期待できない。例えば、図9に示される周波数スペクトルを得るためには、10秒以上の時間を要する。
人の顔の動きや表情は、通常、同じものが長時間継続するものではなく、刻々と変化するものと考えられる。従って、筋電信号にフーリエ変換を施して周波数スペクトルを得る方式では、人の顔の動きや表情を逐次適確に特定することは難しい。
これに対して、本発明では、筋電信号をヒルベルト変換して逆フーリエ変換し、元信号と変換後信号の位相を利用して位相速度を得ることで、おもにどの部位の筋肉が活動しているかを特定することが可能である。従って、従来の技術と比較して信号波形の蓄積時間を非常に短い時間(例えば、0.4秒程度)とすることが可能となる。
すなわち、本発明では、例えば、0.4秒程度の単位時間毎に筋電信号の波形を解析し、位相速度と振幅の大きさ得ることによって、各単位時間におけるユーザ20の顔の動きや表情を検出することができるのである。このようにすることで、人の顔の動きや表情を逐次適確に特定することが可能となる。
このようにして、表情検出装置10は、ユーザ20の顔の動きや表情を検出するようになされている。
次に、イヤホン型センサについて説明する。
図10は、イヤホン型センサ70の側面図である。同図に示されるようにイヤホン型センサ70は、先端部に低反発ポリウレタン、シリコン樹脂、ポリプロピレン、軟質ゴムなどの柔らかい素材で形成されたイヤーピース71が設けられている。そして、イヤーピース71の上に電極が貼り付けられている。図10においては、筋電電極81、筋電電極82、および電圧検出電極83が貼り付けられている。また、後述するように図10においては死角となる部分にフィードバック電極84が貼り付けられている。
なお、上述したように、電圧検出電極83は、ユーザ20の耳の中の電位とイヤホン型センサ内の回路の電位との差である基準電圧を検出するための電極とされる。また、フィードバック電極84は、基準電圧を反転増幅することにより発生させたフィードバック電圧を供給するための電極とされる。
各種の電極は、折れ曲がりによるしわを防ぐために、銀、塩化銀などを両面テープ、PETフィルムなどのフィルム状のものに貼り付けた後にイヤーピース71に貼り付けられる。なお、イヤーピース71を耳に入れたときの引っ掛かりなどを防ぐために、イヤーピース71には、各種の電極を埋め込む溝が設けられるようにするとよい。
各種の電極により検出された信号は、ケーブル72の内部の信号線を介して送信されるようになされている。なお、ケーブル72の内部には、図1を参照して上述した信号線51乃至信号線54が設けられている。
図11は、イヤーピース71を、図10の左側からみた正面図である。同図に示されるように、イヤーピース71の図中左側に3つの電極により構成されるフィードバック電極84が貼り付けられている。また、図中の右側には、筋電電極81、筋電電極82、および電圧検出電極83が貼り付けられている。電圧検出電極83は、筋電電極81と筋電電極82との間に配置されるよう貼り付けられる。
図12は、イヤホン型センサ70の装着について説明する図である。イヤホン型センサ70を、ユーザ20の耳に装着する場合、同図に示されるように、筋電電極を耳珠側に向けて外耳道に挿入する。
なお、イヤホン型センサ70の挿入方向を誤らないようにするため、例えば、イヤーピース71を特殊な形状として構成するようにしてもよい。すなわち、ユーザ20がイヤホン型センサ70を外耳道に挿入する際には、筋電電極を耳珠側に向けざるを得ないような形状のイヤーピース71を構成することが望ましい。
このように、本願発明によれば、ユーザ20の耳にイヤホン型センサ70を挿入するだけで、ユーザ20の表情や顔の動きを特定することができる。
例えば、従来の技術を用いて、表情筋の動きを知り、表情を推定し、推定された表情に基づいて機器を動作させようとした場合、顔面にたくさんの電極が貼り付けられることになり、日常生活の妨げとなってしまう。
これに対して、本発明では耳にイヤホン型センサ70を挿入するだけでよいので、日常生活の妨げとなることはない。
次に機械学習について説明する。上述したように、表情検出装置10の状態検出部47が、機械学習の結果に基づいてユーザ20の表情や顔の動きを特定するようにしてもよい。
ここでは、機械学習の方式として「Adaboost」を用いることとする。アダブースト(「Adaboost」)は、学習を行う際に、境界領域で、繰り返し学習を行い、1回の学習では分離(識別)に失敗する事例についても、有効な分離(識別)ができるようにする手法である。上述した筋電信号振幅の大きさと位相速度の組み合わせを機械学習のパラメータとして用いる。
例えば、図13に示されるような筋電信号を0.4秒のフレームに分解し、ユーザ20の顔の3つの状態(「静止(無表情)」、「笑顔」、「咀嚼」)に対して50個のサンプルを用意する。図13は、横軸が時間、縦軸が電圧とされ、筋電信号(ADコンバータ42から出力される信号)の波形が示されている。
図13の上側のグラフの波形は、ほほの筋肉が活動しているとき得られる筋電信号の波形であり、この場合、ユーザ20の顔の状態は「笑顔」となる。図13の下側のグラフの波形は、あごの筋肉が活動しているとき得られる筋電信号の波形であり、この場合、ユーザ20の顔の状態は「咀嚼」となる。なお、図示されていないがユーザ20の顔の状態が「静止」となっているときの筋電信号も取得して学習する。
図13の下側に示される上向きのコの字型の図形101と図形102が、0.4秒のフレームの時間的長さを表している。このようなフレームによって筋電信号の波形が区切られていく。
機械学習を行うにあたり、「静止」、「笑顔」、および「咀嚼」の3つの状態の各筋電信号について0.4秒のフレームを50個生成して各フレームの波形を取得する。そして、その波形の振幅の大きさと位相速度との組み合わせを学習のパラメータとして「静止」、「笑顔」、または「咀嚼」のそれぞれに対応づけて学習させる。さらに、学習結果に基づいて、実際に入力された筋電信号からユーザ20の顔の状態の識別(特定)が行われることになる。
図14は、機械学習の効果を説明する図である。同図は、「静止」、「笑顔」、および「咀嚼」の3つの状態について、機械学習による識別方式と機械学習によらない識別方式とを比較するものであり、「10-fold cross-validation」を用いて識別の精度を計算したものである。なお、「10-fold cross-validation」では、全データの90%を学習データとして使用し、残り10%がテストデータとして使用されユーザ20の顔の状態の識別が行われることになる。
ここでは、機械学習による識別方式として上述したように、「Adaboost」が採用されており、機械学習によらない識別方式として単純な閾値判定が採用されている。また、ここでは、学習のパラメータの比較として、振幅の大きさと位相速度との組み合わせの他に、ゼロクロス回数と平均二乗誤差との組み合わせも採用されている。なお、ここでいう、振幅の大きさ、位相速度、ゼロクロス回数、平均二乗誤差は、それぞれ各フレームの波形から抽出される特徴量である。
図14において、「閾値 位相速度・振幅」と記載されたものが、パラメータとして振幅の大きさと位相速度との組み合わせを用い、単純な閾値判定によりユーザ20の顔の状態を識別したときの正答率を表している。
また、図14において、「Adaboost 位相速度・振幅」と記載されたものが、パラメータとして振幅の大きさと位相速度との組み合わせを用い、「Adaboost」によりユーザ20の顔の状態を識別したときの正答率を表している。
さらに、図14において、「閾値 平均二乗誤差・ゼロクロス」と記載されたものが、パラメータとしてゼロクロス回数と平均二乗誤差との組み合わせ用い、単純な閾値判定によりユーザ20の顔の状態を識別したときの正答率を表している。
また、図14において、「Adaboost 平均二乗誤差・ゼロクロス」と記載されたものが、パラメータとしてゼロクロス回数と平均二乗誤差との組み合わせ用い、「Adaboost」によりユーザ20の顔の状態を識別したときの正答率を表している。
図14に示されるように、「静止」、「笑顔」、および「咀嚼」の3つの状態のそれぞれにおいて、パラメータとして振幅の大きさと位相速度との組み合わせを用い、機械学習による識別(「Adaboost」)を行ったものが最も正答率が高くなっている。
なお、機械学習による識別方式としては、「Adaboost」以外に、「ニューラルネットワーク」、「線形判別」、「サポートベクターマシーン」などを採用しても構わない。また、パラメータとして、より多くの特徴量を用いるようにしてもよい。例えば、振幅の大きさと位相速度に、ゼロクロス回数、平均二乗誤差、ケプストラム係数、周波数帯域のパワーなどの特徴量を加えた組み合わせが、パラメータとして用いられるようにしてもよい。
また、ここで示した「静止」、「笑顔」、および「咀嚼」の3つの状態は例であり、振幅の大きさと位相速度とを含むパラメータを用いて、他の状態を識別することも可能である。
次に、図15のフローチャートを参照して、本発明の表情検出装置10による表情検出処理の例について説明する。
ステップS21において、入力信号処理部41は、イヤホン型センサ70により検出された筋電信号(信号線51と信号線52の信号)について差動検出を行う。そして、入力信号処理部41は、バンドパスフィルタとノッチフィルタによるフィルタ処理を施して差動検出された信号のノイズを除去し、アンプを用いて増幅する。
ステップS22において、ADコンバータ42は、ステップS21の処理により生成された信号を、AD変換する。このとき、例えば、ステップS21の処理により生成された信号が所定のサンプリングレートでサンプリングされて信号が生成される。
なお、ステップS22で生成された信号が上述した元信号となる。
ステップS23において、ヒルベルト変換部43は、ステップS22の処理で生成された信号をヒルベルト変換する。このとき、例えば、上述した式(3)により算出される要素が、n個それぞれ出力される。
ステップS24において、逆フーリエ変換部44は、ステップS23の処理でヒルベルト変換部43から出力されたn個の要素について逆フーリエ変換を行う。これにより、全周波数帯域において、元信号(ステップS22で生成された信号)の位相を90°ずらした波形の信号が生成されることになる。
なお、ステップS24で生成された信号が上述した変換後信号となる。
ステップS25において、位相図生成部45は、元信号と変換後信号(ステップS24で生成された信号)に基づいて位相図を生成するようになされている。このとき、例えば、図3を参照して上述したような位相図(実際には、位相図に対応するデータ)が生成される。
ステップS26において、位相速度計算部46は、ステップS25の処理で生成された位相図に基づいて信号の位相速度を計算する。このとき、例えば、図4、図5を参照して上述したように、式(4)および式(5)の演算が行われて位相速度が算出される。そして、位相速度計算部46は、算出した位相速度を、時刻に対応づけて出力する。すなわち、ADコンバータ42から出力された信号の各時刻における位相速度が位相速度計算部46により算出されて、時間の経過に伴う位相速度の変化を表す信号として状態検出部47に出力される。
ステップS27において、状態検出部47は、ユーザ20の表情(または顔の動きなど)を検出する。このとき、状態検出部47は、ステップS22の処理で生成された信号と、ステップS26の処理により得られた位相速度の信号に基づいて、ユーザ20の顔の動きや表情などを特定する信号を出力する。例えば、図8の上側のグラフの上部に示されるように「あご」、「ほほ」、・・・として、各時刻においてユーザ20の顔の筋肉の中でおもにどの筋肉が活動しているかを特定する信号が出力される。
このようにして、表情検出処理が実行される。
以上においては、イヤホン型センサ70をユーザ20の耳に挿入することで、ユーザ20の顔の動きや表情を検出する例について説明した。しかし、センサをユーザ20の手や足に装着させれば、各時刻におけるユーザ20の手や足の状態を検出することも可能となる。すなわち、本発明は、表情検出装置のみでなく、一般的な筋活動診断装置にも適用することができる。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図16に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図16において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707が接続されている。また、入出力インタフェース705には、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着されている。そして、それらのリムーバブルメディアから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図16に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
10 表情検出装置, 20 ユーザ, 41 入力信号処理部, 42 ADコンバータ, 43 ヒルベルト変換部, 44 逆フーリエ変換部, 45 位相図生成部, 46 位相速度計算部, 47 状態検出部, 48 フィルタ反転増幅回路, 51乃至54 信号線 70 イヤホン型センサ, 71 イヤーピース, 81,82 筋電電極, 83 電圧検出電極, 84 フィードバック電極

Claims (8)

  1. 被験者から筋電信号を取得する取得手段と、
    前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号を生成する変換後信号生成手段と、
    前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度を算出する位相速度算出手段と、
    単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態を特定する状態特定手段と
    を備える筋活動診断装置。
  2. 前記取得手段は、
    前記被験者の外耳道に挿入されたイヤホン型センサから得られた電気信号を差動検出してデジタル化することで前記筋電信号を取得する
    請求項1に記載の筋活動診断装置。
  3. 前記状態特定手段は、
    前記被験者の顔の中の複数の部位の筋肉の活動状態を特定し、前記特定された複数の部位の筋肉の活動状態に基づいて推定される前記被験者の表情を表す信号を出力する
    請求項2に記載の筋活動診断装置。
  4. 前記イヤホン型センサには、
    前記被験者の筋肉の活動により生じる電気信号を検出するための筋電電極と、
    前記被験者の耳の中の電位と前記イヤホン型センサ内の回路の電位との差である基準電圧を検出するための電圧検出電極と、
    前記基準電圧を反転増幅することにより発生させたフィードバック電圧を供給するためのフィードバック電極が設けられている
    請求項2に記載の筋活動診断装置。
  5. 前記状態特定手段は、
    予め用意された前記単位時間内の前記筋電信号の波形の前記複数の特徴量をパラメータとし、前記パラメータと前記被験者の筋肉の活動状態とを対応づけたサンプルに基づく機械学習を行い、
    前記機械学習の結果に基づいて、前記筋電信号の前記複数の特徴量を識別することで前記被験者の体の所定の部位の筋肉の活動状態を特定する
    請求項1に記載の筋活動診断装置。
  6. 前記機械学習による識別方式としてアダブーストを用いる
    請求項5に記載の筋活動診断装置。
  7. 取得手段が、被験者から筋電信号を取得し、
    変換後信号生成手段が、前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号を生成し、
    位相速度算出手段が、前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度を算出し、
    状態特定手段が、単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態を特定するステップ
    を含む筋活動診断方法。
  8. コンピュータを、
    被験者から筋電信号を取得する取得手段と、
    前記筋電信号を元信号とし、前記元信号に対してヒルベルト変換と逆フーリエ変換を施した変換後信号を生成する変換後信号生成手段と、
    前記元信号と変換後信号の位相に基づいて、前記筋電信号の位相速度を算出する位相速度算出手段と、
    単位時間内の前記筋電信号の波形の複数の特徴量であって、少なくとも前記筋電信号の振幅の大きさおよび前記算出された前記位相速度を含む複数の特徴量に基づいて、前記単位時間毎の前記被験者の体の所定の部位の筋肉の活動状態を特定する状態特定手段とを備える筋活動診断装置として機能させる
    プログラム。
JP2010137099A 2010-06-16 2010-06-16 筋活動診断装置および方法、並びにプログラム Active JP5464072B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010137099A JP5464072B2 (ja) 2010-06-16 2010-06-16 筋活動診断装置および方法、並びにプログラム
US13/152,564 US8639320B2 (en) 2010-06-16 2011-06-03 Muscle-activity diagnosis apparatus, method, and program
CN201110154508.3A CN102283654B (zh) 2010-06-16 2011-06-09 肌肉活动诊断装置和确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010137099A JP5464072B2 (ja) 2010-06-16 2010-06-16 筋活動診断装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012000228A true JP2012000228A (ja) 2012-01-05
JP2012000228A5 JP2012000228A5 (ja) 2013-08-01
JP5464072B2 JP5464072B2 (ja) 2014-04-09

Family

ID=45329271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010137099A Active JP5464072B2 (ja) 2010-06-16 2010-06-16 筋活動診断装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8639320B2 (ja)
JP (1) JP5464072B2 (ja)
CN (1) CN102283654B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015526214A (ja) * 2012-08-28 2015-09-10 アンプト・メディカルImpetomedical 改良された電気生理学的分析システム
JP2017021737A (ja) * 2015-07-15 2017-01-26 Kddi株式会社 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
JP2017029323A (ja) * 2015-07-30 2017-02-09 Kddi株式会社 筋電信号を用いて顔表情を識別するデバイス、端末及びプログラム
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
JP2019107067A (ja) * 2017-12-15 2019-07-04 Kddi株式会社 加速度成分の代表値で生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP2019115410A (ja) * 2017-12-26 2019-07-18 Kddi株式会社 加速度成分の代表値で周期的生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP2022048693A (ja) * 2020-09-15 2022-03-28 国立大学法人岩手大学 耳周辺装着具
WO2022190995A1 (ja) * 2021-03-11 2022-09-15 ソニーグループ株式会社 生体電位電極体および生体電位センサ

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012155189A1 (en) 2011-05-13 2012-11-22 National Ict Australia Ltd Method and apparatus for estimating neural recruitment - f
WO2012155184A1 (en) 2011-05-13 2012-11-22 National Ict Australia Ltd Method and apparatus for measurement of neural response - c
US9872990B2 (en) 2011-05-13 2018-01-23 Saluda Medical Pty Limited Method and apparatus for application of a neural stimulus
CA2835486C (en) 2011-05-13 2022-07-19 Saluda Medical Pty Limited Method and apparatus for measurement of neural response - a
WO2012155185A1 (en) 2011-05-13 2012-11-22 National Ict Australia Ltd Method and apparatus for measurement of neural response
GB201211703D0 (en) 2012-07-02 2012-08-15 Charles Nduka Plastic Surgery Ltd Biofeedback system
EP2908904B1 (en) * 2012-11-06 2020-09-23 Saluda Medical Pty Limited System for controlling electrical conditions of tissue
US20150038850A1 (en) * 2013-08-02 2015-02-05 United Sciences, Llc In-Ear Device With at Least One Sensor
US11172864B2 (en) 2013-11-15 2021-11-16 Closed Loop Medical Pty Ltd Monitoring brain neural potentials
JP6671021B2 (ja) 2013-11-22 2020-03-25 サルーダ・メディカル・ピーティーワイ・リミテッド 神経測定において神経反応を検出するための方法およびデバイス
ES2801348T3 (es) 2014-05-05 2021-01-11 Saluda Medical Pty Ltd Medición neurológica mejorada
EP3838331B1 (en) 2014-07-25 2024-05-22 Saluda Medical Pty Limited Neural stimulation dosing
AU2015349614B2 (en) 2014-11-17 2020-10-22 Saluda Medical Pty Ltd Method and device for detecting a neural response in neural measurements
WO2016090420A1 (en) 2014-12-11 2016-06-16 Saluda Medical Pty Ltd Implantable electrode positioning
EP4285985A3 (en) 2014-12-11 2024-01-17 Saluda Medical Pty Ltd Method and device for feedback control of neural stimulation
WO2016115596A1 (en) 2015-01-19 2016-07-28 Saluda Medical Pty Ltd Method and device for neural implant communication
CN107427249A (zh) * 2015-03-18 2017-12-01 T&W工程公司 Eeg监测器
US10624555B2 (en) * 2015-03-30 2020-04-21 Shiga University Of Medical Science Myocardial analysis apparatus and myocardial excitation detection apparatus
AU2016245335B2 (en) 2015-04-09 2020-11-19 Saluda Medical Pty Ltd Electrode to nerve distance estimation
JP2018516150A (ja) 2015-05-31 2018-06-21 サルーダ・メディカル・ピーティーワイ・リミテッド 脳神経活動の監視
EP3302692B1 (en) 2015-05-31 2024-07-24 Closed Loop Medical Pty Ltd Brain neurostimulator electrode fitting
CA2980482C (en) 2015-06-01 2023-09-26 Saluda Medical Pty Ltd Motor fibre neuromodulation
CA3019701A1 (en) 2016-04-05 2017-10-12 Saluda Medical Pty Ltd Improved feedback control of neuromodulation
EP3474747A4 (en) 2016-06-24 2020-01-22 Saluda Medical Pty Ltd NERVOUS STIMULATION FOR REDUCED ARTIFACT
CN109561840B (zh) 2016-08-12 2021-11-19 苹果公司 生命体征监测系统
CN110612060B (zh) 2017-05-22 2022-09-02 苹果公司 用于生理测量的多元件压电传感器
WO2019022259A1 (ja) * 2017-07-28 2019-01-31 株式会社メルティンMmi 筋電信号が由来する動作を認識するためのシステム、方法、およびプログラム
US10575777B2 (en) * 2017-08-18 2020-03-03 Bose Corporation In-ear electrical potential sensor
EP3580639B1 (en) 2018-02-09 2024-09-11 Starkey Laboratories, Inc. Use of periauricular muscle signals to estimate a direction of a user's auditory attention locus
CN112334184A (zh) 2018-04-27 2021-02-05 萨鲁达医疗有限公司 混合神经的神经刺激
JP6958486B2 (ja) * 2018-05-30 2021-11-02 日本電信電話株式会社 咀嚼側を判定するための学習モデル生成装置、その方法およびプログラム、ならびに咀嚼側判定装置、その方法およびプログラム
CN109077726A (zh) * 2018-10-29 2018-12-25 博睿康科技(常州)股份有限公司 一种肌电检测装置与肌电识别方法
CN111956211A (zh) * 2020-07-29 2020-11-20 鲁东大学 单导联心电信号房颤自动检测方法
CN114288634B (zh) * 2022-02-21 2023-01-06 四川轻化工大学 基于肌电信号采集的健身动作自识别与报警系统
CN115857706B (zh) * 2023-03-03 2023-06-06 浙江强脑科技有限公司 基于面部肌肉状态的文字输入方法、装置及终端设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025464A (ja) * 1999-05-13 2001-01-30 Shiseido Co Ltd 個人別表情変形過程の解析方法
JP2006000215A (ja) * 2004-06-15 2006-01-05 Sony Corp 生体情報測定装置及び方法
JP2006015046A (ja) * 2004-07-05 2006-01-19 Sony Corp 生体情報の処理装置および映像音響再生装置
JP2006340986A (ja) * 2005-06-10 2006-12-21 Ntt Docomo Inc 顔面情報検出装置および顔面情報検出式通信装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63172322A (ja) 1987-01-12 1988-07-16 Mitsubishi Electric Corp デ−タ入力装置
JPS6486936A (en) 1987-09-30 1989-03-31 Kitsusei Komutetsuku Kk Method and apparatus for analyzing bio-data
US4919143A (en) * 1989-06-14 1990-04-24 Ayers Margaret E Electroencephalic neurofeedback apparatus and method for bioelectrical frequency inhibition and facilitation
US5024235A (en) * 1990-02-26 1991-06-18 Ayers Margaret A Electroencephalic neurofeedback apparatus and method for bioelectrical frequency inhibition and facilitation
US5497781A (en) * 1992-10-30 1996-03-12 Chen; Yunquan Recording biological signals using Hilbert transforms
US5794203A (en) * 1994-03-22 1998-08-11 Kehoe; Thomas David Biofeedback system for speech disorders
JP2891949B2 (ja) 1996-11-06 1999-05-17 米沢日本電気株式会社 キーボードレス・コンピュータ
JP4395908B2 (ja) 1999-03-29 2010-01-13 ソニー株式会社 信号処理装置および信号処理方法
JP4117967B2 (ja) * 1999-04-21 2008-07-16 アルプス電気株式会社 生体信号検出装置
JP3983989B2 (ja) 2001-03-19 2007-09-26 独立行政法人科学技術振興機構 脳運動機能解析診断装置
US20070021678A1 (en) * 2005-07-19 2007-01-25 Cardiac Pacemakers, Inc. Methods and apparatus for monitoring physiological responses to steady state activity
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US20070276281A1 (en) * 2006-05-09 2007-11-29 Mika Sarkela Monitoring of the state of the central nervous system of a subject
US7558622B2 (en) * 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
JP2008067911A (ja) 2006-09-14 2008-03-27 Mitsuhiro Yokoyama 外耳道電極ユニットおよび生体情報計測装置
US8082149B2 (en) * 2006-10-26 2011-12-20 Biosensic, Llc Methods and apparatuses for myoelectric-based speech processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025464A (ja) * 1999-05-13 2001-01-30 Shiseido Co Ltd 個人別表情変形過程の解析方法
JP2006000215A (ja) * 2004-06-15 2006-01-05 Sony Corp 生体情報測定装置及び方法
JP2006015046A (ja) * 2004-07-05 2006-01-19 Sony Corp 生体情報の処理装置および映像音響再生装置
JP2006340986A (ja) * 2005-06-10 2006-12-21 Ntt Docomo Inc 顔面情報検出装置および顔面情報検出式通信装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015526214A (ja) * 2012-08-28 2015-09-10 アンプト・メディカルImpetomedical 改良された電気生理学的分析システム
JP2017021737A (ja) * 2015-07-15 2017-01-26 Kddi株式会社 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
JP2017029323A (ja) * 2015-07-30 2017-02-09 Kddi株式会社 筋電信号を用いて顔表情を識別するデバイス、端末及びプログラム
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
JP2019107067A (ja) * 2017-12-15 2019-07-04 Kddi株式会社 加速度成分の代表値で生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP2019115410A (ja) * 2017-12-26 2019-07-18 Kddi株式会社 加速度成分の代表値で周期的生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP2022048693A (ja) * 2020-09-15 2022-03-28 国立大学法人岩手大学 耳周辺装着具
WO2022190995A1 (ja) * 2021-03-11 2022-09-15 ソニーグループ株式会社 生体電位電極体および生体電位センサ

Also Published As

Publication number Publication date
CN102283654B (zh) 2014-12-17
JP5464072B2 (ja) 2014-04-09
US8639320B2 (en) 2014-01-28
CN102283654A (zh) 2011-12-21
US20110313310A1 (en) 2011-12-22

Similar Documents

Publication Publication Date Title
JP5464072B2 (ja) 筋活動診断装置および方法、並びにプログラム
EP3139819B1 (en) Automatic detection of teeth clenching and/or teeth grinding
JP5920364B2 (ja) 情報処理装置、代表波形生成方法および代表波形生成プログラム
Fraser et al. Automated biosignal quality analysis for electromyography using a one-class support vector machine
US20070179396A1 (en) Method and System for Detecting and Classifying Facial Muscle Movements
CA3105269A1 (en) Multiclass classification method for the estimation of eeg signal quality
Yao et al. Model-based verification of a non-linear separation scheme for ballistocardiography
JPWO2015056434A1 (ja) 生体信号測定器及び接触状態推定方法
US11494001B2 (en) Gesture detection system for personal head wearable device
JP2017140198A (ja) 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法
US20190320979A1 (en) Method and system for collecting and processing bioelectrical signals
Zou et al. A blind source separation framework for monitoring heart beat rate using nanofiber-based strain sensors
Tanaka et al. Gestural musical performance with physiological sensors, focusing on the electromyogram
JP2019205780A (ja) 咀嚼側を判定するための学習モデル生成装置、その方法およびプログラム、ならびに咀嚼側判定装置、その方法およびプログラム
Butkow et al. An evaluation of heart rate monitoring with in-ear microphones under motion
CN116369888B (zh) 一种非接触式心率变异性数据获取方法和装置
JP2017104333A (ja) 筋電信号処理方法、装置およびプログラム
Teeramongkonrasmee et al. Performance of a QRS detector on self-collected database using a handheld two-electrode ECG
JP6695817B2 (ja) 単位空間からの離隔度合いで判定を行う生体信号処理装置、プログラム及び方法
JP6685891B2 (ja) フィルタ処理及び周波数判定処理を用いた生体信号処理装置、プログラム及び方法
EP3884863B1 (en) Method and system for tremor assessment using photoplethysmography (ppg)
JP6821549B2 (ja) 加速度成分の代表値で生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP7082956B2 (ja) 信号データに応じた基準値に基づき生体信号の計数を行う生体信号処理装置、プログラム及び方法
Nakatani et al. Tongue-motion classification using intraoral electromyography for a tongue-computer interface
JP6810682B2 (ja) 加速度成分の代表値で周期的生体信号発生を判定する生体信号処理装置、プログラム及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R151 Written notification of patent or utility model registration

Ref document number: 5464072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250