JP6580497B2 - 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法 - Google Patents

筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法 Download PDF

Info

Publication number
JP6580497B2
JP6580497B2 JP2016023184A JP2016023184A JP6580497B2 JP 6580497 B2 JP6580497 B2 JP 6580497B2 JP 2016023184 A JP2016023184 A JP 2016023184A JP 2016023184 A JP2016023184 A JP 2016023184A JP 6580497 B2 JP6580497 B2 JP 6580497B2
Authority
JP
Japan
Prior art keywords
facial expression
feature vector
user
reference feature
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016023184A
Other languages
English (en)
Other versions
JP2017140198A (ja
Inventor
大作 若松
大作 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016023184A priority Critical patent/JP6580497B2/ja
Publication of JP2017140198A publication Critical patent/JP2017140198A/ja
Application granted granted Critical
Publication of JP6580497B2 publication Critical patent/JP6580497B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Image Analysis (AREA)

Description

本発明は、人の生体信号を検知する技術に関する。
近年、センサによって人の活動に基づく様々な生体信号を検知し、信号処理したデータをユーザに提示する技術がある。センサとしては、具体的には、腕時計型やイヤフォン型の脈拍センサや、ヘッドバンド型の脳波センサのようなウェアラブルデバイスがある。そして、これら生体信号は、ユーザに常時携帯されるスマートフォンや携帯端末によって信号処理され、加工されたデータがユーザに提示される。
従来、センサ付きイヤフォンによって、生体信号(脳波、体温、動き角速度、脈拍)を検知するシステムがある(例えば特許文献1参照)。イヤフォンに搭載されたセンサによって耳付近の生体信号を検知し、その生体信号を、ユーザ所持の携帯端末によって外部装置へ伝送する。外部装置は、様々な観点から生体信号を解析することができる。
また、筋電センサ付のイヤフォンやヘッドバンドによって検知した筋電信号から、表情を検出する筋活動診断装置の技術がある(例えば特許文献2及び3参照)。この技術によれば、筋電センサによって検知した耳付近の筋電信号から、人の笑顔、咀嚼、無表情を分別することができる。
これらの従来技術における表面筋電計測によれば、計測対象とする筋肉近傍の皮膚に数ミリから数cmの間隔を空けて一組の電極を配置し、計測したい筋肉の活動を計測している。
更に、生体情報(脳波、心拍、瞳孔、視線)及び行動情報(動作、表情、ため息等)から、ユーザの嗜好を判断する技術もある(例えば特許文献4参照)。この技術によれば、行動情報は、ビデオカメラ及びマイクによって検出した映像信号及び音声信号から推定している。
更に、顔表情の中でも「笑顔」のみに着目して自動的に検出する技術もある。例えば、周知技術として、顔画像解析に基づく「スマイルスキャン(登録商標)」(オムロン社)がある。但し、常にカメラで顔画像を撮影すること要する顔画像解析は、プライバシの側面から、ユーザにとって利用の心理的ハードルが高いとされる。また、顔画像を撮影するカメラを配置する、構造的な問題も多い。
更に、顔画像分析以外の技術として、ヘッドフォン形状の皮膚電位センサを用いて、頭皮耳介及び耳介周囲の頭皮電位の変化から、目の動きと顔の表情を抽出する顔面情報検出装置の技術もある(例えば特許文献5参照)。この技術によれば、喜怒哀楽の表情及び目の動きを検出することができる。
更に、客観的に笑いを測定するシステムとして、喉(音)で測定する「爆笑計」(大阪電気通信大学)や「アッハ・メーター(登録商標)」(プロジェクトaH)、喉(音)と表情筋電と横隔膜筋電との3つを同時に計測する「横隔膜式笑い測定システム」(関西大学、プロジェクトaH)もある。
特開2003−310561号公報 特開2012−000228号公報 特許5574407号公報 特開2014−219937号公報 特許4722573号公報
前述した従来技術は、人の生体信号を検知するセンサを搭載した専用デバイスによって、人の顔表情を分別するものである。これに対し、本願の発明者らは、ユーザの顔表情である「笑み」や「噛み締め」を、ヘッドフォンやイヤフォンのようにユーザの装着に違和感の無いデバイスによって検知することはできないか?と考えた。「笑み」は、例えばユーザの好みと捉えて検知し、「噛み締め」は、例えばユーザの不満として捉えて検知することができる。
一般に、表情筋の筋肉活動を検出する表面筋電センサは、検出用電極とリファレンス用電極とから構成される。各電極は、モニタすべき筋肉上の皮膚表面に、数センチ以内の間隔で配置される。これによって、他の筋肉の活動による筋電信号の混入を軽減することができる。
一方で、ヘッドフォンは、左右両耳に当接するイヤカップがあるので、筋電センサの1チャンネルを構成する検出用電極を右(左)のイヤカップに、リファレンス用電極を左(右)のイヤカップにそれぞれ配置することによって、顔表情を捉えることができないか?を検討した。その結果、「笑み」の表情を作る筋肉活動による筋電信号は、一般的な数センチ以内の間隔を空けて配置する従来の電極配置方法よりも大きな信号を得られる知見を得た。しかしながら、「笑み」の表情を作る筋活動だけでなく、左右のイヤカップの電極間に存在する頭部の筋肉活動(「左右へ動かす眼球運動」や「噛み締め」、「口の開閉」、「口窄め」、「顎の突出し」等)も、大きく筋電信号に混入するという課題があった。また、口の開閉や体の動き等によって筋電センサの電極面の電気接触抵抗が変化することによるノイズ(アーチファクト)も、表面筋電図計測の課題であった。
また、筋電信号の振幅のみを用いて分析した場合、ノイズの影響を受けやすい。ノイズとしては、口の開閉や眼球運動等による低周波のアーチファクトや、商用電源ノイズ等であって、表情を作る筋肉の活動の信号よりも大きい。そのために、振幅のみを用いた場合、誤って顔表情を検出することもある。
そこで、本発明は、筋電センサによってユーザの顔から取得された筋電信号を用いて、「笑み」や「噛み締め」の顔表情を高い精度で識別することができる装置、デバイス、プログラム及び方法を提供すること目的とする。
本発明によれば、筋電センサによって検知されたユーザの表情筋筋電信号から、当該ユーザの顔表情を判定する装置であって、
顔表情毎に、周波数に対するパワー値によって表す基準特徴ベクトルを予め記憶した基準特徴ベクトル記憶手段と、
筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す検知特徴ベクトルを検出する周波数パワー分析手段と、
検知特徴ベクトルと、基準特徴ベクトル記憶手段に記憶された各顔表情に対する各基準特徴ベクトルとの類似度を検出する類似度検出手段と、
各顔表情について、各顔表情に対する基準特徴ベクトルとの類似度から、当該各顔表情以外の基準特徴ベクトルとの類似度の総和を減算した当該各顔表情の類似度を算出し、当該各顔表情の類似度のうち最も小さくなる顔表情を、当該ユーザの顔表情であると判定する顔表情判定手段と
を有することを特徴とする。
本発明の装置における他の実施形態によれば、
基準特徴ベクトル及び検知特徴ベクトルについて、周波数を対数周波数とし、パワー値を対数パワー値とすることも好ましい。
本発明の装置における他の実施形態によれば、
周波数パワー分析手段は、メル尺度フィルタバンク(対数周波数尺度フィルタバンク)によって分析することも好ましい。
本発明の装置における他の実施形態によれば、
周波数パワー分析手段は、ウィンドウ毎に、筋電信号における高周波数帯の信号を増幅する(プリエンファシス(pre-emphasis)フィルタ)ことも好ましい。
本発明の装置における他の実施形態によれば、
周波数パワー分析手段は、ウィンドウ毎に、判定すべき顔表情の基準特徴ベクトルに特有の周波数帯以外の周波数帯を除去する(帯域除去フィルタ)ことも好ましい。
本発明の装置における他の実施形態によれば、
基準特徴ベクトル記憶手段は、
顔表情「笑み」に対する基準特徴ベクトル、及び/又は、
顔表情「噛み締め」に対する基準特徴ベクトル
を含むことも好ましい。
本発明の装置における他の実施形態によれば、
装置は、ユーザの顔を撮影するカメラと、当該カメラによって撮影されたユーザの顔が写る画像から、当該ユーザの顔表情を画像認識する顔画像認識手段とを更に有し、
認識された顔表情に対して、筋電信号から周波数パワー分析によって検出された、周波数に対するパワー値によって表す特徴ベクトルを、基準特徴ベクトルとして基準特徴ベクトル記憶手段へ記憶させることも好ましい。
本発明によれば、前述した装置は、筋電センサを搭載したデバイスであって、
筋電センサは、
1チャネルの筋電信号を出力するものであり、
リファレンス用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となるか、又は、
リファレンス用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となることを特徴とする。
本発明のデバイスにおける他の実施形態によれば、
イヤフォン型又はヘッドマウント型であることも好ましい。
本発明のシステムによれば、前述した装置を組み込んだ、ユーザによって所持される携帯端末と、
ユーザの頭部に装着された際に、1チャネルの筋電信号を出力するデバイスと
を有し、
デバイスは、筋電センサを搭載し、
当該筋電センサは、 リファレンス用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となるか、又は、
リファレンス用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となることを特徴とする。
本発明によれば、筋電センサによって検知されたユーザの表情筋筋電信号から、当該ユーザの顔表情を判定する装置に搭載されたコンピュータを機能させるプログラムであって、
顔表情毎に、周波数に対するパワー値によって表す基準特徴ベクトルを予め記憶した基準特徴ベクトル記憶手段と、
筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す検知特徴ベクトルを検出する周波数パワー分析手段と、
検知特徴ベクトルと、基準特徴ベクトル記憶手段に記憶された各顔表情に対する各基準特徴ベクトルとの類似度を検出する類似度検出手段と、
各顔表情について、各顔表情に対する基準特徴ベクトルとの類似度から、当該各顔表情以外の基準特徴ベクトルとの類似度の総和を減算した、当該各顔表情の類似度を算出し、当該各顔表情の類似度のうち最も小さくなる顔表情を、当該ユーザの顔表情であると判定する顔表情判定手段と
してコンピュータを機能させることを特徴とする。
本発明によれば、筋電センサによって検知されたユーザの表情筋筋電信号から、当該ユーザの顔表情を判定する装置の顔表情判定方法であって、
装置は、顔表情毎に、周波数に対するパワー値によって表す基準特徴ベクトルを予め記憶した基準特徴ベクトル記憶部を有し、
装置は、
筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す検知特徴ベクトルを検出する第1のステップと、
検知特徴ベクトルと、基準特徴ベクトル記憶に記憶された各顔表情に対する各基準特徴ベクトルとの類似度を検出する第2のステップと、
各顔表情について、各顔表情に対する基準特徴ベクトルとの類似度から、当該各顔表情以外の基準特徴ベクトルとの類似度の総和を減算した、当該各顔表情の類似度を算出し、当該各顔表情の類似度のうち最も小さくなる顔表情を、当該ユーザの顔表情であると判定する第3のステップと
を実行することを特徴とする。
本発明の装置、デバイス、プログラム及び方法によれば、筋電センサによってユーザの顔から取得された筋電信号を用いて、「笑み」や「噛み締め」の顔表情を高い精度で識別することができる。
本発明におけるシステム構成図である。 本発明におけるヘッドフォンの外観構成図である。 筋電信号における周波数帯に対するパワー値を表すグラフである。 本発明の筋電信号判定部を有するデバイスの機能構成図である。 本発明の筋電信号判定部を有する端末の機能構成図である。 本発明における筋電信号判定部の機能構成図である。 本発明における筋電信号判定部のフローチャートである。 検知特徴ベクトルと複数の基準特徴ベクトルとを、対数周波数に対するパワー値で表すグラフである。 検知特徴ベクトルと顔表情「笑み」の基準特徴ベクトルの各点が、DFW(Dynamic Frequency Warping)によって、どのようにマッピングされたのかを表すグラフである。 検知特徴ベクトルと顔表情「噛み締め」の基準特徴ベクトルの各点が、DFWによって、どのようにマッピングされたのかを表すグラフである。 検知特徴ベクトルと顔表情「無表情」の基準特徴ベクトルの各点が、DFWによって、どのようにマッピングされたのかを表すグラフである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
スマートフォンに連携するウェアラブルデバイスとしては、一般的に、メガネ型や腕時計型の情報機器がある。頭部に装着するデバイスとしては、メガネ型やヘッドセットのような顔面の一部にかかるものがあるが、デバイスが顔面にかかるデバイスの場合は見た目が不自然で、ユーザにとって利用の心理的ハードルが高い。一方で、ヘッドフォンやイヤフォンは、スマートフォンと共に使用されていて、街中で装着している人も多く、極めて一般的なものである。
その耳付近の位置からは、体温、発汗、脈波、脈拍、脳波に加えて、頭部にある筋肉による筋電を、生体信号として検出することができる。顔表情の変化から得られる筋電信号は、ユーザの意識的反応及び無意識的反応の両方を、同じように検出する。意識的反応は、ユーザインタフェースの操作として利用することができる。また、無意識的反応は、ユーザの感情変化として検出することができる。
耳付近の筋電信号には、様々な顔表情(笑み、噛み締め)を作る筋肉活動から得られる信号だけでなく、口の開閉動作や眼球運動等の筋肉活動や、脳波のような信号や、口の開閉や歩行等の体の動きによる筋電センサの電極と皮膚表面との間のズレ等に起因する接触抵抗変化によって生じるノイズも重なっている。
例えば顔表情「笑み」は、人のポジティブな感情から表れるもので、口角が上に引き上げられる大頬骨筋の筋肉活動の変化が大きい。声を出して笑う「笑い」や、酷いストレスを受けた場合におけるストレス発散のための「笑い」もあるが、「笑み」の表情が生じれば、「笑み」を生じさせる筋肉活動の信号が発生する。
逆に、顔表情「噛み締め」は、悪いストレス等から生じるものであり、人のネガティブな感情から表れるもので、奥歯部分の頬が膨らむ筋肉活動に基づく。
ヘッドフォンやイヤフォンは、スマートフォンが音声を利用するアプリケーションの実行中(例えば映像・音声のコンテンツの再生等のユーザ体験を提供中)に、ユーザに装着される。これらデバイスの装着/未装着自体も、筋電信号から検知することができる。即ち、ユーザがヘッドフォンやイヤフォンを装着することによって、スマートフォンで実行中のアプリケーションに対するユーザ体験が好ましいものであったかを、顔表情として検知することもできる。
図1は、本発明におけるシステム構成図である。
図1によれば、デバイス2は、ヘッドフォンの場合、ユーザの頭に装着され、イヤフォンの場合、ユーザの耳に装着される。
端末としてのスマートフォン1と、デバイス2との間は、音声信号を伝送するケーブル又は無線によって接続されている。ケーブルは、例えばスマートフォン1のマイクロフォン用のアナログ音声入出力端子(ジャック)に接続されるものであってもよいし、USB(Universal Serial Bus)で接続されるものであってもよい。無線は、例えばBluetooth(登録商標)であってもよい。尚、以下では、端末は、代表的なスマートフォンとして説明するが、勿論、タブレットや、携帯電話機、PDA(Personal Digital Assistant)又はパーソナルコンピュータであってもよい。
スマートフォン1からデバイス2へ、コンテンツの音声信号が伝送されると共に、デバイス2からスマートフォン1へ、筋電センサによって検知された筋電信号が伝送される。デバイス2は、電極をユーザの耳介周辺から頬近傍の何処かのある一点に皮膚表面に接するように配置する。尚、本発明の筋電センサは、筋肉に対する非侵襲の表面筋電に基づくものである。
図2は、本発明におけるヘッドフォンの外観構成図である。
図2によれば、デバイスがヘッドフォンである場合について明示している。ヘッドフォンがユーザの頭に装着された際に、筋電センサ(電極)が、当該ユーザの耳前下方の頬近傍の何処か一点の皮膚表面に接するように配置されている。即ち、ヘッドフォン2の左右のイヤカップ(スピーカ)それぞれに、筋電センサが配置されている。筋電センサをイヤカップに配置することによって、ヘッドフォンバンドの曲げ圧力とイヤカップの弾性により付勢されて、皮膚に押し当てて固定することができる。イヤカップの形状は、密閉型、オープンエア型、又は、セミオープンエア型のいずれであってもよい。
筋電センサは、計測対象となるユーザの筋肉の活動により発生する電気的物理量を計測する。そして、ヘッドフォン2には、1チャンネルの筋電センサを構成する3つの電極を搭載している。検出用電極とリファレンス電極との電位差の交流成分を増幅し、プラスマイナス0.1から数百μVの範囲の皮膚電位を検出する。
「検出用+(プラス)電極」及び「リファレンス用−(マイナス)電極」:
イヤカップにおける顔の前向き前方の下部分に配置し、
頬にできる限り近い位置に配置
検出用電極とリファレンス用電極の一組で1チャンネルの筋電センサを構成
「DRL(Driven Right Leg)電極」:
皮膚に当接する何れかの部分に配置
商用電源等に起因するコモンモードノイズを低減させるノイズキャンセル用電極
これら電極は、繰り返し使用できないジェル等を用いた湿式電極ではなく、繰り返し使用可能な乾式電極である。電極は、イヤカップに穴をあけその穴を塞ぐような、皮膚との接触抵抗が低く導電性の高い金属(例えば、金や、金合金、プラチナ、チタン、銀‐塩化銀、ステンレススチール等)の鋲を配置してもよい。また、同様な性質をもつ導電性ゴムの鋲としてもよい。また、オープンエア型のイヤカップの無いヘッドフォンの場合、ヘッドフォンを頭部に装着するために、支持機構のうち耳周辺の皮膚に当接する面の中から頬に近い所に、筋電センサの電極を配置してもよい。デバイス内で、筋電センサと電極との間は、シールド線によって接続されている。
尚、頬に近い位置ほど、顔表情「笑み」を作る筋肉活動の信号を検出するのに好ましい。但し、耳介やその周辺の皮膚に筋電センサの電極が当接していれば、顔表情「笑み」を作る筋肉活動の信号を検出することが可能である。
図2(a)は、耳を覆うだけのイヤカップに筋電センサが配置された構造を表す。
図2(b)は、検出用+電極及びリファレンス用−電極の筋電センサの対が、顔の前向き前方に突き出た構造を表す。これによって、図2(a)のヘッドフォン形状よりも、筋電センサの検出用とリファレンス用電極を、ユーザの頬にできる限り近づけることができる。また、突き出た構造によって、ヘッドフォンの左右を間違えずに装着するように、ヘッドフォンの向きを示すことができる。
従来技術による表面筋電計測によれば、一般的に、計測対象とする筋肉の直上の皮膚に筋肉の筋に沿って、数cm以下の間隔を空けて、検出用+電極とリファレンス用−電極とを配置する。顔表情「笑み」のみを検出するために、左右いずれか片方の頬に検出用とリファレンス用電極を配置する。
これに対し、本発明によれば、左の耳前下周辺の頬近傍の皮膚に検出用+(プラス)電極と、右の耳前下周辺の頬近傍の皮膚にリファレンス用−(マイナス)電極とを配置し、顔表情「笑み」を作る筋電を検出する。
尚、左をリファレンス用(マイナス)電極、右を検出用(プラス)電極としてもよい。又は、従来技術同様に、左右どちらか一方に電極を配置し、顔の後方をリファレンス(マイナス)電極、頬に近い前方を検出(プラス)電極としてもよい。
本発明のヘッドフォンによれば、ユーザの頭に装着された際に、筋電センサのリファレンス用電極(−)及び検出用電極(+)が、耳介周辺から頬近傍の何処か一点の皮膚表面に左右別々に接するように配置される。即ち、リファレンス用電極(−)及び検出用電極(+)を左右に分けて配置することによって、左右2つの筋肉活動を捉えることができる。顔表情「笑み」を作る筋活動は、左右どちらか一方の筋活動ではなく、一般的に左右両方の筋活動が同時に起こる。この場合、片側のみに1チャンネルを構成する一組の電極を配置するよりも、1チャンネルを構成する電極を左右に分けて配置する方が、左右2つの筋肉活動を捉えることができるので、片方のみに配置するよりも安定した大きな筋電信号を得ることができる。その一方で、左右の電極間が離れるために、頭部の様々な筋肉活動として左右の眼球運動や歯の食い縛り(噛み締め)動作や、口を窄めたり、顎を突き出したりする動作の筋肉活動も大きく混入する他、口の開閉に伴う皮膚面の凹凸生成を原因とする皮膚と電極間での接触抵抗の変化等、様々な信号が筋電信号に混入する。そのような筋電信号であっても、後述する本発明によって顔表情「笑み」「噛み締め」を高い精度で識別することができる。
図3は、本発明におけるイヤフォンの外観構成図である。
図3によれば、デバイスがイヤフォンである場合について明示している。イヤフォンであっても、図2のヘッドフォンと同じ機能を実現することができる。耳穴に当接するイヤフォン筐体の外側のイヤパッドに、電極を配置する。ユーザの耳に装着された際に、筋電センサのリファレンス用電極が左(又は右)の耳介周辺の一点の皮膚表面に、検出用電極が、右(又は左)の耳介周辺の一点の皮膚表面に接するように配置される。図3によれば、一方のイヤパッドに、DRL用電極とリファレンス用(V−)電極を配置する。そして、他方のイヤパッドに、検出用(V+)電極を配置する。
図4は、本発明の筋電信号判定部を有するデバイスの機能構成図である。
図4によれば、デバイス2は、スピーカ及び筋電センサと、音声信号変換部11と、筋電信号判定部12と、端末1と通信する信号インタフェースとを有する。音声信号変換部11は、端末1から信号インタフェースを介して受信した音声信号を増幅し、スピーカへ出力する。筋電信号判定部12は、筋電センサによって計測された筋電信号を入力し、判定した顔表情の情報を、信号インタフェースを介して外部の携帯端末1へ出力する。信号インタフェースは、デジタル通信方式であってもよいし、アナログ通信方式であってもよい。
図5は、本発明の筋電信号判定部を有する端末の機能構成図である。
図5によれば、端末1は、デバイス2から筋電信号を受信する信号インタフェースと、筋電信号判定部12と、オプション的な顔画像認識部13とを有する。スマートフォンや携帯電話機である場合、信号インタフェースは、通常、1チャネルのマイク端子である。また、携帯端末1は、筋電信号判定部12によって判定された顔表情に基づいて、ユーザに対して様々なユーザエクスペリエンスを提供するアプリケーションを実行する。
端末1とデバイス2との間の信号インタフェースが、USB(Universal Serial Bus)やBluetooth(登録商標)等のデジタルインタフェースである場合、デバイス2は、例えば512Hzのサンプリング周波数で、筋電信号をサンプリングする。
信号インタフェースが、アナログインタフェース(アナログ音声ケーブル)である場合、筋電信号は人間の可聴範囲内に収まる周波数特性なので周波数変換する必要はない。但し、デバイス2は、筋電センサによって検出された筋電信号をマイクレベルまで増幅して出力する。
端末1で受信した筋電信号は、マイク入力による音声と同様にアナログ/デジタルに変換することができる。アナログ信号で入力された筋電信号は音声信号として、例えば8kHzのサンプリング周波数でデジタル信号にサンプリングされる。これを、例えば512Hzのサンプリング周波数でリサンプリングする。但し、変換元と変換先のサンプリング周波数に応じ、リサンプリング前又は後に適切なローパスフィルタを適用する。デジタル化された筋電信号の量子化ビット数は、10bit以上が好ましい。
[筋電信号判定部12]
筋電信号判定部12は、筋電信号から顔表情を判定する。顔表情は、筋電信号のウィンドウ区間毎に判定される。
図6は、本発明における筋電信号判定部の機能構成図である。
図7は、本発明における筋電信号判定部のフローチャートである。
図6によれば、筋電信号判定部12は、基準特徴ベクトル記憶部120と、周波数パワー分析部121と、類似度検出部122と、顔表情判定部123とを有する。これら機能構成部は、端末1又はデバイス2に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の顔表情判定方法としても理解できる。
[基準特徴ベクトル記憶部120]
基準特徴ベクトル記憶部120は、顔表情(笑み、噛み締め、・・・)毎に、周波数に対するパワー値によって表す「基準特徴ベクトル」を予め記憶したものである。
「基準特徴ベクトル」とは、顔表情毎に、対数周波数(要素)に対するパワー値を、数値列として表したものである。
基準特徴ベクトル記憶部120は、具体的に、顔表情「笑み」に対する基準特徴ベクトル、及び/又は、顔表情「噛み締め」に対する基準特徴ベクトルを記憶する。
図6によれば、顔表情「笑み」の基準特徴ベクトルは、低周波数帯ほど、パワー値が高くなっている。また、顔表情「噛み締め」の基準特徴ベクトルは、高周波数帯ほど、パワー値が高くなっている。
例えば、顔表情「笑み」の場合、低周波成分30Hz付近にパワー値が大きく出現する。また、顔表情「噛み締め」の場合、高周波成分80Hz付近にパワー値が大きく出現する。一方、無表情時はどこの周波数帯にもパワー値は出現しない。これらの周波数パワー分布に基づき、対応する顔表情を判定する。
[周波数パワー分析部121]
周波数パワー分析部121は、筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す「検知特徴ベクトル」を検出する。
図7によれば、周波数パワー分析部121は、5つのステップによって表されている。
(S121a)周波数パワー分析部121は、検知された筋電信号を、所定時間毎のウィンドウに区分する。ウィンドウの所定時間は、100msec〜10sec、例えば500msec程度に設定するのが好ましい。コンピュータの処理能力や分析したい時間的スケールに応じて、ウィンドウ区間を重ねてスライディングさせるものであってもよい。
(S121b)次に、周波数パワー分析部121は、ウィンドウ毎に、筋電信号における高周波数帯の信号を増幅する。この機能は、プリエンファシス(pre-emphasis)フィルタと称される。
プリエンファシスフィルタとは、高域周波数帯を増幅する周波数フィルタであって、デジタルフィルタによって実現される。例えば、顔表情「噛み締め」における周波数対パワーの特徴ベクトルによれば、高周波数帯でパワーが高くなる。しかしながら、高周波数帯ほど、低周波数帯と比較して、顔表情毎のパワーの差(特徴)が現れにくくなる。そのために、プリエンファシスフィルタによって、高周波数帯のパワーを増幅して、その特徴を現れやすくしている。また、プリエンファシスフィルタは、アーチファクト混入による、バイアスの変動などの低周波成分を低減し、後の周波数パワー分析での影響を抑えている。
(S121c)次に、周波数パワー分析部121は、ウィンドウ毎に、判定すべき顔表情の基準特徴ベクトルに特有の周波数帯以外の周波数帯を除去する。この機能は、バンドエリミネーションフィルタ(帯域除去フィルタ)と称される。
バンドエリミネーションフィルタによれば、例えば商用電源からのノイズ(直流変動成分(超低周波成分))を低減させる。
具体的には、商用電源が50Hzの場合、50Hzを中心とする5次のチェビシェフI型バンドストップフィルタと、50Hzの半分の25Hzを中心とする5次のチェビシェフI型バンドストップフィルタと、10Hz以上を通す5次のチェビシェフI型ハイパスフィルタとを通過させることによって実現する。また、50Hzの1.5倍の75Hzを中心とする5次のチェビシェフI型バンドストップフィルタを更に加えてもよい。
(S121d)周波数パワー分析部121は、フィルタを通過した筋電信号から、量子化ビット数によって取り得る「最大値〜最小値」が、−1.0〜+1.0の範囲に収まるように、筋電信号の振幅を一定の比率でリスケーリングして正規化する。一定の比率は、量子化ビット数の他、予め決定した値としてもよい。この正規化された信号に対して高速フーリエ変換(FFT)を実行し、周波数に対するパワー値(FFTスペクトル)を算出する。
(S121e)最後に、周波数パワー分析部121は、フィルタバンク(Filter bank)分析を実行する。
フィルタバンク分析とは、バンドパスフィルタのアレイであり、入力信号を複数のコンポーネントに分割(analysis)する。ここでは、顔表情に特徴が現れる周波数パワー分布の特徴が、どの周波数をピークにもつ山型であるかを把握できればよい。情報量を減らすことで以後の計算量を容易にするために、フィルタバンクが便利である。
フィルタバンクとしては、具体的には、メル尺度フィルタバンク(対数周波数尺度フィルタバンク)によって分析する。これによって、低域周波数帯は細かく、高域周波数帯は荒く、パワーを分析することができる。
メル尺度フィルタバンクは、一般に、音声信号を数十msecのフレーム単位で分析したメルケプストラム係数(Mel Frequency Cepstrum Coefficient MFCC)のようなパラメータ系列の特徴パラメータを出力するための前処理に用いる。ここでは、MFCCに変換する前のフィルタバンク出力を利用する。
メル尺度フィルタバンクとして、N個(例えば13個)のメル尺度に基づいた三角窓による帯域フィルタを周波数軸に配置し、FFTスペクトルと掛け合わせる。フィルタバンクによる各フィルタからの出力値を常用対数で計算した特徴ベクトル{f1,f2,・・・,fN}を得る。この特徴ベクトルが、その筋電信号の「検知特徴ベクトル」となる。
これによって、周波数パワー分析部121は、各ウィンドウに対して、メル尺度の周波数に対するパワー値によって表す「検知特徴ベクトル」を検出する。
「検知特徴ベクトル」とは、前述した基準特徴ベクトルと同じ形式であって、筋電センサによって検知された筋電信号について、対数周波数(要素)に対するパワー値を、数値列として表したものである。
そして、検知特徴ベクトルは、類似度検出部122へ出力される。
[類似度検出部122]
類似度検出部122は、「検知特徴ベクトル」と、基準特徴ベクトル記憶部120に記憶された各顔表情に対する各「基準特徴ベクトル」とに対して、周波数を伸縮させて2つの特徴ベクトルの類似度を計算する。
本発明の類似度検出部122は、動的時間に対して使用される既存のダイナミックタイムワーピング(Dynamic Time Warping、以下では「DTW」と称す)」)を、動的周波数に対して「ダイナミックフレクェンシーワーピング(Dynamic Frequency Warping、以下では「DFW」と称す)」として用いる。
DTWとは、2つ系列の周期性や長さが違っても、2つの系列の各点を総当たりで比較(距離、コスト)し、距離とコストが最小になるパス(2つの系列の各点のマッピング)を計算するアルゴリズムである。DTWから得られるDTW距離の短さは、2つの系列の類似度と捉えることができる。尚、DTW距離は0以上の値となる。
図8は、検知特徴ベクトルと複数の基準特徴ベクトルとを、対数周波数に対するパワー値で表すグラフである。図8によれば、「笑み」「無表情」の基準特徴ベクトルが規定されており、検知特徴ベクトルの顔表情の選択に用いられる。尚、「噛み締め」の基準特徴ベクトルが規定されたものであってもよい。
図9は、検知特徴ベクトルと顔表情「笑み」の基準特徴ベクトルの各点が、DFWによって、どのようにマッピングされたのかを表すグラフである。
図10は、検知特徴ベクトルと顔表情「噛み締め」の基準特徴ベクトルの各点が、DFWによって、どのようにマッピングされたのかを表すグラフである。
図11は、検知特徴ベクトルと顔表情「無表情」の基準特徴ベクトルの各点が、DFWによって、どのようにマッピングされたのかを表すグラフである。
例えば図9の顔表情「笑み」の場合、対数周波数軸で周波数が高い方向にピークがずれていても、周波数軸に幅を持たせてマッピングされている。つまり、基準特徴ベクトルのピーク周波数位置とは多少異なる周波数位置にピークをもつ検知特徴ベクトルであっても、類似度が高いと計算できる。
[顔表情判定部123]
顔表情判定部123は、類似度検出部122によって、検知特徴ベクトルに最も類似する基準特徴ベクトルにおける顔表情を、当該ユーザの顔表情であると判定する。類似度が高いとは、検知特徴ベクトルに対して総当たりのDFW距離が最も小さい基準特徴ベクトルをいう。尚、顔表情「笑み」「噛み締め」毎に、DFW距離を「笑顔度」「噛み締め度」としてもよい。
尚、2つの基準特徴ベクトル両方に類似する検知特徴ベクトル等、DFW距離の差が小さくなる場合がある。差をより明確にするために、DFW距離の常用対数を用いてもよい。
顔表情判定部123について、各顔表情の類似度は、当該顔表情の検知特徴ベクトルの類似度から、当該顔表情以外の検知特徴ベクトルの類似度の総和を減算したものとするものであってもよい。
Log_dn:「無表情時」の基準ベクトルとの類似度の常用対数
Log_ds:「笑み時」の基準ベクトルとの類似度の常用対数
Log_dc:「噛み締め時」の基準ベクトルとの類似度の常用対数
Rn:無表情時の類似度
Rs:笑み時の類似度
Rc:噛み締め時の類似度
Rn=Log_dn−(Log_ds+Log_dc)
Rs=Log_ds−(Log_dn+Log_dc)
Rc=Log_dc−(Log_ds+Log_dn)
類似度Rn、Rs 、Rcのうち最も小さい値を、最も類似度が高いとして、その表情と判定する。
[顔画像認識部13]
端末1は、オプション的に、ユーザの顔を撮影するためのカメラ(イン側カメラ)と、顔画像認識部13とを有するものであってもよい。顔画像認識部13は、カメラによって撮影されたユーザの顔が写る画像から、当該ユーザの顔表情を画像認識する。そして、認識された顔表情に対して、筋電信号から周波数パワー分析によって検出された、周波数に対するパワー値によって表す検知特徴ベクトルを、基準特徴ベクトルとして基準特徴ベクトル記憶部120へ記憶させる。
顔画像認識部13は、顔が映る画像について、目尻の上がり/下がり、口角の上がり/下がり、ホウレイ線のしわの深さのような各要素を検出することによって、ユーザの顔表情を認識する。例えば顔表情「笑み」であれば、目尻が下がり、口角が上がり、ほうれい線のしわは深くなる。一方で、顔表情「噛み締め」であれば、目尻が上がり、口角が下がり、ほうれい線のしわは浅くなる。顔の要素毎に、閾値を設定し、顔表情を認定する。
顔画像認識部13は、各顔表情が認識された際に、基準特徴ベクトル記憶部120へ更新指示を出力する。基準特徴ベクトル記憶部120は、更新指示を受けた時点における特徴ベクトルを、その顔表情の基準特徴ベクトルとして記憶を更新する。尚、一定時間内に同じ表情に対しての更新指示が複数回発生した場合は、複数の特徴ベクトルを平均して記憶を更新する。
尚、特徴ベクトルの類似度算出方法として、DFW以外の方法も想定できる。
例えば板倉−斉藤距離(LR距離)の場合、DFWのように周波数軸(横軸)に幅を持たせて評価せず、横軸を基準に1対1評価する。しかしながら、正方向ピークの類似性を重視する方法であるから、本発明によると筋電信号がどこの周波数で発生しているかを知ることが重視されるために適用できる。
また、例えば2つの1次元ベクトルの類似度を計算する方法として、コサイン類似度や相互相関がある。しかしながら、コサイン類似度は、ベクトルの屈曲性を評価する性質のため、パワーの差が考慮されないため不適である。また、相互相関は、2つのベクトルの相関を評価する性質のために、これもパワーの差が考慮されないため不適である。
更に、ユークリッド距離やカルバック・ライブラー・ダイバージェンスもある。しかしながら、これらは、板倉斉藤距離に比較して正方向に重みを付けないために、ノイズ混入に比較的弱い。
以上、詳細に説明したように、本発明の装置、デバイス、プログラム及び方法によれば、筋電センサによってユーザの顔から取得された筋電信号を用いて、「笑み」や「噛み締め」の顔表情を高い精度で識別することができる。
前述した本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 端末
11 音声信号変換部
12 筋電信号判定部
120 基準特徴ベクトル記憶部
121 周波数パワー分析部
122 類似度検出部
123 顔表情判定部
13 顔画像認識部
2 ヘッドマウントデバイス、ヘッドフォン

Claims (12)

  1. 筋電センサによって検知されたユーザの表情筋筋電信号から、当該ユーザの顔表情を判定する装置であって、
    顔表情毎に、周波数に対するパワー値によって表す基準特徴ベクトルを予め記憶した基準特徴ベクトル記憶手段と、
    前記筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す検知特徴ベクトルを検出する周波数パワー分析手段と、
    前記検知特徴ベクトルと、前記基準特徴ベクトル記憶手段に記憶された各顔表情に対する各基準特徴ベクトルとの類似度を検出する類似度検出手段と、
    各顔表情について、前記各顔表情に対する基準特徴ベクトルとの類似度から、当該各顔表情以外の前記基準特徴ベクトルとの類似度の総和を減算した、当該各顔表情の類似度を算出し、当該各顔表情の類似度のうち最も小さくなる顔表情を、当該ユーザの顔表情であると判定する顔表情判定手段と
    を有することを特徴とする装置。
  2. 前記基準特徴ベクトル及び前記検知特徴ベクトルについて、周波数を対数周波数とし、パワー値を対数パワー値とする
    ことを特徴とする請求項に記載の装置。
  3. 前記周波数パワー分析手段は、メル尺度フィルタバンク(対数周波数尺度フィルタバンク)によって分析する
    ことを特徴とする請求項に記載の装置。
  4. 前記周波数パワー分析手段は、前記ウィンドウ毎に、前記筋電信号における減衰特性に応じて高周波数帯の信号を増幅する(プリエンファシス(pre-emphasis)フィルタ)
    ことを特徴とする請求項1からのいずれか1項に記載の装置。
  5. 前記周波数パワー分析手段は、前記ウィンドウ毎に、判定すべき顔表情の基準特徴ベクトルに特有の周波数帯以外の周波数帯を除去する(帯域除去フィルタ)
    ことを特徴とする請求項1からのいずれか1項に記載の装置。
  6. 前記基準特徴ベクトル記憶手段は、
    顔表情「笑み」に対する基準特徴ベクトル、及び/又は、
    顔表情「噛み締め」に対する基準特徴ベクトル
    を含むことを特徴とする請求項1からのいずれか1項に記載の装置。
  7. 前記装置は、ユーザの顔を撮影するカメラと、当該カメラによって撮影されたユーザの顔が写る画像から、当該ユーザの顔表情を画像認識する顔画像認識手段とを更に有し、
    認識された顔表情に対して、筋電信号から周波数パワー分析によって検出された、周波数に対するパワー値によって表す特徴ベクトルを、基準特徴ベクトルとして基準特徴ベクトル記憶手段へ記憶させる
    ことを特徴とする請求項1からのいずれか1項に記載の装置。
  8. 請求項1からのいずれか1項に記載の装置は、前記筋電センサを搭載したデバイスであって、
    前記筋電センサは、
    1チャネルの筋電信号を出力するものであり、
    リファレンス用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となるか、又は、
    リファレンス用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となる
    ことを特徴とするデバイス。
  9. イヤフォン型又はヘッドマウント型である
    ことを特徴とする請求項に記載のデバイス。
  10. 請求項1からのいずれか1項に記載の装置を組み込んだ、ユーザによって所持される携帯端末と、
    ユーザの頭部に装着された際に、1チャネルの筋電信号を出力するデバイスと
    を有し、
    前記デバイスは、筋電センサを搭載し、
    当該筋電センサは、
    リファレンス用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となるか、又は、
    リファレンス用電極が、ユーザの右の耳介周辺から頬近傍の何処か一点の皮膚表面に、検出用電極が、ユーザの左の耳介周辺から頬近傍の何処か一点の皮膚表面に接するように配置可能となる
    ことを特徴とするシステム。
  11. 筋電センサによって検知されたユーザの表情筋筋電信号から、当該ユーザの顔表情を判定する装置に搭載されたコンピュータを機能させるプログラムであって、
    顔表情毎に、周波数に対するパワー値によって表す基準特徴ベクトルを予め記憶した基準特徴ベクトル記憶手段と、
    前記筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す検知特徴ベクトルを検出する周波数パワー分析手段と、
    前記検知特徴ベクトルと、前記基準特徴ベクトル記憶手段に記憶された各顔表情に対する各基準特徴ベクトルとの類似度を検出する類似度検出手段と、
    各顔表情について、前記各顔表情に対する基準特徴ベクトルとの類似度から当該各顔表情以外の前記基準特徴ベクトルとの類似度の総和を減算した当該各顔表情の類似度を算出し、当該各顔表情の類似度のうち最も小さくなる顔表情を、当該ユーザの顔表情であると判定する顔表情判定手段と
    してコンピュータを機能させることを特徴とするプログラム。
  12. 筋電センサによって検知されたユーザの表情筋筋電信号から、当該ユーザの顔表情を判定する装置の顔表情判定方法であって、
    前記装置は、顔表情毎に、周波数に対するパワー値によって表す基準特徴ベクトルを予め記憶した基準特徴ベクトル記憶部を有し、
    前記装置は、
    前記筋電信号を所定時間毎に区分したウィンドウに対して、周波数に対するパワー値によって表す検知特徴ベクトルを検出する第1のステップと、
    前記検知特徴ベクトルと、前記基準特徴ベクトル記憶に記憶された各顔表情に対する各基準特徴ベクトルとの類似度を検出する第2のステップと、
    各顔表情について、前記各顔表情に対する基準特徴ベクトルとの類似度から、当該各顔表情以外の前記基準特徴ベクトルとの類似度の総和を減算した、当該各顔表情の類似度を算出し、当該各顔表情の類似度のうち最も小さくなる顔表情を、当該ユーザの顔表情であると判定する第3のステップと
    を実行することを特徴とする装置の顔表情判定方法。
JP2016023184A 2016-02-09 2016-02-09 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法 Active JP6580497B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016023184A JP6580497B2 (ja) 2016-02-09 2016-02-09 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016023184A JP6580497B2 (ja) 2016-02-09 2016-02-09 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2017140198A JP2017140198A (ja) 2017-08-17
JP6580497B2 true JP6580497B2 (ja) 2019-09-25

Family

ID=59626852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016023184A Active JP6580497B2 (ja) 2016-02-09 2016-02-09 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP6580497B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102000246B1 (ko) * 2017-09-27 2019-07-15 연세대학교 산학협력단 다중 전극을 이용한 근육 활동 추정 장치 및 방법
CN212729805U (zh) * 2017-10-16 2021-03-19 株式会社村田制作所 生物体信号传感器
CN113907714A (zh) * 2017-11-30 2022-01-11 梅尔廷Mmi株式会社 用于识别生物体信号所表示的信息的系统
JP6821549B2 (ja) * 2017-12-15 2021-01-27 Kddi株式会社 加速度成分の代表値で生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP6810682B2 (ja) * 2017-12-26 2021-01-06 Kddi株式会社 加速度成分の代表値で周期的生体信号発生を判定する生体信号処理装置、プログラム及び方法
SG10201800954QA (en) * 2018-02-02 2019-09-27 Nec Asia Pacific Pte Ltd Method and system for signal processing rehabilitation exercise signals
JP7009342B2 (ja) * 2018-09-27 2022-01-25 Kddi株式会社 咀嚼や笑みに係る量に基づき食事を評価可能な装置、プログラム及び方法
JP7129724B2 (ja) * 2020-07-29 2022-09-02 浩行 喜屋武 オンラインショー演出システムおよびそのプログラム、並びに笑い解析装置、笑い解析方法およびそのプログラム
CN113133765A (zh) * 2021-04-02 2021-07-20 首都师范大学 一种柔性电子的多通道融合轻微负性表情检测方法及装置
WO2023037749A1 (ja) * 2021-09-07 2023-03-16 株式会社島津製作所 評価方法、評価システム、およびプログラム
CN115944309B (zh) * 2022-12-22 2023-07-18 广州医科大学附属第一医院(广州呼吸中心) 吞咽肌障碍的检测装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2974423B2 (ja) * 1991-02-13 1999-11-10 シャープ株式会社 ロンバード音声認識方法
JP2573126B2 (ja) * 1992-06-22 1997-01-22 正重 古川 表情のコード化及び情緒の判別装置
JP2002091486A (ja) * 2000-09-18 2002-03-27 Matsushita Electric Ind Co Ltd 音声認識装置、音声認識方法、および音声認識プログラムを記録した記録媒体
JP2004348382A (ja) * 2003-05-21 2004-12-09 Ntt Docomo Inc 携帯型電子装置およびその制御方法
JP2006006355A (ja) * 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
JP4722573B2 (ja) * 2005-06-10 2011-07-13 株式会社エヌ・ティ・ティ・ドコモ 顔面情報検出装置および顔面情報検出式通信装置
JP2012200397A (ja) * 2011-03-25 2012-10-22 Midori Anzen Co Ltd 居眠り検知装置
JP5825607B2 (ja) * 2011-12-07 2015-12-02 国立研究開発法人産業技術総合研究所 信号特徴抽出装置および信号特徴抽出方法

Also Published As

Publication number Publication date
JP2017140198A (ja) 2017-08-17

Similar Documents

Publication Publication Date Title
JP6580497B2 (ja) 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法
US20190192077A1 (en) System and method for extracting and analyzing in-ear electrical signals
Ma et al. Oesense: employing occlusion effect for in-ear human sensing
US10621973B1 (en) Sub-vocal speech recognition apparatus and method
JP6521778B2 (ja) 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
US9232904B2 (en) Electroencephalogram recording apparatus, hearing aid, electroencephalogram recording method, and program thereof
JP6452248B2 (ja) 筋電信号を用いて顔表情を識別するデバイス、端末及びプログラム
JPWO2011135789A1 (ja) 脳波計測装置、電気的ノイズの推定方法、および、電気的ノイズの推定方法を実行するコンピュータプログラム
US10213157B2 (en) Active unipolar dry electrode open ear wireless headset and brain computer interface
US20230199413A1 (en) Multimodal hearing assistance devices and systems
US11856355B2 (en) Information processing system and non-transitory computer readable medium storing program
US11494001B2 (en) Gesture detection system for personal head wearable device
US20210240433A1 (en) Information processing apparatus and non-transitory computer readable medium
KR20160108967A (ko) 생체신호 측정장치 및 이를 이용한 생체신호 측정방법
JP6685891B2 (ja) フィルタ処理及び周波数判定処理を用いた生体信号処理装置、プログラム及び方法
JP6695817B2 (ja) 単位空間からの離隔度合いで判定を行う生体信号処理装置、プログラム及び方法
JP6821549B2 (ja) 加速度成分の代表値で生体信号発生を判定する生体信号処理装置、プログラム及び方法
CN110033772B (zh) 基于ppg信号的非声学语音信息检测装置
Ma et al. Innovative Human Motion Sensing With Earbuds
JP6810682B2 (ja) 加速度成分の代表値で周期的生体信号発生を判定する生体信号処理装置、プログラム及び方法
JP7082956B2 (ja) 信号データに応じた基準値に基づき生体信号の計数を行う生体信号処理装置、プログラム及び方法
JP7373459B2 (ja) 頭部を後方から挟み込むフレームを備えた生体信号取得装置
JP6942288B2 (ja) 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム
WO2024106195A1 (ja) 情報処理装置および情報処理システム
US20230320669A1 (en) Real-time in-ear electroencephalography signal verification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190828

R150 Certificate of patent or registration of utility model

Ref document number: 6580497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150