JP5574407B2 - Facial motion estimation apparatus and facial motion estimation method - Google Patents

Facial motion estimation apparatus and facial motion estimation method Download PDF

Info

Publication number
JP5574407B2
JP5574407B2 JP2010006094A JP2010006094A JP5574407B2 JP 5574407 B2 JP5574407 B2 JP 5574407B2 JP 2010006094 A JP2010006094 A JP 2010006094A JP 2010006094 A JP2010006094 A JP 2010006094A JP 5574407 B2 JP5574407 B2 JP 5574407B2
Authority
JP
Japan
Prior art keywords
facial
signal
face
motion estimation
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010006094A
Other languages
Japanese (ja)
Other versions
JP2011143059A (en
Inventor
健嗣 鈴木
ガブリエーラ グルエベレル リス アナ
Original Assignee
国立大学法人 筑波大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 筑波大学 filed Critical 国立大学法人 筑波大学
Priority to JP2010006094A priority Critical patent/JP5574407B2/en
Publication of JP2011143059A publication Critical patent/JP2011143059A/en
Application granted granted Critical
Publication of JP5574407B2 publication Critical patent/JP5574407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、顔面動作推定装置及び顔面動作推定方法に係り、特に顔面の動作を容易に知覚できるようにするための顔面動作推定装置及び顔面動作推定方法に関する。   The present invention relates to a facial motion estimation device and a facial motion estimation method, and more particularly, to a facial motion estimation device and a facial motion estimation method for easily perceiving facial motion.

従来、対話等における顔の表情は、対人に付加的情報を与えており、その人の感情を取得する1つの目安として人間関係において重要な役割を果たしている。   Conventionally, facial expressions in dialogue and the like have given additional information to a person and have played an important role in human relationships as one measure for acquiring the person's emotions.

そこで、例えば、カメラ等により撮影された人物の表情認識に関する技術が存在しており、顔の所定部位に設置された電極等から得られる生体電位信号(筋電)に基づいて表情を認識する技術についても開示されている(例えば、特許文献1、2等。)。   Therefore, for example, there is a technique related to facial expression recognition of a person photographed by a camera or the like, and a technique for recognizing a facial expression based on a bioelectric potential signal (myoelectricity) obtained from an electrode or the like installed at a predetermined part of the face. Is also disclosed (for example, Patent Documents 1 and 2).

例えば、特許文献1では、ユーザの生体情報や運動情報を検出し、検出した生体情報及び運動情報に基づいてユーザ状況を判定して、それに応じた表示キャラクタの表情又は動作を決定する技術について示されている。   For example, Patent Document 1 discloses a technique for detecting biological information and exercise information of a user, determining a user situation based on the detected biological information and exercise information, and determining a facial expression or action of a display character corresponding to the user situation. Has been.

また、特許文献2では、笑筋及び頬骨筋の何れかの端部に電極を配置し、これにより検出された笑筋及び頬骨筋の20〜100Hzの周波数分布の筋電に基づいて、その人物が笑っているか否かの笑いの有無を検出する技術について示されている。   Further, in Patent Document 2, an electrode is disposed at either end of the laughing muscle and zygomatic muscle, and the person is determined based on the myoelectricity of the frequency distribution of 20 to 100 Hz of the laughing muscle and zygomatic muscle detected thereby. A technique for detecting whether a person is laughing or not is shown.

特開2009−39157号公報JP 2009-39157 A 特開2006−340986号公報JP 2006-340986 A

しかしながら、カメラ等で撮影された画像から人物の表情を推定する場合には、少なくとも画面上に正面顔が映し出されていなければならず、例えば顔が俯いた場合やカメラに対して後を向いた場合には、その表情や動作を測定することができない。   However, when estimating a person's facial expression from an image taken with a camera or the like, at least the front face must be projected on the screen, for example, when the face crawls or faces the camera In some cases, the facial expression and movement cannot be measured.

また、例えば、笑った顔の表情を検知するために電極を用いて生体電位信号を測定する際、従来では、顔面内部にある笑筋の上に電極を配置して笑筋の動きにより生じる生体電位信号を取得しているが、このような配置を行うと顔の前面に配置することになるため、外見上に大きな違和感があり、また表情そのものを阻害してしまうため、好ましいものとはいえない。   In addition, for example, when measuring a bioelectric potential signal using an electrode to detect a facial expression of a laughing face, conventionally, an electrode is placed on the laughing muscle inside the face and the living body generated by the movement of the laughing muscle Although a potential signal is acquired, this arrangement is not preferable because it is placed in front of the face, which makes it look strange and disturbs the expression itself. Absent.

また、例えば、特許文献2に示すようにヘッドホン等を用いて耳介部からの生体電位信号を取得する場合には、筋肉部からの距離があるため、ノイズ等や皮膚を伝搬する際の減衰等があるため、笑顔の度合い等を正確に推測することができない。   Also, for example, as shown in Patent Document 2, when acquiring a biopotential signal from the auricle using headphones or the like, there is a distance from the muscle, so noise and attenuation when propagating through the skin For example, the degree of smile cannot be accurately estimated.

更に、従来では、例えば顔面麻痺等により表情がうまく作れない人物等に対して、生体電位信号により得られる顔面内部の信号を、筋肉の動きではなく、光や音により対人等に明確に提示させることで他人が容易に視認することができる装着型の装置については存在していなかった。   Furthermore, conventionally, for example, for a person whose facial expression cannot be made well due to facial paralysis or the like, the signal inside the face obtained by the bioelectric potential signal is clearly presented to the person or the like by light or sound rather than by muscle movement. Thus, there has been no wearable device that can be easily seen by others.

本発明は、上述した課題に鑑みてなされたものであって、顔面の動作を容易に知覚できるようにするための顔面動作推定装置及び顔面動作推定方法を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a facial motion estimation apparatus and a facial motion estimation method for easily perceiving facial motion.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置において、前記顔の所定領域に対する前記生体電位信号を取得するための複数の電極と、前記複数の電極から得られるそれぞれの信号を所定の帯域でフィルタリングするフィルタ手段と、前記フィルタ手段により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理手段と、前記信号処理手段により得られる信号に対して機械学習により信号解析を行う機械学習解析手段と、前記機械学習解析手段により得られる解析結果から、顔の表情及び度合いを推定する表情推定手段と、前記顔の表情及び度合いに対応させて予め設定された提示を行う提示手段とを有し、前記顔の所定領域は、前記複数の電極の装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉から皮膚を通して伝わる混合された生体電位信号が取得できる前記顔の左右の側面にある顔面神経頬筋枝上の領域であり、前記信号処理手段は、前記顔の左右の側面にある顔面神経頬筋枝上の領域に対して、左右にそれぞれ一対の電極を縦に2個配置して4チャンネルの生体電位信号を取得し、取得した前記4チャンネルの生体電位信号の組み合わせから独立成分を抽出することを特徴とする。 According to a first aspect of the present invention, there is provided a facial motion estimation device for estimating a facial motion based on a bioelectric potential signal obtained from a predetermined face area, for obtaining the bioelectric potential signal for the predetermined face area. Separation by assuming a plurality of electrodes, filter means for filtering each signal obtained from the plurality of electrodes in a predetermined band, and independence of signals preset with respect to the signal obtained by the filter means The facial expression and the degree of the facial expression are estimated from the signal processing means, the machine learning analysis means for performing signal analysis on the signal obtained by the signal processing means by machine learning, and the analysis result obtained by the machine learning analysis means. A facial expression estimation means; and a presentation means for making a preset presentation corresponding to the facial expression and degree of the face, and the predetermined area of the face is: Serial plurality of the wearer's face wheels muscle electrodes, zygomaticus minor muscle, zygomaticus major muscle, among risorius, the left and right sides of the face can be acquired biopotential signals mixed transmitted through the skin of at least two muscles A region on the facial nerve cheek muscle branch , and the signal processing means arranges two pairs of electrodes vertically on the left and right sides of the region on the facial nerve cheek muscle branch on the left and right sides of the face. 4 channel biopotential signals are acquired, and independent components are extracted from the acquired combinations of the 4 channel biopotential signals.

請求項1記載の発明によれば、顔面の動作を容易に定量化できると共に知覚できるようにすることができる。また、1つの筋肉の動きに依存しすぎずに、表情を形成するために必要な複数の筋肉への信号を効率的且つ高い時間精度で取得することができる。また、どの部位から取得した生体電位信号であるか否かの判断を必要とせず、複数の電極から取得した複数の生体電位信号のみに着目して独立成分を抽出することができる。 According to the first aspect of the present invention, the facial motion can be easily quantified and perceived. In addition, signals to a plurality of muscles necessary for forming a facial expression can be obtained efficiently and with high time accuracy without depending on the movement of one muscle. In addition, it is not necessary to determine from which part the biopotential signal is acquired, and independent components can be extracted by focusing on only a plurality of biopotential signals acquired from a plurality of electrodes.

請求項2に記載された発明は、前記機械学習解析手段は、前記4チャンネルの生体電位信号の入力に対応する顔の表情の種類及び度合いを出力とする予め設定されたニューラルネットワークを用いて解析を行うことを特徴とする。 According to a second aspect of the present invention, the machine learning analysis means performs analysis using a preset neural network that outputs the type and degree of facial expression corresponding to the input of the bioelectric potential signal of the four channels. It is characterized by performing.

請求項記載の発明によれば、機械学習としてニューラルネットワークを用いることで、顔の表情が異なるどのユーザに対しても制限なく顔面動作推定装置を利用することができる。 According to the second aspect of the present invention, by using a neural network as machine learning, the facial motion estimation device can be used without limitation for any user with different facial expressions.

請求項に記載された発明は、前記提示手段は、複数の光又は音により提示を行い、前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする。 The invention described in claim 3 is characterized in that the presenting means presents with a plurality of lights or sounds, and presents the plurality of lights or sounds according to the facial expression and degree of the face. To do.

請求項記載の発明によれば、光又は音により装着者又は対面者及び周囲の者等は、容易に表情を把握することができる。これにより、無意識のうちに行われる表情の変化を正確に把握することができる。更に、表情の種類及び度合いに応じて光や音を変更するため、詳細な表情の変化を高精度に確認することができる。 According to the third aspect of the present invention, the wearer, the person facing the person, the surrounding person, and the like can easily grasp the expression by light or sound. As a result, it is possible to accurately grasp changes in facial expression that are performed unconsciously. Furthermore, since the light and sound are changed according to the type and degree of the facial expression, it is possible to confirm detailed changes in facial expression with high accuracy.

請求項4に記載された発明は、顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置を用いた顔面動作推定方法において、前記顔面動作推定装置が、複数の電極を用いて前記顔の所定領域に対する前記生体電位信号を取得するための信号取得段階と、前記信号取得段階により得られる前記複数の電極からのそれぞれの信号を所定の帯域でフィルタリングするフィルタ段階と、前記フィルタ段階により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理段階と、前記信号処理段階により得られる信号に対して機械学習により信号解析を行う機械学習解析段階と、前記機械学習解析段階により得られる解析結果から、顔の表情及び度合いを推定する表情推定段階と、前記顔の表情及び度合いに対応させて予め設定された提示手段により提示させる提示段階とを有し、前記顔の所定領域は、前記複数の電極の装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉から皮膚を通して伝わる混合された生体電位信号が取得できる前記顔の左右の側面にある顔面神経頬筋枝上の領域であり、前記信号処理段階は、前記顔の左右の側面にある顔面神経頬筋枝上の領域に対して、左右にそれぞれ一対の電極を縦に2個配置して4チャンネルの生体電位信号を取得し、取得した前記4チャンネルの生体電位信号の組み合わせから独立成分を抽出することを特徴とする。 According to a fourth aspect of the present invention, in the facial motion estimation method using a facial motion estimation device that estimates facial motion based on a bioelectric potential signal obtained from a predetermined region of the face, the facial motion estimation device includes a plurality of facial motion estimation devices. A signal acquisition step for acquiring the biopotential signal for a predetermined region of the face using the electrodes of the filter, and a filter step of filtering each signal from the plurality of electrodes obtained by the signal acquisition step in a predetermined band And a signal processing stage for sorting by assuming independence of a preset signal with respect to the signal obtained by the filter stage, and signal analysis by machine learning for the signal obtained by the signal processing stage A machine learning analysis stage, a facial expression estimation stage for estimating a facial expression and degree from the analysis result obtained by the machine learning analysis stage, and A predetermined presentation area corresponding to the facial expression and degree of the facial expression, and the predetermined region of the face includes a ring muscle, a small zygomatic muscle, and a large zygomatic muscle of a wearer of the plurality of electrodes A region on the facial nerve buccal muscles on the left and right sides of the face from which the mixed bioelectric potential signal transmitted through the skin from at least two muscles of the laughing muscle can be obtained, and the signal processing step comprises of the left and right portions of the facial nerve buccinator branch on the side area, on the left and right by placing two pairs of electrodes longitudinally obtains biopotential signals of four channels, acquired biological potential of the 4-channel An independent component is extracted from the combination of signals.

請求項記載の発明によれば、顔面の動作を容易に定量化できると共に知覚できるようにすることができる。また、1つの筋肉の動きに依存しすぎずに、表情を形成するために必要な複数の筋肉への信号を効率的且つ高い時間精度で取得することができる。また、どの部位から取得した生体電位信号であるか否かの判断を必要とせず、複数の電極から取得した複数の生体電位信号のみに着目して独立成分を抽出することができる。 According to the fourth aspect of the present invention, the facial motion can be easily quantified and perceived. In addition, signals to a plurality of muscles necessary for forming a facial expression can be obtained efficiently and with high time accuracy without depending on the movement of one muscle. In addition, it is not necessary to determine from which part the biopotential signal is acquired, and independent components can be extracted by focusing on only a plurality of biopotential signals acquired from a plurality of electrodes.

請求項5に記載された発明は、前記機械学習解析段階は、前記4チャンネルの生体電位信号の入力に対応する顔の表情の種類及び度合いを出力とする予め設定されたニューラルネットワークを用いて解析を行うことを特徴とする。

According to a fifth aspect of the present invention, in the machine learning analysis stage, analysis is performed using a preset neural network that outputs the type and degree of facial expression corresponding to the input of the bioelectric potential signal of the four channels. It is characterized by performing.

請求項記載の発明によれば、機械学習としてニューラルネットワークを用いることで、顔の表情が異なるどのユーザに対しても制限なく利用することができる。 According to the invention described in claim 5 , by using a neural network as machine learning, it can be used without limitation for any user with different facial expressions.

請求項に記載された発明は、前記提示段階は、前記提示手段を用いて複数の光又は音により提示を行い、前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする。 In the invention described in claim 6 , in the presenting step, the presenting means is used to present with a plurality of lights or sounds, and the plurality of lights or sounds are changed according to the facial expression and degree. It is characterized by presenting.

請求項記載の発明によれば、光又は音により装着者又は対面者及び周囲の者等は、容易に表情を把握することができる。これにより、無意識のうちに行われる表情の変化を正確に把握することができる。更に、表情の種類及び度合いに応じて光や音を変更するため、詳細な表情の変化を高精度に確認することができる。

According to the sixth aspect of the present invention, the wearer, the person facing the person, the surrounding person, and the like can easily grasp the facial expression by light or sound. As a result, it is possible to accurately grasp changes in facial expression that are performed unconsciously. Furthermore, since the light and sound are changed according to the type and degree of the facial expression, it is possible to confirm detailed changes in facial expression with high accuracy.

本発明によれば、顔面の動作を容易に知覚できるようにすることができる。   According to the present invention, facial movement can be easily perceived.

電極の配置位置を説明するための図である。It is a figure for demonstrating the arrangement position of an electrode. 本実施形態における顔面動作推定装置の外部形態の一例を示す図である。It is a figure which shows an example of the external form of the facial motion estimation apparatus in this embodiment. 顔面動作推定装置の変形例を説明するための図である。It is a figure for demonstrating the modification of a facial motion estimation apparatus. 本実施形態における顔面動作推定装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the facial motion estimation apparatus in this embodiment. 顔面動作推定装置における信号処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the signal processing in a facial motion estimation apparatus. 信号処理モジュールの一例を示す図である。It is a figure which shows an example of a signal processing module. ICAのブロックダイアグラムの一例を示す図である。It is a figure which shows an example of the block diagram of ICA. 本実施形態における表情推定における基本データの生成例を示す図である。It is a figure which shows the example of a production | generation of the basic data in the facial expression estimation in this embodiment. 本実施形態を適用した実験結果の一例を示す図(その1)である。It is FIG. (1) which shows an example of the experimental result to which this embodiment is applied. 本実施形態を適用した実験結果の一例を示す図(その2)である。It is FIG. (2) which shows an example of the experimental result to which this embodiment is applied. 本実施形態を適用した実験結果の一例を示す図(その3)である。It is FIG. (3) which shows an example of the experimental result to which this embodiment is applied.

<本発明について>
本発明は、表情筋の運動に関わる生体電位信号(Bio Electrical Signals;BES)に基づき、表情や動作の内容やその度合いを識別する。具体的には、従来のように顔の前面に電極を配置することは表情及び顔の印象を阻害してしまうため、本発明では、顔の側面にある顔面神経頬筋枝上の生体電位信号を取得することで、表情や動作の内容やその度合いを識別する。
<About the present invention>
The present invention identifies facial expressions, the contents of actions and their degrees based on bioelectrical signals (BES) related to the movement of facial muscles. Specifically, the conventional arrangement of electrodes on the front face of the face impedes facial expression and facial impression, so in the present invention, the biopotential signal on the facial nerve cheek muscle branch on the side of the face By acquiring, the contents of facial expressions and actions and their degree are identified.

なお、このような顔の側方での生体電位信号の計測では、首の動作や咬筋の影響を取り除かなければならないが、本発明では、複数の電極を用いて得られた2チャンネル以上の信号を用いて独立成分分析やニューラルネットワーク等を用いることで、顔の表情や動作(例えば、笑い、恐れ、中立(真顔)、怒り、泣き、あくび等)や、その表情や動作の度合い(例えば、どの程度笑っているか、あくびの口の大きさ等)を判断して提示手段により提示することができる。   In the measurement of the bioelectric potential signal on the side of the face, it is necessary to remove the influence of the neck movement and the masseter muscle, but in the present invention, signals of two or more channels obtained using a plurality of electrodes are used. By using independent component analysis and neural network, etc., facial expressions and actions (for example, laughter, fear, neutral (true face), anger, crying, yawning, etc.) and the degree of facial expressions and actions (for example, It is possible to determine the degree of laughing, the size of the yawning mouth, etc.) and present it by the presenting means.

また、本発明は、上述した顔の表情や動作を所定期間蓄積しておき、その蓄積データを統計的に利用することにより、例えば本装置の装着者毎に、一日や一週間、一ヶ月等の所定期間内にどの程度笑っているか等、その装着者も意識していない表情の変化を容易且つ正確に取得することができる。   In addition, the present invention accumulates the facial expressions and actions described above for a predetermined period and statistically uses the accumulated data, for example, for each wearer of the apparatus, for example, one day, one week, one month. It is possible to easily and accurately acquire a change in facial expression that the wearer is not aware of, such as how much he / she laughs within a predetermined period.

また、本発明では、顔面内部の信号を光や音により対人等に明確に提示させるために、例えば発光素子等による光表示機能やスピーカ等による音出力機能を有することにより、生体電位信号から取得される情報から判断される顔の表情や動作の種類によって、光表示や音出力を行うことで、外見上、顔の表情に変化が見られないような被験者であっても、その表情の内容を明確に把握することができる。   In addition, in the present invention, in order to clearly present a signal inside the face to the person or the like by light or sound, for example, by having a light display function by a light emitting element or the like and a sound output function by a speaker or the like, it is obtained from a biopotential signal Depending on the facial expression and the type of action determined from the information to be displayed, the contents of the facial expression can be obtained even if the subject does not appear to change the facial expression by optical display or sound output. Can be clearly understood.

更に、本発明は、例えば本発明を装着型装置として提供することで、装着者及び周囲の人間への即時且つ確実な視覚的・音響的フィードバックが可能となるため、安価な構成でユーザの利便性を向上させた顔面動作推定装置を提供することができる。   Furthermore, the present invention, for example, by providing the present invention as a wearable device, enables immediate and reliable visual and acoustic feedback to the wearer and the surrounding person, so that it is convenient for the user with an inexpensive configuration. It is possible to provide a facial motion estimation device with improved performance.

以下に、本発明における顔面動作推定装置及び顔面動作推定方法を好適に実施した形態について、図面を用いて説明する。   Hereinafter, embodiments in which the facial motion estimation device and the facial motion estimation method according to the present invention are suitably implemented will be described with reference to the drawings.

<本発明の動作手法>
まず、本発明における動作手法について説明する。本発明は、複数の電極から得られる生体電位信号からリアルタイムの感情的な表情又は動作を識別して、連続的にその内容を提示するように構成された装着型装置を用いた顔面動作推定手法である。
<Operation method of the present invention>
First, an operation method according to the present invention will be described. The present invention relates to a facial motion estimation method using a wearable device configured to identify a real-time emotional facial expression or motion from biopotential signals obtained from a plurality of electrodes and continuously present its contents. It is.

そのため、本発明では、生体電位信号を取得する電極を、顔面神経頬筋枝上であるこめかみ付近の所定の位置に配置する。なお、電極は、少なくとも左右合計で2チャンネル(1チャンネルは電極2個)以上が取得できるように複数の電極を用いる。なお、取得する信号は、左右2チャンネルで合計4チャンネルが好ましい。これにより、笑いの有無のみならず、笑顔の度合い、怒り顔等の他の表情やあくび等の動作の認識も可能となる。   Therefore, in the present invention, an electrode for acquiring a bioelectric potential signal is arranged at a predetermined position near the temple on the facial nerve cheek muscle branch. Note that a plurality of electrodes are used so that at least two channels (one channel is two electrodes) or more can be acquired in total on the left and right. The signals to be acquired are preferably two channels on the left and right, and a total of four channels. This makes it possible to recognize not only the presence / absence of laughter, but also the degree of smile, other facial expressions such as an angry face, and actions such as yawning.

図1は、電極の配置位置を説明するための図である。図1(a)に示すように、装着者10の顔面内部は、複数の筋肉により表情が形成されており、その中でも特に人間の表情に寄与しているとされる顔輪筋11、小頬骨筋12、大頬骨筋13、及び笑筋14のうち、1つ以上の筋肉の動きから生じる生体電位信号を取得する。なお、取得される生体電位信号は、2つ以上が好ましい。これにより、1つの筋肉の動きに依存しすぎずに、表情を形成するために必要な複数の筋肉への信号を効率的且つ高い時間精度で取得することができる。   FIG. 1 is a diagram for explaining the arrangement positions of the electrodes. As shown in FIG. 1 (a), a facial expression of the wearer 10 is formed by a plurality of muscles, and among them, the ring muscle 11 and the small cheekbone, which are considered to contribute particularly to human facial expressions. A bioelectric potential signal generated from the movement of one or more muscles among the muscle 12, the great zygomatic muscle 13, and the laughing muscle 14 is acquired. Note that two or more biopotential signals to be acquired are preferable. As a result, it is possible to efficiently and highly accurately acquire signals to a plurality of muscles necessary for forming a facial expression without depending on the movement of one muscle.

また、本実施形態では、複数の電極の設置する位置は、装着者10の顔面において、表情生成が可能な限り変位が少ない場所として選定し、且つ表情推定が可能な生体電位信号を取得できる部位として選定する。つまり、本実施形態では、図1(b)に示すように、こめかみ付近の所定領域15に複数の電極16を配置する。   Further, in the present embodiment, the position where the plurality of electrodes are installed is selected as a place on the face of the wearer 10 with as little displacement as possible to generate a facial expression, and a part capable of acquiring a bioelectric potential signal capable of estimating the facial expression Select as That is, in this embodiment, as shown in FIG. 1B, a plurality of electrodes 16 are arranged in a predetermined region 15 near the temple.

生体電位信号は、1対の電極間、すなわち2つの電極で取得した信号間の電位差により取得される。したがって、図1(b)に示ように電極16−1と16−2とで1つの生体電位信号取得部(1チャンネル)を構成し、電極16−3と16−4とで1つの生体電位信号取得部(1チャンネル)を構成する。なお、本実施形態では、生体電位信号取得部は、左右それぞれに2つずつ、左右両側で合計4チャンネルの生体電位信号を取得する。なお、本発明における電極の設置個数については、これに限定されるわけではない。   A biopotential signal is acquired by a potential difference between a pair of electrodes, that is, a signal acquired by two electrodes. Therefore, as shown in FIG. 1B, the electrodes 16-1 and 16-2 constitute one biopotential signal acquisition unit (one channel), and the electrodes 16-3 and 16-4 constitute one biopotential. A signal acquisition unit (one channel) is configured. In the present embodiment, the biopotential signal acquisition unit acquires biopotential signals of a total of 4 channels on both the left and right sides, two on each of the left and right sides. The number of electrodes installed in the present invention is not limited to this.

上述した図1(b)に示すように、電極16の位置は、こめかみ付近に設定されることにより、対面している人には、違和感を与えず、電極により装着者10の表情を阻害することなく、顔輪筋11、小頬骨筋12、大頬骨筋13、及び笑筋14から皮膚等を通して伝わる波紋状の電極信号の混合信号を取得することができる。   As shown in FIG. 1B described above, the position of the electrode 16 is set in the vicinity of the temple, so that the person facing the person does not feel strange and the expression of the wearer 10 is inhibited by the electrode. Without this, it is possible to obtain a mixed signal of ripple-shaped electrode signals transmitted from the face ring muscle 11, the small zygomatic muscle 12, the large zygomatic muscle 13, and the laughing muscle 14 through the skin or the like.

また、本実施形態では、配置した複数の電極から得られる電極の位置と信号の位相差等により、取得した信号が何処の筋肉の信号であるかを特定することができ、直接的にノイズ等の影響を受けずに顔輪筋11、小頬骨筋12、大頬骨筋13、及び笑筋14による表情を効果的に推定するための混合信号を取得することができる。   Further, in the present embodiment, the position of the electrode obtained from a plurality of arranged electrodes and the phase difference of the signal can specify the muscle signal where the acquired signal is directly, such as noise. It is possible to acquire a mixed signal for effectively estimating the facial expression of the facial ring muscle 11, the small zygomatic muscle 12, the large zygomatic muscle 13, and the laughing muscle 14 without being influenced by the above.

なお、本実施形態における生体電位信号のチャンネル取得数は複数であればよく、本発明においては特に制限されるものではないが、多すぎると装着時に顔面に邪魔になるため、2〜8チャンネル程度でよく、特に4チャンネルが好ましい。   Note that the number of biopotential signal channels acquired in the present embodiment may be plural, and is not particularly limited in the present invention. However, if the number is too large, it may interfere with the face when worn, so about 2 to 8 channels. 4 channels are particularly preferable.

また、上述の顔面に邪魔にならない配置を実現するという観点から、1つの電極は、例えば直径が約2〜10mm程度が好ましく、対を形成する電極間の距離は、例えば約20mm程度が好ましい。また、各電極16−1〜16−4は、顔面に対して縦に略直線的に配置されることが好ましいが、本発明においては特に制限されるものではない。   Further, from the viewpoint of realizing an arrangement that does not interfere with the face described above, one electrode preferably has a diameter of about 2 to 10 mm, for example, and a distance between the electrodes forming the pair is preferably about 20 mm, for example. Moreover, although it is preferable that each electrode 16-1 to 16-4 is arrange | positioned substantially linearly vertically with respect to the face, in this invention, it does not restrict | limit in particular.

<顔面動作推定装置の外部形態>
次に、本実施形態における顔面動作推定装置の外部形態(インターフェース)の例について説明する。図2は、本実施形態における顔面動作推定装置の外部形態の一例を示す図である。ここで、図2(A)は、装着型の顔面動作推定装置20及び装着者10による装着の様子を説明するための図であり、図2(B)は、顔面動作推定装置20の端部の形成の様子を示す図である。
<External form of facial motion estimation device>
Next, an example of the external form (interface) of the facial motion estimation apparatus in the present embodiment will be described. FIG. 2 is a diagram illustrating an example of an external form of the facial motion estimation device according to the present embodiment. Here, FIG. 2A is a diagram for explaining a state of wearing by the wearable facial motion estimation device 20 and the wearer 10, and FIG. 2B is an end portion of the facial motion estimation device 20. It is a figure which shows the mode of formation of.

図2に示す顔面動作推定装置20は、図2(A)−(a)〜(c)に示すように、後頭部側が円弧形状になっており、左右の端部が左右のこめかみ付近に対して上述した電極16の位置に設置されるように、顔面動作推定装置20の端部が縦長に形成され、そこに複数の電極16が対となって設けられている。   As shown in FIGS. 2A to 2C, the facial motion estimation apparatus 20 shown in FIG. 2 has an arcuate shape on the back of the head, and the left and right end portions are near the left and right temples. The end of the facial motion estimation device 20 is formed vertically long so as to be installed at the position of the electrode 16 described above, and a plurality of electrodes 16 are provided in pairs there.

つまり、図2(A)−(a)、図2(B)−(a)に示すように、こめかみ付近に装着される顔面動作推定装置20の端部の内側には、上述した電極16が設けられている。なお、これらの電極は、左右の一方だけでもよく、両方でもよい。左右一方の場合には、例えば、左右のどちらかが麻痺している患者等に対してリハビリを行う場合等にその麻痺している側だけに電極を設置して、片側の信号を受信するような場合に用いることができる。   That is, as shown in FIGS. 2 (A)-(a) and 2 (B)-(a), the electrode 16 described above is disposed on the inner side of the end portion of the facial motion estimation device 20 mounted near the temple. Is provided. These electrodes may be only one of the left and right, or both. In the case of one of the left and right, for example, when rehabilitating a patient who is paralyzed on either the left or right side, an electrode is installed only on the paralyzed side so that a signal on one side is received. It can be used in any case.

また、図2(A)−(a)、図2(B)−(b)に示すように、顔面動作推定装置20の端部の外側には、LED等の複数の発光素子等からなる光提示手段21と、音声出力機能であるスピーカ等の音提示手段22とが構成されている。   Further, as shown in FIGS. 2 (A)-(a) and 2 (B)-(b), outside the end portion of the facial motion estimation device 20, light composed of a plurality of light emitting elements such as LEDs. The presenting means 21 and the sound presenting means 22 such as a speaker which is a voice output function are configured.

なお、光提示手段21は、複数の異なる色或いは同一の色、又はこれらの組合せからなる、LED(図2(B)−(b)では、LED21−1,21−2)を設けることで、例えば、電極16からの生体電位信号により解析した表情や動作の内容やその度合いに応じて、予め設定された条件に基づいて、点灯させる光の数や位置を変えたり、点滅させたり、点滅される間隔を変えて提示することができる。また、音提示手段22も同様に、解析した表情や動作の内容やその度合いに応じて音の大きさや音の種類、音声等を変えて出力することができる。   The light presenting means 21 is provided with LEDs (LEDs 21-1, 21-2 in FIGS. 2 (B)-(b)) made of a plurality of different colors or the same color, or a combination thereof. For example, the number or position of light to be lit is changed, blinked, or blinked based on preset conditions according to the facial expression analyzed by the bioelectric potential signal from the electrode 16, the content of the action, and the degree thereof. Can be presented at different intervals. Similarly, the sound presenting means 22 can output the sound by changing the loudness, sound type, voice, etc. according to the analyzed facial expression, the content of the action, and its degree.

これにより、例えば、顔面機能が低下又は停止した患者や老人等に対して顔面動作推定装置20を装着することで、電極16からの生体電位信号を解析して得られた表情や動作の内容やその度合いを光や音に応じて、他の人に容易に伝えることができる。   Thereby, for example, by attaching the facial motion estimation device 20 to a patient or an elderly person whose facial function is reduced or stopped, the facial expression obtained by analyzing the biopotential signal from the electrode 16, the content of the motion, The degree can be easily transmitted to other people according to light and sound.

上述したように、本実施形態における顔面動作推定装置20は、電極16の位置を配慮し、更に可能な限り表情を阻害しない形式で装着型を可能とした。   As described above, the facial motion estimation device 20 according to the present embodiment allows the wearing type in a form that does not disturb the facial expression as much as possible in consideration of the position of the electrode 16.

なお、顔面動作推定装置20を装着する際には、顔の側面との接触面にジェル状の粘着剤等を用いて所定位置に固定されることが好ましい。また、顔面動作推定装置20は、装着者10毎の頭部の形が異なるため、可撓性のある材質からなり、例えば樹脂等の材質からなる。また、本実施形態では、頭部の大きさに合わせて円弧部分の長さが調整できるような、一般的な調整機構を設けていてもよい。   When the facial motion estimation device 20 is worn, it is preferable that the contact surface with the side surface of the face is fixed at a predetermined position using a gel-like adhesive or the like. Further, the facial motion estimation device 20 is made of a flexible material, for example, a material such as resin, because the shape of the head for each wearer 10 is different. In the present embodiment, a general adjustment mechanism may be provided so that the length of the arc portion can be adjusted according to the size of the head.

<変形例>
ここで、図3は、顔面動作推定装置の変形例を説明するための図である。変形例としては、例えば、図3(A)に示すように、顔面動作推定装置30−1が装着者の耳全体を覆うように耳の凹凸の形状に係合させたり、耳の付け根にフックさせて係止部をフックさせることで固定して装着する。また、顔面動作推定装置30−1は、固定された状態でこめかみ付近に設置される電極を複数設けており、更にLED等の複数の発光素子からなる光提示手段31−1や、スピーカ等の音提示手段32−1が顔の正面側(対面者に見えるような位置)に配置される。これにより、対面者や鏡等から提示されている内容を容易に把握することができる。
<Modification>
Here, FIG. 3 is a diagram for explaining a modification of the facial motion estimation apparatus. As a modification, for example, as shown in FIG. 3A, the facial motion estimation device 30-1 is engaged with the uneven shape of the ear so as to cover the entire ear of the wearer, or hooked to the base of the ear. Then, it is fixed and attached by hooking the locking part. In addition, the facial motion estimation device 30-1 is provided with a plurality of electrodes that are installed in the vicinity of the temple in a fixed state. Further, the facial motion estimation device 30-1 includes a light presentation unit 31-1 including a plurality of light emitting elements such as LEDs, a speaker, and the like. The sound presenting means 32-1 is arranged on the front side of the face (a position where it can be seen by the person facing you). Thereby, it is possible to easily grasp the contents presented from the person to be faced or the mirror.

また、図3(B)の顔面動作推定装置30−2も上述した顔面動作推定装置30−1と同様に耳に係止されており、上述した複数の発光素子からなる光提示手段31−1や、スピーカ等の音提示手段32−1が側面に配置されている。また、顔面動作推定装置30−2は、こめかみ付近に複数の電極16が設けられ、本実施形態における処理が行われる。これにより、対面していない第三者からも提示された表情の内容を確認することができる。   Further, the facial motion estimation device 30-2 in FIG. 3B is also locked to the ear in the same manner as the facial motion estimation device 30-1 described above, and the light presentation means 31-1 including the plurality of light emitting elements described above. Or sound presenting means 32-1 such as a speaker is arranged on the side surface. In addition, the facial motion estimation device 30-2 is provided with a plurality of electrodes 16 in the vicinity of the temple, and the processing in this embodiment is performed. Thereby, the content of the facial expression presented from the third party who is not facing can be confirmed.

なお、図3(A),(B)に示された顔面動作推定装置30−1,30−2は、それぞれ組み合わせて光提示手段31又は音提示手段32の何れか又は両方を1又は複数個所に設置することができる。また、
また、本実施形態における顔面動作推定装置は、例えば内部に太陽電池や充電型のリチウム電池等が内蔵されており、そこから供給される電力に基づいて各処理が実行される。
Note that the facial motion estimation devices 30-1 and 30-2 shown in FIGS. 3 (A) and 3 (B) are combined with one or more of the light presentation means 31 and / or the sound presentation means 32, respectively. Can be installed. Also,
In addition, the facial motion estimation device according to the present embodiment incorporates, for example, a solar battery, a rechargeable lithium battery, and the like, and each process is executed based on electric power supplied therefrom.

<顔面動作推定装置:機能構成例>
次に、本実施形態における顔面動作推定装置の機能構成例について図を用いて説明する。図4は、本実施形態における顔面動作推定装置の機能構成の一例を示す図である。なお、以下の説明では、顔面動作推定装置の一例として、図2に示す顔面動作推定装置20を用いる。
<Facial motion estimation device: functional configuration example>
Next, an example of a functional configuration of the facial motion estimation device in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of a functional configuration of the facial motion estimation device according to the present embodiment. In the following description, the facial motion estimation device 20 shown in FIG. 2 is used as an example of the facial motion estimation device.

図4に示す顔面動作推定装置20は、電極信号入力手段41と、蓄積手段42と、フィルタ手段43と、信号処理手段44と、機械学習解析手段45と、表情推定手段46と、提示手段47と、送受信手段48と、制御手段49とを有するよう構成されている。なお、提示手段47は、具体的には光提示手段47−1と音提示手段47−2とを含んでいる。   The facial motion estimation device 20 shown in FIG. 4 includes an electrode signal input unit 41, a storage unit 42, a filter unit 43, a signal processing unit 44, a machine learning analysis unit 45, a facial expression estimation unit 46, and a presentation unit 47. And a transmission / reception means 48 and a control means 49. The presenting means 47 specifically includes a light presenting means 47-1 and a sound presenting means 47-2.

電極信号入力手段41は、顔の左右又は一方の側面にある複数の電極から、各電極の信号を受信する。なお、電極とは、例えば電位差検出電極等を示し、上述したようにそれぞれ一対の電極によって構成される。なお、本実施形態における一対の電極のそれぞれには、単数の電極又は複数の電極の両者が含まれる。すなわち、別個独立して設けられた電極であっても電気的に等価に扱うことにより、一対の電極のそれぞれを構成する場合も含まれる。   The electrode signal input means 41 receives a signal of each electrode from a plurality of electrodes on the left and right sides or one side of the face. In addition, an electrode shows an electrical potential difference detection electrode etc., for example, and is comprised by a pair of electrodes as mentioned above. Note that each of the pair of electrodes in the present embodiment includes both a single electrode or a plurality of electrodes. That is, the case where each of a pair of electrodes is constituted by handling them electrically even if they are provided separately and independently is included.

蓄積手段42は、電極信号入力手段41により得られる電極からの信号(生体電位信号)を時間情報と共に蓄積しておき、機械学習解析手段45等を用いて経時的又は統計的な解析を行うことにより表情や動作のパターンや度合い等を推測して提示する。   The accumulating unit 42 accumulates a signal (biopotential signal) from the electrode obtained by the electrode signal input unit 41 together with time information, and performs a temporal or statistical analysis using the machine learning analysis unit 45 or the like. To guess and present the pattern and degree of facial expressions and actions.

なお、蓄積手段42は、フィルタ手段43により処理された結果や、信号処理手段33により信号処理された結果、機械学習解析手段45により解析された結果、光提示手段46により提示されている内容、送受信手段47により通信ネットワークを介して取得される他の外部装置から、本実施形態における実施において必要な各種情報等の蓄積を行う。また、蓄積手段42は、送受信手段47により取得される上述した各種情報等も蓄積する。更に、蓄積手段42は、必要に応じて蓄積されている各種データを読み出すことができる。   The storage means 42 is the result of processing by the filter means 43, the result of signal processing by the signal processing means 33, the result of analysis by the machine learning analysis means 45, the content presented by the light presentation means 46, Various kinds of information necessary for implementation in the present embodiment are accumulated from other external devices acquired by the transmission / reception means 47 via the communication network. The storage unit 42 also stores the above-described various information acquired by the transmission / reception unit 47. Furthermore, the storage means 42 can read out various data stored as required.

フィルタ手段43は、電極信号入力手段41や蓄積手段42から得られる生体電位信号に含まれるノイズ等を除去するため平滑化処理を行う。具体的には、フィルタ手段43は、取得した生体電位信号を用いてバンドパスフィルタ(BPF)や、ノッチフィルタ(BEF)等を行い、所定の帯域で信号のフィルタリングを行う。なお、上述した所定の帯域としては、例えば約5〜400Hz程度の帯域を利用する。   The filter means 43 performs a smoothing process to remove noise and the like contained in the biopotential signal obtained from the electrode signal input means 41 and the storage means 42. Specifically, the filter means 43 performs a band pass filter (BPF), a notch filter (BEF), etc. using the acquired bioelectric potential signal, and performs signal filtering in a predetermined band. For example, a band of about 5 to 400 Hz is used as the predetermined band.

信号処理手段44は、フィルタ手段43から得られる信号に対して独立成分分析(Independent Component Analysys;ICA)を用いて、有意信号を抽出する。つまり、信号処理手段44は、フィルタ手段43により得られる信号に対して、予め設定される信号の独立性を仮定することにより分別する。なお、信号処理手段44における独立成分分析の詳細については後述する。   The signal processing unit 44 extracts a significant signal from the signal obtained from the filter unit 43 by using independent component analysis (ICA). That is, the signal processing unit 44 separates the signal obtained by the filter unit 43 by assuming independence of a preset signal. Details of the independent component analysis in the signal processing means 44 will be described later.

機械学習解析手段45は、前記信号処理手段44により得られる有意信号に基づいて、機械学習を行う。具体的には、機械学習解析手段45は、機械学習を用いて上述した有意信号を弁別し、目的とする表情推定が可能な信号に変換する。なお、機械学習解析手段45は、上述した解析を蓄積手段42により時間情報と共に蓄積される生体電位信号に基づいて統計的に解析を行うことができる。   The machine learning analysis unit 45 performs machine learning based on the significant signal obtained by the signal processing unit 44. Specifically, the machine learning analysis unit 45 discriminates the above-described significant signal using machine learning and converts it into a signal capable of estimating a desired facial expression. The machine learning analysis unit 45 can statistically analyze the above-described analysis based on the biopotential signal stored together with the time information by the storage unit 42.

ここで、機械学習解析手段45における機械学習の例としては、例えば、ニューロンネットワーク(Artificial Neural Network;ANN)を用いることができる。なお、本実施形態では、上述したANN以外であっても、例えば重回帰分析やサポートベクターマシン等の手法により機械学習を行うことができる。なお、機械学習解析手段45における詳細な説明は後述する。   Here, as an example of machine learning in the machine learning analysis unit 45, for example, a neuron network (Artificial Neural Network; ANN) can be used. In the present embodiment, machine learning can be performed by a technique such as multiple regression analysis or a support vector machine, for example, other than the ANN described above. A detailed description of the machine learning analysis unit 45 will be described later.

表情推定手段46は、機械学習解析手段45により得られる表情推定が可能な信号に基づいて装着者10の表情や動作の推定を行う。   The facial expression estimation means 46 estimates the facial expression and motion of the wearer 10 based on the signal that can be estimated by the machine learning analysis means 45.

具体的には、表情推定手段46は、予め設定された信号の振幅や周波数、波形のパターン等に応じて、予め設定された複数の表情や動作、及びそれらの度合いに関する情報のうち、どれに該当するかを選択して推定を行う。なお、本実施形態では、信号の振幅や周波数、波形のパターンと複数の表情や動作、度合いをそれぞれ対応テーブルとして生成して蓄積手段42等に蓄積しておき、表情推定手段46がその対応テーブルを用いて対応するデータの内容を容易に推定することができる。   Specifically, the facial expression estimation means 46 determines which of a plurality of preset facial expressions and actions, and information about their degree, according to the preset amplitude and frequency of the signal, waveform pattern, etc. Select if applicable and make an estimate. In this embodiment, the signal amplitude, frequency, waveform pattern and a plurality of facial expressions, movements, and degrees are generated as correspondence tables and stored in the storage means 42, etc. The content of the corresponding data can be easily estimated using.

これにより、表情推定手段46は、例えば、「笑い顔」等、1つの表情に対しても、その度合いを推定することができ、詳細な表情認識を実現することができる。   Thus, the facial expression estimation means 46 can estimate the degree of a single facial expression such as “laughing face”, for example, and can realize detailed facial expression recognition.

更に、表情推定手段46は、装着者毎に最初に顔面動作推定装置20を装着してもらった後に、所定時間(例えば、2〜4秒程度)で笑顔や怒っている顔等の各種表情やあくび等の動作を意図的に行ってもらい、そのときに得られる各電極16からの生体電位信号を用いて上述のテーブル(基本データ)を更新することもできる。これにより、装着者毎に笑い方が異なる場合でも高精度に表情認識を行うことができる。なお、本実施形態においては、上述した内容の他に、例えば口腔内の咀嚼運動の認識等についても、上述した手法と同様な手法を用いて認識処理を行うことができる。   Furthermore, the facial expression estimation means 46 first wears the facial motion estimation device 20 for each wearer, and then performs various facial expressions such as a smile or an angry face in a predetermined time (for example, about 2 to 4 seconds). The above-described table (basic data) can be updated by intentionally performing an operation such as yawning and using the biopotential signal from each electrode 16 obtained at that time. Accordingly, facial expression recognition can be performed with high accuracy even when the laughing method differs for each wearer. In the present embodiment, in addition to the above-described contents, for example, the recognition process for the intra-oral masticatory movement can be performed using a technique similar to the technique described above.

提示手段47は、表情推定手段46により得られる表情推定結果に基づいて、所定の提示を行う。具体的には、提示手段47は、表情推定結果に基づいて光提示手段47−1により、光により外部に提示を行う。なお、光提示手段47−1としては、例えば、同色又は異色の複数のLEDのうち、表情推定手段46により推定された表情に対応する色、又は、複数のLEDのうち、1又は複数のLEDを表示させたり、所定時間間隔で点滅させる等といった処理を行う。また、光提示手段47−1は、表情や動作、及びその度合いに応じて点滅間隔を早くしたり、遅くしたりすることもできる。   The presentation unit 47 performs a predetermined presentation based on the facial expression estimation result obtained by the facial expression estimation unit 46. Specifically, the presenting means 47 presents the light to the outside by the light presenting means 47-1 based on the facial expression estimation result. In addition, as the light presentation means 47-1, the color corresponding to the facial expression estimated by the facial expression estimation means 46 among a plurality of LEDs of the same color or different colors, or one or a plurality of LEDs among the plurality of LEDs, for example. Is displayed or blinked at predetermined time intervals. Moreover, the light presentation means 47-1 can make the blinking interval faster or slower depending on the facial expression, action, and degree thereof.

これにより、例えば、大声で大きく口を上げて笑っている場合には、早く点滅させ、微笑む程度であれば、点灯させる等といった提示も行うことができる。   As a result, for example, if the user is laughing loudly with a loud mouth, it can be flashed quickly, and if it is about smiling, it can be presented.

更に、提示手段47は、表情推定結果に基づいて、音提示手段47−1により推定された表情に対応する音を提示することができる。なお、この音は、人の声でもよい。つまり、笑っている場合には、笑い声が音声出力されたりすることもでき、また度合いに応じて笑い声の大きさも変更することができ、音の種類も予め設定された音声データにより「うふふ・・・」や「アハハ・・・」等を度合いに対応させて出力することができる。また、提示手段47は、光と音声の両方を組み合わせて同時に提示されることもできる。   Furthermore, the presentation unit 47 can present a sound corresponding to the facial expression estimated by the sound presentation unit 47-1 based on the facial expression estimation result. This sound may be a human voice. In other words, when you are laughing, you can output a laughing voice, and you can change the size of the laughing voice according to the degree. "", "Ahaha ...", etc. can be output corresponding to the degree. Moreover, the presentation means 47 can also present simultaneously combining both light and an audio | voice.

送受信手段48は、有線又は無線を用いて蓄積手段42により蓄積されたデータを通信ネットワーク等により接続された外部装置等に送信したり、本実施形態における必要な各種データを入力したり、各種実行結果を外部装置に出力することができる。   The transmission / reception means 48 transmits the data stored by the storage means 42 using wired or wireless to an external device connected via a communication network or the like, inputs various necessary data in the present embodiment, and performs various executions. The result can be output to an external device.

制御手段49は、顔面動作推定装置20の各構成部全体の制御を行う。具体的には、制御手段49は、例えば本実施形態における顔面動作提示を実現するために、電極信号入力処理や、フィルタ処理、信号処理、機械学習解析処理、表情推定処理、提示処理、送受信処理等の各制御を行う。   The control means 49 controls the entire components of the facial motion estimation device 20. Specifically, for example, the control unit 49 performs electrode signal input processing, filter processing, signal processing, machine learning analysis processing, facial expression estimation processing, presentation processing, transmission / reception processing to realize facial motion presentation in the present embodiment. Each control is performed.

<信号処理手段44における処理内容>
次に、上述した信号処理手段44における具体的な処理内容について説明する。図5は、顔面動作推定装置における信号処理の概要を説明するための図である。図5に示すように、顔面動作推定装置20は、装着者10の顔の側面に設置された電極16から生体電位信号(BES)を取得し、取得した信号に対してフィルタ手段43による信号の平滑化処理(フィルタリング)を行い、信号処理手段44によって処理を行い、その内容を提示手段47で予め設定された手法に基づいて光信号や音信号により提示することになる。
<Processing contents in signal processing means 44>
Next, specific processing contents in the signal processing means 44 described above will be described. FIG. 5 is a diagram for explaining an outline of signal processing in the facial motion estimation apparatus. As shown in FIG. 5, the facial motion estimation device 20 acquires a biopotential signal (BES) from the electrode 16 installed on the side of the face of the wearer 10, and outputs a signal from the filter means 43 to the acquired signal. Smoothing processing (filtering) is performed, processing is performed by the signal processing unit 44, and the content is presented as an optical signal or sound signal based on a method preset by the presentation unit 47.

図6は、信号処理モジュールの一例を示す図である。図6では、顔の表情を分類するために、顔の側面に設置された複数の電極から生体電位信号(BES)を取得する。その複数の電極から取得される複数の信号(Mixed Signal)から信号処理手段44としての独立成分分析(ICA)を使用して独立成分の分析を行う。   FIG. 6 is a diagram illustrating an example of the signal processing module. In FIG. 6, in order to classify facial expressions, biopotential signals (BES) are obtained from a plurality of electrodes installed on the side of the face. An independent component is analyzed using independent component analysis (ICA) as signal processing means 44 from a plurality of signals (Mixed Signal) acquired from the plurality of electrodes.

なお、独立成分分析を行った後、例えば、図6に示すようにフィルタ手段43を用いてニューロンネットワーク(ANN)における処理が高精度に行われるように入力信号に対して平滑化処理(フィルタリング)を行う。つまり、フィルタ手段43は、独立成分(IC)を分離するために使用される。   After performing the independent component analysis, for example, smoothing processing (filtering) is performed on the input signal so that processing in the neuron network (ANN) is performed with high accuracy using the filter unit 43 as shown in FIG. I do. That is, the filter means 43 is used to separate independent components (IC).

また、独立成分分析された結果は、適切な時間窓(例えば、約50〜200ms程度)を経て図6に示すように機械学習解析手段45であるANNによって学習され、更に表情や動作の内容(Pattern)や度合いに分類されて出力される。   Further, the result of the independent component analysis is learned by the ANN which is the machine learning analysis means 45 as shown in FIG. 6 through an appropriate time window (for example, about 50 to 200 ms), and further, the expression and the content of the action ( Pattern) and degree are output.

つまり、本実施形態においては、生体電位信号(BES)は、ろ過された顔の側面に複数の電極を使用して得られ、上述した信号処理モジュールによって表情推定が実行される。   That is, in this embodiment, a biopotential signal (BES) is obtained by using a plurality of electrodes on the side of the filtered face, and facial expression estimation is performed by the signal processing module described above.

<独立成分分析の内容について>
次に、上述した独立成分分析(ICA)の内容について説明する。図7は、ICAのブロックダイアグラムの一例を示す図である。図7に示すように、例えば、未知の環境(Unknown environment)で得られる値s(t),s(t),・・・,s(t)については、線形混合変換手段(Linear mixer)Aにより、サンプルデータx(t),x(t),・・・,x(t)が生成され、更に、生成されたサンプルデータXに対応する線形混合逆変換手段(Linear demixer)Wが生成されて独立成分(IC)であるy(t), y(t),・・・, y(t)が生成される。
<About the contents of independent component analysis>
Next, the contents of the independent component analysis (ICA) described above will be described. FIG. 7 is a diagram illustrating an example of a block diagram of ICA. As shown in FIG. 7, for example, values s 1 (t), s 2 (t),..., S m (t) obtained in an unknown environment are linearly mixed conversion means (Linear). (mixer) A generates sample data x 1 (t), x 2 (t),..., x m (t), and further, linear mixed inverse transformation means (Linear) corresponding to the generated sample data X demixer) W is generated to generate independent components (IC) y 1 (t), y 2 (t),..., y m (t).

<表情推定における基本データ生成例>
ここで、本実施形態では、上述したように装着者毎に最初に顔面動作推定装置20を装着してもらった後に、所定時間(例えば、2〜4秒程度)で笑顔や怒っている顔等の各種表情やあくび等の動作を意図的に行ってもらい、そのときに得られる各電極16からの生体電位信号を用いて基本データを生成することもできる。
<Example of basic data generation in facial expression estimation>
Here, in the present embodiment, as described above, the face motion estimation device 20 is first worn for each wearer, and then a smiling face, an angry face, etc. in a predetermined time (for example, about 2 to 4 seconds). It is also possible to intentionally perform various facial expressions, yawning and the like, and to generate basic data using bioelectric potential signals from the respective electrodes 16 obtained at that time.

図8は、本実施形態における表情推定における基本データの生成例を示す図である。なお、図8では、表情推定の一例として、本実施形態におけるリアルタイムに微笑みを検知する手法について説明する。   FIG. 8 is a diagram illustrating an example of generation of basic data in facial expression estimation in the present embodiment. In FIG. 8, as an example of facial expression estimation, a method for detecting a smile in real time in the present embodiment will be described.

リアルタイムな微笑み検知は、ICA及び学習されたANNを使用し、且つ、顔面動作推定装置20に表示される機能が実装されている。   Real-time smile detection uses ICA and learned ANN, and a function displayed on the facial motion estimation device 20 is implemented.

なお、顔面動作推定装置20は、予め設定された顔の側面の所定領域から生体電位信号として例えば筋電位信号(EMG)をサンプリングし、それらを所定のブロックとして分析する。なお、サンプリングは、例えば、0.5秒毎等に行うのが適切であるが、本発明においては、これに限定されるものではない。   The facial motion estimation device 20 samples, for example, myoelectric potential signals (EMG) as bioelectric potential signals from a predetermined region on the side of the face set in advance, and analyzes them as predetermined blocks. The sampling is appropriately performed, for example, every 0.5 seconds, but is not limited to this in the present invention.

また、本実施形態における即時性(リアルタイム)の認識については、それが最初にICAマトリックスの生成及びANNの学習をしておくことで、顔面動作推定装置における推定を装着者毎の表情や動作の違いに関係なく行うことができる。   In addition, the recognition of immediacy (real-time) in the present embodiment is performed by first generating the ICA matrix and learning the ANN, so that the estimation in the facial motion estimation device can be performed for the expression and motion of each wearer. It can be done regardless of the difference.

ここで、顔面動作推定装置20に入力されるトレーニング信号は、例えば、所定の表現「中立(ニュートラル)」、「噛む」、「噛んで微笑む」、「微笑む」等を行うことができる。   Here, the training signal input to the facial motion estimation device 20 can perform, for example, predetermined expressions “neutral (neutral)”, “biting”, “biting and smiling”, “smile”, and the like.

本実施形態では、これらのデータを生成しておくことで、リアルタイムで正確な感情ディスプレイ装置としての顔面動作推定装置20を提供することができる。なお、顔の表現や動作は、上述に限定されるものではなく、例えば「眉をひそめる」や「眉をしかめる」、「怒る」、「あくび」、更に「口腔内の咀嚼運動の認識」等も含めることができ、例えばトレーニングセットの一部を利用することもできる。   In the present embodiment, by generating these data, the facial motion estimation device 20 as an accurate emotion display device in real time can be provided. Expressions and actions of the face are not limited to those described above. For example, “hide the eyebrows”, “grind the eyebrows”, “get angry”, “yawn”, and “recognize masticatory movements in the oral cavity”, etc. For example, a part of the training set can be used.

<実験結果について>
次に、本実施形態を適用した実験結果について説明する。図9〜図11は、本実施形態を適用した実験結果の一例を示す図(その1)〜(その3)である。
<Experimental results>
Next, the experimental results to which this embodiment is applied will be described. 9 to 11 are diagrams (part 1) to (part 3) illustrating examples of experimental results to which the present embodiment is applied.

本実験では、2つの主題上の顔の側面から電極を用いて生体電位信号を取得する。ここで、実験の中で使用される信号のサンプリング周波数は、約1024Hzであるが、本実施形態では約800〜1200Hzであればよい。また、本実験では、合計16秒(4種類の表情があるとして各表情が約4秒)がトレーニング及びANNの両方をテストするために使用される。また、表情推定のためにトレーニングされる表情は、例えば、「中立(ナチュラル)」、「噛む」、「噛み微笑む」、又は「微笑む」とした。   In this experiment, biopotential signals are acquired using electrodes from the sides of the face on two subjects. Here, the sampling frequency of the signal used in the experiment is about 1024 Hz, but may be about 800 to 1200 Hz in the present embodiment. In this experiment, a total of 16 seconds (each facial expression is about 4 seconds if there are 4 types of facial expressions) is used to test both training and ANN. The facial expressions trained for facial expression estimation are, for example, “neutral (natural)”, “biting”, “biting smile”, or “smile”.

まず、図9では、「笑い」表情に対する実験結果を示している。自身のトレーニングデータセット(Training set)、テストデータセット(Test set)(トレーニング時に利用したデータを除いたデータ)を利用した場合の認識率を、例えば被験者1(Subject1)、被験者2(Subject2)のそれぞれに示したものである。本実施形態を提供すれば、表情の認識率を高い水準で取得することができることがわかる。   First, FIG. 9 shows the experimental results for the “laughing” facial expression. The recognition rate when using one's own training data set (Training set), test data set (Test set) (data excluding data used during training), for example, subject 1 (Subject 1), subject 2 (Subject 2) It is shown in each. If this embodiment is provided, it turns out that the recognition rate of a facial expression can be acquired at a high level.

また、図10は、「笑い」「怒り」「中立」の3表情について、上述した図9と同様にトレーニングデータセット、テストデータセットに対する認識結果の合計を示している。これらの3表情についても図9と略同様の結果が得られた。   Further, FIG. 10 shows the total recognition results for the training data set and the test data set for the three facial expressions of “laughter”, “anger”, and “neutral” as in FIG. 9 described above. The same results as those in FIG. 9 were obtained for these three facial expressions.

なお、被験者1で学習したデータを被験者2に適用した場合、またその逆の認識率が図9の右側に示した2つのグラフ(S.1 Trained ANN & S.2 Test set、S.2 Trained ANN & S.1 Test set)であり、何れも低い認識率になることを示している。つまり、図9に示すように、表情の認識において、事前に必要な機械学習は、上述した本人が実際に使用する装着型の顔面動作推定装置を用いてキャリブレーションを行うことが必要であり、本実施形態における顔面動作推定装置は、機械学習の容易に行うことができるため利便性もよく、顔の表情認識等には最適なデバイスであるということができる。   In addition, when the data learned by the subject 1 is applied to the subject 2, the opposite recognition rate is two graphs (S.1 Trained ANN & S.2 Test set, S.2 Trained) shown on the right side of FIG. ANN & S.1 Test set), both of which indicate low recognition rates. That is, as shown in FIG. 9, in the recognition of facial expressions, the machine learning necessary in advance needs to be calibrated using the wearable facial motion estimation device actually used by the person, The facial motion estimation apparatus according to the present embodiment is convenient because it can easily perform machine learning, and can be said to be an optimal device for facial expression recognition and the like.

ここで、本実施形態では、ニューロンネットワーク(ANN)のトレーニング後の推定精度を改善させるため、顔の生体電位信号に対する独立成分分析(ICA)が実装される。   Here, in this embodiment, in order to improve the estimation accuracy after training of the neuron network (ANN), independent component analysis (ICA) for the bioelectric potential signal of the face is implemented.

まず、ニューロンネットワーク(ANN)に対し、テストデータセットとして4つの生体電位信号を直接与えて、表情を推定すると、正解率はわずか76.52%であった。そこで、本実施形態における成分分析(IC)を用いて表情推定を行った結果、テストセット中のニューロンネットワーク(ANN)によって平均の中で96.95%の高精度な分類結果を得ることができた。   First, when four facial potential signals were directly given to the neuron network (ANN) as a test data set to estimate the facial expression, the correct answer rate was only 76.52%. Therefore, as a result of facial expression estimation using component analysis (IC) in the present embodiment, it is possible to obtain a highly accurate classification result of 96.95% in average by the neuron network (ANN) in the test set. It was.

更に、生体電位信号である筋電位信号(EMG)の個人毎の性質及び独立成分分析(ICA)を調査するために、別のデータで訓練されたニューロンネットワーク(ANN)に対して上述した実験を行ったが、生体電位信号を分類することはできたが、別のデータにおける表情の分類は非常によくなかった。   Furthermore, in order to investigate the individual properties and independent component analysis (ICA) of the myoelectric potential signal (EMG), which is a biopotential signal, the above-described experiment was conducted on a neuron network (ANN) trained with other data. Although we were able to classify biopotential signals, the classification of facial expressions in other data was not very good.

更に、例えば、「眉をしかめる(Frown)」と「微笑む(Smile)」、及び「そのどちらでもない(Neither)」の間で表情推定する場合にも図10に示すような結果が得られた。
また、本実施形態では、表情の分類のために分離することができた独立成分(独立したコンポーネント)の異なる数に関して、1つのサブジェクトに対して正確な分類の平均比率(%)を取得することができる。
Furthermore, for example, the results shown in FIG. 10 were obtained when facial expressions were estimated between “Frowning the eyebrows (Flow)”, “Smile” (Smile), and “Neither” (Neither). .
Further, in the present embodiment, an accurate average ratio (%) of classification for one subject is obtained for different numbers of independent components (independent components) that can be separated for classification of facial expressions. Can do.

ここで、図11に示すように、実験結果によれば、使用される独立成分(IC)の数が増える程、正確なデータが取得できる確率を増加させることができる。つまり、本実施形態によれば、ICの数を増加させることによって、分類の正確さを増加させることができる。なお、図11によれば、1つの場合はICの精度が低く、4つの場合は非常に正確な分類が得られた。したがって、本実施形態では、装着者の顔の側面に快適に付けることができる4つの電極ペアを使用して、高精度に表情推定を行うことができる。   Here, as shown in FIG. 11, according to the experimental results, the probability that accurate data can be acquired can be increased as the number of independent components (IC) used increases. That is, according to the present embodiment, the accuracy of classification can be increased by increasing the number of ICs. According to FIG. 11, the accuracy of the IC is low in one case, and a very accurate classification is obtained in the four cases. Therefore, in this embodiment, facial expression estimation can be performed with high accuracy by using four electrode pairs that can be comfortably attached to the side of the face of the wearer.

また、本実施形態によれば、噛むことにより生じる顎の筋肉によって作成されたノイズ等もあるが、その中で顔の生体信号を、ANNによい入力ベクトルを供給することで、上述したICA手法により正確は結果を得ることができる。   In addition, according to the present embodiment, there are noises and the like created by jaw muscles caused by biting, but by supplying a good input vector to the ANN for the biological signal of the face, the ICA method described above The result can be obtained more accurately.

また、本実施形態では、筋肉に属する信号を識別する代わりに顔の表情のパターンに基づいた識別のためのANNを使用することで顔の表現分析への新しいアプローチ手法を提供する。   In this embodiment, a new approach to facial expression analysis is provided by using ANN for identification based on facial expression patterns instead of identifying signals belonging to muscles.

更に、表情を推定するために用いられるANNは、入力されるチャンネルの順番やそれらの振幅に関係なく、不確実性に関する独立成分分析(ICA)における弱さを克服することができる。   Furthermore, the ANN used to estimate facial expressions can overcome weaknesses in independent component analysis (ICA) regarding uncertainty, regardless of the order of the input channels and their amplitude.

上述したように本発明によれば、顔面の動作を容易に知覚できるようにすることができる。具体的には、本発明は、生体電位信号を使用して、顔の表情や動作、及びその度合いについて独立成分分析やニューラルネットワーク(ANN)を用いて分析することが可能であることが示された。   As described above, according to the present invention, facial motion can be easily perceived. Specifically, it is shown that the present invention can analyze the facial expression and motion and the degree thereof using an independent component analysis or a neural network (ANN) using a biopotential signal. It was.

また、微笑み等の表情を形成する筋肉の上に直接電極を配置するのではなく、顔面神経頬筋枝上に配置し、そこから得られる信号からの微笑み等の表情を検知することが可能であることはさらに示された。また、電極は、顔の側面に置かれた少数の電極により達成することができる。   Also, instead of placing electrodes directly on muscles that form facial expressions such as smiles, it is possible to place facial electrodes on the cheek muscle branches of the facial nerve and detect facial expressions such as smiles from signals obtained from them. It was further shown that there is. Electrodes can also be achieved with a small number of electrodes placed on the side of the face.

また、本発明によれば、顔の表情のパターンに基づいた識別が可能となり、ニューラルネットワークのような適応性のあるメカニズムを用いて表情の推定が高精度に行うことができる。   Further, according to the present invention, discrimination based on facial expression patterns is possible, and facial expression estimation can be performed with high accuracy using an adaptive mechanism such as a neural network.

更に、本発明を適用することで、例えば、装着型の笑顔測定器による長時間測定を実現することができ、また、笑顔のトレーニング等、バイオフィードバックへの応用や、笑顔での実演が必要な舞踊等の身体を用いて表現する芸術において、その身体活動をリアルタイムにフィードバック制御を行う技術を提供することができ、スポーツ科学やエクササイズ等、身体運動計測に係る光提示、エンタテイメント等の人支援技術に適用するこができる。   Furthermore, by applying the present invention, it is possible to realize long-time measurement using, for example, a wearable smile measuring device, application to biofeedback such as smile training, and demonstration with a smile are necessary. In art that expresses using the body such as dance, it is possible to provide technology that performs feedback control of physical activity in real time, and human support technology such as light presentation and entertainment related to physical movement measurement, such as sports science and exercise Can be applied to.

更に、表情認識が困難な人への代替提示手段の実現、及び、ダンス・バレエ等身体動作の訓練機器、及びエクササイズ、運動支援への応用、小型且つ形態可能な新しい装着型表情推定装置への応用、筋活動の提示等による福祉機器やリハビリテーション機器としても利用することができる。   Furthermore, realization of alternative presentation means for people with difficulty in facial expression recognition, training equipment for physical movement such as dance and ballet, and exercise, application to exercise support, new wearable facial expression estimation device that is compact and configurable It can also be used as welfare equipment or rehabilitation equipment for application, muscle activity presentation, etc.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 装着者
11 顔輪筋
12 小頬骨筋
13 大頬骨筋
14 笑筋
15 所定領域
16 電極
20,30 顔面動作推定装置
21,31 光提示手段
22,32 音提示手段
41 電極信号入力手段
42 蓄積手段
43 フィルタ手段
44 信号処理手段
45 機械学習解析手段
46 表情推定手段
47 提示手段
48 送受信手段
49 制御手段
DESCRIPTION OF SYMBOLS 10 Wearer 11 Face ring muscle 12 Small zygomatic muscle 13 Large zygomatic muscle 14 Laugh muscle 15 Predetermined region 16 Electrode 20,30 Facial motion estimation apparatus 21,31 Light presentation means 22,32 Sound presentation means 41 Electrode signal input means 42 Accumulation means 43 Filter means 44 Signal processing means 45 Machine learning analysis means 46 Facial expression estimation means 47 Presentation means 48 Transmission / reception means 49 Control means

Claims (6)

顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置において、
前記顔の所定領域に対する前記生体電位信号を取得するための複数の電極と、
前記複数の電極から得られるそれぞれの信号を所定の帯域でフィルタリングするフィルタ手段と、
前記フィルタ手段により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理手段と、
前記信号処理手段により得られる信号に対して機械学習により信号解析を行う機械学習解析手段と、
前記機械学習解析手段により得られる解析結果から、顔の表情及び度合いを推定する表情推定手段と、
前記顔の表情及び度合いに対応させて予め設定された提示を行う提示手段とを有し、
前記顔の所定領域は、前記複数の電極の装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉から皮膚を通して伝わる混合された生体電位信号が取得できる前記顔の左右の側面にある顔面神経頬筋枝上の領域であり、
前記信号処理手段は、前記顔の左右の側面にある顔面神経頬筋枝上の領域に対して、左右にそれぞれ一対の電極を縦に2個配置して4チャンネルの生体電位信号を取得し、取得した前記4チャンネルの生体電位信号の組み合わせから独立成分を抽出することを特徴とする顔面動作推定装置。
In a facial motion estimation device that estimates facial motion based on a biopotential signal obtained from a predetermined region of the face,
A plurality of electrodes for obtaining the biopotential signal for a predetermined region of the face;
Filter means for filtering each signal obtained from the plurality of electrodes in a predetermined band;
Signal processing means for sorting by assuming independence of a preset signal with respect to the signal obtained by the filter means;
Machine learning analysis means for performing signal analysis by machine learning on the signal obtained by the signal processing means;
A facial expression estimation means for estimating the facial expression and degree from the analysis result obtained by the machine learning analysis means;
Presenting means for making a preset presentation corresponding to the facial expression and degree of the face,
The predetermined region of the face can acquire a mixed bioelectric potential signal transmitted through the skin from at least two muscles among the ring muscle, small zygomatic muscle, large zygomatic muscle, and laughing muscle of the wearer of the plurality of electrodes. The area on the facial nerve cheek muscle branch on the left and right sides of the face ,
The signal processing means obtains a 4- channel biopotential signal by arranging two pairs of electrodes vertically on the left and right sides of the region on the facial nerve buccal muscle branch on the left and right sides of the face , A facial motion estimation apparatus, wherein an independent component is extracted from the acquired combination of the bioelectric potential signals of the four channels .
前記機械学習解析手段は、
前記4チャンネルの生体電位信号の入力に対応する顔の表情の種類及び度合いを出力とする予め設定されたニューラルネットワークを用いて解析を行うことを特徴とする請求項1に記載の顔面動作推定装置。
The machine learning analysis means includes
2. The facial motion estimation apparatus according to claim 1, wherein analysis is performed using a preset neural network that outputs the type and degree of facial expression corresponding to the input of the four-channel biopotential signal. .
前記提示手段は、複数の光又は音により提示を行い、
前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする請求項1又は2に記載の顔面動作推定装置。
The presenting means presents with a plurality of lights or sounds,
The facial motion estimation apparatus according to claim 1, wherein the plurality of lights or sounds are changed and presented in accordance with the facial expression and degree.
顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置を用いた顔面動作推定方法において、
前記顔面動作推定装置が、
複数の電極を用いて前記顔の所定領域に対する前記生体電位信号を取得するための信号取得段階と、
前記信号取得段階により得られる前記複数の電極からのそれぞれの信号を所定の帯域でフィルタリングするフィルタ段階と、
前記フィルタ段階により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理段階と、
前記信号処理段階により得られる信号に対して機械学習により信号解析を行う機械学習解析段階と、
前記機械学習解析段階により得られる解析結果から、顔の表情及び度合いを推定する表情推定段階と、
前記顔の表情及び度合いに対応させて予め設定された提示手段により提示させる提示段階とを有し、
前記顔の所定領域は、前記複数の電極の装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉から皮膚を通して伝わる混合された生体電位信号が取得できる前記顔の左右の側面にある顔面神経頬筋枝上の領域であり、
前記信号処理段階は、前記顔の左右の側面にある顔面神経頬筋枝上の領域に対して、左右にそれぞれ一対の電極を縦に2個配置して4チャンネルの生体電位信号を取得し、取得した前記4チャンネルの生体電位信号の組み合わせから独立成分を抽出することを特徴とする顔面動作推定方法。
In a facial motion estimation method using a facial motion estimation device that estimates facial motion based on a biopotential signal obtained from a predetermined region of the face,
The facial motion estimation device comprises:
A signal acquisition step for acquiring the biopotential signal for a predetermined region of the face using a plurality of electrodes;
A filter step of filtering each signal from the plurality of electrodes obtained by the signal acquisition step in a predetermined band;
A signal processing step of separating by assuming a predetermined signal independence with respect to the signal obtained by the filtering step;
A machine learning analysis stage for performing signal analysis by machine learning on the signal obtained by the signal processing stage;
A facial expression estimation stage for estimating the facial expression and degree from the analysis result obtained by the machine learning analysis stage,
A presentation stage that is presented by a preset presentation means corresponding to the facial expression and degree of the face,
The predetermined region of the face can acquire a mixed bioelectric potential signal transmitted through the skin from at least two muscles among the ring muscle, small zygomatic muscle, large zygomatic muscle, and laughing muscle of the wearer of the plurality of electrodes. The area on the facial nerve cheek muscle branch on the left and right sides of the face ,
In the signal processing step, for a region on the facial nerve buccal muscle branch on the left and right sides of the face, a pair of electrodes are arranged vertically on the left and right to obtain a 4- channel biopotential signal, An independent component is extracted from a combination of the acquired bioelectric potential signals of the four channels .
前記機械学習解析段階は、
前記4チャンネルの生体電位信号の入力に対応する顔の表情の種類及び度合いを出力とする予め設定されたニューラルネットワークを用いて解析を行うことを特徴とする請求項4に記載の顔面動作推定方法。
The machine learning analysis stage includes
5. The facial motion estimation method according to claim 4, wherein analysis is performed using a preset neural network that outputs the type and degree of facial expression corresponding to the input of the four-channel biopotential signal. .
前記提示段階は、前記提示手段を用いて複数の光又は音により提示を行い、
前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする請求項4又は5に記載の顔面動作推定方法。
In the presenting step, a plurality of lights or sounds are presented using the presenting means,
6. The facial motion estimation method according to claim 4 or 5, wherein the plurality of lights or sounds are changed and presented according to the facial expression and degree.
JP2010006094A 2010-01-14 2010-01-14 Facial motion estimation apparatus and facial motion estimation method Active JP5574407B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010006094A JP5574407B2 (en) 2010-01-14 2010-01-14 Facial motion estimation apparatus and facial motion estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010006094A JP5574407B2 (en) 2010-01-14 2010-01-14 Facial motion estimation apparatus and facial motion estimation method

Publications (2)

Publication Number Publication Date
JP2011143059A JP2011143059A (en) 2011-07-28
JP5574407B2 true JP5574407B2 (en) 2014-08-20

Family

ID=44458443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010006094A Active JP5574407B2 (en) 2010-01-14 2010-01-14 Facial motion estimation apparatus and facial motion estimation method

Country Status (1)

Country Link
JP (1) JP5574407B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073737A1 (en) 2015-10-28 2017-05-04 国立大学法人東京大学 Analysis device
CN107049326A (en) * 2017-03-15 2017-08-18 英华达(南京)科技有限公司 Unilateral chewing monitoring device and its method
US11106899B2 (en) 2019-04-10 2021-08-31 Industry University Cooperation Foundation Hanyang University Electronic device, avatar facial expression system and controlling method thereof

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6391465B2 (en) * 2014-12-26 2018-09-19 Kddi株式会社 Wearable terminal device and program
JP6452248B2 (en) * 2015-07-30 2019-01-16 Kddi株式会社 Device, terminal, and program for identifying facial expression using myoelectric signal
JP6829151B2 (en) * 2017-05-24 2021-02-10 日本電信電話株式会社 Behavior estimation device and behavior estimation method
JP2019118448A (en) * 2017-12-28 2019-07-22 日本電気株式会社 Mental condition estimation system and mental condition estimation method
WO2022196419A1 (en) * 2021-03-17 2022-09-22 株式会社資生堂 Myoelectric potential measuring instrument, method, and system
WO2024058013A1 (en) * 2022-09-16 2024-03-21 株式会社資生堂 Method for improving facial shape, and device for improving facial shape

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2886932B2 (en) * 1990-03-01 1999-04-26 日本電信電話株式会社 Facial expression recognition device
JP4608858B2 (en) * 2003-08-12 2011-01-12 ソニー株式会社 Emotion visualization device, emotion visualization method, and emotion visualization output
JP4722573B2 (en) * 2005-06-10 2011-07-13 株式会社エヌ・ティ・ティ・ドコモ Facial information detection device and facial information detection type communication device
WO2007096706A2 (en) * 2005-09-12 2007-08-30 Emotiv Systems Pty Ltd. System and method for interaction with a subject based on detection of mental states

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073737A1 (en) 2015-10-28 2017-05-04 国立大学法人東京大学 Analysis device
CN107049326A (en) * 2017-03-15 2017-08-18 英华达(南京)科技有限公司 Unilateral chewing monitoring device and its method
CN107049326B (en) * 2017-03-15 2019-10-25 英华达(南京)科技有限公司 Unilateral chewing monitoring device and its method
US11106899B2 (en) 2019-04-10 2021-08-31 Industry University Cooperation Foundation Hanyang University Electronic device, avatar facial expression system and controlling method thereof

Also Published As

Publication number Publication date
JP2011143059A (en) 2011-07-28

Similar Documents

Publication Publication Date Title
JP5574407B2 (en) Facial motion estimation apparatus and facial motion estimation method
Nguyen et al. A lightweight and inexpensive in-ear sensing system for automatic whole-night sleep stage monitoring
Zhang et al. Diet eyeglasses: Recognising food chewing using EMG and smart eyeglasses
JP6404239B2 (en) Cognitive function evaluation device, method of operating cognitive function evaluation device, system and program
Kanoh et al. Development of an eyewear to measure eye and body movements
CN108236464A (en) Feature extracting method and its Detection and Extraction system based on EEG signals
US20070179396A1 (en) Method and System for Detecting and Classifying Facial Muscle Movements
JP7322227B2 (en) detector
WO2014150684A1 (en) Artifact as a feature in neuro diagnostics
JPWO2016143759A1 (en) Emotion estimation device and emotion estimation method
WO2019111257A1 (en) Communication methods and systems
Nguyen et al. In-ear biosignal recording system: A wearable for automatic whole-night sleep staging
US20200315486A1 (en) Electroencephalogram measurement system, rehabilitation support system, method for controlling the electroencephalogram measurement system, program, and non-transitory storage medium
CN114640699B (en) Emotion induction monitoring system based on VR role playing game interaction
Nguyen et al. LIBS: a lightweight and inexpensive in-ear sensing system for automatic whole-night sleep stage monitoring
EP3698710A1 (en) Brain wave measurement system, brain wave measurement method, program, and non-transitory recording medium
Nguyen et al. LIBS: a bioelectrical sensing system from human ears for staging whole-night sleep study
WO2020139108A1 (en) Method for conducting cognitive examinations using a neuroimaging system and a feedback mechanism
US20230363680A1 (en) Emotion assessment apparatus, emotion assessment method and emotion assessment program
JP2020000431A (en) Device for measurement of chewing movement
KR20070113781A (en) System and method for recovering from depressed condition using neurofeedback of color-display
Veldanda et al. Can electromyography alone reveal facial action units? a pilot emg-based action unit recognition study with real-time validation
JP6810682B2 (en) Biological signal processing device, program and method for determining periodic biosignal generation based on representative values of acceleration components
JP6821549B2 (en) Biological signal processing device, program and method for determining the generation of biological signals based on the representative values of acceleration components
Sebkhi et al. Towards phoneme landmarks identification for american-english using a multimodal speech capture system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140626

R150 Certificate of patent or registration of utility model

Ref document number: 5574407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250