JP2019208629A - Swallowing function evaluation method and swallowing function evaluation apparatus - Google Patents

Swallowing function evaluation method and swallowing function evaluation apparatus Download PDF

Info

Publication number
JP2019208629A
JP2019208629A JP2018105082A JP2018105082A JP2019208629A JP 2019208629 A JP2019208629 A JP 2019208629A JP 2018105082 A JP2018105082 A JP 2018105082A JP 2018105082 A JP2018105082 A JP 2018105082A JP 2019208629 A JP2019208629 A JP 2019208629A
Authority
JP
Japan
Prior art keywords
swallowing
muscle group
subhyoid
function evaluation
suprahyoid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018105082A
Other languages
Japanese (ja)
Other versions
JP7133200B2 (en
Inventor
佐々木 誠
Makoto Sasaki
誠 佐々木
雅大 鈴木
Masahiro Suzuki
雅大 鈴木
志紀也 中居
Shikiya Nakai
志紀也 中居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate University
Original Assignee
Iwate University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate University filed Critical Iwate University
Priority to JP2018105082A priority Critical patent/JP7133200B2/en
Publication of JP2019208629A publication Critical patent/JP2019208629A/en
Application granted granted Critical
Publication of JP7133200B2 publication Critical patent/JP7133200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

To provide a swallowing function evaluation method and a swallowing function evaluation apparatus capable of determining the voluntary swallowing strength and a difference of a single swallowing amount, a difference of physical properties (hardness, viscosity, temperature, liquid, individual) of food and a food bolus, a difference of a swallowing state and a presence of aspiration, types (overt aspiration, occult aspiration, aspiration before swallowing, aspiration during swallowing, aspiration after swallowing, etc), and a risk (larynx inflow, etc).SOLUTION: A swallowing function evaluation method of the present invention is characterized by: detecting at least a biological signal from swallowing start to swallowing completion; extracting a feature amount from the detected biological signal; identifying a swallowing state from the feature amount by using machine learning, and evaluating a swallowing function; using a suprahyoid muscle group biological signal by the muscle activities of the suprahyoid muscle group and an infrahyoid muscle group biological signal by the muscle activities of the infrahyoid muscle group as the biomedical signal; and extracting the feature amount from the suprahyoid muscle group biological signal and the infrahyoid muscle group biological signal.SELECTED DRAWING: Figure 1

Description

本発明は、機械学習を用いて嚥下状態を識別して嚥下機能を評価する嚥下機能評価法及び嚥下機能評価装置に関する。   The present invention relates to a swallowing function evaluation method and a swallowing function evaluation apparatus that identify a swallowing state and evaluate a swallowing function using machine learning.

摂食・嚥下は食物を認知して口に運び、口腔内で咀嚼し、咽頭、食道を通り胃まで運ぶ一連の動作であり、先行期、準備期、口腔期、咽頭期、食道期の5期に分けられる。嚥下はこの5期の中の口腔期から食道期までを指し、随意運動と反射運動が共存する複雑な生理機構によって実現される。随意嚥下は主に口腔内によって食物を咀嚼し咽頭に導くことを指し、反射運動は食物が咽頭を通過する際のことを指している。嚥下反射は延髄にある中枢パターン生成器(CPG:central pattern generator)により再現性の高いパターン運動となっており、嚥下の可否は、口腔運動の問題の有無や嚥下反射の破綻が大きく関与している。一方、CPGによるパターン化はなされているものの、嚥下には様々なバリエーションがあり、一回嚥下量(食物の量)や食物の物性値に合わせて、舌骨や喉頭などの嚥下諸器官の動きや、嚥下に関与する各筋の活動パターンが変化することが報告されている。なお、変化することは知られているが、その変化量は個人差が大きいことから、その変化量から逆向きに嚥下の条件を推定する手法は確立されていない。
このように「飲み込み方を変えられる能力」は、窒息や誤嚥を引き起こさないための、嚥下予備能(食物に対する対応力)と考えられている。しかし、脳血管障害や神経筋疾患、加齢による筋力や感覚機能、認知機能等の低下などが原因で、嚥下予備能は低下し、窒息・誤嚥のリスクが高まることが知られている。嚥下機能低下時には、舌骨・喉頭位の下垂、それに伴う舌骨や喉頭の挙上量や前方移動量の減少、喉頭挙上速度の低下による喉頭挙上の遅れ、嚥下反射惹起の遅延などが生じる。また、これらの嚥下諸器官の機能評価は、X線透視下で食塊や舌骨・喉頭の運動を観察する嚥下造影検査を用いるのが一般的であるが、放射線被爆や造影剤誤嚥のリスクがあり、医療機関での反復的な検査や在宅医療での利用、さらには日常生活における定期的な評価には不向きである。
厚生労働省の人口動態統計年報によると、平成28年度の我が国の死因第3位は「肺炎」であり、その死亡者11万9,300人の約半数は「嚥下障害による誤嚥性肺炎」が原因とされている。したがって、高齢者の健康寿命を延伸するためにも、嚥下予備能を安全かつ簡便に評価し、自覚困難な嚥下機能の低下やフレイルの高齢者(嚥下障害予備軍)を早期発見する新しい技術が必要とされている。
発明者は、舌骨上筋群の多チャンネル表面筋電図を用いた顎口腔運動の推定法を提案している(特許文献1)。
特許文献1によれば、舌の随意運動だけでなく、嚥下の検出も可能である。
Eating and swallowing is a series of actions that recognize food, carry it to the mouth, chew it in the oral cavity, and carry it through the pharynx and esophagus to the stomach. 5 in the early stage, preparation stage, oral stage, pharyngeal stage, and esophageal stage. Divided into periods. Swallowing refers to the period from the oral phase to the esophageal phase, and is realized by a complex physiological mechanism in which voluntary movement and reflex movement coexist. Voluntary swallowing refers mainly to the chewing of food through the oral cavity and guiding it to the pharynx, and reflexive movement refers to the passage of food through the pharynx. The swallowing reflex is a pattern movement with high reproducibility by the central pattern generator (CPG) in the medulla, and whether swallowing is possible depends largely on the presence or absence of oral movement problems and the failure of the swallowing reflex. Yes. On the other hand, although it is patterned by CPG, there are various variations in swallowing, and movements of various swallowing organs such as hyoid bone and larynx according to the amount of swallowing (amount of food) and the physical properties of food It has also been reported that the activity pattern of each muscle involved in swallowing changes. In addition, although it is known that it changes, since the variation | change_quantity has a large individual difference, the method of estimating the condition of swallowing reversely from the variation | change_quantity is not established.
Thus, “the ability to change how to swallow” is considered to be a swallowing reserve ability (responding to food) to prevent suffocation and aspiration. However, it is known that cerebrovascular disorder, neuromuscular disease, muscular strength, sensory function, cognitive function, etc. due to aging decrease, swallowing reserve ability decreases, and the risk of suffocation / aspiration increases. When the swallowing function declines, the hyoid bone and laryngeal position drop, the hyoid bone and laryngeal elevation and forward movement decrease, the laryngeal elevation speed slows down, and the swallowing reflex is delayed Arise. In addition, the functional evaluation of these swallowing organs is generally performed using a swallowing contrast examination that observes the movement of the bolus, hyoid bone, and larynx under fluoroscopy. It is risky and unsuitable for repeated examinations at medical institutions, use in home medical care, and regular assessment in daily life.
According to the Ministry of Health, Labor and Welfare's annual demographic statistics, “pneumonia” is the third leading cause of death in Japan in FY2016, and about half of its 1,199,300 deaths are “aspiration pneumonia due to dysphagia” It is the cause. Therefore, in order to extend the healthy life expectancy of the elderly, a new technology for safe and simple evaluation of swallowing reserve ability and early detection of dysphagia that is difficult to recognize and flail elderly (swallowing disorder reserve army) is necessary.
The inventor has proposed a method for estimating jaw and mouth movement using a multichannel surface electromyogram of the suprahyoid muscle group (Patent Document 1).
According to Patent Document 1, not only voluntary movement of the tongue but also swallowing can be detected.

特許第5924724号公報Japanese Patent No. 5924724

しかし、特許文献1では、飲み込み方を変えられる能力(嚥下予備能)、例えば、随意嚥下と一回嚥下量の違い(嚥下反射の違い)などを正確に評価することは困難である。これは、喉頭蓋の反転による喉頭閉鎖など、嚥下時に重要な役割を担う舌骨・喉頭の挙上が、舌骨上筋群の活動と、それに対する舌骨下筋群の反射性の活動で緻密に制御されているにも関わらず、舌骨上筋群の筋活動しか着目していないためである。   However, in Patent Document 1, it is difficult to accurately evaluate the ability to change how to swallow (swallowing reserve ability), for example, the difference between voluntary swallowing and the amount of swallowing (difference in swallowing reflex). This is because hyoid and laryngeal elevation, which plays an important role during swallowing, such as laryngeal closure by reversing the epiglottis, is closely related to the activity of the epihyoid muscles and the reflex activity of the subhyoid muscles to it. This is because, however, only the muscular activity of the suprahyoid muscle group is focused on in spite of being controlled.

本発明は、随意嚥下の強さや一回嚥下量の違い、食物や食塊の物性値(硬さ、粘度、温度、液体、個体など)の違いなど、嚥下状態の違いや誤嚥の有無・種類(顕性誤嚥、不顕性誤嚥、嚥下前誤嚥、嚥下中誤嚥、嚥下後誤嚥など)・リスク(喉頭流入など)を判別できる嚥下機能評価法及び嚥下機能評価装置を提供することを目的とする。   The present invention includes voluntary swallowing strength and swallowing amount, food and bolus physical property values (hardness, viscosity, temperature, liquid, individual, etc.) Providing a swallowing function evaluation method and swallowing function evaluation device that can discriminate types (eg, overt aspiration, overt aspiration, aspiration before swallowing, aspiration during swallowing, aspiration after swallowing) and risk (such as laryngeal inflow) The purpose is to do.

請求項1記載の本発明の嚥下機能評価法は、少なくとも嚥下開始から嚥下終了までの生体信号を検出し、検出した前記生体信号から特徴量を抽出し、機械学習を用いて前記特徴量から嚥下状態を識別して嚥下機能を評価する嚥下機能評価法であって、前記生体信号として、舌骨上筋群の筋活動による舌骨上筋群生体信号と、舌骨下筋群の筋活動による舌骨下筋群生体信号とを用い、前記舌骨上筋群生体信号と前記舌骨下筋群生体信号とから前記特徴量を抽出することを特徴とする。
請求項2記載の本発明は、請求項1に記載の嚥下機能評価法において、前記生体信号として、表面筋電位信号を用いたことを特徴とする。
請求項3記載の本発明は、請求項2に記載の嚥下機能評価法において、少なくとも前記嚥下開始から前記嚥下終了までの前記表面筋電位信号から前記特徴量を抽出し、抽出した前記特徴量を画像ファイルに変換し、画像認識を行うことで前記嚥下状態を識別することを特徴とする。
請求項4記載の本発明は、請求項3に記載の嚥下機能評価法において、前記画像認識をディープラーニングにより行うことを特徴とする。
請求項5記載の本発明は、請求項1から請求項4のいずれか1項に記載の嚥下機能評価法において、前記機械学習に用いる学習用生体信号として、異なる装着位置で検出した複数の前記生体信号を用いることを特徴とする。
請求項6記載の本発明の嚥下機能評価装置は、少なくとも嚥下開始から嚥下終了までの生体信号を検出し、検出した前記生体信号から特徴量を抽出し、機械学習を用いて前記特徴量から嚥下状態を識別して嚥下機能を評価する嚥下機能評価装置であって、前記舌骨上筋群の筋活動を検出する舌骨上筋群用多チャンネル電極11と、前記舌骨下筋群の筋活動を検出する舌骨上筋群用多チャンネル電極11と、制御器40とを備え、前記制御器40は、前記舌骨上筋群用多チャンネル電極11からの舌骨上筋群生体信号、及び前記舌骨下筋群用多チャンネル電極12からの舌骨下筋群生体信号から前特徴量を抽出する特徴抽出部41と、抽出した前記特徴量を画像ファイルに変換し、ディープラーニングによる画像認識を行うことで前記嚥下状態を識別する動作識別部とを有することを特徴とする。
The swallowing function evaluation method of the present invention according to claim 1 detects at least a biological signal from the start of swallowing to the end of swallowing, extracts a feature amount from the detected biological signal, and swallows from the feature amount using machine learning A swallowing function evaluation method for identifying a state and evaluating a swallowing function, wherein the biosignal is based on a suprahyoid muscle biomedical signal of the suprahyoid muscle group and a muscular activity of the subhyoid muscle group The feature quantity is extracted from the suprahyoid muscle group biosignal and the subhyoid muscle group biosignal using a subhyoid muscle group biosignal.
The present invention according to claim 2 is characterized in that in the swallowing function evaluation method according to claim 1, a surface myoelectric potential signal is used as the biological signal.
According to a third aspect of the present invention, in the swallowing function evaluation method according to the second aspect, the feature amount is extracted from at least the surface myoelectric potential signal from the start of swallowing to the end of swallowing, and the extracted feature amount is The swallowing state is identified by converting into an image file and performing image recognition.
According to a fourth aspect of the present invention, in the swallowing function evaluation method according to the third aspect, the image recognition is performed by deep learning.
According to a fifth aspect of the present invention, in the swallowing function evaluation method according to any one of the first to fourth aspects, a plurality of the detected biosignals used for the machine learning are detected at different wearing positions. A biological signal is used.
The swallowing function evaluation device of the present invention according to claim 6 detects at least a biological signal from the start of swallowing to the end of swallowing, extracts a feature amount from the detected biosignal, and swallows the feature amount using machine learning A swallowing function evaluating apparatus for identifying a state and evaluating a swallowing function, the multichannel electrode 11 for the suprahyoid muscle group for detecting the muscular activity of the suprahyoid muscle group, and the muscle of the subhyoid muscle group A multichannel electrode 11 for the suprahyoid muscle group for detecting the activity, and a controller 40, wherein the controller 40 is a biosignal of the suprahyoid muscle group from the multichannel electrode 11 for the suprahyoid muscle group; And a feature extraction unit 41 that extracts a pre-feature amount from the subhyoid muscle group biological signal from the multi-channel electrode 12 for the subhyoid muscle group, and the extracted feature amount is converted into an image file, and an image obtained by deep learning The swallowing state by recognizing And having a identifying operation identifying unit.

本発明の嚥下機能評価法によれば、舌骨上筋群と舌骨下筋群とで制御されている舌骨・喉頭の挙上やそれに伴う喉頭蓋の反転や喉頭閉鎖などを高い識別率で推定でき、随意嚥下の強さや一回嚥下量の違い、食物や食塊の物性値の違いなど、嚥下状態の違いや誤嚥の有無・種類・リスク、さらには個人に適した嚥下条件などを正確に評価できる。   According to the swallowing function evaluation method of the present invention, the hyoid bone and laryngeal elevation controlled by the suprahyoid and subhyoid muscle groups, the accompanying epiglottis reversal and laryngeal closure, etc. with a high discrimination rate Differences in swallowing status, the presence / absence / type / risk of aspiration, such as differences in voluntary swallowing strength, swallowing volume, physical properties of food and bolus, and swallowing conditions suitable for individuals Can be evaluated accurately.

舌骨上筋群と舌骨下筋群を示す説明図Explanatory diagram showing the hyoid and subhyoid muscle groups 本発明の一実施例による嚥下機能評価装置の全体構成図The whole block diagram of the swallowing function evaluation apparatus by one Example of this invention 同嚥下機能評価装置に用いる多チャンネル電極の外観を示す写真Photograph showing the appearance of the multi-channel electrode used in the device for evaluating swallowing function 同嚥下機能評価装置に用いる筋電アンプボックスの回路構成図Circuit configuration diagram of myoelectric amplifier box used in the evaluation device for swallowing function 同嚥下機能評価装置に用いる時系列データによる嚥下運動推定アルゴリズムの概略図Schematic diagram of swallowing motion estimation algorithm based on time series data used for the swallowing function evaluation device フレームシフトを行う様子を示す図Diagram showing how frame shift is performed 同嚥下機能評価装置に用いる画像認識による嚥下運動推定アルゴリズムの概略図Schematic diagram of swallowing motion estimation algorithm by image recognition used for the swallowing function evaluation device 一例として高速フーリエ変換により得られた特徴量を基に画像化した表面筋電位信号の写真As an example, a photograph of the surface myoelectric potential signal imaged based on the feature value obtained by fast Fourier transform 画像サイズを8×8、プーリング範囲2×2とした時の最大プーリングの例を示す図Diagram showing an example of maximum pooling when the image size is 8 × 8 and the pooling range is 2 × 2. 本実施例で用いた事前学習済み畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)であるAlex Netの構造を示す説明図Explanatory drawing which shows the structure of Alex Net which is the convolutional neural network (Convolutional Neural Network: CNN) used in the present Example. CNNを特徴抽出器としてSVMで識別する方法を示す説明図Explanatory drawing which shows the method of identifying by CVM using CNN as a feature extractor. Fine−tuningされたCNNにより識別する方法を示す説明図Explanatory drawing which shows the method identified by Fine-tuning CNN 実験に用いた多チャンネル電極の電極配置とチャンネル番号の関係を示す図The figure which shows the relationship between the electrode arrangement of the multi-channel electrode used for the experiment and the channel number 実際に装着した様子を示す写真Photo showing the actual wearing 実験での計測動作を示す図Diagram showing measurement operation in experiment 一人分の識別率の算出方法の一例を示す図The figure which shows an example of the calculation method of the identification rate for one person 2動作識別を行う際の識別動作の組み合わせを示す図The figure which shows the combination of the identification operation | movement at the time of performing 2 operation | movement identification 図13に示す電極番号と配置を基にした画像の配置を示す図The figure which shows the arrangement | positioning of the image based on the electrode number and arrangement | positioning which are shown in FIG. 各特徴量抽出方法によって作成された1動作分の画像を示す写真Photograph showing images for one motion created by each feature extraction method 解析条件を示す図Diagram showing analysis conditions 各特徴抽出方法によって作成された画像を使用し、学習・識別を行った時の識別結果を示すグラフGraph showing identification results when learning / identification is performed using images created by each feature extraction method 識別器が識別精度に与える影響を検討する上での解析条件を示す図Diagram showing analysis conditions for examining the effect of discriminator on discrimination accuracy 各識別器で学習・識別を行った時の識別率を示すグラフA graph showing the classification rate when learning and classification are performed by each classifier 舌骨上筋群と舌骨下筋群との特徴量を合成する場合の構造を示す図Diagram showing the structure when combining the features of the hyoid and subhyoid muscle groups 舌骨上筋群と舌骨下筋群を1枚の画像に画像化する方法を示す図The figure which shows the method of imaging the hyoid bone muscle group and the subhyoid muscle group into one image 使用電極による識別率の検討に用いる解析条件を示す図The figure which shows the analysis conditions used for examination of the discrimination rate by the electrode used 使用電極毎の識別率の結果を示すグラフGraph showing identification rate results for each electrode used 舌骨上筋群と舌骨下筋群の識別率の検討に用いる解析条件を示す図Diagram showing the analysis conditions used to examine the discrimination rate between the hyoid and subhyoid muscle groups 22チャンネルにおける舌骨上筋群と舌骨下筋群の2動作識別の結果を示すグラフThe graph which shows the result of 2 movement discrimination of the hyoid and subhyoid muscle group in 22 channels 平均識別率によって得られた結果の有効性の検証結果を示す図The figure which shows the verification result of the effectiveness of the result which is obtained with average discrimination rate 16チャンネルにおける舌骨上筋群と舌骨下筋群の2動作識別の結果を示すグラフThe graph which shows the result of 2 movement discrimination of the hyoid bone submuscular group and the subhyoid muscle group in 16 channels

本発明の第1の実施の形態による嚥下機能評価法は、生体信号として、舌骨上筋群の筋活動による舌骨上筋群生体信号と、舌骨下筋群の筋活動による舌骨下筋群生体信号とを用い、舌骨上筋群生体信号と舌骨下筋群生体信号とから特徴量を抽出するものである。本実施の形態によれば、舌骨上筋群と舌骨下筋群とで制御されている舌骨・喉頭の挙上やそれに伴う喉頭蓋の反転や喉頭閉鎖などを高い識別率で推定でき、随意嚥下の強さや一回嚥下量の違い、食物や食塊の物性値の違いなど、嚥下状態の違いや誤嚥の有無・種類・リスク、さらには個人に適した嚥下条件などを正確に評価できる。   In the swallowing function evaluation method according to the first embodiment of the present invention, as the biosignal, the suprahyoid muscle group biosignal by the muscle activity of the suprahyoid muscle group and the subhyoid bone by the muscle activity of the subhyoid muscle group A feature value is extracted from the suprahyoid muscle signal and the subhyoid muscle signal using the muscle group signal. According to the present embodiment, the hyoid bone and laryngeal elevation controlled by the suprahyoid and subhyoid muscle groups can be estimated with a high identification rate, such as reversal of the epiglottis and laryngeal closure, Accurately evaluate differences in swallowing status, presence / absence / type / risk of swallowing, such as differences in voluntary swallowing strength, amount of swallowing, and physical properties of food and bolus, as well as swallowing conditions suitable for individuals it can.

本発明の第2の実施の形態は、第1の実施の形態による嚥下機能評価法において、生体信号として、表面筋電位信号を用いたものである。本実施の形態によれば、多チャンネル電極によって広い範囲を検出対象として筋活動を測定できる。   The second embodiment of the present invention uses a surface myoelectric potential signal as a biological signal in the swallowing function evaluation method according to the first embodiment. According to the present embodiment, it is possible to measure muscle activity using a multi-channel electrode with a wide range as a detection target.

本発明の第3の実施の形態は、第2の実施の形態による嚥下機能評価法において、少なくとも嚥下開始から嚥下終了までの表面筋電位信号から特徴量を抽出し、抽出した特徴量を画像ファイルに変換し、画像認識を行うことで嚥下状態を識別するものである。本実施の形態によれば、画像認識によって識別率を高めることができる。   According to the third embodiment of the present invention, in the swallowing function evaluation method according to the second embodiment, a feature amount is extracted from at least a surface myoelectric signal from the start of swallowing to the end of swallowing, and the extracted feature amount is an image file. The swallowing state is identified by performing the image recognition. According to the present embodiment, the identification rate can be increased by image recognition.

本発明の第4の実施の形態は、第3の実施の形態による嚥下機能評価法において、画像認識をディープラーニングにより行うものである。本実施の形態によれば、識別率を高めることができ、随意嚥下や嚥下反射を正確に評価できる。   The fourth embodiment of the present invention performs image recognition by deep learning in the swallowing function evaluation method according to the third embodiment. According to the present embodiment, the identification rate can be increased, and voluntary swallowing and swallowing reflex can be accurately evaluated.

本発明の第5の実施の形態は、第1から第4のいずれかの実施の形態による嚥下機能評価法において、機械学習に用いる学習用生体信号として、異なる装着位置で検出した複数の生体信号を用いるものである。本実施の形態によれば、嚥下機能評価を行う際に必要となる電極装着直後のキャリブレーション作業を行うことなく正確な評価を行える。   In the fifth embodiment of the present invention, in the swallowing function evaluation method according to any one of the first to fourth embodiments, a plurality of biological signals detected at different mounting positions are used as learning biological signals used for machine learning. Is used. According to the present embodiment, an accurate evaluation can be performed without performing a calibration operation immediately after mounting the electrode, which is necessary when performing the swallowing function evaluation.

本発明の第6の実施の形態による嚥下機能評価装置は、舌骨上筋群の筋活動を検出する舌骨上筋群用多チャンネル電極と、舌骨下筋群の筋活動を検出する舌骨下筋群用多チャンネル電極と、制御器とを備え、制御器は、舌骨上筋群用多チャンネル電極からの舌骨上筋群生体信号及び舌骨下筋群用多チャンネル電極からの舌骨下筋群生体信号から特徴量を抽出する特徴抽出部と、抽出した特徴量を画像ファイルに変換し、ディープラーニングによる画像認識を行うことで嚥下状態を識別する動作識別部とを有するものである。本実施の形態によれば、舌骨上筋群と舌骨下筋群とで制御されている舌骨・喉頭の挙上や反射運動を高い識別率で推定でき、随意嚥下や嚥下反射を正確に評価できる。   The swallowing function evaluation apparatus according to the sixth embodiment of the present invention includes a multichannel electrode for detecting the suprahyoid muscle group and the tongue for detecting the muscular activity of the subhyoid muscle group. A multichannel electrode for the subosseous muscle group and a controller, the controller from the multichannel electrode for the suprahyoid muscle group and the multichannel electrode for the subhyoid muscle group and the multichannel electrode for the subhyoid muscle group A feature extraction unit that extracts a feature amount from a subhyoid muscle group biological signal, and an operation identification unit that identifies the swallowing state by converting the extracted feature amount into an image file and performing image recognition by deep learning It is. According to the present embodiment, it is possible to estimate the hyoid bone and laryngeal elevation and reflex movement controlled by the suprahyoid and subhyoid muscle groups with a high discrimination rate, and to accurately detect voluntary swallowing and swallowing reflexes. Can be evaluated.

以下本発明の実施例について図面とともに説明する。
図1は、舌骨上筋群と舌骨下筋群を示す説明図である。
嚥下に要する時間は口腔期と咽頭期をあわせ1〜1.5秒と言われ、このわずかな時間に、1)口唇の閉鎖、2)舌による食塊の咽頭への移送、3)鼻咽腔閉鎖、4)下顎の閉口位での固定、5)喉頭の挙上と喉頭蓋の反転による喉頭閉鎖、6)喉頭の前方移動による咽頭下部の開大、7)声門閉鎖と呼気圧の上昇、8)食道入口部の括約筋の弛緩、などが決められた順序で連続的に起こる。
これらの動作に大きく関わるのが図1に示す舌骨上筋群と舌骨下筋群である。舌骨上筋群はオトガイ舌骨筋、顎舌骨筋、顎二腹筋、茎突舌骨筋から構成される。舌骨上筋群が収縮することにより舌骨と喉頭を前上方へと挙上する。舌骨下筋群は、甲状舌骨筋、肩甲舌骨筋、胸骨舌骨筋、胸骨甲状筋から構成される。舌骨上筋群の反射運動により甲状舌骨筋が収縮することで喉頭を最高位へと引き上げる。これらの運動により、喉頭蓋が反転し、喉頭を閉鎖するとともに食道入口部を開大し、誤嚥や窒息を起こすことなく安全に食塊を食道へと通過させる。これらの筋肉の機能を解明することは嚥下予備能の評価にもつながる。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is an explanatory diagram showing an upper hyoid bone group and a subhyoid muscle group.
The time required for swallowing is said to be 1 to 1.5 seconds for the oral and pharyngeal phases. In this short period of time, 1) lip closure, 2) transfer of the bolus to the pharynx by the tongue, and 3) nasopharynx 5) Laryngeal closure by raising the larynx and reversing the epiglottis, 6) Opening of the lower pharynx by forward movement of the larynx, 7) Closure of the glottis and increase of expiratory pressure, 8) Relaxation of the sphincter at the entrance of the esophagus occurs continuously in a predetermined order.
The suprahyoid and subhyoid muscle groups shown in FIG. 1 are largely involved in these operations. The suprahyoid muscle group consists of geniohyoid muscle, maxillohyoid muscle, bigastric muscle, and stylohyoid muscle. The hyoid bone and larynx are lifted forward and upward as the suprahyoid muscles contract. The subhyoid muscle group is composed of thyroid hyoid muscle, scapulohyoid muscle, sternohyoid muscle, and sternothyroid muscle. The larynx is pulled up to the highest position by contraction of the thyroid hyoid muscle by reflex movement of the suprahyoid muscle group. These exercises invert the epiglottis, closing the larynx and opening the esophageal entrance, allowing the bolus to pass safely into the esophagus without aspiration or suffocation. Elucidating the function of these muscles also leads to the evaluation of swallowing reserve.

本実施例による嚥下機能評価法は、少なくとも嚥下開始から嚥下終了までの生体信号を検出し、検出した生体信号から特徴量を抽出し、機械学習を用いて特徴量から嚥下状態を識別して嚥下機能を評価する。誤嚥には、嚥下前誤嚥や嚥下後誤嚥があり、無意識に流入する場合や咳き込む場合もあり、嚥下開始前や嚥下終了後についても生体信号を検出することで、嚥下機能評価を行うことができる。
本実施例による嚥下機能評価法は、舌骨上筋群と舌骨下筋群の協調運動に着目し、表面筋電位信号から随意嚥下の強さや、一回嚥下量の変化による嚥下パターンの違いを識別するものである。嚥下パターンを識別し、得られる識別率は、その値が大きいほど筋活動パターンの再現性が高いこと、そして、物性値や量に対して嚥下パターンを変えられることを表している。したがって、識別率が高ければ、嚥下予備能があると定義した。一方、識別率が低い場合この時は、嚥下予備能がない場合と、識別性能が不十分である、という2つの原因が考えられる。そこで、識別性能が不十分という原因を取り除くために、嚥下予備能が高いと仮定できる健常者に対して高い識別精度で識別できるような識別方法を開発する必要がある。
The swallowing function evaluation method according to the present embodiment detects at least a biological signal from the start of swallowing to the end of swallowing, extracts a feature amount from the detected biological signal, identifies a swallowing state from the feature amount using machine learning, and swallows Evaluate functionality. Aspiration includes pre-swallowing aspiration and post-swallowing aspiration, which may flow unconsciously or cough, and evaluate swallowing function by detecting biological signals before and after swallowing be able to.
The swallowing function evaluation method according to this example focuses on the cooperative movement of the suprahyoid and subhyoid muscle groups, and the swallowing pattern varies depending on the strength of voluntary swallowing from the surface myoelectric potential signal and the amount of swallowing Is to identify. The identification rate obtained by identifying the swallowing pattern indicates that the greater the value, the higher the reproducibility of the muscle activity pattern, and that the swallowing pattern can be changed with respect to the physical property value and quantity. Therefore, it was defined that there was a swallowing reserve if the discrimination rate was high. On the other hand, when the discrimination rate is low, at this time, there are two possible causes: a case where there is no swallowing reserve capability and a case where the discrimination performance is insufficient. Therefore, in order to eliminate the cause of insufficient discrimination performance, it is necessary to develop a discrimination method capable of discriminating with high discrimination accuracy for a healthy person who can be assumed to have a high swallowing reserve ability.

図2は本発明の一実施例による嚥下機能評価装置の全体構成図である。
本実施例による嚥下機能評価装置は、舌骨上筋群用多チャンネル電極11(10)、舌骨下筋群用多チャンネル電極12(10)、筋電アンプボックス(筋電計)20、AD/DA変換器30、制御器40から構成される。
FIG. 2 is an overall configuration diagram of a swallowing function evaluation apparatus according to an embodiment of the present invention.
The swallowing function evaluation apparatus according to the present embodiment includes a multichannel electrode 11 (10) for the suprahyoid muscle group, a multichannel electrode 12 (10) for the subhyoid muscle group, a myoelectric amplifier box (electromyograph) 20, AD / DA converter 30 and controller 40.

筋電アンプボックス20とAD/DA変換器30とは、舌骨上筋群と舌骨下筋群の2種類の計測を行うため2台ずつ使用する。なお、筋電アンプボックス20及びAD/DA変換器30は1台で構成してもよい。
表面筋電位信号は、耳朶に貼りつけた基準電極13と多チャンネル電極10を構成する各電極との電位差を、もう片方の耳朶に貼りつけたGND電極14を基準に差動増幅することで計測した。検出された表面筋電位信号は、筋電アンプボックス20を介して2052倍に増幅され、AD/DA変換器30へ取り込まれる。なお、多チャンネル電極10の一部の電極を基準電極13やGND電極14として用いてもよく、多チャンネル電極10と共に基準電極13やGND電極14を設けてもよく、必ずしも耳朶に貼り付けなくてもよい。基準電極13やGND電極14を多チャンネル電極10と共に設ける場合には、舌骨上筋群用多チャンネル電極11側でも舌骨下筋群用多チャンネル電極12側の少なくともいずれか一方に設ける。
データの収集で用いるAD/DA変換器30は、NI USB−6218(NATIONAL INSTRUMENTS)を用いた。AD/DA変換器30は、アナログ入力(16ビット、250kS/秒、32ch)、アナログ出力(16ビット、250kS/秒、2ch)、8デジタル入力、8デジタル出力、2つの32ビットカウンタ機能を搭載している。本研究ではアナログ入力を用いてデータ採取を行う。
また、2台のAD/DA変換器30を同期させることで舌骨上筋群と舌骨下筋群の2種類の計測を同時に行う。
Two myoelectric amplifier boxes 20 and AD / DA converters 30 are used to perform two types of measurement of the upper hyoid bone group and the subhyoid muscle group. The myoelectric amplifier box 20 and the AD / DA converter 30 may be configured as a single unit.
The surface myoelectric potential signal is measured by differentially amplifying the potential difference between the reference electrode 13 attached to the earlobe and each electrode constituting the multi-channel electrode 10 with reference to the GND electrode 14 attached to the other earlobe. did. The detected surface myoelectric potential signal is amplified 2052 times through the myoelectric amplifier box 20 and taken into the AD / DA converter 30. A part of the multi-channel electrode 10 may be used as the reference electrode 13 or the GND electrode 14, and the reference electrode 13 or the GND electrode 14 may be provided together with the multi-channel electrode 10, and is not necessarily attached to the earlobe. Also good. When the reference electrode 13 and the GND electrode 14 are provided together with the multichannel electrode 10, the reference electrode 13 and the GND electrode 14 are provided on at least one of the multichannel electrode 11 side for the suprahyoid muscle group and the multichannel electrode 12 side for the subhyoid muscle group.
As the AD / DA converter 30 used for data collection, NI USB-6218 (NATIONAL INSTRUMENTS) was used. AD / DA converter 30 is equipped with analog input (16 bits, 250 kS / sec, 32 ch), analog output (16 bits, 250 kS / sec, 2 ch), 8 digital inputs, 8 digital outputs, and two 32-bit counter functions doing. In this study, data is collected using analog input.
In addition, by synchronizing the two AD / DA converters 30, two types of measurements of the upper hyoid muscle group and the subhyoid muscle group are simultaneously performed.

図3は同嚥下機能評価装置に用いる多チャンネル電極の外観を示す写真である。
多チャンネル電極10は筋電アンプボックス20に接続する。舌骨上筋群用電極11は喉頭部に干渉せず、かつ下顎底部奥に存在する左右の茎突舌骨筋を計測できるような逆V字形状である。舌骨下筋群用電極12は喉頭隆起の動きに干渉せず、かつ左右の甲状舌骨筋、肩甲舌骨筋、胸骨舌骨筋、及び胸骨甲状筋を計測できるようなU字形状である。
多チャンネル電極10の基板厚さは0.3mmであり、基板保護および電気的な絶縁のために全体をシリコンで覆い、シリコン上に埋め込んだ銀電極を介して表面筋電位信号を抽出する。なお、銀電極はシリコンで覆われていない。
銀電極は直径2mm、高さ2.5mmである。
舌骨上筋群用電極11は縦8mm、横12.5mm間隔で埋め込み、下顎底部全体を覆うように22個配置した。舌骨下筋群用電極12は縦8mm、横8mm間隔で埋め込み、頸部前面を覆うように22個配置した。また、GND電極14とバイポーラ電極の基準電極13を左右の耳朶にそれぞれ配置した。計測の際は接触抵抗を抑えるために電極表面にペースト(Elefix、日本光電)を塗布した多チャンネル電極10を被験者に取り付ける。多チャンネル電極10で得られた信号は筋電アンプボックス20に送られる。
FIG. 3 is a photograph showing the appearance of the multichannel electrode used in the swallowing function evaluation apparatus.
The multi-channel electrode 10 is connected to the myoelectric amplifier box 20. The suprahyoid muscle group electrode 11 has an inverted V shape that does not interfere with the larynx and can measure the left and right pedicle hyoid muscles that exist in the back of the bottom of the lower jaw. The electrode for subhyoid muscle group 12 does not interfere with the movement of the larynx and is U-shaped so that it can measure the left and right thyroid hyoid muscle, scapulohyoid muscle, sternohyoid muscle, and sternothyroid muscle. is there.
The substrate thickness of the multi-channel electrode 10 is 0.3 mm, and the whole is covered with silicon for substrate protection and electrical insulation, and a surface myoelectric potential signal is extracted through a silver electrode embedded on the silicon. The silver electrode is not covered with silicon.
The silver electrode has a diameter of 2 mm and a height of 2.5 mm.
The suprahyoid muscle group electrodes 11 were embedded at intervals of 8 mm in length and 12.5 mm in width, and 22 electrodes were arranged so as to cover the entire bottom of the mandible. The subhyoid muscle group electrodes 12 were embedded at intervals of 8 mm in length and 8 mm in width, and 22 electrodes were arranged so as to cover the front surface of the neck. Also, the GND electrode 14 and the bipolar reference electrode 13 are arranged on the left and right earlobe, respectively. At the time of measurement, in order to suppress contact resistance, a multi-channel electrode 10 having a paste (Elefix, Nihon Kohden) applied to the electrode surface is attached to the subject. The signal obtained by the multichannel electrode 10 is sent to the myoelectric amplifier box 20.

図4は同嚥下機能評価装置に用いる筋電アンプボックスの回路構成図である。
筋電アンプボックス20は、内部に計装アンプ(AD8226BRMZ)、オペアンプ(AD8622ARMZ)を格納しており、22chの表面筋電位計測が可能な仕様となっている。周波数帯域は14〜440Hz、ゲインは2052倍、電源は単三電池4本である。
差動増幅回路21にて各チャンネルから得られた信号と基準信号間の同相ノイズを除去して差動増幅する。差動増幅回路21から出力された信号からDCサーボ回路22にて低周波帯域信号を検出して除去する。差動増幅回路21から出力された信号は、信号増幅回路23にて信号を増幅し、アンチエイリアシングフィルタ回路24にて不要な高周波雑音を除去する。これにはAD変換時の帯域折り返しを防止する機能もある。最後にバンドパス/出力バッファ回路25にて回路内部で生じたオフセット信号や高周波ノイズを除去して出力する。
FIG. 4 is a circuit configuration diagram of a myoelectric amplifier box used in the swallowing function evaluation apparatus.
The myoelectric amplifier box 20 stores therein an instrumentation amplifier (AD8226BRMZ) and an operational amplifier (AD8622ARMZ), and is capable of measuring 22ch surface myoelectric potential. The frequency band is 14 to 440 Hz, the gain is 2052 times, and the power source is four AA batteries.
The differential amplifier circuit 21 performs differential amplification by removing in-phase noise between the signal obtained from each channel and the reference signal. The DC servo circuit 22 detects and removes the low frequency band signal from the signal output from the differential amplifier circuit 21. The signal output from the differential amplifier circuit 21 is amplified by the signal amplifier circuit 23, and unnecessary high frequency noise is removed by the anti-aliasing filter circuit 24. This also has a function of preventing band folding during AD conversion. Finally, the band pass / output buffer circuit 25 removes the offset signal and high frequency noise generated inside the circuit and outputs the result.

図5は同嚥下機能評価装置に用いる時系列データによる嚥下運動推定アルゴリズムの概略図である。
動作識別のアルゴリズムは、舌骨上筋群用多チャンネル電極11からの舌骨上筋群生体信号及び舌骨下筋群用多チャンネル電極12からの舌骨下筋群生体信号から特徴量を抽出する特徴抽出部41と、機械学習により嚥下状態を識別する動作学習・識別部42で構成され、制御器40で処理される。
特徴抽出部41は、生体信号として表面筋電位信号を用い、舌骨上筋群の筋活動による舌骨上筋群生体信号と、舌骨下筋群の筋活動による舌骨下筋群生体信号とから特徴量を抽出する。
そして、抽出した特徴量を用いて、サポートベクターマシンによって動作識別を行う。
特徴抽出部41では、動作識別を行う前に、表面筋電位(EMG)から、動作に関連した特徴的な信号成分(特徴量)を抽出し、特徴ベクトルを構成する。この特徴量には以下のものを用いた。
FIG. 5 is a schematic diagram of a swallowing motion estimation algorithm based on time series data used in the swallowing function evaluation apparatus.
The motion identification algorithm extracts features from the suprahyoid muscle group biosignal from the multichannel electrode 11 for the suprahyoid muscle group and the subhyoid muscle group biosignal from the multichannel electrode 12 for the subhyoid muscle group. And a motion learning / identification unit 42 that identifies the swallowing state by machine learning, and is processed by the controller 40.
The feature extraction unit 41 uses a surface myoelectric potential signal as a biological signal, and an upper hyoid muscle biomedical signal based on muscle activity of the upper hyoid muscle group and a subhyoid muscle biomedical signal based on muscle activity of the subhyoid muscle group. Extract feature values from
Then, using the extracted feature quantity, the operation is identified by the support vector machine.
The feature extraction unit 41 extracts a characteristic signal component (feature amount) related to the action from the surface myoelectric potential (EMG) before performing the action identification, and constructs a feature vector. The following were used for this feature amount.

Root Mean Square(RMS)
RMSは式1で表され、表面筋電位信号の振幅に関する特徴が得られる。
(1)
Root Mean Square (RMS)
RMS is expressed by Equation 1, and a characteristic regarding the amplitude of the surface myoelectric potential signal is obtained.
(1)

Cepstrum coefficient(CC)
CCは式2で表される。周波数領域から抽出する特徴量であり、パワースペクトルの包絡形状と微細構造の分離を行える特徴がある。次数が低いと包絡形状の特徴が、次数が高いと微細構造の特徴が表れる。

(2)
Cepstrum coefficient (CC)
CC is expressed by Equation 2. It is a feature amount extracted from the frequency domain, and has a feature capable of separating the envelope shape and fine structure of the power spectrum. When the order is low, the characteristics of the envelope shape appear, and when the order is high, the characteristics of the microstructure appear.

(2)

RMSの計算には過去nサンプルの表面筋電位を用いる。この際、nサンプル分を一つのフレームとして切り出して計算し、切り出す範囲を一定周期でシフトさせていくフレームシフト方式を用いる。ここで、nはフレーム長である。
図6は、フレームシフトを行う様子を示す図である。
さらにフレーム間の変動を抑えるため、式3のような移動平均を行って特徴量を平滑化した。ここで、pはフレーム番号、Mは移動平均点数である。
(3)
For the RMS calculation, the surface myopotential of the past n samples is used. At this time, a frame shift method is used in which n samples are cut out and calculated as one frame, and the cut out range is shifted at a constant period. Here, n is the frame length.
FIG. 6 is a diagram illustrating a state in which the frame shift is performed.
Furthermore, in order to suppress the variation between the frames, the feature amount is smoothed by performing a moving average as shown in Equation 3. Here, p is a frame number, and M is a moving average score.
(3)

また、計算された全チャンネルのRMSの総和に閾値処理を行い、嚥下の動作範囲(閾値を超えた部分)に対して、各舌動作に対応した動作ラベルを付与する。このようにして作成した動作ラベル、RMS、CCを用いて特徴ベクトルを構成し、学習・識別に用いる。     Further, threshold processing is performed on the calculated RMS sum of all channels, and motion labels corresponding to each tongue motion are assigned to the swallowing motion range (portion exceeding the threshold). A feature vector is constructed using the motion label, RMS, and CC created in this way, and used for learning and identification.

以下に図5に示す動作学習・識別部42について説明する。
最初に学習データを用いて識別関数を構成する。
ここで、機械学習に用いる学習データは、異なる装着位置で検出した複数の生体信号を用いることが好ましい。本実施例による嚥下機能評価法による嚥下機能評価を得るためには、電極装着後にキャリブレーション作業が必要となる。被験者が同一人物であっても、電極の装着位置が異なれば、各電極と筋との相対位置が変化し、検出される筋活動パターンも異なるものとなってしまう。従って、キャリブレーション作業は電極を装着する都度必要となり、煩わしく感じるため、電極装着ごとの学習作業を省略することが望まれる。
学習データとして異なる装着位置で検出した複数の生体信号を用いることで、複数位置での表面筋電位信号パターンと嚥下状態との関連付けを行うことができ、キャリブレーション作業を行うことなく正確な評価を行える。
The operation learning / identification unit 42 shown in FIG. 5 will be described below.
First, a discriminant function is constructed using learning data.
Here, as learning data used for machine learning, it is preferable to use a plurality of biological signals detected at different mounting positions. In order to obtain the swallowing function evaluation by the swallowing function evaluation method according to the present embodiment, calibration work is required after the electrode is mounted. Even if the subject is the same person, if the electrode mounting positions are different, the relative positions of the electrodes and the muscles change, and the detected muscle activity patterns will also be different. Therefore, the calibration work is required every time the electrode is mounted, and feels troublesome, so it is desirable to omit the learning work for each electrode mounting.
By using multiple biological signals detected at different wearing positions as learning data, it is possible to correlate surface myoelectric potential signal patterns and swallowing states at multiple positions, and perform accurate evaluation without performing calibration work. Yes.

サポートベクターマシン(Ssupport Vector Machine:SVM)は、教師あり学習を用いるパターン認識モデルの一つであり、分類や回帰へ適用できる手法として知られている。SVMでは、学習に用いる際の動作学習部と、学習結果を基に識別を行う動作識別部がある。
動作学習部では、特徴ベクトル(特徴量を並べたもの)と正解ラベル(動作クラスにラベル付けしたもの)が対になった学習データからSVMのハイパーパラメータを求め、識別関数を構成する。学習データは、ハイパーパラメータであるγ(カーネルパラメータ)とC(コストパラメータ)は格子探索により決定する。γとCの探索範囲はγ={2−3、2−2.5、・・・2}、C={2、23.5、・・・、2}の63通りの組み合わせとし、各格子点の識別率の中から最も高い識別率を示す組み合わせを探索する。なお、この際の識別率は、識別された動作ラベルと正解ラベルの正誤から求められ、交差検定(クロスバリデーション)により汎化性能の評価を行う。
動作識別部では学習によって作成された識別関数を基に特徴ベクトルから動作クラス(動作ラベル)を識別する。その後、識別した過去k個の動作ラベルに対して多数決判定を行い、運動状態を最終決定する。kの値を小さく設定すれば、リアルタイムの動作識別を可能にする。また、kの値を大きく設定し、嚥下開始から終了までのすべての動作ラベルをカバーするように多数決処理を行えば、嚥下開始から終了までの一連の動作を一つの動作として識別できる。
A support vector machine (SVM) is one of pattern recognition models using supervised learning, and is known as a method applicable to classification and regression. In the SVM, there are an operation learning unit used for learning and an operation identification unit that performs identification based on the learning result.
The action learning unit obtains SVM hyperparameters from learning data in which feature vectors (characteristics arranged in order) and correct labels (labeled action classes) are paired to form an identification function. In the learning data, γ (kernel parameter) and C (cost parameter), which are hyper parameters, are determined by lattice search. search range of gamma and C γ = {2 -3, 2 -2.5 , ··· 2 1}, C = {2 3, 2 3.5, ···, 2 6} combination of 63 kinds of And a combination showing the highest identification rate is searched from among the identification rates of the respective lattice points. The identification rate at this time is obtained from the correctness of the identified action label and correct answer label, and the generalization performance is evaluated by cross-validation (cross-validation).
The action identification unit identifies an action class (action label) from the feature vector based on an identification function created by learning. Thereafter, a majority decision is made on the identified past k action labels, and the motion state is finally determined. If the value of k is set small, real-time operation identification is possible. In addition, if the value of k is set large and the majority process is performed so as to cover all operation labels from the start to the end of swallowing, a series of operations from the start to the end of swallowing can be identified as one operation.

SVMは2クラスを識別する手法であるため、多数のクラスを識別する際にはマルチクラスへの拡張が必要となる。一般的にこの方法にはone−against−one法とone−against−all法の2種類が存在するが、本手法ではone−against−one法を採用した。これは、O個のクラスすべての組み合わせ、すなわちO(O−1)/2個の識別関数を構成し、各識別関数を用いて特徴ベクトルの識別を行う方法である。この手法の優位性はHsuらによる2種類の手法の学習時間と識別精度に関する比較実験より示されている。   Since SVM is a technique for identifying two classes, when identifying a large number of classes, extension to multi-class is necessary. In general, there are two kinds of this method, the one-against-one method and the one-against-all method. In this method, the one-against-one method is adopted. This is a method of constructing combinations of all O classes, that is, O (O-1) / 2 discriminant functions, and discriminating feature vectors using each discriminant function. The superiority of this method is shown by comparative experiments on learning time and identification accuracy of the two methods by Hsu et al.

図7は同嚥下機能評価装置に用いる画像認識による嚥下運動推定アルゴリズムの概略図である。
本実施例による嚥下機能評価法では、抽出した特徴量を画像ファイルに変換し、画像認識を行うことで嚥下状態を識別することが好ましい。なお、画像認識には、表面筋電位信号の生波形グラフを画像ファイルとして用いることができる。また、画像認識には、表面筋電位信号を、周波数分析やケプストラム分析などの分析処理することで得られた信号を画像ファイルとして用いることができる。
更にはこの画像認識をディープラーニングにより行うことが好ましいが、ディープラーニング以外の方法で行っても良い。また、抽出した特徴量を画像ファイルに変換することなく、図5に示す動作学習・識別部42をディープラーニングによる処理とすることもできる。ディープラーニングには、特徴量の抽出機能と特徴量の識別機能とがあり、ディープラーニングだけで画像認識を行っても良いし、ディープラーニングで画像から特徴量を抽出後、他の機械学習を用いて特徴量を識別しても良い。
また、嚥下状態の識別には、抽出した特徴量を画像化して画像認識を行った後に、再度特徴量を抽出し、この再度の特徴量を用いることもできる。
画像認識による嚥下運動推定アルゴリズムでは、前処理として計測した表面筋電位信号の画像化を行った後、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)(以下CNNと表記する)を用いて嚥下運動の識別を行う。
ただし、本実施例では、大規模な学習データがないため、CNNが特徴抽出器と動作識別器の二つの役割があることに着目し、(1)CNNを特徴抽出器、SVMを動作識別器として用いる方法、(2)事前学習済みのCNNを嚥下運動学習用データでFine−tuningしたCNNを、特徴抽出器および動作識別器として用いる方法、(3)(2)でFine−tuningされたCNNを特徴抽出器、SVMを動作識別器として用いる方法、の3つの方法で識別を行う。
FIG. 7 is a schematic diagram of a swallowing motion estimation algorithm based on image recognition used in the swallowing function evaluation apparatus.
In the swallowing function evaluation method according to the present embodiment, it is preferable to identify the swallowing state by converting the extracted feature amount into an image file and performing image recognition. For image recognition, a raw waveform graph of a surface myoelectric potential signal can be used as an image file. For image recognition, a signal obtained by analyzing surface myoelectric potential signals such as frequency analysis and cepstrum analysis can be used as an image file.
Furthermore, this image recognition is preferably performed by deep learning, but may be performed by a method other than deep learning. Further, the action learning / identification unit 42 shown in FIG. 5 can be processed by deep learning without converting the extracted feature quantity into an image file. Deep learning has a feature amount extraction function and a feature amount identification function. Image recognition may be performed only by deep learning, or after extracting feature amounts from images by deep learning, other machine learning is used. The feature amount may be identified.
For identification of the swallowing state, after extracting the feature quantity and performing image recognition, the feature quantity can be extracted again, and the feature quantity can be used again.
In the swallowing motion estimation algorithm based on image recognition, after the surface myoelectric potential signal measured as preprocessing is imaged, the swallowing motion is identified using a convolutional neural network (CNN) (hereinafter referred to as CNN). I do.
However, in this embodiment, since there is no large-scale learning data, it is noted that CNN has two roles of a feature extractor and an action discriminator. (1) CNN is a feature extractor and SVM is an action discriminator. (2) A method of using, as a feature extractor and an action discriminator, a CNN obtained by fine-tuning a pre-learned CNN using swallowing movement learning data, and (3) a CNN subjected to fine-tuning in (2) Are identified by three methods: a feature extractor and a method using SVM as an action identifier.

表面筋電位信号を画像ファイルに変換するための特徴抽出の方法について以下に説明する。
表面筋電位信号から、動作に関連した特徴的な信号成分(特徴量)を抽出し、それらを画像化する。特徴量の抽出方法には以下のものを用いた。
A feature extraction method for converting a surface myoelectric potential signal into an image file will be described below.
Characteristic signal components (features) related to the motion are extracted from the surface myoelectric potential signal and imaged. The following was used for the feature quantity extraction method.

fast Fouriertrans form(FFT)
FFTは式4で表され、表面筋電位信号のパワースペクトル(式5)を得ることができる。窓関数にはハニング窓(式6)を使用した。

(4)
(5)

(6)
fast Fouriertrans form (FFT)
The FFT is expressed by Equation 4, and the power spectrum (Equation 5) of the surface myoelectric potential signal can be obtained. A Hanning window (Equation 6) was used as the window function.

(4)
(5)

(6)

Cepstrum coefficient(CC)
CCは、式2と同様であるため省略する。
Cepstrum coefficient (CC)
CC is omitted because it is the same as Equation 2.

wavelet transformation
ウェーブレット変換は式7で表され、ウェーブレットは、式8で表される。また、式9によってスカログラムを得ることができる。ウェーブレット変換では、マザーウェーブレットおよびそれを拡大縮小し、平行移動したウェーブレットを用いて特徴のある時刻について詳細に調べることができる。高周波領域を解析するには短い基底を用いて時間分解能を上げ、低周波領域の解析に長い規定により周波数分解能を上げている。

(7)

(8)

(9)
wavelet transformation
The wavelet transform is expressed by Expression 7, and the wavelet is expressed by Expression 8. Moreover, a scalogram can be obtained by Equation 9. In the wavelet transform, it is possible to examine in detail the characteristic time using the mother wavelet and the wavelet that has been scaled and translated. In order to analyze the high frequency region, the time resolution is increased by using a short base, and the frequency resolution is increased by a long rule in the analysis of the low frequency region.

(7)

(8)

(9)

以下に表面筋電位信号の画像化について説明する。
得られた特徴量はチャンネル毎にカラーマッピングを行い画像化する。カラーマップの最大値と最小値は、各チャンネルの特徴量の最大値と最小値を平均したものとした。
図8は、一例として高速フーリエ変換により得られた特徴量を基に画像化した表面筋電位信号の写真である。
図8(a)に示すチャンネルごとに作成した画像は、解析に使用するチャンネル数に合わせて1枚の画像にまとめることで、図8(b)に示すように、1動作分の嚥下パターン画像とした。
The imaging of the surface myoelectric potential signal will be described below.
The obtained feature quantity is imaged by color mapping for each channel. The maximum value and the minimum value of the color map are obtained by averaging the maximum value and the minimum value of the feature amount of each channel.
FIG. 8 is a photograph of the surface myoelectric potential signal imaged based on the feature amount obtained by the fast Fourier transform as an example.
The images created for each channel shown in FIG. 8 (a) are combined into one image according to the number of channels used in the analysis, and as shown in FIG. It was.

CNNは、畳み込み層とプーリング層と呼ばれる2種類の層を交互に積み重ねた構造を持つフィードフォワード型のニューラルネットワークであり、画像認識の分野において優れた性能を示しているディープラーニングの手法の一つである。
畳み込み層では、入力画像とフィルタの積和計算を行い、フィルタが表す特徴的な濃淡構造を画像から抽出する。入力画像のサイズをW×W画素、入力画像の画素インデックスを(i,j)(i=0,...,W−1,j=0,...,W−1)とし、入力画像の画素値をxij、フィルタのサイズをH×Hとし、フィルタの画素インデックスを(p,q)(p=0,...,H−1,q=0,...,H−1)とし、フィルタの画素値をhpq、とすると、畳み込みの計算は式10で表される。

(10)
CNN is a feedforward neural network with a structure in which two types of layers called a convolution layer and a pooling layer are alternately stacked, and is one of the deep learning methods showing excellent performance in the field of image recognition. It is.
In the convolution layer, the product-sum calculation of the input image and the filter is performed, and the characteristic grayscale structure represented by the filter is extracted from the image. The size of the input image is W × W pixels, the pixel index of the input image is (i, j) (i = 0,..., W−1, j = 0,. Xij, the filter size is H × H, and the pixel index of the filter is (p, q) (p = 0,..., H−1, q = 0,..., H−1). Assuming that the pixel value of the filter is hpq, the calculation of convolution is expressed by Equation 10.

(10)

プーリング層では、画像の特定の範囲を選択し、その中から1つの画素値を求める。画素値の求め方にはいくつかの方法があり、最大プーリングでは画素値の最大値を選択する。また平均プーリングでは範囲の平均値を計算する。これにより、対象とする特徴量の画像内での位置が若干変化した場合でも、プーリング層の出力が不変になる。
図9は、画像サイズを8×8、プーリング範囲2×2とした時の最大プーリングの例を示している。
In the pooling layer, a specific range of the image is selected, and one pixel value is obtained therefrom. There are several methods for obtaining the pixel value. In the maximum pooling, the maximum pixel value is selected. In average pooling, the average value of the range is calculated. Thereby, even when the position of the target feature amount in the image is slightly changed, the output of the pooling layer remains unchanged.
FIG. 9 shows an example of maximum pooling when the image size is 8 × 8 and the pooling range is 2 × 2.

CNNの利用には幾つか難点がある。その一つがネットワークの構築である。一からネットワークの構築を行うには一つのタスクに付き大量のデータが必要となり、また、その大量の画像データを学習するための時間も必要となる。そこである程度異なる認識タスク間で、学習される特徴に共通性があるというCNNの性質を活かし、一からネットワークの構築をせず、すでに学習済みであるネットワークを今回のタスクに転用することで嚥下運動の識別を行う。
図10は、本実施例で用いた事前学習済み畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)であるAlexNetの構造を示す。
AlexNetはAlex Krizhevskyらによって提案された5層の畳み込み層と3つの全結合層からなるDeep CNNである。1、2番目の畳み込み層の後に正規化層、各正規化層の後と5番目の畳み込み層の後には最大プーリング層が用いられている。
There are several difficulties in using CNN. One of them is network construction. Building a network from scratch requires a large amount of data per task, and also requires time to learn that large amount of image data. Therefore, swallowing exercises by using the already learned network for this task without using the network construction from scratch, making the most of the CNN's characteristic that the learned features are common between recognition tasks that differ to some extent. Identify.
FIG. 10 shows the structure of AlexNet, which is a pre-learned convolutional neural network (CNN) used in this embodiment.
AlexNet is a Deep CNN composed of five convolutional layers and three all-coupling layers proposed by Alex Krizhevsky et al. A normalization layer is used after the first and second convolution layers, and a maximum pooling layer is used after each normalization layer and after the fifth convolution layer.

本実施例では、このAlexNetを以下に示す3つの方法で転用する。
図11は、(1)CNNを特徴抽出器、SVMを動作識別器として組み合わせて識別する方法を示す説明図である。
CNNを特徴抽出器として用いてSVMにより識別を行う方法では、ネットワークの重みを固定したまま入力画像をフィードフォワードし、適当な中間層の出力をそのまま特徴ベクトルとして扱う。そして、得られた特徴ベクトルでSVMの学習・識別を行う。得られる特徴ベクトルは、1枚の画像につき4096次元である。
CNNを特徴抽出器として用いる場合には、どの層から特徴抽出を行うかを考慮する必要がある。CNNでは、入力に近い層から識別層に近づくにつれ、徐々に低次の視覚的特徴からデータセットに特化した意味的な特徴に構造化されることが知られている。したがって、低すぎる層の特徴をとるとCNNの高い識別的構造の恩恵を受けることができず、逆に高すぎる層の特徴を選ぶと学習時のデータセットに特化しすぎてしまい、転移学習の性能が下がってしまうおそれがある。経験的には識別層の一つ二つ手前の全結合層を用いることが多い。本研究では、Alex Netの最後から2番目の全結合層における出力を特徴ベクトルとして扱った。
SVMによる動作学習・識別部について、ハイパーパラメータであるγとCは格子探索により決定する。γとCの探索範囲はγ={2−16、2−15.5、・・・2−12}、C={2、27.5、・・・、210}の63通りの組み合わせとし、各格子点の識別率の中から最も高い識別率を示す組み合わせを探索する。なお、この際の識別率は識別結果と、学習に用いたデータの動作クラスとの正誤から求められている。
動作識別部では学習によって作成された識別関数を基に特徴ベクトルを識別し、動作クラスを付与する。
In this embodiment, this AlexNet is diverted by the following three methods.
FIG. 11 is an explanatory diagram showing a method for identifying (1) CNN as a feature extractor and SVM as an action identifier.
In the method of performing identification by SVM using CNN as a feature extractor, the input image is feed forward with the network weight fixed, and the output of an appropriate intermediate layer is directly used as a feature vector. Then, SVM learning / identification is performed using the obtained feature vectors. The resulting feature vector is 4096 dimensions per image.
When CNN is used as a feature extractor, it is necessary to consider from which layer the feature extraction is performed. In CNN, it is known that as the layer closer to the input approaches the discriminating layer, it gradually becomes structured from a low-order visual feature to a semantic feature specialized for a data set. Therefore, taking features of a layer that is too low cannot benefit from a discriminatory structure with high CNN, and conversely, selecting features of a layer that is too high results in too much specialization in the learning dataset, There is a risk of performance degradation. Empirically, it is often the case that all the coupling layers before the identification layer are used. In this study, we treat the output from the last fully connected layer of Alex Net as a feature vector.
For the action learning / identification unit by SVM, the hyperparameters γ and C are determined by lattice search. search range of gamma and C γ = {2 -16, 2 -15.5 , ··· 2 -12}, C = {2 7, 2 7.5, ···, 2 10} 63 Street A combination showing the highest identification rate is searched from among the identification rates of the respective lattice points. Note that the discrimination rate at this time is obtained from the correctness of the discrimination result and the action class of the data used for learning.
The action identification unit identifies a feature vector based on an identification function created by learning and assigns an action class.

図12は、Fine−tuningされたCNNにより識別する方法を示す説明図である。
(2)CNNをFine−tuningする方法では、Alex Netの識別部だけを対象のタスクのものに付け替え、その他の部分はAlex Netのパラメータを初期値として用い、ネットワーク全体の再学習を行う。そして再学習されたネットワークを用いて識別を行う。本研究では入力層から2つ目の全結合層までの重みを固定し、残りの全結合層、ソフトマックス層、出力層を新しいものに替え再学習する。Fine−tuningで使用するパラメータはベイズ最適化によって最適化した。
FIG. 12 is an explanatory diagram showing a method of identifying by a fine-tuned CNN.
(2) In the method of fine-tuning the CNN, only the Alex Net identification unit is replaced with the target task, and the rest of the network is re-learned using the Alex Net parameters as initial values. Then, identification is performed using the re-learned network. In this study, the weight from the input layer to the second fully connected layer is fixed, and the remaining fully connected layer, softmax layer, and output layer are replaced with new ones and retrained. Parameters used in Fine-tuning were optimized by Bayesian optimization.

(3)Fine−tuningされたCNNを特徴抽出器としてSVMで識別する方法では、図12に示すFine−tuningされたCNNにより識別する方法と同様に、画像化した表面筋電位信号を用いてAlex NetのFine−tuningを行った後、図11に示すCNNを特徴抽出器としてSVMで識別する方法と同様にFine−tuningされたAlex Netを特徴抽出器として特徴ベクトルを作成し、SVMによって識別を行う。   (3) In the method of identifying a fine-tunned CNN as a feature extractor by SVM, the method of identifying by using the fine-tuned CNN shown in FIG. After performing Fine-tuning of Net, a feature vector is created by using Fine Net-tuned Alex Net as a feature extractor in the same manner as the method for identifying CNN as a feature extractor shown in FIG. Do.

以下に、画像認識による嚥下運動識別法の検証結果を説明する。
被験者は嚥下機能が正常な健常成人男性6名(年齢22.7±1.2歳、身長172.7±5.5cm、体重60.0±5.5kg、mean±SD)とし、被験者名をA、B、C、D、E、Fと区別する。
図13は、実験に用いた多チャンネル電極の電極配置とチャンネル番号の関係を示す図である。
実験では下顎部に舌骨上筋群用22チャンネルフレキシブル電極、頸部に舌骨下筋群用22チャンネルフレキシブル電極、耳朶に耳電極を装着した。舌骨上筋群は図13(a)の1、2番の電極からオトガイまでの距離が25mmから30mmの間で、電極が顎骨に当たらない位置に装着した。舌骨下筋群は図13(b)の5、6番の電極が甲状軟骨(喉仏)が前方に最も突出している部分に位置するように装着した。表面筋電位信号は、各表面電極と一方の耳朶に貼り付けた基準電極との電位差を、もう一方の耳朶に貼りつけたGND電極を基準に差動増幅することにより導出した。これにより任意の2点間電位差を、通常の差動増幅表面筋電位のように取り出すことができる。
図14は、実際に装着した様子を示す写真である。
計測の際は電極の位置がずれないように、舌骨上筋群用22チャンネルフレキシブル電極は図14(b)の帽子で、舌骨下筋群用22チャンネルフレキシブル電極は図14(c)のバンドでそれぞれ固定した。
Below, the verification result of the swallowing movement identification method by image recognition is demonstrated.
The subjects were 6 healthy adult men with normal swallowing function (age 22.7 ± 1.2 years, height 172.7 ± 5.5 cm, weight 60.0 ± 5.5 kg, mean ± SD). A, B, C, D, E, and F are distinguished.
FIG. 13 is a diagram showing the relationship between the electrode arrangement of the multi-channel electrodes used in the experiment and the channel numbers.
In the experiment, a 22-channel flexible electrode for the upper hyoid muscle group was attached to the lower jaw, a 22-channel flexible electrode for the lower hyoid muscle group was attached to the neck, and an ear electrode was attached to the earlobe. The suprahyoid muscle group was mounted at a position where the distance from the No. 1 and No. 2 electrodes in FIG. 13 (a) to the chin guy was between 25 mm and 30 mm and the electrode did not hit the jawbone. The subhyoid muscle group was mounted so that the electrodes Nos. 5 and 6 in FIG. 13B were located at the portion where the thyroid cartilage (throat Buddha) protruded most forward. The surface myoelectric potential signal was derived by differentially amplifying the potential difference between each surface electrode and the reference electrode attached to one earlobe with reference to the GND electrode attached to the other earlobe. As a result, a potential difference between any two points can be taken out like a normal differential amplification surface muscle potential.
FIG. 14 is a photograph showing a state of actual wearing.
In order to prevent the position of the electrode from being shifted during measurement, the 22-channel flexible electrode for the suprahyoid muscle group is the cap shown in FIG. 14B, and the 22-channel flexible electrode for the subhyoid muscle group is shown in FIG. 14C. Each band was fixed.

図15は、実験での計測動作を示す図である。
嚥下は随意運動と反射運動からなる複雑な運動である。そこで、本実験ではまず随意嚥下の強さの違いを検討するために、普段通りの嚥下と最大努力での嚥下(意識的に力強く飲み込む動作)の2種類を対象とした。また、反射運動の違いを検討するために一回の嚥下量を水3mlと15mlとした。そして、これらを組み合わせた合計4動作(3ml(普通:NS3)、3ml(最大努力:ES3)、15ml(普通:NS15)、15ml(最大努力:ES15))を1セットとして20セットの計測を行った。1回嚥下量である3mlは、嚥下機能の簡易検査(スクリーニング)の1つである改訂水飲みテストの規定量、15mlは舌で一度にすくえる一般的な嚥下量である。試料の水は口腔底にシリンジで挿入し、その後の指示により嚥下を行うこととし、舌で水をすくってから飲み込むまでを計測対象とした。実験時の姿勢は座位とし、実験の最中に頸部の角度が変化しないよう頭部を壁に固定した。一回の計測を安静2秒間の後2秒以内で嚥下、2秒間安静の計6秒間として、3ml(普通:NS3)、3ml(最大努力:ES3)、15ml(普通:NS15)、15ml(最大努力:ES15)の順に1動作ずつ計測を行った。連続の嚥下による筋肉疲労を考慮し、3ml(最大努力:ES3)、15ml(普通:NS15)の間に10秒間、15ml(最大努力:ES15)の後に30秒間の休憩を挟んだ。表面筋電位は、増幅率2,052倍、サンプリング周波数2,000Hzで計測した。
FIG. 15 is a diagram illustrating a measurement operation in the experiment.
Swallowing is a complex movement consisting of voluntary movement and reflex movement. Therefore, in this experiment, in order to examine the difference in the strength of voluntary swallowing, two types of swallowing as usual and swallowing with maximum effort (operation to swallow consciously and powerfully) were targeted. Moreover, in order to examine the difference in reflex movement, the amount of swallowing at one time was 3 ml and 15 ml of water. Then, a total of 4 actions (3 ml (normal: NS3), 3 ml (maximum effort: ES3), 15 ml (normal: NS15), 15 ml (maximum effort: ES15)) are combined, and 20 sets are measured. It was. 3 ml, which is a swallowing amount, is a prescribed amount for a revised drinking test, which is one of the simple tests (screening) of swallowing function, and 15 ml is a general swallowing amount that can be swallowed at once with the tongue. The sample water was inserted into the floor of the mouth with a syringe and swallowed according to the subsequent instructions. The posture during the experiment was a sitting position, and the head was fixed to the wall so that the neck angle did not change during the experiment. Swallowing within 2 seconds after resting for 2 seconds and resting for 2 seconds for a total of 6 seconds, 3 ml (normal: NS3), 3 ml (maximum effort: ES3), 15 ml (normal: NS15), 15 ml (maximum Effort: Measurement was performed one operation at a time in the order of ES15). Considering muscle fatigue due to continuous swallowing, a break of 30 seconds was sandwiched between 15 ml (maximum effort: ES15) for 10 seconds between 3 ml (maximum effort: ES3) and 15 ml (normal: NS15). The surface myoelectric potential was measured at an amplification factor of 2,052 times and a sampling frequency of 2,000 Hz.

図16は、一人分の識別率の算出方法の一例を示す図である。
学習・識別は、計測データの偏りの影響を受けないようにするために、図16の方法(クロスバリデーション)で行った。計測データを1から順にA、B、C、Dの4つに振り分けていく。次に、2つを学習用データ、残りの2つをテスト用データし学習・識別を行っていく。これを全ての組み合わせ、計6通りで行い識別率を計算する。識別率は式11で与えられる。

(11)
FIG. 16 is a diagram illustrating an example of a method for calculating the identification rate for one person.
Learning / identification was performed by the method of FIG. 16 (cross-validation) so as not to be affected by the bias of the measurement data. The measurement data is assigned to A, B, C, and D in order from 1. Next, learning and identification are performed using two pieces of learning data and the remaining two pieces of test data. This is performed for all combinations in a total of six ways to calculate the identification rate. The identification rate is given by Equation 11.

(11)

得られた6つの識別率の平均を最終的な識別率とした。推定精度の評価の指標には、最終的に得られた平均識別率を用いた。
なお、特に断りのない場合、識別率の計算結果は被験者6名に対するmean±SDで示す。
The average of the obtained six discrimination rates was used as the final discrimination rate. The average recognition rate finally obtained was used as an index for evaluating the estimation accuracy.
Unless otherwise specified, the calculation result of the identification rate is expressed as mean ± SD for six subjects.

図17は、2動作識別(2クラス分類)を行う際の識別動作の組み合わせを示す図である。
図17に示すiからviは組み合わせと対応させた番号であり、例えば、NS3とES3の比較ならばiとしている。
FIG. 17 is a diagram illustrating combinations of identification operations when performing two-operation identification (two-class classification).
The numbers i to vi shown in FIG. 17 are numbers corresponding to the combinations. For example, i is set to i in the comparison between NS3 and ES3.

画像化のための特徴量の抽出方法が識別精度に与える影響について以下に説明する。
高速フーリエ変換(fast Fourier transform:FFT)、Cepstrum coefficient(CC)、ウェーブレット変換の3つの方法を用いて特徴量を抽出し作成された画像を使用して識別を行った時の識別精度の違いを比較検討する。
The influence of the feature quantity extraction method for imaging on the identification accuracy will be described below.
The difference in the identification accuracy when the image is created by extracting the feature value using the three methods of fast Fourier transform (FFT), Cepstrum coefficient (CC), and wavelet transform. Consider comparison.

FFTとウェーブレット変換ではそれぞれスペクトログラムとスカログラムを作成した。縦軸は周波数、横軸は時間であり、周波数は0〜1,000Hzで表現している。CCは低次のCCから順に画像の下から上に並べることで画像化を行った。縦軸はケプストラム係数の次数、横軸は時間であり、ケプストラム係数の次数は1〜5を使用した。
図18は、図13に示す電極番号と配置を基にした画像の配置を示す図である。
各チャンネルの画像は、表を1動作分の画像と見立て、各マスには1チャンネル分の画像が入る。各マスにかかれている数字は電極番号を表している。
図19は各特徴量抽出方法によって作成された1動作分の画像を示す写真である。
図21は各特徴抽出方法によって作成された画像を使用し、学習・識別を行った時の識別結果を示すグラフである。なお、ここでは、各筋群の嚥下動作識別率への寄与度を検討するために、舌骨上筋群の表面筋電位もしくは舌骨下筋群の表面筋電位を用いた場合の識別率を求めた。
2動作識別では、識別する動作の組み合わせにより多少の違いはあるものの、舌骨上筋群、舌骨下筋群のどちらの表面筋電を用いた場合でも、CCを用いて識別した時に、他の特徴量抽出方法よりも安定して高い識別率を得ることができた。4動作識別では、舌骨上筋群、舌骨下筋群共に特徴抽出方法としてCCを用いて識別して時に一番高い識別率を示した。また、CCが3つの条件の中で唯一80%を越える結果となった。
この理由としては、今回比較した3つの特徴抽出方法は全て周波数領域における特徴抽出法であるが、CCが他の特徴量抽出方法に比べて、5次元という少ない情報量でスペクトルの特徴を表現できる。そのため、Alex Netの入力画像サイズである227×227pixelにリサイズされた時に、識別のための分解能の低下が少なかったためと考えられる。
以上の結果から、本計測データに対する、本解析条件おいては、特徴量の抽出方法にCCが最も適していることが示唆された。また、表面筋電位の画像化を行い、CNNを特徴抽出器として使用しSVMで識別を行うという方法で嚥下動作の識別ができる可能性が示された。
In the FFT and wavelet transform, spectrogram and scalogram were created respectively. The vertical axis represents frequency, the horizontal axis represents time, and the frequency is represented by 0 to 1,000 Hz. The CCs were imaged by arranging them from the bottom to the top in order from the low-order CC. The vertical axis is the order of the cepstrum coefficient, the horizontal axis is time, and the order of the cepstrum coefficient is 1-5.
FIG. 18 is a diagram showing the arrangement of images based on the electrode numbers and arrangement shown in FIG.
As for the image of each channel, the table is regarded as an image for one operation, and an image for one channel enters each square. The number on each square represents the electrode number.
FIG. 19 is a photograph showing an image for one operation created by each feature quantity extraction method.
FIG. 21 is a graph showing identification results when learning / identification is performed using images created by each feature extraction method. Here, in order to examine the contribution of each muscle group to the swallowing movement identification rate, the identification rate when using the surface myoelectric potential of the upper hyoid bone group or the surface myoelectric potential of the subhyoid muscle group is shown. Asked.
In 2 motion identification, although there are some differences depending on the combination of motions to be identified, when using the surface myoelectricity of either the hyoid or subhyoid muscle group, It was possible to obtain a high identification rate more stably than the feature extraction method. In the four-motion classification, both the upper hyoid muscle group and the subhyoid muscle group were identified using CC as a feature extraction method, sometimes showing the highest classification rate. In addition, CC was the only result exceeding 80% among the three conditions.
The reason for this is that all the three feature extraction methods compared this time are feature extraction methods in the frequency domain, but the CC can express spectral features with a small amount of information of five dimensions compared to other feature extraction methods. . For this reason, it is considered that when the image size was resized to 227 × 227 pixels, which is the input image size of Alex Net, there was little decrease in resolution for identification.
From the above results, it was suggested that CC is most suitable as a feature amount extraction method under the present analysis conditions for the present measurement data. In addition, it was shown that the swallowing motion could be identified by imaging the surface myoelectric potential and using CNN as the feature extractor and identifying with SVM.

識別器が識別精度に与える影響について以下に説明する。なお、ここでは、各筋群の嚥下動作識別率への寄与度を検討するために、舌骨上筋群の表面筋電位もしくは舌骨下筋群の表面筋電位を用いた場合の識別率を求めた。
事前学習済みのネットワークの利用方法には、特徴抽出器としての利用する方法と、Fine−tuningを行う2つの方法がある。そこで、最適化されたパラメータを基に作成された画像を用いて学習・識別を行い、(1)CNNを特徴抽出器として用いてSVMで識別する方法、(2)Fine−tuningされたCNNにより識別する方法、(3)Fine−tuningされたCNNを特徴抽出器として用いてSVMで識別する方法、による識別精度を比較し、どの識別器が最適であるか検討する。
図22は、識別器が識別精度に与える影響を検討する上での解析条件を示している。
Fine−tuningに用いることができる画像が少ないため、学習過程における検証用データに識別用データ(テストデータ)10セットを用いた。そのため、Fine−tuningされたCNNによる識別率は純粋な識別率とは言えないため、今回は参考程度の識別率として比較を行う。
図23は、各識別器で学習・識別を行った時の識別率を示すグラフである。
2動作識別では、(2)識別器にFine−tuningしたCNNを使用した時、組み合わせによっては(1)CNNを特徴抽出器として使用した時よりも識別率が高くなるものがあったが、全組み合わせの平均識別率で見ると(1)CNNを特徴抽出器として使用した時よりも低い識別率となった。(3)Fine−tuningしたCNNを特徴抽出器として使用した時には、ほぼ全ての動作の組み合わせで他の2つより識別率が下がり、平均識別率でも最も低い識別率となった。4動作識別では、(1)CNNによる特徴抽出器+SVMによる動作識別が他の2つよりも高い識別率となった。
この理由としては、今回学習・識別に使用できるデータ数が足りなかったためFine−tuningで再学習が十分に進まなかったと考えられる。2動作識別で識別率が上がった組み合わせがあったのは、検証用データ(テストデータ)と識別データに同じデータを使用しているためFine−tuningしたCNNを使用した場合ではテストデータの情報が含まれたような学習となり識別率が上がったのだと考えられる。
今回は識別器に最も識別率が高かった、(1)CNNを特徴抽出器として用いてSVMで識別する方法を最適と判断した。
ただし、Fine−tuningに関してはデータ数が増えることによって識別率が向上する可能性が十分にある。
The influence of the discriminator on the discrimination accuracy will be described below. Here, in order to examine the contribution of each muscle group to the swallowing movement identification rate, the identification rate when using the surface myoelectric potential of the upper hyoid bone group or the surface myoelectric potential of the subhyoid muscle group is shown. Asked.
There are two methods of using a network that has been learned in advance: a method of using as a feature extractor and a method of performing fine-tuning. Therefore, learning and identification are performed using an image created based on the optimized parameters, and (1) a method of identifying with SVM using CNN as a feature extractor, and (2) a fine-tuning CNN. The discrimination accuracy by the discrimination method and (3) the discrimination method by the SVM using the fine-tuned CNN as a feature extractor are compared, and which discriminator is optimal is examined.
FIG. 22 shows analysis conditions for examining the influence of the discriminator on the discrimination accuracy.
Since there are few images that can be used for Fine-tuning, 10 sets of identification data (test data) were used as verification data in the learning process. For this reason, the discrimination rate by the fine-tuned CNN cannot be said to be a pure discrimination rate, and this time, the comparison is performed as an identification rate of a reference level.
FIG. 23 is a graph showing an identification rate when learning / identification is performed by each classifier.
In 2-motion identification, (2) when a fine-tuning CNN was used for the classifier, depending on the combination, (1) the identification rate was higher than when CNN was used as a feature extractor. Looking at the average identification rate of the combination, (1) the identification rate was lower than when CNN was used as a feature extractor. (3) When a fine-tuning CNN was used as a feature extractor, the discrimination rate was lower than the other two in almost all combinations of operations, and the average discrimination rate was the lowest. In the 4-motion discrimination, (1) the feature discrimination by CNN + motion discrimination by SVM has a higher discrimination rate than the other two.
The reason for this is considered that the re-learning did not proceed sufficiently by Fine-tuning because the number of data that can be used for learning / identification was insufficient. 2 There is a combination in which the identification rate has increased in the operation identification. Since the same data is used for the verification data (test data) and the identification data, the information of the test data is obtained when the fine-tuning CNN is used. It is thought that the learning rate was included and the recognition rate increased.
This time, the discriminator had the highest discrimination rate. (1) The method of discriminating with SVM using CNN as a feature extractor was judged to be optimal.
However, with regard to Fine-tuning, there is a possibility that the identification rate is improved by increasing the number of data.

舌骨上筋群のみ使用した場合、舌骨下筋群のみ使用した場合、舌骨上筋群と舌骨下筋群の特徴量を合成した場合、舌骨上筋群と舌骨下筋群を1枚の画像に画像化した場合、の4つの方法で学習・識別した時の識別精度について比較、検討した結果を以下に説明する。   When only the upper hyoid muscle group is used, when only the subhyoid muscle group is used, or when the features of the upper hyoid muscle group and the subhyoid muscle group are combined, the upper hyoid muscle group and the subhyoid muscle group In the following, the results of comparison and examination of the identification accuracy when learning / identification is performed by the four methods will be described below.

図24は舌骨上筋群と舌骨下筋群との特徴量を合成する場合の構造を示す図である。
舌骨上筋群と舌骨下筋群の特徴量を合成する場合、まず舌骨上筋群の表面筋電位信号から作成した画像ファイルと、舌骨下筋群の表面筋電位信号から作成した画像ファイルを、CNNを特徴抽出器として用いてそれぞれで4096次元の特徴ベクトルを作成する。そして、2つの特徴量を合成し8192次元の特徴ベクトルを作成し、SVMで学習識別を行う。
図25は、舌骨上筋群と舌骨下筋群を1枚の画像に画像化する方法を示す図である。
1枚の画像に画像化する場合、たとえば、22チャンネルの表面筋電位信号から任意の16チャンネルを選択する、あるいは、任意の2つのチャンネル間電位差を計算し、新たな表面筋電位信号を16チャンネル作成する、あるいはこれらの組み合わせにより16チャンネルの表面筋電位信号があるとする。このとき、6×6のマトリクスに舌骨上筋群と舌骨下筋群の各チャンネルの画像を図25のように並べて1枚の画像に変換する。このように検出に用いるチャンネルそのものを用いることなく、各チャンネル間の電極間電位差を計算し、新たな筋電位信号を作り出し、画像化に用いるチャンネル数や表面筋電位信号を任意に選択することができる。
FIG. 24 is a diagram showing a structure in the case of synthesizing feature amounts of the upper hyoid bone group and the subhyoid muscle group.
When synthesizing the features of the suprahyoid and subhyoid muscle groups, first the image file created from the surface myoelectric signal of the upper hyoid muscle group and the surface myoelectric signal of the subhyoid muscle group were created. 4096-dimensional feature vectors are created for each image file using CNN as a feature extractor. Then, the two feature quantities are combined to create an 8192-dimensional feature vector, and learning identification is performed using SVM.
FIG. 25 is a diagram illustrating a method of imaging the upper hyoid bone group and the subhyoid muscle group into one image.
When imaging into one image, for example, any 16 channels are selected from 22 channels of surface myoelectric potential signals, or the potential difference between any two channels is calculated, and a new surface myoelectric potential signal is sent to 16 channels. It is assumed that there is a 16-channel surface myoelectric potential signal created or a combination thereof. At this time, the images of the channels of the upper hyoid bone group and the subhyoid muscle group are arranged in a 6 × 6 matrix as shown in FIG. 25 and converted into one image. Thus, without using the channel itself used for detection, it is possible to calculate the potential difference between the electrodes between the channels, create a new myoelectric potential signal, and arbitrarily select the number of channels used for imaging and the surface myoelectric potential signal. it can.

図26は、使用電極による識別率の検討に用いる解析条件を示している。
図27は、使用電極毎の識別率の結果を示すグラフである。
2動作識別、4動作識別ともに舌骨上筋群のみ、舌骨下筋群のみで学習、識別を行った時よりも、舌骨上筋群と舌骨下筋群両方の表面筋電位信号を用いて識別を行った時のほうが高い識別率となった。また、1枚の画像に画像化するよりも、特徴量を合成したほうが高い識別率となった。
この理由としては1枚の画像に画像化する方法では、画像認識に用いる画像サイズ(227×227pixel)が決まっているため、多くのチャンネルの画像を入れると、一つのチャンネルが持つ情報量が(いわゆる識別のための分解能)が落ちてしまうため特徴量抽出で識別に必要な特徴を抽出しきれなかったと考えられる。一方、特徴量を合成する方法では、舌骨上筋群と舌骨下筋群それぞれで特徴を抽出したために、双方の特徴をよく捉えることができた特徴ベクトルで学習・識別できたためと考えられる。
よって、本計測データに対する、本解析条件おいては、舌骨上筋群と舌骨下筋群の特徴量を合成する方法が嚥下運動の識別に最適だと判断した。
FIG. 26 shows analysis conditions used for examining the identification rate by the electrodes used.
FIG. 27 is a graph showing the result of the identification rate for each electrode used.
Compared to the case of learning and identification only in the suprahyoid muscle group and the subhyoid muscle group in both the 2 movement identification and 4 movement identification, the surface myoelectric signal of both the hyoid and subhyoid muscle groups is obtained. The identification rate was higher when the identification was performed. In addition, the identification rate is higher when the feature amounts are synthesized than when the image is formed into one image.
This is because the image size (227 × 227 pixels) used for image recognition is determined in the method of imaging into a single image, so if many channels of images are included, the amount of information that one channel has (( It is considered that the features necessary for identification could not be extracted by the feature amount extraction because the resolution for so-called identification) dropped. On the other hand, in the method of synthesizing features, the features were extracted from the suprahyoid and subhyoid muscle groups, so it was thought that they could be learned and identified with feature vectors that could capture both features well. .
Therefore, under this analysis condition for this measurement data, it was determined that the method of combining the features of the superior hyoid bone group and the subhyoid muscle group was the best for identifying swallowing movements.

随意嚥下や嚥下反射に対する舌骨上筋群と舌骨下筋群の機能解明についての検討結果を以下に説明する。
舌骨上筋群と舌骨下筋群の筋機能に着目し、随意嚥下の強度や一回嚥下量を変化させた時の各筋群の働きが、識別精度にどのように現れるか検討した。
The results of studies on elucidating the functions of the suprahyoid and subhyoid muscle groups for voluntary swallowing and swallowing reflex are described below.
Focusing on the muscular functions of the hyoid and subhyoid muscle groups, we examined how the function of each muscle group appears in the discrimination accuracy when the voluntary swallowing strength and swallowing amount are changed. .

図28は舌骨上筋群と舌骨下筋群の識別率の検討に用いる解析条件を示している。
使用する表面筋電位信号のチャンネル数は、電位差の算出の仕方による影響を受けないようにするため22チャンネルと16チャンネルで行う。
図29は22チャンネルにおける舌骨上筋群と舌骨下筋群の2動作識別の結果を示すグラフである。
まず一回嚥下量が等しく、飲み込む強さを変化させた時、つまり3ml(普通:NS3)と3ml(最大努力:ES3)を識別した場合(i)と15ml(普通:NS15)と15ml(最大努力:ES15)を識別した場合(vi)について見ると、双方とも舌骨下筋群より舌骨上筋群のほうが高い識別率となった。舌骨上筋群には、舌の根本に位置する舌骨を安定して支えるという役割があり、嚥下の強さ、すなわち水分や食塊を口腔から咽頭に送り込む力によって、舌骨の支え方が大きく変化するため、舌骨上筋群の表面筋電位で高い識別率を得ることができたと考えられる。
次に飲み込む強さが一定で、一口嚥下量を変えた時を変化させた時、つまり3ml(普通:NS3)と15ml(普通:NS15)を識別した場合(ii)と3ml(最大努力:ES3)と15ml(最大努力:ES15)識別した場合(v)について見ると、双方とも舌骨上筋群より舌骨下筋群のほうが高い識別率となった。舌骨下筋群には、舌骨上筋群の収縮に伴う反射運動として、喉頭を最高位に引き上げ、喉頭を閉鎖する役割がある。喉頭閉鎖のタイミングや閉鎖時間は、一口量の増加に伴って変化することが知られているため、舌骨下筋群の表面筋電位に一口嚥下量の違いが表れたと考えられる。しかし、(v)では舌骨上筋群、舌骨下筋群共に識別率が約85%と他に比べ低い結果となった。これは、量の変化による表面筋電位の変化だけでなく、強く嚥下したことによる表面筋電位の変化も特徴として表れ、画像化した時に量の変化による特徴がわかりにくくなったためだと考えられる。
以上から随意嚥下の強度は舌骨上筋群の活動パターンに、一回の嚥下量の違いは舌骨下筋群の活動パターンに表れやすいことが示唆された。この知見は嚥下機能の低下の早期発見や、訓練指針の決定などへの活用が期待される。
FIG. 28 shows analysis conditions used for examining the discrimination rate between the hyoid and subhyoid muscle groups.
The number of channels of the surface myoelectric potential signal to be used is 22 channels and 16 channels so as not to be affected by how to calculate the potential difference.
FIG. 29 is a graph showing the results of two motion discrimination results for the upper hyoid bone group and the subhyoid muscle group in the 22 channel.
First, when the swallowing amount is equal and the swallowing strength is changed, that is, when 3 ml (normal: NS3) and 3 ml (maximum effort: ES3) are identified (i), 15 ml (normal: NS15) and 15 ml (maximum) Effort: When ES15) was identified, (vi) showed a higher discrimination rate in the suprahyoid muscle group than in the subhyoid muscle group. The suprahyoid muscle group has the role of stably supporting the hyoid bone located at the base of the tongue, and the hyoid bone is supported by the strength of swallowing, that is, the force that feeds water and bolus from the mouth to the pharynx. It is considered that a high discrimination rate was obtained with the surface myoelectric potential of the suprahyoid muscle group.
Next, when the swallowing strength is constant and the swallowing amount is changed, that is, when 3 ml (normal: NS3) and 15 ml (normal: NS15) are identified (ii) and 3 ml (maximum effort: ES3 ) And 15 ml (maximum effort: ES15), (v) showed a higher discrimination rate in the subhyoid muscle group than in the upper hyoid muscle group. The subhyoid muscle group has a role of raising the larynx to the highest position and closing the larynx as a reflex movement accompanying the contraction of the suprahyoid muscle group. Since it is known that the timing and closing time of the larynx change as the mouthful volume increases, it is considered that the difference in the swallowing amount appears in the surface myoelectric potential of the subhyoid muscle group. However, in (v), the discrimination rate for both the hyoid and subhyoid muscle groups was about 85%, which was lower than the others. This is thought to be due to the fact that not only changes in surface myoelectric potential due to changes in amount but also changes in surface myoelectric potential due to strong swallowing appeared as features, making it difficult to understand the features due to changes in amount when imaged.
These results suggest that the intensity of voluntary swallowing is likely to appear in the activity pattern of the suprahyoid muscle group, and the difference in swallowing amount is likely to appear in the activity pattern of the subhyoid muscle group. This knowledge is expected to be used for early detection of swallowing function decline and decision of training guidelines.

図30は平均識別率によって得られた結果の有効性の検証結果を示している。
被験者6人の平均識別でそれぞれの電極で得られる表面筋電位信号について考察を行ったが、今回は被験者が少ないため平均識別率は一人の識別結果によって大きく左右されてしまう。そこで、被験者毎にそれぞれ舌骨上筋群と舌骨下筋群の識別率を比較し識別率が高い方に1つカウントし、その人数により動作毎に優位な舌骨筋群を決定し、その結果から平均識別率によって得られた結果の有効性を調べた。2つの識別率を比較し同じだった場合にはどちらもカウントしないこととする。
図30では、舌骨上筋群と舌骨下筋群の2動作識別の結果を被験者毎に比較しカウントしたものを示している。各マス内の左側数値は舌骨上筋群が舌骨下筋群の識別率を上回っている人数、各マス内の右側数値は舌骨下筋群の識別率が舌骨上筋群の識別率を上回っている人数を示す。
3ml(普通:NS3)と3ml(最大努力:ES3)を識別した場合(i)と15ml(普通:NS15)と15ml(最大努力:ES15)を識別した場合(vi)に舌骨上筋群が舌骨下筋群の識別率を上回り、それ以外では舌骨下筋群の識別率が舌骨上筋群の識別率を上回った。この結果からも随意嚥下の強度は舌骨上筋群の活動パターンに、一回の嚥下量の違いは舌骨下筋群の活動パターンに表れやすいということができる。
以上から、平均識別率によって得られた結果の有効性が確認された
FIG. 30 shows a verification result of the validity of the result obtained by the average discrimination rate.
Although the surface myoelectric potential signal obtained by each electrode by the average discrimination of 6 subjects was considered, since there are few subjects this time, the average discrimination rate greatly depends on the discrimination result of one person. Therefore, for each subject, the identification rate of the superior hyoid bone group and the subhyoid muscle group is compared, and the one with the higher identification rate is counted, and the superior hyoid muscle group is determined for each movement according to the number of people, From the results, the effectiveness of the results obtained by the average discrimination rate was examined. If the two identification rates are compared and are the same, neither is counted.
FIG. 30 shows a result of comparing and counting the results of the two motion identifications of the upper hyoid bone group and the subhyoid muscle group for each subject. The number on the left side of each square is the number of people whose upper hyoid muscle group exceeds the recognition rate of the subhyoid muscle group, and the value on the right side of each square shows the identification rate of the subhyoid muscle group to identify the upper hyoid muscle group Indicates the number of people exceeding the rate.
When 3 ml (normal: NS3) and 3 ml (maximum effort: ES3) are identified (i), 15 ml (normal: NS15) and 15 ml (maximum effort: ES15) are identified (vi) The identification rate of the subhyoid muscle group exceeded that of the subhyoid muscle group, and the identification rate of the subhyoid muscle group exceeded that of the epihyoid muscle group. From this result, it can be said that the intensity of voluntary swallowing tends to appear in the activity pattern of the suprahyoid muscle group, and the difference in swallowing amount per time tends to appear in the activity pattern of the subhyoid muscle group.
From the above, the effectiveness of the results obtained by the average identification rate was confirmed.

まず一回嚥下量が等しく、飲み込む強さを変化させた時、つまり3ml(普通:NS3)と3ml(最大努力:ES3)を識別した場合(i)と15ml(普通:NS15)と15ml(最大努力:ES15)を識別した場合(vi)について見ると、(i)では舌骨上筋群より舌骨下筋群のほうが高い識別率となり、(vi)では舌骨下筋群より舌骨上筋群のほうが高い識別率となった。
次に飲み込む強さが一定で、一口嚥下量を変えた時を変化させた時、つまり3ml(普通:NS3)と15ml(普通:NS15)を識別した場合(ii)と3ml(最大努力:ES3)と15ml(最大努力:ES15)識別した場合(v)について見ると、双方とも舌骨上筋群より舌骨下筋群のほうが高い識別率となった。
(vi)、(ii)、(v)では22チャンネルで識別を行った時と同様の傾向が見られたものの、(i)では同様の傾向が見られなかった。この理由としては、舌骨下筋群の16チャンネルでの識別率が22チャンネルでの識別率に比べ全体的に上がっているのに対して、舌骨上筋群では部分的にのみ上がっている。つまり、電極間電位差の算出の部分で識別率の変化率に差があり、舌骨上筋群と舌骨下筋群が同様の条件でなかったためと考えられる。
First, when the swallowing amount is equal and the swallowing strength is changed, that is, when 3 ml (normal: NS3) and 3 ml (maximum effort: ES3) are identified (i), 15 ml (normal: NS15) and 15 ml (maximum) Effort: When ES15) is identified, looking at (vi), in (i) the subhyoid muscle group has a higher discrimination rate than in the hyoid muscle group, and in (vi) the hyoid bone is higher than the subhyoid muscle group The muscle group had a higher discrimination rate.
Next, when the swallowing strength is constant and the swallowing amount is changed, that is, when 3 ml (normal: NS3) and 15 ml (normal: NS15) are identified (ii) and 3 ml (maximum effort: ES3 ) And 15 ml (maximum effort: ES15), (v) showed a higher discrimination rate in the subhyoid muscle group than in the upper hyoid muscle group.
In (vi), (ii), and (v), the same tendency was observed as when 22 channels were identified, but in (i), the same tendency was not seen. The reason for this is that the discrimination rate in the 16 channels of the subhyoid muscle group is generally higher than that in the 22 channel, whereas it is only partially increased in the suprahyoid muscle group. . That is, it is considered that there is a difference in the change rate of the discrimination rate in the part of calculating the potential difference between the electrodes, and the conditions of the upper hyoid bone group and the subhyoid muscle group were not the same.

舌骨上筋群と舌骨下筋群の識別率の検討の結果から、随意嚥下の強度や一回嚥下量を変化させた時の各筋群の働きが、識別精度にどのように現れるか検討したところ、随意嚥下の強度は舌骨上筋群の活動パターンに、一回の嚥下量の違いは舌骨下筋群の活動パターンに表れやすいことが示唆された。   Based on the results of examination of the discrimination rate between the hyoid and subhyoid muscle groups, how the function of each muscle group when the swallowing strength and swallowing volume are changed appears in the discrimination accuracy It was suggested that the intensity of voluntary swallowing tends to appear in the activity pattern of the suprahyoid muscle group, and the difference in swallowing amount per time tends to appear in the activity pattern of the subhyoid muscle group.

本発明は、日常的に嚥下機能をチェックするための嚥下機能計としても適用できる。   The present invention can also be applied as a swallowing function meter for checking swallowing function on a daily basis.

10 多チャンネル電極
11 舌骨上筋群用多チャンネル電極
12 舌骨下筋群用多チャンネル電極
13 基準電極
14 GND電極
20 筋電アンプボックス(筋電計)
21 差動増幅回路
22 DCサーボ回路
23 信号増幅回路
24 アンチエイリアシングフィルタ回路
25 バンドパス/出力バッファ回路
30 AD/DA変換器
40 制御器
41 特徴抽出部
42 動作学習・識別部
DESCRIPTION OF SYMBOLS 10 Multichannel electrode 11 Multichannel electrode for epihyoid muscle group 12 Multichannel electrode for subhyoid muscle group 13 Reference electrode 14 GND electrode 20 Myoelectric amplifier box (electromyograph)
DESCRIPTION OF SYMBOLS 21 Differential amplifier circuit 22 DC servo circuit 23 Signal amplifier circuit 24 Anti-aliasing filter circuit 25 Band pass / output buffer circuit 30 AD / DA converter 40 Controller 41 Feature extraction part 42 Operation learning and identification part

Claims (6)

少なくとも嚥下開始から嚥下終了までの生体信号を検出し、検出した前記生体信号から特徴量を抽出し、機械学習を用いて前記特徴量から嚥下状態を識別して嚥下機能を評価する嚥下機能評価法であって、
前記生体信号として、舌骨上筋群の筋活動による舌骨上筋群生体信号と、舌骨下筋群の筋活動による舌骨下筋群生体信号とを用い、
前記舌骨上筋群生体信号と前記舌骨下筋群生体信号とから前記特徴量を抽出する
ことを特徴とする嚥下機能評価法。
A swallowing function evaluation method that detects at least a biosignal from the start of swallowing to the end of swallowing, extracts a feature amount from the detected biosignal, identifies a swallowing state from the feature amount using machine learning, and evaluates swallowing function Because
As the biological signal, using the suprahyoid muscle group biological signal due to the muscular activity of the suprahyoid muscle group and the subhyoid muscle group biological signal due to the muscle activity of the subhyoid muscle group,
A method for evaluating a swallowing function, wherein the feature amount is extracted from the biosignal of the hyoid bone muscle group and the biosignal of the subhyoid muscle group.
前記生体信号として、表面筋電位信号を用いた
ことを特徴とする請求項1に記載の嚥下機能評価法。
The swallowing function evaluation method according to claim 1, wherein a surface myoelectric potential signal is used as the biological signal.
少なくとも前記嚥下開始から前記嚥下終了までの前記表面筋電位信号から前記特徴量を抽出し、
抽出した前記特徴量を画像ファイルに変換し、
画像認識を行うことで前記嚥下状態を識別する
ことを特徴とする請求項2に記載の嚥下機能評価法。
Extracting the feature quantity from the surface myoelectric potential signal at least from the start of swallowing to the end of swallowing,
Convert the extracted feature quantity into an image file,
The swallowing function evaluation method according to claim 2, wherein the swallowing state is identified by performing image recognition.
前記画像認識をディープラーニングにより行う
ことを特徴とする請求項3に記載の嚥下機能評価法。
The swallowing function evaluation method according to claim 3, wherein the image recognition is performed by deep learning.
前記機械学習に用いる学習用生体信号として、異なる装着位置で検出した複数の前記生体信号を用いる
ことを特徴とする請求項1から請求項4のいずれか1項に記載の嚥下機能評価法。
The swallowing function evaluation method according to any one of claims 1 to 4, wherein a plurality of the biological signals detected at different mounting positions are used as learning biological signals used for the machine learning.
少なくとも嚥下開始から嚥下終了までの生体信号を検出し、検出した前記生体信号から特徴量を抽出し、機械学習を用いて前記特徴量から嚥下状態を識別して嚥下機能を評価する嚥下機能評価装置であって、
前記舌骨上筋群の筋活動を検出する舌骨上筋群用多チャンネル電極と、
前記舌骨下筋群の筋活動を検出する舌骨下筋群用多チャンネル電極と、
制御器と
を備え、
前記制御器は、
前記舌骨上筋群用多チャンネル電極からの舌骨上筋群生体信号及び前記舌骨下筋群用多チャンネル電極からの舌骨下筋群生体信号から前特徴量を抽出する特徴抽出部と、
抽出した前記特徴量を画像ファイルに変換し、ディープラーニングによる画像認識を行うことで前記嚥下状態を識別する動作識別部と
を有することを特徴とする嚥下機能評価装置。
A swallowing function evaluation device that detects at least a biological signal from the start of swallowing to the end of swallowing, extracts a feature amount from the detected biosignal, identifies a swallowing state from the feature amount using machine learning, and evaluates a swallowing function Because
A multichannel electrode for the suprahyoid muscle group for detecting muscle activity of the suprahyoid muscle group;
A multichannel electrode for the subhyoid muscle group for detecting muscle activity of the subhyoid muscle group;
With a controller,
The controller is
A feature extraction unit for extracting pre-features from the suprahyoid muscle group biosignal from the suprahyoid muscle group multichannel electrode and the subhyoid muscle group biosignal from the subhyoid muscle group multichannel electrode; ,
A swallowing function evaluation device comprising: an operation identifying unit that identifies the swallowing state by converting the extracted feature quantity into an image file and performing image recognition by deep learning.
JP2018105082A 2018-05-31 2018-05-31 Evaluation method by swallowing function evaluation device and swallowing function evaluation device Active JP7133200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018105082A JP7133200B2 (en) 2018-05-31 2018-05-31 Evaluation method by swallowing function evaluation device and swallowing function evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105082A JP7133200B2 (en) 2018-05-31 2018-05-31 Evaluation method by swallowing function evaluation device and swallowing function evaluation device

Publications (2)

Publication Number Publication Date
JP2019208629A true JP2019208629A (en) 2019-12-12
JP7133200B2 JP7133200B2 (en) 2022-09-08

Family

ID=68844281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105082A Active JP7133200B2 (en) 2018-05-31 2018-05-31 Evaluation method by swallowing function evaluation device and swallowing function evaluation device

Country Status (1)

Country Link
JP (1) JP7133200B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111772653A (en) * 2020-07-17 2020-10-16 南方医科大学南方医院 Barium agent swallowing identification exposure method, system, device and medium
WO2021241487A1 (en) * 2020-05-25 2021-12-02 国立大学法人東北大学 Timing prediction method, timing prediction device, timing prediction system, program, and construction machinery system
JP2022027304A (en) * 2020-07-31 2022-02-10 国立大学法人岩手大学 Swallowing function evaluation/training method and system therefor, using time series data prediction
JP2022041316A (en) * 2020-08-31 2022-03-11 国立大学法人岩手大学 Deglutition function evaluation method using similarity of deglutition pattern image and system of the same
KR20220115369A (en) * 2021-02-10 2022-08-17 서울대학교산학협력단 Apparatus and method for tracking hyoid bone

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005304890A (en) * 2004-04-23 2005-11-04 Kumamoto Technology & Industry Foundation Method of detecting dysphagia
US20110245622A1 (en) * 2010-03-31 2011-10-06 Nellcor Puritan Bennett Llc System and method for determining sensor placement
JP2012232065A (en) * 2011-05-09 2012-11-29 Iwate Univ Estimation method of stomatognathic motion state and estimation apparatus of stomatognathic motion state
JP2014168490A (en) * 2013-03-01 2014-09-18 Nagano Prefecture Sensor sheet, and device and method for measurement of swallowing activity
JP2015100382A (en) * 2013-11-21 2015-06-04 株式会社吉田製作所 Swallowing ability examination device
JP2018000871A (en) * 2016-07-08 2018-01-11 国立大学法人岩手大学 Living body movement identification system and living body movement identification method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005304890A (en) * 2004-04-23 2005-11-04 Kumamoto Technology & Industry Foundation Method of detecting dysphagia
US20110245622A1 (en) * 2010-03-31 2011-10-06 Nellcor Puritan Bennett Llc System and method for determining sensor placement
JP2012232065A (en) * 2011-05-09 2012-11-29 Iwate Univ Estimation method of stomatognathic motion state and estimation apparatus of stomatognathic motion state
JP2014168490A (en) * 2013-03-01 2014-09-18 Nagano Prefecture Sensor sheet, and device and method for measurement of swallowing activity
JP2015100382A (en) * 2013-11-21 2015-06-04 株式会社吉田製作所 Swallowing ability examination device
JP2018000871A (en) * 2016-07-08 2018-01-11 国立大学法人岩手大学 Living body movement identification system and living body movement identification method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021241487A1 (en) * 2020-05-25 2021-12-02 国立大学法人東北大学 Timing prediction method, timing prediction device, timing prediction system, program, and construction machinery system
CN111772653A (en) * 2020-07-17 2020-10-16 南方医科大学南方医院 Barium agent swallowing identification exposure method, system, device and medium
JP2022027304A (en) * 2020-07-31 2022-02-10 国立大学法人岩手大学 Swallowing function evaluation/training method and system therefor, using time series data prediction
JP7452855B2 (en) 2020-07-31 2024-03-19 国立大学法人岩手大学 Swallowing movement prediction method and system using time-series data prediction
JP2022041316A (en) * 2020-08-31 2022-03-11 国立大学法人岩手大学 Deglutition function evaluation method using similarity of deglutition pattern image and system of the same
JP7428383B2 (en) 2020-08-31 2024-02-06 国立大学法人岩手大学 Swallowing function evaluation method and system using similarity of swallowing pattern images
KR20220115369A (en) * 2021-02-10 2022-08-17 서울대학교산학협력단 Apparatus and method for tracking hyoid bone
KR102595012B1 (en) 2021-02-10 2023-10-26 서울대학교산학협력단 Apparatus and method for tracking hyoid bone

Also Published As

Publication number Publication date
JP7133200B2 (en) 2022-09-08

Similar Documents

Publication Publication Date Title
JP7133200B2 (en) Evaluation method by swallowing function evaluation device and swallowing function evaluation device
JP4011071B2 (en) Swallowing sound analysis system
Mielens et al. Application of classification models to pharyngeal high-resolution manometry
Ntonfo et al. Low-complexity image processing for real-time detection of neonatal clonic seizures
US20200060604A1 (en) Systems and methods of automatic cough identification
CN103458777A (en) Method and device for swallowing impairment detection
Khalifa et al. Upper esophageal sphincter opening segmentation with convolutional recurrent neural networks in high resolution cervical auscultation
US11490853B2 (en) Methods and devices using meta-features extracted from accelerometry signals for swallowing impairment detection
US20150080672A1 (en) Food intake monitoring system using apnea detection in breathing signals
Dong et al. Wearable diet monitoring through breathing signal analysis
Inoue et al. Using machine learning and a combination of respiratory flow, laryngeal motion, and swallowing sounds to classify safe and unsafe swallowing
Yu et al. Silent aspiration detection in high resolution cervical auscultations
WO2013086615A1 (en) Device and method for detecting congenital dysphagia
JP7222973B2 (en) Method and device for determining signal quality of dysphagia classification model
Chen et al. Discriminative information added by wearable sensors for early screening-a case study on diabetic peripheral neuropathy
JP7428383B2 (en) Swallowing function evaluation method and system using similarity of swallowing pattern images
JP7452855B2 (en) Swallowing movement prediction method and system using time-series data prediction
Roldan-Vasco et al. Analysis of electrophysiological and mechanical dimensions of swallowing by non-invasive biosignals
Nakamura et al. Relationship between singing experience and laryngeal movement obtained by DeepLabCut
Jayatilake et al. Swallowscope: A smartphone based device for the assessment of swallowing ability
JP2016034325A (en) Deglutition detection method using fuzzy inference, deglutition activity monitoring system, and deglutition function evaluation method
Restrepo Uribe Análisis automático de la deglución basado en acelerometría y electromiografía de superficie
Sazonov et al. Assessment of ingestion by chewing and swallowing sensors
Lofhede et al. Detection of bursts in the EEG of post asphyctic newborns
Feng Effects of Liquid Viscosity and Food Texture on Swallowing Sounds

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7133200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150