JP2019051129A - 嚥下機能解析システム及びプログラム - Google Patents

嚥下機能解析システム及びプログラム Download PDF

Info

Publication number
JP2019051129A
JP2019051129A JP2017178096A JP2017178096A JP2019051129A JP 2019051129 A JP2019051129 A JP 2019051129A JP 2017178096 A JP2017178096 A JP 2017178096A JP 2017178096 A JP2017178096 A JP 2017178096A JP 2019051129 A JP2019051129 A JP 2019051129A
Authority
JP
Japan
Prior art keywords
data
swallowing
sound
learning
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017178096A
Other languages
English (en)
Other versions
JP6914525B2 (ja
Inventor
健嗣 鈴木
Kenji Suzuki
健嗣 鈴木
ドゥシャンタ ジャヤティラカ プラバート
Dushyantha Jayatilake Prabhath
ドゥシャンタ ジャヤティラカ プラバート
智也 下柿元
Tomoya Shimokakimoto
智也 下柿元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2017178096A priority Critical patent/JP6914525B2/ja
Publication of JP2019051129A publication Critical patent/JP2019051129A/ja
Application granted granted Critical
Publication of JP6914525B2 publication Critical patent/JP6914525B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】嚥下音の一部が欠落した場合でも、精度よく嚥下動作を識別できる嚥下機能解析システム及びプログラムを提供する。【解決手段】嚥下機能解析システムは、第1の被検者の嚥下動作に関する入力データを取得するデータ取得部と、第2の被検者の嚥下の状態を示す状態情報を含む学習データによって学習済であり、データ取得部によって取得された入力データに基づいて第1の被検者の嚥下の状態を識別し、識別された嚥下の状態を示す第1の識別データを生成する識別部と、学習データを格納する記憶部と、を具備する。識別部は、喉頭蓋閉音を含み食塊通過音及び喉頭蓋開音を含まない第1の学習データ、食塊通過音を含み喉頭蓋開音及び喉頭蓋閉音を含まない第2の学習データ、並びに、喉頭蓋閉音を含み喉頭蓋開音及び食塊通過音を含まない第3の学習データのうち少なくとも1種である複数個のデータを含む学習データにより学習されていることを特徴とする。【選択図】図1

Description

本発明は、嚥下動作に伴って利用者の頸部から発生する振動を含む音を検出し、解析する嚥下機能解析システム及びプログラムに関する。
一般的に、加齢に伴い、飲み込みの能力すなわち嚥下機能の低下がみられる。嚥下機能が低下した高齢者は、日常的な食事が困難になることがある。また、片麻痺や脳卒中などの障害によって嚥下障害の症状が顕れる場合も有り、その患者数も年々増加傾向にある。このよう嚥下障害の患者は、誤嚥を引き起こす可能性が高い。誤嚥は、窒息の危険性を高めるだけでなく、口腔内の雑菌が肺に入ることで誤嚥性肺炎を引き起こす原因となる。
肺炎による死亡は、日本人の年間死亡原因の上位であり、極めて多い。特に、嚥下障害による肺炎は、再発性が高く、悪化することで死亡してしまう例が多くみられる。嚥下動作は摂食時に限らず、就寝中の無意識下においても行われている。したがって、就寝中なども継続的に嚥下動作を測定し、嚥下機能の障害の程度を早期に知るとともに、障害の程度に適した治療やリハビリテーションを行うことが重要となる。
特許文献1には、測定対象となる利用者の頸部に装着した測定装置より音信号を取得し、音信号の時系列波形の中で、嚥下に共通する有意音区間をリアルタイムに抽出することが開示されている。
特許文献2には、測定対象となる利用者の頚部に対応する皮膚表面に加速度センサをテープで張り付け嚥下音による振動を検出し、喉頭蓋閉音、食塊通過音、喉頭蓋開音の3音を識別してモニタに診断結果を表示することが開示されている。
特許文献3には、マイクロフォンを内蔵した生体センサを測定対象の利用者の首の生体面に取り付け、利用者が発する咳、咳払い、嚥下音、発生音その他の音声情報を取得する生体信号解析装置が開示されている。
特許文献4には、測定対象となる利用者から取得した嚥下波形及び咀嚼波形を含む波形と、あらかじめ学習した嚥下波形との類似度の比較を行うことが開示されている。
特許5952536号公報 特開2009−60936号公報 特開2006−263299号公報 特開2017−56053号公報
上述のように、音信号の解析により嚥下動作を識別する多くの技術が開示されている。人間が嚥下動作を行う際には、一般的に喉頭蓋閉音、食塊通過音、喉頭蓋開音の3音(これらの総称を嚥下音と呼ぶ)が含まれることが既知であり、既存の技術においてもこれらの嚥下音を全て含む場合を想定している。図2に代表的な嚥下音のサンプリング波形を示す。
しかしながら、正常な嚥下音であっても、これら3音が全て含まれない場合がある。例えば、嚥下動作には、随意運動として行われる嚥下(随意嚥下)と反射運動として行われる嚥下(反射嚥下)が含まれるが、反射嚥下は、随意嚥下に比べて、第1音が欠落しやすいという特徴がある。また、嚥下機能の低下の有無にかかわらず、個人差や嚥下障害の度合いによっても嚥下音の一部が欠落することがある。このように嚥下音の一部が欠落する場合、既知の技術では嚥下動作をうまく識別することができない。
本発明は、上記事情を考慮してなされたものであり、嚥下音の一部が欠落した場合でも、精度よく嚥下動作を識別するこができる嚥下機能解析システム及びプログラムを提供する。
本発明の一態様に係る嚥下機能解析システムは、第1の被検者の嚥下動作に関する入力データを取得するデータ取得部と、第2の被検者の嚥下の状態を示す状態情報を含む学習データによって学習済であり、データ取得部によって取得された入力データに基づいて第1の被検者の嚥下の状態を識別し、識別された嚥下の状態を示す第1の識別データを生成する識別部と、学習データを格納する記憶部と、を具備する。識別部は、喉頭蓋閉音を含み食塊通過音及び喉頭蓋開音を含まない第1の学習データ、食塊通過音を含み喉頭蓋開音及び喉頭蓋閉音を含まない第2の学習データ、並びに、喉頭蓋閉音を含み喉頭蓋開音及び食塊通過音を含まない第3の学習データのうち少なくとも1種である複数個のデータを含む学習データにより学習されていることを特徴とする。
本発明によれば、嚥下機能の解析に深層学習を用いる。深層学習において、嚥下音が欠落した場合の学習データを用いて識別器を学習することにより、嚥下音の一部が欠落した場合でも、精度よく嚥下動作を識別するこができる。
また、本発明によれば、学習データを格納するデータベース及び嚥下動作を識別する識別器をクラウド上に構築することにより、大規模な学習データを用いた識別器の構築が可能となる。
図1は、本発明の実施形態に係る嚥下機能解析システムの一例を示すブロック図である。 図2は、嚥下動作を計測することにより得られる音データの一例を示す図である。 図3は、本発明の実施形態に係る嚥下機能解析システムの一利用例を示す斜視図である。 図4は、本発明の実施形態に係る符号化部の処理の一例を示すフローチャートである。 図5は、本発明の実施形態に係る識別部の処理の一例を示すフローチャートである。 図6は、本発明の実施形態に係る識別部により出力される第1の結果データの一例を示す図である。
本実施形態においては、被測定者(被検者)より嚥下動作に関するデータを取得する測定装置、測定装置を制御する制御装置、及び、嚥下動作を解析し、識別するサーバ装置を含む嚥下機能解析システムについて説明する。
以下では、本実施形態に係る嚥下機能解析システムは、嚥下動作に関するデータの取得及び解析に適用されるものとして説明する。しかしながら、本実施形態に係る嚥下機能解析システムは、例えば、咳、むせ、呼吸など、他の生体データに関するデータの取得及び解析にも適用可能である。
以下、本発明の実施形態を、図面を参照して説明する。なお、以下の説明において、略又は実質的に同一の機能及び構成要素については、同一符号を付し、必要な場合にのみ説明を行う。
図1は、本実施形態に係る嚥下機能解析システム1の一例を示すブロック図である。
嚥下機能解析システム1は、例えば、サーバ装置2、測定装置3、制御装置4を含む。サーバ装置2、測定装置3、制御装置4は、ネットワークNを介して双方向に通信可能に接続されている。
ネットワークNは、例えば、PAN(Personal Area Network),LAN(Local Area Network),WAN(Wide Area Network),インターネットなどである。本実施形態において、ネットワークNはインターネットであるとして説明するが、嚥下機能解析システム1はPAN,LAN及びWANに対しても適用可能である。
サーバ装置2は、測定装置3により得られた計測データD5を識別器D2に入力することにより、計測データD5が嚥下動作であるか否かを識別し、識別結果である第1の結果データD41を出力する。サーバ装置2は、第1の結果データD41を時間分析器D3に入力することにより、一連の嚥下動作を認識し、認識結果である第2の結果データD42を出力する。また、サーバ装置2は、嚥下動作を識別するために適した学習データD1を用いて識別器D2を学習する。
サーバ装置2は、メモリ20、プロセッサ21、データベースDBなどを備える。サーバ装置は、例えば情報処理装置である。メモリ20、プロセッサ21及びデータベースDBは、バスB1又はネットワークNなどを介して互いに通信可能に接続されている。データベースDBは、例えば記憶装置である。データベースDBに格納される各種データの詳細については、後述する。
メモリ20は、例えばハードディスク、SSD(Solid State Drive)、フラッシュメモリなどのストレージデバイスにより構成される。
メモリ20は、各種ソフトウェア又はデータを格納する。各種ソフトウェアは、オペレーティングシステム(OS)、データ管理プログラム、及び各種アプリケーションプログラム等を含む。メモリ20は、嚥下動作の識別、学習の各種処理を実行するプログラムP1を格納する。
また、メモリ20は、プロセッサ21が各種ソフトウェアを実行する際に使用するワークエリアを含んでいてもよい。ワークエリアは、例えばRAM(Random Access Memory)により構成されていてもよい。
プロセッサ21は、各種ソフトウェア(プログラム)を実行し、サーバ装置2全体を制御する。プロセッサ21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASSP(Application Specific Standard Product)などである。
プロセッサ21は、メモリ20に格納されたプログラムP1を読み出して実行することにより、例えば、符号化部211、識別部213、データ管理部214、又は、通信部215として機能する。
符号化部211は、学習データD1、計測データD5などを用いて識別器D2を学習する。識別器D2は、例えば、複数層の畳み込みフィルタを有する畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)により構成される。符号化部211は、学習データD1を用いて、オートエンコーダ法(自己符号化)などを用いた深層学習により識別器D2の各フィルタを学習させ、学習させた識別器D2をデータ管理部214を介してデータベースDBに格納する。識別器D2のフィルタの一部には、SVM(Support Vector Machine)が用いられてもよい。
なお、識別器D2は、RNN(Recurrent Neural Network)、LSTM(Long-Short Term Memory)などを用いて構成されてもよい。
識別部213は、識別器D2を用いて、計測データD5が嚥下動作であるか否かを識別する。識別部213は、例えば、識別器D2の出力層から得られる出力結果のみを識別結果として用いるだけでなく、識別器D2が有する複数層のフィルタからの出力結果を統合して1つの識別結果とすることが好ましい。識別部213は、得られた識別結果を第1の結果データD41として出力する。第1の結果データD41は、好ましくは確率値である。
さらに、識別部213は、後述する時間分析器D3を用いて、第1の結果データD41を時系列に解析することにより、一連の嚥下動作を認識する。時間分析器D3は、あらかじめ作成された嚥下音の時間分析データを用いて、嚥下動作であるか否かの識別結果を含む第1の結果データD41と時間分析データとの類似度を算出することにより、嚥下動作の状態遷移を識別する。より具体的には、識別部213は、例えば、3種類の嚥下音(喉頭蓋閉音、食塊通過音、喉頭蓋開音)を区別し、それぞれの開始タイミング及び長さを認識する。嚥下音の時間分析データは、例えば、専門家などの助言を得て作成された、それぞれの嚥下動作のタイミングが記録されたデータである。
識別部213は、時間分析器D3による認識結果を第2の結果データD42として出力する。より具体的には、第2の結果データD42は、例えば、一連の嚥下動作が行われた期間、当該期間に含まれるそれぞれの嚥下動作の状態遷移、当該嚥下動作が反射嚥下であるか又は随意嚥下であるか、などである。なお、第2の結果データD42に含まれる認識結果は、上述のものに限られない。
データ管理部214は、データベースDBに格納されている各種データの読み出し、書き込みなどを行う。例えば、データ管理部214は、符号化部211が出力した学習データD1、識別部213が出力した結果データD4などをデータベースDBに格納する。
通信部215は、ネットワークNを介して制御装置4との間でコマンド、アドレス、データ、信号などの送受信を制御する。
通信部215は、制御装置4より計測データD5を受信する。また、通信部215は、データ管理部214がデータベースDBより読み出した結果データD4を読み出し、制御装置4へ送信する。
測定装置3は、被測定者Pの嚥下音を取得するための装置である。測定装置3は、被測定者Pに装着される。
測定装置3は、例えば、音検出部31、接続部35を備える。音検出部31、接続部35は、同一基板上に存在し、例えば回路上で互いに接続されている。
音検出部31は、制御装置4からの指令により、被測定者Pの少なくとも嚥下動作に伴う音を検出した実測音信号を出力する。音検出部31は、例えばマイクを含む。なお、音検出部31は、制御装置4からの指令によらず、被測定者Pが嚥下する際に喉頭蓋が動く音信号を検出することにより、音信号の取得を開始してもよい。なお、ここでいう「音」とは、汎用的な人間の可視聴周波数帯域内の音波のみならず、振動を含む弾性波一般を意味する。
音検出部31により取得された音信号は、接続部35を経由して制御装置4に送信される。
接続部35は、例えば、測定装置3と制御装置4とを通信可能に有線接続するためのコネクタなどである。測定装置3は、接続部35を介して制御装置4と間でコマンド、アドレス、データ、信号などを送受信する。
なお、測定装置3は、近距離無線通信を実行可能な通信部33としての機能を含んでいてもよい。この場合、通信部33は、近距離無線通信により、制御装置4と間でコマンド、アドレス、データ、信号などを送受信してもよい。近距離無線通信は、例えば、Bluetooth(登録商標)、無線LAN(Local Area Network)、その他の規格に準拠する無線通信などである。
制御装置4は、例えば情報処理装置であり、被測定者Pが携帯可能な端末であることが好ましい。制御装置4は、例えば、スマートフォン、タブレット型コンピュータ、ノート型コンピュータなどのモバイルデバイスである。
制御装置4は、例えば、メモリ40、プロセッサ41、接続部42、出力部43、バッテリ44などを備える。
メモリ40及びプロセッサ41は、バスB3を介して互いに通信可能に接続されている。また、メモリ40及びプロセッサ41の構成は、サーバ装置2のメモリ20及びプロセッサ21と同様である。
メモリ40は、被測定者Pに装着された測定装置3より音データを取得するためのプログラムP3を格納する。また、メモリ40は、データ生成部415により生成された計測データD5を格納する。
プロセッサ41は、メモリ40に格納されたプログラムP2を読み出して実行することにより、例えば、通信部411、制御部413、データ生成部415として機能する。
通信部411は、ネットワークNを介して制御装置4との間でコマンド、アドレス、データ、信号などの送受信を制御する。
通信部411は、サーバ装置2より結果データD4を受信する。また、通信部411は、近距離無線通信により、測定装置3が取得する音信号を受信してもよい。
制御部413は、測定装置3を制御する。より具体的には、制御部413は、測定装置3に対して指令を送信することにより、被測定者Pからの音信号の取得の開始及び終了を指示してもよい。
データ生成部415は、測定装置3の音検出部31が取得した音信号を、接続部42を経由して取得し、制御装置4及びサーバ装置2で扱える適切なデジタルデータに変換する。データ生成部415は、例えばA/D変換器を含む。データ生成部415は、デジタルデータに変換された音信号を計測データD5としてメモリ40に格納する。
接続部42は、接続部35と同様であり、例えば、測定装置3と制御装置4とを通信可能に有線接続するためのコネクタなどである。
出力部43は、例えばディスプレイを含む。出力部43は、嚥下機能解析システム1の制御に必要なインタフェース、及び、嚥下機能解析システム1で用いられるデータなどを、視認可能なように表示する。より具体的には、出力部43は、例えば、測定装置3を制御するためのユーザインタフェース、サーバ装置2にアクセスするためのユーザインタフェース、データベースDBに含まれる各種データなどを表示する。
バッテリ44は、制御装置4の各処理部に電力を供給する。また、測定装置3の音検出部31は、接続部42及び接続部35を介してバッテリ44から電力の供給を受ける。
データベースDBは、学習データD1、識別器D2、時間分析器D3、結果データD4などを格納する。
学習データD1は、あらかじめ複数の被測定者Pにより得られた、嚥下動作の音データである。ここで、嚥下動作を計測することにより得られる音データの一例を図2に示す。
一般的な嚥下音の音データは、喉頭蓋が気道を閉じる喉頭蓋閉音W1の音信号と、食塊が食道を通過する食塊通過音W2の音信号と、喉頭蓋が気道を開く喉頭蓋開音W3の音信号とが時系列上で連続する。喉頭蓋閉音W1と食塊通過音W2との間、及び、食塊通過音W2と喉頭蓋開音W3との間にはそれぞれインターバルが存在する。喉頭蓋閉音W1、食塊通過音W2、喉頭蓋開音W3、及び各インターバルの長さには個人差がある。また、嚥下動作に疾患がある場合は、3音のうちいずれかが欠落し、又は、音の長さに異常が見られる。また、反射嚥下の場合は、随意嚥下の場合に比べ、喉頭蓋閉音W1が欠落しやすい。
本実施形態において、学習データD1として用いられる音データは、例えば、喉頭蓋閉音W1発生の約1秒前から喉頭蓋開音W3終了の約1秒後までのデータであることが好ましいが、これに限定されない。この嚥下開始直前及び終了直後の音データには、咀嚼音などの嚥下とは関連性の低い音が含まれていてもよい。このように嚥下開始直前及び終了直後の音データを学習データD1に加えることにより、嚥下動作の識別精度を向上させることができる。
当該音データは、所定のサンプリング周波数により標本化され、所定の量子化ビット数により量子化され、所定のデータ長に区切られる(以下、時間窓で区切られたデータをデータ単位と呼ぶ)。例えば、サンプリング周波数は8〜12kHzであり、量子化ビット数は8又は16ビットであり、データを切り出すための時間窓は30〜50msec程度であることが好ましい。しかしながら、当該音データの仕様は上述のものに限定されない。
学習データD1は、喉頭蓋閉音W1、食塊通過音W2、喉頭蓋開音W3の3音全てが含まれている音データに加え、これらのうちいずれか1つ以上の嚥下音が含まれる音データを所定の割合以上含むことが好ましい。より好ましくは、学習データD1は、第1音である喉頭蓋閉音W1及び第3音である喉頭蓋開音W3のうち少なくとも一方が含まれる音データを所定の割合以上含む。このように、嚥下音としては部分的に欠落のある音データを含む学習データD1を用いて識別器D2を学習することにより、嚥下音の一部が欠落した場合の識別精度を向上させることができる。
なお、学習データD1は、当該音データの提供元の被検者IDと関連付けてデータベースDBに格納されてもよい。
また、当該音データは学習用のデータであるため、データ単位毎にあらかじめ特徴データが付与されることが好ましい。特徴データは、例えば、スコアなどである。スコアは、正解データに近いほど高く、正解データから遠いほど低くなる。スコアの判定基準は、例えば、当該データ単位が正常な嚥下音であるか、異常な嚥下音であるか、嚥下とは関連性の低い音であるか、などである。また、特徴データは、スコア以外のデータであってもよく、例えば、嚥下音に欠落があるか否か、及び/又は、当該音データの提供元の被検者の嚥下動作に関わるデータ、及び/又は、咳、むせ、呼吸のような嚥下動作であるか否か、及び/又は、被検者の疾患の有無などを表すデータでもよい。
結果データD4は、上述の第1の結果データD41及び第2の結果データD42を含む。
なお、本実施形態において、サーバ装置2と制御装置4とは無線通信により双方向通信可能としているが、有線通信により双方向通信可能としてもよい。
本実施形態に係る嚥下機能解析システム1において、データベースDBは、サーバ装置2とは異なるハードウェアとして管理されてもよい。この場合、データベースDBは、例えば通信部を備え、ネットワークN及び当該通信部を介してサーバ装置2及び制御装置4と通信可能である。
また、本実施形態において、制御装置4は、取得した計測データD5を制御装置4内で解析せずにサーバ装置2に送信し、サーバ装置2より解析結果を受信して表示する。換言すれば、サーバ装置2は、制御装置4に対してクラウドコンピューティングサービスを提供する。
図3は、本実施形態に係る嚥下機能解析システム1の一利用例を示す斜視図である。図3は、測定装置3を被測定者Pの頸部に装着した状態を示している。
測定装置3は、制御装置4と通信ケーブルCを介して有線接続されている。また、制御装置4は、ネットワークNを介して無線通信によりサーバ装置2と接続されている。
本実施形態において、生成された計測データD5、結果データD4などは、制御装置4の出力部43に表示される。
測定装置3の左右両端には、音検出部31が備えられる。また、測定装置3は、ホルダHを備える。ホルダHは、被測定者Pの頸部の後方から外嵌される。ホルダHは、復元力を有した弾性部材、例えば、硬質ウレタンゴムなどで成形されており、頸部に抱き着いた状態で頸部を強く締め付けない程度の柔軟性を有している。また、ホルダHには、ユニットUが備えられる。ユニットUは、例えば、通信部33及び接続部35などを格納する。また、ユニットUは、音信号を増幅する増幅器(アンプ)を含んでいてもよい。当該増幅器は、制御装置4に含まれていてもよい。
図4は、本実施形態に係る符号化部211の処理の一例を示すフローチャートである。
ステップS101において、符号化部211は、データ管理部214を介してデータベースDBより学習データD1を読み出す。
ステップS102において、符号化部211は、学習データD1に前処理を施す。より具体的には、符号化部211は、例えば、学習データD1に含まれる音データのデータ長、量子化ビット数、データ単位ごとのスコアが適切な形式であるかをチェックし、識別器D2に入力可能な形式に変換する。
ステップS103において、符号化部211は、ステップS102において得られた前処理後の学習データを用いて、識別器D2を学習する。識別器D2の学習においては、例えば、入力された学習データD1(入力層)の持つ次元をより少ない次元で表現可能な複数の中間層が算出される。中間層の次元は、深層に進むにつれて小さくなる。中間層を経て出力される出力層においては、入力層と同じ次元を表現できることが好ましい。識別器D2は、このようにして得られた入力層及び中間層を含む。
ステップS104において、符号化部211は、データ管理部214を介して学習済の識別器D2をデータベースDBに格納する。
図5は、本実施形態に係る識別部213の処理の一例を示すフローチャートである。図5を用いて、嚥下機能解析システム1が、被測定者Pより取得した嚥下音の音波形に基づいて嚥下動作を識別する一連の処理の流れを説明する。なお、測定装置3は接続部35及び接続部42を介して制御装置4と接続されているものとする。
ステップS201において、制御装置4の制御部413は、音波形の取得開始信号を生成する。より具体的には、制御部413は、測定装置3に対し、音波形の取得を開始するためのトリガとなる信号を送信してもよい。また、測定装置3から制御装置4へ常に音信号が入力されている場合は、制御装置4のデータ生成部415は、この取得開始信号をトリガとして音信号のサンプリングを開始してもよい。
ステップS202において、測定装置3の音検出部31は、被測定者Pより音波形を取得する。また、音検出部31は、接続部35を介して制御装置4へ取得した音波形を送信する。
ステップS203において、データ生成部415は、入力された音波形を所定のサンプリング周波数及び所定の量子化ビット数によりA/D変換し、得られた計測データD5をメモリ40に格納する。
ステップS204において、通信部411は、計測データD5をネットワークNを経由してサーバ装置2へ送信する。
ステップS205において、サーバ装置2の識別部213は、制御装置4より受信した計測データD5に対して、前処理を実行する。より具体的には、識別部213は、例えば、計測データD5の音データ長をデータ単位ごとに切り出す。以下では、データ単位を切り出すための時間窓の長さは時間T1であるとする。
ステップS206において、識別部213は、データ管理部214を介してデータベースDBより識別器D2を読み出す。識別部213は、前処理済の計測データD5を読み出した識別器D2に入力し、第1の結果データD41を得る。第1の結果データD41は、例えば、入力した計測データD5が嚥下動作であるかを示す確率値である。
ステップS207において、識別部213は、データ管理部214を介してデータベースDBより時間分析器D3を読み出す。識別部213は、時系列に得られた複数の第1の結果データD41を読み出して時間分析器D3に入力し、第2の結果データD42を得る。第2の結果データD42は、例えば、3種類の嚥下音(喉頭蓋閉音、食塊通過音、喉頭蓋開音)の区別と、それぞれの開始タイミング及び長さである。また、第2の結果データD42は、当該嚥下動作が反射嚥下であるか又は随意嚥下であるかの判定を含んでいてもよい。
ステップS208において、識別部213は、ステップS206,S207において得られた第1の結果データD41及び第2の結果データD42をデータ管理部214を介してデータベースDBに格納する。
ステップS209において、通信部215は、ステップS208において得られた第1の結果データD41及び第2の結果データD42のうち少なくとも一方を、ネットワークNを経由して制御装置4へ送信する。
ステップS210において、制御装置4の制御部413は、受信した結果データD4を、被測定者Pが視認可能なように出力部43に出力する。より具体的には、制御部413は、第1の結果データD41を受信した場合、ディスプレイ上に横軸を時間軸とするグラフを描画することにより第1の結果データを出力してもよい。また、制御部413は、第2の結果データD42を受信した場合、嚥下動作が行われたと認識された場合に、ディスプレイ上にその旨を表示してもよい。
なお、符号化部211は、ステップS208までに得られた計測データD5及びこれに対応する結果データD4を新たな学習データD1として追加し、識別器D2を学習してもよい。より具体的には、符号化部211は、結果データD4に示される識別結果を用いて、計測データD5にスコアを付与する。また、符号化部211は、結果データD4に基づいて計測データD5に含まれる嚥下動作の開始約1秒前から終了約1秒後までのデータを切り出し、切り出したデータを、付与されたスコアとともにデータ管理部214を介してデータベースDBへ格納してもよい。
図6は、本実施形態に係る識別部により出力される第1の結果データD41の一例を示す図である。より具体的には、図6は、識別部213により出力される第1の結果データD41の一例を示す。
識別部213は、上述のように識別器D2により時間窓の長さである時間T1ごとに区切られた計測データD5を処理する。このため、第1の結果データD41は、時間T1ごとの確率値Vを含む。確率値Vが高い場合、その区間は嚥下動作である可能性が高いことを示し、確率値Vが低い場合、その区間は嚥下動作である可能性が低いことを示す。
識別部213は、この第1の結果データD41を時間分析器D3に入力し、嚥下動作の状態遷移を認識する。図6の例においては、時間分析器D3は、あらかじめ作成された所定の時間分析データと第1の結果データD41及び第1の結果データD41に対応する計測データD5などを比較し、類似度を求める。識別部213は、この時間分析器D3により得られた類似度に基づき、例えば区間V1の音データは食塊通過音W2であると識別し、区間V2の音データは喉頭蓋開音W3であると識別する。また、識別部213は、例えば、食塊通過音W2及び喉頭蓋開音W3の長さ、信号の強さ、又はその他の特徴量を時間分析データと比較し、時間T2を一連の嚥下動作であると推定する。これにより、識別部213は、例えば、当該嚥下動作は喉頭蓋閉音W1が欠落した反射嚥下であると判定する。
識別部213は、時間分析器D3を用いることにより得られた上述のような認識結果(第2の結果データD42)を、データ管理部214を介してデータベースDBに格納する。
以上説明した本実施形態においては、識別部213は、時間窓(時間T1)ごとに切り出された計測データD5に対して識別器D2により嚥下音であるか否かを識別した第1の結果データD41を出力し、さらに時間T1毎に得られた複数の第1の結果データD41を用いて、嚥下音の状態遷移を認識する。特に、学習段階において、符号化部211は、一連の嚥下動作における嚥下音の一部が欠落した音データを、識別器D2を学習するための学習データD1として用いる。さらに、識別段階において、識別部213は、識別器D2が有する複数層のフィルタからの出力結果を統合して1つの識別結果とする。
これにより、識別部213は、嚥下音のうち一部が欠落した計測データD5に対し、第1の結果データD41の識別精度を向上させることができる。また、時間分析器D3への入力精度が向上することにより、嚥下音の状態遷移の認識率が向上し、反射嚥下又は随意嚥下の識別が可能となる。さらには、咽頭通過時間(PITT)に関する指標を、結果データD4を用いて正確に算出可能となる。
本実施形態において、制御装置4は、測定装置3により取得した計測データD5を、ネットワークNを経由して例えばクラウド上にあるサーバ装置2へ送信し、嚥下動作の識別結果である結果データD4を受信する。これにより、嚥下機能解析システム1は、制御装置4のプロセッサ41の処理能力が低い場合でも、プロセッサ21の処理能力が比較的高いサーバ装置2に嚥下機能を解析させることにより実時間(リアルタイム)で結果データD4を出力することができる。すなわち、嚥下機能解析システム1は、測定装置3により被測定者Pの嚥下動作に伴う嚥下音を含む計測データD5を取得し、所定の処理時間の後、リアルタイムに制御装置4に当該嚥下動作の解析結果を表示可能である。
また、学習データD1は、例えばクラウド上のデータベースDBに格納される。これにより、嚥下機能解析システム1は、制御装置4には格納することができない膨大な量の学習データD1を扱うことができる。
なお、本実施形態において、制御装置のデータ生成部415は、測定装置3に含まれていてもよい。すなわち、測定装置3の音検出部31は、取得した音をA/D変換器などによりデジタルデータ(計測データD5)に変換してもよい。測定装置3が計測データD5を通信部33を経由して制御装置4に送信する場合は、接続部35及び接続部42は省略可能である。また、例えば被測定者を限定し学習データD1が小容量のデータとなる場合、もしくは、制御装置4上に大容量のメモリ又はストレージなどを搭載可能な場合などにおいては、学習データD1を含むデータベースDBは制御装置4上に搭載されてもよい。
本実施形態に係る嚥下機能解析システム1を用いることにより、嚥下動作だけでなく、例えば、嚥下動作の前後に生じる咳、むせ、呼吸の頻度及びタイミングに関するデータの取得及び解析が可能である。これらのデータにより、例えば、入院病棟又は家庭での就寝中においても嚥下活動の把握が可能となる。
以上、本実施形態を用いて本発明の嚥下機能解析システム1について説明した。これらの実施形態は、本発明を実施するにあたって理解しやすくするための一例に過ぎず、これらの実施形態のみに限定されることを意図していない。したがって、本発明を実施するにあたってその趣旨を逸脱しない範囲で、各構成を同等の機能を有するものに置き換えて実施することも可能であり、それらもまた本発明に含まれる。また、各実施形態で説明した構成のいくつかを互いに組み合わせて、あるいは置き換えて実施することも本発明に含まれる。
1…嚥下機能解析システム、2…サーバ装置、3…測定装置、4…制御装置、20,40…メモリ、21,41…プロセッサ、31…音検出部、33,215,411…通信部、35,42…接続部、43…出力部、44…バッテリ、211…符号化部、213…識別部、214…データ管理部、413…制御部、415…データ生成部、B1,B3…バス、D1…学習データ、D2…識別器、D3…時間分析器、D4…結果データ、D41…第1の結果データ、D42…第2の結果データ、D5…計測データ、DB…データベース、N…ネットワーク、P1,P3…プログラム。

Claims (6)

  1. 第1の被検者の嚥下動作に関する入力データを取得するデータ取得部と、
    第2の被検者の嚥下の状態を示す状態情報を含む学習データによって学習済であり、前記データ取得部によって取得された前記入力データに基づいて前記第1の被検者の嚥下の状態を識別し、識別された前記嚥下の状態を示す第1の識別データを生成する識別部と、
    前記学習データを格納する記憶部と、
    を具備し、
    前記識別部は、喉頭蓋閉音を含み食塊通過音及び喉頭蓋開音を含まない第1の学習データ、前記食塊通過音を含み前記喉頭蓋開音及び前記喉頭蓋閉音を含まない第2の学習データ、並びに、前記喉頭蓋閉音を含み前記喉頭蓋開音及び前記食塊通過音を含まない第3の学習データのうち少なくとも1種である複数個のデータを含む前記学習データにより学習されている
    ことを特徴とする嚥下機能解析システム。
  2. 前記識別部は、畳み込みニューラルネットワークにより構成される複数層のフィルタの出力結果を統合することにより、前記第1の識別データを出力し、
    前記第1の識別データは、時間ごとの嚥下動作であるか否かを表す確率値を含む
    ことを特徴とする請求項1に記載の嚥下機能解析システム。
  3. 前記識別部は、前記第1の識別データを時系列に分析することにより第2の識別データを出力し、
    前記第2の識別データは、一回の嚥下動作が行われた区間における前記喉頭蓋閉音、前記食塊通過音、及び前記喉頭蓋開音の区別を示す第1の区別情報と、前記嚥下動作が反射嚥下であるか随意嚥下であるかの区別を示す第2の区別情報のうち少なくとも一方を含む
    ことを特徴とする請求項1又は請求項2に記載の嚥下機能解析システム。
  4. 前記識別部を備え、前記学習データを記憶するデータベースを制御する第1の情報処理装置と、
    前記第1の情報処理装置と通信可能な第2の情報処理装置と、
    を具備し、
    前記第2の情報処理装置は、前記第2の被検者の被検者ID、前記被検者IDの示す被検者の特徴データ、前記被検者IDの示す被検者から得られた前記学習データ、を前記第1の情報処理装置へ送信し、
    前記第1の情報処理装置は、前記被検者ID、前記特徴データ、前記学習データ、を関連付けて前記データベースへ格納する管理部と、前記学習データに基づいて前記識別部を学習させる学習部と、をさらに具備し、前記第2の情報処理装置から取得した前記第1の被検者の計測データに基づいて前記識別部を用いて前記第1の被検者に関する前記第1の識別データを生成する
    ことを特徴とする請求項1に記載の嚥下機能解析システム。
  5. 前記第1の情報処理装置の処理能力は前記第2の情報処理装置の処理能力よりも高く、前記第1の情報処理装置は、実時間で前記第1の識別データを生成する
    ことを特徴とする請求項4に記載の嚥下機能解析システム。
  6. コンピュータを、
    第1の被検者の嚥下動作に関する入力データを取得するデータ取得手段と、
    第2の被検者の嚥下の状態を示す状態情報を含む学習データによって学習済であり、前記データ取得手段によって取得された前記入力データに基づいて前記第1の被検者の嚥下の状態を識別し、識別された前記嚥下の状態を示す第1の識別データを生成する識別手段と、
    前記学習データを格納する記憶手段と、
    して機能させ、
    前記識別手段は、喉頭蓋閉音を含み食塊通過音及び喉頭蓋開音を含まない第1の学習データ、前記食塊通過音を含み前記喉頭蓋開音及び前記喉頭蓋閉音を含まない第2の学習データ、並びに、前記喉頭蓋閉音を含み前記喉頭蓋開音及び前記食塊通過音を含まない第3の学習データのうち少なくとも1種である複数個のデータを含む前記学習データにより学習されている
    ことを特徴とするプログラム。
JP2017178096A 2017-09-15 2017-09-15 嚥下機能解析システム及びプログラム Active JP6914525B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017178096A JP6914525B2 (ja) 2017-09-15 2017-09-15 嚥下機能解析システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017178096A JP6914525B2 (ja) 2017-09-15 2017-09-15 嚥下機能解析システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019051129A true JP2019051129A (ja) 2019-04-04
JP6914525B2 JP6914525B2 (ja) 2021-08-04

Family

ID=66013364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017178096A Active JP6914525B2 (ja) 2017-09-15 2017-09-15 嚥下機能解析システム及びプログラム

Country Status (1)

Country Link
JP (1) JP6914525B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6903368B1 (ja) * 2020-10-23 2021-07-14 Plimes株式会社 嚥下評価装置、嚥下評価システム、嚥下評価方法及び嚥下評価プログラム
WO2021157621A1 (ja) * 2020-02-03 2021-08-12 株式会社oneA 呼吸音計測装置及び睡眠状態計測システム
JP7393792B2 (ja) 2020-02-05 2023-12-07 株式会社oneA 呼吸音計測装置
JP7429428B2 (ja) 2020-02-03 2024-02-08 株式会社oneA 睡眠状態計測システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253609A (ja) * 2004-03-10 2005-09-22 Fukushima Prefecture 生体情報処理システム
JP2005304890A (ja) * 2004-04-23 2005-11-04 Kumamoto Technology & Industry Foundation 嚥下障害の検知方法
JP2006263299A (ja) * 2005-03-25 2006-10-05 Chuo Electronics Co Ltd 嚥下音解析システム
WO2014141682A1 (ja) * 2013-03-13 2014-09-18 日本電気株式会社 センサー端末および信号取得方法
JP2015176213A (ja) * 2014-03-13 2015-10-05 国立大学法人静岡大学 予測システム、予測方法、および予測プログラム
JP2016185209A (ja) * 2015-03-27 2016-10-27 Necソリューションイノベータ株式会社 嚥下検出装置、嚥下検出方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253609A (ja) * 2004-03-10 2005-09-22 Fukushima Prefecture 生体情報処理システム
JP2005304890A (ja) * 2004-04-23 2005-11-04 Kumamoto Technology & Industry Foundation 嚥下障害の検知方法
JP2006263299A (ja) * 2005-03-25 2006-10-05 Chuo Electronics Co Ltd 嚥下音解析システム
WO2014141682A1 (ja) * 2013-03-13 2014-09-18 日本電気株式会社 センサー端末および信号取得方法
JP2015176213A (ja) * 2014-03-13 2015-10-05 国立大学法人静岡大学 予測システム、予測方法、および予測プログラム
JP2016185209A (ja) * 2015-03-27 2016-10-27 Necソリューションイノベータ株式会社 嚥下検出装置、嚥下検出方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157621A1 (ja) * 2020-02-03 2021-08-12 株式会社oneA 呼吸音計測装置及び睡眠状態計測システム
JP7429428B2 (ja) 2020-02-03 2024-02-08 株式会社oneA 睡眠状態計測システム
JP7393792B2 (ja) 2020-02-05 2023-12-07 株式会社oneA 呼吸音計測装置
JP6903368B1 (ja) * 2020-10-23 2021-07-14 Plimes株式会社 嚥下評価装置、嚥下評価システム、嚥下評価方法及び嚥下評価プログラム
WO2022085188A1 (ja) * 2020-10-23 2022-04-28 Plimes株式会社 嚥下評価装置、嚥下評価システム、嚥下評価方法及び嚥下評価プログラム

Also Published As

Publication number Publication date
JP6914525B2 (ja) 2021-08-04

Similar Documents

Publication Publication Date Title
US11055575B2 (en) Intelligent health monitoring
US20200388287A1 (en) Intelligent health monitoring
US20210145306A1 (en) Managing respiratory conditions based on sounds of the respiratory system
Bi et al. AutoDietary: A wearable acoustic sensor system for food intake recognition in daily life
JP6914525B2 (ja) 嚥下機能解析システム及びプログラム
US11948690B2 (en) Pulmonary function estimation
US20180008191A1 (en) Pain management wearable device
US11800996B2 (en) System and method of detecting falls of a subject using a wearable sensor
US20200383582A1 (en) Remote medical examination system and method
CN102138796A (zh) 基于鼾声分析的睡眠监测阻塞定位仪
US20220351859A1 (en) User interface for navigating through physiological data
US20220054039A1 (en) Breathing measurement and management using an electronic device
US11854699B1 (en) Predicting respiratory distress
CN110881987B (zh) 一种基于可穿戴设备的老年人情绪监测系统
JP2020048917A (ja) 咀嚼や笑みに係る量に基づき食事を評価可能な装置、プログラム及び方法
WO2021208656A1 (zh) 睡眠风险预测方法、装置和终端设备
Mahmoudi et al. Sensor-based system for automatic cough detection and classification
Doheny et al. Estimation of respiratory rate and exhale duration using audio signals recorded by smartphone microphones
CN110811638A (zh) 一种用于监测睡眠的svm分类器构建方法、系统及方法
JP4631464B2 (ja) 体調判定装置およびそのプログラム
JP2023529803A (ja) デジタル聴診器によって生成された音声データの分析を通じた健康に関する洞察の導出
Barata et al. Nighttime continuous contactless smartphone-based cough monitoring for the ward: validation study
WO2021029526A1 (en) Methods and systems for pulmonary condition assessment
JP2023527742A (ja) 複数の生体信号を監視するためのシステム及び方法、並びそのシステムにおいて動作可能なゲートウェイ・デバイス
CN113764099A (zh) 基于人工智能的心理状态分析方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6914525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154