JP7132816B2 - 関節状態判定システム - Google Patents

関節状態判定システム Download PDF

Info

Publication number
JP7132816B2
JP7132816B2 JP2018191366A JP2018191366A JP7132816B2 JP 7132816 B2 JP7132816 B2 JP 7132816B2 JP 2018191366 A JP2018191366 A JP 2018191366A JP 2018191366 A JP2018191366 A JP 2018191366A JP 7132816 B2 JP7132816 B2 JP 7132816B2
Authority
JP
Japan
Prior art keywords
joint
data
determination
comparison data
target data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018191366A
Other languages
English (en)
Other versions
JP2020058538A (ja
Inventor
康夫 高橋
智広 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Public University Corp Nara Medical University
Daiwa House Industry Co Ltd
Original Assignee
Public University Corp Nara Medical University
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Public University Corp Nara Medical University, Daiwa House Industry Co Ltd filed Critical Public University Corp Nara Medical University
Priority to JP2018191366A priority Critical patent/JP7132816B2/ja
Publication of JP2020058538A publication Critical patent/JP2020058538A/ja
Application granted granted Critical
Publication of JP7132816B2 publication Critical patent/JP7132816B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象者の関節の状態を判定する関節状態判定システムの技術に関する。
従来より、対象者の関節の状態の判定に係る技術は公知となっている。例えば、特許文献1に記載の如くである。
特許文献1には、変形性膝関節症及び足部の診断のため、X線撮影台を用いて立位荷重時の膝及び足部のレントゲン撮影(X線撮影)を行うことが記載されている。
しかしながら、レントゲン撮影では、骨の異常は分かるが、膝関節を動かして初めてわかる箇所(可動域に関わる箇所、例えば、筋肉や、腱、神経など)の異常は分からない。また、膝の痛みの程度については、問診や膝関節を動かしての診察によって判断することが多いが、人によって痛みに強かったり弱かったりする等、どうしても主観的なものとなり、客観的なデータを得ることができない。
特開平11-89831号公報
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、客観的に対象者の関節の状態を判定することができる関節状態判定システムを提供することである。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、請求項1においては、対象者の関節の状態を判定する関節状態判定システムであって、対象者の関節を動かしたときに生じる音情報を取得する音取得部と、前記音取得部によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する解析部と、比較データを記憶するデータベースと、前記解析部によって取得された前記判定対象データと、前記データベースに記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する判定部と、を具備し、前記解析部は、前記音取得部によって取得された前記音情報を所定時間ごとに複数の区間に細分化したデータを解析することで複数の前記判定対象データを取得し、前記判定部は、複数の前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定し、前記判定には、複数の前記判定対象データのうち、前記比較データと最も近似するものから順に所定の数だけ抽出した前記判定対象データの平均値が用いられるものである。
請求項2においては、前記解析部は、前記音取得部によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得するものである。
請求項3においては、前記解析部は、前記音取得部によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得するものである。
請求項4においては、前記解析部は、前記音取得部によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得するものである。
請求項においては、前記判定部は、前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定するものである。
請求項においては、当該関節状態システムによる判定以外の方法により判明した関節の実際の状態を入力する入力部を具備し、前記データベースは、前記入力部に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新するものである。
本発明の効果として、以下に示すような効果を奏する。
請求項1においては、客観的に対象者の関節の状態を判定することができる。
請求項2においては、判定に不要な音が判定対象データから除外され易くなるので、判定の精度を向上させることができる。
請求項3においては、複数の判定対象データによって判定が行われるので、判定の精度を向上させることができる。
請求項4においては、判定に不要な音が判定対象データから除外されるので、判定の精度を向上させることができる。
請求項5においては、客観的に対象者の関節の状態を判定することができる。
請求項においては、データベースに記憶された比較データの精度を向上させることができ、ひいては判定の精度を向上させることができる。
本発明の一実施形態に係る関節状態判定システムの構成を示す図。 本発明の一実施形態に係る関節状態判定システムの判定制御を示すフローチャート。 (a)音データの全体波形を示した図。(b)音データの細分化及び窓関数をかける処理の内容を示した図。 音データの振幅スペクトルを示した図。 (a)音データの圧縮された振幅スペクトルを示した図。(b)音データの圧縮された対数振幅スペクトルを示した図。 音データのメル周波数ケプストラム係数(MFCC)を示した図。 (a)比較データBAD1を示した図。(b)比較データBAD2を示した図。 (a)比較データBAD3を示した図。(b)比較データBAD4を示した図。 (a)比較データBAD5を示した図。(b)比較データBAD6を示した図。 (a)比較データBAD7を示した図。(b)比較データBAD8を示した図。 (a)比較データGOOD1を示した図。(b)比較データGOOD2を示した図。 (a)比較データGOOD3を示した図。(b)比較データGOOD4を示した図。 (a)比較データGOOD5を示した図。(b)比較データGOOD6を示した図。 (a)比較データGOOD7を示した図。(b)比較データGOOD8を示した図。 判定対象データ(MFCC)と比較データ(MFCC)との照合結果の一例を示した図。 判定対象データ(ΔMFCC)と比較データ(ΔMFCC)との照合結果の一例を示した図。 判定対象データ(ΔΔMFCC)と比較データ(ΔΔMFCC)との照合結果の一例を示した図。
まず、図1を用いて、本発明の一実施形態に係る関節状態判定システム1の構成の概要について説明する。
関節状態判定システム1は、対象者(関節の状態の判定対象となる者)の関節の状態を判定するためのシステムである。判定の対象には、膝や肘などのあらゆる関節が含まれる。本実施形態においては、関節状態判定システム1は、膝関節の状態(以下、単に「関節状態」ということもある)を判定するために用いられる。関節状態判定システム1は、主に家、病院、老人ホーム等で使用される。関節状態判定システム1は、音取得装置10、制御装置20、入力部30及び判定結果表示部40を具備する。
音取得装置10は、音情報を取得するものである。音取得装置10としては、例えば聴診器型のマイクロフォンが使用される。以下、音取得装置10をマイクロフォン10と称することとする。
マイクロフォン10は、膝内部の音を増幅し、かつ外部のノイズをできるだけ除去するように構成される。マイクロフォン10は、対象者の膝(対象患部)に押し当てられた状態で使用される。より詳細には、マイクロフォン10は、対象者の太腿脛骨関節部又は膝蓋骨上に設置された状態で使用される。マイクロフォン10は、このように設置されることで、対象者の関節を動かしたときに生じる音情報(膝の曲げ伸ばし(屈伸)時の関節音)を取得する。以下、対象者の関節を動かしたときに生じる音情報を、単に「関節音」ということもある。マイクロフォン10は、取得した関節音を電気信号に変換し、音データ(関節音の波形データ)を取得する。
制御装置20は、データの格納や分析等を行うものである。制御装置20は、RAMやROM等の記憶部や、CPU等の演算処理部等により構成される。前記記憶部には、マイクロフォン10によって取得された音情報が時系列に記憶(蓄積)される。制御装置20は、マイクロフォン10によって取得された音情報を用いて各種の解析を行う。また、前記記憶部は、関節状態の判定に用いる比較データが記憶されたデータベースを有している。比較データの詳細については後述する。
制御装置20は、マイクロフォン10によって取得された音情報(関節音の波形データ)に対して、ノイズ除去、認識部分の判断(波形データのどの時間帯の部分を判定に用いるかの判断)等の前処理を行う。そして、制御装置20は、前処理されたデータから、関節状態の判定の対象となる判定対象データを取得する。
制御装置20は、取得した当該判定対象データと、前記データベースに記憶された比較データとを照合し、照合結果により対象者の関節状態を判定する。
入力部30は、当該関節状態判定システム1による判定以外の方法により判明した関節の実際の状態を入力するものである。関節状態の判定を行った後、手術などによって膝関節の実際の状態が判明した場合、当該膝関節の実際の状態を入力部30に入力することができる。入力部30に入力された膝関節の実際の状態は、データベースに記憶された比較データの更新に用いられる。
判定結果表示部40は、制御装置20による関節状態の判定結果を表示するものである。判定結果表示部40としては、例えば液晶モニタが使用される。判定結果表示部40は、制御装置20と電気的に接続され、制御装置20による関節状態の判定結果を表示することができる。判定結果表示部40に表示された判定結果は、プリンタ等によって適宜出力することができる。
以下、図2を参照して、関節状態の判定に係る制御(判定制御)について説明する。
ステップS10において、制御装置20は、データの前処理を行う。この処理において、制御装置20は、マイクロフォン10によって取得された対象者の関節音の波形データの前処理を行う。より詳細には、制御装置20は、「波形データの切り出し」、「波形データの細分化」、「窓関数をかける」、「ノイズ除去」等の処理を行う。以下、具体的に説明する。
まず、制御装置20は、「波形データの切り出し」を行う。この処理において、制御装置20は、図3(a)に示す波形データの全体波形から、その一部を切り出す。この切出し部分は、任意の部分とすることができるが、全体波形の始まりと終わりはノイズが含まれ易いため、時間的に中間の部分とすることが望ましい。また、当該切出し部分の時間は、任意の時間とすることができる。本実施形態においては、始まりから1秒経過時から始まりから2秒経過時までの1秒間のデータ(図3(a)において楕円で囲った部分)を切り出すものとする。
なお、この処理において、制御装置20は、波形データの全体波形から複数の部分を切り出すようにしてもよい。この場合、切り出した複数の部分それぞれが、全体波形の始まりと終わりを除く中間の部分であることが望ましい。
次に、制御装置20は、「波形データの細分化」を行う。この処理において、制御装置20は、図3(b)の左図に示すように、前記切出し部分(切り出した1秒間のデータ)を複数の区間に細分化する。本実施形態においては、前記切出し部分を0.2秒間ごとに5分割する。
次に、制御装置20は、「窓関数をかける」処理を行う。この処理において、制御装置20は、細分化したデータ(0.2秒間のデータ)に窓関数をかける。この窓関数をかけることで、図3(b)の右図に示すように、細分化したデータの両端部分(1~1.2秒のデータにおいては、1秒及び1.2秒の部分)の振幅がおおよそ0となるデータとすることができる。
次に、制御装置20は、「ノイズ除去」処理を行う。この処理において、制御装置20は、マイクロフォン10によって取得された対象者の関節音の波形データから、関節状態の判定に不要な音情報を除去する。判定に不要な音情報には、膝関節の症状が良い場合及び悪い場合の両方で発生する音(例えば、「ポキッ」となる関節音、マイクや衣服のこすれ音等)が含まれる。
以上によりステップS10の処理が終了する。制御装置20は、当該ステップS10の処理を行った後、ステップS11に移行する。
ステップS11において、制御装置20は、振幅スペクトルを求める処理を行う。この処理において、制御装置20は、ステップS10で前処理された波形データを高速フーリエ変換(FFT)する。これにより、前処理されたデータ(0.2秒間のデータ)の振幅スペクトルが得られる(図4参照)。制御装置20は、当該ステップS11の処理を行った後、ステップS12に移行する。
ステップS12において、制御装置20は、各帯域のスペクトル成分の取り出し処理を行う。この処理において、制御装置20は、ステップS11で得られた振幅スペクトル(図4参照)にフィルタバンク(メルフィルタバンク)をかけて、各帯域のスペクトル成分を取り出す。制御装置20は、当該ステップS12の処理を行った後、ステップS13に移行する。
ステップS13において、制御装置20は、各帯域の振幅スペクトルの和をとり、圧縮する。この処理において、制御装置20は、フィルタバンクの帯域の個数と同じ次元に振幅スペクトルを圧縮する。本実施形態においては、20次元に振幅スペクトルを圧縮する(図5(a)参照)。制御装置20は、当該ステップS13の処理を行った後、ステップS14に移行する。
ステップS14において、制御装置20は、対数振幅スペクトルを求める処理を行う。この処理において、制御装置20は、20次元に圧縮された振幅スペクトルの対数をとり、対数振幅スペクトルにする(図5(b)参照)。制御装置20は、当該ステップS14の処理を行った後、ステップS15に移行する。
ステップS15において、制御装置20は、20次元に圧縮された対数振幅スペクトルをケプストラムに変換する処理を行う。この処理において、制御装置20は、ステップS14で得られた対数振幅スペクトルに対して、離散コサイン変換(DCT)を行い、ケプストラムに変換する。これにより、メル周波数ケプストラム係数(MFCC)が求められる(図6参照)。制御装置20は、当該ステップS15の処理を行った後、ステップS16に移行する。
ステップS16において、制御装置20は、判定対象データの抽出処理を行う。この処理において、制御装置20は、ステップS15で得られたMFCCから必要な部分を抜き出す処理を行い、この抜き出した部分を、関節状態の判定の対象となる判定対象データ(MFCC)とする。この判定対象データにおいては、各ケフレンシー(MFCCの周波数)において、ステップS10で細分化した5つのデータ(1~1.2秒のデータ、1.2~1.4秒のデータ、1.4~1.6秒のデータ、1.6~1.8秒のデータ及び1.8~2秒のデータ)によって得られた5つの点(MFCC)が示されている。制御装置20は、当該ステップS16の処理を行った後、ステップS17に移行する。
ステップS17において、制御装置20は、関節状態の判定処理を行う。この処理において、制御装置20は、まず、ステップS16で得られた判定対象データと、当該制御装置20のデータベースに記憶された比較データとを照合する。
制御装置20の記憶部に記憶された比較データには、膝関節の症状(状態の良し悪し)の程度がそれぞれ異なる複数のデータを含んでいる。本実施形態においては、比較データには、関節の状態が悪い人の比較データBAD(図7から図10)と、関節の状態が良い人の比較データGOOD(図11から図14)とが含まれている。当該比較データは、対象者の判定対象データ(図6参照)と対応する形式(MFCC)として示されている。比較データは、図2に示すステップS10からS16までの処理と同様の方法によって得られたものである。
本実施形態においては、関節の状態が悪い人の比較データBADには、比較データBAD1及び比較データBAD2(図7)、比較データBAD3及び比較データBAD4(図8)、比較データBAD5及び比較データBAD6(図9)、並びに比較データBAD7及び比較データBAD8(図10)が含まれている。また、関節の状態が良い人の比較データGOODには、比較データGOOD1及び比較データGOOD2(図11)、比較データGOOD3及び比較データGOOD4(図12)、比較データGOOD5及び比較データGOOD6(図13)、並びに比較データGOOD7及び比較データGOOD8(図14)が含まれている。
関節の状態が悪い人の比較データBAD(図7から図10)と、関節の状態が良い人の比較データGOOD(図11から図14)とは、異なる傾向を示している。例えば、関節の状態が悪い人の比較データBAD(図7から図10)は、関節の状態が良い人の比較データGOOD(図11から図14)に比べて、MFCCの周波数(ケフレンシー)の違いによってばらつきが大きい傾向にある。
制御装置20は、対象者の判定対象データ(図6参照)と、各比較データ(図7から図14)とを照合し、対象者の判定対象データ(図6参照)がどの比較データと近似するかを判定する。より詳細には、制御装置20は、対象者の判定対象データ(図6参照)と、各比較データ(図7から図14)とを重ね合わせ、同一のケフレンシーにおいて、対象者の判定対象データが示す点と、比較データが示す点との間の距離を測定する。そして、制御装置20は、測定した距離の最小値及び平均値を算出し、当該最小値及び平均値に基づいて判定対象データが示す点の間の距離が最も近い比較データ(算出した距離の最小値及び平均値が最も小さい比較データ)を決定する。そして、制御装置20は、当該距離が最も近い比較データが示す関節の症状の程度に基づいて関節の状態を判定する。
具体的には、制御装置20は、対象者の判定対象データ(図6参照)が、制御装置20の記憶部に記憶された比較データ(図7から図14)のうち関節状態の良い人の比較データGOOD(図11から図14)に最も近似する(距離が近い)場合は、対象者の関節状態は良いと判定する。一方、対象者の判定対象データ(図6参照)が、制御装置20の記憶部に記憶された比較データ(図7から図14)のうち関節状態の悪い人の比較データBAD(図7から図10)に最も近似する(距離が近い)場合は、対象者の関節状態は悪いと判定する。
図15は、対象者の判定対象データと比較データとの照合結果の一例を示すものである。図15においては、判定対象データ1及び判定対象データ2と、比較データBAD1及び比較データBAD5、並びに比較データGOOD1及び比較データGOOD5との照合結果のみを示しており、他の比較データとの照合結果は省略している。なお、データ分割番号1、2・・・5は、1秒間の波形データを0.2秒間ごとに細分化(5分割)し、当該細分化したデータのMFCCそれぞれに付されたものである。図15においては、2つの判定対象データ(判定対象データ1及び判定対象データ2)それぞれが示す点と、比較データが示す点との間の距離を示している。また、「最小値」は、データ分割番号1~5それぞれの値(距離)のうち最も小さい値を示している。また、「平均値」は、データ分割番号1~5の値の平均値を示している。また、「最小2つの平均値」は、データ分割番号1~5の値のうち小さいものから順に抽出した2つのデータの平均値を示している。また、「最小3つの平均値」は、データ分割番号1~5の値のうち小さいものから順に抽出した3つのデータの平均値を示している。
図15に示すように、判定対象データ1が示す点は、複数の比較データのうち比較データBAD5が示す点との距離が、最小値、平均値、最小2つの平均値及び最小3つの平均値ともに最も近い。この場合、制御装置20は、判定対象データ1と最も近似する比較データは比較データBAD5であると判定(決定)する。そして、制御装置20は、判定(決定)した比較データBAD5が示す関節の症状(関節の状態の良し悪し)の程度に基づいて、判定対象データ1の対象者の関節状態は悪いと判定する。
一方、図15に示すように、判定対象データ2が示す点は、複数の比較データのうち比較データGOOD5が示す点との距離が、最小値、平均値、最小2つの平均値及び最小3つの平均値ともに最も近い。この場合、制御装置20は、判定対象データ2と最も近似する比較データは比較データGOOD5であると判定(決定)する。制御装置20は、判定(決定)した比較データGOOD5が示す関節の症状(関節の状態の良し悪し)の程度に基づいて、判定対象データ2の対象者の関節状態は良いと判定する。
なお、制御装置20は学習機能を有している。制御装置20は、入力部30に入力された結果(当該関節状態判定システム1による判定とは異なる別の方法(手術など)によって判明した膝関節の実際の状態)に基づいて、制御装置20のデータベースに記憶された比較データを更新する。例えば、ある比較データが、関節の状態が悪いことを示す比較データBADとして記憶されている場合であっても、前記別の方法によって、膝関節の実際の状態がそれほど悪くないことが判明した場合(当該比較データがむしろ関節の状態が良いことを示す比較データGOODとする方が適切である場合)には、当該比較データは比較データGOODとして上書きされる。また、前記別の方法によって、判定対象データの対象者の膝関節の実際の状態が判明した場合にも、当該判定対象データは、制御装置20のデータベースに比較データとして記憶される。これにより、比較データの精度を向上させることができ、ひいては、後述する関節状態の判定の精度を向上させることができる。制御装置20は、当該ステップS17の処理を行った後、ステップS18に移行する。
ステップS18において、制御装置20は、判定結果の表示処理を行う。この処理において、制御装置20は、ステップS17における膝関節の状態の判定結果を、判定結果表示部40に表示させる。制御装置20は、当該ステップS18の処理を行った後、図2に示す判定制御を終了する。
このように本実施形態に係る関節状態判定システム1においては、膝関節を動かしたときに生じる音に基づいて膝関節の状態を判定するため、レントゲン撮影ではわからない膝関節を動かして初めてわかる箇所(可動域に関わる箇所、例えば、筋肉や、腱、神経など)の異常を発見することができる。
また、問診や膝関節を動かしての診察では、膝の痛みの程度を指標として関節状態を判断することとなるが、人によって痛みに強かったり弱かったりするため、関節状態の客観的なデータを得ることができない。これに対して、本実施形態に係る関節状態判定システム1においては、膝関節を動かしたときに生じる音という客観的指標に基づいて関節状態を判定するため、客観的に関節状態を判定することができる。
また、レントゲン撮影に用いるような大規模な装置が必要ないため、簡易に関節状態の判定を行うことができる。
また、データの前処理(ステップS10)において、マイクロフォン10によって取得された音情報から、関節状態の判定に不要な音情報を除去するため、当該音情報に判定に必要な関節音のみが含まれるようにすることができる。このため、関節状態の判定の精度を向上させることができる。
以上の如く、本実施形態に係る関節状態判定システム1は、対象者の関節の状態を判定する関節状態判定システム1であって、対象者の関節を動かしたときに生じる音情報を取得するマイクロフォン10(音取得部)と、前記マイクロフォン10によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する制御装置20(解析部)と、比較データを記憶する制御装置20(データベース)と、前記制御装置20(解析部)によって取得された前記判定対象データと、前記制御装置20(データベース)に記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する制御装置20(判定部)と、を具備するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
また、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得するものである。
このように構成することにより、判定に不要な音が判定対象データから除外され易くなるので、判定の精度を向上させることができる。
また、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得するものである。
このように構成することにより、判定に不要な音が判定対象データから除外されるので、判定の精度を向上させることができる。
また、前記制御装置20(判定部)は、前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
また、前記比較データは、関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、前記制御装置20(判定部)は、前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
また、本実施形態に係る関節状態判定システム1は、当該関節状態判定システム1による判定以外の方法により判明した関節の実際の状態を入力する入力部30を具備し、前記制御装置20(データベース)は、前記入力部30に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新するものである。
このように構成することにより、制御装置20のデータベースに記憶された比較データの精度を向上させることができ、ひいては判定の精度を向上させることができる。
なお、本実施形態に係る音取得装置10(マイクロフォン10)は、音取得部の実施の一形態である。
また、本実施形態に係る制御装置20は、解析部、判定部及びデータベースの実施の一形態である。
以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。
例えば、本実施形態においては、膝関節の状態を判定するものとしたが、判定の対象はこれに限定されるものではなく、膝や肘などのあらゆる関節の状態を判定するものとすることができる。また、判定の対象には、人工関節も含まれる。関節状態判定システム1を人工関節にも適用することにより、人工関節の経年劣化を検出することができ、人工関節の交換時期の目安とすることができる。また、人工関節の位置の不具合(人工関節がうまくフィットしていない等の不具合)の検出を図ることもできる。
また、本実施形態においては、関節状態の判定(ステップS17)において、対象者の判定対象データと、当該対象者とは異なる人の比較データとを比較(照合)するものとしたが、同一の対象者のデータ同士を比較するものであってもよい。例えば、対象者の現在のデータを判定対象データとし、当該対象者の過去のデータを比較データとして、両者を比較(照合)し、両者の近似の程度を算出することにより、当該対象者の関節状態の経年変化を把握することができる。ひいては、麻痺の進行などを判断することも可能となる。また、対象者の右膝(左膝)のデータを判定対象データとし、当該対象者の左膝(右膝)のデータを比較データとして、両者を比較(照合)することにより、左右のバランスを把握することができる。特に、片側の膝だけ人工関節を入れた対象者の場合、左右の膝のデータの比較により、左右のバランスが悪く歩き難い等の不具合の解消を図ることができる。
また、本実施形態においては、関節状態の判定(ステップS17)において、判定対象データが最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものとしたが、関節状態の判定の方法はこれに限定されるものではない。例えば、判定対象データと関節の状態が悪いことを示す比較データBADとを比較(照合)し、判定対象データと比較データBADとの近似の程度(判定対象データが示す点と比較データBADが示す点との間の距離)が閾値以内である場合に、対象者の関節状態は悪いと判断するようにしてもよい。又は、判定対象データと関節の状態が良いことを示す比較データGOODとの近似の程度(判定対象データが示す点と比較データGOODが示す点との間の距離)が閾値以内である場合に、対象者の関節状態は良いと判断するようにしてもよい。
また、本実施形態においては、関節状態の判定(ステップS17)において、図6に示すMFCC同士を照合するものとしたが、照合対象の形式はこれに限定されるものではなく、例えば図5(b)に示す20次元に圧縮された対数振幅スペクトル同士を照合してもよい。又は、図16に示すように、MFCCの変化量であるΔMFCC同士を照合するものであってもよく、図17に示すように、ΔMFCCの変化量であるΔΔMFCC同士を照合するものであってもよい。また、照合対象の形式は、MFCCとは異なる他の形式であってもよい。
また、本実施形態においては、対象者の関節音の波形データを取得した後、その全体波形から必要部分(時間的に中間の部分)を切り出して判定対象データとし、当該判定対象データに基づいて関節状態の判定を行うものとしたが、対象者の関節音の波形データの取得時にリアルタイムで(波形データの取得と並行して)関節状態の判定を行うものとしてもよい。
また、本実施形態においては、比較データは、関節の状態が悪いことを示す比較データBADと、関節の状態が良いことを示す比較データGOODとの2種類に分類されるものとしたが、関節の症状(状態の良し悪し)の程度に応じて段階的に(3段階以上に)分類されるものとしてもよい。これにより、関節状態の判定(ステップS17)において、関節状態が良い又は悪いの2通りだけではなく、関節状態をより詳細に判定することが可能となる。
また、本実施形態においては、制御装置20は、音データの全体波形から1つの部分を切り出す(抽出する)ものとしたが、複数の部分を切り出すものとすることができる。これにより、複数の判定対象データが得られるため、判定の精度を向上させることができる。
以上の如く、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得するものである。
このように構成することにより、複数の判定対象データによって判定が行われるので、判定の精度を向上させることができる。
1 関節状態判定システム
10 音取得装置(マイクロフォン)
20 制御装置
30 入力部

Claims (6)

  1. 対象者の関節の状態を判定する関節状態判定システムであって、
    対象者の関節を動かしたときに生じる音情報を取得する音取得部と、
    前記音取得部によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する解析部と、
    比較データを記憶するデータベースと、
    前記解析部によって取得された前記判定対象データと、前記データベースに記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する判定部と、
    を具備し、
    前記解析部は、
    前記音取得部によって取得された前記音情報を所定時間ごとに複数の区間に細分化したデータを解析することで複数の前記判定対象データを取得し、
    前記判定部は、
    複数の前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定し、
    前記判定には、
    複数の前記判定対象データのうち、前記比較データと最も近似するものから順に所定の数だけ抽出した前記判定対象データの平均値が用いられる、
    関節状態判定システム。
  2. 前記解析部は、
    前記音取得部によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得する、
    請求項1に記載の関節状態判定システム。
  3. 前記解析部は、
    前記音取得部によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得する、
    請求項1又は請求項2に記載の関節状態判定システム。
  4. 前記解析部は、
    前記音取得部によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得する、
    請求項1から請求項3までのいずれか一項に記載の関節状態判定システム。
  5. 前記比較データは、
    関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、
    前記判定部は、
    前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定する、
    請求項1から請求項4までのいずれか一項に記載の関節状態判定システム。
  6. 当該関節状態システムによる判定以外の方法により判明した関節の実際の状態を入力する入力部を具備し、
    前記データベースは、
    前記入力部に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新する、
    請求項1から請求項5までのいずれか一項に記載の関節状態判定システム。
JP2018191366A 2018-10-10 2018-10-10 関節状態判定システム Active JP7132816B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018191366A JP7132816B2 (ja) 2018-10-10 2018-10-10 関節状態判定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191366A JP7132816B2 (ja) 2018-10-10 2018-10-10 関節状態判定システム

Publications (2)

Publication Number Publication Date
JP2020058538A JP2020058538A (ja) 2020-04-16
JP7132816B2 true JP7132816B2 (ja) 2022-09-07

Family

ID=70219694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191366A Active JP7132816B2 (ja) 2018-10-10 2018-10-10 関節状態判定システム

Country Status (1)

Country Link
JP (1) JP7132816B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296482A (ja) 2004-04-15 2005-10-27 Natl Inst Of Radiological Sciences 診断システム
WO2011096419A1 (ja) 2010-02-05 2011-08-11 学校法人 日本大学 生体用音響センサ及び生体用音響センサを用いた診断システム
JP2012516719A (ja) 2009-02-02 2012-07-26 ジョイントヴュー・エルエルシー 非侵襲性診断システム
JP2016168209A (ja) 2015-03-13 2016-09-23 富士フイルム株式会社 関節音測定システム
WO2016191753A1 (en) 2015-05-27 2016-12-01 Georgia Tech Research Corporation Wearable technologies for joint health assessment
JP2016209623A (ja) 2016-07-27 2016-12-15 国立大学法人山梨大学 アレイ状採音センサ装置
JP2017023187A (ja) 2015-07-16 2017-02-02 公立大学法人首都大学東京 膝関節症診断システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296482A (ja) 2004-04-15 2005-10-27 Natl Inst Of Radiological Sciences 診断システム
JP2012516719A (ja) 2009-02-02 2012-07-26 ジョイントヴュー・エルエルシー 非侵襲性診断システム
WO2011096419A1 (ja) 2010-02-05 2011-08-11 学校法人 日本大学 生体用音響センサ及び生体用音響センサを用いた診断システム
JP2016168209A (ja) 2015-03-13 2016-09-23 富士フイルム株式会社 関節音測定システム
WO2016191753A1 (en) 2015-05-27 2016-12-01 Georgia Tech Research Corporation Wearable technologies for joint health assessment
JP2017023187A (ja) 2015-07-16 2017-02-02 公立大学法人首都大学東京 膝関節症診断システム
JP2016209623A (ja) 2016-07-27 2016-12-15 国立大学法人山梨大学 アレイ状採音センサ装置

Also Published As

Publication number Publication date
JP2020058538A (ja) 2020-04-16

Similar Documents

Publication Publication Date Title
Al-Nasheri et al. Investigation of voice pathology detection and classification on different frequency regions using correlation functions
Al-Nasheri et al. Voice pathology detection and classification using auto-correlation and entropy features in different frequency regions
Muhammad et al. Voice pathology detection using interlaced derivative pattern on glottal source excitation
US20160086622A1 (en) Speech processing device, speech processing method, and computer program product
Sáenz-Lechón et al. Automatic assessment of voice quality according to the GRBAS scale
AL-Dhief et al. Voice pathology detection using machine learning technique
Eskidere et al. Voice disorder classification based on multitaper mel frequency cepstral coefficients features
US20200365271A1 (en) Method for predicting sleep apnea from neural networks
CN108320735A (zh) 一种多数据融合的情感识别方法及系统
CN110992985A (zh) 识别跑步机异音的识别模型确定方法、识别方法、系统
Hammami et al. Pathological voices detection using support vector machine
Upadhya et al. Discriminating Parkinson and healthy people using phonation and cepstral features of speech
Al-Nasheri et al. Voice pathology detection using auto-correlation of different filters bank
Fernandes et al. Parameters for vocal acoustic analysis-cured database
JP5345783B2 (ja) 音声信号用フットプリントを生成する方法
KR101220399B1 (ko) 통합정보를 이용한 체질정보 분석방법
Liu et al. An objective parameter to classify voice signals based on variation in energy distribution
Kiran et al. TQWT based features for classification of ALS and healthy EMG signals
Cordella et al. Classification-based screening of Parkinson’s disease patients through voice signal
Teixeira et al. Classification of control/pathologic subjects with support vector machines
Al-Dhief et al. Dysphonia detection based on voice signals using naive bayes classifier
JP7132816B2 (ja) 関節状態判定システム
Panek et al. Quantification of linear and non-linear acoustic analysis applied to voice pathology detection
Cordeiro et al. LPC spectrum first peak analysis for voice pathology detection
Peplinski et al. Objective assessment of vocal tremor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220826

R150 Certificate of patent or registration of utility model

Ref document number: 7132816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150