JP2020058538A - Joint state determination system - Google Patents
Joint state determination system Download PDFInfo
- Publication number
- JP2020058538A JP2020058538A JP2018191366A JP2018191366A JP2020058538A JP 2020058538 A JP2020058538 A JP 2020058538A JP 2018191366 A JP2018191366 A JP 2018191366A JP 2018191366 A JP2018191366 A JP 2018191366A JP 2020058538 A JP2020058538 A JP 2020058538A
- Authority
- JP
- Japan
- Prior art keywords
- joint
- determination
- data
- state
- comparison data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 39
- 208000018934 joint symptom Diseases 0.000 claims description 8
- 230000000052 comparative effect Effects 0.000 abstract description 3
- 210000000629 knee joint Anatomy 0.000 description 16
- 238000001228 spectrum Methods 0.000 description 16
- 210000003127 knee Anatomy 0.000 description 14
- 230000006870 function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 208000024891 symptom Diseases 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 101100381423 Arabidopsis thaliana BAD1 gene Proteins 0.000 description 3
- 208000002193 Pain Diseases 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 210000002435 tendon Anatomy 0.000 description 2
- 208000006820 Arthralgia Diseases 0.000 description 1
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 208000003947 Knee Osteoarthritis Diseases 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 208000024765 knee pain Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 210000004417 patella Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Prostheses (AREA)
Abstract
Description
本発明は、対象者の関節の状態を判定する関節状態判定システムの技術に関する。 The present invention relates to a technique of a joint state determination system that determines a state of a joint of a subject.
従来より、対象者の関節の状態の判定に係る技術は公知となっている。例えば、特許文献1に記載の如くである。
BACKGROUND ART Conventionally, a technique related to determination of a joint state of a subject has been known. For example, it is as described in
特許文献1には、変形性膝関節症及び足部の診断のため、X線撮影台を用いて立位荷重時の膝及び足部のレントゲン撮影(X線撮影)を行うことが記載されている。
しかしながら、レントゲン撮影では、骨の異常は分かるが、膝関節を動かして初めてわかる箇所(可動域に関わる箇所、例えば、筋肉や、腱、神経など)の異常は分からない。また、膝の痛みの程度については、問診や膝関節を動かしての診察によって判断することが多いが、人によって痛みに強かったり弱かったりする等、どうしても主観的なものとなり、客観的なデータを得ることができない。 However, X-ray imaging shows abnormalities in bones, but does not reveal abnormalities in areas that cannot be seen until the knee joint is moved (areas related to the range of motion, such as muscles, tendons, and nerves). In addition, the degree of knee pain is often judged by an interview or an examination by moving the knee joint, but it becomes inevitable that some people have strong or weak pain, and objective data should be provided. Can't get
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、客観的に対象者の関節の状態を判定することができる関節状態判定システムを提供することである。 The present invention has been made in view of the above circumstances, and a problem to be solved by the present invention is to provide a joint state determination system capable of objectively determining the state of a joint of a subject.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。 The problem to be solved by the present invention is as described above, and means for solving the problem will be described below.
即ち、請求項1においては、対象者の関節の状態を判定する関節状態判定システムであって、対象者の関節を動かしたときに生じる音情報を取得する音取得部と、前記音取得部によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する解析部と、比較データを記憶するデータベースと、前記解析部によって取得された前記判定対象データと、前記データベースに記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する判定部と、を具備するものである。
That is, in
請求項2においては、前記解析部は、前記音取得部によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得するものである。
In
請求項3においては、前記解析部は、前記音取得部によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得するものである。
In
請求項4においては、前記解析部は、前記音取得部によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得するものである。
In
請求項5においては、前記判定部は、前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定するものである。 According to a fifth aspect of the present invention, the determination unit determines the state of the joint based on the degree of approximation between the determination target data and the comparison data.
請求項6においては、前記比較データは、関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、前記判定部は、前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものである。
In
請求項7においては、当該関節状態システムによる判定以外の方法により判明した関節の実際の状態を入力する入力部を具備し、前記データベースは、前記入力部に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新するものである。 In Claim 7, it has an input part which inputs the actual state of the joint discovered by methods other than the judgment by the said joint state system, The said database WHEREIN: The actual state of the said joint input into the said input part is provided. Learning is performed based on the original, and the comparison data is updated.
本発明の効果として、以下に示すような効果を奏する。 The effects of the present invention are as follows.
請求項1においては、客観的に対象者の関節の状態を判定することができる。 According to the first aspect, the condition of the joint of the subject can be objectively determined.
請求項2においては、判定に不要な音が判定対象データから除外され易くなるので、判定の精度を向上させることができる。 According to the second aspect, the sound unnecessary for the determination is easily excluded from the determination target data, so that the determination accuracy can be improved.
請求項3においては、複数の判定対象データによって判定が行われるので、判定の精度を向上させることができる。 According to the third aspect, the determination is performed based on the plurality of determination target data, so that the determination accuracy can be improved.
請求項4においては、判定に不要な音が判定対象データから除外されるので、判定の精度を向上させることができる。 According to the fourth aspect, the sound unnecessary for the determination is excluded from the determination target data, so that the determination accuracy can be improved.
請求項5においては、客観的に対象者の関節の状態を判定することができる。 According to the fifth aspect, the state of the joint of the subject can be objectively determined.
請求項6においては、客観的に対象者の関節の状態を判定することができる。 According to the sixth aspect, it is possible to objectively determine the state of the joint of the subject.
請求項7においては、データベースに記憶された比較データの精度を向上させることができ、ひいては判定の精度を向上させることができる。 According to the seventh aspect, the accuracy of the comparison data stored in the database can be improved, and the accuracy of the determination can be improved.
まず、図1を用いて、本発明の一実施形態に係る関節状態判定システム1の構成の概要について説明する。
First, an outline of the configuration of a joint
関節状態判定システム1は、対象者(関節の状態の判定対象となる者)の関節の状態を判定するためのシステムである。判定の対象には、膝や肘などのあらゆる関節が含まれる。本実施形態においては、関節状態判定システム1は、膝関節の状態(以下、単に「関節状態」ということもある)を判定するために用いられる。関節状態判定システム1は、主に家、病院、老人ホーム等で使用される。関節状態判定システム1は、音取得装置10、制御装置20、入力部30及び判定結果表示部40を具備する。
The joint
音取得装置10は、音情報を取得するものである。音取得装置10としては、例えば聴診器型のマイクロフォンが使用される。以下、音取得装置10をマイクロフォン10と称することとする。
The
マイクロフォン10は、膝内部の音を増幅し、かつ外部のノイズをできるだけ除去するように構成される。マイクロフォン10は、対象者の膝(対象患部)に押し当てられた状態で使用される。より詳細には、マイクロフォン10は、対象者の太腿脛骨関節部又は膝蓋骨上に設置された状態で使用される。マイクロフォン10は、このように設置されることで、対象者の関節を動かしたときに生じる音情報(膝の曲げ伸ばし(屈伸)時の関節音)を取得する。以下、対象者の関節を動かしたときに生じる音情報を、単に「関節音」ということもある。マイクロフォン10は、取得した関節音を電気信号に変換し、音データ(関節音の波形データ)を取得する。
The
制御装置20は、データの格納や分析等を行うものである。制御装置20は、RAMやROM等の記憶部や、CPU等の演算処理部等により構成される。前記記憶部には、マイクロフォン10によって取得された音情報が時系列に記憶(蓄積)される。制御装置20は、マイクロフォン10によって取得された音情報を用いて各種の解析を行う。また、前記記憶部は、関節状態の判定に用いる比較データが記憶されたデータベースを有している。比較データの詳細については後述する。
The
制御装置20は、マイクロフォン10によって取得された音情報(関節音の波形データ)に対して、ノイズ除去、認識部分の判断(波形データのどの時間帯の部分を判定に用いるかの判断)等の前処理を行う。そして、制御装置20は、前処理されたデータから、関節状態の判定の対象となる判定対象データを取得する。
The
制御装置20は、取得した当該判定対象データと、前記データベースに記憶された比較データとを照合し、照合結果により対象者の関節状態を判定する。
The
入力部30は、当該関節状態判定システム1による判定以外の方法により判明した関節の実際の状態を入力するものである。関節状態の判定を行った後、手術などによって膝関節の実際の状態が判明した場合、当該膝関節の実際の状態を入力部30に入力することができる。入力部30に入力された膝関節の実際の状態は、データベースに記憶された比較データの更新に用いられる。
The
判定結果表示部40は、制御装置20による関節状態の判定結果を表示するものである。判定結果表示部40としては、例えば液晶モニタが使用される。判定結果表示部40は、制御装置20と電気的に接続され、制御装置20による関節状態の判定結果を表示することができる。判定結果表示部40に表示された判定結果は、プリンタ等によって適宜出力することができる。
The determination
以下、図2を参照して、関節状態の判定に係る制御(判定制御)について説明する。 Hereinafter, the control (judgment control) relating to the determination of the joint state will be described with reference to FIG.
ステップS10において、制御装置20は、データの前処理を行う。この処理において、制御装置20は、マイクロフォン10によって取得された対象者の関節音の波形データの前処理を行う。より詳細には、制御装置20は、「波形データの切り出し」、「波形データの細分化」、「窓関数をかける」、「ノイズ除去」等の処理を行う。以下、具体的に説明する。
In step S10, the
まず、制御装置20は、「波形データの切り出し」を行う。この処理において、制御装置20は、図3(a)に示す波形データの全体波形から、その一部を切り出す。この切出し部分は、任意の部分とすることができるが、全体波形の始まりと終わりはノイズが含まれ易いため、時間的に中間の部分とすることが望ましい。また、当該切出し部分の時間は、任意の時間とすることができる。本実施形態においては、始まりから1秒経過時から始まりから2秒経過時までの1秒間のデータ(図3(a)において楕円で囲った部分)を切り出すものとする。
First, the
なお、この処理において、制御装置20は、波形データの全体波形から複数の部分を切り出すようにしてもよい。この場合、切り出した複数の部分それぞれが、全体波形の始まりと終わりを除く中間の部分であることが望ましい。
In this process, the
次に、制御装置20は、「波形データの細分化」を行う。この処理において、制御装置20は、図3(b)の左図に示すように、前記切出し部分(切り出した1秒間のデータ)を複数の区間に細分化する。本実施形態においては、前記切出し部分を0.2秒間ごとに5分割する。
Next, the
次に、制御装置20は、「窓関数をかける」処理を行う。この処理において、制御装置20は、細分化したデータ(0.2秒間のデータ)に窓関数をかける。この窓関数をかけることで、図3(b)の右図に示すように、細分化したデータの両端部分(1〜1.2秒のデータにおいては、1秒及び1.2秒の部分)の振幅がおおよそ0となるデータとすることができる。
Next, the
次に、制御装置20は、「ノイズ除去」処理を行う。この処理において、制御装置20は、マイクロフォン10によって取得された対象者の関節音の波形データから、関節状態の判定に不要な音情報を除去する。判定に不要な音情報には、膝関節の症状が良い場合及び悪い場合の両方で発生する音(例えば、「ポキッ」となる関節音、マイクや衣服のこすれ音等)が含まれる。
Next, the
以上によりステップS10の処理が終了する。制御装置20は、当該ステップS10の処理を行った後、ステップS11に移行する。
With the above, the process of step S10 ends. After performing the processing of step S10, the
ステップS11において、制御装置20は、振幅スペクトルを求める処理を行う。この処理において、制御装置20は、ステップS10で前処理された波形データを高速フーリエ変換(FFT)する。これにより、前処理されたデータ(0.2秒間のデータ)の振幅スペクトルが得られる(図4参照)。制御装置20は、当該ステップS11の処理を行った後、ステップS12に移行する。
In step S11, the
ステップS12において、制御装置20は、各帯域のスペクトル成分の取り出し処理を行う。この処理において、制御装置20は、ステップS11で得られた振幅スペクトル(図4参照)にフィルタバンク(メルフィルタバンク)をかけて、各帯域のスペクトル成分を取り出す。制御装置20は、当該ステップS12の処理を行った後、ステップS13に移行する。
In step S12, the
ステップS13において、制御装置20は、各帯域の振幅スペクトルの和をとり、圧縮する。この処理において、制御装置20は、フィルタバンクの帯域の個数と同じ次元に振幅スペクトルを圧縮する。本実施形態においては、20次元に振幅スペクトルを圧縮する(図5(a)参照)。制御装置20は、当該ステップS13の処理を行った後、ステップS14に移行する。
In step S13, the
ステップS14において、制御装置20は、対数振幅スペクトルを求める処理を行う。この処理において、制御装置20は、20次元に圧縮された振幅スペクトルの対数をとり、対数振幅スペクトルにする(図5(b)参照)。制御装置20は、当該ステップS14の処理を行った後、ステップS15に移行する。
In step S14, the
ステップS15において、制御装置20は、20次元に圧縮された対数振幅スペクトルをケプストラムに変換する処理を行う。この処理において、制御装置20は、ステップS14で得られた対数振幅スペクトルに対して、離散コサイン変換(DCT)を行い、ケプストラムに変換する。これにより、メル周波数ケプストラム係数(MFCC)が求められる(図6参照)。制御装置20は、当該ステップS15の処理を行った後、ステップS16に移行する。
In step S15, the
ステップS16において、制御装置20は、判定対象データの抽出処理を行う。この処理において、制御装置20は、ステップS15で得られたMFCCから必要な部分を抜き出す処理を行い、この抜き出した部分を、関節状態の判定の対象となる判定対象データ(MFCC)とする。この判定対象データにおいては、各ケフレンシー(MFCCの周波数)において、ステップS10で細分化した5つのデータ(1〜1.2秒のデータ、1.2〜1.4秒のデータ、1.4〜1.6秒のデータ、1.6〜1.8秒のデータ及び1.8〜2秒のデータ)によって得られた5つの点(MFCC)が示されている。制御装置20は、当該ステップS16の処理を行った後、ステップS17に移行する。
In step S16, the
ステップS17において、制御装置20は、関節状態の判定処理を行う。この処理において、制御装置20は、まず、ステップS16で得られた判定対象データと、当該制御装置20のデータベースに記憶された比較データとを照合する。
In step S17, the
制御装置20の記憶部に記憶された比較データには、膝関節の症状(状態の良し悪し)の程度がそれぞれ異なる複数のデータを含んでいる。本実施形態においては、比較データには、関節の状態が悪い人の比較データBAD(図7から図10)と、関節の状態が良い人の比較データGOOD(図11から図14)とが含まれている。当該比較データは、対象者の判定対象データ(図6参照)と対応する形式(MFCC)として示されている。比較データは、図2に示すステップS10からS16までの処理と同様の方法によって得られたものである。
The comparison data stored in the storage unit of the
本実施形態においては、関節の状態が悪い人の比較データBADには、比較データBAD1及び比較データBAD2(図7)、比較データBAD3及び比較データBAD4(図8)、比較データBAD5及び比較データBAD6(図9)、並びに比較データBAD7及び比較データBAD8(図10)が含まれている。また、関節の状態が良い人の比較データGOODには、比較データGOOD1及び比較データGOOD2(図11)、比較データGOOD3及び比較データGOOD4(図12)、比較データGOOD5及び比較データGOOD6(図13)、並びに比較データGOOD7及び比較データGOOD8(図14)が含まれている。 In the present embodiment, the comparison data BAD1 and the comparison data BAD2 (FIG. 7), the comparison data BAD3 and the comparison data BAD4 (FIG. 8), the comparison data BAD5 and the comparison data BAD6 are included in the comparison data BAD of a person with a poor joint condition. (FIG. 9), and comparison data BAD7 and comparison data BAD8 (FIG. 10) are included. Further, the comparison data GOOD1 and the comparison data GOOD2 (FIG. 11), the comparison data GOOD3 and the comparison data GOOD4 (FIG. 12), the comparison data GOOD5 and the comparison data GOOD6 (FIG. 13) are included in the comparison data GOOD of a person with a good joint condition. , And comparison data GOOD7 and comparison data GOOD8 (FIG. 14).
関節の状態が悪い人の比較データBAD(図7から図10)と、関節の状態が良い人の比較データGOOD(図11から図14)とは、異なる傾向を示している。例えば、関節の状態が悪い人の比較データBAD(図7から図10)は、関節の状態が良い人の比較データGOOD(図11から図14)に比べて、MFCCの周波数(ケフレンシー)の違いによってばらつきが大きい傾向にある。 The comparison data BAD (Figs. 7 to 10) of a person with a poor joint condition and the comparison data GOOD (Figs. 11 to 14) of a person with a good joint condition show different tendencies. For example, the comparison data BAD (Figs. 7 to 10) of a person with a poor joint condition is different from the comparison data GOOD (Figs. 11 to 14) of a person with a good joint condition in the frequency (keflency) of the MFCC. It tends to vary greatly depending on the situation.
制御装置20は、対象者の判定対象データ(図6参照)と、各比較データ(図7から図14)とを照合し、対象者の判定対象データ(図6参照)がどの比較データと近似するかを判定する。より詳細には、制御装置20は、対象者の判定対象データ(図6参照)と、各比較データ(図7から図14)とを重ね合わせ、同一のケフレンシーにおいて、対象者の判定対象データが示す点と、比較データが示す点との間の距離を測定する。そして、制御装置20は、測定した距離の最小値及び平均値を算出し、当該最小値及び平均値に基づいて判定対象データが示す点の間の距離が最も近い比較データ(算出した距離の最小値及び平均値が最も小さい比較データ)を決定する。そして、制御装置20は、当該距離が最も近い比較データが示す関節の症状の程度に基づいて関節の状態を判定する。
The
具体的には、制御装置20は、対象者の判定対象データ(図6参照)が、制御装置20の記憶部に記憶された比較データ(図7から図14)のうち関節状態の良い人の比較データGOOD(図11から図14)に最も近似する(距離が近い)場合は、対象者の関節状態は良いと判定する。一方、対象者の判定対象データ(図6参照)が、制御装置20の記憶部に記憶された比較データ(図7から図14)のうち関節状態の悪い人の比較データBAD(図7から図10)に最も近似する(距離が近い)場合は、対象者の関節状態は悪いと判定する。
Specifically, the
図15は、対象者の判定対象データと比較データとの照合結果の一例を示すものである。図15においては、判定対象データ1及び判定対象データ2と、比較データBAD1及び比較データBAD5、並びに比較データGOOD1及び比較データGOOD5との照合結果のみを示しており、他の比較データとの照合結果は省略している。なお、データ分割番号1、2・・・5は、1秒間の波形データを0.2秒間ごとに細分化(5分割)し、当該細分化したデータのMFCCそれぞれに付されたものである。図15においては、2つの判定対象データ(判定対象データ1及び判定対象データ2)それぞれが示す点と、比較データが示す点との間の距離を示している。また、「最小値」は、データ分割番号1〜5それぞれの値(距離)のうち最も小さい値を示している。また、「平均値」は、データ分割番号1〜5の値の平均値を示している。また、「最小2つの平均値」は、データ分割番号1〜5の値のうち小さいものから順に抽出した2つのデータの平均値を示している。また、「最小3つの平均値」は、データ分割番号1〜5の値のうち小さいものから順に抽出した3つのデータの平均値を示している。
FIG. 15 shows an example of the collation result of the subject judgment data and the comparison data. Figure at 15 is determined
図15に示すように、判定対象データ1が示す点は、複数の比較データのうち比較データBAD5が示す点との距離が、最小値、平均値、最小2つの平均値及び最小3つの平均値ともに最も近い。この場合、制御装置20は、判定対象データ1と最も近似する比較データは比較データBAD5であると判定(決定)する。そして、制御装置20は、判定(決定)した比較データBAD5が示す関節の症状(関節の状態の良し悪し)の程度に基づいて、判定対象データ1の対象者の関節状態は悪いと判定する。
As shown in FIG. 15, the point indicated by the
一方、図15に示すように、判定対象データ2が示す点は、複数の比較データのうち比較データGOOD5が示す点との距離が、最小値、平均値、最小2つの平均値及び最小3つの平均値ともに最も近い。この場合、制御装置20は、判定対象データ2と最も近似する比較データは比較データGOOD5であると判定(決定)する。制御装置20は、判定(決定)した比較データGOOD5が示す関節の症状(関節の状態の良し悪し)の程度に基づいて、判定対象データ2の対象者の関節状態は良いと判定する。
On the other hand, as shown in FIG. 15, the point indicated by the
なお、制御装置20は学習機能を有している。制御装置20は、入力部30に入力された結果(当該関節状態判定システム1による判定とは異なる別の方法(手術など)によって判明した膝関節の実際の状態)に基づいて、制御装置20のデータベースに記憶された比較データを更新する。例えば、ある比較データが、関節の状態が悪いことを示す比較データBADとして記憶されている場合であっても、前記別の方法によって、膝関節の実際の状態がそれほど悪くないことが判明した場合(当該比較データがむしろ関節の状態が良いことを示す比較データGOODとする方が適切である場合)には、当該比較データは比較データGOODとして上書きされる。また、前記別の方法によって、判定対象データの対象者の膝関節の実際の状態が判明した場合にも、当該判定対象データは、制御装置20のデータベースに比較データとして記憶される。これにより、比較データの精度を向上させることができ、ひいては、後述する関節状態の判定の精度を向上させることができる。制御装置20は、当該ステップS17の処理を行った後、ステップS18に移行する。
The
ステップS18において、制御装置20は、判定結果の表示処理を行う。この処理において、制御装置20は、ステップS17における膝関節の状態の判定結果を、判定結果表示部40に表示させる。制御装置20は、当該ステップS18の処理を行った後、図2に示す判定制御を終了する。
In step S18, the
このように本実施形態に係る関節状態判定システム1においては、膝関節を動かしたときに生じる音に基づいて膝関節の状態を判定するため、レントゲン撮影ではわからない膝関節を動かして初めてわかる箇所(可動域に関わる箇所、例えば、筋肉や、腱、神経など)の異常を発見することができる。
As described above, in the joint
また、問診や膝関節を動かしての診察では、膝の痛みの程度を指標として関節状態を判断することとなるが、人によって痛みに強かったり弱かったりするため、関節状態の客観的なデータを得ることができない。これに対して、本実施形態に係る関節状態判定システム1においては、膝関節を動かしたときに生じる音という客観的指標に基づいて関節状態を判定するため、客観的に関節状態を判定することができる。
Also, in interviews and examinations with moving knee joints, joint condition is judged using the degree of pain in the knee as an index, but since some people are more or less vulnerable to pain, objective data on joint condition should be used. Can't get On the other hand, in the joint
また、レントゲン撮影に用いるような大規模な装置が必要ないため、簡易に関節状態の判定を行うことができる。 Further, since a large-scale device used for X-ray imaging is not required, the joint condition can be easily determined.
また、データの前処理(ステップS10)において、マイクロフォン10によって取得された音情報から、関節状態の判定に不要な音情報を除去するため、当該音情報に判定に必要な関節音のみが含まれるようにすることができる。このため、関節状態の判定の精度を向上させることができる。
Further, in the data pre-processing (step S10), since the sound information unnecessary for the determination of the joint state is removed from the sound information acquired by the
以上の如く、本実施形態に係る関節状態判定システム1は、対象者の関節の状態を判定する関節状態判定システム1であって、対象者の関節を動かしたときに生じる音情報を取得するマイクロフォン10(音取得部)と、前記マイクロフォン10によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する制御装置20(解析部)と、比較データを記憶する制御装置20(データベース)と、前記制御装置20(解析部)によって取得された前記判定対象データと、前記制御装置20(データベース)に記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する制御装置20(判定部)と、を具備するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
As described above, the joint
With this configuration, it is possible to objectively determine the state of the joint of the subject.
また、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得するものである。
このように構成することにより、判定に不要な音が判定対象データから除外され易くなるので、判定の精度を向上させることができる。
In addition, the control device 20 (analyzing unit) extracts the temporally middle part of the sound information acquired by the
With this configuration, the sound unnecessary for the determination is easily excluded from the determination target data, so that the determination accuracy can be improved.
また、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得するものである。
このように構成することにより、判定に不要な音が判定対象データから除外されるので、判定の精度を向上させることができる。
In addition, the control device 20 (analyzing unit) acquires the determination target data after excluding sound information unnecessary for determination from the sound information acquired by the
With this configuration, the sound unnecessary for the determination is excluded from the determination target data, so that the determination accuracy can be improved.
また、前記制御装置20(判定部)は、前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
Further, the control device 20 (determination unit) determines the state of the joint based on the degree of approximation between the determination target data and the comparison data.
With this configuration, it is possible to objectively determine the state of the joint of the subject.
また、前記比較データは、関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、前記制御装置20(判定部)は、前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
Further, the comparison data includes a plurality of data having different degrees of joint symptom, and the control device 20 (determination unit) determines the comparison data that is the closest to the determination target data, and the comparison data. The joint condition is determined based on the degree of joint symptom.
With this configuration, it is possible to objectively determine the state of the joint of the subject.
また、本実施形態に係る関節状態判定システム1は、当該関節状態判定システム1による判定以外の方法により判明した関節の実際の状態を入力する入力部30を具備し、前記制御装置20(データベース)は、前記入力部30に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新するものである。
このように構成することにより、制御装置20のデータベースに記憶された比較データの精度を向上させることができ、ひいては判定の精度を向上させることができる。
Further, the joint
With this configuration, the accuracy of the comparison data stored in the database of the
なお、本実施形態に係る音取得装置10(マイクロフォン10)は、音取得部の実施の一形態である。
また、本実施形態に係る制御装置20は、解析部、判定部及びデータベースの実施の一形態である。
The sound acquisition device 10 (microphone 10) according to the present embodiment is an embodiment of the sound acquisition unit.
In addition, the
以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above configuration, and various modifications can be made within the scope of the invention described in the claims.
例えば、本実施形態においては、膝関節の状態を判定するものとしたが、判定の対象はこれに限定されるものではなく、膝や肘などのあらゆる関節の状態を判定するものとすることができる。また、判定の対象には、人工関節も含まれる。関節状態判定システム1を人工関節にも適用することにより、人工関節の経年劣化を検出することができ、人工関節の交換時期の目安とすることができる。また、人工関節の位置の不具合(人工関節がうまくフィットしていない等の不具合)の検出を図ることもできる。
For example, in the present embodiment, the state of the knee joint is determined, but the determination target is not limited to this, and the state of any joint such as the knee or elbow may be determined. it can. Moreover, artificial joints are also included in the determination target. By applying the joint
また、本実施形態においては、関節状態の判定(ステップS17)において、対象者の判定対象データと、当該対象者とは異なる人の比較データとを比較(照合)するものとしたが、同一の対象者のデータ同士を比較するものであってもよい。例えば、対象者の現在のデータを判定対象データとし、当該対象者の過去のデータを比較データとして、両者を比較(照合)し、両者の近似の程度を算出することにより、当該対象者の関節状態の経年変化を把握することができる。ひいては、麻痺の進行などを判断することも可能となる。また、対象者の右膝(左膝)のデータを判定対象データとし、当該対象者の左膝(右膝)のデータを比較データとして、両者を比較(照合)することにより、左右のバランスを把握することができる。特に、片側の膝だけ人工関節を入れた対象者の場合、左右の膝のデータの比較により、左右のバランスが悪く歩き難い等の不具合の解消を図ることができる。 Further, in the present embodiment, in the determination of the joint state (step S17), the determination target data of the target person and the comparison data of a person different from the target person are compared (matched), but the same. The data of the subject may be compared with each other. For example, the current data of the subject is used as the determination target data, the past data of the subject is used as the comparison data, and the two are compared (matched), and the degree of approximation of the two is calculated to calculate the joint of the subject. We can grasp the secular change of the state. Eventually, it becomes possible to judge the progress of paralysis. In addition, the right knee (left knee) data of the target person is used as the determination target data, and the left knee (right knee) data of the target person is used as the comparison data. You can figure it out. In particular, in the case of a subject who has an artificial joint in only one knee, it is possible to solve problems such as poor left-right balance and difficulty in walking by comparing the data of the left and right knees.
また、本実施形態においては、関節状態の判定(ステップS17)において、判定対象データが最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものとしたが、関節状態の判定の方法はこれに限定されるものではない。例えば、判定対象データと関節の状態が悪いことを示す比較データBADとを比較(照合)し、判定対象データと比較データBADとの近似の程度(判定対象データが示す点と比較データBADが示す点との間の距離)が閾値以内である場合に、対象者の関節状態は悪いと判断するようにしてもよい。又は、判定対象データと関節の状態が良いことを示す比較データGOODとの近似の程度(判定対象データが示す点と比較データGOODが示す点との間の距離)が閾値以内である場合に、対象者の関節状態は良いと判断するようにしてもよい。 Further, in the present embodiment, in the determination of the joint state (step S17), the comparison data that is the closest to the determination target data is determined, and the joint state is determined based on the degree of the symptom of the joint indicated by the comparison data. However, the method of determining the joint state is not limited to this. For example, the determination target data is compared (compared) with the comparison data BAD indicating that the joint is in a bad state, and the degree of approximation between the determination target data and the comparison data BAD (the points indicated by the determination target data and the comparison data BAD indicate When the distance to the point) is within the threshold value, it may be determined that the joint condition of the subject is poor. Alternatively, when the degree of approximation between the determination target data and the comparison data GOOD indicating that the condition of the joint is good (the distance between the point indicated by the determination target data and the point indicated by the comparison data GOOD ) is within the threshold value, The joint condition of the subject may be judged to be good.
また、本実施形態においては、関節状態の判定(ステップS17)において、図6に示すMFCC同士を照合するものとしたが、照合対象の形式はこれに限定されるものではなく、例えば図5(b)に示す20次元に圧縮された対数振幅スペクトル同士を照合してもよい。又は、図16に示すように、MFCCの変化量であるΔMFCC同士を照合するものであってもよく、図17に示すように、ΔMFCCの変化量であるΔΔMFCC同士を照合するものであってもよい。また、照合対象の形式は、MFCCとは異なる他の形式であってもよい。 Further, in the present embodiment, the MFCCs shown in FIG. 6 are collated in the determination of the joint state (step S17), but the format of the collation target is not limited to this, and for example, FIG. The 20-dimensionally compressed logarithmic amplitude spectra shown in b) may be collated. Alternatively, as shown in FIG. 16, the ΔMFCCs, which are MFCC changes, may be collated with each other, or, as shown in FIG. 17, the ΔΔMFCCs, which are ΔMFCC changes, may be collated with each other. Good. Further, the format of the matching target may be another format different from MFCC.
また、本実施形態においては、対象者の関節音の波形データを取得した後、その全体波形から必要部分(時間的に中間の部分)を切り出して判定対象データとし、当該判定対象データに基づいて関節状態の判定を行うものとしたが、対象者の関節音の波形データの取得時にリアルタイムで(波形データの取得と並行して)関節状態の判定を行うものとしてもよい。 Further, in the present embodiment, after acquiring the waveform data of the joint sound of the target person, a necessary portion (temporally intermediate portion) is cut out from the entire waveform to be the determination target data, and based on the determination target data Although the joint state is determined, the joint state may be determined in real time (in parallel with the acquisition of the waveform data) when the waveform data of the joint sound of the subject is acquired.
また、本実施形態においては、比較データは、関節の状態が悪いことを示す比較データBADと、関節の状態が良いことを示す比較データGOODとの2種類に分類されるものとしたが、関節の症状(状態の良し悪し)の程度に応じて段階的に(3段階以上に)分類されるものとしてもよい。これにより、関節状態の判定(ステップS17)において、関節状態が良い又は悪いの2通りだけではなく、関節状態をより詳細に判定することが可能となる。 In addition, in the present embodiment, the comparison data is classified into two types, comparison data BAD indicating that the joint is in poor condition and comparison data GOOD indicating that the joint is in good condition. It may be classified in stages (3 or more stages) according to the degree of the symptom (good or bad condition). As a result, in the determination of the joint state (step S17), it is possible to determine the joint state in more detail in addition to the two types in which the joint state is good or bad.
また、本実施形態においては、制御装置20は、音データの全体波形から1つの部分を切り出す(抽出する)ものとしたが、複数の部分を切り出すものとすることができる。これにより、複数の判定対象データが得られるため、判定の精度を向上させることができる。
Further, in the present embodiment, the
以上の如く、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得するものである。
このように構成することにより、複数の判定対象データによって判定が行われるので、判定の精度を向上させることができる。
As described above, the control device 20 (analyzing unit) extracts a plurality of parts from the sound information acquired by the
With such a configuration, the determination is performed based on the plurality of determination target data, so that the determination accuracy can be improved.
1 関節状態判定システム
10 音取得装置(マイクロフォン)
20 制御装置
30 入力部
1 Joint
20
Claims (7)
対象者の関節を動かしたときに生じる音情報を取得する音取得部と、
前記音取得部によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する解析部と、
比較データを記憶するデータベースと、
前記解析部によって取得された前記判定対象データと、前記データベースに記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する判定部と、
を具備する、
関節状態判定システム。 A joint state determination system for determining the state of a joint of a subject,
A sound acquisition unit that acquires sound information generated when the joint of the subject is moved,
An analysis unit that analyzes the sound information acquired by the sound acquisition unit and acquires determination target data that is a determination target,
A database that stores comparison data,
A determination unit that compares the determination target data acquired by the analysis unit with the comparison data stored in the database, and determines the joint state of the target person based on the comparison result.
Equipped with,
Joint condition determination system.
前記音取得部によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得する、
請求項1に記載の関節状態判定システム。 The analysis unit is
Extracting a temporally intermediate part of the sound information acquired by the sound acquisition unit, and acquiring the determination target data by analyzing the extracted part,
The joint condition determination system according to claim 1.
前記音取得部によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得する、
請求項1又は請求項2に記載の関節状態判定システム。 The analysis unit is
Extracting a plurality of parts from the sound information acquired by the sound acquisition unit, to acquire a plurality of the determination target data by analyzing the plurality of extracted parts,
The joint condition determination system according to claim 1 or 2.
前記音取得部によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得する、
請求項1から請求項3までのいずれか一項に記載の関節状態判定システム。 The analysis unit is
From the sound information acquired by the sound acquisition unit, after excluding sound information unnecessary for determination, the determination target data is acquired,
The joint state determination system according to any one of claims 1 to 3.
前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定する、
請求項1から請求項4までのいずれか一項に記載の関節状態判定システム。 The determination unit,
The state of the joint is determined based on the degree of approximation between the determination target data and the comparison data,
The joint state determination system according to any one of claims 1 to 4.
関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、
前記判定部は、
前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定する、
請求項1から請求項5までのいずれか一項に記載の関節状態判定システム。 The comparison data is
It contains multiple data with different degrees of joint symptom,
The determination unit,
The comparison data that is most similar to the determination target data is determined, and the joint state is determined based on the degree of joint symptom indicated by the comparison data.
The joint state determination system according to any one of claims 1 to 5.
前記データベースは、
前記入力部に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新する、
請求項1から請求項6までのいずれか一項に記載の関節状態判定システム。 An input unit for inputting the actual state of the joint found by a method other than the determination by the joint state system,
The database is
Learning is performed based on the actual state of the joint input to the input unit, and the comparison data is updated.
The joint state determination system according to any one of claims 1 to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018191366A JP7132816B2 (en) | 2018-10-10 | 2018-10-10 | Joint condition determination system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018191366A JP7132816B2 (en) | 2018-10-10 | 2018-10-10 | Joint condition determination system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020058538A true JP2020058538A (en) | 2020-04-16 |
JP7132816B2 JP7132816B2 (en) | 2022-09-07 |
Family
ID=70219694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018191366A Active JP7132816B2 (en) | 2018-10-10 | 2018-10-10 | Joint condition determination system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7132816B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005296482A (en) * | 2004-04-15 | 2005-10-27 | Natl Inst Of Radiological Sciences | Diagnosis system |
WO2011096419A1 (en) * | 2010-02-05 | 2011-08-11 | 学校法人 日本大学 | Bio-acoustic sensor and diagnostic system using the bio-acoustic sensor |
JP2012516719A (en) * | 2009-02-02 | 2012-07-26 | ジョイントヴュー・エルエルシー | Noninvasive diagnostic system |
JP2016168209A (en) * | 2015-03-13 | 2016-09-23 | 富士フイルム株式会社 | Joint sound measuring system |
WO2016191753A1 (en) * | 2015-05-27 | 2016-12-01 | Georgia Tech Research Corporation | Wearable technologies for joint health assessment |
JP2016209623A (en) * | 2016-07-27 | 2016-12-15 | 国立大学法人山梨大学 | Array-shaped sound collection sensor device |
JP2017023187A (en) * | 2015-07-16 | 2017-02-02 | 公立大学法人首都大学東京 | Knee Arthrosis Diagnosis System |
-
2018
- 2018-10-10 JP JP2018191366A patent/JP7132816B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005296482A (en) * | 2004-04-15 | 2005-10-27 | Natl Inst Of Radiological Sciences | Diagnosis system |
JP2012516719A (en) * | 2009-02-02 | 2012-07-26 | ジョイントヴュー・エルエルシー | Noninvasive diagnostic system |
WO2011096419A1 (en) * | 2010-02-05 | 2011-08-11 | 学校法人 日本大学 | Bio-acoustic sensor and diagnostic system using the bio-acoustic sensor |
JP2016168209A (en) * | 2015-03-13 | 2016-09-23 | 富士フイルム株式会社 | Joint sound measuring system |
WO2016191753A1 (en) * | 2015-05-27 | 2016-12-01 | Georgia Tech Research Corporation | Wearable technologies for joint health assessment |
JP2017023187A (en) * | 2015-07-16 | 2017-02-02 | 公立大学法人首都大学東京 | Knee Arthrosis Diagnosis System |
JP2016209623A (en) * | 2016-07-27 | 2016-12-15 | 国立大学法人山梨大学 | Array-shaped sound collection sensor device |
Also Published As
Publication number | Publication date |
---|---|
JP7132816B2 (en) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wroge et al. | Parkinson’s disease diagnosis using machine learning and voice | |
Rubin et al. | Recognizing abnormal heart sounds using deep learning | |
Gunduz | An efficient dimensionality reduction method using filter-based feature selection and variational autoencoders on Parkinson's disease classification | |
Muhammad et al. | Voice pathology detection using interlaced derivative pattern on glottal source excitation | |
Pramono et al. | Evaluation of features for classification of wheezes and normal respiratory sounds | |
AL-Dhief et al. | Voice pathology detection using machine learning technique | |
WO2010044452A1 (en) | Information judgment aiding method, sound information judging method, sound information judgment aiding device, sound information judging device, sound information judgment aiding system, and program | |
Spangler et al. | Fractal features for automatic detection of dysarthria | |
US20200365271A1 (en) | Method for predicting sleep apnea from neural networks | |
Majidnezhad et al. | An ANN-based method for detecting vocal fold pathology | |
Hammami et al. | Pathological voices detection using support vector machine | |
Kiran et al. | TQWT based features for classification of ALS and healthy EMG signals | |
Zakariah et al. | [Retracted] An Analytical Study of Speech Pathology Detection Based on MFCC and Deep Neural Networks | |
Al-Nasheri et al. | Voice pathology detection using auto-correlation of different filters bank | |
KR101220399B1 (en) | A physical constitution information analysis method using integrated information | |
KR20190084764A (en) | Cosmetic recommendation system based on reviews data related to cosmetic and the method of recommending cosmetic | |
Cordella et al. | Classification-based screening of Parkinson’s disease patients through voice signal | |
Priya et al. | Speech and non-speech identification and classification using KNN algorithm | |
Al-Dhief et al. | Dysphonia detection based on voice signals using naive bayes classifier | |
Nigmatullin et al. | Membrane current series monitoring: essential reduction of data points to finite number of stable parameters | |
CN110718301A (en) | Alzheimer disease auxiliary diagnosis device and method based on dynamic brain function network | |
Selvakumari et al. | A voice activity detector using SVM and Naïve Bayes classification algorithm | |
NEILI et al. | Analysis of acoustic parameters from respiratory signal in copd and pneumonia patients | |
Faisal et al. | NDDNet: A deep learning model for predicting neurodegenerative diseases from gait pattern | |
Peplinski et al. | Objective assessment of vocal tremor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7132816 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |