JP2020058538A - Joint state determination system - Google Patents

Joint state determination system Download PDF

Info

Publication number
JP2020058538A
JP2020058538A JP2018191366A JP2018191366A JP2020058538A JP 2020058538 A JP2020058538 A JP 2020058538A JP 2018191366 A JP2018191366 A JP 2018191366A JP 2018191366 A JP2018191366 A JP 2018191366A JP 2020058538 A JP2020058538 A JP 2020058538A
Authority
JP
Japan
Prior art keywords
joint
determination
data
state
comparison data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018191366A
Other languages
Japanese (ja)
Other versions
JP7132816B2 (en
Inventor
康夫 高橋
Yasuo Takahashi
康夫 高橋
智広 梅田
Tomohiro Umeda
智広 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Medical University PUC
Daiwa House Industry Co Ltd
Original Assignee
Nara Medical University PUC
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Medical University PUC, Daiwa House Industry Co Ltd filed Critical Nara Medical University PUC
Priority to JP2018191366A priority Critical patent/JP7132816B2/en
Publication of JP2020058538A publication Critical patent/JP2020058538A/en
Application granted granted Critical
Publication of JP7132816B2 publication Critical patent/JP7132816B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Prostheses (AREA)

Abstract

To provide a joint state determination system capable of objectively determining a state of a joint of a subject.SOLUTION: A joint state determination system 1 for determining a state of a joint of a subject comprises: a microphone 10 for acquiring sound information which is generated when a joint of the subject is moved; a control device 20 (analysis unit) for analyzing the sound information acquired by the microphone 10 to acquire determination object data which is to be subjected to determination; a control device 20 (database) for storing comparative data; and a control device 20 (determination unit) for collating the determination object data acquired by the control device 20 (analysis unit) with the comparative data stored in the control device 20 (database) and determining the state of the joint of the subject from the collation result.SELECTED DRAWING: Figure 2

Description

本発明は、対象者の関節の状態を判定する関節状態判定システムの技術に関する。   The present invention relates to a technique of a joint state determination system that determines a state of a joint of a subject.

従来より、対象者の関節の状態の判定に係る技術は公知となっている。例えば、特許文献1に記載の如くである。   BACKGROUND ART Conventionally, a technique related to determination of a joint state of a subject has been known. For example, it is as described in Patent Document 1.

特許文献1には、変形性膝関節症及び足部の診断のため、X線撮影台を用いて立位荷重時の膝及び足部のレントゲン撮影(X線撮影)を行うことが記載されている。   Patent Document 1 describes performing X-ray imaging (X-ray imaging) of a knee and a foot at the time of standing load using an X-ray imaging stand for the diagnosis of osteoarthritis of the knee and the foot. There is.

しかしながら、レントゲン撮影では、骨の異常は分かるが、膝関節を動かして初めてわかる箇所(可動域に関わる箇所、例えば、筋肉や、腱、神経など)の異常は分からない。また、膝の痛みの程度については、問診や膝関節を動かしての診察によって判断することが多いが、人によって痛みに強かったり弱かったりする等、どうしても主観的なものとなり、客観的なデータを得ることができない。   However, X-ray imaging shows abnormalities in bones, but does not reveal abnormalities in areas that cannot be seen until the knee joint is moved (areas related to the range of motion, such as muscles, tendons, and nerves). In addition, the degree of knee pain is often judged by an interview or an examination by moving the knee joint, but it becomes inevitable that some people have strong or weak pain, and objective data should be provided. Can't get

特開平11−89831号公報JP, 11-89831, A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、客観的に対象者の関節の状態を判定することができる関節状態判定システムを提供することである。   The present invention has been made in view of the above circumstances, and a problem to be solved by the present invention is to provide a joint state determination system capable of objectively determining the state of a joint of a subject.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above, and means for solving the problem will be described below.

即ち、請求項1においては、対象者の関節の状態を判定する関節状態判定システムであって、対象者の関節を動かしたときに生じる音情報を取得する音取得部と、前記音取得部によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する解析部と、比較データを記憶するデータベースと、前記解析部によって取得された前記判定対象データと、前記データベースに記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する判定部と、を具備するものである。   That is, in claim 1, there is provided a joint state determination system for determining a state of a joint of a subject, comprising: a sound acquisition unit that acquires sound information generated when the joint of the target person is moved; and the sound acquisition unit. Analyzing the acquired sound information, an analysis unit that acquires determination target data that is a determination target, a database that stores comparison data, the determination target data acquired by the analysis unit, and a storage in the database And a determination unit that determines the state of the joint of the subject based on the comparison result.

請求項2においては、前記解析部は、前記音取得部によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得するものである。   In Claim 2, the said analysis part acquires the said determination object data by extracting the temporally middle part among the said sound information acquired by the said sound acquisition part, and analyzing the extracted said part. It is a thing.

請求項3においては、前記解析部は、前記音取得部によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得するものである。   In Claim 3, the said analysis part acquires several said target data by extracting several parts from the said sound information acquired by the said sound acquisition part, and analyzing the several said extracted parts. It is a thing.

請求項4においては、前記解析部は、前記音取得部によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得するものである。   In claim 4, the analysis unit excludes sound information unnecessary for determination from the sound information acquired by the sound acquisition unit, and then acquires the determination target data.

請求項5においては、前記判定部は、前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定するものである。   According to a fifth aspect of the present invention, the determination unit determines the state of the joint based on the degree of approximation between the determination target data and the comparison data.

請求項6においては、前記比較データは、関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、前記判定部は、前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものである。   In claim 6, the comparison data includes a plurality of data having different degrees of joint symptoms, the determination unit determines the comparison data that is the closest to the determination target data, and the comparison data is The joint condition is judged based on the degree of the joint symptom shown.

請求項7においては、当該関節状態システムによる判定以外の方法により判明した関節の実際の状態を入力する入力部を具備し、前記データベースは、前記入力部に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新するものである。   In Claim 7, it has an input part which inputs the actual state of the joint discovered by methods other than the judgment by the said joint state system, The said database WHEREIN: The actual state of the said joint input into the said input part is provided. Learning is performed based on the original, and the comparison data is updated.

本発明の効果として、以下に示すような効果を奏する。   The effects of the present invention are as follows.

請求項1においては、客観的に対象者の関節の状態を判定することができる。   According to the first aspect, the condition of the joint of the subject can be objectively determined.

請求項2においては、判定に不要な音が判定対象データから除外され易くなるので、判定の精度を向上させることができる。   According to the second aspect, the sound unnecessary for the determination is easily excluded from the determination target data, so that the determination accuracy can be improved.

請求項3においては、複数の判定対象データによって判定が行われるので、判定の精度を向上させることができる。   According to the third aspect, the determination is performed based on the plurality of determination target data, so that the determination accuracy can be improved.

請求項4においては、判定に不要な音が判定対象データから除外されるので、判定の精度を向上させることができる。   According to the fourth aspect, the sound unnecessary for the determination is excluded from the determination target data, so that the determination accuracy can be improved.

請求項5においては、客観的に対象者の関節の状態を判定することができる。   According to the fifth aspect, the state of the joint of the subject can be objectively determined.

請求項6においては、客観的に対象者の関節の状態を判定することができる。   According to the sixth aspect, it is possible to objectively determine the state of the joint of the subject.

請求項7においては、データベースに記憶された比較データの精度を向上させることができ、ひいては判定の精度を向上させることができる。   According to the seventh aspect, the accuracy of the comparison data stored in the database can be improved, and the accuracy of the determination can be improved.

本発明の一実施形態に係る関節状態判定システムの構成を示す図。The figure which shows the structure of the joint state determination system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る関節状態判定システムの判定制御を示すフローチャート。3 is a flowchart showing determination control of the joint state determination system according to the embodiment of the present invention. (a)音データの全体波形を示した図。(b)音データの細分化及び窓関数をかける処理の内容を示した図。(A) The figure which showed the whole waveform of sound data. (B) The figure which showed the content of the process which subdivides sound data and applies a window function. 音データの振幅スペクトルを示した図。The figure which showed the amplitude spectrum of sound data. (a)音データの圧縮された振幅スペクトルを示した図。(b)音データの圧縮された対数振幅スペクトルを示した図。(A) The figure which showed the compressed amplitude spectrum of sound data. (B) The figure which showed the compressed logarithmic amplitude spectrum of sound data. 音データのメル周波数ケプストラム係数(MFCC)を示した図。The figure which showed the mel frequency cepstrum coefficient (MFCC) of sound data. (a)比較データBAD1を示した図。(b)比較データBAD2を示した図。(A) The figure which showed the comparison data BAD1 . (B) The figure which showed the comparison data BAD2 . (a)比較データBAD3を示した図。(b)比較データBAD4を示した図。(A) The figure which showed the comparison data BAD3 . (B) The figure which showed the comparison data BAD4 . (a)比較データBAD5を示した図。(b)比較データBAD6を示した図。(A) The figure which showed the comparison data BAD5 . (B) The figure which showed the comparison data BAD6 . (a)比較データBAD7を示した図。(b)比較データBAD8を示した図。(A) The figure which showed the comparison data BAD7 . (B) The figure which showed the comparison data BAD8 . (a)比較データGOOD1を示した図。(b)比較データGOOD2を示した図。(A) The figure which showed the comparison data GOOD1 . (B) The figure which showed the comparison data GOOD2 . (a)比較データGOOD3を示した図。(b)比較データGOOD4を示した図。(A) The figure which showed the comparison data GOOD3 . (B) The figure which showed the comparison data GOOD4 . (a)比較データGOOD5を示した図。(b)比較データGOOD6を示した図。(A) The figure which showed the comparison data GOOD5 . (B) The figure which showed the comparison data GOOD6 . (a)比較データGOOD7を示した図。(b)比較データGOOD8を示した図。(A) The figure which showed the comparison data GOOD7 . (B) The figure which showed the comparison data GOOD8 . 判定対象データ(MFCC)と比較データ(MFCC)との照合結果の一例を示した図。The figure which showed an example of the collation result of judgment object data (MFCC) and comparison data (MFCC). 判定対象データ(ΔMFCC)と比較データ(ΔMFCC)との照合結果の一例を示した図。The figure which showed an example of the collation result of determination object data ((DELTA) MFCC) and comparison data ((DELTA) MFCC). 判定対象データ(ΔΔMFCC)と比較データ(ΔΔMFCC)との照合結果の一例を示した図。The figure which showed an example of the collation result of judgment object data ((delta) (DELTA) MFCC) and comparison data ((DELTA) (DELTA) MFCC).

まず、図1を用いて、本発明の一実施形態に係る関節状態判定システム1の構成の概要について説明する。   First, an outline of the configuration of a joint state determination system 1 according to an embodiment of the present invention will be described with reference to FIG.

関節状態判定システム1は、対象者(関節の状態の判定対象となる者)の関節の状態を判定するためのシステムである。判定の対象には、膝や肘などのあらゆる関節が含まれる。本実施形態においては、関節状態判定システム1は、膝関節の状態(以下、単に「関節状態」ということもある)を判定するために用いられる。関節状態判定システム1は、主に家、病院、老人ホーム等で使用される。関節状態判定システム1は、音取得装置10、制御装置20、入力部30及び判定結果表示部40を具備する。   The joint state determination system 1 is a system for determining a joint state of a target person (a person whose joint state is to be determined). The target of determination includes all joints such as knees and elbows. In the present embodiment, the joint state determination system 1 is used to determine the state of the knee joint (hereinafter, also simply referred to as “joint state”). The joint condition determination system 1 is mainly used in homes, hospitals, nursing homes, and the like. The joint state determination system 1 includes a sound acquisition device 10, a control device 20, an input unit 30, and a determination result display unit 40.

音取得装置10は、音情報を取得するものである。音取得装置10としては、例えば聴診器型のマイクロフォンが使用される。以下、音取得装置10をマイクロフォン10と称することとする。   The sound acquisition device 10 acquires sound information. As the sound acquisition device 10, for example, a stethoscope type microphone is used. Hereinafter, the sound acquisition device 10 will be referred to as the microphone 10.

マイクロフォン10は、膝内部の音を増幅し、かつ外部のノイズをできるだけ除去するように構成される。マイクロフォン10は、対象者の膝(対象患部)に押し当てられた状態で使用される。より詳細には、マイクロフォン10は、対象者の太腿脛骨関節部又は膝蓋骨上に設置された状態で使用される。マイクロフォン10は、このように設置されることで、対象者の関節を動かしたときに生じる音情報(膝の曲げ伸ばし(屈伸)時の関節音)を取得する。以下、対象者の関節を動かしたときに生じる音情報を、単に「関節音」ということもある。マイクロフォン10は、取得した関節音を電気信号に変換し、音データ(関節音の波形データ)を取得する。   The microphone 10 is configured to amplify the sound inside the knee and remove external noise as much as possible. The microphone 10 is used while being pressed against the subject's knee (target affected area). More specifically, the microphone 10 is used in a state of being installed on the femoral-tibia joint or the patella of the subject. By being installed in this way, the microphone 10 acquires sound information (joint sound when bending and stretching (bending and stretching) of the knee) generated when the joint of the subject is moved. Hereinafter, the sound information generated when the joint of the subject is moved may be simply referred to as “joint sound”. The microphone 10 converts the acquired joint sound into an electric signal and acquires sound data (joint sound waveform data).

制御装置20は、データの格納や分析等を行うものである。制御装置20は、RAMやROM等の記憶部や、CPU等の演算処理部等により構成される。前記記憶部には、マイクロフォン10によって取得された音情報が時系列に記憶(蓄積)される。制御装置20は、マイクロフォン10によって取得された音情報を用いて各種の解析を行う。また、前記記憶部は、関節状態の判定に用いる比較データが記憶されたデータベースを有している。比較データの詳細については後述する。   The control device 20 stores and analyzes data. The control device 20 includes a storage unit such as a RAM and a ROM, an arithmetic processing unit such as a CPU, and the like. The sound information acquired by the microphone 10 is stored (accumulated) in time series in the storage unit. The control device 20 performs various analyzes using the sound information acquired by the microphone 10. Further, the storage unit has a database that stores comparison data used for determining the joint state. Details of the comparison data will be described later.

制御装置20は、マイクロフォン10によって取得された音情報(関節音の波形データ)に対して、ノイズ除去、認識部分の判断(波形データのどの時間帯の部分を判定に用いるかの判断)等の前処理を行う。そして、制御装置20は、前処理されたデータから、関節状態の判定の対象となる判定対象データを取得する。   The control device 20 performs noise removal, determination of a recognition portion (determination of which time zone portion of the waveform data is used for determination) on the sound information (joint sound waveform data) acquired by the microphone 10. Perform pre-processing. Then, the control device 20 acquires the determination target data that is the target of the determination of the joint state from the preprocessed data.

制御装置20は、取得した当該判定対象データと、前記データベースに記憶された比較データとを照合し、照合結果により対象者の関節状態を判定する。   The control device 20 compares the acquired determination target data with the comparison data stored in the database, and determines the joint condition of the target person based on the comparison result.

入力部30は、当該関節状態判定システム1による判定以外の方法により判明した関節の実際の状態を入力するものである。関節状態の判定を行った後、手術などによって膝関節の実際の状態が判明した場合、当該膝関節の実際の状態を入力部30に入力することができる。入力部30に入力された膝関節の実際の状態は、データベースに記憶された比較データの更新に用いられる。   The input unit 30 is for inputting the actual state of the joint found by a method other than the determination by the joint state determination system 1. After the joint state is determined, if the actual state of the knee joint is found by surgery or the like, the actual state of the knee joint can be input to the input unit 30. The actual state of the knee joint input to the input unit 30 is used to update the comparison data stored in the database.

判定結果表示部40は、制御装置20による関節状態の判定結果を表示するものである。判定結果表示部40としては、例えば液晶モニタが使用される。判定結果表示部40は、制御装置20と電気的に接続され、制御装置20による関節状態の判定結果を表示することができる。判定結果表示部40に表示された判定結果は、プリンタ等によって適宜出力することができる。   The determination result display unit 40 displays the determination result of the joint state by the control device 20. A liquid crystal monitor, for example, is used as the determination result display unit 40. The determination result display unit 40 is electrically connected to the control device 20 and can display the determination result of the joint state by the control device 20. The determination result displayed on the determination result display section 40 can be appropriately output by a printer or the like.

以下、図2を参照して、関節状態の判定に係る制御(判定制御)について説明する。   Hereinafter, the control (judgment control) relating to the determination of the joint state will be described with reference to FIG.

ステップS10において、制御装置20は、データの前処理を行う。この処理において、制御装置20は、マイクロフォン10によって取得された対象者の関節音の波形データの前処理を行う。より詳細には、制御装置20は、「波形データの切り出し」、「波形データの細分化」、「窓関数をかける」、「ノイズ除去」等の処理を行う。以下、具体的に説明する。   In step S10, the control device 20 performs preprocessing of data. In this process, the control device 20 performs preprocessing of the waveform data of the joint sound of the target person acquired by the microphone 10. More specifically, the control device 20 performs processes such as “cut out of waveform data”, “subdivision of waveform data”, “multiply window function”, and “noise removal”. The details will be described below.

まず、制御装置20は、「波形データの切り出し」を行う。この処理において、制御装置20は、図3(a)に示す波形データの全体波形から、その一部を切り出す。この切出し部分は、任意の部分とすることができるが、全体波形の始まりと終わりはノイズが含まれ易いため、時間的に中間の部分とすることが望ましい。また、当該切出し部分の時間は、任意の時間とすることができる。本実施形態においては、始まりから1秒経過時から始まりから2秒経過時までの1秒間のデータ(図3(a)において楕円で囲った部分)を切り出すものとする。   First, the control device 20 performs “cutout of waveform data”. In this process, the control device 20 cuts out a part of the entire waveform of the waveform data shown in FIG. This cutout portion can be an arbitrary portion, but since the beginning and end of the entire waveform are likely to contain noise, it is desirable to set it to a middle portion in terms of time. Further, the time of the cutout portion can be any time. In the present embodiment, it is assumed that 1 second of data from the beginning to 2 seconds from the beginning (part surrounded by an ellipse in FIG. 3A) is cut out.

なお、この処理において、制御装置20は、波形データの全体波形から複数の部分を切り出すようにしてもよい。この場合、切り出した複数の部分それぞれが、全体波形の始まりと終わりを除く中間の部分であることが望ましい。   In this process, the control device 20 may cut out a plurality of parts from the entire waveform of the waveform data. In this case, it is desirable that each of the cut out portions is an intermediate portion excluding the start and end of the entire waveform.

次に、制御装置20は、「波形データの細分化」を行う。この処理において、制御装置20は、図3(b)の左図に示すように、前記切出し部分(切り出した1秒間のデータ)を複数の区間に細分化する。本実施形態においては、前記切出し部分を0.2秒間ごとに5分割する。   Next, the control device 20 performs “segmentation of waveform data”. In this process, the control device 20 subdivides the cutout portion (cutout 1 second data) into a plurality of sections, as shown in the left diagram of FIG. 3B. In the present embodiment, the cutout portion is divided into five parts every 0.2 seconds.

次に、制御装置20は、「窓関数をかける」処理を行う。この処理において、制御装置20は、細分化したデータ(0.2秒間のデータ)に窓関数をかける。この窓関数をかけることで、図3(b)の右図に示すように、細分化したデータの両端部分(1〜1.2秒のデータにおいては、1秒及び1.2秒の部分)の振幅がおおよそ0となるデータとすることができる。   Next, the control device 20 performs a "multiply window function" process. In this process, the control device 20 applies a window function to the subdivided data (data for 0.2 seconds). By applying this window function, as shown in the right diagram of FIG. 3B, both end portions of the subdivided data (in the data of 1 to 1.2 seconds, portions of 1 second and 1.2 seconds) Can be data in which the amplitude of is approximately zero.

次に、制御装置20は、「ノイズ除去」処理を行う。この処理において、制御装置20は、マイクロフォン10によって取得された対象者の関節音の波形データから、関節状態の判定に不要な音情報を除去する。判定に不要な音情報には、膝関節の症状が良い場合及び悪い場合の両方で発生する音(例えば、「ポキッ」となる関節音、マイクや衣服のこすれ音等)が含まれる。   Next, the control device 20 performs "noise removal" processing. In this process, the control device 20 removes the sound information unnecessary for the determination of the joint state from the waveform data of the joint sound of the target person acquired by the microphone 10. The sound information unnecessary for the determination includes sounds (for example, a joint sound that causes a "chucking", a rubbing sound of a microphone or clothes, etc.) generated when the symptom of the knee joint is both good and bad.

以上によりステップS10の処理が終了する。制御装置20は、当該ステップS10の処理を行った後、ステップS11に移行する。   With the above, the process of step S10 ends. After performing the processing of step S10, the control device 20 proceeds to step S11.

ステップS11において、制御装置20は、振幅スペクトルを求める処理を行う。この処理において、制御装置20は、ステップS10で前処理された波形データを高速フーリエ変換(FFT)する。これにより、前処理されたデータ(0.2秒間のデータ)の振幅スペクトルが得られる(図4参照)。制御装置20は、当該ステップS11の処理を行った後、ステップS12に移行する。   In step S11, the control device 20 performs processing for obtaining an amplitude spectrum. In this process, the control device 20 performs a fast Fourier transform (FFT) on the waveform data preprocessed in step S10. As a result, the amplitude spectrum of the preprocessed data (0.2 second data) is obtained (see FIG. 4). The controller 20 proceeds to step S12 after performing the process of step S11.

ステップS12において、制御装置20は、各帯域のスペクトル成分の取り出し処理を行う。この処理において、制御装置20は、ステップS11で得られた振幅スペクトル(図4参照)にフィルタバンク(メルフィルタバンク)をかけて、各帯域のスペクトル成分を取り出す。制御装置20は、当該ステップS12の処理を行った後、ステップS13に移行する。   In step S12, the control device 20 performs a process of extracting the spectral component of each band. In this process, the control device 20 applies a filter bank (mel filter bank) to the amplitude spectrum (see FIG. 4) obtained in step S11 to extract the spectrum component of each band. After performing the processing of the step S12, the control device 20 moves to step S13.

ステップS13において、制御装置20は、各帯域の振幅スペクトルの和をとり、圧縮する。この処理において、制御装置20は、フィルタバンクの帯域の個数と同じ次元に振幅スペクトルを圧縮する。本実施形態においては、20次元に振幅スペクトルを圧縮する(図5(a)参照)。制御装置20は、当該ステップS13の処理を行った後、ステップS14に移行する。   In step S13, the control device 20 calculates the sum of the amplitude spectra of each band and compresses the sum. In this process, the control device 20 compresses the amplitude spectrum in the same dimension as the number of bands in the filter bank. In this embodiment, the amplitude spectrum is compressed into 20 dimensions (see FIG. 5A). After performing the processing of the step S13, the control device 20 moves to step S14.

ステップS14において、制御装置20は、対数振幅スペクトルを求める処理を行う。この処理において、制御装置20は、20次元に圧縮された振幅スペクトルの対数をとり、対数振幅スペクトルにする(図5(b)参照)。制御装置20は、当該ステップS14の処理を行った後、ステップS15に移行する。   In step S14, the control device 20 performs a process of obtaining a logarithmic amplitude spectrum. In this process, the control device 20 takes the logarithm of the 20-dimensionally compressed amplitude spectrum to obtain a logarithmic amplitude spectrum (see FIG. 5B). After performing the process of step S14, the control device 20 proceeds to step S15.

ステップS15において、制御装置20は、20次元に圧縮された対数振幅スペクトルをケプストラムに変換する処理を行う。この処理において、制御装置20は、ステップS14で得られた対数振幅スペクトルに対して、離散コサイン変換(DCT)を行い、ケプストラムに変換する。これにより、メル周波数ケプストラム係数(MFCC)が求められる(図6参照)。制御装置20は、当該ステップS15の処理を行った後、ステップS16に移行する。   In step S15, the control device 20 performs a process of converting the logarithmic amplitude spectrum compressed in 20 dimensions into a cepstrum. In this process, the control device 20 performs a discrete cosine transform (DCT) on the logarithmic amplitude spectrum obtained in step S14 to transform it into a cepstrum. Thereby, the mel frequency cepstrum coefficient (MFCC) is obtained (see FIG. 6). After performing the processing of the step S15, the control device 20 moves to step S16.

ステップS16において、制御装置20は、判定対象データの抽出処理を行う。この処理において、制御装置20は、ステップS15で得られたMFCCから必要な部分を抜き出す処理を行い、この抜き出した部分を、関節状態の判定の対象となる判定対象データ(MFCC)とする。この判定対象データにおいては、各ケフレンシー(MFCCの周波数)において、ステップS10で細分化した5つのデータ(1〜1.2秒のデータ、1.2〜1.4秒のデータ、1.4〜1.6秒のデータ、1.6〜1.8秒のデータ及び1.8〜2秒のデータ)によって得られた5つの点(MFCC)が示されている。制御装置20は、当該ステップS16の処理を行った後、ステップS17に移行する。   In step S16, the control device 20 performs the extraction process of the determination target data. In this process, the control device 20 performs a process of extracting a necessary part from the MFCC obtained in step S15, and sets the extracted part as determination target data (MFCC) to be a target of the determination of the joint state. In this determination target data, five data (1-1.2 seconds data, 1.2-1.4 seconds data, 1.4- Five points (MFCC) obtained with 1.6 s data, 1.6-1.8 s data and 1.8-2 s data are shown. The controller 20 proceeds to step S17 after performing the process of step S16.

ステップS17において、制御装置20は、関節状態の判定処理を行う。この処理において、制御装置20は、まず、ステップS16で得られた判定対象データと、当該制御装置20のデータベースに記憶された比較データとを照合する。   In step S17, the control device 20 performs joint state determination processing. In this process, the control device 20 first collates the determination target data obtained in step S16 with the comparison data stored in the database of the control device 20.

制御装置20の記憶部に記憶された比較データには、膝関節の症状(状態の良し悪し)の程度がそれぞれ異なる複数のデータを含んでいる。本実施形態においては、比較データには、関節の状態が悪い人の比較データBAD(図7から図10)と、関節の状態が良い人の比較データGOOD(図11から図14)とが含まれている。当該比較データは、対象者の判定対象データ(図6参照)と対応する形式(MFCC)として示されている。比較データは、図2に示すステップS10からS16までの処理と同様の方法によって得られたものである。 The comparison data stored in the storage unit of the control device 20 includes a plurality of data having different degrees of knee symptom (good or bad state). In the present embodiment, the comparison data includes comparison data BAD (FIGS. 7 to 10) of a person having a poor joint condition and comparison data GOOD (FIGS. 11 to 14) of a person having a good joint condition. Has been. The comparison data is shown as a format (MFCC) corresponding to the determination target data (see FIG. 6) of the subject. The comparison data is obtained by the same method as the processing from steps S10 to S16 shown in FIG.

本実施形態においては、関節の状態が悪い人の比較データBADには、比較データBAD1及び比較データBAD2(図7)、比較データBAD3及び比較データBAD4(図8)、比較データBAD5及び比較データBAD6(図9)、並びに比較データBAD7及び比較データBAD8(図10)が含まれている。また、関節の状態が良い人の比較データGOODには、比較データGOOD1及び比較データGOOD2(図11)、比較データGOOD3及び比較データGOOD4(図12)、比較データGOOD5及び比較データGOOD6(図13)、並びに比較データGOOD7及び比較データGOOD8(図14)が含まれている。 In the present embodiment, the comparison data BAD1 and the comparison data BAD2 (FIG. 7), the comparison data BAD3 and the comparison data BAD4 (FIG. 8), the comparison data BAD5 and the comparison data BAD6 are included in the comparison data BAD of a person with a poor joint condition. (FIG. 9), and comparison data BAD7 and comparison data BAD8 (FIG. 10) are included. Further, the comparison data GOOD1 and the comparison data GOOD2 (FIG. 11), the comparison data GOOD3 and the comparison data GOOD4 (FIG. 12), the comparison data GOOD5 and the comparison data GOOD6 (FIG. 13) are included in the comparison data GOOD of a person with a good joint condition. , And comparison data GOOD7 and comparison data GOOD8 (FIG. 14).

関節の状態が悪い人の比較データBAD(図7から図10)と、関節の状態が良い人の比較データGOOD(図11から図14)とは、異なる傾向を示している。例えば、関節の状態が悪い人の比較データBAD(図7から図10)は、関節の状態が良い人の比較データGOOD(図11から図14)に比べて、MFCCの周波数(ケフレンシー)の違いによってばらつきが大きい傾向にある。 The comparison data BAD (Figs. 7 to 10) of a person with a poor joint condition and the comparison data GOOD (Figs. 11 to 14) of a person with a good joint condition show different tendencies. For example, the comparison data BAD (Figs. 7 to 10) of a person with a poor joint condition is different from the comparison data GOOD (Figs. 11 to 14) of a person with a good joint condition in the frequency (keflency) of the MFCC. It tends to vary greatly depending on the situation.

制御装置20は、対象者の判定対象データ(図6参照)と、各比較データ(図7から図14)とを照合し、対象者の判定対象データ(図6参照)がどの比較データと近似するかを判定する。より詳細には、制御装置20は、対象者の判定対象データ(図6参照)と、各比較データ(図7から図14)とを重ね合わせ、同一のケフレンシーにおいて、対象者の判定対象データが示す点と、比較データが示す点との間の距離を測定する。そして、制御装置20は、測定した距離の最小値及び平均値を算出し、当該最小値及び平均値に基づいて判定対象データが示す点の間の距離が最も近い比較データ(算出した距離の最小値及び平均値が最も小さい比較データ)を決定する。そして、制御装置20は、当該距離が最も近い比較データが示す関節の症状の程度に基づいて関節の状態を判定する。   The control device 20 collates the determination target data (see FIG. 6) of the target person with each comparison data (FIGS. 7 to 14), and approximates the comparison target data of the determination target data (see FIG. 6) of the target person. Determine whether to do. More specifically, the control device 20 superimposes the determination target data of the subject (see FIG. 6) and the respective comparison data (FIGS. 7 to 14), and determines the determination target data of the subject at the same kefency. The distance between the indicated point and the point indicated by the comparison data is measured. Then, the control device 20 calculates the minimum value and the average value of the measured distances, and based on the minimum value and the average value, the comparison data having the shortest distance between the points indicated by the determination target data (the calculated minimum distance). The comparison data with the smallest value and average value) is determined. Then, the control device 20 determines the state of the joint based on the degree of the symptom of the joint indicated by the comparison data having the shortest distance.

具体的には、制御装置20は、対象者の判定対象データ(図6参照)が、制御装置20の記憶部に記憶された比較データ(図7から図14)のうち関節状態の良い人の比較データGOOD(図11から図14)に最も近似する(距離が近い)場合は、対象者の関節状態は良いと判定する。一方、対象者の判定対象データ(図6参照)が、制御装置20の記憶部に記憶された比較データ(図7から図14)のうち関節状態の悪い人の比較データBAD(図7から図10)に最も近似する(距離が近い)場合は、対象者の関節状態は悪いと判定する。 Specifically, the control device 20 determines that the determination target data of the subject (see FIG. 6) is the same as that of the person with a good joint condition out of the comparison data (FIGS. If it is the closest to the comparison data GOOD (from FIG. 11 to FIG. 14) (the distance is short), it is determined that the joint condition of the subject is good. On the other hand, the determination target data (see FIG. 6) of the subject is the comparison data BAD (FIG. 7 to FIG. 7) of the person with poor joint condition among the comparison data (FIGS. 7 to 14) stored in the storage unit of the control device 20. If it is the closest to 10) (the distance is short), it is determined that the joint condition of the subject is poor.

図15は、対象者の判定対象データと比較データとの照合結果の一例を示すものである。図15においては、判定対象データ1及び判定対象データ2と、比較データBAD1及び比較データBAD5、並びに比較データGOOD1及び比較データGOOD5との照合結果のみを示しており、他の比較データとの照合結果は省略している。なお、データ分割番号1、2・・・5は、1秒間の波形データを0.2秒間ごとに細分化(5分割)し、当該細分化したデータのMFCCそれぞれに付されたものである。図15においては、2つの判定対象データ(判定対象データ1及び判定対象データ2)それぞれが示す点と、比較データが示す点との間の距離を示している。また、「最小値」は、データ分割番号1〜5それぞれの値(距離)のうち最も小さい値を示している。また、「平均値」は、データ分割番号1〜5の値の平均値を示している。また、「最小2つの平均値」は、データ分割番号1〜5の値のうち小さいものから順に抽出した2つのデータの平均値を示している。また、「最小3つの平均値」は、データ分割番号1〜5の値のうち小さいものから順に抽出した3つのデータの平均値を示している。 FIG. 15 shows an example of the collation result of the subject judgment data and the comparison data. Figure at 15 is determined target data 1 and the determination target data 2, comparison data BAD1 and comparison data BAD5, and shows only the matching results of the comparison data GOOD1 and comparison data GOOD5, verification result with other comparative data Is omitted. The data division numbers 1, 2, ... 5 are obtained by subdividing (5 divisions) the waveform data for 1 second every 0.2 seconds, and attached to each MFCC of the subdivided data. In FIG. 15, the distance between the point indicated by each of the two determination target data (determination target data 1 and determination target data 2) and the point indicated by the comparison data is shown. The "minimum value" indicates the smallest value among the values (distance) of the data division numbers 1 to 5. The "average value" indicates the average value of the values of the data division numbers 1-5. Further, “minimum two average values” indicates the average value of two data extracted in order from the smallest value among the data division numbers 1 to 5. In addition, “minimum three average values” indicates the average value of three data extracted in order from the smallest value among the data division numbers 1 to 5.

図15に示すように、判定対象データ1が示す点は、複数の比較データのうち比較データBAD5が示す点との距離が、最小値、平均値、最小2つの平均値及び最小3つの平均値ともに最も近い。この場合、制御装置20は、判定対象データ1と最も近似する比較データは比較データBAD5であると判定(決定)する。そして、制御装置20は、判定(決定)した比較データBAD5が示す関節の症状(関節の状態の良し悪し)の程度に基づいて、判定対象データ1の対象者の関節状態は悪いと判定する。 As shown in FIG. 15, the point indicated by the determination target data 1 is the minimum value, the average value, the minimum two average values, and the minimum three average values in the distance from the point indicated by the comparison data BAD5 among the plurality of comparison data. Both are the closest. In this case, the control device 20 determines (determines) that the comparison data that most approximates the determination target data 1 is the comparison data BAD5 . Then, the control device 20 determines that the joint condition of the subject of the determination target data 1 is bad based on the degree of the joint symptom (good or bad joint condition) indicated by the determined (determined) comparison data BAD5 .

一方、図15に示すように、判定対象データ2が示す点は、複数の比較データのうち比較データGOOD5が示す点との距離が、最小値、平均値、最小2つの平均値及び最小3つの平均値ともに最も近い。この場合、制御装置20は、判定対象データ2と最も近似する比較データは比較データGOOD5であると判定(決定)する。制御装置20は、判定(決定)した比較データGOOD5が示す関節の症状(関節の状態の良し悪し)の程度に基づいて、判定対象データ2の対象者の関節状態は良いと判定する。 On the other hand, as shown in FIG. 15, the point indicated by the determination target data 2 is the minimum value, the average value, the minimum two average values, and the minimum three distances from the point indicated by the comparison data GOOD5 among the plurality of comparison data. Both average values are the closest. In this case, the control device 20 determines (determines) that the comparison data that most approximates the determination target data 2 is the comparison data GOOD5 . The control device 20 determines that the joint condition of the subject of the determination target data 2 is good, based on the degree of the joint symptom (good or bad joint condition) indicated by the determined (determined) comparison data GOOD5 .

なお、制御装置20は学習機能を有している。制御装置20は、入力部30に入力された結果(当該関節状態判定システム1による判定とは異なる別の方法(手術など)によって判明した膝関節の実際の状態)に基づいて、制御装置20のデータベースに記憶された比較データを更新する。例えば、ある比較データが、関節の状態が悪いことを示す比較データBADとして記憶されている場合であっても、前記別の方法によって、膝関節の実際の状態がそれほど悪くないことが判明した場合(当該比較データがむしろ関節の状態が良いことを示す比較データGOODとする方が適切である場合)には、当該比較データは比較データGOODとして上書きされる。また、前記別の方法によって、判定対象データの対象者の膝関節の実際の状態が判明した場合にも、当該判定対象データは、制御装置20のデータベースに比較データとして記憶される。これにより、比較データの精度を向上させることができ、ひいては、後述する関節状態の判定の精度を向上させることができる。制御装置20は、当該ステップS17の処理を行った後、ステップS18に移行する。 The control device 20 has a learning function. The control device 20 controls the control device 20 based on the result input to the input unit 30 (the actual state of the knee joint found by another method (such as surgery) different from the determination by the joint state determination system 1). Update the comparison data stored in the database. For example, even if certain comparison data is stored as comparison data BAD indicating that the joint is in poor condition, it is found by the other method that the actual condition of the knee joint is not so bad. (when the mutual comparison data gOOD indicating that the comparison data is good rather joints condition is appropriate) is the comparison data is overwritten as the comparison data gOOD. Further, even when the actual state of the knee joint of the subject of the determination target data is determined by the another method, the determination target data is stored in the database of the control device 20 as comparison data. As a result, the accuracy of the comparison data can be improved, which in turn can improve the accuracy of joint state determination, which will be described later. After performing the process of step S17, the control device 20 proceeds to step S18.

ステップS18において、制御装置20は、判定結果の表示処理を行う。この処理において、制御装置20は、ステップS17における膝関節の状態の判定結果を、判定結果表示部40に表示させる。制御装置20は、当該ステップS18の処理を行った後、図2に示す判定制御を終了する。   In step S18, the control device 20 performs a display process of the determination result. In this process, the control device 20 causes the determination result display unit 40 to display the determination result of the state of the knee joint in step S17. After performing the process of step S18, the control device 20 ends the determination control shown in FIG.

このように本実施形態に係る関節状態判定システム1においては、膝関節を動かしたときに生じる音に基づいて膝関節の状態を判定するため、レントゲン撮影ではわからない膝関節を動かして初めてわかる箇所(可動域に関わる箇所、例えば、筋肉や、腱、神経など)の異常を発見することができる。   As described above, in the joint state determination system 1 according to the present embodiment, the state of the knee joint is determined based on the sound generated when the knee joint is moved. It is possible to detect abnormalities in a part related to the range of motion, for example, muscles, tendons, nerves.

また、問診や膝関節を動かしての診察では、膝の痛みの程度を指標として関節状態を判断することとなるが、人によって痛みに強かったり弱かったりするため、関節状態の客観的なデータを得ることができない。これに対して、本実施形態に係る関節状態判定システム1においては、膝関節を動かしたときに生じる音という客観的指標に基づいて関節状態を判定するため、客観的に関節状態を判定することができる。   Also, in interviews and examinations with moving knee joints, joint condition is judged using the degree of pain in the knee as an index, but since some people are more or less vulnerable to pain, objective data on joint condition should be used. Can't get On the other hand, in the joint condition determination system 1 according to the present embodiment, the joint condition is objectively determined because the joint condition is determined based on the objective index of the sound generated when the knee joint is moved. You can

また、レントゲン撮影に用いるような大規模な装置が必要ないため、簡易に関節状態の判定を行うことができる。   Further, since a large-scale device used for X-ray imaging is not required, the joint condition can be easily determined.

また、データの前処理(ステップS10)において、マイクロフォン10によって取得された音情報から、関節状態の判定に不要な音情報を除去するため、当該音情報に判定に必要な関節音のみが含まれるようにすることができる。このため、関節状態の判定の精度を向上させることができる。   Further, in the data pre-processing (step S10), since the sound information unnecessary for the determination of the joint state is removed from the sound information acquired by the microphone 10, only the joint sound necessary for the determination is included in the sound information. You can Therefore, the accuracy of determining the joint state can be improved.

以上の如く、本実施形態に係る関節状態判定システム1は、対象者の関節の状態を判定する関節状態判定システム1であって、対象者の関節を動かしたときに生じる音情報を取得するマイクロフォン10(音取得部)と、前記マイクロフォン10によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する制御装置20(解析部)と、比較データを記憶する制御装置20(データベース)と、前記制御装置20(解析部)によって取得された前記判定対象データと、前記制御装置20(データベース)に記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する制御装置20(判定部)と、を具備するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
As described above, the joint state determination system 1 according to the present embodiment is the joint state determination system 1 that determines the state of the joint of the subject, and is the microphone that acquires the sound information generated when the joint of the subject is moved. 10 (sound acquisition unit), a control device 20 (analysis unit) that analyzes the sound information acquired by the microphone 10 and acquires determination target data that is a determination target, and a control device 20 that stores comparison data. (Database), the determination target data acquired by the control device 20 (analyzing unit), and the comparison data stored in the control device 20 (database) are collated, and the joint of the subject is determined by the collation result. And a control device 20 (determination unit) for determining the state of.
With this configuration, it is possible to objectively determine the state of the joint of the subject.

また、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得するものである。
このように構成することにより、判定に不要な音が判定対象データから除外され易くなるので、判定の精度を向上させることができる。
In addition, the control device 20 (analyzing unit) extracts the temporally middle part of the sound information acquired by the microphone 10 and analyzes the extracted part to acquire the determination target data. It is a thing.
With this configuration, the sound unnecessary for the determination is easily excluded from the determination target data, so that the determination accuracy can be improved.

また、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得するものである。
このように構成することにより、判定に不要な音が判定対象データから除外されるので、判定の精度を向上させることができる。
In addition, the control device 20 (analyzing unit) acquires the determination target data after excluding sound information unnecessary for determination from the sound information acquired by the microphone 10.
With this configuration, the sound unnecessary for the determination is excluded from the determination target data, so that the determination accuracy can be improved.

また、前記制御装置20(判定部)は、前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
Further, the control device 20 (determination unit) determines the state of the joint based on the degree of approximation between the determination target data and the comparison data.
With this configuration, it is possible to objectively determine the state of the joint of the subject.

また、前記比較データは、関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、前記制御装置20(判定部)は、前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものである。
このように構成することにより、客観的に対象者の関節の状態を判定することができる。
Further, the comparison data includes a plurality of data having different degrees of joint symptom, and the control device 20 (determination unit) determines the comparison data that is the closest to the determination target data, and the comparison data. The joint condition is determined based on the degree of joint symptom.
With this configuration, it is possible to objectively determine the state of the joint of the subject.

また、本実施形態に係る関節状態判定システム1は、当該関節状態判定システム1による判定以外の方法により判明した関節の実際の状態を入力する入力部30を具備し、前記制御装置20(データベース)は、前記入力部30に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新するものである。
このように構成することにより、制御装置20のデータベースに記憶された比較データの精度を向上させることができ、ひいては判定の精度を向上させることができる。
Further, the joint state determination system 1 according to the present embodiment includes an input unit 30 for inputting an actual state of a joint found by a method other than the determination by the joint state determination system 1, and the control device 20 (database). Is for performing learning based on the actual state of the joint input to the input unit 30 and updating the comparison data.
With this configuration, the accuracy of the comparison data stored in the database of the control device 20 can be improved, and the accuracy of the determination can be improved.

なお、本実施形態に係る音取得装置10(マイクロフォン10)は、音取得部の実施の一形態である。
また、本実施形態に係る制御装置20は、解析部、判定部及びデータベースの実施の一形態である。
The sound acquisition device 10 (microphone 10) according to the present embodiment is an embodiment of the sound acquisition unit.
In addition, the control device 20 according to the present embodiment is an embodiment of the analysis unit, the determination unit, and the database.

以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   Although one embodiment of the present invention has been described above, the present invention is not limited to the above configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、本実施形態においては、膝関節の状態を判定するものとしたが、判定の対象はこれに限定されるものではなく、膝や肘などのあらゆる関節の状態を判定するものとすることができる。また、判定の対象には、人工関節も含まれる。関節状態判定システム1を人工関節にも適用することにより、人工関節の経年劣化を検出することができ、人工関節の交換時期の目安とすることができる。また、人工関節の位置の不具合(人工関節がうまくフィットしていない等の不具合)の検出を図ることもできる。   For example, in the present embodiment, the state of the knee joint is determined, but the determination target is not limited to this, and the state of any joint such as the knee or elbow may be determined. it can. Moreover, artificial joints are also included in the determination target. By applying the joint state determination system 1 to an artificial joint as well, it is possible to detect aged deterioration of the artificial joint and use it as a guide for the replacement time of the artificial joint. Further, it is possible to detect a defect in the position of the artificial joint (a defect such as the artificial joint not being fitted properly).

また、本実施形態においては、関節状態の判定(ステップS17)において、対象者の判定対象データと、当該対象者とは異なる人の比較データとを比較(照合)するものとしたが、同一の対象者のデータ同士を比較するものであってもよい。例えば、対象者の現在のデータを判定対象データとし、当該対象者の過去のデータを比較データとして、両者を比較(照合)し、両者の近似の程度を算出することにより、当該対象者の関節状態の経年変化を把握することができる。ひいては、麻痺の進行などを判断することも可能となる。また、対象者の右膝(左膝)のデータを判定対象データとし、当該対象者の左膝(右膝)のデータを比較データとして、両者を比較(照合)することにより、左右のバランスを把握することができる。特に、片側の膝だけ人工関節を入れた対象者の場合、左右の膝のデータの比較により、左右のバランスが悪く歩き難い等の不具合の解消を図ることができる。   Further, in the present embodiment, in the determination of the joint state (step S17), the determination target data of the target person and the comparison data of a person different from the target person are compared (matched), but the same. The data of the subject may be compared with each other. For example, the current data of the subject is used as the determination target data, the past data of the subject is used as the comparison data, and the two are compared (matched), and the degree of approximation of the two is calculated to calculate the joint of the subject. We can grasp the secular change of the state. Eventually, it becomes possible to judge the progress of paralysis. In addition, the right knee (left knee) data of the target person is used as the determination target data, and the left knee (right knee) data of the target person is used as the comparison data. You can figure it out. In particular, in the case of a subject who has an artificial joint in only one knee, it is possible to solve problems such as poor left-right balance and difficulty in walking by comparing the data of the left and right knees.

また、本実施形態においては、関節状態の判定(ステップS17)において、判定対象データが最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定するものとしたが、関節状態の判定の方法はこれに限定されるものではない。例えば、判定対象データと関節の状態が悪いことを示す比較データBADとを比較(照合)し、判定対象データと比較データBADとの近似の程度(判定対象データが示す点と比較データBADが示す点との間の距離)が閾値以内である場合に、対象者の関節状態は悪いと判断するようにしてもよい。又は、判定対象データと関節の状態が良いことを示す比較データGOODとの近似の程度(判定対象データが示す点と比較データGOODが示す点との間の距離)が閾値以内である場合に、対象者の関節状態は良いと判断するようにしてもよい。 Further, in the present embodiment, in the determination of the joint state (step S17), the comparison data that is the closest to the determination target data is determined, and the joint state is determined based on the degree of the symptom of the joint indicated by the comparison data. However, the method of determining the joint state is not limited to this. For example, the determination target data is compared (compared) with the comparison data BAD indicating that the joint is in a bad state, and the degree of approximation between the determination target data and the comparison data BAD (the points indicated by the determination target data and the comparison data BAD indicate When the distance to the point) is within the threshold value, it may be determined that the joint condition of the subject is poor. Alternatively, when the degree of approximation between the determination target data and the comparison data GOOD indicating that the condition of the joint is good (the distance between the point indicated by the determination target data and the point indicated by the comparison data GOOD ) is within the threshold value, The joint condition of the subject may be judged to be good.

また、本実施形態においては、関節状態の判定(ステップS17)において、図6に示すMFCC同士を照合するものとしたが、照合対象の形式はこれに限定されるものではなく、例えば図5(b)に示す20次元に圧縮された対数振幅スペクトル同士を照合してもよい。又は、図16に示すように、MFCCの変化量であるΔMFCC同士を照合するものであってもよく、図17に示すように、ΔMFCCの変化量であるΔΔMFCC同士を照合するものであってもよい。また、照合対象の形式は、MFCCとは異なる他の形式であってもよい。   Further, in the present embodiment, the MFCCs shown in FIG. 6 are collated in the determination of the joint state (step S17), but the format of the collation target is not limited to this, and for example, FIG. The 20-dimensionally compressed logarithmic amplitude spectra shown in b) may be collated. Alternatively, as shown in FIG. 16, the ΔMFCCs, which are MFCC changes, may be collated with each other, or, as shown in FIG. 17, the ΔΔMFCCs, which are ΔMFCC changes, may be collated with each other. Good. Further, the format of the matching target may be another format different from MFCC.

また、本実施形態においては、対象者の関節音の波形データを取得した後、その全体波形から必要部分(時間的に中間の部分)を切り出して判定対象データとし、当該判定対象データに基づいて関節状態の判定を行うものとしたが、対象者の関節音の波形データの取得時にリアルタイムで(波形データの取得と並行して)関節状態の判定を行うものとしてもよい。   Further, in the present embodiment, after acquiring the waveform data of the joint sound of the target person, a necessary portion (temporally intermediate portion) is cut out from the entire waveform to be the determination target data, and based on the determination target data Although the joint state is determined, the joint state may be determined in real time (in parallel with the acquisition of the waveform data) when the waveform data of the joint sound of the subject is acquired.

また、本実施形態においては、比較データは、関節の状態が悪いことを示す比較データBADと、関節の状態が良いことを示す比較データGOODとの2種類に分類されるものとしたが、関節の症状(状態の良し悪し)の程度に応じて段階的に(3段階以上に)分類されるものとしてもよい。これにより、関節状態の判定(ステップS17)において、関節状態が良い又は悪いの2通りだけではなく、関節状態をより詳細に判定することが可能となる。 In addition, in the present embodiment, the comparison data is classified into two types, comparison data BAD indicating that the joint is in poor condition and comparison data GOOD indicating that the joint is in good condition. It may be classified in stages (3 or more stages) according to the degree of the symptom (good or bad condition). As a result, in the determination of the joint state (step S17), it is possible to determine the joint state in more detail in addition to the two types in which the joint state is good or bad.

また、本実施形態においては、制御装置20は、音データの全体波形から1つの部分を切り出す(抽出する)ものとしたが、複数の部分を切り出すものとすることができる。これにより、複数の判定対象データが得られるため、判定の精度を向上させることができる。   Further, in the present embodiment, the control device 20 cuts out (extracts) one portion from the entire waveform of the sound data, but it may cut out a plurality of portions. As a result, a plurality of pieces of determination target data are obtained, so that the accuracy of determination can be improved.

以上の如く、前記制御装置20(解析部)は、前記マイクロフォン10によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得するものである。
このように構成することにより、複数の判定対象データによって判定が行われるので、判定の精度を向上させることができる。
As described above, the control device 20 (analyzing unit) extracts a plurality of parts from the sound information acquired by the microphone 10 and analyzes the plurality of extracted parts to obtain a plurality of the determination target data. Is what you get.
With such a configuration, the determination is performed based on the plurality of determination target data, so that the determination accuracy can be improved.

1 関節状態判定システム
10 音取得装置(マイクロフォン)
20 制御装置
30 入力部
1 Joint condition determination system 10 Sound acquisition device (microphone)
20 Control device 30 Input unit

Claims (7)

対象者の関節の状態を判定する関節状態判定システムであって、
対象者の関節を動かしたときに生じる音情報を取得する音取得部と、
前記音取得部によって取得された前記音情報を解析し、判定の対象となる判定対象データを取得する解析部と、
比較データを記憶するデータベースと、
前記解析部によって取得された前記判定対象データと、前記データベースに記憶された前記比較データとを照合し、照合結果により前記対象者の関節の状態を判定する判定部と、
を具備する、
関節状態判定システム。
A joint state determination system for determining the state of a joint of a subject,
A sound acquisition unit that acquires sound information generated when the joint of the subject is moved,
An analysis unit that analyzes the sound information acquired by the sound acquisition unit and acquires determination target data that is a determination target,
A database that stores comparison data,
A determination unit that compares the determination target data acquired by the analysis unit with the comparison data stored in the database, and determines the joint state of the target person based on the comparison result.
Equipped with,
Joint condition determination system.
前記解析部は、
前記音取得部によって取得された前記音情報のうち時間的に中間の部分を抽出し、抽出した前記部分を解析することで前記判定対象データを取得する、
請求項1に記載の関節状態判定システム。
The analysis unit is
Extracting a temporally intermediate part of the sound information acquired by the sound acquisition unit, and acquiring the determination target data by analyzing the extracted part,
The joint condition determination system according to claim 1.
前記解析部は、
前記音取得部によって取得された前記音情報から複数の部分を抽出し、抽出した複数の前記部分を解析することで複数の前記判定対象データを取得する、
請求項1又は請求項2に記載の関節状態判定システム。
The analysis unit is
Extracting a plurality of parts from the sound information acquired by the sound acquisition unit, to acquire a plurality of the determination target data by analyzing the plurality of extracted parts,
The joint condition determination system according to claim 1 or 2.
前記解析部は、
前記音取得部によって取得された前記音情報から、判定に不要な音情報を除外したうえで、前記判定対象データを取得する、
請求項1から請求項3までのいずれか一項に記載の関節状態判定システム。
The analysis unit is
From the sound information acquired by the sound acquisition unit, after excluding sound information unnecessary for determination, the determination target data is acquired,
The joint state determination system according to any one of claims 1 to 3.
前記判定部は、
前記判定対象データと前記比較データとの近似の程度によって、関節の状態を判定する、
請求項1から請求項4までのいずれか一項に記載の関節状態判定システム。
The determination unit,
The state of the joint is determined based on the degree of approximation between the determination target data and the comparison data,
The joint state determination system according to any one of claims 1 to 4.
前記比較データは、
関節の症状の程度がそれぞれ異なる複数のデータを含んでおり、
前記判定部は、
前記判定対象データと最も近似する比較データを決定し、当該比較データが示す関節の症状の程度に基づいて関節の状態を判定する、
請求項1から請求項5までのいずれか一項に記載の関節状態判定システム。
The comparison data is
It contains multiple data with different degrees of joint symptom,
The determination unit,
The comparison data that is most similar to the determination target data is determined, and the joint state is determined based on the degree of joint symptom indicated by the comparison data.
The joint state determination system according to any one of claims 1 to 5.
当該関節状態システムによる判定以外の方法により判明した関節の実際の状態を入力する入力部を具備し、
前記データベースは、
前記入力部に入力された前記関節の実際の状態を元に学習を行い、前記比較データを更新する、
請求項1から請求項6までのいずれか一項に記載の関節状態判定システム。
An input unit for inputting the actual state of the joint found by a method other than the determination by the joint state system,
The database is
Learning is performed based on the actual state of the joint input to the input unit, and the comparison data is updated.
The joint state determination system according to any one of claims 1 to 6.
JP2018191366A 2018-10-10 2018-10-10 Joint condition determination system Active JP7132816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018191366A JP7132816B2 (en) 2018-10-10 2018-10-10 Joint condition determination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191366A JP7132816B2 (en) 2018-10-10 2018-10-10 Joint condition determination system

Publications (2)

Publication Number Publication Date
JP2020058538A true JP2020058538A (en) 2020-04-16
JP7132816B2 JP7132816B2 (en) 2022-09-07

Family

ID=70219694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191366A Active JP7132816B2 (en) 2018-10-10 2018-10-10 Joint condition determination system

Country Status (1)

Country Link
JP (1) JP7132816B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296482A (en) * 2004-04-15 2005-10-27 Natl Inst Of Radiological Sciences Diagnosis system
WO2011096419A1 (en) * 2010-02-05 2011-08-11 学校法人 日本大学 Bio-acoustic sensor and diagnostic system using the bio-acoustic sensor
JP2012516719A (en) * 2009-02-02 2012-07-26 ジョイントヴュー・エルエルシー Noninvasive diagnostic system
JP2016168209A (en) * 2015-03-13 2016-09-23 富士フイルム株式会社 Joint sound measuring system
WO2016191753A1 (en) * 2015-05-27 2016-12-01 Georgia Tech Research Corporation Wearable technologies for joint health assessment
JP2016209623A (en) * 2016-07-27 2016-12-15 国立大学法人山梨大学 Array-shaped sound collection sensor device
JP2017023187A (en) * 2015-07-16 2017-02-02 公立大学法人首都大学東京 Knee Arthrosis Diagnosis System

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296482A (en) * 2004-04-15 2005-10-27 Natl Inst Of Radiological Sciences Diagnosis system
JP2012516719A (en) * 2009-02-02 2012-07-26 ジョイントヴュー・エルエルシー Noninvasive diagnostic system
WO2011096419A1 (en) * 2010-02-05 2011-08-11 学校法人 日本大学 Bio-acoustic sensor and diagnostic system using the bio-acoustic sensor
JP2016168209A (en) * 2015-03-13 2016-09-23 富士フイルム株式会社 Joint sound measuring system
WO2016191753A1 (en) * 2015-05-27 2016-12-01 Georgia Tech Research Corporation Wearable technologies for joint health assessment
JP2017023187A (en) * 2015-07-16 2017-02-02 公立大学法人首都大学東京 Knee Arthrosis Diagnosis System
JP2016209623A (en) * 2016-07-27 2016-12-15 国立大学法人山梨大学 Array-shaped sound collection sensor device

Also Published As

Publication number Publication date
JP7132816B2 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
Wroge et al. Parkinson’s disease diagnosis using machine learning and voice
Rubin et al. Recognizing abnormal heart sounds using deep learning
Gunduz An efficient dimensionality reduction method using filter-based feature selection and variational autoencoders on Parkinson's disease classification
Muhammad et al. Voice pathology detection using interlaced derivative pattern on glottal source excitation
Pramono et al. Evaluation of features for classification of wheezes and normal respiratory sounds
AL-Dhief et al. Voice pathology detection using machine learning technique
WO2010044452A1 (en) Information judgment aiding method, sound information judging method, sound information judgment aiding device, sound information judging device, sound information judgment aiding system, and program
Spangler et al. Fractal features for automatic detection of dysarthria
US20200365271A1 (en) Method for predicting sleep apnea from neural networks
Majidnezhad et al. An ANN-based method for detecting vocal fold pathology
Hammami et al. Pathological voices detection using support vector machine
Kiran et al. TQWT based features for classification of ALS and healthy EMG signals
Zakariah et al. [Retracted] An Analytical Study of Speech Pathology Detection Based on MFCC and Deep Neural Networks
Al-Nasheri et al. Voice pathology detection using auto-correlation of different filters bank
KR101220399B1 (en) A physical constitution information analysis method using integrated information
KR20190084764A (en) Cosmetic recommendation system based on reviews data related to cosmetic and the method of recommending cosmetic
Cordella et al. Classification-based screening of Parkinson’s disease patients through voice signal
Priya et al. Speech and non-speech identification and classification using KNN algorithm
Al-Dhief et al. Dysphonia detection based on voice signals using naive bayes classifier
Nigmatullin et al. Membrane current series monitoring: essential reduction of data points to finite number of stable parameters
CN110718301A (en) Alzheimer disease auxiliary diagnosis device and method based on dynamic brain function network
Selvakumari et al. A voice activity detector using SVM and Naïve Bayes classification algorithm
NEILI et al. Analysis of acoustic parameters from respiratory signal in copd and pneumonia patients
Faisal et al. NDDNet: A deep learning model for predicting neurodegenerative diseases from gait pattern
Peplinski et al. Objective assessment of vocal tremor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220826

R150 Certificate of patent or registration of utility model

Ref document number: 7132816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150