JP6263308B1 - Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program - Google Patents
Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program Download PDFInfo
- Publication number
- JP6263308B1 JP6263308B1 JP2017216536A JP2017216536A JP6263308B1 JP 6263308 B1 JP6263308 B1 JP 6263308B1 JP 2017216536 A JP2017216536 A JP 2017216536A JP 2017216536 A JP2017216536 A JP 2017216536A JP 6263308 B1 JP6263308 B1 JP 6263308B1
- Authority
- JP
- Japan
- Prior art keywords
- dementia
- subject
- patient
- response
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 206010012289 Dementia Diseases 0.000 title claims abstract description 223
- 238000003745 diagnosis Methods 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000004044 response Effects 0.000 claims abstract description 105
- 238000004458 analytical method Methods 0.000 claims abstract description 54
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000009471 action Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 10
- 239000003814 drug Substances 0.000 claims description 8
- 238000002405 diagnostic procedure Methods 0.000 claims description 7
- 229940079593 drug Drugs 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000006399 behavior Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 6
- 230000007087 memory ability Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 3
- 208000017667 Chronic Disease Diseases 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 235000006694 eating habits Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000017311 musculoskeletal movement, spinal reflex action Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000015592 Involuntary movements Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012631 diagnostic technique Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現し得る認知症診断装置を提供すること。【解決手段】認知症診断装置1であって、被検者H1と質問者H2の会話に係る音声データを取得する音声取得部11と、前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部12と、学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部13と、を備え、前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、学習処理が施されている。【選択図】図3To provide a dementia diagnostic apparatus capable of realizing a highly accurate dementia diagnosis without giving a patient a psychological resistance. SOLUTION: A dementia diagnosing apparatus 1, a voice acquisition unit 11 for acquiring voice data related to a conversation between a subject H1 and a questioner H2, and performing voice analysis of the voice data so that the questioner For identifying the type of the question content in the utterance section to be uttered, and extracting the response feature in the utterance section uttered by the subject following the utterance section, and the learned classifier, A dementia level calculator 13 for inputting the response characteristics of the subject in association with the type of the question content and calculating the dementia level of the subject; and the classifier includes the subject When the response feature of the person is input in association with the type of the question content, a learning process is performed so as to output a dementia level in accordance with a predetermined dementia level determination rule. [Selection] Figure 3
Description
本開示は、認知症診断装置、認知症診断方法、及び認知症診断プログラムに関する。 The present disclosure relates to a dementia diagnosis apparatus, a dementia diagnosis method, and a dementia diagnosis program.
従来、患者の認知症を診断する手法として、長谷川式認知症診断テスト(長谷川式スケールとも称される)、MMSE(Mini Mental State Examination)認知症診断テスト等が知られている。 Conventionally, as a method for diagnosing dementia of a patient, a Hasegawa dementia diagnostic test (also referred to as a Hasegawa scale), a MMSE (Mini Mental State Examination) dementia diagnostic test, and the like are known.
この種の認知症診断は、特定の質問(例えば、年齢、見当識、3単語の即時記銘と遅延再生、計算、数字の逆唱、物品記銘)を投げかけた際の患者の回答内容に基づいて、認知症の進行度合いを示す認知症レベル(認知症スコアとも称される)を決定するテスト形式の診断手法である。 This type of dementia diagnosis is based on the patient's response to specific questions (eg, age, orientation, 3-word immediate and delayed recall, calculation, number recitation, article inscription). Based on this, it is a test-type diagnostic technique for determining a dementia level (also referred to as a dementia score) indicating the degree of progression of dementia.
尚、特許文献1には、この種の認知症診断を自動化する技術として、患者の発話を記憶した音声データの休止成分を利用し、認知症の進行度合いを判断する手法等が記載されている。
しかしながら、この種の認知症診断は、テスト形式であるため、患者に認知症診断を意識させることになり、診断される患者自身に心理的な抵抗感を持たせることが課題となっている。加えて、かかる認知症診断を専門医ではない者が実施しても、患者の正確な認知症レベルを診断することは、困難である。 However, since this type of dementia diagnosis is a test format, the patient is conscious of the dementia diagnosis, and it is a problem to make the patient himself / herself diagnosed with psychological resistance. In addition, even if such a dementia diagnosis is performed by a person who is not a specialist, it is difficult to diagnose the exact dementia level of the patient.
他方、特許文献1の従来技術では、音声データとして用いる発話内容、患者の性格に依拠した個人差、及び、その時々の患者の状態等による影響が大きい。そのため、高精度な認知症診断が困難である上、認知症以外の要因によるばらつきが生じやすい。
On the other hand, in the prior art of
本開示は、上記問題点に鑑みてなされたもので、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現し得る認知症診断装置、認知症診断方法、及び認知症診断プログラムを提供することを目的とする。 The present disclosure has been made in view of the above-described problems. A dementia diagnosis apparatus, a dementia diagnosis method, and a dementia diagnosis method capable of realizing a highly accurate dementia diagnosis without causing psychological resistance to the patient himself, and The purpose is to provide a dementia diagnostic program.
前述した課題を解決する主たる本開示は、
被検者と質問者の会話に係る音声データを取得する音声取得部と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部と、
を備え、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断装置である。
The main present disclosure for solving the above-described problems is as follows.
A voice acquisition unit for acquiring voice data related to the conversation between the subject and the questioner;
Voice that performs voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracts response features in the utterance section uttered by the subject following the utterance section An analysis unit;
For the learned classifier, the response characteristic of the subject is input in association with the type of the question content, and a dementia level calculation unit that calculates the subject's dementia level,
With
When the response characteristic of the subject is input in association with the type of the question content, the discriminator outputs teacher data so as to output a dementia level according to a predetermined dementia level determination rule. A learning process using
It is a dementia diagnostic device.
又、他の局面では、
被検者と質問者の会話に係る音声データを取得し、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出し、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する、
認知症診断方法であって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断方法である。
In other aspects,
Obtain audio data related to the conversation between the subject and the questioner,
Analyzing the voice data, identifying the type of question content in the utterance section uttered by the questioner, and extracting response characteristics in the utterance section uttered by the subject following the utterance section,
For the learned classifier, input the response characteristics of the subject in association with the type of the question content, and calculate the dementia level of the subject.
A method for diagnosing dementia,
When the response characteristic of the subject is input in association with the type of the question content, the discriminator outputs teacher data so as to output a dementia level according to a predetermined dementia level determination rule. A learning process using
This is a method for diagnosing dementia.
又、他の局面では、
コンピュータに、
被検者と質問者の会話に係る音声データを取得する処理と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する処理と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する処理と、
を実行させる認知症診断プログラムであって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断プログラムである。
In other aspects,
On the computer,
Processing to obtain voice data relating to the conversation between the subject and the questioner;
A process of performing voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracting response features in the utterance section uttered by the subject following the utterance section When,
A process for calculating the dementia level of the subject by inputting the response characteristics of the subject in association with the type of the question content for the learned classifier,
A dementia diagnosis program for executing
When the response characteristic of the subject is input in association with the type of the question content, the discriminator outputs teacher data so as to output a dementia level according to a predetermined dementia level determination rule. A learning process using
Dementia diagnostic program.
本開示に係る認知症診断装置によれば、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現することができる。 According to the dementia diagnosis apparatus according to the present disclosure, it is possible to realize a highly accurate dementia diagnosis without giving the patient a psychological resistance.
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the appended drawings. In the present specification and drawings, components having substantially the same function are denoted by the same reference numerals, and redundant description is omitted.
[認知症診断システムの全体構成]
以下、図1〜図3を参照して、一実施形態に係る認知症診断システムUの構成について説明する。
[Overall configuration of dementia diagnosis system]
Hereinafter, with reference to FIGS. 1-3, the structure of the dementia diagnosis system U which concerns on one Embodiment is demonstrated.
図1は、本実施形態に係る認知症診断システムUの構成の一例を示す図である。 FIG. 1 is a diagram illustrating an example of a configuration of a dementia diagnosis system U according to the present embodiment.
本実施形態に係る認知症診断システムUは、医師等H2と患者H1の会話を録音する端末装置2と、当該端末装置2で録音された音声データから患者H1の認知症レベルを算出する認知症診断装置1と、を備えている。
The dementia diagnosis system U according to the present embodiment includes a
本実施形態に係る認知症診断システムUは、例えば、病院に通院する患者H1(例えば、慢性疾患等で通院する高齢者)の認知症診断の用に供される。 The dementia diagnosis system U according to the present embodiment is used for diagnosis of dementia of, for example, a patient H1 who goes to a hospital (for example, an elderly person who goes to a hospital due to a chronic disease or the like).
本実施形態に係る認知症診断システムUは、診察室R(医師等H2が患者H1の診察を行う場所を意味する。以下同じ)に設置された端末装置2にて、医師等H2と患者H1の会話を録音する。そして、認知症診断装置1が、患者H1と医師等H2の会話に係る音声データを用いて、当該患者H1の認知症レベルを算出する。尚、認知症診断装置1と端末装置2とは、通信回線Nを介して通信接続されている。尚、遠隔診療などで医師H2と患者H1が同一の病室にいない態様であってもよい。
The dementia diagnosis system U according to the present embodiment includes a doctor etc. H2 and a patient H1 in a
尚、本実施形態に係る患者H1及び医師等H2が、それぞれ、本発明の「被検者」及び「質問者」に相当する。但し、本実施形態に係る認知症診断システムUは、病院以外に適用されてもよく、「被検者」と「質問者」が存在する任意の場面で利用し得る。 The patient H1 and the doctor H2 according to the present embodiment correspond to the “subject” and “questioner” of the present invention, respectively. However, the dementia diagnosis system U according to the present embodiment may be applied to a place other than a hospital, and can be used in any scene where a “subject” and a “questioner” exist.
図2は、本実施形態に係る端末装置2の構成の一例を示す図である。
FIG. 2 is a diagram illustrating an example of the configuration of the
端末装置2は、例えば、医師等H2が患者H1の電子カルテ等を閲覧する用に供されるコンピュータである。端末装置2は、例えば、病院の診察室Rに設置され、医師等H2(例えば、医師)が患者H1に対して問診を行った際の患者H1と医師等H2の会話に係る音声データを生成する。
The
端末装置2は、例えば、音声入力部21、記憶部22、通信部23、操作入力部24、表示部25、及び制御部26を備えている。
The
音声入力部21は、例えば、一般的なマイクロホンであり、外部から入力される音声をAD変換して、音声波形を示す音声データを生成する。
The
音声入力部21は、例えば、病院内の診察室Rに配設され、医師等H2と患者H1の会話に係る音声データを生成する。音声入力部21が生成した音声データは、PCMデータ等のデータ形式で記憶部22に記憶され、通信部23により、認知症診断装置1に対して送信される。尚、音声入力部21として、複数個のマイクロホンが用いられてもよい。
The
記憶部22は、RAM、ROM、HDD、フラッシュメモリ等を含んで構成され、システムプログラム、当該システムプログラム上で実行可能なアプリケーションプログラム、及び各種データ(例えば、音声データ)を記憶する。
The
通信部23は、通信回線Nを介して、認知症診断装置1等の外部機器とデータの送受信を行うための通信インタフェイスである。通信部23は、例えば、LANアダプターによって構成される。
The
操作入力部24は、医師等H2等が端末装置2に対して操作入力を行うためのユーザインタフェイスであり、例えば、キーボードによって構成される。
The
表示部25は、例えば、液晶ディスプレイによって構成される。表示部25は、例えば、患者H1のカルテ画面等を表示したり、認知症診断装置1から取得した患者H1の認知症診断の診断結果データを閲覧可能な状態で表示する(詳細は後述)。
The
制御部26は、端末装置2の各部を統括制御するもので、例えば、CPU、ROM、RAM等を含んで構成される。
The
図3は、本実施形態に係る認知症診断装置1の機能ブロックの一例を示す図である。
FIG. 3 is a diagram illustrating an example of functional blocks of the dementia
認知症診断装置1は、例えば、音声入力部21で生成された音声データに基づいて、診察室Rに訪れた患者H1の認知症レベルの診断を行う解析サーバである。
The
認知症診断装置1は、音声取得部11、音声解析部12、認知症レベル算出部13、出力部14、及び学習処理部15を備えている。
The
音声取得部11は、端末装置2から医師等H2と患者H1の会話に係る音声データD1を取得する。
The
音声解析部12は、音声取得部11から音声データD1を取得し、音響モデルのデータDt1(以下、音響モデルDt1)及び分類ルールのデータDt2(以下、分類ルールデータDt2)等を用いて、当該音声データD1の音声解析を行い、医師等H2の質問内容の種別を特定すると共に、患者H1の応答特徴を抽出する。
The
認知症レベル算出部13は、音声解析部12から医師等H2の質問内容の種別と関連付けられた患者H1の応答特徴のデータD2を取得して、学習済みの識別器のデータDm(以下、識別器Dm)を用いて、患者H1の認知症レベルを算出する。
The dementia
出力部14は、認知症レベル算出部13から患者H1の認知症レベルのデータD3を取得して、当該患者H1の認知症の進行状況の経時的変化を示すデータD4を出力する。
The
学習処理部15は、患者H1の応答特徴が医師等H2の質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則(例えば、長谷川式認知症診断テスト、MMSE式認知症診断テスト)に則した認知症レベルを出力するように、識別器Dmに対して機械学習を施す。尚、学習処理部15は、音声取得部11、音声解析部12、認知症レベル算出部13、及び出力部14とは独立して、認知症診断システムUを稼働させる前の準備段階で動作する処理部である。
When the response characteristic of the patient H1 is input in association with the type of the question content of the doctor H2 or the like, the
尚、図3中の矢印は、各機能の処理のフロー、及びデータD1〜D4の流れを表す。 In addition, the arrow in FIG. 3 represents the flow of the process of each function, and the flow of data D1-D4.
図4は、本実施形態に係る認知症診断装置1のハードウェア構成の一例を示す図である。
FIG. 4 is a diagram illustrating an example of a hardware configuration of the
認知症診断装置1は、主たるコンポーネントとして、CPU101、ROM102、RAM103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インタフェイス105等を備えたコンピュータである。
The
認知症診断装置1の上記した各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された処理プログラムや各種データ(例えば、音響モデルデータDt1、分類ルールデータDt2、識別器のモデルデータDm、及び患者の履歴データDr等)を参照することによって実現される。尚、RAM102は、例えば、データの作業領域や一時退避領域として機能する。
The above-described functions of the
但し、上記した各機能の一部又は全部は、CPU101による処理に代えて、又は、これと共に、DSPによる処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
However, some or all of the functions described above may be realized by processing by the DSP instead of, or together with, processing by the
以下、図3、図5〜図9を参照して、認知症診断装置1の構成の詳細について、説明する。
Hereinafter, the configuration of the
[音声取得部]
音声取得部11は、端末装置2から、通信回線Nを介して、医師等H2と患者H1の会話に係る音声データD1を取得する。
[Audio acquisition unit]
The
尚、医師等H2と患者H1の会話に係る音声データD1は、医師等H2の発言を録音するマイクロホンで生成された音声データと、患者H1の発言を録音するマイクロホンで生成された音声データと、により構成されてもよい。このように複数の音声データを用いる場合には、音声解析部12は、例えば、複数の音声データ間で時間軸を揃えて、後述の音声解析の処理を行う。
The voice data D1 related to the conversation between the doctor H2 and the patient H1 includes voice data generated by a microphone that records the voice of the doctor H2 and the like, voice data generated by a microphone that records the voice of the patient H1, and It may be constituted by. Thus, when using several audio | voice data, the audio |
又、遠隔診療に適用する場合にも、同様に、別個のマイクロホンで生成された音声データを用いることになる。尚、この場合には、例えば、患者H1の音声を録音する端末及び医師H2の音声を録音する端末から、各別に音声データをクラウド上にアップロードする態様になる。かかる態様は、患者H1の音声と医師H2の音声が明確に区別できる点で有用である。 Similarly, when applied to telemedicine, voice data generated by a separate microphone is used. In this case, for example, voice data is uploaded to the cloud separately from the terminal that records the voice of the patient H1 and the terminal that records the voice of the doctor H2. Such an embodiment is useful in that the voice of the patient H1 and the voice of the doctor H2 can be clearly distinguished.
[音声解析部]
音声解析部12は、音声取得部11から音声データD1を取得して、当該音声データD1を音声解析する。音声解析部12は、医師等H2が発話する発話区間(以下、「医師発話区間」と略称する)における質問内容の種別(以下、「質問種別」と称する)を特定すると共に、当該医師発話区間に続いて患者H1が発話する発話区間(以下、「患者発話区間」と略称する)における患者H1の応答特徴(以下、「応答特徴」と略称する)を抽出する。
[Speech analysis unit]
The
尚、音声解析部12は、当該音声解析処理をする際に、患者H1の応答特徴を抽出するための音響モデルのデータDt1、及び、医師等H2の質問種別を分類するための分類ルールのデータDt2を参照する(詳細は後述)。
Note that the
ここで、「応答特徴」とは、発話するテンポ、質問に対して応答する速度、一回の患者発話区間内における語数、一回の患者発話区間内における語彙力、又は、質問に対する発話内容の的確性等であり、これらのうちの一以上の情報が用いられる。但し、「応答特徴」は、患者発話区間内の音声データの周波数変化を抽出しただけの音声特徴量(例えば、Mel-Frequency Cepstrum Coefficients:MFCC)の時系列データ等であってもよい。 Here, the “response feature” means the tempo of utterance, the speed of responding to a question, the number of words in one patient utterance interval, the vocabulary in one patient utterance interval, or the utterance content for a question Accuracy or the like, and one or more pieces of information are used. However, the “response feature” may be time-series data of speech feature quantities (for example, Mel-Frequency Cepstrum Coefficients: MFCC) obtained by extracting frequency changes of speech data within the patient utterance section.
「応答特徴」は、例えば、患者H1の発話区間毎に抽出され、通常、一連の会話中(即ち、一回の診察中)において、複数回抽出される。 The “response feature” is extracted, for example, for each utterance section of the patient H1, and is normally extracted a plurality of times during a series of conversations (that is, during a single examination).
「応答特徴」は、患者H1の発話区間の直前に行われた医師等H2の質問種別と関連付けて抽出される。換言すると、患者発話区間に抽出される「応答特徴」は、当該患者発話区間の直前の医師発話区間に抽出される「質問種別」と1セットとして関連付けられる。 The “response feature” is extracted in association with the question type of the doctor H2 etc. performed immediately before the utterance section of the patient H1. In other words, the “response feature” extracted in the patient utterance section is associated as one set with the “question type” extracted in the doctor utterance section immediately before the patient utterance section.
尚、音声データD1には、通常、時系列に、医師発話区間と患者発話区間とが交互に出現する。但し、音声データD1中から、医師等H2が質問を行った医師発話区間とその直後に患者が応答した患者発話区間とのみを部分的に抽出してもよい。 In the voice data D1, a doctor utterance section and a patient utterance section appear alternately in time series. However, from the voice data D1, only the doctor utterance section where the doctor H2 asked a question and the patient utterance section where the patient responded immediately after that may be partially extracted.
ここで、「質問種別」とは、医師等H2が患者H1に対して行う質問内容を特定するものである。「質問種別」としては、例えば、挨拶、体調を問う質問、前回の診察から今回の診察までの変化に関する質問(例えば、痛みの増加度合いを問う質問等)、服薬状況を確認するための質問、日常生活に関わる質問(例えば、毎日の食生活を問う質問等)、又は、患者H1の過去のエピソードに関する質問(例えば、患者H1の母校を問う質問等)等があり、これらのうちの一以上の種別が用いられる。但し、「質問種別」は、認知症診断システムUの利用態様に応じて、適宜設定されるものであってよい。 Here, the “question type” is for specifying the content of the question that the doctor H2 asks the patient H1. As the “question type”, for example, greetings, questions about physical condition, questions about changes from the previous examination to the current examination (for example, questions about the degree of increase in pain, etc.), questions for confirming the medication status, There are questions related to daily life (for example, questions about daily eating habits) or questions about past episodes of patient H1 (for example, questions about patient H1's home school), etc. One or more of these Are used. However, the “question type” may be appropriately set according to the usage mode of the dementia diagnosis system U.
認知症は、脳機能の低下に起因しており、一般に、言語能力、見当識又は記憶力等の低下として表出する。質問に対して応答する際には、かかる言語能力、見当識又は記憶力等が用いられるため、患者H1が医師等H2に対して応答する際の応答特徴は、認知症の進行度合いを図る有益な指標となる。 Dementia is caused by a decrease in brain function, and is generally expressed as a decrease in language ability, orientation, memory ability, or the like. When responding to a question, such language ability, orientation, memory ability, etc. are used. Therefore, the response characteristic when the patient H1 responds to the doctor H2 etc. is beneficial for the degree of progression of dementia. It becomes an indicator.
但し、「応答特徴」から認知症診断を行う際には、種々の応答特徴に基づく総合的な判断が必要であるため、専門医でない者が日常会話の中の応答態様から認知症レベルを正確に診断することは、困難な場合が多い。 However, when diagnosing dementia from “response characteristics”, it is necessary to make comprehensive judgments based on various response characteristics, so that a non-specialist can accurately determine the dementia level from the response mode in daily conversation. Diagnosis is often difficult.
そこで、本実施形態に係る認知症診断装置1は、種々の質問に対する「応答特徴」を抽出すると共に、医師等H2の「質問種別」と関連付けて「応答特徴」を抽出する。そして、本実施形態に係る認知症診断装置1は、機械学習が施された識別器(詳細は、図7等を参照して後述)を用いて、これらの複数の要素間の相関関係の解析を行い、総合的な判断を可能とする。
Therefore, the
尚、このように、医師等H2の「質問種別」と関連付けて「応答特徴」を抽出するのは、認知症の判断材料となる「応答特徴」が、医師等H2の質問内容に照らすことで表出するためである。特に、問診において、医師等H2が患者H1に対して質問する質問内容は、比較的限定されている。従って、医師等H2の「質問種別」を特定し、当該「質問種別」と関連付けて患者H1の「応答特徴」を分析することによって、認知症に起因した患者H1の応答特徴を高精度に抽出することが可能となる。 As described above, the “response feature” is extracted in association with the “question type” of the doctor H2, etc., because the “response feature” that is a dementia judgment material is in light of the question content of the doctor H2, etc. This is to express. In particular, in the inquiry, the contents of the question that the doctor H2 asks the patient H1 are relatively limited. Therefore, by identifying the “question type” of the doctor H2, etc. and analyzing the “response characteristics” of the patient H1 in association with the “question type”, the response characteristics of the patient H1 caused by dementia are extracted with high accuracy. It becomes possible to do.
例えば、患者H1の言語能力(例えば、一回の発話区間の語数)は、診察開始時の医師等H2のアイスブレイクの質問(例えば、体調を問う質問や挨拶)の際には判断が困難である一方、日常生活に関わる質問(例えば、最近の食生活を問う質問)の際には比較的判断が容易である。 For example, the language ability of the patient H1 (for example, the number of words in a single utterance interval) is difficult to determine in the case of an ice break question (for example, a question or greeting about physical condition) of the doctor H2, etc. at the start of the examination. On the other hand, it is relatively easy to make a judgment when a question related to daily life (for example, a question about recent eating habits).
又、例えば、患者H1の記憶力は、現在の気分を確認するための質問の際には判断が困難である一方、患者H1の過去のエピソードに関する質問(例えば、10年前の出来事を問う質問、病院に来るまでの移動手段や病院に来るまでに何をしていたかを問う質問)の際には比較的判断が容易である。 In addition, for example, the memory ability of the patient H1 is difficult to judge in the case of a question for confirming the current mood, while the question about the past episode of the patient H1 (for example, a question about an event 10 years ago, It is relatively easy to make decisions when asking questions about the means of transportation up to the hospital and the question of what was being done before coming to the hospital.
加えて、認知症診断の際に参照する「応答特徴」は、患者H1の性格に依拠する要素(即ち、個体差)を取り除く方が望ましい。かかる患者H1の性格に依拠した「応答特徴」は、当該患者H1の複数の「応答特徴」(例えば、患者H1の記憶力に関連する質問内容に応答する際の応答特徴と、患者H1の記憶力に関連しない質問内容に応答する際の応答特徴)を比較することによって、取り除くことが容易になる。 In addition, it is preferable that the “response characteristics” referred to in the diagnosis of dementia remove elements (that is, individual differences) that depend on the personality of the patient H1. The “response characteristics” that depend on the personality of the patient H1 include a plurality of “response characteristics” of the patient H1 (for example, response characteristics when responding to a question content related to the memory ability of the patient H1, and memory ability of the patient H1). By comparing response characteristics when responding to unrelated question content, it becomes easier to remove.
図5は、音声解析部12の処理の一例を示すフローチャートである。当該フローチャートは、例えば、音声解析部12がコンピュータプログラムに従って実行する処理である。
FIG. 5 is a flowchart illustrating an example of processing of the
図6は、音声解析部12が実行する処理について模式的に説明する図である。図6の波形は、音声データD1中の医師発話区間V2と患者発話区間V1の音声波形の一部を示している。
FIG. 6 is a diagram schematically illustrating the process executed by the
尚、音声解析部12は、外部記憶装置104に予め記憶した音響モデル、話者モデル、辞書、言語モデル等のデータDt1(図3には、音響モデルのみを示す)を参照して、音声データD1の音声解析を行う。
Note that the
音響モデルとは、例えば、音声の特徴量と発音記号との確率的な対応付けをデータ化したものである。又、話者モデルとは、医師等H2の音声の特徴(例えば、発話周波数)を示す音響モデルである。又、辞書とは、例えば、単語の表記と読みを記述したものである。又、言語モデルとは、例えば、辞書に記述された単語それぞれについて、当該単語の出現確率や当該単語と他の単語との接続確率をデータ化したものである。 The acoustic model is, for example, data obtained by probabilistic association between a voice feature amount and a phonetic symbol. The speaker model is an acoustic model that indicates the characteristics (for example, speech frequency) of the speech of H2 such as a doctor. The dictionary describes, for example, word notation and reading. In addition, the language model is, for example, data obtained by converting the appearance probability of the word and the connection probability between the word and another word for each word described in the dictionary.
又、音声解析部12は、外部記憶装置104に予め記憶した分類ルールのデータDt2を参照して、医師発話区間V2における医師等H2の質問内容の種別を分類する。
Further, the
ステップS1において、音声解析部12は、まず、音声データD1に対してフレーム化処理を行い、フレームごとにフーリエ解析を含む所定の処理を行って、音声データD1を音声特徴量(例えば、MFCC)の時系列データD1aに変換する。
In step S1, the
ステップS2において、音声解析部12は、音声特徴量の時系列データD1aを医師発話区間V2と患者発話区間V1とに分離する。
In step S2, the
このステップS2において、音声解析部12は、例えば、音声データ(音声特徴量の時系列データD1a)中で音量が時間的に連続して閾値以上の大きさを有する区間を一回の発話区間として識別する。又、この際、音声解析部12は、例えば、話者モデル(例えば、医師等H2の音声の特徴を示す音響モデル)を参照して、各発話区間の話者を特定する。
In step S2, for example, the
ステップS3において、音声解析部12は、音声データ(音声特徴量の時系列データD1a)中の時系列順の医師発話区間V2と患者発話区間V1とに基づいて、医師等H2と患者H1の時系列の質疑応答を順番に抽出する。つまり、このステップS3において、音声解析部12は、音声データの時系列順に、医師等H2の質問と当該質問に続く患者H1の応答のセットを抽出する(図6を参照)。
In step S3, the
このステップS3において、音声データ中に未処理の質疑応答がある場合(ステップS3:YES)、音声解析部12は、ステップS4に処理を進める。一方、未処理の質疑応答がない場合(ステップS3:NO)、音声解析部12は、一連のフローを終了する。
In step S3, when there is an unprocessed question and answer in the voice data (step S3: YES), the
ステップS4において、音声解析部12は、医師発話区間V2における医師等H2の質問種別を特定する。
In step S4, the
このステップS4において、音声解析部12は、例えば、音響モデル、辞書、及び言語モデル等のデータDt1を参照して、医師発話区間V2における音声特徴量の時系列データの音声パターンを認識し、医師発話区間V2の発話内容をテキスト化する。そして、音声解析部12は、分類ルールのデータDt2を参照して、医師発話区間V2で医師等H2が質問した質問内容の質問種別を特定する。
In step S4, the
尚、このステップS4において、医師発話区間V2の質問種別は、例えば、テキスト化された医師発話区間V2の発話内容中に出現する単語(例えば、「食事」、「出身」、「調子」又は「慢性疾患(病名)」等)や、当該単語の連なり(例えば、「先週(時期を示す単語)」の後に「でしたか(過去を問う単語)」)等によって、特定することができる。 In this step S4, the question type of the doctor utterance section V2 is, for example, a word (for example, “meal”, “born”, “tone” or “ Chronic disease (disease name) ", etc.) or a series of the words (for example," Did you say (Did you ask the past)? ") After" Last week (word indicating time) ").
ステップS5において、音声解析部12は、患者発話区間V1における患者H1の応答特徴を抽出する。
In step S5, the
このステップS5において、音声解析部12は、例えば、外部記憶装置104に予め格納された音響モデル、辞書、及び言語モデル等を参照して、患者H1が発話するテンポ、タイミング、一回の患者発話区間内における語数、一回の患者発話区間内における語彙、又は、発話内容等の患者の応答特徴を抽出する。
In step S5, the
ステップS6において、音声解析部12は、ステップS5で抽出した患者H1の応答特徴を、ステップS4で特定した医師等H2の質問種別と関連付けて、記憶部(例えば、RAM)に記憶する。
In step S6, the
このステップS6の処理を行った後、音声解析部12は、ステップS3に戻って、音声データD1の時系列順の医師発話区間V2と患者発話区間V1とを抽出し、ステップS4〜ステップS6の処理を繰り返し実行する。
After performing the process of step S6, the
尚、音声解析部12において、医師発話区間V2と患者発話区間V1とを識別する手法は、任意である。例えば、医師等H2の発話を録音するマイクロホンと、患者H1の発話を録音するマイクロホンと、を各別に設けて、医師発話区間V2と患者発話区間V1とを識別する手法を用いてもよい。
Note that the
又、音声解析部12において、医師発話区間V2における医師等H2の質問種別を特定する手法、及び患者発話区間V1における患者H1の応答特徴を抽出する手法も、任意である。
In addition, a method for specifying the question type of the doctor H2 or the like in the doctor utterance section V2 and a method for extracting the response characteristics of the patient H1 in the patient utterance section V1 in the
[認知症レベル算出部]
認知症レベル算出部13は、音声解析部12から、医師等H2の質問種別と関連付けられた患者H1の応答特徴に関するデータD2を取得する。そして、認知症レベル算出部13は、学習済みの識別器Dmを用いて、当該データD2を解析し、患者H1の認知症レベルを算出する。
[Dementia level calculator]
The dementia
識別器Dmとしては、患者H1の応答特徴が医師等H2の質問種別と関連付けて入力された際に、所定の認知症レベル決定則(例えば、長谷川式認知症診断テストやMMSE式認知症診断テスト)に則した認知症レベルを出力するように、教師データを用いた学習処理が施されたものが用いられる。 When the response characteristic of the patient H1 is input in association with the question type of the doctor H2, etc. as the classifier Dm, a predetermined dementia level determination rule (for example, Hasegawa type dementia diagnosis test or MMSE type dementia diagnosis test) In order to output a dementia level in accordance with (), a learning process using teacher data is used.
識別器Dmとしては、例えば、ニューラルネットワーク、回帰木、SVM(Support Vector Machine)、ベイズ識別器、又、これらのアンサンブルモデル等、任意の学習器を用いることができる。尚、当該識別器Dmとしては、いわゆるディープラーニングが適用される識別器であってもよいのは勿論である。 As the classifier Dm, for example, an arbitrary learning device such as a neural network, a regression tree, an SVM (Support Vector Machine), a Bayes classifier, or an ensemble model thereof can be used. Of course, the classifier Dm may be a classifier to which so-called deep learning is applied.
一般に、機械学習によって識別機能を保有する識別器は、複数の要素間の相関関係の解析に適しており、テンポ、単語数、語彙数又は応答速度等、複数の要素として表出する認知症を診断する用には好適である。 In general, classifiers that have a discriminating function by machine learning are suitable for analyzing the correlation between multiple elements, such as tempo, number of words, number of vocabularies, or response speed. It is suitable for diagnosis.
但し、識別器の識別精度は、一般に、入力される特徴ベクトルに依拠する。かかる観点から、本実施形態に係る識別器Dmは、音声解析部12にて抽出された質問種別毎に応答特徴を入力する構成としている。
However, the discrimination accuracy of the discriminator generally depends on the input feature vector. From this point of view, the classifier Dm according to the present embodiment is configured to input a response feature for each question type extracted by the
尚、学習済みの識別器Dmのモデルデータ(例えば、構造データ及び学習済みのパラメータデータ等)は、例えば、処理プログラムと共に、予め外部記憶装置104に格納されている。
Note that the model data (for example, structure data and learned parameter data) of the learned discriminator Dm is stored in the
図7は、本実施形態に係る識別器Dm(ここでは、ニューラルネットワーク)の構成の一例を示す図である。 FIG. 7 is a diagram illustrating an example of the configuration of the discriminator Dm (here, a neural network) according to the present embodiment.
本実施形態に係る識別器Dmは、入力層として、患者H1の応答特徴に関するデータD2を入力するための複数の入力ユニットを有している。 The discriminator Dm according to this embodiment has a plurality of input units for inputting data D2 related to the response characteristics of the patient H1 as an input layer.
複数の入力ユニットX1〜Xkは、それぞれ、質問種別Q1に対する応答特徴、質問種別Q2に対する応答特徴、質問種別Q3に対する応答特徴、・・質問種別Qkに対する応答特徴のように、質問種別と関連付けて入力を受け付ける構成となっている。 Each of the plurality of input units X 1 to X k is associated with a question type such as a response feature for the question type Q1, a response feature for the question type Q2, a response feature for the question type Q3, and a response feature for the question type Qk. To accept input.
尚、図7では、一の質問種別に対して、一の入力ユニットのみを図示しているが、より好適には、一の質問種別に対して、複数の観点の応答特徴(例えば、テンポ、単語数、語彙数及び応答速度等)に対応する複数の入力ユニットが設けられる。 In FIG. 7, only one input unit is illustrated for one question type, but more preferably, response characteristics (for example, tempo, A plurality of input units corresponding to the number of words, the number of vocabulary, the response speed, etc.
入力する際の「応答特徴」のデータ形式は、質問種別と関連付けられていれば任意である。例えば、「応答特徴」は、音声データD1からテンポ、単語数、語彙数又は応答速度等に係るデータに各別に分離された状態で入力されてもよいし、音声データD1を音声特徴量(例えば、MFCC)に変換しただけの時系列データが入力されてもよい。 The data format of the “response feature” at the time of input is arbitrary as long as it is associated with the question type. For example, the “response feature” may be input in a state where it is separated from the audio data D1 into data related to the tempo, the number of words, the number of vocabularies, the response speed, etc. , MFCC) time series data may be input.
ニューラルネットワークのその他の構成は、公知の技術と同様であり、ニューラルネットワークは、入力層に入力された情報が、中間層、出力層へと順に伝搬(演算)されることにより、出力層から認知症レベルを出力する。例えば、中間層は、複数の中間ユニットZj(j=1〜n(ユニット数))により構成されている。そして、入力層の入力ユニットXi(i=1〜k(ユニット数))に入力された情報Xiが、夫々の結合係数Wji(図示せず)で重みづけ(積算)されて、中間層の各中間ユニットZjに入力され、それらが加算されて各中間ユニットZjの値となる。又、中間層の各中間ユニットZjの値は、入出力関数(例えば、シグモイド関数)で非線形変換されて、夫々の結合係数Vj(図示せず)で重みづけ(積算)されて、出力層の出力ユニットUに入力され、それらが加算されて出力層の出力ユニットUの値となる。 The other structure of the neural network is the same as that of the publicly known technology. The neural network recognizes from the output layer by the information input to the input layer being propagated (calculated) in order to the intermediate layer and the output layer. The symptom level is output. For example, the intermediate layer includes a plurality of intermediate units Z j (j = 1 to n (number of units)). Then, the information X i inputted to the input unit X i (i = 1 to k (number of units)) of the input layer is weighted (integrated) by each coupling coefficient W ji (not shown), and the intermediate input to each intermediate unit Z j of the layer, consisting they are added to the value of each intermediate unit Z j. Further, the value of each intermediate unit Z j in the intermediate layer is nonlinearly transformed by an input / output function (for example, sigmoid function), weighted (integrated) by each coupling coefficient V j (not shown), and output. The values are input to the output unit U of the layer and added to obtain the value of the output unit U of the output layer.
認知症レベル算出部13は、かかる識別器Dmの順伝播処理によって、認知症レベルを算出する。尚、図中では、一例として、認知症レベルを0%(認知症に該当しないレベル)〜100%(重度の認知症に該当するレベル)の間の値として出力する態様を示している。
The dementia
尚、上記した識別器Dmの構成は、一例であって、種々に変更されてよい。又、識別器Dmは、入力ユニットX1〜Xkに入力する応答特徴のデータの正規化処理等の前処理部を更に有していてもよい。 The configuration of the discriminator Dm described above is an example and may be variously changed. Further, classifier Dm may further have a pre-processing unit normalization processing of data of the response characteristic applied to the input unit X 1 to X k.
[出力部]
出力部14は、認知症レベル算出部13から患者H1の認知症診断の結果(即ち、認知症レベル)のデータD3を取得し、端末装置2に表示させるデータ形式に変換したデータD4を、端末装置2に対して出力する。端末装置2は、出力部14から当該データD4を取得するに応じて、表示部25に表示する(図8を参照)。
[Output section]
The
この際、出力部14は、例えば、患者H1の履歴データDrを参照して、過去の他の日時の音声データについて算出された患者H1の認知症レベルを取得し、患者H1の経時的な変化を示すデータとして出力する。
At this time, for example, the
尚、患者H1の履歴データDrは、種々の患者の認知症レベルの履歴データを記憶するデータベースの当該患者H1分のデータである。患者H1の履歴データDrは、例えば、認知症レベル算出部13で患者H1の認知症レベルが算出される毎に、当該認知症レベル及び算出した日時が当該患者H1の識別情報と関連付けて記憶される。
The history data Dr of the patient H1 is data for the patient H1 in a database that stores history data of dementia levels of various patients. The history data Dr of the patient H1, for example, each time the dementia level of the patient H1 is calculated by the dementia
図8は、患者H1の認知症レベルの表示態様の一例を示す図である。 FIG. 8 is a diagram illustrating an example of a display mode of the dementia level of the patient H1.
図8の縦軸は認知症レベル算出部13が算出した認知症レベルを表し、横軸は当該認知症レベルが算出された日時を表す。ここでは、出力部14は、例えば、過去の日時からの患者H1の認知症レベルの経時的な変化に関する情報(即ち、履歴)を端末装置2に表示させている。
The vertical axis in FIG. 8 represents the dementia level calculated by the dementia
これによって、医師等は、当該患者H1について、認知症レベルの進行状況をより正確に把握することができる。 Accordingly, doctors and the like can more accurately grasp the progress of the dementia level for the patient H1.
尚、出力部14の構成としては、上記態様に限定されない。出力部14は、例えば、認知症レベルに閾値を設定し、ある閾値を超えた場合に、アラートをあらかじめ登録のメールアドレスなどを通じて関係者に発信するという構成であってもよい。
In addition, as a structure of the
[学習処理部]
学習処理部15は、識別器Dmが医師等H2と患者H1の会話(即ち、患者H1の応答特徴)から、認知症レベルを算出し得るように、識別器Dmに対して教師データを用いた機械学習を実行する。
[Learning processing section]
The
学習処理部15は、教師データを用いた公知の機械学習により、識別器Dmを最適化する(例えば、ニューラルネットワークの重み係数及びバイアス等のネットワークパラメータ)。
The
教師データ(図示せず)は、例えば、ある患者(上記の被検者たる患者H1とは異なる患者)に対して行われた認知症診断テスト(例えば、長谷川式認知症診断テストやMMSE認知症診断テスト等)の認知症レベルと、当該患者(即ち、認知症診断テストを受けた患者)に対して医師等が問診を行った際の音声データのデータセットである。かかるデータセットが、複数の患者分用意されて、教師データを構成する。 Teacher data (not shown) is, for example, a dementia diagnosis test (for example, Hasegawa dementia diagnosis test or MMSE dementia) performed on a certain patient (a patient different from the above-described patient H1). This is a data set of voice data when a doctor or the like makes an inquiry to the patient (that is, a patient who has undergone the dementia diagnostic test). Such a data set is prepared for a plurality of patients and constitutes teacher data.
尚、識別器Dmの識別性能は、教師データに依拠するため、教師データとして用いる認知症レベルは、特に、専門医が診断した結果であることが望ましい。 In addition, since the discrimination performance of the discriminator Dm depends on the teacher data, the dementia level used as the teacher data is particularly preferably a result of diagnosis by a specialist.
図9は、学習処理部15が行う学習処理の一例を示すフローチャートである。
FIG. 9 is a flowchart illustrating an example of learning processing performed by the
ステップS11においては、学習処理部15は、まず、学習処理に用いていない未処理の教師データがあるか否かを判定し、未処理の教師データがある場合(S11:YES)、ステップS12に処理を進め、未処理の教師データがない場合(S11:NO)、学習処理部15は、一連の処理を終了するべく、ステップS14に処理を進める。
In step S11, the
ステップS12においては、学習処理部15は、未処理の教師データを記憶部から取得する。
In step S12, the
ステップS13においては、学習処理部15は、前処理として、音声データに対して音声解析部12と同様の処理を実行する。即ち、学習処理部15は、医師発話区間における質問種別を特定すると共に、当該医師発話区間に続いて患者が発話する発話区間における患者の応答特徴を抽出する。
In step S13, the
ステップS14においては、学習処理部15は、教師データを用いて、識別器Dmに対して学習処理を施す。尚、この際の学習処理は、公知の手法と同様である。学習処理部15は、例えば、認知症レベルの正解値に対する識別器Dmが出力する出力値の誤差(損失Lossとも称される)が小さくなるように、公知の誤差逆伝播法等によって、ネットワークパラメータ(重み係数、及びバイアス等)の修正が行われる。
In step S14, the
このステップS14の後、学習処理部15は、再度、ステップS11に戻って処理を実行する。
After step S14, the
ステップS15においては、学習処理部15は、学習処理を施した識別器Dmのデータ(学習済みのネットワークパラメータ)を、例えば、外部記憶装置104に格納する。そして、一連のフローを終了する。
In step S <b> 15, the
識別器Dmは、かかる学習処理によって、医師等H2の質問種別と関連付けられた患者H1の応答特徴に関するデータD2から、患者H1の認知症レベルを出力し得るように、最適化される。 The discriminator Dm is optimized so that the dementia level of the patient H1 can be output from the data D2 related to the response characteristics of the patient H1 associated with the question type of the doctor H2, etc., by such learning processing.
[効果]
以上のように、本実施形態に係る認知症診断装置1によれば、患者H1と医師等H2の会話に係る音声データを取得する音声取得部11と、音声データの音声解析を行って、医師等H2が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて患者H1が発話する発話区間における応答特徴を抽出する音声解析部12と、学習済みの識別器Dmに対して、患者H1の応答特徴を質問内容の種別と関連付けて入力し、患者H1の認知症レベルを算出する認知症レベル算出部13と、を備えている。又、識別器Dmは、患者H1の応答特徴が質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に基づいて決定された認知症レベルを出力するように、教師データを用いた学習処理が施されている。
[effect]
As described above, according to the
これによって、種々の質問に対する患者H1の応答態様を用いて、認知症の進行度合いを診断することが可能となる。換言すると、特殊な認知症テスト(例えば、長谷川式認知症テストやMMSE式認知症テスト)を実施することなく、診察時の会話等から、簡易に、且つ、高精度に、認知症レベルを算出することが可能となる。 This makes it possible to diagnose the degree of progression of dementia using the response mode of the patient H1 with respect to various questions. In other words, the dementia level can be calculated easily and with high accuracy from conversations at the time of examination without conducting special dementia tests (eg, Hasegawa dementia test or MMSE dementia test). It becomes possible to do.
(第2の実施形態)
次に、図10及び図11を参照して、第2の実施形態に係る認知症診断装置1について説明する。
(Second Embodiment)
Next, with reference to FIG.10 and FIG.11, the dementia
本実施形態に係る認知症診断装置1は、認知症レベル算出部13が、現時点(第1の日時に相当)における患者H1の応答特徴に加えて、過去時点(第2の日時に相当)における患者の応答特徴の情報を参照する点で、第1の実施形態に係る認知症診断装置1と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
In the
図10は、本実施形態に係る認知症診断装置1の構成の一例を示す図である。図11は、本実施形態に係る認知症レベル算出部13が用いる識別器Dmの構成の一例を示す図である。
FIG. 10 is a diagram illustrating an example of the configuration of the
本実施形態に係る認知症レベル算出部13は、認知症レベルを算出する際に利用した患者H1の応答特徴の情報を、当該患者H1の識別情報と関連付けて患者履歴データDrに格納する。そして、認知症レベル算出部13は、後日(例えば、1年後)、当該患者H1の認知症レベルを再度算出する際に、患者履歴データDrに格納した過去時点における患者H1の応答特徴の情報を参照する。
The dementia
本実施形態に係る識別器Dmの入力層は、日時Aにおける患者H1の応答特徴を入力する入力ユニットX1−A〜Xk−A、日時Bにおける患者H1の応答特徴を入力する入力ユニットX1−B〜Xk−B、及び、日時Cにおける患者H1の応答特徴を入力する入力ユニットX1−C〜Xk−C、を有している。尚、入力ユニットに付した符号「…−A」、「…−B」及び「…−C」は、それぞれ、入力対象とする日時を表している。 The input layer of the discriminator Dm according to the present embodiment includes input units X 1 -A to X k -A that input the response characteristics of the patient H1 at the date and time A, and the input units X that input the response characteristics of the patient H1 at the date and time B. 1 -B~X k -B, and has an input unit X 1 -C~X k -C, for inputting the response characteristics of the patients H1 in time C. Note that the symbols “... -A”, “... -B”, and “... -C” attached to the input unit respectively represent the dates and times to be input.
本実施形態に係る識別器Dmの入力ユニットX1−A〜Xk−A、X1−B〜Xk−B、X1−C〜Xk−Cも、第1の実施形態に係る識別器Dmと同様に、それぞれ、質問種別Q1に対する応答特徴、質問種別Q2に対する応答特徴、質問種別Q3に対する応答特徴、・・質問種別Qkに対する応答特徴のように、質問種別と関連付けて入力を受け付ける構成となっている。尚、識別器Dmのその他の構成は、第1の実施形態に係る識別器Dmと同様である。 Input Unit X 1 -A~X k -A discriminator Dm according to the present embodiment, X 1 -B~X k -B, also X 1 -C~X k -C, identification of the first embodiment Similarly to the device Dm, each of the response features for the question type Q1, the response feature for the question type Q2, the response feature for the question type Q3,... It has become. The other configuration of the classifier Dm is the same as that of the classifier Dm according to the first embodiment.
尚、識別器Dmには、異なる日時に行われた会話における被検者の応答特徴に代えて、異なる日時に行われた会話における被検者の応答特徴の日時間での変化に係る情報が入力されてもよい。 In addition, in the classifier Dm, in place of the response characteristics of the subject in the conversation performed at different dates and times, information regarding changes in the day and time of the response characteristics of the subjects in the conversation performed at different dates and times is stored. It may be entered.
つまり、本実施形態に係る識別器Dmは、現時点における患者H1の応答特徴に加えて、過去時点(例えば、1年前)における患者H1の応答特徴を参照して、認知症レベルを算出するように構成されている。 That is, the discriminator Dm according to the present embodiment calculates the dementia level by referring to the response characteristics of the patient H1 at the past time (for example, one year ago) in addition to the response characteristics of the patient H1 at the current time. It is configured.
このように、患者H1の応答態様の経時的な変化を抽出することで、患者H1の人格に依拠したノイズ要因を排除することが可能であり、より高精度に患者H1の認知症レベルを算出することが可能となる。 In this way, by extracting the change over time of the response mode of the patient H1, it is possible to eliminate the noise factor depending on the personality of the patient H1, and calculate the dementia level of the patient H1 with higher accuracy. It becomes possible to do.
以上のように、本実施形態に係る認知症診断装置1によれば、異なる日時に行われた会話における患者H1の応答特徴、又は、異なる日時に行われた会話における患者H1の応答答特徴の日時間での変化に係る情報を用いて、患者H1の認知症レベルを算出する。これによって、より高精度に患者H1の認知症レベルを算出することができる。
As described above, according to the
(第3の実施形態)
次に、図12及び図13を参照して、第3の実施形態に係る認知症診断装置1について説明する。
(Third embodiment)
Next, with reference to FIG.12 and FIG.13, the dementia
本実施形態に係る認知症診断装置1は、認知症レベル算出部13が、質問に対する患者H1の応答特徴の情報に加えて、患者H1の行動記録の情報(例えば、服薬記録)を参照する点で、第1の実施形態に係る認知症診断装置1と相違する。
In the dementia
図12は、本実施形態に係る認知症診断装置1の構成の一例を示す図である。図13は、本実施形態に係る認知症レベル算出部13が用いる識別器Dmの構成の一例を示す図である。
FIG. 12 is a diagram illustrating an example of the configuration of the
本実施形態に係る認知症診断装置1は、患者H1が保有する患者端末(例えば、携帯端末。図1には、図示せず)から、患者H1の行動記録のデータD5(例えば、服薬記録)を取得する行動記録取得部16を備えている。
The
又、本実施形態に係る識別器Dmの入力層は、患者H1の応答特徴を入力する入力ユニットX1〜Xkに加えて、患者H1の行動記録のデータD5を入力する入力ユニットXk+1を有している。 In addition, the input layer of the discriminator Dm according to the present embodiment includes an input unit X k + 1 that inputs the action record data D5 of the patient H1 in addition to the input units X 1 to X k that input the response characteristics of the patient H1. Have.
尚、ここでは、説明の便宜として、患者H1の行動記録の情報を入力する入力ユニットの数を一としているが、複数設けられてもよいのは、勿論である。又、行動記録取得部16が取得した患者H1の行動記録の情報に対して、所定の前処理を施してもよい。
Here, for convenience of explanation, the number of input units for inputting the action record information of the patient H1 is one, but it is needless to say that a plurality of input units may be provided. Moreover, you may perform a predetermined | prescribed pre-processing with respect to the information of the action record of the patient H1 which the action
認知症の進行は、一般に、日常の行動の変化として表出しやすい。認知症が進行した患者H1は、例えば、処方された薬を服薬し忘れたり、外出する頻度が低下したりする傾向にある。 The progression of dementia is generally easy to express as a change in daily behavior. The patient H1 with advanced dementia, for example, has a tendency to forget to take a prescribed medicine or to go out.
このような観点から、本実施形態に係る認知症診断装置1は、患者H1の行動記録の情報(例えば、服薬記録)を参照して、患者H1の認知症レベルを算出する。尚、行動記録の情報は、例えば、患者H1が自身の患者端末に日常的に記録する服薬記録の情報等を用いることができる。又、その他、端末装置に設けられたGPSの情報から、患者H1の移動記録の情報を取得してもよい。
From such a viewpoint, the dementia
以上のように、本実施形態に係る認知症診断装置1によれば、患者H1の行動記録の情報を参照して、患者H1の認知症レベルを算出する。これによって、より高精度に患者H1の認知症レベルを算出することができる。
As described above, according to the dementia
尚、上記実施形態では、患者H1の行動記録の情報の一例として、患者端末から取得した服薬記録の情報としたが、カメラ端末(例えば、診察室に設置されているカメラ端末)で撮影された患者H1の画像情報を用いてもよい。 In the above embodiment, the medication record information acquired from the patient terminal is taken as an example of the behavior record information of the patient H1, but the information was taken with a camera terminal (for example, a camera terminal installed in the examination room). The image information of the patient H1 may be used.
認知症の進行は、一般に、行動障害を伴うため、例えば、カメラ端末で撮影された患者H1の舞踏運動(非律動的・突発的な不随意運動)、振戦(筋肉が律動的に収縮する不随意運動)、又は姿勢反射運動(体が傾いたときに倒れないように立て直す反応が損なわれた状態)等についても、認知症レベルを算出する際に、有用な情報となり得る。 Since the progression of dementia generally involves behavioral disorders, for example, the patient's H1 choreography (non-rhythmic / sudden involuntary movement), tremor (muscle contracts rhythmically) taken with a camera terminal. Involuntary movements) or postural reflex movements (states in which the response to rebuild so as not to fall when the body is tilted) can also be useful information when calculating the dementia level.
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be considered.
又、上記実施形態では、認知症診断装置1の構成の一例として、学習処理部15を備える構成を示した。但し、認知症診断装置1とは別の学習装置において、識別器Dmに対して機械学習を施しておき、認知症診断装置1は、当該学習済みの識別器Dmを取得して、外部記憶装置104等に記憶しておく構成としてもよいのは、勿論である。
Moreover, in the said embodiment, the structure provided with the
又、上記実施形態では、認知症診断装置1の構成の一例として、音声取得部11、音声解析部12、認知症レベル算出部13、出力部14、及び学習処理部15の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。
Moreover, in the said embodiment, as an example of a structure of the dementia
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 As mentioned above, although the specific example of this invention was demonstrated in detail, these are only illustrations and do not limit a claim. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
本開示に係る認知症診断装置によれば、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現することができる。 According to the dementia diagnosis apparatus according to the present disclosure, it is possible to realize a highly accurate dementia diagnosis without giving the patient a psychological resistance.
U 認知症診断システム
1 認知症診断装置
11 音声取得部
12 音声解析部
13 認知症レベル算出部
14 出力部
15 学習処理部
16 行動記録取得部
2 端末装置
21 音声入力部
22 記憶部
23 通信部
24 操作入力部
25 表示部
26 制御部
U
Claims (15)
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部と、
を備え、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断装置。 A voice acquisition unit for acquiring voice data related to the conversation between the subject and the questioner;
Voice that performs voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracts response features in the utterance section uttered by the subject following the utterance section An analysis unit;
For the learned classifier, the response characteristic of the subject is input in association with the type of the question content, and a dementia level calculation unit that calculates the subject's dementia level,
With
The classifier outputs teacher data so as to output a dementia level in accordance with a predetermined dementia level determination rule when the response characteristic of the subject is input in association with the type of the question content. The learning process used was applied,
Dementia diagnostic device.
請求項1に記載の認知症診断装置。 The voice analysis unit extracts a plurality of sets of the question content type and the response feature in the voice data.
The dementia diagnostic apparatus according to claim 1.
請求項1又は2に記載の認知症診断装置。 The type of question content includes a type of question content that reminds the subject of the past,
The dementia diagnostic apparatus according to claim 1 or 2.
請求項1乃至3のいずれか一項に記載の認知症診断装置。 The response characteristics of the subject include the tempo in the subject's utterance interval, the number of words, the vocabulary, the accuracy of the response content to the question from the questioner, and the response speed to the question from the questioner Including at least one of
The dementia diagnostic apparatus according to any one of claims 1 to 3.
請求項4に記載の認知症診断装置。 The response characteristics of the subject include, for each type of question content, the tempo, the number of words, vocabulary in the subject's utterance interval, the accuracy of the response content to the question from the questioner, and the It has two or more viewpoints among the response speeds to questions from questioners.
The dementia diagnostic apparatus according to claim 4.
請求項1乃至5のいずれか一項に記載の認知症診断装置。 An output unit that outputs a history relating to the subject's dementia level,
The dementia diagnostic apparatus according to any one of claims 1 to 5.
請求項1乃至6のいずれか一項に記載の認知症診断装置。 The response characteristics of the subject to be input to the discriminator include information on the response characteristics of the subject extracted from the voice data related to the conversation at the first and second dates and times,
The dementia diagnostic apparatus according to any one of claims 1 to 6.
請求項1乃至7のいずれか一項に記載の認知症診断装置。 Further, information relating to the subject's action record is input to the identifier.
The dementia diagnostic apparatus according to any one of claims 1 to 7.
請求項1乃至8のいずれか一項に記載の認知症診断装置。 The subject's behavior record includes information related to the subject's medication record,
The dementia diagnostic apparatus according to any one of claims 1 to 8.
請求項8に記載の認知症診断装置。 The subject's action record includes information on the subject's operation,
The dementia diagnostic apparatus according to claim 8.
請求項1乃至10のいずれか一項に記載の認知症診断装置。 The subject and the questioner are a patient and a doctor, respectively.
The dementia diagnostic apparatus according to any one of claims 1 to 10.
請求項1乃至11のいずれか一項に記載の認知症診断装置。 The predetermined dementia level determination rule is a Hasegawa dementia diagnostic test or an MMSE dementia diagnostic test.
The dementia diagnostic apparatus according to any one of claims 1 to 11.
請求項1乃至12のいずれか一項に記載の認知症診断装置。 The classifier includes a neural network or a regression tree.
The dementia diagnostic apparatus according to any one of claims 1 to 12.
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出し、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する、
認知症診断方法であって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断方法。 Obtain audio data related to the conversation between the subject and the questioner,
Analyzing the voice data, identifying the type of question content in the utterance section uttered by the questioner, and extracting response characteristics in the utterance section uttered by the subject following the utterance section,
For the learned classifier, input the response characteristics of the subject in association with the type of the question content, and calculate the dementia level of the subject.
A method for diagnosing dementia,
The classifier outputs teacher data so as to output a dementia level in accordance with a predetermined dementia level determination rule when the response characteristic of the subject is input in association with the type of the question content. The learning process used was applied,
Dementia diagnosis method.
被検者と質問者の会話に係る音声データを取得する処理と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する処理と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する処理と、
を実行させる認知症診断プログラムであって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断プログラム。 On the computer,
Processing to obtain voice data relating to the conversation between the subject and the questioner;
A process of performing voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracting response features in the utterance section uttered by the subject following the utterance section When,
A process for calculating the dementia level of the subject by inputting the response characteristics of the subject in association with the type of the question content for the learned classifier,
A dementia diagnosis program for executing
The classifier outputs teacher data so as to output a dementia level in accordance with a predetermined dementia level determination rule when the response characteristic of the subject is input in association with the type of the question content. The learning process used was applied,
Dementia diagnostic program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017216536A JP6263308B1 (en) | 2017-11-09 | 2017-11-09 | Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017216536A JP6263308B1 (en) | 2017-11-09 | 2017-11-09 | Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6263308B1 true JP6263308B1 (en) | 2018-01-17 |
JP2019084249A JP2019084249A (en) | 2019-06-06 |
Family
ID=60989311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017216536A Active JP6263308B1 (en) | 2017-11-09 | 2017-11-09 | Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6263308B1 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754822A (en) * | 2019-01-22 | 2019-05-14 | 平安科技(深圳)有限公司 | The method and apparatus for establishing Alzheimer's disease detection model |
KR102042489B1 (en) * | 2019-05-23 | 2019-11-08 | 하창수 | Village broadcasting system |
JP2019198695A (en) * | 2019-08-21 | 2019-11-21 | 西日本電信電話株式会社 | Notification system, notification device, notification method, and program |
KR20200082145A (en) * | 2018-12-28 | 2020-07-08 | 주식회사 보듬 | System and method for screening early mild cognitive impairment |
JP2020126419A (en) * | 2019-02-04 | 2020-08-20 | 日本電気株式会社 | Operation eligibility determination support device, system, method, and program |
JP2020140481A (en) * | 2019-02-28 | 2020-09-03 | 日本電気株式会社 | Processing device, processing method and program |
JP2020140480A (en) * | 2019-02-28 | 2020-09-03 | 日本電気株式会社 | Processing device, processing method and program |
JP2020181422A (en) * | 2019-04-25 | 2020-11-05 | キヤノン株式会社 | Medical diagnosis assistance system, medical diagnosis assistance device, medical diagnosis assistance method, and program |
JP2021029692A (en) * | 2019-08-26 | 2021-03-01 | Tdk株式会社 | Mild cognitive impairment determination system |
JP2021064284A (en) * | 2019-10-16 | 2021-04-22 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation system, cognitive function evaluation method, and program |
WO2022234693A1 (en) * | 2021-05-07 | 2022-11-10 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7479711B2 (en) | 2019-03-12 | 2024-05-09 | コルディオ メディカル リミテッド | A diagnostic method based on the alignment of speech samples |
JP7507025B2 (en) | 2020-07-22 | 2024-06-27 | 靖恵 満倉 | DIAGNOSIS SUPPORT SYSTEM, DIAGNOSIS SUPPORT METHOD, AND DIAGNOSIS SUPPORT PROGRAM |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6804779B2 (en) * | 2018-07-24 | 2020-12-23 | 日本テクトシステムズ株式会社 | Mild cognitive impairment estimation system, mild cognitive impairment estimation device, and program for estimating the presence or absence of mild cognitive impairment |
JP7239109B2 (en) * | 2019-06-12 | 2023-03-14 | 株式会社モリタ製作所 | Estimation Device, Estimation System, Method of Operating Estimation Device, and Estimation Program |
JP6712028B1 (en) * | 2020-01-09 | 2020-06-17 | 株式会社エクサウィザーズ | Cognitive function determination device, cognitive function determination system and computer program |
KR102329954B1 (en) * | 2020-02-25 | 2021-11-22 | 광운대학교 산학협력단 | Diagnostic Monitoring System for Cognitive Impairment Server and Diagnostic Monitoring Method For The Same |
WO2021215259A1 (en) * | 2020-04-24 | 2021-10-28 | パナソニックIpマネジメント株式会社 | Cognitive function examination method, program, and cognitive function examination system |
CN115955932A (en) * | 2020-07-10 | 2023-04-11 | 伊莫克有限公司 | Alzheimer disease prediction method and device based on voice characteristics |
JP2022032796A (en) * | 2020-08-14 | 2022-02-25 | 株式会社Four H | Mental disease determination system, mental disease determination method, and mental disease determination program |
US11495211B2 (en) | 2020-10-29 | 2022-11-08 | International Business Machines Corporation | Memory deterioration detection and amelioration |
JP7261258B2 (en) * | 2021-03-31 | 2023-04-19 | 西日本電信電話株式会社 | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND COMPUTER PROGRAM |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240394A (en) * | 2002-12-12 | 2004-08-26 | Sense It Smart Corp | Speaker voice analysis system and server device used therefor, medical examination method using speaker voice analysis, and speaker voice analyzer |
JP2007282992A (en) * | 2006-04-19 | 2007-11-01 | Sky Kk | Dementia diagnostic support system |
JP2011502564A (en) * | 2007-11-02 | 2011-01-27 | シーグベルト ワーケンチン, | System and method for assessment of brain dysfunction induced by aging brain and brain disease by speech analysis |
JP2013246459A (en) * | 2012-05-23 | 2013-12-09 | Sharp Corp | Dementia inquiry support device |
JP2017156402A (en) * | 2016-02-29 | 2017-09-07 | 国立大学法人 奈良先端科学技術大学院大学 | Diagnostic system, diagnostic method, and diagnostic program |
WO2017168907A1 (en) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method and program |
-
2017
- 2017-11-09 JP JP2017216536A patent/JP6263308B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240394A (en) * | 2002-12-12 | 2004-08-26 | Sense It Smart Corp | Speaker voice analysis system and server device used therefor, medical examination method using speaker voice analysis, and speaker voice analyzer |
JP2007282992A (en) * | 2006-04-19 | 2007-11-01 | Sky Kk | Dementia diagnostic support system |
JP2011502564A (en) * | 2007-11-02 | 2011-01-27 | シーグベルト ワーケンチン, | System and method for assessment of brain dysfunction induced by aging brain and brain disease by speech analysis |
JP2013246459A (en) * | 2012-05-23 | 2013-12-09 | Sharp Corp | Dementia inquiry support device |
JP2017156402A (en) * | 2016-02-29 | 2017-09-07 | 国立大学法人 奈良先端科学技術大学院大学 | Diagnostic system, diagnostic method, and diagnostic program |
WO2017168907A1 (en) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method and program |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102254685B1 (en) * | 2018-12-28 | 2021-05-21 | 주식회사 보듬 | System for screening early mild cognitive impairment |
KR20200082145A (en) * | 2018-12-28 | 2020-07-08 | 주식회사 보듬 | System and method for screening early mild cognitive impairment |
CN109754822A (en) * | 2019-01-22 | 2019-05-14 | 平安科技(深圳)有限公司 | The method and apparatus for establishing Alzheimer's disease detection model |
WO2020151155A1 (en) * | 2019-01-22 | 2020-07-30 | 平安科技(深圳)有限公司 | Method and device for building alzheimer's disease detection model |
JP2020126419A (en) * | 2019-02-04 | 2020-08-20 | 日本電気株式会社 | Operation eligibility determination support device, system, method, and program |
JP2020140481A (en) * | 2019-02-28 | 2020-09-03 | 日本電気株式会社 | Processing device, processing method and program |
JP2020140480A (en) * | 2019-02-28 | 2020-09-03 | 日本電気株式会社 | Processing device, processing method and program |
JP7211161B2 (en) | 2019-02-28 | 2023-01-24 | 日本電気株式会社 | Processing device, processing method and program |
JP7211160B2 (en) | 2019-02-28 | 2023-01-24 | 日本電気株式会社 | Processing device, processing method and program |
JP7492715B2 (en) | 2019-03-12 | 2024-05-30 | コルディオ メディカル リミテッド | Speech model-based diagnosis technology |
JP7479711B2 (en) | 2019-03-12 | 2024-05-09 | コルディオ メディカル リミテッド | A diagnostic method based on the alignment of speech samples |
JP2020181422A (en) * | 2019-04-25 | 2020-11-05 | キヤノン株式会社 | Medical diagnosis assistance system, medical diagnosis assistance device, medical diagnosis assistance method, and program |
JP7327987B2 (en) | 2019-04-25 | 2023-08-16 | キヤノン株式会社 | Medical diagnosis support system, medical diagnosis support device, medical diagnosis support method and program |
KR102042489B1 (en) * | 2019-05-23 | 2019-11-08 | 하창수 | Village broadcasting system |
JP2019198695A (en) * | 2019-08-21 | 2019-11-21 | 西日本電信電話株式会社 | Notification system, notification device, notification method, and program |
JP7293050B2 (en) | 2019-08-26 | 2023-06-19 | Tdk株式会社 | Mild Cognitive Impairment Judgment System |
JP2021029692A (en) * | 2019-08-26 | 2021-03-01 | Tdk株式会社 | Mild cognitive impairment determination system |
JP2021064284A (en) * | 2019-10-16 | 2021-04-22 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation system, cognitive function evaluation method, and program |
JP7507025B2 (en) | 2020-07-22 | 2024-06-27 | 靖恵 満倉 | DIAGNOSIS SUPPORT SYSTEM, DIAGNOSIS SUPPORT METHOD, AND DIAGNOSIS SUPPORT PROGRAM |
WO2022234693A1 (en) * | 2021-05-07 | 2022-11-10 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2019084249A (en) | 2019-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6263308B1 (en) | Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program | |
KR102237539B1 (en) | System and method for determining demendia and congnitive ability using voice conversation analysis | |
CN102149319B (en) | Alzheimer's cognitive enabler | |
US20130158434A1 (en) | Apparatus for voice assisted medical diagnosis | |
JP2017532082A (en) | A system for speech-based assessment of patient mental status | |
JP4495907B2 (en) | Method and apparatus for speech analysis | |
JP7390268B2 (en) | Cognitive function prediction device, cognitive function prediction method, program and system | |
US20200160881A1 (en) | Language disorder diagnosis/screening | |
JP2018169506A (en) | Conversation satisfaction degree estimation device, voice processing device and conversation satisfaction degree estimation method | |
KR20220048381A (en) | Device, method and program for speech impairment evaluation | |
US20230162835A1 (en) | System and Method for Collecting and Analyzing Mental Health Data Using Computer Assisted Qualitative Data Analysis Software | |
US20240023858A1 (en) | Systems and methods for human-machine partnered ptsd prediction | |
Usman et al. | Heart rate detection and classification from speech spectral features using machine learning | |
JP4631464B2 (en) | Physical condition determination device and program thereof | |
Soumaya et al. | A hybrid method for the diagnosis and classifying parkinson's patients based on time–frequency domain properties and K-nearest neighbor | |
JP7040593B2 (en) | Customer service support device, customer service support method, and customer service support program | |
JP2021110895A (en) | Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method | |
JP7183483B1 (en) | Automatic, Objective Symptom Severity Score | |
US20220005494A1 (en) | Speech analysis devices and methods for identifying migraine attacks | |
JP7515934B2 (en) | Conversation-based mental disorder screening method and device | |
US20240023877A1 (en) | Detection of cognitive impairment | |
JP7307507B2 (en) | Pathological condition analysis system, pathological condition analyzer, pathological condition analysis method, and pathological condition analysis program | |
Syed et al. | Static vs. dynamic modelling of acoustic speech features for detection of dementia | |
Sindhu et al. | Automatic Speech and Voice Disorder Detection using Deep Learning-A Systematic Literature Review | |
US20240071412A1 (en) | Method and system for predicting a mental condition of a speaker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171109 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20171109 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6263308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |