JP6263308B1 - Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program - Google Patents

Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program Download PDF

Info

Publication number
JP6263308B1
JP6263308B1 JP2017216536A JP2017216536A JP6263308B1 JP 6263308 B1 JP6263308 B1 JP 6263308B1 JP 2017216536 A JP2017216536 A JP 2017216536A JP 2017216536 A JP2017216536 A JP 2017216536A JP 6263308 B1 JP6263308 B1 JP 6263308B1
Authority
JP
Japan
Prior art keywords
dementia
subject
patient
response
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017216536A
Other languages
Japanese (ja)
Other versions
JP2019084249A (en
Inventor
祐一郎 清水
祐一郎 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PHC Holdings Corp
Original Assignee
Panasonic Healthcare Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Healthcare Holdings Co Ltd filed Critical Panasonic Healthcare Holdings Co Ltd
Priority to JP2017216536A priority Critical patent/JP6263308B1/en
Application granted granted Critical
Publication of JP6263308B1 publication Critical patent/JP6263308B1/en
Publication of JP2019084249A publication Critical patent/JP2019084249A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現し得る認知症診断装置を提供すること。【解決手段】認知症診断装置1であって、被検者H1と質問者H2の会話に係る音声データを取得する音声取得部11と、前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部12と、学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部13と、を備え、前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、学習処理が施されている。【選択図】図3To provide a dementia diagnostic apparatus capable of realizing a highly accurate dementia diagnosis without giving a patient a psychological resistance. SOLUTION: A dementia diagnosing apparatus 1, a voice acquisition unit 11 for acquiring voice data related to a conversation between a subject H1 and a questioner H2, and performing voice analysis of the voice data so that the questioner For identifying the type of the question content in the utterance section to be uttered, and extracting the response feature in the utterance section uttered by the subject following the utterance section, and the learned classifier, A dementia level calculator 13 for inputting the response characteristics of the subject in association with the type of the question content and calculating the dementia level of the subject; and the classifier includes the subject When the response feature of the person is input in association with the type of the question content, a learning process is performed so as to output a dementia level in accordance with a predetermined dementia level determination rule. [Selection] Figure 3

Description

本開示は、認知症診断装置、認知症診断方法、及び認知症診断プログラムに関する。   The present disclosure relates to a dementia diagnosis apparatus, a dementia diagnosis method, and a dementia diagnosis program.

従来、患者の認知症を診断する手法として、長谷川式認知症診断テスト(長谷川式スケールとも称される)、MMSE(Mini Mental State Examination)認知症診断テスト等が知られている。   Conventionally, as a method for diagnosing dementia of a patient, a Hasegawa dementia diagnostic test (also referred to as a Hasegawa scale), a MMSE (Mini Mental State Examination) dementia diagnostic test, and the like are known.

この種の認知症診断は、特定の質問(例えば、年齢、見当識、3単語の即時記銘と遅延再生、計算、数字の逆唱、物品記銘)を投げかけた際の患者の回答内容に基づいて、認知症の進行度合いを示す認知症レベル(認知症スコアとも称される)を決定するテスト形式の診断手法である。   This type of dementia diagnosis is based on the patient's response to specific questions (eg, age, orientation, 3-word immediate and delayed recall, calculation, number recitation, article inscription). Based on this, it is a test-type diagnostic technique for determining a dementia level (also referred to as a dementia score) indicating the degree of progression of dementia.

尚、特許文献1には、この種の認知症診断を自動化する技術として、患者の発話を記憶した音声データの休止成分を利用し、認知症の進行度合いを判断する手法等が記載されている。   Patent Document 1 describes a technique for determining the degree of progression of dementia using a pause component of audio data storing patient utterances as a technique for automating this type of dementia diagnosis. .

特表2011−502564号公報Special table 2011-502564 gazette

しかしながら、この種の認知症診断は、テスト形式であるため、患者に認知症診断を意識させることになり、診断される患者自身に心理的な抵抗感を持たせることが課題となっている。加えて、かかる認知症診断を専門医ではない者が実施しても、患者の正確な認知症レベルを診断することは、困難である。   However, since this type of dementia diagnosis is a test format, the patient is conscious of the dementia diagnosis, and it is a problem to make the patient himself / herself diagnosed with psychological resistance. In addition, even if such a dementia diagnosis is performed by a person who is not a specialist, it is difficult to diagnose the exact dementia level of the patient.

他方、特許文献1の従来技術では、音声データとして用いる発話内容、患者の性格に依拠した個人差、及び、その時々の患者の状態等による影響が大きい。そのため、高精度な認知症診断が困難である上、認知症以外の要因によるばらつきが生じやすい。   On the other hand, in the prior art of Patent Document 1, the influence is large due to the utterance content used as voice data, individual differences depending on the personality of the patient, and the patient's condition from time to time. Therefore, highly accurate dementia diagnosis is difficult, and variations due to factors other than dementia are likely to occur.

本開示は、上記問題点に鑑みてなされたもので、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現し得る認知症診断装置、認知症診断方法、及び認知症診断プログラムを提供することを目的とする。   The present disclosure has been made in view of the above-described problems. A dementia diagnosis apparatus, a dementia diagnosis method, and a dementia diagnosis method capable of realizing a highly accurate dementia diagnosis without causing psychological resistance to the patient himself, and The purpose is to provide a dementia diagnostic program.

前述した課題を解決する主たる本開示は、
被検者と質問者の会話に係る音声データを取得する音声取得部と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部と、
を備え、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断装置である。
The main present disclosure for solving the above-described problems is as follows.
A voice acquisition unit for acquiring voice data related to the conversation between the subject and the questioner;
Voice that performs voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracts response features in the utterance section uttered by the subject following the utterance section An analysis unit;
For the learned classifier, the response characteristic of the subject is input in association with the type of the question content, and a dementia level calculation unit that calculates the subject's dementia level,
With
When the response characteristic of the subject is input in association with the type of the question content, the discriminator outputs teacher data so as to output a dementia level according to a predetermined dementia level determination rule. A learning process using
It is a dementia diagnostic device.

又、他の局面では、
被検者と質問者の会話に係る音声データを取得し、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出し、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する、
認知症診断方法であって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断方法である。
In other aspects,
Obtain audio data related to the conversation between the subject and the questioner,
Analyzing the voice data, identifying the type of question content in the utterance section uttered by the questioner, and extracting response characteristics in the utterance section uttered by the subject following the utterance section,
For the learned classifier, input the response characteristics of the subject in association with the type of the question content, and calculate the dementia level of the subject.
A method for diagnosing dementia,
When the response characteristic of the subject is input in association with the type of the question content, the discriminator outputs teacher data so as to output a dementia level according to a predetermined dementia level determination rule. A learning process using
This is a method for diagnosing dementia.

又、他の局面では、
コンピュータに、
被検者と質問者の会話に係る音声データを取得する処理と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する処理と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する処理と、
を実行させる認知症診断プログラムであって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断プログラムである。
In other aspects,
On the computer,
Processing to obtain voice data relating to the conversation between the subject and the questioner;
A process of performing voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracting response features in the utterance section uttered by the subject following the utterance section When,
A process for calculating the dementia level of the subject by inputting the response characteristics of the subject in association with the type of the question content for the learned classifier,
A dementia diagnosis program for executing
When the response characteristic of the subject is input in association with the type of the question content, the discriminator outputs teacher data so as to output a dementia level according to a predetermined dementia level determination rule. A learning process using
Dementia diagnostic program.

本開示に係る認知症診断装置によれば、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現することができる。   According to the dementia diagnosis apparatus according to the present disclosure, it is possible to realize a highly accurate dementia diagnosis without giving the patient a psychological resistance.

第1の実施形態に係る認知症診断システムの構成の一例を示す図The figure which shows an example of a structure of the dementia diagnostic system which concerns on 1st Embodiment. 第1の実施形態に係る端末装置の構成の一例を示す図The figure which shows an example of a structure of the terminal device which concerns on 1st Embodiment. 第1の実施形態に係る認知症診断装置の機能ブロックの一例を示す図The figure which shows an example of the functional block of the dementia diagnostic apparatus which concerns on 1st Embodiment. 第1の実施形態に係る認知症診断装置のハードウェア構成の一例を示す図The figure which shows an example of the hardware constitutions of the dementia diagnostic apparatus which concerns on 1st Embodiment. 第1の実施形態に係る音声解析部の処理の一例を示すフローチャートThe flowchart which shows an example of the process of the audio | voice analysis part which concerns on 1st Embodiment. 第1の実施形態に係る音声解析部が実行する処理について模式的に説明する図The figure explaining typically the process which the audio | voice analysis part which concerns on 1st Embodiment performs 第1の実施形態に係る識別器の構成の一例を示す図The figure which shows an example of a structure of the discriminator which concerns on 1st Embodiment. 第1の実施形態に係る患者の認知症レベルの表示態様の一例を示す図The figure which shows an example of the display mode of the patient's dementia level which concerns on 1st Embodiment. 第1の実施形態に係る学習処理部が行う学習処理の一例を示すフローチャートThe flowchart which shows an example of the learning process which the learning process part which concerns on 1st Embodiment performs 第2の実施形態に係る認知症診断装置の構成の一例を示す図The figure which shows an example of a structure of the dementia diagnostic apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る認知症レベル算出部が用いる識別器の構成の一例を示す図The figure which shows an example of a structure of the discriminator which the dementia level calculation part which concerns on 2nd Embodiment uses. 第3の実施形態に係る認知症診断装置の構成の一例を示す図The figure which shows an example of a structure of the dementia diagnostic apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る認知症レベル算出部が用いる識別器の構成の一例を示す図The figure which shows an example of a structure of the discriminator which the dementia level calculation part which concerns on 3rd Embodiment uses.

以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the appended drawings. In the present specification and drawings, components having substantially the same function are denoted by the same reference numerals, and redundant description is omitted.

[認知症診断システムの全体構成]
以下、図1〜図3を参照して、一実施形態に係る認知症診断システムUの構成について説明する。
[Overall configuration of dementia diagnosis system]
Hereinafter, with reference to FIGS. 1-3, the structure of the dementia diagnosis system U which concerns on one Embodiment is demonstrated.

図1は、本実施形態に係る認知症診断システムUの構成の一例を示す図である。   FIG. 1 is a diagram illustrating an example of a configuration of a dementia diagnosis system U according to the present embodiment.

本実施形態に係る認知症診断システムUは、医師等H2と患者H1の会話を録音する端末装置2と、当該端末装置2で録音された音声データから患者H1の認知症レベルを算出する認知症診断装置1と、を備えている。   The dementia diagnosis system U according to the present embodiment includes a terminal device 2 that records a conversation between a doctor or the like H2 and a patient H1, and a dementia that calculates a dementia level of the patient H1 from voice data recorded by the terminal device 2. And a diagnostic device 1.

本実施形態に係る認知症診断システムUは、例えば、病院に通院する患者H1(例えば、慢性疾患等で通院する高齢者)の認知症診断の用に供される。   The dementia diagnosis system U according to the present embodiment is used for diagnosis of dementia of, for example, a patient H1 who goes to a hospital (for example, an elderly person who goes to a hospital due to a chronic disease or the like).

本実施形態に係る認知症診断システムUは、診察室R(医師等H2が患者H1の診察を行う場所を意味する。以下同じ)に設置された端末装置2にて、医師等H2と患者H1の会話を録音する。そして、認知症診断装置1が、患者H1と医師等H2の会話に係る音声データを用いて、当該患者H1の認知症レベルを算出する。尚、認知症診断装置1と端末装置2とは、通信回線Nを介して通信接続されている。尚、遠隔診療などで医師H2と患者H1が同一の病室にいない態様であってもよい。   The dementia diagnosis system U according to the present embodiment includes a doctor etc. H2 and a patient H1 in a terminal device 2 installed in an examination room R (meaning a place where a doctor H2 examines a patient H1, the same applies hereinafter). Record your conversation. And the dementia diagnostic apparatus 1 calculates the dementia level of the said patient H1 using the audio | voice data which concern on the conversation of patient H1 and doctors H2, etc. The dementia diagnosis device 1 and the terminal device 2 are connected for communication via a communication line N. It should be noted that the doctor H2 and the patient H1 may not be in the same hospital room by telemedicine or the like.

尚、本実施形態に係る患者H1及び医師等H2が、それぞれ、本発明の「被検者」及び「質問者」に相当する。但し、本実施形態に係る認知症診断システムUは、病院以外に適用されてもよく、「被検者」と「質問者」が存在する任意の場面で利用し得る。   The patient H1 and the doctor H2 according to the present embodiment correspond to the “subject” and “questioner” of the present invention, respectively. However, the dementia diagnosis system U according to the present embodiment may be applied to a place other than a hospital, and can be used in any scene where a “subject” and a “questioner” exist.

図2は、本実施形態に係る端末装置2の構成の一例を示す図である。   FIG. 2 is a diagram illustrating an example of the configuration of the terminal device 2 according to the present embodiment.

端末装置2は、例えば、医師等H2が患者H1の電子カルテ等を閲覧する用に供されるコンピュータである。端末装置2は、例えば、病院の診察室Rに設置され、医師等H2(例えば、医師)が患者H1に対して問診を行った際の患者H1と医師等H2の会話に係る音声データを生成する。   The terminal device 2 is, for example, a computer that is used for a doctor or the like H2 to browse an electronic medical record or the like of the patient H1. The terminal device 2 is installed in, for example, an examination room R of a hospital, and generates voice data related to the conversation between the patient H1 and the doctor H2 when the doctor H2 (for example, a doctor) interviews the patient H1. To do.

端末装置2は、例えば、音声入力部21、記憶部22、通信部23、操作入力部24、表示部25、及び制御部26を備えている。   The terminal device 2 includes, for example, a voice input unit 21, a storage unit 22, a communication unit 23, an operation input unit 24, a display unit 25, and a control unit 26.

音声入力部21は、例えば、一般的なマイクロホンであり、外部から入力される音声をAD変換して、音声波形を示す音声データを生成する。   The voice input unit 21 is, for example, a general microphone, and AD-converts voice input from the outside to generate voice data indicating a voice waveform.

音声入力部21は、例えば、病院内の診察室Rに配設され、医師等H2と患者H1の会話に係る音声データを生成する。音声入力部21が生成した音声データは、PCMデータ等のデータ形式で記憶部22に記憶され、通信部23により、認知症診断装置1に対して送信される。尚、音声入力部21として、複数個のマイクロホンが用いられてもよい。   The voice input unit 21 is disposed, for example, in an examination room R in a hospital, and generates voice data related to a conversation between a doctor H2 and the patient H1. The voice data generated by the voice input unit 21 is stored in the storage unit 22 in a data format such as PCM data, and is transmitted to the dementia diagnosis apparatus 1 by the communication unit 23. A plurality of microphones may be used as the voice input unit 21.

記憶部22は、RAM、ROM、HDD、フラッシュメモリ等を含んで構成され、システムプログラム、当該システムプログラム上で実行可能なアプリケーションプログラム、及び各種データ(例えば、音声データ)を記憶する。   The storage unit 22 includes a RAM, a ROM, an HDD, a flash memory, and the like, and stores a system program, an application program that can be executed on the system program, and various data (for example, audio data).

通信部23は、通信回線Nを介して、認知症診断装置1等の外部機器とデータの送受信を行うための通信インタフェイスである。通信部23は、例えば、LANアダプターによって構成される。   The communication unit 23 is a communication interface for transmitting / receiving data to / from an external device such as the dementia diagnosis apparatus 1 via the communication line N. The communication unit 23 is configured by a LAN adapter, for example.

操作入力部24は、医師等H2等が端末装置2に対して操作入力を行うためのユーザインタフェイスであり、例えば、キーボードによって構成される。   The operation input unit 24 is a user interface for a doctor or the like H2 or the like to input an operation to the terminal device 2, and is configured by a keyboard, for example.

表示部25は、例えば、液晶ディスプレイによって構成される。表示部25は、例えば、患者H1のカルテ画面等を表示したり、認知症診断装置1から取得した患者H1の認知症診断の診断結果データを閲覧可能な状態で表示する(詳細は後述)。   The display unit 25 is configured by a liquid crystal display, for example. The display unit 25 displays, for example, a medical chart screen of the patient H1 or the diagnosis result data of the dementia diagnosis of the patient H1 acquired from the dementia diagnosis apparatus 1 in a state where it can be browsed (details will be described later).

制御部26は、端末装置2の各部を統括制御するもので、例えば、CPU、ROM、RAM等を含んで構成される。   The control unit 26 performs overall control of each unit of the terminal device 2 and includes, for example, a CPU, a ROM, a RAM, and the like.

図3は、本実施形態に係る認知症診断装置1の機能ブロックの一例を示す図である。   FIG. 3 is a diagram illustrating an example of functional blocks of the dementia diagnostic apparatus 1 according to the present embodiment.

認知症診断装置1は、例えば、音声入力部21で生成された音声データに基づいて、診察室Rに訪れた患者H1の認知症レベルの診断を行う解析サーバである。   The dementia diagnosis apparatus 1 is an analysis server that diagnoses the dementia level of the patient H1 who has visited the examination room R based on the voice data generated by the voice input unit 21, for example.

認知症診断装置1は、音声取得部11、音声解析部12、認知症レベル算出部13、出力部14、及び学習処理部15を備えている。   The dementia diagnosis apparatus 1 includes a voice acquisition unit 11, a voice analysis unit 12, a dementia level calculation unit 13, an output unit 14, and a learning processing unit 15.

音声取得部11は、端末装置2から医師等H2と患者H1の会話に係る音声データD1を取得する。   The voice acquisition unit 11 acquires voice data D1 related to the conversation between the doctor H2 and the patient H1 from the terminal device 2.

音声解析部12は、音声取得部11から音声データD1を取得し、音響モデルのデータDt1(以下、音響モデルDt1)及び分類ルールのデータDt2(以下、分類ルールデータDt2)等を用いて、当該音声データD1の音声解析を行い、医師等H2の質問内容の種別を特定すると共に、患者H1の応答特徴を抽出する。   The voice analysis unit 12 acquires the voice data D1 from the voice acquisition unit 11, and uses the acoustic model data Dt1 (hereinafter, acoustic model Dt1), the classification rule data Dt2 (hereinafter, classification rule data Dt2), and the like. A voice analysis of the voice data D1 is performed to identify the type of the question content of the doctor H2, etc., and the response characteristics of the patient H1 are extracted.

認知症レベル算出部13は、音声解析部12から医師等H2の質問内容の種別と関連付けられた患者H1の応答特徴のデータD2を取得して、学習済みの識別器のデータDm(以下、識別器Dm)を用いて、患者H1の認知症レベルを算出する。   The dementia level calculation unit 13 acquires the response feature data D2 of the patient H1 associated with the type of the question content of the doctor H2 or the like from the speech analysis unit 12, and the learned classifier data Dm (hereinafter, identification) The dementia level of the patient H1 is calculated using the device Dm).

出力部14は、認知症レベル算出部13から患者H1の認知症レベルのデータD3を取得して、当該患者H1の認知症の進行状況の経時的変化を示すデータD4を出力する。   The output unit 14 acquires the data D3 of the dementia level of the patient H1 from the dementia level calculation unit 13, and outputs data D4 indicating the change over time of the progress of dementia of the patient H1.

学習処理部15は、患者H1の応答特徴が医師等H2の質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則(例えば、長谷川式認知症診断テスト、MMSE式認知症診断テスト)に則した認知症レベルを出力するように、識別器Dmに対して機械学習を施す。尚、学習処理部15は、音声取得部11、音声解析部12、認知症レベル算出部13、及び出力部14とは独立して、認知症診断システムUを稼働させる前の準備段階で動作する処理部である。   When the response characteristic of the patient H1 is input in association with the type of the question content of the doctor H2 or the like, the learning processing unit 15 determines a predetermined dementia level determination rule (for example, Hasegawa dementia diagnostic test, MMSE dementia Machine learning is performed on the discriminator Dm so as to output a dementia level in accordance with the diagnostic test. Note that the learning processing unit 15 operates in a preparatory stage before operating the dementia diagnosis system U, independently of the voice acquisition unit 11, the voice analysis unit 12, the dementia level calculation unit 13, and the output unit 14. It is a processing unit.

尚、図3中の矢印は、各機能の処理のフロー、及びデータD1〜D4の流れを表す。   In addition, the arrow in FIG. 3 represents the flow of the process of each function, and the flow of data D1-D4.

図4は、本実施形態に係る認知症診断装置1のハードウェア構成の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a hardware configuration of the dementia diagnosis apparatus 1 according to the present embodiment.

認知症診断装置1は、主たるコンポーネントとして、CPU101、ROM102、RAM103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インタフェイス105等を備えたコンピュータである。   The dementia diagnosis apparatus 1 is a computer including a CPU 101, a ROM 102, a RAM 103, an external storage device (for example, a flash memory) 104, a communication interface 105, and the like as main components.

認知症診断装置1の上記した各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された処理プログラムや各種データ(例えば、音響モデルデータDt1、分類ルールデータDt2、識別器のモデルデータDm、及び患者の履歴データDr等)を参照することによって実現される。尚、RAM102は、例えば、データの作業領域や一時退避領域として機能する。   The above-described functions of the dementia diagnosis apparatus 1 include, for example, processing programs stored in the ROM 102, the RAM 103, the external storage device 104, and various data (for example, acoustic model data Dt1, classification rule data Dt2, and classifiers). This is realized by referring to model data Dm and patient history data Dr). The RAM 102 functions as, for example, a data work area or a temporary save area.

但し、上記した各機能の一部又は全部は、CPU101による処理に代えて、又は、これと共に、DSPによる処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。   However, some or all of the functions described above may be realized by processing by the DSP instead of, or together with, processing by the CPU 101. Similarly, some or all of the functions may be realized by processing by a dedicated hardware circuit instead of or together with processing by software.

以下、図3、図5〜図9を参照して、認知症診断装置1の構成の詳細について、説明する。   Hereinafter, the configuration of the dementia diagnosis apparatus 1 will be described in detail with reference to FIGS. 3 and 5 to 9.

[音声取得部]
音声取得部11は、端末装置2から、通信回線Nを介して、医師等H2と患者H1の会話に係る音声データD1を取得する。
[Audio acquisition unit]
The voice acquisition unit 11 acquires voice data D1 related to the conversation between the doctor H2 and the patient H1 from the terminal device 2 via the communication line N.

尚、医師等H2と患者H1の会話に係る音声データD1は、医師等H2の発言を録音するマイクロホンで生成された音声データと、患者H1の発言を録音するマイクロホンで生成された音声データと、により構成されてもよい。このように複数の音声データを用いる場合には、音声解析部12は、例えば、複数の音声データ間で時間軸を揃えて、後述の音声解析の処理を行う。   The voice data D1 related to the conversation between the doctor H2 and the patient H1 includes voice data generated by a microphone that records the voice of the doctor H2 and the like, voice data generated by a microphone that records the voice of the patient H1, and It may be constituted by. Thus, when using several audio | voice data, the audio | voice analysis part 12 arranges the time axis between several audio | voice data, for example, and performs the process of the audio | voice analysis mentioned later.

又、遠隔診療に適用する場合にも、同様に、別個のマイクロホンで生成された音声データを用いることになる。尚、この場合には、例えば、患者H1の音声を録音する端末及び医師H2の音声を録音する端末から、各別に音声データをクラウド上にアップロードする態様になる。かかる態様は、患者H1の音声と医師H2の音声が明確に区別できる点で有用である。   Similarly, when applied to telemedicine, voice data generated by a separate microphone is used. In this case, for example, voice data is uploaded to the cloud separately from the terminal that records the voice of the patient H1 and the terminal that records the voice of the doctor H2. Such an embodiment is useful in that the voice of the patient H1 and the voice of the doctor H2 can be clearly distinguished.

[音声解析部]
音声解析部12は、音声取得部11から音声データD1を取得して、当該音声データD1を音声解析する。音声解析部12は、医師等H2が発話する発話区間(以下、「医師発話区間」と略称する)における質問内容の種別(以下、「質問種別」と称する)を特定すると共に、当該医師発話区間に続いて患者H1が発話する発話区間(以下、「患者発話区間」と略称する)における患者H1の応答特徴(以下、「応答特徴」と略称する)を抽出する。
[Speech analysis unit]
The voice analysis unit 12 acquires the voice data D1 from the voice acquisition unit 11, and analyzes the voice data D1. The voice analysis unit 12 specifies a type of question content (hereinafter referred to as “question type”) in an utterance section (hereinafter referred to as “doctor utterance section”) uttered by the doctor H2, etc., and the doctor utterance section. Subsequently, a response characteristic (hereinafter abbreviated as “response characteristic”) of the patient H1 in the utterance period (hereinafter abbreviated as “patient utterance period”) in which the patient H1 speaks is extracted.

尚、音声解析部12は、当該音声解析処理をする際に、患者H1の応答特徴を抽出するための音響モデルのデータDt1、及び、医師等H2の質問種別を分類するための分類ルールのデータDt2を参照する(詳細は後述)。   Note that the voice analysis unit 12 performs acoustic analysis processing, the acoustic model data Dt1 for extracting the response characteristics of the patient H1, and the classification rule data for classifying the question type of the doctor H2, etc. Reference is made to Dt2 (details will be described later).

ここで、「応答特徴」とは、発話するテンポ、質問に対して応答する速度、一回の患者発話区間内における語数、一回の患者発話区間内における語彙力、又は、質問に対する発話内容の的確性等であり、これらのうちの一以上の情報が用いられる。但し、「応答特徴」は、患者発話区間内の音声データの周波数変化を抽出しただけの音声特徴量(例えば、Mel-Frequency Cepstrum Coefficients:MFCC)の時系列データ等であってもよい。   Here, the “response feature” means the tempo of utterance, the speed of responding to a question, the number of words in one patient utterance interval, the vocabulary in one patient utterance interval, or the utterance content for a question Accuracy or the like, and one or more pieces of information are used. However, the “response feature” may be time-series data of speech feature quantities (for example, Mel-Frequency Cepstrum Coefficients: MFCC) obtained by extracting frequency changes of speech data within the patient utterance section.

「応答特徴」は、例えば、患者H1の発話区間毎に抽出され、通常、一連の会話中(即ち、一回の診察中)において、複数回抽出される。   The “response feature” is extracted, for example, for each utterance section of the patient H1, and is normally extracted a plurality of times during a series of conversations (that is, during a single examination).

「応答特徴」は、患者H1の発話区間の直前に行われた医師等H2の質問種別と関連付けて抽出される。換言すると、患者発話区間に抽出される「応答特徴」は、当該患者発話区間の直前の医師発話区間に抽出される「質問種別」と1セットとして関連付けられる。   The “response feature” is extracted in association with the question type of the doctor H2 etc. performed immediately before the utterance section of the patient H1. In other words, the “response feature” extracted in the patient utterance section is associated as one set with the “question type” extracted in the doctor utterance section immediately before the patient utterance section.

尚、音声データD1には、通常、時系列に、医師発話区間と患者発話区間とが交互に出現する。但し、音声データD1中から、医師等H2が質問を行った医師発話区間とその直後に患者が応答した患者発話区間とのみを部分的に抽出してもよい。   In the voice data D1, a doctor utterance section and a patient utterance section appear alternately in time series. However, from the voice data D1, only the doctor utterance section where the doctor H2 asked a question and the patient utterance section where the patient responded immediately after that may be partially extracted.

ここで、「質問種別」とは、医師等H2が患者H1に対して行う質問内容を特定するものである。「質問種別」としては、例えば、挨拶、体調を問う質問、前回の診察から今回の診察までの変化に関する質問(例えば、痛みの増加度合いを問う質問等)、服薬状況を確認するための質問、日常生活に関わる質問(例えば、毎日の食生活を問う質問等)、又は、患者H1の過去のエピソードに関する質問(例えば、患者H1の母校を問う質問等)等があり、これらのうちの一以上の種別が用いられる。但し、「質問種別」は、認知症診断システムUの利用態様に応じて、適宜設定されるものであってよい。   Here, the “question type” is for specifying the content of the question that the doctor H2 asks the patient H1. As the “question type”, for example, greetings, questions about physical condition, questions about changes from the previous examination to the current examination (for example, questions about the degree of increase in pain, etc.), questions for confirming the medication status, There are questions related to daily life (for example, questions about daily eating habits) or questions about past episodes of patient H1 (for example, questions about patient H1's home school), etc. One or more of these Are used. However, the “question type” may be appropriately set according to the usage mode of the dementia diagnosis system U.

認知症は、脳機能の低下に起因しており、一般に、言語能力、見当識又は記憶力等の低下として表出する。質問に対して応答する際には、かかる言語能力、見当識又は記憶力等が用いられるため、患者H1が医師等H2に対して応答する際の応答特徴は、認知症の進行度合いを図る有益な指標となる。   Dementia is caused by a decrease in brain function, and is generally expressed as a decrease in language ability, orientation, memory ability, or the like. When responding to a question, such language ability, orientation, memory ability, etc. are used. Therefore, the response characteristic when the patient H1 responds to the doctor H2 etc. is beneficial for the degree of progression of dementia. It becomes an indicator.

但し、「応答特徴」から認知症診断を行う際には、種々の応答特徴に基づく総合的な判断が必要であるため、専門医でない者が日常会話の中の応答態様から認知症レベルを正確に診断することは、困難な場合が多い。   However, when diagnosing dementia from “response characteristics”, it is necessary to make comprehensive judgments based on various response characteristics, so that a non-specialist can accurately determine the dementia level from the response mode in daily conversation. Diagnosis is often difficult.

そこで、本実施形態に係る認知症診断装置1は、種々の質問に対する「応答特徴」を抽出すると共に、医師等H2の「質問種別」と関連付けて「応答特徴」を抽出する。そして、本実施形態に係る認知症診断装置1は、機械学習が施された識別器(詳細は、図7等を参照して後述)を用いて、これらの複数の要素間の相関関係の解析を行い、総合的な判断を可能とする。   Therefore, the dementia diagnosis apparatus 1 according to the present embodiment extracts “response features” for various questions, and extracts “response features” in association with the “question type” of the doctor H2 or the like. And the dementia diagnostic apparatus 1 which concerns on this embodiment uses the discriminator (details are mentioned later with reference to FIG. 7 etc.) to which machine learning was performed, and analyzes the correlation between these several elements To make a comprehensive decision.

尚、このように、医師等H2の「質問種別」と関連付けて「応答特徴」を抽出するのは、認知症の判断材料となる「応答特徴」が、医師等H2の質問内容に照らすことで表出するためである。特に、問診において、医師等H2が患者H1に対して質問する質問内容は、比較的限定されている。従って、医師等H2の「質問種別」を特定し、当該「質問種別」と関連付けて患者H1の「応答特徴」を分析することによって、認知症に起因した患者H1の応答特徴を高精度に抽出することが可能となる。   As described above, the “response feature” is extracted in association with the “question type” of the doctor H2, etc., because the “response feature” that is a dementia judgment material is in light of the question content of the doctor H2, etc. This is to express. In particular, in the inquiry, the contents of the question that the doctor H2 asks the patient H1 are relatively limited. Therefore, by identifying the “question type” of the doctor H2, etc. and analyzing the “response characteristics” of the patient H1 in association with the “question type”, the response characteristics of the patient H1 caused by dementia are extracted with high accuracy. It becomes possible to do.

例えば、患者H1の言語能力(例えば、一回の発話区間の語数)は、診察開始時の医師等H2のアイスブレイクの質問(例えば、体調を問う質問や挨拶)の際には判断が困難である一方、日常生活に関わる質問(例えば、最近の食生活を問う質問)の際には比較的判断が容易である。   For example, the language ability of the patient H1 (for example, the number of words in a single utterance interval) is difficult to determine in the case of an ice break question (for example, a question or greeting about physical condition) of the doctor H2, etc. at the start of the examination. On the other hand, it is relatively easy to make a judgment when a question related to daily life (for example, a question about recent eating habits).

又、例えば、患者H1の記憶力は、現在の気分を確認するための質問の際には判断が困難である一方、患者H1の過去のエピソードに関する質問(例えば、10年前の出来事を問う質問、病院に来るまでの移動手段や病院に来るまでに何をしていたかを問う質問)の際には比較的判断が容易である。   In addition, for example, the memory ability of the patient H1 is difficult to judge in the case of a question for confirming the current mood, while the question about the past episode of the patient H1 (for example, a question about an event 10 years ago, It is relatively easy to make decisions when asking questions about the means of transportation up to the hospital and the question of what was being done before coming to the hospital.

加えて、認知症診断の際に参照する「応答特徴」は、患者H1の性格に依拠する要素(即ち、個体差)を取り除く方が望ましい。かかる患者H1の性格に依拠した「応答特徴」は、当該患者H1の複数の「応答特徴」(例えば、患者H1の記憶力に関連する質問内容に応答する際の応答特徴と、患者H1の記憶力に関連しない質問内容に応答する際の応答特徴)を比較することによって、取り除くことが容易になる。   In addition, it is preferable that the “response characteristics” referred to in the diagnosis of dementia remove elements (that is, individual differences) that depend on the personality of the patient H1. The “response characteristics” that depend on the personality of the patient H1 include a plurality of “response characteristics” of the patient H1 (for example, response characteristics when responding to a question content related to the memory ability of the patient H1, and memory ability of the patient H1). By comparing response characteristics when responding to unrelated question content, it becomes easier to remove.

図5は、音声解析部12の処理の一例を示すフローチャートである。当該フローチャートは、例えば、音声解析部12がコンピュータプログラムに従って実行する処理である。   FIG. 5 is a flowchart illustrating an example of processing of the voice analysis unit 12. The flowchart is, for example, processing executed by the voice analysis unit 12 according to a computer program.

図6は、音声解析部12が実行する処理について模式的に説明する図である。図6の波形は、音声データD1中の医師発話区間V2と患者発話区間V1の音声波形の一部を示している。   FIG. 6 is a diagram schematically illustrating the process executed by the voice analysis unit 12. The waveform of FIG. 6 shows a part of the speech waveform of the doctor speech segment V2 and the patient speech segment V1 in the speech data D1.

尚、音声解析部12は、外部記憶装置104に予め記憶した音響モデル、話者モデル、辞書、言語モデル等のデータDt1(図3には、音響モデルのみを示す)を参照して、音声データD1の音声解析を行う。   Note that the voice analysis unit 12 refers to the data Dt1 (only the acoustic model is shown in FIG. 3) such as an acoustic model, a speaker model, a dictionary, and a language model stored in advance in the external storage device 104. Perform voice analysis of D1.

音響モデルとは、例えば、音声の特徴量と発音記号との確率的な対応付けをデータ化したものである。又、話者モデルとは、医師等H2の音声の特徴(例えば、発話周波数)を示す音響モデルである。又、辞書とは、例えば、単語の表記と読みを記述したものである。又、言語モデルとは、例えば、辞書に記述された単語それぞれについて、当該単語の出現確率や当該単語と他の単語との接続確率をデータ化したものである。   The acoustic model is, for example, data obtained by probabilistic association between a voice feature amount and a phonetic symbol. The speaker model is an acoustic model that indicates the characteristics (for example, speech frequency) of the speech of H2 such as a doctor. The dictionary describes, for example, word notation and reading. In addition, the language model is, for example, data obtained by converting the appearance probability of the word and the connection probability between the word and another word for each word described in the dictionary.

又、音声解析部12は、外部記憶装置104に予め記憶した分類ルールのデータDt2を参照して、医師発話区間V2における医師等H2の質問内容の種別を分類する。   Further, the voice analysis unit 12 refers to the classification rule data Dt2 stored in advance in the external storage device 104, and classifies the type of the question content of the doctor H2 etc. in the doctor utterance section V2.

ステップS1において、音声解析部12は、まず、音声データD1に対してフレーム化処理を行い、フレームごとにフーリエ解析を含む所定の処理を行って、音声データD1を音声特徴量(例えば、MFCC)の時系列データD1aに変換する。   In step S1, the voice analysis unit 12 first performs framing processing on the voice data D1, performs predetermined processing including Fourier analysis for each frame, and converts the voice data D1 into voice feature values (for example, MFCC). To the time-series data D1a.

ステップS2において、音声解析部12は、音声特徴量の時系列データD1aを医師発話区間V2と患者発話区間V1とに分離する。   In step S2, the voice analysis unit 12 separates the time series data D1a of the voice feature amount into the doctor utterance section V2 and the patient utterance section V1.

このステップS2において、音声解析部12は、例えば、音声データ(音声特徴量の時系列データD1a)中で音量が時間的に連続して閾値以上の大きさを有する区間を一回の発話区間として識別する。又、この際、音声解析部12は、例えば、話者モデル(例えば、医師等H2の音声の特徴を示す音響モデル)を参照して、各発話区間の話者を特定する。   In step S2, for example, the voice analysis unit 12 sets a section in which the volume of the voice data (speech feature amount time-series data D1a) has a volume continuously larger than a threshold value as one utterance section. Identify. At this time, the voice analysis unit 12 specifies speakers in each utterance section with reference to, for example, a speaker model (for example, an acoustic model indicating the characteristics of the H2 voice such as a doctor).

ステップS3において、音声解析部12は、音声データ(音声特徴量の時系列データD1a)中の時系列順の医師発話区間V2と患者発話区間V1とに基づいて、医師等H2と患者H1の時系列の質疑応答を順番に抽出する。つまり、このステップS3において、音声解析部12は、音声データの時系列順に、医師等H2の質問と当該質問に続く患者H1の応答のセットを抽出する(図6を参照)。   In step S3, the speech analysis unit 12 determines the time of the doctor H2 and the patient H1 based on the doctor utterance section V2 and the patient utterance section V1 in time series order in the speech data (speech feature amount time series data D1a). The questions and answers of the series are extracted in order. That is, in step S3, the voice analysis unit 12 extracts a set of questions such as a doctor H2 and a response of the patient H1 following the question in the time-series order of the voice data (see FIG. 6).

このステップS3において、音声データ中に未処理の質疑応答がある場合(ステップS3:YES)、音声解析部12は、ステップS4に処理を進める。一方、未処理の質疑応答がない場合(ステップS3:NO)、音声解析部12は、一連のフローを終了する。   In step S3, when there is an unprocessed question and answer in the voice data (step S3: YES), the voice analysis unit 12 advances the process to step S4. On the other hand, when there is no unprocessed question and answer (step S3: NO), the voice analysis unit 12 ends the series of flows.

ステップS4において、音声解析部12は、医師発話区間V2における医師等H2の質問種別を特定する。   In step S4, the voice analysis unit 12 specifies the question type of the doctor H2 etc. in the doctor utterance section V2.

このステップS4において、音声解析部12は、例えば、音響モデル、辞書、及び言語モデル等のデータDt1を参照して、医師発話区間V2における音声特徴量の時系列データの音声パターンを認識し、医師発話区間V2の発話内容をテキスト化する。そして、音声解析部12は、分類ルールのデータDt2を参照して、医師発話区間V2で医師等H2が質問した質問内容の質問種別を特定する。   In step S4, the voice analysis unit 12 refers to the data Dt1 such as an acoustic model, a dictionary, and a language model, for example, recognizes the voice pattern of the time series data of the voice feature amount in the doctor utterance section V2, and The utterance content of the utterance section V2 is converted into text. Then, the voice analysis unit 12 refers to the classification rule data Dt2 to identify the question type of the question content that the doctor H2 asks in the doctor utterance section V2.

尚、このステップS4において、医師発話区間V2の質問種別は、例えば、テキスト化された医師発話区間V2の発話内容中に出現する単語(例えば、「食事」、「出身」、「調子」又は「慢性疾患(病名)」等)や、当該単語の連なり(例えば、「先週(時期を示す単語)」の後に「でしたか(過去を問う単語)」)等によって、特定することができる。   In this step S4, the question type of the doctor utterance section V2 is, for example, a word (for example, “meal”, “born”, “tone” or “ Chronic disease (disease name) ", etc.) or a series of the words (for example," Did you say (Did you ask the past)? ") After" Last week (word indicating time) ").

ステップS5において、音声解析部12は、患者発話区間V1における患者H1の応答特徴を抽出する。   In step S5, the voice analysis unit 12 extracts response characteristics of the patient H1 in the patient utterance section V1.

このステップS5において、音声解析部12は、例えば、外部記憶装置104に予め格納された音響モデル、辞書、及び言語モデル等を参照して、患者H1が発話するテンポ、タイミング、一回の患者発話区間内における語数、一回の患者発話区間内における語彙、又は、発話内容等の患者の応答特徴を抽出する。   In step S5, the voice analysis unit 12 refers to, for example, an acoustic model, a dictionary, a language model, and the like stored in advance in the external storage device 104, and the tempo, timing, and single patient utterance of the patient H1. Patient response features such as the number of words in the interval, vocabulary in a single patient utterance interval, or utterance content are extracted.

ステップS6において、音声解析部12は、ステップS5で抽出した患者H1の応答特徴を、ステップS4で特定した医師等H2の質問種別と関連付けて、記憶部(例えば、RAM)に記憶する。   In step S6, the voice analysis unit 12 stores the response characteristics of the patient H1 extracted in step S5 in the storage unit (for example, RAM) in association with the question type of the doctor H2 etc. identified in step S4.

このステップS6の処理を行った後、音声解析部12は、ステップS3に戻って、音声データD1の時系列順の医師発話区間V2と患者発話区間V1とを抽出し、ステップS4〜ステップS6の処理を繰り返し実行する。   After performing the process of step S6, the voice analysis unit 12 returns to step S3, extracts the doctor utterance section V2 and the patient utterance section V1 in time series order of the voice data D1, and performs steps S4 to S6. Repeat the process.

尚、音声解析部12において、医師発話区間V2と患者発話区間V1とを識別する手法は、任意である。例えば、医師等H2の発話を録音するマイクロホンと、患者H1の発話を録音するマイクロホンと、を各別に設けて、医師発話区間V2と患者発話区間V1とを識別する手法を用いてもよい。   Note that the voice analysis unit 12 may use any method for identifying the doctor utterance section V2 and the patient utterance section V1. For example, a method of identifying the doctor utterance section V2 and the patient utterance section V1 by separately providing a microphone for recording the utterance of the doctor H2 and a microphone for recording the utterance of the patient H1 may be used.

又、音声解析部12において、医師発話区間V2における医師等H2の質問種別を特定する手法、及び患者発話区間V1における患者H1の応答特徴を抽出する手法も、任意である。   In addition, a method for specifying the question type of the doctor H2 or the like in the doctor utterance section V2 and a method for extracting the response characteristics of the patient H1 in the patient utterance section V1 in the speech analysis section 12 are arbitrary.

[認知症レベル算出部]
認知症レベル算出部13は、音声解析部12から、医師等H2の質問種別と関連付けられた患者H1の応答特徴に関するデータD2を取得する。そして、認知症レベル算出部13は、学習済みの識別器Dmを用いて、当該データD2を解析し、患者H1の認知症レベルを算出する。
[Dementia level calculator]
The dementia level calculation unit 13 acquires data D2 related to the response characteristics of the patient H1 associated with the question type of the doctor H2 or the like from the voice analysis unit 12. And the dementia level calculation part 13 analyzes the said data D2 using the learned discriminator Dm, and calculates the dementia level of the patient H1.

識別器Dmとしては、患者H1の応答特徴が医師等H2の質問種別と関連付けて入力された際に、所定の認知症レベル決定則(例えば、長谷川式認知症診断テストやMMSE式認知症診断テスト)に則した認知症レベルを出力するように、教師データを用いた学習処理が施されたものが用いられる。   When the response characteristic of the patient H1 is input in association with the question type of the doctor H2, etc. as the classifier Dm, a predetermined dementia level determination rule (for example, Hasegawa type dementia diagnosis test or MMSE type dementia diagnosis test) In order to output a dementia level in accordance with (), a learning process using teacher data is used.

識別器Dmとしては、例えば、ニューラルネットワーク、回帰木、SVM(Support Vector Machine)、ベイズ識別器、又、これらのアンサンブルモデル等、任意の学習器を用いることができる。尚、当該識別器Dmとしては、いわゆるディープラーニングが適用される識別器であってもよいのは勿論である。   As the classifier Dm, for example, an arbitrary learning device such as a neural network, a regression tree, an SVM (Support Vector Machine), a Bayes classifier, or an ensemble model thereof can be used. Of course, the classifier Dm may be a classifier to which so-called deep learning is applied.

一般に、機械学習によって識別機能を保有する識別器は、複数の要素間の相関関係の解析に適しており、テンポ、単語数、語彙数又は応答速度等、複数の要素として表出する認知症を診断する用には好適である。   In general, classifiers that have a discriminating function by machine learning are suitable for analyzing the correlation between multiple elements, such as tempo, number of words, number of vocabularies, or response speed. It is suitable for diagnosis.

但し、識別器の識別精度は、一般に、入力される特徴ベクトルに依拠する。かかる観点から、本実施形態に係る識別器Dmは、音声解析部12にて抽出された質問種別毎に応答特徴を入力する構成としている。   However, the discrimination accuracy of the discriminator generally depends on the input feature vector. From this point of view, the classifier Dm according to the present embodiment is configured to input a response feature for each question type extracted by the voice analysis unit 12.

尚、学習済みの識別器Dmのモデルデータ(例えば、構造データ及び学習済みのパラメータデータ等)は、例えば、処理プログラムと共に、予め外部記憶装置104に格納されている。   Note that the model data (for example, structure data and learned parameter data) of the learned discriminator Dm is stored in the external storage device 104 in advance together with, for example, the processing program.

図7は、本実施形態に係る識別器Dm(ここでは、ニューラルネットワーク)の構成の一例を示す図である。   FIG. 7 is a diagram illustrating an example of the configuration of the discriminator Dm (here, a neural network) according to the present embodiment.

本実施形態に係る識別器Dmは、入力層として、患者H1の応答特徴に関するデータD2を入力するための複数の入力ユニットを有している。   The discriminator Dm according to this embodiment has a plurality of input units for inputting data D2 related to the response characteristics of the patient H1 as an input layer.

複数の入力ユニットX〜Xは、それぞれ、質問種別Q1に対する応答特徴、質問種別Q2に対する応答特徴、質問種別Q3に対する応答特徴、・・質問種別Qkに対する応答特徴のように、質問種別と関連付けて入力を受け付ける構成となっている。 Each of the plurality of input units X 1 to X k is associated with a question type such as a response feature for the question type Q1, a response feature for the question type Q2, a response feature for the question type Q3, and a response feature for the question type Qk. To accept input.

尚、図7では、一の質問種別に対して、一の入力ユニットのみを図示しているが、より好適には、一の質問種別に対して、複数の観点の応答特徴(例えば、テンポ、単語数、語彙数及び応答速度等)に対応する複数の入力ユニットが設けられる。   In FIG. 7, only one input unit is illustrated for one question type, but more preferably, response characteristics (for example, tempo, A plurality of input units corresponding to the number of words, the number of vocabulary, the response speed, etc.

入力する際の「応答特徴」のデータ形式は、質問種別と関連付けられていれば任意である。例えば、「応答特徴」は、音声データD1からテンポ、単語数、語彙数又は応答速度等に係るデータに各別に分離された状態で入力されてもよいし、音声データD1を音声特徴量(例えば、MFCC)に変換しただけの時系列データが入力されてもよい。   The data format of the “response feature” at the time of input is arbitrary as long as it is associated with the question type. For example, the “response feature” may be input in a state where it is separated from the audio data D1 into data related to the tempo, the number of words, the number of vocabularies, the response speed, etc. , MFCC) time series data may be input.

ニューラルネットワークのその他の構成は、公知の技術と同様であり、ニューラルネットワークは、入力層に入力された情報が、中間層、出力層へと順に伝搬(演算)されることにより、出力層から認知症レベルを出力する。例えば、中間層は、複数の中間ユニットZ(j=1〜n(ユニット数))により構成されている。そして、入力層の入力ユニットX(i=1〜k(ユニット数))に入力された情報Xが、夫々の結合係数Wji(図示せず)で重みづけ(積算)されて、中間層の各中間ユニットZに入力され、それらが加算されて各中間ユニットZの値となる。又、中間層の各中間ユニットZの値は、入出力関数(例えば、シグモイド関数)で非線形変換されて、夫々の結合係数V(図示せず)で重みづけ(積算)されて、出力層の出力ユニットUに入力され、それらが加算されて出力層の出力ユニットUの値となる。 The other structure of the neural network is the same as that of the publicly known technology. The neural network recognizes from the output layer by the information input to the input layer being propagated (calculated) in order to the intermediate layer and the output layer. The symptom level is output. For example, the intermediate layer includes a plurality of intermediate units Z j (j = 1 to n (number of units)). Then, the information X i inputted to the input unit X i (i = 1 to k (number of units)) of the input layer is weighted (integrated) by each coupling coefficient W ji (not shown), and the intermediate input to each intermediate unit Z j of the layer, consisting they are added to the value of each intermediate unit Z j. Further, the value of each intermediate unit Z j in the intermediate layer is nonlinearly transformed by an input / output function (for example, sigmoid function), weighted (integrated) by each coupling coefficient V j (not shown), and output. The values are input to the output unit U of the layer and added to obtain the value of the output unit U of the output layer.

認知症レベル算出部13は、かかる識別器Dmの順伝播処理によって、認知症レベルを算出する。尚、図中では、一例として、認知症レベルを0%(認知症に該当しないレベル)〜100%(重度の認知症に該当するレベル)の間の値として出力する態様を示している。   The dementia level calculation unit 13 calculates the dementia level by the forward propagation process of the classifier Dm. In the figure, as an example, a mode in which the dementia level is output as a value between 0% (a level not corresponding to dementia) to 100% (a level corresponding to severe dementia) is shown.

尚、上記した識別器Dmの構成は、一例であって、種々に変更されてよい。又、識別器Dmは、入力ユニットX〜Xに入力する応答特徴のデータの正規化処理等の前処理部を更に有していてもよい。 The configuration of the discriminator Dm described above is an example and may be variously changed. Further, classifier Dm may further have a pre-processing unit normalization processing of data of the response characteristic applied to the input unit X 1 to X k.

[出力部]
出力部14は、認知症レベル算出部13から患者H1の認知症診断の結果(即ち、認知症レベル)のデータD3を取得し、端末装置2に表示させるデータ形式に変換したデータD4を、端末装置2に対して出力する。端末装置2は、出力部14から当該データD4を取得するに応じて、表示部25に表示する(図8を参照)。
[Output section]
The output unit 14 acquires the data D3 of the dementia diagnosis result (ie, dementia level) of the patient H1 from the dementia level calculation unit 13, and converts the data D4 converted into a data format to be displayed on the terminal device 2 to the terminal Output to the device 2. In response to acquiring the data D4 from the output unit 14, the terminal device 2 displays the data D4 on the display unit 25 (see FIG. 8).

この際、出力部14は、例えば、患者H1の履歴データDrを参照して、過去の他の日時の音声データについて算出された患者H1の認知症レベルを取得し、患者H1の経時的な変化を示すデータとして出力する。   At this time, for example, the output unit 14 refers to the history data Dr of the patient H1, acquires the dementia level of the patient H1 calculated for the audio data of other past dates, and changes with time of the patient H1. Is output as data.

尚、患者H1の履歴データDrは、種々の患者の認知症レベルの履歴データを記憶するデータベースの当該患者H1分のデータである。患者H1の履歴データDrは、例えば、認知症レベル算出部13で患者H1の認知症レベルが算出される毎に、当該認知症レベル及び算出した日時が当該患者H1の識別情報と関連付けて記憶される。   The history data Dr of the patient H1 is data for the patient H1 in a database that stores history data of dementia levels of various patients. The history data Dr of the patient H1, for example, each time the dementia level of the patient H1 is calculated by the dementia level calculation unit 13, the dementia level and the calculated date and time are stored in association with the identification information of the patient H1. The

図8は、患者H1の認知症レベルの表示態様の一例を示す図である。   FIG. 8 is a diagram illustrating an example of a display mode of the dementia level of the patient H1.

図8の縦軸は認知症レベル算出部13が算出した認知症レベルを表し、横軸は当該認知症レベルが算出された日時を表す。ここでは、出力部14は、例えば、過去の日時からの患者H1の認知症レベルの経時的な変化に関する情報(即ち、履歴)を端末装置2に表示させている。   The vertical axis in FIG. 8 represents the dementia level calculated by the dementia level calculation unit 13, and the horizontal axis represents the date and time when the dementia level was calculated. Here, for example, the output unit 14 causes the terminal device 2 to display information (that is, history) related to the temporal change in the dementia level of the patient H1 from the past date and time.

これによって、医師等は、当該患者H1について、認知症レベルの進行状況をより正確に把握することができる。   Accordingly, doctors and the like can more accurately grasp the progress of the dementia level for the patient H1.

尚、出力部14の構成としては、上記態様に限定されない。出力部14は、例えば、認知症レベルに閾値を設定し、ある閾値を超えた場合に、アラートをあらかじめ登録のメールアドレスなどを通じて関係者に発信するという構成であってもよい。   In addition, as a structure of the output part 14, it is not limited to the said aspect. For example, the output unit 14 may have a configuration in which a threshold is set for the dementia level, and when a certain threshold is exceeded, an alert is transmitted to related parties in advance through a registered e-mail address or the like.

[学習処理部]
学習処理部15は、識別器Dmが医師等H2と患者H1の会話(即ち、患者H1の応答特徴)から、認知症レベルを算出し得るように、識別器Dmに対して教師データを用いた機械学習を実行する。
[Learning processing section]
The learning processing unit 15 uses the teacher data for the discriminator Dm so that the discriminator Dm can calculate the dementia level from the conversation between the doctor H2 and the patient H1 (that is, the response characteristics of the patient H1). Perform machine learning.

学習処理部15は、教師データを用いた公知の機械学習により、識別器Dmを最適化する(例えば、ニューラルネットワークの重み係数及びバイアス等のネットワークパラメータ)。   The learning processing unit 15 optimizes the discriminator Dm by known machine learning using teacher data (for example, network parameters such as a weighting factor and a bias of a neural network).

教師データ(図示せず)は、例えば、ある患者(上記の被検者たる患者H1とは異なる患者)に対して行われた認知症診断テスト(例えば、長谷川式認知症診断テストやMMSE認知症診断テスト等)の認知症レベルと、当該患者(即ち、認知症診断テストを受けた患者)に対して医師等が問診を行った際の音声データのデータセットである。かかるデータセットが、複数の患者分用意されて、教師データを構成する。   Teacher data (not shown) is, for example, a dementia diagnosis test (for example, Hasegawa dementia diagnosis test or MMSE dementia) performed on a certain patient (a patient different from the above-described patient H1). This is a data set of voice data when a doctor or the like makes an inquiry to the patient (that is, a patient who has undergone the dementia diagnostic test). Such a data set is prepared for a plurality of patients and constitutes teacher data.

尚、識別器Dmの識別性能は、教師データに依拠するため、教師データとして用いる認知症レベルは、特に、専門医が診断した結果であることが望ましい。   In addition, since the discrimination performance of the discriminator Dm depends on the teacher data, the dementia level used as the teacher data is particularly preferably a result of diagnosis by a specialist.

図9は、学習処理部15が行う学習処理の一例を示すフローチャートである。   FIG. 9 is a flowchart illustrating an example of learning processing performed by the learning processing unit 15.

ステップS11においては、学習処理部15は、まず、学習処理に用いていない未処理の教師データがあるか否かを判定し、未処理の教師データがある場合(S11:YES)、ステップS12に処理を進め、未処理の教師データがない場合(S11:NO)、学習処理部15は、一連の処理を終了するべく、ステップS14に処理を進める。   In step S11, the learning processing unit 15 first determines whether there is unprocessed teacher data that is not used in the learning process. If there is unprocessed teacher data (S11: YES), the process proceeds to step S12. If the process proceeds and there is no unprocessed teacher data (S11: NO), the learning processing unit 15 proceeds to step S14 to end the series of processes.

ステップS12においては、学習処理部15は、未処理の教師データを記憶部から取得する。   In step S12, the learning processing unit 15 acquires unprocessed teacher data from the storage unit.

ステップS13においては、学習処理部15は、前処理として、音声データに対して音声解析部12と同様の処理を実行する。即ち、学習処理部15は、医師発話区間における質問種別を特定すると共に、当該医師発話区間に続いて患者が発話する発話区間における患者の応答特徴を抽出する。   In step S13, the learning processing unit 15 performs the same processing as the speech analysis unit 12 on the speech data as preprocessing. That is, the learning processing unit 15 specifies the question type in the doctor utterance section and extracts the response characteristics of the patient in the utterance section uttered by the patient following the doctor utterance section.

ステップS14においては、学習処理部15は、教師データを用いて、識別器Dmに対して学習処理を施す。尚、この際の学習処理は、公知の手法と同様である。学習処理部15は、例えば、認知症レベルの正解値に対する識別器Dmが出力する出力値の誤差(損失Lossとも称される)が小さくなるように、公知の誤差逆伝播法等によって、ネットワークパラメータ(重み係数、及びバイアス等)の修正が行われる。   In step S14, the learning processing unit 15 performs learning processing on the classifier Dm using the teacher data. Note that the learning process at this time is the same as a known method. For example, the learning processing unit 15 uses a known error back-propagation method or the like to reduce the error (also referred to as loss Loss) of the output value output from the discriminator Dm with respect to the correct value of the dementia level. Corrections (such as weighting factors and biases) are made.

このステップS14の後、学習処理部15は、再度、ステップS11に戻って処理を実行する。   After step S14, the learning processing unit 15 returns to step S11 and executes the process again.

ステップS15においては、学習処理部15は、学習処理を施した識別器Dmのデータ(学習済みのネットワークパラメータ)を、例えば、外部記憶装置104に格納する。そして、一連のフローを終了する。   In step S <b> 15, the learning processing unit 15 stores the data (learned network parameter) of the discriminator Dm that has been subjected to the learning process, for example, in the external storage device 104. And a series of flow is complete | finished.

識別器Dmは、かかる学習処理によって、医師等H2の質問種別と関連付けられた患者H1の応答特徴に関するデータD2から、患者H1の認知症レベルを出力し得るように、最適化される。   The discriminator Dm is optimized so that the dementia level of the patient H1 can be output from the data D2 related to the response characteristics of the patient H1 associated with the question type of the doctor H2, etc., by such learning processing.

[効果]
以上のように、本実施形態に係る認知症診断装置1によれば、患者H1と医師等H2の会話に係る音声データを取得する音声取得部11と、音声データの音声解析を行って、医師等H2が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて患者H1が発話する発話区間における応答特徴を抽出する音声解析部12と、学習済みの識別器Dmに対して、患者H1の応答特徴を質問内容の種別と関連付けて入力し、患者H1の認知症レベルを算出する認知症レベル算出部13と、を備えている。又、識別器Dmは、患者H1の応答特徴が質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に基づいて決定された認知症レベルを出力するように、教師データを用いた学習処理が施されている。
[effect]
As described above, according to the dementia diagnosis apparatus 1 according to the present embodiment, the voice acquisition unit 11 that acquires voice data related to the conversation between the patient H1 and the doctor H2, etc., and voice analysis of the voice data are performed, and the doctor The voice analysis unit 12 that specifies the type of the question content in the utterance section where the H2 utters and extracts the response feature in the utterance section uttered by the patient H1 following the utterance section, and the learned classifier Dm The response characteristic of the patient H1 is input in association with the type of question content, and the dementia level calculation unit 13 calculates the dementia level of the patient H1. Further, the classifier Dm outputs the dementia level determined based on a predetermined dementia level determination rule when the response characteristic of the patient H1 is input in association with the type of question content. Learning processing using is performed.

これによって、種々の質問に対する患者H1の応答態様を用いて、認知症の進行度合いを診断することが可能となる。換言すると、特殊な認知症テスト(例えば、長谷川式認知症テストやMMSE式認知症テスト)を実施することなく、診察時の会話等から、簡易に、且つ、高精度に、認知症レベルを算出することが可能となる。   This makes it possible to diagnose the degree of progression of dementia using the response mode of the patient H1 with respect to various questions. In other words, the dementia level can be calculated easily and with high accuracy from conversations at the time of examination without conducting special dementia tests (eg, Hasegawa dementia test or MMSE dementia test). It becomes possible to do.

(第2の実施形態)
次に、図10及び図11を参照して、第2の実施形態に係る認知症診断装置1について説明する。
(Second Embodiment)
Next, with reference to FIG.10 and FIG.11, the dementia diagnostic apparatus 1 which concerns on 2nd Embodiment is demonstrated.

本実施形態に係る認知症診断装置1は、認知症レベル算出部13が、現時点(第1の日時に相当)における患者H1の応答特徴に加えて、過去時点(第2の日時に相当)における患者の応答特徴の情報を参照する点で、第1の実施形態に係る認知症診断装置1と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。   In the dementia diagnosis device 1 according to the present embodiment, the dementia level calculation unit 13 has a past characteristic (corresponding to the second date and time) in addition to the response characteristics of the patient H1 at the present time (corresponding to the first date and time). It differs from the dementia diagnosis apparatus 1 according to the first embodiment in that it refers to information on the response characteristics of the patient. In addition, description is abbreviate | omitted about the structure which is common in 1st Embodiment (Hereafter, it is the same also about other embodiment.).

図10は、本実施形態に係る認知症診断装置1の構成の一例を示す図である。図11は、本実施形態に係る認知症レベル算出部13が用いる識別器Dmの構成の一例を示す図である。   FIG. 10 is a diagram illustrating an example of the configuration of the dementia diagnosis apparatus 1 according to the present embodiment. FIG. 11 is a diagram illustrating an example of the configuration of the classifier Dm used by the dementia level calculation unit 13 according to the present embodiment.

本実施形態に係る認知症レベル算出部13は、認知症レベルを算出する際に利用した患者H1の応答特徴の情報を、当該患者H1の識別情報と関連付けて患者履歴データDrに格納する。そして、認知症レベル算出部13は、後日(例えば、1年後)、当該患者H1の認知症レベルを再度算出する際に、患者履歴データDrに格納した過去時点における患者H1の応答特徴の情報を参照する。   The dementia level calculation unit 13 according to the present embodiment stores the information of the response characteristics of the patient H1 used when calculating the dementia level in the patient history data Dr in association with the identification information of the patient H1. Then, when the dementia level calculation unit 13 calculates the dementia level of the patient H1 again at a later date (for example, one year later), information on the response characteristics of the patient H1 at the past time stored in the patient history data Dr. Refer to

本実施形態に係る識別器Dmの入力層は、日時Aにおける患者H1の応答特徴を入力する入力ユニットX−A〜X−A、日時Bにおける患者H1の応答特徴を入力する入力ユニットX−B〜X−B、及び、日時Cにおける患者H1の応答特徴を入力する入力ユニットX−C〜X−C、を有している。尚、入力ユニットに付した符号「…−A」、「…−B」及び「…−C」は、それぞれ、入力対象とする日時を表している。 The input layer of the discriminator Dm according to the present embodiment includes input units X 1 -A to X k -A that input the response characteristics of the patient H1 at the date and time A, and the input units X that input the response characteristics of the patient H1 at the date and time B. 1 -B~X k -B, and has an input unit X 1 -C~X k -C, for inputting the response characteristics of the patients H1 in time C. Note that the symbols “... -A”, “... -B”, and “... -C” attached to the input unit respectively represent the dates and times to be input.

本実施形態に係る識別器Dmの入力ユニットX−A〜X−A、X−B〜X−B、X−C〜X−Cも、第1の実施形態に係る識別器Dmと同様に、それぞれ、質問種別Q1に対する応答特徴、質問種別Q2に対する応答特徴、質問種別Q3に対する応答特徴、・・質問種別Qkに対する応答特徴のように、質問種別と関連付けて入力を受け付ける構成となっている。尚、識別器Dmのその他の構成は、第1の実施形態に係る識別器Dmと同様である。 Input Unit X 1 -A~X k -A discriminator Dm according to the present embodiment, X 1 -B~X k -B, also X 1 -C~X k -C, identification of the first embodiment Similarly to the device Dm, each of the response features for the question type Q1, the response feature for the question type Q2, the response feature for the question type Q3,... It has become. The other configuration of the classifier Dm is the same as that of the classifier Dm according to the first embodiment.

尚、識別器Dmには、異なる日時に行われた会話における被検者の応答特徴に代えて、異なる日時に行われた会話における被検者の応答特徴の日時間での変化に係る情報が入力されてもよい。   In addition, in the classifier Dm, in place of the response characteristics of the subject in the conversation performed at different dates and times, information regarding changes in the day and time of the response characteristics of the subjects in the conversation performed at different dates and times is stored. It may be entered.

つまり、本実施形態に係る識別器Dmは、現時点における患者H1の応答特徴に加えて、過去時点(例えば、1年前)における患者H1の応答特徴を参照して、認知症レベルを算出するように構成されている。   That is, the discriminator Dm according to the present embodiment calculates the dementia level by referring to the response characteristics of the patient H1 at the past time (for example, one year ago) in addition to the response characteristics of the patient H1 at the current time. It is configured.

このように、患者H1の応答態様の経時的な変化を抽出することで、患者H1の人格に依拠したノイズ要因を排除することが可能であり、より高精度に患者H1の認知症レベルを算出することが可能となる。   In this way, by extracting the change over time of the response mode of the patient H1, it is possible to eliminate the noise factor depending on the personality of the patient H1, and calculate the dementia level of the patient H1 with higher accuracy. It becomes possible to do.

以上のように、本実施形態に係る認知症診断装置1によれば、異なる日時に行われた会話における患者H1の応答特徴、又は、異なる日時に行われた会話における患者H1の応答答特徴の日時間での変化に係る情報を用いて、患者H1の認知症レベルを算出する。これによって、より高精度に患者H1の認知症レベルを算出することができる。   As described above, according to the dementia diagnosis apparatus 1 according to the present embodiment, the response characteristics of the patient H1 in the conversation conducted at different dates or the response answer characteristics of the patient H1 in the conversation conducted at different dates. The dementia level of the patient H1 is calculated using information relating to changes in day and time. Thereby, the dementia level of the patient H1 can be calculated with higher accuracy.

(第3の実施形態)
次に、図12及び図13を参照して、第3の実施形態に係る認知症診断装置1について説明する。
(Third embodiment)
Next, with reference to FIG.12 and FIG.13, the dementia diagnostic apparatus 1 which concerns on 3rd Embodiment is demonstrated.

本実施形態に係る認知症診断装置1は、認知症レベル算出部13が、質問に対する患者H1の応答特徴の情報に加えて、患者H1の行動記録の情報(例えば、服薬記録)を参照する点で、第1の実施形態に係る認知症診断装置1と相違する。   In the dementia diagnostic apparatus 1 according to the present embodiment, the dementia level calculation unit 13 refers to information on the action record of the patient H1 (for example, medication record) in addition to information on the response characteristics of the patient H1 to the question. Thus, it is different from the dementia diagnostic apparatus 1 according to the first embodiment.

図12は、本実施形態に係る認知症診断装置1の構成の一例を示す図である。図13は、本実施形態に係る認知症レベル算出部13が用いる識別器Dmの構成の一例を示す図である。   FIG. 12 is a diagram illustrating an example of the configuration of the dementia diagnosis apparatus 1 according to the present embodiment. FIG. 13 is a diagram illustrating an example of the configuration of the classifier Dm used by the dementia level calculation unit 13 according to the present embodiment.

本実施形態に係る認知症診断装置1は、患者H1が保有する患者端末(例えば、携帯端末。図1には、図示せず)から、患者H1の行動記録のデータD5(例えば、服薬記録)を取得する行動記録取得部16を備えている。   The dementia diagnosis apparatus 1 according to the present embodiment is configured such that data D5 (for example, medication record) of the behavior record of the patient H1 from a patient terminal (for example, a portable terminal, not shown in FIG. 1) held by the patient H1. The action record acquisition part 16 which acquires is provided.

又、本実施形態に係る識別器Dmの入力層は、患者H1の応答特徴を入力する入力ユニットX〜Xに加えて、患者H1の行動記録のデータD5を入力する入力ユニットXk+1を有している。 In addition, the input layer of the discriminator Dm according to the present embodiment includes an input unit X k + 1 that inputs the action record data D5 of the patient H1 in addition to the input units X 1 to X k that input the response characteristics of the patient H1. Have.

尚、ここでは、説明の便宜として、患者H1の行動記録の情報を入力する入力ユニットの数を一としているが、複数設けられてもよいのは、勿論である。又、行動記録取得部16が取得した患者H1の行動記録の情報に対して、所定の前処理を施してもよい。   Here, for convenience of explanation, the number of input units for inputting the action record information of the patient H1 is one, but it is needless to say that a plurality of input units may be provided. Moreover, you may perform a predetermined | prescribed pre-processing with respect to the information of the action record of the patient H1 which the action record acquisition part 16 acquired.

認知症の進行は、一般に、日常の行動の変化として表出しやすい。認知症が進行した患者H1は、例えば、処方された薬を服薬し忘れたり、外出する頻度が低下したりする傾向にある。   The progression of dementia is generally easy to express as a change in daily behavior. The patient H1 with advanced dementia, for example, has a tendency to forget to take a prescribed medicine or to go out.

このような観点から、本実施形態に係る認知症診断装置1は、患者H1の行動記録の情報(例えば、服薬記録)を参照して、患者H1の認知症レベルを算出する。尚、行動記録の情報は、例えば、患者H1が自身の患者端末に日常的に記録する服薬記録の情報等を用いることができる。又、その他、端末装置に設けられたGPSの情報から、患者H1の移動記録の情報を取得してもよい。   From such a viewpoint, the dementia diagnostic apparatus 1 according to the present embodiment calculates the dementia level of the patient H1 with reference to information (for example, medication record) of the behavior record of the patient H1. In addition, the information of action record can use the information of the medication record etc. which patient H1 records on his / her patient terminal on a daily basis etc., for example. In addition, the movement record information of the patient H1 may be acquired from the GPS information provided in the terminal device.

以上のように、本実施形態に係る認知症診断装置1によれば、患者H1の行動記録の情報を参照して、患者H1の認知症レベルを算出する。これによって、より高精度に患者H1の認知症レベルを算出することができる。   As described above, according to the dementia diagnostic apparatus 1 according to the present embodiment, the dementia level of the patient H1 is calculated with reference to the information of the action record of the patient H1. Thereby, the dementia level of the patient H1 can be calculated with higher accuracy.

尚、上記実施形態では、患者H1の行動記録の情報の一例として、患者端末から取得した服薬記録の情報としたが、カメラ端末(例えば、診察室に設置されているカメラ端末)で撮影された患者H1の画像情報を用いてもよい。   In the above embodiment, the medication record information acquired from the patient terminal is taken as an example of the behavior record information of the patient H1, but the information was taken with a camera terminal (for example, a camera terminal installed in the examination room). The image information of the patient H1 may be used.

認知症の進行は、一般に、行動障害を伴うため、例えば、カメラ端末で撮影された患者H1の舞踏運動(非律動的・突発的な不随意運動)、振戦(筋肉が律動的に収縮する不随意運動)、又は姿勢反射運動(体が傾いたときに倒れないように立て直す反応が損なわれた状態)等についても、認知症レベルを算出する際に、有用な情報となり得る。   Since the progression of dementia generally involves behavioral disorders, for example, the patient's H1 choreography (non-rhythmic / sudden involuntary movement), tremor (muscle contracts rhythmically) taken with a camera terminal. Involuntary movements) or postural reflex movements (states in which the response to rebuild so as not to fall when the body is tilted) can also be useful information when calculating the dementia level.

(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be considered.

又、上記実施形態では、認知症診断装置1の構成の一例として、学習処理部15を備える構成を示した。但し、認知症診断装置1とは別の学習装置において、識別器Dmに対して機械学習を施しておき、認知症診断装置1は、当該学習済みの識別器Dmを取得して、外部記憶装置104等に記憶しておく構成としてもよいのは、勿論である。   Moreover, in the said embodiment, the structure provided with the learning process part 15 was shown as an example of the structure of the dementia diagnostic apparatus 1. FIG. However, in a learning device different from the dementia diagnosis device 1, machine learning is performed on the discriminator Dm, and the dementia diagnosis device 1 acquires the learned discriminator Dm to obtain an external storage device. Of course, it is good also as a structure memorize | stored in 104 grade | etc.,.

又、上記実施形態では、認知症診断装置1の構成の一例として、音声取得部11、音声解析部12、認知症レベル算出部13、出力部14、及び学習処理部15の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。   Moreover, in the said embodiment, as an example of a structure of the dementia diagnostic apparatus 1, the computer with the function of the audio | voice acquisition part 11, the audio | voice analysis part 12, the dementia level calculation part 13, the output part 14, and the learning process part 15 is one. However, it may be realized by a plurality of computers. Moreover, the program and data read by the computer may be distributed and stored in a plurality of computers.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。   As mentioned above, although the specific example of this invention was demonstrated in detail, these are only illustrations and do not limit a claim. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.

本開示に係る認知症診断装置によれば、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現することができる。   According to the dementia diagnosis apparatus according to the present disclosure, it is possible to realize a highly accurate dementia diagnosis without giving the patient a psychological resistance.

U 認知症診断システム
1 認知症診断装置
11 音声取得部
12 音声解析部
13 認知症レベル算出部
14 出力部
15 学習処理部
16 行動記録取得部
2 端末装置
21 音声入力部
22 記憶部
23 通信部
24 操作入力部
25 表示部
26 制御部
U dementia diagnosis system 1 dementia diagnosis device 11 voice acquisition unit 12 voice analysis unit 13 dementia level calculation unit 14 output unit 15 learning processing unit 16 action record acquisition unit 2 terminal device 21 voice input unit 22 storage unit 23 communication unit 24 Operation input unit 25 Display unit 26 Control unit

Claims (15)

被検者と質問者の会話に係る音声データを取得する音声取得部と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部と、
を備え、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断装置。
A voice acquisition unit for acquiring voice data related to the conversation between the subject and the questioner;
Voice that performs voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracts response features in the utterance section uttered by the subject following the utterance section An analysis unit;
For the learned classifier, the response characteristic of the subject is input in association with the type of the question content, and a dementia level calculation unit that calculates the subject's dementia level,
With
The classifier outputs teacher data so as to output a dementia level in accordance with a predetermined dementia level determination rule when the response characteristic of the subject is input in association with the type of the question content. The learning process used was applied,
Dementia diagnostic device.
前記音声解析部は、前記音声データ中において、前記質問内容の種別と前記応答特徴との組を複数抽出する、
請求項1に記載の認知症診断装置。
The voice analysis unit extracts a plurality of sets of the question content type and the response feature in the voice data.
The dementia diagnostic apparatus according to claim 1.
前記質問内容の種別は、前記被検者に過去を想起させる質問内容の種別を含む、
請求項1又は2に記載の認知症診断装置。
The type of question content includes a type of question content that reminds the subject of the past,
The dementia diagnostic apparatus according to claim 1 or 2.
前記被検者の前記応答特徴は、前記被検者の発話区間におけるテンポ、単語数、語彙力、前記質問者からの質問に対する応答内容の的確性、及び、前記質問者からの質問に対する応答速度のうちの少なくとも一を含む、
請求項1乃至3のいずれか一項に記載の認知症診断装置。
The response characteristics of the subject include the tempo in the subject's utterance interval, the number of words, the vocabulary, the accuracy of the response content to the question from the questioner, and the response speed to the question from the questioner Including at least one of
The dementia diagnostic apparatus according to any one of claims 1 to 3.
前記被検者の前記応答特徴は、前記質問内容の種別毎に、前記被検者の発話区間におけるテンポ、単語数、語彙力、前記質問者からの質問に対する応答内容の的確性、及び、前記質問者からの質問に対する応答速度のうち、二以上の観点を有する、
請求項4に記載の認知症診断装置。
The response characteristics of the subject include, for each type of question content, the tempo, the number of words, vocabulary in the subject's utterance interval, the accuracy of the response content to the question from the questioner, and the It has two or more viewpoints among the response speeds to questions from questioners.
The dementia diagnostic apparatus according to claim 4.
前記被検者の認知症レベルに係る履歴を出力する出力部、を更に備える、
請求項1乃至5のいずれか一項に記載の認知症診断装置。
An output unit that outputs a history relating to the subject's dementia level,
The dementia diagnostic apparatus according to any one of claims 1 to 5.
前記識別器に入力する前記被検者の前記応答特徴は、第1及び第2の日時における前記会話に係る前記音声データから抽出された前記被検者の前記応答特徴の情報を含む、
請求項1乃至6のいずれか一項に記載の認知症診断装置。
The response characteristics of the subject to be input to the discriminator include information on the response characteristics of the subject extracted from the voice data related to the conversation at the first and second dates and times,
The dementia diagnostic apparatus according to any one of claims 1 to 6.
前記識別器には、更に、前記被検者の行動記録に関する情報が入力される、
請求項1乃至7のいずれか一項に記載の認知症診断装置。
Further, information relating to the subject's action record is input to the identifier.
The dementia diagnostic apparatus according to any one of claims 1 to 7.
前記被検者の行動記録は、前記被検者の服薬記録に関する情報を含む、
請求項1乃至8のいずれか一項に記載の認知症診断装置。
The subject's behavior record includes information related to the subject's medication record,
The dementia diagnostic apparatus according to any one of claims 1 to 8.
前記被検者の行動記録は、前記被検者の動作に関する情報を含む、
請求項8に記載の認知症診断装置。
The subject's action record includes information on the subject's operation,
The dementia diagnostic apparatus according to claim 8.
前記被検者と前記質問者は、それぞれ、患者と医師である、
請求項1乃至10のいずれか一項に記載の認知症診断装置。
The subject and the questioner are a patient and a doctor, respectively.
The dementia diagnostic apparatus according to any one of claims 1 to 10.
前記所定の認知症レベル決定則は、長谷川式認知症診断テスト、又は、MMSE式認知症診断テストである、
請求項1乃至11のいずれか一項に記載の認知症診断装置。
The predetermined dementia level determination rule is a Hasegawa dementia diagnostic test or an MMSE dementia diagnostic test.
The dementia diagnostic apparatus according to any one of claims 1 to 11.
前記識別器は、ニューラルネットワーク又は回帰木を含んで構成される、
請求項1乃至12のいずれか一項に記載の認知症診断装置。
The classifier includes a neural network or a regression tree.
The dementia diagnostic apparatus according to any one of claims 1 to 12.
被検者と質問者の会話に係る音声データを取得し、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出し、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する、
認知症診断方法であって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断方法。
Obtain audio data related to the conversation between the subject and the questioner,
Analyzing the voice data, identifying the type of question content in the utterance section uttered by the questioner, and extracting response characteristics in the utterance section uttered by the subject following the utterance section,
For the learned classifier, input the response characteristics of the subject in association with the type of the question content, and calculate the dementia level of the subject.
A method for diagnosing dementia,
The classifier outputs teacher data so as to output a dementia level in accordance with a predetermined dementia level determination rule when the response characteristic of the subject is input in association with the type of the question content. The learning process used was applied,
Dementia diagnosis method.
コンピュータに、
被検者と質問者の会話に係る音声データを取得する処理と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する処理と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する処理と、
を実行させる認知症診断プログラムであって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断プログラム。
On the computer,
Processing to obtain voice data relating to the conversation between the subject and the questioner;
A process of performing voice analysis of the voice data to identify the type of question content in the utterance section uttered by the questioner and extracting response features in the utterance section uttered by the subject following the utterance section When,
A process for calculating the dementia level of the subject by inputting the response characteristics of the subject in association with the type of the question content for the learned classifier,
A dementia diagnosis program for executing
The classifier outputs teacher data so as to output a dementia level in accordance with a predetermined dementia level determination rule when the response characteristic of the subject is input in association with the type of the question content. The learning process used was applied,
Dementia diagnostic program.
JP2017216536A 2017-11-09 2017-11-09 Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program Active JP6263308B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017216536A JP6263308B1 (en) 2017-11-09 2017-11-09 Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017216536A JP6263308B1 (en) 2017-11-09 2017-11-09 Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program

Publications (2)

Publication Number Publication Date
JP6263308B1 true JP6263308B1 (en) 2018-01-17
JP2019084249A JP2019084249A (en) 2019-06-06

Family

ID=60989311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017216536A Active JP6263308B1 (en) 2017-11-09 2017-11-09 Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program

Country Status (1)

Country Link
JP (1) JP6263308B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754822A (en) * 2019-01-22 2019-05-14 平安科技(深圳)有限公司 The method and apparatus for establishing Alzheimer's disease detection model
KR102042489B1 (en) * 2019-05-23 2019-11-08 하창수 Village broadcasting system
JP2019198695A (en) * 2019-08-21 2019-11-21 西日本電信電話株式会社 Notification system, notification device, notification method, and program
KR20200082145A (en) * 2018-12-28 2020-07-08 주식회사 보듬 System and method for screening early mild cognitive impairment
JP2020126419A (en) * 2019-02-04 2020-08-20 日本電気株式会社 Operation eligibility determination support device, system, method, and program
JP2020140481A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP2020140480A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP2020181422A (en) * 2019-04-25 2020-11-05 キヤノン株式会社 Medical diagnosis assistance system, medical diagnosis assistance device, medical diagnosis assistance method, and program
JP2021029692A (en) * 2019-08-26 2021-03-01 Tdk株式会社 Mild cognitive impairment determination system
JP2021064284A (en) * 2019-10-16 2021-04-22 パナソニックIpマネジメント株式会社 Cognitive function evaluation system, cognitive function evaluation method, and program
WO2022234693A1 (en) * 2021-05-07 2022-11-10 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7479711B2 (en) 2019-03-12 2024-05-09 コルディオ メディカル リミテッド A diagnostic method based on the alignment of speech samples
JP7507025B2 (en) 2020-07-22 2024-06-27 靖恵 満倉 DIAGNOSIS SUPPORT SYSTEM, DIAGNOSIS SUPPORT METHOD, AND DIAGNOSIS SUPPORT PROGRAM

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6804779B2 (en) * 2018-07-24 2020-12-23 日本テクトシステムズ株式会社 Mild cognitive impairment estimation system, mild cognitive impairment estimation device, and program for estimating the presence or absence of mild cognitive impairment
JP7239109B2 (en) * 2019-06-12 2023-03-14 株式会社モリタ製作所 Estimation Device, Estimation System, Method of Operating Estimation Device, and Estimation Program
JP6712028B1 (en) * 2020-01-09 2020-06-17 株式会社エクサウィザーズ Cognitive function determination device, cognitive function determination system and computer program
KR102329954B1 (en) * 2020-02-25 2021-11-22 광운대학교 산학협력단 Diagnostic Monitoring System for Cognitive Impairment Server and Diagnostic Monitoring Method For The Same
WO2021215259A1 (en) * 2020-04-24 2021-10-28 パナソニックIpマネジメント株式会社 Cognitive function examination method, program, and cognitive function examination system
CN115955932A (en) * 2020-07-10 2023-04-11 伊莫克有限公司 Alzheimer disease prediction method and device based on voice characteristics
JP2022032796A (en) * 2020-08-14 2022-02-25 株式会社Four H Mental disease determination system, mental disease determination method, and mental disease determination program
US11495211B2 (en) 2020-10-29 2022-11-08 International Business Machines Corporation Memory deterioration detection and amelioration
JP7261258B2 (en) * 2021-03-31 2023-04-19 西日本電信電話株式会社 INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND COMPUTER PROGRAM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240394A (en) * 2002-12-12 2004-08-26 Sense It Smart Corp Speaker voice analysis system and server device used therefor, medical examination method using speaker voice analysis, and speaker voice analyzer
JP2007282992A (en) * 2006-04-19 2007-11-01 Sky Kk Dementia diagnostic support system
JP2011502564A (en) * 2007-11-02 2011-01-27 シーグベルト ワーケンチン, System and method for assessment of brain dysfunction induced by aging brain and brain disease by speech analysis
JP2013246459A (en) * 2012-05-23 2013-12-09 Sharp Corp Dementia inquiry support device
JP2017156402A (en) * 2016-02-29 2017-09-07 国立大学法人 奈良先端科学技術大学院大学 Diagnostic system, diagnostic method, and diagnostic program
WO2017168907A1 (en) * 2016-03-31 2017-10-05 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240394A (en) * 2002-12-12 2004-08-26 Sense It Smart Corp Speaker voice analysis system and server device used therefor, medical examination method using speaker voice analysis, and speaker voice analyzer
JP2007282992A (en) * 2006-04-19 2007-11-01 Sky Kk Dementia diagnostic support system
JP2011502564A (en) * 2007-11-02 2011-01-27 シーグベルト ワーケンチン, System and method for assessment of brain dysfunction induced by aging brain and brain disease by speech analysis
JP2013246459A (en) * 2012-05-23 2013-12-09 Sharp Corp Dementia inquiry support device
JP2017156402A (en) * 2016-02-29 2017-09-07 国立大学法人 奈良先端科学技術大学院大学 Diagnostic system, diagnostic method, and diagnostic program
WO2017168907A1 (en) * 2016-03-31 2017-10-05 ソニー株式会社 Information processing device, information processing method and program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254685B1 (en) * 2018-12-28 2021-05-21 주식회사 보듬 System for screening early mild cognitive impairment
KR20200082145A (en) * 2018-12-28 2020-07-08 주식회사 보듬 System and method for screening early mild cognitive impairment
CN109754822A (en) * 2019-01-22 2019-05-14 平安科技(深圳)有限公司 The method and apparatus for establishing Alzheimer's disease detection model
WO2020151155A1 (en) * 2019-01-22 2020-07-30 平安科技(深圳)有限公司 Method and device for building alzheimer's disease detection model
JP2020126419A (en) * 2019-02-04 2020-08-20 日本電気株式会社 Operation eligibility determination support device, system, method, and program
JP2020140481A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP2020140480A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP7211161B2 (en) 2019-02-28 2023-01-24 日本電気株式会社 Processing device, processing method and program
JP7211160B2 (en) 2019-02-28 2023-01-24 日本電気株式会社 Processing device, processing method and program
JP7492715B2 (en) 2019-03-12 2024-05-30 コルディオ メディカル リミテッド Speech model-based diagnosis technology
JP7479711B2 (en) 2019-03-12 2024-05-09 コルディオ メディカル リミテッド A diagnostic method based on the alignment of speech samples
JP2020181422A (en) * 2019-04-25 2020-11-05 キヤノン株式会社 Medical diagnosis assistance system, medical diagnosis assistance device, medical diagnosis assistance method, and program
JP7327987B2 (en) 2019-04-25 2023-08-16 キヤノン株式会社 Medical diagnosis support system, medical diagnosis support device, medical diagnosis support method and program
KR102042489B1 (en) * 2019-05-23 2019-11-08 하창수 Village broadcasting system
JP2019198695A (en) * 2019-08-21 2019-11-21 西日本電信電話株式会社 Notification system, notification device, notification method, and program
JP7293050B2 (en) 2019-08-26 2023-06-19 Tdk株式会社 Mild Cognitive Impairment Judgment System
JP2021029692A (en) * 2019-08-26 2021-03-01 Tdk株式会社 Mild cognitive impairment determination system
JP2021064284A (en) * 2019-10-16 2021-04-22 パナソニックIpマネジメント株式会社 Cognitive function evaluation system, cognitive function evaluation method, and program
JP7507025B2 (en) 2020-07-22 2024-06-27 靖恵 満倉 DIAGNOSIS SUPPORT SYSTEM, DIAGNOSIS SUPPORT METHOD, AND DIAGNOSIS SUPPORT PROGRAM
WO2022234693A1 (en) * 2021-05-07 2022-11-10 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2019084249A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6263308B1 (en) Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program
KR102237539B1 (en) System and method for determining demendia and congnitive ability using voice conversation analysis
CN102149319B (en) Alzheimer&#39;s cognitive enabler
US20130158434A1 (en) Apparatus for voice assisted medical diagnosis
JP2017532082A (en) A system for speech-based assessment of patient mental status
JP4495907B2 (en) Method and apparatus for speech analysis
JP7390268B2 (en) Cognitive function prediction device, cognitive function prediction method, program and system
US20200160881A1 (en) Language disorder diagnosis/screening
JP2018169506A (en) Conversation satisfaction degree estimation device, voice processing device and conversation satisfaction degree estimation method
KR20220048381A (en) Device, method and program for speech impairment evaluation
US20230162835A1 (en) System and Method for Collecting and Analyzing Mental Health Data Using Computer Assisted Qualitative Data Analysis Software
US20240023858A1 (en) Systems and methods for human-machine partnered ptsd prediction
Usman et al. Heart rate detection and classification from speech spectral features using machine learning
JP4631464B2 (en) Physical condition determination device and program thereof
Soumaya et al. A hybrid method for the diagnosis and classifying parkinson's patients based on time–frequency domain properties and K-nearest neighbor
JP7040593B2 (en) Customer service support device, customer service support method, and customer service support program
JP2021110895A (en) Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method
JP7183483B1 (en) Automatic, Objective Symptom Severity Score
US20220005494A1 (en) Speech analysis devices and methods for identifying migraine attacks
JP7515934B2 (en) Conversation-based mental disorder screening method and device
US20240023877A1 (en) Detection of cognitive impairment
JP7307507B2 (en) Pathological condition analysis system, pathological condition analyzer, pathological condition analysis method, and pathological condition analysis program
Syed et al. Static vs. dynamic modelling of acoustic speech features for detection of dementia
Sindhu et al. Automatic Speech and Voice Disorder Detection using Deep Learning-A Systematic Literature Review
US20240071412A1 (en) Method and system for predicting a mental condition of a speaker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171109

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171109

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171215

R150 Certificate of patent or registration of utility model

Ref document number: 6263308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250