JP6849255B1 - 認知症兆候判別プログラム - Google Patents

認知症兆候判別プログラム Download PDF

Info

Publication number
JP6849255B1
JP6849255B1 JP2020071528A JP2020071528A JP6849255B1 JP 6849255 B1 JP6849255 B1 JP 6849255B1 JP 2020071528 A JP2020071528 A JP 2020071528A JP 2020071528 A JP2020071528 A JP 2020071528A JP 6849255 B1 JP6849255 B1 JP 6849255B1
Authority
JP
Japan
Prior art keywords
dementia
information
tone
subject
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020071528A
Other languages
English (en)
Other versions
JP2021166663A (ja
Inventor
綾子 澤田
綾子 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Assest Co Ltd
Original Assignee
Assest Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Assest Co Ltd filed Critical Assest Co Ltd
Priority to JP2020071528A priority Critical patent/JP6849255B1/ja
Priority to JP2021000471A priority patent/JP2021168901A/ja
Application granted granted Critical
Publication of JP6849255B1 publication Critical patent/JP6849255B1/ja
Priority to PCT/JP2021/014695 priority patent/WO2021210460A1/ja
Publication of JP2021166663A publication Critical patent/JP2021166663A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】被検者の認知症の兆候を自動的かつ高精度に判別する。【解決手段】被検者の音声の入力を受け付ける受付ステップと、受付手段により受け付けられた音声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる代名詞を抽出する抽出ステップと、抽出ステップにより抽出された抽出された代名詞のテキストデータ内における頻度に関する代名詞頻度情報と、受付ステップにより受け付けられた音声のトーンに関するトーン情報とを取得する情報取得ステップと、テキストデータ内における代名詞の頻度に関する参照用代名詞頻度情報と、音声のトーンに関する参照用トーン情報とを有する組み合わせと、認知症の兆候の判別類型との3段階以上の連関度を参照し、情報取得ステップにより取得された代名詞頻度情報とトーン情報とに基づき、被検者の認知症の兆候を判別する判別ステップとをコンピュータに実行させる。【選択図】図3

Description

本発明は、被検者の認知症の兆候を判別する認知症兆候判別プログラムに関する。
近年における高齢化社会の進展に伴い、認知症の患者が増加している。認知症に陥る際には、本人が自覚をしていなくとも外部に兆候として表れる場合がある。仮に認知症になりえる兆候を事前に検知することができれば、その段階で様々な処方を施すことで、本格的な認知症に陥る危険性を回避することができる。
しかしながら、従来において、このような認知症の兆候を自動的かつ高精度に判別するシステムは提案されていないのが現状であった。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、被検者の認知症の兆候を自動的かつ高精度に判別することが可能な認知症兆候判別プログラムを提供することにある。
上述した課題を解決するために、本発明に係る認知症兆候判別プログラムは、被検者の認知症の兆候を判別する認知症兆候判別プログラムにおいて、被検者の音声の入力を受け付ける受付ステップと、上記受付ステップにより受け付けられた音声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる代名詞を抽出する抽出ステップと、上記抽出ステップにより抽出された抽出された代名詞の上記テキストデータ内における頻度に関する代名詞頻度情報と、上記受付ステップにより受け付けられた音声のトーンに関するトーン情報とを取得する情報取得ステップと、テキストデータ内における代名詞の頻度に関する参照用代名詞頻度情報と、音声のトーンに関する参照用トーン情報とを有する組み合わせと、認知症の兆候の判別類型との3段階以上の連関度を参照し、上記情報取得ステップにより取得された代名詞頻度情報とトーン情報とに基づき、上記被検者の認知症の兆候を判別する判別ステップとをコンピュータに実行させることを特徴とする。
特段のスキルや経験が無くても、被検者の認知症の兆候を自動的かつ高精度に判別することが可能となる。
本発明を適用したシステムの全体構成を示すブロック図である。 探索装置の具体的な構成例を示す図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。
以下、本発明を適用した認知症兆候判別プログラムについて、図面を参照しながら詳細に説明をする。
図1は、本発明を適用した認知症兆候判別プログラムが実装される認知症兆候判別システム1の全体構成を示すブロック図である。認知症兆候判別システム1は、情報取得部9と、情報取得部9に接続された探索装置2と、探索装置2に接続されたデータベース3とを備えている。
情報取得部9は、本システムを活用する者が各種コマンドや情報を入力するためのデバイスであり、具体的にはキーボードやボタン、タッチパネル、マウス、スイッチ等により構成される。情報取得部9は、テキスト情報を入力するためのデバイスに限定されるものではなく、マイクロフォン等のような音声を検知してこれをテキスト情報に変換可能なデバイスで構成されていてもよい。また情報取得部9は、カメラ等の画像を撮影可能な撮像装置として構成されていてもよい。情報取得部9は、紙媒体の書類から文字列を認識できる機能を備えたスキャナで構成されていてもよい。また情報取得部9は、後述する探索装置2と一体化されていてもよい。情報取得部9は、検知した情報を探索装置2へと出力する。また情報取得部9は地図情報をスキャニングすることで位置情報を特定する手段により構成されていてもよい。また情報取得部9は、温度センサ、湿度センサ、流量センサ、その他物質や物性を特定することが可能なセンサも含む。情報取得部9は、インターネット上のサイトに掲載されている文字列やデータを自動的に取り込んでくる手段で構成されていてもよい。
データベース3は、認知症兆候判別を行う上で必要な様々な情報が蓄積される。認知症兆候判別を行う上で必要な情報としては、テキストデータ内における代名詞の頻度に関する参照用代名詞頻度情報、音声のトーンに関する参照用トーン情報、被検者の表情を撮像した表情画像情報、アクションを規定するインテントに関する参照用インテント情報、過去の被検者の脳波に関する参照用脳波情報、被検者の属性に関する参照用属性情報等に対して判別された認知症の兆候とのデータセットが記憶されている。
つまり、データベース3には、このような参照用代名詞頻度情報、参照用トーン情報、表情画像情報、参照用インテント情報、参照用脳波情報、参照用属性情報と、被検者の認知症の兆候とが互いに紐づけられて記憶されている。
探索装置2は、例えば、パーソナルコンピュータ(PC)等を始めとした電子機器で構成されているが、PC以外に、携帯電話、スマートフォン、タブレット型端末、ウェアラブル端末等、他のあらゆる電子機器で具現化されるものであってもよい。ユーザは、この探索装置2による探索解を得ることができる。
図2は、探索装置2の具体的な構成例を示している。この探索装置2は、探索装置2全体を制御するための制御部24と、操作ボタンやキーボード等を介して各種制御用の指令を入力するための操作部25と、有線通信又は無線通信を行うための通信部26と、各種判断を行う推定部27と、ハードディスク等に代表され、実行すべき検索を行うためのプログラムを格納するための記憶部28とが内部バス21にそれぞれ接続されている。さらに、この内部バス21には、実際に情報を表示するモニタとしての表示部23が接続されている。
制御部24は、内部バス21を介して制御信号を送信することにより、探索装置2内に実装された各構成要素を制御するためのいわゆる中央制御ユニットである。また、この制御部24は、操作部25を介した操作に応じて各種制御用の指令を内部バス21を介して伝達する。
操作部25は、キーボードやタッチパネルにより具現化され、プログラムを実行するための実行命令がユーザから入力される。この操作部25は、上記実行命令がユーザから入力された場合には、これを制御部24に通知する。この通知を受けた制御部24は、推定部27を始め、各構成要素と協調させて所望の処理動作を実行していくこととなる。この操作部25は、前述した情報取得部9として具現化されるものであってもよい。
推定部27は、探索解を推定する。この推定部27は、推定動作を実行するに当たり、必要な情報として記憶部28に記憶されている各種情報や、データベース3に記憶されている各種情報を読み出す。この推定部27は、人工知能により制御されるものであってもよい。この人工知能はいかなる周知の人工知能技術に基づくものであってもよい。
表示部23は、制御部24による制御に基づいて表示画像を作り出すグラフィックコントローラにより構成されている。この表示部23は、例えば、液晶ディスプレイ(LCD)等によって実現される。
記憶部28は、ハードディスクで構成される場合において、制御部24による制御に基づき、各アドレスに対して所定の情報が書き込まれるとともに、必要に応じてこれが読み出される。また、この記憶部28には、本発明を実行するためのプログラムが格納されている。このプログラムは制御部24により読み出されて実行されることになる。
上述した構成からなる認知症兆候判別システム1における動作について説明をする。
認知症兆候判別システム1では、例えば図3に示すように、参照用代名詞頻度情報と、参照用トーン情報との組み合わせが形成されていることが前提となる。
参照用代名詞頻度情報は、認知症の兆候を判別する被験者が話をした音声をテキストデータに変換したとき、当該テキストデータ内に代名詞がどの程度含まれているかを示す情報である。例えば、被検者が「私は、明日、藤本君と、新幹線で、13時までに、大阪へ、行く」という話をするのと「私は、明日、あれと、あれで、大阪へ行く」というのでは、前者の方が意味が明確であるのに対して、後者は意味が不明確になってしまう。認知症の患者は、自らが発する音声のテキストデータ中における代名詞の割合が高くなる。これをテキストデータ単位で抽出することで、参照用代名詞頻度情報とする。
実際にテキストデータ内の代名詞の頻度を定量化する上で、テキストデータの文節数、単語数、格成分の数、名詞句の数、文字数をカウントすることでテキストデータ全体のボリュームを検出するようにしてもよい。そして、このテキストデータ全体のボリュームに対して、これに含まれる代名詞のボリュームを同様に、文節数、単語数、格成分の数、名詞句の数、文字数等を介してカウントする。そして、テキストデータ全体のボリュームに対する代名詞のボリュームの比率を上述した頻度として検出する。これらのテキストデータ全体並びに代名詞のボリュームを計測する上での単位(文節数、単語数、格成分の数、名詞句の数、文字数等)は互いに共通化させることが前提となる。
本発明においては、この参照用代名詞頻度情報を検出する上で、過去の被検者の音声の入力を受け付ける。この入力はマイクロフォン等を介して受け付けるようにしてもよい。そして、この被検者の声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる代名詞を抽出する。代名詞は、「あれ」、「それ」、「これ」等の文言を形態素解析により抽出する。また、文節構造体(格成分、名詞句等)を抽出する際も同様に形態素解析を利用する。
参照用トーン情報とは、過去の被検者から抽出した音声のトーンに関する情報である。この音声のトーンは、例えば、音の高低(音波の1秒間あたりの振動回数、つまり周波数)や音そのもの、或いは音の強弱を指す。音声のトーンは、一般的な音声検出器を通じて、その高低や強弱を検出し、解析するようにしてもよい。
参照用トーン情報は、参照用代名詞頻度情報におけるテキストデータと連動させ、紐付けておくようにしてもよい。例えば、「私は、明日、あれと、あれで、大阪へ行く」という文言において、「明日」、「あれと」等の各名詞句(格成分)に対して、それぞれ音声のトーンが紐付けられ、参照用トーン情報とされていてもよい。
入力データとしては、このような参照用代名詞頻度情報と、参照用トーン情報が並んでいる。このような入力データとしての、参照用代名詞頻度情報に対して、参照用トーン情報が組み合わさったものが、図3に示す中間ノード61である。各中間ノード61は、更に出力に連結している。この出力においては、認知症の兆候の判別類型A〜Eが表示されている。この認知症の兆候の判別類型は、それぞれ認知症の兆候のあらゆる類型を示すものである。認知症の兆候の判別類型は、例えばAは、「異常なし」、Bは、「重度の認知症」、Cは、「認知症ではないが、その兆候がある予備群」等である。
参照用代名詞頻度情報と、参照用トーン情報との各組み合わせ(中間ノード)は、この出力解としての、認知症の兆候の判別類型に対して3段階以上の連関度を通じて互いに連関しあっている。参照用代名詞頻度情報と、参照用トーン情報がこの連関度を介して左側に配列し、認知症の兆候の判別類型A、B、C、D、E、・・・が連関度を介して右側に配列している。連関度は、左側に配列された参照用代名詞頻度情報と、参照用トーン情報に対して、何れの認知症の兆候の判別類型と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用代名詞頻度情報と、参照用トーン情報が、いかなる認知症の兆候の判別類型に紐付けられる可能性が高いかを示す指標であり、各参照用代名詞頻度情報と、参照用トーン情報から、被検者にとって最も該当可能性が高い認知症の兆候の判別類型を選択する上での的確性を示すものである。図3の例では、連関度としてw13〜w22が示されている。このw13〜w22は以下の表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力としての認知症の兆候の判別類型と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力としての認知症の兆候の判別類型と互いに関連度合いが低いことを示している。
Figure 0006849255
探索装置2は、このような図3に示す3段階以上の連関度w13〜w22を予め取得しておく。つまり探索装置2は、実際の探索解の判別を行う上で参照用代名詞頻度情報と参照用トーン情報、並びにその場合の認知症の兆候の判別類型の何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図3に示す連関度を作り上げておく。
これらのデータを蓄積する過程では、実際に認知症を患った過去の被検者、又は認知症には陥っていない過去の被検者、更には認知症になっていないが、その予備群になっている過去の被検者から、それぞれ参照用代名詞頻度情報と、参照用トーン情報を検出する。これと共に、実際にその被検者が、認知症の兆候について専門家や医師により判別された結果を、予め規定された判別類型に当てはめ、これをデータ化し、これと、上述した参照用代名詞頻度情報と、参照用トーン情報とのデータセットを学習させるようにしてもよい。
なお、この学習データを構築する過程において、実際に被検者からデータを抽出する場合に限定されるものではなく、架空の被検者を想定し、ある参照用代名詞頻度情報と、参照用トーン情報であった場合に、実際にどのような認知症の兆候の判別類型に当てはめるかを判断してデータ化し、これを学習させるようにしてもよい。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用代名詞頻度情報P01で、参照用トーン情報P16である場合に、その認知症の兆候の判別類型を過去のデータから分析する。Aの事例が多い場合には、このAにつながる連関度をより高く設定し、Bの事例が多く、Aの事例が少ない場合には、Bにつながる連関度を高くし、Aにつながる連関度を低く設定する。例えば中間ノード61aの例では、認知症の兆候の判別類型AとBの出力にリンクしているが、以前の事例から認知症の兆候の判別類型Aにつながるw13の連関度を7点に、認知症の兆候の判別類型Bにつながるw14の連関度を2点に設定している。
また、この図3に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
図3に示す連関度の例で、ノード61bは、参照用代名詞頻度情報P01に対して、参照用トーン情報P14の組み合わせのノードであり、認知症の兆候の判別類型Cの連関度がw15、認知症の兆候の判別類型Eの連関度がw16となっている。ノード61cは、参照用代名詞頻度情報P02に対して、参照用トーン情報P15、P17の組み合わせのノードであり、認知症の兆候の判別類型Bの連関度がw17、認知症の兆候の判別類型Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから認知症の兆候の判別類型提案のための探索を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、新たに認知症の兆候の判別類型の提案を行う、新たな被検者から代名詞頻度情報に加え、トーン情報を取得する。このような代名詞頻度情報に加え、トーン情報の取得方法は、上述した参照用代名詞頻度情報、参照用トーン情報と同様である。
このようにして新たに取得した代名詞頻度情報、トーン情報に基づいて、最適な認知症の兆候の判別類型を探索する。かかる場合には、予め取得した図3(表1)に示す連関度を参照する。例えば、新たに取得した代名詞頻度情報がP02と同一かこれに類似するものである場合であって、トーン情報がP17と同一かこれに類似する場合には、連関度を介してノード61dが関連付けられており、このノード61dは、認知症の兆候の判別類型Cがw19、認知症の兆候の判別類型Dが連関度w20で関連付けられている。かかる場合には、連関度の最も高い認知症の兆候の判別類型Cを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる認知症の兆候の判別類型Dを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
また、入力から伸びている連関度w1〜w12の例を以下の表2に示す。
Figure 0006849255
この入力から伸びている連関度w1〜w12に基づいて中間ノード61が選択されていてもよい。つまり連関度w1〜w12が大きいほど、中間ノード61の選択における重みづけを重くしてもよい。しかし、この連関度w1〜w12は何れも同じ値としてもよく、中間ノード61の選択における重みづけは何れも全て同一とされていてもよい。
図4は、上述した参照用代名詞頻度情報と、参照用表情画像情報との組み合わせと、当該組み合わせに対する認知症の兆候の判別類型との3段階以上の連関度が設定されている例を示している。
参照用表情画像情報は、参照用代名詞頻度情報を取得する被検者の表情の画像に関する情報である。参照用表情画像情報は、カメラにより被検者の表情を撮像することで得られた画像データを解析することで、その認知症を検知する上で特徴的な部分を抽出するようにしてもよい。仮に認知症の患者が表情において特有の笑みを見せる場合があると仮定したとき、その特有の笑みを顔画像を解析することで、その有無を検出するようにしてもよい。また、この参照用表情画像情報は、静止画のみならず動画で構成してもよい。動画の場合には、参照用代名詞頻度情報におけるテキストデータと連動させ、紐付けておくようにしてもよい。例えば、「私は、明日、あれと、あれで、大阪へ行く」という文言において、「明日」、「あれと」等の各名詞句(格成分)に対して、それぞれ動画の内容が時系列的に紐付けられ、参照用表情画像情報とされていてもよい。このような参照用表情画像情報、表情画像情報の取り込み方法は、画像解析以外に、必要に応じてディープラーニング技術を利用し、解析画像の特徴量に基づいて自動判別し、データ化してもよい。
図4の例では、入力データとして例えば参照用代名詞頻度情報P01〜P03、参照用表情画像情報P18〜21であるものとする。このような入力データとしての、参照用代名詞頻度情報に対して、参照用表情画像情報が組み合わさったものが、図5に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、認知症の兆候の判別類型が表示されている。
参照用代名詞頻度情報と参照用表情画像情報との各組み合わせ(中間ノード)は、この出力解としての、認知症の兆候の判別類型に対して3段階以上の連関度を通じて互いに連関しあっている。参照用代名詞頻度情報と参照用表情画像情報がこの連関度を介して左側に配列し、認知症の兆候の判別類型が連関度を介して右側に配列している。連関度は、左側に配列された参照用代名詞頻度情報と参照用表情画像情報に対して、認知症の兆候の判別類型と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用代名詞頻度情報と参照表情画像情報が、いかなる認知症の兆候の判別類型に紐付けられる可能性が高いかを示す指標であり、参照用代名詞頻度情報と参照用表情画像情報から最も確からしい各認知症の兆候の判別類型を選択する上での的確性を示すものである。代名詞頻度情報に加え、実際の表情画像がいかなる状態にあるのかに応じて、探索解は変化する。このため、これらの参照用代名詞頻度情報と参照用表情画像情報の組み合わせで、最適な認知症の兆候の判別類型を探索していくこととなる。
図4の例では、連関度としてw13〜w22が示されている。このw13〜w22は表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力と互いに関連度合いが低いことを示している。
探索装置2は、このような図4に示す3段階以上の連関度w13〜w22を予め取得しておく。つまり探索装置2は、実際の探索解の判別を行う上で、参照用代名詞頻度情報と参照用表情画像情報、並びにその場合の認知症の兆候の判別類型が何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図4に示す連関度を作り上げておく。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用代名詞頻度情報P01で、参照用表情画像情報P20である場合に、その認知症の兆候の判別類型を過去のデータから分析する。例えば中間ノード61aの例では、認知症の兆候の判別類型AとBの出力にリンクしているが、以前の事例から認知症の兆候の判別類型Aにつながるw13の連関度を7点に、認知症の兆候の判別類型Bにつながるw14の連関度を2点に設定している。
図4に示す連関度の例で、ノード61bは、参照用代名詞頻度情報P01に対して、参照用表情画像情報P18の組み合わせのノードであり、認知症の兆候の判別類型Cの連関度がw15、認知症の兆候の判別類型Eの連関度がw16となっている。ノード61cは、参照用代名詞頻度情報P02に対して、参照用表情画像情報P19、P21の組み合わせのノードであり、認知症の兆候の判別類型Bの連関度がw17、認知症の兆候の判別類型Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから助言を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、上述した代名詞頻度情報に加え、新たに認知症の兆候の判別類型を検査する被検者に関する表情画像情報を取得する。表情画像情報は、参照用表情画像情報に対応したものである。
このようにして新たに取得した代名詞頻度情報、表情画像情報に基づいて、信用度を探索する。かかる場合には、予め取得した図4(表1)に示す連関度を参照する。例えば、新たに取得した代名詞頻度情報がP02と同一かこれに類似するものである場合であって、表情画像情報がP21である場合には、連関度を介してノード61dが関連付けられており、このノード61dは、認知症の兆候の判別類型Cがw19、認知症の兆候の判別類型Dが連関度w20で関連付けられている。かかる場合には、連関度の最も高い認知症の兆候の判別類型Cを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる認知症の兆候の判別類型Dを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
なお、参照用代名詞頻度情報の代替として、以下に説明する参照用インテント情報を利用するようにしてもよい。この参照用インテント情報とは、テキストデータに含まれる処理動作単位で管理される情報であり、アクション名を規定するものである。
インテントは、通常、業務処理(処理動作)を特定するアクションを規定するものである。例えば、「ゴミ箱に捨てる」、「ご飯を食べる」、「テレビを見る」、「買い物に行く」、「電車に乗る」、「音楽を聴く」等、あらゆるアクションがインテントとして規定されている。
テキストデータを形態素解析し、これらに対してそれぞれインテントを割り当てる。このインテントの割り当ては、予め作成して保存したインテントテーブルを参照する。
インテントテーブルには、形態素解析をした文言がいずれのインテントに含まれるかが定義されている。例えばインテント「買い物に行く」であれば、これに含まれる形態素解析した文言として「買い物に行く」以外に「物買いに行く」「お使いに行って来る」「買いに行く」「調達してくる」等、様々なものが含まれる。同様にインテント「電車に乗る」であれば、これに含まれる形態素解析した文言としては「山手線で行く」「中央線に乗る」「電車を使う」「電車を利用する」等、様々なものが含まれる。
インテントテーブルには、このような各インテントに対して形態素解析した様々な文言が紐付けられて記録されており、これを読み出すことで、形態素解析した文言それぞれにインテントを割り当てることが可能となる。
図5に示すように、このような各インテントからなる参照用インテント情報と、参照用表情画像情報との組み合わせと、出力データとしての、認知症の兆候の判別類型が互いに中間ノード61の連関度を介して関連付けられて学習させておく。
そして、新たに被検者からインテント情報と表情画像情報とを抽出し、これに対応する参照用インテント情報を介して探索解としての認知症の兆候を分析する。
なお、参照用インテント情報と、参照用トーン情報との組み合わせと、出力データとしての、認知症の兆候の判別類型が互いに中間ノード61の連関度を介して関連付けられて学習させておくことで、新たに被検者からインテント情報と、トーン情報が入力された場合に、同様に探索解を探索することも可能となる。
図6は、上述した参照用代名詞頻度情報と、参照用トーン情報に加えて、更に参照用脳波情報との組み合わせと、当該組み合わせに対する認知症の兆候の判別類型との3段階以上の連関度が設定されている例を示している。
参照用脳波情報は、被検者の脳波に関する情報である。被検者の脳波は、市販されている脳波計から計測することができる。このような参照用脳波情報を組み合わせて判断することで認知症の兆候を把握することができる場合もあることから、これを説明変数として加えている。この参照用脳波情報は、時系列的な変化を捉えた情報で構成してもよい。係る場合には、参照用代名詞頻度情報におけるテキストデータと連動させ、紐付けておくようにしてもよい。例えば、「私は、明日、あれと、あれで、大阪へ行く」という文言において、「明日」、「あれと」等の各名詞句(格成分)に対して、時系列的な脳波の変化が紐付けられ、参照用代名詞頻度情報とされていてもよい。
かかる場合において、連関度は、図6に示すように、参照用代名詞頻度情報と、参照用トーン情報と、参照用脳波情報との組み合わせの集合が上述と同様に中間ノードのノード61a〜61eとして表現されることとなる。
例えば、図6において、ノード61cは、参照用代名詞頻度情報P02が連関度w3で、参照用トーン情報P15が連関度w7で、参照用脳波情報Wが連関度w11で連関している。同様にノード61eは、参照用代名詞頻度情報P03が連関度w5で、参照用トーン情報P15が連関度w8で、参照用脳波情報Vが連関度w10で連関している。
このような連関度が設定されている場合も同様に、新たに検査対象の被検者から取得した代名詞頻度情報と、トーン情報と、脳波情報に基づいて、認知症の兆候を判別する。
この認知症の兆候の判別類型を判別する上で予め取得した図6に示す連関度を参照する。例えば、代名詞頻度情報が参照用代名詞頻度情報P02に同一又は類似で、取得したトーン情報が参照用トーン情報P15と同一、類似であることが特定でき、更に取得した脳波情報が、参照用脳波情報Wであることが特定できた場合、その組み合わせはノード61cが関連付けられており、このノード61cは、認知症の兆候の判別類型Bが連関度w17で、また認知症の兆候の判別類型Dが連関度w18で関連付けられている。このような連関度の結果、w17、w18に基づいて、実際にその新たに代名詞頻度情報と、トーン情報と、脳波情報とから認知症の兆候の判別類型を求めていくことになる。
参照用代名詞頻度情報の代替として、参照用インテント情報を用いる場合も同様に買い探索を行うことができる。
図7は、上述した参照用代名詞頻度情報と、参照用トーン情報に加えて、更に参照用属性情報との組み合わせと、当該組み合わせに対する認知症の兆候の判別類型との3段階以上の連関度が設定されている例を示している。
参照用属性情報は、被検者の属性を示す情報である。被検者の属性とは、被検者の年齢、性別、職業、現在行っている社会活動、過去から現在に至るまでの認知症に関係する行動や言動に関する情報、認知症以外の各種疾患等に関する情報も含まれる。
かかる場合において、連関度は、図7に示すように、参照用代名詞頻度情報と、参照用トーン情報と、参照用属性情報との組み合わせの集合が上述と同様に中間ノードのノード61a〜61eとして表現されることとなる。
例えば、図7において、ノード61cは、参照用代名詞頻度情報P02が連関度w3で、参照用トーン情報P15が連関度w7で、参照用属性情報Wが連関度w11で連関している。同様にノード61eは、参照用代名詞頻度情報P03が連関度w5で、参照用トーン情報P15が連関度w8で、参照用属性情報Vが連関度w10で連関している。
このような連関度が設定されている場合も同様に、新たに被検者から取得した代名詞頻度情報と、トーン情報と、属性情報に基づいて判別する。
この認知症の判別類型を判別する上で予め取得した図7に示す連関度を参照する。例えば、代名詞頻度情報が参照用代名詞頻度情報P02に同一又は類似で、取得したトーン情報が参照用トーン情報P15と同一、類似であることが特定でき、更に取得した属性情報が、参照用属性情報Wであることが特定できた場合、その組み合わせはノード61cが関連付けられており、このノード61cは、判別類型Bが連関度w17で、また判別類型Dが連関度w18で関連付けられている。このような連関度の結果、w17、w18に基づいて、実際にその新たに代名詞頻度情報と、トーン情報と、属性情報とに基づき、新たな被検者の判別類型を求めていくことになる。
また、図9に示すように、参照用情報Uとして、参照用代名詞頻度情報、参照用トーン情報、表情画像情報、参照用インテント情報、参照用脳波情報、参照用属性情報で構成し、参照用情報Vとして、参照用情報Uと組み合わせて連関度を構成する参照用代名詞頻度情報、参照用トーン情報、表情画像情報、参照用インテント情報、参照用脳波情報、参照用属性情報とし、これらの組み合わせの連関度に基づいて判別するようにしてもよい。出力解は、上述した各認知症の兆候の判別類型に該当する。
このとき、参照用情報Uについて得られた出力をそのまま入力データとして、参照用情報Vとの組み合わせの中間ノード61を介して出力と関連付けられていてもよい。例えば、参照用情報Uについて、出力解を出した後、これをそのまま入力として、他の参照用情報Vとの間での連関度を利用し、出力を探索するようにしてもよい。
なお本発明は、探索解として、判別類型を探索する場合に限定されるものではなく、図10に示すように、判別類型に応じた処方を予め学習させておくことで、処方を探索解として出力することができる。いかなる判別類型に対していかなる処方が効果的かを予め検証した上で、判別類型毎に効果的な処方を紐付けておく。そして、上述と同様に判別類型を探索し、探索した判別類型に紐付けられた処方を判別類型と共に、或いは判別類型の代替として出力してするようにしてもよい。また、判別類型の代替として、この処方そのものを上述した参照用情報とのデータセットとして学習させるようにしてもよい。これにより、被検者から取得した入力データが入力された場合、より効果的な処方がストレートに出力されることとなる。
図10は、参照用代名詞頻度情報と、参照用トーン情報との組み合わせにより連関度を形成する場合の例を示しているが、これに限定されるものではなく、上述した全ての参照用情報を入力データとした連関度についても同様に、処方そのものを上述した参照用情報とのデータセットとして学習させるようにしてもよいことは勿論である。
上述した連関度においては、10段階評価で連関度を表現しているが、これに限定されるものではなく、3段階以上の連関度で表現されていればよく、逆に3段階以上であれば100段階でも1000段階でも構わない。一方、この連関度は、2段階、つまり互いに連関しているか否か、1又は0の何れかで表現されるものは含まれない。
上述した構成からなる本発明によれば、特段のスキルや経験が無くても、誰でも手軽に認知症の判別類型の探索を行うことができる。また本発明によれば、この探索解の判断を、人間が行うよりも高精度に行うことが可能となる。更に、上述した連関度を人工知能(ニューラルネットワーク等)で構成することにより、これを学習させることでその判別精度を更に向上させることが可能となる。
なお、上述した入力データ、及び出力データは、学習させる過程で完全に同一のものが存在しない場合も多々あることから、これらの入力データと出力データを類型別に分類した情報であってもよい。つまり、入力データを構成する情報P01、P02、・・・・P15、16、・・・は、その情報の内容に応じて予めシステム側又はユーザ側において分類した基準で分類し、その分類した入力データと出力データとの間でデータセットを作り、学習させるようにしてもよい。
また、本発明によれば、3段階以上に設定されている連関度を介して最適な解探索を行う点に特徴がある。連関度は、上述した10段階以外に、例えば0〜100%までの数値で記述することができるが、これに限定されるものではなく3段階以上の数値で記述できるものであればいかなる段階で構成されていてもよい。
このような3段階以上の数値で表される連関度に基づいてより信用度に関する信憑性が高く、誤認の低い信用度を判別することで、探索解の可能性の候補として複数考えられる状況下において、当該連関度の高い順に探索して表示することも可能となる。
これに加えて、本発明によれば、連関度が1%のような極めて低い出力の判別結果も見逃すことなく判断することができる。連関度が極めて低い判別結果であっても僅かな兆候として繋がっているものであり、何十回、何百回に一度は、その判別結果として役に立つ場合もあることをユーザに対して注意喚起することができる。
更に本発明によれば、このような3段階以上の連関度に基づいて探索を行うことにより、閾値の設定の仕方で、探索方針を決めることができるメリットがある。閾値を低くすれば、上述した連関度が1%のものであっても漏れなく拾うことができる反面、より適切な判別結果を好適に検出できる可能性が低く、ノイズを沢山拾ってしまう場合もある。一方、閾値を高くすれば、最適な探索解を高確率で検出できる可能性が高い反面、通常は連関度は低くてスルーされるものの何十回、何百回に一度は出てくる好適な解を見落としてしまう場合もある。いずれに重きを置くかは、ユーザ側、システム側の考え方に基づいて決めることが可能となるが、このような重点を置くポイントを選ぶ自由度を高くすることが可能となる。
更に本発明では、上述した連関度を更新させるようにしてもよい。この更新は、例えばインターネットを始めとした公衆通信網を介して提供された情報を反映させるようにしてもよい。また代名詞頻度情報、トーン情報、表情画像情報、インテント情報、脳波情報、属性情報に関する知見、情報、データを取得した場合、これらに応じて連関度を上昇させ、或いは下降させる。
つまり、この更新は、人工知能でいうところの学習に相当する。新たなデータを取得し、これを学習済みデータに反映させることを行っているため、学習行為といえるものである。
また、この連関度の更新は、公衆通信網から取得可能な情報に基づく場合以外に、専門家による研究データや論文、学会発表や、新聞記事、書籍等の内容に基づいてシステム側又はユーザ側が人為的に、又は自動的に更新するようにしてもよい。これらの更新処理においては人工知能を活用するようにしてもよい。
また学習済モデルを最初に作り上げる過程、及び上述した更新は、教師あり学習のみならず、教師なし学習、ディープラーニング、強化学習等を用いるようにしてもよい。教師なし学習の場合には、入力データと出力データのデータセットを読み込ませて学習させる代わりに、入力データに相当する情報を読み込ませて学習させ、そこから出力データに関連する連関度を自己形成させるようにしてもよい。
1 認知症兆候判別システム
2 探索装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 推定部
28 記憶部
61 ノード

Claims (7)

  1. 被検者の認知症の兆候を判別する認知症兆候判別プログラムにおいて、
    被検者の音声の入力を受け付ける受付ステップと、
    上記受付ステップにより受け付けられた音声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる代名詞を抽出する抽出ステップと、
    上記抽出ステップにより抽出された抽出された代名詞の上記テキストデータ内における頻度に関する代名詞頻度情報と、上記受付ステップにより受け付けられた音声のトーンに関するトーン情報とを取得する情報取得ステップと、
    テキストデータ内における代名詞の頻度に関する参照用代名詞頻度情報と、音声のトーンに関する参照用トーン情報とを有する組み合わせと、認知症の兆候の判別類型との3段階以上の連関度を参照し、上記情報取得ステップにより取得された代名詞頻度情報とトーン情報とに基づき、上記被検者の認知症の兆候を判別する判別ステップとをコンピュータに実行させること
    を特徴とする認知症兆候判別プログラム。
  2. 被検者の認知症の兆候を判別する認知症兆候判別プログラムにおいて、
    被検者の音声の入力を受け付ける受付ステップと、
    上記受付ステップにより受け付けられた音声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる処理動作を特定するアクションを規定するインテントに関するインテント情報と、上記受付ステップにより受け付けられた音声のトーンに関するトーン情報とを取得する情報取得ステップと、
    処理動作を特定するアクションを規定するインテントに関する参照用インテント情報と、音声のトーンに関する参照用トーン情報とを有する組み合わせと、認知症の兆候の判別類型との3段階以上の連関度を参照し、上記情報取得ステップにより取得されたインテント情報とトーン情報とに基づき、上記被検者の認知症の兆候を判別する判別ステップとをコンピュータに実行させること
    を特徴とする認知症兆候判別プログラム。
  3. 上記情報取得ステップでは、更に被検者の脳波に関する脳波情報を取得し、
    上記判別ステップでは、過去の被検者の脳波に関する参照用脳波情報を更に有する上記組み合わせとの3段階以上の上記連関度を参照し、上記情報取得ステップにより取得された脳波情報とに基づき、上記被検者の認知症の兆候を判別すること
    を特徴とする請求項1又は2記載の認知症兆候判別プログラム。
  4. 上記情報取得ステップでは、更に被検者の属性に関する属性情報を取得し、
    上記判別ステップでは、過去の被検者の属性に関する参照用属性情報を更に有する上記組み合わせとの3段階以上の上記連関度を参照し、上記情報取得ステップにより取得された属性情報とに基づき、上記被検者の認知症の兆候を判別すること
    を特徴とする請求項1又は2項記載の認知症兆候判別プログラム。
  5. 上記判別ステップでは、人工知能におけるニューラルネットワークのノードの各出力の重み付け係数に対応する上記連関度を利用すること
    を特徴とする請求項1〜4のうち何れか1項記載の認知症兆候判別プログラム。
  6. 被検者の認知症の兆候に対する各処方を探索する認知症処方探索プログラムにおいて、
    被検者の音声の入力を受け付ける受付ステップと、
    上記受付ステップにより受け付けられた音声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる代名詞を抽出する抽出ステップと、
    上記抽出ステップにより抽出された抽出された代名詞の上記テキストデータ内における頻度に関する代名詞頻度情報と、上記受付ステップにより受け付けられた音声のトーンに関するトーン情報とを取得する情報取得ステップと、
    テキストデータ内における代名詞の頻度に関する参照用代名詞頻度情報と、音声のトーンに関する参照用トーン情報とを有する組み合わせと、認知症の処方との3段階以上の連関度を参照し、上記情報取得ステップにより取得された代名詞頻度情報とトーン情報とに基づき、上記被検者の認知症の処方を探索する探索ステップとをコンピュータに実行させること
    を特徴とする認知症処方探索プログラム。
  7. 被検者の認知症の兆候に対する各処方を探索する認知症処方探索プログラムにおいて、
    被検者の音声の入力を受け付ける受付ステップと、
    上記受付ステップにより受け付けられた音声をテキストデータに変換してこれを形態素解析することにより、当該テキストデータに含まれる処理動作を特定するアクションを規定するインテントに関するインテント情報と、上記受付ステップにより受け付けられた音声のトーンに関するトーン情報とを取得する情報取得ステップと、
    処理動作を特定するアクションを規定するインテントに関する参照用インテント情報と、音声のトーンに関する参照用トーン情報とを有する組み合わせと、認知症の処方との3段階以上の連関度を参照し、上記情報取得ステップにより取得されたインテント情報とトーン情報とに基づき、上記被検者の処方を探索する探索ステップとをコンピュータに実行させること
    を特徴とする認知症処方探索プログラム。
JP2020071528A 2020-04-13 2020-04-13 認知症兆候判別プログラム Active JP6849255B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020071528A JP6849255B1 (ja) 2020-04-13 2020-04-13 認知症兆候判別プログラム
JP2021000471A JP2021168901A (ja) 2020-04-13 2021-01-05 認知症兆候判別プログラム
PCT/JP2021/014695 WO2021210460A1 (ja) 2020-04-13 2021-04-07 認知症兆候判別プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071528A JP6849255B1 (ja) 2020-04-13 2020-04-13 認知症兆候判別プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021000471A Division JP2021168901A (ja) 2020-04-13 2021-01-05 認知症兆候判別プログラム

Publications (2)

Publication Number Publication Date
JP6849255B1 true JP6849255B1 (ja) 2021-03-24
JP2021166663A JP2021166663A (ja) 2021-10-21

Family

ID=74879309

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020071528A Active JP6849255B1 (ja) 2020-04-13 2020-04-13 認知症兆候判別プログラム
JP2021000471A Pending JP2021168901A (ja) 2020-04-13 2021-01-05 認知症兆候判別プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021000471A Pending JP2021168901A (ja) 2020-04-13 2021-01-05 認知症兆候判別プログラム

Country Status (2)

Country Link
JP (2) JP6849255B1 (ja)
WO (1) WO2021210460A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070668A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 음성 통화 정보를 이용한 알츠하이머병 진단 장치 및 방법
WO2015091223A1 (en) * 2013-12-17 2015-06-25 Koninklijke Philips N.V. System and method for assessing the cognitive style of a person
US10910105B2 (en) * 2017-05-31 2021-02-02 International Business Machines Corporation Monitoring the use of language of a patient for identifying potential speech and related neurological disorders
JP2019086868A (ja) * 2017-11-02 2019-06-06 エピジェライフ株式会社 情報処理装置及び情報処理プログラム
US20200046285A1 (en) * 2018-08-08 2020-02-13 International Business Machines Corporation Detection of a sign of cognitive decline focusing on change in topic similarity over conversations
JP6733891B2 (ja) * 2018-09-12 2020-08-05 株式会社Fronteo 認知症予測装置、予測モデル生成装置および認知症予測用プログラム
JP2020187267A (ja) * 2019-05-15 2020-11-19 エピジェライフ株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
WO2021210460A1 (ja) 2021-10-21
JP2021166663A (ja) 2021-10-21
JP2021168901A (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
JP5977898B1 (ja) 行動予測装置、行動予測装置の制御方法、および行動予測装置の制御プログラム
CN110570941B (zh) 一种基于文本语义向量模型评估心理状态的系统和装置
CN113827240B (zh) 情绪分类方法和情绪分类模型的训练方法、装置及设备
JP2021039637A (ja) 熱中症リスク判別プログラム及びシステム
JP6696654B1 (ja) 疲労度判別プログラム
JP2021096836A (ja) いじめ兆候判別プログラム及びシステム、いじめ判別プログラム及びシステム
JP6830685B1 (ja) リンゴ品質推定プログラム及びシステム
JP6849255B1 (ja) 認知症兆候判別プログラム
JP2022106065A (ja) 認知症兆候判別プログラム
WO2022102721A1 (ja) うつ状態判別プログラム
JP2021166664A (ja) 認知症経過判別プログラム
JP2022106064A (ja) 認知症兆候判別プログラム
JP2022106066A (ja) うつ病兆候判別プログラム
JP2022106067A (ja) うつ病兆候判別プログラム
JP6801902B1 (ja) 子供虐待兆候判別プログラム及びシステム
CN112309519B (zh) 基于多模型的电子病历用药结构化处理系统
JP2022106068A (ja) うつ病兆候判別プログラム
JP2021163006A (ja) 睡眠健康度判別プログラム
JP2022113072A (ja) 認知症兆候判別プログラム
JP2022112651A (ja) うつ病兆候判別プログラム
JP6755065B1 (ja) 疲労度判別プログラム
JP2022077195A (ja) うつ状態判別プログラム
CN112560434B (zh) 确定文本中要素属性冲突的方法、装置、设备和介质
Liang Research On Emotion Management Based on Speech Analysis for Nursing Homes
JP2020184304A (ja) 疲労度判別プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201014

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201014

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6849255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250