JP6306071B2 - 推定装置、推定プログラム、推定装置の作動方法および推定システム - Google Patents

推定装置、推定プログラム、推定装置の作動方法および推定システム Download PDF

Info

Publication number
JP6306071B2
JP6306071B2 JP2016022895A JP2016022895A JP6306071B2 JP 6306071 B2 JP6306071 B2 JP 6306071B2 JP 2016022895 A JP2016022895 A JP 2016022895A JP 2016022895 A JP2016022895 A JP 2016022895A JP 6306071 B2 JP6306071 B2 JP 6306071B2
Authority
JP
Japan
Prior art keywords
estimation
calculated
subject
feature
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016022895A
Other languages
English (en)
Other versions
JP2017140170A (ja
Inventor
修二 篠原
修二 篠原
光吉 俊二
俊二 光吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PST CORPORATION,INC.
Original Assignee
PST CORPORATION,INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2016022895A priority Critical patent/JP6306071B2/ja
Application filed by PST CORPORATION,INC. filed Critical PST CORPORATION,INC.
Priority to PCT/JP2017/003003 priority patent/WO2017138376A1/ja
Priority to CN201780010227.6A priority patent/CN108601567B/zh
Priority to EP17750101.2A priority patent/EP3417780B1/en
Priority to KR1020187025687A priority patent/KR102218214B1/ko
Priority to CA3014574A priority patent/CA3014574C/en
Priority to US16/074,351 priority patent/US11147487B2/en
Priority to RU2018131306A priority patent/RU2714663C1/ru
Priority to TW106104120A priority patent/TWI721095B/zh
Publication of JP2017140170A publication Critical patent/JP2017140170A/ja
Application granted granted Critical
Publication of JP6306071B2 publication Critical patent/JP6306071B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Description

本発明は、被験者の健康状態を推定する推定装置、推定プログラム、推定装置の作動方法および推定システムに関する。
人の脳の活動(すなわち、人の感情状態あるいは心身状態)は、人が発話する音声に現れることが知られている。例えば、人が発話した音声の信号からピッチ周波数等を算出し、ピッチ周波数等と感情状態との対応関係を示す情報と、算出したピッチ周波数等のパラメータとに基づいて、人の感情状態(あるいは心身状態)を推定する技術が提案されている(例えば、引用文献1参照)。
国際公開第2006/132159号
ピッチ周波数等のパラメータと感情状態との対応関係は、様々な状況や場面において発話された音声のサンプルデータを用いて、複数の人の各々に、各サンプルデータの音声を発話した人の感情状態(例えば、喜びや怒り等)を判定させることで生成される。すなわち、ピッチ周波数等のパラメータと感情状態との対応関係の生成には、可能な限り多くのサンプルデータを予め用意し、サンプルデータ毎に発話した人の感情状態を、複数の人それぞれに判定させることから、時間が掛かってしまう。また、複数の人それぞれが人の感情状態を主観的に判定することにより、ピッチ周波数等のパラメータと感情状態との対応関係に基づいて推定される感情状態あるいは心身状態は、客観性に欠けることがある。
また、生成された対応関係には、パラメータから感情状態を推定するための様々な閾値が設定されている。しかしながら、設定される閾値は、音声のデータに含まれるノイズや、音声のデータに対するダウンサンプリング等の処理による音質の劣化に対して、影響を受けやすいという問題がある。
一つの側面では、本件開示の推定方法、推定プログラム、推定装置および推定システムは、ピッチ周波数等のパラメータと感情状態との対応関係を示す情報を予め用意することなく、従来と比べて容易に被験者の心身状態を推定できる技術を提供することを目的とする。
一つの観点による推定装置は、被験者が発話した音声データを用いて複数の特徴量を算出して、算出した複数の特徴量のうち、他の特徴量との相関が無い、あるいは他の特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの特徴量を決定する第1算出部と第1算出部が決定した特徴量に基づいて被験者における心身状態を示す度合いを算出する第2算出部と第2算出部が算出した度合いに基づいて被験者における心身状態を推定する推定部とを有する。
別の観点による推定プログラムは、被験者が発話した音声データを用いて複数の特徴量を算出して、算出した複数の特徴量のうち、他の特徴量との相関が無い、あるいは他の特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの特徴量を決定し、決定した特徴量に基づいて被験者における心身状態を示す度合いを算出し、算出した度合いに基づいて被験者における心身状態を推定する処理をコンピュータに実行させる。
別の観点による推定装置の作動方法は、被験者の心身状態を推定する推定装置の作動方法において、被験者が発話した音声データを用いて複数の特徴量を算出して、算出した複数の特徴量のうち、他の特徴量との相関が無い、あるいは他の特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの特徴量を決定し決定した特徴量に基づいて被験者における心身状態を示す度合いを算出出した度合いに基づいて被験者における心身状態を推定す
別の観点による推定システムは、被験者が発話した音声データを取得する取得装置と、取得装置が取得した音声データを用いて複数の特徴量を算出して、算出した複数の特徴量のうち、他の特徴量との相関が無い、あるいは他の特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの特徴量を決定する第1算出部と、第1算出部が決定した特徴量に基づいて被験者における心身状態を示す度合いを算出する第2算出部と、第2算出部が算出した度合いに基づいて被験者における心身状態を推定する推定部とを含む推定装置とを有する。
本件開示の推定装置、推定プログラム、推定装置の作動方法および推定システムは、ピッチ周波数等のパラメータと感情状態との対応関係を示す情報を予め用意することなく、従来と比べて容易に被験者の心身状態を推定できる。
推定装置の一実施形態を示す図である。 推定装置の別の実施形態を示す図である。 図2に示した携帯通信端末を介して取得した音声データの一例を示す図である。 図2に示した第1算出部10aが算出した特徴量間における相関性を示す図である。 図4に示した特徴量間における相関性の続きを示す図である。 図2に示した推定システムにおける推定処理の一例を示す図である。
以下、図面を用いて実施形態について説明する。
図1は、推定装置および推定方法の一実施形態を示す。
図1に示した推定装置100は、CPU(Central Processing Unit)等の演算処理装置と、ハードディスク装置等の記憶装置とを有するコンピュータ装置等である。推定装置100は、例えば、演算処理装置が記憶装置に記憶された推定プログラムを実行することにより、第1算出部10、第2算出部20および推定部30として機能する。なお、第1算出部10、第2算出部20および推定部30は、ハードウェアにより実現されてもよい。
第1算出部10は、推定装置100の記憶装置に記憶された被験者が発話した音声データ、あるいはスマートフォン等の携帯通信端末を介して取得した被験者の音声データを用いて、音声のピッチ周波数や音声の強度等を算出する。そして、第1算出部10は、ピッチ周波数や音声の強度等の時間変化に基づいて、被験者の発話におけるピッチ周波数の検出頻度、および音声の強度の増加(または減少率)等を算出する。ピッチ周波数の検出頻度および音声の強度の増加率等は、音声の特徴量の一例である。
なお、第1算出部10は、ピッチ周波数の検出頻度および音声強度の増加率(または減少率)の少なくとも1つを算出してもよい。
第2算出部20は、算出したピッチ周波数の検出頻度等の特徴量に基づいて、被験者における心身状態を示す度合いを算出する。例えば、第2算出部20は、算出したピッチ周波数の検出頻度および音声強度の増加率等を加算した値を、被験者の心身状態を示す度合い(以下、元気度とも称される)として算出する。なお、第2算出部20は、ピッチ周波数の検出頻度あるいは強度の増加率等の少なくとも1つを、被験者の元気度としてもよい。また、第2算出部20は、ピッチ周波数の検出頻度あるいは強度の増加率等を、重み付け加算した値を被験者の元気度としてもよい。
推定部30は、算出した元気度に基づいて被験者における心身状態(例えば、うつ状態等か否か)を推定する。そして、推定装置100は、推定部30により推定された心身状態を示す情報を、外部の有機EL(Organic Electro-Luminescence)や液晶等のディスプレイに出力する。
なお、推定装置100の構成および動作は、図1に示した例に限定されない。例えば、推定装置100と、スマートフォン等の携帯通信端末と、有機EL等のディスプレイとを含めることで、推定システムとしてもよい。
以上、図1に示した実施形態では、推定装置100は、被験者の音声データを用いて、被験者の発話におけるピッチ周波数の検出頻度、および音声の強度の増加率等の特徴量を算出し、算出した特徴量に基づいて被験者の心身状態を示す元気度を算出する。そして、推定装置100は、算出した元気度に基づいて被験者の心身状態を推定する。これにより、推定装置100は、ピッチ周波数等のパラメータと感情状態との対応関係を示す情報を予め用意することなく、従来と比べて容易に被験者の心身状態を推定できる。また、元気度は算出した特徴量に基づいて算出されることから、推定装置100は、被験者の心身状態を客観的に評価することができる。また、推定装置100は、ピッチ周波数等のパラメータと感情状態との対応関係を示す情報を用いないため、ノイズ等の音質劣化に対する耐性を有する。
図2は、推定方法、推定装置および推定システムの別の実施形態を示す。
図2に示した推定システムSYSは、推定装置100aおよび携帯通信端末200を有する。推定装置100aと携帯通信端末200とは、有線または無線を介して接続される。なお、推定装置100aと携帯通信端末200とは、ネットワークを介して接続されてもよい。
携帯通信端末200は、携帯電話、スマートフォンあるいはタブレット型端末である。携帯通信端末200は、携帯通信端末200に含まれるマイクロホンを介して被験者PAが発話する音声の信号を取得し、取得した信号を所定のサンプリング周波数(例えば、11キロヘルツ等)でサンプリングすることでデジタル信号の音声データを生成する。そして、携帯通信端末200は、生成した音声データを推定装置100aに送信する。また、携帯通信端末200は、推定装置100aにより推定された結果を、携帯通信端末200に含まれる有機EL等のディスプレイに表示する。携帯通信端末200は、取得装置の一例である。
なお、携帯通信端末200の代わりに、マイクロホンが、有線または無線を介して、推定装置100aに接続されてもよい。この場合、推定装置100aは、マイクロホンからの音声の信号を、所定のサンプリング周波数でサンプリングし、デジタル信号の音声データを生成してもよい。
推定装置100aは、CPU等の演算処理装置と、ハードディスク装置等の記憶装置とを有するコンピュータ装置等である。推定装置100aは、例えば、演算処理装置が記憶装置に記憶された推定プログラムを実行することにより、第1算出部10a、第2算出部20aおよび推定部30aとして機能する。なお、第1算出部10a、第2算出部20aおよび推定部30aは、ハードウェアにより実現されてもよい。
なお、推定装置100aは、携帯通信端末200において実現されてもよい。すなわち、携帯通信端末200に含まれるCPUが、携帯通信端末200に含まれるメモリ等の記憶部に記憶された推定プログラムを実行することにより、携帯通信端末200は、第1算出部10a、第2算出部20aおよび推定部30aとして機能してもよい。
第1算出部10aは、携帯通信端末200から取得した被験者PAの音声データを用いて、音声のピッチ周波数や音声の強度等を算出する。そして、第1算出部10aは、算出したピッチ周波数や強度等の時間変化に基づいて、被験者PAの発話におけるピッチ周波数の検出頻度、および音声強度の増加率等の音声の特徴量を算出する。なお、第1算出部10aの動作については、図3で説明する。
第2算出部20aは、第1算出部10aが算出したピッチ周波数の検出頻度等の特徴量に基づいて、被験者PAにおける心身状態を示す度合い(元気度)を算出する。第2算出部20aの動作については、図4で説明する。
推定部30aは、第2算出部20aが算出した度合いに基づいて被験者PAにおける心身状態を推定する。そして、推定装置100aは、推定部30aにより推定された心身状態を示す情報を携帯通信端末200に出力し、携帯通信端末200に含まれる有機EL等のディスプレイに表示させる。
図3は、図2に示した携帯通信端末200を介して取得した音声データの一例を示す。図3(a)は、携帯通信端末200を介して取得した被験者PAが発話した音声の音圧の時間変化を示し、図3(b)は、被験者PAが発話した音声の強度の時間変化を示す。なお、図3の横軸は、時刻を示し、図3(a)の縦軸は、音声の音圧を示し、図3(b)の縦軸は、音声の強度PWを示す。音声の強度PWは、音圧の二乗のことである。
図3は、被験者PAによる発話の音声データのうち、“ありがとう”と発話した発話単位のデータを示す。時刻t0、t1、t2、t3、t4は、発話単位に含まれる“あ”、“り”、“が”、“と”、“う”の各語の発話の開始時刻を示す。なお、“ありがとう”の発話単位のうち、“り”の語を発話した音声データに対する第1算出部10aの算出処理について説明するが、第1算出部10aは、“ありがとう”の他の語および他の発話単位に対しても、同一または同様に、算出処理を実行する。
第1算出部10aは、例えば、携帯通信端末200から取得した音声データを用いて、ピッチ周波数、強度およびゼロ点交差数等を、ウィンドウWD毎に算出する。例えば、第1算出部10aは、取得した音声データを用いて、“ありがとう”等の発話単位のデータ毎に、ウィンドウWDの幅でFFT(Fast Fourier Transform)等のスペクトラム解析を実行し、パワースペクトルを算出する。第1算出部10aは、算出される音声の強度PWの値が大きなばらつきを示す場合があるため、音声の強度PWをウィンドウWD毎に平均をとって算出する。すなわち、図3(b)は、移動平均した音声の強度PWの時間変化を示す。
また、第1算出部10aは、算出したパワースペクトルに対して自己相関の処理を実行し、算出した自己相関係数の分布において隣接する極大値(または極小値)間の周波数の間隔に基づいて、ピッチ周波数を算出する。さらに、第1算出部10aは、各ウィンドウWDの音声データにおいて、音声の波形の音圧が基準圧力(例えば、“0”とする)を横切る回数を、ゼロ点交差数として算出する。
なお、ウィンドウWDの幅は、例えば、512等のサンプル数を有し、第1算出部10aは、ウィンドウWDの幅の4分の1等の所定の間隔でウィンドウWDを移動させて、ピッチ周波数等を、各ウィンドウWDで算出する。すなわち、図3(b)に示した時刻t1、t11、t12、t13、t14、t15、t16、t17、t18、t19、t2における強度PWは、“り”の語が発話された音声データを用いて、第1算出部10aが算出した強度を示す。そして、時刻t1、t11、t12、t13、t14、t15、t16、t17、t18、t19、t2の各々の時間間隔は、ウィンドウWDを移動させた所定の間隔と等しい。
また、第1算出部10aは、ピッチ周波数F0やテンポ等のパラメータを、音声データから算出してもよい。
次に、第1算出部10aは、“ありがとう”等の発話単位毎に算出したピッチ周波数、強度、ゼロ点交差数等に基づいて、被験者PAの発話におけるピッチ周波数の検出頻度、および強度PWの増加率等の特徴量を算出する。例えば、第1算出部10aは、発話単位の各々において、全てのウィンドウWDのうちピッチ周波数が算出されたウィンドウWDの割合を、ピッチ周波数の検出率を示すPITCH_RATEとして算出する。すなわち、PITCH_RATEは、被験者PAの音声において有声音(母音)が発話された割合を示す。第1算出部10aは、各発話単位のPITCH_RATEを、各発話単位の開始時刻(例えば、“ありがとう”の場合の時刻t0)や終了時刻(例えば、“ありがとう”の場合の時刻t5)等の時刻に対応付ける。そして、第1算出部10aは、被験者PAの発話におけるPITCH_RATEの時間変化を取得する。
また、第1算出部10aは、ウィンドウWD毎に算出したゼロ点交差数を用いて、隣接するウィンドウWDのゼロ点交差数との差分であるΔゼロ点交差数の各発話単位における、ばらつきの度合いを示すDELTA_ZERO_DIVを算出する。例えば、第1算出部10aは、互いに隣接するウィンドウWD間でゼロ点交差数の差分をそれぞれ求め、求めたゼロ点交差数の差分の標準偏差をDELTA_ZERO_DIVとして算出する。なお、第1算出部10aは、各ウィンドウWD間で求めたゼロ点交差数の差分の分散値を、DELTA_ZERO_DIVとして算出してもよい。あるいは、第1算出部10aは、各ウィンドウWD間で求めたゼロ点交差数の差分の平均値と、各ウィンドウWD間のゼロ点交差数の差分との差の絶対値を加算した値を、DELTA_ZERO_DIVとして算出してもよい。第1算出部10aは、各発話単位のDELTA_ZERO_DIVを、各発話単位の開始時刻や終了時刻等の時刻に対応付けて、被験者PAの発話におけるDELTA_ZERO_DIVの時間変化を取得する。
また、図3(b)に示すように、例えば、“ありがとう”の発話単位において、“あ”、“り”、“が”、“と”、“う”の各語の強度PWの時間変化は、強度が増加するAttackの領域と、強度が一定に保たれるKeepの領域と、強度が減少するDecayの領域とを有する。そこで、第1算出部10aは、Attackの領域およびDecayの領域における強度PWの傾きを算出する。例えば、第1算出部10aは、“り”の語で算出した強度PWのうち、Attackの領域に含まれる時刻t1の強度PW(t1)と、時刻t12の強度PW(t12)と、式(1)とを用いて、Attackの領域における強度PWの傾きδASを算出する。
δAS=(PW(t12)−PW(t1))/(t12−t1) …(1)
そして、第1算出部10aは、“ありがとう”の各語で算出した傾きδASの平均値を、“ありがとう”の発話単位のAttackの領域における強度PWの傾きATTACK_SLOPEとして算出する。そして、第1算出部10aは、各発話単位のATTACK_SLOPEを、各発話単位の開始時刻や終了時刻等の時刻に対応付けて、被験者PAの発話におけるATTACK_SLOPEの時間変化を取得する。
なお、第1算出部10aは、時刻t1の強度PW(t1)、時刻t11の強度PW(t11)および時刻t12の強度PW(t12)を用いて、“り”の語のAttackの領域における強度PWの傾きδASを算出してもよい。例えば、第1算出部10aは、時刻t1の強度PW(t1)と時刻t11の強度PW(t11)との間の強度の傾きと、時刻t11の強度PW(t11)と時刻t12の強度PW(t12)との間の強度の傾きとをそれぞれ算出する。そして、第1算出部10aは、算出した各強度の傾きの平均値を、“り”の語のAttackの領域における強度PWの傾きδASとして算出する。
一方、例えば、第1算出部10aは、“り”の語で算出した強度PWのうち、Decayの領域に含まれる時刻t18の強度PW(t18)と、時刻t2の強度PW(t2)と、式(2)とを用いて、Decayの領域における強度PWの傾きδDSを算出する。
δDS=(PW(t2)−PW(t18))/(t2−t18) …(2)
そして、第1算出部10aは、“ありがとう”の各語で算出した傾きδDSの平均値を、“ありがとう”の発話単位のDecayの領域における強度PWの傾きDECAY_SLOPEとして算出する。そして、第1算出部10aは、各発話単位のDECAY_SLOPEを、各発話単位の開始時刻や終了時刻等の時刻に対応付けて、被験者PAの発話におけるDECAY_SLOPEの時間変化を取得する。
なお、第1算出部10aは、時刻t18の強度PW(t18)、時刻t19の強度PW(t19)および時刻t2の強度PW(t2)を用いて、“り”の語のDecayの領域における強度PWの傾きδDSを算出してもよい。例えば、第1算出部10aは、時刻t18の強度PW(t18)と時刻t19の強度PW(t19)との間の強度の傾きと、時刻t19の強度PW(t19)と時刻t2の強度PW(t2)との間の強度の傾きとをそれぞれ算出する。そして、第1算出部10aは、算出した各強度の傾きの平均値を、“り”の語のDecayの領域における強度PWの傾きδDSとして算出する。
また、第1算出部10aは、図3(b)に示すように、発話単位“ありがとう”の各語の発話の終了時刻t1、t2、t3、t4、t5における強度PWの平均値を、DECAY_POWERとして算出する。第1算出部10aは、各発話単位のDECAY_POWERを、各発話単位の開始時刻や終了時刻等の時刻に対応付けて、被験者PAの発話におけるDECAY_POWERの時間変化を取得する。
なお、第1算出部10aは、DECAY_SLOPE_DIV、DELTA_ZERO_MAX_ABS、DELTA_ZERO_DIV_ABS、DECAY_COUNT、およびPOWER_PEAK_COUNT等の特徴量を算出してもよい。また、第1算出部10aは、DECAY_POWER_DIV、ATTACK_SLOPE_DIV、ATTACK_COUNT、およびPITCH_TIME_CORRE等の特徴量を算出してもよい。
なお、DECAY_SLOPE_DIVは、各発話単位におけるDECAY_SLOPEのばらつきの度合いを示す標準偏差や分散値等である。DELTA_ZERO_MAX_ABSは、各発話単位において算出された複数のDELTA_ZERO_DIVのうち、所定の強度以上の強度PWを有する音声データを用いて算出された最大のDELTA_ZERO_DIVの絶対値である。DELTA_ZERO_DIV_ABSは、DELTA_ZERO_DIVの絶対値である。DECAY_COUNTは、図3(b)に示すように、各発話単位の強度PWにおいて、Decayの領域でサンプリングされたデータ数である。
また、POWER_PEAK_COUNTは、各発話単位において、例えば、互いに隣接する3つのウィンドウWDにおいて算出された強度PWの時間変化が凸形状となる、1秒等の単位時間当たりの数である。なお、POWER_PEAK_COUNTを算出するにあたり、隣接するウィンドウWDの数は、3以上の複数でもよい。また、各ウィンドウWDの強度PWは、ノイズレベル以上であることが好ましい。
また、DECAY_POWER_DIVは、例えば、各発話単位におけるDECAY_POWERのばらつきの度合いを示す標準偏差や分散値等である。ATTACK_SLOPE_DIVは、各発話単位におけるATTACK_SLOPEのばらつきを示す標準偏差や分散値等である。ATTACK_COUNTは、図3(b)に示すように、各発話単位の強度PWにおいて、Attackの領域でサンプリングされたデータ数である。PITCH_TIME_CORREは、各発話単位において、ウィンドウWDを番号付けした場合に、ウィンドウWDの順番(すなわち時間経過)とピッチ周波数の時間変化との間の相関係数である。
図4および図5は、図2に示した第1算出部10aが算出した特徴量間における相関性を示す。特徴量間の相関性を示す相関テーブルCTは、LABEL、AUC(Area Under the Curve)およびDECAY_POWER等の複数の特徴量のそれぞれを記憶する領域を有する。LABELの領域には、DECAY_POWER等の特徴量を示す名称が格納される。
AUCの領域には、例えば、医師によってラベル(例えば、うつ状態か否か、脳梗塞か否か等)を付与された複数の被験者音声データを、LABEL領域の各特徴量を用いて分類した場合のROC曲線に対するAUCが格納される。すなわち、格納されるAUCの値は、各特徴量が有する被験者PAの心身状態を判定する能力の度合いを示す。なお、ROCは、Receiver Operating Characteristicの略である。
すなわち、例えば、AUCの値が0.7以上の特徴量は、単独で用いられた場合でも、被験者PAの心身状態を正しく判定でき、AUCの値が0.7より低い特徴量は、単独で用いられた場合、被験者PAの心身状態を正しく判定できないことを示す。相関テーブルCTでは、AUCの値を0.7以上有する特徴量を示す。
複数の特徴量の領域(以下、特徴量領域とも称される)の各々には、被験者PAの音声データを用いて算出された、各特徴量領域の特徴量が示す時間変化と、LABELの領域の各特徴量が示す時間変化との間の相互相関係数が格納される。なお、図4および図5に示した相関テーブルCTでは、相互相関係数の絶対値が所定の係数値、例えば、0.65以上を示す特徴量領域を網掛けで示している。これは、相互相関係数の絶対値が所定の係数値以上を示す、特徴量領域の特徴量とLABELの領域の特徴量とは、推定装置100aが、被験者PAの音声データを用いて、いずれか一方の特徴量を算出した場合、他方の特徴量を推定できることを示す。すなわち、推定装置100aは、図4および図5に示した相関テーブルCTのLABELの領域の特徴量のうち、一部の特徴量を算出することで、LABELの領域の全ての特徴量を算出するのと同等であることを示す。
そこで、推定装置100aは、図4および図5に示した相関テーブルCTに基づいて、LABELの領域の特徴量のうち、AUCの値が0.7以上と大きく、かつ他の特徴量との相関性が無い、あるいは他の特徴量との相関性が所定の係数値より小さい特徴量を選択する。例えば、推定装置100aは、LABELの領域において網掛けで示すDECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの4つの特徴量を選択する。
なお、推定装置100aは、主成分分析法、あるいは自己符号化器等のニューラルネットを用いて、AUCの値が0.7以上と大きく、かつ他の特徴量との関係性が無い、あるいは関係性が低い特徴量を選択してもよい。
第1算出部10aは、被験者PAの音声データを用いて、選択されたDECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの特徴量を算出する。第2算出部20aは、式(1)を用いて、算出されたDECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの特徴量を重み付け加算して、被験者PAの心身状態を示す度合い(元気度)αを算出する。
α=−DECAY_POWER+DECAY_SLOPE+PITCH_RATE+0.5×DELTA_ZERO_DIV …(1)
なお、DECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの特徴量の重み付け係数は、式(1)の場合に限定されない。例えば、各特徴量を重み付け係数は、対象となる被験者PAの職業、家族構成あるいは生活環境等に応じて適宜設定されることが好ましい。例えば、第1算出部10aは、式(2)を用いて、被験者PAの元気度αを算出してもよい。なお、式(2)におけるDECAY_SLOPEの係数は、“0”である。
α=−0.5×DECAY_POWER+PITCH_RATE+0.5×DELTA_ZERO_DIV …(2)
なお、DECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの特徴量の各々は、所定の係数値、例えば、0.65以上の相互相関係数を示す特徴量に代えられてもよい。例えば、DECAY_SLOPEは、ATTACK_SLOPEとの間で相互相関係数が0.79であることから、第1算出部10aは、DECAY_SLOPEの代わりに、ATTACK_SLOPEを算出してもよい。そして、第2算出部20aは、DECAY_POWER、PITCH_RATE、DELTA_ZERO_DIV、式(1)とともに、ATTACK_SLOPEを用いて、元気度αを算出する。なお、ATTACK_SLOPEの重み付け係数は、適宜設定されることが好ましい。
また、元気度αは、AUCの値が高いDECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIV等の特徴量のいずれか1つを用いて算出されてもよい。
なお、DECAY_POWER_DIVおよびPITCH_TIME_CORREは、他の特徴量との相関性が低いが、他の特徴量と比べてAUCの値が最も小さいことから、元気度αを算出する式(1)には含まれていない。しかしながら、DECAY_POWER_DIVおよびPITCH_TIME_CORREは、第1算出部10aにより算出され、式(1)に含まれてもよい。
推定部30aは、第2算出部20aが算出した元気度αと閾値との比較に基づいて、被験者PAにおける心身状態、例えば、被験者PAがうつ状態か否かを推定する。例えば、推定部30aは、元気度αが閾値より小さい(すなわち、被験者PAが発話する音声が不明瞭で、歯切れが悪い)場合、被験者PAの心身状態が良くない(例えば、うつ状態)と推定する。一方、推定部30aは、元気度αが閾値以上(すなわち、被験者PAが発する音声が明瞭で、歯切れが良い)場合、被験者PAの心身状態が良く、健康であると推定する。
なお、推定部30aが用いる閾値は、例えば、敏感度が“1”で、偽陽性率(1−特異度)が“0”の点からの距離が最小となる元気度αのROC曲線上の点に基づいて設定される。あるいは、閾値は、元気度αのROC曲線と、AUCが0.5の場合のROC曲線との間の距離(敏感度+特異点−1)を示すYouden Index等に基づいて設定されてもよい。
図6は、図2に示した推定装置100aによる推定処理の一例を示す。ステップS100からステップS130は、推定装置100aに搭載される演算処置装置が、推定装置100aの記憶装置に記憶される推定プログラムを実行することにより実現される。すなわち、図6は、推定プログラムおよび推定方法の別の実施形態を示す。この場合、図2に示した第1算出部10a、第2算出部20aおよび推定部30aは、推定プログラムの実行により実現される。なお、図6に示した処理は、推定装置100aに搭載されるハードウェアにより実現されてもよい。この場合、図2に示した第1算出部10a、第2算出部20aおよび推定部30aは、推定装置100a内に配置される回路により実現される。
なお、推定プログラムは、例えば、DVD(Digital Versatile Disc)等のリムーバブルディスクに記録して頒布することができる。また、推定プログラムは、USB(Universal Serial Bus)メモリ等の可搬型記憶媒体に記録して頒布してもよい。あるいは、推定装置100aは、推定装置100aに含まれるネットワークインタフェースを介して、ネットワークを通じて推定プログラムをダウンロードし、メモリ等の記憶部に格納してもよい。
ステップS100では、第1算出部10aは、携帯通信端末200を介して取得した被験者PAが発話した音声データを用いて、ピッチ周波数、強度およびゼロ点交差数等のパラメータを、ウィンドウWD毎に算出する。
ステップS110では、第1算出部10aは、ステップS100で算出したピッチ周波数、強度およびゼロ点交差数等のパラメータを用いて、DECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの特徴量を算出する。
ステップS120では、第2算出部20aは、ステップS110で算出した特徴量と、式(1)とを用いて、被験者PAの元気度αを算出する。
ステップS130では、推定部30aは、ステップS120で算出された元気度αと、閾との比較に基づいて、被験者PAの心身状態(例えば、うつ状態か否か)を推定する。
推定装置100aは、推定部30aにより推定された心身状態を示す情報を携帯通信端末200に出力し、携帯通信端末200のディスプレイに表示させる。そして、推定装置100aは、推定処理を終了する。図6に示した処理は、被験者PAが携帯通信端末200に向かって発話する度に繰り返し実行される。
以上、図2から図6に示した実施形態では、推定装置100aは、被験者PAの音声データを用いて、被験者の発話におけるDECAY_POWER、DECAY_SLOPE、PITCH_RATE、およびDELTA_ZERO_DIVの特徴量を算出する。そして、推定装置100aは、算出した特徴量と式(1)とを用いて、被験者PAの心身状態を示す元気度αを算出する。そして、推定装置100aは、算出した元気度αと閾値との比較に基づいて被験者の心身状態を推定する。これにより、推定装置100aは、ピッチ周波数等のパラメータと感情状態との対応関係を示す情報を予め用意することなく、従来と比べて容易に被験者の心身状態を推定できる。また、元気度αは算出した特徴量に基づいて算出されることから、推定装置100aは、被験者PAの心身状態を客観的に評価することができる。また、推定装置100aは、ピッチ周波数等のパラメータと感情状態との対応関係を示す情報を用いないため、ノイズ等の音質劣化に対する耐性を有する。
なお、推定装置100(100a)は、精神分析、行動予測、行動分析等の心理カウンセリング、精神医療、一般医療における面接や処方へ適用した場合を示したが、これに限定されない。例えば、推定装置100は、ロボット、人工知能や自動車、あるいはコールセンター、エンターテイメント、インターネット、スマートフォンやタブレット型端末等の携帯端末装置アプリケーションやサービス、検索システムへ応用されてもよい。また、推定装置100は、診断装置、自動問診装置、災害トリアージ等に応用されてもよい。また、推定装置100は、金融与信管理システムや行動予測、企業、学校、行政機関、警察や軍事、情報収集活動等での情報分析、虚偽発見に繋がる心理分析、組織グループ管理へ応用されてもよい。また、推定装置100は、組織の構成員、研究者や従業員、管理者等の心の健康や行動予測を管理するシステム、住居やオフィス、飛行機や宇宙船といった環境を制御するシステム、あるいは家族や友人の心の状態や行動予測を知るための手段に適用されてもよい。また、推定装置100は、音楽や映画配信、一般的な情報検索、情報分析管理や情報処理、あるいは顧客感性嗜好マーケット分析等やこれらをネットワークやスタンドアローンで管理するシステム等へ適用されてもよい。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
10,10a…第1算出部;20,20a…第2算出部;30,30a…推定部;100,100a…推定装置;200…携帯通信端末;CT…相関テーブル;SYS…推定システム

Claims (6)

  1. 被験者が発話した音声データを用いて複数の特徴量を算出して、算出した前記複数の特徴量のうち、他の前記特徴量との相関が無い、あるいは他の前記特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの前記特徴量を決定する第1算出部と
    前記第1算出部が決定した前記特徴量に基づいて前記被験者における心身状態を示す度合いを算出する第2算出部と
    前記第2算出部が算出した前記度合いに基づいて前記被験者における心身状態を推定する推定部と
    を備えることを特徴とする推定装置
  2. 請求項1に記載の推定装置において
    前記第2算出部は決定された前記特徴量を重み付けして前記度合いを算出することを特徴とする推定装置
  3. 請求項1または請求項2に記載の推定装置において、
    前記第1算出部は、算出した前記複数の特徴量のうち、他の前記特徴量との相関が無い、あるいは他の前記特徴量との相関係数の絶対値が所定値より小さく、かつROC(Receiver Operating Characteristic)曲線におけるAUC(Area Under the Curve)を0.7以上有する少なくとも1つの前記特徴量を決定することを特徴とする推定装置
  4. 被験者が発話した音声データを用いて複数の特徴量を算出して、算出した前記複数の特徴量のうち、他の前記特徴量との相関が無い、あるいは他の前記特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの前記特徴量を決定し、
    決定した前記特徴量に基づいて前記被験者における心身状態を示す度合いを算出し、
    算出した前記度合いに基づいて前記被験者における心身状態を推定する
    処理をコンピュータに実行させる推定プログラム。
  5. 被験者の心身状態を推定する推定装置の作動方法において、
    前記被験者が発話した音声データを用いて複数の特徴量を算出して、算出した前記複数の特徴量のうち、他の前記特徴量との相関が無い、あるいは他の前記特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの前記特徴量を決定し
    決定した前記特徴量に基づいて前記被験者における心身状態を示す度合いを算出
    出した前記度合いに基づいて前記被験者における心身状態を推定す
    とを特徴とする推定装置の作動方法
  6. 被験者が発話した音声データを取得する取得装置と、
    前記取得装置が取得した前記音声データを用いて複数の特徴量を算出して、算出した前記複数の特徴量のうち、他の前記特徴量との相関が無い、あるいは他の前記特徴量との相関係数の絶対値が所定値より小さい少なくとも1つの前記特徴量を決定する第1算出部と、前記第1算出部決定した特徴量に基づいて前記被験者における心身状態を示す度合いを算出する第2算出部と、前記第2算出部が算出した前記度合いに基づいて前記被験者における心身状態を推定する推定部とを含む推定装置と
    を備えることを特徴とする推定システム。
JP2016022895A 2016-02-09 2016-02-09 推定装置、推定プログラム、推定装置の作動方法および推定システム Active JP6306071B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2016022895A JP6306071B2 (ja) 2016-02-09 2016-02-09 推定装置、推定プログラム、推定装置の作動方法および推定システム
CN201780010227.6A CN108601567B (zh) 2016-02-09 2017-01-27 推测方法、推测程序、推测装置及推测系统
EP17750101.2A EP3417780B1 (en) 2016-02-09 2017-01-27 Estimation method, estimation program, estimation device, and estimation system
KR1020187025687A KR102218214B1 (ko) 2016-02-09 2017-01-27 추정 장치, 추정 프로그램이 기록된 기록 매체, 추정 장치의 작동 방법 및 추정 시스템
PCT/JP2017/003003 WO2017138376A1 (ja) 2016-02-09 2017-01-27 推定方法、推定プログラム、推定装置および推定システム
CA3014574A CA3014574C (en) 2016-02-09 2017-01-27 Estimation method, estimation program, estimation device, and estimation system
US16/074,351 US11147487B2 (en) 2016-02-09 2017-01-27 Estimation method, estimation program, estimation device, and estimation system
RU2018131306A RU2714663C1 (ru) 2016-02-09 2017-01-27 Способ оценки, программа оценки, устройство оценки и система оценки
TW106104120A TWI721095B (zh) 2016-02-09 2017-02-08 推定方法、推定程式、推定裝置及推定系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016022895A JP6306071B2 (ja) 2016-02-09 2016-02-09 推定装置、推定プログラム、推定装置の作動方法および推定システム

Publications (2)

Publication Number Publication Date
JP2017140170A JP2017140170A (ja) 2017-08-17
JP6306071B2 true JP6306071B2 (ja) 2018-04-04

Family

ID=59563260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016022895A Active JP6306071B2 (ja) 2016-02-09 2016-02-09 推定装置、推定プログラム、推定装置の作動方法および推定システム

Country Status (9)

Country Link
US (1) US11147487B2 (ja)
EP (1) EP3417780B1 (ja)
JP (1) JP6306071B2 (ja)
KR (1) KR102218214B1 (ja)
CN (1) CN108601567B (ja)
CA (1) CA3014574C (ja)
RU (1) RU2714663C1 (ja)
TW (1) TWI721095B (ja)
WO (1) WO2017138376A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7125094B2 (ja) * 2018-04-18 2022-08-24 Pst株式会社 推定プログラム、推定装置の作動方法および推定装置
US20210121125A1 (en) * 2018-07-13 2021-04-29 Pst Inc. Apparatus for estimating mental/neurological disease
US20210327435A1 (en) * 2018-09-06 2021-10-21 Nec Corporation Voice processing device, voice processing method, and program recording medium
KR20220061505A (ko) * 2020-11-06 2022-05-13 현대자동차주식회사 감정 조절 시스템 및 감정 조절 방법

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825894A (en) 1994-08-17 1998-10-20 Decibel Instruments, Inc. Spatialization for hearing evaluation
RU2162657C1 (ru) * 1999-12-08 2001-02-10 Научно-исследовательский психоневрологический институт им. В.М. Бехтерева Способ оценки психического здоровья
DE60115653T2 (de) 2001-10-05 2006-08-10 Sony Deutschland Gmbh Verfahren zur Detektion von Emotionen, unter Verwendung von Untergruppenspezialisten
JP3973434B2 (ja) * 2002-01-31 2007-09-12 三洋電機株式会社 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体
JP2004317822A (ja) * 2003-04-17 2004-11-11 Agi:Kk 感情分析・表示装置
RU2240031C1 (ru) * 2003-06-19 2004-11-20 Мирошник Елена Владимировна Способ оценки психического состояния и степени психической адаптации личности
RU2403626C2 (ru) * 2005-06-09 2010-11-10 А.Г.И. Инк. Анализатор речи, обнаруживающий частоту основного тона, способ анализа речи и программа анализа речи
JP2007000280A (ja) * 2005-06-22 2007-01-11 Toyota Motor Corp 覚醒度低下判定装置
JP4085130B2 (ja) 2006-06-23 2008-05-14 松下電器産業株式会社 感情認識装置
JP2008076905A (ja) * 2006-09-22 2008-04-03 Univ Of Tokyo 感情判別方法
JP2010506206A (ja) * 2006-10-03 2010-02-25 エヴゲニエヴィッチ ナズドラチェンコ、アンドレイ 声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置
US20120116186A1 (en) * 2009-07-20 2012-05-10 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
JP5330933B2 (ja) 2009-08-27 2013-10-30 日立コンシューマエレクトロニクス株式会社 運動機能評価システム、運動機能評価方法およびプログラム
JP4772935B2 (ja) * 2009-11-09 2011-09-14 パナソニック株式会社 注意状態判定装置、方法およびプログラム
JP5719533B2 (ja) * 2010-06-16 2015-05-20 ヤンマー株式会社 管理機
IL208055A (en) * 2010-09-07 2015-05-31 Penina Ohana Lubelchick A diagnostic system for measuring the level of consciousness and its method
WO2013006704A1 (en) * 2011-07-05 2013-01-10 Hunt Robert Don Systems and methods for clinical evaluation of psychiatric disorders
US9763617B2 (en) * 2011-08-02 2017-09-19 Massachusetts Institute Of Technology Phonologically-based biomarkers for major depressive disorder
JP5772448B2 (ja) 2011-09-27 2015-09-02 富士ゼロックス株式会社 音声解析システムおよび音声解析装置
WO2013076615A1 (en) * 2011-11-22 2013-05-30 Koninklijke Philips Electronics N.V. Mental balance or imbalance estimation system and method
JP2013183755A (ja) * 2012-03-05 2013-09-19 Fujitsu Ltd 検出装置、検出プログラムおよび検出方法
US10068060B2 (en) * 2012-08-16 2018-09-04 Ginger.io, Inc. Method for modeling behavior and psychotic disorders
WO2014036263A1 (en) * 2012-08-29 2014-03-06 Brown University An accurate analysis tool and method for the quantitative acoustic assessment of infant cry
US20150327802A1 (en) * 2012-12-15 2015-11-19 Tokyo Institute Of Technology Evaluation apparatus for mental state of human being
CN103258545A (zh) * 2012-12-20 2013-08-21 苏州大学 一种病理嗓音细分方法
EP2964084A4 (en) * 2013-03-06 2016-10-26 Adam J Simon SHAPE FACTORS FOR MULTIMODAL PHYSIOLOGICAL ASSESSMENT OF BRAIN HEALTH
AU2014228116B2 (en) * 2013-03-15 2019-01-03 Adam J. Simon System and signatures for the multi-modal physiological stimulation and assessment of brain health
US20150142492A1 (en) * 2013-11-19 2015-05-21 Hand Held Products, Inc. Voice-based health monitor including a vocal energy level monitor
JP5755791B2 (ja) * 2013-12-05 2015-07-29 Pst株式会社 推定装置、プログラム、推定装置の作動方法および推定システム
WO2015168606A1 (en) * 2014-05-02 2015-11-05 The Regents Of The University Of Michigan Mood monitoring of bipolar disorder using speech analysis

Also Published As

Publication number Publication date
TWI721095B (zh) 2021-03-11
US11147487B2 (en) 2021-10-19
CA3014574A1 (en) 2017-08-17
WO2017138376A1 (ja) 2017-08-17
CN108601567B (zh) 2021-06-11
KR20180105716A (ko) 2018-09-28
KR102218214B1 (ko) 2021-02-19
EP3417780A4 (en) 2019-10-02
RU2714663C1 (ru) 2020-02-18
TW201742053A (zh) 2017-12-01
EP3417780B1 (en) 2024-03-13
JP2017140170A (ja) 2017-08-17
US20190142323A1 (en) 2019-05-16
EP3417780A1 (en) 2018-12-26
CA3014574C (en) 2022-05-31
CN108601567A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
Benba et al. Voiceprints analysis using MFCC and SVM for detecting patients with Parkinson's disease
Jiang et al. Detecting depression using an ensemble logistic regression model based on multiple speech features
Benba et al. Analysis of multiple types of voice recordings in cepstral domain using MFCC for discriminating between patients with Parkinson’s disease and healthy people
Benba et al. Detecting patients with Parkinson's disease using Mel frequency cepstral coefficients and support vector machines
JP6306071B2 (ja) 推定装置、推定プログラム、推定装置の作動方法および推定システム
IL268664B2 (en) Identifying heart disease by analyzing speech sounds
Benba et al. Voice analysis for detecting persons with Parkinson’s disease using MFCC and VQ
JP7389421B2 (ja) 精神・神経系疾患を推定する装置
JP2017148431A (ja) 認知機能評価装置、認知機能評価方法、プログラム
Reggiannini et al. A flexible analysis tool for the quantitative acoustic assessment of infant cry
JP2016059765A (ja) 音情報処理装置及びシステム
JP7125094B2 (ja) 推定プログラム、推定装置の作動方法および推定装置
Frühholz et al. The effect of narrow-band transmission on recognition of paralinguistic information from human vocalizations
Lustyk et al. Evaluation of disfluent speech by means of automatic acoustic measurements
WO2021132289A1 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
Akafi et al. Assessment of hypernasality for children with cleft palate based on cepstrum analysis
JP6933335B2 (ja) 推定方法、推定プログラムおよび推定装置
Hagiwara et al. Validity of the mind monitoring system as a mental health indicator
KR20170087225A (ko) 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체
JP7265293B2 (ja) 音声を用いて、精神・神経系疾患を推定する装置
WO2017170404A1 (ja) 意思創発装置、意思創発方法および意思創発プログラム
Mal et al. Intoxicated Speech Detection using MFCC Feature Extraction and Vector Quantization
JP2023015420A (ja) 疾患推定プログラムにおける音響特徴量の抽出方法、およびその音響特徴量を用いた疾患推定プログラム並びに装置
Karpov et al. Automatic analysis of speech and acoustic events for ambient assisted living
CN117352008A (zh) 语音监测方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180307

R150 Certificate of patent or registration of utility model

Ref document number: 6306071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250