JP2019128531A - Voice analysis apparatus and voice analysis method - Google Patents
Voice analysis apparatus and voice analysis method Download PDFInfo
- Publication number
- JP2019128531A JP2019128531A JP2018011410A JP2018011410A JP2019128531A JP 2019128531 A JP2019128531 A JP 2019128531A JP 2018011410 A JP2018011410 A JP 2018011410A JP 2018011410 A JP2018011410 A JP 2018011410A JP 2019128531 A JP2019128531 A JP 2019128531A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- speech
- feature amount
- analysis
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、音声分析装置、及び音声分析方法に関するものである。 The present invention relates to a voice analysis device and a voice analysis method.
特許文献1では、「鶏舎において、病気に羅患した個体を早期に発見することができる監視システムを提供する。」ことを課題とし、「ニワトリの疾患の中では、呼吸器系に障害を起こす場合が多い。そこで、少なくとも3個以上のマイク10と、マイク10のそれぞれの出力から予め決められた周波数成分を分離するフィルタ24と、フィルタ24の出力とマイク10の位置から、前記周波数成分を発生した地点を算出する制御装置30と、前記算出された位置を指し示す指示装置40を有し、呼吸器系の障害で生じる特有の音を検知し、その音が発生した位置を特定する鶏舎監視システムである。」技術を開示している。
In Patent Document 1, an object is to “provide a monitoring system that can detect an individual affected with a disease at an early stage in a poultry house”. “In chicken diseases, the respiratory system is damaged. Therefore, at least three or
特許文献2では、「本発明の音声解析装置は、音声取得部、周波数変換部、自己相関部、ピッチ検出部を備える。周波数変換部は、音声取得部で取り込んだ音声信号を周波数スペクトルに変換する。自己相関部は、周波数スペクトルを周波数軸上でずらしながら自己相関波形を求める。ピッチ検出部は、自己相関波形のローカルな山と山または谷と谷の間隔からピッチ周波数を求める。」技術を開示している。
In
人の咽喉部の異常の検出については従来、医者が患者と直接対話する中でその聴覚的印象から主観的に判断することが主流であり、定量的指標から推定する方法の実現が一課題として挙げられる。 Regarding the detection of abnormalities in the human throat, it has been the mainstream that doctors have made subjective judgments based on their auditory impressions while interacting directly with patients. Can be mentioned.
音声の特徴から発話主体の病状や特性を推定することを目的とした技術的解決策の提案として、例えば、特許文献1には、少なくとも3個以上のマイクロホン(マイク)と、マイクのそれぞれの出力から予め決められた周波数成分を分離するフィルタと、フィルタの出力とマイクの位置から、周波数成分を発生した地点を算出する制御装置と、算出された位置を指し示す指示装置を有し、呼吸器系の障害で生じる特有の音を検知し、その音が発生した位置を特定する鶏舎監視システムの技術が開示されている。 As a proposal of a technical solution for the purpose of estimating a speech state and characteristics from speech characteristics, for example, Patent Document 1 discloses at least three microphones (microphones) and respective outputs of the microphones. A filter that separates a predetermined frequency component from the above, a control device that calculates a point where the frequency component is generated from the output of the filter and the position of the microphone, and a pointing device that indicates the calculated position, and a respiratory system A technology for a poultry house monitoring system that detects a specific sound caused by a failure of the scrambler and identifies a position where the sound is generated is disclosed.
また、特許文献2には、音声取得部、周波数変換部、自己相関部、ピッチ検出部を備え、周波数変換部が音声取得部で取り込んだ音声信号を周波数スペクトルに変換し、自己相関部が周波数スペクトルを周波数軸上でずらしながら自己相関波形を求め、ピッチ検出部が自己相関波形のローカルな山と山または谷と谷の間隔からピッチ周波数を求める音声解析装置の技術が開示されている。
以上の先行技術文献によれば、発話音声から音声特徴を定量的に把握できる可能性があるが、特許文献1では鶏の鳴き声を対象としており、単調な周波数分析結果のみから推定する方法を複雑な音素の変化を含む人の発話に適応することは困難と考えられる。また、特許文献2では、ピッチの推定を精度良く行う技術が示されているが、目的は感情を推定することであり嗄声やドライマウスといった口腔内の異常を推定するパラメータとしてピッチのみでは不十分と考えられる。
According to the above prior art documents, there is a possibility that the voice feature can be quantitatively grasped from the uttered voice. However, in Patent Document 1, the method of estimating from only the monotonic frequency analysis result is complicated because it targets chicken calls. It is considered difficult to adapt to human speech that includes various phoneme changes. Moreover, in
したがって、人の咽喉部の状態たとえば異常を容易に検出するためには、人の発話音声を対象として口腔内の乾き具合を精度良く推定する方法が必要である。本発明はこのような事情に鑑みてなされたものであり、精度良くドライマウス等を推定可能とする音声分析技術の提供を目的とする。 Therefore, in order to easily detect a state of a person's throat, for example, an abnormality, a method for accurately estimating the dryness in the oral cavity for a person's speech is required. The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a speech analysis technology that enables dry mouth and the like to be accurately estimated.
本発明の好ましい一側面は、発話音声を受信する音声受信部と、音声受信部が受信した音声データを分析して音声特徴量を算出する音声分析処理部と、第二の音声データの分析結果からなる第二の音声特徴量を保存するデータ保存部と、音声分析処理部の算出した音声特徴量と第二の音声特徴量との差異を判定する特徴量比較部と、特徴量比較部の判定結果を出力する出力部と、を有し、音声分析処理部は、発話音声中の特定の母音を解析対象とし、音声特徴量として基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析装置である。 A preferred aspect of the present invention includes a voice receiving unit that receives speech speech, a voice analysis processing unit that analyzes voice data received by the voice receiving unit to calculate a voice feature, and a second voice data analysis result A data storage unit for storing the second audio feature amount, a feature amount comparison unit for determining a difference between the audio feature amount calculated by the audio analysis processing unit and the second audio feature amount, and a feature amount comparison unit And an output unit for outputting a determination result, wherein the voice analysis processing unit performs processing for obtaining a fundamental frequency and a resonance frequency as voice feature amounts, with a specific vowel in the utterance voice as an analysis target. Voice analysis device.
本発明の好ましい他の一側面は、発話音声を受信する音声受信ステップと、受信した発話音声の音声データを分析して、評価対象音声特徴量を算出する音声分析ステップと、リファレンスとなる音声データの分析結果からなる、リファレンス音声特徴量を取得するリファレンス取得ステップと、評価対象音声特徴量とリファレンス音声特徴量との差異を判定する特徴量比較ステップと、特徴量比較ステップの判定結果を出力する結果出力ステップと、を含み、音声分析ステップでは、発話音声中の特定の母音を解析対象の音声データとして、基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析方法である。 Another preferred aspect of the present invention includes: a voice receiving step for receiving uttered voice; a voice analyzing step for analyzing voice data of the received uttered voice to calculate an evaluation target voice feature quantity; and voice data as a reference The reference acquisition step for acquiring the reference speech feature amount, the feature amount comparison step for determining the difference between the evaluation target speech feature amount and the reference speech feature amount, and the determination result of the feature amount comparison step are output. The voice analysis step includes a result output step, and in the voice analysis step, processing for obtaining a fundamental frequency and a resonance frequency is performed by using a specific vowel in the voice as voice data to be analyzed.
本発明の技術により、口腔内の状態、たとえば、乾燥状態(ドライマウス)の早期検出を実現する。このほかの課題、構成および効果等は、以下の実施形態の説明により明らかにされる。 The techniques of the present invention provide for early detection of conditions in the oral cavity, such as dry condition (dry mouth). Other problems, configurations, effects, and the like will be made clear by the description of the embodiments below.
以下、本発明の実施形態について図面を用いて説明する。以下では、全図を通じて同一の構成に対しては同一の符号を付与して重複する説明を省略することがある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, the same reference numerals may be given to the same configuration throughout all the drawings, and redundant description may be omitted.
本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。 The present invention should not be construed as being limited to the description of the embodiments below. Those skilled in the art can easily understand that the specific configuration can be changed without departing from the spirit or the spirit of the present invention.
本明細書等における「第一」、「第二」、「第三」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 In the present specification etc., the notations such as "first", "second", "third" etc. are added to identify the constituent elements, and the number, order, or contents thereof are necessarily limited. is not. In addition, the identification numbers of components are used for each context, and the numbers used in one context do not necessarily indicate the same configuration in other contexts. In addition, it does not prevent that a component identified by a certain number doubles as a feature of a component identified by another number.
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The positions, sizes, shapes, ranges, and the like of the components shown in the drawings and the like may not indicate actual positions, sizes, shapes, ranges, and the like in order to facilitate understanding of the invention. For this reason, the present invention is not necessarily limited to the position, size, shape, range, and the like disclosed in the drawings and the like.
以下で説明する実施例では、発話音声の周波数的特徴を主要な変数として、精度良くドライマウスを推定可能とする音声分析技術を説明する。このために、例えば、発話音声を受信する音声受信部と、音声受信部が受信した音声データを分析して音声特徴量を算出する音声分析処理部と、第二の音声データの分析結果からなる第二の音声特徴量を保存するデータ保存部と、音声分析処理部の算出した音声特徴量と第二の音声特徴量との差異を判定する特徴量比較部と、特徴量比較部の判定結果に応じて音声表示する音声表示部と、を有し、音声分析処理は、発話音声中の特定の母音を解析対象として基本周波数と共振周波数を求める処理を行う音声分析装置および分析方法が説明される。 In the embodiment described below, a voice analysis technique that enables a dry mouse to be estimated with high accuracy using the frequency characteristics of a speech voice as a main variable will be described. For this purpose, for example, the voice reception unit that receives the speech voice, the voice analysis processing unit that analyzes the voice data received by the voice reception unit and calculates the voice feature amount, and the analysis result of the second voice data A data storage unit that stores the second voice feature value, a feature value comparison unit that determines a difference between the voice feature value calculated by the voice analysis processing unit and the second voice feature value, and a determination result of the feature value comparison unit And a voice analysis unit that performs a process of obtaining a fundamental frequency and a resonance frequency by using a specific vowel in a speech as an analysis target. The
熱中症による病院への救急搬送件数は夏場の外気温が年々上昇する傾向に相関して増加傾向にある。搬送の条件として多いのが、高齢者が自宅で倒れる場合である。高齢になると喉の渇きに鈍感になるという研究結果もあり、この救急搬送を防止するための一つの対策方法として、日常生活の中で熱中症が体に及ぼす変化をいち早くとらえ、本人に気が付かせることが有意義である。 The number of ambulances transported to hospitals due to heat stroke has been increasing in correlation with the trend of increasing outdoor temperatures in summer. It is often the case that an elderly person falls at home as a condition for transportation. There is also a research result that thirst becomes insensible as we get older, and as a countermeasure method to prevent this emergency transportation, we catch the change that heat stroke has on the body in daily life quickly and notice the person Is meaningful.
また、例えば腎臓疾患に対する特定の治療薬においては強い利尿作用を持つものがあり、常用する場合にこまめな水分摂取を怠ると脱水症状を生じるばかりでなく、血液濃度が上昇することで別の病気を併発する危険性を高めてしまう恐れがある。そのため、早期に喉の渇きを検出して本人に水分補給を促すことで、薬の副作用の影響を低減ないし解消することが有意義である。 In addition, for example, certain therapeutic drugs for kidney disease have a strong diuretic effect, and neglecting frequent water intake during regular use not only causes dehydration, but also increases blood concentration. There is a risk of increasing the risk of co-occurring. Therefore, it is meaningful to reduce or eliminate the effects of drug side effects by detecting thirst at an early stage and prompting the person to rehydrate.
このほか、ストレスと喉の渇きには因果関係が有り、ストレス要因を取り除くという根本解決が困難な状況においては、喉の渇きの解消は併発の恐れがある症状の悪化を予防する対策の一つとして挙げられる。 In addition, there is a causal relationship between stress and thirst, and in situations where it is difficult to solve the fundamental problem of removing the stress factor, eliminating thirst is one of the measures to prevent worsening symptoms that may occur simultaneously. As mentioned.
以下では上記の社会課題解決に向け、人の発話音声からドライマウスの傾向を検出する音声分析装置および音声分析方法について記載する。 In the following, a voice analysis device and a voice analysis method for detecting a tendency of dry mouth from human's voice will be described to solve the above-mentioned social problem.
図1には音声分析装置の外観の一例を示す。これは例えば動物をモチーフとした人形の外観を有する音声分析装置1を、日常生活中の使用者の見守りや異常行動検知等に用いながら、使用者の発した音声データを取得・分析することで先の目的を達するものである。この音声分析装置1は使用者との簡易的な会話を行うために必要なマイクロホンやスピーカを含む電子回路部品などを内蔵しており、無線ネットワークの接続により通信装置2とのデータ送受信や制御を可能とする。音声分析装置1の外観上はマイクロホン(マイク)10とスピーカ11のみ表出しており、その他音声分析や音声表示に必要となる電子回路等は内蔵した例を記載している。なお、外観形状は動物に制限する必要はなく、使用者の身近に置けるものでよく、またマイク等以外の電子回路部品が表出していても良い。
FIG. 1 shows an example of the appearance of a voice analysis device. This is because, for example, the voice analysis apparatus 1 having the appearance of a doll with an animal motif is used for monitoring and monitoring abnormal behavior of the user in daily life, and by acquiring and analyzing voice data emitted by the user. It achieves the above purpose. The voice analysis device 1 incorporates electronic circuit components including a microphone and a speaker necessary for conducting a simple conversation with the user, and transmits and receives data to and from the
通信装置2はいわゆるスマートフォンやタブレット型パーソナルコンピュータに相当し、表示画面20には使用者に通知するメッセージを表示する。また、音声分析装置1の操作用のアプリケーションソフトウェアを搭載することで、例えば使用者の操作に応じて、音声分析装置1に操作コマンドを送信したり、動作状態を把握したりすることを可能とする。操作ボタン21は、通信装置2の例えばホーム画面を呼び出すなどの操作を行う。なお通信装置2の操作方法はこの操作ボタン21の使用に限らず、表示画面20の表面に触覚を感知するセンサが搭載され、画面の接触操作で行う方法を有してもよい。
The
図2には音声分析装置1に内蔵されている、音声分析機能に関わる機能構成を示すブロック図を示す。当該構成は基本的に、入力装置、出力装置、処理装置、記憶装置を備えるコンピュータで構成することにした。 FIG. 2 is a block diagram showing a functional configuration related to the voice analysis function, which is built in the voice analysis device 1. The configuration basically includes a computer including an input device, an output device, a processing device, and a storage device.
音声受信部101は、マイク10からのアナログ音声入力をデジタル化して処理部102で扱えるようにする。処理部102は、音声分析装置1のデジタル処理全般を行う機能部である。音声受信部101、処理部102は、プログラムに基づく各種処理を行う処理装置である電子部品、例えばマイクロコンピュータチップやCPU(Central Processing Unit)、で構成することができる。処理部102は、音声データの分析処理や、データ保存部103やメモリ104へのデータの読み書き、その他各機能部とのデータ送受信などを行う。例えば通信部106を介して通信装置2からの制御データを受信する、もしくは音声データを音声出力部105へ送信するなどを行う。
The
データ保存部103、メモリ104は記憶装置である。データ保存部103は不揮発性メモリを有し、処理部102の指示に応じて不揮発性メモリ上へのデータの読み書きを制御する。例えば起動時に読み込まれ音声受信部101や処理部102が使用するプログラムや、使用者個人に紐づく音声特徴量データ(平常時データ2001)や、後に説明する判定処理に必要な閾値データである長さ閾値2002,強度閾値2003,判定閾値2004などが記録される。メモリ104は揮発性メモリであり、処理部102での処理に必要な、前記の一連のデータ(プログラム、特徴量データ、閾値データ)を展開したり、一時的に蓄積が必要なデータを書き込み・読み出したりする用途で使用される。
The
出力装置(出力部)である音声出力部105は例えばあらかじめデータ保存部103やメモリ104に記録された音声データや、処理部102が音声合成処理を行った音声データを受信し、スピーカ11への音声出力処理を行う。入力及び出力装置である通信部106は近接通信を行うアンテナを有し、通信装置2とのデータ送受信を制御する。
The
上記の説明では、処理や制御等の機能は、データ保存部103に格納されたプログラムがマイクロコンピュータのCPUによって実行されることで、定められた処理を他のハードウェアと協働して実現されることにした。
In the above description, the functions such as processing and control are realized by the CPU stored in the
ただし、これらの機能はいずれもハードウェア回路として機能を有するのでも、プログラムとして実装され処理させるのでも良い。たとえば本実施例中、ソフトウェアで構成した機能と同等の機能は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などのハードウェアでも実現できる。 However, all of these functions may be implemented as hardware circuits or implemented as programs. For example, in this embodiment, a function equivalent to a function configured by software can be realized by hardware such as an FPGA (Field Programmable Gate Array) and an ASIC (Application Specific Integrated Circuit).
また、以上の構成は、上記説明のように音声分析装置1に内蔵した単体のコンピュータで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワーク等で接続された他のコンピュータで構成されてもよい。たとえば、音声受信部101で取得した音声信号を、通信部106からネットワークを介して遠隔にあるサーバに送信し、サーバ内に設けた処理部102やメモリ104等で処理することも可能である。あるいは同様の処理を、通信装置2で行なってもよい。
The above configuration may be configured by a single computer built in the voice analysis device 1 as described above, or any part of the input device, output device, processing device, and storage device may be a network. It may be constituted by other computers connected by, for example. For example, the audio signal acquired by the
図3には音声分析装置1に使用者の音声入力があった場合の処理シーケンスを示す。使用者の音声入力とは、例えば一つの文章構造を持った使用者の発話動作や呼びかけの語句等であり、音声分析装置1が音声を検知した後、一定長の無音区間の検出をもってして入力が完了したと認識し、一回の入力が完了する毎に本処理シーケンスを繰り返して処理を行う。 FIG. 3 shows a processing sequence when the voice analysis device 1 receives voice input from the user. The user's voice input is, for example, a user's utterance action or calling phrase with a single sentence structure. After the voice analyzer 1 detects a voice, it detects a silent section of a certain length. It recognizes that the input is completed, and repeats this processing sequence every time one input is completed.
ステップ(以降Sと表記)301の音声取得処理では、マイク10を通して音声受信部101にて使用者の音声データを取得する。時間的離散化(サンプリング)処理や量子化処理(アナログからデジタルデータへの変換)や必要に応じて一般的な手法を用いたノイズ除去処理等を行い、使用者の発話音声のデジタル信号を得て処理部102へ転送し、S302へ進む。サンプリング処理や量子化処理の精度は一般的に流通している音声フォーマットに従えば良いが、処理を細かく行うほど精密な処理が可能となる一方で必要なメモリ量が多くなるため、装置構成に適した設定を行うので良い。
In the voice acquisition process of step (hereinafter referred to as S) 301, voice data of the user is acquired by the
音声取得処理S301のタイミングとしては、例えば別途設けた音声センサにより、音声の入力を検知したタイミングで処理を開始するようにすることができる。あるいは、音声分析装置1のスピーカ11や通信装置2から、任意あるいは定期的なタイミングで、発話を促すメッセージを発することにより処理を開始するようにしてもよい。
As the timing of the voice acquisition processing S301, for example, the processing can be started at the timing at which the input of the voice is detected by a separately provided voice sensor. Alternatively, the processing may be started by issuing a message prompting utterance from the
S302の母音部分抽出処理では、処理部102が入力された音声デジタル信号の音素解析を行いS303へ進む。音素への分解は、言語によっても音素セットが異なり、例えば日本語であれば、一般的に母音となる5音(発音記号表記では/a/、/i/、/u/、/e/、/o/)を音声波形から検出する。英語の場合には諸説あるものの一例としては15音(発音記号表記を表1に示す)を対象とするなどがある。
In the vowel part extraction process of S302, the
15音のうちで舌面高低位置と舌面最高部の前後位置が同じ音韻(例えば表2参照)については同一視して検出対象とするなどして簡略化を図るなどしても良い。 Among the fifteen sounds, the same phoneme (see, for example, Table 2) having the same tongue surface high and low position with respect to the tongue surface (for example, see Table 2) may be regarded as a detection target.
音素の検出方法には、例えば予め各母音の一般的な波形をプログラムの一部としてデータ保存部103に記録しておき、入力波形との類似度で判定することで母音を検出するといった方法がある。近年では入力された音声データの文章を音素に分解するソフトウェアやAPI(Application Programming Interface)なども存在し、これらを機能に組み込むことでも容易に実現可能である。
As a method of detecting phonemes, for example, a general waveform of each vowel is recorded in advance in the
S303の解析対象有無判定処理では、処理部102は、音素分解した結果に、母音が含まれていれば解析すべき対象のデータ有りと判断してS304に進み、そうでない場合は解析すべき対象のデータ無しと判断し処理を終了する。例えば、取得した発話内容が、日本語で「おはようございます」だった場合、この文章には母音として「お(/o/)」と「い(/i/)」が含まれており、解析対象有りと判断する。発話の全部を用いずに、母音部分を抽出することにより、プライバシーに配慮が可能となると同時に、発話の特徴を解析しやすくなり、発話者の状態を容易に判定することができるようになる。
In the analysis target presence / absence determination process in S303, the
S304の音声分析処理では、検出された各母音の全てに対して母音データの先頭を解析開始点に設定して図4に示す処理を行いS305へ進む。 In the speech analysis process of S304, the beginning of the vowel data is set as the analysis start point for all detected vowels, the process shown in FIG. 4 is performed, and the process proceeds to S305.
図4は、図3のS304の音声分析処理の詳細を示す。図4の音声分析処理は、S302で抽出された母音部分のデータのそれぞれについて行なわれる。音声分析処理は、処理部102に含まれる、音声分析処理部が行なうものとする。
FIG. 4 shows details of the voice analysis processing in S304 of FIG. The speech analysis process of FIG. 4 is performed on each of the data of vowel parts extracted in S302. The speech analysis processing is performed by the speech analysis processing unit included in the
S401のデータ長判定処理では、処理部102が選択された母音データに対して、解析開始点からのデータの長さ(フレーム長)が解析を行うのに十分な長さを有するかどうかを判定する。判定のための長さ閾値2002は例えば10ミリ秒のような時間長の表現や882バイトのようなデータ長の表現を用いて良く、プログラムの一部として予めデータ保存部103に記録され、起動時にメモリ104に展開して使用する。十分な長さを有する場合にはS402へ進み、十分な長さに不足する場合にはS407へ進む。
In the data length determination process of S401, the
S402の音の強さ解析処理では、S401で例えば10ミリ秒のように予め定められたフレーム長のデータに対して、処理部102は波形の振幅の平均値を音声強度(インテンシティもしくはボリュームともいう)として算出し、メモリ104に記録してS403へ進む。
In the sound intensity analysis process of S402, the
S403の周波数解析処理では、処理部102が予め定められたフレーム長のデータに対しフーリエ変換を行い周波数スペクトルを算出し、S404へ進む。なお、フーリエ変換を行う際にはデータの端点の不連続性に配慮して窓関数を用いることがあるが、一般的な窓関数としてハミング窓やハニング窓を用いることで良い。
In the frequency analysis process of S403, the
図5には周波数解析結果の一例を示した。横軸に周波数(kHz)、縦軸に強度(パワー)(任意単位)を取ってグラフ化すると、音声波形は一般的に櫛形状の波形(図中の実線)となる。 FIG. 5 shows an example of the frequency analysis result. When the horizontal axis represents frequency (kHz) and the vertical axis represents intensity (power) (arbitrary unit), the speech waveform is generally a comb-shaped waveform (solid line in the figure).
図4に戻り、S404の基本周波数(ピッチ)推定処理では、処理部102が基本周波数を算出し、メモリ104に記録してS405へ進む。基本周波数の算出方法としては、例えば、S403で得られる櫛形状の波形の最も低周波のピーク値を選択する方法や、所定の周波数帯域における櫛形状波形のピークとピークの間隔を求め、その平均値として求める方法等がある。図5の例示では最低周波数のピークと2番目に低い周波数のピークとの差分をF0として示している。
Returning to FIG. 4, in the fundamental frequency (pitch) estimation process of S404, the
S405の共振周波数推定処理では、処理部102がS403で得られた周波数特性の波形に対して例えばケプストラム法や線形予測分析法(Linear Prediction Coding)といった手法を適用してスペクトル包絡を算出し、包絡線のうちで最も低周波のピーク値と二番目に低周波のピーク値を、第一共振周波数と第二共振周波数としてメモリ104に記録してS406へ進む。図5中では破線でスペクトル包絡線を示し、第一共振周波数となる点にF1、第二共振周波数となる点にF2と示す。F1、F2のようなピーク値はフォルマントと呼ばれ、発話者によって特定の値をとるが、一般に発話中も時間にともなって変化する。また、発話者のドライマウス等の状態によっても変化し、この変化は基本周波数や共振周波数の平均値や分散値の変化を計算することにより検知することができる。
In the resonance frequency estimation process of S405, the
S406の解析場所移動処理では、処理部102が例えば10ミリ秒など予め定めた時間間隔(フレーム更新周期)分だけS402〜S405に示す解析の開始位置を変更してS401へ進む。すなわち、母音として抽出した音声信号の範囲に対して、所定のフレーム更新周期ずつ解析位置をずらして繰り返し解析処理を行う。
In the analysis place movement process of S406, the
S407の結果保存処理では、処理部102はS403〜S405を繰り返し実施した結果(時間、音量の大きさ、基本周波数、共振周波数の全ての組み合わせ)から特徴量を算出し、メモリ104に記録して処理を終了する。具体的な例では、音量の大きさが一定以上(例えば60dB以上)の時間における基本周波数、第一共振周波数、第二共振周波数の平均値および分散値を求め、これを解析対象の母音の音響特徴量として記録する。
In the result storage process of S407, the
図6は、音声分析結果である特徴量を示すデータの一例である。図6では各母音について、基本周波数、第一共振周波数、第二共振周波数それぞれの平均と分散を記録している。なお、データ保存部103には、これに対応した、例えば同様の表形式のリファレンスとなる特徴量が平常時データ2001としてあらかじめ記録されている。これは、例えば使用者の平常時の発話から採取した特徴量である。
FIG. 6 is an example of data indicating a feature amount as a voice analysis result. In FIG. 6, the average and the variance of each of the fundamental frequency, the first resonance frequency, and the second resonance frequency are recorded for each vowel. Note that, in the
なお、音量の大きさが低い場合、声量が小さく基本周波数が検出できなくなる懸念があり、音量の大きさを一定以上とすることで、明瞭な音響特徴を得ることを可能とする効果がある。この場合、音量の強度閾値2003を用いて、十分な強度の音声信号のみを解析に利用する。ただし明瞭な特徴を得るための音量の強度閾値2003の設定については個人差もあるため、例えば初期設定ではあらかじめ低く設定しておき、検出の成否率に応じて少しずつ高く設定値を変更するといった、強度閾値2003を可変とする方法としても良い。
When the volume level is low, there is a concern that the voice volume is small and the fundamental frequency cannot be detected. By setting the volume level to a certain level or more, there is an effect that a clear acoustic feature can be obtained. In this case, only the sound signal of sufficient intensity is used for analysis using the
図7は、図3のS305の乾燥度推定処理の詳細を示す。S305の乾燥度推定処理では、S304で得られた全母音に対する特徴量データに対して図7に示す処理を行い、図3の処理を終了する。 FIG. 7 shows details of the dryness estimation process in S305 of FIG. In the dryness degree estimation process of S305, the process shown in FIG. 7 is performed on the feature amount data for all vowels obtained in S304, and the process of FIG. 3 is ended.
図7において、S501の平常データ取得処理では、処理部102はデータ保存部103よりあらかじめ取得し保存される、使用者の平常時の状態における各母音の特徴量データである平常時データ2001を取得してS502へ進む。
In FIG. 7, in the normal data acquisition process of S <b> 501, the
S502の特徴量比較処理では、処理部102は今回取得した各母音データの特徴量データとS501で取得した平常時の特徴量データの比較を実施する。
In the feature amount comparison process in S502, the
図8に、図7の特徴量比較処理手順S502の一例を示す。特徴量比較処理は、処理部102に含まれる、特徴量比較部が行なうものとする。S601の母音種別判定処理では、処理部102は、対象の母音があらかじめプログラムなどで定められた所定の母音情報である場合は解析対象と判断しS602へ進み、その他の母音の場合は比較処理を実施しない。例えば、取得した母音データが「い(/i/)」と「え(/e/)」であれば解析対象とし、それ以外であれば解析対象としない。対象の母音については、データ保存部103に対応したリファレンスとなる特徴量が記録されており、S501で当該データが取得されている。
FIG. 8 shows an example of the feature amount comparison processing procedure S502 of FIG. The feature amount comparison process is performed by the feature amount comparison unit included in the
S602の基本周波数比較処理では、処理部102が基本周波数の平均値を比較し、所定の値以上の差分がある場合は有意差ありと判断してS603へ進み、差分が所定の値より小さい場合には有意差なし(無効)と判断してS605へ進む。この判断のために、データ保存部103に格納された判定閾値2004を用いる。判定に用いる判定閾値2004の値については、例えば30Hzといった一定の周波数での表現や、あるいは、20%といった割合での表現がある。
In the fundamental frequency comparison process of S602, the
S603の共振周波数比較処理では、処理部102が第一共振周波数の分散値を比較し、所定の値以上の差分がある場合は有意差ありと判断してS604へ進み、差分が所定の値より小さい場合には有意差なし(無効)と判断してS605へ進む。この判断のために、データ保存部103に格納された判定閾値2004を用いる。判定に用いる判定閾値2004の値については、例えば50といった値での表現や、あるいは、対象の母音データのそれまでの分散の確率分布をあらかじめ算出しておき、分布の80%に収まる範囲といった割合による表現がある。
In the resonance frequency comparison process of S603, the
S602、S603における処理は、算出された基本周波数の平均値や共振周波数の分散値を、定常状態におけるそれと比較する処理となる。基本周波数の平均値や共振周波数の分散値のデータは、S404、S405、S406にて解析場所を少しずつずらしながら取得した複数のデータから、S407で、これら複数のデータの平均値および分散値を算出し、その結果を特徴量として記録しておき、S602、S603で使用する。 The processing in S602 and S603 is processing to compare the calculated average value of the fundamental frequency and the dispersion value of the resonance frequency with those in the steady state. The data on the average value of the fundamental frequency and the dispersion value of the resonance frequency is obtained by calculating the average value and the dispersion value of the plurality of data in S407 from the plurality of data acquired by shifting the analysis place little by little in S404, S405, and S406. It is calculated, and the result is recorded as a feature amount, and is used in S602 and S603.
以上では、平常時の音声データの基本周波数の平均値をリファレンスとして、音声分析処理部が求めた基本周波数の平均値とリファレンスの差分が、所定の閾値より大きいかどうかを判定した。また、平常時の音声データの共振周波数の分散値をリファレンスとして、音声分析処理部が求めた共振周波数の分散値とリファレンスの差分が、所定の閾値より大きいかどうかを判定した。この例では、両方の結果がともにYESのときに、ドライマウスと判定している。このような判定方法によれば、ドライマウスかどうかの判定を効率的に行なうことができる。 In the above, using the average value of the fundamental frequency of normal voice data as a reference, it is determined whether or not the difference between the average value of the fundamental frequency obtained by the speech analysis processing unit and the reference is greater than a predetermined threshold. Further, using the dispersion value of the resonance frequency of the normal audio data as a reference, it was determined whether or not the difference between the resonance frequency dispersion value obtained by the sound analysis processing unit and the reference is larger than a predetermined threshold. In this example, when both results are YES, it is determined that the mouse is dry. According to such a determination method, it can be efficiently determined whether it is a dry mouse.
本実施例では、判定閾値2004は、基本周波数の平均値と共振周波数の分散値のそれぞれに対して設定されている。上記の例では、基本周波数の平均値と共振周波数の分散値をパラメータとして判定を行なっているが、他のパラメータを追加することを妨げるものではない。
In the present embodiment, the
S604の差異有効判定処理では、処理部102は比較した母音について最終的に有意差あり(有効)と判断してS605へ進む。
In the difference validity determination process of S604, the
S605の結果保存処理では、処理部102は有意差の有効・無効の結果をメモリ104へ記録して処理を終了する。
In the result storage process of S605, the
以上の図8の処理を各母音について繰り返し、メモリ104に記録されている直近の所定の個数の特徴量比較処理結果のうち、一定の割合以上で差異有効と判断されている場合は、ドライマウスの症状を検知したと判断してS503へ進む。例えばメモリ104上に常に最新の10個の特徴量比較処理結果を保存しておき、このうちの8割以上で有効と判断した場合に検知の判断を行う。
The above processing in FIG. 8 is repeated for each vowel, and if it is determined that the difference is valid at a certain ratio or more among the latest predetermined number of feature amount comparison processing results recorded in the
S503のメッセージ表示処理では、処理部102は通信部106を介して通信装置2に対して使用者にドライマウスの可能性を示唆するメッセージを送信する処理を行いS504へ進む。
In the message display process of S503, the
図9に、通信装置2の表示画面20におけるメッセージ表示画面の例を示す。これについては、後に再度説明する。
In FIG. 9, the example of the message display screen in the
S504の音声出力処理では、処理部102はデータ保存部103に予め記録されている、もしくはメモリ104上に予め展開された音声データより、この場合に再生する音声データ情報を読み出し、音声出力部105へ転送して処理を終了する。音声出力部105は受信した音声データ情報を再生し、スピーカ11に出力して使用者にメッセージを通知する。
In the audio output process of S504, the
以上の実施内容によれば、口腔内の乾燥を早期に発見して使用者に気が付かせる効果が得られ、使用者が自ら水分補給をするなどの行動を促し乾燥状態から回復する、あるいは悪化を防ぐ効果が得られる。また、以上の実施内容によれば、母音のみを抽出して解析を行うため、発話内容全体を把握する必要性が無く、プライバシーに配慮した処理を実現する効果が得られる。基本周波数の比較について平均値を用いることは、乾燥による声門や声帯部の剛性の変化による基本周波数の変化を良く反映する効果がある。また、共振周波数の比較については分散値を用いるが、口腔内の共鳴現象の変化については平均値のみでの判断が難しく、分散値を使用することで変化を良く検出できる効果が得られる。 According to the above implementation contents, the effect of discovering dryness in the oral cavity at an early stage and noticing the user is obtained, and the user promotes actions such as rehydrating himself to recover from the dry state, or worsening the deterioration. An effect to prevent is obtained. Further, according to the above implementation contents, since only vowels are extracted for analysis, there is no need to grasp the entire utterance contents, and an effect of realizing processing in consideration of privacy can be obtained. Using the average value for comparison of the fundamental frequencies has the effect of well reflecting the change of the fundamental frequency due to the change of the stiffness of the glottis and vocal folds due to dryness. In addition, although a dispersion value is used for comparison of resonance frequencies, it is difficult to judge only the average value for a change in the resonance phenomenon in the oral cavity, and an effect that the change can be detected well by using the dispersion value is obtained.
なお、図8に示した特徴量比較処理について、母音種別判定処理において比較対象とする母音の選択が例えば「あ(/a/)」と「い(/i/)」と「え(/e/)」のように異なってもよく、あるいは発話の語頭や語尾は変化が大きいため、処理対象から除外するようにしてもよい。 In the feature amount comparison process shown in FIG. 8, the vowels to be compared in the vowel type determination process are, for example, “a (/ a /)” and “i (/ i /)” and “e (/ e)”. They may be different as in “/)”, or the beginning and end of the utterance may be excluded from the processing target because they have a large change.
また、基本周波数比較処理において基本周波数の分散値を比較して、平均値と両方の差分がそれぞれ個別の一定値以上であることを評価してもよく、あるいは、基本周波数の変動が著しく大きい(分散が大きい)場合は使用者の作為的な音色の変化である可能性があるため、比較対象から外すように処理してもよい。 In addition, in the fundamental frequency comparison process, the dispersion value of the fundamental frequency may be compared to evaluate whether the difference between the average value and the both is an individual fixed value or more, or the fluctuation of the fundamental frequency is significantly large ( If the variance is large), there is a possibility that it is a user's intentional timbre change, so processing may be performed so as not to be compared.
また、本実施例および図6では母音毎に基本周波数の情報を記録するようにしているが、基本周波数は声門および声道といった音により大きく変化しない部位の特徴量であるため、全母音に対して一つの値を記録するようにしても良い。また、共振周波数比較処理S603において、第二共振周波数の分散値の比較も行い、第一共振周波数の分散値と第二共振周波数の分散値の両方の差分が、それぞれ個別の一定の値以上であることを評価してもよい。あるいは、第一、第二共振周波数と同様に第三共振周波数以上を算出して、その特徴量の差分比較結果を組み合わせてもよい。 Further, in this embodiment and FIG. 6, information on the fundamental frequency is recorded for each vowel. However, since the fundamental frequency is a feature amount of a part that does not change greatly due to sounds such as glottis and vocal tract, One value may be recorded. Further, in the resonance frequency comparison process S603, the dispersion values of the second resonance frequency are also compared, and the difference between the dispersion value of the first resonance frequency and the dispersion value of the second resonance frequency is greater than or equal to an individual fixed value. You may evaluate something. Alternatively, the third resonance frequency or more may be calculated similarly to the first and second resonance frequencies, and the difference comparison results of the feature quantities may be combined.
このような例のように特徴量比較処理については様々なアルゴリズムによってドライマウス検出の精度を向上させる効果が期待でき、個人の特性によって、最も良く検出が実現できる手法を選別するのでもよい。 As in such an example, with respect to the feature amount comparison processing, it is possible to expect the effect of improving the accuracy of dry mouse detection by various algorithms, and it is possible to select a method that can realize the best detection according to individual characteristics.
図7にて述べた平常時の音声特徴量である平常時データ2001の取得については、様々な方法が考えられる。例えば、使用者が音声分析装置1を入手直後に行う初期設定の一環として、音声取得部やマイクの機能テストが必要である場合がある。この機能テストの際に、一つないし複数の解析対象となる母音を含む定型文章を音声分析装置1に対して発話させ、図3から図4に記載した特徴量抽出処理を行うことで、その分析結果を平常状態における音声特徴量(平常時データ2001)としてデータ保存部103に記録することができる。あるいは、音声分析装置1起動後に、全ての、ないし、所定回数の母音毎の特徴量抽出処理結果に対して平均値を算出することで、平常時の音声特徴量とすることもできる。
Various methods can be considered for acquiring the
長期的に音声分析装置を使用することを想定した場合、フォルマントは性差や個人の成長の過程においても緩やかに変化することが知られている。そのため、平常時の特徴量データを可変とする必要性が考えられる。その方法としては例えば、上記特徴量比較処理にて一定回数連続して差異無しと判定した際の母音の特徴量データについては、その平均値を新たな平常時の特徴量データとして、処理部102はデータ保存部103に記録された平常時データ2001を上書きする。このような処理を組み込むことで、緩やかに変化する個人の特性に対応したドライマウスの検出手法が実現できる効果が得られる。
It is known that formants change gradually in the process of gender differences and personal growth, assuming that speech analyzers are used over the long term. For this reason, it may be necessary to change the feature amount data in normal times. As the method, for example, with regard to the feature amount data of the vowel when it is determined that there is no difference continuously a fixed number of times in the feature amount comparison process, the
図9はS503に記載したメッセージ表示処理の結果、通信装置2の画面上に通知されるメッセージ表示方法の一例である。通信装置2の表示画面20上には、メッセージを表示するメッセージ本文表示欄801、メッセージが適切であったかどうかを評価してもらうメッセージ評価部802が表示される。使用者が適切ボタン、あるいは不適正ボタンを押下した評価結果は通信装置2から音声分析装置1へ通知する。なお、図9に示した表示処理は一例であり、使用者に状況を説明するために、音声、振動、光、音など他の情報伝達手段を用い、あるいは併用することも可能である。
FIG. 9 shows an example of a method of displaying a message notified on the screen of the
図10には、判定結果を受信した音声分析装置1における特徴量比較処理方法S502を変更する手順を示す。 FIG. 10 shows a procedure for changing the feature amount comparison processing method S502 in the voice analysis device 1 that has received the determination result.
S901の評価情報取得処理では、処理部102がメモリ104より特徴量比較に用いた判定閾値2004、たとえば基本周波数比較処理の判定閾値や共振周波数比較処理の判定閾値を読み出してS902へ進む。
In the evaluation information acquisition process of S901, the
S902の特徴量修正処理では、処理部102が判定閾値2004を例えば一定の割合で増加もしくは減少させた値で更新し、メモリ104ないしデータ保存部103が有する値を更新して処理を終了する。例えば、音声分析装置1の判定がドライマウスであるのに、使用者の評価が「不適切」である場合には、閾値を増加させるなどする。またこの時、それまでの解析結果と今後の解析結果とは判断基準が異なることから、メモリ104上に保存されている過去の母音の特徴量比較結果について破棄するなどしても良い。
In the feature amount correction process of S902, the
上記実施例では簡便な説明のため使用者が1名の想定で処理を記載したが、例えば使用者が複数人いる場合においても、音声分析処理の最初ないし途中にいずれの使用者の発話であるかの判定処理を含め、発話者毎に比較処理に用いる音声特徴量データ(平常時データ2001)や閾値データ(判定閾値2004)をデータ保存部103に記録しておくことで全使用者に対して同様の分析処理を実現可能であり、また、表示メッセージ上に対象となった使用者名を明記することで、ドライマウスを早期検出し使用者に気付かせる効果を実現可能である。複数人の発話が同時に重複して入力された場合においても、音声分析処理の最初に発話内容を分離する処理を実施することで上記処理を実現可能である。なお、一般的な発話内容の分離処理方法としてDNN (Deep Neural Network)を応用した手法などがある。
In the above embodiment, the process is described on the assumption that there is one user for the sake of simple explanation. For example, even when there are a plurality of users, any user's utterance is at the beginning or during the voice analysis process. In addition, the voice feature data (normal data 2001) and threshold data (determination threshold 2004) used for comparison processing for each speaker are recorded in the
また、本実施例で説明した音声分析装置1は、さらに使用者を見守る機能の一環としてカメラを備えるなどの機能を有するのでも良い。カメラ画像を用いることで、誰がどのくらいの距離から発話しているかが判別できるため、より確実な音量の推定を可能にしたり、複数の使用者がいる場合に誰についての解析を行うかの判別を容易にしたりするなどの効果が得られる。 In addition, the voice analysis device 1 described in the present embodiment may further have a function such as providing a camera as a part of the function of watching the user. By using camera images, it is possible to determine who is speaking from what distance, so it is possible to estimate the volume more reliably, and to determine who is to be analyzed when there are multiple users An effect such as facilitating can be obtained.
以上で説明した図3、図4、図5、図8の処理シーケンス内の各処理は、適宜処理順序を入れ替えることも可能である。例えば、図4の基本周波数推定S404と共振周波数推定S405の順序は入れ替えても良い。 The processing order of the processes in the processing sequences of FIGS. 3, 4, 5, and 8 described above can be changed as appropriate. For example, the order of the fundamental frequency estimation S404 and the resonance frequency estimation S405 in FIG. 4 may be switched.
図11には第二の実施形態として、家庭内に設置して家電を音声によって制御したり、使用者からの問い合わせについてネットワーク上の情報を収集して回答したりする音声分析装置3(例えば、人工知能搭載スピーカ、ホームコントロール端末と言われる)の外観の一例を示す。 In FIG. 11, as a second embodiment, a voice analysis device 3 (for example, for controlling a home appliance by voice and collecting information on a network and answering an inquiry from a user as a second embodiment (for example, An example of the appearance of an artificial intelligence loading speaker and a home control terminal is shown.
音声分析装置3は以下の構成を持つ。30は電源ボタンであり、音声分析装置3の起動・動作終了を操作する。31は操作ボタン(上)であり、スピーカ機能使用時の音声出力の音量を大きく変化させる、あるいは本体表示画面35に操作メニュー等を表示時、選択カーソルを上方向に動かす。32は操作ボタン(下)であり、スピーカ機能使用時の音声出力の音量を小さく変化させる、あるいは本体表示画面35に操作メニュー等を表示時、選択カーソルを下方向に動かす。33は選択/決定ボタンであり、操作時のホーム画面を呼び出す、あるいは本体表示画面35に操作メニュー等を表示時、カーソルが指し示すメニュー項目を選択する操作を行う。
The
34は複数のマイク(マイクロホンアレイ)であり、いずれの方向からでも使用者の発話を検出することが可能である。35は本体表示画面であり、操作メニューや音声分析装置3から使用者に伝えたいメッセージを文章で表示する。36はインジケータランプであり、音声分析装置3の稼働状態や未読メッセージの有無などの状態を色によって使用者に通知する。例えば電源OFF時は無発光、起動後は青色点灯、発話を受け付けている最中は緑色点灯などと切り替える。なおインジケータランプの形状はこの図の例に限らず、例えばスピーカの淵に沿って全周囲に配置する等、360度いずれの方向からでも発色が認識できる形状としても良い。37はスピーカであり、使用者との会話やメッセージを音声として出力する。複数個のスピーカを組み合わせて360度いずれの方向にも明瞭に音声が届くような形状として良い。
A plurality of microphones (microphone arrays) 34 can detect the user's speech from any direction.
通信装置2は第一の実施形態の説明と同様であり、音声分析装置3とデータの送受信を行い、使用者にメッセージを通知する
図12には音声分析装置3の機能構成を示す。音声受信部101はマイク34で受信したデータをデジタルデータに変換して処理部102へ送信する。マイクを複数の構成(マイクロホンアレイ)にした場合、一般に公開されている音源位置検出の技術や、雑音を抑圧する技術等を導入することで、音声分析装置3から離れた場所からの発話についても確実に発話内容を取得することが可能である。
The
処理部102は、第一の実施形態に加え、操作受信部107、温度センサ108、湿度センサ109から情報を取得する機能や表示部110に使用者に通知するメッセージのデータを送信する機能を有する。温度センサ108、湿度センサ109からデータ受信した場合、メモリ104に最新の値として記録する。また操作受信部107より使用者の機器操作情報を受信した場合には、押下されたボタンの種別に応じて、適宜処理を行う。例えば、電源のON/OFFを行ったり、表示部110に表示内容を更新するよう指示したりする。
In addition to the first embodiment, the
データ保存部103およびメモリ104は第一の実施形態と同様である。音声出力部105はスピーカ37を通じ、使用者に対する音声出力を行う。通信部106は第一の実施形態と同じく、近接通信を行うアンテナを有し、通信装置2とのデータ送受信を制御する。操作受信部107は、図11に示したボタン群(電源ボタン30、操作ボタン31、操作ボタン32、選択/決定ボタン33)が押下された場合にそれを処理部102へ通知する。
The
温度センサ108、湿度センサ109は外環境の温度および湿度を検知して処理部102へ定期的に送信する機能を有する。検出ならびに送信の間隔は例えば1秒毎などと設定する。表示部110は本体表示画面35に処理部102より受信した文字列データを表示するように制御し、処理部102より受信した装置の状態情報に応じてインジケータランプ36の点灯や発色を制御する。
The
図13には音声分析装置3に使用者の音声入力があった場合の処理シーケンスを示す。使用者の音声入力の定義については、第一実施形態と同様である。
FIG. 13 shows a processing sequence when the
S1201のセンサデータ取得処理では、処理部102は定期的に更新された温度センサ108と湿度センサ109の温度・湿度計測結果をメモリ104より取得してS1202へ進む。
In the sensor data acquisition process of S1201, the
S1202の実施判定処理では、処理部102は温度・湿度計測結果からドライマウス検出処理が必要かどうかを判断する。判断方法としては、温度と湿度のいずれかが所定の値を超えている場合(例えば温度が摂氏27.0度以上、湿度が70%以上)に必要と判断し、それ以外では不要とする。あるいは温度と湿度の相関より暑さ指数値(Wet-Bulb Globe Temperature)を推定し、結果が一定値(例えば摂氏25度)以上である場合に必要、一定値未満である場合は不要とするなどで良い。ドライマウス検出処理が必要と判断した場合はS1203の分析処理へ進み、処理不要と判断した場合は処理を終了する。
In the execution determination process of S1202, the
S1203の乾燥度推定処理では、第一実施形態の図3〜図7を用いて説明したドライマウス検出処理を実施して処理を終了する。ただし、S503におけるメッセージ表示処理においては、処理部102は上記処理内容に併せて本体表示画面35に使用者に対するメッセージ表示処理を、またインジケータランプ36をメッセージがあることを知らせる点灯方式(例えば赤色の点滅等)に変更する処理を行う。
In the drying degree estimation process of S1203, the dry mouse detection process described using FIGS. 3 to 7 of the first embodiment is performed, and the process is ended. However, in the message display process in S503, the
図14には表示画面例を示す。本体表示画面35には、メッセージ表示部1301が表示され、使用者に熱中症になる危険性と水分補給を促すメッセージを記載する。またボタン操作説明表示部1302が表示され、使用者に適切なボタン操作を促す。
FIG. 14 shows an example of the display screen. On the main
以上の実施例により、家庭環境において熱中症が生じやすい環境になったことを検知してドライマウス検出処理を行うことで使用者の熱中症にかかるリスクを早期に回避する効果が得られる。また、端末の表示部にメッセージを表示することにより、通信装置2が無くても音声分析装置3単体で使用者に乾燥状態に気が付かせる効果が得られ、使用者が自ら水分補給をするなどの行動を促し乾燥状態の悪化を防ぐ効果が得られる。
According to the above embodiment, it is possible to obtain an effect of avoiding the risk of heat stroke of the user at an early stage by detecting that the environment is likely to cause heat stroke in the home environment and performing the dry mouth detection process. In addition, by displaying a message on the display unit of the terminal, an effect of making the user aware of the dry state with the
なお、上記の構成例では温度センサ108と湿度センサ109を別の構成要素として記載しているが温湿度センサとして一つに統合して処理するのでも良い。また、温度や湿度の情報を別の手法で取得してもよく、例えば、音声分析装置3とネットワークを介してデータ通信可能な温度と湿度を計測可能な機器がある場合、処理部102が通信部106を介して当該機器へ問い合わせることで温度と湿度の情報を入手する、あるいは常時当該機器から温度と湿度の情報を定期的に受信して入手するなどして、上記の制御に用いることでも同様の実施内容が実現でき、同様の効果を得られる。また、S1202の実施判定処理で、温度と湿度の情報の両方を用いるほか、一方のみを用いてもよい。あるいは、他のセンサデータを追加して用いてもよい。
In the above configuration example, the
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 The present invention is not limited to the embodiments described above, but includes various modifications. Further, for example, the above-described embodiments are described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described configurations. Further, part of the configuration of each embodiment can be added to, deleted from, or replaced with another configuration.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した非一時的記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが非一時的記憶媒体に格納されたプログラムコードを読み出す。この場合、非一時的記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した非一時的記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. The present invention can also be realized by a program code of software that realizes the functions of the embodiment. In this case, a non-transitory storage medium storing the program code is provided to the computer, and a processor included in the computer reads the program code stored in the non-transitory storage medium. In this case, the program code itself read from the non-temporary storage medium realizes the functions of the above-described embodiments, and the program code itself and the non-temporary storage medium storing the program code constitute the present invention. Will do. As a storage medium for supplying such a program code, for example, a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, a magnetic tape, A non-volatile memory card, ROM or the like is used.
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 Further, program code for realizing the functions described in the present embodiment can be implemented by a wide range of programs or script languages such as, for example, assembler, C / C ++, perl, shell, PHP, Java (registered trademark).
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Furthermore, by distributing the program code of the software that implements the functions of the embodiments via a network, the program code is stored in a storage means such as a hard disk or memory of a computer or a storage medium such as a CD-RW or CD-R. A processor included in the computer may read out and execute the program code stored in the storage unit or the storage medium.
以上の実施例に拠れば、使用者の発話音声を取得しデジタルデータに変換した音声データに対して、音素解析により母音部分を抽出し、抽出された母音部分について所定の時間長のデータ毎の周波数解析を行い、音響特徴量(音量、基本周波数、共振周波数)を求める。求めた音響特徴量は予め記録されている平常時の音響特徴量と比較する。比較の結果の時系列が継続的に差分の大きな状態である場合、口腔内の乾燥状態(ドライマウス)であると推定しメッセージを通知することで、早期発見する効果が得られ、使用者が自ら水分補給をするなどの行動を促し乾燥状態から回復させる効果が得られる。 According to the above embodiment, the vowel part is extracted by phoneme analysis with respect to the voice data obtained by acquiring the user's utterance voice and converted into digital data, and the extracted vowel part for each data of a predetermined time length. Frequency analysis is performed to obtain acoustic feature quantities (volume, fundamental frequency, resonant frequency). The obtained acoustic feature quantity is compared with the normal acoustic feature quantity recorded in advance. If the time series of the comparison result is continuously in the state of large difference, it is estimated that the oral cavity is in the dry state (dry mouth) and the message is notified, whereby the effect of early detection is obtained, and the user can It has the effect of promoting actions such as hydration itself and recovering from dryness.
1:音声分析装置、2:通信装置、10:マイクロホン、11:スピーカ、20:表示画面、30:電源ボタン、31:操作ボタン(上)、32:操作ボタン(下)、33:選択/決定ボタン、34:マイクロホン、35:本体表示画面、36:インジケータランプ、37:スピーカ、101:音声受信部、102:処理部、103:データ保存部、104:メモリ、105:音声出力部、106:通信部、107:操作受信部、108:温度センサ、109:湿度センサ、110:表示部、801:メッセージ本文表示欄、802:メッセージ評価部、1301:メッセージ表示部、1302:ボタン操作説明表示部 1: voice analysis device 2: communication device 10: microphone 11: speaker 20: display screen 30: power button 31: operation button (upper) 32: operation button (lower) 33: selection / determination Button 34: microphone 35: main body display screen 36: indicator lamp 37: speaker 101: audio receiver 102: processor 103: data storage 104: memory 105: audio output 106: 106 Communication unit 107: operation reception unit 108: temperature sensor 109: humidity sensor 110: display unit 801: message text display field 802: message evaluation unit 1301: message display unit 1302: button operation explanation display unit
Claims (15)
前記音声受信部が受信した音声データを分析して音声特徴量を算出する音声分析処理部と、
第二の音声データの分析結果からなる第二の音声特徴量を保存するデータ保存部と、
前記音声分析処理部の算出した音声特徴量と前記第二の音声特徴量との差異を判定する特徴量比較部と、
前記特徴量比較部の判定結果を出力する出力部と、を有し、
前記音声分析処理部は、前記発話音声中の特定の母音を解析対象とし、前記音声特徴量として基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析装置。 A voice receiving unit for receiving a uttered voice;
A voice analysis processing unit that analyzes voice data received by the voice reception unit and calculates a voice feature amount;
A data storage unit for storing a second voice feature amount comprising the analysis result of the second voice data;
A feature amount comparison unit that determines a difference between the voice feature amount calculated by the voice analysis processing unit and the second voice feature amount;
An output unit that outputs a determination result of the feature amount comparison unit,
The speech analysis apparatus characterized in that the speech analysis processing unit analyzes a specific vowel in the speech speech and obtains a fundamental frequency and a resonance frequency as the speech feature amount.
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの基本周波数の平均値を平均値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた基本周波数の平均値と前記平均値リファレンスの差分が、所定の閾値より大きいことを判定結果とすること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
The data storage unit stores, as the second audio feature amount, an average value of the fundamental frequency of the second audio data as an average value reference,
The speech analysis apparatus characterized in that the feature amount comparison unit determines that a difference between an average value of the fundamental frequency obtained by the speech analysis processing unit and the average value reference is greater than a predetermined threshold.
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの共振周波数の分散値を分散値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた共振周波数の分散値と前記分散値リファレンスの差分が、所定の閾値より大きいことを判定結果とすること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
The data storage unit stores a dispersion value of a resonance frequency of the second sound data as a dispersion value reference as the second sound feature amount,
The feature amount comparison unit is a speech analysis device characterized in that a determination result is that a difference between a variance value of the resonance frequency obtained by the speech analysis processing unit and the variance value reference is larger than a predetermined threshold value.
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの基本周波数の平均値を平均値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた基本周波数の平均値と前記平均値リファレンスの差分が、所定の閾値より大きいことを第一の判定結果とし、
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの共振周波数の分散値を分散値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた共振周波数の分散値と前記分散値リファレンスの差分が、所定の閾値より大きいことを第二の判定結果とし、
前記第一の判定結果と前記第二の判定結果がともに満たされた場合に、最終的な判定結果とすること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
The data storage unit stores, as the second audio feature amount, an average value of the fundamental frequency of the second audio data as an average value reference,
The feature amount comparison unit has a first determination result that the difference between the average value of the fundamental frequency obtained by the speech analysis processing unit and the average value reference is greater than a predetermined threshold value,
The data storage unit stores the dispersion value of the resonant frequency of the second audio data as a dispersion value reference as the second audio feature value,
The feature amount comparison unit has a second determination result that a difference between the dispersion value of the resonance frequency obtained by the speech analysis processing unit and the dispersion value reference is larger than a predetermined threshold value.
A speech analysis apparatus characterized in that a final determination result is obtained when both the first determination result and the second determination result are satisfied.
前記音声分析処理部は、前記発話音声中の特定の母音における時間的に異なる複数の解析場所において、基本周波数と共振周波数を求める処理を行ない、
前記複数の解析場所における基本周波数の平均値と、共振周波数の分散を、前記音声特徴量として求めること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
The voice analysis processing unit performs processing for obtaining a fundamental frequency and a resonance frequency in a plurality of temporally different analysis locations in a specific vowel in the utterance voice,
A voice analysis apparatus characterized in that an average value of fundamental frequencies in the plurality of analysis locations and a variance of a resonant frequency are obtained as the voice feature amount.
前記音声分析処理部は、所定以上の長さを有する前記音声データを解析対象とすること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
The voice analysis device, wherein the voice analysis processing unit analyzes the voice data having a predetermined length or more.
前記音声分析処理部は、所定以上の強度を有する前記音声データを解析対象とすること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
The voice analysis device, wherein the voice analysis processing unit analyzes the voice data having a predetermined strength or more.
利用者からの入力を受け付ける入力部を有し、
前記入力部は、前記出力部が出力した前記特徴量比較部の判定結果に対応する前記利用者からの入力を受付け、
前記入力に応じて前記特徴量比較部で用いる閾値の値を変更すること、を特徴とする音声分析装置。 In the voice analysis device according to claim 1,
Has an input unit that accepts input from the user,
The input unit receives an input from the user corresponding to the determination result of the feature amount comparison unit output by the output unit.
And changing the value of the threshold used in the feature amount comparison unit according to the input.
温度を検出する温度検出部と、
湿度を検出する湿度検出部と、を有し、
前記温度検出部と前記湿度検出部の検出結果が所定の閾値より大きい場合に、前記音声分析処理部および前記特徴量比較部の処理を開始することを特徴とする音声分析装置。 In the speech analysis apparatus according to claim 1, further,
A temperature detection unit that detects a temperature;
A humidity detector for detecting humidity;
The speech analysis apparatus characterized by starting the processing of the speech analysis processing unit and the feature amount comparison unit when detection results of the temperature detection unit and the humidity detection unit are greater than a predetermined threshold.
受信した前記発話音声の音声データを分析して、評価対象音声特徴量を算出する音声分析ステップと、
リファレンスとなる音声データの分析結果からなる、リファレンス音声特徴量を取得するリファレンス取得ステップと、
前記評価対象音声特徴量と前記リファレンス音声特徴量との差異を判定する特徴量比較ステップと、
前記特徴量比較ステップの判定結果を出力する結果出力ステップと、を含み、
前記音声分析ステップでは、前記発話音声中の特定の母音を解析対象の音声データとして、基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析方法。 A voice receiving step of receiving a uttered voice;
A speech analysis step of analyzing speech data of the received speech and calculating an evaluation target speech feature amount;
A reference acquisition step for acquiring a reference voice feature amount, which is composed of an analysis result of the reference voice data;
A feature amount comparison step for determining a difference between the evaluation target speech feature amount and the reference speech feature amount;
A result output step of outputting a determination result of the feature amount comparison step,
In the speech analysis step, the speech analysis method is characterized in that a process for obtaining a fundamental frequency and a resonance frequency is performed by using a specific vowel in the speech speech as speech data to be analyzed.
前記特徴量比較ステップでは、前記平均値に対応する平均値閾値と、前記分散値に対応する分散値閾値を用い、
前記特徴量比較ステップでは、前記音声分析ステップで求められた基本周波数の平均値と、前記リファレンス音声特徴量に含まれる基本周波数の平均値の差を、前記平均値閾値と比較し、
前記特徴量比較ステップでは、前記音声分析ステップで求められた共振周波数の分散値と、前記リファレンス音声特徴量に含まれる共振周波数の分散値の差を、前記分散値閾値と比較し、
前記基本周波数の平均値の差が前記平均値閾値を超え、かつ、前記共振周波数の分散値の差が前記分散値閾値を超えている場合、前記結果出力ステップを実行すること、を特徴とする請求項10記載の音声分析方法。 The reference voice feature value includes an average value of fundamental frequencies and a variance value of resonant frequencies of the reference voice data,
In the feature amount comparison step, using an average value threshold value corresponding to the average value and a variance value threshold value corresponding to the variance value,
In the feature amount comparison step, the difference between the average value of the fundamental frequency obtained in the speech analysis step and the average value of the fundamental frequency included in the reference speech feature amount is compared with the average value threshold value,
In the feature amount comparison step, the difference between the dispersion value of the resonance frequency obtained in the speech analysis step and the dispersion value of the resonance frequency included in the reference speech feature amount is compared with the dispersion value threshold.
When the difference between the average values of the fundamental frequencies exceeds the average value threshold, and the difference between the dispersion values of the resonance frequencies exceeds the dispersion value threshold, the result output step is performed. The speech analysis method according to claim 10.
前記発話音声中の前記特定の母音が含まれている母音部分を抽出する母音部抽出ステップと、
前記母音部分が所定の長さを有しているかどうかを判定するデータ長判定ステップと、
前記母音部分が所定の音の強さを有しているかどうかを判定する音の強さ解析ステップとを実行すること、を特徴とする請求項10記載の音声分析方法。 In the voice analysis step, when performing processing for obtaining a fundamental frequency and a resonance frequency using a specific vowel in the speech voice as voice data to be analyzed,
A vowel part extraction step of extracting a vowel part including the specific vowel in the uttered voice;
A data length determination step of determining whether the vowel portion has a predetermined length;
The sound analysis method according to claim 10, further comprising: performing a sound intensity analysis step of determining whether or not the vowel part has a predetermined sound intensity.
前記複数の解析場所における基本周波数の平均値と、共振周波数の分散を、前記評価対象音声特徴量として求めること、を特徴とする請求項10記載の音声分析方法。 In the speech analysis step, when the speech data of the uttered speech is analyzed and the evaluation target speech feature value is calculated, the fundamental frequency and the analysis frequency at a plurality of different locations in the specific vowel in the uttered speech Process to determine the resonant frequency,
The speech analysis method according to claim 10, wherein an average value of fundamental frequencies and a variance of resonance frequencies at the plurality of analysis locations are obtained as the evaluation target speech feature quantities.
前記入力に応じて前記特徴量比較ステップで用いる閾値の値を変更すること、を特徴とする請求項10記載の音声分析方法。 Receiving input from the user corresponding to the determination result output in the result output step;
11. The speech analysis method according to claim 10, wherein the threshold value used in the feature amount comparison step is changed according to the input.
温度を検出する温度検出ステップ、および、湿度を検出する湿度検出ステップの少なくともひとつ、を有し、
前記温度検出ステップ、および、前記湿度検出ステップの少なくともひとつの検出結果が所定の閾値より大きい場合に、前記音声分析ステップを行なうこと、を特徴とする請求項10記載の音声分析方法。 further,
At least one of a temperature detection step of detecting a temperature and a humidity detection step of detecting a humidity;
The speech analysis method according to claim 10, wherein the speech analysis step is performed when a detection result of at least one of the temperature detection step and the humidity detection step is larger than a predetermined threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018011410A JP6909733B2 (en) | 2018-01-26 | 2018-01-26 | Voice analyzer and voice analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018011410A JP6909733B2 (en) | 2018-01-26 | 2018-01-26 | Voice analyzer and voice analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128531A true JP2019128531A (en) | 2019-08-01 |
JP6909733B2 JP6909733B2 (en) | 2021-07-28 |
Family
ID=67472210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018011410A Active JP6909733B2 (en) | 2018-01-26 | 2018-01-26 | Voice analyzer and voice analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909733B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023077830A1 (en) * | 2021-11-02 | 2023-05-11 | 青岛海尔空调器有限总公司 | Method and device for controlling air conditioner, air conditioner and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004514178A (en) * | 2000-11-17 | 2004-05-13 | フォルスカーパテント アイ エスワイディ アクチボラゲット | Method and apparatus for voice analysis |
JP2005352154A (en) * | 2004-06-10 | 2005-12-22 | National Institute Of Information & Communication Technology | Device of reactively operating to feeling condition |
JP2007122004A (en) * | 2005-09-29 | 2007-05-17 | National Institute Of Advanced Industrial & Technology | Pronunciation diagnostic device, pronunciation diagnostic method, recording medium, and pronunciation diagnostic program |
JP2010117528A (en) * | 2008-11-12 | 2010-05-27 | Fujitsu Ltd | Vocal quality change decision device, vocal quality change decision method and vocal quality change decision program |
US20120265024A1 (en) * | 2010-10-05 | 2012-10-18 | University Of Florida Research Foundation, Incorporated | Systems and methods of screening for medical states using speech and other vocal behaviors |
KR20130025082A (en) * | 2011-09-01 | 2013-03-11 | 한국 한의학 연구원 | Apparatus and method for determining health using sound |
WO2017060828A1 (en) * | 2015-10-08 | 2017-04-13 | Cordio Medical Ltd. | Assessment of a pulmonary condition by speech analysis |
JP2017111760A (en) * | 2015-12-18 | 2017-06-22 | カシオ計算機株式会社 | Emotion estimation device creation method, emotion estimation device creation device, emotion estimation method, emotion estimation device and program |
-
2018
- 2018-01-26 JP JP2018011410A patent/JP6909733B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004514178A (en) * | 2000-11-17 | 2004-05-13 | フォルスカーパテント アイ エスワイディ アクチボラゲット | Method and apparatus for voice analysis |
JP2005352154A (en) * | 2004-06-10 | 2005-12-22 | National Institute Of Information & Communication Technology | Device of reactively operating to feeling condition |
JP2007122004A (en) * | 2005-09-29 | 2007-05-17 | National Institute Of Advanced Industrial & Technology | Pronunciation diagnostic device, pronunciation diagnostic method, recording medium, and pronunciation diagnostic program |
JP2010117528A (en) * | 2008-11-12 | 2010-05-27 | Fujitsu Ltd | Vocal quality change decision device, vocal quality change decision method and vocal quality change decision program |
US20120265024A1 (en) * | 2010-10-05 | 2012-10-18 | University Of Florida Research Foundation, Incorporated | Systems and methods of screening for medical states using speech and other vocal behaviors |
KR20130025082A (en) * | 2011-09-01 | 2013-03-11 | 한국 한의학 연구원 | Apparatus and method for determining health using sound |
WO2017060828A1 (en) * | 2015-10-08 | 2017-04-13 | Cordio Medical Ltd. | Assessment of a pulmonary condition by speech analysis |
JP2017111760A (en) * | 2015-12-18 | 2017-06-22 | カシオ計算機株式会社 | Emotion estimation device creation method, emotion estimation device creation device, emotion estimation method, emotion estimation device and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023077830A1 (en) * | 2021-11-02 | 2023-05-11 | 青岛海尔空调器有限总公司 | Method and device for controlling air conditioner, air conditioner and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6909733B2 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108135485B (en) | Assessment of pulmonary disorders by speech analysis | |
US10010288B2 (en) | Screening for neurological disease using speech articulation characteristics | |
US11380351B2 (en) | System and method for pulmonary condition monitoring and analysis | |
US8784311B2 (en) | Systems and methods of screening for medical states using speech and other vocal behaviors | |
CN108806720B (en) | Microphone, data processor, monitoring system and monitoring method | |
JP5708155B2 (en) | Speaker state detecting device, speaker state detecting method, and computer program for detecting speaker state | |
US20220007964A1 (en) | Apparatus and method for detection of breathing abnormalities | |
JP7385299B2 (en) | Estimation of lung volume by speech analysis | |
KR102276415B1 (en) | Apparatus and method for predicting/recognizing occurrence of personal concerned context | |
CN110881987B (en) | Old person emotion monitoring system based on wearable equipment | |
JP2023168424A (en) | System, method and computer program product for distinguishing diagnosis-enabling data | |
KR20080040803A (en) | Method, apparatus, and system for diagnosing health status of mobile terminal users | |
CN109313900A (en) | Information processing equipment and information processing method | |
Usman et al. | Heart rate detection and classification from speech spectral features using machine learning | |
CN109074809B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
JP2021110895A (en) | Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method | |
US20220036878A1 (en) | Speech assessment using data from ear-wearable devices | |
JP6909733B2 (en) | Voice analyzer and voice analysis method | |
CN112672120B (en) | Projector with voice analysis function and personal health data generation method | |
US20220005494A1 (en) | Speech analysis devices and methods for identifying migraine attacks | |
US20210219893A1 (en) | System and method for measurement of vocal biomarkers of vitality and biological aging | |
WO2021132289A1 (en) | Pathological condition analysis system, pathological condition analysis device, pathological condition analysis method, and pathological condition analysis program | |
JP6712028B1 (en) | Cognitive function determination device, cognitive function determination system and computer program | |
WO2023232878A1 (en) | Hearing device with health characterization and/or monitoring and related methods | |
WO2023232889A1 (en) | Hearing system with hearing device based health characterization and/or monitoring and related methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6909733 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |