JP2019128531A - Voice analysis apparatus and voice analysis method - Google Patents

Voice analysis apparatus and voice analysis method Download PDF

Info

Publication number
JP2019128531A
JP2019128531A JP2018011410A JP2018011410A JP2019128531A JP 2019128531 A JP2019128531 A JP 2019128531A JP 2018011410 A JP2018011410 A JP 2018011410A JP 2018011410 A JP2018011410 A JP 2018011410A JP 2019128531 A JP2019128531 A JP 2019128531A
Authority
JP
Japan
Prior art keywords
voice
speech
feature amount
analysis
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018011410A
Other languages
Japanese (ja)
Other versions
JP6909733B2 (en
Inventor
隆 金丸
Takashi Kanamaru
隆 金丸
伸宏 福田
Nobuhiro Fukuda
伸宏 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018011410A priority Critical patent/JP6909733B2/en
Publication of JP2019128531A publication Critical patent/JP2019128531A/en
Application granted granted Critical
Publication of JP6909733B2 publication Critical patent/JP6909733B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a voice analyzing technology capable of estimating dry mouth and the like with good precision.SOLUTION: In a preferred embodiment of the present invention, a voice analysis apparatus includes: a voice receiving section for receiving an utterance voice; a voice analyzing section for analyzing voice data received by the voice receiving section to calculate a voice feature quantity; a data storing section for storing a second voice feature quantity formed with analyzed results of second voice data; a feature comparing section for determining the difference between the voice feature quantity calculated by the voice analyzing section and the second voice feature quantity; and an output section for outputting results determined by the feature comparing section. The analyzing target of the voice analyzing section is a predetermined vowel in the utterance voice, and a procedure for obtaining a fundamental frequency and resonant frequency as the voice feature quantity.SELECTED DRAWING: Figure 3

Description

本発明は、音声分析装置、及び音声分析方法に関するものである。   The present invention relates to a voice analysis device and a voice analysis method.

特許文献1では、「鶏舎において、病気に羅患した個体を早期に発見することができる監視システムを提供する。」ことを課題とし、「ニワトリの疾患の中では、呼吸器系に障害を起こす場合が多い。そこで、少なくとも3個以上のマイク10と、マイク10のそれぞれの出力から予め決められた周波数成分を分離するフィルタ24と、フィルタ24の出力とマイク10の位置から、前記周波数成分を発生した地点を算出する制御装置30と、前記算出された位置を指し示す指示装置40を有し、呼吸器系の障害で生じる特有の音を検知し、その音が発生した位置を特定する鶏舎監視システムである。」技術を開示している。   In Patent Document 1, an object is to “provide a monitoring system that can detect an individual affected with a disease at an early stage in a poultry house”. “In chicken diseases, the respiratory system is damaged. Therefore, at least three or more microphones 10, a filter 24 that separates a predetermined frequency component from the output of each of the microphones 10, and the frequency component from the output of the filter 24 and the position of the microphone 10 are obtained. A poultry house monitor that has a control device 30 that calculates the point of occurrence and a pointing device 40 that points to the calculated position, detects a specific sound generated by a disorder in the respiratory system, and identifies the position where the sound is generated System is disclosed technology.

特許文献2では、「本発明の音声解析装置は、音声取得部、周波数変換部、自己相関部、ピッチ検出部を備える。周波数変換部は、音声取得部で取り込んだ音声信号を周波数スペクトルに変換する。自己相関部は、周波数スペクトルを周波数軸上でずらしながら自己相関波形を求める。ピッチ検出部は、自己相関波形のローカルな山と山または谷と谷の間隔からピッチ周波数を求める。」技術を開示している。   In Patent Document 2, “The speech analysis apparatus of the present invention includes a speech acquisition unit, a frequency conversion unit, an autocorrelation unit, and a pitch detection unit. The frequency conversion unit converts the speech signal captured by the speech acquisition unit into a frequency spectrum. The autocorrelation unit obtains the autocorrelation waveform while shifting the frequency spectrum on the frequency axis, and the pitch detection unit obtains the pitch frequency from the local peak-to-peak or valley-valley interval of the autocorrelation waveform. Is disclosed.

特開2017−000062号公報Japanese Patent Application Laid-Open No. 2017-000062 国際公開番号WO2006/132159号公報International Publication No. WO2006 / 132159

人の咽喉部の異常の検出については従来、医者が患者と直接対話する中でその聴覚的印象から主観的に判断することが主流であり、定量的指標から推定する方法の実現が一課題として挙げられる。   Regarding the detection of abnormalities in the human throat, it has been the mainstream that doctors have made subjective judgments based on their auditory impressions while interacting directly with patients. Can be mentioned.

音声の特徴から発話主体の病状や特性を推定することを目的とした技術的解決策の提案として、例えば、特許文献1には、少なくとも3個以上のマイクロホン(マイク)と、マイクのそれぞれの出力から予め決められた周波数成分を分離するフィルタと、フィルタの出力とマイクの位置から、周波数成分を発生した地点を算出する制御装置と、算出された位置を指し示す指示装置を有し、呼吸器系の障害で生じる特有の音を検知し、その音が発生した位置を特定する鶏舎監視システムの技術が開示されている。   As a proposal of a technical solution for the purpose of estimating a speech state and characteristics from speech characteristics, for example, Patent Document 1 discloses at least three microphones (microphones) and respective outputs of the microphones. A filter that separates a predetermined frequency component from the above, a control device that calculates a point where the frequency component is generated from the output of the filter and the position of the microphone, and a pointing device that indicates the calculated position, and a respiratory system A technology for a poultry house monitoring system that detects a specific sound caused by a failure of the scrambler and identifies a position where the sound is generated is disclosed.

また、特許文献2には、音声取得部、周波数変換部、自己相関部、ピッチ検出部を備え、周波数変換部が音声取得部で取り込んだ音声信号を周波数スペクトルに変換し、自己相関部が周波数スペクトルを周波数軸上でずらしながら自己相関波形を求め、ピッチ検出部が自己相関波形のローカルな山と山または谷と谷の間隔からピッチ周波数を求める音声解析装置の技術が開示されている。   Patent Document 2 includes a voice acquisition unit, a frequency conversion unit, an autocorrelation unit, and a pitch detection unit. The frequency conversion unit converts a voice signal captured by the voice acquisition unit into a frequency spectrum, and the autocorrelation unit has a frequency. There has been disclosed a technology of a speech analysis apparatus that obtains an autocorrelation waveform while shifting a spectrum on the frequency axis, and that a pitch detection unit obtains a pitch frequency from the interval between local peaks and peaks or valleys and valleys of the autocorrelation waveform.

以上の先行技術文献によれば、発話音声から音声特徴を定量的に把握できる可能性があるが、特許文献1では鶏の鳴き声を対象としており、単調な周波数分析結果のみから推定する方法を複雑な音素の変化を含む人の発話に適応することは困難と考えられる。また、特許文献2では、ピッチの推定を精度良く行う技術が示されているが、目的は感情を推定することであり嗄声やドライマウスといった口腔内の異常を推定するパラメータとしてピッチのみでは不十分と考えられる。   According to the above prior art documents, there is a possibility that the voice feature can be quantitatively grasped from the uttered voice. However, in Patent Document 1, the method of estimating from only the monotonic frequency analysis result is complicated because it targets chicken calls. It is considered difficult to adapt to human speech that includes various phoneme changes. Moreover, in patent document 2, although the technique which estimates a pitch with sufficient accuracy is shown, the objective is to estimate an emotion and it is inadequate only with a pitch as a parameter which estimates abnormalities in the mouth, such as a voice and dry mouth. it is conceivable that.

したがって、人の咽喉部の状態たとえば異常を容易に検出するためには、人の発話音声を対象として口腔内の乾き具合を精度良く推定する方法が必要である。本発明はこのような事情に鑑みてなされたものであり、精度良くドライマウス等を推定可能とする音声分析技術の提供を目的とする。   Therefore, in order to easily detect a state of a person's throat, for example, an abnormality, a method for accurately estimating the dryness in the oral cavity for a person's speech is required. The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a speech analysis technology that enables dry mouth and the like to be accurately estimated.

本発明の好ましい一側面は、発話音声を受信する音声受信部と、音声受信部が受信した音声データを分析して音声特徴量を算出する音声分析処理部と、第二の音声データの分析結果からなる第二の音声特徴量を保存するデータ保存部と、音声分析処理部の算出した音声特徴量と第二の音声特徴量との差異を判定する特徴量比較部と、特徴量比較部の判定結果を出力する出力部と、を有し、音声分析処理部は、発話音声中の特定の母音を解析対象とし、音声特徴量として基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析装置である。   A preferred aspect of the present invention includes a voice receiving unit that receives speech speech, a voice analysis processing unit that analyzes voice data received by the voice receiving unit to calculate a voice feature, and a second voice data analysis result A data storage unit for storing the second audio feature amount, a feature amount comparison unit for determining a difference between the audio feature amount calculated by the audio analysis processing unit and the second audio feature amount, and a feature amount comparison unit And an output unit for outputting a determination result, wherein the voice analysis processing unit performs processing for obtaining a fundamental frequency and a resonance frequency as voice feature amounts, with a specific vowel in the utterance voice as an analysis target. Voice analysis device.

本発明の好ましい他の一側面は、発話音声を受信する音声受信ステップと、受信した発話音声の音声データを分析して、評価対象音声特徴量を算出する音声分析ステップと、リファレンスとなる音声データの分析結果からなる、リファレンス音声特徴量を取得するリファレンス取得ステップと、評価対象音声特徴量とリファレンス音声特徴量との差異を判定する特徴量比較ステップと、特徴量比較ステップの判定結果を出力する結果出力ステップと、を含み、音声分析ステップでは、発話音声中の特定の母音を解析対象の音声データとして、基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析方法である。   Another preferred aspect of the present invention includes: a voice receiving step for receiving uttered voice; a voice analyzing step for analyzing voice data of the received uttered voice to calculate an evaluation target voice feature quantity; and voice data as a reference The reference acquisition step for acquiring the reference speech feature amount, the feature amount comparison step for determining the difference between the evaluation target speech feature amount and the reference speech feature amount, and the determination result of the feature amount comparison step are output. The voice analysis step includes a result output step, and in the voice analysis step, processing for obtaining a fundamental frequency and a resonance frequency is performed by using a specific vowel in the voice as voice data to be analyzed.

本発明の技術により、口腔内の状態、たとえば、乾燥状態(ドライマウス)の早期検出を実現する。このほかの課題、構成および効果等は、以下の実施形態の説明により明らかにされる。   The techniques of the present invention provide for early detection of conditions in the oral cavity, such as dry condition (dry mouth). Other problems, configurations, effects, and the like will be made clear by the description of the embodiments below.

本発明の第一実施形態の音声分析装置1の外観およびシステム構成の一例を示す模式図。BRIEF DESCRIPTION OF THE DRAWINGS The schematic diagram which shows an example of an external appearance and system configuration | structure of the speech analyzer 1 of 1st embodiment of this invention. 第一実施形態の音声分析装置1の構成の一例を示す機能ブロック図。The functional block diagram which shows an example of a structure of the audio | voice analysis apparatus 1 of 1st embodiment. 第一実施形態におけるドライマウス検出処理の一例を示すフローチャート。The flowchart which shows an example of the dry mouse detection process in 1st embodiment. 第一実施形態における音声分析処理の一例を示すフローチャート。6 is a flowchart showing an example of speech analysis processing in the first embodiment. 第一実施形態における周波数分析結果(波形)の一例を示す模式図。The schematic diagram which shows an example of the frequency analysis result (waveform) in 1st embodiment. 第一実施形態における音声分析結果の一例を示す表図。The table which shows an example of the audio | voice analysis result in 1st embodiment. 第一実施形態における乾燥度推定処理の一例を示すフローチャート。The flowchart which shows an example of the dryness estimation process in 1st embodiment. 第一実施形態における特徴量比較処理の一例を示すフローチャート。The flowchart which shows an example of the feature-value comparison process in 1st embodiment. 第一実施形態におけるドライマウス検出結果の表示画面の一例を示す模式図。The schematic diagram which shows an example of the display screen of the dry mouse detection result in 1st embodiment. 第一実施形態における特徴量比較処理方法を変更する処理の一例を示すフローチャート。The flowchart which shows an example of the process which changes the feature-value comparison processing method in 1st embodiment. 本発明の第二実施形態の音声分析装置3の外観およびシステム構成の一例を示す模式図。The schematic diagram which shows an example of an external appearance and system configuration | structure of the speech analyzer 3 of 2nd embodiment of this invention. 第二実施形態の音声表示装置3の構成の一例を示す機能ブロック図。The functional block diagram which shows an example of a structure of the audio | voice display apparatus 3 of 2nd embodiment. 第二実施形態におけるドライマウス検出処理の一例を示すフローチャート。The flowchart which shows an example of the dry mouse detection process in 2nd embodiment. 第二実施形態におけるドライマウス検出結果の表示画面の一例を示す模式図。The schematic diagram which shows an example of the display screen of the dry mouse detection result in 2nd embodiment.

以下、本発明の実施形態について図面を用いて説明する。以下では、全図を通じて同一の構成に対しては同一の符号を付与して重複する説明を省略することがある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, the same reference numerals may be given to the same configuration throughout all the drawings, and redundant description may be omitted.

本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。   The present invention should not be construed as being limited to the description of the embodiments below. Those skilled in the art can easily understand that the specific configuration can be changed without departing from the spirit or the spirit of the present invention.

本明細書等における「第一」、「第二」、「第三」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。   In the present specification etc., the notations such as "first", "second", "third" etc. are added to identify the constituent elements, and the number, order, or contents thereof are necessarily limited. is not. In addition, the identification numbers of components are used for each context, and the numbers used in one context do not necessarily indicate the same configuration in other contexts. In addition, it does not prevent that a component identified by a certain number doubles as a feature of a component identified by another number.

図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。   The positions, sizes, shapes, ranges, and the like of the components shown in the drawings and the like may not indicate actual positions, sizes, shapes, ranges, and the like in order to facilitate understanding of the invention. For this reason, the present invention is not necessarily limited to the position, size, shape, range, and the like disclosed in the drawings and the like.

以下で説明する実施例では、発話音声の周波数的特徴を主要な変数として、精度良くドライマウスを推定可能とする音声分析技術を説明する。このために、例えば、発話音声を受信する音声受信部と、音声受信部が受信した音声データを分析して音声特徴量を算出する音声分析処理部と、第二の音声データの分析結果からなる第二の音声特徴量を保存するデータ保存部と、音声分析処理部の算出した音声特徴量と第二の音声特徴量との差異を判定する特徴量比較部と、特徴量比較部の判定結果に応じて音声表示する音声表示部と、を有し、音声分析処理は、発話音声中の特定の母音を解析対象として基本周波数と共振周波数を求める処理を行う音声分析装置および分析方法が説明される。   In the embodiment described below, a voice analysis technique that enables a dry mouse to be estimated with high accuracy using the frequency characteristics of a speech voice as a main variable will be described. For this purpose, for example, the voice reception unit that receives the speech voice, the voice analysis processing unit that analyzes the voice data received by the voice reception unit and calculates the voice feature amount, and the analysis result of the second voice data A data storage unit that stores the second voice feature value, a feature value comparison unit that determines a difference between the voice feature value calculated by the voice analysis processing unit and the second voice feature value, and a determination result of the feature value comparison unit And a voice analysis unit that performs a process of obtaining a fundamental frequency and a resonance frequency by using a specific vowel in a speech as an analysis target. The

熱中症による病院への救急搬送件数は夏場の外気温が年々上昇する傾向に相関して増加傾向にある。搬送の条件として多いのが、高齢者が自宅で倒れる場合である。高齢になると喉の渇きに鈍感になるという研究結果もあり、この救急搬送を防止するための一つの対策方法として、日常生活の中で熱中症が体に及ぼす変化をいち早くとらえ、本人に気が付かせることが有意義である。   The number of ambulances transported to hospitals due to heat stroke has been increasing in correlation with the trend of increasing outdoor temperatures in summer. It is often the case that an elderly person falls at home as a condition for transportation. There is also a research result that thirst becomes insensible as we get older, and as a countermeasure method to prevent this emergency transportation, we catch the change that heat stroke has on the body in daily life quickly and notice the person Is meaningful.

また、例えば腎臓疾患に対する特定の治療薬においては強い利尿作用を持つものがあり、常用する場合にこまめな水分摂取を怠ると脱水症状を生じるばかりでなく、血液濃度が上昇することで別の病気を併発する危険性を高めてしまう恐れがある。そのため、早期に喉の渇きを検出して本人に水分補給を促すことで、薬の副作用の影響を低減ないし解消することが有意義である。   In addition, for example, certain therapeutic drugs for kidney disease have a strong diuretic effect, and neglecting frequent water intake during regular use not only causes dehydration, but also increases blood concentration. There is a risk of increasing the risk of co-occurring. Therefore, it is meaningful to reduce or eliminate the effects of drug side effects by detecting thirst at an early stage and prompting the person to rehydrate.

このほか、ストレスと喉の渇きには因果関係が有り、ストレス要因を取り除くという根本解決が困難な状況においては、喉の渇きの解消は併発の恐れがある症状の悪化を予防する対策の一つとして挙げられる。   In addition, there is a causal relationship between stress and thirst, and in situations where it is difficult to solve the fundamental problem of removing the stress factor, eliminating thirst is one of the measures to prevent worsening symptoms that may occur simultaneously. As mentioned.

以下では上記の社会課題解決に向け、人の発話音声からドライマウスの傾向を検出する音声分析装置および音声分析方法について記載する。   In the following, a voice analysis device and a voice analysis method for detecting a tendency of dry mouth from human's voice will be described to solve the above-mentioned social problem.

図1には音声分析装置の外観の一例を示す。これは例えば動物をモチーフとした人形の外観を有する音声分析装置1を、日常生活中の使用者の見守りや異常行動検知等に用いながら、使用者の発した音声データを取得・分析することで先の目的を達するものである。この音声分析装置1は使用者との簡易的な会話を行うために必要なマイクロホンやスピーカを含む電子回路部品などを内蔵しており、無線ネットワークの接続により通信装置2とのデータ送受信や制御を可能とする。音声分析装置1の外観上はマイクロホン(マイク)10とスピーカ11のみ表出しており、その他音声分析や音声表示に必要となる電子回路等は内蔵した例を記載している。なお、外観形状は動物に制限する必要はなく、使用者の身近に置けるものでよく、またマイク等以外の電子回路部品が表出していても良い。   FIG. 1 shows an example of the appearance of a voice analysis device. This is because, for example, the voice analysis apparatus 1 having the appearance of a doll with an animal motif is used for monitoring and monitoring abnormal behavior of the user in daily life, and by acquiring and analyzing voice data emitted by the user. It achieves the above purpose. The voice analysis device 1 incorporates electronic circuit components including a microphone and a speaker necessary for conducting a simple conversation with the user, and transmits and receives data to and from the communication device 2 by connection of a wireless network. Make it possible. Only the microphone (microphone) 10 and the speaker 11 are shown on the external appearance of the voice analysis device 1, and other electronic circuits and the like necessary for voice analysis and voice display are described. Note that the external shape need not be limited to animals, and may be placed close to the user, or an electronic circuit component other than a microphone or the like may be exposed.

通信装置2はいわゆるスマートフォンやタブレット型パーソナルコンピュータに相当し、表示画面20には使用者に通知するメッセージを表示する。また、音声分析装置1の操作用のアプリケーションソフトウェアを搭載することで、例えば使用者の操作に応じて、音声分析装置1に操作コマンドを送信したり、動作状態を把握したりすることを可能とする。操作ボタン21は、通信装置2の例えばホーム画面を呼び出すなどの操作を行う。なお通信装置2の操作方法はこの操作ボタン21の使用に限らず、表示画面20の表面に触覚を感知するセンサが搭載され、画面の接触操作で行う方法を有してもよい。   The communication device 2 corresponds to a so-called smartphone or tablet personal computer, and displays a message to notify the user on the display screen 20. In addition, by installing application software for operating the voice analysis device 1, it is possible to send an operation command to the voice analysis device 1 or grasp the operating state in accordance with, for example, a user operation. To do. The operation button 21 performs an operation such as calling a home screen of the communication device 2. Note that the operation method of the communication device 2 is not limited to the use of the operation button 21, and a sensor that detects a tactile sensation may be mounted on the surface of the display screen 20, and may be performed by a screen touch operation.

図2には音声分析装置1に内蔵されている、音声分析機能に関わる機能構成を示すブロック図を示す。当該構成は基本的に、入力装置、出力装置、処理装置、記憶装置を備えるコンピュータで構成することにした。   FIG. 2 is a block diagram showing a functional configuration related to the voice analysis function, which is built in the voice analysis device 1. The configuration basically includes a computer including an input device, an output device, a processing device, and a storage device.

音声受信部101は、マイク10からのアナログ音声入力をデジタル化して処理部102で扱えるようにする。処理部102は、音声分析装置1のデジタル処理全般を行う機能部である。音声受信部101、処理部102は、プログラムに基づく各種処理を行う処理装置である電子部品、例えばマイクロコンピュータチップやCPU(Central Processing Unit)、で構成することができる。処理部102は、音声データの分析処理や、データ保存部103やメモリ104へのデータの読み書き、その他各機能部とのデータ送受信などを行う。例えば通信部106を介して通信装置2からの制御データを受信する、もしくは音声データを音声出力部105へ送信するなどを行う。   The voice receiving unit 101 digitizes the analog voice input from the microphone 10 so that the processing unit 102 can handle it. The processing unit 102 is a functional unit that performs the entire digital processing of the voice analysis device 1. The voice receiving unit 101 and the processing unit 102 can be configured by electronic components, for example, a microcomputer chip or a CPU (Central Processing Unit), which are processing devices that perform various processes based on a program. The processing unit 102 performs analysis processing of audio data, reading / writing of data to / from the data storage unit 103 and the memory 104, and data transmission / reception with other functional units. For example, control data from the communication device 2 is received via the communication unit 106, or audio data is transmitted to the audio output unit 105.

データ保存部103、メモリ104は記憶装置である。データ保存部103は不揮発性メモリを有し、処理部102の指示に応じて不揮発性メモリ上へのデータの読み書きを制御する。例えば起動時に読み込まれ音声受信部101や処理部102が使用するプログラムや、使用者個人に紐づく音声特徴量データ(平常時データ2001)や、後に説明する判定処理に必要な閾値データである長さ閾値2002,強度閾値2003,判定閾値2004などが記録される。メモリ104は揮発性メモリであり、処理部102での処理に必要な、前記の一連のデータ(プログラム、特徴量データ、閾値データ)を展開したり、一時的に蓄積が必要なデータを書き込み・読み出したりする用途で使用される。   The data storage unit 103 and the memory 104 are storage devices. The data storage unit 103 has a nonvolatile memory, and controls reading and writing of data on the nonvolatile memory in accordance with an instruction from the processing unit 102. For example, a program that is read at startup and used by the voice receiving unit 101 and the processing unit 102, voice feature value data (normal data 2001) associated with the individual user, and threshold data necessary for determination processing described later A threshold value 2002, an intensity threshold value 2003, a determination threshold value 2004, and the like are recorded. The memory 104 is a volatile memory, and expands the series of data (program, feature amount data, threshold data) necessary for processing in the processing unit 102 or writes data that needs to be temporarily stored. Used in applications such as reading.

出力装置(出力部)である音声出力部105は例えばあらかじめデータ保存部103やメモリ104に記録された音声データや、処理部102が音声合成処理を行った音声データを受信し、スピーカ11への音声出力処理を行う。入力及び出力装置である通信部106は近接通信を行うアンテナを有し、通信装置2とのデータ送受信を制御する。   The audio output unit 105 which is an output device (output unit) receives, for example, audio data recorded in advance in the data storage unit 103 or the memory 104 or audio data on which the processing unit 102 has performed audio synthesis processing. Perform audio output processing. A communication unit 106 which is an input and output device has an antenna for performing near field communication, and controls data transmission and reception with the communication device 2.

上記の説明では、処理や制御等の機能は、データ保存部103に格納されたプログラムがマイクロコンピュータのCPUによって実行されることで、定められた処理を他のハードウェアと協働して実現されることにした。   In the above description, the functions such as processing and control are realized by the CPU stored in the data storage unit 103 being executed by the CPU of the microcomputer to cooperate with other hardware to execute the determined processing. I decided to

ただし、これらの機能はいずれもハードウェア回路として機能を有するのでも、プログラムとして実装され処理させるのでも良い。たとえば本実施例中、ソフトウェアで構成した機能と同等の機能は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などのハードウェアでも実現できる。   However, all of these functions may be implemented as hardware circuits or implemented as programs. For example, in this embodiment, a function equivalent to a function configured by software can be realized by hardware such as an FPGA (Field Programmable Gate Array) and an ASIC (Application Specific Integrated Circuit).

また、以上の構成は、上記説明のように音声分析装置1に内蔵した単体のコンピュータで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワーク等で接続された他のコンピュータで構成されてもよい。たとえば、音声受信部101で取得した音声信号を、通信部106からネットワークを介して遠隔にあるサーバに送信し、サーバ内に設けた処理部102やメモリ104等で処理することも可能である。あるいは同様の処理を、通信装置2で行なってもよい。   The above configuration may be configured by a single computer built in the voice analysis device 1 as described above, or any part of the input device, output device, processing device, and storage device may be a network. It may be constituted by other computers connected by, for example. For example, the audio signal acquired by the audio receiving unit 101 can be transmitted from the communication unit 106 to a remote server via a network and processed by the processing unit 102, the memory 104, or the like provided in the server. Alternatively, similar processing may be performed by the communication device 2.

図3には音声分析装置1に使用者の音声入力があった場合の処理シーケンスを示す。使用者の音声入力とは、例えば一つの文章構造を持った使用者の発話動作や呼びかけの語句等であり、音声分析装置1が音声を検知した後、一定長の無音区間の検出をもってして入力が完了したと認識し、一回の入力が完了する毎に本処理シーケンスを繰り返して処理を行う。   FIG. 3 shows a processing sequence when the voice analysis device 1 receives voice input from the user. The user's voice input is, for example, a user's utterance action or calling phrase with a single sentence structure. After the voice analyzer 1 detects a voice, it detects a silent section of a certain length. It recognizes that the input is completed, and repeats this processing sequence every time one input is completed.

ステップ(以降Sと表記)301の音声取得処理では、マイク10を通して音声受信部101にて使用者の音声データを取得する。時間的離散化(サンプリング)処理や量子化処理(アナログからデジタルデータへの変換)や必要に応じて一般的な手法を用いたノイズ除去処理等を行い、使用者の発話音声のデジタル信号を得て処理部102へ転送し、S302へ進む。サンプリング処理や量子化処理の精度は一般的に流通している音声フォーマットに従えば良いが、処理を細かく行うほど精密な処理が可能となる一方で必要なメモリ量が多くなるため、装置構成に適した設定を行うので良い。   In the voice acquisition process of step (hereinafter referred to as S) 301, voice data of the user is acquired by the voice reception unit 101 through the microphone 10. Performs digital discretization (sampling) processing, quantization processing (conversion from analog to digital data), and noise removal processing using general techniques as necessary to obtain a digital signal of the user's speech Then, the process is transferred to the processing unit 102, and the process proceeds to S302. The accuracy of sampling processing and quantization processing may be in accordance with a generally-used audio format, but as processing becomes finer, more precise processing becomes possible, but the required memory amount increases, so It is good because you do the suitable setting.

音声取得処理S301のタイミングとしては、例えば別途設けた音声センサにより、音声の入力を検知したタイミングで処理を開始するようにすることができる。あるいは、音声分析装置1のスピーカ11や通信装置2から、任意あるいは定期的なタイミングで、発話を促すメッセージを発することにより処理を開始するようにしてもよい。   As the timing of the voice acquisition processing S301, for example, the processing can be started at the timing at which the input of the voice is detected by a separately provided voice sensor. Alternatively, the processing may be started by issuing a message prompting utterance from the speaker 11 or the communication device 2 of the voice analysis device 1 at an arbitrary or regular timing.

S302の母音部分抽出処理では、処理部102が入力された音声デジタル信号の音素解析を行いS303へ進む。音素への分解は、言語によっても音素セットが異なり、例えば日本語であれば、一般的に母音となる5音(発音記号表記では/a/、/i/、/u/、/e/、/o/)を音声波形から検出する。英語の場合には諸説あるものの一例としては15音(発音記号表記を表1に示す)を対象とするなどがある。   In the vowel part extraction process of S302, the processing unit 102 performs phoneme analysis of the input audio digital signal, and the process proceeds to S303. For decomposition into phonemes, the phoneme set differs depending on the language. For example, in Japanese, five vowels are generally vowels (/ a /, / i /, / u /, / e /, Detect / o / from the speech waveform. In the case of English, as an example of what has various theories, there are 15 sounds (phonetic symbols are shown in Table 1).

Figure 2019128531
Figure 2019128531

15音のうちで舌面高低位置と舌面最高部の前後位置が同じ音韻(例えば表2参照)については同一視して検出対象とするなどして簡略化を図るなどしても良い。   Among the fifteen sounds, the same phoneme (see, for example, Table 2) having the same tongue surface high and low position with respect to the tongue surface (for example, see Table 2) may be regarded as a detection target.

Figure 2019128531
Figure 2019128531

音素の検出方法には、例えば予め各母音の一般的な波形をプログラムの一部としてデータ保存部103に記録しておき、入力波形との類似度で判定することで母音を検出するといった方法がある。近年では入力された音声データの文章を音素に分解するソフトウェアやAPI(Application Programming Interface)なども存在し、これらを機能に組み込むことでも容易に実現可能である。   As a method of detecting phonemes, for example, a general waveform of each vowel is recorded in advance in the data storage unit 103 as a part of a program, and vowels are detected by judging based on the similarity to the input waveform. is there. In recent years, there are software and API (Application Programming Interface) that decompose a sentence of input voice data into phonemes, and it can be easily realized by incorporating these into functions.

S303の解析対象有無判定処理では、処理部102は、音素分解した結果に、母音が含まれていれば解析すべき対象のデータ有りと判断してS304に進み、そうでない場合は解析すべき対象のデータ無しと判断し処理を終了する。例えば、取得した発話内容が、日本語で「おはようございます」だった場合、この文章には母音として「お(/o/)」と「い(/i/)」が含まれており、解析対象有りと判断する。発話の全部を用いずに、母音部分を抽出することにより、プライバシーに配慮が可能となると同時に、発話の特徴を解析しやすくなり、発話者の状態を容易に判定することができるようになる。   In the analysis target presence / absence determination process in S303, the processing unit 102 determines that there is data to be analyzed if the vowel is included in the result of phoneme decomposition, and proceeds to S304. It is judged that there is no data of and the process is ended. For example, if the acquired utterance content is “Good morning” in Japanese, this sentence includes “o (/ o /)” and “i (/ i /)” as vowels, and is analyzed. It is determined that there is an object. By extracting the vowel part without using the entire utterance, privacy can be considered, and at the same time, the characteristics of the utterance can be easily analyzed and the state of the utterer can be easily determined.

S304の音声分析処理では、検出された各母音の全てに対して母音データの先頭を解析開始点に設定して図4に示す処理を行いS305へ進む。   In the speech analysis process of S304, the beginning of the vowel data is set as the analysis start point for all detected vowels, the process shown in FIG. 4 is performed, and the process proceeds to S305.

図4は、図3のS304の音声分析処理の詳細を示す。図4の音声分析処理は、S302で抽出された母音部分のデータのそれぞれについて行なわれる。音声分析処理は、処理部102に含まれる、音声分析処理部が行なうものとする。   FIG. 4 shows details of the voice analysis processing in S304 of FIG. The speech analysis process of FIG. 4 is performed on each of the data of vowel parts extracted in S302. The speech analysis processing is performed by the speech analysis processing unit included in the processing unit 102.

S401のデータ長判定処理では、処理部102が選択された母音データに対して、解析開始点からのデータの長さ(フレーム長)が解析を行うのに十分な長さを有するかどうかを判定する。判定のための長さ閾値2002は例えば10ミリ秒のような時間長の表現や882バイトのようなデータ長の表現を用いて良く、プログラムの一部として予めデータ保存部103に記録され、起動時にメモリ104に展開して使用する。十分な長さを有する場合にはS402へ進み、十分な長さに不足する場合にはS407へ進む。   In the data length determination process of S401, the processing unit 102 determines whether the data length (frame length) from the analysis start point has sufficient length for analysis with respect to the selected vowel data. To do. The length threshold 2002 for determination may be expressed using a time length expression such as 10 milliseconds or a data length expression such as 882 bytes, which is recorded in the data storage unit 103 in advance as part of the program and activated. At the same time, it is expanded and used in the memory 104. If the length is sufficient, the process proceeds to step S402. If the length is insufficient, the process proceeds to step S407.

S402の音の強さ解析処理では、S401で例えば10ミリ秒のように予め定められたフレーム長のデータに対して、処理部102は波形の振幅の平均値を音声強度(インテンシティもしくはボリュームともいう)として算出し、メモリ104に記録してS403へ進む。   In the sound intensity analysis process of S402, the processing unit 102 processes the average value of the waveform amplitude with respect to the sound intensity (intensity or volume for data of a predetermined frame length such as 10 milliseconds in S401). ) And record it in the memory 104 and proceed to S403.

S403の周波数解析処理では、処理部102が予め定められたフレーム長のデータに対しフーリエ変換を行い周波数スペクトルを算出し、S404へ進む。なお、フーリエ変換を行う際にはデータの端点の不連続性に配慮して窓関数を用いることがあるが、一般的な窓関数としてハミング窓やハニング窓を用いることで良い。   In the frequency analysis process of S403, the processing unit 102 performs Fourier transform on data of a predetermined frame length to calculate a frequency spectrum, and the process proceeds to S404. When Fourier transformation is performed, a window function may be used in consideration of the discontinuity of the end points of data. However, a Hamming window or a Hanning window may be used as a general window function.

図5には周波数解析結果の一例を示した。横軸に周波数(kHz)、縦軸に強度(パワー)(任意単位)を取ってグラフ化すると、音声波形は一般的に櫛形状の波形(図中の実線)となる。   FIG. 5 shows an example of the frequency analysis result. When the horizontal axis represents frequency (kHz) and the vertical axis represents intensity (power) (arbitrary unit), the speech waveform is generally a comb-shaped waveform (solid line in the figure).

図4に戻り、S404の基本周波数(ピッチ)推定処理では、処理部102が基本周波数を算出し、メモリ104に記録してS405へ進む。基本周波数の算出方法としては、例えば、S403で得られる櫛形状の波形の最も低周波のピーク値を選択する方法や、所定の周波数帯域における櫛形状波形のピークとピークの間隔を求め、その平均値として求める方法等がある。図5の例示では最低周波数のピークと2番目に低い周波数のピークとの差分をF0として示している。   Returning to FIG. 4, in the fundamental frequency (pitch) estimation process of S404, the processing unit 102 calculates the fundamental frequency, and stores the fundamental frequency in the memory 104, and the process proceeds to S405. As a method of calculating the fundamental frequency, for example, a method of selecting the lowest frequency peak value of the comb-shaped waveform obtained in S403, or an interval between peaks of the comb-shaped waveform in a predetermined frequency band is determined. There is a method of obtaining as a value. In the example of FIG. 5, the difference between the lowest frequency peak and the second lowest frequency peak is indicated as F0.

S405の共振周波数推定処理では、処理部102がS403で得られた周波数特性の波形に対して例えばケプストラム法や線形予測分析法(Linear Prediction Coding)といった手法を適用してスペクトル包絡を算出し、包絡線のうちで最も低周波のピーク値と二番目に低周波のピーク値を、第一共振周波数と第二共振周波数としてメモリ104に記録してS406へ進む。図5中では破線でスペクトル包絡線を示し、第一共振周波数となる点にF1、第二共振周波数となる点にF2と示す。F1、F2のようなピーク値はフォルマントと呼ばれ、発話者によって特定の値をとるが、一般に発話中も時間にともなって変化する。また、発話者のドライマウス等の状態によっても変化し、この変化は基本周波数や共振周波数の平均値や分散値の変化を計算することにより検知することができる。   In the resonance frequency estimation process of S405, the processing unit 102 calculates a spectral envelope by applying a method such as a cepstrum method or a linear prediction analysis method (Linear Prediction Coding) to the waveform of the frequency characteristic obtained in S403, The lowest frequency peak value and the second lowest frequency peak value among the lines are recorded in the memory 104 as the first resonance frequency and the second resonance frequency, and the process proceeds to S406. In FIG. 5, the spectral envelope is indicated by a broken line, indicated by F1 at the point of the first resonance frequency and F2 at the point of the second resonance frequency. Peak values such as F1 and F2 are called formants and take specific values depending on the speaker, but generally change with time even during speech. It also changes depending on the state of the speaker's dry mouth, etc., and this change can be detected by calculating changes in the average value and dispersion value of the fundamental frequency and resonance frequency.

S406の解析場所移動処理では、処理部102が例えば10ミリ秒など予め定めた時間間隔(フレーム更新周期)分だけS402〜S405に示す解析の開始位置を変更してS401へ進む。すなわち、母音として抽出した音声信号の範囲に対して、所定のフレーム更新周期ずつ解析位置をずらして繰り返し解析処理を行う。   In the analysis place movement process of S406, the processing unit 102 changes the start position of analysis shown in S402 to S405 by a predetermined time interval (frame update period) such as 10 milliseconds, and proceeds to S401. That is, with respect to the range of the audio signal extracted as the vowel, the analysis position is repeatedly shifted by a predetermined frame update period and the analysis process is repeatedly performed.

S407の結果保存処理では、処理部102はS403〜S405を繰り返し実施した結果(時間、音量の大きさ、基本周波数、共振周波数の全ての組み合わせ)から特徴量を算出し、メモリ104に記録して処理を終了する。具体的な例では、音量の大きさが一定以上(例えば60dB以上)の時間における基本周波数、第一共振周波数、第二共振周波数の平均値および分散値を求め、これを解析対象の母音の音響特徴量として記録する。   In the result storage process of S407, the processing unit 102 calculates a feature amount from the result of repeating S403 to S405 (all combinations of time, volume level, fundamental frequency, and resonance frequency) and records it in the memory 104. The process ends. In a specific example, an average value and a dispersion value of the fundamental frequency, the first resonance frequency, and the second resonance frequency in a time when the volume size is a certain level or more (for example, 60 dB or more) are determined. Record as feature quantity.

図6は、音声分析結果である特徴量を示すデータの一例である。図6では各母音について、基本周波数、第一共振周波数、第二共振周波数それぞれの平均と分散を記録している。なお、データ保存部103には、これに対応した、例えば同様の表形式のリファレンスとなる特徴量が平常時データ2001としてあらかじめ記録されている。これは、例えば使用者の平常時の発話から採取した特徴量である。   FIG. 6 is an example of data indicating a feature amount as a voice analysis result. In FIG. 6, the average and the variance of each of the fundamental frequency, the first resonance frequency, and the second resonance frequency are recorded for each vowel. Note that, in the data storage unit 103, a feature amount serving as a reference of, for example, the same tabular format corresponding to the above is recorded in advance as the normal data 2001 in advance. This is, for example, a feature value acquired from a normal utterance of the user.

なお、音量の大きさが低い場合、声量が小さく基本周波数が検出できなくなる懸念があり、音量の大きさを一定以上とすることで、明瞭な音響特徴を得ることを可能とする効果がある。この場合、音量の強度閾値2003を用いて、十分な強度の音声信号のみを解析に利用する。ただし明瞭な特徴を得るための音量の強度閾値2003の設定については個人差もあるため、例えば初期設定ではあらかじめ低く設定しておき、検出の成否率に応じて少しずつ高く設定値を変更するといった、強度閾値2003を可変とする方法としても良い。   When the volume level is low, there is a concern that the voice volume is small and the fundamental frequency cannot be detected. By setting the volume level to a certain level or more, there is an effect that a clear acoustic feature can be obtained. In this case, only the sound signal of sufficient intensity is used for analysis using the volume intensity threshold 2003. However, since there is an individual difference in the setting of the volume intensity threshold 2003 for obtaining a clear feature, for example, the initial setting is set to a low value in advance, and the setting value is changed little by little depending on the success / failure rate of detection. The intensity threshold 2003 may be variable.

図7は、図3のS305の乾燥度推定処理の詳細を示す。S305の乾燥度推定処理では、S304で得られた全母音に対する特徴量データに対して図7に示す処理を行い、図3の処理を終了する。   FIG. 7 shows details of the dryness estimation process in S305 of FIG. In the dryness degree estimation process of S305, the process shown in FIG. 7 is performed on the feature amount data for all vowels obtained in S304, and the process of FIG. 3 is ended.

図7において、S501の平常データ取得処理では、処理部102はデータ保存部103よりあらかじめ取得し保存される、使用者の平常時の状態における各母音の特徴量データである平常時データ2001を取得してS502へ進む。   In FIG. 7, in the normal data acquisition process of S <b> 501, the processing unit 102 acquires normal data 2001 that is characteristic amount data of each vowel in the normal state of the user, which is acquired and stored in advance from the data storage unit 103. Then, the process proceeds to S502.

S502の特徴量比較処理では、処理部102は今回取得した各母音データの特徴量データとS501で取得した平常時の特徴量データの比較を実施する。   In the feature amount comparison process in S502, the processing unit 102 compares the feature amount data of each vowel data acquired this time with the normal feature amount data acquired in S501.

図8に、図7の特徴量比較処理手順S502の一例を示す。特徴量比較処理は、処理部102に含まれる、特徴量比較部が行なうものとする。S601の母音種別判定処理では、処理部102は、対象の母音があらかじめプログラムなどで定められた所定の母音情報である場合は解析対象と判断しS602へ進み、その他の母音の場合は比較処理を実施しない。例えば、取得した母音データが「い(/i/)」と「え(/e/)」であれば解析対象とし、それ以外であれば解析対象としない。対象の母音については、データ保存部103に対応したリファレンスとなる特徴量が記録されており、S501で当該データが取得されている。   FIG. 8 shows an example of the feature amount comparison processing procedure S502 of FIG. The feature amount comparison process is performed by the feature amount comparison unit included in the processing unit 102. In the vowel type determination process in S601, the processing unit 102 determines that the target vowel is analysis target if the target vowel is predetermined vowel information determined in advance by a program or the like, and proceeds to S602. In the case of other vowels, the processing is performed. Not implemented. For example, if the acquired vowel data is “i (/ i /)” and “e (/ e /)”, the analysis target is set. Otherwise, the analysis target is not set. As for the target vowel, a feature amount serving as a reference corresponding to the data storage unit 103 is recorded, and the data is acquired in S501.

S602の基本周波数比較処理では、処理部102が基本周波数の平均値を比較し、所定の値以上の差分がある場合は有意差ありと判断してS603へ進み、差分が所定の値より小さい場合には有意差なし(無効)と判断してS605へ進む。この判断のために、データ保存部103に格納された判定閾値2004を用いる。判定に用いる判定閾値2004の値については、例えば30Hzといった一定の周波数での表現や、あるいは、20%といった割合での表現がある。   In the fundamental frequency comparison process of S602, the processing unit 102 compares the average values of the fundamental frequencies, and if there is a difference greater than or equal to a predetermined value, it is determined that there is a significant difference and the process proceeds to S603, and the difference is smaller than the predetermined value. It is determined that there is no significant difference (invalid), and the process proceeds to S605. For this determination, the determination threshold value 2004 stored in the data storage unit 103 is used. The value of the determination threshold 2004 used for the determination may be represented by a constant frequency such as 30 Hz, or represented by a ratio such as 20%.

S603の共振周波数比較処理では、処理部102が第一共振周波数の分散値を比較し、所定の値以上の差分がある場合は有意差ありと判断してS604へ進み、差分が所定の値より小さい場合には有意差なし(無効)と判断してS605へ進む。この判断のために、データ保存部103に格納された判定閾値2004を用いる。判定に用いる判定閾値2004の値については、例えば50といった値での表現や、あるいは、対象の母音データのそれまでの分散の確率分布をあらかじめ算出しておき、分布の80%に収まる範囲といった割合による表現がある。   In the resonance frequency comparison process of S603, the processing unit 102 compares the dispersion values of the first resonance frequency, and if there is a difference greater than or equal to a predetermined value, the processing unit 102 determines that there is a significant difference and proceeds to S604. If it is smaller, it is determined that there is no significant difference (invalid), and the process proceeds to S605. For this determination, the determination threshold value 2004 stored in the data storage unit 103 is used. As for the value of the determination threshold 2004 used for the determination, for example, a ratio such as an expression with a value such as 50, or a probability distribution of the distribution of the target vowel data up to that point, which falls within 80% of the distribution. There is an expression by.

S602、S603における処理は、算出された基本周波数の平均値や共振周波数の分散値を、定常状態におけるそれと比較する処理となる。基本周波数の平均値や共振周波数の分散値のデータは、S404、S405、S406にて解析場所を少しずつずらしながら取得した複数のデータから、S407で、これら複数のデータの平均値および分散値を算出し、その結果を特徴量として記録しておき、S602、S603で使用する。   The processing in S602 and S603 is processing to compare the calculated average value of the fundamental frequency and the dispersion value of the resonance frequency with those in the steady state. The data on the average value of the fundamental frequency and the dispersion value of the resonance frequency is obtained by calculating the average value and the dispersion value of the plurality of data in S407 from the plurality of data acquired by shifting the analysis place little by little in S404, S405, and S406. It is calculated, and the result is recorded as a feature amount, and is used in S602 and S603.

以上では、平常時の音声データの基本周波数の平均値をリファレンスとして、音声分析処理部が求めた基本周波数の平均値とリファレンスの差分が、所定の閾値より大きいかどうかを判定した。また、平常時の音声データの共振周波数の分散値をリファレンスとして、音声分析処理部が求めた共振周波数の分散値とリファレンスの差分が、所定の閾値より大きいかどうかを判定した。この例では、両方の結果がともにYESのときに、ドライマウスと判定している。このような判定方法によれば、ドライマウスかどうかの判定を効率的に行なうことができる。   In the above, using the average value of the fundamental frequency of normal voice data as a reference, it is determined whether or not the difference between the average value of the fundamental frequency obtained by the speech analysis processing unit and the reference is greater than a predetermined threshold. Further, using the dispersion value of the resonance frequency of the normal audio data as a reference, it was determined whether or not the difference between the resonance frequency dispersion value obtained by the sound analysis processing unit and the reference is larger than a predetermined threshold. In this example, when both results are YES, it is determined that the mouse is dry. According to such a determination method, it can be efficiently determined whether it is a dry mouse.

本実施例では、判定閾値2004は、基本周波数の平均値と共振周波数の分散値のそれぞれに対して設定されている。上記の例では、基本周波数の平均値と共振周波数の分散値をパラメータとして判定を行なっているが、他のパラメータを追加することを妨げるものではない。   In the present embodiment, the determination threshold 2004 is set for each of the average value of the fundamental frequency and the dispersion value of the resonant frequency. In the above example, the determination is performed using the average value of the fundamental frequency and the dispersion value of the resonance frequency as parameters, but this does not prevent the addition of other parameters.

S604の差異有効判定処理では、処理部102は比較した母音について最終的に有意差あり(有効)と判断してS605へ進む。   In the difference validity determination process of S604, the processing unit 102 finally determines that there is a significant difference (valid) for the compared vowels, and the process proceeds to S605.

S605の結果保存処理では、処理部102は有意差の有効・無効の結果をメモリ104へ記録して処理を終了する。   In the result storage process of S605, the processing unit 102 stores the result of the significant difference between valid and invalid in the memory 104, and ends the process.

以上の図8の処理を各母音について繰り返し、メモリ104に記録されている直近の所定の個数の特徴量比較処理結果のうち、一定の割合以上で差異有効と判断されている場合は、ドライマウスの症状を検知したと判断してS503へ進む。例えばメモリ104上に常に最新の10個の特徴量比較処理結果を保存しておき、このうちの8割以上で有効と判断した場合に検知の判断を行う。   The above processing in FIG. 8 is repeated for each vowel, and if it is determined that the difference is valid at a certain ratio or more among the latest predetermined number of feature amount comparison processing results recorded in the memory 104, the dry mouse It is determined that the symptom is detected, and the process proceeds to S503. For example, the latest 10 feature value comparison processing results are always stored in the memory 104, and detection is performed when it is determined that more than 80% of the results are valid.

S503のメッセージ表示処理では、処理部102は通信部106を介して通信装置2に対して使用者にドライマウスの可能性を示唆するメッセージを送信する処理を行いS504へ進む。   In the message display process of S503, the processing unit 102 performs a process of transmitting a message suggesting the possibility of a dry mouse to the user via the communication unit 106 to the communication apparatus 2, and the process proceeds to S504.

図9に、通信装置2の表示画面20におけるメッセージ表示画面の例を示す。これについては、後に再度説明する。   In FIG. 9, the example of the message display screen in the display screen 20 of the communication apparatus 2 is shown. This will be explained again later.

S504の音声出力処理では、処理部102はデータ保存部103に予め記録されている、もしくはメモリ104上に予め展開された音声データより、この場合に再生する音声データ情報を読み出し、音声出力部105へ転送して処理を終了する。音声出力部105は受信した音声データ情報を再生し、スピーカ11に出力して使用者にメッセージを通知する。   In the audio output process of S504, the processing unit 102 reads out audio data information to be reproduced in this case from the audio data recorded in advance in the data storage unit 103 or previously developed in the memory 104, and the audio output unit 105 Transfer to the end of the process. The voice output unit 105 reproduces the received voice data information and outputs it to the speaker 11 to notify the user of the message.

以上の実施内容によれば、口腔内の乾燥を早期に発見して使用者に気が付かせる効果が得られ、使用者が自ら水分補給をするなどの行動を促し乾燥状態から回復する、あるいは悪化を防ぐ効果が得られる。また、以上の実施内容によれば、母音のみを抽出して解析を行うため、発話内容全体を把握する必要性が無く、プライバシーに配慮した処理を実現する効果が得られる。基本周波数の比較について平均値を用いることは、乾燥による声門や声帯部の剛性の変化による基本周波数の変化を良く反映する効果がある。また、共振周波数の比較については分散値を用いるが、口腔内の共鳴現象の変化については平均値のみでの判断が難しく、分散値を使用することで変化を良く検出できる効果が得られる。   According to the above implementation contents, the effect of discovering dryness in the oral cavity at an early stage and noticing the user is obtained, and the user promotes actions such as rehydrating himself to recover from the dry state, or worsening the deterioration. An effect to prevent is obtained. Further, according to the above implementation contents, since only vowels are extracted for analysis, there is no need to grasp the entire utterance contents, and an effect of realizing processing in consideration of privacy can be obtained. Using the average value for comparison of the fundamental frequencies has the effect of well reflecting the change of the fundamental frequency due to the change of the stiffness of the glottis and vocal folds due to dryness. In addition, although a dispersion value is used for comparison of resonance frequencies, it is difficult to judge only the average value for a change in the resonance phenomenon in the oral cavity, and an effect that the change can be detected well by using the dispersion value is obtained.

なお、図8に示した特徴量比較処理について、母音種別判定処理において比較対象とする母音の選択が例えば「あ(/a/)」と「い(/i/)」と「え(/e/)」のように異なってもよく、あるいは発話の語頭や語尾は変化が大きいため、処理対象から除外するようにしてもよい。   In the feature amount comparison process shown in FIG. 8, the vowels to be compared in the vowel type determination process are, for example, “a (/ a /)” and “i (/ i /)” and “e (/ e)”. They may be different as in “/)”, or the beginning and end of the utterance may be excluded from the processing target because they have a large change.

また、基本周波数比較処理において基本周波数の分散値を比較して、平均値と両方の差分がそれぞれ個別の一定値以上であることを評価してもよく、あるいは、基本周波数の変動が著しく大きい(分散が大きい)場合は使用者の作為的な音色の変化である可能性があるため、比較対象から外すように処理してもよい。   In addition, in the fundamental frequency comparison process, the dispersion value of the fundamental frequency may be compared to evaluate whether the difference between the average value and the both is an individual fixed value or more, or the fluctuation of the fundamental frequency is significantly large ( If the variance is large), there is a possibility that it is a user's intentional timbre change, so processing may be performed so as not to be compared.

また、本実施例および図6では母音毎に基本周波数の情報を記録するようにしているが、基本周波数は声門および声道といった音により大きく変化しない部位の特徴量であるため、全母音に対して一つの値を記録するようにしても良い。また、共振周波数比較処理S603において、第二共振周波数の分散値の比較も行い、第一共振周波数の分散値と第二共振周波数の分散値の両方の差分が、それぞれ個別の一定の値以上であることを評価してもよい。あるいは、第一、第二共振周波数と同様に第三共振周波数以上を算出して、その特徴量の差分比較結果を組み合わせてもよい。   Further, in this embodiment and FIG. 6, information on the fundamental frequency is recorded for each vowel. However, since the fundamental frequency is a feature amount of a part that does not change greatly due to sounds such as glottis and vocal tract, One value may be recorded. Further, in the resonance frequency comparison process S603, the dispersion values of the second resonance frequency are also compared, and the difference between the dispersion value of the first resonance frequency and the dispersion value of the second resonance frequency is greater than or equal to an individual fixed value. You may evaluate something. Alternatively, the third resonance frequency or more may be calculated similarly to the first and second resonance frequencies, and the difference comparison results of the feature quantities may be combined.

このような例のように特徴量比較処理については様々なアルゴリズムによってドライマウス検出の精度を向上させる効果が期待でき、個人の特性によって、最も良く検出が実現できる手法を選別するのでもよい。   As in such an example, with respect to the feature amount comparison processing, it is possible to expect the effect of improving the accuracy of dry mouse detection by various algorithms, and it is possible to select a method that can realize the best detection according to individual characteristics.

図7にて述べた平常時の音声特徴量である平常時データ2001の取得については、様々な方法が考えられる。例えば、使用者が音声分析装置1を入手直後に行う初期設定の一環として、音声取得部やマイクの機能テストが必要である場合がある。この機能テストの際に、一つないし複数の解析対象となる母音を含む定型文章を音声分析装置1に対して発話させ、図3から図4に記載した特徴量抽出処理を行うことで、その分析結果を平常状態における音声特徴量(平常時データ2001)としてデータ保存部103に記録することができる。あるいは、音声分析装置1起動後に、全ての、ないし、所定回数の母音毎の特徴量抽出処理結果に対して平均値を算出することで、平常時の音声特徴量とすることもできる。   Various methods can be considered for acquiring the normal data 2001 which is the normal audio feature value described in FIG. 7. For example, as a part of the initial setting performed immediately after the user obtains the voice analysis device 1, a function test of the voice acquisition unit or the microphone may be required. At the time of this functional test, a fixed sentence including one or more vowels to be analyzed is uttered to the speech analysis apparatus 1, and the feature quantity extraction processing described in FIG. 3 to FIG. 4 is performed, The analysis result can be recorded in the data storage unit 103 as a speech feature (normal data 2001) in the normal state. Alternatively, after the speech analysis apparatus 1 is activated, an average value can be calculated for all or a predetermined number of vowel feature value extraction processing results to obtain a normal speech feature value.

長期的に音声分析装置を使用することを想定した場合、フォルマントは性差や個人の成長の過程においても緩やかに変化することが知られている。そのため、平常時の特徴量データを可変とする必要性が考えられる。その方法としては例えば、上記特徴量比較処理にて一定回数連続して差異無しと判定した際の母音の特徴量データについては、その平均値を新たな平常時の特徴量データとして、処理部102はデータ保存部103に記録された平常時データ2001を上書きする。このような処理を組み込むことで、緩やかに変化する個人の特性に対応したドライマウスの検出手法が実現できる効果が得られる。   It is known that formants change gradually in the process of gender differences and personal growth, assuming that speech analyzers are used over the long term. For this reason, it may be necessary to change the feature amount data in normal times. As the method, for example, with regard to the feature amount data of the vowel when it is determined that there is no difference continuously a fixed number of times in the feature amount comparison process, the processing unit 102 uses the average value as the new feature amount data of the normal. Overwrites the normal data 2001 recorded in the data storage unit 103. By incorporating such processing, it is possible to obtain an effect of realizing a dry-mouse detection method corresponding to a slowly changing individual characteristic.

図9はS503に記載したメッセージ表示処理の結果、通信装置2の画面上に通知されるメッセージ表示方法の一例である。通信装置2の表示画面20上には、メッセージを表示するメッセージ本文表示欄801、メッセージが適切であったかどうかを評価してもらうメッセージ評価部802が表示される。使用者が適切ボタン、あるいは不適正ボタンを押下した評価結果は通信装置2から音声分析装置1へ通知する。なお、図9に示した表示処理は一例であり、使用者に状況を説明するために、音声、振動、光、音など他の情報伝達手段を用い、あるいは併用することも可能である。   FIG. 9 shows an example of a method of displaying a message notified on the screen of the communication device 2 as a result of the message display process described in S503. On the display screen 20 of the communication apparatus 2, a message text display field 801 for displaying a message and a message evaluation unit 802 for evaluating whether the message is appropriate are displayed. The communication device 2 notifies the voice analysis device 1 of the evaluation result when the user presses the appropriate button or the improper button. The display process shown in FIG. 9 is an example, and other information transmission means such as voice, vibration, light, and sound can be used or used together to explain the situation to the user.

図10には、判定結果を受信した音声分析装置1における特徴量比較処理方法S502を変更する手順を示す。   FIG. 10 shows a procedure for changing the feature amount comparison processing method S502 in the voice analysis device 1 that has received the determination result.

S901の評価情報取得処理では、処理部102がメモリ104より特徴量比較に用いた判定閾値2004、たとえば基本周波数比較処理の判定閾値や共振周波数比較処理の判定閾値を読み出してS902へ進む。   In the evaluation information acquisition process of S901, the processing unit 102 reads from the memory 104 the determination threshold value 2004 used for feature amount comparison, for example, the determination threshold value of the fundamental frequency comparison process and the determination threshold value of the resonance frequency comparison process, and proceeds to S902.

S902の特徴量修正処理では、処理部102が判定閾値2004を例えば一定の割合で増加もしくは減少させた値で更新し、メモリ104ないしデータ保存部103が有する値を更新して処理を終了する。例えば、音声分析装置1の判定がドライマウスであるのに、使用者の評価が「不適切」である場合には、閾値を増加させるなどする。またこの時、それまでの解析結果と今後の解析結果とは判断基準が異なることから、メモリ104上に保存されている過去の母音の特徴量比較結果について破棄するなどしても良い。   In the feature amount correction process of S902, the processing unit 102 updates the determination threshold 2004 with, for example, a value that is increased or decreased at a constant rate, updates the values held by the memory 104 to the data storage unit 103, and ends the process. For example, even if the determination of the voice analysis device 1 is a dry mouse, if the evaluation of the user is "inappropriate", the threshold is increased. At this time, since the determination criteria for the previous analysis results and the future analysis results are different, the past vowel feature value comparison results stored in the memory 104 may be discarded.

上記実施例では簡便な説明のため使用者が1名の想定で処理を記載したが、例えば使用者が複数人いる場合においても、音声分析処理の最初ないし途中にいずれの使用者の発話であるかの判定処理を含め、発話者毎に比較処理に用いる音声特徴量データ(平常時データ2001)や閾値データ(判定閾値2004)をデータ保存部103に記録しておくことで全使用者に対して同様の分析処理を実現可能であり、また、表示メッセージ上に対象となった使用者名を明記することで、ドライマウスを早期検出し使用者に気付かせる効果を実現可能である。複数人の発話が同時に重複して入力された場合においても、音声分析処理の最初に発話内容を分離する処理を実施することで上記処理を実現可能である。なお、一般的な発話内容の分離処理方法としてDNN (Deep Neural Network)を応用した手法などがある。   In the above embodiment, the process is described on the assumption that there is one user for the sake of simple explanation. For example, even when there are a plurality of users, any user's utterance is at the beginning or during the voice analysis process. In addition, the voice feature data (normal data 2001) and threshold data (determination threshold 2004) used for comparison processing for each speaker are recorded in the data storage unit 103 for all users. Similar analysis processing can be realized, and by specifying the target user name on the display message, it is possible to realize an effect of detecting the dry mouse early and notifying the user. Even when the utterances of a plurality of persons are input simultaneously, the above process can be realized by performing the process of separating the utterance contents at the beginning of the voice analysis process. As a general method of separating speech contents, there is a method that applies DNN (Deep Neural Network).

また、本実施例で説明した音声分析装置1は、さらに使用者を見守る機能の一環としてカメラを備えるなどの機能を有するのでも良い。カメラ画像を用いることで、誰がどのくらいの距離から発話しているかが判別できるため、より確実な音量の推定を可能にしたり、複数の使用者がいる場合に誰についての解析を行うかの判別を容易にしたりするなどの効果が得られる。   In addition, the voice analysis device 1 described in the present embodiment may further have a function such as providing a camera as a part of the function of watching the user. By using camera images, it is possible to determine who is speaking from what distance, so it is possible to estimate the volume more reliably, and to determine who is to be analyzed when there are multiple users An effect such as facilitating can be obtained.

以上で説明した図3、図4、図5、図8の処理シーケンス内の各処理は、適宜処理順序を入れ替えることも可能である。例えば、図4の基本周波数推定S404と共振周波数推定S405の順序は入れ替えても良い。   The processing order of the processes in the processing sequences of FIGS. 3, 4, 5, and 8 described above can be changed as appropriate. For example, the order of the fundamental frequency estimation S404 and the resonance frequency estimation S405 in FIG. 4 may be switched.

図11には第二の実施形態として、家庭内に設置して家電を音声によって制御したり、使用者からの問い合わせについてネットワーク上の情報を収集して回答したりする音声分析装置3(例えば、人工知能搭載スピーカ、ホームコントロール端末と言われる)の外観の一例を示す。   In FIG. 11, as a second embodiment, a voice analysis device 3 (for example, for controlling a home appliance by voice and collecting information on a network and answering an inquiry from a user as a second embodiment (for example, An example of the appearance of an artificial intelligence loading speaker and a home control terminal is shown.

音声分析装置3は以下の構成を持つ。30は電源ボタンであり、音声分析装置3の起動・動作終了を操作する。31は操作ボタン(上)であり、スピーカ機能使用時の音声出力の音量を大きく変化させる、あるいは本体表示画面35に操作メニュー等を表示時、選択カーソルを上方向に動かす。32は操作ボタン(下)であり、スピーカ機能使用時の音声出力の音量を小さく変化させる、あるいは本体表示画面35に操作メニュー等を表示時、選択カーソルを下方向に動かす。33は選択/決定ボタンであり、操作時のホーム画面を呼び出す、あるいは本体表示画面35に操作メニュー等を表示時、カーソルが指し示すメニュー項目を選択する操作を行う。   The voice analysis device 3 has the following configuration. Reference numeral 30 denotes a power button, which operates activation / termination of the voice analysis device 3. Reference numeral 31 denotes an operation button (up), which greatly changes the sound output volume when the speaker function is used, or moves the selection cursor upward when an operation menu or the like is displayed on the main body display screen 35. Reference numeral 32 denotes an operation button (down), which moves the selection cursor downward when the volume of the audio output when using the speaker function is changed or when the operation menu or the like is displayed on the main body display screen 35. Reference numeral 33 denotes a selection / decision button that performs an operation of selecting a menu item pointed to by the cursor when the home screen at the time of operation is called or when an operation menu or the like is displayed on the main body display screen 35.

34は複数のマイク(マイクロホンアレイ)であり、いずれの方向からでも使用者の発話を検出することが可能である。35は本体表示画面であり、操作メニューや音声分析装置3から使用者に伝えたいメッセージを文章で表示する。36はインジケータランプであり、音声分析装置3の稼働状態や未読メッセージの有無などの状態を色によって使用者に通知する。例えば電源OFF時は無発光、起動後は青色点灯、発話を受け付けている最中は緑色点灯などと切り替える。なおインジケータランプの形状はこの図の例に限らず、例えばスピーカの淵に沿って全周囲に配置する等、360度いずれの方向からでも発色が認識できる形状としても良い。37はスピーカであり、使用者との会話やメッセージを音声として出力する。複数個のスピーカを組み合わせて360度いずれの方向にも明瞭に音声が届くような形状として良い。   A plurality of microphones (microphone arrays) 34 can detect the user's speech from any direction. Reference numeral 35 denotes a main body display screen, which displays a message to be transmitted to the user from the operation menu or the voice analysis device 3 in a sentence. An indicator lamp 36 notifies the user of the operation status of the voice analysis device 3 and the presence / absence of an unread message by color. For example, it switches to no light when the power is turned off, blue light after startup, and green light when speech is accepted. The shape of the indicator lamp is not limited to the example shown in the figure, and may be a shape that can recognize the color development from any direction of 360 degrees, for example, arranged around the entire periphery of the speaker. Reference numeral 37 denotes a speaker, which outputs conversations and messages with the user as voices. A plurality of speakers may be combined to have a shape such that sound can be clearly transmitted in any direction of 360 degrees.

通信装置2は第一の実施形態の説明と同様であり、音声分析装置3とデータの送受信を行い、使用者にメッセージを通知する
図12には音声分析装置3の機能構成を示す。音声受信部101はマイク34で受信したデータをデジタルデータに変換して処理部102へ送信する。マイクを複数の構成(マイクロホンアレイ)にした場合、一般に公開されている音源位置検出の技術や、雑音を抑圧する技術等を導入することで、音声分析装置3から離れた場所からの発話についても確実に発話内容を取得することが可能である。
The communication device 2 is the same as in the description of the first embodiment, and transmits / receives data to / from the voice analysis device 3 to notify the user of a message. FIG. 12 shows a functional configuration of the voice analysis device 3. The voice receiving unit 101 converts the data received by the microphone 34 into digital data and transmits the digital data to the processing unit 102. When the microphones have a plurality of configurations (microphone arrays), a speech source from a distance from the voice analysis device 3 is also introduced by introducing a publicly available sound source position detection technology, a noise suppression technology, and the like. It is possible to reliably acquire the utterance content.

処理部102は、第一の実施形態に加え、操作受信部107、温度センサ108、湿度センサ109から情報を取得する機能や表示部110に使用者に通知するメッセージのデータを送信する機能を有する。温度センサ108、湿度センサ109からデータ受信した場合、メモリ104に最新の値として記録する。また操作受信部107より使用者の機器操作情報を受信した場合には、押下されたボタンの種別に応じて、適宜処理を行う。例えば、電源のON/OFFを行ったり、表示部110に表示内容を更新するよう指示したりする。   In addition to the first embodiment, the processing unit 102 has a function of acquiring information from the operation receiving unit 107, the temperature sensor 108, and the humidity sensor 109, and a function of transmitting message data to notify the user to the display unit 110. . When data is received from the temperature sensor 108 and the humidity sensor 109, the latest value is recorded in the memory 104. When the user's device operation information is received from the operation receiving unit 107, appropriate processing is performed according to the type of the pressed button. For example, the power is turned on / off, or the display unit 110 is instructed to update the display content.

データ保存部103およびメモリ104は第一の実施形態と同様である。音声出力部105はスピーカ37を通じ、使用者に対する音声出力を行う。通信部106は第一の実施形態と同じく、近接通信を行うアンテナを有し、通信装置2とのデータ送受信を制御する。操作受信部107は、図11に示したボタン群(電源ボタン30、操作ボタン31、操作ボタン32、選択/決定ボタン33)が押下された場合にそれを処理部102へ通知する。   The data storage unit 103 and the memory 104 are the same as in the first embodiment. The audio output unit 105 outputs audio to the user through the speaker 37. As in the first embodiment, the communication unit 106 has an antenna for performing near-field communication, and controls data transmission and reception with the communication device 2. The operation receiving unit 107 notifies the processing unit 102 when the button group (the power button 30, the operation button 31, the operation button 32, and the selection / decision button 33) illustrated in FIG. 11 is pressed.

温度センサ108、湿度センサ109は外環境の温度および湿度を検知して処理部102へ定期的に送信する機能を有する。検出ならびに送信の間隔は例えば1秒毎などと設定する。表示部110は本体表示画面35に処理部102より受信した文字列データを表示するように制御し、処理部102より受信した装置の状態情報に応じてインジケータランプ36の点灯や発色を制御する。   The temperature sensor 108 and the humidity sensor 109 have a function of detecting the temperature and humidity of the external environment and periodically transmitting it to the processing unit 102. The detection and transmission interval is set to 1 second, for example. The display unit 110 controls to display the character string data received from the processing unit 102 on the main body display screen 35, and controls lighting and coloring of the indicator lamp 36 according to the device status information received from the processing unit 102.

図13には音声分析装置3に使用者の音声入力があった場合の処理シーケンスを示す。使用者の音声入力の定義については、第一実施形態と同様である。   FIG. 13 shows a processing sequence when the voice analysis device 3 receives voice input from the user. The definition of the user's voice input is the same as in the first embodiment.

S1201のセンサデータ取得処理では、処理部102は定期的に更新された温度センサ108と湿度センサ109の温度・湿度計測結果をメモリ104より取得してS1202へ進む。   In the sensor data acquisition process of S1201, the processing unit 102 periodically acquires the temperature / humidity measurement results of the temperature sensor 108 and the humidity sensor 109 updated from the memory 104, and proceeds to S1202.

S1202の実施判定処理では、処理部102は温度・湿度計測結果からドライマウス検出処理が必要かどうかを判断する。判断方法としては、温度と湿度のいずれかが所定の値を超えている場合(例えば温度が摂氏27.0度以上、湿度が70%以上)に必要と判断し、それ以外では不要とする。あるいは温度と湿度の相関より暑さ指数値(Wet-Bulb Globe Temperature)を推定し、結果が一定値(例えば摂氏25度)以上である場合に必要、一定値未満である場合は不要とするなどで良い。ドライマウス検出処理が必要と判断した場合はS1203の分析処理へ進み、処理不要と判断した場合は処理を終了する。   In the execution determination process of S1202, the processing unit 102 determines whether the dry mouse detection process is necessary from the temperature / humidity measurement result. As a judgment method, when either temperature or humidity exceeds a predetermined value (for example, the temperature is 27.0 ° C. or more, the humidity is 70% or more), it is judged to be necessary. Alternatively, the heat index value (Wet-Bulb Globe Temperature) is estimated from the correlation between temperature and humidity, and is necessary when the result is a certain value (for example, 25 degrees Celsius) or more, and is unnecessary when the result is less than a certain value. Good. When it is determined that the dry mouse detection process is necessary, the process proceeds to the analysis process of S1203, and when it is determined that the process is unnecessary, the process ends.

S1203の乾燥度推定処理では、第一実施形態の図3〜図7を用いて説明したドライマウス検出処理を実施して処理を終了する。ただし、S503におけるメッセージ表示処理においては、処理部102は上記処理内容に併せて本体表示画面35に使用者に対するメッセージ表示処理を、またインジケータランプ36をメッセージがあることを知らせる点灯方式(例えば赤色の点滅等)に変更する処理を行う。   In the drying degree estimation process of S1203, the dry mouse detection process described using FIGS. 3 to 7 of the first embodiment is performed, and the process is ended. However, in the message display process in S503, the processing unit 102 performs a message display process for the user on the main body display screen 35 in accordance with the above-described processing contents, and a lighting method (for example, red color) that notifies the indicator lamp 36 that there is a message. Perform processing to change to blinking etc.).

図14には表示画面例を示す。本体表示画面35には、メッセージ表示部1301が表示され、使用者に熱中症になる危険性と水分補給を促すメッセージを記載する。またボタン操作説明表示部1302が表示され、使用者に適切なボタン操作を促す。   FIG. 14 shows an example of the display screen. On the main body display screen 35, a message display unit 1301 is displayed, and a message for prompting the user of the risk of heatstroke and prompting rehydration is described. Further, a button operation explanation display unit 1302 is displayed to urge the user to perform an appropriate button operation.

以上の実施例により、家庭環境において熱中症が生じやすい環境になったことを検知してドライマウス検出処理を行うことで使用者の熱中症にかかるリスクを早期に回避する効果が得られる。また、端末の表示部にメッセージを表示することにより、通信装置2が無くても音声分析装置3単体で使用者に乾燥状態に気が付かせる効果が得られ、使用者が自ら水分補給をするなどの行動を促し乾燥状態の悪化を防ぐ効果が得られる。   According to the above embodiment, it is possible to obtain an effect of avoiding the risk of heat stroke of the user at an early stage by detecting that the environment is likely to cause heat stroke in the home environment and performing the dry mouth detection process. In addition, by displaying a message on the display unit of the terminal, an effect of making the user aware of the dry state with the voice analysis device 3 alone without the communication device 2 can be obtained, and the user can replenish himself / herself. The effect is promoted to prevent the deterioration of dryness.

なお、上記の構成例では温度センサ108と湿度センサ109を別の構成要素として記載しているが温湿度センサとして一つに統合して処理するのでも良い。また、温度や湿度の情報を別の手法で取得してもよく、例えば、音声分析装置3とネットワークを介してデータ通信可能な温度と湿度を計測可能な機器がある場合、処理部102が通信部106を介して当該機器へ問い合わせることで温度と湿度の情報を入手する、あるいは常時当該機器から温度と湿度の情報を定期的に受信して入手するなどして、上記の制御に用いることでも同様の実施内容が実現でき、同様の効果を得られる。また、S1202の実施判定処理で、温度と湿度の情報の両方を用いるほか、一方のみを用いてもよい。あるいは、他のセンサデータを追加して用いてもよい。   In the above configuration example, the temperature sensor 108 and the humidity sensor 109 are described as separate components. However, the temperature sensor 108 and the humidity sensor 109 may be integrated and processed as one temperature / humidity sensor. In addition, the temperature and humidity information may be acquired by another method. For example, when there is a device capable of measuring temperature and humidity capable of data communication with the voice analysis device 3 via a network, the processing unit 102 communicates. It is also used for the above control by obtaining temperature and humidity information by inquiring to the device via the unit 106, or by regularly receiving and obtaining temperature and humidity information from the device at all times. Similar implementation contents can be realized, and similar effects can be obtained. Further, in the execution determination process of S1202, both information of temperature and humidity may be used, or only one of them may be used. Alternatively, other sensor data may be added and used.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。   The present invention is not limited to the embodiments described above, but includes various modifications. Further, for example, the above-described embodiments are described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described configurations. Further, part of the configuration of each embodiment can be added to, deleted from, or replaced with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した非一時的記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが非一時的記憶媒体に格納されたプログラムコードを読み出す。この場合、非一時的記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した非一時的記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. The present invention can also be realized by a program code of software that realizes the functions of the embodiment. In this case, a non-transitory storage medium storing the program code is provided to the computer, and a processor included in the computer reads the program code stored in the non-transitory storage medium. In this case, the program code itself read from the non-temporary storage medium realizes the functions of the above-described embodiments, and the program code itself and the non-temporary storage medium storing the program code constitute the present invention. Will do. As a storage medium for supplying such a program code, for example, a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, a magnetic tape, A non-volatile memory card, ROM or the like is used.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。   Further, program code for realizing the functions described in the present embodiment can be implemented by a wide range of programs or script languages such as, for example, assembler, C / C ++, perl, shell, PHP, Java (registered trademark).

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。   Furthermore, by distributing the program code of the software that implements the functions of the embodiments via a network, the program code is stored in a storage means such as a hard disk or memory of a computer or a storage medium such as a CD-RW or CD-R. A processor included in the computer may read out and execute the program code stored in the storage unit or the storage medium.

以上の実施例に拠れば、使用者の発話音声を取得しデジタルデータに変換した音声データに対して、音素解析により母音部分を抽出し、抽出された母音部分について所定の時間長のデータ毎の周波数解析を行い、音響特徴量(音量、基本周波数、共振周波数)を求める。求めた音響特徴量は予め記録されている平常時の音響特徴量と比較する。比較の結果の時系列が継続的に差分の大きな状態である場合、口腔内の乾燥状態(ドライマウス)であると推定しメッセージを通知することで、早期発見する効果が得られ、使用者が自ら水分補給をするなどの行動を促し乾燥状態から回復させる効果が得られる。   According to the above embodiment, the vowel part is extracted by phoneme analysis with respect to the voice data obtained by acquiring the user's utterance voice and converted into digital data, and the extracted vowel part for each data of a predetermined time length. Frequency analysis is performed to obtain acoustic feature quantities (volume, fundamental frequency, resonant frequency). The obtained acoustic feature quantity is compared with the normal acoustic feature quantity recorded in advance. If the time series of the comparison result is continuously in the state of large difference, it is estimated that the oral cavity is in the dry state (dry mouth) and the message is notified, whereby the effect of early detection is obtained, and the user can It has the effect of promoting actions such as hydration itself and recovering from dryness.

1:音声分析装置、2:通信装置、10:マイクロホン、11:スピーカ、20:表示画面、30:電源ボタン、31:操作ボタン(上)、32:操作ボタン(下)、33:選択/決定ボタン、34:マイクロホン、35:本体表示画面、36:インジケータランプ、37:スピーカ、101:音声受信部、102:処理部、103:データ保存部、104:メモリ、105:音声出力部、106:通信部、107:操作受信部、108:温度センサ、109:湿度センサ、110:表示部、801:メッセージ本文表示欄、802:メッセージ評価部、1301:メッセージ表示部、1302:ボタン操作説明表示部   1: voice analysis device 2: communication device 10: microphone 11: speaker 20: display screen 30: power button 31: operation button (upper) 32: operation button (lower) 33: selection / determination Button 34: microphone 35: main body display screen 36: indicator lamp 37: speaker 101: audio receiver 102: processor 103: data storage 104: memory 105: audio output 106: 106 Communication unit 107: operation reception unit 108: temperature sensor 109: humidity sensor 110: display unit 801: message text display field 802: message evaluation unit 1301: message display unit 1302: button operation explanation display unit

Claims (15)

発話音声を受信する音声受信部と、
前記音声受信部が受信した音声データを分析して音声特徴量を算出する音声分析処理部と、
第二の音声データの分析結果からなる第二の音声特徴量を保存するデータ保存部と、
前記音声分析処理部の算出した音声特徴量と前記第二の音声特徴量との差異を判定する特徴量比較部と、
前記特徴量比較部の判定結果を出力する出力部と、を有し、
前記音声分析処理部は、前記発話音声中の特定の母音を解析対象とし、前記音声特徴量として基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析装置。
A voice receiving unit for receiving a uttered voice;
A voice analysis processing unit that analyzes voice data received by the voice reception unit and calculates a voice feature amount;
A data storage unit for storing a second voice feature amount comprising the analysis result of the second voice data;
A feature amount comparison unit that determines a difference between the voice feature amount calculated by the voice analysis processing unit and the second voice feature amount;
An output unit that outputs a determination result of the feature amount comparison unit,
The speech analysis apparatus characterized in that the speech analysis processing unit analyzes a specific vowel in the speech speech and obtains a fundamental frequency and a resonance frequency as the speech feature amount.
請求項1に記載の音声分析装置において、
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの基本周波数の平均値を平均値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた基本周波数の平均値と前記平均値リファレンスの差分が、所定の閾値より大きいことを判定結果とすること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
The data storage unit stores, as the second audio feature amount, an average value of the fundamental frequency of the second audio data as an average value reference,
The speech analysis apparatus characterized in that the feature amount comparison unit determines that a difference between an average value of the fundamental frequency obtained by the speech analysis processing unit and the average value reference is greater than a predetermined threshold.
請求項1に記載の音声分析装置において、
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの共振周波数の分散値を分散値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた共振周波数の分散値と前記分散値リファレンスの差分が、所定の閾値より大きいことを判定結果とすること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
The data storage unit stores a dispersion value of a resonance frequency of the second sound data as a dispersion value reference as the second sound feature amount,
The feature amount comparison unit is a speech analysis device characterized in that a determination result is that a difference between a variance value of the resonance frequency obtained by the speech analysis processing unit and the variance value reference is larger than a predetermined threshold value.
請求項1に記載の音声分析装置において、
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの基本周波数の平均値を平均値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた基本周波数の平均値と前記平均値リファレンスの差分が、所定の閾値より大きいことを第一の判定結果とし、
前記データ保存部は、前記第二の音声特徴量として、前記第二の音声データの共振周波数の分散値を分散値リファレンスとして保存し、
前記特徴量比較部は、音声分析処理部が求めた共振周波数の分散値と前記分散値リファレンスの差分が、所定の閾値より大きいことを第二の判定結果とし、
前記第一の判定結果と前記第二の判定結果がともに満たされた場合に、最終的な判定結果とすること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
The data storage unit stores, as the second audio feature amount, an average value of the fundamental frequency of the second audio data as an average value reference,
The feature amount comparison unit has a first determination result that the difference between the average value of the fundamental frequency obtained by the speech analysis processing unit and the average value reference is greater than a predetermined threshold value,
The data storage unit stores the dispersion value of the resonant frequency of the second audio data as a dispersion value reference as the second audio feature value,
The feature amount comparison unit has a second determination result that a difference between the dispersion value of the resonance frequency obtained by the speech analysis processing unit and the dispersion value reference is larger than a predetermined threshold value.
A speech analysis apparatus characterized in that a final determination result is obtained when both the first determination result and the second determination result are satisfied.
請求項1に記載の音声分析装置において、
前記音声分析処理部は、前記発話音声中の特定の母音における時間的に異なる複数の解析場所において、基本周波数と共振周波数を求める処理を行ない、
前記複数の解析場所における基本周波数の平均値と、共振周波数の分散を、前記音声特徴量として求めること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
The voice analysis processing unit performs processing for obtaining a fundamental frequency and a resonance frequency in a plurality of temporally different analysis locations in a specific vowel in the utterance voice,
A voice analysis apparatus characterized in that an average value of fundamental frequencies in the plurality of analysis locations and a variance of a resonant frequency are obtained as the voice feature amount.
請求項1に記載の音声分析装置において、
前記音声分析処理部は、所定以上の長さを有する前記音声データを解析対象とすること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
The voice analysis device, wherein the voice analysis processing unit analyzes the voice data having a predetermined length or more.
請求項1に記載の音声分析装置において、
前記音声分析処理部は、所定以上の強度を有する前記音声データを解析対象とすること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
The voice analysis device, wherein the voice analysis processing unit analyzes the voice data having a predetermined strength or more.
請求項1に記載の音声分析装置において、
利用者からの入力を受け付ける入力部を有し、
前記入力部は、前記出力部が出力した前記特徴量比較部の判定結果に対応する前記利用者からの入力を受付け、
前記入力に応じて前記特徴量比較部で用いる閾値の値を変更すること、を特徴とする音声分析装置。
In the voice analysis device according to claim 1,
Has an input unit that accepts input from the user,
The input unit receives an input from the user corresponding to the determination result of the feature amount comparison unit output by the output unit.
And changing the value of the threshold used in the feature amount comparison unit according to the input.
請求項1に記載の音声分析装置において、さらに、
温度を検出する温度検出部と、
湿度を検出する湿度検出部と、を有し、
前記温度検出部と前記湿度検出部の検出結果が所定の閾値より大きい場合に、前記音声分析処理部および前記特徴量比較部の処理を開始することを特徴とする音声分析装置。
In the speech analysis apparatus according to claim 1, further,
A temperature detection unit that detects a temperature;
A humidity detector for detecting humidity;
The speech analysis apparatus characterized by starting the processing of the speech analysis processing unit and the feature amount comparison unit when detection results of the temperature detection unit and the humidity detection unit are greater than a predetermined threshold.
発話音声を受信する音声受信ステップと、
受信した前記発話音声の音声データを分析して、評価対象音声特徴量を算出する音声分析ステップと、
リファレンスとなる音声データの分析結果からなる、リファレンス音声特徴量を取得するリファレンス取得ステップと、
前記評価対象音声特徴量と前記リファレンス音声特徴量との差異を判定する特徴量比較ステップと、
前記特徴量比較ステップの判定結果を出力する結果出力ステップと、を含み、
前記音声分析ステップでは、前記発話音声中の特定の母音を解析対象の音声データとして、基本周波数と共振周波数を求める処理を行うこと、を特徴とする音声分析方法。
A voice receiving step of receiving a uttered voice;
A speech analysis step of analyzing speech data of the received speech and calculating an evaluation target speech feature amount;
A reference acquisition step for acquiring a reference voice feature amount, which is composed of an analysis result of the reference voice data;
A feature amount comparison step for determining a difference between the evaluation target speech feature amount and the reference speech feature amount;
A result output step of outputting a determination result of the feature amount comparison step,
In the speech analysis step, the speech analysis method is characterized in that a process for obtaining a fundamental frequency and a resonance frequency is performed by using a specific vowel in the speech speech as speech data to be analyzed.
前記リファレンス音声特徴量は、前記リファレンスとなる音声データの、基本周波数の平均値と、共振周波数の分散値を含み、
前記特徴量比較ステップでは、前記平均値に対応する平均値閾値と、前記分散値に対応する分散値閾値を用い、
前記特徴量比較ステップでは、前記音声分析ステップで求められた基本周波数の平均値と、前記リファレンス音声特徴量に含まれる基本周波数の平均値の差を、前記平均値閾値と比較し、
前記特徴量比較ステップでは、前記音声分析ステップで求められた共振周波数の分散値と、前記リファレンス音声特徴量に含まれる共振周波数の分散値の差を、前記分散値閾値と比較し、
前記基本周波数の平均値の差が前記平均値閾値を超え、かつ、前記共振周波数の分散値の差が前記分散値閾値を超えている場合、前記結果出力ステップを実行すること、を特徴とする請求項10記載の音声分析方法。
The reference voice feature value includes an average value of fundamental frequencies and a variance value of resonant frequencies of the reference voice data,
In the feature amount comparison step, using an average value threshold value corresponding to the average value and a variance value threshold value corresponding to the variance value,
In the feature amount comparison step, the difference between the average value of the fundamental frequency obtained in the speech analysis step and the average value of the fundamental frequency included in the reference speech feature amount is compared with the average value threshold value,
In the feature amount comparison step, the difference between the dispersion value of the resonance frequency obtained in the speech analysis step and the dispersion value of the resonance frequency included in the reference speech feature amount is compared with the dispersion value threshold.
When the difference between the average values of the fundamental frequencies exceeds the average value threshold, and the difference between the dispersion values of the resonance frequencies exceeds the dispersion value threshold, the result output step is performed. The speech analysis method according to claim 10.
前記音声分析ステップでは、前記発話音声中の特定の母音を解析対象の音声データとして、基本周波数と共振周波数を求める処理を行う際に、
前記発話音声中の前記特定の母音が含まれている母音部分を抽出する母音部抽出ステップと、
前記母音部分が所定の長さを有しているかどうかを判定するデータ長判定ステップと、
前記母音部分が所定の音の強さを有しているかどうかを判定する音の強さ解析ステップとを実行すること、を特徴とする請求項10記載の音声分析方法。
In the voice analysis step, when performing processing for obtaining a fundamental frequency and a resonance frequency using a specific vowel in the speech voice as voice data to be analyzed,
A vowel part extraction step of extracting a vowel part including the specific vowel in the uttered voice;
A data length determination step of determining whether the vowel portion has a predetermined length;
The sound analysis method according to claim 10, further comprising: performing a sound intensity analysis step of determining whether or not the vowel part has a predetermined sound intensity.
前記音声分析ステップでは、前記発話音声の音声データを分析して、評価対象音声特徴量を算出する際に、前記発話音声中の特定の母音における時間的に異なる複数の解析場所において、基本周波数と共振周波数を求める処理を行ない、
前記複数の解析場所における基本周波数の平均値と、共振周波数の分散を、前記評価対象音声特徴量として求めること、を特徴とする請求項10記載の音声分析方法。
In the speech analysis step, when the speech data of the uttered speech is analyzed and the evaluation target speech feature value is calculated, the fundamental frequency and the analysis frequency at a plurality of different locations in the specific vowel in the uttered speech Process to determine the resonant frequency,
The speech analysis method according to claim 10, wherein an average value of fundamental frequencies and a variance of resonance frequencies at the plurality of analysis locations are obtained as the evaluation target speech feature quantities.
前記結果出力ステップで出力した前記判定結果に対応する利用者からの入力を受付け、
前記入力に応じて前記特徴量比較ステップで用いる閾値の値を変更すること、を特徴とする請求項10記載の音声分析方法。
Receiving input from the user corresponding to the determination result output in the result output step;
11. The speech analysis method according to claim 10, wherein the threshold value used in the feature amount comparison step is changed according to the input.
さらに、
温度を検出する温度検出ステップ、および、湿度を検出する湿度検出ステップの少なくともひとつ、を有し、
前記温度検出ステップ、および、前記湿度検出ステップの少なくともひとつの検出結果が所定の閾値より大きい場合に、前記音声分析ステップを行なうこと、を特徴とする請求項10記載の音声分析方法。
further,
At least one of a temperature detection step of detecting a temperature and a humidity detection step of detecting a humidity;
The speech analysis method according to claim 10, wherein the speech analysis step is performed when a detection result of at least one of the temperature detection step and the humidity detection step is larger than a predetermined threshold value.
JP2018011410A 2018-01-26 2018-01-26 Voice analyzer and voice analysis method Active JP6909733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011410A JP6909733B2 (en) 2018-01-26 2018-01-26 Voice analyzer and voice analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011410A JP6909733B2 (en) 2018-01-26 2018-01-26 Voice analyzer and voice analysis method

Publications (2)

Publication Number Publication Date
JP2019128531A true JP2019128531A (en) 2019-08-01
JP6909733B2 JP6909733B2 (en) 2021-07-28

Family

ID=67472210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011410A Active JP6909733B2 (en) 2018-01-26 2018-01-26 Voice analyzer and voice analysis method

Country Status (1)

Country Link
JP (1) JP6909733B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023077830A1 (en) * 2021-11-02 2023-05-11 青岛海尔空调器有限总公司 Method and device for controlling air conditioner, air conditioner and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514178A (en) * 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット Method and apparatus for voice analysis
JP2005352154A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device of reactively operating to feeling condition
JP2007122004A (en) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology Pronunciation diagnostic device, pronunciation diagnostic method, recording medium, and pronunciation diagnostic program
JP2010117528A (en) * 2008-11-12 2010-05-27 Fujitsu Ltd Vocal quality change decision device, vocal quality change decision method and vocal quality change decision program
US20120265024A1 (en) * 2010-10-05 2012-10-18 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors
KR20130025082A (en) * 2011-09-01 2013-03-11 한국 한의학 연구원 Apparatus and method for determining health using sound
WO2017060828A1 (en) * 2015-10-08 2017-04-13 Cordio Medical Ltd. Assessment of a pulmonary condition by speech analysis
JP2017111760A (en) * 2015-12-18 2017-06-22 カシオ計算機株式会社 Emotion estimation device creation method, emotion estimation device creation device, emotion estimation method, emotion estimation device and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514178A (en) * 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット Method and apparatus for voice analysis
JP2005352154A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device of reactively operating to feeling condition
JP2007122004A (en) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology Pronunciation diagnostic device, pronunciation diagnostic method, recording medium, and pronunciation diagnostic program
JP2010117528A (en) * 2008-11-12 2010-05-27 Fujitsu Ltd Vocal quality change decision device, vocal quality change decision method and vocal quality change decision program
US20120265024A1 (en) * 2010-10-05 2012-10-18 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors
KR20130025082A (en) * 2011-09-01 2013-03-11 한국 한의학 연구원 Apparatus and method for determining health using sound
WO2017060828A1 (en) * 2015-10-08 2017-04-13 Cordio Medical Ltd. Assessment of a pulmonary condition by speech analysis
JP2017111760A (en) * 2015-12-18 2017-06-22 カシオ計算機株式会社 Emotion estimation device creation method, emotion estimation device creation device, emotion estimation method, emotion estimation device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023077830A1 (en) * 2021-11-02 2023-05-11 青岛海尔空调器有限总公司 Method and device for controlling air conditioner, air conditioner and storage medium

Also Published As

Publication number Publication date
JP6909733B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
CN108135485B (en) Assessment of pulmonary disorders by speech analysis
US10010288B2 (en) Screening for neurological disease using speech articulation characteristics
US11380351B2 (en) System and method for pulmonary condition monitoring and analysis
US8784311B2 (en) Systems and methods of screening for medical states using speech and other vocal behaviors
CN108806720B (en) Microphone, data processor, monitoring system and monitoring method
JP5708155B2 (en) Speaker state detecting device, speaker state detecting method, and computer program for detecting speaker state
US20220007964A1 (en) Apparatus and method for detection of breathing abnormalities
JP7385299B2 (en) Estimation of lung volume by speech analysis
KR102276415B1 (en) Apparatus and method for predicting/recognizing occurrence of personal concerned context
CN110881987B (en) Old person emotion monitoring system based on wearable equipment
JP2023168424A (en) System, method and computer program product for distinguishing diagnosis-enabling data
KR20080040803A (en) Method, apparatus, and system for diagnosing health status of mobile terminal users
CN109313900A (en) Information processing equipment and information processing method
Usman et al. Heart rate detection and classification from speech spectral features using machine learning
CN109074809B (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP2021110895A (en) Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method
US20220036878A1 (en) Speech assessment using data from ear-wearable devices
JP6909733B2 (en) Voice analyzer and voice analysis method
CN112672120B (en) Projector with voice analysis function and personal health data generation method
US20220005494A1 (en) Speech analysis devices and methods for identifying migraine attacks
US20210219893A1 (en) System and method for measurement of vocal biomarkers of vitality and biological aging
WO2021132289A1 (en) Pathological condition analysis system, pathological condition analysis device, pathological condition analysis method, and pathological condition analysis program
JP6712028B1 (en) Cognitive function determination device, cognitive function determination system and computer program
WO2023232878A1 (en) Hearing device with health characterization and/or monitoring and related methods
WO2023232889A1 (en) Hearing system with hearing device based health characterization and/or monitoring and related methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R150 Certificate of patent or registration of utility model

Ref document number: 6909733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150