JP5278952B2 - Infant emotion diagnosis apparatus and method - Google Patents

Infant emotion diagnosis apparatus and method Download PDF

Info

Publication number
JP5278952B2
JP5278952B2 JP2009054487A JP2009054487A JP5278952B2 JP 5278952 B2 JP5278952 B2 JP 5278952B2 JP 2009054487 A JP2009054487 A JP 2009054487A JP 2009054487 A JP2009054487 A JP 2009054487A JP 5278952 B2 JP5278952 B2 JP 5278952B2
Authority
JP
Japan
Prior art keywords
infant
emotion
mother
infants
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009054487A
Other languages
Japanese (ja)
Other versions
JP2010210730A (en
Inventor
睦大 荒木
秀次 谷口
幹男 森
康宏 小越
晋一郎 橋向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Fukui
Original Assignee
University of Fukui
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Fukui filed Critical University of Fukui
Priority to JP2009054487A priority Critical patent/JP5278952B2/en
Publication of JP2010210730A publication Critical patent/JP2010210730A/en
Application granted granted Critical
Publication of JP5278952B2 publication Critical patent/JP5278952B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a diagnostic device of infants' feeling and a method to perform diagnosis of feeling by analyzing interaction between infants' feeling and mother's feeling. <P>SOLUTION: A pitch period of voice data is computed by transmitting the voice data to a sound processing section 12 from an air conduction microphone 1 to which voice of an infant B is input and a bone conduction microphone 2 to which voice of a mother M is input through a voice acquisition section 10. A body section 20 includes: a feeling evaluation section 21 in which fluctuation components of the pitch period are computed and evaluated as feeling evaluation data of the infant B and the mother M; a feeling diagnosis section 22 in which causal analysis and inference is performed about infant B's feeling based on the computed feeling evaluation data of the infant B and the mother M; and a childcare support section 23 in which childcare support for mother based on a diagnostic result of infant B's feeling is performed. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、乳幼児及び母親のそれぞれの音声分析に基づいて乳幼児及び母親のそれぞれの感情を判定し、乳幼児の感情と母親の感情との間の相互作用を分析して感情診断を行う乳幼児の感情診断装置及び方法に関する。   The present invention relates to an infant's emotion that determines an emotion of the infant and the mother based on the voice analysis of the infant and the mother, and analyzes an interaction between the infant's emotion and the mother's emotion to perform emotion diagnosis. The present invention relates to a diagnostic apparatus and method.

赤ちゃんのように感情を言葉で表現できない乳幼児は、泣き声、表情及び動作によりその感情を発露するのが一般的である。しかしながら、母親等の育児に携わる者には乳幼児の感情をうまく把握できない場合があり、乳幼児に対する適切な対応をとれないといった課題がある。   Infants who cannot express their emotions in words like babies generally reveal their emotions by crying, facial expressions and actions. However, there is a problem that a person who is engaged in childcare such as a mother cannot grasp the infant's emotions well and cannot take an appropriate response to the infant.

こうした課題に対しては、乳幼児の泣き声等の音声を分析し、分析したパターンを空腹、退屈、不快、眠気、ストレスといった感情別の標準パターンとのマッチング処理により乳幼児の感情を判定することが行われている。   In response to these issues, it is possible to analyze infant voices such as crying voices and determine the emotions of the infants by matching the analyzed patterns with standard patterns for emotions such as hunger, boredom, discomfort, sleepiness, and stress. It has been broken.

例えば、特許文献1では、マイクロフォンで赤ちゃんの声をサンプリングし、音声分析して基準音声パターンとマッチング処理することで赤ちゃんの感情を判定し、判定した感情が予め設定された緩和すべき感情に該当する場合には、スピーカから所定の音パターンで音出力したり、電動玩具をリモコン操作して所定の動作パターンで駆動させたり、ライトをリモコン操作して所定の点灯パターンで点灯させるといった感情緩和動作を行う点が記載されている。また、特許文献2では、状況解析部において乳児の画像、音声、生体情報に基づいて乳児の心理状態を推定し、推定した心理状態に基づいて原因推定部において過去の食事やおむつ交換の状況データ等に基づいてその原因を推定する点が記載されている。   For example, in Patent Document 1, a baby's voice is sampled with a microphone, a voice analysis is performed and matching processing with a reference voice pattern is performed to determine a baby's emotion, and the determined emotion corresponds to a preset emotion to be relaxed If you want to do this, you can output a sound with a predetermined sound pattern from the speaker, operate the electric toy with a remote control to drive it with a predetermined operation pattern, or operate the light with a remote control to light it with a predetermined lighting pattern. The point to perform is described. Further, in Patent Document 2, the situation analysis unit estimates the infant's psychological state based on the infant's image, sound, and biological information, and the cause estimation unit based on the estimated psychological state causes past meal and diaper exchange situation data. The point which estimates the cause based on etc. is described.

特開2005−185630号公報JP 2005-185630 A 特開2006−127057号公報JP 2006-127057 A

上述した先行文献では、乳幼児の音声を分析してその感情を判定しているが、現実には乳幼児の感情の原因には様々な要因が絡んでおり、統計的に泣き声及び感情の相関関係を分析しても、判定された感情の原因を特定することは難しいのが現状である。特許文献2では、予め特定された複数の原因(食事、おむつ交換、体調等)について該当するか否か分析して心理状態が生じた原因を推定しているが、乳幼児が泣く場合には周囲の環境や体調といった原因が複数重なり合っており、特定の原因に絞り込むのは現実的ではない。   In the above-mentioned prior literature, the voice of an infant is analyzed to determine its emotion, but in reality there are various factors involved in the cause of the infant's emotion, and the correlation between the cry and emotion is statistically correlated. Even after analysis, it is difficult to identify the cause of the determined emotion. In Patent Document 2, the cause of the psychological state is estimated by analyzing whether or not it corresponds to a plurality of causes specified in advance (meal, diaper exchange, physical condition, etc.). Multiple causes such as the environment and physical condition of each other overlap, and it is not realistic to narrow down to a specific cause.

乳幼児の感情の原因を分析する場合、周囲の環境においてで最も重要な要因の1つに母親の存在が挙げられる。一般に、乳幼児は母親の育児により成長していくため、母親との関係が乳幼児にとって重要であると考えられるが、先行文献では、母親との関係については考慮されていない。   When analyzing the causes of infant emotions, one of the most important factors in the surrounding environment is the presence of the mother. In general, since an infant grows up by raising a mother, the relationship with the mother is considered to be important for the infant, but the prior literature does not consider the relationship with the mother.

そこで、本発明は、乳幼児にとって重要な存在である母親との関係に着目し、乳幼児の感情と母親の感情との間の相互作用を分析して感情診断を行う乳幼児の感情診断装置及び方法を提供することを目的とするものである。   Therefore, the present invention focuses on the relationship with the mother, which is important for infants, and provides an infant emotion diagnosis apparatus and method for analyzing emotions by analyzing the interaction between the infant's emotions and the mother's emotions. It is intended to provide.

本発明に係る乳幼児の感情診断装置は、乳幼児及び母親のそれぞれの音声を取得する音声取得手段と、取得された乳幼児及び母親の音声データに基づいてそれぞれの感情評価データを算出する感情評価手段と、算出された乳幼児及び母親に関する感情評価データの時系列データにおける相関関係に基づいて乳幼児と母親との間の相互作用の影響の度合いを分析することで乳幼児の感情診断を行う感情診断手段とを備えていることを特徴とする。 An infant emotion diagnosis apparatus according to the present invention includes a voice acquisition unit that acquires voices of infants and mothers, and an emotion evaluation unit that calculates emotion evaluation data based on the acquired voice data of infants and mothers. An emotion diagnosis means for diagnosing an infant's emotion by analyzing the degree of the influence of the interaction between the infant and the mother based on the correlation in the time series data of the emotion evaluation data regarding the infant and the mother calculated It is characterized by having.

本発明に係る乳幼児の感情診断方法は、乳幼児及び母親のそれぞれの音声を取得し、取得された乳幼児及び母親の音声データに基づいてそれぞれの感情評価データを算出し、算出された乳幼児及び母親に関する感情評価データの時系列データにおける相関関係に基づいて乳幼児と母親との間の相互作用の影響の度合いを分析することで乳幼児の感情診断を行うことを特徴とする。 The infant emotion diagnosis method according to the present invention acquires the respective voices of the infant and mother, calculates respective emotion evaluation data based on the acquired infant and mother voice data, and relates to the calculated infant and mother. It is characterized in that an infant's emotion diagnosis is performed by analyzing the degree of the influence of the interaction between the infant and the mother based on the correlation in the time series data of the emotion evaluation data .

乳幼児が母親を認識し得る環境において、乳幼児及び母親のそれぞれの音声に基づいて両者の感情評価データを算出して感情評価を行うことで、母親の感情が与える影響を考慮して乳幼児の感情を診断することができ、より精度の高い感情診断を行うことが可能となる。   In an environment where infants can recognize their mothers, both emotional evaluation data is calculated based on the voices of the infants and mothers, and the emotional evaluation is performed in consideration of the influence of the mother's emotions. Diagnosis can be made, and emotion diagnosis with higher accuracy can be performed.

また、こうした乳幼児の感情に関する診断結果から乳幼児と母親との間の実際の感情の相互作用が具体化され、母親に対して育児行為における感情表現が乳幼児にどのように影響を与えるのか指摘することで育児の実態に即した的確な支援を行うことができる。   In addition, the actual emotional interaction between infants and mothers will be materialized from the results of diagnosis of infants' emotions, and point out how emotional expressions in childcare will affect infants and mothers. Can provide accurate support in line with the actual situation of childcare.

そして、音声データのピッチ周期及び/又は振幅に基づいて感情評価データを算出することで感情診断の精度を高めることができる。ここで、ピッチ周期とは、音声データの波形において繰り返し現れる波形の周期で、声帯の振動周期に対応した一定の周期を意味する。また、振幅とは音圧を意味し、通常音声データの波形では音圧である縦軸方向の大きさで表す。   And the precision of emotion diagnosis can be improved by calculating emotion evaluation data based on the pitch period and / or amplitude of voice data. Here, the pitch period is a period of a waveform that repeatedly appears in the waveform of audio data, and means a certain period corresponding to the vibration period of the vocal cords. Amplitude means sound pressure, and is represented by the magnitude of the vertical axis, which is sound pressure, in the waveform of normal voice data.

本発明に係る実施形態に関する概略構成図である。It is a schematic block diagram regarding embodiment which concerns on this invention. 取得した乳児の音声の音声波形の一例を示すグラフである。It is a graph which shows an example of the audio | voice waveform of the acquired infant's audio | voice. 図2に示す音声データのピッチ周期を時系列で示すグラフである。It is a graph which shows the pitch period of the audio | voice data shown in FIG. 2 in time series. 図3に示すピッチ周期のゆらぎ成分を時系列で示すグラフである。It is a graph which shows the fluctuation component of the pitch period shown in FIG. 3 in a time series. 乳児及び母親のゆらぎ成分の時間的推移を模式的に示すグラフである。It is a graph which shows typically time transition of the fluctuation component of an infant and a mother. 図3に示すピッチ周期に基づいて2質量振動モデルにより音声合成した音声波形に関するグラフである。It is a graph regarding the speech waveform which carried out the speech synthesis | combination by the 2 mass vibration model based on the pitch period shown in FIG. 本体部における感情診断に関する処理フローである。It is a processing flow regarding emotion diagnosis in the main body.

以下、本発明に係る実施形態について詳しく説明する。なお、以下に説明する実施形態は、本発明を実施するにあたって好ましい具体例であるから、技術的に種々の限定がなされているが、本発明は、以下の説明において特に本発明を限定する旨明記されていない限り、これらの形態に限定されるものではない。   Hereinafter, embodiments according to the present invention will be described in detail. The embodiments described below are preferable specific examples for carrying out the present invention, and thus various technical limitations are made. However, the present invention is particularly limited in the following description. Unless otherwise specified, the present invention is not limited to these forms.

図1は、本発明に係る実施形態に関する概略構成図である。乳児Bが母親Mを認識し得る環境(例えば、家庭内)において、乳児Bには、音声を入力する気導マイク1が取り付けられ、母親には、音声を入力する骨導マイク2が取り付けられている。母親に骨導マイクを取り付けることで、母親の音声を入力する際にノイズを減らすことができ、また、骨導マイクを頭部に取り付ければ、母親が家事等の動作を行う場合にも邪魔になることがなく、普段通りの状態にすることができる。   FIG. 1 is a schematic configuration diagram relating to an embodiment of the present invention. In an environment where the infant B can recognize the mother M (for example, in the home), the infant B is attached with the air conduction microphone 1 for inputting voice, and the mother is attached with the bone conduction microphone 2 for inputting voice. ing. By attaching a bone-conduction microphone to the mother, noise can be reduced when the mother's voice is input, and if the bone-conduction microphone is attached to the head, it can be an obstacle when the mother performs household chores. It can be in the normal state without becoming.

気導マイク1から入力された乳児Bの音声は音声取得部10に送信されて音声DB11に記憶される。そして、乳児Bの音声は、音声取得部10から音響処理部12に送信されて、乳児Bの音声からピッチ周期を算出する処理が行われる。ピッチ周期は、所定の時間区間毎に音声データをサンプリングし、自己相関関数等の公知の手法でサンプリング区間毎のピッチ周期を算出する。こうして算出されたピッチ周期は、時系列に関連付けられて処理DB13に記憶される。   The voice of the infant B input from the air conduction microphone 1 is transmitted to the voice acquisition unit 10 and stored in the voice DB 11. Then, the voice of the infant B is transmitted from the voice acquisition unit 10 to the acoustic processing unit 12, and processing for calculating the pitch period from the voice of the infant B is performed. The pitch period samples audio data for each predetermined time interval, and calculates a pitch period for each sampling interval by a known method such as an autocorrelation function. The pitch period calculated in this way is stored in the processing DB 13 in association with the time series.

図2は、取得した乳児Bの音声の音声波形の一例を示すグラフである。縦軸に振幅をとり、横軸に時間をとっている。図3は、図2に示す音声波形を24ミリ秒毎にサンプリングしてピッチ周期を算出した結果を時系列で示したグラフである。縦軸にピッチ周期(このグラフでは周波数で表記)をとり、横軸に時間をとっている。   FIG. 2 is a graph showing an example of the voice waveform of the acquired baby B voice. The vertical axis represents amplitude and the horizontal axis represents time. FIG. 3 is a graph showing, in time series, results obtained by sampling the voice waveform shown in FIG. 2 every 24 milliseconds and calculating the pitch period. The vertical axis represents the pitch period (indicated by frequency in this graph), and the horizontal axis represents time.

骨導マイク2から入力された母親Mの音声についても、乳児Bの場合と同様に音声取得部10に送信されて音声DB11に記憶され、音響処理部12においてピッチ周期が算出されて処理DB13にピッチ周期を時系列に配列して記憶される。   The sound of the mother M input from the bone-conduction microphone 2 is also transmitted to the sound acquisition unit 10 and stored in the sound DB 11 as in the case of the infant B, and the pitch period is calculated in the sound processing unit 12 and stored in the process DB 13. The pitch periods are stored in time series.

本体部20では、乳児B及び母親Mの感情評価データとしてピッチ周期のゆらぎ成分を算出して評価を行う感情評価部21、算出された乳児B及び母親Mの感情評価データに基づいて乳児Bの感情の原因分析及び推論を行う感情診断部22、及び、乳児Bの感情診断結果に基づいて母親に対する育児支援を行う育児支援部23を備えている。また、本体部20には、メモリ24が接続されており、メモリ24には、感情評価データを時系列で記憶する評価DB25、乳児の感情に関する原因分析結果や診断結果を記憶するとともに様々な事例に関する診断知識を記憶する診断DB26、及び、診断結果に対応する育児支援メッセージ等を記憶する支援DB27が記憶されている。   The main body 20 calculates an evaluation component by calculating a fluctuation component of the pitch cycle as emotion evaluation data of the infant B and the mother M, and the infant B and the mother M based on the calculated emotion evaluation data of the infant B and the mother M. An emotion diagnosis unit 22 that performs cause analysis and inference of emotions, and a childcare support unit 23 that provides childcare support to the mother based on the emotion diagnosis results of the infant B are provided. The main body 20 is connected to a memory 24. The memory 24 stores an evaluation DB 25 for storing emotion evaluation data in time series, causes analysis results and diagnosis results on infant emotions, and various cases. A diagnosis DB 26 for storing diagnosis knowledge about the child and a support DB 27 for storing a childcare support message corresponding to the diagnosis result are stored.

本体部20には、画像表示部30及び音声出力部31が取り付けられており、画像表示部30は、音声データや分析データ等を表示し、音声出力部31は、後述する合成音声等を出力する。   An image display unit 30 and an audio output unit 31 are attached to the main body unit 20. The image display unit 30 displays audio data, analysis data, and the like, and the audio output unit 31 outputs synthesized audio and the like described later. To do.

本体部20は、公知のコンピュータシステムを用いて構成することができる。感情評価部21、感情診断部22及び育児支援部23で行われる処理は、メモリ24に記憶されたプログラムを読み出してCPU等の処理装置により処理されるようになっている。そして、画像表示部30及び音声出力部31としては、コンピュータシステムに接続される公知の液晶パネルディスプレイ及びスピーカで構成することができる。   The main body 20 can be configured using a known computer system. The processing performed by the emotion evaluation unit 21, the emotion diagnosis unit 22, and the childcare support unit 23 reads a program stored in the memory 24 and is processed by a processing device such as a CPU. And as the image display part 30 and the audio | voice output part 31, it can comprise with the well-known liquid crystal panel display and speaker connected to a computer system.

感情評価部21は、感情評価データとして用いるピッチ周期のゆらぎ成分PPQ1を以下の式により算出する。この評価式により、ピッチ周期の平均値に対してどの程度ピッチ周期が変動しているのかがわかる。ここで、Nはピッチ周期を算出したサンプリング数、piは各サンプリング区間において算出されたピッチ周期である。 The emotion evaluation unit 21 calculates a pitch cycle fluctuation component PPQ1 used as emotion evaluation data by the following equation. This evaluation formula shows how much the pitch period varies with respect to the average pitch period. Here, N is the number of samplings for which the pitch period is calculated, and p i is the pitch period calculated in each sampling section.

Figure 0005278952
図4は、図3に示すピッチ周期に基づいて算出したゆらぎ成分を時系列で示したグラフである。縦軸にゆらぎ成分をとり、横軸に時間をとっている。このグラフをみると、ゆらぎ成分は、所定の基準値に対して振動するように変動することがわかる。
Figure 0005278952
FIG. 4 is a graph showing fluctuation components calculated based on the pitch period shown in FIG. 3 in time series. The vertical axis represents the fluctuation component, and the horizontal axis represents time. From this graph, it can be seen that the fluctuation component fluctuates so as to vibrate with respect to a predetermined reference value.

本発明者らは、こうしたゆらぎ成分の変動は、乳児の喜び及び悲しみといった感情と相関関係があることを実証している(C.Araki et.al. "An experimental system to analyze or synthesize baby's emotional voice using the varidation of pitch frequencies", ISUC.2008, 2008.12, IEEE参照)。そこで、感情評価部21では、乳児B及び母親Mの音声のピッチ周期のゆらぎ成分を算出して、両者の感情の変化を定量化する。定量化された評価データを時系列に関連付けて評価DB25に記憶する。   The present inventors have demonstrated that such fluctuations in fluctuation components correlate with emotions such as infant joy and sadness (C. Araki et.al. "An experimental system to analyze or synthesize baby's emotional voice using the varidation of pitch frequencies ", ISUC.2008, 2008.12, IEEE). Therefore, the emotion evaluation unit 21 calculates the fluctuation component of the pitch period of the voices of the infant B and the mother M, and quantifies the change in the emotion of both. The quantified evaluation data is stored in the evaluation DB 25 in association with the time series.

算出されたゆらぎ成分の定量化の手法としては、例えば、ピッチ周期のゆらぎ成分の変動幅を100として、閾値を45に設定する。なお、閾値は、収集したデータを統計的に分析して決定すればよい。そして、45より小さいときは感情が「悲しみ」の状態にあると判定され、45より大きいときは「喜び」の状態にあると判定される。また、100に近いほど「喜び」の状態が強く、0に近いほど「悲しみ」の状態が強いと判定される。   As a method of quantifying the calculated fluctuation component, for example, the fluctuation range of the fluctuation component of the pitch period is set to 100, and the threshold value is set to 45. The threshold value may be determined by statistically analyzing the collected data. When it is less than 45, it is determined that the emotion is in a “sadness” state, and when it is greater than 45, it is determined that the emotion is in a “joy” state. It is determined that the closer to 100, the stronger the “joy” state, and the closer to 0, the stronger the “sadness” state.

感情診断部22は、感情評価部21においてゆらぎ成分に基づいて評価された乳幼児B及び母親Mの感情の推移から乳幼児Bの感情を診断する。乳幼児の感情診断を行う場合、感情評価データの時間的な推移をみて、母親Mの感情との間の相関関係に着目して感情診断を行う。   The emotion diagnosis unit 22 diagnoses the emotion of the infant B from the transition of the emotions of the infant B and the mother M evaluated by the emotion evaluation unit 21 based on the fluctuation component. When performing emotion diagnosis of an infant, the emotion diagnosis is performed by looking at the temporal transition of the emotion evaluation data and paying attention to the correlation with the emotion of the mother M.

例えば、乳児Bが「喜び」又は「悲しみ」のどちらの状態にあるか判定し、判定された状態が「悲しみ」の状態であると判定された場合に、それより前の所定時間内(例えば、1分〜10分以内)に、母親Mが「悲しみ」の状態と判定される場合がないか調査する。乳児Bの「悲しみ」の状態が、それ以前の母親Mの「悲しみ」の状態と強い相関関係がある場合には、乳児Bの「悲しみ」の状態の原因が、母親の感情との間の相互作用の影響によるものと分析される。乳児Bが「喜び」の状態にあると判定された場合でも、同様に母親Mの「喜び」の状態との相関関係が調査されて、母親との間の相互作用の影響の度合いが分析される。   For example, it is determined whether the infant B is in “joy” or “sadness” state, and when it is determined that the determined state is “sadness” state, for example, within a predetermined time before that (for example, 1 to 10 minutes), it is investigated whether or not the mother M is determined to be in the state of “sadness”. When the state of “sadness” of infant B has a strong correlation with the state of “sadness” of mother M before that, the cause of the state of “sadness” of infant B is It is analyzed that it is due to the influence of interaction. Even if it is determined that the infant B is in the “joy” state, the correlation with the “joy” state of the mother M is similarly investigated, and the degree of the influence of the interaction with the mother is analyzed. The

図5は、乳児B及び母親Mのゆらぎ成分に関する時間的推移を模式的に示すグラフである。この例では、閾値を45に設定して、45以下では「悲しみ」の状態と判定し、45を超えると「喜び」の状態と判定する。乳児Bの感情(点線で表示)は、時刻t1から時刻t2までは「悲しみ」の状態となっており、その後時刻t3から時刻t4までは「喜び」の状態となっている。これに対して、母親Mの感情(実線で表示)は、乳児Bの感情が発露する直前に同様の感情状態となっており、両者の間に強い相関関係があることがわかる。したがって、母親の感情の起伏が乳児の感情に強く影響を及ぼしていることが伺われ、母親の感情が乳児の感情の主な原因の1つになっていると分析される。そして、母親の感情の起伏の大きさ、感情変動の時間間隔、日常的な感情変動の傾向といった要因と乳児の感情との相関関係が分析されて、乳児の感情の原因分析が行われる。 FIG. 5 is a graph schematically showing temporal transitions regarding fluctuation components of the infant B and the mother M. In this example, the threshold is set to 45, and if it is 45 or less, it is determined as a “sadness” state, and if it exceeds 45, it is determined as a “joy” state. The emotion of baby B (displayed with a dotted line) is in a state of “sadness” from time t 1 to time t 2 , and thereafter in a state of “joy” from time t 3 to time t 4 . On the other hand, the emotion of the mother M (displayed with a solid line) is in the same emotional state immediately before the infant B's emotion is exposed, and it can be seen that there is a strong correlation between the two. Therefore, it can be said that the undulations of the mother's emotions have a strong influence on the infant's emotions, and it is analyzed that the mother's emotions are one of the main causes of the infant's emotions. Then, the cause of the infant's emotion is analyzed by analyzing the correlation between the infant's emotion and the factors such as the magnitude of the emotional undulation of the mother, the time interval of the emotional variation, and the tendency of daily emotional variation.

また、乳児Bが空腹時やおしめの交換時における「悲しみ」の状態では、母親Mが「喜び」の状態でも乳児の感情との間では相関関係が小さくなるが、こうした母親Mと乳児Bとの間の状況と感情の相互作用との間の関連については、両者の状況を録画しておき、録画した状況と対比させて乳児の感情の原因分析を行うことで、さらに精度の高い原因分析を行うことができる。   In addition, in the state of “sadness” when the infant B is hungry or changing diapers, the correlation between the mother M and the infant B is small even if the mother M is “joyful”. With regard to the relationship between the situation and emotional interaction, a more accurate cause analysis can be performed by recording the situation of both and comparing the recorded situation with the cause of the infant's emotion It can be performed.

以上のような乳児の感情に関する原因分析結果は診断DB26に蓄積される。また、診断DB26には、過去の事例に関する原因分析及び診断結果に基づく診断知識が記憶されており、こうした診断知識を利用して乳児の感情の原因分析に基づいて推論が行われる。   The cause analysis results regarding the infant's emotion as described above are accumulated in the diagnosis DB 26. The diagnosis DB 26 stores cause knowledge about past cases and diagnosis knowledge based on diagnosis results, and inference is performed based on cause analysis of infant emotions using such diagnosis knowledge.

例えば、母親が「何か嫌なことがあって、悲しい思いを持ち続けていた」ならば、乳児は「母親とのコミュニケーションによりその思いを感じとって、悲しみをいだくようになる」、逆に、母親が「とてもうれしい気分で、にこにこ顔で、乳児をかわいいと思っている」ならば、乳児も「うれしい気分になる」といったように、乳児は、母親の「悲しみ」に対しては「悲しみ」で、母親の「喜び」に対しては「喜び」で返すという規則を仮説として立て、こうした仮説に基づいて乳児の感情について推論し、診断を行う。   For example, if a mother “has something sad and kept feeling sad”, an infant “feels that feeling through communication with the mother and feels sad”, conversely, If the mother “feels very happy, smiles and thinks the baby is cute,” the baby will “sad” for the mother ’s “sadness”, such as “the child will be happy”. The hypothesis is that the mother's “joy” should be returned with “joy” as a hypothesis. Based on this hypothesis, the infant's emotions are inferred and diagnosed.

そして、診断DB26には、様々な事例において乳児及び母親の感情の相互作用がどのように行われたか分析してパターン化し、様々な事例に関する感情パターンを蓄積しておく。例えば、母親の精神状態が悪化した状態(もう死んでしまいたい、この子は可愛くない、いらない子だ−等)である場合の感情パターン、又は、精神状態が良好な状態(この子のためならどんなことでもしてあげたい−等)である場合の感情パターンといった様々な感情パターンを定量化してデータベース化しておく。   The diagnosis DB 26 analyzes and patterns how the infant and mother's emotions interact in various cases, and stores emotion patterns related to the various cases. For example, emotional patterns when the mother's mental condition has deteriorated (I want to die anymore, this child is not cute, I don't need a child, etc.), or a good mental state (for this child Quantify various emotional patterns, such as emotional patterns in the case of anything you want to do-etc.) into a database.

そして、診断する事例と感情パターンとの間の類似関係をマッチング分析することで、より具体化した精度の高い診断を行うことが可能となる。   Then, by performing a matching analysis on the similarity relationship between the case to be diagnosed and the emotion pattern, it is possible to perform a more specific and accurate diagnosis.

育児支援部23は、感情診断部22における乳児の感情に関する診断結果に基づいて母親に対する育児支援情報を作成して画像表示部30に表示する。例えば、母子の関係について良好な状態であると診断された場合には、母親に対するメッセージとして「今の調子で赤ちゃんに接してください」と表示する。逆に、乳児の感情が「悲しみ」の状態と判定されて母子の関係が悪化していると診断された場合は、母親に対するメッセージとして「お母さんの感情の状態はあまりよくありませんよ。もっと落ち着いて赤ちゃんに接してください。もっと明るくなるように、楽しいことを思い出したり、イメージしてください。」と表示する。   The childcare support unit 23 creates childcare support information for the mother based on the diagnosis result regarding the emotion of the infant in the emotion diagnosis unit 22 and displays the information on the image display unit 30. For example, when it is diagnosed that the relationship between the mother and the child is in a good state, the message “Please contact the baby in the current condition” is displayed as a message to the mother. On the other hand, if the infant's emotion is judged to be “sad” and the mother-child relationship is diagnosed, the message to the mother says “Mom ’s emotional state is not so good. Please touch your baby. Please remember and imagine the fun so that it will be brighter. "

このように診断結果に対応したメッセージをパターン化して支援DB27に予め記憶しておき、診断結果に応じて該当するメッセージを読み出して表示する。   Thus, the message corresponding to the diagnosis result is patterned and stored in the support DB 27 in advance, and the corresponding message is read and displayed according to the diagnosis result.

音声合成部14は、音響処理部12において算出されたピッチ周期に基づいて音声を合成する。合成された音声は合成音声DB15に記憶される。   The speech synthesizer 14 synthesizes speech based on the pitch period calculated by the acoustic processing unit 12. The synthesized voice is stored in the synthesized voice DB 15.

ピッチ周期から音声を合成する技術に関して、本発明者らは、声帯の2質量振動モデルを用いて実際の感情を反映した音声合成が可能であることを実証している(上記の本発明者らの論文参照)。使用する声帯の振動モデルは、1質量振動モデルを用いてもよい。特に、乳児の場合には1質量振動モデルを用いた方が実際の音声に近い合成音声を得ることができる。図6は、図3に示すピッチ周期に基づいて2質量振動モデルにより音声合成した音声波形に関するグラフである。   Regarding the technology for synthesizing speech from the pitch period, the present inventors have demonstrated that speech synthesis reflecting actual emotions can be performed using a two-mass vibration model of the vocal cords (the above-described present inventors See the paper). A one-mass vibration model may be used as the vocal fold vibration model to be used. In particular, in the case of an infant, synthesized speech that is closer to actual speech can be obtained by using the one-mass vibration model. FIG. 6 is a graph relating to a speech waveform obtained by speech synthesis using a two-mass vibration model based on the pitch period shown in FIG.

音声合成部14において合成された音声データは、本体部20に送信されて音声取得部10からの実際の音声データと比較されて合成音声が実際の音声にどの程度近づいているか感情評価部21で検証される。また、育児支援部23では、乳児の「喜び」及び「悲しみ」の状態における合成音声を音声出力部31から出力して母親に乳児の感情に対応した声を聞かせたり、「悲しみ」の状態の乳児に対して母親の「喜び」の状態の合成音声を聞かせる、といったように育児支援に用いることもできる。   The voice data synthesized in the voice synthesizing unit 14 is transmitted to the main body unit 20 and compared with the actual voice data from the voice acquisition unit 10 to determine how close the synthesized voice is to the actual voice in the emotion evaluation unit 21. Validated. In addition, the childcare support unit 23 outputs a synthesized voice in the “joy” and “sadness” states of the infant from the voice output unit 31 to let the mother hear a voice corresponding to the emotion of the infant, It can also be used for childcare support, such as for the infant to hear a synthesized voice of the mother's “joy” state.

図7は、本体部20における感情診断に関する処理フローである。まず、音響処理部12から入力される乳児及び母親のピッチ周期の時系列データに基づいてピッチ周期のゆらぎ成分を上述のように算出してゆらぎ成分の時系列データを得る(S100)。ゆらぎ成分の時系列データに基づいて乳児及び母親が「喜び」の状態又は「悲しみ」の状態であるか所定の閾値を基準に判定し、判定された両者の感情の時間的な推移からその相関関係を分析する(S101)。   FIG. 7 is a processing flow related to emotion diagnosis in the main unit 20. First, the fluctuation component of the pitch period is calculated as described above based on the time series data of the pitch period of the infant and mother input from the acoustic processing unit 12 to obtain time series data of the fluctuation component (S100). Based on the time-series data of fluctuation components, the infant and mother are judged to be in “joy” or “sadness” based on a predetermined threshold, and the correlation is based on the temporal transition of the determined emotions. The relationship is analyzed (S101).

両者の感情の相関関係に基づいて乳児の感情の原因分析を行い、推論により母子関係の診断を行う(S102)。そして、診断結果に対応した育児支援メッセージを選択して読み出し(S103)、読み出された育児支援メッセージを表示部に表示する(S104)。   The cause analysis of the infant's emotion is performed based on the correlation between both emotions, and the mother-child relationship is diagnosed by inference (S102). Then, a childcare support message corresponding to the diagnosis result is selected and read (S103), and the read childcare support message is displayed on the display unit (S104).

1 気導マイク
2 骨導マイク
10 音声取得部
11 音声DB
12 音響処理部
13 処理DB
14 音声合成部
15 合成音声DB
20 本体部
21 感情評価部
22 感情診断部
23 育児支援部
24 メモリ
25 評価DB
26 診断DB
27 支援DB
30 表示部
31 音声出力部
1 Air conduction microphone 2 Bone conduction microphone
10 Voice acquisition unit
11 Voice DB
12 Sound processor
13 Processing DB
14 Speech synthesis unit
15 Synthetic voice DB
20 Main unit
21 Emotion Evaluation Department
22 Emotion diagnosis department
23 Childcare support department
24 memory
25 Evaluation DB
26 Diagnosis DB
27 Support DB
30 Display section
31 Audio output section

Claims (3)

乳幼児及び母親のそれぞれの音声を取得する音声取得手段と、取得された乳幼児及び母親の音声データに基づいてそれぞれの感情評価データを算出する感情評価手段と、算出された乳幼児及び母親に関する感情評価データの時系列データにおける相関関係に基づいて乳幼児と母親との間の相互作用の影響の度合いを分析することで乳幼児の感情診断を行う感情診断手段とを備えていることを特徴とする乳幼児の感情診断装置。 Voice acquisition means for acquiring voices of infants and mothers, emotion evaluation means for calculating emotion evaluation data based on the acquired voice data of infants and mothers, and emotion evaluation data regarding the calculated infants and mothers Emotions of infants characterized by having emotion diagnosis means for analyzing emotions of infants by analyzing the degree of interaction between infants and mothers based on the correlation in time series Diagnostic device. 乳幼児及び母親のそれぞれの音声を取得し、取得された乳幼児及び母親の音声データに基づいてそれぞれの感情評価データを算出し、算出された乳幼児及び母親に関する感情評価データの時系列データにおける相関関係に基づいて乳幼児と母親との間の相互作用の影響の度合いを分析することで乳幼児の感情診断を行うことを特徴とする乳幼児の感情診断方法。Acquire voices of infants and mothers, calculate emotional evaluation data based on the acquired voice data of infants and mothers, and calculate correlations in time-series data of emotional evaluation data about infants and mothers. A method for diagnosing an infant's emotion, characterized in that the infant's emotion is diagnosed by analyzing the degree of influence of the interaction between the infant and the mother. コンピュータを、請求項1に記載の感情評価手段及び感情診断手段として機能させるためのプログラム。A program for causing a computer to function as emotion evaluation means and emotion diagnosis means according to claim 1.
JP2009054487A 2009-03-09 2009-03-09 Infant emotion diagnosis apparatus and method Expired - Fee Related JP5278952B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009054487A JP5278952B2 (en) 2009-03-09 2009-03-09 Infant emotion diagnosis apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009054487A JP5278952B2 (en) 2009-03-09 2009-03-09 Infant emotion diagnosis apparatus and method

Publications (2)

Publication Number Publication Date
JP2010210730A JP2010210730A (en) 2010-09-24
JP5278952B2 true JP5278952B2 (en) 2013-09-04

Family

ID=42970989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009054487A Expired - Fee Related JP5278952B2 (en) 2009-03-09 2009-03-09 Infant emotion diagnosis apparatus and method

Country Status (1)

Country Link
JP (1) JP5278952B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
JP5772448B2 (en) * 2011-09-27 2015-09-02 富士ゼロックス株式会社 Speech analysis system and speech analysis apparatus
US8908894B2 (en) 2011-12-01 2014-12-09 At&T Intellectual Property I, L.P. Devices and methods for transferring data through a human body
US10108984B2 (en) 2013-10-29 2018-10-23 At&T Intellectual Property I, L.P. Detecting body language via bone conduction
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
US9349280B2 (en) 2013-11-18 2016-05-24 At&T Intellectual Property I, L.P. Disrupting bone conduction signals
US10678322B2 (en) 2013-11-18 2020-06-09 At&T Intellectual Property I, L.P. Pressure sensing via bone conduction
US9715774B2 (en) 2013-11-19 2017-07-25 At&T Intellectual Property I, L.P. Authenticating a user on behalf of another user based upon a unique body signature determined through bone conduction signals
US9405892B2 (en) 2013-11-26 2016-08-02 At&T Intellectual Property I, L.P. Preventing spoofing attacks for bone conduction applications
JP6164076B2 (en) * 2013-12-17 2017-07-19 ソニー株式会社 Information processing apparatus, information processing method, and program
US10045732B2 (en) 2014-09-10 2018-08-14 At&T Intellectual Property I, L.P. Measuring muscle exertion using bone conduction
US9589482B2 (en) 2014-09-10 2017-03-07 At&T Intellectual Property I, L.P. Bone conduction tags
US9882992B2 (en) 2014-09-10 2018-01-30 At&T Intellectual Property I, L.P. Data session handoff using bone conduction
US9582071B2 (en) 2014-09-10 2017-02-28 At&T Intellectual Property I, L.P. Device hold determination using bone conduction
US9600079B2 (en) 2014-10-15 2017-03-21 At&T Intellectual Property I, L.P. Surface determination via bone conduction
WO2017168663A1 (en) * 2016-03-30 2017-10-05 富士通株式会社 Utterance impression determination program, method for determining utterance impression, and utterance impression determination device
JP6605410B2 (en) * 2016-07-15 2019-11-13 Kddi株式会社 Emotion factor estimation support device, emotion factor estimation support method, and emotion factor estimation support program
WO2019225248A1 (en) * 2018-05-24 2019-11-28 パナソニックIpマネジメント株式会社 Behavior induction system, behavior induction method, and program
US10831316B2 (en) 2018-07-26 2020-11-10 At&T Intellectual Property I, L.P. Surface interface
KR102611458B1 (en) * 2018-09-06 2023-12-11 주식회사 아이앤나 Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region
CN109658953A (en) * 2019-01-12 2019-04-19 深圳先进技术研究院 A kind of vagitus recognition methods, device and equipment
CN112617887B (en) * 2020-12-31 2022-02-22 山西美好蕴育生物科技有限责任公司 Mother heart sound intelligent acquisition and processing method for placating baby

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3564501B2 (en) * 2001-03-22 2004-09-15 学校法人明治大学 Infant voice analysis system
JP2004259238A (en) * 2003-02-25 2004-09-16 Kazuhiko Tsuda Feeling understanding system in natural language analysis
JP2005185630A (en) * 2003-12-26 2005-07-14 Casio Comput Co Ltd Nursing assistant device, emotion relaxing control device and program
JP4794846B2 (en) * 2004-10-27 2011-10-19 キヤノン株式会社 Estimation apparatus and estimation method
JP4851447B2 (en) * 2005-06-09 2012-01-11 株式会社エイ・ジー・アイ Speech analysis apparatus, speech analysis method, and speech analysis program for detecting pitch frequency
JP4728868B2 (en) * 2006-04-18 2011-07-20 日本電信電話株式会社 Response evaluation apparatus, method, program, and recording medium
CN101346758B (en) * 2006-06-23 2011-07-27 松下电器产业株式会社 Emotion recognizer

Also Published As

Publication number Publication date
JP2010210730A (en) 2010-09-24

Similar Documents

Publication Publication Date Title
JP5278952B2 (en) Infant emotion diagnosis apparatus and method
Airas TKK Aparat: An environment for voice inverse filtering and parameterization
Gunes et al. Emotion representation, analysis and synthesis in continuous space: A survey
Liu et al. Infant cry language analysis and recognition: an experimental approach
Pretzer et al. Infant-adult vocal interaction dynamics depend on infant vocal type, child-directedness of adult speech, and timeframe
KR102078525B1 (en) Method for providing diagnostic information on cardiovascular diseases using a smart device and heart sound application for the same
JP2006127057A (en) Estimation device and its control method
EP3430489A1 (en) Personal emotion-based computer readable cognitive sensory memory and cognitive insights for enhancing memorization and decision making
US11751813B2 (en) System, method and computer program product for detecting a mobile phone user&#39;s risky medical condition
WO2019086856A1 (en) Systems and methods for combining and analysing human states
TW202112506A (en) Personal assistant control system
JP2021146214A (en) Techniques for separating driving emotion from media induced emotion in driver monitoring system
Morelli et al. BioVoice: A multipurpose tool for voice analysis
Delle Monache et al. Conceptualising sound-driven design: an exploratory discourse analysis
Alishamol et al. System for infant cry emotion recognition using DNN
Aggarwal et al. A machine learning approach to classify biomedical acoustic features for baby cries
Myakala et al. A low cost intelligent smart system for real time infant monitoring and cry detection
Islam et al. A motion detection algorithm for video-polysomnography to diagnose sleep disorder
Myakala et al. An intelligent system for infant cry detection and information in real time
US20230377718A1 (en) Medical tool aiding diagnosed psychosis patients in detecting auditory psychosis symptoms associated with psychosis
Özcan et al. Doplor Sleep: Monitoring hospital soundscapes for better sleep hygiene
MacDonald et al. Measuring prosodic predictability in children's home language environments
JP6861398B2 (en) Information processing method and information processing device
Low et al. Uncovering the important acoustic features for detecting vocal fold paralysis with explainable machine learning.
Colletti et al. Voice onset time in children with and without vocal fold nodules

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130515

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5278952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees